·90· 福 建 建 筑 2023 年
行对象种类与矩形框位置等预测。 常见的作法之一,
为特征金字塔 ( Feature Pyramid Network,FPN)。 而
YOLO - v5 则是延伸使用了更为复杂的 Path Aggregation Network (PANet),充分利用高低阶特征,并成功
训练模型。 由于 YOLO - v5 模型能达到实时运算,且辨
识表现也有一定的水平,因此,能为建物损坏检测提供实
时的辨识成果,辅助检测人员快速扫描建物的现况。
2. 3 实例分割方法 - Mask R - CNN
[2]
本研究选用 Mask R - CNN 作为实例分割模型。
比起对象侦测,能将目标物位置轮廓精确至像素级
别,并区分同一类别之不同个体。 Mask R - CNN 结
合对象侦测模型 - Faster R - CNN 和全卷积网络,在
对象框识别基础上加入预测语义屏蔽 (mask) 的网
络分支,并修改 Faster R - CNN 池化层,保留图像上
准确的空间位置,优化影像分割之对象边缘。 对建物
损坏检测应用来说,Mask R - CNN 因为比 YOLO - v5
网络节点较多,且需要更长的运算时间,所以较难达
到实时辨识。 但是作为影像分割算法,可以提供更为
精确的损坏范围,仍能提供检测作后续的分析。 即现
地检测结束后,为确定损坏目标边缘与位置而做二次
影像判别,利用像素级之影像辨识,大幅提升肉眼难
以辨识之损坏确切位置和尺度,尤其是对于裂缝或裂
纹等较细微且形状不规则的损坏。
3 应用案例与成果
本研究实作之场域为桃园市小学之走廊,该场域
可再细分为五个区域,如图 3 所示。 由于该场域校舍
近期经粉刷整修,结构表面几乎未有裂缝裂纹,亦没
有钢筋裸露的现象,故整体损坏类别为大量壁癌渗水
和极少量裂缝裂纹。 因此,以下成果将探讨壁检测场
域之癌渗水与极少量裂缝裂纹辨识成果。 本研究使
用 iPhone SE2 相机记录结构表面损坏,并采固定之拍
摄流程,如图 4 所示。 首先,以全景或透视视角拍摄
检测区域全貌,以便取得图像映射场域之相对位置。
再次,依建物特性区分成墙柱与版梁,由下而上、由远
至近来回拍摄,并使相机平行于受检测之结构表面,
逐一完整记录建物表面之影像。 对特定范围或需加
强检测之区域,补强拍摄,纪录该位置之损坏,且拍摄
时不需限制,将相机平行于受检测物表面。 检测区域
纪录完成后,再将拍摄的影像分别输入于训练好的
YOLO - v5 作对象侦测,以及 Mask R - CNN,作影像
分割。 本研究在训练模型设定上,除参考模型开发之
默认值,亦参考网络上公开讨论之超参数设定成果,
并经由多次实验反复调整设定值,训练迭代次数(epoch)为 300,批次数量(batch - size)为 16,初始学习率
(learning rate)分别为 0. 001,并随着梯度下降调整学
习率。 另外,为增加模型学习效率,本研究利用采迁
移式学习,利用预先针对 COCO 公开数据训练之成
果,作为预训练权重输入模型中,经由微调可提升模
型,对结构损坏影像的特征提取能力。 而本研究经多
次实验后,采用 YOLOv5 - l,作为模型之预训练权重。
由于实验场域的影像多为壁癌渗水,故仅先考虑 YOLO - v5 所预测的侦测结果,并与人工判定损坏之基
准真相(Ground Truth)做比较,如图 5 所示,并统计各
个区域辨识的混淆矩阵(Confusion Matrix),获得 True
Positive ( TP)、False Positive ( FP) 与 False Negative
(FN)值,利用其比例关系计算精确率 (Precision)、召
回率 (Recall) 及皮氏分数 ( F - score),上述各指标
的计算公式如式(1) ~ (3):
Precision =
TP
TP + FP
(1)
Recall =
TP
TP + FN
(2)
F - score = 2 ×
precision × recall
precision + recall
(3)
图 3 检测场域分区示意图
图 4 拍摄手法示意图
图 5 模型辨识示意图