【苦しみながら理解する深層学習】Deep Learning‐Based Crack Damage Detection Using Convolutional Neural Networks

なんか普通に共有されていない感が…
wiley online library登録したけどみれなかったけど、ここからダウンロードできた。
この辺の論文周りの登録は結構嫌な思い出がある。ややこしくて。

どんなもの?

コンクリートの欠損をdeep learningを使って見分ける。
写真を撮っている環境が違ってもコンクリートの欠損を検出可能。

先行研究と比べてどこがすごい?

従来の研究では光の当たり具合などの外部環境により検出に問題があったが、CNNを使うことで改善された。
以前はエッジ検出(sobel or canny)などだったが、光の加減やdistortionに弱い。

多くの物体の欠損検出の研究でimage processing techniquemachine learning algorithmが使われる
その中でcnnが一番良い結果を残してきている。
しかし、現在のCNNやNNを使った検出では多くのラベリングされた画像と計算コストを必要とする。

この研究の検出目標:
* cracks of concrete
* delamination, voids, spalling, and corrosion of concrete and steel members

過去の検出方法との比較。

fig15

fig16

fig17

fig18

fig19

技術や手法のキモはどこ?

fig1

画像

322枚の画像
trainingとvalidationに277枚(4928×3264)、testに55枚(5888×3584)
trainingとvalidationの画像は256×256にcropして手作業でanotateつける。
(検出に対応させる画像よりも小さい画像である必要があるためcropする)

fig7の画像はうまく検出できるが、fig8の画像は検出が難しい。

fig7

fig8

カメラはDSLR camera (Nikon D5200)を使い光の当たり具合を変えて撮影している。

CNN

MatConvNet (Vedaldi and Lenc, 2015)を使っている。

fig2

table1

ミニバッチサイズは100、小さいlearning rateからはじめて減少させる(Wilson and Martinez, 2001)
重み減衰(Weight decay)は0.0001、SGDの方向や距離(momentum)は0.9。

strideはC1からC3、P1からP2までは2、C4は1。
ReLUの前のドロップアウトレートは0.5。

欠損が画像の端にある場合うまく検出できないことを考慮して、testデータに対するsliding windowsは2回にかけて行う。

fig11

どうやって有効だと検証した?

validationデータの結果。
fig10

実際はこんな感じで検出される。
fig14
fig14_2

精度。高い。
tableA1_1
tableA1_2

次に読むべき論文は?

ちょっとsegmentationについて調べたいので、このpaperとは関係なくそちらを読む。

コメントを残す

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です