SlideShare a Scribd company logo
1 of 38
防犯カメラを用いた
ひったくり犯の
検出・追跡
徳島大学 理工学部 理工学科
B5研究室
矢野 大暉
令和2年度 情報系卒業研究発表会
• 防犯カメラの設置台数が増加している
• 今後も増えることが予想できる
1
*1
情報系卒業研究発表会
研究の背景・目的(1/4)
25450
27940
34500
44000
54000
64800
0
10000
20000
30000
40000
50000
60000
70000
2014年 2015年 2016年 2017年 2018年 2019年
防犯カメラ世界市場規模推移
カメラ台数
単位:千台
矢野経済研究所調べ
2
研究の背景・目的(2/4)
• 街頭での犯罪防止策
• パトロール
• 防犯カメラの使用
• 警察庁「街頭防犯カメラシステム」
ネットワーク
警視庁
各警察署で
24時間体制でモニター
事件の発生、予測は有人監視が可能な場合のみできる
*1
情報系卒業研究発表会
• これから増える従来型の防犯カメラは映像記録が主目的
• 事件の発生、予測は有人監視が可能な場合のみできる
3
研究の背景・目的(3/4)
犯罪行為の自動検知ができると
効果的な防犯に繋がる
情報系卒業研究発表会
研究の背景・目的(4/4)
4
• ひったくり
模倣性が高い
パトロールだけでは防犯は困難
被害者は高齢者が多く、負傷し、死亡する可能性
情報系卒業研究発表会
先行研究
1. 長山 格, 宮原 彬, 島袋 航一 : 深層学習による時系列挙動
認識を用いた次世代型知的防犯カメラシステム
ひったくりの状況をモデル化して推定し、LSTMネットワークに時
系列画像データとして入力し判定
2. Debaditya Roya, C. Krishna Mohana : Snatch Theft
Detection in Unconstrained Surveillance
Videos_Using Action Attribute Modelling
大規模人物動画データセット(HMDB51, UCF101)から、低次元な
action vectorという表現にしてひったくり動作を分類する
5
情報系卒業研究発表会
先行研究との違い:映像データからのひったくり検出である
リアルタイム検出が行える
先行研究
1. 長山 格, 宮原 彬, 島袋 航一 : 深層学習による時系列挙動
認識を用いた次世代型知的防犯カメラシステム
入力データがシルエット
2. Debaditya Roya, C. Krishna Mohana : Snatch Theft
Detection in Unconstrained Surveillance
Videos_Using Action Attribute Modelling
リアルタイム検出ができない
6
*1
情報系卒業研究発表会
提案手法(1/14)
7
データ
取得部
歩行者
検出部
歩行者
追跡部
前処理
部
ひった
くり
検出部
情報系卒業研究発表会
提案手法(1/14)
8
データ
取得部
歩行者
検出部
歩行者
追跡部
前処理
部
ひった
くり
検出部
情報系卒業研究発表会
提案手法(2/14)
9
• 動画データの取得
解像度 704*480
フレームレート 30 fps
フォーマット MPEG-2
回転角度 水平±170°
垂直 -30~90°
光学ズーム 18倍
動画情報とカメラ情報
SONY EVI-D70 GV-USB2 PC
データ
取得部
*1 *2
情報系卒業研究発表会
提案手法(3/14)
10
• ひったくり
• 歩行者同士
• ハンドバッグが背後から盗難されたときとする
データ
取得部
• 制約条件
• 映像内にひったくり被害者、加害者の2名のみ
情報系卒業研究発表会
提案手法(4/14)
11
• 歩行者検出部
• リサイズ処理
• YOLOv4 (You Only Look Once v4)
歩行者
検出部
情報系卒業研究発表会
提案手法(4/14)
12
• 歩行者検出部
• リサイズ処理
歩行者
検出部
704
480
608
608
情報系卒業研究発表会
提案手法(5/14)
13
• 歩行者検出部
• YOLOv4 (You Only Look Once v4)
• 高速な物体検出が可能な深層学習モデル
歩行者
検出部
*1
情報系卒業研究発表会
提案手法(6/14)
14
• 歩行者追跡部
• DeepSORT
• 同一人物を追跡するアルゴリズム
歩行者
追跡部
情報系卒業研究発表会
提案手法(7/14)
15
• 歩行者追跡部
• DeepSORT
• 同一人物を追跡するアルゴリズム
歩行者
追跡部
現在のフレームでの検出領域
CNN
CNN
3 23 34 … 44
4 54 66 … 55
特徴ベクトル
CNN構造
*1
情報系卒業研究発表会
提案手法(8/14)
16
• 歩行者追跡部
• DeepSORT
• 同一人物を追跡するアルゴリズム
歩行者
追跡部
追跡物体の画像郡
情報系卒業研究発表会
提案手法(9/14)
17
• 歩行者追跡部
• DeepSORT
• 同一人物を追跡するアルゴリズム
歩行者
追跡部
3 23 34 … 44
3 23 34 … 44
3 23 34 … 44
4 24 14 … 45
3 23 34 … 44
3 23 34 … 44
3 23 34 … 44
4 24 14 … 45
追跡物体の特徴ベクトル
3 23 34 … 44
4 54 66 … 55
特徴ベクトル
情報系卒業研究発表会
提案手法(10/14)
18
• 歩行者追跡部
• DeepSORT
• 同一人物を追跡するアルゴリズム
歩行者
追跡部
3 23 34 … 44
3 23 34 … 44
3 23 34 … 44
4 24 14 … 45
3 23 34 … 44
3 23 34 … 44
3 23 34 … 44
4 24 14 … 45
追跡物体の特徴ベクトル
3 23 34 … 44
4 54 66 … 55
特徴ベクトル
距離が最小
情報系卒業研究発表会
提案手法(11/14)
19
• 歩行者追跡部
• DeepSORT
• 同一人物を追跡するアルゴリズム
歩行者
追跡部
情報系卒業研究発表会
提案手法(12/14)
20
• 前処理部
• 追跡人物を16フレームごとに保存
• リサイズ、パディング、標準化
前処理部
16フレーム
新
古
• キュー構造になっている
情報系卒業研究発表会
提案手法(13/14)
21
• 前処理部
• リサイズ、パディング、標準化
前処理部
0 …
… 0 0 0
0
0
情報系卒業研究発表会
提案手法(14/14)
22
• ひったくり検出部
• ECO Liteを転移学習
ひったくり
検出部
前処理済
データ
フレーム1
フレームn
フレーム16
2DNet
モジュール
結合
3D Net
モジュール
全結合層
2DNet
モジュール
2DNet
モジュール
……
……
*1
16*3*244*244
(frame,ch,hei
ght,width)
400クラス
情報系卒業研究発表会
提案手法(14/14)
23
• ひったくり検出部
• ECO Liteを転移学習
ひったくり
検出部
前処理済
データ
フレーム1
フレームn
フレーム16
2DNet
モジュール
結合
3D Net
モジュール
全結合層
2DNet
モジュール
2DNet
モジュール
……
……
*1
16*3*244*244
(frame,ch,heig
ht,width)
2クラス
情報系卒業研究発表会
24
• 撮影方向は3つ
• ひったくりがある場合、ない場合を撮影
• ひったくり動作は「歩行者同士、後ろからハンド
バッグを盗られる」とする
実験(1/5)
撮影方向A 撮影方向B 撮影方向C
• ひったくり検出部の転移学習
• データセットについて
情報系卒業研究発表会
25
• 撮影環境は3つ
• ひったくりがある場合、ない場合を撮影
• ひったくり動作は「歩行者同士、後ろからハンド
バッグを盗られる」とする
• 移動方向を2パターン
合計237本の動画データを使用
実験(2/5)
撮影方向A 撮影方向B 撮影方向C
• ひったくり検出部の転移学習
• データセットについて
情報系卒業研究発表会
26
実験(3/5)
ひったくりあり動画データ
ひったくり動作24フレーム
ひったくりありデータセット
ひったくりなしデータセット
ひったくりなし動画データ
• ひったくり検出部の転移学習
• データセットについて
YOLOv4 +
DeepSORT
119本
116本
YOLOv4 +
DeepSORT
情報系卒業研究発表会
• ひったくり検出部の転移学習
• 4分割交差検証を使用する
• 学習時には、開始フレームがランダムな連続16フ
レームをデータセットから入力する
27
実験(4/5)
<例>ひったくりありデータセットから16フレーム 16フレーム入力
ひったくり前後24フレーム
ひったくりありデータセット 情報系卒業研究発表会
• ひったくり検出部の転移学習
• 事前学習済みの動画分類モデル(ECO Lite,
3DResNet18, 3DResNet50, 3DResNet101)を使用
する
• 最後の全結合層を2クラス分類に変更し、転移学習
28
実験(5/5)
エポック数 40
バッチサイズ 8
最適化アルゴリズム Momentum SGD
学習率 0.0001
モーメント項の係数 0.9
ハイパーパラメータ
情報系卒業研究発表会
29
結果
モデル 精度 適合率 再現率 F値
ECO Lite 0.849 0.988 0.708 0.825
3DResNet18 0.818 0.898 0.719 0.799
3DResNet50 0.802 0.914 0.667 0.771
3DResNet101 0.688 0.951 0.396 0.559
• 4分割交差検証の結果を平均
情報系卒業研究発表会
30
• 誤検出について
• ECO LiteのSet2での混同行列
ひったくりありが5件間違っている
考察(1/5)
情報系卒業研究発表会
31
• 誤検出について
• 検出しないデータと正しく検出するデータを比較
目視で動きの違いがわからない
考察(2/5)
情報系卒業研究発表会
ひったくりを検出できていないデータ
ひったくりを検出できているデータ
32
• 誤検出について
• 正しく検出するデータに近づける
• バッグの削除
• 左上のブロック障害物の削除
考察(3/5)
情報系卒業研究発表会
ひったくりを検出できていないデータ
33
• 誤検出について
• 結果
• バッグ削除→検出しない(間違い)
• ブロック削除→検出しない(間違い)
考察(4/5)
情報系卒業研究発表会
34
• 誤検出について
• 今回確認したデータでは、人以外のオブジェクトの
影響は関係なかった
• 今後学習データを増やして動作のバリエーションを
増やす必要がある
考察(5/5)
情報系卒業研究発表会
結論
35
• 防犯カメラを用いたひったくり犯の検出・追跡
• ECO Liteを転移学習させることでひったくり動作
の検出ができた
• ECO Liteでの結果は以下の表の通り
モデル 精度 適合率 再現率 F値
ECO Lite 0.849 0.988 0.708 0.825
• 課題
• ひったくり動作を検出した根拠
• 学習データの増量
情報系卒業研究発表会
参考文献
1. 矢野経済研究所, “監視カメラ世界市場に関する調査を実施(2020年)— ニュース・トピックス —
”https://www.yano.co.jp/press-
release/show/press_id/2480#:~:text=2019%E5%B9%B4%E3%81%AE%E7%9B%A3%E8
%A6%96%E3%82%AB%E3%83%A1%E3%83%A9,%E3%81%AF%E5%9B%9E%E5%BE%
A9%E3%81%99%E3%82%8B%E8%A6%8B%E8%BE%BC%E3%81%BF%EF%BD%9E.
(Accessed on 2021/01/22).
2. 警視庁,”街頭防犯カメラシステム”
https://www.keishicho.metro.tokyo.jp/kurashi/anzen/anshin/gaitocamera.html (アクセス日
2021/01/22).
3. 法務省, “令和元年版 犯罪白書 第 2 編/第 1 章/第 1 節/2.”
http://hakusyo1.moj.go.jp/jp/66/nfm/n66_2_2_1_1_2.html. (アクセス日2021/01/22).
4. 長山格, 宮原彬, 島袋航一. “深層学習による時系列挙動認識を用いた次世代型知的防犯カメラシステ
ム.” 電気学会論文誌C(電子・情報・システム部門誌), Vol. 139, No. 9,pp. 986–992, 2019.
5. SONY “EVI-D70 / D70P(PAL)” https://pro.sony/en_GR/products/ptz-network-
cameras/evi-d70-d70p-pal- (アクセス日 2021/02/05)
6. IODATA アイ・オー・データ機器 , “GV-USB2 | ビデオ・オーディオキャプチャー |”
https://www.iodata.jp/product/av/capture/gv-usb2/ (アクセス日 2021/02/05)
7. Chien-Yao Wang and Alexey Bochkovskiy and Hong-Yuan Mark Liao,“Scaled-YOLOv4:
Scaling Cross Stage Partial Network” https://arxiv.org/pdf/2011.08036.pdf (アクセス日
2021/02/05)
8. Nicolai Wojke, Alex Bewley, and Dietrich Paulus. “Simple online and realtime trackingwith a
deep association metric.” In 2017 IEEE International Conference on ImageProcessing (ICIP),
pp. 3645–3649. IEEE, 2017.
9. 小川雄太郎,「つくりながら学ぶ! PyTorchによる発展ディープラーニング」,マイナビ出版, 2019
10. Mohammadreza Zolfaghari and Kamaljeet Singh and Thomas Brox “ECO: Efficient
Convolutional Network for Online Video Understanding” https://arxiv.org/abs/1804.09066
(アクセス日 2021/01/22)
36
情報系卒業研究発表会
37
付録
ECO Lite
3DResNet50
3DResNet18
3DResNet101
情報系卒業研究発表会

More Related Content

Similar to Saisyu

Summercamp2020 group4
Summercamp2020 group4Summercamp2020 group4
Summercamp2020 group4openrtm
 
セキュリティオペレーション自動化に向けた、基盤技術と共通インターフェースの構築 [ISOC-JP workshop, 2016/05/20]
セキュリティオペレーション自動化に向けた、基盤技術と共通インターフェースの構築  [ISOC-JP workshop, 2016/05/20]セキュリティオペレーション自動化に向けた、基盤技術と共通インターフェースの構築  [ISOC-JP workshop, 2016/05/20]
セキュリティオペレーション自動化に向けた、基盤技術と共通インターフェースの構築 [ISOC-JP workshop, 2016/05/20]Takeshi Takahashi
 
第77回MBL研究会 "多様なIoTデータストリームをクラウドレスで分散処理するミドルウェアの設計"
第77回MBL研究会 "多様なIoTデータストリームをクラウドレスで分散処理するミドルウェアの設計"第77回MBL研究会 "多様なIoTデータストリームをクラウドレスで分散処理するミドルウェアの設計"
第77回MBL研究会 "多様なIoTデータストリームをクラウドレスで分散処理するミドルウェアの設計"Ubi NAIST
 
簡便な大型幅広デジタルサイネージシステムとその自動運用システム
簡便な大型幅広デジタルサイネージシステムとその自動運用システム簡便な大型幅広デジタルサイネージシステムとその自動運用システム
簡便な大型幅広デジタルサイネージシステムとその自動運用システムTakashi Yamanoue
 
誰でもできるスマートシティ向けOSS : FIWAREのはじめかた
誰でもできるスマートシティ向けOSS : FIWAREのはじめかた誰でもできるスマートシティ向けOSS : FIWAREのはじめかた
誰でもできるスマートシティ向けOSS : FIWAREのはじめかたShunsuke Kikuchi
 
200702material hirokawa
200702material hirokawa200702material hirokawa
200702material hirokawaRCCSRENKEI
 
GW躍進会報告
GW躍進会報告GW躍進会報告
GW躍進会報告Yosuke Ueno
 
SORACOM Conference Discovery 2017 | F1. F3. IoTシステム入門 〜IoTシステム構築・運用の課題とSORACO...
SORACOM Conference Discovery 2017 | F1. F3. IoTシステム入門 〜IoTシステム構築・運用の課題とSORACO...SORACOM Conference Discovery 2017 | F1. F3. IoTシステム入門 〜IoTシステム構築・運用の課題とSORACO...
SORACOM Conference Discovery 2017 | F1. F3. IoTシステム入門 〜IoTシステム構築・運用の課題とSORACO...SORACOM,INC
 
ブロックチェーンアプリケーションプラットフォームの現在と未来
ブロックチェーンアプリケーションプラットフォームの現在と未来ブロックチェーンアプリケーションプラットフォームの現在と未来
ブロックチェーンアプリケーションプラットフォームの現在と未来dmm-smacon
 
BitVisor Summit 3 「BitVisorの現状と今後」
BitVisor Summit 3 「BitVisorの現状と今後」BitVisor Summit 3 「BitVisorの現状と今後」
BitVisor Summit 3 「BitVisorの現状と今後」Takahiro Shinagawa
 
PukiWiki と Raspberry Pi と Arduino を連携させてIoT システムを作ってみた話
PukiWiki と Raspberry Pi と Arduino を連携させてIoT システムを作ってみた話PukiWiki と Raspberry Pi と Arduino を連携させてIoT システムを作ってみた話
PukiWiki と Raspberry Pi と Arduino を連携させてIoT システムを作ってみた話Takashi Yamanoue
 
角膜反射画像を用いた視線追跡と物体認識
角膜反射画像を用いた視線追跡と物体認識角膜反射画像を用いた視線追跡と物体認識
角膜反射画像を用いた視線追跡と物体認識Jun Takamatsu
 
if-up 2017 | B1:エッジヘビーコンピューティングと機械学習
if-up 2017 | B1:エッジヘビーコンピューティングと機械学習if-up 2017 | B1:エッジヘビーコンピューティングと機械学習
if-up 2017 | B1:エッジヘビーコンピューティングと機械学習SORACOM,INC
 
人工知能を用いた医用画像処理技術
人工知能を用いた医用画像処理技術人工知能を用いた医用画像処理技術
人工知能を用いた医用画像処理技術Yutaka KATAYAMA
 
IoT系標準化の動き(メモ、2016年) (in Japanese)
IoT系標準化の動き(メモ、2016年) (in Japanese)IoT系標準化の動き(メモ、2016年) (in Japanese)
IoT系標準化の動き(メモ、2016年) (in Japanese)Toshihiko Yamakami
 
画像処理分野における研究事例紹介
画像処理分野における研究事例紹介画像処理分野における研究事例紹介
画像処理分野における研究事例紹介nlab_utokyo
 
SORACOM Technology Camp 2018 | B4. 後手に回りがちなIoTセキュリティをどうすべきなのか
SORACOM Technology Camp 2018 | B4. 後手に回りがちなIoTセキュリティをどうすべきなのかSORACOM Technology Camp 2018 | B4. 後手に回りがちなIoTセキュリティをどうすべきなのか
SORACOM Technology Camp 2018 | B4. 後手に回りがちなIoTセキュリティをどうすべきなのかSORACOM,INC
 
アグリゲート・コンピューティング風IoTでの戦い方
アグリゲート・コンピューティング風IoTでの戦い方アグリゲート・コンピューティング風IoTでの戦い方
アグリゲート・コンピューティング風IoTでの戦い方Takeshi Mikami
 
OSC Kyoto CTF Seminar
OSC Kyoto CTF SeminarOSC Kyoto CTF Seminar
OSC Kyoto CTF Seminarpinksawtooth
 

Similar to Saisyu (20)

Summercamp2020 group4
Summercamp2020 group4Summercamp2020 group4
Summercamp2020 group4
 
セキュリティオペレーション自動化に向けた、基盤技術と共通インターフェースの構築 [ISOC-JP workshop, 2016/05/20]
セキュリティオペレーション自動化に向けた、基盤技術と共通インターフェースの構築  [ISOC-JP workshop, 2016/05/20]セキュリティオペレーション自動化に向けた、基盤技術と共通インターフェースの構築  [ISOC-JP workshop, 2016/05/20]
セキュリティオペレーション自動化に向けた、基盤技術と共通インターフェースの構築 [ISOC-JP workshop, 2016/05/20]
 
第77回MBL研究会 "多様なIoTデータストリームをクラウドレスで分散処理するミドルウェアの設計"
第77回MBL研究会 "多様なIoTデータストリームをクラウドレスで分散処理するミドルウェアの設計"第77回MBL研究会 "多様なIoTデータストリームをクラウドレスで分散処理するミドルウェアの設計"
第77回MBL研究会 "多様なIoTデータストリームをクラウドレスで分散処理するミドルウェアの設計"
 
簡便な大型幅広デジタルサイネージシステムとその自動運用システム
簡便な大型幅広デジタルサイネージシステムとその自動運用システム簡便な大型幅広デジタルサイネージシステムとその自動運用システム
簡便な大型幅広デジタルサイネージシステムとその自動運用システム
 
誰でもできるスマートシティ向けOSS : FIWAREのはじめかた
誰でもできるスマートシティ向けOSS : FIWAREのはじめかた誰でもできるスマートシティ向けOSS : FIWAREのはじめかた
誰でもできるスマートシティ向けOSS : FIWAREのはじめかた
 
200702material hirokawa
200702material hirokawa200702material hirokawa
200702material hirokawa
 
GW躍進会報告
GW躍進会報告GW躍進会報告
GW躍進会報告
 
SORACOM Conference Discovery 2017 | F1. F3. IoTシステム入門 〜IoTシステム構築・運用の課題とSORACO...
SORACOM Conference Discovery 2017 | F1. F3. IoTシステム入門 〜IoTシステム構築・運用の課題とSORACO...SORACOM Conference Discovery 2017 | F1. F3. IoTシステム入門 〜IoTシステム構築・運用の課題とSORACO...
SORACOM Conference Discovery 2017 | F1. F3. IoTシステム入門 〜IoTシステム構築・運用の課題とSORACO...
 
ブロックチェーンアプリケーションプラットフォームの現在と未来
ブロックチェーンアプリケーションプラットフォームの現在と未来ブロックチェーンアプリケーションプラットフォームの現在と未来
ブロックチェーンアプリケーションプラットフォームの現在と未来
 
BitVisor Summit 3 「BitVisorの現状と今後」
BitVisor Summit 3 「BitVisorの現状と今後」BitVisor Summit 3 「BitVisorの現状と今後」
BitVisor Summit 3 「BitVisorの現状と今後」
 
PukiWiki と Raspberry Pi と Arduino を連携させてIoT システムを作ってみた話
PukiWiki と Raspberry Pi と Arduino を連携させてIoT システムを作ってみた話PukiWiki と Raspberry Pi と Arduino を連携させてIoT システムを作ってみた話
PukiWiki と Raspberry Pi と Arduino を連携させてIoT システムを作ってみた話
 
角膜反射画像を用いた視線追跡と物体認識
角膜反射画像を用いた視線追跡と物体認識角膜反射画像を用いた視線追跡と物体認識
角膜反射画像を用いた視線追跡と物体認識
 
if-up 2017 | B1:エッジヘビーコンピューティングと機械学習
if-up 2017 | B1:エッジヘビーコンピューティングと機械学習if-up 2017 | B1:エッジヘビーコンピューティングと機械学習
if-up 2017 | B1:エッジヘビーコンピューティングと機械学習
 
人工知能を用いた医用画像処理技術
人工知能を用いた医用画像処理技術人工知能を用いた医用画像処理技術
人工知能を用いた医用画像処理技術
 
IoT系標準化の動き(メモ、2016年) (in Japanese)
IoT系標準化の動き(メモ、2016年) (in Japanese)IoT系標準化の動き(メモ、2016年) (in Japanese)
IoT系標準化の動き(メモ、2016年) (in Japanese)
 
画像処理分野における研究事例紹介
画像処理分野における研究事例紹介画像処理分野における研究事例紹介
画像処理分野における研究事例紹介
 
SORACOM Technology Camp 2018 | B4. 後手に回りがちなIoTセキュリティをどうすべきなのか
SORACOM Technology Camp 2018 | B4. 後手に回りがちなIoTセキュリティをどうすべきなのかSORACOM Technology Camp 2018 | B4. 後手に回りがちなIoTセキュリティをどうすべきなのか
SORACOM Technology Camp 2018 | B4. 後手に回りがちなIoTセキュリティをどうすべきなのか
 
アグリゲート・コンピューティング風IoTでの戦い方
アグリゲート・コンピューティング風IoTでの戦い方アグリゲート・コンピューティング風IoTでの戦い方
アグリゲート・コンピューティング風IoTでの戦い方
 
OSC Kyoto CTF Seminar
OSC Kyoto CTF SeminarOSC Kyoto CTF Seminar
OSC Kyoto CTF Seminar
 
Ppt touya g
Ppt touya gPpt touya g
Ppt touya g
 

Saisyu

Editor's Notes

  1. 防犯カメラを用いたひったくり犯の検出、追跡と題しまして、B5研究室福見教授グループの矢野ひろきが発表させていただきます。
  2. まず研究の背景と目的についてです。 近年、防犯カメラの設置台数が年々増加しています。 以下のグラフは2019年までの防犯カメラの世界での市場規模の推移を示したものです。 2014年には2545万台だったのが2019年で6480万台になり、2倍以上になっていることがわかります。 これより、人々のセキュリティに対する意識が高まり、一般家庭にも防犯カメラの台数が今後増えることが予測されます。
  3. 次に、警察での防犯カメラの活用についてです。 警察が行っている街頭での犯罪防止策としては主に、パトロール、防犯カメラの使用があげられます。 中でも一部の繁華街に対しては、公共空間に防犯カメラを設置し、モニターする「街頭防犯カメラシステム」を導入しています。 これによって、撮影した映像を常時画面に映し出して、録画、モニターを行います。 これには専門の担当者が24時間体制でモニターし、事件や事故への対応を行います。 このように事件の発生、予測は有人監視が可能な場合のみできることがわかります。
  4. これから増える、従来型の防犯カメラは映像を記録することが主目的であり、多くの場合それ以上の機能を有していません。 そのため、メインとなる使い方としては証拠確認であり、映像から事件の発生を判断して対処するには、リアルタイムな有人監視ができる場合に限られます。 これより、犯罪行為の自動検知ができると、効果的な防犯につながると考えられます。
  5. 次にひったくりについてです。 ひったくりは犯罪行為の中でも特殊な技能や道具を必要としないことから、模倣性が高く、人通りの少ない場所で犯行を主に行われるため、パトロールだけでは防犯は困難です。 また、被害者は高齢者が多く、ひったくりの際に大怪我につながることもある悪質な犯罪であるため、今回の研究でひったくりを対象とした自動検知システムを構築するに至りました。 (参考文献1の資料より、被害者の半数以上は高齢者で、90%は女性である) (犯行に車両が含まれている場合の検挙率は30.7%、含まれていない場合は16.3%)
  6. 先行研究として挙げられるのは次の2つです。 1の論文では、ひったくり挙動モデルを提案しており、このモデルでひったくりの可能性を検出した際に、ひったくり発生付近のフレームをLSTMネットワークに入力し、ひったくりの判定を行っています。 2の論文では、HMDB51、UCF101という大規模な人物動画のデータセットを使用して、深層学習を使用せずに低次元なaction vectorという表現にして、ひったくり動作を分類しています。
  7. 先行研究との違いとしては、以下の2つが揚げられます。 それは映像データからのひったくり検出である点と、リアルタイム検出が行える点です。 1の先行研究の場合、入力データが手作業で作成した人物のシルエット画像となっています。 2の先行研究の場合は、リアルタイム検出という点で研究を行っていません。 そのため、これらの違いを挙げることができます。
  8. 次に提案手法です。 提案手法はデータ取得部、歩行者検出部、歩行者追跡部、前処理部、ひったくり検出部の5つから構成されています。
  9. まずはデータ取得部から説明させていただきます。
  10. データ取得部では動画データの取得を行います。 ここでは、SONY製のPTZカメラであるEVI-D70を使用します。 PTZカメラとは、パン、チルト、ズーム機能を持ったカメラのことで、以下の表に示すような水平方向の回転、垂直方向の回転、光学ズームを行うことができます。 このカメラからUSBキャプチャボードであるGV-USB2を使用して、パソコンに映像を取り込みます。 入力される動画情報としては、表の通りになります。
  11. また、本研究でのひったくりの定義ですが、歩行者同士でハンドバッグが背後から盗難されたときとします。 映像の制約条件としては、同じフレーム内にひったくりの被害者と加害者の2名のみとし、ひとけのない路上の再現を行います。
  12. 次に歩行者検出部についてです。 歩行者検出部ではリサイズ処理とYOLOバージョン4を使用します。
  13. まずリサイズ処理です。 入力された映像データに対して、608*608の正方形にリサイズを行います。
  14. 次にリサイズした画像からYOLOバージョン4を用いて人物の領域を求めます。 YOLOバージョン4はリアルタイムな物体検出が可能な深層学習アルゴリズムです。 YOLOバージョン3をベースに改良を加えた深層学習モデルになっており、推論速度を落とさずに精度を向上させたものになっています。 ------ もっと説明かいたほうがいい?
  15. 次に歩行者追跡部についてです。 ここでは、DeepSORTと呼ばれるアルゴリズムを用いて同一人物にID振りをして追跡を行います。 カルマンフィルタ理解しようとしてできなかったのでDeepSORTどう説明するか問題が発生!!!! DeepSORTの理解の前にSORT理解しようぜ SORTはなんとなく理解したぜ
  16. DeepSORTについてかんたんに説明させていただきます。 DeepSORTは、YOLOバージョン4で検出した結果の領域の情報と、追跡している物体の見た目に関する情報の両方を考慮して、追跡している物体に関連付ける追跡アルゴリズムです。 見た目に関する情報として、検出した領域の画像をCNNに入力して特徴ベクトルに変換します。 ここで使用しているCNNは、事前にいろんな視点から同一人物を識別できるように学習されたネットワークを使用しています。
  17. 追跡していた画像郡も同じように特徴ベクトルを最大100フレーム分まで保存しています。
  18. これらの追跡していた物体の特徴ベクトルと、現在のフレームで検出している人物の特徴ベクトルの距離を計算します。
  19. その中でも最も距離が近いものを同一人物として、関連付けを行います。 このときの距離が、自分で設定したしきい値以上のときは、どことも関連付けを行いません。
  20. これによって、同一人物の追跡が可能となります。 もし、現在のフレームで検出した人物がどこにも関連づかなかった場合は、追跡していた物体の位置、速度などを考慮して関連付けを行います。
  21. 次に前処理部についてです。 前処理部では、追跡していた人物を最大16フレームのキューに保存します。 その後、それらに対して、リサイズ処理、パディング処理、標準化を行います。
  22. リサイズ処理では、以下の図のように行います。 入力された人物領域画像に対して、長い辺を基準に224ピクセルにリサイズします。 その後、パディングを行い、事前学習したデータセットに基づいて標準化を行います。
  23. 次にひったくり検出部についてです。 ひったくりの検出には、ECO Liteと呼ばれる動画分類に使用されるモデルを転移学習して使用します。 これに前処理した画像16フレームを入力して、ひったくりをしているかどうかの2クラス分類を行います。
  24. ECO Liteの元のモデルは動画データに対して同じように、任意のフレームを入力して、400クラス分類を行うものになりますが、これを転移学習することで、ひったくりの有無を検出する2クラス分類を行うネットワークにします。
  25. 次に実験についてです。 実験では、ひったくり検出部で使用する深層学習モデルの転移学習を行います。 まず、転移学習に使用したデータセットについてです。 データセットに使用した動画は以下のように撮影して自作しました。 撮影方向をA,B,Cの3つの方向から撮影し、それぞれひったくりがある場合とない場合を撮影します。 また、ひったくり動作は最初に定義したように「歩行者同士で、後ろからハンドバッグを盗られる」動作をします。
  26. この条件で移動方向を図に示すように対称的な方向で2パターン撮影しました。 これによって合計237本の動画データを使用してデータセットを作成します。
  27. 作成したデータセットは以下のようになります。 人物領域画像の切り出しには、提案手法と同じくYOLOバージョン4とDeepSORTを使用しました。 ひったくりありの動画データにおいては、ひったくりの瞬間の動作から前後合計して24フレームをひったくりありのデータセットとして、ひったくり加害者側の人物領域画像を保存します。 ひったくりなしの動画データにおいては、すべての人物領域画像を使用しました。 結果として、データセットはひったくりありが116本、ひったくりなしが119本作成しました。
  28. 次に作成したデータセットで転移学習を行います。 転移学習では4分割交差検証を行って学習をすすめます。 学習時には、データセット中の画像から先頭フレームをランダムに指定して、そこから連続16フレームを入力して学習を行います。
  29. また、今回はECO Liteとの比較として3DResNet18、3DResNet50、3DResNet101を使用しました。 これらのモデルもECO Liteと同じデータセットで学習済みのモデルであり、最後の全結合層を変更し、2クラス分類にして転移学習を行います。 表は学習したときのハイパーパラメータです。
  30. 結果としては以下の表のようになりました。 各モデルの中でも最も良い値をオレンジで色づけしています。 これらは4分割交差検証の結果を平均した値となっており、全体としてECO Liteの結果がいいことがわかります。
  31. つづいて考察にうつります。 以下の図は混同行列を表しており、ECO Liteの4分割交差検証を行った際のset2のものです。 この図から、ひったくりなしは正しく検出できていますが、ひったくりありが5件正しく検出できていないのがわかります。
  32. 正しくひったくりが検出できていないデータと、ひったくりが正しく検出できているデータを目視で確認してみます。 上の画像が、正しくひったくりが検出できてないデータで、下の画像がひったくりを正しく検出できているデータになっています。 しかしどちらの動きも、目視では違いが確認できませんでした。
  33. そのため、ひったくりが検出できているデータに近づけるためにノイズの削除を行って、再度推論しました。 ひったくりが正しく検出できているデータと比べた時に、ノイズとなっているのは、バッグ、人物の左上にうつっているブロックであるとして、画像編集によって削除しました。 緑の丸で囲っている部分がブロックの障害物で、オレンジの丸で囲っている部分がバッグになります。
  34. ノイズを削除した結果が以下の図になります。 しかし、どちらを削除した場合も、結果は変わらず、ひったくりが正しく検出されませんでした。
  35. これより、今回のデータでは、人物の動き以外のノイズを削除しても結果に影響がなく、関係がないことがわかりました。 そのため、これからはより多くの学習データを作成することで、ひったくり動作を正しく検出できるようにします。
  36. 最後に結論になります。 今回は防犯カメラを用いたひったくり犯の検出・追跡として、ECO Liteを用いてひったくり動作の検出を行いました。 現状の課題として、ひったくり動作を正しく検出できているかの確認と、学習データの増量があげられます。
  37. 参考文献です。これで発表を終わります。