Advertisement

More Related Content

Slideshows for you(20)

Similar to 東工大長谷川修研紹介 2011 (8月1日版)(20)

Advertisement

Recently uploaded(20)

Advertisement

東工大長谷川修研紹介 2011 (8月1日版)

  1. 2011年度 8月1日改訂版 長谷川修研の研究紹介 東京工業大学 像情報工学研究所 長谷川修 oh@haselab.info http://haselab.info/
  2. 長谷川研の研究目標:社会的・物理的空間や電脳空間との相互作用から 自力で知的発達する実世界知能システム(情報機器やロボット)の創成 Future 自力で知的発達する情報機器や知能ロボット ・電脳環境や人との相互作用により 自力で賢くなる自律ロボット ・不特定タスクへの柔軟な対応 頭脳 他のロボットの学習結果 足 自力で賢くなる転移学習 ・インターネットなどから 腕 画像を用いた自己位置同定 学習データを自ら収集し、 ・GPSが不要 自力で知的に発達 ・人混みでも学習や認識が可能 ・未学習の知識にも ・携帯端末などの 柔軟に対応 低画質のカメラでも動作 現在 ・PIRFを利用 ・学習した知識を未知の対象に転移して認識 ・実環境で稼働 ・屋内でも動作可能な ・画像や音声、多数のセンサやモータ出力など、 ・未知のタスクへのアプ ・人混みでも頑健に動作 あらゆるベクトルデータをオンライン学習&認識 ローチを自力で生成 ・屋内や地下では 利用不可 青枠は全て、長谷川修研独自の既存技術
  3. 長谷川研の研究 • 人の生活環境で稼働する、さまざまな人工の 「知能」の構築を通じ、広く社会の発展に寄与す ることを目標とする。 • 上記でいう知能とは、私たちが日常的に行って いるのと同じように、人工物が「見て、聞いて、 覚えて、考えて、行動する」ためのものである。 • これを確実に実現する従来技術は存在しない。 そこで、長谷川らの独自技術であるSOINNを 活用した実世界知能情報処理機構の構築から 取り組む。
  4. 「実世界知能情報処理」とは? • 私たちの「脳」が普通にやっていること。 • 私たちには簡単なことが、コンピュータや ロボットには大変難しい。
  5. 例えば、実は まともにドアが開けられるロボット は世界のどこにも存在しない。 そもそもドアが分からない。 犬と猫の区別もできない。 幼児でもできることができない。
  6. 長谷川研の過去の研究例
  7. 1.「顔検出」技術 実用になったのは4~5年前
  8. Google で「顔検出」と検索すると、 トップに下記の論文が表示される。 林伸治、長谷川修 : “低解像度画像からの顔検出”, 画像電子学会誌, Vol.34, No.6, pp.726-737, (2005) つまり、この論文は度々検索され、読まれている。 この英訳は、IEEE Conference on Computer Vision and Pattern Recognition (CVPR 2006) にも採録 長谷川研ホームページにデモビデオ有り
  9. この研究では、従来困難であった 「小さい顔」の検出を実現した。 これにより、画像サイズを縮小して からでも顔検出が可能になった。 これは画像処理量の大幅な 従来の顔検出 削減につながり、デジカメの非力な CPUでも顔検出を可能とした。 現在、この技術は市販の多くの デジカメやビデオに利用されている。 提案手法(小さい顔も検出)
  10. 2.画像による場所の認識技術 • 通常、人は日頃利用する駅の、改札前の様子 を思い出すことができる。 • しかし、今日、改札の前にいた人を、思い出す のは困難。 • つまり、人間は、非常に優れた画像情報処理 をしており、そこにたまたま居た人のことは覚 えず、改札付近の情景だけを的確に選び出し て覚えている。
  11. 人は、覚えるべきものと、覚えなくて良いものを 的確に判別している。(大岡山駅前の例)
  12. 人は、覚えるべきものと、覚えなくて良いものを 的確に判別している。(大岡山駅前の例) 覚える 覚える 覚える 覚えない 覚えない 覚えない
  13. この機能は、実環境で人と共存するロボットには不可欠。  以下は、移動ロボット分野における性能評価のための世界標準データの一つ。  移動ロボットが以下の情景の中をループ状に2回周回する。2周目には、1周目の どの情景と一致するかを当てる。 1周目に居た、人や車が居なくなっても当たるか?
  14. PIRF Position Invariant Robust Features 長谷川研独自の、動くカメラの映像中から 止まっているもののみを取り出す技術。 14
  15. PIRF:動いているカメラから、止まっている ものと、動いているものを見分ける技術 たまたま通り SIFT : 普通に処理すると、あらゆるところから画像特徴が出る。 かかった人。 PIRFは出て いない。 15 PIRF: 提案手法の処理結果例
  16. PIRF: algorithm Current image 過去の画像を参照し、 共通するSIFT特徴を 抽出して、その位置の 特徴表現とする。 16
  17. PIRF は、下記画像の上下が 同じ場所だと認識できる。 上:休日の駐車場、下:平日の駐車場 上:昼間、下:夜間 17
  18. PIRF-Nav, PIRF-Nav2.0 PIRF based Navigation PIRF を用いた、日常生活空間に おける自己位置推定手法 (PIRF-Nav2.0 は改良高速版) 18
  19. OXFORD大学が提供するデータセット このデータでOXFORD (FAB-MAP) と性能比較  New College 19
  20. 赤い点が多い方が優れた手法 FAB-MAP (Oxford Univ.) 提案手法 認識率 43.32% さらに、提案手法は完全オンライン学習手法
  21. さらなる実験 東工大学食での実験 エキストラでない不特定多数の人が利用 21
  22. 混雑した学食での実験 • 認識率:86.65%(FAB-MAP:17.80%) • 平均処理時間:264ms / 枚(同:577ms/枚) 入力(テスト)画像 同位置と推定された学習画像 全方位カメラの画像のため,同位置の画像でも 撮影時のカメラの向きによって見え方が異なります 22
  23. この技術を、自律移動ロボットに搭載して実験 - 認知地図(cognitive map)の獲得と利用 - → 場所の情景と、行動とを複合的にオンライン学習 • 私たち人間も、同じように地図獲得をしている。例えば、すずかけ台駅改札 の情景から、左に曲がり、少し進むと、石の階段がある、など。 • ロボットは学習後、獲得した地図上で探索し、任意の地点間を移動できる。 左旋回 前進 前進 右旋回して前進 左旋回
  24. 人を案内するように、ロボットを連れて歩くと、ロボットは 入力映像中の人の影響を極力排除し、情景だけを覚え、 人に指示された任意の地点間を自律移動できる。 長谷川研ホームページにデモビデオ有り
  25. 実験結果 : ナビゲーションフェーズ(自律移動) 3D-PIRF 動いている人の周辺から ゴールまで自律的に到達できている は抽出されていない 25
  26. この技術は移動支援IRTへの活用を検討中 • 屋外だけでなく、GPSが利用できない地下や屋内の人混みでも 自律移動 • 搭乗者、歩行者、双方の安全・安心の実現 • 移動のための地図は、患者や高齢者を含む誰もが簡単に作成 可能(従来法は膨大な手間) • まず、電動車椅子への搭載を検討。人の生活環境で活動するロ ボット全般に利用可能。 26
  27. この技術は、携帯カメラでも稼働する テスト画像 手持ちのiPhone4 のカメラで撮影 学習画像 手持ちの家庭用 ビデオカメラ で撮影 下が学習画像で、上がテスト画像。人が居ても、人の影響を受け ずに上下は同位置と正しく判定している。 テスト画像にはiPhone4の画像を使用。 27 GPSの使えない屋内や地下でも利用可能
  28. 既存技術 「いつでも、どこでも、簡単に」位置情 報が利用出来れば、ニーズは大きい。 頓智ドットのセカイカメラは有名。 本研究と既存技術を融合し、屋内、屋 外を問わず、シームレスに位置情報が 利用可能に。 28
  29. 頓智ドット㈱ セカイカメラ GPSを利用。屋内ではアクセスポイントの設置が必要。つまり、現状では膨大な費 用と手間がかかる。提案手法により、この問題が解決できる。提案システムを 東急田園都市線 渋谷地下駅で稼働させ、性能評価実験を実施予定。 29
  30. ここから先は、 現在進行中の研究テーマ を紹介します。
  31. 挑戦状!
  32. いい度胸だ!
  33. コンピュータ将棋(あから2010)が 清水市代女流王将と対局し、勝利!
  34. クイズでも、コンピュータの勝ち! 2011年2月、IBMのコンピュータ、Watsonがクイズ番組に参戦。 チャンピオンに圧勝!
  35. コンピュータは人の知性を超えた? とんでもない!
  36. 鳥の「ゆりかもめ」はどっち? あから2010も、Watsonも、答えられない…
  37. これまでの人工知能 ほとんどが、人間の脳の 一部(特に前頭葉)の 思考機能を工学的に模倣 したもの。 37
  38. なので、まだロボットには使えない ロボットは総合学であり、本来は 見て、聞いて、感じて、覚えて、考えて、動いて、 労働するもの。 “Robot” はチェコ語で強制労働を意味する “robotnik” から作られた造語
  39. ロボットに真に求められているのは 「労働」 • 日本の少子高齢化が止まらない! • これから日本はどうやって稼ぐ?
  40. すでに介護の現場では人手不足 • フィリピンとインドネシアから、今夏にも看護師と 介護士がやってくる。 • 人手不足にあえぐ病院や施設で歓迎の声が上がる 一方、日本語能力への不安や日本人の労働条件 悪化を懸念する声もある。 • 医療・介護の現場は労働条件の改善が進まず、 人手不足が深刻だ。 • (2008年3月11日 読売新聞)
  41. 本当に、こんなに 稼げるの? 経産省「産業構造ビジョン2010」
  42. 現在のロボットの問題 • ロボットに命令するだけでも大変 – 現状では、専門家が決められた手順に沿って、手間 をかけてプログラムしている – お年寄りや子供たちには、とても無理 – 人間がロボットの都合にあわせるのは絶対イヤだ! • 「人間中心の」情報処理技術の必要性 • ロボットにやって欲しいこと – どのようなことでも、「掃除して」、「洗濯して」、 などと言うだけで、やって欲しい。 42
  43. 専用機 vs 汎用機 現存する人工物は、全て 特定の目的のために作られた専用機。 VS 注)PCはハードウエアは汎用だが、 注)汎用機が人の姿を ソフトウエアが専用なので、「専用機」。 しているとは限らない。
  44. これからは、「汎用機」の研究と 実用化の推進が急務 SOINN !! Self-Organizing Incremental Neural Network
  45. SOINNとは? 東工大 長谷川修研で独自開発 コンピュータやロボットが 「見て、聞いて、覚えて、考えて、行動する」 ための脳をヒントにした情報処理技術 45
  46. SOINNの機能 脳がそうであるように、 1. 視覚、聴覚、触覚、モータの時系列制御信号などのマ ルチモーダル・パターン情報を、超高速かつ発達的 (オンラインかつ追加的)に学習できる。 2. 学習したパターン情報から、連想・推論・転移などの 高次知能情報処理が実現できる。 こうした機能を兼ね備えた学習器は、SOINNだけ。 46
  47. 自己増殖型ニューラルネットワーク(SOINN) SOINNのソフトウエアは、長谷川修研ホームページから 無償でダウンロード可能。 47
  48. 最近の主要研究 (1) コンピュータやロボットに 極めて多様な実世界を 現実的な方法で 認識させたい。
  49. 超高速オンライン転移学習 東京工業大学 木村大毅, Kankuekul Pichai, Aram Kawewong, 長谷川修 画像センシングシンポジウム 2011
  50. Introduction • 実世界の物体認識は極めて困難 現在、この問題を根本的に解決する「現実的な」手 法は存在しない。 実世界の難しさ ・多種多様の物体 ・高ノイズ ・新しい物が増える ・オクルージョン など・・・
  51. これまでは、Caltech 256 など 対象をクラス毎に学習・認識させる試み
  52. 対象毎に、沢山の学習画像を用意。 下記は「ラクダ」の例
  53. しかし、私たちの身の周りには膨大な数の モノがあり、その数は増え続けている。
  54. パラダイムシフトが必要! • 「月」に行くには? – 飛行機をどんなに改良しても「絶対」月には行けない – 同様に、従来方式をどんなに改良しても、人の目のような 人工視覚はできないのでは…? × ○
  55. 本研究の成果と意義 • 下記を兼ね備えた、現実的な物体認識 手法 を構築。 – 転移学習を導入 • 実世界を少数の基本的な属性知識の組合せで認識( 例:赤+球+果物=リンゴ) – 命令するだけで「自力で・直ちに」賢くなる • 学習データはインターネットから自動収集 • 超高速にオンライン追加学習&認識 – 画像以外にも多様・Noisy・曖昧な情報に対応 • 多様な曖昧情報を複合的に利用可能 55
  56. きれいな「花」だな。 何という名前だろう? つまり、人間は 初めて見る対象でも 相応に認識できる。 これに近い(と思われる)のが 転移学習(Transfer Learning)
  57. Transfer Learning: 予め学習させた基本的な知識、「属性」の組み合 わせにより、初めて見る対象でも認識させる技術。
  58. Transfer Learning (転移学習) • 対象について学習するのではなく、 基本的な概念(「属性」と呼ぶ)を学習 • 属性の組み合わせで未学習物体も認識 窓 ダイヤル 学 習 ボール 箱 転移 画 像 電子レンジ ダイヤルと窓がある箱型のもの= 電子レンジ 人間が定義
  59. Transfer learning (転移学習) • この関係はアルファベットと辞書の関係に類似 – 英語の場合、26文字の組合せで数十万の単語。 – 前頁の例では「ダイヤル+箱=金庫」もわかる。 • さらに、提案手法はベクトルデータ全般を属性 として超高速オンライン追加学習可能。 – 画像、音声、各種センサデータ、モータの制御信号 など、あらゆるパターンデータが入力可能。
  60. 超高速オンライン・マルチモーダル転移学習手法 提案手法 24,295 枚の学習時間 6,180 枚の認識時間 SSII 2011:画像センシングシンポで発表 関連研究を ViEW 2011 にて基調講演
  61. Proposed SOINN • AT-SOINN: 1つのノード=1つのクラス • 提案1つのノード=複数のクラス : (度合い) New Input Online Learning 属性をSOINNのクラスとする Attr.01 : 20% Attr.01 : 70% Attr.02 : 80% Attr.02 : 30% ・ ・ ・ ・ Attr.02 ・ ・ Attr.85 : 50% Attr.85 : 45% Attr.01 Attr.01 : 10% Attr.02 : 85% ・ ・ ・ Attr.01 : 95% Attr.85 : 45% Attr.02 : 10% ・ ・ Attr.01 : 15% ・ Recognition Attr.02 : 80% Attr.85 : 30% ・ ・ ・ Noise Robust Attr.85 : 45% 61
  62. Proposed Method (Training phase) e.g. SIFT Labeling Features Proposed-SOINN … Attributes Extraction ・・・ Images of Feature-1 F-2 F-Q Q : Number of Features Training classes 画像の特徴と属性の関連を学習 Class/Attribute SOINNの数=特徴の数 Matrix これを利用してクラスから属性へ変換 Images of Test classes ex) 「りんご」⇒「赤+球」 Dataset
  63. Proposed Method (Test phase) e.g. SIFT Labeling Features Proposed-SOINN … Attributes Extraction ・・・ Images of Feature-1 F-2 F-Q Training classes 与えられた特徴から 各々の属性の度合いを算出 Class/Attribute Calculate Attributes using statistical recognition Matrix 未知クラスも属性のみは知っている Images of Guess the Class according to these Attributes Test classes Q : Number of Features Dataset 各々の属性からクラスへ変換 ex) 「赤+球」⇒「りんご」
  64. SOINN [Shen, Hasegawa, NN06] • 自己増殖型ニューラルネットワーク – オンラインかつ追加的に学習可能 – クラス数や分布の形などの事前知識が不要 – 実世界での運用を考慮したノイズ耐性 – マルチモーダルなパターン情報を学習可能 強力な ノイズ耐性 入力情報 SOINN内の情報
  65. さらに、長谷川研の提案手法は、 超高速 オンライン・マルチモーダル 転移学習手法 つまり、画像以外にも、音声や、 温度や圧力などの各種センサ情報、 多数のモータの制御情報、 なども複合的に扱える! だから、ロボットにそのまま使える!
  66. 提案手法の発展例 • 従って、こんなことが出来る。 他のロボットの学習結果 楽チン! イ ン タ ー ネ ット 膨大な情報 物理的経験 学習 オンラインで 人の命令 データ 準備不要 超高速に学習 属性知識 獲得した属性知識を 「箱+窓+ダイヤル+チン♪」 未知対象に適用し認識 ⇒電子レンジ
  67. Experiments • Lampertら[1]の動物の画像で比較実験 – 50種類の動物 • ライオン、シマウマ、豚、シロクマ、イルカなど – 85種類の属性(基本的な概念) • 肉食動物、尻尾がある、速く走る、賢いなど – 6種類の画像特徴 • SIFT、SURF、pHOG、rgSIFT、LSS、CQの それぞれのヒストグラム(Bag-of-Features) ※上で挙げた従来手法以外にも多くの論文で使用されている
  68. Experiments 例)未知の豚を当てる方法 草食動物 飛べない 肉食動物 だろう だろう 足が短い 飛べない 肉食動物 学習動物 見たことがない 動物 40 10 足が短い 種類 草食動物 属性 を転移 種類 飛べる 足が長い 足が短い だろう 飛べない ライオン コウモリ 足が短く飛べない草食動物 馬 =豚?! 未知動物も属性の組み合わせは知っている
  69. Results オンライン学習 バッチ学習 AT- 提案手法 SOINN[2] DAP[1] IAP[1] 認識率 26.82% 26.96% 40.51% 27.83% 学習時間 7分 6時間 >70日 認識時間 1分半 4時間 >2日 データ量 1,825 347,082 - (ノード数) 99.47%削減 SOINNの数 6 1020 - なお学習時間と認識時間は、特徴検出の時間を含めない
  70. Results オンライン学習 バッチ学習 AT- 提案手法 SOINN[2] DAP[1] IAP[1] 曖昧な 属性※ ○ × × × 属性の 追加 ○ △ × × ※曖昧な属性とは、連続値での属性の定義が出来るという意味である 提案手法は、 54枚/秒で学習、16ミリ秒/枚で認識 更に、曖昧な属性や柔軟な属性の追加が可能
  71. 更なる展開:インターネットの活用 例) • その場で、直ちに賢くなる – 高速性やオンライン学習性を活用 • 複雑な実環境では、有効な属性を事前に 想定するのは困難。 • 有効な属性を、人や環境とのインタラクションを通じて 決定。 – ネットの情報は極めてノイジー • SOINNのノイズ耐性を活用 – 大規模評価実験の実施を予定
  72. 主要参考文献 [1] C. H. Lampert, H. Nickisch, and S. Harmeling, “Learning to detect unseen object classes by between-class attribute transfer”, CVPR 2009. [2] A. Kawewong, Sirinart Tangruamsub, Pichai Kankuekool and Osamu Hasegawa, “Fast Online Incremental Transfer Learning for Unseen Object Classification Using Self-Organizing Incremental Neural Networks”, The 2011 International Joint Conference on Neural Networks (IJCNN). [3] F. Shen, O. Hasegawa, “An Incremental Network for On-line Unsupervised Classification and Topology Learning”, Neural Networks 2006.
  73. 最近の主要研究 (2) ネットからの学習データの自動収集に基づく オンライン転移学習・認識実験 画像の基本的な情報(属性情報)を ネットから高速学習して一般物体認識
  74. 研究の最終目標 電脳環境に日々蓄積される膨大な情報や、 実環境での物理的経験から、 複数のSOINNが自律的・自己組織的に学習し、 学習した知識を互いに教えあうことで、 極力人の手間を取らせずに、人のために働く 知的人工システム(情報機器やロボット) を実現する。
  75. 長谷川研の研究目標:社会的・物理的空間や電脳空間との相互作用から 自力で知的発達する実世界知能システム(情報機器やロボット)の創成 Future 自力で知的発達する情報機器や知能ロボット ・電脳環境や人との相互作用により この実現のための、 自力で賢くなる自律ロボット ・不特定タスクへの柔軟な対応 最初のアプローチ 頭脳 他のロボットの学習結果 足 自力で賢くなる転移学習 ・インターネットなどから 腕 画像を用いた自己位置同定 学習データを自ら収集し、 ・GPSが不要 自力で知的に発達 ・人混みでも学習や認識が可能 ・未学習の知識にも ・携帯端末などの 柔軟に対応 低画質のカメラでも動作 現在 ・PIRFを利用 ・学習した知識を未知の対象に転移して認識 ・実環境で稼働 ・屋内でも動作可能な ・画像や音声、多数のセンサやモータ出力など、 ・未知のタスクへのアプ ・人混みでも頑健に動作 あらゆるベクトルデータをオンライン学習&認識 ローチを自力で生成 ・屋内や地下では 利用不可 青枠は全て、長谷川研独自の既存技術
  76. 問題点と本研究の着眼 従来手法 • 殆どの場合、膨大な学習データの収集 や教師ラベル付与は人が行う。 • 長谷川研の顔検出実験では、5万枚 以上の画像から、3万枚以上の顔画 像だけを人手で抽出した。 本研究 • ネット上には、ノイジーだが膨大な情報が存在する。 • ネットの情報は、世界中で日々更新・蓄積されている。 • ここから意味のある情報を取り出せれば、学習に使える! • SOINNのノイズ除去機能やオンライン学習機能を活用 76
  77. 実験シナリオ オンライン転移学習・認識実験に用いる学習画像は、 インターネットから検索して自動収集する。 実験者は、システムに 画像収集のためのキーワード 上記から抽出する属性のキーワード のみを与える。 この条件で、十分な性能が得られるか、を評価。 (転移学習には、オンライン学習可能な独自手法 “SGD-SOINN-SVM” を利用。)
  78. 実際に自動収集した画像の例 Tomato Broccoli Banana Cinnamon
  79. さらに、実験では異なる条件で2つのシステムを構成 • 野菜学習システム vs 人工物学習システム 野菜や果物の画像を学習 人工物の画像を学習 Learn from: Learn from: - Human objects - Fruits and Vegetables Training object classes: Training object classes: - soda-can, computer-keyboard, - Tomato, cinnamon, and broccoli shipping box Testing object classes: Testing object classes: - cucumber, lemon and watermelon - Bottle, Tennis-ball, Microwave Attributes: Attributes: - stick, sphere - cylinder, buttons, cubic
  80. 人工物学習システム Computer-keyboard • Learn three attributes – ‘cylinder’, ‘has buttons’ and ‘cubic’ • Classify on Soda-can – Bottle, tennis-ball and microwave Shipping-boxes Step Learnt Attributes Avg. Acc. (%) 1 ‘cylinder’, ‘has buttons’ 61.40 and ‘cubic’ 自動収集した学習画像は、各200枚程度。属性の組み合わせで認識 するので、「たったそれだけ」で上記の認識率が得られることが判明。
  81. 野菜学習システム 属性のオンライン追加学習により、認識率が向上することを確認。 Step 1: Learn only ‘sphere’ and ‘stick’ attributes (from tomato, cinnamon and broccoli) Step Learnt Attributes Avg. Acc. (%) 1 Sphere, Stick 38.89 Step 2: add color attributes - learn 'red’, ‘green’ and ‘brown’ attributes from the same training object classes - learn ‘yellow’ attribute from new object class  banana Step Learnt Attributes Avg. Acc. (%) 1 Sphere, Stick 38.89 2 Sphere, Stick + Red, green, 56.51 brown, yellow
  82. 「システムが、システムに教える」実験 人工物システムが、野菜システムに学習済み ”cylinder” の属性 データを転送し、野菜システムの認識率を向上させた。 人工物学習システム 野菜学習システム Transfer ‘cylinder’ attribute from the system II Learn three attributes Step Learnt Attributes Avg. Acc. • ‘cylinder’, (%) • ‘has buttons’ • and ‘cubic’ 1 sphere, stick 38.89 2 sphere, stick + red, green, 56.51 brown, yellow 3 sphere, stick, red, green, brown, 70.11 yellow +cylinder
  83. 最近の主要研究 (3) SOINN による ロボットや複雑構造物の知的制御
  84. 長谷川研の研究目標:社会的・物理的空間や電脳空間との相互作用から 自力で知的発達する実世界知能システム(情報機器やロボット)の創成 Future 自力で知的発達する情報機器や知能ロボット ・電脳環境や人との相互作用により 自力で賢くなる自律ロボット ・不特定タスクへの柔軟な対応 頭脳 他のロボットの学習結果 足 自力で賢くなる転移学習 ・インターネットなどから 腕 画像を用いた自己位置同定 この実現のための、 ・GPSが不要 ・人混みでも学習や認識が可能 学習データを自ら収集し、 自力で知的に発達 ・未学習の知識にも アプローチ ・携帯端末などの 低画質のカメラでも動作 柔軟に対応 現在 ・PIRFを利用 ・学習した知識を未知の対象に転移して認識 ・実環境で稼働 ・屋内でも動作可能な ・画像や音声、多数のセンサやモータ出力など、 ・未知のタスクへのアプ ・人混みでも頑健に動作 あらゆるベクトルデータをオンライン学習&認識 ローチを自力で生成 ・屋内や地下では 利用不可 青枠は全て、長谷川研独自の既存技術
  85. ロボットに応用問題を解かせる • 現在の問題点 – ロボットは、プログラムした限定タスクしかできない。 • 提案手法: – ロボットの腕を持って、基本的な動作(コップを持つ、コップから注 ぐなど)を個別に教示する。 – ロボットは、上記の動作群を組み合わせ、指示されたタスク解決 のための一連の挙動を自力で推論・生成し、達成する。(ポットか ら急須に湯を注ぎ、湯呑みにお茶を淹れて、指定の場所に置く、 など。) – 基本的な動作は、いつでも、ピンポイントで追加できる。 (新たな動作をオンライン追加学習でき、その結果としてロボットの 問題解決能力(知的レベル)が向上する。)
  86. 人型ロボットによる実世界版一般問題解決 巻渕有哉,申富饒,長谷川修:"実世界における一般問題解決システ ムの提案とそのヒューマノイドロボットへの実装",電子情報通信学会 論文誌D,Vol.J93-D, No.6, pp960-977, (2010) 長谷川研ホームページに デモビデオ有り 86
  87. 今後、AIは人の日常経験に近づく ネットで調べ、まず自分でやってみて、 時には他のロボットや、人にも教えてもらうが、 極力人の手間を取らせずに、 自力で学習してタスクを実行する。 言いつけるだけで、勝手に賢くなるロボット! 「お茶を淹れて」というと、その意味や処理手順を極力自力で 学習・推論し、処理してくれる。 こうした機能は、実環境で、あらゆるタスクをこなして人のため に働くロボットには不可欠! 87
  88. SOINNの補足説明
  89. 学習器の評価(1): オンライン学習と追加学習 オンライン学習(Online Learning) 多数の学習データを一括して処理するのではなく、入力される データを逐次学習すること。言い換えれば、入力データを N 個 学習したときの学習結果を θ N として、  1 個目の入力データ N と θ N から θ N1 を順次求める学習手法 ⇔ バッチ学習(Batch Learning)、オフライ ン学習(Offline Learnig) 追加学習(Incremental Learning) 過去の学習データを破壊することなく、新しい入力データを学 習できること。動的に形状が変化する非定常な分布も学習可能 である、学習器に適応性があるとも解釈できる ※ 逐次学習(Incremental Learning)と表記される場合もあるの で注意が必要。この場合、多くは本発表における「オンライ ン学習」を意味している 89
  90. 学習器の評価(2): 有限メモリと計算量O(1) 有限メモリ(Finite Memory) 各ステップの学習時に計算のために確保するメモリ量が、学習 データ数が無限になった際に一定値、または有限値を取ること 計算量O(1) (Time Complexity) 各ステップの学習に要する計算量のオーダーが学習データ数 N に対して 1 、つまり学習データ数に依らず一定であること。 例えば、バッチ学習は学習の度に過去の全ての学習データを確 認する必要があるため、少なくとも N となる 90
  91. 学習器の評価(3): オープンエンド学習 SOM SOINN GNG ・多層パーセプトロン ・SVM(SGD) ・HMM(オンラインEM) ・LVQ 計算量 O(1) 有限メモリ ・k-means 追加学習 ・SVM ・HMM オンライン学習 バッチ学習 (狭義の)オープンエンド学習 (広義の)オープンエンド学習 91
  92. SOINNシリーズ(1) 全て長谷川研で独自に研究開発 高速最近傍識別器の提案 パラメータ数を削減 半教師あり Adjusted SOINN 能動学習への応用 Original SOINN Classifier [神谷ら 2007] SSA-SOINN [Shen et al. 2005] [桜井ら 2007] 2005 2007 E-SOINN [小倉ら 2007] SOINNを用いた 近似能力の維持と ロボットの言語獲得 構造・パラメータ数の [Xe et al. 2007] 簡略化を同時に実現 92
  93. SOINNシリーズ(2) 全て長谷川研で独自に研究開発 時系列パターン 認識への応用 パターンベース SOINNを用いた 推論の実現 ロボットの一般問題解決 SOINN-DP [巻渕ら 2010] [岡田ら 2008] SOINN-PBR [須藤ら 2008] 2008 2010 AT-SOINN [Aram et al. 2010] SOIAM GAM [須藤ら 2008] [Shen et al. 2010] 属性情報を用いた 転移学習への応用 連想記憶の実現 系列データを想起可能な 連想記憶システム 93
Advertisement