SlideShare a Scribd company logo
2011年度
  8月1日改訂版


長谷川修研の研究紹介

   東京工業大学
  像情報工学研究所
    長谷川修
   oh@haselab.info
  http://haselab.info/
長谷川研の研究目標:社会的・物理的空間や電脳空間との相互作用から
 自力で知的発達する実世界知能システム(情報機器やロボット)の創成

Future
           自力で知的発達する情報機器や知能ロボット
           ・電脳環境や人との相互作用により
            自力で賢くなる自律ロボット
           ・不特定タスクへの柔軟な対応



                                      頭脳             他のロボットの学習結果
             足

                              自力で賢くなる転移学習
                              ・インターネットなどから               腕
画像を用いた自己位置同定                   学習データを自ら収集し、
・GPSが不要                        自力で知的に発達
・人混みでも学習や認識が可能                ・未学習の知識にも
・携帯端末などの                       柔軟に対応
 低画質のカメラでも動作


現在

           ・PIRFを利用        ・学習した知識を未知の対象に転移して認識      ・実環境で稼働
           ・屋内でも動作可能な      ・画像や音声、多数のセンサやモータ出力など、    ・未知のタスクへのアプ
           ・人混みでも頑健に動作      あらゆるベクトルデータをオンライン学習&認識    ローチを自力で生成


・屋内や地下では
 利用不可

                         青枠は全て、長谷川修研独自の既存技術
長谷川研の研究
• 人の生活環境で稼働する、さまざまな人工の
  「知能」の構築を通じ、広く社会の発展に寄与す
  ることを目標とする。
• 上記でいう知能とは、私たちが日常的に行って
  いるのと同じように、人工物が「見て、聞いて、
  覚えて、考えて、行動する」ためのものである。
• これを確実に実現する従来技術は存在しない。
  そこで、長谷川らの独自技術であるSOINNを
  活用した実世界知能情報処理機構の構築から
  取り組む。
「実世界知能情報処理」とは?
• 私たちの「脳」が普通にやっていること。
• 私たちには簡単なことが、コンピュータや
  ロボットには大変難しい。
例えば、実は

まともにドアが開けられるロボット
 は世界のどこにも存在しない。

  そもそもドアが分からない。
  犬と猫の区別もできない。

 幼児でもできることができない。
長谷川研の過去の研究例
1.「顔検出」技術
実用になったのは4~5年前
Google で「顔検出」と検索すると、
   トップに下記の論文が表示される。

林伸治、長谷川修 : “低解像度画像からの顔検出”,
画像電子学会誌, Vol.34, No.6, pp.726-737, (2005)

 つまり、この論文は度々検索され、読まれている。

 この英訳は、IEEE Conference on Computer Vision and
    Pattern Recognition (CVPR 2006) にも採録

       長谷川研ホームページにデモビデオ有り
この研究では、従来困難であった
                「小さい顔」の検出を実現した。

                これにより、画像サイズを縮小して
                からでも顔検出が可能になった。

                これは画像処理量の大幅な
   従来の顔検出       削減につながり、デジカメの非力な
                CPUでも顔検出を可能とした。

                現在、この技術は市販の多くの
                デジカメやビデオに利用されている。




提案手法(小さい顔も検出)
2.画像による場所の認識技術

• 通常、人は日頃利用する駅の、改札前の様子
  を思い出すことができる。
• しかし、今日、改札の前にいた人を、思い出す
  のは困難。
• つまり、人間は、非常に優れた画像情報処理
  をしており、そこにたまたま居た人のことは覚
  えず、改札付近の情景だけを的確に選び出し
  て覚えている。
人は、覚えるべきものと、覚えなくて良いものを
 的確に判別している。(大岡山駅前の例)
人は、覚えるべきものと、覚えなくて良いものを
 的確に判別している。(大岡山駅前の例)




                  覚える

     覚える                覚える


           覚えない
                        覚えない
   覚えない
この機能は、実環境で人と共存するロボットには不可欠。
   以下は、移動ロボット分野における性能評価のための世界標準データの一つ。
   移動ロボットが以下の情景の中をループ状に2回周回する。2周目には、1周目の
    どの情景と一致するかを当てる。




             1周目に居た、人や車が居なくなっても当たるか?
PIRF
Position Invariant Robust Features
長谷川研独自の、動くカメラの映像中から
止まっているもののみを取り出す技術。


                                     14
PIRF:動いているカメラから、止まっている
   ものと、動いているものを見分ける技術




                                    たまたま通り
SIFT : 普通に処理すると、あらゆるところから画像特徴が出る。   かかった人。
                                    PIRFは出て
                                      いない。




                                        15


          PIRF: 提案手法の処理結果例
PIRF: algorithm   Current image




                  過去の画像を参照し、
                  共通するSIFT特徴を
                  抽出して、その位置の
                  特徴表現とする。




                                  16
PIRF は、下記画像の上下が
 同じ場所だと認識できる。




 上:休日の駐車場、下:平日の駐車場




    上:昼間、下:夜間        17
PIRF-Nav, PIRF-Nav2.0
  PIRF based Navigation
   PIRF を用いた、日常生活空間に
      おける自己位置推定手法
    (PIRF-Nav2.0 は改良高速版)

                           18
OXFORD大学が提供するデータセット
このデータでOXFORD (FAB-MAP) と性能比較
   New College




                               19
赤い点が多い方が優れた手法

FAB-MAP (Oxford Univ.)   提案手法




認識率 43.32%
               さらに、提案手法は完全オンライン学習手法
さらなる実験
    東工大学食での実験
エキストラでない不特定多数の人が利用




                     21
混雑した学食での実験

• 認識率:86.65%(FAB-MAP:17.80%)
• 平均処理時間:264ms / 枚(同:577ms/枚)
      入力(テスト)画像   同位置と推定された学習画像




            全方位カメラの画像のため,同位置の画像でも
            撮影時のカメラの向きによって見え方が異なります
                                      22
この技術を、自律移動ロボットに搭載して実験
   - 認知地図(cognitive map)の獲得と利用 -
→ 場所の情景と、行動とを複合的にオンライン学習
• 私たち人間も、同じように地図獲得をしている。例えば、すずかけ台駅改札
  の情景から、左に曲がり、少し進むと、石の階段がある、など。
• ロボットは学習後、獲得した地図上で探索し、任意の地点間を移動できる。




                     左旋回
                                前進
         前進
              右旋回して前進

               左旋回
人を案内するように、ロボットを連れて歩くと、ロボットは
入力映像中の人の影響を極力排除し、情景だけを覚え、
 人に指示された任意の地点間を自律移動できる。




       長谷川研ホームページにデモビデオ有り
実験結果 : ナビゲーションフェーズ(自律移動)



                   3D-PIRF




                   動いている人の周辺から
ゴールまで自律的に到達できている    は抽出されていない
                             25
この技術は移動支援IRTへの活用を検討中
•   屋外だけでなく、GPSが利用できない地下や屋内の人混みでも
    自律移動
•   搭乗者、歩行者、双方の安全・安心の実現
•   移動のための地図は、患者や高齢者を含む誰もが簡単に作成
    可能(従来法は膨大な手間)
•   まず、電動車椅子への搭載を検討。人の生活環境で活動するロ
    ボット全般に利用可能。




                               26
この技術は、携帯カメラでも稼働する


                       テスト画像
                       手持ちのiPhone4
                        のカメラで撮影




                       学習画像
                       手持ちの家庭用
                        ビデオカメラ
                         で撮影

下が学習画像で、上がテスト画像。人が居ても、人の影響を受け
ずに上下は同位置と正しく判定している。
テスト画像にはiPhone4の画像を使用。
                               27
GPSの使えない屋内や地下でも利用可能
既存技術




「いつでも、どこでも、簡単に」位置情
報が利用出来れば、ニーズは大きい。
頓智ドットのセカイカメラは有名。

本研究と既存技術を融合し、屋内、屋
外を問わず、シームレスに位置情報が
利用可能に。
                28
頓智ドット㈱ セカイカメラ
GPSを利用。屋内ではアクセスポイントの設置が必要。つまり、現状では膨大な費
用と手間がかかる。提案手法により、この問題が解決できる。提案システムを
東急田園都市線 渋谷地下駅で稼働させ、性能評価実験を実施予定。




                                   29
ここから先は、

現在進行中の研究テーマ

  を紹介します。
挑戦状!
いい度胸だ!
コンピュータ将棋(あから2010)が
清水市代女流王将と対局し、勝利!
クイズでも、コンピュータの勝ち!




2011年2月、IBMのコンピュータ、Watsonがクイズ番組に参戦。
             チャンピオンに圧勝!
コンピュータは人の知性を超えた?




   とんでもない!
鳥の「ゆりかもめ」はどっち?




あから2010も、Watsonも、答えられない…
これまでの人工知能

ほとんどが、人間の脳の
一部(特に前頭葉)の
思考機能を工学的に模倣
したもの。




              37
なので、まだロボットには使えない

    ロボットは総合学であり、本来は
見て、聞いて、感じて、覚えて、考えて、動いて、

      労働するもの。
 “Robot” はチェコ語で強制労働を意味する
      “robotnik” から作られた造語
ロボットに真に求められているのは
       「労働」
• 日本の少子高齢化が止まらない!
• これから日本はどうやって稼ぐ?
すでに介護の現場では人手不足

• フィリピンとインドネシアから、今夏にも看護師と
  介護士がやってくる。
• 人手不足にあえぐ病院や施設で歓迎の声が上がる
  一方、日本語能力への不安や日本人の労働条件
  悪化を懸念する声もある。
• 医療・介護の現場は労働条件の改善が進まず、
  人手不足が深刻だ。
• (2008年3月11日 読売新聞)
本当に、こんなに
 稼げるの?
経産省「産業構造ビジョン2010」
現在のロボットの問題
• ロボットに命令するだけでも大変
 – 現状では、専門家が決められた手順に沿って、手間
   をかけてプログラムしている
 – お年寄りや子供たちには、とても無理
 – 人間がロボットの都合にあわせるのは絶対イヤだ!
  • 「人間中心の」情報処理技術の必要性


• ロボットにやって欲しいこと
 – どのようなことでも、「掃除して」、「洗濯して」、
   などと言うだけで、やって欲しい。
                              42
専用機 vs 汎用機
      現存する人工物は、全て
   特定の目的のために作られた専用機。




                      VS



注)PCはハードウエアは汎用だが、          注)汎用機が人の姿を
ソフトウエアが専用なので、「専用機」。        しているとは限らない。
これからは、「汎用機」の研究と
     実用化の推進が急務


               SOINN !!
Self-Organizing Incremental Neural Network
SOINNとは?
  東工大 長谷川修研で独自開発




     コンピュータやロボットが
「見て、聞いて、覚えて、考えて、行動する」
  ための脳をヒントにした情報処理技術     45
SOINNの機能

脳がそうであるように、

1. 視覚、聴覚、触覚、モータの時系列制御信号などのマ
   ルチモーダル・パターン情報を、超高速かつ発達的
   (オンラインかつ追加的)に学習できる。

2. 学習したパターン情報から、連想・推論・転移などの
   高次知能情報処理が実現できる。

こうした機能を兼ね備えた学習器は、SOINNだけ。   46
自己増殖型ニューラルネットワーク(SOINN)




 SOINNのソフトウエアは、長谷川修研ホームページから
 無償でダウンロード可能。
                               47
最近の主要研究 (1)
コンピュータやロボットに
極めて多様な実世界を
  現実的な方法で
  認識させたい。
超高速オンライン転移学習

       東京工業大学
  木村大毅, Kankuekul Pichai,
  Aram Kawewong, 長谷川修


 画像センシングシンポジウム 2011
Introduction
• 実世界の物体認識は極めて困難
 現在、この問題を根本的に解決する「現実的な」手
 法は存在しない。

                実世界の難しさ
                ・多種多様の物体
                ・高ノイズ
                ・新しい物が増える
                ・オクルージョン
                      など・・・
これまでは、Caltech 256 など
対象をクラス毎に学習・認識させる試み
対象毎に、沢山の学習画像を用意。
   下記は「ラクダ」の例
しかし、私たちの身の周りには膨大な数の
 モノがあり、その数は増え続けている。
パラダイムシフトが必要!
• 「月」に行くには?
 – 飛行機をどんなに改良しても「絶対」月には行けない
 – 同様に、従来方式をどんなに改良しても、人の目のような
   人工視覚はできないのでは…?




      ×             ○
本研究の成果と意義
• 下記を兼ね備えた、現実的な物体認識 手法
  を構築。
 – 転移学習を導入
  • 実世界を少数の基本的な属性知識の組合せで認識(
    例:赤+球+果物=リンゴ)
 – 命令するだけで「自力で・直ちに」賢くなる
  • 学習データはインターネットから自動収集
  • 超高速にオンライン追加学習&認識
 – 画像以外にも多様・Noisy・曖昧な情報に対応
  • 多様な曖昧情報を複合的に利用可能
                              55
きれいな「花」だな。
  何という名前だろう?


         つまり、人間は
       初めて見る対象でも
       相応に認識できる。

これに近い(と思われる)のが
転移学習(Transfer Learning)
Transfer Learning:
予め学習させた基本的な知識、「属性」の組み合
わせにより、初めて見る対象でも認識させる技術。
Transfer Learning (転移学習)
• 対象について学習するのではなく、
  基本的な概念(「属性」と呼ぶ)を学習
• 属性の組み合わせで未学習物体も認識
      窓     ダイヤル


学
習
    ボール      箱     転移
画
像


    電子レンジ
                    ダイヤルと窓がある箱型のもの= 電子レンジ
                              人間が定義
Transfer learning (転移学習)
• この関係はアルファベットと辞書の関係に類似
 – 英語の場合、26文字の組合せで数十万の単語。
 – 前頁の例では「ダイヤル+箱=金庫」もわかる。

• さらに、提案手法はベクトルデータ全般を属性
  として超高速オンライン追加学習可能。
 – 画像、音声、各種センサデータ、モータの制御信号
   など、あらゆるパターンデータが入力可能。
超高速オンライン・マルチモーダル転移学習手法
        提案手法




          24,295 枚の学習時間




          6,180 枚の認識時間

    SSII 2011:画像センシングシンポで発表
     関連研究を ViEW 2011 にて基調講演
Proposed SOINN
• AT-SOINN:
          1つのノード=1つのクラス
• 提案1つのノード=複数のクラス
     :              (度合い)
     New Input       Online Learning
                                           属性をSOINNのクラスとする
                                                 Attr.01 : 20%
    Attr.01 : 70%
                                                 Attr.02 : 80%
    Attr.02 : 30%
                                                       ・
                                                       ・
          ・
          ・                    Attr.02                 ・
          ・                                      Attr.85 : 50%
    Attr.85 : 45%    Attr.01                                     Attr.01 : 10%
                                                                 Attr.02 : 85%
                                                                       ・
                                                                       ・
                                                                       ・
     Attr.01 : 95%                                               Attr.85 : 45%
     Attr.02 : 10%
           ・
           ・                                            Attr.01 : 15%
           ・                             Recognition    Attr.02 : 80%
     Attr.85 : 30%
                                                              ・
                                                              ・
                                                              ・
     Noise Robust                                       Attr.85 : 45%
                                                                            61
Proposed Method (Training phase)
                                        e.g. SIFT

  Labeling                  Features                            Proposed-SOINN




                                             …
 Attributes                Extraction




                                                                    ・・・

   Images of                                  Feature-1   F-2                         F-Q
                                                                         Q : Number of Features
Training classes

                                                    画像の特徴と属性の関連を学習
                   Class/Attribute                  SOINNの数=特徴の数
                       Matrix


                                     これを利用してクラスから属性へ変換
  Images of
 Test classes                          ex) 「りんご」⇒「赤+球」
         Dataset
Proposed Method (Test phase)
                                        e.g. SIFT

  Labeling                  Features                                   Proposed-SOINN




                                             …
 Attributes                Extraction




                                                                              ・・・

   Images of                                  Feature-1          F-2                                 F-Q
Training classes                                                       与えられた特徴から
                                                                       各々の属性の度合いを算出

                   Class/Attribute                  Calculate Attributes using statistical recognition
                       Matrix
                                     未知クラスも属性のみは知っている


  Images of                                          Guess the Class according to these Attributes
 Test classes
                                                                                        Q : Number of Features
         Dataset                        各々の属性からクラスへ変換
                                        ex) 「赤+球」⇒「りんご」
SOINN [Shen, Hasegawa, NN06]
• 自己増殖型ニューラルネットワーク
 – オンラインかつ追加的に学習可能
 – クラス数や分布の形などの事前知識が不要
 – 実世界での運用を考慮したノイズ耐性
 – マルチモーダルなパターン情報を学習可能




                                  強力な
                                  ノイズ耐性
      入力情報          SOINN内の情報
さらに、長谷川研の提案手法は、

超高速
オンライン・マルチモーダル
転移学習手法

つまり、画像以外にも、音声や、
温度や圧力などの各種センサ情報、
多数のモータの制御情報、
なども複合的に扱える!

だから、ロボットにそのまま使える!
提案手法の発展例
• 従って、こんなことが出来る。
                他のロボットの学習結果

                                             楽チン!
 イ ン タ ー ネ ット

膨大な情報                         物理的経験          学習
          オンラインで              人の命令          データ
                                            準備不要
          超高速に学習

        属性知識



                 獲得した属性知識を        「箱+窓+ダイヤル+チン♪」
                 未知対象に適用し認識               ⇒電子レンジ
Experiments
• Lampertら[1]の動物の画像で比較実験
 – 50種類の動物
   • ライオン、シマウマ、豚、シロクマ、イルカなど
 – 85種類の属性(基本的な概念)
   • 肉食動物、尻尾がある、速く走る、賢いなど
 – 6種類の画像特徴
   • SIFT、SURF、pHOG、rgSIFT、LSS、CQの
     それぞれのヒストグラム(Bag-of-Features)
※上で挙げた従来手法以外にも多くの論文で使用されている
Experiments
 例)未知の豚を当てる方法                                    草食動物
                                                             飛べない
                          肉食動物                    だろう
                                                              だろう

        足が短い

                                        飛べない
肉食動物            学習動物                             見たことがない
                                                   動物
                 40                                 10
 足が短い                種類
                                 草食動物
                                           属性
                                           を転移          種類
               飛べる                      足が長い                 足が短い
                                                              だろう
 飛べない
  ライオン          コウモリ             足が短く飛べない草食動物
                                   馬
                                           =豚?!
                      未知動物も属性の組み合わせは知っている
Results
      オンライン学習                   バッチ学習
                      AT-
          提案手法      SOINN[2]
                               DAP[1]       IAP[1]

 認識率      26.82% 26.96% 40.51% 27.83%
学習時間       7分       6時間            >70日
認識時間      1分半       4時間             >2日
データ量      1,825    347,082              -
 (ノード数)
                   99.47%削減
SOINNの数     6        1020               -
                なお学習時間と認識時間は、特徴検出の時間を含めない
Results
    オンライン学習                 バッチ学習
                  AT-
         提案手法   SOINN[2]
                           DAP[1]   IAP[1]

曖昧な
属性※       ○       ×         ×        ×
属性の
 追加       ○       △         ×        ×
※曖昧な属性とは、連続値での属性の定義が出来るという意味である

提案手法は、

  54枚/秒で学習、16ミリ秒/枚で認識
          更に、曖昧な属性や柔軟な属性の追加が可能
更なる展開:インターネットの活用
                      例)

• その場で、直ちに賢くなる
 – 高速性やオンライン学習性を活用
  • 複雑な実環境では、有効な属性を事前に
    想定するのは困難。
  • 有効な属性を、人や環境とのインタラクションを通じて
    決定。
 – ネットの情報は極めてノイジー
  • SOINNのノイズ耐性を活用
 – 大規模評価実験の実施を予定
主要参考文献
[1] C. H. Lampert, H. Nickisch, and S. Harmeling, “Learning to detect
    unseen object classes by between-class attribute transfer”, CVPR
    2009.

[2] A. Kawewong, Sirinart Tangruamsub, Pichai Kankuekool and
    Osamu Hasegawa, “Fast Online Incremental Transfer Learning for
    Unseen Object Classification Using Self-Organizing Incremental
    Neural Networks”, The 2011 International Joint Conference on
    Neural Networks (IJCNN).

[3] F. Shen, O. Hasegawa, “An Incremental Network for On-line
    Unsupervised Classification and Topology Learning”, Neural
    Networks 2006.
最近の主要研究 (2)

ネットからの学習データの自動収集に基づく
   オンライン転移学習・認識実験

   画像の基本的な情報(属性情報)を
  ネットから高速学習して一般物体認識
研究の最終目標

電脳環境に日々蓄積される膨大な情報や、
実環境での物理的経験から、
複数のSOINNが自律的・自己組織的に学習し、
学習した知識を互いに教えあうことで、
極力人の手間を取らせずに、人のために働く
知的人工システム(情報機器やロボット)
を実現する。
長谷川研の研究目標:社会的・物理的空間や電脳空間との相互作用から
 自力で知的発達する実世界知能システム(情報機器やロボット)の創成

Future
           自力で知的発達する情報機器や知能ロボット
           ・電脳環境や人との相互作用により
      この実現のための、
            自力で賢くなる自律ロボット
           ・不特定タスクへの柔軟な対応

      最初のアプローチ
                                      頭脳             他のロボットの学習結果
             足

                              自力で賢くなる転移学習
                              ・インターネットなどから               腕
画像を用いた自己位置同定                   学習データを自ら収集し、
・GPSが不要                        自力で知的に発達
・人混みでも学習や認識が可能                ・未学習の知識にも
・携帯端末などの                       柔軟に対応
 低画質のカメラでも動作


現在

           ・PIRFを利用        ・学習した知識を未知の対象に転移して認識      ・実環境で稼働
           ・屋内でも動作可能な      ・画像や音声、多数のセンサやモータ出力など、    ・未知のタスクへのアプ
           ・人混みでも頑健に動作      あらゆるベクトルデータをオンライン学習&認識    ローチを自力で生成


・屋内や地下では
 利用不可

                         青枠は全て、長谷川研独自の既存技術
問題点と本研究の着眼

         従来手法
 • 殆どの場合、膨大な学習データの収集
   や教師ラベル付与は人が行う。
 • 長谷川研の顔検出実験では、5万枚
   以上の画像から、3万枚以上の顔画
   像だけを人手で抽出した。



                本研究
•    ネット上には、ノイジーだが膨大な情報が存在する。
•    ネットの情報は、世界中で日々更新・蓄積されている。
•    ここから意味のある情報を取り出せれば、学習に使える!
•    SOINNのノイズ除去機能やオンライン学習機能を活用
76
実験シナリオ
オンライン転移学習・認識実験に用いる学習画像は、
インターネットから検索して自動収集する。

実験者は、システムに
   画像収集のためのキーワード
   上記から抽出する属性のキーワード
のみを与える。

この条件で、十分な性能が得られるか、を評価。

(転移学習には、オンライン学習可能な独自手法
“SGD-SOINN-SVM” を利用。)
実際に自動収集した画像の例



   Tomato   Broccoli




   Banana   Cinnamon
さらに、実験では異なる条件で2つのシステムを構成

• 野菜学習システム vs 人工物学習システム

      野菜や果物の画像を学習                             人工物の画像を学習




                                     Learn from:
Learn from:
                                       - Human objects
  - Fruits and Vegetables
                                     Training object classes:
Training object classes:
                                       - soda-can, computer-keyboard,
  - Tomato, cinnamon, and broccoli
                                     shipping box
Testing object classes:
                                     Testing object classes:
  - cucumber, lemon and watermelon
                                       - Bottle, Tennis-ball, Microwave
Attributes:
                                     Attributes:
  - stick, sphere
                                       - cylinder, buttons, cubic
人工物学習システム
                                                    Computer-keyboard

• Learn three attributes
  – ‘cylinder’, ‘has buttons’ and
    ‘cubic’
• Classify on                                              Soda-can
  – Bottle, tennis-ball and
    microwave                                            Shipping-boxes

 Step   Learnt Attributes           Avg. Acc. (%)
  1     ‘cylinder’, ‘has buttons’      61.40
        and ‘cubic’

 自動収集した学習画像は、各200枚程度。属性の組み合わせで認識
 するので、「たったそれだけ」で上記の認識率が得られることが判明。
野菜学習システム
属性のオンライン追加学習により、認識率が向上することを確認。

  Step 1: Learn only ‘sphere’ and ‘stick’ attributes (from tomato,
  cinnamon and broccoli)
    Step     Learnt Attributes                     Avg. Acc. (%)
     1       Sphere, Stick                            38.89



  Step 2: add color attributes
   - learn 'red’, ‘green’ and ‘brown’ attributes from the same training
  object classes
   - learn ‘yellow’ attribute from new object class  banana
      Step      Learnt Attributes                    Avg. Acc. (%)
       1        Sphere, Stick                           38.89
       2        Sphere, Stick + Red, green,             56.51
                brown, yellow
「システムが、システムに教える」実験
  人工物システムが、野菜システムに学習済み ”cylinder” の属性
  データを転送し、野菜システムの認識率を向上させた。
人工物学習システム                                               野菜学習システム

                              Transfer ‘cylinder’
                         attribute from the system II




Learn three attributes   Step    Learnt Attributes                   Avg. Acc.
    • ‘cylinder’,
                                                                        (%)
    • ‘has buttons’
    • and ‘cubic’          1     sphere, stick                         38.89
                           2     sphere, stick + red, green,           56.51
                                 brown, yellow
                           3     sphere, stick, red, green, brown,     70.11
                                 yellow +cylinder
最近の主要研究 (3)

     SOINN による
ロボットや複雑構造物の知的制御
長谷川研の研究目標:社会的・物理的空間や電脳空間との相互作用から
 自力で知的発達する実世界知能システム(情報機器やロボット)の創成

Future
           自力で知的発達する情報機器や知能ロボット
           ・電脳環境や人との相互作用により
            自力で賢くなる自律ロボット
           ・不特定タスクへの柔軟な対応



                                      頭脳             他のロボットの学習結果
             足

                              自力で賢くなる転移学習
                              ・インターネットなどから               腕
画像を用いた自己位置同定
この実現のための、
・GPSが不要
・人混みでも学習や認識が可能
                               学習データを自ら収集し、
                               自力で知的に発達
                              ・未学習の知識にも
  アプローチ
・携帯端末などの
 低画質のカメラでも動作
                               柔軟に対応



現在

           ・PIRFを利用        ・学習した知識を未知の対象に転移して認識      ・実環境で稼働
           ・屋内でも動作可能な      ・画像や音声、多数のセンサやモータ出力など、    ・未知のタスクへのアプ
           ・人混みでも頑健に動作      あらゆるベクトルデータをオンライン学習&認識    ローチを自力で生成


・屋内や地下では
 利用不可

                         青枠は全て、長谷川研独自の既存技術
ロボットに応用問題を解かせる
• 現在の問題点
 – ロボットは、プログラムした限定タスクしかできない。

• 提案手法:
 – ロボットの腕を持って、基本的な動作(コップを持つ、コップから注
   ぐなど)を個別に教示する。

 – ロボットは、上記の動作群を組み合わせ、指示されたタスク解決
   のための一連の挙動を自力で推論・生成し、達成する。(ポットか
   ら急須に湯を注ぎ、湯呑みにお茶を淹れて、指定の場所に置く、
   など。)

 – 基本的な動作は、いつでも、ピンポイントで追加できる。
  (新たな動作をオンライン追加学習でき、その結果としてロボットの
   問題解決能力(知的レベル)が向上する。)
人型ロボットによる実世界版一般問題解決

巻渕有哉,申富饒,長谷川修:"実世界における一般問題解決システ
ムの提案とそのヒューマノイドロボットへの実装",電子情報通信学会
論文誌D,Vol.J93-D, No.6, pp960-977, (2010)




                            長谷川研ホームページに
                            デモビデオ有り


                                          86
今後、AIは人の日常経験に近づく
ネットで調べ、まず自分でやってみて、
時には他のロボットや、人にも教えてもらうが、
極力人の手間を取らせずに、
自力で学習してタスクを実行する。


言いつけるだけで、勝手に賢くなるロボット!
「お茶を淹れて」というと、その意味や処理手順を極力自力で
学習・推論し、処理してくれる。
こうした機能は、実環境で、あらゆるタスクをこなして人のため
に働くロボットには不可欠!
                                87
SOINNの補足説明
学習器の評価(1):
           オンライン学習と追加学習
オンライン学習(Online Learning)
多数の学習データを一括して処理するのではなく、入力される
データを逐次学習すること。言い換えれば、入力データを N 個
学習したときの学習結果を θ N として、  1 個目の入力データ
                             N
と θ N から θ N1 を順次求める学習手法
 ⇔ バッチ学習(Batch Learning)、オフライ ン学習(Offline Learnig)

追加学習(Incremental Learning)
過去の学習データを破壊することなく、新しい入力データを学
習できること。動的に形状が変化する非定常な分布も学習可能
である、学習器に適応性があるとも解釈できる
  ※ 逐次学習(Incremental Learning)と表記される場合もあるの
    で注意が必要。この場合、多くは本発表における「オンライ
    ン学習」を意味している                                      89
学習器の評価(2):
           有限メモリと計算量O(1)

有限メモリ(Finite Memory)
各ステップの学習時に計算のために確保するメモリ量が、学習
データ数が無限になった際に一定値、または有限値を取ること

計算量O(1) (Time Complexity)
各ステップの学習に要する計算量のオーダーが学習データ数 N
に対して 1 、つまり学習データ数に依らず一定であること。
例えば、バッチ学習は学習の度に過去の全ての学習データを確
認する必要があるため、少なくとも N となる




                               90
学習器の評価(3):
                オープンエンド学習
           SOM       SOINN          GNG

・多層パーセプトロン
・SVM(SGD)
・HMM(オンラインEM)
・LVQ

            計算量
            O(1)


         有限メモリ                               ・k-means
                             追加学習            ・SVM
                                             ・HMM

                   オンライン学習
                                          バッチ学習
   (狭義の)オープンエンド学習       (広義の)オープンエンド学習
                                                  91
SOINNシリーズ(1)
                 全て長谷川研で独自に研究開発
                                         高速最近傍識別器の提案
                                          パラメータ数を削減              半教師あり
                        Adjusted SOINN                          能動学習への応用

 Original SOINN            Classifier
                         [神谷ら 2007]                       SSA-SOINN
[Shen et al. 2005]                                       [桜井ら 2007]


      2005                               2007


                       E-SOINN
                     [小倉ら 2007]
                                             SOINNを用いた
 近似能力の維持と                                   ロボットの言語獲得
構造・パラメータ数の
                                             [Xe et al. 2007]
 簡略化を同時に実現


                                                                      92
SOINNシリーズ(2)
              全て長谷川研で独自に研究開発

           時系列パターン
           認識への応用          パターンベース           SOINNを用いた
                            推論の実現          ロボットの一般問題解決
  SOINN-DP                                    [巻渕ら 2010]
 [岡田ら 2008]      SOINN-PBR
                [須藤ら 2008]


    2008                         2010

                                              AT-SOINN
                                          [Aram et al. 2010]
  SOIAM                    GAM
[須藤ら 2008]           [Shen et al. 2010]                 属性情報を用いた
                                                        転移学習への応用
     連想記憶の実現                  系列データを想起可能な
                               連想記憶システム


                                                               93

More Related Content

What's hot

SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII
 
コンピュテーショナルフォトグラフティの基礎
コンピュテーショナルフォトグラフティの基礎コンピュテーショナルフォトグラフティの基礎
コンピュテーショナルフォトグラフティの基礎Norishige Fukushima
 
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII
 
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII
 
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量takaya imai
 
SSII2018TS: コンピュテーショナルイルミネーション
SSII2018TS: コンピュテーショナルイルミネーションSSII2018TS: コンピュテーショナルイルミネーション
SSII2018TS: コンピュテーショナルイルミネーション
SSII
 
ICCV2011 report
ICCV2011 reportICCV2011 report
ICCV2011 report
Hironobu Fujiyoshi
 
SSII2020TS: 物理ベースビジョンの過去・現在・未来 〜 カメラ・物体・光のインタラクションを モデル化するには 〜
SSII2020TS: 物理ベースビジョンの過去・現在・未来 〜 カメラ・物体・光のインタラクションを モデル化するには 〜SSII2020TS: 物理ベースビジョンの過去・現在・未来 〜 カメラ・物体・光のインタラクションを モデル化するには 〜
SSII2020TS: 物理ベースビジョンの過去・現在・未来 〜 カメラ・物体・光のインタラクションを モデル化するには 〜
SSII
 
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII
 
コンピューテーショナルフォトグラフィ
コンピューテーショナルフォトグラフィコンピューテーショナルフォトグラフィ
コンピューテーショナルフォトグラフィ
Norishige Fukushima
 
SSII2014 チュートリアル資料
SSII2014 チュートリアル資料SSII2014 チュートリアル資料
SSII2014 チュートリアル資料Masayuki Tanaka
 
3次元計測とフィルタリング
3次元計測とフィルタリング3次元計測とフィルタリング
3次元計測とフィルタリング
Norishige Fukushima
 
2016/4/16 名古屋CVPRML 発表資料
2016/4/16 名古屋CVPRML 発表資料2016/4/16 名古屋CVPRML 発表資料
2016/4/16 名古屋CVPRML 発表資料
Hiroshi Fukui
 
Lab introduction 2014
Lab introduction 2014Lab introduction 2014
Lab introduction 2014nlab_utokyo
 
[サーベイ論文] Deep Learningを用いた歩行者検出の研究動向
[サーベイ論文] Deep Learningを用いた歩行者検出の研究動向[サーベイ論文] Deep Learningを用いた歩行者検出の研究動向
[サーベイ論文] Deep Learningを用いた歩行者検出の研究動向
Hiroshi Fukui
 
Camera calibration
Camera calibrationCamera calibration
Camera calibration
Takahashi Kosuke
 
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...
Deep Learning JP
 
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII
 
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII
 

What's hot (20)

SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
 
I
II
I
 
コンピュテーショナルフォトグラフティの基礎
コンピュテーショナルフォトグラフティの基礎コンピュテーショナルフォトグラフティの基礎
コンピュテーショナルフォトグラフティの基礎
 
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
 
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
SSII2019TS: プロジェクタ・カメラシステムが変わる! ~時間同期の制御で広がる応用~
 
画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量画像認識の初歩、SIFT,SURF特徴量
画像認識の初歩、SIFT,SURF特徴量
 
SSII2018TS: コンピュテーショナルイルミネーション
SSII2018TS: コンピュテーショナルイルミネーションSSII2018TS: コンピュテーショナルイルミネーション
SSII2018TS: コンピュテーショナルイルミネーション
 
ICCV2011 report
ICCV2011 reportICCV2011 report
ICCV2011 report
 
SSII2020TS: 物理ベースビジョンの過去・現在・未来 〜 カメラ・物体・光のインタラクションを モデル化するには 〜
SSII2020TS: 物理ベースビジョンの過去・現在・未来 〜 カメラ・物体・光のインタラクションを モデル化するには 〜SSII2020TS: 物理ベースビジョンの過去・現在・未来 〜 カメラ・物体・光のインタラクションを モデル化するには 〜
SSII2020TS: 物理ベースビジョンの過去・現在・未来 〜 カメラ・物体・光のインタラクションを モデル化するには 〜
 
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
SSII2021 [TS1] Visual SLAM ~カメラ幾何の基礎から最近の技術動向まで~
 
コンピューテーショナルフォトグラフィ
コンピューテーショナルフォトグラフィコンピューテーショナルフォトグラフィ
コンピューテーショナルフォトグラフィ
 
SSII2014 チュートリアル資料
SSII2014 チュートリアル資料SSII2014 チュートリアル資料
SSII2014 チュートリアル資料
 
3次元計測とフィルタリング
3次元計測とフィルタリング3次元計測とフィルタリング
3次元計測とフィルタリング
 
2016/4/16 名古屋CVPRML 発表資料
2016/4/16 名古屋CVPRML 発表資料2016/4/16 名古屋CVPRML 発表資料
2016/4/16 名古屋CVPRML 発表資料
 
Lab introduction 2014
Lab introduction 2014Lab introduction 2014
Lab introduction 2014
 
[サーベイ論文] Deep Learningを用いた歩行者検出の研究動向
[サーベイ論文] Deep Learningを用いた歩行者検出の研究動向[サーベイ論文] Deep Learningを用いた歩行者検出の研究動向
[サーベイ論文] Deep Learningを用いた歩行者検出の研究動向
 
Camera calibration
Camera calibrationCamera calibration
Camera calibration
 
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...
[DL輪読会]Depth Prediction Without the Sensors: Leveraging Structure for Unsuper...
 
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
SSII2019企画: 画像および LiDAR を用いた自動走行に関する動向
 
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
SSII2019TS: 実践カメラキャリブレーション ~カメラを用いた実世界計測の基礎と応用~
 

Similar to 東工大長谷川修研紹介 2011 (8月1日版)

CVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移についてCVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
Akisato Kimura
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
nlab_utokyo
 
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...
Yoshitaka Ushiku
 
20150414seminar
20150414seminar20150414seminar
20150414seminar
nlab_utokyo
 
MISO20200530
MISO20200530MISO20200530
MISO20200530
陽平 山口
 
B3スタートアップ コンピュータビジョンの現在と未来にやるべきこと(東京電機大学講演)
B3スタートアップ コンピュータビジョンの現在と未来にやるべきこと(東京電機大学講演)B3スタートアップ コンピュータビジョンの現在と未来にやるべきこと(東京電機大学講演)
B3スタートアップ コンピュータビジョンの現在と未来にやるべきこと(東京電機大学講演)
cvpaper. challenge
 
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
cvpaper. challenge
 
体験を創る - 1→10design,Inc. 坪倉輝明
体験を創る - 1→10design,Inc. 坪倉輝明体験を創る - 1→10design,Inc. 坪倉輝明
体験を創る - 1→10design,Inc. 坪倉輝明
Teruaki Tsubokura
 
Re: ご注文は自動化ですか?[2]
Re: ご注文は自動化ですか?[2]Re: ご注文は自動化ですか?[2]
Re: ご注文は自動化ですか?[2]
Masahito Zembutsu
 
DevLove20141206
DevLove20141206DevLove20141206
DevLove20141206
陽平 山口
 
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
Kazuki Nakajima
 
JAWS-UG クラウド専業SIer(CIer)になってみた結果
JAWS-UG クラウド専業SIer(CIer)になってみた結果JAWS-UG クラウド専業SIer(CIer)になってみた結果
JAWS-UG クラウド専業SIer(CIer)になってみた結果
Serverworks Co.,Ltd.
 
動画像理解のための深層学習アプローチ
動画像理解のための深層学習アプローチ動画像理解のための深層学習アプローチ
動画像理解のための深層学習アプローチ
Toru Tamaki
 
私がMuninに恋する理由 - インフラエンジニアでも監視がしたい! -
私がMuninに恋する理由 - インフラエンジニアでも監視がしたい! -私がMuninに恋する理由 - インフラエンジニアでも監視がしたい! -
私がMuninに恋する理由 - インフラエンジニアでも監視がしたい! -
Masahito Zembutsu
 
UE4のレイトレで出来ること/出来ないこと
UE4のレイトレで出来ること/出来ないことUE4のレイトレで出来ること/出来ないこと
UE4のレイトレで出来ること/出来ないこと
Satoshi Kodaira
 
LIFULL HOME'Sにおける不動産物件画像解析
LIFULL HOME'Sにおける不動産物件画像解析LIFULL HOME'Sにおける不動産物件画像解析
LIFULL HOME'Sにおける不動産物件画像解析
Yoji Kiyota
 
最適化の視点から見た人工知能とSENSY社でのリサーチャー育成の取り組み
最適化の視点から見た人工知能とSENSY社でのリサーチャー育成の取り組み最適化の視点から見た人工知能とSENSY社でのリサーチャー育成の取り組み
最適化の視点から見た人工知能とSENSY社でのリサーチャー育成の取り組み
Takashi Okamoto
 
ビジュアライゼーションの役割とUI開発のイノベーション(2)
ビジュアライゼーションの役割とUI開発のイノベーション(2)ビジュアライゼーションの役割とUI開発のイノベーション(2)
ビジュアライゼーションの役割とUI開発のイノベーション(2)
BizCOLLEGE
 
人工知能を用いた医用画像処理技術
人工知能を用いた医用画像処理技術人工知能を用いた医用画像処理技術
人工知能を用いた医用画像処理技術
Yutaka KATAYAMA
 
Machine Learning Nagoya 20170619
Machine Learning Nagoya 20170619Machine Learning Nagoya 20170619
Machine Learning Nagoya 20170619
陽平 山口
 

Similar to 東工大長谷川修研紹介 2011 (8月1日版) (20)

CVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移についてCVPR2016 reading - 特徴量学習とクロスモーダル転移について
CVPR2016 reading - 特徴量学習とクロスモーダル転移について
 
Deep Learningと画像認識   ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識   ~歴史・理論・実践~
 
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...
Reinforced Cross-Modal Matching and Self-Supervised Imitation Learning for Vi...
 
20150414seminar
20150414seminar20150414seminar
20150414seminar
 
MISO20200530
MISO20200530MISO20200530
MISO20200530
 
B3スタートアップ コンピュータビジョンの現在と未来にやるべきこと(東京電機大学講演)
B3スタートアップ コンピュータビジョンの現在と未来にやるべきこと(東京電機大学講演)B3スタートアップ コンピュータビジョンの現在と未来にやるべきこと(東京電機大学講演)
B3スタートアップ コンピュータビジョンの現在と未来にやるべきこと(東京電機大学講演)
 
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
これからのコンピュータビジョン技術 - cvpaper.challenge in PRMU Grand Challenge 2016 (PRMU研究会 2...
 
体験を創る - 1→10design,Inc. 坪倉輝明
体験を創る - 1→10design,Inc. 坪倉輝明体験を創る - 1→10design,Inc. 坪倉輝明
体験を創る - 1→10design,Inc. 坪倉輝明
 
Re: ご注文は自動化ですか?[2]
Re: ご注文は自動化ですか?[2]Re: ご注文は自動化ですか?[2]
Re: ご注文は自動化ですか?[2]
 
DevLove20141206
DevLove20141206DevLove20141206
DevLove20141206
 
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
鳥肌必至のニューラルネットワークによる近未来の画像認識技術を体験し、IoTの知られざるパワーを知る
 
JAWS-UG クラウド専業SIer(CIer)になってみた結果
JAWS-UG クラウド専業SIer(CIer)になってみた結果JAWS-UG クラウド専業SIer(CIer)になってみた結果
JAWS-UG クラウド専業SIer(CIer)になってみた結果
 
動画像理解のための深層学習アプローチ
動画像理解のための深層学習アプローチ動画像理解のための深層学習アプローチ
動画像理解のための深層学習アプローチ
 
私がMuninに恋する理由 - インフラエンジニアでも監視がしたい! -
私がMuninに恋する理由 - インフラエンジニアでも監視がしたい! -私がMuninに恋する理由 - インフラエンジニアでも監視がしたい! -
私がMuninに恋する理由 - インフラエンジニアでも監視がしたい! -
 
UE4のレイトレで出来ること/出来ないこと
UE4のレイトレで出来ること/出来ないことUE4のレイトレで出来ること/出来ないこと
UE4のレイトレで出来ること/出来ないこと
 
LIFULL HOME'Sにおける不動産物件画像解析
LIFULL HOME'Sにおける不動産物件画像解析LIFULL HOME'Sにおける不動産物件画像解析
LIFULL HOME'Sにおける不動産物件画像解析
 
最適化の視点から見た人工知能とSENSY社でのリサーチャー育成の取り組み
最適化の視点から見た人工知能とSENSY社でのリサーチャー育成の取り組み最適化の視点から見た人工知能とSENSY社でのリサーチャー育成の取り組み
最適化の視点から見た人工知能とSENSY社でのリサーチャー育成の取り組み
 
ビジュアライゼーションの役割とUI開発のイノベーション(2)
ビジュアライゼーションの役割とUI開発のイノベーション(2)ビジュアライゼーションの役割とUI開発のイノベーション(2)
ビジュアライゼーションの役割とUI開発のイノベーション(2)
 
人工知能を用いた医用画像処理技術
人工知能を用いた医用画像処理技術人工知能を用いた医用画像処理技術
人工知能を用いた医用画像処理技術
 
Machine Learning Nagoya 20170619
Machine Learning Nagoya 20170619Machine Learning Nagoya 20170619
Machine Learning Nagoya 20170619
 

More from SOINN Inc.

Dr.Kawewong Ph.D Thesis
Dr.Kawewong Ph.D ThesisDr.Kawewong Ph.D Thesis
Dr.Kawewong Ph.D Thesis
SOINN Inc.
 
Original SOINN
Original SOINNOriginal SOINN
Original SOINN
SOINN Inc.
 
PhDThesis, Dr Shen Furao
PhDThesis, Dr Shen FuraoPhDThesis, Dr Shen Furao
PhDThesis, Dr Shen Furao
SOINN Inc.
 
SOIAM (SOINN-AM)
SOIAM (SOINN-AM)SOIAM (SOINN-AM)
SOIAM (SOINN-AM)
SOINN Inc.
 
学生さんへのメッセージ
学生さんへのメッセージ学生さんへのメッセージ
学生さんへのメッセージSOINN Inc.
 

More from SOINN Inc. (9)

PBAI
PBAIPBAI
PBAI
 
Dr.Kawewong Ph.D Thesis
Dr.Kawewong Ph.D ThesisDr.Kawewong Ph.D Thesis
Dr.Kawewong Ph.D Thesis
 
SSA-SOINN
SSA-SOINNSSA-SOINN
SSA-SOINN
 
E-SOINN
E-SOINNE-SOINN
E-SOINN
 
Original SOINN
Original SOINNOriginal SOINN
Original SOINN
 
PhDThesis, Dr Shen Furao
PhDThesis, Dr Shen FuraoPhDThesis, Dr Shen Furao
PhDThesis, Dr Shen Furao
 
SOIAM (SOINN-AM)
SOIAM (SOINN-AM)SOIAM (SOINN-AM)
SOIAM (SOINN-AM)
 
SOINN-AM
SOINN-AMSOINN-AM
SOINN-AM
 
学生さんへのメッセージ
学生さんへのメッセージ学生さんへのメッセージ
学生さんへのメッセージ
 

Recently uploaded

Humanoid Virtual Athletics Challenge2024 技術講習会 スライド
Humanoid Virtual Athletics Challenge2024 技術講習会 スライドHumanoid Virtual Athletics Challenge2024 技術講習会 スライド
Humanoid Virtual Athletics Challenge2024 技術講習会 スライド
tazaki1
 
This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.
chiefujita1
 
キンドリル ネットワークアセスメントサービスご紹介 今のネットワーク環境は大丈夫? 調査〜対策までご支援します
キンドリル ネットワークアセスメントサービスご紹介 今のネットワーク環境は大丈夫? 調査〜対策までご支援しますキンドリル ネットワークアセスメントサービスご紹介 今のネットワーク環境は大丈夫? 調査〜対策までご支援します
キンドリル ネットワークアセスメントサービスご紹介 今のネットワーク環境は大丈夫? 調査〜対策までご支援します
Takayuki Nakayama
 
ロジックから状態を分離する技術/設計ナイト2024 by わいとん @ytnobody
ロジックから状態を分離する技術/設計ナイト2024 by わいとん @ytnobodyロジックから状態を分離する技術/設計ナイト2024 by わいとん @ytnobody
ロジックから状態を分離する技術/設計ナイト2024 by わいとん @ytnobody
azuma satoshi
 
生成AIがもたらすコンテンツ経済圏の新時代  The New Era of Content Economy Brought by Generative AI
生成AIがもたらすコンテンツ経済圏の新時代  The New Era of Content Economy Brought by Generative AI生成AIがもたらすコンテンツ経済圏の新時代  The New Era of Content Economy Brought by Generative AI
生成AIがもたらすコンテンツ経済圏の新時代  The New Era of Content Economy Brought by Generative AI
Osaka University
 
Generating Automatic Feedback on UI Mockups with Large Language Models
Generating Automatic Feedback on UI Mockups with Large Language ModelsGenerating Automatic Feedback on UI Mockups with Large Language Models
Generating Automatic Feedback on UI Mockups with Large Language Models
harmonylab
 
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
t m
 
「進化するアプリ イマ×ミライ ~生成AIアプリへ続く道と新時代のアプリとは~」Interop24Tokyo APPS JAPAN B1-01講演
「進化するアプリ イマ×ミライ ~生成AIアプリへ続く道と新時代のアプリとは~」Interop24Tokyo APPS JAPAN B1-01講演「進化するアプリ イマ×ミライ ~生成AIアプリへ続く道と新時代のアプリとは~」Interop24Tokyo APPS JAPAN B1-01講演
「進化するアプリ イマ×ミライ ~生成AIアプリへ続く道と新時代のアプリとは~」Interop24Tokyo APPS JAPAN B1-01講演
嶋 是一 (Yoshikazu SHIMA)
 
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
Matsushita Laboratory
 
ハイブリッドクラウド研究会_Hyper-VとSystem Center Virtual Machine Manager セッションMM
ハイブリッドクラウド研究会_Hyper-VとSystem Center Virtual Machine Manager セッションMMハイブリッドクラウド研究会_Hyper-VとSystem Center Virtual Machine Manager セッションMM
ハイブリッドクラウド研究会_Hyper-VとSystem Center Virtual Machine Manager セッションMM
osamut
 
論文紹介:Deep Learning-Based Human Pose Estimation: A Survey
論文紹介:Deep Learning-Based Human Pose Estimation: A Survey論文紹介:Deep Learning-Based Human Pose Estimation: A Survey
論文紹介:Deep Learning-Based Human Pose Estimation: A Survey
Toru Tamaki
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
CRI Japan, Inc.
 

Recently uploaded (12)

Humanoid Virtual Athletics Challenge2024 技術講習会 スライド
Humanoid Virtual Athletics Challenge2024 技術講習会 スライドHumanoid Virtual Athletics Challenge2024 技術講習会 スライド
Humanoid Virtual Athletics Challenge2024 技術講習会 スライド
 
This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.This is the company presentation material of RIZAP Technologies, Inc.
This is the company presentation material of RIZAP Technologies, Inc.
 
キンドリル ネットワークアセスメントサービスご紹介 今のネットワーク環境は大丈夫? 調査〜対策までご支援します
キンドリル ネットワークアセスメントサービスご紹介 今のネットワーク環境は大丈夫? 調査〜対策までご支援しますキンドリル ネットワークアセスメントサービスご紹介 今のネットワーク環境は大丈夫? 調査〜対策までご支援します
キンドリル ネットワークアセスメントサービスご紹介 今のネットワーク環境は大丈夫? 調査〜対策までご支援します
 
ロジックから状態を分離する技術/設計ナイト2024 by わいとん @ytnobody
ロジックから状態を分離する技術/設計ナイト2024 by わいとん @ytnobodyロジックから状態を分離する技術/設計ナイト2024 by わいとん @ytnobody
ロジックから状態を分離する技術/設計ナイト2024 by わいとん @ytnobody
 
生成AIがもたらすコンテンツ経済圏の新時代  The New Era of Content Economy Brought by Generative AI
生成AIがもたらすコンテンツ経済圏の新時代  The New Era of Content Economy Brought by Generative AI生成AIがもたらすコンテンツ経済圏の新時代  The New Era of Content Economy Brought by Generative AI
生成AIがもたらすコンテンツ経済圏の新時代  The New Era of Content Economy Brought by Generative AI
 
Generating Automatic Feedback on UI Mockups with Large Language Models
Generating Automatic Feedback on UI Mockups with Large Language ModelsGenerating Automatic Feedback on UI Mockups with Large Language Models
Generating Automatic Feedback on UI Mockups with Large Language Models
 
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
遺伝的アルゴリズムと知識蒸留による大規模言語モデル(LLM)の学習とハイパーパラメータ最適化
 
「進化するアプリ イマ×ミライ ~生成AIアプリへ続く道と新時代のアプリとは~」Interop24Tokyo APPS JAPAN B1-01講演
「進化するアプリ イマ×ミライ ~生成AIアプリへ続く道と新時代のアプリとは~」Interop24Tokyo APPS JAPAN B1-01講演「進化するアプリ イマ×ミライ ~生成AIアプリへ続く道と新時代のアプリとは~」Interop24Tokyo APPS JAPAN B1-01講演
「進化するアプリ イマ×ミライ ~生成AIアプリへ続く道と新時代のアプリとは~」Interop24Tokyo APPS JAPAN B1-01講演
 
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
ReonHata_便利の副作用に気づかせるための発想支援手法の評価---行為の増減の提示による気づきへの影響---
 
ハイブリッドクラウド研究会_Hyper-VとSystem Center Virtual Machine Manager セッションMM
ハイブリッドクラウド研究会_Hyper-VとSystem Center Virtual Machine Manager セッションMMハイブリッドクラウド研究会_Hyper-VとSystem Center Virtual Machine Manager セッションMM
ハイブリッドクラウド研究会_Hyper-VとSystem Center Virtual Machine Manager セッションMM
 
論文紹介:Deep Learning-Based Human Pose Estimation: A Survey
論文紹介:Deep Learning-Based Human Pose Estimation: A Survey論文紹介:Deep Learning-Based Human Pose Estimation: A Survey
論文紹介:Deep Learning-Based Human Pose Estimation: A Survey
 
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアルLoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
LoRaWAN 4チャンネル電流センサー・コンバーター CS01-LB 日本語マニュアル
 

東工大長谷川修研紹介 2011 (8月1日版)