SlideShare a Scribd company logo
1 of 32
1
シンギュラリティ株式会社
機械学習における自然言語の扱いと記事推
薦AIに関する取り組み
APPS JAPAN 2017
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
2 2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
 自己紹介
新村拓也
- シーエイトラボ株式会社 代表取締役
- シンギュラリティ株式会社 取締役CTO
3
普段やっていること
 データマイニング案件の受託開発
 データ整形〜実行環境におけるPDCAまで
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
要件定義及
びデータ項
目確認
設計
実験計画
データセット準備
モデ
ル
実
装
学習・評価&
チューニング
 論文調査
 手法選定
 データ選定
 インフラ設計
根幹に関わる部分なので慎重に
行う必要がある。
 データセット収集
 データセット作成
 データ前処理
 読込プログラム作成
経験上かなりの時間が
取られる
 学習
 評価
 パラメータ変更
 データ見直し
もっとも時間がかかる
フェーズ
4
普段やっていること
 データマイニング案件のコンサル
 やりたいことがふわふわしているケースも結構多い
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
とりあえずAI
使っていい感じ
にしたい
・・・・
今あるデータと課題をヒアリング
今できることとできないことを整理して目標の明確化
5
普段やっていること
 データマイニング案件のコンサル
 そもそもいきなりやるには無理な課題も多い
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
ドラえもん作って ・・・・
できる部分とできない部分を明確化して
ロードマップを引いてお手伝いします 音声認識
文脈理解 感情判断
・・・
はい、ぼくドラえもん
意味理解
6
普段やってること
 データマイニングエンジニア育成研修
 基礎となる数学や統計
 機械学習の各種手法
 各手法の実装方法
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
短期間のものがほとんどですが、3ヶ月〜6ヶ月かけたフルコースのものも
ご相談ください
最近やっていませんが、
たまに無料でもやってます!
7
最近やっていること
 自社サービス開発
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
昨日、β版として公開しました!
8
今日話すこと
 データマイニングにも様々な分野がある
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
画像データ
 画像分類・・・犬か猫か
 画像生成・・・犬っぽい画像の生成
波形データ
 波形の予測・・・電力使用量の予測
 楽曲生成・・・midi音源から続きを生成
 異常検知・・・普段はでてこない波形を検知
文章データ
 文章クラスタリング
 会話
 記事レコメンド
コレの前処理について
9
データの素性ベクトル化
 データをなんらかのシステムの入力として扱うとき
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
画像データ
波形データ
 センサデータなどの場合そのまま扱える
 一定の平均、分散に正規化するのが一般的
 (時間長, データ長)の2階テンソル
文章データ
 文字の集合なのでそのまま入力できない
 様々な素性ベクトル化の方法が確立されている
 ベクトル化の仕方によってそもそも出来ないこと、精度がでないこと
もあるので注意深く選定する必要がある
 画素値を入力として扱う
 256で除算0〜1の間に正規化する
 (縦, 横, チャンネル)の3階テンソル
10
文章を扱うと大変な理由
 先ほどの図に照らし合わせると
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
要件定義及
びデータ項
目確認
設計
実験計画
データセット準備
モデ
ル
実
装
学習・評価&
チューニング
ここにもチューニングが必要になってくる ここのチューニングが一番大変なのに・・・
ということで、ある程度網羅的に文章の素性ベクトル化(分散表現)を解説していきます
11
文章の分散表現
 大きく分けて次の4つに分かれます
 Bag of Words的な手法
 行列近似分解による次元圧縮
 トピックモデル
 ニューラルネットワークを用いた単語組み込み
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
TF-IDF Okapi-BM25b
LSA (Latent Semantic Analysis), NMF (Non-negative Matrix Factorization)
PLSA (Probabilistic Latent Semantic Analysis), LDA (Latent Dirichlet Allocation)
Word2Vec, Doc2Vec
他にも様々な手法があるが、これらの亜種か、組み合わせ
12
BoW的な手法
 BoWは文章をシンプルに単語数でベクトル化する手法
 出現回数だけでは助詞などばかりが大きな値になるためにキーワード
に重み付けを行うのが TF- IDF
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
Docment1 = “今日 / は / 天気 / が / いい。” = (1,0,1,・・・・1,0,0,1)
「今日」の出現回数 「天気」の出現回数
𝑡𝑓𝑖𝑑𝑓𝑖,𝑗 = 𝑡𝑓𝑖,𝑗 ∙ 𝑖𝑑𝑓𝑖
j番目の文章の各単語の重み
𝑡𝑓𝑖,𝑗 =
𝑛𝑖,𝑗
𝑘 𝑛 𝑘,𝑗
文中の単語の出現頻度
𝑖𝑑𝑓𝑖 = log
𝐷
𝑑:𝑑∋𝑡𝑖
単語がどのくらいの文章に現れるかの逆数
13
BoW的の特徴
 出現回数依存なので「スマホ」と「携帯」などの似たような意味を持った
単語も全く異なるものとして扱われる
 かなり長文でないと類似度計算などはしづらい
 次元が語彙数になるため非常に大きい。次元の呪いにとらわれる。
 もちろん文章生成にも使えない
 ただしTF-IDFは文中から重要語を抽出するのには有効
 計算量は少ない上に理論も簡単なのでお手軽に実装できる
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
14
行列近似分解による次元圧縮
 文章を語彙数次元から圧縮してあげれば次元の呪いの影響を受けな
い上に単語の関わりを意識するようになる(かもしれない)
 LSA (Latent Semantic Analysis)
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
文章数×単語数
(BoWの行列)
≅ × ×
文章数×任意の次元
各行がそれぞれの文章のベクトルを表す
特異値分解を行い、特異値の小さい部分を削って、
任意の次元まで近似する
15
LSAの特徴
 確かにクラスタリングなどの特定タスクについてはBoWより高い精度が
出せるようになった
 欠点として、ベクトル化された数字が何を意味するのかが不明
 不明だと、例えばユーザがこの記事を読んだというときにユーザの
パラメータをどう更新するかが不明
 文章生成はできない
 言語のベクトル化以外にもレコメンドとして使用可能
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
文章数×単語数
(BoWの行列)
ユーザ×商品数
ユーザの属性、商品の属性を算出
類似ユーザなどの探索に使える
16
トピックモデルによるベクトル化
 文章が生成される(その文章が存在する)裏にはトピックという隠れ変
数があると考えて、文章群が出来上がる確率を最大化するモデルを組
むことでトピックを推定する
 トピック=政治、スポーツのような分野のこと
 それぞれのトピックは生起確率があり、また、トピックによって出てき
やすい単語、出て来にくい単語がある
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
文章数×単語数
(BoWの行列)
生成
政治
スポーツ
IT
DB
LSAもトピックモデルにはいるらしいが、トピックから生成されるというプロセスを経ていないのでここでは敢えて分けています。
17
PLSA
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
文章
文中の単語
d z w
𝑃(𝑑𝑖) 𝑃(𝑧 𝑘|𝑑𝑖) 𝑃(𝑤 𝑘|𝑧 𝑘)
𝑃 𝑑, 𝑤 = 𝑃 𝑤 𝑑 𝑃(𝑑)
その文章、中身の単語で構成される
確率。つまり、その文章ができあがる
確率
𝑃 𝑤|𝑑 =
𝑧∈𝑍
𝑃 𝑤 𝑧 𝑃(𝑧|𝑑)
あるトピックで単語が生起する確率 そのドキュメントからあるトピックが生
起する確率
∴ 𝑃 𝑑, 𝑤 =
𝑧∈𝑍
𝑃 𝑤 𝑧 𝑃 𝑧 𝑤 𝑃(𝑑) の対数尤度関数を最大化する
そのままとくのが困難なのでEMアルゴリズムで推定する
 Probabilistic Latent Semantic Analysis
18
PLSAの特徴
 各文章のベクトルは最終的に(p(z1, d), p(z2, d), p(z3, d) …p(zk, d))
で表される。
 ベクトルの意味もわかりやすく、LSAよりも精度が高い
 p(w|z)を高い順にソートすればトピックごとの特徴単語もわかる。
 LSAと同じように、文章ベクトル化以外にレコメンドなどにも使える
 しかし、トピックの生起が文章依存のため、新規文章を扱うことができな
い
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
この文章がトピック1である確率
19
LDA
 Latent Dirichlet Allocation
 文章(d)依存の確率分布ではなくディリクレ分布からトピック生起確率を
算出
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
文中の単語
文章
z w
β
θα
パラメータ数がdに依存しなくなったで数が減って、過学習も回避」
𝑃(𝑤|𝑧 𝑘, 𝛽)𝑃(𝑧 𝑘|𝜃)𝑃(𝜃|𝛼)
ディレイクレ分布=多項分布の分布
から、トピックの生起確率の分布を生起
選ばれたトピックの単語の多項分布から単
語を生起
20
LDAの特徴
 推定した分布を事前分布として用いれば新規文章も扱える
 PLSAはLDAの特殊な時の形
 もちろん直接解けないので、本論文は変分ベイズで解いている
 もっと簡単にMCMCを用いてサンプリングするのが一般的
 どの手法にも言えることなのだが、確率を扱うために短文には弱い
 最近では画像のトピック推定などにも用いられている
 LDAと深層学習を組み合わせたり、単語の並びを考慮した亜種がかな
り存在する
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
21
実際にLDAの解析結果
 収集した記事データをもとに各トピック(128トピック)の代表語を出力
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
iphone
au
携帯電話
one
安い
オフ
plus
対話
ソフトバンク
試す
トピック1
switch
nintendo
ver
apple
ソフト
任天堂
発売日
バー
カプコン
watch
携帯関係 ゲーム関係
トピック2
大学
会長
学生
出身
地元
日本
卒業
関係者
就職
大学生
トピック3
学校関係
プロジェクト
運用
プロセス
局
提出
最強
考え方
開発
設計
勝負
トピック4
プロジェクト管理関係
22
LDAの拡張版
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
https://arxiv.org/pdf/1604.02038.pdf
 Sentence Level Recurrent Topic Model
単語生成部分にLSTMを導入することで単語の並びなども
意識したトピックモデル
などなど亜種はいろいろあります
23
ニューラル単語埋め込み
 Word2Vec
 ニューラル言語モデルを用いた単語埋め込み
 単語の意味獲得を行えるように
2017/6/13
C8Lab Copyright 2014 C8Lab Inc. All rights reserved
Yoshua Bengio, Réjean Ducharme, Pascal
Vincent, Christian Jauvin. A Neural
Probabilistic Language Model. Journal of
Machine Learning Research 3(2003):p1137–
1155
犬=(0.1, 0.5, 2.0, 0.4, 2.4)
猫=(0.1, 0.4, 1.5, 0.3, 2.4)
次に来る単語を予測するモデルを作る
ことによって、
のように、各単語にベクトルを割り当てる。
王様 – 男性 + 女性 = 女王様
のようなベクトル演算が可能に
24
もっとも簡単なWord2Vecの仕組み
 ある単語の次or前にどの単語が来るか?を予測する3層のNN
2017/6/13
C8Lab Copyright 2014 C8Lab Inc. All rights reserved
・
・
・
・
・
・
・
・
入力層 出力層中間層
単語数次元の
One hot ベクトル
(0,0,1,・・・・,0,0)
単語辞書内の3番目の単語
例:dog
中間層のユニット数 = 圧縮したい次元数
辞書内の何番目の単語が
周りにあるか?という確率
例えば、” I want dog. ”
という文章があったとしたら、
今回の例だと入力が ”dog”
正解は “want”
入力層と中間層の間の
単語数×次元数の行列が各単語
のベクトルの集合になる
25
Word2Vec特徴
 なぜかこれで単語の演算などができるのでおそらく単語をうまく表現で
きている
 コサイン距離などで類似度を取ることも可能
 あくまで単語のベクトル化なので、文章にするのに一手間必要
 Word Move rDistanceを用いた文章類似度計算のような、「文章=
単語ベクトルの集合」という過程を取るならそのまま扱える
 実は同じ文脈で出て来る対義語には弱い
 ”私は猫が好き/嫌いです”
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
26
Doc2Vec
 Word2Vecで文章化するのに一手間必要なら、一気に文章をベクトル
化してしまおう
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
Quoc V. Le, Tomas Mikolov. Distributed Representations of
Sentences and Documents. 2014
単語組み込み用の重みと別に、
文章組み込み用の重みを用意しする
深層学習も使ってないのに、特定タスクにおいて
LDAやRecurrent Neural Networkを凌駕するパフォーマンス
新規文章を扱う際はまとめて際学習する必要がある
27
各種手法まとめ
 BoW的な手法は重要語を判断するのには向いている
 行列分解はどちらかというとレコメンドそのもののに活用した方がよい
 トピックモデルは文章のベクトル化としては非常に強力だが短文に非常
に弱い
 単語組み込みは特定タスクにおいて非常に高いパフォーマンスを上げ
るが、新規文章を扱う際には再度ニューラルネットワークを学習させる
必要がある
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
28
弊社サービスご紹介
 新着記事レコメンドサイト「俺の読め!」
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
ユーザの気になるキーワードと閲覧履歴から
世の中の新着記事をお勧めします!
お手軽キーワード設定
https://orenoyome.jp
29
オレのヨメの特徴
 現在βテスト中
 ニュース記事に限らず2chやQiitaやarxivなど様々なフィードを推薦し
ます
 現時点取得元サイト数:727サイト
 一週間あたり取得記事数:約50000件
 推薦ロジックはキーワード&LDAベースでリアルタイムに新規記事を
ユーザに推薦
 webバックエンドはGAE + Data Store / GO
 分析、レコメンド基盤はGCE + Google Big Query
 現在Web版のみ
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
30
正式リリース版に向けて
 レコメンドの精度確認及びチューニング
 スマホアプリ開発
 記事データ及びユーザアクションの収集
 タスク志向型会話AIによる記事推薦が目標
 将来的には今話題になってることに対する雑談機能も追加予定
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved
機械学習わからねぇー
どのあたりがわからないのでしょうか?
全部
じゃあこの記事などどうですか?
31 2017/6/13
C8Lab Copyright 2014 C8Lab Inc. All rights reserved
ご静聴ありがとうございました!
できれば使って見ていただけると嬉しいです!
https://orenoyome.jp
32
お問い合わせ
ご興味のある企業・団体・個人様は、以下までお問い合わせください。
シンギュラリティ株式会社
http://snglrty.net
東京都港区浜松町 2-7-15 三電舎ビル6F
Tel 03-5425-2545
取締役/CTO 新村拓也
E-mail:info@snglrty.net
2017/6/13
Singularity Copyright 2016 Singularity Inc. All rights reserved

More Related Content

What's hot

第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
Yuya Unno
 

What's hot (20)

実装ディープラーニング
実装ディープラーニング実装ディープラーニング
実装ディープラーニング
 
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~Pythonによる機械学習入門 ~SVMからDeep Learningまで~
Pythonによる機械学習入門 ~SVMからDeep Learningまで~
 
第1回 Jubatusハンズオン
第1回 Jubatusハンズオン第1回 Jubatusハンズオン
第1回 Jubatusハンズオン
 
【2017年】ディープラーニングのフレームワーク比較
【2017年】ディープラーニングのフレームワーク比較【2017年】ディープラーニングのフレームワーク比較
【2017年】ディープラーニングのフレームワーク比較
 
Cvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoakiCvim saisentan-6-4-tomoaki
Cvim saisentan-6-4-tomoaki
 
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015
 
ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用ルールベースから機械学習への道 公開用
ルールベースから機械学習への道 公開用
 
Learning to forget continual prediction with lstm
Learning to forget continual prediction with lstmLearning to forget continual prediction with lstm
Learning to forget continual prediction with lstm
 
Deep learning実装の基礎と実践
Deep learning実装の基礎と実践Deep learning実装の基礎と実践
Deep learning実装の基礎と実践
 
画像キャプションの自動生成
画像キャプションの自動生成画像キャプションの自動生成
画像キャプションの自動生成
 
DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用DeNAにおける機械学習・深層学習活用
DeNAにおける機械学習・深層学習活用
 
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGAAn Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
An Introduction of DNN Compression Technology and Hardware Acceleration on FPGA
 
Tf勉強会(5)
Tf勉強会(5)Tf勉強会(5)
Tf勉強会(5)
 
Fpgax20180217
Fpgax20180217Fpgax20180217
Fpgax20180217
 
ChainerでDeep Learningを試すために必要なこと
ChainerでDeep Learningを試すために必要なことChainerでDeep Learningを試すために必要なこと
ChainerでDeep Learningを試すために必要なこと
 
Elasticsearchと機械学習を実際に連携させる
Elasticsearchと機械学習を実際に連携させるElasticsearchと機械学習を実際に連携させる
Elasticsearchと機械学習を実際に連携させる
 
エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎エンジニアのための機械学習の基礎
エンジニアのための機械学習の基礎
 
東北大学講義資料 実世界における自然言語処理 - すべての人にロボットを - 坪井祐太 
東北大学講義資料 実世界における自然言語処理 - すべての人にロボットを - 坪井祐太 東北大学講義資料 実世界における自然言語処理 - すべての人にロボットを - 坪井祐太 
東北大学講義資料 実世界における自然言語処理 - すべての人にロボットを - 坪井祐太 
 
Androidで動かすはじめてのDeepLearning
Androidで動かすはじめてのDeepLearningAndroidで動かすはじめてのDeepLearning
Androidで動かすはじめてのDeepLearning
 
Semi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learningSemi supervised, weakly-supervised, unsupervised, and active learning
Semi supervised, weakly-supervised, unsupervised, and active learning
 

Similar to Interop2017

Big data解析ビジネス
Big data解析ビジネスBig data解析ビジネス
Big data解析ビジネス
Mie Mori
 

Similar to Interop2017 (20)

サポーターズ勉強会スライド 2018/2/27
サポーターズ勉強会スライド 2018/2/27サポーターズ勉強会スライド 2018/2/27
サポーターズ勉強会スライド 2018/2/27
 
大規模言語モデルとChatGPT
大規模言語モデルとChatGPT大規模言語モデルとChatGPT
大規模言語モデルとChatGPT
 
JAWS-UG Nagoya 20130406 物体認識システムを支えるAWS
JAWS-UG Nagoya 20130406 物体認識システムを支えるAWSJAWS-UG Nagoya 20130406 物体認識システムを支えるAWS
JAWS-UG Nagoya 20130406 物体認識システムを支えるAWS
 
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
Deep learning を用いた画像から説明文の自動生成に関する研究の紹介
 
音声認識超比較、各社コグニティブサービス全部入り
音声認識超比較、各社コグニティブサービス全部入り音声認識超比較、各社コグニティブサービス全部入り
音声認識超比較、各社コグニティブサービス全部入り
 
Python による 「スクレイピング & 自然言語処理」入門
Python による 「スクレイピング & 自然言語処理」入門Python による 「スクレイピング & 自然言語処理」入門
Python による 「スクレイピング & 自然言語処理」入門
 
JJUG java one 2017 Feedback LT (Daisuke Nishino)
JJUG java one 2017 Feedback LT (Daisuke Nishino)JJUG java one 2017 Feedback LT (Daisuke Nishino)
JJUG java one 2017 Feedback LT (Daisuke Nishino)
 
Deep Learningと自然言語処理
Deep Learningと自然言語処理Deep Learningと自然言語処理
Deep Learningと自然言語処理
 
SQL Server 2017 で実現される AIシステムモデル のご紹介
SQL Server 2017 で実現される AIシステムモデル のご紹介SQL Server 2017 で実現される AIシステムモデル のご紹介
SQL Server 2017 で実現される AIシステムモデル のご紹介
 
[Japan Tech summit 2017] MAI 005
[Japan Tech summit 2017] MAI 005[Japan Tech summit 2017] MAI 005
[Japan Tech summit 2017] MAI 005
 
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
データサイエンティストに聞く!今更聞けない機械学習の基礎から応用まで V7
 
MAごころを、君に - #7 ChatGPT勉強会(2023-03-28)
MAごころを、君に - #7 ChatGPT勉強会(2023-03-28)MAごころを、君に - #7 ChatGPT勉強会(2023-03-28)
MAごころを、君に - #7 ChatGPT勉強会(2023-03-28)
 
Roo
RooRoo
Roo
 
Ibm watson api サービス
Ibm watson api サービスIbm watson api サービス
Ibm watson api サービス
 
[db analytics showcase Sapporo 2017] MicrosoftのAIテクノロジーを活用しよう ~インテリジェントAPIからデ...
[db analytics showcase Sapporo 2017] MicrosoftのAIテクノロジーを活用しよう ~インテリジェントAPIからデ...[db analytics showcase Sapporo 2017] MicrosoftのAIテクノロジーを活用しよう ~インテリジェントAPIからデ...
[db analytics showcase Sapporo 2017] MicrosoftのAIテクノロジーを活用しよう ~インテリジェントAPIからデ...
 
NLP2017 NMT Tutorial
NLP2017 NMT TutorialNLP2017 NMT Tutorial
NLP2017 NMT Tutorial
 
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
Vision-and-Language Navigation: Interpreting visually-grounded navigation ins...
 
第8回Language and Robotics研究会20221010_AkiraTaniguchi
第8回Language and Robotics研究会20221010_AkiraTaniguchi第8回Language and Robotics研究会20221010_AkiraTaniguchi
第8回Language and Robotics研究会20221010_AkiraTaniguchi
 
ビックデータとシリコンバレースタートアップ事情
ビックデータとシリコンバレースタートアップ事情ビックデータとシリコンバレースタートアップ事情
ビックデータとシリコンバレースタートアップ事情
 
Big data解析ビジネス
Big data解析ビジネスBig data解析ビジネス
Big data解析ビジネス
 

More from tak9029 (8)

tfug-kagoshima
tfug-kagoshimatfug-kagoshima
tfug-kagoshima
 
Tfug#4
Tfug#4Tfug#4
Tfug#4
 
畳み込みLstm
畳み込みLstm畳み込みLstm
畳み込みLstm
 
深層学習とTensorFlow入門
深層学習とTensorFlow入門深層学習とTensorFlow入門
深層学習とTensorFlow入門
 
Tf勉強会(4)
Tf勉強会(4)Tf勉強会(4)
Tf勉強会(4)
 
Tensor flow勉強会3
Tensor flow勉強会3Tensor flow勉強会3
Tensor flow勉強会3
 
TensorFlowで会話AIを作ってみた。
TensorFlowで会話AIを作ってみた。TensorFlowで会話AIを作ってみた。
TensorFlowで会話AIを作ってみた。
 
Tensor flow勉強会 (ayashiminagaranotensorflow)
Tensor flow勉強会 (ayashiminagaranotensorflow)Tensor flow勉強会 (ayashiminagaranotensorflow)
Tensor flow勉強会 (ayashiminagaranotensorflow)
 

Interop2017