SlideShare a Scribd company logo
GMOインターネット
次世代システム研究室
勝田 隼一郎
TensorFlowでニューラル
ネットを作って、広告配信
の最適化をやってみた
2017/05/28 Android Bazaar and Conference 2017 Spring
目次
1.自己紹介
2.機械学習 – 準備体操
3.広告配信 – 準備体操
4.アドネットワークAkaNeの広告配信の最適
化の事例
3
自己紹介
2006: ボートを漕ぎすぎて留年
2011: 東京大学大学院理学系
研究科物理学 修了(博士)
2011-16: Stanford大学と広島大学で
ポスドク(日本学術振興会;
高エネルギー宇宙物理学)
2016.4: GMOインターネット
次世代システム研究室
データサイエンティスト兼アーキテクト 超新星残骸
勝田 隼一郎
4
深層学習全般。というか、専門的な事を語れるほどのレベ
ルでない。まだまだまだまだ勉強中です。。。
興味のあること
http://recruit.gmo.jp/engineer/jisedai/blog/deep-learning/
http://recruit.gmo.jp/engineer/jisedai/blog/deep-q-learning/
http://recruit.gmo.jp/engineer/jisedai/blog/deep-learning-keras/
はてブ >100!
Deep Learningによる株価変動の予想
Deep Q-LearningでFXしてみた
Deep LearningをKerasで可視化したい
トピックモデル入門:WikipediaをLDAモデル化してみた
http://recruit.gmo.jp/engineer/jisedai/blog/topic-model/
5
機械学習
6
機械学習とは
教師あり学習
教師なし学習
強化学習
7
教師あり学習
input
data
output
data
与えられたデータyに合うように
パラメータを学習(人のアナロジー)
モデル
f(x)
x f(x) = ax + b f(x) vs y
f(x) = 1*x + 7 f(x) = 2.1x + 1.6
8
教師あり学習
f(x) = a*x + b f(x) = a*sin(b*x)
適切なモデルを考える必要がある
→ 大変!!! (データが増えるほど)
モデル モデル
input
data
output
data
モデル
f(x)
9
Deep Learning
Deep!
複雑な表現
層が
が可能input output
10
input output
人間?
ゴリラ?
人間が表現 (e.g., 目、鼻) を考え、モデル化/input
機械 (Deep Learning) にほぼ全ておまかせ
= 表現の自動的な学習
11
http://recruit.gmo.jp/engineer/jisedai/blog/deep-learning/
http://recruit.gmo.jp/engineer/jisedai/blog/deep-q-learning/
http://recruit.gmo.jp/engineer/jisedai/blog/deep-learning-keras/
教師あり学習
Deep Learningによる株価変動の予想
Deep Q-LearningでFXしてみた
Deep LearningをKerasで可視化したい
トピックモデル入門:WikipediaをLDAモデル化してみた
http://recruit.gmo.jp/engineer/jisedai/blog/topic-model/
強化学習
教師あり学習
教師なし学習
12
教師あり学習
13
教師あり学習
14
教師なし学習
15
強化学習
16
Keras source: https://keras.io/ja/
Pythonで書かれた、TensorFlowまたはTheano上で実行可能
な高水準のニューラルネットワークライブラリ
17
source: http://chainer.org
Pythonで書かれた、ニューラルネットワークを実装するた
めのライブラリ。直観的に、柔軟に、Pythonで書ける。
国産。英語読みたくない人にも優しい。
18
広告配信
19
次世代システム研究室
http://recruit.gmo.jp/engineer/jisedai/
1. お客様の笑顔のため
2. No.1 サービスを目指し
3. GMO インターネットグループの重要なプロジェクトの
成功を技術面でサポートする部署
20
ネット広告
21
22
広告主側 メディア側
source: JackMarshall.com
Online advertising ecosystem
23
アドネットワーク
AkaNeの配信モデル
の最適化
24User A User CUser B
Userごとに、より適切な広告を配信したい!
Sponsor 1 Sponsor 2
Rule
Sponsor data
25User A User CUser B
学習Modelの導入
Sponsor 1 Sponsor 2
Rule → 学習Model
Sponsor
data
User
data
26
Model候補1 (オーディエンス拡張)
1. 匿名Userごとに特徴量を作る。
2. 特徴量の空間でclickするUserに近いclusterを見
つけ、拡張Userとして配信ターゲットにする。
有望User A
有望User B
27
Model候補2 (MLP)
1. 匿名Userごとに特徴量を作る
2. 配信履歴よりclickしたUser、してないUserに分
ける (0/1)。
3. これを教師データとしてMLP(多層パーセプトロ
ン)で学習を行い、インプットされた特徴量に対
してclick確率(のようなもの)を求める。
4. 確率の高いUser群を、推薦Userとして配信ター
ゲットにする。
システム構成
Google cloud platform
29
User Discovery User data
Pre-process
Feature
Model training
Trained model
Prediction
p_click
data
1. Pre-process
1.1 配信データから、各ユーザーごとに特徴量(ウェブ
行動履歴)を抽出
1.2 学習用データ(Clickの有り無し)をラベル付け
2. モデルの学習
1で加工した学習データを用いて、MLP (multi layer
perceptron)モデルを学習
3. 予測
3.1 1で加工した予測用データを、2で学習したモデルに
インプットして、クリック確率(のようなもの)を計算
3.2 user x p_clickテーブルを作成
3.3 このうち、p_clickの高いUserを配信に用いる
30
Preprocess
IN: 匿名Userのウェブ行動履歴
•どのウェブサイトを見たか
•etc.
OUT: モデル(MLP)のfeature
生データ:
スパースデータ
データ加工
Embedding; 圧縮
31
Embedding by ALS
大量データ(UU: 数千万人)を扱うため、Apache
SparkのMLlibのALS (Alternating Least Squares)
を用いた。
source: http://ampcamp-ja.readthedocs.io/ja/latest/mllib/
各Userについての
情報をEmbedding
32
学習モデル(MLP)
Preprocess
で加工した
User情報
正解データ
Userがclick
したかどうか
(0/1)
Feature
モデル学習、パラメータ変更した際にモデルの精度が相対的に上がったか、などを
チェック(絶対的な数値は、実配信の値とはあまり関係ない).
青(右スケール):coverage (全test userの何%を含むか)
赤(左スケール):click精度 (横軸のthresholdで区切った
ときにclickしていると判断されたuserのうち、実際にclick
したuserの割合)
recall=0.5で固定したときのprecision(=精度)
* recall = (正しくclickしたと予想されたuser数) / (実際に
clickしているuser数)
p_clickのヒストグラム(分布)
縦軸log scale
randomに選んだ時のclick userである確率
モデル評価
34
メリット・デメリット
オーディエンス拡張は使っていないので、かなり主観的な意
見だが、、
メリット
• ロジックがシンプル(CTRを上げたいので、clickの有無を
教師データとして使う)
• 評価が一元化できる(予測されたclick確率が高い順に推薦
すれば良い)
• 特徴量の拡張が容易 (拡張時にパラメータ調整が必要ない)
デメリット
• 結果についての解釈が難しい
35
ABテストの結果(実施中)
User Discoveryで推薦されたUser群のCTRは、従来通りの配
信User群のCTRに比べ
~2.5倍 (~150%改善)
• 全ての配信Userが、推薦Userではない
• より多くの広告主様での実証が必要
などの注意点はあるが、
かなり有望!
36
まとめ
https://cloudplatform-jp.googleblog.com/2017/02/gmo-bigquery-tensorflow-
google-cloud-platform.html
• アドネットワークAkaNeのユーザー(数千万人)への広
告配信の最適化を行った。
• データ前処理にはSpark MLlibのALSを使用してデータ
圧縮&embeddingをした。
• 学習モデルには多層パーセプトロンを使い、深層学習ラ
イブラリKeras(バックエンドTensorFlow)で実装した。
• 実配信によるABテストで、推薦User群が従来のUser群
に比べCTRが2.5倍に向上したことを確認した。
Google Cloud Platform Japan Blogに書いていただきました!
37
GMOインターネット次世代システム研究室
http://recruit.gmo.jp/engineer/jisedai/entry/
GMOアドマーケティング
https://js01.jposting.net/gmo-ap/u/job.phtml
では、ビッグデータ解析プラットホームの設計・開発を
行うアーキテクトとデータサイエンティストを募集して
います!
38
ご清聴ありがとうございました!

More Related Content

What's hot

ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
智文 中野
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
 
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
Shotaro Sano
 
データサイエンティストの仕事とデータ分析コンテスト
データサイエンティストの仕事とデータ分析コンテストデータサイエンティストの仕事とデータ分析コンテスト
データサイエンティストの仕事とデータ分析コンテスト
Ken'ichi Matsui
 
学部生向けベイズ統計イントロ(公開版)
学部生向けベイズ統計イントロ(公開版)学部生向けベイズ統計イントロ(公開版)
学部生向けベイズ統計イントロ(公開版)
考司 小杉
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)Takao Yamanaka
 
はじパタ8章 svm
はじパタ8章 svmはじパタ8章 svm
はじパタ8章 svmtetsuro ito
 
Densely Connected Convolutional Networks
Densely Connected Convolutional NetworksDensely Connected Convolutional Networks
Densely Connected Convolutional Networks
harmonylab
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門Momoko Hayamizu
 
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
Daichi Kitamura
 
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-
Joe Suzuki
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論
Taiji Suzuki
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
 
Deep Residual Learning (ILSVRC2015 winner)
Deep Residual Learning (ILSVRC2015 winner)Deep Residual Learning (ILSVRC2015 winner)
Deep Residual Learning (ILSVRC2015 winner)
Hirokatsu Kataoka
 
semantic segmentation サーベイ
semantic segmentation サーベイsemantic segmentation サーベイ
semantic segmentation サーベイ
yohei okawa
 
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII
 
ResNest: split-attention networks
ResNest: split-attention networksResNest: split-attention networks
ResNest: split-attention networks
harmonylab
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
 

What's hot (20)

ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
ベルヌーイ分布における超パラメータ推定のための経験ベイズ法
 
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
 
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
再帰型ニューラルネット in 機械学習プロフェッショナルシリーズ輪読会
 
データサイエンティストの仕事とデータ分析コンテスト
データサイエンティストの仕事とデータ分析コンテストデータサイエンティストの仕事とデータ分析コンテスト
データサイエンティストの仕事とデータ分析コンテスト
 
学部生向けベイズ統計イントロ(公開版)
学部生向けベイズ統計イントロ(公開版)学部生向けベイズ統計イントロ(公開版)
学部生向けベイズ統計イントロ(公開版)
 
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
 
はじパタ8章 svm
はじパタ8章 svmはじパタ8章 svm
はじパタ8章 svm
 
Densely Connected Convolutional Networks
Densely Connected Convolutional NetworksDensely Connected Convolutional Networks
Densely Connected Convolutional Networks
 
パターン認識と機械学習入門
パターン認識と機械学習入門パターン認識と機械学習入門
パターン認識と機械学習入門
 
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
音響メディア信号処理における独立成分分析の発展と応用, History of independent component analysis for sou...
 
Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-Bayes Independence Test - HSIC と性能を比較する-
Bayes Independence Test - HSIC と性能を比較する-
 
機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論機械学習におけるオンライン確率的最適化の理論
機械学習におけるオンライン確率的最適化の理論
 
Optimizer入門&最新動向
Optimizer入門&最新動向Optimizer入門&最新動向
Optimizer入門&最新動向
 
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
 
Deep Residual Learning (ILSVRC2015 winner)
Deep Residual Learning (ILSVRC2015 winner)Deep Residual Learning (ILSVRC2015 winner)
Deep Residual Learning (ILSVRC2015 winner)
 
semantic segmentation サーベイ
semantic segmentation サーベイsemantic segmentation サーベイ
semantic segmentation サーベイ
 
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
 
ResNest: split-attention networks
ResNest: split-attention networksResNest: split-attention networks
ResNest: split-attention networks
 
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
 
深層生成モデルと世界モデル
深層生成モデルと世界モデル深層生成モデルと世界モデル
深層生成モデルと世界モデル
 

Similar to TensorFlowでニューラルネットを作って、広告配信の最適化をやってみた

NNで広告配信のユーザー最適化をやってみた。@ TFUG #3
NNで広告配信のユーザー最適化をやってみた。@ TFUG #3NNで広告配信のユーザー最適化をやってみた。@ TFUG #3
NNで広告配信のユーザー最適化をやってみた。@ TFUG #3
Junichiro Katsuta
 
Deep Q-LearningでFXしてみた
Deep Q-LearningでFXしてみたDeep Q-LearningでFXしてみた
Deep Q-LearningでFXしてみた
Junichiro Katsuta
 
Deep Learningによる株価変動の予想
Deep Learningによる株価変動の予想Deep Learningによる株価変動の予想
Deep Learningによる株価変動の予想
Junichiro Katsuta
 
実社会・実環境におけるロボットの機械学習 ver. 2
実社会・実環境におけるロボットの機械学習 ver. 2実社会・実環境におけるロボットの機械学習 ver. 2
実社会・実環境におけるロボットの機械学習 ver. 2
Kuniyuki Takahashi
 
最近思った機械学習(PyTorch)のベストプラクティス
最近思った機械学習(PyTorch)のベストプラクティス最近思った機械学習(PyTorch)のベストプラクティス
最近思った機械学習(PyTorch)のベストプラクティス
Masato Fujitake
 
20150414seminar
20150414seminar20150414seminar
20150414seminar
nlab_utokyo
 
[18-01-26]DSTEP ディープラーニングによる出芽酵母蛍光画像の細胞内タンパク質局在の分類
[18-01-26]DSTEP  ディープラーニングによる出芽酵母蛍光画像の細胞内タンパク質局在の分類 [18-01-26]DSTEP  ディープラーニングによる出芽酵母蛍光画像の細胞内タンパク質局在の分類
[18-01-26]DSTEP ディープラーニングによる出芽酵母蛍光画像の細胞内タンパク質局在の分類
Eli Kaminuma
 
実社会・実環境におけるロボットの機械学習
実社会・実環境におけるロボットの機械学習実社会・実環境におけるロボットの機械学習
実社会・実環境におけるロボットの機械学習
Kuniyuki Takahashi
 
NAIST ソフトウェア工学研究室紹介 2018
NAIST ソフトウェア工学研究室紹介 2018NAIST ソフトウェア工学研究室紹介 2018
NAIST ソフトウェア工学研究室紹介 2018
Takashi Ishio
 
2016tf study5
2016tf study52016tf study5
2016tf study5
Shin Asakawa
 
IGGG勧誘スライド2016 web版
IGGG勧誘スライド2016 web版IGGG勧誘スライド2016 web版
IGGG勧誘スライド2016 web版
IGGGorg
 
NIPS2015概要資料
NIPS2015概要資料NIPS2015概要資料
NIPS2015概要資料
Shohei Hido
 
自己相似な情報モデリング
自己相似な情報モデリング自己相似な情報モデリング
自己相似な情報モデリング
Tatsuya Yokota
 
実世界Live Programmingの実現に向けて
実世界Live Programmingの実現に向けて実世界Live Programmingの実現に向けて
実世界Live Programmingの実現に向けて
Jun Kato
 
もっとおうちハックできるおうち開発環境に向けて─おうちハック事例集─
もっとおうちハックできるおうち開発環境に向けて─おうちハック事例集─もっとおうちハックできるおうち開発環境に向けて─おうちハック事例集─
もっとおうちハックできるおうち開発環境に向けて─おうちハック事例集─
Jun Kato
 
Toward Research that Matters
Toward Research that MattersToward Research that Matters
Toward Research that Matters
Ryohei Fujimaki
 
情報システム創成研究分野への誘い
情報システム創成研究分野への誘い情報システム創成研究分野への誘い
情報システム創成研究分野への誘い
情報システム創成研究分野
 
[Japan Tech summit 2017] MAI 001
[Japan Tech summit 2017]  MAI 001[Japan Tech summit 2017]  MAI 001
[Japan Tech summit 2017] MAI 001
Microsoft Tech Summit 2017
 
ディープラーニングの産業応用とそれを支える技術
ディープラーニングの産業応用とそれを支える技術ディープラーニングの産業応用とそれを支える技術
ディープラーニングの産業応用とそれを支える技術
Shohei Hido
 
2016tensorflow ja001
2016tensorflow ja0012016tensorflow ja001
2016tensorflow ja001
Shin Asakawa
 

Similar to TensorFlowでニューラルネットを作って、広告配信の最適化をやってみた (20)

NNで広告配信のユーザー最適化をやってみた。@ TFUG #3
NNで広告配信のユーザー最適化をやってみた。@ TFUG #3NNで広告配信のユーザー最適化をやってみた。@ TFUG #3
NNで広告配信のユーザー最適化をやってみた。@ TFUG #3
 
Deep Q-LearningでFXしてみた
Deep Q-LearningでFXしてみたDeep Q-LearningでFXしてみた
Deep Q-LearningでFXしてみた
 
Deep Learningによる株価変動の予想
Deep Learningによる株価変動の予想Deep Learningによる株価変動の予想
Deep Learningによる株価変動の予想
 
実社会・実環境におけるロボットの機械学習 ver. 2
実社会・実環境におけるロボットの機械学習 ver. 2実社会・実環境におけるロボットの機械学習 ver. 2
実社会・実環境におけるロボットの機械学習 ver. 2
 
最近思った機械学習(PyTorch)のベストプラクティス
最近思った機械学習(PyTorch)のベストプラクティス最近思った機械学習(PyTorch)のベストプラクティス
最近思った機械学習(PyTorch)のベストプラクティス
 
20150414seminar
20150414seminar20150414seminar
20150414seminar
 
[18-01-26]DSTEP ディープラーニングによる出芽酵母蛍光画像の細胞内タンパク質局在の分類
[18-01-26]DSTEP  ディープラーニングによる出芽酵母蛍光画像の細胞内タンパク質局在の分類 [18-01-26]DSTEP  ディープラーニングによる出芽酵母蛍光画像の細胞内タンパク質局在の分類
[18-01-26]DSTEP ディープラーニングによる出芽酵母蛍光画像の細胞内タンパク質局在の分類
 
実社会・実環境におけるロボットの機械学習
実社会・実環境におけるロボットの機械学習実社会・実環境におけるロボットの機械学習
実社会・実環境におけるロボットの機械学習
 
NAIST ソフトウェア工学研究室紹介 2018
NAIST ソフトウェア工学研究室紹介 2018NAIST ソフトウェア工学研究室紹介 2018
NAIST ソフトウェア工学研究室紹介 2018
 
2016tf study5
2016tf study52016tf study5
2016tf study5
 
IGGG勧誘スライド2016 web版
IGGG勧誘スライド2016 web版IGGG勧誘スライド2016 web版
IGGG勧誘スライド2016 web版
 
NIPS2015概要資料
NIPS2015概要資料NIPS2015概要資料
NIPS2015概要資料
 
自己相似な情報モデリング
自己相似な情報モデリング自己相似な情報モデリング
自己相似な情報モデリング
 
実世界Live Programmingの実現に向けて
実世界Live Programmingの実現に向けて実世界Live Programmingの実現に向けて
実世界Live Programmingの実現に向けて
 
もっとおうちハックできるおうち開発環境に向けて─おうちハック事例集─
もっとおうちハックできるおうち開発環境に向けて─おうちハック事例集─もっとおうちハックできるおうち開発環境に向けて─おうちハック事例集─
もっとおうちハックできるおうち開発環境に向けて─おうちハック事例集─
 
Toward Research that Matters
Toward Research that MattersToward Research that Matters
Toward Research that Matters
 
情報システム創成研究分野への誘い
情報システム創成研究分野への誘い情報システム創成研究分野への誘い
情報システム創成研究分野への誘い
 
[Japan Tech summit 2017] MAI 001
[Japan Tech summit 2017]  MAI 001[Japan Tech summit 2017]  MAI 001
[Japan Tech summit 2017] MAI 001
 
ディープラーニングの産業応用とそれを支える技術
ディープラーニングの産業応用とそれを支える技術ディープラーニングの産業応用とそれを支える技術
ディープラーニングの産業応用とそれを支える技術
 
2016tensorflow ja001
2016tensorflow ja0012016tensorflow ja001
2016tensorflow ja001
 

TensorFlowでニューラルネットを作って、広告配信の最適化をやってみた