SlideShare a Scribd company logo
1 of 55
AI画像認識事例介
噂の〇〇判定機
富田 篤 / Atsushi “Bird” Tomita
Facebook @bird.tomita
twitter @bird_tomita
Instagram @bird_tomita
IBM
Cloud
Community
名古屋女子部発足記念!!勉強会
で、画像認識って何よ
?
名古屋女子部発足記念!!勉強会
名古屋女子部発足記念!!勉強会
身近な画像認識
QRコード タグ付けAR写真アプリ
画像認識
画像解析 物体検出 顔識別
名古屋女子部発足記念!!勉強会
身近な画像認識
シーン判別/
タグ付け
お掃除ロボレシートアプリ
OCR・形状認識 空間認識
画像認識
シーン解析
Watsonにも画像認識
サービスあります
名古屋女子部発足記念!!勉強会
https://visual-recognition-demo.mybluemix.net
名古屋女子部発足記念!!勉強会
Watson Visual Recognition
• 一般画像分類
• 顔の位置と年齢・性別
• 食べ物判定
• 文字認識
(Closed Beta・英語のみ)
• カスタム分類器の作成
名古屋女子部発足記念!!勉強会
できること
名古屋女子部発足記念!!勉強会
やってみた
名古屋女子部発足記念!!勉強会
やってみた
やっぱり
オリジナルの画像認識を
作りたい!
Watsonの前に
流行りのTensorflowで
分類器を学習させるには
手書き文字認識のサンプル
import tensorflow as tf
def weight_variable(shape):
initial = tf.truncated_normal(shape, stddev=0.1)
return tf.Variable(initial)
def bias_variable(shape):
initial = tf.constant(0.1, shape=shape)
return tf.Variable(initial)
def conv2d(x, W):
return tf.nn.conv2d(x, W, strides=[1,1,1,1], padding='SAME')
def max_pool_2x2(x):
return tf.nn.max_pool(x, ksize=[1,2,2,1], strides=[1,2,2,1], padding='SAME')
sess = tf.InteractiveSession()
x = tf.placeholder("float", shape=[None, 784])
x_image = tf.reshape(x, [-1,28,28,1])
W_conv1 = weight_variable([5,5,1,32])
b_conv1 = bias_variable([32])
h_conv1 = tf.nn.relu(conv2d(x_image, W_conv1) + b_conv1)
h_pool1 = max_pool_2x2(h_conv1)
W_conv2 = weight_variable([5,5,32,64])
b_conv2 = bias_variable([64])
h_conv2 = tf.nn.relu(conv2d(h_pool1,W_conv2) + b_conv2)
h_pool2 = max_pool_2x2(h_conv2)
W_fc1 = weight_variable([7*7*64,1024])
b_fc1 = bias_variable([1024])
h_pool2_flat = tf.reshape(h_pool2, [-1, 7*7*64])
h_fc1 = tf.nn.relu(tf.matmul(h_pool2_flat, W_fc1) + b_fc1)
keep_prob = tf.placeholder("float")
h_fc1_drop = tf.nn.dropout(h_fc1, keep_prob)
W_fc2 = weight_variable([1024,10])
b_fc2 = bias_variable([10])
y_conv = tf.nn.softmax(tf.matmul(h_fc1_drop, W_fc2) + b_fc2)
y_ = tf.placeholder("float", shape=[None, 10])
cross_entropy = -tf.reduce_sum(y_*tf.log(y_conv))
train_step = tf.train.AdamOptimizer(1e-4).minimize(cross_entropy)
correct_prediction = tf.equal(tf.argmax(y_conv,1), tf.argmax(y_,1))
accuracy = tf.reduce_mean(tf.cast(correct_prediction, "float"))
sess.run(tf.initialize_all_variables())
from tensorflow.examples.tutorials.mnist import input_data
mnist = input_data.read_data_sets('MNIST_data', one_hot=True)
for i in range(20000):
batch = mnist.train.next_batch(50)
if i % 100 == 0:
feed_dict = {x:batch[0],y_:batch[1],keep_prob:1.0}
train_accuracy = accuracy.eval(feed_dict=feed_dict)
print("step %d, training accuracy %g" % (i, train_accuracy))
train_step.run(feed_dict={x:batch[0],y_:batch[1],keep_prob:0.5})
feed_dict={x:mnist.test.images, y_: mnist.test.labels,keep_prob:1.0}
print("test accuracy %g" % accuracy.eval(feed_dict=feed_dict))
TensorFlowなどの場合
• 画像認識のネットワーク構築には優秀なエンジニア
が必要
• 学習用の教師データの加工が大変
• 学習データ量が多く必要(1クラスに1000枚以上)
• 高速なGPUマシンが必要
• 何より多くの学習コストがかかる
Watsonなどの
サービスを活用しよう
ps://www.ibm.com/watson/developercloud/visual-recognition/api/v
Watson Visual Recognition API reference
Curl
curl -X POST -F "beagle_positive_examples=@beagle.zip" -F "g
Python
import json
from os.path import join, dirname
from os import environ
from watson_developer_cloud import VisualRecognitionV3
visual_recognition = VisualRecognitionV3('2016-05-20', api_key='{api_key}')
with open(join(dirname(__file__), '../resources/trucks.zip'), 'rb') as trucks, 
open(join(dirname(__file__), '../resources/cars.zip'), 'rb') as cars:
print(json.dumps(visual_recognition.create_classifier('CarsvsTrucks', trucks_positive_examples
Node.js
var watson = require('watson-developer-cloud');
var fs = require('fs');
var visual_recognition = watson.visual_recognition({
api_key: '{api_key}',
version: 'v3',
version_date: '2016-05-20'
});
var params = {
name: 'fruit',
apple_positive_examples: fs.createReadStream('./apples.zip'),
banana_positive_examples: fs.createReadStream('./yellow.zip'),
orange_positive_examples: fs.createReadStream('./pos_ex.zip'),
negative_examples: fs.createReadStream('./vegetables.zip')
};
visual_recognition.createClassifier(params,
function(err, response) {
if (err)
console.log(err);
else
console.log(JSON.stringify(response, null, 2));
});
コード書きたくない?
めんどくさい?
でも大丈夫
GUIツールあります
Watson Visual Recognition
Tool
Watson Visual Recognition
始め方
Bluemixにログインしてカタログを選択
カテゴリ->Watson
Visual Recognitionを選択
基本的にそのままでOK
価格プランを決めて作成
無料プランあり〼
(1日250イベントまで)
もうできた
サービス資格情報から
api_keyをコピー
Visual Recognition Tool
先ほどのapi_keyでログイン
さあ実験を始めよう
カスタム分類器の作り方
画像を用意
• Visual Recognitionは「1クラス最低10枚」「推奨5
0枚以上」の画像を入れれば分類器が作成できる。
フォルダごとに画像を分けたら「アーカイブユーティリティ」
にドラッグすれば、フォルダごとの圧縮ファイルができます
分類器の作成
分類器の名前を決めて(例:dogs)
クラスの名前を決めて
(例:Chiwawa)
zipファイルをドラッグ
クラスを追加
作成!
1〜5分ほど(画像が多ければ30分くらい)待って
training が ready になったら学習終了です
これだけ
今回作ったもの
A「B子ってなんかアイドルにいそうだよねー」
俺(…どこがだよ。
だいたいAKBだとか乃木坂だとか、
どれがどれだかわかんねーよ)
ってことで、
アイドルグループの
どこに似てるのか、向いてるのか
判定するAIを作ってみました
m.com/blogs/bluemix/2016/10/watson-visual-recognition-training-
アプリの方向性を決める前に気をつけること
Examples of difficult use cases
While Watson Visual Recognition is highly flexible, there have been a number of recurring use case that we’ve seen the API either
struggle on or require significant pre/post-work from the user.
Face Recognition: Visual Recognition is capable of face detection (detecting the presence of faces) not face recognition
(identifying individuals).
Detecting details: Occasionally, users want to classify an image based on a small section of an image or details scattered
within an image. Because Watson analyzes the entire image when training, it may struggle on classifications that depend on
small details. Some users have adopted the strategy of breaking the image into pieces or zooming into relevant parts of an
image. See this hail classification use case as an example (video).
Emotion: Emotion classification (whether facial emotion or contextual emotion) is not a feature currently supported by Visual
Recognition. Some users have attempted to do this through custom classifiers, but this is an edge case and we cannot
estimate the accuracy of this type of training.
顔認識については、VisualRecogniotionは、
<人間の顔>を認識するには向いているが、
<個人の識別>をするのには向いていない
ふむ、、個人判定は難しいのか。。。
まあ!ざっくりだ
ざっくり
グループならいいだろう!
AKBっぽいとかももクロっぽいとか
グッドトレーニングのための
ガイドライン
• https://www.ibm.com/watson/developercloud/doc/visual-recognition/customizing.html#guidelines-for-good-
training
• zipファイルあたり50枚以上の画像を推奨
• 多くの画像があれば精度はあがる。5000枚くらいだといい。これ以上増やしても劇的に上がることはな
い。
• .zipファイルごとに合計150〜200枚の画像をアップロードすると、訓練にかかる時間と分類子の精度向上
のバランスが最適になります。 200以上の画像は時間を増加させ、精度を向上させますが、時間がかかる
。
• 各zipファイルには、ほぼ同じ数のイメージを含めます。 不均等な数の画像を含むと、訓練された分類器
の品質が低下する可能性がある。
• 画像の品質によって分類器の品質も変わるので、スマホで撮った写真だけでなく、プロの素材などもある
と良いです。
• 画像は幅・高さ320px以下に抑えた方がいい。高解像度である必要はありません。
やること
• 各グループの画像を集める。(某M社の検索エンジンAPI
でごっそり集めました。バストアップのみ)
• グループ毎のフォルダにダウンロード。サイズを圧縮(こ
こまでPythonのスクリプトでできるようにしたけど、手
作業でも大丈夫)
• Visual Recognition Toolに識別器とクラスを作って、フォ
ルダを圧縮したZIPを入れる。
• しばらく待つ
これだけ
せっかくだからでNode-redで
アプリにしてみる
前に作ったもの
お寿司判定AI
(ただしマグロに限る
)
会社マッチ度
判定AI
Watson Visual Recognition
の場合
• 画像認識のネットワーク構築は不要。機械学習エン
ジニアである必要はない。
• 学習用の教師データ加工をしなくても大丈夫
• 学習データ量が少なくてもいい(最低20枚から)
• 高速なGPUマシンは不要。
• 何よりすぐ始められて学習コストがほとんど0
今すぐ始められる画像認識
あなたなら何を作る?
ありがとうございました

More Related Content

Similar to Watson visual recognition_tool_bluemix女子部名古屋勉強会

Face APIで開発する時に使っている7つの道具
Face APIで開発する時に使っている7つの道具Face APIで開発する時に使っている7つの道具
Face APIで開発する時に使っている7つの道具Kazuyuki Miyake
 
LINE Developer Community: Microsoft AI を楽しく使おう
LINE Developer Community: Microsoft AI を楽しく使おうLINE Developer Community: Microsoft AI を楽しく使おう
LINE Developer Community: Microsoft AI を楽しく使おうAyako Omori
 
JAWS-UG Nagoya 20130406 物体認識システムを支えるAWS
JAWS-UG Nagoya 20130406 物体認識システムを支えるAWSJAWS-UG Nagoya 20130406 物体認識システムを支えるAWS
JAWS-UG Nagoya 20130406 物体認識システムを支えるAWS陽平 山口
 
スマートフォンとクラウドで日本を変える5つの試み
スマートフォンとクラウドで日本を変える5つの試みスマートフォンとクラウドで日本を変える5つの試み
スマートフォンとクラウドで日本を変える5つの試みCybozucommunity
 
AI for Media 2018 - 放送/映像にまつわる AI 徹底解説 -
AI for Media 2018  - 放送/映像にまつわる AI 徹底解説 -AI for Media 2018  - 放送/映像にまつわる AI 徹底解説 -
AI for Media 2018 - 放送/映像にまつわる AI 徹底解説 -Daiyu Hatakeyama
 
Cloud Vsion APIによるGUIの検証自動化
Cloud Vsion APIによるGUIの検証自動化Cloud Vsion APIによるGUIの検証自動化
Cloud Vsion APIによるGUIの検証自動化Terui Masashi
 
Einsteinvision - object detection を試してみよう
Einsteinvision - object detection を試してみようEinsteinvision - object detection を試してみよう
Einsteinvision - object detection を試してみようSalesforce Developers Japan
 
Amazon Pollyに何かしゃべってもらおうか(仮)
Amazon Pollyに何かしゃべってもらおうか(仮)Amazon Pollyに何かしゃべってもらおうか(仮)
Amazon Pollyに何かしゃべってもらおうか(仮)Koichiro Oki
 
Java開発で活かしてほしいGit,CI,そして継続的デリバリー #jjug_ccc #ccc_r13
Java開発で活かしてほしいGit,CI,そして継続的デリバリー #jjug_ccc #ccc_r13Java開発で活かしてほしいGit,CI,そして継続的デリバリー #jjug_ccc #ccc_r13
Java開発で活かしてほしいGit,CI,そして継続的デリバリー #jjug_ccc #ccc_r13智治 長沢
 
JAWS-UG IoT専門支部 Amazon AI
JAWS-UG IoT専門支部 Amazon AIJAWS-UG IoT専門支部 Amazon AI
JAWS-UG IoT専門支部 Amazon AIJun Ichikawa
 
Introduction of Leap Motion
Introduction of Leap MotionIntroduction of Leap Motion
Introduction of Leap Motionhagino 3000
 
Unityでつくるデジタルサイネージ
UnityでつくるデジタルサイネージUnityでつくるデジタルサイネージ
UnityでつくるデジタルサイネージNohina Hidenari
 
A12  坂井研究室 澤田純礼
A12  坂井研究室 澤田純礼A12  坂井研究室 澤田純礼
A12  坂井研究室 澤田純礼aomorisix
 
ビジュアルプログラミングで機械学習にチャレンジ
ビジュアルプログラミングで機械学習にチャレンジビジュアルプログラミングで機械学習にチャレンジ
ビジュアルプログラミングで機械学習にチャレンジSatoshi Fujimoto
 
SecurityCamp2015「バグハンティング入門」
SecurityCamp2015「バグハンティング入門」SecurityCamp2015「バグハンティング入門」
SecurityCamp2015「バグハンティング入門」Masato Kinugawa
 
CodePBL 成果発表会 作品一覧
CodePBL 成果発表会 作品一覧CodePBL 成果発表会 作品一覧
CodePBL 成果発表会 作品一覧Ken Takahashi
 
Ethics of AI - AIの倫理-
Ethics of AI - AIの倫理-Ethics of AI - AIの倫理-
Ethics of AI - AIの倫理-Daiyu Hatakeyama
 
俺と Amazon Elasticsearch Service とスポットインスタンス
俺と Amazon Elasticsearch Service とスポットインスタンス俺と Amazon Elasticsearch Service とスポットインスタンス
俺と Amazon Elasticsearch Service とスポットインスタンスMasayuki KaToH
 

Similar to Watson visual recognition_tool_bluemix女子部名古屋勉強会 (20)

Face APIで開発する時に使っている7つの道具
Face APIで開発する時に使っている7つの道具Face APIで開発する時に使っている7つの道具
Face APIで開発する時に使っている7つの道具
 
LINE Developer Community: Microsoft AI を楽しく使おう
LINE Developer Community: Microsoft AI を楽しく使おうLINE Developer Community: Microsoft AI を楽しく使おう
LINE Developer Community: Microsoft AI を楽しく使おう
 
JAWS-UG Nagoya 20130406 物体認識システムを支えるAWS
JAWS-UG Nagoya 20130406 物体認識システムを支えるAWSJAWS-UG Nagoya 20130406 物体認識システムを支えるAWS
JAWS-UG Nagoya 20130406 物体認識システムを支えるAWS
 
画像認識とIoT
画像認識とIoT画像認識とIoT
画像認識とIoT
 
スマートフォンとクラウドで日本を変える5つの試み
スマートフォンとクラウドで日本を変える5つの試みスマートフォンとクラウドで日本を変える5つの試み
スマートフォンとクラウドで日本を変える5つの試み
 
AI for Media 2018 - 放送/映像にまつわる AI 徹底解説 -
AI for Media 2018  - 放送/映像にまつわる AI 徹底解説 -AI for Media 2018  - 放送/映像にまつわる AI 徹底解説 -
AI for Media 2018 - 放送/映像にまつわる AI 徹底解説 -
 
Cloud Vsion APIによるGUIの検証自動化
Cloud Vsion APIによるGUIの検証自動化Cloud Vsion APIによるGUIの検証自動化
Cloud Vsion APIによるGUIの検証自動化
 
Einsteinvision - object detection を試してみよう
Einsteinvision - object detection を試してみようEinsteinvision - object detection を試してみよう
Einsteinvision - object detection を試してみよう
 
Amazon Pollyに何かしゃべってもらおうか(仮)
Amazon Pollyに何かしゃべってもらおうか(仮)Amazon Pollyに何かしゃべってもらおうか(仮)
Amazon Pollyに何かしゃべってもらおうか(仮)
 
Java開発で活かしてほしいGit,CI,そして継続的デリバリー #jjug_ccc #ccc_r13
Java開発で活かしてほしいGit,CI,そして継続的デリバリー #jjug_ccc #ccc_r13Java開発で活かしてほしいGit,CI,そして継続的デリバリー #jjug_ccc #ccc_r13
Java開発で活かしてほしいGit,CI,そして継続的デリバリー #jjug_ccc #ccc_r13
 
JAWS-UG IoT専門支部 Amazon AI
JAWS-UG IoT専門支部 Amazon AIJAWS-UG IoT専門支部 Amazon AI
JAWS-UG IoT専門支部 Amazon AI
 
Introduction of Leap Motion
Introduction of Leap MotionIntroduction of Leap Motion
Introduction of Leap Motion
 
Unityでつくるデジタルサイネージ
UnityでつくるデジタルサイネージUnityでつくるデジタルサイネージ
Unityでつくるデジタルサイネージ
 
A12  坂井研究室 澤田純礼
A12  坂井研究室 澤田純礼A12  坂井研究室 澤田純礼
A12  坂井研究室 澤田純礼
 
ビジュアルプログラミングで機械学習にチャレンジ
ビジュアルプログラミングで機械学習にチャレンジビジュアルプログラミングで機械学習にチャレンジ
ビジュアルプログラミングで機械学習にチャレンジ
 
MISO20200530
MISO20200530MISO20200530
MISO20200530
 
SecurityCamp2015「バグハンティング入門」
SecurityCamp2015「バグハンティング入門」SecurityCamp2015「バグハンティング入門」
SecurityCamp2015「バグハンティング入門」
 
CodePBL 成果発表会 作品一覧
CodePBL 成果発表会 作品一覧CodePBL 成果発表会 作品一覧
CodePBL 成果発表会 作品一覧
 
Ethics of AI - AIの倫理-
Ethics of AI - AIの倫理-Ethics of AI - AIの倫理-
Ethics of AI - AIの倫理-
 
俺と Amazon Elasticsearch Service とスポットインスタンス
俺と Amazon Elasticsearch Service とスポットインスタンス俺と Amazon Elasticsearch Service とスポットインスタンス
俺と Amazon Elasticsearch Service とスポットインスタンス
 

More from 篤 富田

Watson Visual Recognition x Pepper
Watson Visual Recognition x PepperWatson Visual Recognition x Pepper
Watson Visual Recognition x Pepper篤 富田
 
Watson Machine Learning 始めました
Watson Machine Learning 始めましたWatson Machine Learning 始めました
Watson Machine Learning 始めました篤 富田
 
公開版 ロボットアプリ開発者が想う スマートスピーカーの今 「明日から本気出す」ために 知っておくべきこと
公開版 ロボットアプリ開発者が想う スマートスピーカーの今 「明日から本気出す」ために 知っておくべきこと公開版 ロボットアプリ開発者が想う スマートスピーカーの今 「明日から本気出す」ために 知っておくべきこと
公開版 ロボットアプリ開発者が想う スマートスピーカーの今 「明日から本気出す」ために 知っておくべきこと篤 富田
 
Watson visual recognitionで簡単画像認識
Watson visual recognitionで簡単画像認識Watson visual recognitionで簡単画像認識
Watson visual recognitionで簡単画像認識篤 富田
 
Pepper sdk for android studio with mac
Pepper sdk for android studio with macPepper sdk for android studio with mac
Pepper sdk for android studio with mac篤 富田
 
それでもタブレットと付き合っていく方法 公開版
それでもタブレットと付き合っていく方法 公開版それでもタブレットと付き合っていく方法 公開版
それでもタブレットと付き合っていく方法 公開版篤 富田
 
Watch kit解説と実際のtips
Watch kit解説と実際のtipsWatch kit解説と実際のtips
Watch kit解説と実際のtips篤 富田
 

More from 篤 富田 (7)

Watson Visual Recognition x Pepper
Watson Visual Recognition x PepperWatson Visual Recognition x Pepper
Watson Visual Recognition x Pepper
 
Watson Machine Learning 始めました
Watson Machine Learning 始めましたWatson Machine Learning 始めました
Watson Machine Learning 始めました
 
公開版 ロボットアプリ開発者が想う スマートスピーカーの今 「明日から本気出す」ために 知っておくべきこと
公開版 ロボットアプリ開発者が想う スマートスピーカーの今 「明日から本気出す」ために 知っておくべきこと公開版 ロボットアプリ開発者が想う スマートスピーカーの今 「明日から本気出す」ために 知っておくべきこと
公開版 ロボットアプリ開発者が想う スマートスピーカーの今 「明日から本気出す」ために 知っておくべきこと
 
Watson visual recognitionで簡単画像認識
Watson visual recognitionで簡単画像認識Watson visual recognitionで簡単画像認識
Watson visual recognitionで簡単画像認識
 
Pepper sdk for android studio with mac
Pepper sdk for android studio with macPepper sdk for android studio with mac
Pepper sdk for android studio with mac
 
それでもタブレットと付き合っていく方法 公開版
それでもタブレットと付き合っていく方法 公開版それでもタブレットと付き合っていく方法 公開版
それでもタブレットと付き合っていく方法 公開版
 
Watch kit解説と実際のtips
Watch kit解説と実際のtipsWatch kit解説と実際のtips
Watch kit解説と実際のtips
 

Recently uploaded

LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイスCRI Japan, Inc.
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...Toru Tamaki
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptxsn679259
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video UnderstandingToru Tamaki
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルCRI Japan, Inc.
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Gamesatsushi061452
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Hiroshi Tomioka
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。iPride Co., Ltd.
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsWSO2
 

Recently uploaded (11)

LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
LoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイスLoRaWANスマート距離検出センサー  DS20L  カタログ  LiDARデバイス
LoRaWANスマート距離検出センサー DS20L カタログ LiDARデバイス
 
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
論文紹介:Video-GroundingDINO: Towards Open-Vocabulary Spatio-Temporal Video Groun...
 
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
知識ゼロの営業マンでもできた!超速で初心者を脱する、悪魔的学習ステップ3選.pptx
 
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
論文紹介:Selective Structured State-Spaces for Long-Form Video Understanding
 
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その22024/04/26の勉強会で発表されたものです。
 
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアルLoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
LoRaWAN スマート距離検出デバイスDS20L日本語マニュアル
 
新人研修 後半 2024/04/26の勉強会で発表されたものです。
新人研修 後半        2024/04/26の勉強会で発表されたものです。新人研修 後半        2024/04/26の勉強会で発表されたものです。
新人研修 後半 2024/04/26の勉強会で発表されたものです。
 
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
論文紹介: The Surprising Effectiveness of PPO in Cooperative Multi-Agent Games
 
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
Observabilityは従来型の監視と何が違うのか(キンドリルジャパン社内勉強会:2022年10月27日発表)
 
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
Amazon SES を勉強してみる その32024/04/26の勉強会で発表されたものです。
 
Utilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native IntegrationsUtilizing Ballerina for Cloud Native Integrations
Utilizing Ballerina for Cloud Native Integrations
 

Watson visual recognition_tool_bluemix女子部名古屋勉強会