SlideShare a Scribd company logo
1 of 75
Download to read offline
誰でも簡単!
機械学習ワークショップ
2018/12/13
稲村 勇太
1
目次
1. はじめに
2. AI(機械学習)とは
3. データ分析の流れ
4. ワークショップ
1.はじめに
3
この資料について
【内容】
AI(機械学習)を用いたデータ分析について、
ワークショップを通じて「誰でも」実践できることを
目標に作成した資料です
【対象】
流行りのAIやデータ分析について興味がある人
※AIやプログラミングの知識が一切ない人でも出来るように作っております
2.AI(機械学習)とは
※既に知ってるよ!という方は読み飛ばして下さい
5
用語の位置づけ
人工知能
(Artificial Intelligence)
機械学習
(Machine Learning)
深層学習
(Deep Leaning)
機械学習/深層学習は人工知能の要素技術
6
機械学習とは
【機械学習】
データから反復的に学習し、そこに潜むパターン(特徴)を見つけ出すこと
7
パターン(特徴)とは
犬 猫
人間
鳴き声
色
大きさ
形
犬 猫
コンピュータ
鳴き声
色
大きさ
形
特徴 特徴
犬と猫は、同じ4本足の生物だが、
「鳴き声/大きさ/色/形」などの特徴を頼りに、
「犬」か「猫」かを判断する
デジタルの情報しか扱えないため、
あいまいな定義しか出来ない特徴では、
判断できない※
※一概に「大きさ○○cmなら犬」と断定できず、複数の要素が絡み合って初めて「犬」と断定できるため。
8
機械学習における分析
【機械学習】
データから反復的に学習し、そこに潜むパターン(特徴)を見つけ出すこと
分析/解析 特徴
大量のデータ
上図の例では、大量の「猫」の画像を機械に読み込ませることで、
最大公約数的に「猫」の特徴を見つけ出させている。
3.データ分析の流れ
10
データ分析の流れ
どんな事象を分析したいか決まったら、分析するためのデータを集めます。
例えば、「農作物の生産量を予測したい」のであれば、
環境情報(温度・湿度)や気候データ(気温・降水量)、
過去の生産量などのデータが必要になります。
①データ収集
集めたデータが完璧であれば必要ない工程ですが、
例えば一部のデータに欠損があったり、文字化けしている値があったりした場合
は、分析を行う前に、 AIが理解しやすいように処理を行います。②データ前処理
処理したデータをAIに読み込ませて分析をさせます。
「どんなデータ」を「どんな方式」で読み込ませるかは、
人間が判断して実施する必要があります。
※それすら判断してくれるサービスもあります(GoogleAutoMLなど)
③分析(学習)
③で学習したAIに新しいデータを読み込ませて、分析の精度を確認します。
例えば、「気候データから 2017年の農作物の生産量を予測」できるように作った
AIに、2018年の農作物の生産量を予測させて、
精度を確かめます。
④評価
4.ワークショップ
12
タイタニック号乗客の生存者予測をしてみよう!
13
ワークショップの内容
タイタニック号の乗客名簿を元に
「どんな人物」が生き残ったか予測を行います!
14
事前準備
【必要なもの】
■GoogleChromeの動作するPC
■時間(約30分)
【登録が必要なサイト】
①Kaggle(https://www.kaggle.com/)
※Google/Facebook/Yahooのアカウントでログインできます
②MS Azure NoteBokk(https://notebooks.azure.com/)
※無償のMicrosoftアカウントがあればログインできます
15
Kaggleとは
世界中のデータサイエンティストが集う
機械学習による分析力を競い合うプラットフォーム
・世界中の様々な企業が、分析を行って欲しいデータを提供しコンペを開催
・提供されたデータを元に各々が工夫をして分析(予測)を行い、その精度を競い合う
・精度の高い分析を行った者には賞金が贈られたり、 Kaggle内での評価が上がったりする
・Kaggle上での評価の高さで採用を決める企業も出てきている
16
MS AzureNoteBookとは
MicroSoftのアカウント(無償)で
気軽にPython(プログラミング言語)を使った
データ分析を行えるサービス
JupyterNotebookという、Pythonを実行・記録しながらデータ分析を行えるツールを
環境構築不要で利用できる非常に便利なサービス( Googleも同様のサービスを提供)
※環境構築・・・Pythonを利用するためのサーバの設定
17
①データ収集
どんな事象を分析したいか決まったら、分析するためのデータを集めます。
例えば、「農作物の生産量を予測したい」のであれば、
環境情報(温度・湿度)や気候データ(気温・降水量)、
過去の生産量などのデータが必要になります。
①データ収集
集めたデータが完璧であれば必要ない工程ですが、
例えば一部のデータに欠損があったり、文字化けしている値があったりした場合
は、分析を行う前に、 AIが理解しやすいように処理を行います。②データ前処理
処理したデータをAIに読み込ませて分析をさせます。
「どんなデータ」を「どんな方式」で読み込ませるかは、
人間が判断して実施する必要があります。
※それすら判断してくれるサービスもあります(GoogleAutoMLなど)
③分析(学習)
③で学習したAIに新しいデータを読み込ませて、分析の精度を確認します。
例えば、「気候データから 2017年の農作物の生産量を予測」できるように作った
AIに、2018年の農作物の生産量を予測させて、
精度を確かめます。
④評価
18
Kaggleからタイタニックの乗客名簿をダウンロード
■Kaggleにログインした状態で下記サイトにアクセス
https://www.kaggle.com/c/titanic/data
DataSourcesから下記2ファイルをダウンロード
・test.csv(テスト:評価用データ)
・train.csv(トレーニング:学習用データ)
19
ダウンロードしたデータをAzureNoteBookにアップロード
①AzureNoteBookにログインしMyProjectを選択
②「NewProject」を選択
20
ダウンロードしたデータをAzureNoteBookにアップロード
③必要事項を入力して「Create」を選択
・ProjectName:任意の名前 
・Project ID:任意の名前(URLになります)
・Public:ネット公開有無
21
ダウンロードしたデータをAzureNoteBookにアップロード
④先ほどダウンロードしたファイルをアップロード
Upload>>FromComputerから
test.csvとtrain.csvをアップロード
22
分析をするための環境作り
⑤Pythonを起動するためのNoteBookを作成
New>>Notebookを選択
23
⑥Notebookの初期設定
・Notebook Name:任意の名前
(拡張子は自動で追記されます)
 
・Select Language:Python 3.6
(どんなプログラミング言語を使うか選びます)
分析をするための環境作り
24
⑦先ほど作ったファイル(xxx.ipynb)をクリックして起動
分析をするための環境作り
25
⑦JupyterNotebookが起動(別ウインドウで開きます)
分析をするための環境作り
ここからは、この赤枠の中に、
指定されたコマンドを入力して進めていきます!
26
⑧ライブラリのインポート
分析をするための環境作り
import pandas as pd
import numpy as np
■下記2行をコピペして、Shift+Enterで実行
27
(補足)ライブラリのインポート??
Python
(Notebook初期状態)
Pandas
(データ分析を支援するライブラリ)
Numpy
(数値計算を支援するライブラリ)
プログラミング言語を
もっと便利に使うための機能を追加する
ロボットに例えると、「 Python」という名前のロボットに、
「Numpy」という剣と「Pandas」という盾を持たせることで、
より多くのことを出来るようにさせるイメージ
28
⑨データの読み込み
データの確認
train = pd.read_csv("./train.csv")
test = pd.read_csv("./test.csv")
■下記2行をコピペして、Shift+Enterで実行
29
(補足)データの読み込み
train = pd.read_csv("./train.csv")
train
trainという箱を用意して
アップロードしたcsvファイルを格納
trainという箱を用意
箱にデータを入れる
pandasの機能でcsvを読み込む
データの保存場所を指定
30
⑩トレーニングデータの確認
データの確認
train.head(10)
■下記1行をコピペして、Shift+Enterで実行
31
(補足)データの表示
train
.head(10)
先ほどデータを格納した
trainという箱に対して、
「.head(10)」という命令を加えることで、デー
タの先頭10行を表示する
※10を任意の値に変えることで表示行数を変更可能
32
⑪テストデータの確認
データの確認
test.head(10)
■下記1行をコピペして、Shift+Enterで実行
33
(補足)データを観察してみよう!
■トレーニングデータ
PassengerId ・・・乗客番号
Survived ・・・生存情報(0=死亡、1=生存)
Pclass ・・・チケットクラス(値が大きいほど高価)
Name ・・・乗客の名前
Sex ・・・性別(male=男性、female=女性)
Age ・・・年齢
SibSp・・・タイタニックに同乗している兄弟/配偶者の数
parch・・・タイタニックに同乗している親/子供の数
ticket・・・チケット番号
fare・・・料金
cabin・・・客室番号
Embarked・・・出発地
34
(補足)データを観察してみよう!
■テストデータ
PassengerId ・・・乗客番号
Pclass ・・・チケットクラス(値が大きいほど高価)
Name ・・・乗客の名前
Sex ・・・性別(male=男性、female=女性)
Age ・・・年齢
SibSp・・・タイタニックに同乗している兄弟/配偶者の数
parch・・・タイタニックに同乗している親/子供の数
ticket・・・チケット番号
fare・・・料金
cabin・・・客室番号
Embarked・・・出発地
生存情報が無い!
35
(補足)これからすること
train
test
①トレーニングデータの情報から、
 どういう特徴の人物が生き残ったか学習させる
②学習したAIにテストデータの情報を読み込ませ
 人物の生存有無を予測させる
36
⑫データの行数・列数を確認
もっとデータを観察してみよう
test_shape = test.shape
train_shape = train.shape
print(test_shape)
print(train_shape)
■下記4行をコピペして、Shift+Enterで実行
xxx
.shape
xxx_shape
要素の数(この場合、行数と列数)
を取得
取得した情報を
新しい箱に格納
print(xxx)で、
箱の中身を表示
・テストデータは418行・11列
・トレーニングデータは 891行・12列
37
⑫トレーニングデータの統計情報を確認
さらに細かくデータを観察してみよう
test.describe()
■下記1行をコピペして、Shift+Enterで実行
該当列の件数
平均
標準偏差
最小値
第一四分位数
第二四分位数
第三四分位数
最大値
Ageのデータに
欠損があることが分かる
test
.describe()
要素の統計情報を表示
38
⑬テストデータの統計情報を確認
さらに細かくデータを観察してみよう
test.describe()
■下記1行をコピペして、Shift+Enterで実行
該当列の件数
平均
標準偏差
最小値
第一四分位数
第二四分位数
第三四分位数
最大値
AgeとFareのデータに
欠損があることが分かる
39
(補足)欠損値
Ageのデータには
欠損がある
40
②データ前処理
どんな事象を分析したいか決まったら、分析するためのデータを集めます。
例えば、「農作物の生産量を予測したい」のであれば、
環境情報(温度・湿度)や気候データ(気温・降水量)、
過去の生産量などのデータが必要になります。
①データ収集
集めたデータが完璧であれば必要ない工程ですが、
例えば一部のデータに欠損があったり、文字化けしている値があったりした場合
は、分析を行う前に、 AIが理解しやすいように処理を行います。②データ前処理
処理したデータをAIに読み込ませて分析をさせます。
「どんなデータ」を「どんな方式」で読み込ませるかは、
人間が判断して実施する必要があります。
※それすら判断してくれるサービスもあります(GoogleAutoMLなど)
③分析(学習)
③で学習したAIに新しいデータを読み込ませて、分析の精度を確認します。
例えば、「気候データから 2017年の農作物の生産量を予測」できるように作った
AIに、2018年の農作物の生産量を予測させて、
精度を確かめます。
④評価
41
まず、どのデータを使って学習させるか決めよう!
Pclass ・・・チケットクラス(値が大きいほど高価)
Age ・・・年齢
SibSp・・・タイタニックに同乗している兄弟/配偶者の数
parch・・・タイタニックに同乗している親/子供の数
下記4つの情報を元に生存情報を予測させてみましょう
【補足】
①今回は数値データのみを使って予測を行いますが、文字列データであっても数値データ に
置き換えることで活用することが出来ます(例:男性 →0、女性→1)
②どのデータを使うかは、事前に変数間の相関を取ることが望ましいです(今回は割愛)
42
①欠損していたトレーニングデータのAgeに中央値を入力
※どんな値を代入するか、もしくはそもそも利用しないか等、
 処理の仕方によって予測の精度は変わってきます
欠損値の処理
train["Age"] = train["Age"].fillna(train["Age"].median())
train.describe()
■下記2行をコピペして、Shift+Enterで実行
Ageのデータの
欠損が無くなった!
43
(補足)中央値の代入方法
train["Age"] = train["Age"].fillna(train["Age"].median())
train
Age
トレーニングデータ内の「Age」列の
空欄に中央値を入力
train
Age
train
Age
欠損を別の
データで埋める
.fillna()
.median()
中央値を取得する
trainの箱の中の
Ageという列を指定
trainの箱の中の
Ageという列の空欄に値を入力 trainの箱の中の
Ageという列の中央値を取得
44
②欠損していたテストデータのAgeに中央値を入力
欠損値の処理
test["Age"] = test["Age"].fillna(test["Age"].median())
test.describe()
■下記2行をコピペして、Shift+Enterで実行
Ageのデータの
欠損が無くなった!
45
③分析(学習)
どんな事象を分析したいか決まったら、分析するためのデータを集めます。
例えば、「農作物の生産量を予測したい」のであれば、
環境情報(温度・湿度)や気候データ(気温・降水量)、
過去の生産量などのデータが必要になります。
①データ収集
集めたデータが完璧であれば必要ない工程ですが、
例えば一部のデータに欠損があったり、文字化けしている値があったりした場合
は、分析を行う前に、 AIが理解しやすいように処理を行います。②データ前処理
処理したデータをAIに読み込ませて分析をさせます。
「どんなデータ」を「どんな方式」で読み込ませるかは、
人間が判断して実施する必要があります。
※それすら判断してくれるサービスもあります(GoogleAutoMLなど)
③分析(学習)
③で学習したAIに新しいデータを読み込ませて、分析の精度を確認します。
例えば、「気候データから 2017年の農作物の生産量を予測」できるように作った
AIに、2018年の農作物の生産量を予測させて、
精度を確かめます。
④評価
46
「色んな種類のロボットがあるから
用途ごとに選んで使う」ぐらいのイメージで大丈夫です
予測モデルの選定
AI(機械学習)にも様々な種類があり
どんな方法で学習させるか選ぶ必要があります
決定木分析 ロジスティック回帰
ランダムフォレスト 畳み込み
ニューラルネットワーク
単純ベイズ
バギング
47
決定木分析
今回は決定木分析という手法を使ってみましょう
・・・死者
・・・生存者
チケットクラスが2以上
チケットクラスが1以下
30歳以下 31歳以上 30歳以下 31歳以上
<イメージ>
これは、条件分岐によってデータを同じような属性を持ったグループに分割する手法です。
上記のイメージで説明すると、チケットクラスの値や年齢によって、
乗客を「死者」のグループと、「生存者」のグループに分類します。
この分類をAI(機械学習)によって自動で行うことが出来ます。
48
①AI(機械学習)のライブラリをインストールします
ライブラリのインポート
from sklearn import tree
■下記1行をコピペして、Shift+Enterで実行
【scikit-learnとは】
今回インストールしたのは scikit-learnというライブラリです。
これは機械学習の機能を pythonで使えるようにするためのライブラリで、
開発済みのAI(機械学習)の機能を手軽に使えるようになります。
49
②目的変数と説明変数の設定
目的変数と説明変数の設定
target = train["Survived"].values
feature = train[["Pclass", "Age", "SibSp", "Parch"]].values
■下記2行をコピペして、Shift+Enterで実行
target train
Survived
.values
値を取得
feature train
Pclass Age SibSp parch
.values
値を取得
目的変数
説明変数
説明変数を使って
目的変数を予測する
50
③決定木を作成します
決定木の作成
mytree = tree.DecisionTreeClassifier()
mytree = mytree.fit(feature, target)
■下記2行をコピペして、Shift+Enterで実行
51
(補足)決定木の作成
mytree = tree.DecisionTreeClassifier()
#mytreeという箱に「決定木」のモデルを設定
mytree tree
.DecisionTreeClassifier()
mytree mytree
.fit()
target feature
mytree = mytree.fit(feature, target)
#作ったモデルに先ほど設定したデータを入力して学習させる
52
④先ほど作った決定木にテストデータを入力して予測します
予測の実施
test_features = test[["Pclass", "Age", "SibSp", "Parch"]].values
prediction = mytree.predict(test_features)
■下記2行をコピペして、Shift+Enterで実行
test_features test
Pclass Age SibSp parch
.values
値を取得
53
(補足)予測の実施
test_features = test[["Pclass", "Age", "SibSp", "Parch"]].values
#テストデータの目的変数を設定
prediction = mytree.predict(test_features)
#トレーニングデータで作ったモデルを使ってテストデータの生存情報を予測
test_features test
Pclass Age SibSp parch
.values
値を取得
mytree
.predict()
test_features
prediction
予測を実施
54
④予測結果を表示させてみましょう
予測結果の確認
print(prediction)
■下記2行をコピペして、Shift+Enterで実行
生存情報が予測できた
55
⑤生存情報の予測結果を乗客番号と紐づけてcsvで出力します
乗客番号と紐づけてcsvに書き出し
PassengerId = np.array(test["PassengerId"]).astype(int)
solution = pd.DataFrame(prediction, PassengerId, columns = ["Survived"])
solution.to_csv("mytree.csv", index_label = ["PassengerId"])
■下記2行をコピペして、Shift+Enterで実行
56
(補足)乗客番号と紐づけてcsvに書き出し
PassengerId = np.array(test["PassengerId"]).astype(int)
#ざっくり説明すると、PassengerId(乗客番号)の値を、passengerIdという箱に格納しています
solution = pd.DataFrame(prediction, PassengerId, columns = ["Survived"])
#乗客番号と予測結果を紐付ける
solution.to_csv("mytree.csv", index_label = ["PassengerId"])
#csvに書き出し
PassengerId np
.array()
test
passengerId
.astype(int)
配列の作成 データ形の変換
Solution
pd
.DataFrame()
表形式の
データを作成
prediction PassengerId
columns =
["Survived"])
列に名前をつける
Solution
.to_csv()
csvで書き出し
my_tree.csv
保存するファイル名
index_label =
["PassengerId"]
列に名前をつける
57
(補足)乗客番号と紐づけてcsvに書き出し②(箱の中身)
PassengerId = np.array(test["PassengerId"]).astype(int)
#ざっくり説明すると、PassengerId(乗客番号)の値を、passengerIdという箱に格納しています
solution = pd.DataFrame(prediction, PassengerId, columns = ["Survived"])
#乗客番号と予測結果を紐付ける
solution.to_csv("mytree.csv", index_label = ["PassengerId"])
#csvに書き出し
892
893
894
・
PassengerId
Solution
Survivded
892 0
893 1
894 1
PassengerId Survivded
892 0
893 1
894 1
58
④評価
どんな事象を分析したいか決まったら、分析するためのデータを集めます。
例えば、「農作物の生産量を予測したい」のであれば、
環境情報(温度・湿度)や気候データ(気温・降水量)、
過去の生産量などのデータが必要になります。
①データ収集
集めたデータが完璧であれば必要ない工程ですが、
例えば一部のデータに欠損があったり、文字化けしている値があったりした場合
は、分析を行う前に、 AIが理解しやすいように処理を行います。②データ前処理
処理したデータをAIに読み込ませて分析をさせます。
「どんなデータ」を「どんな方式」で読み込ませるかは、
人間が判断して実施する必要があります。
※それすら判断してくれるサービスもあります(GoogleAutoMLなど)
③分析(学習)
③で学習したAIに新しいデータを読み込ませて、分析の精度を確認します。
例えば、「気候データから 2017年の農作物の生産量を予測」できるように作った
AIに、2018年の農作物の生産量を予測させて、
精度を確かめます。
④評価
59
csvをダウンロードします
File>>Downloadを選択
60
csvをダウンロードします
File>>Downloadを選択
61
csvをダウンロードします
projectを選択
62
csvをダウンロードします
mytree.csvを選択してダウンロード
63
ダウンロードしたcsvを見てみましょう
乗客番号 生存情報
トレーニングデータで作ったAI(決定木)と、
テストデータから生存情報の予測に成功
64
Kaggleへアップロードして予測精度を判定してみる
■Kaggleにログインした状態で下記サイトにアクセス
https://www.kaggle.com/c/titanic/data
Submit Predictionを選択
65
Kaggleへアップロードして予測精度を判定してみる
Upload Filesを選択して、
先ほどダウンロードしたファイル(mytree.csv)をアップロード
※もしくはドラック&ドロップ
66
Kaggleへアップロードして予測精度を判定してみる
アップロードが完了したら、
Make Submissionを選択
67
予測結果が出ました
自分の順位を
確認してみましょう
約53%の精度で予測が出来ました
(ちなみにこれはかなり低い精度です …)
68
世界順位を確認できます
あなたの世界順位が
表示されます!
69
予測精度の上げ方
【予測に使うデータの変更】
今回利用しなかったデータ(性別や出発地)などを使って予測してみることで、より精
度が向上するかも知れません
【予測に使うモデルの変更】
今回は決定木分析という方法を使いましたが、別の方法を使えば、
もっと精度が高い予測が行えるかも知れません
【モデルのパラメータ調整】
今回は設定をしませんでしたが、決定木をどんな形にするか設定することが出来るの
で、その設定次第で精度が良くなるかも知れません
〜例〜
もっと世界ランクをあげるために
様々な手法を試してみましょう!
70
これでデータ分析の一連の流れを実施できました!
71
さいごに
ワークショップを通じて、AI(機械学習)を使った分析が、
意外と簡単に出来ることを感じて頂けたと思います。
(大半がデータ処理の時間で、実際にAIを使う部分ってほんの一瞬です!)
もっと高度な分析を行ったり、予測に使うモデル自体の研究をしたり、
よりディープな方向に勉強をしていくことも出来ますが、専門家じゃないのであれば、こ
の資料の内容ぐらいを理解していれば良いと思っています。
あくまでAIは道具の一つに過ぎないので、
実際にAIで何が出来るか理解した上で、どんな問題を解決できるか考える方が、ビジ
ネスマンには大切な気がします。
72
(おまけ)おすすめサービス
【プログラミングの勉強をしてみたい】→Progate
Pythonに限らずプログラミングをもっと勉強して見たい方
におすすめです。(https://prog-8.com/)
【AIの勉強をしてみたい】→Aidemy
本資料より更に踏み込んで機械学習を勉強したい方にお
すすめです。(https://aidemy.net/)
【動画で勉強したい】→Udemy
プログラミングもAIも資料を読むより動画で学びたいという
方におすすめです。(https://www.udemy.com/jp/)
73
(おまけ2)おすすめ動画
【タイタニック号について知りたい】→船と氷山
映画タイタニックのパロディ動画がおすすめです。
(https://youtu.be/MEAel2DyNiw)
EOF

More Related Content

Similar to 誰でも簡単!機械学習ワークショップ

今さら聞けないITエンジニアのための人工知能
今さら聞けないITエンジニアのための人工知能今さら聞けないITエンジニアのための人工知能
今さら聞けないITエンジニアのための人工知能
Keisuke Tameyasu
 
20150608 初心者によるazure machinelearning入門
20150608 初心者によるazure machinelearning入門20150608 初心者によるazure machinelearning入門
20150608 初心者によるazure machinelearning入門
Toshiyuki Manabe
 

Similar to 誰でも簡単!機械学習ワークショップ (20)

【はじめての深層学習 #1】 深層学習とは
【はじめての深層学習 #1】 深層学習とは【はじめての深層学習 #1】 深層学習とは
【はじめての深層学習 #1】 深層学習とは
 
今さら聞けないITエンジニアのための人工知能
今さら聞けないITエンジニアのための人工知能今さら聞けないITエンジニアのための人工知能
今さら聞けないITエンジニアのための人工知能
 
人工知能についての基礎知識
人工知能についての基礎知識人工知能についての基礎知識
人工知能についての基礎知識
 
PoCで終わらせない!データ分析・AI活用
PoCで終わらせない!データ分析・AI活用PoCで終わらせない!データ分析・AI活用
PoCで終わらせない!データ分析・AI活用
 
Study session #1
Study session #1Study session #1
Study session #1
 
Java Küche Introducing Cognitive Services_20171007
Java Küche Introducing Cognitive Services_20171007Java Küche Introducing Cognitive Services_20171007
Java Küche Introducing Cognitive Services_20171007
 
20160519 機械学習についてふわっと解説してみた
 20160519  機械学習についてふわっと解説してみた 20160519  機械学習についてふわっと解説してみた
20160519 機械学習についてふわっと解説してみた
 
ソフトウェア工学におけるAIの学習方法
ソフトウェア工学におけるAIの学習方法ソフトウェア工学におけるAIの学習方法
ソフトウェア工学におけるAIの学習方法
 
20150404 jazug fukushima
20150404 jazug fukushima20150404 jazug fukushima
20150404 jazug fukushima
 
ディープラーニングによる時系列データの異常検知
ディープラーニングによる時系列データの異常検知ディープラーニングによる時系列データの異常検知
ディープラーニングによる時系列データの異常検知
 
5分でわかる 怖くない機械学習
5分でわかる 怖くない機械学習5分でわかる 怖くない機械学習
5分でわかる 怖くない機械学習
 
20150608 初心者によるazure machinelearning入門
20150608 初心者によるazure machinelearning入門20150608 初心者によるazure machinelearning入門
20150608 初心者によるazure machinelearning入門
 
人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理人工知能研究のための視覚情報処理
人工知能研究のための視覚情報処理
 
Swiftで機械学習(Play Machinelearning with Swift easily)
Swiftで機械学習(Play Machinelearning with Swift easily)Swiftで機械学習(Play Machinelearning with Swift easily)
Swiftで機械学習(Play Machinelearning with Swift easily)
 
20200131 deeplearning
20200131 deeplearning20200131 deeplearning
20200131 deeplearning
 
AIについて学んだこと ~ AIとは? ~
AIについて学んだこと ~ AIとは? ~AIについて学んだこと ~ AIとは? ~
AIについて学んだこと ~ AIとは? ~
 
福岡市内のベンチャー企業が取り組む最新It技術
福岡市内のベンチャー企業が取り組む最新It技術福岡市内のベンチャー企業が取り組む最新It技術
福岡市内のベンチャー企業が取り組む最新It技術
 
ディープラーニングで株価予測をやってみた
ディープラーニングで株価予測をやってみたディープラーニングで株価予測をやってみた
ディープラーニングで株価予測をやってみた
 
シンギュラリティ大学 x SONY x WBA若手の会 講演資料
シンギュラリティ大学 x SONY x WBA若手の会 講演資料シンギュラリティ大学 x SONY x WBA若手の会 講演資料
シンギュラリティ大学 x SONY x WBA若手の会 講演資料
 
AIについて
AIについてAIについて
AIについて
 

誰でも簡単!機械学習ワークショップ