SlideShare a Scribd company logo
カジュアル勉強会 @仙台
Excelで機械学習入門 第2回
株式会社 エクテック
取締役 兼データサイエンティスト
第10回までの流れ
1回~3回 4回~10回
AI周辺の
基本知識
最適化の基本
推論の基本
重回帰分析
機械学習
サポートベクタマシン
ナイーブベイズ
ニューラルネットワーク
RNN/BPTT
強化学習/Q学習
前段
勉強会に参加する以上...
『なにか』を
持って帰って欲しい
『すべて』は難しいけれど
気になった、興味をもった
キーワードでも良いので
⼿元に持って帰って
いただけると幸いです
環境について
(Surroundings)
Excel 2013, 2016
Google Spreadsheets
本日のアジェンダ
1. 最適化計算の基本となる勾配降下法
2. ラグランジュの緩和法と双対問題
3. モンテカルロ法の基本
最適化計算の基本となる勾配降下法
前回の話で...
これら誤差の2乗の総和を最⼩化する
平⽅誤差の総和を最⼩化する
パラメータを持つモデルが最適である
『最⼩化するパラメータを持つ
モデルが最適である』
少し、脱線します
そもそも、
パラメータを最適化する⽬的
ニューラルネットワーク
『シナプスの結合によりネットワークを形成した
⼈⼯ニューロン(ノード)が、学習によって
シナプスの結合強度を変化させ、
問題解決能⼒を持つようなモデル全般を指す。
狭義には誤差逆伝播法を⽤いた多層パーセプトロンを
指す場合もある。⼀般的なニューラルネットワークでの
⼈⼯ニューロンは⽣体のニューロンの動作を極めて
簡易化したものを利⽤する。』
(Wikipediaより)
⼈の脳を模した、
数理学に基づいた機械的な処理
『⼈の脳を模し』た
これら⼀つ⼀つが、ニューロン(ノード)
f(w11, w21, w31)= b1w11 + b2w21 + b3w31
δf
δw11
= 0
δf
δw21
= 0
δf
δw31
= 0
簡略化して描いてますが
こういった層が多層化され、
ニューロンは数万、数⼗万単位で
膨⼤な⽅程式を解く必要がある
『最⼩化するパラメータを持つ
モデルが最適である』
最⼩化するパラメータを探すのに
有名な⼿法の⼀つに
勾配降下法
(最急降下法)
勾配 = 微分
δf(x,y)
δx
= 0,
δf(x,y)
δy
= 0
2変数以上 = 偏微分
2変数について
ここが最小の部分
⼀般に、偏微分⽅程式は
容易には解けません
(厳密解を求めることが難しい)
何回も計算して、最⼩となる値を探す
いずれ最⼩のところに⾏き着く
これらを公式化してみます
x+Δx
y+Δy
x
y
zz+Δz
Δz = f(x+Δx, y+Δy) - f(x, y)
変化 Δzは
Δz = f(x+Δx, y+Δy) - f(x, y)
変化 Δzは
f(x+Δx, y+Δy) = f(x, y) +
δf(x,y)
δy
Δy
δf(x,y)
δx
Δx +
※近似の公式
Δz =
δf(x,y)
δx
Δx +
δf(x,y)
δy
Δy
これを内積の形で表現すると
δf(x,y)
δx
,
δf(x,y)
δy
Δx
Δy
Δz =
関数f(x,y)の点(x,y)における
勾配(gradient) といいます
(勾配ベクトル)
δf(x,y)
δx
,
δf(x,y)
δy
Δx
Δy
Δz =
勾配降下法の基本式
η (イータ, eta)は
ステップサイズ, ステップ幅と呼ばれます
δf(x,y)
δx
,
δf(x,y)
δy
(Δx, Δy) = - η
(ただし, ηは正の定数)
マイナスη
これが意味するのは
正反対の⽅向が最短で下れる
δf(x,y)
δx
,
δf(x,y)
δy
(Δx, Δy)
x
z f0(x0, y0)
y
f1(x1, y1)f2(x2, y2)
f3(x3, y3)
x
z f0(x0, y0)
y
f1(x1, y1)f2(x2, y2)
f3(x3, y3)
繰り返し計算していく
3変数以上について
δf
δx1
,
δf
δxn
(Δx1, Δx2, …, Δxn)
= - η (
δf
δx2
, … , )
δf
δx1
,
δf
δxn
(Δx1, Δx2, …, Δxn)
= - η (
δf
δx2
, … , )
関数fの点(x1, x2, … , xn)における 勾配
ηと勾配降下法の注意点
ηが⼤きすぎると
ηが⼩さすぎると
明確な、確実な⽅法はない
地道に
試⾏錯誤で⾒つけ出す
ラグランジュの緩和法と双対問題
かなり簡素化して書きますが
本来は、奥深い単元です
(時間の都合上、掘り下げません)
基本は、勾配降下法と同じ
ただし、条件式が追加されます
不等式の条件が付けられたとき
最⼤値と最⼩値を求める問題
代表的な⼿法の⼀つに
ラグランジュ緩和法
x, yは次の不等式を満たすとき
- x - y + 2 ≦ 0, x - y + 2 ≦ 0
下記の関数を最⼩化する x, y を考える
1
2
(x + y )
2 2
1
2
(x + y ) + λ(-x-y+2) + μ(x-y+2)
2 2
≦
1
2
(x + y )
2 2
0以上の任意の定数 λ, μを⽤意すれば
と置くことができる
λ, μを最⼩化することで
先ほどの不等式を含むややこしい問題を
『緩和』することができる
ここからさらに
最⼩となる m(λ, μ) を⽤意
1
2
(x + y ) + λ(-x-y+2) + μ(x-y+2)
2 2
m(λ, μ) ≦
なおかつ m(λ, μ)が
『最⼤』となる値 m0 を⽤意すると
m(λ, μ) ≦ m0 ≦
1
2
(x + y ) + λ(-x-y+2) + μ(x-y+2)
2 2
≦
1
2
(x + y )
2 2
この λ, μ が得られれば
『x + y を最⼩化するx, yの値』
が得られる
2 2
最⼩値を求める問題から
最⼤値を求める問題へ
ラグランジュ双体
ここから実際に解いてみます
チョット計算を頑張りましょう
ラグランジュ緩和法の左辺 =
1
2
{x - (λ - μ)} +
2 1
2
{y - (λ + μ)}
2
1
2
{(λ - μ) + (λ +μ) } + 2(λ + μ)-
2 2
=
1
2
{x - (λ - μ)} +
2 1
2
{y - (λ + μ)}
2
+ 2(λ + μ) - (λ + μ )
2 2
よって、x,y が
x = λ - μ, y = λ + μ のとき
最⼩値となる
よって、x,y が
x = λ - μ, y = λ + μ のとき
最⼩値となり、元々の不等式
- x - y + 2 ≦ 0, x - y + 2 ≦ 0
に代⼊して整理すると
λ ≧ 1, μ ≧ 1
⼀⽅、最⼩値 m(λ, μ)は
m(λ, μ) = 2(λ + μ) - (λ + μ )
= 2 - (λ - 1) + (μ - 1)
2 2
2 2
λ ≧ 1, μ ≧ 1 と合わせて 最⼤値m0 は
m0 = 2 (λ = 1, μ = 1)
このとき、x, y は x=0, y=2
そして、x + y の最⼩値は 2
2 2
モンテカルロ法の基本
広く⼀般に、乱数を⽤いて
数値計算を⾏う⽅法
機械学習のほとんどの分野で
初期値としての乱数を、
モンテカルロ法で与えている
Excelで実践
Google Spreadsheetで実践
第2回は、
以上となります
ご不明点・ご質問・ご相談は
Slackで無償でお答えいたします
EoF

More Related Content

What's hot

はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半koba cky
 
深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて
ryosuke-kojima
 
混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム
貴之 八木
 
20170422 数学カフェ Part1
20170422 数学カフェ Part120170422 数学カフェ Part1
20170422 数学カフェ Part1
Kenta Oono
 
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
koba cky
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Deep Learning JP
 
Oshasta em
Oshasta emOshasta em
Oshasta em
Naotaka Yamada
 
20170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.520170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.5
Takuya Minagawa
 
Clustering _ishii_2014__ch10
Clustering  _ishii_2014__ch10Clustering  _ishii_2014__ch10
Clustering _ishii_2014__ch10
Kota Mori
 
動的計画法
動的計画法動的計画法
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
Taku Yoshioka
 
第2回 配信講義 計算科学技術特論B(2022)
第2回 配信講義 計算科学技術特論B(2022)第2回 配信講義 計算科学技術特論B(2022)
第2回 配信講義 計算科学技術特論B(2022)
RCCSRENKEI
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
 
Introduction to Persistence Theory
Introduction to Persistence TheoryIntroduction to Persistence Theory
Introduction to Persistence Theory
Tatsuki SHIMIZU
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識
Takao Yamanaka
 
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定
Hiroshi Nakagawa
 
Objectnessとその周辺技術
Objectnessとその周辺技術Objectnessとその周辺技術
Objectnessとその周辺技術
Takao Yamanaka
 
第5章 拡張モデル(前半)
第5章 拡張モデル(前半)第5章 拡張モデル(前半)
第5章 拡張モデル(前半)
Akito Nakano
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル
貴之 八木
 

What's hot (20)

はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
 
深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて
 
混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム
 
20170422 数学カフェ Part1
20170422 数学カフェ Part120170422 数学カフェ Part1
20170422 数学カフェ Part1
 
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
 
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
 
Oshasta em
Oshasta emOshasta em
Oshasta em
 
20170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.520170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.5
 
Clustering _ishii_2014__ch10
Clustering  _ishii_2014__ch10Clustering  _ishii_2014__ch10
Clustering _ishii_2014__ch10
 
Rで学ぶロバスト推定
Rで学ぶロバスト推定Rで学ぶロバスト推定
Rで学ぶロバスト推定
 
動的計画法
動的計画法動的計画法
動的計画法
 
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
 
第2回 配信講義 計算科学技術特論B(2022)
第2回 配信講義 計算科学技術特論B(2022)第2回 配信講義 計算科学技術特論B(2022)
第2回 配信講義 計算科学技術特論B(2022)
 
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
 
Introduction to Persistence Theory
Introduction to Persistence TheoryIntroduction to Persistence Theory
Introduction to Persistence Theory
 
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識Fisher Vectorによる画像認識
Fisher Vectorによる画像認識
 
クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定クラシックな機械学習の入門  9. モデル推定
クラシックな機械学習の入門  9. モデル推定
 
Objectnessとその周辺技術
Objectnessとその周辺技術Objectnessとその周辺技術
Objectnessとその周辺技術
 
第5章 拡張モデル(前半)
第5章 拡張モデル(前半)第5章 拡張モデル(前半)
第5章 拡張モデル(前半)
 
線形識別モデル
線形識別モデル線形識別モデル
線形識別モデル
 

Similar to Casual learning machine learning with_excel_no2

How to study stat
How to study statHow to study stat
How to study statAk Ok
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
 
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
Kenyu Uehara
 
これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法
kenyanonaka
 
数理最適化と機械学習の 融合アプローチ -分類と新しい枠組み-(改訂版)
数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-(改訂版)数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-(改訂版)
数理最適化と機械学習の 融合アプローチ -分類と新しい枠組み-(改訂版)
MIKIOKUBO3
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化Miyoshi Yuya
 
双対性
双対性双対性
双対性
Yoichi Iwata
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
 
化学科自主ゼミ1
化学科自主ゼミ1化学科自主ゼミ1
化学科自主ゼミ1
Hiroki Sato
 
人工知能2018 強化学習の応用
人工知能2018 強化学習の応用人工知能2018 強化学習の応用
人工知能2018 強化学習の応用
Hirotaka Hachiya
 
【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しよう【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しよう
Unity Technologies Japan K.K.
 
経済数学II 「第9章 最適化(Optimization)」
経済数学II 「第9章 最適化(Optimization)」経済数学II 「第9章 最適化(Optimization)」
経済数学II 「第9章 最適化(Optimization)」
Wataru Shito
 
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
Tomoki Yoshida
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
Zansa
 
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来
Hidekazu Oiwa
 
各言語の k-means 比較
各言語の k-means 比較各言語の k-means 比較
各言語の k-means 比較
y-uti
 
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
hirokazutanaka
 
スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元
Shogo Muramatsu
 
数値解析と物理学
数値解析と物理学数値解析と物理学
数値解析と物理学
すずしめ
 
[CV勉強会]Active Object Localization with Deep Reinfocement Learning
[CV勉強会]Active Object Localization with Deep Reinfocement Learning[CV勉強会]Active Object Localization with Deep Reinfocement Learning
[CV勉強会]Active Object Localization with Deep Reinfocement Learning
Takuya Minagawa
 

Similar to Casual learning machine learning with_excel_no2 (20)

How to study stat
How to study statHow to study stat
How to study stat
 
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
 
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
 
これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法
 
数理最適化と機械学習の 融合アプローチ -分類と新しい枠組み-(改訂版)
数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-(改訂版)数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-(改訂版)
数理最適化と機械学習の 融合アプローチ -分類と新しい枠組み-(改訂版)
 
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
 
双対性
双対性双対性
双対性
 
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装するSMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
 
化学科自主ゼミ1
化学科自主ゼミ1化学科自主ゼミ1
化学科自主ゼミ1
 
人工知能2018 強化学習の応用
人工知能2018 強化学習の応用人工知能2018 強化学習の応用
人工知能2018 強化学習の応用
 
【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しよう【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しよう
 
経済数学II 「第9章 最適化(Optimization)」
経済数学II 「第9章 最適化(Optimization)」経済数学II 「第9章 最適化(Optimization)」
経済数学II 「第9章 最適化(Optimization)」
 
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
 
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
 
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来
 
各言語の k-means 比較
各言語の k-means 比較各言語の k-means 比較
各言語の k-means 比較
 
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
 
スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元
 
数値解析と物理学
数値解析と物理学数値解析と物理学
数値解析と物理学
 
[CV勉強会]Active Object Localization with Deep Reinfocement Learning
[CV勉強会]Active Object Localization with Deep Reinfocement Learning[CV勉強会]Active Object Localization with Deep Reinfocement Learning
[CV勉強会]Active Object Localization with Deep Reinfocement Learning
 

More from KazuhiroSato8

Casual learning anomaly_detection_with_machine_learning_no1
Casual learning anomaly_detection_with_machine_learning_no1Casual learning anomaly_detection_with_machine_learning_no1
Casual learning anomaly_detection_with_machine_learning_no1
KazuhiroSato8
 
Casual data analysis_with_python_vol2
Casual data analysis_with_python_vol2Casual data analysis_with_python_vol2
Casual data analysis_with_python_vol2
KazuhiroSato8
 
Casual datascience vol5
Casual datascience vol5Casual datascience vol5
Casual datascience vol5
KazuhiroSato8
 
Basic deep learning_framework
Basic deep learning_frameworkBasic deep learning_framework
Basic deep learning_framework
KazuhiroSato8
 
Casual learning machine_learning_with_excel_no1
Casual learning machine_learning_with_excel_no1Casual learning machine_learning_with_excel_no1
Casual learning machine_learning_with_excel_no1
KazuhiroSato8
 
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
KazuhiroSato8
 
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
KazuhiroSato8
 
Casual data analysis_with_python_vol1
Casual data analysis_with_python_vol1Casual data analysis_with_python_vol1
Casual data analysis_with_python_vol1
KazuhiroSato8
 
Casual datascience vol4
Casual datascience vol4Casual datascience vol4
Casual datascience vol4
KazuhiroSato8
 
Casual datascience vol3
Casual datascience vol3Casual datascience vol3
Casual datascience vol3
KazuhiroSato8
 
Casual datascience vol2
Casual datascience vol2Casual datascience vol2
Casual datascience vol2
KazuhiroSato8
 
Casual datascience vol1
Casual datascience vol1Casual datascience vol1
Casual datascience vol1
KazuhiroSato8
 

More from KazuhiroSato8 (12)

Casual learning anomaly_detection_with_machine_learning_no1
Casual learning anomaly_detection_with_machine_learning_no1Casual learning anomaly_detection_with_machine_learning_no1
Casual learning anomaly_detection_with_machine_learning_no1
 
Casual data analysis_with_python_vol2
Casual data analysis_with_python_vol2Casual data analysis_with_python_vol2
Casual data analysis_with_python_vol2
 
Casual datascience vol5
Casual datascience vol5Casual datascience vol5
Casual datascience vol5
 
Basic deep learning_framework
Basic deep learning_frameworkBasic deep learning_framework
Basic deep learning_framework
 
Casual learning machine_learning_with_excel_no1
Casual learning machine_learning_with_excel_no1Casual learning machine_learning_with_excel_no1
Casual learning machine_learning_with_excel_no1
 
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
 
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
 
Casual data analysis_with_python_vol1
Casual data analysis_with_python_vol1Casual data analysis_with_python_vol1
Casual data analysis_with_python_vol1
 
Casual datascience vol4
Casual datascience vol4Casual datascience vol4
Casual datascience vol4
 
Casual datascience vol3
Casual datascience vol3Casual datascience vol3
Casual datascience vol3
 
Casual datascience vol2
Casual datascience vol2Casual datascience vol2
Casual datascience vol2
 
Casual datascience vol1
Casual datascience vol1Casual datascience vol1
Casual datascience vol1
 

Casual learning machine learning with_excel_no2