Submit Search
Upload
Casual learning machine learning with_excel_no2
•
1 like
•
103 views
K
KazuhiroSato8
Follow
エクテックカジュアル勉強会 『Excelで機械学習入門(第2回)』 の投影資料となります。
Read less
Read more
Education
Report
Share
Report
Share
1 of 88
Download now
Download to read offline
Recommended
Casual learning machine learning with_excel_no3
Casual learning machine learning with_excel_no3
KazuhiroSato8
エクテックカジュアル勉強会 『Excelで機械学習入門(第3回)』 の投影資料となります。
Casual learning machine learning with_excel_no4
Casual learning machine learning with_excel_no4
KazuhiroSato8
エクテックカジュアル勉強会 『Excelで機械学習入門(第4回)』の投影資料となります。
Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5
KazuhiroSato8
エクテックカジュアル勉強会 『Excelで機械学習入門(第5回)』 投影資料になります。
Casual learning machine_learning_with_excel_no7
Casual learning machine_learning_with_excel_no7
KazuhiroSato8
エクテックカジュアル勉強会 『Excelで機械学習入門(第7回)』 の投影資料になります。
Casual learning machine learning with_excel_no6
Casual learning machine learning with_excel_no6
KazuhiroSato8
エクテックカジュアル勉強会 『Excelで機械学習入門(第6回)』 の投影資料となります。
Casual learning-machinelearningwithexcelno8
Casual learning-machinelearningwithexcelno8
KazuhiroSato8
エクテックカジュアル勉強会 『Excelで機械学習入門(第8回)』 投影資料です。
130604 fpgax kibayos
130604 fpgax kibayos
Mikio Yoshida
何もないところから数を作る
何もないところから数を作る
Taketo Sano
7/24「第4回プログラマのための数学勉強会」にて発表。
Recommended
Casual learning machine learning with_excel_no3
Casual learning machine learning with_excel_no3
KazuhiroSato8
エクテックカジュアル勉強会 『Excelで機械学習入門(第3回)』 の投影資料となります。
Casual learning machine learning with_excel_no4
Casual learning machine learning with_excel_no4
KazuhiroSato8
エクテックカジュアル勉強会 『Excelで機械学習入門(第4回)』の投影資料となります。
Casual learning machine learning with_excel_no5
Casual learning machine learning with_excel_no5
KazuhiroSato8
エクテックカジュアル勉強会 『Excelで機械学習入門(第5回)』 投影資料になります。
Casual learning machine_learning_with_excel_no7
Casual learning machine_learning_with_excel_no7
KazuhiroSato8
エクテックカジュアル勉強会 『Excelで機械学習入門(第7回)』 の投影資料になります。
Casual learning machine learning with_excel_no6
Casual learning machine learning with_excel_no6
KazuhiroSato8
エクテックカジュアル勉強会 『Excelで機械学習入門(第6回)』 の投影資料となります。
Casual learning-machinelearningwithexcelno8
Casual learning-machinelearningwithexcelno8
KazuhiroSato8
エクテックカジュアル勉強会 『Excelで機械学習入門(第8回)』 投影資料です。
130604 fpgax kibayos
130604 fpgax kibayos
Mikio Yoshida
何もないところから数を作る
何もないところから数を作る
Taketo Sano
7/24「第4回プログラマのための数学勉強会」にて発表。
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
koba cky
深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて
ryosuke-kojima
人工知能セミナー:確率プログラミングの世界:論理と確率をつなぐ人工知能「深層学習と確率プログラミングを融合したEdwardについて」講演資料 ディープラーニングと確率モデルを統合的に扱うことのできるPythonライブラリEdwardの紹介と解説
混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム
貴之 八木
上智大学宮本研究室の勉強会発表資料です.
20170422 数学カフェ Part1
20170422 数学カフェ Part1
Kenta Oono
https://connpass.com/event/54301/
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
koba cky
2章「Latent Dirichlet Allocation」 2.1:概要 2.2:多項分布と Dirichlet 分布 2.3:LDA の生成過程
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Deep Learning JP
2019/12/20 Deep Learning JP: http://deeplearning.jp/seminar-2/
Oshasta em
Oshasta em
Naotaka Yamada
EMアルゴリズムについてざっくり解説 完全データの対数尤度を最大化なら簡単にできる という仮定が鍵。そのかたちにうまいこと持っていく。理論的な背景はPRML 9.4を参照
20170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.5
Takuya Minagawa
2017年4月8日開催のコンピュータビジョン勉強会@関東「最先端ガイド6第2章 幾何学的推定のための最適化手法:最小化を超えて」発表資料
Clustering _ishii_2014__ch10
Clustering _ishii_2014__ch10
Kota Mori
続わかりやすいパターン認識入門 読書会 第10章 2015/06/30(Tue) 19:30〜
Rで学ぶロバスト推定
Rで学ぶロバスト推定
Shintaro Fukushima
動的計画法
動的計画法
京大 マイコンクラブ
競技プログラミング練習会2014 Normalで使ったスライドです。基本的な動的計画法の考え方について説明しています。
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
Taku Yoshioka
尼崎Pythonの会#3での発表資料です。
第2回 配信講義 計算科学技術特論B(2022)
第2回 配信講義 計算科学技術特論B(2022)
RCCSRENKEI
第1回で述べたようなハードウェアの状況のもと、スーパーコンピュータ上で実行されるアプリケーションは、高度な並列化と個々のノード内のハードウェア性能を使い切るための性能最適化、いわゆるチューニングを実施しない限り、ハードウェアのパフォーマンスを十分に活用することはできない。 つまり「並列を意識したプログラミング」と「単体CPU実行性能を意識したプログラミング」という2つのポイントは、何万ものプロセッサを搭載し、さまざまな新機能・強化された機能を備えた現在のスーパーコンピュータを使用するユーザー、研究者、およびプログラマーにとって不可欠のテクニックである。 第2回は、2つのポイントのうち「並列を意識したプログラミング」いわゆる「高並列性能最適化」について抗議する。
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
https://math-coding.connpass.com/event/147508/ Math&coding#6 の発表資料
Introduction to Persistence Theory
Introduction to Persistence Theory
Tatsuki SHIMIZU
第 2 回数理生物カフェ Persisntet Homology の stability まで
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識
Takao Yamanaka
文献紹介のスライドです。学部4年生〜修士課程1年生くらい向けです。1枚目に8本の文献リストを載せていますが、最初の3本しか説明していません。 - p. 26のωに対するFisher Vectorの式を修正したました (2014/01/14)
クラシックな機械学習の入門 9. モデル推定
クラシックな機械学習の入門 9. モデル推定
Hiroshi Nakagawa
観測データから母集団の確率分布を学習するにあたって、観測データとして直接観測できない潜在変数(あるいは隠れ変数)がある場合の学習方法を説明する。この学習方法で特に重要なのはEMアルゴリズムである。
Objectnessとその周辺技術
Objectnessとその周辺技術
Takao Yamanaka
文献紹介のスライドです。学部4年生〜修士課程1年生くらい向けです。
第5章 拡張モデル(前半)
第5章 拡張モデル(前半)
Akito Nakano
トピックモデルのよる統計的潜在意味解析
線形識別モデル
線形識別モデル
貴之 八木
上智大学宮本研究室の勉強会発表資料です. PRML(パターン認識と機械学習)の第4章「線形識別モデル」から一部抜粋してまとめました.
How to study stat
How to study stat
Ak Ok
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
線形回帰問題と最適化問題 回帰問題における外れ値問題 最小二乗法の問題点 ロバスト線形回帰 最適化問題としての回帰 問題最小二乗法 勾配降下法 LASSO回帰 優決定系におけるスパース回帰 講師: 東京都市大学 田中宏和 講義ビデオ: https://www.youtube.com/playlist?list=PLXAfiwJfs0jGOvZnwUdAykZvSdRFd7K2p
More Related Content
What's hot
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
koba cky
深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて
ryosuke-kojima
人工知能セミナー:確率プログラミングの世界:論理と確率をつなぐ人工知能「深層学習と確率プログラミングを融合したEdwardについて」講演資料 ディープラーニングと確率モデルを統合的に扱うことのできるPythonライブラリEdwardの紹介と解説
混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム
貴之 八木
上智大学宮本研究室の勉強会発表資料です.
20170422 数学カフェ Part1
20170422 数学カフェ Part1
Kenta Oono
https://connpass.com/event/54301/
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
koba cky
2章「Latent Dirichlet Allocation」 2.1:概要 2.2:多項分布と Dirichlet 分布 2.3:LDA の生成過程
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Deep Learning JP
2019/12/20 Deep Learning JP: http://deeplearning.jp/seminar-2/
Oshasta em
Oshasta em
Naotaka Yamada
EMアルゴリズムについてざっくり解説 完全データの対数尤度を最大化なら簡単にできる という仮定が鍵。そのかたちにうまいこと持っていく。理論的な背景はPRML 9.4を参照
20170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.5
Takuya Minagawa
2017年4月8日開催のコンピュータビジョン勉強会@関東「最先端ガイド6第2章 幾何学的推定のための最適化手法:最小化を超えて」発表資料
Clustering _ishii_2014__ch10
Clustering _ishii_2014__ch10
Kota Mori
続わかりやすいパターン認識入門 読書会 第10章 2015/06/30(Tue) 19:30〜
Rで学ぶロバスト推定
Rで学ぶロバスト推定
Shintaro Fukushima
動的計画法
動的計画法
京大 マイコンクラブ
競技プログラミング練習会2014 Normalで使ったスライドです。基本的な動的計画法の考え方について説明しています。
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
Taku Yoshioka
尼崎Pythonの会#3での発表資料です。
第2回 配信講義 計算科学技術特論B(2022)
第2回 配信講義 計算科学技術特論B(2022)
RCCSRENKEI
第1回で述べたようなハードウェアの状況のもと、スーパーコンピュータ上で実行されるアプリケーションは、高度な並列化と個々のノード内のハードウェア性能を使い切るための性能最適化、いわゆるチューニングを実施しない限り、ハードウェアのパフォーマンスを十分に活用することはできない。 つまり「並列を意識したプログラミング」と「単体CPU実行性能を意識したプログラミング」という2つのポイントは、何万ものプロセッサを搭載し、さまざまな新機能・強化された機能を備えた現在のスーパーコンピュータを使用するユーザー、研究者、およびプログラマーにとって不可欠のテクニックである。 第2回は、2つのポイントのうち「並列を意識したプログラミング」いわゆる「高並列性能最適化」について抗議する。
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
ryosuke-kojima
https://math-coding.connpass.com/event/147508/ Math&coding#6 の発表資料
Introduction to Persistence Theory
Introduction to Persistence Theory
Tatsuki SHIMIZU
第 2 回数理生物カフェ Persisntet Homology の stability まで
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識
Takao Yamanaka
文献紹介のスライドです。学部4年生〜修士課程1年生くらい向けです。1枚目に8本の文献リストを載せていますが、最初の3本しか説明していません。 - p. 26のωに対するFisher Vectorの式を修正したました (2014/01/14)
クラシックな機械学習の入門 9. モデル推定
クラシックな機械学習の入門 9. モデル推定
Hiroshi Nakagawa
観測データから母集団の確率分布を学習するにあたって、観測データとして直接観測できない潜在変数(あるいは隠れ変数)がある場合の学習方法を説明する。この学習方法で特に重要なのはEMアルゴリズムである。
Objectnessとその周辺技術
Objectnessとその周辺技術
Takao Yamanaka
文献紹介のスライドです。学部4年生〜修士課程1年生くらい向けです。
第5章 拡張モデル(前半)
第5章 拡張モデル(前半)
Akito Nakano
トピックモデルのよる統計的潜在意味解析
線形識別モデル
線形識別モデル
貴之 八木
上智大学宮本研究室の勉強会発表資料です. PRML(パターン認識と機械学習)の第4章「線形識別モデル」から一部抜粋してまとめました.
What's hot
(20)
はじめてのパターン認識輪読会 10章後半
はじめてのパターン認識輪読会 10章後半
深層学習と確率プログラミングを融合したEdwardについて
深層学習と確率プログラミングを融合したEdwardについて
混合ガウスモデルとEMアルゴリスム
混合ガウスモデルとEMアルゴリスム
20170422 数学カフェ Part1
20170422 数学カフェ Part1
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
「トピックモデルによる統計的潜在意味解析」読書会 2章前半
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
[DL輪読会]Convolutional Conditional Neural Processesと Neural Processes Familyの紹介
Oshasta em
Oshasta em
20170408cvsaisentan6 2 4.3-4.5
20170408cvsaisentan6 2 4.3-4.5
Clustering _ishii_2014__ch10
Clustering _ishii_2014__ch10
Rで学ぶロバスト推定
Rで学ぶロバスト推定
動的計画法
動的計画法
自動微分変分ベイズ法の紹介
自動微分変分ベイズ法の紹介
第2回 配信講義 計算科学技術特論B(2022)
第2回 配信講義 計算科学技術特論B(2022)
グラフニューラルネットワーク入門
グラフニューラルネットワーク入門
Introduction to Persistence Theory
Introduction to Persistence Theory
Fisher Vectorによる画像認識
Fisher Vectorによる画像認識
クラシックな機械学習の入門 9. モデル推定
クラシックな機械学習の入門 9. モデル推定
Objectnessとその周辺技術
Objectnessとその周辺技術
第5章 拡張モデル(前半)
第5章 拡張モデル(前半)
線形識別モデル
線形識別モデル
Similar to Casual learning machine learning with_excel_no2
How to study stat
How to study stat
Ak Ok
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
hirokazutanaka
線形回帰問題と最適化問題 回帰問題における外れ値問題 最小二乗法の問題点 ロバスト線形回帰 最適化問題としての回帰 問題最小二乗法 勾配降下法 LASSO回帰 優決定系におけるスパース回帰 講師: 東京都市大学 田中宏和 講義ビデオ: https://www.youtube.com/playlist?list=PLXAfiwJfs0jGOvZnwUdAykZvSdRFd7K2p
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
Kenyu Uehara
SVMの基本的な数学を説明しています. ブログにもまとめてますので,どうぞ https://kenyu-life.com/2019/02/11/support_vector_machine/ 動画解説してます 「https://www.youtube.com/watch?v=TNOC0vyIL-g」
これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法
kenyanonaka
dynamic programming 動的計画法 DP
数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-(改訂版)
数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-(改訂版)
MIKIOKUBO3
インスタンスの間の距離について書き足しました.
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
Miyoshi Yuya
双対性
双対性
Yoichi Iwata
JOI春合宿2018講義資料
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
sleepy_yoshi
2013-05-05 PRML復々習レーン#10 で発表
化学科自主ゼミ1
化学科自主ゼミ1
Hiroki Sato
2012-01-05 東工大化学科自主ゼミ資料
人工知能2018 強化学習の応用
人工知能2018 強化学習の応用
Hirotaka Hachiya
強化学習の応用
【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しよう
Unity Technologies Japan K.K.
数学が大切とはよく聞くけれど、どのように始めたらいいのかわからない・・そんな方に、数学との付き合い方をお伝えします。特定の分野に限らず、あらゆる職種に必須の概念をピックアップし、数学の利用法を解説していきます。(なお行列、ベクトル、微積分については触れません) このスライドは、2019/7/25開催の「Unity道場 7月」の資料です。
経済数学II 「第9章 最適化(Optimization)」
経済数学II 「第9章 最適化(Optimization)」
Wataru Shito
西南学院大学経済学部 経済数学II 講義ノート 講義ページ: http://courses.wshito.com/
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
Tomoki Yoshida
CVXPYの使い方の説明とラグランジュ双対問題について説明 ※縮小表示だと日本語が消えることがあるので全画面で御覧ください
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
Zansa
Zansa第12回勉強会の資料 「PRMLからベイズの世界へ」
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来
Hidekazu Oiwa
SGDの最新の拡張手法を紹介: Importance-aware UpdateやNormalized Online Learningなど.SGD+αはここまで出来る!
各言語の k-means 比較
各言語の k-means 比較
y-uti
MATLAB, R, Python の k-means について、それぞれの入出力やオプションの違いを比較してみました。 第 10 回「続・わかりやすいパターン認識」読書会の LT で発表した資料です。
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
hirokazutanaka
回帰問題における過剰適合問題 データへのオーバーフィット モデルの自由度 モデル選択法1: 交差検証法(CV) k-fold Cross-Validation Leave p-out Cross-Validation モデル選択法2: 情報量基準 最尤法と尤度関数 赤池情報量基準(AIC) ベイズ情報量基準(BIC) 講師: 東京都市大学 田中宏和 講義ビデオ: https://www.youtube.com/playlist?list=PLXAfiwJfs0jGOvZnwUdAykZvSdRFd7K2p
スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元
Shogo Muramatsu
2019年1月17日(木) 秋田県立大学システム科学技術学部情報工学科 「画像信号処理」特別講義
数値解析と物理学
数値解析と物理学
すずしめ
KMC(京大マイコンクラブ)春合宿2017で発表したときのスライドです。 予備知識のない人にもわかるようにsymplectic数値積分法を紹介することを目標としました。
[CV勉強会]Active Object Localization with Deep Reinfocement Learning
[CV勉強会]Active Object Localization with Deep Reinfocement Learning
Takuya Minagawa
2016/02/06に開催されたCV勉強会@関東「ICCV2015読み会」発表資料です。
Similar to Casual learning machine learning with_excel_no2
(20)
How to study stat
How to study stat
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
東京都市大学 データ解析入門 6 回帰分析とモデル選択 1
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
サポートベクターマシン(SVM)の数学をみんなに説明したいだけの会
これならわかる最適化数学8章_動的計画法
これならわかる最適化数学8章_動的計画法
数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-(改訂版)
数理最適化と機械学習の融合アプローチ-分類と新しい枠組み-(改訂版)
パターン認識第9章 学習ベクトル量子化
パターン認識第9章 学習ベクトル量子化
双対性
双対性
SMO徹底入門 - SVMをちゃんと実装する
SMO徹底入門 - SVMをちゃんと実装する
化学科自主ゼミ1
化学科自主ゼミ1
人工知能2018 強化学習の応用
人工知能2018 強化学習の応用
【Unity道場】ゲーム制作に使う数学を学習しよう
【Unity道場】ゲーム制作に使う数学を学習しよう
経済数学II 「第9章 最適化(Optimization)」
経済数学II 「第9章 最適化(Optimization)」
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
凸最適化 〜 双対定理とソルバーCVXPYの紹介 〜
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
【Zansa】第12回勉強会 -PRMLからベイズの世界へ
SGD+α: 確率的勾配降下法の現在と未来
SGD+α: 確率的勾配降下法の現在と未来
各言語の k-means 比較
各言語の k-means 比較
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
東京都市大学 データ解析入門 7 回帰分析とモデル選択 2
スパースモデリングによる多次元信号・画像復元
スパースモデリングによる多次元信号・画像復元
数値解析と物理学
数値解析と物理学
[CV勉強会]Active Object Localization with Deep Reinfocement Learning
[CV勉強会]Active Object Localization with Deep Reinfocement Learning
More from KazuhiroSato8
Casual learning anomaly_detection_with_machine_learning_no1
Casual learning anomaly_detection_with_machine_learning_no1
KazuhiroSato8
エクテックカジュアル勉強会 『機械学習と異常検知(第1回)』 投影資料になります。
Casual data analysis_with_python_vol2
Casual data analysis_with_python_vol2
KazuhiroSato8
エクテックカジュアル勉強会 『Pythonでデータ分析入門(第2回)』 投影資料となります。
Casual datascience vol5
Casual datascience vol5
KazuhiroSato8
エクテックカジュアル勉強会 『データサイエンスを学ぶ(第5回)』 の投影資料になります。
Basic deep learning_framework
Basic deep learning_framework
KazuhiroSato8
エクテックカジュアル勉強会 深層学習フレームワーク概要編資料
Casual learning machine_learning_with_excel_no1
Casual learning machine_learning_with_excel_no1
KazuhiroSato8
株式会社エクテック カジュアル勉強会 Excelで機械学習入門 第1回の投影資料
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
KazuhiroSato8
データサイエンスを学ぶ第2回分の投影資料となります。 投影資料ですので、あくまでも外観のみになります。 詳細は、下記リンクよりご確認ください。 https://extech-casual-learn-sendai.connpass.com/
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
KazuhiroSato8
データサイエンスを学ぶ第1回分の投影資料となります。 投影資料ですので、あくまでも外観のみになります。 詳細は、下記リンクよりご確認ください。 https://extech-casual-learn-sendai.connpass.com/
Casual data analysis_with_python_vol1
Casual data analysis_with_python_vol1
KazuhiroSato8
カジュアル勉強会 Pythonデータ分析入門 ※jupyter notebookについては別途、共有します。
Casual datascience vol4
Casual datascience vol4
KazuhiroSato8
カジュアル勉強会 データサイエンスを学ぶ第4回 公開用資料
Casual datascience vol3
Casual datascience vol3
KazuhiroSato8
カジュアル勉強会 データサイエンスを学ぶ第3回 公開用資料
Casual datascience vol2
Casual datascience vol2
KazuhiroSato8
カジュアル勉強会 データサイエンスを学ぶ第2回 公開用資料
Casual datascience vol1
Casual datascience vol1
KazuhiroSato8
カジュアル勉強会 データサイエンスを学ぶ第1回 公開用資料
More from KazuhiroSato8
(12)
Casual learning anomaly_detection_with_machine_learning_no1
Casual learning anomaly_detection_with_machine_learning_no1
Casual data analysis_with_python_vol2
Casual data analysis_with_python_vol2
Casual datascience vol5
Casual datascience vol5
Basic deep learning_framework
Basic deep learning_framework
Casual learning machine_learning_with_excel_no1
Casual learning machine_learning_with_excel_no1
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
エクテック カジュアル勉強会 データサイエンスを学ぶ第2回
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
エクテック カジュアル勉強会 データサイエンスを学ぶ第1回
Casual data analysis_with_python_vol1
Casual data analysis_with_python_vol1
Casual datascience vol4
Casual datascience vol4
Casual datascience vol3
Casual datascience vol3
Casual datascience vol2
Casual datascience vol2
Casual datascience vol1
Casual datascience vol1
Casual learning machine learning with_excel_no2
1.
カジュアル勉強会 @仙台 Excelで機械学習入門 第2回 株式会社
エクテック 取締役 兼データサイエンティスト
2.
第10回までの流れ 1回~3回 4回~10回 AI周辺の 基本知識 最適化の基本 推論の基本 重回帰分析 機械学習 サポートベクタマシン ナイーブベイズ ニューラルネットワーク RNN/BPTT 強化学習/Q学習
3.
前段
4.
勉強会に参加する以上...
5.
『なにか』を 持って帰って欲しい
6.
『すべて』は難しいけれど 気になった、興味をもった キーワードでも良いので ⼿元に持って帰って いただけると幸いです
7.
環境について (Surroundings)
8.
Excel 2013, 2016 Google
Spreadsheets
9.
本日のアジェンダ 1. 最適化計算の基本となる勾配降下法 2. ラグランジュの緩和法と双対問題 3.
モンテカルロ法の基本
10.
最適化計算の基本となる勾配降下法
11.
前回の話で...
12.
これら誤差の2乗の総和を最⼩化する 平⽅誤差の総和を最⼩化する パラメータを持つモデルが最適である
13.
『最⼩化するパラメータを持つ モデルが最適である』
14.
少し、脱線します
15.
そもそも、 パラメータを最適化する⽬的
16.
17.
ニューラルネットワーク
18.
『シナプスの結合によりネットワークを形成した ⼈⼯ニューロン(ノード)が、学習によって シナプスの結合強度を変化させ、 問題解決能⼒を持つようなモデル全般を指す。 狭義には誤差逆伝播法を⽤いた多層パーセプトロンを 指す場合もある。⼀般的なニューラルネットワークでの ⼈⼯ニューロンは⽣体のニューロンの動作を極めて 簡易化したものを利⽤する。』 (Wikipediaより)
19.
⼈の脳を模した、 数理学に基づいた機械的な処理
20.
『⼈の脳を模し』た
21.
22.
これら⼀つ⼀つが、ニューロン(ノード)
23.
f(w11, w21, w31)=
b1w11 + b2w21 + b3w31
24.
δf δw11 = 0 δf δw21 = 0 δf δw31 =
0
25.
簡略化して描いてますが
26.
こういった層が多層化され、 ニューロンは数万、数⼗万単位で 膨⼤な⽅程式を解く必要がある
27.
『最⼩化するパラメータを持つ モデルが最適である』
28.
最⼩化するパラメータを探すのに 有名な⼿法の⼀つに
29.
勾配降下法 (最急降下法)
30.
勾配 = 微分
31.
δf(x,y) δx = 0, δf(x,y) δy = 0 2変数以上
= 偏微分
32.
2変数について
33.
34.
ここが最小の部分
35.
⼀般に、偏微分⽅程式は 容易には解けません (厳密解を求めることが難しい)
36.
何回も計算して、最⼩となる値を探す
37.
いずれ最⼩のところに⾏き着く
38.
これらを公式化してみます
39.
x+Δx y+Δy x y zz+Δz
40.
Δz = f(x+Δx,
y+Δy) - f(x, y) 変化 Δzは
41.
Δz = f(x+Δx,
y+Δy) - f(x, y) 変化 Δzは f(x+Δx, y+Δy) = f(x, y) + δf(x,y) δy Δy δf(x,y) δx Δx + ※近似の公式 Δz = δf(x,y) δx Δx + δf(x,y) δy Δy
42.
これを内積の形で表現すると
43.
δf(x,y) δx , δf(x,y) δy Δx Δy Δz =
44.
関数f(x,y)の点(x,y)における 勾配(gradient) といいます (勾配ベクトル) δf(x,y) δx , δf(x,y) δy Δx Δy Δz =
45.
勾配降下法の基本式
46.
η (イータ, eta)は ステップサイズ,
ステップ幅と呼ばれます δf(x,y) δx , δf(x,y) δy (Δx, Δy) = - η (ただし, ηは正の定数)
47.
マイナスη これが意味するのは
48.
正反対の⽅向が最短で下れる δf(x,y) δx , δf(x,y) δy (Δx, Δy)
49.
x z f0(x0, y0) y f1(x1,
y1)f2(x2, y2) f3(x3, y3)
50.
x z f0(x0, y0) y f1(x1,
y1)f2(x2, y2) f3(x3, y3) 繰り返し計算していく
51.
3変数以上について
52.
δf δx1 , δf δxn (Δx1, Δx2, …,
Δxn) = - η ( δf δx2 , … , )
53.
δf δx1 , δf δxn (Δx1, Δx2, …,
Δxn) = - η ( δf δx2 , … , ) 関数fの点(x1, x2, … , xn)における 勾配
54.
ηと勾配降下法の注意点
55.
ηが⼤きすぎると
56.
ηが⼩さすぎると
57.
明確な、確実な⽅法はない
58.
地道に 試⾏錯誤で⾒つけ出す
59.
ラグランジュの緩和法と双対問題
60.
かなり簡素化して書きますが 本来は、奥深い単元です (時間の都合上、掘り下げません)
61.
基本は、勾配降下法と同じ ただし、条件式が追加されます
62.
不等式の条件が付けられたとき 最⼤値と最⼩値を求める問題
63.
代表的な⼿法の⼀つに ラグランジュ緩和法
64.
x, yは次の不等式を満たすとき - x
- y + 2 ≦ 0, x - y + 2 ≦ 0 下記の関数を最⼩化する x, y を考える 1 2 (x + y ) 2 2
65.
1 2 (x + y
) + λ(-x-y+2) + μ(x-y+2) 2 2 ≦ 1 2 (x + y ) 2 2 0以上の任意の定数 λ, μを⽤意すれば と置くことができる
66.
λ, μを最⼩化することで 先ほどの不等式を含むややこしい問題を 『緩和』することができる
67.
ここからさらに
68.
最⼩となる m(λ, μ)
を⽤意
69.
1 2 (x + y
) + λ(-x-y+2) + μ(x-y+2) 2 2 m(λ, μ) ≦
70.
なおかつ m(λ, μ)が 『最⼤』となる値
m0 を⽤意すると
71.
m(λ, μ) ≦
m0 ≦ 1 2 (x + y ) + λ(-x-y+2) + μ(x-y+2) 2 2 ≦ 1 2 (x + y ) 2 2
72.
この λ, μ
が得られれば 『x + y を最⼩化するx, yの値』 が得られる 2 2
73.
最⼩値を求める問題から 最⼤値を求める問題へ
74.
ラグランジュ双体
75.
ここから実際に解いてみます チョット計算を頑張りましょう
76.
ラグランジュ緩和法の左辺 = 1 2 {x -
(λ - μ)} + 2 1 2 {y - (λ + μ)} 2 1 2 {(λ - μ) + (λ +μ) } + 2(λ + μ)- 2 2 = 1 2 {x - (λ - μ)} + 2 1 2 {y - (λ + μ)} 2 + 2(λ + μ) - (λ + μ ) 2 2
77.
よって、x,y が x =
λ - μ, y = λ + μ のとき 最⼩値となる
78.
よって、x,y が x =
λ - μ, y = λ + μ のとき 最⼩値となり、元々の不等式 - x - y + 2 ≦ 0, x - y + 2 ≦ 0 に代⼊して整理すると λ ≧ 1, μ ≧ 1
79.
⼀⽅、最⼩値 m(λ, μ)は m(λ,
μ) = 2(λ + μ) - (λ + μ ) = 2 - (λ - 1) + (μ - 1) 2 2 2 2
80.
λ ≧ 1,
μ ≧ 1 と合わせて 最⼤値m0 は m0 = 2 (λ = 1, μ = 1)
81.
このとき、x, y は
x=0, y=2 そして、x + y の最⼩値は 2 2 2
82.
モンテカルロ法の基本
83.
広く⼀般に、乱数を⽤いて 数値計算を⾏う⽅法
84.
機械学習のほとんどの分野で 初期値としての乱数を、 モンテカルロ法で与えている
85.
Excelで実践 Google Spreadsheetで実践
86.
第2回は、 以上となります
87.
ご不明点・ご質問・ご相談は Slackで無償でお答えいたします
88.
EoF
Download now