Submit Search
Upload
LBFGSの実装
•
4 likes
•
4,805 views
K
Kotaro Tanahashi
Follow
LBFGSの実装
Read less
Read more
Science
Report
Share
Report
Share
1 of 14
Download now
Download to read offline
Recommended
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP
2021/12/03 Deep Learning JP: http://deeplearning.jp/seminar-2/
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
Twitter: ottamm_190 追記 2022/4/24 speakerdeck版:https://speakerdeck.com/masatoto/shen-ceng-xue-xi-falsebu-que-shi-xing-uncertainty-in-deep-neural-networks コンパクト版:https://speakerdeck.com/masatoto/shen-ceng-xue-xi-niokerubu-que-shi-xing-ru-men
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
Hirokatsu Kataoka
サーベイ方法やアイディアの発想法についてまとめました.
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
4/16に行われた筑波大の手塚若林研合同ゼミでの発表スライドです。
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
2017/2/24 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
2019/09/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
Neural Network with Attention Mechanism for Natural Language Processing: survey
Recommended
変分推論法(変分ベイズ法)(PRML第10章)
変分推論法(変分ベイズ法)(PRML第10章)
Takao Yamanaka
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
【DL輪読会】Efficiently Modeling Long Sequences with Structured State Spaces
Deep Learning JP
2021/12/03 Deep Learning JP: http://deeplearning.jp/seminar-2/
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
深層学習の不確実性 - Uncertainty in Deep Neural Networks -
tmtm otm
Twitter: ottamm_190 追記 2022/4/24 speakerdeck版:https://speakerdeck.com/masatoto/shen-ceng-xue-xi-falsebu-que-shi-xing-uncertainty-in-deep-neural-networks コンパクト版:https://speakerdeck.com/masatoto/shen-ceng-xue-xi-niokerubu-que-shi-xing-ru-men
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
Hirokatsu Kataoka
サーベイ方法やアイディアの発想法についてまとめました.
Optimizer入門&最新動向
Optimizer入門&最新動向
Motokawa Tetsuya
4/16に行われた筑波大の手塚若林研合同ゼミでの発表スライドです。
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
[DL輪読会]Wasserstein GAN/Towards Principled Methods for Training Generative Adv...
Deep Learning JP
2017/2/24 Deep Learning JP: http://deeplearning.jp/seminar-2/
[DL輪読会]相互情報量最大化による表現学習
[DL輪読会]相互情報量最大化による表現学習
Deep Learning JP
2019/09/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
Neural Network with Attention Mechanism for Natural Language Processing: survey
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
Eiji Uchibe
第25回ステアラボ人工知能セミナー https://stair.connpass.com/event/143745/
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
生成モデルとかをあまり知らない人にもなるべく分かりやすい説明を心がけたVariational AutoEncoderのスライド 実装と簡単な補足は以下を参照 http://sh-tatsuno.com/blog/index.php/2016/07/30/variationalautoencoder/
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
Yusuke Uchida
2017年12月に開催されたパターン認識・メディア理解研究会(PRMU)にて発表した畳み込みニューラルネットワークのサーベイ 「2012年の画像認識コンペティションILSVRCにおけるAlexNetの登場以降,画像認識においては畳み込みニューラルネットワーク (CNN) を用いることがデファクトスタンダードとなった.ILSVRCでは毎年のように新たなCNNのモデルが提案され,一貫して認識精度の向上に寄与してきた.CNNは画像分類だけではなく,セグメンテーションや物体検出など様々なタスクを解くためのベースネットワークとしても広く利用されてきている. 本稿では,AlexNet以降の代表的なCNNの変遷を振り返るとともに,近年提案されている様々なCNNの改良手法についてサーベイを行い,それらを幾つかのアプローチに分類し,解説する.更に,代表的なモデルについて複数のデータセットを用いて学習および網羅的な精度評価を行い,各モデルの精度および学習時間の傾向について議論を行う.」
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
2020/11/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
モデルアーキテクチャ観点からのDeep Neural Network高速化 -Factorization -Efficient microarchitecture (module) -Pruning -Quantization -Distillation -Early termination
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
2015年5月30日第29回コンピュータビジョン勉強会@関東「有名論文を読む会」発表用資料。 Curriculum Learning [Bengio+, ICML 2009] とその後続を紹介。
深層学習の数理
深層学習の数理
Taiji Suzuki
大阪大学夏季集中講義「データ科学特論I」 深層学習の数理を「表現能力」「汎化能力」「最適化能力」について解説
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
joisino
以下の二つの論文の紹介を中心に、グラフニューラルネットワークとグラフ組合せ問題の交わりについて解説しました。 SIG-FPAI での招待講演の内容に少し修正を加えたものです。 * Learning Combinatorial Optimization Algorithm over Graphs (NIPS 2017) * Approximation Ratios of Graph Neural Networks for Combinatorial Problems (NeurIPS 2019)
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
Keigo Nishida
Layer Normalization論文の紹介スライドです https://arxiv.org/abs/1607.06450 間違い等ありましたらご指摘いただけると嬉しいです
最適輸送入門
最適輸送入門
joisino
IBIS 2021 https://ibisml.org/ibis2021/ における最適輸送についてのチュートリアルスライドです。 『最適輸送の理論とアルゴリズム』好評発売中! https://www.amazon.co.jp/dp/4065305144 Speakerdeck にもアップロードしました: https://speakerdeck.com/joisino/zui-shi-shu-song-ru-men
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Satoshi Kato
All sample codes are available at: https://github.com/katokohaku/tSNE_and_UMAP_using_R_packages
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法 6月10日 (木) 11:00 - 12:30 メイン会場(vimeo + sli.do) 登壇者:松井 孝太 氏(名古屋大学) 概要:転移学習とは、解きたいタスクに対して、それと異なるが似ている他のタスクからの知識(データ、特徴、モデルなど)を利用するための方法を与える機械学習のフレームワークです。深層モデルの学習方法として広く普及している事前学習モデルの利用は、この広義の転移学習の一つの実現形態とみなせます。本発表では、まず何をいつ転移するのか (what/when to transfer) といった転移学習の基本概念と定式化を説明し、具体的な転移学習の主要なアプローチとしてドメイン適応、メタ学習について解説します。
最適輸送の解き方
最適輸送の解き方
joisino
最適輸送問題(Wasserstein 距離)を解く方法についてのさまざまなアプローチ・アルゴリズムを紹介します。 線形計画を使った定式化の基礎からはじめて、以下の五つのアルゴリズムを紹介します。 1. ネットワークシンプレックス法 2. ハンガリアン法 3. Sinkhorn アルゴリズム 4. ニューラルネットワークによる推定 5. スライス法 このスライドは第三回 0x-seminar https://sites.google.com/view/uda-0x-seminar/home/0x03 で使用したものです。自己完結するよう心がけたのでセミナーに参加していない人にも役立つスライドになっています。 『最適輸送の理論とアルゴリズム』好評発売中! https://www.amazon.co.jp/dp/4065305144 Speakerdeck にもアップロードしました: https://speakerdeck.com/joisino/zui-shi-shu-song-nojie-kifang
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
2019/06/14 Deep Learning JP: http://deeplearning.jp/seminar-2/
HiPPO/S4解説
HiPPO/S4解説
Morpho, Inc.
Morpho Tech Bolgより本資料に関する記事をご覧ください。 ・「HiPPO/S4解説」:https://techblog.morphoinc.com/entry/2022/05/24/102648 ・執筆者:CTO室リサーチャー 角田 ・Morpho Tech Blog: https://techblog.morphoinc.com/ ・Morpho, Inc.: https://www.morphoinc.com/
深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
第4回 統計・機械学習若手シンポジウム(11/15)発表資料
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
Gradient Boostingは近年Kaggleなどのコンペティションで注目を集めている分類や回帰問題に対するアルゴリズムの一つである。XGBoost, LightGBM, CatBoostなどが有名ではあるが、それらを土台にして近年はDeepGBMやNGBoostといった新規アルゴリズムの登場、汎化理論解析の進展、モデル解釈性の付与方法の多様化など、理論から応用まで多岐にわたる研究が行われている。本チュートリアルでは、Gradient Boostingに関する近年の研究動向やテクニックを、それらの社会実装までを見据えながら紹介していく。
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
cvpaper.challenge の メタサーベイ発表スライドです。 cvpaper.challengeはコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文サマリ作成・アイディア考案・議論・実装・論文投稿に取り組み、凡ゆる知識を共有します。2020の目標は「トップ会議30+本投稿」することです。 http://xpaperchallenge.org/cv/
[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?
Deep Learning JP
2019/12/27 Deep Learning JP: http://deeplearning.jp/seminar-2/
NIPS Paper Reading, Data Programing
NIPS Paper Reading, Data Programing
Kotaro Tanahashi
NIPS・ICDM2016 paper reading meet up at RCO https://connpass.com/event/48804/
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
Kotaro Tanahashi
Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
More Related Content
What's hot
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
Eiji Uchibe
第25回ステアラボ人工知能セミナー https://stair.connpass.com/event/143745/
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
Sho Tatsuno
生成モデルとかをあまり知らない人にもなるべく分かりやすい説明を心がけたVariational AutoEncoderのスライド 実装と簡単な補足は以下を参照 http://sh-tatsuno.com/blog/index.php/2016/07/30/variationalautoencoder/
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
Yusuke Uchida
2017年12月に開催されたパターン認識・メディア理解研究会(PRMU)にて発表した畳み込みニューラルネットワークのサーベイ 「2012年の画像認識コンペティションILSVRCにおけるAlexNetの登場以降,画像認識においては畳み込みニューラルネットワーク (CNN) を用いることがデファクトスタンダードとなった.ILSVRCでは毎年のように新たなCNNのモデルが提案され,一貫して認識精度の向上に寄与してきた.CNNは画像分類だけではなく,セグメンテーションや物体検出など様々なタスクを解くためのベースネットワークとしても広く利用されてきている. 本稿では,AlexNet以降の代表的なCNNの変遷を振り返るとともに,近年提案されている様々なCNNの改良手法についてサーベイを行い,それらを幾つかのアプローチに分類し,解説する.更に,代表的なモデルについて複数のデータセットを用いて学習および網羅的な精度評価を行い,各モデルの精度および学習時間の傾向について議論を行う.」
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
Deep Learning JP
2020/11/13 Deep Learning JP: http://deeplearning.jp/seminar-2/
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
Yusuke Uchida
モデルアーキテクチャ観点からのDeep Neural Network高速化 -Factorization -Efficient microarchitecture (module) -Pruning -Quantization -Distillation -Early termination
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
Yoshitaka Ushiku
2015年5月30日第29回コンピュータビジョン勉強会@関東「有名論文を読む会」発表用資料。 Curriculum Learning [Bengio+, ICML 2009] とその後続を紹介。
深層学習の数理
深層学習の数理
Taiji Suzuki
大阪大学夏季集中講義「データ科学特論I」 深層学習の数理を「表現能力」「汎化能力」「最適化能力」について解説
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
joisino
以下の二つの論文の紹介を中心に、グラフニューラルネットワークとグラフ組合せ問題の交わりについて解説しました。 SIG-FPAI での招待講演の内容に少し修正を加えたものです。 * Learning Combinatorial Optimization Algorithm over Graphs (NIPS 2017) * Approximation Ratios of Graph Neural Networks for Combinatorial Problems (NeurIPS 2019)
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
Keigo Nishida
Layer Normalization論文の紹介スライドです https://arxiv.org/abs/1607.06450 間違い等ありましたらご指摘いただけると嬉しいです
最適輸送入門
最適輸送入門
joisino
IBIS 2021 https://ibisml.org/ibis2021/ における最適輸送についてのチュートリアルスライドです。 『最適輸送の理論とアルゴリズム』好評発売中! https://www.amazon.co.jp/dp/4065305144 Speakerdeck にもアップロードしました: https://speakerdeck.com/joisino/zui-shi-shu-song-ru-men
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Satoshi Kato
All sample codes are available at: https://github.com/katokohaku/tSNE_and_UMAP_using_R_packages
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法 6月10日 (木) 11:00 - 12:30 メイン会場(vimeo + sli.do) 登壇者:松井 孝太 氏(名古屋大学) 概要:転移学習とは、解きたいタスクに対して、それと異なるが似ている他のタスクからの知識(データ、特徴、モデルなど)を利用するための方法を与える機械学習のフレームワークです。深層モデルの学習方法として広く普及している事前学習モデルの利用は、この広義の転移学習の一つの実現形態とみなせます。本発表では、まず何をいつ転移するのか (what/when to transfer) といった転移学習の基本概念と定式化を説明し、具体的な転移学習の主要なアプローチとしてドメイン適応、メタ学習について解説します。
最適輸送の解き方
最適輸送の解き方
joisino
最適輸送問題(Wasserstein 距離)を解く方法についてのさまざまなアプローチ・アルゴリズムを紹介します。 線形計画を使った定式化の基礎からはじめて、以下の五つのアルゴリズムを紹介します。 1. ネットワークシンプレックス法 2. ハンガリアン法 3. Sinkhorn アルゴリズム 4. ニューラルネットワークによる推定 5. スライス法 このスライドは第三回 0x-seminar https://sites.google.com/view/uda-0x-seminar/home/0x03 で使用したものです。自己完結するよう心がけたのでセミナーに参加していない人にも役立つスライドになっています。 『最適輸送の理論とアルゴリズム』好評発売中! https://www.amazon.co.jp/dp/4065305144 Speakerdeck にもアップロードしました: https://speakerdeck.com/joisino/zui-shi-shu-song-nojie-kifang
グラフィカルモデル入門
グラフィカルモデル入門
Kawamoto_Kazuhiko
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
Deep Learning JP
2019/06/14 Deep Learning JP: http://deeplearning.jp/seminar-2/
HiPPO/S4解説
HiPPO/S4解説
Morpho, Inc.
Morpho Tech Bolgより本資料に関する記事をご覧ください。 ・「HiPPO/S4解説」:https://techblog.morphoinc.com/entry/2022/05/24/102648 ・執筆者:CTO室リサーチャー 角田 ・Morpho Tech Blog: https://techblog.morphoinc.com/ ・Morpho, Inc.: https://www.morphoinc.com/
深層生成モデルと世界モデル
深層生成モデルと世界モデル
Masahiro Suzuki
第4回 統計・機械学習若手シンポジウム(11/15)発表資料
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
Gradient Boostingは近年Kaggleなどのコンペティションで注目を集めている分類や回帰問題に対するアルゴリズムの一つである。XGBoost, LightGBM, CatBoostなどが有名ではあるが、それらを土台にして近年はDeepGBMやNGBoostといった新規アルゴリズムの登場、汎化理論解析の進展、モデル解釈性の付与方法の多様化など、理論から応用まで多岐にわたる研究が行われている。本チュートリアルでは、Gradient Boostingに関する近年の研究動向やテクニックを、それらの社会実装までを見据えながら紹介していく。
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
cvpaper. challenge
cvpaper.challenge の メタサーベイ発表スライドです。 cvpaper.challengeはコンピュータビジョン分野の今を映し、トレンドを創り出す挑戦です。論文サマリ作成・アイディア考案・議論・実装・論文投稿に取り組み、凡ゆる知識を共有します。2020の目標は「トップ会議30+本投稿」することです。 http://xpaperchallenge.org/cv/
[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?
Deep Learning JP
2019/12/27 Deep Learning JP: http://deeplearning.jp/seminar-2/
What's hot
(20)
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
猫でも分かるVariational AutoEncoder
猫でも分かるVariational AutoEncoder
畳み込みニューラルネットワークの研究動向
畳み込みニューラルネットワークの研究動向
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
[DL輪読会]NVAE: A Deep Hierarchical Variational Autoencoder
モデルアーキテクチャ観点からのDeep Neural Network高速化
モデルアーキテクチャ観点からのDeep Neural Network高速化
Curriculum Learning (関東CV勉強会)
Curriculum Learning (関東CV勉強会)
深層学習の数理
深層学習の数理
グラフニューラルネットワークとグラフ組合せ問題
グラフニューラルネットワークとグラフ組合せ問題
Layer Normalization@NIPS+読み会・関西
Layer Normalization@NIPS+読み会・関西
最適輸送入門
最適輸送入門
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
Dimensionality reduction with t-SNE(Rtsne) and UMAP(uwot) using R packages.
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
SSII2021 [OS2-01] 転移学習の基礎:異なるタスクの知識を利用するための機械学習の方法
最適輸送の解き方
最適輸送の解き方
グラフィカルモデル入門
グラフィカルモデル入門
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
[DL輪読会]ドメイン転移と不変表現に関するサーベイ
HiPPO/S4解説
HiPPO/S4解説
深層生成モデルと世界モデル
深層生成モデルと世界モデル
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
自己教師学習(Self-Supervised Learning)
自己教師学習(Self-Supervised Learning)
[DL輪読会]When Does Label Smoothing Help?
[DL輪読会]When Does Label Smoothing Help?
More from Kotaro Tanahashi
NIPS Paper Reading, Data Programing
NIPS Paper Reading, Data Programing
Kotaro Tanahashi
NIPS・ICDM2016 paper reading meet up at RCO https://connpass.com/event/48804/
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
Kotaro Tanahashi
Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
変数の入れ替え(SWAPPING)で最速の方法は?
変数の入れ替え(SWAPPING)で最速の方法は?
Kotaro Tanahashi
変数の入れ替え(SWAPPING)において最速の方法は何か調べてみました
SWARでpop countをしよう
SWARでpop countをしよう
Kotaro Tanahashi
ビット列中の1の数を効率よく数えるためにうまれたSWARについて
Deep Q-Network 論文輪読会
Deep Q-Network 論文輪読会
Kotaro Tanahashi
Deep-Q Networkに関するNatureの論文"Human-level control through deep reinforcement learning"を社内論文輪読会で読みました
2.2. map reduce and the new software stack
2.2. map reduce and the new software stack
Kotaro Tanahashi
mining of massive datasets輪読会資料
Cythonの一喜一憂
Cythonの一喜一憂
Kotaro Tanahashi
Cythonの一喜一憂
deep learning library coyoteの開発(CNN編)
deep learning library coyoteの開発(CNN編)
Kotaro Tanahashi
deep learning library coyoteの開発(CNN編)
recurrent models of visual attentionメモ
recurrent models of visual attentionメモ
Kotaro Tanahashi
recurrent models of visual attentionメモ
情強アルゴリズムDIMSUM
情強アルゴリズムDIMSUM
Kotaro Tanahashi
情強アルゴリズムDIMSUM
Fokker–Planck equation and DPD simulations
Fokker–Planck equation and DPD simulations
Kotaro Tanahashi
Fokker–Planck equation and DPD simulations
DSP開発におけるSpark MLlibの活用
DSP開発におけるSpark MLlibの活用
Kotaro Tanahashi
11/27に行われたRCO study night (https://atnd.org/events/72146)の資料です
How nosql fundamentally changed machine learning?
How nosql fundamentally changed machine learning?
Kotaro Tanahashi
How nosql fundamentally changed machine learning?
More from Kotaro Tanahashi
(13)
NIPS Paper Reading, Data Programing
NIPS Paper Reading, Data Programing
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
WSDM2016読み会 Collaborative Denoising Auto-Encoders for Top-N Recommender Systems
変数の入れ替え(SWAPPING)で最速の方法は?
変数の入れ替え(SWAPPING)で最速の方法は?
SWARでpop countをしよう
SWARでpop countをしよう
Deep Q-Network 論文輪読会
Deep Q-Network 論文輪読会
2.2. map reduce and the new software stack
2.2. map reduce and the new software stack
Cythonの一喜一憂
Cythonの一喜一憂
deep learning library coyoteの開発(CNN編)
deep learning library coyoteの開発(CNN編)
recurrent models of visual attentionメモ
recurrent models of visual attentionメモ
情強アルゴリズムDIMSUM
情強アルゴリズムDIMSUM
Fokker–Planck equation and DPD simulations
Fokker–Planck equation and DPD simulations
DSP開発におけるSpark MLlibの活用
DSP開発におけるSpark MLlibの活用
How nosql fundamentally changed machine learning?
How nosql fundamentally changed machine learning?
LBFGSの実装
1.
情強アルゴリズムL-BFGSの実装 棚橋 耕太郎 2015.11.6
2.
l−bfgsってなに? • l-bfgsはscikit-learnやspark MLlibなどで使われている計算 機に優しい(メモリ使用量が少ない)最適化アルゴリズム •
準ニュートン法の一種 • 今日はスライドが多いので、15秒/1ページでいきます (局所的)最適解
3.
ニュートン法ってなに? ルール • まっすぐしか歩けない • できるだけお金が多い場 所に行ける方向を探した い 近くしか見れない人 (最急降下法) ちょっと遠くも見れる人 (ニュートン法)
4.
つまりこういうことです (局所的)最適解 ちょっと遠くも見れる人 (ニュートン法) 近くしか見れない人 (最急降下法)
5.
そう、こういうことです ヘッセ行列
6.
まとめると、こうなります
7.
本題はここから 自明 自明 Bnを求める手がかりができた!!
8.
もう一つの手がかり
9.
Bnの更新式
10.
疑似コードで書くと
11.
pythonで書くと
12.
全体も実装してみる メイン部分 line-search部分
13.
計算問題を解く
14.
結果
Download now