Submit Search
Upload
Deep forest
•
Download as PPTX, PDF
•
33 likes
•
13,145 views
naoto moriyama
Follow
https://arxiv.org/pdf/1702.08835.pdfを解説しました
Read less
Read more
Technology
Report
Share
Report
Share
1 of 18
Download now
Recommended
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
Makoto Takenaka
ベイズ統計入門
ベイズ統計入門
Miyoshi Yuya
ニューラルチューリングマシン入門
ニューラルチューリングマシン入門
naoto moriyama
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
Koichi Hamada
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
合成変量とアンサンブル:回帰森と加法モデルの要点
合成変量とアンサンブル:回帰森と加法モデルの要点
Ichigaku Takigawa
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
京都大学大学院情報学研究科数理工学専攻
Rで学ぶ観察データでの因果推定
Rで学ぶ観察データでの因果推定
Hiroki Matsui
Recommended
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
[研究室論文紹介用スライド] Adversarial Contrastive Estimation
Makoto Takenaka
ベイズ統計入門
ベイズ統計入門
Miyoshi Yuya
ニューラルチューリングマシン入門
ニューラルチューリングマシン入門
naoto moriyama
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
「はじめてでもわかる RandomForest 入門-集団学習による分類・予測 -」 -第7回データマイニング+WEB勉強会@東京
Koichi Hamada
PCAの最終形態GPLVMの解説
PCAの最終形態GPLVMの解説
弘毅 露崎
合成変量とアンサンブル:回帰森と加法モデルの要点
合成変量とアンサンブル:回帰森と加法モデルの要点
Ichigaku Takigawa
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
リプシッツ連続性に基づく勾配法・ニュートン型手法の計算量解析
京都大学大学院情報学研究科数理工学専攻
Rで学ぶ観察データでの因果推定
Rで学ぶ観察データでの因果推定
Hiroki Matsui
Random Forestsとその応用
Random Forestsとその応用
MPRG_Chubu_University
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
Nguyen Tuan
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
Issei Kurahashi
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
takehikoihayashi
心理学のためのPsychパッケージ
心理学のためのPsychパッケージ
考司 小杉
[Dl輪読会]introduction of reinforcement learning
[Dl輪読会]introduction of reinforcement learning
Deep Learning JP
ベイジアンネットとレコメンデーション -第5回データマイニング+WEB勉強会@東京
ベイジアンネットとレコメンデーション -第5回データマイニング+WEB勉強会@東京
Koichi Hamada
「診断精度研究のメタ分析」の入門
「診断精度研究のメタ分析」の入門
yokomitsuken5
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
Kei Nakagawa
先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15
Yoichi Ochiai
Graph Attention Network
Graph Attention Network
Takahiro Kubo
非線形データの次元圧縮 150905 WACODE 2nd
非線形データの次元圧縮 150905 WACODE 2nd
Mika Yoshimura
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)
Yusuke Kaneko
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
Deep Learning JP
これからの仮説検証・モデル評価
これからの仮説検証・モデル評価
daiki hojo
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)
Shuyo Nakatani
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
Hidetoshi Matsui
Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用
Yuya Unno
自然言語処理 Word2vec
自然言語処理 Word2vec
naoto moriyama
More Related Content
What's hot
Random Forestsとその応用
Random Forestsとその応用
MPRG_Chubu_University
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
Nguyen Tuan
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
Issei Kurahashi
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
takehikoihayashi
心理学のためのPsychパッケージ
心理学のためのPsychパッケージ
考司 小杉
[Dl輪読会]introduction of reinforcement learning
[Dl輪読会]introduction of reinforcement learning
Deep Learning JP
ベイジアンネットとレコメンデーション -第5回データマイニング+WEB勉強会@東京
ベイジアンネットとレコメンデーション -第5回データマイニング+WEB勉強会@東京
Koichi Hamada
「診断精度研究のメタ分析」の入門
「診断精度研究のメタ分析」の入門
yokomitsuken5
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
hoxo_m
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
takehikoihayashi
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
Kei Nakagawa
先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15
Yoichi Ochiai
Graph Attention Network
Graph Attention Network
Takahiro Kubo
非線形データの次元圧縮 150905 WACODE 2nd
非線形データの次元圧縮 150905 WACODE 2nd
Mika Yoshimura
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)
Yusuke Kaneko
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
Deep Learning JP
これからの仮説検証・モデル評価
これからの仮説検証・モデル評価
daiki hojo
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)
Shuyo Nakatani
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
Hidetoshi Matsui
What's hot
(20)
Random Forestsとその応用
Random Forestsとその応用
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
最近傍探索と直積量子化(Nearest neighbor search and Product Quantization)
統計的因果推論 勉強用 isseing333
統計的因果推論 勉強用 isseing333
『バックドア基準の入門』@統数研研究集会
『バックドア基準の入門』@統数研研究集会
心理学のためのPsychパッケージ
心理学のためのPsychパッケージ
[Dl輪読会]introduction of reinforcement learning
[Dl輪読会]introduction of reinforcement learning
ベイジアンネットとレコメンデーション -第5回データマイニング+WEB勉強会@東京
ベイジアンネットとレコメンデーション -第5回データマイニング+WEB勉強会@東京
「診断精度研究のメタ分析」の入門
「診断精度研究のメタ分析」の入門
機械学習のためのベイズ最適化入門
機械学習のためのベイズ最適化入門
比例ハザードモデルはとってもtricky!
比例ハザードモデルはとってもtricky!
金融時系列のための深層t過程回帰モデル
金融時系列のための深層t過程回帰モデル
先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15
Graph Attention Network
Graph Attention Network
非線形データの次元圧縮 150905 WACODE 2nd
非線形データの次元圧縮 150905 WACODE 2nd
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)
効果のあるクリエイティブ広告の見つけ方(Contextual Bandit + TS or UCB)
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
[DL輪読会]The Neural Process Family−Neural Processes関連の実装を読んで動かしてみる−
これからの仮説検証・モデル評価
これからの仮説検証・モデル評価
無限関係モデル (続・わかりやすいパターン認識 13章)
無限関係モデル (続・わかりやすいパターン認識 13章)
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
スパース推定法による統計モデリング(入門)
スパース推定法による統計モデリング(入門)
Viewers also liked
Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用
Yuya Unno
自然言語処理 Word2vec
自然言語処理 Word2vec
naoto moriyama
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
Shuyo Nakatani
国際化時代の40カ国語言語判定
国際化時代の40カ国語言語判定
Shuyo Nakatani
RecSys 2015: Large-scale real-time product recommendation at Criteo
RecSys 2015: Large-scale real-time product recommendation at Criteo
Romain Lerallut
coordinate descent 法について
coordinate descent 法について
京都大学大学院情報学研究科数理工学専攻
情報推薦システム入門:講義スライド
情報推薦システム入門:講義スライド
Kenta Oku
Latent factor models for Collaborative Filtering
Latent factor models for Collaborative Filtering
sscdotopen
自然言語処理
自然言語処理
naoto moriyama
JP Chaosmap 2015-2016
JP Chaosmap 2015-2016
Hiroshi Kondo
Ensembles of example dependent cost-sensitive decision trees slides
Ensembles of example dependent cost-sensitive decision trees slides
Alejandro Correa Bahnsen, PhD
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト
Teppei Baba
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
Yuya Unno
Viewers also liked
(13)
Chainerのテスト環境とDockerでのCUDAの利用
Chainerのテスト環境とDockerでのCUDAの利用
自然言語処理 Word2vec
自然言語処理 Word2vec
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
どの言語でつぶやかれたのか、機械が知る方法 #WebDBf2013
国際化時代の40カ国語言語判定
国際化時代の40カ国語言語判定
RecSys 2015: Large-scale real-time product recommendation at Criteo
RecSys 2015: Large-scale real-time product recommendation at Criteo
coordinate descent 法について
coordinate descent 法について
情報推薦システム入門:講義スライド
情報推薦システム入門:講義スライド
Latent factor models for Collaborative Filtering
Latent factor models for Collaborative Filtering
自然言語処理
自然言語処理
JP Chaosmap 2015-2016
JP Chaosmap 2015-2016
Ensembles of example dependent cost-sensitive decision trees slides
Ensembles of example dependent cost-sensitive decision trees slides
機会学習ハッカソン:ランダムフォレスト
機会学習ハッカソン:ランダムフォレスト
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
Recently uploaded
ロボットマニピュレーションの作業・動作計画 / rosjp_planning_for_robotic_manipulation_20240521
ロボットマニピュレーションの作業・動作計画 / rosjp_planning_for_robotic_manipulation_20240521
Satoshi Makita
MPAなWebフレームワーク、Astroの紹介 (その1) 2024/05/17の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その1) 2024/05/17の勉強会で発表されたものです。
iPride Co., Ltd.
クラウド時代におけるSREとUPWARDの取組ーUPWARD株式会社 CTO門畑
クラウド時代におけるSREとUPWARDの取組ーUPWARD株式会社 CTO門畑
Akihiro Kadohata
研究紹介スライド: オフライン強化学習に基づくロボティックスワームの制御器の設計
研究紹介スライド: オフライン強化学習に基づくロボティックスワームの制御器の設計
atsushi061452
LoRaWAN無位置ロープ型水漏れセンサー WL03A-LB/LSカタログ ファイル
LoRaWAN無位置ロープ型水漏れセンサー WL03A-LB/LSカタログ ファイル
CRI Japan, Inc.
Intranet Development v1.0 (TSG LIVE! 12 LT )
Intranet Development v1.0 (TSG LIVE! 12 LT )
iwashiira2ctf
情報を表現するときのポイント
情報を表現するときのポイント
onozaty
ネットワーク可視化 振る舞い検知(NDR)ご紹介_キンドリル202405.pdf
ネットワーク可視化 振る舞い検知(NDR)ご紹介_キンドリル202405.pdf
Takayuki Nakayama
Hyperledger Fabricコミュニティ活動体験& Hyperledger Fabric最新状況ご紹介
Hyperledger Fabricコミュニティ活動体験& Hyperledger Fabric最新状況ご紹介
Hyperleger Tokyo Meetup
部内勉強会(IT用語ざっくり学習) 実施日:2024年5月17日(金) 対象者:営業部社員
部内勉強会(IT用語ざっくり学習) 実施日:2024年5月17日(金) 対象者:営業部社員
Sadaomi Nishi
LoRaWAN無位置ロープ式水漏れセンサーWL03A 日本語マニュアル
LoRaWAN無位置ロープ式水漏れセンサーWL03A 日本語マニュアル
CRI Japan, Inc.
2024年5月17日 先駆的科学計算フォーラム2024 機械学習を用いた新たなゲーム体験の創出の応用
2024年5月17日 先駆的科学計算フォーラム2024 機械学習を用いた新たなゲーム体験の創出の応用
KLab Inc. / Tech
5/22 第23回 Customer系エンジニア座談会のスライド 公開用 西口瑛一
5/22 第23回 Customer系エンジニア座談会のスライド 公開用 西口瑛一
瑛一 西口
Keywordmap overview material/CINC.co.ltd
Keywordmap overview material/CINC.co.ltd
kokinagano2
Recently uploaded
(14)
ロボットマニピュレーションの作業・動作計画 / rosjp_planning_for_robotic_manipulation_20240521
ロボットマニピュレーションの作業・動作計画 / rosjp_planning_for_robotic_manipulation_20240521
MPAなWebフレームワーク、Astroの紹介 (その1) 2024/05/17の勉強会で発表されたものです。
MPAなWebフレームワーク、Astroの紹介 (その1) 2024/05/17の勉強会で発表されたものです。
クラウド時代におけるSREとUPWARDの取組ーUPWARD株式会社 CTO門畑
クラウド時代におけるSREとUPWARDの取組ーUPWARD株式会社 CTO門畑
研究紹介スライド: オフライン強化学習に基づくロボティックスワームの制御器の設計
研究紹介スライド: オフライン強化学習に基づくロボティックスワームの制御器の設計
LoRaWAN無位置ロープ型水漏れセンサー WL03A-LB/LSカタログ ファイル
LoRaWAN無位置ロープ型水漏れセンサー WL03A-LB/LSカタログ ファイル
Intranet Development v1.0 (TSG LIVE! 12 LT )
Intranet Development v1.0 (TSG LIVE! 12 LT )
情報を表現するときのポイント
情報を表現するときのポイント
ネットワーク可視化 振る舞い検知(NDR)ご紹介_キンドリル202405.pdf
ネットワーク可視化 振る舞い検知(NDR)ご紹介_キンドリル202405.pdf
Hyperledger Fabricコミュニティ活動体験& Hyperledger Fabric最新状況ご紹介
Hyperledger Fabricコミュニティ活動体験& Hyperledger Fabric最新状況ご紹介
部内勉強会(IT用語ざっくり学習) 実施日:2024年5月17日(金) 対象者:営業部社員
部内勉強会(IT用語ざっくり学習) 実施日:2024年5月17日(金) 対象者:営業部社員
LoRaWAN無位置ロープ式水漏れセンサーWL03A 日本語マニュアル
LoRaWAN無位置ロープ式水漏れセンサーWL03A 日本語マニュアル
2024年5月17日 先駆的科学計算フォーラム2024 機械学習を用いた新たなゲーム体験の創出の応用
2024年5月17日 先駆的科学計算フォーラム2024 機械学習を用いた新たなゲーム体験の創出の応用
5/22 第23回 Customer系エンジニア座談会のスライド 公開用 西口瑛一
5/22 第23回 Customer系エンジニア座談会のスライド 公開用 西口瑛一
Keywordmap overview material/CINC.co.ltd
Keywordmap overview material/CINC.co.ltd
Deep forest
1.
Deep Forest ~ニューラルネットの代替えに向けて~
2.
• 森山 直人(もりやま
なおと) • もともと中国国籍 ⇒ 帰化(国籍変更)して日本人に • 趣味でpythonを始める(仕事はエンジニアではない) • 勢いでディープラーニング始める(自然言語) • 趣味でKaggleやってます
3.
• すべて個人の見解による内容であり、所属会社、団体の公式見解 ではありません • 概念理解を優先しているため、一部厳密の定義は割愛しています
4.
今日話すこと Deep forestという論文が界隈で注目され、論文に込められ た並々ならぬ情熱に感銘を受け、 (論文通りに動くのなら)機械学習界隈に大きなインパクト をもたらす可能性を感じた Deep Forest:Towards
An Alternative to Deep Neural Networks https://arxiv.org/pdf/1702.08835.pdf
5.
論文のサマリ ニューラルネットと同等な計算精度を持つアンサンブル決定 木モデルを用いて、ニューラルネットの代替えを提案 • パラメータ調整の簡易化がもたらす計算速度 • GPUリソースを必要としない低リソース •
木構造の性質である簡易な並列化 • 小規模なデータから効率よく学習可能
6.
事前知識-決定木関連 決定木 -規則を設けて識別境界を設ける アンサンブル学習 -複数の決定木の結果を合わせて識別器を作る バギング -複数の識別器の結果から多数決で出力を決める ランダムフォレスト -バギングに制限を設けて分散を抑える この本がわかり やすいです
7.
事前知識-ニューラルネットワーク 入力層 中間層 出力層 中間層(隠れ層)をもつ全結合の有向グラフ ■強み • 単調な非線形表現を積み重なることで、 複雑な非線形表現(合成関数)を獲得 • パターン認識問題が得意 ■弱み •
現在のデータだけでなく、過去の情報が必要な 問題は苦手 • 初期に学習された情報は忘れてしまう
8.
ニューラルネットのココがだめ • 大量なデータがないと精度が出ない • ↑このデータを作るコストが高い •
大量な計算資源を要する • パラメータが多く、そのチューニングが大変 • 人の手を介さずに特徴を抽出できるのが利点と言われるが、 実際のところかなり細かいチューニングが必要 • 論理的な理解が難しい
9.
gcForestのココが素晴らしい ※gcForestは本論文が提案するアンサンブル決定木モデル • 少量なデータで学習できる • パラメータが少なく、チューニングが簡易 •
CPUのみのgcForestとGPUありのニューラルネットの 計算速度が互角 • 論理解析が簡単
10.
以降gcForestの概念を論文に沿って 説明して行きます
11.
gcForestの概念 • gcForestはmulti-Grained Cascade
forestの略 • Cascadeはこんなイメージ 上流から下流へたくさんの段を構 成し情報が流れる 写真では不変な水が流れるが、本 モデルでは段ごとにそれぞれ計算 がなされる http://www.geocities.jp/emkj20002000/newpage53.htmlより引用
12.
Cascade forest 3クラス分類の問題をgcForestで解くケースを例を考える https://arxiv.org/pdf/1702.08835.pdf
13.
Cascade forest ①学習デー タ入力 ②前ページのような 複数のcascade (段)を構築 ③各段ではそれぞれ決定木と ランダムフォレストの2種類の 分類器を設ける ④出力段では3クラスそれぞれの 確率を出力 https://arxiv.org/pdf/1702.08835.pdf
14.
Cascade forest 一つの段の中で起きている計算は下記のようになる https://arxiv.org/pdf/1702.08835.pdf ①それぞれの決定器(ランダム フォレストで計算を行い、出力ク ラスの推定を行う ②最終出力では全てのフォ レストの出力の平均を取る ※学習時には、過学習を防ぐためのクロスバリ デーションは行われる
15.
Multi-Grained Scanning RNN(LSTM)の入力ミニバッチとCNNの畳込み概念を用いて学習デー タから特徴量の抽出を行うことでさらに近い性能を引き出す ①時系列データを一定区間ごとにずらし てミニバッチを作る。 (どちらかと言えばword2vecに近い) ②おなじみのCNNプーリング
16.
gcForestの処理流れ ①Multi-Grained Scanningで前処理 ここでは3種類のプーリングを合算 ②Cascade forestで出力計算
17.
ベンチマーク MNISTの画像分類 ORLデータセットの顔認識 GTZANデータセットの音楽分類 生体データ(手の動き)認証 その他多数あり
18.
まとめ • 決定木ベースのアンサンブル学習であるランダムフォレ ストを更に多層(段)で構築したgcForestを紹介した • 著者のニューラルネットへの代替えに対する情熱が凄ま じく、理論的に可能であることも感覚的に理解できる •
利便性と低リソース観点から、XGBoostに次ぐ学習器と して期待できそう(個人感) • PythonかRで実装できたらKaggleで流行ると思われる
Download now