Submit Search
Upload
Lisp meetup #29 cl-online-learningの紹介
•
2 likes
•
2,271 views
Satoshi imai
Follow
Lisp meetup #29 cl-online-learningの紹介
Read less
Read more
Report
Share
Report
Share
1 of 20
Download now
Download to read offline
Recommended
Lispmeetup #45 Common Lispで音声合成
Lispmeetup #45 Common Lispで音声合成
Satoshi imai
Lispmeetup #45 Common Lispで音声合成
Lispmeetup #39 MGLの紹介: Common Lispによるディープラーニング
Lispmeetup #39 MGLの紹介: Common Lispによるディープラーニング
Satoshi imai
Lispmeetup #39 発表資料
明日使える超高速Ruby - RXbyak (Mitaka.rb #5)
明日使える超高速Ruby - RXbyak (Mitaka.rb #5)
Shuyo Nakatani
Rubyのままで速くなる方法
High performance python computing for data science
High performance python computing for data science
Takami Sato
PyData.Tokyo #4 トーク1の資料です
CVPR2015読み会 "Joint Tracking and Segmentation of Multiple Targets"
CVPR2015読み会 "Joint Tracking and Segmentation of Multiple Targets"
Yuki Nagai
第30回(前編) コンピュータビジョン勉強会@関東 http://kantocv.connpass.com/event/16586/ CVPR2015読み会発表資料 "Joint Tracking and Segmentation of Multiple Targets"
Real world lisp
Real world lisp
秀俊 伊藤
LT大会の資料。 Common Lisp布教用です。
numpyの魅力
numpyの魅力
__106__
numpyの魅力
Introduction to Chainer and CuPy
Introduction to Chainer and CuPy
Kenta Oono
2016/3/19 Chainer Meetup #2
Recommended
Lispmeetup #45 Common Lispで音声合成
Lispmeetup #45 Common Lispで音声合成
Satoshi imai
Lispmeetup #45 Common Lispで音声合成
Lispmeetup #39 MGLの紹介: Common Lispによるディープラーニング
Lispmeetup #39 MGLの紹介: Common Lispによるディープラーニング
Satoshi imai
Lispmeetup #39 発表資料
明日使える超高速Ruby - RXbyak (Mitaka.rb #5)
明日使える超高速Ruby - RXbyak (Mitaka.rb #5)
Shuyo Nakatani
Rubyのままで速くなる方法
High performance python computing for data science
High performance python computing for data science
Takami Sato
PyData.Tokyo #4 トーク1の資料です
CVPR2015読み会 "Joint Tracking and Segmentation of Multiple Targets"
CVPR2015読み会 "Joint Tracking and Segmentation of Multiple Targets"
Yuki Nagai
第30回(前編) コンピュータビジョン勉強会@関東 http://kantocv.connpass.com/event/16586/ CVPR2015読み会発表資料 "Joint Tracking and Segmentation of Multiple Targets"
Real world lisp
Real world lisp
秀俊 伊藤
LT大会の資料。 Common Lisp布教用です。
numpyの魅力
numpyの魅力
__106__
numpyの魅力
Introduction to Chainer and CuPy
Introduction to Chainer and CuPy
Kenta Oono
2016/3/19 Chainer Meetup #2
PythonistaがOCamlを実用する方法
PythonistaがOCamlを実用する方法
Yosuke Onoue
TensorFlow XLA とハードウェア
TensorFlow XLA とハードウェア
Mr. Vengineer
2017年9月30日(土)のChainer Meetup #6での発表資料 https://chainer.connpass.com/event/65093/
二階堂愛と二階堂藍の違いについて
二階堂愛と二階堂藍の違いについて
show you
にかいどうあい と にかいどうあい の違いについて。え、前者は あい って読まないの!?
深層学習フレームワークChainerとその進化
深層学習フレームワークChainerとその進化
Yuya Unno
2017/04/06 Intel AI Dayの講演資料
PyCharm入門
PyCharm入門
Yuki Nagai
第33回コンピュータビジョン勉強会@関東の資料です。
C++のビルド高速化について
C++のビルド高速化について
AimingStudy
My code
My code
俊 中村
研究に使っているコードの紹介
M1 gp
M1 gp
亮介 小林
Rubyで実はwritev(2) が使われているはなし
Rubyで実はwritev(2) が使われているはなし
Masaki Matsushita
大江戸Ruby会議05で発表した内容です
クリスマス?
クリスマス?
sasenomura
クリスマスにやったLT
[DL Hacks]tensorflow/privacy Task-Embedded Control Networks for Few-Shot Imit...
[DL Hacks]tensorflow/privacy Task-Embedded Control Networks for Few-Shot Imit...
Deep Learning JP
2019/01/31 Deep Learning JP: http://deeplearning.jp/hacks/
Tcl/Tkクイック入門
Tcl/Tkクイック入門
nyaocat
PARI/GPの話 @ Ph/shh/bin CTF勉強会LT
PARI/GPの話 @ Ph/shh/bin CTF勉強会LT
__ytoku
2015年7月9日に行われたPh/shh/bin CTF勉強会のLTでPARI/GPについて二本立てでお話しました.
時を超えた JavaScript の道
時を超えた JavaScript の道
Teppei Sato
at Shibuya.js beyond HTML5 (2010/07/30) http://atnd.org/events/6730
2012 12 08_ngk_osm_a
2012 12 08_ngk_osm_a
Tom Hayakawa
2012/12/8 NGK2012 OpenStreetMap なお話し 綺麗なお姉さんは好きですか?
論文紹介 "DARTS: Differentiable Architecture Search"
論文紹介 "DARTS: Differentiable Architecture Search"
Yuta Koreeda
Reading ML paper "DARTS: Differentiable Architecture Search" at Tensorflow User Group Tokyo (Japanese)
Numpy scipy matplotlibの紹介
Numpy scipy matplotlibの紹介
Tatsuro Yasukawa
Ohotech勉強会で発表した時のスライドです. プレゼンでは主に実演に時間を割いていたので, 詳細はブログの方に記載したいと思います. 一ヶ月以内にブログの方にまとめておきます.
CMSI計算科学技術特論A(9) 高速化チューニングとその関連技術2
CMSI計算科学技術特論A(9) 高速化チューニングとその関連技術2
Computational Materials Science Initiative
Autopilot google kubernetes engineでargo workflowsを動かす
Autopilot google kubernetes engineでargo workflowsを動かす
shouta yoshikai
Kubernetes Meetup Tokyo #45 LT
PyOpenCLによるGPGPU入門 Tokyo.SciPy#4 編
PyOpenCLによるGPGPU入門 Tokyo.SciPy#4 編
Yosuke Onoue
Metahub for github
Metahub for github
Suguru Oho
Introduction of metahub as a github utility. TechHills #5 "Go to Git!"
Kubeflowで何ができて何ができないのか #DEvFest18
Kubeflowで何ができて何ができないのか #DEvFest18
Shunya Ueta
2018/09/01 に発表した資料です。 GDG DevFest 18 Tokyo Machine Learning Session site: https://tokyo2018.gdgjapan.org/ml 発表資料 Google Slide: https://docs.google.com/presentation/d/e/2PACX-1vQoGOjPBxkcPLnpRvI39OXbILRAu_Amea_Z9wvhs7pIH6bH5_KQFa4HIwYKGYU8w-x1C-0eiV-k9GCL/pub?start=false&loop=false&delayms=3000
More Related Content
What's hot
PythonistaがOCamlを実用する方法
PythonistaがOCamlを実用する方法
Yosuke Onoue
TensorFlow XLA とハードウェア
TensorFlow XLA とハードウェア
Mr. Vengineer
2017年9月30日(土)のChainer Meetup #6での発表資料 https://chainer.connpass.com/event/65093/
二階堂愛と二階堂藍の違いについて
二階堂愛と二階堂藍の違いについて
show you
にかいどうあい と にかいどうあい の違いについて。え、前者は あい って読まないの!?
深層学習フレームワークChainerとその進化
深層学習フレームワークChainerとその進化
Yuya Unno
2017/04/06 Intel AI Dayの講演資料
PyCharm入門
PyCharm入門
Yuki Nagai
第33回コンピュータビジョン勉強会@関東の資料です。
C++のビルド高速化について
C++のビルド高速化について
AimingStudy
My code
My code
俊 中村
研究に使っているコードの紹介
M1 gp
M1 gp
亮介 小林
Rubyで実はwritev(2) が使われているはなし
Rubyで実はwritev(2) が使われているはなし
Masaki Matsushita
大江戸Ruby会議05で発表した内容です
クリスマス?
クリスマス?
sasenomura
クリスマスにやったLT
[DL Hacks]tensorflow/privacy Task-Embedded Control Networks for Few-Shot Imit...
[DL Hacks]tensorflow/privacy Task-Embedded Control Networks for Few-Shot Imit...
Deep Learning JP
2019/01/31 Deep Learning JP: http://deeplearning.jp/hacks/
Tcl/Tkクイック入門
Tcl/Tkクイック入門
nyaocat
PARI/GPの話 @ Ph/shh/bin CTF勉強会LT
PARI/GPの話 @ Ph/shh/bin CTF勉強会LT
__ytoku
2015年7月9日に行われたPh/shh/bin CTF勉強会のLTでPARI/GPについて二本立てでお話しました.
時を超えた JavaScript の道
時を超えた JavaScript の道
Teppei Sato
at Shibuya.js beyond HTML5 (2010/07/30) http://atnd.org/events/6730
2012 12 08_ngk_osm_a
2012 12 08_ngk_osm_a
Tom Hayakawa
2012/12/8 NGK2012 OpenStreetMap なお話し 綺麗なお姉さんは好きですか?
論文紹介 "DARTS: Differentiable Architecture Search"
論文紹介 "DARTS: Differentiable Architecture Search"
Yuta Koreeda
Reading ML paper "DARTS: Differentiable Architecture Search" at Tensorflow User Group Tokyo (Japanese)
Numpy scipy matplotlibの紹介
Numpy scipy matplotlibの紹介
Tatsuro Yasukawa
Ohotech勉強会で発表した時のスライドです. プレゼンでは主に実演に時間を割いていたので, 詳細はブログの方に記載したいと思います. 一ヶ月以内にブログの方にまとめておきます.
CMSI計算科学技術特論A(9) 高速化チューニングとその関連技術2
CMSI計算科学技術特論A(9) 高速化チューニングとその関連技術2
Computational Materials Science Initiative
Autopilot google kubernetes engineでargo workflowsを動かす
Autopilot google kubernetes engineでargo workflowsを動かす
shouta yoshikai
Kubernetes Meetup Tokyo #45 LT
PyOpenCLによるGPGPU入門 Tokyo.SciPy#4 編
PyOpenCLによるGPGPU入門 Tokyo.SciPy#4 編
Yosuke Onoue
What's hot
(20)
PythonistaがOCamlを実用する方法
PythonistaがOCamlを実用する方法
TensorFlow XLA とハードウェア
TensorFlow XLA とハードウェア
二階堂愛と二階堂藍の違いについて
二階堂愛と二階堂藍の違いについて
深層学習フレームワークChainerとその進化
深層学習フレームワークChainerとその進化
PyCharm入門
PyCharm入門
C++のビルド高速化について
C++のビルド高速化について
My code
My code
M1 gp
M1 gp
Rubyで実はwritev(2) が使われているはなし
Rubyで実はwritev(2) が使われているはなし
クリスマス?
クリスマス?
[DL Hacks]tensorflow/privacy Task-Embedded Control Networks for Few-Shot Imit...
[DL Hacks]tensorflow/privacy Task-Embedded Control Networks for Few-Shot Imit...
Tcl/Tkクイック入門
Tcl/Tkクイック入門
PARI/GPの話 @ Ph/shh/bin CTF勉強会LT
PARI/GPの話 @ Ph/shh/bin CTF勉強会LT
時を超えた JavaScript の道
時を超えた JavaScript の道
2012 12 08_ngk_osm_a
2012 12 08_ngk_osm_a
論文紹介 "DARTS: Differentiable Architecture Search"
論文紹介 "DARTS: Differentiable Architecture Search"
Numpy scipy matplotlibの紹介
Numpy scipy matplotlibの紹介
CMSI計算科学技術特論A(9) 高速化チューニングとその関連技術2
CMSI計算科学技術特論A(9) 高速化チューニングとその関連技術2
Autopilot google kubernetes engineでargo workflowsを動かす
Autopilot google kubernetes engineでargo workflowsを動かす
PyOpenCLによるGPGPU入門 Tokyo.SciPy#4 編
PyOpenCLによるGPGPU入門 Tokyo.SciPy#4 編
Similar to Lisp meetup #29 cl-online-learningの紹介
Metahub for github
Metahub for github
Suguru Oho
Introduction of metahub as a github utility. TechHills #5 "Go to Git!"
Kubeflowで何ができて何ができないのか #DEvFest18
Kubeflowで何ができて何ができないのか #DEvFest18
Shunya Ueta
2018/09/01 に発表した資料です。 GDG DevFest 18 Tokyo Machine Learning Session site: https://tokyo2018.gdgjapan.org/ml 発表資料 Google Slide: https://docs.google.com/presentation/d/e/2PACX-1vQoGOjPBxkcPLnpRvI39OXbILRAu_Amea_Z9wvhs7pIH6bH5_KQFa4HIwYKGYU8w-x1C-0eiV-k9GCL/pub?start=false&loop=false&delayms=3000
Pythonによる並列プログラミング -GPGPUも-
Pythonによる並列プログラミング -GPGPUも-
Yusaku Watanabe
20140828 #ssmjp 社内チューニンガソンで優勝したはなし
20140828 #ssmjp 社内チューニンガソンで優勝したはなし
Masahiro NAKAYAMA
社内チューニンガソンで優勝したはなし @ #ssmjp 20140828
あなたの安心を高速に守る Container-based CI
あなたの安心を高速に守る Container-based CI
Wataru MIYAGUNI
Agile Japan 2015 サテライト<沖縄> https://java-kuche.doorkeeper.jp/events/22305 --- 開発を安心して高速に回すための取り組みの一つに 「テストの実行時間を短縮する」 というものがある。 今回はその一例として、Docker のコンテナ技術を用いてテスト並列実行の高速化かつ安定化を目指した記録を紹介する
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Kotaro Nakayama
An introduction for deep learning implementations such as pyelarn2 and torch7
ロボットシステム学2015年第9回
ロボットシステム学2015年第9回
Ryuichi Ueda
コマンドとGitについて
入門書を読み終わったらなにしよう? 〜Python と WebAPI の使い方から学ぶ次の一歩〜 / next-step-python-programing
入門書を読み終わったらなにしよう? 〜Python と WebAPI の使い方から学ぶ次の一歩〜 / next-step-python-programing
Kei IWASAKI
みんなの Python 勉強会#33 の発表資料です https://startpython.connpass.com/event/73168/
ファイルシステムのスナップショット機能でバックアップを取得する
ファイルシステムのスナップショット機能でバックアップを取得する
Maki Toshio
GitLab Meetup Tokyo #1 LT資料です
Deep Learningハンズオン勉強会「Caffeで画像分類を試してみようの会」
Deep Learningハンズオン勉強会「Caffeで画像分類を試してみようの会」
Yasuyuki Sugai
2015年7月期 AITCオープンラボ Deep Learningハンズオン勉強会~Caffeで画像分類を試してみようの会~
ML system design_pattern
ML system design_pattern
yusuke shibui
Machine learning system design pattern
kompass_GreacとLLM_20230728.pdf
kompass_GreacとLLM_20230728.pdf
ManamiMaeda
2023年7月28日開催【Kompass】にて発表資料 「GreacとLLMの可能性」 【Kompass】とは Kompiraの活用ノウハウをユーザー同士で共有し合うコミュニティです。 企業の枠組みを超え、情報をパスし合う場として、システム運用の効率化・最適化への道を示す羅針盤となることを目的としております。 ※Kompiraについて、https://www.kompira.jp/ 資料公開作業について
俺とGitHub
俺とGitHub
Masayuki KaToH
俺とGitHub 完成版
再考: お買い得物件を機械学習で見つける方法
再考: お買い得物件を機械学習で見つける方法
智志 片桐
修正版: https://speakerdeck.com/ktgrstsh/rethink-method-to-find-cheap-rental-houses-by-machine-learning
Re: 運用に自動化を求めるのは間違っているだろうか
Re: 運用に自動化を求めるのは間違っているだろうか
Masahito Zembutsu
2016年4月23日(土) #qpstudy 2016.04 響け!アラートコール! 発表資料 http://www.zusaar.com/event/12327003
Git & GitHub & kintone でウルトラハッピー!
Git & GitHub & kintone でウルトラハッピー!
ymmt
ブログで補足してます: http://developer.cybozu.co.jp/tech/?p=919 cybozu.com インフラ開発・運用チームのソースコード管理システムを Subversion & Fisheye + Crucible から Git & GitHub & kintone に変えるまでのお話です。
Open whisk slackinvite - public
Open whisk slackinvite - public
Takehiko Amano
Slide used in https://openwhisk.connpass.com/event/49752/
Cloud automator的なものを実装してみる
Cloud automator的なものを実装してみる
saku hatsu
AWS LambdaとSNSを使ってEC2インスタンスのStart/Stopの自動化を実装してみました。
私とOSSの25年
私とOSSの25年
MITSUNARI Shigeo
早稲田大学情報理工学科講演会 20210515
Reco choku tech night #09 -reinvent2018報告会-
Reco choku tech night #09 -reinvent2018報告会-
recotech
2018年12月12日 Reco choku tech night #09 -reinvent2018報告会- のレコチョク報告資料です。
Similar to Lisp meetup #29 cl-online-learningの紹介
(20)
Metahub for github
Metahub for github
Kubeflowで何ができて何ができないのか #DEvFest18
Kubeflowで何ができて何ができないのか #DEvFest18
Pythonによる並列プログラミング -GPGPUも-
Pythonによる並列プログラミング -GPGPUも-
20140828 #ssmjp 社内チューニンガソンで優勝したはなし
20140828 #ssmjp 社内チューニンガソンで優勝したはなし
あなたの安心を高速に守る Container-based CI
あなたの安心を高速に守る Container-based CI
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
Deep Learning Implementations: pylearn2 and torch7 (JNNS 2015)
ロボットシステム学2015年第9回
ロボットシステム学2015年第9回
入門書を読み終わったらなにしよう? 〜Python と WebAPI の使い方から学ぶ次の一歩〜 / next-step-python-programing
入門書を読み終わったらなにしよう? 〜Python と WebAPI の使い方から学ぶ次の一歩〜 / next-step-python-programing
ファイルシステムのスナップショット機能でバックアップを取得する
ファイルシステムのスナップショット機能でバックアップを取得する
Deep Learningハンズオン勉強会「Caffeで画像分類を試してみようの会」
Deep Learningハンズオン勉強会「Caffeで画像分類を試してみようの会」
ML system design_pattern
ML system design_pattern
kompass_GreacとLLM_20230728.pdf
kompass_GreacとLLM_20230728.pdf
俺とGitHub
俺とGitHub
再考: お買い得物件を機械学習で見つける方法
再考: お買い得物件を機械学習で見つける方法
Re: 運用に自動化を求めるのは間違っているだろうか
Re: 運用に自動化を求めるのは間違っているだろうか
Git & GitHub & kintone でウルトラハッピー!
Git & GitHub & kintone でウルトラハッピー!
Open whisk slackinvite - public
Open whisk slackinvite - public
Cloud automator的なものを実装してみる
Cloud automator的なものを実装してみる
私とOSSの25年
私とOSSの25年
Reco choku tech night #09 -reinvent2018報告会-
Reco choku tech night #09 -reinvent2018報告会-
More from Satoshi imai
lispmeetup #73 Common Lispで関係データ学習-スパース非負値テンソル分解の実装
lispmeetup #73 Common Lispで関係データ学習-スパース非負値テンソル分解の実装
Satoshi imai
Shibuya.lisp lispmeetup #73 Common Lispで関係データ学習-スパース非負値テンソル分解の実装 https://lisp.connpass.com/event/120685/ cl-tensor-decomposition https://github.com/masatoi/cl-tensor-decomposition
lispmeetup#63 Common Lispでゼロから作るDeep Learning
lispmeetup#63 Common Lispでゼロから作るDeep Learning
Satoshi imai
lispmeetup#63の発表スライドです
Portacle : Common Lispのオールインワン開発環境
Portacle : Common Lispのオールインワン開発環境
Satoshi imai
Common Lispの開発環境Portacleについてのチュートリアルです。 実用Common Lisp読書会 #2、及びShibuya.lisp lispmeetup #61で使用したスライドです。
Lispmeetup #56 Common lispによるwebスクレイピング技法
Lispmeetup #56 Common lispによるwebスクレイピング技法
Satoshi imai
lispmeetup #56 Common lispによるwebスクレイピング技法
Lispmeetup #53 PythonベースのLisp方言、 Hyのすすめ
Lispmeetup #53 PythonベースのLisp方言、 Hyのすすめ
Satoshi imai
Lispmeetup #53 PythonベースのLisp方言、 Hyのすすめ
Lispmeetup #50 cl-random-forest: Common Lispによるランダムフォレストの実装
Lispmeetup #50 cl-random-forest: Common Lispによるランダムフォレストの実装
Satoshi imai
Lispmeetup #50 cl-random-forest: Common Lispによるランダムフォレストの実装
Lispmeetup48 cl-online-learningによる文書分類
Lispmeetup48 cl-online-learningによる文書分類
Satoshi imai
lispmeetup #48
More from Satoshi imai
(7)
lispmeetup #73 Common Lispで関係データ学習-スパース非負値テンソル分解の実装
lispmeetup #73 Common Lispで関係データ学習-スパース非負値テンソル分解の実装
lispmeetup#63 Common Lispでゼロから作るDeep Learning
lispmeetup#63 Common Lispでゼロから作るDeep Learning
Portacle : Common Lispのオールインワン開発環境
Portacle : Common Lispのオールインワン開発環境
Lispmeetup #56 Common lispによるwebスクレイピング技法
Lispmeetup #56 Common lispによるwebスクレイピング技法
Lispmeetup #53 PythonベースのLisp方言、 Hyのすすめ
Lispmeetup #53 PythonベースのLisp方言、 Hyのすすめ
Lispmeetup #50 cl-random-forest: Common Lispによるランダムフォレストの実装
Lispmeetup #50 cl-random-forest: Common Lispによるランダムフォレストの実装
Lispmeetup48 cl-online-learningによる文書分類
Lispmeetup48 cl-online-learningによる文書分類
Recently uploaded
Grokking Simplicity探訪
Grokking Simplicity探訪
Yoshitaka Kawashima
2024/6/5のアーキ部で話したスライドです。 Stratified Designの目的を中心に、そのメリットを考えてみます。
受発注バスターズ説明資料 株式会社batton Saleshub掲載用.pdf
受発注バスターズ説明資料 株式会社batton Saleshub掲載用.pdf
ooishi1
受発注バスターズ説明資料
FIWARE Orion Context Broker コンテキスト情報管理 (Orion 4.0.0対応)
FIWARE Orion Context Broker コンテキスト情報管理 (Orion 4.0.0対応)
fisuda
FIWARE Orion Context Broker の日本語の解説資料です。Orion Context Broker version 4.0.0 に対応しています。
NIST Cybersecurity Framework 2.0の変更点整理をしよう
NIST Cybersecurity Framework 2.0の変更点整理をしよう
You&I
今年2月に1.1→2.0に更新されたNIST CSFの変更内容について整理したいと思います。
CO2排出量見える化・削減・報告クラウド「アスエネ」サービス紹介_Saleshub.pdf
CO2排出量見える化・削減・報告クラウド「アスエネ」サービス紹介_Saleshub.pdf
yamamotominami
「ASUENE」は、複雑だったCO2排出量算出業務をカンタンにサポートする、CO2排出量見える化・削減・報告クラウドサービスです。温室効果ガス・CO2排出量の算出・可視化、削減・カーボンオフセット、Scope1-3* のサプライチェーン排出量の報告・情報開示を支援します。
アジャイルの30年(Tree Decades of Agileというブログ記事に関する要約)
アジャイルの30年(Tree Decades of Agileというブログ記事に関する要約)
You&I
Tree Decades of Agileというブログ記事が面白そうなので、これを読んでみたいと思います。 http://www.managecomplexity.dk/blog/2024/03/12/three-decades-of-agile/
Recently uploaded
(6)
Grokking Simplicity探訪
Grokking Simplicity探訪
受発注バスターズ説明資料 株式会社batton Saleshub掲載用.pdf
受発注バスターズ説明資料 株式会社batton Saleshub掲載用.pdf
FIWARE Orion Context Broker コンテキスト情報管理 (Orion 4.0.0対応)
FIWARE Orion Context Broker コンテキスト情報管理 (Orion 4.0.0対応)
NIST Cybersecurity Framework 2.0の変更点整理をしよう
NIST Cybersecurity Framework 2.0の変更点整理をしよう
CO2排出量見える化・削減・報告クラウド「アスエネ」サービス紹介_Saleshub.pdf
CO2排出量見える化・削減・報告クラウド「アスエネ」サービス紹介_Saleshub.pdf
アジャイルの30年(Tree Decades of Agileというブログ記事に関する要約)
アジャイルの30年(Tree Decades of Agileというブログ記事に関する要約)
Lisp meetup #29 cl-online-learningの紹介
1.
cl-online-learningの紹介 Satoshi Imai /
今井 悟士 Twitter: @masatoi0 Github: masatoi
2.
これは何か ● cl-online-learning ● 書籍「オンライン機械学習」に出てくる線形 識別器のアルゴリズムからいくつか実装 ● 2値分類と多値分類ができる ●
githubにあります – https://github.com/masatoi/cl-online-learning.git
3.
インストール ● シェルから ● Lisp処理系から – SBCL、CCL、ECL、CLISPで動作確認済み (ql:quickload :clonlinelearning) $
cd ~/quicklisp/localprojects/ $ git clone https://github.com/masatoi/clonlinelearning.git
4.
オンライン学習 ● バッチ学習: 訓練データをまとめて学習する ● オンライン学習: 訓練データを逐次的に学習する –
とにかく速い: 収束が速い、データ数に対して線形時間、省メモリ – リアルタイム処理に組込める – 実装が簡単 – 偏りのあるデータ、ノイズのあるデータに弱い → 対策されたアルゴリズムが出てきた (AROW, SCW)
5.
線形識別器 ● 線形分離可能なデータに対して有効な二値分類器 ● 識別関数f(x)が正か負かでクラスを分ける(xは入力データ点) ● 上手く分けられるようにパラメータ(wとb)を調整する 決定境界
f(x)=0 線形分離可能 線形分離不可能
6.
非線形SVM(バッチ学習) ● 線形分離不可能なデータを高次元の特徴空間に射影して線形分離し ている様子 – https://www.youtube.com/watch?v=3liCbRZPrZA ● 計算量はO(mn^2)
(m: データの次元数、 n: データ数) – データ数が増えてくると無理 – オンライン線形分類器だとO(mn) ● Common Lisp Machine Learningからフォーク – clml-svm (github.com/masatoi/clml-svm)
7.
cl-online-learningで実装している 二値分類アルゴリズム ● 二値分類 – パーセプトロン – 平均化パーセプトロン –
線形SVM – AROW – SCW-I、SCW-II 精度 良い 悪い メタパラメータの数 なし なし 2 1 2
8.
パーセプトロン ● 学習データ: 入力x
と 教師信号y の組 ● パーセプトロン: 以下のルールでwを更新する ● 直近の学習データの影響を受けすぎる → 過去の w の更新差分を平均化 (平均化パーセプトロン) の正負と y を比べてみて、分類に失敗していれば w ← w + y x
9.
AROW ● パラメータ w
が、正規分布からサンプリングされたものと考える – その正規分布の平均 μ と分散 Σ を更新する ● 精度良い、収束速い、学習も安定している ← おすすめ! ● メタパラメータとして正則化パラメータ γ を持つ
10.
AROWは頑健 ● マージン最大化 – 決定境界から一番近いデータとの距離(マージン)を大きくとる ● 特徴量ごとに信頼度をつける – 頻繁に出てきた特徴量の更新量は減らしていく
11.
cl-online-learningで実装している マルチクラス分類アルゴリズム ● 複数個の二値分類器を組み合わせてマルチクラス分類できる ● マルチクラス分類 – 1対多 (one-vs-rest) –
1対1 (one-vs-one) – 誤り訂正出力符号(ECOC) ↑(予定) 必要な二値分類器の数 K個 K(K-1)/2個 K個とK(K-1)/2個の間
12.
one-vs-rest ● クラスの数だけ二値分類器を用意: K個 ● 学習時:
観測されたデータのクラスに対応する学習器では正例、そうで なければ負例として学習 ● 予測時: 全部の学習器で識別関数 を計算して最大の ものに対応するクラスを出力する 1 2 3 各クラスに対応する 学習器 クラス2と ラベルのついた データ 教師信号を -1 として学習 教師信号を +1 として学習 教師信号を -1 として学習
13.
one-vs-one ● 2つのクラスの組合せの数だけ二値分類器を用意: K(K1) / 2
個 ● 学習時: 観測されたクラスのノードに接続する学習器を学習 ● 予測時: 全部の学習器で分類。多数決して一番多かったクラスを出力 1 5 2 4 3 エッジが学習器に対応 1 5 2 4 3 クラス2が観測されたとき +1 -1 +1 -1 +1-1 +1 -1 ノードの数字が若い方を+1とした
14.
使い方(二値分類) ● 学習器をつくる ● データを1個用意 (double-float型のsimple-array) ● 更新する ● 予測する (defparameter input (makearray 3 :elementtype 'doublefloat :initialcontents '(1d0 2d0 3d0))) (defparameter plearner (makeperceptron 3)) (update plearner input 1d0) (predict plearner input) ⇒1.0d0 教師信号 入力次元数
15.
使い方(マルチクラス分類) ● 学習器をつくる ● データを1個用意 (double-float型のsimple-array) ● 更新する ● 予測する (defparameter input (makearray 3 :elementtype 'doublefloat :initialcontents '(1d0 2d0 3d0))) (defparameter mlearner (makeonevsone 4 3 'arow 1d0)) (update mlearner input 2) (predict mlearner input) ⇒1.0d0 教師信号(整数) 入力次元数 クラス数 学習器の型 学習器のメタパラメータ
16.
データセットの学習 ● データセット: 教師信号と入力ベクトルのドット対のリスト – Libsvmのサイトで公開されているデータセットを読み込む ● 訓練データをまとめて訓練する ● テストデータをまとめて予測する (defparameter a9adim 123) (defparameter a9atrain (readlibsvmdata "/path/to/a9a" a9adim)) (defparameter a9atest (readlibsvmdata "/path/to/a9a.t" a9adim)) (train plearner a9atrain) (test plearner a9atest) ; Accuracy: 79.988945%, Correct: 13023, Total: 16281
17.
使用上の注意 ● スケーリング大事 – 入力の各次元が [-1,
1] の範囲に入るようにする ● データの順序大事 – 同じクラスのデータが延々と続くような場合は性能悪化 ● 必要なら順序をシャッフルする
18.
iris ● 入力データ: アヤメの花びらとがくの大きさ
(4次元) ● クラス数3、データ数150
19.
番外:深層学習 ● 特徴選択をどうするかは職人芸 → 深層学習 ● ニューラルネットはオンライン学習できるが、更新ごとの計算量が大きい – ミニバッチをつくってまとめて計算 ●
GPU向きの計算(大きな行列×行列の計算) ● cl-cudaベースの深層学習ライブラリ – github.com/melisgl/mgl
20.
今後の課題 ● 疎ベクトルの演算を実装 ● 誤り訂正出力符号(ECOC)にもとづくマルチクラス分類を実装 ● cl-online-learningから流用してclml-svmもマルチクラス分類できるよ うにする
Download now