Submit Search
Upload
ラベル付けのいろは
•
Download as PPTX, PDF
•
7 likes
•
18,803 views
Kensuke Mitsuzawa
Follow
ラベル付けの方法を解説する資料です。
Read less
Read more
Data & Analytics
Report
Share
Report
Share
1 of 17
Download now
Recommended
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
Naoaki Okazaki
言語処理学会第22回年次大会ワークショップ「論文に書かない(書けない)自然言語処理」
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
Takahiro Kubo
機械学習におけるコード設計のベストプラクティスについて
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Hideki Tsunashima
tmp
BERT分類ワークショップ.pptx
BERT分類ワークショップ.pptx
Kouta Nakayama
理化学研究所 言語情報アクセス技術チーム主催 BERT分類ワークショップの資料です。 http://shinra-project.info/shinra2022/bert_workshop_shinra2022/ BERTの説明、実行可能なColabコード、質問に関する回答が含まれています。
最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925
小川 雄太郎
・自己教師あり学習 ・半教師あり学習 ・転移学習 ・メタ学習 ・模倣学習 ・逆強化学習 ・能動学習(Active Learning) について 「概要」、「代表的アルゴリズム名」、 「各内容を学ぶためのおすすめチュートリアル動画」を解説しています 2020年9月25日 理系ナビ DLエンジニアトレーニングプログラム
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
Hirokatsu Kataoka
サーベイ方法やアイディアの発想法についてまとめました.
研究法(Claimとは)
研究法(Claimとは)
Jun Rekimoto
暦本研(東京大学情報学環)の研究法ガイダンス資料です claimとは アイデア生産の三要素 天使度/悪魔度
Recommended
研究室における研究・実装ノウハウの共有
研究室における研究・実装ノウハウの共有
Naoaki Okazaki
言語処理学会第22回年次大会ワークショップ「論文に書かない(書けない)自然言語処理」
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
Takahiro Kubo
機械学習におけるコード設計のベストプラクティスについて
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Disentanglement Survey:Can You Explain How Much Are Generative models Disenta...
Hideki Tsunashima
tmp
BERT分類ワークショップ.pptx
BERT分類ワークショップ.pptx
Kouta Nakayama
理化学研究所 言語情報アクセス技術チーム主催 BERT分類ワークショップの資料です。 http://shinra-project.info/shinra2022/bert_workshop_shinra2022/ BERTの説明、実行可能なColabコード、質問に関する回答が含まれています。
最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925
小川 雄太郎
・自己教師あり学習 ・半教師あり学習 ・転移学習 ・メタ学習 ・模倣学習 ・逆強化学習 ・能動学習(Active Learning) について 「概要」、「代表的アルゴリズム名」、 「各内容を学ぶためのおすすめチュートリアル動画」を解説しています 2020年9月25日 理系ナビ DLエンジニアトレーニングプログラム
CV分野におけるサーベイ方法
CV分野におけるサーベイ方法
Hirokatsu Kataoka
サーベイ方法やアイディアの発想法についてまとめました.
研究法(Claimとは)
研究法(Claimとは)
Jun Rekimoto
暦本研(東京大学情報学環)の研究法ガイダンス資料です claimとは アイデア生産の三要素 天使度/悪魔度
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
2021/12/03 Deep Learning JP: http://deeplearning.jp/seminar-2/
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
Yahoo!デベロッパーネットワーク
第1回Webインテリジェンスとインタラクションセミナー(いまさら訊けないシリーズ「言語処理技術」)での発表資料です。 https://www.sigwi2.org/next-sig
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用
Hiroyuki Masuda
社内勉強会での発表資料です。 「失敗事例を通じて、機械学習の検討で抑えるべきポイントを学ぶ」をコンセプトに作成しました。AI・機械学習を検討する広くの方々に活用していただけると幸いです。 あとがきを下記に書きました。よければこちらもご参照ください。 https://qiita.com/bezilla/items/1e1abac767e10d0817d1
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
Deep Learning JP
2022/02/04 Deep Learning JP: http://deeplearning.jp/seminar-2/
BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装
Deep Learning Lab(ディープラーニング・ラボ)
株式会社電通国際情報サービス 小川雄太郎 氏
最適輸送入門
最適輸送入門
joisino
IBIS 2021 https://ibisml.org/ibis2021/ における最適輸送についてのチュートリアルスライドです。 『最適輸送の理論とアルゴリズム』好評発売中! https://www.amazon.co.jp/dp/4065305144 Speakerdeck にもアップロードしました: https://speakerdeck.com/joisino/zui-shi-shu-song-ru-men
先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15
Yoichi Ochiai
筑波大学情報学群情報メディア創成学類 先端技術とメディア表現の講義スライド 第一回目です. 最初に教員の自己紹介が入っています.
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
2020/6/11 画像センシングシンポジウム オーガナイズドセッション2 「限られたデータからの深層学習」 https://confit.atlas.jp/guide/event/ssii2020/static/organized#OS2 での招待講演資料です。 コンピュータビジョン分野を中心とした転移学習についての講演です。 パブリックなデータセットも増えていて、物体検出や領域分割などの研究も盛んですが、実際に社会実装しようとするときのデータは学習データと異なる性質(異なるドメイン)のデータである場合も非常に多いです。 本講演では、そのような場合に有効なドメイン適応の原理となるアプローチ2つと応用としての物体検出と領域分割の事例を紹介しています。
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Deep Learning JP
2022/9/2 Deep Learning JP http://deeplearning.jp/seminar-2/
画像認識モデルを作るための鉄板レシピ
画像認識モデルを作るための鉄板レシピ
Takahiro Kubo
画像認識は現在、仕事・趣味と幅広い場面で欠かせないものとなってきています。その手段として機械学習を用いることももはや常識的になっていると言っても過言ではなく、そのためのチュートリアルも数多くあります。 ただ一方で、機械学習のもとになる「学習データの作り方」についてはあまり情報がありません。 本編では、この「データの取り方、処理方法(下ごしらえ)」にフォーカスした解説を進めていきます。
ビジネスパーソンのためのDX入門講座エッセンス版
ビジネスパーソンのためのDX入門講座エッセンス版
Tokoroten Nakayama
Aidemyで公開されている「ビジネスパーソンのためのDX入門講座」の紹介プレゼンです。 以下の講演で発表した資料です https://aidemy.connpass.com/event/197780/
充足可能性問題のいろいろ
充足可能性問題のいろいろ
Hiroshi Yamashita
2019年3月のJOI春合宿で行った講義のスライドです
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
第9回全日本コンピュータビジョン勉強会「ICCV2021論文読み会」の発表資料です https://kantocv.connpass.com/event/228283/ ICCV'21 Best PaperであるSwin Transformerを完全に理解するためにふんだんに余談を盛り込んだ資料となります
論文の書き方入門 2017
論文の書き方入門 2017
Hironori Washizaki
鷲崎弘宜, "論文の書き方入門 2017", SQiP研究会 ミニ講座, 2017年10月13日, 東京.
ベータ分布の謎に迫る
ベータ分布の謎に迫る
Ken'ichi Matsui
社内の勉強会で発表した、ベータ分布を直感的に理解する試みを紹介します。
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
Deep Learning JP
2022/7/1 Deep Learning JP http://deeplearning.jp/seminar-2/
最適輸送の解き方
最適輸送の解き方
joisino
最適輸送問題(Wasserstein 距離)を解く方法についてのさまざまなアプローチ・アルゴリズムを紹介します。 線形計画を使った定式化の基礎からはじめて、以下の五つのアルゴリズムを紹介します。 1. ネットワークシンプレックス法 2. ハンガリアン法 3. Sinkhorn アルゴリズム 4. ニューラルネットワークによる推定 5. スライス法 このスライドは第三回 0x-seminar https://sites.google.com/view/uda-0x-seminar/home/0x03 で使用したものです。自己完結するよう心がけたのでセミナーに参加していない人にも役立つスライドになっています。 『最適輸送の理論とアルゴリズム』好評発売中! https://www.amazon.co.jp/dp/4065305144 Speakerdeck にもアップロードしました: https://speakerdeck.com/joisino/zui-shi-shu-song-nojie-kifang
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
KCS Keio Computer Society
ELBO型VAEのダメなところ
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Yamato OKAMOTO
Domain Adaptationについてこれまでの発展と動向をまとめたサーベイ資料です。Adversarial Learning(敵対学習)が用いられたり、セマンティックな情報を保持するためにReconstruction-LOSSが導入されたり、今年のICMLではクラス重心を用いた手法が提案されたりと、目覚ましい発展を続けています。
CuPy解説
CuPy解説
Ryosuke Okuta
CuPyの簡単な解説を行います。NumPyと比較してCuPyによりどのくらい早くなるかや、利用上の注意点(メモリプール)について説明します。 ElementwiseKenrnel, ReductionKernelの使い方も解説します。 CuPyの実装のすごーくざっくーりした全体概要にも触れます。
ニューラルネットワーク入門
ニューラルネットワーク入門
naoto moriyama
ニューラルネットワークの基礎であるパーセプトロンから、勾配計算までの概念をまとめました。
Pythonで機械学習入門以前
Pythonで機械学習入門以前
Kimikazu Kato
2016/6/7 みんなのPython勉強会で発表した資料です。 scikit-learnの初心者向けに、データのまとめ方やドキュメントを読む時の心構えについて書いてあります。
More Related Content
What's hot
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
2021/12/03 Deep Learning JP: http://deeplearning.jp/seminar-2/
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
Yahoo!デベロッパーネットワーク
第1回Webインテリジェンスとインタラクションセミナー(いまさら訊けないシリーズ「言語処理技術」)での発表資料です。 https://www.sigwi2.org/next-sig
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用
Hiroyuki Masuda
社内勉強会での発表資料です。 「失敗事例を通じて、機械学習の検討で抑えるべきポイントを学ぶ」をコンセプトに作成しました。AI・機械学習を検討する広くの方々に活用していただけると幸いです。 あとがきを下記に書きました。よければこちらもご参照ください。 https://qiita.com/bezilla/items/1e1abac767e10d0817d1
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
Deep Learning JP
2022/02/04 Deep Learning JP: http://deeplearning.jp/seminar-2/
BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装
Deep Learning Lab(ディープラーニング・ラボ)
株式会社電通国際情報サービス 小川雄太郎 氏
最適輸送入門
最適輸送入門
joisino
IBIS 2021 https://ibisml.org/ibis2021/ における最適輸送についてのチュートリアルスライドです。 『最適輸送の理論とアルゴリズム』好評発売中! https://www.amazon.co.jp/dp/4065305144 Speakerdeck にもアップロードしました: https://speakerdeck.com/joisino/zui-shi-shu-song-ru-men
先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15
Yoichi Ochiai
筑波大学情報学群情報メディア創成学類 先端技術とメディア表現の講義スライド 第一回目です. 最初に教員の自己紹介が入っています.
ドメイン適応の原理と応用
ドメイン適応の原理と応用
Yoshitaka Ushiku
2020/6/11 画像センシングシンポジウム オーガナイズドセッション2 「限られたデータからの深層学習」 https://confit.atlas.jp/guide/event/ssii2020/static/organized#OS2 での招待講演資料です。 コンピュータビジョン分野を中心とした転移学習についての講演です。 パブリックなデータセットも増えていて、物体検出や領域分割などの研究も盛んですが、実際に社会実装しようとするときのデータは学習データと異なる性質(異なるドメイン)のデータである場合も非常に多いです。 本講演では、そのような場合に有効なドメイン適応の原理となるアプローチ2つと応用としての物体検出と領域分割の事例を紹介しています。
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Deep Learning JP
2022/9/2 Deep Learning JP http://deeplearning.jp/seminar-2/
画像認識モデルを作るための鉄板レシピ
画像認識モデルを作るための鉄板レシピ
Takahiro Kubo
画像認識は現在、仕事・趣味と幅広い場面で欠かせないものとなってきています。その手段として機械学習を用いることももはや常識的になっていると言っても過言ではなく、そのためのチュートリアルも数多くあります。 ただ一方で、機械学習のもとになる「学習データの作り方」についてはあまり情報がありません。 本編では、この「データの取り方、処理方法(下ごしらえ)」にフォーカスした解説を進めていきます。
ビジネスパーソンのためのDX入門講座エッセンス版
ビジネスパーソンのためのDX入門講座エッセンス版
Tokoroten Nakayama
Aidemyで公開されている「ビジネスパーソンのためのDX入門講座」の紹介プレゼンです。 以下の講演で発表した資料です https://aidemy.connpass.com/event/197780/
充足可能性問題のいろいろ
充足可能性問題のいろいろ
Hiroshi Yamashita
2019年3月のJOI春合宿で行った講義のスライドです
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
第9回全日本コンピュータビジョン勉強会「ICCV2021論文読み会」の発表資料です https://kantocv.connpass.com/event/228283/ ICCV'21 Best PaperであるSwin Transformerを完全に理解するためにふんだんに余談を盛り込んだ資料となります
論文の書き方入門 2017
論文の書き方入門 2017
Hironori Washizaki
鷲崎弘宜, "論文の書き方入門 2017", SQiP研究会 ミニ講座, 2017年10月13日, 東京.
ベータ分布の謎に迫る
ベータ分布の謎に迫る
Ken'ichi Matsui
社内の勉強会で発表した、ベータ分布を直感的に理解する試みを紹介します。
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
Deep Learning JP
2022/7/1 Deep Learning JP http://deeplearning.jp/seminar-2/
最適輸送の解き方
最適輸送の解き方
joisino
最適輸送問題(Wasserstein 距離)を解く方法についてのさまざまなアプローチ・アルゴリズムを紹介します。 線形計画を使った定式化の基礎からはじめて、以下の五つのアルゴリズムを紹介します。 1. ネットワークシンプレックス法 2. ハンガリアン法 3. Sinkhorn アルゴリズム 4. ニューラルネットワークによる推定 5. スライス法 このスライドは第三回 0x-seminar https://sites.google.com/view/uda-0x-seminar/home/0x03 で使用したものです。自己完結するよう心がけたのでセミナーに参加していない人にも役立つスライドになっています。 『最適輸送の理論とアルゴリズム』好評発売中! https://www.amazon.co.jp/dp/4065305144 Speakerdeck にもアップロードしました: https://speakerdeck.com/joisino/zui-shi-shu-song-nojie-kifang
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
KCS Keio Computer Society
ELBO型VAEのダメなところ
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Yamato OKAMOTO
Domain Adaptationについてこれまでの発展と動向をまとめたサーベイ資料です。Adversarial Learning(敵対学習)が用いられたり、セマンティックな情報を保持するためにReconstruction-LOSSが導入されたり、今年のICMLではクラス重心を用いた手法が提案されたりと、目覚ましい発展を続けています。
CuPy解説
CuPy解説
Ryosuke Okuta
CuPyの簡単な解説を行います。NumPyと比較してCuPyによりどのくらい早くなるかや、利用上の注意点(メモリプール)について説明します。 ElementwiseKenrnel, ReductionKernelの使い方も解説します。 CuPyの実装のすごーくざっくーりした全体概要にも触れます。
What's hot
(20)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
深層学習による自然言語処理入門: word2vecからBERT, GPT-3まで
失敗から学ぶ機械学習応用
失敗から学ぶ機械学習応用
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
[DL輪読会]data2vec: A General Framework for Self-supervised Learning in Speech,...
BlackBox モデルの説明性・解釈性技術の実装
BlackBox モデルの説明性・解釈性技術の実装
最適輸送入門
最適輸送入門
先端技術とメディア表現1 #FTMA15
先端技術とメディア表現1 #FTMA15
ドメイン適応の原理と応用
ドメイン適応の原理と応用
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
画像認識モデルを作るための鉄板レシピ
画像認識モデルを作るための鉄板レシピ
ビジネスパーソンのためのDX入門講座エッセンス版
ビジネスパーソンのためのDX入門講座エッセンス版
充足可能性問題のいろいろ
充足可能性問題のいろいろ
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
論文の書き方入門 2017
論文の書き方入門 2017
ベータ分布の謎に迫る
ベータ分布の謎に迫る
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
【DL輪読会】How Much Can CLIP Benefit Vision-and-Language Tasks?
最適輸送の解き方
最適輸送の解き方
ELBO型VAEのダメなところ
ELBO型VAEのダメなところ
Domain Adaptation 発展と動向まとめ(サーベイ資料)
Domain Adaptation 発展と動向まとめ(サーベイ資料)
CuPy解説
CuPy解説
Viewers also liked
ニューラルネットワーク入門
ニューラルネットワーク入門
naoto moriyama
ニューラルネットワークの基礎であるパーセプトロンから、勾配計算までの概念をまとめました。
Pythonで機械学習入門以前
Pythonで機械学習入門以前
Kimikazu Kato
2016/6/7 みんなのPython勉強会で発表した資料です。 scikit-learnの初心者向けに、データのまとめ方やドキュメントを読む時の心構えについて書いてあります。
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015
Ryosuke Okuta
Deep Learning の簡単な説明から実装、そしてChainer の使い方を紹介します。CUDA サポートについても簡単に解説します。 最新のインストール方法も含んでいます。
機械学習概論 講義テキスト
機械学習概論 講義テキスト
Etsuji Nakai
2015/04/14 初期バージョン 2015/04/16 ver1.4(参考資料追加、k平均法の解説追加など) 2015/04/20 ver1.5(最大対数尤度関数の評価、混合分布によるクラスタリングを追加) 2015/04/21 ver1.6(EM法のアルゴリズム説明を追加) 2015/04/24 ver1.7(その他の性能指標を追加) 2015/05/19 ver1.8(ギリシャ文字ベクトルフォントの修正、その他リファクタリング) 2015/05/25 ver1.9(EM法の初期データ画像を追加) 2015/06/07 ver2.1(セミナー用に修正) 2015/06/24 ver2.2(EM法の説明を追加) 2016/09/01 ver2.3(誤字修正) 2016/12/27 ver1.0 タイトルを変更 2016/07/07 ver1.4 Update
Pythonを使った機械学習の学習
Pythonを使った機械学習の学習
Kimikazu Kato
2017年1月27日、found it project勉強会で発表した資料です。 機械学習を勉強するためにどうPythonを役立てればいいかという話です。
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
Ken Morishita
この続きでTheanoの使い方について簡単に書きました:http://qiita.com/items/3fbf6af714c1f66f99e9
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
徹 上野山
TensorFlow の基本的な使い方やコーディング方法を、線形重回帰やロジスティック回帰、パーセプトロンの実装例を通じて解説しています。(機械学習初心者向け) ※2016/02/27に開催した「GDG京都 機械学習勉強会」で発表した資料です。
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tatsuya Tojima
Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~
nlab_utokyo
Deep Learningと画像認識 ~歴史・理論・実践~
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル
敦志 金谷
大阪Pythonユーザの集まり 2014/03 で発表した資料 http://connpass.com/event/5361/
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
Yuya Unno
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
Ryota Kamoshida
某所で機械学習の講習会(?)のようなものをしたときの資料です. 機械学習によるデータ分析について,アルゴリズムやツールの使い方*以外*の部分で 重要だと思うことを重点的にまとめたつもりです.
Viewers also liked
(12)
ニューラルネットワーク入門
ニューラルネットワーク入門
Pythonで機械学習入門以前
Pythonで機械学習入門以前
Chainerチュートリアル -v1.5向け- ViEW2015
Chainerチュートリアル -v1.5向け- ViEW2015
機械学習概論 講義テキスト
機械学習概論 講義テキスト
Pythonを使った機械学習の学習
Pythonを使った機械学習の学習
Pythonとdeep learningで手書き文字認識
Pythonとdeep learningで手書き文字認識
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
TensorFlow を使った機械学習ことはじめ (GDG京都 機械学習勉強会)
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Tokyo.R 41 サポートベクターマシンで眼鏡っ娘分類システム構築
Deep Learningと画像認識 ~歴史・理論・実践~
Deep Learningと画像認識 ~歴史・理論・実践~
scikit-learnを用いた機械学習チュートリアル
scikit-learnを用いた機械学習チュートリアル
機械学習チュートリアル@Jubatus Casual Talks
機械学習チュートリアル@Jubatus Casual Talks
機械学習によるデータ分析まわりのお話
機械学習によるデータ分析まわりのお話
Similar to ラベル付けのいろは
普段の仕事に活かせるキャッチコピー力養成実習
普段の仕事に活かせるキャッチコピー力養成実習
schoowebcampus
ーーーーーーーーーーーーーーーーーーーーーーー schoo WEB-campusは「WEBに誕生した、学校の新しいカタチ」。 WEB生放送の授業を無料で配信しています。 ▼こちらから授業に参加すると、先生への質問や、ユーザーとのチャット、資料の拡大表示等が可能です。 https://schoo.jp/class/247/room ーーーーーーーーーーーーーーーーーーーーーーー
アプリ開発を効率化する 方法あれこれ
アプリ開発を効率化する 方法あれこれ
Atsushi Mizoue
アプリ開発以外にも適用できる効率化についてあれこれいってます。
書く技術・話す技術 勉強会サポートプログラム
書く技術・話す技術 勉強会サポートプログラム
Mizuhiro Kaimai
わかりやすく書く技術・話す技術の勉強会開催をサポートするプログラムです。
スモールリーダーシップ読書会ワークショップ
スモールリーダーシップ読書会ワークショップ
Yukei Wachi
「デブサミ関西 2017」で開催した読書会ワークショップのスライドです。 http://event.shoeisha.jp/devsumi/20170908/
バスケ複業エンジニアのたのしみ
バスケ複業エンジニアのたのしみ
Taku Watanabe
Cybozu Tech Conf 2017 の懇親会LTで発表したスライドです。
ソースコードを読んでみよう
ソースコードを読んでみよう
Shun Tsunoda
in wacate 2017 winter
20210509研修・セミナーに繋がる 「ゲームの進め方」の話
20210509研修・セミナーに繋がる 「ゲームの進め方」の話
Yasuhide Ishigami
2021/5/9プレゼン内容スライド いわゆる「インスト」の話ですが実際には頭出ししか出来ておらず何も回答は出ていません。今後整理が必要と分かった次第。
スクラムのフレームワークでKAIZENを体験しよう comeback japan 2017
スクラムのフレームワークでKAIZENを体験しよう comeback japan 2017
HIDEKAZU MATSUURA
comeback japan 2017で実施したワークショップの内容および様子をまとめてアップしました。
20220921_今日からRPA推進者!(教育編)_提出用.pdf
20220921_今日からRPA推進者!(教育編)_提出用.pdf
KYOSOPRAS
2022.09.21 登壇資料
推し技術書「ユースケース駆動開発実践ガイド」
推し技術書「ユースケース駆動開発実践ガイド」
keitasudo1
「推しが100万部売れて欲しい!」 推し技術書LT大会(https://connpass.com/event/183677/)で発表した資料
アジャイル開発へのイテレーション・ゼロ
アジャイル開発へのイテレーション・ゼロ
Taisuke Shiratori
2012/07/03 第3回アジャイルサムライ読書会inファンコミュニケーションズ道場で発表した資料
教えてみてわかった、新しいことを覚えるしくみ
教えてみてわかった、新しいことを覚えるしくみ
Mori Kazue
「日々新しいことの出てくるWeb系の技術を自分が勉強するために心がけていることをまとめました」 CSS Nite in KOBE, Vol.1 セッション1 スライド http://cssnite-kobe.jp/cssnitekobe1/
○○について考える
○○について考える
きなこ 桜庭
研究室内勉強会にて作成した資料本のWEB再録です
アジャイル開発を始めてみませんか?(思い出編)
アジャイル開発を始めてみませんか?(思い出編)
Miho Nagase
「コーダーとしての価値を高めるウェブ解析活用術」CSS Nite 20191019
「コーダーとしての価値を高めるウェブ解析活用術」CSS Nite 20191019
大輔 井水
ウェブサイトを運用する上で解析ツ―ルを設置することは当たり前のようになっている反面、タグが乱立して正常に管理できているウェブサイトはそう多くはありません。 さらに、ビジネスに役立つデータを取得できているサイトとなると、ごくわずかなサイトに限られるのが現状です。 本セッションでは、解析タグを一元管理するうえで欠かせないGoogleタグマネージャーの活用方法から、ビジネスに役立つデータを取得する上でコーダーが配慮するべきポイントをお伝えします。
make the Japanese NPO sales tool better
make the Japanese NPO sales tool better
Ryo Ishihara
就職活動ぴゅ~ひゃらり~
就職活動ぴゅ~ひゃらり~
YanoLabLT
今日からはじめる「じぶんブランディング」
今日からはじめる「じぶんブランディング」
Sunami Hokuto
WCAN 2011 Winter での角南のライトニングトーク。
5分でわかる 怖くない機械学習
5分でわかる 怖くない機械学習
__john_smith__
プログラミング生放送のLT
Dev lobe20090325v1.0
Dev lobe20090325v1.0
walnut210
Similar to ラベル付けのいろは
(20)
普段の仕事に活かせるキャッチコピー力養成実習
普段の仕事に活かせるキャッチコピー力養成実習
アプリ開発を効率化する 方法あれこれ
アプリ開発を効率化する 方法あれこれ
書く技術・話す技術 勉強会サポートプログラム
書く技術・話す技術 勉強会サポートプログラム
スモールリーダーシップ読書会ワークショップ
スモールリーダーシップ読書会ワークショップ
バスケ複業エンジニアのたのしみ
バスケ複業エンジニアのたのしみ
ソースコードを読んでみよう
ソースコードを読んでみよう
20210509研修・セミナーに繋がる 「ゲームの進め方」の話
20210509研修・セミナーに繋がる 「ゲームの進め方」の話
スクラムのフレームワークでKAIZENを体験しよう comeback japan 2017
スクラムのフレームワークでKAIZENを体験しよう comeback japan 2017
20220921_今日からRPA推進者!(教育編)_提出用.pdf
20220921_今日からRPA推進者!(教育編)_提出用.pdf
推し技術書「ユースケース駆動開発実践ガイド」
推し技術書「ユースケース駆動開発実践ガイド」
アジャイル開発へのイテレーション・ゼロ
アジャイル開発へのイテレーション・ゼロ
教えてみてわかった、新しいことを覚えるしくみ
教えてみてわかった、新しいことを覚えるしくみ
○○について考える
○○について考える
アジャイル開発を始めてみませんか?(思い出編)
アジャイル開発を始めてみませんか?(思い出編)
「コーダーとしての価値を高めるウェブ解析活用術」CSS Nite 20191019
「コーダーとしての価値を高めるウェブ解析活用術」CSS Nite 20191019
make the Japanese NPO sales tool better
make the Japanese NPO sales tool better
就職活動ぴゅ~ひゃらり~
就職活動ぴゅ~ひゃらり~
今日からはじめる「じぶんブランディング」
今日からはじめる「じぶんブランディング」
5分でわかる 怖くない機械学習
5分でわかる 怖くない機械学習
Dev lobe20090325v1.0
Dev lobe20090325v1.0
More from Kensuke Mitsuzawa
サポーターズ勉強会スライド 2018/2/27
サポーターズ勉強会スライド 2018/2/27
Kensuke Mitsuzawa
このイベント向けの解説資料です https://supporterz-seminar.connpass.com/event/79712/
サポーターズ勉強会スライド
サポーターズ勉強会スライド
Kensuke Mitsuzawa
サポーターズ勉強会スライド https://supporterz.jp/spevents/detail/890
形態素解析器の比較できるPythonパッケージつくった話
形態素解析器の比較できるPythonパッケージつくった話
Kensuke Mitsuzawa
Package is available at https://pypi.python.org/pypi/JapaneseTokenizer
アダルトデータマイニングの勧め
アダルトデータマイニングの勧め
Kensuke Mitsuzawa
LT向けに作成した資料。 データマイニングでアダルトデータを分析すると、「こんなに楽しいんだよ!」っていう紹介的な感じ。
slides for "Supervised Model Learning with Feature Grouping based on a Discre...
slides for "Supervised Model Learning with Feature Grouping based on a Discre...
Kensuke Mitsuzawa
Learning to rankの評価手法
Learning to rankの評価手法
Kensuke Mitsuzawa
Brml 3.3 d-separation
Brml 3.3 d-separation
Kensuke Mitsuzawa
More from Kensuke Mitsuzawa
(7)
サポーターズ勉強会スライド 2018/2/27
サポーターズ勉強会スライド 2018/2/27
サポーターズ勉強会スライド
サポーターズ勉強会スライド
形態素解析器の比較できるPythonパッケージつくった話
形態素解析器の比較できるPythonパッケージつくった話
アダルトデータマイニングの勧め
アダルトデータマイニングの勧め
slides for "Supervised Model Learning with Feature Grouping based on a Discre...
slides for "Supervised Model Learning with Feature Grouping based on a Discre...
Learning to rankの評価手法
Learning to rankの評価手法
Brml 3.3 d-separation
Brml 3.3 d-separation
ラベル付けのいろは
1.
ラベル付けのいろは 2015/12/7 Kensuke Mitsuzawa
2.
この資料を読むとわかること そもそもラベル付けはなんのためにするの? どんなラベルを用意したらいいの? どれくらいのラベル数なら妥当なの? ラベル付けは何人でやったらいいの? ラベル付け作業をどうやって評価するの?
3.
ラベル付けは何のためにするの? 「教師あり学習」の機械学習を実行するための必要不可欠なデータです 学習 フェーズ ラベル付きデータ 女性 バイク クラス分類モデル 「学習」※ ※日本語では「学習」または「訓練」と言います。「知能学習」とかわけのわからない言葉を使っていた会社を見たことありますが、そういうのは好きじゃないです。 英語では”training”と言うのが一般的です
4.
ラベル付けは何のためにするの? 「教師あり学習」の機械学習を実行するための必要不可欠なデータです 学習 フェーズ ラベル付きデータ 女性 バイク クラス分類モデル 予測 フェーズ 学習済み クラス分類モデル ラベルなしデータ 「女性」 「学習」※ 「予測」 ※日本語では「学習」または「訓練」と言います。「知能学習」とかわけのわからない言葉を使っていた会社を見たことありますが、そういうのは好きじゃないです。 英語では”training”と言うのが一般的です
5.
どんなラベルを用意したらいいの? 「誰が見ても同じ基準で分類できる」ラベル体系にするのが理想です 人間が見て曖昧なラベルは、機械でも解けません 悪いラベル例 ラベルのタイプ 『「風景」、「人」』の2ラベルの場合 風景 人
人?風景?
6.
どんなラベルを用意したらいいの? 「誰が見ても同じ基準で分類できる」ラベル体系にするのが理想です 人間が見て曖昧なラベルは、機械でも解けません 悪いラベル例 ラベルのタイプ 『「風景」、「人」』 風景 人
人?風景? バッド・パターン パターン1「風景」「人」のラベル体系が不適切 パターン2「風景と人が混同しやすい」データは排除されるべき
7.
「その他」ラベルが存在している場合の対処法 悪い分類器の組み方 人 風景 データ その他 データ 関係あるデータ 関係ないデータ 人
風景 「その他」ラベルが存在する場合、問題を分割する方が良いです 「その他」or Notを判断するためのクラス分類器を用意しましょう 良い分類器の組み方 「その他」を判断する 分類器を作ります
8.
どれくらいのラベル数を用意したらいいの? 「できる限り少なくする」が理想です ベストは2ラベルにすることです なぜ2ラベルにしないといけないのか? ラベルが3以上になると、機械学習モデルの難易度が高くなります つまり、思うように精度が出ません。ラベル数が多くなればなるほど、問題は難しくなります 2ラベルだけの分類 3ラベル以上の分類 赤線は「分離する線が引かれるところ」の可能性 3ラベル以上だと線の可能性が多くなる =解くべき問題が難しくなる
9.
実務では2ラベルでは役にたたない。どうすれば? できる限り階層化して、1つの分類器が分類する数を減らします データ ラベル1 ラベル2 ラベル3
ラベル4 ラベル5 ラベル6 ラベル7 例えば、7クラス分類をやりたい場合
10.
実務では2ラベルでは役にたたない。どうすれば? できる限り階層化して、1つの分類器が分類する数を減らします ラベル ラベル ラベル ラベル4
ラベル5 ラベル データ ラベル1 ラベル2 ラベル3 ラベル6 ラベル7
11.
実務では2ラベルでは役にたたない。どうすれば? できる限り階層化して、1つの分類器が分類する数を減らします ただの2分類になるので、 問題が簡単に ラベル ラベル ラベル ラベル4
ラベル5 ラベル データ ラベル1 ラベル2 ラベル3 ラベル6 ラベル7
12.
ラベル付けは何人でやったらいいの? 最低でも、2人で同じタグ付けをするようにします (「2人で手分けしてする」という意味ではありません。「2人ですべてのデータにタグ付けする」という意味です)
13.
ラベル付けは何人でやったらいいの? 最低でも、2人で同じタグ付けをするようにします (「2人で手分けしてする」という意味ではありません。「2人ですべてのデータにタグ付けする」という意味です) なぜ2人で冗長な作業をしなければいけないのか? 「学習のためのラベルは属人的なんでしょ?人によって違うかもしれないじゃん。信用できんよ」 を避けるためです。(こういうことを言う人は必ずいます。ビジネスであっても、研究であっても変わりはありません) 2人以上でラベルづけをすると 「できる限り普遍的なラベルである」と言えます 研究上でも認められている手法です
14.
どのように2人で作業をするの? 「タグ付け→認識確認」を最低でも1回は行います サンプリング1 100データくらいをサンプリングします トライアルタグ付け2 サンプリングしたデータにタグ付けをします 認識確認3 タグ付けデータを確認します。タグが不一致の場合は 「タグ付けのルール再確認」or
「ルールの追加」をします 不一致タグが多すぎる場合は、「タグ体系」の設計を見直してください 本タグ付け作業4 タグ付け作業を本格的に開始します (タグ付け済みのデータもスキップせずに最初からやり直します)
15.
本作業の進め方 本作業の前に「タグが不一致だった場合の対処法」を決定します パターン1 タグが不一致だったら、データは捨てる パターン2 タグが不一致だったら、すべて協議する パターン1の場合
パターン2の場合 メリット 機械学習がするべき問題が簡単になります (人間の直感に合わないデータを捨てるため) デメリット 学習用のデータが少なくなります メリット 学習用のデータが確保できます デメリット 機械学習がする問題が難しくなります 協議するために余計な時間がかかります
16.
本作業の進め方 本作業の前に「タグが不一致だった場合の対処法」を決定します パターン1 タグが不一致だったら、データは捨てる パターン2 タグが不一致だったら、すべて協議する パターン1の場合
パターン2の場合 メリット 機械学習がするべき問題が簡単になります (人間の直感に合わないデータを捨てるため) デメリット 学習用のデータが少なくなります メリット 学習用のデータが確保できます デメリット 機械学習がする問題が難しくなります 協議するために余計な時間がかかります パターン2の場合 「わからない」タグを導入し ておくとよいです
17.
ラベル付け作業はどうやって評価するの? (参考までに)研究上では、「論文でタグ付け一致度」の報告が義務です ※ 報告がない論文は怖い人にクソミソにけなされます。もしくは受理されません 心配な場合は、「カッパ係数」を計算しておきます。 タイミングは「データを捨てる」or「協議してタグを一致させる」前です カッパ係数とは? 「2つ以上のデータの一致度」を調べる数値です。カッパ係数>= 0.81で「とても良い」と言えます (参考)カッパ係数とは? Excelでも計算できますが、めんどうくさいので、相談してください。
Download now