Submit Search
Upload
それでも私が研究を続ける理由
•
8 likes
•
4,416 views
H
Hitomi Yanaka
Follow
谷中瞳, それでも私が研究を続ける理由, 言語処理学会第27回年次大会ワークショップ「若手研究者交流のニューノーマルを考える」, (2021.3).
Read less
Read more
Education
Report
Share
Report
Share
1 of 21
Download now
Download to read offline
Recommended
モデルではなく、データセットを蒸留する
モデルではなく、データセットを蒸留する
Takahiro Kubo
Dataset Distillationの解説
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
2021/12/03 Deep Learning JP: http://deeplearning.jp/seminar-2/
能動学習セミナー
能動学習セミナー
Preferred Networks
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
MACHINE LEARNING Meetup KANSAI #4 https://mlm-kansai.connpass.com/event/119084/ での、能見さんの発表資料です。
研究分野をサーベイする
研究分野をサーベイする
Takayuki Itoh
お茶の水女子大学伊藤研究室ゼミ資料 関連資料として以下が参考になります https://note.com/sick4989hack/n/n928f78d3d33f
XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性
西岡 賢一郎
2021/0925の機械学習の社会実装勉強会で発表した資料です。
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
Koichiro Mori
マルチモーダル深層学習の研究動向をまとめました。
最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925
小川 雄太郎
・自己教師あり学習 ・半教師あり学習 ・転移学習 ・メタ学習 ・模倣学習 ・逆強化学習 ・能動学習(Active Learning) について 「概要」、「代表的アルゴリズム名」、 「各内容を学ぶためのおすすめチュートリアル動画」を解説しています 2020年9月25日 理系ナビ DLエンジニアトレーニングプログラム
Recommended
モデルではなく、データセットを蒸留する
モデルではなく、データセットを蒸留する
Takahiro Kubo
Dataset Distillationの解説
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
【DL輪読会】SimCSE: Simple Contrastive Learning of Sentence Embeddings (EMNLP 2021)
Deep Learning JP
2021/12/03 Deep Learning JP: http://deeplearning.jp/seminar-2/
能動学習セミナー
能動学習セミナー
Preferred Networks
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
最近のKaggleに学ぶテーブルデータの特徴量エンジニアリング
mlm_kansai
MACHINE LEARNING Meetup KANSAI #4 https://mlm-kansai.connpass.com/event/119084/ での、能見さんの発表資料です。
研究分野をサーベイする
研究分野をサーベイする
Takayuki Itoh
お茶の水女子大学伊藤研究室ゼミ資料 関連資料として以下が参考になります https://note.com/sick4989hack/n/n928f78d3d33f
XAI (説明可能なAI) の必要性
XAI (説明可能なAI) の必要性
西岡 賢一郎
2021/0925の機械学習の社会実装勉強会で発表した資料です。
マルチモーダル深層学習の研究動向
マルチモーダル深層学習の研究動向
Koichiro Mori
マルチモーダル深層学習の研究動向をまとめました。
最近のディープラーニングのトレンド紹介_20200925
最近のディープラーニングのトレンド紹介_20200925
小川 雄太郎
・自己教師あり学習 ・半教師あり学習 ・転移学習 ・メタ学習 ・模倣学習 ・逆強化学習 ・能動学習(Active Learning) について 「概要」、「代表的アルゴリズム名」、 「各内容を学ぶためのおすすめチュートリアル動画」を解説しています 2020年9月25日 理系ナビ DLエンジニアトレーニングプログラム
AHC-Lab M1勉強会 論文の読み方・書き方
AHC-Lab M1勉強会 論文の読み方・書き方
Shinagawa Seitaro
NAIST知能コミュニケーション研究室で行われたM1勉強会(2018)の「論文の読み方・書き方」で発表したスライドです 訂正:p.16のCHI勉強会のリンクが間違ってました。正しくはこちらです(http://sigchi.jp/seminar/chi2018/)
リクルート式 自然言語処理技術の適応事例紹介
リクルート式 自然言語処理技術の適応事例紹介
Recruit Technologies
2015/11/20 数理システムユーザーコンファレンス 2015での、池田の講演資料になります
ゼロから始める自然言語処理 【FIT2016チュートリアル】
ゼロから始める自然言語処理 【FIT2016チュートリアル】
Yuki Arase
テキストマイニングして知識抽出,に初めて取り組む方へ向けたチュートリアルです.
「世界モデル」と関連研究について
「世界モデル」と関連研究について
Masahiro Suzuki
強化学習アーキテクチャ勉強会の資料
深層学習の数理
深層学習の数理
Taiji Suzuki
大阪大学夏季集中講義「データ科学特論I」 深層学習の数理を「表現能力」「汎化能力」「最適化能力」について解説
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
Satoshi Hara
【第40回AIセミナー】 「説明できるAI 〜AIはブラックボックスなのか?〜」 https://www.airc.aist.go.jp/seminar_detail/seminar_040.html 【講演タイトル】 機械学習モデルの判断根拠の説明 【講演概要】 本講演では、機械学習モデルの判断根拠を提示するための説明法について紹介する。高精度な認識・識別が可能な機械学習モデルは一般に非常に複雑な構造をしており、どのような基準で判断が下されているかを人間が窺い知ることは困難である。このようなモデルのブラックボックス性を解消するために、近年様々なモデルの説明法が研究・提案されてきている。本講演ではこれら近年の代表的な説明法について紹介する。
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
Gradient Boostingは近年Kaggleなどのコンペティションで注目を集めている分類や回帰問題に対するアルゴリズムの一つである。XGBoost, LightGBM, CatBoostなどが有名ではあるが、それらを土台にして近年はDeepGBMやNGBoostといった新規アルゴリズムの登場、汎化理論解析の進展、モデル解釈性の付与方法の多様化など、理論から応用まで多岐にわたる研究が行われている。本チュートリアルでは、Gradient Boostingに関する近年の研究動向やテクニックを、それらの社会実装までを見据えながら紹介していく。
SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)
Kazuyuki Wakasugi
SHAPライブラリの計算の仕組みを知るために、木構造を対象とした論文を読み、理解できた内容をまとめた。
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
2023/1/13 Deep Learning JP http://deeplearning.jp/seminar-2/
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
東大数理有志研究会(takamatsu26)、機械学習勉強会(Math-iine Learning)での発表資料.
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
Deep Learning JP
2023/1/6 Deep Learning JP http://deeplearning.jp/seminar-2/
道具としての機械学習:直感的概要とその実際
道具としての機械学習:直感的概要とその実際
Ichigaku Takigawa
2017年3月9日 @ 北大・地球環境科学研究院 「地球流体データ解析・数値計算ワークショップ 」 https://www.gfd-dennou.org/library/davis/workshop/2017-03-08/ 地球流体電脳倶楽部 https://www.gfd-dennou.org/index.html
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Deep Learning JP
2022/9/2 Deep Learning JP http://deeplearning.jp/seminar-2/
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
Takahiro Kubo
機械学習におけるコード設計のベストプラクティスについて
生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
PFIセミナー(2016/02/25)で発表したスライドです。伝承サンプリング可能な生成モデルに関するDeep Learningの紹介です(キーワード:Wake-Sleep, 変分 AutoEncoder, Generative Adversarial Nets, Likelihood Ratio)
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
2022/01/07 Deep Learning JP: http://deeplearning.jp/seminar-2/
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用
Ryo Iwaki
強化学習と方策勾配法をざっくり 注: 全体を通して割引報酬による定式化のみを考慮. p. 4:状態価値関数の図は割引をちゃんと考慮してないイメージ図 ミスたち: p. 33:行動が確率変数ではないため -> 大嘘,行動は決定論的に決められるから
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
Deep Learning JP
2018/12/21 Deep Learning JP: http://deeplearning.jp/seminar-2/
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
Eiji Uchibe
第25回ステアラボ人工知能セミナー https://stair.connpass.com/event/143745/
工学系大学4年生のための論文の読み方
工学系大学4年生のための論文の読み方
ychtanaka
「研究室に配属されて突然先生から論文を渡されたけどどうやって読めばいいか分からない」「修士だけどもっと論文を読むスピードを上げたい」という人向けに論文の読み方をまとめました。主に電気・電子・情報系をターゲットにしていますが、他の分野でも役に立つと思います。
Service Design Roundtable on 2/15/2014, Y. Sawatani
Service Design Roundtable on 2/15/2014, Y. Sawatani
Yuriko Sawatani
[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー
[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー
Deep Learning Lab(ディープラーニング・ラボ)
2020/8/1 Deep Learning Digital Conference 早稲田大学 理工学術院 基幹理工学部 表現工学科 教授 次世代ロボット研究機構 AIロボット研究所 所長 一般社団法人日本ディープラーニング協会 理事 尾形 哲也 氏
More Related Content
What's hot
AHC-Lab M1勉強会 論文の読み方・書き方
AHC-Lab M1勉強会 論文の読み方・書き方
Shinagawa Seitaro
NAIST知能コミュニケーション研究室で行われたM1勉強会(2018)の「論文の読み方・書き方」で発表したスライドです 訂正:p.16のCHI勉強会のリンクが間違ってました。正しくはこちらです(http://sigchi.jp/seminar/chi2018/)
リクルート式 自然言語処理技術の適応事例紹介
リクルート式 自然言語処理技術の適応事例紹介
Recruit Technologies
2015/11/20 数理システムユーザーコンファレンス 2015での、池田の講演資料になります
ゼロから始める自然言語処理 【FIT2016チュートリアル】
ゼロから始める自然言語処理 【FIT2016チュートリアル】
Yuki Arase
テキストマイニングして知識抽出,に初めて取り組む方へ向けたチュートリアルです.
「世界モデル」と関連研究について
「世界モデル」と関連研究について
Masahiro Suzuki
強化学習アーキテクチャ勉強会の資料
深層学習の数理
深層学習の数理
Taiji Suzuki
大阪大学夏季集中講義「データ科学特論I」 深層学習の数理を「表現能力」「汎化能力」「最適化能力」について解説
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
Satoshi Hara
【第40回AIセミナー】 「説明できるAI 〜AIはブラックボックスなのか?〜」 https://www.airc.aist.go.jp/seminar_detail/seminar_040.html 【講演タイトル】 機械学習モデルの判断根拠の説明 【講演概要】 本講演では、機械学習モデルの判断根拠を提示するための説明法について紹介する。高精度な認識・識別が可能な機械学習モデルは一般に非常に複雑な構造をしており、どのような基準で判断が下されているかを人間が窺い知ることは困難である。このようなモデルのブラックボックス性を解消するために、近年様々なモデルの説明法が研究・提案されてきている。本講演ではこれら近年の代表的な説明法について紹介する。
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
RyuichiKanoh
Gradient Boostingは近年Kaggleなどのコンペティションで注目を集めている分類や回帰問題に対するアルゴリズムの一つである。XGBoost, LightGBM, CatBoostなどが有名ではあるが、それらを土台にして近年はDeepGBMやNGBoostといった新規アルゴリズムの登場、汎化理論解析の進展、モデル解釈性の付与方法の多様化など、理論から応用まで多岐にわたる研究が行われている。本チュートリアルでは、Gradient Boostingに関する近年の研究動向やテクニックを、それらの社会実装までを見据えながら紹介していく。
SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)
Kazuyuki Wakasugi
SHAPライブラリの計算の仕組みを知るために、木構造を対象とした論文を読み、理解できた内容をまとめた。
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
Deep Learning JP
2023/1/13 Deep Learning JP http://deeplearning.jp/seminar-2/
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
ohken
東大数理有志研究会(takamatsu26)、機械学習勉強会(Math-iine Learning)での発表資料.
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
Deep Learning JP
2023/1/6 Deep Learning JP http://deeplearning.jp/seminar-2/
道具としての機械学習:直感的概要とその実際
道具としての機械学習:直感的概要とその実際
Ichigaku Takigawa
2017年3月9日 @ 北大・地球環境科学研究院 「地球流体データ解析・数値計算ワークショップ 」 https://www.gfd-dennou.org/library/davis/workshop/2017-03-08/ 地球流体電脳倶楽部 https://www.gfd-dennou.org/index.html
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
Deep Learning JP
2022/9/2 Deep Learning JP http://deeplearning.jp/seminar-2/
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
Takahiro Kubo
機械学習におけるコード設計のベストプラクティスについて
生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
PFIセミナー(2016/02/25)で発表したスライドです。伝承サンプリング可能な生成モデルに関するDeep Learningの紹介です(キーワード:Wake-Sleep, 変分 AutoEncoder, Generative Adversarial Nets, Likelihood Ratio)
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
Deep Learning JP
2022/01/07 Deep Learning JP: http://deeplearning.jp/seminar-2/
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用
Ryo Iwaki
強化学習と方策勾配法をざっくり 注: 全体を通して割引報酬による定式化のみを考慮. p. 4:状態価値関数の図は割引をちゃんと考慮してないイメージ図 ミスたち: p. 33:行動が確率変数ではないため -> 大嘘,行動は決定論的に決められるから
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
Deep Learning JP
2018/12/21 Deep Learning JP: http://deeplearning.jp/seminar-2/
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
Eiji Uchibe
第25回ステアラボ人工知能セミナー https://stair.connpass.com/event/143745/
工学系大学4年生のための論文の読み方
工学系大学4年生のための論文の読み方
ychtanaka
「研究室に配属されて突然先生から論文を渡されたけどどうやって読めばいいか分からない」「修士だけどもっと論文を読むスピードを上げたい」という人向けに論文の読み方をまとめました。主に電気・電子・情報系をターゲットにしていますが、他の分野でも役に立つと思います。
What's hot
(20)
AHC-Lab M1勉強会 論文の読み方・書き方
AHC-Lab M1勉強会 論文の読み方・書き方
リクルート式 自然言語処理技術の適応事例紹介
リクルート式 自然言語処理技術の適応事例紹介
ゼロから始める自然言語処理 【FIT2016チュートリアル】
ゼロから始める自然言語処理 【FIT2016チュートリアル】
「世界モデル」と関連研究について
「世界モデル」と関連研究について
深層学習の数理
深層学習の数理
機械学習モデルの判断根拠の説明(Ver.2)
機械学習モデルの判断根拠の説明(Ver.2)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
勾配ブースティングの基礎と最新の動向 (MIRU2020 Tutorial)
SHAP値の考え方を理解する(木構造編)
SHAP値の考え方を理解する(木構造編)
【DL輪読会】時系列予測 Transfomers の精度向上手法
【DL輪読会】時系列予測 Transfomers の精度向上手法
最適輸送の計算アルゴリズムの研究動向
最適輸送の計算アルゴリズムの研究動向
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
【DL輪読会】The Forward-Forward Algorithm: Some Preliminary
道具としての機械学習:直感的概要とその実際
道具としての機械学習:直感的概要とその実際
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
【DL輪読会】High-Resolution Image Synthesis with Latent Diffusion Models
機械学習で泣かないためのコード設計
機械学習で泣かないためのコード設計
生成モデルの Deep Learning
生成モデルの Deep Learning
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
[DL輪読会]GLIDE: Guided Language to Image Diffusion for Generation and Editing
方策勾配型強化学習の基礎と応用
方策勾配型強化学習の基礎と応用
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
[DL輪読会]Learning Latent Dynamics for Planning from Pixels
強化学習と逆強化学習を組み合わせた模倣学習
強化学習と逆強化学習を組み合わせた模倣学習
工学系大学4年生のための論文の読み方
工学系大学4年生のための論文の読み方
Similar to それでも私が研究を続ける理由
Service Design Roundtable on 2/15/2014, Y. Sawatani
Service Design Roundtable on 2/15/2014, Y. Sawatani
Yuriko Sawatani
[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー
[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー
Deep Learning Lab(ディープラーニング・ラボ)
2020/8/1 Deep Learning Digital Conference 早稲田大学 理工学術院 基幹理工学部 表現工学科 教授 次世代ロボット研究機構 AIロボット研究所 所長 一般社団法人日本ディープラーニング協会 理事 尾形 哲也 氏
研究紹介
研究紹介
satokazu
5月25日に北見工大で研究紹介したスライド
研究室紹介
研究室紹介
Yuriko Sawatani
創成課題用
栗原先生20150926 lodチャレンジ2015キックオフ
栗原先生20150926 lodチャレンジ2015キックオフ
Linked Open Dataチャレンジ実行委員会
栗原 聡(電気通信大学/ネットワークが創発する知能研究会/ドワンゴ人工知能研究所) 「LODと人工知能と社会との共進化」
Panel 3: JST Project to Realize Society 5.0
Panel 3: JST Project to Realize Society 5.0
Symposium on Society 5.0
https://connpass.com/event/99461/
「高専生と取り組むScrum」 AgileJapan2014 仙台サテライト
「高専生と取り組むScrum」 AgileJapan2014 仙台サテライト
Yoshiaki Rikitake
AgileJapan2014 仙台サテライト(2014/06/27)でのスライド #agilejapan #ajsendai http://tohoku-dev.jp/modules/eguide/event.php?eid=262
機械学習 温故知新(第47回 Machine Learning 15minutes! Broadcast)
機械学習 温故知新(第47回 Machine Learning 15minutes! Broadcast)
Tetsuroh Watanabe
イベントURL:https://machine-learning15minutes.connpass.com/event/181118/
Logic ds-ir
Logic ds-ir
Masao Mori
Logic, Data Science and Institutional Research
CET(Capture EveryThing)プロジェクトにおけるﰀ機械学 習・データマイニング最前線
CET(Capture EveryThing)プロジェクトにおけるﰀ機械学 習・データマイニング最前線
Recruit Lifestyle Co., Ltd.
2016/2/4「ソフトウェアジャパン・ビッグデータ活用実務フォーラム」でのプレゼン資料です。
機械学習による推定ユーザー属性の安定供給のための施策(第56回 Machine Learning 15minutes! Broadcast)
機械学習による推定ユーザー属性の安定供給のための施策(第56回 Machine Learning 15minutes! Broadcast)
Tetsuroh Watanabe
イベントURL:https://machine-learning15minutes.connpass.com/event/214810/
個人情報保護法改正とビッグデータ利活用
個人情報保護法改正とビッグデータ利活用
Harumichi Yuasa
電子情報通信学会2016年度研究大会パネルセッション「DP-1. ビッグデータ活用とプライバシー保護(データ工学研専)」
サービスデザイン:デジタルとフィジカルの融合
サービスデザイン:デジタルとフィジカルの融合
Yuriko Sawatani
データ女子部
東京工業大学 大学院 6学院入試説明会資料 2024年度受験者向け
東京工業大学 大学院 6学院入試説明会資料 2024年度受験者向け
Tokyo Institute of Technology
2024年度受験者に向けた大学院説明会資料です。 修士課程や博士後期課程のカリキュラム、経済的支援、キャリア支援など幅広くご紹介しています。 募集要項に基づき、2024夏の入試最新情報についてもまとめていますので、ぜひチェックしてみてください。 なお、このスライドは説明会時点での情報を元に作成しています。 出願に当たっては、必ず以下の募集要項をご確認ください。 https://www.titech.ac.jp/admissions/prospective-students/admissions/guide
Deep Q-LearningでFXしてみた
Deep Q-LearningでFXしてみた
Junichiro Katsuta
立教大学で話したセミナーの内容です。Deep Q-Learningについての説明と、それを応用して「FXで勝つ」Agentの構築について話しました。簡単な結果も出たので、それについの簡単な考察もしています。
How to feed myself with computer vision
How to feed myself with computer vision
Takuya Minagawa
IEICE名古屋大学学生ブランチ発表資料
自律分散型信号システム: その技術と新しい都市交通の可能性
自律分散型信号システム: その技術と新しい都市交通の可能性
Masaki Ito
2021年1月25日開催のUTMobIフォーラムにおける講演動画です。 http://www.its.iis.u-tokyo.ac.jp/utmobi/ja/forum/forum202101.pdf
20181030 fun
20181030 fun
Hiroshi Maruyama
10/30/2018に函館未来大学で行った、機械学習工学に関するプレゼンです。
TensorFlowでニューラルネットを作って、広告配信の最適化をやってみた
TensorFlowでニューラルネットを作って、広告配信の最適化をやってみた
Junichiro Katsuta
第15回Android Bazaar and Conferenceで話したスライドです。以下、概要です。GMOアドマーケテイング社のAkaNeは、国内最大規模(数千万人ユーザー)のアドネットワークです。今回、このサービスの広告配信の最適化モデルを、Tensorflow (Keras) を使ってニューラルネットを構築しました。このモデルを使用することで、クリック率の改善につなげた事例を紹介します。
大学院進学が切り拓く情報系学生のキャリア
大学院進学が切り拓く情報系学生のキャリア
Takayuki Itoh
2021/7/8 立命館大学情報理工学部 キャリア形成支援講演会
Similar to それでも私が研究を続ける理由
(20)
Service Design Roundtable on 2/15/2014, Y. Sawatani
Service Design Roundtable on 2/15/2014, Y. Sawatani
[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー
[Track2-1] ディープラーニングのロボット応用事例 ーデータからエクスペリエンスへー
研究紹介
研究紹介
研究室紹介
研究室紹介
栗原先生20150926 lodチャレンジ2015キックオフ
栗原先生20150926 lodチャレンジ2015キックオフ
Panel 3: JST Project to Realize Society 5.0
Panel 3: JST Project to Realize Society 5.0
「高専生と取り組むScrum」 AgileJapan2014 仙台サテライト
「高専生と取り組むScrum」 AgileJapan2014 仙台サテライト
機械学習 温故知新(第47回 Machine Learning 15minutes! Broadcast)
機械学習 温故知新(第47回 Machine Learning 15minutes! Broadcast)
Logic ds-ir
Logic ds-ir
CET(Capture EveryThing)プロジェクトにおけるﰀ機械学 習・データマイニング最前線
CET(Capture EveryThing)プロジェクトにおけるﰀ機械学 習・データマイニング最前線
機械学習による推定ユーザー属性の安定供給のための施策(第56回 Machine Learning 15minutes! Broadcast)
機械学習による推定ユーザー属性の安定供給のための施策(第56回 Machine Learning 15minutes! Broadcast)
個人情報保護法改正とビッグデータ利活用
個人情報保護法改正とビッグデータ利活用
サービスデザイン:デジタルとフィジカルの融合
サービスデザイン:デジタルとフィジカルの融合
東京工業大学 大学院 6学院入試説明会資料 2024年度受験者向け
東京工業大学 大学院 6学院入試説明会資料 2024年度受験者向け
Deep Q-LearningでFXしてみた
Deep Q-LearningでFXしてみた
How to feed myself with computer vision
How to feed myself with computer vision
自律分散型信号システム: その技術と新しい都市交通の可能性
自律分散型信号システム: その技術と新しい都市交通の可能性
20181030 fun
20181030 fun
TensorFlowでニューラルネットを作って、広告配信の最適化をやってみた
TensorFlowでニューラルネットを作って、広告配信の最適化をやってみた
大学院進学が切り拓く情報系学生のキャリア
大学院進学が切り拓く情報系学生のキャリア
More from Hitomi Yanaka
Do Neural Models Learn Transitivity of Veridical Inference?
Do Neural Models Learn Transitivity of Veridical Inference?
Hitomi Yanaka
Hitomi Yanaka, Koji Mineshima, Kentaro Inui, Do Neural Models Learn Transitivity of Veridical Inference?, Proceedings of the 2021 IWCS Workshop Natural Logic Meets Machine Learning (NALOMA2021), online, (2021.6). https://typo.uni-konstanz.de/naloma21/
東京大学2021年度深層学習(Deep learning基礎講座2021) 第8回「深層学習と自然言語処理」
東京大学2021年度深層学習(Deep learning基礎講座2021) 第8回「深層学習と自然言語処理」
Hitomi Yanaka
東京大学2021年度深層学習(Deep learning基礎講座) https://deeplearning.jp/lectures/dlb2021/ 第8回(2021/06/01)「深層学習と自然言語処理」の講義資料です。 以下誤植ですので読み替えてご覧ください。 p25: Micolov -> Mikolov
Investigating the Generalization Ability of Neural Models through Monotonicit...
Investigating the Generalization Ability of Neural Models through Monotonicit...
Hitomi Yanaka
Hitomi Yanaka, Investigating the Generalization Ability of Neural Models through Monotonicity Reasoning, the WeSSLLI2020 workshop Natural Logic Meets Machine Learning (NALOMA), (2020.7).
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」
Hitomi Yanaka
東京大学2020年度深層学習(Deep learning基礎講座) https://deeplearning.jp/lectures/dlb2020/ 第9回(2020/06/25)「深層学習と自然言語処理」の講義資料です。
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」(一部文字が欠けてます)
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」(一部文字が欠けてます)
Hitomi Yanaka
東京大学2020年度深層学習(Deep learning基礎講座) https://deeplearning.jp/lectures/dlb2020/ 第9回(2020/06/25)「深層学習と自然言語処理」の講義資料です。 こちらの資料は一部文字が見えないので、下記のURLにアップロードしなおしました。 https://www.slideshare.net/HitomiYanaka/2020deep-learning-9-236561673
多言語統語・意味情報コーパスParallel Meaning Bank日本語版の構築
多言語統語・意味情報コーパスParallel Meaning Bank日本語版の構築
Hitomi Yanaka
谷中瞳, 峯島宏次, 山田彬尭, 山口悠, 窪田悠介, Lasha Abzianidze, Johan Bos. 多言語統語・意味情報コーパスParallel Meaning Bank日本語版の構築. 言語処理学会第26回年次大会, (2020.3).
自然演繹に基づく文間の含意関係の証明を用いたフレーズアライメントの試み
自然演繹に基づく文間の含意関係の証明を用いたフレーズアライメントの試み
Hitomi Yanaka
2018年3月14日 言語処理学会第24回年次大会@岡山
More from Hitomi Yanaka
(7)
Do Neural Models Learn Transitivity of Veridical Inference?
Do Neural Models Learn Transitivity of Veridical Inference?
東京大学2021年度深層学習(Deep learning基礎講座2021) 第8回「深層学習と自然言語処理」
東京大学2021年度深層学習(Deep learning基礎講座2021) 第8回「深層学習と自然言語処理」
Investigating the Generalization Ability of Neural Models through Monotonicit...
Investigating the Generalization Ability of Neural Models through Monotonicit...
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」(一部文字が欠けてます)
東京大学2020年度深層学習(Deep learning基礎講座) 第9回「深層学習と自然言語処理」(一部文字が欠けてます)
多言語統語・意味情報コーパスParallel Meaning Bank日本語版の構築
多言語統語・意味情報コーパスParallel Meaning Bank日本語版の構築
自然演繹に基づく文間の含意関係の証明を用いたフレーズアライメントの試み
自然演繹に基づく文間の含意関係の証明を用いたフレーズアライメントの試み
それでも私が研究を続ける理由
1.
GoogleSlidesPPT.com _ 30+
Slides Google Slides & PowerPoint Templates for Free 谷中 瞳 理化学研究所 言語処理学会第27回年次大会ワークショップ「若手研究者交流のニューノーマルを考える」 それでも私が研究を続ける理由 1
2.
自己紹介:これまでとこれから 2 谷中 瞳 紆余曲折を経てNLPerの道へ… 2007-2011 早稲田大学先進理工学部応用化学科卒業 2011-2013 東京大学大学院工学系研究科化学システム工学専攻修士課程修了 2013-2015
野村総合研究所で特許検索・セキュリティシステム開発に従事 2015-2018 東京大学大学院工学系研究科システム創成学専攻博士課程修了 2018-2021 理化学研究所AIP 自然言語理解チーム 特別研究員 2021- 東京大学大学院情報理工学系研究科 コンピュータ科学専攻 卓越研究員(講師) 共同研究者募集
3.
突然ですが、2つ質問です 3 1. 研究がつらい、と思ったことはありますか? 2. それでも研究を続けている理由はなんですか? 今日は研究をしていると一度は自問自答する (であろう)これらの疑問について、 改めて、自分なりに考えてみました。
4.
どういうときに研究がつらいか?B・M編 4 ● 自分という人間、研究という活動がよくわからない ● それゆえか研究室選びから間違えることもある(?) ●
良いテーマはなかなかない。エンドレスサーベイ ● 良い結果もなかなか出ない。エンドレス実験 ● メイン研究以外にも様々な研究室運営の仕事、 いわゆる雑務 ● 授業や就活、プライベートも充実させたい ○ 谷中の場合…ジャズと物書きに打ち込んでいました ● そういうわけで時間がない
5.
どういうときに研究がつらいか?D以降編 5 ● 良いテーマはなかなかない。エンドレスサーベイ ● 良い結果もなかなか出ない。エンドレス実験 ●
お金がないと研究はできない。エンドレス申請書 ● 論文を書いて通すまでが「結果」。結果重視。 ● メイン研究以外の様々な仕事、研究室運営、学会 運営、講義、査読など、いわゆる雑務 ● そういうわけで研究活動に終わりはない、 時間がない、プライベートとは…
6.
コロナ禍で、さらに研究はつらいよ? 6 ● 論文を出してもオンライン学会になって、出張 という楽しみがなくなった ● オンライン学会になって、研究者と雑談する機 会や交流する機会がすっかり減った ●
ミーティングや事務連絡もオンラインで、先生 や学生とのコミュニケーションがとりにくい ● 在宅でオンとオフの切り替えが難しい
7.
それでも私が研究を続ける理由 7
8.
それでも私が研究を続ける理由 8 答え:今の研究が好きだから!
9.
それでも私が研究を続ける理由 9 答え:今の研究が好きだから! なんだそんなことと思われるかもしれないけれど、 結局自分が好きなことを見つけて続けるのが一番!
10.
今の研究のどういうところが好きか 10 ● 「言語」を対象とする研究の、幅広さと面白さ ● 知らなかったことを知ることは楽しい ●
誰も気づかなかった問題を発見できると嬉しい ● 少しずつコードが動くと楽しい ● 研究結果が論文として公開されたときの達成感 ● 学会だけでなく、論文を通して、世界中の研究 者と「交流」できる ● 実験室でなくても、割とどこでも研究できる こんなに楽しい研究はない! もっと早く気づいていれば!
11.
研究は好きだけど、つらいときはつらい? 11 意識的に、研究の楽しさ>>>つらさにしていこう それに世の中のたいていのことはつらい(たぶん)
12.
より楽しく研究を続けるための3つのこと 12 1. なるべく毎日、自分を見つめ直す
13.
1. なるべく毎日、自分を見つめ直す 13 緊急事態宣言以来、ほぼ毎日日記をつけている フォーマットは決めず、その日思ったこと、計画して 実行したこと・しなかったこと、気になった情報を scrapboxにメモする
14.
1. なるべく毎日、自分を見つめ直す 14 緊急事態宣言以来、ほぼ毎日日記をつけている フォーマットは決めず、その日思ったこと、計画して 実行したこと・しなかったこと、気になった情報を scrapboxにメモする 例) もっとテンプレ を考えてもいい かもしれないが …適当だからこ そ続けやすい
15.
1. なるべく毎日、自分を見つめ直す 15 緊急事態宣言以来、ほぼ毎日日記をつけている フォーマットは決めず、その日思ったこと、計画して 実行したこと・しなかったこと、気になった情報を scrapboxにメモする 毎日記録をつけると、情報を整理できるだけでなく、 自分の考えや行動のくせが見えてくる 自分はいま、本当は何が好きなのか、 自分は本当はどういう人間なのかを知り続ける
16.
より楽しく研究を続けるための3つのこと 16 1. なるべく毎日、自分を見つめ直す 2. なるべく毎日、短時間でも運動をする
17.
2. なるべく毎日、短時間でも運動をする 17 よく言われる言葉ですが… 健全な精神は健全な肉体に宿る 谷中の場合: 超ラジオ体操とラジオ体操と10分エクササイズを ほぼ毎日続けている(とくにコロナ禍以降) 運動だけでなく、睡眠時間を確保することも大事
18.
より楽しく研究を続けるための3つのこと 18 1. なるべく毎日、自分を見つめ直す 2. なるべく毎日、短時間でも運動をする 3.
思い通りにいかない日があっても、許す
19.
3. 思い通りにいかない日があっても、許す 19 思い通りにいかないことがあっても、自分のことも 他人のことも環境も責めない。 ただし、反省は大切。 毎日記録をつけたりを通して、反省する。 自分を冷静に見つめ直し、生き方を更新する。 歩みを止めない。
20.
まとめ:「自己本位」で研究しよう 20 好きな言葉:夏目漱石の「自己本位」 ● 判断や行動の基準を自己に置く ● 他人に動かされず、自ら動く ●
自分の考えに自信をもち、自己を大事にする ● 自分の考えと同じくらい他人の考えを尊重する 自分を制するものは研究を制す 他人や環境を変えることよりも、自分を変えること はずっと簡単
21.
ご清聴ありがとうございました Have a nice
research life! 21 谷中 瞳 https://hitomiyanaka.mystrikingly.com/ hitomi.yanaka@riken.jp
Download now