Submit Search
Upload
Reasoning with neural tensor networks for knowledge base completion
•
0 likes
•
1,805 views
J
Junya Kamura
Follow
arXive times 論文輪講資料
Read less
Read more
Science
Report
Share
Report
Share
1 of 23
Download now
Download to read offline
Recommended
backbone としての timm 入門
backbone としての timm 入門
Takuji Tahara
[第3回分析コンペLT会 、オンライン開催] (https://kaggle-friends.connpass.com/event/220927/) での発表資料です。 画像コンペに出るうえで便利過ぎる timm(pytorch image models) の紹介をしました。
Visual Studio CodeでRを使う
Visual Studio CodeでRを使う
Atsushi Hayakawa
Visual Studio CodeでRを使う
ニューラルネットワークを用いた自然言語処理
ニューラルネットワークを用いた自然言語処理
Sho Takase
2021/12/17の群馬大学における自然言語処理の講義資料
[論文紹介] LSTM (LONG SHORT-TERM MEMORY)
[論文紹介] LSTM (LONG SHORT-TERM MEMORY)
Tomoyuki Hioki
LSTM
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki
数学パワーが世界を変える2020発表資料
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
2020/02/21 Deep Learning JP: http://deeplearning.jp/seminar-2/
グラフデータ分析 入門編
グラフデータ分析 入門編
順也 山口
グラフ分析ナイト (エンジニア向け) https://dllab.connpass.com/event/159148/ グラフ畳み込みネットワークなど、グラフ上の機械学習/深層学習技術の概要についてご説明します。
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII
SSII2019 オーガナイズドセッション3「深層学習の高速化 ~高速チップ、分散学習、軽量モデル~」 6月14日(金) 10:35〜12:05 (メインホール)
Recommended
backbone としての timm 入門
backbone としての timm 入門
Takuji Tahara
[第3回分析コンペLT会 、オンライン開催] (https://kaggle-friends.connpass.com/event/220927/) での発表資料です。 画像コンペに出るうえで便利過ぎる timm(pytorch image models) の紹介をしました。
Visual Studio CodeでRを使う
Visual Studio CodeでRを使う
Atsushi Hayakawa
Visual Studio CodeでRを使う
ニューラルネットワークを用いた自然言語処理
ニューラルネットワークを用いた自然言語処理
Sho Takase
2021/12/17の群馬大学における自然言語処理の講義資料
[論文紹介] LSTM (LONG SHORT-TERM MEMORY)
[論文紹介] LSTM (LONG SHORT-TERM MEMORY)
Tomoyuki Hioki
LSTM
数学で解き明かす深層学習の原理
数学で解き明かす深層学習の原理
Taiji Suzuki
数学パワーが世界を変える2020発表資料
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
[DL輪読会]Set Transformer: A Framework for Attention-based Permutation-Invariant...
Deep Learning JP
2020/02/21 Deep Learning JP: http://deeplearning.jp/seminar-2/
グラフデータ分析 入門編
グラフデータ分析 入門編
順也 山口
グラフ分析ナイト (エンジニア向け) https://dllab.connpass.com/event/159148/ グラフ畳み込みネットワークなど、グラフ上の機械学習/深層学習技術の概要についてご説明します。
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII2019OS: 深層学習にかかる時間を短くしてみませんか? ~分散学習の勧め~
SSII
SSII2019 オーガナイズドセッション3「深層学習の高速化 ~高速チップ、分散学習、軽量モデル~」 6月14日(金) 10:35〜12:05 (メインホール)
【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx
ARISE analytics
社内で行った「International Conference on Learning Represantation (ICLR)2022読み会」でまとめた資料です。
[DL輪読会]YOLO9000: Better, Faster, Stronger
[DL輪読会]YOLO9000: Better, Faster, Stronger
Deep Learning JP
2017/8/4 Deep Learning JP: http://deeplearning.jp/seminar-2/
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証
Masaharu Kinoshita
Googleの株価(終値)予測タスクを題材として、CNNの時系列問題に対する有用性を検証する。 RNNをベンチマークとして、LSTM, CNN+LSTMの予測性能(MSE、学習時間)を比較する。
ConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティス
Yusuke Uchida
Brief history of convolutional neural networks, variants of residual networks, and their best practices
深層学習による非滑らかな関数の推定
深層学習による非滑らかな関数の推定
Masaaki Imaizumi
M.Imaizumi, K.Fukumizu, “Deep Neural Networks Learn Non-Smooth Functions Effectively”, http://arxiv.org/abs/1802.04474 の説明スライドです。
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
Neural Network with Attention Mechanism for Natural Language Processing: survey
生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
PFIセミナー(2016/02/25)で発表したスライドです。伝承サンプリング可能な生成モデルに関するDeep Learningの紹介です(キーワード:Wake-Sleep, 変分 AutoEncoder, Generative Adversarial Nets, Likelihood Ratio)
画像キャプションの自動生成
画像キャプションの自動生成
Yoshitaka Ushiku
2016/10/12 第16回全脳アーキテクチャ勉強会@リクルートテクノロジーズ 2016/08/01 第19回画像の認識・理解シンポジウム、チュートリアル@浜松 2016/06/29 第3回ステアラボ人工知能セミナー@千葉工業大学(スカイツリータウン) 2016/06/21 人工知能セミナー第7回 「自然言語処理のAIの最新動向」@産総研 2016/01/13 確率場と深層学習に関する第1回CRESTシンポジウム@早稲田大学 にて一部を使用。画像×言語の研究に関する日本語資料としては、現在一番網羅的だと信じています。
[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks
Deep Learning JP
2018/06/29 Deep Learning JP: http://deeplearning.jp/seminar-2/
点群深層学習 Meta-study
点群深層学習 Meta-study
Naoya Chiba
cvpaper.challenge2019のMeta Study Groupでの発表スライド 点群深層学習についてのサーベイ ( https://www.slideshare.net/naoyachiba18/ss-120302579 )を経た上でのMeta Study
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
2023/6/30 Deep Learning JP http://deeplearning.jp/seminar-2/
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
Fujimoto Keisuke
2018/07/07 CV勉強会@関東CVPR論文読み会(後編) Sliced Wasserstein Distance for Learning Gaussian Mixture Models
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
最近のGNNの隣接ノード情報の集約方法や一層パーセプトロンによる積層の限界を指摘した論文.
深層学習を用いた文生成モデルの歴史と研究動向
深層学習を用いた文生成モデルの歴史と研究動向
Shunta Ito
2020/07/02に開催されたDLLab主催のイベント、「自然言語処理ナイト」の第2セッション「生成系NLPの研究動向」で使用したスライド資料です。
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
Daiyu Hatakeyama
機械学習の技術的基礎部分を中心にまとめています。実装をする際の各種ハイパーパラメータの概要は理解できる程度に。
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
物体検出やセグメンテーションタスクに利用可能な階層的Vision Transformerのサーベイ
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
2022年4月に行われたKaggle Happywhaleコンペの優勝解法におけるOptunaの使用事例について紹介します。 イベントサイト: https://optuna.connpass.com/event/260301/
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
第9回全日本コンピュータビジョン勉強会「ICCV2021論文読み会」の発表資料です https://kantocv.connpass.com/event/228283/ ICCV'21 Best PaperであるSwin Transformerを完全に理解するためにふんだんに余談を盛り込んだ資料となります
モデル高速化百選
モデル高速化百選
Yusuke Uchida
画像センシングシンポジウム (SSII 2019) の企画セッション「深層学習の高速化 〜 高速チップ、分散学習、軽量モデル 〜」の講演資料です。 深層学習モデルを高速化する下記6種類の手法の解説です。 - 畳み込みの分解 (Factorization) - 枝刈り (Pruning) - アーキテクチャ探索 (Neural Architecture Search; NAS) - 早期終了、動的計算グラフ (Early Termination, Dynamic Computation Graph) - 蒸留 (Distillation) - 量子化 (Quantization)
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
文献紹介:Recursive Deep Models for Semantic Compositionality Over a Sentiment Tre...
文献紹介:Recursive Deep Models for Semantic Compositionality Over a Sentiment Tre...
Shohei Okada
動画 http://youtu.be/cQXAALuAFoI?list=PL6SnxjlP6lpHdWaieYa0BGVuj8fgfiIw1
Paper: clinically accuratechestx-rayreport generation_noself
Paper: clinically accuratechestx-rayreport generation_noself
Yusuke Fujimoto
6月8日に行われた論文LT会#3(https://lpixel.connpass.com/event/132751) 用の資料です。
More Related Content
What's hot
【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx
ARISE analytics
社内で行った「International Conference on Learning Represantation (ICLR)2022読み会」でまとめた資料です。
[DL輪読会]YOLO9000: Better, Faster, Stronger
[DL輪読会]YOLO9000: Better, Faster, Stronger
Deep Learning JP
2017/8/4 Deep Learning JP: http://deeplearning.jp/seminar-2/
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証
Masaharu Kinoshita
Googleの株価(終値)予測タスクを題材として、CNNの時系列問題に対する有用性を検証する。 RNNをベンチマークとして、LSTM, CNN+LSTMの予測性能(MSE、学習時間)を比較する。
ConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティス
Yusuke Uchida
Brief history of convolutional neural networks, variants of residual networks, and their best practices
深層学習による非滑らかな関数の推定
深層学習による非滑らかな関数の推定
Masaaki Imaizumi
M.Imaizumi, K.Fukumizu, “Deep Neural Networks Learn Non-Smooth Functions Effectively”, http://arxiv.org/abs/1802.04474 の説明スライドです。
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
Yuta Kikuchi
Neural Network with Attention Mechanism for Natural Language Processing: survey
生成モデルの Deep Learning
生成モデルの Deep Learning
Seiya Tokui
PFIセミナー(2016/02/25)で発表したスライドです。伝承サンプリング可能な生成モデルに関するDeep Learningの紹介です(キーワード:Wake-Sleep, 変分 AutoEncoder, Generative Adversarial Nets, Likelihood Ratio)
画像キャプションの自動生成
画像キャプションの自動生成
Yoshitaka Ushiku
2016/10/12 第16回全脳アーキテクチャ勉強会@リクルートテクノロジーズ 2016/08/01 第19回画像の認識・理解シンポジウム、チュートリアル@浜松 2016/06/29 第3回ステアラボ人工知能セミナー@千葉工業大学(スカイツリータウン) 2016/06/21 人工知能セミナー第7回 「自然言語処理のAIの最新動向」@産総研 2016/01/13 確率場と深層学習に関する第1回CRESTシンポジウム@早稲田大学 にて一部を使用。画像×言語の研究に関する日本語資料としては、現在一番網羅的だと信じています。
[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks
Deep Learning JP
2018/06/29 Deep Learning JP: http://deeplearning.jp/seminar-2/
点群深層学習 Meta-study
点群深層学習 Meta-study
Naoya Chiba
cvpaper.challenge2019のMeta Study Groupでの発表スライド 点群深層学習についてのサーベイ ( https://www.slideshare.net/naoyachiba18/ss-120302579 )を経た上でのMeta Study
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Deep Learning JP
2023/6/30 Deep Learning JP http://deeplearning.jp/seminar-2/
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
Fujimoto Keisuke
2018/07/07 CV勉強会@関東CVPR論文読み会(後編) Sliced Wasserstein Distance for Learning Gaussian Mixture Models
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
Masanao Ochi
最近のGNNの隣接ノード情報の集約方法や一層パーセプトロンによる積層の限界を指摘した論文.
深層学習を用いた文生成モデルの歴史と研究動向
深層学習を用いた文生成モデルの歴史と研究動向
Shunta Ito
2020/07/02に開催されたDLLab主催のイベント、「自然言語処理ナイト」の第2セッション「生成系NLPの研究動向」で使用したスライド資料です。
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
Daiyu Hatakeyama
機械学習の技術的基礎部分を中心にまとめています。実装をする際の各種ハイパーパラメータの概要は理解できる程度に。
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Yusuke Uchida
物体検出やセグメンテーションタスクに利用可能な階層的Vision Transformerのサーベイ
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Preferred Networks
2022年4月に行われたKaggle Happywhaleコンペの優勝解法におけるOptunaの使用事例について紹介します。 イベントサイト: https://optuna.connpass.com/event/260301/
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Yusuke Uchida
第9回全日本コンピュータビジョン勉強会「ICCV2021論文読み会」の発表資料です https://kantocv.connpass.com/event/228283/ ICCV'21 Best PaperであるSwin Transformerを完全に理解するためにふんだんに余談を盛り込んだ資料となります
モデル高速化百選
モデル高速化百選
Yusuke Uchida
画像センシングシンポジウム (SSII 2019) の企画セッション「深層学習の高速化 〜 高速チップ、分散学習、軽量モデル 〜」の講演資料です。 深層学習モデルを高速化する下記6種類の手法の解説です。 - 畳み込みの分解 (Factorization) - 枝刈り (Pruning) - アーキテクチャ探索 (Neural Architecture Search; NAS) - 早期終了、動的計算グラフ (Early Termination, Dynamic Computation Graph) - 蒸留 (Distillation) - 量子化 (Quantization)
Active Learning 入門
Active Learning 入門
Shuyo Nakatani
What's hot
(20)
【論文読み会】Autoregressive Diffusion Models.pptx
【論文読み会】Autoregressive Diffusion Models.pptx
[DL輪読会]YOLO9000: Better, Faster, Stronger
[DL輪読会]YOLO9000: Better, Faster, Stronger
時系列問題に対するCNNの有用性検証
時系列問題に対するCNNの有用性検証
ConvNetの歴史とResNet亜種、ベストプラクティス
ConvNetの歴史とResNet亜種、ベストプラクティス
深層学習による非滑らかな関数の推定
深層学習による非滑らかな関数の推定
最近のDeep Learning (NLP) 界隈におけるAttention事情
最近のDeep Learning (NLP) 界隈におけるAttention事情
生成モデルの Deep Learning
生成モデルの Deep Learning
画像キャプションの自動生成
画像キャプションの自動生成
[DL輪読会]Relational inductive biases, deep learning, and graph networks
[DL輪読会]Relational inductive biases, deep learning, and graph networks
点群深層学習 Meta-study
点群深層学習 Meta-study
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
【DL輪読会】Self-Supervised Learning from Images with a Joint-Embedding Predictive...
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
Sliced Wasserstein Distance for Learning Gaussian Mixture Models
【論文紹介】How Powerful are Graph Neural Networks?
【論文紹介】How Powerful are Graph Neural Networks?
深層学習を用いた文生成モデルの歴史と研究動向
深層学習を用いた文生成モデルの歴史と研究動向
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
機械学習 / Deep Learning 大全 (1) 機械学習基礎編
近年のHierarchical Vision Transformer
近年のHierarchical Vision Transformer
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Kaggle Happywhaleコンペ優勝解法でのOptuna使用事例 - 2022/12/10 Optuna Meetup #2
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
Swin Transformer (ICCV'21 Best Paper) を完璧に理解する資料
モデル高速化百選
モデル高速化百選
Active Learning 入門
Active Learning 入門
Similar to Reasoning with neural tensor networks for knowledge base completion
文献紹介:Recursive Deep Models for Semantic Compositionality Over a Sentiment Tre...
文献紹介:Recursive Deep Models for Semantic Compositionality Over a Sentiment Tre...
Shohei Okada
動画 http://youtu.be/cQXAALuAFoI?list=PL6SnxjlP6lpHdWaieYa0BGVuj8fgfiIw1
Paper: clinically accuratechestx-rayreport generation_noself
Paper: clinically accuratechestx-rayreport generation_noself
Yusuke Fujimoto
6月8日に行われた論文LT会#3(https://lpixel.connpass.com/event/132751) 用の資料です。
[DL輪読会]"Improving Coherence and Consistency in Neural Sequence Models with Du...
[DL輪読会]"Improving Coherence and Consistency in Neural Sequence Models with Du...
Deep Learning JP
2021/12/17 Deep Learning JP: http://deeplearning.jp/seminar-2/
Paper: seq2seq 20190320
Paper: seq2seq 20190320
Yusuke Fujimoto
論文輪読会 #20 用のスライドです。
正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良
MasatoKikuchi4
発表スライド@DEIM2022
[DL輪読会]Measuring abstract reasoning in neural networks
[DL輪読会]Measuring abstract reasoning in neural networks
Deep Learning JP
2018/07/27 Deep Learning JP: http://deeplearning.jp/seminar-2/
DLゼミ20170522
DLゼミ20170522
harmonylab
GAを用いてDNNのパラメータと構造を学習する。
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度
Seiichi Uchida
九州大学大学院システム情報科学研究院「データサイエンス実践特別講座」が贈る,数理・情報系『でない』学生さんのための「データサイエンス講義
4thNLPDL
4thNLPDL
Sho Takase
第4回NLP-DLの発表資料
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
Deep Learning JP
2018/10/12 Deep Learning JP: http://deeplearning.jp/seminar-2/
Similar to Reasoning with neural tensor networks for knowledge base completion
(10)
文献紹介:Recursive Deep Models for Semantic Compositionality Over a Sentiment Tre...
文献紹介:Recursive Deep Models for Semantic Compositionality Over a Sentiment Tre...
Paper: clinically accuratechestx-rayreport generation_noself
Paper: clinically accuratechestx-rayreport generation_noself
[DL輪読会]"Improving Coherence and Consistency in Neural Sequence Models with Du...
[DL輪読会]"Improving Coherence and Consistency in Neural Sequence Models with Du...
Paper: seq2seq 20190320
Paper: seq2seq 20190320
正則化による尤度比推定法を応用した多値分類器の改良
正則化による尤度比推定法を応用した多値分類器の改良
[DL輪読会]Measuring abstract reasoning in neural networks
[DL輪読会]Measuring abstract reasoning in neural networks
DLゼミ20170522
DLゼミ20170522
データサイエンス概論第一=2-1 データ間の距離と類似度
データサイエンス概論第一=2-1 データ間の距離と類似度
4thNLPDL
4thNLPDL
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
[DL輪読会]FOTS: Fast Oriented Text Spotting with a Unified Network
More from Junya Kamura
Coursera Machine Learning week1
Coursera Machine Learning week1
Junya Kamura
Coursera machine learning week1解説
Derivative models from BERT
Derivative models from BERT
Junya Kamura
2019/05/30 arXivtimes論文輪講資料
Parameterized convolutional neural networks for aspect level classification
Parameterized convolutional neural networks for aspect level classification
Junya Kamura
EMNLP2018読み会資料
Machine learning 15min TensorFlow hub
Machine learning 15min TensorFlow hub
Junya Kamura
第28回 Machine Learning 15minutes! 発表資料
Deep learning for_extreme_multi-label_text_classification
Deep learning for_extreme_multi-label_text_classification
Junya Kamura
2018/06/06 arXivtimes論文輪講資料
Deep contextualized word representations
Deep contextualized word representations
Junya Kamura
2018/03/30 arXivtimes論文輪講資料
事例から見る人工知能の現在と、企業における活用方法
事例から見る人工知能の現在と、企業における活用方法
Junya Kamura
千葉エリア日本大学新技術説明会 地域を作る大学、未来を磨く人工知能 基調講演資料
論文輪講 Initializing convolutional filters with semantic features for text class...
論文輪講 Initializing convolutional filters with semantic features for text class...
Junya Kamura
2017/11/16 arXivtimes論文輪講資料
Deep learningの世界に飛び込む前の命綱
Deep learningの世界に飛び込む前の命綱
Junya Kamura
Deep Learningオールスターズ2017 発表資料
More from Junya Kamura
(9)
Coursera Machine Learning week1
Coursera Machine Learning week1
Derivative models from BERT
Derivative models from BERT
Parameterized convolutional neural networks for aspect level classification
Parameterized convolutional neural networks for aspect level classification
Machine learning 15min TensorFlow hub
Machine learning 15min TensorFlow hub
Deep learning for_extreme_multi-label_text_classification
Deep learning for_extreme_multi-label_text_classification
Deep contextualized word representations
Deep contextualized word representations
事例から見る人工知能の現在と、企業における活用方法
事例から見る人工知能の現在と、企業における活用方法
論文輪講 Initializing convolutional filters with semantic features for text class...
論文輪講 Initializing convolutional filters with semantic features for text class...
Deep learningの世界に飛び込む前の命綱
Deep learningの世界に飛び込む前の命綱
Reasoning with neural tensor networks for knowledge base completion
1.
Reasoning With Neural
Tensor Networks for Knowledge Base Completion Richard Socher, Danqi Chen, Christopher D. Manning, Andrew Y. Ng 2017/04/25 論文輪講 嘉村準弥
2.
agenda • 概要 • 手法 •
関連手法 • 実験 • まとめ
3.
概要
4.
概要 • 2エンティティ間の関係を予測するモデルである Neural Tensor
Networkを提案+初期化方式の改良 による性能向上 • 知識ベースにおける2単語を基に関係性予測を行っ たところ既存のモデルを上回り、WordNetで86.2%、 FreeBaseで90.0%の精度を得ることが出来た
5.
エンティティ間の関係性
6.
Neural Tensor Network (NTN) •
2単語 が特定の関係Rである確率を求める e.g. (Bengal tiger, has part, tail) = true (e1,e2 ) f = tanh WR [1:k] ∈ d×d×k = テンソル slice_i = 1,...,k = テンソルのスライス 以下はニューラルネットワークの標準形式 VR ∈ k×2d U ∈ k bR ∈ k
7.
提案手法
8.
Neural Tensor Network f
= tanh WR [1:k] ∈ d×d×k slice_i = 1,...,k • テンソルの各スライスは関係性それぞれ示していると見なすことが出来る。 →違う分野においても同様の関係として学習できる (「has part」と言う関係においてBengal tiger→tailとcar→brakeは 同様な関係と見なすことができる) VR ∈ k×2d U ∈ k bR ∈ k
9.
関連手法
10.
関連手法(Distance Model) • 2単語間のL1距離を測ることによって関連性を推測 →スコアが低いほど関連性が強い •
問題点として2つのエンティティベクトルのパラメー タが相互作用しない WR,1,WR,2 ∈ d×d
11.
関連手法(Singule Layer Model) •
単一層ニューラルネットワーク(非線形) • 2つのエンティティベクトル間の弱い相互作用しか表現 できない • 提案手法におけるテンソル=0の状況 f = tanh WR,1,WR,2 ∈ k×d uR ∈ k×1
12.
関連手法(Hadamard Model) • 複数の線形積を介してエンティティベクトルと相互 作用する単一のベクトルとして表現 f
= tanh W1,Wrel,1,W2,Wrel,2 ∈ d×d b1,b2 ∈ d×1 eR = relacion_ specific_ parameter
13.
関連手法(Bilinear Model) • 双線形形式であり、線形相互作用のみをモデル化す ることができる。より複雑なモデルに適合できない •
提案モデルにおけるパラメータ設定を変更した場合 と同義 g(e1,R,e2 ) = e1 T WRe2 WR ∈ d×d
14.
提案モデルの利点 • bilenear modelと比較して大きいデータベースの場 合に特に有用な表現力を備える •
より小さいデータセットの場合、スライスの数を減 らすことができ、関係間で変更することが可能
15.
初期化について • ランダム初期化でも良いが、さらなる向上を目指す ・単語ベクトルでエンティティベクトルを表現 ・事前に教師なし訓練された単語ベクトルで初期化 • エンティティベクトルは単語ベクトルを平均化する と性能が向上 Vhomo
sapiens = 0.5(Vhomo + Vsapiens)
16.
実験
17.
データセットと各データ数 • 不要な関係は除外して学習を実行 (言い換えの関係「みかんとオレンジは似ている=オレンジとみかんは似ている」など) • Wordnetは2つの単語を自由に設定可能 •
Freebaseは関係性毎に単語が制限されている (関係性がgenderであればもう片方の単語はmale or femaleに制限される
18.
テストデータ • テストデータの関係性をランダムに入れ替えること によって 2×#Test
トリプレットを作成 →ポジティブ、ネガティブデータを用意 • Freebaseに於いてはあり得る単語の組み合わせタ イプのみ用意。 (Pablo Picaso、国籍、スペイン)→ポジティブ (Pablo Picaso、国籍、米国)→ネガティブ (Pablo Picaso、国籍、Gogh)→不適当(テスト未使用)
19.
テスト方法 • 各モデルとの精度を比較 • 開発データを用いてクロスバリデーションを行い、 最適なハイパーパラメータを算出) 1.
vector initialization 2. λ=0.0001 3. 隠れ層d=100 (single layer, NTN) 4. training iterations T=500 5. NTNにおけるスライス数=4
20.
精度比較結果 • WordNet →既存最高性能であるBilinearより2%向上 →Single Layerよりより4%向上(?)
21.
提案手法における 関係性毎の精度 • 関係性毎に精度は異なるが、いずれも他の手法より 高精度であった (施設や死因などは推測が困難)
22.
初期化方法別による精度比較 • WV-init(事前に教師なし訓練された単語ベクトル で初期化)モデルが最も性能が良くなった。
23.
まとめ • NTNというモデルで2エンティティ間の関係性推測 が良好に行えた • エンティティを単語ベクトルの平均で初期化するこ とにより性能が向上
Download now