Ad
Ad
Ad
Ad
Ad
Ad
Ad
Ad
Ad
Ad
Ad
!1
BERT: Pre-training of Deep Bidirectional Transformers for
Language Understanding
Kosuke Suzuki
Kyoto University, Physic...
行なったこと
• BERTを動かしてみた
- 一般の方が公開していたPyTorchコードを参考に実装
- 日本語Wikpediaをコーパスに事前学習 (コーパスサイズ2.5GB)
- Googleが公式に発表しているものよりはるかに小さいモデル...
書誌情報
•Title
– BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
•URL
– ArXiv
•著者
–Jacob Dev...
1 of 18 Ad