2. Outline
• What is BERT?
• Derivative Models from BERT in Specific domain
- SciBERT
- BioBERT
- ClinicalBERT
- ClinicalBERT
!2
3. What is BERT?
BERT: Pre-training of Deep Bidirectional Transformers for
Language Understanding
Jacob Devlin, Ming-Wei Chang, Kenton Lee, Kristina Toutanova
• Google AI が発表した⾔語表現モデル
• 2018年に発表され、他の⾔語表現モデルと共に話題を席巻
他にはELMo、OpenAI GPTなど
• 2019年時点で⽐較⼿法や派⽣モデルとして、多くの論⽂で
触れられる
!3
12. ドメイン特化した
BERT派⽣モデル
• BioBERT: a pre-trained biomedical language representation model for biomedical text
mining
Lee et al., Department of Computer Science and Engineering, Korea University
• SCIBERT: Pretrained Contextualized Embeddings for Scientific Text
Beltagy et al., Allen Institute for Artificial Intelligence
!12
• ClinicalBert: Modeling Clinical Notes and Predicting Hospital Readmission
Huang et al., Courant Institute of Mathematical Sciences
• Publicly Available Clinical BERT Embeddings
Alsentzer et al., Harvard-MIT
⽣物医学ドメイン・科学ドメインに特化
医療ドメイン特化
16. ドメイン特化した
BERT派⽣モデル
• BioBERT: a pre-trained biomedical language representation model for biomedical text
mining
Lee et al., Department of Computer Science and Engineering, Korea University
• SCIBERT: Pretrained Contextualized Embeddings for Scientific Text
Beltagy et al., Allen Institute for Artificial Intelligence
!16
• ClinicalBert: Modeling Clinical Notes and Predicting Hospital
Readmission
Huang et al., Courant Institute of Mathematical Sciences
• Publicly Available Clinical BERT Embeddings
Alsentzer et al., Harvard-MIT
⽣物医学ドメイン・科学ドメインに特化
医療ドメイン特化
17. 医療ドメイン特化
• Publicly Available Clinical BERT Embeddings
医療ドメイン特化したBERTを構築する。事前学習はオリジナルと
同じでFine-TuningにMIMICを⽤いる。
コーパスとする範囲(臨床メモ全て or 退院サマリーのみ)と、利⽤
する事前学習済みモデル(オリジナルBERT or BioBERT)の違いで
性能検証をした。
• ClinicalBert: Modeling Clinical Notes and Predicting Hospital
Readmission
再⼊院の推定というタスクを置きながら、医療ドメイン特化した
BERTを構築する。
!17
23. Reference
• BERT: Pre-training of Deep Bidirectional Transformers for
Language Understanding
• Publicly Available Clinical BERT Embeddings
• ClinicalBERT: Modeling Clinical Notes and Predicting Hospital
Readmission
• BERT: Pre-training of Deep Bidirectional Transformers for
Language Understanding
• How do they apply BERT in the clinical domain?
• Some examples of applying BERT in specific domain
!23