4. 概要
● 今回紹介する論文はいわゆるGPTの初期版。
● 一つのモデルを少し変更し、ファインチューニングすることで様々なタスクに対応可能。
● 事前学習に教師無し学習を採用。
● 検証した12個のタスクのうち、9個タスクで当時のstate of the artを達成。
A. Radford, K. Narasimhan, T. Salimans, and I. Sutskever. Improving Language Understanding by
Generative Pre-Training, 2018.
論文URL:
https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf
ソースコードURL:
https://github.com/openai/finetune-transformer-lm
4
22. 識別モデルの学習(教師あり)
22
[start] Rick grew up in a … he is happy now . [clf_token] [pad] [pad] [pad]
GPT
[clf_token]以外から出力されるエンベディングは使用しない
[clf_token]から出力される
エンベディングを使用し
て予測を行う
入力:
x12またはx13
24. 言語モデルの学習(教師なし)
24
[start] Rick grew up in a … he is happy now . [clf_token] [pad] [pad] [pad]
GPT
言語モデルも同時に学習させる(教師なし学習)。
Rick grew up in a … is happy now . [clf_token] [pad] [pad] [pad] [pad]
この範囲が学習対象 [pad]は学習させない