最近の対話型AIの発展 (GPT-4関連)
Sparks ofArtificial General Intelligence: Early experiments with GPT-4
https://arxiv.org/abs/2303.12712
GPT-4 Technical Report
https://arxiv.org/abs/2303.08774
4.
最近の対話型AIの発展 (2023/3時点)
- OpenAI
- Chat GPT: 対話型AI, 現時点の最新はGPT-4を使用
- Microsoft
- Open AI と協業しGPTシリーズをベースとしたモデルを製品に組み込む
- Microsoft 365 Copilot
- GitHub Copilot X
- 新しいBing
- Google
- BARD: 対話型AI, 米国, 英国にてプレビュー
5.
- 大規模なデータセットを用いて学習された深層学習モデル
- Transfomerの登場により急速に発展
- GPTシリーズ (OpenAI)
- BERT, PaLM, T5(Google)
- NLP(自然言語処理)の多様なタスクに適用
- 生成、理解、翻訳、要約
- 人間とコンピュータ間のコミュニケーションが大きく改善
LLM (Large Language Model) の概要
BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding
GPT: Improving Language Understanding by Generative Pre-Training
6.
- ニューラルネットワークの一種
- 自然言語処理において最も重要な技術の一つ
-元論文、”Attention Is All You Need” によって提唱
- Self-attention の導入 (RNN+Attentionが従来の主流)
- RNN, CNNなど従来のモデルよりも高速で精度が高い
- 多くのLLMのベースとして使用
Transformer概要
"Attention is All You Need" (Vaswani et al., 2017)
https://arxiv.org/abs/1706.03762
Transformerの基本
- Self-attention
- シーケンスデータ内の単語の関連性を理解
-並列処理が可能
https://ai.googleblog.com/2017/08/transformer-novel-neural-network.html
https://arxiv.org/abs/1706.03762
1. The animal didn't cross the street because it was too tired
2. The animal didn't cross the street because it was too wide
Decoder
Encoder