NLP補充
- 3. Listen, Attend and Spell (LAS) Model
• 可被理解成 AM 與 LM 的結合
• AM 是圖中的 Encoder,LM是Decoder
• 用一個多層的 RNN 模型將聲音訊號編碼成模型的
隱狀態向量,可讓模型學到對輸入訊號更多層次的
理解
• 透過Attention機制將聲音訊號本身學出對每個不
同時間輸入的權重,讓模型更有效地捕捉輸出與輸
入局部資訊之間的關聯,並產生將當前輸入經過
attention 權重後的 context vector給予Decoder
去進一步生成預測識別字的機率分佈
揭密Google Cloud Speech API背後的關鍵技術
- 4. Bidirectional Encoder Representations from
Transformers (BERT)
• BERT-LARGE: 24 layers, 1024
dimensions, 16 self-attention head,
340M個參數,並使用維基百科和
BooksCorpus的語料庫,共有33億個單字
參與訓練
近年NLP界幾乎無處不在的架構
當然也是Google的驕傲
- 5. 超大規模語言模型(GPT-3 & MT-NLG)
科技巨頭的軍備競賽
● Generative Pre-trained Transformer 3
: 由OpenAI開發,擅長生成讓人類能理解
的自然語言文本
● Megatron-Turing Natural Language
Generation:
由Microsoft和Nvidia共同開發,於今年
10月發表,是目前世界上最大的自然語言
模型
- 7. 大學生用 GPT-3 AI 寫假文登上 Hacker News榜首
然而,強大的自然語言模型也容易助長假消息的氾濫
● UC Berkeley的CS大學生Liam Porr使用
GPT-3生成了一篇標題為<Feeling
Unproductive? Maybe you should
stop overthinking> 的文章,在幾個小
時內吸引不少流量並登上了熱門榜首
● 雖然看似恐怖,不過對於需要嚴格邏輯
論證的文章而言,機器所生成的文本仍
存在很多缺陷,因此寫論文的不容易被
取代,但某些媒體就不好說了