SlideShare a Scribd company logo
1 of 87
Download to read offline
ChatGPT帶來的挑戰、
解方與未來商業機會
陳縕儂 Yun-Nung (Vivian) Chen
http://vivianchen.idv.tw
陳縕儂
Yun-Nung (Vivian) Chen
國立台灣大學資訊工程學系 副教授
美國微軟研究院 博士後研究員
美國卡內基美隆大學 碩士 / 博士
國立台灣大學資訊工程學 學士 / 碩士
台灣傑出女科學家新秀獎
吳大猷先生紀念獎
傑出人才基金會年輕學者創新獎
Amazon AWS ML Research Awards
Google Faulty Research Awards
AI & ML
Artificial intelligence (AI) is intelligence—perceiving, synthesizing, and
inferring information—demonstrated by machines, as opposed to
intelligence displayed by animals and humans.
Machine learning (ML) is a field of inquiry devoted to understanding
and building methods that “learn”, that is, methods that leverage data to
improve performance on some set of tasks.
It is seen as a part of artificial intelligence.
• Speech Recognition
• Handwritten Recognition
• Weather forecast
Learning ≈ Looking for a Function
 
f
 
f
 
f
“2”
“你好”
“ Tuesday”
Sunday
Deep Neural Network
• Cascading the neurons to form a neural network
5
1
x
2
x
…
…
Layer 1
…
…
1
y
2
y
…
…
Layer 2
…
…
Layer L
…
…
…
…
…
Input Output
M
y
N
x
Each layer is a simple function in the production line
History of Deep Learning
• 1960s: Perceptron (single layer neural network)
• 1969: Perceptron has limitation
• 1980s: Multi-layer perceptron
• 1986: Backpropagation
• 1989: 1 hidden layer is “good enough”, why deep?
• 2006: RBM initialization (breakthrough)
• 2009: GPU
• 2010: breakthrough in Speech Recognition (Dahl et al., 2010)
• 2012: breakthrough in ImageNet (Krizhevsky et al. 2012)
• 2015: “superhuman” results in Image and Speech Recognition
• 2016: AlphaGo “superhuman” results in Go playing
• 2022: ChatGPT “human-level” results in diverse domains
6
Why does deep learning show breakthrough in applications after 2010?
Why Deep Learning Works
Big Data GPU
GPU for Efficient AI Training
Difference from Prior AI
近期生成式AI與過去的差異
9
Search Engines for Information Seeking
When we don’t know what to search
Extractive 抽取式 vs. Generative 生成式
微軟小冰 vs. ChatGPT
• Extractive-based
o can only answer questions similar to seen ones
o answers may be more reliable
o consider short context in a conversation
• Generative-based
o can answer any unseen questions
o answers needs to be validated
o consider whole context in a conversation
Beginners vs. Professionals
• Extractive-based
o can only answer questions similar to seen ones
o easy to control
• Generative-based
o can answer any unseen questions based on the
known domain knowledge
o difficult to control
Learning Pyramid
● Bloom’s Taxonomy (2001)
CREATE
EVALUATE
ANALYZE
APPLY
UNDERSTAND
REMEMBER
Use information to create some thing new
Grasp meaning of instructional materials
Take apart the known and identify relationships
Use information in a new (but similar) situation
Examine information and make judgements
Recall specific facts
High-order
thinking
skills
Low-order
thinking
skills
GPT: Generative Pretrained Transformer
(Radford et al., 2018)
• Pre-trained on BooksCorpus (~7000 books; 5GB)
16
Transformer
Vivian goes to make tasty tea
goes to make tasty tea
Radford, Alec, Karthik Narasimhan, Tim Salimans, and Ilya Sutskever. "Improving language understanding by generative pre-training." (2018).
<EOS>
<BOS>
Vivian
Vivian goes to make tasty tea
 文字接龍
17
GPT-3 Prompting
• Zero-Shot
• One-Shot
• Few-Shot
18
OpenAI GPT Paradigm
Pre-Trained Data
#Parameters
Model
5GB
0.117 B
GPT (Radford et al., 2018)
40GB
1.5 B
GPT-2 (Radford et al., 2019)
45TB
175 B
GPT-3 (Brown et al., 2020)
?
?
GPT-4 (OpenAI, 2023)
Emergence 湧現
Scale of language model
AI Objectives
Helpful 有用
help the user solve their task
Honest 誠實
shouldn’t fabricate information or
mislead users
Harmless 無傷害性
should not cause physical,
psychological, or social harm to
people or the environment
Helpful
Current output
What we want
Honest
• Hallucinations: output that cannot be verified from the source content
o Pros: factual hallucination improves informativeness of the generated text
o Cons: unverifiable information increases the risk from a safety perspective
22
Source Inform (name=pickwick hotel, pricerange=moderate)
Output the hotel named pickwick hotel in san diego is in a moderate price range
Harmless
What we
want
Current
output
Issues in Pre-Trained Models
1. Helpful – help the user solve their task
Unable to follow the user’s instructions
2. Honest – shouldn’t fabricate information or mislead the
user
Hallucinations
3. Harmless – should not cause physical, psychological,
or social harm to people or the environment
Not easy to detect/identify
24
Solution: RLHF (Reinforcement Learning from Human Feedback)
ChatGPT: Reinforcement Learning from Human Feedback
• Improving GPT via teacher’s feedback
generation update via reinforcement learning
Teacher-given scores
a conversation history
a model-generated output
: 我想了解台灣的知名女歌手。
: 台灣知名女歌手包含蔡依林、…
: 可以替我介紹㇐下蔡依林嗎?
當然沒問題!蔡依林曾獲x次金曲獎… Human Feedback
LLM Development Pipeline
Pretraining
Instruction
tuning
背誦課文 學以致用
Achievements & Limitations
Good at: Open Questions
Good at: Open Questions
Good at: Text Drafting
Good at: Text Drafting
Edge Browser with AI Copilot
Limitations: Training Data Bias
Limitations: Training Data Bias
Limitations: Incorrect Knowledge
Limitations: Incorrect Knowledge
Limitations: Data Privacy
資訊有錯誤怎麼辦?
1. “Human-in-the-loop” 人類把關
• 專家確認 AI 的回答是否正確; 適當追問、修改
• 人類承擔此責任
資訊有錯誤怎麼辦?
2. Domain-specific pre-training/fine-tuning
• 加強特定領域知識
rarely changed
domain-specific data
pre-training / fine-tuning
:
:
資訊有錯誤怎麼辦?
3. Grounding on (dynamically changed)
knowledge resources
• 先進行搜尋
• 搜尋到相關資訊後再看著資料回答
dynamically changed
reference data
顧客資料外流怎麼辦?
1. Microsoft Partnership
• 模型使用授權
• 私人資料保護
fast development, better performance
顧客資料外流怎麼辦?
2. 建置自己的模型
• 訓練自家的 ChatGPT
• 合成資料以增進自家原本 AI 模型效能
safer, lower cost
Alpaca
(Stanford)
LLaMA
(Meta)
Vicuna
(Berkeley, UCSD, CMU)
Taiwan-LLaMa: LMs for Taiwanese Culture
https://github.com/MiuLab/taiwan-llama
Taiwan-LLaMa Demo
Taiwan LLaMa v1.0
ChatGPT
Question
高雄以擁有惡地景觀著名的景點是田寮
月世界。✅
以惡地地景著名的是高雄市的旗津。
以惡地景觀著名的是
高雄哪㇐個景點?
唐鳳是政治評論家、資訊社會學研究者,
也是台灣第㇐位擔任政府數位政委的
人。 ✅
唐鳳(Audrey Tang)是台灣的政治家、
社會活動家和軟體工程師。她於2016年
擔任台灣行政院數位政務委員,是台灣
政府歷史上首位沒有政黨背景的政務官。
唐鳳在軟體工程領域有豐富的經驗。 ✅
唐鳳是誰?
NTU 是國立臺灣大學的縮寫。它是臺灣
的㇐所頂尖研究型大學,位於臺北
市。 ✅
NTU位於新加坡,具體地址是50
Nanyang Avenue, Singapore 639798。
NTU 在哪?
"22K"是指台灣的大學畢業生的起薪,大
約是新台幣22,000元。這個詞被用來形
容大學畢業生的起薪偏低,並且在就業
市場上對於大學畢業生的需求不足。✅
"22K" 可能指的是金的純度,尤其是在珠
寶和金飾方面。
甚麼是22K?
為何需要台灣在地化?
優化繁體中文 避免㇐言堂 加強在地文化
為何現在開始?
Figure from GPT-4 Technical Report
十萬倍
語言模型開發流程
Pretraining
Instruction
tuning
背誦課文 學以致用
朋友買了㇐件衣料,綠色的
底子帶白色方格,㇐位對圍
棋十分感與趣的同學說:
阿好像棋盤似的。
背誦課文
54%
5%
5%
5%
1%
30%
英文 西班牙文 俄文
德文 中文 其他
Numbers from https://en.wikipedia.org/wiki/Languages_used_on_the_Internet
課本從哪來?
90%
10%
簡體 繁體
課本從哪來?
背誦課文
• 從 LLaMA2 (13B) 開始進行預訓練
• 維基百科
• 網路資料 (CommonCrawl)
# Tokens
Category
Datasets
427,662,690
Written (Knowledge)
Wikipedia-zht
4,971,287,180
General (Web)
CC100-zht
背誦課文
• ⾧度上限: 四千
• 每㇐個文本只看過㇐次 (1 Epoch)
• 八張 Nvidia A100 訓練兩週
• 加速技巧
Fully Sharded Data Parallel
Flash Attention v2
Bfloat16
降低記憶體用量
降低運算精準度
背誦課文
朋友買了㇐件衣料,綠色的
底子帶白色方格,㇐位對圍
棋十分感與趣的同學說:
阿好像棋盤似的。
我看倒像稿紙。
真像㇐塊塊綠豆糕。
背誦課文
語言模型開發流程
Pretraining
Instruction
tuning
背誦課文 學以致用
學以致用
數學題
推理題
翻譯題
程式題
文章摘要
角色扮演
知識問答
創意寫作
閒聊
學以致用
• 涵蓋了 15 組模擬考題
• ~ 五十萬條對話
學以致用
• 從 Taiwan-LLaMa-Base 開始進行訓練
• ⾧度上限: 四千
• 每㇐個範例看過三次
• 八張 H100 訓練了十二小時
台灣大小事問答集
Question
古稱螺溪,下游段稱為西螺溪,位於台灣中部,屬於中央管河川,全
⾧約186.6公里,是台灣最⾧的河川,流域面積達3,156.90平方公
里,計畫洪水量為每秒24000立方公尺,流域面積與河口百年洪峰流
量皆僅略次於高屏溪居於台灣第二,下游為彰化縣與雲林縣的界河。
該河川的名稱是:
Question from https://arxiv.org/pdf/2303.04715.pdf
濁水溪 螺溪
台灣大小事問答集
臺灣男演員、中華民國陸軍裝甲兵、中華民國總統府國策顧問、終身
志願工作者,籍貫浙江省餘姚縣。曾參與多部電影的演出。他主持公
共電視節目《孫叔叔說故事》而被稱為「孫叔叔」。1989年宣佈退
出商業演出,全力投入慈善活動,只從事義務性、公益性演出,包括
節目主持、宣導廣告等。第20屆金馬影帝。代表作品有《揚子江風
雲》、《搭錯車》、《群龍戲鳳》等。他的名字是:
Question from https://arxiv.org/pdf/2303.04715.pdf
Question
孫越 孫越
25%
75%
ChatGPT
錯誤
正確
25%
75%
Taiwan LLaMa
錯誤
正確
Question from https://arxiv.org/pdf/2303.04715.pdf
台灣大小事問答集
如何微調成企業級應用?
Taiwan-LLaMa v2.0 測試中
http://twllm.com/
Data Bias Issues
Data Bias Issues
Microsoft New Bing
Microsoft New Bing
想開發 ChatGPT 應用該如何準備?
1)Goal
2)Talent
3)Resources
or
?
?
Future Opportunities
ChatGPT Plugins
Current Advertisements
72
中斷使用者瀏覽觀看等體驗 使用者體驗不佳
Conversational Marketing (AI業配?)
我打算帶我五歲的兒子和兩歲的女兒㇐起去日本迪士尼。
不知道他們能不能忍受在那排隊…
沒錯!迪士尼園區非常適合拍照,而且很多東西都超可愛!
我覺得小朋友們㇐定會買很多東西,我已經有荷包大失血的準備了!
迪士尼樂園很多遊樂設施都有身高與年紀限制,或許你可以帶他們多看表演,
在園區內購物拍照!
如果你要狂購物的話,建議你可以直接申辦信用卡可以直接用日幣帳戶
扣款,趁匯率好的時候換點日幣,這樣完全不用額外手續費。很划算!
73
AI Ethics Principles
Responsible AI
 Transparency and Accountability: transparency in how AI
systems make decisions and operate; accountable for the outcomes
o 《歐盟人工智慧法》將要求公司們,對於這些模型多加說明。如果公司想在歐盟銷售或使用 AI 產
品,但不遵守這些透明化的義務,可能就會面臨最高全球總營業額 6% 的罰款。
 Ethical and Fair Use: ensuring fairness by reducing biases in AI
systems to avoid discrimination
 Privacy and Safety: privacy protection and robustness against
attacks and harm
The EU wants to regulate your favorite AI tools | MIT Technology Review
Elon Musk open-sourced Twitter’s algo
法律規範
經濟部智慧財產局 電子郵件1111031 民國 111 年 10 月 31 日
要旨:
㇐、依我國著作權法第3條第2款及第10條規定,著作人指創作著作之人,著作人於著作完成時
享有著作權。換言之,著作必須係以自然人或法人為權利義務主體的情形下,由自然人所為的
創作,方可能受到著作權的保護。
二、有關人工智慧(AI)的創作,大致上可分為兩種:
(㇐)第㇐種是「以人工智慧為工具的創作」,也就是人類有實際的創意投入,只是把人工智慧
(例如:繪圖軟體)當作輔助工具來使用,在這種情形依輔助工具投入創作者的創意而完成的創
作成果仍可以受著作權保護,著作權則由該投入創意的自然人享有,除非有著作權法第11條及
第12條之情形。
(二)第二種是「人工智慧獨立創作」,也就是人類並無實際的創意投入,完全是由AI的演算功
能獨立進行完成創作,此時由於AI並非自然人,沒有人類精神文明的投入,其創作完成成果自
然不屬於著作權法保護的著作,原則上無法享有著作權。
Real or Fake?
• Google helps identify if the image is
generated by AI
1) Show where on the web it first
appeared and which sites it’s
appeared on
• Google helps identify if the image is
generated by AI
1) Show where on the web it first
appeared and which sites it’s
appeared on
2) Self-labeling in meta-data
Real or Fake?
Data Bias Issues
Data Bias Issues
Microsoft New Bing
Microsoft New Bing
Impact on Human’s Mentality
CREDITS: This presentation template was created by Slidesgo, and includes icons
by Flaticon, and infographics & images by Freepik

More Related Content

Similar to 1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf 1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf

您也可以成為古火田任三郎~假說思考的力量
您也可以成為古火田任三郎~假說思考的力量您也可以成為古火田任三郎~假說思考的力量
您也可以成為古火田任三郎~假說思考的力量基欽 劉
 
MixTaiwan 20170104-趨勢-陳昇瑋-從資料科學到人工智慧
MixTaiwan 20170104-趨勢-陳昇瑋-從資料科學到人工智慧MixTaiwan 20170104-趨勢-陳昇瑋-從資料科學到人工智慧
MixTaiwan 20170104-趨勢-陳昇瑋-從資料科學到人工智慧Mix Taiwan
 
從團隊溝通培養敏捷專案管理:數位轉型的敏捷團隊人力資本—20200617
從團隊溝通培養敏捷專案管理:數位轉型的敏捷團隊人力資本—20200617從團隊溝通培養敏捷專案管理:數位轉型的敏捷團隊人力資本—20200617
從團隊溝通培養敏捷專案管理:數位轉型的敏捷團隊人力資本—20200617張大明 Ta-Ming Chang
 
Ppt的制作与应用
Ppt的制作与应用 Ppt的制作与应用
Ppt的制作与应用 zzk1974
 
20160818巨量資料的分析現況與展望(國發會) 張大明v2.1
20160818巨量資料的分析現況與展望(國發會) 張大明v2.120160818巨量資料的分析現況與展望(國發會) 張大明v2.1
20160818巨量資料的分析現況與展望(國發會) 張大明v2.1張大明 Ta-Ming Chang
 
如何作网络通信领域的研究
如何作网络通信领域的研究如何作网络通信领域的研究
如何作网络通信领域的研究Weiwei Fang
 
网络英语
网络英语网络英语
网络英语feng0112
 
N世代情報收集術
N世代情報收集術N世代情報收集術
N世代情報收集術基欽 劉
 
海量資料與圖書館
海量資料與圖書館海量資料與圖書館
海量資料與圖書館皓仁 柯
 
向咨询行业学工作奥秘
向咨询行业学工作奥秘向咨询行业学工作奥秘
向咨询行业学工作奥秘Kenny Liu
 
課程設計思考工作坊_140922
課程設計思考工作坊_140922課程設計思考工作坊_140922
課程設計思考工作坊_140922基欽 劉
 
數位多媒體腳本設計(2)
數位多媒體腳本設計(2)數位多媒體腳本設計(2)
數位多媒體腳本設計(2)locky333
 
Subgroup-Discovery-2021.pptx
Subgroup-Discovery-2021.pptxSubgroup-Discovery-2021.pptx
Subgroup-Discovery-2021.pptxYung-Ting Chen
 
文化大學國企系 共通核心職能課程-知識職能(Kc)課綱-詹翔霖副教授-職涯規劃
文化大學國企系 共通核心職能課程-知識職能(Kc)課綱-詹翔霖副教授-職涯規劃文化大學國企系 共通核心職能課程-知識職能(Kc)課綱-詹翔霖副教授-職涯規劃
文化大學國企系 共通核心職能課程-知識職能(Kc)課綱-詹翔霖副教授-職涯規劃文化大學
 
類神經網路的極限在哪裡
類神經網路的極限在哪裡 類神經網路的極限在哪裡
類神經網路的極限在哪裡 AI.academy
 
个人知识管理(网络分享版)20110429
个人知识管理(网络分享版)20110429个人知识管理(网络分享版)20110429
个人知识管理(网络分享版)20110429mrchy
 
20211119 - demystified artificial intelligence with NLP
20211119 - demystified artificial intelligence with NLP20211119 - demystified artificial intelligence with NLP
20211119 - demystified artificial intelligence with NLPJamie (Taka) Wang
 
實踐大學 國企系-核心職能課程-知識職能(Kc)課綱-詹翔霖副教授-生涯規劃
實踐大學 國企系-核心職能課程-知識職能(Kc)課綱-詹翔霖副教授-生涯規劃實踐大學 國企系-核心職能課程-知識職能(Kc)課綱-詹翔霖副教授-生涯規劃
實踐大學 國企系-核心職能課程-知識職能(Kc)課綱-詹翔霖副教授-生涯規劃文化大學
 

Similar to 1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf 1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf (20)

您也可以成為古火田任三郎~假說思考的力量
您也可以成為古火田任三郎~假說思考的力量您也可以成為古火田任三郎~假說思考的力量
您也可以成為古火田任三郎~假說思考的力量
 
MixTaiwan 20170104-趨勢-陳昇瑋-從資料科學到人工智慧
MixTaiwan 20170104-趨勢-陳昇瑋-從資料科學到人工智慧MixTaiwan 20170104-趨勢-陳昇瑋-從資料科學到人工智慧
MixTaiwan 20170104-趨勢-陳昇瑋-從資料科學到人工智慧
 
GDSC NYCU下學期社員大會
GDSC NYCU下學期社員大會GDSC NYCU下學期社員大會
GDSC NYCU下學期社員大會
 
從團隊溝通培養敏捷專案管理:數位轉型的敏捷團隊人力資本—20200617
從團隊溝通培養敏捷專案管理:數位轉型的敏捷團隊人力資本—20200617從團隊溝通培養敏捷專案管理:數位轉型的敏捷團隊人力資本—20200617
從團隊溝通培養敏捷專案管理:數位轉型的敏捷團隊人力資本—20200617
 
Colearning
ColearningColearning
Colearning
 
Ppt的制作与应用
Ppt的制作与应用 Ppt的制作与应用
Ppt的制作与应用
 
20160818巨量資料的分析現況與展望(國發會) 張大明v2.1
20160818巨量資料的分析現況與展望(國發會) 張大明v2.120160818巨量資料的分析現況與展望(國發會) 張大明v2.1
20160818巨量資料的分析現況與展望(國發會) 張大明v2.1
 
如何作网络通信领域的研究
如何作网络通信领域的研究如何作网络通信领域的研究
如何作网络通信领域的研究
 
网络英语
网络英语网络英语
网络英语
 
N世代情報收集術
N世代情報收集術N世代情報收集術
N世代情報收集術
 
海量資料與圖書館
海量資料與圖書館海量資料與圖書館
海量資料與圖書館
 
向咨询行业学工作奥秘
向咨询行业学工作奥秘向咨询行业学工作奥秘
向咨询行业学工作奥秘
 
課程設計思考工作坊_140922
課程設計思考工作坊_140922課程設計思考工作坊_140922
課程設計思考工作坊_140922
 
數位多媒體腳本設計(2)
數位多媒體腳本設計(2)數位多媒體腳本設計(2)
數位多媒體腳本設計(2)
 
Subgroup-Discovery-2021.pptx
Subgroup-Discovery-2021.pptxSubgroup-Discovery-2021.pptx
Subgroup-Discovery-2021.pptx
 
文化大學國企系 共通核心職能課程-知識職能(Kc)課綱-詹翔霖副教授-職涯規劃
文化大學國企系 共通核心職能課程-知識職能(Kc)課綱-詹翔霖副教授-職涯規劃文化大學國企系 共通核心職能課程-知識職能(Kc)課綱-詹翔霖副教授-職涯規劃
文化大學國企系 共通核心職能課程-知識職能(Kc)課綱-詹翔霖副教授-職涯規劃
 
類神經網路的極限在哪裡
類神經網路的極限在哪裡 類神經網路的極限在哪裡
類神經網路的極限在哪裡
 
个人知识管理(网络分享版)20110429
个人知识管理(网络分享版)20110429个人知识管理(网络分享版)20110429
个人知识管理(网络分享版)20110429
 
20211119 - demystified artificial intelligence with NLP
20211119 - demystified artificial intelligence with NLP20211119 - demystified artificial intelligence with NLP
20211119 - demystified artificial intelligence with NLP
 
實踐大學 國企系-核心職能課程-知識職能(Kc)課綱-詹翔霖副教授-生涯規劃
實踐大學 國企系-核心職能課程-知識職能(Kc)課綱-詹翔霖副教授-生涯規劃實踐大學 國企系-核心職能課程-知識職能(Kc)課綱-詹翔霖副教授-生涯規劃
實踐大學 國企系-核心職能課程-知識職能(Kc)課綱-詹翔霖副教授-生涯規劃
 

1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf 1017_3_ChatGPT挑戰解方及商機_陳縕儂.pdf