SlideShare a Scribd company logo
1 of 29
Download to read offline
Pengbaolin/SC-GPT
Few-shot Natural Language Generation for Task Oriented Dialog
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
Contributors:
Dates: 2021.06.06
진명훈 백지윤 황소현
1
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
2
Few-shot
Natural Language Generation
for Task Oriented Dialog
https://www.aclweb.org/anthology/2020.findings-emnlp.17/
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
3
https://www.aclweb.org/anthology/2020.findings-emnlp.17/
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
4
New Benchmark FewShotWOZ
New Baseline SC-GPT
SOTA @ MultiWOZ 2.0
https://www.aclweb.org/anthology/2020.findings-emnlp.17/
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
5
What is Task-Oriented Dialogue (TOD)?
https://arxiv.org/pdf/2005.05298.pdf
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
6
Natural Language Generation for TOD
https://arxiv.org/pdf/2005.05298.pdf
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
7
Natural Language Generation for TOD
https://arxiv.org/pdf/2005.05298.pdf
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
8
Natural Language Generation for TOD
Natural Language
Generation (NLG)
• Response는 user에게 보이는 결과물
• 때문에 사용자에게 매력적으로 다가갈 수 있도록 유창할 수록 좋고
• 주어진 Task를 충실히 수행할 수 있어야 함.
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
9
Natural Language Generation for TOD : Typical methodology
1. Template-Based
• Domain knowledge 필요
• 요구되는 의미적 정보를 담기엔 적합
• 유창하지 않기에 UX에 좋지 않음
• 즉, Fluent X || Semantic Response O
2. Statistical-Based
• Ex> Neural Network
• Labeled Corpus로부터 유창한 반응을 학습하여 생성
• SC-LSTM: dialog acts를 one hot 표현으로 encode, 이를 문장 생성을 위한
extra feature로 이용
• Domain specific data 필요
• Dialog acts가 많아질수록 scalability issue 발생
• 즉, Fluent O || Semantic Response 어려움 (많은 annotated data 요구)
https://www.aclweb.org/anthology/P98-1116.pdf
https://www.emnlp2015.org/proceedings/EMNLP/pdf/EMNLP199.pdf
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
10
Few shot NLG for TOD
• 위 문제를 해결하기 위해 Few-Shot Manner로 Dataset 구축 FewShotWOZ
• TOD에서 Few shot learning setting을 테스트할 데이터 셋
• MultiWOZ, Cambridge NLG Dataset에 based
• 각 domain 별 50개의 labeled utterance 존재
• + 위 데이터셋에 대한 benchmark로 SC-GPT 모델 개발
• 3 State Training Strategy
1. Pre-trained on plain text
2. Pre-trained on large amounts of dialog-act labeled utterance corpora to acquire the ability of controllable generation
3. Fine-tuned for a target domain using very limited amounts of domain labels
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
11
Typical TOD: pipeline architecture
NLU: user intents와 기타 key information 추출
DST: dialog의 current state를 유지하는 모듈
POL: DST의 출력(formatted information)을 입력받아 DB, KB에서 검출된 facts
혹은 entities에 기반하여 dialog act를 제공하는 모듈
NLG: POL에 의해 생성된 dialog act로 natural language system response를 생성
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
12
Controllable Pre-Trained Model
• ELMo, BERT, XLNet, Roberta, CTRL, GPT-2, Soloist: Pre-trained model
• GPT-2의 유일한 단점? → Controllability
• 이를 극복하기 위해 Salesforce는 CTRL 제안
• text style, content description, task-specific behavior 등의 control code로 학습
• Grover는 authors, dates 등을 조건으로 한 새로운 기사를 생성하도록 설계
• 그러나 이전 Controllable 연구들의 control code는 dialog에 적용하기엔 적절히 학습되지 못함
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
13
Semantically Conditioned GPT
𝒜 = [ 𝐼 (𝑠1 = 𝑣1, ⋯ , 𝑠𝑃 = 𝑣𝑃)]
Intent Slot-value pairs
Intent: system actions e.g., inform, request, confirm, select
Slot-value pairs: utterance를 표현하기 위한 정보의 category와 content
𝑝𝜃 𝑥 𝒜 = ෑ
𝑡=1
𝑇
𝑝𝜃(𝑥𝑡|𝑥<𝑡, 𝒜)
Auto-regressive generation model MLE Loss
ℒ𝜃 = ෍
𝑛=1
|𝐷|
෍
𝑡=1
𝑇𝑛
log 𝑝𝜃(𝑥𝑡,𝑛|𝑥<𝑡,𝑛, 𝒜𝑛)
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
14
Three-stage procedure as the training recipe.
STAGE 1> Massive Plain Language Pre-training
• Pretrain @ OpenWebText (GPT-2 inheritance)
• Text prompt로 realistic sentence 생성
STAGE 2> Dialog-Act Controlled Pre-training
• (dialog act, response) pairs
• 사용한 Dataset @ Scheme-Guided Dialog Corpus, MultiWOZ, Frame Corpus, Fabebook Multilingual Dialog
• Token size: 40k
• Dialog act를 sequence of control code로 변환
STAGE 3> Fine-tuning
• Stage 2와 동일하게 학습 @ few-shot dataset
• 아래 세 가지 장점이 존재
1. Flexibility: delexicalization없이 sequence 연산
2. Controllability: 적절한 intent, slot-value information으로 문장 생성 + fluency 유지
3. Generalizability: SC-LSTM보다 훨씬 일반화를 잘함 (why? Large dataset)
ℒ𝜃 = ෍
𝑛=1
|𝐷|
෍
𝑡=1
𝑇𝑛
log 𝑝𝜃(𝑥𝑡,𝑛|𝑥<𝑡,𝑛, 𝒜𝑛)
ℒ𝜃 = ෍
𝑛=1
|𝐷|
෍
𝑡=1
𝑇𝑛
log 𝑝𝜃(𝑥𝑡,𝑛|𝑥<𝑡,𝑛)
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
14
Three-stage procedure as the training recipe.
STAGE 1> Massive Plain Language Pre-training
• Pretrain @ OpenWebText (GPT-2 inheritance)
• Text prompt로 realistic sentence 생성
STAGE 2> Dialog-Act Controlled Pre-training
• (dialog act, response) pairs
• 사용한 Dataset @ Scheme-Guided Dialog Corpus, MultiWOZ, Frame Corpus, Fabebook Multilingual Dialog
• Token size: 40k
• Dialog act를 sequence of control code로 변환
STAGE 3> Fine-tuning
• Stage 2와 동일하게 학습 @ few-shot dataset
• 아래 세 가지 장점이 존재
1. Flexibility: delexicalization없이 sequence 연산
2. Controllability: 적절한 intent, slot-value information으로 문장 생성 + fluency 유지
3. Generalizability: SC-LSTM보다 훨씬 일반화를 잘함 (why? Large dataset)
ℒ𝜃 = ෍
𝑛=1
|𝐷|
෍
𝑡=1
𝑇𝑛
log 𝑝𝜃(𝑥𝑡,𝑛|𝑥<𝑡,𝑛, 𝒜𝑛)
ℒ𝜃 = ෍
𝑛=1
|𝐷|
෍
𝑡=1
𝑇𝑛
log 𝑝𝜃(𝑥𝑡,𝑛|𝑥<𝑡,𝑛)
inform ( name = assab eritrean restaurant ; price = between 7 and 11 euro ) & assab eritrean restaurant meal -s cost between 7 and 11 euro
['in', 'form', '_(', '_name', '_=', '_ass', 'ab', '_er', 'it', 're', 'an', '_restaurant', '_;', '_price', '_=', '_between', '_7', '_and', '_11', '_euro', '_)', '_&', '_ass', 'ab', '_er', 'it', 're', 'an', '_restaurant', '_meal', '_-', 's', '_cost', '_between', '_7', '_and', '_11', '_euro’`]
Byte Pair Encoding
[259, 687, 357, 1438, 796, 840, 397, 1931, 270, 260, 272, 7072, 2162, 2756, 796, 1022, 767, 290, 1367, 11063, 1267, 1222, 840, 397, 1931, 270, 260, 272, 7072, 9799, 532, 82, 1575, 1022, 767, 290, 1367, 11063]
Encode
(1, 38, 1024)
Embedding
(1, 38, 1024)
(1, 38, 50257)
lm_head
𝑙𝑜𝑠𝑠 𝑥, 𝑐𝑙𝑎𝑠𝑠 = − log
exp(𝑥 𝑐𝑙𝑎𝑠𝑠 )
σ𝑗 exp(𝑥 𝑗 )
= −𝑥 𝑐𝑙𝑎𝑠𝑠 + log ෍
𝑗
exp(𝑥 𝑗 )
(bsz, seq_len, |V|)
(bsz, seq_len)
(bsz*seq_len, |V|)
(bsz*seq_len)
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
15
https://github.com/pengbaolin/SC-GPT/tree/master/data
Revisiting NLG Benchmarks
• E2E NLG (Novikova et Al., 2017)
• BAGEL (Mairesse et al., 2020)
• RNNLG (Wen et al., 2016a)
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
16
https://github.com/pengbaolin/SC-GPT/tree/master/data
Revisiting NLG Benchmarks
Two issues
I. Labeling cost high: All the datasets contain a large number of labelled training samples for each domain
II. Delexicalised dialog acts overlap ratio too high: difficulties in evaluating the model’s generalization ability for new domains.
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
17
https://github.com/pengbaolin/SC-GPT/tree/master/data
FewShotWOZ
Three advantages
I. More Domains
II. Less training instances (to few shot)
III. Lower training/testing overlap
More domains
flexibility
Low overlapping
Less instances
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
18
FewShotWOZ - statistics
https://github.com/pengbaolin/SC-GPT/tree/master/data
How to collect?
• RNNLG, MultiWOZ의 data를 re-organizing
• MultiWOZ: Attraction, Taxi, Train은 multi-domain이
기 때문에, dialog act가 겹치는 경우가 존재함
• 동일한 target utterance를 위해 동일한 delexicalizing
processing을 거침
• Few shot manner를 위해 50개 instance, Taxi는 40개
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
19
Implementation details
• Built upon 🤗 Huggingface transformers
• GPT2-medium with 345M parameters as the initial checkpoint, BPE for the tokenizer
• Linear rate scheduler with start rate as 5e-5
• Adam with weight decay
• For Pre-training, mini-batch of 8 on an 8 Nvidia V100 machine @ 20 epochs with early stopping
• For tine-tuning on FewShotWOZ, @ 5 epochs
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
20
Implementation details
• Built upon 🤗 Huggingface transformers
• GPT2-medium with 345M parameters as the initial checkpoint, BPE for the tokenizer
• Linear rate scheduler with start rate as 5e-5
• Adam with weight decay
• For Pre-training, mini-batch of 8 on an 8 Nvidia V100 machine @ 20 epochs with early stopping
• For tine-tuning on FewShotWOZ, @ 5 epochs
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
21
Automatic metrics
• Following SC-LSTM, BLEU scores and slot error rate (ERR) 사용
• BLEU: 생성된 발화가 얼마나 자연스러운지를 평가
• ERR: 후보 발화의 slot token과의 exact matching을 측정
𝐸𝑅𝑅 =
𝑝 + 𝑞
𝑀
𝑤ℎ𝑒𝑟𝑒 𝑀: 𝑡𝑜𝑡𝑎𝑙 # 𝑜𝑓 𝑠𝑙𝑜𝑡𝑠 𝑖𝑛 𝑡ℎ𝑒 𝑑𝑖𝑎𝑙𝑜𝑔 𝑎𝑐𝑡
• 각 dialog act별 5개의 utterance를 생성, 가장 적은 ERR을 보이는 문장을 출력
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
22
Human Evaluation
• subjective quality를 위해 Amazon Mechanical Turk를 사용하여 human evaluation을 진행
• master level workers를 고용 (good prior approval rates를 가진)
• 각 문장에 대해 Informativeness, Naturalness를 1(bad) ~ 3(good)으로 채점
• Informativeness: 생성된 발화가 dialog act에 지정된 모든 정보를 얼마나 포함하는지?
• Naturalness: 발화가 인간만큼 자연스러운지
• judgement bias를 줄이기 위해 각 질문을 세 다른 작업자에게 분배함
• 총 5,800개의 judgement를 얻음
Baselines
• SC-LSTM: canonical model, strong baseline that uses an additional dialog act vector and reading gate to guide the uttr generation
• GPT-2: directly fine-tuning without pre-training on the domain-scale corpus of (dialog act, response) pairs
• HDSA: SOTA on MultiWOZ, multi-domain setting에서 transfer가 가능하도록 dialog act structure를 다룸. superior than SC-LSTM
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
23
Performance on FewShotWOZ
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
24
Performance on MultiWOZ 2.0
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
25
Analysis – flexibility, controllability and generalizability
• SEEN: testing set의 dialog act가 training set에 있음
• UNSEEN: testing set의 dialog act가 training set에 없음
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
26
TITLE Introduction Background SC-GPT FewShotWOZ Experiments
27
28

More Related Content

What's hot

제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [ztyle] : 손그림 의류 검색 서비스
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [ztyle] : 손그림 의류 검색 서비스제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [ztyle] : 손그림 의류 검색 서비스
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [ztyle] : 손그림 의류 검색 서비스BOAZ Bigdata
 
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Catch, Traffic!] : 지하철 혼잡도 및 키워드 분석 데이터 파이프라인 구축
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Catch, Traffic!] : 지하철 혼잡도 및 키워드 분석 데이터 파이프라인 구축제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Catch, Traffic!] : 지하철 혼잡도 및 키워드 분석 데이터 파이프라인 구축
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Catch, Traffic!] : 지하철 혼잡도 및 키워드 분석 데이터 파이프라인 구축BOAZ Bigdata
 
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [투니버스] : 스파크 기반 네이버 웹툰 댓글 수집 및 분석
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [투니버스] : 스파크 기반 네이버 웹툰 댓글 수집 및 분석제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [투니버스] : 스파크 기반 네이버 웹툰 댓글 수집 및 분석
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [투니버스] : 스파크 기반 네이버 웹툰 댓글 수집 및 분석BOAZ Bigdata
 
로그 기깔나게 잘 디자인하는 법
로그 기깔나게 잘 디자인하는 법로그 기깔나게 잘 디자인하는 법
로그 기깔나게 잘 디자인하는 법Jeongsang Baek
 
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Indus2ry 팀] : 2022산업동향- 편의점 & OTT 완벽 분석
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Indus2ry 팀] : 2022산업동향- 편의점 & OTT 완벽 분석제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Indus2ry 팀] : 2022산업동향- 편의점 & OTT 완벽 분석
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Indus2ry 팀] : 2022산업동향- 편의점 & OTT 완벽 분석BOAZ Bigdata
 
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [힐링세포들] : MHTI (Mental Health Type Indicator)
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [힐링세포들] : MHTI (Mental Health Type Indicator)제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [힐링세포들] : MHTI (Mental Health Type Indicator)
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [힐링세포들] : MHTI (Mental Health Type Indicator)BOAZ Bigdata
 
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Find Your Style 팀] : 사용자 이미지 라벨링을 통한 의류 추천 시스템
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Find Your Style 팀] : 사용자 이미지 라벨링을 통한 의류 추천 시스템제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Find Your Style 팀] : 사용자 이미지 라벨링을 통한 의류 추천 시스템
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Find Your Style 팀] : 사용자 이미지 라벨링을 통한 의류 추천 시스템BOAZ Bigdata
 
[법무법인 민후] 기기의 고유식별자 등을 이용한 정보처리의 법적 이슈
[법무법인 민후] 기기의 고유식별자 등을 이용한 정보처리의 법적 이슈[법무법인 민후] 기기의 고유식별자 등을 이용한 정보처리의 법적 이슈
[법무법인 민후] 기기의 고유식별자 등을 이용한 정보처리의 법적 이슈MINWHO Law Group
 
데이터 분석에 필요한 기본 개념: 지표, Funnel 등 데이터를 이해하기 위한 멘탈 모델(Mental Model)
데이터 분석에 필요한 기본 개념: 지표, Funnel 등 데이터를 이해하기 위한 멘탈 모델(Mental Model)데이터 분석에 필요한 기본 개념: 지표, Funnel 등 데이터를 이해하기 위한 멘탈 모델(Mental Model)
데이터 분석에 필요한 기본 개념: 지표, Funnel 등 데이터를 이해하기 위한 멘탈 모델(Mental Model)Minwoo Kim
 
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [YouPlace 팀] : 카프카와 스파크를 활용한 유튜브 영상 속 제주 명소 검색
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [YouPlace 팀] : 카프카와 스파크를 활용한 유튜브 영상 속 제주 명소 검색 제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [YouPlace 팀] : 카프카와 스파크를 활용한 유튜브 영상 속 제주 명소 검색
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [YouPlace 팀] : 카프카와 스파크를 활용한 유튜브 영상 속 제주 명소 검색 BOAZ Bigdata
 
제 13회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [스포 적발 강력 1팀] : 네 리뷰가 스포라는 것을 스포한다.
제 13회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [스포 적발 강력 1팀] : 네 리뷰가 스포라는 것을 스포한다.제 13회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [스포 적발 강력 1팀] : 네 리뷰가 스포라는 것을 스포한다.
제 13회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [스포 적발 강력 1팀] : 네 리뷰가 스포라는 것을 스포한다.BOAZ Bigdata
 
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [리뷰의 재발견 팀] : 이커머스 리뷰 유용성 파악 및 필터링
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [리뷰의 재발견 팀] : 이커머스 리뷰 유용성 파악 및 필터링제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [리뷰의 재발견 팀] : 이커머스 리뷰 유용성 파악 및 필터링
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [리뷰의 재발견 팀] : 이커머스 리뷰 유용성 파악 및 필터링BOAZ Bigdata
 
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [추적 24시] : 완전 자동결제를 위한 무인점포 이용자 Tracking System 개발
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스  - [추적 24시] : 완전 자동결제를 위한 무인점포 이용자 Tracking System 개발제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스  - [추적 24시] : 완전 자동결제를 위한 무인점포 이용자 Tracking System 개발
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [추적 24시] : 완전 자동결제를 위한 무인점포 이용자 Tracking System 개발BOAZ Bigdata
 
제 16회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [마페터 팀] : 고객 페르소나를 활용한 마케팅 전략 대시보드
제 16회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [마페터 팀] : 고객 페르소나를 활용한 마케팅 전략 대시보드제 16회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [마페터 팀] : 고객 페르소나를 활용한 마케팅 전략 대시보드
제 16회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [마페터 팀] : 고객 페르소나를 활용한 마케팅 전략 대시보드BOAZ Bigdata
 
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [개미야 뭐하니?팀] : 투자자의 반응을 이용한 실시간 등락 예측(feat. 카프카)
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [개미야 뭐하니?팀] : 투자자의 반응을 이용한 실시간 등락 예측(feat. 카프카)제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [개미야 뭐하니?팀] : 투자자의 반응을 이용한 실시간 등락 예측(feat. 카프카)
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [개미야 뭐하니?팀] : 투자자의 반응을 이용한 실시간 등락 예측(feat. 카프카)BOAZ Bigdata
 
[팝콘 시즌1] 최보경 : 실무자를 위한 인과추론 활용 - Best Practices
[팝콘 시즌1] 최보경 : 실무자를 위한 인과추론 활용 - Best Practices[팝콘 시즌1] 최보경 : 실무자를 위한 인과추론 활용 - Best Practices
[팝콘 시즌1] 최보경 : 실무자를 위한 인과추론 활용 - Best PracticesPAP (Product Analytics Playground)
 
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [쇼미더뮤직 팀] : 텍스트 감정추출을 통한 노래 추천
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [쇼미더뮤직 팀] : 텍스트 감정추출을 통한 노래 추천제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [쇼미더뮤직 팀] : 텍스트 감정추출을 통한 노래 추천
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [쇼미더뮤직 팀] : 텍스트 감정추출을 통한 노래 추천BOAZ Bigdata
 
[팝콘 시즌1] 허현 : 닭이 먼저 달걀이 먼저? 그래인저 인과검정
[팝콘 시즌1] 허현 : 닭이 먼저 달걀이 먼저? 그래인저 인과검정[팝콘 시즌1] 허현 : 닭이 먼저 달걀이 먼저? 그래인저 인과검정
[팝콘 시즌1] 허현 : 닭이 먼저 달걀이 먼저? 그래인저 인과검정PAP (Product Analytics Playground)
 
Recommendation System History
Recommendation System HistoryRecommendation System History
Recommendation System HistoryTae Young Lee
 
그래프에서 대시보드까지, 서비스를 위한 데이터 시각화
그래프에서 대시보드까지, 서비스를 위한 데이터 시각화그래프에서 대시보드까지, 서비스를 위한 데이터 시각화
그래프에서 대시보드까지, 서비스를 위한 데이터 시각화Minho Lee
 

What's hot (20)

제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [ztyle] : 손그림 의류 검색 서비스
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [ztyle] : 손그림 의류 검색 서비스제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [ztyle] : 손그림 의류 검색 서비스
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [ztyle] : 손그림 의류 검색 서비스
 
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Catch, Traffic!] : 지하철 혼잡도 및 키워드 분석 데이터 파이프라인 구축
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Catch, Traffic!] : 지하철 혼잡도 및 키워드 분석 데이터 파이프라인 구축제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Catch, Traffic!] : 지하철 혼잡도 및 키워드 분석 데이터 파이프라인 구축
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Catch, Traffic!] : 지하철 혼잡도 및 키워드 분석 데이터 파이프라인 구축
 
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [투니버스] : 스파크 기반 네이버 웹툰 댓글 수집 및 분석
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [투니버스] : 스파크 기반 네이버 웹툰 댓글 수집 및 분석제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [투니버스] : 스파크 기반 네이버 웹툰 댓글 수집 및 분석
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [투니버스] : 스파크 기반 네이버 웹툰 댓글 수집 및 분석
 
로그 기깔나게 잘 디자인하는 법
로그 기깔나게 잘 디자인하는 법로그 기깔나게 잘 디자인하는 법
로그 기깔나게 잘 디자인하는 법
 
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Indus2ry 팀] : 2022산업동향- 편의점 & OTT 완벽 분석
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Indus2ry 팀] : 2022산업동향- 편의점 & OTT 완벽 분석제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Indus2ry 팀] : 2022산업동향- 편의점 & OTT 완벽 분석
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Indus2ry 팀] : 2022산업동향- 편의점 & OTT 완벽 분석
 
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [힐링세포들] : MHTI (Mental Health Type Indicator)
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [힐링세포들] : MHTI (Mental Health Type Indicator)제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [힐링세포들] : MHTI (Mental Health Type Indicator)
제 17회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [힐링세포들] : MHTI (Mental Health Type Indicator)
 
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Find Your Style 팀] : 사용자 이미지 라벨링을 통한 의류 추천 시스템
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Find Your Style 팀] : 사용자 이미지 라벨링을 통한 의류 추천 시스템제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Find Your Style 팀] : 사용자 이미지 라벨링을 통한 의류 추천 시스템
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [Find Your Style 팀] : 사용자 이미지 라벨링을 통한 의류 추천 시스템
 
[법무법인 민후] 기기의 고유식별자 등을 이용한 정보처리의 법적 이슈
[법무법인 민후] 기기의 고유식별자 등을 이용한 정보처리의 법적 이슈[법무법인 민후] 기기의 고유식별자 등을 이용한 정보처리의 법적 이슈
[법무법인 민후] 기기의 고유식별자 등을 이용한 정보처리의 법적 이슈
 
데이터 분석에 필요한 기본 개념: 지표, Funnel 등 데이터를 이해하기 위한 멘탈 모델(Mental Model)
데이터 분석에 필요한 기본 개념: 지표, Funnel 등 데이터를 이해하기 위한 멘탈 모델(Mental Model)데이터 분석에 필요한 기본 개념: 지표, Funnel 등 데이터를 이해하기 위한 멘탈 모델(Mental Model)
데이터 분석에 필요한 기본 개념: 지표, Funnel 등 데이터를 이해하기 위한 멘탈 모델(Mental Model)
 
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [YouPlace 팀] : 카프카와 스파크를 활용한 유튜브 영상 속 제주 명소 검색
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [YouPlace 팀] : 카프카와 스파크를 활용한 유튜브 영상 속 제주 명소 검색 제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [YouPlace 팀] : 카프카와 스파크를 활용한 유튜브 영상 속 제주 명소 검색
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [YouPlace 팀] : 카프카와 스파크를 활용한 유튜브 영상 속 제주 명소 검색
 
제 13회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [스포 적발 강력 1팀] : 네 리뷰가 스포라는 것을 스포한다.
제 13회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [스포 적발 강력 1팀] : 네 리뷰가 스포라는 것을 스포한다.제 13회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [스포 적발 강력 1팀] : 네 리뷰가 스포라는 것을 스포한다.
제 13회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [스포 적발 강력 1팀] : 네 리뷰가 스포라는 것을 스포한다.
 
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [리뷰의 재발견 팀] : 이커머스 리뷰 유용성 파악 및 필터링
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [리뷰의 재발견 팀] : 이커머스 리뷰 유용성 파악 및 필터링제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [리뷰의 재발견 팀] : 이커머스 리뷰 유용성 파악 및 필터링
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [리뷰의 재발견 팀] : 이커머스 리뷰 유용성 파악 및 필터링
 
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [추적 24시] : 완전 자동결제를 위한 무인점포 이용자 Tracking System 개발
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스  - [추적 24시] : 완전 자동결제를 위한 무인점포 이용자 Tracking System 개발제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스  - [추적 24시] : 완전 자동결제를 위한 무인점포 이용자 Tracking System 개발
제 18회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [추적 24시] : 완전 자동결제를 위한 무인점포 이용자 Tracking System 개발
 
제 16회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [마페터 팀] : 고객 페르소나를 활용한 마케팅 전략 대시보드
제 16회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [마페터 팀] : 고객 페르소나를 활용한 마케팅 전략 대시보드제 16회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [마페터 팀] : 고객 페르소나를 활용한 마케팅 전략 대시보드
제 16회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [마페터 팀] : 고객 페르소나를 활용한 마케팅 전략 대시보드
 
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [개미야 뭐하니?팀] : 투자자의 반응을 이용한 실시간 등락 예측(feat. 카프카)
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [개미야 뭐하니?팀] : 투자자의 반응을 이용한 실시간 등락 예측(feat. 카프카)제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [개미야 뭐하니?팀] : 투자자의 반응을 이용한 실시간 등락 예측(feat. 카프카)
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [개미야 뭐하니?팀] : 투자자의 반응을 이용한 실시간 등락 예측(feat. 카프카)
 
[팝콘 시즌1] 최보경 : 실무자를 위한 인과추론 활용 - Best Practices
[팝콘 시즌1] 최보경 : 실무자를 위한 인과추론 활용 - Best Practices[팝콘 시즌1] 최보경 : 실무자를 위한 인과추론 활용 - Best Practices
[팝콘 시즌1] 최보경 : 실무자를 위한 인과추론 활용 - Best Practices
 
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [쇼미더뮤직 팀] : 텍스트 감정추출을 통한 노래 추천
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [쇼미더뮤직 팀] : 텍스트 감정추출을 통한 노래 추천제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [쇼미더뮤직 팀] : 텍스트 감정추출을 통한 노래 추천
제 15회 보아즈(BOAZ) 빅데이터 컨퍼런스 - [쇼미더뮤직 팀] : 텍스트 감정추출을 통한 노래 추천
 
[팝콘 시즌1] 허현 : 닭이 먼저 달걀이 먼저? 그래인저 인과검정
[팝콘 시즌1] 허현 : 닭이 먼저 달걀이 먼저? 그래인저 인과검정[팝콘 시즌1] 허현 : 닭이 먼저 달걀이 먼저? 그래인저 인과검정
[팝콘 시즌1] 허현 : 닭이 먼저 달걀이 먼저? 그래인저 인과검정
 
Recommendation System History
Recommendation System HistoryRecommendation System History
Recommendation System History
 
그래프에서 대시보드까지, 서비스를 위한 데이터 시각화
그래프에서 대시보드까지, 서비스를 위한 데이터 시각화그래프에서 대시보드까지, 서비스를 위한 데이터 시각화
그래프에서 대시보드까지, 서비스를 위한 데이터 시각화
 

Similar to SCGPT : Few-shot Natural Language Generation for Task-Oriented Dialog

SQL for Elasticsearch
SQL for ElasticsearchSQL for Elasticsearch
SQL for ElasticsearchJodok Batlogg
 
BloombergGPT.pdfA Large Language Model for Finance
BloombergGPT.pdfA Large Language Model for FinanceBloombergGPT.pdfA Large Language Model for Finance
BloombergGPT.pdfA Large Language Model for Finance957671457
 
Linq 1224887336792847 9
Linq 1224887336792847 9Linq 1224887336792847 9
Linq 1224887336792847 9google
 
The Art of Database Experiments – PostgresConf Silicon Valley 2018 / San Jose
The Art of Database Experiments – PostgresConf Silicon Valley 2018 / San JoseThe Art of Database Experiments – PostgresConf Silicon Valley 2018 / San Jose
The Art of Database Experiments – PostgresConf Silicon Valley 2018 / San JoseNikolay Samokhvalov
 
Serverless ETL and Optimization on ML pipeline
Serverless ETL and Optimization on ML pipelineServerless ETL and Optimization on ML pipeline
Serverless ETL and Optimization on ML pipelineShu-Jeng Hsieh
 
Agile Days Twin Cities 2011
Agile Days Twin Cities 2011Agile Days Twin Cities 2011
Agile Days Twin Cities 2011Brian Repko
 
GSoC2014 - Uniritter Presentation May, 2015
GSoC2014 - Uniritter Presentation May, 2015GSoC2014 - Uniritter Presentation May, 2015
GSoC2014 - Uniritter Presentation May, 2015Fabrízio Mello
 
Cómo se diseña una base de datos que pueda ingerir más de cuatro millones de ...
Cómo se diseña una base de datos que pueda ingerir más de cuatro millones de ...Cómo se diseña una base de datos que pueda ingerir más de cuatro millones de ...
Cómo se diseña una base de datos que pueda ingerir más de cuatro millones de ...javier ramirez
 
OpenAI GPT in Depth - Questions and Misconceptions
OpenAI GPT in Depth - Questions and MisconceptionsOpenAI GPT in Depth - Questions and Misconceptions
OpenAI GPT in Depth - Questions and MisconceptionsIvo Andreev
 
Linq To The Enterprise
Linq To The EnterpriseLinq To The Enterprise
Linq To The EnterpriseDaniel Egan
 
Prometheus as exposition format for eBPF programs running on Kubernetes
Prometheus as exposition format for eBPF programs running on KubernetesPrometheus as exposition format for eBPF programs running on Kubernetes
Prometheus as exposition format for eBPF programs running on KubernetesLeonardo Di Donato
 
Java one 2015 [con3339]
Java one 2015 [con3339]Java one 2015 [con3339]
Java one 2015 [con3339]Arshal Ameen
 
NLP-Focused Applied ML at Scale for Global Fleet Analytics at ExxonMobil
NLP-Focused Applied ML at Scale for Global Fleet Analytics at ExxonMobilNLP-Focused Applied ML at Scale for Global Fleet Analytics at ExxonMobil
NLP-Focused Applied ML at Scale for Global Fleet Analytics at ExxonMobilDatabricks
 
Streaming huge databases using logical decoding
Streaming huge databases using logical decodingStreaming huge databases using logical decoding
Streaming huge databases using logical decodingAlexander Shulgin
 
QuestDB: ingesting a million time series per second on a single instance. Big...
QuestDB: ingesting a million time series per second on a single instance. Big...QuestDB: ingesting a million time series per second on a single instance. Big...
QuestDB: ingesting a million time series per second on a single instance. Big...javier ramirez
 
Beyond Breakpoints: A Tour of Dynamic Analysis
Beyond Breakpoints: A Tour of Dynamic AnalysisBeyond Breakpoints: A Tour of Dynamic Analysis
Beyond Breakpoints: A Tour of Dynamic AnalysisC4Media
 
Behavior Driven Development with SpecFlow
Behavior Driven Development with SpecFlowBehavior Driven Development with SpecFlow
Behavior Driven Development with SpecFlowRachid Kherrazi
 
Behavior Driven Testing with SpecFlow
Behavior Driven Testing with SpecFlowBehavior Driven Testing with SpecFlow
Behavior Driven Testing with SpecFlowRachid Kherrazi
 
How do OpenAI GPT Models Work - Misconceptions and Tips for Developers
How do OpenAI GPT Models Work - Misconceptions and Tips for DevelopersHow do OpenAI GPT Models Work - Misconceptions and Tips for Developers
How do OpenAI GPT Models Work - Misconceptions and Tips for DevelopersIvo Andreev
 

Similar to SCGPT : Few-shot Natural Language Generation for Task-Oriented Dialog (20)

SQL for Elasticsearch
SQL for ElasticsearchSQL for Elasticsearch
SQL for Elasticsearch
 
BloombergGPT.pdfA Large Language Model for Finance
BloombergGPT.pdfA Large Language Model for FinanceBloombergGPT.pdfA Large Language Model for Finance
BloombergGPT.pdfA Large Language Model for Finance
 
Linq 1224887336792847 9
Linq 1224887336792847 9Linq 1224887336792847 9
Linq 1224887336792847 9
 
The Art of Database Experiments – PostgresConf Silicon Valley 2018 / San Jose
The Art of Database Experiments – PostgresConf Silicon Valley 2018 / San JoseThe Art of Database Experiments – PostgresConf Silicon Valley 2018 / San Jose
The Art of Database Experiments – PostgresConf Silicon Valley 2018 / San Jose
 
Serverless ETL and Optimization on ML pipeline
Serverless ETL and Optimization on ML pipelineServerless ETL and Optimization on ML pipeline
Serverless ETL and Optimization on ML pipeline
 
Agile Days Twin Cities 2011
Agile Days Twin Cities 2011Agile Days Twin Cities 2011
Agile Days Twin Cities 2011
 
GSoC2014 - Uniritter Presentation May, 2015
GSoC2014 - Uniritter Presentation May, 2015GSoC2014 - Uniritter Presentation May, 2015
GSoC2014 - Uniritter Presentation May, 2015
 
Cómo se diseña una base de datos que pueda ingerir más de cuatro millones de ...
Cómo se diseña una base de datos que pueda ingerir más de cuatro millones de ...Cómo se diseña una base de datos que pueda ingerir más de cuatro millones de ...
Cómo se diseña una base de datos que pueda ingerir más de cuatro millones de ...
 
OpenAI GPT in Depth - Questions and Misconceptions
OpenAI GPT in Depth - Questions and MisconceptionsOpenAI GPT in Depth - Questions and Misconceptions
OpenAI GPT in Depth - Questions and Misconceptions
 
Linq To The Enterprise
Linq To The EnterpriseLinq To The Enterprise
Linq To The Enterprise
 
Prometheus as exposition format for eBPF programs running on Kubernetes
Prometheus as exposition format for eBPF programs running on KubernetesPrometheus as exposition format for eBPF programs running on Kubernetes
Prometheus as exposition format for eBPF programs running on Kubernetes
 
Java one 2015 [con3339]
Java one 2015 [con3339]Java one 2015 [con3339]
Java one 2015 [con3339]
 
NLP-Focused Applied ML at Scale for Global Fleet Analytics at ExxonMobil
NLP-Focused Applied ML at Scale for Global Fleet Analytics at ExxonMobilNLP-Focused Applied ML at Scale for Global Fleet Analytics at ExxonMobil
NLP-Focused Applied ML at Scale for Global Fleet Analytics at ExxonMobil
 
Streaming huge databases using logical decoding
Streaming huge databases using logical decodingStreaming huge databases using logical decoding
Streaming huge databases using logical decoding
 
QuestDB: ingesting a million time series per second on a single instance. Big...
QuestDB: ingesting a million time series per second on a single instance. Big...QuestDB: ingesting a million time series per second on a single instance. Big...
QuestDB: ingesting a million time series per second on a single instance. Big...
 
Beyond Breakpoints: A Tour of Dynamic Analysis
Beyond Breakpoints: A Tour of Dynamic AnalysisBeyond Breakpoints: A Tour of Dynamic Analysis
Beyond Breakpoints: A Tour of Dynamic Analysis
 
Behavior Driven Development with SpecFlow
Behavior Driven Development with SpecFlowBehavior Driven Development with SpecFlow
Behavior Driven Development with SpecFlow
 
Behavior Driven Testing with SpecFlow
Behavior Driven Testing with SpecFlowBehavior Driven Testing with SpecFlow
Behavior Driven Testing with SpecFlow
 
How do OpenAI GPT Models Work - Misconceptions and Tips for Developers
How do OpenAI GPT Models Work - Misconceptions and Tips for DevelopersHow do OpenAI GPT Models Work - Misconceptions and Tips for Developers
How do OpenAI GPT Models Work - Misconceptions and Tips for Developers
 
santhosh popshetwar
santhosh popshetwarsanthosh popshetwar
santhosh popshetwar
 

More from taeseon ryu

OpineSum Entailment-based self-training for abstractive opinion summarization...
OpineSum Entailment-based self-training for abstractive opinion summarization...OpineSum Entailment-based self-training for abstractive opinion summarization...
OpineSum Entailment-based self-training for abstractive opinion summarization...taeseon ryu
 
3D Gaussian Splatting
3D Gaussian Splatting3D Gaussian Splatting
3D Gaussian Splattingtaeseon ryu
 
Hyperbolic Image Embedding.pptx
Hyperbolic  Image Embedding.pptxHyperbolic  Image Embedding.pptx
Hyperbolic Image Embedding.pptxtaeseon ryu
 
MCSE_Multimodal Contrastive Learning of Sentence Embeddings_변현정
MCSE_Multimodal Contrastive Learning of Sentence Embeddings_변현정MCSE_Multimodal Contrastive Learning of Sentence Embeddings_변현정
MCSE_Multimodal Contrastive Learning of Sentence Embeddings_변현정taeseon ryu
 
LLaMA Open and Efficient Foundation Language Models - 230528.pdf
LLaMA Open and Efficient Foundation Language Models - 230528.pdfLLaMA Open and Efficient Foundation Language Models - 230528.pdf
LLaMA Open and Efficient Foundation Language Models - 230528.pdftaeseon ryu
 
Dataset Distillation by Matching Training Trajectories
Dataset Distillation by Matching Training Trajectories Dataset Distillation by Matching Training Trajectories
Dataset Distillation by Matching Training Trajectories taeseon ryu
 
Packed Levitated Marker for Entity and Relation Extraction
Packed Levitated Marker for Entity and Relation ExtractionPacked Levitated Marker for Entity and Relation Extraction
Packed Levitated Marker for Entity and Relation Extractiontaeseon ryu
 
MOReL: Model-Based Offline Reinforcement Learning
MOReL: Model-Based Offline Reinforcement LearningMOReL: Model-Based Offline Reinforcement Learning
MOReL: Model-Based Offline Reinforcement Learningtaeseon ryu
 
Scaling Instruction-Finetuned Language Models
Scaling Instruction-Finetuned Language ModelsScaling Instruction-Finetuned Language Models
Scaling Instruction-Finetuned Language Modelstaeseon ryu
 
Visual prompt tuning
Visual prompt tuningVisual prompt tuning
Visual prompt tuningtaeseon ryu
 
variBAD, A Very Good Method for Bayes-Adaptive Deep RL via Meta-Learning.pdf
variBAD, A Very Good Method for Bayes-Adaptive Deep RL via Meta-Learning.pdfvariBAD, A Very Good Method for Bayes-Adaptive Deep RL via Meta-Learning.pdf
variBAD, A Very Good Method for Bayes-Adaptive Deep RL via Meta-Learning.pdftaeseon ryu
 
Reinforced Genetic Algorithm Learning For Optimizing Computation Graphs.pdf
Reinforced Genetic Algorithm Learning For Optimizing Computation Graphs.pdfReinforced Genetic Algorithm Learning For Optimizing Computation Graphs.pdf
Reinforced Genetic Algorithm Learning For Optimizing Computation Graphs.pdftaeseon ryu
 
The Forward-Forward Algorithm
The Forward-Forward AlgorithmThe Forward-Forward Algorithm
The Forward-Forward Algorithmtaeseon ryu
 
Towards Robust and Reproducible Active Learning using Neural Networks
Towards Robust and Reproducible Active Learning using Neural NetworksTowards Robust and Reproducible Active Learning using Neural Networks
Towards Robust and Reproducible Active Learning using Neural Networkstaeseon ryu
 
BRIO: Bringing Order to Abstractive Summarization
BRIO: Bringing Order to Abstractive SummarizationBRIO: Bringing Order to Abstractive Summarization
BRIO: Bringing Order to Abstractive Summarizationtaeseon ryu
 

More from taeseon ryu (20)

VoxelNet
VoxelNetVoxelNet
VoxelNet
 
OpineSum Entailment-based self-training for abstractive opinion summarization...
OpineSum Entailment-based self-training for abstractive opinion summarization...OpineSum Entailment-based self-training for abstractive opinion summarization...
OpineSum Entailment-based self-training for abstractive opinion summarization...
 
3D Gaussian Splatting
3D Gaussian Splatting3D Gaussian Splatting
3D Gaussian Splatting
 
JetsonTX2 Python
 JetsonTX2 Python  JetsonTX2 Python
JetsonTX2 Python
 
Hyperbolic Image Embedding.pptx
Hyperbolic  Image Embedding.pptxHyperbolic  Image Embedding.pptx
Hyperbolic Image Embedding.pptx
 
MCSE_Multimodal Contrastive Learning of Sentence Embeddings_변현정
MCSE_Multimodal Contrastive Learning of Sentence Embeddings_변현정MCSE_Multimodal Contrastive Learning of Sentence Embeddings_변현정
MCSE_Multimodal Contrastive Learning of Sentence Embeddings_변현정
 
LLaMA Open and Efficient Foundation Language Models - 230528.pdf
LLaMA Open and Efficient Foundation Language Models - 230528.pdfLLaMA Open and Efficient Foundation Language Models - 230528.pdf
LLaMA Open and Efficient Foundation Language Models - 230528.pdf
 
YOLO V6
YOLO V6YOLO V6
YOLO V6
 
Dataset Distillation by Matching Training Trajectories
Dataset Distillation by Matching Training Trajectories Dataset Distillation by Matching Training Trajectories
Dataset Distillation by Matching Training Trajectories
 
RL_UpsideDown
RL_UpsideDownRL_UpsideDown
RL_UpsideDown
 
Packed Levitated Marker for Entity and Relation Extraction
Packed Levitated Marker for Entity and Relation ExtractionPacked Levitated Marker for Entity and Relation Extraction
Packed Levitated Marker for Entity and Relation Extraction
 
MOReL: Model-Based Offline Reinforcement Learning
MOReL: Model-Based Offline Reinforcement LearningMOReL: Model-Based Offline Reinforcement Learning
MOReL: Model-Based Offline Reinforcement Learning
 
Scaling Instruction-Finetuned Language Models
Scaling Instruction-Finetuned Language ModelsScaling Instruction-Finetuned Language Models
Scaling Instruction-Finetuned Language Models
 
Visual prompt tuning
Visual prompt tuningVisual prompt tuning
Visual prompt tuning
 
mPLUG
mPLUGmPLUG
mPLUG
 
variBAD, A Very Good Method for Bayes-Adaptive Deep RL via Meta-Learning.pdf
variBAD, A Very Good Method for Bayes-Adaptive Deep RL via Meta-Learning.pdfvariBAD, A Very Good Method for Bayes-Adaptive Deep RL via Meta-Learning.pdf
variBAD, A Very Good Method for Bayes-Adaptive Deep RL via Meta-Learning.pdf
 
Reinforced Genetic Algorithm Learning For Optimizing Computation Graphs.pdf
Reinforced Genetic Algorithm Learning For Optimizing Computation Graphs.pdfReinforced Genetic Algorithm Learning For Optimizing Computation Graphs.pdf
Reinforced Genetic Algorithm Learning For Optimizing Computation Graphs.pdf
 
The Forward-Forward Algorithm
The Forward-Forward AlgorithmThe Forward-Forward Algorithm
The Forward-Forward Algorithm
 
Towards Robust and Reproducible Active Learning using Neural Networks
Towards Robust and Reproducible Active Learning using Neural NetworksTowards Robust and Reproducible Active Learning using Neural Networks
Towards Robust and Reproducible Active Learning using Neural Networks
 
BRIO: Bringing Order to Abstractive Summarization
BRIO: Bringing Order to Abstractive SummarizationBRIO: Bringing Order to Abstractive Summarization
BRIO: Bringing Order to Abstractive Summarization
 

Recently uploaded

20240419 - Measurecamp Amsterdam - SAM.pdf
20240419 - Measurecamp Amsterdam - SAM.pdf20240419 - Measurecamp Amsterdam - SAM.pdf
20240419 - Measurecamp Amsterdam - SAM.pdfHuman37
 
Consent & Privacy Signals on Google *Pixels* - MeasureCamp Amsterdam 2024
Consent & Privacy Signals on Google *Pixels* - MeasureCamp Amsterdam 2024Consent & Privacy Signals on Google *Pixels* - MeasureCamp Amsterdam 2024
Consent & Privacy Signals on Google *Pixels* - MeasureCamp Amsterdam 2024thyngster
 
RA-11058_IRR-COMPRESS Do 198 series of 1998
RA-11058_IRR-COMPRESS Do 198 series of 1998RA-11058_IRR-COMPRESS Do 198 series of 1998
RA-11058_IRR-COMPRESS Do 198 series of 1998YohFuh
 
科罗拉多大学波尔得分校毕业证学位证成绩单-可办理
科罗拉多大学波尔得分校毕业证学位证成绩单-可办理科罗拉多大学波尔得分校毕业证学位证成绩单-可办理
科罗拉多大学波尔得分校毕业证学位证成绩单-可办理e4aez8ss
 
Kantar AI Summit- Under Embargo till Wednesday, 24th April 2024, 4 PM, IST.pdf
Kantar AI Summit- Under Embargo till Wednesday, 24th April 2024, 4 PM, IST.pdfKantar AI Summit- Under Embargo till Wednesday, 24th April 2024, 4 PM, IST.pdf
Kantar AI Summit- Under Embargo till Wednesday, 24th April 2024, 4 PM, IST.pdfSocial Samosa
 
毕业文凭制作#回国入职#diploma#degree澳洲中央昆士兰大学毕业证成绩单pdf电子版制作修改#毕业文凭制作#回国入职#diploma#degree
毕业文凭制作#回国入职#diploma#degree澳洲中央昆士兰大学毕业证成绩单pdf电子版制作修改#毕业文凭制作#回国入职#diploma#degree毕业文凭制作#回国入职#diploma#degree澳洲中央昆士兰大学毕业证成绩单pdf电子版制作修改#毕业文凭制作#回国入职#diploma#degree
毕业文凭制作#回国入职#diploma#degree澳洲中央昆士兰大学毕业证成绩单pdf电子版制作修改#毕业文凭制作#回国入职#diploma#degreeyuu sss
 
Amazon TQM (2) Amazon TQM (2)Amazon TQM (2).pptx
Amazon TQM (2) Amazon TQM (2)Amazon TQM (2).pptxAmazon TQM (2) Amazon TQM (2)Amazon TQM (2).pptx
Amazon TQM (2) Amazon TQM (2)Amazon TQM (2).pptxAbdelrhman abooda
 
dokumen.tips_chapter-4-transient-heat-conduction-mehmet-kanoglu.ppt
dokumen.tips_chapter-4-transient-heat-conduction-mehmet-kanoglu.pptdokumen.tips_chapter-4-transient-heat-conduction-mehmet-kanoglu.ppt
dokumen.tips_chapter-4-transient-heat-conduction-mehmet-kanoglu.pptSonatrach
 
Indian Call Girls in Abu Dhabi O5286O24O8 Call Girls in Abu Dhabi By Independ...
Indian Call Girls in Abu Dhabi O5286O24O8 Call Girls in Abu Dhabi By Independ...Indian Call Girls in Abu Dhabi O5286O24O8 Call Girls in Abu Dhabi By Independ...
Indian Call Girls in Abu Dhabi O5286O24O8 Call Girls in Abu Dhabi By Independ...dajasot375
 
RadioAdProWritingCinderellabyButleri.pdf
RadioAdProWritingCinderellabyButleri.pdfRadioAdProWritingCinderellabyButleri.pdf
RadioAdProWritingCinderellabyButleri.pdfgstagge
 
RS 9000 Call In girls Dwarka Mor (DELHI)⇛9711147426🔝Delhi
RS 9000 Call In girls Dwarka Mor (DELHI)⇛9711147426🔝DelhiRS 9000 Call In girls Dwarka Mor (DELHI)⇛9711147426🔝Delhi
RS 9000 Call In girls Dwarka Mor (DELHI)⇛9711147426🔝Delhijennyeacort
 
Saket, (-DELHI )+91-9654467111-(=)CHEAP Call Girls in Escorts Service Saket C...
Saket, (-DELHI )+91-9654467111-(=)CHEAP Call Girls in Escorts Service Saket C...Saket, (-DELHI )+91-9654467111-(=)CHEAP Call Girls in Escorts Service Saket C...
Saket, (-DELHI )+91-9654467111-(=)CHEAP Call Girls in Escorts Service Saket C...Sapana Sha
 
B2 Creative Industry Response Evaluation.docx
B2 Creative Industry Response Evaluation.docxB2 Creative Industry Response Evaluation.docx
B2 Creative Industry Response Evaluation.docxStephen266013
 
Predictive Analysis - Using Insight-informed Data to Determine Factors Drivin...
Predictive Analysis - Using Insight-informed Data to Determine Factors Drivin...Predictive Analysis - Using Insight-informed Data to Determine Factors Drivin...
Predictive Analysis - Using Insight-informed Data to Determine Factors Drivin...ThinkInnovation
 
PKS-TGC-1084-630 - Stage 1 Proposal.pptx
PKS-TGC-1084-630 - Stage 1 Proposal.pptxPKS-TGC-1084-630 - Stage 1 Proposal.pptx
PKS-TGC-1084-630 - Stage 1 Proposal.pptxPramod Kumar Srivastava
 
04242024_CCC TUG_Joins and Relationships
04242024_CCC TUG_Joins and Relationships04242024_CCC TUG_Joins and Relationships
04242024_CCC TUG_Joins and Relationshipsccctableauusergroup
 
Dubai Call Girls Wifey O52&786472 Call Girls Dubai
Dubai Call Girls Wifey O52&786472 Call Girls DubaiDubai Call Girls Wifey O52&786472 Call Girls Dubai
Dubai Call Girls Wifey O52&786472 Call Girls Dubaihf8803863
 

Recently uploaded (20)

20240419 - Measurecamp Amsterdam - SAM.pdf
20240419 - Measurecamp Amsterdam - SAM.pdf20240419 - Measurecamp Amsterdam - SAM.pdf
20240419 - Measurecamp Amsterdam - SAM.pdf
 
Consent & Privacy Signals on Google *Pixels* - MeasureCamp Amsterdam 2024
Consent & Privacy Signals on Google *Pixels* - MeasureCamp Amsterdam 2024Consent & Privacy Signals on Google *Pixels* - MeasureCamp Amsterdam 2024
Consent & Privacy Signals on Google *Pixels* - MeasureCamp Amsterdam 2024
 
RA-11058_IRR-COMPRESS Do 198 series of 1998
RA-11058_IRR-COMPRESS Do 198 series of 1998RA-11058_IRR-COMPRESS Do 198 series of 1998
RA-11058_IRR-COMPRESS Do 198 series of 1998
 
科罗拉多大学波尔得分校毕业证学位证成绩单-可办理
科罗拉多大学波尔得分校毕业证学位证成绩单-可办理科罗拉多大学波尔得分校毕业证学位证成绩单-可办理
科罗拉多大学波尔得分校毕业证学位证成绩单-可办理
 
Kantar AI Summit- Under Embargo till Wednesday, 24th April 2024, 4 PM, IST.pdf
Kantar AI Summit- Under Embargo till Wednesday, 24th April 2024, 4 PM, IST.pdfKantar AI Summit- Under Embargo till Wednesday, 24th April 2024, 4 PM, IST.pdf
Kantar AI Summit- Under Embargo till Wednesday, 24th April 2024, 4 PM, IST.pdf
 
毕业文凭制作#回国入职#diploma#degree澳洲中央昆士兰大学毕业证成绩单pdf电子版制作修改#毕业文凭制作#回国入职#diploma#degree
毕业文凭制作#回国入职#diploma#degree澳洲中央昆士兰大学毕业证成绩单pdf电子版制作修改#毕业文凭制作#回国入职#diploma#degree毕业文凭制作#回国入职#diploma#degree澳洲中央昆士兰大学毕业证成绩单pdf电子版制作修改#毕业文凭制作#回国入职#diploma#degree
毕业文凭制作#回国入职#diploma#degree澳洲中央昆士兰大学毕业证成绩单pdf电子版制作修改#毕业文凭制作#回国入职#diploma#degree
 
Amazon TQM (2) Amazon TQM (2)Amazon TQM (2).pptx
Amazon TQM (2) Amazon TQM (2)Amazon TQM (2).pptxAmazon TQM (2) Amazon TQM (2)Amazon TQM (2).pptx
Amazon TQM (2) Amazon TQM (2)Amazon TQM (2).pptx
 
dokumen.tips_chapter-4-transient-heat-conduction-mehmet-kanoglu.ppt
dokumen.tips_chapter-4-transient-heat-conduction-mehmet-kanoglu.pptdokumen.tips_chapter-4-transient-heat-conduction-mehmet-kanoglu.ppt
dokumen.tips_chapter-4-transient-heat-conduction-mehmet-kanoglu.ppt
 
Call Girls in Saket 99530🔝 56974 Escort Service
Call Girls in Saket 99530🔝 56974 Escort ServiceCall Girls in Saket 99530🔝 56974 Escort Service
Call Girls in Saket 99530🔝 56974 Escort Service
 
E-Commerce Order PredictionShraddha Kamble.pptx
E-Commerce Order PredictionShraddha Kamble.pptxE-Commerce Order PredictionShraddha Kamble.pptx
E-Commerce Order PredictionShraddha Kamble.pptx
 
Indian Call Girls in Abu Dhabi O5286O24O8 Call Girls in Abu Dhabi By Independ...
Indian Call Girls in Abu Dhabi O5286O24O8 Call Girls in Abu Dhabi By Independ...Indian Call Girls in Abu Dhabi O5286O24O8 Call Girls in Abu Dhabi By Independ...
Indian Call Girls in Abu Dhabi O5286O24O8 Call Girls in Abu Dhabi By Independ...
 
RadioAdProWritingCinderellabyButleri.pdf
RadioAdProWritingCinderellabyButleri.pdfRadioAdProWritingCinderellabyButleri.pdf
RadioAdProWritingCinderellabyButleri.pdf
 
RS 9000 Call In girls Dwarka Mor (DELHI)⇛9711147426🔝Delhi
RS 9000 Call In girls Dwarka Mor (DELHI)⇛9711147426🔝DelhiRS 9000 Call In girls Dwarka Mor (DELHI)⇛9711147426🔝Delhi
RS 9000 Call In girls Dwarka Mor (DELHI)⇛9711147426🔝Delhi
 
Saket, (-DELHI )+91-9654467111-(=)CHEAP Call Girls in Escorts Service Saket C...
Saket, (-DELHI )+91-9654467111-(=)CHEAP Call Girls in Escorts Service Saket C...Saket, (-DELHI )+91-9654467111-(=)CHEAP Call Girls in Escorts Service Saket C...
Saket, (-DELHI )+91-9654467111-(=)CHEAP Call Girls in Escorts Service Saket C...
 
B2 Creative Industry Response Evaluation.docx
B2 Creative Industry Response Evaluation.docxB2 Creative Industry Response Evaluation.docx
B2 Creative Industry Response Evaluation.docx
 
Predictive Analysis - Using Insight-informed Data to Determine Factors Drivin...
Predictive Analysis - Using Insight-informed Data to Determine Factors Drivin...Predictive Analysis - Using Insight-informed Data to Determine Factors Drivin...
Predictive Analysis - Using Insight-informed Data to Determine Factors Drivin...
 
PKS-TGC-1084-630 - Stage 1 Proposal.pptx
PKS-TGC-1084-630 - Stage 1 Proposal.pptxPKS-TGC-1084-630 - Stage 1 Proposal.pptx
PKS-TGC-1084-630 - Stage 1 Proposal.pptx
 
04242024_CCC TUG_Joins and Relationships
04242024_CCC TUG_Joins and Relationships04242024_CCC TUG_Joins and Relationships
04242024_CCC TUG_Joins and Relationships
 
Deep Generative Learning for All - The Gen AI Hype (Spring 2024)
Deep Generative Learning for All - The Gen AI Hype (Spring 2024)Deep Generative Learning for All - The Gen AI Hype (Spring 2024)
Deep Generative Learning for All - The Gen AI Hype (Spring 2024)
 
Dubai Call Girls Wifey O52&786472 Call Girls Dubai
Dubai Call Girls Wifey O52&786472 Call Girls DubaiDubai Call Girls Wifey O52&786472 Call Girls Dubai
Dubai Call Girls Wifey O52&786472 Call Girls Dubai
 

SCGPT : Few-shot Natural Language Generation for Task-Oriented Dialog

  • 1. Pengbaolin/SC-GPT Few-shot Natural Language Generation for Task Oriented Dialog TITLE Introduction Background SC-GPT FewShotWOZ Experiments Contributors: Dates: 2021.06.06 진명훈 백지윤 황소현 1
  • 2. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 2 Few-shot Natural Language Generation for Task Oriented Dialog https://www.aclweb.org/anthology/2020.findings-emnlp.17/
  • 3. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 3 https://www.aclweb.org/anthology/2020.findings-emnlp.17/
  • 4. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 4 New Benchmark FewShotWOZ New Baseline SC-GPT SOTA @ MultiWOZ 2.0 https://www.aclweb.org/anthology/2020.findings-emnlp.17/
  • 5. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 5 What is Task-Oriented Dialogue (TOD)? https://arxiv.org/pdf/2005.05298.pdf
  • 6. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 6 Natural Language Generation for TOD https://arxiv.org/pdf/2005.05298.pdf
  • 7. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 7 Natural Language Generation for TOD https://arxiv.org/pdf/2005.05298.pdf
  • 8. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 8 Natural Language Generation for TOD Natural Language Generation (NLG) • Response는 user에게 보이는 결과물 • 때문에 사용자에게 매력적으로 다가갈 수 있도록 유창할 수록 좋고 • 주어진 Task를 충실히 수행할 수 있어야 함.
  • 9. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 9 Natural Language Generation for TOD : Typical methodology 1. Template-Based • Domain knowledge 필요 • 요구되는 의미적 정보를 담기엔 적합 • 유창하지 않기에 UX에 좋지 않음 • 즉, Fluent X || Semantic Response O 2. Statistical-Based • Ex> Neural Network • Labeled Corpus로부터 유창한 반응을 학습하여 생성 • SC-LSTM: dialog acts를 one hot 표현으로 encode, 이를 문장 생성을 위한 extra feature로 이용 • Domain specific data 필요 • Dialog acts가 많아질수록 scalability issue 발생 • 즉, Fluent O || Semantic Response 어려움 (많은 annotated data 요구) https://www.aclweb.org/anthology/P98-1116.pdf https://www.emnlp2015.org/proceedings/EMNLP/pdf/EMNLP199.pdf
  • 10. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 10 Few shot NLG for TOD • 위 문제를 해결하기 위해 Few-Shot Manner로 Dataset 구축 FewShotWOZ • TOD에서 Few shot learning setting을 테스트할 데이터 셋 • MultiWOZ, Cambridge NLG Dataset에 based • 각 domain 별 50개의 labeled utterance 존재 • + 위 데이터셋에 대한 benchmark로 SC-GPT 모델 개발 • 3 State Training Strategy 1. Pre-trained on plain text 2. Pre-trained on large amounts of dialog-act labeled utterance corpora to acquire the ability of controllable generation 3. Fine-tuned for a target domain using very limited amounts of domain labels
  • 11. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 11 Typical TOD: pipeline architecture NLU: user intents와 기타 key information 추출 DST: dialog의 current state를 유지하는 모듈 POL: DST의 출력(formatted information)을 입력받아 DB, KB에서 검출된 facts 혹은 entities에 기반하여 dialog act를 제공하는 모듈 NLG: POL에 의해 생성된 dialog act로 natural language system response를 생성
  • 12. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 12 Controllable Pre-Trained Model • ELMo, BERT, XLNet, Roberta, CTRL, GPT-2, Soloist: Pre-trained model • GPT-2의 유일한 단점? → Controllability • 이를 극복하기 위해 Salesforce는 CTRL 제안 • text style, content description, task-specific behavior 등의 control code로 학습 • Grover는 authors, dates 등을 조건으로 한 새로운 기사를 생성하도록 설계 • 그러나 이전 Controllable 연구들의 control code는 dialog에 적용하기엔 적절히 학습되지 못함
  • 13. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 13 Semantically Conditioned GPT 𝒜 = [ 𝐼 (𝑠1 = 𝑣1, ⋯ , 𝑠𝑃 = 𝑣𝑃)] Intent Slot-value pairs Intent: system actions e.g., inform, request, confirm, select Slot-value pairs: utterance를 표현하기 위한 정보의 category와 content 𝑝𝜃 𝑥 𝒜 = ෑ 𝑡=1 𝑇 𝑝𝜃(𝑥𝑡|𝑥<𝑡, 𝒜) Auto-regressive generation model MLE Loss ℒ𝜃 = ෍ 𝑛=1 |𝐷| ෍ 𝑡=1 𝑇𝑛 log 𝑝𝜃(𝑥𝑡,𝑛|𝑥<𝑡,𝑛, 𝒜𝑛)
  • 14. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 14 Three-stage procedure as the training recipe. STAGE 1> Massive Plain Language Pre-training • Pretrain @ OpenWebText (GPT-2 inheritance) • Text prompt로 realistic sentence 생성 STAGE 2> Dialog-Act Controlled Pre-training • (dialog act, response) pairs • 사용한 Dataset @ Scheme-Guided Dialog Corpus, MultiWOZ, Frame Corpus, Fabebook Multilingual Dialog • Token size: 40k • Dialog act를 sequence of control code로 변환 STAGE 3> Fine-tuning • Stage 2와 동일하게 학습 @ few-shot dataset • 아래 세 가지 장점이 존재 1. Flexibility: delexicalization없이 sequence 연산 2. Controllability: 적절한 intent, slot-value information으로 문장 생성 + fluency 유지 3. Generalizability: SC-LSTM보다 훨씬 일반화를 잘함 (why? Large dataset) ℒ𝜃 = ෍ 𝑛=1 |𝐷| ෍ 𝑡=1 𝑇𝑛 log 𝑝𝜃(𝑥𝑡,𝑛|𝑥<𝑡,𝑛, 𝒜𝑛) ℒ𝜃 = ෍ 𝑛=1 |𝐷| ෍ 𝑡=1 𝑇𝑛 log 𝑝𝜃(𝑥𝑡,𝑛|𝑥<𝑡,𝑛)
  • 15. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 14 Three-stage procedure as the training recipe. STAGE 1> Massive Plain Language Pre-training • Pretrain @ OpenWebText (GPT-2 inheritance) • Text prompt로 realistic sentence 생성 STAGE 2> Dialog-Act Controlled Pre-training • (dialog act, response) pairs • 사용한 Dataset @ Scheme-Guided Dialog Corpus, MultiWOZ, Frame Corpus, Fabebook Multilingual Dialog • Token size: 40k • Dialog act를 sequence of control code로 변환 STAGE 3> Fine-tuning • Stage 2와 동일하게 학습 @ few-shot dataset • 아래 세 가지 장점이 존재 1. Flexibility: delexicalization없이 sequence 연산 2. Controllability: 적절한 intent, slot-value information으로 문장 생성 + fluency 유지 3. Generalizability: SC-LSTM보다 훨씬 일반화를 잘함 (why? Large dataset) ℒ𝜃 = ෍ 𝑛=1 |𝐷| ෍ 𝑡=1 𝑇𝑛 log 𝑝𝜃(𝑥𝑡,𝑛|𝑥<𝑡,𝑛, 𝒜𝑛) ℒ𝜃 = ෍ 𝑛=1 |𝐷| ෍ 𝑡=1 𝑇𝑛 log 𝑝𝜃(𝑥𝑡,𝑛|𝑥<𝑡,𝑛) inform ( name = assab eritrean restaurant ; price = between 7 and 11 euro ) & assab eritrean restaurant meal -s cost between 7 and 11 euro ['in', 'form', '_(', '_name', '_=', '_ass', 'ab', '_er', 'it', 're', 'an', '_restaurant', '_;', '_price', '_=', '_between', '_7', '_and', '_11', '_euro', '_)', '_&', '_ass', 'ab', '_er', 'it', 're', 'an', '_restaurant', '_meal', '_-', 's', '_cost', '_between', '_7', '_and', '_11', '_euro’`] Byte Pair Encoding [259, 687, 357, 1438, 796, 840, 397, 1931, 270, 260, 272, 7072, 2162, 2756, 796, 1022, 767, 290, 1367, 11063, 1267, 1222, 840, 397, 1931, 270, 260, 272, 7072, 9799, 532, 82, 1575, 1022, 767, 290, 1367, 11063] Encode (1, 38, 1024) Embedding (1, 38, 1024) (1, 38, 50257) lm_head 𝑙𝑜𝑠𝑠 𝑥, 𝑐𝑙𝑎𝑠𝑠 = − log exp(𝑥 𝑐𝑙𝑎𝑠𝑠 ) σ𝑗 exp(𝑥 𝑗 ) = −𝑥 𝑐𝑙𝑎𝑠𝑠 + log ෍ 𝑗 exp(𝑥 𝑗 ) (bsz, seq_len, |V|) (bsz, seq_len) (bsz*seq_len, |V|) (bsz*seq_len)
  • 16. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 15 https://github.com/pengbaolin/SC-GPT/tree/master/data Revisiting NLG Benchmarks • E2E NLG (Novikova et Al., 2017) • BAGEL (Mairesse et al., 2020) • RNNLG (Wen et al., 2016a)
  • 17. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 16 https://github.com/pengbaolin/SC-GPT/tree/master/data Revisiting NLG Benchmarks Two issues I. Labeling cost high: All the datasets contain a large number of labelled training samples for each domain II. Delexicalised dialog acts overlap ratio too high: difficulties in evaluating the model’s generalization ability for new domains.
  • 18. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 17 https://github.com/pengbaolin/SC-GPT/tree/master/data FewShotWOZ Three advantages I. More Domains II. Less training instances (to few shot) III. Lower training/testing overlap More domains flexibility Low overlapping Less instances
  • 19. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 18 FewShotWOZ - statistics https://github.com/pengbaolin/SC-GPT/tree/master/data How to collect? • RNNLG, MultiWOZ의 data를 re-organizing • MultiWOZ: Attraction, Taxi, Train은 multi-domain이 기 때문에, dialog act가 겹치는 경우가 존재함 • 동일한 target utterance를 위해 동일한 delexicalizing processing을 거침 • Few shot manner를 위해 50개 instance, Taxi는 40개
  • 20. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 19 Implementation details • Built upon 🤗 Huggingface transformers • GPT2-medium with 345M parameters as the initial checkpoint, BPE for the tokenizer • Linear rate scheduler with start rate as 5e-5 • Adam with weight decay • For Pre-training, mini-batch of 8 on an 8 Nvidia V100 machine @ 20 epochs with early stopping • For tine-tuning on FewShotWOZ, @ 5 epochs
  • 21. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 20 Implementation details • Built upon 🤗 Huggingface transformers • GPT2-medium with 345M parameters as the initial checkpoint, BPE for the tokenizer • Linear rate scheduler with start rate as 5e-5 • Adam with weight decay • For Pre-training, mini-batch of 8 on an 8 Nvidia V100 machine @ 20 epochs with early stopping • For tine-tuning on FewShotWOZ, @ 5 epochs
  • 22. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 21 Automatic metrics • Following SC-LSTM, BLEU scores and slot error rate (ERR) 사용 • BLEU: 생성된 발화가 얼마나 자연스러운지를 평가 • ERR: 후보 발화의 slot token과의 exact matching을 측정 𝐸𝑅𝑅 = 𝑝 + 𝑞 𝑀 𝑤ℎ𝑒𝑟𝑒 𝑀: 𝑡𝑜𝑡𝑎𝑙 # 𝑜𝑓 𝑠𝑙𝑜𝑡𝑠 𝑖𝑛 𝑡ℎ𝑒 𝑑𝑖𝑎𝑙𝑜𝑔 𝑎𝑐𝑡 • 각 dialog act별 5개의 utterance를 생성, 가장 적은 ERR을 보이는 문장을 출력
  • 23. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 22 Human Evaluation • subjective quality를 위해 Amazon Mechanical Turk를 사용하여 human evaluation을 진행 • master level workers를 고용 (good prior approval rates를 가진) • 각 문장에 대해 Informativeness, Naturalness를 1(bad) ~ 3(good)으로 채점 • Informativeness: 생성된 발화가 dialog act에 지정된 모든 정보를 얼마나 포함하는지? • Naturalness: 발화가 인간만큼 자연스러운지 • judgement bias를 줄이기 위해 각 질문을 세 다른 작업자에게 분배함 • 총 5,800개의 judgement를 얻음 Baselines • SC-LSTM: canonical model, strong baseline that uses an additional dialog act vector and reading gate to guide the uttr generation • GPT-2: directly fine-tuning without pre-training on the domain-scale corpus of (dialog act, response) pairs • HDSA: SOTA on MultiWOZ, multi-domain setting에서 transfer가 가능하도록 dialog act structure를 다룸. superior than SC-LSTM
  • 24. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 23 Performance on FewShotWOZ
  • 25. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 24 Performance on MultiWOZ 2.0
  • 26. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 25 Analysis – flexibility, controllability and generalizability • SEEN: testing set의 dialog act가 training set에 있음 • UNSEEN: testing set의 dialog act가 training set에 없음
  • 27. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 26
  • 28. TITLE Introduction Background SC-GPT FewShotWOZ Experiments 27
  • 29. 28