SlideShare a Scribd company logo
Պակ-Բայեսյան ընդհանրացման
գնահատականներ
Հանդիպում 5՝ ինֆորմացիոն տեսությամբ ստացվող
ընդհանրացման գնահատականներ
Հրայր Հարությունյան
Դեկտեմբերի 15, 2021
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 1 / 12
Սեմինարների մասին
Կանենք 5-6 սեմինար։
Չորեքշաբթի օրերին, երեկոյան ժամը 7-ին։
Ցանկացած պահի կարող եք հարց տալ կամ դիտողություն
անել:
Սեմինարները կտեսագրվեն, վիդեոները և սլայդները
կտեղադրենք mlevn.org-ում։
Հայտարարությունները կանենք ML reading group Yerevan
խմբում՝ https://groups.google.com/g/ml-reading-group-yerevan
Տերմինների հայերեն թարգմանության մասին
քննարկումները այստեղ՝ https://ml-hye.talkyard.net :
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 2 / 12
Նախորդ սեմինարին
Տեսանք, թե ինչպես կարող ենք ստանալ իմաստալից
Պակ-Բայեսյան գնահատականներ նեյրոնային ցանցերի
դեպքում։
• Հիպոթեզների վերջավոր դասի դեպք,
• Ուսուցման արդյունքում պարամետրերի սկզբնակետից
շեղվելու չափը որպես ընդհանրացման ցուցիչ,
• Ձյուգեյթի և Ռոյի հոդվածը։ 1
։
1G. K. Dziugaite and D. M. Roy. Computing nonvacuous generalization bounds for
deep (stochastic) neural networks with many more parameters than training data.
UAI 2017.
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 3 / 12
Այսօր
Միջին ռիսկի մաթ․ սպասման գնահատականներ (այսինքն՝
ոչ հավանականային գնահատականներ),
Շենոնի փոխադարձ ինֆորմացիա,
Ինֆորմացիոն տեսությամբ ստացվող ընդհանրացման
գնահատականներ։ Կապը Պակ-Բայեսյան
գնահատականներեի հետ։
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 4 / 12
Միջին ռիսկի մաթ․ սպասման
գնահատականներ
• Հիշենք Կատոնիի Պակ-Բայեսյան գնահատականը։
Թեորեմ (Կատոնի)
Կամայական λ > 0, δ ∈ (0, 1) թվերի և π նախնական բաշխման համար
PS

∀ρ ∈ P(Θ), Eθ∼ρ[R(θ)] ≤ Eθ∼ρ[r(θ)] +
λ
8n
+
KL (ρ∥π) + log 1
δ
λ

≥ 1 − δ :
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 5 / 12
Միջին ռիսկի մաթ․ սպասման
գնահատականներ
• Հիշենք Կատոնիի Պակ-Բայեսյան գնահատականը։
Թեորեմ (Կատոնի)
Կամայական λ  0, δ ∈ (0, 1) թվերի և π նախնական բաշխման համար
PS

∀ρ ∈ P(Θ), Eθ∼ρ[R(θ)] ≤ Eθ∼ρ[r(θ)] +
λ
8n
+
KL (ρ∥π) + log 1
δ
λ

≥ 1 − δ :
• Այժմ ստանանք միջին ռիսկի մաթ․ սպասման գնահատական։
Թեորեմ
Կամայական λ  0 թվի, π նախնական բաշխման և ρ̂(S) հետին բաշխման
համար
ES Eθ∼ρ̂[R(θ)] ≤ ES Eθ∼ρ̂[r(θ)] +
λ
8n
+
ES KL (ρ̂∥π)
λ
:
Այս տեսակ գնահատականներին կանվանենք Մակ-Բայեսյան (mean
approximately correct):
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 5 / 12
Միջին ռիսկի մաթ․ սպասման
գնահատականներ
Ապացույց. Սկզբում՝ կրկնելով Կատոնիի թեորեմի ապացույցի
առաջին քայլերը, կստանանք
ES

e
supρ∈P(θ)
{
λ Eθ∼ρ[R(θ)−r(θ)]−KL(ρ∥π)− λ2
8n
}#
≤ 1 :
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 5 / 12
Միջին ռիսկի մաթ․ սպասման
գնահատականներ
Ապացույց. Սկզբում՝ կրկնելով Կատոնիի թեորեմի ապացույցի
առաջին քայլերը, կստանանք
ES

e
supρ∈P(θ)
{
λ Eθ∼ρ[R(θ)−r(θ)]−KL(ρ∥π)− λ2
8n
}#
≤ 1 :
Օգտագործելով Յենսենի անհավասարությունը‘ կստանանք, որ
e
ES
[
supρ∈P(θ)
{
λ Eθ∼ρ[R(θ)−r(θ)]−KL(ρ∥π)− λ2
8n
}]
≤ 1 :
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 5 / 12
Միջին ռիսկի մաթ․ սպասման
գնահատականներ
Ապացույց. Սկզբում՝ կրկնելով Կատոնիի թեորեմի ապացույցի
առաջին քայլերը, կստանանք
ES

e
supρ∈P(θ)
{
λ Eθ∼ρ[R(θ)−r(θ)]−KL(ρ∥π)− λ2
8n
}#
≤ 1 :
Օգտագործելով Յենսենի անհավասարությունը‘ կստանանք, որ
e
ES
[
supρ∈P(θ)
{
λ Eθ∼ρ[R(θ)−r(θ)]−KL(ρ∥π)− λ2
8n
}]
≤ 1 :
Սա նույնն է ինչ՝
ES

sup
ρ∈P(θ)

λ Eθ∼ρ [R(θ) − r(θ)] − KL (ρ∥π) −
λ2
8n
#
≤ 0 :
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 5 / 12
Ինֆորմացիոն տեսությամբ ստացվող միջին
ռիսկի մաթ․ սպասման գնահատականներ
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 6 / 12
Փոխադարձ ինֆորմացիա
Սահմանում (փոխադարձ ինֆորմացիա2
)
Ենթադրենք ունենք X և Y պատահական մեծություններ PX,Y համատեղ
բաշխմամբ։ Այս երկու փոփոխականների փոխադարձ ինֆորմացիան
կսահմանենք հետևյալ կերպ՝
I(X; Y)� = KL (PX,Y∥PX ⊗ PY) : (1)
Հատկություններ
I(X; Y) = I(Y; X)
I(X; Y) ≥ 0
I(X; Y) = 0 ⇐⇒ X⊥Y
I(X; Y)-ը ընդունում է առավելագույն արժեք երբ գոյություն ունի f
հակադարձելի ֆունկցիա այնպիսին, որ PX,Y(X = f(Y)) = 1։
2Ավելին իմանալու համար տես՝ Thomas M Cover and Joy A Thomas. Elements of
information theory.
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 7 / 12
Դոնկսեռ-Վարադհան
Դոնսկեռ-Վարադհանի վարիացիոն բանաձևին ծանոթացել էինք 2-րդ
սեմինարի ժամանակ։
Պնդում (Դոնսկեռ-Վարադհան)
Ցանկացած չափելի և սահմանափակ h : Θ → R ֆունկցիայի համար ճիշտ
է
log Eθ∼π[eh(θ)
] = sup
ρ∈P(Θ)

Eθ∼ρ[h(θ)] − KL(ρ||π)
	
: (2)
Ավելին՝ πh = arg supρ∈P(Θ) {Eθ∼ρ[h(θ)] − KL(ρ||π)} բաշխման համար ունենք
հետևյալ առնչությունը՝
dπh
dπ
(θ) =
eh(θ)
Eθ′∼π[eh(θ′)]
: (3)
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 8 / 12
Դոնկսեռ-Վարադհան
Այժմ ապացուցենք շատ նման մեկ այլ արդյունք։
Պնդում (Դոնկսեռ-Վարադհան)
Դիցուք ունենք ρ և π հավանականային չափեր տրված միևնույն (Θ, F)
չափելի տարածության վրա, այնպես, որ ρ ≪ π: Ճիշտ է հետևյալը՝
KL (ρ∥π) = sup
n
Eθ∼ρ [h(θ)] − log Eθ∼π
h
eh(θ)
i
| h : Θ → R, ∃C ∈ R s.t. |h| ≤ C
o
:
(2)
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 8 / 12
Դոնկսեռ-Վարադհան
Նախորդ տարբերակի պնդումից ունենք որ կամայական (ρ, π, h) եռյակի
համար ճիշտ է հետևյալը՝
log Eθ∼π[eh(θ)
] ≥ Eθ∼ρ[h(θ)] − KL(ρ||π) : (2)
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 8 / 12
Դոնկսեռ-Վարադհան
Այժմ դիտարկենք հետևյալ h-ը՝
h(θ) = log

dρ
dπ
(θ)

:
Ունենք որ
Eθ∼ρ [h(θ)] − log Eθ∼π
h
eh(θ)
i
= Eθ∼ρ

log

dρ
dπ
(θ)

− log Eθ∼π

exp

log

dρ
dπ
(θ)

= KL (ρ∥π) − log Eθ∼π

dρ
dπ
(θ)

| {z }
1
= KL (ρ∥π) :
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 8 / 12
Շուի և Ռագինսկիի արդյունքը
Օրինակների բազմություն Z
▶ Վերահսկվող ուսուցման դեպքում Z = X × Y։
Հիպոթեզների բազմություն H
▶ Կրկին կենթադրենք, որ H-ը պարամետրիզացված է θ ∈ Θ
պարամետրերով։
Կորստի ֆունկցիա ℓ : Θ × Z → R+: Կենթադրենք որ l(θ, z) ≤ 1:
Ուսուցման տվյալներ S = (Z1, . . . , Zn), բաղկացած n անկախ
օրինակներից(նմուշներից) միևնույն PZ անհայտ բաշխումից։
Ուսուցման ալգորիթմ ρ̂ : Zn
→ P(Θ)
Իրական և էմպիրիկ ռիսկեր՝
R(θ) = EZ′∼PZ

ℓ(θ, Z′
)

, r(θ) =
1
n
n
X
i=1
ℓ(θ, Zi) :
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 9 / 12
Շուի և Ռագինսկիի արդյունքը
Թեորեմ (Շու և Ռագինսկի3
, թեթևակի պարզեցված)
Ենթադրենք θ̃-ն պատահական մեծություն է ρ̂(S) բաշխումով (այսինքն՝
հետին բաշխումից պատահական նմուշ)։ Միջին ռիսկի մաթ․ սպասումը
կարելի գնահատել հետևյալ կերպ՝
ES Eθ∼ρ̂(S) [R(θ)] − ES Eθ∼ρ̂(S) [r(θ)]
≤
r
1
2n
I(θ̃; S) : (2)
3A. Xu and M. Raginsky. Information-theoretic analysis of generalization
capability of learning algorithms. NeurIPS, 2017.
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 9 / 12
Շուի և Ռագինսկիի արդյունքը
Ապացույց. Տրված θ ∈ Θ և s = (z1, . . . , zn) ∈ Zn
զույգի համար
սահմանենք
h(θ, s) =
1
n
n
X
i=1
ℓ(θ, zi) − R(θ) : (2)
I(θ̃; S) = KL Pθ̃,S∥Pθ̃ ⊗ PS

≥ Eθ,s∼Pθ̃,S
[λh(θ, s)] − log Eθ,s∼Pθ̃
⊗PS
h
eλh(θ,s)
i
= λ ES Eθ∼ρ̂(S) [r(θ) − R(θ)] − log Eθ,s∼Pθ̃
⊗PS
h
eλh(θ,s)
i
= λ ES Eθ∼ρ̂(S) [r(θ) − R(θ)] − log Eθ∼Pθ̃

Es∼PS

exp
λ
n
n
X
i=1
ℓ(θ, zi) − R(θ)

!!
= λ ES Eθ∼ρ̂(S) [r(θ) − R(θ)] − log Eθ∼Pθ̃
n
Y
i=1

Ezi∼PZ

exp

λ
n
(ℓ(θ, zi) − R(θ))

Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 9 / 12
Շուի և Ռագինսկիի արդյունքը
Այժմ կատարենք հետևյալ պարզեցումները՝
Ezi∼PZ

exp

λ
n
(ℓ(θ, zi) − R(θ))

= EZ1

exp

λ
n
(ℓ(θ, Z1) − R(θ))

(2)
= EZ1

exp

λ
n
(ℓ(θ, Z1) − EZ1 ℓ(θ, Z1))

(3)
≤ exp

λ2
8n2

: (4)
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 9 / 12
Շուի և Ռագինսկիի արդյունքը
Այժմ կատարենք հետևյալ պարզեցումները՝
Ezi∼PZ

exp

λ
n
(ℓ(θ, zi) − R(θ))

= EZ1

exp

λ
n
(ℓ(θ, Z1) − R(θ))

(2)
= EZ1

exp

λ
n
(ℓ(θ, Z1) − EZ1 ℓ(θ, Z1))

(3)
≤ exp

λ2
8n2

: (4)
Սա տեղադրելով վերևում, ստանում ենք որ
I(θ̃; S) ≥ λ ES Eθ∼ρ̂(S) [r(θ) − R(θ)] − log Eθ∼Pθ̃

exp

λ2
8n2
n
= λ ES Eθ∼ρ̂(S) [r(θ) − R(θ)] −
λ2
8n
:
Ընտրելով λ = 4n ES Eθ∼ρ̂(S) [r(θ) − R(θ)]՝ կստանանք որ
I(θ̃; S) ≥ 2n ES Eθ∼ρ̂(S) [r(θ) − R(θ)]
2
: (5)
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 9 / 12
Կապը Պակ-Բայեսյան մոտեցման հետ
Այսօր ավելի վաղ ստացել էինք, որ կամայական λ  0 թվի, π
նախնական բաշխման և ρ̂(S) հետին բաշխման համար
ES Eθ∼ρ̂[R(θ)] ≤ ES Eθ∼ρ̂[r(θ)] +
λ
8n
+
ES KL (ρ̂∥π)
λ
:
Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 10 / 12

More Related Content

Featured

AI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdfAI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdf
marketingartwork
 
Skeleton Culture Code
Skeleton Culture CodeSkeleton Culture Code
Skeleton Culture Code
Skeleton Technologies
 
PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024
Neil Kimberley
 
Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)
contently
 
How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024
Albert Qian
 
Social Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsSocial Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie Insights
Kurio // The Social Media Age(ncy)
 
Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024
Search Engine Journal
 
5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary
SpeakerHub
 
ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd
Clark Boyd
 
Getting into the tech field. what next
Getting into the tech field. what next Getting into the tech field. what next
Getting into the tech field. what next
Tessa Mero
 
Google's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search IntentGoogle's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search Intent
Lily Ray
 
How to have difficult conversations
How to have difficult conversations How to have difficult conversations
How to have difficult conversations
Rajiv Jayarajah, MAppComm, ACC
 
Introduction to Data Science
Introduction to Data ScienceIntroduction to Data Science
Introduction to Data Science
Christy Abraham Joy
 
Time Management & Productivity - Best Practices
Time Management & Productivity -  Best PracticesTime Management & Productivity -  Best Practices
Time Management & Productivity - Best Practices
Vit Horky
 
The six step guide to practical project management
The six step guide to practical project managementThe six step guide to practical project management
The six step guide to practical project management
MindGenius
 
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
RachelPearson36
 
Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...
Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...
Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...
Applitools
 
12 Ways to Increase Your Influence at Work
12 Ways to Increase Your Influence at Work12 Ways to Increase Your Influence at Work
12 Ways to Increase Your Influence at Work
GetSmarter
 
ChatGPT webinar slides
ChatGPT webinar slidesChatGPT webinar slides
ChatGPT webinar slides
Alireza Esmikhani
 
More than Just Lines on a Map: Best Practices for U.S Bike Routes
More than Just Lines on a Map: Best Practices for U.S Bike RoutesMore than Just Lines on a Map: Best Practices for U.S Bike Routes
More than Just Lines on a Map: Best Practices for U.S Bike Routes
Project for Public Spaces & National Center for Biking and Walking
 

Featured (20)

AI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdfAI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdf
 
Skeleton Culture Code
Skeleton Culture CodeSkeleton Culture Code
Skeleton Culture Code
 
PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024
 
Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)
 
How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024
 
Social Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsSocial Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie Insights
 
Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024
 
5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary
 
ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd
 
Getting into the tech field. what next
Getting into the tech field. what next Getting into the tech field. what next
Getting into the tech field. what next
 
Google's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search IntentGoogle's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search Intent
 
How to have difficult conversations
How to have difficult conversations How to have difficult conversations
How to have difficult conversations
 
Introduction to Data Science
Introduction to Data ScienceIntroduction to Data Science
Introduction to Data Science
 
Time Management & Productivity - Best Practices
Time Management & Productivity -  Best PracticesTime Management & Productivity -  Best Practices
Time Management & Productivity - Best Practices
 
The six step guide to practical project management
The six step guide to practical project managementThe six step guide to practical project management
The six step guide to practical project management
 
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
 
Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...
Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...
Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...
 
12 Ways to Increase Your Influence at Work
12 Ways to Increase Your Influence at Work12 Ways to Increase Your Influence at Work
12 Ways to Increase Your Influence at Work
 
ChatGPT webinar slides
ChatGPT webinar slidesChatGPT webinar slides
ChatGPT webinar slides
 
More than Just Lines on a Map: Best Practices for U.S Bike Routes
More than Just Lines on a Map: Best Practices for U.S Bike RoutesMore than Just Lines on a Map: Best Practices for U.S Bike Routes
More than Just Lines on a Map: Best Practices for U.S Bike Routes
 

PAC-Bayesian-generalization-bounds-seminar-5

  • 1. Պակ-Բայեսյան ընդհանրացման գնահատականներ Հանդիպում 5՝ ինֆորմացիոն տեսությամբ ստացվող ընդհանրացման գնահատականներ Հրայր Հարությունյան Դեկտեմբերի 15, 2021 Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 1 / 12
  • 2. Սեմինարների մասին Կանենք 5-6 սեմինար։ Չորեքշաբթի օրերին, երեկոյան ժամը 7-ին։ Ցանկացած պահի կարող եք հարց տալ կամ դիտողություն անել: Սեմինարները կտեսագրվեն, վիդեոները և սլայդները կտեղադրենք mlevn.org-ում։ Հայտարարությունները կանենք ML reading group Yerevan խմբում՝ https://groups.google.com/g/ml-reading-group-yerevan Տերմինների հայերեն թարգմանության մասին քննարկումները այստեղ՝ https://ml-hye.talkyard.net : Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 2 / 12
  • 3. Նախորդ սեմինարին Տեսանք, թե ինչպես կարող ենք ստանալ իմաստալից Պակ-Բայեսյան գնահատականներ նեյրոնային ցանցերի դեպքում։ • Հիպոթեզների վերջավոր դասի դեպք, • Ուսուցման արդյունքում պարամետրերի սկզբնակետից շեղվելու չափը որպես ընդհանրացման ցուցիչ, • Ձյուգեյթի և Ռոյի հոդվածը։ 1 ։ 1G. K. Dziugaite and D. M. Roy. Computing nonvacuous generalization bounds for deep (stochastic) neural networks with many more parameters than training data. UAI 2017. Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 3 / 12
  • 4. Այսօր Միջին ռիսկի մաթ․ սպասման գնահատականներ (այսինքն՝ ոչ հավանականային գնահատականներ), Շենոնի փոխադարձ ինֆորմացիա, Ինֆորմացիոն տեսությամբ ստացվող ընդհանրացման գնահատականներ։ Կապը Պակ-Բայեսյան գնահատականներեի հետ։ Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 4 / 12
  • 5. Միջին ռիսկի մաթ․ սպասման գնահատականներ • Հիշենք Կատոնիի Պակ-Բայեսյան գնահատականը։ Թեորեմ (Կատոնի) Կամայական λ > 0, δ ∈ (0, 1) թվերի և π նախնական բաշխման համար PS ∀ρ ∈ P(Θ), Eθ∼ρ[R(θ)] ≤ Eθ∼ρ[r(θ)] + λ 8n + KL (ρ∥π) + log 1 δ λ ≥ 1 − δ : Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 5 / 12
  • 6. Միջին ռիսկի մաթ․ սպասման գնահատականներ • Հիշենք Կատոնիի Պակ-Բայեսյան գնահատականը։ Թեորեմ (Կատոնի) Կամայական λ 0, δ ∈ (0, 1) թվերի և π նախնական բաշխման համար PS ∀ρ ∈ P(Θ), Eθ∼ρ[R(θ)] ≤ Eθ∼ρ[r(θ)] + λ 8n + KL (ρ∥π) + log 1 δ λ ≥ 1 − δ : • Այժմ ստանանք միջին ռիսկի մաթ․ սպասման գնահատական։ Թեորեմ Կամայական λ 0 թվի, π նախնական բաշխման և ρ̂(S) հետին բաշխման համար ES Eθ∼ρ̂[R(θ)] ≤ ES Eθ∼ρ̂[r(θ)] + λ 8n + ES KL (ρ̂∥π) λ : Այս տեսակ գնահատականներին կանվանենք Մակ-Բայեսյան (mean approximately correct): Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 5 / 12
  • 7. Միջին ռիսկի մաթ․ սպասման գնահատականներ Ապացույց. Սկզբում՝ կրկնելով Կատոնիի թեորեմի ապացույցի առաջին քայլերը, կստանանք ES e supρ∈P(θ) { λ Eθ∼ρ[R(θ)−r(θ)]−KL(ρ∥π)− λ2 8n }# ≤ 1 : Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 5 / 12
  • 8. Միջին ռիսկի մաթ․ սպասման գնահատականներ Ապացույց. Սկզբում՝ կրկնելով Կատոնիի թեորեմի ապացույցի առաջին քայլերը, կստանանք ES e supρ∈P(θ) { λ Eθ∼ρ[R(θ)−r(θ)]−KL(ρ∥π)− λ2 8n }# ≤ 1 : Օգտագործելով Յենսենի անհավասարությունը‘ կստանանք, որ e ES [ supρ∈P(θ) { λ Eθ∼ρ[R(θ)−r(θ)]−KL(ρ∥π)− λ2 8n }] ≤ 1 : Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 5 / 12
  • 9. Միջին ռիսկի մաթ․ սպասման գնահատականներ Ապացույց. Սկզբում՝ կրկնելով Կատոնիի թեորեմի ապացույցի առաջին քայլերը, կստանանք ES e supρ∈P(θ) { λ Eθ∼ρ[R(θ)−r(θ)]−KL(ρ∥π)− λ2 8n }# ≤ 1 : Օգտագործելով Յենսենի անհավասարությունը‘ կստանանք, որ e ES [ supρ∈P(θ) { λ Eθ∼ρ[R(θ)−r(θ)]−KL(ρ∥π)− λ2 8n }] ≤ 1 : Սա նույնն է ինչ՝ ES sup ρ∈P(θ) λ Eθ∼ρ [R(θ) − r(θ)] − KL (ρ∥π) − λ2 8n # ≤ 0 : Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 5 / 12
  • 10. Ինֆորմացիոն տեսությամբ ստացվող միջին ռիսկի մաթ․ սպասման գնահատականներ Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 6 / 12
  • 11. Փոխադարձ ինֆորմացիա Սահմանում (փոխադարձ ինֆորմացիա2 ) Ենթադրենք ունենք X և Y պատահական մեծություններ PX,Y համատեղ բաշխմամբ։ Այս երկու փոփոխականների փոխադարձ ինֆորմացիան կսահմանենք հետևյալ կերպ՝ I(X; Y)� = KL (PX,Y∥PX ⊗ PY) : (1) Հատկություններ I(X; Y) = I(Y; X) I(X; Y) ≥ 0 I(X; Y) = 0 ⇐⇒ X⊥Y I(X; Y)-ը ընդունում է առավելագույն արժեք երբ գոյություն ունի f հակադարձելի ֆունկցիա այնպիսին, որ PX,Y(X = f(Y)) = 1։ 2Ավելին իմանալու համար տես՝ Thomas M Cover and Joy A Thomas. Elements of information theory. Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 7 / 12
  • 12. Դոնկսեռ-Վարադհան Դոնսկեռ-Վարադհանի վարիացիոն բանաձևին ծանոթացել էինք 2-րդ սեմինարի ժամանակ։ Պնդում (Դոնսկեռ-Վարադհան) Ցանկացած չափելի և սահմանափակ h : Θ → R ֆունկցիայի համար ճիշտ է log Eθ∼π[eh(θ) ] = sup ρ∈P(Θ) Eθ∼ρ[h(θ)] − KL(ρ||π) : (2) Ավելին՝ πh = arg supρ∈P(Θ) {Eθ∼ρ[h(θ)] − KL(ρ||π)} բաշխման համար ունենք հետևյալ առնչությունը՝ dπh dπ (θ) = eh(θ) Eθ′∼π[eh(θ′)] : (3) Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 8 / 12
  • 13. Դոնկսեռ-Վարադհան Այժմ ապացուցենք շատ նման մեկ այլ արդյունք։ Պնդում (Դոնկսեռ-Վարադհան) Դիցուք ունենք ρ և π հավանականային չափեր տրված միևնույն (Θ, F) չափելի տարածության վրա, այնպես, որ ρ ≪ π: Ճիշտ է հետևյալը՝ KL (ρ∥π) = sup n Eθ∼ρ [h(θ)] − log Eθ∼π h eh(θ) i | h : Θ → R, ∃C ∈ R s.t. |h| ≤ C o : (2) Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 8 / 12
  • 14. Դոնկսեռ-Վարադհան Նախորդ տարբերակի պնդումից ունենք որ կամայական (ρ, π, h) եռյակի համար ճիշտ է հետևյալը՝ log Eθ∼π[eh(θ) ] ≥ Eθ∼ρ[h(θ)] − KL(ρ||π) : (2) Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 8 / 12
  • 15. Դոնկսեռ-Վարադհան Այժմ դիտարկենք հետևյալ h-ը՝ h(θ) = log dρ dπ (θ) : Ունենք որ Eθ∼ρ [h(θ)] − log Eθ∼π h eh(θ) i = Eθ∼ρ log dρ dπ (θ) − log Eθ∼π exp log dρ dπ (θ) = KL (ρ∥π) − log Eθ∼π dρ dπ (θ) | {z } 1 = KL (ρ∥π) : Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 8 / 12
  • 16. Շուի և Ռագինսկիի արդյունքը Օրինակների բազմություն Z ▶ Վերահսկվող ուսուցման դեպքում Z = X × Y։ Հիպոթեզների բազմություն H ▶ Կրկին կենթադրենք, որ H-ը պարամետրիզացված է θ ∈ Θ պարամետրերով։ Կորստի ֆունկցիա ℓ : Θ × Z → R+: Կենթադրենք որ l(θ, z) ≤ 1: Ուսուցման տվյալներ S = (Z1, . . . , Zn), բաղկացած n անկախ օրինակներից(նմուշներից) միևնույն PZ անհայտ բաշխումից։ Ուսուցման ալգորիթմ ρ̂ : Zn → P(Θ) Իրական և էմպիրիկ ռիսկեր՝ R(θ) = EZ′∼PZ ℓ(θ, Z′ ) , r(θ) = 1 n n X i=1 ℓ(θ, Zi) : Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 9 / 12
  • 17. Շուի և Ռագինսկիի արդյունքը Թեորեմ (Շու և Ռագինսկի3 , թեթևակի պարզեցված) Ենթադրենք θ̃-ն պատահական մեծություն է ρ̂(S) բաշխումով (այսինքն՝ հետին բաշխումից պատահական նմուշ)։ Միջին ռիսկի մաթ․ սպասումը կարելի գնահատել հետևյալ կերպ՝
  • 18.
  • 19. ES Eθ∼ρ̂(S) [R(θ)] − ES Eθ∼ρ̂(S) [r(θ)]
  • 20.
  • 21. ≤ r 1 2n I(θ̃; S) : (2) 3A. Xu and M. Raginsky. Information-theoretic analysis of generalization capability of learning algorithms. NeurIPS, 2017. Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 9 / 12
  • 22. Շուի և Ռագինսկիի արդյունքը Ապացույց. Տրված θ ∈ Θ և s = (z1, . . . , zn) ∈ Zn զույգի համար սահմանենք h(θ, s) = 1 n n X i=1 ℓ(θ, zi) − R(θ) : (2) I(θ̃; S) = KL Pθ̃,S∥Pθ̃ ⊗ PS ≥ Eθ,s∼Pθ̃,S [λh(θ, s)] − log Eθ,s∼Pθ̃ ⊗PS h eλh(θ,s) i = λ ES Eθ∼ρ̂(S) [r(θ) − R(θ)] − log Eθ,s∼Pθ̃ ⊗PS h eλh(θ,s) i = λ ES Eθ∼ρ̂(S) [r(θ) − R(θ)] − log Eθ∼Pθ̃ Es∼PS exp λ n n X i=1 ℓ(θ, zi) − R(θ) !! = λ ES Eθ∼ρ̂(S) [r(θ) − R(θ)] − log Eθ∼Pθ̃ n Y i=1 Ezi∼PZ exp λ n (ℓ(θ, zi) − R(θ)) Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 9 / 12
  • 23. Շուի և Ռագինսկիի արդյունքը Այժմ կատարենք հետևյալ պարզեցումները՝ Ezi∼PZ exp λ n (ℓ(θ, zi) − R(θ)) = EZ1 exp λ n (ℓ(θ, Z1) − R(θ)) (2) = EZ1 exp λ n (ℓ(θ, Z1) − EZ1 ℓ(θ, Z1)) (3) ≤ exp λ2 8n2 : (4) Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 9 / 12
  • 24. Շուի և Ռագինսկիի արդյունքը Այժմ կատարենք հետևյալ պարզեցումները՝ Ezi∼PZ exp λ n (ℓ(θ, zi) − R(θ)) = EZ1 exp λ n (ℓ(θ, Z1) − R(θ)) (2) = EZ1 exp λ n (ℓ(θ, Z1) − EZ1 ℓ(θ, Z1)) (3) ≤ exp λ2 8n2 : (4) Սա տեղադրելով վերևում, ստանում ենք որ I(θ̃; S) ≥ λ ES Eθ∼ρ̂(S) [r(θ) − R(θ)] − log Eθ∼Pθ̃ exp λ2 8n2 n = λ ES Eθ∼ρ̂(S) [r(θ) − R(θ)] − λ2 8n : Ընտրելով λ = 4n ES Eθ∼ρ̂(S) [r(θ) − R(θ)]՝ կստանանք որ I(θ̃; S) ≥ 2n ES Eθ∼ρ̂(S) [r(θ) − R(θ)] 2 : (5) Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 9 / 12
  • 25. Կապը Պակ-Բայեսյան մոտեցման հետ Այսօր ավելի վաղ ստացել էինք, որ կամայական λ 0 թվի, π նախնական բաշխման և ρ̂(S) հետին բաշխման համար ES Eθ∼ρ̂[R(θ)] ≤ ES Eθ∼ρ̂[r(θ)] + λ 8n + ES KL (ρ̂∥π) λ : Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 10 / 12
  • 26. Կապը Պակ-Բայեսյան մոտեցման հետ Այսօր ավելի վաղ ստացել էինք, որ կամայական λ 0 թվի, π նախնական բաշխման և ρ̂(S) հետին բաշխման համար ES Eθ∼ρ̂[R(θ)] ≤ ES Eθ∼ρ̂[r(θ)] + λ 8n + ES KL (ρ̂∥π) λ : Դիտարկենք հետևյալ հավանականային չափը՝ π∗ (A) := ES [ρ̂(S)(A)]: Այդ դեպքում՝ օգտվելով փոխադարձ ինֆորմացիայի սահմանումից՝ I(θ̃; S) = KL Pθ̃,S∥Pθ̃ ⊗ PS = KL Pθ̃|SPS∥Pθ̃ ⊗ PS = ES KL Pθ̃|S∥Pθ̃ = ES KL (ρ̂(S)∥π∗ ) : Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 10 / 12
  • 27. Կապը Պակ-Բայեսյան մոտեցման հետ Այսօր ավելի վաղ ստացել էինք, որ կամայական λ 0 թվի, π նախնական բաշխման և ρ̂(S) հետին բաշխման համար ES Eθ∼ρ̂[R(θ)] ≤ ES Eθ∼ρ̂[r(θ)] + λ 8n + ES KL (ρ̂∥π) λ : Դիտարկենք հետևյալ հավանականային չափը՝ π∗ (A) := ES [ρ̂(S)(A)]: I(θ̃; S) = ES KL (ρ̂(S)∥π∗ ) : Հետևաբար, վերևում գրված Մակ-Բայեսյան գնահատականը կդառնա՝ ES Eθ∼ρ̂[R(θ)] ≤ ES Eθ∼ρ̂[r(θ)] + λ 8n + I(θ̃; S) λ : ▶ Եթե վերցնենք λ = q 8n I(θ̃; S), կստանանք Շու և Ռագինկսիի արդյունքը։ Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 10 / 12
  • 28. Լավարկումներ, հղումներ Negrea, Haghifam, Dziugaite, Khisti, and Roy. Information-theoretic generalization bounds for SGLD via data-dependent estimates. NeurIPS 2019. Bu, Zou, and Veeravalli. Tightening mutual information-based bounds on generalization error. IEEE Journal on Selected Areas in Information Theory, 2020. Steinke and Zakynthinou. Reasoning About Generalization via Conditional Mutual Information. PMLR 2020. Haghifam, Negrea, Khisti, Roy, and Dziugaite. Sharpened generalization bounds based on conditional mutual information and an application to noisy, iterative algorithms. NeurIPS 2020. Harutyunyan, Raginsky, Ver Steeg, Galstyan. Information-theoretic generalization bounds for black-box learning algorithms. NeurIPS 2021. Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 11 / 12
  • 29. Շնորհակալություն Հրայր Հարությունյան Պակ-Բայեսյան գնահատականներ Դեկտեմբերի 15, 2021 12 / 12