„Je to má stará
zásada, že jakmile
vyloučíte nemožné,
všechno ostatní, co
zbude, ať je to jakkoli
nepravděpodobné,
musí být pravda.
Začněme mincí
Jaká je pravděpodobnost, že padne panna?
Pravděpodobnostní
stromy
S tužkou to jde vždycky líp!
Začněme mincí
Jaká je pravděpodobnost, že padne davkrát po sobě
panna?
0.5
0.5
0.5
0.25
0.5 * 0.5
Vadné žárovky
Ve 100 žárovkách je 9 vadných. Náhodně koupíme 2.
Jaká je pravděpodobnost náhodného jevu, kdy jsou
obě vadné.
http://math.feld.cvut.cz/prucha/m3p/u3.pdf
Vadné žárovky
K tomu, abychom vybrali dvě vadné, musíme vybrat
poprvé vadnou, jev B. Potom je P(B) =9/100.Při
výběru druhé, je pravděpodobnost výběru vadná
žárovky rovna P(A/B) =8/99.
Potom je pravděpodobnostvýběru dvojice vadných
žárovek rovna
P(A) = P(A/B).P(B) =9/100·8/99 =72/9900= 0,007272.
9/100
8/99
72/9900
91/100
Drogový pes
Máme na letišti psa, který očuchává zavazadla.
Když zavazadlo obsahuje drogy, je 98 % šance, že
začně stěkat. V 8 % se splete a štěká u zavazadla ve
kterém drogy nejsou.
Na našem letišti obsahuje drogy 5 % zavazadel.
Jaká je pravděbnost, že je jsou v zavazadle drogy,
když začne u něj pes štěkat.
0.05
0.95
0.98
0.02
0.08
0.92
0.049
0.001
0.076
0.874
0.05
0.95
0.98
0.02
0.08
0.92
0.049
0.001
0.076
0.874
0.05
0.95
0.98
0.02
0.08
0.92
0.049
0.001
0.076
0.874
0.049 + 0.076 = 0.125
0.05
0.95
0.98
0.02
0.08
0.92
0.049
0.001
0.076
0.874
0.049 / 0.125 = 0.392
Když náš pes štěká, tak
je šance na to, že jsou v
zavazadle drogy 39 %.
A jako bonus…
Narozeninový paradox
Mějme skupinu n jedinců, u nichž porovnáváme data
narození. Cílem je zjistit, při jak velké populaci dochází
k tomu, kdy je více pravděpodobné, že více jedinců
slaví narozeniny ve stejný den. Není však důležité, zda
v konkrétní populaci tento jev nastane, či nikoli. Jistě
tedy existuje malá skupina, v níž více jedinců bude
slavit narozeniny ve stejný den, a naopak velká
skupina (maximálně H=365 jedinců), kteří slaví
narozeniny každý v jiný den.
http://stanikubi.cz/kecy/2017/narozeninovy-paradox/
Tak popojedeme
Informace, překvapení, entropie
Entropie v informační vědě neboli informační entropie
nebo někdy také Shannonova entropií
Východiskem je pravděpodobnost nějakého jevu a
překvapivost výsledku jaký nastal
Třeba, že padne panna nebo orel při hodu mincí a my
se dozvíme, že to byla panna
Kolik “vážila” tahle informace?
Je v tom dost hokej,
co?
Information provides a way to quantify the amount of
surprise for an event measured in bits.
Entropy provides a measure of the average amount
of information needed to represent an event drawn
from a probability distribution for a random variable.
Pokračování příště

Informační věda - Pravděpodobnosti