6. Vadné žárovky
Ve 100 žárovkách je 9 vadných. Náhodně koupíme 2.
Jaká je pravděpodobnost náhodného jevu, kdy jsou
obě vadné.
http://math.feld.cvut.cz/prucha/m3p/u3.pdf
7. Vadné žárovky
K tomu, abychom vybrali dvě vadné, musíme vybrat
poprvé vadnou, jev B. Potom je P(B) =9/100.Při
výběru druhé, je pravděpodobnost výběru vadná
žárovky rovna P(A/B) =8/99.
Potom je pravděpodobnostvýběru dvojice vadných
žárovek rovna
P(A) = P(A/B).P(B) =9/100·8/99 =72/9900= 0,007272.
9. Drogový pes
Máme na letišti psa, který očuchává zavazadla.
Když zavazadlo obsahuje drogy, je 98 % šance, že
začně stěkat. V 8 % se splete a štěká u zavazadla ve
kterém drogy nejsou.
Na našem letišti obsahuje drogy 5 % zavazadel.
Jaká je pravděbnost, že je jsou v zavazadle drogy,
když začne u něj pes štěkat.
16. Narozeninový paradox
Mějme skupinu n jedinců, u nichž porovnáváme data
narození. Cílem je zjistit, při jak velké populaci dochází
k tomu, kdy je více pravděpodobné, že více jedinců
slaví narozeniny ve stejný den. Není však důležité, zda
v konkrétní populaci tento jev nastane, či nikoli. Jistě
tedy existuje malá skupina, v níž více jedinců bude
slavit narozeniny ve stejný den, a naopak velká
skupina (maximálně H=365 jedinců), kteří slaví
narozeniny každý v jiný den.
http://stanikubi.cz/kecy/2017/narozeninovy-paradox/
17. Tak popojedeme
Informace, překvapení, entropie
Entropie v informační vědě neboli informační entropie
nebo někdy také Shannonova entropií
Východiskem je pravděpodobnost nějakého jevu a
překvapivost výsledku jaký nastal
Třeba, že padne panna nebo orel při hodu mincí a my
se dozvíme, že to byla panna
Kolik “vážila” tahle informace?
18. Je v tom dost hokej,
co?
Information provides a way to quantify the amount of
surprise for an event measured in bits.
Entropy provides a measure of the average amount
of information needed to represent an event drawn
from a probability distribution for a random variable.