SlideShare a Scribd company logo
Variabili casuali e
Distribuzioni di Probabilità
Variabili Casuali (v.c.)
Una variabile casuale X e’ una funzione definita
sullo spazio campionario Ω che associa ad ogni
evento E ⊂ Ω un unico numero reale.
                                                   X


      Ω
                                                   x6

               E2             E3
                                                   x5
                              E1                   x4
          E6
                    E5             E4
                              E7                   x3
                                                   x2
               E9        E8                        x1
Variabili casuali discrete e continue
• Una variabile casuale discreta può assumere un
  insieme discreto (finito o numerabile) di numeri
  reali.
• Una variabile casuale continua può assumere
  tutti i valori compresi in un intervallo reale.


  Ω discreto            V.C. discreta


  Ω continuo            V.C. discreta o continua
Variabili casuali discrete

P(X=xi)           Probabilità che la v.c. X
                  assuma il valore xi

La funzione di probabilità di una variabile
casuale discreta X associa ad ognuno dei
valori xi la corrispondente probabilità P(X=xi)


  Proprietà                ∑ i P ( xi ) = 1
                           P ( xi ) ≥ 0
Esempio
Corrispondenza tra eventi e valori della variabile
casuale X “somma dei punteggi”, nella prova “lancio
di due dadi”
Funzione di Ripartizione
Data una v.c discreta X, la funzione che fa corrispondere
ai valori x le probabilità cumulate
                  P(X ≤ x)
viene detta funzione di ripartizione ed indicata con


    F (x ) = P ( X ≤ x ) =     ∑P(X       = w)
                              w ≤x
Esempio
 X           2       3       4       5   6       7       8         9        10    11   12

P(x) 1   2    3    4    5    6    5    4    3    2   1
      36 36 36 36 36 36 36 36 36 36 36
F(x) 136 3 36 6 36 1036 1536 2136 2636 3036 3336 3536 1

     1

 F(x)
   0,8



   0,6



   0,4



   0,2



     0
         1       2   3   4       5   6   7   8       9   10   11       12    13   x
Funzione di Ripartizione: proprietà

 • è non decrescente, ossia:

        x1 < x 2 ⇒ F ( x1 ) ≤ F ( x 2 )
 • Inoltre

      lim F ( x ) = 0       lim F ( x ) = 1
     x →−∞                 x →∞


 •   è continua a destra, ossia

               lim F (x ) = F ( x0 )
                   +
              x → x0
Variabili casuali continue
Chiameremo Funzione di densità, la funzione
matematica f(x) per cui l’area sottesa alla
funzione, corrispondente ad un certo intervallo,
è uguale alla probabilità che X assuma un
valore in quell’intervallo.
Proprietà delle funzioni di densità

      ≥
• f(x)≥0 sempre
• L’area totale sottesa alla funzione =1, ossia
                 +∞
                 ∫ f ( x ) dx   = 1
                  −∞
• La probabilità che la v.c. assuma un particolare valore
  dell’intervallo è zero.
Funzione di Ripartizione

Data una v.c. continua X, la funzione che fa
corrispondere ai valori x le probabilità cumulate
    ≤
P(X≤ x) viene detta funzione di ripartizione.
                               x
      F ( x ) = P( X ≤ x ) =   ∫ f ( w )dw
                               −∞
Variabili casuali continue
 Esempio:                    2,0

                            f x
  X ~ f ( x)                 1,5


  f ( x) = 12x(1 − x)2       1,0

  x ∈ [0;1]
                             0,5            0,229

  0, 7                       0,0


  ∫ f (x)dx = 0,229
                                0,0   0,5           0,7   1,0   X

  0, 5
  +∞           1

  ∫ f (x)dx =∫ f (x)dx =1
  −∞           0
                                      P(0,5<X<0,7)
Esempio
Funzioni di densità e corrispondenti funzioni di ripartizione
     f (x )                         F (x )




                          x                             x
       2,00                           1,0


     f (x )                         F (x )
                                      0,8
       1,50


                                      0,6

       1,00

                                      0,4


       0,50
                                      0,2



       0,00                           0,0
              0,0   1,5
                          x   3,0           0,0   1,5
                                                        x   3,0
Valore atteso di una v.c.

Il valore medio di una v.c. X, è definito come

E ( X ) = ∑ x i P ( x i ) Se la v.c. è discreta
           i
           +∞
 E(X ) =   ∫ x f (x ) dx   Se la v.c. è continua
           −∞
Esempio: v.c. discreta

  X     2   3   4    5    6   7    8    9   10   11   12

 P(x) 1   2    3    4    5    6    5    4    3    2   1
       36 36 36 36 36 36 36 36 36 36 36
 F(x) 136 3 36 6 36 1036 1536 2136 2636 3036 3336 3536 1


          1      2     3     4  5  6  5  4
E(X ) = 2 + 3 + 4 + 5 + 6 + 7 + 8 + 9
         36     36    36    36 36 36 36 36
            3       2     1
      + 10    + 11 + 12     =7
           36      36    36
Esempio: v.c. continua
                                  − λx
Consideriamo la v.c.     X ~ λe
con lambda una costante positiva e x                 ≥0
(Esponenziale). Il valore atteso è dato
da                                  2,0



                                         1,6
           +∞
                   −λx        1
 E(X ) =   ∫ xλe         dx =            1,2



           −∞
                              λ          0,8



                                         0,4



                                         0,0
                                               0,0   0,5   1,0   1,5   2,0   2,5   3,0
La varianza di una v.c.

La varianza V(X) di una variabile casuale X è definita da



V ( X ) = ∑ ( x i − E ( X ))2 P ( x i )   Se la v.c. è discreta
           i
           +∞
V (X ) =   ∫ (x − E ( X ))2 f (x )dx      Se la v.c. è continua
           −∞
Varianza di una v.c.
Notazioni alternative:

           V ( X ) = E {[ X − E ( X )] 2 }
oppure, dopo alcuni passaggi

                      ( )− [E ( X )]
           V (X ) = E X   2            2

La deviazione standard è definita

             SD ( X ) = V ( X )
V.c. Standardizzate
I valori standardizzati esprimono la distanza tra i
 valori osservati e la media in termini di deviazione
 standard.

Se X è una v.c. con valore E(X) e SD(X) allora:

                        X − E( X )
                    Y =
                         SD( X )

È una v.c. standardizzata con E(Y)=0 e V(Y)=1
Teorema di Chebyshev
Sia X una variabile casuale e k un valore reale
positivo, allora vale la seguente disuguaglianza:


      P ( X − E ( X ) ≥ k ⋅ SD ( X )) ≤ 2
                                           1
                                       k
Indipendentemente dalla distribuzione della v.c. , la
probabilità che X assuma valori distanti dalla media più
di k deviazioni standard è al più 1/k2
Distribuzioni di probabilità
• Sono una estensione delle distribuzioni di
  frequenza
• Il caso più semplice da trattare è relativo a
  distribuzioni di probabilità di variabili discrete
  – Variabili discrete:
     • Fenomeni di conteggio
     • Esperimenti con modalità limitate
  – Variabili continue:
     • Misurazioni
     • Esperimenti con modalità nel continuo
Metodi di sintesi delle distribuzioni
• In analogia con quanto detto circa le distribuzioni
  di frequenze, anche per le distribuzioni di
  probabilità abbiamo la necessità di sintetizzare i
  dati
• In particolare ci interessa una sintesi di centralità
  – Valore atteso
• Ed una sintesi della variabilità
  – Varianza
  – Scarto quadratico medio
  – Coefficiente di variazione
Modelli probabilistici
• Per modello si intende una legge di probabilità
  in grado di misurare l’incertezza circa il
  fenomeno reale sotto studio


  Fenomeno reale:
           reale               Modello matematico:
                                       matematico
   Numero di figli                 Distribuzione di
    per famiglia              probabilità da associare
                              al fenomeno di interesse
    Risultati dal
                                   per analizzarlo
    lancio di un dado
• In funzione del fenomeno reale sotto studio,
  si cerca di associare un modello opportuno a
  descriverne la variabilità
• I modelli si dividono in:
  – Modelli discreti, alcuni dei quali sono:
     • Modello uniforme discreto
     • Modello binomiale
     • Modello poisson
  – Modelli continui
     • Modello normale
     • Modello esponenziale
Modello uniforme (1)
• Si tratta della distribuzione più semplice
• Consente di valutare la probabilità di un
  fenomeno per il quale ognuno degli k
  possibili risultati sia equamente probabile.
• Ad esempio, la probabilità che un numero sia
  estratto al lotto è descritta dal modello
  Uniforme, perché ciascuno dei 90 numeri ha
  una probabilità pari a 1/90 di essere estratto.
Modello bernoulliano (1)
• Questo particolare modello è adatto a descrive la probabilità
  associata a variabili dicotomiche, cioè fenomeni che assumono
  soltanto uno tra due possibili valori: x = 1 (si verifica un certo
  evento di interesse E, ed x = 0 se non si verifica l’evento E).
• Esempio: (morto vs vivo, maschio vs femmina; presenza di un
  evento di interesse contrapposto a tutti gli altri)
•
    P ( X = 1) = p
    P ( X = 0) = 1 − p
    E(X ) = p
    var( X ) = p (1 − p )
Distribuzione di Bernoulli

Una v.c. di Bernoulli può assumere il valore 1
con probabilità π e il valore 0 con probabilità 1-π
                                                  π

La sua funzione di probabilità può essere espressa come



    P ( X = x ) = π x (1 − π )1− x     per x = 0,1


Tutte le prove che producono solo due possibili risultati
generano v.c. di Bernoulli: il lancio di una moneta, il
sesso di un nascituro, il superamento o meno di un certo
livello di inflazione….
Modello Binomiale
• Il modello binomiale, descrive la probabilità il
  numero x di successi ottenuti in un campione di
  n prove (osservazioni):
                          n!
    Pr( X = x | p ) =            p x (1 − p ) n − x
                      x!(n − x)!
              n x         n− x
           =   p (1 − p )
              x
              
   E ( X ) = np
  var( X ) = np (1 − p )
Modello Binomiale (2)
• La formulazione Pr(X = x) indica che su n osservazioni si
  sono verificati esattamente x successi e, di conseguenza,
  n – x insuccessi
• Poiché le prove sono indipendenti e la probabilità di
  successo è costante pari a p per ogni prova, osserveremo
  su n tentativi:
   – x con probabilità p
   – n – x con probabilità 1 – p
• Rimane da considerare il fatto che l’ordine in cui le prove
  sono osservate è variabile e noi siamo interessati solo al
  totale dei successi-insuccessi, non all’ordine
Modello Binomiale (3)
• Infatti, si potrebbero verificare:
   – tutti i successi e poi tutti gli insuccessi
   – oppure un successo e un insuccesso in sequenza
   – oppure tutti gli insuccessi e poi tutti i successi …
• Per tenere conto di queste possibilità, le
  probabilità sono moltiplicate per il numero di
  possibili combinazioni di k

  n      n!
  =
  x  x!(n − x)!        con n!= n × (n − 1) × ... × 2 × 1
  
N=10 p=0.4
Calcolo delle probabilità nel modello
 binomiale

• Calcolare Pr(X = 3|n = 4, p = 0.1)
                             4!
           Pr( X = 3) =             0.13 (1 − 0.1) 4 − 3
                         3!(4 − 3)!
                   4 × 3× 2×1
                 =              × 0.13 × 0.9 1
                   3 × 2 × 1× 1
                 = 4 × 0.001 × 0.9
                  = 0.0036
• Calcolare Pr(X ≥ 3) con n = 4 prove e p = 0.1
                                               Poiché le prove sono
Pr( X ≥ 3) = Pr( X = 3 ∪ X = 4 )               indipendenti per Hp

             4!                   4 −3       4!
      =            0.1 (1 − 0.1) +
                      3
                                                    0.14 (1 − 0.1) 4 − 4
        3!(4 − 3)!                      4!(4 − 4 )!
        4 × 3× 2×1                       4 × 3× 2×1
      =              × 0 .1 × 0 .9 +
                           3       1
                                                        × 0.1 × 0.9
                                                              4         0

        3 × 2 × 1× 1                   4 × 3 × 2 × 1× 1
      = 4 × 0.001 × 0.9 + 1 × 0.0001 × 1
      = 0.0036 + 0.0001 = 0.0037
                                                       Perché 0! = 1 per
                                                       definizione
• Calcolare Pr(X < 3) con n = 4 prove e p = 0.1
          Pr( X < 3) = Pr( X = 0 ∪ X = 1 ∪ X = 2)
                = Pr( X = 0 ) + Pr( X = 1) + Pr( X = 2)
                      2
                 =   ∑ Pr( X = i)
                     i =0

                  4!
Pr( X = 0 ) =             0.10 (1 − 0.1) 4 −0 = 0.6561
              0!(4 − 0 )!
                  4!                   4 −1
Pr( X = 1) =             0.1 (1 − 0.1) = 0.2916
                             1

              1!(4 − 1)!
                  4!
Pr( X = 2) =              0.12 (1 − 0.1) 4 − 2 = 0.0486
              2!(4 − 2)!
N=4 p=0.1
Esempi di Binomiale
0,300
                Binomiale(7;0,5)

0,250




0,200
                                                           Binomiale(20;0,5)


0,150




0,100




0,050




0,000
        0   1    2   3   4   5   6   7   8   9   10   11   12   13   14   15   16   17   18   19   20
Modello Poisson (1)
• Il modello Poisson si adatta a rappresentare esperimenti
  aleatori che danno luogo ad un numero discreto di
  eventi in un intervallo continuo (es. arrivi in un
  aeroporto in un’ora di tempo, )
• Le realizzazioni degli eventi devono avere le seguenti
  caratteristiche:
   – L’intervallo (di tempo o di spazio) è suddivisibile in n sotto-
     intervalli all’interno dei quali la probabilità di manifestarsi di
     un evento è piccola e la probabilità di manifestarsi di più
     eventi tende a zero
   – La probabilità di manifestarsi degli eventi nei sottointervalli
     è costante
   – Eventi relativi a sotto intervalli differenti sono
     stocasticamente indipendenti (processo senza memoria)
Modello Poisson (2)
• In termini matematici il modello è
  specificato come:
                            −λ
                             e λ   x
           Pr( X = x | λ ) =
                              x!
• Il parametro λ rappresenta il numero
  medio di eventi che si verificano
  nell’intervallo (numero atteso di successi)
Distribuzione di Poisson

Una v.c. di Poisson, è una v.c. discreta che può assumere
qualsiasi valore intero non-negativo.
La distribuzione di probabilità della Poisson è data da

           λx −λ
 P( x ) =      e            x = 0, 1, 2, K       0<λ<∞
          x!       0,40


                   0,35       Poisson(1)


 E(X ) = λ
                   0,30


                   0,25            Poisson(3)


V (X ) = λ
                   0,20


                   0,15
                                                         Poisson(7)

                   0,10


                   0,05

                   0,00
                          1    2     3   4   5   6   7    8   9   10   11   12   13   14   15   16   17
Modello Poisson (3)
• L’esperimento aleatorio di interesse è il
  “numero di arrivi di clienti presso una banca”
• Supponiamo che mediamente arrivino 3 clienti
  ogni minuto
• Ci interessa calcolare:
  – la probabilità che nello stesso intervallo arrivino
    esattamente 2 clienti
  – la probabilità che nello stesso intervallo arrivino più
    di 2 clienti
Modello Poisson (4)

• Utilizzando la funzione della distribuzione
  Poisson, si ha che:

                     −3                     −3
                     e 3  2
                           9 × (2.71828 )
        Pr( X = 2) =     =
                      2!        (2 × 1)
              = 0.224
Modello Poisson (5)

• Invece, per determinare
                              ∞
              Pr( X > 2) =   ∑ Pr( X = i)
                             i =3
  è più comodo notare che:
       Pr( X > 2) = 1 − Pr( X ≤ 2)
             = Pr( X = 0 ) + Pr( X = 1) + Pr( X = 2)

  dove queste tre probabilità sono “semplici” da
  calcolare
Modello Poisson (6)
              e −3 3 0 1 × (2.71828 ) −3
Pr( X = 0 ) =         =
                 0!            1
      = 0.0498
             e −3 3 1 3 × (2.71828 ) −3
Pr( X = 1) =         =
                1!            1            Pr( X > 2) = 0.577
      = 0.1494
             e −3 3 2 9 × (2.71828 ) −3
Pr( X = 2) =         =
                2!         (2 × 1)
      = 0.224
Modello Poisson (7)
• NB nel modello Poisson, il parametro λ
  rappresenta anche la varianza oltre che il numero
  atteso di eventi
• Dunque, all’aumentare della media, aumenta
  anche la varianza della distribuzione
• Questo fa sì che nella pratica si possa ricorrere a
  formulazioni alternative del modello Poisson, che
  permettono di “modellare” in modo indipendente
  il termine di variabilità

More Related Content

What's hot

Point estimation
Point estimationPoint estimation
Point estimation
Shahab Yaseen
 
Cours statistique descriptive
Cours statistique descriptiveCours statistique descriptive
Cours statistique descriptiveMouna Ettahiri
 
Lesson 2 stationary_time_series
Lesson 2 stationary_time_seriesLesson 2 stationary_time_series
Lesson 2 stationary_time_series
ankit_ppt
 
ICAR-IFPRI- Instrumental Variable Regression- Devesh Roy, IFPRI
ICAR-IFPRI- Instrumental Variable Regression- Devesh Roy, IFPRIICAR-IFPRI- Instrumental Variable Regression- Devesh Roy, IFPRI
ICAR-IFPRI- Instrumental Variable Regression- Devesh Roy, IFPRI
International Food Policy Research Institute- South Asia Office
 
ders 8 Quantile-Regression.ppt
ders 8 Quantile-Regression.pptders 8 Quantile-Regression.ppt
ders 8 Quantile-Regression.ppt
Ergin Akalpler
 
Normal Distribution Presentation
Normal Distribution PresentationNormal Distribution Presentation
Normal Distribution Presentation
sankarshanjoshi
 
Autocorrelation- Detection- part 1- Durbin-Watson d test
Autocorrelation- Detection- part 1- Durbin-Watson d testAutocorrelation- Detection- part 1- Durbin-Watson d test
Autocorrelation- Detection- part 1- Durbin-Watson d test
Shilpa Chaudhary
 
Basic statistics
Basic statisticsBasic statistics
Tests of significance z &amp; t test
Tests of significance z &amp; t testTests of significance z &amp; t test
Tests of significance z &amp; t test
Curtin University, Perth, Australia
 
Chapter8
Chapter8Chapter8
Chapter8
Vu Vo
 
Final generalized linear modeling by idrees waris iugc
Final generalized linear modeling by idrees waris iugcFinal generalized linear modeling by idrees waris iugc
Final generalized linear modeling by idrees waris iugc
Id'rees Waris
 
5.1 correlaoduasvariaveis 1_20151006145332
5.1 correlaoduasvariaveis 1_201510061453325.1 correlaoduasvariaveis 1_20151006145332
5.1 correlaoduasvariaveis 1_20151006145332
Samuel Ferreira da Silva
 
Stat prob09 distribution_continue
Stat prob09 distribution_continueStat prob09 distribution_continue
Stat prob09 distribution_continue
Arif Rahman
 
Class lecture notes # 2 (statistics for research)
Class lecture notes # 2 (statistics for research)Class lecture notes # 2 (statistics for research)
Class lecture notes # 2 (statistics for research)
Harve Abella
 
Logistic regression
Logistic regressionLogistic regression
Logistic regression
DrZahid Khan
 
Time Series Analysis and Forecasting.ppt
Time Series Analysis and Forecasting.pptTime Series Analysis and Forecasting.ppt
Time Series Analysis and Forecasting.ppt
ssuser220491
 
Logistic regression
Logistic regressionLogistic regression
Logistic regression
Khaled Abd Elaziz
 
Random Variables
Random VariablesRandom Variables
Random Variables
Tomoki Tsuchida
 
Probability Density Functions
Probability Density FunctionsProbability Density Functions
Probability Density Functions
guestb86588
 
Maximum likelihood estimation
Maximum likelihood estimationMaximum likelihood estimation
Maximum likelihood estimation
zihad164
 

What's hot (20)

Point estimation
Point estimationPoint estimation
Point estimation
 
Cours statistique descriptive
Cours statistique descriptiveCours statistique descriptive
Cours statistique descriptive
 
Lesson 2 stationary_time_series
Lesson 2 stationary_time_seriesLesson 2 stationary_time_series
Lesson 2 stationary_time_series
 
ICAR-IFPRI- Instrumental Variable Regression- Devesh Roy, IFPRI
ICAR-IFPRI- Instrumental Variable Regression- Devesh Roy, IFPRIICAR-IFPRI- Instrumental Variable Regression- Devesh Roy, IFPRI
ICAR-IFPRI- Instrumental Variable Regression- Devesh Roy, IFPRI
 
ders 8 Quantile-Regression.ppt
ders 8 Quantile-Regression.pptders 8 Quantile-Regression.ppt
ders 8 Quantile-Regression.ppt
 
Normal Distribution Presentation
Normal Distribution PresentationNormal Distribution Presentation
Normal Distribution Presentation
 
Autocorrelation- Detection- part 1- Durbin-Watson d test
Autocorrelation- Detection- part 1- Durbin-Watson d testAutocorrelation- Detection- part 1- Durbin-Watson d test
Autocorrelation- Detection- part 1- Durbin-Watson d test
 
Basic statistics
Basic statisticsBasic statistics
Basic statistics
 
Tests of significance z &amp; t test
Tests of significance z &amp; t testTests of significance z &amp; t test
Tests of significance z &amp; t test
 
Chapter8
Chapter8Chapter8
Chapter8
 
Final generalized linear modeling by idrees waris iugc
Final generalized linear modeling by idrees waris iugcFinal generalized linear modeling by idrees waris iugc
Final generalized linear modeling by idrees waris iugc
 
5.1 correlaoduasvariaveis 1_20151006145332
5.1 correlaoduasvariaveis 1_201510061453325.1 correlaoduasvariaveis 1_20151006145332
5.1 correlaoduasvariaveis 1_20151006145332
 
Stat prob09 distribution_continue
Stat prob09 distribution_continueStat prob09 distribution_continue
Stat prob09 distribution_continue
 
Class lecture notes # 2 (statistics for research)
Class lecture notes # 2 (statistics for research)Class lecture notes # 2 (statistics for research)
Class lecture notes # 2 (statistics for research)
 
Logistic regression
Logistic regressionLogistic regression
Logistic regression
 
Time Series Analysis and Forecasting.ppt
Time Series Analysis and Forecasting.pptTime Series Analysis and Forecasting.ppt
Time Series Analysis and Forecasting.ppt
 
Logistic regression
Logistic regressionLogistic regression
Logistic regression
 
Random Variables
Random VariablesRandom Variables
Random Variables
 
Probability Density Functions
Probability Density FunctionsProbability Density Functions
Probability Density Functions
 
Maximum likelihood estimation
Maximum likelihood estimationMaximum likelihood estimation
Maximum likelihood estimation
 

Viewers also liked

Probabilità
ProbabilitàProbabilità
Probabilità
Vispo Srl
 
Statistica probabilità blog
Statistica probabilità blogStatistica probabilità blog
Statistica probabilità blog
Gianni Locatelli
 
4 il Calcolo della probabilità probabilità
4 il Calcolo della probabilità probabilità4 il Calcolo della probabilità probabilità
4 il Calcolo della probabilità probabilità
pontematica
 
Variabilità - Lezione 3
Variabilità - Lezione 3Variabilità - Lezione 3
Variabilità - Lezione 3
Sergio Pinna
 
Verifica delle ipotesi - Lezione 9
Verifica delle ipotesi - Lezione 9Verifica delle ipotesi - Lezione 9
Verifica delle ipotesi - Lezione 9
Sergio Pinna
 
Teoria probabilità 4
Teoria probabilità 4Teoria probabilità 4
Teoria probabilità 4
Luigi Carassale
 
Le variabili casuali campionarie - Lezione 7
Le variabili casuali campionarie - Lezione 7Le variabili casuali campionarie - Lezione 7
Le variabili casuali campionarie - Lezione 7
Sergio Pinna
 
Variabili casuali - Lezione 5
Variabili casuali - Lezione 5Variabili casuali - Lezione 5
Variabili casuali - Lezione 5
Sergio Pinna
 
P1961 001 V2 Le Distribuzioni Di Probabilita Implicite Da Contratti Derivati
P1961 001 V2 Le Distribuzioni Di Probabilita  Implicite Da Contratti DerivatiP1961 001 V2 Le Distribuzioni Di Probabilita  Implicite Da Contratti Derivati
P1961 001 V2 Le Distribuzioni Di Probabilita Implicite Da Contratti Derivatialanaylett82
 
Intervalli di confidenza - Lezione 8
Intervalli di confidenza - Lezione 8Intervalli di confidenza - Lezione 8
Intervalli di confidenza - Lezione 8
Sergio Pinna
 
Variabile casuale normale - Lezione 6
Variabile casuale normale - Lezione 6Variabile casuale normale - Lezione 6
Variabile casuale normale - Lezione 6
Sergio Pinna
 
Indici di Posizione - Lezione 2
Indici di Posizione - Lezione 2Indici di Posizione - Lezione 2
Indici di Posizione - Lezione 2
Sergio Pinna
 
Aqfa probabilita
Aqfa   probabilitaAqfa   probabilita
Aqfa probabilita
Luigi Carassale
 
Combinatoria e probabilità
Combinatoria e probabilitàCombinatoria e probabilità
Combinatoria e probabilitàLuca Gervasio
 
La mia probabilità
La mia probabilitàLa mia probabilità
La mia probabilità
Angelarita Bianchi
 
Calcolo delle probabilità - Lezione 4
Calcolo delle probabilità - Lezione 4Calcolo delle probabilità - Lezione 4
Calcolo delle probabilità - Lezione 4
Sergio Pinna
 
Inferenza statistica
Inferenza statisticaInferenza statistica
Inferenza statistica
Vispo Srl
 
Probabilità e statistica: la scienza della previsione
Probabilità e statistica: la scienza della previsioneProbabilità e statistica: la scienza della previsione
Probabilità e statistica: la scienza della previsione
Andrea Capocci
 
8.7 il teorema del limite centrale e la legge dei grandi numeri
8.7   il teorema del limite centrale e la legge dei grandi numeri8.7   il teorema del limite centrale e la legge dei grandi numeri
8.7 il teorema del limite centrale e la legge dei grandi numeri
Riccardo Rigon
 
8.2 probabilità - assiomi
8.2   probabilità - assiomi8.2   probabilità - assiomi
8.2 probabilità - assiomi
Riccardo Rigon
 

Viewers also liked (20)

Probabilità
ProbabilitàProbabilità
Probabilità
 
Statistica probabilità blog
Statistica probabilità blogStatistica probabilità blog
Statistica probabilità blog
 
4 il Calcolo della probabilità probabilità
4 il Calcolo della probabilità probabilità4 il Calcolo della probabilità probabilità
4 il Calcolo della probabilità probabilità
 
Variabilità - Lezione 3
Variabilità - Lezione 3Variabilità - Lezione 3
Variabilità - Lezione 3
 
Verifica delle ipotesi - Lezione 9
Verifica delle ipotesi - Lezione 9Verifica delle ipotesi - Lezione 9
Verifica delle ipotesi - Lezione 9
 
Teoria probabilità 4
Teoria probabilità 4Teoria probabilità 4
Teoria probabilità 4
 
Le variabili casuali campionarie - Lezione 7
Le variabili casuali campionarie - Lezione 7Le variabili casuali campionarie - Lezione 7
Le variabili casuali campionarie - Lezione 7
 
Variabili casuali - Lezione 5
Variabili casuali - Lezione 5Variabili casuali - Lezione 5
Variabili casuali - Lezione 5
 
P1961 001 V2 Le Distribuzioni Di Probabilita Implicite Da Contratti Derivati
P1961 001 V2 Le Distribuzioni Di Probabilita  Implicite Da Contratti DerivatiP1961 001 V2 Le Distribuzioni Di Probabilita  Implicite Da Contratti Derivati
P1961 001 V2 Le Distribuzioni Di Probabilita Implicite Da Contratti Derivati
 
Intervalli di confidenza - Lezione 8
Intervalli di confidenza - Lezione 8Intervalli di confidenza - Lezione 8
Intervalli di confidenza - Lezione 8
 
Variabile casuale normale - Lezione 6
Variabile casuale normale - Lezione 6Variabile casuale normale - Lezione 6
Variabile casuale normale - Lezione 6
 
Indici di Posizione - Lezione 2
Indici di Posizione - Lezione 2Indici di Posizione - Lezione 2
Indici di Posizione - Lezione 2
 
Aqfa probabilita
Aqfa   probabilitaAqfa   probabilita
Aqfa probabilita
 
Combinatoria e probabilità
Combinatoria e probabilitàCombinatoria e probabilità
Combinatoria e probabilità
 
La mia probabilità
La mia probabilitàLa mia probabilità
La mia probabilità
 
Calcolo delle probabilità - Lezione 4
Calcolo delle probabilità - Lezione 4Calcolo delle probabilità - Lezione 4
Calcolo delle probabilità - Lezione 4
 
Inferenza statistica
Inferenza statisticaInferenza statistica
Inferenza statistica
 
Probabilità e statistica: la scienza della previsione
Probabilità e statistica: la scienza della previsioneProbabilità e statistica: la scienza della previsione
Probabilità e statistica: la scienza della previsione
 
8.7 il teorema del limite centrale e la legge dei grandi numeri
8.7   il teorema del limite centrale e la legge dei grandi numeri8.7   il teorema del limite centrale e la legge dei grandi numeri
8.7 il teorema del limite centrale e la legge dei grandi numeri
 
8.2 probabilità - assiomi
8.2   probabilità - assiomi8.2   probabilità - assiomi
8.2 probabilità - assiomi
 

Similar to Distribuzioni di Probabilita e Variabili Casuali

Infiniti infinitesimi asintoti
Infiniti infinitesimi asintotiInfiniti infinitesimi asintoti
Limiti
LimitiLimiti
Massimi e minimi
Massimi e minimiMassimi e minimi
Stimatori per covarianza
Stimatori per covarianzaStimatori per covarianza
Stimatori per covarianzarosettina
 
Corbo relativita
Corbo relativitaCorbo relativita
Corbo relativita
Jack O'Connor
 
FUNZIONI VERSIONE ULTIMA CORRETTA.pps.ppt
FUNZIONI VERSIONE ULTIMA CORRETTA.pps.pptFUNZIONI VERSIONE ULTIMA CORRETTA.pps.ppt
FUNZIONI VERSIONE ULTIMA CORRETTA.pps.ppt
Daniela Maiolino
 
Le variabili casuali
Le variabili casualiLe variabili casuali
Le variabili casuali
Vispo Srl
 
Derivate
DerivateDerivate
Introduzione allo studio di funzione
Introduzione allo studio di funzioneIntroduzione allo studio di funzione
Introduzione allo studio di funzione
Luigi Pasini
 
Capitolo 5 richiami prob. stat. mercati fin
Capitolo 5   richiami prob. stat. mercati finCapitolo 5   richiami prob. stat. mercati fin
Capitolo 5 richiami prob. stat. mercati finGiovanni Della Lunga
 
Disequazioni esponenziali e logaritmiche
Disequazioni esponenziali e logaritmicheDisequazioni esponenziali e logaritmiche
Disequazioni esponenziali e logaritmiche
Voglio 10
 
Matematica
MatematicaMatematica
Matematica
Martina Mancini
 
Flessi
FlessiFlessi
Le variabili casuali
Le variabili casualiLe variabili casuali
Le variabili casuali
Luigi Pasini
 
Distribuzioni continue
Distribuzioni continueDistribuzioni continue
Distribuzioni continue
Luigi Pasini
 
Problema 2 (indirizzo ordinario)
Problema 2 (indirizzo ordinario)Problema 2 (indirizzo ordinario)
Problema 2 (indirizzo ordinario)Deiesy
 

Similar to Distribuzioni di Probabilita e Variabili Casuali (20)

Analisi Limiti
Analisi LimitiAnalisi Limiti
Analisi Limiti
 
Infiniti infinitesimi asintoti
Infiniti infinitesimi asintotiInfiniti infinitesimi asintoti
Infiniti infinitesimi asintoti
 
Limiti deriv
Limiti derivLimiti deriv
Limiti deriv
 
Limiti
LimitiLimiti
Limiti
 
Massimi e minimi
Massimi e minimiMassimi e minimi
Massimi e minimi
 
Stimatori per covarianza
Stimatori per covarianzaStimatori per covarianza
Stimatori per covarianza
 
Corbo relativita
Corbo relativitaCorbo relativita
Corbo relativita
 
FUNZIONI VERSIONE ULTIMA CORRETTA.pps.ppt
FUNZIONI VERSIONE ULTIMA CORRETTA.pps.pptFUNZIONI VERSIONE ULTIMA CORRETTA.pps.ppt
FUNZIONI VERSIONE ULTIMA CORRETTA.pps.ppt
 
Le variabili casuali
Le variabili casualiLe variabili casuali
Le variabili casuali
 
Derivate
DerivateDerivate
Derivate
 
Introduzione allo studio di funzione
Introduzione allo studio di funzioneIntroduzione allo studio di funzione
Introduzione allo studio di funzione
 
Capitolo 5 richiami prob. stat. mercati fin
Capitolo 5   richiami prob. stat. mercati finCapitolo 5   richiami prob. stat. mercati fin
Capitolo 5 richiami prob. stat. mercati fin
 
Disequazioni esponenziali e logaritmiche
Disequazioni esponenziali e logaritmicheDisequazioni esponenziali e logaritmiche
Disequazioni esponenziali e logaritmiche
 
Matematica
MatematicaMatematica
Matematica
 
Flessi
FlessiFlessi
Flessi
 
Le variabili casuali
Le variabili casualiLe variabili casuali
Le variabili casuali
 
Algebra E Matematica Generale
Algebra E Matematica GeneraleAlgebra E Matematica Generale
Algebra E Matematica Generale
 
Distribuzioni continue
Distribuzioni continueDistribuzioni continue
Distribuzioni continue
 
GlobalInvertibility
GlobalInvertibilityGlobalInvertibility
GlobalInvertibility
 
Problema 2 (indirizzo ordinario)
Problema 2 (indirizzo ordinario)Problema 2 (indirizzo ordinario)
Problema 2 (indirizzo ordinario)
 

Distribuzioni di Probabilita e Variabili Casuali

  • 2. Variabili Casuali (v.c.) Una variabile casuale X e’ una funzione definita sullo spazio campionario Ω che associa ad ogni evento E ⊂ Ω un unico numero reale. X Ω x6 E2 E3 x5 E1 x4 E6 E5 E4 E7 x3 x2 E9 E8 x1
  • 3. Variabili casuali discrete e continue • Una variabile casuale discreta può assumere un insieme discreto (finito o numerabile) di numeri reali. • Una variabile casuale continua può assumere tutti i valori compresi in un intervallo reale. Ω discreto V.C. discreta Ω continuo V.C. discreta o continua
  • 4. Variabili casuali discrete P(X=xi) Probabilità che la v.c. X assuma il valore xi La funzione di probabilità di una variabile casuale discreta X associa ad ognuno dei valori xi la corrispondente probabilità P(X=xi) Proprietà ∑ i P ( xi ) = 1 P ( xi ) ≥ 0
  • 5. Esempio Corrispondenza tra eventi e valori della variabile casuale X “somma dei punteggi”, nella prova “lancio di due dadi”
  • 6. Funzione di Ripartizione Data una v.c discreta X, la funzione che fa corrispondere ai valori x le probabilità cumulate P(X ≤ x) viene detta funzione di ripartizione ed indicata con F (x ) = P ( X ≤ x ) = ∑P(X = w) w ≤x
  • 7. Esempio X 2 3 4 5 6 7 8 9 10 11 12 P(x) 1 2 3 4 5 6 5 4 3 2 1 36 36 36 36 36 36 36 36 36 36 36 F(x) 136 3 36 6 36 1036 1536 2136 2636 3036 3336 3536 1 1 F(x) 0,8 0,6 0,4 0,2 0 1 2 3 4 5 6 7 8 9 10 11 12 13 x
  • 8. Funzione di Ripartizione: proprietà • è non decrescente, ossia: x1 < x 2 ⇒ F ( x1 ) ≤ F ( x 2 ) • Inoltre lim F ( x ) = 0 lim F ( x ) = 1 x →−∞ x →∞ • è continua a destra, ossia lim F (x ) = F ( x0 ) + x → x0
  • 9. Variabili casuali continue Chiameremo Funzione di densità, la funzione matematica f(x) per cui l’area sottesa alla funzione, corrispondente ad un certo intervallo, è uguale alla probabilità che X assuma un valore in quell’intervallo.
  • 10. Proprietà delle funzioni di densità ≥ • f(x)≥0 sempre • L’area totale sottesa alla funzione =1, ossia +∞ ∫ f ( x ) dx = 1 −∞ • La probabilità che la v.c. assuma un particolare valore dell’intervallo è zero.
  • 11. Funzione di Ripartizione Data una v.c. continua X, la funzione che fa corrispondere ai valori x le probabilità cumulate ≤ P(X≤ x) viene detta funzione di ripartizione. x F ( x ) = P( X ≤ x ) = ∫ f ( w )dw −∞
  • 12. Variabili casuali continue Esempio: 2,0 f x X ~ f ( x) 1,5 f ( x) = 12x(1 − x)2 1,0 x ∈ [0;1] 0,5 0,229 0, 7 0,0 ∫ f (x)dx = 0,229 0,0 0,5 0,7 1,0 X 0, 5 +∞ 1 ∫ f (x)dx =∫ f (x)dx =1 −∞ 0 P(0,5<X<0,7)
  • 13. Esempio Funzioni di densità e corrispondenti funzioni di ripartizione f (x ) F (x ) x x 2,00 1,0 f (x ) F (x ) 0,8 1,50 0,6 1,00 0,4 0,50 0,2 0,00 0,0 0,0 1,5 x 3,0 0,0 1,5 x 3,0
  • 14. Valore atteso di una v.c. Il valore medio di una v.c. X, è definito come E ( X ) = ∑ x i P ( x i ) Se la v.c. è discreta i +∞ E(X ) = ∫ x f (x ) dx Se la v.c. è continua −∞
  • 15. Esempio: v.c. discreta X 2 3 4 5 6 7 8 9 10 11 12 P(x) 1 2 3 4 5 6 5 4 3 2 1 36 36 36 36 36 36 36 36 36 36 36 F(x) 136 3 36 6 36 1036 1536 2136 2636 3036 3336 3536 1 1 2 3 4 5 6 5 4 E(X ) = 2 + 3 + 4 + 5 + 6 + 7 + 8 + 9 36 36 36 36 36 36 36 36 3 2 1 + 10 + 11 + 12 =7 36 36 36
  • 16. Esempio: v.c. continua − λx Consideriamo la v.c. X ~ λe con lambda una costante positiva e x ≥0 (Esponenziale). Il valore atteso è dato da 2,0 1,6 +∞ −λx 1 E(X ) = ∫ xλe dx = 1,2 −∞ λ 0,8 0,4 0,0 0,0 0,5 1,0 1,5 2,0 2,5 3,0
  • 17. La varianza di una v.c. La varianza V(X) di una variabile casuale X è definita da V ( X ) = ∑ ( x i − E ( X ))2 P ( x i ) Se la v.c. è discreta i +∞ V (X ) = ∫ (x − E ( X ))2 f (x )dx Se la v.c. è continua −∞
  • 18. Varianza di una v.c. Notazioni alternative: V ( X ) = E {[ X − E ( X )] 2 } oppure, dopo alcuni passaggi ( )− [E ( X )] V (X ) = E X 2 2 La deviazione standard è definita SD ( X ) = V ( X )
  • 19. V.c. Standardizzate I valori standardizzati esprimono la distanza tra i valori osservati e la media in termini di deviazione standard. Se X è una v.c. con valore E(X) e SD(X) allora: X − E( X ) Y = SD( X ) È una v.c. standardizzata con E(Y)=0 e V(Y)=1
  • 20. Teorema di Chebyshev Sia X una variabile casuale e k un valore reale positivo, allora vale la seguente disuguaglianza: P ( X − E ( X ) ≥ k ⋅ SD ( X )) ≤ 2 1 k Indipendentemente dalla distribuzione della v.c. , la probabilità che X assuma valori distanti dalla media più di k deviazioni standard è al più 1/k2
  • 21. Distribuzioni di probabilità • Sono una estensione delle distribuzioni di frequenza • Il caso più semplice da trattare è relativo a distribuzioni di probabilità di variabili discrete – Variabili discrete: • Fenomeni di conteggio • Esperimenti con modalità limitate – Variabili continue: • Misurazioni • Esperimenti con modalità nel continuo
  • 22. Metodi di sintesi delle distribuzioni • In analogia con quanto detto circa le distribuzioni di frequenze, anche per le distribuzioni di probabilità abbiamo la necessità di sintetizzare i dati • In particolare ci interessa una sintesi di centralità – Valore atteso • Ed una sintesi della variabilità – Varianza – Scarto quadratico medio – Coefficiente di variazione
  • 23. Modelli probabilistici • Per modello si intende una legge di probabilità in grado di misurare l’incertezza circa il fenomeno reale sotto studio Fenomeno reale: reale Modello matematico: matematico Numero di figli Distribuzione di per famiglia probabilità da associare al fenomeno di interesse Risultati dal per analizzarlo lancio di un dado
  • 24. • In funzione del fenomeno reale sotto studio, si cerca di associare un modello opportuno a descriverne la variabilità • I modelli si dividono in: – Modelli discreti, alcuni dei quali sono: • Modello uniforme discreto • Modello binomiale • Modello poisson – Modelli continui • Modello normale • Modello esponenziale
  • 25. Modello uniforme (1) • Si tratta della distribuzione più semplice • Consente di valutare la probabilità di un fenomeno per il quale ognuno degli k possibili risultati sia equamente probabile. • Ad esempio, la probabilità che un numero sia estratto al lotto è descritta dal modello Uniforme, perché ciascuno dei 90 numeri ha una probabilità pari a 1/90 di essere estratto.
  • 26. Modello bernoulliano (1) • Questo particolare modello è adatto a descrive la probabilità associata a variabili dicotomiche, cioè fenomeni che assumono soltanto uno tra due possibili valori: x = 1 (si verifica un certo evento di interesse E, ed x = 0 se non si verifica l’evento E). • Esempio: (morto vs vivo, maschio vs femmina; presenza di un evento di interesse contrapposto a tutti gli altri) • P ( X = 1) = p P ( X = 0) = 1 − p E(X ) = p var( X ) = p (1 − p )
  • 27. Distribuzione di Bernoulli Una v.c. di Bernoulli può assumere il valore 1 con probabilità π e il valore 0 con probabilità 1-π π La sua funzione di probabilità può essere espressa come P ( X = x ) = π x (1 − π )1− x per x = 0,1 Tutte le prove che producono solo due possibili risultati generano v.c. di Bernoulli: il lancio di una moneta, il sesso di un nascituro, il superamento o meno di un certo livello di inflazione….
  • 28. Modello Binomiale • Il modello binomiale, descrive la probabilità il numero x di successi ottenuti in un campione di n prove (osservazioni): n! Pr( X = x | p ) = p x (1 − p ) n − x x!(n − x)!  n x n− x =   p (1 − p )  x   E ( X ) = np var( X ) = np (1 − p )
  • 29. Modello Binomiale (2) • La formulazione Pr(X = x) indica che su n osservazioni si sono verificati esattamente x successi e, di conseguenza, n – x insuccessi • Poiché le prove sono indipendenti e la probabilità di successo è costante pari a p per ogni prova, osserveremo su n tentativi: – x con probabilità p – n – x con probabilità 1 – p • Rimane da considerare il fatto che l’ordine in cui le prove sono osservate è variabile e noi siamo interessati solo al totale dei successi-insuccessi, non all’ordine
  • 30. Modello Binomiale (3) • Infatti, si potrebbero verificare: – tutti i successi e poi tutti gli insuccessi – oppure un successo e un insuccesso in sequenza – oppure tutti gli insuccessi e poi tutti i successi … • Per tenere conto di queste possibilità, le probabilità sono moltiplicate per il numero di possibili combinazioni di k  n n!  =  x  x!(n − x)! con n!= n × (n − 1) × ... × 2 × 1  
  • 32. Calcolo delle probabilità nel modello binomiale • Calcolare Pr(X = 3|n = 4, p = 0.1) 4! Pr( X = 3) = 0.13 (1 − 0.1) 4 − 3 3!(4 − 3)! 4 × 3× 2×1 = × 0.13 × 0.9 1 3 × 2 × 1× 1 = 4 × 0.001 × 0.9 = 0.0036
  • 33. • Calcolare Pr(X ≥ 3) con n = 4 prove e p = 0.1 Poiché le prove sono Pr( X ≥ 3) = Pr( X = 3 ∪ X = 4 ) indipendenti per Hp 4! 4 −3 4! = 0.1 (1 − 0.1) + 3 0.14 (1 − 0.1) 4 − 4 3!(4 − 3)! 4!(4 − 4 )! 4 × 3× 2×1 4 × 3× 2×1 = × 0 .1 × 0 .9 + 3 1 × 0.1 × 0.9 4 0 3 × 2 × 1× 1 4 × 3 × 2 × 1× 1 = 4 × 0.001 × 0.9 + 1 × 0.0001 × 1 = 0.0036 + 0.0001 = 0.0037 Perché 0! = 1 per definizione
  • 34. • Calcolare Pr(X < 3) con n = 4 prove e p = 0.1 Pr( X < 3) = Pr( X = 0 ∪ X = 1 ∪ X = 2) = Pr( X = 0 ) + Pr( X = 1) + Pr( X = 2) 2 = ∑ Pr( X = i) i =0 4! Pr( X = 0 ) = 0.10 (1 − 0.1) 4 −0 = 0.6561 0!(4 − 0 )! 4! 4 −1 Pr( X = 1) = 0.1 (1 − 0.1) = 0.2916 1 1!(4 − 1)! 4! Pr( X = 2) = 0.12 (1 − 0.1) 4 − 2 = 0.0486 2!(4 − 2)!
  • 36. Esempi di Binomiale 0,300 Binomiale(7;0,5) 0,250 0,200 Binomiale(20;0,5) 0,150 0,100 0,050 0,000 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20
  • 37. Modello Poisson (1) • Il modello Poisson si adatta a rappresentare esperimenti aleatori che danno luogo ad un numero discreto di eventi in un intervallo continuo (es. arrivi in un aeroporto in un’ora di tempo, ) • Le realizzazioni degli eventi devono avere le seguenti caratteristiche: – L’intervallo (di tempo o di spazio) è suddivisibile in n sotto- intervalli all’interno dei quali la probabilità di manifestarsi di un evento è piccola e la probabilità di manifestarsi di più eventi tende a zero – La probabilità di manifestarsi degli eventi nei sottointervalli è costante – Eventi relativi a sotto intervalli differenti sono stocasticamente indipendenti (processo senza memoria)
  • 38. Modello Poisson (2) • In termini matematici il modello è specificato come: −λ e λ x Pr( X = x | λ ) = x! • Il parametro λ rappresenta il numero medio di eventi che si verificano nell’intervallo (numero atteso di successi)
  • 39. Distribuzione di Poisson Una v.c. di Poisson, è una v.c. discreta che può assumere qualsiasi valore intero non-negativo. La distribuzione di probabilità della Poisson è data da λx −λ P( x ) = e x = 0, 1, 2, K 0<λ<∞ x! 0,40 0,35 Poisson(1) E(X ) = λ 0,30 0,25 Poisson(3) V (X ) = λ 0,20 0,15 Poisson(7) 0,10 0,05 0,00 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17
  • 40. Modello Poisson (3) • L’esperimento aleatorio di interesse è il “numero di arrivi di clienti presso una banca” • Supponiamo che mediamente arrivino 3 clienti ogni minuto • Ci interessa calcolare: – la probabilità che nello stesso intervallo arrivino esattamente 2 clienti – la probabilità che nello stesso intervallo arrivino più di 2 clienti
  • 41. Modello Poisson (4) • Utilizzando la funzione della distribuzione Poisson, si ha che: −3 −3 e 3 2 9 × (2.71828 ) Pr( X = 2) = = 2! (2 × 1) = 0.224
  • 42. Modello Poisson (5) • Invece, per determinare ∞ Pr( X > 2) = ∑ Pr( X = i) i =3 è più comodo notare che: Pr( X > 2) = 1 − Pr( X ≤ 2) = Pr( X = 0 ) + Pr( X = 1) + Pr( X = 2) dove queste tre probabilità sono “semplici” da calcolare
  • 43. Modello Poisson (6) e −3 3 0 1 × (2.71828 ) −3 Pr( X = 0 ) = = 0! 1 = 0.0498 e −3 3 1 3 × (2.71828 ) −3 Pr( X = 1) = = 1! 1 Pr( X > 2) = 0.577 = 0.1494 e −3 3 2 9 × (2.71828 ) −3 Pr( X = 2) = = 2! (2 × 1) = 0.224
  • 44. Modello Poisson (7) • NB nel modello Poisson, il parametro λ rappresenta anche la varianza oltre che il numero atteso di eventi • Dunque, all’aumentare della media, aumenta anche la varianza della distribuzione • Questo fa sì che nella pratica si possa ricorrere a formulazioni alternative del modello Poisson, che permettono di “modellare” in modo indipendente il termine di variabilità