Στατιστικές Κατανομές και Πιθανότητες. Θεωρία και παραδείγματα.stratos goumas
Η στατιστική αποτελεί ένα επιστημονικό κλάδο όπου το πεδίο εφαρμογής της συγκαταλέγεται σε πλήθος άλλων επιστημών. Η συλλογή και η ανάλυση δεδομένων έχει γίνει πλέον επιτακτική πριν τη λήψη αποφάσεων.Στην παρουσιαση αυτή θα επιδείξουμε μερικες βασικές στατιστικές κατανομές που χρησιμοποιούνται ευρέως καθώς και μερικές πιο προχωρημένες. Οι κατανομές κατηγοριοποιούνται σε δυο βασικές ομάδες. 1) Διακριτές 2) Συνεχείς. Οι Συνεχείς χωρίζονται στις εξής υποομάδες α) Φραγμένες β) Μη Φραγμένες 3) Μη Αρνητικές.
Μια εξαιρετική δουλειά των μαθητών της Β΄Γυμνασίου -Πουτογλίδου Νικολέτα και Καρακατσάνη Πλάτωνα - για τη Φυσική , τους τρεις νόμους του Νεύτωνα
Γυμνάσιο Καπνοχωρίου
Καθηγήτρια : Πανταζή Ειρήνη
Τι διαφορά έχει η μέση τιμή από τη διάμεσο; Τι είναι αυτό που λέμε «μέτρα θέσης» ενός δείγματος και τι πληροφορίες μπορούν να μας δώσουν για το δείγμα στο σύνολό του καθώς και για τις στατιστικές του ιδιότητες; Τι περιορισμούς έχουν τα μέτρα θέσης και για ποιους σκοπούς δεν μπορούμε να τα χρησιμοποιούμε;
Αυτά και άλλα πολλά θα τα βρείτε στις παραπάνω διαφάνειες!
Καλό διάβασμα!
Στατιστικές Κατανομές και Πιθανότητες. Θεωρία και παραδείγματα.stratos goumas
Η στατιστική αποτελεί ένα επιστημονικό κλάδο όπου το πεδίο εφαρμογής της συγκαταλέγεται σε πλήθος άλλων επιστημών. Η συλλογή και η ανάλυση δεδομένων έχει γίνει πλέον επιτακτική πριν τη λήψη αποφάσεων.Στην παρουσιαση αυτή θα επιδείξουμε μερικες βασικές στατιστικές κατανομές που χρησιμοποιούνται ευρέως καθώς και μερικές πιο προχωρημένες. Οι κατανομές κατηγοριοποιούνται σε δυο βασικές ομάδες. 1) Διακριτές 2) Συνεχείς. Οι Συνεχείς χωρίζονται στις εξής υποομάδες α) Φραγμένες β) Μη Φραγμένες 3) Μη Αρνητικές.
Μια εξαιρετική δουλειά των μαθητών της Β΄Γυμνασίου -Πουτογλίδου Νικολέτα και Καρακατσάνη Πλάτωνα - για τη Φυσική , τους τρεις νόμους του Νεύτωνα
Γυμνάσιο Καπνοχωρίου
Καθηγήτρια : Πανταζή Ειρήνη
Τι διαφορά έχει η μέση τιμή από τη διάμεσο; Τι είναι αυτό που λέμε «μέτρα θέσης» ενός δείγματος και τι πληροφορίες μπορούν να μας δώσουν για το δείγμα στο σύνολό του καθώς και για τις στατιστικές του ιδιότητες; Τι περιορισμούς έχουν τα μέτρα θέσης και για ποιους σκοπούς δεν μπορούμε να τα χρησιμοποιούμε;
Αυτά και άλλα πολλά θα τα βρείτε στις παραπάνω διαφάνειες!
Καλό διάβασμα!
Μία συνοπτική παρουσίαση του πρώτου μέρους του κεφαλαίου της Στατιστικής στα πλαίσια του μαθήματος των Μαθηματικών της Γ' ΕΠΑΛ. Παρουσιάζονται και αναλύονται βασικές έννοιες όπως ο πληθυσμός, το δείγμα, οι μεταβλητές και οι διάφορες κατηγορίες τους κ.α.
Καλό διάβασμα! :)
Weatherman 1-hour Speed Course for Web [2024]Andreas Batsis
Εκλαϊκευμένη Διδασκαλία Μετεωρολογίας. Η συγκεκριμένη παρουσίαση παρέχει συνοπτικά το 20% της πληροφορίας σχετικά με το πως λειτουργεί ο καιρός, η οποία πληροφορία θα παρέχει στον αναγνώστη τη δυνατότητα να ερμηνεύει το 80% των καιρικών περιπτώσεων με τη χρήση ιντερνετικών εργαλείων. Η λογική της παρουσίασης βασίζεται κατά κύριο λόγο στην εφαρμογή και δευτερευόντως στην επιστημονική ερμηνεία η οποία περιορίζεται στα απολύτως απαραίτητα.
Διδακτέα - Εξεταστέα ύλη για το μάθημα "Οικονομία" (ΑΟΘ) της Γ τάξης του Επαγγελματικού λυκείου. Μπορείτε να δείτε και αναλυτικά την ύλη του μαθήματος επιλέγοντας τον παρακάτω σύνδεσμο:
https://view.genially.com/6450d17ad94e2600194eb286
5. Κεφάλαιο 1
Ε.Ο.Κ.
Βασικός στόχος στη Στατιστική 1 είναι να βρούμε τρόπους για να
μπορούμε να εκτιμούμε άγνωστες παραμέτρους κατανομών. Στην κλα-
σική Στατιστική κάθε άγνωστη παράμετρος θεωρείται σταθερά.
Υπάρχει μία κλάση (οικογένεια) κατανομών, τα στοιχεία (κατανομές)
της οποίας χαρακτηρίζονται από ιδιότητες που μας επιτρέπουν να δια-
τυπώσουμε εύκολα διάφορες προτάσεις και θεωρήματα για αυτά, η
λεγόμενη Εκθετική Οικογένεια Κατανομών (Ε.Ο.Κ.).
Ορισμός 1. Μία κατανομή άγνωστης παραμέτρου ϑ ανήκει στη μονο-
παραμετρική Ε.Ο.Κ. αν το στήριγμά της S = {x ∈ R : f(x; ϑ) > 0} είναι
ανεξάρτητο του ϑ και
f(x; ϑ) = h(x) · exp{Q(ϑ)T(x) − A(ϑ)}, x ∈ S, ϑ ∈ Θ.
Λέμε ότι βρίσκεται σε κανονική μορφή αν ο συντελεστής του T(x) είναι
ϑ.
Ορισμός 2. Μία κατανομή άγνωστων παραμέτρων ϑ (διάνυσμα με πε-
ρισσότερες από μία άγνωστες παραμέτρους) ανήκει στην πολυπαρα-
μετρική Ε.Ο.Κ. αν το στήριγμά της S = {x ∈ R : f(x; ϑ) > 0} είναι
ανεξάρτητο του ϑ και
f(x; ϑ) = h(x) · exp{Q(ϑ)T(x) − A(ϑ)}, x ∈ S, ϑ ∈ Θ.
Λέμε ότι βρίσκεται σε κανονική μορφή αν ο συντελεστής του T(x) είναι
ϑ.
4
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
6. Ορισμός 3. Μία κατανομή ανήκει στην πολυδιάστατη πολυπαραμετρική
Ε.Ο.Κ. αν το στήριγμά της S = {x ∈ R : f(x; ϑ) > 0} είναι ανεξάρτητο
του ϑ και f(x; ϑ) = h(x) · exp{Q(ϑ) · T(x) − A(ϑ)}.
Σημείωση 1. Ορισμένες γνωστές κατανομές που ανήκουν στην Ε.Ο.Κ.
είναι οι Bernoulli(p), Bin(n, p), Geom(p), Poisson(ϑ), Exp(ϑ), Gamma(ϑ1, ϑ2), N(µ, σ2
),
ενώ η ομοιόμορφη U(ϑ1, ϑ2) δεν ανήκει στην Ε.Ο.Κ. αφού το στήριγμά
της (ϑ1, ϑ2) εξαρτάται από το ϑ = (ϑ1, ϑ2).
Πρόταση 1. (για τη μονοπαραμετρική Ε.Ο.Κ.)
Αν f(x; ϑ) = h(x)exp{ϑT(x) − A(ϑ)} σε κανονική μορφή, τότε
E[T(X)] = A′
(ϑ), V ar[T(X)] = A′′
(ϑ)
και MT (u) = exp{A(ϑ+u)−A(ϑ)}, όπου MT η ροπογεννήτρια της T(X).
Πρόταση 2. (για την πολυπαραμετρική Ε.Ο.Κ.)
Αν f(x; ϑ) = h(x)exp{ϑ·T(x)−A(ϑ)} σε κανονική μορφή (η πράξη ϑ·T(x)
είναι εσωτερικό γινόμενο διανυσμάτων), τότε για i, j = 1, ..., k (όπου k
το πλήθος των άγνωστων παραμέτρων) ισχύει:
E[Ti(X)] =
∂A
∂ϑi
, V ar[Ti(X)] =
∂2
A
∂ϑ2
i
, Cov[Ti(X), Tj(X)] =
∂2
A
∂ϑi∂ϑj
και MT (u) = exp(A(u + ϑ) − A(ϑ)).
5
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
7. Κεφάλαιο 2
Εκτιμητική
2.1 Γενικά
Ορισμός 4. Λέμε ότι οι τυχαίες μεταβλητές X1, ..., Xn είναι ένα τυχαίο
δείγμα μεγέθους n αν οι Xi, i = 1, ..., n, είναι ανεξάρτητες μεταξύ τους
και ισόνομες (ανήκουν δηλαδή στην ίδια κατανομή).
Στις Πιθανότητες μάς δινόταν κάποια κατανομή (γνωρίζαμε δηλαδή τη
σ.κ. ή σ.π. ή σ.π.π. της) και εμείς υπολογίζαμε διάφορα στοιχεία για
αυτήν (μέση τιμή, διασπορά κλπ). Στη Στατιστική έχουμε ορισμένες
παρατηρήσεις και προσπαθούμε εμείς να εκτιμήσουμε από ποια κατα-
νομή προέρχονται. Είναι σαφές, λοιπόν, ότι οποιαδήποτε προσπάθεια
εκτίμησης θα στηρίζεται σε μεγάλο βαθμό στο δείγμα που έχουμε.
Ορισμός 5. Κάθε συνάρτηση T = T(X) του τυχαίου δείγματος
X = (X1, ..., Xn) ονομάζεται στατιστική συνάρτηση.
Έχουμε αναπτύξει διάφορα κριτήρια για να κρίνουμε αν μία εκτιμή-
τρια (στατιστική συνάρτηση) είναι ”καλή” ή όχι, μερικά από τα οποία
είναι η αμεροληψία, η επάρκεια και η πληρότητα.
6
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
8. 2.2 Αμεροληψία
Έστω τυχαίο δείγμα X1, ..., Xn από κατανομή άγνωστης παραμέτρου
ϑ ∈ Θ (για συντομία, κάποιες φορές θα αναγράφεται απλώς ως ϑ, όταν
δε βλάπτεται η γενικότητα).
Ορισμός 6. Η στατιστική συνάρτηση T(X) καλείται αμερόληπτη εκτι-
μήτρια (α.ε.) για το ϑ αν Eϑ(T) = ϑ ∀ϑ ∈ Θ. Η συνάρτηση
bT (ϑ) = Eϑ(T) − g(ϑ)
ονομάζεται μεροληψία της T ως προς g(ϑ).
Ορισμός 7. Ορίζουμε ως μέσο τετραγωνικό σφάλμα (ΜΤΣ) της στατι-
στικής συνάρτησης T(X) ως προς g(ϑ) την ποσότητα
MSEg(ϑ)(T) = Eϑ[(T(X) − g(ϑ))2
], ϑ ∈ Θ.
Πρόταση 3. Μία εύχρηστη μορφή του ΜΤΣ είναι η εξής:
MSE(T) = V arϑ(T(X)) + b2
T (ϑ).
2.3 Επάρκεια
Ορισμός 8. Η στατιστική συνάρτηση T(X) καλείται επαρκής για την
παράμετρο ϑ αν η δεσμευμένη κατανομή fX|T (x | t) του X δεδομένου
ότι T = t είναι ανεξάρτητη του ϑ.
Ο ορισμός της επάρκειας στην πράξη δεν είναι τόσο εύχρηστος. Για να
δείξουμε ότι μία στατιστική συνάρτηση είναι επαρκής για μία άγνωστη
παράμετρο, χρησιμοποιούμε συχνά το ακόλουθο κριτήριο:
Πρόταση 4. (Παραγοντικό Κριτήριο Neyman - Fisher)
Η στατιστική συνάρτηση T(X) είναι επαρκής για την άγνωστη παράμε-
τρο ϑ αν, και μόνο αν,
∀ϑ ∈ Θ fX(x; ϑ) = g(T(x), ϑ) · h(x),
για κάποιες συναρτήσεις g, h.
7
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
9. Πόρισμα 1. Αν η στατιστική συνάρτηση T(X) είναι επαρκής για το ϑ
και T = ψ(T1), τότε και η T1 είναι επαρκής για το ϑ. Επίσης, αν ϑ = G(η)
και η T είναι επαρκής για το ϑ, τότε η T είναι επαρκής και για το η.
Πρόταση 5. (Επάρκεια στην Ε.Ο.Κ.) Έστω
f(x; ϑ) = h(x)exp
[ s∑
k=1
Qk(ϑ)Tk(x)−A(ϑ)
]
, x = (x1, ..., xn), ϑ = (ϑ1, ..., ϑs) ∈ Θ ⊆ Rs
(δηλαδή η κατανομή ανήκει στην πολυδιάστατη πολυπαραμετρική Ε.Ο.Κ.).
Τότε, η στατιστική συνάρτηση T(X) = (T1(X), ..., Tn(X)) είναι επαρκής
για το ϑ.
Σημείωση 2. Για να δείξουμε ότι μία στατιστική συνάρτηση είναι επαρ-
κής έχουμε, κυρίως, τρεις τρόπους: είτε με τον ορισμό είτε με το πα-
ραγοντικό κριτήριο (το πιο σύνηθες) είτε μέσω της Ε.Ο.Κ. (συνήθως
συνδυάζεται με πληρότητα, όπως αναφέρουμε παρακάτω). Ενδεικτικά,
αναφέρουμε επαρκείς στατιστικές συναρτήσεις για ορισμένες βασικές
κατανομές (σχεδόν αποκλειστικά με χρήση του παραγοντικού κριτη-
ρίου): Έστω X1, ..., Xn τυχαίο δείγμα από:
• Bernoulli(ϑ). Τότε, επαρκής στατιστική συνάρτηση για το ϑ είναι η
T(X) =
n∑
i=1
Xi.
• Poisson(ϑ). Τότε, επαρκής στατιστική συνάρτηση για το ϑ είναι η
T(X) =
n∑
i=1
Xi.
• Geom(ϑ). Τότε, επαρκής στατιστική συνάρτηση για το ϑ είναι η
T(X) =
n∑
i=1
Xi.
• Exp(ϑ). Τότε, επαρκής στατιστική συνάρτηση για το ϑ είναι η
T(X) =
n∑
i=1
Xi.
• N(ϑ1, σ2
), σ2
γνωστό και Θ = R. Τότε, επαρκής στατιστική συνάρτηση
για το ϑ1 είναι η T(X) =
n∑
i=1
Xi.
• N(µ, ϑ2), µ γνωστό, Θ = (0, ∞). Τότε, επαρκής στατιστική συνάρτηση
για το ϑ2 είναι η T(X) =
n∑
i=1
(Xi − µ)2
.
• N(ϑ1, ϑ2), Θ = R × (0, ∞). Τότε, επαρκής στατιστική συνάρτηση για
το ϑ = (ϑ1, ϑ2) είναι η T(X) =
( n∑
i=1
Xi,
n∑
i=1
X2
i
)
.
8
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
10. 2.4 Πληρότητα
Ορισμός 9. Η στατιστική συνάρτηση T(X) καλείται πλήρης για την πα-
ράμετρο ϑ αν για κάθε συνάρτηση φ με Eϑ[φ(T)] = 0 ∀ϑ ∈ Θ, ισχύει ότι
φ(T) = 0 με πιθανότητα 1 (πρακτικά, φ ≡ 0).
Θα δούμε τώρα ένα πολύ σημαντικό θεώρημα που παίρνουμε αν μία
κατανομή ανήκει στην Ε.Ο.Κ. (μία από τις πολλές ιδιότητες που είπαμε
στην αρχή ότι μας δίνει η Ε.Ο.Κ.):
Θεώρημα 1. (Επάρκειας - Πληρότητας στην Ε.Ο.Κ.)
Έστω f(x; ϑ) = h(x)exp[
s∑
k=1
Qk(ϑ)Tk(x) − A(ϑ)], x = (x1, ..., xn),
ϑ = (ϑ1, ..., ϑs) ∈ Θ ⊆ Rs
, και το σύνολο {(Q1(ϑ), ..., Qs(ϑ)) : ϑ ∈ Θ} ⊆ Rs
περιέχει ένα ανοικτό μη κενό υποσύνολο του Rs
. Τότε, η στατιστική
συνάρτηση T(X) = (T1(X), ..., Tn(X)) είναι επαρκής και πλήρης για το
ϑ.
Σημείωση 3. Για να δείξουμε ότι μία στατιστική συνάρτηση T είναι
πλήρης για μία παράμετρο, έχουμε κυρίως 2 τρόπους: είτε θα δουλέ-
ψουμε με τον ορισμό είτε με το προηγούμενο Θεώρημα. Στην πρώτη πε-
ρίπτωση (π.χ. στην ομοιόμορφη κατανομή, που δεν ανήκει στην Ε.Ο.Κ.),
πρέπει να βρούμε την κατανομή της T, ώστε να υπολογίσουμε τη μέση
τιμή Eϑ[φ(T)]. Παίρνουμε τη συνθήκη
Eϑ[φ(T)] = 0 ∀ϑ ∈ Θ ⇔
∫
S
φ(t)fT (t; ϑ)dt = 0 ∀ϑ ∈ Θ
(αντίστοιχα με άθροισμα στη διακριτή περίπτωση) και έχουμε στο μυαλό
μας δύο πράγματα που μπορεί να χρειαστούν για να δείξουμε ότι φ ≡ 0:
• (για συνεχείς τ.μ., όπου εμφανίζεται ολοκλήρωμα στη μέση τιμή): Ο
μετασχηματισμός Laplace είναι 1 − 1 σε κλάσεις σχεδόν παντού ίσων
συναρτήσεων (το σύνολο των σημείων στα οποία δεν είναι ίσες είναι
μέτρου 0), οπότε ισότητα της μορφής
∫ ∞
0
ψ(t)e−ϑt
dt = 0 ∀ϑ ∈ Θ δίνει
απευθείας ότι ψ ≡ 0.
• Αν το στήριγμα της κατανομής εξαρτάται από την άγνωστη παράμε-
τρο ϑ (π.χ. στην ομοιόμορφη U(0, ϑ)), τότε στο ολοκλήρωμα εμφανίζεται
η παράμετρος στα όρια ολοκλήρωσης, οπότε παραγωγίζουμε ως προς ϑ
και παίρνουμε εύκολα το ζητούμενο, π.χ. αν
∫ ϑ
0
tn−1
φ(t)dt = 0 ∀ϑ ∈ Θ (η
9
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
11. σχέση αυτή εμφανίζεται στην ομοιόμορφη U(0, ϑ)), τότε παραγωγίζουμε
ως προς ϑ και παίρνουμε ότι ϑn−1
φ(ϑ) = 0 ∀ϑ ∈ Θ ⇒ φ(ϑ) = 0 ∀ϑ ∈ Θ,
όπως θέλαμε.
Θεώρημα 2. (Basu)
Έστω κατανομή άγνωστης παραμέτρου ϑ, T επαρκής και πλήρης για
το ϑ και S στατιστική συνάρτηση με κατανομή ανεξάρτητη του ϑ. Τότε,
οι τυχαίες μεταβλητές T και S είναι στοχαστικά ανεξάρτητες.
Σημείωση 4. Το θεώρημα Basu είναι πολύ σημαντικό στη Στατιστική.
Μία κλασική εφαρμογή του είναι ότι στην κανονική κατανομή N(ϑ, σ2
)
οι X και S2
είναι στοχαστικά ανεξάρτητες.
2.5 Αμερόληπτες Εκτιμήτριες Ελάχιστης Δια-
σποράς
Αν τώρα έχουμε δύο ή περισσότερες αμερόληπτες εκτιμήτριες για
μία άγνωστη παράμετρο, θέλουμε να αναπτύξουμε κριτήρια για να δια-
λέξουμε την ”καλύτερη”.
Ορισμός 10. Η στατιστική συνάρτηση T = T(X) καλείται αμερόληπτη
εκτιμήτρια ομοιόμορφα ελάχιστης διασποράς (Α.Ο.Ε.Δ.) της παραμέ-
τρου g(ϑ) αν Eϑ(T(X)) = g(ϑ) ∀ϑ ∈ Θ (δηλαδή η T είναι αμερόληπτη
εκτιμήτρια του g(ϑ)), Eϑ(T2
(X)) < ∞ και αν δ(X) αμερόληπτη εκτιμή-
τρια του g(ϑ), τότε V arϑ(T) ≤ V arϑ(δ) ∀ϑ ∈ Θ.
Σημείωση 5. Γιατί να θέσουμε ως κριτήριο καλής αμερόληπτης εκτιμή-
τριας το να έχει τη μικρότερη διασπορά;
Διαισθητικά, αν έχουμε μία παράμετρο g(ϑ), τότε μεταξύ των αμερο-
λήπτων εκτιμητριών του g(ϑ) προτιμούμε μία T = T(X) για την οποία
ισχύει Pϑ(|T − g(ϑ)| < ε) ≃ 1 ∀ε > 0. Από την ανισότητα Chebyshev,
έχουμε ότι Pϑ(|T − g(ϑ)| < ε) ≥ 1 −
V arϑ(T)
ε2
, άρα θέλουμε πράγματι να
ελαχιστοποιήσουμε τη διασπορά.
Πρόταση 6. (Χαρακτηρισμός Α.Ο.Ε.Δ. μέσω αμερόληπτων εκτιμητριών
του μηδενός):
Έστω U0 = {U = U(X) : EϑU = 0, EϑU2
< ∞ ∀ϑ ∈ Θ} η κλάση των
10
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
12. αμερολήπτων εκτιμητριών του 0. Έστω δ μία αμερόληπτη εκτιμήτρια
του g(ϑ) με πεπερασμένη διασπορά, δηλαδή
Eϑδ(X) = g(ϑ), V arϑδ(X) < ∞ ∀ϑ ∈ Θ.
Τότε, η δ είναι Α.Ο.Ε.Δ. για το g(ϑ) αν, και μόνο αν
Covϑ(δ, U) = 0 ∀ϑ ∈ Θ ∀U ∈ U0.
Πόρισμα 2. Αν οι T1, ..., Tn είναι Α.Ο.Ε.Δ. των g1(ϑ), ..., gn(ϑ), αντίστοιχα,
τότε η στατιστική συνάρτηση T =
∑n
i=1 ciTi είναι Α.Ο.Ε.Δ. της παραμέ-
τρου g(ϑ) =
n∑
i=1
cigi(ϑ).
Θα προσπαθήσουμε τώρα να δούμε πώς υπολογίζουμε Α.Ο.Ε.Δ., χρη-
σιμοποιώντας δύο πολύ σημαντικά θεωρήματα και ένα πολύ χρήσιμο
πόρισμα (το οποίο χρησιμοποιούμε κατά κόρον στην πράξη).
Θεώρημα 3. (Rao - Blackwell)
Έστω X1, ..., Xn τυχαίο δείγμα από κατανομή με συνάρτηση (πυκνότη-
τας) πιθανότητας f(x; ϑ), ϑ ∈ Θ ⊆ Rs
. Έστω δ μία αμερόληπτη εκτιμή-
τρια της g(ϑ) με πεπερασμένη διασπορά, δηλαδή Eϑ[δ(X)] = g(ϑ) και
V arϑδ(X) < ∞ ∀ϑ ∈ Θ. Έστω, επίσης, T = (T1, ..., Tk)′
μία επαρκής στα-
τιστική συνάρτηση για το ϑ. Ορίζουμε δ∗
= E(δ | T). Τότε, η δ∗
είναι
αμερόληπτη εκτιμήτρια του g(ϑ), δηλαδή Eϑ[δ∗
(X)] = g(ϑ) ∀ϑ ∈ Θ, και
V arϑ(δ∗
) ≤ V arϑ(δ) ∀ϑ ∈ Θ.
Θεώρημα 4. (Lehmann - Scheffé)
Αν ισχύουν οι προϋποθέσεις του θ. Rao - Blackwell και επιπλέον η T
είναι και πλήρης για το ϑ, τότε η δ∗
είναι η μοναδική Α.Ο.Ε.Δ. του g(ϑ).
Πόρισμα 3. Αν η T = T(X) είναι επαρκής και πλήρης για το ϑ και η δ(T)
είναι αμερόληπτη εκτιμήτρια του g(ϑ), τότε η στατιστική συνάρτηση
δ(T) είναι Α.Ο.Ε.Δ. του g(ϑ).
Σημείωση 6. Το προηγούμενο πόρισμα είναι πολύ σημαντικό και χρη-
σιμοποιείται πολύ συχνά στην πορεία εύρεσης Α.Ο.Ε.Δ., γιατί πολλές
φορές είναι ευκολότερη η εύρεση αμερόληπτης εκτιμήτριας για μία πα-
ράμετρο g(ϑ) από τον υπολογισμό της δεσμευμένης μέσης τιμής στο
θεώρημα Rao-Blackwell. Αυτό όμως δεν είναι απόλυτο και ορισμένες
11
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
13. φορές (ιδίως όταν η αμερόληπτη εκτιμήτρια δίνεται μέσω κάποιας δεί-
κτριας συνάρτησης) δουλεύουμε με τα δύο θεωρήματα: ας θεωρήσουμε
π.χ. τυχαίο δείγμα X1, ..., Xn ∼ Poisson(ϑ) και ας πούμε ότι ζητάμε
Α.Ο.Ε.Δ. για την παράμετρο ϑe−ϑ
. Παρατηρούμε ότι ϑe−ϑ
= Pϑ(X1 = 1),
άρα η αμερόληπτη εκτιμήτρια του ϑe−ϑ
προσδιορίζεται άμεσα και εί-
ναι η S(X) = I{X1=1}(X). Επίσης, από θεώρημα Επάρκειας-Πληρότητας
στην Ε.Ο.Κ., βρίσκουμε ότι η στατιστική συνάρτηση T(X) =
n∑
i=1
Xi εί-
ναι επαρκής και πλήρης για το ϑ, οπότε υπολογίζουμε τη συνάρτηση
δ(T) = Eϑ(S | T) και από τα δύο θεωρήματα έπεται ότι η δ είναι η (μο-
ναδική) Α.Ο.Ε.Δ. του ϑe−ϑ
. Το παραπάνω παράδειγμα αναφέρεται στην
πιο σπάνια περίπτωση όπου δουλεύουμε με τα δύο θεωρήματα αντί
για το Πόρισμα. Παραθέτουμε τώρα και ένα σύντομο παράδειγμα, στο
οποίο το Πόρισμα δίνει άμεσα την Α.Ο.Ε.Δ.: έστω X1, ..., Xn ∼ Exp(ϑ)
και ας πούμε ότι θέλουμε να βρούμε Α.Ο.Ε.Δ. για το 1
ϑ2 . Από θεώ-
ρημα Επάρκειας-Πληρότητας στην Ε.Ο.Κ., βρίσκουμε ότι η στατιστική
συνάρτηση T(X) =
n∑
i=1
Xi είναι επαρκής και πλήρης για το ϑ. Επίσης,
Eϑ(T2
) = V arϑ(T) + (Eϑ(T))2
= n(n+1)
ϑ2 ⇔ Eϑ
(
T2
n(n+1)
)
= 1
ϑ2 , οπότε συμπε-
ραίνουμε άμεσα ότι η στατιστική συνάρτηση T2
n(n+1)
είναι Α.Ο.Ε.Δ. του
1
ϑ2 (ως αμερόληπτη του 1
ϑ2 και συνάρτηση της επαρκούς και πλήρους T).
Ορισμός 11. Ορίζουμε την πληροφορία του Fisher από μία παρατήρηση
X ως IX(ϑ) = Eϑ[
( ∂
∂ϑ
logf(X; ϑ)
)2
]
Ορισμός 12. Ορίζουμε την πληροφορία του Fisher από ένα τυχαίο δείγμα
X ως IX(ϑ) = Eϑ[
( ∂
∂ϑ
logf(X; ϑ)
)2
].
Θα δούμε τώρα πώς συνδέονται αυτές οι δύο ποσότητες.
Πρόταση 7. Αν X1, ..., Xn τυχαίο δείγμα (δηλαδή οι Xi ανεξάρτητες και
ισόνομες), τότε IX(ϑ) = n · IXi
(ϑ), i = 1, ..., n. Αν X1, ..., Xn ανεξάρτητες
τυχαίες μεταβλητές (όχι απαραίτητα ισόνομες), τότε IX(ϑ) =
n∑
i=1
IXi
(ϑ).
Θα δώσουμε μία πιο εύχρηστη μορφή της πληροφορίας του Fisher:
Πρόταση 8. Αν ισχύει ότι ∂2
∂ϑ2
∫
S
f(x; ϑ)dx =
∫
S
∂2
∂ϑ2 f(x; ϑ)dx, τότε
I(ϑ) = −E[ ∂2
∂ϑ2 logf(X; ϑ)].
12
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
14. Σημείωση 7. Γενικά προτιμάται η έκφραση με τη δεύτερη παράγωγο,
καθώς απαιτεί μόνο υπολογισμούς μέσων τιμών, σε αντίθεση με την
πρώτη έκφραση, όπου εμφανίζεται τετράγωνο στον τύπο, το οποίο υπο-
δηλώνει εύρεση διασποράς (εν γένει δύσκολος υπολογισμός).
Αν θέλουμε την πληροφορία του Fisher για μία συνάρτηση της παραμέ-
τρου ϑ, έχουμε:
Πρόταση 9. Αν X ∼ f(x; ϑ), IX(ϑ) η πληροφορία του Fisher ως προς ϑ
και η παράμετρος τέτοια ώστε g(η) = ϑ, τότε IX(η) = IX(ϑ) · (g′
(η))2
.
Θα θέλαμε να βρούμε ένα ομοιόμορφο κάτω φράγμα για τη διασπορά
όλων των αμερολήπτων εκτιμητριών μίας παραμέτρου g(ϑ). Αν το πε-
τύχουμε αυτό, τότε θα έχουμε άλλον έναν τρόπο να δείξουμε ότι μία
εκτιμήτρια είναι Α.Ο.Ε.Δ. για μία παράμετρο (δεν είναι μέθοδος υπο-
λογισμού Α.Ο.Ε.Δ., καθώς προϋποθέτει να μας δίνεται η προς εξέταση
εκτιμήτρια, ωστόσο είναι ένα πολύ χρήσιμο κριτήριο για να δούμε αν
μία αμερόληπτη εκτιμήτρια είναι Α.Ο.Ε.Δ.). Πράγματι, αφού θα είναι
αμερόληπτη για τη συγκεκριμένη παράμετρο και με τη μικρότερη δυ-
νατή διασπορά, θα είναι αμερόληπτη εκτιμήτρια ελάχιστης διασποράς
για αυτήν την παράμετρο. Σχετικά, έχουμε:
Ορισμός 13. Αν X1, ..., Xn τυχαίο δείγμα από κατανομή άγνωστης πα-
ραμέτρου ϑ ∈ Θ, τότε λέμε ότι ικανοποιούνται οι συνθήκες ομαλότητας
αν ισχύουν τα επόμενα:
(i) ο παραμετρικός χώρος Θ είναι ανοικτό υποσύνολο του R,
(ii) το στήριγμα S = {x ∈ Rn
: f(x; ϑ) > 0} είναι ανεξάρτητο του ϑ,
(iii) η παράγωγος ∂
∂ϑ
f(x; ϑ) υπάρχει για κάθε x ∈ S, ϑ ∈ Θ,
(iv)
∫
S
∂
∂ϑ
f(x; ϑ)dx = ∂
∂ϑ
∫
S
f(x; ϑ)dx ∀ϑ ∈ Θ,
(v) 0 < IX(ϑ) < ∞ ∀ϑ ∈ Θ.
Πρόταση 10. (Ανισότητα Cramér-Rao)
Έστω X1, ..., Xn ανεξάρτητες τυχαίες μεταβλητές από κατανομές πα-
ραμέτρου ϑ και έστω ότι ικανοποιούνται οι συνθήκες ομαλότητας. Αν
η στατιστική συνάρτηση T = T(X) είναι αμερόληπτη εκτιμήτρια του
g(ϑ) και
∫
S
T(x) ∂
∂ϑ
f(x; ϑ)dx = ∂
∂ϑ
∫
S
T(x)f(x; ϑ)dx ∀ϑ ∈ Θ, τότε για κάθε
ϑ ∈ Θ ισχύει ότι
V arϑ(T(X)) ≥
(g′
(ϑ))2
IX(ϑ)
.
13
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
15. Αν επιπλέον οι X1, ..., Xn είναι και ισόνομες (δηλαδή έχουμε τυχαίο
δείγμα), τότε
V arϑ(T(X)) ≥
(g′
(ϑ))2
nI(ϑ)
.
Ορισμός 14. Μία στατιστική συνάρτηση T = T(X) καλείται αποτελε-
σματική για μία παράμετρο g(ϑ) αν Eϑ(T(X)) = g(ϑ) ∀ϑ ∈ Θ και η
διασπορά της ισούται με το κάτω φράγμα Cramér-Rao, δηλαδή
V arϑ(T(X)) =
(g′
(ϑ))2
nI(ϑ)
.
Πρόταση 11. Η ισότητα στην ανισότητα Cramér-Rao ισχύει αν, και μόνο
αν, ∂
∂ϑ
logf(x; ϑ) = q(ϑ)T(x)−a(ϑ) ∀x ∈ S ∀ϑ ∈ Θ, για κάποιες συναρτή-
σεις q, a, οπότε f(x; ϑ) = h(x)exp (Q(ϑ)T(x) − A(ϑ)). Ισχύει, επίσης, ότι
Eϑ(T(X)) = A′(ϑ)
Q′(ϑ)
= g(ϑ) (αφού η T είναι αμερόληπτη για την g(ϑ)),
οπότε για να πιαστεί το κάτω φράγμα πρέπει η προς εκτίμηση παρά-
μετρος να είναι της μορφής g(ϑ) = c1 · A′(ϑ)
Q′(ϑ)
+ c2, όπου c1, c2 σταθερές.
Πρόταση 12. Η συνάρτηση ∂
∂ϑ
logf(X; ϑ) ονομάζεται συνάρτηση score
και έχει την ιδιότητα Eϑ[ ∂
∂ϑ
logf(X; ϑ)] = 0 ∀ϑ ∈ Θ.
Διατυπώνουμε τώρα ως Πρόταση την ιδέα για την οποία ξεκινήσαμε
την εύρεση ομοιόμορφου κάτω φράγματος μεταξύ όλων των αμερολή-
πτων εκτιμητριών μίας παραμέτρου.
Πρόταση 13. Αν η στατιστική συνάρτηση T = T(X) είναι αποτελεσμα-
τική για την g(ϑ), τότε είναι Α.Ο.Ε.Δ. της g(ϑ).
2.6 Μέθοδοι υπολογισμού εκτιμητριών
Μέχρι στιγμής, θέσαμε κυρίως κάποιες επιθυμητές ιδιότητες τις οποίες
θα θέλαμε να έχουν οι εκτιμήτριές μας προκειμένου να θεωρηθούν ”κα-
λές”. Ωστόσο, η απαίτηση αυτών των ιδιοτήτων δεν εξασφαλίζει πάντα
και τρόπους υπολογισμού τέτοιων εκτιμητριών. Θα δούμε τώρα δύο
βασικές μεθόδους υπολογισμού εκτιμητριών, τη Μέθοδο Μέγιστης Πι-
θανοφάνειας και τη Μέθοδο των Ροπών.
Η Μέθοδος Μέγιστης Πιθανοφάνειας στηρίζεται στην ακόλουθη διαισθη-
τική ιδέα: έχοντας παρατηρήσει δεδομένα x από μία κατανομή f(x; ϑ),
14
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
16. θα ψάξουμε την τιμή εκείνη της παραμέτρου ϑ για την οποία μεγιστο-
ποιείται η πιθανότητα να παρατηρήσουμε αυτό που ήδη έχουμε παρατη-
ρήσει! Εκφράζοντας μαθηματικά αυτή την ιδέα, παίρνουμε τον επόμενο
Ορισμός 15. Ορίζουμε, αρχικά, ως συνάρτηση πιθανοφάνειας L(ϑ | x)
την από κοινού σ.π. ή σ.π.π. του δείγματος, δηλαδή L(ϑ | x) = f(x; ϑ).
Ορίζουμε τώρα ως Εκτιμήτρια Μέγιστης Πιθανοφάνειας (Ε.Μ.Π.) την
τιμή ˆϑ = ˆϑ(x) για την οποία μεγιστοποιείται η L(ϑ | x), δηλαδή
L(ˆϑ | x) = max
ϑ∈Θ
L(ϑ | x).
Παρατήρηση 1. Η Ε.Μ.Π., αν υπάρχει, δεν είναι απαραίτητα μοναδική
(π.χ. στην ομοιόμορφη U(ϑ − 1
2
, ϑ + 1
2
) Ε.Μ.Π. του ϑ είναι κάθε
ˆϑ ∈ [x(n) − 1
2
, x(1) + 1
2
] ).
Σημείωση 8. Στην πράξη δουλεύουμε συνήθως με τη λεγόμενη λογα-
ριθμοπιθανοφάνεια, δηλαδή τη συνάρτηση l(ϑ) = logL(ϑ | x), την οποία
προσπαθούμε να μεγιστοποιήσουμε ως προς ϑ. Επιτρέπεται να το κά-
νουμε αυτό, γιατί η συνάρτηση log είναι γνησίως αύξουσα, οπότε η
θέση μεγίστου παραμένει η ίδια, και προτιμάται συχνά διότι μετα-
τρέπει το γινόμενο f(x; ϑ) =
n∏
i=1
f(xi; ϑ) σε άθροισμα, το οποίο είναι
πιο εύκολα διαχειρίσιμο. Συνήθως, λογαριθμίζουμε την πιθανοφάνεια,
παραγωγίζουμε τη λογαριθμοπιθανοφάνεια, βλέπουμε πού είναι αρ-
νητική (ή θετική) και βρίσκουμε τη θέση μεγίστου, η οποία είναι η
εκτιμήτρια μέγιστης πιθανοφάνειας. Ωστόσο, η μέθοδος αυτή δεν εί-
ναι απόλυτη. Πρέπει να θυμόμαστε ότι στόχος μας είναι να μεγιστο-
ποιήσουμε την πιθανοφάνεια. Ο τρόπος για να γίνει αυτό δεν είναι
ένας. Χαρακτηριστική εξαίρεση αποτελεί, για άλλη μια φορά, η ομοιό-
μορφη κατανομή: έστω X1, ..., Xn ∼ U(0, ϑ), ϑ ∈ Θ = (0, ∞). Υπο-
λογίζουμε L(ϑ | x) = 1
ϑn
n∏
i=1
I[0,ϑ](xi) = 1
ϑn I[0,∞)(x(1))I(−∞,ϑ](x(n)), οπότε
L(ϑ | x) =
{
0, ϑ < x(n)
1
ϑn , ϑ ≥ x(n)
}
, άρα το μέγιστο επιτυγχάνεται για ϑ = x(n),
συνεπώς ˆϑ(X) = X(n) = max{X1, ..., Xn} (δε χρησιμοποιήσαμε ούτε λο-
γαριθμοπιθανοφάνεια ούτε παραγώγιση).
Θα δούμε τώρα μία πολύ σημαντική ιδιότητα των Ε.Μ.Π., η οποία τις
καθιστά και πολύ εύχρηστες στις εφαρμογές.
15
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
17. Πρόταση 14. (Ιδιότητα του Αναλλοίωτου των Ε.Μ.Π.)
Αν ˆϑ είναι Ε.Μ.Π. του ϑ και η συνάρτηση g : Θ → R είναι 1 − 1, τότε η
στατιστική συνάρτηση g(ˆϑ) είναι Ε.Μ.Π. του g(ϑ), δηλαδή
g(ϑ) = g(ˆϑ).
Π.χ. αν ˆϑ = ( ˆϑ1, ˆϑ2) =
(
X, 1
n
n∑
i=1
(Xi − X)2
)
Ε.Μ.Π. του ϑ = (ϑ1, ϑ2) στην
κανονική κατανομή N(ϑ1, ϑ2), τότε Ε.Μ.Π. του ϑ2
1eϑ2
είναι η στατιστική
συνάρτηση X
2
e
1
n
n∑
i=1
(Xi−X)2
.
Για να γίνει κατανοητό το πόσο σημαντική είναι αυτή η ιδιότητα των
Ε.Μ.Π., αρκεί να συγκρίνει κανείς με τις Α.Ο.Ε.Δ., όπου η διαδικασία
αυτή ήταν σχεδόν αδύνατη.
Θα κλείσουμε το κομμάτι της Εκτιμητικής παρουσιάζοντας την πιο απλή
μέθοδο υπολογισμού εκτιμητριών, τη Μέθοδο των Ροπών. Πρόκειται για
μία μέθοδο η οποία, σε γενικές γραμμές, εφαρμόζεται αρκετά ευκολό-
τερα από τη Μέθοδο Μέγιστης Πιθανοφάνειας, ωστόσο τα αποτελέ-
σματα που δίνει δεν είναι πάντα τόσο καλά στην πράξη.
Ορισμός 16. Έστω X μία τυχαία μεταβλητή και k ∈ N θετικός ακέ-
ραιος. Ορίζουμε ως (πληθυσμιακή ή θεωρητική) ροπή k-τάξης τη μέση
τιμή µk = E(Xk
) (γενικά είναι συνάρτηση της άγνωστης παραμέτρου
ϑ της κατανομής). Έστω τώρα τυχαίο δείγμα X1, ..., Xn. Ορίζουμε ως
δειγματική ροπή k-τάξης την ποσότητα Mk = 1
n
n∑
i=1
Xk
i .
Διαισθητικά, η ιδέα της Μεθόδου των Ροπών απορρέει από τον Νόμο
των Μεγάλων Αριθμών, σύμφωνα με τον οποίο η δειγματική ροπή k-
τάξης τείνει στη θεωρητική ροπή k-τάξης καθώς το n −→ ∞, δηλαδή
οριακά ισχύει ότι µk ≃ Mk.
Ορισμός 17. Έστω X1, ..., Xn τυχαίο δείγμα από κατανομή f(x; ϑ), ϑ =
(ϑ1, ..., ϑs). Θεωρούμε (υποθέτοντας ότι υπάρχουν οι s πρώτες ροπές) το
σύστημα:
µ1(ϑ) = M1 = X
µ2(ϑ) = M2 = 1
n
n∑
i=1
X2
i
...
µs(ϑ) = Ms = 1
n
n∑
i=1
Xs
i
. Αν το σύστημα λύνεται ως προς ϑ,
16
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
18. τότε η λύση του, ˜ϑ = ˜ϑ(X), καλείται Ε.Μ.Ρ. ή ροποεκτιμήτρια του ϑ.
Σημείωση 9. Στην πράξη, για να εφαρμόσουμε τη Μέθοδο των Ροπών,
φτιάχνουμε σύστημα με τόσες εξισώσεις όσες είναι και οι άγνωστοι
παράμετροι. Αν σε κάποια εξίσωση η ροπή µk δε δίνει κάποια παρά-
μετρο, τότε δουλεύουμε με τη ροπή της επόμενης τάξης. Π.χ. στην κα-
νονική κατανομή N(µ, ϑ), µ γνωστό, ϑ ∈ Θ = (0, ∞), η 1η εξίσωση δίνει
µ1(ϑ) = M1 = X ⇒ µ = X, δηλαδή δεν υπάρχει το ϑ, οπότε βρίσκουμε
την Ε.Μ.Ρ. από τη 2η εξίσωση: µ2(ϑ) = M2 = 1
n
n∑
i=1
X2
i ⇔ µ2
+ϑ = 1
n
n∑
i=1
X2
i ,
οπότε τελικά ˜ϑ(X) = 1
n
n∑
i=1
X2
i − µ2
, η Ε.Μ.Ρ. για το ϑ (η οποία δε χρη-
σιμοποιείται στην πράξη).
17
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
19. Κεφάλαιο 3
Διαστήματα Εμπιστοσύνης
3.1 Εισαγωγικά στοιχεία
Μέχρι στιγμής, ασχοληθήκαμε μόνο με σημειακές εκτιμήσεις. Είχαμε
δηλαδή κάποια δεδομένα x = (x1, ..., xn) και βρίσκαμε ορισμένες στα-
τιστικές συναρτήσεις, σύμφωνα με κάποια κριτήρια που θέσαμε, για
να εκτιμήσουμε άγνωστες παραμέτρους της κατανομής τους. Ωστόσο,
ο υπολογισμός απλώς μίας εκτιμήτριας δε μας δίνει πολλή πληροφο-
ρία για το πόσο κοντά στην πραγματική τιμή των παραμέτρων είναι οι
εκτιμήσεις που κάνουμε. Οδηγούμαστε, λοιπόν, στην εύρεση ολόκληρου
διαστήματος που περιέχει με κάποια βεβαιότητα την άγνωστη παράμε-
τρο που μελετάμε.
Ορισμός 18. Έστω X1, ..., Xn τυχαίο δείγμα από κατανομή άγνωστης
παραμέτρου ϑ ∈ Θ. Αν α ∈ (0, 1) σταθερά, ορίζουμε ως 100(1−α)% διά-
στημα εμπιστοσύνης (Δ.Ε.) για το ϑ (ή, γενικότερα, το g(ϑ)) ένα τυχαίο
διάστημα της μορφής [T1(X), T2(X)], όπου οι T1, T2 είναι στατιστικές
συναρτήσεις με T1(x) ≤ T2(x) και
∀ϑ ∈ Θ Pϑ(ϑ ∈ [T1(X), T2(X)]) ≥ 1 − α
(αντίστοιχα,
∀ϑ ∈ Θ Pϑ (g(ϑ) ∈ [T1(X), T2(X)]) ≥ 1 − α)
(συνήθως ζητάμε ισότητα, απλώς επειδή σε ορισμένες διακριτές κατανο-
μές δεν είναι δυνατόν να επιτευχθεί, φτιάχνουμε τον ορισμό με ανίσωση,
18
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
20. κυρίως για λόγους αυστηρότητας). Το 1 − α ονομάζεται συντελεστής
εμπιστοσύνης του παραπάνω διαστήματος εμπιστοσύνης.
Σημείωση 10. Τι σημαίνει ένα 95% Δ.Ε. για το ϑ; Μία σκέψη είναι ότι
το ϑ ανήκει στο συγκεκριμένο διάστημα με πιθανότητα 95%. Αυτό όμως
είναι λάθος. Στην κλασική Στατιστική κάθε άγνωστη παράμετρος θε-
ωρείται σταθερά. Μία σταθερά είτε ανήκει σε ένα διάστημα είτε δεν
ανήκει, δεν έχει νόημα να αποδώσουμε κάποια πιθανότητα (στις τυ-
χαίες μεταβλητές το κάνουμε αυτό). Άρα όταν λέμε ότι βρήκαμε ένα
95% Δ.Ε. (τυχαίο διάστημα) για το ϑ, εννοούμε ότι αν βρίσκουμε όλο
και περισσότερα διαστήματα (παίρνοντας π.χ. περισσότερες παρατη-
ρήσεις), τότε κατά προσέγγιση το 95% των διαστημάτων θα περιέχουν
την άγνωστη παράμετρο ϑ. Άρα στην κλασική Στατιστική το διάστημα
κινείται, ενώ η παράμετρος παραμένει σταθερή!
3.2 Γενική μέθοδος κατασκευής διαστημάτων
εμπιστοσύνης
Η γενική μέθοδος κατασκευής διαστημάτων εμπιστοσύνης για μία
παράμετρο g(ϑ) είναι:
(1) Προσδιορίζουμε μία ”καλή” εκτιμήτρια του g(ϑ) (Ε.Μ.Π., Α.Ο.Ε.Δ.
ή τουλάχιστον επαρκή), έστω T(x).
(2) Βρίσκουμε μία τυχαία μεταβλητή Y = h(T(x), g(ϑ)), η κατανομή
της οποίας είναι ανεξάρτητη του ϑ. Η τυχαία μεταβλητή αυτή καλείται
ποσότητα οδηγός (με βάση την T)
(3) Προσδιορίζουμε σταθερές c1 < c2 τέτοιες, ώστε
P(c1 ≤ Y ≤ c2) = 1 − α
(ή ≥ 1 − α, αν η Y είναι διακριτή)
(4) Λύνουμε ως προς g(ϑ) και καταλήγουμε σε μία σχέση της μορφής
Pϑ (T1(X) ≤ g(ϑ) ≤ T2(X)) = 1 − α (ή ≥ 1 − α στη διακριτή περίπτωση).
Το τυχαίο διάστημα [T1(X), T2(X)] είναι το 100(1 − α)% διάστημα εμπι-
στοσύνης για το g(ϑ).
Σημείωση 11. Πολύ σημαντικό (και συχνά δύσκολο) είναι το Βήμα 2,
καθώς δε δίνει κάποιον τρόπο εύρεσης τέτοιας τυχαίας μεταβλητής.
19
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
21. Ωστόσο, θα δούμε έναν τρόπο να το σκεφτόμαστε. Εφόσον ζητείται κα-
τανομή ανεξάρτητη της παραμέτρου ϑ, είναι λογικό να ψάξουμε στις
απαραμετρικές κατανομές. Υπάρχουν 4 βασικές απαραμετρικές κατα-
νομές: η τυποποιημένη κανονική N(0, 1), η χ2
κατανομή με n βαθμούς
ελευθερίας, η t κατανομή με n βαθμούς ελευθερίας (κατανομή Student)
και η Fn,m κατανομή με n και m βαθμούς ελευθερίας (κατανομή Fisher-
Snedecor - για ιστορικούς λόγους αναφέρουμε ότι την κατανομή τη
βρήκε ο G.W. Snedecor και την ονόμασε F προς τιμήν του R. Fisher).
Παρατίθενται τώρα ορισμένοι πολύ σημαντικοί μετασχηματισμοί, στους
οποίους και στηριζόμαστε συνήθως για να καταλήξουμε σε κάποια απα-
ραμετρική κατανομή και, κατ’ επέκταση, στην ποσότητα οδηγό:
• Αν X ∼ N(µ, σ2
), τότε X−µ
σ
∼ N(0, 1).
• Αν Z ∼ N(0, 1), W ∼ χ2
n και οι Z, W είναι ανεξάρτητες, τότε
Z
√
W
n
∼ tn.
• Αν X ∼ Gamma(n, ϑ), τότε 2ϑ · X ∼ χ2
2n.
• Αν X ∼ χ2
n, Y ∼ χ2
m και οι X, Y είναι ανεξάρτητες, τότε
X
n
Y
m
∼ Fn,m.
• Αν X ∼ U(a, b), τότε X−a
b−a
∼ U(0, 1) (ειδικότερα, αν X1, ..., Xn ∼ U(0, ϑ),
τότε
X(n)
ϑ
d
= U(n) ως κατανομές, όπου X(n) = max{X1, ..., Xn} και την
κατανομή της U(n) μπορούμε εύκολα να τη βρούμε).
• Αν X ∼ N(µ, σ2
), τότε (n−1)S2
σ2 ∼ χ2
n−1 (όπου S2
= 1
n−1
n∑
i=1
(Xi − X)2
η
δειγματική διασπορά).
Ορισμός 19. Ονομάζουμε α-άνω ποσοστιαίο σημείο μίας κατανομής F
το σημείο c για το οποίο ισχύει F(c) = 1 − α (διαισθητικά, το σημείο
το οποίο αφήνει δεξιά του εμβαδόν ίσο με α). Συμβολίζουμε τα α-άνω
ποσοστιαία σημεία της τυποποιημένης κανονικής N(0, 1), της κατανομής
χ2
n, της κατανομής tn και της κατανομής Fn,m με zα, χ2
n;α, tn;α και Fn,m;α,
αντίστοιχα.
Σημείωση 12. Στο Βήμα 3, τα c1, c2 μπορούν να επιλέγουν με πολλούς
τρόπους (πρακτικά, ζητάμε ένα εμβαδόν να ισούται με 1 − α, το οποίο
μπορεί να γίνει με πολλούς τρόπους). Υπάρχουν δύο κύριες επιλογές
των σταθερών αυτών, οι οποίες οδηγούν σε Δ.Ε. ίσων ουρών και σε Δ.Ε.
ελαχίστου μήκους. Ιδανικά, θα θέλαμε να μπορούμε να κατασκευάζουμε
Δ.Ε. ελαχίστου μήκους. Πράγματι, αν ελαχιστοποιήσουμε το μήκος της
20
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
22. ”βάσης” ζητώντας παράλληλα το εμβαδόν να ισούται με 1 − α, τότε
μεγιστοποιείται το ”ύψος” και άρα βρισκόμαστε στην περιοχή με την
υψηλότερη πιθανοφάνεια, δηλαδή στην περιοχή που είναι πιθανότερο να
βρίσκεται το ϑ. Ωστόσο, η διαδικασία κατασκευής τέτοιων διαστημά-
των είναι πολύ δύσκολη, οπότε καταφεύγουμε συνήθως στα Δ.Ε. ίσων
ουρών, στα οποία διαλέγουμε τα c1, c2 ώστε το c1 να ”αφήνει εμβαδόν
α
2
αριστερά του” και το c2 να ”αφήνει εμβαδόν α
2
δεξιά του” (οπότε
”περισσεύει” εμβαδόν 1 − α, όπως θέλαμε). Δηλαδή το c1 επιλέγεται ως
το (1 − α
2
)-άνω ποσοστιαίο σημείο, ενώ το c2 ως το α
2
-άνω ποσοστιαίο
σημείο της κατανομής.
3.3 Διαστήματα Εμπιστοσύνης για κανονικούς
πληθυσμούς
Υπάρχουν ορισμένα πολύ σημαντικά Διαστήματα Εμπιστοσύνης, αυτά
που χρησιμοποιούνται για την κανονική κατανομή. Θα παραθέσουμε τα
Δ.Ε. σε κάθε μία από τις περιπτώσεις που προκύπτουν και θα εξη-
γήσουμε αναλυτικά μία από αυτές, ώστε να δούμε πώς εφαρμόζονται
στην πράξη τα παραπάνω.
Πρόταση 15. Έστω X1, ..., Xn ∼ N(ϑ1, ϑ2), α ∈ (0, 1) δοσμένη σταθερά.
• Αν το ϑ1 είναι άγνωστο και το ϑ2 γνωστό, τότε 100(1 − α)% Δ.Ε. για
το ϑ1 είναι το
[
X −
σ
√
n
zα
2
, X +
σ
√
n
zα
2
]
.
• Αν το ϑ1 είναι άγνωστο και το ϑ2 άγνωστο, τότε 100(1 − α)% Δ.Ε. για
το ϑ1 είναι το
[
X −
S
√
n
tn−1;α
2
, X +
S
√
n
tn−1;α
2
]
.
• Αν το ϑ2 είναι άγνωστο και το ϑ1 γνωστό, τότε 100(1 − α)% Δ.Ε. για
το ϑ2 είναι το
[
n∑
i=1
(Xi − µ)2
χ2
n; α
2
,
n∑
i=1
(Xi − µ)2
χ2
n;1−α
2
]
.
• Αν το ϑ2 είναι άγνωστο και το ϑ1 άγνωστο, τότε 100(1 − α)% Δ.Ε. για
το ϑ2 είναι το
[
n∑
i=1
(Xi − X)2
χ2
n−1;α
2
,
n∑
i=1
(Xi − X)2
χ2
n−1;1−α
2
]
.
Θα εξηγήσουμε αναλυτικά τη δεύτερη περίπτωση (με ανάλογο τρόπο
δουλεύονται όλες).
21
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
23. Το ϑ1 είναι άγνωστο, το ϑ2 άγνωστο και ψάχνουμε 100(1−α)% Δ.Ε. για
το ϑ1. Θα ακολουθήσουμε τα βήματα που περιγράψαμε παραπάνω:
Βήμα 1: Διαλέγουμε ως εκτιμήτρια του ϑ1 την επαρκή στατιστική συ-
νάρτηση X.
Βήμα 2: Θέλουμε να βρούμε ποσότητα οδηγό, άρα πρώτος μας στόχος
είναι να οδηγηθούμε σε απαραμετρική κατανομή. Έχουμε ότι
X1, ..., Xn ∼ N(ϑ1, ϑ2) ⇒ X ∼ N
(
ϑ1,
ϑ2
n
)
⇒
X − ϑ1
√
ϑ2
n
∼ N(0, 1) ⇒
√
n(X − ϑ1)
√
ϑ2
∼ N(0, 1).
Η N(0, 1) είναι μεν απαραμετρική κατανομή, αλλά η τυχαία μεταβλητή√
n(X−ϑ1)
√
ϑ2
δεν είναι ποσότητα οδηγός, γιατί εξαρτάται και από την άγνω-
στη (και όχι προς εκτίμηση) παράμετρο ϑ2. Σκεφτόμαστε λοιπόν να
αντικαταστήσουμε τη ϑ2 με μία εκτιμήτριά της. Μία λογική επιλογή εί-
ναι η S2
= 1
n−1
n∑
i=1
(Xi − X)2
(Α.Ο.Ε.Δ. του ϑ2). Θα δούμε τι κατανομή
ακολουθεί η
√
n(X−ϑ1)
S
. Έχουμε ότι
√
n(X−ϑ1)
√
ϑ2
∼ N(0, 1), (n−1)S2
σ2 ∼ χ2
n−1 και
οι X, S2
είναι ανεξάρτητες (από το θεώρημα Basu), οπότε√
n(X−ϑ1)
√
ϑ2
√
(n−1)S2
(n−1)ϑ2
∼ tn−1 ⇒
√
n(X−ϑ1)
S
∼ tn−1. Η tn−1 είναι απαραμετρική κατα-
νομή και η ποσότητα
√
n(X−ϑ1)
S
εξαρτάται από την προς εκτίμηση παρά-
μετρο ϑ1, άρα η Y =
√
n(X−ϑ1)
S
είναι ποσότητα οδηγός.
Βήμα 3: Αναζητούμε c1, c2 τέτοια ώστε P(c1 ≤ Y ≤ c2) = 1 − α. Θα δου-
λέψουμε με Δ.Ε. ίσων ουρών: επιλέγουμε c1 = tn−1;1−α
2
= −tn−1;α
2
(λόγω
συμμετρίας της κατανομής Student) και c2 = tn−1;α
2
.
Βήμα 4: Έχουμε
1−α = P(c1 ≤ Y ≤ c2) = P(−tn−1;α
2
≤ Y ≤ tn−1;α
2
) = P
(
−tn−1;α
2
≤
√
n(X − ϑ1)
S
≤ tn−1;α
2
)
⇒ P
(
X − S√
n
tn−1;α
2
≤ ϑ1 ≤ X + S√
n
tn−1;α
2
)
= 1 − α, οπότε 100(1 − α)%
Δ.Ε. για το ϑ1 είναι το [X − S√
n
tn−1;α
2
, X + S√
n
tn−1;α
2
].
22
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
24. 3.4 Ασυμπτωτικά διαστήματα εμπιστοσύνης
Για μεγάλα μεγέθη δείγματος συμφέρει πολλές φορές να δουλέ-
ψουμε με προσεγγιστικά διαστήματα εμπιστοσύνης.
Ορισμός 20. Έστω X1, ..., Xn ∼ f(x; ϑ), α ∈ (0, 1) δοσμένη σταθερά.
Ορίζουμε ως 100(1 − α)% ασυμπτωτικό διάστημα εμπιστοσύνης για την
παράμετρο g(ϑ) ένα τυχαίο διάστημα της μορφής [Tn(X), Rn(X)] τέτοιο
ώστε lim
n−→∞
P[Tn(X) ≤ g(ϑ) ≤ Rn(X)] = 1 − α.
Π.χ. αν X1, ..., Xn ∼ N(µ, σ2
), τότε
√
n(X − µ)
σ
∼ N(0, 1) και
√
n(X − µ)
S
∼ tn−1 −→ N(0, 1) για n −→ ∞, δηλαδή για μεγάλα n ισχύει
ότι X ± S√
n
tn−1;α
2
≃ X ± S√
n
zα
2
και παίρνουμε ότι το [X − S√
n
zα
2
, X + S√
n
zα
2
]
είναι 100(1 − α)% ασυμπτωτικό διάστημα εμπιστοσύνης για το µ (δη-
λαδή Δ.Ε. για το µ με συντελεστή εμπιστοσύνης περίπου 1 − α).
23
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
25. Κεφάλαιο 4
Έλεγχοι Υποθέσεων
4.1 Βασικές έννοιες και ορισμοί
Στην πράξη, χρειαζόμαστε πολλές φορές να πάρουμε μία απόφαση
βασιζόμενοι στην έκβαση ενός πειράματος τύχης. Διατυπώνουμε, λοι-
πόν, ορισμένες υποθέσεις, τις οποίες τελικά είτε δεχόμαστε είτε απορ-
ρίπτουμε.
Ορισμός 21. Στατιστική υπόθεση είναι μία εικασία για την κατανομή F
μίας τυχαίας μεταβλητής ή ενός δείγματος. Στατιστικός έλεγχος είναι
μία διαδικασία με την οποία, με βάση ένα δείγμα X1, ..., Xn ∼ F απο-
φασίζουμε αν θα δεχθούμε ή θα απορρίψουμε την υπόθεση.
Στους ελέγχους υποθέσεων έχουμε δύο είδη υποθέσεων, τη μηδενική
υπόθεση H0 και την εναλλακτική υπόθεση H1, κάθε μία από τις οποίες
αφορά το σύνολο στο οποίο ανήκει η άγνωστη παράμετρος της κατα-
νομής που μελετάμε (υποθέτουμε ότι βρισκόμαστε στον κλάδο της πα-
ραμετρικής Στατιστικής, οπότε μελετάμε κατανομές με άγνωστες πα-
ραμέτρους). Γράφουμε H0 : θ ∈ Θ0 vs H1 : θ ∈ Θ1 (με Θ0 ∩ Θ1 = ∅).
Ορισμός 22. Αν το Θ0 είναι μονοσύνολο, τότε η H0 καλείται απλή μη-
δενική υπόθεση, διαφορετικά καλείται σύνθετη μηδενική υπόθεση. Αν
το Θ1 είναι μονοσύνολο, τότε η H1 καλείται απλή εναλλακτική υπόθεση,
διαφορετικά καλείται σύνθετη εναλλακτική υπόθεση.
Στην πραγματικότητα, θα ισχύει ακριβώς μία από τις H0 και H1. Εμείς,
24
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
26. με κάποιους κανόνες απόφασης που θα θέσουμε, θα καταλήξουμε στην
επιλογή μίας από τις δύο. Είναι πιθανό, λοιπόν, να οδηγηθούμε σε σφάλ-
ματα.
Ορισμός 23. Διακρίνουμε δύο κύρια είδη σφαλμάτων:
Σφάλμα τύπου I: απορρίπτω την H0 ενώ αυτή ισχύει
Σφάλμα τύπου II: αποδέχομαι την H0 ενώ αυτή δεν ισχύει.
Συνήθως, στην κλασική Στατιστική ορίζουμε ως μηδενική υπόθεση αυ-
τήν που θέλουμε να απορρίψουμε. Το σφάλμα τύπου I θεωρείται πολύ
σημαντικό σφάλμα (θέλουμε να το αποφύγουμε). Η πιθανότητα σφάλ-
ματος τύπου I είναι Pθ(X ∈ K), θ ∈ Θ0, όπου K η περιοχή απόρριψης
(ή κρίσιμη περιοχή) της H0.
Ορισμός 24. Ορίζουμε α = sup
θ∈Θ0
Pθ(X ∈ K) να είναι το επίπεδο σημα-
ντικότητας (ε.σ.) του ελέγχου (διαισθητικά, το επίπεδο σημαντικότητας
ενός ελέγχου είναι η μέγιστη πιθανότητα να κάνουμε σφάλμα τύπου I).
Το α το προκαθορίζουμε εμείς. Στην πράξη, α = 0.10, 0.05, 0.01, 0.001.
Η πιθανότητα να κάνουμε σφάλμα τύπου II είναι Pθ(X ∈ A), θ ∈ Θ1
(αφού σφάλμα τύπου II σημαίνει ”αποδεχόμαστε την H0 ενώ ισχύει η
H1”), όπου A η περιοχή αποδοχής της H0. Ισχύει ότι
1 − P(σφάλμα τύπου II) = Pθ(X ∈ K) = P(απορρίπτουμε την H0 ενώ
αυτή δεν ισχύει).
Ορισμός 25. Η ποσότητα β(θ) = 1 − P(σφάλμα τύπου II) = Pθ(X ∈ K)
ονομάζεται ισχύς του ελέγχου.
4.2 Ελεγχοσυνάρτηση
Αφού η απόφαση που καλούμαστε να πάρουμε είναι του τύπου
”απορρίπτω την H0 αν βρίσκομαι στην κρίσιμη περιοχή K ή αποδέ-
χομαι την H0 αν βρίσκομαι στην περιοχή αποδοχής A”, μπορούμε να
αναπαραστήσουμε την παραπάνω διαδικασία απόφασης με μία συνάρ-
τηση που θυμίζει δείκτρια.
Ορισμός 26. Κάθε συνάρτηση φ : Rn
→ R με φ(x) ∈ [0, 1] ∀x ∈ Rn
κα-
λείται ελεγχοσυνάρτηση. Στους ελέγχους υποθέσεων μελετάμε, κυρίως,
25
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
27. ελεγχοσυναρτήσεις της μορφής
φ(x) =
{
1, x ∈ K
0, x ∈ A
.
Υπολογίζουμε ότι
Eθφ(X) = 1 · Pθ(φ(X) = 1) + 0 · Pθ(φ(X) = 0) = Pθ(X ∈ K) ⇒
Eθφ(X) =
{
α(θ), θ ∈ Θ0
β(θ), θ ∈ Θ1
.
Αν θεωρήσουμε την πιο απλή μορφή ελέγχου, δηλαδή την περίπτωση
H0 : θ = θ0 vs H1 : θ = θ1 (απλή έναντι απλής) σε επίπεδο σημα-
ντικότητας α, τότε θα θέλαμε (σύμφωνα με τα παραπάνω) να ισχύει
Eθ0 φ(X) = α. Ωστόσο, υπάρχουν παραδείγματα από τη διακριτή περί-
πτωση όπου η ισότητα δεν επιτυγχάνεται. Για τον λόγο αυτό οδηγού-
μαστε στην έννοια του τυχαιοποιημένου ελέγχου.
Ορισμός 27. Μία συνάρτηση φ : Rn
→ R της μορφής
φ(x) =
1, x ∈ K
γ, x ∈ N
0, x ∈ A
,
όπου τα K, N, A είναι ξένα ανά δύο και K ∪ N ∪ A = Rn
, καλείται
τυχαιοποιημένος έλεγχος (και χρησιμοποιείται κυρίως για τις διακριτές
κατανομές).
Σημείωση 13. Για συγκεκριμένο μέγεθος δείγματος, δεν μπορούμε να
βελτιώνουμε ταυτόχρονα και την P(σφάλμα τύπου I) και την P(σφάλμα
τύπου II). Συνήθως, μάλιστα, όταν η μία αυξάνεται, η άλλη μειώνεται.
Αυτό που κάνουμε στην πράξη, λοιπόν, είναι να σταθεροποιούμε την
P(σφάλμα τύπου I) και να προσπαθούμε να ελαχιστοποιήσουμε την
P(σφάλμα τύπου II) (ισοδύναμα, να μεγιστοποιήσουμε την ισχύ του
ελέγχου).
Ορισμός 28. Κάθε έλεγχος με τη μέγιστη δυνατή ισχύ για δεδομένο
ε.σ. α ονομάζεται ομοιόμορφα ισχυρότατος έλεγχος (Ο.Ι.Ε.) σε επίπεδο
σημαντικότητας α, εκτός αν η εναλλακτική υπόθεση είναι απλή, οπότε
και ονομάζεται ισχυρότατος έλεγχος σε ε.σ. α.
26
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
28. 4.3 Έλεγχοι απλών και μονόπλευρων υποθέ-
σεων
Είναι πολύ χρήσιμο να μπορούμε να βρίσκουμε Ο.Ι.Ε. για τα διά-
φορα είδη υποθέσεων. Για την περίπτωση ”απλή έναντι απλής” ισχύει
ένα πολύ σημαντικό αποτέλεσμα:
Θεώρημα 5. (Θεμελιώδες Λήμμα Neyman-Pearson)
Έστω X1, ..., Xn τυχαίο δείγμα από την κατανομή f(x; θ), θ ∈ Θ, και
f(x; θ) =
n∏
i=1
f(xi; θ), η από κοινού σ.π. ή σ.π.π. του δείγματος. Έστω,
επίσης, οι υποθέσεις H0 : θ = θ0 vs H1 : θ = θ1. Τότε, ο έλεγχος που
ορίζεται από την ελεγχοσυνάρτηση
φ(x) =
1,
f(x; θ0)
f(x; θ1)
< c
γ,
f(x; θ0)
f(x; θ1)
= c
0,
f(x; θ0)
f(x; θ1)
> c
,
όπου c, γ σταθερές που προσδιορίζονται από τη σχέση Eθ0 φ(X) = α,
είναι ο ισχυρότατος έλεγχος σε επίπεδο σημαντικότητας α.
Σημείωση 14. Μπορούμε να δουλέψουμε και με λογαριθμοπιθανοφά-
νειες:
f(x; θ0)
f(x; θ1)
< c ⇔ log
f(x; θ0)
f(x; θ1)
< logc ⇔ l(θ0 | x) − l(θ1 | x) < c′
⇔ λ(x) < c′
,
όπου c′
= logc σταθερά και λ(x) = l(θ0 | x) − l(θ1 | x).
Παράδειγμα: έστω X1, ..., Xn ∼ N(θ, 1), θ ∈ Θ = R, και ας πούμε ότι
θέλουμε να βρούμε τον ισχυρότατο έλεγχο σε ε.σ. α για τις υποθέσεις
H0 : θ = θ0 vs H1 : θ = θ1, με θ1 > θ0. Μετά από πράξεις, βρίσκουμε
ότι λ(x) = (θ0 −θ1)
n∑
i=1
xi + n
2
(θ2
1 −θ2
0) και αναζητούμε κατάλληλη σταθερά
c ώστε λ(x) < c ⇔ (θ0 − θ1)
n∑
i=1
xi < c′
(αφού η ποσότητα n
2
(θ2
1 − θ2
0) είναι
ανεξάρτητη του x)
θ0−θ1<0
⇐⇒
n∑
i=1
xi > c′′
⇔ X > c′′
n
= cα, οπότε παίρνουμε
27
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
29. την ελεγχοσυνάρτηση
φ(x) =
{
1, x > cα
0, x ≤ cα
.
Αυτό είναι από τα πιο σημαντικά βήματα στην πορεία εύρεσης ισχυρό-
τατου ελέγχου (ή Ο.Ι.Ε.). Αν έχουμε προσδιορίσει τον τύπο της ελεγ-
χοσυνάρτησης, τότε το cα το βρίσκουμε από την πολύ βασική σχέση
Eθ0 φ(X) = α (στην ουσία, εμείς κατασκευάζουμε την ελεγχοσυνάρτηση
έτσι, ώστε να ισχύει αυτή η σχέση). Έχουμε:
Eθ0 φ(X) = α ⇔ Pθ0 (X > cα) = α.
Στο σημείο αυτό (που προκύπτει σε αρκετά σημεία μέσα στη Στατι-
στική) καλούμαστε να υπολογίσουμε μία πιθανότητα. Για να το κά-
νουμε αυτό, πρέπει συνήθως να γνωρίζουμε την κατανομή της τυχαίας
μεταβλητής που βρίσκεται μέσα στην πιθανότητα. Μόλις τη βρούμε, με-
τασχηματίζουμε συνήθως την τυχαία μεταβλητή σε μία άλλη τ.μ. που
ακολουθεί μία από τις τέσσερις βασικές απαραμετρικές κατανομές που
αναφέραμε στην προηγούμενη ενότητα: τυποποιημένη κανονική N(0, 1),
χ2
κατανομή με n βαθμούς ελευθερίας, t κατανομή με n βαθμούς ελευ-
θερίας (κατανομή Student) ή Fn,m κατανομή με n και m βαθμούς ελευθε-
ρίας. Αυτό γίνεται για καθαρά υπολογιστικούς λόγους, καθώς για αυτές
τις κατανομές έχουμε έτοιμους πίνακες με τιμές τους. Εν προκειμένω,
υπό την H0 έχουμε:
X ∼ N
(
θ0,
1
n
)
⇒
√
n(X − θ0) ∼ N(0, 1),
οπότε
α = Pθ0 (X > cα) = Pθ0
(√
n(X − θ0) >
√
n(cα − θ0)
)
= 1−Φ
(√
n(cα − θ0)
)
⇒
Φ
(√
n(cα − θ0)
)
= 1 − α ⇒
√
n(cα − θ0) = zα ⇒ cα = θ0 +
zα
√
n
,
άρα ο ισχυρότατος έλεγχος που παίρνουμε είναι ο
φ(x) =
1, x > θ0 +
zα
√
n
0, x ≤ θ0 +
zα
√
n
.
28
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
30. Παρατήρηση 2. Αν κοιτάξουμε προσεκτικά την κατασκευή της ελεγχο-
συνάρτησης στο προηγούμενο παράδειγμα, θα δούμε ότι, ουσιαστικά,
το συγκεκριμένο θ1 δεν έπαιξε κάποιον ρόλο τελικά. Χρειαστήκαμε
μόνο ότι θ1 > θ0 (για να διαιρέσουμε στην ανίσωση με θ0 − θ1). Δη-
λαδή όποιο θ1 > θ0 και να παίρναμε, το αποτέλεσμα θα ήταν το ίδιο.
Συνεπώς, η παραπάνω ελεγχοσυνάρτηση δίνει τον Ο.Ι.Ε. και για τον
έλεγχο H0 : θ = θ0 vs θ > θ0.
Θέλουμε τώρα να μελετήσουμε πιο συστηματικά σύνθετες περιπτώσεις
ελέγχων, όπως είναι π.χ. οι περιπτώσεις ”απλή έναντι σύνθετης” και
”σύνθετη έναντι σύνθετης”. Στη μελέτη αυτή θα αποβεί εξαιρετικά χρή-
σιμη μία ιδιότητα που έχουν ορισμένες κατανομές.
Ορισμός 29. Έστω τυχαίο δείγμα X1, ..., Xn ∼ f(x; θ), θ ∈ Θ. Θα λέμε
ότι η κατανομή f(x; θ) έχει την ιδιότητα Μονότονου Λόγου Πιθανοφα-
νειών (ΜΛΠ) αν
(i) το στήριγμα Sf = {x ∈ R : f(x; θ) > 0} είναι ανεξάρτητο του θ
(ii) για κάθε θ1 ̸= θ2, οι f(x; θ1), f(x; θ2) δεν είναι ταυτοτικά ίσες
(iii) για κάθε θ1, θ2 ∈ Θ με θ1 < θ2, ο λόγος
f(x; θ2)
f(x; θ1)
είναι γνησίως αύ-
ξουσα συνάρτηση μίας στατιστικής συνάρτησης.
(Για παράδειγμα, οι κατανομές N(µ, 1) και Poisson(λ) έχουν την ιδιό-
τητα ΜΛΠ με στατιστική συνάρτηση την T(x) =
n∑
i=1
xi).
Αν κάποια κατανομή έχει την ιδιότητα ΜΛΠ, τότε μπορούμε εύκολα να
βρούμε Ο.Ι.Ε. για αρκετούς ελέγχους υποθέσεων.
Πρόταση 16. (i) Έστω ότι η κατανομή f(x; θ), θ ∈ Θ, έχει την ιδιό-
τητα ΜΛΠ με στατιστική συνάρτηση T(x). Τότε, ο Ο.Ι.Ε. για τον έλεγχο
υποθέσεων H0 : θ = θ0 vs H1 : θ > θ0 δίνεται από την ελεγχοσυνάρτηση
φ(x) =
1, T(x) > cα
γ, T(x) = cα
0, T(x) < cα
,
όπου cα και γ τέτοια ώστε
Eθ0 φ(X) = α ⇔ Pθ0 (T(X) > cα) + γPθ0 (T(X) = cα) = α.
29
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
31. (ii) Έστω ότι η κατανομή f(x; θ), θ ∈ Θ, έχει την ιδιότητα ΜΛΠ με
στατιστική συνάρτηση T(x). Τότε, ο Ο.Ι.Ε. για τον έλεγχο υποθέσεων
H0 : θ = θ0 vs H1 : θ < θ0 δίνεται από την ελεγχοσυνάρτηση
φ(x) =
1, T(x) < cα
γ, T(x) = cα
0, T(x) > cα
,
όπου cα και γ τέτοια ώστε
Eθ0 φ(X) = α ⇔ Pθ0 (T(X) > cα) + γPθ0 (T(X) = cα) = α.
Σημείωση 15. Είναι σημαντικό να αντιλαμβανόμαστε διαισθητικά τη
φορά των ανισώσεων στον ορισμό των παραπάνω ελεγχοσυναρτήσεων.
Η ελεγχοσυνάρτηση παίρνει την τιμή 1 στην κρίσιμη περιοχή, δηλαδή
στα x ∈ Rn
για τα οποία απορρίπτουμε την H0 ή, ισοδύναμα, απο-
δεχόμαστε την H1. Στην πρώτη περίπτωση (H1 : θ > θ0) θέλουμε να
αυξάνονται οι τιμές του θ για να δεχθούμε την εναλλακτική υπόθεση
H1, άρα η T(x) είναι λογικό να φράσσεται από κάτω σε αυτόν τον
κλάδο (η εξήγηση στην πραγματικότητα είναι λίγο πιο σύνθετη, γιατί
εμπλέκεται και το θέμα της μονοτονίας, αλλά μπορούμε να το σκεφτό-
μαστε και ως εξής: στο Λήμμα Neyman-Pearson, το οποίο είδαμε στην
Παρατήρηση 2 πώς συνδέεται με αυτούς τους ελέγχους, ισχύει σε αυ-
τόν τον κλάδο ότι
f(x; θ0)
f(x; θ1)
< c και η συνάρτηση
f(x; θ0)
f(x; θ1)
είναι γνησίως
φθίνουσα συνάρτηση της T(x) σύμφωνα με την ιδιότητα ΜΛΠ (αφού
θ0 < θ1), οπότε η T(x) φράσσεται πράγματι από κάτω). Αντίστοιχα, στη
δεύτερη περίπτωση, όπου στην εναλλακτική είναι μικρότερες οι τιμές
του θ, η T(x) είναι λογικό να φράσσεται από πάνω στον πρώτο κλάδο
της ελεγχοσυνάρτησης.
Ορισμός 30. Θα λέμε ότι μία κατανομή έχει την ιδιότητα (ΜΛΠ)’ αν έχει
τις δύο πρώτες ιδιότητες της ΜΛΠ αλλά για κάθε θ1, θ2 ∈ Θ με θ1 < θ2,
ο λόγος
f(x; θ2)
f(x; θ1)
είναι γνησίως φθίνουσα συνάρτηση μίας στατιστικής
συνάρτησης.
Πρόταση 17. (i) Έστω ότι η κατανομή f(x; θ), θ ∈ Θ, έχει την ιδιότητα
(ΜΛΠ)’ με στατιστική συνάρτηση T(x). Τότε, ο Ο.Ι.Ε. για τον έλεγχο
30
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
32. υποθέσεων H0 : θ = θ0 vs H1 : θ > θ0 δίνεται από την ελεγχοσυνάρτηση
φ(x) =
1, T(x) < cα
γ, T(x) = cα
0, T(x) > cα
,
όπου cα και γ τέτοια ώστε
Eθ0 φ(X) = α ⇔ Pθ0 (T(X) > cα) + γPθ0 (T(X) = cα) = α.
(ii) Έστω ότι η κατανομή f(x; θ), θ ∈ Θ, έχει την ιδιότητα (ΜΛΠ)’ με
στατιστική συνάρτηση T(x). Τότε, ο Ο.Ι.Ε. για τον έλεγχο υποθέσεων
H0 : θ = θ0 vs H1 : θ < θ0 δίνεται από την ελεγχοσυνάρτηση
φ(x) =
1, T(x) > cα
γ, T(x) = cα
0, T(x) < cα
,
όπου cα και γ τέτοια ώστε
Eθ0 φ(X) = α ⇔ Pθ0 (T(X) > cα) + γPθ0 (T(X) = cα) = α.
Για την πιο δύσκολη περίπτωση H0 : θ ≤ θ0 vs H1 : θ > θ0 (”σύνθετη
εναντίον σύνθετης”) ισχύει ένα ανάλογο αποτέλεσμα.
Πρόταση 18. (Karlin - Rubin)
Έστω ότι η κατανομή f(x; θ), θ ∈ Θ, έχει την ιδιότητα ΜΛΠ με στατι-
στική συνάρτηση T(x). Τότε, ο Ο.Ι.Ε. για τον έλεγχο υποθέσεων
H0 : θ ≤ θ0 vs H1 : θ > θ0
δίνεται από την ελεγχοσυνάρτηση
φ(x) =
1, T(x) > cα
γ, T(x) = cα
0, T(x) < cα
,
όπου cα και γ τέτοια ώστε Eθ0 φ(X) = α.
31
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
33. Παρατήρηση 3. Να σημειωθεί ότι σε αυτή την περίπτωση η σχέση
Eθ0 φ(X) = α δεν είναι καθόλου προφανής, αφού η μηδενική υπόθεση
δεν είναι απλή.
Άλλη μία πολύ χρήσιμη ιδιότητα των κατανομών που ανήκουν στην
Ε.Ο.Κ. είναι ότι αρκετές από αυτές έχουν την ιδιότητα ΜΛΠ.
Πρόταση 19. Αν η κατανομή f(x; θ) ανήκει στη μονοδιάστατη μονοπα-
ραμετρική Ε.Ο.Κ., δηλαδή f(x; θ) = h(x)exp
(
Q(θ)T(x)−A(θ)
)
και η Q(θ)
είναι γνησίως αύξουσα συνάρτηση του θ ∈ Θ, τότε η f(x; θ) έχει την ιδιό-
τητα ΜΛΠ με στατιστική συνάρτηση T∗
(x) =
n∑
i=1
T(xi).
Μπορούμε τώρα να μεταφέρουμε τα προηγούμενα αποτελέσματα σε
κατανομές που ανήκουν στην Ε.Ο.Κ.
Πόρισμα 4. (i) Έστω ότι η κατανομή f(x; θ), θ ∈ Θ, ανήκει στην Ε.Ο.Κ.,
δηλαδή f(x; θ) = h(x)exp
(
Q(θ)T(x) − A(θ)
)
και η Q(θ) είναι γνησίως
αύξουσα συνάρτηση του θ ∈ Θ. Τότε, ο Ο.Ι.Ε. για τον έλεγχο υποθέσεων
H0 : θ ≤ θ0 vs θ > θ0
δίνεται από την ελεγχοσυνάρτηση
φ(x) =
1,
n∑
i=1
T(xi) > cα
γ,
n∑
i=1
T(xi) = cα
0,
n∑
i=1
T(xi) < cα
,
όπου cα και γ τέτοια ώστε Eθ0 φ(X) = α.
(ii) Έστω ότι η κατανομή f(x; θ), θ ∈ Θ, ανήκει στην Ε.Ο.Κ., δηλαδή
f(x; θ) = h(x)exp
(
Q(θ)T(x) − A(θ)
)
και η Q(θ) είναι γνησίως φθίνουσα
συνάρτηση του θ ∈ Θ. Τότε, ο Ο.Ι.Ε. για τον έλεγχο υποθέσεων
H0 : θ ≤ θ0 vs θ > θ0
32
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
34. δίνεται από την ελεγχοσυνάρτηση
φ(x) =
1,
n∑
i=1
T(xi) < cα
γ,
n∑
i=1
T(xi) = cα
0,
n∑
i=1
T(xi) > cα
,
όπου cα και γ τέτοια ώστε Eθ0 φ(X) = α.
Πόρισμα 5. (i) Έστω ότι η κατανομή f(x; θ), θ ∈ Θ, ανήκει στην Ε.Ο.Κ.,
δηλαδή f(x; θ) = h(x)exp
(
Q(θ)T(x) − A(θ)
)
και η Q(θ) είναι γνησίως
αύξουσα συνάρτηση του θ ∈ Θ. Τότε, ο Ο.Ι.Ε. για τον έλεγχο υποθέσεων
H0 : θ ≥ θ0 vs θ < θ0
δίνεται από την ελεγχοσυνάρτηση
φ(x) =
1,
n∑
i=1
T(xi) < cα
γ,
n∑
i=1
T(xi) = cα
0,
n∑
i=1
T(xi) > cα
,
όπου cα και γ τέτοια ώστε Eθ0 φ(X) = α.
(ii) Έστω ότι η κατανομή f(x; θ), θ ∈ Θ, ανήκει στην Ε.Ο.Κ., δηλαδή
f(x; θ) = h(x)exp
(
Q(θ)T(x) − A(θ)
)
και η Q(θ) είναι γνησίως φθίνουσα
συνάρτηση του θ ∈ Θ. Τότε, ο Ο.Ι.Ε. για τον έλεγχο υποθέσεων
H0 : θ ≥ θ0 vs θ < θ0
33
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
35. δίνεται από την ελεγχοσυνάρτηση
φ(x) =
1,
n∑
i=1
T(xi) > cα
γ,
n∑
i=1
T(xi) = cα
0,
n∑
i=1
T(xi) < cα
,
όπου cα και γ τέτοια ώστε Eθ0 φ(X) = α.
Σημείωση 16. Τους παραπάνω Ο.Ι.Ε. δε χρειάζεται να τους θυμόμαστε
απ’ έξω. Βγαίνουν όλοι με τη διαισθητική ερμηνεία που δώσαμε παρα-
πάνω (όταν η Q είναι γνησίως φθίνουσα, οι ανισώσεις πηγαίνουν με την
αντίστροφη φορά).
4.4 Έλεγχοι με χρήση γενικευμένου λόγου πι-
θανοφανειών
Υπάρχουν ορισμένες περιπτώσεις ελέγχων, στις οποίες δεν μπορούμε
να εφαρμόσουμε ούτε το Λήμμα Neyman-Pearson ούτε τα αποτελέ-
σματα των Karlin-Rubin. Για παράδειγμα, για έλεγχο της μορφής
H0 : θ = θ0 vs H1 : θ ̸= θ0
δεν μπορούμε να εφαρμόσουμε κάτι από τα παραπάνω για να βρούμε
ομοιόμορφα ισχυρότατο έλεγχο. Σε αυτές τις περιπτώσεις, καταφεύ-
γουμε στο κριτήριο του γενικευμένου λόγου πιθανοφανειών.
Ορισμός 31. Έστω ο έλεγχος H0 : θ ∈ Θ0 vs H1 : θ ∈ Θc
0. Ορίζουμε ως
γενικευμένο λόγο πιθανοφανειών την ποσότητα
λ∗
(x) =
sup
θ∈Θ0
f(x; θ)
sup
θ∈Θ
f(x; θ)
.
34
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
36. Σύμφωνα με το κριτήριο γενικευμένου λόγου πιθανοφανειών, θα απορ-
ρίπτουμε την H0 αν λ∗
(x) < cα, δηλαδή η ελεγχοσυνάρτηση είναι η
φ(x) =
1, λ∗
(x) < cα
γ, λ∗
(x) = cα
0, λ∗
(x) > cα
,
όπου cα και γ ∈ [0, 1) τέτοια ώστε sup
θ∈Θ0
Eθφ(X) = α.
Σημείωση 17. Δίνουμε μία σύντομη ερμηνεία του κριτηρίου.
Ο αριθμητής του λ∗
(x) εκφράζει τη μέγιστη δυνατή πιθανοφάνεια υπό
την ισχύ της μηδενικής υπόθεσης, ενώ ο παρονομαστής εκφράζει τη μέγι-
στη δυνατή πιθανοφάνεια κάτω από το μοντέλο συνολικά (είναι δηλαδή
η πιθανοφάνεια f(x; θ) υπολογισμένη στην εκτίμηση μέγιστης πιθανο-
φάνειας θ = ˆθ(x)). Θέτοντας ως κριτήριο απόρριψης ή μη της H0 τη
συνθήκη λ∗
(x) < cα, αποφασίζουμε εξετάζοντας την ’επίδραση’ του Θ0
σε όλο το δείγμα. Αν η επίδραση του Θ0 είναι σχετικά ’μικρή’, δηλαδή
λ∗
(x) < cα, τότε απορρίπτουμε την H0 έναντι της H1 (δηλαδή η ελεγχο-
συνάρτηση παίρνει την τιμή 1), διαφορετικά αποδεχόμαστε την H0.
Θα ασχοληθούμε, τέλος, με ορισμένους ελέγχους της μορφής
H0 : θ ∈ Θ0 vs H1 : θ ∈ Θc
0
για την κανονική κατανομή, κάνοντας χρήση του γενικευμένου λόγου
πιθανοφανειών. Θα παραθέσουμε τις ελεγχοσυναρτήσεις για κάθε πε-
ρίπτωση και θα εξηγήσουμε για μία από αυτές πώς δουλέψαμε, ώστε
να γίνει κατανοητή η εφαρμογή του κριτηρίου.
Πρόταση 20. Έστω τυχαίο δείγμα X1, ..., Xn ∼ N(µ, σ2
).
(i) Αν το µ είναι άγνωστο και το σ2
= σ2
0 γνωστό, τότε για τον έλεγχο
H0 : µ = µ0 vs H1 : µ ̸= µ0
το κριτήριο γενικευμένου λόγου πιθανοφανειών δίνει
φ(x) =
1, |x − µ0| >
σ0
√
n
zα
2
0, |x − µ0| ≤
σ0
√
n
zα
2
.
35
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
37. (ii) Αν το µ = µ0 είναι γνωστό και το σ2
είναι άγνωστο, τότε για τον
έλεγχο
H0 : σ2
= σ2
0 vs H1 : σ2
̸= σ2
0
το κριτήριο γενικευμένου λόγου πιθανοφανειών δίνει
φ(x) =
1,
n∑
i=1
(xi − µ0)2
< σ2
0χ2
n;1−α
2
´η
n∑
i=1
(xi − µ0)2
> σ2
0χ2
n; α
2
0, σ2
0χ2
n;1−α
2
≤
n∑
i=1
(xi − µ0)2
≤ σ2
0χ2
n; α
2
.
(iii) Αν και το µ και το σ2
είναι άγνωστα, τότε για τον έλεγχο
H0 : µ = µ0 vs H1 : µ ̸= µ0
το κριτήριο γενικευμένου λόγου πιθανοφανειών δίνει
φ(x) =
1, |x − µ0| >
S
√
n
tn−1;α
2
0, |x − µ0| ≤
S
√
n
tn−1;α
2
,
όπου S =
√
1
n−1
n∑
i=1
(xi − x)2 (να σημειωθεί ότι εδώ η H0 δεν είναι απλή,
αφού Θ0 = {(µ0, σ2
) : σ2
> 0}).
(iv) Αν και το µ και το σ2
είναι άγνωστα, τότε για τον έλεγχο
H0 : σ2
= σ2
0 vs H1 : σ2
̸= σ2
0
το κριτήριο γενικευμένου λόγου πιθανοφανειών δίνει
φ(x) =
1,
n∑
i=1
(xi − x)2
< σ2
0χ2
n−1;1−α
2
´η
n∑
i=1
(xi − x)2
> σ2
0χ2
n−1;α
2
0, σ2
0χ2
n−1;1−α
2
≤
n∑
i=1
(xi − x)2
≤ σ2
0χ2
n−1;α
2
.
Θα εξηγήσουμε την πρώτη περίπτωση:
Έστω τυχαίο δείγμα X1, ..., Xn ∼ N(µ, σ2
), όπου το µ είναι άγνωστο και
36
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
38. το σ2
= σ2
0 γνωστό, και έστω ο έλεγχος H0 : µ = µ0 vs H1 : µ ̸= µ0.
Η μηδενική υπόθεση είναι απλή και η εναλλακτική αμφίπλευρη, άρα
δουλεύουμε με γενικευμένο λόγο πιθανοφανειών. Έχουμε ότι
λ∗
(x) =
sup
θ∈Θ0
f(x; θ)
sup
θ∈Θ
f(x; θ)
=
f(x; µ0)
sup
µ∈R
f(x; µ)
,
αφού Θ0 = {µ0} και Θ = R. Για τη σ.π.π. του δείγματος έχουμε ότι
f(x; µ) =
n∏
i=1
f(xi; µ) =
(
1
σ0
√
2π
)n
exp
[
−
1
2σ2
0
n∑
i=1
(xi − µ)2
]
,
οπότε ο αριθμητής γίνεται f(x; µ0) =
(
1
σ0
√
2π
)n
exp
[
−
1
2σ2
0
n∑
i=1
(xi −µ0)2
]
.
Για τον παρονομαστή θα βρούμε την τιμή εκείνη του µ που μεγιστο-
ποιεί την f(x; µ), δηλαδή την εκτίμηση μέγιστης πιθανοφάνειας, ˆµ. Δου-
λεύουμε όπως στην παράγραφο 2.6: λογαριθμίζουμε, παραγωγίζουμε,
μελετάμε το πρόσημο της παραγώγου και βρίσκουμε το ζητούμενο µ:
f(x; µ) =
(
1
σ0
√
2π
)n
exp
[
−
1
2σ2
0
n∑
i=1
(xi − µ)2
]
⇒
logf(x; µ) = log
(
1
σ0
√
2π
)n
−
1
2σ2
0
n∑
i=1
(xi − µ)2
⇒
∂
∂µ
logf(x; µ) =
∂
∂µ
[
−
1
2σ2
0
n∑
i=1
(xi−µ0)2
]
= −
1
2σ2
0
·
∂
∂µ
( n∑
i=1
x2
i − 2µ
n∑
i=1
xi + nµ2
)
⇒
∂
∂µ
logf(x; µ) = −
1
2σ2
0
(
−2
n∑
i=1
xi + 2nµ
)
.
Έχουμε ότι
∂
∂µ
logf(x; µ) > 0 ⇔ µ < x, άρα ο παρονομαστής μεγιστο-
ποιείται για µ = ˆµ = x, οπότε ο γενικευμένος λόγος πιθανοφανειών
γίνεται
λ∗
(x) =
sup
θ∈Θ0
f(x; θ)
sup
θ∈Θ
f(x; θ)
=
f(x; µ0)
f(x; x)
.
37
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
39. Κάνοντας τις πράξεις, βρίσκουμε ότι λ∗
(x) = exp
[
−
n
σ2
0
(x − µ0)2
]
. Σύμ-
φωνα με το κριτήριο γενικευμένου λόγου πιθανοφανειών, έχουμε:
λ∗
(x) < c ⇔ exp
[
−
n
σ2
0
(x−µ0)2
]
⇔ −
n
σ2
0
(x−µ0)2
< logc ⇔
n
σ2
0
(x−µ0)2
> c′
⇔
√
n
σ0
|x − µ0| > cα, άρα παίρνουμε την ελεγχοσυνάρτηση
φ(x) =
1,
√
n
σ0
|x − µ0| > cα
0,
√
n
σ0
|x − µ0| ≤ cα
,
όπου Eµ0 φ(X) = α ⇔ Pµ0
(√
n
σ0
|x − µ0| > cα
)
= α. Υπό την H0 : µ = µ0
ισχύει ότι
X ∼ N
(
µ0,
σ2
0
n
)
⇒
X − µ0
√
σ2
0
n
∼ N(0, 1) ⇒ Z =
√
n
σ0
(
X − µ0
)
∼ N(0, 1),
άρα
Pµ0
(√
n
σ0
|x − µ0| > cα
)
= α ⇔ Pµ0 (|Z| > cα) = α ⇔ cα = zα
2
,
λόγω συμμετρίας της τυποποιημένης κανονικής. Παίρνουμε, λοιπόν,
φ(x) =
1,
√
n
σ0
|x − µ0| > cα
0,
√
n
σ0
|x − µ0| ≤ cα
,
άρα
φ(x) =
1,
√
n
σ0
|x − µ0| > zα
2
0,
√
n
σ0
|x − µ0| ≤ zα
2
,
38
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou
40. δηλαδή, πράγματι
φ(x) =
1, |x − µ0| >
σ0
√
n
zα
2
0, |x − µ0| ≤
σ0
√
n
zα
2
.
Παρατήρηση 4. (!) Παρατηρούμε ότι δεν απορρίπτουμε την H0 αν, και
μόνο αν,
|x − µ0| ≤
σ0
√
n
zα
2
⇔ µ0 ∈
[
x −
σ0
√
n
zα
2
, x +
σ0
√
n
zα
2
]
,
που είναι το 100(1 − α)% διάστημα εμπιστοσύνης για το µ στην περί-
πτωση N(µ, σ2
0).
39
2019 Στατιστική Ι (Μαθηματικό Αθήνας)
Επιμέλεια: Panos Andreou