SlideShare a Scribd company logo
1 of 25
Download to read offline
StudeerSnel wordt niet gesponsord of ondersteund door een hogeschool of universiteit
MS samenvatting boek - 8,4 was my note - Probability and
Statistical Inference
Statistische Modellen voor Communicatieonderzoek (Universiteit van Amsterdam)
StudeerSnel wordt niet gesponsord of ondersteund door een hogeschool of universiteit
MS samenvatting boek - 8,4 was my note - Probability and
Statistical Inference
Statistische Modellen voor Communicatieonderzoek (Universiteit van Amsterdam)
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
MS samenvatting boek
H1
Simulatie: De computer trekt veel random steekproeven uit de populatie.
Wetenschappelijke theorieën streven naar algemene uitspraken (general statements),
oftewel een uitspraak die geldt voor vele situaties.
Inferentiële statistieken bieden technieken voor het doen van uitspraken over een grotere
reeks waarnemingen uit gegevens die zijn verzameld voor een kleinere reeks waarnemingen.
Statistische inferentie: de generalisatie van de in een willekeurige steekproef (random
sample) verzamelde gegevens voor de populatie waaruit de steekproef werd getrokken.
Steekproefruimte (Sampling space): Het verzamelen van alle mogelijke uitkomstscores
- Er kunnen bijvoorbeeld maximaal 10 gele snoepjes in een steekproef zitten. Dan zijn
alle mogelijke uitkomstscores 0-10.
Steekproefstatistiek (Sample statistic): een getal dat een kenmerk van de steekproef
beschrijft. Dit is een random variabele. Hierbij gaat het om de kans waarop een specifieke
steekproef getrokken wordt.
Random variabele: hierbij hangt de score af van een kans.
Steekproefverdeling (Sampling distribution): De verdeling van de uitkomstscores van heel
veel steekproeven.
Kansverdeling (van de steekproefstatistiek)(Probability distribution): Een steekproefruimte
met een waarschijnlijkheid (bijvoorbeeld tussen 0-1) voor elke uitkomst van de
steekproefstatistiek.
Discrete kansverdeling (Discrete probability distribution): Er zijn een beperkt aantal getallen
als uitkomst mogelijk in de kansverdeling.
- Worden meestal gemeten op het nominale of ordinale level.
We kunnen naar kansen verwijzen als een proportie. Nummers tussen de 0-1 (0-100%, ze
worden namelijk gezien als percentages), worden beschouwd als de correcte manier om
kansen uit te drukken.
Verwachte waarde (expected value): het gemiddelde van de steekproefverdeling van een
willekeurige variabele (random variable)(Wanneer er meer steekproeven zijn  Het
gemiddelde van alle steekproeven tezamen).
Een steekproefstatistiek is een zuivere schatting (unbiased estimator) van de
populatiestatistiek als de verwachte waarde (gemiddelde van de steekproefverdeling) gelijk
is aan de populatiestatistiek.
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
- (Downward biased): de schatting te laag maken  Wanneer er twee gele snoepjes in
de steekproef van tien worden gevonden, schatten wij dat er in de populatie van alle
snoepjes ook maar 2 gele snoepjes zijn. Het aantal in de populatie wordt dus
onderschat.
De populatiestatistiek wordt ook wel een parameter genoemd (dus wanneer mensen het
hebben over de populatie, dan hebben ze het over een parameter en andersom).
Een steekproef is representatief voor de populatie als de variabelen in dezelfde steekproef
hetzelfde verdeeld zijn als in de populatie.
- Het trekken van 1 sample is vaak niet representatief, aangezien het door kans kan
verschillen. MAAR, we zouden moeten verwachten dat het wel representatief is, dus
zeggen we dat het in principe representatief is voor de populatie.
Continue variabele (Continuous variable): Er zijn onbeperkt veel getallen als uitkomst
mogelijk. Neem een voorbeeld aan gewicht  Er kunnen veel decimalen aanwezig zijn.
- Wanneer we altijd een nieuwe waarde kunnen bedenken tussen twee waarden in, is
de variabele continue.
Kansdichtheidfunctie (probability density function): Curve die de kansverdeling (gebied
tussen de horizontale as en een curve) weergeeft. Vaak de normale curve/verdeling.
P-waarden: De waarschijnlijkheid van waarden tot (en inclusief) de drempelwaarde of de
drempelwaarde en hoger.
- Linker p-waarde (left-hand p value): De waarschijnlijkheid van waarden tot (en
inclusief) de drempelwaarde.
- Rechter p-waarde (right-hand p value): De waarschijnlijkheid van waarden boven (en
inclusief) de drempelwaarde.
Voor afzonderlijke steekproefstatistieken vertelt de steekproefverdeling ons de
waarschijnlijkheid van individuele steekproefresultaten.
Voor continue steekproefstatistieken vertelt het ons de p-waarde: de kans om een steekproef
te trekken met een uitkomst die ten minste of hoogstens een bepaalde waarde is.
Een steekproefverdeling geeft het gemiddelde van de steekproef weer.
Een steekproevenverdeling geeft het gemiddelde van alle getrokken steekproeven uit de
populatie weer.
H2
Wanneer men alleen data verzamelt voor een enkele steekproef, kan men nog steeds een
steekproefverdeling maken door de volgende drie manieren:
- Bootstrapping
- Exacte benaderingen
- Theoretische schattingen (approximations).
Het krijgen van een steekproefverdeling is nog steeds gebaseerd op het idee van het trekken
van een groot getal van steekproeven.
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
Echter, wanneer we een enkele steekproef trekken uit de populatie, kunnen we daarna een
groot getal van steekproeven trekken uit onze eerste steekproef  Bootstrapping.
Sampling zonder terugleggen: Wanneer we toestaan dat elk geval in de oorspronkelijke
steekproef slechts eenmaal wordt getrokken, dan bevat elke bootstrapsteekproef alle
gevallen van de originele steekproef.
- Als een persoon (willekeurig) wordt gekozen voor onze steeproef, plaatsen we deze
persoon niet terug in de populatie zodat zij of hij opnieuw kan worden gekozen.
Sampling met terugleggen: Wanneer we toestaan dat dezelfde persoon meer dan één keer
gekozen mag worden.
Bootstrap steekproeven worden getrokken met terugleggen vanuit de eerste (originele)
steekproef.
- Echter, in praktijk willen we niet dat dezelfde respondent twee keer aan ons
onderzoek deelneemt. Aangezien, dit geen nieuwe informatie zou geven. Dit kan wel,
zolang de populatie maar veel groter is dan de steekproef.
Wanneer de populatie groot is, is de afname van de waarschijnlijkheid te klein om op enige
wijze relevant te zijn.
- Populatie heeft een miljoen snoepjes, 20% daarvan is geel. Dan is de kans op het
trekken van je eerste gele snoepje 20% (200.000/1.000.000). De kans op het trekken
van je tweede gele snoepje is dan (199.999/999.999) 19,99(etc)% procent. Het
verschil hiertussen is te verwaarlozen.
Belangrijkste beperking voor bootstrap-benadering van steekproefverdeling  Wanneer de
variabelen, die van belang zijn, niet ongeveer hetzelfde zijn als in de populatie, kan de
steekproefverdeling een biased beeld geven, wat een vertekend beeld geeft van de
werkelijke steekproefverdeling.
Een steekproef is waarschijnlijk representatiever voor de populatie als de steekproef op een
willekeurige manier wordt getrokken en als de steekproef groot is.
Het grote voordeel van de bootstrap benadering is dat we een steekproefverdeling voor elke
steekproefstatistiek kunnen krijgen waar we geïnteresseerd in zijn.
- Het is min of meer de enige weg om een steekproefverdeling te krijgen voor het
mediaan van de steekproef.
Een bootstrap steekproef moet net zo groot zijn als de eerste steekproef (initial sample).
Bootstrappen in SPSS:
- Bootstrap, perform bootstrapping aanklikken, het liefst 5000 samples, level %
wijzigen wanneer het moet, bias corrected aanklikken.
- Interpretatie van het resultaat: confidence interval
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
De berekende waarschijnlijkheden van alle mogelijke steekproefstatistieken geen ons een
exacte aanpak (approach) van de steekproefverdeling.
Approximation is een soort schatting, terwijl approach de werkelijke steekproefverdeling
weergeeft.
Een exacte benadering: geeft een lijst en telt alle mogelijke combinaties.
- Dit kan alleen worden gedaan als we werken met discrete of categorische variabelen.
(voor continue (onbeperkte) variabelen kunnen we namelijk niet alle mogelijke
combinaties vermelden).
- Worden als computer-intensief beschouwd: heeft veel cumputing time nodig.
De Fisher-exact test is een voorbeeld van een exacte benadering voor de steekproefverdeling
van de associatie tussen twee categorische variabelen.
Exacte benaderingen SPSS:
- Op de exact knop drukken, daarna op de exact optie drukken, 5 min maximaal.
- Exacte benaderingen zijn nonparametic tests, maar het kan ook een kruistabel zijn.
Daarin chi square aankruisen en cramers V. bij cells  observed en column
aanklikken
- Interpretatie: p value (2-sided) van de fischer-exacte test gebruiken.
Theoretische kansverdelingen (Theoretical probability distributions): wiskundige functies,
worden vaak gebruikt als benadering (approximation) van de steekproefverdeling.
Staartgrenzen (Tail borders): geven de laagste en de hoogste 2,5% van de
steekproefverdeling aan.
Waarschijnlijkheidsdichtheidsfunctie (Probability density function): De normale verdeling is
een wiskundige functie die continue scores koppelt, bijvoorbeeld een steekproefstatistiek
zoals het gemiddelde gewicht in de steekproef, aan p-waarden.
- Gebruiken we graag als een schatting van de steekproefverdeling.
Een theoretische kansverdeling moet condities bevatten die genoeg aansluiten op ideale
omstandigheden  Er zijn hier vuistregels voor gemaakt.
- In het algemeen past een theoretische kansverdeling beter bij de steekproefverdeling
wanneer de steekproef groter is. (Minder belangrijk voor verhoudingen die dicht bij
de 0,5 liggen, maar belangrijker voor verhoudingen die verder weg van de 0,5 liggen).
De vuistregel voor het gebruik van de normale verdeling als de steekproefverdeling van een
steekproefproportie, combineert de twee aspecten door ze te vermenigvuldigen en te eisen
dat het resulterende product groter is dan vijf.
- Als de kans op het tekenen van een geel snoepje 0,2 is en onze steekproefgrootte 30,
dan is het product 0,2 X 30 = 6.
De vuistregels met betrekking tot de minimale grootte van de steekproef worden in de toets
weergegeven!
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
Naast de normale verdeling zijn er verschillende andere theoretische kansverdelingen:
- Binomiale verdeling: voor een verhouding (met dichotome variabelen).
- T-verdeling: voor 1 of 2 steekproefgemiddelden, regressiecoëfficiënten en
correlatiecoëfficiënten.
- F-verdeling: voor het vergelijken van varianties en vergelijkingsmiddelen voor drie of
meer groepen (variantieanalyse, ANOVA)
- Chi-kwadraatverdeling voor frequentietabellen en noodtabellen.
In bepaalde situaties weten we niet wat de populatieverdeling normaal is, maar dan moeten
we dit gewoon aannemen. Soms moeten we veronderstellingen maken wanneer we
beslissen om een theoretische kansverdeling uit te voeren.
Gemiddelde verschil: Wanneer je het gemiddelde neemt van twee aparte variabelen
(statistisch onafhankelijk) en daar een gemiddeld verschil van wilt weten, moet je de twee
gemiddeldes van de variabelen van elkaar aftrekken  2,76-2,82 = -0,06
Wanneer de tweede steekproef wordt vastgesteld als de eerste steekproef al getrokken is,
zijn de steekproeven statistisch afhankelijk (vergelijking van snoepjes voor en nadat ze
verkleurd zijn).  paired samples
Onafhankelijke steekproef: binnen een variabele twee variabelen met elkaar willen
vergelijken (vergelijking tussen man en vrouw)(Twee losse steekproeven).
Afhankelijke steekproef: Twee variabelen die je met elkaar vergelijkt (voor en na meestal). Bij
dezelfde personen een voor- en nameting doen (1 steekproef).
Theoretische approximation SPSS:
- Wanneer er niet aan de voorwaarden van een theoretische benadering wordt
voldaan, wordt er of automatisch een exacte test uitgevoerd, of moet je zelf
bootstrapping toepassen.
Wanneer gebruiken we welke optie?
- Als niet aan de voorwaarden voor het gebruik van een theoretische kansverdeling
wordt voldaan, gebruiken we bootstrapping of een exacte aanpak.
- We gebruiken bootstrapping als SPSS geen test heeft voor de statistiek waarin we
geïnteresseerd zijn (bv: mediaanwaarde of de standaardafwijking van een variabele.
H3
Populatie waarde (population value): parameter of de echte waarde (true value).
Puntschatting (Point estimate): Wanneer je maar één getal hebt, oftewel maar één
steekproef hebt uitgevoerd, gebruik je een puntschatting met dat ene getal dat je hebt.
Interval schatting (Interval estimate): de schatting tussen welke waarde de normale verdeling
valt.
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
- Een populaire proportie is 95%. Dus we willen de grenswaarden te weten komen die
95% includeren van de samples die het dichtst tegen het gemiddelde van de
populatie aan zitten (betrouwbaarheidsinterval).
De wijdte van de geschatte interval representeert de precisie van onze schatting. Hoe wijder
de interval, hoe minder precies onze schatting.
Er zijn verschillende manieren om de precisie van ons intervalschatting te verhogen:
- Verminder de betrouwbaarheid van onze ‘correcte’ schatting, maar deze methode is
niet bruikbaar/handig omdat we onze betrouwbaarheid opofferen.
- Door de steekproefgrootte te verhogen. Als we de steekproef vergroten krijgen we
een beter idee van het gemiddelde gewicht in de populatie (geeft meer informatie).
De pijl die bij een enkele steekproef het verschil aangeeft tussen het werkelijke gemiddelde
en het populatiegemiddelde, geeft de standaarddeviatie aan.
Standaardfout (Standard error): De afwijking van het gemiddelde in de
steekproevenverdeling (zegt iets over de populatie). De puntschalingfout van de verdeling.
- Hoe kleiner de standaardfout, hoe meer de steekproefstatistiek waardes gelijk staan
aan de echte populatiewaarde en hoe preciezer onze interval schatting is.
o Het is simpel om kleinere standaardfouten te krijgen  vergroot de
steekproefgrootte.
In de praktijk is het echter tijd-consumerend en duur om een grote steekproef te trekken.
De standaardfout kan ook afhankelijk zijn van andere factoren, zoals variatie in de
populatiescores.
In theoretische kansverdelingen, zoals de normale verdeling, staat het percentage van
steekproeven in relatie tot de standaardfout  als we de standaardfout weten, weten we de
interval waarin de 95% betrouwbaarheidsinterval zich bevindt.
We standaardiseren de steekproefverdeling, zodat verschillende variabelen met
verschillende meetniveaus met elkaar te kunnen vergelijken.
- Het gemiddelde van de nieuwe gestandaardiseerde variabele is altijd 0.
Gestandaardiseerde normale verdeling/z-verdeling (Standard-normal distribution/z
distribution): Bij deze verdeling is er een z-waarde de de grens aangeeft tussen de top 2,5%
en de onderste 97,5% van elke steekproef.
- Deze z-waarde is 1,96/-1,96 (zkrit waarde).
Kritische waarde (Critical value): de zkrit waarde (gestandaardiseerd).
Grenzen betrouwbaarheidsinterval (onder/boven): M (uit de steekproef) -/+ zkrit (1,96) X SE
(standaardfout).
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
Münchhausen probleem: we moeten het populatiegemiddelde weten om het
populatiegemiddelde te kunnen schatten.
- Oplossing: we selecteren een hoop denkbeeldige populatiegemiddeldes. Voor elk
denkbeeldige populatiegemiddelde, berekenen we de interval waarin het
steekproefgemiddelde verwacht wordt om te vallen. Als volgende stap checken we of
het gemiddelde van de steekproef die we werkelijk hebben in deze interval valt  if
yes, conclusie: het denkbeeldige populatiegemiddelde staat niet haaks op de
steekproef die we hebben getrokken.
De parameter is geen random variabele, omdat het niet beïnvloed wordt door de random
steekproef die we trekken.
De betrouwbaarheidsinterval is wel een random variabele, want deze is afhankelijk van
steekproef die we trekken.
De breedte van de betrouwbaarheidsinterval: kritische waarde X de standaardfout
We schatten de steekproefverdeling met een theoretische kansverdeling. De kritieke waardes
en standaarderror worden hierbij gebruikt om de betrouwbaarheidsinterval te berekenen.
Er zijn ook theoretische kansverdelingen die niet werken met een standaardfout (F-
distribution/chi-squared distrubtion). Hierbij moeten we bootstrapping gebruiken om de
betrouwbaarheidsinterval te krijgen.
Percentielbenadering (Percentile approach): we kunnen de waarden nemen die de onderste
en bovenste 2,5% scheiden van de 95% als betrouwbaarheidsinterval.
Exacte benaderingen met betrekking tot de steekproefverdeling rapporteren meestal alleen
de p-waarde, niet de betrouwbaarheidsintervallen.
Betrouwbaarheidsintervallen in SPSS:
- Opties, confidence interval percentage veranderen (zo nodig).
- Bij ANOVA, post hoc test Bonferroni, options, significance level naar 0,05% (95%).
- Regressieanalyse: statistics, confidence interval aanvinken.
- Correlatie: is geen optie voor confidence interval, maar met bootstrapping kan je
deze krijgen.
Wanneer je steekproef groter wordt, dan wordt de steekproefverdeling langer en minder
breed. De standaardfout wordt hierdoor kleiner en de betrouwbaarheidsinterval ook
(nauwkeurig).
Het gemiddelde van de standaardverdeling is altijd 0.
H4
De onderzoekshypothese moet worden vertaald in statistische hypothesen over een
populatiewaarde (parameter): een nulhypothese en een alternatieve hypothese.
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
Schatting is één van de twee types van inferentiële statistiek. De andere is de nulhypothese
testing.
Hypothese testing sluit meer aan bij de beeldvorming van wetenschappelijke vooruitgang.
Het vereist van de onderzoeker om een verwachting te formuleren over de populatie
(hypothese).
Een statistische test bepaalt wanneer een uitspraak over een populatie aannemelijk is,
gegeven de steekproef die uit deze populatie is getrokken.
We hebben verschillende ‘ingrediënten’ nodig voor een statistische test:
- Een verklaring over een bevolking.
- Een criterium om te beslissen of de verklaring voldoende aannemelijk is.
- Een steekproef van de bevolking die informatie over de verklaring versterkt.
- Een waarschijnlijkheid voor de steekproef waaruit blijkt hoe plausibel de stelling is.
Statistische hypothese: een hypothese die verwijst naar een statistiek in de populatie
(bijvoorbeeld populatiegemiddelde).
De nulhypothese geeft één waarde aan voor een populatiestatistiek.
Significantieniveau: de drempelwaarde voor de betrouwbaarheid van de steekproef (95%
betrouwbaarheidsinterval, 5% dus).
- Deze wordt aangegeven door de letter alpha (α).
- De nulhypothese wordt verworpen als de steekproef een van de vijf procent meest
onwaarschijnlijke steekproeven is.
Er kan alleen een steekproefverdeling voor de nulhypothese geconstrueerd worden, als de
hypothese één waarde voor de populatiestatistiek aangeeft.
Het afwijzen van de nulhypothese bewijst niet dat deze fout is. Er kunnen bepaalde fouten
voorkomen.
- Type 1 fout: een nulhypothese verwerpen die echt waar is.
- Type 2 fout: een foute nulhypothese aannemen/niet verwerpen.
De kans dat er een type 1 fout gemaakt wordt, is 5%, oftewel het significantieniveau.
P-waarde: de waarschijnlijkheid in de veronderstelling, dat de nulhypothese waar is. Het is
dus een voorwaardelijke kans.
- Als de p-waarde laag is (0,05 en lager), moet de nulhypothese gaan.
Statistische hypotheses komen in paren: een nulhypothese en een alternatieve hypothese.
Alternatieve hypotheses omvatten alle situaties die niet onder nulhypothese vallen.
Nilhypothese: Wanneer het gemiddelde in de populatie verwacht is om 0 te zijn, dit kan
overigens als enige door spss verwerkt worden, dan is de hypothese een nilhypothese.
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
Nulhypotheses kunnen ook meerdere waarden in de hypothese vermelden (bijvoorbeeld 5,5
of hoger). Wanneer er zo’n hypothese voorkomt, kan er een eenzijdige of tweezijdige test
toegepast worden.
- Deze waarden moeten alleen meegenomen worden in de hypothese als het
daadwerkelijk belangrijk is.
Linkszijdige en rechtszijdige (éénzijdige) toetsen kunnen alleen toegepast worden, wanneer
er verwacht wordt dat een waarde boven of onder het populatiegemiddelde in de
steekproefverdeling terecht komt.
- In een linkszijdige test (eenzijdig), kunnen hoge waarden, de nulhypothese niet
verwerpen. Hierbij zit de significantie waarde dus aan de linkerkant (5% ipv 2,5% aan
iedere kant)
- Hetzelfde geldt voor een rechtszijdige test, maar dan andersom.
Het verschilt tussen éénzijdige en tweezijdige test is alleen nuttig, als we een statistiek
toetsen aan een bepaalde waarde of als we het verschil tussen twee groepen testen.
- We kunnen geen zinvolle eenzijdige nulhypothese formuleren als we drie of meer
groepen vergelijken.
Om de tweezijdige p-waarde te krijgen, kunnen we de eenzijdige p-waarde gewoon
verdubbelen (2*p).
- Om een eenzijdige p-waarde te krijgen, kunnen we de tweezijdige p-waarde ook
delen door 2.
Teststatistiek: theoretische kansverdeling waartoe deze behoort:
- Z voor standaard-normaal of z-verdeling.
- T voor de t-verdeling.
- F voor de F-verdeling.
- Chi-kwadraat voor de chi-kwadraat distributie.
Teststatistiek standaardiseert min of meer het verschil tussen de steekproefstatistiek en de
populatiewaarde die we volgens de nulhypothese verwachten.
Teststatistiek is 0, wanneer de steekproefuitkomst gelijk is aan de veronderstelde
populatiewaarde.
Hoe groter het verschil tussen de waargenomen waarde (steekproefuitkomst) en de
verwachte waarde (hypothetische populatiewaarde), hoe extremer de waarde van de
teststatistiek (F/T/Chi), hoe waarschijnlijker het is dat de nulhypothese verworpen wordt.
Waarschijnlijkheidsverdelingen, anders dan de standaardnormale verdeling, hebben geen
vaste kritische waarden. Deze hangen af van de vrijheidsgraden (df). (niet belangrijk voor de
toets).
- Df wel vermelden bij apa!
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
Bij een betrouwbaarheidsinterval, betekent genoeg plausibel, dat onze waargenomen
steekproefuitkomst, tot de steekproefuitkomst behoort die het dichtst bij de
populatiewaarde liggen.
Een betrouwbaarheidsinterval van 95% bevat alle populatiewaarden waarvan we kunnen
veronderstellen dat onze steekproefuitkomst niet statistisch significant is.
- De hypothetische waarde kan te hoog of te laag zijn voor het
betrouwbaarheidsinterval, dus een hypothesetest met een betrouwbaarheidsinterval
is tweezijdig.
Bootstrapping creëert een empirische steekproefverdeling: veel steekproeven met een
mediaan berekend voor elke steekproef (met betrouwbaarheidsinterval zo nodig).
Het testen van een nulhypothese bevat verschillende stappen:
- Het specificeren van de statistische hypotheses, dit vereist het kiezen van de juiste
statistiek voor het testen van de hypothese en het kiezen tussen een eenzijdige of
tweezijdige test indien van toepassing.
- Het selecteren van het significantieniveau van de toets, we gaan bijna altijd voor de
0,05 als significantieniveau.
- Selecteren hoe de steekproefverdeling gecreëerd wordt, maak je gebruik van
bootstrapping, een exacte benadering of een theoretische
waarschijnlijkheidsdistributie?
- Het uitvoeren van de test, laat de statistische software de p-waarde berekenen.
- Beslissing maken met betrekking tot de nulhypothese
- Het rapporteren van de resultaten.
Zorg ervoor dat je de lezer vertelt over wie of wat de test gaat:
- Wat is de populatie die je onderzoekt.
- Wat zijn de variabelen
- Wat zijn de waarden van de relevante steekproefstatistiek.
- Welke vergelijkingen maak je.
- Zijn de resultaten statistisch significant, zo ja, wat zijn de schattingen voor de
populatie.
- Als de resultaten significant zijn, hoe groot zijn de verschillen/associaties
Het belangrijkste onderscheid is tussen dichotomieën (twee groepen) en categorische
groepen (drie of meer groepen) en numerieke variabelen.
Bij een dichotomie, voer je een binominale test uit.
Bij een categorische variabele met 3 of meer categorieën, voer je een chi-square test uit.
- Wanneer de ware proportie aanwezig is, dit invoegen in spss op volgorde van 1 naar
de rest (deze test wordt ook vaak gebruikt wanneer de populatieproporties bekend
zijn).
Bij een numerieke variabele, voer je een one-sample t-test uit.
De kans om een echte nulhypothese niet af te wijzen is 0,95, dus de kans om twee echte
nulhypotheses niet af te wijzen is 0,95*0,95.
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
- Het risico van het afwijzen van ten minste één echte nulhypothese in twee test is 1-
0,9025.
Kanskapitalisatie: Je verwerpt de nulhypothese te snel, oftewel je neemt aan dat je resultaat
significant is. Dit gebeurt vaak in een variantieanalyse en kan voorkomen worden door de
bonferroni correctie toe te passen.
Bonferroni correctie: dit is een grove correctie, die niet helemaal nauwkeurig is. Het heeft
echter een eenvoudige logica die direct verband houdt met het probleem van
kanskapitalisatie (deelt p-waarde door het aantal categorieën  meer reële kans op een
eerlijk resultaat).
Er hoeft geen correctie toegepast te worden, als we vooraf een hypothese specificeren over
de twee groepen die we verwachten dat verschillen.
- Of we kunnen de variantieanalyse skippen en kunnen door gaan naar de t-test.
SPSS chi kwadraat toets: non parametic tests  chi square  alles op volgorde van 1-4
invoeren (wat bekend is in de populatie).
SPSS binominale toets: hierbij test je een proportie, dus als je wordt gevraagd naar een
antwoordmogelijkheid (ja bv) dan doe je 1-percentage. non-parametic tests  binominal
Bij cut point moet je 1 invullen (dan worden 1 en alle waarden onder 1 getest).
SPSS one-sample t-test: hierbij vul je het verwachte gemiddelde (getal) in de populatie in bij
test-value
Om de nulhypothese te testen kijk je niet naar de p-waarde. Deze is minder belangrijk dan de
betrouwbaarheidsinterval. Als de p-waarde niet significant is, maar de verwachte buiten de
betrouwbaarheidsinterval valt, dan is het resultaat alsnog statistisch significant.
Wanneer een dataset te vaak wordt gebruikt voor verschillende h0’s is er een grotere kans op
het krijgen van een type 1 fout. Er komen dan namelijk veel significante resultaten.
H5
Wanneer er non-respons verwacht wordt, moeten er van tevoren meerdere participanten
gerecruteerd worden.
Een test op een grotere steekproef is vaker statistisch significant.
Effectgrootte: de grootte van het verschil tussen onze steekproefuitkomst en de
veronderstelde populatiewaarden.
De waarschijnlijkheid van het verwerpen van een nulhypothese, hangt af van de
steekproefgrootte en de effectgrootte.
- Een grotere steekproef maakt de statistische test meer gevoelig. De test zal daardoor
makkelijker statistisch significant zijn voor kleinere effectgroottes.
- Een grotere effectgrootte leveren gemakkelijker statistisch significante resultaten op
waardoor er een kleinere steekproef vereist is.
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
Praktische relevantie: een bepaald niveau van verbetering is klinisch, oftewel in het
dagelijkse praktische leven, belangrijk.
- Er is een belangrijk verschil tussen praktische relevantie en statistische significantie.
Praktische relevantie is dat waar we geïnteresseerd in zijn. En de statistische
significantie is slechts een hulpmiddel om praktisch relevante effecten te signaleren.
Statistische significantie is dus alleen belangrijk als het praktische relevantie aangeeft.
Ongestandaardiseerde effectgrootte: het verschil tussen onze steekproefuitkomst en de
hypothetische populatie waarde.
Cohens’ d is de gestandaardiseerde effectgrootte voor t-tests. Deze moeten wij zelf
berekenen aan de hand van de formules die op de toets worden weergegeven (Cohen’s d is
altijd positief, als er een negatief resultaat uitkomt, moet je deze positief maken).
Gestandaardiseerde effectgroottes maken het mogelijk om bepaalde waardes met elkaar te
vergelijken, ook al zijn zij verschillend van elkaar (hierbij krijg je een getal tussen 0-1. Dat is
makkelijker om te interpreteren).
Vuistregeles Cohen’s d:
- 0,2: zwak effect
- 0,5: middelmatig effect
- 0,8: sterk effect.
Associatiematen zoals de Pearsons’s correlatie of Spearman’s Rho correlatiecoëfficiënt geve
de effectgrootte als de nulhypothese geen correlatie verwacht inde populatie.
- Effectgroote is ook 0 volgens de standaard nulhypothese die gebruikt wordt voor
verschillende tests. Daardoor kan men de gestandaardiseerde regressiecoëfficiënt
Beta (b*), R2 (regressieanalyse) en eta2 (variantieanalyse) als gestandaardiseerde
effectgroottes gebruiken.
Wanneer effecten gestandaardiseerd zijn, kan men ze interpreteren volgens de vuistregels
die ook voor Cohens’ d gelden.
- Het teken -/+ wordt genegeerd wanneer men de sterkte van het effect interpreteert.
Als we de effectgrootte in de steekproef, waarvoor we een statistisch significant resultaat
willen, weten kunnen we de minimum steekproefgrootte weten voor een statistisch
significant resultaat  schuiven met model
Steekproefgrootte beïnvloedt de teststatistiek. Hoe groter de steekproef hoe groter de
teststatistiek.
Effectgrootte beïnvloedt de teststatistiek. Hoe groter de effectgrootte, hoe groter de
teststatistiek.
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
Power: de kans van het NIET maken van een type 2 fout (blauw).
Type 2 fout: het niet verwerpen van een foute nulhypothese (geel).
Om te kijken hoe groot je steekproef moet zijn, moet je kijken naar het significantieniveau,
de effectgrootte en de test power. Deze zijn allemaal gerelateerd.
Vuistregel power: er wordt gestreefd naar ten minste 80% kans op het afwijzen van een foute
nulhypothese.
- Power wordt op een lager niveau ingesteld, omdat de nulhypothese meestal wordt
verondersteld als weerspiegeling van onze beste kennis over de wereld.
Effectgrootte is belangrijker dan statistische significantie, omdat effectgrootte betrekking
heeft op praktische relevantie.
Bij een kruistabel is het minimaal aantal respondenten wat je nodig hebt, alle cellen in de
kruistabel x 5. (3 bij 3 = 3*3 = 9 cellen, 9*5 = 45 respondenten).
Hoe groter je steekproef is, hoe makkelijker het is om, om ook kleine effecten te vinden (deze
kunnen namelijk ook praktisch relevant zijn).
- Grotere effecten zijn minder interessant dan kleine effecten.
Ook bij niet significante resultaten moet je de effectgrootte rapporteren.
H6
Er is 1 simpele regel: als de waarde van de nulhypothese binnen de
betrouwbaarheidsinterval ligt, mag de nulhypothese niet verworpen worden.
Als de betrouwbaarheidsinterval breed/wijd is, zijn we niet zeker over de echte waarde van
populatie. Als de nulhypothese in een brede betrouwbaarheidsinterval dichtbij de grenzen
ligt mogen we deze niet verwerpen, maar is het plausibel dat de populatiewaarde hoger of
lager kan zijn dan de hypothetische waarde ( vermelden!).
Een meta-analyse is een goed voorbeeld van het combineren van onderzoek om ons begrip
te verbreden.
Een andere methode dat voortbouwt op voorgaand onderzoek is replicatie. Dit is het her
uitvoeren van onderzoek om te kijken of de uitkomsten nu bijvoorbeeld nog wel gelden.
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
Bayesian inference: meer radicale manier van het includeren van voorgaand onderzoek. Deze
manier beschouwt de steekproef die we trekken als een middel om de kennis bij te werken
die we al hebben of denken te hebben over de bevolking.
Statistische inferentie wordt alleen toegepast op gegevens die niet willekeurig zijn getrokken
uit een waarneembare populatie.
- Statistische inferentie op basis van een willekeurige steekproef is de meest
overtuigende vorm van inferentie, omdat we de aard van onzekerheid in de gegevens
kennen, namelijk toevalsvariatie.
We werken dus met een waarneembare populatie en we weten hoe verandering onze
steekproef beïnvloedt als we een random steekproef trekken.
Theoretische populatie: Hierbij wordt een bredere populatie voorgesteld in plaats van een
daadwerkelijke steekproef te nemen van een waarneembare populatie.
- Je moet motiveren waarom de gebruikte dataset kan worden beschouwd als een
willekeurige steekproef uit de theoretische populatie.
Het is zeer onwaarschijnlijk dat de omstandigheden en persoonlijke kenmerken elke keer
hetzelfde zijn als het proces aan het werk is. Dat kan een complicatie zijn  variatie in
uitkomsten.
De meeste willekeurige steekproeven hebben een normale of t- distributed
steekproefverdeling (bell-shaped probability model).
- Zo’n bell-shaped model is een plausibele kandidaat voor het vastleggen van de
effecten van vele onafhankelijke oorzaken op numerieke uitkomsten.
H7
Met twee of meerdere factoren, kunnen we een interactie-effect hebben als aansluiting tot
de hoofdeffecten.
Interactie-effect: het gezamenlijke effect van twee of meer factoren op de afhankelijke
variabele.
Moderatie: een variabele kan verschillende effecten hebben voor verschillende groepen.
Deze moderator verandert het effect van de voorspeller op de afhankelijke variabele.
Celebrity endorsement theory: beroemdheden die publiekelijk verklaren dat zij een product
of kandidaat of oorzaak prefereren, overtuigen consumenten om het product, de kandidaat
of de oorzaak te ondersteunen.
Voor genuanceerde resultaten willen we meestal een numerieke afhankelijke variabele.
De variantieanalyse is ontwikkeld voor een analyse van random analyses, waarbij effecten
geïnterpreteerd kunnen worden als causale effecten.
- Hierbij zijn we geïnteresseerd in de verschillen tussen bepaalde groepen.
Dus als het over een moderatie-effect gaat, moeten we vaak de variantieanalyse gebruiken.
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
De effectgrootte van een varaintieanalyse is eta2. Deze verwijst naar de algemene verschillen
tussen groepsgemiddelden.
Eta2: effectgrootte die het deel van de variantie in de afhankelijke variabele geeft, verklaard
of voorspeld door de groepsvariabele. Deze is informatief nauwkeurig.
Eta: effectgrootte die in meer algemene termen geclassificeerd is (Wortel van eta2 nemen).
Vuistregels van eta:
- 0,1 = klein of zwak effect
- 0,3 = middelgroot of matig effect
- 0,5 = grote of sterke effecten.
Gestippelde zwarte lijnen geven de afstand tussen
de uitkomstscores en het grote gemiddelde weer.
Bij gemiddeldes voorspellen met betrekking tot
verschillende groepen, voorspellen we dat de
bereidheid van een deelnemer gelijk is aan het
groepsgemiddelde waartoe de deelnemer behoort.
- Als deze groep niet bekend (of als hier geen
rekening mee wordt gehouden) is nemen we
het grote gemiddelde als streefpunt.
De compleet zwarte pijl geeft het verschil tussen het algemene gemiddelde en het
groepsgemiddelde weer (variantie tussen groepen).
Door zo’n grafiek kunnen we de varianties in uitkomstscores voorspellen  als er geen
verschil is tussen de groepsgemiddelden, is de variantie tussen groepen 0.
Variantie binnen de groepen (within-groups variance): dit kunnen we niet voorspellen met
zo’n grafiek. Het wordt in SPSS soms aangeduid als ERROR
Variantie tussen de groepen (between-groups variance): dit kunnen we dus wel voorspellen
aan de hand van de grafiek. Het verschil tussen de groepen.
- Deze kunnen we niet als enige gebruiken als teststatistiek, omdat we rekening
moeten houden met kansverschillen tussen steekproefgemiddelden (ANOVA).
Er zijn twee belangrijke aannames dat we moeten maken als we de F-verdeling in ANOVA
gaan maken:
- Onafhankelijke steekproeven (dus geen paired t-test samples (voor en na bvb)).
- Homogene populatie variantie.
o Hierbij wordt er aangenomen dat de groepen van dezelfde populatie
getrokken zijn.
o Levene’s F-test  wanneer de nulhypothese niet verworpen wordt, nemen
we aan dat de populatie homogeen is.
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
o De groepen zijn homogeen, wanneer de grootste groep minder dan 10%
verschilt van de kleinste groep.
Variantieanalyse levert geen betrouwbaarheidsintervallen voor groepsgemiddelden op.
We moeten groepen 1 voor 1 met elkaar vergelijken in een variantieanalyse om te kunnen
constateren of er duidelijke verschillen tussen groepen zijn  Post-hoc toets.
Variantieanalyse bestaat uit twee stappen:
- We testen de algemene h0 dat alle groepen gelijke gemiddelde scores hebben op de
afhankelijke variabele in de populatie  als we deze h0 niet kunnen verwerpen,
hebben we te weinig bewijs om de verschillen tussen deze groepen te constateren
- Als hij wel significant is, passen we een onafhankelijke t-toets met de bonferroni test
toe op elk aar groepen om te zien welke groepen aanzienlijk verschillende middelen
hebben.
Het kan ook voorkomen dat geen 1 van de vergelijkingen significant is, dat kan komen omdat
de p-waarde dichtbij 0,5 ligt/omdat de bonferroni toets te sterk is/omdat de steekproef te
klein is.
Een significant resultaat vertelt ons dat we er vertrouwen in kunnen hebben dat ten minste
twee groepsgemiddeldes verschillen in de populatie.
SPSS variantieanalyse:
- Oneway ANOVA
- Post hoc  Bonferroni
- Options  descriptives, homogenety of variance test en means plot
Bivariate analyse: het rekening houden met twee variabelen: een onafhankelijke en een
afhankelijke variabele.
Tweewegsvariantieanalyse: een analyse waarbij twee factoren gebruikt worden.
- Je hebt ook een driewegsvariantieanalyse met 3 factoren
Het ontwerp hangt af van de hoeveelheid niveaus waaruit de twee factoren bestaan.
Wanneer er 1 factor uit drie niveaus bestaat en de andere uit 2, dan wordt het een 3*2
ontwerp.
Wanneer de lijnen bij de verschillende niveaus van een factor niet
op 1 lijn liggen, is er een moderatie aanwezig.
Het effect in de ene groep (het ene niveau) kan het effect in de
andere groep compenseren als het ongeveer even sterk is, maar
in de tegenovergestelde richting  bij de afbeelding hiernaast is
er dus netto geen gemiddeld verschil, dit betekent echter niet dat
er geen moderatie-effect is en dat deze niet sterk is.
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
De h0 van een interactie-effect met betrekking tot de F-test, stelt dat er in de populatie geen
gemiddeld verschil is tussen de verschillende groepen met betrekking tot de uitkomst van
het effect van de onafhankelijke variabele op de afhankelijke variabele.
Interactie van de hogere orde: moderatie tussen drie of meer factoren (mogen vermeden
worden).
SPSS ANOVA tweewegs:
- General lineair model  Univariate
- Plots  horizontal = onafhankelijke variabele  seperate lines is moderator  ADD
- Post hoc test  alleen onafhankelijke variabele en bonferroni
- Options  descriptives en homogenetic test.
Rapporteren van de ANOVA analyse:
- Vermelden dat je een variantieanalyse heb gebruikt en welke dan (oneway/twoway).
- Het testresultaat voor elk effect geven: F(df1(tussengroeps),df2(binnengroeps/error))
= f-waarde, p-waarde, eta2 (between-groups sum of squares/total sum of squares).
- Elk effect wat de moeite waard is, moet geïnterpreteerd worden (gemiddelde verschil
met het betrouwbaarheidsinterval en de p-waarde (post hoc tests)).
- Er moet speciale aandacht aan het interactie-effect besteed worden.
- Rapporteer het wanneer homogeniteit geschonden/ongeschonden blijft
H8
Formule: Y = constant + b1*exposure + b2*variabele + (tot alle variabelen inclusief
moderators met elkaar vergeleken zijn) + e (officieel)
- Maar: Als we afhankelijke variabelen willen voorspellen negeren we de foutterm, dus
meestal zonder error.
Eenvoudige regressievergelijkingen: regressievergelijkingen met slechts één voorspeller
Constante: de voorspelde houding als de persoon nul scoort op alle afhankelijke variabelen.
De niet gestandaardiseerde regressiecoëfficient (b) vertegenwoordigt het voorspelde verschil
in de afhankelijke variabele voor een verschil van één eenheid in de onafhankelijke variabele
(oftewel effectgrootte).
De interpretatie van effectgrootte uit H5 geldt ook voor deze effectgroottes.
In een regressieanalsye kunnen numerieke, categorische en dichotomieën gebruikt worden.
Dus als de variabele nog niet in 0-1 gecodeerd is, moet je dat zelf doen.
- De interpretatie van een dichotome variabele
- Categorische variabelen moeten ook veranderd worden in een reeks dichotomieën.
Daarvan moet er bij elke vergelijking maar 1 variabele met 1 gecodeerd (degene waar
je naar kijkt) worden en de rest met 0.
De categorie zonder dummyvariabele is de referentiegroep (het directe effect geldt dus voor
de referentiegroep (exposure in het voorbeeld)).
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
Van welke variabele je het gemiddelde verschil wilt weten met betrekking tot de
referentiegroep, deze moet je als 1 coderen.
Wanneer een groep ons het meeste interesseert moet deze als dummyvariabele gemaakt
worden.
Multicollinear: wanneer het schattingsproces een dummyvariabele wordt laten vallen.
Een betrouwbaarheidsinterval geeft ons grenzen voor de populatiewaarde van de niet-
gestandaardiseerde regressiecoëfficiënt.
- H0 hierbij is: de ongestandaardiseerde regressiecoëfficiënt is 0 in de populatie.
Twee belangrijkste veronderstellingen:
- De waarnemingen zijn onafhankelijk
- Homoscedasticiteit: De waarnemingen zijn gelijk verdeeld (U vormige grafiek = niet
goed).
o Wanneer deze worden geschonden kunnen we geen regressieanalyse
uitvoeren.
Een histogram met een toegevoegde normale curve helpt ons om de verdeing van de
residuen te evalueren (plots  Y = ZRESID X = ZPRRED)
- Wanneer niet normaal verdeeld  concluderen dat de veronderstelling niet
aannemelijk is en waarschuwen dat de resultaten bevooroordeeld kunnen zijn.
Er wordt ook een lineair effect verwacht (wordt telkens met hetzelfde getal verhoogd).
Wanneer de N in de grafiek niet op alle punten gelijk is, is ons model beter in het voorspellen
van bvb lage waarden, als hoge waarden. (laag meer, hoog minder).
In een regressieanalyse moet je 1 numerieke afhankelijke variabele hebben en ten minste 1
numerieke onafhankelijke variabele.
Wanneer er moderaties gemaakt worden door middel van compute, moeten deze ook in de
formule opgenomen worden.
H0 van de regressieanalyse: in de populatie is het effect 0.
H0 van interactie-effect in regressieanalyse: in de populatie is het interactie-effect 0.
Wanneer er een categorische moderator is, moeten we om interactie-variabelen
te maken, voorspeller met elk van de dummyvariabelen vermenigvuldigen. 
Het effect dat we schatten, moet ons vertellen of hoge waarden op de
voorspeller samengaan met hogere (of lagere) waarden op de afhankelijke
variabele of lage waarden op de voorspeller.
Common support: Als de groepen van de moderator een even grote range
hebben op de voorspeller.
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
- Dit is acceptabel, wanneer observaties zijn over het hele bereik van de voorspeler.
Voorspeller: onafhankelijke
variabele die momenteel centraal
staat in de analyse.
Covariate: onafhankelijke
variabele die momenteel niet
centraal staat in onze analyse.
Y= −0.087+−0.118∗exposure+1.982∗smoker+−0.329∗exposure∗smoker+0.152∗contact
Nadat je de formule hebt opgesteld, moet je interessante waarden selecteren voor elke
onafhankelijke variabele, behalve de voorspeller.
Y= −0.087+−0.118∗exposure+1.982∗smoker+−0.329∗exposure∗smoker+0.152∗contact
Y= −0.087+−0.118∗exposure+1.982∗0+−0.329∗exposure∗0+0.152∗5.091
Y= −0.087+−0.118∗exposure+0.772attitude= 0.685+−0.118∗exposure
Wanneer je naar smoker wilt kijken, wordt smoker met 1 gecodeerd:
Y = −0.087+−0.118∗exposure+1.982∗1 +−0.329∗exposure∗1+0.152∗5.091
Y = −0.087+(−0.118 + -0.329)∗exposure+1.982+0.152∗5.091
Y = −0.087+-0,447∗exposure+1.982+0,774
Y = 3.442+-0,447∗exposure
Wanneer je naar non-smoker wilt kijken, wordt deze met 1 gecodeerd, dus de rest met 0.
Y = −0.087+−0.118∗exposure+1.982∗0 +−0.329∗exposure∗0+0.152∗5.091
Y = -0.087+0.118*exposure+0.152*5.091
Y = 3.803+0.118*exposure
Die 5,091 is het gemiddelde van contact (descriptives), omdat deze variabele (numeriek ipv
categorisch/een dummy) niet mean centered is, moet het gemiddelde ingevoerd worden om
de variabele constant te houden (niet extreem).
- Als het wel mean centered is, vul je niet het gemiddelde in, maar 0.
SPSS dummyvariabelen hercoderen:
- Transform  create dummy variables  variabele selecteren en een naam
toevoegen bij root names.
- Measurement level usage  do not create dummies for scale variables values
selecteren.
- Frequencies waarbij je checkt of ze in dummyvariabelen gecodeerd zijn.
SPSS regressieanalyse:
- Regression  lineair  Y = afhankelijke variabele X = alle onafhankelijke variables
inclusief moderators
- statistics  95% betrouwbaarheidsinterval
- plots  Y = Zresid, X = Zpred  maak een rechte lijn in de plot op 0.
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
SPSS scatterplot:
- graphs  legacy dialogs  scatterplot
- Y = afhankelijke variabele, X = onafhankelijke variabele en set markers by =
moderator.
- Verschillende lijnen van dichotome variabelen in de grafiek zetten door de formule
van alle niveaus in te vullen als lineaire lijnen in de graph (lineair).
SPSS histogram (common support checken voor een voorspeller met betrekking tot
verschillende moderator waardes)
- Graphs  legacy dialogs  histogram
- Variable = voorspeller, rows = categorische moderator.
- Wanneer er een verspreiding is over de gehele range is er een goede common
support.
Continue en categorische moderatoren worden op dezelfde manier geanalyseerd.
Het is beter om moderatoren op gemiddelde te centreren, wanneer er bijvoorbeeld geen
mensen zijn die 0 contact hebben.
- Met een mean-centered numerieke moderator is een voorwaardelijk effect in
aanwezigheid van interactie altijd zinvol.
Centreren op gemiddelde (mean-centered): contact (variabele) – gemiddelde contact (in
compute)  het gemiddelde kan je vinden door middel van descriptives.
- Wanneer de variabelen mean-centered zijn, mogen deze als enige opgenomen
worden in de vergelijking en als interactievariabele.
- Wanneer een mean-centered variabele op 0 zit, is deze dus gemiddeld.
De voorspelende variabele blijft altijd staan (exposure als voorbeeld hierboven), maar onze
theoretische verwachtingen beslissen welke variabele de voorspellende variabele is (dus het
kan ook iets anders zijn).
Er wordt aanbevolen om zowel de voorspeller als de moderator op gemiddelde te centreren
wanneer ze numeriek zijn.
Om regressiecoëfficiënten van interactie-effecten veilig te interpreteren, is het het beste om
regressielijnen te tekenen voor verschillende waarden van de moderator.
- M (0 voor gemiddeld gecentreerde variabelen!)
- M – SD (1,96)
- M + SD
SPSS histogram voor alle drie deze vergelijkingen om common support te checken:
- Transform  visual binning  moderator selecteren
- Make cutpoints  equal percentiles  cutpoints 2 invoeren  supply
- Labels veranderen naar laag, gemiddeld en hoog
- Binned variable  naam veranderen naar variable_bin  Run
- Graphs  legacy dialogs  histogram
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
- Variable = voorspeller  rows = variable_bin
- Voila histogram.
Als we de p-waarde of het betrouwbaarheidsinterval voor de regressielijn op een
standaarddeviatie boven/onder het gemiddelde willen krijgen, moeten we de moderator op
die waarde centreren, voordat we het regressiemodel schatten.
Eerste orde interactie: een interactie-effect met 1 moderator.
Tweede orde interactie: een interactie-effect dat zelf gemodereerd wordt door een ander
interactie-effect.
Rapporteren van een regressieanalyse:
- F(df1, df2) = …, P
- R2 = …, dus het regressiemodel voorspelt …% van de variantie in houding tegenover ..
- Vermeld de grootte, statistische significantie en betrouwbaarheidsintervallen van de
regressiecoëfficiënten.
o Als een voorspeller betrokken is bij een of meer interactie-effecten, moeten
we heel duidelijk zijn over de referentiewaarde en referentiegroep waarop het
effect van toepassing is.
- Vermeld de moderaties, hun sterkte en p-waarden.
o Het effect van blootstelling op houding wordt gemodereerd door contact met
rokers (b = 0,06, 0 < 0,001) en door rookstatus (b = -0,20, p = 0,003)
o Regressiecoëfficiënten worden bij categorische variabelen geïnterpreteerd als
een effectverschil tussen categorie die door de dummyvariabele
gepresenteerd wordt en de referentiegroep.
- Voor een categorische variabele is elke categorie van belang om te rapporteren, voor
een continue variabele zijn het gemiddelde en een standaardafwijking onder/boven
het gemiddelde interessante waarden.
- Vermeld voor covariaten (als ze er zijn) de waarden die ervoor gebruikt zijn. 1 van de
categorieën voor een categorische covariate selecteren en het gemiddelde voor een
numerieke.
- Histograms gebruiken om common support te checken, daarbij niet vermelden dat
het goed is, alleen als het niet goed is, de lezer waarschuwen dat de verwachte
moderatie niet volledig betrouwbaar is, omdat de verdeling van voorspeller
variabelen niet goed is in de moderator.
- Waarschuw de lezer als de voorwaarden van regressieanalyse niet voldaan zijn.
H9
Partieel effect: Een unieke contributie van een variabele op de voorspelling van de
afhankelijke variabele. Wanneer een confounder meegenomen wordt in het model.
- Dit is een controle voor alle andere onafhankelijke variabelen in de interpretatie van
een regressiemodel. Een partieel effect staat onder constanthouding van
Confounders: variabelen die niet in het regressiemodel opgenomen zijn en feitelijk
verantwoordelijk zijn voor een deel van de effecten die worden toegeschreven aan de
onafhankelijke variabelen in het model.
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
- Alle confounders moeten in het model opgenomen worden om ervoor te zorgen dat
de geschatte regressiecoëfficiënten de effecten van de onafhankelijke variabelen
vertegenwoordigen en niet de effecten van de confounders.
Als er confounders zijn, leidt het model aan ommited variable bias.
Indirecte effect: effect van de onafhankelijke variabele op confounder*effect van confounder
op afhankelijke variabele.
Wanneer een confounder niet in het regressiemodel zit, wordt het gehele effect aan de
onafhankelijke variabele toegeschreven  oftewel het geschatte effect wordt verward met
het effect van de confounder.
- Wanneer de confounder toegevoegd wordt, wordt het een partieel effect.
Model:
Onderdrukkend effect (surpressor): wanneer het indirecte effect, het teken veranderd (-/+)
van het directe effect en het effect minder sterk wordt.
Versterkend effect (reiforcer): Wanneer het effect sterker lijkt dan het in werkelijkheid is.
SPSS output:
Onderdrukkend effect (surpressor): Wanneer een effect (-/+) sterker wordt door de
toepassing van de confounder.
Versterkend effect (reinforcer): Wanneer een effect van teken verander (-/+) of zwakker
wordt.
De resultaten van een regressieanalyse zijn alleen te vertrouwen als alle belangrijke
confounders in het model opgenomen zijn.
SPSS regressieanalyse
- Mogelijke confounders in verschillende ‘blocks’ opdelen.
Criteria causaal verband:
- Er is een correlatie aanwezig
- Een oorzaak moet altijd voorafgaan aan een gevolg
- De correlatie mag niet onecht zijn (er mag niet verondersteld worden dat een effect
dat een confounder veroorzaakt, bij het directe effect hoort.
Een indirect effect kan meer dan 1 stap of mediator bevatten.
- Bij zo’n pad, bereken je het indirecte effect door:
X1*X2*X3 = …
Mediatoren worden eigenlijk gezocht om het
effect van de onafhankelijke variabele op de
afhankelijke variabele te begrijpen.
Voorspellers: alle variabelen die causaal antecedent zijn (voorafgaan van) de uitkomst.
X2
X3
X1
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
Mediatie en pad modellen kunnen geschat worden, wanneer aan de volgende criteria
voldaan kan worden:
- Elke afhankelijke variabele is numeriek.
- Elke variabele die gebruikt wordt als voorspeller is numeriek of dichotoom.
- Effecten kunnen maar één kant op gaan, dus kunnen niet wederzijds zijn.
- Alle regressiemodellen voldoen aan de voorwaardes van een regressiemodel.
Parallel mediation: 1 mediator per pad (model 4).
Seriële mediatie: 2 of meerdere mediatoren per (minimaal 1) pad (model 6)
Totale effect: alle indirecte en directe effecten opgeteld.
Een effect is volledig gemedieerd, wanneer het directe effect 0 is. Dus hoe lager het directe
effect is, hoe meer het directe effect gemedieerd wordt.
Wanneer een variabele als mediator in het model gestopt wordt en geen indirect effect
veroorzaakt, is het directe effect gelijk aan het totale effect  dit kan nog niet
geconcludeerd worden, aangezien de mediator gewoon NOG NIET gevonden is.
Bij de resultaten moet je altijd het belangrijkste indirecte effect vermelden.
Om zeker te weten dat het effect (van mediatoren of onafhankelijke variabele) niet
afhankelijk is van andere variabelen, worden er covariaten ingezet.
Covariaten: controlevariabelen.
Covariaten zijn ter controle, dus ze worden
niet vermeld in de uiteindelijke resultaten.
De algemene regels voor het rapporteren
van een mediatie zijn hetzelfde als het rapporteren voor een regressieanalyse:
- De b voor alle directe en indirecte effecten die getest zijn  het verwachte verschil
bij 1 getal verschil.
- De betrouwbaarheidsintervallen en significantieniveaus van de b
- De F test en R2
SPSS process:
- Regression  proces  Y = afhankelijke variabele, X = onafhankelijke variabele,
mediation = mediatoren, covariate = covariaten.
- Model 4/6 afhankelijk van het model.
- Options  effect size en 3 decimalen.
- Run ipv paste!!  opmerking in syntax plaatsen waarbij je X, Y, mediatoren (M1/M2,
etc), covariate (C1, etc) en model (4/6) vermeld.
- In een regressieanalyse met Y = afhankelijke variabele en X = alle mogelijke
onafhankelijke variabelen een plots maken (Y = ZRESID, X = ZPRED). Hierbij kijken naar
voorwaarden van een regressieanalyse.
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459
Als je onafhankelijke variabele een dichotomie is, dan kan je niet standaardiseren. Dus dan
moet je naar de bovenste rij kijken van de effecten (indirect effect(s) X on Y).
Als je onafhankelijke variabele een numerieke variabele is, dan kan je naar de onderste
gestandaardiseerde rij kijken (complete standardized indirect effect(s) of X on Y).
- Je weet naar welke ind je moet kijken, door naar het indirect effect key te kijken.
Hierin kan je het pad vinden waarvan je de effecten wilt weten en deze aanhouden.
De volgorde van causaliteit van alle variabelen is onze theoretische overtuiging. Dit bepaalt
de regressieanalyse niet.
- Wanneer oorzaak en gevolg qua tijd dicht bij elkaar staan, kan het moeilijk zijn om te
beweren dat de ene variabele de andere vooraf gaat.
Wanneer je van plan bent om een mediator te onderzoeken:
- Rechtvaardig dat de mediator theoretisch en conceptueel verschilt van de voorspeller
en uitkomst
- Motiveer de tijdsvolgorde (oorzaak/gevolg) van de variabelen in het model.
- Neem de variabelen op die veelvoorkomende oorzaken van voorspelling, mediator of
uitkomst kunnen zijn.
Moderated mediation: Mediatie en moderatie kunnen ook in hetzelfde path model
voorkomen (niet belangrijk voor het tentamen).
Gedownload door Rochni Banwari (rochni.banwari@tah.sr)
lOMoARcPSD|5257459

More Related Content

Featured

How Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental HealthHow Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental Health
ThinkNow
 
Social Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsSocial Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie Insights
Kurio // The Social Media Age(ncy)
 

Featured (20)

How Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental HealthHow Race, Age and Gender Shape Attitudes Towards Mental Health
How Race, Age and Gender Shape Attitudes Towards Mental Health
 
AI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdfAI Trends in Creative Operations 2024 by Artwork Flow.pdf
AI Trends in Creative Operations 2024 by Artwork Flow.pdf
 
Skeleton Culture Code
Skeleton Culture CodeSkeleton Culture Code
Skeleton Culture Code
 
PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024PEPSICO Presentation to CAGNY Conference Feb 2024
PEPSICO Presentation to CAGNY Conference Feb 2024
 
Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)Content Methodology: A Best Practices Report (Webinar)
Content Methodology: A Best Practices Report (Webinar)
 
How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024How to Prepare For a Successful Job Search for 2024
How to Prepare For a Successful Job Search for 2024
 
Social Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie InsightsSocial Media Marketing Trends 2024 // The Global Indie Insights
Social Media Marketing Trends 2024 // The Global Indie Insights
 
Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024Trends In Paid Search: Navigating The Digital Landscape In 2024
Trends In Paid Search: Navigating The Digital Landscape In 2024
 
5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary5 Public speaking tips from TED - Visualized summary
5 Public speaking tips from TED - Visualized summary
 
ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd ChatGPT and the Future of Work - Clark Boyd
ChatGPT and the Future of Work - Clark Boyd
 
Getting into the tech field. what next
Getting into the tech field. what next Getting into the tech field. what next
Getting into the tech field. what next
 
Google's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search IntentGoogle's Just Not That Into You: Understanding Core Updates & Search Intent
Google's Just Not That Into You: Understanding Core Updates & Search Intent
 
How to have difficult conversations
How to have difficult conversations How to have difficult conversations
How to have difficult conversations
 
Introduction to Data Science
Introduction to Data ScienceIntroduction to Data Science
Introduction to Data Science
 
Time Management & Productivity - Best Practices
Time Management & Productivity -  Best PracticesTime Management & Productivity -  Best Practices
Time Management & Productivity - Best Practices
 
The six step guide to practical project management
The six step guide to practical project managementThe six step guide to practical project management
The six step guide to practical project management
 
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
Beginners Guide to TikTok for Search - Rachel Pearson - We are Tilt __ Bright...
 
Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...
Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...
Unlocking the Power of ChatGPT and AI in Testing - A Real-World Look, present...
 
12 Ways to Increase Your Influence at Work
12 Ways to Increase Your Influence at Work12 Ways to Increase Your Influence at Work
12 Ways to Increase Your Influence at Work
 
ChatGPT webinar slides
ChatGPT webinar slidesChatGPT webinar slides
ChatGPT webinar slides
 

Ms samenvatting-boek-84-was-my-note-probability-and-statistical-inference

  • 1. StudeerSnel wordt niet gesponsord of ondersteund door een hogeschool of universiteit MS samenvatting boek - 8,4 was my note - Probability and Statistical Inference Statistische Modellen voor Communicatieonderzoek (Universiteit van Amsterdam) StudeerSnel wordt niet gesponsord of ondersteund door een hogeschool of universiteit MS samenvatting boek - 8,4 was my note - Probability and Statistical Inference Statistische Modellen voor Communicatieonderzoek (Universiteit van Amsterdam) Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 2. MS samenvatting boek H1 Simulatie: De computer trekt veel random steekproeven uit de populatie. Wetenschappelijke theorieën streven naar algemene uitspraken (general statements), oftewel een uitspraak die geldt voor vele situaties. Inferentiële statistieken bieden technieken voor het doen van uitspraken over een grotere reeks waarnemingen uit gegevens die zijn verzameld voor een kleinere reeks waarnemingen. Statistische inferentie: de generalisatie van de in een willekeurige steekproef (random sample) verzamelde gegevens voor de populatie waaruit de steekproef werd getrokken. Steekproefruimte (Sampling space): Het verzamelen van alle mogelijke uitkomstscores - Er kunnen bijvoorbeeld maximaal 10 gele snoepjes in een steekproef zitten. Dan zijn alle mogelijke uitkomstscores 0-10. Steekproefstatistiek (Sample statistic): een getal dat een kenmerk van de steekproef beschrijft. Dit is een random variabele. Hierbij gaat het om de kans waarop een specifieke steekproef getrokken wordt. Random variabele: hierbij hangt de score af van een kans. Steekproefverdeling (Sampling distribution): De verdeling van de uitkomstscores van heel veel steekproeven. Kansverdeling (van de steekproefstatistiek)(Probability distribution): Een steekproefruimte met een waarschijnlijkheid (bijvoorbeeld tussen 0-1) voor elke uitkomst van de steekproefstatistiek. Discrete kansverdeling (Discrete probability distribution): Er zijn een beperkt aantal getallen als uitkomst mogelijk in de kansverdeling. - Worden meestal gemeten op het nominale of ordinale level. We kunnen naar kansen verwijzen als een proportie. Nummers tussen de 0-1 (0-100%, ze worden namelijk gezien als percentages), worden beschouwd als de correcte manier om kansen uit te drukken. Verwachte waarde (expected value): het gemiddelde van de steekproefverdeling van een willekeurige variabele (random variable)(Wanneer er meer steekproeven zijn  Het gemiddelde van alle steekproeven tezamen). Een steekproefstatistiek is een zuivere schatting (unbiased estimator) van de populatiestatistiek als de verwachte waarde (gemiddelde van de steekproefverdeling) gelijk is aan de populatiestatistiek. Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 3. - (Downward biased): de schatting te laag maken  Wanneer er twee gele snoepjes in de steekproef van tien worden gevonden, schatten wij dat er in de populatie van alle snoepjes ook maar 2 gele snoepjes zijn. Het aantal in de populatie wordt dus onderschat. De populatiestatistiek wordt ook wel een parameter genoemd (dus wanneer mensen het hebben over de populatie, dan hebben ze het over een parameter en andersom). Een steekproef is representatief voor de populatie als de variabelen in dezelfde steekproef hetzelfde verdeeld zijn als in de populatie. - Het trekken van 1 sample is vaak niet representatief, aangezien het door kans kan verschillen. MAAR, we zouden moeten verwachten dat het wel representatief is, dus zeggen we dat het in principe representatief is voor de populatie. Continue variabele (Continuous variable): Er zijn onbeperkt veel getallen als uitkomst mogelijk. Neem een voorbeeld aan gewicht  Er kunnen veel decimalen aanwezig zijn. - Wanneer we altijd een nieuwe waarde kunnen bedenken tussen twee waarden in, is de variabele continue. Kansdichtheidfunctie (probability density function): Curve die de kansverdeling (gebied tussen de horizontale as en een curve) weergeeft. Vaak de normale curve/verdeling. P-waarden: De waarschijnlijkheid van waarden tot (en inclusief) de drempelwaarde of de drempelwaarde en hoger. - Linker p-waarde (left-hand p value): De waarschijnlijkheid van waarden tot (en inclusief) de drempelwaarde. - Rechter p-waarde (right-hand p value): De waarschijnlijkheid van waarden boven (en inclusief) de drempelwaarde. Voor afzonderlijke steekproefstatistieken vertelt de steekproefverdeling ons de waarschijnlijkheid van individuele steekproefresultaten. Voor continue steekproefstatistieken vertelt het ons de p-waarde: de kans om een steekproef te trekken met een uitkomst die ten minste of hoogstens een bepaalde waarde is. Een steekproefverdeling geeft het gemiddelde van de steekproef weer. Een steekproevenverdeling geeft het gemiddelde van alle getrokken steekproeven uit de populatie weer. H2 Wanneer men alleen data verzamelt voor een enkele steekproef, kan men nog steeds een steekproefverdeling maken door de volgende drie manieren: - Bootstrapping - Exacte benaderingen - Theoretische schattingen (approximations). Het krijgen van een steekproefverdeling is nog steeds gebaseerd op het idee van het trekken van een groot getal van steekproeven. Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 4. Echter, wanneer we een enkele steekproef trekken uit de populatie, kunnen we daarna een groot getal van steekproeven trekken uit onze eerste steekproef  Bootstrapping. Sampling zonder terugleggen: Wanneer we toestaan dat elk geval in de oorspronkelijke steekproef slechts eenmaal wordt getrokken, dan bevat elke bootstrapsteekproef alle gevallen van de originele steekproef. - Als een persoon (willekeurig) wordt gekozen voor onze steeproef, plaatsen we deze persoon niet terug in de populatie zodat zij of hij opnieuw kan worden gekozen. Sampling met terugleggen: Wanneer we toestaan dat dezelfde persoon meer dan één keer gekozen mag worden. Bootstrap steekproeven worden getrokken met terugleggen vanuit de eerste (originele) steekproef. - Echter, in praktijk willen we niet dat dezelfde respondent twee keer aan ons onderzoek deelneemt. Aangezien, dit geen nieuwe informatie zou geven. Dit kan wel, zolang de populatie maar veel groter is dan de steekproef. Wanneer de populatie groot is, is de afname van de waarschijnlijkheid te klein om op enige wijze relevant te zijn. - Populatie heeft een miljoen snoepjes, 20% daarvan is geel. Dan is de kans op het trekken van je eerste gele snoepje 20% (200.000/1.000.000). De kans op het trekken van je tweede gele snoepje is dan (199.999/999.999) 19,99(etc)% procent. Het verschil hiertussen is te verwaarlozen. Belangrijkste beperking voor bootstrap-benadering van steekproefverdeling  Wanneer de variabelen, die van belang zijn, niet ongeveer hetzelfde zijn als in de populatie, kan de steekproefverdeling een biased beeld geven, wat een vertekend beeld geeft van de werkelijke steekproefverdeling. Een steekproef is waarschijnlijk representatiever voor de populatie als de steekproef op een willekeurige manier wordt getrokken en als de steekproef groot is. Het grote voordeel van de bootstrap benadering is dat we een steekproefverdeling voor elke steekproefstatistiek kunnen krijgen waar we geïnteresseerd in zijn. - Het is min of meer de enige weg om een steekproefverdeling te krijgen voor het mediaan van de steekproef. Een bootstrap steekproef moet net zo groot zijn als de eerste steekproef (initial sample). Bootstrappen in SPSS: - Bootstrap, perform bootstrapping aanklikken, het liefst 5000 samples, level % wijzigen wanneer het moet, bias corrected aanklikken. - Interpretatie van het resultaat: confidence interval Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 5. De berekende waarschijnlijkheden van alle mogelijke steekproefstatistieken geen ons een exacte aanpak (approach) van de steekproefverdeling. Approximation is een soort schatting, terwijl approach de werkelijke steekproefverdeling weergeeft. Een exacte benadering: geeft een lijst en telt alle mogelijke combinaties. - Dit kan alleen worden gedaan als we werken met discrete of categorische variabelen. (voor continue (onbeperkte) variabelen kunnen we namelijk niet alle mogelijke combinaties vermelden). - Worden als computer-intensief beschouwd: heeft veel cumputing time nodig. De Fisher-exact test is een voorbeeld van een exacte benadering voor de steekproefverdeling van de associatie tussen twee categorische variabelen. Exacte benaderingen SPSS: - Op de exact knop drukken, daarna op de exact optie drukken, 5 min maximaal. - Exacte benaderingen zijn nonparametic tests, maar het kan ook een kruistabel zijn. Daarin chi square aankruisen en cramers V. bij cells  observed en column aanklikken - Interpretatie: p value (2-sided) van de fischer-exacte test gebruiken. Theoretische kansverdelingen (Theoretical probability distributions): wiskundige functies, worden vaak gebruikt als benadering (approximation) van de steekproefverdeling. Staartgrenzen (Tail borders): geven de laagste en de hoogste 2,5% van de steekproefverdeling aan. Waarschijnlijkheidsdichtheidsfunctie (Probability density function): De normale verdeling is een wiskundige functie die continue scores koppelt, bijvoorbeeld een steekproefstatistiek zoals het gemiddelde gewicht in de steekproef, aan p-waarden. - Gebruiken we graag als een schatting van de steekproefverdeling. Een theoretische kansverdeling moet condities bevatten die genoeg aansluiten op ideale omstandigheden  Er zijn hier vuistregels voor gemaakt. - In het algemeen past een theoretische kansverdeling beter bij de steekproefverdeling wanneer de steekproef groter is. (Minder belangrijk voor verhoudingen die dicht bij de 0,5 liggen, maar belangrijker voor verhoudingen die verder weg van de 0,5 liggen). De vuistregel voor het gebruik van de normale verdeling als de steekproefverdeling van een steekproefproportie, combineert de twee aspecten door ze te vermenigvuldigen en te eisen dat het resulterende product groter is dan vijf. - Als de kans op het tekenen van een geel snoepje 0,2 is en onze steekproefgrootte 30, dan is het product 0,2 X 30 = 6. De vuistregels met betrekking tot de minimale grootte van de steekproef worden in de toets weergegeven! Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 6. Naast de normale verdeling zijn er verschillende andere theoretische kansverdelingen: - Binomiale verdeling: voor een verhouding (met dichotome variabelen). - T-verdeling: voor 1 of 2 steekproefgemiddelden, regressiecoëfficiënten en correlatiecoëfficiënten. - F-verdeling: voor het vergelijken van varianties en vergelijkingsmiddelen voor drie of meer groepen (variantieanalyse, ANOVA) - Chi-kwadraatverdeling voor frequentietabellen en noodtabellen. In bepaalde situaties weten we niet wat de populatieverdeling normaal is, maar dan moeten we dit gewoon aannemen. Soms moeten we veronderstellingen maken wanneer we beslissen om een theoretische kansverdeling uit te voeren. Gemiddelde verschil: Wanneer je het gemiddelde neemt van twee aparte variabelen (statistisch onafhankelijk) en daar een gemiddeld verschil van wilt weten, moet je de twee gemiddeldes van de variabelen van elkaar aftrekken  2,76-2,82 = -0,06 Wanneer de tweede steekproef wordt vastgesteld als de eerste steekproef al getrokken is, zijn de steekproeven statistisch afhankelijk (vergelijking van snoepjes voor en nadat ze verkleurd zijn).  paired samples Onafhankelijke steekproef: binnen een variabele twee variabelen met elkaar willen vergelijken (vergelijking tussen man en vrouw)(Twee losse steekproeven). Afhankelijke steekproef: Twee variabelen die je met elkaar vergelijkt (voor en na meestal). Bij dezelfde personen een voor- en nameting doen (1 steekproef). Theoretische approximation SPSS: - Wanneer er niet aan de voorwaarden van een theoretische benadering wordt voldaan, wordt er of automatisch een exacte test uitgevoerd, of moet je zelf bootstrapping toepassen. Wanneer gebruiken we welke optie? - Als niet aan de voorwaarden voor het gebruik van een theoretische kansverdeling wordt voldaan, gebruiken we bootstrapping of een exacte aanpak. - We gebruiken bootstrapping als SPSS geen test heeft voor de statistiek waarin we geïnteresseerd zijn (bv: mediaanwaarde of de standaardafwijking van een variabele. H3 Populatie waarde (population value): parameter of de echte waarde (true value). Puntschatting (Point estimate): Wanneer je maar één getal hebt, oftewel maar één steekproef hebt uitgevoerd, gebruik je een puntschatting met dat ene getal dat je hebt. Interval schatting (Interval estimate): de schatting tussen welke waarde de normale verdeling valt. Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 7. - Een populaire proportie is 95%. Dus we willen de grenswaarden te weten komen die 95% includeren van de samples die het dichtst tegen het gemiddelde van de populatie aan zitten (betrouwbaarheidsinterval). De wijdte van de geschatte interval representeert de precisie van onze schatting. Hoe wijder de interval, hoe minder precies onze schatting. Er zijn verschillende manieren om de precisie van ons intervalschatting te verhogen: - Verminder de betrouwbaarheid van onze ‘correcte’ schatting, maar deze methode is niet bruikbaar/handig omdat we onze betrouwbaarheid opofferen. - Door de steekproefgrootte te verhogen. Als we de steekproef vergroten krijgen we een beter idee van het gemiddelde gewicht in de populatie (geeft meer informatie). De pijl die bij een enkele steekproef het verschil aangeeft tussen het werkelijke gemiddelde en het populatiegemiddelde, geeft de standaarddeviatie aan. Standaardfout (Standard error): De afwijking van het gemiddelde in de steekproevenverdeling (zegt iets over de populatie). De puntschalingfout van de verdeling. - Hoe kleiner de standaardfout, hoe meer de steekproefstatistiek waardes gelijk staan aan de echte populatiewaarde en hoe preciezer onze interval schatting is. o Het is simpel om kleinere standaardfouten te krijgen  vergroot de steekproefgrootte. In de praktijk is het echter tijd-consumerend en duur om een grote steekproef te trekken. De standaardfout kan ook afhankelijk zijn van andere factoren, zoals variatie in de populatiescores. In theoretische kansverdelingen, zoals de normale verdeling, staat het percentage van steekproeven in relatie tot de standaardfout  als we de standaardfout weten, weten we de interval waarin de 95% betrouwbaarheidsinterval zich bevindt. We standaardiseren de steekproefverdeling, zodat verschillende variabelen met verschillende meetniveaus met elkaar te kunnen vergelijken. - Het gemiddelde van de nieuwe gestandaardiseerde variabele is altijd 0. Gestandaardiseerde normale verdeling/z-verdeling (Standard-normal distribution/z distribution): Bij deze verdeling is er een z-waarde de de grens aangeeft tussen de top 2,5% en de onderste 97,5% van elke steekproef. - Deze z-waarde is 1,96/-1,96 (zkrit waarde). Kritische waarde (Critical value): de zkrit waarde (gestandaardiseerd). Grenzen betrouwbaarheidsinterval (onder/boven): M (uit de steekproef) -/+ zkrit (1,96) X SE (standaardfout). Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 8. Münchhausen probleem: we moeten het populatiegemiddelde weten om het populatiegemiddelde te kunnen schatten. - Oplossing: we selecteren een hoop denkbeeldige populatiegemiddeldes. Voor elk denkbeeldige populatiegemiddelde, berekenen we de interval waarin het steekproefgemiddelde verwacht wordt om te vallen. Als volgende stap checken we of het gemiddelde van de steekproef die we werkelijk hebben in deze interval valt  if yes, conclusie: het denkbeeldige populatiegemiddelde staat niet haaks op de steekproef die we hebben getrokken. De parameter is geen random variabele, omdat het niet beïnvloed wordt door de random steekproef die we trekken. De betrouwbaarheidsinterval is wel een random variabele, want deze is afhankelijk van steekproef die we trekken. De breedte van de betrouwbaarheidsinterval: kritische waarde X de standaardfout We schatten de steekproefverdeling met een theoretische kansverdeling. De kritieke waardes en standaarderror worden hierbij gebruikt om de betrouwbaarheidsinterval te berekenen. Er zijn ook theoretische kansverdelingen die niet werken met een standaardfout (F- distribution/chi-squared distrubtion). Hierbij moeten we bootstrapping gebruiken om de betrouwbaarheidsinterval te krijgen. Percentielbenadering (Percentile approach): we kunnen de waarden nemen die de onderste en bovenste 2,5% scheiden van de 95% als betrouwbaarheidsinterval. Exacte benaderingen met betrekking tot de steekproefverdeling rapporteren meestal alleen de p-waarde, niet de betrouwbaarheidsintervallen. Betrouwbaarheidsintervallen in SPSS: - Opties, confidence interval percentage veranderen (zo nodig). - Bij ANOVA, post hoc test Bonferroni, options, significance level naar 0,05% (95%). - Regressieanalyse: statistics, confidence interval aanvinken. - Correlatie: is geen optie voor confidence interval, maar met bootstrapping kan je deze krijgen. Wanneer je steekproef groter wordt, dan wordt de steekproefverdeling langer en minder breed. De standaardfout wordt hierdoor kleiner en de betrouwbaarheidsinterval ook (nauwkeurig). Het gemiddelde van de standaardverdeling is altijd 0. H4 De onderzoekshypothese moet worden vertaald in statistische hypothesen over een populatiewaarde (parameter): een nulhypothese en een alternatieve hypothese. Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 9. Schatting is één van de twee types van inferentiële statistiek. De andere is de nulhypothese testing. Hypothese testing sluit meer aan bij de beeldvorming van wetenschappelijke vooruitgang. Het vereist van de onderzoeker om een verwachting te formuleren over de populatie (hypothese). Een statistische test bepaalt wanneer een uitspraak over een populatie aannemelijk is, gegeven de steekproef die uit deze populatie is getrokken. We hebben verschillende ‘ingrediënten’ nodig voor een statistische test: - Een verklaring over een bevolking. - Een criterium om te beslissen of de verklaring voldoende aannemelijk is. - Een steekproef van de bevolking die informatie over de verklaring versterkt. - Een waarschijnlijkheid voor de steekproef waaruit blijkt hoe plausibel de stelling is. Statistische hypothese: een hypothese die verwijst naar een statistiek in de populatie (bijvoorbeeld populatiegemiddelde). De nulhypothese geeft één waarde aan voor een populatiestatistiek. Significantieniveau: de drempelwaarde voor de betrouwbaarheid van de steekproef (95% betrouwbaarheidsinterval, 5% dus). - Deze wordt aangegeven door de letter alpha (α). - De nulhypothese wordt verworpen als de steekproef een van de vijf procent meest onwaarschijnlijke steekproeven is. Er kan alleen een steekproefverdeling voor de nulhypothese geconstrueerd worden, als de hypothese één waarde voor de populatiestatistiek aangeeft. Het afwijzen van de nulhypothese bewijst niet dat deze fout is. Er kunnen bepaalde fouten voorkomen. - Type 1 fout: een nulhypothese verwerpen die echt waar is. - Type 2 fout: een foute nulhypothese aannemen/niet verwerpen. De kans dat er een type 1 fout gemaakt wordt, is 5%, oftewel het significantieniveau. P-waarde: de waarschijnlijkheid in de veronderstelling, dat de nulhypothese waar is. Het is dus een voorwaardelijke kans. - Als de p-waarde laag is (0,05 en lager), moet de nulhypothese gaan. Statistische hypotheses komen in paren: een nulhypothese en een alternatieve hypothese. Alternatieve hypotheses omvatten alle situaties die niet onder nulhypothese vallen. Nilhypothese: Wanneer het gemiddelde in de populatie verwacht is om 0 te zijn, dit kan overigens als enige door spss verwerkt worden, dan is de hypothese een nilhypothese. Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 10. Nulhypotheses kunnen ook meerdere waarden in de hypothese vermelden (bijvoorbeeld 5,5 of hoger). Wanneer er zo’n hypothese voorkomt, kan er een eenzijdige of tweezijdige test toegepast worden. - Deze waarden moeten alleen meegenomen worden in de hypothese als het daadwerkelijk belangrijk is. Linkszijdige en rechtszijdige (éénzijdige) toetsen kunnen alleen toegepast worden, wanneer er verwacht wordt dat een waarde boven of onder het populatiegemiddelde in de steekproefverdeling terecht komt. - In een linkszijdige test (eenzijdig), kunnen hoge waarden, de nulhypothese niet verwerpen. Hierbij zit de significantie waarde dus aan de linkerkant (5% ipv 2,5% aan iedere kant) - Hetzelfde geldt voor een rechtszijdige test, maar dan andersom. Het verschilt tussen éénzijdige en tweezijdige test is alleen nuttig, als we een statistiek toetsen aan een bepaalde waarde of als we het verschil tussen twee groepen testen. - We kunnen geen zinvolle eenzijdige nulhypothese formuleren als we drie of meer groepen vergelijken. Om de tweezijdige p-waarde te krijgen, kunnen we de eenzijdige p-waarde gewoon verdubbelen (2*p). - Om een eenzijdige p-waarde te krijgen, kunnen we de tweezijdige p-waarde ook delen door 2. Teststatistiek: theoretische kansverdeling waartoe deze behoort: - Z voor standaard-normaal of z-verdeling. - T voor de t-verdeling. - F voor de F-verdeling. - Chi-kwadraat voor de chi-kwadraat distributie. Teststatistiek standaardiseert min of meer het verschil tussen de steekproefstatistiek en de populatiewaarde die we volgens de nulhypothese verwachten. Teststatistiek is 0, wanneer de steekproefuitkomst gelijk is aan de veronderstelde populatiewaarde. Hoe groter het verschil tussen de waargenomen waarde (steekproefuitkomst) en de verwachte waarde (hypothetische populatiewaarde), hoe extremer de waarde van de teststatistiek (F/T/Chi), hoe waarschijnlijker het is dat de nulhypothese verworpen wordt. Waarschijnlijkheidsverdelingen, anders dan de standaardnormale verdeling, hebben geen vaste kritische waarden. Deze hangen af van de vrijheidsgraden (df). (niet belangrijk voor de toets). - Df wel vermelden bij apa! Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 11. Bij een betrouwbaarheidsinterval, betekent genoeg plausibel, dat onze waargenomen steekproefuitkomst, tot de steekproefuitkomst behoort die het dichtst bij de populatiewaarde liggen. Een betrouwbaarheidsinterval van 95% bevat alle populatiewaarden waarvan we kunnen veronderstellen dat onze steekproefuitkomst niet statistisch significant is. - De hypothetische waarde kan te hoog of te laag zijn voor het betrouwbaarheidsinterval, dus een hypothesetest met een betrouwbaarheidsinterval is tweezijdig. Bootstrapping creëert een empirische steekproefverdeling: veel steekproeven met een mediaan berekend voor elke steekproef (met betrouwbaarheidsinterval zo nodig). Het testen van een nulhypothese bevat verschillende stappen: - Het specificeren van de statistische hypotheses, dit vereist het kiezen van de juiste statistiek voor het testen van de hypothese en het kiezen tussen een eenzijdige of tweezijdige test indien van toepassing. - Het selecteren van het significantieniveau van de toets, we gaan bijna altijd voor de 0,05 als significantieniveau. - Selecteren hoe de steekproefverdeling gecreëerd wordt, maak je gebruik van bootstrapping, een exacte benadering of een theoretische waarschijnlijkheidsdistributie? - Het uitvoeren van de test, laat de statistische software de p-waarde berekenen. - Beslissing maken met betrekking tot de nulhypothese - Het rapporteren van de resultaten. Zorg ervoor dat je de lezer vertelt over wie of wat de test gaat: - Wat is de populatie die je onderzoekt. - Wat zijn de variabelen - Wat zijn de waarden van de relevante steekproefstatistiek. - Welke vergelijkingen maak je. - Zijn de resultaten statistisch significant, zo ja, wat zijn de schattingen voor de populatie. - Als de resultaten significant zijn, hoe groot zijn de verschillen/associaties Het belangrijkste onderscheid is tussen dichotomieën (twee groepen) en categorische groepen (drie of meer groepen) en numerieke variabelen. Bij een dichotomie, voer je een binominale test uit. Bij een categorische variabele met 3 of meer categorieën, voer je een chi-square test uit. - Wanneer de ware proportie aanwezig is, dit invoegen in spss op volgorde van 1 naar de rest (deze test wordt ook vaak gebruikt wanneer de populatieproporties bekend zijn). Bij een numerieke variabele, voer je een one-sample t-test uit. De kans om een echte nulhypothese niet af te wijzen is 0,95, dus de kans om twee echte nulhypotheses niet af te wijzen is 0,95*0,95. Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 12. - Het risico van het afwijzen van ten minste één echte nulhypothese in twee test is 1- 0,9025. Kanskapitalisatie: Je verwerpt de nulhypothese te snel, oftewel je neemt aan dat je resultaat significant is. Dit gebeurt vaak in een variantieanalyse en kan voorkomen worden door de bonferroni correctie toe te passen. Bonferroni correctie: dit is een grove correctie, die niet helemaal nauwkeurig is. Het heeft echter een eenvoudige logica die direct verband houdt met het probleem van kanskapitalisatie (deelt p-waarde door het aantal categorieën  meer reële kans op een eerlijk resultaat). Er hoeft geen correctie toegepast te worden, als we vooraf een hypothese specificeren over de twee groepen die we verwachten dat verschillen. - Of we kunnen de variantieanalyse skippen en kunnen door gaan naar de t-test. SPSS chi kwadraat toets: non parametic tests  chi square  alles op volgorde van 1-4 invoeren (wat bekend is in de populatie). SPSS binominale toets: hierbij test je een proportie, dus als je wordt gevraagd naar een antwoordmogelijkheid (ja bv) dan doe je 1-percentage. non-parametic tests  binominal Bij cut point moet je 1 invullen (dan worden 1 en alle waarden onder 1 getest). SPSS one-sample t-test: hierbij vul je het verwachte gemiddelde (getal) in de populatie in bij test-value Om de nulhypothese te testen kijk je niet naar de p-waarde. Deze is minder belangrijk dan de betrouwbaarheidsinterval. Als de p-waarde niet significant is, maar de verwachte buiten de betrouwbaarheidsinterval valt, dan is het resultaat alsnog statistisch significant. Wanneer een dataset te vaak wordt gebruikt voor verschillende h0’s is er een grotere kans op het krijgen van een type 1 fout. Er komen dan namelijk veel significante resultaten. H5 Wanneer er non-respons verwacht wordt, moeten er van tevoren meerdere participanten gerecruteerd worden. Een test op een grotere steekproef is vaker statistisch significant. Effectgrootte: de grootte van het verschil tussen onze steekproefuitkomst en de veronderstelde populatiewaarden. De waarschijnlijkheid van het verwerpen van een nulhypothese, hangt af van de steekproefgrootte en de effectgrootte. - Een grotere steekproef maakt de statistische test meer gevoelig. De test zal daardoor makkelijker statistisch significant zijn voor kleinere effectgroottes. - Een grotere effectgrootte leveren gemakkelijker statistisch significante resultaten op waardoor er een kleinere steekproef vereist is. Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 13. Praktische relevantie: een bepaald niveau van verbetering is klinisch, oftewel in het dagelijkse praktische leven, belangrijk. - Er is een belangrijk verschil tussen praktische relevantie en statistische significantie. Praktische relevantie is dat waar we geïnteresseerd in zijn. En de statistische significantie is slechts een hulpmiddel om praktisch relevante effecten te signaleren. Statistische significantie is dus alleen belangrijk als het praktische relevantie aangeeft. Ongestandaardiseerde effectgrootte: het verschil tussen onze steekproefuitkomst en de hypothetische populatie waarde. Cohens’ d is de gestandaardiseerde effectgrootte voor t-tests. Deze moeten wij zelf berekenen aan de hand van de formules die op de toets worden weergegeven (Cohen’s d is altijd positief, als er een negatief resultaat uitkomt, moet je deze positief maken). Gestandaardiseerde effectgroottes maken het mogelijk om bepaalde waardes met elkaar te vergelijken, ook al zijn zij verschillend van elkaar (hierbij krijg je een getal tussen 0-1. Dat is makkelijker om te interpreteren). Vuistregeles Cohen’s d: - 0,2: zwak effect - 0,5: middelmatig effect - 0,8: sterk effect. Associatiematen zoals de Pearsons’s correlatie of Spearman’s Rho correlatiecoëfficiënt geve de effectgrootte als de nulhypothese geen correlatie verwacht inde populatie. - Effectgroote is ook 0 volgens de standaard nulhypothese die gebruikt wordt voor verschillende tests. Daardoor kan men de gestandaardiseerde regressiecoëfficiënt Beta (b*), R2 (regressieanalyse) en eta2 (variantieanalyse) als gestandaardiseerde effectgroottes gebruiken. Wanneer effecten gestandaardiseerd zijn, kan men ze interpreteren volgens de vuistregels die ook voor Cohens’ d gelden. - Het teken -/+ wordt genegeerd wanneer men de sterkte van het effect interpreteert. Als we de effectgrootte in de steekproef, waarvoor we een statistisch significant resultaat willen, weten kunnen we de minimum steekproefgrootte weten voor een statistisch significant resultaat  schuiven met model Steekproefgrootte beïnvloedt de teststatistiek. Hoe groter de steekproef hoe groter de teststatistiek. Effectgrootte beïnvloedt de teststatistiek. Hoe groter de effectgrootte, hoe groter de teststatistiek. Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 14. Power: de kans van het NIET maken van een type 2 fout (blauw). Type 2 fout: het niet verwerpen van een foute nulhypothese (geel). Om te kijken hoe groot je steekproef moet zijn, moet je kijken naar het significantieniveau, de effectgrootte en de test power. Deze zijn allemaal gerelateerd. Vuistregel power: er wordt gestreefd naar ten minste 80% kans op het afwijzen van een foute nulhypothese. - Power wordt op een lager niveau ingesteld, omdat de nulhypothese meestal wordt verondersteld als weerspiegeling van onze beste kennis over de wereld. Effectgrootte is belangrijker dan statistische significantie, omdat effectgrootte betrekking heeft op praktische relevantie. Bij een kruistabel is het minimaal aantal respondenten wat je nodig hebt, alle cellen in de kruistabel x 5. (3 bij 3 = 3*3 = 9 cellen, 9*5 = 45 respondenten). Hoe groter je steekproef is, hoe makkelijker het is om, om ook kleine effecten te vinden (deze kunnen namelijk ook praktisch relevant zijn). - Grotere effecten zijn minder interessant dan kleine effecten. Ook bij niet significante resultaten moet je de effectgrootte rapporteren. H6 Er is 1 simpele regel: als de waarde van de nulhypothese binnen de betrouwbaarheidsinterval ligt, mag de nulhypothese niet verworpen worden. Als de betrouwbaarheidsinterval breed/wijd is, zijn we niet zeker over de echte waarde van populatie. Als de nulhypothese in een brede betrouwbaarheidsinterval dichtbij de grenzen ligt mogen we deze niet verwerpen, maar is het plausibel dat de populatiewaarde hoger of lager kan zijn dan de hypothetische waarde ( vermelden!). Een meta-analyse is een goed voorbeeld van het combineren van onderzoek om ons begrip te verbreden. Een andere methode dat voortbouwt op voorgaand onderzoek is replicatie. Dit is het her uitvoeren van onderzoek om te kijken of de uitkomsten nu bijvoorbeeld nog wel gelden. Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 15. Bayesian inference: meer radicale manier van het includeren van voorgaand onderzoek. Deze manier beschouwt de steekproef die we trekken als een middel om de kennis bij te werken die we al hebben of denken te hebben over de bevolking. Statistische inferentie wordt alleen toegepast op gegevens die niet willekeurig zijn getrokken uit een waarneembare populatie. - Statistische inferentie op basis van een willekeurige steekproef is de meest overtuigende vorm van inferentie, omdat we de aard van onzekerheid in de gegevens kennen, namelijk toevalsvariatie. We werken dus met een waarneembare populatie en we weten hoe verandering onze steekproef beïnvloedt als we een random steekproef trekken. Theoretische populatie: Hierbij wordt een bredere populatie voorgesteld in plaats van een daadwerkelijke steekproef te nemen van een waarneembare populatie. - Je moet motiveren waarom de gebruikte dataset kan worden beschouwd als een willekeurige steekproef uit de theoretische populatie. Het is zeer onwaarschijnlijk dat de omstandigheden en persoonlijke kenmerken elke keer hetzelfde zijn als het proces aan het werk is. Dat kan een complicatie zijn  variatie in uitkomsten. De meeste willekeurige steekproeven hebben een normale of t- distributed steekproefverdeling (bell-shaped probability model). - Zo’n bell-shaped model is een plausibele kandidaat voor het vastleggen van de effecten van vele onafhankelijke oorzaken op numerieke uitkomsten. H7 Met twee of meerdere factoren, kunnen we een interactie-effect hebben als aansluiting tot de hoofdeffecten. Interactie-effect: het gezamenlijke effect van twee of meer factoren op de afhankelijke variabele. Moderatie: een variabele kan verschillende effecten hebben voor verschillende groepen. Deze moderator verandert het effect van de voorspeller op de afhankelijke variabele. Celebrity endorsement theory: beroemdheden die publiekelijk verklaren dat zij een product of kandidaat of oorzaak prefereren, overtuigen consumenten om het product, de kandidaat of de oorzaak te ondersteunen. Voor genuanceerde resultaten willen we meestal een numerieke afhankelijke variabele. De variantieanalyse is ontwikkeld voor een analyse van random analyses, waarbij effecten geïnterpreteerd kunnen worden als causale effecten. - Hierbij zijn we geïnteresseerd in de verschillen tussen bepaalde groepen. Dus als het over een moderatie-effect gaat, moeten we vaak de variantieanalyse gebruiken. Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 16. De effectgrootte van een varaintieanalyse is eta2. Deze verwijst naar de algemene verschillen tussen groepsgemiddelden. Eta2: effectgrootte die het deel van de variantie in de afhankelijke variabele geeft, verklaard of voorspeld door de groepsvariabele. Deze is informatief nauwkeurig. Eta: effectgrootte die in meer algemene termen geclassificeerd is (Wortel van eta2 nemen). Vuistregels van eta: - 0,1 = klein of zwak effect - 0,3 = middelgroot of matig effect - 0,5 = grote of sterke effecten. Gestippelde zwarte lijnen geven de afstand tussen de uitkomstscores en het grote gemiddelde weer. Bij gemiddeldes voorspellen met betrekking tot verschillende groepen, voorspellen we dat de bereidheid van een deelnemer gelijk is aan het groepsgemiddelde waartoe de deelnemer behoort. - Als deze groep niet bekend (of als hier geen rekening mee wordt gehouden) is nemen we het grote gemiddelde als streefpunt. De compleet zwarte pijl geeft het verschil tussen het algemene gemiddelde en het groepsgemiddelde weer (variantie tussen groepen). Door zo’n grafiek kunnen we de varianties in uitkomstscores voorspellen  als er geen verschil is tussen de groepsgemiddelden, is de variantie tussen groepen 0. Variantie binnen de groepen (within-groups variance): dit kunnen we niet voorspellen met zo’n grafiek. Het wordt in SPSS soms aangeduid als ERROR Variantie tussen de groepen (between-groups variance): dit kunnen we dus wel voorspellen aan de hand van de grafiek. Het verschil tussen de groepen. - Deze kunnen we niet als enige gebruiken als teststatistiek, omdat we rekening moeten houden met kansverschillen tussen steekproefgemiddelden (ANOVA). Er zijn twee belangrijke aannames dat we moeten maken als we de F-verdeling in ANOVA gaan maken: - Onafhankelijke steekproeven (dus geen paired t-test samples (voor en na bvb)). - Homogene populatie variantie. o Hierbij wordt er aangenomen dat de groepen van dezelfde populatie getrokken zijn. o Levene’s F-test  wanneer de nulhypothese niet verworpen wordt, nemen we aan dat de populatie homogeen is. Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 17. o De groepen zijn homogeen, wanneer de grootste groep minder dan 10% verschilt van de kleinste groep. Variantieanalyse levert geen betrouwbaarheidsintervallen voor groepsgemiddelden op. We moeten groepen 1 voor 1 met elkaar vergelijken in een variantieanalyse om te kunnen constateren of er duidelijke verschillen tussen groepen zijn  Post-hoc toets. Variantieanalyse bestaat uit twee stappen: - We testen de algemene h0 dat alle groepen gelijke gemiddelde scores hebben op de afhankelijke variabele in de populatie  als we deze h0 niet kunnen verwerpen, hebben we te weinig bewijs om de verschillen tussen deze groepen te constateren - Als hij wel significant is, passen we een onafhankelijke t-toets met de bonferroni test toe op elk aar groepen om te zien welke groepen aanzienlijk verschillende middelen hebben. Het kan ook voorkomen dat geen 1 van de vergelijkingen significant is, dat kan komen omdat de p-waarde dichtbij 0,5 ligt/omdat de bonferroni toets te sterk is/omdat de steekproef te klein is. Een significant resultaat vertelt ons dat we er vertrouwen in kunnen hebben dat ten minste twee groepsgemiddeldes verschillen in de populatie. SPSS variantieanalyse: - Oneway ANOVA - Post hoc  Bonferroni - Options  descriptives, homogenety of variance test en means plot Bivariate analyse: het rekening houden met twee variabelen: een onafhankelijke en een afhankelijke variabele. Tweewegsvariantieanalyse: een analyse waarbij twee factoren gebruikt worden. - Je hebt ook een driewegsvariantieanalyse met 3 factoren Het ontwerp hangt af van de hoeveelheid niveaus waaruit de twee factoren bestaan. Wanneer er 1 factor uit drie niveaus bestaat en de andere uit 2, dan wordt het een 3*2 ontwerp. Wanneer de lijnen bij de verschillende niveaus van een factor niet op 1 lijn liggen, is er een moderatie aanwezig. Het effect in de ene groep (het ene niveau) kan het effect in de andere groep compenseren als het ongeveer even sterk is, maar in de tegenovergestelde richting  bij de afbeelding hiernaast is er dus netto geen gemiddeld verschil, dit betekent echter niet dat er geen moderatie-effect is en dat deze niet sterk is. Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 18. De h0 van een interactie-effect met betrekking tot de F-test, stelt dat er in de populatie geen gemiddeld verschil is tussen de verschillende groepen met betrekking tot de uitkomst van het effect van de onafhankelijke variabele op de afhankelijke variabele. Interactie van de hogere orde: moderatie tussen drie of meer factoren (mogen vermeden worden). SPSS ANOVA tweewegs: - General lineair model  Univariate - Plots  horizontal = onafhankelijke variabele  seperate lines is moderator  ADD - Post hoc test  alleen onafhankelijke variabele en bonferroni - Options  descriptives en homogenetic test. Rapporteren van de ANOVA analyse: - Vermelden dat je een variantieanalyse heb gebruikt en welke dan (oneway/twoway). - Het testresultaat voor elk effect geven: F(df1(tussengroeps),df2(binnengroeps/error)) = f-waarde, p-waarde, eta2 (between-groups sum of squares/total sum of squares). - Elk effect wat de moeite waard is, moet geïnterpreteerd worden (gemiddelde verschil met het betrouwbaarheidsinterval en de p-waarde (post hoc tests)). - Er moet speciale aandacht aan het interactie-effect besteed worden. - Rapporteer het wanneer homogeniteit geschonden/ongeschonden blijft H8 Formule: Y = constant + b1*exposure + b2*variabele + (tot alle variabelen inclusief moderators met elkaar vergeleken zijn) + e (officieel) - Maar: Als we afhankelijke variabelen willen voorspellen negeren we de foutterm, dus meestal zonder error. Eenvoudige regressievergelijkingen: regressievergelijkingen met slechts één voorspeller Constante: de voorspelde houding als de persoon nul scoort op alle afhankelijke variabelen. De niet gestandaardiseerde regressiecoëfficient (b) vertegenwoordigt het voorspelde verschil in de afhankelijke variabele voor een verschil van één eenheid in de onafhankelijke variabele (oftewel effectgrootte). De interpretatie van effectgrootte uit H5 geldt ook voor deze effectgroottes. In een regressieanalsye kunnen numerieke, categorische en dichotomieën gebruikt worden. Dus als de variabele nog niet in 0-1 gecodeerd is, moet je dat zelf doen. - De interpretatie van een dichotome variabele - Categorische variabelen moeten ook veranderd worden in een reeks dichotomieën. Daarvan moet er bij elke vergelijking maar 1 variabele met 1 gecodeerd (degene waar je naar kijkt) worden en de rest met 0. De categorie zonder dummyvariabele is de referentiegroep (het directe effect geldt dus voor de referentiegroep (exposure in het voorbeeld)). Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 19. Van welke variabele je het gemiddelde verschil wilt weten met betrekking tot de referentiegroep, deze moet je als 1 coderen. Wanneer een groep ons het meeste interesseert moet deze als dummyvariabele gemaakt worden. Multicollinear: wanneer het schattingsproces een dummyvariabele wordt laten vallen. Een betrouwbaarheidsinterval geeft ons grenzen voor de populatiewaarde van de niet- gestandaardiseerde regressiecoëfficiënt. - H0 hierbij is: de ongestandaardiseerde regressiecoëfficiënt is 0 in de populatie. Twee belangrijkste veronderstellingen: - De waarnemingen zijn onafhankelijk - Homoscedasticiteit: De waarnemingen zijn gelijk verdeeld (U vormige grafiek = niet goed). o Wanneer deze worden geschonden kunnen we geen regressieanalyse uitvoeren. Een histogram met een toegevoegde normale curve helpt ons om de verdeing van de residuen te evalueren (plots  Y = ZRESID X = ZPRRED) - Wanneer niet normaal verdeeld  concluderen dat de veronderstelling niet aannemelijk is en waarschuwen dat de resultaten bevooroordeeld kunnen zijn. Er wordt ook een lineair effect verwacht (wordt telkens met hetzelfde getal verhoogd). Wanneer de N in de grafiek niet op alle punten gelijk is, is ons model beter in het voorspellen van bvb lage waarden, als hoge waarden. (laag meer, hoog minder). In een regressieanalyse moet je 1 numerieke afhankelijke variabele hebben en ten minste 1 numerieke onafhankelijke variabele. Wanneer er moderaties gemaakt worden door middel van compute, moeten deze ook in de formule opgenomen worden. H0 van de regressieanalyse: in de populatie is het effect 0. H0 van interactie-effect in regressieanalyse: in de populatie is het interactie-effect 0. Wanneer er een categorische moderator is, moeten we om interactie-variabelen te maken, voorspeller met elk van de dummyvariabelen vermenigvuldigen.  Het effect dat we schatten, moet ons vertellen of hoge waarden op de voorspeller samengaan met hogere (of lagere) waarden op de afhankelijke variabele of lage waarden op de voorspeller. Common support: Als de groepen van de moderator een even grote range hebben op de voorspeller. Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 20. - Dit is acceptabel, wanneer observaties zijn over het hele bereik van de voorspeler. Voorspeller: onafhankelijke variabele die momenteel centraal staat in de analyse. Covariate: onafhankelijke variabele die momenteel niet centraal staat in onze analyse. Y= −0.087+−0.118∗exposure+1.982∗smoker+−0.329∗exposure∗smoker+0.152∗contact Nadat je de formule hebt opgesteld, moet je interessante waarden selecteren voor elke onafhankelijke variabele, behalve de voorspeller. Y= −0.087+−0.118∗exposure+1.982∗smoker+−0.329∗exposure∗smoker+0.152∗contact Y= −0.087+−0.118∗exposure+1.982∗0+−0.329∗exposure∗0+0.152∗5.091 Y= −0.087+−0.118∗exposure+0.772attitude= 0.685+−0.118∗exposure Wanneer je naar smoker wilt kijken, wordt smoker met 1 gecodeerd: Y = −0.087+−0.118∗exposure+1.982∗1 +−0.329∗exposure∗1+0.152∗5.091 Y = −0.087+(−0.118 + -0.329)∗exposure+1.982+0.152∗5.091 Y = −0.087+-0,447∗exposure+1.982+0,774 Y = 3.442+-0,447∗exposure Wanneer je naar non-smoker wilt kijken, wordt deze met 1 gecodeerd, dus de rest met 0. Y = −0.087+−0.118∗exposure+1.982∗0 +−0.329∗exposure∗0+0.152∗5.091 Y = -0.087+0.118*exposure+0.152*5.091 Y = 3.803+0.118*exposure Die 5,091 is het gemiddelde van contact (descriptives), omdat deze variabele (numeriek ipv categorisch/een dummy) niet mean centered is, moet het gemiddelde ingevoerd worden om de variabele constant te houden (niet extreem). - Als het wel mean centered is, vul je niet het gemiddelde in, maar 0. SPSS dummyvariabelen hercoderen: - Transform  create dummy variables  variabele selecteren en een naam toevoegen bij root names. - Measurement level usage  do not create dummies for scale variables values selecteren. - Frequencies waarbij je checkt of ze in dummyvariabelen gecodeerd zijn. SPSS regressieanalyse: - Regression  lineair  Y = afhankelijke variabele X = alle onafhankelijke variables inclusief moderators - statistics  95% betrouwbaarheidsinterval - plots  Y = Zresid, X = Zpred  maak een rechte lijn in de plot op 0. Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 21. SPSS scatterplot: - graphs  legacy dialogs  scatterplot - Y = afhankelijke variabele, X = onafhankelijke variabele en set markers by = moderator. - Verschillende lijnen van dichotome variabelen in de grafiek zetten door de formule van alle niveaus in te vullen als lineaire lijnen in de graph (lineair). SPSS histogram (common support checken voor een voorspeller met betrekking tot verschillende moderator waardes) - Graphs  legacy dialogs  histogram - Variable = voorspeller, rows = categorische moderator. - Wanneer er een verspreiding is over de gehele range is er een goede common support. Continue en categorische moderatoren worden op dezelfde manier geanalyseerd. Het is beter om moderatoren op gemiddelde te centreren, wanneer er bijvoorbeeld geen mensen zijn die 0 contact hebben. - Met een mean-centered numerieke moderator is een voorwaardelijk effect in aanwezigheid van interactie altijd zinvol. Centreren op gemiddelde (mean-centered): contact (variabele) – gemiddelde contact (in compute)  het gemiddelde kan je vinden door middel van descriptives. - Wanneer de variabelen mean-centered zijn, mogen deze als enige opgenomen worden in de vergelijking en als interactievariabele. - Wanneer een mean-centered variabele op 0 zit, is deze dus gemiddeld. De voorspelende variabele blijft altijd staan (exposure als voorbeeld hierboven), maar onze theoretische verwachtingen beslissen welke variabele de voorspellende variabele is (dus het kan ook iets anders zijn). Er wordt aanbevolen om zowel de voorspeller als de moderator op gemiddelde te centreren wanneer ze numeriek zijn. Om regressiecoëfficiënten van interactie-effecten veilig te interpreteren, is het het beste om regressielijnen te tekenen voor verschillende waarden van de moderator. - M (0 voor gemiddeld gecentreerde variabelen!) - M – SD (1,96) - M + SD SPSS histogram voor alle drie deze vergelijkingen om common support te checken: - Transform  visual binning  moderator selecteren - Make cutpoints  equal percentiles  cutpoints 2 invoeren  supply - Labels veranderen naar laag, gemiddeld en hoog - Binned variable  naam veranderen naar variable_bin  Run - Graphs  legacy dialogs  histogram Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 22. - Variable = voorspeller  rows = variable_bin - Voila histogram. Als we de p-waarde of het betrouwbaarheidsinterval voor de regressielijn op een standaarddeviatie boven/onder het gemiddelde willen krijgen, moeten we de moderator op die waarde centreren, voordat we het regressiemodel schatten. Eerste orde interactie: een interactie-effect met 1 moderator. Tweede orde interactie: een interactie-effect dat zelf gemodereerd wordt door een ander interactie-effect. Rapporteren van een regressieanalyse: - F(df1, df2) = …, P - R2 = …, dus het regressiemodel voorspelt …% van de variantie in houding tegenover .. - Vermeld de grootte, statistische significantie en betrouwbaarheidsintervallen van de regressiecoëfficiënten. o Als een voorspeller betrokken is bij een of meer interactie-effecten, moeten we heel duidelijk zijn over de referentiewaarde en referentiegroep waarop het effect van toepassing is. - Vermeld de moderaties, hun sterkte en p-waarden. o Het effect van blootstelling op houding wordt gemodereerd door contact met rokers (b = 0,06, 0 < 0,001) en door rookstatus (b = -0,20, p = 0,003) o Regressiecoëfficiënten worden bij categorische variabelen geïnterpreteerd als een effectverschil tussen categorie die door de dummyvariabele gepresenteerd wordt en de referentiegroep. - Voor een categorische variabele is elke categorie van belang om te rapporteren, voor een continue variabele zijn het gemiddelde en een standaardafwijking onder/boven het gemiddelde interessante waarden. - Vermeld voor covariaten (als ze er zijn) de waarden die ervoor gebruikt zijn. 1 van de categorieën voor een categorische covariate selecteren en het gemiddelde voor een numerieke. - Histograms gebruiken om common support te checken, daarbij niet vermelden dat het goed is, alleen als het niet goed is, de lezer waarschuwen dat de verwachte moderatie niet volledig betrouwbaar is, omdat de verdeling van voorspeller variabelen niet goed is in de moderator. - Waarschuw de lezer als de voorwaarden van regressieanalyse niet voldaan zijn. H9 Partieel effect: Een unieke contributie van een variabele op de voorspelling van de afhankelijke variabele. Wanneer een confounder meegenomen wordt in het model. - Dit is een controle voor alle andere onafhankelijke variabelen in de interpretatie van een regressiemodel. Een partieel effect staat onder constanthouding van Confounders: variabelen die niet in het regressiemodel opgenomen zijn en feitelijk verantwoordelijk zijn voor een deel van de effecten die worden toegeschreven aan de onafhankelijke variabelen in het model. Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 23. - Alle confounders moeten in het model opgenomen worden om ervoor te zorgen dat de geschatte regressiecoëfficiënten de effecten van de onafhankelijke variabelen vertegenwoordigen en niet de effecten van de confounders. Als er confounders zijn, leidt het model aan ommited variable bias. Indirecte effect: effect van de onafhankelijke variabele op confounder*effect van confounder op afhankelijke variabele. Wanneer een confounder niet in het regressiemodel zit, wordt het gehele effect aan de onafhankelijke variabele toegeschreven  oftewel het geschatte effect wordt verward met het effect van de confounder. - Wanneer de confounder toegevoegd wordt, wordt het een partieel effect. Model: Onderdrukkend effect (surpressor): wanneer het indirecte effect, het teken veranderd (-/+) van het directe effect en het effect minder sterk wordt. Versterkend effect (reiforcer): Wanneer het effect sterker lijkt dan het in werkelijkheid is. SPSS output: Onderdrukkend effect (surpressor): Wanneer een effect (-/+) sterker wordt door de toepassing van de confounder. Versterkend effect (reinforcer): Wanneer een effect van teken verander (-/+) of zwakker wordt. De resultaten van een regressieanalyse zijn alleen te vertrouwen als alle belangrijke confounders in het model opgenomen zijn. SPSS regressieanalyse - Mogelijke confounders in verschillende ‘blocks’ opdelen. Criteria causaal verband: - Er is een correlatie aanwezig - Een oorzaak moet altijd voorafgaan aan een gevolg - De correlatie mag niet onecht zijn (er mag niet verondersteld worden dat een effect dat een confounder veroorzaakt, bij het directe effect hoort. Een indirect effect kan meer dan 1 stap of mediator bevatten. - Bij zo’n pad, bereken je het indirecte effect door: X1*X2*X3 = … Mediatoren worden eigenlijk gezocht om het effect van de onafhankelijke variabele op de afhankelijke variabele te begrijpen. Voorspellers: alle variabelen die causaal antecedent zijn (voorafgaan van) de uitkomst. X2 X3 X1 Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 24. Mediatie en pad modellen kunnen geschat worden, wanneer aan de volgende criteria voldaan kan worden: - Elke afhankelijke variabele is numeriek. - Elke variabele die gebruikt wordt als voorspeller is numeriek of dichotoom. - Effecten kunnen maar één kant op gaan, dus kunnen niet wederzijds zijn. - Alle regressiemodellen voldoen aan de voorwaardes van een regressiemodel. Parallel mediation: 1 mediator per pad (model 4). Seriële mediatie: 2 of meerdere mediatoren per (minimaal 1) pad (model 6) Totale effect: alle indirecte en directe effecten opgeteld. Een effect is volledig gemedieerd, wanneer het directe effect 0 is. Dus hoe lager het directe effect is, hoe meer het directe effect gemedieerd wordt. Wanneer een variabele als mediator in het model gestopt wordt en geen indirect effect veroorzaakt, is het directe effect gelijk aan het totale effect  dit kan nog niet geconcludeerd worden, aangezien de mediator gewoon NOG NIET gevonden is. Bij de resultaten moet je altijd het belangrijkste indirecte effect vermelden. Om zeker te weten dat het effect (van mediatoren of onafhankelijke variabele) niet afhankelijk is van andere variabelen, worden er covariaten ingezet. Covariaten: controlevariabelen. Covariaten zijn ter controle, dus ze worden niet vermeld in de uiteindelijke resultaten. De algemene regels voor het rapporteren van een mediatie zijn hetzelfde als het rapporteren voor een regressieanalyse: - De b voor alle directe en indirecte effecten die getest zijn  het verwachte verschil bij 1 getal verschil. - De betrouwbaarheidsintervallen en significantieniveaus van de b - De F test en R2 SPSS process: - Regression  proces  Y = afhankelijke variabele, X = onafhankelijke variabele, mediation = mediatoren, covariate = covariaten. - Model 4/6 afhankelijk van het model. - Options  effect size en 3 decimalen. - Run ipv paste!!  opmerking in syntax plaatsen waarbij je X, Y, mediatoren (M1/M2, etc), covariate (C1, etc) en model (4/6) vermeld. - In een regressieanalyse met Y = afhankelijke variabele en X = alle mogelijke onafhankelijke variabelen een plots maken (Y = ZRESID, X = ZPRED). Hierbij kijken naar voorwaarden van een regressieanalyse. Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459
  • 25. Als je onafhankelijke variabele een dichotomie is, dan kan je niet standaardiseren. Dus dan moet je naar de bovenste rij kijken van de effecten (indirect effect(s) X on Y). Als je onafhankelijke variabele een numerieke variabele is, dan kan je naar de onderste gestandaardiseerde rij kijken (complete standardized indirect effect(s) of X on Y). - Je weet naar welke ind je moet kijken, door naar het indirect effect key te kijken. Hierin kan je het pad vinden waarvan je de effecten wilt weten en deze aanhouden. De volgorde van causaliteit van alle variabelen is onze theoretische overtuiging. Dit bepaalt de regressieanalyse niet. - Wanneer oorzaak en gevolg qua tijd dicht bij elkaar staan, kan het moeilijk zijn om te beweren dat de ene variabele de andere vooraf gaat. Wanneer je van plan bent om een mediator te onderzoeken: - Rechtvaardig dat de mediator theoretisch en conceptueel verschilt van de voorspeller en uitkomst - Motiveer de tijdsvolgorde (oorzaak/gevolg) van de variabelen in het model. - Neem de variabelen op die veelvoorkomende oorzaken van voorspelling, mediator of uitkomst kunnen zijn. Moderated mediation: Mediatie en moderatie kunnen ook in hetzelfde path model voorkomen (niet belangrijk voor het tentamen). Gedownload door Rochni Banwari (rochni.banwari@tah.sr) lOMoARcPSD|5257459