De meesten van jullie zijn opgegroeid in het “digitale tijdperk”. Er is data over jullie hele leven…
11 November, 2019
De meesten van jullie zijn opgegroeid in het “digitale tijdperk”. Er is data over jullie hele leven…
Voor beiden gebruik je een steekproef/sample
Laten we een experimentje doen…
Populatieparameters schatten op basis van de sample
Waarom onzekerheid?
Er is een verschil tussen de schatting \(M\) en de populatieparameter \(\mu\). Dit verschil heet de sampling error
Stel je voor dat ik alle mogelijke steekproeven van 5 studenten uit deze zaal zou trekken, en voor elke steekproef de gemiddelde lengte bereken
Probleem: We kunnen de standard error niet uitrekenen op basis van één steekproef
Oplossing: We schatten de standard error ook op basis van de sample
Standard error voor gemiddelde:
\[ SE_{M} = \frac{s}{\sqrt{n}} \]
\[ = \frac{\textrm{Standaarddeviatie in de steekproef}}{\sqrt{\textrm{Grootte van steekproef}}} \]
Standaardafwijking:
“Gemiddelde”\(^*\) afwijking van observaties tov het gemiddelde
Geeft weer hoe gespreid je data zijn
Notatie: \(s, \sigma, SD\)
Standard error: “Gemiddelde”\(^*\) afwijking van steekproefgemiddelden tov het populatie gemiddelde.
Geeft weer hoe onzeker we zijn over onze schatting van het populatiegemiddelde, op basis van de steekproef.
Notatie: \(SE, SE_M\)
* = Eigenlijk de wortel van gemiddelde gekwadrateerde afstand
Betrouwbaarheidsinterval: Een “venster” om de schatting, gebaseerd op SE, waarbinnen de populatieparameter waarschijnlijk valt
Dit heeft te maken met toetsen
Kritieke waarde bij een twee-zijdige toets met \(\alpha = .05\) is ~2
Als je 100 identieke samples zou trekken, en voor elk een 95% confidence interval zou berekenen, dan bevat 95% van die intervals de populatieparameter.
Je weet nooit zeker of DIT confidence interval de populatiewaarde bevat, of wáár die valt.
100 identieke samples, voor elk een 95% confidence interval
https://rpsychologist.com/d3/CI/
Je kan confidence intervals ook gebruiken om te toetsen…
Dit interval bevat met 95% zekerheid de populatieparameter, dus elke waarde buiten het interval kan verworpen worden (als nulhypothese) met een foutmarge van 5%
Ezelsbruggetje:
n o i r
= zwart in het Frans
Omdat we geen data over de hele populatie hebben, is het onmogelijk om te bewijzen dat, bijvoorbeeld, het populatiegemiddelde groter is dan 0.
Dus we draaien de boel om: We tonen aan dat het heel onwaarschijnlijk is om onze data te verkrijgen, ALS het populatiegemiddelde 0 zou zijn.
Wat is de kans om data te observeren die “minstens zo extreem zijn” als onze steekproef, ALS de nulhypothese waar zou zijn dat het populatiegemiddelde 0 is?
\(p(data\vert H_0)\)
Stappen voor toetsing:
Hypothese: Een toetsbare verwachting over een populatieparameter
Wat voor soort hypotheses?
\(H_0\) zo formuleren dat deze \(H_a\) uitsluit
Voorbeeld: Verschil tussen mannen en vrouwen
Teststatistiek: Een waarde die aangeeft hoeveel SE’s je geobserveerde data afliggen van de verwachting onder de nulhypothese
De standaardfout is
\(SE_M =\) \(\frac{s}{\sqrt{n}}\)
Dan kijken we hoe “ver” ons geobserveerde steekproefgemiddelde \(M\) is tov de nulhypothese:
\(\frac{\bar{X}-\mu_0}{SEM}\)
Nederlanders zijn vrij lang. Wereldwijde gemiddelde lengte: 167cm
Onderzoeksvraag: Zijn Nederlanders langer dan het wereldwijde gemiddelde?
Steekproef: Gemakssteekproef (studenten van dit vak)
\(Z = \frac{M-\mu_0}{SE_M}\)
\(SE_M = \frac{\sigma}{\sqrt{n}}\)
Sinds de stufi wetten zijn veranderd blijven jongeren langer thuis wonen.
Onderzoeksvraag: Is de proportie van jongeren die thuis wonen hoger in 2018 dan in 2008?
Steekproef: Gemakssteekproef (studenten van dit vak)
\(Z = \frac{\pi-\Pi_0}{SE_\pi}\)
\(SE_\pi = \sqrt{\frac{(p * (1-p))}{n}}\)
Wanneer vinden we dat de kans op de data onder de nulhypothese zo klein is, dat we \(H_0\) kunnen verwerpen?
Significantieniveau \(\alpha\)
De drempelwaarde voor het verwerpen van \(H_0\) noemen we \(\alpha\).
In de sociale wetenschappen hanteren we meestal \(\alpha = .05\)
MAAR: Tijden veranderen, steeds meer wetenschappers willen \(\alpha = .005\)
Bij een non-directionele hypothese is \(\alpha = .05\) verdeeld over beide staarten van de sampling distribution. Bij een directionele hypothese ligt \(\alpha = .05\) volledig in één staart van de samplinig distribution.
Tweezijdige toets
Bij een directionele hypothese ligt \(\alpha = .05\) volledig in één staart van de samplinig distribution.
Eenzijdige toets
Met een eenzijdige toets heb je meer power om een nulhypothese te verwerpen ALS het effect in de verwachtte richting is. Je hebt echter géén power om de nulhypothese te verwerpen bij een effect in de omgekeerde richting.
\(p:\) De kans op data minstens zo extreem als wat je hebt verzameld, ALS de nulhypothese waar zou zijn.
\(\alpha:\) Significantieniveau
Als \(p < \alpha:\) Je effect is statistisch significant
Z is de standaard normaalverdeling.
Als je de populatiestandaardafwijking weet, kan je een z-waarde uitrekenen.
Probleem: We weten bijna nooit wat \(\sigma\) is
Oplossing: We passen een “straf” toe om rekening te houden met de grotere onzekerheid die ontstaat over onze toets, wanneer we \(s\) schatten op basis van de steekproef, en niet \(\sigma\) uit de populatie gebruiken
Deze “straf” leidt tot een verdeling met iets dikkere staarten dan de Z-verdeling. Deze heet de t-verdeling. We krijgen dus iets hogere p-waardes!
Als \(n\) groot is, maakt deze “straf” niet meer uit. Dan is \(t \approx Z\)
Identieke berekening als voor de eerder genoemde Z-toets
Behalve dat je nu \(s\) gebruikt ipv \(\sigma\)
\(t = \frac{M-\mu_0}{SE_M}\)
\(SE_M = \frac{s}{\sqrt{n}}\)
Is er een significant verschil tussen de gemiddelden (op een interval/ratio variabele) tussen twee (nominale/ordinale) groepen?
Het verschil tussen twee gemiddelden volgt ook een t-verdeling.
\[ t=\frac{(M_1-M_2) - (\mu_{01} - \mu_{02})} {SE_{(M_1-M_2)}} \]
\[SE_{(M_1-M_2)} = \sqrt{\frac{s_p^2}{n_1}+\frac{s_p^2}{n_2}}\]
\[s^{2}_{p} = \frac{SS_1 + SS_2}{df_1 + df_2}\]
Als we vinden dat de data erg ongebruikelijk zijn onder \(H_0\), dus als \(p < \alpha\):
Als we vinden dat de data best gebruikelijk zijn onder \(H_0\), , dus als \(p \geq \alpha\):
Daarom nooit zeggen “we accepteren de nulhypothese” (onzekerheid blijft)
Wordt beinvloed door:
Lucia de B. werd verdacht van meeervoudige kindermoord.
\(H_0\): Onschuldig
We berekenen de kans dat er tijdens haar dienst 9 sterfgevallen voorkomen, \(p = 0.00000001451\).
Beslissing | Schuldig | Onschuldig |
---|---|---|
Veroordelen | Juiste beslissing! | Type I fout: \(\alpha\) |
Vrij spreken | Type II fout: \(\beta\) | Juiste beslissing! |
Lance Armstrong gebruikte jarenlang onopgemerkt doping.
Nulhypothese: Lance Armstrong is clean.
\(H_0\): Clean
We nemen bloed af, doen een testje, en vinden een bepaald % EPO in het bloed. Als dat % hoog genoeg is, verwerpen we \(H_0\).
Beslissing | EPO | Clean |
---|---|---|
Diskwalificeren | Juiste beslissing! | Type I fout: \(\alpha\) |
Geldig verklaren | Type II fout: \(\beta\) | Juiste beslissing! |
Beslissing | \(H_a\) | \(H_0\) |
---|---|---|
Verwerp \(H_0\) | Power: \(1-\beta\) | Type I fout: \(\alpha\) |
Verwerp \(H_0\) niet | Type II fout: \(\beta\) | Juiste beslissing |
Alpha bepaal je zelf
Beta is onbekend
Vuistregel: De kans op een Type II fout (\(\beta\)) neemt af als: