Sie sehen hier die Schlafdauer von 10 Personen aus New York (die Stadt, die nie schläft…):
<- c(7.0, 8.6, 7.6, 7.7, 6.4, 7.2, 9.6, 8.2, 8.3, 8.0)
sleep print(sleep)
## [1] 7.0 8.6 7.6 7.7 6.4 7.2 9.6 8.2 8.3 8.0
Besteht aus diesen Daten Evidenz dagegen, dass New Yorker im Durchschnitt 8 Stunden pro Nacht schlafen?
Zuerst wird der Mittelwert, die Standardabweichung, das n und der Standardfehler berechnet:
<- round(mean(sleep),3)
m <- round(sd(sleep),3)
s <- length(sleep)
n <- round(s/sqrt(n),3) se
\(\bar{x} = 7.86\)
\(s = 0.901\)
\(n = 10\)
\(SE = s/\sqrt{n} = 0.901/\sqrt{10} = 0.285\)
Dann wird auf der t-Tabelle für n-1 Freiheitsgerade das 97.5ste Quantil gesucht (damit links und rechts noch 2.5% bleiben).
<- round(qt(0.975, n-1),3)
t
ggplot(NULL, aes(c(-3,3))) +
geom_area(stat = "function", fun = dnorm, fill = "#00998a", xlim = c(-3, t)) +
geom_area(stat = "function", fun = dnorm, fill = "grey80", xlim = c(t, 3)) +
labs(x = paste("t, df = ", n-1), y = "") +
scale_y_continuous(breaks = NULL) +
scale_x_continuous(breaks = t)
\(t_{0.975, df = 9} = 2.262\)
Nun können wir die untere und obere Schranke des 95% CI’s berechnen:
<- round(m - t * se, 3)
ll <- round(m + t * se,3) ul
\(Untere Schranke = \bar{x} - t * se = 7.215\)
\(Obere Schranke = \bar{x} + t * se = 8.505\)
Zuerst den t-Wert berechnen.
<- round((m-8)/se,3) t2
\(t = (\bar{x}-8)/se = -0.491\)
Den kritischen t-Wert für einen zweiseitigen Test (df = 9) kennen wir von oben schon. Dieser beträgt 2.262. Weil der von uns berechnete Wert kleiner ist, fällt er in den Nicht-Verwerfungsbereich. Da der p-Wert somit > .05 ist, haben wir keine Evidenz dafür, dass sich die durchschnittliche Schlafdauer von New Yorkern von 8 Stunden unterscheidet und verwerfen die H0 nicht.
Mit Statistikprogrammen liesse sich noch der genaue p-Wert berechnen.
<- 2*round(pt(t2, n-1), 3) p
Dieser beträgt 0.636.
Die durchschnittliche Schlafdauer von New Yorkern beträgt 7.86 [7.215, 8.505] Stunden und unterscheidet sich nicht von den erwarteten 8 Stunden, t = -0.491, p = 0.636.
So könnte der Output für einen Einstichproben t-Test einer Statistiksoftware aussehen:
t.test(sleep, mu = 8)
##
## One Sample t-test
##
## data: sleep
## t = -0.49144, df = 9, p-value = 0.6349
## alternative hypothesis: true mean is not equal to 8
## 95 percent confidence interval:
## 7.215561 8.504439
## sample estimates:
## mean of x
## 7.86
Wir haben gleich gut wie die Statistiksoftware gerechnet :-)
Patientenedukation nimmt in der medizinischen Behandlung eine immer wichtigere Rolle ein. In einer Studie wurde untersucht, ob bei Personen mit einem neu diagnostizierten Diabetes mellitus Typ II ein Edukationsvideo das Wissen der Patient:innen rund um ihre Krankheit beeinflusst. Alle Studienteilnehmer:innen haben vor und vier Wochen nach einen Edukationsvideo einen Wissenstest zum Thema “Diabetes Typ II” absolviert. Maximal konnten 100 Punkte erreicht werden.
Hier sehen sie den Datensatz:
<- c(1:15)
ID <- c(41, 41, 29, 47, 34, 41, 43, 29, 18, 30, 40, 37, 60, 38, 39)
Score_pre <- c(47, 48, 41, 34, 35, 57, 61, 54, 27, 43, 63, 48, 57, 43, 54)
Score_post <- data.frame(ID, Score_pre, Score_post)
DM %>%
DM kable() %>%
kable_styling()
ID | Score_pre | Score_post |
---|---|---|
1 | 41 | 47 |
2 | 41 | 48 |
3 | 29 | 41 |
4 | 47 | 34 |
5 | 34 | 35 |
6 | 41 | 57 |
7 | 43 | 61 |
8 | 29 | 54 |
9 | 18 | 27 |
10 | 30 | 43 |
11 | 40 | 63 |
12 | 37 | 48 |
13 | 60 | 57 |
14 | 38 | 43 |
15 | 39 | 54 |
Als erstes müssen die Differenzen berechnet werden. Hier wird Der Score vor dem Video vom Score nach dem Video subtrahiert. Eine positive Zahl bedeutet somit eine Verbesserung im Test.
$difference <- DM$Score_post-DM$Score_pre
DM%>%
DM kable() %>%
kable_styling()
ID | Score_pre | Score_post | difference |
---|---|---|---|
1 | 41 | 47 | 6 |
2 | 41 | 48 | 7 |
3 | 29 | 41 | 12 |
4 | 47 | 34 | -13 |
5 | 34 | 35 | 1 |
6 | 41 | 57 | 16 |
7 | 43 | 61 | 18 |
8 | 29 | 54 | 25 |
9 | 18 | 27 | 9 |
10 | 30 | 43 | 13 |
11 | 40 | 63 | 23 |
12 | 37 | 48 | 11 |
13 | 60 | 57 | -3 |
14 | 38 | 43 | 5 |
15 | 39 | 54 | 15 |
Zuerst wird die mittlere Differenz, die Standardabweichung der Differenzen, das n und der Standardfehler der mittleren Differenz berechnet:
<- round(mean(DM$difference),3)
m <- round(sd(DM$difference),3)
s <- length(DM$difference)
n <- round(s/sqrt(n),3) se
\(\bar{x} = 9.667\)
\(s = 9.861\)
\(n = 15\)
\(SE = s/\sqrt{n} = 9.861/\sqrt{15} = 2.546\)
Dann wird auf der t-Tabelle für n-1 Freiheitsgerade das 97.5ste Quantil gesucht (damit links und rechts noch 2.5% bleiben)
<- round(qt(0.975, n-1),3)
t
ggplot(NULL, aes(c(-3,3))) +
geom_area(stat = "function", fun = dnorm, fill = "#00998a", xlim = c(-3, t)) +
geom_area(stat = "function", fun = dnorm, fill = "grey80", xlim = c(t, 3)) +
labs(x = paste("t, df = ", n-1), y = "") +
scale_y_continuous(breaks = NULL) +
scale_x_continuous(breaks = t)
\(t_{0.975, df = 14} = 2.145\)
Nun können wir die untere und obere Schranke des 95% CI’s berechnen:
<- round(m - t * se, 3)
ll <- round(m + t * se,3) ul
\(Untere Schranke = \bar{x} - t * se = 4.206\)
\(Obere Schranke = \bar{x} + t * se = 15.128\)
Zuerst den t-Wert berechnen.
<- round((m-0)/se,3) t2
\(t = (\bar{x}-0)/se = 3.797\)
Den kritischen t-Wert für einen zweiseitigen Test (df = 14) kennen wir von oben schon. Dieser beträgt 2.145. Weil der von uns berechnete Wert grösser ist, fällt er in den Verwerfungsbereich. Da der p-Wert somit < .05 ist, haben wir Evidenz dafür, dass sich die mittlere Differenz der Testscores von 0 unterscheidet und verwerfen H0.
Mit Statistikprogrammen liesse sich noch der genaue p-Wert berechnen.
<- 2*round(pt(-t2, n-1,), 3) p
Dieser beträgt 0.002.
Die mittlere Differenz der Testscores beträgt 9.667 [4.206, 15.128] Punkte und unterscheidet sich sognifikant von 0, t = 3.797, p = 0.002.
So könnte der Output für einen Einstichproben t-Test einer Statistiksoftware aussehen:
t.test(DM$difference, mu = 0)
##
## One Sample t-test
##
## data: DM$difference
## t = 3.7967, df = 14, p-value = 0.001964
## alternative hypothesis: true mean is not equal to 0
## 95 percent confidence interval:
## 4.205861 15.127472
## sample estimates:
## mean of x
## 9.666667
Wir haben gleich gut wie die Statistiksoftware gerechnet :-)