Stichprobenbeschreibung
Geschlecht
DatensatzMA %>%
count(Geschlecht) %>%
mutate(Geschlecht = str_replace(Geschlecht, c("1", "2", "3"),
c("Weiblich", "Männlich", "Divers")),
Anteil = round(n / sum(n), 4)) %>%
kable()| Geschlecht | n | Anteil |
|---|---|---|
| Weiblich | 141 | 0.6878 |
| Männlich | 63 | 0.3073 |
| Divers | 1 | 0.0049 |
Alter
# Lageparameter Alter
DatensatzMA %>%
select(Alter) %>%
summarise(Mean = mean(Alter),
Median = median(Alter),
SD = sd(Alter),
Min = min(Alter),
Max = max(Alter)) %>%
kable()| Mean | Median | SD | Min | Max |
|---|---|---|---|---|
| 32.3122 | 26 | 12.48961 | 17 | 71 |
# Histogramm Alter
ggplot(data = DatensatzMA, aes(x = Alter)) +
geom_histogram(bins = 100) +
xlab("Alter in Jahren") +
ylab("Anzahl")# Boxplot Alter
ggplot(data = DatensatzMA, aes(x = Alter)) +
geom_boxplot()Führungsposition
# Anzahl der Befragten mit Führungsposition
DatensatzMA %>%
count(Führungsposition) %>%
mutate(Führungsposition = str_replace(Führungsposition, c("1", "2"),
c("Nein", "Ja")),
Anteil = round(n / sum(n), 4)) %>%
kable()| Führungsposition | n | Anteil |
|---|---|---|
| Nein | 183 | 0.8927 |
| Ja | 22 | 0.1073 |
# Lageparameter Führungsverantwortung
# Anzahl der Personen, für die die Führungskräfte Führungsverantwortung haben
DatensatzMA %>%
select(Führungsverantwortung) %>%
summarise(Mean = mean(Führungsverantwortung, na.rm = TRUE),
Median = median(Führungsverantwortung, na.rm = TRUE),
SD = sd(Führungsverantwortung, na.rm = TRUE),
Min = min(Führungsverantwortung, na.rm = TRUE),
Max = max(Führungsverantwortung, na.rm = TRUE)) %>%
kable()| Mean | Median | SD | Min | Max |
|---|---|---|---|---|
| 20.31818 | 8.5 | 27.10541 | 2 | 100 |
# Boxplot Führungsverantwortung
ggplot(data = subset(DatensatzMA, !is.na(Führungsverantwortung)),
aes(x=Führungsverantwortung))+
geom_boxplot()+
xlab("Führungsverantwortung (Anzahl der Mitarbeiter)")Branchenzugehörigkeit
ggplot(data = DatensatzMA, aes(y = factor(Branche, level = branchen_order))) +
geom_bar() +
geom_text(
stat = "count",
aes(label = ..count..),
hjust = -0.25,
size = 3
) +
ylab("Branche") +
xlab("Anzahl")Bildungsgrad
DatensatzMA %>%
count(Bildungsgrad) %>%
mutate(Bildungsgrad = str_replace(Bildungsgrad, c("1", "2", "3", "4", "5", "6", "7"),
c("Hauptschulabschluss", "Realschulabschluss",
"Abitur", "Berufsausbildung", "Bachelor",
"Master", "Doktor/PhD")),
Anteil = round(n / sum(n), 4)) %>%
kable()| Bildungsgrad | n | Anteil |
|---|---|---|
| Hauptschulabschluss | 2 | 0.0098 |
| Realschulabschluss | 7 | 0.0341 |
| Abitur | 35 | 0.1707 |
| Berufsausbildung | 18 | 0.0878 |
| Bachelor | 100 | 0.4878 |
| Master | 37 | 0.1805 |
| Doktor/PhD | 6 | 0.0293 |
Deskriptive Statistiken
Risikopotenzial
Sach- bzw. vermögensbezogene Folgen
DatensatzMA %>%
select(Sachbezogen) %>%
count(Sachbezogen) %>%
rename(`Sach- bzw. vermögensbezogene Folgen` = Sachbezogen) %>%
mutate(Anteil = round(n / sum(n), 4)) %>%
kable()| Sach- bzw. vermögensbezogene Folgen | n | Anteil |
|---|---|---|
| Kein Schaden | 42 | 0.2049 |
| Geringer Schaden | 86 | 0.4195 |
| Mittlerer Schaden | 49 | 0.2390 |
| Hoher Schaden | 28 | 0.1366 |
# Balkendiagramm Sach- bzw. vermögensbezogene Folgen
ggplot(data = DatensatzMA, aes(x = Sachbezogen)) +
geom_bar() +
geom_text(
stat = "count",
aes(label = ..count..),
vjust = -1,
size = 3
) +
xlab("Sachbezogene Folgen / finanzieller Schaden") +
ylab("Anzahl") +
scale_x_discrete(labels=c("kein", "gering", "mittel", "hoch"))Personenbezogene Folgen
DatensatzMA %>%
select(Personenbezogen) %>%
count(Personenbezogen) %>%
mutate(Anteil = round(n / sum(n), 4)) %>%
rename(`Personenbezogene Folgen` = Personenbezogen) %>%
kable()| Personenbezogene Folgen | n | Anteil |
|---|---|---|
| Kein Gesundheitsrisiko | 126 | 0.6146 |
| Geringes Gesundheitsrisiko | 44 | 0.2146 |
| Mittleres Gesundheitsrisiko | 19 | 0.0927 |
| Hohes Gesundheitsrisiko | 16 | 0.0780 |
# Balkendiagramm Personenbezogene Folgen
ggplot(data = DatensatzMA, aes(x = Personenbezogen)) +
geom_bar() +
geom_text(
stat = "count",
aes(label = ..count..),
vjust = -1,
size = 3
) +
xlab("Personenbezogene Folgen / Gesundheitsrisiko") +
ylab("Anzahl") +
scale_x_discrete(labels=c("kein", "niedrig", "mittel", "hoch"))Behebbarkeit der Sach- und vermögensbezogenen Folgen
# Kreuztabelle der sachbezogenen Folgen und deren Behebbarkeit
sjt.xtab(DatensatzMA$Sachbezogen, DatensatzMA$Behebbarkeit_sach)| Sachbezogen | Behebbarkeit_sach | Total | ||
|---|---|---|---|---|
| Vollständig | Teilweise | Irreversibel | ||
| Kein Schaden | 0 | 0 | 0 | 0 |
| Geringer Schaden | 29 | 51 | 6 | 86 |
| Mittlerer Schaden | 4 | 39 | 6 | 49 |
| Hoher Schaden | 3 | 21 | 4 | 28 |
| Total | 36 | 111 | 16 | 163 | χ2=NaN · df=6 · Cramer’s V=NaN · Fisher’s p=0.006 |
# Balkendiagramm zur Behebbarkeit der Sach- und vermögensbezogenen Folgen
ggplot(data = DatensatzMA, aes(x = Behebbarkeit_sach)) +
geom_bar() +
geom_text(
stat = "count",
aes(label = ..count..),
vjust = -1,
size = 3
) +
xlab("Behebbarkeit der sach- bzw. vermögensbezogenen Folgen") +
ylab("Anzahl")Behebbarkeit der personenbezogenen Folgen
# Balkendiagramm zur Behebbarkeit der personenbezogenen Folgen
ggplot(data = DatensatzMA, aes(x = Behebbarkeit_pers)) +
geom_bar() +
geom_text(
stat = "count",
aes(label = ..count..),
vjust = -1,
size = 3
) +
xlab("Behebbarkeit der personenbezogenen Folgen") +
ylab("Anzahl")Cronbachs Alpha EOQ
# Tabelle mit Cronbachs Alpha Werten für die verschiedenen Skalen
c1 <- ltm::cronbach.alpha(subset(DatensatzMA, select = c(FKomp1, FKomp2, FKomp3, FKomp4)))
c2 <- ltm::cronbach.alpha(subset(DatensatzMA, select = c(LaF1, LaF2, LaF3, LaF4)))
c3 <- ltm::cronbach.alpha(subset(DatensatzMA, select = c(RbF1, RbF2, RbF3, RbF4)))
c4 <- ltm::cronbach.alpha(subset(DatensatzMA, select = c(FBel1, FBel2, FBel3, FBel4, FBel5)))
c5 <- ltm::cronbach.alpha(subset(DatensatzMA, select = c(FAnt1, FAnt2, FAnt3, FAnt4, FAnt5)))
c6 <- ltm::cronbach.alpha(subset(DatensatzMA, select = c(VvF1, VvF2, VvF3, VvF4, VvF5, VvF6)))
c7 <- ltm::cronbach.alpha(subset(DatensatzMA, select = c(FKomm1, FKomm2, FKomm3, FKomm4)))
c8 <- ltm::cronbach.alpha(subset(DatensatzMA, select = c(NüF1, NüF2, NüF3, NüF4, NüF5)))
c_alpha <- matrix(c("Skala 'Fehlerkompetenz'", "Skala 'Lernen aus Fehlern'",
"Skala 'Risikobereitschaft bei Fehlern'",
"Skala 'Fehlerbelastung'", "Skala 'Fehlerantizipation'",
"Skala 'Vertuschen von Fehlern'", "Skala 'Fehlerkommunikation'",
"Skala 'Nachdenken über Fehler'",c1[1], c2[1], c3[1], c4[1],
c5[1], c6[1], c7[1], c8[1]), ncol = 2, nrow = 8)
colnames(c_alpha) <- c("Skala", "Cronbachs Alpha")
c_alpha <- as.data.frame(c_alpha)
c_alpha[,2] <- round(as.numeric(c_alpha[,2]),4)
c_alpha %>%
kable()| Skala | Cronbachs Alpha |
|---|---|
| Skala ‘Fehlerkompetenz’ | 0.6206 |
| Skala ‘Lernen aus Fehlern’ | 0.6979 |
| Skala ‘Risikobereitschaft bei Fehlern’ | 0.8218 |
| Skala ‘Fehlerbelastung’ | 0.8643 |
| Skala ‘Fehlerantizipation’ | 0.7055 |
| Skala ‘Vertuschen von Fehlern’ | 0.8030 |
| Skala ‘Fehlerkommunikation’ | 0.5729 |
| Skala ‘Nachdenken über Fehler’ | 0.8058 |
Skalenwerte EOQ
test <- DatensatzMA %>%
select(Fehlerkompetenz, LernenausFehlern, RisikobereitschaftFehler,
Fehlerbelastung, Fehlerantizipation, Fehlerantizipation,
VertuschenFehler, Fehlerkommunikation, NachdenkenüberFehler) %>%
summarise_each(funs(Mean = mean,
Median = median,
SD = sd,
Min = min,
Max = max))
test <- round(test, 4)
test %>%
gather(stat, val) %>%
separate(stat, into = c("Skala", "stat"), sep = "_") %>%
spread(stat, val) %>%
select(Skala, Mean, Median, SD, Min, Max) %>%
kable()| Skala | Mean | Median | SD | Min | Max |
|---|---|---|---|---|---|
| Fehlerantizipation | 2.9990 | 3.0000 | 0.6764 | 1.20 | 5.0 |
| Fehlerbelastung | 3.1288 | 3.2000 | 0.9022 | 1.00 | 5.0 |
| Fehlerkommunikation | 3.9890 | 4.0000 | 0.5542 | 1.50 | 5.0 |
| Fehlerkompetenz | 3.9366 | 4.0000 | 0.5592 | 1.75 | 5.0 |
| LernenausFehlern | 3.7134 | 3.7500 | 0.6899 | 1.25 | 5.0 |
| NachdenkenüberFehler | 4.0371 | 4.2000 | 0.6497 | 1.60 | 5.0 |
| RisikobereitschaftFehler | 3.3402 | 3.5000 | 0.8771 | 1.25 | 5.0 |
| VertuschenFehler | 2.2407 | 2.1667 | 0.6984 | 1.00 | 4.5 |
Boxplots Skalen
# Fehlerkompetenz
ggplot(data = DatensatzMA, aes(y = Fehlerkompetenz)) +
geom_boxplot()# Lernen aus Fehlern
ggplot(data = DatensatzMA, aes(y = LernenausFehlern)) +
geom_boxplot()# Risikobereitschaft bei Fehlern
ggplot(data = DatensatzMA, aes(y = RisikobereitschaftFehler)) +
geom_boxplot()# Fehlerbelastung
ggplot(data = DatensatzMA, aes(y = Fehlerbelastung)) +
geom_boxplot()# Fehlerantizipation
ggplot(data = DatensatzMA, aes(y = Fehlerantizipation)) +
geom_boxplot()# Vertuschen von Fehlern
ggplot(data = DatensatzMA, aes(y = VertuschenFehler)) +
geom_boxplot()# Fehlerkommunikation
ggplot(data = DatensatzMA, aes(y = Fehlerkommunikation)) +
geom_boxplot()# Nachdenken über Fehler
ggplot(data = DatensatzMA, aes(y = NachdenkenüberFehler)) +
geom_boxplot()Histogramme Skalen
ggplot(data = DatensatzMA, aes(x = Fehlerkompetenz)) +
geom_histogram(bins = 50) +
xlab("Fehlerkompetenz") +
ylab("Anzahl") ggplot(data = DatensatzMA, aes(x = LernenausFehlern)) +
geom_histogram(bins = 50) +
xlab("Lernen aus Fehlern") +
ylab("Anzahl")ggplot(data = DatensatzMA, aes(x = RisikobereitschaftFehler)) +
geom_histogram(bins = 50) +
xlab("Risikobereitschaft bei Fehlern") +
ylab("Anzahl")ggplot(data = DatensatzMA, aes(x = Fehlerbelastung)) +
geom_histogram(bins = 50) +
xlab("Fehlerbelastung") +
ylab("Anzahl")ggplot(data = DatensatzMA, aes(x = Fehlerantizipation)) +
geom_histogram(bins = 50) +
xlab("Fehlerantizipation") +
ylab("Anzahl")ggplot(data = DatensatzMA, aes(x = VertuschenFehler)) +
geom_histogram(bins = 50) +
xlab("Vertuschen von Fehlern") +
ylab("Anzahl")ggplot(data = DatensatzMA, aes(x = Fehlerkommunikation)) +
geom_histogram(bins = 50) +
xlab("Fehlerkommunikation") +
ylab("Anzahl")ggplot(data = DatensatzMA, aes(x = NachdenkenüberFehler)) +
geom_histogram(bins = 50) +
xlab("Nachdenken über Fehler") +
ylab("Anzahl")Korrelationsmatrix Skalen
EOQ <- subset(DatensatzMA, select = c(Alter, Führungsposition, Betriebszugehörigkeit, Fehlerkompetenz, LernenausFehlern, RisikobereitschaftFehler, Fehlerbelastung, Fehlerantizipation, VertuschenFehler, Fehlerkommunikation, NachdenkenüberFehler))
sjPlot::tab_corr(EOQ)| Alter | Führungsposition | Betriebszugehörigkeit | Fehlerkompetenz | LernenausFehlern | RisikobereitschaftFehler | Fehlerbelastung | Fehlerantizipation | VertuschenFehler | Fehlerkommunikation | NachdenkenüberFehler | |
|---|---|---|---|---|---|---|---|---|---|---|---|
| Alter | 0.347*** | 0.788*** | 0.130 | 0.074 | 0.160 | -0.252** | 0.043 | -0.231** | 0.049 | 0.062 | |
| Führungsposition | 0.347*** | 0.299*** | 0.033 | 0.071 | 0.196* | -0.151 | 0.010 | -0.240** | 0.008 | 0.058 | |
| Betriebszugehörigkeit | 0.788*** | 0.299*** | 0.192* | 0.061 | 0.148 | -0.187* | 0.067 | -0.196* | 0.079 | 0.121 | |
| Fehlerkompetenz | 0.130 | 0.033 | 0.192* | 0.330*** | 0.312*** | -0.109 | 0.126 | -0.073 | 0.483*** | 0.370*** | |
| LernenausFehlern | 0.074 | 0.071 | 0.061 | 0.330*** | 0.425*** | -0.082 | 0.380*** | -0.112 | 0.364*** | 0.447*** | |
| RisikobereitschaftFehler | 0.160 | 0.196* | 0.148 | 0.312*** | 0.425*** | -0.118 | 0.504*** | 0.049 | 0.234** | 0.095 | |
| Fehlerbelastung | -0.252** | -0.151 | -0.187* | -0.109 | -0.082 | -0.118 | 0.148 | 0.422*** | 0.083 | 0.412*** | |
| Fehlerantizipation | 0.043 | 0.010 | 0.067 | 0.126 | 0.380*** | 0.504*** | 0.148 | 0.155 | 0.179* | 0.193* | |
| VertuschenFehler | -0.231** | -0.240** | -0.196* | -0.073 | -0.112 | 0.049 | 0.422*** | 0.155 | -0.347*** | -0.055 | |
| Fehlerkommunikation | 0.049 | 0.008 | 0.079 | 0.483*** | 0.364*** | 0.234** | 0.083 | 0.179* | -0.347*** | 0.499*** | |
| NachdenkenüberFehler | 0.062 | 0.058 | 0.121 | 0.370*** | 0.447*** | 0.095 | 0.412*** | 0.193* | -0.055 | 0.499*** | |
| Computed correlation used pearson-method with listwise-deletion. | |||||||||||
Hypothesen
Hypothesen 1a-h
Prüfen der Annahmen - Beispiel
Als Beispiel zum Prüfen der Annahmen zur Durchführung der ANOVA dient hier die ANOVA, welche die Skala “Vertuschen von Fehlern” (abh. Variable) mit der unabhängigen Variable “Behebbarkeit der personenbezogenen Folgen” untersucht (Modell 6.4).
Levene-Tests zum Prüfen der Varianzhomogenität
Die Annahme der Varianzhomogenität wird mithilfe des Levene-Tests für jede zu rechnende ANOVA geprüft. Wenn p > 0,05 ist, kann Varianzhomogenität angenommen werden.
#Vertuschen von Fehlern
leveneTest(DatensatzMA$VertuschenFehler, DatensatzMA$Behebbarkeit_pers)## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 2 2.9461 0.05858 .
## 76
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
QQ-Plot zum Prüfen der Normalverteilung der Residuen
Die Annahme der Normalverteilung der Residuen wird mithilfe von QQ-Plots für jede zu rechnende ANOVA geprüft. Normalverteilte Residuen können angenommen werden, wenn die Punkte nah an der Geraden liegen.
model6.4 <- lm(VertuschenFehler~Behebbarkeit_pers, data = DatensatzMA)
ggqqplot(residuals(model6.4))ANOVAs für Hypothesen 1a-h
In diesem Abschnitt werden nur Varianzanalysen, die mindestens zum 10%-Niveau signifikant sind, gezeigt.
Varianzanalysen zum Testen von H1a
Anova1.3 <- (aov(Fehlerkompetenz~Behebbarkeit_sach, data = DatensatzMA))
Anova(Anova1.3, type="III") ## Anova Table (Type III tests)
##
## Response: Fehlerkompetenz
## Sum Sq Df F value Pr(>F)
## (Intercept) 598.21 1 1914.1757 < 2e-16 ***
## Behebbarkeit_sach 1.60 2 2.5615 0.08035 .
## Residuals 50.00 160
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
apa.1way.table(Behebbarkeit_sach, Fehlerkompetenz, data = DatensatzMA, show.conf.interval = FALSE)##
##
## Descriptive statistics for Fehlerkompetenz as a function of Behebbarkeit_sach.
##
## Behebbarkeit_sach M SD
## Vollständig 4.08 0.48
## Teilweise 3.92 0.54
## Irreversibel 3.70 0.82
##
## Note. M and SD represent mean and standard deviation, respectively.
##
# Paarweiser t-Test
pairwise.t.test(DatensatzMA$Fehlerkompetenz, DatensatzMA$Behebbarkeit_sach, p.adjust.method = "holm")##
## Pairwise comparisons using t tests with pooled SD
##
## data: DatensatzMA$Fehlerkompetenz and DatensatzMA$Behebbarkeit_sach
##
## Vollständig Teilweise
## Teilweise 0.293 -
## Irreversibel 0.083 0.293
##
## P value adjustment method: holm
# Balkendiagramm mit 95% Konfidenzintervallen
plotAOV1.3 <- ggplot(Anova1.3, aes(Behebbarkeit_sach, Fehlerkompetenz))
plotAOV1.3 + stat_summary(fun = mean, geom="bar", fill="light grey", colour = "Black") +
stat_summary(fun.data = mean_cl_normal, geom ="errorbar", position = position_dodge(width=0.90), width=0.2)+
labs(x = "Behebbarkeit der sachbezogenen Folgen", y = "Fehlerkompetenz") + coord_cartesian(ylim = c(0,5)) Varianzanalysen zum Testen von H1f
Anova6.1 <- (aov(VertuschenFehler~Sachbezogen, data = DatensatzMA))
Anova(Anova6.1, type="III") ## Anova Table (Type III tests)
##
## Response: VertuschenFehler
## Sum Sq Df F value Pr(>F)
## (Intercept) 193.572 1 405.5899 < 2e-16 ***
## Sachbezogen 3.587 3 2.5056 0.06024 .
## Residuals 95.929 201
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
apa.1way.table(Sachbezogen, VertuschenFehler, data = DatensatzMA, show.conf.interval = FALSE)##
##
## Descriptive statistics for VertuschenFehler as a function of Sachbezogen.
##
## Sachbezogen M SD
## Kein Schaden 2.15 0.67
## Geringer Schaden 2.29 0.66
## Mittlerer Schaden 2.39 0.73
## Hoher Schaden 1.98 0.76
##
## Note. M and SD represent mean and standard deviation, respectively.
##
# Paarweiser t-Test
pairwise.t.test(DatensatzMA$VertuschenFehler, DatensatzMA$Sachbezogen, p.adjust.method = "holm")##
## Pairwise comparisons using t tests with pooled SD
##
## data: DatensatzMA$VertuschenFehler and DatensatzMA$Sachbezogen
##
## Kein Schaden Geringer Schaden Mittlerer Schaden
## Geringer Schaden 0.829 - -
## Mittlerer Schaden 0.395 0.829 -
## Hoher Schaden 0.829 0.194 0.076
##
## P value adjustment method: holm
# Balkendiagramm mit 95% Konfidenzintervallen
plotAOV6.1 <- ggplot(Anova6.1, aes(Sachbezogen, VertuschenFehler))
plotAOV6.1 + stat_summary(fun = mean, geom="bar", fill="light grey", colour = "Black") +
stat_summary(fun.data = mean_cl_normal, geom ="errorbar",position = position_dodge(width=0.90), width=0.2)+
labs(x = "Sachbezogene Folgen", y = "Vertuschen von Fehlern") + coord_cartesian(ylim = c(0,5)) Anova6.4 <- (aov(VertuschenFehler~Behebbarkeit_pers, data = DatensatzMA))
Anova(Anova6.4, type="III")## Anova Table (Type III tests)
##
## Response: VertuschenFehler
## Sum Sq Df F value Pr(>F)
## (Intercept) 81.339 1 143.1883 < 2e-16 ***
## Behebbarkeit_pers 3.858 2 3.3958 0.03868 *
## Residuals 43.172 76
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
apa.1way.table(Behebbarkeit_pers, VertuschenFehler, data = DatensatzMA, show.conf.interval = FALSE)##
##
## Descriptive statistics for VertuschenFehler as a function of Behebbarkeit_pers.
##
## Behebbarkeit_pers M SD
## Vollständig 2.02 0.54
## Teilweise 2.19 0.76
## Irreversibel 2.77 1.04
##
## Note. M and SD represent mean and standard deviation, respectively.
##
# Paarweiser t-Test
pairwise.t.test(DatensatzMA$VertuschenFehler, DatensatzMA$Behebbarkeit_pers, p.adjust.method = "holm")##
## Pairwise comparisons using t tests with pooled SD
##
## data: DatensatzMA$VertuschenFehler and DatensatzMA$Behebbarkeit_pers
##
## Vollständig Teilweise
## Teilweise 0.388 -
## Irreversibel 0.036 0.061
##
## P value adjustment method: holm
# Balkendiagramm mit 95% Konfidenzintervallen
plotAOV6.4 <- ggplot(Anova6.4, aes(Behebbarkeit_pers, VertuschenFehler))
plotAOV6.4+ stat_summary(fun = mean, geom="bar", fill="light grey", colour = "Black") +
stat_summary(fun.data = mean_cl_normal, geom ="errorbar",position = position_dodge(width=0.90), width=0.2)+
labs(x = "Behebbarkeit der personenbezogenen Folgen", y = "Vertuschen von Fehlern") + coord_cartesian(ylim = c(0,5))Hypothesen 2a-h
Prüfen der Annahmen - Beispiel
Als Beispiel zum Prüfen der Annahmen zur Durchführung der Student-t-Tests dient hier Skala “Vertuschen von Fehlern”.
Levene-Tests zum Prüfen der Varianzhomogenität
Die Annahme der Varianzhomogenität wird mithilfe des Levene-Tests für jeden zu rechnenden t-Test geprüft. Wenn p > 0,05 ist, kann Varianzhomogenität angenommen werden.
leveneTest(DatensatzMA$VertuschenFehler, DatensatzMA$Führungsposition)## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 1 0.32 0.5722
## 203
QQ-Plots zum Prüfen der Normalverteilung
Die Annahme der Normalverteilung der Werte wird mithilfe von QQ-Plots für jeden zu rechnenden t-Test geprüft. Normalverteilte Werte können angenommen werden, wenn die Punkte nah an der Geraden liegen.
ggqqplot(DatensatzMA, x = "VertuschenFehler", facet.by = "Führungsposition")t-Tests für Hypothesen 2a-h
In diesem Abschnitt werden nur einseitige Zwei-Stichproben-t-Tests, die mindestens zum 5%-Niveau signifikant sind, gezeigt.
Führungskräfte = 1; Mitarbeitende ohne Führungsposition = 2
# Risikobereitschaft bei Fehlern
t.test(DatensatzMA$RisikobereitschaftFehler~DatensatzMA$Führungsposition, alternative = c("less"), paired=FALSE,var.equal=T)##
## Two Sample t-test
##
## data: DatensatzMA$RisikobereitschaftFehler by DatensatzMA$Führungsposition
## t = -3.1581, df = 203, p-value = 0.0009151
## alternative hypothesis: true difference in means between group 1 and group 2 is less than 0
## 95 percent confidence interval:
## -Inf -0.2916783
## sample estimates:
## mean in group 1 mean in group 2
## 3.274590 3.886364
apa.1way.table(Führungsposition, RisikobereitschaftFehler, data = DatensatzMA, show.conf.interval = FALSE)##
##
## Descriptive statistics for RisikobereitschaftFehler as a function of Führungsposition.
##
## Führungsposition M SD
## 1 3.27 0.85
## 2 3.89 0.92
##
## Note. M and SD represent mean and standard deviation, respectively.
##
cohensD(DatensatzMA$RisikobereitschaftFehler~DatensatzMA$Führungsposition)## [1] 0.7126319
# Fehlerbelastung
t.test(DatensatzMA$Fehlerbelastung~DatensatzMA$Führungsposition, alternative = c("greater"), paired=FALSE,var.equal=T)##
## Two Sample t-test
##
## data: DatensatzMA$Fehlerbelastung by DatensatzMA$Führungsposition
## t = 1.9731, df = 203, p-value = 0.02492
## alternative hypothesis: true difference in means between group 1 and group 2 is greater than 0
## 95 percent confidence interval:
## 0.0648259 Inf
## sample estimates:
## mean in group 1 mean in group 2
## 3.171585 2.772727
apa.1way.table(Führungsposition, Fehlerbelastung, data = DatensatzMA, show.conf.interval = FALSE)##
##
## Descriptive statistics for Fehlerbelastung as a function of Führungsposition.
##
## Führungsposition M SD
## 1 3.17 0.91
## 2 2.77 0.75
##
## Note. M and SD represent mean and standard deviation, respectively.
##
cohensD(DatensatzMA$Fehlerbelastung~DatensatzMA$Führungsposition)## [1] 0.4452296
# Vertuschen von Fehlern
t.test(DatensatzMA$VertuschenFehler~DatensatzMA$Führungsposition, alternative = c("greater"), paired=FALSE,var.equal=T)##
## Two Sample t-test
##
## data: DatensatzMA$VertuschenFehler by DatensatzMA$Führungsposition
## t = 2.4396, df = 203, p-value = 0.007782
## alternative hypothesis: true difference in means between group 1 and group 2 is greater than 0
## 95 percent confidence interval:
## 0.1225822 Inf
## sample estimates:
## mean in group 1 mean in group 2
## 2.281421 1.901515
apa.1way.table(Führungsposition, VertuschenFehler, data = DatensatzMA, show.conf.interval = FALSE)##
##
## Descriptive statistics for VertuschenFehler as a function of Führungsposition.
##
## Führungsposition M SD
## 1 2.28 0.70
## 2 1.90 0.61
##
## Note. M and SD represent mean and standard deviation, respectively.
##
cohensD(DatensatzMA$VertuschenFehler~DatensatzMA$Führungsposition)## [1] 0.5504909
Explorative Ergebnisse
Geschlechterspezifische Unterschiede
In diesem Abschnitt werden nur zweiseitige Zwei-Stichproben-t-Tests, die mindestens zum 5%-Niveau signifikant sind, gezeigt.
Weibliche Personen = 1; Männliche Personen = 2
# Subset erstellen, um nur noch weibliche (Geschlecht = "1") und männliche (Geschlecht = "2") Befragte im Datensatz zu haben
subset.DatensatzMA <- DatensatzMA[which((DatensatzMA$Geschlecht) != "3"),]# Risikobereitschaft bei Fehlern
t.test(subset.DatensatzMA$RisikobereitschaftFehler~subset.DatensatzMA$Geschlecht, paired=FALSE,var.equal=T)##
## Two Sample t-test
##
## data: subset.DatensatzMA$RisikobereitschaftFehler by subset.DatensatzMA$Geschlecht
## t = -2.2251, df = 202, p-value = 0.02718
## alternative hypothesis: true difference in means between group 1 and group 2 is not equal to 0
## 95 percent confidence interval:
## -0.55386808 -0.03343351
## sample estimates:
## mean in group 1 mean in group 2
## 3.250000 3.543651
apa.1way.table(Geschlecht, RisikobereitschaftFehler, data = subset.DatensatzMA, show.conf.interval = FALSE)##
##
## Descriptive statistics for RisikobereitschaftFehler as a function of Geschlecht.
##
## Geschlecht M SD
## 1 3.25 0.87
## 2 3.54 0.88
##
## Note. M and SD represent mean and standard deviation, respectively.
##
cohensD(subset.DatensatzMA$RisikobereitschaftFehler~subset.DatensatzMA$Geschlecht)## [1] 0.3372005
# Fehlerbelastung
t.test(subset.DatensatzMA$Fehlerbelastung~subset.DatensatzMA$Geschlecht, paired=FALSE,var.equal=T) ##
## Two Sample t-test
##
## data: subset.DatensatzMA$Fehlerbelastung by subset.DatensatzMA$Geschlecht
## t = 2.041, df = 202, p-value = 0.04255
## alternative hypothesis: true difference in means between group 1 and group 2 is not equal to 0
## 95 percent confidence interval:
## 0.009407249 0.545270225
## sample estimates:
## mean in group 1 mean in group 2
## 3.217021 2.939683
apa.1way.table(Geschlecht, Fehlerbelastung, data = subset.DatensatzMA, show.conf.interval = FALSE)##
##
## Descriptive statistics for Fehlerbelastung as a function of Geschlecht.
##
## Geschlecht M SD
## 1 3.22 0.92
## 2 2.94 0.83
##
## Note. M and SD represent mean and standard deviation, respectively.
##
cohensD(subset.DatensatzMA$Fehlerbelastung~subset.DatensatzMA$Geschlecht)## [1] 0.3093
# Fehlerantizipation
t.test(subset.DatensatzMA$Fehlerantizipation~subset.DatensatzMA$Geschlecht, paired=FALSE,var.equal=T)##
## Two Sample t-test
##
## data: subset.DatensatzMA$Fehlerantizipation by subset.DatensatzMA$Geschlecht
## t = -2.6778, df = 202, p-value = 0.008021
## alternative hypothesis: true difference in means between group 1 and group 2 is not equal to 0
## 95 percent confidence interval:
## -0.47053287 -0.07144619
## sample estimates:
## mean in group 1 mean in group 2
## 2.916312 3.187302
apa.1way.table(Geschlecht, Fehlerantizipation, data = subset.DatensatzMA, show.conf.interval = FALSE)##
##
## Descriptive statistics for Fehlerantizipation as a function of Geschlecht.
##
## Geschlecht M SD
## 1 2.92 0.64
## 2 3.19 0.72
##
## Note. M and SD represent mean and standard deviation, respectively.
##
cohensD(subset.DatensatzMA$Fehlerantizipation~subset.DatensatzMA$Geschlecht)## [1] 0.4057966
Altersspezifische Unterschiede
In diesem Abschnitt werden nur lineare Regressionsmodelle, die mindestens zum 5%-Niveau signifikant sind, gezeigt.
# Risikobereitschaft bei Fehlern
regAlterR <- lm(RisikobereitschaftFehler~Alter, data=DatensatzMA)
summary(regAlterR)##
## Call:
## lm(formula = RisikobereitschaftFehler ~ Alter, data = DatensatzMA)
##
## Residuals:
## Min 1Q Median 3Q Max
## -2.04302 -0.52112 0.01173 0.66131 1.80553
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 2.986402 0.168615 17.711 <2e-16 ***
## Alter 0.010951 0.004869 2.249 0.0256 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.8686 on 203 degrees of freedom
## Multiple R-squared: 0.02431, Adjusted R-squared: 0.01951
## F-statistic: 5.059 on 1 and 203 DF, p-value: 0.02558
# Fehlerbelastung
regAlterB <- lm(Fehlerbelastung~Alter, data = DatensatzMA)
summary(regAlterB)##
## Call:
## lm(formula = Fehlerbelastung ~ Alter, data = DatensatzMA)
##
## Residuals:
## Min 1Q Median 3Q Max
## -2.04017 -0.64017 -0.02677 0.61546 2.17526
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 3.561791 0.172526 20.64 < 2e-16 ***
## Alter -0.013401 0.004982 -2.69 0.00774 **
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.8887 on 203 degrees of freedom
## Multiple R-squared: 0.03442, Adjusted R-squared: 0.02966
## F-statistic: 7.236 on 1 and 203 DF, p-value: 0.007741
# Vertuschen von Fehlern
regAlterV <- lm(VertuschenFehler~Alter, data = DatensatzMA)
summary(regAlterV)##
## Call:
## lm(formula = VertuschenFehler ~ Alter, data = DatensatzMA)
##
## Residuals:
## Min 1Q Median 3Q Max
## -1.32621 -0.48259 -0.05858 0.46201 2.19437
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 2.573264 0.133603 19.261 < 2e-16 ***
## Alter -0.010294 0.003858 -2.668 0.00824 **
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.6882 on 203 degrees of freedom
## Multiple R-squared: 0.03388, Adjusted R-squared: 0.02912
## F-statistic: 7.119 on 1 and 203 DF, p-value: 0.008241
# Zusammenfassung der drei Modelle
tab_model(regAlterR, regAlterB, regAlterV)| RisikobereitschaftFehler | Fehlerbelastung | VertuschenFehler | |||||||
|---|---|---|---|---|---|---|---|---|---|
| Predictors | Estimates | CI | p | Estimates | CI | p | Estimates | CI | p |
| (Intercept) | 2.99 | 2.65 – 3.32 | <0.001 | 3.56 | 3.22 – 3.90 | <0.001 | 2.57 | 2.31 – 2.84 | <0.001 |
| Alter | 0.01 | 0.00 – 0.02 | 0.026 | -0.01 | -0.02 – -0.00 | 0.008 | -0.01 | -0.02 – -0.00 | 0.008 |
| Observations | 205 | 205 | 205 | ||||||
| R2 / R2 adjusted | 0.024 / 0.020 | 0.034 / 0.030 | 0.034 / 0.029 | ||||||
Branchenspezifische Unterschiede
Es werden die fünf Branchen mit den meisten Befragten nach ihren Mittelwerten auf den acht Skalen untersucht.
# Erstellung eines Datensatzes mit den fünf meist vertretenen Branchen
DatensatzKopie <- DatensatzMA
DatensatzKopie <- DatensatzKopie %>%
filter(Branche == "Wirtschaft und Politik" | Branche == "Finanzen, Versicherungen und Immobilien" | Branche == "Gesellschaft, Bildung und Forschung" | Branche == "Pharma und Gesundheit" | Branche == "Dienstleistungen und Handwerk")Mittelwerte der Branchen
# Fehlerkompetenz
by(DatensatzKopie$Fehlerkompetenz, list(DatensatzKopie$Branche), FUN = mean)## : Dienstleistungen und Handwerk
## [1] 3.673077
## ------------------------------------------------------------
## : Finanzen, Versicherungen und Immobilien
## [1] 3.934783
## ------------------------------------------------------------
## : Gesellschaft, Bildung und Forschung
## [1] 4.03
## ------------------------------------------------------------
## : Pharma und Gesundheit
## [1] 4.055556
## ------------------------------------------------------------
## : Wirtschaft und Politik
## [1] 3.854839
# Lernen aus Fehlern
by(DatensatzKopie$LernenausFehlern, list(DatensatzKopie$Branche), FUN = mean)## : Dienstleistungen und Handwerk
## [1] 3.461538
## ------------------------------------------------------------
## : Finanzen, Versicherungen und Immobilien
## [1] 3.554348
## ------------------------------------------------------------
## : Gesellschaft, Bildung und Forschung
## [1] 3.85
## ------------------------------------------------------------
## : Pharma und Gesundheit
## [1] 3.75
## ------------------------------------------------------------
## : Wirtschaft und Politik
## [1] 3.822581
# Risikobereitschaft bei Fehlern
by(DatensatzKopie$RisikobereitschaftFehler, list(DatensatzKopie$Branche), FUN = mean)## : Dienstleistungen und Handwerk
## [1] 3.288462
## ------------------------------------------------------------
## : Finanzen, Versicherungen und Immobilien
## [1] 3.336957
## ------------------------------------------------------------
## : Gesellschaft, Bildung und Forschung
## [1] 3.57
## ------------------------------------------------------------
## : Pharma und Gesundheit
## [1] 3.458333
## ------------------------------------------------------------
## : Wirtschaft und Politik
## [1] 3.330645
# Fehlerbelastung
by(DatensatzKopie$Fehlerbelastung, list(DatensatzKopie$Branche), FUN = mean)## : Dienstleistungen und Handwerk
## [1] 2.784615
## ------------------------------------------------------------
## : Finanzen, Versicherungen und Immobilien
## [1] 3.173913
## ------------------------------------------------------------
## : Gesellschaft, Bildung und Forschung
## [1] 3.232
## ------------------------------------------------------------
## : Pharma und Gesundheit
## [1] 2.855556
## ------------------------------------------------------------
## : Wirtschaft und Politik
## [1] 3.283871
# Fehlerantizipation
by(DatensatzKopie$Fehlerantizipation, list(DatensatzKopie$Branche), FUN = mean)## : Dienstleistungen und Handwerk
## [1] 2.646154
## ------------------------------------------------------------
## : Finanzen, Versicherungen und Immobilien
## [1] 2.93913
## ------------------------------------------------------------
## : Gesellschaft, Bildung und Forschung
## [1] 3.232
## ------------------------------------------------------------
## : Pharma und Gesundheit
## [1] 3.111111
## ------------------------------------------------------------
## : Wirtschaft und Politik
## [1] 2.890323
# Vertuschen von Fehlern
by(DatensatzKopie$VertuschenFehler, list(DatensatzKopie$Branche), FUN = mean)## : Dienstleistungen und Handwerk
## [1] 1.871795
## ------------------------------------------------------------
## : Finanzen, Versicherungen und Immobilien
## [1] 2.268116
## ------------------------------------------------------------
## : Gesellschaft, Bildung und Forschung
## [1] 2.173333
## ------------------------------------------------------------
## : Pharma und Gesundheit
## [1] 2.222222
## ------------------------------------------------------------
## : Wirtschaft und Politik
## [1] 2.397849
# Fehlerkommunikation
by(DatensatzKopie$Fehlerkommunikation, list(DatensatzKopie$Branche), FUN = mean)## : Dienstleistungen und Handwerk
## [1] 3.730769
## ------------------------------------------------------------
## : Finanzen, Versicherungen und Immobilien
## [1] 3.967391
## ------------------------------------------------------------
## : Gesellschaft, Bildung und Forschung
## [1] 4.03
## ------------------------------------------------------------
## : Pharma und Gesundheit
## [1] 4.041667
## ------------------------------------------------------------
## : Wirtschaft und Politik
## [1] 3.975806
# Nachdenken über Fehler
by(DatensatzKopie$NachdenkenüberFehler, list(DatensatzKopie$Branche), FUN = mean)## : Dienstleistungen und Handwerk
## [1] 3.815385
## ------------------------------------------------------------
## : Finanzen, Versicherungen und Immobilien
## [1] 4.078261
## ------------------------------------------------------------
## : Gesellschaft, Bildung und Forschung
## [1] 4.12
## ------------------------------------------------------------
## : Pharma und Gesundheit
## [1] 3.766667
## ------------------------------------------------------------
## : Wirtschaft und Politik
## [1] 4.16129
Balkendiagramm zu den Mittelwerten der Branchen auf der Skala Fehlerantizipation
AnovaBranche5 <- (aov(Fehlerantizipation~Branche, data = DatensatzKopie))
plotAOVB5 <- ggplot(AnovaBranche5, aes(Fehlerantizipation, Branche))
plotAOVB5 + stat_summary(fun = mean, geom="bar", fill="grey", colour = "Black") +
stat_summary(fun.data = mean_cl_normal, geom ="errorbar",position = position_dodge(width=0.90), width=0.2)+
labs(y = "Branche", x = "Fehlerantizipation")