Masterarbeit

Leonie Kapitza

2023-02-19

Stichprobenbeschreibung

Geschlecht

DatensatzMA %>% 
  count(Geschlecht) %>% 
  mutate(Geschlecht = str_replace(Geschlecht, c("1", "2", "3"), 
                                  c("Weiblich", "Männlich", "Divers")),
         Anteil = round(n / sum(n), 4)) %>% 
  kable()
Geschlecht n Anteil
Weiblich 141 0.6878
Männlich 63 0.3073
Divers 1 0.0049

Alter

# Lageparameter Alter
DatensatzMA %>% 
  select(Alter) %>% 
  summarise(Mean = mean(Alter),
            Median = median(Alter),
            SD = sd(Alter),
            Min = min(Alter),
            Max = max(Alter)) %>% 
  kable()
Mean Median SD Min Max
32.3122 26 12.48961 17 71
# Histogramm Alter
ggplot(data = DatensatzMA, aes(x = Alter)) +
  geom_histogram(bins = 100) +
  xlab("Alter in Jahren") +
  ylab("Anzahl")

# Boxplot Alter
ggplot(data = DatensatzMA, aes(x = Alter)) +
  geom_boxplot()

Führungsposition

# Anzahl der Befragten mit Führungsposition
DatensatzMA %>% 
  count(Führungsposition) %>% 
  mutate(Führungsposition = str_replace(Führungsposition, c("1", "2"), 
                                  c("Nein", "Ja")),
         Anteil = round(n / sum(n), 4)) %>% 
  kable()
Führungsposition n Anteil
Nein 183 0.8927
Ja 22 0.1073
# Lageparameter Führungsverantwortung
# Anzahl der Personen, für die die Führungskräfte Führungsverantwortung haben
DatensatzMA %>% 
  select(Führungsverantwortung) %>% 
  summarise(Mean = mean(Führungsverantwortung, na.rm = TRUE),
            Median = median(Führungsverantwortung, na.rm = TRUE),
            SD = sd(Führungsverantwortung, na.rm = TRUE),
            Min = min(Führungsverantwortung, na.rm = TRUE),
            Max = max(Führungsverantwortung, na.rm = TRUE)) %>% 
  kable()
Mean Median SD Min Max
20.31818 8.5 27.10541 2 100
# Boxplot Führungsverantwortung
ggplot(data = subset(DatensatzMA, !is.na(Führungsverantwortung)), 
       aes(x=Führungsverantwortung))+
  geom_boxplot()+
  xlab("Führungsverantwortung (Anzahl der Mitarbeiter)")

Branchenzugehörigkeit

ggplot(data = DatensatzMA, aes(y = factor(Branche, level = branchen_order))) +
  geom_bar() +
  geom_text(
    stat = "count",
    aes(label = ..count..),
    hjust = -0.25,
    size = 3
  ) +
  ylab("Branche") +
  xlab("Anzahl")

Bildungsgrad

DatensatzMA %>% 
  count(Bildungsgrad) %>% 
  mutate(Bildungsgrad = str_replace(Bildungsgrad, c("1", "2", "3", "4", "5", "6", "7"), 
                                  c("Hauptschulabschluss", "Realschulabschluss", 
                                    "Abitur", "Berufsausbildung", "Bachelor", 
                                    "Master", "Doktor/PhD")),
         Anteil = round(n / sum(n), 4)) %>% 
  kable()
Bildungsgrad n Anteil
Hauptschulabschluss 2 0.0098
Realschulabschluss 7 0.0341
Abitur 35 0.1707
Berufsausbildung 18 0.0878
Bachelor 100 0.4878
Master 37 0.1805
Doktor/PhD 6 0.0293

Deskriptive Statistiken

Risikopotenzial

Sach- bzw. vermögensbezogene Folgen

DatensatzMA %>%
  select(Sachbezogen) %>% 
  count(Sachbezogen) %>% 
  rename(`Sach- bzw. vermögensbezogene Folgen` = Sachbezogen) %>%
  mutate(Anteil = round(n / sum(n), 4)) %>% 
  kable()
Sach- bzw. vermögensbezogene Folgen n Anteil
Kein Schaden 42 0.2049
Geringer Schaden 86 0.4195
Mittlerer Schaden 49 0.2390
Hoher Schaden 28 0.1366
# Balkendiagramm Sach- bzw. vermögensbezogene Folgen
ggplot(data = DatensatzMA, aes(x = Sachbezogen)) +
  geom_bar() +
  geom_text(
    stat = "count",
    aes(label = ..count..),
    vjust = -1,
    size = 3
) +
  xlab("Sachbezogene Folgen / finanzieller Schaden") +
  ylab("Anzahl") +
  scale_x_discrete(labels=c("kein", "gering", "mittel", "hoch"))

Personenbezogene Folgen

DatensatzMA %>%
  select(Personenbezogen) %>% 
  count(Personenbezogen) %>% 
  mutate(Anteil = round(n / sum(n), 4)) %>% 
  rename(`Personenbezogene Folgen` = Personenbezogen) %>%
  kable()
Personenbezogene Folgen n Anteil
Kein Gesundheitsrisiko 126 0.6146
Geringes Gesundheitsrisiko 44 0.2146
Mittleres Gesundheitsrisiko 19 0.0927
Hohes Gesundheitsrisiko 16 0.0780
# Balkendiagramm Personenbezogene Folgen
ggplot(data = DatensatzMA, aes(x = Personenbezogen)) +
  geom_bar() +
  geom_text(
    stat = "count",
    aes(label = ..count..),
    vjust = -1,
    size = 3
  ) +
  xlab("Personenbezogene Folgen / Gesundheitsrisiko") +
  ylab("Anzahl") +
  scale_x_discrete(labels=c("kein", "niedrig", "mittel", "hoch"))

Behebbarkeit der Sach- und vermögensbezogenen Folgen

# Kreuztabelle der sachbezogenen Folgen und deren Behebbarkeit
sjt.xtab(DatensatzMA$Sachbezogen, DatensatzMA$Behebbarkeit_sach)
Sachbezogen Behebbarkeit_sach Total
Vollständig Teilweise Irreversibel
Kein Schaden 0 0 0 0
Geringer Schaden 29 51 6 86
Mittlerer Schaden 4 39 6 49
Hoher Schaden 3 21 4 28
Total 36 111 16 163
χ2=NaN · df=6 · Cramer’s V=NaN · Fisher’s p=0.006
# Balkendiagramm zur Behebbarkeit der Sach- und vermögensbezogenen Folgen
ggplot(data = DatensatzMA, aes(x = Behebbarkeit_sach)) +
  geom_bar() +
 geom_text(
    stat = "count",
    aes(label = ..count..),
    vjust = -1,
    size = 3
  ) +
  xlab("Behebbarkeit der sach- bzw. vermögensbezogenen Folgen") +
  ylab("Anzahl")

Behebbarkeit der personenbezogenen Folgen

# Balkendiagramm zur Behebbarkeit der personenbezogenen Folgen
ggplot(data = DatensatzMA, aes(x = Behebbarkeit_pers)) +
  geom_bar() +
 geom_text(
    stat = "count",
    aes(label = ..count..),
    vjust = -1,
    size = 3
  ) +
  xlab("Behebbarkeit der personenbezogenen Folgen") +
  ylab("Anzahl")

Cronbachs Alpha EOQ

# Tabelle mit Cronbachs Alpha Werten für die verschiedenen Skalen
c1 <- ltm::cronbach.alpha(subset(DatensatzMA, select = c(FKomp1, FKomp2, FKomp3, FKomp4)))
c2 <- ltm::cronbach.alpha(subset(DatensatzMA, select = c(LaF1, LaF2, LaF3, LaF4)))
c3 <- ltm::cronbach.alpha(subset(DatensatzMA, select = c(RbF1, RbF2, RbF3, RbF4)))
c4 <- ltm::cronbach.alpha(subset(DatensatzMA, select = c(FBel1, FBel2, FBel3, FBel4, FBel5)))
c5 <- ltm::cronbach.alpha(subset(DatensatzMA, select = c(FAnt1, FAnt2, FAnt3, FAnt4, FAnt5)))
c6 <- ltm::cronbach.alpha(subset(DatensatzMA, select = c(VvF1, VvF2, VvF3, VvF4, VvF5, VvF6)))
c7 <- ltm::cronbach.alpha(subset(DatensatzMA, select = c(FKomm1, FKomm2, FKomm3, FKomm4)))
c8 <- ltm::cronbach.alpha(subset(DatensatzMA, select = c(NüF1, NüF2, NüF3, NüF4, NüF5)))


c_alpha <- matrix(c("Skala 'Fehlerkompetenz'", "Skala 'Lernen aus Fehlern'",
                    "Skala 'Risikobereitschaft bei Fehlern'", 
                    "Skala 'Fehlerbelastung'", "Skala 'Fehlerantizipation'", 
                    "Skala 'Vertuschen von Fehlern'", "Skala 'Fehlerkommunikation'", 
                    "Skala 'Nachdenken über Fehler'",c1[1], c2[1], c3[1], c4[1],
                    c5[1], c6[1], c7[1], c8[1]), ncol = 2, nrow = 8)
colnames(c_alpha) <- c("Skala", "Cronbachs Alpha")
c_alpha <- as.data.frame(c_alpha)
c_alpha[,2] <- round(as.numeric(c_alpha[,2]),4)

c_alpha %>% 
  kable()
Skala Cronbachs Alpha
Skala ‘Fehlerkompetenz’ 0.6206
Skala ‘Lernen aus Fehlern’ 0.6979
Skala ‘Risikobereitschaft bei Fehlern’ 0.8218
Skala ‘Fehlerbelastung’ 0.8643
Skala ‘Fehlerantizipation’ 0.7055
Skala ‘Vertuschen von Fehlern’ 0.8030
Skala ‘Fehlerkommunikation’ 0.5729
Skala ‘Nachdenken über Fehler’ 0.8058

Skalenwerte EOQ

test <- DatensatzMA %>% 
  select(Fehlerkompetenz, LernenausFehlern, RisikobereitschaftFehler,
         Fehlerbelastung, Fehlerantizipation, Fehlerantizipation, 
         VertuschenFehler, Fehlerkommunikation, NachdenkenüberFehler) %>% 
  summarise_each(funs(Mean = mean,
                      Median = median,
                      SD = sd,
                      Min = min,
                      Max = max))
test <- round(test, 4)
test %>% 
  gather(stat, val) %>% 
  separate(stat, into = c("Skala", "stat"), sep = "_") %>% 
  spread(stat, val) %>% 
  select(Skala, Mean, Median, SD, Min, Max) %>% 
  kable()
Skala Mean Median SD Min Max
Fehlerantizipation 2.9990 3.0000 0.6764 1.20 5.0
Fehlerbelastung 3.1288 3.2000 0.9022 1.00 5.0
Fehlerkommunikation 3.9890 4.0000 0.5542 1.50 5.0
Fehlerkompetenz 3.9366 4.0000 0.5592 1.75 5.0
LernenausFehlern 3.7134 3.7500 0.6899 1.25 5.0
NachdenkenüberFehler 4.0371 4.2000 0.6497 1.60 5.0
RisikobereitschaftFehler 3.3402 3.5000 0.8771 1.25 5.0
VertuschenFehler 2.2407 2.1667 0.6984 1.00 4.5

Boxplots Skalen

# Fehlerkompetenz
ggplot(data = DatensatzMA, aes(y = Fehlerkompetenz)) +
  geom_boxplot()

# Lernen aus Fehlern
ggplot(data = DatensatzMA, aes(y = LernenausFehlern)) +
  geom_boxplot()

# Risikobereitschaft bei Fehlern
ggplot(data = DatensatzMA, aes(y = RisikobereitschaftFehler)) +
  geom_boxplot()

# Fehlerbelastung
ggplot(data = DatensatzMA, aes(y = Fehlerbelastung)) +
  geom_boxplot()

# Fehlerantizipation
ggplot(data = DatensatzMA, aes(y = Fehlerantizipation)) +
  geom_boxplot()

# Vertuschen von Fehlern
ggplot(data = DatensatzMA, aes(y = VertuschenFehler)) +
  geom_boxplot()

# Fehlerkommunikation
ggplot(data = DatensatzMA, aes(y = Fehlerkommunikation)) +
  geom_boxplot()

# Nachdenken über Fehler
ggplot(data = DatensatzMA, aes(y = NachdenkenüberFehler)) +
  geom_boxplot()

Histogramme Skalen

ggplot(data = DatensatzMA, aes(x = Fehlerkompetenz)) +
  geom_histogram(bins = 50) +
  xlab("Fehlerkompetenz") +
  ylab("Anzahl") 

ggplot(data = DatensatzMA, aes(x = LernenausFehlern)) +
  geom_histogram(bins = 50) +
  xlab("Lernen aus Fehlern") +
  ylab("Anzahl")

ggplot(data = DatensatzMA, aes(x = RisikobereitschaftFehler)) +
  geom_histogram(bins = 50) +
  xlab("Risikobereitschaft bei Fehlern") +
  ylab("Anzahl")

ggplot(data = DatensatzMA, aes(x = Fehlerbelastung)) +
  geom_histogram(bins = 50) +
  xlab("Fehlerbelastung") +
  ylab("Anzahl")

ggplot(data = DatensatzMA, aes(x = Fehlerantizipation)) +
  geom_histogram(bins = 50) +
  xlab("Fehlerantizipation") +
  ylab("Anzahl")

ggplot(data = DatensatzMA, aes(x = VertuschenFehler)) +
  geom_histogram(bins = 50) +
  xlab("Vertuschen von Fehlern") +
  ylab("Anzahl")

ggplot(data = DatensatzMA, aes(x = Fehlerkommunikation)) +
  geom_histogram(bins = 50) +
  xlab("Fehlerkommunikation") +
  ylab("Anzahl")

ggplot(data = DatensatzMA, aes(x = NachdenkenüberFehler)) +
  geom_histogram(bins = 50) +
  xlab("Nachdenken über Fehler") +
  ylab("Anzahl")

Korrelationsmatrix Skalen

EOQ <- subset(DatensatzMA, select = c(Alter, Führungsposition, Betriebszugehörigkeit, Fehlerkompetenz, LernenausFehlern, RisikobereitschaftFehler, Fehlerbelastung, Fehlerantizipation, VertuschenFehler, Fehlerkommunikation, NachdenkenüberFehler))
sjPlot::tab_corr(EOQ)
  Alter Führungsposition Betriebszugehörigkeit Fehlerkompetenz LernenausFehlern RisikobereitschaftFehler Fehlerbelastung Fehlerantizipation VertuschenFehler Fehlerkommunikation NachdenkenüberFehler
Alter   0.347*** 0.788*** 0.130 0.074 0.160 -0.252** 0.043 -0.231** 0.049 0.062
Führungsposition 0.347***   0.299*** 0.033 0.071 0.196* -0.151 0.010 -0.240** 0.008 0.058
Betriebszugehörigkeit 0.788*** 0.299***   0.192* 0.061 0.148 -0.187* 0.067 -0.196* 0.079 0.121
Fehlerkompetenz 0.130 0.033 0.192*   0.330*** 0.312*** -0.109 0.126 -0.073 0.483*** 0.370***
LernenausFehlern 0.074 0.071 0.061 0.330***   0.425*** -0.082 0.380*** -0.112 0.364*** 0.447***
RisikobereitschaftFehler 0.160 0.196* 0.148 0.312*** 0.425***   -0.118 0.504*** 0.049 0.234** 0.095
Fehlerbelastung -0.252** -0.151 -0.187* -0.109 -0.082 -0.118   0.148 0.422*** 0.083 0.412***
Fehlerantizipation 0.043 0.010 0.067 0.126 0.380*** 0.504*** 0.148   0.155 0.179* 0.193*
VertuschenFehler -0.231** -0.240** -0.196* -0.073 -0.112 0.049 0.422*** 0.155   -0.347*** -0.055
Fehlerkommunikation 0.049 0.008 0.079 0.483*** 0.364*** 0.234** 0.083 0.179* -0.347***   0.499***
NachdenkenüberFehler 0.062 0.058 0.121 0.370*** 0.447*** 0.095 0.412*** 0.193* -0.055 0.499***  
Computed correlation used pearson-method with listwise-deletion.

Hypothesen

Hypothesen 1a-h

Prüfen der Annahmen - Beispiel

Als Beispiel zum Prüfen der Annahmen zur Durchführung der ANOVA dient hier die ANOVA, welche die Skala “Vertuschen von Fehlern” (abh. Variable) mit der unabhängigen Variable “Behebbarkeit der personenbezogenen Folgen” untersucht (Modell 6.4).

Levene-Tests zum Prüfen der Varianzhomogenität

Die Annahme der Varianzhomogenität wird mithilfe des Levene-Tests für jede zu rechnende ANOVA geprüft. Wenn p > 0,05 ist, kann Varianzhomogenität angenommen werden.

#Vertuschen von Fehlern
leveneTest(DatensatzMA$VertuschenFehler, DatensatzMA$Behebbarkeit_pers)
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value  Pr(>F)  
## group  2  2.9461 0.05858 .
##       76                  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

QQ-Plot zum Prüfen der Normalverteilung der Residuen

Die Annahme der Normalverteilung der Residuen wird mithilfe von QQ-Plots für jede zu rechnende ANOVA geprüft. Normalverteilte Residuen können angenommen werden, wenn die Punkte nah an der Geraden liegen.

model6.4 <- lm(VertuschenFehler~Behebbarkeit_pers, data = DatensatzMA)
ggqqplot(residuals(model6.4))

ANOVAs für Hypothesen 1a-h

In diesem Abschnitt werden nur Varianzanalysen, die mindestens zum 10%-Niveau signifikant sind, gezeigt.

Varianzanalysen zum Testen von H1a

Anova1.3 <- (aov(Fehlerkompetenz~Behebbarkeit_sach, data = DatensatzMA))
Anova(Anova1.3, type="III") 
## Anova Table (Type III tests)
## 
## Response: Fehlerkompetenz
##                   Sum Sq  Df   F value  Pr(>F)    
## (Intercept)       598.21   1 1914.1757 < 2e-16 ***
## Behebbarkeit_sach   1.60   2    2.5615 0.08035 .  
## Residuals          50.00 160                      
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
apa.1way.table(Behebbarkeit_sach, Fehlerkompetenz, data = DatensatzMA, show.conf.interval = FALSE)
## 
## 
## Descriptive statistics for Fehlerkompetenz as a function of Behebbarkeit_sach.  
## 
##  Behebbarkeit_sach    M   SD
##        Vollständig 4.08 0.48
##          Teilweise 3.92 0.54
##       Irreversibel 3.70 0.82
## 
## Note. M and SD represent mean and standard deviation, respectively.
## 
# Paarweiser t-Test
pairwise.t.test(DatensatzMA$Fehlerkompetenz, DatensatzMA$Behebbarkeit_sach, p.adjust.method = "holm")
## 
##  Pairwise comparisons using t tests with pooled SD 
## 
## data:  DatensatzMA$Fehlerkompetenz and DatensatzMA$Behebbarkeit_sach 
## 
##              Vollständig Teilweise
## Teilweise    0.293       -        
## Irreversibel 0.083       0.293    
## 
## P value adjustment method: holm
# Balkendiagramm mit 95% Konfidenzintervallen
plotAOV1.3 <- ggplot(Anova1.3, aes(Behebbarkeit_sach, Fehlerkompetenz))
plotAOV1.3 + stat_summary(fun = mean, geom="bar", fill="light grey", colour = "Black") +
   stat_summary(fun.data = mean_cl_normal, geom ="errorbar", position = position_dodge(width=0.90), width=0.2)+
   labs(x = "Behebbarkeit der sachbezogenen Folgen", y = "Fehlerkompetenz") + coord_cartesian(ylim = c(0,5)) 

Varianzanalysen zum Testen von H1f

Anova6.1 <- (aov(VertuschenFehler~Sachbezogen, data = DatensatzMA))
Anova(Anova6.1, type="III") 
## Anova Table (Type III tests)
## 
## Response: VertuschenFehler
##              Sum Sq  Df  F value  Pr(>F)    
## (Intercept) 193.572   1 405.5899 < 2e-16 ***
## Sachbezogen   3.587   3   2.5056 0.06024 .  
## Residuals    95.929 201                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
apa.1way.table(Sachbezogen, VertuschenFehler, data = DatensatzMA, show.conf.interval = FALSE)
## 
## 
## Descriptive statistics for VertuschenFehler as a function of Sachbezogen.  
## 
##        Sachbezogen    M   SD
##       Kein Schaden 2.15 0.67
##   Geringer Schaden 2.29 0.66
##  Mittlerer Schaden 2.39 0.73
##      Hoher Schaden 1.98 0.76
## 
## Note. M and SD represent mean and standard deviation, respectively.
## 
# Paarweiser t-Test
pairwise.t.test(DatensatzMA$VertuschenFehler, DatensatzMA$Sachbezogen, p.adjust.method = "holm")
## 
##  Pairwise comparisons using t tests with pooled SD 
## 
## data:  DatensatzMA$VertuschenFehler and DatensatzMA$Sachbezogen 
## 
##                   Kein Schaden Geringer Schaden Mittlerer Schaden
## Geringer Schaden  0.829        -                -                
## Mittlerer Schaden 0.395        0.829            -                
## Hoher Schaden     0.829        0.194            0.076            
## 
## P value adjustment method: holm
# Balkendiagramm mit 95% Konfidenzintervallen
plotAOV6.1 <- ggplot(Anova6.1, aes(Sachbezogen, VertuschenFehler))
plotAOV6.1 + stat_summary(fun = mean, geom="bar", fill="light grey", colour = "Black") +
   stat_summary(fun.data = mean_cl_normal, geom ="errorbar",position = position_dodge(width=0.90), width=0.2)+
   labs(x = "Sachbezogene Folgen", y = "Vertuschen von Fehlern") + coord_cartesian(ylim = c(0,5)) 

Anova6.4 <- (aov(VertuschenFehler~Behebbarkeit_pers, data = DatensatzMA))
Anova(Anova6.4, type="III")
## Anova Table (Type III tests)
## 
## Response: VertuschenFehler
##                   Sum Sq Df  F value  Pr(>F)    
## (Intercept)       81.339  1 143.1883 < 2e-16 ***
## Behebbarkeit_pers  3.858  2   3.3958 0.03868 *  
## Residuals         43.172 76                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
apa.1way.table(Behebbarkeit_pers, VertuschenFehler, data = DatensatzMA, show.conf.interval = FALSE)
## 
## 
## Descriptive statistics for VertuschenFehler as a function of Behebbarkeit_pers.  
## 
##  Behebbarkeit_pers    M   SD
##        Vollständig 2.02 0.54
##          Teilweise 2.19 0.76
##       Irreversibel 2.77 1.04
## 
## Note. M and SD represent mean and standard deviation, respectively.
## 
# Paarweiser t-Test
pairwise.t.test(DatensatzMA$VertuschenFehler, DatensatzMA$Behebbarkeit_pers, p.adjust.method = "holm")
## 
##  Pairwise comparisons using t tests with pooled SD 
## 
## data:  DatensatzMA$VertuschenFehler and DatensatzMA$Behebbarkeit_pers 
## 
##              Vollständig Teilweise
## Teilweise    0.388       -        
## Irreversibel 0.036       0.061    
## 
## P value adjustment method: holm
# Balkendiagramm mit 95% Konfidenzintervallen
plotAOV6.4 <- ggplot(Anova6.4, aes(Behebbarkeit_pers, VertuschenFehler))
 plotAOV6.4+ stat_summary(fun = mean, geom="bar", fill="light grey", colour = "Black") +
   stat_summary(fun.data = mean_cl_normal, geom ="errorbar",position = position_dodge(width=0.90), width=0.2)+
   labs(x = "Behebbarkeit der personenbezogenen Folgen", y = "Vertuschen von Fehlern") + coord_cartesian(ylim = c(0,5))

Hypothesen 2a-h

Prüfen der Annahmen - Beispiel

Als Beispiel zum Prüfen der Annahmen zur Durchführung der Student-t-Tests dient hier Skala “Vertuschen von Fehlern”.

Levene-Tests zum Prüfen der Varianzhomogenität

Die Annahme der Varianzhomogenität wird mithilfe des Levene-Tests für jeden zu rechnenden t-Test geprüft. Wenn p > 0,05 ist, kann Varianzhomogenität angenommen werden.

leveneTest(DatensatzMA$VertuschenFehler, DatensatzMA$Führungsposition)
## Levene's Test for Homogeneity of Variance (center = median)
##        Df F value Pr(>F)
## group   1    0.32 0.5722
##       203

QQ-Plots zum Prüfen der Normalverteilung

Die Annahme der Normalverteilung der Werte wird mithilfe von QQ-Plots für jeden zu rechnenden t-Test geprüft. Normalverteilte Werte können angenommen werden, wenn die Punkte nah an der Geraden liegen.

ggqqplot(DatensatzMA, x = "VertuschenFehler", facet.by = "Führungsposition")

t-Tests für Hypothesen 2a-h

In diesem Abschnitt werden nur einseitige Zwei-Stichproben-t-Tests, die mindestens zum 5%-Niveau signifikant sind, gezeigt.

Führungskräfte = 1; Mitarbeitende ohne Führungsposition = 2

# Risikobereitschaft bei Fehlern
t.test(DatensatzMA$RisikobereitschaftFehler~DatensatzMA$Führungsposition, alternative = c("less"), paired=FALSE,var.equal=T)
## 
##  Two Sample t-test
## 
## data:  DatensatzMA$RisikobereitschaftFehler by DatensatzMA$Führungsposition
## t = -3.1581, df = 203, p-value = 0.0009151
## alternative hypothesis: true difference in means between group 1 and group 2 is less than 0
## 95 percent confidence interval:
##        -Inf -0.2916783
## sample estimates:
## mean in group 1 mean in group 2 
##        3.274590        3.886364
apa.1way.table(Führungsposition, RisikobereitschaftFehler, data = DatensatzMA, show.conf.interval = FALSE)
## 
## 
## Descriptive statistics for RisikobereitschaftFehler as a function of Führungsposition.  
## 
##  Führungsposition    M   SD
##                 1 3.27 0.85
##                 2 3.89 0.92
## 
## Note. M and SD represent mean and standard deviation, respectively.
## 
cohensD(DatensatzMA$RisikobereitschaftFehler~DatensatzMA$Führungsposition)
## [1] 0.7126319
# Fehlerbelastung
t.test(DatensatzMA$Fehlerbelastung~DatensatzMA$Führungsposition, alternative = c("greater"), paired=FALSE,var.equal=T)
## 
##  Two Sample t-test
## 
## data:  DatensatzMA$Fehlerbelastung by DatensatzMA$Führungsposition
## t = 1.9731, df = 203, p-value = 0.02492
## alternative hypothesis: true difference in means between group 1 and group 2 is greater than 0
## 95 percent confidence interval:
##  0.0648259       Inf
## sample estimates:
## mean in group 1 mean in group 2 
##        3.171585        2.772727
apa.1way.table(Führungsposition, Fehlerbelastung, data = DatensatzMA, show.conf.interval = FALSE)
## 
## 
## Descriptive statistics for Fehlerbelastung as a function of Führungsposition.  
## 
##  Führungsposition    M   SD
##                 1 3.17 0.91
##                 2 2.77 0.75
## 
## Note. M and SD represent mean and standard deviation, respectively.
## 
cohensD(DatensatzMA$Fehlerbelastung~DatensatzMA$Führungsposition)
## [1] 0.4452296
# Vertuschen von Fehlern
t.test(DatensatzMA$VertuschenFehler~DatensatzMA$Führungsposition, alternative = c("greater"), paired=FALSE,var.equal=T)
## 
##  Two Sample t-test
## 
## data:  DatensatzMA$VertuschenFehler by DatensatzMA$Führungsposition
## t = 2.4396, df = 203, p-value = 0.007782
## alternative hypothesis: true difference in means between group 1 and group 2 is greater than 0
## 95 percent confidence interval:
##  0.1225822       Inf
## sample estimates:
## mean in group 1 mean in group 2 
##        2.281421        1.901515
apa.1way.table(Führungsposition, VertuschenFehler, data = DatensatzMA, show.conf.interval = FALSE)
## 
## 
## Descriptive statistics for VertuschenFehler as a function of Führungsposition.  
## 
##  Führungsposition    M   SD
##                 1 2.28 0.70
##                 2 1.90 0.61
## 
## Note. M and SD represent mean and standard deviation, respectively.
## 
cohensD(DatensatzMA$VertuschenFehler~DatensatzMA$Führungsposition)
## [1] 0.5504909

Explorative Ergebnisse

Geschlechterspezifische Unterschiede

In diesem Abschnitt werden nur zweiseitige Zwei-Stichproben-t-Tests, die mindestens zum 5%-Niveau signifikant sind, gezeigt.

Weibliche Personen = 1; Männliche Personen = 2

# Subset erstellen, um nur noch weibliche (Geschlecht = "1") und männliche (Geschlecht = "2") Befragte im Datensatz zu haben

subset.DatensatzMA <- DatensatzMA[which((DatensatzMA$Geschlecht) != "3"),]
# Risikobereitschaft bei Fehlern
t.test(subset.DatensatzMA$RisikobereitschaftFehler~subset.DatensatzMA$Geschlecht, paired=FALSE,var.equal=T)
## 
##  Two Sample t-test
## 
## data:  subset.DatensatzMA$RisikobereitschaftFehler by subset.DatensatzMA$Geschlecht
## t = -2.2251, df = 202, p-value = 0.02718
## alternative hypothesis: true difference in means between group 1 and group 2 is not equal to 0
## 95 percent confidence interval:
##  -0.55386808 -0.03343351
## sample estimates:
## mean in group 1 mean in group 2 
##        3.250000        3.543651
apa.1way.table(Geschlecht, RisikobereitschaftFehler, data = subset.DatensatzMA, show.conf.interval = FALSE)
## 
## 
## Descriptive statistics for RisikobereitschaftFehler as a function of Geschlecht.  
## 
##  Geschlecht    M   SD
##           1 3.25 0.87
##           2 3.54 0.88
## 
## Note. M and SD represent mean and standard deviation, respectively.
## 
cohensD(subset.DatensatzMA$RisikobereitschaftFehler~subset.DatensatzMA$Geschlecht)
## [1] 0.3372005
# Fehlerbelastung
t.test(subset.DatensatzMA$Fehlerbelastung~subset.DatensatzMA$Geschlecht, paired=FALSE,var.equal=T) 
## 
##  Two Sample t-test
## 
## data:  subset.DatensatzMA$Fehlerbelastung by subset.DatensatzMA$Geschlecht
## t = 2.041, df = 202, p-value = 0.04255
## alternative hypothesis: true difference in means between group 1 and group 2 is not equal to 0
## 95 percent confidence interval:
##  0.009407249 0.545270225
## sample estimates:
## mean in group 1 mean in group 2 
##        3.217021        2.939683
apa.1way.table(Geschlecht, Fehlerbelastung, data = subset.DatensatzMA, show.conf.interval = FALSE)
## 
## 
## Descriptive statistics for Fehlerbelastung as a function of Geschlecht.  
## 
##  Geschlecht    M   SD
##           1 3.22 0.92
##           2 2.94 0.83
## 
## Note. M and SD represent mean and standard deviation, respectively.
## 
cohensD(subset.DatensatzMA$Fehlerbelastung~subset.DatensatzMA$Geschlecht)
## [1] 0.3093
# Fehlerantizipation
t.test(subset.DatensatzMA$Fehlerantizipation~subset.DatensatzMA$Geschlecht, paired=FALSE,var.equal=T)
## 
##  Two Sample t-test
## 
## data:  subset.DatensatzMA$Fehlerantizipation by subset.DatensatzMA$Geschlecht
## t = -2.6778, df = 202, p-value = 0.008021
## alternative hypothesis: true difference in means between group 1 and group 2 is not equal to 0
## 95 percent confidence interval:
##  -0.47053287 -0.07144619
## sample estimates:
## mean in group 1 mean in group 2 
##        2.916312        3.187302
apa.1way.table(Geschlecht, Fehlerantizipation, data = subset.DatensatzMA, show.conf.interval = FALSE)
## 
## 
## Descriptive statistics for Fehlerantizipation as a function of Geschlecht.  
## 
##  Geschlecht    M   SD
##           1 2.92 0.64
##           2 3.19 0.72
## 
## Note. M and SD represent mean and standard deviation, respectively.
## 
cohensD(subset.DatensatzMA$Fehlerantizipation~subset.DatensatzMA$Geschlecht)
## [1] 0.4057966

Altersspezifische Unterschiede

In diesem Abschnitt werden nur lineare Regressionsmodelle, die mindestens zum 5%-Niveau signifikant sind, gezeigt.

# Risikobereitschaft bei Fehlern
regAlterR <- lm(RisikobereitschaftFehler~Alter, data=DatensatzMA)
summary(regAlterR)
## 
## Call:
## lm(formula = RisikobereitschaftFehler ~ Alter, data = DatensatzMA)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -2.04302 -0.52112  0.01173  0.66131  1.80553 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept) 2.986402   0.168615  17.711   <2e-16 ***
## Alter       0.010951   0.004869   2.249   0.0256 *  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 0.8686 on 203 degrees of freedom
## Multiple R-squared:  0.02431,    Adjusted R-squared:  0.01951 
## F-statistic: 5.059 on 1 and 203 DF,  p-value: 0.02558
# Fehlerbelastung
regAlterB <- lm(Fehlerbelastung~Alter, data = DatensatzMA)
summary(regAlterB)
## 
## Call:
## lm(formula = Fehlerbelastung ~ Alter, data = DatensatzMA)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -2.04017 -0.64017 -0.02677  0.61546  2.17526 
## 
## Coefficients:
##              Estimate Std. Error t value Pr(>|t|)    
## (Intercept)  3.561791   0.172526   20.64  < 2e-16 ***
## Alter       -0.013401   0.004982   -2.69  0.00774 ** 
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 0.8887 on 203 degrees of freedom
## Multiple R-squared:  0.03442,    Adjusted R-squared:  0.02966 
## F-statistic: 7.236 on 1 and 203 DF,  p-value: 0.007741
# Vertuschen von Fehlern
regAlterV <- lm(VertuschenFehler~Alter, data = DatensatzMA)
summary(regAlterV)
## 
## Call:
## lm(formula = VertuschenFehler ~ Alter, data = DatensatzMA)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -1.32621 -0.48259 -0.05858  0.46201  2.19437 
## 
## Coefficients:
##              Estimate Std. Error t value Pr(>|t|)    
## (Intercept)  2.573264   0.133603  19.261  < 2e-16 ***
## Alter       -0.010294   0.003858  -2.668  0.00824 ** 
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 0.6882 on 203 degrees of freedom
## Multiple R-squared:  0.03388,    Adjusted R-squared:  0.02912 
## F-statistic: 7.119 on 1 and 203 DF,  p-value: 0.008241
# Zusammenfassung der drei Modelle
tab_model(regAlterR, regAlterB, regAlterV)
  RisikobereitschaftFehler Fehlerbelastung VertuschenFehler
Predictors Estimates CI p Estimates CI p Estimates CI p
(Intercept) 2.99 2.65 – 3.32 <0.001 3.56 3.22 – 3.90 <0.001 2.57 2.31 – 2.84 <0.001
Alter 0.01 0.00 – 0.02 0.026 -0.01 -0.02 – -0.00 0.008 -0.01 -0.02 – -0.00 0.008
Observations 205 205 205
R2 / R2 adjusted 0.024 / 0.020 0.034 / 0.030 0.034 / 0.029

Branchenspezifische Unterschiede

Es werden die fünf Branchen mit den meisten Befragten nach ihren Mittelwerten auf den acht Skalen untersucht.

# Erstellung eines Datensatzes mit den fünf meist vertretenen Branchen
DatensatzKopie <- DatensatzMA
DatensatzKopie <- DatensatzKopie %>%
  filter(Branche == "Wirtschaft und Politik" | Branche == "Finanzen, Versicherungen und Immobilien" | Branche == "Gesellschaft, Bildung und Forschung" | Branche == "Pharma und Gesundheit" | Branche == "Dienstleistungen und Handwerk")

Mittelwerte der Branchen

# Fehlerkompetenz
by(DatensatzKopie$Fehlerkompetenz, list(DatensatzKopie$Branche), FUN = mean)
## : Dienstleistungen und Handwerk
## [1] 3.673077
## ------------------------------------------------------------ 
## : Finanzen, Versicherungen und Immobilien
## [1] 3.934783
## ------------------------------------------------------------ 
## : Gesellschaft, Bildung und Forschung
## [1] 4.03
## ------------------------------------------------------------ 
## : Pharma und Gesundheit
## [1] 4.055556
## ------------------------------------------------------------ 
## : Wirtschaft und Politik
## [1] 3.854839
# Lernen aus Fehlern
by(DatensatzKopie$LernenausFehlern, list(DatensatzKopie$Branche), FUN = mean)
## : Dienstleistungen und Handwerk
## [1] 3.461538
## ------------------------------------------------------------ 
## : Finanzen, Versicherungen und Immobilien
## [1] 3.554348
## ------------------------------------------------------------ 
## : Gesellschaft, Bildung und Forschung
## [1] 3.85
## ------------------------------------------------------------ 
## : Pharma und Gesundheit
## [1] 3.75
## ------------------------------------------------------------ 
## : Wirtschaft und Politik
## [1] 3.822581
# Risikobereitschaft bei Fehlern
by(DatensatzKopie$RisikobereitschaftFehler, list(DatensatzKopie$Branche), FUN = mean)
## : Dienstleistungen und Handwerk
## [1] 3.288462
## ------------------------------------------------------------ 
## : Finanzen, Versicherungen und Immobilien
## [1] 3.336957
## ------------------------------------------------------------ 
## : Gesellschaft, Bildung und Forschung
## [1] 3.57
## ------------------------------------------------------------ 
## : Pharma und Gesundheit
## [1] 3.458333
## ------------------------------------------------------------ 
## : Wirtschaft und Politik
## [1] 3.330645
# Fehlerbelastung
by(DatensatzKopie$Fehlerbelastung, list(DatensatzKopie$Branche), FUN = mean)
## : Dienstleistungen und Handwerk
## [1] 2.784615
## ------------------------------------------------------------ 
## : Finanzen, Versicherungen und Immobilien
## [1] 3.173913
## ------------------------------------------------------------ 
## : Gesellschaft, Bildung und Forschung
## [1] 3.232
## ------------------------------------------------------------ 
## : Pharma und Gesundheit
## [1] 2.855556
## ------------------------------------------------------------ 
## : Wirtschaft und Politik
## [1] 3.283871
# Fehlerantizipation
by(DatensatzKopie$Fehlerantizipation, list(DatensatzKopie$Branche), FUN = mean)
## : Dienstleistungen und Handwerk
## [1] 2.646154
## ------------------------------------------------------------ 
## : Finanzen, Versicherungen und Immobilien
## [1] 2.93913
## ------------------------------------------------------------ 
## : Gesellschaft, Bildung und Forschung
## [1] 3.232
## ------------------------------------------------------------ 
## : Pharma und Gesundheit
## [1] 3.111111
## ------------------------------------------------------------ 
## : Wirtschaft und Politik
## [1] 2.890323
# Vertuschen von Fehlern
by(DatensatzKopie$VertuschenFehler, list(DatensatzKopie$Branche), FUN = mean)
## : Dienstleistungen und Handwerk
## [1] 1.871795
## ------------------------------------------------------------ 
## : Finanzen, Versicherungen und Immobilien
## [1] 2.268116
## ------------------------------------------------------------ 
## : Gesellschaft, Bildung und Forschung
## [1] 2.173333
## ------------------------------------------------------------ 
## : Pharma und Gesundheit
## [1] 2.222222
## ------------------------------------------------------------ 
## : Wirtschaft und Politik
## [1] 2.397849
# Fehlerkommunikation
by(DatensatzKopie$Fehlerkommunikation, list(DatensatzKopie$Branche), FUN = mean)
## : Dienstleistungen und Handwerk
## [1] 3.730769
## ------------------------------------------------------------ 
## : Finanzen, Versicherungen und Immobilien
## [1] 3.967391
## ------------------------------------------------------------ 
## : Gesellschaft, Bildung und Forschung
## [1] 4.03
## ------------------------------------------------------------ 
## : Pharma und Gesundheit
## [1] 4.041667
## ------------------------------------------------------------ 
## : Wirtschaft und Politik
## [1] 3.975806
# Nachdenken über Fehler
by(DatensatzKopie$NachdenkenüberFehler, list(DatensatzKopie$Branche), FUN = mean)
## : Dienstleistungen und Handwerk
## [1] 3.815385
## ------------------------------------------------------------ 
## : Finanzen, Versicherungen und Immobilien
## [1] 4.078261
## ------------------------------------------------------------ 
## : Gesellschaft, Bildung und Forschung
## [1] 4.12
## ------------------------------------------------------------ 
## : Pharma und Gesundheit
## [1] 3.766667
## ------------------------------------------------------------ 
## : Wirtschaft und Politik
## [1] 4.16129

Balkendiagramm zu den Mittelwerten der Branchen auf der Skala Fehlerantizipation

AnovaBranche5 <- (aov(Fehlerantizipation~Branche, data = DatensatzKopie))
 plotAOVB5 <- ggplot(AnovaBranche5, aes(Fehlerantizipation, Branche))
 plotAOVB5 + stat_summary(fun = mean, geom="bar", fill="grey", colour = "Black") +
   stat_summary(fun.data = mean_cl_normal, geom ="errorbar",position = position_dodge(width=0.90), width=0.2)+
   labs(y = "Branche", x = "Fehlerantizipation")