Ejercicio 1: Diferencias de estadística paramétrica y no paramétrica

#La estadística paramétrica emplea métodos que requieren supuestos estrictos sobre la distribución de los datos, especialmente la normalidad. Se aplica a variables cuantitativas continuas que cumplen condiciones como homogeneidad de varianzas y tamaños de muestra adecuados, y permite estimar parámetros poblacionales mediante pruebas como t de Student, ANOVA y correlación de Pearson. Destaca por su alta potencia estadística, aunque exige cumplir varios supuestos. #En contraste, la estadística no paramétrica no depende de distribuciones específicas y se utiliza con datos no normales, muestras pequeñas o variables ordinales y categóricas. Facilita comparaciones y análisis sin asumir parámetros poblacionales, mediante pruebas como Mann-Whitney, Kruskal-Wallis, Chi cuadrada y Spearman. Se caracteriza por su flexibilidad y robustez, aunque generalmente presenta menor potencia. #Ambos enfoques se complementan y permiten elegir el método adecuado según el tipo de datos y las condiciones del estudio.

Cuadro comparativo entre estadística paramétrica y no paramétrica

comparativo <- data.frame(Aspecto = c(“Definición”, “Tipo de datos”, “Supuestos”, “Ejemplos de pruebas”, “Ventajas principales”, “Desventajas principales”), Estadística_Paramétrica = c(“Métodos basados en parámetros y supuestos de normalidad.”, “Datos cuantitativos continuos.”, “Requiere normalidad y homogeneidad de varianzas.”, “t de Student, ANOVA, Pearson.”, “Mayor potencia estadística.”, “Pierde validez si se violan los supuestos.”), Estadística_No_Paramétrica = c(“Métodos sin supuestos estrictos de distribución.”, “Datos ordinales, categóricos o no normales.”, “No requiere normalidad.”, “Mann-Whitney, Kruskal-Wallis, Chi cuadrada, Spearman.”, “Mayor flexibilidad ante datos no normales.”, “Menor potencia estadística.”))

Ejercicio 2: Pruebas de normalidad

a <- c(28,26,31,21,21,32,24,26,28,30,26,23,20,28,33,28,33,23,27,31,28,29,34,32,33) b <- c(22,29,24,24,23,23,25,23,33,28,31,23,28,28,26,30,30,28,22,19,29,18,31,28,27) c <- c(23,26,29,28,25,19,22,27,33,22,22,22,15,19,24,25,20,25,34,21,23,18,26,26,23) d <- c(28,28,25,25,25,30,27,28,29,28,25,28,27,28,30,25,28,28,28,30,27,25,25,28,30) e <- c(28,27,28,25,27,28,25,27,29,27,25,25,29,29,29,28,28,25,27,28,28,25,29,25,27) f <- c(25,28,27,29,27,25,25,25,25,27,27,28,28,25,27,27,25,25,27,28,25,28,29,25,27) #Shapiro prueba de normalidad <- (a, a){ qqnorm(a, main = “Gráfico QQ de a”) qqline(a, col = 2) print(shapiro.test(a))

#Shapiro prueba de normalidad <- (b, b){ qqnorm(b, main = “Gráfico QQ de b”) qqline(b, col = 2) print(shapiro.test(b))

#Shapiro prueba de normalidad <- (c, c){ qqnorm(c, main = “Gráfico QQ de c”) qqline(c, col = 2) print(shapiro.test(c))

#Shapiro prueba de normalidad <- (d, d){ qqnorm(d, main = “Gráfico QQ de d”) qqline(d, col = 2) print(shapiro.test(d))

#Shapiro prueba de normalidad <- (e, e){ qqnorm(e, main = “Gráfico QQ de e”) qqline(e, col = 2) print(shapiro.test(e))

#Shapiro prueba de normalidad <- (f, f){ qqnorm(f, main = “Gráfico QQ de f”) qqline(f, col = 2) print(shapiro.test(f))

#Variable| Normalidad| Decisión| #——-| ———–| ———- | #a | Distribución mezclada, Shapiro suele salir significativo|No normal | #b | Valores dispersos y colas leves | No normal | #c | Sesgo a la izquierda | No normal | #d | Valores muy repetidos | No normal | #e | Demasiados valores repetidos | No normal | #f | Muy agrupados | No normal |

###Conclusión general:Ninguna de las variables sigue una distribución norma. ###Por lo tanto, si se comparan, deberían utilizarse pruebas no paramétricas.

Ejercicio 3: Análisis de varianza

A <- c(21,26,31,23,21,30,26,24,22,19) B <- c(32,30,18,27,25,28,27,27,28,22) C <- c(26,20,24,27,21,28,24,27,32,32) D <- c(18,30,24,27,24,21,22,22,28,29)

grupo <- factor(rep(c(“A”,“B”,“C”,“D”), each=10)) valores <- c(A, B, C, D)

anova <- aov(valores ~ grupo) summary(anova) boxplot(valores ~ grupo, main=“Comparación entre grupos”, xlab=“Grupo”, ylab=“Valores”)

Si el *p < 0.05, entonces **sí hay diferencias significativas entre A, B, C y D*.

Grupos B y C tienden a valores más altos según los datos.

El gráfico boxplot mostrará cuál grupo tiene mayor tendencia.

Ejercicio 4: Correlación policias y delitos

policias <- c(4,1,3,6,6,8,3,2) delitos <- c(7,5,4,6,5,4,7,4)

a) correlación

cor(policias, delitos)

b) diagrama de dispersión

plot(policias, delitos, main=“Relación entre número de policías y delitos”, xlab=“Policías”, ylab=“Delitos”, pch=19) abline(lm(delitos ~ policias), col=“red”)