##Ejercisio numero 1
library(openxlsx)
dat1<- read.xlsx("C:/rstudio/dca_particulasobleas.xlsx")
print(dat1)
## id Metodo Conteo
## 1 1 1 31
## 2 2 1 10
## 3 3 1 21
## 4 4 1 4
## 5 5 1 1
## 6 6 2 62
## 7 7 2 40
## 8 8 2 24
## 9 9 2 30
## 10 10 2 35
## 11 11 3 53
## 12 12 3 27
## 13 13 3 120
## 14 14 3 97
## 15 15 3 68
#HIPOTESIS
#BOXPLOT
boxplot(Conteo~as.factor(Metodo), data = dat1, xlab = "Metodo", ylab = "Conteo", las=1,
cex.axis=1.2, cex.lab=1.2)
Parece haber diferencias claras entre los métodos, siendo el Método 1 el más efectivo en reducir el número de partículas. El Método 3 parece ser el menos efectivo y más variable en sus resultados. El Método 2 muestra resultados intermedios pero más consistentes (menor variabilidad).
Esto sugiere que sí hay diferencias importantes entre los métodos en cuanto a su efectividad para reducir el número de partículas en las obleas, siendo el Método 1 aparentemente el más efectivo.
library(summarytools)
descr(dat1$Conteo)
## Descriptive Statistics
## dat1$Conteo
## N: 15
##
## Conteo
## ----------------- --------
## Mean 41.53
## Std.Dev 33.55
## Min 1.00
## Q1 21.00
## Median 31.00
## Q3 62.00
## Max 120.00
## MAD 31.13
## IQR 35.00
## CV 0.81
## Skewness 0.90
## SE.Skewness 0.58
## Kurtosis -0.15
## N.Valid 15.00
## Pct.Valid 100.00
with(dat1, stby(Conteo, Metodo,descr))
## Descriptive Statistics
## Conteo by Metodo
## Data Frame: dat1
## N: 5
##
## 1 2 3
## ----------------- -------- -------- --------
## Mean 13.40 38.20 73.00
## Std.Dev 12.46 14.57 36.49
## Min 1.00 24.00 27.00
## Q1 4.00 30.00 53.00
## Median 10.00 35.00 68.00
## Q3 21.00 40.00 97.00
## Max 31.00 62.00 120.00
## MAD 13.34 7.41 43.00
## IQR 17.00 10.00 44.00
## CV 0.93 0.38 0.50
## Skewness 0.32 0.65 0.05
## SE.Skewness 0.91 0.91 0.91
## Kurtosis -1.91 -1.37 -1.89
## N.Valid 5.00 5.00 5.00
## Pct.Valid 100.00 100.00 100.00
Estas estadísticas descriptivas respaldan lo observado en el boxplot y sugieren diferencias importantes entre los métodos en cuanto a su efectividad y consistencia.
Hipótesis:
\[ H_0: \mu_1 = \mu_2 = \mu_3 \quad (\text{todos los métodos tienen el mismo efecto}) \] \[ H_1: \text{Al menos un } \mu_i \text{ es diferente} \]
Modelo estadístico:
\[ Y_{ij} = \mu + \tau_i + \epsilon_{ij} \]
Donde:
fit1 = aov(Conteo~factor(Metodo), data=dat1)
fit1 = aov(Conteo~factor(Metodo), data=dat1)
summary(fit1)
## Df Sum Sq Mean Sq F value Pr(>F)
## factor(Metodo) 2 8964 4482 7.914 0.00643 **
## Residuals 12 6796 566
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Interpretación: El p-valor es menor que 0.05 (nivel de significancia) y está marcado con ** (muy significativo).
Como el p-valor (\(0.00643\)) es menor que el nivel de significancia (\(\alpha = 0.05\)), rechazamos la hipótesis nula.
Evidencia estadística: Existe evidencia estadística significativa para afirmar que hay diferencias entre los métodos en relación al conteo promedio de partículas.
Estadístico F: El estadístico \(F = 7.914\) indica que hay más variabilidad entre los grupos que dentro de los grupos.
Interpretación: La diferencia entre los métodos no se debe al azar, sino que hay un efecto real del método utilizado sobre el conteo de partículas.
shapiro.test(residuals(fit1))
##
## Shapiro-Wilk normality test
##
## data: residuals(fit1)
## W = 0.96095, p-value = 0.709
Resultado: \(W = 0.96095\), p-valor = \(0.709\).
Interpretación: Como el p-valor (\(0.709\)) es mayor que \(0.05\), no rechazamos \(H_0\).
Conclusión: Los residuos siguen una distribución normal, cumpliendo este supuesto del ANOVA.
##Homocedasticidad #Verificamos la homocedasticidad mediante un grafico de residuos y el test de levene
plot(fit1, which = 3)
library(car)
## Cargando paquete requerido: carData
leveneTest(Conteo~ factor(Metodo), data=dat1)
Interpretación: Esto sugiere visualmente que hay homocedasticidad (varianzas homogéneas).
Criterio: El valor \(p\) del test de Levene debe ser \(> 0.05\) para cumplir el supuesto.
Conclusión: Por lo tanto, el ANOVA realizado es válido y sus resultados son confiables. Como se cumplen los supuestos del ANOVA, no es necesario realizar transformaciones de los datos y podemos confiar en los resultados obtenidos anteriormente que indicaban diferencias significativas entre los métodos.
$$