sigma = 1.2
xm = 75.3
n = 30
z0 = qnorm(c(0.05, 0.95))
z1 = qnorm(c(0.025, 0.975))
z2 = qnorm(c(0.01, 0.99))
cat("Intervalo de confianza (90%): ", xm + z0 * sigma/sqrt(n)) # Ejemplo con 90%
## Intervalo de confianza (90%): 74.93963 75.66037
cat("Intervalo de confianza (95%): ", xm + z1 * sigma/sqrt(n)) # Respuesta a pregunta
## Intervalo de confianza (95%): 74.87059 75.72941
cat("Intervalo de confianza (98%): ", xm + z2 * sigma/sqrt(n)) # Ejemplo con 98%
## Intervalo de confianza (98%): 74.79032 75.80968
# Forma lenta de hacerlo
x = rnorm(10, 200, 3) # Los diez datos
sx = sd (x) # Desviación
n = 10
t = qt(c(0.025, 0.975), 9)
xm = t + sx / sqrt(n)
# Forma directa de resolverlo
t.test(x)$conf
## [1] 199.8023 203.2056
## attr(,"conf.level")
## [1] 0.95
x = rexp(100, 1/20)
#hist(x)
xm = mean(x)
sx = sd(x)
z1 = qnorm(c(0.025, 0.975))
cat("Intervalo de confianza (95%): ", xm + z1*sx/sqrt(length(x)))
## Intervalo de confianza (95%): 13.30565 19.56427
# Forma larga de resolverlo
n = 200
x = 18
p = x/n
# Si el enunciado no menciona la confianza, usamos la del 95% (Convenio con el profe)
p + qnorm(c(0.025, 0.975))*sqrt(p*(1-p)/n)
## [1] 0.05033796 0.12966204
# Forma directa
prop.test(18, 200)$conf # Hay una leve diferencia por la forma en la que lo soluciona r
## [1] 0.0557122 0.1406878
## attr(,"conf.level")
## [1] 0.95
#install.packages('remotes') # solo una vez
library(remotes) # solo una vez
## Warning: package 'remotes' was built under R version 4.4.3
#install_github("dgonxalex80/paqueteDEG", force = TRUE) # solo una vez
library(paqueteDEG) # Solo una vez
# Formula 10 de la foto
# Forma larga
x = round(rnorm(15, 10, 0.2), 2)
x2 = qchisq(c(0.025, 0.975), 14)
c(var(x)*14/x2[2], var(x)*14/x2[1])
## [1] 0.01614307 0.07490860
intervalo.var(x, niv.conf = 0.95)
## [1] 0.03085680 0.03238562
antes = c(21, 22, 20, 23, 21)
despues = antes - c(1, 1, 1, 1, 1) + rnorm(5, 0, 0.2) # Mejora tras calibración
diferencia = antes - despues
# Formula 6 de la foto
mean(diferencia) + qt(c(0.025, 0.975), 4) * sd(diferencia)/sqrt(5)
## [1] 0.7488559 1.1832760
En cualquiera de los casos los resultados pueden generar que intervalo sea de la forma:
| (−,−)(−,−) | los dos limites que conforman el IC son negativos. De este resultado se puede concluir que p1<p2p1<p2 |
|---|---|
| (−,+)(−,+) | el limite inferior es negativo y el superior es positivo. Este intervalo contiene la posibilidad de p1=p2p1=p2 |
| (+,+)(+,+) | los dos limites son positivos , entonces podemos decir que p1>p2 |
set.seed(123) # Semilla
t1 = rnorm(15, 90, 2) # turno 1
t2 = rnorm(15, 80, 2.2) # turno 2
var.test(t1, t2)$conf
## [1] 0.1660989 1.4736270
## attr(,"conf.level")
## [1] 0.95
t.test(t1, t2, paired = FALSE, var.equal = TRUE, conf.level = 0.95)$conf
## [1] 9.293002 12.401539
## attr(,"conf.level")
## [1] 0.95
set.seed(107)
turno1 <- rnorm(5, mean = 90, sd = 2)
turno2 <- rnorm(5, mean = 85, sd = 5)
var.test(turno1, turno2)$conf
## [1] 0.002042338 0.188399527
## attr(,"conf.level")
## [1] 0.95
cat("\n")
t.test(turno1, turno2,paired = TRUE, var.equal = FALSE, conf.level = 0.95 )$conf
## [1] -4.409626 12.323995
## attr(,"conf.level")
## [1] 0.95
set.seed(107)
turno1 <- rnorm(5, mean = 90, sd = 2)
turno2 <- rnorm(5, mean = 85, sd = 2)
var.test(turno1, turno2)$conf
## [1] 0.01276461 1.17749704
## attr(,"conf.level")
## [1] 0.95
defectuosos_A <- c(rep(1, 18), rep(0, 182)) # n = 200
defectuosos_B <- c(rep(1, 10), rep(0, 140)) # n = 150
prop.test(c(18,10), c(200, 150))$conf
## [1] -0.03877230 0.08543896
## attr(,"conf.level")
## [1] 0.95
n = (1.96*1.96*0.5*0.5)/0.01
library(dplyr)
##
## Adjuntando el paquete: 'dplyr'
## The following objects are masked from 'package:stats':
##
## filter, lag
## The following objects are masked from 'package:base':
##
## intersect, setdiff, setequal, union
z = qnorm(0.975)
pq = 0.08*(1-0.08)
e = 0.03
cat("n =", z^2*pq/e^2, "\n")
## n = 314.146
paqueteDEG::sizep(z,0.08, 0.03) %>% round(0)
## [1] 314
library(dplyr)
z = qnorm(0.975)
e = 0.03
cat("n =", z^2*0.25/e^2, "\n")
## n = 1067.072
paqueteDEG::sizep(z,0.5, 0.03) %>% round(0)
## [1] 1067
Suponga que se estudia la compra de una nueva maquina para una empresa. Se comprara la maquina si la proporción de la producción que necesita ser reprocesados por tener defectos es inferior al 5 %. Se examina una muestra de 40 artículos construidos por la maquina y 3 necesitan ser reprocesados . ¿ Que decisión se toma? ( Se compra o no la maquina?)
prop.test(x=3,n=40, p=0.05, conf.level=0.95, alternative = "less")
## Warning in prop.test(x = 3, n = 40, p = 0.05, conf.level = 0.95, alternative =
## "less"): Chi-squared approximation may be incorrect
##
## 1-sample proportions test with continuity correction
##
## data: 3 out of 40, null probability 0.05
## X-squared = 0.13158, df = 1, p-value = 0.6416
## alternative hypothesis: true p is less than 0.05
## 95 percent confidence interval:
## 0.0000000 0.1894048
## sample estimates:
## p
## 0.075
No hay pruebas suficientes para decir que la proporción de defectos sea menor al 5%. Por eso, no se recomienda comprar la máquina.
Los ingenieros de una ensambladora de automóviles requieren decidir sobre cuál de dos de las marcas de neumáticos deben comprar. La marca FB o la marca KT. Con el fin de tomar una decisión basada en evidencias estadísticas, deciden realizar un experimento en el que usan 12 neumáticos de cada marca. Los neumáticos se utilizan hasta su terminación. Los resultados obtenidos son los siguientes:
FB =c(41.8, 41.6, 31.5, 48.7, 40.8, 31.2, 36.5, 36.2, 32.8, 36.3, 38.6, 30.5)
KT =c(40.5, 38.4, 44.0, 34.9, 44.0, 44.7, 44.0, 47.1, 39.8, 43.9, 44.2, 40.2)
Cuál marca de neumáticos recomendaría comprar. Justifique su respuesta. Suponga que la distancia recorrida por un neumático se distribuye aproximadamente normal y un α = 0,05.
FB=c(41.8, 41.6, 31.5, 48.7, 40.8, 31.2, 36.5, 36.2, 32.8, 36.3, 38.6, 30.5)
KT=c(40.5, 38.4, 44.0, 34.9, 44.0, 44.7, 44.0, 47.1, 39.8, 43.9, 38.5, 40.2)
par(mfrow = c(1, 2))
var.test(FB,KT)
##
## F test to compare two variances
##
## data: FB and KT
## F = 2.417, num df = 11, denom df = 11, p-value = 0.1589
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 0.6957897 8.3958061
## sample estimates:
## ratio of variances
## 2.416964
t.test(FB, KT, paired=FALSE, var.equal=TRUE, conf.level=0.95)
##
## Two Sample t-test
##
## data: FB and KT
## t = -2.398, df = 22, p-value = 0.0254
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## -8.3139995 -0.6026672
## sample estimates:
## mean of x mean of y
## 37.20833 41.66667
El valor p fue 0.0254, menor a 0.05, así que hay una diferencia clara entre las dos marcas. Además, el intervalo de confianza no incluye el cero, lo que refuerza esa conclusión. Se recomienda la marca KT, ya que sus neumáticos duran más.
Un ingeniero desea establecer si existen diferencias entre dos métodos diferentes de realizar el ensamble de una casa prefabricada. Para comprobarlo recoge información la producción de ambos métodos que se presentan a continuación:
x1 = c(32, 37, 35, 28, 41, 44, 35, 31, 34) # Procedimiento estándar
x2 = c(35, 31, 29, 25, 34, 40, 27, 32, 31) # Nuevo procedimiento
Presentan los datos suficiente evidencia estadística para afirmar que el nuevo método es más eficiente que el estándar? (utilice un α=0.05).
met.nue=c(32, 37, 35, 28, 41, 44, 35, 31, 34)
met.est=c(35, 31, 29, 25, 34, 40, 27, 32, 31)
var.test(FB,KT)
##
## F test to compare two variances
##
## data: FB and KT
## F = 2.417, num df = 11, denom df = 11, p-value = 0.1589
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 0.6957897 8.3958061
## sample estimates:
## ratio of variances
## 2.416964
t.test(FB,KT, # variables
paired=FALSE, # grupos independientes
var.equal=TRUE, # varianzas iguales
conf.level=0.95, # alpha = 0.05
alternative = "less")
##
## Two Sample t-test
##
## data: FB and KT
## t = -2.398, df = 22, p-value = 0.0127
## alternative hypothesis: true difference in means is less than 0
## 95 percent confidence interval:
## -Inf -1.265884
## sample estimates:
## mean of x mean of y
## 37.20833 41.66667
El valor p fue 0.0127, así que se rechaza la idea de que no hay diferencia. Esto significa que el nuevo procedimiento es más eficiente porque tiene un tiempo promedio menor.
El director de un gimnasio quiere determinar si un instructor de ejercicios debe ser contratado o no para su campaña estrella “Reducción de peso”. Para tomar la decisión indica a un candidato que pruebe con 16 personas que asisten habitualmente al gimnasio. Los siguientes datos corresponden a los pesos tomados al inicio del programa (x1) y sus pesos al finalizar el programa (x2).
| id | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 | 11 | 12 | 13 | 14 | 15 | 16 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| x1 | 104 | 89 | 84 | 106 | 90 | 96 | 79 | 90 | 85 | 76 | 91 | 82 | 100 | 89 | 121 | 72 |
| x2 | 98 | 85 | 85 | 103 | 88 | 95 | 79 | 90 | 82 | 76 | 89 | 81 | 99 | 86 | 111 | 70 |
Emplee y realice las pruebas de hipótesis a un nivel de significancia del 0.01 para determinar si el programa que ofrece el nuevo instructor es eficaz. Suponga que la variable peso se distribuye aproximadamente normal.
x1=c(104, 89, 84, 106, 90, 96, 79, 90, 85, 76, 91, 82, 100, 89, 121, 72)
x2=c( 98, 85, 85, 103, 88, 95, 79, 90, 82, 76, 89, 81, 99, 86, 111, 70)
var.test(x1,x2)
##
## F test to compare two variances
##
## data: x1 and x2
## F = 1.3725, num df = 15, denom df = 15, p-value = 0.5473
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 0.4795517 3.9282830
## sample estimates:
## ratio of variances
## 1.372521
t.test(x1,x2, # variables
paired=FALSE, # grupos independientes
var.equal=TRUE, # varianzas iguales
conf.level=0.95, # alpha = 0.05
alternative = "less")
##
## Two Sample t-test
##
## data: x1 and x2
## t = 0.56746, df = 30, p-value = 0.7127
## alternative hypothesis: true difference in means is less than 0
## 95 percent confidence interval:
## -Inf 9.229131
## sample estimates:
## mean of x mean of y
## 90.8750 88.5625
El valor p fue 0.7127, muy por encima de 0.01. No hay evidencia de que el programa del nuevo instructor ayude a bajar de peso, por lo que no se recomienda contratarlo con base en estos resultados.
Se realizan pruebas de un nuevo lector láser manual para uso en inventarios y el lector utilizado actualmente, con el fin de decidir si se adquiere el primero. Se obtienen los datos siguientes sobre el número de códigos de barra de 7 pulgadas que pueden leerse por segundo. Sea X1: número de códigos leído por segundo con el dispositivo nuevo y X2 el correspondiente al dispositivo antiguo.
n1=61 ; x1=40 ; s21=24.9
n2=61 ; x2=29 ; s22=22.7
De acuerdo con la información suministrada, es posible preferir alguno de ellos?. En caso de poderlo realizar con cual se quedaría? Justifique su respuesta. En cada caso determine las pruebas de hipótesis, el estadístico de prueba apropiado, el valor−pvalor−p obtenido y las conclusiones resultantes.
# Datos
n1 <- 61
x1_bar <- 40
s1 <- sqrt(24.9)
n2 <- 61
x2_bar <- 29
s2 <- sqrt(22.7)
# Prueba t para dos muestras independientes (varianzas no iguales)
t.test(
x = rnorm(n1, mean = x1_bar, sd = s1),
y = rnorm(n2, mean = x2_bar, sd = s2),
alternative = "greater", # prueba unilateral (nuevo > actual)
var.equal = FALSE # varianzas no iguales (Welch)
)
##
## Welch Two Sample t-test
##
## data: rnorm(n1, mean = x1_bar, sd = s1) and rnorm(n2, mean = x2_bar, sd = s2)
## t = 12.512, df = 119.5, p-value < 2.2e-16
## alternative hypothesis: true difference in means is greater than 0
## 95 percent confidence interval:
## 9.908288 Inf
## sample estimates:
## mean of x mean of y
## 40.54741 29.12592
El valor p fue muy pequeño, así que hay una diferencia clara. El nuevo lector es mejor, y se recomienda comprarlo.
Un empresario registro el número de artículos producidos durante 10 días, para un grupo de 15 obreros que trabajaban con base en un salario fijo (Grupo 1). El industrial introdujo un plan de incentivos para otros 15 obreros y registro su producción durante otros 10 días (Grupo 2). El número de artículos producidos por cada uno de los grupos fue : \
| G1 | 75 | 76 | 74 | 80 | 72 | 78 | 76 | 73 | 72 | 75 |
|---|---|---|---|---|---|---|---|---|---|---|
| G2 | 86 | 78 | 86 | 84 | 81 | 79 | 78 | 84 | 88 | 80 |
Suponiendo que los salarios pagados a cada grupo son equivalentes. Se puede concluir que el plan de incentivos es efectivo?
g1=c(75, 76, 74, 80, 72, 78, 76, 73, 72, 75)
g2=c(86, 78, 86, 84, 81, 79, 78, 84, 88, 80)
par(mfrow = c(1, 2))
# prueba de comparacion de varianas
var.test(g1,g2)
##
## F test to compare two variances
##
## data: g1 and g2
## F = 0.4892, num df = 9, denom df = 9, p-value = 0.3018
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 0.121511 1.969527
## sample estimates:
## ratio of variances
## 0.4892027
# prueba de comparacion de medias
t.test(g1,g2, paired=FALSE, var.equal=TRUE, conf.level=0.95, alternative = "less")
##
## Two Sample t-test
##
## data: g1 and g2
## t = -5.1719, df = 18, p-value = 3.204e-05
## alternative hypothesis: true difference in means is less than 0
## 95 percent confidence interval:
## -Inf -4.852437
## sample estimates:
## mean of x mean of y
## 75.1 82.4
El valor p es menor que 0.05, por lo que hay evidencia de que el plan de incentivos funciona. El grupo con incentivos produce más, así que el plan es efectivo.
En una muestra de 200 clientes, el 20% indica una preferencia por tamaño especial de pizza. Con posterioridad a una campaña publicitaria realizada en radio y televisión promoviendo dicho producto, se selecciono una muestra de igual tamaño. En esta ultima muestra el 22% de los clientes indico preferencia por el producto. De acuerdo con estos resultados y un nivel de significancia del 5% , podría decirse que la campaña publicitaria no fue efectiva?
# Datos
x <- c(40, 44) # éxitos en cada muestra
n <- c(200, 200) # tamaños de muestra
# Prueba de proporciones
prop.test(x = x, n = n, alternative = "greater", conf.level = 0.95)
##
## 2-sample test for equality of proportions with continuity correction
##
## data: x out of n
## X-squared = 0.13562, df = 1, p-value = 0.6437
## alternative hypothesis: greater
## 95 percent confidence interval:
## -0.09197605 1.00000000
## sample estimates:
## prop 1 prop 2
## 0.20 0.22
El valor p es 0.6437, mayor que 0.05. No se encontró evidencia de que la campaña haya tenido efecto en la preferencia por la pizza de tamaño especial.
Los siguientes son los datos de las horas hombre que se pierden en promedio por accidentes en 10 plantas industriales antes (A) y después (D) de la implantación de un programa de seguridad industrial:
| id | 1 | 2 | 3 | 4 | 5 | 6 | 7 | 8 | 9 | 10 |
|---|---|---|---|---|---|---|---|---|---|---|
| A | 45 | 73 | 46 | 124 | 30 | 57 | 83 | 34 | 26 | 17 |
| D | 36 | 60 | 44 | 119 | 35 | 51 | 77 | 29 | 24 | 11 |
Utilice un nivel de significancia de 0.05 para probar si el programa de seguridad implantado es eficaz. Suponga que esta variable se distribuye aproximadamente normal.
# Datos
A <- c(45, 73, 46, 124, 30, 57, 83, 34, 26, 17)
D <- c(36, 60, 44, 119, 35, 51, 77, 29, 24, 11)
# Prueba t pareada (one-sided)
t.test(A, D, paired = TRUE, alternative = "greater", conf.level = 0.95)
##
## Paired t-test
##
## data: A and D
## t = 3.2796, df = 9, p-value = 0.004767
## alternative hypothesis: true mean difference is greater than 0
## 95 percent confidence interval:
## 2.161215 Inf
## sample estimates:
## mean difference
## 4.9
El valor p fue 0.0048, menor que 0.05. Después de aplicar el programa de seguridad, las horas-hombre perdidas disminuyeron, así que el programa fue efectivo.
La compañía de dulces Mars publica en su sitio web información relacionada con los porcentajes de los distintos colores de sus dulces M|M para la variedad de chocolate con leche.
Se realiza una verificación mediante el conteo delos dulces contenidos e n una bolsa de 14 onzas de dulces M|M, obteniendo los siguientes resultados: 70 duces cafés, 72 amarillos, 61 rojos, 118 azules, 108 naranjas y 85 verdes.
Se podria afirmar que los datos anteriores respaldan la información suministrada por la compañía en su sitio web? Sustente su respuesta.
# Datos observados
observados <- c(70, 72, 61, 118, 108, 85)
# Porcentajes esperados según Mars (convertidos a proporciones)
proporcion_esperada <- c(13, 14, 13, 24, 20, 16) / 100
# Total de dulces observados
total <- sum(observados)
# Calculamos los valores esperados
esperados <- total * proporcion_esperada
# Prueba de bondad de ajuste Chi-cuadrado
chisq.test(observados, p = proporcion_esperada)
##
## Chi-squared test for given probabilities
##
## data: observados
## X-squared = 1.2468, df = 5, p-value = 0.9403
El valor p fue 0.9403, mucho mayor que 0.05. No hay evidencia para decir que la distribución de colores de los M&M sea diferente a la oficial. Todo coincide con lo que dice la empresa.
En una línea de producción los artículos se inspeccionan en forma periódica con el fin de detectar defectos. La siguiente secuencia de artículos defectuosos (D) y no defectuosos (N) corresponde a la producción de uno de los turnos.
[1] "N" "D" "N" "N" "D" "N" "D" "D" "N" "N" "D" "D" "D" "N" "N" "D" "D" "D" "D"
[20] "N" "N" "D" "N" "N" "N" "D" "N" "D" "D" "N" "N" "N" "D" "N" "D" "N" "D" "D"
[39] "D" "D" "D" "D" "N" "N" "N" "D" "D" "N" "D" "N"
Se puede afirmar que los datos no presentan patrón alguno y que la generación de artículos defectuosos se debe al azar? . Utilice un α=0.05.
```{# Vector original de defectuosos (D) y no defectuosos (N)} datos <- c(“N”, “D”, “N”, “N”, “D”, “N”, “D”, “D”, “N”, “N”, “D”, “D”, “D”, “N”, “N”, “D”, “D”, “D”, “D”, “N”, “N”, “D”, “N”, “N”, “N”, “D”, “N”, “D”, “D”, “N”, “N”, “N”, “D”, “N”, “D”, “N”, “D”, “D”, “D”, “D”, “D”, “N”, “N”, “N”, “D”, “D”, “N”, “D”, “N”)
datos_bin <- ifelse(datos == “D”, 1, 0)
table(datos_bin)
library(randtests) runs.test(datos_bin)
### Conclusión:
Igual que el anterior: el valor p fue 0.9403.
No hay razón para pensar que la distribución real de los M&M es distinta a la publicada.
## Problema 11
En una planta ensambladora de camiones la supervisión diaria de las soldaduras generó la siguiente información:
alta moderada baja
dia 470 191 42
tarde 445 171 28
noche 257 139 17
¿Se puede concluir que la calidad varia con los turnos?, en otras palabras se puede concluir que la calidad de las soldaduras es independiente de los turnos? . Utilice un nivel de significancia α=0.05.
### Solución:
``` r
# Crear la tabla
calidad <- matrix(c(
470, 191, 42,
445, 171, 28,
257, 139, 17
), nrow = 3, byrow = TRUE)
# Asignar nombres
rownames(calidad) <- c("dia", "tarde", "noche")
colnames(calidad) <- c("alta", "moderada", "baja")
# Ver tabla
calidad
## alta moderada baja
## dia 470 191 42
## tarde 445 171 28
## noche 257 139 17
chisq.test(calidad)
##
## Pearson's Chi-squared test
##
## data: calidad
## X-squared = 9.4939, df = 4, p-value = 0.04987
El valor p fue 0.04987, justo por debajo de 0.05. Eso indica que la calidad de las soldaduras sí depende del turno de trabajo.
Los siguientes datos corresponde a las notas obtenidas por un grupo de estudiantes de la asignatura Matemáticas Fundamentales. Si la distribución de los datos es normal, podría afirmar que la prueba realizada es una prueba normalizada. En caso contrario serviría para estudiar problemas relacionados con su aprendizaje. Para un α=0;05, se podría afirmar que los datos proceden de una distribución normal? . Si se requiere realizar una prueba de hipótesis sobre la media de la nota Ho:μ≤3.3 vs Ha:μ>3.3, ¿Que prueba se realizaría?
notas <- c(3.4, 2.8, 4.2, 2.1, 2.8, 2.4, 3.5, 4.2, 3.1, 4.1, 2.4, 3.4, 4.1, 4.0, 2.4,
4.1, 3.4, 4.4, 3.8, 3.7, 2.2, 3.6, 2.3, 3.7, 2.8, 4.1, 2.3, 4.6, 4.6, 5.2,
2.4, 2.4, 2.7, 3.8, 4.6, 4.4, 4.2, 4.4, 2.4, 3.3, 3.8, 2.9, 3.1, 2.7, 3.6,
3.8, 4.4, 3.9, 2.8, 3.7)
shapiro.test(notas)
##
## Shapiro-Wilk normality test
##
## data: notas
## W = 0.95071, p-value = 0.03649
t.test(notas, mu = 3.3, alternative = "greater")
##
## One Sample t-test
##
## data: notas
## t = 1.416, df = 49, p-value = 0.08155
## alternative hypothesis: true mean is greater than 3.3
## 95 percent confidence interval:
## 3.270562 Inf
## sample estimates:
## mean of x
## 3.46
El valor p del test de normalidad fue 0.03649, menor que 0.05. Eso significa que los datos no siguen una distribución normal. En este caso, lo correcto sería usar la prueba no paramétrica de Wilcoxon para comparar la media con 3.3.