Actividad 421

Problema 1

sigma = 1.2
xm = 75.3
n = 30

z0 = qnorm(c(0.05, 0.95))
z1 = qnorm(c(0.025, 0.975))
z2 = qnorm(c(0.01, 0.99))

cat("Intervalo de confianza (90%): ", xm + z0 * sigma/sqrt(n)) # Ejemplo con 90%
## Intervalo de confianza (90%):  74.93963 75.66037
cat("Intervalo de confianza (95%): ", xm + z1 * sigma/sqrt(n)) # Respuesta a pregunta
## Intervalo de confianza (95%):  74.87059 75.72941
cat("Intervalo de confianza (98%): ", xm + z2 * sigma/sqrt(n)) # Ejemplo con 98%
## Intervalo de confianza (98%):  74.79032 75.80968

Problema 2

# Forma lenta de hacerlo

x = rnorm(10, 200, 3) # Los diez datos
sx = sd (x) # Desviación
n = 10
t = qt(c(0.025, 0.975), 9)

xm = t + sx / sqrt(n)

# Forma directa de resolverlo

t.test(x)$conf
## [1] 199.8023 203.2056
## attr(,"conf.level")
## [1] 0.95

Problema 3

x = rexp(100, 1/20)
#hist(x)
xm = mean(x)
sx = sd(x)
z1 = qnorm(c(0.025, 0.975))

cat("Intervalo de confianza (95%): ", xm + z1*sx/sqrt(length(x)))
## Intervalo de confianza (95%):  13.30565 19.56427

Problema 4

# Forma larga de resolverlo

n = 200
x = 18
p = x/n

# Si el enunciado no menciona la confianza, usamos la del 95% (Convenio con el profe)
p + qnorm(c(0.025, 0.975))*sqrt(p*(1-p)/n)
## [1] 0.05033796 0.12966204
# Forma directa

prop.test(18, 200)$conf # Hay una leve diferencia por la forma en la que lo soluciona r
## [1] 0.0557122 0.1406878
## attr(,"conf.level")
## [1] 0.95

Problema 5

#install.packages('remotes')  # solo una vez
library(remotes) # solo una vez
## Warning: package 'remotes' was built under R version 4.4.3
#install_github("dgonxalex80/paqueteDEG", force = TRUE) # solo una vez
library(paqueteDEG) # Solo una vez
# Formula 10 de la foto
# Forma larga
x = round(rnorm(15, 10, 0.2), 2)
x2 = qchisq(c(0.025, 0.975), 14)

c(var(x)*14/x2[2], var(x)*14/x2[1])
## [1] 0.01614307 0.07490860
intervalo.var(x, niv.conf = 0.95) 
## [1] 0.03085680 0.03238562

Problema 6

antes = c(21, 22, 20, 23, 21)
despues = antes - c(1, 1, 1, 1, 1) + rnorm(5, 0, 0.2)  # Mejora tras calibración

diferencia = antes - despues

# Formula 6 de la foto

mean(diferencia) + qt(c(0.025, 0.975), 4) * sd(diferencia)/sqrt(5)
## [1] 0.7488559 1.1832760

En cualquiera de los casos los resultados pueden generar que intervalo sea de la forma:

(−,−)(−,−) los dos limites que conforman el IC son negativos. De este resultado se puede concluir que p1<p2p1<p2
(−,+)(−,+) el limite inferior es negativo y el superior es positivo. Este intervalo contiene la posibilidad de p1=p2p1=p2
(+,+)(+,+) los dos limites son positivos , entonces podemos decir que p1>p2

Problema 7

set.seed(123) # Semilla

t1 = rnorm(15, 90, 2) # turno 1
t2 = rnorm(15, 80, 2.2) # turno 2

var.test(t1, t2)$conf
## [1] 0.1660989 1.4736270
## attr(,"conf.level")
## [1] 0.95
t.test(t1, t2, paired = FALSE, var.equal = TRUE, conf.level = 0.95)$conf
## [1]  9.293002 12.401539
## attr(,"conf.level")
## [1] 0.95

Problema 8

set.seed(107)
turno1 <- rnorm(5, mean = 90, sd = 2)
turno2 <- rnorm(5, mean = 85, sd = 5)

var.test(turno1, turno2)$conf
## [1] 0.002042338 0.188399527
## attr(,"conf.level")
## [1] 0.95
cat("\n")
t.test(turno1, turno2,paired = TRUE, var.equal = FALSE, conf.level = 0.95 )$conf
## [1] -4.409626 12.323995
## attr(,"conf.level")
## [1] 0.95

Problema 9

set.seed(107)
turno1 <- rnorm(5, mean = 90, sd = 2)
turno2 <- rnorm(5, mean = 85, sd = 2)

var.test(turno1, turno2)$conf
## [1] 0.01276461 1.17749704
## attr(,"conf.level")
## [1] 0.95

Problema 10

defectuosos_A <- c(rep(1, 18), rep(0, 182))  # n = 200
defectuosos_B <- c(rep(1, 10), rep(0, 140))  # n = 150

prop.test(c(18,10), c(200, 150))$conf
## [1] -0.03877230  0.08543896
## attr(,"conf.level")
## [1] 0.95

Problema 11

n = (1.96*1.96*0.5*0.5)/0.01 

Problema 12

library(dplyr)
## 
## Adjuntando el paquete: 'dplyr'
## The following objects are masked from 'package:stats':
## 
##     filter, lag
## The following objects are masked from 'package:base':
## 
##     intersect, setdiff, setequal, union
z = qnorm(0.975)
pq = 0.08*(1-0.08)
e = 0.03

cat("n =", z^2*pq/e^2, "\n")
## n = 314.146
paqueteDEG::sizep(z,0.08, 0.03) %>% round(0)
## [1] 314

Problema 13

library(dplyr)
z = qnorm(0.975)
e = 0.03

cat("n =", z^2*0.25/e^2, "\n")
## n = 1067.072
paqueteDEG::sizep(z,0.5, 0.03) %>% round(0)
## [1] 1067

Actividad 431

Problema 1

Suponga que se estudia la compra de una nueva maquina para una empresa. Se comprara la maquina si la proporción de la producción que necesita ser reprocesados por tener defectos es inferior al 5 %. Se examina una muestra de 40 artículos construidos por la maquina y 3 necesitan ser reprocesados . ¿ Que decisión se toma? ( Se compra o no la maquina?)

Solución

prop.test(x=3,n=40, p=0.05, conf.level=0.95, alternative = "less")
## Warning in prop.test(x = 3, n = 40, p = 0.05, conf.level = 0.95, alternative =
## "less"): Chi-squared approximation may be incorrect
## 
##  1-sample proportions test with continuity correction
## 
## data:  3 out of 40, null probability 0.05
## X-squared = 0.13158, df = 1, p-value = 0.6416
## alternative hypothesis: true p is less than 0.05
## 95 percent confidence interval:
##  0.0000000 0.1894048
## sample estimates:
##     p 
## 0.075

Conclusión:

No hay pruebas suficientes para decir que la proporción de defectos sea menor al 5%. Por eso, no se recomienda comprar la máquina.

Problema 2

Los ingenieros de una ensambladora de automóviles requieren decidir sobre cuál de dos de las marcas de neumáticos deben comprar. La marca FB o la marca KT. Con el fin de tomar una decisión basada en evidencias estadísticas, deciden realizar un experimento en el que usan 12 neumáticos de cada marca. Los neumáticos se utilizan hasta su terminación. Los resultados obtenidos son los siguientes:

FB =c(41.8, 41.6, 31.5, 48.7, 40.8, 31.2, 36.5, 36.2, 32.8, 36.3, 38.6, 30.5)
KT =c(40.5, 38.4, 44.0, 34.9, 44.0, 44.7, 44.0, 47.1, 39.8, 43.9, 44.2, 40.2)

Cuál marca de neumáticos recomendaría comprar. Justifique su respuesta. Suponga que la distancia recorrida por un neumático se distribuye aproximadamente normal y un α = 0,05.

Solución:

FB=c(41.8, 41.6, 31.5, 48.7, 40.8, 31.2, 36.5, 36.2, 32.8, 36.3, 38.6, 30.5)
KT=c(40.5, 38.4, 44.0, 34.9, 44.0, 44.7, 44.0, 47.1, 39.8, 43.9, 38.5, 40.2)
par(mfrow = c(1, 2))

var.test(FB,KT)
## 
##  F test to compare two variances
## 
## data:  FB and KT
## F = 2.417, num df = 11, denom df = 11, p-value = 0.1589
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
##  0.6957897 8.3958061
## sample estimates:
## ratio of variances 
##           2.416964
t.test(FB, KT, paired=FALSE, var.equal=TRUE, conf.level=0.95)
## 
##  Two Sample t-test
## 
## data:  FB and KT
## t = -2.398, df = 22, p-value = 0.0254
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -8.3139995 -0.6026672
## sample estimates:
## mean of x mean of y 
##  37.20833  41.66667

Conclusión:

El valor p fue 0.0254, menor a 0.05, así que hay una diferencia clara entre las dos marcas. Además, el intervalo de confianza no incluye el cero, lo que refuerza esa conclusión. Se recomienda la marca KT, ya que sus neumáticos duran más.

Problema 3

Un ingeniero desea establecer si existen diferencias entre dos métodos diferentes de realizar el ensamble de una casa prefabricada. Para comprobarlo recoge información la producción de ambos métodos que se presentan a continuación:

x1 = c(32, 37, 35, 28, 41, 44, 35, 31, 34) # Procedimiento estándar
x2 = c(35, 31, 29, 25, 34, 40, 27, 32, 31) # Nuevo procedimiento

Presentan los datos suficiente evidencia estadística para afirmar que el nuevo método es más eficiente que el estándar? (utilice un α=0.05).

Solución:

met.nue=c(32, 37, 35, 28, 41, 44, 35, 31, 34) 
met.est=c(35, 31, 29, 25, 34, 40, 27, 32, 31)

var.test(FB,KT) 
## 
##  F test to compare two variances
## 
## data:  FB and KT
## F = 2.417, num df = 11, denom df = 11, p-value = 0.1589
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
##  0.6957897 8.3958061
## sample estimates:
## ratio of variances 
##           2.416964
t.test(FB,KT,                 # variables 
       paired=FALSE,          # grupos independientes
       var.equal=TRUE,        # varianzas iguales
       conf.level=0.95,       # alpha = 0.05
       alternative = "less")
## 
##  Two Sample t-test
## 
## data:  FB and KT
## t = -2.398, df = 22, p-value = 0.0127
## alternative hypothesis: true difference in means is less than 0
## 95 percent confidence interval:
##       -Inf -1.265884
## sample estimates:
## mean of x mean of y 
##  37.20833  41.66667

Conclusión:

El valor p fue 0.0127, así que se rechaza la idea de que no hay diferencia. Esto significa que el nuevo procedimiento es más eficiente porque tiene un tiempo promedio menor.

Problema 4

El director de un gimnasio quiere determinar si un instructor de ejercicios debe ser contratado o no para su campaña estrella “Reducción de peso”. Para tomar la decisión indica a un candidato que pruebe con 16 personas que asisten habitualmente al gimnasio. Los siguientes datos corresponden a los pesos tomados al inicio del programa (x1) y sus pesos al finalizar el programa (x2).

id 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16
x1 104 89 84 106 90 96 79 90 85 76 91 82 100 89 121 72
x2 98 85 85 103 88 95 79 90 82 76 89 81 99 86 111 70

Emplee y realice las pruebas de hipótesis a un nivel de significancia del 0.01 para determinar si el programa que ofrece el nuevo instructor es eficaz. Suponga que la variable peso se distribuye aproximadamente normal.

Solución:

x1=c(104, 89, 84, 106, 90, 96, 79, 90, 85, 76, 91, 82, 100, 89, 121, 72)
x2=c( 98, 85, 85, 103, 88, 95, 79, 90, 82, 76, 89, 81,  99, 86, 111, 70)

var.test(x1,x2) 
## 
##  F test to compare two variances
## 
## data:  x1 and x2
## F = 1.3725, num df = 15, denom df = 15, p-value = 0.5473
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
##  0.4795517 3.9282830
## sample estimates:
## ratio of variances 
##           1.372521
t.test(x1,x2,                 # variables 
       paired=FALSE,          # grupos independientes
       var.equal=TRUE,        # varianzas iguales
       conf.level=0.95,       # alpha = 0.05
       alternative = "less")
## 
##  Two Sample t-test
## 
## data:  x1 and x2
## t = 0.56746, df = 30, p-value = 0.7127
## alternative hypothesis: true difference in means is less than 0
## 95 percent confidence interval:
##      -Inf 9.229131
## sample estimates:
## mean of x mean of y 
##   90.8750   88.5625

Conclusión:

El valor p fue 0.7127, muy por encima de 0.01. No hay evidencia de que el programa del nuevo instructor ayude a bajar de peso, por lo que no se recomienda contratarlo con base en estos resultados.

Problema 5

Se realizan pruebas de un nuevo lector láser manual para uso en inventarios y el lector utilizado actualmente, con el fin de decidir si se adquiere el primero. Se obtienen los datos siguientes sobre el número de códigos de barra de 7 pulgadas que pueden leerse por segundo. Sea X1: número de códigos leído por segundo con el dispositivo nuevo y X2 el correspondiente al dispositivo antiguo.

De acuerdo con la información suministrada, es posible preferir alguno de ellos?. En caso de poderlo realizar con cual se quedaría? Justifique su respuesta. En cada caso determine las pruebas de hipótesis, el estadístico de prueba apropiado, el valor−pvalor−p obtenido y las conclusiones resultantes.

Solución:

# Datos
n1 <- 61
x1_bar <- 40
s1 <- sqrt(24.9)

n2 <- 61
x2_bar <- 29
s2 <- sqrt(22.7)

# Prueba t para dos muestras independientes (varianzas no iguales)
t.test(
  x = rnorm(n1, mean = x1_bar, sd = s1),
  y = rnorm(n2, mean = x2_bar, sd = s2),
  alternative = "greater",    # prueba unilateral (nuevo > actual)
  var.equal = FALSE           # varianzas no iguales (Welch)
)
## 
##  Welch Two Sample t-test
## 
## data:  rnorm(n1, mean = x1_bar, sd = s1) and rnorm(n2, mean = x2_bar, sd = s2)
## t = 12.512, df = 119.5, p-value < 2.2e-16
## alternative hypothesis: true difference in means is greater than 0
## 95 percent confidence interval:
##  9.908288      Inf
## sample estimates:
## mean of x mean of y 
##  40.54741  29.12592

Conclusión:

El valor p fue muy pequeño, así que hay una diferencia clara. El nuevo lector es mejor, y se recomienda comprarlo.

Problema 6

Un empresario registro el número de artículos producidos durante 10 días, para un grupo de 15 obreros que trabajaban con base en un salario fijo (Grupo 1). El industrial introdujo un plan de incentivos para otros 15 obreros y registro su producción durante otros 10 días (Grupo 2). El número de artículos producidos por cada uno de los grupos fue : \

G1 75 76 74 80 72 78 76 73 72 75
G2 86 78 86 84 81 79 78 84 88 80

Suponiendo que los salarios pagados a cada grupo son equivalentes. Se puede concluir que el plan de incentivos es efectivo?

Solución:

g1=c(75, 76, 74, 80, 72, 78, 76, 73, 72, 75)
g2=c(86, 78, 86, 84, 81, 79, 78, 84, 88, 80)

par(mfrow = c(1, 2))
# prueba de  comparacion de varianas
var.test(g1,g2) 
## 
##  F test to compare two variances
## 
## data:  g1 and g2
## F = 0.4892, num df = 9, denom df = 9, p-value = 0.3018
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
##  0.121511 1.969527
## sample estimates:
## ratio of variances 
##          0.4892027
# prueba de comparacion de medias
t.test(g1,g2,  paired=FALSE, var.equal=TRUE, conf.level=0.95, alternative = "less")
## 
##  Two Sample t-test
## 
## data:  g1 and g2
## t = -5.1719, df = 18, p-value = 3.204e-05
## alternative hypothesis: true difference in means is less than 0
## 95 percent confidence interval:
##       -Inf -4.852437
## sample estimates:
## mean of x mean of y 
##      75.1      82.4

Conclusión:

El valor p es menor que 0.05, por lo que hay evidencia de que el plan de incentivos funciona. El grupo con incentivos produce más, así que el plan es efectivo.

Problema 7

En una muestra de 200 clientes, el 20% indica una preferencia por tamaño especial de pizza. Con posterioridad a una campaña publicitaria realizada en radio y televisión promoviendo dicho producto, se selecciono una muestra de igual tamaño. En esta ultima muestra el 22% de los clientes indico preferencia por el producto. De acuerdo con estos resultados y un nivel de significancia del 5% , podría decirse que la campaña publicitaria no fue efectiva?

Solución:

# Datos
x <- c(40, 44)       # éxitos en cada muestra
n <- c(200, 200)     # tamaños de muestra

# Prueba de proporciones
prop.test(x = x, n = n, alternative = "greater", conf.level = 0.95)
## 
##  2-sample test for equality of proportions with continuity correction
## 
## data:  x out of n
## X-squared = 0.13562, df = 1, p-value = 0.6437
## alternative hypothesis: greater
## 95 percent confidence interval:
##  -0.09197605  1.00000000
## sample estimates:
## prop 1 prop 2 
##   0.20   0.22

Conclusión:

El valor p es 0.6437, mayor que 0.05. No se encontró evidencia de que la campaña haya tenido efecto en la preferencia por la pizza de tamaño especial.

Problema 8

Los siguientes son los datos de las horas hombre que se pierden en promedio por accidentes en 10 plantas industriales antes (A) y después (D) de la implantación de un programa de seguridad industrial:

id 1 2 3 4 5 6 7 8 9 10
A 45 73 46 124 30 57 83 34 26 17
D 36 60 44 119 35 51 77 29 24 11

Utilice un nivel de significancia de 0.05 para probar si el programa de seguridad implantado es eficaz. Suponga que esta variable se distribuye aproximadamente normal.

Solución:

# Datos
A <- c(45, 73, 46, 124, 30, 57, 83, 34, 26, 17)
D <- c(36, 60, 44, 119, 35, 51, 77, 29, 24, 11)

# Prueba t pareada (one-sided)
t.test(A, D, paired = TRUE, alternative = "greater", conf.level = 0.95)
## 
##  Paired t-test
## 
## data:  A and D
## t = 3.2796, df = 9, p-value = 0.004767
## alternative hypothesis: true mean difference is greater than 0
## 95 percent confidence interval:
##  2.161215      Inf
## sample estimates:
## mean difference 
##             4.9

Conclusión:

El valor p fue 0.0048, menor que 0.05. Después de aplicar el programa de seguridad, las horas-hombre perdidas disminuyeron, así que el programa fue efectivo.

Problema 9

La compañía de dulces Mars publica en su sitio web información relacionada con los porcentajes de los distintos colores de sus dulces M|M para la variedad de chocolate con leche.

Se realiza una verificación mediante el conteo delos dulces contenidos e n una bolsa de 14 onzas de dulces M|M, obteniendo los siguientes resultados: 70 duces cafés, 72 amarillos, 61 rojos, 118 azules, 108 naranjas y 85 verdes.

Se podria afirmar que los datos anteriores respaldan la información suministrada por la compañía en su sitio web? Sustente su respuesta.

Solución:

# Datos observados
observados <- c(70, 72, 61, 118, 108, 85)

# Porcentajes esperados según Mars (convertidos a proporciones)
proporcion_esperada <- c(13, 14, 13, 24, 20, 16) / 100

# Total de dulces observados
total <- sum(observados)

# Calculamos los valores esperados
esperados <- total * proporcion_esperada

# Prueba de bondad de ajuste Chi-cuadrado
chisq.test(observados, p = proporcion_esperada)
## 
##  Chi-squared test for given probabilities
## 
## data:  observados
## X-squared = 1.2468, df = 5, p-value = 0.9403

Conclusión:

El valor p fue 0.9403, mucho mayor que 0.05. No hay evidencia para decir que la distribución de colores de los M&M sea diferente a la oficial. Todo coincide con lo que dice la empresa.

Problema 10

En una línea de producción los artículos se inspeccionan en forma periódica con el fin de detectar defectos. La siguiente secuencia de artículos defectuosos (D) y no defectuosos (N) corresponde a la producción de uno de los turnos.

 [1] "N" "D" "N" "N" "D" "N" "D" "D" "N" "N" "D" "D" "D" "N" "N" "D" "D" "D" "D"
[20] "N" "N" "D" "N" "N" "N" "D" "N" "D" "D" "N" "N" "N" "D" "N" "D" "N" "D" "D"
[39] "D" "D" "D" "D" "N" "N" "N" "D" "D" "N" "D" "N"

Se puede afirmar que los datos no presentan patrón alguno y que la generación de artículos defectuosos se debe al azar? . Utilice un α=0.05.

Solución:

```{# Vector original de defectuosos (D) y no defectuosos (N)} datos <- c(“N”, “D”, “N”, “N”, “D”, “N”, “D”, “D”, “N”, “N”, “D”, “D”, “D”, “N”, “N”, “D”, “D”, “D”, “D”, “N”, “N”, “D”, “N”, “N”, “N”, “D”, “N”, “D”, “D”, “N”, “N”, “N”, “D”, “N”, “D”, “N”, “D”, “D”, “D”, “D”, “D”, “N”, “N”, “N”, “D”, “D”, “N”, “D”, “N”)

datos_bin <- ifelse(datos == “D”, 1, 0)

table(datos_bin)

library(randtests) runs.test(datos_bin)


### Conclusión:

Igual que el anterior: el valor p fue 0.9403.
No hay razón para pensar que la distribución real de los M&M es distinta a la publicada.

## Problema 11

En una planta ensambladora de camiones la supervisión diaria de las soldaduras generó la siguiente información:

          alta moderada baja
    dia    470      191   42
    tarde  445      171   28
    noche  257      139   17

¿Se puede concluir que la calidad varia con los turnos?, en otras palabras se puede concluir que la calidad de las soldaduras es independiente de los turnos? . Utilice un nivel de significancia α=0.05.

### Solución:


``` r
# Crear la tabla
calidad <- matrix(c(
  470, 191, 42,
  445, 171, 28,
  257, 139, 17
), nrow = 3, byrow = TRUE)

# Asignar nombres
rownames(calidad) <- c("dia", "tarde", "noche")
colnames(calidad) <- c("alta", "moderada", "baja")

# Ver tabla
calidad
##       alta moderada baja
## dia    470      191   42
## tarde  445      171   28
## noche  257      139   17
chisq.test(calidad)
## 
##  Pearson's Chi-squared test
## 
## data:  calidad
## X-squared = 9.4939, df = 4, p-value = 0.04987

Conclusión:

El valor p fue 0.04987, justo por debajo de 0.05. Eso indica que la calidad de las soldaduras sí depende del turno de trabajo.

Problema 12

Los siguientes datos corresponde a las notas obtenidas por un grupo de estudiantes de la asignatura Matemáticas Fundamentales. Si la distribución de los datos es normal, podría afirmar que la prueba realizada es una prueba normalizada. En caso contrario serviría para estudiar problemas relacionados con su aprendizaje. Para un α=0;05, se podría afirmar que los datos proceden de una distribución normal? . Si se requiere realizar una prueba de hipótesis sobre la media de la nota Ho:μ≤3.3 vs Ha:μ>3.3, ¿Que prueba se realizaría?

Solución

notas <- c(3.4, 2.8, 4.2, 2.1, 2.8, 2.4, 3.5, 4.2, 3.1, 4.1, 2.4, 3.4, 4.1, 4.0, 2.4,
           4.1, 3.4, 4.4, 3.8, 3.7, 2.2, 3.6, 2.3, 3.7, 2.8, 4.1, 2.3, 4.6, 4.6, 5.2,
           2.4, 2.4, 2.7, 3.8, 4.6, 4.4, 4.2, 4.4, 2.4, 3.3, 3.8, 2.9, 3.1, 2.7, 3.6,
           3.8, 4.4, 3.9, 2.8, 3.7)

shapiro.test(notas)
## 
##  Shapiro-Wilk normality test
## 
## data:  notas
## W = 0.95071, p-value = 0.03649
t.test(notas, mu = 3.3, alternative = "greater")
## 
##  One Sample t-test
## 
## data:  notas
## t = 1.416, df = 49, p-value = 0.08155
## alternative hypothesis: true mean is greater than 3.3
## 95 percent confidence interval:
##  3.270562      Inf
## sample estimates:
## mean of x 
##      3.46

Conclusión

El valor p del test de normalidad fue 0.03649, menor que 0.05. Eso significa que los datos no siguen una distribución normal. En este caso, lo correcto sería usar la prueba no paramétrica de Wilcoxon para comparar la media con 3.3.