Suponga que se estudia la compra de una nueva máquina. Se comprará si la proporción de productos que requieren reproceso es inferior al 5%. Se examinan 40 artículos y 3 requieren reproceso. ¿Se compra la máquina?
n <- 40
x <- 3
p0 <- 0.05
# Test exacto de binomial, H0: p = 0.05 vs Ha: p < 0.05 (queremos p menor que 0.05)
bt <- binom.test(x, n, p = p0, alternative = "less")
bt$p.value
[1] 0.8618502
# Conclusión breve:
# p_hat = 3/40 = 0.075 > 0.05, p-valor grande -> no hay evidencia para afirmar p < 0.05.
Conclusión: No comprar la máquina (no se cumple la condición p < 0.05).
Comparar las marcas FB y KT (n = 12 cada una), asumiendo normalidad y α = 0.05.
FB <- c(41.8, 41.6, 31.5, 48.7, 40.8, 31.2, 36.5, 36.2, 32.8, 36.3, 38.6, 30.5)
KT <- c(40.5, 38.4, 44.0, 34.9, 44.0, 44.7, 44.0, 47.1, 39.8, 43.9, 44.2, 40.2)
# Prueba t de dos muestras (asumiendo varianzas posiblemente distintas)
tres <- t.test(FB, KT, var.equal = FALSE, alternative = "two.sided")
tres$p.value
[1] 0.01529709
mean(FB); mean(KT)
[1] 37.20833
[1] 42.14167
# Conclusión: recomendar la marca con mayor media si la diferencia es significativa.
Conclusión: comparar p-valor con 0.05; si p < 0.05 y mean(KT) > mean(FB) recomendar KT, etc.
Comparar procedimiento estándar (x1) vs nuevo procedimiento (x2), α = 0.05. ¿El nuevo método es más eficiente?
x1 <- c(32, 37, 35, 28, 41, 44, 35, 31, 34)
x2 <- c(35, 31, 29, 25, 34, 40, 27, 32, 31)
# Queremos probar si mu_new > mu_standard => alternative = "greater"
t3 <- t.test(x2, x1, alternative = "greater", var.equal = FALSE)
t3$p.value
[1] 0.9406348
mean(x1); mean(x2)
[1] 35.22222
[1] 31.55556
# Conclusión según p-valor y medias.
Prueba pareada (n=16) antes (x1) y después (x2) de un mes de ejercicios. α = 0.01. ¿El programa es eficaz (disminuye peso)?
x1 <- c(104,89,84,106,90,96,79,90,85,76,91,82,100,89,121,72)
x2 <- c(98,85,85,103,88,95,79,90,82,76,89,81,99,86,111,70)
# Queremos ver si el peso disminuye después => mean(x1 - x2) > 0
pt <- t.test(x1, x2, paired = TRUE, alternative = "greater")
pt$p.value
[1] 0.001881648
mean(x1 - x2)
[1] 2.3125
# Conclusión breve basada en p-valor vs 0.01.
Comparar dos lectores: n1=n2=61, xbar1=40, s2_1=24.9, xbar2=29, s2_2=22.7. Determinar preferencia y mostrar pruebas estadísticas.
n1 <- n2 <- 61
mx1 <- 40; mx2 <- 29
vx1 <- 24.9; vx2 <- 22.7
# Prueba de igualdad de varianzas (F-test)
Fstat <- vx1 / vx2
pF <- 2 * min(pf(Fstat, n1-1, n2-1), 1 - pf(Fstat, n1-1, n2-1))
Fstat; pF
[1] 1.096916
[1] 0.7213095
# Como muestras son grandes, usamos prueba t de Welch
se <- sqrt(vx1/n1 + vx2/n2)
tstat <- (mx1 - mx2) / se
# grados de libertad aproximados (Welch)
df <- (vx1/n1 + vx2/n2)^2 / ((vx1^2)/((n1^2)*(n1-1)) + (vx2^2)/((n2^2)*(n2-1)))
pval <- 2 * (1 - pt(abs(tstat), df))
tstat; df; pval
[1] 12.45243
[1] 119.7442
[1] 0
# Conclusión: si pval < 0.05, diferencias significativas; en caso afirmativo elegir el de mayor media (nuevo si mx1>mx2).
Conclusión: si la diferencia es significativa y mx1>mx2, preferir el lector 1.
Comparar producción de dos grupos (cada uno 10 observaciones). ¿Es efectivo el plan de incentivos?
G1 <- c(75,76,74,80,72,78,76,73,72,75)
G2 <- c(86,78,86,84,81,79,78,84,88,80)
# H0: mu_G2 = mu_G1 vs Ha: mu_G2 > mu_G1
t6 <- t.test(G2, G1, alternative = "greater", var.equal = FALSE)
t6$p.value
[1] 4.538892e-05
mean(G1); mean(G2)
[1] 75.1
[1] 82.4
# Conclusión según p-valor.
Muestras de 200 clientes antes (20%) y después (22%) de una campaña. ¿La campaña no fue efectiva? α = 0.05.
n1 <- n2 <- 200
succ1 <- 0.20 * n1
succ2 <- 0.22 * n2
# Prueba de proporciones (dos muestras)
pt7 <- prop.test(c(succ1, succ2), c(n1, n2), alternative = "two.sided", correct = FALSE)
pt7$p.value
[1] 0.6234062
# También se puede hacer una prueba unilateral segun la hipótesis planteada.
succ1; succ2
[1] 40
[1] 44
# Conclusión: comparar p-valor con 0.05; si p > 0.05 no hay evidencia de cambio significativo.
Conclusión: con estos datos la diferencia es pequeña y típicamente no significativa; no se puede afirmar que la campaña haya tenido efecto (o que sea inefectiva) sin más evidencia.
Horas hombre perdidas en 10 plantas antes (A) y después (D) de programa de seguridad. α = 0.05.
A <- c(45,73,46,124,30,57,83,34,26,17)
D <- c(36,60,44,119,35,51,77,29,24,11)
# H0: no hay reducción vs Ha: horas antes > horas después (reducción)
pt8 <- t.test(A, D, paired = TRUE, alternative = "greater")
pt8$p.value
[1] 0.004767307
mean(A - D)
[1] 4.9
# Conclusión según p-valor.
Conteo en bolsa de M|M (observados): c(70,72,61,118,108,85) por colores (ordenar como lo desee). ¿Los datos respaldan la información del fabricante?
obs <- c(70,72,61,118,108,85)
n_total <- sum(obs)
# Proporciones oficiales según Mars
p_expected <- c(0.13, 0.14, 0.13, 0.24, 0.20, 0.16)
expected <- n_total * p_expected
# Prueba chi-cuadrado de bondad de ajuste
chisq <- chisq.test(x = obs, p = p_expected, rescale.p = FALSE, simulate.p.value = FALSE)
# Resultados relevantes
n_total; expected
[1] 514
[1] 66.82 71.96 66.82 123.36 102.80 82.24
chisq$statistic; chisq$parameter; chisq$p.value
X-squared
1.246834
df
5
[1] 0.9403061
# Conclusión: comparar chisq$p.value con alfa = 0.05
Secuencia de artículos D/N (defectuoso/no). Evaluar si la generación de defectos es azarosa. α = 0.05.
seq <- c("D","N","D","D","N","N","D","N","N","D","N","N","N","N","D","D","D","N","D",
"N","D","D","D","N","D","N","D","N","N","N","N","N","D","D","D","D","D","N",
"N","D","D","D","D","N","N","N","D","N","N","D")
# Convert to binary: D=1, N=0
bin <- ifelse(seq == "D", 1, 0)
# Count runs R, n1 (#D), n2 (#N)
runs_count <- function(x) {
r <- 1 + sum(x[-1] != x[-length(x)])
r
}
R <- runs_count(bin)
n1 <- sum(bin==1); n2 <- sum(bin==0)
# Expected number of runs and variance
R_exp <- 1 + (2 * n1 * n2) / (n1 + n2)
R_var <- (2 * n1 * n2 * (2 * n1 * n2 - n1 - n2)) / ((n1 + n2)^2 * (n1 + n2 - 1))
z <- (R - R_exp) / sqrt(R_var)
p_value <- 2 * (1 - pnorm(abs(z)))
list(R = R, R_exp = R_exp, z = z, p_value = p_value)
$R
[1] 25
$R_exp
[1] 26
$z
[1] -0.2857738
$p_value
[1] 0.7750514
# Conclusión según p_value vs 0.05
Prueba de independencia calidad de soldaduras vs turnos.
# Tabla observada (filas = turnos: Día, Tarde, Noche; columnas = Alta, Moderada, Baja)
obs_table <- matrix(c(
470, 191, 42, # Día
445, 171, 28, # Tarde
257, 129, 17 # Noche
), nrow = 3, byrow = TRUE)
rownames(obs_table) <- c("Día", "Tarde", "Noche")
colnames(obs_table) <- c("Alta", "Moderada", "Baja")
# Prueba chi-cuadrado de independencia
chisq_res <- chisq.test(obs_table, correct = FALSE)
# Resultados clave
chisq_res$statistic
X-squared
6.400054
chisq_res$parameter
df
4
chisq_res$p.value
[1] 0.1711977
chisq_res$expected
Alta Moderada Baja
Día 470.8091 197.2417 34.94914
Tarde 431.2960 180.6880 32.01600
Noche 269.8949 113.0703 20.03486
# Conclusión: con alfa = 0.05, si p.value < 0.05 rechazamos H0 (calidad depende del turno).
if (chisq_res$p.value < 0.05) {
message("Rechaza H0: la calidad de las soldaduras varía con los turnos.")
} else {
message("No se rechaza H0: no hay evidencia de dependencia entre calidad y turno.")
}
No se rechaza H0: no hay evidencia de dependencia entre calidad y turno.
Datos de notas x (lista). a) ¿Los datos proceden de una distribución normal? α = 0.05. b) Si se prueba H0: μ ≤ 3.3 vs Ha: μ > 3.3, ¿qué prueba usar y realizarla?
x <- c(3.4,2.8,4.2,2.1,2.8,2.4,3.5,4.2,3.1,4.1,2.4,3.4,4.1,4.0,2.4,
4.1,3.4,4.4,3.8,3.7,2.2,3.6,2.3,3.7,2.8,4.1,2.3,4.6,4.6,5.2,
2.4,2.4,2.7,3.8,4.6,4.4,4.2,4.4,2.4,3.3,3.8,2.9,3.1,2.7,3.6,
3.8,4.4,3.9,2.8,3.7)
# a) Normalidad: Shapiro-Wilk (apto para n <= 5000)
shapiro_res <- shapiro.test(x)
shapiro_res$p.value
[1] 0.03648819
# b) Prueba de hipótesis sobre la media: H0: mu <= 3.3 vs Ha: mu > 3.3 -> t-test unilateral
t12 <- t.test(x, mu = 3.3, alternative = "greater")
t12$statistic; t12$p.value
t
1.416021
[1] 0.08154748
mean(x); sd(x)
[1] 3.46
[1] 0.7989789
# Conclusiones: normalidad (segun shapiro) y resultado de la t unilateral.