# Datos
x <- 3 # Número de artículos defectuosos
n <- 40 # Tamaño de la muestra
p0 <- 0.05 # Proporción bajo H0 (5%)
alfa <- 0.05 # Nivel de significancia
resultado_prueba <- prop.test(x = x, n = n, p = p0,
alternative = "less",
conf.level = 1 - alfa,
correct = FALSE)
cat("-----------------------------------------------------------------\n")
## -----------------------------------------------------------------
cat("Resultado de la Prueba de Hipótesis para la Proporción (p):\n")
## Resultado de la Prueba de Hipótesis para la Proporción (p):
cat("-----------------------------------------------------------------\n")
## -----------------------------------------------------------------
print(resultado_prueba)
##
## 1-sample proportions test without continuity correction
##
## data: x out of n, null probability p0
## X-squared = 0.52632, df = 1, p-value = 0.7659
## alternative hypothesis: true p is less than 0.05
## 95 percent confidence interval:
## 0.0000000 0.1734802
## sample estimates:
## p
## 0.075
# Criterio de Decisión
p_valor <- resultado_prueba$p.value
cat(paste("\nValor p:", round(p_valor, 4), "\n"))
##
## Valor p: 0.7659
cat(paste("Nivel de significancia (alfa):", alfa, "\n"))
## Nivel de significancia (alfa): 0.05
Como el p-valor es mayor a 0.05 no se rechaza la hipotesis nula, evidencia estadística suficiente para concluir que la verdadera proporción de defectos sea inferior al 5%.
Hipótesis Nula uKT<= uFB (KT no es mejor que FB). Hipótesis Alternativa uKT < uFB(KT es mejor que FB).
# =========================================================================
# PROBLEMA 1: COMPARACIÓN DE MEDIAS (NEUMÁTICOS FB y KT)
# =========================================================================
# 1. Cargar los datos
rendimiento_FB <- c(41.8, 41.6, 31.5, 40.7, 40.8, 31.2, 36.5, 36.2, 32.8, 36.3, 38.6, 30.5)
rendimiento_KT <- c(40.5, 38.4, 44.0, 34.9, 44.0, 44.7, 44.0, 47.1, 39.8, 43.9, 44.2, 40.2)
# 2. Establecer el nivel de significancia
alfa <- 0.05
# 3. Realizar la prueba t de Student para muestras independientes
resultado_ttest <- t.test(rendimiento_KT,
rendimiento_FB,
alternative = "greater",
mu = 0, # Diferencia bajo H0 es 0
conf.level = 1 - alfa,
var.equal = FALSE)
cat("--- Resultado de la Prueba t ---\n")
## --- Resultado de la Prueba t ---
print(resultado_ttest)
##
## Welch Two Sample t-test
##
## data: rendimiento_KT and rendimiento_FB
## t = 3.5703, df = 21.015, p-value = 0.0009023
## alternative hypothesis: true difference in means is greater than 0
## 95 percent confidence interval:
## 2.90113 Inf
## sample estimates:
## mean of x mean of y
## 42.14167 36.54167
# 4. Análisis y Justificación
diferencia_muestral <- mean(rendimiento_KT) - mean(rendimiento_FB)
p_valor <- resultado_ttest$p.value
cat("\n-------------------------------------------------\n")
##
## -------------------------------------------------
cat(paste("Diferencia de Medias (KT - FB):", round(diferencia_muestral, 3), "\n"))
## Diferencia de Medias (KT - FB): 5.6
cat(paste("Valor p:", round(p_valor, 4), "\n"))
## Valor p: 9e-04
El p valor es menor a alfa, por lo tanto existe suficiente evidencia para rechazar H0 y recomendar la marca FB.
Hipotesis nula: nuevo <= estandar Hipotesis alternativa: nuevo > estandar
# 1. Cargar los datos
produccion_x1_estandar <- c(32, 37, 35, 28, 41, 44, 35, 31, 34) # Procedimiento estándar
produccion_x2_nuevo <- c(35, 31, 29, 25, 34, 40, 27, 32, 31) # Nuevo procedimiento
# 2. Establecer el nivel de significancia
alfa <- 0.05
# 3. Revisar estadísticas descriptivas
cat("--- Estadísticas Descriptivas ---\n")
## --- Estadísticas Descriptivas ---
cat("Media Método 1 (Estándar):", round(mean(produccion_x1_estandar), 2), "\n")
## Media Método 1 (Estándar): 35.22
cat("Media Método 2 (Nuevo):", round(mean(produccion_x2_nuevo), 2), "\n")
## Media Método 2 (Nuevo): 31.56
cat("----------------------------------\n")
## ----------------------------------
resultado_ttest <- t.test(produccion_x2_nuevo,
produccion_x1_estandar,
alternative = "greater",
mu = 0, # Diferencia bajo H0 es 0
conf.level = 1 - alfa,
var.equal = TRUE)
cat("--- Resultado de la Prueba t de Student (Nuevo > Estándar) ---\n")
## --- Resultado de la Prueba t de Student (Nuevo > Estándar) ---
print(resultado_ttest)
##
## Two Sample t-test
##
## data: produccion_x2_nuevo and produccion_x1_estandar
## t = -1.6495, df = 16, p-value = 0.9407
## alternative hypothesis: true difference in means is greater than 0
## 95 percent confidence interval:
## -7.54762 Inf
## sample estimates:
## mean of x mean of y
## 31.55556 35.22222
# 5. Criterio de Decisión
p_valor <- resultado_ttest$p.value
t_stat <- resultado_ttest$statistic
cat("\n-------------------------------------------------\n")
##
## -------------------------------------------------
cat(paste("Estadístico t:", round(t_stat, 4), "\n"))
## Estadístico t: -1.6495
cat(paste("Valor p:", round(p_valor, 4), "\n"))
## Valor p: 0.9407
El p valor es mayor a alfa, por lo tanto no se rechaza H0 por falta de evidencia estadística.
Hipótesis nula, la diferencia de peso <= 0 Hipótesis alternativa, la diferencia de peso es >0
# 1. Cargar los datos
# Peso antes (x1)
peso_antes <- c(104, 89, 84, 106, 90, 96, 79, 90, 85, 76, 91, 82, 100, 89, 121, 72)
# Peso después (x2)
peso_despues <- c(98, 85, 85, 103, 88, 95, 79, 90, 82, 76, 89, 81, 99, 86, 111, 70)
# 2. Establecer el nivel de significancia
alfa <- 0.01
# 3. Realizar la prueba t pareada
resultado_ttest_pareado <- t.test(peso_antes,
peso_despues,
alternative = "greater",
mu = 0, # Diferencia bajo H0 es 0
paired = TRUE,
conf.level = 1 - alfa)
cat("--- Resultado de la Prueba t Pareada ---\n")
## --- Resultado de la Prueba t Pareada ---
print(resultado_ttest_pareado)
##
## Paired t-test
##
## data: peso_antes and peso_despues
## t = 3.4246, df = 15, p-value = 0.001882
## alternative hypothesis: true mean difference is greater than 0
## 99 percent confidence interval:
## 0.5551231 Inf
## sample estimates:
## mean difference
## 2.3125
# 4. Análisis y Justificación
diferencia_media <- mean(peso_antes - peso_despues)
p_valor <- resultado_ttest_pareado$p.value
cat("\n-------------------------------------------------\n")
##
## -------------------------------------------------
cat(paste("Diferencia Promedio (Antes - Despues):", round(diferencia_media, 2), "\n"))
## Diferencia Promedio (Antes - Despues): 2.31
cat(paste("Valor p:", round(p_valor, 5), "\n"))
## Valor p: 0.00188
cat(paste("Nivel de significancia (alfa):", alfa, "\n"))
## Nivel de significancia (alfa): 0.01
El p valor es menor que alfa, por lo tanto rechazamos h0 y aceptamos ha, el instructor debe ser contratado para la campaña
hipotesis nula: u1<= u2 hipotesis alternativa u1 > u2
n1 <- 61
n2 <- 61
x1_media <- 40
x2_media <- 29
s1_cuadrado <- 24.9
s2_cuadrado <- 22.7
alfa <- 0.05
# 2. Reconstrucción de la prueba t (manual, ya que R necesita los datos brutos)
# --- FÓRMULA DEL ESTADÍSTICO DE PRUEBA T (Varianza Combinada) ---
# 2a. Cálculo de la Varianza Combinada (s_p^2)
gl <- n1 + n2 - 2 # 120 grados de libertad
sp_cuadrado <- ((n1 - 1) * s1_cuadrado + (n2 - 1) * s2_cuadrado) / gl
sp <- sqrt(sp_cuadrado)
# 2b. Cálculo del Error Estándar (SE)
SE <- sp * sqrt(1/n1 + 1/n2)
# 2c. Cálculo del Estadístico T
T_stat <- (x1_media - x2_media) / SE
# 2d. Cálculo del Valor p
valor_p <- pt(T_stat, df = gl, lower.tail = FALSE) # Prueba unilateral H_a: >
cat("--- Resultados de la Prueba t (Calculados Manualmente en R) ---\n")
## --- Resultados de la Prueba t (Calculados Manualmente en R) ---
cat(paste("Diferencia de Medias (X1 - X2):", x1_media - x2_media, "\n"))
## Diferencia de Medias (X1 - X2): 11
cat(paste("Varianza Combinada (s_p^2):", round(sp_cuadrado, 3), "\n"))
## Varianza Combinada (s_p^2): 23.8
cat(paste("Error Estandar (SE):", round(SE, 3), "\n"))
## Error Estandar (SE): 0.883
cat(paste("Estadistico de Prueba T:", round(T_stat, 3), "\n"))
## Estadistico de Prueba T: 12.452
cat(paste("Grados de Libertad:", gl, "\n"))
## Grados de Libertad: 120
cat(paste("Valor p:", valor_p, "\n"))
## Valor p: 1.16709245478708e-23
El p valor es practicamente 0, por lo ranto se rechaza la hipotesis nula y se afirma que la media del lector nuevo es significativamente mayor a la del segundo, se debe adquirir el nuevo.
hipotesis alternativa: mu_G2 > mu_G1
G1 <- c(75, 76, 74, 80, 72, 78, 76, 73, 72, 75)
G2 <- c(86, 78, 86, 84, 81, 79, 78, 84, 88, 80)
alfa <- 0.05
# Prueba t de Student para muestras independientes
resultado_incentivos <- t.test(G2, G1, alternative = "greater", var.equal = TRUE, conf.level = 1 - alfa)
cat("--- Prueba de Hipotesis: Plan de Incentivos (G2 > G1) ---\n")
## --- Prueba de Hipotesis: Plan de Incentivos (G2 > G1) ---
print(resultado_incentivos)
##
## Two Sample t-test
##
## data: G2 and G1
## t = 5.1719, df = 18, p-value = 3.204e-05
## alternative hypothesis: true difference in means is greater than 0
## 95 percent confidence interval:
## 4.852437 Inf
## sample estimates:
## mean of x mean of y
## 82.4 75.1
p_valor <- resultado_incentivos$p.value
cat(paste("\nValor p:", round(p_valor, 4), "\n"))
##
## Valor p: 0
Dado que el p valor es 0, se rechaza la hipótesis nula ya que hay evidencia estadística suficiente para afirmar que el plan de incentivos es efectivo, ya que la producción promedio del Grupo 2 es significativamente mayor que la del Grupo 1.
H0 = p2 > p1 Ha= p2<= p1
x1_antes <- 40
n1 <- 200
x2_despues <- 44
n2 <- 200
alfa <- 0.05
resultado_prop_diff <- prop.test(x = c(x2_despues, x1_antes),
n = c(n2, n1),
alternative = "less",
correct = FALSE)
cat("--- Resultado de la Prueba de Dos Proporciones (p_despues <= p_antes) ---\n")
## --- Resultado de la Prueba de Dos Proporciones (p_despues <= p_antes) ---
print(resultado_prop_diff)
##
## 2-sample test for equality of proportions without continuity correction
##
## data: c(x2_despues, x1_antes) out of c(n2, n1)
## X-squared = 0.24111, df = 1, p-value = 0.6883
## alternative hypothesis: less
## 95 percent confidence interval:
## -1.00000000 0.08697605
## sample estimates:
## prop 1 prop 2
## 0.22 0.20
El p valor es mayor a 0.05, por lo tanto NO se puede concluir que la campaña publicitaria NO fue efectiva. No hay evidencia significativa para aceptar
H0= Mud <=0 el programa no es eficaz
Ha= Mud >0 el programa es eficaz
# 1. Cargar los datos
horas_antes <- c(45, 73, 46, 124, 30, 57, 83, 34, 26, 17)
horas_despues <- c(36, 60, 44, 119, 35, 51, 77, 29, 24, 11)
# 2. Establecer el nivel de significancia
alfa <- 0.05
# 3. Calcular las diferencias (Antes - Después)
diferencias <- horas_antes - horas_despues
# 4. Realizar la prueba t pareada
# - paired = TRUE: Indica que las muestras son dependientes.
# - alternative = "greater": Prueba H_a: mu_d > 0 (la diferencia promedio es positiva,
# es decir, Antes > Después).
# - mu = 0: El valor de la diferencia bajo la hipótesis nula.
resultado_ttest_pareado <- t.test(horas_antes,
horas_despues,
alternative = "greater",
mu = 0,
paired = TRUE,
conf.level = 1 - alfa)
cat("--- Resultado de la Prueba t Pareada para la Eficacia del Programa ---\n")
## --- Resultado de la Prueba t Pareada para la Eficacia del Programa ---
print(resultado_ttest_pareado)
##
## Paired t-test
##
## data: horas_antes and horas_despues
## t = 3.2796, df = 9, p-value = 0.004767
## alternative hypothesis: true mean difference is greater than 0
## 95 percent confidence interval:
## 2.161215 Inf
## sample estimates:
## mean difference
## 4.9
# 5. Análisis y Justificación
media_diferencias <- mean(diferencias)
p_valor <- resultado_ttest_pareado$p.value
t_estadistico <- resultado_ttest_pareado$statistic
cat("\n-------------------------------------------------\n")
##
## -------------------------------------------------
cat(paste("Diferencia Promedio (Antes - Después):", round(media_diferencias, 2), "\n"))
## Diferencia Promedio (Antes - Después): 4.9
cat(paste("Estadístico t:", round(t_estadistico, 3), "\n"))
## Estadístico t: 3.28
cat(paste("Valor p:", round(p_valor, 4), "\n"))
## Valor p: 0.0048
cat(paste("Nivel de significancia (alfa):", alfa, "\n"))
## Nivel de significancia (alfa): 0.05
h0= la información es consistente ha= la información no es consistente
O_observado <- c(70, 72, 61, 118, 108, 85)
p_esperado <- c(0.13, 0.14, 0.13, 0.24, 0.20, 0.16)
alfa <- 0.05
# Prueba de Chi-cuadrado
resultado_chi2 <- chisq.test(O_observado, p = p_esperado)
cat("--- Prueba Chi-cuadrado de Bondad de Ajuste: DULCES M&M ---\n")
## --- Prueba Chi-cuadrado de Bondad de Ajuste: DULCES M&M ---
print(resultado_chi2)
##
## Chi-squared test for given probabilities
##
## data: O_observado
## X-squared = 1.2468, df = 5, p-value = 0.9403
# Cálculo manual de las frecuencias esperadas (E_i)
N_total <- sum(O_observado)
E_esperado <- N_total * p_esperado
cat("\nFrecuencias Esperadas (E_i):\n")
##
## Frecuencias Esperadas (E_i):
print(E_esperado)
## [1] 66.82 71.96 66.82 123.36 102.80 82.24
Como el p valor dio menor que 0, se rechaza la hipotesis inicial dado que no hay suficiente evidencia para corroborar que los datos son consistentes.
H0= la secuencia es aleatoria
ha= la secuencia no es aleatoria
# 1. Secuencia de datos
secuencia_string <- "DNDNDNN DNDNNNDNDDN DNDNDNNNDNNNDNDNDNNDNDNDNDNDND"
# Se extraen los 43 elementos, ignorando espacios si los hubiera
secuencia <- unlist(strsplit(gsub(" ", "", secuencia_string), split = ""))
# 2. Conteo manual de parámetros
n1 <- sum(secuencia == "D") # Defectuosos
n2 <- sum(secuencia == "N") # No Defectuosos
N <- length(secuencia)
R_observado <- 33 # Conteo manual de rachas
# 3. Cálculo de la media y desviación estándar esperada
mu_R <- (2 * n1 * n2) / N + 1
sigma2_R <- (2 * n1 * n2 * (2 * n1 * n2 - N)) / (N^2 * (N - 1))
sigma_R <- sqrt(sigma2_R)
cat("--- Parámetros Calculados ---\n")
## --- Parámetros Calculados ---
cat(paste("n1 (D):", n1, " | n2 (N):", n2, " | N:", N, "\n"))
## n1 (D): 21 | n2 (N): 27 | N: 48
cat(paste("Rachas Observadas (R):", R_observado, "\n"))
## Rachas Observadas (R): 33
cat(paste("Media Esperada (mu_R):", round(mu_R, 3), "\n"))
## Media Esperada (mu_R): 24.625
cat(paste("Desviación Estándar (sigma_R):", round(sigma_R, 3), "\n"))
## Desviación Estándar (sigma_R): 3.372
# 4. Cálculo del Estadístico Z
# Se usa corrección por continuidad (0.5), ya que R es discreta y Z es continua.
Z_calculado <- (R_observado - mu_R - 0.5) / sigma_R
# Z_calculado <- (R_observado - mu_R) / sigma_R # Sin corrección
# 5. Cálculo del Valor p
p_valor_unilateral <- pnorm(Z_calculado, lower.tail = FALSE)
p_valor_bilateral <- 2 * p_valor_unilateral
cat(paste("\nEstadístico Z:", round(Z_calculado, 3), "\n"))
##
## Estadístico Z: 2.335
cat(paste("Valor p :", round(p_valor_bilateral, 4), "\n"))
## Valor p : 0.0195
El resultado del p valor es 0.0195, por lo tanto H0 se rechaza y se dice que la secuencia no es aleatoria.
(Hipótesis Nula): La calidad de las soldaduras es independiente del turno. (Hipótesis Alternativa): La calidad de las soldaduras es dependiente del turno.
tabla_observada <- matrix(c(470, 191, 42,
445, 171, 28,
257, 129, 17),
nrow = 3,
byrow = TRUE,
dimnames = list(Turno = c("Día", "Tarde", "Noche"),
Calidad = c("Alta", "Moderada", "Baja")))
cat("--- Tabla de Frecuencias Observadas (O_ij) ---\n")
## --- Tabla de Frecuencias Observadas (O_ij) ---
print(tabla_observada)
## Calidad
## Turno Alta Moderada Baja
## Día 470 191 42
## Tarde 445 171 28
## Noche 257 129 17
# 2. Realizar la Prueba Chi-cuadrado
resultado_chi2 <- chisq.test(tabla_observada, correct = FALSE)
cat("\n--- Resultado de la Prueba Chi-cuadrado de Independencia ---\n")
##
## --- Resultado de la Prueba Chi-cuadrado de Independencia ---
print(resultado_chi2)
##
## Pearson's Chi-squared test
##
## data: tabla_observada
## X-squared = 6.4001, df = 4, p-value = 0.1712
# 3. Grados de Libertad y Valor Crítico
filas <- nrow(tabla_observada)
columnas <- ncol(tabla_observada)
gl <- (filas - 1) * (columnas - 1)
chi2_critico <- qchisq(1 - alfa, df = gl)
cat(paste("\nGrados de Libertad (gl):", gl, "\n"))
##
## Grados de Libertad (gl): 4
cat(paste("Valor Crítico Chi^2 (alfa=0.05):", round(chi2_critico, 3), "\n"))
## Valor Crítico Chi^2 (alfa=0.05): 9.488
El p valor es mayor a 0.05, por lo tanto no se rechaza H0.
H0: Los datos siguen una distribución normal (la variable nota es normal) Ha: Los datos no siguen una distribución normal.
# Datos de las notas obtenidos de la imagen
notas <- c(3.4, 2.8, 4.2, 2.1, 2.8, 2.4, 3.5, 4.2, 3.1, 4.1, 2.4, 3.4, 4.1, 4.8, 2.4,
4.1, 3.4, 4.4, 3.8, 3.7, 2.2, 3.6, 2.3, 3.7, 2.8, 4.1, 2.3, 4.6, 4.6, 5.2,
2.4, 2.4, 2.7, 3.8, 4.6, 4.4, 4.2, 4.4, 2.4, 3.3, 3.8, 2.9, 3.1, 2.7, 3.6,
3.8, 4.4, 3.9, 2.8, 3.7)
# Estadísticas Descriptivas
n <- length(notas)
media_x <- mean(notas)
s_x <- sd(notas)
# Imprimir estadísticas
cat("--- Estadísticas Descriptivas ---\n")
## --- Estadísticas Descriptivas ---
cat("Tamaño de la muestra (n):", n, "\n")
## Tamaño de la muestra (n): 50
cat("Media muestral (x_bar):", round(media_x, 4), "\n")
## Media muestral (x_bar): 3.476
cat("Desviación estándar muestral (s):", round(s_x, 4), "\n")
## Desviación estándar muestral (s): 0.8178
# Realizar la prueba de Shapiro-Wilk
shapiro_test <- shapiro.test(notas)
cat("\n--- Prueba de Normalidad (Shapiro-Wilk) ---\n")
##
## --- Prueba de Normalidad (Shapiro-Wilk) ---
print(shapiro_test)
##
## Shapiro-Wilk normality test
##
## data: notas
## W = 0.95307, p-value = 0.04567
alpha <- 0.05
cat("Nivel de significancia (alpha):", alpha, "\n")
## Nivel de significancia (alpha): 0.05
El valor p es 0.04567 por lo tanto se rechaza H0 y se dice que los datos no obedecen a una distribución normal