A continuación se presenta el objetivo general de la práctica:
A continuación, se presenta los objetivos específicos que tiene la siguiente práctica:
Identificar La Fórmula De Densidad T Y Se Mencionar Las Funciones De Paquete Base De R: Dt(), Pt(), Qt Y Rt().
Identificar La Función Xpt() Y Visualize.T De La Librería Mosaic Y Visualize() Para Graficar T Student Y Para El Tratamiento De Este Tipo De Distribuciones.
En El Sustento Teórico, Dar A Conocer Un Panorama De La Importancia De La Distribución T Student.
Visualizar La Distribución De T Student Mediante Gráficos Programados Usando Funciones De La Librería Ggplot2().
Resolver Algunos Ejercicios Propuestos En La Literatura Con Datos Bajo El Contexto De La Distribución *T Student.
Identificar Los Intervalos De Confianza Con La Distribución T-Student.
Realizar la Interpretación De La Práctica Correspondiente.
La probabilidad y la estadística están relacionadas en una forma importante. La probabilidad se emplea como herramienta; permite que se evalúe la confiabilidad de las conclusiones acerca de la población cuando tenga sólo información muestral.
Por otra parte, la probabilidad indica el grado de certidumbre o certeza de un suceso o fenómeno estudiado, en la investigación científica existen muchos fenómenos en los cuales es necesario determinar la probabilidad de que un evento ocurra o dejen de ocurrir, para lo cual el estudio de este campo, es necesario.
Además tiene aplicaciones muy importantes en investigación; dado que es base para la inferencia estadística que permite el estudio de muestras con el objetivo de inferir o extrapolar características de estas a una población.
La definición propia de una variables estadísticas es la siguiente, de acuerdo con los estipulado por Enciclopedia en su sitio web (2022):
Una variable estadística es una característica de una muestra o población de datos que puede adoptar diferentes valores.
Cuando hablamos de variable estadística estamos hablando de una cualidad que, generalmente adopta forma numérica. Por ejemplo, la altura de Juan es de 180 centímetros. La variable estadística es la altura y está medida en centímetros.
Claro que no todas las variables estadísticas son iguales y, por supuesto, no todas se pueden (en principio) expresar en forma de número.
Aunque hay decenas de tipos de variables estadísticas, por norma general podemos encontrarnos dos tipos de variables:
Variable Cuantitativa: Son variables que se expresan numéricamente.
Variable Continua: Toman un valor infinito de valores entre un intervalo de datos. El tiempo que tarda un corredor en completar los 100 metros lisos.
Variable Discreta: Toman un valor finito de valores entre un intervalo de datos. Número de helados vendidos.
Variable Cualitativa: Son variables que se expresan, por norma general, en palabras.
Variable Ordinal: Expresa diferentes niveles y orden.
Variable Nominal: Expresa un nombre claramente diferenciado. Por ejemplo el color de ojos puede ser azul, negro, castaño, verde, etc.
La definición propia de una variable aleatoria continua es la siguiente, de acuerdo con los estipulado por Enciclopedia en su sitio web (2019):
Una variable aleatoria es la función matemática de un experimento aleatorio.
Cómo podemos comprobar la frase se compone básicamente de dos conceptos: función matemática y experimento aleatorio. Es decir, debemos entender primero qué es una función matemática y, posteriormente, definir qué entendemos por experimento aleatorio.
Función matemática: Dicho de manera sencilla, es una ecuación que asigna valores a una variable (variable dependiente) en función de otras variables (variables independientes).
Experimento aleatorio: Es un fenómeno de la vida real cuyos resultados se deben completamente al azar. Es decir, bajo las mismas condiciones iniciales arroja resultados diferentes.
Por la tanto una variable aleatoria, es una ecuación que describe o intenta describir los resultados (con un número) de un evento cuyos resultados se deben al azar.
En otras palabras, pensemos en una variable aleatoria que tome valores enteros.
Cabe ser preciso, así como recalcar que una variable continua es un tipo de variable cuantitativa, o lo que es lo mismo, que se puede expresar mediante cifras. De esta forma, a parte de estos datos se pueden realizar análisis estadísticos y operaciones matemáticas.
Sea X una variable aleatoria continua. Entonces, una distribución de probabilidad o función de densidad de probabilidad (pdf) de X es una función \(f(x)\) de modo tal que para dos números cualesquiera a y b con \(a \le b\)
En teoría de la probabilidad y estadística, la distribución de probabilidad de una variable aleatoria es una función que asigna a cada suceso definido sobre la variable, la probabilidad de que dicho suceso ocurra.
La distribución de probabilidad está definida sobre el conjunto de todos los sucesos y cada uno de los sucesos es el rango de valores de la variable aleatoria. También puede decirse que tiene una relación estrecha con las distribuciones de frecuencia.
La distribución de probabilidad está completamente especificada por la función de distribución, cuyo valor en cada x real es la probabilidad de que la variable aleatoria sea menor o igual que x.
Esta división se realiza dependiendo del tipo de variable a estudiar. Las cuatro principales (de las que nacen todas las demás) son:
A) Si la variable es una variable discreta (números enteros), corresponderá una distribución discreta, de las cuales existen:
Distribución Binomial (eventos independientes).
Distribución De Poisson (eventos independientes).
Distribución Hipergeométrica (eventos dependientes).
B) Si la variable es continua (números reales), la distribución que se generará será una distribución continua. Ejemplos de ellas son:
Distribución Normal.
Distribución Exponencial
La distribución t de Student o distribución t es un modelo teórico utilizado para aproximar el momento de primer orden de una población normalmente distribuida cuando el tamaño de la muestra es pequeño y se desconoce la desviación típica.
En otras palabras, la distribución t es una distribución de probabilidad que estima el valor de la media de una muestra pequeña extraída de una población que sigue una distribución normal y de la cual no conocemos su desviación típica.
Existe la fórmula para calcular el valor de t en la distribuciones T Student.. Se usa la siguiente fórmula para transformar distribuciones normales a t.
\[ t = \frac{(\bar{x}-\mu)}{s / \sqrt{n}} = \frac{\text{diferencia a probar}}{\text{ee =error estándar}} \]
\[ \bar{x} = \text{media muestral} \\ \mu = \text{media poblacional} \\ s = \text{desviación estándar de la muestra} \\ n = \text{número de elementos de la muestra} \]
Para muestras aleatorias de tamaño \(n\) desde una población normal[@mendenhall2010].
El numerador representa la diferencia a probar y el denominador la desviación estándar de la diferencia llamado también Error Estándar.
En esta fórmula \(t\) representa al valor estadístico que se estará buscando \(\bar{x}\) es el promedio de la variable analizada de la muestra, y \(\mu\)es el promedio poblacional de la variable a estudiar.
En el denominador se tiene a \(s\) como representativo de la desviación estándar de la muestra y \(n\) el tamaño de ésta.
La distribución t es más útil para tamaños muestrales pequeños, cuando la desviación estándar de la población no se conoce o ambos en comparación con la distribución normal estándar.
La Distribución T Student tiene las siguientes características:
Tiene forma de montículo o campana de gauss y es simétrica alrededor de \(t = 0\), igual que \(z\) la normal estándar.
Es más variable que \(z\), con “colas más pesadas”; esto es, la curva \(t\) no aproxima al eje horizontal con la misma rapidez que \(z\). Esto es porque el estadístico \(t\) abarca dos cantidades aleatorias, \(\bar{x}\) y \(s\), en tanto que el estadístico \(z\) tiene sólo la media muestral, \(\bar{x}\). Ver curvas de T Student y Normal Estándar \(z\).
La forma de la distribución \(t\) depende del tamaño muestral \(n\). A medida que \(n\) aumenta, la variabilidad de \(t\) disminuye porque la estimación \(s\) de \(\sigma\) está basada en más y más información.
Cuando \(n\) sea infinitamente grande, las distribuciones \(t\) y \(z\) son idénticas. [@mendenhall2010].
Al igual que otras distribuciones como la binomial, Poisson uniforme, normal, entre otras, se disponen de las funciones dt(), pt(), qt() y rt() para el tratamiento de distribuciones T Student.
El número de grados de libertad es igual al tamaño de la muestra \(n\) (número de observaciones independientes) menos 1 . [@estadística2016]
\[ gl = df = (n – 1) \\ \therefore \\ df = \text{grados de libertad} \\ n = \text{total de elementos de la muestra de t} \]
El divisor \((n-1)\) en la fórmula para la varianza muestral \(s^2 = \sum(\frac{x_i-\bar{x}}{n-1})\) se denomina número de grados de libertad (df) asociado con \(s^2\) determina la forma de la distribución \(t\). El origen del término grados de libertad es teórico y se refiere al número de desviaciones independientes elevadas al cuadrado en \(s^2\) existentes para estimar \(\sigma^2\).
Estos grados de libertad pueden cambiar para diferentes aplicaciones y como especifican la distribución t correcta a usar, es necesario recordar que hay que calcular los grados de libertad correctos para cada aplicación. [@mendenhall2010].
Si la muestra tiene un valor de \(t\) en el rango del nivel de confianza entonces se acepta la hipótesis de lo contrario de rechaza.
En los siguientes ejercicios también se utilizan funciones de paquetes predeterminados de lenguaje de R para una mejor comprensión de la distribución T-Student.
# Importación De Los Paquetes Y Librerías Necesarias Para La Realización De La Práctica
library(dplyr) # Para filtros entre otros
library(mosaic) # Para gráficos
library(ggplot2) # Para gráficos
library(cowplot) # Imágenes en el mismo renglón
library(visualize) # Para gráficos
# Acomodo Del Tipo De Notación Para El Muestro De Los Valores Obtenidos
options(scipen=999) # Notación normal
# options(scipen=1) # Notación científica
source("https://raw.githubusercontent.com/rpizarrog/probabilidad-y-estad-stica/master/2023/funciones/funciones%20para%20disribuciones%20de%20probabilidad.R")
##
## Attaching package: 'gtools'
## The following object is masked from 'package:mosaic':
##
## logit
##
## Attaching package: 'plotly'
## The following object is masked from 'package:mosaic':
##
## do
## The following object is masked from 'package:ggplot2':
##
## last_plot
## The following object is masked from 'package:stats':
##
## filter
## The following object is masked from 'package:graphics':
##
## layout
Se necesita implementar una semilla para la generación de valores aleatorios, ya qwue, en alguna actividad será necesario hacer uso de estos.
# Implementación De Una Semilla Aleatoria
set.seed(2023)
Calcular el valor de t.
Se aplica una prueba de autoestima a 25 personas quienes obtienen una calificación promedio de 62.1 con una desviación estándar de 5.83. Se sabe que el valor correcto de la prueba debe ser mayor a 60. Calcular el valor de t.
\[ n=25; \bar{x}=62.1; s=5.83; \mu=60 \]
n <- 25; media.m <- 62.1; desv.m <- 5.83; media.p <- 60
t <- f.devolver.t(media.muestra = media.m, media.pob = media.p, desv.muestra = desv.m, n = n)
t
## [1] 1.801029
Se tiene 1.8010 como valor de t pero ¿qué significa ese valor?.
En la gráfica siguiente significa el punto que hace la diferencia entre el color morado y amarillo y se interpreta para comparar con un punto crítico y evaluar intervalos e hipótesis.
xpt <- xpt(q = t , df = n-1, xlab = "t's")
xpt
## [1] 0.957861
El valor de xpt= 0.957861 es el área bajo la curva a un valor de t de 1.8010 o sea 95.78%
Representa el área bajo la curva desde su parte izquierda hasta el punto 1.8010.
pt(q = 1.8010 , df = 24)
## [1] 0.9578586
Se obtiene mediante función qt() de R el valor del punto crítico al 95% de confianza. Puede ser para cualquier nivel de confianza 0.90, 0.95, 0.99 o cualquier otro.
Al igual que en distribución normal de z se obtiene \(\alpha = 1 - 0.95\) y el valor critico sería \(\alpha/2\).
t.critico <- abs(qt(p = (1 - 0.95) / 2, df = n-1))
t.critico
## [1] 2.063899
Si el valor de t \(t = \frac{(\bar{x}-\mu)}{s / \sqrt{n}} = \frac{\text{diferencia a probar}}{\text{ee =error estándar}}\) está dentro mayor y menor que el valor de t.critico o que está dentro de la región de aceptación, entonces se interpreta que está dentro de un intervalo de confianza o región de aceptación en relación a la curva y se acepta una tentativa hipótesis de lo contrario cae en región de no aceptación y se rechaza. Se verán las pruebas de hipótesis en casos más adelante.

Se utiliza función visualize() de librería previamente instalada
visualize.t(stat = c(-t.critico, t.critico), df = 24, section = "tails") +
abline(v = t, col = "red", lwd = 3, lty = 2) +
text(0, 0.2, expression(0.95), col = "black")
## integer(0)
Se presenta una muestra pequeña de 28 valores, se generan valores de una secuencia alrededor de cero, esto se hace porque la distribución T Student, los valores de la variable aleatoria \(x\) se centran con media igual a cero \(0\) y por supuesto desviación igual a \(1\).
Se construyen gráficas:
g1 es una distribución normal estándar,
g2 distribución t student con 27 grados de libertad,
g3 t student con 5 grados de libertad y
Se visualizan las tres gráficas con una forma de campana o gauss, simétricas, solo que la distribución \(t\) se achata en relación a la distribución normal estándar \(z\) y se observa diferencia de dispersión con los grados de libertad en las gráficas \(t\).
# Grafica Normal Z con media igual a 0 y desv igual a 1
n <- 25
x <- seq(from = -3, to = 3, length.out = n)
media <- 0 #, round(mean(x),2)
desv <- 1 #round(sd(x), 2)
dens.z <- dnorm(x = x, mean = media, sd = desv)
tabla <- data.frame(x = x, y = dens.z)
#tabla.normal
g1 <- ggplot(data = tabla, aes(x = x, y = dens.z)) +
geom_point(colour = "red") +
geom_line(colour = 'blue') +
ggtitle("Normal Estándar(Z)", subtitle = paste("media = ", media, "sd=", desv)) +
labs(x = "Z's", y= "Densidad")
# Distribución T Aproximada a Distribución t con 24 grados de libertad
denst.24 <- dt(x = x, df = n - 1)
# Se vuelve a generar la tabla
tabla <- data.frame(x = x, y = denst.24)
g2 <- ggplot(data = tabla, aes(x = x, y = denst.24)) +
geom_point(colour = "red") +
geom_line(colour = 'green') +
ggtitle("T Student", subtitle = paste(n-1, " grados de libertad")) +
labs(x = "t's", y= "Densidad")
# Distribución T Aproximada a Distribución t con 5 grados de libertad
denst.5 <- dt(x = x, df = 5)
# Se vuelve a generar la tabla nuevamente
tabla <- data.frame(x = x, y = denst.5)
g3 <- ggplot(data = tabla, aes(x = x, y = denst.5)) +
geom_point(colour = "red") +
geom_line(colour = 'yellow') +
ggtitle("T Student", subtitle = paste(5, " grados de libertad")) +
labs(x = "t's", y= "Densidad")
plot_grid(g1, g2, g3, nrow = 1, ncol = 3)
Construyendo una tabla con las tres distribuciones incluyendo los valores de \(z's; t's\) y de las densidades juntas
# Gráficas juntas con una misma tabla
tabla <- data.frame(x, dens.z, denst.24, denst.5)
g4 <- ggplot(data = tabla)
g4 <- g4 + geom_line(aes(x= x, y = dens.z), colour = "blue")
g4 <- g4 + geom_line(aes(x= x, y = denst.24), colour = "green")
g4 <- g4 + geom_line(aes(x= x, y = denst.5), colour = "yellow")
g4 <- g4 + ggtitle("Normal Stándar(Z) y T Student", subtitle = paste("media = 0, sd = 1; ", (n-1)," y 5", " grados de libertad") )
g4 <- g4 + labs(x = "Z's y t's", y= "Densidad")
g4
\[ IC = \bar{x} \pm t \cdot \frac{S}{\sqrt{n}} \]
Determinar el intervalo de confianza con el valor real de t (t critico). El valor al 95% de los datos al rededor de la media, el resto 5% se reparte a ambos lados de la curva.
El valor de t.critico se calcula con la función qt() de la distribución t student()
\[ \alpha = (1 - 95\%) / 2 \\ \alpha = (0.05) / 2 = 0.025 \]
paste("n=", n)
## [1] "n= 25"
confianza <- 0.95
t.a <- qt(p = (1 - confianza) / 2, df = n-1) # dos colas
t.a
## [1] -2.063899
t.b <- qt(p = (1 - confianza) / 2, df = n-1, lower.tail = FALSE)
t.b
## [1] 2.063899
# Tomar cualquiera de las dos t t.a o t.b en su valor absoluto
t <- abs(t.b)
visualize.t(stat = c(-t, t), df = n-1, section = "tails") +
text(0, 0.2, expression("95%"), col = "red")
## integer(0)
paste("Media muestra = ", media.m)
## [1] "Media muestra = 62.1"
paste("Desv. muestra", desv.m)
## [1] "Desv. muestra 5.83"
print("Intervalo de confianza al 95%")
## [1] "Intervalo de confianza al 95%"
paste("t.critico",t.critico)
## [1] "t.critico 2.06389856162803"
li <- media.m - t * (desv.m /sqrt(n) )
ls <- media.m + t * (desv.m /sqrt(n) )
print("intervalo")
## [1] "intervalo"
intervalo <- c(li, ls)
intervalo
## [1] 59.69349 64.50651
El intervalo de confianza 59.6934943, 64.5065057 sirve para evaluar si la media de la población está en dicho intervalo de tal forma que se acepta o se rechaza una tentativa hipótesis en relación a la región o área de aceptación o si está en el intervalo de confianza.
Un Gerente de mall desea estimar la cantidad media que gastan los clientes que visitan el centro comercial. Una muestra de 20 clientes revela las siguientes cantidades: \(48.16, 42.22, 46.82, 51.45, 23.78, 41.86, 54.86, 37.92, 52.64, 48.59, 50.82, 46.94, 61.83, 61.69, 49.17, 61.46, 51.35, 52.68, 58.84, 43.88\)
¿Cuál es la mejor estimación de la media poblacional ?. Determine un intervalo de confianza de 95%.
# Inicializando Valores
cantidades <- c(48.16, 42.22, 46.82, 51.45, 23.78, 41.86, 54.86, 37.92, 52.64, 48.59, 50.82, 46.94, 61.83, 61.69, 49.17, 61.46, 51.35, 52.68, 58.84, 43.88)
media.m <- round(mean(cantidades),4)
desv.m <- round(sd(cantidades),)
n <- length(cantidades)
confianza <- 0.95
tabla <- data.frame(variables = c("n", "Grados libertad", "Media muestra", "Desv.Std muestra", "Media Pob.", "Confianza"), datos = c(n, (n-1), media.m, desv.m, NA, confianza))
tabla
## variables datos
## 1 n 20.000
## 2 Grados libertad 19.000
## 3 Media muestra 49.348
## 4 Desv.Std muestra 9.000
## 5 Media Pob. NA
## 6 Confianza 0.950
t <- qt(p = (1 - confianza) / 2, df = n-1) # dos colas
t <- abs(t)
t
## [1] 2.093024
li <- media.m - t * (desv.m /sqrt(n) )
ls <- media.m + t * (desv.m /sqrt(n) )
print("intervalo")
## [1] "intervalo"
intervalo <- c(li, ls)
intervalo
## [1] 45.13587 53.56013
La mejor estimación de una media poblacional es que tenga un valor entre 45.1358703 y 53.5601297 con un 95% de confianza.
visualize.t(stat = c(-t, t), df = n-1, section = "tails") +
text(0, 0.2, expression("95%"), col = "red")
## integer(0)
Un fabricante de llantas desea investigar la durabilidad de sus productos. Una muestra de \(10\) llantas para recorrer 50000 millas reveló una media muestral de \(0.32\) pulgadas de cuerda restante con una desviación estándar de \(0.09\) pulgadas. [@lind2015].
Construya un intervalo de confianza de \(95%\) para la media poblacional.
Sería razonable que el fabricante concluyera que después de 50000 millas la cantidad media poblacional de cuerda restante es de \(0.30\) pulgadas?
\[ n=10; \bar{x} = 0.32; S = 0.09; confianza = 95\%; \mu = 0.30 \]
# Inicializando Los Valores
media.m <- 0.32
desv.m <- 0.09
n <- 10
media.p = 0.30
confianza = 0.95
tabla <- data.frame(variables = c("n", "Grados libertad", "Media muestra", "Desv.Std muestra", "Media Pob.", "Confianza"), datos = c(n, (n-1), media.m, desv.m, media.p, confianza))
tabla
## variables datos
## 1 n 10.00
## 2 Grados libertad 9.00
## 3 Media muestra 0.32
## 4 Desv.Std muestra 0.09
## 5 Media Pob. 0.30
## 6 Confianza 0.95
t <- qt(p = (1 - confianza) / 2, df = n-1) # dos colas
t <- abs(t)
t
## [1] 2.262157
li <- media.m - t * (desv.m /sqrt(n) )
ls <- media.m + t * (desv.m /sqrt(n) )
print("intervalo")
## [1] "intervalo"
intervalo <- c(li, ls)
intervalo
## [1] 0.2556179 0.3843821
El intervalo de confianza con valores entre 0.2556179 y 0.3843821 con un 95% de confianza se interpreta que el fabricante a un 95% de confianza puede estar seguro de que la profundidad media de las cuerdas oscila entre 0.2556179 y 0.3843821. Como el valor de la media es 0.3 es posible a un 95% que la media de la población de 0.3 esté dentro de la región de confianza.
visualize.t(stat = c(-t, t), df = n-1, section = "tails") +
text(0, 0.2, expression("95%"), col = "red")
## integer(0)
Se ha obtenido una muestra de \(15\) vendedores de una Editorial para estimar el valor medio de las ventas por trabajador en la Empresa. La media y la desviación de la muestra ( en miles de euros ) son \(5\) y \(1.464\), respectivamente.
Se pide deducir el intervalo de confianza al 90%
# Inicializando Los Valores
media.m <- 5
desv.m <- 1.464
n <- 15
confianza <- 0.90
tabla <- data.frame(variables = c("n", "Grados libertad", "Media muestra", "Desv.Std muestra", "Media Pob.", "Confianza"), datos = c(n, (n-1), media.m, desv.m, NA, confianza))
tabla
## variables datos
## 1 n 15.000
## 2 Grados libertad 14.000
## 3 Media muestra 5.000
## 4 Desv.Std muestra 1.464
## 5 Media Pob. NA
## 6 Confianza 0.900
t <- qt(p = (1 - confianza) / 2, df = n-1) # dos colas
t <- abs(t)
t
## [1] 1.76131
li <- media.m - t * (desv.m /sqrt(n) )
ls <- media.m + t * (desv.m /sqrt(n) )
print("intervalo")
## [1] "intervalo"
intervalo <- c(li, ls)
intervalo
## [1] 4.334219 5.665781
El intervalo de confianza con valores entre 4.3342192 y 5.6657808 con un 90% de confianza se interpreta que la media de la población debe estar en ese intervalo.
visualize.t(stat = c(-t, t), df = n-1, section = "tails") +
text(0, 0.2, expression("90%"), col = "red")
## integer(0)
En este caso se representó un histograma para una serie de datos simulados.
La distribución t-student es una distribución de probabilidad que se utiliza en inferencia estadística para determinar las diferencias entre medias de dos grupos. Esta distribución se desarrolló en el siglo XX, por el matemático y estadístico británico William Gosset (conocido bajo el seudónimo de Student), para analizar pequeñas muestras de datos.
La distribución t-student es una distribución continua y simétrica, que se asemeja a una curva de campana, pero con colas más largas y abiertas, lo que la hace más adecuada para la variación de datos que se observa en pequeñas muestras.
Una de las aplicaciones más frecuentes de esta distribución es en la estadística inferencial, para determinar intervalos de confianza y realizar pruebas de hipótesis. Por ejemplo, se puede utilizar la distribución t-student para comparar las medias de dos grupos de personas, como la altura de hombres y mujeres, y determinar si existen diferencias estadísticamente significativas entre ellos.
Levine, D. M. (2010) Estadística para administración y economía. (7ª. ed.) México : Pearson Educación.
Mendenhall, W. (2010). Introducción a la Probabilidad y Estadística. (13ª. ed.) México: Cengage Learning.
Montgomery, D. C. (2011). Probabilidad y estadística aplicadas a la ingeniería. (2ª. ed.) México : Limusa: Wiley.
Quezada, L. (2010). Estadística para ingenieros. México : Empresa Editora Macro.