setwd("~/PROBABILIDAD Y ESTADISTICA 2020")
library(pacman)
p_load("base64enc", "htmltools", "mime", "xfun","prettydoc", "readr", "knitr", "DT", "dplyr",  "ggplot2")

Pruebas de hipótesis.

Nuestro conocimiento solo puede ser finito, mientras que nuestra ignorancia debe ser necesariamente infinita. -Karl Popper

~Karl Popper

Inferencia estadística.

La inferencia estadística es el conjunto de métodos que permiten inducir, a través de una muestra estadística, el comportamiento de una determinada población. La inferencia estadística, estudia entonces como, a través de la aplicación de dichos métodos sobre los datos de una muestra, se pueden extraer conclusiones sobre los parámetros de la población de datos. De la misma manera estudia también el grado de fiabilidad de los resultados extraídos del estudio.

Para entender el concepto es importante entender tres conceptos:

Inferencia: Inferir significa, literalmente, extraer juicios o conclusiones a partir de ciertos supuestos, sean estos generales o particulares.

Población: Una población de datos, es el conjunto total de datos que existen sobre un variable.

Muestra estadística: Una muestra es una parte de la población de datos.

Teniendo claro a lo que nos referimos con el concepto de inferir, una de las dudas fundamentales recae en el hecho de elegir una muestra en lugar de una población.

Normalmente, en estadística, se trabaja con muestras debido a la gran cantidad de datos que tiene una población. Por ejemplo, si queremos sacar conclusiones, esto es, inferir, los resultados de las elecciones generales, es imposible preguntar a toda la población del país. Para solventar ese problema se escoge una muestra variada y representativa. Gracias a la cual se puedan extraer una estimación del resultado final. Escoger una muestra adecuada corre a cargo de las distintas técnicas de muestreo.

  • Métodos de la inferencia estadística Los métodos y técnicas de la inferencia estadística se pueden dividir en dos: métodos de estimación de parámetros y métodos de contraste de hipótesis.

  • Métodos de estimación de parámetros: Se encarga de asignar un valor al parámetro o al conjunto de parámetros que caracterizan el campo sujeto a estudio. Claro que al ser una estimación existe cierto error. Para obtener estimaciones adaptadas a esa realidad, se crean intervalos de confianza.

  • Métodos de contraste de hipótesis: Su objetivo es comprobar si una estimación corresponde con los valores poblacionales. En todo contraste de hipótesis existen dos supuestos. La hipótesis nula (H0) que recoge la idea de que un valor tiene un valor predeterminado. Si se rechaza la hipótesis nula (H0), entonces se acepta la hipótesis alternativa (H1).

Muestreo Aleatorio Simple (M.A.S.).

Utilizando la base de datos “crimtab” que son datos de crimenes de UK. La cual se puede encontrar en su fuente original aquí

crime <- data.frame(crimtab)
dim(crime)
## [1] 924   3
#datatable(crime)
  • Se determina una muestra de 30 (n) para la población
n <- 30
muestramia <- sample(1:nrow(crime), size = n, replace = FALSE)
muestramia
##  [1] 224 271 236 635 890 686 656  60 450 703 545 510 126  27 336 231 143 495 893
## [20] 524 620 177 614   7 885 643 920 825 891 558
  • Asignar los elementos de la muestra al marco de datos
crimemuestramia <- crime [muestramia, ]
head(crimemuestramia)
  • Ahora se hará lo mismo pero utilizando el paquete “dplyr” de “tidyverse”

  • Muestreo aleatorio simple sin remplazo con dplyr

crimemuestramia2 <- crime %>%
  sample_n(size=n, replace=FALSE)
head(crimemuestramia2)
  • Muestreo aleatorio simple con remplazo con dplyr
crimemuestramia2 <- crime %>%
  sample_n(size=n, replace=TRUE)
head(crimemuestramia2)

Muestreo ponderado (con pesos)

  • Ponderación usando la frecuencia (Freq)
crimemuestramia2 <- crime %>%
  sample_n(size=n, weight = Freq)
head(crimemuestramia2)

Prueba de hipótesis

  • Ejemplo con efectos de fertilizantes en el índice de esbeltez de plantulas, datos tomados de la UANL, los cuales se pueden descargar en el siguiente hipervínculo
#xfun::embed_file("plantas.csv")
  • Formulación de hipótesis y pruebas para 1 y 2 muestras

Normalmente, para iniciar con la resolución de un problema se aplica el método científico. De acurdo con Risk (2003), éste es un proceso con el cual se investiga de forma sistemática las observaciones, se resuelven problemas y se prueban hipótesis. Como parte del método científico la propuesta de una hipótesis y luego su comprobación, son temas bien definidos, y a pesar de la incertidumbre asociada al problema es posible cuantificar el error de la conclusión planteada por la hipótesis.

Los pasos del método científico son:

  1. Plantear un problema a resolver.
  2. Colectar una serie de observaciones.
  3. Formular una o más hipótesis.
  4. Probar dichas hipótesis.
  5. Declarar las conclusiones.

La estadística nos puede ayudar en los pasos 2 (diseño y colecta de las observaciones) y 4 (prueba de hipótesis). Una hipótesis se puede definir de la siguiente manera: Una explicación tentativa que cuenta con un conjunto de hechos que pueden ser probados con una investigación posterior.

  • Ejemplo 1

Un problema a resolver podría ser la importancia del efecto de las fertilizaciones de plántulas producidas en viveros forestales; ya contamos con el paso 1 del método científico. Luego efectuamos observaciones en dos grupos de plántulas, uno control (Sin fertilización, llamados de aquí en adelante Control) y otro de plántulas fertilizadas con un complejo complejo N:P:K (denominados de aquí en adelante como Fertilizados). El tamaño de dichas muestras se basa en estudios similares ya publicados como por ejemplo Fraysse and Crémière (1998) y también es valido de acuerdo con la experiencia del investigador.

Uno de los indicadores más comunes que miden el efecto de la fertilización de una plántula es el Índice de esbeltez (IE). Dicho índice relaciona la altura y el diámetro del tallo y se define con la siguiente ecuación (Olivo and Buduba 2006)

\[ \begin{equation}\label{eq:IE} IE = \frac{\varnothing_{tallo}}{(h_{tallo}/10)+2} \end{equation} \]

El índice de Esbeltez (IE) alcanza valores máximos de 1.2 lo que indica que la plántulas tienen mayor probabilidad de éxito al llevarse a campo. Valores cercanos a 1 indica que la planta tendrá menos problemas en el establecimiento y valores por abajo de 0.5 son plántulas de mala calidad (Olivo and Buduba 2006).

setwd("~/PROBABILIDAD Y ESTADISTICA 2020")
plantas <- read_csv ("plantas.csv")
## Parsed with column specification:
## cols(
##   planta = col_double(),
##   IE = col_double(),
##   Tratamiento = col_character()
## )
#knitr::kable(plantas)

Mediante la observación del cuadro y utilizando métodos de estadística descriptiva y representación gráfica (Fig. ), podríamos aventurarnos a decir que el IE en el tratamiento fertilizadas es más alto con respecto al grupo Control, a este punto es seguro plantear que el IE es distinto en lugar de mayor, aquí es donde formulamos la hipótesis:

Estimación de parámetros descriptivos

  • Para esto hacemos un gráfico de caja y bigote
boxplot(plantas$IE  ~ plantas$Tratamiento, col = "pink"  )

Representación del comportamiento del IE mediante un boxplot

El Índice de Esbeltez (IE) en plántulas con fertilizante (Fert) es diferente con respecto a las plántulas del tratamiento (Ctrl).

La formulación de una hipótesis en el método científico se inicia definiendo la hipótesis nula \((H_{0})\) y la hipótesis alternativa \((H_{1})\) ; generalmente la H0 establece que no hay diferencias entre los grupos a compararse, en este caso Ctrl y el grupo Fert.

La hipótesis alternativa (H1) por otra parte, se indica como el complemento de la H0, por lo tanto H1 establecerá que si existen diferencias significativas entre los grupos en estudio (Zar 2010; A. Field, Miles, and Field 2012). Por lo tanto mediante procedimientos estadísticos que veremos en esta clase, se tratará rechazar nuestra hipótesis H0.

H0: IE Ctrl = IE Fert; H1= IE Ctrl ≠ IE Fert

Normalmente cuando se toma la decisión final sobre la hipótesis nula, surgen situaciones que nos pueden llegar a cometer diferentes errores. Así, una vez realizadas las técnicas para probar esta hipótesis, puede que lleguemos a la conclusión de que el enunciado de nuestra H0 no se rechace (acepta) o bien que sea falso y se rechace la H0. En esta situación puede que hayamos rechazado la H0 cuando en realidad era cierta, o que la evidencia colectada para nuestro análisis no haya sido suficiente para rechazarla siendo falsa (Risk 2003). Estas diferentes situaciones plantean la existencia de diferentes tipos de errores (Köhler, Schachtel, and Voleske 2007) que se muestran a continuación:

Situaciones y conclusiones posibles en la prueba de hipótesis.

Error de tipo I y II

Ninguna prueba de hipótesis es 100% cierta. Puesto que la prueba se basa en probabilidades, siempre existe la posibilidad de llegar a una conclusión incorrecta. Cuando usted realiza una prueba de hipótesis, puede cometer dos tipos de error: tipo I y tipo II. Los riesgos de estos dos errores están inversamente relacionados y se determinan según el nivel de significancia y la potencia de la prueba. Por lo tanto, usted debe determinar qué error tiene consecuencias más graves para su situación antes de definir los riesgos.

  • Error de tipo I Si usted rechaza la hipótesis nula cuando es verdadera, comete un error de tipo I. La probabilidad de cometer un error de tipo I es α, que es el nivel de significancia que usted establece para su prueba de hipótesis. Un α de 0.05 indica que usted está dispuesto a aceptar una probabilidad de 5% de estar equivocado al rechazar la hipótesis nula. Para reducir este riesgo, debe utilizar un valor menor para α. Sin embargo, usar un valor menor para alfa significa que usted tendrá menos probabilidad de detectar una diferencia si esta realmente existe.

  • Error de tipo II Cuando la hipótesis nula es falsa y usted no la rechaza, comete un error de tipo II. La probabilidad de cometer un error de tipo II es β, que depende de la potencia de la prueba. Puede reducir el riesgo de cometer un error de tipo II al asegurarse de que la prueba tenga suficiente potencia. Para ello, asegúrese de que el tamaño de la muestra sea lo suficientemente grande como para detectar una diferencia práctica cuando esta realmente exista.

La probabilidad de rechazar la hipótesis nula cuando es falsa es igual a 1–β. Este valor es la potencia de la prueba.

Tipores de errores

Fuente : Ayuda de minitab

Pruebas de normalidad (para una muestra)

Antes de iniciar con el análisis y probar una hipótesis se debe determinar la distribución de las variables consideradas en la muestra. La importancia de verificar la normalidad de las muestras en un estudio es fundamental en estadística porque si las muestras son normales se pueden aplicar métodos estadísticos parámetricos, en el caso contrario se deben o bien transformar los datos o bien utilizar métodos no parámetricos (Risk 2003). El paso inicial entonces, es determinar si las variables en estudio pueden ser representadas por una distribución normal. Es decir, si las variables medidas en la muestra pueden ser descritas con parámetros de tendencia central y dispersión alrededor de dichos parámetros.

Ctrl <- subset(plantas, Tratamiento == "Ctrl"    )
Fert <- subset(plantas, Tratamiento == "Fert"    )
  • Construcción de histogramas para conocer la frecuencia de distribución de los datos
hist(Ctrl$IE)

hist(Fert$IE)

summary(Ctrl$IE)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  0.5500  0.7000  0.7700  0.7676  0.8700  0.9500
sd(Ctrl$IE)
## [1] 0.1153215
summary(Fert$IE)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  0.5600  0.7800  0.9100  0.9067  1.0400  1.1600
sd(Fert$IE)
## [1] 0.1799537

Las pruebas de normalidad más formales son las pruebas de Shapiro-Wilk y de Kolmogorov-Smirnov (Dalgaard 2008; Zar 2010). En las pruebas de normalidad se busca aceptar la H0 dado que la mayoría de los métodos estadísticos es necesaria la suposición de la distribución normal de la variable de interés. Púes siendo así es posible conocer los parámetros que describen por completo (la media, su desviación estándar). Un valor de P≥ 0.05 en los tests de normalidad indican que no hay prueba suficiente para rechazar la normalidad de la variable.

Valor de significancia: P>0.05

  • Prueba de normalidad de Shapiro-Wilk
shapiro.test(Ctrl$IE  )
## 
##  Shapiro-Wilk normality test
## 
## data:  Ctrl$IE
## W = 0.9532, p-value = 0.3908
  • Prueba de normalidad de Kolmogorov-Smirnov
ks.test(Ctrl$IE,"pnorm", mean=mean(Ctrl$IE), sd=sd(Ctrl$IE))
## Warning in ks.test(Ctrl$IE, "pnorm", mean = mean(Ctrl$IE), sd = sd(Ctrl$IE)):
## ties should not be present for the Kolmogorov-Smirnov test
## 
##  One-sample Kolmogorov-Smirnov test
## 
## data:  Ctrl$IE
## D = 0.11991, p-value = 0.9233
## alternative hypothesis: two-sided
  • Asignación: Realizar pruebas de normalidad para Fert

Prueba sobre una sola muestra

Una vez que se asume la normalidad de los datos, se puede proceder con la aplicación de la prueba estadística para verificar la H0, esto es, que la media del IE de ambas muestras son iguales.

La población y una muestra

Para este ejemplo vamos a considerar al grupo 1 Ctrl los valores para las plántulas de un vivero forestal y las del grupo 2 Fert una muestra de la población. Para este caso existe una prueba estadística que permite comparar la media de la muestra con la media poblacional. Una de las principales pruebas más robustas es la basada en la distribución normal, para la misma se debe calcular el estadistico z con la siguiente ecuación

\[ \begin{equation}\label{eq:normal} z=\frac{\bar{x} - \mu_0 }{ \sigma/\sqrt{n}} \end{equation}\]

Donde x¯ es la media de la muestra, μ0 es la media de la población y σ es la desviación estándar de la población y n es el tamaño de la muestra.

Para los datos del grupo Ctrl (muestra) y comparándolos con la muestra Fert (población) con μ = 0.91, σ = 0.18 y un valor de z = -3.54.

l cuadro 3 muestra los valores críticos de la distribución normal para distintos niveles de significancia (α). Como la H0 dice que la muestra es igual a la población , utilizamos la columna de dos colas; el valor de z obtenido es -3.54, el valor de P esta entre 0.0005 y 0.00005, por lo cual al ser P < 0.05 rechazamos la H0 y concluimos diciendo que la media de la muestra es distinta a la de la población.

valores críticos para una distribución normal estándar (media =0, desviación estándar = 1)

Pruebas sobre dos muestras independientes

Para esta prueba vamos a considerar que las plántulas del grupo Ctrly Fert corresponden ambos a muestras de una población. El test implicado intentará probar si ambas medias no difieren (H0) lo que implica que ambas muestras provienen de la misma población y caso contrario si difieren (H1).

La prueba de t es la prueba paramétrica más utilizada; la misma esta basada en el cálculo del estadístico t y de los grados de libertad (gl), con estos dos resultados y utilizando una tabla o bien un cálculo de la distribución t se puede determinar el valor de P.

Para poder utilizar una prueba de t de student se tiene que cumplir tres supuestos: a) Que se ajuste a una distribución normal, b) La independencia de los datos y c) La homogeneidad de varianzas, considerando este como el más importante. La ecuación

La ecuación muestra como calcular el estadístico t:

\[ \begin{equation}\label{eq:t_test} t= \frac{\bar{x}_{1}- \bar{x}_{2}}{\sqrt{\frac{s_1^{2}}{n_1}+ \frac{s_2^{2}}{n_2}}} \end{equation}\]

donde x¯1 y x¯2 son las medias de cada muestra (grupos); \(s_1^{2}\) y\(s_2^{2}\) son las varianzas de las muestras; n1 y n2 son los tamaños de las muestras.

Los grados de libertad se pueden calcular con la siguiente ecuación

\[\begin{equation}\label{eq:t_test2} gl= \frac {\left( \frac{s_1^{2}}{n_1}+ \frac{s_2^{2}}{n_2} \right )^{2}}{ \frac{s_1^{2}}{n_1-1}+\frac{s_2^{2}}{n_2-1}} \end{equation}\]

  • Números de Tukey
fivenum(Fert$IE)
## [1] 0.56 0.78 0.91 1.04 1.16

De acuerdo con el ejercicio de auto-aprendizaje se encargo verificar si la muestra Fert proviene de una distribución normal. Para continuar con el ejercicio y como forma de control de la actividad, los resultados de la muestra Fert son los siguientes: Grupo Fert μ = 0.91; σ = 0.12; Cinco números de Tukey (fivenum) = 0.56, 0.78, 0.91, 1.04, 1.16; La prueba de Shapiro-Wilk: P = 0.39 y la prueba de Kolmogorov-Smirnov: P =0.97; la normalidad de las muestras fueron verificadas con las dos pruebas. La figura muestra gráficamente los datos de ambas muestras ctrly Fert.

op <- par(mfrow =c(1,2), cex.axis=.7, cex.lab=.9 )

boxplot(plantas$IE ~ plantas$Tratamiento, col="grey", main="A"  )
barplot(tapply(plantas$IE, list(plantas$Tratamiento), mean ), beside = T, main="B"                             )

Representación del comportamiento del IE mediante un boxplot (A) y gráfico de barras con desviación estándar (B).

Prueba de Normalidad de varianzas

  • También se le conoce como prueba F

Para comprobar la homogeneidad de las varianzas se emplea la prueba de varianzas, en R se utiliza la función var.test. En esta prueba se busca que se acepte la H0 que implica que las varianzas de ambas muestras son iguales. Para este ejemplo tenemos los siguientes resultados

var.test(Ctrl$IE, Fert$IE)
## 
##  F test to compare two variances
## 
## data:  Ctrl$IE and Fert$IE
## F = 0.41068, num df = 20, denom df = 20, p-value = 0.05304
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
##  0.1666376 1.0121038
## sample estimates:
## ratio of variances 
##          0.4106757

La prueba de F arroja para nuestras muestras Ctrl y Fert un valor de P = 0.053, mayor al α establecido (0.05) para nuestro experimento, por lo tanto se acepta la H0 y ambas varianzas son iguales.

Prueba de T student

Como se confirmo anteriormente, la normalidad de los datos y la homogeneidad de las varianzas son iguales, por lo tanto se puede aplicar una prueba de t de muestras independientes de acuerdo con la siguiente función t.test:

# var.equal = T, las varianzas son iguales u Homogéneas 
t.test( Ctrl$IE, Fert$IE, var.equal = T, )
## 
##  Two Sample t-test
## 
## data:  Ctrl$IE and Fert$IE
## t = -2.9813, df = 40, p-value = 0.004868
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -0.23331192 -0.04478332
## sample estimates:
## mean of x mean of y 
## 0.7676190 0.9066667

Los datos relevantes del obtenidos de la prueba de t son los siguientes: los grados de libertad (df)= 40; los grados de libertad se pueden comprobar con la formula . El parámetro que debemos revisar para comprobar si aceptamos o rechazamos la H0 es el valor de P, para esta prueba fue de 0.0049 por lo cual al ser menor que α 0.5 rechazamos la H0 y aceptamos la H1, es decir, existen diferencias entre las plántulas Ctrl y las plántulas que fueron fertilizadas Fert.

Para el caso que las varianzas no sean iguales, R tiene una ajuste para la fórmula anterior: Para este ejemplo el ajuste se puede notar en los grados de libertad 34.056 y el valor de P obtenido = 0.00527.

t.test(Ctrl$IE, Fert$IE  )
## 
##  Welch Two Sample t-test
## 
## data:  Ctrl$IE and Fert$IE
## t = -2.9813, df = 34.056, p-value = 0.00527
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -0.23382707 -0.04426816
## sample estimates:
## mean of x mean of y 
## 0.7676190 0.9066667

De acuerdo con el valor de P obtenido es menor que 0.05, aceptamos la H1 es decir aún existen diferencias significativas entre ambos grupos Ctrl y Fert.

Pruebas sobre dos muestras apareadas

El ejemplo de la sección anterior fue sobre dos muestras provenientes de dos grupos de distintos sujetos, pero en ciertas ocasiones se necesita trabajar sobre un mismo grupo de sujetos al cual se los observa de manera repetida, por ejemplo antes y después de la aplicación de un tratamiento, en este caso los sujetos son controles de ellos mismos.

La prueba de t es distinta para poder tener en cuenta que las observaciones son repetidas sobre el mismo grupo de sujetos. El primer paso es calcular la desviación estándar de las diferencia con la siguiente ecuación :

\[ \begin{equation}\label{eq:apar} s=\sqrt{\sum_{i=1}^{n}\frac{(d-\bar{d})^{2}}{n-1}} \end{equation} \]

Donde d1 es la diferencia entre dos mediciones consecutivas para cada sujeto; d¯ es la media de las diferencias; n es la cantidad de pares de observaciones. La ecuación muestra como calcular el estadístico t para el caso de muestras apareadas.

\[ \begin{equation}\label{eq:t} t=\frac{\bar{x}_{1}-\bar{x}_{2}}{\frac{s}{\sqrt{n}}} \end{equation} \]

donde x¯1 y x¯2, son las medias de cada par de observaciones. Los grados de libertad se calculan de la siguiente formula .

\[ \begin{equation}\label{eq:glt} gl= n-1 \end{equation}\]

  • Ejemplo

El siguiente cuadro muestra los datos de un experimento de comparación de los kilogramos de semillas de Pinus pseudostrobes obtenidos de 10 árboles en el año 2010 (antes) y en el año 2013 (después).

Kilogramos de semillas obtenidas en dos años diferentes (2010 y 2013) de la especie Pinus pseudostrobus

semillas <- read_csv("semilla.csv")
## Parsed with column specification:
## cols(
##   Kilogramos = col_double(),
##   tiempo = col_character()
## )
#xfun::embed_file("semilla.csv")
#xfun::embed_file("pruebas.rmd")

Datos del experimento:

El siguiente cuadro muestra los datos de un experimento de comparación de los kilogramos de semillas de Pinus pseudostrobes obtenidos de 10 árboles en el año 2010 (antes) y en el año 2013 (después).

#datatable(semillas)

La H0 de este ejemplo dice que la cantidad de kilogramos obtenida en el año 2010 es igual a la cantidad obtenida en el año 2013, en el caso contrario estamos hablando de la H1.

  • Pruebas de normalidad Se realiza primero un subconjunto de cada año
T2010 <- subset(semillas, tiempo == "T2010" )
T2013 <- subset(semillas, tiempo == "T2013" )

Asignación U3A5

  • Gráficos de caja y bigote para los subconjuntos 2010 y 2013
boxplot(semillas$Kilogramos ~ semillas$tiempo, col = "darkblue")

boxplot(T2010$Kilogramos ~ T2010$tiempo, col = "light blue") #2010

boxplot(T2013$Kilogramos ~ T2013$tiempo, col = "grey") #2013

  • 5 Números de Tukey (Kilogramos)

2010:

fivenum(T2010$Kilogramos)
## [1] 3.0 5.0 6.0 7.5 9.0

2013:

fivenum(T2013$Kilogramos)
## [1] 3.0 4.0 5.0 7.5 9.0
  • Histogramas
hist(T2010$Kilogramos, col = "magenta")

hist(T2013$Kilogramos, col = "pink")

  • Caja y bigote comparando las desviaciones con gráfico de barra
op <- par(mfrow = c(1,2), cex.axis = 0.7, cex.lab = 0.9)
boxplot(semillas$Kilogramos ~ semillas$tiempo, col = "yellow", main = "A")
barplot(tapply(semillas$Kilogramos, list(semillas$tiempo), mean), beside = T, main = "B" , col = "orange")

  • Pruebas de normalidad (las 2), Kolmogorov-Smirnov

2010:

ks.test(T2010$Kilogramos, "pnorm", mean = mean(T2010$Kilogramos), sd = sd(T2010$Kilogramos))
## Warning in ks.test(T2010$Kilogramos, "pnorm", mean = mean(T2010$Kilogramos), :
## ties should not be present for the Kolmogorov-Smirnov test
## 
##  One-sample Kolmogorov-Smirnov test
## 
## data:  T2010$Kilogramos
## D = 0.16135, p-value = 0.7991
## alternative hypothesis: two-sided

2013:

ks.test(T2013$Kilogramos, "pnorm", mean = mean(T2013$Kilogramos), sd = sd(T2013$Kilogramos))
## Warning in ks.test(T2013$Kilogramos, "pnorm", mean = mean(T2013$Kilogramos), :
## ties should not be present for the Kolmogorov-Smirnov test
## 
##  One-sample Kolmogorov-Smirnov test
## 
## data:  T2013$Kilogramos
## D = 0.17708, p-value = 0.6973
## alternative hypothesis: two-sided
  • Prueba de t
t.test(T2010$Kilogramos, T2013$Kilogramos, var.equal = T)
## 
##  Two Sample t-test
## 
## data:  T2010$Kilogramos and T2013$Kilogramos
## t = 0.83205, df = 30, p-value = 0.412
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -0.8181596  1.9431596
## sample estimates:
## mean of x mean of y 
##    6.1250    5.5625
  • Prueba de F
t.test(T2010$Kilogramos, T2013$Kilogramos)
## 
##  Welch Two Sample t-test
## 
## data:  T2010$Kilogramos and T2013$Kilogramos
## t = 0.83205, df = 29.988, p-value = 0.412
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -0.8181827  1.9431827
## sample estimates:
## mean of x mean of y 
##    6.1250    5.5625

Distribución normal estandarizada

Una curva de densidad normal (o de Gauss) describe la densidad de probabilidades (PDF) en la distribución de valores de observaciones (muestra) de una variable aleatoria, cuando el número de observaciones es bastante grande. Se aplica a muchas de las variables usualmente medidas en biología, aunque hay otras curvas de distribución de densidad, con formas parecidas a la normal (tipo campana), por ejemplo la t de Student.

Su forma general para una población, con la fórmula correspondiente, es la siguiente:

Distribución normal

La densidad de probabilidad para un valor x, en una población inmensamente grande (X), es 0, pues la probabilidad de un valor único, entre un número infinito de valores posibles de la variable, tiende a 0.

Debemos pensar en la densidad de probabilidad como la frecuencia de ocurrencia de un valor en un intervalo de valores de la variable continua X, [x y x+dx]. Si el valor de dx es infinitamente pequeño, entonces la función fX(x) es la probabilidad de X en ese intervalo.

La curva de distribución de valores con μ=0 y σ=1 se conoce como la curva normal estandarizada, y su función de densidad de probabilidades es: \[Y_i = \frac{1}{\sqrt{2\pi}}.e^\frac{-X_i{^2}}{2}\qquad(1)\]

Tamaño de muestra y distribución normal

La curva normal estandarizada describe exactamente la densidad de probabilidades para un infinito número de valores de la variable; sin embargo usualmente nuestra muestra (o la población completa) contiene un número finito de valores, y esto produce desviaciones de los valores esperados según la curva normal estandarizada.

Vamos a visualizar cómo compara la curva normal, con histogramas de la frecuencia de valores de una variable aleatoria, con 30, 300, 3000, 30000, y 300000 valores.

#Valores al azar de una DNE
randNorm <- rnorm(300000)
#Calculo de su densidad
randDensity <- dnorm(randNorm)
#Gráfica 

ggplot(data.frame(x=randNorm, y=randDensity)) +
  aes(x=x, y= y ) +
  geom_point() +
  labs (x = "Random Normal Variable", y= "PDF (Densidad)")

Histograma de la curva normal

ggplot(data.frame(x = randNorm), aes(x = x)) +
    geom_histogram(binwidth = 0.1) +
  labs(x = "Random Normal Variable", y = "Frecuencia")