- Importar librerias
library(pacman)
p_load("base64enc", "htmltools", "mime", "xfun", "prettydoc","readr", "knitr","DT","dplyr", "ggplot2","fdth")setwd("~/APLICADA")
plantas <- read_csv("~/APLICADA/plantas.csv")## Rows: 42 Columns: 3
## -- Column specification --------------------------------------------------------
## Delimiter: ","
## chr (1): Tratamiento
## dbl (2): planta, IE
##
## i Use `spec()` to retrieve the full column specification for this data.
## i Specify the column types or set `show_col_types = FALSE` to quiet this message.
datatable(plantas)View(plantas)Ctrl= subset(plantas, Tratamiento == "Ctrl")
Fert= subset(plantas, Tratamiento == "Fert")
datatable(Ctrl)datatable(Fert)Pruebas de normalidad
Las pruebas de normalidad más formales son las pruebas de Shapiro-Wilk y de Kolmogorov-Smirnov (Dalgaard 2008; Zar 2010). En las pruebas de normalidad se busca aceptar la H0 dado que la mayoría de los métodos estadísticos es necesaria la suposición de la distribución normal de la variable de interés. Púes siendo así es posible conocer los parámetros que describen por completo (la media, su desviación estándar). Un valor de P≥ 0.05 en los tests de normalidad indican que no hay prueba suficiente para rechazar la normalidad de la variable.
Valor de significancia: P>0.05
Prueba de chapiro-wilk
El test de Shapiro-Wilks plantea la hipótesis nula que una muestra proviene de una distribución normal. Eligimos un nivel de significanza, y tenemos una hipótesis alternativa que sostiene que la distribución no es normal. Estas es aplicable cuando se analizan muestras compuestas por menos de 50 elementos o muestras pequeñas como tambien se le suelen llamar. Tenemos:
H0 : La distribución es normal
H1 : La distribución no es normal,
o más formalmente aún:
\[ \begin{equation}\label{eq:ho} H0:X∼N(μ,σ2) \end{equation} \] \[ \begin{equation}\label{eq:h1} H1:X≁N(μ,σ2) \end{equation} \]
shapiro.test(Ctrl$IE)##
## Shapiro-Wilk normality test
##
## data: Ctrl$IE
## W = 0.9532, p-value = 0.3908
shapiro.test(Fert$IE)##
## Shapiro-Wilk normality test
##
## data: Fert$IE
## W = 0.95339, p-value = 0.3941
prueba de normalidad de smirnov-kolmogorav
La prueba de Kolmogorov-Smirnov para una muestra, permite medir el grado de concordancia existente entre la distribución de un conjunto de datos y una distribución teórica específica. Su objetivo es señalar si los datos provienen de una población que tiene la distribución teórica especificada, es decir, contrasta si las observaciones podrían razonablemente proceder de la distribución especificada.
\[ \begin{equation}\label{eq:d} D = máx|Fn(x)-F0(x) \end{equation} \]
ks.test(Ctrl$IE, "pnorm", mean = mean(Ctrl$IE), sd = sd(Ctrl$IE))## Warning in ks.test(Ctrl$IE, "pnorm", mean = mean(Ctrl$IE), sd = sd(Ctrl$IE)):
## ties should not be present for the Kolmogorov-Smirnov test
##
## One-sample Kolmogorov-Smirnov test
##
## data: Ctrl$IE
## D = 0.11991, p-value = 0.9233
## alternative hypothesis: two-sided
ks.test(Fert$IE, "pnorm", mean = mean(Fert$IE), sd = sd(Ctrl$IE))## Warning in ks.test(Fert$IE, "pnorm", mean = mean(Fert$IE), sd = sd(Ctrl$IE)):
## ties should not be present for the Kolmogorov-Smirnov test
##
## One-sample Kolmogorov-Smirnov test
##
## data: Fert$IE
## D = 0.20953, p-value = 0.3151
## alternative hypothesis: two-sided