##Ejericio 1##

library(readxl)
tablas_a <- read_excel("Clases Diseño E ( R studio)/tablas de ejercicios taller.xlsx")
mean(tablas_a$Colombia); mean(na.omit(tablas_a$Ocarina))
## [1] 0.4521429
## [1] 0.3569231
ocarina_a= na.omit(tablas_a$Ocarina)

#Pruebas T

\[H_o: \mu_{colombia}=\mu_{ocarina}\]

pb11= t.test(tablas_a$Colombia, ocarina_a, alternative = "t", mu= 0, var.equal = T, conf.level = 0.95)
ifelse(pb11$p.value<0.05, "recharzar Ho","no rechazar Ho")
## [1] "recharzar Ho"

Segun los datos obtenidos de la prueba t student para dos muestras independientes, las medias ´poblacionales de Colombia y Ocarina no son iguales.

#Igualdad de varianzas

\[H_0:\sigma_1^2=\sigma_2^2\] \[H_a:\sigma_1^2 \neq \sigma_2^2\]

pb2= var.test(tablas_a$Colombia,ocarina_a, ratio = 1, alternative = 't', conf.level = 0.95)
ifelse(pb2$p.value<0.05, "rechazar Ho","no rechazar Ho")
## [1] "no rechazar Ho"

Segun la prueba para determinar la igualdad de varianzas, las varianzas de colombia y Ocarina son iguales.

##Ejercicio 2##

#Prueba T para dos muestras pareadas

library(readxl)
tablas_b <- read_excel("taller p2.xlsx")

\[H_o: \mu_{ ~45d}=\mu_{ ~77d}\\H_a: \mu_{~45d}\neq\mu_{~77d}\]

pb1_2= t.test(tablas_b$`45dds`,tablas_b$`77dds`, alternative = 't', mu= 0, paired = T, conf.level = 0.95)
ifelse(pb1_2$p.value<0.05, "rechazar Ho","no rechazar Ho")
## [1] "rechazar Ho"

Con un 95% de confianza, las medias de los 45 dias y los 77 dias no son iguales.

#Comportamiento de las medias

medias_b= c(mean(tablas_b$`45dds`),mean(tablas_b$`77dds`)); medias_b
## [1]  66.6250 842.1875
boxplot(tablas_b$`45dds`,tablas_b$`77dds`)
points(c(1,2), medias_b, col= 'blue', pch= 16)

curve(dt(x, 30), from = -5, to = 5, col = "orange", main= 'Comportamiento de las medias',
      xlab = "variable", ylab = "frecuencia", lwd = 2)

Las madias se comportaran

##cambio raltivo

#cambio absoluto

cambio_a2= mean(tablas_b$`45dds`)-mean(tablas_b$`77dds`); cambio_a2
## [1] -775.5625

#cambio relativo

cambio_r2= 100*cambio_a2/mean(tablas_b$`77dds`); cambio_r2
## [1] -92.08905

##Coeficiente de correlacion de pearson

\[H_o: \rho_{xy}=0\]

cor(tablas_b$`45dds`,tablas_b$`77dds`)
## [1] 0.1658818
pears2= cor.test(tablas_b$`45dds`,tablas_b$`77dds`, method = "pearson", alternative = 't')
ifelse(pears2$p.value<0.05, "rechazar Ho","no rechazar Ho")
## [1] "no rechazar Ho"

La relacion entre las variables estudiadas es tan poca que el coeficiente de correlacion de pearson indica que pueden ser independientes.

##Ejercicio 3##

library(readxl)
tablas_c <- read_excel("Taller p3.xlsx")

##Prueba de wilcoxon para dos muestras independientes \[H_o: Median_1=Median_2\]

pb1_c= wilcox.test(tablas_c$Palma,tablas_c$Maíz, mu= 0, alternative ='t')
ifelse(pb1_c$p.value<0.05, "rechazar Ho","no rechazar Ho")
## [1] "no rechazar Ho"

Segun la prueba de wilcoxon el cambio de aceite entre maiz y palma no es significativo, ya que sus medianas son iguales con un 95% de confianza.

#Grafico de medianeas

medianas_3= c(median(tablas_c$Palma),median(tablas_c$Maíz));medianas_3
## [1] 4 4
boxplot(tablas_c$Palma,tablas_c$Maíz)
points(c(1,2), medianas_3, col= 'green', pch= 16)

##Ejercicio 4##

library(readxl)
tablas_d <- read_excel("taller p4.xlsx", range = 'A2:G17')
## New names:
## * `L*` -> `L*...1`
## * `a*` -> `a*...2`
## * `b*` -> `b*...3`
## * `L*` -> `L*...4`
## * `a*` -> `a*...5`
## * ...
tablas_d
## # A tibble: 15 x 7
##    `L*...1` `a*...2` `b*...3` `L*...4` `a*...5` `b*...6`    E1
##       <dbl>    <dbl>    <dbl>    <dbl>    <dbl>    <dbl> <dbl>
##  1     69.3    -1.31     28.7     62.2     0.81     37.3 11.3 
##  2     68.2    -1.25     27.7     60.4     0.78     35.9 11.5 
##  3     69.2    -1.43     28.0     63.1     0.55     36.4 10.5 
##  4     68.9    -1.35     27.7     61.6     0.81     36.1 11.3 
##  5     70.0    -1.32     27.7     61.2     0.77     36.4 12.6 
##  6     70.2    -1.15     26.9     62.6     0.69     36.0 12.0 
##  7     70.7    -1.25     26.2     64.1     0.59     36.1 12.0 
##  8     68.7    -1.29     26.3     65.6     0.55     36.1 10.5 
##  9     71      -1.42     28.2     66.9     0.42     35.6  8.67
## 10     72.2    -1.45     30       65.1     0.39     34.8  8.72
## 11     69.2    -1.29     28.2     66.1     0.41     32.3  5.35
## 12     70      -1.22     25.6     62.6     0.37     32.0  9.86
## 13     68.6    -1.19     24.7     62.0     0.35     30.2  8.77
## 14     68.1    -1.25     25.6     60.6     0.34     36.6 13.5 
## 15     68.1    -1.25     26.3     60.7     0.34     37.2 13.3

###Prueba de wilcoxon por cada dimension \[H_o: Median_{~l*4°C}=Median_{~l*12°C}\]

pb_l4= wilcox.test(tablas_d$`L*...1`,tablas_d$`L*...4`, paired = T, mu= 0, alternative = 't', conf.int = 0.95)
ifelse(pb_l4$p.value<0.05, "rechazar Ho","no rechazar Ho")
## [1] "rechazar Ho"

Las medianas de las muestras anteriores no son iguales con un nivel de confianza del 95%

\[H_o: Median_{~la*4°C}=Median_{~a*12°C}\]

pb_a4= wilcox.test(tablas_d$`a*...2`,tablas_d$`a*...5`, paired = T, mu= 0, alternative = 't', conf.int = 0.95);pb_a4
## Warning in wilcox.test.default(tablas_d$`a*...2`, tablas_d$`a*...5`, paired =
## T, : cannot compute exact p-value with ties
## Warning in wilcox.test.default(tablas_d$`a*...2`, tablas_d$`a*...5`, paired =
## T, : cannot compute exact confidence interval with ties
## 
##  Wilcoxon signed rank test with continuity correction
## 
## data:  tablas_d$`a*...2` and tablas_d$`a*...5`
## V = 0, p-value = 0.0007069
## alternative hypothesis: true location shift is not equal to 0
## 95 percent confidence interval:
##  -1.965003 -1.714955
## sample estimates:
## (pseudo)median 
##       -1.84005
ifelse(pb_a4$p.value<0.05, "rechazar Ho","no rechazar Ho")
## [1] "rechazar Ho"

Las medianas de las muestras anteriores no son iguales con un nivel de confianza del 95%

\[H_o: Median_{~b*4°C}=Median_{~b*12°C}\]

pb_b4= wilcox.test(tablas_d$`b*...3`,tablas_d$`b*...6`, paired = T, mu= 0, alternative = 't', conf.int = 0.95);pb_b4
## 
##  Wilcoxon signed rank exact test
## 
## data:  tablas_d$`b*...3` and tablas_d$`b*...6`
## V = 0, p-value = 6.104e-05
## alternative hypothesis: true location shift is not equal to 0
## 95 percent confidence interval:
##  -9.335 -6.885
## sample estimates:
## (pseudo)median 
##        -8.2875
ifelse(pb_b4$p.value<0.05, "rechazar Ho","no rechazar Ho")
## [1] "rechazar Ho"

Las medianas de las muestras anteriores no son iguales con un nivel de confianza del 95%

###Prueba de wilcoxon para la dimension que agrupa las tres dimensiones iniciales

Al comvertir todas los datos en una sola variable de ambas muestras no es posible aplicar la prueba de wilcoxon, ya que esta es una prueba para 2 muestras.

##Grafico 3D de los puntos

library(rgl)
## Warning: package 'rgl' was built under R version 4.0.5
plot3d(tablas_d$`L*...1`,tablas_d$`a*...2`, tablas_d$`b*...3`,tablas_d$`L*...4`,tablas_d$`a*...5`,tablas_d$`b*...6`, col= c('red','blue','yellow','orange','purple','black'), size = 3)

##Ejercicio 5##

library(readxl)
tablas_e <- read_excel("taller p4.xlsx", range = 'A19:B31')
tablas_e
## # A tibble: 12 x 2
##        a     b
##    <dbl> <dbl>
##  1 0.221 0.284
##  2 0.314 0.364
##  3 0.265 0.338
##  4 0.166 0.231
##  5 0.128 0.196
##  6 0.272 0.222
##  7 0.334 0.292
##  8 0.296 0.36 
##  9 0.187 0.261
## 10 0.097 0.127
## 11 0.183 0.158
## 12 0.207 0.268

###Prueba T pareada \[H_o: \mu_a=\mu_b\]

pb_1e= t.test(tablas_e$a,tablas_e$b, mu= 0, alternative = 't', paired = T, conf.level = 0.95)
ifelse(pb_1e$p.value<0.05, "rechazar Ho","no rechazar Ho")
## [1] "rechazar Ho"

Segun la prueba t para muestras pareadas las variables si son muestras pareadas con una confianza del 95%.

##Prueba T para muestras independientes \[H_o: \mu_a=\mu_b\]

pb_2e= t.test(tablas_e$a,tablas_e$b, mu= 0, alternative = 't', var.equal = T)
ifelse(pb_2e$p.value<0.05, "rechazar Ho", "no rechazar Ho")
## [1] "no rechazar Ho"

Conforme a la prueba t para muestras independientes, hay suficiente evidencia para decir que las medias de las pruebas son iguales.

Conclusion: Analisar estas muestras como pareadas nos permite ver el efecto que tienen los tratamientos, mientras que si las analisamos como muestras independientes podriamos concluir que los tratamientos son iguales.

##Ejercicio 6##

##Prueba para comparar dos proporciones independientes

\[H_o: Disturbio_{1}=Disturbio_2 \\ H_a: Disturbio_1\neq Disturbio_2\] #Prueba Z para dos proporciones independientes - Disturbio 1: 25% - Disturbio 2: 34%

pb_t6= prop.test(x=c(25,34), n=c(100,100)); pb_t6
## 
##  2-sample test for equality of proportions with continuity correction
## 
## data:  c(25, 34) out of c(100, 100)
## X-squared = 1.5386, df = 1, p-value = 0.2148
## alternative hypothesis: two.sided
## 95 percent confidence interval:
##  -0.22578938  0.04578938
## sample estimates:
## prop 1 prop 2 
##   0.25   0.34
ifelse(pb_t6$p.value<0.05, "rechazar Ho","no rechazar Ho")
## [1] "no rechazar Ho"

Conforme a los datos de la prueba t para dos proporciones independientes la proporcion de disturbios puede ser igual en ambos genotipos.

##Ejercicio 7##

Asumiendo - Dos mese= 60 dias - Casos de disturbio 1: 12 - Casos de disturbio 2: 18

#Tasas de incidencia

\[Incidencia = \frac{Casos de disturvio}{Dias }\]

Tasas 1

tas_1= 12/60; tas_1
## [1] 0.2

Tasas 2

tas_2= 18/60; tas_2
## [1] 0.3

###Prueba para comparar dos tasas de incidencia

\[H_o: \lambda_1=\lambda_2\\H_a: \lambda_1\neq\lambda_2\]

library(rateratio.test)
pb_tas6= rateratio.test(c(12,18), c(60,60)); pb_tas6
## 
##  Exact Rate Ratio Test, assuming Poisson counts
## 
## data:  c(12, 18) with time of c(60, 60), null rate ratio 1
## p-value = 0.3616
## alternative hypothesis: true rate ratio is not equal to 1
## 95 percent confidence interval:
##  0.2929212 1.4628423
## sample estimates:
## Rate Ratio     Rate 1     Rate 2 
##  0.6666667  0.2000000  0.3000000
ifelse(pb_tas6$p.value<0.05, "rechazar Ho","no rechazar Ho")
## [1] "no rechazar Ho"

Conforme a los datos de la prueba para comparar tasas de disturbios puede ser igual en ambas hectareas aunque tengan diferenctes genotipos.

##Ejercicio 8##

library(readxl)
tablas_f <- read_excel("taller p8.xlsx")
tablas_f
## # A tibble: 22 x 3
##     bray olsen mehlich
##    <dbl> <dbl>   <dbl>
##  1   7.1   6       9.1
##  2   6.8   6.2     7.1
##  3   6.6   6.4     7.8
##  4   6.7   6.6     7.3
##  5   6.8   6.9     7.6
##  6   6.7   6.6     7.8
##  7   6.9   6.4     7.4
##  8   6.8   6.4     7.3
##  9   6.7   6.5     7.3
## 10   6.6   6.3     7.1
## # ... with 12 more rows

##Analisis descriptivo de los datod

#Medias

medias_8= c(mean(tablas_f$bray),mean(tablas_f$olsen),mean(tablas_f$mehlich));medias_8
## [1] 6.790909 6.409091 7.477273
boxplot(tablas_f$bray,tablas_f$olsen,tablas_f$mehlich)
points(c(1,2,3), medias_8, col= 'blue', pch= 16)

#Coeficiente de variacion

dv_8= c(sd(tablas_f$bray),sd(tablas_f$olsen),sd(tablas_f$mehlich));dv_8
## [1] 0.2201928 0.2408499 0.7309041
cv_8= 100*(dv_8/medias_8); cv_8
## [1] 3.242464 3.757941 9.775009

##Analisis de Varinza

\[H_o: \tau_1=\tau_2=\tau_3=0\\H_a: H_o~es~falsa\]

mod_8a= aov(tablas_f$bray~tablas_f$olsen, data= tablas_f)
s_mod8= summary(mod_8a)
res_mod8= residuals(mod_8a)

#Normalidad de residuales

shapiro.test(res_mod8)
## 
##  Shapiro-Wilk normality test
## 
## data:  res_mod8
## W = 0.89437, p-value = 0.02297
library(nortest)
ad.test(res_mod8)
## 
##  Anderson-Darling normality test
## 
## data:  res_mod8
## A = 0.57057, p-value = 0.1221
lillie.test(res_mod8)
## 
##  Lilliefors (Kolmogorov-Smirnov) normality test
## 
## data:  res_mod8
## D = 0.14064, p-value = 0.3098
sf.test(res_mod8)
## 
##  Shapiro-Francia normality test
## 
## data:  res_mod8
## W = 0.87604, p-value = 0.01227
cvm.test(res_mod8)
## 
##  Cramer-von Mises normality test
## 
## data:  res_mod8
## W = 0.068389, p-value = 0.2802

##Prueba de homogenidad de varianzas \[H_o: \sigma_1=\sigma_2=\sigma_3\\H_a: \sigma_1\neq\sigma_2\neq\sigma_3\] bartlett.test(tablas_f\(bray~tablas_f\)olsen)

#Prueba de datos atipicos

library(outliers)
grubbs.test(tablas_f$bray)
## 
##  Grubbs test for one outlier
## 
## data:  tablas_f$bray
## G = 2.76617, U = 0.61828, p-value = 0.02402
## alternative hypothesis: highest value 7.4 is an outlier
grubbs.test(tablas_f$olsen)
## 
##  Grubbs test for one outlier
## 
## data:  tablas_f$olsen
## G = 2.52892, U = 0.68095, p-value = 0.0678
## alternative hypothesis: lowest value 5.8 is an outlier
grubbs.test(tablas_f$mehlich)
## 
##  Grubbs test for one outlier
## 
## data:  tablas_f$mehlich
## G = 3.25251, U = 0.47226, p-value = 0.001418
## alternative hypothesis: lowest value 5.1 is an outlier
library(outliers)
impute.outliers<-function(x,removeNA= TRUE ){quantiles<-quantile(x,c(.05,.95), na.rm= removeNA) 
x[x>quantiles[1]]<-mean(x,na.rm= removeNA)
}
imput_olsen<-impute.outliers(tablas_f$olsen)
boxplot(tablas_f$olsen)

boxplot(imput_olsen)

##Tuket HSD

varia_a= c(tablas_f$bray,tablas_f$olsen,tablas_f$mehlich)

TukeyHSD(mod_8a, ‘varia_a’)