Los métodos a continuación se encuentran en el PDF de la librería:Agricolae que puede acceder dandole clic.
Diseño en Bloques incompletos Balanceados (página 14) (Finding the Variance Analysis of the Balanced Incomplete Block Design / Función: BIB.test()
\[y_{ij}= \mu + \tau_i + \beta_j + \epsilon_{ij}\]
\(y_{ij}=\) observación muestral
\(\mu=\) Media Ajustada
\(\tau_i=\) Efecto del \(i~ésimo\) tratamiento
\(\beta_j=\) Efecto del \(j~ésimo\) bloque
\(\epsilon_{ij}=\) Error aleatorio
\[H_0= \hat\mu_1= \cdots= \hat\mu_5 \\ H_a= Almenos~uno~es~diferente\]
run= gl(10,3) #número de bloques y unidad experimental
psi= c(250,325,475,
250,475,550,
325,400,550,
400,475,550,
325,475,550,
250,400,475,
250,325,400,
250,400,550,
250,325,550,
325,400,475) #Tratamientos del Experimento
monovinyl = c(16,18,32,
19,46,45,
26,39,61,
21,35,55,
19,47,48,
20,33,31,
13,13,34,
21,30,52,
24,10,50,
24,31,37) #Respuestas del Experimento
out= BIB.test(run,psi,monovinyl,test = "waller", group = FALSE); out
## $parameters
## lambda treatmeans blockSize blocks r alpha test
## 3 5 3 10 6 0.05 BIB
##
## $statistics
## Mean Efficiency CV
## 31.66667 0.8333333 17.53667
##
## $comparison
## Difference significant
## 250 - 325 2.933333 FALSE
## 250 - 400 -10.400000 TRUE
## 250 - 475 -18.333333 TRUE
## 250 - 550 -30.200000 TRUE
## 325 - 400 -13.333333 TRUE
## 325 - 475 -21.266667 TRUE
## 325 - 550 -33.133333 TRUE
## 400 - 475 -7.933333 TRUE
## 400 - 550 -19.800000 TRUE
## 475 - 550 -11.866667 TRUE
##
## $means
## monovinyl mean.adj SE r std Min Max Q25 Q50 Q75
## 250 18.83333 20.46667 2.441759 6 3.868678 13 24 16.75 19.5 20.75
## 325 18.33333 17.53333 2.441759 6 6.153590 10 26 14.25 18.5 22.75
## 400 31.33333 30.86667 2.441759 6 5.955390 21 39 30.25 32.0 33.75
## 475 38.00000 38.80000 2.441759 6 6.928203 31 47 32.75 36.0 43.75
## 550 51.83333 50.66667 2.441759 6 5.636193 45 61 48.50 51.0 54.25
##
## $groups
## NULL
##
## attr(,"class")
## [1] "group"
bar.err(out$means,variation = "range", ylim=c(0,60),bar = FALSE,col=0)
out= BIB.test(run,psi,monovinyl,test = "waller", group = TRUE)
out= BIB.test(run,psi,monovinyl,test = "tukey", group = TRUE, console = TRUE)
##
## ANALYSIS BIB: monovinyl
## Class level information
##
## Block: 1 2 3 4 5 6 7 8 9 10
## Trt : 250 325 475 550 400
##
## Number of observations: 30
##
## Analysis of Variance Table
##
## Response: monovinyl
## Df Sum Sq Mean Sq F value Pr(>F)
## block.unadj 9 1394.7 154.96 5.0249 0.002529 **
## trt.adj 4 3688.6 922.14 29.9020 3.026e-07 ***
## Residuals 16 493.4 30.84
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## coefficient of variation: 17.5 %
## monovinyl Means: 31.66667
##
## psi, statistics
##
## monovinyl mean.adj SE r std Min Max
## 250 18.83333 20.46667 2.441759 6 3.868678 13 24
## 325 18.33333 17.53333 2.441759 6 6.153590 10 26
## 400 31.33333 30.86667 2.441759 6 5.955390 21 39
## 475 38.00000 38.80000 2.441759 6 6.928203 31 47
## 550 51.83333 50.66667 2.441759 6 5.636193 45 61
##
## Tukey
## Alpha : 0.05
## Std.err : 2.483501
## HSD : 10.76024
## Parameters BIB
## Lambda : 3
## treatmeans : 5
## Block size : 3
## Blocks : 10
## Replication: 6
##
## Efficiency factor 0.8333333
##
## <<< Book >>>
##
## Comparison between treatments means
## Difference pvalue sig.
## 250 - 325 2.933333 0.9157
## 250 - 400 -10.400000 0.0607 .
## 250 - 475 -18.333333 0.0007 ***
## 250 - 550 -30.200000 0.0000 ***
## 325 - 400 -13.333333 0.0118 *
## 325 - 475 -21.266667 0.0001 ***
## 325 - 550 -33.133333 0.0000 ***
## 400 - 475 -7.933333 0.2087
## 400 - 550 -19.800000 0.0003 ***
## 475 - 550 -11.866667 0.0272 *
##
## Treatments with the same letter are not significantly different.
##
## monovinyl groups
## 550 50.66667 a
## 475 38.80000 b
## 400 30.86667 bc
## 250 20.46667 cd
## 325 17.53333 d
out= BIB.test(run,psi,monovinyl,test = "tukey", group = FALSE, console = TRUE)
##
## ANALYSIS BIB: monovinyl
## Class level information
##
## Block: 1 2 3 4 5 6 7 8 9 10
## Trt : 250 325 475 550 400
##
## Number of observations: 30
##
## Analysis of Variance Table
##
## Response: monovinyl
## Df Sum Sq Mean Sq F value Pr(>F)
## block.unadj 9 1394.7 154.96 5.0249 0.002529 **
## trt.adj 4 3688.6 922.14 29.9020 3.026e-07 ***
## Residuals 16 493.4 30.84
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## coefficient of variation: 17.5 %
## monovinyl Means: 31.66667
##
## psi, statistics
##
## monovinyl mean.adj SE r std Min Max
## 250 18.83333 20.46667 2.441759 6 3.868678 13 24
## 325 18.33333 17.53333 2.441759 6 6.153590 10 26
## 400 31.33333 30.86667 2.441759 6 5.955390 21 39
## 475 38.00000 38.80000 2.441759 6 6.928203 31 47
## 550 51.83333 50.66667 2.441759 6 5.636193 45 61
##
## Tukey
## Alpha : 0.05
## Std.err : 2.483501
## HSD : 10.76024
## Parameters BIB
## Lambda : 3
## treatmeans : 5
## Block size : 3
## Blocks : 10
## Replication: 6
##
## Efficiency factor 0.8333333
##
## <<< Book >>>
##
## Comparison between treatments means
## Difference pvalue sig.
## 250 - 325 2.933333 0.9157
## 250 - 400 -10.400000 0.0607 .
## 250 - 475 -18.333333 0.0007 ***
## 250 - 550 -30.200000 0.0000 ***
## 325 - 400 -13.333333 0.0118 *
## 325 - 475 -21.266667 0.0001 ***
## 325 - 550 -33.133333 0.0000 ***
## 400 - 475 -7.933333 0.2087
## 400 - 550 -19.800000 0.0003 ***
## 475 - 550 -11.866667 0.0272 *
Media global (mean)= 950/30-31.6 Coeficiente de Variación (CV) Comparación / Diferencia= \(mean.adj_{t_1}-mean.adj_{t_2}\) Error Estandar Global (SE)
Conclusión:
Se concluye que se rechaza \(H_0\) es decir al menos una de las medias ajustadas del experimento es diferente.
Diseño carolina 1,2,3 página 16 (North Carolina Designs I, II and III) / Función: carolina ()
\[y_{ihklt}= \mu+\tau_i+\beta_{ij}+\alpha_{ik}+\rho_{ikl}+\beta\rho_{ijkl} +\epsilon_{ijklt}\]
\(y_{ijklt}=\)Variable Respuesta
\(\mu=\)Media General
\(\tau_{ij}=\)Efecto del i~ésimo set
\(\beta_{ij}=\)Efecto del J~ésimo bloque en el i~ésimo set
\(\alpha_{ik}=\)Efecto del k~ésimo macho i~ésimo set
\(\rho_{ikl}=\)Efecto de la i~ésima hembra cruzada con el k~ésimo macho,i~ésimo set
\(\beta\rho_{ijkl}=\)Efecto de interacción
\(\epsilon_{ijklt}=\)Error asociado a cada observación
\[H_0= var_{F2}=var{F3}\\ H_a= var_{f2}\neq var_{F3}\]
data(DC)
carolina1 = DC$carolina1
str(carolina1)
## 'data.frame': 72 obs. of 6 variables:
## $ set : int 1 1 1 1 1 1 1 1 1 1 ...
## $ male : int 1 1 1 1 1 1 1 1 1 1 ...
## $ female : int 1 1 1 2 2 2 1 1 1 2 ...
## $ progenie: int 1 2 3 1 2 3 1 2 3 1 ...
## $ rep : int 1 1 1 1 1 1 2 2 2 2 ...
## $ yield : num 3.6 3.4 3.1 3.8 3.6 3.2 3.5 3.7 3.6 3.1 ...
output= carolina(model=1,carolina1)
## Response(y): yield
##
## Analysis of Variance Table
##
## Response: y
## Df Sum Sq Mean Sq F value Pr(>F)
## set 1 0.5339 0.5339 7.2120 0.0099144 **
## set:replication 2 2.9894 1.4947 20.1914 4.335e-07 ***
## set:male 4 22.1711 5.5428 74.8743 < 2.2e-16 ***
## set:male:female 6 4.8250 0.8042 10.8630 1.311e-07 ***
## set:replication:male:female 10 3.2072 0.3207 4.3325 0.0002462 ***
## Residuals 48 3.5533 0.0740
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## CV: 8.286715 Mean: 3.283333
output[][-1]
## $var.m
## [1] 0.3948843
##
## $var.f
## [1] 0.08057407
##
## $var.A
## [1] 1.579537
##
## $var.D
## [1] -1.257241
Conclusión:
Ya que los experimentos de Carolina son problemas de progenie y se observa que la varianza aditiva nos da positiva(1.579) y la varianza dominante negativa(-1.257) se puede deducir que se rechaza \(H_0\) porque la varianza de la F2 no es igual al de la F3 ya que la F3 posee más variabilidad genética (Varianza Aditiva) y menos variabilidad fenotipica (Varianza Dominante).
####Carolina 3
Ejercicio basado en el documento “El uso del diseño de bloques aumentados en la selección de clones de camote (Ipomoea batatas L.) August 2009”
carolina3= DC$carolina3
str(carolina3)
## 'data.frame': 64 obs. of 5 variables:
## $ set : num 1 1 1 1 1 1 1 1 1 1 ...
## $ male : num 1 2 3 4 1 2 3 4 1 2 ...
## $ female: num 1 1 1 1 2 2 2 2 1 1 ...
## $ rep : num 1 1 1 1 1 1 1 1 2 2 ...
## $ yield : num 4.2 5.7 5.3 2.2 3.8 3.7 3.3 5.8 3.8 5 ...
View(carolina3)
butput= carolina(model = 3,carolina3)
## Response(y): yield
##
## Analysis of Variance Table
##
## Response: y
## Df Sum Sq Mean Sq F value Pr(>F)
## set 3 2.795 0.93167 1.2784 0.300965
## set:replication 4 3.205 0.80125 1.0995 0.376215
## set:female 4 1.930 0.48250 0.6621 0.623525
## set:male 12 20.970 1.74750 2.3979 0.027770 *
## set:female:male 12 27.965 2.33042 3.1978 0.005493 **
## Residuals 28 20.405 0.72875
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## CV: 21.95932 Mean: 3.8875
output[][-1]
## $var.m
## [1] 0.3948843
##
## $var.f
## [1] 0.08057407
##
## $var.A
## [1] 1.579537
##
## $var.D
## [1] -1.257241
Diseño en bloque aumentados Pagina 29(Finding the Variance Analysis of the Augmented block Design) / Función: DAU.test()
\[y_{ij}=\mu+\tau_i+\beta_j+\epsilon_{ij}\]
\[H_0= \mu_A=\cdots=\mu_k\\ H_a=Almenos~uno~es~diferente\]
block= c(rep("I",7),
rep("II",6),
rep("III",7))
#Tratamientos control A,B,C y D
#Aumentados g,k,l,e,i,f,h y j
trt= c("A","B","C","D","g","k","l",
"A","B","C","D","e","i",
"A","B","C","D","f","h","j")
yield= c(83,77,78,78,70,75,74,
79,81,81,91,79,78,
92,79,87,81,89,96,82)
out = DAU.test(block,trt,yield,method = "lsd",group = TRUE,console = TRUE); out
##
## ANALYSIS DAU: yield
## Class level information
##
## Block: I II III
## Trt : A B C D e f g h i j k l
##
## Number of observations: 20
##
## ANOVA, Treatment Adjusted
## Analysis of Variance Table
##
## Response: yield
## Df Sum Sq Mean Sq F value Pr(>F)
## block.unadj 2 360.07 180.036
## trt.adj 11 285.10 25.918 0.9609 0.5499
## Control 3 52.92 17.639 0.6540 0.6092
## Control + control.VS.aug. 8 232.18 29.022 1.0760 0.4779
## Residuals 6 161.83 26.972
##
## ANOVA, Block Adjusted
## Analysis of Variance Table
##
## Response: yield
## Df Sum Sq Mean Sq F value Pr(>F)
## trt.unadj 11 575.67 52.333
## block.adj 2 69.50 34.750 1.2884 0.3424
## Control 3 52.92 17.639 0.6540 0.6092
## Augmented 7 505.87 72.268 2.6793 0.1253
## Control vs augmented 1 16.88 16.875 0.6256 0.4591
## Residuals 6 161.83 26.972
##
## coefficient of variation: 6.4 %
## yield Means: 81.5
##
## Critical Differences (Between)
## Std Error Diff.
## Two Control Treatments 4.240458
## Two Augmented Treatments (Same Block) 7.344688
## Two Augmented Treatments(Different Blocks) 8.211611
## A Augmented Treatment and A Control Treatment 6.360687
##
##
## Treatments with the same letter are not significantly different.
##
## yield groups
## h 93.50000 a
## f 86.50000 ab
## A 84.66667 ab
## D 83.33333 ab
## C 82.00000 ab
## j 79.50000 ab
## B 79.00000 ab
## e 78.25000 ab
## k 78.25000 ab
## i 77.25000 ab
## l 77.25000 ab
## g 73.25000 b
##
## Comparison between treatments means
##
## <<< to see the objects: comparison and means >>>
## $means
## yield std r Min Max Q25 Q50 Q75 mean.adj SE block
## A 84.66667 6.658328 3 79 92 81.0 83 87.5 84.66667 2.998456
## B 79.00000 2.000000 3 77 81 78.0 79 80.0 79.00000 2.998456
## C 82.00000 4.582576 3 78 87 79.5 81 84.0 82.00000 2.998456
## D 83.33333 6.806859 3 78 91 79.5 81 86.0 83.33333 2.998456
## e 79.00000 NA 1 79 79 79.0 79 79.0 78.25000 5.193479 II
## f 89.00000 NA 1 89 89 89.0 89 89.0 86.50000 5.193479 III
## g 70.00000 NA 1 70 70 70.0 70 70.0 73.25000 5.193479 I
## h 96.00000 NA 1 96 96 96.0 96 96.0 93.50000 5.193479 III
## i 78.00000 NA 1 78 78 78.0 78 78.0 77.25000 5.193479 II
## j 82.00000 NA 1 82 82 82.0 82 82.0 79.50000 5.193479 III
## k 75.00000 NA 1 75 75 75.0 75 75.0 78.25000 5.193479 I
## l 74.00000 NA 1 74 74 74.0 74 74.0 77.25000 5.193479 I
##
## $parameters
## test name.t ntr Controls Augmented blocks alpha
## DAU trt 12 4 8 3 0.05
##
## $statistics
## Mean CV
## 81.5 6.4
##
## $comparison
## NULL
##
## $groups
## yield groups
## h 93.50000 a
## f 86.50000 ab
## A 84.66667 ab
## D 83.33333 ab
## C 82.00000 ab
## j 79.50000 ab
## B 79.00000 ab
## e 78.25000 ab
## k 78.25000 ab
## i 77.25000 ab
## l 77.25000 ab
## g 73.25000 b
##
## $SE.difference
## Std Error Diff.
## Two Control Treatments 4.240458
## Two Augmented Treatments (Same Block) 7.344688
## Two Augmented Treatments(Different Blocks) 8.211611
## A Augmented Treatment and A Control Treatment 6.360687
##
## $vartau
## A B C D e f g h
## A 0.00000 17.98148 17.98148 17.98148 40.45833 40.45833 40.45833 40.45833
## B 17.98148 0.00000 17.98148 17.98148 40.45833 40.45833 40.45833 40.45833
## C 17.98148 17.98148 0.00000 17.98148 40.45833 40.45833 40.45833 40.45833
## D 17.98148 17.98148 17.98148 0.00000 40.45833 40.45833 40.45833 40.45833
## e 40.45833 40.45833 40.45833 40.45833 0.00000 67.43056 67.43056 67.43056
## f 40.45833 40.45833 40.45833 40.45833 67.43056 0.00000 67.43056 53.94444
## g 40.45833 40.45833 40.45833 40.45833 67.43056 67.43056 0.00000 67.43056
## h 40.45833 40.45833 40.45833 40.45833 67.43056 53.94444 67.43056 0.00000
## i 40.45833 40.45833 40.45833 40.45833 53.94444 67.43056 67.43056 67.43056
## j 40.45833 40.45833 40.45833 40.45833 67.43056 53.94444 67.43056 53.94444
## k 40.45833 40.45833 40.45833 40.45833 67.43056 67.43056 53.94444 67.43056
## l 40.45833 40.45833 40.45833 40.45833 67.43056 67.43056 53.94444 67.43056
## i j k l
## A 40.45833 40.45833 40.45833 40.45833
## B 40.45833 40.45833 40.45833 40.45833
## C 40.45833 40.45833 40.45833 40.45833
## D 40.45833 40.45833 40.45833 40.45833
## e 53.94444 67.43056 67.43056 67.43056
## f 67.43056 53.94444 67.43056 67.43056
## g 67.43056 67.43056 53.94444 53.94444
## h 67.43056 53.94444 67.43056 67.43056
## i 0.00000 67.43056 67.43056 67.43056
## j 67.43056 0.00000 67.43056 67.43056
## k 67.43056 67.43056 0.00000 53.94444
## l 67.43056 67.43056 53.94444 0.00000
##
## attr(,"class")
## [1] "group"
print(out$groups)
## yield groups
## h 93.50000 a
## f 86.50000 ab
## A 84.66667 ab
## D 83.33333 ab
## C 82.00000 ab
## j 79.50000 ab
## B 79.00000 ab
## e 78.25000 ab
## k 78.25000 ab
## i 77.25000 ab
## l 77.25000 ab
## g 73.25000 b
plot(out)
##
## Warning values plot is not adjusted
Conclusión:
En este experimento de bloques aumentados se logra observar que aquellos tratamientos que poseen la misma letra no son significativamente diferentes, esto nos quiere decir que el tratamiento \(h\) que pertenece al grupo “a” es aquel que posee mayor rendimiento porque posee una media mayor entre todos los tratamientos.
Diseño Grecolatino Pagina 41 (Graeco - latin square design) /Función: design.graeco ()
\[y_{ijkl}= \mu+\theta_i+\tau_j+\omega_k+\psi_l+\epsilon{ijkl}\\i=1,2,\cdots,\rho\\ j=1,2,\cdots,\rho\\ k=1,2,\cdots,\rho\\ l=1,2,\cdots,\rho\\\]
\(y_{ijkl}=\)Observación en la fila \(i\), la columna \(l\), para la letra latina \(j\) y la letra griega \(k\)
\(\mu=\)Media Global
\(\theta_i=\)Efecto de la \(i~ésima\) fila
\(\tau_j=\)Efecto del tratamiento \(j\) de la letra latina
\(\omega_k=\)Efecto del tratamiento de la letra griega \(k\)
\(\psi_l=\)Efecto de la columna \(l\)
\(\epsilon_{ijkl}=\)Error aleatorio
tempe= c("T1","T1","T1","T1",
"T2","T2","T2","T2",
"T3","T3","T3","T3",
"T4","T4","T4","T4")
proce= c("P1","P2","P3","P4",
"P1","P2","P3","P4",
"P1","P2","P3","P4",
"P1","P2","P3","P4")
llatin= c(3,2,4,1,
2,3,1,4,
1,4,2,3,
4,1,3,2)
lgrec= c(2,3,4,1,
1,4,3,2,
4,1,2,3,
3,2,1,4)
y_i= c(5,12,13,13,
6,10,15,11,
7,5,5,7,
11,10,8,9)
tempe= factor(tempe)
proce= factor(proce)
llatin= factor(llatin)
lgrec= factor(lgrec)
data1= data.frame(tempe,proce,llatin,lgrec,y_i)
graeco= design.graeco(llatin,lgrec,serie=0)
## not implemented design 16 x 16 , see help(design.graeco)
graeco1= graeco$book
plots= as.numeric(graeco1[,1]);plots
## numeric(0)
print(matrix(plots,byrow = TRUE,ncol=4))
## [,1] [,2] [,3] [,4]
cathe= lm(y_i~proce+tempe+llatin+lgrec)
Anova= aov(cathe)
summary(Anova)
## Df Sum Sq Mean Sq F value Pr(>F)
## proce 3 22.19 7.396 6.017 0.0873 .
## tempe 3 57.69 19.229 15.644 0.0245 *
## llatin 3 36.69 12.229 9.949 0.0456 *
## lgrec 3 32.19 10.729 8.729 0.0542 .
## Residuals 3 3.69 1.229
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Conclusión:
En este diseño Gracolatino se puede observar en los resultados que la Temperatura esta ligada con el Catalizador, pero la Presión no esta ligada con el metodo de Producción, teniendo en cuenta que son significativamente diferentes la Presión con la temperatura.
Diseño Lattice Pagina 43 (Lattice designs) /Función: design.lattice ()
library(agricolae)
set.seed(123)
trt=1:9
rta= rnorm(36,30,0.8)
outdesign= design.lattice(trt,r=3) # triple lattice design ( 9 trt desde A-I)
##
## Lattice design, triple 3 x 3
##
## Efficiency factor
## (E ) 0.7272727
##
## <<< Book >>>
outdesign
## $parameters
## $parameters$design
## [1] "lattice"
##
## $parameters$type
## [1] "triple"
##
## $parameters$trt
## [1] 1 2 3 4 5 6 7 8 9
##
## $parameters$r
## [1] 3
##
## $parameters$serie
## [1] 2
##
## $parameters$seed
## [1] 515190382
##
## $parameters$kinds
## [1] "Super-Duper"
##
##
## $statistics
## treatmens blockSize blocks Efficiency
## values 9 3 3 0.7272727
##
## $sketch
## $sketch$rep1
## [,1] [,2] [,3]
## [1,] "4" "1" "8"
## [2,] "2" "7" "6"
## [3,] "3" "9" "5"
##
## $sketch$rep2
## [,1] [,2] [,3]
## [1,] "5" "6" "8"
## [2,] "9" "7" "1"
## [3,] "3" "2" "4"
##
## $sketch$rep3
## [,1] [,2] [,3]
## [1,] "5" "2" "1"
## [2,] "9" "6" "4"
## [3,] "3" "7" "8"
##
##
## $book
## plots r block trt
## 1 101 1 1 4
## 2 102 1 1 1
## 3 103 1 1 8
## 4 104 1 2 2
## 5 105 1 2 7
## 6 106 1 2 6
## 7 107 1 3 3
## 8 108 1 3 9
## 9 109 1 3 5
## 10 201 2 4 5
## 11 202 2 4 6
## 12 203 2 4 8
## 13 204 2 5 9
## 14 205 2 5 7
## 15 206 2 5 1
## 16 207 2 6 3
## 17 208 2 6 2
## 18 209 2 6 4
## 19 301 3 7 5
## 20 302 3 7 2
## 21 303 3 7 1
## 22 304 3 8 9
## 23 305 3 8 6
## 24 306 3 8 4
## 25 307 3 9 3
## 26 308 3 9 7
## 27 309 3 9 8
Si se desea completar para un latice balanceado, se agregaria el cuadro faltante distribuido aleatoriamente que seria:
r=c(rep(1,9),rep(2,9),rep(3,9),rep(4,9))
bloque= c(rep(1,3),rep(2,3),rep(3,3),rep(4,3),rep(5,3),rep(6,3),rep(7,3),rep(8,3),rep(9,3),rep(10,3),rep(11,3),rep(12,3))
trt= c(4,2,5,9,1,8,7,6,3,5,3,8,2,6,1,4,7,9,5,6,9,2,7,8,4,3,1,2,3,5,4,9,8,7,6,1)
A= data.frame(r,bloque,trt,rta)#r=repeticion #trt=tratamiento #rta=respuesta
library(corpcor)
## Warning: package 'corpcor' was built under R version 4.0.3
str(A)
## 'data.frame': 36 obs. of 4 variables:
## $ r : num 1 1 1 1 1 1 1 1 1 2 ...
## $ bloque: num 1 1 1 2 2 2 3 3 3 4 ...
## $ trt : num 4 2 5 9 1 8 7 6 3 5 ...
## $ rta : num 29.6 29.8 31.2 30.1 30.1 ...
attach(A)
## The following objects are masked _by_ .GlobalEnv:
##
## bloque, r, rta, trt
str(PBIB.test)
## function (block, trt, replication, y, k, method = c("REML", "ML", "VC"),
## test = c("lsd", "tukey"), alpha = 0.05, console = FALSE, group = TRUE)
PBIB.test(bloque,trt,r,rta,k=3)
##
## <<< to see the objects: means, comparison and groups. >>>
model<-PBIB.test(bloque,trt,r,rta,k=3)
##
## <<< to see the objects: means, comparison and groups. >>>
model
## $ANOVA
## Analysis of Variance Table
##
## Response: rta
## Df Sum Sq Mean Sq F value Pr(>F)
## trt 8 5.3487 0.66859 1.3421 0.2926
## Residuals 16 7.9708 0.49817
##
## $method
## [1] "Residual (restricted) maximum likelihood"
##
## $parameters
## test name.t treatments blockSize blocks r alpha
## PBIB-lsd trt 9 3 3 4 0.05
##
## $statistics
## Efficiency Mean CV
## 0.75 30.04448 2.349228
##
## $model
## Linear mixed-effects model fit by REML
## Data: NULL
## Log-restricted-likelihood: -35.87986
## Fixed: y ~ trt.adj
## (Intercept) trt.adj2 trt.adj3 trt.adj4 trt.adj5 trt.adj6
## 30.21997478 -0.19877635 -0.67749504 -0.01440229 0.39366865 -0.38109255
## trt.adj7 trt.adj8 trt.adj9
## -0.05779563 0.22824787 -0.87177557
##
## Random effects:
## Formula: ~1 | replication
## (Intercept)
## StdDev: 0.1874251
##
## Formula: ~1 | block.adj %in% replication
## (Intercept) Residual
## StdDev: 2.67029e-05 0.7058133
##
## Number of Observations: 36
## Number of Groups:
## replication block.adj %in% replication
## 4 12
##
## $Fstat
## Fit Statistics
## AIC 95.75973
## BIC 111.30977
## -2 Res Log Likelihood -35.87986
##
## $comparison
## Difference stderr pvalue
## 1 - 2 0.19877635 0.4990854 0.6956
## 1 - 3 0.67749504 0.4990854 0.1934
## 1 - 4 0.01440229 0.4990854 0.9774
## 1 - 5 -0.39366865 0.4990854 0.4418
## 1 - 6 0.38109255 0.4990854 0.4562
## 1 - 7 0.05779563 0.4990854 0.9092
## 1 - 8 -0.22824787 0.4990854 0.6536
## 1 - 9 0.87177557 0.4990854 0.0998
## 2 - 3 0.47871869 0.4990854 0.3518
## 2 - 4 -0.18437405 0.4990854 0.7166
## 2 - 5 -0.59244500 0.4990854 0.2526
## 2 - 6 0.18231620 0.4990854 0.7196
## 2 - 7 -0.14098071 0.4990854 0.7812
## 2 - 8 -0.42702422 0.4990854 0.4048
## 2 - 9 0.67299923 0.4990854 0.1962
## 3 - 4 -0.66309275 0.4990854 0.2026
## 3 - 5 -1.07116369 0.4990854 0.0476
## 3 - 6 -0.29640249 0.4990854 0.5608
## 3 - 7 -0.61969940 0.4990854 0.2322
## 3 - 8 -0.90574291 0.4990854 0.0884
## 3 - 9 0.19428053 0.4990854 0.7022
## 4 - 5 -0.40807094 0.4990854 0.4256
## 4 - 6 0.36669026 0.4990854 0.4732
## 4 - 7 0.04339334 0.4990854 0.9318
## 4 - 8 -0.24265016 0.4990854 0.6334
## 4 - 9 0.85737328 0.4990854 0.1052
## 5 - 6 0.77476120 0.4990854 0.1402
## 5 - 7 0.45146429 0.4990854 0.3792
## 5 - 8 0.16542078 0.4990854 0.7446
## 5 - 9 1.26544423 0.4990854 0.0220
## 6 - 7 -0.32329691 0.4990854 0.5264
## 6 - 8 -0.60934042 0.4990854 0.2398
## 6 - 9 0.49068302 0.4990854 0.3402
## 7 - 8 -0.28604350 0.4990854 0.5746
## 7 - 9 0.81397994 0.4990854 0.1224
## 8 - 9 1.10002344 0.4990854 0.0426
##
## $means
## rta rta.adj SE r std Min Max Q25 Q50
## 1 30.21997 30.21997 0.3651372 4 0.5058288 29.55533 30.67023 29.96640 30.32717
## 2 30.02120 30.02120 0.3651372 4 0.2452002 29.81586 30.32062 29.82318 29.97416
## 3 29.54248 29.54248 0.3651372 4 1.0121558 28.65065 30.97927 28.97978 29.27000
## 4 30.20557 30.20557 0.3651372 4 0.9022180 29.49997 31.42953 29.53871 29.94640
## 5 30.61364 30.61364 0.3651372 4 0.7063369 29.64347 31.24697 30.33168 30.78207
## 6 29.83888 29.83888 0.3651372 4 0.7078854 28.98795 30.65726 29.46331 29.85516
## 7 30.16218 30.16218 0.3651372 4 0.6724624 29.17920 30.70251 30.07135 30.38351
## 8 30.44822 30.44822 0.3651372 4 0.8194696 29.41689 31.37205 30.07011 30.50198
## 9 29.34820 29.34820 0.3651372 4 0.7221586 28.42671 30.05641 28.96598 29.45484
## Q75
## 1 30.58074
## 2 30.17218
## 3 29.83270
## 4 30.61326
## 5 31.06403
## 6 30.23073
## 7 30.47434
## 8 30.88009
## 9 29.83706
##
## $groups
## rta.adj groups
## 5 30.61364 a
## 8 30.44822 ab
## 1 30.21997 abc
## 4 30.20557 abc
## 7 30.16218 abc
## 2 30.02120 abc
## 6 29.83888 abc
## 3 29.54248 bc
## 9 29.34820 c
##
## $vartau
## trt.adj1 trt.adj2 trt.adj3 trt.adj4 trt.adj5 trt.adj6
## trt.adj1 0.13332515 0.00878204 0.00878204 0.00878204 0.00878204 0.00878204
## trt.adj2 0.00878204 0.13332515 0.00878204 0.00878204 0.00878204 0.00878204
## trt.adj3 0.00878204 0.00878204 0.13332515 0.00878204 0.00878204 0.00878204
## trt.adj4 0.00878204 0.00878204 0.00878204 0.13332515 0.00878204 0.00878204
## trt.adj5 0.00878204 0.00878204 0.00878204 0.00878204 0.13332515 0.00878204
## trt.adj6 0.00878204 0.00878204 0.00878204 0.00878204 0.00878204 0.13332515
## trt.adj7 0.00878204 0.00878204 0.00878204 0.00878204 0.00878204 0.00878204
## trt.adj8 0.00878204 0.00878204 0.00878204 0.00878204 0.00878204 0.00878204
## trt.adj9 0.00878204 0.00878204 0.00878204 0.00878204 0.00878204 0.00878204
## trt.adj7 trt.adj8 trt.adj9
## trt.adj1 0.00878204 0.00878204 0.00878204
## trt.adj2 0.00878204 0.00878204 0.00878204
## trt.adj3 0.00878204 0.00878204 0.00878204
## trt.adj4 0.00878204 0.00878204 0.00878204
## trt.adj5 0.00878204 0.00878204 0.00878204
## trt.adj6 0.00878204 0.00878204 0.00878204
## trt.adj7 0.13332515 0.00878204 0.00878204
## trt.adj8 0.00878204 0.13332515 0.00878204
## trt.adj9 0.00878204 0.00878204 0.13332515
##
## attr(,"class")
## [1] "group"
plot(model,las=2)
##
## Warning values plot is not adjusted
Conclusión:
De la grafica se puede inferir que el tratamiento 5 es el que genera más productividad por lo tanto es el mejor tratamiento, y el menos productivo seria el tratamiento 3.
Diseño cuadrado latino Pagina 44 (Latin Square Design) /Función: design.lsd()
\[y_{ijk}=\mu+\alpha_i+\tau_j+\beta_k+\epsilon_{ijk}\\ i=1,\cdots,\rho\\ j=1,\cdots,\rho\\ k=1,\cdots,\rho\\\]
\(y_{ijk}=\)Es la observación de la $i~ésima $ fila, \(k~ésima\) columna y \(k~ésimo\) tratamiento
\(\mu=\)Media general
\(\alpha_i=\)El efecto de la \(i~ésima\) fila
\(\tau_j=\)El efecto del \(j~ésimo\) tratamiento
\(\beta_k=\)El efecto de la \(k~ésima\) columna
\(\epsilon_{ijk}=\)Error aleatorio
\[H_0= (\mu_a-\mu_b)=(\mu_a-\mu_c)=(\mu_b-\mu_c)\\ H_a=Almenos~uno~es~diferente\]
Lsd_aov= aov( AUC ~ Subject + Period + Treat, data = bioeqv)
trat_lsd= bioeqv$Treat
lsd_test= design.lsd(levels(trat_lsd),serie = 3,);lsd_test
## $parameters
## $parameters$design
## [1] "lsd"
##
## $parameters$trt
## [1] "A" "B" "C"
##
## $parameters$r
## [1] 3
##
## $parameters$serie
## [1] 3
##
## $parameters$seed
## [1] -1098435821
##
## $parameters$kinds
## [1] "Super-Duper"
##
## $parameters[[7]]
## [1] TRUE
##
##
## $sketch
## [,1] [,2] [,3]
## [1,] "A" "C" "B"
## [2,] "B" "A" "C"
## [3,] "C" "B" "A"
##
## $book
## plots row col levels(trat_lsd)
## 1 1001 1 1 A
## 2 1002 1 2 C
## 3 1003 1 3 B
## 4 2001 2 1 B
## 5 2002 2 2 A
## 6 2003 2 3 C
## 7 3001 3 1 C
## 8 3002 3 2 B
## 9 3003 3 3 A
summary(Lsd_aov)
## Df Sum Sq Mean Sq F value Pr(>F)
## Subject 2 114264 57132 0.258 0.795
## Period 2 45196 22598 0.102 0.907
## Treat 2 15000 7500 0.034 0.967
## Residuals 2 442158 221079
model.tables(Lsd_aov, type = "means" )$tables$Treat
## Treat
## A B C
## 1198.667 1105.667 1120.333
plot(TukeyHSD(Lsd_aov, "Treat"))
Conclusión:
No se rechaza \(H_0\) ya que el p.value no es menor al 0.05%.
Diseño Bloques completos Pagina 46 (Randomized Complete Block Design) /Función: design.rcbd()
\[y_{ij}=\mu+\beta_i+\tau_i+\epsilon_{ij}\]
\(y_{ij}=\)Observaciones
\(\mu=\)Media Global
\(\beta_i=\)Efecto de los bloques
\(\tau_i=\)Efecto de los tratamientos
\(\epsilon_{ij}=\)Error aleatorio
Dosis= c(0.0,0.5,1,1.5,2) #Dosis en mg/Kg
RCB_design = design.rcbd(Dosis,10,continue = F)
rcb = RCB_design$book
rata = rcb$block
rcb$respuesta = drug$rate
rcb
## plots block Dosis respuesta
## 1 101 1 1 0.60
## 2 102 1 0.5 0.80
## 3 103 1 1.5 0.82
## 4 104 1 0 0.81
## 5 105 1 2 0.50
## 6 201 2 1.5 0.51
## 7 202 2 1 0.61
## 8 203 2 0 0.79
## 9 204 2 2 0.78
## 10 205 2 0.5 0.77
## 11 301 3 0 0.62
## 12 302 3 0.5 0.82
## 13 303 3 1 0.83
## 14 304 3 1.5 0.80
## 15 305 3 2 0.52
## 16 401 4 2 0.60
## 17 402 4 1 0.95
## 18 403 4 0.5 0.91
## 19 404 4 0 0.95
## 20 405 4 1.5 0.70
## 21 501 5 1 0.92
## 22 502 5 0.5 0.82
## 23 503 5 1.5 1.04
## 24 504 5 2 1.13
## 25 505 5 0 1.03
## 26 601 6 1.5 0.63
## 27 602 6 2 0.93
## 28 603 6 1 1.02
## 29 604 6 0.5 0.96
## 30 605 6 0 0.63
## 31 701 7 1 0.84
## 32 702 7 0 0.74
## 33 703 7 0.5 0.98
## 34 704 7 2 0.98
## 35 705 7 1.5 1.00
## 36 801 8 0.5 0.96
## 37 802 8 1.5 1.24
## 38 803 8 1 1.27
## 39 804 8 0 1.20
## 40 805 8 2 1.06
## 41 901 9 0 1.01
## 42 902 9 0.5 1.23
## 43 903 9 1 1.30
## 44 904 9 1.5 1.25
## 45 905 9 2 1.24
## 46 1001 10 0 0.95
## 47 1002 10 2 1.20
## 48 1003 10 1 1.18
## 49 1004 10 1.5 1.23
## 50 1005 10 0.5 1.05
Analisis_de_v= aov(respuesta ~ rata + Dosis, data= rcb )
summary(Analisis_de_v)
## Df Sum Sq Mean Sq F value Pr(>F)
## rata 9 1.6685 0.18538 9.240 4.33e-07 ***
## Dosis 4 0.0384 0.00961 0.479 0.751
## Residuals 36 0.7223 0.02006
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Conclusión:
En este experimento se puede observar que hay una diferencia significativa en cuanto a las ratas y no a las dosis que le son suministradas.
Realice un resumen con la nota que aparece en las siguientes direcciones sobre: El uso de los diseños en parcelas divididas
Cuando se tiene un experimento en el que algún factor es difícil de aleatorizar es cuando se utiliza el diseño de parcelas divididas, este tipo de diseño nació en el mundo de la agricultura y es por esto que se manejan términos referentes a la misma; los factores difíciles de aleatorizar se conocen como parcela completa, mientras que los otros factores se les denominan subparcelas, estos diseños se suelen confundir con los diseños completamente aleatorios al momento de analizar los datos lo que podría ocasionar conclusiones engañosas acerca de los factores. Por eso es importante saber identificar este tipo de diseño para así tener conclusiones validas sobre los efectos de los factores, un correcto análisis en este diseño reconoce que las observaciones obtenidas están relacionadas entre sí. Cuando se determina el orden de ejecución existen dos aleatorizaciones separas: determinar el orden de ejecución de las parcelas completas, y recopilar las observaciones dentro de la parcela completa.
Este diseño también se justifica desde el punto de vista económico, los factores difíciles de aleatorizar son costosos, es por esto por lo que al escoger un diseño que posea menos parcelas completas y agregar más observaciones dentro de cada parcela completa podría significar un gran ahorro, se podría decir que el costo de este diseño es relativo a la cantidad de parcelas completas que se tenga.
Para realizar este diseño hay varios aspectos de los cuales se debe tener en cuenta desde medidas cualitativas hasta cuantitativas, así como los términos de error de la subparcela y rendimiento basado en la optimización y la estimación de verosimilitud. Los diseños de parcelas divididas son de suma importancia y si se usan correctamente pueden aumentar la cantidad de información de se puede extraer del experimento.
Sobre lo que significa Unidad experimental y Unidad de Observación
Si tenemos un experimento en donde se tiene dos parcelas cada una con 300 plantas de lechuga y se hace un tratamiento con dos fertilizantes, y después de 3 meses se toman 60 plantas al azar y se mide su masa.
Este diseño posee un solo factor en dos niveles
La unidad experimental es aquella que recibe el tratamiento, en nuestro ejemplo como se aplicó el fertilizante a cada parcela, por lo que las parcelas serian las unidades experimentales, las plantas no son UE ya que para esto se tendría que coger individualmente cada planta y aplicarle el fertilizante.
La unidad observacional es aquella fracción de la unidad experimental sobre la cual se mide el efecto del tratamiento. Hay que aclarar que el muestreo de observaciones no implica replicación. Para este ejemplo que se está planteando la unidad observacional serían las plantas, ya que de estas son obtenidos los datos a analizar.
Los diseños de experimentos poseen cuatro principios básicos en los cuales se van a basar, estos principios son replicación, aleatorización, bloqueo y tamaño de unidades experimentales, los cuales cada uno de estos tienen impacto sobre el diseño experimental, el análisis de datos y las conclusiones del mismo. Estos pilares son importantes ya que en diseños experimentales biológicos los cuales son experimentos comparativos o manipulativos el error no es una opción, ya que el montaje de estos experimentos es muy costoso tanto en términos monetarios, tiempo y emocionalmente.
Replicación
La replicación cumple cuatro funciones en la experimentación comparativa. Primero, proporciona un mecanismo para estimar el error experimental, que es esencial para proporcionar pruebas de hipótesis válidas e intervalos de confianza de los estimadores. Segundo, proporciona un mecanismo para aumentar la precisión de un experimento. Tercero, aumenta el alcance de la inferencia del experimento y cuarto, afecta el control del error.
El primer paso para establecer la replicación en el diseño de la mayoría de los experimentos es definir la unidad experimental, la unidad que forma el primer nivel de replicación, ya que después de establecer la unidad experimental y una decisión sobre cómo replicar los tratamientos en la escala adecuada, se pueden diseñar niveles adicionales de replicación en el experimento, subiendo o bajando la escala a unidades más pequeñas o más grandes. A partir de lo anterior mencionado surge la siguiente duda: ¿Qué escala de replicación es necesaria? La escala de replicación depende de las inferencias deseadas y cómo se recopilarán los datos, ya que los en la mayoría de experimentos están dependiendo del factor biológico. Por este motivo depende de los objetivos seleccionados y las condiciones bajo el cual está el experimento se decide en que escala realizar las repeticiones. Por otra parte, el número de réplicas es importante ya que muchas variables no pueden medirse en una unidad experimental completa, lo que exige algún método de subconjunto o subdivisión de unidades experimentales en múltiples unidades de observación, es decir, replicación a una escala por debajo del nivel de la unidad experimental.
Aleatorización
La aleatorización da dos servicios clave en los diseños experimentales. Primero la estimación no sesgada de las medias del tratamiento y los errores experimentales, segundo una precaución contra una perturbación que pueda surgir. Gracias a la aleatorización podemos estar seguros de que nuestro experimento este a salvo de perturbaciones que no logramos controlar, teniendo en cuenta que el experimento en el cual estamos trabajando es de componente biológico como anteriormente se ha mencionado, esto conlleva a varios factores que no se pueden controlar; por este motivo estas aleatorizaciones pueden ser tediosas en cuanto a tiempo o inconvenientes improvistos pero los beneficios son muy grandes comparados al tiempo invertido en este tema. Por todo lo anterior mencionado la aleatorización ayuda a garantizar que esas fuentes de variación desconocidas o inesperadas no introduzcan sesgos, confusión o eliminación de pruebas de hipótesis válidas durante el curso del experimento.
Bloqueo
Al igual que la aleatorización el bloqueo se utiliza en diseños experimentales para asegurarse de que no haya perturbaciones o algunos factores que no se logren controlar y afecten al diseño propuesto. Por esto el bloqueo se utiliza con dos propósitos: Primero por precisión, para crear grupos de unidades experimentales que sean más homogéneos de lo que ocurriría con un muestreo aleatorio de toda la población de unidades experimentales o Segundo por conveniencia, el cual permite diferentes tamaños de unidades experimentales cuando se requieran parcelas o áreas experimentales más grandes para la aplicación de un factor en comparación con otros factores.
Tamaño de unidades experimentales
El tamaño de unidades experimentales es el principio menos comprendido y el cual posee la menor cantidad de resultados teóricos para respaldar las observaciones empíricas. Por este motivo el tamaño depende de la experiencia del investigador o la persona que está realizando el experimento junto con la información o registros históricos que tenga del lugar en el cual se realiza como lo puede ser la orientación dentro del campo y las características del diseño experimental, como el número de réplicas, el número de tratamientos, tamaño de bloque y tamaño de parcela.
\[\bar \sigma^2_{n} =893 \\N=72 \\ n_{i}=8 \\S.cuadradados_{in}=6000 \]
\[VNE=\sum n_i \sigma^2_{ni}\]
VNE<-8*893;VNE
## [1] 7144
\[VT= VE+VNE\]
VT<-6000+7144;VT
## [1] 13144
\[df:grados de libertad\] \[df_{VE}=I-1=8-2=6\\I=n_i-1\] \[df_{VNE}=n-I=72-7=65\]
\[\hat S^2_e={VE \over I-1}\\\hat S^2_R={VNE \over n-I}\]
se<-6000/(6);se
## [1] 1000
sr<-VNE/65;sr
## [1] 109.9077
\[F={\hat S^2_e \over \hat S^2_R}\]
f<-se/sr;f
## [1] 9.098544
| suma de cuadrados | grados de libertad | medias cuadraticas | F | |
|---|---|---|---|---|
| entre(VE) | 6000 | 6 | 1000 | 9.1 |
| intra(VNE) | 8037 | 65 | 109.91 | |
| total(VT) | 13144 |
\[H_0:H0 : \mu1 = \mu2 = \mu3= \cdots \mu9 \\ H1 : Alguna~distinta\]
¿qué puede decirse acerca de la Hipótesis nula de igualdad de los promedios del índice en todas las condiciones de tratamiento (use el p valor así como el cociente F calculado de la tabla para concluir)?
Conclusión:
Como F = 9.1 es mayor que Ftab=2.8, rechazamos H0, por lo tanto se cocluye que no se puede comparar los tratamientos
set.seed(1998)
data1=rnorm(8,409,sqrt(853))
data2=rnorm(8,419,sqrt(853))
data3=rnorm(8,429,sqrt(853))
data4=rnorm(8,439,sqrt(853))
data5=rnorm(8,449,sqrt(853))
data6=rnorm(8,459,sqrt(853))
data7=rnorm(8,469,sqrt(853))
data8=rnorm(8,476,sqrt(853))
data9=rnorm(8,486,sqrt(853))
\[H_o:clorofila9 y 8=N(\mu,\sigma^2)\\H_a:clorofila9y8\neq N(\mu,\sigma^2)\]
s_t = shapiro.test(data9) # test de shapiro para probar si tiene distribucion normal
s_t
##
## Shapiro-Wilk normality test
##
## data: data9
## W = 0.88202, p-value = 0.1968
ifelse(s_t$p.value<0.05,"rechaza Ho","no rechaza Ho")
## [1] "no rechaza Ho"
s_t = shapiro.test(data8) # test de shapiro para probar si tiene distribucion normal
s_t
##
## Shapiro-Wilk normality test
##
## data: data8
## W = 0.93087, p-value = 0.524
ifelse(s_t$p.value<0.05,"rechaza Ho","no rechaza Ho")
## [1] "no rechaza Ho"
\[H_o:var_{trt9}=var_{trt8}\\H_a: var_{trt9}\neq var_{trt8} \]
v_t<-var.test(data9,data8) #test para determinar si las varianzas son iguales
v_t
##
## F test to compare two variances
##
## data: data9 and data8
## F = 2.2862, num df = 7, denom df = 7, p-value = 0.2975
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 0.4577151 11.4195874
## sample estimates:
## ratio of variances
## 2.286245
# si el p.value<0.05 las varianzas son iguales
ifelse(v_t$p.value<0.05,"rechaza Ho","no rechaza Ho")
## [1] "no rechaza Ho"
Conclusión:
Dado que los datos de los tratamientos 8 y 9 presentan distribución normal y varianzas homogeneas se determina que se puede realizar el analisis ANOVA.
metod<-c(c(2,3,4,5),rep(c(1,2,3,4,5),5));metod
## [1] 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5
gran<-c(rep(1,4),rep(2,5),rep(3,5),rep(4,5),rep(5,5),rep(6,5));gran
## [1] 1 1 1 1 2 2 2 2 2 3 3 3 3 3 4 4 4 4 4 5 5 5 5 5 6 6 6 6 6
algodon<-c(5.54,7.67,7.89,9.27,6.75,3.53,4.15,1.97,4.39,13.05,11.20,9.79,8.97,13.44,10.26,7.21,8.27,6.12,9.13,8.01,3.24,6.75,4.22,9.20,8.42,6.45,5.50,7.84,7.13)
datos<-data.frame(metod=factor(metod,labels = c("M1","M2","M3","M4","M5")),gran=factor(gran,labels=c("G1","G2","G3","G4","G5","G6")),algodon)
datos
## metod gran algodon
## 1 M2 G1 5.54
## 2 M3 G1 7.67
## 3 M4 G1 7.89
## 4 M5 G1 9.27
## 5 M1 G2 6.75
## 6 M2 G2 3.53
## 7 M3 G2 4.15
## 8 M4 G2 1.97
## 9 M5 G2 4.39
## 10 M1 G3 13.05
## 11 M2 G3 11.20
## 12 M3 G3 9.79
## 13 M4 G3 8.97
## 14 M5 G3 13.44
## 15 M1 G4 10.26
## 16 M2 G4 7.21
## 17 M3 G4 8.27
## 18 M4 G4 6.12
## 19 M5 G4 9.13
## 20 M1 G5 8.01
## 21 M2 G5 3.24
## 22 M3 G5 6.75
## 23 M4 G5 4.22
## 24 M5 G5 9.20
## 25 M1 G6 8.42
## 26 M2 G6 6.45
## 27 M3 G6 5.50
## 28 M4 G6 7.84
## 29 M5 G6 7.13
#transformar tanto la columna de los tratamientos como la de los bloques en un factor para poder realizar los cálculos posteriores adecuadamente.
datos$metod=factor(datos$metod)
datos$metod
## [1] M2 M3 M4 M5 M1 M2 M3 M4 M5 M1 M2 M3 M4 M5 M1 M2 M3 M4 M5 M1 M2 M3 M4 M5 M1
## [26] M2 M3 M4 M5
## Levels: M1 M2 M3 M4 M5
datos$gran=factor(datos$gran)
datos$gran
## [1] G1 G1 G1 G1 G2 G2 G2 G2 G2 G3 G3 G3 G3 G3 G4 G4 G4 G4 G4 G5 G5 G5 G5 G5 G6
## [26] G6 G6 G6 G6
## Levels: G1 G2 G3 G4 G5 G6
boxplot(datos$algodon~datos$metod)
boxplot(datos$algodon~datos$gran)
avar<-aov(algodon~gran+metod)
anova(avar)
## Analysis of Variance Table
##
## Response: algodon
## Df Sum Sq Mean Sq F value Pr(>F)
## gran 1 0.053 0.0531 0.0065 0.9365
## metod 1 0.135 0.1352 0.0165 0.8989
## Residuals 26 213.465 8.2102
rep1<-lm(algodon~gran+metod)
summary(rep1)
##
## Call:
## lm(formula = algodon ~ gran + metod)
##
## Residuals:
## Min 1Q Median 3Q Max
## -5.3747 -1.8809 0.2985 1.7898 6.1222
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 7.49712 1.78721 4.195 0.000281 ***
## gran 0.02245 0.31925 0.070 0.944475
## metod -0.04934 0.38451 -0.128 0.898881
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 2.865 on 26 degrees of freedom
## Multiple R-squared: 0.0008813, Adjusted R-squared: -0.07597
## F-statistic: 0.01147 on 2 and 26 DF, p-value: 0.9886
rep2<-lm(algodon~metod+gran)
summary(rep2)
##
## Call:
## lm(formula = algodon ~ metod + gran)
##
## Residuals:
## Min 1Q Median 3Q Max
## -5.3747 -1.8809 0.2985 1.7898 6.1222
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 7.49712 1.78721 4.195 0.000281 ***
## metod -0.04934 0.38451 -0.128 0.898881
## gran 0.02245 0.31925 0.070 0.944475
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 2.865 on 26 degrees of freedom
## Multiple R-squared: 0.0008813, Adjusted R-squared: -0.07597
## F-statistic: 0.01147 on 2 and 26 DF, p-value: 0.9886
b)Estimar el valor de la observación usando el promedio de los datos para los cinco granjeros del mismo método M1 y luego realice el análisis de varianza para probar las diferencias en las pérdidas medias de peso para los cinco métodos de limpiado de las fibras de algodón. Compare este resultado con el caso desbalanceado (de ser posible).
metod2<-c(rep(c(1,2,3,4,5),6));metod2
## [1] 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5
gran2<-c(rep(1,5),rep(2,5),rep(3,5),rep(4,5),rep(5,5),rep(6,5));gran2
## [1] 1 1 1 1 1 2 2 2 2 2 3 3 3 3 3 4 4 4 4 4 5 5 5 5 5 6 6 6 6 6
algodon2<-c(9.298,5.54,7.67,7.89,9.27,6.75,3.53,4.15,1.97,4.39,13.05,11.20,9.79,8.97,13.44,10.26,7.21,8.27,6.12,9.13,8.01,3.24,6.75,4.22,9.20,8.42,6.45,5.50,7.84,7.13)
datos2<-data.frame(metod2=factor(metod2,labels = c("M1","M2","M3","M4","M5")),gran2=factor(gran2,labels=c("G1","G2","G3","G4","G5","G6")),algodon2)
datos2
## metod2 gran2 algodon2
## 1 M1 G1 9.298
## 2 M2 G1 5.540
## 3 M3 G1 7.670
## 4 M4 G1 7.890
## 5 M5 G1 9.270
## 6 M1 G2 6.750
## 7 M2 G2 3.530
## 8 M3 G2 4.150
## 9 M4 G2 1.970
## 10 M5 G2 4.390
## 11 M1 G3 13.050
## 12 M2 G3 11.200
## 13 M3 G3 9.790
## 14 M4 G3 8.970
## 15 M5 G3 13.440
## 16 M1 G4 10.260
## 17 M2 G4 7.210
## 18 M3 G4 8.270
## 19 M4 G4 6.120
## 20 M5 G4 9.130
## 21 M1 G5 8.010
## 22 M2 G5 3.240
## 23 M3 G5 6.750
## 24 M4 G5 4.220
## 25 M5 G5 9.200
## 26 M1 G6 8.420
## 27 M2 G6 6.450
## 28 M3 G6 5.500
## 29 M4 G6 7.840
## 30 M5 G6 7.130
rep3<-aov(algodon2~gran2+metod2)
summary(rep3)
## Df Sum Sq Mean Sq F value Pr(>F)
## gran2 1 0.08 0.078 0.010 0.922
## metod2 1 0.73 0.730 0.091 0.765
## Residuals 27 216.23 8.009
Proponga un promedio basado en la medida de M1 con los datos disponibles, pero sumando una cantidad delta de modo que el coeficiente de variación entre las seis mediciones sea menor al 20%.
\[ \bar X={x_1+6.75+13.05+10.26+8.01+8.42 \over 6} \\ \bar X={x_1 \over 6}+{6.75+13.05+10.26+8.01+8.42 \over 6} \\ \bar X={x_1 \over 6}+7.75 \\ \bar X = \delta +7.75 \]
Expresión del coeficiente de variación
\[{\sqrt{{\sum_{i=1}^{6}(X_i-7.75-\delta)^2 \over 5}} \over 7.75+ \delta} <0.2 \\ {\sqrt{(X_1-7.75-\delta)^2+(6.75-7.75-\delta)^2+\cdots+(8.42-7.75-\delta)^2\over 5}\over7.75+\delta}<0.2\]
mifuncion<-function(x){(sqrt(((x-7.75-(x/6))^2+(6.75-7.75-(x/6))^2+(13.05-7.75-(x/6))^2+(10.26-7.75-(x/6))^2+(8.01-7.75-(x/6))^2+(8.42-7.75-(x/6))^2)/6))/(7.75+(x/6))}
optim(0.2, mifuncion, method="Brent", lower=5,
upper=13)
## $par
## [1] 9.812537
##
## $value
## [1] 0.2137424
##
## $counts
## function gradient
## NA NA
##
## $convergence
## [1] 0
##
## $message
## NULL
metod3<-c(rep(c(1,2,3,4,5),6));metod3
## [1] 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5
gran3<-c(rep(1,5),rep(2,5),rep(3,5),rep(4,5),rep(5,5),rep(6,5));gran3
## [1] 1 1 1 1 1 2 2 2 2 2 3 3 3 3 3 4 4 4 4 4 5 5 5 5 5 6 6 6 6 6
algodon3<-c(9.81,5.54,7.67,7.89,9.27,6.75,3.53,4.15,1.97,4.39,13.05,11.20,9.79,8.97,13.44,10.26,7.21,8.27,6.12,9.13,8.01,3.24,6.75,4.22,9.20,8.42,6.45,5.50,7.84,7.13)
datos3<-data.frame(metod3=factor(metod3,labels = c("M1","M2","M3","M4","M5")),gran3=factor(gran3,labels=c("G1","G2","G3","G4","G5","G6")),algodon3)
datos3
## metod3 gran3 algodon3
## 1 M1 G1 9.81
## 2 M2 G1 5.54
## 3 M3 G1 7.67
## 4 M4 G1 7.89
## 5 M5 G1 9.27
## 6 M1 G2 6.75
## 7 M2 G2 3.53
## 8 M3 G2 4.15
## 9 M4 G2 1.97
## 10 M5 G2 4.39
## 11 M1 G3 13.05
## 12 M2 G3 11.20
## 13 M3 G3 9.79
## 14 M4 G3 8.97
## 15 M5 G3 13.44
## 16 M1 G4 10.26
## 17 M2 G4 7.21
## 18 M3 G4 8.27
## 19 M4 G4 6.12
## 20 M5 G4 9.13
## 21 M1 G5 8.01
## 22 M2 G5 3.24
## 23 M3 G5 6.75
## 24 M4 G5 4.22
## 25 M5 G5 9.20
## 26 M1 G6 8.42
## 27 M2 G6 6.45
## 28 M3 G6 5.50
## 29 M4 G6 7.84
## 30 M5 G6 7.13
rep4<-aov(algodon3~gran3+metod3)
summary(rep4)
## Df Sum Sq Mean Sq F value Pr(>F)
## gran3 1 0.17 0.172 0.021 0.885
## metod3 1 0.97 0.973 0.120 0.731
## Residuals 27 218.00 8.074