Los métodos a continuación se encuentran en el PDF de la librería:Agricolae que puede acceder dandole clic.

Punto 1

Diseño en Bloques incompletos Balanceados (página 14) (Finding the Variance Analysis of the Balanced Incomplete Block Design / Función: BIB.test()

\[y_{ij}= \mu + \tau_i + \beta_j + \epsilon_{ij}\]

\(y_{ij}=\) observación muestral

\(\mu=\) Media Ajustada

\(\tau_i=\) Efecto del \(i~ésimo\) tratamiento

\(\beta_j=\) Efecto del \(j~ésimo\) bloque

\(\epsilon_{ij}=\) Error aleatorio

\[H_0= \hat\mu_1= \cdots= \hat\mu_5 \\ H_a= Almenos~uno~es~diferente\]

run= gl(10,3) #número de bloques y unidad experimental

psi= c(250,325,475,
       250,475,550,
       325,400,550,
       400,475,550,
       325,475,550,
       250,400,475,
       250,325,400,
       250,400,550,
       250,325,550,
       325,400,475) #Tratamientos del Experimento

monovinyl = c(16,18,32,
              19,46,45,
              26,39,61,
              21,35,55,
              19,47,48,
              20,33,31,
              13,13,34,
              21,30,52,
              24,10,50,
              24,31,37) #Respuestas del Experimento

out= BIB.test(run,psi,monovinyl,test = "waller", group = FALSE); out
## $parameters
##   lambda treatmeans blockSize blocks r alpha test
##        3          5         3     10 6  0.05  BIB
## 
## $statistics
##       Mean Efficiency       CV
##   31.66667  0.8333333 17.53667
## 
## $comparison
##           Difference significant
## 250 - 325   2.933333       FALSE
## 250 - 400 -10.400000        TRUE
## 250 - 475 -18.333333        TRUE
## 250 - 550 -30.200000        TRUE
## 325 - 400 -13.333333        TRUE
## 325 - 475 -21.266667        TRUE
## 325 - 550 -33.133333        TRUE
## 400 - 475  -7.933333        TRUE
## 400 - 550 -19.800000        TRUE
## 475 - 550 -11.866667        TRUE
## 
## $means
##     monovinyl mean.adj       SE r      std Min Max   Q25  Q50   Q75
## 250  18.83333 20.46667 2.441759 6 3.868678  13  24 16.75 19.5 20.75
## 325  18.33333 17.53333 2.441759 6 6.153590  10  26 14.25 18.5 22.75
## 400  31.33333 30.86667 2.441759 6 5.955390  21  39 30.25 32.0 33.75
## 475  38.00000 38.80000 2.441759 6 6.928203  31  47 32.75 36.0 43.75
## 550  51.83333 50.66667 2.441759 6 5.636193  45  61 48.50 51.0 54.25
## 
## $groups
## NULL
## 
## attr(,"class")
## [1] "group"
bar.err(out$means,variation = "range", ylim=c(0,60),bar = FALSE,col=0)

out= BIB.test(run,psi,monovinyl,test = "waller", group = TRUE)
out= BIB.test(run,psi,monovinyl,test = "tukey", group = TRUE, console = TRUE)
## 
## ANALYSIS BIB:  monovinyl 
## Class level information
## 
## Block:  1 2 3 4 5 6 7 8 9 10
## Trt  :  250 325 475 550 400
## 
## Number of observations:  30 
## 
## Analysis of Variance Table
## 
## Response: monovinyl
##             Df Sum Sq Mean Sq F value    Pr(>F)    
## block.unadj  9 1394.7  154.96  5.0249  0.002529 ** 
## trt.adj      4 3688.6  922.14 29.9020 3.026e-07 ***
## Residuals   16  493.4   30.84                      
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## coefficient of variation: 17.5 %
## monovinyl Means: 31.66667 
## 
## psi,  statistics
## 
##     monovinyl mean.adj       SE r      std Min Max
## 250  18.83333 20.46667 2.441759 6 3.868678  13  24
## 325  18.33333 17.53333 2.441759 6 6.153590  10  26
## 400  31.33333 30.86667 2.441759 6 5.955390  21  39
## 475  38.00000 38.80000 2.441759 6 6.928203  31  47
## 550  51.83333 50.66667 2.441759 6 5.636193  45  61
## 
## Tukey
## Alpha      : 0.05
## Std.err    : 2.483501
## HSD        : 10.76024
## Parameters BIB
## Lambda     : 3
## treatmeans : 5
## Block size : 3
## Blocks     : 10
## Replication: 6 
## 
## Efficiency factor 0.8333333 
## 
## <<< Book >>>
## 
## Comparison between treatments means
##           Difference pvalue sig.
## 250 - 325   2.933333 0.9157     
## 250 - 400 -10.400000 0.0607    .
## 250 - 475 -18.333333 0.0007  ***
## 250 - 550 -30.200000 0.0000  ***
## 325 - 400 -13.333333 0.0118    *
## 325 - 475 -21.266667 0.0001  ***
## 325 - 550 -33.133333 0.0000  ***
## 400 - 475  -7.933333 0.2087     
## 400 - 550 -19.800000 0.0003  ***
## 475 - 550 -11.866667 0.0272    *
## 
## Treatments with the same letter are not significantly different.
## 
##     monovinyl groups
## 550  50.66667      a
## 475  38.80000      b
## 400  30.86667     bc
## 250  20.46667     cd
## 325  17.53333      d
out= BIB.test(run,psi,monovinyl,test = "tukey", group = FALSE, console = TRUE)
## 
## ANALYSIS BIB:  monovinyl 
## Class level information
## 
## Block:  1 2 3 4 5 6 7 8 9 10
## Trt  :  250 325 475 550 400
## 
## Number of observations:  30 
## 
## Analysis of Variance Table
## 
## Response: monovinyl
##             Df Sum Sq Mean Sq F value    Pr(>F)    
## block.unadj  9 1394.7  154.96  5.0249  0.002529 ** 
## trt.adj      4 3688.6  922.14 29.9020 3.026e-07 ***
## Residuals   16  493.4   30.84                      
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## coefficient of variation: 17.5 %
## monovinyl Means: 31.66667 
## 
## psi,  statistics
## 
##     monovinyl mean.adj       SE r      std Min Max
## 250  18.83333 20.46667 2.441759 6 3.868678  13  24
## 325  18.33333 17.53333 2.441759 6 6.153590  10  26
## 400  31.33333 30.86667 2.441759 6 5.955390  21  39
## 475  38.00000 38.80000 2.441759 6 6.928203  31  47
## 550  51.83333 50.66667 2.441759 6 5.636193  45  61
## 
## Tukey
## Alpha      : 0.05
## Std.err    : 2.483501
## HSD        : 10.76024
## Parameters BIB
## Lambda     : 3
## treatmeans : 5
## Block size : 3
## Blocks     : 10
## Replication: 6 
## 
## Efficiency factor 0.8333333 
## 
## <<< Book >>>
## 
## Comparison between treatments means
##           Difference pvalue sig.
## 250 - 325   2.933333 0.9157     
## 250 - 400 -10.400000 0.0607    .
## 250 - 475 -18.333333 0.0007  ***
## 250 - 550 -30.200000 0.0000  ***
## 325 - 400 -13.333333 0.0118    *
## 325 - 475 -21.266667 0.0001  ***
## 325 - 550 -33.133333 0.0000  ***
## 400 - 475  -7.933333 0.2087     
## 400 - 550 -19.800000 0.0003  ***
## 475 - 550 -11.866667 0.0272    *

Media global (mean)= 950/30-31.6 Coeficiente de Variación (CV) Comparación / Diferencia= \(mean.adj_{t_1}-mean.adj_{t_2}\) Error Estandar Global (SE)

Conclusión:

Se concluye que se rechaza \(H_0\) es decir al menos una de las medias ajustadas del experimento es diferente.

punto 2

Diseño carolina 1,2,3 página 16 (North Carolina Designs I, II and III) / Función: carolina ()

Carolina 1

\[y_{ihklt}= \mu+\tau_i+\beta_{ij}+\alpha_{ik}+\rho_{ikl}+\beta\rho_{ijkl} +\epsilon_{ijklt}\]

\(y_{ijklt}=\)Variable Respuesta

\(\mu=\)Media General

\(\tau_{ij}=\)Efecto del i~ésimo set

\(\beta_{ij}=\)Efecto del J~ésimo bloque en el i~ésimo set

\(\alpha_{ik}=\)Efecto del k~ésimo macho i~ésimo set

\(\rho_{ikl}=\)Efecto de la i~ésima hembra cruzada con el k~ésimo macho,i~ésimo set

\(\beta\rho_{ijkl}=\)Efecto de interacción

\(\epsilon_{ijklt}=\)Error asociado a cada observación

\[H_0= var_{F2}=var{F3}\\ H_a= var_{f2}\neq var_{F3}\]

data(DC)
carolina1 = DC$carolina1
str(carolina1)
## 'data.frame':    72 obs. of  6 variables:
##  $ set     : int  1 1 1 1 1 1 1 1 1 1 ...
##  $ male    : int  1 1 1 1 1 1 1 1 1 1 ...
##  $ female  : int  1 1 1 2 2 2 1 1 1 2 ...
##  $ progenie: int  1 2 3 1 2 3 1 2 3 1 ...
##  $ rep     : int  1 1 1 1 1 1 2 2 2 2 ...
##  $ yield   : num  3.6 3.4 3.1 3.8 3.6 3.2 3.5 3.7 3.6 3.1 ...
output= carolina(model=1,carolina1)
## Response(y):  yield 
## 
## Analysis of Variance Table
## 
## Response: y
##                             Df  Sum Sq Mean Sq F value    Pr(>F)    
## set                          1  0.5339  0.5339  7.2120 0.0099144 ** 
## set:replication              2  2.9894  1.4947 20.1914 4.335e-07 ***
## set:male                     4 22.1711  5.5428 74.8743 < 2.2e-16 ***
## set:male:female              6  4.8250  0.8042 10.8630 1.311e-07 ***
## set:replication:male:female 10  3.2072  0.3207  4.3325 0.0002462 ***
## Residuals                   48  3.5533  0.0740                      
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## CV: 8.286715     Mean: 3.283333
output[][-1]
## $var.m
## [1] 0.3948843
## 
## $var.f
## [1] 0.08057407
## 
## $var.A
## [1] 1.579537
## 
## $var.D
## [1] -1.257241

Conclusión:

Ya que los experimentos de Carolina son problemas de progenie y se observa que la varianza aditiva nos da positiva(1.579) y la varianza dominante negativa(-1.257) se puede deducir que se rechaza \(H_0\) porque la varianza de la F2 no es igual al de la F3 ya que la F3 posee más variabilidad genética (Varianza Aditiva) y menos variabilidad fenotipica (Varianza Dominante).

####Carolina 3

Ejercicio basado en el documento “El uso del diseño de bloques aumentados en la selección de clones de camote (Ipomoea batatas L.) August 2009”

carolina3= DC$carolina3
str(carolina3)
## 'data.frame':    64 obs. of  5 variables:
##  $ set   : num  1 1 1 1 1 1 1 1 1 1 ...
##  $ male  : num  1 2 3 4 1 2 3 4 1 2 ...
##  $ female: num  1 1 1 1 2 2 2 2 1 1 ...
##  $ rep   : num  1 1 1 1 1 1 1 1 2 2 ...
##  $ yield : num  4.2 5.7 5.3 2.2 3.8 3.7 3.3 5.8 3.8 5 ...
View(carolina3)
butput= carolina(model = 3,carolina3)
## Response(y):  yield 
## 
## Analysis of Variance Table
## 
## Response: y
##                 Df Sum Sq Mean Sq F value   Pr(>F)   
## set              3  2.795 0.93167  1.2784 0.300965   
## set:replication  4  3.205 0.80125  1.0995 0.376215   
## set:female       4  1.930 0.48250  0.6621 0.623525   
## set:male        12 20.970 1.74750  2.3979 0.027770 * 
## set:female:male 12 27.965 2.33042  3.1978 0.005493 **
## Residuals       28 20.405 0.72875                    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## CV: 21.95932     Mean: 3.8875
output[][-1]
## $var.m
## [1] 0.3948843
## 
## $var.f
## [1] 0.08057407
## 
## $var.A
## [1] 1.579537
## 
## $var.D
## [1] -1.257241

Punto 3

Diseño en bloque aumentados Pagina 29(Finding the Variance Analysis of the Augmented block Design) / Función: DAU.test()

\[y_{ij}=\mu+\tau_i+\beta_j+\epsilon_{ij}\]

\[H_0= \mu_A=\cdots=\mu_k\\ H_a=Almenos~uno~es~diferente\]

block= c(rep("I",7),
         rep("II",6),
         rep("III",7))

#Tratamientos control A,B,C y D
#Aumentados g,k,l,e,i,f,h y j
trt= c("A","B","C","D","g","k","l",
       "A","B","C","D","e","i",
       "A","B","C","D","f","h","j")

yield= c(83,77,78,78,70,75,74,
         79,81,81,91,79,78,
         92,79,87,81,89,96,82)

out = DAU.test(block,trt,yield,method = "lsd",group = TRUE,console = TRUE); out
## 
## ANALYSIS DAU:  yield 
## Class level information
## 
## Block:  I II III
## Trt  :  A B C D e f g h i j k l
## 
## Number of observations:  20 
## 
## ANOVA, Treatment Adjusted
## Analysis of Variance Table
## 
## Response: yield
##                           Df Sum Sq Mean Sq F value Pr(>F)
## block.unadj                2 360.07 180.036               
## trt.adj                   11 285.10  25.918  0.9609 0.5499
## Control                    3  52.92  17.639  0.6540 0.6092
## Control + control.VS.aug.  8 232.18  29.022  1.0760 0.4779
## Residuals                  6 161.83  26.972               
## 
## ANOVA, Block Adjusted
## Analysis of Variance Table
## 
## Response: yield
##                      Df Sum Sq Mean Sq F value Pr(>F)
## trt.unadj            11 575.67  52.333               
## block.adj             2  69.50  34.750  1.2884 0.3424
## Control               3  52.92  17.639  0.6540 0.6092
## Augmented             7 505.87  72.268  2.6793 0.1253
## Control vs augmented  1  16.88  16.875  0.6256 0.4591
## Residuals             6 161.83  26.972               
## 
## coefficient of variation: 6.4 %
## yield Means: 81.5 
## 
## Critical Differences (Between)
##                                               Std Error Diff.
## Two Control Treatments                               4.240458
## Two Augmented Treatments (Same Block)                7.344688
## Two Augmented Treatments(Different Blocks)           8.211611
## A Augmented Treatment and A Control Treatment        6.360687
## 
## 
## Treatments with the same letter are not significantly different.
## 
##      yield groups
## h 93.50000      a
## f 86.50000     ab
## A 84.66667     ab
## D 83.33333     ab
## C 82.00000     ab
## j 79.50000     ab
## B 79.00000     ab
## e 78.25000     ab
## k 78.25000     ab
## i 77.25000     ab
## l 77.25000     ab
## g 73.25000      b
## 
## Comparison between treatments means
## 
## <<< to see the objects: comparison and means  >>>
## $means
##      yield      std r Min Max  Q25 Q50  Q75 mean.adj       SE block
## A 84.66667 6.658328 3  79  92 81.0  83 87.5 84.66667 2.998456      
## B 79.00000 2.000000 3  77  81 78.0  79 80.0 79.00000 2.998456      
## C 82.00000 4.582576 3  78  87 79.5  81 84.0 82.00000 2.998456      
## D 83.33333 6.806859 3  78  91 79.5  81 86.0 83.33333 2.998456      
## e 79.00000       NA 1  79  79 79.0  79 79.0 78.25000 5.193479    II
## f 89.00000       NA 1  89  89 89.0  89 89.0 86.50000 5.193479   III
## g 70.00000       NA 1  70  70 70.0  70 70.0 73.25000 5.193479     I
## h 96.00000       NA 1  96  96 96.0  96 96.0 93.50000 5.193479   III
## i 78.00000       NA 1  78  78 78.0  78 78.0 77.25000 5.193479    II
## j 82.00000       NA 1  82  82 82.0  82 82.0 79.50000 5.193479   III
## k 75.00000       NA 1  75  75 75.0  75 75.0 78.25000 5.193479     I
## l 74.00000       NA 1  74  74 74.0  74 74.0 77.25000 5.193479     I
## 
## $parameters
##   test name.t ntr Controls Augmented blocks alpha
##    DAU    trt  12        4         8      3  0.05
## 
## $statistics
##   Mean  CV
##   81.5 6.4
## 
## $comparison
## NULL
## 
## $groups
##      yield groups
## h 93.50000      a
## f 86.50000     ab
## A 84.66667     ab
## D 83.33333     ab
## C 82.00000     ab
## j 79.50000     ab
## B 79.00000     ab
## e 78.25000     ab
## k 78.25000     ab
## i 77.25000     ab
## l 77.25000     ab
## g 73.25000      b
## 
## $SE.difference
##                                               Std Error Diff.
## Two Control Treatments                               4.240458
## Two Augmented Treatments (Same Block)                7.344688
## Two Augmented Treatments(Different Blocks)           8.211611
## A Augmented Treatment and A Control Treatment        6.360687
## 
## $vartau
##          A        B        C        D        e        f        g        h
## A  0.00000 17.98148 17.98148 17.98148 40.45833 40.45833 40.45833 40.45833
## B 17.98148  0.00000 17.98148 17.98148 40.45833 40.45833 40.45833 40.45833
## C 17.98148 17.98148  0.00000 17.98148 40.45833 40.45833 40.45833 40.45833
## D 17.98148 17.98148 17.98148  0.00000 40.45833 40.45833 40.45833 40.45833
## e 40.45833 40.45833 40.45833 40.45833  0.00000 67.43056 67.43056 67.43056
## f 40.45833 40.45833 40.45833 40.45833 67.43056  0.00000 67.43056 53.94444
## g 40.45833 40.45833 40.45833 40.45833 67.43056 67.43056  0.00000 67.43056
## h 40.45833 40.45833 40.45833 40.45833 67.43056 53.94444 67.43056  0.00000
## i 40.45833 40.45833 40.45833 40.45833 53.94444 67.43056 67.43056 67.43056
## j 40.45833 40.45833 40.45833 40.45833 67.43056 53.94444 67.43056 53.94444
## k 40.45833 40.45833 40.45833 40.45833 67.43056 67.43056 53.94444 67.43056
## l 40.45833 40.45833 40.45833 40.45833 67.43056 67.43056 53.94444 67.43056
##          i        j        k        l
## A 40.45833 40.45833 40.45833 40.45833
## B 40.45833 40.45833 40.45833 40.45833
## C 40.45833 40.45833 40.45833 40.45833
## D 40.45833 40.45833 40.45833 40.45833
## e 53.94444 67.43056 67.43056 67.43056
## f 67.43056 53.94444 67.43056 67.43056
## g 67.43056 67.43056 53.94444 53.94444
## h 67.43056 53.94444 67.43056 67.43056
## i  0.00000 67.43056 67.43056 67.43056
## j 67.43056  0.00000 67.43056 67.43056
## k 67.43056 67.43056  0.00000 53.94444
## l 67.43056 67.43056 53.94444  0.00000
## 
## attr(,"class")
## [1] "group"
print(out$groups)
##      yield groups
## h 93.50000      a
## f 86.50000     ab
## A 84.66667     ab
## D 83.33333     ab
## C 82.00000     ab
## j 79.50000     ab
## B 79.00000     ab
## e 78.25000     ab
## k 78.25000     ab
## i 77.25000     ab
## l 77.25000     ab
## g 73.25000      b
plot(out)
## 
## Warning  values plot is not adjusted

Conclusión:

En este experimento de bloques aumentados se logra observar que aquellos tratamientos que poseen la misma letra no son significativamente diferentes, esto nos quiere decir que el tratamiento \(h\) que pertenece al grupo “a” es aquel que posee mayor rendimiento porque posee una media mayor entre todos los tratamientos.

Punto 6

Diseño Grecolatino Pagina 41 (Graeco - latin square design) /Función: design.graeco ()

\[y_{ijkl}= \mu+\theta_i+\tau_j+\omega_k+\psi_l+\epsilon{ijkl}\\i=1,2,\cdots,\rho\\ j=1,2,\cdots,\rho\\ k=1,2,\cdots,\rho\\ l=1,2,\cdots,\rho\\\]

\(y_{ijkl}=\)Observación en la fila \(i\), la columna \(l\), para la letra latina \(j\) y la letra griega \(k\)

\(\mu=\)Media Global

\(\theta_i=\)Efecto de la \(i~ésima\) fila

\(\tau_j=\)Efecto del tratamiento \(j\) de la letra latina

\(\omega_k=\)Efecto del tratamiento de la letra griega \(k\)

\(\psi_l=\)Efecto de la columna \(l\)

\(\epsilon_{ijkl}=\)Error aleatorio

tempe= c("T1","T1","T1","T1",
         "T2","T2","T2","T2",
         "T3","T3","T3","T3",
         "T4","T4","T4","T4")

proce= c("P1","P2","P3","P4",
         "P1","P2","P3","P4",
         "P1","P2","P3","P4",
         "P1","P2","P3","P4")

llatin= c(3,2,4,1,
         2,3,1,4,
         1,4,2,3,
         4,1,3,2)
lgrec= c(2,3,4,1,
        1,4,3,2,
        4,1,2,3,
        3,2,1,4)
y_i= c(5,12,13,13,
       6,10,15,11,
       7,5,5,7,
       11,10,8,9)

tempe= factor(tempe)
proce= factor(proce)
llatin= factor(llatin)
lgrec= factor(lgrec)

data1= data.frame(tempe,proce,llatin,lgrec,y_i)
graeco= design.graeco(llatin,lgrec,serie=0)
## not implemented design  16 x 16 , see help(design.graeco)
graeco1= graeco$book
plots= as.numeric(graeco1[,1]);plots
## numeric(0)
print(matrix(plots,byrow = TRUE,ncol=4))
##      [,1] [,2] [,3] [,4]
cathe= lm(y_i~proce+tempe+llatin+lgrec)
Anova= aov(cathe)
summary(Anova)
##             Df Sum Sq Mean Sq F value Pr(>F)  
## proce        3  22.19   7.396   6.017 0.0873 .
## tempe        3  57.69  19.229  15.644 0.0245 *
## llatin       3  36.69  12.229   9.949 0.0456 *
## lgrec        3  32.19  10.729   8.729 0.0542 .
## Residuals    3   3.69   1.229                 
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Conclusión:

En este diseño Gracolatino se puede observar en los resultados que la Temperatura esta ligada con el Catalizador, pero la Presión no esta ligada con el metodo de Producción, teniendo en cuenta que son significativamente diferentes la Presión con la temperatura.

punto 7

Diseño Lattice Pagina 43 (Lattice designs) /Función: design.lattice ()

library(agricolae)
set.seed(123)
trt=1:9
rta= rnorm(36,30,0.8)
outdesign= design.lattice(trt,r=3) # triple lattice design ( 9 trt desde A-I)
## 
## Lattice design,  triple   3 x 3 
## 
## Efficiency factor
## (E ) 0.7272727 
## 
## <<< Book >>>
outdesign
## $parameters
## $parameters$design
## [1] "lattice"
## 
## $parameters$type
## [1] "triple"
## 
## $parameters$trt
## [1] 1 2 3 4 5 6 7 8 9
## 
## $parameters$r
## [1] 3
## 
## $parameters$serie
## [1] 2
## 
## $parameters$seed
## [1] 515190382
## 
## $parameters$kinds
## [1] "Super-Duper"
## 
## 
## $statistics
##        treatmens blockSize blocks Efficiency
## values         9         3      3  0.7272727
## 
## $sketch
## $sketch$rep1
##      [,1] [,2] [,3]
## [1,] "4"  "1"  "8" 
## [2,] "2"  "7"  "6" 
## [3,] "3"  "9"  "5" 
## 
## $sketch$rep2
##      [,1] [,2] [,3]
## [1,] "5"  "6"  "8" 
## [2,] "9"  "7"  "1" 
## [3,] "3"  "2"  "4" 
## 
## $sketch$rep3
##      [,1] [,2] [,3]
## [1,] "5"  "2"  "1" 
## [2,] "9"  "6"  "4" 
## [3,] "3"  "7"  "8" 
## 
## 
## $book
##    plots r block trt
## 1    101 1     1   4
## 2    102 1     1   1
## 3    103 1     1   8
## 4    104 1     2   2
## 5    105 1     2   7
## 6    106 1     2   6
## 7    107 1     3   3
## 8    108 1     3   9
## 9    109 1     3   5
## 10   201 2     4   5
## 11   202 2     4   6
## 12   203 2     4   8
## 13   204 2     5   9
## 14   205 2     5   7
## 15   206 2     5   1
## 16   207 2     6   3
## 17   208 2     6   2
## 18   209 2     6   4
## 19   301 3     7   5
## 20   302 3     7   2
## 21   303 3     7   1
## 22   304 3     8   9
## 23   305 3     8   6
## 24   306 3     8   4
## 25   307 3     9   3
## 26   308 3     9   7
## 27   309 3     9   8

Si se desea completar para un latice balanceado, se agregaria el cuadro faltante distribuido aleatoriamente que seria:

2 | 3 | 5 |
4 | 9 | 8 |
7 | 6 | 1 |
r=c(rep(1,9),rep(2,9),rep(3,9),rep(4,9))
bloque= c(rep(1,3),rep(2,3),rep(3,3),rep(4,3),rep(5,3),rep(6,3),rep(7,3),rep(8,3),rep(9,3),rep(10,3),rep(11,3),rep(12,3))
trt= c(4,2,5,9,1,8,7,6,3,5,3,8,2,6,1,4,7,9,5,6,9,2,7,8,4,3,1,2,3,5,4,9,8,7,6,1)
A= data.frame(r,bloque,trt,rta)#r=repeticion #trt=tratamiento #rta=respuesta 
library(corpcor)
## Warning: package 'corpcor' was built under R version 4.0.3
str(A)
## 'data.frame':    36 obs. of  4 variables:
##  $ r     : num  1 1 1 1 1 1 1 1 1 2 ...
##  $ bloque: num  1 1 1 2 2 2 3 3 3 4 ...
##  $ trt   : num  4 2 5 9 1 8 7 6 3 5 ...
##  $ rta   : num  29.6 29.8 31.2 30.1 30.1 ...
attach(A)
## The following objects are masked _by_ .GlobalEnv:
## 
##     bloque, r, rta, trt
str(PBIB.test)
## function (block, trt, replication, y, k, method = c("REML", "ML", "VC"), 
##     test = c("lsd", "tukey"), alpha = 0.05, console = FALSE, group = TRUE)
PBIB.test(bloque,trt,r,rta,k=3)
## 
## <<< to see the objects: means, comparison and groups. >>>
model<-PBIB.test(bloque,trt,r,rta,k=3)
## 
## <<< to see the objects: means, comparison and groups. >>>
model
## $ANOVA
## Analysis of Variance Table
## 
## Response: rta
##           Df Sum Sq Mean Sq F value Pr(>F)
## trt        8 5.3487 0.66859  1.3421 0.2926
## Residuals 16 7.9708 0.49817               
## 
## $method
## [1] "Residual (restricted) maximum likelihood"
## 
## $parameters
##       test name.t treatments blockSize blocks r alpha
##   PBIB-lsd    trt          9         3      3 4  0.05
## 
## $statistics
##   Efficiency     Mean       CV
##         0.75 30.04448 2.349228
## 
## $model
## Linear mixed-effects model fit by REML
##   Data: NULL 
##   Log-restricted-likelihood: -35.87986
##   Fixed: y ~ trt.adj 
## (Intercept)    trt.adj2    trt.adj3    trt.adj4    trt.adj5    trt.adj6 
## 30.21997478 -0.19877635 -0.67749504 -0.01440229  0.39366865 -0.38109255 
##    trt.adj7    trt.adj8    trt.adj9 
## -0.05779563  0.22824787 -0.87177557 
## 
## Random effects:
##  Formula: ~1 | replication
##         (Intercept)
## StdDev:   0.1874251
## 
##  Formula: ~1 | block.adj %in% replication
##         (Intercept)  Residual
## StdDev: 2.67029e-05 0.7058133
## 
## Number of Observations: 36
## Number of Groups: 
##                replication block.adj %in% replication 
##                          4                         12 
## 
## $Fstat
##                       Fit Statistics
## AIC                         95.75973
## BIC                        111.30977
## -2 Res Log Likelihood      -35.87986
## 
## $comparison
##        Difference    stderr pvalue
## 1 - 2  0.19877635 0.4990854 0.6956
## 1 - 3  0.67749504 0.4990854 0.1934
## 1 - 4  0.01440229 0.4990854 0.9774
## 1 - 5 -0.39366865 0.4990854 0.4418
## 1 - 6  0.38109255 0.4990854 0.4562
## 1 - 7  0.05779563 0.4990854 0.9092
## 1 - 8 -0.22824787 0.4990854 0.6536
## 1 - 9  0.87177557 0.4990854 0.0998
## 2 - 3  0.47871869 0.4990854 0.3518
## 2 - 4 -0.18437405 0.4990854 0.7166
## 2 - 5 -0.59244500 0.4990854 0.2526
## 2 - 6  0.18231620 0.4990854 0.7196
## 2 - 7 -0.14098071 0.4990854 0.7812
## 2 - 8 -0.42702422 0.4990854 0.4048
## 2 - 9  0.67299923 0.4990854 0.1962
## 3 - 4 -0.66309275 0.4990854 0.2026
## 3 - 5 -1.07116369 0.4990854 0.0476
## 3 - 6 -0.29640249 0.4990854 0.5608
## 3 - 7 -0.61969940 0.4990854 0.2322
## 3 - 8 -0.90574291 0.4990854 0.0884
## 3 - 9  0.19428053 0.4990854 0.7022
## 4 - 5 -0.40807094 0.4990854 0.4256
## 4 - 6  0.36669026 0.4990854 0.4732
## 4 - 7  0.04339334 0.4990854 0.9318
## 4 - 8 -0.24265016 0.4990854 0.6334
## 4 - 9  0.85737328 0.4990854 0.1052
## 5 - 6  0.77476120 0.4990854 0.1402
## 5 - 7  0.45146429 0.4990854 0.3792
## 5 - 8  0.16542078 0.4990854 0.7446
## 5 - 9  1.26544423 0.4990854 0.0220
## 6 - 7 -0.32329691 0.4990854 0.5264
## 6 - 8 -0.60934042 0.4990854 0.2398
## 6 - 9  0.49068302 0.4990854 0.3402
## 7 - 8 -0.28604350 0.4990854 0.5746
## 7 - 9  0.81397994 0.4990854 0.1224
## 8 - 9  1.10002344 0.4990854 0.0426
## 
## $means
##        rta  rta.adj        SE r       std      Min      Max      Q25      Q50
## 1 30.21997 30.21997 0.3651372 4 0.5058288 29.55533 30.67023 29.96640 30.32717
## 2 30.02120 30.02120 0.3651372 4 0.2452002 29.81586 30.32062 29.82318 29.97416
## 3 29.54248 29.54248 0.3651372 4 1.0121558 28.65065 30.97927 28.97978 29.27000
## 4 30.20557 30.20557 0.3651372 4 0.9022180 29.49997 31.42953 29.53871 29.94640
## 5 30.61364 30.61364 0.3651372 4 0.7063369 29.64347 31.24697 30.33168 30.78207
## 6 29.83888 29.83888 0.3651372 4 0.7078854 28.98795 30.65726 29.46331 29.85516
## 7 30.16218 30.16218 0.3651372 4 0.6724624 29.17920 30.70251 30.07135 30.38351
## 8 30.44822 30.44822 0.3651372 4 0.8194696 29.41689 31.37205 30.07011 30.50198
## 9 29.34820 29.34820 0.3651372 4 0.7221586 28.42671 30.05641 28.96598 29.45484
##        Q75
## 1 30.58074
## 2 30.17218
## 3 29.83270
## 4 30.61326
## 5 31.06403
## 6 30.23073
## 7 30.47434
## 8 30.88009
## 9 29.83706
## 
## $groups
##    rta.adj groups
## 5 30.61364      a
## 8 30.44822     ab
## 1 30.21997    abc
## 4 30.20557    abc
## 7 30.16218    abc
## 2 30.02120    abc
## 6 29.83888    abc
## 3 29.54248     bc
## 9 29.34820      c
## 
## $vartau
##            trt.adj1   trt.adj2   trt.adj3   trt.adj4   trt.adj5   trt.adj6
## trt.adj1 0.13332515 0.00878204 0.00878204 0.00878204 0.00878204 0.00878204
## trt.adj2 0.00878204 0.13332515 0.00878204 0.00878204 0.00878204 0.00878204
## trt.adj3 0.00878204 0.00878204 0.13332515 0.00878204 0.00878204 0.00878204
## trt.adj4 0.00878204 0.00878204 0.00878204 0.13332515 0.00878204 0.00878204
## trt.adj5 0.00878204 0.00878204 0.00878204 0.00878204 0.13332515 0.00878204
## trt.adj6 0.00878204 0.00878204 0.00878204 0.00878204 0.00878204 0.13332515
## trt.adj7 0.00878204 0.00878204 0.00878204 0.00878204 0.00878204 0.00878204
## trt.adj8 0.00878204 0.00878204 0.00878204 0.00878204 0.00878204 0.00878204
## trt.adj9 0.00878204 0.00878204 0.00878204 0.00878204 0.00878204 0.00878204
##            trt.adj7   trt.adj8   trt.adj9
## trt.adj1 0.00878204 0.00878204 0.00878204
## trt.adj2 0.00878204 0.00878204 0.00878204
## trt.adj3 0.00878204 0.00878204 0.00878204
## trt.adj4 0.00878204 0.00878204 0.00878204
## trt.adj5 0.00878204 0.00878204 0.00878204
## trt.adj6 0.00878204 0.00878204 0.00878204
## trt.adj7 0.13332515 0.00878204 0.00878204
## trt.adj8 0.00878204 0.13332515 0.00878204
## trt.adj9 0.00878204 0.00878204 0.13332515
## 
## attr(,"class")
## [1] "group"
plot(model,las=2)
## 
## Warning  values plot is not adjusted

Conclusión:

De la grafica se puede inferir que el tratamiento 5 es el que genera más productividad por lo tanto es el mejor tratamiento, y el menos productivo seria el tratamiento 3.

Punto 8

Diseño cuadrado latino Pagina 44 (Latin Square Design) /Función: design.lsd()

\[y_{ijk}=\mu+\alpha_i+\tau_j+\beta_k+\epsilon_{ijk}\\ i=1,\cdots,\rho\\ j=1,\cdots,\rho\\ k=1,\cdots,\rho\\\]

\(y_{ijk}=\)Es la observación de la $i~ésima $ fila, \(k~ésima\) columna y \(k~ésimo\) tratamiento

\(\mu=\)Media general

\(\alpha_i=\)El efecto de la \(i~ésima\) fila

\(\tau_j=\)El efecto del \(j~ésimo\) tratamiento

\(\beta_k=\)El efecto de la \(k~ésima\) columna

\(\epsilon_{ijk}=\)Error aleatorio

\[H_0= (\mu_a-\mu_b)=(\mu_a-\mu_c)=(\mu_b-\mu_c)\\ H_a=Almenos~uno~es~diferente\]

Lsd_aov= aov( AUC ~ Subject + Period + Treat, data = bioeqv)

trat_lsd= bioeqv$Treat

lsd_test= design.lsd(levels(trat_lsd),serie = 3,);lsd_test
## $parameters
## $parameters$design
## [1] "lsd"
## 
## $parameters$trt
## [1] "A" "B" "C"
## 
## $parameters$r
## [1] 3
## 
## $parameters$serie
## [1] 3
## 
## $parameters$seed
## [1] -1098435821
## 
## $parameters$kinds
## [1] "Super-Duper"
## 
## $parameters[[7]]
## [1] TRUE
## 
## 
## $sketch
##      [,1] [,2] [,3]
## [1,] "A"  "C"  "B" 
## [2,] "B"  "A"  "C" 
## [3,] "C"  "B"  "A" 
## 
## $book
##   plots row col levels(trat_lsd)
## 1  1001   1   1                A
## 2  1002   1   2                C
## 3  1003   1   3                B
## 4  2001   2   1                B
## 5  2002   2   2                A
## 6  2003   2   3                C
## 7  3001   3   1                C
## 8  3002   3   2                B
## 9  3003   3   3                A
summary(Lsd_aov)
##             Df Sum Sq Mean Sq F value Pr(>F)
## Subject      2 114264   57132   0.258  0.795
## Period       2  45196   22598   0.102  0.907
## Treat        2  15000    7500   0.034  0.967
## Residuals    2 442158  221079
model.tables(Lsd_aov, type = "means" )$tables$Treat
## Treat
##        A        B        C 
## 1198.667 1105.667 1120.333
plot(TukeyHSD(Lsd_aov, "Treat"))

Conclusión:

No se rechaza \(H_0\) ya que el p.value no es menor al 0.05%.

Punto 9

Diseño Bloques completos Pagina 46 (Randomized Complete Block Design) /Función: design.rcbd()

\[y_{ij}=\mu+\beta_i+\tau_i+\epsilon_{ij}\]

\(y_{ij}=\)Observaciones

\(\mu=\)Media Global

\(\beta_i=\)Efecto de los bloques

\(\tau_i=\)Efecto de los tratamientos

\(\epsilon_{ij}=\)Error aleatorio

Dosis= c(0.0,0.5,1,1.5,2) #Dosis en mg/Kg

RCB_design = design.rcbd(Dosis,10,continue = F)
rcb = RCB_design$book
rata = rcb$block
rcb$respuesta = drug$rate
rcb
##    plots block Dosis respuesta
## 1    101     1     1      0.60
## 2    102     1   0.5      0.80
## 3    103     1   1.5      0.82
## 4    104     1     0      0.81
## 5    105     1     2      0.50
## 6    201     2   1.5      0.51
## 7    202     2     1      0.61
## 8    203     2     0      0.79
## 9    204     2     2      0.78
## 10   205     2   0.5      0.77
## 11   301     3     0      0.62
## 12   302     3   0.5      0.82
## 13   303     3     1      0.83
## 14   304     3   1.5      0.80
## 15   305     3     2      0.52
## 16   401     4     2      0.60
## 17   402     4     1      0.95
## 18   403     4   0.5      0.91
## 19   404     4     0      0.95
## 20   405     4   1.5      0.70
## 21   501     5     1      0.92
## 22   502     5   0.5      0.82
## 23   503     5   1.5      1.04
## 24   504     5     2      1.13
## 25   505     5     0      1.03
## 26   601     6   1.5      0.63
## 27   602     6     2      0.93
## 28   603     6     1      1.02
## 29   604     6   0.5      0.96
## 30   605     6     0      0.63
## 31   701     7     1      0.84
## 32   702     7     0      0.74
## 33   703     7   0.5      0.98
## 34   704     7     2      0.98
## 35   705     7   1.5      1.00
## 36   801     8   0.5      0.96
## 37   802     8   1.5      1.24
## 38   803     8     1      1.27
## 39   804     8     0      1.20
## 40   805     8     2      1.06
## 41   901     9     0      1.01
## 42   902     9   0.5      1.23
## 43   903     9     1      1.30
## 44   904     9   1.5      1.25
## 45   905     9     2      1.24
## 46  1001    10     0      0.95
## 47  1002    10     2      1.20
## 48  1003    10     1      1.18
## 49  1004    10   1.5      1.23
## 50  1005    10   0.5      1.05
Analisis_de_v= aov(respuesta ~ rata + Dosis, data= rcb )
summary(Analisis_de_v)
##             Df Sum Sq Mean Sq F value   Pr(>F)    
## rata         9 1.6685 0.18538   9.240 4.33e-07 ***
## Dosis        4 0.0384 0.00961   0.479    0.751    
## Residuals   36 0.7223 0.02006                     
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Conclusión:

En este experimento se puede observar que hay una diferencia significativa en cuanto a las ratas y no a las dosis que le son suministradas.

Punto 8 (Resumenes):

Realice un resumen con la nota que aparece en las siguientes direcciones sobre: El uso de los diseños en parcelas divididas

Uso de diseños en parcelas divididas

Cuando se tiene un experimento en el que algún factor es difícil de aleatorizar es cuando se utiliza el diseño de parcelas divididas, este tipo de diseño nació en el mundo de la agricultura y es por esto que se manejan términos referentes a la misma; los factores difíciles de aleatorizar se conocen como parcela completa, mientras que los otros factores se les denominan subparcelas, estos diseños se suelen confundir con los diseños completamente aleatorios al momento de analizar los datos lo que podría ocasionar conclusiones engañosas acerca de los factores. Por eso es importante saber identificar este tipo de diseño para así tener conclusiones validas sobre los efectos de los factores, un correcto análisis en este diseño reconoce que las observaciones obtenidas están relacionadas entre sí. Cuando se determina el orden de ejecución existen dos aleatorizaciones separas: determinar el orden de ejecución de las parcelas completas, y recopilar las observaciones dentro de la parcela completa.

Este diseño también se justifica desde el punto de vista económico, los factores difíciles de aleatorizar son costosos, es por esto por lo que al escoger un diseño que posea menos parcelas completas y agregar más observaciones dentro de cada parcela completa podría significar un gran ahorro, se podría decir que el costo de este diseño es relativo a la cantidad de parcelas completas que se tenga.

Para realizar este diseño hay varios aspectos de los cuales se debe tener en cuenta desde medidas cualitativas hasta cuantitativas, así como los términos de error de la subparcela y rendimiento basado en la optimización y la estimación de verosimilitud. Los diseños de parcelas divididas son de suma importancia y si se usan correctamente pueden aumentar la cantidad de información de se puede extraer del experimento.

Sobre lo que significa Unidad experimental y Unidad de Observación

Unidad experimental y unidad de observación

Si tenemos un experimento en donde se tiene dos parcelas cada una con 300 plantas de lechuga y se hace un tratamiento con dos fertilizantes, y después de 3 meses se toman 60 plantas al azar y se mide su masa.

Este diseño posee un solo factor en dos niveles

La unidad experimental es aquella que recibe el tratamiento, en nuestro ejemplo como se aplicó el fertilizante a cada parcela, por lo que las parcelas serian las unidades experimentales, las plantas no son UE ya que para esto se tendría que coger individualmente cada planta y aplicarle el fertilizante.

La unidad observacional es aquella fracción de la unidad experimental sobre la cual se mide el efecto del tratamiento. Hay que aclarar que el muestreo de observaciones no implica replicación. Para este ejemplo que se está planteando la unidad observacional serían las plantas, ya que de estas son obtenidos los datos a analizar.

Guía para diseñar experimentos exitosos

Guía para diseñar experimentos exitosos

Los diseños de experimentos poseen cuatro principios básicos en los cuales se van a basar, estos principios son replicación, aleatorización, bloqueo y tamaño de unidades experimentales, los cuales cada uno de estos tienen impacto sobre el diseño experimental, el análisis de datos y las conclusiones del mismo. Estos pilares son importantes ya que en diseños experimentales biológicos los cuales son experimentos comparativos o manipulativos el error no es una opción, ya que el montaje de estos experimentos es muy costoso tanto en términos monetarios, tiempo y emocionalmente.

Replicación

La replicación cumple cuatro funciones en la experimentación comparativa. Primero, proporciona un mecanismo para estimar el error experimental, que es esencial para proporcionar pruebas de hipótesis válidas e intervalos de confianza de los estimadores. Segundo, proporciona un mecanismo para aumentar la precisión de un experimento. Tercero, aumenta el alcance de la inferencia del experimento y cuarto, afecta el control del error.

El primer paso para establecer la replicación en el diseño de la mayoría de los experimentos es definir la unidad experimental, la unidad que forma el primer nivel de replicación, ya que después de establecer la unidad experimental y una decisión sobre cómo replicar los tratamientos en la escala adecuada, se pueden diseñar niveles adicionales de replicación en el experimento, subiendo o bajando la escala a unidades más pequeñas o más grandes. A partir de lo anterior mencionado surge la siguiente duda: ¿Qué escala de replicación es necesaria? La escala de replicación depende de las inferencias deseadas y cómo se recopilarán los datos, ya que los en la mayoría de experimentos están dependiendo del factor biológico. Por este motivo depende de los objetivos seleccionados y las condiciones bajo el cual está el experimento se decide en que escala realizar las repeticiones. Por otra parte, el número de réplicas es importante ya que muchas variables no pueden medirse en una unidad experimental completa, lo que exige algún método de subconjunto o subdivisión de unidades experimentales en múltiples unidades de observación, es decir, replicación a una escala por debajo del nivel de la unidad experimental.

Aleatorización

La aleatorización da dos servicios clave en los diseños experimentales. Primero la estimación no sesgada de las medias del tratamiento y los errores experimentales, segundo una precaución contra una perturbación que pueda surgir. Gracias a la aleatorización podemos estar seguros de que nuestro experimento este a salvo de perturbaciones que no logramos controlar, teniendo en cuenta que el experimento en el cual estamos trabajando es de componente biológico como anteriormente se ha mencionado, esto conlleva a varios factores que no se pueden controlar; por este motivo estas aleatorizaciones pueden ser tediosas en cuanto a tiempo o inconvenientes improvistos pero los beneficios son muy grandes comparados al tiempo invertido en este tema. Por todo lo anterior mencionado la aleatorización ayuda a garantizar que esas fuentes de variación desconocidas o inesperadas no introduzcan sesgos, confusión o eliminación de pruebas de hipótesis válidas durante el curso del experimento.

Bloqueo

Al igual que la aleatorización el bloqueo se utiliza en diseños experimentales para asegurarse de que no haya perturbaciones o algunos factores que no se logren controlar y afecten al diseño propuesto. Por esto el bloqueo se utiliza con dos propósitos: Primero por precisión, para crear grupos de unidades experimentales que sean más homogéneos de lo que ocurriría con un muestreo aleatorio de toda la población de unidades experimentales o Segundo por conveniencia, el cual permite diferentes tamaños de unidades experimentales cuando se requieran parcelas o áreas experimentales más grandes para la aplicación de un factor en comparación con otros factores.

Tamaño de unidades experimentales

El tamaño de unidades experimentales es el principio menos comprendido y el cual posee la menor cantidad de resultados teóricos para respaldar las observaciones empíricas. Por este motivo el tamaño depende de la experiencia del investigador o la persona que está realizando el experimento junto con la información o registros históricos que tenga del lugar en el cual se realiza como lo puede ser la orientación dentro del campo y las características del diseño experimental, como el número de réplicas, el número de tratamientos, tamaño de bloque y tamaño de parcela.

Anexos

Punto 1 parcial, opción 1

    1. En un estudio conducido en ambiente controlado se tuvieron 72 macetas, cada una con una planta a la que a cierta edad se le midió el contenido de clorofila (índice de clorofila) con un sensor (SPAD). El total de macetas se correspondió con 9 tratamientos asociados al estrés hídrico. Se sabe que la varianza de las 72 observaciones es 893. Con esta información complete la tabla del ANOVA que se muestra a continuación

\[\bar \sigma^2_{n} =893 \\N=72 \\ n_{i}=8 \\S.cuadradados_{in}=6000 \]

formula de la suma de cuadrados

\[VNE=\sum n_i \sigma^2_{ni}\]

VNE<-8*893;VNE
## [1] 7144

\[VT= VE+VNE\]

VT<-6000+7144;VT
## [1] 13144

\[df:grados de libertad\] \[df_{VE}=I-1=8-2=6\\I=n_i-1\] \[df_{VNE}=n-I=72-7=65\]

sumas de cuadrado

\[\hat S^2_e={VE \over I-1}\\\hat S^2_R={VNE \over n-I}\]

se<-6000/(6);se
## [1] 1000
sr<-VNE/65;sr
## [1] 109.9077

\[F={\hat S^2_e \over \hat S^2_R}\]

f<-se/sr;f
## [1] 9.098544
suma de cuadrados grados de libertad medias cuadraticas F
entre(VE) 6000 6 1000 9.1
intra(VNE) 8037 65 109.91
total(VT) 13144

\[H_0:H0 : \mu1 = \mu2 = \mu3= \cdots \mu9 \\ H1 : Alguna~distinta\]

¿qué puede decirse acerca de la Hipótesis nula de igualdad de los promedios del índice en todas las condiciones de tratamiento (use el p valor así como el cociente F calculado de la tabla para concluir)?

Conclusión:

Como F = 9.1 es mayor que Ftab=2.8, rechazamos H0, por lo tanto se cocluye que no se puede comparar los tratamientos

  1. De ser afirmativa su respuesta aplique este procedimiento y concluya (seleccione el o los tratamientos con mayores contenidos de clorofila). Para esto genere unos datos para cada tratamiento que tengan una varianza como la dada en el ejercicio y una media que desde el primer al último tratamiento cambie a razón de 10 unidades del índice, empezando con 40U. \(u=9\)
set.seed(1998)
data1=rnorm(8,409,sqrt(853)) 
data2=rnorm(8,419,sqrt(853))
data3=rnorm(8,429,sqrt(853))
data4=rnorm(8,439,sqrt(853))
data5=rnorm(8,449,sqrt(853))
data6=rnorm(8,459,sqrt(853))
data7=rnorm(8,469,sqrt(853))
data8=rnorm(8,476,sqrt(853))
data9=rnorm(8,486,sqrt(853))

Prueba shapiro para comprobar la distribucion normal

\[H_o:clorofila9 y 8=N(\mu,\sigma^2)\\H_a:clorofila9y8\neq N(\mu,\sigma^2)\]

s_t = shapiro.test(data9) # test de shapiro para probar si tiene distribucion normal
s_t
## 
##  Shapiro-Wilk normality test
## 
## data:  data9
## W = 0.88202, p-value = 0.1968
ifelse(s_t$p.value<0.05,"rechaza Ho","no rechaza Ho")
## [1] "no rechaza Ho"
s_t = shapiro.test(data8) # test de shapiro para probar si tiene distribucion normal
s_t
## 
##  Shapiro-Wilk normality test
## 
## data:  data8
## W = 0.93087, p-value = 0.524
ifelse(s_t$p.value<0.05,"rechaza Ho","no rechaza Ho")
## [1] "no rechaza Ho"

Prueba de homogeneidad de varianzas

\[H_o:var_{trt9}=var_{trt8}\\H_a: var_{trt9}\neq var_{trt8} \]

v_t<-var.test(data9,data8) #test para determinar si las varianzas son iguales
v_t
## 
##  F test to compare two variances
## 
## data:  data9 and data8
## F = 2.2862, num df = 7, denom df = 7, p-value = 0.2975
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
##   0.4577151 11.4195874
## sample estimates:
## ratio of variances 
##           2.286245
# si el p.value<0.05 las varianzas son iguales
ifelse(v_t$p.value<0.05,"rechaza Ho","no rechaza Ho")
## [1] "no rechaza Ho"

Conclusión:

Dado que los datos de los tratamientos 8 y 9 presentan distribución normal y varianzas homogeneas se determina que se puede realizar el analisis ANOVA.

Punto 2a

metod<-c(c(2,3,4,5),rep(c(1,2,3,4,5),5));metod
##  [1] 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5
gran<-c(rep(1,4),rep(2,5),rep(3,5),rep(4,5),rep(5,5),rep(6,5));gran
##  [1] 1 1 1 1 2 2 2 2 2 3 3 3 3 3 4 4 4 4 4 5 5 5 5 5 6 6 6 6 6
algodon<-c(5.54,7.67,7.89,9.27,6.75,3.53,4.15,1.97,4.39,13.05,11.20,9.79,8.97,13.44,10.26,7.21,8.27,6.12,9.13,8.01,3.24,6.75,4.22,9.20,8.42,6.45,5.50,7.84,7.13)

datos<-data.frame(metod=factor(metod,labels = c("M1","M2","M3","M4","M5")),gran=factor(gran,labels=c("G1","G2","G3","G4","G5","G6")),algodon)
datos
##    metod gran algodon
## 1     M2   G1    5.54
## 2     M3   G1    7.67
## 3     M4   G1    7.89
## 4     M5   G1    9.27
## 5     M1   G2    6.75
## 6     M2   G2    3.53
## 7     M3   G2    4.15
## 8     M4   G2    1.97
## 9     M5   G2    4.39
## 10    M1   G3   13.05
## 11    M2   G3   11.20
## 12    M3   G3    9.79
## 13    M4   G3    8.97
## 14    M5   G3   13.44
## 15    M1   G4   10.26
## 16    M2   G4    7.21
## 17    M3   G4    8.27
## 18    M4   G4    6.12
## 19    M5   G4    9.13
## 20    M1   G5    8.01
## 21    M2   G5    3.24
## 22    M3   G5    6.75
## 23    M4   G5    4.22
## 24    M5   G5    9.20
## 25    M1   G6    8.42
## 26    M2   G6    6.45
## 27    M3   G6    5.50
## 28    M4   G6    7.84
## 29    M5   G6    7.13
#transformar tanto la columna de los tratamientos como la de los bloques en un factor para poder realizar los cálculos posteriores adecuadamente.
datos$metod=factor(datos$metod)
datos$metod
##  [1] M2 M3 M4 M5 M1 M2 M3 M4 M5 M1 M2 M3 M4 M5 M1 M2 M3 M4 M5 M1 M2 M3 M4 M5 M1
## [26] M2 M3 M4 M5
## Levels: M1 M2 M3 M4 M5
datos$gran=factor(datos$gran)
datos$gran
##  [1] G1 G1 G1 G1 G2 G2 G2 G2 G2 G3 G3 G3 G3 G3 G4 G4 G4 G4 G4 G5 G5 G5 G5 G5 G6
## [26] G6 G6 G6 G6
## Levels: G1 G2 G3 G4 G5 G6

Diagrama de cajas

boxplot(datos$algodon~datos$metod)

boxplot(datos$algodon~datos$gran)

Analisis de Varianza

avar<-aov(algodon~gran+metod)
anova(avar)
## Analysis of Variance Table
## 
## Response: algodon
##           Df  Sum Sq Mean Sq F value Pr(>F)
## gran       1   0.053  0.0531  0.0065 0.9365
## metod      1   0.135  0.1352  0.0165 0.8989
## Residuals 26 213.465  8.2102

Función lm

rep1<-lm(algodon~gran+metod)
summary(rep1)
## 
## Call:
## lm(formula = algodon ~ gran + metod)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -5.3747 -1.8809  0.2985  1.7898  6.1222 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept)  7.49712    1.78721   4.195 0.000281 ***
## gran         0.02245    0.31925   0.070 0.944475    
## metod       -0.04934    0.38451  -0.128 0.898881    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 2.865 on 26 degrees of freedom
## Multiple R-squared:  0.0008813,  Adjusted R-squared:  -0.07597 
## F-statistic: 0.01147 on 2 and 26 DF,  p-value: 0.9886
rep2<-lm(algodon~metod+gran)
summary(rep2)
## 
## Call:
## lm(formula = algodon ~ metod + gran)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -5.3747 -1.8809  0.2985  1.7898  6.1222 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept)  7.49712    1.78721   4.195 0.000281 ***
## metod       -0.04934    0.38451  -0.128 0.898881    
## gran         0.02245    0.31925   0.070 0.944475    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 2.865 on 26 degrees of freedom
## Multiple R-squared:  0.0008813,  Adjusted R-squared:  -0.07597 
## F-statistic: 0.01147 on 2 and 26 DF,  p-value: 0.9886

punto 2b

b)Estimar el valor de la observación usando el promedio de los datos para los cinco granjeros del mismo método M1 y luego realice el análisis de varianza para probar las diferencias en las pérdidas medias de peso para los cinco métodos de limpiado de las fibras de algodón. Compare este resultado con el caso desbalanceado (de ser posible).

metod2<-c(rep(c(1,2,3,4,5),6));metod2
##  [1] 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5
gran2<-c(rep(1,5),rep(2,5),rep(3,5),rep(4,5),rep(5,5),rep(6,5));gran2
##  [1] 1 1 1 1 1 2 2 2 2 2 3 3 3 3 3 4 4 4 4 4 5 5 5 5 5 6 6 6 6 6
algodon2<-c(9.298,5.54,7.67,7.89,9.27,6.75,3.53,4.15,1.97,4.39,13.05,11.20,9.79,8.97,13.44,10.26,7.21,8.27,6.12,9.13,8.01,3.24,6.75,4.22,9.20,8.42,6.45,5.50,7.84,7.13)

datos2<-data.frame(metod2=factor(metod2,labels = c("M1","M2","M3","M4","M5")),gran2=factor(gran2,labels=c("G1","G2","G3","G4","G5","G6")),algodon2)
datos2
##    metod2 gran2 algodon2
## 1      M1    G1    9.298
## 2      M2    G1    5.540
## 3      M3    G1    7.670
## 4      M4    G1    7.890
## 5      M5    G1    9.270
## 6      M1    G2    6.750
## 7      M2    G2    3.530
## 8      M3    G2    4.150
## 9      M4    G2    1.970
## 10     M5    G2    4.390
## 11     M1    G3   13.050
## 12     M2    G3   11.200
## 13     M3    G3    9.790
## 14     M4    G3    8.970
## 15     M5    G3   13.440
## 16     M1    G4   10.260
## 17     M2    G4    7.210
## 18     M3    G4    8.270
## 19     M4    G4    6.120
## 20     M5    G4    9.130
## 21     M1    G5    8.010
## 22     M2    G5    3.240
## 23     M3    G5    6.750
## 24     M4    G5    4.220
## 25     M5    G5    9.200
## 26     M1    G6    8.420
## 27     M2    G6    6.450
## 28     M3    G6    5.500
## 29     M4    G6    7.840
## 30     M5    G6    7.130
rep3<-aov(algodon2~gran2+metod2)
summary(rep3)
##             Df Sum Sq Mean Sq F value Pr(>F)
## gran2        1   0.08   0.078   0.010  0.922
## metod2       1   0.73   0.730   0.091  0.765
## Residuals   27 216.23   8.009

punto 2c

Proponga un promedio basado en la medida de M1 con los datos disponibles, pero sumando una cantidad delta de modo que el coeficiente de variación entre las seis mediciones sea menor al 20%.

\[ \bar X={x_1+6.75+13.05+10.26+8.01+8.42 \over 6} \\ \bar X={x_1 \over 6}+{6.75+13.05+10.26+8.01+8.42 \over 6} \\ \bar X={x_1 \over 6}+7.75 \\ \bar X = \delta +7.75 \]

Expresión del coeficiente de variación

\[{\sqrt{{\sum_{i=1}^{6}(X_i-7.75-\delta)^2 \over 5}} \over 7.75+ \delta} <0.2 \\ {\sqrt{(X_1-7.75-\delta)^2+(6.75-7.75-\delta)^2+\cdots+(8.42-7.75-\delta)^2\over 5}\over7.75+\delta}<0.2\]

mifuncion<-function(x){(sqrt(((x-7.75-(x/6))^2+(6.75-7.75-(x/6))^2+(13.05-7.75-(x/6))^2+(10.26-7.75-(x/6))^2+(8.01-7.75-(x/6))^2+(8.42-7.75-(x/6))^2)/6))/(7.75+(x/6))}

optim(0.2, mifuncion, method="Brent", lower=5,
upper=13)
## $par
## [1] 9.812537
## 
## $value
## [1] 0.2137424
## 
## $counts
## function gradient 
##       NA       NA 
## 
## $convergence
## [1] 0
## 
## $message
## NULL
metod3<-c(rep(c(1,2,3,4,5),6));metod3
##  [1] 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5 1 2 3 4 5
gran3<-c(rep(1,5),rep(2,5),rep(3,5),rep(4,5),rep(5,5),rep(6,5));gran3
##  [1] 1 1 1 1 1 2 2 2 2 2 3 3 3 3 3 4 4 4 4 4 5 5 5 5 5 6 6 6 6 6
algodon3<-c(9.81,5.54,7.67,7.89,9.27,6.75,3.53,4.15,1.97,4.39,13.05,11.20,9.79,8.97,13.44,10.26,7.21,8.27,6.12,9.13,8.01,3.24,6.75,4.22,9.20,8.42,6.45,5.50,7.84,7.13)

datos3<-data.frame(metod3=factor(metod3,labels = c("M1","M2","M3","M4","M5")),gran3=factor(gran3,labels=c("G1","G2","G3","G4","G5","G6")),algodon3)
datos3
##    metod3 gran3 algodon3
## 1      M1    G1     9.81
## 2      M2    G1     5.54
## 3      M3    G1     7.67
## 4      M4    G1     7.89
## 5      M5    G1     9.27
## 6      M1    G2     6.75
## 7      M2    G2     3.53
## 8      M3    G2     4.15
## 9      M4    G2     1.97
## 10     M5    G2     4.39
## 11     M1    G3    13.05
## 12     M2    G3    11.20
## 13     M3    G3     9.79
## 14     M4    G3     8.97
## 15     M5    G3    13.44
## 16     M1    G4    10.26
## 17     M2    G4     7.21
## 18     M3    G4     8.27
## 19     M4    G4     6.12
## 20     M5    G4     9.13
## 21     M1    G5     8.01
## 22     M2    G5     3.24
## 23     M3    G5     6.75
## 24     M4    G5     4.22
## 25     M5    G5     9.20
## 26     M1    G6     8.42
## 27     M2    G6     6.45
## 28     M3    G6     5.50
## 29     M4    G6     7.84
## 30     M5    G6     7.13
rep4<-aov(algodon3~gran3+metod3)
summary(rep4)
##             Df Sum Sq Mean Sq F value Pr(>F)
## gran3        1   0.17   0.172   0.021  0.885
## metod3       1   0.97   0.973   0.120  0.731
## Residuals   27 218.00   8.074