1 Conceptos generales

Cuando crece el número de factores también aumenta rápidamente el número de tratamientos en los diseños factoriales completos \({2^k}\). Por ejemplo, para k=6 factores, una sola réplica del diseño factorial completo \(2^6\) implica correr 64 pruebas, que corresponden al número de tratamientos del diseño; para k=7 son \(2^7\)=128 puntos de diseño. En la práctica no es posible hacer tantas corridas experimentales . Sin embargo, es frecuente que en las primeras etapas de una investigación interese estudiar muchos factores, digamos, 6 o más. Para experimentar con esta cantidad de factores se requiere una estrategia que permita reducir de manera significativa el número de tratamientos experimentales, pero que al mismo tiempo se pierda el mínimo de información valiosa. Tal estrategia la conforman los diseños factoriales fraccionados, los cuales, gracias al exceso de información que acumulan los diseños factoriales completos cuando se estudian muchos factores, permiten sacrificar información poco importante en aras de un diseño manejable en cuanto al número de de corridas experimentales. Las corridas en los diseños factoriales fraccionados son una parte o una fracción de los tratamientos de los factoriales completos. La teoría de diseños factoriales fraccionados se basa en una jerarquización de los efectos: son más importantes los efectos principales, seguidos por las interacciones dobles, luego las triples, cuádruples, etc(Pulido & Vara Salazar, 2012).

1.1 Conceptos básicos

1.1.1 Diseños factoriales fracionados

Diseños en los que se elige adecuadamente una parte o fracción de los tratamientos de un factorial completo, con la intensión de estudiar el efecto de los factores utilizando menos corridas experimentales.

1.1.2 Efectos alias

Son dos o más efectos con nombres diferentes que comparten el mismo contraste, y, por lo tanto, estiman el mismo efecto.

1.1.3 Generador de la fracción

EFecto cuyo contraste es utilizado para generar la fracción factorial. Este efecto no se puede estimar con esa fracción.

1.1.4 Relación definidora

EStá dada por los generadores de una fracción, más todos sus posibles productos ente si modulo 2. Si hay un solo generador, éste es al mismo tiempo la relación definidora.

1.1.5 Estructura de alias

En ella se definen de manera explícita los alias de de cada efecto.

1.1.6 Resolución

Es una característica de un factorial fraccionado, que indica qué tan bien pueden estudiarse los efectos potencialmente importantes en el diseño.

1.1.6.1 Diseño de resolución III

En esta clase de diseños los efectos principales no son alias entre ellos, pero existen efectos principales que son alias de alguna interacción doble, por ejemplo, el diseño \({2^{3-1}}\), con relación definidora \(I=ABC\) (o \(I=-ABC\)) es de resolución III (Pulido & Vara Salazar, 2012). Esto es por que, si consideramos esa relación definidora y comenzamos a estimar los alias de los factores utilizando la multiplicación de módulo 2, tendremos que para el efecto A:
\[I=ABC\] Muliplicando la relación definidora por el efecto principal A, observamos que:
\[A(I)={A^2}BC\] Como \({A^2=1}\) por el efecto de la multiplicación de módulo 2, tendremos como resultado que:
\[A=BC\] De lo que concluimos que, el efecto A está en alias con la interacción doble BC, lo cual no es tan deseable, dado que, bajo el enfoque de los diseños factoriales fraccionados, tanto las interacciones dobles como los efectos principales no son ignorables, y esto causará cierto grado de confusión en la interpretación de los resultados, las relaciones entre los factores restantes se definen como sigue:

\[B=AC\] \[C=AB\]

1.1.6.2 Diseño de resolución IV

En este diseño los efectos proncipales no están en alias entre ellos ni con las interacciones dobles, pero algunas interacciones dobles están en alias con otra interacción doble. Por ejemplo, el diseño \({2^{4-1}}\) con relación definidora \(I=ABCD\) (o \(I=-ABCD\)) es de resolución IV (Pulido & Vara Salazar, 2012).
En este caso, los efecto principales están en alias con interacciones triples, por lo que al no ser estas significativas, se puede concluir que los efectos principales se estiman limpiamente, sin embargo, existirá cierto de grado de confusión en los efectos de interacción doble, dado que éstos estarán en alias con otras interacciones dobles, por ejemplo:
\[A(I)={A^2}BCD\] como \({A^2}=1\), entonces: \[A=BCD\] pra todos los efectos principales de este diseño tendremos que:
\[B=ACD\] \[C=ABD\] \[D=ABC\] En el caso de las interacciones dobles, tenemos que:
\[AB=CD\] \[AC=BD\] \[AD=BC\] \[BC=AD\] \[BD=AC\] \[CD=AB\] Como es de observarse, los efectos de interacción dobles quedan en alias con otros efectos de la misma naturaleza.

1.1.6.3 Diseño de resolución V

En estos diseños los efectos principales y las interacciones dobles están en alias con interacciones triples o de mayor orden, es decir, los efectos principales e interacciones dobles están limpiamente estimados. Por ejemplo, el diseño \(2^{5-1}\) con relación definidora \(I=ABCDE\) (o \(I=-ABCDE\)) es de resolución V (Pulido & Vara Salazar, 2012).
Lo anterior lo podemos verificar de la siguiente manera:
\[I=ABCDE\] Si multiplicamos el factora A por la relación definidora, tendremos que: \[A(I)={A^2}BCDE\] Como \({A^2}=1\), entonces:
\[A=BCDE\] Lo mismo uscede con los demás efectos principales, quedando todos escritos de la siguiente manera:
\[B=ACDE\] \[C=ABDE\] \[D=ABCE\] \[E=ABCD\] Para el caso de las interaaciones dobles, quedan escritas de la siguiente manera:
\[AB=CDE\] \[AC=BDE\] \[AD=BCE\] \[AE=BCD\] \[BC=ADE\] \[BD=ACE\] \[BE=ACD\] \[CD=ABE\] \[CE=ABD\] \[DE=ABC\] Con esto se comprueba que los efectos principales y las interacciones dobles quedan en alias con efectos de interacciones triples o cuádruples, y, como ya sabemos, al no ser significativas las interacciones de estos órdenes, es que se puede deducir que los efectos principales y de interacción dobles se estiman limpiamente.

1.2 Diseño factorial fraccionado \({2^{k-p}}\)

De manera general,la notación \({2^{k-p}}\) significa que es una fracción \(\frac{1}{2^p}\) del diseño factorial completo \(2^k\). Para construir un diseño \({2^{k-p}}\) se eligen p generadores iniciales, todos interacciones del más alto orden posible , de manera que todos sus productos sean interacciones de alto orden (Pulido & Vara Salazar, 2012).
Para comenzar a analizar estos diseños experimentales, comentaremos el caso de la mitad de un diseño exprimental, es decir el diseño factorial fraccionado \({2^{k-1}}\), que resulta de dividir \(\frac{2_k}{2}\), por lo que, por ejemplo, si tenemos un diseño factorial \(2^4\) y lo dividimos a la mitad, tendremos que \(\frac{2^4}{2}={2^{4-1}}={2^3}\), es decir, la mitad de un diseño \(2^4\) es un diseño factorial \(2^3\). Esto es importante tenerlo claro, dado que de aquí partirá todo el análisis estadístico pertinente. Existen ciertas reglas emíricas que son de gran utilidad para la correcta interpretación de los diseños factoriales fraccionados, los cuales se denominan los tres principios de los efectos factoriales, mismos que se enuncián en el siguiente apartado.

1.2.1 Tres principios de los diseños factoriales

En este apartado se enuncia de manera explícita tres principios que ayudarán en la generación e interpretación de los factoriales fraccionados con dos niveles. Cabe aclarar que, al ser principios, no está obligados a cumplirse en el 100% de los casos. Sin embargo, el análisis de cientos de diseños ha demostrado su gran utilidad ya que éstos se cumplen la gran mayoría de las veces (Pulido & Vara Salazar, 2012).

1.2.1.1 Principio de jerarquía

Efectos de orden bajo son más probables de ser importantes o estar activos que efectos de orden alto. Efectos del mismo orden son igualmente probables de estar activos.
En este principio se basa la teoría de los diseños factoriales fraccionados, en la cual se sacrifican efectos de orden alto (interacciones triples, cuádruples. etc.) en aras de estudiar los efectos de orden bajo (efectos principales en primer lugar, seguidos por las interacciones dobles). Gracias a este principio es posible estudiar muchos factores con relativamente pocas corridas experimentales y, por lo tanto, con un mínimo de recursos.
No confundir este principio con la importancia a priori que pudiera tener un efecto debido a la física del proceso que se está investigando, es decir, hay efectos que por su propio peso específico dentro del proceso, no pueden ser descartados de entrada. Por ejemplo, con dos interacciones dobles que son alias puede ocurrir que que se considere a una de ellas más importante que la otra por conocimiento del proceso, pero por el principio de jerarquía ambas son igualmente relevantes.

1.2.1.2 Principio de escasez (sparsity)

Del total de efectos que se puedan estudiar con un experimento, se espera que sólo una parte menor, entre 20 y 30% de ellos, estén activos.
Este principio, debido a Box y Meyer (1986), también conocido en general como principio de Pareto, permite saber de antemano, antes de hacer el análisis, que sólo un porcentaje menor de los efectos estarán activos. Entonces sólo falta identificar cuáles son esos pocos efectos activos apoyándonos en el diagrama de Pareto y en el gráfico de Daniel o de efectos en papel normal. El principio de escasez es particularmente útil cuando se analizan experimentos factoriales fraccionados o factoriales sin réplicas, en los cuales no hay grados de libertad suficientes para obtener un estimador del error, y se recurre entonces a los efectos pequeños para construir con ellos un error aproximado (pseudoerror) y obtener de esta manera el ANOVA.

1.2.1.3 Principio de herencia

Para que un efecto de interacción esté activo, es necesario que al menos uno de los efectos principales de los factores que lo conforman sea significativo.

ESte principio ayuda a interpretar efectos de interacción de la misma jerarquía que son alias, tomando como la interacción relevante aquella conformada por al menos un factor que resultó significativo en su efectos simple. Por ejemplo, si se tienen los alias AB+CD y el efecto principal A es significativo, entonces la interacción importante es muy probablemente la AB; si el efecto C también fuera significativo, más o menos con la misma contundencia que A, puede ser que ambas interacciones sean relevantes y entonces se trataría de desconfundirlas, corriendo alguna fracción adicional; en este último caso, el principio de herencia no resuelve la situación. Sin embargo, en la práctica es frecuente que sólo alguno(s) de los factores involucrados en una de las interacciones que son alias sean importantes en su efecto individual, y en ese caso el principio de herencia funciona bastante bien.

1.2.2 Caso de Estudio

Para ejemplificar este diseño factorial, tomremos como base el ejercicio 22 de la página 207 del libro de Análisis y Diseño de Experimentos de Humberto Gutiérrez Pulidoy Román de la Vara (Pulido & Vara Salazar, 2012), el cual a la letra dice:
El tequila es una norma que está sujeta a una norma oficial mexicana (NOM-006-SCFI-2012), y conforme a ésta se deben cumplir con ciertas especificaciones físico-químicas. En un laboratorio de investigación, mediante un diseño factorial \(2^5\) no replicado, se estudió la influencia de diversos factores sobre la producción de alcoholes superiores en la etapa de fermentación. Los factores estudiados y los niveles fueron: tipo de cepa, A(1,2), temperatura B(30ºC,35ºC), fuente de nitrógeno C(\({C(N{H_4})_2}S{O_4}\), urea), relación carbono/nitrógeno D(62/1,188/1) y porcentaje de inóculo E(5%,10%). En la siguiente tabla se muestran los resultados obtenidos en cuanto a alcohol isoamílico (mg/L), que es parte de los alcoholes superiores:

(1)=21.41 d=42.5 e=32.9 de=54.0
a=16.8 ad=21.0 ae=17.5 ade=21.8
b=19.3 bd=79.1 be=30.0 bde=79.9
ab=12.7 abd=20.0 abe=24.1 abde=31.5
c=27.5 cd=48.6 ce=26.7 cde=47.9
ac=22.9 acd=27.1 ace=11.4 acde=15.6
bc=35.4 bcd=85.2 bce=23.9 bcde=73.8
abc=18.8 abcd=26.1 abce=18.0 abcde=25.4

Los pasos para analizar este diseño factorial se enumeran a continuación.

1. Definir la fracción de trabajo. Puede ser la fracción principal o la complementaria, para el caso de este ejemplo, se tomó la fracción principal con generador \(I=ABCDE\), por lo que se generó el factor D con el alias \(E=ABCD\), para lo cual se multiplicaron elemento a elemento las columnas de los factores A, B y C, obteniéndose con esto las corridas que se utilizarán para estimar los efectos del experimento completo, son sólo la mitad de un factorial \({2^5}\). La tabla de datos se muestra a continuación:

library(printr)
## Registered S3 method overwritten by 'printr':
##   method                from     
##   knit_print.data.frame rmarkdown
datos=read.table("datset.txt",header= TRUE)
str(datos)
## 'data.frame':    16 obs. of  6 variables:
##  $ A               : int  -1 1 -1 1 -1 1 -1 1 -1 1 ...
##  $ B               : int  -1 -1 1 1 -1 -1 1 1 -1 -1 ...
##  $ C               : int  -1 -1 -1 -1 1 1 1 1 -1 -1 ...
##  $ D               : int  -1 -1 -1 -1 -1 -1 -1 -1 1 1 ...
##  $ E               : int  1 -1 -1 1 -1 1 1 -1 -1 1 ...
##  $ Alcohol_obtenido: num  32.9 16.8 29.3 24.1 27.5 11.4 23.9 18.8 42.5 21.8 ...
attach(datos)
head(datos,n=16L)
A B C D E Alcohol_obtenido
-1 -1 -1 -1 1 32.9
1 -1 -1 -1 -1 16.8
-1 1 -1 -1 -1 29.3
1 1 -1 -1 1 24.1
-1 -1 1 -1 -1 27.5
1 -1 1 -1 1 11.4
-1 1 1 -1 1 23.9
1 1 1 -1 -1 18.8
-1 -1 -1 1 -1 42.5
1 -1 -1 1 1 21.8
-1 1 -1 1 1 79.9
1 1 -1 1 -1 20.0
-1 -1 1 1 1 47.9
1 -1 1 1 -1 27.1
-1 1 1 1 -1 85.2
1 1 1 1 1 25.4

2. Verificar cuales son los efectos activos. Para este paso, se requerirá obtener la gráfica de Pareto y la de Daniel, estas grráficas darán evidencia de cuales son los efectos relevantes del experimento, con base en el Principio de Escasez. Para obtenerlas debemos correr el siguiente código:

library(FrF2)
experimento=FrF2(nruns = 16, nfactors = 5, factor.names = list(A=c(-1,1),B=c(-1,1),C=c(-1,1),D=c(-1,1),E=c(-1,1)),generators = "ABCD",replications = 1,randomize = FALSE)
experimento_respuesta=add.response(design = experimento,response = Alcohol_obtenido)
halfnormal(experimento_respuesta, xlab = "Efectos activos")

En esta gráfica se puede observar que los efectos activos en el diseño experimental son el efecto del factor A, el del factor B, el del factor D, y las siguientes interacciones dobles: AD, AB, BD, CD, CE. Para confirmar la información que arroja la tabla, se verifica el gráfico de Daniel, mismo que se despoliega utilizando el siguiente código:

DanielPlot(experimento_respuesta, main= "Gráfico de Daniel para el Alcohol Isoamílico")

En esta grafica puede confirmarse la información que se obtuvo del análisis anterior, por lo que se concluye que los efectos activos son: los efectos principales de los factores A, B y D y las interacciones dobles AD,CE, AB,CD, BD. Con esto pueden comprobarse también el Principio de Jerarquía y el Principio de Herencia, dado que, es notorio que sólo están activos algunos efectos principales y algunas interacciones dobles, situación que fue planteada en el principio de jerarquí; y en el caso de las interaaciones dobles, es notorio que las interaaciones que están activas tienen por lo menos un factor activo en los principales.
Ahora procedermos a revisar la gráfica de efectos principales, para poder verificar cuáles provocan cambios en el contenido de alcohol isoamílico obtenido, utilizando el siguiente comando:

efectos_principales=MEPlot(experimento_respuesta)

head(efectos_principales)
A B C D E
- 46.1375 28.4875 33.4125 23.0875 33.4000
+ 20.6750 38.3250 33.4000 43.7250 33.4125

De la gráfica enterior, es posible deducir que los efectos activos que generan incremento en el contenido de alcohol isoamílico obtenido son el B y el D, mientras que los cambios en los niveles del factor A provocan un decremento. En el caso del factor A, un cambio de nivel mínimo a máximo provoca un decremento de 16.5374 mg/L, mientras que en el caso de del factor B, se genera un incremento de de 9.8375 mg/L, en el caso del factor C, es despreciable el cambio en la cantidad de alcohol obtenido, sin embargo en el caso del factor D, se tiene un incremento de 20.6375 mg/L al cambiar del nivel mínimo al máximo de dicho factor, para el caso del factor E, también es despreciable el cambio ocurrido por efecto del cambio en los niveles del factor.
Ahora procederemos a analizar las interacciones, mediante la gráfica correspondiente:

grafica_interacciones=IAPlot(experimento_respuesta)

head(grafica_interacciones)
A:B A:C A:D A:E B:C B:D B:E C:D C:E D:E
-:- 37.700 46.150 28.400 46.125 28.500 22.150 28.475 25.775 27.150 23.100
+:- 19.275 20.675 17.775 20.675 38.325 24.025 38.325 20.400 39.650 43.700
-:+ 54.575 46.125 63.875 46.150 28.475 34.825 28.500 41.050 39.675 23.075
+:+ 22.075 20.675 23.575 20.675 38.325 52.625 38.325 46.400 27.150 43.750

De la gráfica anterior, podemos observar que existen interacciones fuertes entre los factores A y B, B y D, C y E, A y D y C y D, para probar si las interacciones son significativas, procederemos a realizar la tabla ANOVA del experimento, pero considerando unidamente hasta las interacciones dobles, esto se realiza mediante el siguiente código:

modelo_a_b=lm(Alcohol_obtenido~(A*B),data = datos)
summary(modelo_a_b)
## 
## Call:
## lm.default(formula = Alcohol_obtenido ~ (A * B), data = datos)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -30.675  -5.569  -0.025   5.556  30.625 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept)   33.406      4.318   7.737 5.28e-06 ***
## A            -12.731      4.318  -2.949   0.0122 *  
## B              4.919      4.318   1.139   0.2768    
## A:B           -3.519      4.318  -0.815   0.4310    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 17.27 on 12 degrees of freedom
## Multiple R-squared:  0.4704, Adjusted R-squared:  0.338 
## F-statistic: 3.552 on 3 and 12 DF,  p-value: 0.04775
anova_a_b=aov(modelo_a_b)
summary(anova_a_b)
##             Df Sum Sq Mean Sq F value Pr(>F)  
## A            1   2593  2593.4   8.695 0.0122 *
## B            1    387   387.1   1.298 0.2768  
## A:B          1    198   198.1   0.664 0.4310  
## Residuals   12   3579   298.3                 
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
modelo_b_d=lm(Alcohol_obtenido~(B*D),data = datos)
summary(modelo_b_d)
## 
## Call:
## lm.default(formula = Alcohol_obtenido ~ (B * D), data = datos)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -32.625  -8.481  -0.025   8.444  32.575 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept)   33.406      4.794   6.968  1.5e-05 ***
## B              4.919      4.794   1.026   0.3252    
## D             10.319      4.794   2.152   0.0524 .  
## B:D            3.981      4.794   0.830   0.4225    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 19.18 on 12 degrees of freedom
## Multiple R-squared:  0.3469, Adjusted R-squared:  0.1836 
## F-statistic: 2.125 on 3 and 12 DF,  p-value: 0.1504
anova_b_d=aov(modelo_b_d)
summary(anova_b_d)
##             Df Sum Sq Mean Sq F value Pr(>F)  
## B            1    387   387.1   1.053 0.3252  
## D            1   1704  1703.6   4.632 0.0524 .
## B:D          1    254   253.6   0.690 0.4225  
## Residuals   12   4413   367.8                 
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
modelo_c_e=lm(Alcohol_obtenido~(C*E),data = datos)
summary(modelo_c_e)
## 
## Call:
## lm.default(formula = Alcohol_obtenido ~ (C * E), data = datos)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -20.850 -13.306  -6.963   5.450  45.550 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept) 33.40625    5.65107   5.911 7.12e-05 ***
## C           -0.00625    5.65107  -0.001    0.999    
## E            0.00625    5.65107   0.001    0.999    
## C:E         -6.25625    5.65107  -1.107    0.290    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 22.6 on 12 degrees of freedom
## Multiple R-squared:  0.09267,    Adjusted R-squared:  -0.1342 
## F-statistic: 0.4086 on 3 and 12 DF,  p-value: 0.7497
anova_c_e=aov(modelo_c_e)
summary(anova_c_e)
##             Df Sum Sq Mean Sq F value Pr(>F)
## C            1      0     0.0   0.000  0.999
## E            1      0     0.0   0.000  0.999
## C:E          1    626   626.3   1.226  0.290
## Residuals   12   6131   511.0
modelo_a_d=lm(Alcohol_obtenido~(A*D),data = datos)
summary(modelo_a_d)
## 
## Call:
## lm.default(formula = Alcohol_obtenido ~ (A * D), data = datos)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -21.375  -3.806   0.000   3.769  21.325 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept)   33.406      2.869  11.645 6.75e-08 ***
## A            -12.731      2.869  -4.438  0.00081 ***
## D             10.319      2.869   3.597  0.00367 ** 
## A:D           -7.419      2.869  -2.586  0.02383 *  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 11.47 on 12 degrees of freedom
## Multiple R-squared:  0.7662, Adjusted R-squared:  0.7077 
## F-statistic: 13.11 on 3 and 12 DF,  p-value: 0.0004285
anova_a_d=aov(modelo_a_d)
summary(anova_a_d)
##             Df Sum Sq Mean Sq F value  Pr(>F)    
## A            1 2593.4  2593.4  19.695 0.00081 ***
## D            1 1703.6  1703.6  12.938 0.00367 ** 
## A:D          1  880.6   880.6   6.688 0.02383 *  
## Residuals   12 1580.1   131.7                    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
modelo_c_d=lm(Alcohol_obtenido~(C*D),data = datos)
summary(modelo_c_d)
## 
## Call:
## lm.default(formula = Alcohol_obtenido ~ (C * D), data = datos)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -21.050 -11.562  -0.075   4.419  38.850 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept) 33.40625    5.07190   6.587 2.59e-05 ***
## C           -0.00625    5.07190  -0.001   0.9990    
## D           10.31875    5.07190   2.034   0.0646 .  
## C:D          2.68125    5.07190   0.529   0.6067    
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 20.29 on 12 degrees of freedom
## Multiple R-squared:  0.2691, Adjusted R-squared:  0.0864 
## F-statistic: 1.473 on 3 and 12 DF,  p-value: 0.2714
anova_c_d=aov(modelo_c_d)
summary(anova_c_d)
##             Df Sum Sq Mean Sq F value Pr(>F)  
## C            1      0     0.0   0.000 0.9990  
## D            1   1704  1703.6   4.139 0.0646 .
## C:D          1    115   115.0   0.279 0.6067  
## Residuals   12   4939   411.6                 
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Del análisis anterior podemos concluir que los factores que intervienen de manera significativa para maximizar la producción de alcohol isoamílico, considerando el \(valor_p\) de la tabla anova de cada corrida, son: el factor A, correspondiente al tipo de cepa, la cual debe mantenerse en nivel bajo, es decir, se debe usar la cepa 2, para el caso del factor, correspondiente a la temperatura, no es significativo, por lo que puede utilizarse indistintamente cualquiera de los dos niveles, en el caso del factor C, correspondiente a la fuente de nitrógeno,no es significativa, por lo que puede usarse indistintamente cualquiera de los dos niveles, para el caso del factor D, correspondiente a la relación carbono/nitrógeno, es significativo y se recomienda usar el nivel alto del factor, es decir, la relación 188/1, para el caso del factor E, correspondiente al porcentaje de inóculo, no es significativo, por lo que puede utilizarse indistintamente cualquiera de los dos niveles analizados para este factor.

Bibliografía

Pulido, H. G., & Vara Salazar, R. de la. (2012). Analisis y diseño de experimentos (3rd ed.). McGraw Hill.