Un experimento es un procedimiento llevado a cabo con el propósito de confirmar, refutar o validar una hipótesis. Los experimentos proporcionan evidencia empírica sobre las relaciones causales. A continuación, se detallan las características clave de un experimento:
Control: En un experimento, se controlan y manipulan una o más variables independientes para observar el efecto sobre una variable dependiente. El control de otras variables permite a los investigadores inferir una relación causal entre la variable independiente y la variable dependiente.
Manipulación: Una característica esencial de los experimentos es la manipulación activa de al menos una variable independiente. Esto significa que el investigador cambia intencionadamente las condiciones para ver si hay un efecto en la variable dependiente.
Aleatorización: En muchos experimentos, especialmente en ciencias sociales, los participantes son asignados al azar a diferentes condiciones o tratamientos. Esto ayuda a asegurar que cualquier diferencia observada entre los grupos se deba al tratamiento y no a otras variables no controladas.
Repetición: Los experimentos a menudo se repiten bajo las mismas condiciones para verificar la consistencia de los resultados.
Medición: Los experimentos involucran la medición cuidadosa de las variables de interés. Estas mediciones proporcionan datos cuantitativos o cualitativos que pueden ser analizados estadísticamente.
Hipótesis: Antes de realizar el experimento, los investigadores formulan una hipótesis sobre lo que esperan que ocurra. La hipótesis se basa en la teoría, investigaciones anteriores o ambas.
Condiciones Controladas: En muchos experimentos, especialmente en laboratorios, se mantienen condiciones controladas para minimizar el impacto de variables externas que podrían influir en los resultados.
El objetivo principal de un experimento es determinar si hay una relación causal entre las variables. Es decir, si un cambio en una variable (independiente) causa un cambio en otra variable (dependiente).
Es importante señalar que no todos los estudios científicos son experimentales. Hay otros tipos de investigaciones, como los estudios observacionales, en los que los investigadores observan y registran información sin intervenir activamente en la situación.
Lo fundamental en esta unidad o en este documento es aprender los conceptos claves del análisis y diseño experimental. Los tipos de diseños comúnmente utilizados, ya sean unifactorial o bifactorial. La primera, Análisis de Varianza o ANOVA, en sus versiones paramétricas, no paramétricas y robustas. En la segunda en el análisis de covarianza (ANCOVA), ANOVA con factor de bloqueo, ANOVA de dos vías entre grupos, ANOVA de dos vías mixto y efectos de interacción. También se observará diseños multifactoriales y la estimación del tamaño muestral para el diseño a construir.
La clasificación de diseños experimentales en unifactoriales y multifactoriales se basa en el número de factores que se están estudiando en el experimento:
Unifactorial: Se estudia un solo factor o variable independiente a la vez.
Multifactorial: Se estudian dos o más factores o variables independientes simultáneamente.
Una forma de ver los distintos tipos de diseños que existen mediante dicha tipología se encuentran en el cuadro 1.
| Tipo de Diseño | Descripción | Uso Común | Clasificación |
|---|---|---|---|
| Diseño Experimental Completo al Azar (DECA) | Todos los tratamientos se asignan al azar a las unidades experimentales. | Cuando las unidades experimentales son homogéneas. | Unifactorial |
| Diseño de Bloques Completos al Azar (DBCA) | Las unidades experimentales se agrupan en bloques homogéneos. | Cuando hay una fuente conocida de variabilidad. | Unifactorial |
| Diseño Factorial | Se estudian dos o más factores al mismo tiempo. | Cuando se quiere conocer el efecto combinado de diferentes factores. | Multifactorial |
| Diseño Cuadrado Latino | Controla dos fuentes de variabilidad al mismo tiempo. | Experimentos agrícolas con variaciones en dos direcciones. | Unifactorial |
| Diseño de Medidas Repetidas | Unidades experimentales sometidas a tratamientos en diferentes momentos. | Cuando se quiere evaluar el efecto del tiempo o la respuesta a tratamientos repetidos. | Unifactorial |
En el ámbito de la investigación, un experimento es una técnica meticulosa donde se ajusta una o más variables, llamadas independientes, para analizar y entender su influencia sobre una o más variables resultantes, denominadas dependientes. Esta metodología nos permite explorar y establecer relaciones causales entre diferentes factores en estudio.
Diseñar un experimento no es una tarea trivial. Implica la configuración de una serie de pasos específicos con el propósito de evaluar una premisa o hipótesis. Este proceso comienza con una profunda comprensión del problema en cuestión, seguido de la definición clara y concisa del objetivo del experimento. Es esencial identificar todas las potenciales fuentes de variación, ya que estas pueden influir en los resultados que deseamos obtener. Una vez identificadas, es crucial decidir sobre el formato experimental más adecuado, que determinará cómo se asignarán las unidades de estudio a las diferentes condiciones o intervenciones. Además, la elección de la cantidad adecuada de muestras y la aplicación de métodos estadísticos correctos son esenciales para garantizar la validez y fiabilidad de los resultados.
A medida que avancemos en este capítulo, es fundamental familiarizarse con algunos términos clave:
Variable independiente: Esta es la variable que se manipula o ajusta en un experimento. En ciertos contextos, especialmente cuando es de naturaleza categórica, se le conoce como factor y sus diferentes categorías son referidas como tratamientos.
Variable dependiente: Representa el resultado o la respuesta que estamos interesados en observar y evaluar.
Error en el experimento: Refiere a las variaciones inesperadas en los resultados que surgen debido a factores que no están bajo el control directo del investigador.
Controlar: Es esencial regular las condiciones del experimento al máximo. Un método común para lograr esto es agrupando unidades experimentales con características parecidas en conjuntos o bloques. Esta estrategia se centra en utilizar las propiedades ya conocidas de las unidades experimentales para justificar y comprender las diferencias.
Aleatorizar: Se refiere a la distribución no sesgada de tratamientos a las unidades experimentales. Esta asignación se realiza de manera aleatoria con el propósito de evitar que se entrecrucen los efectos del tratamiento con otros factores no identificados.
Replicar: Hacer múltiples iteraciones de un tratamiento en un experimento es fundamental para identificar las variaciones intrínsecas entre las unidades experimentales y para mejorar la precisión de los resultados interpretados.
Bloquear: Controlar la variabilidad no deseada que no proviene del tratamiento a estudiar. (ej: agrupar tipos de cultivos (unidades experimentales) tratados y no tratados según la forma del terreno, el cual puede ser una fuente de variabilidad no deseada).
Factorizar: Esta acción permite examinar conjuntamente y comprender las interacciones entre diferentes factores, evaluando combinaciones y relaciones mutuas.
Realizar experimentos controlados, o controlar adecuadamente nos da la ventaja de que podemos:
Determinar relaciones causales: Controlando las variables externas y manipulando la variable independiente, es posible determinar una relación causal entre la variable independiente y la variable dependiente.
Eliminar de variables de confusión: Al controlar las condiciones experimentales, se minimiza el impacto de las variables de confusión, es decir, otras variables que podrían influir en el resultado.
Logramos Reproducibilidad: Un experimento controlado es más fácil de replicar, ya que las condiciones y procedimientos están claramente definidos.
Precisión y validez: Al mantener constantes otras variables, se puede estar más seguro de que cualquier cambio observado en la variable dependiente es realmente debido a la manipulación de la variable independiente.
Comparabilidad: Los resultados de un experimento controlado son más comparables con otros experimentos similares, ya que las condiciones están estandarizadas.
Un aspecto importante para lograr todo ello es que las unidades experimentales solo difieran en el tratamiento. ¿Por qué? Alguna de las razones que podemos enumerar son:
Aislar el efecto del tratamiento: Si las unidades experimentales difieren en otras características además del tratamiento, no se podría determinar con certeza si los cambios observados son debido al tratamiento o a esas otras diferencias.
Minimizar el error: Cuanto más similares sean las unidades experimentales en características no relacionadas con el tratamiento, menor será el error experimental y más confiables serán los resultados.
Evitar variables de confusión: Si las unidades experimentales difieren en características que no están siendo estudiadas pero que podrían influir en los resultados, esas características se convierten en variables de confusión. Al asegurarse de que las unidades experimentales solo difieran en el tratamiento, se minimiza este riesgo.
Mejorar la validez estadística: Cuando las unidades experimentales son similares y solo difieren en el tratamiento, se mejora la validez de las pruebas estadísticas utilizadas para analizar los resultados.
En resumen, controlar un experimento y asegurarse de que las unidades experimentales difieran solo en el tratamiento son prácticas esenciales para garantizar la validez y confiabilidad de los resultados experimentales. De ahí la importante de tener un grupo control para validar o aislar el efecto mismo del tratamiento.
La aleatorización de tratamientos a las unidades experimentales es un componente fundamental en el diseño experimental. De las razones que podemos mencionar son:
Control de Variables de Confusión: Aleatorizar asegura que las variables conocidas y desconocidas se distribuyan equitativamente entre los grupos de tratamiento. Esto minimiza el riesgo de que una variable no controlada distorsione los resultados.
Imparcialidad: Al aleatorizar, cada unidad experimental tiene la misma probabilidad de recibir cualquier tratamiento, lo que elimina cualquier sesgo en la asignación de tratamientos. Cuando no hay aleatorización no hay parcialidad, por lo que hay factores que inciden en la probabilidad de ser parte de la asignación del tratamiento. Esto implica que de no corregir ello tenemos un sesgo por variables omitidas (omitted variable bias). Esto no ocurre en la aleatorización ya que tras ella las características no observables se distribuyen de manera aleatoria entre los grupos tratamiento y control.
Validación Estadística: La aleatorización es una suposición básica para muchas pruebas estadísticas. Si las unidades no se asignan al azar a los tratamientos, las inferencias estadísticas podrían no ser válidas.
Eliminación de Sesgos: Si los investigadores o participantes saben qué tratamiento se administrará a continuación (sin aleatorización), podrían, consciente o inconscientemente, influir en los resultados.
Generalización de Resultados: La aleatorización aumenta la posibilidad de que los resultados sean generalizables a una población más amplia, ya que reduce el sesgo en la selección de la muestra.
Mejora la Comparabilidad: Con la aleatorización, se espera que las diferencias iniciales entre los grupos sean solo el resultado del azar y no de algún factor sistemático. Esto significa que cualquier diferencia en los resultados entre los grupos puede atribuirse con mayor confianza al tratamiento y no a otras diferencias.
Legitimidad de Conclusión Causal: Al controlar otras fuentes de variabilidad mediante la aleatorización, se fortalece la afirmación de que un cambio en la variable dependiente fue causado por el tratamiento y no por otros factores.
En resumen, la aleatorización es esencial para garantizar la validez y confiabilidad de un experimento. Ayuda a controlar variables de confusión (o reduce la necesidad de introducir en el diseño variables de control que resten grados de libertad a la prueba estadística ya que a veces no siempre es posible aleatorizar de manera física sino parcialmente), asegura la imparcialidad, y permite a los investigadores hacer inferencias causales más robustas sobre los efectos del tratamiento.
La replicabilidad es esencial en el diseño experimental por varias razones, y tu mención sobre el tamaño de muestra y su relación con efectos pequeños es uno de los aspectos importantes. Vamos a profundizar en la importancia de la replicabilidad:
Verificación de Resultados: La ciencia se basa en la capacidad de repetir experimentos y obtener resultados consistentes. Si un experimento no es replicable, es difícil tener confianza en sus resultados. La replicación permite a otros investigadores verificar y confirmar los hallazgos originales.
Minimizar Variabilidad Aleatoria: Los resultados de un solo experimento pueden verse afectados por variabilidad aleatoria. Al replicar un experimento varias veces, es más probable que los efectos verdaderos emerjan y que la variabilidad aleatoria se promedie.
Detectar Efectos Pequeños: Los tamaños de muestra pequeños pueden no tener el poder estadístico suficiente para detectar efectos pequeños. Al replicar un estudio, y especialmente al aumentar el tamaño de muestra en replicaciones, es más probable detectar estos efectos sutiles.
Proteger Contra el Error Tipo I: El error tipo I ocurre cuando se detecta un efecto que en realidad no existe (falso positivo). La replicación ayuda a proteger contra esto, ya que es menos probable que un resultado falso positivo se repita en múltiples replicaciones.
Aumentar la Generalización: Si un experimento es replicado en diferentes condiciones, poblaciones o lugares y produce resultados similares, aumenta nuestra confianza en que los hallazgos son generalizables y no son específicos de una situación particular.
Mitigar Sesgos: Si un estudio original tiene algún sesgo (ya sea por diseño, implementación o análisis), la replicación, especialmente si es realizada por investigadores independientes, puede ayudar a identificar y corregir estos sesgos.
En resumen, la replicabilidad es fundamental para la robustez y confiabilidad de los hallazgos experimentales. Asegura que los resultados no son producto de casualidades o errores, y refuerza la confianza en las conclusiones derivadas de la investigación.
El bloqueo es una técnica utilizada en el diseño experimental para controlar o ajustar la variabilidad que no proviene del tratamiento (o factores) de interés. Esencialmente, el bloqueo implica agrupar unidades experimentales que son similares en alguna forma que se espera que afecte la respuesta al tratamiento. De esta manera, esta técnica permite aislar y controlar la variabilidad que se debe a las diferencias entre los bloques.
Considera estos puntos clave sobre el bloqueo:
Control de Variabilidad: En muchas situaciones experimentales, hay fuentes de variabilidad que no son de interés para el investigador pero que pueden afectar la respuesta. Estas fuentes de variabilidad pueden obscurecer o confundir el efecto real del tratamiento. Al usar bloques, se controla esta variabilidad adicional.
Mejora de la Precisión: Al reducir la variabilidad no deseada, se mejora la precisión de las estimaciones del efecto del tratamiento. Esto puede resultar en una mayor potencia estadística y conclusiones más confiables.
Estructura del Diseño: En un diseño de bloques, cada bloque contiene una réplica de cada tratamiento. Por lo tanto, cada tratamiento se aplica una vez dentro de cada bloque.
Aplicaciones Comunes: Una aplicación común del bloqueo es en la agricultura. Por ejemplo, si un campo tiene áreas que difieren en calidad del suelo, esas áreas diferentes pueden tratarse como bloques. Al hacerlo, cada tratamiento se prueba en cada tipo de suelo, controlando así la variabilidad debido a las diferencias del suelo.
Bloqueo vs Aleatorización: El bloqueo es una forma de controlar la variabilidad, mientras que la aleatorización es una técnica para asegurar que las unidades experimentales se asignen a los tratamientos de manera imparcial. Aunque ambas técnicas buscan mejorar la inferencia causal, se aplican en diferentes etapas del diseño experimental y tienen propósitos distintos.
En resumen, el bloqueo es una estrategia de diseño experimental que permite a los investigadores controlar la variabilidad adicional que podría confundir los efectos del tratamiento. Al agrupar unidades experimentales similares en bloques y aplicar cada tratamiento dentro de cada bloque, se puede obtener una estimación más precisa del efecto del tratamiento.
La factorización en diseños experimentales se realiza principalmente para examinar y entender cómo diferentes factores influyen en la variable dependiente, tanto individualmente como en combinación con otros factores. La interacción entre factores es una de las razones clave para factorizar, pero hay otras razones importantes. A continuación, te detallo por qué los científicos factorizan en diseños experimentales:
Efectos Principales: Factorizar permite a los investigadores evaluar los efectos principales de cada factor. Es decir, se puede determinar cómo cambia la variable dependiente en respuesta a cambios en un factor específico, manteniendo constantes los demás factores.
Interacciones entre Factores: Como mencionaste, uno de los principales objetivos de la factorización es investigar las interacciones entre factores. Una interacción ocurre cuando el efecto de un factor sobre la variable dependiente depende del nivel de otro factor. En otras palabras, el efecto combinado de dos factores no es simplemente la suma de sus efectos individuales.
Eficiencia Estadística: Los diseños factoriales, donde se estudian múltiples factores simultáneamente, suelen ser más eficientes que realizar múltiples experimentos unifactoriales por separado. Se pueden obtener más datos con menos experimentos, lo que puede ahorrar tiempo y recursos.
Generalización: Al estudiar múltiples factores en un solo experimento, los resultados pueden ser más generalizables. Se puede obtener una comprensión más completa de cómo una variable dependiente es influenciada en diferentes contextos o condiciones.
Descubrimiento de Condiciones Óptimas: En muchos campos, especialmente en ciencias aplicadas como la ingeniería o la biología, el objetivo es encontrar condiciones óptimas para un proceso o respuesta. Factorizar puede ayudar a identificar combinaciones de factores que maximizan o minimizan la respuesta.
Comprensión Compleja de Sistemas: Los sistemas en el mundo real suelen ser influenciados por múltiples factores simultáneamente. Factorizar en diseños experimentales ayuda a los científicos a modelar y entender estos sistemas complejos de manera más realista.
La replicación requiere de una serie de mínimos para ser considerada como tal. Para comprender esto hay que irnos a comprender ciertos conceptos básicos en filosofía de la ciencia y epistemología. Esto es porque los experimentos son no solamente un asunto de creatividad humana, sino también someter al pruebas con condiciones iniciales distintas, así como unidades experimentales múltiples e independientes. ¿Por qué? Como Karl Popper menciona, un enfoque para pensar la ciencia es conjeturas y refutaciones. Los científicos hacen uso de las teorías (conjunto de relaciones lógicas, empíricas que conforman una explicación sistemática acerca de un aspecto de la realidad), derivan consecuencias observables acorde a ese cuerpo de conocimiento y luego someten a test experimentales. La ciencia también es, como expone Imre Lakatos, programas de investigación científica que construyen hipótesis alrededor de ese marco teorético y filosófico mediante experimentos, por lo que las hipótesis compiten entre sí y programas pueden ser mejores en producir conocimiento empírico alrededor del mundo que otros. Esa es la diferencia entre un programa científico de investigación que es empíricamente progresivo (produce nueva evidencia robusta) y uno empíricamente regresivo (no produce nuevas hipótesis y las corrobora). En esto la replicación debe de ser efectiva y es crucial para que programas científicos de investigación generen conocimiento (perfectible pero corroborable) sobre la realidad.
En el contexto de la estadística y el diseño experimental podemos replicar los tratamientos en distintas unidades experimentales e independientes (ej: 1 factor con 5 niveles puede ser replicado mediante 5 ejecuciones, un caso de 4 factores con 2 niveles cada uno-> \(2^4=16\) ejecuciones). Esto significa que la replica efectiva necesita de no solo múltiples ejecuciones de la misma configuración de factores o niveles del factor, sino que la replica efectiva requiere de que estas estén sujetas a las mismas fuentes de variabilidad, independientemente unas de las otras.
Como vimos anteriormente la replicación es la asignación de más de unidad experimental al mismo tratamiento (o la combinación de los tratamientos ejecutados en experimentos factoriales).
Imaginen que se realiza un experimento en el que se le asigna 6 tratamientos a unos conejos en un donde se agrupan los conejos en unas jaulas. Las unidades experimentales claramente son las jaulas, pero la unidad observacional es la muestra (los 180 conejos divididos en 6 grupos de 30).
Nota: Hay contextos en donde la unidad experimental y la unidad observacional son las mismas. Todo depende del diseño y el objetivo de la investigación y si optar por que ese diseño pueda aislar las fuentes de variabilidad adecuadas para asegurar que no existen sesgos en el experimento.
Otro aspecto importante en la replicación es que las múltiples unidades experimentales repetidas por cada tratamiento es una condición necesaria para que esta sea adecuada. Por igual, si la replicación se logra por medio de un diseño que viola la medición independiente de las observaciones (que sean i.i.d) podemos tener p-valores superoptimísticos, incurriendo en errores de tipo I. Por último, la aleatoriedad es crucial en la asignación del tratamiento, porque de lo contrario, no se asegura causalidad ni se hace una operación efectiva de replicación. Igualmente, la replicación aplica para estudios observacionales pero deben de tener una buena fundamentación teórico-empírica y cabe recordar que las herramientas informáticas, el uso de códigos y formatos de exposición de los datos como Markdown o Quarto, sobre su funcionalidad lo hemos hablando aquí y sus implicaciones para la reproducibilidad en las ciencias.
Cuando no se cumplen los requisitos adecuados se puede incluir en el problema de la pseudoreplicación.
La pseudoreplicación se refiere a la situación en la que las observaciones no son independientes, pero se tratan como tales en un análisis estadístico(Hurlbert 1984). Es un error común en estudios experimentales y puede llevar a inferencias incorrectas sobre los efectos de un tratamiento o factor en estudio. La pseudoreplicación puede surgir cuando se toman múltiples medidas de una misma unidad experimental y se tratan como replicaciones independientes.
Los problemas de autoreplicación surgen cuando investigadores carecen de aspectos prácticos esenciales en materia del diseño experimental (Martínez Abrain, Conesa, and Oro 2008)
Hulbert es de los autores más reconocidos en el tema de la pseudoreplicación. Este expresa que hay dos clases de experimentos: experimento de medición (mesurative experiments) y experimento manipulativo (manipulative experiments). Ambos difieren en la cantidad de comparaciones que buscan medir. Los experimentos manipulativos tienen más de 2 tratamientos (Hurlbert 1984, 190). El objetivo último de los experimentos manipulativos es que dichas unidades experimentales reciban diferentes tratamientos y que la asignación de estos a las unidades experimentales sean o puedan ser aleatorizados.
Los experimentos manipulativos están sujetos a distintas fuentes de sesgos que son muy similares a las que hemos mencionado anteriormente que pueden inducir la pseudoreplicación y otros no tan obvios como menciona el autor. Muchos de los problemas se deben no solamente a problemas del diseño experimental sino también por una serie de elementos que podemos describir en el cuadro siguiente:
| Fuente de la confusión | Elementos del diseño experimental que reducen o eliminan la confusión |
|---|---|
|
Controles en el tratamiento |
|
Controles en el tratamiento. |
|
|
|
|
|
|
|
|
|
|
Otras soluciones son es si hay medidas repetidas, promediarlas (pero ten en cuenta si el número de observaciones por unidades experimentales son similares, de lo contrario el promedio no captará mucho las que poseen tamaños distintos). Analizar cada punto de datos dependiente por separado y por último el uso de modelos jerárquicos o modelos mixtos pueden permitir soluciones ante este problema.
En caso de que no se pueda evitar la pseudoreplicación debes de hacer lo siguiente:
Haz todo lo posible para minimizar la falta de independencia en las pseudo-réplicas.
Ten cuidado al analizar e informar los resultados.
Considera el estudio como preliminar.
La aleatorización es un proceso mediante el cual se asignan al azar los tratamientos o intervenciones a los sujetos o unidades experimentales en un estudio o experimento. Es una técnica fundamental en el diseño experimental y en ensayos clínicos para garantizar que cada participante tenga la misma probabilidad de ser asignado a cualquier grupo de tratamiento.
Ventajas de la aleatorización: 1. Control de variables confundidoras: Al asignar aleatoriamente los tratamientos, se equilibran tanto las variables observadas como las no observadas entre los grupos, lo que reduce el riesgo de sesgo.
Validación estadística: La aleatorización permite realizar inferencias estadísticas válidas sobre los efectos del tratamiento.
Generalización: Los resultados de un estudio aleatorizado son más generalizables a la población general que los de un estudio no aleatorizado.
Eliminación de sesgos: Reduce el riesgo de sesgo de selección y otros sesgos que pueden afectar la validez de un estudio.
Desventajas de la aleatorización:
No siempre es práctico o ético: En algunos contextos, no es posible o ético asignar aleatoriamente tratamientos (por ejemplo, cuando ya se sabe que un tratamiento es superior).
Variabilidad: Aunque la aleatorización controla las variables confundidoras en promedio, todavía puede haber variabilidad dentro de los grupos, especialmente en estudios pequeños.
Posibilidad de desequilibrio: En estudios con un tamaño de muestra pequeño, la aleatorización podría llevar a un desequilibrio en algunas características clave entre los grupos.
Resistencia por parte de los participantes: Algunos participantes podrían no querer ser asignados al azar a un grupo de tratamiento en particular, lo que podría llevar a la deserción o falta de adherencia al tratamiento.
Existen varios métodos de aleatorización o de asignación aleatoria de
participantes a grupos de tratamiento y experimentación. Esta puede ser
simple, aleatoria completa o por bloques/estratos. Con la librería
randomizr podemos efectuar esa tarea:
#install.packages("randomizr")
library(randomizr)
Es la aleatorización basada en una sola secuencia de asignaciones aleatorias. El código para ello sigue la siguiente estructura:
library(randomizr)
simple_ra(N, # Núm de unidades.
prob= NULL, #Probabilidad de asignación (longitud 1)
prob_unit = NULL, #Probabilidad de asignación (longitud N)
prob_each = NULL, #Prob. asignación a cada condición.
num_arms= NULL, #Niveles del tratamiento
conditions = NULL, #Nombres de los niveles de tratamiento
check_inputs = TRUE, #Lógico, predeterminado
simple = TRUE, #lógico, solo para uso interno
)
Si queremos hacer un experimento con un \(N=10\) y dos grupos (placebo y tratamiento) corremos el siguiente código que nos dará un vector de longitud N. La desventaja es que dependiendo de la asignación aleatoria, se podría asignar un número diferente de sujetos a los grupos.
Nota: Una forma de reducir la variabilidad y reproducir el mismo número de participantes sería calibrando un poco el seed (ej: usar el comando
seed(1234)o el número de tu preferencia en la generación de pseudo-números aleatorios en la aleatorización.
aleatorio_simple<-simple_ra(N=10,
num_arms = 2,
conditions = c("Tratamiento 1", "Placebo"))
head(aleatorio_simple)
## [1] Placebo Tratamiento 1 Tratamiento 1 Placebo Tratamiento 1
## [6] Tratamiento 1
## Levels: Tratamiento 1 Placebo
table(aleatorio_simple)
## aleatorio_simple
## Tratamiento 1 Placebo
## 4 6
Es el tipo de asignación aleatoria por bloques, esto es necesario para que generen tamaños de muestras iguales.
total<-complete_ra(N=200, conditions = c("Tratamiento 1", "Placebo"))
table(total)
## total
## Tratamiento 1 Placebo
## 100 100
Este método se utiliza para lograr un equilibrio adecuado entre los tratamientos en relación a los rasgos inciales de los sujetos (covariables). Una de las ventajas de este diseño es que permite reducir el ruido de factores molestos y mejora la precisión de la estimación. Para esto tenemos una base de datos de estudiantes.
estudiantes<-read.csv("http://www.discovr.rocks/csv/students.csv")
summary(estudiantes)
## name birth_date group friends
## Length:10 Length:10 Length:10 Min. : 0.0
## Class :character Class :character Class :character 1st Qu.: 2.5
## Mode :character Mode :character Mode :character Median : 7.5
## Mean : 7.8
## 3rd Qu.:12.0
## Max. :17.0
## alcohol income neurotic
## Min. : 5.00 Min. : 10 Min. : 7.00
## 1st Qu.:15.25 1st Qu.: 3500 1st Qu.:10.75
## Median :17.50 Median :15000 Median :13.00
## Mean :17.60 Mean :18511 Mean :13.10
## 3rd Qu.:20.00 3rd Qu.:31750 3rd Qu.:14.00
## Max. :30.00 Max. :50000 Max. :21.00
Ahora bien, una de las desventajas claras de este diseño es que si hay que controlar por muchas covariables no es posible estimar efectos causales. Además, esta funciona si se ha identificado a todos los sujetos antes de la asignación de grupo. La forma de asignarlo en R es con el siguiente comando:
estudiantes$experimento<-block_ra(blocks = estudiantes$group,
conditions = c("Tratamiento", "Control"),
prob_each = c(0.5,0.5))
head(estudiantes)
## name birth_date group friends alcohol income neurotic experimento
## 1 Ben 1977-07-03 Lecturer 5 10 20000 10 Tratamiento
## 2 Martin 1969-05-24 Lecturer 2 15 40000 17 Control
## 3 Andy 1973-06-21 Lecturer 0 20 35000 14 Control
## 4 Paul 1970-07-16 Lecturer 4 5 22000 13 Tratamiento
## 5 Graham 1949-10-10 Lecturer 1 30 50000 21 Tratamiento
## 6 Carina 1983-11-05 Student 10 25 5000 7 Tratamiento
table(estudiantes$experimento, estudiantes$group)
##
## Lecturer Student
## Tratamiento 3 3
## Control 2 2
Como vimos anteriormente, el bloqueo en diseño experimental es una técnica utilizada para reducir la variabilidad en los resultados de un experimento. Esta técnica consiste en dividir el experimento en grupos o “bloques”, donde cada bloque es homogéneo en algún aspecto que es relevante para el experimento. Por ejemplo, si un experimento involucra plantas, los bloques pueden ser áreas del jardín con condiciones de suelo similares. Al hacer esto, se controlan las variables no deseadas que podrían afectar los resultados del experimento.
El bloqueo es especialmente útil cuando las condiciones experimentales son difíciles de controlar completamente. Al agrupar unidades experimentales similares en bloques, se asegura que las diferencias dentro de cada bloque sean mínimas. Esto permite que los investigadores se concentren más en las diferencias causadas por los tratamientos experimentales, en lugar de las variaciones debidas a otros factores.
Además, el diseño de bloques permite una comparación más precisa entre los tratamientos, ya que cada tratamiento se aplica en un contexto más controlado y homogéneo. Esto aumenta la precisión estadística de los resultados y permite conclusiones más sólidas sobre los efectos de los tratamientos en estudio.
El uso de bloques en diseño experimental ofrece varias ventajas importantes:
Control de Variabilidad: Al agrupar unidades experimentales similares en bloques, se controla la variabilidad debida a factores no relacionados con los tratamientos. Esto es crucial en experimentos donde las condiciones externas pueden influir significativamente en los resultados.
Mayor Precisión Estadística: El bloqueo aumenta la precisión estadística de los resultados. Al reducir la variabilidad no relacionada con el tratamiento, las diferencias reales entre los tratamientos se vuelven más evidentes y fáciles de detectar.
Mejor Uso de los Recursos: Los diseños de bloque pueden ser más eficientes en términos de recursos. Al controlar las variables de confusión, se pueden obtener conclusiones más claras sin necesidad de un gran número de réplicas.
Adaptabilidad a Diferentes Condiciones: Los diseños de bloques son útiles en situaciones donde no se puede lograr un control total del entorno experimental. Permiten que los experimentos se adapten a una variedad de condiciones naturales o de campo.
Facilita el Análisis de Datos: El análisis de datos en un diseño de bloques es más sencillo y directo. Se pueden aplicar técnicas estadísticas específicas para analizar los datos dentro y entre bloques, lo que ayuda a obtener conclusiones más claras.
Mejora la Comparación entre Tratamientos: Al reducir la variabilidad no esencial, los diseños de bloques permiten una comparación más justa y precisa entre los diferentes tratamientos.
Los factores molestos son elementos que probablemente afectan los resultados del experimento, pero no son el foco principal del estudio. El objetivo es mantenerlos bajo control . Algunos ejemplos comunes incluyen diferentes lotes de materias primas, los operadores involucrados, los equipos utilizados para las pruebas, y factores temporales como turnos laborales, días específicos y similares. Estos elementos, aunque no son el objetivo del experimento, pueden influir significativamente en los resultados y por lo tanto se buscan formas de controlar su impacto.
| Tipo de factor/Opción | Controlable | Incontrolable |
|---|---|---|
| Conocido | Bloqueo | Análisis de Covarianza (ANCOVA) |
| Desconocido | X | Aleatorización |
Según Bailey (2008) podemos clasificar los bloques en 3 tipos:
Podemos en algunas ocasiones combinar fuentes distintas de dicha tipología mencionada arriba de variabilidad en un solo bloque. Esto constituye luego una variable agregada que resume o contiene el efecto de varias variables molestas a la vez.
El bloqueo en diseños experimentales conlleva tanto ventajas como desventajas:
Elegir y planificar adecuadamente el diseño de un experimento es fundamental por varias razones:
Control de Variables: Un buen diseño experimental permite controlar las variables que podrían afectar los resultados. Esto asegura que los efectos observados se deben realmente a la variable independiente y no a factores externos.
Repetibilidad y Replicabilidad: Los experimentos bien diseñados pueden ser repetidos y replicados por otros investigadores, lo cual es esencial para validar los resultados y fortalecer la confianza en las conclusiones.
Uso Eficiente de Recursos: Un diseño eficiente optimiza el uso de tiempo, dinero y otros recursos. Esto es especialmente importante en investigaciones que involucran recursos costosos o limitados.
Reducción de Sesgos: Un diseño adecuado ayuda a minimizar sesgos, tanto en la recolección de datos como en su interpretación. Esto incluye sesgos del experimentador, selección de muestra, y otros sesgos sistemáticos.
Generación de Datos Confiables y Válidos: La validez (medir lo que se pretende medir) y la fiabilidad (consistencia de los resultados) de los datos dependen en gran medida de un buen diseño experimental.
Capacidad de Generalización: Un diseño bien planificado aumenta la probabilidad de que los resultados sean generalizables a una población más amplia, lo que es crucial para la aplicabilidad de los hallazgos.
Cumplimiento Ético y Legal: Un diseño adecuado considera aspectos éticos y legales, especialmente en experimentos con seres humanos o animales, asegurando el respeto por los derechos y el bienestar de los sujetos involucrados.
Claridad en la Hipótesis y Objetivos: La planificación ayuda a definir claramente las hipótesis y objetivos, lo cual es esencial para la dirección y el enfoque del estudio.
Dentro de los tipos de diseños que existen se encuentran:
Un diseño completamente al azar (CRD) es un diseño experimental en el que todos los tratamientos se asignan de manera aleatoria a todos los sujetos experimentales o unidades experimentales(Festing 2020). Este diseño es adecuado para su uso generalizado en la investigación preclínica y se ha utilizado con éxito en la investigación agrícola e industrial y en ensayos clínicos durante casi un siglo. En el CRD, tanto la asignación de tratamientos a los sujetos como el orden en el que se realiza el experimento se determinan al azar.
Ventajas.
Desventajas
#install.packages("agricolae")
library(agricolae)
design.crd(trt, #Núm. de factores y niveles
r, #Num de réplicas /bloques
serie=2, # 1: 11, 12; 2 101, 102; 3: 1001, 1002
seed= 0, #semilla de aleatoridad
kinds = "Super-Duper", #Método de aleatorizar
randomization= TRUE) #Aleatorizar (de carácter lógico)
ejemplo_CRD<-design.crd(trt = c("A", "B", "C", "D"),
r= c(4, 3, 4, 5), seed=777, serie=0)
head(ejemplo_CRD)
## $parameters
## $parameters$design
## [1] "crd"
##
## $parameters$trt
## [1] "A" "B" "C" "D"
##
## $parameters$r
## [1] 4 3 4 5
##
## $parameters$serie
## [1] 0
##
## $parameters$seed
## [1] 777
##
## $parameters$kinds
## [1] "Super-Duper"
##
## $parameters[[7]]
## [1] TRUE
##
##
## $book
## plots r c("A", "B", "C", "D")
## 1 1 1 C
## 2 2 2 C
## 3 3 1 A
## 4 4 1 B
## 5 5 1 D
## 6 6 2 A
## 7 7 2 D
## 8 8 2 B
## 9 9 3 D
## 10 10 3 C
## 11 11 4 D
## 12 12 3 B
## 13 13 5 D
## 14 14 4 C
## 15 15 3 A
## 16 16 4 A
Un Diseño de Bloques Completos al Azar (RCBD, por sus siglas en inglés) es un diseño experimental que se utiliza cuando los experimentos involucran más de una variable. En un RCBD, los sujetos o unidades experimentales se dividen en bloques o grupos que son homogéneos en alguna manera. Cada bloque contiene todas las condiciones de tratamiento, y los tratamientos se asignan al azar dentro de cada bloque. Esto se hace para controlar las variaciones sistemáticas entre los bloques y así obtener una estimación más precisa del efecto del tratamiento. En resumen, el RCBD es un diseño que minimiza las variaciones dentro de los tratamientos al agrupar unidades experimentales similares juntas en bloques.
Ventajas
Desventajas
library(agricolae)
design.rcbd(trt,
r,
serie=2,
kinds = "Super-Duper",
first = TRUE,
continue = FALSE,
randomization = TRUE)
exp_rcbd<-design.rcbd(trt=c("T1R1", "T1R2", "T1R3",
"T2R1", "T2R2", "T2R3"),
r=4, seed =1234, serie=2)
head(exp_rcbd)
## $parameters
## $parameters$design
## [1] "rcbd"
##
## $parameters$trt
## [1] "T1R1" "T1R2" "T1R3" "T2R1" "T2R2" "T2R3"
##
## $parameters$r
## [1] 4
##
## $parameters$serie
## [1] 2
##
## $parameters$seed
## [1] 1234
##
## $parameters$kinds
## [1] "Super-Duper"
##
## $parameters[[7]]
## [1] TRUE
##
##
## $sketch
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] "T1R3" "T1R2" "T2R3" "T2R1" "T2R2" "T1R1"
## [2,] "T2R1" "T2R3" "T1R3" "T1R2" "T1R1" "T2R2"
## [3,] "T1R3" "T2R2" "T1R1" "T2R3" "T2R1" "T1R2"
## [4,] "T1R2" "T2R3" "T2R2" "T1R3" "T1R1" "T2R1"
##
## $book
## plots block c("T1R1", "T1R2", "T1R3", "T2R1", "T2R2", "T2R3")
## 1 101 1 T1R3
## 2 102 1 T1R2
## 3 103 1 T2R3
## 4 104 1 T2R1
## 5 105 1 T2R2
## 6 106 1 T1R1
## 7 201 2 T2R1
## 8 202 2 T2R3
## 9 203 2 T1R3
## 10 204 2 T1R2
## 11 205 2 T1R1
## 12 206 2 T2R2
## 13 301 3 T1R3
## 14 302 3 T2R2
## 15 303 3 T1R1
## 16 304 3 T2R3
## 17 305 3 T2R1
## 18 306 3 T1R2
## 19 401 4 T1R2
## 20 402 4 T2R3
## 21 403 4 T2R2
## 22 404 4 T1R3
## 23 405 4 T1R1
## 24 406 4 T2R1
También se nos es posible ver la distribución de los tratamientos en
forma de matriz, usando la función print(objeto$sketch) o
por medio de la función zigzag():
print(exp_rcbd$sketch)
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] "T1R3" "T1R2" "T2R3" "T2R1" "T2R2" "T1R1"
## [2,] "T2R1" "T2R3" "T1R3" "T1R2" "T1R1" "T2R2"
## [3,] "T1R3" "T2R2" "T1R1" "T2R3" "T2R1" "T1R2"
## [4,] "T1R2" "T2R3" "T2R2" "T1R3" "T1R1" "T2R1"
libro<-zigzag(exp_rcbd) #Numeración zigzag
print(matrix(libro[,1], byrow = T, ncol = 6))
## [,1] [,2] [,3] [,4] [,5] [,6]
## [1,] 101 102 103 104 105 106
## [2,] 206 205 204 203 202 201
## [3,] 301 302 303 304 305 306
## [4,] 406 405 404 403 402 401
#Una matriz 4 x 6.
Nota: Los modelos RCBD no aceptan interacciones entre los bloques.
En ocasiones, puede no ser posible, recomendable o necesario incluir todos los tratamientos en cada bloque experimental. En tales situaciones, se puede optar por implementar un diseño de bloques incompletos balanceados (BIBD). En un BIBD, cada combinación de tratamientos coexiste el mismo número de veces a lo largo de los bloques, lo que asegura el equilibrio. Sin embargo, no todos los tratamientos se prueban en cada bloque, lo que constituye la naturaleza “incompleta” del diseño. La finalidad de organizar los tratamientos en bloques es conseguir unidades experimentales que sean lo más homogéneas posible.
Un BIBD es un diseño de bloque incompleto donde todos los pares de tratamientos ocurren juntos dentro de un bloque un número igual de veces ( \(\lambda\)=el número de veces que el tratamiento i ocurre con i’, en un bloque).
design.bib(trt, # tratamientos
k, # tamaño dle bloque
r=NULL, # replicaciones
serie = 2, # numeración de la serie
seed = 0, # semilla de aleatoriedad
kinds = "Super-Duper", # método para aleatorizar
maxRep=20, # repetición máxima
randomization=TRUE) # aleatorización (lógico)
diseñobibd<-design.bib(trt =c("Tranferencias mensuales",
"Transferencias bisemanal",
"Transferencias trimestrales",
"Transferencias directas a la madre",
"Control"),
k=4, seed=543, serie=2)
## Warning in names(book)[3] <- c(paste(deparse(substitute(trt)))): número de
## items para para sustituir no es un múltiplo de la longitud del reemplazo
##
## Parameters BIB
## ==============
## Lambda : 3
## treatmeans : 5
## Block size : 4
## Blocks : 5
## Replication: 4
##
## Efficiency factor 0.9375
##
## <<< Book >>>
#Cömo queda asignados en el BIDB?
diseñobibd$statistics
## lambda treatmeans blockSize blocks r Efficiency
## values 3 5 4 5 4 0.9375
Habíamos mencionado el Diseño de Cuadrado Latino (LSD), una técnica de diseño experimental utilizada para controlar dos fuentes de variabilidad al mismo tiempo. En este diseño, se organiza un experimento en un arreglo cuadrado donde cada tratamiento se aplica una sola vez en cada fila y cada columna. Este método es particularmente útil cuando se tienen dos fuentes de variación distintas, como pueden ser el tiempo y el espacio, y se busca minimizar su impacto en los resultados del experimento. Cada fila y columna representa un nivel diferente de las variables de bloqueo.
El caso más sencillo es un cuadrado, donde las filas y columnas forman los bloques (dos factores bloque) y los tratamientos se reparten de tal manera que el número de unidades experimentales en cada fila y cada columna es igual al número de tratamientos.
design.lsd(trt, # tratamientos
serie = 2, # numeración de la serie
seed = 0, # semilla de aleatoriedad
kinds = "Super-Duper", # método para aleatorizar
first=TRUE, # aleatorizar la rep 1
randomization=TRUE) # aleatorizar (lógico)
out_latinsquare <- design.lsd(trt= c("A","B","C","D"),
seed=543, serie=2)
head(out_latinsquare$book)
## plots row col c("A", "B", "C", "D")
## 1 101 1 1 B
## 2 102 1 2 C
## 3 103 1 3 A
## 4 104 1 4 D
## 5 201 2 1 D
## 6 202 2 2 A
print(out_latinsquare$sketch)
## [,1] [,2] [,3] [,4]
## [1,] "B" "C" "A" "D"
## [2,] "D" "A" "C" "B"
## [3,] "C" "D" "B" "A"
## [4,] "A" "B" "D" "C"
book <- zigzag(out_latinsquare)
print(matrix(book[,1],byrow = TRUE, ncol = 4))
## [,1] [,2] [,3] [,4]
## [1,] 101 102 103 104
## [2,] 204 203 202 201
## [3,] 301 302 303 304
## [4,] 404 403 402 401
Este tipo de diseños hay más de un factor en consideración en el experimento. Permite combinar dos o más experimentos sencillos de un factor en un solo experimento, analizando su interacción.
Los diseños factoriales tienen una utilidad inmensa porque permiten estructurar o crear un marco para examinar efectos no solo de múltiples factores principales, sino de las interacciones de estos. Esto permite hacer un análisis más integral.
Los efectos principales son en esencia el efecto condicional de una variable (ejemplo el tratamiento o de un factor) en la variable a estudiar.
Los efectos de interacción refieren a cuando dichas variables por las que se condicionan se mueven de manera simultánea, o mejor dicho cuando condicionamos en el experimento por la interacción de todas estas. Un ejemplo sería ver el efecto de la interacción de dos metales en su resistencia ya que se utilizan en una viga de construcción:
La interacción podría:
Mayor control de las varibales ambientales o del material experimental
Mayor eficiencia, ya que la realización de varios experimentos separados generalmente implica más trabajo y recursos.
Mayor alcance ya que se puede identificar más de un factor experimental de interés. Cuando comparamos de 1 a 1 no se tiene alguna forma de evaluar como se comportan las respuestas a un tratamiento con respecto a los niveles de otros tratamientos.
Producto de este tipo de diseños podemos llegar a testear un conjunto amplio de hipótesis (tanto de efectos principales y de interacción).
Píldoras de evaluar las interacciones.
Evalúa primero las interacciones: La interacción si es no significativa se puede eliminar dicho término y usar un modelo aditivo (efectos principales). Ahora bien, en caso de ser estadísticamente significativa no es posible hacer mucho para interpretar los efectos principales.
design.ab(trt, # niveles de los factores
r = NULL, # replicaciones o bloques
serie = 2, # numeración de la serie
design = c("rcbd", "crd", "lsd"), # tipo de diseño
seed = 0, # semilla de aleatoriedad
kinds = "Super-Duper", # método para aleatorizar
first = TRUE, # # aleatorizar la rep 1
randomization = TRUE) # aleatorizar (lógico)
diseño_factorial<-design.ab(trt = c(3,2),
r=3, seed = 123, serie=2)
head(diseño_factorial)
## $parameters
## $parameters$design
## [1] "factorial"
##
## $parameters$trt
## [1] "1 1" "1 2" "2 1" "2 2" "3 1" "3 2"
##
## $parameters$r
## [1] 3
##
## $parameters$serie
## [1] 2
##
## $parameters$seed
## [1] 123
##
## $parameters$kinds
## [1] "Super-Duper"
##
## $parameters[[7]]
## [1] TRUE
##
## $parameters$applied
## [1] "rcbd"
##
##
## $book
## plots block A B
## 1 101 1 1 1
## 2 102 1 3 2
## 3 103 1 2 2
## 4 104 1 1 2
## 5 105 1 3 1
## 6 106 1 2 1
## 7 107 2 2 2
## 8 108 2 1 2
## 9 109 2 3 2
## 10 110 2 1 1
## 11 111 2 3 1
## 12 112 2 2 1
## 13 113 3 2 2
## 14 114 3 1 2
## 15 115 3 1 1
## 16 116 3 3 2
## 17 117 3 3 1
## 18 118 3 2 1
zigzag(diseño_factorial)
## plots block A B
## 1 101 1 1 1
## 2 102 1 3 2
## 3 103 1 2 2
## 4 104 1 1 2
## 5 105 1 3 1
## 6 106 1 2 1
## 7 112 2 2 2
## 8 111 2 1 2
## 9 110 2 3 2
## 10 109 2 1 1
## 11 108 2 3 1
## 12 107 2 2 1
## 13 113 3 2 2
## 14 114 3 1 2
## 15 115 3 1 1
## 16 116 3 3 2
## 17 117 3 3 1
## 18 118 3 2 1
Cuando hay dos o más factores estos pueden ser:
Según (Brunner, Bathke, and Konietschke 2018) Los niveles de cada factor están combinados con todos los niveles de los factores restantes (cruzados) o, lo que es lo mismo, todas las combinaciones de los niveles se aplican a las unidades experimentales.
En algunos casos, niveles específicos de un factor están asociados exclusivamente con niveles particulares de otro factor. Esto significa que cada nivel de uno de los factores solo se presenta en combinación con un nivel específico del otro factor. Por lo tanto, no todas las combinaciones posibles entre los niveles de los dos factores de tratamiento se dan en la práctica.