## Grupo A
# media de peso y desviacion estandar
m_a <- 12.5
DE_a <- 4.2
## Grupo B
# media de peso y desviacion estandar
m_b <- 16
DE_b <- 9.6
# Cohen
sd_pooled <- sqrt((DE_a^2 + DE_b^2) / 2)
cohen <- (m_a - m_b) / sd_pooledTecnicas de muestreo estadistico
Introducción
Existen distintas formulas para poder determinar el tamaño de muestra de un estudio; lo importante no es saber la formula, lo importante es saber que formula usar y que información es necesaria para ejecutarla. La elección de la formula depende del objetivo del estudio, estos de manera general pueden ser :
Estudios de prevalencia (Hay que saber si se conoce o no el tamaño de la población)
Con poblacion objetivo conocida
Con población objetivo desconocida
Estudios de contraste de hipotesis (Hay que saber que tipo de viariable es la del resultado, también hay que elegir que test estadistico voy a usar para contrastar la hipotesis. La elección del test va en dependecia del tipo de variable)
Variable resultado de tipo continuo
Variable resultado de tipo categórico
Estudios de contraste de hipótesis
Conceptos
Tipos de hipotesis
Hipotesis alternativa: (H1), Es la hipotesis que buscamos probar. En comparación de dos grupos A y B, quiere decir que SI hay diferencia entre ambas.
Hipotesis nula: (H0), Es la hipotesis que buscamos rechazar. En comparación de dos grupos A y B, quiere decir que NO hay diferencia entre ambas.
Para el cálculo de la muestra en estos estudios se necesita empezar planteando la hipotesis del estudio. Luego la direccionalidad del contraste de hipotesis; existen estudios de superioridad, no equivalencia e inferiorirdad. A cuestiones prácticas el metodo más usado siempre va a ser el de no equivalencia (contraste bidireccional), es decir el contraste se va a dar a dos colas. El uso de las otras direccionalidades (contrastes unidireccionales) sirve para estudios concretos y tiene como utilidad dismunuir el tamaño de la muestra. El contraste de hipotesis es mas amplio, pero aqui van solo los elementos que se requieren para poder ejecutar las formulas.
Errores en el contraste de hipotesis
Error de tipo I: Lo que sucede en verdad es que la H0 no era rechazable, sin embargo, yo le rechazé. Esa fue mi equivocación, haberle rechazado.
- Nivel de significancia: Probabilidad de cometer un error de tipo I. A fines prácticos su valor siempre va a ser 0.05 (Puede variar, pero esa es el acuerdo). Interpretación: tengo un 5% de probabilidades de equivocarme y cometer un error de tipo I.
Error de tipo II: Lo que sucede en verdad es que la H0 si era rechazable, sin embargo, yo no le rechazé. Esa fue mi equivocación, no haberle rechazado.
- Potencia estadística: Probabilidad de no cometer un error de tipo II. A fines prácticos su valor va a ser 0.8 (Puede variar pero ese es el acuerdo). Interpretación: Tengo el 80% de probabilidades de poder percibir una diferencia en caso de que esta exista.
Tipos de variable del resultado
Siempre en estos estudios va a haber un grupo A y B. En síntesis lo que voy a intentar encontrar es alguna diferencia, es decir rechazar H0. La variable que me interesa saber si es distinta entre A y B puede ser de tipo continua o de tipo categórica.
Para todos los ejemplos voy a usar a gatos. Gatos de que viven en un refugio de animales es el grupo A y gatos que viven en casa son el grupo B. Punto a aclarar, A y B deben ser comparables entre sí, es decir, no puedo ni debo comparar gatos bebe de A con gatos ancianos del B.
Variables continuas
Peso en kilos de los gatos, valores de hemoglobina, longitud de la cola, largo de los bigotes. Un ejemplo seria con la siguiente pregunta: ¿Tienen un peso mayor los gatos de B en comparación con A?. Estas usando una variable continua.
Variables categoricas
Aqui van proporciones, proporción de hembras/machos, proporcion de sobrepeso/desnutricion, proporcion de parasitismo. Un ejemplo sería con la siguiente pregunta: ¿Tienen mayor proporción de parasitismo los gatos de A en comparacion a los de B?
Test estadísticos usados para el contraste de hipotesis.
Existen por lo menos 17 test distintos. La elección depende del tipo de estudio, es decir como le pienses, como le diseñes. Si bien son 17 los test, son pocos los test usados frecuentemente.
Test usados para variables continuas
Hay test paramétricos (distribución de Gauss) y test no paramétricos (no distribución de Gauss). Los mas comunes son los primeros, estos trabajan con promedios (es decir con la media - m). Toda media se acompaña de su desviación estandár (DE), esta trata sobre la dispersión de la variable continua que estas valorando. La DE es importante en el calculo del tamaño muestral, indica variabilidad. A mayor variabilidad necesitas mayor tamaño muestral, a menor variabilidad menor tamaño.
Por ejemplo, en el grupo A tengamos la premisa de que todos van a recibir la misma cantidad de comida, por tanto tendran poca variabilidad. Como hay poca variabilidad vas a necesitar un tamaño muestral pequeño. En cambio, en el grupo B, pueda que algunos les alimenten con ProCat y a otros con lechugas. Por tanto la variabildad va a ser mayor y vas a requerir mayor tamaño muestral.
Los test más usados y útiles son dos:
Para comparar dos grupos -> T-test (este tiene subtipos, la elección del subtipo depende del diseño del estudio).
T-test de dos grupos (compara la media del peso de A contra la media de peso de B)
T-test de dos grupos pareados (a cada gato de A les voy a medir el peso dos veces, por ejemplo antes y despues de una dieta)
Para comparar mas de dos grupos -> ANOVA
Test usados para el contraste de variables categóricas.
Todas estas son no paramétricas. Esta el test exacto de Fisher. Este test es mas sencillo.
Ajuste de perdidas por seguimiento
En cualquier estudio siempre algo pasará con los sujetos observados, pueda que se pierdan, que les adopten. Cualquier cosa, por eso es un buen punto de practica sobre - estimar el tamaño muestral. Esta sobre - estimación varía en dependencia del criterio del investigador, pero es un acuerdo que sea del 20%. Es decir si el tamaño muestral te salio 100 gatos, tu coje 120 gatos.
Determinación del tamaño muestral
Los estadísticos tienen tiempo para formulas, nosotros no. Por eso usamos R, hay sofware menos complicados como EpiInfo o SPSS. Lo malo es que no son tan reproducibles.
Para los calculos se necesitan dos paquetes.
pwr
exact2x2
Variables continuas
T-student
El ejemplo va de la siguiente manera. Tengo mi grupo de gatos A y mi grupo de gatos B. Como investigador me apasiona el campo del peso de los gatos, entonces esa será mi variable de interes (variable continua). La hipotesis que tengo es que los gatos que viven en un centro de adopciones (grupo A) tienen un peso distinto a los gatos que viven en hogares (grupo B)
Mi planteamiento de hipotesis es:
H0: No hay diferencias entre A y B
H1: Si hay diferencias entre A y B.
Los errores que estoy dispuesto a aceptar son los siguientes:
Alfa: 0.05
Beta: 0.20
Potencia estadística: 1 - Beta = 0.8
Selecciono mi tipo de test estadístico. Como son variables continuas sería T-student o ANOVA. Como son solo dos grupos, me quedo con T-student. Ahora debo elegir si es un T-student de dos grupos o un T-student de dos grupos pareados. Como a los gatos les mido una sola ves necesitaré del test de T-student de dos grupos, si a un mismo gato le mido dos veces (antes y despues de una intervención) necesitaría de un T-student de dos grupos pareados.
Este contraste de hipotesis requiere de la siguiente información:
Valor alfa (acuerdo científico = 0.05)
Potencia estadística (acuerdo científico = 0.8)
Tamaño del efecto
El tamaño del efecto es información necesaria para la ejecución de la formula. Es el efecto que yo espero observar. Es un valor adimensional. Para el calculo se usa el estadístico de Cohen.
Necesita como insumos:
La media de A
La media de B
La DE de A
La DE de B
Estos cuatro insumos se obtienen ya sea de un estudio piloto o consultando literatura previa. A continuacion su calculo
Ya tengo todos los elementos necesarios para obtener mi tamaño muestral:
Valor alfa (acuerdo científico = 0.05)
Potencia estadística (acuerdo científico = 0.8)
Tamaño del efecto = 0.4
# activo libreria
library(pwr)Warning: package 'pwr' was built under R version 4.3.3
# cargo los elementos necesarios para el calculo
alfa = 0.05
potencia = 0.8
tamano_efecto = 0.4
# la funcion del paquete pwr que voy a usar es pwr.t.test
pwr.t.test(sig.level = alfa,
power = potencia,
d = tamano_efecto,
type = "one.sample", # T.student de dos grupos
alternative = "two.sided") # Direccionalidad del contraste, a dos colas
One-sample t test power calculation
n = 51.00945
d = 0.4
sig.level = 0.05
power = 0.8
alternative = two.sided
En el resultado me fijo en n, me da 51. Le sobre - estimo un 20% en consideracion de posibles perdidas. Me quedo entonces con 61,2, le redondeo a 62. Necesito entonces a 62 gatos en total. A = 31, B = 31.
Si por ejemplo en lugar del comaparar A con B. Se me ocurre en el grupo A lo siguiente: implementar una intervencion en el peso (dieta con abundante carne), mi diseño es medirles a cada gato antes y despues de la intervencion. Recuerda que es un solo grupo de gatos pero les mido dos veces en el tiempo, los gatos medidos antes de la intervencion serian el grupo A_1 y luego de la intervencion serian el grupo A_2.
Mi planteamiento de hipotesis es:
H0: No hay diferencias entre A_1 y A_2
H1: SI hay diferencias entre A_1 y A_2
Los errores que estoy dispuesto a aceptar son los siguientes:
Alfa: 0.05
Beta: 0.20
Potencia estadística: 1 - Beta = 0.8
Debo calcular cohen nuevamente.
## Grupo A_1
# media de peso y desviacion estandar en gatos antes de la intervencion
m_a1 <- 8.5
DE_a1 <- 1.2
## Grupo B
# media de peso y desviacion estandar en gatos luego de la intervencion
# recuerda que esto es lo que tu estimas que pase, esto viene de tu experticia
m_b2 <- 13
DE_b2 <- 4.2
# Cohen
sd_pooled <- sqrt((DE_a1^2 + DE_b2^2) / 2)
cohen <- (m_a1 - m_b2) / sd_pooledYa tengo todos los elementos necesarios para obtener mi tamaño muestral:
Valor alfa (acuerdo científico = 0.05)
Potencia estadística (acuerdo científico = 0.8)
Tamaño del efecto = 1.4
# activo libreria
library(pwr)
# cargo los elementos necesarios para el calculo
alfa = 0.05
potencia = 0.8
tamano_efecto = 1.4
# la funcion del paquete pwr que voy a usar es pwr.t.test
pwr.t.test(sig.level = alfa,
power = potencia,
d = tamano_efecto,
type = "two.sample", # T.student de dos grupos PAREADOS
alternative = "two.sided") # Direccionalidad del contraste, a dos colas
Two-sample t test power calculation
n = 9.077679
d = 1.4
sig.level = 0.05
power = 0.8
alternative = two.sided
NOTE: n is number in *each* group
Me fijo en n, n = 9.07, le redondeo a 10. Le sumo el 20% por posibles perdidas y me queda en 12. Serian 12 gatos por cada grupo.
Para los dos tipos de T-test el tamaño del efecto puede no calcularse - aunque es mejor hacerlo- y colocarse directamente. Segun Cohen si el efecto es pequeño el valor es 0.2, moderado hasta 0.6 y grande si es mayor a 0.6
ANOVA
La ultilidad del ANOVA es comparar la media de más de dos grupos. El razonamiento es igual al anterior, los requerimientos son los mismos con la excepcion de que se necesita tambien el valor k. Cohen para ANOVA nos da los valores de 0.1, 0.25 y 0.4 para tamaños pequeño, mediano y grande respectivamente.
Tengo una hopotesis que voy a trabajar con los gatos del refugio. Considero que el peso de los gatos varía en funcion de su pelo. Por ello voy a comparar el peso medio de los grupos A_C (pelo blanco), A_D (pelo negro) y A_E (pelo naranja). Como son mas de dos grupos entonces uso ANOVA, este se usa cuando la distribución de las variables sigue una distribucion parametrica, Kruskal-Walis cuando sigue una distribucion no parametrica.
Mi planteamiento de hipotesis es:
H0: No hay diferencias entre los tres grupos
H1: SI hay diferencias entre los tres grupos
Los errores que estoy dispuesto a aceptar son los siguientes:
Alfa: 0.05
Beta: 0.20
Potencia estadística: 1 - Beta = 0.8
Tamaño del efecto: 0.1 (Obtuve ese valor tras una busqueda bibliografica ficticia)
# activo libreria
library(pwr)
# cargo los elementos necesarios para el calculo
alfa = 0.05
potencia = 0.8
tamano_efecto = 0.1
numero_grupos = 3
# la funcion del paquete pwr que voy a usar es pwr.t.test
pwr.anova.test(sig.level = alfa,
power = potencia,
f = tamano_efecto,
k = numero_grupos) # No requiere especificar si es a una o dos colas
Balanced one-way analysis of variance power calculation
k = 3
n = 322.157
f = 0.1
sig.level = 0.05
power = 0.8
NOTE: n is number in each group
Me concluye que se necesitan 323 gatos en cada grupo. Eso más su 20% será la n de cada grupo.
Variables categóricas
Comparacion de dos proporciones
Sigo con los gatos. Voy a comparar la prevalencia de obesidad en los gatos del grupo A y en la prevalencia de obesidad en el grupo B. Aqui necesito darle a la formula la proporcion que yo espero encontrar en A y en B. Nuevamente esa informacion sale de la experticia del investigador.
Mi planteamiento de hipotesis es:
H0: No hay diferencias de la prevalencia de obesidad entre A y B
H1: Si hay diferencias de la prevalencia de obesidad entre A y B
Los errores que estoy dispuesto a aceptar son los siguientes:
Alfa: 0.05
Beta: 0.20
Potencia estadística: 1 - Beta = 0.8
Proporcion esperada en A: 0.1
Proporcion esperada en B: 0.4
Tamaño del efecto: Proporcion esperada en A - Proporcion esperada en B
library(pwr)
# proporcion esperada en A
p1 = 0.1
# proporcion esperada en B
p2 = 0.4
# cargo los elementos necesarios para el calculo
alfa = 0.05
potencia = 0.8
tamano_efecto = p1 - p2
# la funcion del paquete pwr que voy a usar es pwr.p.test
pwr.2p.test(sig.level = alfa,
power = potencia,
h = tamano_efecto,
alternative = "two.sided") # Prueba poniendo less
Difference of proportion power calculation for binomial distribution (arcsine transformation)
h = 0.3
n = 174.4191
sig.level = 0.05
power = 0.8
alternative = two.sided
NOTE: same sample sizes
Me da el tamaño total de la muestra. son 175 gatos. Le sumo el 20%, son en total 210 . Cada grupo tiene 105 gatos.
Una proporción (estudio transversal, de prevalencias)
Ya no comparo a los grupos A y B. Ahora me intersa saber la prevalencia de desnutricion entre gatos de A. Necesito un estimado de la prevalencia de desnutrición, tras revisar la literatura veo que en un estudio de Uruguay del 2001 calculan esta en un 39%. Me propongo hacerlo con un margen de error del 3% y con un nivel de confianza del 90%. Tengo dos situaciones: 1) Con poblacion infinita, no se cuantos gatos hay en el refugio. 2) Con poblacion finita, se que en el refugio hay 2.000 gatos.
Situacion 1 (muestreo con poblacion infinita)
Insumos para el calculo
Margen de error: 3%
Confianza: 90%
Proporcion esperada: 30%
Poblacion diana: Desconocida
library(samplingbook)Warning: package 'samplingbook' was built under R version 4.3.3
Loading required package: pps
Loading required package: sampling
Warning: package 'sampling' was built under R version 4.3.3
Loading required package: survey
Warning: package 'survey' was built under R version 4.3.2
Loading required package: grid
Loading required package: Matrix
Loading required package: survival
Attaching package: 'survival'
The following objects are masked from 'package:sampling':
cluster, strata
Attaching package: 'survey'
The following object is masked from 'package:graphics':
dotchart
margen_error = 0.03
confianza = 0.90
proporcion_esperada = 0.3
poblacion_diana = Inf
sample.size.prop(e = margen_error,
P = proporcion_esperada,
N = poblacion_diana,
level = confianza)
sample.size.prop object: Sample size for proportion estimate
Without finite population correction: N=Inf, precision e=0.03 and expected proportion P=0.3
Sample size needed: 632
Debo encuestar a 632 gatos.
Situacion 2 (muestreo con poblacion finita)
Insumos para el calculo
Margen de error: 3%
Confianza: 90%
Proporcion esperada: 30%
Poblacion diana: 500
library(samplingbook)
margen_error = 0.03
confianza = 0.90
proporcion_esperada = 0.3
poblacion_diana = 2000
sample.size.prop(e = margen_error,
P = proporcion_esperada,
N = poblacion_diana,
level = confianza)
sample.size.prop object: Sample size for proportion estimate
With finite population correction: N=2000, precision e=0.03 and expected proportion P=0.3
Sample size needed: 480
Debo encuestar a 480 gatos.