Las estadística Bayesiana es un método matemáticamente riguroso para actualizar tus creencias basadas en la evidencia. En este capítulo, aprenderás a aplicar el teorema de Bayes para sacar conclusiones sobre si una moneda es justa o parcial, y respaldarlas con simulación.

0.1 Actualizando con evidencia

Hemos venido hablando de monedas que no son justas, monedas cuya probabilidad de cara no necesariamente es del 50%

Suponga que repetimos el siguiente experimento 100000 veces, lanzamos 20 monedas y contamos el número de caras

n<-100000
x<-rbinom(n, 20, 0.5)
y<-rbinom(n, 20, 0.75)

par(mfrow=c(2,1))
barplot(table(x), main="Moneda Justa")
barplot(table(y), main="Moneda sesgada")

  • Suponga que hacemos una apuesta, si la moneda cae cara, gano 10000, si es sello pago 10000.

  • Creo que me hacen trampa, y que la moneda caerá sello el 75% de las veces, es decir que mi probabilidad de éxito es de 0.25.
  • ¿Cómo podemos saber si esta moneda es justa o sesgada?
  • Podemos aplicar un experimento, lanzamos la moneda 20 veces y notamos que el resultado son 14 caras y 6 sellos.
  • Dados los resultados, que es más probable, que la moneda este sesgada o no lo este?
  • Este proceso es la actualización de nuestras creencias a través de la evidencia, que es el corazón de la estadística bayesiana

Ejericicio Supongamos que se realizan 20 lanzamientos de una moneda y se producen 14 caras, considera más probable que sea una moneda sea justa o sesgada?

Ejemplo Simule 50000 casos del lanzamiento de 20 modenas, unas sesgadas y las otras no

fair <- rbinom(50000, 20, .5)
biased <- rbinom(50000, 20, .75)

Cuantas monedas justas y cuantas monedas sesgadas produjeron exactamente 11 monedas sesgadas

fair_14 <- sum(fair==14)
biased_14 <- sum(biased==14)
n<-50000
x<-rbinom(n, 20, 0.5)
y<-rbinom(n, 20, 0.75)

par(mfrow=c(2,1))
barplot(table(fair), main="Moneda Justa", col=c(rep(1,13),4,1))
barplot(table(biased), main="Moneda sesgada", col=c(rep(1,8),4,rep(1,7)))

Encuentra la fracción de experimentos que produjeron exactamente 14 caras producidas por la moneda justa frente al total de experimentos: Probabilidad de que la monedas sean justas.

fair_14/sum(fair_14+biased_14)
## [1] 0.1805623

0.2 Propabilidad apriori

Lo natural es suponer que nos enfrentemos a monedas justas, pero suponga que la apuesta es demasiado buena para ser verdad

cada cara me paga 10000 y cada sello pago 12000 y se propone repetir la apuesta 10 veces, para mi adversario será evidente que poseo algo de información antes de realizar la apuesta, él inferirá que la probabilidad de que la moneda este sesgada será del 90% y de que sea justa será del 10% a dicha información se le conoce como información apriori

Podemos entender la probabilidad a priori como la mixtura de dos experimentos, donde en el 90% de ellos será justa y el restante 10% será injusta.

n<-50000
fair<-rbinom(n*.9, 20, 0.5)
bias<-rbinom(n*.1, 20, 0.75)

par(mfrow=c(2,1))
barplot(table(fair), main="Moneda Justa", col=c(rep(1,13),4,1), ylim=c(0,8000))
barplot(table(bias), main="Moneda sesgada", col=c(rep(1,7),4,rep(1,7)), ylim=c(0,8000))

Calcularemos la probabilidad condicional de que este sesgada, dado que el resultado es 14

fair_14 <- sum(fair==14)
biased_14 <- sum(bias==14)
biased_14/(fair_14+biased_14)
## [1] 0.3471376

Notamos que se incrementa la probabilidad de que este sesgada, esto se debe al resultado de nuestro experimento, dado que el resultado es 14.

Ejercicio Supongamos que tenemos 80% de confianzade que la moneda sea justa, y 20% de que no lo sea, simularemos 8000 casos de que sea justa y 2000 de que no lo sea

fair_flips <-rbinom(8000, 20,.5)
biased_flips <-rbinom(2000,20,.75)

Dado que el resultado son 11 caras, calcularemos la probabilidad de que las monedas sean justas.

fair_11 <- sum(fair_flips==11)
biased_11 <- sum(biased_flips==11)

Calcularemos la probabilidad a posteriori de que la moneda sea justa

fair_11/(fair_11+biased_11)
## [1] 0.9647577

0.3 Teorema de Bayes

Hasta ahora hemos usado simulación para estimar las probabilidades, ahora utilizaremos las probabilidades exactas calculadas a con la función \(dbinom()\)

fair <- rbinom(90000,20,.5)
sum(fair==14)/100000
## [1] 0.03322
dbinom(14, 20,.5)*.9
## [1] 0.03326797

que es igual a: \(P(14\ caras|Justa)*P(justa)\)

Para el caso de ser sesgada, tenemos que:

sesgada<-rbinom(10000,20,.75)
sum(sesgada==14)/100000
## [1] 0.01696
dbinom(14,20,.75)*.1
## [1] 0.01686093

\(P(14 caras|Justa)*P(justa)\)

0.3.1 Probabilidad condicional

Hemos venido calculando la probabilidad de que la moneda este sesgada con \[p(sesgada|14\ caras)= \frac{P(14\ caras\ y \ sesgada)}{P(14\ caras\ y \ sesgada)+P(14\ caras\ y \ justa)}\] Reescribiendo en terminos de probabilidades condicionales

\[p(sesgada|14\ caras)= \frac{P(14\ caras\ | \ sesgada)P(sesgada)}{P(14\ caras\ | \ sesgada)P(sesgada)+P(14\ caras\ | \ justa)P(Justa)}\]

prob_14_fair <- dbinom(14, 20, .5) * .9
prob_14_biased <- dbinom(14, 20, .75) * .1

prob_14_biased / (prob_14_fair + prob_14_biased)
## [1] 0.3363514

que es la forma del teorema de Bayes

\[P(A|B)=\frac{P(B|A)P(A)}{P(B|A)P(A)+P(B|A^c)P(A^c)}\] ?dbinom

El teorema de bayes permite expresar la probabilidad de A dado B en terminos de la probabilidad de B dado A.

En nuestro caso, A la moneda esta sesgada y B se obtienen 14 caras

Ejercicio 1. Calcular la probabilidad de que al lanzar 20 monedas sean justas dado que el resultado fue de 11 suponiendo que no tiene información a priori, es decir que supone que la moneda es justa

  1. Suponga que se obtuvieron 16 caras en las 20 monedas, lo que normalmente sería fuerte evidencia de que la moneda esta sesgada. Sin embargo suponga que la probabilidad de que las monedas sean justas es de 99% y solo 1% de que este sesgada, calcule la probabilidad a posteriori de que la moneda sea justa usando el teorema de bayes.

Que puede concluir? Que la selección de la apriori afecta bastante la aposteriori.

0.3.2 La cura para el Tyrant-Virus

Supongamos que se desata una epidemia de un nuevo virus, el Tyrant-Virus y hemos creado una nueva droga experimental para curarla. No tenemos idea de cuán efectivo sea nuestra cura, pero cuando se lo dimos a 10 enfermos, 7 de ellos se volvieron curaron.

prop_model(c(1,1,0,1,1,1,1,0,1,0), prior=c(1,1))

Suponga que usten confia mucho en su cura y cree que curara 9 de cada 10 casos pero al probarla en otra ciudad solo curó a 4 personas.

prop_model(c(0,0,0,1,1,0,1,0,1,0), prior=c(9,1))

prop_model(c(0,1,0,1,0,1,0,1,0,1), prior=c(1,9))

Considera sus creencias adecuadas? Cómo cree que se cambiarían si no fuese tan optimista?

Ejercicio Otra forma de entender el teorema de bayes es \[\displaystyle P(causa|efecto)=\frac{P(Efecto|Causa)P(Causa)}{P(Efecto)}\] - Nos permite expresar una condicional en terminos de su opuesta - Usualmente una es difícil de calcular, pero la otra no.

Suponga que usted se despierta con un fuerte dolor de cuello, y tiene temor de que sea causado por una meningitis. \(P(+m|+s)\)

Se sabe que la probabilidad de meningitis es de 0.0001. \(P(+m)=0.0001\)

La probabilidad de tener dolor de cuello dado que esta enfermo de meningitis es de 0.8 \(P(+s|+m)=0.8\)

La probabilidad de tener dolor de cuello y no tener meningitis es de 0.01 \(P(+s|-m)\)

\[\displaystyle P(+m|+s)= \frac{P(+s|+m)P(+m)}{P(+s)}=\frac{P(+s|+m)P(+m)}{P(+s|+m)P(+m)+P(+s|-m)P(-m)}=\frac{0.8+0.0001}{0.8*0.0001+0.01*0.999}\]

  • Note que la probabilidad de tener meningitis es muy baja ヽ(ヅ)ノ
  • En cualquier caso es mejor un chequeo ¯_◉‿◉_/¯ .

–>

0.3.2.1 Otro ejemplo de bayes

  1. Suponga que tiene tres urnas y que cada una de ellas contiene un númer distinto de bolas rojas y blancas Urna uno, U1: 3 bolas blancas y 2 rojas; Urna dos, U2: 4 bolas blancas y 2 rojas; Urna tres, U3: 3 bolas rojas. Ahora suponga quesSe realiza el siguiente experimento aleatorio: Se selecciona al azar y con la misma probabilidad una de las tres urnas y se saca una bola

Si el resultado del experimento es que una bola blanca, ¿cuál es la probabilidad de que provenga de la primera urna? Calcular lo mismo para las otras dos urnas.

Vamos a representar en un esquema los datos de que disponemos:

En este caso \(U1\), \(U2\) y \(U3\) forman un sistema incompatible y excluyente de sucesos (la bola resultado debe provenir de una de esas tres urnas y de una sólo de ellas, en este caso las urnas representan una partición para el evento bola blanca), por tanto es posible aplicar el teorema de Bayes:

\(P(U1) = 1/3\) \(P(B|U1) = 3/5\) \(P(U2) = 1/3\) \(P(B|U2) = 4/6\) \(P(U3) = 1/3\) \(P(B|U3) = 0\)

\(\displaystyle P(U1|B) = \frac{P(B|U1)·P(U1)}{P(B|U1) · P(U1) + P(B|U2) · P(U2) + P(B|U3) · P(U3)}\)

\(\displaystyle \frac{\frac{1}{3}*\frac{3}{5}}{\frac{1}{3}*\frac{3}{5}+\frac{4}{6}*\frac{1}{3}+0*\frac{1}{3}}=\frac{9}{19}\)

Comentario sobre el teorema de Bayes

En el ejemplo anterior antes de extraer la bola teníamos iguales probabilidades de que la bola fuese extraída en la urna era de un tercio, estas probabilidades se deniminan probabilidades a priori. Después de realizar el experimento, y observar que el resultado del mismo ha sido la extracción de una bola blanca, las probabilidades de cada urna han cambiado a \(P(Ui|B)\). Estas probabilidades se deniminan probabilidades a posteriori. Vamos a representar en una tabla la diferencia entre ambas:

a priori a posteriori
P(U1) = 1/3 P(U1
P(U2) = 1/3 P(U2
P(U3) = 1/3 P(U3
1 1

Las probabilidades a priori cambian de tal modo de las a posteriori que una vez observado el resultado del experimento aleatorio, se puede afirmar con certeza que no fue elegida la tercera urna.

Esta fenómeno tiene aplicaciones fundamentales en Ciencia: Cuando se tienen dos teorías científicas diferentes, \(T1\) y \(T2\), que pretenden explicar cierto fenómeno, y a las que asociamos unas probabilidades a priori de ser ciertas,

\(P(T1) , P(T2)\)

podemos llevar a cabo la experimentación que se considere más conveniente, para una vez obtenido el cuerpo de evidencia, B, calcular como se modifican las probabilidades de verosimilitud de cada teor´ıa mediante el teorema de Bayes:

\(P(T1|B) , P(T2|B)\)

Así la experimentación puede hacer que una teoría sea descartada si \(P(Ti|B) ≈ 0\) o reforzada si \(P(Ti|B) ≈ 1\). Una aplicaciòn básica de esta técnica la tenemos en Medicina para decidir si un paciente padece cierta enfermedad o no, en función de los resultados de un test diagnótico.

0.3.2.2 Ejemplo

En una ciudad se llevan a cabo pruebas para detectar cierta enfermedad. El 1 por ciento de las personas sanas son registradas como enfermas, el 0.1 por ciento está realmente enfermo y el 90 por ciento de los enfermos son registrados como tales. Se desea calcular la probabilidad de que una persona seleccionada al azar y reportada como enferma realmente lo esté.

Sean los eventos: \(+P\):la prueba da resultado positivo, \(+E\): la persona tiene la enfermedad. Así, los datos del problema se pueden traducir de la siguiente forma:

El 1 por ciento de las personas sanas son registradas como enfermas:

  • \(P(+P|-E)=0.01\)

  • El 0.1 por ciento está realmente enfermo: \(P(-E)=0.001\)

  • El 90 por ciento de los enfermos son registrados como tales:\(P(+T|-E)=0.9\)

  • Se desea calcular la probabilidad de que una persona seleccionada al azar y reportada como enferma realmente lo esté: \(P(+E|+P)=?\)

\[\displaystyle P(+E|+T) = \frac{P(+T|+E)·P(+E)}{P(+T|+E)·P(+E) + P(+T|-E)·P(-E)}=\frac{0.9\times0.001}{0.9\times0.001+0.1\times0.999}\]

0.4 El teorema de bayes y la Epidemiología - Sensibilidad, especificidad de una prueba, Valor predictivo positivo y negativo para un paciente

  • Cuando se realiza un test diagnóstico se busca determinar la presencia o ausencia de una patología, que tiene en la población general una prevalencia determinada: la cantidad de personas que la padecen sobre el total de la población. Por ejemplo, la prevalencia de hipertensión en la población general esta alrededor del 30%, la de diabetes el 10%, la de insuficiencia cardíaca el 3%.

  • Más allá de la prevalencia en la población general, en cada persona podemos suponer una prevalencia determinada de la patología, en base a sus características, antecedentes, etc. Por ejemplo, la prevalencia de insuficiencia cardíaca está por debajo de 1% en hombres jóvenes y por arriba del 10 % en mujeres ancianas.

  • Para diagnosticar la enfermedad o condición en una persona en particular, recurrimos a un test o prueba. Lo ideal sería que ese test diagnostique correctamente a todos los sanos y todos los enfermos.

0.4.1 ¿Qué son sensibilidad y especificidad?

La tabla muestra las situaciones posibles ante la realización de un test.

+E -E Total
+T VP FP +T=VP+FP \(VPP=\frac{VP}{VP+FP}\)
-T FN VN -T=FN+VN \(VPN=\frac{VN}{VN+FN}\)
Total +E=VP+FN -E=FP+VN \(Prevalencia=+E=\frac{+E}{+E+(-E)}\)
\(S=\frac{VP}{VP+FN}\) \(E=\frac{VN}{VN+FP}\)

-La prevalencia de la enfermedad en la población de personas estudiadas es el número de enfermos sobre el total de la población.

-Entre los enfermos (+E), el test puede resultar positivo, expresando que la enfermedad existe (+T), o negativo, quedando la enfermedad sin diagnóstico (-T).

  • verdadero positivo (VP): Cuando el test es positivo (+T) y la enfermedad esta presente (+E), porque se diagnostica enfermedad en alguien verdaderamente enfermo.

  • falso negativo (FN): EN el caso que el test resulte negativo (-T) y el paciente este enfermo (+E), porque no se diagnostica enfermedad en alguien que está enfermo.

Sensibilidad- la capacidad del test para detectar enfermos

\[\displaystyle S=\frac{VP}{VP+FN}\] La capacidad del test para diagnosticar enfermedad puede cuantificarse como la cantidad de T+ en E+ (los VP), sobre el total de los tests realizados en +E (los VP más los FN). El cociente VP/ (VP + FN) es la tasa de verdaderos positivos, o SENSIBILIDAD del test. Cuanto mayor es la sensibilidad del test, más enfermos serán diagnosticados adecuadamente, con lo que la tasa de FN será menor.

  • verdadero negativo (VN): en el caso en que el test tenga un resultado negativo (-T) y el paciente no este enfermo (-E)

  • falso positivo (FP) El +T y -E es decir porque se diagnostica enfermedad en alguien que en realidad está sano.

Especificidad - capacidad del test de diagnosticar ausencia de enfermedad \[\displaystyle E=\frac{VN}{VN+FP}\] La capacidad del test para diagnosticar ausencia de enfermedad puede cuantificarse como la cantidad de T- en E- ( los VN), sobre el total de tests realizados en E- (los que VN más los FP).

El cociente VN/ (VN +FP) es lo que se llama tasa de verdaderos negativos, o ESPECIFICIDAD del test. Cuanto mayor es la especificidad del test, más sanos serán diagnosticados adecuadamente, con lo que la tasa de FP será menor.

Ahora bien, la sensibilidad y especificidad de un test son conocidas a partir de la literatura previa. Lo que realmente importa es, una vez realizado el test, cómo impacta en el manejo de los pacientes. ¿Asumimos en cada caso el resultado del test como verdad absoluta? ¿Modifica realmente el test nuestra valoración previa del paciente? Es lo que veremos en la próxima entrega.

0.4.2 El valor predictivo positivo y el valor predictivo negativo

Sensibilidad- la capacidad del test para detectar enfermos \[\displaystyle S=\frac{VP}{VP+FN}\]

Especificidad - capacidad del test de diagnosticar ausencia de enfermedad \[\displaystyle E=\frac{VN}{VN+FP}\]

Pero, en realidad, cuando hacemos un test, nuestro interés se centra en determinar la probabilidad de que el paciente sea un enfermo (+E) si el test es positivo (+T), o bien que haya ausencia de patología (-E) si el test es negativo (-T). No estamos evaluando la capacidad diagnóstica del test, estamos evaluando a un sujeto y queremos saber, frente a un +T, si estamos realmente en presencia de un +E, y frente a un -T, si se trata de un -E.

El primer punto (probabilidad de +E dado +T) corresponde al valor predictivo positivo (VPP), que surge del cociente de los +T en +E (VP) sobre el total de los +T (VP+FP). Es decir que \(VPP= \frac{VP}{VP + FP}\). Si el valor de FP aumenta, aumenta el denominador, y por lo tanto el VPP cae.

El segundo punto (probabilidad de E- si T-) corresponde al valor predictivo negativo (VPN), que surge del cociente de los *T- en -E (VN) sobre el total de los T- (VN+FN). Es decir que VPN= VN/ VN + FN. Si el valor de FN aumenta, aumenta el denominador, y por lo tanto el VPN cae.

A diferencia de la sensibilidad y la especificidad, que son propias del test, cualquiera sea el escenario y la probabilidad pre test, los valores predictivos positivo y negativo varían según la prevalencia de la enfermedad en el grupo estudiado o en el paciente individual. Tal como señalan las figuras 1 a 3, al variar la prevalencia, un test con la misma sensibilidad y especificidad varía su VPP y VPN.

0.4.2.1 Ejemplo

Consideremos como ejemplo un test con sensibilidad de 80% y especificidad de 90%. Para una prevalencia o probabilidad pre test de enfermedad del 10%,

TD_table <- as.table(matrix(c(80,90,20,810), nrow = 2, byrow = TRUE))
rownames(TD_table) <- c("Positivo Test ","Negativo Test")
colnames(TD_table) <- c("Presencia Enfermedad", "Ausencia enfermedad")
plot(t(TD_table), main="Prevalencia 10%")

# install.packages("epiR")
library(epiR)
## Loading required package: survival
## Package epiR 0.9-97 is loaded
## Type help(epi.about) for summary information
## 
epi.tests(TD_table, conf.level = 0.95)
##           Outcome +    Outcome -      Total
## Test +           80           90        170
## Test -           20          810        830
## Total           100          900       1000
## 
## Point estimates and 95 % CIs:
## ---------------------------------------------------------
## Apparent prevalence                    0.17 (0.15, 0.19)
## True prevalence                        0.10 (0.08, 0.12)
## Sensitivity                            0.80 (0.71, 0.87)
## Specificity                            0.90 (0.88, 0.92)
## Positive predictive value              0.47 (0.39, 0.55)
## Negative predictive value              0.98 (0.96, 0.99)
## Positive likelihood ratio              8.00 (6.43, 9.96)
## Negative likelihood ratio              0.22 (0.15, 0.33)
## ---------------------------------------------------------

Ayuda función epi.test

Exact binomial confidence limits are calculated for test sensitivity, specificity, and positive and negative predictive value (see Collett 1999 for details).

Confidence intervals for positive and negative likelihood ratios are based on formulae provided by Simel et al. (1991).

Diagnostic accuracy is defined as the proportion of all tests that give a correct result. Diagnostic odds ratio is defined as how much more likely will the test make a correct diagnosis than an incorrect diagnosis in patients with the disease (Scott et al. 2008). The number needed to diagnose is defined as the number of paitents that need to be tested to give one correct positive test. Youden’s index is the difference between the true positive rate and the false positive rate. Youden’s index ranges from -1 to +1 with values closer to 1 if both sensitivity and specificity are high (i.e. close to 1).


Analíticamente

\(P(+E)=10\%\) \(Sensibilidad=P(+T|+E)=10\%\) \(EspecificidadP(-T|-E)=10\%\)

\[\displaystyle P(+E|+T) = \frac{P(+T|+E)·P(+E)}{P(+T|+E)·P(+E) + P(+T|-E)·P(-E)}=\frac{P(+T|+E)·P(+E)}{P(+T|+E)·P(+E) + (1-P(-T|-E))·(1-P(-E))}\] \[\displaystyle \frac{0.8*0.1}{0.8*0.1+0.1*0.9}=0.4705882\]

(0.8*0.1)/(0.8*0.1+0.1*0.9)
## [1] 0.4705882
80/170
## [1] 0.4705882

La sensibilidad de la prueba es del 80% (la prueba puede detectar 8 de cada 10 enfermos). La especificidad es del 90% (10% de los pacientes con test positivos no tienen la enfermedad). El VPP es de 47%, es decir que la probabilidad de que un paciente este enfermo dado que el resultado del test fue positivo. El VPN es de 98%, es decir que la probabilidad de que un paciente este enfermo dado que el resultado del test fue negativo.

En otras palaras un resultado positivo del test lleva la probabilidad post test al 47%, mientras que un resultado negativo no excluye totalmente la probabilidad de enfermedad: el VPN es de 97.6%, por lo que existe aún una probabilidad luego del test de padecer la enfermedad o presentar el carácter en estudio del 2.4%


Ahora supongamos que tenemos un test con la misma sensibilidad y especificidad pero con una mayor prevalencia En el caso de una prevalencia muy alta (ejemplo del 90%), un resultado positivo lleva la probabilidad al 98.6%, y uno negativo no puede excluir que exista enfermedad en un 66.7% de los casos!(1-VPN)

TD_table <- as.table(matrix(c(720,10,180,90), nrow = 2, byrow = TRUE))
rownames(TD_table) <- c("Positivo Test ","Negativo Test")
colnames(TD_table) <- c("Presencia Enfermedad", "Ausencia enfermedad")
plot(t(TD_table), main="Prevalencia 90%")

epi.tests(TD_table, conf.level = 0.95)
##           Outcome +    Outcome -      Total
## Test +          720           10        730
## Test -          180           90        270
## Total           900          100       1000
## 
## Point estimates and 95 % CIs:
## ---------------------------------------------------------
## Apparent prevalence                    0.73 (0.70, 0.76)
## True prevalence                        0.90 (0.88, 0.92)
## Sensitivity                            0.80 (0.77, 0.83)
## Specificity                            0.90 (0.82, 0.95)
## Positive predictive value              0.99 (0.97, 0.99)
## Negative predictive value              0.33 (0.28, 0.39)
## Positive likelihood ratio              8.00 (4.44, 14.42)
## Negative likelihood ratio              0.22 (0.19, 0.26)
## ---------------------------------------------------------

En resumen, en casos de prevalencia muy alta o muy baja, no es significativa la ganancia del test. En casos de prevalencia intermedia es donde la ganancia del test es máxima: veamos como frente a una probabilidad pre test del 50%, un resultado positivo lleva la probabilidad post test al 88.8%, y uno negativo la baja al 18.2%. (figura 3).

TD_table <- as.table(matrix(c(400,50,100,450), nrow = 2, byrow = TRUE))
rownames(TD_table) <- c("Positivo Test ","Negativo Test")
colnames(TD_table) <- c("Presencia Enfermedad", "Ausencia enfermedad")
plot(t(TD_table), main="Prevalencia 50%")

epi.tests(TD_table, conf.level = 0.95)
##           Outcome +    Outcome -      Total
## Test +          400           50        450
## Test -          100          450        550
## Total           500          500       1000
## 
## Point estimates and 95 % CIs:
## ---------------------------------------------------------
## Apparent prevalence                    0.45 (0.42, 0.48)
## True prevalence                        0.50 (0.47, 0.53)
## Sensitivity                            0.80 (0.76, 0.83)
## Specificity                            0.90 (0.87, 0.92)
## Positive predictive value              0.89 (0.86, 0.92)
## Negative predictive value              0.82 (0.78, 0.85)
## Positive likelihood ratio              8.00 (6.13, 10.44)
## Negative likelihood ratio              0.22 (0.19, 0.27)
## ---------------------------------------------------------

En conclusión, a la hora de considerar el resultado de un test, debemos tener en cuenta su sensibilidad y su especificidad, pero también, la prevalencia de enfermedad en el sujeto estudiado. Ella depende de las características propias del sujeto, del cuadro clínico y de los resultados de tests previos. Solo de esta manera podremos interpretar adecuadamente los hallazgos, e inferir un diagnóstico.

https://www.sac.org.ar/cuestion-de-metodo/que-son-sensibilidad-y-especificidad/

Homo Frecuentista La idea fundamental de este método es tomar como estimación del parámetro estudiado el valor que haga máxima la probabilidad de obtener la muestra observada. Homo Bayesiano Actualizar sus creencias basadas en la evidencia

0.5 Para terminar…