1. En el proceso de fabricación de teléfonos, tres de ellos son seleccionados aleatoriamente por trabajadores para evaluar su calidad. Cada pieza es categorizada como “funcional” o “con falla” según los resultados de su evaluación. Si la probabilidad de que un teléfono no tenga fallas es 0.8, siendo la evaluación independiente entre equipos.

  1. Al realizarse un número de experimentos fijos, que son independientes entre sí y en el que solo existen dos posibilidades de resultado (funcional o falla), estamos hablando de una variable númerica de tipo discreta y una distribución binomial.
  2. Considerando que la distribución binomial, la función de probabilidad de masa que viene dada por esta distribución es:
  1. Si evaluamos entonces el problema dado en la distribución, tendremos la siguiente función de probabilidad de masa para k = {0,1,2,3}:
ejer_01 = function(x){
  factorial(3)/(factorial(x)*factorial(3-x)) * 0.8^x * 0.2^(3-x)
}
x1 = ejer_01(0)
x1
## [1] 0.008
x2 = ejer_01(1)
x2
## [1] 0.096
x3 = ejer_01(2)
x3
## [1] 0.384
x4 = ejer_01(3)
x4
## [1] 0.512

Además, si sumamos las posibilidades de los cuatro casos, obtenemos 1, lo cual cumple con las condiciones de una distribución binomial.

x1 + x2 + x3 + x4
## [1] 1

Y si realizamos la gráfica del problema, resulta en:

x = c(0,1,2,3)
prob = c(x1, x2, x3, x4)
datos = data.frame(x, prob)
graf = ggplot(datos, aes(x = x, y = prob)) + geom_bar(stat = "identity", fill = "red")
graf = graf + theme_bw() + ggtitle("Distribución de probabilidades de tipo binomial")
graf = graf + xlab("N° Exitos") + ylab("Probabilidades")
plot(graf)

2. En un estudio clínico los voluntarios son examinados para encontrar un gen asociado a la aparición de cáncer. La probabilidad de que una persona tenga el gen es 0.1. Si se asume que la evaluación de una persona es independiente de otra:

  1. Como se quieren buscar las veces necesarias que se necesita repetir el experimento hasta lograr un número de exitos, el problema corresponde a una variable númerica del tipo discreta, con una distribución binomial negativa.

  2. Considerando que el problema trata de una distribución binomial negativa, la función de probabilidad de masa viene dada por:

  1. Aplicando la función para x = 1 y r = 2, tenemos
# Se hace uso de pnbinom para calcular la distribución
1-pnbinom(1,2,0.1)
## [1] 0.972
  1. Se está solicitando en pocas palabras que se calcule la esperanza de la distribución binomial negativa, la cual está dada por, \(\frac{r}{p}\). Tenemos entonces que la esperanza para r = 2 y p = 0.1 es:
esp = 2/0.1
esp
## [1] 20
  1. Considerando un gráfico para 20 personas, tenemos:
p = seq(0,19)
dist = dnbinom(p, 2, 0.1)
datos = data.frame(p, dist)
graf = ggplot(datos, aes(x = p, y = dist)) + geom_bar(stat = "identity", fill = "red")
graf = graf + theme_bw() + ggtitle("Distribución Binomial Negativa") + xlab("N° Personas") + ylab("Probabilidades")
plot(graf)

3. Una empresa contrata a 800 hombres menores de 55 años. Suponga que el 30 % tiene un marcador en el cromosoma masculino que indica un mayor riesgo de cáncer de próstata.

  1. En este caso corresponde una variable de tipo discreta y una distribución hipergeométrica dado que se conoce el tamaño de la población (800 hombres), y existen dos posibilidades de resultado, la función de probabilidad de masa de esta distribución viene dada por:
  1. Teniendo en cuenta que el 30% de la población posee el marcador en el cromosoma masculino, tenemos que los hombres sanos son 560 y los que poseen el marcador son 240, considerando la fórmula anterior podemos calcular la probabilidad solicitada
dist = dhyper(x=1,m=240,k=10,n=560)
dist
## [1] 0.1200794
  1. Ahora se nos pide que más de uno tenga el marcador, es decir, la distribución acumulada, que sería P(x > 1).
dist1 = phyper(1,240,560,10, lower.tail = F)
dist1
## [1] 0.8523523
  1. Se construye el gráfico con 10 personas
p = seq(0:9)
dist = dhyper(p, m=240, k=10, n=560)
datos = data.frame(p, dist)

graf = ggplot(datos, aes(x = p, y = dist)) + geom_bar(stat = "identity", fill = "red")
graf = graf + theme_bw() + ggtitle("Distribución Hipergeométrica")
graf = graf + xlab("N° Personas") + ylab("Probabilidades")
plot(graf)

4. El número de llamadas telefónicas que llegan a una central telefónica se modela como una variable aleatoria de Poisson. Suponga que en promedio hay 8 llamadas por hora.

  1. Como en este caso el punto de interés está en el tiempo, se puede determinar que se está trabajando con una variable del tipo discreta, con una distribución de Poisson, tenemos entonces que la función de probabilidad para esta distribución es:
  1. La probailidad entonces de que hayan 5 llamadas en una hora es:
# k = 5, lambda = 8
dist = dpois(5,8)
dist
## [1] 0.09160366
  1. La probailidad de que haya a lo más tres llamadas en una hora es:
dist = ppois(3, 8, lower.tail=T)
dist
## [1] 0.04238011

5. Un artículo en Knee Surgery Sports Traumatology, Arthroscopy [“Effect of Provider Volume on Resource Utilization for Surgical Procedures” (2005, Vol. 13, pp. 273–279)] mostró un tiempo medio de 129 minutos y una desviación estándar de 14 minutos para cirugía de reconstrucción de LCA para hospitales de alto volumen (con más de 300 cirugías de este tipo por año). Si un hospital de alto volumen necesita programar 10 cirugías, ¿cuáles son la media y la varianza del tiempo total para completar estas cirugías? Suponga que los tiempos de las cirugías son independientes y normalmente distribuidos.

med = 129*10
med
## [1] 1290
var = 10*14**2
var
## [1] 1960

6. Aborde los ejercicios 1 y 4 efectuando una aproximación mediante una distribución normal. ¿Qué puede concluir?

med = 0.8*3
desv = sqrt(3 * 0.2 * 0.8)
dist = pnorm((3.5 - med) / desv)
dist
## [1] 0.9438244

Se calcula entonces la inexactitud de la aproximación:

p = 0.8
n = 3
n_p = n*p
n_p
## [1] 2.4

Dado que el valor obtenido es menor que a 5, se puede concluir que la aproximación realizada no es buena.

z = (5 - 8)/sqrt(8)
aprox = pnorm(z, 0, 1)
aprox
## [1] 0.1444222
x = seq(0,3)
x = (x - 8)/sqrt(8)
prob_x = pnorm(x, 0, 1)
sum(prob_x)
## [1] 0.06450039

Dado que Lambda > 5, se puede concluir que no son buenas aproximaciones.