1. Sea \(X\) una única observación de

\[ f_X(x|\theta) = \theta x^{\theta-1} I_{(0,1)}(x), \quad \theta > 0 \]

  1. (0.75 pts) Se quiere probar

\[ \begin{cases} H_0 : \theta \leq 1 \\ H_1 : \theta > 1 \end{cases} \]

Asumiendo que la regla de rechazar \(H_0\) si y sólo si \(X \geq 0.5\),

  1. \(\alpha\), la probabilidad de cometer error tipo I

La probabilidad de cometer un error tipo I es la probabilidad de rechazar \(H_0\) cuando \(H_0\) es verdadera. Esto es:

\[ \alpha = P(X \geq 0.5 \mid \theta \leq 1) \]

Dado que \(X \sim f_X(x|\theta) = \theta x^{\theta-1} I_{(0,1)}(x)\) y bajo \(H_0\) \(\theta \leq 1\):

\[ \alpha = \int_{0.5}^{1} \theta x^{\theta-1} \, dx = \left. x^\theta \right|_{0.5}^1 = 1 - (0.5)^\theta \]

Para \(\theta = 1\):

\[ \alpha = 1 - (0.5)^1 = 0.5 \]

  1. \(\beta\), la probabilidad de cometer error tipo II

La probabilidad de cometer un error tipo II es la probabilidad de no rechazar \(H_0\) cuando \(H_1\) es verdadera. Esto es:

\[ \beta = P(X < 0.5 \mid \theta > 1) \]

Dado que \(X \sim f_X(x|\theta) = \theta x^{\theta-1} I_{(0,1)}(x)\) y bajo \(H_1\) \(\theta > 1\):

\[ \beta = \int_{0}^{0.5} \theta x^{\theta-1} \, dx = \left. x^\theta \right|_{0}^{0.5} = (0.5)^\theta \]

Para \(\theta > 1\), \(\beta\) disminuye conforme \(\theta\) aumenta.

  1. Comente sobre la función potencia

La función potencia \(\beta(\theta)\) es la probabilidad de rechazar \(H_0\):

\[ \beta(\theta) = P[X \in R] = \begin{cases} \alpha , & \theta \in \Theta_0 \\ 1 - \beta , & \theta \in \Theta_0^c \end{cases} \]

Para \(\theta \leq 1\):

\[ \beta(\theta) = 1 - (0.5)^\theta \]

Para \(\theta > 1\):

\[ \beta(\theta) = 1 - (0.5)^\theta \]

  1. (0.5 pts) ¿Existe una prueba uniformemente más poderosa (UMP) de tamaño \(\alpha\) para probar

\[ \begin{cases} H_0 : \theta = 2 \\ H_1 : \theta = 1 \end{cases} \]

En caso que exista, ¿cuál es?

Para \(\theta = 2\) y \(\theta = 1\), utilizamos el Teorema de Neyman-Pearson para encontrar la prueba uniformemente más poderosa (UMP).

El Teorema de Neyman-Pearson nos dice que la razón de verosimilitudes es:

\[ \Lambda(X) = \frac{f_X(x|1)}{f_X(x|2)} \]

Para \(X \leq c\):

\[ \Lambda(X) = \frac{1 \cdot x^{1-1}}{2 \cdot x^{2-1}} = \frac{1}{2x} \]

Queremos encontrar el valor crítico \(c\) tal que la probabilidad de cometer un error tipo I sea \(\alpha\). Esto se traduce en:

\[ \alpha = P(X \leq c \mid \theta = 2) \]

La función de densidad para \(\theta = 2\) es \(f_X(x|2) = 2x\) para \(x \in (0, 1)\). La probabilidad de que \(X \leq c\) es:

\[ \alpha = \int_{0}^{c} 2x \, dx = \left. x^2 \right|_{0}^{c} = c^2 \]

Por lo tanto:

\[ c = \sqrt{\alpha} \]

La prueba UMP rechaza \(H_0\) si \(X \leq \sqrt{\alpha}\).

Verificación del supuesto de monoticidad:

La razón de verosimilitudes es:

\[ \Lambda(X) = \frac{f_X(x|\theta = 1)}{f_X(x|\theta = 2)} = \frac{1 \cdot x^{1-1}}{2 \cdot x^{2-1}} = \frac{1}{2x} \]

\(\Lambda(X) = \frac{1}{2x}\) es una función monótona decreciente en \(x\) ya que a medida que \(x\) aumenta, \(\frac{1}{2x}\) disminuye. Por lo tanto, \(\Lambda(X)\) es monótona y podemos aplicar el Teorema de Neyman-Pearson.

  1. En un estudio de la contaminación ambiental del aire se recogieron 176 muestras de las que 24 resultaron contaminadas por encima de los niveles permitidos por la directiva comunitaria. Sea \(\theta\) la probabilidad real de que una muestra tomada al azar en la misma zona esté contaminada. Por datos históricos se sabe que \(\theta\) sigue una distribución \(\text{Beta}(1, 10)\). Se quiere probar:

\[ \begin{cases} H_0 : \theta \geq 0.15 \\ H_1 : \theta < 0.15 \end{cases} \]

  1. (0.5 pts) \(P[H_0]\): la probabilidad a priori de \(H_0\) verdadera

Dado que \(\theta \sim \text{Beta}(1, 10)\), la probabilidad a priori de \(H_0\) se calcula como:

\[ P(\theta \geq 0.15) = 1 - F_{\text{Beta}}(0.15 | 1, 10) \]

Donde \(F_{\text{Beta}}\) es la función de distribución acumulada de la distribución Beta. Usando la función de distribución acumulada de la Beta:

\[ P(\theta \geq 0.15) = 1 - I_{0.15}(1, 10) \]

  1. (0.5 pts) \(P[H_0 | x]\): la probabilidad a posteriori de \(H_0\) verdadera

Usando el teorema de Bayes, la distribución posterior de \(\theta\) se actualiza con los datos observados. Sabemos que \(\theta \sim \text{Beta}(1, 10)\) es la distribución a priori, y el número de muestras contaminadas (24) de un total de 176 se puede modelar con una distribución binomial. La distribución posteriori de \(\theta\) es entonces:

\[ \theta | x \sim \text{Beta}(1 + 24, 10 + 176 - 24) = \text{Beta}(25, 162) \]

Por lo tanto, la probabilidad a posteriori de \(H_0\) se calcula como:

\[ P(\theta \geq 0.15 | x) = 1 - F_{\text{Beta}}(0.15 | 25, 162) \]

  1. (0.25 pts) Compare los resultados de (a) y (b). ¿Qué puede decir al respecto?

Comparando \(P[H_0]\) y \(P[H_0 | x]\):

Si \(P(\theta \geq 0.15 | x)\) es significativamente diferente de \(P(\theta \geq 0.15)\), la evidencia de los datos ha afectado nuestra creencia sobre \(\theta\). Si \(P(\theta \geq 0.15 | x)\) es menor, los datos sugieren que es menos probable que \(\theta \geq 0.15\).

Fórmulas:

\[ f_X(x|\theta) = \theta x (1 - \theta)^{1-x} I_{(0,1)}(x) \]

\[ f_X(x|a,b) = \frac{1}{B(a,b)} x^{a-1} (1 - x)^{b-1} I_{(a,b)}(x) \]

Paso a paso: cálculo de la probabilidad a priori y a posteriori

Para la probabilidad a priori:

\[ P(\theta \geq 0.15) = 1 - I_{0.15}(1, 10) \]

Donde \(I_{0.15}(1, 10)\) es la función beta incompleta regularizada evaluada en 0.15 con parámetros 1 y 10.

Para la probabilidad a posteriori:

\[ \theta | x \sim \text{Beta}(25, 162) \]

Entonces,

\[ P(\theta \geq 0.15 | x) = 1 - I_{0.15}(25, 162) \]

Comparación y conclusión

Si la probabilidad a posteriori de \(H_0\) es significativamente menor que la probabilidad a priori, la evidencia de los datos sugiere que \(\theta\) es menor que 0.15, lo que implica que podemos rechazar \(H_0\). Si \(P(\theta \geq 0.15 | x)\) es considerablemente menor, entonces:

\[ \text{Rechazamos } H_0 \text{ en favor de } H_1. \]

Fórmulas

\[ f_X(x|\theta) = \theta x(1 - \theta)^{1-x} I_{(0,1)}(x) \]

\[ f_X(x|a,b) = \frac{1}{B(a,b)} x^{a-1} (1 - x)^{b-1} I_{(a,b)}(x) \]