\[ f_X(x|\theta) = \theta x^{\theta-1} I_{(0,1)}(x), \quad \theta > 0 \]
\[ \begin{cases} H_0 : \theta \leq 1 \\ H_1 : \theta > 1 \end{cases} \]
Asumiendo que la regla de rechazar \(H_0\) si y sólo si \(X \geq 0.5\),
La probabilidad de cometer un error tipo I es la probabilidad de rechazar \(H_0\) cuando \(H_0\) es verdadera. Esto es:
\[ \alpha = P(X \geq 0.5 \mid \theta \leq 1) \]
Dado que \(X \sim f_X(x|\theta) = \theta x^{\theta-1} I_{(0,1)}(x)\) y bajo \(H_0\) \(\theta \leq 1\):
\[ \alpha = \int_{0.5}^{1} \theta x^{\theta-1} \, dx = \left. x^\theta \right|_{0.5}^1 = 1 - (0.5)^\theta \]
Para \(\theta = 1\):
\[ \alpha = 1 - (0.5)^1 = 0.5 \]
La probabilidad de cometer un error tipo II es la probabilidad de no rechazar \(H_0\) cuando \(H_1\) es verdadera. Esto es:
\[ \beta = P(X < 0.5 \mid \theta > 1) \]
Dado que \(X \sim f_X(x|\theta) = \theta x^{\theta-1} I_{(0,1)}(x)\) y bajo \(H_1\) \(\theta > 1\):
\[ \beta = \int_{0}^{0.5} \theta x^{\theta-1} \, dx = \left. x^\theta \right|_{0}^{0.5} = (0.5)^\theta \]
Para \(\theta > 1\), \(\beta\) disminuye conforme \(\theta\) aumenta.
La función potencia \(\beta(\theta)\) es la probabilidad de rechazar \(H_0\):
\[ \beta(\theta) = P[X \in R] = \begin{cases} \alpha , & \theta \in \Theta_0 \\ 1 - \beta , & \theta \in \Theta_0^c \end{cases} \]
Para \(\theta \leq 1\):
\[ \beta(\theta) = 1 - (0.5)^\theta \]
Para \(\theta > 1\):
\[ \beta(\theta) = 1 - (0.5)^\theta \]
\[ \begin{cases} H_0 : \theta = 2 \\ H_1 : \theta = 1 \end{cases} \]
En caso que exista, ¿cuál es?
Para \(\theta = 2\) y \(\theta = 1\), utilizamos el Teorema de Neyman-Pearson para encontrar la prueba uniformemente más poderosa (UMP).
El Teorema de Neyman-Pearson nos dice que la razón de verosimilitudes es:
\[ \Lambda(X) = \frac{f_X(x|1)}{f_X(x|2)} \]
Para \(X \leq c\):
\[ \Lambda(X) = \frac{1 \cdot x^{1-1}}{2 \cdot x^{2-1}} = \frac{1}{2x} \]
Queremos encontrar el valor crítico \(c\) tal que la probabilidad de cometer un error tipo I sea \(\alpha\). Esto se traduce en:
\[ \alpha = P(X \leq c \mid \theta = 2) \]
La función de densidad para \(\theta = 2\) es \(f_X(x|2) = 2x\) para \(x \in (0, 1)\). La probabilidad de que \(X \leq c\) es:
\[ \alpha = \int_{0}^{c} 2x \, dx = \left. x^2 \right|_{0}^{c} = c^2 \]
Por lo tanto:
\[ c = \sqrt{\alpha} \]
La prueba UMP rechaza \(H_0\) si \(X \leq \sqrt{\alpha}\).
Verificación del supuesto de monoticidad:
La razón de verosimilitudes es:
\[ \Lambda(X) = \frac{f_X(x|\theta = 1)}{f_X(x|\theta = 2)} = \frac{1 \cdot x^{1-1}}{2 \cdot x^{2-1}} = \frac{1}{2x} \]
\(\Lambda(X) = \frac{1}{2x}\) es una función monótona decreciente en \(x\) ya que a medida que \(x\) aumenta, \(\frac{1}{2x}\) disminuye. Por lo tanto, \(\Lambda(X)\) es monótona y podemos aplicar el Teorema de Neyman-Pearson.
\[ \begin{cases} H_0 : \theta \geq 0.15 \\ H_1 : \theta < 0.15 \end{cases} \]
Dado que \(\theta \sim \text{Beta}(1, 10)\), la probabilidad a priori de \(H_0\) se calcula como:
\[ P(\theta \geq 0.15) = 1 - F_{\text{Beta}}(0.15 | 1, 10) \]
Donde \(F_{\text{Beta}}\) es la función de distribución acumulada de la distribución Beta. Usando la función de distribución acumulada de la Beta:
\[ P(\theta \geq 0.15) = 1 - I_{0.15}(1, 10) \]
Usando el teorema de Bayes, la distribución posterior de \(\theta\) se actualiza con los datos observados. Sabemos que \(\theta \sim \text{Beta}(1, 10)\) es la distribución a priori, y el número de muestras contaminadas (24) de un total de 176 se puede modelar con una distribución binomial. La distribución posteriori de \(\theta\) es entonces:
\[ \theta | x \sim \text{Beta}(1 + 24, 10 + 176 - 24) = \text{Beta}(25, 162) \]
Por lo tanto, la probabilidad a posteriori de \(H_0\) se calcula como:
\[ P(\theta \geq 0.15 | x) = 1 - F_{\text{Beta}}(0.15 | 25, 162) \]
Comparando \(P[H_0]\) y \(P[H_0 | x]\):
Si \(P(\theta \geq 0.15 | x)\) es significativamente diferente de \(P(\theta \geq 0.15)\), la evidencia de los datos ha afectado nuestra creencia sobre \(\theta\). Si \(P(\theta \geq 0.15 | x)\) es menor, los datos sugieren que es menos probable que \(\theta \geq 0.15\).
Fórmulas:
\[ f_X(x|\theta) = \theta x (1 - \theta)^{1-x} I_{(0,1)}(x) \]
\[ f_X(x|a,b) = \frac{1}{B(a,b)} x^{a-1} (1 - x)^{b-1} I_{(a,b)}(x) \]
Paso a paso: cálculo de la probabilidad a priori y a posteriori
Para la probabilidad a priori:
\[ P(\theta \geq 0.15) = 1 - I_{0.15}(1, 10) \]
Donde \(I_{0.15}(1, 10)\) es la función beta incompleta regularizada evaluada en 0.15 con parámetros 1 y 10.
Para la probabilidad a posteriori:
\[ \theta | x \sim \text{Beta}(25, 162) \]
Entonces,
\[ P(\theta \geq 0.15 | x) = 1 - I_{0.15}(25, 162) \]
Comparación y conclusión
Si la probabilidad a posteriori de \(H_0\) es significativamente menor que la probabilidad a priori, la evidencia de los datos sugiere que \(\theta\) es menor que 0.15, lo que implica que podemos rechazar \(H_0\). Si \(P(\theta \geq 0.15 | x)\) es considerablemente menor, entonces:
\[ \text{Rechazamos } H_0 \text{ en favor de } H_1. \]
\[ f_X(x|\theta) = \theta x(1 - \theta)^{1-x} I_{(0,1)}(x) \]
\[ f_X(x|a,b) = \frac{1}{B(a,b)} x^{a-1} (1 - x)^{b-1} I_{(a,b)}(x) \]