Determine la LRT para las hipótesis \[ H_0 : \theta \leq 0 \] \[ H_1 : \theta > 0 \] Basada en una muestra aleatoria \(X_1, X_2, \ldots, X_n\) de una población cuya función de densidad de probabilidad está dada por \[ f_X (x|\lambda, \theta) = \frac{1}{\lambda} \exp \left( -\frac{1}{\lambda}(x - \theta) \right) I_{(\theta, \infty)}(x) \] donde \(\theta\) y \(\lambda\) son desconocidos.
\[ H_0 : \theta \leq 0 \] \[ H_1 : \theta > 0 \]
\[ f_X(x|\lambda, \theta) = \frac{1}{\lambda} \exp\left(-\frac{x - \theta}{\lambda}\right) I_{(\theta, \infty)}(x) \]
La función de verosimilitud conjunta para una muestra \(X_1, X_2, \ldots, X_n\) es: \[ L(\lambda, \theta; \mathbf{x}) = \prod_{i=1}^n \frac{1}{\lambda} \exp\left(-\frac{X_i - \theta}{\lambda}\right) I_{(\theta, \infty)}(X_i). \] Simplificando: \[ L(\lambda, \theta; \mathbf{x}) = \left(\frac{1}{\lambda}\right)^n \exp\left(-\frac{1}{\lambda} \sum_{i=1}^n (X_i - \theta)\right) I_{\theta < \min(X_i)}. \]
La razón de verosimilitudes es: \[ \Lambda(\mathbf{x}) = \frac{\sup_{\theta \leq 0} L(\lambda, \theta; \mathbf{x})}{\sup_{\theta \in \mathbb{R}} L(\lambda, \theta; \mathbf{x})}. \]
Bajo \(H_0\): \(\theta = 0\) \[ L(\lambda, 0; \mathbf{x}) = \left(\frac{1}{\lambda}\right)^n \exp\left(-\frac{1}{\lambda} \sum_{i=1}^n X_i\right). \]
Bajo \(H_1\): \(\theta = \min(X_i)\) \[ L(\lambda, \min(X_i); \mathbf{x}) = \left(\frac{1}{\lambda}\right)^n \exp\left(-\frac{1}{\lambda} \left( \sum_{i=1}^n X_i - n \min(X_i) \right)\right). \] Simplificando: \[ \sum_{i=1}^n (X_i - \min(X_i)) = \sum_{i=1}^n X_i - n \min(X_i). \] Por lo tanto: \[ L(\lambda, \min(X_i); \mathbf{x}) = \left(\frac{1}{\lambda}\right)^n \exp\left(-\frac{1}{\lambda} \left( \sum_{i=1}^n X_i - n \min(X_i) \right)\right). \]
\[ \Lambda(\mathbf{x}) = \frac{\left(\frac{1}{\lambda}\right)^n \exp\left(-\frac{1}{\lambda} \sum_{i=1}^n X_i\right)}{\left(\frac{1}{\lambda}\right)^n \exp\left(-\frac{1}{\lambda} \left( \sum_{i=1}^n X_i - n \min(X_i) \right)\right)}. \] Simplificando: \[ \Lambda(\mathbf{x}) = \exp\left(-\frac{1}{\lambda} \sum_{i=1}^n X_i + \frac{1}{\lambda} \left( \sum_{i=1}^n X_i - n \min(X_i) \right)\right). \] \[ \Lambda(\mathbf{x}) = \exp\left(-\frac{n \min(X_i)}{\lambda}\right). \]
El estadístico de prueba es: \[ T = \min(X_i). \]
Rechazamos \(H_0\) si \(\min(X_i)\) es suficientemente grande.
El valor crítico \(c\) debe ser determinado según el nivel de significancia \(\alpha\). Podemos calcular el valor crítico utilizando la distribución de \(\min(X_i)\) bajo \(H_0\), la cual depende de \(\lambda\). Sin embargo, dado que \(\lambda\) es desconocido, usualmente se estima \(\lambda\) con el estadístico adecuado.
Por lo tanto, la prueba de razón de verosimilitudes para estas hipótesis es rechazar \(H_0\) si: \[ \min(X_i) \geq c, \] donde \(c\) se determina según el nivel de significancia deseado \(\alpha\).
Para una muestra aleatoria \(X_1, X_2, \ldots, X_n\) de variables Bernoulli(\(\theta\)), se desea probar \[ H_0 : \theta = 0.49 \] \[ H_1 : \theta = 0.51 \] Use el teorema del límite central para determinar, aproximadamente, el tamaño de muestra necesario tal que las dos probabilidades de error estén al mismo tiempo, alrededor de 0.01. Use una función de prueba que rechace \(H_0\) si \(\sum_{i=1}^n X_i\) es grande.
Para determinar el tamaño de muestra necesario, utilizamos el teorema del límite central (TLC). Bajo el TLC, la suma de variables aleatorias Bernoulli puede aproximarse a una distribución normal.
Sea \(S_n = \sum_{i=1}^n X_i\). Bajo \(H_0\), \(S_n\) tiene una media y una varianza dada por: \[ \mathbb{E}[S_n] = n \theta_0 = n \cdot 0.49 \] \[ \mathbb{V}(S_n) = n \theta_0 (1 - \theta_0) = n \cdot 0.49 \cdot 0.51 \]
Bajo \(H_1\), \(S_n\) tiene una media y una varianza dada por: \[ \mathbb{E}[S_n] = n \theta_1 = n \cdot 0.51 \] \[ \mathbb{V}(S_n) = n \theta_1 (1 - \theta_1) = n \cdot 0.51 \cdot 0.49 \]
Aplicando el TLC, \(S_n\) bajo \(H_0\) se distribuye aproximadamente como: \[ S_n \approx \mathcal{N}(n \cdot 0.49, n \cdot 0.49 \cdot 0.51) \]
Queremos que las probabilidades de error \(\alpha\) (error tipo I) y \(\beta\) (error tipo II) sean ambas aproximadamente 0.01. Esto implica que necesitamos encontrar un tamaño de muestra \(n\) tal que:
\[ \alpha \approx P\left(Z > \frac{c - n \cdot 0.49}{\sqrt{n \cdot 0.49 \cdot 0.51}}\right) \approx 0.01 \] \[ \beta \approx P\left(Z < \frac{c - n \cdot 0.51}{\sqrt{n \cdot 0.51 \cdot 0.49}}\right) \approx 0.01 \]
Donde \(Z\) es una variable aleatoria estándar normal. Utilizando los valores críticos de la distribución normal estándar, sabemos que \(P(Z > 2.33) \approx 0.01\).
Entonces, para \(H_0\): \[ \frac{c - n \cdot 0.49}{\sqrt{n \cdot 0.49 \cdot 0.51}} = 2.33 \quad \Rightarrow \quad c = n \cdot 0.49 + 2.33 \sqrt{n \cdot 0.49 \cdot 0.51} \]
Para \(H_1\): \[ \frac{c - n \cdot 0.51}{\sqrt{n \cdot 0.51 \cdot 0.49}} = -2.33 \quad \Rightarrow \quad c = n \cdot 0.51 - 2.33 \sqrt{n \cdot 0.51 \cdot 0.49} \]
Igualando las dos expresiones para \(c\) y resolviendo para \(n\): \[ n \cdot 0.49 + 2.33 \sqrt{n \cdot 0.49 \cdot 0.51} = n \cdot 0.51 - 2.33 \sqrt{n \cdot 0.51 \cdot 0.49} \]
Simplificando: \[ 2.33 \sqrt{n \cdot 0.49 \cdot 0.51} + 2.33 \sqrt{n \cdot 0.51 \cdot 0.49} = n \cdot 0.51 - n \cdot 0.49 \] \[ 2 \times 2.33 \sqrt{n \cdot 0.49 \cdot 0.51} = n \cdot 0.02 \] \[ 4.66 \sqrt{n \cdot 0.49 \cdot 0.51} = n \cdot 0.02 \] \[ 4.66 \sqrt{n \cdot 0.2499} = n \cdot 0.02 \] \[ 4.66 \sqrt{0.2499} = \sqrt{n} \cdot 0.02 \] \[ \sqrt{n} = \frac{4.66 \sqrt{0.2499}}{0.02} \] \[ n = \left(\frac{4.66 \sqrt{0.2499}}{0.02}\right)^2 \] \[ n \approx 10816.64 \]
Por lo tanto, el tamaño de muestra necesario es aproximadamente \(10817\).