set.seed(123) # para reproducibilidad
theta <- 5
n <- 150
x <- runif(n, min = 0, max = theta)Parcial E: Uniforme (0, θ)
Estadistica Bayesiana
Pregunta 1: Prioris
a) Simulación
b) Cálculo de la Prior de Jeffreys para la distribución Uniforme(0, \(\theta\))
Para utilizar la información de Fisher en la construcción de la prior de Jeffreys, es necesario que se cumplan ciertas condiciones de regularidad. Una de las más importantes es que el soporte de la función de densidad \(f(x \mid \theta)\) no debe depender del parámetro.
Sin embargo, en el caso de la distribución Uniforme\((0, \theta)\), el soporte es precisamente el intervalo \((0, \theta)\), lo cual viola esta condición. Por lo tanto, no es posible aplicar directamente la definición estándar de la información de Fisher.
Para resolver esta situación, se puede utilizar el teorema de invarianza de Jeffreys, que permite construir la prior a partir del estadístico suficiente cuando el soporte depende del parámetro. En este caso, el estadístico suficiente para \(\theta\) es el máximo de la muestra:
\[ T = \max(X_1, X_2, \dots, X_n) \]
Usando el enfoque de Kullback–Leibler y el teorema de invarianza, la prior de Jeffreys se define como proporcional a la raíz cuadrada de la información de Fisher basada en el estadístico suficiente:
\[ \pi_J(\theta) \propto \sqrt{I^*(\theta)} \]
donde \(I^*(\theta)\) es la información de Fisher del modelo inducido por el estadístico \(T\). Como se puede demostrar, esto conduce a:
\[ \pi_J(\theta) \propto \frac{1}{\theta}, \quad \theta > 0 \]
Esta prior es impropia, pero puede ser usada en análisis bayesianos siempre que la posterior resultante sea propia.
Dado que el soporte depende de \(\theta\), el cálculo tradicional del Fisher Information esperado no es válido directamente. En este caso, se puede utilizar una aproximación alternativa basada en el estadístico suficiente \(T = \max(X_1, \dots, X_n)\).
Encontrar la distribución del estadístico suficiente
El estadístico \(T = \max(X_1, \dots, X_n)\) tiene distribución:
\[ f_T(t \mid \theta) = \frac{n t^{n-1}}{\theta^n}, \quad \text{para } 0 < t < \theta \]
Verosimilitud basada en \(T\) \((max X_i)\)
La log-verosimilitud basada en una sola observación de \(T\) es:
\[ \log L(\theta \mid t) = \log \left( \frac{n t^{n-1}}{\theta^n} \right) = \log n + (n - 1)\log t - n \log \theta \]
\[ \frac{d}{d\theta} \log L(\theta \mid t) = -\frac{n}{\theta} \]
La información de fisher seria:
\[ \mathcal{I}(\theta) = \mathbb{E}_T \left[ \left( \frac{d}{d\theta} \log L(\theta \mid T) \right)^2 \right] = \mathbb{E}_T \left[ \left( -\frac{n}{\theta} \right)^2 \right] = \frac{n^2}{\theta^2} \]
y así encontramos la Prior de Jeffreys
La prior de Jeffreys se define como proporcional a la raíz cuadrada del Fisher Information:
\[ \pi_J(\theta) \propto \sqrt{\mathcal{I}(\theta)} = \frac{n}{\theta} \propto \frac{1}{\theta} \]
Para nuestro caso la priory de Jeffreys es:
\[ 1/5 = 0.2 \]
priory_jeffreys<-1/theta;priory_jeffreys[1] 0.2
c) Proponga una prior Laplace truncada a (máx =X_i, 10) centrada en 3.
Distribución de laplace \[ f(\theta \mid \mu, b) = \frac{1}{2b} \exp\left( -\frac{|\theta - \mu|}{b} \right), \quad \theta \in \mathbb{R} \]
Distribución de Laplace truncada en 10 centrada en 3 sería:
\[ \pi(\theta) = \frac{1}{Z} \cdot \frac{1}{2b} \exp\left( -\frac{|\theta - 3|}{b} \right), \quad \theta \in (\max(x), 10) \]
Donde Z es la constante de normalización.
Vamos a asignar un valor de b= 1.5 al parámetro de escala de la distribución Laplace, ya que este valor permite una dispersión razonable alrededor del centro μ = 3 . Con b = 1.5, la distribución prior no es excesivamente concentrada ni demasiado plana.
Pregunta 2: Posterior
Cuando usamos una priori uniforme de Jeffreys la distribución posterior es una distribución pareto de la siguiente forma:
\[ \pi(\theta | x) = \frac{nx^n_{(n)}}{\theta^{n+1}}\, \theta \geq x_{(n)} \\ 0 \ si \ \theta < x_{(n)} \]
Gráfico de la distribución posterior usando Jeffreys
Se puede observar la importancia del valor máximo muestral, ya que este determina el punto donde la verosimilitud alcanza su máximo bajo la distribución uniforme. En este contexto, el máximo muestral es crucial para la inferencia sobre el parámetro \(\theta\)
Posterior usando Laplace truncada
Demostración de Laplace truncada
\(X_1, \dots, X_n \sim \text{Uniforme}(0, \theta)\), la función de verosimilitud es:
\(L(\theta \mid \mathbf{x}) = \theta^{-n} \cdot \mathbb{I}(\theta \geq x_{(n)})\)
donde \(x_{(n)} = \max(X_1, \dots, X_n)\).
Asumimos una distribución a priori Laplace truncada en el intervalo \([x_{(n)}, 10]\), centrada en 3 y con parámetro de escala \(b = 1.5\). La densidad de la Laplace no truncada es:
\(\pi(\theta) = \dfrac{1}{2b} \exp\left(-\dfrac{|\theta - 3|}{b} \right)\)
Por lo tanto, la prior truncada se define como:
\(\pi_{\text{trunc}}(\theta) = \dfrac{ \dfrac{1}{2b} \exp\left(-\dfrac{|\theta - 3|}{b} \right) }{ P(x_{(n)} \leq \theta \leq 10) } \cdot \mathbb{I}(x_{(n)} \leq \theta \leq 10)\)
donde el denominador es la probabilidad total sobre el intervalo de truncamiento:
\(P(x_{(n)} \leq \theta \leq 10) = F(10) - F(x_{(n)})\)
y \(F\) es la función de distribución acumulada de la Laplace.
La posterior (sin normalizar) es entonces:
\(\pi(\theta \mid \mathbf{x}) \propto \theta^{-n} \cdot \exp\left(-\dfrac{|\theta - 3|}{1.5} \right) \cdot \mathbb{I}(x_{(n)} \leq \theta \leq 10)\)
Finalmente, la posterior normalizada es:
\(\pi(\theta \mid \mathbf{x}) = \dfrac{ \theta^{-n} \cdot \exp\left(-\dfrac{|\theta - 3|}{1.5} \right) }{ \int_{x_{(n)}}^{10} u^{-n} \cdot \exp\left(-\dfrac{|u - 3|}{1.5} \right) du }\)
para \(\theta \in [x_{(n)}, 10]\), y cero fuera de ese intervalo.
Pregunta 3: Estimación
| Cantidad | |
|---|---|
| Media a posteriori | 5.004491 |
| Mediana a posteriori | 4.994222 |
| Moda a posteriori | 4.971349 |
Pregunta 4: Credibilidad
Se observa que el intervalo de credibilidad del 95% para el parámetro \(\theta\) se encuentra aproximadamente entre 4.97 y 5.10. Esto es particularmente interesante, ya que la distribución apriori proponía un valor de \(\theta = 3\), los datos aportaron evidencia suficiente para desplazar la masa posterior hacia valores mayores, dejando fuera al valor propuesto bajo \(\theta = 3\), Esto refuerza la conclusión de que los datos no son compatibles con parámetro propuesto.
Pregunta 5: Hipótesis
[1] 0
Dado que \(P(\theta < 3 | x) = r\) con \(r\) cercano a 0, hay fuerte evidencia a favor de la hipótesis alternativa \(H_1: \theta > 3\) Por tanto, rechazamos en el sentido bayesiano.
Calcular el Factor de Bayes
Paso 1: Verosimilitud bajo \(H_0: \theta = 3\)
Si los datos provienen de \(X_i \sim \text{Uniforme}(0, \theta)\), la verosimilitud conjunta es:
\[ L(x_1, \ldots, x_n \mid \theta) = \frac{1}{\theta^n} \cdot \mathbf{1}_{\{0 \leq x_{(n)} \leq \theta\}} \]
Entonces,
\[ f(x \mid \theta = 3) = \begin{cases} \frac{1}{3^n} & \text{si } x_{(n)} \leq 3 \\ 0 & \text{si } x_{(n)} > 3 \end{cases} \]
Verosimilitud marginal bajo \(H_1\)
Con la prior de Jeffreys \(\pi(\theta) \propto \frac{1}{\theta}\) y datos de \(X_i \sim \text{Uniforme}(0, \theta)\), el marginal es:
\[ m(x) = \int_{x_{(n)}}^\infty \frac{1}{\theta^n} \cdot \frac{1}{\theta} \, d\theta = \int_{x_{(n)}}^\infty \frac{1}{\theta^{n+1}} \, d\theta = \frac{1}{n \cdot x_{(n)}^n} \]
Por lo tanto el Factor de Bayes es \(BF_{01}\)
\[ BF_{01} = \begin{cases} \frac{3^{-n}}{\frac{1}{n \cdot x_{(n)}^n}} = 3^{-n} \cdot n \cdot x_{(n)}^n & \text{si } x_{(n)} \leq 3 \\ 0 & \text{si } x_{(n)} > 3 \end{cases} \]
[1] 0
El máximo observado \(x(n)\) ≈4.98, que es claramente mayor que 3. Por tanto: \(BF_{01} = 0\) hay evidencia decisiva para \(H_1\)
Calcular los odds bayesianos
Pr(H0 | x) = 0
Pr(H1 | x) = 1
Hay evidencia decisiva contra \(H_0\), La observación de un valor mayor a 3 invalida completamente la hipótesis nula en este modelo.