1. Deducir el estimador de máxima verosimilitud \(\hat{\theta}_{MV}\)
Sabemos que la función de densidad de \(Y\) es:
\[ f_Y(y) = \begin{cases} \frac{2y}{\theta^2} & 0 \leq y \leq \theta \\ 0 & \text{en otro caso} \end{cases} \]
El método de máxima verosimilitud busca el valor de \(\theta\) que maximiza la función de verosimilitud. La función de verosimilitud para una muestra \(Y_1, Y_2, \ldots, Y_n\) es:
\[ L(\theta; Y_1, Y_2, \ldots, Y_n) = \prod_{i=1}^{n} f_Y(Y_i) \]
Además, la verosimilitud solo tiene soporte en \(\theta \geq Y_{(n)}\) por lo que
\[ \hat{\theta}_{MV} = Y_{(n)} \]
2. Definir la variable aleatoria \(Q = \frac{\hat{\theta}_{MV}}{\theta}\)
Definimos \(Q = \frac{Y_{(n)}}{\theta}\). El recorrido de \(Q\) es \(0 \leq Q \leq 1\), ya que \(Y_{(n)} \leq \theta\).
La función de distribución acumulada de \(Q\) es:
\[ F_Q(q) = P\left( \frac{Y_{(n)}}{\theta} \leq q \right) = P\left( Y_{(n)} \leq q \theta \right) \]
Dado que \(Y_{(n)}\) es el máximo de una muestra de \(n\) variables con función de distribución \(F_Y(y) = \frac{y^2}{\theta^2}\), la función de distribución de \(Y_{(n)}\) es:
\[ F_{Y_{(n)}}(y) = \left( \frac{y^2}{\theta^2} \right)^n = \frac{y^{2n}}{\theta^{2n}} \]
Por lo tanto, la función de distribución acumulada de \(Q\) es:
\[ F_Q(q) = q^{2n} \]
La función de densidad de \(Q\) se obtiene derivando la función de distribución:
\[ f_Q(q) = \frac{d}{dq} q^{2n} = 2n q^{2n-1}, \quad 0 \leq q \leq 1 \]
\(Q \sim Beta(2n, 1)\), por lo tanto, \(Q\) es una cantidad pivotal ya que su distribución no depende de \(\theta\).
f_Q <- function(q, n) {
2 * n * q^(2 * n - 1)
}
q_values <- seq(0, 1, by = 0.01)
n <- 5
# f_Q(q) for each q
f_Q_values <- f_Q(q_values, n)
plot(q_values, f_Q_values, type = "l", col = "blue", lwd = 2,
xlab = "q", ylab = expression(f[Q](q)),
main = paste("Distribución de Q para n = ", n))
3. Obtener las constantes \(a\) y \(b\)
Queremos obtener las constantes \(a\) y \(b\) tales que \(P(a \leq Q \leq b) = 0.99\).
\[ P(a \leq Q \leq b) = 0.99 \quad \text{puedo fijar} \, b = 1 \, (\text{para que diste} \, lo \, menos \, posible \, b \, de \, a) \]
\[ P(a \leq Q \leq 1) = 1 - \alpha \quad \Rightarrow \quad P(Q \leq a) = \alpha = \int_0^a 2nq^{2n-1} dq \]
\[ = \frac{2nq^{2n}}{2n} \Big|_0^a = a^{2n} \]
\[ \alpha = a^{2n} \quad \Rightarrow \quad a = \alpha^{\frac{1}{2n}}. \]
\[ a = (0.01)^{\frac{1}{2n}}, \quad b = 1 \]
4. Intervalo de confianza del 99%
\[ P\left( \alpha^{1/2n} \leq \frac{Q}{\theta} \leq 1 \right) = 1 - \alpha \quad \text{objetivo:} \quad P\left( \hat{\theta}_L \leq \theta \leq \hat{\theta}_U \right) = 1 - \alpha \]
\[ P\left( \frac{1}{\alpha^{1/2n}} \geq \frac{\theta}{Y_{(n)}} \geq 1 \right) = 1 - \alpha \quad \Rightarrow \quad P\left( \frac{Y_{(n)}}{\alpha^{1/2n}} \geq \theta \geq Y_{(n)} \right) = 1 - \alpha \]
\[ P\left( Y_{(n)} \leq \theta \leq \frac{Y_{(n)}}{\alpha^{1/2n}} \right) = 1 - \alpha \]
Por lo tanto, el intervalo de confianza al nivel \(1 - \alpha\) para \(\theta\) es:
\[ [ Y_{(n)}, \frac{Y_{(n)}}{\alpha^{1/2n}}]. \]
Finalmente, utilizamos las observaciones \(Y_1 = 0.99, Y_2 = 1.5, Y_3 = 2, Y_4 = 1.73, Y_5 = 1.86\) para calcular un intervalo de confianza para \(\theta\).
El valor de \(Y_{(n)}\) es el máximo de las observaciones:
\[ Y_{(n)} = 2 \] Sustituyendo \(n = 5\), obtenemos: \[ ( 2, \frac{2}{(0.01)^{\frac{1}{2*n*5}}} ) \]
\[ (0.01)^{\frac{1}{10}} \approx 0.7943 \]
Por lo tanto, el intervalo de confianza es:
\[ (2, 3.17) \]
\[ \]
1. Obtener el estimador de máxima verosimilitud \(\hat{\theta}_{MV}\)
La función de densidad que se presenta es:
\[ f_X(x|\theta) = \begin{cases} \frac{\theta}{x^2}, & \text{si } x \geq \theta \\ 0, & \text{en otro caso} \end{cases} \]
Para encontrar el estimador de máxima verosimilitud (EMV), primero escribimos la función de verosimilitud para una muestra de tamaño \(n\), \(X_1, X_2, \dots, X_n\):
\[ L(\theta; X_1, X_2, \dots, X_n) = \prod_{i=1}^{n} \frac{\theta}{X_i^2} = \theta^n \prod_{i=1}^{n} \frac{1}{X_i^2} \]
El soporte de esta función implica que \(\theta \leq X_{(1)}\), donde \(X_{(1)} = \min(X_1, X_2, \dots, X_n)\). La función de verosimilitud es cero si \(\theta\) es mayor que el mínimo de los \(X_i\), lo que nos lleva a concluir que el estimador máximo verosímil es el mínimo valor de la muestra.
El estimador de máxima verosimilitud es entonces:
\[ \hat{\theta}_{MV} = X_{(1)} = \min(X_1, X_2, \dots, X_n) \]
2. ¿Es \(\hat{\theta}_{MV}\) suficiente para estimar \(\theta\)?
Sí, el estimador \(\hat{\theta}_{MV} = X_{(1)}\) es suficiente para estimar \(\theta\). Esto se puede verificar utilizando el teorema de factorización de Neyman, que dice que un estadístico es suficiente si la función de verosimilitud se puede factorizar en dos partes: una que depende del estadístico y otra que no depende del parámetro. En este caso, la verosimilitud se puede expresar como:
\[ L(\theta) = \theta^n \prod_{i=1}^{n} \frac{1}{X_i^2}\cdot I(X_i \geq \theta)= \theta^n \cdot I(X_{(1)} \geq \theta)\prod_{i=1}^{n} \frac{1}{X_i^2}=g(X_{(1)},\theta).h(Y) \]
\(X_{(1)}\) es un estadístico suficiente para \(\theta\).
3. ¿Es \(\hat{\theta}_{MV}\) consistente?
Sí, \(\hat{\theta}_{MV} = X_{(1)}\) es consistente. Esto significa que conforme el tamaño de la muestra \(n\) tiende a infinito, \(\hat{\theta}_{MV}\) converge en probabilidad al valor verdadero de \(\theta\).
La consistencia de \(\hat{\theta}_{MV}\) se puede demostrar observando que el error cuadrático medio (ECM) del estimador tiende a cero cuando el tamaño de la muestra \(n\) tiende a infinito.
El ECM del estimador \(\hat{\theta} = X_{\min}\) para la distribución dada es:
\[ ECM(\hat{\theta}) = \frac{\theta^2}{n(n+1)} \]
4. Demostrar que \(Q = \frac{\hat{\theta}_{MV}}{\theta}\) es una cantidad pivotal y deducir el intervalo de confianza
Para demostrar que \(Q = \frac{\hat{\theta}_{MV}}{\theta} = \frac{X_{(1)}}{\theta}\) es una cantidad pivotal, necesitamos observar que su distribución no depende de \(\theta\). Si derivamos la función de distribución acumulada de \(X_{(1)}\), de forma similar a la parte 2 del ejercicio 1, obtenemos:
\[ F_Q(q) = P\left( \frac{X_{(1)}}{\theta} \leq q \right) = P\left( X_{(1)} \leq q \theta \right) \]
\[ F_{Y_{(1)}}(y) = 1-(\frac{\theta}{x})^n \]
Por lo tanto, la función de distribución acumulada de \(Q\) es:
\[ F_Q(q) = 1-(\frac{\theta}{q\theta})^n=1-(\frac{1}{q})^n \]
Por lo tanto, \(Q = \frac{X_{(1)}}{\theta}\) sigue una distribución de Pareto \(Q \sim Pareto(1, n)\). Esto implica que \(Q\) es una cantidad pivotal, ya que su distribución no depende de \(\theta\).
library(extraDistr)
#Parámetros de la distribución Pareto
x_m <- 1 # valor mínimo
alpha <- 1 # parámetro de forma
# Generar valores de x para graficar
x <- seq(1, 10, by = 0.01)
# Calcular la función de densidad de probabilidad (PDF)
pdf_values <- dpareto(x, x_m, alpha)
# Graficar la distribución Pareto
plot(x, pdf_values, type = "l", col = "blue", lwd = 2,
main = "Distrib Pareto",
xlab = "x", ylab = "f(x)",
xlim = c(1, 5), ylim = c(0, 1))
\[ \]
El intervalo de confianza para \(\theta\) se puede construir a partir de la distribución de \(Q\), buscando los percentiles adecuados para cubrir un intervalo de confianza \(1 - \alpha\).
Queremos obtener las constantes \(a\) y \(b\) tales que \(P(a \leq Q \leq b) = 1-\alpha\).
\[ P(a \leq Q \leq b) = 1 - \alpha \quad \Rightarrow \quad P(a \leq \frac{X_{(1)}}{\theta}\leq b) =P\left( \frac{X_{(1)}}{b} \leq \theta \leq \frac{X_{(1)}}{a} \right) \]
Voy a fijar a \(a=1\) dado que es lo menos distante de b para acumular la el nivel de confianza (ver el gráfico anterior)
\[ P(1 \leq Q \leq b) = 1 - \alpha \quad \Rightarrow P(Q \leq b)=1-\alpha \]
Debemos usar la función de distribución de Q para integrar y despejar el valor de \(b\)
Sabemos que la función de distribución acumulada es:
\[ F_Q(q) = 1 - \left( \frac{1}{q} \right)^n \]
La ecuación que queremos resolver es:
\[ P(Q \leq b)=F_Q(b) = 1 - \alpha \]
\[ 1 - \left( \frac{1}{b} \right)^n = 1 - \alpha \]
\[ \left( \frac{1}{b} \right)^n = \alpha \]
Ahora tomamos la raíz \(n\)-ésima de ambos lados:
\[ \frac{1}{b} = \alpha^{1/n} \]
Invirtiendo ambos lados para despejar \(b\):
\[ b = \frac{1}{\alpha^{1/n}}= \alpha^{-1/n} \]
Recordemos el planteo anterior: \[ P\left( \frac{X_{(1)}}{b} \leq \theta \leq \frac{X_{(1)}}{a} \right)=P\left( \frac{X_{(1)}}{\frac{1}{\alpha^{1/n}}} \leq \theta \leq \frac{X_{(1)}}{1} \right)=P\left( X_{(1)}\alpha^{1/n} \leq \theta \leq X_{(1)} \right) \]
Por lo tanto el intervalo de confianza se expresa como:
\[ \left( X_{(1)} \alpha^{\frac{1}{n}}, X_{(1)} \right) \]
5. Calcular e interpretar el intervalo de confianza del 99% para \(\theta\)
Dado un nivel de confianza del 99% (\(\alpha = 0.01\)), utilizamos las observaciones \(3.14, 4.75, 3.01, 4.09, 3.56\). El valor de \(X_{(1)}\) es el mínimo de estas observaciones:
\[ X_{(1)} = 3.01 \]
El intervalo de confianza del 99% para \(\theta\) es:
\[ \left( X_{(1)} \alpha^{\frac{1}{n}}, X_{(1)} \right) \]
Donde \(\alpha^{\frac{1}{n}} = 0.01^{\frac{1}{5}} \approx 0.3981\). Por lo tanto, el intervalo de confianza es:
\[ \left( 3.01 \times 0.3981, 3.01 \right) = (1.1983, 3.01) \]
Con un nivel de confianza del 99%, podemos decir que el verdadero valor de \(\theta\) está contenido en el intervalo \((1.1983, 3.01)\).
\[ \]
1. Estimador de máxima verosimilitud \(\hat{\theta}_{MV}\)
La función de densidad de probabilidad es:
\[ f_Y(y|\theta) = \frac{1}{\theta y^2} \exp\left(-\frac{1}{\theta y}\right) I_{[y \geq 0]} \]
El estimador de máxima verosimilitud (EMV) se obtiene maximizando la función de verosimilitud. Consideramos una muestra \(Y_1, Y_2, \dots, Y_n\), por lo que la función de verosimilitud conjunta es:
\[ L(\theta; Y_1, Y_2, \dots, Y_n) = \prod_{i=1}^{n} f_Y(Y_i|\theta) = \prod_{i=1}^{n} \frac{1}{\theta Y_i^2} \exp\left(-\frac{1}{\theta Y_i}\right) \]
Tomando el logaritmo de la función de verosimilitud (log-verosimilitud), tenemos:
\[ \log L(\theta) = -n \log(\theta) - 2 \sum_{i=1}^{n} \log(Y_i) - \frac{1}{\theta} \sum_{i=1}^{n} \frac{1}{Y_i} \]
Derivando con respecto a \(\theta\) e igualando a cero para encontrar el valor que maximiza:
\[ \frac{\partial}{\partial \theta} \log L(\theta) = -\frac{n}{\theta} + \frac{1}{\theta^2} \sum_{i=1}^{n} \frac{1}{Y_i} = 0 \]
Resolviendo para \(\theta\), obtenemos el estimador de máxima verosimilitud:
\[ \hat{\theta}_{MV} = \frac{1}{n} \sum_{i=1}^{n} \frac{1}{Y_i} = \overline{X} \]
donde \(X_i = \frac{1}{Y_i}\).
2. Cantidad pivotal
Hemos establecido que el estimador de máxima verosimilitud es \(\hat{\theta}_{MV} = \overline{X}\), donde \(X = \frac{1}{Y} \sim Exponencial(\theta)\). Es bien sabido que la suma de variables exponenciales independientes sigue una distribución Gamma. Así, la suma \(S = \sum_{i=1}^{n} X_i\) tiene una distribución Gamma:
\[ S = \sum_{i=1}^{n} X_i \sim Gamma(n, \theta) \]
Por lo tanto, el estadístico \(Q = \frac{2n\overline{X}}{\theta}\) tiene una distribución \(\chi^2\) con \(2n\) grados de libertad, es decir:
\[ Q = \frac{2n\overline{X}}{\theta} \sim \chi^2_{2n} \]
Esto demuestra que \(Q\) es una cantidad pivotal, ya que su distribución no depende de \(\theta\).
3. Intervalo de confianza para \(\theta\)
Para construir un intervalo de confianza para \(\theta\) basado en la cantidad pivotal \(Q = \frac{2n\overline{X}}{\theta}\), utilizamos los percentiles de la distribución \(\chi^2\) con \(2n\) grados de libertad.
El intervalo de confianza para \(\theta\) con nivel de confianza \(1 - \alpha\) está dado por:
\[ \left( \frac{2n\overline{X}}{\chi^2_{2n, 1-\frac{\alpha}{2}}}, \frac{2n\overline{X}}{\chi^2_{2n, \frac{\alpha}{2}}} \right) \]
Donde \(\chi^2_{2n, \alpha}\) es el cuantil de la distribución \(\chi^2\) con \(2n\) grados de libertad.
Este intervalo proporciona una región donde es probable que se encuentre el valor verdadero de \(\theta\), con una probabilidad del \(1 - \alpha\).
\[ \]
1. Estimador de máxima verosimilitud \(\hat{\theta}_{MV}\)
La función de densidad de una distribución \(Pareto(\theta, 4)\) es:
\[ f_Y(y|\theta) = \frac{4 \theta^4}{y^5} I_{[y \geq \theta]} \]
El estimador de máxima verosimilitud (EMV) se obtiene maximizando la función de verosimilitud. Para una muestra \(Y_1, Y_2, \dots, Y_n\), la función de verosimilitud es:
\[ L(\theta; Y_1, Y_2, \dots, Y_n) = \prod_{i=1}^{n} \frac{4 \theta^4}{Y_i^5} I_{[Y_i \geq \theta]} \]
Dado que \(Y_i \geq \theta\) para todos los \(i\), el soporte de la verosimilitud está en \(\theta \leq Y_{(1)}\), donde \(Y_{(1)} = \min(Y_1, Y_2, \dots, Y_n)\).
La función de verosimilitud es máxima cuando \(\theta\) toma su valor máximo, es decir, cuando \(\theta = Y_{(1)}\), que es el valor mínimo de la muestra. Por lo tanto, el estimador de máxima verosimilitud es:
\[ \hat{\theta}_{MV} = Y_{(1)} \]
2. Proponer una cantidad pivotal
Definimos la cantidad pivotal \(Q = \frac{Y_{(1)}}{\theta}\). Sabemos que si \(Y \sim Pareto(\theta, 4)\), entonces \(Y_{(1)} \sim Pareto(\theta, 4n)\), ya que el parámetro de forma de la distribución aumenta con el tamaño de la muestra.
Esto implica que la cantidad:
\[ Q = \frac{Y_{(1)}}{\theta} \sim Pareto(1, 4n) \]
La cantidad \(Q\) es pivotal, ya que su distribución no depende de \(\theta\).
3. Intervalo de confianza para \(\theta\)
El intervalo de confianza se basa en la distribución de \(Q\). Como \(Q \sim Pareto(1, 4n)\), podemos utilizar los percentiles de esta distribución para construir un intervalo de confianza.
Dado que el percentil inferior de la distribución de Pareto \(Pareto(1, 4n)\) con nivel de confianza \(1 - \alpha\) está dado por \(\alpha^{1/4n}\), el intervalo de confianza para \(\theta\) es:
\[ \left( Y_{(1)} \alpha^{\frac{1}{4n}}, Y_{(1)} \right) \]
Donde \(\alpha\) es el nivel de significancia.
\[ \]
1. Deducir un intervalo de confianza \(1 - \alpha\) para \(\sigma^2\)
Consideramos una muestra \(Y_1, Y_2, \dots, Y_n\) de una distribución \(N(\mu, \sigma^2)\), donde \(\mu\) y \(\sigma\) son desconocidos. Sabemos que el estimador de la varianza muestral es:
\[ S^2 = \frac{1}{n-1} \sum_{i=1}^{n} (Y_i - \overline{Y})^2 \]
Donde \(\overline{Y}\) es la media muestral. Es bien sabido que la cantidad:
\[ \frac{(n-1) S^2}{\sigma^2} \sim \chi^2_{n-1} \]
sigue una distribución \(\chi^2\) con \(n-1\) grados de libertad. Podemos utilizar esta cantidad para construir un intervalo de confianza para \(\sigma^2\).
Para un nivel de confianza \(1 - \alpha\), los percentiles \(\chi^2_{\alpha/2, n-1}\) y \(\chi^2_{1-\alpha/2, n-1}\) de la distribución \(\chi^2\) nos permiten construir el intervalo de confianza para \(\sigma^2\):
\[ P\left( \chi^2_{1-\alpha/2, n-1} \leq \frac{(n-1) S^2}{\sigma^2} \leq \chi^2_{\alpha/2, n-1} \right) = 1 - \alpha \]
Multiplicando por \(\sigma^2\) y reorganizando los términos, obtenemos el intervalo de confianza para \(\sigma^2\):
\[ \left( \frac{(n-1) S^2}{\chi^2_{\alpha/2, n-1}}, \frac{(n-1) S^2}{\chi^2_{1-\alpha/2, n-1}} \right) \]
2. Intervalo de confianza con los datos observados
Dado que se tiene una muestra de tamaño \(n = 7\) con los siguientes valores:
\[ -1.5, -1, -0.5, 0, 0.5, 1, 1.5 \]
Primero, calculamos la media muestral \(\overline{Y}\) y la varianza muestral \(S^2\):
\[ \overline{Y} = \frac{-1.5 + (-1) + (-0.5) + 0 + 0.5 + 1 + 1.5}{7} = 0 \]
Luego calculamos la varianza muestral \(S^2\):
\[ S^2 = \frac{1}{6} \sum_{i=1}^{7} (Y_i - \overline{Y})^2 = \frac{1}{6} ((-1.5)^2 + (-1)^2 + (-0.5)^2 + 0^2 + 0.5^2 + 1^2 + 1.5^2) \]
\[ S^2 = \frac{1}{6} (2.25 + 1 + 0.25 + 0 + 0.25 + 1 + 2.25) = \frac{7}{6} \approx 1.167 \]
Para construir el intervalo de confianza para \(\sigma^2\), utilizamos los valores de \(\chi^2\) para \(n - 1 = 6\) grados de libertad y el nivel de confianza deseado \(1 - \alpha\).
El intervalo de confianza es entonces:
\[ \left( \frac{6 \times 1.167}{\chi^2_{\alpha/2, 6}}, \frac{6 \times 1.167}{\chi^2_{1-\alpha/2, 6}} \right) \]
Donde los valores de \(\chi^2\) dependen del nivel de confianza especificado.
Interpretación del intervalo
Este intervalo de confianza proporciona una estimación para el verdadero valor de \(\sigma^2\) con un nivel de confianza \(1 - \alpha\). Esto significa que, si repetimos el muestreo muchas veces, aproximadamente el \(1 - \alpha\)% de las veces, el intervalo contendrá el verdadero valor de \(\sigma^2\).
\[ \]
1. Deducir el intervalo de confianza \(1 - \alpha\) para \(\mu\)
Consideramos una muestra \(Y_1, Y_2, \dots, Y_n\) de una distribución normal \(N(\mu, \sigma^2)\), donde tanto \(\mu\) como \(\sigma\) son desconocidos. Queremos construir un intervalo de confianza para \(\mu\).
Cuando \(\sigma\) es desconocido, la cantidad pivotal que usamos es la distribución t de Student. En este caso, la cantidad:
\[ T = \frac{\overline{Y} - \mu}{S / \sqrt{n}} \sim t_{n-1} \]
sigue una distribución \(t\) con \(n-1\) grados de libertad, donde: - \(\overline{Y}\) es la media muestral. - \(S\) es la desviación estándar muestral. - \(n\) es el tamaño de la muestra.
El intervalo de confianza \(1 - \alpha\) para \(\mu\) se obtiene utilizando los percentiles de la distribución \(t\):
\[ \overline{Y} - t_{\alpha/2, n-1} \frac{S}{\sqrt{n}} \leq \mu \leq \overline{Y} + t_{\alpha/2, n-1} \frac{S}{\sqrt{n}} \]
Donde \(t_{\alpha/2, n-1}\) es el valor crítico de la distribución \(t\) con \(n-1\) grados de libertad.
2. Construir el intervalo de confianza para los datos observados
La muestra que se ha observado tiene los siguientes valores:
\[ -1.5, -1, -0.5, 0, 0.5, 1, 1.5 \]
Primero, calculamos la media muestral \(\overline{Y}\) y la desviación estándar muestral \(S\).
Calcular la media muestral \(\overline{Y}\):
\[ \overline{Y} = \frac{-1.5 + (-1) + (-0.5) + 0 + 0.5 + 1 + 1.5}{7} = 0 \]
Calcular la desviación estándar muestral \(S\):
\[ S^2 = \frac{1}{n-1} \sum_{i=1}^{n} (Y_i - \overline{Y})^2 \] \[ S^2 = \frac{1}{6} \left( (-1.5)^2 + (-1)^2 + (-0.5)^2 + 0^2 + 0.5^2 + 1^2 + 1.5^2 \right) \] \[ S^2 = \frac{1}{6} \left( 2.25 + 1 + 0.25 + 0 + 0.25 + 1 + 2.25 \right) = \frac{7}{6} \approx 1.167 \] \[ S \approx \sqrt{1.167} \approx 1.08 \]
Intervalo de confianza para \(\mu\):
Para un nivel de confianza del 90%, buscamos el valor crítico \(t_{\alpha/2, n-1}\) para \(\alpha = 0.10\) y \(n - 1 = 6\) grados de libertad. Según las tablas de \(t\), \(t_{0.05, 6} \approx 1.943\).
El intervalo de confianza para \(\mu\) es:
\[ 0 \pm 1.943 \times \frac{1.08}{\sqrt{7}} \approx 0 \pm 1.943 \times 0.408 \] \[ 0 \pm 0.793 \]
Por lo tanto, el intervalo de confianza al 90% para \(\mu\) es:
\[ (-0.793, 0.793) \]
Interpretación:
Con un nivel de confianza del 90%, podemos decir que el verdadero valor de \(\mu\) se encuentra en el intervalo \((-0.793, 0.793)\). Esto significa que si repetimos el muestreo muchas veces, el 90% de los intervalos construidos de esta manera contendrán el valor verdadero de \(\mu\).
\[ \]
1. Intervalo de confianza para el parámetro de interés con una muestra genérica \(n\)
Dado que la variable sigue una distribución normal, podemos construir un intervalo de confianza para el promedio \(\mu\) utilizando la media muestral \(\overline{Y}\) y la desviación estándar muestral \(S\).
\[ Q = \frac{\sqrt{n} (\bar{X} - \mu)}{S} \sim t_{n-1} \]
Depende solo de \(\mu\) y la muestra, y tiene distribución conocida, por lo que es una cantidad pivotal válida.
\[ P\left( -t_{n-1, \alpha/2} \leq \frac{\sqrt{n} (\bar{X} - \mu)}{S} \leq t_{n-1, \alpha/2} \right) = 1 - \alpha \]
\[ P\left( -t_{n-1, \alpha/2} \frac{S}{\sqrt{n}} \leq \bar{X} - \mu \leq t_{n-1, \alpha/2} \frac{S}{\sqrt{n}} \right) = 1 - \alpha \]
\[ P\left( \bar{X} - t_{n-1, \alpha/2} \frac{S}{\sqrt{n}} \leq \mu \leq \bar{X} + t_{n-1, \alpha/2} \frac{S}{\sqrt{n}} \right) = 1 - \alpha \]
\[ \Rightarrow IC \, para \, \mu ( \sigma \ desconocido): \left[ \bar{X} - t_{n-1, \alpha/2} \left( \frac{S}{\sqrt{n}} \right), \, \bar{X} + t_{n-1, \alpha/2} \left( \frac{S}{\sqrt{n}} \right) \right] \]
Para una muestra de tamaño \(n\), cuando el parámetro \(\sigma\) es desconocido, el intervalo de confianza \(1 - \alpha\) para \(\mu\) está dado por:
\[ \overline{Y} \pm t_{\alpha/2, n-1} \frac{S}{\sqrt{n}} \]
Donde:
\(\overline{Y}\) es la media muestral,
\(t_{\alpha/2, n-1}\) es el valor crítico de la distribución t-Student con \(n-1\) grados de libertad,
\(S\) es la desviación estándar muestral,
\(n\) es el tamaño de la muestra.
Este intervalo nos da una estimación para el promedio de gasto diario con un nivel de confianza \(1 - \alpha\).
2. Tamaño de muestra para una precisión de 25 dólares y confianza del 99%
Aquí necesitamos calcular el tamaño de la muestra necesario para estimar el promedio con un error máximo de 25 dólares y un nivel de confianza del 99%. Sabemos que la precisión es el error máximo permitido, es decir, la mitad de la longitud del intervalo de confianza, que es \(E = 25\).
La fórmula del tamaño de muestra \(n\) para un intervalo de confianza de \(1 - \alpha\) es:
\[ n = \left( \frac{Z_{\alpha/2} \cdot \sigma}{E} \right)^2 \]
Donde: - \(Z_{\alpha/2}\) es el valor crítico de la distribución normal estándar para \(1 - \alpha\) (para un nivel de confianza del 99%, \(Z_{0.005} \approx 2.576\)), - \(\sigma = 50\) es la desviación estándar conocida del gasto diario, - \(E = 25\) es la precisión deseada.
Sustituyendo los valores:
\[ n = \left( \frac{2.576 \times 50}{25} \right)^2 = \left( \frac{128.8}{25} \right)^2 = (5.152)^2 \approx 26.53 \]
Por lo tanto, se necesita una muestra de tamaño \(n = 27\) para alcanzar la precisión deseada con un nivel de confianza del 99%.
3. Intervalo de confianza del 90% para la varianza del gasto diario
Se obtuvo una muestra de tamaño 16 con un desvío de 46 dólares. El intervalo de confianza para la varianza \(\sigma^2\) cuando el parámetro \(\sigma\) es desconocido y la muestra sigue una distribución normal se construye utilizando la distribución \(\chi^2\).
El intervalo de confianza para \(\sigma^2\) está dado por:
\[ \left( \frac{(n-1) S^2}{\chi^2_{\alpha/2, n-1}}, \frac{(n-1) S^2}{\chi^2_{1-\alpha/2, n-1}} \right) \]
Donde: - \(n = 16\) es el tamaño de la muestra, - \(S = 46\) es la desviación estándar, - \(\chi^2_{\alpha/2, n-1}\) y \(\chi^2_{1-\alpha/2, n-1}\) son los percentiles de la distribución \(\chi^2\) con \(n-1 = 15\) grados de libertad para un nivel de confianza del 90%.
Sustituyendo los valores:
\[ (n-1) S^2 = 15 \times 46^2 = 15 \times 2116 = 31740 \]
Los valores de \(\chi^2\) para \(\alpha = 0.10\) y \(n-1 = 15\) son aproximadamente \(\chi^2_{0.05, 15} \approx 7.261\) y \(\chi^2_{0.95, 15} \approx 24.996\).
Por lo tanto, el intervalo de confianza para \(\sigma^2\) es:
\[ \left( \frac{31740}{24.996}, \frac{31740}{7.261} \right) \approx (1269.81, 4371.33) \]
Interpretación del resultado:
El intervalo de confianza al 90% para la varianza del gasto diario está entre \(1269.81\) y \(4371.33\). Esto significa que, con un 90% de confianza, podemos decir que el valor verdadero de la varianza se encuentra dentro de este intervalo.