Sean \(X_1,\dots,X_n\) v.a. i.i.d. con función de distribución acumulada \(F(t)=\mathbb{P}(X_i\le t)\) y densidad \(f(t)=F'(t)\) (donde exista). Definimos el \[ m_n:=\min\{X_1,\dots,X_n\}. \] Notación útil: la \(S(t):=1-F(t)=\mathbb{P}(X_i>t)\).

que \(m_n\) exceda \(t\) significa que las observaciones exceden \(t\). Esta equivalencia y la independencia permitirán obtener (a), de la cual se derivan (b) y (c).

El evento \(\{m_n>t\}\) equivale a \(\{X_1>t,\ldots,X_n>t\}\). Por independencia, \[ \boxed{\;\mathbb{P}(m_n>t)=\prod_{i=1}^n \mathbb{P}(X_i>t)=\big(S(t)\big)^n=\big(1-F(t)\big)^n.\;} \]

(i) Para \(t\) por debajo del soporte, \(S(t)=1\) y la probabilidad vale 1, como es coherente. (ii) Si \(t\to\infty\), \(S(t)\to 0\) y la probabilidad tiende a 0. (iii) Para \(t\) fijo, esta probabilidad es no creciente en \(n\) (a mayor muestra, más difícil que el mínimo sea grande).

Por complemento, \[ \boxed{\;H_n(t)=\mathbb{P}(m_n\le t)=1-\mathbb{P}(m_n>t)=1-\big(1-F(t)\big)^n.\;} \]

\(H_n\) es no decreciente, \(\lim_{t\to-\infty}H_n(t)=0\) y \(\lim_{t\to\infty}H_n(t)=1\). Si \(F\) es continua, entonces \(H_n\) también lo es. Además, si \(n_1<n_2\), entonces \(H_{n_1}(t)\le H_{n_2}(t)\) para todo \(t\) (: el mínimo se hace más pequeño cuando aumenta \(n\)).

Si \(q_p\) es el cuantil \(p\) de \(m_n\), entonces \[ p=H_n(q_p)=1-\big(1-F(q_p)\big)^n \;\Rightarrow\; F(q_p)=1-(1-p)^{1/n} \;\Rightarrow\; \boxed{\;q_p=F^{-1}\!\big(1-(1-p)^{1/n}\big).} \]

Si \(F\) es absolutamente continua con densidad \(f\), derivando \(H_n\) se obtiene \[ \boxed{\;h_n(t)=H_n'(t)=n\,\big(1-F(t)\big)^{\,n-1}\,f(t).} \]

\(f(t)\,dt\) representa que observación cae en el entorno de \(t\); \((1-F(t))^{n-1}\) representa que las otras \(n-1\) son mayores que \(t\); el factor \(n\) cuenta cuál de las \(n\) es la que “toca” \(t\).

\[ \int_{-\infty}^{\infty} h_n(t)\,dt =\int n(1-F(t))^{n-1}f(t)\,dt \overset{u=F(t)}{=}\int_0^1 n(1-u)^{n-1}\,du=1. \]

Si \(\lambda(t)=\dfrac{f(t)}{S(t)}\) es la tasa de riesgo de una \(X_i\), la del mínimo es \[ \lambda_{m_n}(t)=\frac{h_n(t)}{1-H_n(t)}=\frac{n\,S(t)^{n-1}f(t)}{S(t)^n}=n\,\lambda(t), \] lo cual formaliza que el mínimo “falla” \(n\) veces más rápido que una sola unidad.

Si el soporte es no negativo, \[ \mathbb{E}[m_n]=\int_{0}^{\infty}\mathbb{P}(m_n>t)\,dt =\int_{0}^{\infty}\big(1-F(t)\big)^n\,dt. \] En soporte general, puede separarse en partes positiva y negativa o escribirse como \[ \mathbb{E}[m_n]=\int_{-\infty}^{\infty}\mathbb{P}(m_n>t)\,dt-\int_{-\infty}^{0}dt. \] Además, si \(U_i=F(X_i)\sim \mathrm{U}(0,1)\), entonces \(F(m_n)=\min\{U_1,\dots,U_n\}\) tiene c.d.f. \(p\mapsto 1-(1-p)^n\) y densidad \(p\mapsto n(1-p)^{n-1}\); de ahí se recupera \(m_n=F^{-1}(F(m_n))\).

\[ \boxed{\mathbb{P}(m_n>t)=(1-F(t))^n},\qquad \boxed{H_n(t)=1-(1-F(t))^n},\qquad \boxed{h_n(t)=n(1-F(t))^{n-1}f(t)}. \]