Teorema: Seja X uma variável aleatória não-negativa com E[X] < ∞. Então, para todo a > 0: \[P(X \geq a) \leq \frac{E[X]}{a}\]
Aplicação: Útil para limitar probabilidades de cauda quando conhecemos apenas a esperança.
Exemplo: Se E[X] = 3, então P(X ≥ 10) ≤ 0.3
Teorema: Seja X com E[X] = μ e Var(X) = σ² < ∞. Para todo k > 0: \[P(|X - \mu| \geq k\sigma) \leq \frac{1}{k^2}\]
Corolário: \[P(|X - \mu| \geq \varepsilon) \leq \frac{\sigma^2}{\varepsilon^2}\]
Aplicação: Fundamental para demonstrar a Lei Fraca dos Grandes Números.
Teorema: Se φ é convexa e E[|X|] < ∞, então: \[φ(E[X]) \leq E[φ(X)]\]
Casos especiais: - |E[X]| ≤ E[|X|] - (E[X])² ≤ E[X²]
Parte 1: Se {Aₙ} é sequência de eventos com ∑P(Aₙ) < ∞, então: \[P(\limsup A_n) = 0\] (Eventos Aₙ ocorrem infinitas vezes com probabilidade zero)
Parte 2: Se {Aₙ} são independentes e ∑P(Aₙ) = ∞, então: \[P(\limsup A_n) = 1\] (Eventos Aₙ ocorrem infinitas vezes com probabilidade um)
Para p, q > 1 com 1/p + 1/q = 1: \[E[|XY|] \leq (E[|X|^p])^{1/p}(E[|Y|^q])^{1/q}\]
Caso especial (Cauchy-Schwarz): p = q = 2 \[E[|XY|] \leq \sqrt{E[X^2]E[Y^2]}\]
Para p ≥ 1: \[(E[|X + Y|^p])^{1/p} \leq (E[|X|^p])^{1/p} + (E[|Y|^p])^{1/p}\]
Definição: φₓ(t) = \(E[e^{itX}] = E[cos(tX)] + iE[sin(tX)]\) Dado pela Lei de Euler
Propriedades Fundamentais: 1. φₓ(0) = 1
2. |φₓ(t)| ≤ 1 para todo t
3. φₓ(-t) = \(\overline{φₓ(t)}\)
4. φₓ é uniformemente contínua em ℝ
Se Y = aX + b, então: \[φ_Y(t) = e^{itb}φ_X(at)\]
Normal: \(φ(t) = exp(itμ - \frac{σ²t²}{2})\)
Exponencial: \(φ(t) = \frac{λ}{(1 - it}\)
Uniforme [a,b]: \(φ(t) = \frac{(e^{itb} - e^{ita})}{(it(b-a))}\)
Bernoulli(p): φ(t) = \(1 - p + pe^{it}\)
A função característica determina unicamente a distribuição: \[φ_X(t) = φ_Y(t) \ \forall t \Rightarrow F_X = F_Y\]
Se ∫|φₓ(t)|dt < ∞, então X tem densidade: \[f_X(x) = \frac{1}{2\pi} \int_{-\infty}^{\infty} e^{-itx} φ_X(t) dt\]
Enunciado: Seja {Xₙ} sequência de variáveis aleatórias com funções características {φₙ(t)}. Então: \[X_n \xrightarrow{d} X \iff φ_n(t) \to φ(t) \ \forall t \in \mathbb{R}\] onde φ é contínua em t = 0.
Aplicação: Método preferencial para provar convergência em distribuição.
Se Xᵢ i.i.d. com E[Xᵢ] = μ, Var(Xᵢ) = σ², então para: \[Z_n = \frac{\bar{X}_n - \mu}{\sigma/\sqrt{n}}\] temos φ_{Zₙ}(t) → exp(-t²/2) (função característica da N(0,1))
Xₙ → X quase certamente se: \[P\left(\lim_{n\to\infty} X_n = X\right) = 1\] ou equivalentemente: \[P\left(\{\omega: \lim_{n\to\infty} X_n(\omega) = X(\omega)\}\right) = 1\]
Xₙ converge q.c. se e somente se: \[P\left(\lim_{m,n\to\infty} |X_m - X_n| = 0\right) = 1\]
Teorema (Kolmogorov): Se Xᵢ i.i.d. com E[|X₁|] < ∞, então: \[\bar{X}_n \xrightarrow{q.c.} E[X_1]\]
Condição necessária e suficiente: E[|X₁|] < ∞
Xₙ → X q.c. se para todo ε > 0: \[\sum_{n=1}^{\infty} P(|X_n - X| > \varepsilon) < \infty\]
Seja Xₙ ∼ Bernoulli(1/n²), independentes. Então: \[\sum P(X_n = 1) = \sum 1/n^2 < \infty\] Logo, Xₙ → 0 quase certamente.
Xₙ independentes com P(Xₙ = 1) = 1/n, P(Xₙ = 0) = 1 - 1/n - Xₙ → 0 em probabilidade - Xₙ não converge quase certamente (por Borel-Cantelli)
Xₙ → X em Lᵖ (p ≥ 1) se: \[\lim_{n\to\infty} E[|X_n - X|^p] = 0\]
Notação: Xₙ \(\xrightarrow{L^p}\) X
Para 1 ≤ p ≤ q ≤ ∞: \[\|X\|_p \leq \|X\|_q\] Em espaços de probabilidade finita: \[L^q \subset L^p\]
Xₙ converge em Lᵖ se e somente se: \[\lim_{m,n\to\infty} E[|X_m - X_n|^p] = 0\]
Se |Xₙ| ≤ Y com E[Yᵖ] < ∞ e Xₙ → X q.c., então: \[X_n \xrightarrow{L^p} X\]
Se Xᵢ não correlacionados com E[Xᵢ] = μ e Var(Xᵢ) ≤ M, então: \[\bar{X}_n \xrightarrow{L^2} \mu\]
Em estimação, busca-se \(\xrightarrow{L^2}\) para minimizar E[(θ̂ - θ)²]
Definição: Xₙ \(\xrightarrow{P}\) X se: \[\lim_{n\to\infty} P(|X_n - X| > \varepsilon) = 0, \ \forall \varepsilon > 0\]
Critério: Xₙ \(\xrightarrow{P}\) X sse toda subseqüência tem outra subseqüência que converge q.c. para X.
Teorema: Se Xᵢ i.i.d. com E[Xᵢ] = μ, então: \[\bar{X}_n \xrightarrow{P} \mu\]
Prova: Usa Chebyshev: P(|X̄ₙ - μ| > ε) ≤ σ²/(nε²) → 0
Preservação por funções contínuas: Se Xₙ \(\xrightarrow{P}\) X e g contínua, então g(Xₙ) \(\xrightarrow{P}\) g(X)
Operações algébricas:
Definição: Xₙ \(\xrightarrow{d}\) X se: \[\lim_{n\to\infty} F_{X_n}(x) = F_X(x)\] para todo x ponto de continuidade de Fₓ.
Teorema (Lindeberg-Lévy): Se Xᵢ i.i.d. com E[Xᵢ] = μ, Var(Xᵢ) = σ², então: \[\frac{\bar{X}_n - \mu}{\sigma/\sqrt{n}} \xrightarrow{d} N(0,1)\]
Se Xₙ \(\xrightarrow{d}\) X e Yₙ \(\xrightarrow{P}\) c (constante), então: 1. Xₙ + Yₙ \(\xrightarrow{d}\) X + c 2. XₙYₙ \(\xrightarrow{d}\) cX 3. Xₙ/Yₙ \(\xrightarrow{d}\) X/c (se c ≠ 0)
Se √n(Xₙ - θ) \(\xrightarrow{d}\) N(0,σ²) e g diferenciável em θ, então: \[\sqrt{n}(g(X_n) - g(\theta)) \xrightarrow{d} N(0, [g'(\theta)]^2\sigma^2)\]
Quase Certa ⇒ Probabilidade ⇒ Distribuição
↑ ↑
L^r ⇒ Probabilidade (r ≥ 1)
Nenhuma seta é reversível em geral.