Teoria da Convergência em Probabilidade

1. Desigualdades e Lemas Importantes

1.1 Desigualdade Básica de Chebyshev

Teorema: Seja X uma variável aleatória não-negativa com E[X] < ∞. Então, para todo a > 0: \[P(X \geq a) \leq \frac{E[X]}{a}\]

Aplicação: Útil para limitar probabilidades de cauda quando conhecemos apenas a esperança.

Exemplo: Se E[X] = 3, então P(X ≥ 10) ≤ 0.3

1.2 Desigualdade Clássica de Chebyshev

Teorema: Seja X com E[X] = μ e Var(X) = σ² < ∞. Para todo k > 0: \[P(|X - \mu| \geq k\sigma) \leq \frac{1}{k^2}\]

Corolário: \[P(|X - \mu| \geq \varepsilon) \leq \frac{\sigma^2}{\varepsilon^2}\]

Aplicação: Fundamental para demonstrar a Lei Fraca dos Grandes Números.

1.3 Desigualdade de Jensen

Teorema: Se φ é convexa e E[|X|] < ∞, então: \[φ(E[X]) \leq E[φ(X)]\]

Casos especiais: - |E[X]| ≤ E[|X|] - (E[X])² ≤ E[X²]

1.4 Lema de Borel-Cantelli

Parte 1: Se {Aₙ} é sequência de eventos com ∑P(Aₙ) < ∞, então: \[P(\limsup A_n) = 0\] (Eventos Aₙ ocorrem infinitas vezes com probabilidade zero)

Parte 2: Se {Aₙ} são independentes e ∑P(Aₙ) = ∞, então: \[P(\limsup A_n) = 1\] (Eventos Aₙ ocorrem infinitas vezes com probabilidade um)

1.5 Desigualdade de Hölder

Para p, q > 1 com 1/p + 1/q = 1: \[E[|XY|] \leq (E[|X|^p])^{1/p}(E[|Y|^q])^{1/q}\]

Caso especial (Cauchy-Schwarz): p = q = 2 \[E[|XY|] \leq \sqrt{E[X^2]E[Y^2]}\]

1.6 Desigualdade de Minkowski

Para p ≥ 1: \[(E[|X + Y|^p])^{1/p} \leq (E[|X|^p])^{1/p} + (E[|Y|^p])^{1/p}\]


2. Função Característica e seu Uso em Convergência

2.1 Definição e Propriedades

Definição: φₓ(t) = \(E[e^{itX}] = E[cos(tX)] + iE[sin(tX)]\) Dado pela Lei de Euler

Propriedades Fundamentais: 1. φₓ(0) = 1

2. |φₓ(t)| ≤ 1 para todo t

3. φₓ(-t) = \(\overline{φₓ(t)}\)

4. φₓ é uniformemente contínua em ℝ

2.2 Transformações Lineares

Se Y = aX + b, então: \[φ_Y(t) = e^{itb}φ_X(at)\]

2.3 Funções Características de Distribuições Comuns

Normal: \(φ(t) = exp(itμ - \frac{σ²t²}{2})\)

Exponencial: \(φ(t) = \frac{λ}{(1 - it}\)

Uniforme [a,b]: \(φ(t) = \frac{(e^{itb} - e^{ita})}{(it(b-a))}\)

Bernoulli(p): φ(t) = \(1 - p + pe^{it}\)

2.4 Teorema da Unicidade

A função característica determina unicamente a distribuição: \[φ_X(t) = φ_Y(t) \ \forall t \Rightarrow F_X = F_Y\]

2.5 Fórmula de Inversão

Se ∫|φₓ(t)|dt < ∞, então X tem densidade: \[f_X(x) = \frac{1}{2\pi} \int_{-\infty}^{\infty} e^{-itx} φ_X(t) dt\]

2.6 Teorema da Continuidade de Lévy

Enunciado: Seja {Xₙ} sequência de variáveis aleatórias com funções características {φₙ(t)}. Então: \[X_n \xrightarrow{d} X \iff φ_n(t) \to φ(t) \ \forall t \in \mathbb{R}\] onde φ é contínua em t = 0.

Aplicação: Método preferencial para provar convergência em distribuição.

2.7 Exemplo: Teorema do Limite Central

Se Xᵢ i.i.d. com E[Xᵢ] = μ, Var(Xᵢ) = σ², então para: \[Z_n = \frac{\bar{X}_n - \mu}{\sigma/\sqrt{n}}\] temos φ_{Zₙ}(t) → exp(-t²/2) (função característica da N(0,1))


3. Convergência Quase Certa

3.1 Definição Formal

Xₙ → X quase certamente se: \[P\left(\lim_{n\to\infty} X_n = X\right) = 1\] ou equivalentemente: \[P\left(\{\omega: \lim_{n\to\infty} X_n(\omega) = X(\omega)\}\right) = 1\]

3.2 Critério de Cauchy Quase Certo

Xₙ converge q.c. se e somente se: \[P\left(\lim_{m,n\to\infty} |X_m - X_n| = 0\right) = 1\]

3.3 Lei Forte dos Grandes Números

Teorema (Kolmogorov): Se Xᵢ i.i.d. com E[|X₁|] < ∞, então: \[\bar{X}_n \xrightarrow{q.c.} E[X_1]\]

Condição necessária e suficiente: E[|X₁|] < ∞

3.4 Relação com Outras Convergências

  • Quase certa ⇒ Em probabilidade
  • Quase certa ⇏ Em Lᵖ
  • Em Lᵖ ⇏ Quase certa

3.5 Lema de Borel-Cantelli e Convergência Q.C.

Xₙ → X q.c. se para todo ε > 0: \[\sum_{n=1}^{\infty} P(|X_n - X| > \varepsilon) < \infty\]

3.6 Exemplo de Convergência Q.C.

Seja Xₙ ∼ Bernoulli(1/n²), independentes. Então: \[\sum P(X_n = 1) = \sum 1/n^2 < \infty\] Logo, Xₙ → 0 quase certamente.

3.7 Contraexemplo Importante

Xₙ independentes com P(Xₙ = 1) = 1/n, P(Xₙ = 0) = 1 - 1/n - Xₙ → 0 em probabilidade - Xₙ não converge quase certamente (por Borel-Cantelli)


4. Convergência em Média de Ordem r

4.1 Definição

Xₙ → X em Lᵖ (p ≥ 1) se: \[\lim_{n\to\infty} E[|X_n - X|^p] = 0\]

Notação: Xₙ \(\xrightarrow{L^p}\) X

4.2 Casos Especiais

  • : Convergência em média
  • : Convergência em média quadrática
  • L∞: Convergência uniforme

4.3 Desigualdades entre Normas

Para 1 ≤ p ≤ q ≤ ∞: \[\|X\|_p \leq \|X\|_q\] Em espaços de probabilidade finita: \[L^q \subset L^p\]

4.4 Critério de Cauchy em Lᵖ

Xₙ converge em Lᵖ se e somente se: \[\lim_{m,n\to\infty} E[|X_m - X_n|^p] = 0\]

4.5 Relação com Outras Convergências

  • Lᵖ ⇒ Em probabilidade (p ≥ 1)
  • Lᵖ ⇏ Quase certa
  • Quase certa + dominada ⇒ Lᵖ

4.6 Teorema da Convergência Dominada

Se |Xₙ| ≤ Y com E[Yᵖ] < ∞ e Xₙ → X q.c., então: \[X_n \xrightarrow{L^p} X\]

4.7 Lei dos Grandes Números em L²

Se Xᵢ não correlacionados com E[Xᵢ] = μ e Var(Xᵢ) ≤ M, então: \[\bar{X}_n \xrightarrow{L^2} \mu\]

4.8 Aplicação: Erro Quadrático Médio

Em estimação, busca-se \(\xrightarrow{L^2}\) para minimizar E[(θ̂ - θ)²]


5. Convergência em Probabilidade e em Distribuição

5.1 Convergência em Probabilidade

Definição: Xₙ \(\xrightarrow{P}\) X se: \[\lim_{n\to\infty} P(|X_n - X| > \varepsilon) = 0, \ \forall \varepsilon > 0\]

Critério: Xₙ \(\xrightarrow{P}\) X sse toda subseqüência tem outra subseqüência que converge q.c. para X.

5.2 Lei Fraca dos Grandes Números

Teorema: Se Xᵢ i.i.d. com E[Xᵢ] = μ, então: \[\bar{X}_n \xrightarrow{P} \mu\]

Prova: Usa Chebyshev: P(|X̄ₙ - μ| > ε) ≤ σ²/(nε²) → 0

5.3 Propriedades da Convergência em Probabilidade

  1. Preservação por funções contínuas: Se Xₙ \(\xrightarrow{P}\) X e g contínua, então g(Xₙ) \(\xrightarrow{P}\) g(X)

  2. Operações algébricas:

    • Xₙ \(\xrightarrow{P}\) X, Yₙ \(\xrightarrow{P}\) Y ⇒ Xₙ ± Yₙ \(\xrightarrow{P}\) X ± Y
    • Xₙ \(\xrightarrow{P}\) X, Yₙ \(\xrightarrow{P}\) Y ⇒ XₙYₙ \(\xrightarrow{P}\) XY

5.4 Convergência em Distribuição

Definição: Xₙ \(\xrightarrow{d}\) X se: \[\lim_{n\to\infty} F_{X_n}(x) = F_X(x)\] para todo x ponto de continuidade de Fₓ.

5.5 Caracterizações Equivalentes

  1. F_{Xₙ}(x) → Fₓ(x) nos pontos de continuidade
  2. E[g(Xₙ)] → E[g(X)] para toda g limitada e contínua
  3. φ_{Xₙ}(t) → φₓ(t) para todo t (Teorema de Lévy)

5.6 Teorema do Limite Central

Teorema (Lindeberg-Lévy): Se Xᵢ i.i.d. com E[Xᵢ] = μ, Var(Xᵢ) = σ², então: \[\frac{\bar{X}_n - \mu}{\sigma/\sqrt{n}} \xrightarrow{d} N(0,1)\]

5.7 Teorema de Slutsky

Se Xₙ \(\xrightarrow{d}\) X e Yₙ \(\xrightarrow{P}\) c (constante), então: 1. Xₙ + Yₙ \(\xrightarrow{d}\) X + c 2. XₙYₙ \(\xrightarrow{d}\) cX 3. Xₙ/Yₙ \(\xrightarrow{d}\) X/c (se c ≠ 0)

5.8 Método Delta

Se √n(Xₙ - θ) \(\xrightarrow{d}\) N(0,σ²) e g diferenciável em θ, então: \[\sqrt{n}(g(X_n) - g(\theta)) \xrightarrow{d} N(0, [g'(\theta)]^2\sigma^2)\]

5.9 Relação entre os Tipos de Convergência

Quase Certa ⇒ Probabilidade ⇒ Distribuição
    ↑               ↑
   L^r     ⇒    Probabilidade (r ≥ 1)

Nenhuma seta é reversível em geral.

5.10 Aplicações em Inferência Estatística

  • Consistência: θ̂ₙ \(\xrightarrow{P}\) θ
  • Normalidade Assintótica: √n(θ̂ₙ - θ) \(\xrightarrow{d}\) N(0,σ²)
  • Testes de Hipótese: Estatísticas de teste com distribuição limite