O objetivo desse estudo é apresentar a Lei dos Grandes Números como um teorema, descrevendo o que a lei diz e os resultados esperados através dela. Em suma, a média aritmética dos n valores é aproximadamente igual a média de X, µ = E[X]. Foram feitas simulações com diferentes distribuições para uma melhor visão de como o teorema funciona e para mostrar como o mesmo é útil nas mais diversas áreas.Após todos os testes e simulações, de fato foi possível concluir o que a Lei diz.
A Lei dos Grandes Números é um dos teoremas mais importantes no ramo da probabilidade, assim como de outras áreas. Ela se refere ao conceito de probabilidade baseada em uma fórmula estudada da matemática. De forma simplificada, ela diz que quanto maior o número de amostras, mais ela tenderá ao valor esperado, ou seja, tende para a probabilidade teórica. Vamos considerar a variável aleatória X que irá representar o valor númerico de um experimento aleatório e seja X1,X2,…,Xn uma amostra aleatória de X com n grande. Segue:
\[ \overline{Xn}(w)=\frac{\sum_{i=1}^{n}Xi(w)}{n}\to \substack{n \to \infty}\mu \] A Lei dos Grandes Números afirma que a média aritmética dos n valores é aproximadamente igual a média de X, µ = E[X], quando n é grande. onde w = (w1, …, wn), Xn(w) = X(wn), wn são os ensaios sucessivos e w é o experimento composto.
\[ \overline{X}= \frac{X_{1}+X_{2}+X_{3} + \ldots + X_{n}}{n} \]
Então temos que o valor esperado dessa variável é:
\[ E[\overline{X}] = \mu\\ \] Em resumo, o teorema diz que quanto maior o n, ou seja, quando n tende para infinito, a média amostral coincidirá com a média populacional μ. O que nos resume a dizer que: escolhido uma constante qualquer (ϵ > 0) a probabilidade de que a diferença entre a média amostral e a média populacional seja maior que essa constante tenderá a zero. \[ \lim_{n\to\infty} \mathbb{P}\left(|\frac{X_{1}+X_{2}+X_{3} + \ldots + X_{n}}{n} - \mu| \ge \epsilon\right)=1 \] Ao decorrer do trabalho, iremos usar simulacões de dados para ver a aplicação do teorema.
A Lei dos Grandes Números é uma das principais leis no ramo da probabilidade e estatística, mas apesar da sua gigantesca importância, a ideia pode ser descrita de uma forma bem simples e intuitíva.Podemos usar como exemplo o lançamento de um dado de 6 faces não viciado onde cada lado tem uma chance igual de ser sorteado (1/6).Se lançarmos esse dado poucas vezes, poderemos ver que alguns lados podem sair mais vezes do que os outros, mas a medida que aumentamos o n (número de lançamentos),a Lei dos Grandes Números diz pra gente que a média aritmética dos valores observados tendem a 1/6, ou seja, tendem ao valor esperado da variável aleatória. Esse teorema tem uma grande importância no dia dia. Nos ajuda, por exemplo, a poupar tempo e custo de uma pesquisa, já que o teorema pode nos dizer, através de estimativas, o número de amostras que devem ser coletadas para que podemos nos aproximar o máximo possível do real valor populacional.
# o código abaixo siumula a Lei dos Grandes Números para uma distribuição normal.
n = c(1:2000)
mu = 3
sd = 0.5
x = rnorm(2000,mu,sd)
s = cumsum(x)
medias = s/n
plot(medias, ylim=c(2,4),type="l",
main = "Simulação da Lei dos Grandes Números - Normal",
xlab="n", ylab="Média amostral")
abline(h = 3, col="red")
#abaixo iremos simulados lançamentos de um dado não viciado com 6 faces. Começando com n=5 e terminando com n=500000.
#exibiremos os lançamentos em forma de gráficos para uma melhor vizualização
dado <- sample(c(1,2,3,4,5,6),size=5, replace=T)
barplot(table(dado),xlab="número",
ylab="freqência",col="blue")
dado2 <- sample(c(1,2,3,4,5,6),size=50, replace=T)
barplot(table(dado2),xlab="número",
ylab="freqência",col="blue")
dado3 <- sample(c(1,2,3,4,5,6),size=500, replace=T)
barplot(table(dado3),xlab="número",
ylab="freqência",col="blue")
dado4 <- sample(c(1,2,3,4,5,6),size=5000, replace=T)
barplot(table(dado4),xlab="número",
ylab="freqência",col="red")
dado5 <- sample(c(1,2,3,4,5,6),size=500000, replace=T)
barplot(table(dado5),xlab="número",
ylab="freqência",col="red")
#o código a seguir ira gerar 2000 números aleatórios com os valores mínimos de: 1.5 e máximos:2.11
#não mostraremos os dados devido ao seu tamanho
x <- runif(2000,min=1.5,max=2.11)
MD<- mean(x) #média populacional
SD <- sd(x) #desvio padrão populacional
print(MD)
## [1] 1.80297
print(SD)
## [1] 0.1751853
#x1,x2,x3,x4,x5,x6 serão amostras da população criada acima, começando com n=10 e terminando com n=600
x1 <- sample(x,10)
MD1<-mean(x1)
print(MD1)
## [1] 1.772817
x2 <- sample(x,25)
MD2<-mean(x2)
print(MD2)
## [1] 1.757318
x3 <- sample(x,75)
MD3<-mean(x3)
print(MD3)
## [1] 1.79637
x4 <- sample(x,100)
MD4<-mean(x4)
print(MD4)
## [1] 1.791714
x5 <- sample(x,200)
MD5<-mean(x5)
print(MD5)
## [1] 1.802259
x6 <- sample(x,800)
MD6<-mean(x6)
print(MD6)
## [1] 1.806618
#o comando abaixo criará um gráfico com os valores da uma população mostrada acima, porém para outras amostras
n = c(1:2000)
mu = MD
sd = SD
x = x
s = cumsum(x)
medias = s/n
plot(medias, ylim=c(1.5,2),type="l",
main = "teste da Lei dos Grandes Números para uma uniforme",
xlab="n", ylab="Média amostral")
abline(h = MD, col="red")
# a função abaixo será criada para gerar uma bernoulli onde p é a probabilidade de sucesso.
rbernoulli <- function(nc,p) {
u<-runif(nc)
x<-(u>1-p)*1
}
população<-rbernoulli(2000,0.9)
MDB<- mean(população)
print(MDB)
## [1] 0.901
amostra1<-rbernoulli(10,0.9)
mean(amostra1)
## [1] 1
amostra2<-rbernoulli(50,0.9)
mean(amostra2)
## [1] 0.88
amostra3<-rbernoulli(100,0.9)
mean(amostra3)
## [1] 0.92
amostra4<-rbernoulli(250,0.9)
mean(amostra4)
## [1] 0.864
amostra5<-rbernoulli(500,0.9)
mean(amostra5)
## [1] 0.896
amostra6<-rbernoulli(1100,0.9)
mean(amostra6)
## [1] 0.8954545
# a função abaixo ira mostrar uma distribuição binominal com parametros(n, p)
n = 2000
p = 0.4
df <- data.frame(bi = rbinom(n, 1, p) ,count = 0, mean = 0)
ifelse(df$bi[1] == 1, df[1, 2:3] <- 1, 0)
## [1] 1
for (i in 2 : n){
df$count[i] = ifelse(df$bi[i] == 1, df$count[i]<-df$count[i - 1]+1, df$count[i - 1])
df$mean[i] = df$count[i] / i
}
plot(df$mean, type='l',
main = "Simulação da Lei dos Grandes Números para uma Binomial",
xlab="n", ylab="Média amostral")
abline(h = p, col="red")
Os resultados das simulações feitas a cima foram de grande importância para nos mostrar a Lei dos Grandes Números em ação em alguns exemplos.
[1] No pimeiro Grafico, de maneira intuitiva, podemos ver a convergência da média amostral para o valor da média populacional a medida que n cresce.
[2] A segunda simulação é o lançamento de um dado não viciado. simulamos 5,50,500,5000 e 50000 lançamentos. Ao observar os Gráficos, é possível ver uma homogenidade do grafico (convergência para o valor da probalidade teórica: 1/6) a medida que o número de lançamentos cresce. Já era esperado que isso acontecesse, pois é exatamente isso que a Lei dos Grandes números diz.
[3]simulamos depois um conjunto de dados de uma distribuição uniforme. Após feito isso, retiramos amostras cada vez maior para vermos o que acontece com o valor da média. Como esperado, o valor da média das amostras tende para o valor da média amostral (µ). O último gráfico segue o mesmo princípios que o primeiro.Motra a convergência da média da população criada a cima para a media µ, porém para valores diferentes de amostra. Podemos extrair desse gráfico também o que já foi citado neste trabalho, que a Lei dos Grandes Números pode nos proporcionar menores custos e um menor tempo para realizar determinada pesquisa já que, uma amostra com n=250 por exemplo, pode ter um resultado extremamento proximo a uma amostra com n=1000.
[4] A proxima simulação mostra um distribuição de Bernoulli como parametros (n,p), onde p é a probabilidade de sucesso. simulação pimeiro uma população com n=2000 e depois simulamos amostras dessa população. Fazendo o n crescer gradativamente foi possível observar a média média amostral tendendo a média populacional.
[5] Por fim, um gráfico mostrando a média de uma distribuição binomial para confirmar de fato que a Lei dos Grandes números não só funciona, como também é válido para diversas distribuições.
De fato A Lei dos Grandes Números de fato é um dos teoremas mais importantes. Apesar da sua idéia ser bastante simples, tem um enorme peso para os estatísticos. Garantindo, de forma resumida, que a média aritmética dos n valores é aproximadamente igual a média de X, µ = E[X], quando n é grande, valendo para diversas distribuições como a normal, bernoulli, uniforme, binomial entre outras não simuladas. O teorema pode ajudar a sermos mais precisos nos ramos da inferência, amostragem e probabilidade, assim como ecnomizar recursos valiosos em uma pesquisa e afins no ramo da amostragem. Leituras complementares podem e devem ser usadas, como o artigo de Artigo de Eric Lopes: Lei dos Grandes números em sistemas aparentemente aleatórios. Podem ser feitas também outras simulações, como a da distribuição de cauchy que serve como um contra exemplo da Lei dos Grandes Números (única distribuição onde a Lei dos Grandes Números não se aplica).
[1] ROSS,Sheldon, De Conti,Alberto Resende. Probabilidade: Um Curso Moderno com Aplicações.8 ed.São Paulo: Bookman, 2010.
[2] MEYER,Paul L. probabilidade: Aplicações à Estatística.2 ed.São Paulo: LTC, 2006.
[3] ZIBETTI,André.Teoremas Limites.MOODLE UFSC.Disponivel em: link
[4] LOPES,Eric.LEI DOS GRANDES NÚMEROS EM SISTEMAS APARENTEMENTE ALEATÓRIOS.Universidade Estadual de Campinas.Disponivem em: link
[5] LEI dos Grandes Números.Portal Action.Disponivel em: link
[6] Lei dos Grandes Números.Wikipédia. Disponível em: link