Dark Mode
Prof. Wadiley Nascimento (wadmiguel547@yahoo.com)
Minha foto

PROGRAMA

OBJECTIVOS

No final desta Unidade Curricular, espera-se que o estudante seja capaz de:


CONTEÚDOS

  1. CAPÍTULO I – Probabilidade

    1. Experiência Aleatória

    2. Probabilidade de Laplace

      • Definição clássica, frequencista e axiomática (Kolmogorov)
    3. Probabilidade condicionada e acontecimentos independentes

    4. Variável Aleatória Discreta e Contínua

      • Função probabilidade e seus parâmetros
    5. Distribuições Discretas de Probabilidade

      • Bernoulli, Binomial, Poisson e suas aproximações
    6. Distribuições Contínuas de Probabilidade

      • Normal e suas aproximações
  2. CAPÍTULO II – Amostragem

    1. Cálculo do tamanho da amostra

    2. Amostragem Probabilística

      • Aleatória, Sistemática, Estratificada e por Conglomerado
    3. Amostragem Não Probabilística

      • Por conveniência, por quotas, intencional e bola de neve
  3. CAPÍTULO III – Inferência Estatística

    1. Teoria de Estimação

    2. Estimação Pontual – Média

      • Método de Máxima Verosimilhança
    3. Estimação Pontual – Média

      • Média, Proporção e Variância

      • Diferença de Médias e Proporção

    4. Teste de Hipóteses

      • Tipos de erros

      • Testes para média, proporção e variância


MÉTODOS DE ENSINO

A disciplina será leccionada através de aulas teóricas e práticas. Nas aulas teóricas serão apresentados os conceitos, definições e fundamentos necessários à compreensão dos conteúdos programáticos, recorrendo à exposição da matéria e à resolução de exemplos ilustrativos.

As aulas práticas destinam-se à consolidação dos conhecimentos, através da revisão de conceitos, resolução de exercícios e discussão dos resultados, recorrendo, quando necessário, ao Microsoft Excel ou ao R (RStudio) como ferramentas de análise.

A avaliação será realizada por meio de provas escritas e trabalhos individuais, visando avaliar a compreensão dos conteúdos e a capacidade de aplicação dos métodos estudados.

A classificação final será obtida com base nos seguintes elementos de avaliação:

Para serem admitidos à segunda avaliação, os estudantes deverão cumprir um mínimo de 75% de assiduidade nas aulas, de acordo com as normas de funcionamento da disciplina.


LISTA DAS PAUTAS

Pauta dos Estudantes dos Cursoos de Licenciatura em: (Ano Lectivo 2025/2026)

Economia Gestão Biologia Educação de Infancia - A Educação de Infancia - B
PAUTA PAUTA PAUTA PA UTA PAUTA

REFERÊNCIA BIBLIOGRÁFICA

Marôco, J. (2018). Análise Estatística com o SPSS Statistics, 7ª edição. ReportNumber, Lda. (Disponível na Biblioteca da FCT/USTP)

Pestana, M. H., & Gageiro, J. N. (2020). Análise de dados para ciências sociais: a complementaridade do SPSS, 6ª Edição, 2ª Impressão – Lisboa, Outubro.

Reis, E., et al. (1999). Estatística aplicada. Lisboa: Edições Sílabo.

Hoffmann, R. (2006). Estatística para economistas. 4ª Edição. São Paulo: Pioneira Thomson Learning.

Fonseca, J. S. D., & Martins, G. D. A. (1993). Curso de estatística.

Martins, M. E. G. (2005). Introdução à Probabilidade e à Estatística com complementos de Excel.

CAPÍTULO I

TÓPICOS DE PROBABILIDADE

Column

Introdução

A distribuição de frequência de uma amostra é uma estimativa da distribuição de probabilidade da população correspondente. Quando o tamanho da amostra for considerada grande, a distribuição de frequência de determinada variável dessa amostra pode seguir, aproximada mente, a distribuição de probabilidade da mesma variável para a população (Martins e Domingues, 2011).

Segundo os autores, para a elaboração de pesquisas empíricas, bem como para solução de diversos problemas práticos, o estudo da estatística descritiva é de importância fundamental. Porém, quando o objetivo é estudar variáveis de uma população, a distribuição de probabilidade passa a ser mais adequada.

Este capítulo apresenta o conceito de variáveis aleatórias discretas e contínuas, as principais distribuições de probabilidades para cada um dos tipos de variável aleatória, assim como o cálculo da esperança e da variância de cada distribuição de probabilidade.

Para variáveis aleatórias discretas, as distribuições de probabilidades mais utilizadas são a uniforme discreta, Bernoulli, binomial, geométrica, binomial negativa, hipergeométrica e de Poisson. Já para variáveis aleatórias contínuas estudaremos a distribuição uniforme, normal, exponencial, Gama, qui-quadrado \((\chi^2)\) , t de Student e F de Snedecor.

Função de probabilidade é a função que associa a cada valor assumido pela variável aleatória a probabilidade do evento correspondente, isto é:

\[ P(X=x_i) = p(x_i), \quad i=1, \, 2, \, 3, \,..., \, n \tag{3} \]

Ao conjunto \({x_i, \, p(x_i), \quad i=1, \,2, \,3, \,n}\) damos o nome de distribuição de probabilidades da variável aleatória \(X\) como no quadro 3 e gráfico 4.

É importante verificar que, para que haja uma distribuição de probabilidades de uma variável aleatóriaX, é necessário que:

\[ \sum_{i=1}^{n} p(x_i) = 1 \Longleftrightarrow \sum_{i=1}^{n} P(X=x_i) = 1 \tag{3} \]

Variável Aleatória

Conforme estudamos no capítulo anterior, o conjunto de todos os resultados possíveis de um experimento aleatório é denominado espaço amostral. Para descrever esse experimento, é conveniente associar valores numéricos aos elementos do espaço amostral.

A variável aleatória pode ser caracterizada como variável que apresenta um valor único para cada elemento, sendo esse valor determinado aleatoriamente.

Consideremos \(\varepsilon\) um experimento aleatório e \(S\) o espaço amostral associado ao experimento. A função \(X\) que associa a cada elemento \(s \in S\) um número real \(X (s)\) é denominada variável aleatória.

Há dois grandes grupos de variáveis aleatórias:


Variável Aleatória Discreta

Uma variável aleatória discreta é aquela que assume valores em um conjunto enumerável, não podendo assumir, portanto, valores decimais ou não inteiros.

Como exemplos de variáveis aleatórias discretas, podemos mencionar a quantidade de filhos, de funcionários em uma empresa ou de automóveis produzidos em determinada fábrica.

Seja \(X\) uma variável aleatória discreta que pode assumir os valores \(\{x_1, x_2, \ldots, x_n\}\) com as respetivas probabilidades \(\{p(x_1), p(x_2), \ldots, p(x_n)\}\). A função \(\{x_i, p(x_i), i = 1, 2, \ldots, n\}\) é chamada função de probabilidade da variável aleatória \(X\) e associa, a cada valor de \(X_i\), a sua probabilidade de ocorrência:

\[ p(x_i) = P(X = x_i) = p_i, \quad i = 1, 2, \ldots, n \tag{2} \]

de modo que \(p(x_i) \geq 0\) para todo \(x_i\) e \(\sum_{i=1}^{n} p(x_i) = 1\).

A esperança (valor esperado ou médio) de \(X\) é dada pela expressão:

\[ E(X) = \sum_{i=1}^{n} x_i \cdot P(X = x_i) = \sum_{i=1}^{n} x_i \cdot p_i \tag{2} \]

A variância de uma variável aleatória discreta \(X\) é a média ponderada das distâncias entre os valores que \(X\) pode assumir e a esperança de \(X\), em que os pesos são as probabilidades dos possíveis valores de \(X\). Se \(X\) assumir os valores \(\{x_1, x_2, \ldots, x_n\}\), com as respetivas probabilidades \(\{p_1, p_2, \ldots, p_n\}\), então sua variância é dada por:

\[ \mathrm{Var}(X) = \sigma^2(X) = E[(X - E(X))^2] = \sum_{i=1}^{n} [x_i - E(X)]^2 \cdot p_i \]

Em alguns casos, é conveniente utilizar o desvio-padrão de uma variável aleatória como medida de variabilidade. O desvio-padrão de \(X\) é a raiz quadrada da variância:

\[ \sigma(X) = \sqrt{\mathrm{Var}(X)} \]

Exemplo: Suponha que a venda mensal de imóveis por determinado corretor segue a distribuição de probabilidade da Tabela 1. Determine o valor esperado de venda mensal, assim como sua variância.

Tabela 1 Venda mensal de imóveis e respetivas probabilidades.

\(x_i\) (vendas) 0 1 2 3
\(p(x_i)\) 2/10 4/10 3/10 1/10

O valor esperado de venda mensal é:

\[ E(X) = 0 \times 0{,}20 + 1 \times 0{,}40 + 2 \times 0{,}30 + 3 \times 0{,}10 = 1{,}3 \]

A variância pode ser calculada como:

\[ \mathrm{Var}(X) = (0 - 1{,}3)^2 \cdot 0{,}2 + (1 - 1{,}3)^2 \cdot 0{,}4 + (2 - 1{,}3)^2 \cdot 0{,}3 + (3 - 1{,}3)^2 \cdot 0{,}1 = 0{,}81 \]

A função de distribuição acumulada (f.d.a.) de uma variável aleatória \(X\), denotada por \(F(x)\), corresponde à soma das probabilidades dos valores de \(x_i\) menores ou iguais a \(x\):

\[ F(x) = P(X \leq x) = \sum_{x_i \leq x} p(x_i) \]


Variável Aleatória Contínua

Uma variável aleatória contínua é aquela que pode assumir diversos valores num intervalo de números reais. Como exemplos de variáveis aleatórias contínuas, podemos citar a renda familiar, o faturamento da empresa ou a altura de determinada criança.

Uma variável aleatória contínua \(X\) está associada a uma função j(x), denominada função densidade de proba bilidade (f.d.p.) de \(X\), que satisfaz a seguinte condição:

\[ \int_{-\infty}^{+\infty} f(x)\,dx = 1, \quad f(x) \ge 0 \tag{1} \]

Para quaisquer \(a\) e \(b\), tal que \(-\infty< a < b < +\infty\), a probabilidade de que a variável aleatória X assuma valores nesse intervalo é:

\[ P(a \le X \le b) = \int_{a}^{b} f(x)\,dx \tag{2} \]

A esperança matemática (valor esperado ou médio) de uma variável aleatória contínua X com função densidade de probabilidade j(x) é dada pela expressão:

\[ E[X] = \int_{-\infty}^{+\infty} x \cdot f(x)\,dx \tag{3} \]

A variância de uma variável aleatória contínua X com função densidade de probabilidade j(x) é calculada como:

\[ \mathrm{Var}[X] = E[X^2] - \left( E[X] \right)^2 = \int_{-\infty}^{+\infty} x^2 \cdot f(x)\,dx - \left( E[X] \right)^2 \tag{3} \]

CAPÍTULO II

DISTRIBUIÇÕES DE PROBABILIDADE

Column

Introdução

Em estatística, o objetivo maior é obter informações sobre uma deter minada característica de uma população de interesse, mediante a análise de informações coletadas a partir de uma amostra, sendo essas características representadas por variáveis aleatórias pré-definidas no início do estudo.

Como o próprio termo indica, uma variável aleatória é aquela cujos participan tes do estudo são randomicamente selecionados, sendo ela uma informação estatística que pode variar, de um indivíduo para o outro, por influência do acaso, independentemente da ação do investigador.

Desse modo, é sempre desejável que se possa prever o valor que uma variável aleatória pode assu mir em um determinado experimento, de tal forma que se possa conhecer o comportamento de sua distribuição de frequência, mesmo que com algum grau de incerteza.

A distribuição de probabilidades associa uma probabilidade a cada resultado numérico de uma experiência, ou seja, dá a probabilidade de cada valor de uma variável aleatória.

Uma distribuição de probabilidade é um modelo matemático que relaciona um certo valor da variável em estudo com a sua probabilidade de ocorrência.

Há dois tipos de distribuição de probabilidade:

  1. Distribuições Contínuas: Quando a variável que está sendo medida é expressa em uma escala contínua, como no caso de uma característica dimensional.

  2. Distribuições Discretas: Quando a variável que está sendo medida só pode assumir certos valores, como por exemplo os valores inteiros: 0, 1, 2, etc.


Distribuição de Bernoulli

Consideremos uma única tentativa de um experimento aleatório. Podemos ter sucesso ou fracasso nessa tentativa.

O experimento de Bernoulli é um experimento aleatório que fornece apenas dois resultados possíveis, convencionalmente denominados de sucesso ou fracasso.

Como exemplo de um experimento de Bernoulli, po demos citar o lançamento de uma moeda, cujos resultados possíveis são cara e coroa.

Para determinado experimento de Bernoulli, vamos considerar a variável aleatória X que assume o valor 1 no caso de sucesso e 0 no caso de fracasso. A probabilidade de sucesso é representada por \(p\) e a probabilidade de fracasso por \((1-p)\) ou q, onde \(p+q=1\).

\[ X = \begin{cases} 0 & \text{fracasso} \\ 1 & \text{sucesso} \end{cases} \quad \text{com} \quad P(X=0)=q \quad \text{e} \quad P(X=1)=p. \]

A distribuição de Bernoulli fornece, portanto, a probabilidade de sucesso ou fracasso da variável \(X\) na realização de um único experimento.

Podemos dizer, portanto, que a variável \(X\) se gue uma distribuição de Bernoulli com parâmetro \(p\), denotada por \(X \sim Bern(p)\), se sua função de probabilidade for dada por:

\[ P(X = k) = p^k \cdot (1-p)^{1-k}, \quad k = 0,1 \tag{2} \]

É fácil verificarmos que o valor esperado ou média \(\mu\) (lê-se: mi) é dada pela fórmula: \(\mu = \mathrm E [X]= p\).

E a Variância \(\sigma^2\) (lê-se: sigma ao quadrado) é dada pela fórmula: \(\sigma^2 = \mathrm {Var} [X] = p \cdot q\).

A função de distribuição acumulada (f.d.a.) de Bernoulli é dada por:

\[ F(x) = P(X \le x) = \begin{cases} 0, & \text{se } x < 0 \\ 1 - p, & \text{se } 0 \le x < 1 \\ 1, & \text{se } x \ge 1 \end{cases} \]

Secessão de Provas de Bernoulli:

Considere um processo ou experiência caracterizado por repetidas provas que têm lugar nas seguintes condições:

  • Em cada prova só há dois resultados possíveis, mutuamente exclusivos, denominados sucesso e insucesso.

  • A probabilidade de sucesso, designada por \(p\), mantém-se constante de prova para prova.
    A probabilidade de insucesso é designada por \(q = 1 - p\).

  • As provas são independentes, isto é, os resultados obtidos numa certa prova ou sequência de provas não afetam os resultados das provas subsequentes.


Distribuição Binomial

Um experimento binomial consiste em n repetições independentes de um experimento de Bernoulli com probabilidade p de sucesso, probabilidade essa que permanece constante em todas as repetições.

A variável aleatória discreta \(X\) de um modelo binomial corresponde ao número de sucessos \((k)\) nas \(n\) repetições do experimento.

Então, \(X\) tem distribuição binomial com parâmetros \(n\) e \(p\), denotada por \(X \sim Bin(n,p)\), se sua função de distribuição de probabilidade for dada por:

\[ P(X = k) = \binom{n}{k} \cdot p^k \cdot (1-p)^{n-k}, \quad k = 0,1,2,\ldots,n \tag{2} \]

em que \(\binom{n}{k}\) é a combinação1 de \(n\), \(x\) a \(x\).

A média \(\mu\) (lê-se: mi) ou esperaça matemática de uma distribuição binomial é dada pela fórmula:

\(\mu = \mathrm E [X]= n \cdot p\).

A Variância \(\sigma^2\) (lê-se: sigma ao quadrado) de uma distribuição binomial é dada pela fórmula: \(\sigma^2 = \mathrm {Var} [X] = n \cdot p \cdot q\).

Podemos notar que a média e a variância da distribuição binomial são iguais à média e variância da distribui ção de Bernoulli, multiplicadas por n, que representa o número de repetições de um experimento de Bernoulli.

Caracterização da Distribuição Binomial

Uma distribuição binomial tem as seguintes características:

  • Consiste de n ensaios, ou \(n\) tentativas, ou \(n\) eventos idênticos.

  • Cada ensaio só pode resultar em um de dois resultados, identificados como “sucesso” e “fracasso” -com valores \(1\) e \(0\), respectivamente.

  • A variável aleatória X é o número de sucessos em \(n\) ensaios.

  • A probabilidade de sucesso (ocorrer o evento de interesse) é \(p\) e o valor de \(p\) permanece o mesmo em todos os ensaios.

  • Os ensaios são independentes: o resultado de um ensaio não tem efei to sobre o resultado de outro.

A distribuição binomial fica, portanto, definida quando são dados dois parâmetros:

  • \(n\), isto é, o número de ensaios (p. ex., se uma moeda for lançada 10 vezes);

  • \(p\), isto é, a probabilidade de sucesso em uma tentativa (por exemplo, a probabilidade de sair cara quando se joga uma moeda).


Distribuição de Poisson

A distribuição Poisson é utilizada para registrar a ocorrência de eventos raros, com probabilidade de sucesso muito pequena \((p \rightarrow 0)\), em determinada exposição (por exemplo, em determinado intervalo de tempo ou espaço).

Diferentemente do modelo binomial, que fornece a probabilidade do número de sucessos em um intervalo discreto (\(n\) repetições de um experimento), o modelo Poisson fornece a probabilidade do número de sucessos em determinado intervalo contínuo (tempo, área, entre outras possibilidades de exposição).

Como exemplos de variáveis que representam a distribuição Poisson, podemos mencionar a quantidade de clientes que chegam à fila por unidade de tempo, a quantidade de defeitos por fábrica, a quantidade de acidentes por município, etc. Podemos notar que as unidades de medida de exposição (tempo, unidade fabril e município, nessas situações) são contínuas, mas a variável aleatória (número de ocorrências) é discreta.

A distribuição Poisson apresenta as seguintes hipóteses:

  1. Eventos definidos em intervalos não sobrepostos são independentes;

  2. Em intervalos de mesmo comprimento, as probabilidades de ocorrência de um mesmo número de su cessos são iguais;

  3. Em intervalos muito pequenos, a probabilidade de ocorrência de mais de um sucesso é desprezível;

  4. Em intervalos muito pequenos, a probabilidade de um sucesso é proporcional ao comprimento do in tervalo.

Consideremos uma variável aleatória discreta \(X\) que representa a quantidade de sucessos \((k)\) em determina da unidade de tempo, de área, entre outras possibilidades. A variável aleatória X, com parâmetro \(\lambda \ge0\), apresenta distribuição Poisson, denotada por \(X \sim Poisson(\lambda)\), se sua função de probabilidade é dada por:

\[ P(X = k) = \frac{e^{-\lambda} \cdot \lambda^k}{k!}, \quad k = 0,1,2,\ldots \]

em que:

  • \(e\): base do logaritmo neperiano (ou natural),

  • \(\lambda\): taxa média estimada de ocorrência do evento de interesse para dada exposição (intervalo de tempo, área, etc.).

Na distribuição Poisson, a média é igual à variância, conforme deduziremos: \(\mathrm E [X] = \mathrm {Var} [X] = \lambda\)

A distribuição ele Poisson é muito usada na distribuição do número de:

  • carros que passatu por um cruzamento por minuto, durante uma certa hora do dia;

  • erros tipográficos por página, em um material impresso;

  • defeitos por unidade (\(m^2\), \(m^3\), \(m\), etc.) por peça fabricada;

  • colônias de bactérias numa dada cultura por 0,01 \(mm^2\) , numa plaqueta de microscópio;

  • mortes por ataque de coração por ano, numa cidade. É aplicada também em problemas de filas de espera em geral, e outros.

Aproximação da Distribuição Binomial pela Poisson

Muitas vezes, no uso da binomial, acontece que n é muito grande \((n \rightarrow \infty)\), em, e p é muito pequeno \((p \rightarrow 0)\). Nesses casos, não encontramos o valor em tabelas, ou então o cálculo torna-se muito difícil, sendo necessário o uso de máquinas de calcular sofisticadíssimas ou o uso de computador.

Podemos então fazer uma aproximação da binomial pela distribuição de Poisson.

\[ \text{Consideremos} \begin{cases} 1.\; n \to \infty \; (\text{maior que o maior valor tabelado, } n > 30) \\ 2.\; p \to 0 \; (p < 0{,}1) \\ 3.\; 0 < \mu \le 10 \end{cases} \]

Quando isso ocorre, a média \(\mu =n \cdot p\) será tomada como \(n \cdot p = \lambda\).

\[ X \sim B(n,p) \approx X \sim P(\lambda = np), \qquad \lim_{n \to \infty} \binom{n}{x} p^x (1-p)^{n-x} = \frac{e^{-\lambda}\lambda^x}{x!} \]


Distribuição Geométrica

A distribuição geométrica, assim como a binomial, considera sucessivos ensaios de Bernoulli independentes, todos com probabilidade de sucesso p.

Porém, em vez de utilizar um número fixo de tentativas, elas se rão realizadas até que o primeiro sucesso seja obtido.

A distribuição geométrica apresenta duas parametrizações distintas.

  • A primeira parametrização considera sucessivos ensaios de Bernoulli independentes, com probabilidade de sucesso p em cada ensaio, até que ocorra um sucesso.

    Nesse caso, não podemos incluir o zero como um possível resultado, de modo que o domínio é suportado pelo conjunto \(\{1,\, 2,\, ...\}\).

    Por exemplo, podemos considerar a quantidade de lançamentos de uma moeda até a primeira cara, a quantidade de peças produzidas até a próxima defeituosa, etc.

    Seja \(X\) a variável aleatória que representa o número de tentativas até o primeiro sucesso.A variável X tem dis tribuição geométrica com parâmetro p, denotada por \(X\sim Geo(p)\), se sua função de probabilidade for dada por:

    \[ P(X = k) = p \cdot (1-p)^{k-1}, \quad k = 1,\, 2,\, 3,\, ... \tag{2} \]

  • A segunda parametrização conta o número de falhas ou fracassos antes do primeiro sucesso. Como aqui é pos sível obter sucesso já no primeiro ensaio de Bernoulli, incluímos o zero como resultado possível, de modo que o domínio é suportado pelo conjunto \(\{0,\, 1,\, 2,\, ...\}\)..

    Consideremos Y a variável aleatória que representa o número de falhas ou fracassos antes do primeiro sucesso.A variável Y tem distribuição geométrica com parâmetro p, denotada por Y- Geo(p), se sua função de probabilidade for dada por:

    \[ P(Y = k) = p \cdot (1-p)^{k}, \quad k = 0,\, 1,\, 2,\, 3,\, ... \tag{2} \]

Em ambos os casos, a sequência de probabilidades é uma progressão geométrica.

O valor esperado e da variância de \(X\) é: O valor esperado e da variância de \(X\) é:
\[ \mathrm {E[X]} = \frac{1}{p} \quad \quad \mid \quad\quad \mathrm {Var[X]} = \frac{1-p}{p^2} \] \[ \mathrm {E[Y]} = \frac{1-p}{p} \quad \quad \mid \quad\quad \mathrm {Var[X]} = \frac{1-p}{p^2} \]

A distribuição geométrica é a única distribuição discreta que tem a propriedade da falta de memória (no caso das distribuições contínuas, veremos que a distribuição exponencial também apresenta essa propriedade). Isso significa que, se um experimento for repetido antes do primeiro sucesso, então, dado que o primeiro sucesso ainda não ocorreu, a função de distribuição condicional do número de tentativas adicionais não depende do número de fracassos ocorridos até então.

Assim, para quaisquer dois inteiros positivos \(s\) e \(t\), se \(X\) for maior do que \(s\), então a probabilidade de que \(X\) seja maior do que \(s + t\) é igual à probabilidade incondicional de \(X\) ser maior do que \(t\):

\[ P(X>s+t \mid X>s) = P(X>t) \]


Distribuição Normal

A distribuição Normal também é conhecida como de Gauss ou Gaussiana, em referência ao emprego pioneiro dessa distribuição no tratamento dos erros aleatórios de medidas experimentais, atribuído ao matemático alemão Karl Friedrich Gauss (1777-1855).

A distribuição Normal é utilizada para descrever o comportamento de uma variável aleatória que flutua de forma simétrica em torno de um valor central. Algumas de suas propriedades matemáticas, a serem discutidas no presente item, fazem do modelo Normal a distribuição apropriada à modelação de variáveis que resultam da soma de um grande número de outras variáveis independentes.

Além disso, a distribuição Normal está na origem de toda a formulação teórica acerca da construção de intervalos de confiança, testes estatísticos de hipóteses, bem como da teoria de regressão e correlação.

A distribuiçáo normal ó sem dUvida uma das distribuiçoes mais utilizadas na estatIstica. São inumerhs as variáveis aleatOrias que descrevem fenóme- nos, processos fIsicos ou caracterIsticas humanas (peso, altura, etc.) e que seguem distribuiçao normal. Noutros casos, as variäveis aleatórias não seguem distribuiçao normal mas aproximam-se muito desta distribuiçao.

Diz-se que a variável aleatória contínua \(X\) tem distribuição normal e escreve-se \(X \sim N(\mu, \sigma)\) se a sua função de densidade de probabilidade (f.d.p.) for dada por:

\[ f(x) = f(x; \mu, \sigma) = \frac{1}{\sigma\sqrt{2\pi}} e^{-\frac{1}{2}\left(\frac{x-\mu}{\sigma}\right)^2}, \qquad -\infty < x < +\infty \]

Os parâmetros \(\mu\) e \(\sigma\) representarn respectivamente a media ou valor esperado e o desvio-padrão daquela distribuiçào.

\[ \mathrm {E[X]} = \mu,\quad \quad -\infty < \mu < +\infty,\quad \quad \mid \quad\quad \mathrm {Var[X]} = \sigma, \qquad \sigma > 0 \]

Dado que \(\mu\) e \(\sigma\) podem tomar uma infinidade não numerável de valores então existe também uma infinidade não numerável de diferentes distribuições normais.

Daí que, para o CáIculo de probabilidades, qualquer distribuicão normal é transformada na chamada normal-padrão, ou normal estandartizada. Esta transformacão, que consiste numa rnudanca de origem (subtraccão por \(\mu\).) e mudança de escala (divisão por \(\sigma\) é chamada estandartizacão.

Isto é, se a variável aleatória \(X\) tem distribuição normal de parâmetros \(\mu\) e \(\sigma\) , então \(Z\) é a variável normal estandartizada ou reduzida ou ainda normal-padrão definida por:

\[ Z = \frac{X-\mu}{\sigma} \sim N(0,1). \]

Os parâmetros da normal-padrão são facilmente deduzidos:

\[ \begin{aligned} E[Z] &= E\left[\frac{X-\mu}{\sigma}\right] = \frac{1}{\sigma} E[X-\mu] \\ &= \frac{1}{\sigma} \left(E[X] - E[\mu]\right) = \frac{1}{\sigma} (\mu - \mu) = 0 \end{aligned} \] \[ \begin{aligned} \text{Var}[Z] &= \text{Var}\left[\frac{X-\mu}{\sigma}\right] = \frac{1}{\sigma^2} \, \text{Var}[X-\mu] \\ &= \frac{1}{\sigma^2} \left( \text{Var}[X] + \text{Var}[\mu] \right) = \frac{1}{\sigma^2} (\sigma^2 + 0) = 1 \end{aligned} \]

A função de densidade de probabilidade da normal-padrão \(Z\) é dada por:

\[ \varphi(z) = \frac{1}{\sqrt{2\pi}} e^{-z^{2}/2}, \qquad -\infty < Z < +\infty \]

A respectiva função de distribuição, \(\Phi(z)\), permite calcular probabilidades em determinados intervalos:

\[ \Phi(z) = P[Z \leq z] \]

Dado que \(\varphi(z)\) é simétrica, tem-se que

\[ \Phi(-z) = 1 - \Phi(z) \]

A representação gráfica destas probabilidades, utilizando a curva da distribuição normal, pode ser visualizada da seguinte forma:

Os resultados das probabilidades podem ser consultados nesta Tabela da Normal Padrão (Reis et al., 1999).

Exemplo 1: A resistência à tração do papel usado em sacolas de supermercado é uma característica de qualidade importante. Sabe-se que essa resistência segue um modelo Normal com média \(40\) psi e desvio padrão \(2\) psi. Se a especificação estabelece que a resistência deve ser maior que \(35\) psi, qual a probabilidade que uma sacola produzida com este material satisfaça a especificação?

\[ P(X \ge 35) = 1 - P(X \le 35) \]

Padronizando:

\[ P(X \ge 35) = 1 - P\left(Z \le \frac{35 - 40}{2}\right) = 1 - P(Z \le -2{,}5) \]

Usando a simetria da Normal:

\[ = 1 - (1 - P(Z \le 2{,}5)) = P(Z \le 2{,}5) \]

Da tabela da Normal padrão:

\[ P(Z \le 2{,}5) = 0{,}9938 = 99{,}38\% \]

Exemplo 2: O diâmetro do eixo principal de um disco rígido segue a distribuição Normal com média \(25{,}08\) in e desvio padrão \(0{,}05\) in. Se as especificações para esse eixo estiver entre \(24{,}85\) e \(25{,}15\), determine o percentual de unidades produzidas em conformidade com as especificações.

\[ \begin{aligned} P(24{,}85 \le X \le 25{,}15) &= P\left(Z \le \frac{25{,}15 - 25{,}08}{0{,}05}\right) - P\left(Z \le \frac{24{,}85 - 25{,}08}{0{,}05}\right) \\ &= P(Z \le 1{,}40) - P(Z \le -4{,}60) = 0{,}9192 - (1 - P(Z \le 4{,}60)) \\ &= 0{,}9192 - 1 + 0{,}999999 \approx 0{,}9192 = 91,92\% \end{aligned} \]

Exemplo 3: Suponha que \(X \sim N(85;81)\). Encontre um valor limite \(x\), tal que \(P(X>x) = 0,05\)

\[ \begin{aligned} P(X > x) = 1 - P(X \le x) & \Longleftrightarrow 1 - P\left(Z \le \frac{x - 85}{9}\right) = 0{,}05 \\ & \Longleftrightarrow P\left(Z \le \frac{x - 85}{9}\right) = 1 - 0{,}05 \Longleftrightarrow P\left(Z \le \frac{x - 85}{9}\right) = 0{,}95 \end{aligned} \]

Da tabela da Normal padrão temos \(Z = 1,645\), então:

\[ Z = 1{,}645 \quad \Longrightarrow \quad 1{,}645 = \frac{x - 85}{9} \quad \Longleftrightarrow \quad x = 99{,}805 \quad \Longleftrightarrow \quad x \approx 100 \]


Combinação de Distribuições Normais

A combinação linear de variáveis com distribuições normais independentes é também variável com distribuição normal.

Por exemplo: se \(X\) e \(Y\) são variáveis aleatórias com distribuições normais, então \(W = a \cdot X + b \cdot Y + c\) terá distribuição normal com:

\[ \mu(W) = a \cdot \mu(X) + b \cdot \mu(Y) + c \] \[ \sigma^2(W) = a^2 \cdot \sigma^2(X) + b^2 \cdot \sigma^2(Y) \]

Isto é, em particular, a soma ou diferença de duas variáveis aleatórias normais também é uma variável aleatória normal.

Aproximação da Distribuição Binomial pela Normal

Seja \(X\) uma variável aleatória que apresenta distribuição binomial com parâmetros \(n\) e \(p\), denotada por \(X \sim b(n,p)\). À medida que o número médio de sucessos e o número médio de fracassos tende ao infinito (\(n \cdot p \to \infty\) e \(n \cdot (1-p) \to \infty\)), a distribuição binomial aproxima-se de uma normal com média \(\mu = n \cdot p\) e variância \(\sigma^2 = n \cdot p \cdot (1-p)\):

\[ X \sim Bin(n,p) \approx X \sim N(\mu, \sigma^2), \]

com

\[ \mu = n \cdot p \qquad \text{e} \qquad \sigma^2 = n \cdot p \cdot (1-p). \]

Alguns autores admitem que a aproximação da binomial pela normal é adequada quando

\[ n \cdot p > 5 \quad \text{e} \quad n \cdot (1-p) > 5, \]

ou ainda quando

\[ n \cdot p \cdot (1-p) \ge 3. \]

Uma regra ainda mais conservadora exige que

\[ n \cdot p > 10 \quad \text{e} \quad n \cdot (1-p) > 10. \]

Porém, como se trata de uma aproximação discreta a partir de uma contínua, recomenda-se maior precisão por meio da correção de continuidade, que consiste em transformar, por exemplo,

\[ P(X = x) \]

no intervalo

\[ P(x - 0.5 < X < x + 0.5). \]

Aproximação da Distribuição Poisson pela Normal

Analogamente à distribuição binomial, a distribuição Poisson também pode ser aproximada por uma normal.

Seja \(X\) uma variável aleatória que apresenta distribuição Poisson com parâmetro \(\lambda\), denotada por

\[ X \sim \text{Poisson}(\lambda). \]

À medida que \(\lambda \to \infty\), a distribuição Poisson aproxima-se de uma normal com média \(\mu = \lambda\) e variância \(\sigma^2 = \lambda\):

\[ X \sim \text{Poisson}(\lambda) \approx X \sim N(\mu, \sigma^2), \]

com

\[ \mu = \lambda \qquad \text{e} \qquad \sigma^2 = \lambda. \]

Em geral, admite-se que a aproximação da distribuição Poisson pela normal é adequada quando \(\lambda >10\). Novamente, recomenda-se utilizar a correção de continuidade: \(x - 0,5 \quad \text{e} \quad x + 0,5\).


REFERÊNCIA BIBLIOGRÁFICA

Fávero, L. P., & Belfiore, P. (2017). Manual de análise de dados: estatística e modelagem multivariada com Excel®, SPSS® e Stata®. Elsevier Brasil.

Morettin, L. G. (2010). Estatística básica: probabilidade e inferência: volume único. Pearson Prentice Hall.

Vieira, S. (2011). Introdução a Bioestatística. Rio de Janeiro, RJ, 4˚ Edição.

Reis, E., et al. (1999). Estatística aplicada. Lisboa: Edições Sílabo.

Hoffmann, R. (2006). Estatística para economistas. 4ª Edição. São Paulo: Pioneira Thomson Learning.


LISTA DE EXERCÍCIOS DESTE CAPÍTULO

  1. Uma urna tem 30 bolas brancas e 20 verdes. Retira-se uma bola dessa uma. Seja X o número de bolas verdes, calcula \(E(X)\) e \(Var(X)\) e determina \(P(X)\).

  2. Uma moeda é lançada 20 vezes. Qual a probabilidade de saírem 8 caras?

  3. Numa criação de coelhos, 40% são machos. Qual a probabilidade de que nasçam pelo menos 2 coelhos nlachos num dia em que nasceram 20 coelhos?

  4. Determinada peça é produzida em uma linha de produção.A probabilidade de que a peça não tenha defeitos é de 99%. Se forem produzidas 30 peças, qual a probabilidade de que pelo menos 28 delas esteja em boas condições? Determine também a média e a variância da variável aleatória.

  5. Num livro de 800 páginas há 800 erros de impressão. Qual a probabilidade de que uma página contenha pelo menos 3 erros?

  6. Numa central telefônica chegam 300 telefonemas por hora. Qual a probabilidade de que:

    1. num minuto não haja nenhuma chamada?

    2. em 2 minutos haja 2 chamadas?

    3. em \(t\) minutos não haja chamadas?

  7. Seja X: B(200; 0,01 ). Calcula \(P(X = 10)\) usando binomial e aproximação pela Poisson.

  8. A probabilidade de uma lâmpada se queimar ao ser ligada é 1/100. NuMa instalação com 100 lâmpadas, qual a probabilidade de 2 lâMpadas se queimarem ao serem ligadas?

  9. A probabilidade de um arqueiro acertar um alvo com uma única flecha é de 0,20. Lança 30 flechas no alvo. Qual a probabilidade de que:

    1. exatamente 4 acertem o alvo?
    2. pelo menos 3 acertem o alvo?
  10. Um lote de aparelhos de TV é recebido por uma firma. Vinte aparelhos são inspecionados. O lote é rejeitado se pelo menos 4 forem defeituosos. Sabendo-se que 1% dos aparelhos é defeituoso, determina a probabilidade da firma rejeitar todo o lote.

  11. Uma empresa fabrica determinado componente eletrônico, de modo que, ao final do processo, cada com ponente é testado, um a um. Suponha que a probabilidade de um componente eletrônico estar defeituoso seja de 0,05. Determine a probabilidade de que o primeiro defeito seja encontrado no oitavo componente testado. Calcule também o valor esperado e a variância da variável aleatória.

  12. Lança-se uma moeda 20 vezes. Qual a probabilidade de se obter de uma a cinco caras, usando:

    1. distribuição binomial;

    2. aproximação da binomial pela normal.

  13. Um sistema é constituído por 100 componentes, cada um com confiabilidade de 0,95 (isto é, a probabilidade de um componente funcionar durante um determinado período de tempo é 0,95). Admitindo que os componentes funcionam de forma independente e que o sistema completo opera adequadamente quando pelo menos 80 componentes estão em funcionamento, qual é a confiabilidade do sistema?

  14. Em um certo plano de saúde, o número médio de consultas por associado é 2,8 por ano. A administração do plano gostaria de saber qual é a probabilidade de um determinado associado, ao longo de um ano:

    1. não fazer nenhuma consulta;
    2. fazer pelo menos duas consultas.

CAPÍTULO III

TEORIA DE AMOSTRAGEM

Column

Introdução

População: É um conjunto formado por indivíduos ou objetos que apresentam pelo menos uma característica ou variável comum e observável. Podemos falar sobre: i) a população de estudantes no primeiro semestre de uma faculdade; ii) a população de trabalhadores na indústria automóvel; iii) a população de alturas em cm das pessoas de um determinado bairro; iv) a população de peças fabricadas numa linha de produção, e assim por diante. Usa-se \(N\) para designar o tamanho da população.

Amostra: É qualquer subconjunto da população com as mesmas características. Usa-se \(n\) para designar o tamanho da amostra.

Amostragem: É o processo de selecção de uma amostra que possibilita o estudo das características da população.

Erro amostral: É o erro que ocorre pelo uso da amostra. Representa a diferença entre o resultado amostral e o verdadeiro resultado da população. O erro amostral ocorre devido às variações amostrais.

Parâmetro: é a medida utilizada para descrever uma característica numérica da população. Geralmente, representamo-lo por \(\theta\). A média \((µ)\), variância \((\sigma^2)\) e o coeficiente de correlação \((\rho)\) são alguns exemplos de parâmetros populacionais.

Estimador: também chamado de estatística de um parâmetro populacional; é uma característica numérica determinada na amostra, uma função dos seus elementos. Geralmente, representamo-lo por \(\theta_0\). A média da amostra \((\bar x)\), a variância da amostra \((s^2)\) e o coeficiente de correlação da amostra \((r)\) são exemplos de estimadores.

Estimativa: é o valor numérico determinado pelo estimador, que geralmente representaremos por \(\widehat \theta_0\).

Segundo Fonseca e Martins (2011), na Teoria da Amostragem são considerados: i) Tamanho da amostra e ii) Composição da amostra.


Composição da Amostragem

As populações podem ser: - Finitas: tamanho limitado - Infinitas: tamanho ilimitado. Em muitos casos, estudar toda a população é inviável.

Existem situações em que o estudo com todos os elementos da população é impossível ou indesejável, de modo que a alternativa seja extrair um subconjunto da população em análise, denominado amostra. A amostra deve ser representativa da população em estudo, daí a importância deste capítulo.

A partir das informações recolhidas na amostra e utilizando procedimentos estatísticos apropriados, os resultados obtidos podem ser utilizados para generalizar, inferir ou tirar conclusões acerca da população (inferência estatística).

Para Fávero et al. (2009) e Bussab e Morettin (2011), raramente é possível obtermos a distribuição exata de uma variável, devido ao alto custo, ao tempo despendido e às dificuldades de levantamento de dados. Desta forma, a alternativa é selecionarmos parte dos elementos da população (amostra) e, a partir dela, inferirmos propriedades para o todo (população).

Existem, basicamente, dois tipos de amostragem: (1) amostragem probabilística ou aleatória e (2) amostragem não probabilística ou não aleatória.


Amostragem Probabilística

Devido às suas bases teóricas, apoiadas na teoria das probabilidades, a amostragem aleatória tem sido adotada pela pesquisa em muitas áreas científicas.

O grau de confiança associado aos resultados obtidos, quando se utiliza um processo de amostragem aleatório, pode ser medido e controlado. Do mesmo modo, pode ser evitado qualquer enviesamento provocado por uma escolha dirigida dos respondentes, uma vez que o processo de seleção é casual e mecânico a partir de uma listagem de todos os indivíduos. Estes fatores podem ser considerados como as vantagens deste tipo de amostragem.

No entanto, deverão ser também referidas as dificuldades em recolher uma amostra aleatória. E a principal dificuldade consiste na obtenção de uma listagem completa da população a inquirir. Estas listagens são, na maioria dos casos, difíceis de conseguir, de custo elevado, demoradas na sua obtenção e nem sempre de fiabilidade aceitável.

O segundo tipo de dificuldades relaciona-se com as não-respostas. Depois de definidos os respondentes, não poderão haver substituições, pelo que as não-respostas constituem uma importante fonte de enviesamento e terá de ser feito tudo para que a sua taxa seja minimizada. Todas as novas tentativas (por entrevista pessoal, telefone ou correio) para obter respostas bem-sucedidas implicam aumento de custos e demora na obtenção dos resultados.

A amostragem aleatória é, sem dúvida, o processo mais caro, mas os custos tendem a tornar-se pouco importantes face à fiabilidade dos resultados obtidos.

De uma forma genérica podemos dizer que nos métodos de amostragem casual a probabilidade de selecionar determinado elemento da população é conhecida a priori e que tais métodos conduzem às chamadas amostras aleatórias.

Na amostragem aleatória, as amostras são obtidas aleatoriamente, ou seja, a probabilidade de cada elemento da população fazer parte da amostra é igual.

Amostragem Aleatória Simples

Segundo Bolfarine e Bussab (2005), a amostragem aleatória simples (AAS) é o método mais simples e mais importante para a seleção de uma amostra.

Considere uma população: \(U=\{1,\, 2,\, 3,\, ...,\, N\}\). O planejamento e seleção da amostra, de acordo com Bolfarine e Bussab (2005), envolvem os seguintes passos:

  • Utilizando um procedimento aleatório (por exemplo, por meio de tabela de números aleatórios ou urna), devemos sortear com igual probabilidade um elemento da população \(U\);

  • Repetimos o processo anterior até que seja retirada uma amostra com n observações;

  • Quando o elemento sorteado for removido de \(U\) antes do próximo sorteio, teremos o processo AAS sem reposição. Caso seja permitido o sorteio de uma unidade mais de uma vez, estaremos diante do processo AAS com reposição.

De acordo com Bolfarine e Bussab (2005), do ponto de vista prático, a AAS sem reposição é muito mais interessante, pois satisfaz o princípio intuitivo de que não se ganha mais informação caso uma mesma unidade apa reça mais de uma vez na amostra. Neste tipo e amostragem, há \(\binom{N}{n}=\frac{N!}{n!(N-n)!}\) possíveis amostras e \(n\) elementas que podem ser extraídas a partir da população, e cada amostra tem a mesma probabilidade \(P={1}/{\binom{N}{n}}\) de ser seleccionado.

Por outro lado, a AAS com reposição traz vantagens matemáticas e estatísticas, como a independência entre as unidades sorteadas. Neste tipo de amostragem, há \(N^n\) amostras possíveis de \(n\) elementos que podem ser extraídas a partir da população, e cada amostra tem a mesma probabilidade, \(1/N^n\), de ser selecionada.

Amostragem Sistemática

Segundo Costa Neto (2002), quando os elementos da população estiverem ordenados e forem retirados periodicamente, teremos uma amostragem sistemática. Assim, por exemplo, em determinada linha de produção, podemos retirar um elemento a cada 50 itens produzidos.

Como vantagens da amostragem sistemática, em relação à amostragem aleatória simples, podemos mencionar que é executada com maior rapidez e menor custo, além de estar bem menos sujeita a erros do entrevistador durante a pesquisa.

A principal desvantagem é a possibilidade de existirem ciclos de variação, especialmente se o período de ciclos coincidir com o período de retirada dos elementos da amostra. Por exemplo, suponha que a cada 60 peças produzidas em determinada máquina, uma peça seja inspecionada; porém, ocorre regularmente nessa máquina uma falha, de modo que, a cada 20 peças produzidas, uma é defeituosa.

Este método é também chamado quasi-aleatório por não dar a todas as amostras que se podem retirar de uma mesma população a mesma probabilidade de ocorrência. Para aplicação deste método é necessário calcular o rácio \(K=\frac{N}{n}\) (arredondando o resultado por defeito).

Em seguida, escolhe-se aleatoriamente um número, no intervalo \([1,\, K]\), que servirá como ponto de partida e primeiro elemento da amostra. Adicionando ao primeiro valor obtido o rácio \(K\), obtém-se o segundo elemento e a adição sucessiva do mesmo rácio permite encontrar os restantes elementos da amostra.

Como se verifica, apenas o primeiro elemento é escolhido aleatoriamente, enquanto que os restantes são determinados de modo sistemático pelo rácio.

Elementos da amostra são: \(X,\, X+K,\, X+2K,\, X+3K,\, ...,\, X+(n-1)K\).

Amostragem Estratificada

Uma amostra estratificada obtém-se separando os elementos da população em grupos mutuamente exclusivos denominados estratos (grupos homogéneos relativamerite a característica ou caracteristicas a estudar) e, a partir destes, a seleção de uma amostra aleatória simples dentro de cada estrato.

Por mutuamente exclusivos pretende-se dizer que nenhum elemento da população pode estar simultaneamente presente em dois ou mais estratos.

Este método permite, no caso de se conhecerem algumas características do universo ou população, obter resultados mais eficientes (menor custo, menor tempo e menor possibilidade de erro) com uma amostra de menor dimensão e igual representatividade.

Essa eficiência será ainda mais importante se a variável a ser estratificada se encontrar correlacionada com várias outras variáveis como, por exemplo, idade, sexo, rendimento, status, área geográfica, etc., o que permitirá estratificar simultaneamente segundo várias variáveis, desde que se assegure uma adequada representatividade dos estratos existentes na população.

Desta forma, definimos, inicialmente, o número de estratos e obtemos, assim, o tamanho de cada um deles; para cada estrato, especificamos quantos elementos serão retirados da subpopulação, podendo ser uma alocação uniforme ou proporcional.

  • Segundo Costa Neto (2002), a amostragem estratificada uniforme, em que sorteamos número igual de elementos em cada estrato, é re comendada quando os estratos forem aproximadamente do mesmo tamanho.

    Na amostragem estratificada uniforme, temos que: \(n_1=n_2=n_3= \cdots =n_k\) de modo que o tamanho da amostra extraída de cada estrato é:

    \[ n_i = \frac{n}{k}, \quad \text{para} \quad i = 1, 2, \cdots, k \qquad \mid \qquad n=n_1+n_2+n_3+ \cdots +n_k \]

  • Já na amostragem estratificada proporcional, o número de elementos em cada estrato é proporcional ao número de elementos existentes no estrato.

    Na amostragem estratificada uniforme, temos que: \(\frac{n_1}{N_1}=\frac{n_2}{N_2}=\frac{n_2}{N_2}= \cdots =\frac{n_k}{N_k}\) de modo que o tamanho da amostra extraída de cada estrato é:

    \[ n_i = \frac{N_i}{N} \cdot n, \quad \text{para} \quad i = 1, 2, \cdots, k \qquad \mid \qquad n=n_1+n_2+n_3+ \cdots +n_k \]

Segundo Freund (2006), se os elementos selecionados em cada estrato constituírem amostras aleatórias simples, o processo global (estratificação seguida de amostragem aleatória) será chamado de amostragem aleatória estratificada (simples).

Amostragem por Conglomerado ou Cluster

Na amostragem por conglomerados, a população total deve ser subdividida em grupos de unidades elementares, denominados conglomerados. A amostragem é feita a partir dos grupos e não dos indivíduos da população. Desta forma, devemos sortear aleatoriamente um número suficiente de conglomerados e os objetos destes constituirão a amostra. Esse tipo de amostragem é denominado amostragem por conglomerados em um estágio.

Segundo Bolfarine e Bussab (2005), uma das inconveniências da amostragem por conglomerados está no fato de que os elementos dentro de um mesmo conglomerado tendem a apresentar características similares. Os autores demonstram que, quanto mais parecidos forem os elementos dentro do conglomerado, menos eficiente é o procedimento. Cada conglomerado deve ser um bom representante do universo, ou seja, deve ser heterogêneo, contendo todos os tipos de participantes. É o oposto da amostragem estratificada.

De acordo com Martins e Domingues (2011), a amostragem por conglomerados é uma amostragem aleatória simples em que as unidades amostrais são os conglomerados, porém menos custosa.

Quando sorteamos elementos dentro dos conglomerados selecionados, temos uma amostragem por conglomerados em dois estágios: no primeiro estágio, sorteamos os conglomerados e, no segundo, sorteamos os elementos.

O número de elementos a serem sorteados depende da variabilidade dentro do conglomerado; quanto maior for a variabilidade, mais elementos devem ser sorteados; por outro lado, quando as unidades dentro do conglomerado forem muito parecidas, não é recomendável nem necessário o sorteio de todos os elementos, pois eles trarão o mesmo tipo de informação (Bolfarine e Bussab, 2005). A amostragem por conglomerados pode ser generalizada para vários estágios.

As principais vantagens que justificam a grande utilização da amostragem por conglomerados são:

  • muitas populações já estão agrupadas em subgrupos naturais ou geográficos, facilitando sua aplicação;

  • permite uma redução substancial nos custos de obtenção da amostra, sem comprometer sua precisão. Em resumo, é rápida, barata e eficiente.

A única desvantagem é que os conglomerados raramente são do mesmo tamanho, dificultando o controle da amplitude da amostra.

Como exemplos de conglomerados, podemos citar a produção de uma fábrica dividida em linhas de montagem, trabalhadores de uma empresa divididos por área, estudantes de um município divididos por escolas ou a população de um município dividida em distritos.


Amostragem Não Probabilística

Já na amostragem não aleatória, a probabilidade de alguns ou de todos os elementos da população pertencer à amostra é desconhecida.

Amostragem por Conveniência

Neste tipo de amostragem, nem todos os elementos têm probabilidade conhecida de serem selecionados.

Este tipo de amostra baseia-se na premissa de que certo tipo de respondentes apresentam uma maior disponibilidade ou se encontram mais acessíveis para responder ao inquérito. Dadas as dificuldades e os custos elevados da realização de um processo de amostragem aleatório, em muitas situações a amostragem por conveniência torna-se particularmente atrativa e, embora não se possa falar de representatividade, frequentemente é possível evitar um enviesamento sistemático. Este tipo de amostragem pode também ser utilizado na fase de pré-teste a um questionário.

Neste método, seleciona-se a amostra em função da disponibilidade e acessibilidade dos elementos que constituem a população-alvo.

Uma das aplicações deste método é o caso de inquéritos sobre a aceitação de determinado produto que se encontra nos locais de venda, aproveitando assim a presença dos consumidores atuais ou potenciais, que são selecionados desde que se mostrem disponíveis para responder.

Amostragem por Julgamento ou Intencional

Neste procedimento, a escolha dos elementos a constituírem a amostra baseia-se na opinião de uma ou mais pessoas que são fortemente conhecedoras das características específicas da população em estudo que se pretende analisar.

Se, por exemplo, a população forem os vendedores ambulantes, torna-se impossível obter uma lista daqueles e a ajuda para a seleção dos elementos da amostra poderia vir da Polícia de Segurança Pública ou das Associações de Comerciantes..

No caso de a população em estudo serem os homossexuais ou os consumidores de drogas pesadas, a amostra, em ambos os casos, teria de consistir em voluntários dispostos a assumir as situações respetivas e a ajuda poderia vir de conhecedores dos habituais frequentadores de certo tipo de bares e de certos locais, ou de responsáveis de determinadas instituições de prevenção e combate à droga, por exemplo.

Amostragem snowball ou Propagação Geométrica

A amostragem por bola de neve, ou de propagação geométrica, é particularmente aconselhada quando se pretende estudar características raras em populações pequenas, muito específicas ou de difícil acesso. A população-alvo costuma ser restrita e dispersa por diferentes organismos, como ministérios, empresas, laboratórios e centros de investigação universitários.

O método inicia-se com a identificação aleatória de um ou mais indivíduos, que, por sua vez, indicam outros membros da mesma população. Esse processo é repetido até atingir o ponto de saturação, quando os novos entrevistados deixam de acrescentar informações relevantes, repetindo conteúdos já obtidos.

Entre as vantagens desse tipo de amostragem, destacam-se:

  • permite localizar a característica desejada dentro da população;

  • é de fácil aplicação, pois o recrutamento ocorre por indicação entre os membros da população;

  • apresenta baixo custo, exigindo menos planejamento e recursos humanos;

  • é eficiente para acessar populações dispersas ou de difícil alcance.


Tamanho da Amostra

Procedimento

  1. Analise o questionário ou roteiro da entrevista e escolha uma variável que julgue mais importante para o estudo.

  2. Verifique o nível de mensuração da variável: i) qualitativa ou ii) quantitativa.

  3. Considere o tamanho da população: i) população infinita ou ii) população finita.


Variável Quantitativa - População Infinita

O tamanho da amostra pode ser determinado por:

\[ n = \left(\frac{Z_{\alpha/2} \cdot \sigma}{E}\right)^2 \]

onde: \(Z_{\alpha/2}\) é o valor crítico da distribuição normal, \(\sigma\) é o desvio padrão e \(E\) é o erro máximo admissível.


Variável Quantitativa - População Finita

O tamanho da amostra pode ser determinado por:

\[ n = \frac{Z_{\alpha/2}^{2} \cdot \sigma^{2} \cdot N} {E^{2} \cdot (N-1) + Z_{\alpha/2}^{2} \cdot \sigma^{2}} \]

onde: \(N\) é o tamanho da população


Variável Qualitativa - População Infinita

O tamanho da amostra pode ser determinado por:

\[ n = \frac{Z_{\alpha/2}^{2} \cdot \hat{p} \cdot \hat{q}} {E^{2}} \]

onde: \(\hat{p}\) é a proporção estimada e \(\hat{q} = 1-\hat{p}\).


Variável Qualitativa - População Finita

O tamanho da amostra pode ser determinado por:

\[ n = \frac{Z_{\alpha/2}^{2} \cdot \hat{p} \cdot \hat{q} \cdot N} {E^{2} \cdot (N-1) + Z_{\alpha/2}^{2} \cdot \hat{p} \cdot \hat{q}} \]

Obs.: Quando você não tiver condições de prever o valor de \(\hat{p}\), admita \(\hat{p} = 0,5\), pois, dessa forma, você terá o maior tamanho da amostra, admitindo-se constantes os demais elementos.”


REFERÊNCIA BIBLIOGRÁFICA

Fávero, L. P., & Belfiore, P. (2017). Manual de análise de dados: estatística e modelagem multivariada com Excel®, SPSS® e Stata®. Elsevier Brasil.

Reis, E., et al. (1999). Estatística aplicada. Lisboa: Edições Sílabo.

Morettin, L. G. (2010). Estatística básica: probabilidade e inferência: volume único. Pearson Prentice Hall.

Vieira, S. (2011). Introdução a Bioestatística. Rio de Janeiro, RJ, 4˚ Edição.


LISTA DE EXERCÍCIOS DESTE CAPÍTULO

  1. Suponha que a variável escolhida num estudo seja o peso de certa peça e que a população é infinita. Pelas especificações do produto, o desvio-padrão (dispersão em torno da média) é de 10 kg. Qual é o tamanho da amostra, admitindo-se um nível de confiança de 95,5% e um erro amostral de 1,5 kg.

  2. Admite os mesmos dados do exemplo anterior e que a população seja finita de 600 peças.

  3. Suponha que a variável escolhida num estudo seja a proporção de eleitores favoráveis ao candidato X e que o investigador tenha elementos para suspeitar que essa percentagem seja de 30%. Admita a população infinita e que se deseja um nível de confiança de 99% e um erro amostral de 2% (ou seja: que a diferença entre a verdadeira proporção de eleitores do candidato X e a estimativa a ser calculada na amostra seja no máximo de 2%).

  4. Admita os mesmos dados do exemplo anterior, e que a população de eleitores seja finita de 20.000 eleitores.


CAPÍTULO IV

TEORIA DE ESTIMAÇÃO (Pontual & Intervalar)

Column

Introdução

6.6 Intervalos de confiança

Para estimar um parâmetro populacional, utilizam-se intervalos de confiança.

Para a média (variância conhecida)

\[ IC = \bar{X} \pm Z \cdot \frac{\sigma}{\sqrt{n}} \]

Para a média (variância desconhecida)

\[ IC = \bar{X} \pm t \cdot \frac{S}{\sqrt{n}} \]

Para proporções

\[ IC = \hat{p} \pm Z \cdot \sqrt{\frac{\hat{p}(1-\hat{p})}{n}} \]

CAPÍTULO V

TEORIA DE DECISÃO (Teste de Hipóteses)

Column

Introdução

TRABALHOS

TESTES & EXAMES


  1. Conteúdos que podem ser vistos nos textos de Apoio de 12ª Classe - Parte 2↩︎