Statistique Inférentielle

Objectifs

Les objectifs de la statistique inférentielle peuvent être résumés comme suit :

  • Distributions des échantillonnages : décrivent le comportement des statistiques échantillonnées (comme la moyenne, la fréquence ou la variance) à partir d’une population donnée.

  • Estimation : estimer les caractéristiques d’une population à partir d’un échantillon représentatif de cette population.

  • Intervalles de confiance : calculer des intervalles de confiance autour des estimations des paramètres de la population.

  • Tests d’hypothèses : formuler et tester des hypothèses sur les caractéristiques de la population.

  • Contrôle de la qualité : contrôler la qualité des produits en prélevant des échantillons en tirant des conclusions sur la qualité de la production totale à partir de ces échantillons.

  • Analyse de la variance : comparer les moyennes de plusieurs groupes pour déterminer s’ils sont statistiquement différents.

Chapitre 1. Lois de probabilités usuelles

  • Outils fondamentaux utilisées dans divers domaines (ingénierie, finance, apprentissage automatique...)

  • Modéliser le comportement aléatoire des variables.

  • Prendre des décisions basées sur des données.

  • Evaluer la validité des hypothèses dans une variété de contextes.

1. Lois discrètes

1.1. Loi de Bernoulli de paramètre \(p\), \(\mathcal{B}(p)\)

Soit \(X\hookrightarrow\mathcal{B}(p), \ \ p\in [0, 1]\)

avec \(p=P(X=1) \texttt{ et } q=P(X=0)=1-p.\)

  • Moment d’ordre 1 : Espérance mathématique

\(E(X)=\sum_{k=0}^1kP(X=k)=0\times q+1\times p=p\)

  • Moment d’ordre 2 :

    \(E(X^2)=\sum_{k=0}^1k^2P(X=k)=0^2\times q+1^2\times p=p\)

  • Varince :

    \(V(X)=E(X^2)-E(X)^2=p-p^2=p(1-p)=pq\)

Exemple: \(X\hookrightarrow\mathcal{B}(0.2)\)

Représentation graphique

\(E(X)=0.2\) et \(V(X)=0.16\).

1.2 Loi binomiale de paramètres \(n\) et \(p\), \(\mathcal{B}(n,p)\)

Soit \(n\) variables aléatoires \(X_1,~X_2,~ \dots,~X_n\), indépendantes et de même loi \(\mathcal{B}(p)\).

La loi binomiale \(\mathcal{B}(n,p)\) est la loi de la variable aléatoire \[X = X_1 + X_2 + \dots + X_n=\sum_{i=1}^nX_i.\]

On note \(X\hookrightarrow\mathcal{B}(n,p)\).

\(D_X=\{0,~1,~\dots ,~n\}\), pour \(k\in D,\ P(X=k) =\mathcal{C}_n^k ~p^k(1-p)^{n-k}\)

\[ \begin{aligned} E(X)&=\sum_{k=0}^nkP(X=k)\\ &=\sum_{k=0}^nk\mathcal{C}_n^k ~p^k(1-p)^{n-k}\\ &=np\\ E(X^2)&=\sum_{k=0}^nk^2P(X=k)\\ &=\sum_{k=0}^nk^2\mathcal{C}_n^k ~p^k(1-p)^{n-k}\\ &=np(1-p)+(np)^2\\ V(X)&=E(X^2)-E(X)^2=np(1-p)\\ \end{aligned} \]