Les objectifs de la statistique inférentielle peuvent être résumés comme suit :
Distributions des échantillonnages : décrivent le comportement des statistiques échantillonnées (comme la moyenne, la fréquence ou la variance) à partir d’une population donnée.
Estimation : estimer les caractéristiques d’une population à partir d’un échantillon représentatif de cette population.
Intervalles de confiance : calculer des intervalles de confiance autour des estimations des paramètres de la population.
Tests d’hypothèses : formuler et tester des hypothèses sur les caractéristiques de la population.
Contrôle de la qualité : contrôler la qualité des produits en prélevant des échantillons en tirant des conclusions sur la qualité de la production totale à partir de ces échantillons.
Analyse de la variance : comparer les moyennes de plusieurs groupes pour déterminer s’ils sont statistiquement différents.
Outils fondamentaux utilisées dans divers domaines (ingénierie, finance, apprentissage automatique...)
Modéliser le comportement aléatoire des variables.
Prendre des décisions basées sur des données.
Evaluer la validité des hypothèses dans une variété de contextes.
Soit \(X\hookrightarrow\mathcal{B}(p), \ \ p\in [0, 1]\)
avec \(p=P(X=1) \texttt{ et } q=P(X=0)=1-p.\)
\(E(X)=\sum_{k=0}^1kP(X=k)=0\times q+1\times p=p\)
Moment d’ordre 2 :
\(E(X^2)=\sum_{k=0}^1k^2P(X=k)=0^2\times q+1^2\times p=p\)
Varince :
\(V(X)=E(X^2)-E(X)^2=p-p^2=p(1-p)=pq\)
Représentation graphique
\(E(X)=0.2\) et \(V(X)=0.16\).
Soit \(n\) variables aléatoires \(X_1,~X_2,~ \dots,~X_n\), indépendantes et de même loi \(\mathcal{B}(p)\).
La loi binomiale \(\mathcal{B}(n,p)\) est la loi de la variable aléatoire \[X = X_1 + X_2 + \dots + X_n=\sum_{i=1}^nX_i.\]
On note \(X\hookrightarrow\mathcal{B}(n,p)\).
\(D_X=\{0,~1,~\dots ,~n\}\), pour \(k\in D,\ P(X=k) =\mathcal{C}_n^k ~p^k(1-p)^{n-k}\)
\[ \begin{aligned} E(X)&=\sum_{k=0}^nkP(X=k)\\ &=\sum_{k=0}^nk\mathcal{C}_n^k ~p^k(1-p)^{n-k}\\ &=np\\ E(X^2)&=\sum_{k=0}^nk^2P(X=k)\\ &=\sum_{k=0}^nk^2\mathcal{C}_n^k ~p^k(1-p)^{n-k}\\ &=np(1-p)+(np)^2\\ V(X)&=E(X^2)-E(X)^2=np(1-p)\\ \end{aligned} \]