C’est la loi d’une variable aléatoire \(X\) qui ne peut prendre que 2 valeurs, notées 1 et 0, et \(p\in [0,1]\) est la probabilité de la valeur 1 : \[p=P(X=1), ~ q=P(X=0)=1-p.\] On note \(X\hookrightarrow\mathcal{B}(p)\).
Si \(X\hookrightarrow\mathcal{B}(p)\), alors \[ \begin{aligned} &E(X)=\sum_{k=0}^1kP(X=k)=0\times q+1\times p=p\\ &E(X^2)=\sum_{k=0}^1k^2P(X=k)=0^2\times q+1^2\times p=p\\ &V(X)=E(X^2)-E(X)^2=p-p^2=p(1-p)=pq\\ \end{aligned} \]
Soit \(n\) variables aléatoires \(X_1,~X_2,~ \dots,~X_n\), indépendantes et de même loi \(\mathcal{B}(p)\).
La loi binomiale \(\mathcal{B}(n,p)\) est la loi de la variable aléatoire \[X = X_1 + X_2 + \dots + X_n=\sum_{i=1}^nX_i.\]
On note \(X\hookrightarrow\mathcal{B}(n,p)\).
\(X\) est à valeurs dans \(D=\{0,~1,~\dots ,~n\}\) et on a, pour \(k\in D\), \[ P(X=k) =\mathcal{C}_n^k ~p^k(1-p)^{n-k} \] et on \[ \begin{aligned} &E(X)=\sum_{k=0}^nkP(X=k)=\sum_{k=0}^nk\mathcal{C}_n^k ~p^k(1-p)^{n-k}=np\\ &E(X^2)=\sum_{k=0}^nk^2P(X=k)=\sum_{k=0}^nk^2\mathcal{C}_n^k ~p^k(1-p)^{n-k}=np(1-p)+(np)^2\\ &V(X)=E(X^2)-E(X)^2=np(1-p)\\ \end{aligned} \]
Une variable aléatoire \(X\) suit la loi de Poisson de paramètre \(\lambda\) si
\(X(\Omega)=\mathbb{N}\) et pour \(k\in \mathbb{N},~P(X=k)=e^{-\lambda}\dfrac{\lambda^k}{k!}\).
Si \(X\hookrightarrow \mathcal{P}(\lambda)\) alors \[ E(X)=V(X)=\lambda. \] Dans la pratique, on peut approcher la loi binomiale par une loi de Poisson lorsque \(n\geq 50\), \(p \leq 0.1\) et \(\lambda = np \leq 15\).
Et on approche la loi \(\mathcal{P}(\lambda)\) par la loi \(\mathcal{N}(\lambda,\sqrt{\lambda})\) dès que \(\lambda\geq 16\).
Soient \(p \in ]0,1[\) et \((X_n)_{n\geq 1}\) une suite de variables aléatoires indépendantes et de même loi \(\mathcal{B}(p)\).
La loi géométrique de paramètre \(p\) est la loi de la variable aléatoire \(N = \min\{n \geq 1|X_n = 1 \}\).
C’est donc la loi du premier instant \(n\) tel que \(A_n\) est réalisé, si \((A_n)_{n\geq 1}\) est une suite d’événements indépendants et de même probabilité \(p\). (Ci-dessus, \(X_n = {1}_{A_n}\)).
\(N\) est à valeurs dans \(\mathbb{N}^\star\) et on a pour \(k \in \mathbb{N}^\star\),
\[P(N = k) = P(X_1 = 0,X_2 = 0, \dots,X_{k-1} = 0,X_k = 1) = (1- p)^{k-1}p.\] On a donc \[ E(N) = \frac{1}{p} ~ \text{ et }~ V(N) = \frac{1 - p}{p^2} .\]
La loi uniforme sur \([a,b]\) est la loi de densité \[f(x) = \frac{1}{b - a}1_{[a,b]}(x).\] Une variable aléatoire \(X\) de loi \(\mathcal{U}_{[a,b]}\) est donc à valeurs dans \([a,b]\) et sa fonction de répartition est donnée, pour tout \(x \in [a,b]\), par : \[ F(x) = P(X \leq x) = \left\{ \begin{array}{ccc} 0& si & x\leq a\\ \dfrac{x - a}{b - a}& si & a\leq x\leq b \\ 1& si & x\geq b \end{array} \right. \]
On a \[ E(X) = \frac{a + b}{2} ~\text{ et }~ V(X) = \frac{(a - b)^2}{12}.\]
Cette loi exponentielle de paramètre \(\lambda\) a pour densité \[ f(x) = \left\{ \begin{array}{ccc} \lambda e^{-\lambda x}& si &x\geq 0 \\ 0 & si & x< 0 \end{array} \right. \] Une variable aléatoire \(X\) de loi \(\mathcal{E}(\lambda),~\lambda>0\) est donc à valeurs dans \(\mathbb{R}^+\) et sa fonction de répartition est donnée par : \[ F(x) = P(X\leq x)=\left\{ \begin{array}{ccc} 1-e^{-\lambda x}& si &x\geq 0 \\ 0 & si & x\leq 0 \end{array} \right. \] On a \[ \begin{array}{l} \forall x\geq 0, ~, P(X \geq x) = e^{-\lambda x} \\ E(X) = \sigma(X)=\dfrac{1}{\lambda} \end{array} \]
La loi normale centrée (\(\mu = 0\)) réduite (\(\sigma = 1\)), notée \(\mathcal{N }(0,1)\), est la loi de densité \[\phi(x) = \frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}}.\] La courbe représentative de \(f\) est la « courbe en cloche ».
La fonction de répartition d’une normale centrée-réduite est donnée par
: \[\Phi(x) =P(X\leq
x)=\int_{-\infty}^x\phi(t)dt =
\frac{1}{\sqrt{2\pi}}\int_{-\infty}^xe^{-\frac{t^2}{2}}dt.\] Par
symétrie, on a \[\Phi(-x)=1-\Phi(x)\]
Si \(X\) suit la loi \(\mathcal{N }(0,1)\), alors \(\mu + \sigma X\) suit la loi \(\mathcal{N }(\mu,\sigma)\).
La densité de la loi \(\mathcal{N }(\mu,\sigma)\) est \[f(x) = \dfrac{1}{\sigma\sqrt{2\pi}}e^{-\dfrac{(x-\mu)^2}{2\sigma^2}}.\] On a \[ E(X)=\mu~\text{ et }~V(X)=\sigma^2. \]
Soient \(X_1, ~X_2, \dots ,~ X_n\) \(n\) variables normales centrés-réduites et indépendantes, la variable \[X=X^2_1+X^2_2, \dots + X^2_n\] suit une loi du khi-deux à \(n\) degrés de liberté, notée \(\chi^2_n\). On a \[ E(X)=n~\text{ et } ~V(X)=2n. \] La représentation graphique de la loi \(\mathcal{\chi}^2_4\)
A mesure que \(n\) augmente, la distribution de Student à \(n\) degrés de liberté se rapproche de plus en plus de celle de celle de la loi normale centrée réduite.
En pratique : si \(n\geq 30\), on pourra écrire que \(\chi^2_n \hookrightarrow \mathcal{N}(n,\sqrt{2n})\).
Les valeurs tabulées de la variable \(\chi^2_n\) dépendent d’un seuil \(\alpha\) et du nombre de degré de liberté \(n\).
La table donne la valeur \(\chi^2_{\alpha,n}\) définie par \(P(\chi^2_n > \chi^2_{\alpha,n})=\alpha\).
Soient \(X\) et \(Y\) deux variables aléatoires indépendantes, la première étant distribuée selon une loi normale centrée réduite \(\mathcal{N}(0,1)\) et la deuxième selon une loi de khi-deux à \(n\) degrés de liberté.
La variable \[T_n=\frac{X}{\sqrt{\dfrac{Y}{n}}}\] suit une loi de Student à \(n\) degrés de liberté.
On écrit \(T_n \hookrightarrow \mathcal{T}_n\).
On n’écrit pas ici l’expression de la fonction de densité, compliquée et inutile.
Si \(T_n \hookrightarrow \mathcal{T}_n\), alors \[E(T_n) = 0 ~\text{ si } n>1 ~~\text{ et }~~ V(T_n) = \frac{n}{n-2}~\text{ si } ~n>2. \] La représentation graphique de la loi \(\mathcal{T}_4\)
A mesure que \(n\) augmente, la distribution de Student à \(n\) degrés de liberté se rapproche de plus en plus de celle de celle de la loi normale centrée réduite.
En pratique : si \(n\geq 30\), on pourra écrire que \(T_n \hookrightarrow \mathcal{N}(0,1)\).
Les valeurs tabulées de la variable \(T_n\) dépendent d’un seuil \(\alpha\) et du nombre de degré de liberté \(n\).
La table donne la valeur \(t_{\alpha,n}\) définie par \(P(|T_n|>t_{\alpha,n})=\alpha\).
Si \(X_1\) et \(X_2\) sont deux variables aléatoires indépendantes qui suivent toutes les deux une loi de khi-deux de degrés de liberté respectifs \(n_1\) et \(n_2\), alors la variable aléatoire \[ F_{n_1 ,n_2} =\frac{X_1 /n_1}{X_2 /n_2}\] suit la loi de Fisher-Snedecor à \(n_1\) et \(n_2\) degrés de liberté.
On note \[F_{n_1 ,n_2} \hookrightarrow \mathcal{F}_{n_1 ,n_2}.\] Cette variable ne prend que des valeurs positives.
On n’écrit pas ici l’expression de la fonction de densité, compliquée et inutile. Les formes de distribution dépendent de \(n_1\) et \(n_2\) et sont dissymétriques.
A mesure que les valeurs \(n_1\) et \(n_2\) augmentent, la loi de Fisher tend vers une loi normale.
Les valeurs tabulées de la variable \(F_{n_1 ,n_2}\) dépendent d’un seuil \(\alpha\) et des nombres de degré de liberté \(n_1\) et \(n_2\).
La table donne la valeur \(f_{\alpha,n_1 ,n_2}\) définie par \(P(F_{n_1 ,n_2}>f_{\alpha,n_1 ,n_2})=\alpha\).