1) X ~ Ber(p)
\(p=0.4\)
p = 0.4
\(\mathbb P(X ≤ 0.5)\)
p1 = pbinom(0.5,1,p)
p1
## [1] 0.6
\(\mathbb P(X > 1)\)
p2 = 1 - pbinom(1,1,p)
p2
## [1] 0
\(\mathbb P(e^{−X} < 0.5)\)
p3 = 1 - pbinom(-log(0.5),1,p)
p3
## [1] 0.4
2) X ~ Bin(p,n)
\(n=4\)
n = 4
\(\mathbb P(X ≤ 2)\)
p4 = pbinom(2,n,p)
p4
## [1] 0.8208
\(\mathbb P(X > 1)\)
p5 = 1 - pbinom(1,n,p)
p5
## [1] 0.5248
\(\mathbb P(1 < X < 3)\)
p6 = pbinom(3,n,p) - pbinom(1,n,p)
p6
## [1] 0.4992
3) X ~ Exp(a)
a = c(0.1,1)
\(\mathbb P(X ≤ 1)\)
p7 = pexp(1,a)
p7
## [1] 0.09516258 0.63212056
\(\mathbb P(X > 10)\)
p8 = 1 - pexp(10,a)
p8
## [1] 3.678794e-01 4.539993e-05
\(\mathbb P(1 < X < 8)\)
p9 = pexp(8,a) - pexp(1,a)
p9
## [1] 0.4555085 0.3675440
4) X ~ Unif[-2,1]
\(\mathbb P(X ≤ -0.5)\)
p10 = punif(0.5, min = -2, max = 1)
p10
## [1] 0.8333333
\(\mathbb P(X > 0)\)
p11 = 1 - punif(0, min = -2, max = 1)
p11
## [1] 0.3333333
\(\mathbb P(-1 < X < 0.5)\)
p12 = punif(0.5, min = -2, max = 1) - punif(-1, min = -2, max = 1)
p12
## [1] 0.5
5) X ~ chi^2
\(d =c(1,5,10)\)
d = c(1,5,10)
\(\mathbb P(X ≤ 0)\)
p13 = pchisq(0,d)
p13
## [1] 0 0 0
\(\mathbb P(X > 5)\)
p14 = 1 - pchisq(5,d)
p14
## [1] 0.02534732 0.41588019 0.89117802
Les jurys du baccalauréat ont pour habitude de modéliser les différentes notes de la facon suivante :
X représente la note en mathématiques et suit une \(\mathcal N(10,4)\) Y représente la note en économie et suit une \(\mathcal N(10,16)\) Z représente la note en anglais et suit une \(\mathcal N(12,9)\)
1) Calculer la probabilité qu’un lycéen ait plus de 12 en math, entre 5 et 7 en anglais.
En supposant que les notes X,Y,Z sont indépendantes, calculer la probabilité qu’un lycéen ait plus de 16 dans chacune des 3 matières.
Utilisez la fonction de répartition \(\mathbb P(\mathcal N(m,s2) ≤ t)\) de la loi gaussienne \(\mathcal N(m,s2)\) donnée par proba \(= pnorm(t,m,s)\)
mx = 10 ; my = 10 ; mz = 12
vx = 4 ; vy = 16 ; vz = 9
M = c(mx,my,mz)
V = c(vx,vy,vz)
\(\mathbb P(X > 12)\)
p15 = 1 - pnorm(12,mx,sqrt(vx))
p15
## [1] 0.1586553
\(\mathbb P(5 < Z < 7)\)
p16 = pnorm(7,mz,sqrt(vz)) - pnorm(5,mz,sqrt(vz))
p16
## [1] 0.03797502
\(\mathbb P(X > 16) \times P(Y > 16) \times P(Z > 16)\)
p17 = (1 - pnorm(16,mx,sqrt(vx))) * (1 - pnorm(16,my,sqrt(vy))) * (1 - pnorm(16,mz,sqrt(vz)))
p17
## [1] 8.225693e-06
load("~/Documents/ISIFAR/M1 ISIFAR/Semestre 2/Économétrie/Dataset/salaire.Rdata")
str(salaire)
## 'data.frame': 190 obs. of 3 variables:
## $ ID.DPT : int 1 2 3 4 5 6 7 8 9 10 ...
## $ BRUT.AN: int 39923 34297 43703 29615 44157 59633 61947 35351 38756 51787 ...
## $ TYPO : Factor w/ 2 levels "CADRE","NON.CADRE": 1 1 1 1 1 1 1 1 1 1 ...
table(salaire$TYPO)
##
## CADRE NON.CADRE
## 95 95
cadre = salaire$BRUT.AN[which(salaire$TYPO == "CADRE")]
tech = salaire$BRUT.AN[which(salaire$TYPO == "NON.CADRE")]
plot(density(tech), main = "Densité salaires techniciens", xlab = "Salaire brut/an")
plot(density(cadre), main = "Densité salaires cadres", xlab = "Salaire brut/an")
summary(cadre)
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 23438 38170 43395 43758 47986 72327
summary(tech)
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 6568 14820 17237 17088 20020 26079
hist(cadre, probability = TRUE, main = "Histogramme salaires cadres")
lines(density(cadre), col = "red")
d = function(x) {dnorm(x, mean = mean(cadre), sd = sqrt(var(cadre)))}
curve(d, add = TRUE, col = "green")
shapiro.test(cadre) # OK pour alpha = 0.05
##
## Shapiro-Wilk normality test
##
## data: cadre
## W = 0.97791, p-value = 0.1084
shapiro.test(tech) # OK pour alpha = 0.05
##
## Shapiro-Wilk normality test
##
## data: tech
## W = 0.98156, p-value = 0.2017
ks.test(cadre,"pnorm", mean(cadre), sqrt(var(cadre))) # OK pour alpha = 0.05
##
## One-sample Kolmogorov-Smirnov test
##
## data: cadre
## D = 0.092558, p-value = 0.3672
## alternative hypothesis: two-sided
ks.test(tech,"pnorm", mean(tech), sqrt(var(tech))) # OK pour alpha = 0.05
##
## One-sample Kolmogorov-Smirnov test
##
## data: tech
## D = 0.056328, p-value = 0.907
## alternative hypothesis: two-sided
ks.test(cadre,tech)
##
## Two-sample Kolmogorov-Smirnov test
##
## data: cadre and tech
## D = 0.97895, p-value < 2.2e-16
## alternative hypothesis: two-sided