Les notes obtenues par un groupe d’étudiants à deux contrôles sont les suivantes :
data <- data.frame( cc1 = c(8, 8, 8, 11, 11, 12, 14, 14, 16, 16, 18, 18, 18, 20), cc2 = c(10, 9, 9, 12, 9, 12, 13, 13, 16, 16, 15, 18, 16, 17))
print(data)
## cc1 cc2
## 1 8 10
## 2 8 9
## 3 8 9
## 4 11 12
## 5 11 9
## 6 12 12
## 7 14 13
## 8 14 13
## 9 16 16
## 10 16 16
## 11 18 15
## 12 18 18
## 13 18 16
## 14 20 17
En lisant cet énoncé, nous pouvons déjà récupérer les informations et les données utiles à notre inférence statistique.
Informations
Population : Clients d’un nouveau restaurant du centre ville.
Variables :
Données
print(data)
## cc1 cc2
## 1 8 10
## 2 8 9
## 3 8 9
## 4 11 12
## 5 11 9
## 6 12 12
## 7 14 13
## 8 14 13
## 9 16 16
## 10 16 16
## 11 18 15
## 12 18 18
## 13 18 16
## 14 20 17
a <- 0.01
Nous rajoutons le seuil alpha 0.01 à notre environnement de données, en assignant 0.05 à l’objet a.
Hypothèses
H0 <- "on ne peut pas conclure que les notes de ces deux contrôles continus, ont une relation monotone positive."
H1 <- "on peut conclure que les notes de ces deux contrôles continus, ont une relation monotone positive."
Pour tout test d’absence de relation (ou d’indépendance) entre deux variables (Khi-deux d’indépendance, corrélation monotone ou linéaire), l’absence de relation sera toujours notifiée en H0. Cette règle vaut également pour les tests d’adéquations entre une variable et une loi (Khi-deux d’adéquation).
Test de corrélation monotone
Petit rappel : Un coefficient de corrélation monotone (SPEARMAN), vérifie que l’évolution d’une variable X, entraîne l’évolution de la variable Y dans le même sens (pour une corrélation positive) ou dans le sens inverse (pour une corrélation négative). Un coefficient de corrélation linéaire (BRAVAIS-PEARSON), cherche à vérifier que ces deux évolutions se fassent à une même vitesse.
Nous choisissons le test de corrélation monotone, car nous cherchons à vérifier l’absence de relation monotone entre deux variables numériques. Il est plus pertinent d’utiliser un test d’indépendance stochastique pour les variables catégorielles.
result <- with(data, cor.test(cc1, cc2, alternative = 'two.sided', method = 'spearman', conf.level = 1 - a, exact = FALSE))
p.value <- result[['p.value']]
Le test de corrélation monotone est possible grâce à la fonction cor.test(). Cette fonction prend comme arguments une variable x, une variable y, le sens de l’hypothèse alternative (alternative = ‘two.sided’ ou ‘less’ ou ‘greater’), une methode (method = ‘pearson’ ou ‘kendall’ ou ‘spearman’) et un seuil de confiance (p = 1 - a ou 1 - 0.01. Donc 99 % de confiance envers notre résultat). De plus, l’argument (exact = FALSE) permet d’éviter le message d’erreur : “Cannot compute exact p-value with ties”
Resultats
print(result)
##
## Spearman's rank correlation rho
##
## data: cc1 and cc2
## S = 31.732, p-value = 1.428e-06
## alternative hypothesis: true rho is not equal to 0
## sample estimates:
## rho
## 0.9302593
if(p.value < a){
answer <- paste('Il y a rejet de H0, car', p.value, 'est inférieur à', a, '. Donc,', H1)
} else {
answer <- paste('Il y a non rejet de H0, car', p.value, 'est supérieur à', a, '. Donc,', H0)
}
Étant donné que la p.value est inférieure à notre seuil alpha, nous décidons de rejeter H0 en faveur de H1.
Réponse : Il y a rejet de H0, car 1.42758964254768e-06 est inférieur à 0.01 . Donc, on peut conclure que les notes de ces deux contrôles continus, ont une relation monotone positive.