Les notes obtenues par un groupe d’étudiants à deux contrôles sont les suivantes :

data <- data.frame( cc1 = c(8, 8, 8, 11, 11, 12, 14, 14, 16, 16, 18, 18, 18, 20), cc2 = c(10, 9, 9, 12, 9, 12, 13, 13, 16, 16, 15, 18, 16, 17))
print(data)
##    cc1 cc2
## 1    8  10
## 2    8   9
## 3    8   9
## 4   11  12
## 5   11   9
## 6   12  12
## 7   14  13
## 8   14  13
## 9   16  16
## 10  16  16
## 11  18  15
## 12  18  18
## 13  18  16
## 14  20  17



En lisant cet énoncé, nous pouvons déjà récupérer les informations et les données utiles à notre inférence statistique.


Informations

Population : Clients d’un nouveau restaurant du centre ville.

Variables :





1 - Peut-on conclure au seuil 0.01 qu’il existe une corrélation monotone positive entre les notes de ces deux contrôles ?



Données

print(data)
##    cc1 cc2
## 1    8  10
## 2    8   9
## 3    8   9
## 4   11  12
## 5   11   9
## 6   12  12
## 7   14  13
## 8   14  13
## 9   16  16
## 10  16  16
## 11  18  15
## 12  18  18
## 13  18  16
## 14  20  17
a <- 0.01

Nous rajoutons le seuil alpha 0.01 à notre environnement de données, en assignant 0.05 à l’objet a.


Hypothèses

H0 <- "on ne peut pas conclure que les notes de ces deux contrôles continus, ont une relation monotone positive."
H1 <- "on peut conclure que les notes de ces deux contrôles continus, ont une relation monotone positive."

Pour tout test d’absence de relation (ou d’indépendance) entre deux variables (Khi-deux d’indépendance, corrélation monotone ou linéaire), l’absence de relation sera toujours notifiée en H0. Cette règle vaut également pour les tests d’adéquations entre une variable et une loi (Khi-deux d’adéquation).


Test de corrélation monotone


Petit rappel : Un coefficient de corrélation monotone (SPEARMAN), vérifie que l’évolution d’une variable X, entraîne l’évolution de la variable Y dans le même sens (pour une corrélation positive) ou dans le sens inverse (pour une corrélation négative). Un coefficient de corrélation linéaire (BRAVAIS-PEARSON), cherche à vérifier que ces deux évolutions se fassent à une même vitesse.


Nous choisissons le test de corrélation monotone, car nous cherchons à vérifier l’absence de relation monotone entre deux variables numériques. Il est plus pertinent d’utiliser un test d’indépendance stochastique pour les variables catégorielles.

result <- with(data, cor.test(cc1, cc2, alternative = 'two.sided', method = 'spearman', conf.level = 1 - a, exact = FALSE))
p.value <- result[['p.value']]

Le test de corrélation monotone est possible grâce à la fonction cor.test(). Cette fonction prend comme arguments une variable x, une variable y, le sens de l’hypothèse alternative (alternative = ‘two.sided’ ou ‘less’ ou ‘greater’), une methode (method = ‘pearson’ ou ‘kendall’ ou ‘spearman’) et un seuil de confiance (p = 1 - a ou 1 - 0.01. Donc 99 % de confiance envers notre résultat). De plus, l’argument (exact = FALSE) permet d’éviter le message d’erreur : “Cannot compute exact p-value with ties”


Resultats

print(result)
## 
##  Spearman's rank correlation rho
## 
## data:  cc1 and cc2
## S = 31.732, p-value = 1.428e-06
## alternative hypothesis: true rho is not equal to 0
## sample estimates:
##       rho 
## 0.9302593
if(p.value < a){
        answer <- paste('Il y a rejet de H0, car', p.value, 'est inférieur à', a, '. Donc,', H1)
} else {
        answer <- paste('Il y a non rejet de H0, car', p.value, 'est supérieur à', a, '. Donc,', H0)
}

Étant donné que la p.value est inférieure à notre seuil alpha, nous décidons de rejeter H0 en faveur de H1.


Réponse : Il y a rejet de H0, car 1.42758964254768e-06 est inférieur à 0.01 . Donc, on peut conclure que les notes de ces deux contrôles continus, ont une relation monotone positive.