Le service commercial d’une société dispose de 10 représentants chargés de placer un produit auprès de certains détaillants. Au cours d’une même période, le nombre X de visites et le nombre Y de ventes réalisées par chacun de ces représentants sont les suivantes :

data <- data.frame(x = c(18, 31, 27, 26, 31, 24, 24, 25, 31, 18), y = c(15, 19, 20, 19, 24, 14, 17, 18, 22, 16))
print(data)
##     x  y
## 1  18 15
## 2  31 19
## 3  27 20
## 4  26 19
## 5  31 24
## 6  24 14
## 7  24 17
## 8  25 18
## 9  31 22
## 10 18 16



En lisant cet énoncé, nous pouvons déjà récupérer les informations et les données utiles à notre inférence statistique.


Informations

Population : Clients d’un nouveau restaurant du centre ville.

Variables :



1 - Peut-on conclure au seuil 0.05 qu’il existe une corrélation linéaire entre le nombre de visites et le nombre de ventes réalisées ?



Données

print(data)
##     x  y
## 1  18 15
## 2  31 19
## 3  27 20
## 4  26 19
## 5  31 24
## 6  24 14
## 7  24 17
## 8  25 18
## 9  31 22
## 10 18 16
a <- 0.05

Nous rajoutons le seuil alpha 0.05 à notre environnement de données, en assignant 0.05 à l’objet a.


Hypothèses

H0 <- "on ne peut pas conclure qu'au sein de ce service, le nombre de visites soit en relation linéaire avec le nombre de ventes réalisées."
H1 <- "on peut conclure qu'au sein de ce service, le nombre de visites soit en relation linéaire avec le nombre de ventes réalisées."

Pour tout test d’absence de relation (ou d’indépendance) entre deux variables (Khi-deux d’indépendance, corrélation monotone ou linéaire), l’absence de relation sera toujours notifiée en H0. Cette règle vaut également pour les tests d’adéquations entre une variable et une loi (Khi-deux d’adéquation).


Test de corrélation linéaire


Petit rappel : Un coefficient de corrélation monotone (SPEARMAN), vérifie que l’évolution d’une variable X, entraîne l’évolution de la variable Y dans le même sens (pour une corrélation positive) ou dans le sens inverse (pour une corrélation négative). Un coefficient de corrélation linéaire (BRAVAIS-PEARSON), cherche à vérifier si ces deux évolutions ce font à une même vitesse.


Nous choisissons le test de corrélation linéaire, car nous cherchons à vérifier l’absence de relation entre deux variables numériques. Il est plus pertinent d’utiliser un test d’indépendance stochastique pour les variables catégorielles.

result <- with(data, cor.test(x, y, alternative = 'two.sided', method = 'pearson', conf.level = 1 - a))
p.value <- result[['p.value']]

Le test de corrélation linéaire est possible grâce à la fonction cor.test(). Cette fonction prend comme arguments une variable x, une variable y, le sens de l’hypothèse alternative (alternative = ‘two.sided’ ou ‘less’ ou ‘greater’), une methode (method = ‘pearson’ ou ‘kendall’ ou ‘spearman’) et un seuil de confiance (p = 1 - a ou 1 - 0.05. Donc 95 % de confiance envers notre résultat).


Resultats

print(result)
## 
##  Pearson's product-moment correlation
## 
## data:  x and y
## t = 3.8823, df = 8, p-value = 0.00466
## alternative hypothesis: true correlation is not equal to 0
## 95 percent confidence interval:
##  0.3637083 0.9529320
## sample estimates:
##      cor 
## 0.808246
if(p.value < a){
        answer <- paste('Il y a rejet de H0, car', p.value, 'est inférieur à', a, '. Donc,', H1)
} else {
        answer <- paste('Il y a non rejet de H0, car', p.value, 'est supérieur à', a, '. Donc,', H0)
}

Étant donné que la p.value est inférieure à notre seuil alpha, nous décidons de rejeter H0 en faveur de H1.


Réponse : Il y a rejet de H0, car 0.00465970624090684 est inférieur à 0.05 . Donc, on peut conclure qu’au sein de ce service, le nombre de visites soit en relation linéaire avec le nombre de ventes réalisées.