1 Modélisation
1.1 Echantionnage (Apprentissage/Test)
Nous allons séparer notre échantillion de données en deux sous-échantillions:- Un échantillion d'apprentissage : Nos différents modèles s'entraîneront sur cette échantillion
- Un échantillion de test : Cette échantillion nous permettra de tester le pouvoir prédictif de nos modèles
Classe | Effectif |
---|---|
Actif | 1063 |
Churneurs | 524 |
1.2 Echantionnage de test (30% des données)
Classe | Effectif |
---|---|
Actif | 280 |
Churneurs | 133 |
1.3 Regression Logistique
1.3.1 -Selection des variables : Stratégie Stepwise
Stratégie Stepwise : Utilisée lorsque la connaissance des variables prédictrices possibles s’avère limitée . La variable la plus significative est injectée en première. La deuxième est injectée conditionnellement à la première et ainsi de suite. Nous avons choisi instinctivement la stratégie stepwise pour nous faire une première idée sur les variables pouvant avoir un impact sur le modèle.
1.3.2 Matrice de Confusion
Afin d'analyser la performance de notre classifieur, nous nous sommes basés sur différentes métriques telles que :
- La matrice de confusion
- La courbe de ROC
Actif | Churneurs | |
---|---|---|
Actif | 243 | 62 |
Churneurs | 37 | 71 |
On remarque pour les deux classes "Churneurs" & "Actif" clients, que le taux de bien classés est conséquent , il y a peu de mauvais classement.
1.3.3 Metriques du modèle
Sensitivity | 0.8678571 |
Specificity | 0.5338346 |
Pos Pred Value | 0.7967213 |
Neg Pred Value | 0.6574074 |
Precision | 0.7967213 |
Recall | 0.8678571 |
F1 | 0.8307692 |
Prevalence | 0.6779661 |
Detection Rate | 0.5883777 |
Detection Prevalence | 0.7384988 |
Balanced Accuracy | 0.7008459 |
- Sensibilité : taux de vrai positif
- Spécificité : taux de vrai négatif
Nous remarquons que les taux de sensibilité et de spécificité sont très correct cela signifie que notre modèle effectue un bon classement .
1.3.4 Courbe de ROC
Nous affichons sur ce graphique, la courbe (droite) sans valeurs discriminantes (dont l'aire de la courbe équivaut à 0,5) et celle de notre classifieur.
On remarque que la courbe se rapproche de la courbe du classifieur idéale avec une valeur d'aire sous la courbe se rapprochant de 80%
Ces informations, en plus des résultats fournient par la matrice de confusion, nous permettent de déduire que notre modèle est plutôt performant .
1.4 Modelisation Arbre de décision
Un arbre de décision est un outil d'aide à la décision représentant un ensemble de choix sous la forme graphique d'un arbre. Les différentes décisions possibles sont situées aux extrémités des branches (les « feuilles » de l'arbre), et sont atteintes en fonction de décisions prises à chaque étape.
Arbre de décision
On distingue donc quatre typologies de churneur : Les Non VIP qui n’ont fait aucun achat dans l’univer 1 Les clients qui ont fait un achat ou plus dans l’univer 1, ils ont un CA total inférieur à 632€, ils ont acheté moins de 12 articles de l’univer 1 et leur CA moyen de l’univer 1 est inférieur à 2 € Les clients qui ont fait un achat ou plus dans l’univer 1, ils ont un CA total inférieur à 632€, ils ont acheté moins de 12 articles de l’univer 1 et leur CA moyen de l’univer 1 est inférieur à 2 €, ils ont en moyenne des remise de moins de 3€, ils ont fait moins de 10 visites au cours de l’année et il ne sont pas venu lors du troisième trimestre. Les clients qui ont fait un achat ou plus dans l’univer 1, ils ont un CA total inférieur à 632€, ils ont acheté moins de 12 articles de l’univer 1 et leur CA moyen de l’univer 1 est inférieur à 2 €, ils ont en moyenne des remise de moins de 3€, ils ont fait moins de 10 visites au cours de l’année, ils sont venu au moins une fois lors du trimestre 3, ils ont un panier moyen lors du premier trimestre inférieur à 54€ et ils ont achetés moins de 5 article de l’univers 5.
Overall | |
---|---|
AGE | 4.281298 |
ca_moyen_u1 | 20.899727 |
ca_moyen_u2 | 106.512132 |
distance_bracet5-10 km | 3.383573 |
montant_remise_moyen | 14.869114 |
montant_remise_Total | 38.159458 |
nb_article_u1 | 141.047746 |
nb_article_u2 | 107.319421 |
nb_visites | 108.042028 |
nombre_article_total | 70.188835 |
panier_moy_T4 | 3.544501 |
total_CA | 219.274322 |
total_T1 | 4.669096 |
total_T2 | 92.568101 |
total_T4 | 11.904853 |
total_u1 | 38.714802 |
total_u2 | 108.006227 |
total_u3 | 3.556685 |
VIP1 | 128.586960 |
panier_moyen | 0.000000 |
nombre_magasin_frequente | 0.000000 |
SEXEMONSIEUR | 0.000000 |
MAGASINBEA | 0.000000 |
MAGASINBEC | 0.000000 |
MAGASINBRE | 0.000000 |
MAGASINBSN | 0.000000 |
MAGASINCLA | 0.000000 |
MAGASINDUM | 0.000000 |
MAGASINECU | 0.000000 |
MAGASINFEG | 0.000000 |
MAGASINFRV | 0.000000 |
MAGASINGAI | 0.000000 |
MAGASINHAG | 0.000000 |
MAGASINMAC | 0.000000 |
MAGASINMET | 0.000000 |
MAGASINMOB | 0.000000 |
MAGASINMUL | 0.000000 |
MAGASINOBE | 0.000000 |
MAGASINPEG | 0.000000 |
MAGASINPOC | 0.000000 |
MAGASINPRI | 0.000000 |
MAGASINQUE | 0.000000 |
MAGASINRAV | 0.000000 |
MAGASINSAL | 0.000000 |
MAGASINSEY | 0.000000 |
MAGASINSGL | 0.000000 |
MAGASINSNO | 0.000000 |
MAGASINSSM | 0.000000 |
MAGASINSTE | 0.000000 |
MAGASINSUR | 0.000000 |
MAGASINTHO | 0.000000 |
MAGASINVAL | 0.000000 |
MAGASINVIB | 0.000000 |
MAGASINVIC | 0.000000 |
MAGASINVIF | 0.000000 |
MAGASINVIT | 0.000000 |
MAGASINVLG | 0.000000 |
distance_bracet10-20 km
|
0.000000 |
distance_bracet20-50 km
|
0.000000 |
distance_bracet5-10 km
|
0.000000 |
distance_bracetplus de 50 km
|
0.000000 |
nb_visites_T1 | 0.000000 |
panier_moy_T1 | 0.000000 |
nb_visites_T2 | 0.000000 |
panier_moy_T2 | 0.000000 |
nb_visites_T3 | 0.000000 |
total_T3 | 0.000000 |
panier_moy_T3 | 0.000000 |
nb_visites_T4 | 0.000000 |
evol_CA_T1T2positive | 0.000000 |
evol_CA_T2T3positive | 0.000000 |
evol_CA_T3T4positive | 0.000000 |
evol_visites_T1T2positive | 0.000000 |
evol_visites_T2T3positive | 0.000000 |
evol_visites_T3T4positive | 0.000000 |
nb_article_u3 | 0.000000 |
ca_moyen_u3 | 0.000000 |
nb_article_u4 | 0.000000 |
total_u4 | 0.000000 |
ca_moyen_u4 | 0.000000 |
nb_article_u5 | 0.000000 |
total_u5 | 0.000000 |
ca_moyen_u5 | 0.000000 |
On retrouve dans ce tableau l'overall calculé pour chaque item de variables. Plus l'overall est élevé, plus les variables ont un impact important dans la modélisation.
1.4.1 CART Matrice de confusion
Actif | Churneurs | |
---|---|---|
Actif | 249 | 62 |
Churneurs | 31 | 71 |
Nous remarquons que l'algorithme CART d'arbre de décision classe assez bien les deux classes, .
1.4.2 CART ROC
2 Comparaison des modèles
Dans cette partie, nous voulons comparer les modèles suivants :- Régression Logistique
- Arbre de décision
2.1 Courbe de lift
La courbe de Lift permet de mettre en évidence la volumétrie de l'echantillion d'apprentissage à partir duquel notre modèle est le plus performant. Nous remarquons que lorsque le modèle a apris 50% de l'echantillion d'apprentissage, il a la meilleure performance. Les arbres de décisions ont tendance à devenir moins performant passé ce seuil, cela est dû au surapprentissage.
Nous en concluons que si nous voulons un modèle plus robuste nous pourrions par exemple réduire l'échantillon d'apprentissage et augmenter l'échantillion de test.
2.2 Courbe de ROC
Regression logistique AUC:
0.834855 |
CART AUC:
0.8374866 |
On remarque que l’arbre de décision, à travers l’aire sous la courbe, est plus performante que la régression logistique, de plus l’arbre de décision est plus stable.