В данном отчете мы детально проанализируем индекс счать, разделив все данные по двум важным коритериям - региону и отделу - что позволит выявить ключевые недостатки и плюсы по каждой из выбранных нами групп. В процессе составления прошлых отчетов по офисным сотрудникам, мы выявили неоднородность распределения и резкий перекос численности в данных в пользу Санкт-Петербурга, что не позволило бы нам в полной мере обобщить данные по всем регионам, а также для всех департаментов в целом.
Более глубокий анализ вносит свои корректировки, но в то же самое время налагает и ограничения из-за структуры имеющихся в нашем распоряжении данных.
Посмотрев на распределение офисных сотрудников, мы видим не только численный перевес в Санкт-Петербурге, но и разнообразие по отделам, чего нет в некоторых регионах.
Так как количество сотрудников других регионов невелико,а мы должны составить высокоточную модель предсказания- мы поробуем использовать разные модели выбора, посмотреть на точность, а затем выберем лучшую для каждого из отдельных выбранных нами групп-иследований и предскажем наиболее важные и не влияющие на уход сотрудника вопросы.
Среди моделей :
Отберем индексы и разделим по регионам:
По отделам:
## [1] "Управление цепочкой поставок (Закупки, Снабжение)"
## [2] "Департамент информационных технологий"
## [3] "Департамент персонала"
## [4] "Юридический отдел"
## [5] "Департамент эксплуатации"
## [6] "Стокист"
## [7] "Управление Директора по продажам"
## [8] "Департамент сервиса и рекламаций клиентов"
## [9] "Отдел предотвращения потерь"
## [10] "Другое (укажу в комментариях)"
## [11] "Администрация"
## [12] "Департамент операционного/территориального директора"
## [13] "Отдел продаж дистрибьюции"
## [14] "ЕРЦ (офис)"
## [15] "Департамент управления недвижимостью"
## [16] "Бухгалтерия и финансы"
## [17] "Коммерческий департамент (ОКМ, Планограммиование)"
## [18] "Транспортно-экспедиционный отдел"
## [19] "Договорной отдел"
Корреляция между вероятностью и желанием по регионам:
##
## Pearson's product-moment correlation
##
## data: Petersburg$f120 and Petersburg$f121
## t = 19.83, df = 258, p-value < 2.2e-16
## alternative hypothesis: true correlation is not equal to 0
## 95 percent confidence interval:
## 0.7238286 0.8210917
## sample estimates:
## cor
## 0.7770574
##
## Pearson's product-moment correlation
##
## data: Kazan$f120 and Kazan$f121
## t = 7.277, df = 34, p-value = 1.997e-08
## alternative hypothesis: true correlation is not equal to 0
## 95 percent confidence interval:
## 0.6076304 0.8826258
## sample estimates:
## cor
## 0.7803802
##
## Pearson's product-moment correlation
##
## data: Moscow$f120 and Moscow$f121
## t = 6.8725, df = 24, p-value = 4.158e-07
## alternative hypothesis: true correlation is not equal to 0
## 95 percent confidence interval:
## 0.6236452 0.9135062
## sample estimates:
## cor
## 0.8142891
##
## Pearson's product-moment correlation
##
## data: CZFO$f120 and CZFO$f121
## t = 2.1076, df = 14, p-value = 0.05357
## alternative hypothesis: true correlation is not equal to 0
## 95 percent confidence interval:
## -0.006506074 0.793453441
## sample estimates:
## cor
## 0.4907821
Выводы:
Оказывает ли влияние департамент, где работает сотрудник, на его оценку(рекомендацию прийти в компанию) по регионам ?
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f3) 18 133.2 7.398 1.489 0.0944 .
## Residuals 241 1197.6 4.969
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f3) 12 57.32 4.777 1.629 0.152
## Residuals 23 67.43 2.932
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f3) 5 60.89 12.178 1.627 0.199
## Residuals 20 149.72 7.486
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f3) 6 31.10 5.184 1.958 0.175
## Residuals 9 23.83 2.648
Выводы : Ни департамент сотрудника, ни город не влияет на его рекомендательную оценку компании.Только Санкт-Петербург и плинадлежащие ему офисы на 10% уровне значимости.
Оказывает ли влияние департамент, где работает сотрудник, на его желание сменить работу по регионам ?
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f3) 18 19.9 1.105 0.752 0.754
## Residuals 241 354.0 1.469
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f3) 12 16.09 1.341 1.177 0.354
## Residuals 23 26.21 1.140
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f3) 5 6.35 1.270 0.803 0.561
## Residuals 20 31.65 1.583
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f3) 6 8.271 1.379 1.111 0.426
## Residuals 9 11.167 1.241
Выводы: не оказывает ни в одном городе, ни в одном департаменте.
Оказывает ли влияние город, где размещен офис на его среднее значение о вероятности ухода по отделам ?
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f2) 6 8.20 1.367 0.653 0.687
## Residuals 40 83.75 2.094
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f2) 3 2 0.6667 0.492 0.69
## Residuals 31 42 1.3548
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f2) 4 2.614 0.6534 0.562 0.693
## Residuals 17 19.750 1.1618
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f2) 1 0.381 0.381 0.26 0.632
## Residuals 5 7.333 1.467
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f2) 1 0.503 0.5035 0.296 0.597
## Residuals 11 18.727 1.7025
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f2) 7 6.048 0.8639 0.933 0.496
## Residuals 30 27.768 0.9256
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f2) 1 0.758 0.7576 0.362 0.561
## Residuals 10 20.909 2.0909
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f2) 2 4.571 2.2857 2.526 0.16
## Residuals 6 5.429 0.9048
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f2) 1 2.45 2.45 1.089 0.373
## Residuals 3 6.75 2.25
## Df Sum Sq Mean Sq F value Pr(>F)
## as.factor(f2) 1 2.963 2.963 2.717 0.115
## Residuals 20 21.810 1.091
Вывод: нет, не оказывает.
Регионы Random Forests:
##
## Call:
## randomForest(formula = f121 ~ ., data = train1, proximity = TRUE)
## Type of random forest: regression
## Number of trees: 500
## No. of variables tried at each split: 14
##
## Mean of squared residuals: 2.245001
## % Var explained: -34.7
## Warning in randomForest.default(m, y, ...): The response has five or fewer
## unique values. Are you sure you want to do regression?
##
## Call:
## randomForest(formula = f121 ~ ., data = train2, proximity = TRUE)
## Type of random forest: regression
## Number of trees: 500
## No. of variables tried at each split: 14
##
## Mean of squared residuals: 0.9696118
## % Var explained: 31.34
## Warning in randomForest.default(m, y, ...): The response has five or fewer
## unique values. Are you sure you want to do regression?
##
## Call:
## randomForest(formula = f121 ~ ., data = train3, proximity = TRUE)
## Type of random forest: regression
## Number of trees: 500
## No. of variables tried at each split: 14
##
## Mean of squared residuals: 0.7266896
## % Var explained: 21.15
## Warning in randomForest.default(m, y, ...): The response has five or fewer
## unique values. Are you sure you want to do regression?
##
## Call:
## randomForest(formula = f121 ~ ., data = train5, proximity = TRUE)
## Type of random forest: regression
## Number of trees: 500
## No. of variables tried at each split: 14
##
## Mean of squared residuals: 1.243569
## % Var explained: 14.5
## Loaded gbm 2.1.8
## Warning in gbm.fit(x = x, y = y, offset = offset, distribution = distribution, :
## variable 1: f2 has no variation.
## gbm(formula = f121 ~ ., distribution = "gaussian", data = train1,
## n.trees = 130, interaction.depth = 44, n.minobsinnode = 5,
## shrinkage = 0.1, bag.fraction = 0.65, train.fraction = 1,
## verbose = FALSE, n.cores = NULL)
## A gradient boosted model with gaussian loss function.
## 130 iterations were performed.
## There were 42 predictors of which 29 had non-zero influence.
## var rel.inf
## f20 f20 14.6993912
## f26 f26 11.2715413
## f122 f122 7.9927058
## f3 f3 6.5907906
## f74 f74 6.0465596
## f108 f108 5.7572985
## f62 f62 5.5075172
## f4 f4 4.8765097
## f8 f8 4.0242185
## f77 f77 3.6216846
## f95 f95 3.3951275
## f50 f50 3.2334292
## f68 f68 2.5985102
## f41 f41 2.5038708
## f83 f83 2.3292334
## f29 f29 2.0953956
## f53 f53 1.7714419
## f56 f56 1.6507646
## f17 f17 1.5826239
## f38 f38 1.5396892
## f65 f65 1.2886861
## f14 f14 1.2169267
## f80 f80 1.1957902
## f32 f32 1.1566814
## f59 f59 0.6319318
## f86 f86 0.4926393
## f23 f23 0.3830028
## f92 f92 0.3668806
## f89 f89 0.1791579
## f2 f2 0.0000000
## f5 f5 0.0000000
## f11 f11 0.0000000
## f35 f35 0.0000000
## f44 f44 0.0000000
## f47 f47 0.0000000
## f71 f71 0.0000000
## f98 f98 0.0000000
## f102 f102 0.0000000
## f105 f105 0.0000000
## f111 f111 0.0000000
## f114 f114 0.0000000
## f117 f117 0.0000000
## gbm(formula = f121 ~ ., distribution = "gaussian", data = train1,
## n.trees = 130, interaction.depth = 44, n.minobsinnode = 5,
## shrinkage = 0.1, bag.fraction = 0.65, train.fraction = 1,
## verbose = FALSE, n.cores = NULL)
## A gradient boosted model with gaussian loss function.
## 130 iterations were performed.
## There were 42 predictors of which 28 had non-zero influence.
## var rel.inf
## f20 f20 12.4130447
## f4 f4 9.5449043
## f122 f122 9.3151488
## f26 f26 9.3018682
## f108 f108 7.3470670
## f3 f3 7.0230601
## f74 f74 7.0008493
## f8 f8 5.1717517
## f62 f62 4.7366503
## f56 f56 3.8890238
## f29 f29 3.4432249
## f77 f77 3.2294608
## f17 f17 2.9347603
## f83 f83 2.8398567
## f86 f86 1.3608396
## f95 f95 1.3161138
## f53 f53 1.2854051
## f50 f50 1.1311067
## f80 f80 1.0864169
## f41 f41 1.0633920
## f59 f59 0.9343996
## f38 f38 0.9231214
## f65 f65 0.8143063
## f68 f68 0.5842484
## f32 f32 0.4383553
## f92 f92 0.3829499
## f23 f23 0.3686896
## f89 f89 0.1199842
## f2 f2 0.0000000
## f5 f5 0.0000000
## f11 f11 0.0000000
## f14 f14 0.0000000
## f35 f35 0.0000000
## f44 f44 0.0000000
## f47 f47 0.0000000
## f71 f71 0.0000000
## f98 f98 0.0000000
## f102 f102 0.0000000
## f105 f105 0.0000000
## f111 f111 0.0000000
## f114 f114 0.0000000
## f117 f117 0.0000000
## gbm(formula = f121 ~ ., distribution = "gaussian", data = train2,
## n.trees = 130, interaction.depth = 44, n.minobsinnode = 5,
## shrinkage = 0.1, bag.fraction = 0.65, train.fraction = 1,
## verbose = FALSE, n.cores = NULL)
## A gradient boosted model with gaussian loss function.
## 130 iterations were performed.
## There were 42 predictors of which 42 had non-zero influence.
## var rel.inf
## f122 f122 8.631845889
## f71 f71 7.534415044
## f38 f38 5.989867042
## f74 f74 5.276158807
## f11 f11 5.251035627
## f4 f4 5.247338314
## f26 f26 4.922424738
## f59 f59 4.005126965
## f8 f8 3.873841959
## f86 f86 3.749602921
## f14 f14 3.011185335
## f68 f68 2.986894501
## f89 f89 2.745094607
## f3 f3 2.562150126
## f65 f65 2.388192819
## f108 f108 2.313684957
## f29 f29 2.303356217
## f83 f83 2.011116867
## f41 f41 1.908952109
## f95 f95 1.752941375
## f20 f20 1.621707249
## f92 f92 1.609180774
## f62 f62 1.514548486
## f98 f98 1.492419104
## f105 f105 1.442650098
## f32 f32 1.419984922
## f53 f53 1.329680274
## f80 f80 1.263791516
## f50 f50 1.134861668
## f17 f17 1.122012884
## f23 f23 1.083365646
## f77 f77 1.037222260
## f56 f56 1.018129891
## f47 f47 0.989489918
## f5 f5 0.898186684
## f117 f117 0.807263436
## f35 f35 0.620718824
## f102 f102 0.389540925
## f111 f111 0.280506465
## f114 f114 0.234551359
## f2 f2 0.220550059
## f44 f44 0.004411336
## gbm(formula = f121 ~ ., distribution = "gaussian", data = train3,
## n.trees = 130, interaction.depth = 44, n.minobsinnode = 5,
## shrinkage = 0.1, bag.fraction = 0.65, train.fraction = 1,
## verbose = FALSE, n.cores = NULL)
## A gradient boosted model with gaussian loss function.
## 130 iterations were performed.
## There were 42 predictors of which 33 had non-zero influence.
## var rel.inf
## f8 f8 13.77416485
## f80 f80 8.98963269
## f89 f89 7.38040237
## f122 f122 6.46841354
## f50 f50 4.81583486
## f3 f3 4.66057951
## f5 f5 4.32333275
## f4 f4 4.07420359
## f77 f77 4.03691776
## f32 f32 3.93625777
## f68 f68 3.89855844
## f17 f17 3.71671750
## f38 f38 3.69605027
## f29 f29 3.41886725
## f92 f92 2.73960854
## f86 f86 2.70433409
## f59 f59 2.66001592
## f56 f56 2.61191923
## f108 f108 2.48672044
## f23 f23 2.34720380
## f65 f65 1.87073420
## f47 f47 1.82474209
## f83 f83 0.90042178
## f41 f41 0.66746212
## f35 f35 0.42594669
## f14 f14 0.32409344
## f20 f20 0.27524148
## f11 f11 0.27415036
## f53 f53 0.26214758
## f26 f26 0.23979457
## f62 f62 0.14899104
## f95 f95 0.02863751
## f105 f105 0.01790196
## f2 f2 0.00000000
## f44 f44 0.00000000
## f71 f71 0.00000000
## f74 f74 0.00000000
## f98 f98 0.00000000
## f102 f102 0.00000000
## f111 f111 0.00000000
## f114 f114 0.00000000
## f117 f117 0.00000000
Удаленные работники :
## Warning in gbm.fit(x = x, y = y, offset = offset, distribution = distribution, :
## variable 2: f3 has no variation.
## gbm(formula = f121 ~ ., distribution = "gaussian", data = train1,
## n.trees = 130, interaction.depth = 44, n.minobsinnode = 5,
## shrinkage = 0.1, bag.fraction = 0.65, train.fraction = 1,
## verbose = FALSE, n.cores = NULL)
## A gradient boosted model with gaussian loss function.
## 130 iterations were performed.
## There were 42 predictors of which 35 had non-zero influence.
## var rel.inf
## f98 f98 10.32497223
## f108 f108 9.46962868
## f59 f59 9.37638994
## f105 f105 8.85328051
## f83 f83 8.76411563
## f65 f65 5.77465144
## f92 f92 5.40893750
## f2 f2 4.98056831
## f38 f38 4.87160880
## f4 f4 4.29204018
## f50 f50 3.51043007
## f5 f5 3.40614857
## f122 f122 3.16974934
## f23 f23 2.50678797
## f53 f53 2.05661749
## f26 f26 2.05458136
## f56 f56 1.94483354
## f17 f17 1.89643181
## f77 f77 1.46508420
## f14 f14 0.93846921
## f95 f95 0.82999760
## f20 f20 0.65383091
## f41 f41 0.60324123
## f74 f74 0.54619760
## f89 f89 0.49837798
## f86 f86 0.42993340
## f8 f8 0.38829704
## f29 f29 0.30663935
## f71 f71 0.25376167
## f11 f11 0.15941732
## f62 f62 0.11495020
## f80 f80 0.06241222
## f32 f32 0.05453859
## f35 f35 0.01940862
## f47 f47 0.01366948
## f3 f3 0.00000000
## f44 f44 0.00000000
## f68 f68 0.00000000
## f102 f102 0.00000000
## f111 f111 0.00000000
## f114 f114 0.00000000
## f117 f117 0.00000000
## Using 130 trees...
## Warning in predict.gbm(object = mod_gbm, newdata = test1): NAs introduced by
## coercion
Департамент персонала:
## gbm(formula = f121 ~ ., distribution = "gaussian", data = train1,
## n.trees = 130, interaction.depth = 44, n.minobsinnode = 5,
## shrinkage = 0.1, bag.fraction = 0.65, train.fraction = 1,
## verbose = FALSE, n.cores = NULL)
## A gradient boosted model with gaussian loss function.
## 130 iterations were performed.
## There were 42 predictors of which 35 had non-zero influence.
## var rel.inf
## f62 f62 12.58674308
## f59 f59 11.89047249
## f92 f92 10.36667788
## f8 f8 6.88338439
## f56 f56 6.64208356
## f29 f29 6.22677764
## f38 f38 5.75724597
## f122 f122 5.74658350
## f4 f4 5.54871183
## f95 f95 3.52116235
## f35 f35 2.95838807
## f86 f86 2.29834711
## f68 f68 2.24221424
## f77 f77 1.97331113
## f23 f23 1.96635668
## f89 f89 1.91859270
## f65 f65 1.70071010
## f20 f20 1.68236098
## f74 f74 1.22113165
## f50 f50 1.19150506
## f26 f26 1.12593000
## f80 f80 0.75245706
## f53 f53 0.73609990
## f108 f108 0.68781998
## f71 f71 0.54087103
## f32 f32 0.48584189
## f17 f17 0.41989015
## f11 f11 0.23467696
## f98 f98 0.17652987
## f117 f117 0.17006681
## f2 f2 0.13861865
## f41 f41 0.07647489
## f83 f83 0.05290946
## f14 f14 0.04032910
## f5 f5 0.03872385
## f3 f3 0.00000000
## f44 f44 0.00000000
## f47 f47 0.00000000
## f102 f102 0.00000000
## f105 f105 0.00000000
## f111 f111 0.00000000
## f114 f114 0.00000000
IT
## Warning in gbm.fit(x = x, y = y, offset = offset, distribution = distribution, :
## variable 2: f3 has no variation.
## var rel.inf
## f120 f120 41.54434556
## f117 f117 12.62264587
## f38 f38 5.41791060
## f14 f14 3.57129970
## f41 f41 3.12240829
## f108 f108 2.86647943
## f5 f5 2.78482831
## f86 f86 2.75485434
## f23 f23 2.74963374
## f4 f4 2.60654684
## f29 f29 2.49399654
## f111 f111 2.44671640
## f20 f20 2.42618565
## f56 f56 2.08822671
## f98 f98 1.50929191
## f26 f26 1.44175297
## f83 f83 1.20387209
## f105 f105 1.18356130
## f35 f35 0.91869400
## f77 f77 0.71411428
## f62 f62 0.68831735
## f68 f68 0.68405674
## f74 f74 0.41167757
## f92 f92 0.37496829
## f71 f71 0.29367101
## f59 f59 0.24699254
## f122 f122 0.19657151
## f53 f53 0.17784234
## f65 f65 0.10695738
## f8 f8 0.09528423
## f47 f47 0.08779030
## f80 f80 0.05359588
## f32 f32 0.04964150
## f50 f50 0.04853100
## f95 f95 0.01673782
## f2 f2 0.00000000
## f3 f3 0.00000000
## f11 f11 0.00000000
## f17 f17 0.00000000
## f44 f44 0.00000000
## f89 f89 0.00000000
## f102 f102 0.00000000
## f114 f114 0.00000000
Управление Директора по продажам
## Warning in gbm.fit(x = x, y = y, offset = offset, distribution = distribution, :
## variable 2: f3 has no variation.
## var rel.inf
## f120 f120 18.0452344
## f98 f98 8.3079826
## f38 f38 5.9249465
## f4 f4 5.4200623
## f11 f11 5.3266876
## f56 f56 4.8139627
## f8 f8 4.6637486
## f59 f59 4.4096231
## f17 f17 4.1787771
## f80 f80 3.9572624
## f53 f53 3.6110416
## f71 f71 3.3912949
## f77 f77 3.0380716
## f29 f29 2.5746796
## f5 f5 2.5525234
## f32 f32 2.4592240
## f14 f14 2.4571039
## f47 f47 2.1801076
## f65 f65 2.1177748
## f41 f41 1.8082003
## f122 f122 1.4704110
## f26 f26 1.4459573
## f35 f35 1.2098394
## f74 f74 1.1818540
## f92 f92 1.0694714
## f86 f86 0.9025459
## f23 f23 0.7054291
## f89 f89 0.6408959
## f20 f20 0.1352871
## f2 f2 0.0000000
## f3 f3 0.0000000
## f44 f44 0.0000000
## f50 f50 0.0000000
## f62 f62 0.0000000
## f68 f68 0.0000000
## f83 f83 0.0000000
## f95 f95 0.0000000
## f102 f102 0.0000000
## f105 f105 0.0000000
## f108 f108 0.0000000
## f111 f111 0.0000000
## f114 f114 0.0000000
## f117 f117 0.0000000
Департамент сервиса и рекламаций клиентов
## Warning in gbm.fit(x = x, y = y, offset = offset, distribution = distribution, :
## variable 2: f3 has no variation.
## Warning in gbm.fit(x = x, y = y, offset = offset, distribution = distribution, :
## variable 36: f102 has no variation.
## Warning in gbm.fit(x = x, y = y, offset = offset, distribution = distribution, :
## variable 40: f114 has no variation.
## var rel.inf
## f120 f120 30.5085091
## f4 f4 28.8869029
## f86 f86 5.8771582
## f122 f122 5.2137765
## f83 f83 5.0823688
## f47 f47 4.9802044
## f26 f26 1.9465446
## f8 f8 1.9320211
## f59 f59 1.8770343
## f23 f23 1.5226377
## f50 f50 1.4011860
## f74 f74 1.3776136
## f68 f68 1.3264849
## f5 f5 1.1206790
## f35 f35 1.1018166
## f92 f92 1.0614002
## f89 f89 0.9998529
## f20 f20 0.9807973
## f108 f108 0.8062499
## f71 f71 0.5831835
## f38 f38 0.4538159
## f2 f2 0.3204917
## f32 f32 0.2527643
## f17 f17 0.2031991
## f95 f95 0.1833074
## f3 f3 0.0000000
## f11 f11 0.0000000
## f14 f14 0.0000000
## f29 f29 0.0000000
## f41 f41 0.0000000
## f44 f44 0.0000000
## f53 f53 0.0000000
## f56 f56 0.0000000
## f62 f62 0.0000000
## f65 f65 0.0000000
## f77 f77 0.0000000
## f80 f80 0.0000000
## f98 f98 0.0000000
## f102 f102 0.0000000
## f105 f105 0.0000000
## f111 f111 0.0000000
## f114 f114 0.0000000
## f117 f117 0.0000000
Департамент операционного/территориального директора
## Warning in gbm.fit(x = x, y = y, offset = offset, distribution = distribution, :
## variable 2: f3 has no variation.
## var rel.inf
## f120 f120 12.5700132
## f50 f50 12.3783897
## f95 f95 9.3042463
## f56 f56 9.1405176
## f41 f41 8.0873165
## f17 f17 5.7694894
## f89 f89 5.4272766
## f86 f86 4.8759748
## f38 f38 4.4040301
## f8 f8 4.2214901
## f20 f20 3.7540109
## f4 f4 3.1930946
## f108 f108 2.6982953
## f83 f83 2.4042041
## f122 f122 2.2991467
## f23 f23 1.1941886
## f80 f80 1.0464051
## f105 f105 1.0175367
## f11 f11 0.9972647
## f29 f29 0.8016494
## f92 f92 0.7701032
## f47 f47 0.7675287
## f68 f68 0.5767158
## f14 f14 0.5313456
## f65 f65 0.4395627
## f62 f62 0.4258605
## f35 f35 0.2233003
## f5 f5 0.1933347
## f59 f59 0.1729156
## f77 f77 0.1287646
## f2 f2 0.1006113
## f32 f32 0.0854165
## f3 f3 0.0000000
## f26 f26 0.0000000
## f44 f44 0.0000000
## f53 f53 0.0000000
## f71 f71 0.0000000
## f74 f74 0.0000000
## f98 f98 0.0000000
## f102 f102 0.0000000
## f111 f111 0.0000000
## f114 f114 0.0000000
## f117 f117 0.0000000
Управление цепочкой поставок (Закупки, Снабжение)
## Warning in gbm.fit(x = x, y = y, offset = offset, distribution = distribution, :
## variable 2: f3 has no variation.
## var rel.inf
## f120 f120 32.83162110
## f4 f4 12.49083118
## f92 f92 10.33729197
## f62 f62 9.71698281
## f86 f86 7.48322428
## f47 f47 5.04932665
## f80 f80 3.26954853
## f77 f77 2.50384898
## f122 f122 2.13828897
## f95 f95 1.85859995
## f71 f71 1.85392787
## f68 f68 1.57606341
## f5 f5 1.14825150
## f98 f98 1.09564283
## f8 f8 0.93182536
## f32 f32 0.79897500
## f41 f41 0.77443382
## f50 f50 0.74395507
## f108 f108 0.73302062
## f89 f89 0.63112070
## f65 f65 0.61671966
## f35 f35 0.48194064
## f23 f23 0.41695213
## f26 f26 0.26704897
## f38 f38 0.18892935
## f74 f74 0.06162865
## f2 f2 0.00000000
## f3 f3 0.00000000
## f11 f11 0.00000000
## f14 f14 0.00000000
## f17 f17 0.00000000
## f20 f20 0.00000000
## f29 f29 0.00000000
## f44 f44 0.00000000
## f53 f53 0.00000000
## f56 f56 0.00000000
## f59 f59 0.00000000
## f83 f83 0.00000000
## f102 f102 0.00000000
## f105 f105 0.00000000
## f111 f111 0.00000000
## f114 f114 0.00000000
## f117 f117 0.00000000
## Warning in gbm.fit(x = x, y = y, offset = offset, distribution = distribution, :
## variable 1: f2 has no variation.
## Warning in gbm.fit(x = x, y = y, offset = offset, distribution = distribution, :
## variable 2: f3 has no variation.
## var rel.inf
## f4 f4 31.43533214
## f59 f59 24.01266798
## f20 f20 12.85794384
## f111 f111 7.94951714
## f56 f56 4.04401020
## f50 f50 2.57681950
## f17 f17 2.38219329
## f92 f92 2.34564995
## f89 f89 1.92660216
## f98 f98 1.65379132
## f108 f108 1.35317877
## f95 f95 1.20796728
## f47 f47 0.95530975
## f26 f26 0.71157341
## f23 f23 0.66745931
## f71 f71 0.61204093
## f5 f5 0.58560588
## f105 f105 0.49697978
## f53 f53 0.49220129
## f35 f35 0.38306333
## f8 f8 0.32717037
## f86 f86 0.25442628
## f117 f117 0.18517259
## f29 f29 0.18074831
## f32 f32 0.13356311
## f41 f41 0.08577669
## f65 f65 0.08501817
## f62 f62 0.06928319
## f11 f11 0.02893404
## f2 f2 0.00000000
## f3 f3 0.00000000
## f14 f14 0.00000000
## f38 f38 0.00000000
## f44 f44 0.00000000
## f68 f68 0.00000000
## f74 f74 0.00000000
## f77 f77 0.00000000
## f80 f80 0.00000000
## f83 f83 0.00000000
## f102 f102 0.00000000
## f114 f114 0.00000000
## f120 f120 0.00000000
## f122 f122 0.00000000
Из-за малого количества данных, система предсказаний не сможет выявить вопросы, пользующихся особым интересом у работников.Поэтому проанализируем их отдельно.
Total number = 11;
Так как количество доступных данных у нас ограничено - мы попробуем не прибегать к малоинформативным данным из опросника. Попробуем смотреть на разности по каждому из вопросов, разделив группы людей по ответам.
Департамент эксплуатации: f4;f20 ;f120;f41;f95
## # A tibble: 4 × 42
## f121 f4 f5 f8 f11 f14 f17 f20 f23 f26 f29 f32 f35
## <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 1 85.3 5 5 4.67 3.67 4 2 4 2.67 4.33 3.67 4.67
## 2 2 120 4 4 3 4 4 5 4 3 5 3 5
## 3 3 71.8 4.25 4.25 4.5 3.5 3.25 4.5 3.5 2 2.5 2.75 4.25
## 4 4 104 4 5 3 5 4 5 5 1 4 4 5
## # … with 29 more variables: f38 <dbl>, f41 <dbl>, f44 <dbl>, f47 <dbl>,
## # f50 <dbl>, f53 <dbl>, f56 <dbl>, f59 <dbl>, f62 <dbl>, f65 <dbl>,
## # f68 <dbl>, f71 <dbl>, f74 <dbl>, f77 <dbl>, f80 <dbl>, f83 <dbl>,
## # f86 <dbl>, f89 <dbl>, f92 <dbl>, f95 <dbl>, f98 <dbl>, f102 <dbl>,
## # f105 <dbl>, f108 <dbl>, f111 <dbl>, f114 <dbl>, f117 <dbl>, f120 <dbl>,
## # f122 <dbl>
## f121 f4 f5 f8 f11 f14 f17
## 3.0000000 48.2500000 1.0000000 1.0000000 1.6666667 1.5000000 0.7500000
## f20 f23 f26 f29 f32 f35 f38
## 3.0000000 1.5000000 2.0000000 2.5000000 1.2500000 0.7500000 1.0000000
## f41 f44 f47 f50 f53 f56 f59
## 2.3333333 0.0000000 1.2500000 1.7500000 1.0000000 0.6666667 1.3333333
## f62 f65 f68 f71 f74 f77 f80
## 1.0000000 2.0000000 1.0000000 1.0000000 1.0000000 2.0000000 2.0000000
## f83 f86 f89 f92 f95 f98 f102
## 1.2500000 2.0000000 1.5000000 1.7500000 2.1666667 2.0000000 0.6666667
## f105 f108 f111 f114 f117 f120 f122
## 1.2500000 1.0000000 1.2500000 0.6666667 1.5000000 3.0000000 2.0000000
Отдел предотвращения потерь : f122;f50=f5=f56=f108=f86=f41=f92=f95
## # A tibble: 5 × 42
## f121 f4 f5 f8 f11 f14 f17 f20 f23 f26 f29 f32 f35
## <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 1 94.2 4.88 4.5 4.88 4.25 4.25 4.5 4.75 3.75 4.25 4 4.38
## 2 2 107 5 4 5 4 3 4 5 3 5 3 5
## 3 3 7 5 4 5 2 4 3 5 5 4 3 5
## 4 4 56 5 5 5 4 4 4 5 3 4 4 5
## 5 5 34 1 5 5 3 3 5 5 1 2 3 5
## # … with 29 more variables: f38 <dbl>, f41 <dbl>, f44 <dbl>, f47 <dbl>,
## # f50 <dbl>, f53 <dbl>, f56 <dbl>, f59 <dbl>, f62 <dbl>, f65 <dbl>,
## # f68 <dbl>, f71 <dbl>, f74 <dbl>, f77 <dbl>, f80 <dbl>, f83 <dbl>,
## # f86 <dbl>, f89 <dbl>, f92 <dbl>, f95 <dbl>, f98 <dbl>, f102 <dbl>,
## # f105 <dbl>, f108 <dbl>, f111 <dbl>, f114 <dbl>, f117 <dbl>, f120 <dbl>,
## # f122 <dbl>
## f121 f4 f5 f8 f11 f14 f17 f20 f23 f26
## 4.000 100.000 4.000 1.000 0.125 2.250 1.250 2.000 0.250 4.000
## f29 f32 f35 f38 f41 f44 f47 f50 f53 f56
## 3.000 1.000 0.625 2.000 4.000 0.000 0.125 4.000 0.125 4.000
## f59 f62 f65 f68 f71 f74 f77 f80 f83 f86
## 3.125 0.250 3.000 1.000 2.000 2.000 0.500 4.000 1.000 4.000
## f89 f92 f95 f98 f102 f105 f108 f111 f114 f117
## 4.000 4.000 4.000 1.000 0.000 0.000 4.000 0.000 0.000 0.000
## f120 f122
## 4.000 7.000
Администрация :
## f121 f4 f5 f8 f11 f14 f17 f20
## 3.000000 73.000000 2.000000 2.000000 3.000000 2.000000 1.000000 2.000000
## f23 f26 f29 f32 f35 f38 f41 f44
## 3.000000 1.000000 2.000000 2.000000 1.000000 1.250000 4.000000 0.000000
## f47 f50 f53 f56 f59 f62 f65 f68
## 1.000000 4.000000 2.000000 3.000000 4.000000 2.000000 4.000000 2.000000
## f71 f74 f77 f80 f83 f86 f89 f92
## 2.000000 2.000000 3.000000 2.000000 2.000000 4.000000 2.000000 3.000000
## f95 f98 f102 f105 f108 f111 f114 f117
## 2.000000 1.333333 1.000000 2.000000 2.000000 3.000000 1.000000 2.000000
## f120 f122
## 2.000000 5.000000
Департамент управления недвижимостью
## f121 f4 f5 f8 f11 f14 f17 f20 f23 f26 f29 f32 f35 f38 f41 f44
## 3 105 1 1 0 2 1 3 0 2 2 3 1 2 3 1
## f47 f50 f53 f56 f59 f62 f65 f68 f71 f74 f77 f80 f83 f86 f89 f92
## 1 1 1 4 2 0 3 1 3 2 0 1 4 4 3 3
## f95 f98 f102 f105 f108 f111 f114 f117 f120 f122
## 3 2 0 1 1 1 0 0 3 5
Коммерческий департамент (ОКМ, Планограммиование)
## f121 f4 f5 f8 f11 f14 f17 f20
## 4.000000 64.166667 2.666667 2.000000 1.000000 1.166667 3.000000 1.166667
## f23 f26 f29 f32 f35 f38 f41 f44
## 2.750000 3.000000 2.166667 2.000000 1.666667 2.666667 2.333333 0.500000
## f47 f50 f53 f56 f59 f62 f65 f68
## 2.000000 3.333333 4.000000 2.666667 3.666667 4.000000 2.333333 1.000000
## f71 f74 f77 f80 f83 f86 f89 f92
## 2.000000 3.000000 4.000000 3.000000 1.666667 2.833333 1.500000 2.500000
## f95 f98 f102 f105 f108 f111 f114 f117
## 1.750000 1.000000 1.000000 2.500000 3.000000 2.000000 1.000000 1.000000
## f120 f122
## 2.000000 5.000000
Договорной отдел
## f121 f4 f5 f8 f11 f14 f17 f20 f23 f26 f29 f32 f35
## 3.0 102.0 1.5 1.0 0.0 1.0 2.0 2.0 1.0 1.5 0.5 1.0 0.5
## f38 f41 f44 f47 f50 f53 f56 f59 f62 f65 f68 f71 f74
## 0.5 1.5 0.0 0.0 1.5 0.0 1.0 1.5 0.5 1.5 1.0 0.5 1.5
## f77 f80 f83 f86 f89 f92 f95 f98 f102 f105 f108 f111 f114
## 0.5 1.0 1.5 1.0 0.5 0.0 0.5 0.5 0.5 0.5 1.0 0.5 0.0
## f117 f120 f122
## 0.5 3.0 1.0
Юридический
## f121 f4 f5 f8 f11 f14 f17 f20 f23 f26 f29 f32 f35 f38 f41 f44
## 3.0 58.0 1.0 2.0 1.0 1.0 1.5 2.0 1.5 2.5 2.0 1.5 0.5 2.5 2.0 0.0
## f47 f50 f53 f56 f59 f62 f65 f68 f71 f74 f77 f80 f83 f86 f89 f92
## 2.0 2.0 2.0 1.0 0.5 2.5 2.0 0.5 1.5 0.5 3.0 2.5 2.5 3.0 1.5 1.0
## f95 f98 f102 f105 f108 f111 f114 f117 f120 f122
## 3.0 1.0 0.5 1.5 2.0 2.0 1.0 2.0 2.5 0.5
ЕРЦ Оффис
## f121 f4 f5 f8 f11 f14 f17 f20 f23 f26 f29 f32 f35
## 4.0 154.5 3.0 2.0 1.5 1.5 2.0 1.8 2.0 4.0 2.0 1.8 2.0
## f38 f41 f44 f47 f50 f53 f56 f59 f62 f65 f68 f71 f74
## 2.4 3.5 0.0 1.0 2.0 2.0 3.0 3.0 0.6 3.0 2.0 2.0 1.0
## f77 f80 f83 f86 f89 f92 f95 f98 f102 f105 f108 f111 f114
## 2.0 4.0 3.0 4.0 1.0 4.0 3.5 2.0 2.0 2.0 4.0 1.5 0.0
## f117 f120 f122
## 2.0 4.0 5.0
## f121 f4 f5 f8 f11 f14 f17 f20 f23 f26 f29 f32 f35
## 4.0 154.5 3.0 2.0 1.5 1.5 2.0 1.8 2.0 4.0 2.0 1.8 2.0
## f38 f41 f44 f47 f50 f53 f56 f59 f62 f65 f68 f71 f74
## 2.4 3.5 0.0 1.0 2.0 2.0 3.0 3.0 0.6 3.0 2.0 2.0 1.0
## f77 f80 f83 f86 f89 f92 f95 f98 f102 f105 f108 f111 f114
## 2.0 4.0 3.0 4.0 1.0 4.0 3.5 2.0 2.0 2.0 4.0 1.5 0.0
## f117 f120 f122
## 2.0 4.0 5.0
Бухгалтерия и финансы
## f121 f4 f5 f8 f11 f14 f17
## 3.0000000 72.3333333 1.0714286 2.0000000 0.6666667 1.5714286 0.6190476
## f20 f23 f26 f29 f32 f35 f38
## 1.5714286 1.5000000 1.1428571 1.5714286 1.5714286 0.8571429 2.2857143
## f41 f44 f47 f50 f53 f56 f59
## 0.7142857 0.3333333 1.0000000 1.2142857 1.0000000 1.8571429 2.1428571
## f62 f65 f68 f71 f74 f77 f80
## 0.6666667 1.2857143 1.0000000 1.1904762 1.8571429 1.5714286 1.7857143
## f83 f86 f89 f92 f95 f98 f102
## 1.5000000 1.1428571 3.0714286 1.9047619 1.7142857 0.5714286 1.5000000
## f105 f108 f111 f114 f117 f120 f122
## 1.5000000 2.7142857 2.0000000 1.0000000 1.0000000 2.0000000 5.0714286
Транспортно-экспедиционный отдел
## f121 f4 f5 f8 f11 f14 f17 f20 f23 f26 f29 f32 f35
## 3.0 461.0 1.2 1.0 0.2 2.0 2.0 2.0 4.0 0.2 2.0 1.0 0.6
## f38 f41 f44 f47 f50 f53 f56 f59 f62 f65 f68 f71 f74
## 0.8 1.8 0.2 0.8 2.8 0.4 1.2 2.4 0.0 3.4 0.0 1.0 1.6
## f77 f80 f83 f86 f89 f92 f95 f98 f102 f105 f108 f111 f114
## 2.0 3.0 3.4 2.8 2.0 0.6 2.0 2.0 2.0 0.4 3.0 1.2 0.4
## f117 f120 f122
## 0.2 1.2 4.8
Real estimates
## # A tibble: 19 × 40
## f3 f6 f9 f12 f15 f18 f21 f24 f27 f30 f33 f36 f39
## <chr> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 Адми… 5 5 4.89 5 4.89 4.67 5 4.78 4.89 4.56 4.78 4.89
## 2 Бухг… 4.74 4.68 4.68 4.74 4.68 4.47 4.79 4.42 4.68 4.53 4.79 4.74
## 3 Депа… 4.57 4.91 4.74 4.74 4.51 4.2 4.77 4.29 4.49 4.46 4.63 4.8
## 4 Депа… 4.36 4.89 4.68 4.89 4.61 4.46 4.71 4.64 4.89 4.86 4.89 4.82
## 5 Депа… 4.61 4.95 4.84 4.95 4.79 4.63 4.84 4.68 4.82 4.82 4.87 4.79
## 6 Депа… 4.79 4.92 4.92 5 4.96 4.92 4.96 4.83 5 4.96 4.83 4.96
## 7 Депа… 5 5 5 4.75 4.5 4 5 4.75 5 4.75 5 4.5
## 8 Депа… 4.56 4.78 4.67 4.67 4.56 4.11 4.56 4.33 4.78 4.78 4.78 4.89
## 9 Дого… 5 5 5 5 5 5 5 5 5 4.83 4.83 5
## 10 Друг… 4.96 4.85 4.89 4.87 4.89 4.72 4.96 4.64 4.94 4.83 4.89 4.96
## 11 ЕРЦ … 4.91 4.91 4.82 4.45 4.64 4.64 5 4.82 4.91 4.82 5 4.64
## 12 Комм… 4.69 4.77 4.69 4.92 4.77 4.77 4.69 4.62 4.85 4.77 4.85 4.92
## 13 Отде… 4.58 4.92 4.83 4.83 4.67 4.33 4.92 4.75 4.83 4.83 4.83 4.67
## 14 Отде… 4.6 5 5 5 4.4 4.6 4.6 5 4.8 4.6 5 5
## 15 Сток… 4.5 4.91 4.86 4.91 4.64 4.82 4.91 4.59 4.82 4.82 4.77 4.86
## 16 Тран… 4.86 4.71 5 5 5 5 4.86 5 4.86 4.71 4.71 5
## 17 Упра… 4.82 4.91 4.86 4.91 4.77 4.59 4.68 4.55 4.82 4.82 4.91 5
## 18 Упра… 4.77 4.73 4.95 5 4.91 4.77 4.95 4.64 4.82 4.82 4.95 5
## 19 Юрид… 4.8 4.8 4.8 4.6 4.8 4.4 4.8 5 4.8 5 4.6 5
## # … with 27 more variables: f42 <dbl>, f45 <dbl>, f48 <dbl>, f51 <dbl>,
## # f54 <dbl>, f57 <dbl>, f60 <dbl>, f63 <dbl>, f66 <dbl>, f69 <dbl>,
## # f72 <dbl>, f75 <dbl>, f78 <dbl>, f81 <dbl>, f84 <dbl>, f87 <dbl>,
## # f90 <dbl>, f93 <dbl>, f96 <dbl>, f99 <dbl>, f103 <dbl>, f106 <dbl>,
## # f109 <dbl>, f112 <dbl>, f115 <dbl>, f118 <dbl>, f121 <dbl>
По итогам анализа выявленно, что регион сотрудника имеет значимое влияние на решение остаться в кампании или уйти, равно как и отдел, поэтому мы решили рассмотреть отдельно все регионы и отделы, чтобы выявить наиболее важные вопросы, решение которых, может заметно улучшить положение работников, устранить проблемы и сократить отток.
Регионы: место работы сотрудников иммеет значимое влияние при выставлении оценок по уходу из компании.Это могут быть различия в зарплате по регионам, условие труда, начальство и многие другие параметры, однако, в ограниченном контексте, мы проанализировали одинаковые вопросы, заданные участникам разных регионов и выяснили, что выделяют сотрудники каждого из них.
Санкт-Петербург-Псков-Великий Новгород: В опросе приняли участие 260 человек.Наиболее важными, с точки зрения офисных сотрудников данного региона, являются вопросы о:
Уровень стресса вне работы
Скорость принятия решений
eNPS -проекомендует ли он свою работу
Подразделение компании
Привязанность к компании
Руководитель_Внимание к карьерному развитию
Понятные задачи
Москва:
Уровень стресса вне работы
Стаж
eNPS -проекомендует ли он свою работу
Скорость принятия решений
Руководитель_Внимание к карьерному развитию
Подразделение компании
Привязанность к компании
Казань-Уфа:
eNPS-проекомендует ли он свою работу
Перспективы компании
Справедливость вознаграждения
Привязанность к компании
График работы
Стаж
Скорость принятия решени
Карьерный рост по результатам работы
Данные критерии определяют от (55% - 80% всех закономерностей при выборе сотрудника об уходе с работы).Как мы видим, многие показатели повторяются.Их мы проанализируем отдельно по комментариям, которые нам доступны.
Отделы:
Не во всех отделах достаточно данных для анализа, поэтому, мы использовали алгоритм только для отделов, где число принявших участие превышало 40 человек.
Важность вопросов:
Удаленные работники:
Готовность делать больше
Руководитель_Внимание к карьерному развитию
Карьерный рост по результатам работы
Руководитель_Обратная связь
Новые технологии и решения
Высшее руководство
Скорость принятия решени
Реализация лидерских качеств
Департамент персонала:
Понятные задачи
Карьерный рост по результатам работы
Реализация лидерских качеств
Руководитель_Обратная связь
Характер работы
Влияние на решения
Ресурсы для работы
Справедливость вознаграждения
IT
Руководитель_Цели и задачи
Справедливость вознаграждения
Качество жизни
Социальный пакет
Руководитель_Внимание к карьерному развитию
Управление Директора по продажам:
Готовность делать больше
Справедливость вознаграждения
Стаж
График работы
Влияние на решения
Характер работы
Карьерный рост по результатам работы
PR:Департамент сервиса и рекламаций клиентов
Задумывались о смене места работы
Стаж
Обучение
eNPS
Новые технологии и решения
Прозрачность заработной платы
Скорость принятия решений
Характер работы
Департамент операционного/территориального директора:
Признание
Поддержка от других подразделений
Влияние на решения
Социальный пакет
Уровень стресса на работе
Профессиональный рост
Скорость принятия решений
Обучение
Управление цепочкой поставок (Закупки, Снабжение):
Признание
Поддержка от других подразделений
Влияние на решения
Социальный пакет
Уровень стресса на работе
Профессиональный рост
Скорость принятия решений
Обучение
Управление цепочкой поставок (Закупки, Снабжение)
Задумывались о смене места работы
Стаж
Реализация лидерских качеств
Понятные задачи
Обучение
Прозрачность заработной платы
Возможность высказать и реализовать идеи
Возможность высказать мнение
Стокист:
Стаж
Карьерный рост по результатам работы
Уровень стресса вне работы
Руководитель_Информирование
Обучение
Влияние на решения
Признание
Уровень стресса на работе
Реализация лидерских качеств
NLP-анализ: категоризация важных признаков:Sentiment analysis
Текстовый анализ по отделам:
Попробуем проанализировать эмоциональную окраску (оценку, sentiment) отзывов по вопросам. Для этого будем использовать словарь оценочной лексики Четверкина.## Loading required package: koRpus.lang.en
## Loading required package: koRpus
## Loading required package: sylly
## For information on available language packages for 'koRpus', run
##
## available.koRpus.lang()
##
## and see ?install.koRpus.lang()
##
## Attaching package: 'koRpus'
## The following object is masked from 'package:readr':
##
## tokenize
##
## Attaching package: 'reshape2'
## The following object is masked from 'package:tidyr':
##
## smiths
## Joining, by = "words"
## # A tibble: 19 × 2
## f3 mean
## <dbl> <dbl>
## 1 12 0.356
## 2 11 0.351
## 3 6 0.347
## 4 4 0.337
## 5 19 0.336
## 6 7 0.336
## 7 17 0.333
## 8 5 0.332
## 9 10 0.331
## 10 15 0.322
## 11 3 0.318
## 12 18 0.314
## 13 9 0.311
## 14 16 0.300
## 15 13 0.299
## 16 8 0.294
## 17 1 0.268
## 18 2 0.261
## 19 14 0.193
## [1] Департамент информационных технологий
## [2] Другое (укажу в комментариях)
## [3] Департамент операционного/территориального директора
## [4] Управление цепочкой поставок (Закупки, Снабжение)
## [5] Управление Директора по продажам
## [6] Стокист
## [7] Департамент персонала
## [8] Департамент сервиса и рекламаций клиентов
## [9] Департамент управления недвижимостью
## [10] Коммерческий департамент (ОКМ, Планограммиование)
## [11] Департамент эксплуатации
## [12] Юридический отдел
## [13] Договорной отдел
## [14] Отдел предотвращения потерь
## [15] Бухгалтерия и финансы
## [16] ЕРЦ (офис)
## [17] Транспортно-экспедиционный отдел
## [18] Отдел продаж дистрибьюции
## [19] Администрация
## 19 Levels: Администрация ... Юридический отдел
## [1] 3 3 3 3 4 4 4 18 18 18 18 17 15 17 17 17 6 10 10 4 4 4 4 3
## [25] 17 17 15 3 3 5 5 5 5 5 10 10 4 10 10 10 10 5 5 10 4 4 4 4
## [49] 4 4 4 4 4 4 4 4 3 3 3 3 12 12 12 12 12 12 12 12 3 8 19 3
## [73] 5 5 5 15 15 9 9 4 10 10 10 10 5 5 4 4 15 15 15 15 15 15 15 15
## [97] 15 5 5 5 17 17 10 10 5 5 5 12 15 15 18 18 15 15 17 17 10 10 10 10
## [121] 10 10 10 10 18 18 15 15 5 5 18 12 12 11 10 3 3 3 4 17 17 17 17 17
## [145] 5 17 17 17 17 17 5 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10 10
## [169] 4 4 4 12 12 12 4 7 7 7 15 15 15 5 2 10 10 10 5 5 5 18 18 18
## [193] 10 3 5 5 5 5 5 5 5 5 5 5 7 8 8 8 8 10 10 10 10 10 10 3
## [217] 3 3 8 8 8 4 4 4 4 4 7 7 7 7 5 5 5 8 8 4 17 12 12 5
## [241] 5 11 11 3 3 3 17 17 3 3 5 5 5 4 4 4 10 19 15 7 7 15 10 10
## [265] 18 18 5 5 3 3 3 17 10 8 8 4 4 4 4 4 4 4 15 15 4 4 4 4
## [289] 4 15 15 13 18 18 18 18 18 18 18 3 10 10 10 5 4 10 10 10 10 18 4 4
## [313] 17 10 17 3 3 3 5 10 10 10 8 12 12 18 18 4 4 4 18 18 5 4 4 10
## [337] 10 10 10 10 10 5 8 8 10 10 10 3 3 3 2 2 2 3 8 8 8 3 4 4
## [361] 4 4 15 9 9 17 17 17 17 5 5 10 10 10 10 10 18 13 13 17 17 17 10 16
## [385] 16 16 18 18 18 18 18 4 4 17 5 5 5 15 10 10 10 8 8 8 3 8 8 8
## [409] 5 6 6 6 6 15 15 15 9 9 9 9 17 17 17 17 4 4 4 4 4 4 18 18
## [433] 18 18 13 10 10 10 10 10 16 5 5 18 4 4 18 18 5 5 5 10 10 10 8 10
## [457] 17 17 17 4 4 10 10 3 9 9 9 18 18 5 5 5 5 10 10 17 5 4 4 4
## [481] 4 6 6 6 5 5 5 5 10 10 10 10 10 19 19 4 4 4 4 4 4 4 4 4
## [505] 7 17 17 15 15 15 10 18 10 10 10 10 10 10 11 17 18 18 18 5 10 10 10 10
## [529] 10 10 5 5 5 5 5 5 9 9 9 9 6 15 15 15 15 4 10 10 4 10 9 16
## [553] 18 18 8 10 10 10 3 3 5 10 10 10 10 10 10 5 3 3 8 11 17 17 17 17
## [577] 17 17 10 10 4 18 10 10 18 3 15 5 5 5 3 11 11 11 17 17 10 10 10 5
## [601] 5 10 10 18 17 16 16 10 5 5 11 17 17 3 10 5 5 5 5 15 18 18 11 11
## [625] 15 15 15 15 3 10 10 10 5 5 5 4 9 4 4 4 9 9 15 12 10 18 18 3
## [649] 10 10 10 10 4 15 15 4 18 18 3 3 3 10 10 10 10 10 10 5 5 4 3 12
## [673] 5 5 5 5 5 5 4 4 4 4 4 4 4 18 18 5 5 4 4 3 17 6 6 10
## [697] 5 5 4 3 3 5 4 4 4 15 15 15 15 4 4 18 5 5 5 3 19 15 17 17
## [721] 4 4 4 18 6 10 10 5 5 10 4 4 8 4 4 4 17 4 4 17 17 3 3 15
## [745] 15 14 5 5 5 5 5 5 5 10 10 10 4 4 4 12 5 5 5 5 5 5 10 10
## [769] 15 1 4 10 5 4 4 4 4 4 4 3 15 15 4 18 10 10 5 5 5 5 5 10
## [793] 4 17 17 12 12 10 18 18 18 18 18 5 12 3 9 9 9 9 9 5 5 5 5 5
## [817] 18 18 10 5 5 5 5 5 10 10 3 4 4 4 15 15 15 17 17 10 18 5 4 10
## [841] 10 10 4 4 4 4 12 12 12 12 12 18 18 18 4 10 15 4 3 3 12 12 5 5
## [865] 8 3 15 15 15 15 15 15 15 9 9 4 4 4 4 4 10 16 16 12 12 3 3 3
## [889] 17 15 15 15 10 10 8 8 10 10 8 8 8 8 15 15 15 3 3 2 2 12 12 10
## [913] 10 5 5 5 5 5 5 5 5 5 5 15 12 12 5 5 5 4 4 4 4 19 3 12
## [937] 12 12 17 11 8 3 3 10 17 3 3 10 4 4 4 17 10 10 10 10 12 12 12 5
## [961] 5 5 5 19 19 19 8 8 8 8 8 3 10 4 17 17 17 17 17 3 3 3 3 5
## [985] 5 4 4 4 10 10 10 10 10 10 10 10 6 6 8 5 5 5 5 5 5 5 10 10
## [1009] 10 10 10 10 10 10 6 6 6 10 10 10 5 2 10 10 10 10 10 10 10 10 10 3
## [1033] 19 19 19 19 19 15 9 5 5 5 5 5 5 5 5 5 18 18 18 7 10 10 10 10
## [1057] 10 10 10 10 10 10 10 10 10 10 10 10 10 16 17 17 17 17 4 4 4 4 10 10
## [1081] 4 4 4 4 9 13 13 13 13 12 12 12 2 10 10 10 10 10 10 10 10 18 18 18
## [1105] 18 18 5
## Selecting by tf_idf
Самые эиоциональные слова по отделениям. Проведем анализ словосочетаний :
N-Gramms А сейчас поговорим об n-gramms и об объединение определенных словосочетаний по типу прилагательное + существительное , существительное + глагол .Порой отдельные слова могут сказать нам очень мало о тексте куда лучше отражают реальность словосочетания, для этого применяются n-gramms.Для того чтобы проанализировать как часто слово X следует за словом Y мы используем bigrams.
## # A tibble: 756 × 2
## # Groups: f3 [19]
## f3 value
## <dbl> <chr>
## 1 3 холодные батареи. Обращался в прошлом годы в ДЭ - обещали сделать к эт…
## 2 3 Мебель можно было бы и обновить - соискателям уверен этот фактор тоже …
## 3 10 работаю удаленно
## 4 4 На удаленной работе приходится использовать собственный компьютер, при…
## 5 18 В данный момент удовлетворена условиями работы в офисе. До пандемии в …
## 6 17 Хотелось бы иметь возможность работать удаленно
## 7 15 Хочется чаще видеть офис убранным (коробки/ненужная аппаратура/бумаги)
## 8 4 отсутствует кондиционер. нет вентиляции
## 9 5 0
## 10 17 Очень плотно сидим. Проходы между столами узкие, не комфортно с такой …
## # … with 746 more rows
## Warning: Expected 2 pieces. Additional pieces discarded in 11148 rows [2, 3, 4,
## 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, ...].
## Selecting by n
## Selecting by n
N=3
## Warning: Expected 3 pieces. Additional pieces discarded in 11148 rows [2, 3, 4,
## 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, ...].
## Selecting by n
## Selecting by n
## # A tibble: 756 × 2
## # Groups: f3 [19]
## f3 value
## <dbl> <chr>
## 1 3 холодные батареи. Обращался в прошлом годы в ДЭ - обещали сделать к эт…
## 2 3 Мебель можно было бы и обновить - соискателям уверен этот фактор тоже …
## 3 10 работаю удаленно
## 4 4 На удаленной работе приходится использовать собственный компьютер, при…
## 5 18 В данный момент удовлетворена условиями работы в офисе. До пандемии в …
## 6 17 Хотелось бы иметь возможность работать удаленно
## 7 15 Хочется чаще видеть офис убранным (коробки/ненужная аппаратура/бумаги)
## 8 4 отсутствует кондиционер. нет вентиляции
## 9 5 0
## 10 17 Очень плотно сидим. Проходы между столами узкие, не комфортно с такой …
## # … with 746 more rows
## Selecting by n
## Selecting by n
## Warning in instance$preRenderHook(instance): It seems your data is too big
## for client-side DataTables. You may consider server-side processing: https://
## rstudio.github.io/DT/server.html
взаимодействия несколько закостенелые
вжаться в стол
ведут себя агрессивно
“С женой развожусь, любовницы нету, секса мало, работа отнимает много личного времени, успеваю только вечером полазать по порно сайтам и сайтам знакомств, а денег на проституток не хватает, потому что низкая заработная плата.”