В этой лабораторной работе мы изучим различные методы выбора
признаков в R, используя пакеты caret
,
FSelector
, arules
, и Boruta
. Мы
выполним разведочный анализ, оценим важность признаков для
классификации, дискретизируем непрерывные переменные и применим алгоритм
Boruta для выбора значимых признаков.
# Установка пакета CARET (если еще не установлен)
# install.packages("caret")
# Загрузка пакета CARET
library(caret)
## Загрузка требуемого пакета: ggplot2
## Загрузка требуемого пакета: lattice
# Вывод списка доступных методов выбора признаков
names(getModelInfo())
## [1] "ada" "AdaBag" "AdaBoost.M1"
## [4] "adaboost" "amdai" "ANFIS"
## [7] "avNNet" "awnb" "awtan"
## [10] "bag" "bagEarth" "bagEarthGCV"
## [13] "bagFDA" "bagFDAGCV" "bam"
## [16] "bartMachine" "bayesglm" "binda"
## [19] "blackboost" "blasso" "blassoAveraged"
## [22] "bridge" "brnn" "BstLm"
## [25] "bstSm" "bstTree" "C5.0"
## [28] "C5.0Cost" "C5.0Rules" "C5.0Tree"
## [31] "cforest" "chaid" "CSimca"
## [34] "ctree" "ctree2" "cubist"
## [37] "dda" "deepboost" "DENFIS"
## [40] "dnn" "dwdLinear" "dwdPoly"
## [43] "dwdRadial" "earth" "elm"
## [46] "enet" "evtree" "extraTrees"
## [49] "fda" "FH.GBML" "FIR.DM"
## [52] "foba" "FRBCS.CHI" "FRBCS.W"
## [55] "FS.HGD" "gam" "gamboost"
## [58] "gamLoess" "gamSpline" "gaussprLinear"
## [61] "gaussprPoly" "gaussprRadial" "gbm_h2o"
## [64] "gbm" "gcvEarth" "GFS.FR.MOGUL"
## [67] "GFS.LT.RS" "GFS.THRIFT" "glm.nb"
## [70] "glm" "glmboost" "glmnet_h2o"
## [73] "glmnet" "glmStepAIC" "gpls"
## [76] "hda" "hdda" "hdrda"
## [79] "HYFIS" "icr" "J48"
## [82] "JRip" "kernelpls" "kknn"
## [85] "knn" "krlsPoly" "krlsRadial"
## [88] "lars" "lars2" "lasso"
## [91] "lda" "lda2" "leapBackward"
## [94] "leapForward" "leapSeq" "Linda"
## [97] "lm" "lmStepAIC" "LMT"
## [100] "loclda" "logicBag" "LogitBoost"
## [103] "logreg" "lssvmLinear" "lssvmPoly"
## [106] "lssvmRadial" "lvq" "M5"
## [109] "M5Rules" "manb" "mda"
## [112] "Mlda" "mlp" "mlpKerasDecay"
## [115] "mlpKerasDecayCost" "mlpKerasDropout" "mlpKerasDropoutCost"
## [118] "mlpML" "mlpSGD" "mlpWeightDecay"
## [121] "mlpWeightDecayML" "monmlp" "msaenet"
## [124] "multinom" "mxnet" "mxnetAdam"
## [127] "naive_bayes" "nb" "nbDiscrete"
## [130] "nbSearch" "neuralnet" "nnet"
## [133] "nnls" "nodeHarvest" "null"
## [136] "OneR" "ordinalNet" "ordinalRF"
## [139] "ORFlog" "ORFpls" "ORFridge"
## [142] "ORFsvm" "ownn" "pam"
## [145] "parRF" "PART" "partDSA"
## [148] "pcaNNet" "pcr" "pda"
## [151] "pda2" "penalized" "PenalizedLDA"
## [154] "plr" "pls" "plsRglm"
## [157] "polr" "ppr" "pre"
## [160] "PRIM" "protoclass" "qda"
## [163] "QdaCov" "qrf" "qrnn"
## [166] "randomGLM" "ranger" "rbf"
## [169] "rbfDDA" "Rborist" "rda"
## [172] "regLogistic" "relaxo" "rf"
## [175] "rFerns" "RFlda" "rfRules"
## [178] "ridge" "rlda" "rlm"
## [181] "rmda" "rocc" "rotationForest"
## [184] "rotationForestCp" "rpart" "rpart1SE"
## [187] "rpart2" "rpartCost" "rpartScore"
## [190] "rqlasso" "rqnc" "RRF"
## [193] "RRFglobal" "rrlda" "RSimca"
## [196] "rvmLinear" "rvmPoly" "rvmRadial"
## [199] "SBC" "sda" "sdwd"
## [202] "simpls" "SLAVE" "slda"
## [205] "smda" "snn" "sparseLDA"
## [208] "spikeslab" "spls" "stepLDA"
## [211] "stepQDA" "superpc" "svmBoundrangeString"
## [214] "svmExpoString" "svmLinear" "svmLinear2"
## [217] "svmLinear3" "svmLinearWeights" "svmLinearWeights2"
## [220] "svmPoly" "svmRadial" "svmRadialCost"
## [223] "svmRadialSigma" "svmRadialWeights" "svmSpectrumString"
## [226] "tan" "tanSearch" "treebag"
## [229] "vbmpRadial" "vglmAdjCat" "vglmContRatio"
## [232] "vglmCumulative" "widekernelpls" "WM"
## [235] "wsrf" "xgbDART" "xgbLinear"
## [238] "xgbTree" "xyf"
Теперь создадим данные и выполним разведочный анализ с помощью
featurePlot()
.
# Создание данных
x <- matrix(rnorm(50*5),ncol=5)
y <- factor(rep(c("A", "B"), 25))
# Разведочный анализ с использованием featurePlot
featurePlot(x = x,
y = y,
plot = "pairs",
auto.key = list(columns = 2))
# Сохранение графика (пример, можно сохранить и другие графики)
# png("pairs_plot.png")
# featurePlot(x = x,
# y = y,
# plot = "pairs",
# auto.key = list(columns = 2))
# dev.off()
# Вывод: На данном синтетическом наборе данных сложно сделать содержательные выводы
# только на основе графиков парных отношений признаков, так как данные случайные.
# Мы видим распределения отдельных признаков и их взаимосвязи. Для реальных
# данных эти графики могут помочь выявить коррелирующие признаки и особенности
# распределений классов.
# Установка пакета FSelector (если еще не установлен)
# install.packages("FSelector")
# Загрузка пакета FSelector
library(FSelector)
# Загрузка набора данных iris
data(iris)
Оценим важность признаков с помощью
information.gain
.
# Оценка важности признаков с помощью information.gain
weights <- information.gain(Species~., data=iris)
print(weights)
## attr_importance
## Sepal.Length 0.4521286
## Sepal.Width 0.2672750
## Petal.Length 0.9402853
## Petal.Width 0.9554360
# Альтернативный метод: chi.squared
# weights_chi <- chi.squared(Species~., data=iris)
# print(weights_chi)
# Вывод: На основе information gain, Petal.Width и Petal.Length являются наиболее
# важными признаками для классификации видов ирисов. Sepal.Length имеет наименьшую
# важность. Эти результаты согласуются с общими знаниями о наборе данных iris.
# Установка пакета arules (если еще не установлен)
# install.packages("arules")
# Загрузка пакета arules
library(arules)
## Загрузка требуемого пакета: Matrix
##
## Присоединяю пакет: 'arules'
## Следующие объекты скрыты от 'package:base':
##
## abbreviate, write
Теперь выполним дискретизацию переменной Sepal.Length
различными методами.
# Дискретизация Sepal.Length методом "interval" (равная ширина)
sepal_length_interval <- discretize(iris$Sepal.Length, method = "interval", breaks = 3)
table(sepal_length_interval)
## sepal_length_interval
## [4.3,5.5) [5.5,6.7) [6.7,7.9]
## 52 70 28
# Дискретизация Sepal.Length методом "frequency" (равная частота)
sepal_length_frequency <- discretize(iris$Sepal.Length, method = "frequency", breaks = 3)
table(sepal_length_frequency)
## sepal_length_frequency
## [4.3,5.4) [5.4,6.3) [6.3,7.9]
## 46 53 51
# Дискретизация Sepal.Length методом "cluster" (кластеризация)
sepal_length_cluster <- discretize(iris$Sepal.Length, method = "cluster", breaks = 3)
table(sepal_length_cluster)
## sepal_length_cluster
## [4.3,5.33) [5.33,6.27) [6.27,7.9]
## 46 53 51
# Дискретизация Sepal.Length методом "fixed" (заданные интервалы)
sepal_length_fixed <- discretize(iris$Sepal.Length, method = "fixed", breaks = c(4, 5, 6, 8))
table(sepal_length_fixed)
## sepal_length_fixed
## [4,5) [5,6) [6,8]
## 22 61 67
# Вывод: Различные методы дискретизации приводят к разным разбиениям
# переменной Sepal.Length на категории. Метод "interval" создает интервалы равной
# ширины, "frequency" - интервалы с примерно равным количеством наблюдений,
# "cluster" использует кластеризацию, а "fixed" - заданные пользователем границы.
# Выбор метода зависит от конкретной задачи и целей анализа.
# Установка пакета Boruta (если еще не установлен)
# install.packages("Boruta")
# Загрузка пакета Boruta
library(Boruta)
# Установка пакета mlbench
# install.packages("mlbench")
# Загрузка пакета mlbench
library(mlbench)
# Загрузка набора данных Ozone из пакета mlbench
data("Ozone")
# Проверка, что данные успешно загружены
print(head(Ozone))
## V1 V2 V3 V4 V5 V6 V7 V8 V9 V10 V11 V12 V13
## 1 1 1 4 3 5480 8 20 NA NA 5000 -15 30.56 200
## 2 1 2 5 3 5660 6 NA 38 NA NA -14 NA 300
## 3 1 3 6 3 5710 4 28 40 NA 2693 -25 47.66 250
## 4 1 4 7 5 5700 3 37 45 NA 590 -24 55.04 100
## 5 1 5 1 5 5760 3 51 54 45.32 1450 25 57.02 60
## 6 1 6 2 6 5720 4 69 35 49.64 1568 15 53.78 60
Ozone <- na.omit(Ozone) # Удаляем строки с NA
# Выполнение Boruta
set.seed(123) # Для воспроизводимости
boruta_output <- Boruta(V4 ~ ., data = Ozone, verbose = FALSE)
# Вывод результатов
print(boruta_output)
## Boruta performed 24 iterations in 3.912293 secs.
## 9 attributes confirmed important: V1, V10, V11, V12, V13 and 4 more;
## 3 attributes confirmed unimportant: V2, V3, V6;
# График boxplot
plot(boruta_output, las = 2, cex.axis = 0.7)
# Подтвержденные и предварительные признаки
confirmed_attributes <- getSelectedAttributes(boruta_output, withTentative = FALSE)
print(confirmed_attributes)
## [1] "V1" "V5" "V7" "V8" "V9" "V10" "V11" "V12" "V13"
В этой лабораторной работе мы рассмотрели различные методы выбора признаков в R. Каждый метод имеет свои преимущества и недостатки, и выбор подходящего метода зависит от конкретной задачи и характеристик данных.