Введение

В этой лабораторной работе мы изучим различные методы выбора признаков в R, используя пакеты caret, FSelector, arules, и Boruta. Мы выполним разведочный анализ, оценим важность признаков для классификации, дискретизируем непрерывные переменные и применим алгоритм Boruta для выбора значимых признаков.

1. Пакет CARET и Разведочный Анализ

# Установка пакета CARET (если еще не установлен)
# install.packages("caret")

# Загрузка пакета CARET
library(caret)
## Загрузка требуемого пакета: ggplot2
## Загрузка требуемого пакета: lattice
# Вывод списка доступных методов выбора признаков
names(getModelInfo())
##   [1] "ada"                 "AdaBag"              "AdaBoost.M1"        
##   [4] "adaboost"            "amdai"               "ANFIS"              
##   [7] "avNNet"              "awnb"                "awtan"              
##  [10] "bag"                 "bagEarth"            "bagEarthGCV"        
##  [13] "bagFDA"              "bagFDAGCV"           "bam"                
##  [16] "bartMachine"         "bayesglm"            "binda"              
##  [19] "blackboost"          "blasso"              "blassoAveraged"     
##  [22] "bridge"              "brnn"                "BstLm"              
##  [25] "bstSm"               "bstTree"             "C5.0"               
##  [28] "C5.0Cost"            "C5.0Rules"           "C5.0Tree"           
##  [31] "cforest"             "chaid"               "CSimca"             
##  [34] "ctree"               "ctree2"              "cubist"             
##  [37] "dda"                 "deepboost"           "DENFIS"             
##  [40] "dnn"                 "dwdLinear"           "dwdPoly"            
##  [43] "dwdRadial"           "earth"               "elm"                
##  [46] "enet"                "evtree"              "extraTrees"         
##  [49] "fda"                 "FH.GBML"             "FIR.DM"             
##  [52] "foba"                "FRBCS.CHI"           "FRBCS.W"            
##  [55] "FS.HGD"              "gam"                 "gamboost"           
##  [58] "gamLoess"            "gamSpline"           "gaussprLinear"      
##  [61] "gaussprPoly"         "gaussprRadial"       "gbm_h2o"            
##  [64] "gbm"                 "gcvEarth"            "GFS.FR.MOGUL"       
##  [67] "GFS.LT.RS"           "GFS.THRIFT"          "glm.nb"             
##  [70] "glm"                 "glmboost"            "glmnet_h2o"         
##  [73] "glmnet"              "glmStepAIC"          "gpls"               
##  [76] "hda"                 "hdda"                "hdrda"              
##  [79] "HYFIS"               "icr"                 "J48"                
##  [82] "JRip"                "kernelpls"           "kknn"               
##  [85] "knn"                 "krlsPoly"            "krlsRadial"         
##  [88] "lars"                "lars2"               "lasso"              
##  [91] "lda"                 "lda2"                "leapBackward"       
##  [94] "leapForward"         "leapSeq"             "Linda"              
##  [97] "lm"                  "lmStepAIC"           "LMT"                
## [100] "loclda"              "logicBag"            "LogitBoost"         
## [103] "logreg"              "lssvmLinear"         "lssvmPoly"          
## [106] "lssvmRadial"         "lvq"                 "M5"                 
## [109] "M5Rules"             "manb"                "mda"                
## [112] "Mlda"                "mlp"                 "mlpKerasDecay"      
## [115] "mlpKerasDecayCost"   "mlpKerasDropout"     "mlpKerasDropoutCost"
## [118] "mlpML"               "mlpSGD"              "mlpWeightDecay"     
## [121] "mlpWeightDecayML"    "monmlp"              "msaenet"            
## [124] "multinom"            "mxnet"               "mxnetAdam"          
## [127] "naive_bayes"         "nb"                  "nbDiscrete"         
## [130] "nbSearch"            "neuralnet"           "nnet"               
## [133] "nnls"                "nodeHarvest"         "null"               
## [136] "OneR"                "ordinalNet"          "ordinalRF"          
## [139] "ORFlog"              "ORFpls"              "ORFridge"           
## [142] "ORFsvm"              "ownn"                "pam"                
## [145] "parRF"               "PART"                "partDSA"            
## [148] "pcaNNet"             "pcr"                 "pda"                
## [151] "pda2"                "penalized"           "PenalizedLDA"       
## [154] "plr"                 "pls"                 "plsRglm"            
## [157] "polr"                "ppr"                 "pre"                
## [160] "PRIM"                "protoclass"          "qda"                
## [163] "QdaCov"              "qrf"                 "qrnn"               
## [166] "randomGLM"           "ranger"              "rbf"                
## [169] "rbfDDA"              "Rborist"             "rda"                
## [172] "regLogistic"         "relaxo"              "rf"                 
## [175] "rFerns"              "RFlda"               "rfRules"            
## [178] "ridge"               "rlda"                "rlm"                
## [181] "rmda"                "rocc"                "rotationForest"     
## [184] "rotationForestCp"    "rpart"               "rpart1SE"           
## [187] "rpart2"              "rpartCost"           "rpartScore"         
## [190] "rqlasso"             "rqnc"                "RRF"                
## [193] "RRFglobal"           "rrlda"               "RSimca"             
## [196] "rvmLinear"           "rvmPoly"             "rvmRadial"          
## [199] "SBC"                 "sda"                 "sdwd"               
## [202] "simpls"              "SLAVE"               "slda"               
## [205] "smda"                "snn"                 "sparseLDA"          
## [208] "spikeslab"           "spls"                "stepLDA"            
## [211] "stepQDA"             "superpc"             "svmBoundrangeString"
## [214] "svmExpoString"       "svmLinear"           "svmLinear2"         
## [217] "svmLinear3"          "svmLinearWeights"    "svmLinearWeights2"  
## [220] "svmPoly"             "svmRadial"           "svmRadialCost"      
## [223] "svmRadialSigma"      "svmRadialWeights"    "svmSpectrumString"  
## [226] "tan"                 "tanSearch"           "treebag"            
## [229] "vbmpRadial"          "vglmAdjCat"          "vglmContRatio"      
## [232] "vglmCumulative"      "widekernelpls"       "WM"                 
## [235] "wsrf"                "xgbDART"             "xgbLinear"          
## [238] "xgbTree"             "xyf"

Теперь создадим данные и выполним разведочный анализ с помощью featurePlot().

# Создание данных
x <- matrix(rnorm(50*5),ncol=5)
y <- factor(rep(c("A", "B"), 25))

# Разведочный анализ с использованием featurePlot
featurePlot(x = x,
            y = y,
            plot = "pairs",
            auto.key = list(columns = 2))

# Сохранение графика (пример, можно сохранить и другие графики)
# png("pairs_plot.png")
# featurePlot(x = x,
#             y = y,
#             plot = "pairs",
#             auto.key = list(columns = 2))
# dev.off()

# Вывод:  На данном синтетическом наборе данных сложно сделать содержательные выводы
# только на основе графиков парных отношений признаков, так как данные случайные.
# Мы видим распределения отдельных признаков и их взаимосвязи.  Для реальных
# данных эти графики могут помочь выявить коррелирующие признаки и особенности
# распределений классов.

2. Пакет FSelector и Важность Признаков

# Установка пакета FSelector (если еще не установлен)
# install.packages("FSelector")

# Загрузка пакета FSelector
library(FSelector)

# Загрузка набора данных iris
data(iris)

Оценим важность признаков с помощью information.gain.

# Оценка важности признаков с помощью information.gain
weights <- information.gain(Species~., data=iris)
print(weights)
##              attr_importance
## Sepal.Length       0.4521286
## Sepal.Width        0.2672750
## Petal.Length       0.9402853
## Petal.Width        0.9554360
# Альтернативный метод: chi.squared
# weights_chi <- chi.squared(Species~., data=iris)
# print(weights_chi)

# Вывод: На основе information gain, Petal.Width и Petal.Length являются наиболее
# важными признаками для классификации видов ирисов. Sepal.Length имеет наименьшую
# важность.  Эти результаты согласуются с общими знаниями о наборе данных iris.

3. Пакет arules и Дискретизация

# Установка пакета arules (если еще не установлен)
# install.packages("arules")

# Загрузка пакета arules
library(arules)
## Загрузка требуемого пакета: Matrix
## 
## Присоединяю пакет: 'arules'
## Следующие объекты скрыты от 'package:base':
## 
##     abbreviate, write

Теперь выполним дискретизацию переменной Sepal.Length различными методами.

# Дискретизация Sepal.Length методом "interval" (равная ширина)
sepal_length_interval <- discretize(iris$Sepal.Length, method = "interval", breaks = 3)
table(sepal_length_interval)
## sepal_length_interval
## [4.3,5.5) [5.5,6.7) [6.7,7.9] 
##        52        70        28
# Дискретизация Sepal.Length методом "frequency" (равная частота)
sepal_length_frequency <- discretize(iris$Sepal.Length, method = "frequency", breaks = 3)
table(sepal_length_frequency)
## sepal_length_frequency
## [4.3,5.4) [5.4,6.3) [6.3,7.9] 
##        46        53        51
# Дискретизация Sepal.Length методом "cluster" (кластеризация)
sepal_length_cluster <- discretize(iris$Sepal.Length, method = "cluster", breaks = 3)
table(sepal_length_cluster)
## sepal_length_cluster
##  [4.3,5.33) [5.33,6.27)  [6.27,7.9] 
##          46          53          51
# Дискретизация Sepal.Length методом "fixed" (заданные интервалы)
sepal_length_fixed <- discretize(iris$Sepal.Length, method = "fixed", breaks = c(4, 5, 6, 8))
table(sepal_length_fixed)
## sepal_length_fixed
## [4,5) [5,6) [6,8] 
##    22    61    67
# Вывод: Различные методы дискретизации приводят к разным разбиениям
# переменной Sepal.Length на категории.  Метод "interval" создает интервалы равной
# ширины, "frequency" - интервалы с примерно равным количеством наблюдений,
# "cluster" использует кластеризацию, а "fixed" - заданные пользователем границы.
# Выбор метода зависит от конкретной задачи и целей анализа.

4. Пакет Boruta и Выбор Признаков

# Установка пакета Boruta (если еще не установлен)
# install.packages("Boruta")

# Загрузка пакета Boruta
library(Boruta)

# Установка пакета mlbench
# install.packages("mlbench")

# Загрузка пакета mlbench
library(mlbench)

# Загрузка набора данных Ozone из пакета mlbench
data("Ozone")

# Проверка, что данные успешно загружены
print(head(Ozone))
##   V1 V2 V3 V4   V5 V6 V7 V8    V9  V10 V11   V12 V13
## 1  1  1  4  3 5480  8 20 NA    NA 5000 -15 30.56 200
## 2  1  2  5  3 5660  6 NA 38    NA   NA -14    NA 300
## 3  1  3  6  3 5710  4 28 40    NA 2693 -25 47.66 250
## 4  1  4  7  5 5700  3 37 45    NA  590 -24 55.04 100
## 5  1  5  1  5 5760  3 51 54 45.32 1450  25 57.02  60
## 6  1  6  2  6 5720  4 69 35 49.64 1568  15 53.78  60
Ozone <- na.omit(Ozone)  # Удаляем строки с NA

# Выполнение Boruta
set.seed(123) # Для воспроизводимости
boruta_output <- Boruta(V4 ~ ., data = Ozone, verbose = FALSE)

# Вывод результатов
print(boruta_output)
## Boruta performed 24 iterations in 3.912293 secs.
##  9 attributes confirmed important: V1, V10, V11, V12, V13 and 4 more;
##  3 attributes confirmed unimportant: V2, V3, V6;
# График boxplot
plot(boruta_output, las = 2, cex.axis = 0.7)

# Подтвержденные и предварительные признаки
confirmed_attributes <- getSelectedAttributes(boruta_output, withTentative = FALSE)
print(confirmed_attributes)
## [1] "V1"  "V5"  "V7"  "V8"  "V9"  "V10" "V11" "V12" "V13"

Заключение

В этой лабораторной работе мы рассмотрели различные методы выбора признаков в R. Каждый метод имеет свои преимущества и недостатки, и выбор подходящего метода зависит от конкретной задачи и характеристик данных.