Más aplicaciones estadísticas en:

https://rpubs.com/orlandoan

library(MASS)

Definición.

El análisis discriminante se utiliza para establecer un modelo predictivo que indica la pertenencia a uno de dos o más grupos. El modelo genera una función discriminante con base en la combinación lineal de las variables predictoras que dan la mejor discriminación posible entre los grupos.

El análisis discriminante tiene dos objetivos:

  1. La separación o discriminación de elementos en dos o más grupos mediante una función, llamada función discriminante, que es una combinación lineal de las variables que mejor discrimina entre los grupos, a través de la maximización de la varianza entre los grupos y la minimización de la varianza dentro de cada grupo.

  2. La predicción o asignación de un elemento en uno de varios grupos previamente definidos con base en los valores de las variables que lo caracterizan.

La función discriminante tiene la forma:

\[\begin{equation*} Z_{i}=\beta_{1} X_{1}+\beta_{2} X_{2}+\beta_{3} X_{3}+\cdots +\beta_{p}X_{p} \end{equation*}\]

Donde \(\beta_{1},\beta_{2},\beta_{3},\ldots, \beta_{p}\) son los coeficientes de la función discriminante; \(X_{1}, X_{2,}, X_{3},\ldots,X_{p}\) son las variables explicatorias y \(Z_{i}\) es el valor de la función discriminante.

La función discriminante puede obtenerse mediante el método de máxima verosimilitud. Sean $f_{1}(X) $ y $ f_{2}(X)$ las funciones de densidad de las dos poblaciones (se suponen conocidas). El método de máxima verosimilitud establece una regla para localizar un elemento caracterizado por las variables explicatorias en una de dos poblaciones para la cual se maximiza la probabilidad de pertenencia.

Sean $P_{1} $ y $ P_{2}$ las dos poblaciones. Entonces se ubica en la población \(P_{i}\) si \(L(X)=max_{j}\left\lbrace L_{j} \right\rbrace\)\(i,j=1,2\)

Es decir, el caso se asigna a la población para la cual su probabilidad de pertenencia es máxima.

Si se desea clasificar un nuevo elemento \(X_{0}\), con valores conocidos para las variables explicatorias \(X\), si se conocen las probabilidades a priori \(\pi_{1}\) y \(\pi_{2}\) con \(\pi_{1}+\pi_{2} =1\), de que el elemento proceda de cada una de las dos poblaciones, su distribución de probabilidad será una distribución ponderada

\(f(X)=\pi_{1}f_{1}(X)+\pi_{2}f_{2}(X)\)

Una vez observado \(X_{0}\), se pueden calcular las probabilidades a posteriori de que el elemento provenga de cada una de las dos poblaciones, \(P(P_{i}|X_{0})\), utilizando el teorema de Bayes,

\(P(P_{i}|X_{0})=\dfrac{P(X_{0}|P_{1})\pi_{1}}{\pi_{1}P(X_{0}|P_{1})+\pi_{2}P(X_{0}|P_{2})}\)

Como,

\(P(X_{0}|P_{1})=f_{1}(X)\pi_{1}\)

entonces se tiene que

\(P(P_{1}|X_{0})=\dfrac{f_{1}(X)\pi_{1}}{f_{1}(X)\pi_{1}+f_{2}(X)\pi_{2}}\)

y

\(P(P_{2}|X_{0})=\dfrac{f_{2}(X)\pi_{2}}{f_{1}(X)\pi_{1}+f_{2}(X)\pi_{2}}\)

Se clasifica a \(X_{0}\) en la población más probable a posteriori o se clasifica a \(X_{0}\) en \(P_{1}\) si \(f_{1}(X_{0})\pi_{1}>f_{2}(X_{0})\pi_{2}\)

Datos.

Se utilizan 9 variables (v1, V2 , V3, V4, V5,V6, V7, v8, v9) para predecir si a un cliente se le otorga o no una tarjeta de crédito (v1:0: No, 1,: Si). Se utiliza el análisis discriminante para clasificar clientes.

Los datos se pueden obtener en:}

https://1drv.ms/x/s!Aj-hHTVbsx01h8MGMS77tQ4URmWBw?e=d20o5e

head(omf)
##   v1 v2 v3 v4 v5 v6 v7 v8 v9
## 1  1  1  1  0 41 12  0  2  1
## 2  1  1  0  0 52 22  0  2  0
## 3  1  1  0  0 57 25  3  1  0
## 4  1  1  0  0 54 21  0  2  1
## 5  1  1  0  0 41 14  2  3  0
## 6  1  1  0  1 46 17  1  3  0

El modelo discriminante.

dis<-lda(v1~v2+v3+v4+v5+v6+v7+v8+v9)
dis
## Call:
## lda(v1 ~ v2 + v3 + v4 + v5 + v6 + v7 + v8 + v9)
## 
## Prior probabilities of groups:
##    0    1 
## 0.24 0.76 
## 
## Group means:
##          v2        v3        v4       v5       v6       v7       v8        v9
## 0 0.2333333 0.7833333 0.6000000 28.71667 2.833333 1.350000 1.950000 0.5833333
## 1 0.6210526 0.6947368 0.7263158 40.64211 8.021053 1.436842 2.105263 0.4789474
## 
## Coefficients of linear discriminants:
##            LD1
## v2  0.73337374
## v3 -0.43190158
## v4  0.35431702
## v5  0.07581957
## v6  0.08450756
## v7  0.12327095
## v8  0.19764954
## v9 -0.41084544

Clasificación.

dis$counts
##   0   1 
##  60 190
grupo <- predict(dis,method="plug-in")$class
grupo
##   [1] 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 1 1 1 1 1 1 0 1 1
##  [38] 1 1 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 1 0
##  [75] 0 0 0 0 0 0 0 0 1 1 1 1 1 0 0 0 0 0 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1
## [112] 0 0 0 1 1 1 1 1 1 1 0 1 1 0 0 0 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 1 0 0 0 0
## [149] 0 0 0 1 1 0 1 0 1 1 1 1 1 1 0 1 1 0 1 1 0 1 1 1 1 1 1 1 1 1 0 0 1 1 1 1 1
## [186] 1 1 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 1 1 0 1
## [223] 1 1 1 0 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
## Levels: 0 1

Matriz de confusión.

tabla1<-table(grupo,v1)
tabla1
##      v1
## grupo   0   1
##     0  42  15
##     1  18 175
sum(diag(tabla1))/sum(tabla1)
## [1] 0.868

Gráfico discriminante.

plot(dis)

Predicción.

pre<-predict(dis)
pre
## $class
##   [1] 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 1 1 1 1 1 1 0 1 1
##  [38] 1 1 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 0 0 0 1 0
##  [75] 0 0 0 0 0 0 0 0 1 1 1 1 1 0 0 0 0 0 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1
## [112] 0 0 0 1 1 1 1 1 1 1 0 1 1 0 0 0 1 1 1 1 1 1 1 1 0 0 0 0 0 0 0 0 1 0 0 0 0
## [149] 0 0 0 1 1 0 1 0 1 1 1 1 1 1 0 1 1 0 1 1 0 1 1 1 1 1 1 1 1 1 0 0 1 1 1 1 1
## [186] 1 1 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 0 1 1 0 1
## [223] 1 1 1 0 1 1 1 1 1 1 1 0 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
## Levels: 0 1
## 
## $posterior
##                0          1
## 1   0.0775992125 0.92240079
## 2   0.0009108958 0.99908910
## 3   0.0002151123 0.99978489
## 4   0.0016864019 0.99831360
## 5   0.0061341369 0.99386586
## 6   0.0013087851 0.99869121
## 7   0.0201317057 0.97986829
## 8   0.0206676834 0.97933232
## 9   0.1093877781 0.89061222
## 10  0.0941295863 0.90587041
## 11  0.0429740365 0.95702596
## 12  0.0278455088 0.97215449
## 13  0.0117311794 0.98826882
## 14  0.0088653808 0.99113462
## 15  0.1179823495 0.88201765
## 16  0.1694084222 0.83059158
## 17  0.0503272448 0.94967276
## 18  0.0864847725 0.91351523
## 19  0.0530663885 0.94693361
## 20  0.0341605290 0.96583947
## 21  0.0029930219 0.99700698
## 22  0.0305287248 0.96947128
## 23  0.2252730069 0.77472699
## 24  0.0503272448 0.94967276
## 25  0.0864847725 0.91351523
## 26  0.0530663885 0.94693361
## 27  0.5636395143 0.43636049
## 28  0.6460464635 0.35395354
## 29  0.4599272624 0.54007274
## 30  0.0490884418 0.95091156
## 31  0.0860474019 0.91395260
## 32  0.3851180195 0.61488198
## 33  0.2987231293 0.70127687
## 34  0.3819679659 0.61803203
## 35  0.5545776916 0.44542231
## 36  0.3739604509 0.62603955
## 37  0.0241047301 0.97589527
## 38  0.0860474019 0.91395260
## 39  0.2305815727 0.76941843
## 40  0.3778326827 0.62216732
## 41  0.3843596344 0.61564037
## 42  0.1534969787 0.84650302
## 43  0.0465505655 0.95344943
## 44  0.0371178238 0.96288218
## 45  0.1579457850 0.84205422
## 46  0.0556267386 0.94437326
## 47  0.6778332042 0.32216680
## 48  0.2049948597 0.79500514
## 49  0.0117450049 0.98825500
## 50  0.0453418706 0.95465813
## 51  0.2000430320 0.79995697
## 52  0.0614597759 0.93854022
## 53  0.0046413636 0.99535864
## 54  0.0040612159 0.99593878
## 55  0.0021852952 0.99781470
## 56  0.0013852331 0.99861477
## 57  0.0038097938 0.99619021
## 58  0.0010431077 0.99895689
## 59  0.0197420596 0.98025794
## 60  0.0017610103 0.99823899
## 61  0.0057583087 0.99424169
## 62  0.0317726145 0.96822739
## 63  0.0063986051 0.99360139
## 64  0.0901355153 0.90986448
## 65  0.2520769628 0.74792304
## 66  0.1081025586 0.89189744
## 67  0.2715369037 0.72846310
## 68  0.1529455283 0.84705447
## 69  0.6378676103 0.36213239
## 70  0.8293475424 0.17065246
## 71  0.9056120520 0.09438795
## 72  0.7099167707 0.29008323
## 73  0.3958071239 0.60419288
## 74  0.7793524074 0.22064759
## 75  0.6693967602 0.33060324
## 76  0.6050916187 0.39490838
## 77  0.6531484184 0.34685158
## 78  0.7215623599 0.27843764
## 79  0.5682455346 0.43175447
## 80  0.6051092568 0.39489074
## 81  0.7994653654 0.20053463
## 82  0.7450854031 0.25491460
## 83  0.0619285541 0.93807145
## 84  0.2368335301 0.76316647
## 85  0.2652402011 0.73475980
## 86  0.1461941396 0.85380586
## 87  0.1883655752 0.81163442
## 88  0.9258244884 0.07417551
## 89  0.7047767609 0.29522324
## 90  0.9141647470 0.08583525
## 91  0.8820270118 0.11797299
## 92  0.8013404569 0.19865954
## 93  0.3630282775 0.63697172
## 94  0.2163459708 0.78365403
## 95  0.4874554504 0.51254455
## 96  0.3614155364 0.63858446
## 97  0.3985685996 0.60143140
## 98  0.2443162677 0.75568373
## 99  0.1274241988 0.87257580
## 100 0.5462937723 0.45370623
## 101 0.0297202414 0.97027976
## 102 0.0278455088 0.97215449
## 103 0.0999715251 0.90002847
## 104 0.2131071739 0.78689283
## 105 0.1383848687 0.86161513
## 106 0.2357215246 0.76427848
## 107 0.1605766423 0.83942336
## 108 0.1043371120 0.89566289
## 109 0.0308613063 0.96913869
## 110 0.0013105308 0.99868947
## 111 0.2396089367 0.76039106
## 112 0.5352341777 0.46476582
## 113 0.5731764577 0.42682354
## 114 0.5507784021 0.44922160
## 115 0.4613407877 0.53865921
## 116 0.1643042579 0.83569574
## 117 0.1084845333 0.89151547
## 118 0.3775709957 0.62242900
## 119 0.1888679673 0.81113203
## 120 0.0005187326 0.99948127
## 121 0.0087854946 0.99121451
## 122 0.6812052914 0.31879471
## 123 0.3098333300 0.69016667
## 124 0.2380969007 0.76190310
## 125 0.6305881765 0.36941182
## 126 0.7837068559 0.21629314
## 127 0.5331490233 0.46685098
## 128 0.0983112682 0.90168873
## 129 0.0775992125 0.92240079
## 130 0.1183058664 0.88169413
## 131 0.1424230621 0.85757694
## 132 0.0446005706 0.95539943
## 133 0.0018673169 0.99813268
## 134 0.0338828852 0.96611711
## 135 0.0632733344 0.93672667
## 136 0.5493718476 0.45062815
## 137 0.7092616671 0.29073833
## 138 0.8174193197 0.18258068
## 139 0.7000460507 0.29995395
## 140 0.6907766621 0.30922334
## 141 0.8034736325 0.19652637
## 142 0.5372108946 0.46278911
## 143 0.8013404569 0.19865954
## 144 0.4842881272 0.51571187
## 145 0.8377948968 0.16220510
## 146 0.5581893746 0.44181063
## 147 0.7932656772 0.20673432
## 148 0.8814028255 0.11859717
## 149 0.7310655233 0.26893448
## 150 0.7220815042 0.27791850
## 151 0.5677824202 0.43221758
## 152 0.4700035986 0.52999640
## 153 0.4887534278 0.51124657
## 154 0.5845761140 0.41542389
## 155 0.2310044255 0.76899557
## 156 0.5386084397 0.46139156
## 157 0.1713034402 0.82869656
## 158 0.2016520759 0.79834792
## 159 0.1244087317 0.87559127
## 160 0.4747754269 0.52522457
## 161 0.3798404452 0.62015955
## 162 0.3725244735 0.62747553
## 163 0.6430082696 0.35699173
## 164 0.0789825909 0.92101741
## 165 0.0220014893 0.97799851
## 166 0.5739102922 0.42608971
## 167 0.2443162677 0.75568373
## 168 0.1274241988 0.87257580
## 169 0.6318903405 0.36810966
## 170 0.0418413584 0.95815864
## 171 0.0786331221 0.92136688
## 172 0.0341605290 0.96583947
## 173 0.0088653808 0.99113462
## 174 0.0601529443 0.93984706
## 175 0.2252730069 0.77472699
## 176 0.0247294372 0.97527056
## 177 0.0864847725 0.91351523
## 178 0.0530663885 0.94693361
## 179 0.5636395143 0.43636049
## 180 0.6460464635 0.35395354
## 181 0.4599272624 0.54007274
## 182 0.0170304503 0.98296955
## 183 0.0882665314 0.91173347
## 184 0.1736956887 0.82630431
## 185 0.2300527028 0.76994730
## 186 0.4778738094 0.52212619
## 187 0.1571564956 0.84284350
## 188 0.0331123730 0.96688763
## 189 0.0381277204 0.96187228
## 190 0.0823572026 0.91764280
## 191 0.0556267386 0.94437326
## 192 0.6778332042 0.32216680
## 193 0.4344824139 0.56551759
## 194 0.0171241845 0.98287582
## 195 0.0634177014 0.93658230
## 196 0.0555966078 0.94440339
## 197 0.0853864048 0.91461360
## 198 0.0194228877 0.98057711
## 199 0.0040612159 0.99593878
## 200 0.0015338418 0.99846616
## 201 0.0028907310 0.99710927
## 202 0.0112665636 0.98873344
## 203 0.0021178133 0.99788219
## 204 0.0095443654 0.99045563
## 205 0.2088219407 0.79117806
## 206 0.0892284510 0.91077155
## 207 0.1715234304 0.82847657
## 208 0.1673901049 0.83260990
## 209 0.0359491619 0.96405084
## 210 0.0045065826 0.99549342
## 211 0.0014246729 0.99857533
## 212 0.0137267994 0.98627320
## 213 0.0126317873 0.98736821
## 214 0.0229501106 0.97704989
## 215 0.0027620233 0.99723798
## 216 0.0065219637 0.99347804
## 217 0.0066344719 0.99336553
## 218 0.7978381271 0.20216187
## 219 0.1820893992 0.81791060
## 220 0.4505551288 0.54944487
## 221 0.5968811429 0.40311886
## 222 0.1370153934 0.86298461
## 223 0.0176317593 0.98236824
## 224 0.0984950038 0.90150500
## 225 0.4355092524 0.56449075
## 226 0.5073664083 0.49263359
## 227 0.4703647732 0.52963523
## 228 0.0267678208 0.97323218
## 229 0.0251987619 0.97480124
## 230 0.0013842169 0.99861578
## 231 0.0136120764 0.98638792
## 232 0.0470357219 0.95296428
## 233 0.3505681087 0.64943189
## 234 0.5116247384 0.48837526
## 235 0.2034340188 0.79656598
## 236 0.3697812994 0.63021870
## 237 0.0113416659 0.98865833
## 238 0.0286721484 0.97132785
## 239 0.0054805196 0.99451948
## 240 0.0068962017 0.99310380
## 241 0.0016584628 0.99834154
## 242 0.0418182441 0.95818176
## 243 0.0204646997 0.97953530
## 244 0.0336440970 0.96635590
## 245 0.0678884389 0.93211156
## 246 0.0276742411 0.97232576
## 247 0.1013716438 0.89862836
## 248 0.0304669009 0.96953310
## 249 0.1008227235 0.89917728
## 250 0.1841792852 0.81582071
## 
## $x
##             LD1
## 1    0.27072306
## 2    2.79256096
## 3    3.59734480
## 4    2.44884711
## 5    1.72667662
## 6    2.59034323
## 7    1.05640966
## 8    1.04146035
## 9    0.05981735
## 10   0.15301289
## 11   0.62062976
## 12   0.87121612
## 13   1.36215834
## 14   1.51988199
## 15   0.01225762
## 16  -0.22285838
## 17   0.52829832
## 18   0.20490591
## 19   0.49715084
## 20   0.75366336
## 21   2.12837696
## 22   0.81840214
## 23  -0.42050792
## 24   0.52829832
## 25   0.20490591
## 26   0.49715084
## 27  -1.25158691
## 28  -1.44429369
## 29  -1.01940792
## 30   0.54291552
## 31   0.20799844
## 32  -0.84816697
## 33  -0.63330830
## 34  -0.84074147
## 35  -1.23109779
## 36  -0.82175838
## 37   0.95376096
## 38   0.20799844
## 39  -0.43732153
## 40  -0.83095784
## 41  -0.84638136
## 42  -0.15731081
## 43   0.57398729
## 44   0.70568000
## 45  -0.17617148
## 46   0.46937968
## 47  -1.52350669
## 48  -0.35353421
## 49   1.36149409
## 50   0.58935612
## 51  -0.33644509
## 52   0.41034884
## 53   1.88293452
## 54   1.95767896
## 55   2.30413096
## 56   2.55866071
## 57   1.99343798
## 58   2.71694982
## 59   1.06752430
## 60   2.42467782
## 61   1.76212569
## 62   0.79542812
## 63   1.70300248
## 64   0.17963024
## 65  -0.50278965
## 66   0.06720817
## 67  -0.55892900
## 68  -0.15494194
## 69  -1.42446069
## 70  -1.99010242
## 71  -2.36920029
## 72  -1.60774802
## 73  -0.87319953
## 74  -1.81224654
## 75  -1.50211927
## 76  -1.34676994
## 77  -1.46168371
## 78  -1.63965304
## 79  -1.26203729
## 80  -1.34681108
## 81  -1.87971837
## 82  -1.70672684
## 83   0.40583544
## 84  -0.45677925
## 85  -0.54105562
## 86  -0.12535526
## 87  -0.29484500
## 88  -2.51581110
## 89  -1.59390887
## 90  -2.42737767
## 91  -2.23018181
## 92  -1.88625998
## 93  -0.79557382
## 94  -0.39158676
## 95  -1.08096467
## 96  -0.79168298
## 97  -0.87962770
## 98  -0.47960765
## 99  -0.03664879
## 100 -1.21243955
## 101  0.83382566
## 102  0.87121612
## 103  0.11584765
## 104 -0.38088127
## 105 -0.08968439
## 106 -0.45334468
## 107 -0.18712257
## 108  0.08931587
## 109  0.81217201
## 110  2.58959938
## 111 -0.46530326
## 112 -1.18761756
## 113 -1.27325461
## 114 -1.22253264
## 115 -1.02257886
## 116 -0.20239331
## 117  0.06500355
## 118 -0.83033732
## 119 -0.29667462
## 120  3.10658623
## 121  1.52497191
## 122 -1.53213689
## 123 -0.66256158
## 124 -0.46066786
## 125 -1.40697128
## 126 -1.82646097
## 127 -1.18294713
## 128  0.12620851
## 129  0.27072306
## 130  0.01052697
## 131 -0.10833367
## 132  0.59897612
## 133  2.39194984
## 134  0.75837194
## 135  0.39306269
## 136 -1.21936513
## 137 -1.60597623
## 138 -1.94437231
## 139 -1.58129501
## 140 -1.55690322
## 141 -1.89375870
## 142 -1.19204766
## 143 -1.88625998
## 144 -1.07389786
## 145 -2.02404546
## 146 -1.23925332
## 147 -1.85840972
## 148 -2.22684617
## 149 -1.66629998
## 150 -1.64109402
## 151 -1.26098538
## 152 -1.04198345
## 153 -1.08385999
## 154 -1.29931856
## 155 -0.43864907
## 156 -1.19518132
## 157 -0.23033131
## 158 -0.34203231
## 159 -0.02137805
## 160 -1.05265426
## 161 -0.83571314
## 162 -0.81833717
## 163 -1.43690286
## 164  0.26003819
## 165  1.00584514
## 166 -1.27492678
## 167 -0.47960765
## 168 -0.03664879
## 169 -1.41008909
## 170  0.63617612
## 171  0.26272114
## 172  0.75366336
## 173  1.51988199
## 174  0.42310306
## 175 -0.42050792
## 176  0.93914376
## 177  0.20490591
## 178  0.49715084
## 179 -1.25158691
## 180 -1.44429369
## 181 -1.01940792
## 182  1.15141050
## 183  0.19245208
## 184 -0.23967199
## 185 -0.43565876
## 186 -1.05957726
## 187 -0.17285716
## 188  0.77163683
## 189  0.69013364
## 190  0.23467395
## 191  0.46937968
## 192 -1.52350669
## 193 -0.96202919
## 194  1.14829819
## 195  0.39170658
## 196  0.46969943
## 197  0.21269930
## 198  1.07679000
## 199  1.95767896
## 200  2.50178050
## 201  2.14781527
## 202  1.38494301
## 203  2.32165074
## 204  1.47836974
## 205 -0.36653288
## 206  0.18582274
## 207 -0.23119458
## 208 -0.21482568
## 209  0.72418629
## 210  1.89943438
## 211  2.54299195
## 212  1.27347319
## 213  1.32042562
## 214  0.98177737
## 215  2.17327193
## 216  1.69229053
## 217  1.68269486
## 218 -1.87407848
## 219 -0.27166517
## 220 -0.99834452
## 221 -1.32768676
## 222 -0.08325622
## 223  1.13173029
## 224  0.12505427
## 225 -0.96435775
## 226 -1.12536069
## 227 -1.04279152
## 228  0.89383265
## 229  0.92839713
## 230  2.55907029
## 231  1.27821564
## 232  0.56792497
## 233 -0.76531096
## 234 -1.13485758
## 235 -0.34818117
## 236 -0.81178659
## 237  1.38119778
## 238  0.85443718
## 239  1.78983860
## 240  1.66098343
## 241  2.45817373
## 242  0.63649754
## 243  1.04707675
## 244  0.76245143
## 245  0.35107201
## 246  0.87475290
## 247  0.10722842
## 248  0.81956750
## 249  0.11059494
## 250 -0.27945143

Predicción para un caso nuevo.

nuevo<-data.frame(v2=1,v3=1,v4=0,v5=41,v6=12,v7=0,v8=2,v9=1)
predict(object=dis,newdata=nuevo)
## $class
## [1] 1
## Levels: 0 1
## 
## $posterior
##            0         1
## 1 0.07759921 0.9224008
## 
## $x
##         LD1
## 1 0.2707231

-|—|—|

O.M.F.

-|—|—|