library(openxlsx)
Data <- read.xlsx("F:/DESCARGAS/datos_parcial_2_repetido.xlsx", colNames = TRUE)
#Se quitaron individualmente casillas innecesarias
head(Data,6)
## X1 X2 X3 X4 X5 X6 X7
## 1 3.750000 3.750000 13.75000 7.500000 5.9338158 159.25733 43.75000
## 2 3.125000 0.000000 6.25000 3.125000 0.1955890 240.52867 62.50000
## 3 3.508772 0.000000 0.00000 0.000000 1.8988883 888.27607 59.64912
## 4 7.500000 3.750000 8.75000 6.250000 6.3875597 274.50667 42.50000
## 5 8.823529 0.000000 20.58824 2.941176 0.7348618 73.91232 32.35294
## 6 0.000000 5.769231 15.38462 5.769231 1.7281106 340.50505 36.53846
## X8 X9 X10 X11
## 1 87.50000 73.75000 10.416667 80.000000
## 2 71.87500 68.75000 11.458333 31.250000
## 3 89.47368 80.70175 7.602339 52.631579
## 4 76.25000 63.75000 36.250000 66.250000
## 5 76.47059 52.94118 10.784314 35.294118
## 6 76.92308 75.00000 1.923077 7.692308
library(psych)
modelo<-principal(r = Data,nfactors = 3,covar = FALSE,rotate = "varimax")
modelo$loadings
##
## Loadings:
## RC2 RC1 RC3
## X1 0.597 0.278
## X2 0.827
## X3 0.896
## X4 0.925
## X5 0.875
## X6 0.124 0.284 0.496
## X7 -0.472 0.649 0.322
## X8 -0.156 0.819
## X9 0.907
## X10 0.541 0.395
## X11 0.702 0.386
##
## RC2 RC1 RC3
## SS loadings 2.977 2.785 1.520
## Proportion Var 0.271 0.253 0.138
## Cumulative Var 0.271 0.524 0.662
Factor 1 = X1, X2, X3, X4 Factor 2 = X7, X8, X9, X10, X11 Factor 3 = X5, X6
Importancia relativa de la correlación entre elementos
#Funciones para normalizar los datos
norm_directa <- function(x){
return((x-min(x)) / (max(x)-min(x)))
}
norm_inverza <- function(x){
return((max(x)-x) / (max(x)-min(x)))
}
#Normalización de los datos
library(dplyr)
Data %>% dplyr::select(X1,X2,X3,X4) %>% dplyr::transmute(X1=norm_directa(X1),X2=norm_directa(X2),X3=norm_directa(X3),X4=norm_inverza(X4)) -> data_factor1
print(data_factor1)
## X1 X2 X3 X4
## 1 0.23076923 0.18750000 0.24605263 0.8785714
## 2 0.19230769 0.00000000 0.11184211 0.9494048
## 3 0.21592443 0.00000000 0.00000000 1.0000000
## 4 0.46153846 0.18750000 0.15657895 0.8988095
## 5 0.54298643 0.00000000 0.36842105 0.9523810
## 6 0.00000000 0.28846154 0.27530364 0.9065934
## 7 0.07692308 0.12500000 0.06710526 0.9595238
## 8 0.65626681 0.26223776 0.40982702 0.5216450
## 9 0.23076923 0.00000000 0.00000000 1.0000000
## 10 0.35674470 0.00000000 0.00000000 1.0000000
## 11 0.34965035 0.22727273 0.26435407 0.8528139
## 12 0.53846154 0.18750000 0.69342105 0.7166667
## 13 0.92307692 0.68750000 0.53684211 0.3928571
## 14 0.76923077 0.00000000 0.11184211 1.0000000
## 15 0.23076923 0.56250000 0.29078947 0.7976190
## 16 0.15384615 0.12500000 0.04473684 0.9392857
## 17 0.15384615 0.06250000 0.13421053 0.9392857
## 18 0.15384615 0.12500000 0.24605263 0.7773810
## 19 0.53846154 0.18750000 0.24605263 0.6964286
## 20 0.00000000 0.10416667 0.03728070 1.0000000
## 21 0.00000000 0.06250000 0.13421053 0.7976190
## 22 0.15384615 0.37500000 0.51447368 0.4535714
## 23 0.23076923 0.43750000 0.08947368 0.8178571
## 24 0.11396011 0.09259259 0.09941520 0.9400353
## 25 0.30769231 0.43750000 0.31315789 0.6357143
## 26 0.38461538 0.18750000 0.44736842 0.6357143
## 27 0.38461538 0.25000000 0.11184211 0.9595238
## 28 0.20176545 0.24590164 0.17601381 0.8672912
## 29 0.53846154 0.43750000 0.35789474 0.6964286
## 30 0.14652015 0.00000000 0.25563910 1.0000000
## 31 0.72398190 0.58823529 1.00000000 0.0000000
## 32 0.30769231 0.12500000 0.46973684 0.8380952
## 33 0.22377622 0.09090909 0.13014354 0.7645022
## 34 0.13986014 0.34090909 0.20334928 0.5584416
## 35 0.26755853 0.07246377 0.02593440 0.9530711
## 36 0.38461538 0.00000000 0.02236842 0.9797619
## 37 0.19851117 0.56451613 0.80814941 0.2949309
## 38 0.46153846 0.06250000 0.11184211 0.9190476
## 39 0.15384615 0.25000000 0.22368421 0.5952381
## 40 0.07692308 0.12500000 0.29078947 0.7773810
## 41 0.22792023 0.49382716 0.35347628 0.6801881
## 42 0.30769231 0.18750000 0.51447368 0.8380952
## 43 0.46153846 0.18750000 0.06710526 0.9392857
## 44 0.68376068 0.43209877 0.44184535 0.8800705
## 45 0.51282051 0.00000000 0.22368421 0.8650794
## 46 0.23076923 0.25000000 0.20131579 0.8988095
## 47 0.31830239 0.08620690 0.09255898 0.9162562
## 48 0.30769231 0.12500000 0.11184211 0.8380952
## 49 0.84615385 0.56250000 0.78289474 0.2107143
## 50 0.46153846 0.06250000 0.31315789 0.6964286
## 51 0.44755245 0.00000000 0.58564593 0.7056277
## 52 0.13675214 0.22222222 0.27836257 0.7121693
## 53 0.23076923 0.06250000 0.20131579 0.9392857
## 54 0.92307692 0.75000000 0.29078947 0.7166667
## 55 0.30769231 0.56250000 0.40263158 0.6154762
## 56 0.46153846 0.06250000 0.08947368 0.8583333
## 57 0.07692308 0.25000000 0.08947368 0.7976190
## 58 0.07597341 0.43209877 0.39766082 0.7801293
## 59 0.47927151 0.51401869 0.54074438 0.4401424
## 60 1.00000000 0.87500000 0.58157895 0.4333333
## 61 0.30769231 0.06250000 0.26842105 0.7571429
## 62 0.07692308 0.18750000 0.04473684 0.8380952
## 63 0.23076923 0.43750000 0.38026316 0.6559524
## 64 0.27972028 0.22727273 0.12200957 0.8896104
## 65 0.53846154 0.75000000 0.51447368 0.3523810
## 66 0.57435897 0.60000000 0.26245614 0.8273016
## 67 0.23076923 0.00000000 0.06710526 0.9190476
## 68 0.74493927 0.18421053 0.25429363 0.8380952
## 69 0.84615385 1.00000000 0.89473684 0.2916667
## 70 0.68376068 0.33333333 0.63625731 0.4962963
## 71 0.23076923 0.37500000 0.31315789 0.5750000
## 72 0.38461538 0.18750000 0.82763158 0.5547619
## 73 0.15384615 0.25000000 0.38026316 0.8583333
## 74 0.23076923 0.25000000 0.11184211 0.7773810
## 75 0.23076923 0.18750000 0.22368421 0.6964286
## 76 0.53846154 0.06250000 0.51447368 0.6154762
## 77 0.61538462 0.37500000 0.42500000 0.6761905
## 78 0.76058773 0.61797753 0.36191603 0.6179775
## 79 0.38948393 0.12658228 0.29447035 0.8360458
## 80 0.10430248 0.59322034 0.63693131 0.6432607
## 81 0.10088272 0.00000000 0.00000000 0.9734582
## 82 0.53846154 0.25000000 0.49210526 0.5952381
## 83 0.76923077 0.15625000 0.27960526 1.0000000
## 84 0.15384615 0.25000000 0.11184211 0.9392857
## 85 0.46153846 0.12500000 0.29078947 0.5750000
## 86 0.30769231 0.00000000 0.55921053 0.6761905
## 87 0.38461538 0.31250000 0.71578947 0.1500000
## 88 0.53846154 0.31250000 0.20131579 0.6559524
## 89 0.23076923 0.31250000 0.49210526 0.8178571
## 90 0.53846154 0.37500000 0.20131579 0.6357143
## 91 0.46153846 0.68750000 0.29078947 0.7166667
## 92 0.23076923 0.37500000 0.29078947 0.5750000
## 93 0.46153846 0.68750000 0.89473684 0.2511905
## 94 0.53181387 0.30864198 0.39766082 0.7001764
## 95 0.53846154 0.37500000 0.60394737 0.1095238
## 96 0.30769231 0.18750000 0.40263158 0.7369048
## 97 0.53846154 0.12500000 0.33552632 0.7976190
## 98 0.07692308 0.00000000 0.20131579 0.8785714
## 99 0.53146853 0.22727273 0.34976077 0.7645022
## 100 0.38461538 0.18750000 0.71578947 0.5142857
## 101 0.69230769 0.12500000 0.38026316 0.8785714
## 102 0.69230769 0.68750000 0.62631579 0.3928571
## 103 0.41720991 0.08474576 0.15165031 1.0000000
## 104 0.53846154 0.56250000 0.33552632 0.7166667
## 105 0.61538462 0.81250000 0.35789474 0.3523810
## 106 0.48265460 0.98039216 0.77192982 0.3015873
## 107 0.15779093 0.25641026 0.80296896 0.3357753
## 108 0.84615385 0.00000000 0.31315789 0.8785714
## 109 0.00000000 0.00000000 0.00000000 1.0000000
## 110 1.00000000 1.00000000 1.00000000 0.0000000
## 111 0.35319753 0.22474747 0.29078947 0.7773810
Data %>% dplyr::select(X7,X8,X9,X10,X11) %>% dplyr::transmute(X7=norm_directa(X7),X8=norm_directa(X8),X9=norm_directa(X9),X10=norm_directa(X10),X11=norm_directa(X11)) -> data_factor2
print(data_factor2)
## X7 X8 X9 X10 X11
## 1 6.808511e-01 0.9746016 0.88135593 0.26506696 1.00000000
## 2 1.000000e+00 0.7735309 0.81355932 0.29157366 0.39062500
## 3 9.514744e-01 1.0000000 0.97561701 0.19345238 0.65789474
## 4 6.595745e-01 0.8298307 0.74576271 0.92243304 0.82812500
## 5 4.868586e-01 0.8326693 0.59920239 0.27442227 0.44117647
## 6 5.581015e-01 0.8384922 0.89830508 0.04893544 0.09615385
## 7 7.872340e-01 0.8137450 0.93220339 0.18024554 0.31250000
## 8 3.051629e-01 0.5775221 0.62332583 0.48935440 0.29938811
## 9 7.021277e-01 0.8459163 0.67796610 0.10602679 0.18750000
## 10 7.748998e-01 0.7997575 0.78531073 0.41796066 0.19927536
## 11 8.646035e-01 0.8137450 0.86748844 0.95424107 0.66761364
## 12 2.765957e-01 0.7494024 0.88135593 0.36049107 0.39062500
## 13 2.765957e-01 0.7172311 1.00000000 0.21205357 0.32812500
## 14 7.872340e-01 0.7333167 0.55932203 0.15904018 0.00000000
## 15 6.382979e-02 0.7976594 0.88135593 0.03180804 0.23437500
## 16 3.617021e-01 0.6207171 0.55932203 0.26506696 0.23437500
## 17 2.765957e-01 0.7011454 0.79661017 0.08482143 0.21875000
## 18 3.404255e-01 0.6689741 0.62711864 0.02120536 0.32812500
## 19 5.531915e-01 0.5081175 0.62711864 0.22265625 0.57812500
## 20 6.453901e-01 0.7601262 0.50282486 0.10602679 0.05208333
## 21 7.234043e-01 0.6368028 0.79661017 0.03180804 0.37500000
## 22 2.553191e-01 0.8137450 0.81355932 0.49832589 0.34375000
## 23 4.042553e-01 0.6850598 0.79661017 0.61495536 0.46875000
## 24 9.448385e-01 0.7065073 0.68487131 0.23561508 0.04629630
## 25 2.553191e-01 0.8298307 0.59322034 0.03180804 0.21875000
## 26 3.191489e-01 0.7976594 0.81355932 0.03180804 0.20312500
## 27 6.595745e-01 0.8459163 0.83050847 0.65736607 0.42187500
## 28 2.989187e-01 0.6080596 0.48152265 0.09733607 0.22540984
## 29 2.765957e-01 0.9585159 0.84745763 0.14843750 0.15625000
## 30 3.009119e-01 0.7677860 0.43018563 0.30293367 0.08928571
## 31 3.629537e-02 0.6434263 0.71884347 0.02494748 0.03676471
## 32 3.829787e-01 0.6207171 0.76271186 0.29687500 0.14062500
## 33 7.408124e-01 0.5037305 0.81818182 0.16964286 0.34090909
## 34 2.843327e-01 0.5797718 0.52850539 0.03855519 0.08522727
## 35 5.528831e-01 0.4827069 0.62810120 0.18439441 0.16304348
## 36 3.829787e-01 0.5563745 0.50847458 0.05301339 0.37500000
## 37 2.930679e-01 0.6165660 0.93110990 0.01368088 0.06048387
## 38 6.382979e-01 0.7494024 0.74576271 0.19084821 0.48437500
## 39 1.702128e-01 0.5402888 0.66101695 0.00000000 0.20312500
## 40 2.553191e-01 0.4437749 0.40677966 0.01060268 0.20312500
## 41 3.984765e-01 0.6588461 0.55095208 0.50264550 0.46296296
## 42 2.765957e-01 0.7333167 0.44067797 0.30747768 0.51562500
## 43 4.680851e-01 0.5885458 0.71186441 0.10602679 0.14062500
## 44 1.673234e-01 0.6111849 0.58443189 0.07330247 0.26234568
## 45 7.872340e-01 0.8673639 0.72881356 0.03534226 0.05208333
## 46 4.680851e-01 0.7011454 0.57627119 0.15904018 0.17187500
## 47 6.111519e-01 0.5585932 0.48918761 0.24861453 0.17241379
## 48 3.829787e-01 0.5724602 0.54237288 0.10602679 0.04687500
## 49 2.765957e-01 0.2668327 0.44067797 0.16964286 0.10937500
## 50 2.340426e-01 0.6528884 0.40677966 0.22265625 0.14062500
## 51 2.765957e-01 0.6441145 0.52234206 0.04626623 0.09090909
## 52 1.252955e-01 0.7637008 0.81544256 0.03769841 0.00000000
## 53 2.340426e-01 0.5081175 0.47457627 0.09542411 0.21875000
## 54 1.914894e-01 0.7654880 0.30508475 0.06361607 0.01562500
## 55 2.765957e-01 0.6850598 0.79661017 0.03180804 0.51562500
## 56 4.255319e-01 0.5563745 0.50847458 0.07421875 0.26562500
## 57 3.404255e-01 0.6368028 0.62711864 0.11662946 0.37500000
## 58 3.144208e-01 0.8018297 0.48399247 0.02094356 0.03086420
## 59 2.490223e-01 0.5902496 0.57410634 0.30916222 0.35436137
## 60 2.978723e-01 0.5563745 0.59322034 0.04241071 0.42187500
## 61 1.914894e-01 0.3633466 0.30508475 0.04241071 0.12500000
## 62 4.680851e-01 0.4759462 0.50847458 0.14843750 0.12500000
## 63 1.489362e-01 0.7011454 0.38983051 0.02120536 0.06250000
## 64 3.230174e-01 0.6090185 0.59013867 0.00000000 0.00000000
## 65 1.702128e-01 0.3150896 0.50847458 0.46651786 0.28125000
## 66 3.673759e-01 0.3805046 0.53220339 0.72380952 0.25000000
## 67 5.531915e-01 0.5724602 0.44067797 0.16964286 0.15625000
## 68 5.453527e-01 0.6884462 0.78055308 1.00000000 0.57894737
## 69 2.127660e-01 0.4759462 0.32203390 0.18024554 0.09375000
## 70 2.765957e-01 0.7922975 0.81544256 0.03769841 0.19444444
## 71 1.063830e-01 0.4437749 0.22033898 0.04241071 0.35937500
## 72 4.042553e-01 0.5885458 0.61016949 0.30747768 0.42187500
## 73 4.255319e-02 0.5563745 0.23728814 0.02120536 0.00000000
## 74 4.893617e-01 0.6207171 0.40677966 0.05301339 0.12500000
## 75 1.702128e-01 0.4920319 0.47457627 0.28627232 0.14062500
## 76 3.617021e-01 0.5563745 0.47457627 0.09542411 0.29687500
## 77 2.127660e-01 0.6046315 0.25423729 0.10602679 0.18750000
## 78 2.421707e-01 0.5281794 0.47552847 0.16201846 0.12640449
## 79 5.179100e-01 0.6956478 0.60223128 0.27915913 0.09493671
## 80 2.246664e-01 0.5683706 0.36397587 0.04312954 0.04237288
## 81 5.779561e-01 0.3760042 0.50375104 0.08343091 0.06147541
## 82 1.063830e-01 0.2346614 0.23728814 0.42410714 0.28125000
## 83 6.276596e-01 0.5322460 0.17796610 0.34458705 0.07812500
## 84 3.617021e-01 0.6207171 0.40677966 0.14843750 0.17187500
## 85 3.191489e-01 0.4598606 0.54237288 0.40290179 0.21875000
## 86 1.489362e-01 0.4598606 0.15254237 0.14843750 0.26562500
## 87 2.553191e-01 0.6689741 0.49152542 0.12723214 0.29687500
## 88 2.553191e-01 0.3633466 0.16949153 0.02120536 0.01562500
## 89 2.340426e-01 0.4116036 0.00000000 0.19084821 0.03125000
## 90 4.468085e-01 0.3955179 0.23728814 0.00000000 0.07812500
## 91 4.255319e-02 0.5081175 0.11864407 0.09542411 0.21875000
## 92 4.255319e-02 0.3311753 0.32203390 0.09542411 0.07812500
## 93 1.511793e-17 0.3311753 0.69491525 0.06361607 0.20312500
## 94 3.354347e-01 0.4364271 0.21615401 0.19896384 0.09259259
## 95 0.000000e+00 0.3633466 0.52542373 0.01060268 0.17187500
## 96 0.000000e+00 0.3794323 0.13559322 0.12723214 0.18750000
## 97 8.510638e-02 0.4437749 0.22033898 0.06361607 0.07812500
## 98 8.510638e-02 0.1864044 0.30508475 0.02120536 0.14062500
## 99 3.675048e-02 0.3341000 0.28813559 0.18506494 0.12500000
## 100 1.702128e-01 0.3472610 0.08474576 0.07421875 0.01562500
## 101 8.510638e-02 0.6207171 0.32203390 0.03180804 0.07812500
## 102 4.255319e-02 0.6689741 0.57627119 0.05301339 0.14062500
## 103 5.131626e-01 0.6119927 0.31801207 0.14376513 0.00000000
## 104 1.063830e-01 0.3955179 0.20338983 0.02120536 0.07812500
## 105 4.255319e-02 0.4276892 0.18644068 0.09542411 0.06250000
## 106 3.629537e-02 0.0000000 0.12063809 0.03326331 0.00000000
## 107 1.636661e-03 0.3105527 0.36810083 0.28273810 0.25641026
## 108 2.765957e-01 0.1381474 0.01694915 0.06361607 0.04687500
## 109 0.000000e+00 0.0000000 0.00000000 0.00000000 0.00000000
## 110 1.000000e+00 1.0000000 1.00000000 1.00000000 1.00000000
## 111 2.954701e-01 0.6085390 0.53035439 0.11132813 0.17995690
Data %>% dplyr::select(X5,X6) %>% dplyr::transmute(X5=norm_directa(X5),X6=norm_inverza(X6)) -> data_factor3
print(data_factor3)
## X5 X6
## 1 0.4982167357 0.9549643
## 2 0.0159906126 0.9319026
## 3 0.1591315871 0.7480965
## 4 0.5363482295 0.9222610
## 5 0.0613097400 0.9791820
## 6 0.1447798629 0.9035331
## 7 0.1220574180 0.9785620
## 8 0.5299106129 1.0000000
## 9 0.4225058674 0.9843910
## 10 0.0403539770 0.9596895
## 11 0.9691921775 0.9915318
## 12 0.1224637346 0.9967457
## 13 0.0405432098 0.9952071
## 14 0.4784124193 0.9404027
## 15 0.2618430673 0.9430527
## 16 0.3815472058 0.9858801
## 17 0.0062870348 0.9793863
## 18 0.1076926483 0.7106797
## 19 0.8717925812 0.9909917
## 20 0.3230383246 0.8797611
## 21 0.9482227966 0.0000000
## 22 0.1976449790 0.8840200
## 23 0.1101178192 0.9898363
## 24 0.0300031890 0.9871339
## 25 0.5719572458 0.8743535
## 26 0.0650315009 0.9828322
## 27 0.0120372880 0.9634949
## 28 0.4179421353 0.8763166
## 29 0.0508780010 0.9847755
## 30 0.0169017117 0.9783888
## 31 0.2536102255 0.8253567
## 32 0.0509444908 0.9680371
## 33 0.0396177003 0.9515875
## 34 0.0007230678 0.9460248
## 35 0.0224622853 0.9320735
## 36 0.2009190552 0.8773812
## 37 0.0377494751 0.8378219
## 38 0.1558218444 0.9468010
## 39 0.0275091546 0.8449952
## 40 0.2719250496 0.9764818
## 41 0.1001597188 0.9252389
## 42 0.2997970548 0.9731625
## 43 0.4953010746 0.9268930
## 44 0.1601652638 0.9947048
## 45 0.1261743099 0.9692921
## 46 0.5000217107 0.9605578
## 47 0.0000000000 0.7986832
## 48 0.0933465354 0.9308904
## 49 0.0589372613 0.9923206
## 50 0.0920083440 0.9889253
## 51 0.0178773489 0.9626417
## 52 0.6234541081 0.9607829
## 53 0.1213943033 0.9900201
## 54 1.0000000000 0.9544295
## 55 0.1353718575 0.6546091
## 56 0.1708396470 0.9889814
## 57 0.7800158441 0.9856348
## 58 0.0381460976 0.9611830
## 59 0.3821253858 0.9984639
## 60 0.3517071371 0.9873053
## 61 0.0943587579 0.9799050
## 62 0.0167850813 0.8584138
## 63 0.0279368103 0.9737091
## 64 0.3658164076 0.9102284
## 65 0.8157973531 0.9972819
## 66 0.0047222999 0.9747348
## 67 0.5590676985 0.9868720
## 68 0.0458123815 0.9982102
## 69 0.4869233578 0.9992414
## 70 0.2917494016 0.8538920
## 71 0.6027592094 0.9167410
## 72 0.0866645497 0.9973916
## 73 0.2741262718 0.9314569
## 74 0.5667375985 0.9933385
## 75 0.0428096597 0.9690373
## 76 0.2731886794 0.9346337
## 77 0.3282445908 0.9832759
## 78 0.1105072671 0.9925954
## 79 0.0198533933 0.9660412
## 80 0.0099922974 0.8689730
## 81 0.0397903538 0.9455593
## 82 0.0858933578 0.9975513
## 83 0.5283885318 0.9457399
## 84 0.0837765726 0.9822343
## 85 0.0059549978 0.9985060
## 86 0.0254471414 0.9856454
## 87 0.0124311357 0.9862499
## 88 0.0383902811 0.9409656
## 89 0.6240246131 0.9758764
## 90 0.0124702811 0.9936290
## 91 0.3024335491 0.9936804
## 92 0.0909237183 0.9810668
## 93 0.0875676918 0.9822237
## 94 0.2482301719 0.9913362
## 95 0.0039323776 0.9907784
## 96 0.0079845504 0.9918236
## 97 0.2530874606 0.9881271
## 98 0.0097035976 0.9666556
## 99 0.1861062474 0.9988395
## 100 0.0912011829 0.7474580
## 101 0.0011832563 0.9862122
## 102 0.0970697916 0.9880073
## 103 0.7287666673 0.8248871
## 104 0.1120424819 0.9303677
## 105 0.0658350468 0.9614079
## 106 0.0162205565 0.8190260
## 107 0.5945450805 0.9946996
## 108 0.8285045715 0.9913210
## 109 0.0000000000 1.0000000
## 110 1.0000000000 0.0000000
## 111 0.1167183926 0.9734358
#cálculo de desviación estándar de cada variable
data_factor1 %>% dplyr::summarise(s1=sd(X1), s2=sd(X2), s3=sd(X3), s4=sd(X4)) -> sd_vector
print(sd_vector)
## s1 s2 s3 s4
## 1 0.2378928 0.2456127 0.2376859 0.2336246
#Calculo de la matriz de correlacion
cor(data_factor1) -> mat_RF1
print(mat_RF1)
## X1 X2 X3 X4
## X1 1.0000000 0.4497728 0.4491521 -0.4166392
## X2 0.4497728 1.0000000 0.5914821 -0.7026998
## X3 0.4491521 0.5914821 1.0000000 -0.8315652
## X4 -0.4166392 -0.7026998 -0.8315652 1.0000000
#Calculo de los ponderadores
1-mat_RF1 -> sum_data
colSums(sum_data) -> sum_vector
sd_vector*sum_vector-> vj
print(vj)
## s1 s2 s3 s4
## 1 0.5989462 0.6536847 0.663365 1.156653
#Calculo de los ponderadores netos
vj/ sum(vj) -> wj
print(wj)
## s1 s2 s3 s4
## 1 0.1949283 0.212743 0.2158935 0.3764352
#Ponderadores:
print(round(wj*100,2))
## s1 s2 s3 s4
## 1 19.49 21.27 21.59 37.64
#Normalización de los datos
Data %>% dplyr::select(X7,X8,X9,X10,X11) -> data_norm
apply(data_norm, 2, prop.table) -> data_norm
head(data_norm)
## X7 X8 X9 X10 X11
## 1 0.01619765 0.01368789 0.013858076 0.012708405 0.040380404
## 2 0.02313950 0.01124362 0.012918546 0.013979245 0.015773595
## 3 0.02208401 0.01399664 0.015164354 0.009274906 0.026566055
## 4 0.01573486 0.01192802 0.011979015 0.044225249 0.033440022
## 5 0.01197809 0.01196253 0.009947971 0.013156937 0.017814884
## 6 0.01352770 0.01203331 0.014092959 0.002346167 0.003882731
#Formula de entropia
entropy <- function(x){
return(x*log(x))
}
apply(data_norm, 2, entropy) -> data_norm_2
as.data.frame(data_norm_2)-> data_norm_2
rapply( data_norm_2, f=function(x) ifelse(is.nan(x),0,x), how="replace") -> Dn2
head(Dn2, 14)
## X7 X8 X9 X10 X11
## 1 -0.06678110 -0.05873808 -0.05929714 -0.05547844 -0.12959730
## 2 -0.08714830 -0.05046087 -0.05618394 -0.05969391 -0.06545124
## 3 -0.08420415 -0.05975079 -0.06352056 -0.04341067 -0.09638486
## 4 -0.06532919 -0.05282759 -0.05300234 -0.13791464 -0.11362926
## 5 -0.05299917 -0.05294586 -0.04586399 -0.05698014 -0.07175338
## 6 -0.05820992 -0.05318816 -0.06006532 -0.01420598 -0.02155388
## 7 -0.07384938 -0.05215549 -0.06158999 -0.04105812 -0.05517681
## 8 -0.03872603 -0.04187753 -0.04706541 -0.08803727 -0.05337990
## 9 -0.06821980 -0.05349648 -0.04974697 -0.02684921 -0.03697371
## 10 -0.07304543 -0.05156841 -0.05486687 -0.07835329 -0.03880561
## 11 -0.07880581 -0.05215549 -0.05866568 -0.14111932 -0.09741339
## 12 -0.03632455 -0.04943395 -0.05929714 -0.07013628 -0.06545124
## 13 -0.03632455 -0.04805247 -0.06459433 -0.04665139 -0.05728919
## 14 -0.07384938 -0.04874499 -0.04385301 -0.03718213 0.00000000
#Número de variables en el factor:
ncol(data_norm) -> m
#Constante de entropía:
-1/log(m) -> K
head(K)
## [1] -0.6213349
#Calculo de las entropia
K*colSums(Dn2)-> Ej
print(Ej)
## X7 X8 X9 X10 X11
## 2.821387 2.902790 2.879575 2.616519 2.707952
#Calculo de las especificidades:
1-Ej-> vj
print(vj)
## X7 X8 X9 X10 X11
## -1.821387 -1.902790 -1.879575 -1.616519 -1.707952
#Calculo de los ponderadores:
prop.table(vj) -> wj #es igual a usar vj/sm(vj)
print(wj)
## X7 X8 X9 X10 X11
## 0.2040033 0.2131209 0.2105206 0.1810572 0.1912981
#Para obtener el ranking exponencial.
r1 <- 5
peso1 <-((11-r1+1))
r2 <- 6
peso2 <-((11-r2+1))
#Normalización de los datos
library(dplyr)
data_rankin <- ((cbind(peso1, peso2))/(peso1+peso2))
print(data_rankin)
## peso1 peso2
## [1,] 0.5384615 0.4615385