Instalamos los paquetes nesesarios y cargamos las biblotecas por medio del código “library”:

library(aod)
library(ggplot2)

Cargar los datos para realizar el modelo.

mydata <- read.csv("https://stats.idre.ucla.edu/stat/data/binary.csv")
head(mydata)
##   admit gre  gpa rank
## 1     0 380 3.61    3
## 2     1 660 3.67    3
## 3     1 800 4.00    1
## 4     1 640 3.19    4
## 5     0 520 2.93    4
## 6     1 760 3.00    2
model <- glm(admit ~ gre + gpa + rank, data = mydata, family = "binomial")

summary(model)
## 
## Call:
## glm(formula = admit ~ gre + gpa + rank, family = "binomial", 
##     data = mydata)
## 
## Coefficients:
##              Estimate Std. Error z value Pr(>|z|)    
## (Intercept) -3.449548   1.132846  -3.045  0.00233 ** 
## gre          0.002294   0.001092   2.101  0.03564 *  
## gpa          0.777014   0.327484   2.373  0.01766 *  
## rank        -0.560031   0.127137  -4.405 1.06e-05 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## (Dispersion parameter for binomial family taken to be 1)
## 
##     Null deviance: 499.98  on 399  degrees of freedom
## Residual deviance: 459.44  on 396  degrees of freedom
## AIC: 467.44
## 
## Number of Fisher Scoring iterations: 4
coefficientes <- coef(model)
odds_ratios <- exp(coefficientes)

print(coefficientes)
## (Intercept)         gre         gpa        rank 
## -3.44954840  0.00229396  0.77701357 -0.56003139
print(odds_ratios)
## (Intercept)         gre         gpa        rank 
##  0.03175998  1.00229659  2.17496718  0.57119114
predict.glm(model, type="response")
##          1          2          3          4          5          6          7 
## 0.18955274 0.31778074 0.71781361 0.14894919 0.09795420 0.37867847 0.39904113 
##          8          9         10         11         12         13         14 
## 0.22117613 0.22152035 0.52050192 0.32159487 0.37795110 0.69886180 0.36108969 
##         15         16         17         18         19         20         21 
## 0.66912853 0.20495385 0.29042043 0.08991589 0.54471952 0.54725357 0.17953077 
##         22         23         24         25         26         27         28 
## 0.44150936 0.10696539 0.16095923 0.44442891 0.66138167 0.55420961 0.16927359 
##         29         30         31         32         33         34         35 
## 0.43086103 0.43527861 0.18037269 0.31362247 0.24760612 0.45352934 0.32214498 
##         36         37         38         39         40         41         42 
## 0.21718685 0.46162831 0.15663993 0.27079774 0.13535861 0.19708385 0.34086776 
##         43         44         45         46         47         48         49 
## 0.32177147 0.19611612 0.33639085 0.19881385 0.36571415 0.09665436 0.05989840 
##         50         51         52         53         54         55         56 
## 0.16671870 0.34023749 0.09549799 0.20203752 0.38488034 0.26494872 0.41968705 
##         57         58         59         60         61         62         63 
## 0.20320989 0.12201152 0.30662875 0.10696539 0.33705339 0.13879058 0.30791848 
##         64         65         66         67         68         69         70 
## 0.35933587 0.33379025 0.40041008 0.23516823 0.49420523 0.54688605 0.67345391 
##         71         72         73         74         75         76         77 
## 0.36506338 0.06107652 0.12406379 0.46728173 0.20467520 0.40855614 0.22543676 
##         78         79         80         81         82         83         84 
## 0.45352934 0.41421703 0.62731831 0.13817123 0.31822856 0.21133041 0.07196699 
##         85         86         87         88         89         90         91 
## 0.23408015 0.25707031 0.35124973 0.38007539 0.53613598 0.51311109 0.50303058 
##         92         93         94         95         96         97         98 
## 0.61547854 0.57344223 0.27638495 0.40548280 0.38505594 0.18445485 0.33301675 
##         99        100        101        102        103        104        105 
## 0.32606423 0.16244549 0.12987058 0.26401427 0.09704358 0.30375695 0.50340138 
##        106        107        108        109        110        111        112 
## 0.36254136 0.58961165 0.26183398 0.12615309 0.31263829 0.14974790 0.11139260 
##        113        114        115        116        117        118        119 
## 0.12209098 0.46724190 0.37889063 0.35272021 0.29326645 0.48167096 0.66830705 
##        120        121        122        123        124        125        126 
## 0.11097537 0.38444550 0.19878836 0.15157580 0.15880288 0.38623194 0.13887924 
##        127        128        129        130        131        132        133 
## 0.52932231 0.25235090 0.29897162 0.10093670 0.33531937 0.28219306 0.35496886 
##        134        135        136        137        138        139        140 
## 0.16945974 0.27035863 0.22992684 0.13972193 0.39751823 0.37624664 0.53705805 
##        141        142        143        144        145        146        147 
## 0.48804884 0.20606425 0.23041213 0.23915825 0.15221523 0.16899293 0.30435081 
##        148        149        150        151        152        153        154 
## 0.14939952 0.34358251 0.56460315 0.67516036 0.26391442 0.48999044 0.24774431 
##        155        156        157        158        159        160        161 
## 0.30149107 0.10555997 0.20966935 0.46834972 0.41488173 0.36454783 0.31838948 
##        162        163        164        165        166        167        168 
## 0.40566159 0.45074249 0.22174862 0.33738490 0.66912853 0.10314043 0.36617755 
##        169        170        171        172        173        174        175 
## 0.29429627 0.28080386 0.18471237 0.15348874 0.29614090 0.48268517 0.14187100 
##        176        177        178        179        180        181        182 
## 0.37079202 0.20734949 0.23189641 0.24602381 0.10884012 0.31641933 0.17830386 
##        183        184        185        186        187        188        189 
## 0.53599134 0.41407591 0.08511257 0.51569617 0.26114879 0.26868284 0.28914048 
##        190        191        192        193        194        195        196 
## 0.30584094 0.30638870 0.36729315 0.32301782 0.11624389 0.37824632 0.37859521 
##        197        198        199        200        201        202        203 
## 0.22614684 0.09429066 0.28237573 0.19312420 0.32682950 0.32023953 0.66912853 
##        204        205        206        207        208        209        210 
## 0.15705340 0.59613313 0.40427048 0.60792022 0.56932889 0.19223672 0.37295345 
##        211        212        213        214        215        216        217 
## 0.19830554 0.29058724 0.21680883 0.26207672 0.39482689 0.20513242 0.27362772 
##        218        219        220        221        222        223        224 
## 0.46853439 0.34550474 0.37859521 0.20713209 0.38474266 0.36310836 0.35474695 
##        225        226        227        228        229        230        231 
## 0.38199142 0.31898414 0.40959311 0.10867428 0.30930851 0.43522263 0.14151023 
##        232        233        234        235        236        237        238 
## 0.23064685 0.25509880 0.10992051 0.63840446 0.31486652 0.41488173 0.41084911 
##        239        240        241        242        243        244        245 
## 0.08944459 0.30086671 0.19533476 0.53586352 0.21929322 0.34403307 0.39921899 
##        246        247        248        249        250        251        252 
## 0.43626071 0.39783519 0.25027691 0.32269356 0.31794154 0.16745875 0.14514415 
##        253        254        255        256        257        258        259 
## 0.43322678 0.15544241 0.22148108 0.25759372 0.30733515 0.34565715 0.34311696 
##        260        261        262        263        264        265        266 
## 0.46479451 0.35589947 0.24737229 0.18875652 0.34565715 0.28773079 0.15939820 
##        267        268        269        270        271        272        273 
## 0.13152605 0.28395292 0.42037072 0.14194182 0.49193233 0.21358509 0.46056237 
##        274        275        276        277        278        279        280 
## 0.52101725 0.27838838 0.29364736 0.24138889 0.52563384 0.14200442 0.35074291 
##        281        282        283        284        285        286        287 
## 0.50145889 0.14641716 0.18317785 0.11026149 0.28369772 0.14913731 0.58116837 
##        288        289        290        291        292        293        294 
## 0.21404547 0.19672132 0.04879228 0.38540721 0.36023465 0.46635878 0.71306804 
##        295        296        297        298        299        300        301 
## 0.28351453 0.19599923 0.43300540 0.24435343 0.35175689 0.30234719 0.36880838 
##        302        303        304        305        306        307        308 
## 0.30610756 0.23068726 0.52068701 0.08120971 0.15832948 0.42367414 0.37477236 
##        309        310        311        312        313        314        315 
## 0.28929293 0.14126778 0.32366687 0.44918651 0.33485931 0.15966598 0.14648140 
##        316        317        318        319        320        321        322 
## 0.15779792 0.18867784 0.25353890 0.15370237 0.44466826 0.16320138 0.32460663 
##        323        324        325        326        327        328        329 
## 0.09940231 0.18005400 0.13718772 0.64122055 0.39226441 0.35870561 0.34436788 
##        330        331        332        333        334        335        336 
## 0.09397446 0.41968705 0.30445963 0.32165933 0.23507581 0.22337740 0.57331652 
##        337        338        339        340        341        342        343 
## 0.18404321 0.13395336 0.42937583 0.28508176 0.11578755 0.14357130 0.18641264 
##        344        345        346        347        348        349        350 
## 0.29703584 0.20853345 0.16406178 0.35657979 0.42886998 0.26090661 0.28234330 
##        351        352        353        354        355        356        357 
## 0.58120732 0.26071973 0.20183518 0.44306014 0.40281207 0.47932120 0.39579787 
##        358        359        360        361        362        363        364 
## 0.55329329 0.27331956 0.39734063 0.57232255 0.48523822 0.36126080 0.30122673 
##        365        366        367        368        369        370        371 
## 0.47148177 0.13372184 0.14212257 0.29176477 0.60562793 0.57154053 0.40094435 
##        372        373        374        375        376        377        378 
## 0.34340000 0.36139502 0.50780208 0.41389599 0.15534507 0.41902016 0.59233117 
##        379        380        381        382        383        384        385 
## 0.22491919 0.22566790 0.46810836 0.34998716 0.35353070 0.64850809 0.19267289 
##        386        387        388        389        390        391        392 
## 0.33191515 0.53175502 0.34788498 0.34562096 0.40753634 0.40985806 0.48980511 
##        393        394        395        396        397        398        399 
## 0.24472238 0.44187513 0.27405667 0.49017577 0.18498919 0.18681435 0.46810836 
##        400 
## 0.32504463
probabilidad_exito= predict.glm(model, type="response")
hist(probabilidad_exito,breaks = 20,
     xlab = "Probabilidad de Éxito", ylab = "Frecuencia",
     main = "Distribución de Probabilidades de Éxito")

Para interpretar el beta 3 (rank) ya que el odd ratio es menor de 1, se divide 1 entre el odd ratio y de esta manera podemos concluir que entre mayor ranking tenga la universidad es 1.75 mas probable de se aceptado, es decir, que entre más ranking tenga la universidad es más dificil ser admitido.

beta3_rank= (1/0.57119114)
print(beta3_rank)
## [1] 1.750727

Interpretación de signos de los coeficientes

En el caso de beta 1 y 2 (gre, gpa); el signo es positivo lo que significa que ante aumentos en x aumenta la probabilidad de ser admitido. En beta 3 (rank) al ser negativo ante aumentos en x la probabilidad de ser admitido disminuye.

Interpretación de odd ratios:

Los odds ratios nos indican cómo cambia la odds (la probabilidad de éxito dividida por la probabilidad de fracaso) para un aumento de una unidad en la variable correspondiente, manteniendo las otras variables constantes. Un odds ratio mayor a 1 sugiere que un aumento en la variable está asociado con mayor probabilidad de admisión, mientras que un odds ratio menor a 1 sugiere lo contrario.

Interpretación de las probabilidades de éxito:

Las probabilidades de éxito son las probabilidades calculadas de que un individuo sea admitido, dados los valores de las variables independientes. Se dan 400 predicciones 1 por cada individuo, que expresan cual es la probabilidad de ser aceptado al aplicar a la universidad.