All models are wrong but some are useful.
La regresión lineal es una herramienta fundamental en estadística, con una versatilidad que abarca una amplia gama de situaciones y la capacidad de adaptarse fácilmente incluso a casos que parecen desafiar su aplicabilidad inicial. Su conceptualización se basa en modelar una variable dependiente en función de un conjunto de variables independientes, identificando coeficientes que expresen la relación entre cada variable independiente y la variable dependiente. La fórmula fundamental de la regresión lineal simple, bajo el supuesto de una variable independiente y un intercepto, se expresa como sigue:
\[ y_i = \beta_0 + \beta_1 x_i + u_i \]
Donde: - \(y_i\) representa la variable dependiente (por ejemplo, la salud del paciente). - \(x_i\) denota la variable independiente (por ejemplo, la dosis del medicamento administrado). - \(\beta_0\) constituye el intercepto, representando el valor esperado de \(y\) cuando \(x\) es igual a cero. - \(\beta_1\) refleja el coeficiente asociado a la variable independiente \(x\), interpretado como el cambio en \(y\) debido a un cambio unitario en \(x\). - \(u_i\) simboliza el término de error, que captura la variabilidad no explicada por el modelo.
Esta ecuación, que describe la relación lineal entre las variables, puede extenderse naturalmente a múltiples variables independientes, donde cada una poseería su propio coeficiente \(\beta\).
La regresión lineal brinda la ventaja de permitir interpretaciones intuitivas y poderosas. Por ejemplo, en un contexto médico donde se evalúa el efecto de un medicamento en la salud de un paciente, el coeficiente \(\beta_1\) indica el cambio esperado en la salud del paciente ante una unidad adicional de dosis del medicamento. Esta capacidad de interpretación directa facilita la toma de decisiones y la comprensión de los resultados.
El método principal para ajustar modelos de regresión lineal es el método de mínimos cuadrados ordinarios (OLS), cuyo objetivo es minimizar la suma de los cuadrados de los residuos, es decir, las diferencias entre los valores predichos por el modelo y los valores observados. Esto implica encontrar los coeficientes óptimos que minimizan esta discrepancia, incluyendo tanto los coeficientes de las variables independientes como el intercepto.
Es importante destacar que el éxito del método OLS depende de ciertas suposiciones, las cuales deben ser validadas para garantizar la precisión y fiabilidad de los resultados. En este capítulo, nos adentraremos en la exploración de estas suposiciones, su evaluación mediante pruebas específicas y cómo abordarlas en caso de incumplimiento.
Existen varios tipos de regresión que se utilizan en diferentes contextos y para abordar distintos tipos de problemas. Aquí tienes una lista de algunos de los tipos más comunes:
La Regresión Lineal Simple es una técnica estadística utilizada para modelar la relación entre una variable independiente \(X\) y una variable dependiente \(Y\). Es uno de los métodos más básicos pero fundamentales en el análisis de datos y se utiliza para predecir o explicar el comportamiento de una variable en función de otra.
La fórmula de la Regresión Lineal Simple se representa de la siguiente manera:
\[ Y = \beta_0 + \beta_1 X + \varepsilon \]
Donde:
El método de mínimos cuadrados es el enfoque más comúnmente utilizado para estimar los coeficientes de regresión en la Regresión Lineal Simple. El objetivo es encontrar los valores de \(\beta_0\) y \(\beta_1\) que minimizan la suma de los cuadrados de los residuos, es decir, la diferencia entre los valores observados de \(Y\) y los valores predichos por el modelo.
Al aplicar la Regresión Lineal Simple, es importante tener en cuenta ciertos supuestos estadísticos:
Linealidad: La relación entre \(X\) y \(Y\) debe ser aproximadamente lineal.
Independencia: Las observaciones deben ser independientes entre sí.
Homocedasticidad: La varianza de los errores debe ser constante a lo largo de todos los niveles de \(X\).
Normalidad de los Residuos: Los residuos deben seguir una distribución normal.
Independencia de los Errores: Los errores deben ser independientes entre sí.
Cumplir con estos supuestos es importante para garantizar que las estimaciones de los coeficientes sean válidas y que las inferencias realizadas a partir del modelo sean confiables. En caso de que alguno de estos supuestos no se cumpla, se deben tomar medidas correctivas o considerar técnicas alternativas.
La regresión lineal simple modela la relación entre una variable independiente y una variable dependiente como una línea recta. Es útil cuando se espera que los datos sigan una tendencia lineal. La ecuación de la regresión lineal simple es:
\[ Y = \beta_0 + \beta_1 X + \varepsilon \]
library(ggplot2)
# Crear un conjunto de datos de ejemplo
set.seed(123)
med <- 1:100
conc <- 2*med + rnorm(100, mean = 0, sd = 50)
datos<-data.frame(med,conc)
datos## med conc
## 1 1 -26.023782
## 2 2 -7.508874
## 3 3 83.935416
## 4 4 11.525420
## 5 5 16.464387
## 6 6 97.753249
## 7 7 37.045810
## 8 8 -47.253062
## 9 9 -16.342643
## 10 10 -2.283099
## 11 11 83.204090
## 12 12 41.990691
## 13 13 46.038573
## 14 14 33.534136
## 15 15 2.207943
## 16 16 121.345657
## 17 17 58.892524
## 18 18 -62.330858
## 19 19 73.067795
## 20 20 16.360430
## 21 21 -11.391185
## 22 22 33.101254
## 23 23 -5.300222
## 24 24 11.555439
## 25 25 18.748037
## 26 26 -32.334666
## 27 27 95.889352
## 28 28 63.668656
## 29 29 1.093153
## 30 30 122.690746
## 31 31 83.323211
## 32 32 49.246426
## 33 33 110.756283
## 34 34 111.906674
## 35 35 111.079054
## 36 36 106.432013
## 37 37 101.695883
## 38 38 72.904414
## 39 39 62.701867
## 40 40 60.976450
## 41 41 47.264651
## 42 42 73.604136
## 43 43 22.730182
## 44 44 196.447798
## 45 45 150.398100
## 46 46 35.844571
## 47 47 73.855758
## 48 48 72.667232
## 49 49 136.998256
## 50 50 95.831547
## 51 51 114.665926
## 52 52 102.572662
## 53 53 103.856477
## 54 54 176.430114
## 55 55 98.711451
## 56 56 187.823530
## 57 57 36.562360
## 58 58 145.230687
## 59 59 124.192712
## 60 60 130.797078
## 61 61 140.981974
## 62 62 98.883827
## 63 63 109.339631
## 64 64 77.071231
## 65 65 76.410439
## 66 66 147.176432
## 67 67 156.410489
## 68 68 138.650211
## 69 69 184.113373
## 70 70 242.504234
## 71 71 117.448442
## 72 72 28.541556
## 73 73 196.286926
## 74 74 112.539962
## 75 75 115.599569
## 76 76 203.278568
## 77 77 139.761350
## 78 78 94.964114
## 79 79 167.065174
## 80 80 153.055432
## 81 81 162.288209
## 82 82 183.264020
## 83 83 147.466998
## 84 84 200.218827
## 85 85 158.975672
## 86 86 188.589098
## 87 87 228.841951
## 88 88 197.759075
## 89 89 161.703421
## 90 90 237.440381
## 91 91 231.675193
## 92 92 211.419848
## 93 93 197.936587
## 94 94 156.604696
## 95 95 258.032622
## 96 96 161.987021
## 97 97 303.366650
## 98 98 272.630531
## 99 99 186.214982
## 100 100 148.678955
## 'data.frame': 100 obs. of 2 variables:
## $ med : int 1 2 3 4 5 6 7 8 9 10 ...
## $ conc: num -26.02 -7.51 83.94 11.53 16.46 ...
## [1] 105.5203
##
## Call:
## lm(formula = conc ~ med)
##
## Coefficients:
## (Intercept) med
## -1.820 2.126
modelo <- lm(conc ~ med)
# Obtener el intercepto y la pendiente del modelo
intercepto <- coef(modelo)[1] ; intercepto## (Intercept)
## -1.820193
## med
## 2.125554
##
## Call:
## lm(formula = conc ~ med)
##
## Residuals:
## Min 1Q Median 3Q Max
## -122.678 -27.618 -1.731 32.425 104.744
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) -1.8202 9.2144 -0.198 0.844
## med 2.1256 0.1584 13.418 <2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 45.73 on 98 degrees of freedom
## Multiple R-squared: 0.6475, Adjusted R-squared: 0.6439
## F-statistic: 180 on 1 and 98 DF, p-value: < 2.2e-16
El valor de p nos indica lo siguiente:
Ho: Es producto del azar Ha: No es producto del azar
alfa con un valor de 0.05 => rechazamos la hipótesis nula debido a que el valor de p es menor a 0.05.
Ahora crearemos el plot
ggplot(datos, aes(x = med, y = conc)) + # Comando para ggplot, llamar bd y variables
geom_point() # Agregar puntos para los datos# Graficar los datos y la línea de regresión utilizando ggplot2
ggplot(datos, aes(x = med, y = conc)) + # Comando para ggplot, llamar bd y variables
geom_point() + # Agregar puntos para los datos
geom_smooth(method = "lm", se= TRUE, color = "blue", size = 1) + # Agregar la línea de regresión
labs(title = "Y= -1.82 + 2.1256*medicamente", x = "[Medicamento]", y = "[Insulina]")## Warning: Using `size` aesthetic for lines was deprecated in ggplot2 3.4.0.
## ℹ Please use `linewidth` instead.
## This warning is displayed once every 8 hours.
## Call `lifecycle::last_lifecycle_warnings()` to see where this warning was
## generated.
## `geom_smooth()` using formula = 'y ~ x'
## [1] 1060.98
Revisemos los supuestos
Nuestro próximo paso es verificar los puntos de datos atípicos. Los modelos de regresión lineal también asumen que no hay valores extremos en el conjunto de datos que no sean representativos de la relación real entre las variables predictoras y los resultados. Un diagrama de caja y bigotes es un método común utilizado para determinar rápidamente si un conjunto de datos contiene algún valor atípico, o puntos de datos que difieren significativamente de otras observaciones en un conjunto de datos. Un valor atípico puede ser causado por la variabilidad en la medición, o podría ser un indicio de un error en la recolección de datos.
## Warning: Continuous x aesthetic
## ℹ did you forget `aes(group = ...)`?
Ahora verificaremos la Homocedasticidad y la Normalidad de los residuos
El modelo Lineal Generalizado equivalente sería
# Generar datos de ejemplo
set.seed(123) # Establecer una semilla para reproducibilidad
# Definir variables predictoras
medA <- rnorm(100, 10, 3) # Variable continua normalmente distribuida
medB <- rnorm(100, 15, 2) # Otra variable continua normalmente distribuida
# Definir variable dependiente (datos de conteo)
Bien <- rpois(100, lambda = 0.5 + 3*medA + 5*medB) # Variable de conteo generada a partir de una distribución Poisson
# Crear dataframe
datos2 <- data.frame(Bien, medA, medB)
datos2## Bien medA medB
## 1 114 8.318573 13.57919
## 2 119 9.309468 15.51377
## 3 114 14.676125 14.50662
## 4 88 10.211525 14.30491
## 5 92 10.387863 13.09676
## 6 120 15.145195 14.90994
## 7 93 11.382749 13.43019
## 8 76 6.204816 11.66412
## 9 96 7.939441 14.23955
## 10 113 8.663014 16.83799
## 11 123 13.672245 13.84931
## 12 109 11.079441 16.21593
## 13 103 11.202314 11.76423
## 14 107 10.332048 14.88888
## 15 133 8.332477 16.03881
## 16 127 15.360739 15.60231
## 17 110 11.493551 15.21135
## 18 72 4.100149 13.71859
## 19 109 12.104068 13.30059
## 20 101 8.581626 12.95174
## 21 104 6.796529 15.23529
## 22 90 9.346075 13.10505
## 23 87 6.921987 14.01889
## 24 89 7.813326 14.48782
## 25 125 8.124882 18.68772
## 26 73 4.939920 13.69610
## 27 114 12.513361 15.47077
## 28 109 10.460119 15.15592
## 29 78 6.585589 13.07629
## 30 125 13.761445 14.85738
## 31 134 11.279393 17.88910
## 32 114 9.114786 15.90301
## 33 112 12.685377 15.08247
## 34 74 12.634400 14.15501
## 35 84 12.464743 10.89351
## 36 128 12.065921 17.26267
## 37 84 11.661753 12.07872
## 38 110 9.814265 16.47990
## 39 105 9.082112 18.81821
## 40 74 8.858587 12.11221
## 41 89 7.915879 16.40357
## 42 97 9.376248 14.47561
## 43 65 6.203811 11.85571
## 44 110 16.506868 11.97066
## 45 116 13.623886 11.79693
## 46 89 6.630674 13.93819
## 47 97 8.791345 12.07649
## 48 114 8.600034 16.37583
## 49 132 12.339895 19.20022
## 50 77 9.749893 12.42594
## 51 111 10.759956 16.57548
## 52 113 9.914360 16.53808
## 53 121 9.871389 15.66441
## 54 131 14.105807 12.98325
## 55 117 9.322687 14.76109
## 56 114 14.549412 14.43921
## 57 103 5.353742 16.12598
## 58 116 11.753841 14.25512
## 59 109 10.371563 16.95395
## 60 113 10.647825 14.25084
## 61 126 11.138918 17.10542
## 62 77 8.493030 12.90165
## 63 87 9.000378 12.47969
## 64 130 6.944274 21.48208
## 65 92 6.784626 14.16628
## 66 115 10.910586 15.59646
## 67 116 11.344629 16.27314
## 68 84 10.159013 14.03244
## 69 109 12.766802 16.03372
## 70 124 16.150254 15.73793
## 71 110 8.526907 14.56924
## 72 97 3.072493 15.13059
## 73 112 13.017216 14.93187
## 74 117 7.872398 19.25690
## 75 91 7.935974 13.51733
## 76 112 13.076714 12.80801
## 77 99 9.145681 15.07558
## 78 91 6.337847 15.62096
## 79 113 10.543910 15.87305
## 80 84 9.583326 14.08327
## 81 81 10.017293 12.87335
## 82 116 11.155841 17.52637
## 83 91 8.888020 14.30070
## 84 97 11.933130 13.26897
## 85 90 9.338540 14.52744
## 86 103 10.995346 14.60565
## 87 103 13.290517 17.21984
## 88 118 11.305544 15.16947
## 89 117 9.022205 16.50811
## 90 92 13.446423 14.00142
## 91 124 12.980512 15.42889
## 92 89 11.645191 14.35063
## 93 119 10.716195 15.18917
## 94 86 8.116282 13.20927
## 95 103 14.081957 12.37840
## 96 106 8.199221 18.99443
## 97 138 16.561999 16.20142
## 98 104 14.597832 12.49746
## 99 109 9.292899 13.77767
## 100 72 6.920737 12.62904
# Definir colores y etiquetas para medA y medB
colores <- c("medA" = "black", "medB" = "red")
etiquetas <- c("medA" = "medA", "medB" = "medB")
# Gráfico de dispersión de Bien vs medA y medB con puntos separados por color y etiquetas
ggplot(datos2, aes(x = medA, y = Bien)) +
geom_point(aes(color = "medA")) + # Primera serie de puntos en azul
geom_point(aes(x = medB, color = "medB")) + # Segunda serie de puntos en rojo
#geom_smooth(method = "lm", fill = NA) +
scale_color_manual(values = colores, labels = etiquetas) + # Definir colores y etiquetas
labs(x = "medA,B", y = "Bien") +
ggtitle("Gráfico de dispersión de Bien vs medA y medB con etiquetas de color")## Bien medA medB
## 1 114 8.318573 13.57919
## 2 119 9.309468 15.51377
## 3 114 14.676125 14.50662
## 4 88 10.211525 14.30491
## 5 92 10.387863 13.09676
## 6 120 15.145195 14.90994
## 7 93 11.382749 13.43019
## 8 76 6.204816 11.66412
## 9 96 7.939441 14.23955
## 10 113 8.663014 16.83799
## 11 123 13.672245 13.84931
## 12 109 11.079441 16.21593
## 13 103 11.202314 11.76423
## 14 107 10.332048 14.88888
## 15 133 8.332477 16.03881
## 16 127 15.360739 15.60231
## 17 110 11.493551 15.21135
## 18 72 4.100149 13.71859
## 19 109 12.104068 13.30059
## 20 101 8.581626 12.95174
## 21 104 6.796529 15.23529
## 22 90 9.346075 13.10505
## 23 87 6.921987 14.01889
## 24 89 7.813326 14.48782
## 25 125 8.124882 18.68772
## 26 73 4.939920 13.69610
## 27 114 12.513361 15.47077
## 28 109 10.460119 15.15592
## 29 78 6.585589 13.07629
## 30 125 13.761445 14.85738
## 31 134 11.279393 17.88910
## 32 114 9.114786 15.90301
## 33 112 12.685377 15.08247
## 34 74 12.634400 14.15501
## 35 84 12.464743 10.89351
## 36 128 12.065921 17.26267
## 37 84 11.661753 12.07872
## 38 110 9.814265 16.47990
## 39 105 9.082112 18.81821
## 40 74 8.858587 12.11221
## 41 89 7.915879 16.40357
## 42 97 9.376248 14.47561
## 43 65 6.203811 11.85571
## 44 110 16.506868 11.97066
## 45 116 13.623886 11.79693
## 46 89 6.630674 13.93819
## 47 97 8.791345 12.07649
## 48 114 8.600034 16.37583
## 49 132 12.339895 19.20022
## 50 77 9.749893 12.42594
## 51 111 10.759956 16.57548
## 52 113 9.914360 16.53808
## 53 121 9.871389 15.66441
## 54 131 14.105807 12.98325
## 55 117 9.322687 14.76109
## 56 114 14.549412 14.43921
## 57 103 5.353742 16.12598
## 58 116 11.753841 14.25512
## 59 109 10.371563 16.95395
## 60 113 10.647825 14.25084
## 61 126 11.138918 17.10542
## 62 77 8.493030 12.90165
## 63 87 9.000378 12.47969
## 64 130 6.944274 21.48208
## 65 92 6.784626 14.16628
## 66 115 10.910586 15.59646
## 67 116 11.344629 16.27314
## 68 84 10.159013 14.03244
## 69 109 12.766802 16.03372
## 70 124 16.150254 15.73793
## 71 110 8.526907 14.56924
## 72 97 3.072493 15.13059
## 73 112 13.017216 14.93187
## 74 117 7.872398 19.25690
## 75 91 7.935974 13.51733
## 76 112 13.076714 12.80801
## 77 99 9.145681 15.07558
## 78 91 6.337847 15.62096
## 79 113 10.543910 15.87305
## 80 84 9.583326 14.08327
## 81 81 10.017293 12.87335
## 82 116 11.155841 17.52637
## 83 91 8.888020 14.30070
## 84 97 11.933130 13.26897
## 85 90 9.338540 14.52744
## 86 103 10.995346 14.60565
## 87 103 13.290517 17.21984
## 88 118 11.305544 15.16947
## 89 117 9.022205 16.50811
## 90 92 13.446423 14.00142
## 91 124 12.980512 15.42889
## 92 89 11.645191 14.35063
## 93 119 10.716195 15.18917
## 94 86 8.116282 13.20927
## 95 103 14.081957 12.37840
## 96 106 8.199221 18.99443
## 97 138 16.561999 16.20142
## 98 104 14.597832 12.49746
## 99 109 9.292899 13.77767
## 100 72 6.920737 12.62904
datos2_plon <- datos2 %>%
pivot_longer(cols=-Bien, names_to= "Medicamento" , values_to= "concentracion")
datos2_plon## # A tibble: 200 × 3
## Bien Medicamento concentracion
## <int> <chr> <dbl>
## 1 114 medA 8.32
## 2 114 medB 13.6
## 3 119 medA 9.31
## 4 119 medB 15.5
## 5 114 medA 14.7
## 6 114 medB 14.5
## 7 88 medA 10.2
## 8 88 medB 14.3
## 9 92 medA 10.4
## 10 92 medB 13.1
## # ℹ 190 more rows
## # A tibble: 200 × 3
## Bien Medicamento concentracion
## <int> <fct> <dbl>
## 1 114 medA 8.32
## 2 114 medB 13.6
## 3 119 medA 9.31
## 4 119 medB 15.5
## 5 114 medA 14.7
## 6 114 medB 14.5
## 7 88 medA 10.2
## 8 88 medB 14.3
## 9 92 medA 10.4
## 10 92 medB 13.1
## # ℹ 190 more rows
library(ggplot2)
# Gráfico de dispersión de Bien vs medA y medB con puntos separados por color y etiquetas
ggplot(datos2_plon, aes(x = concentracion, y = Bien, color=Medicamento)) +
geom_point() + # Primera serie de puntos en azul
geom_smooth(method = "lm", fill = NA)+
labs(x = "Concentracion", y = "Bienestar") +
ggtitle("Efecto de los medicamentos")## `geom_smooth()` using formula = 'y ~ x'
# Ajustar modelo GLM con distribución Poisson
modelo.p1 <- glm(Bien ~ medA , data = datos2, family = poisson(link = "log"))
modelo.p2 <- glm(Bien ~ medB , data = datos2, family = poisson(link = "log"))
modelo.p3 <- glm(Bien ~ medA + medB, data = datos2, family = poisson(link = "log"))
modelo.p4 <- glm(Bien ~ medA*medB, data = datos2, family = poisson(link = "log"))
modelo.p5 <- glm(Bien ~ medA*medB, data = datos2, family = poisson)
# Resumen del modelo
summary(modelo.p1)##
## Call:
## glm(formula = Bien ~ medA, family = poisson(link = "log"), data = datos2)
##
## Coefficients:
## Estimate Std. Error z value Pr(>|z|)
## (Intercept) 4.34763 0.03889 111.790 < 2e-16 ***
## medA 0.02869 0.00359 7.992 1.33e-15 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## (Dispersion parameter for poisson family taken to be 1)
##
## Null deviance: 273.29 on 99 degrees of freedom
## Residual deviance: 209.50 on 98 degrees of freedom
## AIC: 860.63
##
## Number of Fisher Scoring iterations: 4
##
## Call:
## glm(formula = Bien ~ medB, family = poisson(link = "log"), data = datos2)
##
## Coefficients:
## Estimate Std. Error z value Pr(>|z|)
## (Intercept) 3.938626 0.074644 52.766 <2e-16 ***
## medB 0.047512 0.004944 9.609 <2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## (Dispersion parameter for poisson family taken to be 1)
##
## Null deviance: 273.29 on 99 degrees of freedom
## Residual deviance: 182.77 on 98 degrees of freedom
## AIC: 833.9
##
## Number of Fisher Scoring iterations: 4
##
## Call:
## glm(formula = Bien ~ medA + medB, family = poisson(link = "log"),
## data = datos2)
##
## Coefficients:
## Estimate Std. Error z value Pr(>|z|)
## (Intercept) 3.568652 0.087064 40.989 <2e-16 ***
## medA 0.031198 0.003624 8.608 <2e-16 ***
## medB 0.050615 0.004996 10.131 <2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## (Dispersion parameter for poisson family taken to be 1)
##
## Null deviance: 273.29 on 99 degrees of freedom
## Residual deviance: 108.73 on 97 degrees of freedom
## AIC: 761.85
##
## Number of Fisher Scoring iterations: 4
##
## Call:
## glm(formula = Bien ~ medA * medB, family = poisson(link = "log"),
## data = datos2)
##
## Coefficients:
## Estimate Std. Error z value Pr(>|z|)
## (Intercept) 3.100154 0.286975 10.803 < 2e-16 ***
## medA 0.078697 0.027976 2.813 0.00491 **
## medB 0.082509 0.019265 4.283 1.85e-05 ***
## medA:medB -0.003240 0.001893 -1.712 0.08694 .
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## (Dispersion parameter for poisson family taken to be 1)
##
## Null deviance: 273.29 on 99 degrees of freedom
## Residual deviance: 105.81 on 96 degrees of freedom
## AIC: 760.94
##
## Number of Fisher Scoring iterations: 4
##
## Call:
## glm(formula = Bien ~ medA * medB, family = poisson, data = datos2)
##
## Coefficients:
## Estimate Std. Error z value Pr(>|z|)
## (Intercept) 3.100154 0.286975 10.803 < 2e-16 ***
## medA 0.078697 0.027976 2.813 0.00491 **
## medB 0.082509 0.019265 4.283 1.85e-05 ***
## medA:medB -0.003240 0.001893 -1.712 0.08694 .
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## (Dispersion parameter for poisson family taken to be 1)
##
## Null deviance: 273.29 on 99 degrees of freedom
## Residual deviance: 105.81 on 96 degrees of freedom
## AIC: 760.94
##
## Number of Fisher Scoring iterations: 4
Resultados de los modelos
modelo pxA pxB pxA*B AIC p1 1.33e-15 860.63 p2 2e-16 833.9 p3 2e-16 2e-16 761.85 p4 0.0049 1.85e-5 0.08694 760.94
Evaluar si hay diferencia entre los dos mejores modelos, recuerda el principio de la Navaja de Okham
Wikipedia: La navaja de Ockham (a veces escrito Occam u Ockam), principio de economía o principio de parsimonia (lex parsimoniae) es un principio filosófico y metodológico atribuido al fraile franciscano, filósofo y lógico escolástico Guillermo de Ockham (1285-1347) (aunque investigaciones más profundas sugieren que este se puede rastrear más atrás, al menos hasta Aristóteles), según el cual «en igualdad de condiciones, la explicación más simple suele ser la más probable». Esto implica que, cuando dos teorías en igualdad de condiciones tienen las mismas consecuencias, la teoría más simple tiene más probabilidades de ser correcta que la compleja.
## Analysis of Deviance Table
##
## Model 1: Bien ~ medA + medB
## Model 2: Bien ~ medB
## Resid. Df Resid. Dev Df Deviance Pr(>Chi)
## 1 97 108.73
## 2 98 182.77 -1 -74.043 < 2.2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## Analysis of Deviance Table
##
## Model 1: Bien ~ medA + medB
## Model 2: Bien ~ medA * medB
## Resid. Df Resid. Dev Df Deviance Pr(>Chi)
## 1 97 108.73
## 2 96 105.81 1 2.914 0.08781 .
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
Ho: No hay diferencia significativa Ha: Hay diferencia significativa
alfa 0.05 y lo debo comparar con el valor de p
Si p=> 0.05 entonces acepto la hipótesis nula
Si p< 0.05 entonces rechazo la hipótesis nula
#Tarea 6. Elaborar el plot con el modelo 3 y estimar el valor de y cuando x(0,10,100,150,200)
# Generar datos de ejemplo
set.seed(123) # Establecer una semilla para reproducibilidad
# Definir variables predictoras
medC <- rnorm(100, 10, 3) # Variable continua normalmente distribuida
# Definir variable dependiente (datos de conteo)
Bienestar <- rpois(1000, lambda = exp(0.5 + 0.3*medC + 0.5*medC)) # Variable de conteo generada a partir de una distribución Poisson
# Crear dataframe
datos3 <- data.frame(Bienestar, medC)
datos3## Bienestar medC
## 1 1254 8.318573
## 2 2830 9.309468
## 3 207623 14.676125
## 4 5778 10.211525
## 5 6699 10.387863
## 6 301636 15.145195
## 7 14920 11.382749
## 8 232 6.204816
## 9 927 7.939441
## 10 1706 8.663014
## 11 92681 13.672245
## 12 11711 11.079441
## 13 12893 11.202314
## 14 6418 10.332048
## 15 1271 8.332477
## 16 358684 15.360739
## 17 16342 11.493551
## 18 46 4.100149
## 19 26511 12.104068
## 20 1603 8.581626
## 21 415 6.796529
## 22 2945 9.346075
## 23 403 6.921987
## 24 856 7.813326
## 25 1064 8.124882
## 26 96 4.939920
## 27 36932 12.513361
## 28 7240 10.460119
## 29 323 6.585589
## 30 99499 13.761445
## 31 13809 11.279393
## 32 2348 9.114786
## 33 42249 12.685377
## 34 40420 12.634400
## 35 35437 12.464743
## 36 25619 12.065921
## 37 18535 11.661753
## 38 4131 9.814265
## 39 2296 9.082112
## 40 2002 8.858587
## 41 991 7.915879
## 42 2913 9.376248
## 43 199 6.203811
## 44 896134 16.506868
## 45 88940 13.623886
## 46 331 6.630674
## 47 1865 8.791345
## 48 1588 8.600034
## 49 31822 12.339895
## 50 4090 9.749893
## 51 8927 10.759956
## 52 4465 9.914360
## 53 4406 9.871389
## 54 131017 14.105807
## 55 2832 9.322687
## 56 187281 14.549412
## 57 141 5.353742
## 58 19825 11.753841
## 59 6613 10.371563
## 60 8226 10.647825
## 61 12102 11.138918
## 62 1434 8.493030
## 63 2229 9.000378
## 64 416 6.944274
## 65 358 6.784626
## 66 10147 10.910586
## 67 14158 11.344629
## 68 5566 10.159013
## 69 44932 12.766802
## 70 674091 16.150254
## 71 1493 8.526907
## 72 22 3.072493
## 73 55100 13.017216
## 74 936 7.872398
## 75 925 7.935974
## 76 58084 13.076714
## 77 2511 9.145681
## 78 242 6.337847
## 79 7482 10.543910
## 80 3652 9.583326
## 81 5075 10.017293
## 82 12360 11.155841
## 83 1956 8.888020
## 84 23002 11.933130
## 85 2894 9.338540
## 86 10806 10.995346
## 87 68337 13.290517
## 88 14010 11.305544
## 89 2226 9.022205
## 90 77287 13.446423
## 91 53590 12.980512
## 92 18349 11.645191
## 93 8969 10.716195
## 94 1098 8.116282
## 95 128730 14.081957
## 96 1144 8.199221
## 97 935273 16.561999
## 98 194827 14.597832
## 99 2772 9.292899
## 100 410 6.920737
## 101 1254 8.318573
## 102 2864 9.309468
## 103 206564 14.676125
## 104 5814 10.211525
## 105 6652 10.387863
## 106 301073 15.145195
## 107 14969 11.382749
## 108 246 6.204816
## 109 941 7.939441
## 110 1654 8.663014
## 111 93034 13.672245
## 112 11708 11.079441
## 113 12724 11.202314
## 114 6395 10.332048
## 115 1241 8.332477
## 116 357294 15.360739
## 117 16023 11.493551
## 118 41 4.100149
## 119 26227 12.104068
## 120 1583 8.581626
## 121 409 6.796529
## 122 2907 9.346075
## 123 413 6.921987
## 124 851 7.813326
## 125 1126 8.124882
## 126 82 4.939920
## 127 36714 12.513361
## 128 7211 10.460119
## 129 361 6.585589
## 130 100112 13.761445
## 131 13662 11.279393
## 132 2452 9.114786
## 133 42316 12.685377
## 134 40317 12.634400
## 135 35486 12.464743
## 136 25770 12.065921
## 137 18381 11.661753
## 138 4217 9.814265
## 139 2366 9.082112
## 140 1975 8.858587
## 141 940 7.915879
## 142 2985 9.376248
## 143 210 6.203811
## 144 895026 16.506868
## 145 89162 13.623886
## 146 353 6.630674
## 147 1925 8.791345
## 148 1595 8.600034
## 149 31910 12.339895
## 150 4021 9.749893
## 151 9127 10.759956
## 152 4666 9.914360
## 153 4395 9.871389
## 154 131297 14.105807
## 155 2775 9.322687
## 156 186540 14.549412
## 157 114 5.353742
## 158 19890 11.753841
## 159 6577 10.371563
## 160 8156 10.647825
## 161 12188 11.138918
## 162 1394 8.493030
## 163 2245 9.000378
## 164 440 6.944274
## 165 342 6.784626
## 166 10259 10.910586
## 167 14203 11.344629
## 168 5659 10.159013
## 169 44847 12.766802
## 170 673386 16.150254
## 171 1482 8.526907
## 172 23 3.072493
## 173 54983 13.017216
## 174 932 7.872398
## 175 901 7.935974
## 176 57276 13.076714
## 177 2515 9.145681
## 178 261 6.337847
## 179 7649 10.543910
## 180 3600 9.583326
## 181 4983 10.017293
## 182 12503 11.155841
## 183 1965 8.888020
## 184 22856 11.933130
## 185 2915 9.338540
## 186 10683 10.995346
## 187 68201 13.290517
## 188 14069 11.305544
## 189 2243 9.022205
## 190 77588 13.446423
## 191 53617 12.980512
## 192 18344 11.645191
## 193 8627 10.716195
## 194 1031 8.116282
## 195 128354 14.081957
## 196 1130 8.199221
## 197 935856 16.561999
## 198 193636 14.597832
## 199 2809 9.292899
## 200 412 6.920737
## 201 1292 8.318573
## 202 2850 9.309468
## 203 207073 14.676125
## 204 5616 10.211525
## 205 6686 10.387863
## 206 302012 15.145195
## 207 14941 11.382749
## 208 240 6.204816
## 209 883 7.939441
## 210 1702 8.663014
## 211 92474 13.672245
## 212 11902 11.079441
## 213 12515 11.202314
## 214 6277 10.332048
## 215 1297 8.332477
## 216 357220 15.360739
## 217 16158 11.493551
## 218 34 4.100149
## 219 26454 12.104068
## 220 1547 8.581626
## 221 382 6.796529
## 222 2922 9.346075
## 223 397 6.921987
## 224 866 7.813326
## 225 1125 8.124882
## 226 93 4.939920
## 227 36577 12.513361
## 228 7130 10.460119
## 229 308 6.585589
## 230 99749 13.761445
## 231 13666 11.279393
## 232 2392 9.114786
## 233 42142 12.685377
## 234 40432 12.634400
## 235 35068 12.464743
## 236 25557 12.065921
## 237 18412 11.661753
## 238 4357 9.814265
## 239 2355 9.082112
## 240 1898 8.858587
## 241 964 7.915879
## 242 2924 9.376248
## 243 239 6.203811
## 244 896285 16.506868
## 245 89322 13.623886
## 246 343 6.630674
## 247 1863 8.791345
## 248 1628 8.600034
## 249 32082 12.339895
## 250 4060 9.749893
## 251 9044 10.759956
## 252 4616 9.914360
## 253 4347 9.871389
## 254 131325 14.105807
## 255 2865 9.322687
## 256 187674 14.549412
## 257 111 5.353742
## 258 20076 11.753841
## 259 6662 10.371563
## 260 8237 10.647825
## 261 12064 11.138918
## 262 1405 8.493030
## 263 2223 9.000378
## 264 405 6.944274
## 265 377 6.784626
## 266 10086 10.910586
## 267 14540 11.344629
## 268 5415 10.159013
## 269 45027 12.766802
## 270 674632 16.150254
## 271 1471 8.526907
## 272 18 3.072493
## 273 54776 13.017216
## 274 916 7.872398
## 275 946 7.935974
## 276 57774 13.076714
## 277 2466 9.145681
## 278 285 6.337847
## 279 7685 10.543910
## 280 3547 9.583326
## 281 5033 10.017293
## 282 12492 11.155841
## 283 1899 8.888020
## 284 23104 11.933130
## 285 2989 9.338540
## 286 10905 10.995346
## 287 68228 13.290517
## 288 13925 11.305544
## 289 2270 9.022205
## 290 77468 13.446423
## 291 53520 12.980512
## 292 18215 11.645191
## 293 8877 10.716195
## 294 1091 8.116282
## 295 129145 14.081957
## 296 1231 8.199221
## 297 935941 16.561999
## 298 194079 14.597832
## 299 2780 9.292899
## 300 397 6.920737
## 301 1268 8.318573
## 302 2746 9.309468
## 303 207097 14.676125
## 304 5844 10.211525
## 305 6811 10.387863
## 306 301455 15.145195
## 307 14943 11.382749
## 308 247 6.204816
## 309 973 7.939441
## 310 1662 8.663014
## 311 92013 13.672245
## 312 11644 11.079441
## 313 12896 11.202314
## 314 6466 10.332048
## 315 1257 8.332477
## 316 357295 15.360739
## 317 16201 11.493551
## 318 46 4.100149
## 319 26546 12.104068
## 320 1556 8.581626
## 321 399 6.796529
## 322 2909 9.346075
## 323 387 6.921987
## 324 842 7.813326
## 325 1027 8.124882
## 326 89 4.939920
## 327 36593 12.513361
## 328 7119 10.460119
## 329 335 6.585589
## 330 99688 13.761445
## 331 13605 11.279393
## 332 2426 9.114786
## 333 41890 12.685377
## 334 40228 12.634400
## 335 35280 12.464743
## 336 25643 12.065921
## 337 18376 11.661753
## 338 4308 9.814265
## 339 2384 9.082112
## 340 2027 8.858587
## 341 931 7.915879
## 342 3006 9.376248
## 343 227 6.203811
## 344 894927 16.506868
## 345 88817 13.623886
## 346 311 6.630674
## 347 1903 8.791345
## 348 1650 8.600034
## 349 32013 12.339895
## 350 3984 9.749893
## 351 8991 10.759956
## 352 4557 9.914360
## 353 4393 9.871389
## 354 131535 14.105807
## 355 2904 9.322687
## 356 186606 14.549412
## 357 127 5.353742
## 358 20036 11.753841
## 359 6547 10.371563
## 360 8181 10.647825
## 361 12231 11.138918
## 362 1530 8.493030
## 363 2228 9.000378
## 364 445 6.944274
## 365 369 6.784626
## 366 10163 10.910586
## 367 14431 11.344629
## 368 5516 10.159013
## 369 44725 12.766802
## 370 673614 16.150254
## 371 1518 8.526907
## 372 23 3.072493
## 373 54967 13.017216
## 374 916 7.872398
## 375 925 7.935974
## 376 57836 13.076714
## 377 2408 9.145681
## 378 258 6.337847
## 379 7555 10.543910
## 380 3536 9.583326
## 381 5081 10.017293
## 382 12353 11.155841
## 383 2020 8.888020
## 384 23026 11.933130
## 385 2857 9.338540
## 386 10949 10.995346
## 387 68079 13.290517
## 388 13937 11.305544
## 389 2210 9.022205
## 390 77358 13.446423
## 391 52689 12.980512
## 392 18477 11.645191
## 393 8613 10.716195
## 394 1105 8.116282
## 395 128327 14.081957
## 396 1188 8.199221
## 397 935382 16.561999
## 398 195335 14.597832
## 399 2848 9.292899
## 400 417 6.920737
## 401 1279 8.318573
## 402 2748 9.309468
## 403 207136 14.676125
## 404 6054 10.211525
## 405 6704 10.387863
## 406 301878 15.145195
## 407 14960 11.382749
## 408 260 6.204816
## 409 947 7.939441
## 410 1736 8.663014
## 411 92230 13.672245
## 412 11771 11.079441
## 413 12564 11.202314
## 414 6428 10.332048
## 415 1232 8.332477
## 416 359034 15.360739
## 417 16053 11.493551
## 418 42 4.100149
## 419 26361 12.104068
## 420 1545 8.581626
## 421 379 6.796529
## 422 2748 9.346075
## 423 390 6.921987
## 424 860 7.813326
## 425 1106 8.124882
## 426 76 4.939920
## 427 36765 12.513361
## 428 6987 10.460119
## 429 330 6.585589
## 430 99676 13.761445
## 431 13693 11.279393
## 432 2436 9.114786
## 433 42064 12.685377
## 434 40492 12.634400
## 435 35335 12.464743
## 436 25762 12.065921
## 437 18517 11.661753
## 438 4240 9.814265
## 439 2408 9.082112
## 440 1949 8.858587
## 441 957 7.915879
## 442 2878 9.376248
## 443 250 6.203811
## 444 895950 16.506868
## 445 88914 13.623886
## 446 316 6.630674
## 447 1837 8.791345
## 448 1634 8.600034
## 449 31971 12.339895
## 450 4078 9.749893
## 451 9158 10.759956
## 452 4722 9.914360
## 453 4432 9.871389
## 454 131353 14.105807
## 455 2833 9.322687
## 456 187057 14.549412
## 457 126 5.353742
## 458 20004 11.753841
## 459 6607 10.371563
## 460 8288 10.647825
## 461 12162 11.138918
## 462 1481 8.493030
## 463 2253 9.000378
## 464 430 6.944274
## 465 357 6.784626
## 466 10158 10.910586
## 467 14521 11.344629
## 468 5706 10.159013
## 469 45016 12.766802
## 470 673167 16.150254
## 471 1558 8.526907
## 472 15 3.072493
## 473 54758 13.017216
## 474 891 7.872398
## 475 968 7.935974
## 476 57584 13.076714
## 477 2445 9.145681
## 478 262 6.337847
## 479 7655 10.543910
## 480 3618 9.583326
## 481 5097 10.017293
## 482 12548 11.155841
## 483 1974 8.888020
## 484 23109 11.933130
## 485 2935 9.338540
## 486 11008 10.995346
## 487 68295 13.290517
## 488 13814 11.305544
## 489 2316 9.022205
## 490 77743 13.446423
## 491 53530 12.980512
## 492 18288 11.645191
## 493 8817 10.716195
## 494 1090 8.116282
## 495 128844 14.081957
## 496 1163 8.199221
## 497 936878 16.561999
## 498 194451 14.597832
## 499 2804 9.292899
## 500 429 6.920737
## 501 1287 8.318573
## 502 2789 9.309468
## 503 206550 14.676125
## 504 5888 10.211525
## 505 6543 10.387863
## 506 300789 15.145195
## 507 14920 11.382749
## 508 245 6.204816
## 509 942 7.939441
## 510 1822 8.663014
## 511 93050 13.672245
## 512 11524 11.079441
## 513 13129 11.202314
## 514 6463 10.332048
## 515 1302 8.332477
## 516 356785 15.360739
## 517 16325 11.493551
## 518 49 4.100149
## 519 26319 12.104068
## 520 1641 8.581626
## 521 376 6.796529
## 522 2920 9.346075
## 523 415 6.921987
## 524 851 7.813326
## 525 1071 8.124882
## 526 66 4.939920
## 527 36538 12.513361
## 528 7153 10.460119
## 529 331 6.585589
## 530 99089 13.761445
## 531 13587 11.279393
## 532 2483 9.114786
## 533 42074 12.685377
## 534 40290 12.634400
## 535 34992 12.464743
## 536 25682 12.065921
## 537 18491 11.661753
## 538 4254 9.814265
## 539 2449 9.082112
## 540 1971 8.858587
## 541 919 7.915879
## 542 2952 9.376248
## 543 248 6.203811
## 544 896675 16.506868
## 545 89242 13.623886
## 546 310 6.630674
## 547 1916 8.791345
## 548 1526 8.600034
## 549 31599 12.339895
## 550 4012 9.749893
## 551 9064 10.759956
## 552 4527 9.914360
## 553 4455 9.871389
## 554 131121 14.105807
## 555 2902 9.322687
## 556 187292 14.549412
## 557 114 5.353742
## 558 19861 11.753841
## 559 6645 10.371563
## 560 8192 10.647825
## 561 12037 11.138918
## 562 1482 8.493030
## 563 2215 9.000378
## 564 424 6.944274
## 565 370 6.784626
## 566 10166 10.910586
## 567 14172 11.344629
## 568 5575 10.159013
## 569 44767 12.766802
## 570 674147 16.150254
## 571 1504 8.526907
## 572 24 3.072493
## 573 54775 13.017216
## 574 859 7.872398
## 575 991 7.935974
## 576 57978 13.076714
## 577 2538 9.145681
## 578 241 6.337847
## 579 7562 10.543910
## 580 3524 9.583326
## 581 5068 10.017293
## 582 12477 11.155841
## 583 1938 8.888020
## 584 23194 11.933130
## 585 2976 9.338540
## 586 10877 10.995346
## 587 68389 13.290517
## 588 14044 11.305544
## 589 2267 9.022205
## 590 77525 13.446423
## 591 53207 12.980512
## 592 18690 11.645191
## 593 8673 10.716195
## 594 1097 8.116282
## 595 129342 14.081957
## 596 1116 8.199221
## 597 937225 16.561999
## 598 195227 14.597832
## 599 2789 9.292899
## 600 390 6.920737
## 601 1316 8.318573
## 602 2767 9.309468
## 603 207221 14.676125
## 604 5704 10.211525
## 605 6674 10.387863
## 606 301406 15.145195
## 607 14706 11.382749
## 608 238 6.204816
## 609 902 7.939441
## 610 1702 8.663014
## 611 92502 13.672245
## 612 11454 11.079441
## 613 12888 11.202314
## 614 6480 10.332048
## 615 1332 8.332477
## 616 359224 15.360739
## 617 16543 11.493551
## 618 53 4.100149
## 619 26773 12.104068
## 620 1611 8.581626
## 621 414 6.796529
## 622 2980 9.346075
## 623 416 6.921987
## 624 793 7.813326
## 625 1090 8.124882
## 626 82 4.939920
## 627 36793 12.513361
## 628 7014 10.460119
## 629 318 6.585589
## 630 99415 13.761445
## 631 13561 11.279393
## 632 2434 9.114786
## 633 41818 12.685377
## 634 40530 12.634400
## 635 35173 12.464743
## 636 25818 12.065921
## 637 18512 11.661753
## 638 4252 9.814265
## 639 2309 9.082112
## 640 1991 8.858587
## 641 877 7.915879
## 642 3043 9.376248
## 643 226 6.203811
## 644 896286 16.506868
## 645 89216 13.623886
## 646 336 6.630674
## 647 1980 8.791345
## 648 1556 8.600034
## 649 32161 12.339895
## 650 4098 9.749893
## 651 9097 10.759956
## 652 4589 9.914360
## 653 4380 9.871389
## 654 131371 14.105807
## 655 2943 9.322687
## 656 186945 14.549412
## 657 127 5.353742
## 658 19685 11.753841
## 659 6670 10.371563
## 660 8372 10.647825
## 661 12213 11.138918
## 662 1479 8.493030
## 663 2189 9.000378
## 664 430 6.944274
## 665 349 6.784626
## 666 10106 10.910586
## 667 14409 11.344629
## 668 5538 10.159013
## 669 44885 12.766802
## 670 673297 16.150254
## 671 1497 8.526907
## 672 17 3.072493
## 673 55112 13.017216
## 674 887 7.872398
## 675 945 7.935974
## 676 57446 13.076714
## 677 2488 9.145681
## 678 277 6.337847
## 679 7601 10.543910
## 680 3485 9.583326
## 681 4994 10.017293
## 682 12416 11.155841
## 683 2035 8.888020
## 684 22828 11.933130
## 685 2912 9.338540
## 686 10752 10.995346
## 687 68600 13.290517
## 688 14059 11.305544
## 689 2356 9.022205
## 690 77474 13.446423
## 691 53349 12.980512
## 692 18340 11.645191
## 693 8722 10.716195
## 694 1028 8.116282
## 695 128386 14.081957
## 696 1143 8.199221
## 697 935675 16.561999
## 698 193854 14.597832
## 699 2812 9.292899
## 700 405 6.920737
## 701 1251 8.318573
## 702 2825 9.309468
## 703 207154 14.676125
## 704 5996 10.211525
## 705 6610 10.387863
## 706 301191 15.145195
## 707 15040 11.382749
## 708 224 6.204816
## 709 948 7.939441
## 710 1702 8.663014
## 711 92621 13.672245
## 712 11728 11.079441
## 713 12737 11.202314
## 714 6322 10.332048
## 715 1305 8.332477
## 716 358054 15.360739
## 717 16105 11.493551
## 718 40 4.100149
## 719 26435 12.104068
## 720 1538 8.581626
## 721 384 6.796529
## 722 2826 9.346075
## 723 440 6.921987
## 724 861 7.813326
## 725 1176 8.124882
## 726 92 4.939920
## 727 36620 12.513361
## 728 7088 10.460119
## 729 298 6.585589
## 730 99685 13.761445
## 731 13748 11.279393
## 732 2430 9.114786
## 733 41964 12.685377
## 734 40495 12.634400
## 735 35634 12.464743
## 736 25634 12.065921
## 737 18669 11.661753
## 738 4322 9.814265
## 739 2317 9.082112
## 740 1982 8.858587
## 741 978 7.915879
## 742 3061 9.376248
## 743 242 6.203811
## 744 896502 16.506868
## 745 88884 13.623886
## 746 349 6.630674
## 747 1768 8.791345
## 748 1641 8.600034
## 749 31746 12.339895
## 750 4007 9.749893
## 751 9032 10.759956
## 752 4712 9.914360
## 753 4366 9.871389
## 754 130774 14.105807
## 755 2844 9.322687
## 756 186916 14.549412
## 757 105 5.353742
## 758 20083 11.753841
## 759 6598 10.371563
## 760 8282 10.647825
## 761 12202 11.138918
## 762 1494 8.493030
## 763 2170 9.000378
## 764 438 6.944274
## 765 359 6.784626
## 766 10104 10.910586
## 767 14477 11.344629
## 768 5692 10.159013
## 769 44826 12.766802
## 770 671858 16.150254
## 771 1506 8.526907
## 772 17 3.072493
## 773 55034 13.017216
## 774 893 7.872398
## 775 943 7.935974
## 776 57386 13.076714
## 777 2430 9.145681
## 778 257 6.337847
## 779 7554 10.543910
## 780 3462 9.583326
## 781 4975 10.017293
## 782 12362 11.155841
## 783 2034 8.888020
## 784 23110 11.933130
## 785 2804 9.338540
## 786 10880 10.995346
## 787 68118 13.290517
## 788 13772 11.305544
## 789 2165 9.022205
## 790 77546 13.446423
## 791 53318 12.980512
## 792 18465 11.645191
## 793 8657 10.716195
## 794 1057 8.116282
## 795 129115 14.081957
## 796 1180 8.199221
## 797 935976 16.561999
## 798 194767 14.597832
## 799 2681 9.292899
## 800 389 6.920737
## 801 1259 8.318573
## 802 2776 9.309468
## 803 206513 14.676125
## 804 5833 10.211525
## 805 6651 10.387863
## 806 300492 15.145195
## 807 14744 11.382749
## 808 222 6.204816
## 809 943 7.939441
## 810 1683 8.663014
## 811 92151 13.672245
## 812 11698 11.079441
## 813 13071 11.202314
## 814 6499 10.332048
## 815 1322 8.332477
## 816 357776 15.360739
## 817 16227 11.493551
## 818 39 4.100149
## 819 26201 12.104068
## 820 1623 8.581626
## 821 356 6.796529
## 822 2859 9.346075
## 823 405 6.921987
## 824 832 7.813326
## 825 1154 8.124882
## 826 84 4.939920
## 827 36390 12.513361
## 828 7074 10.460119
## 829 302 6.585589
## 830 99715 13.761445
## 831 13590 11.279393
## 832 2411 9.114786
## 833 42008 12.685377
## 834 40652 12.634400
## 835 35540 12.464743
## 836 25710 12.065921
## 837 18452 11.661753
## 838 4327 9.814265
## 839 2363 9.082112
## 840 1957 8.858587
## 841 955 7.915879
## 842 3006 9.376248
## 843 239 6.203811
## 844 895886 16.506868
## 845 89397 13.623886
## 846 318 6.630674
## 847 1840 8.791345
## 848 1571 8.600034
## 849 32085 12.339895
## 850 3941 9.749893
## 851 9161 10.759956
## 852 4520 9.914360
## 853 4370 9.871389
## 854 131097 14.105807
## 855 2899 9.322687
## 856 186875 14.549412
## 857 103 5.353742
## 858 19881 11.753841
## 859 6661 10.371563
## 860 8366 10.647825
## 861 12153 11.138918
## 862 1495 8.493030
## 863 2263 9.000378
## 864 409 6.944274
## 865 362 6.784626
## 866 9961 10.910586
## 867 14121 11.344629
## 868 5745 10.159013
## 869 44989 12.766802
## 870 672764 16.150254
## 871 1422 8.526907
## 872 25 3.072493
## 873 54738 13.017216
## 874 934 7.872398
## 875 951 7.935974
## 876 57936 13.076714
## 877 2456 9.145681
## 878 272 6.337847
## 879 7689 10.543910
## 880 3462 9.583326
## 881 4893 10.017293
## 882 12423 11.155841
## 883 2028 8.888020
## 884 23010 11.933130
## 885 2894 9.338540
## 886 11003 10.995346
## 887 68527 13.290517
## 888 13933 11.305544
## 889 2177 9.022205
## 890 77557 13.446423
## 891 53530 12.980512
## 892 18233 11.645191
## 893 8514 10.716195
## 894 1036 8.116282
## 895 129049 14.081957
## 896 1126 8.199221
## 897 938396 16.561999
## 898 194223 14.597832
## 899 2746 9.292899
## 900 401 6.920737
## 901 1215 8.318573
## 902 2739 9.309468
## 903 206946 14.676125
## 904 5819 10.211525
## 905 6624 10.387863
## 906 300990 15.145195
## 907 14776 11.382749
## 908 223 6.204816
## 909 962 7.939441
## 910 1660 8.663014
## 911 92929 13.672245
## 912 11807 11.079441
## 913 12903 11.202314
## 914 6494 10.332048
## 915 1317 8.332477
## 916 358368 15.360739
## 917 16282 11.493551
## 918 52 4.100149
## 919 26293 12.104068
## 920 1551 8.581626
## 921 376 6.796529
## 922 2889 9.346075
## 923 434 6.921987
## 924 846 7.813326
## 925 1049 8.124882
## 926 95 4.939920
## 927 36787 12.513361
## 928 7222 10.460119
## 929 319 6.585589
## 930 99979 13.761445
## 931 13780 11.279393
## 932 2450 9.114786
## 933 42206 12.685377
## 934 40381 12.634400
## 935 35144 12.464743
## 936 25669 12.065921
## 937 18700 11.661753
## 938 4229 9.814265
## 939 2322 9.082112
## 940 1965 8.858587
## 941 957 7.915879
## 942 2956 9.376248
## 943 234 6.203811
## 944 895568 16.506868
## 945 88685 13.623886
## 946 325 6.630674
## 947 1812 8.791345
## 948 1602 8.600034
## 949 32216 12.339895
## 950 4028 9.749893
## 951 9037 10.759956
## 952 4611 9.914360
## 953 4376 9.871389
## 954 131498 14.105807
## 955 2830 9.322687
## 956 186985 14.549412
## 957 108 5.353742
## 958 20051 11.753841
## 959 6668 10.371563
## 960 8141 10.647825
## 961 12294 11.138918
## 962 1480 8.493030
## 963 2280 9.000378
## 964 405 6.944274
## 965 389 6.784626
## 966 10107 10.910586
## 967 14206 11.344629
## 968 5530 10.159013
## 969 44682 12.766802
## 970 673768 16.150254
## 971 1489 8.526907
## 972 15 3.072493
## 973 55722 13.017216
## 974 902 7.872398
## 975 968 7.935974
## 976 57899 13.076714
## 977 2446 9.145681
## 978 271 6.337847
## 979 7629 10.543910
## 980 3485 9.583326
## 981 4962 10.017293
## 982 12402 11.155841
## 983 1967 8.888020
## 984 23202 11.933130
## 985 2817 9.338540
## 986 11007 10.995346
## 987 68314 13.290517
## 988 14139 11.305544
## 989 2220 9.022205
## 990 77863 13.446423
## 991 53864 12.980512
## 992 18263 11.645191
## 993 8754 10.716195
## 994 1060 8.116282
## 995 129526 14.081957
## 996 1184 8.199221
## 997 936535 16.561999
## 998 195132 14.597832
## 999 2847 9.292899
## 1000 414 6.920737
# Establecer la semilla para reproducibilidad
set.seed(42)
# Número de datos que quieres generar
num_datos <- 500
# Generar datos para la variable predictora (X)
Carb <- runif(500, 1, 100) # Por ejemplo, valores aleatorios entre 1 y 100
# Calcular la variable respuesta (Y) como una función logarítmica de X
# La función logarítmica es log(X) + ruido
Glucosa <- log(Carb) + rnorm(500, 75, 0.4) # 0.2 es la desviación estándar del ruido
# Crear un data frame con los datos
datos3 <- data.frame(Carb,Glucosa)
# Ver los primeros datos generados
head(datos3)## Carb Glucosa
## 1 91.56580 79.07860
## 2 93.77047 79.56047
## 3 29.32781 77.89914
## 4 83.21431 79.49743
## 5 64.53281 79.68626
## 6 52.39050 78.54518
library(ggplot2)
ggplot(datos3, aes(Carb, Glucosa)) +
geom_point() +
labs( x = "Carbohidratos (g)", y = "Glucosa [ ]") +
xlim(10,100)+
geom_smooth(method = "lm", se = TRUE, color = "red")## `geom_smooth()` using formula = 'y ~ x'
## Warning: Removed 51 rows containing non-finite outside the scale range
## (`stat_smooth()`).
## Warning: Removed 51 rows containing missing values or values outside the scale range
## (`geom_point()`).
##
## Call:
## lm(formula = Glucosa ~ Carb)
##
## Residuals:
## Min 1Q Median 3Q Max
## -2.64972 -0.30166 0.04544 0.35588 1.51899
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 7.719e+01 4.870e-02 1584.94 <2e-16 ***
## Carb 2.839e-02 8.494e-04 33.42 <2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.5505 on 498 degrees of freedom
## Multiple R-squared: 0.6916, Adjusted R-squared: 0.691
## F-statistic: 1117 on 1 and 498 DF, p-value: < 2.2e-16
ggplot(datos3, aes(Carb, Glucosa)) +
geom_point() +
labs(title = "Datos Logarítmicos", x = "Carbohidratos (g)", y = "Glucosa [ ]") +
geom_smooth(method = "lm", formula = y ~ log(x), se = TRUE, color = "red") +
xlim(0,100)##
## Call:
## lm(formula = Glucosa ~ Carb)
##
## Residuals:
## Min 1Q Median 3Q Max
## -2.64972 -0.30166 0.04544 0.35588 1.51899
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 7.719e+01 4.870e-02 1584.94 <2e-16 ***
## Carb 2.839e-02 8.494e-04 33.42 <2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.5505 on 498 degrees of freedom
## Multiple R-squared: 0.6916, Adjusted R-squared: 0.691
## F-statistic: 1117 on 1 and 498 DF, p-value: < 2.2e-16
##
## Call:
## lm(formula = Glucosa ~ log(Carb))
##
## Residuals:
## Min 1Q Median 3Q Max
## -1.17307 -0.24771 0.00304 0.27704 1.32447
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 75.03326 0.07085 1058.99 <2e-16 ***
## log(Carb) 0.98526 0.01901 51.83 <2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.392 on 498 degrees of freedom
## Multiple R-squared: 0.8436, Adjusted R-squared: 0.8433
## F-statistic: 2687 on 1 and 498 DF, p-value: < 2.2e-16
p r^2
modelo.lm 2e-16 0.691 modelo.log 2.2e-16 0.84
La regresión lineal múltiple es una extensión de la regresión lineal simple que permite modelar la relación entre una variable dependiente y múltiples variables independientes. La ecuación general es:
\[ Y = \beta_0 + \beta_1 X_1 + \beta_2 X_2 + \ldots + \beta_n X_n + \varepsilon \]
# Crear un conjunto de datos de ejemplo con dos variables independientes
set.seed(123)
x1 <- 1:100
x2 <- rnorm(100)
y <- 2*x1 + 3*x2 + rnorm(100, mean = 0, sd = 10)
# Ajustar el modelo de regresión lineal múltiple
modelo <- lm(y ~ x1 + x2)
# Mostrar los coeficientes del modelo
summary(modelo)##
## Call:
## lm(formula = y ~ x1 + x2)
##
## Residuals:
## Min 1Q Median 3Q Max
## -18.491 -6.869 -0.948 6.015 32.357
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) -2.71500 1.95658 -1.388 0.1684
## x1 2.03356 0.03374 60.276 <2e-16 ***
## x2 2.39016 1.07226 2.229 0.0281 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 9.708 on 97 degrees of freedom
## Multiple R-squared: 0.9743, Adjusted R-squared: 0.9738
## F-statistic: 1842 on 2 and 97 DF, p-value: < 2.2e-16
# Crear un data frame con las predicciones del modelo y los valores reales
predicciones <- data.frame(y_pred = predict(modelo), y_real = y)
# Graficar las predicciones vs. los valores reales
ggplot(predicciones, aes(x = y_real, y = y_pred)) +
geom_point() + # Agregar puntos para los datos
geom_abline(intercept = 0, slope = 1, color = "red") + # Agregar la línea de identidad
labs(title = "Predicciones vs. Valores Reales", x = "Valores Reales", y = "Predicciones")La regresión cuadrática es un tipo de regresión no lineal que modela la relación entre una variable independiente y una variable dependiente como una parábola. La ecuación de la regresión cuadrática es:
\[ Y = \beta_0 + \beta_1 X + \beta_2 X^2 + \varepsilon \]
# Crear un conjunto de datos de ejemplo
set.seed(123)
x <- 1:100
y <- 2*x^2 + rnorm(500, mean = 5, sd = 1500)
datos<- as.data.frame(cbind(x,y))
datos## x y
## 1 1 -833.713470
## 2 2 -332.266234
## 3 3 2361.062471
## 4 4 142.762587
## 5 5 248.931603
## 6 6 2649.597480
## 7 7 794.374309
## 8 8 -1764.591852
## 9 9 -863.279278
## 10 10 -463.492955
## 11 11 2083.122696
## 12 12 832.720741
## 13 13 944.157176
## 14 14 563.024074
## 15 15 -378.761702
## 16 16 3197.369705
## 17 17 1329.775717
## 18 18 -2296.925735
## 19 19 1779.033852
## 20 20 95.812888
## 21 21 -714.735559
## 22 22 646.037628
## 23 23 -476.006672
## 24 24 63.663156
## 25 25 317.441098
## 26 26 -1173.039966
## 27 27 2719.680567
## 28 28 1803.059677
## 29 29 -20.205406
## 30 30 3685.722382
## 31 31 2566.696332
## 32 32 1610.392776
## 33 33 3525.688492
## 34 34 3634.200231
## 35 35 3687.371622
## 36 36 3629.960381
## 37 37 3573.876480
## 38 38 2800.132434
## 39 39 2588.056004
## 40 40 2634.293498
## 41 41 2324.939532
## 42 42 3221.124083
## 43 43 1804.905473
## 44 44 7130.433948
## 45 45 5866.942997
## 46 46 2552.337125
## 47 47 3818.672747
## 48 48 3913.016970
## 49 49 5976.947678
## 50 50 4879.946400
## 51 51 5586.977771
## 52 52 5370.179867
## 53 53 5558.694314
## 54 54 7889.903426
## 55 55 5716.343522
## 56 56 8551.705907
## 57 57 4179.870794
## 58 58 7609.920624
## 59 59 7152.781366
## 60 60 7528.912353
## 61 61 8016.459224
## 62 62 6939.514820
## 63 63 7443.188924
## 64 64 6669.136925
## 65 65 6847.313160
## 66 66 9172.292962
## 67 67 9655.314668
## 68 68 9332.506340
## 69 69 10910.401202
## 70 70 12880.127028
## 71 71 9350.453251
## 72 72 6909.246687
## 73 73 12171.607787
## 74 74 9893.198856
## 75 75 10222.987075
## 76 76 13095.357055
## 77 77 11435.840489
## 78 78 10341.923432
## 79 79 12758.955220
## 80 80 12596.662956
## 81 81 13135.646279
## 82 82 14030.920602
## 83 83 13227.009952
## 84 84 15083.564823
## 85 85 14124.270157
## 86 86 15294.672946
## 87 87 16788.258520
## 88 88 16145.772236
## 89 89 15358.102622
## 90 90 17928.211428
## 91 91 18057.255784
## 92 92 17755.595439
## 93 93 17661.097603
## 94 94 16735.140886
## 95 95 20095.978673
## 96 96 17536.610619
## 97 97 22103.999490
## 98 98 21511.915939
## 99 99 19253.449461
## 100 100 18465.368650
## 101 1 -1058.609846
## 102 2 398.325564
## 103 3 -347.037818
## 104 4 -484.313899
## 105 5 -1372.427851
## 106 6 9.458413
## 107 7 -1074.356704
## 108 8 -2368.912905
## 109 9 -403.339780
## 110 10 1583.494914
## 111 11 -616.020444
## 112 12 1204.946483
## 113 13 -2083.824062
## 114 14 313.657052
## 115 15 1234.110806
## 116 16 968.730043
## 117 17 741.514291
## 118 18 -308.059012
## 119 19 -547.556519
## 120 20 -731.193186
## 121 21 1063.469896
## 122 22 -448.211921
## 123 23 327.163834
## 124 24 772.861712
## 125 25 4020.793008
## 126 26 379.075147
## 127 27 1816.079858
## 128 28 1689.941274
## 129 29 244.215049
## 130 30 1698.037871
## 131 31 4093.826288
## 132 32 2730.256080
## 133 33 2244.849383
## 134 34 1683.254751
## 135 35 -624.870832
## 136 36 4294.005820
## 137 37 552.039894
## 138 38 4002.921266
## 139 39 5910.655354
## 140 40 1039.160259
## 141 41 4419.676503
## 142 42 3139.703766
## 143 43 1344.783761
## 144 44 1604.998519
## 145 45 1652.695740
## 146 46 3440.640217
## 147 47 2230.366623
## 148 48 5644.875159
## 149 49 7957.163411
## 150 50 3074.454286
## 151 51 6388.608271
## 152 52 6566.563362
## 153 53 6121.303868
## 154 54 4324.435088
## 155 55 5875.821090
## 156 56 5856.406997
## 157 57 7347.484300
## 158 58 6174.341866
## 159 59 8432.460080
## 160 60 6643.128713
## 161 61 9026.067198
## 162 62 6119.234490
## 163 63 6052.767133
## 164 64 13058.559902
## 165 65 7829.713618
## 166 66 9164.341387
## 167 67 9937.854511
## 168 68 8527.329061
## 169 69 10302.293066
## 170 70 10358.446791
## 171 71 9763.929239
## 172 72 10470.939550
## 173 73 10611.899119
## 174 74 14149.677849
## 175 75 10142.995856
## 176 76 9913.005599
## 177 77 11919.682599
## 178 78 12638.721124
## 179 79 13141.785218
## 180 80 12117.452001
## 181 81 11532.010799
## 182 82 15347.777764
## 183 83 13258.524418
## 184 84 12818.730706
## 185 85 14100.580647
## 186 86 14501.236158
## 187 87 16807.880435
## 188 88 15620.105938
## 189 89 16978.080678
## 190 90 15456.061974
## 191 91 16888.667964
## 192 92 16445.971133
## 193 93 17444.875292
## 194 94 16333.954963
## 195 95 16088.797700
## 196 96 21432.820077
## 197 97 19724.063236
## 198 98 17336.092958
## 199 99 18690.251125
## 200 100 18226.779873
## 201 1 3305.215523
## 202 2 1981.619465
## 203 3 -374.717585
## 204 4 851.791089
## 205 5 -566.509922
## 206 6 -637.370342
## 207 7 -1079.904257
## 208 8 -758.925901
## 209 9 2643.361201
## 210 10 123.957812
## 211 11 425.867855
## 212 12 658.531144
## 213 13 2191.713818
## 214 14 -377.095746
## 215 15 -1033.760726
## 216 16 3030.545399
## 217 17 -78.744825
## 218 18 -431.598955
## 219 19 -1127.409678
## 220 20 -1122.073583
## 221 21 26.039781
## 222 22 1899.978726
## 223 23 2727.772208
## 224 24 2218.382531
## 225 25 709.514054
## 226 26 1446.624906
## 227 27 406.105304
## 228 28 497.172758
## 229 29 3013.975748
## 230 30 281.611132
## 231 31 4859.940948
## 232 32 1917.520609
## 233 33 2504.808240
## 234 34 1209.208443
## 235 35 1593.416965
## 236 36 621.475802
## 237 37 2468.611917
## 238 38 3521.473607
## 239 39 3533.456516
## 240 40 2032.695269
## 241 41 2184.067044
## 242 42 2779.701922
## 243 43 5947.091005
## 244 44 2171.044569
## 245 45 3786.422608
## 246 46 7090.542733
## 247 47 4271.537672
## 248 48 2573.238944
## 249 49 3809.845847
## 250 50 5733.189968
## 251 51 4643.595692
## 252 52 4570.185455
## 253 53 5107.124149
## 254 54 5972.744971
## 255 55 8452.763157
## 256 56 6144.152332
## 257 57 8124.199244
## 258 58 7679.131173
## 259 59 6796.540157
## 260 60 4905.646996
## 261 61 6665.324024
## 262 62 6958.194320
## 263 63 8013.731649
## 264 64 10147.298017
## 265 65 11894.618461
## 266 66 11038.371588
## 267 67 8783.273554
## 268 68 6618.208907
## 269 69 8943.830204
## 270 70 9938.810835
## 271 71 11354.519506
## 272 72 11816.791953
## 273 73 11689.464144
## 274 74 8864.088475
## 275 75 12529.464568
## 276 76 10887.164175
## 277 77 12125.204050
## 278 78 12284.826766
## 279 79 13129.250147
## 280 80 12842.012474
## 281 81 10625.787354
## 282 82 14557.743947
## 283 83 14362.039853
## 284 84 13718.522562
## 285 85 14632.216767
## 286 86 14998.057968
## 287 87 15474.529203
## 288 88 17954.269249
## 289 89 15518.424432
## 290 90 16457.098076
## 291 91 18319.575810
## 292 92 18514.271535
## 293 93 19020.894666
## 294 94 16810.797998
## 295 95 21058.724095
## 296 96 18537.051306
## 297 97 21623.277767
## 298 98 17186.645971
## 299 99 19638.475380
## 300 100 21879.871856
## 301 1 -1065.863281
## 302 2 -1116.033452
## 303 3 -1384.808055
## 304 4 -1541.769919
## 305 5 -600.739300
## 306 6 573.768759
## 307 7 -2918.315747
## 308 8 450.970650
## 309 9 2022.012570
## 310 10 3261.361027
## 311 11 2198.763988
## 312 12 1428.162146
## 313 13 -2247.095599
## 314 14 -505.260062
## 315 15 -73.069685
## 316 16 1572.285854
## 317 17 424.492999
## 318 18 -1234.972942
## 319 19 3253.653562
## 320 20 2172.086938
## 321 21 1243.145409
## 322 22 2800.162915
## 323 23 -945.161431
## 324 24 2148.230447
## 325 25 470.631436
## 326 26 2382.618283
## 327 27 1371.767068
## 328 28 2522.441070
## 329 29 3690.276423
## 330 30 1815.935135
## 331 31 3453.337955
## 332 32 270.348947
## 333 33 1100.593339
## 334 34 4595.826567
## 335 35 3021.081960
## 336 36 -481.334231
## 337 37 696.943822
## 338 38 2591.828477
## 339 39 4345.669107
## 340 40 3052.175116
## 341 41 4303.281208
## 342 42 4971.508067
## 343 43 6209.582243
## 344 44 3961.025100
## 345 45 3977.027141
## 346 46 1607.143961
## 347 47 4571.991391
## 348 48 3755.224913
## 349 49 3345.985626
## 350 50 4735.140653
## 351 51 6729.414759
## 352 52 2423.877267
## 353 53 4982.081069
## 354 54 6011.955925
## 355 55 4715.188645
## 356 56 6777.854414
## 357 57 7120.144881
## 358 58 6683.445761
## 359 59 3268.152709
## 360 60 11062.187219
## 361 61 7139.051114
## 362 62 8669.789922
## 363 63 8353.649737
## 364 64 9734.009852
## 365 65 9681.489170
## 366 66 8402.310243
## 367 67 9550.251658
## 368 68 7834.886753
## 369 69 10812.384516
## 370 70 9113.442492
## 371 71 13712.160031
## 372 72 7896.426656
## 373 73 9967.019136
## 374 74 12195.069794
## 375 75 12020.198820
## 376 76 10672.778442
## 377 77 10367.828887
## 378 78 12389.713557
## 379 79 12465.538880
## 380 80 10119.578144
## 381 81 13178.826601
## 382 82 13738.345474
## 383 83 14045.089595
## 384 84 12534.474436
## 385 85 15169.199917
## 386 86 16864.855205
## 387 87 15827.354605
## 388 88 13789.617294
## 389 89 15193.531795
## 390 90 16724.155429
## 391 91 15596.431553
## 392 92 13696.530497
## 393 93 18629.376230
## 394 94 16432.783583
## 395 95 17194.659594
## 396 96 20692.850914
## 397 97 17661.782606
## 398 98 20481.597310
## 399 99 17715.975682
## 400 100 19473.186395
## 401 1 -103.334029
## 402 2 -1739.977137
## 403 3 -929.122397
## 404 4 -6.262329
## 405 5 1061.043953
## 406 6 -2398.819815
## 407 7 -421.631359
## 408 8 1267.609658
## 409 9 -641.213740
## 410 10 545.937883
## 411 11 985.342855
## 412 12 694.752523
## 413 13 1322.886519
## 414 14 212.937009
## 415 15 -165.514770
## 416 16 -3447.723428
## 417 17 443.588472
## 418 18 1298.427045
## 419 19 1530.098261
## 420 20 -27.917527
## 421 21 3556.254365
## 422 22 1402.636629
## 423 23 1252.473788
## 424 24 3065.400169
## 425 25 177.300668
## 426 26 681.492064
## 427 27 5059.178720
## 428 28 1589.693781
## 429 29 4137.352632
## 430 30 -352.759967
## 431 31 1641.224797
## 432 32 2620.635855
## 433 33 2633.057818
## 434 34 808.545611
## 435 35 2483.888912
## 436 36 980.869020
## 437 37 3812.054988
## 438 38 4520.162635
## 439 39 -290.481545
## 440 40 5058.540193
## 441 41 1505.433255
## 442 42 4215.153903
## 443 43 4692.853957
## 444 44 3577.165258
## 445 45 3087.329065
## 446 46 4484.981532
## 447 47 5081.228051
## 448 48 5937.954230
## 449 49 1728.494524
## 450 50 2550.431098
## 451 51 7352.603512
## 452 52 6982.943271
## 453 53 6275.933423
## 454 54 6909.767611
## 455 55 7430.762376
## 456 56 2285.615802
## 457 57 8168.415645
## 458 58 6005.518605
## 459 59 7312.925246
## 460 60 6762.263299
## 461 61 8754.947431
## 462 62 7170.291327
## 463 63 8720.755649
## 464 64 7610.972532
## 465 65 6815.819186
## 466 66 10532.015766
## 467 67 10094.350017
## 468 68 11839.393359
## 469 69 9624.730899
## 470 70 11492.504119
## 471 71 13050.128581
## 472 72 9950.776827
## 473 73 8678.573331
## 474 74 10597.972649
## 475 75 10933.938140
## 476 76 11784.520757
## 477 77 14431.457466
## 478 78 11683.784161
## 479 79 13046.506984
## 480 80 12463.473903
## 481 81 13157.676063
## 482 82 13924.086495
## 483 83 15775.322044
## 484 84 14298.977566
## 485 85 15524.263480
## 486 86 15965.290045
## 487 87 16515.159906
## 488 88 14631.408172
## 489 89 18287.321821
## 490 90 15633.564891
## 491 91 16408.323749
## 492 92 19039.075402
## 493 93 19244.125859
## 494 94 16042.012191
## 495 95 16745.393499
## 496 96 16399.881411
## 497 97 19095.770789
## 498 98 19460.261302
## 499 99 20153.172031
## 500 100 20833.236571
## Warning: Use of `datos$x` is discouraged.
## ℹ Use `x` instead.
## Warning: Use of `datos$y` is discouraged.
## ℹ Use `y` instead.
Ajustar el modelo
# Ajustar el modelo de regresión cuadrática
modelo <- lm(datos$y ~ poly(datos$x, 2, raw = TRUE)) #Opcion 1
modelo <- lm(datos$y ~ datos$x + I(datos$x^2)) #Opcion 2
# Mostrar los coeficientes del modelo
summary(modelo)##
## Call:
## lm(formula = datos$y ~ datos$x + I(datos$x^2))
##
## Residuals:
## Min 1Q Median 3Q Max
## -4063.3 -894.0 -38.9 991.8 4760.2
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) -128.35819 199.61743 -0.643 0.521
## datos$x 3.64758 9.12306 0.400 0.689
## I(datos$x^2) 2.00031 0.08751 22.857 <2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 1458 on 497 degrees of freedom
## Multiple R-squared: 0.9466, Adjusted R-squared: 0.9464
## F-statistic: 4406 on 2 and 497 DF, p-value: < 2.2e-16
Revisar los supuestos
Elaborar la grafica de prediccion
# Generar valores ajustados del modelo en un rango de valores de x
x_rango <- seq(min(datos$x), max(datos$x), length.out = 100)
predicciones <- predict(modelo, newdata = data.frame(x = x_rango))## Warning: 'newdata' had 100 rows but variables found have 500 rows
## 1 2 3 4 5 6
## -122.710306 -113.061806 -99.412692 -81.762962 -60.112616 -34.461655
## 7 8 9 10 11 12
## -4.810078 28.842114 66.494922 108.148345 153.802384 203.457038
## 13 14 15 16 17 18
## 257.112308 314.768193 376.424694 442.081810 511.739542 585.397889
## 19 20 21 22 23 24
## 663.056852 744.716430 830.376624 920.037433 1013.698857 1111.360898
## 25 26 27 28 29 30
## 1213.023553 1318.686825 1428.350711 1542.015214 1659.680331 1781.346065
## 31 32 33 34 35 36
## 1907.012413 2036.679378 2170.346957 2308.015153 2449.683963 2595.353390
## 37 38 39 40 41 42
## 2745.023432 2898.694089 3056.365362 3218.037250 3383.709754 3553.382873
## 43 44 45 46 47 48
## 3727.056608 3904.730958 4086.405924 4272.081505 4461.757702 4655.434514
## 49 50 51 52 53 54
## 4853.111942 5054.789985 5260.468644 5470.147918 5683.827808 5901.508313
## 55 56 57 58 59 60
## 6123.189434 6348.871171 6578.553522 6812.236490 7049.920072 7291.604271
## 61 62 63 64 65 66
## 7537.289085 7786.974514 8040.660559 8298.347219 8560.034495 8825.722386
## 67 68 69 70 71 72
## 9095.410893 9369.100015 9646.789753 9928.480107 10214.171075 10503.862660
## 73 74 75 76 77 78
## 10797.554860 11095.247675 11396.941106 11702.635152 12012.329814 12326.025091
## 79 80 81 82 83 84
## 12643.720984 12965.417493 13291.114617 13620.812356 13954.510711 14292.209681
## 85 86 87 88 89 90
## 14633.909267 14979.609468 15329.310285 15683.011718 16040.713766 16402.416429
## 91 92 93 94 95 96
## 16768.119708 17137.823602 17511.528112 17889.233237 18270.938978 18656.645335
## 97 98 99 100 101 102
## 19046.352307 19440.059894 19837.768097 20239.476915 -122.710306 -113.061806
## 103 104 105 106 107 108
## -99.412692 -81.762962 -60.112616 -34.461655 -4.810078 28.842114
## 109 110 111 112 113 114
## 66.494922 108.148345 153.802384 203.457038 257.112308 314.768193
## 115 116 117 118 119 120
## 376.424694 442.081810 511.739542 585.397889 663.056852 744.716430
## 121 122 123 124 125 126
## 830.376624 920.037433 1013.698857 1111.360898 1213.023553 1318.686825
## 127 128 129 130 131 132
## 1428.350711 1542.015214 1659.680331 1781.346065 1907.012413 2036.679378
## 133 134 135 136 137 138
## 2170.346957 2308.015153 2449.683963 2595.353390 2745.023432 2898.694089
## 139 140 141 142 143 144
## 3056.365362 3218.037250 3383.709754 3553.382873 3727.056608 3904.730958
## 145 146 147 148 149 150
## 4086.405924 4272.081505 4461.757702 4655.434514 4853.111942 5054.789985
## 151 152 153 154 155 156
## 5260.468644 5470.147918 5683.827808 5901.508313 6123.189434 6348.871171
## 157 158 159 160 161 162
## 6578.553522 6812.236490 7049.920072 7291.604271 7537.289085 7786.974514
## 163 164 165 166 167 168
## 8040.660559 8298.347219 8560.034495 8825.722386 9095.410893 9369.100015
## 169 170 171 172 173 174
## 9646.789753 9928.480107 10214.171075 10503.862660 10797.554860 11095.247675
## 175 176 177 178 179 180
## 11396.941106 11702.635152 12012.329814 12326.025091 12643.720984 12965.417493
## 181 182 183 184 185 186
## 13291.114617 13620.812356 13954.510711 14292.209681 14633.909267 14979.609468
## 187 188 189 190 191 192
## 15329.310285 15683.011718 16040.713766 16402.416429 16768.119708 17137.823602
## 193 194 195 196 197 198
## 17511.528112 17889.233237 18270.938978 18656.645335 19046.352307 19440.059894
## 199 200 201 202 203 204
## 19837.768097 20239.476915 -122.710306 -113.061806 -99.412692 -81.762962
## 205 206 207 208 209 210
## -60.112616 -34.461655 -4.810078 28.842114 66.494922 108.148345
## 211 212 213 214 215 216
## 153.802384 203.457038 257.112308 314.768193 376.424694 442.081810
## 217 218 219 220 221 222
## 511.739542 585.397889 663.056852 744.716430 830.376624 920.037433
## 223 224 225 226 227 228
## 1013.698857 1111.360898 1213.023553 1318.686825 1428.350711 1542.015214
## 229 230 231 232 233 234
## 1659.680331 1781.346065 1907.012413 2036.679378 2170.346957 2308.015153
## 235 236 237 238 239 240
## 2449.683963 2595.353390 2745.023432 2898.694089 3056.365362 3218.037250
## 241 242 243 244 245 246
## 3383.709754 3553.382873 3727.056608 3904.730958 4086.405924 4272.081505
## 247 248 249 250 251 252
## 4461.757702 4655.434514 4853.111942 5054.789985 5260.468644 5470.147918
## 253 254 255 256 257 258
## 5683.827808 5901.508313 6123.189434 6348.871171 6578.553522 6812.236490
## 259 260 261 262 263 264
## 7049.920072 7291.604271 7537.289085 7786.974514 8040.660559 8298.347219
## 265 266 267 268 269 270
## 8560.034495 8825.722386 9095.410893 9369.100015 9646.789753 9928.480107
## 271 272 273 274 275 276
## 10214.171075 10503.862660 10797.554860 11095.247675 11396.941106 11702.635152
## 277 278 279 280 281 282
## 12012.329814 12326.025091 12643.720984 12965.417493 13291.114617 13620.812356
## 283 284 285 286 287 288
## 13954.510711 14292.209681 14633.909267 14979.609468 15329.310285 15683.011718
## 289 290 291 292 293 294
## 16040.713766 16402.416429 16768.119708 17137.823602 17511.528112 17889.233237
## 295 296 297 298 299 300
## 18270.938978 18656.645335 19046.352307 19440.059894 19837.768097 20239.476915
## 301 302 303 304 305 306
## -122.710306 -113.061806 -99.412692 -81.762962 -60.112616 -34.461655
## 307 308 309 310 311 312
## -4.810078 28.842114 66.494922 108.148345 153.802384 203.457038
## 313 314 315 316 317 318
## 257.112308 314.768193 376.424694 442.081810 511.739542 585.397889
## 319 320 321 322 323 324
## 663.056852 744.716430 830.376624 920.037433 1013.698857 1111.360898
## 325 326 327 328 329 330
## 1213.023553 1318.686825 1428.350711 1542.015214 1659.680331 1781.346065
## 331 332 333 334 335 336
## 1907.012413 2036.679378 2170.346957 2308.015153 2449.683963 2595.353390
## 337 338 339 340 341 342
## 2745.023432 2898.694089 3056.365362 3218.037250 3383.709754 3553.382873
## 343 344 345 346 347 348
## 3727.056608 3904.730958 4086.405924 4272.081505 4461.757702 4655.434514
## 349 350 351 352 353 354
## 4853.111942 5054.789985 5260.468644 5470.147918 5683.827808 5901.508313
## 355 356 357 358 359 360
## 6123.189434 6348.871171 6578.553522 6812.236490 7049.920072 7291.604271
## 361 362 363 364 365 366
## 7537.289085 7786.974514 8040.660559 8298.347219 8560.034495 8825.722386
## 367 368 369 370 371 372
## 9095.410893 9369.100015 9646.789753 9928.480107 10214.171075 10503.862660
## 373 374 375 376 377 378
## 10797.554860 11095.247675 11396.941106 11702.635152 12012.329814 12326.025091
## 379 380 381 382 383 384
## 12643.720984 12965.417493 13291.114617 13620.812356 13954.510711 14292.209681
## 385 386 387 388 389 390
## 14633.909267 14979.609468 15329.310285 15683.011718 16040.713766 16402.416429
## 391 392 393 394 395 396
## 16768.119708 17137.823602 17511.528112 17889.233237 18270.938978 18656.645335
## 397 398 399 400 401 402
## 19046.352307 19440.059894 19837.768097 20239.476915 -122.710306 -113.061806
## 403 404 405 406 407 408
## -99.412692 -81.762962 -60.112616 -34.461655 -4.810078 28.842114
## 409 410 411 412 413 414
## 66.494922 108.148345 153.802384 203.457038 257.112308 314.768193
## 415 416 417 418 419 420
## 376.424694 442.081810 511.739542 585.397889 663.056852 744.716430
## 421 422 423 424 425 426
## 830.376624 920.037433 1013.698857 1111.360898 1213.023553 1318.686825
## 427 428 429 430 431 432
## 1428.350711 1542.015214 1659.680331 1781.346065 1907.012413 2036.679378
## 433 434 435 436 437 438
## 2170.346957 2308.015153 2449.683963 2595.353390 2745.023432 2898.694089
## 439 440 441 442 443 444
## 3056.365362 3218.037250 3383.709754 3553.382873 3727.056608 3904.730958
## 445 446 447 448 449 450
## 4086.405924 4272.081505 4461.757702 4655.434514 4853.111942 5054.789985
## 451 452 453 454 455 456
## 5260.468644 5470.147918 5683.827808 5901.508313 6123.189434 6348.871171
## 457 458 459 460 461 462
## 6578.553522 6812.236490 7049.920072 7291.604271 7537.289085 7786.974514
## 463 464 465 466 467 468
## 8040.660559 8298.347219 8560.034495 8825.722386 9095.410893 9369.100015
## 469 470 471 472 473 474
## 9646.789753 9928.480107 10214.171075 10503.862660 10797.554860 11095.247675
## 475 476 477 478 479 480
## 11396.941106 11702.635152 12012.329814 12326.025091 12643.720984 12965.417493
## 481 482 483 484 485 486
## 13291.114617 13620.812356 13954.510711 14292.209681 14633.909267 14979.609468
## 487 488 489 490 491 492
## 15329.310285 15683.011718 16040.713766 16402.416429 16768.119708 17137.823602
## 493 494 495 496 497 498
## 17511.528112 17889.233237 18270.938978 18656.645335 19046.352307 19440.059894
## 499 500
## 19837.768097 20239.476915
ggplot(datos, aes(datos$x, datos$y)) +
geom_point() + # Agregar los datos observados
geom_line(aes(y = predicciones), color = "red", lwd=2) +
labs(x = "Variable Independiente", y = "Variable Dependiente") +
ggtitle("Regresión Polinómica de Segundo Grado") +
theme_minimal() ## Warning: Use of `datos$x` is discouraged.
## ℹ Use `x` instead.
## Warning: Use of `datos$y` is discouraged.
## ℹ Use `y` instead.
## Warning: Use of `datos$x` is discouraged.
## ℹ Use `x` instead.
La regresión logarítmica se utiliza cuando se sospecha que la relación entre las variables sigue una tendencia logarítmica. La ecuación de la regresión logarítmica es:
\[ Y = \beta_0 + \beta_1 \ln(X) + \varepsilon \]
# Crear un conjunto de datos de ejemplo
set.seed(123)
x <- 1:100
y <- 2*log(x) + rnorm(100, mean = 0, sd = 0.5)
# Ajustar el modelo de regresión logarítmica
modelo <- lm(y ~ log(x))
# Mostrar los coeficientes del modelo
summary(modelo)##
## Call:
## lm(formula = y ~ log(x))
##
## Residuals:
## Min 1Q Median 3Q Max
## -1.21126 -0.28753 -0.01016 0.30454 1.03664
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) -0.02006 0.18631 -0.108 0.914
## log(x) 2.01794 0.04965 40.647 <2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.4584 on 98 degrees of freedom
## Multiple R-squared: 0.944, Adjusted R-squared: 0.9434
## F-statistic: 1652 on 1 and 98 DF, p-value: < 2.2e-16
La regresión logística se utiliza cuando la variable dependiente es binaria y se desea predecir la probabilidad de que la variable dependiente pertenezca a una categoría particular. La ecuación de la regresión logística es:
\[ p(Y=1) = \frac{1}{1 + e^{-(\beta_0 + \beta_1 X_1 + \beta_2 X_2 + \ldots + \beta_n X_n)}} \]
Margolese (1970) informó datos que registraron valores de androsterona (andrógeno) y etiocolanolona (estrógeno) en orina de 26 hombres sanos. Entre ellos, 15 hombres son homosexuales (etiquetados como “g” en la variable orientación) y 11 heterosexuales (etiquetados como “s”).
## Loading required package: profileModel
## 'brglm' will gradually be superseded by the 'brglm2' R package (https://cran.r-project.org/package=brglm2), which provides utilities for mean and median bias reduction for all GLMs.
## Methods for the detection of separation and infinite estimates in binomial-response models are provided by the 'detectseparation' R package (https://cran.r-project.org/package=detectseparation).
url <- "http://www.stat.nthu.edu.tw/~swcheng/Teaching/stat5230/data/hormone.txt"
hormone <- read.table(url, header = TRUE, sep = "\t")
hormone## androgen estrogen orientation
## 1 3.9 1.8 s
## 2 4.0 2.3 s
## 3 3.8 2.3 s
## 4 3.9 2.5 s
## 5 2.9 1.3 s
## 6 3.2 1.7 s
## 7 4.6 3.4 s
## 8 4.3 3.1 s
## 9 3.1 1.8 s
## 10 2.7 1.5 s
## 11 2.3 1.4 s
## 12 2.5 2.1 g
## 13 1.6 1.1 g
## 14 3.9 3.9 g
## 15 3.4 3.6 g
## 16 2.3 2.5 g
## 17 1.6 1.7 g
## 18 2.5 2.9 g
## 19 3.4 4.0 g
## 20 1.6 1.9 g
## 21 4.3 5.3 g
## 22 2.0 2.7 g
## 23 1.8 3.6 g
## 24 2.2 4.1 g
## 25 3.1 5.2 g
## 26 1.3 4.0 g
Elaboramos el gráfico
ggplot(hormone, aes(x = androgen, y = estrogen, shape = orientation)) +
geom_point(size=2) +
labs(title = "Estrogen vs. Androgen",
x = "Androgen",
y = "Estrogen") +
theme_minimal()Correr el modelo de regresion logistica
Ten en cuenta que:
La desvianza residual es extremadamente pequeña, lo que indica que este es un ajuste muy bueno.
Ninguno de los predictores es significativo según la prueba de Wald; la insignificancia es causada por sus altos errores estándar.
Dos posibles explicaciones del alto error estándar: propiedad linealmente separable existente en el conjunto de datos y escasez de datos.
Nota: para datos dispersos, los errores estándar pueden sobrestimarse. Esto se conoce como efecto Hauck-Donner. Se prefiere la prueba basada en la desvianza (vea sus resultados en el siguiente comando).
Se alcanzó el número máximo predeterminado de iteraciones (25) pero el algoritmo no convergió.
Implica que los valores estimados actuales de b no son fiables.
Nota: el problema de convergencia es causado por la propiedad linealmente separable, más que por la escasez de datos.
Elaborar el grafico graficos
ggplot(hormone, aes(x = androgen, y = estrogen, shape = orientation)) +
geom_point(size = 2) + # Adjust point size if desired
labs(title = "Estrogen vs. Androgen",
x = "Androgen",
y = "Estrogen") +
theme_minimal() +
geom_abline(intercept = -84.49/90.22, slope =100.91/90.22 , color = "red") +
xlim(0,6) +
ylim(0,6) los dos grupos son linealmente separables de manera que un ajuste perfecto es posible
para los datos, sufrimos de una “abundancia de riquezas” — un ajuste perfecto es alcanzable (lo que sugiere que predicciones perfectas podrían ser posibles), pero las estimaciones de los parámetros y sus errores estándar son inestables."
Evaluemos los terminos por separado:
La función drop1() ajustará un modelo para cada uno de los posibles submodelos que se obtienen eliminando uno de los términos del modelo original a la vez. Luego, realizará pruebas estadísticas para evaluar si la eliminación de cada término resulta en un modelo significativamente peor en comparación con el modelo completo.
Esto es útil para identificar qué términos en el modelo original son estadísticamente significativos y cuáles podrían ser eliminados sin perder información importante. La salida de drop1() generalmente incluirá estadísticas de prueba y valores p asociados para cada término individual, lo que te permitirá evaluar su importancia relativa en el modelo.
las estimaciones obtenidas del método de reducción del sesgo son bastante diferentes de las obtenidas en el resultado de glm.
bajo el método de reducción del sesgo, los dos predictores son significativos (porque sus valores t son bastante extremos en comparación con una distribución t con 23 grados de libertad), lo cual esperamos dado el gráfico anterior.
ggplot(hormone, aes(x = androgen, y = estrogen, shape = orientation)) +
geom_point(size = 2) + # Adjust point size if desired
labs(title = "Estrogen vs. Androgen",
x = "Androgen",
y = "Estrogen") +
theme_minimal() +
geom_abline(intercept = -84.49/90.22, slope =100.91/90.22 , color = "red") +
geom_abline(intercept = -3.6502/3.5853, slope = 4.0732/3.5853, color = "blue",lty=2) +
xlim(0,6) +
ylim(0,6)