library(readr)
## Warning: package 'readr' was built under R version 3.5.3
library(dplyr)
## Warning: package 'dplyr' was built under R version 3.5.3
ejemplo_regresion <-read_csv("C:/Users/Yohana Argueta/Desktop/ejemplo_regresion.csv")
head(ejemplo_regresion,n=6)
## # A tibble: 6 x 3
## X1 X2 Y
## <dbl> <dbl> <dbl>
## 1 3.92 7298 0.75
## 2 3.61 6855 0.71
## 3 3.32 6636 0.66
## 4 3.07 6506 0.61
## 5 3.06 6450 0.7
## 6 3.11 6402 0.72
library(stargazer)
options(scipen = 9999)
modelo_lineal<-lm(formula = Y~X1+X2,data = ejemplo_regresion)
summary(modelo_lineal)
##
## Call:
## lm(formula = Y ~ X1 + X2, data = ejemplo_regresion)
##
## Residuals:
## Min 1Q Median 3Q Max
## -0.085090 -0.039102 -0.003341 0.030236 0.105692
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 1.56449677 0.07939598 19.705 0.00000000000000182 ***
## X1 0.23719747 0.05555937 4.269 0.000313 ***
## X2 -0.00024908 0.00003205 -7.772 0.00000009508790794 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.0533 on 22 degrees of freedom
## Multiple R-squared: 0.8653, Adjusted R-squared: 0.8531
## F-statistic: 70.66 on 2 and 22 DF, p-value: 0.000000000265
stargazer(modelo_lineal,title="regresion multiple", type="text",digits=8)
##
## regresion multiple
## ===============================================
## Dependent variable:
## ---------------------------
## Y
## -----------------------------------------------
## X1 0.23719750***
## (0.05555937)
##
## X2 -0.00024908***
## (0.00003205)
##
## Constant 1.56449700***
## (0.07939598)
##
## -----------------------------------------------
## Observations 25
## R2 0.86529610
## Adjusted R2 0.85305030
## Residual Std. Error 0.05330222 (df = 22)
## F Statistic 70.66057000*** (df = 2; 22)
## ===============================================
## Note: *p<0.1; **p<0.05; ***p<0.01
library(fitdistrplus)
library(stargazer)
fit_normal<-fitdist (data = modelo_lineal$residuals, distr = "norm")
plot(fit_normal)
library(normtest)
jb.norm.test(modelo_lineal$residuals)
##
## Jarque-Bera test for normality
##
## data: modelo_lineal$residuals
## JB = 0.93032, p-value = 0.4965
#A un nivel de significancia del 5% ,tiene un valor critico de = 5.9915 y el estadistico JB=0.93032, la Hipótesis Nula no se rechaza. La prueba tiene una distribución normal, debido a que JB<VC.
qqnorm(modelo_lineal$residuals)
qqline(modelo_lineal$residuals)
hist(modelo_lineal$residuals,main = "Histograma de los residuos",xlab = "Residuos",ylab = "frecuencia")
library(nortest)
lillie.test(modelo_lineal$residuals)
##
## Lilliefors (Kolmogorov-Smirnov) normality test
##
## data: modelo_lineal$residuals
## D = 0.082345, p-value = 0.9328
La prueba tiene una distribución normal, debido a que D ??? VC.
qqnorm(modelo_lineal$residuals)
qqline(modelo_lineal$residuals)
hist(modelo_lineal$residuals,main = "Histograma de los residuos",xlab = "Residuos",ylab = "frecuencia")
shapiro.test(modelo_lineal$residuals)
##
## Shapiro-Wilk normality test
##
## data: modelo_lineal$residuals
## W = 0.97001, p-value = 0.6453
La prueba tiene una distribución normal, debido a que W > VC.
library(readr)
practicayo <- read_csv("C:/Users/Yohana Argueta/Desktop/practicayo.csv")
head (practicayo, n = 6)
## # A tibble: 6 x 3
## Y x1 x2
## <dbl> <dbl> <dbl>
## 1 320 50 7.4
## 2 450 53 5.1
## 3 370 60 4.2
## 4 470 63 3.9
## 5 420 69 1.4
## 6 500 82 2.2
library(stargazer)
options(scipen = 9999)
modelo_lineal<-lm(formula = Y~x1+x2+x1*x2,data = practicayo)
stargazer(modelo_lineal,title = "Ejercicio de Regresión Multiple",type = "text",digits = 8)
##
## Ejercicio de Regresión Multiple
## ===============================================
## Dependent variable:
## ---------------------------
## Y
## -----------------------------------------------
## x1 2.12705000***
## (0.57720870)
##
## x2 -29.93996000**
## (14.09168000)
##
## x1:x2 0.33252320***
## (0.09562126)
##
## Constant 325.72510000***
## (85.88582000)
##
## -----------------------------------------------
## Observations 20
## R2 0.94904950
## Adjusted R2 0.93949630
## Residual Std. Error 79.86576000 (df = 16)
## F Statistic 99.34344000*** (df = 3; 16)
## ===============================================
## Note: *p<0.1; **p<0.05; ***p<0.01
library(fitdistrplus)
library(stargazer)
fit_normal<-fitdist (data = modelo_lineal$residuals, distr = "norm")
plot(fit_normal)
library(normtest)
jb.norm.test(modelo_lineal$residuals)
##
## Jarque-Bera test for normality
##
## data: modelo_lineal$residuals
## JB = 0.77633, p-value = 0.532
#A un nivel de significancia del 5% ,tiene un valor critico de = 5.9915 y el estadistico JB=0.77633, la Hipótesis Nula no serechaza. La prueba tiene una distribución normal, debido a que JB<VC.
qqnorm(modelo_lineal$residuals)
qqline(modelo_lineal$residuals)
hist(modelo_lineal$residuals,main = "Histograma de los residuos",xlab = "Residuos",ylab = "frecuencia")
library(nortest)
lillie.test(modelo_lineal$residuals)
##
## Lilliefors (Kolmogorov-Smirnov) normality test
##
## data: modelo_lineal$residuals
## D = 0.15447, p-value = 0.2408
qqnorm(modelo_lineal$residuals)
qqline(modelo_lineal$residuals)
hist(modelo_lineal$residuals,main = "Histograma de los residuos",xlab = "Residuos",ylab = "frecuencia")
#A un un nivel de significancia del 5%, un tamaño de la muestra de n=25, V.C.=0.175 y D=0.15447. La Hipótesis Nula no se rechaza. La prueba tiene una distribución normal, debido a que D ??? VC.
shapiro.test(modelo_lineal$residuals)
##
## Shapiro-Wilk normality test
##
## data: modelo_lineal$residuals
## W = 0.96485, p-value = 0.6446
La prueba tiene una distribución normal, debido a que W > VC.