EJEMPLO APLICANDO PRUEBAS DE NORMALIDAD

Datos

library(readr)
## Warning: package 'readr' was built under R version 3.5.3
library(dplyr)
## Warning: package 'dplyr' was built under R version 3.5.3
ejemplo_regresion <-read_csv("C:/Users/Yohana Argueta/Desktop/ejemplo_regresion.csv")
head(ejemplo_regresion,n=6)
## # A tibble: 6 x 3
##      X1    X2     Y
##   <dbl> <dbl> <dbl>
## 1  3.92  7298  0.75
## 2  3.61  6855  0.71
## 3  3.32  6636  0.66
## 4  3.07  6506  0.61
## 5  3.06  6450  0.7 
## 6  3.11  6402  0.72

Carga de datos

library(stargazer)
options(scipen = 9999)
modelo_lineal<-lm(formula = Y~X1+X2,data = ejemplo_regresion)
summary(modelo_lineal)
## 
## Call:
## lm(formula = Y ~ X1 + X2, data = ejemplo_regresion)
## 
## Residuals:
##       Min        1Q    Median        3Q       Max 
## -0.085090 -0.039102 -0.003341  0.030236  0.105692 
## 
## Coefficients:
##                Estimate  Std. Error t value            Pr(>|t|)    
## (Intercept)  1.56449677  0.07939598  19.705 0.00000000000000182 ***
## X1           0.23719747  0.05555937   4.269            0.000313 ***
## X2          -0.00024908  0.00003205  -7.772 0.00000009508790794 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 0.0533 on 22 degrees of freedom
## Multiple R-squared:  0.8653, Adjusted R-squared:  0.8531 
## F-statistic: 70.66 on 2 and 22 DF,  p-value: 0.000000000265
stargazer(modelo_lineal,title="regresion multiple", type="text",digits=8)
## 
## regresion multiple
## ===============================================
##                         Dependent variable:    
##                     ---------------------------
##                                  Y             
## -----------------------------------------------
## X1                         0.23719750***       
##                            (0.05555937)        
##                                                
## X2                        -0.00024908***       
##                            (0.00003205)        
##                                                
## Constant                   1.56449700***       
##                            (0.07939598)        
##                                                
## -----------------------------------------------
## Observations                    25             
## R2                          0.86529610         
## Adjusted R2                 0.85305030         
## Residual Std. Error    0.05330222 (df = 22)    
## F Statistic         70.66057000*** (df = 2; 22)
## ===============================================
## Note:               *p<0.1; **p<0.05; ***p<0.01

Ajuste de los residuos a la Distribución Normal

library(fitdistrplus)
library(stargazer)
fit_normal<-fitdist (data = modelo_lineal$residuals, distr = "norm")
plot(fit_normal)

Prueba de Normalidad de Jarque - Bera

library(normtest)
jb.norm.test(modelo_lineal$residuals) 
## 
##  Jarque-Bera test for normality
## 
## data:  modelo_lineal$residuals
## JB = 0.93032, p-value = 0.4965

#A un nivel de significancia del 5% ,tiene un valor critico de = 5.9915 y el estadistico JB=0.93032, la Hipótesis Nula no se rechaza. La prueba tiene una distribución normal, debido a que JB<VC.

qqnorm(modelo_lineal$residuals)
qqline(modelo_lineal$residuals)

hist(modelo_lineal$residuals,main = "Histograma de los residuos",xlab = "Residuos",ylab = "frecuencia")

Prueba de Normalidad de Kolmogorov - Smirnov

library(nortest)  
lillie.test(modelo_lineal$residuals) 
## 
##  Lilliefors (Kolmogorov-Smirnov) normality test
## 
## data:  modelo_lineal$residuals
## D = 0.082345, p-value = 0.9328

A un un nivel de significancia del 5%, un tamaño de la muestra de n=25, V.C.=0.175 y D=0.082345. La Hipótesis Nula no se rechaza.

La prueba tiene una distribución normal, debido a que D ??? VC.

qqnorm(modelo_lineal$residuals)
qqline(modelo_lineal$residuals)

hist(modelo_lineal$residuals,main = "Histograma de los residuos",xlab = "Residuos",ylab = "frecuencia") 

Prueba de Normalidad de Shapiro - Wilk

shapiro.test(modelo_lineal$residuals)
## 
##  Shapiro-Wilk normality test
## 
## data:  modelo_lineal$residuals
## W = 0.97001, p-value = 0.6453

A un nivel de significancia del 5%, un tamaño de la muestra de n=25, V.C. = 0.264 y W = 0.97001. La Hipótesis Nula no se rechaza.

La prueba tiene una distribución normal, debido a que W > VC.

EJERCICIO APLICANDO PRUEBAS DE NORMALIDAD

Carga de Datos

library(readr)
practicayo <- read_csv("C:/Users/Yohana Argueta/Desktop/practicayo.csv")
head (practicayo, n = 6)
## # A tibble: 6 x 3
##       Y    x1    x2
##   <dbl> <dbl> <dbl>
## 1   320    50   7.4
## 2   450    53   5.1
## 3   370    60   4.2
## 4   470    63   3.9
## 5   420    69   1.4
## 6   500    82   2.2

Estimando el modelo

library(stargazer)
options(scipen = 9999)
modelo_lineal<-lm(formula = Y~x1+x2+x1*x2,data = practicayo)
stargazer(modelo_lineal,title = "Ejercicio de Regresión Multiple",type = "text",digits = 8)
## 
## Ejercicio de Regresión Multiple
## ===============================================
##                         Dependent variable:    
##                     ---------------------------
##                                  Y             
## -----------------------------------------------
## x1                         2.12705000***       
##                            (0.57720870)        
##                                                
## x2                        -29.93996000**       
##                            (14.09168000)       
##                                                
## x1:x2                      0.33252320***       
##                            (0.09562126)        
##                                                
## Constant                  325.72510000***      
##                            (85.88582000)       
##                                                
## -----------------------------------------------
## Observations                    20             
## R2                          0.94904950         
## Adjusted R2                 0.93949630         
## Residual Std. Error    79.86576000 (df = 16)   
## F Statistic         99.34344000*** (df = 3; 16)
## ===============================================
## Note:               *p<0.1; **p<0.05; ***p<0.01

Ajuste de los residuos a la Distribución Normal

library(fitdistrplus)
library(stargazer)
fit_normal<-fitdist (data = modelo_lineal$residuals, distr = "norm")
plot(fit_normal)

Prueba de Normalidad de Jarque - Bera

library(normtest) 
jb.norm.test(modelo_lineal$residuals) 
## 
##  Jarque-Bera test for normality
## 
## data:  modelo_lineal$residuals
## JB = 0.77633, p-value = 0.532

#A un nivel de significancia del 5% ,tiene un valor critico de = 5.9915 y el estadistico JB=0.77633, la Hipótesis Nula no serechaza. La prueba tiene una distribución normal, debido a que JB<VC.

qqnorm(modelo_lineal$residuals)
qqline(modelo_lineal$residuals)

hist(modelo_lineal$residuals,main = "Histograma de los residuos",xlab = "Residuos",ylab = "frecuencia") 

Prueba de Normalidad de Kolmogorov - Smirnov

library(nortest)  
lillie.test(modelo_lineal$residuals) 
## 
##  Lilliefors (Kolmogorov-Smirnov) normality test
## 
## data:  modelo_lineal$residuals
## D = 0.15447, p-value = 0.2408
qqnorm(modelo_lineal$residuals)
qqline(modelo_lineal$residuals)

hist(modelo_lineal$residuals,main = "Histograma de los residuos",xlab = "Residuos",ylab = "frecuencia") 

#A un un nivel de significancia del 5%, un tamaño de la muestra de n=25, V.C.=0.175 y D=0.15447. La Hipótesis Nula no se rechaza. La prueba tiene una distribución normal, debido a que D ??? VC.

Prueba de Normalidad de Shapiro - Wilk

shapiro.test(modelo_lineal$residuals)
## 
##  Shapiro-Wilk normality test
## 
## data:  modelo_lineal$residuals
## W = 0.96485, p-value = 0.6446

A un nivel de significancia del 5%, un tamaño de la muestra de n=25, V.C. = 0.264 y W = 0.96485 La Hipótesis Nula no se rechaza.

La prueba tiene una distribución normal, debido a que W > VC.