Analisis del IRGA

Este es el analisis de los resultados optenidos por los promedios mandados por el grupo de las 8

Datos

se cargara la base de datos

library(readxl)
jav <- read_excel("C:/Users/Javi3/Downloads/Datos Javier.xlsx") # Base de Datos del IRGA

Luego de cargar los datos creo vectores con los datos de la variables analisadas tanto en el interior como en el exterior

expa <- jav$PAR[1:24] # Datos de PAR en el exterior 
inpa <- jav$PAR[25:48] # Datos del PAR en el interior
exp <- jav$Pn[1:24] # Datos de Pn en el exterior
inp <- jav$Pn[25:48] # Datos del Pn en el interior
exe <- jav$E[1:24] # Datos de E en el exterior
ine <- jav$E[25:48] # Datos del E en el interior
exc <- jav$C[1:24] # Datos de C en el exterior
inc <- jav$C[25:48] # Datos del C en el interior

Supuesto de Normalidad

con los vectores de los datos creados, se debe analizar si se cumplen los supuestos, el primer supuesto que se analiza es el de normalidad, y en este caso se utiliso shapiro para analizar la normalidad de los datos

shapiro.test(expa) #Test shapiro-wilks para los datos de PAR en el exterior
## 
##  Shapiro-Wilk normality test
## 
## data:  expa
## W = 0.90712, p-value = 0.03056
shapiro.test(inpa) #Test shapiro-wilks para los datos de PAR en el interior
## 
##  Shapiro-Wilk normality test
## 
## data:  inpa
## W = 0.22098, p-value = 2.666e-10
shapiro.test(exp) #Test shapiro-wilks para los datos de Pn en el exterior
## 
##  Shapiro-Wilk normality test
## 
## data:  exp
## W = 0.82411, p-value = 0.0007501
shapiro.test(inp) #Test shapiro-wilks para los datos de Pn en el interior
## 
##  Shapiro-Wilk normality test
## 
## data:  inp
## W = 0.62914, p-value = 1.329e-06
shapiro.test(exe) #Test shapiro-wilks para los datos de E en el exterior
## 
##  Shapiro-Wilk normality test
## 
## data:  exe
## W = 0.96051, p-value = 0.4487
shapiro.test(ine) #Test shapiro-wilks para los datos de E en el interior
## 
##  Shapiro-Wilk normality test
## 
## data:  ine
## W = 0.9679, p-value = 0.6156
shapiro.test(exc) #Test shapiro-wilks para los datos de C en el exterior
## 
##  Shapiro-Wilk normality test
## 
## data:  exc
## W = 0.59042, p-value = 4.838e-07
shapiro.test(inc) #Test shapiro-wilks para los datos de C en el interior
## 
##  Shapiro-Wilk normality test
## 
## data:  inc
## W = 0.47117, p-value = 2.994e-08

Supuesto de Homocedasticidad

Se observa que la unica variable que cumple con el supuesto de normalidad es la E, entonces lo que sigue es evaluar si los datos del interior y el exterior presentan la misma varianza

var.test(exe,ine) # Prueba de Homocedasticidad para muestras que cumplen el supuesto de normalidad
## 
##  F test to compare two variances
## 
## data:  exe and ine
## F = 3.4285, num df = 23, denom df = 23, p-value = 0.004537
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
##  1.483129 7.925372
## sample estimates:
## ratio of variances 
##           3.428462

la prueba nos muestra que las varianzas no son iguales para E, lo que sigue es ver si las demas poblaciones cumplen con el supuesto de hocedasticidad, pero como estas no presentan normalidad, la prueba que se usa es la de levene

library(car)
leveneTest(jav$PAR ~ as.factor(jav$Ubi)) #Prueba de homocedasticidad para PAR
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  1  0.0728 0.7885
##       46
leveneTest(jav$Pn ~ as.factor(jav$Ubi)) #Prueba de homocedasticidad para Pn
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value Pr(>F)
## group  1    1.16 0.2871
##       46
leveneTest(jav$C ~ as.factor(jav$Ubi)) #Prueba de homocedasticidad para C
## Levene's Test for Homogeneity of Variance (center = median)
##       Df F value  Pr(>F)  
## group  1  3.8605 0.05549 .
##       46                  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

la unica varible con poblaciones de variacianza desigual segun leven es la C, las otras si presentan hocedasticidad, ahora se pueden hacer la pruebas

Pruebas Estadisticas

como la Etiene muestras con normalidad se realiza una t student, la PAR y la Pn no presentan normalidad pero si presentan Hocedasticidad lo que permite realizar la prueba no parametrica de wicox

t.test(exe,ine) #Prueba t student para dos muestras con varianzas diferentes
## 
##  Welch Two Sample t-test
## 
## data:  exe and ine
## t = 0.4967, df = 35.365, p-value = 0.6225
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
##  -0.1465706  0.2415706
## sample estimates:
## mean of x mean of y 
##    1.2275    1.1800
wilcox.test(expa, inpa) #Prueba Wilcox para PAR
## 
##  Wilcoxon rank sum test
## 
## data:  expa and inpa
## W = 467, p-value = 0.0001292
## alternative hypothesis: true location shift is not equal to 0
wilcox.test(exp, inp) #Prueba Wilcox para Pn
## 
##  Wilcoxon rank sum test
## 
## data:  exp and inp
## W = 417, p-value = 0.007224
## alternative hypothesis: true location shift is not equal to 0

Pruebas No Deterministas

library(boot)
## 
## Attaching package: 'boot'
## The following object is masked from 'package:car':
## 
##     logit
x <- exc - inc
sampleMean <- rep(NA, 10000)
for(i in 1:10000) {sampleMean [i] <- mean(x)}
meanFunc <- function(x, i) { mean(x[i])}
bootMean <- boot(x, meanFunc, 10000)
hist(bootMean)

summary(bootMean)
##       R original bootBias bootSE bootMed
## 1 10000  -1264.3   2.6203 557.85   -1213
boot.ci(bootMean)
## Warning in boot.ci(bootMean): bootstrap variances needed for studentized
## intervals
## BOOTSTRAP CONFIDENCE INTERVAL CALCULATIONS
## Based on 10000 bootstrap replicates
## 
## CALL : 
## boot.ci(boot.out = bootMean)
## 
## Intervals : 
## Level      Normal              Basic         
## 95%   (-2360,  -174 )   (-2226,   -45 )  
## 
## Level     Percentile            BCa          
## 95%   (-2484,  -303 )   (-2961,  -485 )  
## Calculations and Intervals on Original Scale

Monte Carlo

set.seed(950728)
sec <- rt(100000, 47, mean(exc))
sic <- rt(100000, 47, mean(inc))
mc <- sec - sic
mean(mc)
## [1] -1284.707
quantile(mc, c(.025, .975))
##      2.5%     97.5% 
## -1614.008 -1026.455
hist(mc)

Tanto en el bootstrap como en el montecarlo la diferencia entre medias entre la variable C del exterior y del interior no llega a 0, de hecho la media en los dos tipos de simulaciones de la diferencia entre las medias es ~ -1224 a -1284 lo que muestra que esta diferencia esta alejada de 0