Este es el analisis de los resultados optenidos por los promedios mandados por el grupo de las 8
se cargara la base de datos
library(readxl)
jav <- read_excel("C:/Users/Javi3/Downloads/Datos Javier.xlsx") # Base de Datos del IRGA
Luego de cargar los datos creo vectores con los datos de la variables analisadas tanto en el interior como en el exterior
expa <- jav$PAR[1:24] # Datos de PAR en el exterior
inpa <- jav$PAR[25:48] # Datos del PAR en el interior
exp <- jav$Pn[1:24] # Datos de Pn en el exterior
inp <- jav$Pn[25:48] # Datos del Pn en el interior
exe <- jav$E[1:24] # Datos de E en el exterior
ine <- jav$E[25:48] # Datos del E en el interior
exc <- jav$C[1:24] # Datos de C en el exterior
inc <- jav$C[25:48] # Datos del C en el interior
con los vectores de los datos creados, se debe analizar si se cumplen los supuestos, el primer supuesto que se analiza es el de normalidad, y en este caso se utiliso shapiro para analizar la normalidad de los datos
shapiro.test(expa) #Test shapiro-wilks para los datos de PAR en el exterior
##
## Shapiro-Wilk normality test
##
## data: expa
## W = 0.90712, p-value = 0.03056
shapiro.test(inpa) #Test shapiro-wilks para los datos de PAR en el interior
##
## Shapiro-Wilk normality test
##
## data: inpa
## W = 0.22098, p-value = 2.666e-10
shapiro.test(exp) #Test shapiro-wilks para los datos de Pn en el exterior
##
## Shapiro-Wilk normality test
##
## data: exp
## W = 0.82411, p-value = 0.0007501
shapiro.test(inp) #Test shapiro-wilks para los datos de Pn en el interior
##
## Shapiro-Wilk normality test
##
## data: inp
## W = 0.62914, p-value = 1.329e-06
shapiro.test(exe) #Test shapiro-wilks para los datos de E en el exterior
##
## Shapiro-Wilk normality test
##
## data: exe
## W = 0.96051, p-value = 0.4487
shapiro.test(ine) #Test shapiro-wilks para los datos de E en el interior
##
## Shapiro-Wilk normality test
##
## data: ine
## W = 0.9679, p-value = 0.6156
shapiro.test(exc) #Test shapiro-wilks para los datos de C en el exterior
##
## Shapiro-Wilk normality test
##
## data: exc
## W = 0.59042, p-value = 4.838e-07
shapiro.test(inc) #Test shapiro-wilks para los datos de C en el interior
##
## Shapiro-Wilk normality test
##
## data: inc
## W = 0.47117, p-value = 2.994e-08
Se observa que la unica variable que cumple con el supuesto de normalidad es la E, entonces lo que sigue es evaluar si los datos del interior y el exterior presentan la misma varianza
var.test(exe,ine) # Prueba de Homocedasticidad para muestras que cumplen el supuesto de normalidad
##
## F test to compare two variances
##
## data: exe and ine
## F = 3.4285, num df = 23, denom df = 23, p-value = 0.004537
## alternative hypothesis: true ratio of variances is not equal to 1
## 95 percent confidence interval:
## 1.483129 7.925372
## sample estimates:
## ratio of variances
## 3.428462
la prueba nos muestra que las varianzas no son iguales para E, lo que sigue es ver si las demas poblaciones cumplen con el supuesto de hocedasticidad, pero como estas no presentan normalidad, la prueba que se usa es la de levene
library(car)
leveneTest(jav$PAR ~ as.factor(jav$Ubi)) #Prueba de homocedasticidad para PAR
## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 1 0.0728 0.7885
## 46
leveneTest(jav$Pn ~ as.factor(jav$Ubi)) #Prueba de homocedasticidad para Pn
## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 1 1.16 0.2871
## 46
leveneTest(jav$C ~ as.factor(jav$Ubi)) #Prueba de homocedasticidad para C
## Levene's Test for Homogeneity of Variance (center = median)
## Df F value Pr(>F)
## group 1 3.8605 0.05549 .
## 46
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
la unica varible con poblaciones de variacianza desigual segun leven es la C, las otras si presentan hocedasticidad, ahora se pueden hacer la pruebas
como la Etiene muestras con normalidad se realiza una t student, la PAR y la Pn no presentan normalidad pero si presentan Hocedasticidad lo que permite realizar la prueba no parametrica de wicox
t.test(exe,ine) #Prueba t student para dos muestras con varianzas diferentes
##
## Welch Two Sample t-test
##
## data: exe and ine
## t = 0.4967, df = 35.365, p-value = 0.6225
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## -0.1465706 0.2415706
## sample estimates:
## mean of x mean of y
## 1.2275 1.1800
wilcox.test(expa, inpa) #Prueba Wilcox para PAR
##
## Wilcoxon rank sum test
##
## data: expa and inpa
## W = 467, p-value = 0.0001292
## alternative hypothesis: true location shift is not equal to 0
wilcox.test(exp, inp) #Prueba Wilcox para Pn
##
## Wilcoxon rank sum test
##
## data: exp and inp
## W = 417, p-value = 0.007224
## alternative hypothesis: true location shift is not equal to 0
library(boot)
##
## Attaching package: 'boot'
## The following object is masked from 'package:car':
##
## logit
x <- exc - inc
sampleMean <- rep(NA, 10000)
for(i in 1:10000) {sampleMean [i] <- mean(x)}
meanFunc <- function(x, i) { mean(x[i])}
bootMean <- boot(x, meanFunc, 10000)
hist(bootMean)
summary(bootMean)
## R original bootBias bootSE bootMed
## 1 10000 -1264.3 2.6203 557.85 -1213
boot.ci(bootMean)
## Warning in boot.ci(bootMean): bootstrap variances needed for studentized
## intervals
## BOOTSTRAP CONFIDENCE INTERVAL CALCULATIONS
## Based on 10000 bootstrap replicates
##
## CALL :
## boot.ci(boot.out = bootMean)
##
## Intervals :
## Level Normal Basic
## 95% (-2360, -174 ) (-2226, -45 )
##
## Level Percentile BCa
## 95% (-2484, -303 ) (-2961, -485 )
## Calculations and Intervals on Original Scale
set.seed(950728)
sec <- rt(100000, 47, mean(exc))
sic <- rt(100000, 47, mean(inc))
mc <- sec - sic
mean(mc)
## [1] -1284.707
quantile(mc, c(.025, .975))
## 2.5% 97.5%
## -1614.008 -1026.455
hist(mc)
Tanto en el bootstrap como en el montecarlo la diferencia entre medias entre la variable C del exterior y del interior no llega a 0, de hecho la media en los dos tipos de simulaciones de la diferencia entre las medias es ~ -1224 a -1284 lo que muestra que esta diferencia esta alejada de 0