Examen

EJERCICIO 1

Datos

lluvia_ext <- c(10.1,10.7,12.5,12.7,12.8,14.9,18.3,18.3,25.8,26.5,29.4,39.7)
lluvia_int <- c(6.5,1.7,6.7,5.1,3.7,11.3,10.1,9.6,13.3,14.7,9.8,24.0)
datos <- data.frame(lluvia_ext,lluvia_int)
datos
##    lluvia_ext lluvia_int
## 1        10.1        6.5
## 2        10.7        1.7
## 3        12.5        6.7
## 4        12.7        5.1
## 5        12.8        3.7
## 6        14.9       11.3
## 7        18.3       10.1
## 8        18.3        9.6
## 9        25.8       13.3
## 10       26.5       14.7
## 11       29.4        9.8
## 12       39.7       24.0
summary(datos)
##    lluvia_ext      lluvia_int    
##  Min.   :10.10   Min.   : 1.700  
##  1st Qu.:12.65   1st Qu.: 6.150  
##  Median :16.60   Median : 9.700  
##  Mean   :19.31   Mean   : 9.708  
##  3rd Qu.:25.98   3rd Qu.:11.800  
##  Max.   :39.70   Max.   :24.000

Prueba de Hipótesis

\[H_0: Y = \beta_0 + \beta_1 X \hspace{1em} \text{Es lineal}\] \[H_a: Y = \beta_0 + \beta_1 X \hspace{1em} \text{No es lineal}\] ## Identifiacion de las variables ya que desamos realizar un estudio sobre la variable y siendo la respuesta a la explicativa x.

x<-lluvia_ext
y<-lluvia_int

Diagrama de dispersión

library(ggplot2)
## Registered S3 methods overwritten by 'ggplot2':
##   method         from 
##   [.quosures     rlang
##   c.quosures     rlang
##   print.quosures rlang
ggplot(datos, aes(x=lluvia_ext, y=lluvia_int)) +
  geom_point(shape=1) 

Ajuste del modelo

reg=lm(y~x) 
summary(reg)
## 
## Call:
## lm(formula = y ~ x)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -5.7256 -1.1634  0.6595  1.2546  4.1328 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept) -1.42183    1.95420  -0.728    0.484    
## x            0.57644    0.09214   6.256 9.43e-05 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 2.801 on 10 degrees of freedom
## Multiple R-squared:  0.7965, Adjusted R-squared:  0.7762 
## F-statistic: 39.14 on 1 and 10 DF,  p-value: 9.428e-05

La estimación nos da como resultado un intercepto de -1.42183 con el valor \(\beta_1 =0.57644\) o pendiente de la regresión. El moldelo \(\hat{y_i}=-1.421833+0.57644x_i\)

Además la desviación típica del error es de \(2.801\) por lo que es una relación directa, es decir por una unidad más de lluvias externas aumenta en un \(0,57644\) unidades a las lluvias internas del bosque. Obtenemos el \(R-ajustado=0.7762\) pues nos indica que el modelo ha podido explicar el \(77.62\%\) de los datos. Ya que el valor del intecepto es negativo vamos a realizar un mejor ajuste del modelo para que el intercepto se ajuste a un valor igual a 0 y poder tener un ajuste lineal.

reg=lm(y~x-1) 
summary(reg)
## 
## Call:
## lm(formula = y ~ x - 1)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -5.3532 -1.8086  0.2126  1.1047  3.6203 
## 
## Coefficients:
##   Estimate Std. Error t value Pr(>|t|)    
## x   0.5154     0.0373   13.82  2.7e-08 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 2.741 on 11 degrees of freedom
## Multiple R-squared:  0.9455, Adjusted R-squared:  0.9406 
## F-statistic: 190.9 on 1 and 11 DF,  p-value: 2.697e-08

Por lo que el modelo seria \(\hat{y_i}=0.5154x_i\) que se interpreta como a una unidad más de lluvias externas aumenta a 0.5154 unidades de lluvias internas del bosque, del mismo modo vemos que el coeficiente de determinación explica mejor el modelo con el \(94.06\%\) de los datos. Así el error típico de la desviación se ha reducido a \(2.741\) ##Prueba de hipótesis \[H_0: Y = \beta_1 X \hspace{1em} \text{Es horizontal}\] \[H_a: Y = \beta_1 X \hspace{1em} \text{No es horizontal}\]

Diagrama de dispersión con la recta ajustada

library(ggplot2)
ggplot(datos, aes(x=x, y=y)) +
geom_point(shape=1) +   
geom_smooth(method=lm) 

Intervalos de confianza

como modificamos el modelo el intercepto nuevo es cero pues solo calculamos un intervalo de confianza para la pendiente \(0.5154\)

confint(reg,level=0.95)
##       2.5 %    97.5 %
## x 0.4333134 0.5975146

Anova

Obtenemos los resultados de las sumas de los residuos, estimaciones además de el valor F = 190.92 asociado el valor de Pr(>F)=2.697e-08 pues rechazamos \(H_0\) con el criterio de que es Horizontal

anova(reg)
## Analysis of Variance Table
## 
## Response: y
##           Df  Sum Sq Mean Sq F value    Pr(>F)    
## x          1 1433.99 1433.99  190.92 2.697e-08 ***
## Residuals 11   82.62    7.51                      
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Predicción

datosnuevos<-c(10.5,11,11.5,12,12.5)
ICmedia <- predict(reg,newdata=data.frame(x=datosnuevos),interval="confidence",level=0.95)
ICmedia
##        fit      lwr      upr
## 1 5.411847 4.549791 6.273904
## 2 5.669554 4.766447 6.572661
## 3 5.927261 4.983104 6.871418
## 4 6.184968 5.199761 7.170176
## 5 6.442675 5.416417 7.468933
ICpred <- predict(reg,newdata=data.frame(x=datosnuevos),interval="prediction",level=0.95)
ICpred
##        fit        lwr      upr
## 1 5.411847 -0.6814686 11.50516
## 2 5.669554 -0.4297046 11.76881
## 3 5.927261 -0.1782108 12.03273
## 4 6.184968  0.0730136 12.29692
## 5 6.442675  0.3239694 12.56138

por la presición de los estimadores tenemos que los valores para los intervalos de la media son menores que la prediccion.

Verificacion de los supuestos

par(mfrow = c(2, 2))
plot(reg)

EJERCICIO 2, PARTE a

Datos

tiempo<- c(5,8,11,14,17,20,23,26,29,32,35)
temp<- c(68,59,50,45,39,35,32,30,28,27,26)
data<- data.frame(tiempo,temp)
xx<-tiempo
yy<-temp

Prueba de Hipotesis

\[H_0: Y = \beta_0 + \beta_1 X \hspace{1em} \text{Es lineal}\] \[H_a: Y = \beta_0 + \beta_1 X \hspace{1em} \text{No es lineal}\] ##Ajuste del modelo

reg2=lm(yy~xx)
summary(reg2)
## 
## Call:
## lm(formula = yy ~ xx)
## 
## Residuals:
##    Min     1Q Median     3Q    Max 
## -4.918 -3.414 -1.891  3.091  8.046 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept)  66.6364     3.3239   20.05 8.89e-09 ***
## xx           -1.3364     0.1502   -8.90 9.36e-06 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 4.725 on 9 degrees of freedom
## Multiple R-squared:  0.898,  Adjusted R-squared:  0.8866 
## F-statistic:  79.2 on 1 and 9 DF,  p-value: 9.357e-06

nuestro modelo tiene un intercepto de 66.6364 y la pendiente es de -1.3364, es decir que por cada minuto que aumenta se reduce 1.3364 grados de temperatura de la olla lo que no es signficativo, pues el modelo no se ajustaa una regresion lineal, el error de la desviacion es de 4.725 por lo que nos indica que la relación es inversa pues mientras aumenta el tiempo la temperatura disminuye, además del \(R-ajustado\) nos da que el modelo explica el \(88.66\%\) de los datos ##Diagrama de dispersion del modelo de regresion

library(ggplot2)
ggplot(data, aes(x=xx, y=yy)) +
  geom_point(shape=1) +   
  geom_smooth(method=lm) 

Transformacion de la variable temperatura

yy1<-log(yy-22,base = 10)
yy1
##  [1] 1.6627578 1.5682017 1.4471580 1.3617278 1.2304489 1.1139434 1.0000000
##  [8] 0.9030900 0.7781513 0.6989700 0.6020600

Ajuste del modelo con la nueva variable

reg2=lm(yy1~xx)
summary(reg2)
## 
## Call:
## lm(formula = yy1 ~ xx)
## 
## Residuals:
##       Min        1Q    Median        3Q       Max 
## -0.020572 -0.007210 -0.002574  0.009358  0.020497 
## 
## Coefficients:
##               Estimate Std. Error t value Pr(>|t|)    
## (Intercept)  1.8475712  0.0100340  184.13  < 2e-16 ***
## xx          -0.0361672  0.0004533  -79.79 3.86e-14 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 0.01426 on 9 degrees of freedom
## Multiple R-squared:  0.9986, Adjusted R-squared:  0.9984 
## F-statistic:  6366 on 1 and 9 DF,  p-value: 3.863e-14

nuestro modelo tiene un intercepto menor que el anterior modelo de 1.8475712 y la pendiente es de -0.0361672, es decir que por cada minuto que aumenta se reduce 0.0361672 grados de temperatura de la olla, el error de la desviacion estandar es de 0.01426 mucho menor que el error del ajuste anterior por lo que nos indica que la relación es inversa pues mientras aumenta el tiempo la temperatura disminuye, además del \(R-ajustado\) nos da que el modelo explica el \(99.84\%\) de los datos lo que esmayor y se consideraria mucho mejor.

EJERCICIO 2, Parte b

Base del modelo de enfriamiento de Newton

\[\frac{dT}{dt} =-\theta(T-T_A)\] Se obtiene la siguiente relacion \[Ln(T-T_A)=-\theta t+Ln(T_0 -T_A)\] donde: \[T_A =30\] \[T_0=110\] \[\theta=0.1\] \[T=T_A +(T_0 -T_A)exp(-\theta*t)\]

yy2<-30+(110-30)*exp(-0.1*yy1)
yy2
##  [1]  97.74501  98.38862  99.22145  99.81535 100.73792 101.56687 102.38699
##  [8] 103.09191 104.01084 104.59919 105.32564
reg3=lm(yy2~xx)
summary(reg3)
## 
## Call:
## lm(formula = yy2 ~ xx)
## 
## Residuals:
##       Min        1Q    Median        3Q       Max 
## -0.168893 -0.041530  0.005275  0.053699  0.148606 
## 
## Coefficients:
##              Estimate Std. Error t value Pr(>|t|)    
## (Intercept) 96.364783   0.065022 1482.02  < 2e-16 ***
## xx           0.258533   0.002937   88.01  1.6e-14 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 0.09242 on 9 degrees of freedom
## Multiple R-squared:  0.9988, Adjusted R-squared:  0.9987 
## F-statistic:  7746 on 1 and 9 DF,  p-value: 1.599e-14

María Belén Rosero

17 de mayo de 2019