##Carregando Dados

y <- c(12,12,3,3,11,19,1,14,15,17,2,15)
x1 <- c(31,16,29,19,27,21,24,11,26,18,12,3)
x2 <- c(4,5,3,0,2,6,2,3,6,6,1,5)

##Ajuste

ajuste <- lm(y~(x1+x2))
resumo <- summary(ajuste)
resumo
## 
## Call:
## lm(formula = y ~ (x1 + x2))
## 
## Residuals:
##    Min     1Q Median     3Q    Max 
## -4.782 -2.446 -0.309  2.045  5.570 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept)   3.3320     3.4794   0.958 0.363258    
## x1           -0.1133     0.1335  -0.849 0.418078    
## x2            2.5782     0.5366   4.805 0.000967 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 3.673 on 9 degrees of freedom
## Multiple R-squared:  0.7281, Adjusted R-squared:  0.6677 
## F-statistic: 12.05 on 2 and 9 DF,  p-value: 0.002849

B2 é significativo. R² = 0.6677 -> Indica um ótimo ajuste dos dados, logo x1 e x2 explica 68% da variábilidade de y

##**Regressões Auxiliares*

reg <- lm(x1~x2-1)
Sreg <- summary(reg)
Sreg
## 
## Call:
## lm(formula = x1 ~ x2 - 1)
## 
## Residuals:
##     Min      1Q  Median      3Q     Max 
## -17.970  -4.366   4.321  15.813  19.000 
## 
## Coefficients:
##    Estimate Std. Error t value Pr(>|t|)    
## x2   4.1940     0.9278    4.52 0.000872 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 13.15 on 11 degrees of freedom
## Multiple R-squared:   0.65,  Adjusted R-squared:  0.6182 
## F-statistic: 20.43 on 1 and 11 DF,  p-value: 0.0008718

“-1 é para tirar o intercepto”

anova(reg)
## Analysis of Variance Table
## 
## Response: x1
##           Df Sum Sq Mean Sq F value    Pr(>F)    
## x2         1 3535.6  3535.6  20.432 0.0008718 ***
## Residuals 11 1903.4   173.0                      
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Pela ANOVA rejeita-se H0 a um nível de 5% de significância Logo o modelo contribui significativamente para a predição de y, porém não necessáriamente para todas as variáveis. OBS: Ele contribui apenas para a variável gasto com propaganda (x2)

##Cálculo da Tolerância

R2 <- Sreg$r.squared 
Tol <- 1 - R2
Tol
## [1] 0.3499601

TOlerância baixa = FIV alto

##Cálculo do FIV:

FIV = 1/Tol
FIV
## [1] 2.857469

A partir de 4 há presença de multicolineariedade A parti de 10 eu me preocupo pois há muita presença de multicolineariedade

cor.test(x1,x2)
## 
##  Pearson's product-moment correlation
## 
## data:  x1 and x2
## t = -0.10485, df = 10, p-value = 0.9186
## alternative hypothesis: true correlation is not equal to 0
## 95 percent confidence interval:
##  -0.5957096  0.5512481
## sample estimates:
##         cor 
## -0.03313677

Correlação negativa.