x<- c(3,12,25.3,18,0,5) #Criando um vetor aleatório
y<- c(5,3,12,7,55,10) #Criando outro vetor aleatóro
# nome<-matrix(x,'numero de linhas','numero de colunas')
# Para criar uma Matriz com 2 ou mais vetores,ultilizamos os comandos:
z <- cbind(x,y);z #Para organizá-los em colunas
## x y
## [1,] 3.0 5
## [2,] 12.0 3
## [3,] 25.3 12
## [4,] 18.0 7
## [5,] 0.0 55
## [6,] 5.0 10
# ou
w<-rbind(x,y);z #Para organizá-los em linhas
## x y
## [1,] 3.0 5
## [2,] 12.0 3
## [3,] 25.3 12
## [4,] 18.0 7
## [5,] 0.0 55
## [6,] 5.0 10
dim(z)
## [1] 6 2
length(z)
## [1] 12
a<-x[-6] #Retirar
x <- c(x,20) #Adicionar
x <- c(x[0:3],20,x[4:6]) #Adicionar a um local específico
m_prod <- w%*%z
print(m_prod)
## x y
## x 1142.09 530.6
## y 530.60 3352.0
n <- 20 #Para atribuir o valor 20 ao objeto "n"
media <- 10 #Para atribuir o valor 10 ao objeto "media"
desvio <- 12 #Para atribuir o valor 12 ao objeto "desvio"
x <- rnorm(n,media,desvio)
y <- rnorm(20,10,12) #Caso os valores não tenham nome próprio
z <- round(mean(y),5) #Para calcular a esperança dos dados e arredondar as casas decimais
medias <- c(5.66743,11.44207,9.66593,9.90355,14.77961,8.7968,10.70396,8.20088,12.70802,13.37757,13.74448,11.68138,11.1109,9.60505,9.38486,10.9275,3.999,13.75618,7.44419,15.8419,8.58974,7.96775,9.20028,8.23849,12.41705,8.374913,10.84164,15.11415,12.77037);mean(medias)
## [1] 10.56054
length(medias)
## [1] 29
hist(medias,col='red')
##### Só para lebrar, o TCL diz que a média das amostras (também chamada de x̄) que contêm mais de 30 elementos ,retiradas de uma população P com Esperança(média) sendo E(X)=u e Var(X)=sigma² segue uma distribuição aproximadamente normal com média amostral x̄ e variância sigma²/n.
x1 <- rbinom(20,25,0.8)
x2 <- rbinom(20,25,0.8)
x3 <- rbinom(20,25,0.8)
x4 <- rbinom(20,25,0.8)
x5 <- rbinom(20,25,0.8)
x6 <- rbinom(20,25,0.8)
x7 <- rbinom(20,25,0.8)
x8 <- rbinom(20,25,0.8)
x9 <- rbinom(20,25,0.8)
x10 <- rbinom(20,25,0.8)
mediasx1 <- mean(x1)
mediasx2 <- mean(x2)
mediasx3 <- mean(x3)
mediasx4 <- mean(x4)
mediasx5 <- mean(x5)
mediasx6 <- mean(x6)
mediasx7 <- mean(x7)
mediasx8 <- mean(x8)
mediasx9 <- mean(x9)
mediasx10 <- mean(x10)
MediasX <- c(mediasx1,mediasx2,mediasx3,mediasx4,mediasx5,mediasx6,mediasx7,mediasx8,mediasx9,mediasx10);MediasX
## [1] 20.65 19.65 20.10 20.50 20.60 20.30 19.90 19.90 20.80 18.95
Medias <- mean(MediasX);Medias
## [1] 20.135
hist(MediasX)
n=400
pchapeu1=0.55
Zcomp=0.99
Zalfa=qnorm(0.995, 0, 1, lower.tail = T)
Limite_Inferior=0.55-((Zalfa/2)*sqrt(0.55*0.45/n))
Limite_Superior=0.55+((Zalfa/2)*sqrt(0.55*0.45/n))
cbind(Limite_Inferior,Limite_Superior)
## Limite_Inferior Limite_Superior
## [1,] 0.5179635 0.5820365
Mínimo_esperado <- Limite_Inferior*230000
Máximo_esperado <- Limite_Superior*230000
cbind(Mínimo_esperado,Máximo_esperado)
## Mínimo_esperado Máximo_esperado
## [1,] 119131.6 133868.4
n=600
pchapeu2=240/600
Zalfa=qnorm(0.975, 0, 1, lower.tail = T)
e=((Zalfa/2)*sqrt(pchapeu2*(1-pchapeu2)/n))
Limite_I<-(pchapeu2-e)*100
Limite_S<-(pchapeu2+e)*100
cbind(Limite_I,Limite_S)
## Limite_I Limite_S
## [1,] 38.04004 41.95996
# OBS= p̂= pchapéu
n<-30
lambda=12
y<-c()
for(i in 1:1000){
y[i]=mean(rpois(n, lambda))
}
hist(y, freq=F, main = "Histograma das médias das amostras", ylab = "Frequência", xlab="Média das amostras" )
x<-y
u_poisson <- lambda
sd_poisson <- sqrt(lambda/n)
curve(dnorm(x,u_poisson,sd_poisson), add=T)
install.packages('Hmisc')
library(Hmisc)
binconf(240, 600, alpha=0.05, include.x = T, include.n = T, return.df=T, method="asymptotic")
## X N PointEst Lower Upper
## 240 600 0.4 0.3608007 0.4391993
# Na tabela gerada, temos os valores Lower(Mínimo) que é o limite inferior, temos o Upper(Máximo), que é o nosso limite superior e nosso pointEst, que é o nosso ponto médio da distribuição( que é o nosso da distribuição.
install.packages('boot')
library(boot)
# norm.ci(t0 = Xbarra, var.t0 = var.Xbarra, conf=1-alpha)
turmas <- c(35,28,29,33,32,40,26,25,29,28,30,36,33,29,27,30,28,25)
# z.test(x=turmas, mu=32, sigma.x=0.89, alternative="less", conf.level=0.99)
# OBS
#- Onde o primeiro x são as observações
#- mu é o valor a ser testado (Hipótese nula=Ho)
#- sigma.x é o desvio padrão das observações
#- alternative="less" é o indicativo de que o teste é unilateral à esquerda (se fosse dos dois lados colocaria "two.sided" e se fosse unilateral à direita ="greater")
t.test(x=turmas, mu=32, alternative = "less", conf.level = 0.99)
##
## One Sample t-test
##
## data: turmas
## t = -1.9428, df = 17, p-value = 0.0344
## alternative hypothesis: true mean is less than 32
## 99 percent confidence interval:
## -Inf 32.58902
## sample estimates:
## mean of x
## 30.16667
Mesma coisa no pspp: Você insere os valores intercalando eles com a tecla enter. Vai em analisar->comparar médias->teste t->joga a variavel das observações pra coluna da direita. insere o H1 a ser testado embaixo. Vai em opções e seleciona o tamanho do intervalo de confiança desejado. pra ficar que nem o teste do R e ver se tá dando certo a gente poe 0.99 embaixo de sig-2tailed. depois de rodar, ele te dá a probabilidade do que ta fora do intervalo simetrico. pra saber o que sobra só de um lado. e conseguir um teste unilateral, basta dividir o valor por 2.
prop.test(350,400,0.9, conf.level=0.99, alternative="less")
##
## 1-sample proportions test with continuity correction
##
## data: 350 out of 400, null probability 0.9
## X-squared = 2.5069, df = 1, p-value = 0.05667
## alternative hypothesis: true p is less than 0.9
## 99 percent confidence interval:
## 0.0000000 0.9096038
## sample estimates:
## p
## 0.875
amostra1=c(51, 47, 75, 35, 72, 84, 45, 11, 52, 57)
amostra2=c(27, 75, 49, 69, 73, 63, 79, 37, 84, 32)
t.test(amostra1,amostra2,mu=0,alternative="two.sided")
##
## Welch Two Sample t-test
##
## data: amostra1 and amostra2
## t = -0.62797, df = 17.998, p-value = 0.5379
## alternative hypothesis: true difference in means is not equal to 0
## 95 percent confidence interval:
## -25.63902 13.83902
## sample estimates:
## mean of x mean of y
## 52.9 58.8
qf(0.975, df1=8, df2=6, lower.tail = F)
## [1] 0.2149754
Para desenvolvermos um teste F no R ultilizamos o comando
# shapiro.test()
#ctrl c + ctrl v porque colar com o mouse dava problemas com o pspp. em seguida usamos a coluna seguinte pra identificar as variaveis. na seção visualização de variáveis, que fica abaixo, mudamos as casas das variaveis de 2 casas para 4 casas porque ele estava arredondando.
Que é o mesmo que dizer que u_antes - u_depois = 0 , onde u é o peso médio. ##### H1: u_antes > u_depois Que é o mesmo que dizer que u_antes - u_depois > 0. ##### Podemos chamar u_antes-u_depois de ud = media das diferenças. então H0 ud=0, H1: ud>0
xi<- c(120,104,93,87,85,98,102,106,88,90)
yi<- c(116,102,90,83,86,97,98,108,82,85)
#como as amostras não são diferentes o procedimento jogado pra gente é criar uma coluna com a diferença de um pelo outro. vamos fazer uma com x-y
a<-xi-yi #São os nossos dados emparelhados
mean(a) #Que é a média da distribuição
## [1] 2.6
sd(a) #que é o desvio padrão dos dados
## [1] 2.590581