In order to use each method, I first prepare a suitable data frame - splitting it into training and test sets and then splitting the training set into 5 folds.
for(j in 1:500){
# Stratify the training set into 5 folds
set.seed(j)
folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
train.set$fold <- folds
# Using QDA to produce the CV error rate
CV.error<-NULL
for (i in 1:5) {
valid.data <- subset(train.set, fold == i)
train.data <- subset(train.set, fold != i)
qda.fit<-qda(formula = Group~PC1+PC2, data=train.data)
qda.y <- valid.data$Group
qda.predy<-predict(qda.fit, valid.data)$class
ith.test.error<- mean(qda.y!=qda.predy)
CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error)
}
PC1.PC2.All<-c(PC1.PC2.All, sum(CV.error))
}
PC1.PC2.All
## [1] 0.05593220 0.05593220 0.05254237 0.05423729 0.05084746 0.05593220
## [7] 0.05593220 0.05254237 0.05084746 0.05593220 0.05423729 0.05254237
## [13] 0.05423729 0.05084746 0.05762712 0.05254237 0.04576271 0.05593220
## [19] 0.04576271 0.05593220 0.04915254 0.05762712 0.05932203 0.05593220
## [25] 0.05423729 0.04576271 0.05254237 0.05254237 0.05762712 0.05254237
## [31] 0.04745763 0.05593220 0.04576271 0.05084746 0.05762712 0.05084746
## [37] 0.05254237 0.05254237 0.04915254 0.05423729 0.05084746 0.05084746
## [43] 0.06271186 0.05762712 0.05254237 0.05084746 0.05423729 0.05254237
## [49] 0.05593220 0.05084746 0.05593220 0.05593220 0.04915254 0.05084746
## [55] 0.04915254 0.05254237 0.05084746 0.05084746 0.05254237 0.05254237
## [61] 0.05423729 0.05084746 0.05254237 0.05254237 0.05084746 0.06440678
## [67] 0.05423729 0.05423729 0.04915254 0.05254237 0.05254237 0.05423729
## [73] 0.05084746 0.05423729 0.05423729 0.05423729 0.05254237 0.05423729
## [79] 0.04915254 0.05423729 0.05254237 0.05762712 0.05084746 0.05254237
## [85] 0.06440678 0.06101695 0.04915254 0.05423729 0.06101695 0.05423729
## [91] 0.05254237 0.05084746 0.04406780 0.05084746 0.05762712 0.05084746
## [97] 0.05084746 0.04915254 0.05932203 0.05593220 0.05254237 0.05084746
## [103] 0.05084746 0.04745763 0.06271186 0.05084746 0.05423729 0.04745763
## [109] 0.05762712 0.04745763 0.05254237 0.05084746 0.05932203 0.05254237
## [115] 0.05084746 0.05423729 0.04915254 0.04915254 0.05084746 0.05423729
## [121] 0.05932203 0.05932203 0.05254237 0.05254237 0.04915254 0.05084746
## [127] 0.05254237 0.05423729 0.05254237 0.04915254 0.05254237 0.05423729
## [133] 0.05254237 0.05254237 0.05593220 0.05254237 0.05423729 0.05254237
## [139] 0.05593220 0.04915254 0.05254237 0.05762712 0.05762712 0.05423729
## [145] 0.05932203 0.05254237 0.06610169 0.05423729 0.05593220 0.05084746
## [151] 0.05254237 0.05084746 0.04915254 0.04915254 0.05423729 0.05593220
## [157] 0.04915254 0.05254237 0.05254237 0.05593220 0.05254237 0.04915254
## [163] 0.05084746 0.05254237 0.05254237 0.05084746 0.05423729 0.05084746
## [169] 0.04915254 0.05254237 0.04915254 0.05084746 0.05254237 0.04576271
## [175] 0.05762712 0.04915254 0.05423729 0.05932203 0.05762712 0.05254237
## [181] 0.05084746 0.04745763 0.05423729 0.05084746 0.05254237 0.05084746
## [187] 0.04576271 0.04745763 0.05593220 0.05254237 0.04915254 0.05932203
## [193] 0.04915254 0.05423729 0.05084746 0.05762712 0.05254237 0.05254237
## [199] 0.05593220 0.04745763 0.05593220 0.04745763 0.05423729 0.04915254
## [205] 0.04745763 0.05593220 0.05254237 0.05423729 0.05423729 0.04915254
## [211] 0.05254237 0.05762712 0.05593220 0.04745763 0.05084746 0.05254237
## [217] 0.05423729 0.05423729 0.05254237 0.04745763 0.05593220 0.05254237
## [223] 0.05423729 0.05593220 0.05762712 0.05593220 0.05423729 0.05254237
## [229] 0.05423729 0.05084746 0.04915254 0.04576271 0.05254237 0.05423729
## [235] 0.05593220 0.04576271 0.04745763 0.05762712 0.05593220 0.05932203
## [241] 0.04576271 0.05084746 0.05593220 0.05084746 0.05254237 0.05423729
## [247] 0.05762712 0.05423729 0.06101695 0.05084746 0.05084746 0.05593220
## [253] 0.05084746 0.05084746 0.05762712 0.05084746 0.05254237 0.04915254
## [259] 0.06101695 0.05593220 0.04745763 0.05423729 0.05593220 0.05084746
## [265] 0.06101695 0.04915254 0.05254237 0.05084746 0.05084746 0.05084746
## [271] 0.05254237 0.05084746 0.05423729 0.05254237 0.05593220 0.04915254
## [277] 0.04576271 0.05593220 0.05423729 0.05593220 0.05423729 0.05423729
## [283] 0.04915254 0.05084746 0.05084746 0.05084746 0.05084746 0.05593220
## [289] 0.05593220 0.05254237 0.05084746 0.05423729 0.05254237 0.05593220
## [295] 0.05423729 0.05254237 0.06271186 0.05423729 0.05254237 0.05423729
## [301] 0.05762712 0.05084746 0.04745763 0.05593220 0.04745763 0.05254237
## [307] 0.05423729 0.05423729 0.04745763 0.05593220 0.04745763 0.05762712
## [313] 0.05932203 0.04406780 0.05593220 0.05084746 0.04915254 0.06101695
## [319] 0.05254237 0.05254237 0.05084746 0.06101695 0.05932203 0.05762712
## [325] 0.04915254 0.05423729 0.05084746 0.04745763 0.05423729 0.06101695
## [331] 0.05254237 0.05254237 0.05084746 0.05593220 0.05423729 0.05254237
## [337] 0.05423729 0.05593220 0.04915254 0.05423729 0.05084746 0.04576271
## [343] 0.05084746 0.04915254 0.05593220 0.05593220 0.05423729 0.04915254
## [349] 0.05423729 0.04915254 0.05254237 0.05084746 0.05254237 0.05423729
## [355] 0.05084746 0.05254237 0.05254237 0.05254237 0.05084746 0.05254237
## [361] 0.06101695 0.05593220 0.05593220 0.05762712 0.05084746 0.05423729
## [367] 0.05762712 0.05762712 0.05423729 0.04576271 0.05762712 0.04576271
## [373] 0.05423729 0.05593220 0.05254237 0.04576271 0.04745763 0.05593220
## [379] 0.05423729 0.04576271 0.05593220 0.04745763 0.05084746 0.05084746
## [385] 0.05423729 0.05254237 0.05593220 0.05084746 0.05423729 0.05084746
## [391] 0.04576271 0.05254237 0.05593220 0.06101695 0.04915254 0.04915254
## [397] 0.05254237 0.05593220 0.05593220 0.05084746 0.05932203 0.05593220
## [403] 0.05084746 0.04067797 0.05593220 0.04745763 0.04915254 0.05084746
## [409] 0.04576271 0.05254237 0.05593220 0.04745763 0.05762712 0.05423729
## [415] 0.05084746 0.05254237 0.04576271 0.05254237 0.05593220 0.04745763
## [421] 0.05932203 0.05254237 0.04915254 0.05254237 0.04915254 0.05593220
## [427] 0.04745763 0.05254237 0.05254237 0.04915254 0.05423729 0.05084746
## [433] 0.04576271 0.04915254 0.04745763 0.05254237 0.06101695 0.05423729
## [439] 0.05254237 0.05254237 0.04745763 0.05593220 0.05084746 0.05762712
## [445] 0.04915254 0.05593220 0.04915254 0.05254237 0.06271186 0.05423729
## [451] 0.05254237 0.05593220 0.05762712 0.04745763 0.05423729 0.05593220
## [457] 0.05254237 0.05254237 0.05254237 0.05423729 0.04406780 0.05932203
## [463] 0.04915254 0.04745763 0.05932203 0.05423729 0.05423729 0.05762712
## [469] 0.05593220 0.04915254 0.04745763 0.06440678 0.04406780 0.05084746
## [475] 0.04745763 0.05084746 0.05932203 0.05593220 0.05423729 0.05254237
## [481] 0.04915254 0.05593220 0.05593220 0.05423729 0.04745763 0.04745763
## [487] 0.05762712 0.05084746 0.05423729 0.05084746 0.04745763 0.05423729
## [493] 0.05254237 0.05423729 0.05254237 0.05254237 0.05423729 0.05593220
## [499] 0.05084746 0.06101695
for(j in 1:500){
set.seed(j)
folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
train.set$fold <- folds
# Using QDA to produce the CV error rate
CV.error<-NULL
for (i in 1:5) {
valid.data <- subset(train.set, fold == i)
train.data <- subset(train.set, fold != i)
qda.fit<-qda(formula = Group~Latitude, data=train.data)
qda.y <- valid.data$Group
qda.predy<-predict(qda.fit, valid.data)$class
ith.test.error<- mean(qda.y!=qda.predy)
CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error)
}
Lat.All<-c(Lat.All, sum(CV.error))
}
Lat.All
## [1] 0.3237288 0.3220339 0.3203390 0.3237288 0.3237288 0.3152542 0.3169492
## [8] 0.3203390 0.3186441 0.3118644 0.3220339 0.3186441 0.3186441 0.3135593
## [15] 0.3186441 0.3135593 0.3203390 0.3271186 0.3135593 0.3203390 0.3203390
## [22] 0.3186441 0.3169492 0.3118644 0.3169492 0.3169492 0.3135593 0.3118644
## [29] 0.3135593 0.3135593 0.3169492 0.3220339 0.3067797 0.3186441 0.3169492
## [36] 0.3118644 0.3220339 0.3152542 0.3169492 0.3220339 0.3152542 0.3355932
## [43] 0.3271186 0.3101695 0.3186441 0.3135593 0.3186441 0.3237288 0.3203390
## [50] 0.3169492 0.3186441 0.3220339 0.3186441 0.3220339 0.3135593 0.3220339
## [57] 0.3169492 0.3169492 0.3186441 0.3152542 0.3169492 0.3186441 0.3152542
## [64] 0.3254237 0.3135593 0.3186441 0.3186441 0.3186441 0.3254237 0.3237288
## [71] 0.3220339 0.3220339 0.3186441 0.3101695 0.3203390 0.3084746 0.3084746
## [78] 0.3186441 0.3135593 0.3152542 0.3220339 0.3220339 0.3169492 0.3118644
## [85] 0.3186441 0.3118644 0.3067797 0.3152542 0.3220339 0.3169492 0.3135593
## [92] 0.3152542 0.3186441 0.3254237 0.3237288 0.3152542 0.3186441 0.3203390
## [99] 0.3254237 0.3135593 0.3169492 0.3271186 0.3203390 0.3237288 0.3152542
## [106] 0.3135593 0.3254237 0.3152542 0.3186441 0.3152542 0.3186441 0.3152542
## [113] 0.3186441 0.3084746 0.3186441 0.3203390 0.3237288 0.3203390 0.3237288
## [120] 0.3135593 0.3203390 0.3152542 0.3169492 0.3118644 0.3186441 0.3203390
## [127] 0.3084746 0.3169492 0.3118644 0.3135593 0.3135593 0.3101695 0.3135593
## [134] 0.3169492 0.3016949 0.3118644 0.3152542 0.3152542 0.3305085 0.3152542
## [141] 0.3118644 0.3203390 0.3220339 0.3169492 0.3084746 0.3152542 0.3186441
## [148] 0.3186441 0.3203390 0.3186441 0.3101695 0.3169492 0.3203390 0.3220339
## [155] 0.3067797 0.3118644 0.3220339 0.3067797 0.3186441 0.3152542 0.3186441
## [162] 0.3203390 0.3152542 0.3237288 0.3135593 0.3084746 0.3135593 0.3186441
## [169] 0.3152542 0.3220339 0.3220339 0.3186441 0.3152542 0.3186441 0.3118644
## [176] 0.3186441 0.3152542 0.3186441 0.3152542 0.3203390 0.3169492 0.3169492
## [183] 0.3186441 0.3203390 0.3152542 0.3186441 0.3169492 0.3254237 0.3220339
## [190] 0.3203390 0.3220339 0.3169492 0.3203390 0.3135593 0.3169492 0.3186441
## [197] 0.3135593 0.3203390 0.3135593 0.3169492 0.3135593 0.3135593 0.3084746
## [204] 0.3084746 0.3084746 0.3271186 0.3118644 0.3186441 0.3186441 0.3169492
## [211] 0.3169492 0.3101695 0.3118644 0.3220339 0.3186441 0.3135593 0.3186441
## [218] 0.3237288 0.3118644 0.3203390 0.3169492 0.3169492 0.3203390 0.3135593
## [225] 0.3186441 0.3118644 0.3135593 0.3186441 0.3101695 0.3220339 0.3135593
## [232] 0.3237288 0.3237288 0.3152542 0.3152542 0.3169492 0.3118644 0.3118644
## [239] 0.3101695 0.3084746 0.3152542 0.3169492 0.3220339 0.3203390 0.3169492
## [246] 0.3152542 0.3152542 0.3186441 0.3220339 0.3203390 0.3152542 0.3169492
## [253] 0.3152542 0.3169492 0.3152542 0.3237288 0.3084746 0.3135593 0.3050847
## [260] 0.3152542 0.3220339 0.3152542 0.3271186 0.3152542 0.3101695 0.3237288
## [267] 0.3152542 0.3186441 0.3237288 0.3101695 0.3135593 0.3271186 0.3152542
## [274] 0.3220339 0.3067797 0.3067797 0.3135593 0.3203390 0.3220339 0.3169492
## [281] 0.3203390 0.3118644 0.3186441 0.3169492 0.3135593 0.3186441 0.3271186
## [288] 0.3186441 0.3186441 0.3169492 0.3237288 0.3152542 0.3169492 0.3152542
## [295] 0.3271186 0.3152542 0.3152542 0.3118644 0.3118644 0.3169492 0.3067797
## [302] 0.3118644 0.3135593 0.3203390 0.3135593 0.3118644 0.3084746 0.3118644
## [309] 0.3118644 0.3203390 0.3169492 0.3237288 0.3237288 0.3152542 0.3135593
## [316] 0.3169492 0.3254237 0.3203390 0.3135593 0.3152542 0.3169492 0.3118644
## [323] 0.3186441 0.3135593 0.3220339 0.3203390 0.3186441 0.3220339 0.3220339
## [330] 0.3169492 0.3152542 0.3203390 0.3186441 0.3203390 0.3237288 0.3084746
## [337] 0.3152542 0.3220339 0.3169492 0.3220339 0.3203390 0.3237288 0.3169492
## [344] 0.3254237 0.3152542 0.3135593 0.3203390 0.3169492 0.3169492 0.3186441
## [351] 0.3254237 0.3169492 0.3169492 0.3152542 0.3220339 0.3084746 0.3186441
## [358] 0.3101695 0.3152542 0.3152542 0.3203390 0.3254237 0.3135593 0.3237288
## [365] 0.3203390 0.3101695 0.3118644 0.3169492 0.3186441 0.3152542 0.3135593
## [372] 0.3118644 0.3152542 0.3067797 0.3152542 0.3186441 0.3186441 0.3152542
## [379] 0.3118644 0.3186441 0.3118644 0.3169492 0.3169492 0.3135593 0.3186441
## [386] 0.3118644 0.3067797 0.3203390 0.3203390 0.3237288 0.3135593 0.3203390
## [393] 0.3135593 0.3220339 0.3118644 0.3203390 0.3118644 0.3118644 0.3203390
## [400] 0.3152542 0.3118644 0.3186441 0.3203390 0.3186441 0.3254237 0.3135593
## [407] 0.3118644 0.3135593 0.3118644 0.3237288 0.3254237 0.3067797 0.3118644
## [414] 0.3101695 0.3271186 0.3067797 0.3254237 0.3186441 0.3118644 0.3135593
## [421] 0.3169492 0.3288136 0.3135593 0.3101695 0.3135593 0.3186441 0.3135593
## [428] 0.3220339 0.3203390 0.3101695 0.3135593 0.3101695 0.3152542 0.3152542
## [435] 0.3169492 0.3152542 0.3152542 0.3135593 0.3271186 0.3186441 0.3152542
## [442] 0.3254237 0.3135593 0.3152542 0.3101695 0.3152542 0.3169492 0.3135593
## [449] 0.3186441 0.3203390 0.3169492 0.3186441 0.3152542 0.3186441 0.3169492
## [456] 0.3135593 0.3169492 0.3084746 0.3101695 0.3271186 0.3203390 0.3186441
## [463] 0.3237288 0.3220339 0.3186441 0.3220339 0.3186441 0.3220339 0.3152542
## [470] 0.3135593 0.3169492 0.3135593 0.3135593 0.3237288 0.3169492 0.3135593
## [477] 0.3203390 0.3016949 0.3220339 0.3135593 0.3135593 0.3135593 0.3254237
## [484] 0.3220339 0.3067797 0.3118644 0.3135593 0.3186441 0.3152542 0.3186441
## [491] 0.3152542 0.3186441 0.3203390 0.3152542 0.3067797 0.3169492 0.3203390
## [498] 0.3169492 0.3135593 0.3152542
for(j in 1:500){
set.seed(j)
folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
train.set$fold <- folds
# Using QDA to produce the CV error rate
CV.error<-NULL
for (i in 1:5) {
valid.data <- subset(train.set, fold == i)
train.data <- subset(train.set, fold != i)
qda.fit<-qda(formula = Group~Longitude, data=train.data)
qda.y <- valid.data$Group
qda.predy<-predict(qda.fit, valid.data)$class
ith.test.error<- mean(qda.y!=qda.predy)
CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error)
}
Long.All<-c(Long.All, sum(CV.error))
}
Long.All
## [1] 0.6525424 0.6542373 0.6508475 0.6491525 0.6525424 0.6508475 0.6491525
## [8] 0.6576271 0.6542373 0.6525424 0.6542373 0.6491525 0.6525424 0.6525424
## [15] 0.6491525 0.6525424 0.6525424 0.6525424 0.6593220 0.6508475 0.6508475
## [22] 0.6525424 0.6525424 0.6508475 0.6559322 0.6508475 0.6542373 0.6508475
## [29] 0.6576271 0.6508475 0.6559322 0.6542373 0.6525424 0.6525424 0.6661017
## [36] 0.6525424 0.6542373 0.6508475 0.6508475 0.6542373 0.6508475 0.6525424
## [43] 0.6491525 0.6508475 0.6508475 0.6525424 0.6525424 0.6525424 0.6508475
## [50] 0.6542373 0.6559322 0.6491525 0.6508475 0.6559322 0.6525424 0.6542373
## [57] 0.6525424 0.6525424 0.6525424 0.6525424 0.6508475 0.6542373 0.6508475
## [64] 0.6542373 0.6491525 0.6508475 0.6525424 0.6525424 0.6559322 0.6559322
## [71] 0.6559322 0.6542373 0.6508475 0.6525424 0.6508475 0.6525424 0.6508475
## [78] 0.6474576 0.6559322 0.6559322 0.6525424 0.6491525 0.6508475 0.6559322
## [85] 0.6474576 0.6559322 0.6491525 0.6525424 0.6542373 0.6542373 0.6542373
## [92] 0.6508475 0.6542373 0.6593220 0.6491525 0.6525424 0.6525424 0.6508475
## [99] 0.6559322 0.6491525 0.6542373 0.6508475 0.6542373 0.6474576 0.6542373
## [106] 0.6559322 0.6525424 0.6593220 0.6542373 0.6542373 0.6491525 0.6525424
## [113] 0.6525424 0.6491525 0.6559322 0.6559322 0.6508475 0.6542373 0.6474576
## [120] 0.6542373 0.6542373 0.6508475 0.6525424 0.6542373 0.6525424 0.6525424
## [127] 0.6525424 0.6508475 0.6576271 0.6491525 0.6576271 0.6491525 0.6525424
## [134] 0.6508475 0.6525424 0.6542373 0.6525424 0.6508475 0.6525424 0.6525424
## [141] 0.6525424 0.6525424 0.6508475 0.6559322 0.6508475 0.6525424 0.6542373
## [148] 0.6525424 0.6542373 0.6542373 0.6525424 0.6542373 0.6525424 0.6525424
## [155] 0.6542373 0.6542373 0.6508475 0.6508475 0.6508475 0.6542373 0.6542373
## [162] 0.6525424 0.6508475 0.6508475 0.6525424 0.6542373 0.6525424 0.6542373
## [169] 0.6542373 0.6525424 0.6491525 0.6491525 0.6508475 0.6542373 0.6525424
## [176] 0.6525424 0.6542373 0.6525424 0.6508475 0.6474576 0.6525424 0.6508475
## [183] 0.6525424 0.6491525 0.6542373 0.6491525 0.6525424 0.6576271 0.6610169
## [190] 0.6508475 0.6542373 0.6474576 0.6457627 0.6542373 0.6525424 0.6491525
## [197] 0.6525424 0.6593220 0.6542373 0.6508475 0.6491525 0.6491525 0.6542373
## [204] 0.6508475 0.6559322 0.6559322 0.6525424 0.6525424 0.6542373 0.6559322
## [211] 0.6525424 0.6525424 0.6508475 0.6525424 0.6508475 0.6525424 0.6525424
## [218] 0.6525424 0.6525424 0.6491525 0.6576271 0.6508475 0.6542373 0.6542373
## [225] 0.6559322 0.6508475 0.6508475 0.6542373 0.6491525 0.6525424 0.6491525
## [232] 0.6542373 0.6508475 0.6508475 0.6542373 0.6525424 0.6542373 0.6542373
## [239] 0.6474576 0.6474576 0.6644068 0.6576271 0.6508475 0.6525424 0.6542373
## [246] 0.6508475 0.6508475 0.6525424 0.6576271 0.6508475 0.6508475 0.6508475
## [253] 0.6491525 0.6542373 0.6542373 0.6525424 0.6525424 0.6542373 0.6474576
## [260] 0.6508475 0.6508475 0.6525424 0.6525424 0.6542373 0.6508475 0.6559322
## [267] 0.6491525 0.6508475 0.6542373 0.6525424 0.6508475 0.6491525 0.6525424
## [274] 0.6474576 0.6559322 0.6491525 0.6542373 0.6508475 0.6559322 0.6525424
## [281] 0.6474576 0.6508475 0.6525424 0.6491525 0.6525424 0.6542373 0.6525424
## [288] 0.6508475 0.6508475 0.6542373 0.6525424 0.6491525 0.6491525 0.6559322
## [295] 0.6508475 0.6508475 0.6525424 0.6491525 0.6525424 0.6542373 0.6508475
## [302] 0.6525424 0.6508475 0.6491525 0.6508475 0.6542373 0.6559322 0.6491525
## [309] 0.6542373 0.6542373 0.6542373 0.6474576 0.6474576 0.6542373 0.6525424
## [316] 0.6474576 0.6576271 0.6525424 0.6542373 0.6474576 0.6508475 0.6542373
## [323] 0.6508475 0.6508475 0.6525424 0.6491525 0.6559322 0.6542373 0.6559322
## [330] 0.6491525 0.6525424 0.6525424 0.6525424 0.6525424 0.6508475 0.6508475
## [337] 0.6508475 0.6508475 0.6508475 0.6525424 0.6593220 0.6542373 0.6525424
## [344] 0.6542373 0.6542373 0.6491525 0.6542373 0.6508475 0.6542373 0.6525424
## [351] 0.6508475 0.6508475 0.6508475 0.6525424 0.6542373 0.6525424 0.6508475
## [358] 0.6508475 0.6559322 0.6542373 0.6491525 0.6525424 0.6491525 0.6542373
## [365] 0.6508475 0.6525424 0.6559322 0.6491525 0.6508475 0.6508475 0.6525424
## [372] 0.6491525 0.6525424 0.6525424 0.6542373 0.6508475 0.6508475 0.6508475
## [379] 0.6542373 0.6508475 0.6474576 0.6525424 0.6542373 0.6525424 0.6508475
## [386] 0.6491525 0.6576271 0.6559322 0.6508475 0.6542373 0.6525424 0.6508475
## [393] 0.6542373 0.6491525 0.6525424 0.6491525 0.6525424 0.6525424 0.6508475
## [400] 0.6525424 0.6491525 0.6525424 0.6508475 0.6542373 0.6525424 0.6542373
## [407] 0.6525424 0.6508475 0.6525424 0.6542373 0.6508475 0.6542373 0.6525424
## [414] 0.6542373 0.6491525 0.6559322 0.6559322 0.6542373 0.6525424 0.6525424
## [421] 0.6508475 0.6508475 0.6508475 0.6559322 0.6525424 0.6559322 0.6542373
## [428] 0.6576271 0.6542373 0.6508475 0.6491525 0.6576271 0.6491525 0.6525424
## [435] 0.6559322 0.6559322 0.6559322 0.6508475 0.6525424 0.6525424 0.6542373
## [442] 0.6508475 0.6525424 0.6525424 0.6508475 0.6542373 0.6525424 0.6525424
## [449] 0.6559322 0.6542373 0.6542373 0.6508475 0.6525424 0.6525424 0.6542373
## [456] 0.6508475 0.6542373 0.6508475 0.6576271 0.6525424 0.6542373 0.6491525
## [463] 0.6474576 0.6508475 0.6576271 0.6508475 0.6542373 0.6542373 0.6525424
## [470] 0.6542373 0.6525424 0.6525424 0.6491525 0.6542373 0.6542373 0.6559322
## [477] 0.6525424 0.6542373 0.6508475 0.6508475 0.6559322 0.6559322 0.6508475
## [484] 0.6508475 0.6525424 0.6474576 0.6508475 0.6525424 0.6576271 0.6508475
## [491] 0.6542373 0.6542373 0.6525424 0.6525424 0.6525424 0.6559322 0.6474576
## [498] 0.6576271 0.6508475 0.6542373
for(j in 1:500){
set.seed(j)
folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
train.set$fold <- folds
# Using QDA to produce the CV error rate
CV.error<-NULL
for (i in 1:5) {
valid.data <- subset(train.set, fold == i)
train.data <- subset(train.set, fold != i)
qda.fit<-qda(formula = Group~OverallAvg, data=train.data)
qda.y <- valid.data$Group
qda.predy<-predict(qda.fit, valid.data)$class
ith.test.error<- mean(qda.y!=qda.predy)
CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error)
}
O.A.All<-c(O.A.All, sum(CV.error))
}
O.A.All
## [1] 0.1711864 0.1677966 0.1627119 0.1677966 0.1576271 0.1644068 0.1644068
## [8] 0.1728814 0.1627119 0.1593220 0.1661017 0.1711864 0.1610169 0.1677966
## [15] 0.1627119 0.1661017 0.1677966 0.1728814 0.1627119 0.1711864 0.1593220
## [22] 0.1661017 0.1694915 0.1644068 0.1677966 0.1661017 0.1644068 0.1644068
## [29] 0.1644068 0.1593220 0.1593220 0.1593220 0.1644068 0.1610169 0.1677966
## [36] 0.1677966 0.1593220 0.1661017 0.1661017 0.1677966 0.1661017 0.1627119
## [43] 0.1627119 0.1627119 0.1728814 0.1627119 0.1661017 0.1661017 0.1627119
## [50] 0.1694915 0.1661017 0.1644068 0.1627119 0.1661017 0.1694915 0.1610169
## [57] 0.1627119 0.1661017 0.1593220 0.1694915 0.1677966 0.1661017 0.1661017
## [64] 0.1694915 0.1661017 0.1661017 0.1525424 0.1644068 0.1661017 0.1593220
## [71] 0.1644068 0.1677966 0.1610169 0.1627119 0.1728814 0.1694915 0.1610169
## [78] 0.1644068 0.1661017 0.1644068 0.1610169 0.1661017 0.1593220 0.1661017
## [85] 0.1644068 0.1745763 0.1593220 0.1661017 0.1661017 0.1644068 0.1610169
## [92] 0.1627119 0.1610169 0.1644068 0.1627119 0.1711864 0.1627119 0.1644068
## [99] 0.1644068 0.1644068 0.1627119 0.1644068 0.1661017 0.1627119 0.1644068
## [106] 0.1593220 0.1661017 0.1593220 0.1627119 0.1627119 0.1627119 0.1711864
## [113] 0.1627119 0.1644068 0.1644068 0.1644068 0.1593220 0.1661017 0.1644068
## [120] 0.1644068 0.1593220 0.1593220 0.1542373 0.1694915 0.1661017 0.1644068
## [127] 0.1694915 0.1627119 0.1694915 0.1644068 0.1610169 0.1542373 0.1644068
## [134] 0.1677966 0.1694915 0.1610169 0.1627119 0.1711864 0.1661017 0.1677966
## [141] 0.1610169 0.1576271 0.1644068 0.1728814 0.1661017 0.1627119 0.1627119
## [148] 0.1644068 0.1627119 0.1627119 0.1593220 0.1661017 0.1677966 0.1677966
## [155] 0.1627119 0.1627119 0.1661017 0.1644068 0.1711864 0.1610169 0.1644068
## [162] 0.1677966 0.1559322 0.1644068 0.1627119 0.1644068 0.1627119 0.1661017
## [169] 0.1627119 0.1711864 0.1779661 0.1677966 0.1644068 0.1661017 0.1627119
## [176] 0.1610169 0.1711864 0.1627119 0.1677966 0.1610169 0.1644068 0.1593220
## [183] 0.1644068 0.1610169 0.1694915 0.1644068 0.1677966 0.1694915 0.1644068
## [190] 0.1728814 0.1661017 0.1644068 0.1576271 0.1610169 0.1627119 0.1559322
## [197] 0.1644068 0.1677966 0.1627119 0.1677966 0.1610169 0.1610169 0.1661017
## [204] 0.1644068 0.1644068 0.1677966 0.1593220 0.1593220 0.1610169 0.1694915
## [211] 0.1627119 0.1661017 0.1627119 0.1694915 0.1677966 0.1627119 0.1644068
## [218] 0.1661017 0.1610169 0.1644068 0.1677966 0.1559322 0.1644068 0.1627119
## [225] 0.1677966 0.1711864 0.1644068 0.1661017 0.1576271 0.1677966 0.1610169
## [232] 0.1745763 0.1661017 0.1745763 0.1627119 0.1661017 0.1610169 0.1644068
## [239] 0.1661017 0.1661017 0.1644068 0.1627119 0.1644068 0.1576271 0.1627119
## [246] 0.1694915 0.1627119 0.1644068 0.1593220 0.1610169 0.1661017 0.1644068
## [253] 0.1627119 0.1661017 0.1661017 0.1728814 0.1627119 0.1627119 0.1627119
## [260] 0.1694915 0.1644068 0.1627119 0.1593220 0.1694915 0.1593220 0.1661017
## [267] 0.1610169 0.1728814 0.1677966 0.1661017 0.1661017 0.1728814 0.1661017
## [274] 0.1661017 0.1677966 0.1627119 0.1677966 0.1627119 0.1661017 0.1610169
## [281] 0.1644068 0.1644068 0.1610169 0.1694915 0.1610169 0.1610169 0.1627119
## [288] 0.1644068 0.1694915 0.1627119 0.1644068 0.1610169 0.1627119 0.1677966
## [295] 0.1627119 0.1677966 0.1661017 0.1576271 0.1661017 0.1661017 0.1661017
## [302] 0.1644068 0.1627119 0.1677966 0.1661017 0.1694915 0.1677966 0.1644068
## [309] 0.1644068 0.1593220 0.1610169 0.1644068 0.1610169 0.1677966 0.1576271
## [316] 0.1694915 0.1610169 0.1644068 0.1627119 0.1677966 0.1644068 0.1644068
## [323] 0.1644068 0.1627119 0.1610169 0.1576271 0.1644068 0.1627119 0.1627119
## [330] 0.1661017 0.1593220 0.1593220 0.1593220 0.1711864 0.1627119 0.1661017
## [337] 0.1677966 0.1644068 0.1576271 0.1644068 0.1711864 0.1661017 0.1593220
## [344] 0.1610169 0.1644068 0.1627119 0.1661017 0.1644068 0.1644068 0.1627119
## [351] 0.1610169 0.1677966 0.1661017 0.1644068 0.1644068 0.1644068 0.1694915
## [358] 0.1644068 0.1694915 0.1627119 0.1627119 0.1711864 0.1661017 0.1745763
## [365] 0.1677966 0.1644068 0.1627119 0.1610169 0.1644068 0.1593220 0.1644068
## [372] 0.1593220 0.1661017 0.1610169 0.1627119 0.1711864 0.1627119 0.1711864
## [379] 0.1593220 0.1644068 0.1661017 0.1610169 0.1644068 0.1677966 0.1644068
## [386] 0.1627119 0.1610169 0.1661017 0.1627119 0.1661017 0.1593220 0.1711864
## [393] 0.1644068 0.1644068 0.1644068 0.1661017 0.1644068 0.1610169 0.1677966
## [400] 0.1593220 0.1661017 0.1694915 0.1694915 0.1661017 0.1610169 0.1627119
## [407] 0.1694915 0.1694915 0.1644068 0.1711864 0.1627119 0.1644068 0.1694915
## [414] 0.1627119 0.1610169 0.1694915 0.1644068 0.1661017 0.1711864 0.1610169
## [421] 0.1694915 0.1593220 0.1627119 0.1644068 0.1677966 0.1644068 0.1576271
## [428] 0.1661017 0.1661017 0.1661017 0.1677966 0.1711864 0.1559322 0.1694915
## [435] 0.1694915 0.1627119 0.1661017 0.1644068 0.1677966 0.1644068 0.1644068
## [442] 0.1627119 0.1644068 0.1661017 0.1661017 0.1593220 0.1610169 0.1661017
## [449] 0.1728814 0.1677966 0.1627119 0.1661017 0.1644068 0.1661017 0.1593220
## [456] 0.1610169 0.1677966 0.1661017 0.1627119 0.1677966 0.1677966 0.1644068
## [463] 0.1677966 0.1677966 0.1627119 0.1644068 0.1627119 0.1661017 0.1745763
## [470] 0.1644068 0.1593220 0.1677966 0.1661017 0.1661017 0.1627119 0.1661017
## [477] 0.1728814 0.1677966 0.1627119 0.1728814 0.1593220 0.1627119 0.1694915
## [484] 0.1661017 0.1627119 0.1661017 0.1677966 0.1627119 0.1661017 0.1610169
## [491] 0.1627119 0.1661017 0.1644068 0.1559322 0.1610169 0.1677966 0.1644068
## [498] 0.1677966 0.1644068 0.1762712
for(j in 1:500){
set.seed(j)
folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
train.set$fold <- folds
# Using QDA to produce the CV error rate
CV.error<-NULL
for (i in 1:5) {
valid.data <- subset(train.set, fold == i)
train.data <- subset(train.set, fold != i)
qda.fit<-qda(formula = Group~OverallMeanAmp, data=train.data)
qda.y <- valid.data$Group
qda.predy<-predict(qda.fit, valid.data)$class
ith.test.error<- mean(qda.y!=qda.predy)
CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error)
}
O.M.A.All<-c(O.M.A.All, sum(CV.error))
}
O.M.A.All
## [1] 0.4169492 0.4118644 0.4186441 0.4169492 0.4101695 0.4152542 0.4101695
## [8] 0.4101695 0.4101695 0.4169492 0.4169492 0.4186441 0.4203390 0.4169492
## [15] 0.4084746 0.4203390 0.4169492 0.4135593 0.4101695 0.4135593 0.4152542
## [22] 0.4101695 0.4220339 0.4118644 0.4118644 0.4169492 0.4118644 0.4152542
## [29] 0.4101695 0.4135593 0.4101695 0.4067797 0.4050847 0.4152542 0.4135593
## [36] 0.4101695 0.4050847 0.4084746 0.4084746 0.4084746 0.4169492 0.4118644
## [43] 0.4118644 0.4135593 0.4084746 0.4152542 0.4067797 0.4135593 0.4152542
## [50] 0.4135593 0.4135593 0.4169492 0.4135593 0.4152542 0.4067797 0.4084746
## [57] 0.4135593 0.4135593 0.4169492 0.4169492 0.4101695 0.4169492 0.4169492
## [64] 0.4203390 0.4135593 0.4101695 0.4135593 0.4101695 0.4118644 0.4135593
## [71] 0.4084746 0.4101695 0.4152542 0.4084746 0.4118644 0.4067797 0.4118644
## [78] 0.4152542 0.4152542 0.4101695 0.4101695 0.4101695 0.4152542 0.4084746
## [85] 0.4101695 0.4135593 0.4118644 0.4203390 0.4118644 0.4118644 0.4135593
## [92] 0.4067797 0.4101695 0.4101695 0.4169492 0.4101695 0.4152542 0.4118644
## [99] 0.4101695 0.4101695 0.4169492 0.4152542 0.4186441 0.4135593 0.4152542
## [106] 0.4118644 0.4084746 0.4101695 0.4169492 0.4169492 0.4118644 0.4152542
## [113] 0.4169492 0.4118644 0.4152542 0.4101695 0.4118644 0.4101695 0.4084746
## [120] 0.4118644 0.4101695 0.4135593 0.4101695 0.4152542 0.4118644 0.4101695
## [127] 0.4067797 0.4135593 0.4135593 0.4152542 0.4067797 0.4152542 0.4067797
## [134] 0.4152542 0.4084746 0.4169492 0.4067797 0.4135593 0.4152542 0.4118644
## [141] 0.4169492 0.4152542 0.4084746 0.4118644 0.4050847 0.4101695 0.4101695
## [148] 0.4016949 0.4169492 0.4135593 0.4152542 0.4135593 0.4101695 0.4118644
## [155] 0.4169492 0.4169492 0.4101695 0.4220339 0.4084746 0.4186441 0.4135593
## [162] 0.4152542 0.4203390 0.4084746 0.4135593 0.4169492 0.4152542 0.4118644
## [169] 0.4084746 0.4186441 0.4118644 0.4084746 0.4152542 0.4118644 0.4152542
## [176] 0.4152542 0.4118644 0.4118644 0.4169492 0.4101695 0.4101695 0.4118644
## [183] 0.4169492 0.4152542 0.4118644 0.4135593 0.4118644 0.4152542 0.4220339
## [190] 0.4118644 0.4135593 0.4152542 0.4186441 0.4118644 0.4152542 0.4135593
## [197] 0.4169492 0.4237288 0.4101695 0.4169492 0.4135593 0.4050847 0.4169492
## [204] 0.4084746 0.4118644 0.4135593 0.4152542 0.4135593 0.4101695 0.4169492
## [211] 0.4118644 0.4118644 0.4169492 0.4101695 0.4067797 0.4135593 0.4101695
## [218] 0.4118644 0.4084746 0.4186441 0.4118644 0.4084746 0.4084746 0.4135593
## [225] 0.4152542 0.4050847 0.4084746 0.4186441 0.4118644 0.4169492 0.4118644
## [232] 0.4084746 0.4152542 0.4169492 0.4169492 0.4101695 0.4152542 0.4135593
## [239] 0.4101695 0.4118644 0.4169492 0.4101695 0.4169492 0.4135593 0.4067797
## [246] 0.4101695 0.4101695 0.4101695 0.4101695 0.4118644 0.4169492 0.4084746
## [253] 0.4118644 0.4152542 0.4101695 0.4101695 0.4101695 0.4101695 0.4135593
## [260] 0.4118644 0.4084746 0.4084746 0.4118644 0.4084746 0.4101695 0.4220339
## [267] 0.4101695 0.4118644 0.4101695 0.4101695 0.4084746 0.4186441 0.4135593
## [274] 0.4152542 0.4084746 0.4135593 0.4135593 0.4169492 0.4169492 0.4118644
## [281] 0.4203390 0.4169492 0.4169492 0.4118644 0.4118644 0.4118644 0.4135593
## [288] 0.4050847 0.4118644 0.4118644 0.4084746 0.4152542 0.4118644 0.4118644
## [295] 0.4152542 0.4118644 0.4135593 0.4186441 0.4067797 0.4186441 0.4152542
## [302] 0.4118644 0.4118644 0.4118644 0.4135593 0.4084746 0.4135593 0.4152542
## [309] 0.4118644 0.4186441 0.4067797 0.4067797 0.4050847 0.4135593 0.4135593
## [316] 0.4101695 0.4118644 0.4118644 0.4135593 0.4101695 0.4101695 0.4016949
## [323] 0.4152542 0.4118644 0.4135593 0.4118644 0.4152542 0.4118644 0.4101695
## [330] 0.4135593 0.4169492 0.4135593 0.4152542 0.4135593 0.4084746 0.4169492
## [337] 0.4118644 0.4203390 0.4118644 0.4135593 0.4135593 0.4118644 0.4118644
## [344] 0.4118644 0.4135593 0.4101695 0.4186441 0.4152542 0.4050847 0.4118644
## [351] 0.4118644 0.4135593 0.4169492 0.4135593 0.4067797 0.4135593 0.4084746
## [358] 0.4101695 0.4152542 0.4152542 0.4101695 0.4135593 0.4203390 0.4135593
## [365] 0.4101695 0.4067797 0.4152542 0.4118644 0.4152542 0.4135593 0.4135593
## [372] 0.4067797 0.4152542 0.4101695 0.4084746 0.4118644 0.4118644 0.4084746
## [379] 0.4169492 0.4101695 0.4067797 0.4135593 0.4152542 0.4050847 0.4152542
## [386] 0.4220339 0.4101695 0.4152542 0.4152542 0.4084746 0.4118644 0.4169492
## [393] 0.4220339 0.4118644 0.4135593 0.4169492 0.4135593 0.4135593 0.4101695
## [400] 0.4067797 0.4186441 0.4084746 0.4152542 0.4203390 0.4118644 0.4067797
## [407] 0.4118644 0.4101695 0.4169492 0.4101695 0.4101695 0.4118644 0.4186441
## [414] 0.4084746 0.4152542 0.4118644 0.4203390 0.4101695 0.4186441 0.4152542
## [421] 0.4152542 0.4135593 0.4135593 0.4050847 0.4118644 0.4169492 0.4135593
## [428] 0.4152542 0.4169492 0.4118644 0.4101695 0.4050847 0.4186441 0.4101695
## [435] 0.4067797 0.4152542 0.4101695 0.4118644 0.4169492 0.4067797 0.4101695
## [442] 0.4186441 0.4169492 0.4203390 0.4101695 0.4169492 0.4135593 0.4135593
## [449] 0.4118644 0.4135593 0.4118644 0.4118644 0.4152542 0.4118644 0.4135593
## [456] 0.4118644 0.4101695 0.4067797 0.4118644 0.4101695 0.4067797 0.4118644
## [463] 0.4084746 0.4118644 0.4152542 0.4050847 0.4186441 0.4169492 0.4135593
## [470] 0.4084746 0.4118644 0.4152542 0.4135593 0.4152542 0.4118644 0.4169492
## [477] 0.4135593 0.4101695 0.4067797 0.4084746 0.4118644 0.4084746 0.4067797
## [484] 0.4118644 0.4118644 0.4186441 0.4135593 0.4237288 0.4118644 0.4101695
## [491] 0.4118644 0.4084746 0.4118644 0.4084746 0.4152542 0.4118644 0.4118644
## [498] 0.4101695 0.4101695 0.4152542
for(j in 1:500){
set.seed(j)
folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
train.set$fold <- folds
# Using QDA to produce the CV error rate
CV.error<-NULL
for (i in 1:5) {
valid.data <- subset(train.set, fold == i)
train.data <- subset(train.set, fold != i)
qda.fit<-qda(formula = Group~Longitude+Latitude, data=train.data)
qda.y <- valid.data$Group
qda.predy<-predict(qda.fit, valid.data)$class
ith.test.error<- mean(qda.y!=qda.predy)
CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error)
}
Lat.Long.All<-c(Lat.Long.All, sum(CV.error))
}
Lat.Long.All
## [1] 0.2983051 0.3152542 0.2983051 0.3016949 0.3101695 0.3067797 0.3135593
## [8] 0.2983051 0.3067797 0.2949153 0.3067797 0.3000000 0.3033898 0.3101695
## [15] 0.3000000 0.3067797 0.3067797 0.3000000 0.3016949 0.2932203 0.3033898
## [22] 0.2983051 0.3033898 0.3067797 0.3033898 0.3050847 0.3000000 0.3050847
## [29] 0.3000000 0.2983051 0.2966102 0.3084746 0.3084746 0.3084746 0.3203390
## [36] 0.3135593 0.3000000 0.2966102 0.2966102 0.3186441 0.3033898 0.3101695
## [43] 0.3050847 0.2966102 0.2966102 0.2983051 0.3000000 0.3084746 0.3067797
## [50] 0.3067797 0.3084746 0.3101695 0.3118644 0.3101695 0.3084746 0.2966102
## [57] 0.2966102 0.3118644 0.3084746 0.3084746 0.3050847 0.3000000 0.3101695
## [64] 0.2949153 0.2983051 0.3067797 0.2983051 0.3067797 0.3033898 0.2983051
## [71] 0.3084746 0.3016949 0.3033898 0.3084746 0.3000000 0.3033898 0.3050847
## [78] 0.3152542 0.3101695 0.3186441 0.3067797 0.3084746 0.3033898 0.3101695
## [85] 0.3016949 0.3033898 0.3050847 0.2966102 0.3101695 0.3000000 0.3016949
## [92] 0.3000000 0.3084746 0.3169492 0.3084746 0.3135593 0.3000000 0.2966102
## [99] 0.3050847 0.3050847 0.3101695 0.2966102 0.3084746 0.3084746 0.3067797
## [106] 0.3118644 0.3084746 0.3050847 0.2949153 0.3016949 0.3016949 0.3050847
## [113] 0.3050847 0.3033898 0.3050847 0.3016949 0.3101695 0.3033898 0.3067797
## [120] 0.3050847 0.3016949 0.3101695 0.3101695 0.3050847 0.3101695 0.3084746
## [127] 0.3067797 0.3067797 0.3000000 0.3016949 0.3152542 0.3101695 0.3084746
## [134] 0.3067797 0.2932203 0.3000000 0.3050847 0.3033898 0.3169492 0.3101695
## [141] 0.3016949 0.3135593 0.3084746 0.2983051 0.3000000 0.3016949 0.2966102
## [148] 0.3101695 0.2915254 0.2983051 0.3000000 0.2983051 0.3118644 0.3033898
## [155] 0.3033898 0.3000000 0.3101695 0.3033898 0.3000000 0.3000000 0.3033898
## [162] 0.3135593 0.3118644 0.3067797 0.3050847 0.3016949 0.3067797 0.3033898
## [169] 0.3050847 0.3067797 0.2983051 0.3050847 0.3084746 0.3033898 0.3135593
## [176] 0.3067797 0.3033898 0.2983051 0.3016949 0.3101695 0.3033898 0.3033898
## [183] 0.3050847 0.3000000 0.3101695 0.2949153 0.3016949 0.3220339 0.3084746
## [190] 0.3050847 0.2915254 0.3033898 0.3000000 0.3101695 0.3135593 0.3016949
## [197] 0.3067797 0.3000000 0.3067797 0.2983051 0.3135593 0.3033898 0.3050847
## [204] 0.3016949 0.2983051 0.3186441 0.3152542 0.3152542 0.3067797 0.3000000
## [211] 0.3016949 0.2898305 0.3016949 0.3050847 0.3067797 0.3084746 0.3135593
## [218] 0.2983051 0.3000000 0.2983051 0.3101695 0.3033898 0.3084746 0.2966102
## [225] 0.3050847 0.3067797 0.3033898 0.2966102 0.3050847 0.3033898 0.3101695
## [232] 0.3186441 0.2983051 0.3050847 0.3050847 0.3067797 0.2915254 0.3135593
## [239] 0.2966102 0.3016949 0.3067797 0.3033898 0.2966102 0.3050847 0.2949153
## [246] 0.2898305 0.3016949 0.2983051 0.3000000 0.3084746 0.3084746 0.3050847
## [253] 0.2966102 0.2966102 0.3084746 0.3220339 0.3067797 0.3084746 0.3084746
## [260] 0.3033898 0.3016949 0.3152542 0.3067797 0.3050847 0.3118644 0.3033898
## [267] 0.3000000 0.3186441 0.3067797 0.3033898 0.3016949 0.3050847 0.3067797
## [274] 0.3050847 0.3067797 0.3016949 0.3016949 0.3016949 0.2966102 0.2966102
## [281] 0.3084746 0.3050847 0.2966102 0.3118644 0.3067797 0.3000000 0.3084746
## [288] 0.2915254 0.3220339 0.3033898 0.3118644 0.2966102 0.2949153 0.3033898
## [295] 0.3000000 0.3050847 0.3050847 0.3000000 0.3033898 0.3084746 0.2915254
## [302] 0.2949153 0.3050847 0.3118644 0.2983051 0.3033898 0.3000000 0.2915254
## [309] 0.3084746 0.3067797 0.3118644 0.3016949 0.3050847 0.3118644 0.3050847
## [316] 0.3050847 0.3101695 0.3067797 0.3084746 0.3118644 0.3067797 0.3067797
## [323] 0.3033898 0.3118644 0.3118644 0.2983051 0.2949153 0.3050847 0.3000000
## [330] 0.3033898 0.3050847 0.3050847 0.2983051 0.3067797 0.2949153 0.3084746
## [337] 0.2949153 0.3169492 0.2983051 0.3101695 0.3067797 0.3084746 0.3000000
## [344] 0.3050847 0.2915254 0.2949153 0.2983051 0.3000000 0.3033898 0.3050847
## [351] 0.3000000 0.3152542 0.3016949 0.3033898 0.3050847 0.3016949 0.3084746
## [358] 0.3101695 0.2949153 0.2983051 0.3000000 0.3152542 0.3118644 0.2983051
## [365] 0.2932203 0.3101695 0.3033898 0.3000000 0.3050847 0.3016949 0.3016949
## [372] 0.3000000 0.3084746 0.3033898 0.3033898 0.3033898 0.2949153 0.3169492
## [379] 0.3000000 0.2983051 0.3084746 0.3033898 0.3067797 0.3067797 0.3067797
## [386] 0.3000000 0.3016949 0.3084746 0.3016949 0.3084746 0.3067797 0.3016949
## [393] 0.3084746 0.2966102 0.2966102 0.3067797 0.3118644 0.2983051 0.3101695
## [400] 0.3118644 0.2966102 0.3135593 0.3101695 0.3033898 0.3118644 0.2898305
## [407] 0.2949153 0.2983051 0.3016949 0.3033898 0.3016949 0.3084746 0.3033898
## [414] 0.3033898 0.3084746 0.2949153 0.3000000 0.3033898 0.3135593 0.3067797
## [421] 0.2915254 0.3135593 0.3050847 0.3169492 0.3050847 0.3118644 0.3033898
## [428] 0.3084746 0.3033898 0.2966102 0.3000000 0.3101695 0.3033898 0.2983051
## [435] 0.3050847 0.3000000 0.3033898 0.3067797 0.3000000 0.3033898 0.3084746
## [442] 0.3067797 0.3016949 0.3067797 0.2966102 0.3016949 0.3084746 0.3101695
## [449] 0.3203390 0.3101695 0.3067797 0.3084746 0.3169492 0.3135593 0.3016949
## [456] 0.3016949 0.3050847 0.2932203 0.2966102 0.3118644 0.3118644 0.2932203
## [463] 0.3016949 0.3169492 0.3067797 0.3135593 0.3016949 0.3135593 0.3084746
## [470] 0.3050847 0.3033898 0.2966102 0.2915254 0.3033898 0.3033898 0.3016949
## [477] 0.3118644 0.3016949 0.3067797 0.3084746 0.3033898 0.3033898 0.3050847
## [484] 0.3000000 0.3000000 0.2966102 0.3050847 0.2983051 0.3033898 0.3084746
## [491] 0.3033898 0.3000000 0.3050847 0.2949153 0.3016949 0.3118644 0.2983051
## [498] 0.3118644 0.2966102 0.2949153
for(j in 1:500){
set.seed(j)
folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
train.set$fold <- folds
# Using QDA to produce the CV error rate
CV.error<-NULL
for (i in 1:5) {
valid.data <- subset(train.set, fold == i)
train.data <- subset(train.set, fold != i)
qda.fit<-qda(formula = Group~Latitude+OverallAvg, data=train.data)
qda.y <- valid.data$Group
qda.predy<-predict(qda.fit, valid.data)$class
ith.test.error<- mean(qda.y!=qda.predy)
CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error)
}
Lat.O.A.All<-c(Lat.O.A.All, sum(CV.error))
}
Lat.O.A.All
## [1] 0.05254237 0.05593220 0.05254237 0.05762712 0.05593220 0.05762712
## [7] 0.05084746 0.05423729 0.05423729 0.05593220 0.05932203 0.05593220
## [13] 0.05932203 0.04915254 0.05423729 0.05593220 0.05593220 0.05084746
## [19] 0.06440678 0.04745763 0.05423729 0.05762712 0.06101695 0.05762712
## [25] 0.05762712 0.05423729 0.05593220 0.06271186 0.05423729 0.05254237
## [31] 0.05254237 0.05762712 0.04406780 0.05084746 0.04915254 0.05593220
## [37] 0.06101695 0.05423729 0.05254237 0.06440678 0.05932203 0.05084746
## [43] 0.05762712 0.05084746 0.05932203 0.05932203 0.05423729 0.05423729
## [49] 0.04915254 0.05084746 0.05084746 0.05593220 0.05932203 0.06101695
## [55] 0.05762712 0.04915254 0.05593220 0.05762712 0.05932203 0.05084746
## [61] 0.05762712 0.05593220 0.05084746 0.05423729 0.05423729 0.05762712
## [67] 0.04576271 0.05423729 0.06101695 0.05593220 0.04576271 0.05084746
## [73] 0.05593220 0.05084746 0.06101695 0.05593220 0.05762712 0.05084746
## [79] 0.05423729 0.05593220 0.05423729 0.05084746 0.04915254 0.05254237
## [85] 0.06440678 0.05932203 0.05423729 0.05423729 0.07288136 0.05762712
## [91] 0.05762712 0.05932203 0.05423729 0.06101695 0.05762712 0.05762712
## [97] 0.05254237 0.05423729 0.04745763 0.06101695 0.05932203 0.05932203
## [103] 0.05423729 0.05423729 0.05762712 0.05423729 0.05423729 0.05084746
## [109] 0.05423729 0.04915254 0.06271186 0.05762712 0.05423729 0.05762712
## [115] 0.05593220 0.04745763 0.05254237 0.05423729 0.05593220 0.05762712
## [121] 0.06271186 0.05254237 0.05593220 0.05254237 0.05423729 0.06101695
## [127] 0.05423729 0.05593220 0.05423729 0.05593220 0.05762712 0.06440678
## [133] 0.05762712 0.05254237 0.05932203 0.05593220 0.04915254 0.05254237
## [139] 0.05593220 0.05593220 0.05084746 0.05423729 0.05084746 0.05762712
## [145] 0.06271186 0.05084746 0.05593220 0.05084746 0.05423729 0.04745763
## [151] 0.05762712 0.05423729 0.06101695 0.05423729 0.05932203 0.05593220
## [157] 0.05254237 0.05932203 0.05084746 0.05084746 0.05762712 0.05254237
## [163] 0.05762712 0.05254237 0.04915254 0.05084746 0.06271186 0.05593220
## [169] 0.05084746 0.05593220 0.05932203 0.05762712 0.06440678 0.04406780
## [175] 0.05254237 0.05423729 0.05423729 0.05423729 0.06271186 0.05423729
## [181] 0.06101695 0.05423729 0.05423729 0.05762712 0.05593220 0.06101695
## [187] 0.05254237 0.05423729 0.05762712 0.05593220 0.05254237 0.04745763
## [193] 0.05084746 0.06101695 0.05593220 0.05932203 0.05084746 0.05593220
## [199] 0.06101695 0.05423729 0.06101695 0.05254237 0.05084746 0.05932203
## [205] 0.06271186 0.05762712 0.05084746 0.05762712 0.05593220 0.05593220
## [211] 0.05423729 0.06271186 0.05762712 0.05762712 0.05254237 0.05932203
## [217] 0.05423729 0.05423729 0.05593220 0.05762712 0.05593220 0.05254237
## [223] 0.05254237 0.05084746 0.05762712 0.05254237 0.05254237 0.05423729
## [229] 0.05932203 0.05593220 0.05254237 0.05593220 0.05593220 0.05423729
## [235] 0.05593220 0.05423729 0.05254237 0.06271186 0.06271186 0.05932203
## [241] 0.05423729 0.05084746 0.06610169 0.05254237 0.05423729 0.05762712
## [247] 0.05254237 0.05762712 0.05254237 0.04745763 0.05254237 0.04745763
## [253] 0.05423729 0.05593220 0.06440678 0.05254237 0.05254237 0.05762712
## [259] 0.05762712 0.05762712 0.04406780 0.05423729 0.04915254 0.05084746
## [265] 0.05423729 0.05762712 0.05423729 0.05932203 0.05254237 0.05762712
## [271] 0.05254237 0.06101695 0.06779661 0.05084746 0.05254237 0.05593220
## [277] 0.05932203 0.05932203 0.06610169 0.05593220 0.05932203 0.04745763
## [283] 0.05423729 0.05084746 0.05762712 0.04745763 0.06271186 0.05593220
## [289] 0.05593220 0.05932203 0.05423729 0.05254237 0.06271186 0.06271186
## [295] 0.05423729 0.05423729 0.05762712 0.05254237 0.05932203 0.05762712
## [301] 0.04745763 0.05423729 0.04745763 0.05254237 0.05084746 0.05254237
## [307] 0.06271186 0.05762712 0.06101695 0.05762712 0.05254237 0.05762712
## [313] 0.06440678 0.05423729 0.05762712 0.06101695 0.05593220 0.06101695
## [319] 0.05423729 0.05254237 0.05254237 0.05593220 0.05423729 0.05593220
## [325] 0.04915254 0.05084746 0.06101695 0.05084746 0.05084746 0.06101695
## [331] 0.05593220 0.05593220 0.05593220 0.05084746 0.05762712 0.05593220
## [337] 0.06440678 0.05932203 0.05254237 0.05423729 0.05762712 0.05254237
## [343] 0.05593220 0.05762712 0.06440678 0.05932203 0.06101695 0.04915254
## [349] 0.05084746 0.05932203 0.06271186 0.05593220 0.06271186 0.05423729
## [355] 0.05423729 0.05423729 0.05084746 0.05423729 0.05932203 0.05593220
## [361] 0.05254237 0.05932203 0.05254237 0.05762712 0.05254237 0.05084746
## [367] 0.05254237 0.06101695 0.05084746 0.04915254 0.05593220 0.05254237
## [373] 0.05423729 0.05762712 0.05593220 0.05423729 0.05084746 0.05084746
## [379] 0.05084746 0.05423729 0.05932203 0.05084746 0.05254237 0.05254237
## [385] 0.04745763 0.05762712 0.05084746 0.05254237 0.05423729 0.05423729
## [391] 0.05593220 0.05423729 0.05762712 0.05593220 0.06101695 0.04576271
## [397] 0.05084746 0.05423729 0.05593220 0.05762712 0.06440678 0.05932203
## [403] 0.05932203 0.05084746 0.05593220 0.06101695 0.05932203 0.04915254
## [409] 0.05254237 0.06101695 0.05423729 0.04915254 0.05254237 0.05932203
## [415] 0.05254237 0.05423729 0.05762712 0.05932203 0.05084746 0.05932203
## [421] 0.06440678 0.05254237 0.05254237 0.05593220 0.05593220 0.05762712
## [427] 0.05254237 0.04915254 0.05593220 0.05254237 0.05254237 0.05593220
## [433] 0.05423729 0.05762712 0.05254237 0.05254237 0.06101695 0.05423729
## [439] 0.05254237 0.05254237 0.06271186 0.06101695 0.05762712 0.05762712
## [445] 0.05593220 0.05084746 0.05423729 0.05762712 0.05932203 0.05423729
## [451] 0.05254237 0.05254237 0.06271186 0.05932203 0.05762712 0.05084746
## [457] 0.05593220 0.05762712 0.05084746 0.05593220 0.05593220 0.05932203
## [463] 0.05762712 0.05423729 0.05932203 0.06271186 0.05084746 0.05084746
## [469] 0.05932203 0.05254237 0.05254237 0.05084746 0.05593220 0.05084746
## [475] 0.05423729 0.05423729 0.06101695 0.05423729 0.06101695 0.05932203
## [481] 0.05423729 0.05084746 0.05762712 0.06271186 0.05423729 0.05254237
## [487] 0.05254237 0.05254237 0.05254237 0.05593220 0.05084746 0.05593220
## [493] 0.05423729 0.04745763 0.05593220 0.05762712 0.05254237 0.05254237
## [499] 0.05423729 0.05593220
for(j in 1:500){
set.seed(j)
folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
train.set$fold <- folds
# Using QDA to produce the CV error rate
CV.error<-NULL
for (i in 1:5) {
valid.data <- subset(train.set, fold == i)
train.data <- subset(train.set, fold != i)
qda.fit<-qda(formula = Group~Latitude + OverallMeanAmp, data=train.data)
qda.y <- valid.data$Group
qda.predy<-predict(qda.fit, valid.data)$class
ith.test.error<- mean(qda.y!=qda.predy)
CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error)
}
Lat.O.M.A.All<-c(Lat.O.M.A.All, sum(CV.error))
}
Lat.O.M.A.All
## [1] 0.2322034 0.2338983 0.2423729 0.2338983 0.2406780 0.2305085 0.2322034
## [8] 0.2372881 0.2355932 0.2288136 0.2372881 0.2322034 0.2372881 0.2322034
## [15] 0.2372881 0.2305085 0.2406780 0.2406780 0.2322034 0.2355932 0.2305085
## [22] 0.2237288 0.2406780 0.2372881 0.2271186 0.2338983 0.2288136 0.2254237
## [29] 0.2305085 0.2338983 0.2305085 0.2355932 0.2305085 0.2305085 0.2389831
## [36] 0.2372881 0.2406780 0.2338983 0.2322034 0.2406780 0.2372881 0.2423729
## [43] 0.2474576 0.2372881 0.2406780 0.2338983 0.2305085 0.2423729 0.2372881
## [50] 0.2305085 0.2271186 0.2338983 0.2389831 0.2372881 0.2322034 0.2389831
## [57] 0.2288136 0.2372881 0.2406780 0.2322034 0.2389831 0.2406780 0.2389831
## [64] 0.2322034 0.2389831 0.2423729 0.2288136 0.2372881 0.2338983 0.2322034
## [71] 0.2305085 0.2355932 0.2406780 0.2305085 0.2338983 0.2355932 0.2355932
## [78] 0.2389831 0.2355932 0.2288136 0.2372881 0.2372881 0.2355932 0.2322034
## [85] 0.2338983 0.2305085 0.2355932 0.2355932 0.2389831 0.2288136 0.2355932
## [92] 0.2406780 0.2288136 0.2338983 0.2305085 0.2322034 0.2288136 0.2305085
## [99] 0.2305085 0.2271186 0.2305085 0.2305085 0.2338983 0.2305085 0.2406780
## [106] 0.2406780 0.2338983 0.2305085 0.2338983 0.2305085 0.2338983 0.2322034
## [113] 0.2338983 0.2322034 0.2271186 0.2305085 0.2288136 0.2254237 0.2338983
## [120] 0.2389831 0.2372881 0.2338983 0.2322034 0.2305085 0.2372881 0.2305085
## [127] 0.2305085 0.2338983 0.2355932 0.2338983 0.2322034 0.2305085 0.2338983
## [134] 0.2355932 0.2338983 0.2338983 0.2338983 0.2355932 0.2322034 0.2355932
## [141] 0.2237288 0.2271186 0.2288136 0.2406780 0.2305085 0.2338983 0.2254237
## [148] 0.2322034 0.2355932 0.2322034 0.2372881 0.2322034 0.2389831 0.2372881
## [155] 0.2322034 0.2322034 0.2372881 0.2305085 0.2338983 0.2288136 0.2322034
## [162] 0.2237288 0.2322034 0.2338983 0.2305085 0.2288136 0.2322034 0.2372881
## [169] 0.2271186 0.2389831 0.2322034 0.2338983 0.2338983 0.2338983 0.2355932
## [176] 0.2322034 0.2288136 0.2406780 0.2322034 0.2440678 0.2355932 0.2372881
## [183] 0.2305085 0.2372881 0.2288136 0.2322034 0.2322034 0.2355932 0.2355932
## [190] 0.2271186 0.2406780 0.2406780 0.2338983 0.2305085 0.2389831 0.2389831
## [197] 0.2372881 0.2288136 0.2271186 0.2355932 0.2372881 0.2305085 0.2322034
## [204] 0.2305085 0.2288136 0.2372881 0.2338983 0.2322034 0.2271186 0.2305085
## [211] 0.2389831 0.2372881 0.2423729 0.2355932 0.2305085 0.2288136 0.2406780
## [218] 0.2423729 0.2338983 0.2305085 0.2440678 0.2288136 0.2355932 0.2355932
## [225] 0.2338983 0.2305085 0.2338983 0.2322034 0.2423729 0.2406780 0.2322034
## [232] 0.2389831 0.2423729 0.2305085 0.2389831 0.2372881 0.2288136 0.2338983
## [239] 0.2338983 0.2355932 0.2288136 0.2271186 0.2389831 0.2305085 0.2322034
## [246] 0.2355932 0.2372881 0.2406780 0.2355932 0.2322034 0.2406780 0.2389831
## [253] 0.2423729 0.2305085 0.2322034 0.2406780 0.2305085 0.2322034 0.2355932
## [260] 0.2322034 0.2338983 0.2372881 0.2355932 0.2406780 0.2271186 0.2305085
## [267] 0.2355932 0.2372881 0.2305085 0.2338983 0.2406780 0.2338983 0.2322034
## [274] 0.2288136 0.2305085 0.2338983 0.2355932 0.2355932 0.2271186 0.2288136
## [281] 0.2322034 0.2372881 0.2288136 0.2305085 0.2237288 0.2322034 0.2355932
## [288] 0.2220339 0.2305085 0.2305085 0.2372881 0.2338983 0.2338983 0.2355932
## [295] 0.2355932 0.2372881 0.2355932 0.2322034 0.2288136 0.2338983 0.2305085
## [302] 0.2288136 0.2237288 0.2338983 0.2305085 0.2389831 0.2288136 0.2271186
## [309] 0.2389831 0.2322034 0.2423729 0.2372881 0.2338983 0.2389831 0.2355932
## [316] 0.2406780 0.2338983 0.2322034 0.2322034 0.2237288 0.2305085 0.2406780
## [323] 0.2254237 0.2322034 0.2389831 0.2355932 0.2355932 0.2338983 0.2322034
## [330] 0.2355932 0.2372881 0.2338983 0.2322034 0.2372881 0.2372881 0.2305085
## [337] 0.2254237 0.2423729 0.2372881 0.2355932 0.2305085 0.2322034 0.2305085
## [344] 0.2271186 0.2338983 0.2305085 0.2305085 0.2288136 0.2338983 0.2322034
## [351] 0.2322034 0.2389831 0.2372881 0.2406780 0.2322034 0.2338983 0.2338983
## [358] 0.2372881 0.2288136 0.2423729 0.2322034 0.2305085 0.2440678 0.2372881
## [365] 0.2440678 0.2440678 0.2237288 0.2305085 0.2406780 0.2338983 0.2322034
## [372] 0.2288136 0.2305085 0.2372881 0.2423729 0.2372881 0.2322034 0.2457627
## [379] 0.2389831 0.2305085 0.2355932 0.2355932 0.2271186 0.2305085 0.2338983
## [386] 0.2338983 0.2288136 0.2338983 0.2305085 0.2288136 0.2355932 0.2406780
## [393] 0.2423729 0.2305085 0.2338983 0.2440678 0.2305085 0.2372881 0.2406780
## [400] 0.2372881 0.2288136 0.2305085 0.2423729 0.2372881 0.2322034 0.2338983
## [407] 0.2254237 0.2474576 0.2305085 0.2338983 0.2338983 0.2372881 0.2389831
## [414] 0.2305085 0.2355932 0.2355932 0.2355932 0.2406780 0.2372881 0.2338983
## [421] 0.2322034 0.2338983 0.2288136 0.2355932 0.2322034 0.2305085 0.2338983
## [428] 0.2271186 0.2338983 0.2254237 0.2355932 0.2322034 0.2355932 0.2406780
## [435] 0.2322034 0.2338983 0.2338983 0.2389831 0.2372881 0.2355932 0.2355932
## [442] 0.2288136 0.2355932 0.2406780 0.2372881 0.2305085 0.2355932 0.2322034
## [449] 0.2322034 0.2423729 0.2423729 0.2389831 0.2305085 0.2322034 0.2305085
## [456] 0.2355932 0.2406780 0.2305085 0.2355932 0.2338983 0.2271186 0.2338983
## [463] 0.2322034 0.2305085 0.2271186 0.2237288 0.2288136 0.2288136 0.2322034
## [470] 0.2288136 0.2322034 0.2338983 0.2305085 0.2372881 0.2288136 0.2406780
## [477] 0.2406780 0.2338983 0.2372881 0.2423729 0.2355932 0.2322034 0.2288136
## [484] 0.2322034 0.2322034 0.2338983 0.2288136 0.2338983 0.2305085 0.2271186
## [491] 0.2355932 0.2305085 0.2389831 0.2254237 0.2322034 0.2406780 0.2355932
## [498] 0.2305085 0.2406780 0.2423729
for(j in 1:500){
set.seed(j)
folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
train.set$fold <- folds
# Using QDA to produce the CV error rate
CV.error<-NULL
for (i in 1:5) {
valid.data <- subset(train.set, fold == i)
train.data <- subset(train.set, fold != i)
qda.fit<-qda(formula = Group~Longitude + OverallAvg, data=train.data)
qda.y <- valid.data$Group
qda.predy<-predict(qda.fit, valid.data)$class
ith.test.error<- mean(qda.y!=qda.predy)
CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error)
}
Long.O.A.All<-c(Long.O.A.All, sum(CV.error))
}
Long.O.A.All
## [1] 0.1457627 0.1389831 0.1389831 0.1389831 0.1389831 0.1423729 0.1440678
## [8] 0.1491525 0.1440678 0.1355932 0.1440678 0.1508475 0.1406780 0.1474576
## [15] 0.1525424 0.1457627 0.1457627 0.1406780 0.1389831 0.1457627 0.1440678
## [22] 0.1406780 0.1440678 0.1389831 0.1372881 0.1389831 0.1440678 0.1406780
## [29] 0.1576271 0.1355932 0.1338983 0.1423729 0.1423729 0.1372881 0.1355932
## [36] 0.1406780 0.1406780 0.1372881 0.1389831 0.1389831 0.1372881 0.1355932
## [43] 0.1372881 0.1389831 0.1355932 0.1355932 0.1355932 0.1474576 0.1406780
## [50] 0.1406780 0.1474576 0.1474576 0.1474576 0.1423729 0.1457627 0.1322034
## [57] 0.1423729 0.1389831 0.1406780 0.1423729 0.1457627 0.1389831 0.1372881
## [64] 0.1322034 0.1389831 0.1389831 0.1338983 0.1406780 0.1406780 0.1372881
## [71] 0.1457627 0.1338983 0.1389831 0.1440678 0.1322034 0.1372881 0.1389831
## [78] 0.1474576 0.1525424 0.1423729 0.1440678 0.1406780 0.1372881 0.1406780
## [85] 0.1457627 0.1440678 0.1423729 0.1355932 0.1372881 0.1372881 0.1372881
## [92] 0.1406780 0.1389831 0.1406780 0.1389831 0.1423729 0.1372881 0.1389831
## [99] 0.1389831 0.1406780 0.1406780 0.1389831 0.1440678 0.1322034 0.1406780
## [106] 0.1372881 0.1389831 0.1372881 0.1491525 0.1474576 0.1508475 0.1338983
## [113] 0.1457627 0.1423729 0.1372881 0.1406780 0.1406780 0.1457627 0.1406780
## [120] 0.1389831 0.1406780 0.1457627 0.1457627 0.1423729 0.1406780 0.1389831
## [127] 0.1423729 0.1406780 0.1423729 0.1406780 0.1389831 0.1288136 0.1288136
## [134] 0.1474576 0.1355932 0.1423729 0.1338983 0.1355932 0.1406780 0.1338983
## [141] 0.1423729 0.1508475 0.1423729 0.1423729 0.1423729 0.1338983 0.1389831
## [148] 0.1389831 0.1406780 0.1423729 0.1355932 0.1423729 0.1440678 0.1406780
## [155] 0.1406780 0.1423729 0.1440678 0.1338983 0.1355932 0.1440678 0.1440678
## [162] 0.1423729 0.1389831 0.1338983 0.1406780 0.1474576 0.1474576 0.1440678
## [169] 0.1440678 0.1474576 0.1440678 0.1440678 0.1474576 0.1389831 0.1406780
## [176] 0.1355932 0.1440678 0.1372881 0.1542373 0.1406780 0.1406780 0.1389831
## [183] 0.1440678 0.1389831 0.1440678 0.1457627 0.1355932 0.1389831 0.1389831
## [190] 0.1491525 0.1322034 0.1406780 0.1355932 0.1474576 0.1355932 0.1288136
## [197] 0.1372881 0.1474576 0.1338983 0.1372881 0.1474576 0.1406780 0.1355932
## [204] 0.1508475 0.1440678 0.1440678 0.1440678 0.1457627 0.1423729 0.1423729
## [211] 0.1389831 0.1474576 0.1423729 0.1389831 0.1508475 0.1389831 0.1525424
## [218] 0.1457627 0.1372881 0.1406780 0.1423729 0.1423729 0.1338983 0.1389831
## [225] 0.1389831 0.1389831 0.1355932 0.1406780 0.1406780 0.1389831 0.1355932
## [232] 0.1440678 0.1389831 0.1457627 0.1440678 0.1372881 0.1406780 0.1338983
## [239] 0.1474576 0.1423729 0.1423729 0.1389831 0.1355932 0.1440678 0.1406780
## [246] 0.1372881 0.1372881 0.1474576 0.1389831 0.1355932 0.1474576 0.1389831
## [253] 0.1389831 0.1406780 0.1423729 0.1406780 0.1338983 0.1440678 0.1423729
## [260] 0.1440678 0.1389831 0.1355932 0.1406780 0.1389831 0.1355932 0.1406780
## [267] 0.1372881 0.1491525 0.1440678 0.1423729 0.1440678 0.1440678 0.1440678
## [274] 0.1423729 0.1406780 0.1440678 0.1423729 0.1355932 0.1372881 0.1338983
## [281] 0.1389831 0.1322034 0.1440678 0.1372881 0.1457627 0.1440678 0.1322034
## [288] 0.1457627 0.1406780 0.1440678 0.1372881 0.1355932 0.1474576 0.1389831
## [295] 0.1440678 0.1423729 0.1440678 0.1338983 0.1406780 0.1440678 0.1372881
## [302] 0.1355932 0.1372881 0.1406780 0.1457627 0.1338983 0.1457627 0.1355932
## [309] 0.1355932 0.1457627 0.1474576 0.1440678 0.1406780 0.1372881 0.1406780
## [316] 0.1406780 0.1355932 0.1440678 0.1423729 0.1372881 0.1389831 0.1406780
## [323] 0.1355932 0.1254237 0.1457627 0.1355932 0.1406780 0.1406780 0.1389831
## [330] 0.1423729 0.1355932 0.1457627 0.1355932 0.1508475 0.1389831 0.1423729
## [337] 0.1288136 0.1457627 0.1406780 0.1474576 0.1423729 0.1372881 0.1355932
## [344] 0.1423729 0.1389831 0.1406780 0.1457627 0.1372881 0.1338983 0.1355932
## [351] 0.1389831 0.1355932 0.1355932 0.1389831 0.1389831 0.1389831 0.1423729
## [358] 0.1474576 0.1406780 0.1389831 0.1389831 0.1508475 0.1423729 0.1457627
## [365] 0.1423729 0.1372881 0.1389831 0.1457627 0.1355932 0.1457627 0.1474576
## [372] 0.1305085 0.1525424 0.1372881 0.1406780 0.1406780 0.1355932 0.1423729
## [379] 0.1372881 0.1406780 0.1389831 0.1423729 0.1423729 0.1355932 0.1440678
## [386] 0.1355932 0.1322034 0.1457627 0.1508475 0.1338983 0.1423729 0.1355932
## [393] 0.1406780 0.1474576 0.1423729 0.1406780 0.1372881 0.1389831 0.1389831
## [400] 0.1406780 0.1389831 0.1457627 0.1423729 0.1423729 0.1355932 0.1338983
## [407] 0.1372881 0.1389831 0.1440678 0.1423729 0.1423729 0.1372881 0.1355932
## [414] 0.1338983 0.1423729 0.1355932 0.1457627 0.1440678 0.1525424 0.1372881
## [421] 0.1457627 0.1406780 0.1389831 0.1372881 0.1355932 0.1423729 0.1355932
## [428] 0.1355932 0.1389831 0.1457627 0.1338983 0.1423729 0.1389831 0.1389831
## [435] 0.1440678 0.1372881 0.1355932 0.1389831 0.1322034 0.1372881 0.1457627
## [442] 0.1322034 0.1406780 0.1389831 0.1372881 0.1338983 0.1406780 0.1474576
## [449] 0.1508475 0.1406780 0.1406780 0.1406780 0.1389831 0.1423729 0.1305085
## [456] 0.1338983 0.1338983 0.1389831 0.1338983 0.1372881 0.1406780 0.1440678
## [463] 0.1457627 0.1423729 0.1423729 0.1372881 0.1389831 0.1406780 0.1457627
## [470] 0.1406780 0.1474576 0.1508475 0.1406780 0.1406780 0.1372881 0.1440678
## [477] 0.1372881 0.1406780 0.1423729 0.1440678 0.1338983 0.1406780 0.1355932
## [484] 0.1406780 0.1389831 0.1322034 0.1423729 0.1525424 0.1406780 0.1389831
## [491] 0.1355932 0.1389831 0.1457627 0.1322034 0.1389831 0.1423729 0.1338983
## [498] 0.1355932 0.1440678 0.1406780
for(j in 1:500){
set.seed(j)
folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
train.set$fold <- folds
# Using QDA to produce the CV error rate
CV.error<-NULL
for (i in 1:5) {
valid.data <- subset(train.set, fold == i)
train.data <- subset(train.set, fold != i)
qda.fit<-qda(formula = Group~Longitude+OverallMeanAmp, data=train.data)
qda.y <- valid.data$Group
qda.predy<-predict(qda.fit, valid.data)$class
ith.test.error<- mean(qda.y!=qda.predy)
CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error)
}
Long.O.M.A.All<-c(Long.O.M.A.All, sum(CV.error))
}
Long.O.M.A.All
## [1] 0.4305085 0.4220339 0.4271186 0.4288136 0.4152542 0.4305085 0.4203390
## [8] 0.4237288 0.4322034 0.4203390 0.4288136 0.4271186 0.4271186 0.4203390
## [15] 0.4271186 0.4271186 0.4271186 0.4220339 0.4237288 0.4186441 0.4220339
## [22] 0.4084746 0.4288136 0.4220339 0.4237288 0.4237288 0.4203390 0.4338983
## [29] 0.4220339 0.4237288 0.4220339 0.4322034 0.4186441 0.4169492 0.4288136
## [36] 0.4237288 0.4254237 0.4305085 0.4254237 0.4101695 0.4220339 0.4305085
## [43] 0.4152542 0.4305085 0.4237288 0.4288136 0.4220339 0.4084746 0.4135593
## [50] 0.4220339 0.4237288 0.4254237 0.4220339 0.4203390 0.4135593 0.4271186
## [57] 0.4220339 0.4152542 0.4305085 0.4237288 0.4186441 0.4203390 0.4271186
## [64] 0.4237288 0.4220339 0.4237288 0.4169492 0.4101695 0.4169492 0.4254237
## [71] 0.4220339 0.4220339 0.4305085 0.4101695 0.4254237 0.4169492 0.4135593
## [78] 0.4118644 0.4254237 0.4237288 0.4186441 0.4220339 0.4186441 0.4288136
## [85] 0.4186441 0.4169492 0.4203390 0.4220339 0.4135593 0.4203390 0.4152542
## [92] 0.4203390 0.4254237 0.4220339 0.4254237 0.4271186 0.4220339 0.4237288
## [99] 0.4305085 0.4186441 0.4186441 0.4135593 0.4237288 0.4203390 0.4220339
## [106] 0.4186441 0.4271186 0.4186441 0.4220339 0.4203390 0.4169492 0.4254237
## [113] 0.4271186 0.4186441 0.4271186 0.4338983 0.4237288 0.4135593 0.4203390
## [120] 0.4186441 0.4203390 0.4169492 0.4237288 0.4288136 0.4101695 0.4271186
## [127] 0.4203390 0.4169492 0.4322034 0.4355932 0.4118644 0.4305085 0.4186441
## [134] 0.4322034 0.4220339 0.4169492 0.4135593 0.4220339 0.4203390 0.4237288
## [141] 0.4254237 0.4237288 0.4254237 0.4203390 0.4135593 0.4237288 0.4237288
## [148] 0.4169492 0.4186441 0.4254237 0.4220339 0.4118644 0.4271186 0.4135593
## [155] 0.4288136 0.4254237 0.4186441 0.4152542 0.4169492 0.4135593 0.4254237
## [162] 0.4186441 0.4288136 0.4169492 0.4169492 0.4338983 0.4220339 0.4254237
## [169] 0.4152542 0.4322034 0.4271186 0.4254237 0.4338983 0.4203390 0.4203390
## [176] 0.4288136 0.4186441 0.4220339 0.4203390 0.4169492 0.4169492 0.4288136
## [183] 0.4186441 0.4220339 0.4169492 0.4322034 0.4169492 0.4220339 0.4220339
## [190] 0.4288136 0.4220339 0.4169492 0.4203390 0.4220339 0.4203390 0.4118644
## [197] 0.4322034 0.4254237 0.4237288 0.4203390 0.4237288 0.4220339 0.4389831
## [204] 0.4186441 0.4186441 0.4254237 0.4271186 0.4305085 0.4254237 0.4237288
## [211] 0.4152542 0.4169492 0.4203390 0.4152542 0.4169492 0.4237288 0.4271186
## [218] 0.4322034 0.4186441 0.4203390 0.4288136 0.4288136 0.4118644 0.4169492
## [225] 0.4152542 0.4067797 0.4220339 0.4169492 0.4135593 0.4169492 0.4237288
## [232] 0.4220339 0.4237288 0.4237288 0.4254237 0.4338983 0.4220339 0.4237288
## [239] 0.4271186 0.4254237 0.4237288 0.4288136 0.4118644 0.4203390 0.4220339
## [246] 0.4220339 0.4186441 0.4288136 0.4338983 0.4203390 0.4237288 0.4305085
## [253] 0.4203390 0.4169492 0.4203390 0.4254237 0.4152542 0.4203390 0.4271186
## [260] 0.4169492 0.4237288 0.4288136 0.4135593 0.4220339 0.4203390 0.4220339
## [267] 0.4372881 0.4118644 0.4203390 0.4220339 0.4203390 0.4254237 0.4254237
## [274] 0.4254237 0.4288136 0.4203390 0.4305085 0.4237288 0.4271186 0.4135593
## [281] 0.4135593 0.4169492 0.4254237 0.4203390 0.4186441 0.4203390 0.4254237
## [288] 0.4169492 0.4203390 0.4322034 0.4220339 0.4152542 0.4220339 0.4220339
## [295] 0.4169492 0.4169492 0.4203390 0.4338983 0.4135593 0.4203390 0.4288136
## [302] 0.4271186 0.4271186 0.4220339 0.4101695 0.4067797 0.4423729 0.4254237
## [309] 0.4220339 0.4322034 0.4254237 0.4322034 0.4169492 0.4305085 0.4237288
## [316] 0.4254237 0.4135593 0.4237288 0.4203390 0.4288136 0.4152542 0.4101695
## [323] 0.4254237 0.4186441 0.4322034 0.4220339 0.4322034 0.4220339 0.4254237
## [330] 0.4288136 0.4220339 0.4203390 0.4220339 0.4288136 0.4271186 0.4186441
## [337] 0.4186441 0.4254237 0.4118644 0.4254237 0.4118644 0.4118644 0.4237288
## [344] 0.4084746 0.4237288 0.4372881 0.4220339 0.4203390 0.4118644 0.4169492
## [351] 0.4186441 0.4254237 0.4254237 0.4220339 0.4220339 0.4220339 0.4220339
## [358] 0.4254237 0.4050847 0.4169492 0.4186441 0.4254237 0.4237288 0.4254237
## [365] 0.4288136 0.4338983 0.4237288 0.4135593 0.4220339 0.4067797 0.4237288
## [372] 0.4220339 0.4237288 0.4169492 0.4220339 0.4169492 0.4254237 0.4186441
## [379] 0.4254237 0.4271186 0.4271186 0.4186441 0.4237288 0.4220339 0.4254237
## [386] 0.4186441 0.4220339 0.4254237 0.4271186 0.4135593 0.4186441 0.4305085
## [393] 0.4220339 0.4220339 0.4186441 0.4220339 0.4237288 0.4203390 0.4169492
## [400] 0.4271186 0.4338983 0.4220339 0.4271186 0.4203390 0.4220339 0.4389831
## [407] 0.4169492 0.4169492 0.4237288 0.4203390 0.4084746 0.4322034 0.4254237
## [414] 0.4288136 0.4322034 0.4237288 0.4169492 0.4305085 0.4203390 0.4186441
## [421] 0.4322034 0.4169492 0.4169492 0.4186441 0.4220339 0.4118644 0.4169492
## [428] 0.4186441 0.4237288 0.4152542 0.4169492 0.4271186 0.4237288 0.4169492
## [435] 0.4135593 0.4288136 0.4169492 0.4220339 0.4169492 0.4254237 0.4322034
## [442] 0.4220339 0.4237288 0.4203390 0.4220339 0.4169492 0.4288136 0.4169492
## [449] 0.4254237 0.4220339 0.4169492 0.4220339 0.4305085 0.4220339 0.4118644
## [456] 0.4271186 0.4186441 0.4220339 0.4118644 0.4203390 0.4254237 0.4237288
## [463] 0.4203390 0.4203390 0.4237288 0.4254237 0.4271186 0.4203390 0.4271186
## [470] 0.4322034 0.4254237 0.4169492 0.4118644 0.4203390 0.4220339 0.4186441
## [477] 0.4203390 0.4169492 0.4118644 0.4254237 0.4254237 0.4254237 0.4288136
## [484] 0.4152542 0.4254237 0.4135593 0.4372881 0.4220339 0.4338983 0.4186441
## [491] 0.4186441 0.4254237 0.4186441 0.4237288 0.4169492 0.4271186 0.4135593
## [498] 0.4271186 0.4203390 0.4288136
for(j in 1:500){
set.seed(j)
folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
train.set$fold <- folds
# Using QDA to produce the CV error rate
CV.error<-NULL
for (i in 1:5) {
valid.data <- subset(train.set, fold == i)
train.data <- subset(train.set, fold != i)
qda.fit<-qda(formula = Group~OverallAvg+OverallMeanAmp, data=train.data)
qda.y <- valid.data$Group
qda.predy<-predict(qda.fit, valid.data)$class
ith.test.error<- mean(qda.y!=qda.predy)
CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error)
}
O.A.O.M.A.All<-c(O.A.O.M.A.All, sum(CV.error))
}
O.A.O.M.A.All
## [1] 0.09491525 0.09491525 0.09661017 0.09322034 0.09152542 0.08644068
## [7] 0.09322034 0.09322034 0.09830508 0.09491525 0.08983051 0.08983051
## [13] 0.08813559 0.09152542 0.09152542 0.08983051 0.09491525 0.09322034
## [19] 0.08983051 0.09661017 0.09152542 0.09152542 0.09661017 0.09322034
## [25] 0.09661017 0.09152542 0.09661017 0.09322034 0.08983051 0.08813559
## [31] 0.09152542 0.09152542 0.08644068 0.09322034 0.10000000 0.09322034
## [37] 0.09830508 0.09322034 0.09322034 0.09322034 0.09322034 0.08813559
## [43] 0.09661017 0.09152542 0.09322034 0.09152542 0.09322034 0.08474576
## [49] 0.09491525 0.09491525 0.09491525 0.09322034 0.09152542 0.10000000
## [55] 0.09322034 0.09491525 0.09491525 0.09152542 0.09830508 0.09152542
## [61] 0.09491525 0.09830508 0.09152542 0.09322034 0.09322034 0.09830508
## [67] 0.08644068 0.09661017 0.09661017 0.09661017 0.09491525 0.10000000
## [73] 0.08644068 0.09152542 0.08983051 0.09661017 0.09322034 0.10000000
## [79] 0.09491525 0.09491525 0.08983051 0.09322034 0.08983051 0.09322034
## [85] 0.09322034 0.10169492 0.09152542 0.09661017 0.09322034 0.09491525
## [91] 0.08813559 0.08644068 0.09152542 0.08983051 0.08983051 0.08813559
## [97] 0.09491525 0.09152542 0.09491525 0.09322034 0.08644068 0.08474576
## [103] 0.09152542 0.08474576 0.09491525 0.08644068 0.09152542 0.08644068
## [109] 0.09661017 0.09491525 0.08644068 0.09491525 0.09322034 0.08644068
## [115] 0.09661017 0.08983051 0.08474576 0.08813559 0.09152542 0.09491525
## [121] 0.09661017 0.09830508 0.09491525 0.08474576 0.10169492 0.09830508
## [127] 0.08983051 0.08135593 0.09491525 0.09661017 0.09152542 0.09322034
## [133] 0.08983051 0.09322034 0.08983051 0.09152542 0.08644068 0.08983051
## [139] 0.09322034 0.08644068 0.09322034 0.08813559 0.09152542 0.08644068
## [145] 0.09830508 0.09491525 0.09152542 0.09152542 0.09661017 0.09152542
## [151] 0.09491525 0.09491525 0.08983051 0.09152542 0.09491525 0.09491525
## [157] 0.09152542 0.09661017 0.08644068 0.09491525 0.09152542 0.09322034
## [163] 0.09152542 0.09152542 0.09322034 0.08813559 0.09661017 0.09491525
## [169] 0.08813559 0.10000000 0.08644068 0.09491525 0.09322034 0.08813559
## [175] 0.08983051 0.08983051 0.09152542 0.09830508 0.09830508 0.09152542
## [181] 0.09322034 0.09322034 0.09830508 0.09661017 0.09322034 0.08983051
## [187] 0.09322034 0.09152542 0.09491525 0.09322034 0.08644068 0.09661017
## [193] 0.09152542 0.09322034 0.09322034 0.09661017 0.08983051 0.09491525
## [199] 0.08983051 0.08983051 0.09491525 0.08983051 0.08644068 0.09152542
## [205] 0.08813559 0.09152542 0.08983051 0.09661017 0.09491525 0.08644068
## [211] 0.08983051 0.09152542 0.08983051 0.09152542 0.09322034 0.09491525
## [217] 0.09152542 0.09491525 0.08983051 0.09661017 0.09322034 0.09491525
## [223] 0.09152542 0.09322034 0.08983051 0.09491525 0.09830508 0.09491525
## [229] 0.09661017 0.08983051 0.08983051 0.08983051 0.09322034 0.09152542
## [235] 0.09491525 0.09152542 0.08644068 0.09491525 0.09152542 0.09491525
## [241] 0.09491525 0.08983051 0.08813559 0.08983051 0.08644068 0.08644068
## [247] 0.09491525 0.08983051 0.08983051 0.09152542 0.09830508 0.09322034
## [253] 0.09830508 0.09152542 0.09152542 0.08644068 0.09491525 0.09491525
## [259] 0.09152542 0.09491525 0.09152542 0.08474576 0.08983051 0.09322034
## [265] 0.09152542 0.08813559 0.09152542 0.09152542 0.09322034 0.08813559
## [271] 0.08983051 0.09152542 0.08983051 0.09152542 0.09661017 0.08983051
## [277] 0.09491525 0.08813559 0.09152542 0.08474576 0.09152542 0.09322034
## [283] 0.08983051 0.09152542 0.08983051 0.09322034 0.09661017 0.09322034
## [289] 0.08813559 0.08983051 0.09491525 0.09661017 0.08983051 0.09661017
## [295] 0.09491525 0.08983051 0.09322034 0.08983051 0.09152542 0.08813559
## [301] 0.09152542 0.09661017 0.08305085 0.08474576 0.09322034 0.08983051
## [307] 0.09491525 0.08983051 0.09322034 0.09322034 0.09491525 0.09322034
## [313] 0.09491525 0.08983051 0.08983051 0.10000000 0.09491525 0.08813559
## [319] 0.09152542 0.08813559 0.09152542 0.09661017 0.09491525 0.09491525
## [325] 0.09152542 0.09152542 0.08813559 0.08305085 0.09152542 0.08983051
## [331] 0.09661017 0.09322034 0.09322034 0.10000000 0.08983051 0.08983051
## [337] 0.08983051 0.09830508 0.09491525 0.09830508 0.08983051 0.09152542
## [343] 0.09491525 0.08983051 0.09152542 0.09152542 0.09152542 0.08983051
## [349] 0.09661017 0.08813559 0.09491525 0.09152542 0.09322034 0.09152542
## [355] 0.09322034 0.09661017 0.08644068 0.09491525 0.08813559 0.08983051
## [361] 0.09491525 0.09322034 0.10677966 0.09322034 0.08813559 0.08983051
## [367] 0.09322034 0.08983051 0.09322034 0.08813559 0.09830508 0.08813559
## [373] 0.09491525 0.09152542 0.08813559 0.08983051 0.09152542 0.09322034
## [379] 0.08644068 0.08474576 0.09152542 0.09322034 0.09152542 0.08813559
## [385] 0.09491525 0.10000000 0.09152542 0.09152542 0.09322034 0.08813559
## [391] 0.09322034 0.09322034 0.09322034 0.09830508 0.10169492 0.08983051
## [397] 0.09152542 0.09152542 0.09830508 0.08644068 0.09322034 0.09830508
## [403] 0.10000000 0.08983051 0.09491525 0.09322034 0.08983051 0.08644068
## [409] 0.09491525 0.09322034 0.08813559 0.08813559 0.10169492 0.09830508
## [415] 0.08983051 0.09322034 0.08983051 0.09491525 0.08813559 0.08644068
## [421] 0.09661017 0.08983051 0.08813559 0.09830508 0.09491525 0.09322034
## [427] 0.08644068 0.09152542 0.09491525 0.09661017 0.09491525 0.09830508
## [433] 0.09491525 0.09322034 0.09661017 0.08305085 0.09491525 0.08644068
## [439] 0.09491525 0.09661017 0.08983051 0.08813559 0.09152542 0.09322034
## [445] 0.08983051 0.08813559 0.09322034 0.08813559 0.09830508 0.08983051
## [451] 0.09322034 0.09661017 0.09661017 0.08983051 0.09830508 0.09491525
## [457] 0.08983051 0.09152542 0.09152542 0.08474576 0.09152542 0.08983051
## [463] 0.09491525 0.09491525 0.10000000 0.09491525 0.09322034 0.08983051
## [469] 0.09491525 0.09152542 0.08983051 0.10677966 0.09152542 0.08813559
## [475] 0.08813559 0.08983051 0.09152542 0.09661017 0.09152542 0.09491525
## [481] 0.09491525 0.08983051 0.09830508 0.08983051 0.08305085 0.08983051
## [487] 0.09152542 0.09322034 0.09491525 0.08813559 0.08813559 0.09152542
## [493] 0.09152542 0.08983051 0.08983051 0.08983051 0.10169492 0.08644068
## [499] 0.09152542 0.09152542
for(j in 1:500){
set.seed(j)
folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
train.set$fold <- folds
# Using QDA to produce the CV error rate
CV.error<-NULL
for (i in 1:5) {
valid.data <- subset(train.set, fold == i)
train.data <- subset(train.set, fold != i)
qda.fit<-qda(formula = Group~Latitude+Longitude+OverallAvg, data=train.data)
qda.y <- valid.data$Group
qda.predy<-predict(qda.fit, valid.data)$class
ith.test.error<- mean(qda.y!=qda.predy)
CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error)
}
Lat.Long.O.A.All<-c(Lat.Long.O.A.All, sum(CV.error))
}
Lat.Long.O.A.All
## [1] 0.07118644 0.06440678 0.07118644 0.07288136 0.07627119 0.06779661
## [7] 0.06440678 0.06779661 0.06440678 0.06779661 0.07457627 0.06610169
## [13] 0.06779661 0.06440678 0.06440678 0.06949153 0.06610169 0.06779661
## [19] 0.07118644 0.06949153 0.06610169 0.07118644 0.06779661 0.07627119
## [25] 0.07118644 0.06949153 0.06779661 0.07288136 0.06779661 0.06271186
## [31] 0.05932203 0.06779661 0.07288136 0.07288136 0.06610169 0.06440678
## [37] 0.07288136 0.06610169 0.07118644 0.07627119 0.07796610 0.07118644
## [43] 0.06101695 0.06779661 0.06271186 0.07796610 0.06101695 0.06949153
## [49] 0.06779661 0.07457627 0.07288136 0.07118644 0.06440678 0.06779661
## [55] 0.06610169 0.07118644 0.06949153 0.07118644 0.06779661 0.06101695
## [61] 0.07966102 0.06779661 0.07288136 0.06949153 0.06440678 0.06610169
## [67] 0.05932203 0.07457627 0.06779661 0.07288136 0.06949153 0.07118644
## [73] 0.06271186 0.06779661 0.06440678 0.06440678 0.06101695 0.06779661
## [79] 0.07796610 0.06440678 0.06779661 0.06610169 0.06779661 0.06271186
## [85] 0.07796610 0.07457627 0.06610169 0.07627119 0.07796610 0.07288136
## [91] 0.06271186 0.06440678 0.06949153 0.06779661 0.07288136 0.07288136
## [97] 0.05932203 0.07457627 0.06440678 0.06779661 0.06271186 0.06779661
## [103] 0.06779661 0.06779661 0.06779661 0.06949153 0.06610169 0.06949153
## [109] 0.06610169 0.06271186 0.06610169 0.06101695 0.07118644 0.06610169
## [115] 0.05762712 0.06949153 0.06949153 0.06610169 0.07288136 0.07118644
## [121] 0.07627119 0.06779661 0.06440678 0.06271186 0.06440678 0.06610169
## [127] 0.06271186 0.07118644 0.05423729 0.07118644 0.06101695 0.06949153
## [133] 0.06610169 0.07457627 0.06949153 0.07288136 0.06779661 0.06271186
## [139] 0.06610169 0.06271186 0.05932203 0.07288136 0.06440678 0.06779661
## [145] 0.07457627 0.06949153 0.06610169 0.06101695 0.07118644 0.06779661
## [151] 0.06610169 0.06949153 0.06949153 0.06440678 0.07288136 0.06101695
## [157] 0.06949153 0.06779661 0.06271186 0.06271186 0.06779661 0.06949153
## [163] 0.07457627 0.06440678 0.06949153 0.06949153 0.08305085 0.06440678
## [169] 0.06440678 0.06440678 0.07288136 0.08135593 0.07457627 0.05593220
## [175] 0.07118644 0.06440678 0.07288136 0.06949153 0.07457627 0.07627119
## [181] 0.07118644 0.06101695 0.06610169 0.07118644 0.07288136 0.06949153
## [187] 0.07288136 0.06101695 0.06440678 0.06610169 0.06101695 0.07118644
## [193] 0.06101695 0.07288136 0.07118644 0.06949153 0.05932203 0.06779661
## [199] 0.06949153 0.07288136 0.07627119 0.06949153 0.06101695 0.07457627
## [205] 0.06949153 0.07288136 0.06610169 0.07288136 0.06271186 0.06610169
## [211] 0.07118644 0.08135593 0.07118644 0.06440678 0.06610169 0.06779661
## [217] 0.07288136 0.06440678 0.06271186 0.07796610 0.06779661 0.06949153
## [223] 0.07118644 0.07118644 0.06271186 0.06779661 0.06779661 0.06949153
## [229] 0.07288136 0.07288136 0.05762712 0.06949153 0.06779661 0.07118644
## [235] 0.06440678 0.06949153 0.06610169 0.06779661 0.06949153 0.07288136
## [241] 0.07288136 0.06779661 0.08135593 0.06949153 0.07288136 0.07118644
## [247] 0.07118644 0.07288136 0.06949153 0.06101695 0.06949153 0.06101695
## [253] 0.06610169 0.06440678 0.07457627 0.06610169 0.06101695 0.07457627
## [259] 0.06949153 0.07457627 0.06610169 0.06949153 0.06610169 0.07288136
## [265] 0.06779661 0.06779661 0.07118644 0.07627119 0.06779661 0.05932203
## [271] 0.06949153 0.06949153 0.08305085 0.06949153 0.06949153 0.06440678
## [277] 0.06779661 0.06779661 0.07796610 0.06440678 0.06949153 0.06779661
## [283] 0.06779661 0.06779661 0.07118644 0.07457627 0.07796610 0.06271186
## [289] 0.06610169 0.07118644 0.05932203 0.06779661 0.06271186 0.07288136
## [295] 0.07288136 0.06271186 0.07118644 0.07288136 0.07288136 0.06101695
## [301] 0.05932203 0.06610169 0.06271186 0.06440678 0.06440678 0.06610169
## [307] 0.07966102 0.06949153 0.06779661 0.07288136 0.06779661 0.07118644
## [313] 0.06949153 0.06440678 0.07288136 0.07627119 0.07457627 0.06949153
## [319] 0.06610169 0.06271186 0.05932203 0.07288136 0.06779661 0.05932203
## [325] 0.06610169 0.07288136 0.06779661 0.06610169 0.06440678 0.07457627
## [331] 0.06610169 0.06440678 0.07118644 0.06440678 0.06779661 0.06779661
## [337] 0.07288136 0.06101695 0.05932203 0.07457627 0.06610169 0.06440678
## [343] 0.07118644 0.06271186 0.07966102 0.06610169 0.07118644 0.06779661
## [349] 0.06779661 0.07118644 0.07118644 0.06779661 0.07288136 0.06779661
## [355] 0.06949153 0.06949153 0.07118644 0.07457627 0.07118644 0.06271186
## [361] 0.06440678 0.06440678 0.06440678 0.07118644 0.06610169 0.06949153
## [367] 0.07627119 0.07288136 0.06610169 0.06610169 0.06779661 0.07118644
## [373] 0.07288136 0.06779661 0.06949153 0.06610169 0.07118644 0.06101695
## [379] 0.06779661 0.06440678 0.06949153 0.07118644 0.07118644 0.06101695
## [385] 0.07118644 0.07288136 0.06440678 0.07288136 0.06779661 0.06101695
## [391] 0.07288136 0.06271186 0.06271186 0.06779661 0.07288136 0.06101695
## [397] 0.07288136 0.06101695 0.06610169 0.07288136 0.08135593 0.07118644
## [403] 0.06610169 0.06779661 0.06949153 0.06949153 0.06440678 0.06271186
## [409] 0.06101695 0.07457627 0.06271186 0.06779661 0.06779661 0.07966102
## [415] 0.07288136 0.07118644 0.07457627 0.07118644 0.07288136 0.07966102
## [421] 0.07457627 0.06440678 0.06101695 0.05423729 0.06440678 0.06610169
## [427] 0.06101695 0.06101695 0.06949153 0.06779661 0.06101695 0.07288136
## [433] 0.06610169 0.06271186 0.07118644 0.06101695 0.07796610 0.06440678
## [439] 0.06949153 0.07118644 0.07118644 0.06949153 0.07457627 0.06440678
## [445] 0.06101695 0.06610169 0.07627119 0.07288136 0.07796610 0.06779661
## [451] 0.05762712 0.07457627 0.07118644 0.07627119 0.06949153 0.05762712
## [457] 0.06610169 0.07118644 0.06440678 0.07288136 0.06271186 0.07796610
## [463] 0.07457627 0.06779661 0.08135593 0.06949153 0.06440678 0.07118644
## [469] 0.06779661 0.06271186 0.07966102 0.06779661 0.06440678 0.06271186
## [475] 0.06779661 0.06949153 0.06949153 0.06949153 0.06949153 0.07288136
## [481] 0.06779661 0.06949153 0.05932203 0.07118644 0.07627119 0.06440678
## [487] 0.06779661 0.06271186 0.06610169 0.06779661 0.06440678 0.06779661
## [493] 0.06779661 0.05932203 0.06440678 0.07288136 0.06779661 0.06949153
## [499] 0.07796610 0.07288136
for(j in 1:500){
set.seed(j)
folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
train.set$fold <- folds
# Using QDA to produce the CV error rate
CV.error<-NULL
for (i in 1:5) {
valid.data <- subset(train.set, fold == i)
train.data <- subset(train.set, fold != i)
qda.fit<-qda(formula = Group~Latitude+Longitude+OverallMeanAmp, data=train.data)
qda.y <- valid.data$Group
qda.predy<-predict(qda.fit, valid.data)$class
ith.test.error<- mean(qda.y!=qda.predy)
CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error)
}
Lat.Long.O.M.A.All<-c(Lat.Long.O.M.A.All, sum(CV.error))
}
Lat.Long.O.M.A.All
## [1] 0.2355932 0.2372881 0.2389831 0.2440678 0.2355932 0.2237288 0.2288136
## [8] 0.2389831 0.2440678 0.2508475 0.2338983 0.2491525 0.2305085 0.2491525
## [15] 0.2423729 0.2322034 0.2288136 0.2338983 0.2338983 0.2355932 0.2288136
## [22] 0.2338983 0.2525424 0.2423729 0.2389831 0.2355932 0.2271186 0.2491525
## [29] 0.2305085 0.2355932 0.2288136 0.2559322 0.2372881 0.2271186 0.2423729
## [36] 0.2288136 0.2457627 0.2372881 0.2254237 0.2338983 0.2457627 0.2372881
## [43] 0.2440678 0.2389831 0.2440678 0.2305085 0.2457627 0.2423729 0.2389831
## [50] 0.2372881 0.2338983 0.2406780 0.2440678 0.2406780 0.2406780 0.2372881
## [57] 0.2322034 0.2355932 0.2491525 0.2338983 0.2355932 0.2389831 0.2440678
## [64] 0.2423729 0.2372881 0.2322034 0.2322034 0.2423729 0.2406780 0.2389831
## [71] 0.2355932 0.2322034 0.2372881 0.2322034 0.2406780 0.2423729 0.2338983
## [78] 0.2423729 0.2305085 0.2355932 0.2338983 0.2355932 0.2288136 0.2271186
## [85] 0.2474576 0.2271186 0.2389831 0.2355932 0.2389831 0.2220339 0.2440678
## [92] 0.2406780 0.2457627 0.2406780 0.2423729 0.2305085 0.2372881 0.2355932
## [99] 0.2288136 0.2372881 0.2305085 0.2203390 0.2389831 0.2389831 0.2406780
## [106] 0.2440678 0.2338983 0.2406780 0.2508475 0.2406780 0.2355932 0.2423729
## [113] 0.2322034 0.2288136 0.2271186 0.2169492 0.2440678 0.2491525 0.2525424
## [120] 0.2355932 0.2338983 0.2305085 0.2440678 0.2305085 0.2355932 0.2406780
## [127] 0.2338983 0.2423729 0.2271186 0.2389831 0.2423729 0.2423729 0.2288136
## [134] 0.2355932 0.2322034 0.2338983 0.2355932 0.2305085 0.2338983 0.2271186
## [141] 0.2372881 0.2440678 0.2271186 0.2474576 0.2288136 0.2423729 0.2423729
## [148] 0.2389831 0.2406780 0.2271186 0.2372881 0.2355932 0.2355932 0.2355932
## [155] 0.2237288 0.2305085 0.2305085 0.2355932 0.2389831 0.2338983 0.2423729
## [162] 0.2491525 0.2440678 0.2372881 0.2457627 0.2423729 0.2338983 0.2322034
## [169] 0.2406780 0.2355932 0.2322034 0.2338983 0.2355932 0.2389831 0.2305085
## [176] 0.2372881 0.2423729 0.2406780 0.2457627 0.2389831 0.2305085 0.2406780
## [183] 0.2338983 0.2305085 0.2440678 0.2322034 0.2254237 0.2389831 0.2389831
## [190] 0.2271186 0.2389831 0.2457627 0.2322034 0.2288136 0.2406780 0.2355932
## [197] 0.2423729 0.2271186 0.2305085 0.2338983 0.2322034 0.2271186 0.2491525
## [204] 0.2355932 0.2322034 0.2423729 0.2440678 0.2355932 0.2322034 0.2338983
## [211] 0.2474576 0.2406780 0.2237288 0.2423729 0.2338983 0.2338983 0.2372881
## [218] 0.2389831 0.2491525 0.2457627 0.2406780 0.2389831 0.2389831 0.2423729
## [225] 0.2305085 0.2440678 0.2440678 0.2406780 0.2322034 0.2355932 0.2288136
## [232] 0.2322034 0.2288136 0.2406780 0.2338983 0.2406780 0.2254237 0.2423729
## [239] 0.2372881 0.2203390 0.2338983 0.2220339 0.2355932 0.2389831 0.2271186
## [246] 0.2254237 0.2372881 0.2423729 0.2372881 0.2338983 0.2508475 0.2355932
## [253] 0.2355932 0.2288136 0.2440678 0.2440678 0.2423729 0.2372881 0.2372881
## [260] 0.2355932 0.2305085 0.2288136 0.2389831 0.2508475 0.2322034 0.2237288
## [267] 0.2440678 0.2491525 0.2457627 0.2423729 0.2355932 0.2355932 0.2254237
## [274] 0.2389831 0.2254237 0.2355932 0.2440678 0.2355932 0.2389831 0.2203390
## [281] 0.2423729 0.2355932 0.2372881 0.2338983 0.2440678 0.2338983 0.2305085
## [288] 0.2305085 0.2508475 0.2237288 0.2355932 0.2372881 0.2338983 0.2389831
## [295] 0.2338983 0.2440678 0.2440678 0.2457627 0.2457627 0.2372881 0.2322034
## [302] 0.2389831 0.2271186 0.2355932 0.2338983 0.2440678 0.2322034 0.2288136
## [309] 0.2305085 0.2355932 0.2491525 0.2355932 0.2355932 0.2338983 0.2338983
## [316] 0.2406780 0.2389831 0.2288136 0.2322034 0.2559322 0.2338983 0.2474576
## [323] 0.2135593 0.2423729 0.2355932 0.2254237 0.2237288 0.2372881 0.2338983
## [330] 0.2542373 0.2288136 0.2457627 0.2372881 0.2440678 0.2355932 0.2322034
## [337] 0.2372881 0.2355932 0.2254237 0.2372881 0.2237288 0.2372881 0.2389831
## [344] 0.2338983 0.2322034 0.2152542 0.2322034 0.2457627 0.2322034 0.2372881
## [351] 0.2271186 0.2305085 0.2372881 0.2271186 0.2322034 0.2338983 0.2389831
## [358] 0.2322034 0.2271186 0.2491525 0.2305085 0.2372881 0.2355932 0.2372881
## [365] 0.2372881 0.2406780 0.2254237 0.2338983 0.2322034 0.2372881 0.2423729
## [372] 0.2355932 0.2338983 0.2355932 0.2288136 0.2305085 0.2372881 0.2355932
## [379] 0.2322034 0.2305085 0.2305085 0.2288136 0.2389831 0.2288136 0.2322034
## [386] 0.2338983 0.2406780 0.2254237 0.2355932 0.2338983 0.2305085 0.2355932
## [393] 0.2322034 0.2457627 0.2288136 0.2423729 0.2372881 0.2389831 0.2457627
## [400] 0.2406780 0.2288136 0.2322034 0.2491525 0.2322034 0.2355932 0.2440678
## [407] 0.2288136 0.2372881 0.2271186 0.2271186 0.2372881 0.2372881 0.2305085
## [414] 0.2288136 0.2338983 0.2338983 0.2389831 0.2305085 0.2389831 0.2271186
## [421] 0.2338983 0.2338983 0.2338983 0.2305085 0.2288136 0.2406780 0.2355932
## [428] 0.2338983 0.2355932 0.2372881 0.2423729 0.2355932 0.2355932 0.2322034
## [435] 0.2440678 0.2423729 0.2406780 0.2406780 0.2440678 0.2355932 0.2440678
## [442] 0.2389831 0.2372881 0.2338983 0.2322034 0.2203390 0.2440678 0.2372881
## [449] 0.2440678 0.2457627 0.2406780 0.2288136 0.2271186 0.2203390 0.2220339
## [456] 0.2440678 0.2406780 0.2254237 0.2254237 0.2271186 0.2423729 0.2406780
## [463] 0.2322034 0.2474576 0.2423729 0.2271186 0.2271186 0.2338983 0.2406780
## [470] 0.2254237 0.2355932 0.2355932 0.2457627 0.2237288 0.2406780 0.2491525
## [477] 0.2372881 0.2406780 0.2389831 0.2338983 0.2491525 0.2305085 0.2440678
## [484] 0.2322034 0.2355932 0.2338983 0.2406780 0.2355932 0.2288136 0.2355932
## [491] 0.2389831 0.2338983 0.2338983 0.2288136 0.2372881 0.2423729 0.2525424
## [498] 0.2355932 0.2389831 0.2525424
for(j in 1:500){
set.seed(j)
folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
train.set$fold <- folds
# Using QDA to produce the CV error rate
CV.error<-NULL
for (i in 1:5) {
valid.data <- subset(train.set, fold == i)
train.data <- subset(train.set, fold != i)
qda.fit<-qda(formula = Group~Latitude+OverallAvg+OverallMeanAmp, data=train.data)
qda.y <- valid.data$Group
qda.predy<-predict(qda.fit, valid.data)$class
ith.test.error<- mean(qda.y!=qda.predy)
CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error)
}
Lat.O.A.O.M.A.All<-c(Lat.O.A.O.M.A.All, sum(CV.error))
}
Lat.O.A.O.M.A.All
## [1] 0.06779661 0.06779661 0.06610169 0.06949153 0.06779661 0.06949153
## [7] 0.07288136 0.06779661 0.06101695 0.06779661 0.07118644 0.07627119
## [13] 0.07627119 0.06949153 0.06610169 0.06779661 0.06610169 0.06779661
## [19] 0.07288136 0.06610169 0.06949153 0.06610169 0.07118644 0.07288136
## [25] 0.07627119 0.06949153 0.07288136 0.06949153 0.06949153 0.06949153
## [31] 0.06440678 0.07118644 0.06440678 0.06779661 0.06779661 0.07627119
## [37] 0.07457627 0.06610169 0.07118644 0.07288136 0.07457627 0.06779661
## [43] 0.07288136 0.06949153 0.07457627 0.07118644 0.07118644 0.06779661
## [49] 0.07118644 0.06949153 0.06779661 0.07288136 0.07118644 0.07118644
## [55] 0.06610169 0.06440678 0.07627119 0.06779661 0.06949153 0.07288136
## [61] 0.06610169 0.07288136 0.07118644 0.07627119 0.06779661 0.07288136
## [67] 0.07288136 0.07288136 0.07118644 0.06610169 0.07288136 0.07288136
## [73] 0.06779661 0.06949153 0.06949153 0.07118644 0.07288136 0.07457627
## [79] 0.06949153 0.07288136 0.06949153 0.07118644 0.06271186 0.06949153
## [85] 0.07118644 0.08135593 0.06440678 0.07627119 0.08135593 0.06610169
## [91] 0.07118644 0.06440678 0.06779661 0.07118644 0.07627119 0.06779661
## [97] 0.06949153 0.06610169 0.06779661 0.08305085 0.07288136 0.07627119
## [103] 0.06440678 0.07288136 0.07118644 0.06949153 0.07118644 0.07288136
## [109] 0.06610169 0.07118644 0.06610169 0.07118644 0.06949153 0.07288136
## [115] 0.06949153 0.06949153 0.06610169 0.06779661 0.07288136 0.07627119
## [121] 0.07627119 0.07288136 0.07288136 0.06610169 0.06101695 0.07627119
## [127] 0.06779661 0.06440678 0.07288136 0.06949153 0.06949153 0.07118644
## [133] 0.07796610 0.07288136 0.07627119 0.07627119 0.07118644 0.07457627
## [139] 0.07288136 0.06949153 0.06949153 0.06949153 0.07457627 0.07288136
## [145] 0.07627119 0.07118644 0.07796610 0.06949153 0.07457627 0.06949153
## [151] 0.07288136 0.06779661 0.06779661 0.06610169 0.06610169 0.06779661
## [157] 0.06779661 0.07627119 0.06271186 0.06610169 0.06949153 0.06440678
## [163] 0.06779661 0.06610169 0.06949153 0.06271186 0.07627119 0.07457627
## [169] 0.06440678 0.07457627 0.07118644 0.07118644 0.07288136 0.06440678
## [175] 0.06779661 0.07457627 0.06779661 0.06610169 0.07627119 0.06949153
## [181] 0.06779661 0.06440678 0.06610169 0.07796610 0.07457627 0.07966102
## [187] 0.06440678 0.06949153 0.06949153 0.07457627 0.06610169 0.07288136
## [193] 0.07796610 0.06949153 0.06949153 0.06949153 0.06779661 0.06610169
## [199] 0.06949153 0.06779661 0.06779661 0.06610169 0.06610169 0.07118644
## [205] 0.07288136 0.06949153 0.06949153 0.07627119 0.06949153 0.06779661
## [211] 0.07118644 0.07627119 0.07457627 0.07288136 0.06610169 0.07457627
## [217] 0.06949153 0.07627119 0.07118644 0.06610169 0.07288136 0.06779661
## [223] 0.06779661 0.06949153 0.06440678 0.06779661 0.07288136 0.06949153
## [229] 0.07627119 0.06949153 0.06610169 0.07457627 0.07118644 0.07118644
## [235] 0.07288136 0.07118644 0.07627119 0.07457627 0.06271186 0.07118644
## [241] 0.06440678 0.06779661 0.07966102 0.06610169 0.07118644 0.07288136
## [247] 0.07457627 0.07457627 0.06949153 0.06779661 0.06949153 0.06949153
## [253] 0.07627119 0.06610169 0.06610169 0.07288136 0.06101695 0.06949153
## [259] 0.08135593 0.07288136 0.06610169 0.06779661 0.06779661 0.06440678
## [265] 0.07288136 0.06949153 0.06271186 0.07457627 0.06949153 0.07288136
## [271] 0.06101695 0.07118644 0.07118644 0.06440678 0.06779661 0.06440678
## [277] 0.06949153 0.07118644 0.06949153 0.06949153 0.07118644 0.06101695
## [283] 0.06949153 0.07288136 0.07118644 0.07288136 0.07118644 0.07118644
## [289] 0.06610169 0.06949153 0.06949153 0.07288136 0.07288136 0.07796610
## [295] 0.07288136 0.06949153 0.07457627 0.06779661 0.06779661 0.06440678
## [301] 0.06949153 0.07118644 0.06610169 0.06610169 0.06610169 0.06440678
## [307] 0.07288136 0.07627119 0.06949153 0.07627119 0.06949153 0.07627119
## [313] 0.07457627 0.07118644 0.06949153 0.07627119 0.06440678 0.06610169
## [319] 0.07118644 0.07118644 0.06440678 0.06949153 0.06779661 0.06949153
## [325] 0.07627119 0.07288136 0.06949153 0.06779661 0.06949153 0.07288136
## [331] 0.07118644 0.07118644 0.07288136 0.07627119 0.07288136 0.06440678
## [337] 0.07627119 0.07288136 0.06440678 0.07288136 0.07118644 0.06610169
## [343] 0.07288136 0.06440678 0.07796610 0.07627119 0.07288136 0.06610169
## [349] 0.07288136 0.07457627 0.07457627 0.06610169 0.07796610 0.06779661
## [355] 0.06949153 0.07118644 0.06440678 0.07457627 0.07457627 0.06610169
## [361] 0.06610169 0.05762712 0.07627119 0.07118644 0.05932203 0.06440678
## [367] 0.06949153 0.07288136 0.07118644 0.06440678 0.06440678 0.06949153
## [373] 0.07288136 0.06779661 0.07118644 0.07457627 0.06440678 0.07288136
## [379] 0.06779661 0.05932203 0.06949153 0.06101695 0.06949153 0.06779661
## [385] 0.06610169 0.07457627 0.07118644 0.07457627 0.06779661 0.06440678
## [391] 0.06949153 0.07118644 0.06779661 0.08135593 0.07457627 0.06610169
## [397] 0.07457627 0.06610169 0.06779661 0.06440678 0.08135593 0.07627119
## [403] 0.07288136 0.06271186 0.07457627 0.06610169 0.07627119 0.06949153
## [409] 0.06610169 0.07627119 0.05762712 0.06610169 0.06440678 0.06610169
## [415] 0.06949153 0.06949153 0.07627119 0.07288136 0.06440678 0.06440678
## [421] 0.07457627 0.07118644 0.06610169 0.06440678 0.06949153 0.07457627
## [427] 0.06101695 0.06440678 0.07288136 0.06949153 0.07118644 0.06440678
## [433] 0.07457627 0.06949153 0.06610169 0.07457627 0.07627119 0.07118644
## [439] 0.06779661 0.06779661 0.06949153 0.07627119 0.06779661 0.06949153
## [445] 0.06101695 0.06779661 0.06779661 0.06610169 0.06949153 0.06779661
## [451] 0.06949153 0.07457627 0.07796610 0.06610169 0.07288136 0.07118644
## [457] 0.06779661 0.07796610 0.06779661 0.06440678 0.06779661 0.07796610
## [463] 0.07118644 0.06779661 0.07118644 0.06949153 0.07118644 0.06779661
## [469] 0.08135593 0.06610169 0.06440678 0.07118644 0.06949153 0.07118644
## [475] 0.06101695 0.06779661 0.07627119 0.07288136 0.07288136 0.07627119
## [481] 0.07118644 0.06610169 0.06440678 0.07457627 0.06949153 0.07118644
## [487] 0.07457627 0.07288136 0.07288136 0.07118644 0.06440678 0.06101695
## [493] 0.06271186 0.05762712 0.07457627 0.06779661 0.06440678 0.06779661
## [499] 0.07457627 0.07627119
for(j in 1:500){
set.seed(j)
folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
train.set$fold <- folds
# Using QDA to produce the CV error rate
CV.error<-NULL
for (i in 1:5) {
valid.data <- subset(train.set, fold == i)
train.data <- subset(train.set, fold != i)
qda.fit<-qda(formula = Group~Longitude+OverallAvg+OverallMeanAmp, data=train.data)
qda.y <- valid.data$Group
qda.predy<-predict(qda.fit, valid.data)$class
ith.test.error<- mean(qda.y!=qda.predy)
CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error)
}
Long.O.A.O.M.A.All<-c(Long.O.A.O.M.A.All, sum(CV.error))
}
Long.O.A.O.M.A.All
## [1] 0.10000000 0.09152542 0.09322034 0.10338983 0.09830508 0.09830508
## [7] 0.09491525 0.09661017 0.09491525 0.08983051 0.10000000 0.10338983
## [13] 0.09491525 0.10847458 0.09661017 0.09830508 0.10338983 0.09322034
## [19] 0.09661017 0.10338983 0.09830508 0.09322034 0.10338983 0.10338983
## [25] 0.09491525 0.10169492 0.10338983 0.09491525 0.10508475 0.10000000
## [31] 0.09491525 0.09661017 0.08813559 0.10169492 0.10000000 0.09152542
## [37] 0.09830508 0.09322034 0.08983051 0.09830508 0.10169492 0.09661017
## [43] 0.09322034 0.09152542 0.09830508 0.09152542 0.09661017 0.10000000
## [49] 0.10169492 0.09830508 0.09491525 0.09661017 0.09830508 0.10169492
## [55] 0.10169492 0.09661017 0.09491525 0.10338983 0.10000000 0.09830508
## [61] 0.10338983 0.09830508 0.10338983 0.09830508 0.10000000 0.10000000
## [67] 0.09491525 0.10000000 0.10338983 0.09830508 0.10508475 0.09830508
## [73] 0.09322034 0.09661017 0.10169492 0.10169492 0.09830508 0.10338983
## [79] 0.09830508 0.09491525 0.09152542 0.09661017 0.10000000 0.10000000
## [85] 0.10847458 0.10338983 0.10169492 0.10169492 0.11186441 0.09661017
## [91] 0.09830508 0.09661017 0.09322034 0.09830508 0.09830508 0.09322034
## [97] 0.10000000 0.10169492 0.09661017 0.10847458 0.10169492 0.09830508
## [103] 0.09830508 0.09152542 0.10677966 0.09830508 0.09152542 0.09661017
## [109] 0.10508475 0.09661017 0.08983051 0.09661017 0.10338983 0.09661017
## [115] 0.09830508 0.09661017 0.10338983 0.10000000 0.09152542 0.09661017
## [121] 0.10508475 0.10169492 0.09661017 0.09661017 0.09661017 0.09830508
## [127] 0.09491525 0.10169492 0.09830508 0.10000000 0.09661017 0.09491525
## [133] 0.09830508 0.10000000 0.10338983 0.10847458 0.09661017 0.10000000
## [139] 0.09661017 0.09830508 0.09830508 0.09491525 0.10000000 0.10000000
## [145] 0.09661017 0.09152542 0.10169492 0.10508475 0.09322034 0.10338983
## [151] 0.09830508 0.10169492 0.09491525 0.10000000 0.10000000 0.10000000
## [157] 0.09661017 0.09661017 0.10169492 0.09152542 0.10000000 0.10169492
## [163] 0.10000000 0.09491525 0.10508475 0.09322034 0.10000000 0.10677966
## [169] 0.10000000 0.09661017 0.09661017 0.09830508 0.10000000 0.09661017
## [175] 0.09830508 0.10169492 0.10508475 0.10000000 0.10169492 0.09152542
## [181] 0.10169492 0.10169492 0.10000000 0.10508475 0.09830508 0.09152542
## [187] 0.10169492 0.10000000 0.08983051 0.10000000 0.09491525 0.09830508
## [193] 0.10169492 0.08813559 0.10169492 0.10677966 0.08813559 0.09830508
## [199] 0.10000000 0.09830508 0.11016949 0.09661017 0.09491525 0.09830508
## [205] 0.09491525 0.10338983 0.09491525 0.10000000 0.09491525 0.10169492
## [211] 0.10169492 0.09322034 0.09830508 0.09661017 0.09830508 0.10169492
## [217] 0.10338983 0.09830508 0.10169492 0.10338983 0.10000000 0.09830508
## [223] 0.10000000 0.09661017 0.08983051 0.10169492 0.09661017 0.10338983
## [229] 0.10000000 0.10000000 0.08813559 0.09491525 0.09491525 0.10508475
## [235] 0.10000000 0.11355932 0.10000000 0.11186441 0.10169492 0.09830508
## [241] 0.09830508 0.10000000 0.09152542 0.09152542 0.09491525 0.09830508
## [247] 0.09830508 0.10000000 0.09830508 0.09661017 0.10338983 0.09491525
## [253] 0.10169492 0.10000000 0.09830508 0.10169492 0.10169492 0.10169492
## [259] 0.10338983 0.09661017 0.09661017 0.09661017 0.10000000 0.09152542
## [265] 0.10169492 0.09830508 0.09322034 0.10508475 0.09491525 0.10169492
## [271] 0.09661017 0.09491525 0.09830508 0.09491525 0.09661017 0.10000000
## [277] 0.09661017 0.10169492 0.09661017 0.10169492 0.10000000 0.09661017
## [283] 0.09322034 0.09152542 0.09830508 0.10169492 0.09491525 0.10169492
## [289] 0.10169492 0.09491525 0.09830508 0.09322034 0.09491525 0.10338983
## [295] 0.10338983 0.10000000 0.09152542 0.09152542 0.10000000 0.09491525
## [301] 0.09491525 0.09661017 0.09322034 0.10169492 0.09661017 0.09491525
## [307] 0.09661017 0.10338983 0.10677966 0.09661017 0.09661017 0.10000000
## [313] 0.09830508 0.10169492 0.09830508 0.09661017 0.09661017 0.10169492
## [319] 0.10000000 0.10677966 0.09661017 0.09830508 0.10169492 0.10000000
## [325] 0.10677966 0.09322034 0.08983051 0.09830508 0.08983051 0.10508475
## [331] 0.09491525 0.09830508 0.09322034 0.11016949 0.09322034 0.09491525
## [337] 0.09491525 0.10000000 0.10338983 0.10677966 0.09322034 0.09152542
## [343] 0.10169492 0.09152542 0.09661017 0.10169492 0.10677966 0.10169492
## [349] 0.09491525 0.09322034 0.09491525 0.09830508 0.10338983 0.09661017
## [355] 0.10338983 0.10000000 0.10000000 0.10169492 0.09661017 0.10000000
## [361] 0.09322034 0.10169492 0.09661017 0.10677966 0.09152542 0.09661017
## [367] 0.09491525 0.10000000 0.10338983 0.09491525 0.09661017 0.09830508
## [373] 0.10338983 0.10000000 0.10000000 0.09152542 0.09322034 0.10000000
## [379] 0.09491525 0.09322034 0.09661017 0.09491525 0.10000000 0.09491525
## [385] 0.10338983 0.10000000 0.09830508 0.10169492 0.10169492 0.09491525
## [391] 0.10000000 0.09152542 0.09491525 0.10000000 0.10508475 0.09491525
## [397] 0.10169492 0.09152542 0.09830508 0.09322034 0.10508475 0.10677966
## [403] 0.10000000 0.10338983 0.10000000 0.09830508 0.09491525 0.09322034
## [409] 0.08813559 0.10338983 0.09830508 0.10000000 0.10000000 0.10169492
## [415] 0.09491525 0.09491525 0.10508475 0.09661017 0.10338983 0.09322034
## [421] 0.10338983 0.09830508 0.09661017 0.10508475 0.09830508 0.10169492
## [427] 0.09491525 0.09322034 0.09661017 0.10338983 0.09491525 0.09661017
## [433] 0.10338983 0.09661017 0.10677966 0.10169492 0.10000000 0.10169492
## [439] 0.09491525 0.10169492 0.09322034 0.09491525 0.09661017 0.09152542
## [445] 0.09661017 0.08983051 0.09661017 0.09661017 0.10847458 0.09661017
## [451] 0.09322034 0.10000000 0.10169492 0.09491525 0.09661017 0.09661017
## [457] 0.09830508 0.09830508 0.09830508 0.10000000 0.09322034 0.10677966
## [463] 0.10000000 0.10000000 0.10338983 0.09491525 0.10169492 0.10169492
## [469] 0.10169492 0.09661017 0.09830508 0.10338983 0.10169492 0.09830508
## [475] 0.10169492 0.09491525 0.10169492 0.10847458 0.09830508 0.09830508
## [481] 0.08813559 0.08644068 0.09491525 0.10000000 0.09491525 0.09152542
## [487] 0.09661017 0.09661017 0.09152542 0.09491525 0.10000000 0.09661017
## [493] 0.09322034 0.10000000 0.10508475 0.10000000 0.08983051 0.10169492
## [499] 0.10000000 0.09830508
for(j in 1:500){
set.seed(j)
folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
train.set$fold <- folds
# Using QDA to produce the CV error rate
CV.error<-NULL
for (i in 1:5) {
valid.data <- subset(train.set, fold == i)
train.data <- subset(train.set, fold != i)
qda.fit<-qda(formula = Group~Latitude+Longitude+OverallAvg+OverallMeanAmp, data=train.data)
qda.y <- valid.data$Group
qda.predy<-predict(qda.fit, valid.data)$class
ith.test.error<- mean(qda.y!=qda.predy)
CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error)
}
Lat.Long.O.A.O.M.A.All<-c(Lat.Long.O.A.O.M.A.All, sum(CV.error))
}
Lat.Long.O.A.O.M.A.All
## [1] 0.08474576 0.07796610 0.07796610 0.07457627 0.07796610 0.07627119
## [7] 0.07118644 0.07457627 0.07966102 0.07288136 0.09152542 0.07627119
## [13] 0.08474576 0.07118644 0.07796610 0.07966102 0.07966102 0.07627119
## [19] 0.07627119 0.07966102 0.07627119 0.08135593 0.08135593 0.08644068
## [25] 0.08305085 0.07966102 0.07288136 0.08135593 0.08135593 0.07118644
## [31] 0.08135593 0.08474576 0.07457627 0.07627119 0.07118644 0.07627119
## [37] 0.08474576 0.07627119 0.06610169 0.07966102 0.09152542 0.08305085
## [43] 0.08135593 0.07288136 0.07627119 0.08474576 0.07457627 0.07966102
## [49] 0.07966102 0.08135593 0.07796610 0.08135593 0.06949153 0.06949153
## [55] 0.08474576 0.08305085 0.07118644 0.07457627 0.07288136 0.07796610
## [61] 0.08644068 0.08135593 0.08474576 0.07457627 0.07118644 0.07457627
## [67] 0.07966102 0.08474576 0.07966102 0.07288136 0.08474576 0.07288136
## [73] 0.07288136 0.07627119 0.07288136 0.07457627 0.06440678 0.08474576
## [79] 0.07627119 0.07796610 0.07796610 0.07966102 0.07627119 0.06949153
## [85] 0.08474576 0.08135593 0.06949153 0.08305085 0.08135593 0.07627119
## [91] 0.07457627 0.08474576 0.07457627 0.07288136 0.08474576 0.08474576
## [97] 0.08474576 0.07627119 0.07627119 0.08474576 0.07627119 0.07457627
## [103] 0.07796610 0.07457627 0.07627119 0.07796610 0.07966102 0.07457627
## [109] 0.07627119 0.07627119 0.07796610 0.08305085 0.07457627 0.08135593
## [115] 0.06949153 0.07966102 0.08135593 0.07627119 0.08135593 0.08135593
## [121] 0.07966102 0.07796610 0.07966102 0.07118644 0.07457627 0.07796610
## [127] 0.07457627 0.07966102 0.07457627 0.07796610 0.07288136 0.07457627
## [133] 0.08644068 0.07288136 0.08135593 0.08305085 0.07627119 0.07457627
## [139] 0.06949153 0.07288136 0.07457627 0.07966102 0.07627119 0.08305085
## [145] 0.07796610 0.07796610 0.07796610 0.07627119 0.07288136 0.07288136
## [151] 0.07796610 0.07627119 0.07796610 0.07796610 0.07627119 0.07966102
## [157] 0.08135593 0.08983051 0.07288136 0.06779661 0.07457627 0.07796610
## [163] 0.08813559 0.07288136 0.07966102 0.06949153 0.08813559 0.07796610
## [169] 0.08135593 0.07796610 0.07796610 0.08305085 0.08135593 0.06949153
## [175] 0.07627119 0.07796610 0.07966102 0.07966102 0.06949153 0.07627119
## [181] 0.07627119 0.07118644 0.07457627 0.08305085 0.07796610 0.07966102
## [187] 0.07796610 0.06779661 0.07627119 0.07457627 0.07118644 0.08305085
## [193] 0.07118644 0.07966102 0.07627119 0.08644068 0.07118644 0.07118644
## [199] 0.07627119 0.07457627 0.08644068 0.07966102 0.07288136 0.08813559
## [205] 0.08474576 0.08644068 0.07627119 0.08135593 0.07966102 0.07796610
## [211] 0.08474576 0.08135593 0.07796610 0.07627119 0.07796610 0.07796610
## [217] 0.08644068 0.07627119 0.08474576 0.08305085 0.08474576 0.08474576
## [223] 0.07966102 0.08305085 0.07796610 0.06779661 0.08474576 0.08305085
## [229] 0.08644068 0.07796610 0.06779661 0.06779661 0.07796610 0.07627119
## [235] 0.07966102 0.07288136 0.07966102 0.08983051 0.07796610 0.08474576
## [241] 0.07457627 0.07966102 0.08135593 0.07288136 0.07966102 0.08813559
## [247] 0.07796610 0.08305085 0.06949153 0.07457627 0.07288136 0.07627119
## [253] 0.08135593 0.07966102 0.07457627 0.07457627 0.07796610 0.07796610
## [259] 0.08305085 0.07118644 0.06949153 0.07966102 0.07796610 0.08474576
## [265] 0.08135593 0.07627119 0.07796610 0.07966102 0.07796610 0.07966102
## [271] 0.07457627 0.07796610 0.08474576 0.07966102 0.07288136 0.07118644
## [277] 0.07627119 0.07966102 0.07966102 0.08305085 0.07796610 0.08305085
## [283] 0.06949153 0.07627119 0.07966102 0.08474576 0.09322034 0.08135593
## [289] 0.07288136 0.06949153 0.07796610 0.08305085 0.07457627 0.08474576
## [295] 0.07796610 0.07796610 0.06949153 0.08135593 0.08474576 0.07457627
## [301] 0.07796610 0.07457627 0.06949153 0.08813559 0.07457627 0.07288136
## [307] 0.08813559 0.07966102 0.07288136 0.07288136 0.07796610 0.08135593
## [313] 0.08305085 0.07627119 0.07966102 0.07966102 0.07966102 0.07627119
## [319] 0.07457627 0.06610169 0.07627119 0.08305085 0.07796610 0.08135593
## [325] 0.08644068 0.08305085 0.07627119 0.07627119 0.07457627 0.07288136
## [331] 0.07796610 0.07627119 0.07627119 0.07457627 0.07796610 0.07796610
## [337] 0.08135593 0.07288136 0.07627119 0.08474576 0.07288136 0.07457627
## [343] 0.07966102 0.07966102 0.08135593 0.07457627 0.08474576 0.06610169
## [349] 0.07288136 0.07796610 0.07796610 0.07118644 0.08644068 0.07966102
## [355] 0.08135593 0.07796610 0.08135593 0.08474576 0.08474576 0.07288136
## [361] 0.07288136 0.07118644 0.07796610 0.08305085 0.06610169 0.07118644
## [367] 0.07457627 0.08474576 0.07796610 0.08135593 0.07627119 0.08305085
## [373] 0.07966102 0.08813559 0.07796610 0.07457627 0.06949153 0.07966102
## [379] 0.07627119 0.06610169 0.09152542 0.08305085 0.07966102 0.08135593
## [385] 0.07118644 0.09322034 0.08135593 0.07457627 0.07796610 0.08305085
## [391] 0.07966102 0.08135593 0.07288136 0.08135593 0.08305085 0.07118644
## [397] 0.08474576 0.07457627 0.07796610 0.07796610 0.08305085 0.07796610
## [403] 0.08135593 0.07288136 0.08474576 0.07627119 0.07966102 0.07966102
## [409] 0.07457627 0.08813559 0.06610169 0.06779661 0.07796610 0.08305085
## [415] 0.07796610 0.07627119 0.08305085 0.08305085 0.08305085 0.07966102
## [421] 0.08474576 0.07966102 0.07796610 0.07288136 0.06949153 0.08474576
## [427] 0.07288136 0.08135593 0.08135593 0.07288136 0.06271186 0.07627119
## [433] 0.07627119 0.07457627 0.07966102 0.08305085 0.08135593 0.07796610
## [439] 0.07627119 0.07796610 0.07288136 0.08305085 0.08813559 0.07627119
## [445] 0.07118644 0.06610169 0.08135593 0.07796610 0.08135593 0.07796610
## [451] 0.07457627 0.08305085 0.08305085 0.07627119 0.07796610 0.07457627
## [457] 0.07288136 0.07796610 0.07288136 0.07966102 0.06949153 0.09152542
## [463] 0.08135593 0.07118644 0.08813559 0.07457627 0.07796610 0.07966102
## [469] 0.08135593 0.07796610 0.07457627 0.07288136 0.07627119 0.07966102
## [475] 0.07796610 0.07457627 0.07966102 0.07966102 0.07457627 0.07288136
## [481] 0.07796610 0.07118644 0.07288136 0.07796610 0.06949153 0.07627119
## [487] 0.08135593 0.07457627 0.08135593 0.08305085 0.08135593 0.07796610
## [493] 0.07118644 0.06440678 0.07288136 0.08813559 0.07796610 0.07966102
## [499] 0.07627119 0.08305085
PC1.<-data.frame(Variables="PC1.", CV.Error.Rate=PC1.All)
PC2.<-data.frame(Variables="PC2.", CV.Error.Rate=PC2.All)
PC1.PC2.<-data.frame(Variables="PC1.PC2.", CV.Error.Rate=PC1.PC2.All)
Lat.<-data.frame(Variables="Lat.", CV.Error.Rate=Lat.All)
Long.<-data.frame(Variables="Long.", CV.Error.Rate=Long.All)
O.A.<-data.frame(Variables="O.A.", CV.Error.Rate=O.A.All)
O.M.A.<-data.frame(Variables="O.M.A.", CV.Error.Rate=O.M.A.All)
Lat.Long.<-data.frame(Variables="Lat.Long.", CV.Error.Rate=Lat.Long.All)
Lat.O.A.<-data.frame(Variables="Lat.O.A.", CV.Error.Rate=Lat.O.A.All)
Lat.O.M.A.<-data.frame(Variables="Lat.O.M.A.", CV.Error.Rate=Lat.O.M.A.All)
Long.O.A.<-data.frame(Variables="Long.O.A.", CV.Error.Rate=Long.O.A.All)
Long.O.M.A.<-data.frame(Variables="Long.O.M.A.", CV.Error.Rate=Long.O.M.A.All)
O.A.O.M.A.<-data.frame(Variables="O.A.O.M.A.", CV.Error.Rate=O.A.O.M.A.All)
Lat.Long.O.A.<-data.frame(Variables="Lat.Long.O.A.", CV.Error.Rate=Lat.Long.O.A.All)
Lat.Long.O.M.A.<-data.frame(Variables="Lat.Long.O.M.A.", CV.Error.Rate=Lat.Long.O.M.A.All)
Lat.O.A.O.M.A.<-data.frame(Variables="Lat.O.A.O.M.A.", CV.Error.Rate=Lat.O.A.O.M.A.All)
Long.O.A.O.M.A.<-data.frame(Variables="Long.O.A.O.M.A.", CV.Error.Rate=Long.O.A.O.M.A.All)
Lat.Long.O.A.O.M.A.<-data.frame(Variables="Lat.Long.O.A.O.M.A.", CV.Error.Rate=Lat.Long.O.A.O.M.A.All)
df<-rbind(PC1., PC2., PC1.PC2., Lat., Long., O.A., O.M.A., Lat.Long., Lat.O.A., Lat.O.M.A., Long.O.A., Lat.O.M.A., O.A.O.M.A., Lat.Long.O.A., Lat.Long.O.M.A., Lat.O.A.O.M.A., Long.O.A.O.M.A., Lat.Long.O.A.O.M.A.)
ggplot(df, aes(x=Variables, y=CV.Error.Rate))+geom_boxplot(color = "green")+geom_jitter(alpha=0.1)+theme(axis.text.x = element_text(angle = 90, hjust = 1, size = 7))

## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.1627 0.1712 0.1729 0.1735 0.1763 0.1847
quantile(PC1.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.1661017 0.1813559
## [1] 0.003846516
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.3864 0.3949 0.3966 0.3971 0.4000 0.4102
quantile(PC2.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.3898305 0.4050847
## [1] 0.003760727
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.04068 0.05085 0.05254 0.05290 0.05593 0.06610
quantile(PC1.PC2.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.04576271 0.06101695
## [1] 0.003817152
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.3017 0.3136 0.3169 0.3170 0.3203 0.3356
quantile(Lat.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.3067797 0.3271186
## [1] 0.004835168
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.6458 0.6508 0.6525 0.6525 0.6542 0.6661
quantile(Long.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.6474576 0.6576271
## [1] 0.002567439
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.1525 0.1627 0.1644 0.1647 0.1661 0.1780
quantile(O.A.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.1576271 0.1728814
## [1] 0.003783707
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.4017 0.4102 0.4119 0.4127 0.4153 0.4237
quantile(O.M.A.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.4050847 0.4203390
## [1] 0.00369611
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.2898 0.3000 0.3051 0.3044 0.3085 0.3220
quantile(Lat.Long.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.2932203 0.3169492
## [1] 0.006006008
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.04407 0.05254 0.05424 0.05538 0.05763 0.07288
quantile(Lat.O.A.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.04745763 0.06440678
## [1] 0.004144399
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.2220 0.2305 0.2339 0.2340 0.2373 0.2475
quantile(Lat.O.M.A.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.2254237 0.2423729
## [1] 0.00452944
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.1254 0.1373 0.1407 0.1406 0.1441 0.1576
quantile(Long.O.A.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.1322034 0.1508475
## [1] 0.00465351
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.4051 0.4186 0.4220 0.4222 0.4254 0.4424
quantile(Long.O.M.A.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.4101695 0.4338983
## [1] 0.005925838
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.08136 0.08983 0.09153 0.09236 0.09492 0.10680
quantile(O.A.O.M.A.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.08474576 0.10000000
## [1] 0.003754821
summary(Lat.Long.O.A.All)
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.05424 0.06441 0.06780 0.06848 0.07119 0.08305
quantile(Lat.Long.O.A.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.05932203 0.07885593
## [1] 0.004988383
summary(Lat.Long.O.M.A.All)
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.2136 0.2322 0.2356 0.2363 0.2407 0.2559
quantile(Lat.Long.O.M.A.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.2237288 0.2491525
## [1] 0.00687235
summary(Lat.O.A.O.M.A.All)
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.05763 0.06780 0.06949 0.07012 0.07288 0.08305
quantile(Lat.O.A.O.M.A.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.06101695 0.07796610
## [1] 0.004303213
summary(Long.O.A.O.M.A.All)
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.08644 0.09492 0.09831 0.09846 0.10170 0.11360
quantile(Long.O.A.O.M.A.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.08983051 0.10677966
## [1] 0.004351914
summary(Lat.Long.O.A.O.M.A.All)
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.06271 0.07458 0.07797 0.07799 0.08136 0.09322
quantile(Lat.Long.O.A.O.M.A.All, probs = c(0.025, 0.975))
## 2.5% 97.5%
## 0.06779661 0.08813559
sd(Lat.Long.O.A.O.M.A.All)
## [1] 0.00514601