PC1.All<-NULL
PC2.All<-NULL
PC1.PC2.All<-NULL
Lat.All<-NULL
Long.All<-NULL
O.A.All<-NULL
O.M.A.All<-NULL
Lat.Long.All<-NULL
Lat.O.A.All<-NULL
Lat.O.M.A.All<-NULL
Long.O.A.All<-NULL
Long.O.M.A.All<-NULL
O.A.O.M.A.All<-NULL
Lat.Long.O.A.All<-NULL
Lat.Long.O.M.A.All<-NULL
Lat.O.A.O.M.A.All<-NULL
Long.O.A.O.M.A.All<-NULL
Lat.Long.O.A.O.M.A.All<-NULL

1 Reading in the Data

ArcLakeGroupSummary <- read_excel("~/Desktop/EPSRC Project /ArcLakeGroupSummary.xlsx")
dundeedata <- read_csv("~/Desktop/EPSRC Project /dundeedata.csv.xls")

colnames(dundeedata)[1]<-"GloboLakes_ID" # change the GloboLID column name to GloboLakes_ID to make the merge easier.

Data<-merge(ArcLakeGroupSummary, dundeedata, by = "GloboLakes_ID", all = TRUE )
Data<-subset(Data, Group!="NA") # The data set is back to the original 732 rows just with extra columns of information

Data$Group<-as.factor(Data$Group)


# Stratify the entire training set into training and test sets

set.seed(1)

library(caret)
train.index<-createDataPartition(Data$Group, p=0.8, list = FALSE)
train.set<-Data[train.index, ]
test.set<-Data[-train.index, ]
for(j in 1:500){
  
  # Stratify the training set into 5 folds
  
  set.seed(j)
  
  folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
  train.set$fold <- folds
  
  
  # Using QDA to produce the CV error rate
  
  CV.error<-NULL 
  
  for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~PC1, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  PC1.All<-c(PC1.All, sum(CV.error))
  
}

PC1.All
##   [1] 0.1677966 0.1711864 0.1728814 0.1796610 0.1694915 0.1779661 0.1694915
##   [8] 0.1728814 0.1779661 0.1728814 0.1745763 0.1762712 0.1694915 0.1728814
##  [15] 0.1762712 0.1728814 0.1796610 0.1796610 0.1677966 0.1711864 0.1728814
##  [22] 0.1711864 0.1830508 0.1745763 0.1728814 0.1745763 0.1728814 0.1762712
##  [29] 0.1711864 0.1711864 0.1677966 0.1796610 0.1745763 0.1728814 0.1762712
##  [36] 0.1762712 0.1779661 0.1711864 0.1694915 0.1677966 0.1728814 0.1762712
##  [43] 0.1762712 0.1779661 0.1762712 0.1728814 0.1728814 0.1779661 0.1796610
##  [50] 0.1661017 0.1779661 0.1711864 0.1745763 0.1745763 0.1694915 0.1745763
##  [57] 0.1711864 0.1661017 0.1745763 0.1762712 0.1813559 0.1728814 0.1711864
##  [64] 0.1779661 0.1796610 0.1745763 0.1762712 0.1796610 0.1745763 0.1762712
##  [71] 0.1728814 0.1711864 0.1779661 0.1830508 0.1711864 0.1728814 0.1711864
##  [78] 0.1677966 0.1779661 0.1745763 0.1711864 0.1711864 0.1694915 0.1847458
##  [85] 0.1694915 0.1694915 0.1745763 0.1745763 0.1762712 0.1762712 0.1728814
##  [92] 0.1711864 0.1728814 0.1813559 0.1728814 0.1779661 0.1779661 0.1813559
##  [99] 0.1711864 0.1677966 0.1711864 0.1796610 0.1745763 0.1745763 0.1694915
## [106] 0.1779661 0.1762712 0.1745763 0.1813559 0.1745763 0.1762712 0.1694915
## [113] 0.1745763 0.1661017 0.1813559 0.1661017 0.1661017 0.1779661 0.1711864
## [120] 0.1745763 0.1694915 0.1745763 0.1711864 0.1728814 0.1745763 0.1728814
## [127] 0.1762712 0.1745763 0.1694915 0.1677966 0.1728814 0.1677966 0.1762712
## [134] 0.1830508 0.1728814 0.1728814 0.1779661 0.1796610 0.1711864 0.1796610
## [141] 0.1677966 0.1694915 0.1762712 0.1728814 0.1796610 0.1711864 0.1694915
## [148] 0.1728814 0.1762712 0.1745763 0.1661017 0.1661017 0.1711864 0.1745763
## [155] 0.1728814 0.1711864 0.1779661 0.1728814 0.1677966 0.1728814 0.1728814
## [162] 0.1745763 0.1677966 0.1745763 0.1711864 0.1711864 0.1728814 0.1644068
## [169] 0.1711864 0.1762712 0.1762712 0.1728814 0.1762712 0.1728814 0.1728814
## [176] 0.1762712 0.1779661 0.1796610 0.1745763 0.1728814 0.1711864 0.1728814
## [183] 0.1728814 0.1728814 0.1711864 0.1762712 0.1796610 0.1661017 0.1677966
## [190] 0.1728814 0.1796610 0.1762712 0.1711864 0.1779661 0.1728814 0.1728814
## [197] 0.1745763 0.1779661 0.1694915 0.1728814 0.1762712 0.1728814 0.1694915
## [204] 0.1677966 0.1745763 0.1762712 0.1711864 0.1830508 0.1728814 0.1694915
## [211] 0.1745763 0.1745763 0.1779661 0.1728814 0.1745763 0.1677966 0.1813559
## [218] 0.1677966 0.1762712 0.1745763 0.1796610 0.1745763 0.1745763 0.1762712
## [225] 0.1728814 0.1711864 0.1779661 0.1728814 0.1745763 0.1694915 0.1728814
## [232] 0.1813559 0.1762712 0.1779661 0.1779661 0.1779661 0.1711864 0.1711864
## [239] 0.1694915 0.1694915 0.1728814 0.1677966 0.1779661 0.1677966 0.1694915
## [246] 0.1677966 0.1745763 0.1728814 0.1745763 0.1694915 0.1745763 0.1694915
## [253] 0.1728814 0.1728814 0.1779661 0.1813559 0.1779661 0.1762712 0.1694915
## [260] 0.1745763 0.1745763 0.1711864 0.1711864 0.1711864 0.1796610 0.1779661
## [267] 0.1745763 0.1745763 0.1711864 0.1694915 0.1694915 0.1762712 0.1694915
## [274] 0.1745763 0.1779661 0.1711864 0.1813559 0.1728814 0.1762712 0.1728814
## [281] 0.1661017 0.1711864 0.1694915 0.1728814 0.1779661 0.1694915 0.1694915
## [288] 0.1677966 0.1728814 0.1745763 0.1779661 0.1694915 0.1728814 0.1745763
## [295] 0.1796610 0.1813559 0.1661017 0.1779661 0.1711864 0.1745763 0.1745763
## [302] 0.1694915 0.1694915 0.1796610 0.1728814 0.1830508 0.1745763 0.1711864
## [309] 0.1694915 0.1694915 0.1711864 0.1745763 0.1728814 0.1711864 0.1745763
## [316] 0.1762712 0.1728814 0.1677966 0.1694915 0.1677966 0.1728814 0.1728814
## [323] 0.1762712 0.1711864 0.1728814 0.1711864 0.1728814 0.1711864 0.1762712
## [330] 0.1711864 0.1796610 0.1728814 0.1728814 0.1728814 0.1779661 0.1745763
## [337] 0.1711864 0.1745763 0.1745763 0.1745763 0.1728814 0.1728814 0.1661017
## [344] 0.1728814 0.1694915 0.1779661 0.1779661 0.1779661 0.1796610 0.1694915
## [351] 0.1711864 0.1694915 0.1762712 0.1694915 0.1711864 0.1779661 0.1762712
## [358] 0.1813559 0.1762712 0.1728814 0.1728814 0.1627119 0.1745763 0.1762712
## [365] 0.1779661 0.1728814 0.1711864 0.1728814 0.1779661 0.1694915 0.1677966
## [372] 0.1745763 0.1745763 0.1728814 0.1711864 0.1711864 0.1762712 0.1779661
## [379] 0.1711864 0.1677966 0.1728814 0.1745763 0.1779661 0.1728814 0.1711864
## [386] 0.1694915 0.1728814 0.1694915 0.1728814 0.1762712 0.1762712 0.1661017
## [393] 0.1745763 0.1677966 0.1661017 0.1728814 0.1745763 0.1728814 0.1745763
## [400] 0.1711864 0.1796610 0.1762712 0.1796610 0.1762712 0.1728814 0.1711864
## [407] 0.1711864 0.1677966 0.1644068 0.1745763 0.1711864 0.1745763 0.1762712
## [414] 0.1779661 0.1711864 0.1779661 0.1728814 0.1711864 0.1762712 0.1644068
## [421] 0.1813559 0.1677966 0.1796610 0.1711864 0.1728814 0.1728814 0.1796610
## [428] 0.1762712 0.1694915 0.1694915 0.1745763 0.1762712 0.1694915 0.1711864
## [435] 0.1677966 0.1677966 0.1694915 0.1711864 0.1762712 0.1779661 0.1779661
## [442] 0.1728814 0.1694915 0.1728814 0.1694915 0.1694915 0.1762712 0.1711864
## [449] 0.1711864 0.1762712 0.1728814 0.1779661 0.1762712 0.1694915 0.1762712
## [456] 0.1694915 0.1711864 0.1711864 0.1796610 0.1745763 0.1728814 0.1745763
## [463] 0.1728814 0.1762712 0.1745763 0.1762712 0.1728814 0.1813559 0.1728814
## [470] 0.1762712 0.1745763 0.1779661 0.1694915 0.1694915 0.1677966 0.1762712
## [477] 0.1694915 0.1745763 0.1728814 0.1745763 0.1711864 0.1711864 0.1728814
## [484] 0.1779661 0.1745763 0.1728814 0.1661017 0.1677966 0.1762712 0.1661017
## [491] 0.1711864 0.1762712 0.1779661 0.1711864 0.1728814 0.1779661 0.1711864
## [498] 0.1779661 0.1779661 0.1694915
for(j in 1:500){
  
  # Stratify the training set into 5 folds
  
  set.seed(j)
  
  folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
  train.set$fold <- folds
  
  
  # Using QDA to produce the CV error rate
  
  CV.error<-NULL 
  
  for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~PC2, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  PC2.All<-c(PC2.All, sum(CV.error))
  
}

PC2.All
##   [1] 0.3949153 0.3932203 0.4000000 0.4067797 0.4016949 0.3983051 0.4016949
##   [8] 0.4000000 0.3983051 0.3915254 0.4000000 0.4000000 0.3949153 0.3983051
##  [15] 0.3915254 0.4000000 0.3932203 0.3932203 0.4016949 0.3932203 0.3983051
##  [22] 0.3949153 0.3949153 0.3949153 0.3898305 0.3966102 0.3915254 0.3983051
##  [29] 0.3983051 0.3983051 0.3949153 0.3983051 0.3949153 0.3949153 0.3949153
##  [36] 0.3898305 0.3932203 0.4016949 0.3898305 0.3949153 0.4016949 0.4016949
##  [43] 0.3915254 0.4084746 0.4000000 0.4016949 0.3949153 0.3983051 0.4000000
##  [50] 0.3915254 0.3983051 0.3949153 0.4000000 0.3983051 0.3966102 0.4016949
##  [57] 0.4067797 0.3966102 0.4033898 0.3966102 0.4000000 0.4000000 0.4000000
##  [64] 0.3949153 0.3966102 0.3966102 0.3983051 0.3983051 0.3932203 0.3949153
##  [71] 0.3949153 0.3949153 0.3983051 0.3966102 0.3966102 0.3966102 0.3949153
##  [78] 0.4067797 0.3966102 0.4016949 0.3932203 0.3949153 0.3949153 0.3983051
##  [85] 0.4000000 0.3949153 0.3932203 0.4033898 0.3966102 0.3966102 0.3983051
##  [92] 0.3966102 0.3932203 0.4000000 0.3966102 0.3932203 0.4016949 0.3898305
##  [99] 0.4000000 0.4050847 0.3983051 0.3932203 0.3915254 0.3983051 0.3949153
## [106] 0.3966102 0.4033898 0.3966102 0.3949153 0.3932203 0.3949153 0.4033898
## [113] 0.3966102 0.3949153 0.4000000 0.3932203 0.3932203 0.3915254 0.4000000
## [120] 0.4016949 0.3949153 0.3966102 0.3949153 0.3915254 0.3949153 0.3949153
## [127] 0.4000000 0.4016949 0.4000000 0.4000000 0.4000000 0.3949153 0.3915254
## [134] 0.3983051 0.3966102 0.3915254 0.3983051 0.4101695 0.3949153 0.3949153
## [141] 0.4016949 0.3949153 0.3932203 0.4000000 0.3898305 0.3983051 0.3949153
## [148] 0.3983051 0.4000000 0.3983051 0.4016949 0.3983051 0.3966102 0.3966102
## [155] 0.4033898 0.3983051 0.4000000 0.3949153 0.4033898 0.3949153 0.3898305
## [162] 0.4000000 0.3932203 0.4000000 0.3983051 0.4000000 0.4016949 0.4000000
## [169] 0.4033898 0.4016949 0.4016949 0.3915254 0.3949153 0.3983051 0.3932203
## [176] 0.4067797 0.4033898 0.4016949 0.3983051 0.3932203 0.3983051 0.3949153
## [183] 0.4000000 0.3932203 0.3915254 0.4000000 0.4000000 0.4000000 0.3898305
## [190] 0.3983051 0.3983051 0.3966102 0.3932203 0.3932203 0.3932203 0.3949153
## [197] 0.3966102 0.3949153 0.3983051 0.4000000 0.3949153 0.3932203 0.4000000
## [204] 0.3983051 0.4033898 0.3932203 0.3932203 0.3966102 0.3915254 0.3915254
## [211] 0.4016949 0.3915254 0.4000000 0.3983051 0.4000000 0.3966102 0.4000000
## [218] 0.4016949 0.3983051 0.3966102 0.3966102 0.3983051 0.3949153 0.4000000
## [225] 0.3932203 0.3966102 0.3949153 0.4016949 0.3966102 0.3932203 0.4016949
## [232] 0.3983051 0.4000000 0.3983051 0.4000000 0.3966102 0.3983051 0.3966102
## [239] 0.4067797 0.4000000 0.3983051 0.3949153 0.3932203 0.3966102 0.3932203
## [246] 0.4016949 0.3966102 0.3932203 0.3898305 0.3898305 0.3966102 0.3932203
## [253] 0.3932203 0.3983051 0.3983051 0.3983051 0.3932203 0.3915254 0.3932203
## [260] 0.3983051 0.3915254 0.4016949 0.3949153 0.3966102 0.3949153 0.4000000
## [267] 0.3915254 0.3932203 0.3983051 0.3983051 0.3932203 0.3966102 0.3983051
## [274] 0.4000000 0.3966102 0.3966102 0.3932203 0.4000000 0.3966102 0.4016949
## [281] 0.4050847 0.4000000 0.3966102 0.3983051 0.4000000 0.3983051 0.4033898
## [288] 0.4067797 0.3949153 0.3898305 0.3932203 0.3949153 0.4000000 0.3966102
## [295] 0.3966102 0.4000000 0.3966102 0.3881356 0.3932203 0.3949153 0.3915254
## [302] 0.3881356 0.4000000 0.4000000 0.4000000 0.3898305 0.4000000 0.3949153
## [309] 0.3949153 0.4000000 0.3932203 0.3915254 0.3932203 0.4000000 0.4016949
## [316] 0.3932203 0.3983051 0.3966102 0.3966102 0.3915254 0.4000000 0.3949153
## [323] 0.3983051 0.3966102 0.4000000 0.3932203 0.4033898 0.3898305 0.4016949
## [330] 0.3966102 0.3915254 0.3966102 0.3966102 0.3966102 0.3881356 0.3966102
## [337] 0.4000000 0.3949153 0.3966102 0.4067797 0.3966102 0.3932203 0.4033898
## [344] 0.4016949 0.3915254 0.3983051 0.3983051 0.3983051 0.3966102 0.3983051
## [351] 0.3983051 0.3966102 0.3983051 0.3881356 0.3949153 0.3949153 0.4000000
## [358] 0.3949153 0.4050847 0.4016949 0.3983051 0.3966102 0.3949153 0.3966102
## [365] 0.3966102 0.3932203 0.3983051 0.3949153 0.4016949 0.3949153 0.3932203
## [372] 0.3949153 0.4000000 0.3966102 0.3949153 0.3898305 0.3966102 0.3983051
## [379] 0.3898305 0.4033898 0.4000000 0.3966102 0.4000000 0.3983051 0.3983051
## [386] 0.4000000 0.4000000 0.4000000 0.3966102 0.3983051 0.3949153 0.3966102
## [393] 0.3966102 0.3983051 0.3966102 0.4000000 0.3983051 0.3966102 0.3949153
## [400] 0.3983051 0.3983051 0.4000000 0.4000000 0.3898305 0.3949153 0.4000000
## [407] 0.3949153 0.4016949 0.3983051 0.4016949 0.3949153 0.3966102 0.3898305
## [414] 0.3983051 0.4000000 0.4000000 0.3932203 0.3966102 0.4000000 0.3966102
## [421] 0.3949153 0.3949153 0.3966102 0.3915254 0.4000000 0.3949153 0.3898305
## [428] 0.4000000 0.3949153 0.3983051 0.3966102 0.3949153 0.4050847 0.3983051
## [435] 0.3966102 0.4084746 0.3864407 0.4033898 0.3966102 0.3932203 0.3966102
## [442] 0.4016949 0.4016949 0.4000000 0.3932203 0.3949153 0.3881356 0.4016949
## [449] 0.3983051 0.3915254 0.3932203 0.4000000 0.3915254 0.3966102 0.3983051
## [456] 0.3949153 0.4000000 0.3966102 0.3949153 0.3983051 0.4016949 0.3949153
## [463] 0.3966102 0.3983051 0.3932203 0.3983051 0.3966102 0.3932203 0.3966102
## [470] 0.3915254 0.4016949 0.3966102 0.3983051 0.3983051 0.3966102 0.3966102
## [477] 0.3966102 0.4000000 0.4016949 0.3949153 0.3915254 0.3966102 0.4000000
## [484] 0.4000000 0.4000000 0.4016949 0.3983051 0.3949153 0.3983051 0.3983051
## [491] 0.4000000 0.3966102 0.3932203 0.3949153 0.4033898 0.3932203 0.3949153
## [498] 0.3949153 0.3983051 0.3932203

2 For PC1 + PC2

3 In order to use each method, I first prepare a suitable data frame - splitting it into training and test sets and then splitting the training set into 5 folds.

for(j in 1:500){
  

# Stratify the training set into 5 folds

set.seed(j)

folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
train.set$fold <- folds


  # Using QDA to produce the CV error rate

  CV.error<-NULL 
  
    for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~PC1+PC2, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  PC1.PC2.All<-c(PC1.PC2.All, sum(CV.error))
  
}

PC1.PC2.All
##   [1] 0.05593220 0.05593220 0.05254237 0.05423729 0.05084746 0.05593220
##   [7] 0.05593220 0.05254237 0.05084746 0.05593220 0.05423729 0.05254237
##  [13] 0.05423729 0.05084746 0.05762712 0.05254237 0.04576271 0.05593220
##  [19] 0.04576271 0.05593220 0.04915254 0.05762712 0.05932203 0.05593220
##  [25] 0.05423729 0.04576271 0.05254237 0.05254237 0.05762712 0.05254237
##  [31] 0.04745763 0.05593220 0.04576271 0.05084746 0.05762712 0.05084746
##  [37] 0.05254237 0.05254237 0.04915254 0.05423729 0.05084746 0.05084746
##  [43] 0.06271186 0.05762712 0.05254237 0.05084746 0.05423729 0.05254237
##  [49] 0.05593220 0.05084746 0.05593220 0.05593220 0.04915254 0.05084746
##  [55] 0.04915254 0.05254237 0.05084746 0.05084746 0.05254237 0.05254237
##  [61] 0.05423729 0.05084746 0.05254237 0.05254237 0.05084746 0.06440678
##  [67] 0.05423729 0.05423729 0.04915254 0.05254237 0.05254237 0.05423729
##  [73] 0.05084746 0.05423729 0.05423729 0.05423729 0.05254237 0.05423729
##  [79] 0.04915254 0.05423729 0.05254237 0.05762712 0.05084746 0.05254237
##  [85] 0.06440678 0.06101695 0.04915254 0.05423729 0.06101695 0.05423729
##  [91] 0.05254237 0.05084746 0.04406780 0.05084746 0.05762712 0.05084746
##  [97] 0.05084746 0.04915254 0.05932203 0.05593220 0.05254237 0.05084746
## [103] 0.05084746 0.04745763 0.06271186 0.05084746 0.05423729 0.04745763
## [109] 0.05762712 0.04745763 0.05254237 0.05084746 0.05932203 0.05254237
## [115] 0.05084746 0.05423729 0.04915254 0.04915254 0.05084746 0.05423729
## [121] 0.05932203 0.05932203 0.05254237 0.05254237 0.04915254 0.05084746
## [127] 0.05254237 0.05423729 0.05254237 0.04915254 0.05254237 0.05423729
## [133] 0.05254237 0.05254237 0.05593220 0.05254237 0.05423729 0.05254237
## [139] 0.05593220 0.04915254 0.05254237 0.05762712 0.05762712 0.05423729
## [145] 0.05932203 0.05254237 0.06610169 0.05423729 0.05593220 0.05084746
## [151] 0.05254237 0.05084746 0.04915254 0.04915254 0.05423729 0.05593220
## [157] 0.04915254 0.05254237 0.05254237 0.05593220 0.05254237 0.04915254
## [163] 0.05084746 0.05254237 0.05254237 0.05084746 0.05423729 0.05084746
## [169] 0.04915254 0.05254237 0.04915254 0.05084746 0.05254237 0.04576271
## [175] 0.05762712 0.04915254 0.05423729 0.05932203 0.05762712 0.05254237
## [181] 0.05084746 0.04745763 0.05423729 0.05084746 0.05254237 0.05084746
## [187] 0.04576271 0.04745763 0.05593220 0.05254237 0.04915254 0.05932203
## [193] 0.04915254 0.05423729 0.05084746 0.05762712 0.05254237 0.05254237
## [199] 0.05593220 0.04745763 0.05593220 0.04745763 0.05423729 0.04915254
## [205] 0.04745763 0.05593220 0.05254237 0.05423729 0.05423729 0.04915254
## [211] 0.05254237 0.05762712 0.05593220 0.04745763 0.05084746 0.05254237
## [217] 0.05423729 0.05423729 0.05254237 0.04745763 0.05593220 0.05254237
## [223] 0.05423729 0.05593220 0.05762712 0.05593220 0.05423729 0.05254237
## [229] 0.05423729 0.05084746 0.04915254 0.04576271 0.05254237 0.05423729
## [235] 0.05593220 0.04576271 0.04745763 0.05762712 0.05593220 0.05932203
## [241] 0.04576271 0.05084746 0.05593220 0.05084746 0.05254237 0.05423729
## [247] 0.05762712 0.05423729 0.06101695 0.05084746 0.05084746 0.05593220
## [253] 0.05084746 0.05084746 0.05762712 0.05084746 0.05254237 0.04915254
## [259] 0.06101695 0.05593220 0.04745763 0.05423729 0.05593220 0.05084746
## [265] 0.06101695 0.04915254 0.05254237 0.05084746 0.05084746 0.05084746
## [271] 0.05254237 0.05084746 0.05423729 0.05254237 0.05593220 0.04915254
## [277] 0.04576271 0.05593220 0.05423729 0.05593220 0.05423729 0.05423729
## [283] 0.04915254 0.05084746 0.05084746 0.05084746 0.05084746 0.05593220
## [289] 0.05593220 0.05254237 0.05084746 0.05423729 0.05254237 0.05593220
## [295] 0.05423729 0.05254237 0.06271186 0.05423729 0.05254237 0.05423729
## [301] 0.05762712 0.05084746 0.04745763 0.05593220 0.04745763 0.05254237
## [307] 0.05423729 0.05423729 0.04745763 0.05593220 0.04745763 0.05762712
## [313] 0.05932203 0.04406780 0.05593220 0.05084746 0.04915254 0.06101695
## [319] 0.05254237 0.05254237 0.05084746 0.06101695 0.05932203 0.05762712
## [325] 0.04915254 0.05423729 0.05084746 0.04745763 0.05423729 0.06101695
## [331] 0.05254237 0.05254237 0.05084746 0.05593220 0.05423729 0.05254237
## [337] 0.05423729 0.05593220 0.04915254 0.05423729 0.05084746 0.04576271
## [343] 0.05084746 0.04915254 0.05593220 0.05593220 0.05423729 0.04915254
## [349] 0.05423729 0.04915254 0.05254237 0.05084746 0.05254237 0.05423729
## [355] 0.05084746 0.05254237 0.05254237 0.05254237 0.05084746 0.05254237
## [361] 0.06101695 0.05593220 0.05593220 0.05762712 0.05084746 0.05423729
## [367] 0.05762712 0.05762712 0.05423729 0.04576271 0.05762712 0.04576271
## [373] 0.05423729 0.05593220 0.05254237 0.04576271 0.04745763 0.05593220
## [379] 0.05423729 0.04576271 0.05593220 0.04745763 0.05084746 0.05084746
## [385] 0.05423729 0.05254237 0.05593220 0.05084746 0.05423729 0.05084746
## [391] 0.04576271 0.05254237 0.05593220 0.06101695 0.04915254 0.04915254
## [397] 0.05254237 0.05593220 0.05593220 0.05084746 0.05932203 0.05593220
## [403] 0.05084746 0.04067797 0.05593220 0.04745763 0.04915254 0.05084746
## [409] 0.04576271 0.05254237 0.05593220 0.04745763 0.05762712 0.05423729
## [415] 0.05084746 0.05254237 0.04576271 0.05254237 0.05593220 0.04745763
## [421] 0.05932203 0.05254237 0.04915254 0.05254237 0.04915254 0.05593220
## [427] 0.04745763 0.05254237 0.05254237 0.04915254 0.05423729 0.05084746
## [433] 0.04576271 0.04915254 0.04745763 0.05254237 0.06101695 0.05423729
## [439] 0.05254237 0.05254237 0.04745763 0.05593220 0.05084746 0.05762712
## [445] 0.04915254 0.05593220 0.04915254 0.05254237 0.06271186 0.05423729
## [451] 0.05254237 0.05593220 0.05762712 0.04745763 0.05423729 0.05593220
## [457] 0.05254237 0.05254237 0.05254237 0.05423729 0.04406780 0.05932203
## [463] 0.04915254 0.04745763 0.05932203 0.05423729 0.05423729 0.05762712
## [469] 0.05593220 0.04915254 0.04745763 0.06440678 0.04406780 0.05084746
## [475] 0.04745763 0.05084746 0.05932203 0.05593220 0.05423729 0.05254237
## [481] 0.04915254 0.05593220 0.05593220 0.05423729 0.04745763 0.04745763
## [487] 0.05762712 0.05084746 0.05423729 0.05084746 0.04745763 0.05423729
## [493] 0.05254237 0.05423729 0.05254237 0.05254237 0.05423729 0.05593220
## [499] 0.05084746 0.06101695
for(j in 1:500){
  
  set.seed(j)
  
  folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
  train.set$fold <- folds
  
  
  # Using QDA to produce the CV error rate
  
  CV.error<-NULL 
  
  for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~Latitude, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  Lat.All<-c(Lat.All, sum(CV.error))
  
}

Lat.All
##   [1] 0.3237288 0.3220339 0.3203390 0.3237288 0.3237288 0.3152542 0.3169492
##   [8] 0.3203390 0.3186441 0.3118644 0.3220339 0.3186441 0.3186441 0.3135593
##  [15] 0.3186441 0.3135593 0.3203390 0.3271186 0.3135593 0.3203390 0.3203390
##  [22] 0.3186441 0.3169492 0.3118644 0.3169492 0.3169492 0.3135593 0.3118644
##  [29] 0.3135593 0.3135593 0.3169492 0.3220339 0.3067797 0.3186441 0.3169492
##  [36] 0.3118644 0.3220339 0.3152542 0.3169492 0.3220339 0.3152542 0.3355932
##  [43] 0.3271186 0.3101695 0.3186441 0.3135593 0.3186441 0.3237288 0.3203390
##  [50] 0.3169492 0.3186441 0.3220339 0.3186441 0.3220339 0.3135593 0.3220339
##  [57] 0.3169492 0.3169492 0.3186441 0.3152542 0.3169492 0.3186441 0.3152542
##  [64] 0.3254237 0.3135593 0.3186441 0.3186441 0.3186441 0.3254237 0.3237288
##  [71] 0.3220339 0.3220339 0.3186441 0.3101695 0.3203390 0.3084746 0.3084746
##  [78] 0.3186441 0.3135593 0.3152542 0.3220339 0.3220339 0.3169492 0.3118644
##  [85] 0.3186441 0.3118644 0.3067797 0.3152542 0.3220339 0.3169492 0.3135593
##  [92] 0.3152542 0.3186441 0.3254237 0.3237288 0.3152542 0.3186441 0.3203390
##  [99] 0.3254237 0.3135593 0.3169492 0.3271186 0.3203390 0.3237288 0.3152542
## [106] 0.3135593 0.3254237 0.3152542 0.3186441 0.3152542 0.3186441 0.3152542
## [113] 0.3186441 0.3084746 0.3186441 0.3203390 0.3237288 0.3203390 0.3237288
## [120] 0.3135593 0.3203390 0.3152542 0.3169492 0.3118644 0.3186441 0.3203390
## [127] 0.3084746 0.3169492 0.3118644 0.3135593 0.3135593 0.3101695 0.3135593
## [134] 0.3169492 0.3016949 0.3118644 0.3152542 0.3152542 0.3305085 0.3152542
## [141] 0.3118644 0.3203390 0.3220339 0.3169492 0.3084746 0.3152542 0.3186441
## [148] 0.3186441 0.3203390 0.3186441 0.3101695 0.3169492 0.3203390 0.3220339
## [155] 0.3067797 0.3118644 0.3220339 0.3067797 0.3186441 0.3152542 0.3186441
## [162] 0.3203390 0.3152542 0.3237288 0.3135593 0.3084746 0.3135593 0.3186441
## [169] 0.3152542 0.3220339 0.3220339 0.3186441 0.3152542 0.3186441 0.3118644
## [176] 0.3186441 0.3152542 0.3186441 0.3152542 0.3203390 0.3169492 0.3169492
## [183] 0.3186441 0.3203390 0.3152542 0.3186441 0.3169492 0.3254237 0.3220339
## [190] 0.3203390 0.3220339 0.3169492 0.3203390 0.3135593 0.3169492 0.3186441
## [197] 0.3135593 0.3203390 0.3135593 0.3169492 0.3135593 0.3135593 0.3084746
## [204] 0.3084746 0.3084746 0.3271186 0.3118644 0.3186441 0.3186441 0.3169492
## [211] 0.3169492 0.3101695 0.3118644 0.3220339 0.3186441 0.3135593 0.3186441
## [218] 0.3237288 0.3118644 0.3203390 0.3169492 0.3169492 0.3203390 0.3135593
## [225] 0.3186441 0.3118644 0.3135593 0.3186441 0.3101695 0.3220339 0.3135593
## [232] 0.3237288 0.3237288 0.3152542 0.3152542 0.3169492 0.3118644 0.3118644
## [239] 0.3101695 0.3084746 0.3152542 0.3169492 0.3220339 0.3203390 0.3169492
## [246] 0.3152542 0.3152542 0.3186441 0.3220339 0.3203390 0.3152542 0.3169492
## [253] 0.3152542 0.3169492 0.3152542 0.3237288 0.3084746 0.3135593 0.3050847
## [260] 0.3152542 0.3220339 0.3152542 0.3271186 0.3152542 0.3101695 0.3237288
## [267] 0.3152542 0.3186441 0.3237288 0.3101695 0.3135593 0.3271186 0.3152542
## [274] 0.3220339 0.3067797 0.3067797 0.3135593 0.3203390 0.3220339 0.3169492
## [281] 0.3203390 0.3118644 0.3186441 0.3169492 0.3135593 0.3186441 0.3271186
## [288] 0.3186441 0.3186441 0.3169492 0.3237288 0.3152542 0.3169492 0.3152542
## [295] 0.3271186 0.3152542 0.3152542 0.3118644 0.3118644 0.3169492 0.3067797
## [302] 0.3118644 0.3135593 0.3203390 0.3135593 0.3118644 0.3084746 0.3118644
## [309] 0.3118644 0.3203390 0.3169492 0.3237288 0.3237288 0.3152542 0.3135593
## [316] 0.3169492 0.3254237 0.3203390 0.3135593 0.3152542 0.3169492 0.3118644
## [323] 0.3186441 0.3135593 0.3220339 0.3203390 0.3186441 0.3220339 0.3220339
## [330] 0.3169492 0.3152542 0.3203390 0.3186441 0.3203390 0.3237288 0.3084746
## [337] 0.3152542 0.3220339 0.3169492 0.3220339 0.3203390 0.3237288 0.3169492
## [344] 0.3254237 0.3152542 0.3135593 0.3203390 0.3169492 0.3169492 0.3186441
## [351] 0.3254237 0.3169492 0.3169492 0.3152542 0.3220339 0.3084746 0.3186441
## [358] 0.3101695 0.3152542 0.3152542 0.3203390 0.3254237 0.3135593 0.3237288
## [365] 0.3203390 0.3101695 0.3118644 0.3169492 0.3186441 0.3152542 0.3135593
## [372] 0.3118644 0.3152542 0.3067797 0.3152542 0.3186441 0.3186441 0.3152542
## [379] 0.3118644 0.3186441 0.3118644 0.3169492 0.3169492 0.3135593 0.3186441
## [386] 0.3118644 0.3067797 0.3203390 0.3203390 0.3237288 0.3135593 0.3203390
## [393] 0.3135593 0.3220339 0.3118644 0.3203390 0.3118644 0.3118644 0.3203390
## [400] 0.3152542 0.3118644 0.3186441 0.3203390 0.3186441 0.3254237 0.3135593
## [407] 0.3118644 0.3135593 0.3118644 0.3237288 0.3254237 0.3067797 0.3118644
## [414] 0.3101695 0.3271186 0.3067797 0.3254237 0.3186441 0.3118644 0.3135593
## [421] 0.3169492 0.3288136 0.3135593 0.3101695 0.3135593 0.3186441 0.3135593
## [428] 0.3220339 0.3203390 0.3101695 0.3135593 0.3101695 0.3152542 0.3152542
## [435] 0.3169492 0.3152542 0.3152542 0.3135593 0.3271186 0.3186441 0.3152542
## [442] 0.3254237 0.3135593 0.3152542 0.3101695 0.3152542 0.3169492 0.3135593
## [449] 0.3186441 0.3203390 0.3169492 0.3186441 0.3152542 0.3186441 0.3169492
## [456] 0.3135593 0.3169492 0.3084746 0.3101695 0.3271186 0.3203390 0.3186441
## [463] 0.3237288 0.3220339 0.3186441 0.3220339 0.3186441 0.3220339 0.3152542
## [470] 0.3135593 0.3169492 0.3135593 0.3135593 0.3237288 0.3169492 0.3135593
## [477] 0.3203390 0.3016949 0.3220339 0.3135593 0.3135593 0.3135593 0.3254237
## [484] 0.3220339 0.3067797 0.3118644 0.3135593 0.3186441 0.3152542 0.3186441
## [491] 0.3152542 0.3186441 0.3203390 0.3152542 0.3067797 0.3169492 0.3203390
## [498] 0.3169492 0.3135593 0.3152542
for(j in 1:500){
  
  set.seed(j)
  
  folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
  train.set$fold <- folds
  
  
  # Using QDA to produce the CV error rate
  
  CV.error<-NULL 
  
  for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~Longitude, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  Long.All<-c(Long.All, sum(CV.error))
  
}

Long.All
##   [1] 0.6525424 0.6542373 0.6508475 0.6491525 0.6525424 0.6508475 0.6491525
##   [8] 0.6576271 0.6542373 0.6525424 0.6542373 0.6491525 0.6525424 0.6525424
##  [15] 0.6491525 0.6525424 0.6525424 0.6525424 0.6593220 0.6508475 0.6508475
##  [22] 0.6525424 0.6525424 0.6508475 0.6559322 0.6508475 0.6542373 0.6508475
##  [29] 0.6576271 0.6508475 0.6559322 0.6542373 0.6525424 0.6525424 0.6661017
##  [36] 0.6525424 0.6542373 0.6508475 0.6508475 0.6542373 0.6508475 0.6525424
##  [43] 0.6491525 0.6508475 0.6508475 0.6525424 0.6525424 0.6525424 0.6508475
##  [50] 0.6542373 0.6559322 0.6491525 0.6508475 0.6559322 0.6525424 0.6542373
##  [57] 0.6525424 0.6525424 0.6525424 0.6525424 0.6508475 0.6542373 0.6508475
##  [64] 0.6542373 0.6491525 0.6508475 0.6525424 0.6525424 0.6559322 0.6559322
##  [71] 0.6559322 0.6542373 0.6508475 0.6525424 0.6508475 0.6525424 0.6508475
##  [78] 0.6474576 0.6559322 0.6559322 0.6525424 0.6491525 0.6508475 0.6559322
##  [85] 0.6474576 0.6559322 0.6491525 0.6525424 0.6542373 0.6542373 0.6542373
##  [92] 0.6508475 0.6542373 0.6593220 0.6491525 0.6525424 0.6525424 0.6508475
##  [99] 0.6559322 0.6491525 0.6542373 0.6508475 0.6542373 0.6474576 0.6542373
## [106] 0.6559322 0.6525424 0.6593220 0.6542373 0.6542373 0.6491525 0.6525424
## [113] 0.6525424 0.6491525 0.6559322 0.6559322 0.6508475 0.6542373 0.6474576
## [120] 0.6542373 0.6542373 0.6508475 0.6525424 0.6542373 0.6525424 0.6525424
## [127] 0.6525424 0.6508475 0.6576271 0.6491525 0.6576271 0.6491525 0.6525424
## [134] 0.6508475 0.6525424 0.6542373 0.6525424 0.6508475 0.6525424 0.6525424
## [141] 0.6525424 0.6525424 0.6508475 0.6559322 0.6508475 0.6525424 0.6542373
## [148] 0.6525424 0.6542373 0.6542373 0.6525424 0.6542373 0.6525424 0.6525424
## [155] 0.6542373 0.6542373 0.6508475 0.6508475 0.6508475 0.6542373 0.6542373
## [162] 0.6525424 0.6508475 0.6508475 0.6525424 0.6542373 0.6525424 0.6542373
## [169] 0.6542373 0.6525424 0.6491525 0.6491525 0.6508475 0.6542373 0.6525424
## [176] 0.6525424 0.6542373 0.6525424 0.6508475 0.6474576 0.6525424 0.6508475
## [183] 0.6525424 0.6491525 0.6542373 0.6491525 0.6525424 0.6576271 0.6610169
## [190] 0.6508475 0.6542373 0.6474576 0.6457627 0.6542373 0.6525424 0.6491525
## [197] 0.6525424 0.6593220 0.6542373 0.6508475 0.6491525 0.6491525 0.6542373
## [204] 0.6508475 0.6559322 0.6559322 0.6525424 0.6525424 0.6542373 0.6559322
## [211] 0.6525424 0.6525424 0.6508475 0.6525424 0.6508475 0.6525424 0.6525424
## [218] 0.6525424 0.6525424 0.6491525 0.6576271 0.6508475 0.6542373 0.6542373
## [225] 0.6559322 0.6508475 0.6508475 0.6542373 0.6491525 0.6525424 0.6491525
## [232] 0.6542373 0.6508475 0.6508475 0.6542373 0.6525424 0.6542373 0.6542373
## [239] 0.6474576 0.6474576 0.6644068 0.6576271 0.6508475 0.6525424 0.6542373
## [246] 0.6508475 0.6508475 0.6525424 0.6576271 0.6508475 0.6508475 0.6508475
## [253] 0.6491525 0.6542373 0.6542373 0.6525424 0.6525424 0.6542373 0.6474576
## [260] 0.6508475 0.6508475 0.6525424 0.6525424 0.6542373 0.6508475 0.6559322
## [267] 0.6491525 0.6508475 0.6542373 0.6525424 0.6508475 0.6491525 0.6525424
## [274] 0.6474576 0.6559322 0.6491525 0.6542373 0.6508475 0.6559322 0.6525424
## [281] 0.6474576 0.6508475 0.6525424 0.6491525 0.6525424 0.6542373 0.6525424
## [288] 0.6508475 0.6508475 0.6542373 0.6525424 0.6491525 0.6491525 0.6559322
## [295] 0.6508475 0.6508475 0.6525424 0.6491525 0.6525424 0.6542373 0.6508475
## [302] 0.6525424 0.6508475 0.6491525 0.6508475 0.6542373 0.6559322 0.6491525
## [309] 0.6542373 0.6542373 0.6542373 0.6474576 0.6474576 0.6542373 0.6525424
## [316] 0.6474576 0.6576271 0.6525424 0.6542373 0.6474576 0.6508475 0.6542373
## [323] 0.6508475 0.6508475 0.6525424 0.6491525 0.6559322 0.6542373 0.6559322
## [330] 0.6491525 0.6525424 0.6525424 0.6525424 0.6525424 0.6508475 0.6508475
## [337] 0.6508475 0.6508475 0.6508475 0.6525424 0.6593220 0.6542373 0.6525424
## [344] 0.6542373 0.6542373 0.6491525 0.6542373 0.6508475 0.6542373 0.6525424
## [351] 0.6508475 0.6508475 0.6508475 0.6525424 0.6542373 0.6525424 0.6508475
## [358] 0.6508475 0.6559322 0.6542373 0.6491525 0.6525424 0.6491525 0.6542373
## [365] 0.6508475 0.6525424 0.6559322 0.6491525 0.6508475 0.6508475 0.6525424
## [372] 0.6491525 0.6525424 0.6525424 0.6542373 0.6508475 0.6508475 0.6508475
## [379] 0.6542373 0.6508475 0.6474576 0.6525424 0.6542373 0.6525424 0.6508475
## [386] 0.6491525 0.6576271 0.6559322 0.6508475 0.6542373 0.6525424 0.6508475
## [393] 0.6542373 0.6491525 0.6525424 0.6491525 0.6525424 0.6525424 0.6508475
## [400] 0.6525424 0.6491525 0.6525424 0.6508475 0.6542373 0.6525424 0.6542373
## [407] 0.6525424 0.6508475 0.6525424 0.6542373 0.6508475 0.6542373 0.6525424
## [414] 0.6542373 0.6491525 0.6559322 0.6559322 0.6542373 0.6525424 0.6525424
## [421] 0.6508475 0.6508475 0.6508475 0.6559322 0.6525424 0.6559322 0.6542373
## [428] 0.6576271 0.6542373 0.6508475 0.6491525 0.6576271 0.6491525 0.6525424
## [435] 0.6559322 0.6559322 0.6559322 0.6508475 0.6525424 0.6525424 0.6542373
## [442] 0.6508475 0.6525424 0.6525424 0.6508475 0.6542373 0.6525424 0.6525424
## [449] 0.6559322 0.6542373 0.6542373 0.6508475 0.6525424 0.6525424 0.6542373
## [456] 0.6508475 0.6542373 0.6508475 0.6576271 0.6525424 0.6542373 0.6491525
## [463] 0.6474576 0.6508475 0.6576271 0.6508475 0.6542373 0.6542373 0.6525424
## [470] 0.6542373 0.6525424 0.6525424 0.6491525 0.6542373 0.6542373 0.6559322
## [477] 0.6525424 0.6542373 0.6508475 0.6508475 0.6559322 0.6559322 0.6508475
## [484] 0.6508475 0.6525424 0.6474576 0.6508475 0.6525424 0.6576271 0.6508475
## [491] 0.6542373 0.6542373 0.6525424 0.6525424 0.6525424 0.6559322 0.6474576
## [498] 0.6576271 0.6508475 0.6542373
for(j in 1:500){
  
  set.seed(j)
  
  folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
  train.set$fold <- folds
  
  
  # Using QDA to produce the CV error rate
  
  CV.error<-NULL 
  
  for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~OverallAvg, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  O.A.All<-c(O.A.All, sum(CV.error))
  
}

O.A.All
##   [1] 0.1711864 0.1677966 0.1627119 0.1677966 0.1576271 0.1644068 0.1644068
##   [8] 0.1728814 0.1627119 0.1593220 0.1661017 0.1711864 0.1610169 0.1677966
##  [15] 0.1627119 0.1661017 0.1677966 0.1728814 0.1627119 0.1711864 0.1593220
##  [22] 0.1661017 0.1694915 0.1644068 0.1677966 0.1661017 0.1644068 0.1644068
##  [29] 0.1644068 0.1593220 0.1593220 0.1593220 0.1644068 0.1610169 0.1677966
##  [36] 0.1677966 0.1593220 0.1661017 0.1661017 0.1677966 0.1661017 0.1627119
##  [43] 0.1627119 0.1627119 0.1728814 0.1627119 0.1661017 0.1661017 0.1627119
##  [50] 0.1694915 0.1661017 0.1644068 0.1627119 0.1661017 0.1694915 0.1610169
##  [57] 0.1627119 0.1661017 0.1593220 0.1694915 0.1677966 0.1661017 0.1661017
##  [64] 0.1694915 0.1661017 0.1661017 0.1525424 0.1644068 0.1661017 0.1593220
##  [71] 0.1644068 0.1677966 0.1610169 0.1627119 0.1728814 0.1694915 0.1610169
##  [78] 0.1644068 0.1661017 0.1644068 0.1610169 0.1661017 0.1593220 0.1661017
##  [85] 0.1644068 0.1745763 0.1593220 0.1661017 0.1661017 0.1644068 0.1610169
##  [92] 0.1627119 0.1610169 0.1644068 0.1627119 0.1711864 0.1627119 0.1644068
##  [99] 0.1644068 0.1644068 0.1627119 0.1644068 0.1661017 0.1627119 0.1644068
## [106] 0.1593220 0.1661017 0.1593220 0.1627119 0.1627119 0.1627119 0.1711864
## [113] 0.1627119 0.1644068 0.1644068 0.1644068 0.1593220 0.1661017 0.1644068
## [120] 0.1644068 0.1593220 0.1593220 0.1542373 0.1694915 0.1661017 0.1644068
## [127] 0.1694915 0.1627119 0.1694915 0.1644068 0.1610169 0.1542373 0.1644068
## [134] 0.1677966 0.1694915 0.1610169 0.1627119 0.1711864 0.1661017 0.1677966
## [141] 0.1610169 0.1576271 0.1644068 0.1728814 0.1661017 0.1627119 0.1627119
## [148] 0.1644068 0.1627119 0.1627119 0.1593220 0.1661017 0.1677966 0.1677966
## [155] 0.1627119 0.1627119 0.1661017 0.1644068 0.1711864 0.1610169 0.1644068
## [162] 0.1677966 0.1559322 0.1644068 0.1627119 0.1644068 0.1627119 0.1661017
## [169] 0.1627119 0.1711864 0.1779661 0.1677966 0.1644068 0.1661017 0.1627119
## [176] 0.1610169 0.1711864 0.1627119 0.1677966 0.1610169 0.1644068 0.1593220
## [183] 0.1644068 0.1610169 0.1694915 0.1644068 0.1677966 0.1694915 0.1644068
## [190] 0.1728814 0.1661017 0.1644068 0.1576271 0.1610169 0.1627119 0.1559322
## [197] 0.1644068 0.1677966 0.1627119 0.1677966 0.1610169 0.1610169 0.1661017
## [204] 0.1644068 0.1644068 0.1677966 0.1593220 0.1593220 0.1610169 0.1694915
## [211] 0.1627119 0.1661017 0.1627119 0.1694915 0.1677966 0.1627119 0.1644068
## [218] 0.1661017 0.1610169 0.1644068 0.1677966 0.1559322 0.1644068 0.1627119
## [225] 0.1677966 0.1711864 0.1644068 0.1661017 0.1576271 0.1677966 0.1610169
## [232] 0.1745763 0.1661017 0.1745763 0.1627119 0.1661017 0.1610169 0.1644068
## [239] 0.1661017 0.1661017 0.1644068 0.1627119 0.1644068 0.1576271 0.1627119
## [246] 0.1694915 0.1627119 0.1644068 0.1593220 0.1610169 0.1661017 0.1644068
## [253] 0.1627119 0.1661017 0.1661017 0.1728814 0.1627119 0.1627119 0.1627119
## [260] 0.1694915 0.1644068 0.1627119 0.1593220 0.1694915 0.1593220 0.1661017
## [267] 0.1610169 0.1728814 0.1677966 0.1661017 0.1661017 0.1728814 0.1661017
## [274] 0.1661017 0.1677966 0.1627119 0.1677966 0.1627119 0.1661017 0.1610169
## [281] 0.1644068 0.1644068 0.1610169 0.1694915 0.1610169 0.1610169 0.1627119
## [288] 0.1644068 0.1694915 0.1627119 0.1644068 0.1610169 0.1627119 0.1677966
## [295] 0.1627119 0.1677966 0.1661017 0.1576271 0.1661017 0.1661017 0.1661017
## [302] 0.1644068 0.1627119 0.1677966 0.1661017 0.1694915 0.1677966 0.1644068
## [309] 0.1644068 0.1593220 0.1610169 0.1644068 0.1610169 0.1677966 0.1576271
## [316] 0.1694915 0.1610169 0.1644068 0.1627119 0.1677966 0.1644068 0.1644068
## [323] 0.1644068 0.1627119 0.1610169 0.1576271 0.1644068 0.1627119 0.1627119
## [330] 0.1661017 0.1593220 0.1593220 0.1593220 0.1711864 0.1627119 0.1661017
## [337] 0.1677966 0.1644068 0.1576271 0.1644068 0.1711864 0.1661017 0.1593220
## [344] 0.1610169 0.1644068 0.1627119 0.1661017 0.1644068 0.1644068 0.1627119
## [351] 0.1610169 0.1677966 0.1661017 0.1644068 0.1644068 0.1644068 0.1694915
## [358] 0.1644068 0.1694915 0.1627119 0.1627119 0.1711864 0.1661017 0.1745763
## [365] 0.1677966 0.1644068 0.1627119 0.1610169 0.1644068 0.1593220 0.1644068
## [372] 0.1593220 0.1661017 0.1610169 0.1627119 0.1711864 0.1627119 0.1711864
## [379] 0.1593220 0.1644068 0.1661017 0.1610169 0.1644068 0.1677966 0.1644068
## [386] 0.1627119 0.1610169 0.1661017 0.1627119 0.1661017 0.1593220 0.1711864
## [393] 0.1644068 0.1644068 0.1644068 0.1661017 0.1644068 0.1610169 0.1677966
## [400] 0.1593220 0.1661017 0.1694915 0.1694915 0.1661017 0.1610169 0.1627119
## [407] 0.1694915 0.1694915 0.1644068 0.1711864 0.1627119 0.1644068 0.1694915
## [414] 0.1627119 0.1610169 0.1694915 0.1644068 0.1661017 0.1711864 0.1610169
## [421] 0.1694915 0.1593220 0.1627119 0.1644068 0.1677966 0.1644068 0.1576271
## [428] 0.1661017 0.1661017 0.1661017 0.1677966 0.1711864 0.1559322 0.1694915
## [435] 0.1694915 0.1627119 0.1661017 0.1644068 0.1677966 0.1644068 0.1644068
## [442] 0.1627119 0.1644068 0.1661017 0.1661017 0.1593220 0.1610169 0.1661017
## [449] 0.1728814 0.1677966 0.1627119 0.1661017 0.1644068 0.1661017 0.1593220
## [456] 0.1610169 0.1677966 0.1661017 0.1627119 0.1677966 0.1677966 0.1644068
## [463] 0.1677966 0.1677966 0.1627119 0.1644068 0.1627119 0.1661017 0.1745763
## [470] 0.1644068 0.1593220 0.1677966 0.1661017 0.1661017 0.1627119 0.1661017
## [477] 0.1728814 0.1677966 0.1627119 0.1728814 0.1593220 0.1627119 0.1694915
## [484] 0.1661017 0.1627119 0.1661017 0.1677966 0.1627119 0.1661017 0.1610169
## [491] 0.1627119 0.1661017 0.1644068 0.1559322 0.1610169 0.1677966 0.1644068
## [498] 0.1677966 0.1644068 0.1762712
for(j in 1:500){
  
  set.seed(j)
  
  folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
  train.set$fold <- folds
  
  
  # Using QDA to produce the CV error rate
  
  CV.error<-NULL 
  
  for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~OverallMeanAmp, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  O.M.A.All<-c(O.M.A.All, sum(CV.error))
  
}

O.M.A.All
##   [1] 0.4169492 0.4118644 0.4186441 0.4169492 0.4101695 0.4152542 0.4101695
##   [8] 0.4101695 0.4101695 0.4169492 0.4169492 0.4186441 0.4203390 0.4169492
##  [15] 0.4084746 0.4203390 0.4169492 0.4135593 0.4101695 0.4135593 0.4152542
##  [22] 0.4101695 0.4220339 0.4118644 0.4118644 0.4169492 0.4118644 0.4152542
##  [29] 0.4101695 0.4135593 0.4101695 0.4067797 0.4050847 0.4152542 0.4135593
##  [36] 0.4101695 0.4050847 0.4084746 0.4084746 0.4084746 0.4169492 0.4118644
##  [43] 0.4118644 0.4135593 0.4084746 0.4152542 0.4067797 0.4135593 0.4152542
##  [50] 0.4135593 0.4135593 0.4169492 0.4135593 0.4152542 0.4067797 0.4084746
##  [57] 0.4135593 0.4135593 0.4169492 0.4169492 0.4101695 0.4169492 0.4169492
##  [64] 0.4203390 0.4135593 0.4101695 0.4135593 0.4101695 0.4118644 0.4135593
##  [71] 0.4084746 0.4101695 0.4152542 0.4084746 0.4118644 0.4067797 0.4118644
##  [78] 0.4152542 0.4152542 0.4101695 0.4101695 0.4101695 0.4152542 0.4084746
##  [85] 0.4101695 0.4135593 0.4118644 0.4203390 0.4118644 0.4118644 0.4135593
##  [92] 0.4067797 0.4101695 0.4101695 0.4169492 0.4101695 0.4152542 0.4118644
##  [99] 0.4101695 0.4101695 0.4169492 0.4152542 0.4186441 0.4135593 0.4152542
## [106] 0.4118644 0.4084746 0.4101695 0.4169492 0.4169492 0.4118644 0.4152542
## [113] 0.4169492 0.4118644 0.4152542 0.4101695 0.4118644 0.4101695 0.4084746
## [120] 0.4118644 0.4101695 0.4135593 0.4101695 0.4152542 0.4118644 0.4101695
## [127] 0.4067797 0.4135593 0.4135593 0.4152542 0.4067797 0.4152542 0.4067797
## [134] 0.4152542 0.4084746 0.4169492 0.4067797 0.4135593 0.4152542 0.4118644
## [141] 0.4169492 0.4152542 0.4084746 0.4118644 0.4050847 0.4101695 0.4101695
## [148] 0.4016949 0.4169492 0.4135593 0.4152542 0.4135593 0.4101695 0.4118644
## [155] 0.4169492 0.4169492 0.4101695 0.4220339 0.4084746 0.4186441 0.4135593
## [162] 0.4152542 0.4203390 0.4084746 0.4135593 0.4169492 0.4152542 0.4118644
## [169] 0.4084746 0.4186441 0.4118644 0.4084746 0.4152542 0.4118644 0.4152542
## [176] 0.4152542 0.4118644 0.4118644 0.4169492 0.4101695 0.4101695 0.4118644
## [183] 0.4169492 0.4152542 0.4118644 0.4135593 0.4118644 0.4152542 0.4220339
## [190] 0.4118644 0.4135593 0.4152542 0.4186441 0.4118644 0.4152542 0.4135593
## [197] 0.4169492 0.4237288 0.4101695 0.4169492 0.4135593 0.4050847 0.4169492
## [204] 0.4084746 0.4118644 0.4135593 0.4152542 0.4135593 0.4101695 0.4169492
## [211] 0.4118644 0.4118644 0.4169492 0.4101695 0.4067797 0.4135593 0.4101695
## [218] 0.4118644 0.4084746 0.4186441 0.4118644 0.4084746 0.4084746 0.4135593
## [225] 0.4152542 0.4050847 0.4084746 0.4186441 0.4118644 0.4169492 0.4118644
## [232] 0.4084746 0.4152542 0.4169492 0.4169492 0.4101695 0.4152542 0.4135593
## [239] 0.4101695 0.4118644 0.4169492 0.4101695 0.4169492 0.4135593 0.4067797
## [246] 0.4101695 0.4101695 0.4101695 0.4101695 0.4118644 0.4169492 0.4084746
## [253] 0.4118644 0.4152542 0.4101695 0.4101695 0.4101695 0.4101695 0.4135593
## [260] 0.4118644 0.4084746 0.4084746 0.4118644 0.4084746 0.4101695 0.4220339
## [267] 0.4101695 0.4118644 0.4101695 0.4101695 0.4084746 0.4186441 0.4135593
## [274] 0.4152542 0.4084746 0.4135593 0.4135593 0.4169492 0.4169492 0.4118644
## [281] 0.4203390 0.4169492 0.4169492 0.4118644 0.4118644 0.4118644 0.4135593
## [288] 0.4050847 0.4118644 0.4118644 0.4084746 0.4152542 0.4118644 0.4118644
## [295] 0.4152542 0.4118644 0.4135593 0.4186441 0.4067797 0.4186441 0.4152542
## [302] 0.4118644 0.4118644 0.4118644 0.4135593 0.4084746 0.4135593 0.4152542
## [309] 0.4118644 0.4186441 0.4067797 0.4067797 0.4050847 0.4135593 0.4135593
## [316] 0.4101695 0.4118644 0.4118644 0.4135593 0.4101695 0.4101695 0.4016949
## [323] 0.4152542 0.4118644 0.4135593 0.4118644 0.4152542 0.4118644 0.4101695
## [330] 0.4135593 0.4169492 0.4135593 0.4152542 0.4135593 0.4084746 0.4169492
## [337] 0.4118644 0.4203390 0.4118644 0.4135593 0.4135593 0.4118644 0.4118644
## [344] 0.4118644 0.4135593 0.4101695 0.4186441 0.4152542 0.4050847 0.4118644
## [351] 0.4118644 0.4135593 0.4169492 0.4135593 0.4067797 0.4135593 0.4084746
## [358] 0.4101695 0.4152542 0.4152542 0.4101695 0.4135593 0.4203390 0.4135593
## [365] 0.4101695 0.4067797 0.4152542 0.4118644 0.4152542 0.4135593 0.4135593
## [372] 0.4067797 0.4152542 0.4101695 0.4084746 0.4118644 0.4118644 0.4084746
## [379] 0.4169492 0.4101695 0.4067797 0.4135593 0.4152542 0.4050847 0.4152542
## [386] 0.4220339 0.4101695 0.4152542 0.4152542 0.4084746 0.4118644 0.4169492
## [393] 0.4220339 0.4118644 0.4135593 0.4169492 0.4135593 0.4135593 0.4101695
## [400] 0.4067797 0.4186441 0.4084746 0.4152542 0.4203390 0.4118644 0.4067797
## [407] 0.4118644 0.4101695 0.4169492 0.4101695 0.4101695 0.4118644 0.4186441
## [414] 0.4084746 0.4152542 0.4118644 0.4203390 0.4101695 0.4186441 0.4152542
## [421] 0.4152542 0.4135593 0.4135593 0.4050847 0.4118644 0.4169492 0.4135593
## [428] 0.4152542 0.4169492 0.4118644 0.4101695 0.4050847 0.4186441 0.4101695
## [435] 0.4067797 0.4152542 0.4101695 0.4118644 0.4169492 0.4067797 0.4101695
## [442] 0.4186441 0.4169492 0.4203390 0.4101695 0.4169492 0.4135593 0.4135593
## [449] 0.4118644 0.4135593 0.4118644 0.4118644 0.4152542 0.4118644 0.4135593
## [456] 0.4118644 0.4101695 0.4067797 0.4118644 0.4101695 0.4067797 0.4118644
## [463] 0.4084746 0.4118644 0.4152542 0.4050847 0.4186441 0.4169492 0.4135593
## [470] 0.4084746 0.4118644 0.4152542 0.4135593 0.4152542 0.4118644 0.4169492
## [477] 0.4135593 0.4101695 0.4067797 0.4084746 0.4118644 0.4084746 0.4067797
## [484] 0.4118644 0.4118644 0.4186441 0.4135593 0.4237288 0.4118644 0.4101695
## [491] 0.4118644 0.4084746 0.4118644 0.4084746 0.4152542 0.4118644 0.4118644
## [498] 0.4101695 0.4101695 0.4152542
for(j in 1:500){
  
  set.seed(j)
  
  folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
  train.set$fold <- folds
  
  
  # Using QDA to produce the CV error rate
  
  CV.error<-NULL 
  
  for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~Longitude+Latitude, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  Lat.Long.All<-c(Lat.Long.All, sum(CV.error))
  
}

Lat.Long.All
##   [1] 0.2983051 0.3152542 0.2983051 0.3016949 0.3101695 0.3067797 0.3135593
##   [8] 0.2983051 0.3067797 0.2949153 0.3067797 0.3000000 0.3033898 0.3101695
##  [15] 0.3000000 0.3067797 0.3067797 0.3000000 0.3016949 0.2932203 0.3033898
##  [22] 0.2983051 0.3033898 0.3067797 0.3033898 0.3050847 0.3000000 0.3050847
##  [29] 0.3000000 0.2983051 0.2966102 0.3084746 0.3084746 0.3084746 0.3203390
##  [36] 0.3135593 0.3000000 0.2966102 0.2966102 0.3186441 0.3033898 0.3101695
##  [43] 0.3050847 0.2966102 0.2966102 0.2983051 0.3000000 0.3084746 0.3067797
##  [50] 0.3067797 0.3084746 0.3101695 0.3118644 0.3101695 0.3084746 0.2966102
##  [57] 0.2966102 0.3118644 0.3084746 0.3084746 0.3050847 0.3000000 0.3101695
##  [64] 0.2949153 0.2983051 0.3067797 0.2983051 0.3067797 0.3033898 0.2983051
##  [71] 0.3084746 0.3016949 0.3033898 0.3084746 0.3000000 0.3033898 0.3050847
##  [78] 0.3152542 0.3101695 0.3186441 0.3067797 0.3084746 0.3033898 0.3101695
##  [85] 0.3016949 0.3033898 0.3050847 0.2966102 0.3101695 0.3000000 0.3016949
##  [92] 0.3000000 0.3084746 0.3169492 0.3084746 0.3135593 0.3000000 0.2966102
##  [99] 0.3050847 0.3050847 0.3101695 0.2966102 0.3084746 0.3084746 0.3067797
## [106] 0.3118644 0.3084746 0.3050847 0.2949153 0.3016949 0.3016949 0.3050847
## [113] 0.3050847 0.3033898 0.3050847 0.3016949 0.3101695 0.3033898 0.3067797
## [120] 0.3050847 0.3016949 0.3101695 0.3101695 0.3050847 0.3101695 0.3084746
## [127] 0.3067797 0.3067797 0.3000000 0.3016949 0.3152542 0.3101695 0.3084746
## [134] 0.3067797 0.2932203 0.3000000 0.3050847 0.3033898 0.3169492 0.3101695
## [141] 0.3016949 0.3135593 0.3084746 0.2983051 0.3000000 0.3016949 0.2966102
## [148] 0.3101695 0.2915254 0.2983051 0.3000000 0.2983051 0.3118644 0.3033898
## [155] 0.3033898 0.3000000 0.3101695 0.3033898 0.3000000 0.3000000 0.3033898
## [162] 0.3135593 0.3118644 0.3067797 0.3050847 0.3016949 0.3067797 0.3033898
## [169] 0.3050847 0.3067797 0.2983051 0.3050847 0.3084746 0.3033898 0.3135593
## [176] 0.3067797 0.3033898 0.2983051 0.3016949 0.3101695 0.3033898 0.3033898
## [183] 0.3050847 0.3000000 0.3101695 0.2949153 0.3016949 0.3220339 0.3084746
## [190] 0.3050847 0.2915254 0.3033898 0.3000000 0.3101695 0.3135593 0.3016949
## [197] 0.3067797 0.3000000 0.3067797 0.2983051 0.3135593 0.3033898 0.3050847
## [204] 0.3016949 0.2983051 0.3186441 0.3152542 0.3152542 0.3067797 0.3000000
## [211] 0.3016949 0.2898305 0.3016949 0.3050847 0.3067797 0.3084746 0.3135593
## [218] 0.2983051 0.3000000 0.2983051 0.3101695 0.3033898 0.3084746 0.2966102
## [225] 0.3050847 0.3067797 0.3033898 0.2966102 0.3050847 0.3033898 0.3101695
## [232] 0.3186441 0.2983051 0.3050847 0.3050847 0.3067797 0.2915254 0.3135593
## [239] 0.2966102 0.3016949 0.3067797 0.3033898 0.2966102 0.3050847 0.2949153
## [246] 0.2898305 0.3016949 0.2983051 0.3000000 0.3084746 0.3084746 0.3050847
## [253] 0.2966102 0.2966102 0.3084746 0.3220339 0.3067797 0.3084746 0.3084746
## [260] 0.3033898 0.3016949 0.3152542 0.3067797 0.3050847 0.3118644 0.3033898
## [267] 0.3000000 0.3186441 0.3067797 0.3033898 0.3016949 0.3050847 0.3067797
## [274] 0.3050847 0.3067797 0.3016949 0.3016949 0.3016949 0.2966102 0.2966102
## [281] 0.3084746 0.3050847 0.2966102 0.3118644 0.3067797 0.3000000 0.3084746
## [288] 0.2915254 0.3220339 0.3033898 0.3118644 0.2966102 0.2949153 0.3033898
## [295] 0.3000000 0.3050847 0.3050847 0.3000000 0.3033898 0.3084746 0.2915254
## [302] 0.2949153 0.3050847 0.3118644 0.2983051 0.3033898 0.3000000 0.2915254
## [309] 0.3084746 0.3067797 0.3118644 0.3016949 0.3050847 0.3118644 0.3050847
## [316] 0.3050847 0.3101695 0.3067797 0.3084746 0.3118644 0.3067797 0.3067797
## [323] 0.3033898 0.3118644 0.3118644 0.2983051 0.2949153 0.3050847 0.3000000
## [330] 0.3033898 0.3050847 0.3050847 0.2983051 0.3067797 0.2949153 0.3084746
## [337] 0.2949153 0.3169492 0.2983051 0.3101695 0.3067797 0.3084746 0.3000000
## [344] 0.3050847 0.2915254 0.2949153 0.2983051 0.3000000 0.3033898 0.3050847
## [351] 0.3000000 0.3152542 0.3016949 0.3033898 0.3050847 0.3016949 0.3084746
## [358] 0.3101695 0.2949153 0.2983051 0.3000000 0.3152542 0.3118644 0.2983051
## [365] 0.2932203 0.3101695 0.3033898 0.3000000 0.3050847 0.3016949 0.3016949
## [372] 0.3000000 0.3084746 0.3033898 0.3033898 0.3033898 0.2949153 0.3169492
## [379] 0.3000000 0.2983051 0.3084746 0.3033898 0.3067797 0.3067797 0.3067797
## [386] 0.3000000 0.3016949 0.3084746 0.3016949 0.3084746 0.3067797 0.3016949
## [393] 0.3084746 0.2966102 0.2966102 0.3067797 0.3118644 0.2983051 0.3101695
## [400] 0.3118644 0.2966102 0.3135593 0.3101695 0.3033898 0.3118644 0.2898305
## [407] 0.2949153 0.2983051 0.3016949 0.3033898 0.3016949 0.3084746 0.3033898
## [414] 0.3033898 0.3084746 0.2949153 0.3000000 0.3033898 0.3135593 0.3067797
## [421] 0.2915254 0.3135593 0.3050847 0.3169492 0.3050847 0.3118644 0.3033898
## [428] 0.3084746 0.3033898 0.2966102 0.3000000 0.3101695 0.3033898 0.2983051
## [435] 0.3050847 0.3000000 0.3033898 0.3067797 0.3000000 0.3033898 0.3084746
## [442] 0.3067797 0.3016949 0.3067797 0.2966102 0.3016949 0.3084746 0.3101695
## [449] 0.3203390 0.3101695 0.3067797 0.3084746 0.3169492 0.3135593 0.3016949
## [456] 0.3016949 0.3050847 0.2932203 0.2966102 0.3118644 0.3118644 0.2932203
## [463] 0.3016949 0.3169492 0.3067797 0.3135593 0.3016949 0.3135593 0.3084746
## [470] 0.3050847 0.3033898 0.2966102 0.2915254 0.3033898 0.3033898 0.3016949
## [477] 0.3118644 0.3016949 0.3067797 0.3084746 0.3033898 0.3033898 0.3050847
## [484] 0.3000000 0.3000000 0.2966102 0.3050847 0.2983051 0.3033898 0.3084746
## [491] 0.3033898 0.3000000 0.3050847 0.2949153 0.3016949 0.3118644 0.2983051
## [498] 0.3118644 0.2966102 0.2949153
for(j in 1:500){
  
  set.seed(j)
  
  folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
  train.set$fold <- folds
  
  
  # Using QDA to produce the CV error rate
  
  CV.error<-NULL 
  
  for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~Latitude+OverallAvg, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  Lat.O.A.All<-c(Lat.O.A.All, sum(CV.error))
  
}

Lat.O.A.All
##   [1] 0.05254237 0.05593220 0.05254237 0.05762712 0.05593220 0.05762712
##   [7] 0.05084746 0.05423729 0.05423729 0.05593220 0.05932203 0.05593220
##  [13] 0.05932203 0.04915254 0.05423729 0.05593220 0.05593220 0.05084746
##  [19] 0.06440678 0.04745763 0.05423729 0.05762712 0.06101695 0.05762712
##  [25] 0.05762712 0.05423729 0.05593220 0.06271186 0.05423729 0.05254237
##  [31] 0.05254237 0.05762712 0.04406780 0.05084746 0.04915254 0.05593220
##  [37] 0.06101695 0.05423729 0.05254237 0.06440678 0.05932203 0.05084746
##  [43] 0.05762712 0.05084746 0.05932203 0.05932203 0.05423729 0.05423729
##  [49] 0.04915254 0.05084746 0.05084746 0.05593220 0.05932203 0.06101695
##  [55] 0.05762712 0.04915254 0.05593220 0.05762712 0.05932203 0.05084746
##  [61] 0.05762712 0.05593220 0.05084746 0.05423729 0.05423729 0.05762712
##  [67] 0.04576271 0.05423729 0.06101695 0.05593220 0.04576271 0.05084746
##  [73] 0.05593220 0.05084746 0.06101695 0.05593220 0.05762712 0.05084746
##  [79] 0.05423729 0.05593220 0.05423729 0.05084746 0.04915254 0.05254237
##  [85] 0.06440678 0.05932203 0.05423729 0.05423729 0.07288136 0.05762712
##  [91] 0.05762712 0.05932203 0.05423729 0.06101695 0.05762712 0.05762712
##  [97] 0.05254237 0.05423729 0.04745763 0.06101695 0.05932203 0.05932203
## [103] 0.05423729 0.05423729 0.05762712 0.05423729 0.05423729 0.05084746
## [109] 0.05423729 0.04915254 0.06271186 0.05762712 0.05423729 0.05762712
## [115] 0.05593220 0.04745763 0.05254237 0.05423729 0.05593220 0.05762712
## [121] 0.06271186 0.05254237 0.05593220 0.05254237 0.05423729 0.06101695
## [127] 0.05423729 0.05593220 0.05423729 0.05593220 0.05762712 0.06440678
## [133] 0.05762712 0.05254237 0.05932203 0.05593220 0.04915254 0.05254237
## [139] 0.05593220 0.05593220 0.05084746 0.05423729 0.05084746 0.05762712
## [145] 0.06271186 0.05084746 0.05593220 0.05084746 0.05423729 0.04745763
## [151] 0.05762712 0.05423729 0.06101695 0.05423729 0.05932203 0.05593220
## [157] 0.05254237 0.05932203 0.05084746 0.05084746 0.05762712 0.05254237
## [163] 0.05762712 0.05254237 0.04915254 0.05084746 0.06271186 0.05593220
## [169] 0.05084746 0.05593220 0.05932203 0.05762712 0.06440678 0.04406780
## [175] 0.05254237 0.05423729 0.05423729 0.05423729 0.06271186 0.05423729
## [181] 0.06101695 0.05423729 0.05423729 0.05762712 0.05593220 0.06101695
## [187] 0.05254237 0.05423729 0.05762712 0.05593220 0.05254237 0.04745763
## [193] 0.05084746 0.06101695 0.05593220 0.05932203 0.05084746 0.05593220
## [199] 0.06101695 0.05423729 0.06101695 0.05254237 0.05084746 0.05932203
## [205] 0.06271186 0.05762712 0.05084746 0.05762712 0.05593220 0.05593220
## [211] 0.05423729 0.06271186 0.05762712 0.05762712 0.05254237 0.05932203
## [217] 0.05423729 0.05423729 0.05593220 0.05762712 0.05593220 0.05254237
## [223] 0.05254237 0.05084746 0.05762712 0.05254237 0.05254237 0.05423729
## [229] 0.05932203 0.05593220 0.05254237 0.05593220 0.05593220 0.05423729
## [235] 0.05593220 0.05423729 0.05254237 0.06271186 0.06271186 0.05932203
## [241] 0.05423729 0.05084746 0.06610169 0.05254237 0.05423729 0.05762712
## [247] 0.05254237 0.05762712 0.05254237 0.04745763 0.05254237 0.04745763
## [253] 0.05423729 0.05593220 0.06440678 0.05254237 0.05254237 0.05762712
## [259] 0.05762712 0.05762712 0.04406780 0.05423729 0.04915254 0.05084746
## [265] 0.05423729 0.05762712 0.05423729 0.05932203 0.05254237 0.05762712
## [271] 0.05254237 0.06101695 0.06779661 0.05084746 0.05254237 0.05593220
## [277] 0.05932203 0.05932203 0.06610169 0.05593220 0.05932203 0.04745763
## [283] 0.05423729 0.05084746 0.05762712 0.04745763 0.06271186 0.05593220
## [289] 0.05593220 0.05932203 0.05423729 0.05254237 0.06271186 0.06271186
## [295] 0.05423729 0.05423729 0.05762712 0.05254237 0.05932203 0.05762712
## [301] 0.04745763 0.05423729 0.04745763 0.05254237 0.05084746 0.05254237
## [307] 0.06271186 0.05762712 0.06101695 0.05762712 0.05254237 0.05762712
## [313] 0.06440678 0.05423729 0.05762712 0.06101695 0.05593220 0.06101695
## [319] 0.05423729 0.05254237 0.05254237 0.05593220 0.05423729 0.05593220
## [325] 0.04915254 0.05084746 0.06101695 0.05084746 0.05084746 0.06101695
## [331] 0.05593220 0.05593220 0.05593220 0.05084746 0.05762712 0.05593220
## [337] 0.06440678 0.05932203 0.05254237 0.05423729 0.05762712 0.05254237
## [343] 0.05593220 0.05762712 0.06440678 0.05932203 0.06101695 0.04915254
## [349] 0.05084746 0.05932203 0.06271186 0.05593220 0.06271186 0.05423729
## [355] 0.05423729 0.05423729 0.05084746 0.05423729 0.05932203 0.05593220
## [361] 0.05254237 0.05932203 0.05254237 0.05762712 0.05254237 0.05084746
## [367] 0.05254237 0.06101695 0.05084746 0.04915254 0.05593220 0.05254237
## [373] 0.05423729 0.05762712 0.05593220 0.05423729 0.05084746 0.05084746
## [379] 0.05084746 0.05423729 0.05932203 0.05084746 0.05254237 0.05254237
## [385] 0.04745763 0.05762712 0.05084746 0.05254237 0.05423729 0.05423729
## [391] 0.05593220 0.05423729 0.05762712 0.05593220 0.06101695 0.04576271
## [397] 0.05084746 0.05423729 0.05593220 0.05762712 0.06440678 0.05932203
## [403] 0.05932203 0.05084746 0.05593220 0.06101695 0.05932203 0.04915254
## [409] 0.05254237 0.06101695 0.05423729 0.04915254 0.05254237 0.05932203
## [415] 0.05254237 0.05423729 0.05762712 0.05932203 0.05084746 0.05932203
## [421] 0.06440678 0.05254237 0.05254237 0.05593220 0.05593220 0.05762712
## [427] 0.05254237 0.04915254 0.05593220 0.05254237 0.05254237 0.05593220
## [433] 0.05423729 0.05762712 0.05254237 0.05254237 0.06101695 0.05423729
## [439] 0.05254237 0.05254237 0.06271186 0.06101695 0.05762712 0.05762712
## [445] 0.05593220 0.05084746 0.05423729 0.05762712 0.05932203 0.05423729
## [451] 0.05254237 0.05254237 0.06271186 0.05932203 0.05762712 0.05084746
## [457] 0.05593220 0.05762712 0.05084746 0.05593220 0.05593220 0.05932203
## [463] 0.05762712 0.05423729 0.05932203 0.06271186 0.05084746 0.05084746
## [469] 0.05932203 0.05254237 0.05254237 0.05084746 0.05593220 0.05084746
## [475] 0.05423729 0.05423729 0.06101695 0.05423729 0.06101695 0.05932203
## [481] 0.05423729 0.05084746 0.05762712 0.06271186 0.05423729 0.05254237
## [487] 0.05254237 0.05254237 0.05254237 0.05593220 0.05084746 0.05593220
## [493] 0.05423729 0.04745763 0.05593220 0.05762712 0.05254237 0.05254237
## [499] 0.05423729 0.05593220
for(j in 1:500){
  
  set.seed(j)
  
  folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
  train.set$fold <- folds
  
  
  # Using QDA to produce the CV error rate
  
  CV.error<-NULL 
  
  for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~Latitude + OverallMeanAmp, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  Lat.O.M.A.All<-c(Lat.O.M.A.All, sum(CV.error))
  
}

Lat.O.M.A.All
##   [1] 0.2322034 0.2338983 0.2423729 0.2338983 0.2406780 0.2305085 0.2322034
##   [8] 0.2372881 0.2355932 0.2288136 0.2372881 0.2322034 0.2372881 0.2322034
##  [15] 0.2372881 0.2305085 0.2406780 0.2406780 0.2322034 0.2355932 0.2305085
##  [22] 0.2237288 0.2406780 0.2372881 0.2271186 0.2338983 0.2288136 0.2254237
##  [29] 0.2305085 0.2338983 0.2305085 0.2355932 0.2305085 0.2305085 0.2389831
##  [36] 0.2372881 0.2406780 0.2338983 0.2322034 0.2406780 0.2372881 0.2423729
##  [43] 0.2474576 0.2372881 0.2406780 0.2338983 0.2305085 0.2423729 0.2372881
##  [50] 0.2305085 0.2271186 0.2338983 0.2389831 0.2372881 0.2322034 0.2389831
##  [57] 0.2288136 0.2372881 0.2406780 0.2322034 0.2389831 0.2406780 0.2389831
##  [64] 0.2322034 0.2389831 0.2423729 0.2288136 0.2372881 0.2338983 0.2322034
##  [71] 0.2305085 0.2355932 0.2406780 0.2305085 0.2338983 0.2355932 0.2355932
##  [78] 0.2389831 0.2355932 0.2288136 0.2372881 0.2372881 0.2355932 0.2322034
##  [85] 0.2338983 0.2305085 0.2355932 0.2355932 0.2389831 0.2288136 0.2355932
##  [92] 0.2406780 0.2288136 0.2338983 0.2305085 0.2322034 0.2288136 0.2305085
##  [99] 0.2305085 0.2271186 0.2305085 0.2305085 0.2338983 0.2305085 0.2406780
## [106] 0.2406780 0.2338983 0.2305085 0.2338983 0.2305085 0.2338983 0.2322034
## [113] 0.2338983 0.2322034 0.2271186 0.2305085 0.2288136 0.2254237 0.2338983
## [120] 0.2389831 0.2372881 0.2338983 0.2322034 0.2305085 0.2372881 0.2305085
## [127] 0.2305085 0.2338983 0.2355932 0.2338983 0.2322034 0.2305085 0.2338983
## [134] 0.2355932 0.2338983 0.2338983 0.2338983 0.2355932 0.2322034 0.2355932
## [141] 0.2237288 0.2271186 0.2288136 0.2406780 0.2305085 0.2338983 0.2254237
## [148] 0.2322034 0.2355932 0.2322034 0.2372881 0.2322034 0.2389831 0.2372881
## [155] 0.2322034 0.2322034 0.2372881 0.2305085 0.2338983 0.2288136 0.2322034
## [162] 0.2237288 0.2322034 0.2338983 0.2305085 0.2288136 0.2322034 0.2372881
## [169] 0.2271186 0.2389831 0.2322034 0.2338983 0.2338983 0.2338983 0.2355932
## [176] 0.2322034 0.2288136 0.2406780 0.2322034 0.2440678 0.2355932 0.2372881
## [183] 0.2305085 0.2372881 0.2288136 0.2322034 0.2322034 0.2355932 0.2355932
## [190] 0.2271186 0.2406780 0.2406780 0.2338983 0.2305085 0.2389831 0.2389831
## [197] 0.2372881 0.2288136 0.2271186 0.2355932 0.2372881 0.2305085 0.2322034
## [204] 0.2305085 0.2288136 0.2372881 0.2338983 0.2322034 0.2271186 0.2305085
## [211] 0.2389831 0.2372881 0.2423729 0.2355932 0.2305085 0.2288136 0.2406780
## [218] 0.2423729 0.2338983 0.2305085 0.2440678 0.2288136 0.2355932 0.2355932
## [225] 0.2338983 0.2305085 0.2338983 0.2322034 0.2423729 0.2406780 0.2322034
## [232] 0.2389831 0.2423729 0.2305085 0.2389831 0.2372881 0.2288136 0.2338983
## [239] 0.2338983 0.2355932 0.2288136 0.2271186 0.2389831 0.2305085 0.2322034
## [246] 0.2355932 0.2372881 0.2406780 0.2355932 0.2322034 0.2406780 0.2389831
## [253] 0.2423729 0.2305085 0.2322034 0.2406780 0.2305085 0.2322034 0.2355932
## [260] 0.2322034 0.2338983 0.2372881 0.2355932 0.2406780 0.2271186 0.2305085
## [267] 0.2355932 0.2372881 0.2305085 0.2338983 0.2406780 0.2338983 0.2322034
## [274] 0.2288136 0.2305085 0.2338983 0.2355932 0.2355932 0.2271186 0.2288136
## [281] 0.2322034 0.2372881 0.2288136 0.2305085 0.2237288 0.2322034 0.2355932
## [288] 0.2220339 0.2305085 0.2305085 0.2372881 0.2338983 0.2338983 0.2355932
## [295] 0.2355932 0.2372881 0.2355932 0.2322034 0.2288136 0.2338983 0.2305085
## [302] 0.2288136 0.2237288 0.2338983 0.2305085 0.2389831 0.2288136 0.2271186
## [309] 0.2389831 0.2322034 0.2423729 0.2372881 0.2338983 0.2389831 0.2355932
## [316] 0.2406780 0.2338983 0.2322034 0.2322034 0.2237288 0.2305085 0.2406780
## [323] 0.2254237 0.2322034 0.2389831 0.2355932 0.2355932 0.2338983 0.2322034
## [330] 0.2355932 0.2372881 0.2338983 0.2322034 0.2372881 0.2372881 0.2305085
## [337] 0.2254237 0.2423729 0.2372881 0.2355932 0.2305085 0.2322034 0.2305085
## [344] 0.2271186 0.2338983 0.2305085 0.2305085 0.2288136 0.2338983 0.2322034
## [351] 0.2322034 0.2389831 0.2372881 0.2406780 0.2322034 0.2338983 0.2338983
## [358] 0.2372881 0.2288136 0.2423729 0.2322034 0.2305085 0.2440678 0.2372881
## [365] 0.2440678 0.2440678 0.2237288 0.2305085 0.2406780 0.2338983 0.2322034
## [372] 0.2288136 0.2305085 0.2372881 0.2423729 0.2372881 0.2322034 0.2457627
## [379] 0.2389831 0.2305085 0.2355932 0.2355932 0.2271186 0.2305085 0.2338983
## [386] 0.2338983 0.2288136 0.2338983 0.2305085 0.2288136 0.2355932 0.2406780
## [393] 0.2423729 0.2305085 0.2338983 0.2440678 0.2305085 0.2372881 0.2406780
## [400] 0.2372881 0.2288136 0.2305085 0.2423729 0.2372881 0.2322034 0.2338983
## [407] 0.2254237 0.2474576 0.2305085 0.2338983 0.2338983 0.2372881 0.2389831
## [414] 0.2305085 0.2355932 0.2355932 0.2355932 0.2406780 0.2372881 0.2338983
## [421] 0.2322034 0.2338983 0.2288136 0.2355932 0.2322034 0.2305085 0.2338983
## [428] 0.2271186 0.2338983 0.2254237 0.2355932 0.2322034 0.2355932 0.2406780
## [435] 0.2322034 0.2338983 0.2338983 0.2389831 0.2372881 0.2355932 0.2355932
## [442] 0.2288136 0.2355932 0.2406780 0.2372881 0.2305085 0.2355932 0.2322034
## [449] 0.2322034 0.2423729 0.2423729 0.2389831 0.2305085 0.2322034 0.2305085
## [456] 0.2355932 0.2406780 0.2305085 0.2355932 0.2338983 0.2271186 0.2338983
## [463] 0.2322034 0.2305085 0.2271186 0.2237288 0.2288136 0.2288136 0.2322034
## [470] 0.2288136 0.2322034 0.2338983 0.2305085 0.2372881 0.2288136 0.2406780
## [477] 0.2406780 0.2338983 0.2372881 0.2423729 0.2355932 0.2322034 0.2288136
## [484] 0.2322034 0.2322034 0.2338983 0.2288136 0.2338983 0.2305085 0.2271186
## [491] 0.2355932 0.2305085 0.2389831 0.2254237 0.2322034 0.2406780 0.2355932
## [498] 0.2305085 0.2406780 0.2423729
for(j in 1:500){
  
  set.seed(j)
  
  folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
  train.set$fold <- folds
  
  
  # Using QDA to produce the CV error rate
  
  CV.error<-NULL 
  
  for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~Longitude + OverallAvg, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  Long.O.A.All<-c(Long.O.A.All, sum(CV.error))
  
}

Long.O.A.All
##   [1] 0.1457627 0.1389831 0.1389831 0.1389831 0.1389831 0.1423729 0.1440678
##   [8] 0.1491525 0.1440678 0.1355932 0.1440678 0.1508475 0.1406780 0.1474576
##  [15] 0.1525424 0.1457627 0.1457627 0.1406780 0.1389831 0.1457627 0.1440678
##  [22] 0.1406780 0.1440678 0.1389831 0.1372881 0.1389831 0.1440678 0.1406780
##  [29] 0.1576271 0.1355932 0.1338983 0.1423729 0.1423729 0.1372881 0.1355932
##  [36] 0.1406780 0.1406780 0.1372881 0.1389831 0.1389831 0.1372881 0.1355932
##  [43] 0.1372881 0.1389831 0.1355932 0.1355932 0.1355932 0.1474576 0.1406780
##  [50] 0.1406780 0.1474576 0.1474576 0.1474576 0.1423729 0.1457627 0.1322034
##  [57] 0.1423729 0.1389831 0.1406780 0.1423729 0.1457627 0.1389831 0.1372881
##  [64] 0.1322034 0.1389831 0.1389831 0.1338983 0.1406780 0.1406780 0.1372881
##  [71] 0.1457627 0.1338983 0.1389831 0.1440678 0.1322034 0.1372881 0.1389831
##  [78] 0.1474576 0.1525424 0.1423729 0.1440678 0.1406780 0.1372881 0.1406780
##  [85] 0.1457627 0.1440678 0.1423729 0.1355932 0.1372881 0.1372881 0.1372881
##  [92] 0.1406780 0.1389831 0.1406780 0.1389831 0.1423729 0.1372881 0.1389831
##  [99] 0.1389831 0.1406780 0.1406780 0.1389831 0.1440678 0.1322034 0.1406780
## [106] 0.1372881 0.1389831 0.1372881 0.1491525 0.1474576 0.1508475 0.1338983
## [113] 0.1457627 0.1423729 0.1372881 0.1406780 0.1406780 0.1457627 0.1406780
## [120] 0.1389831 0.1406780 0.1457627 0.1457627 0.1423729 0.1406780 0.1389831
## [127] 0.1423729 0.1406780 0.1423729 0.1406780 0.1389831 0.1288136 0.1288136
## [134] 0.1474576 0.1355932 0.1423729 0.1338983 0.1355932 0.1406780 0.1338983
## [141] 0.1423729 0.1508475 0.1423729 0.1423729 0.1423729 0.1338983 0.1389831
## [148] 0.1389831 0.1406780 0.1423729 0.1355932 0.1423729 0.1440678 0.1406780
## [155] 0.1406780 0.1423729 0.1440678 0.1338983 0.1355932 0.1440678 0.1440678
## [162] 0.1423729 0.1389831 0.1338983 0.1406780 0.1474576 0.1474576 0.1440678
## [169] 0.1440678 0.1474576 0.1440678 0.1440678 0.1474576 0.1389831 0.1406780
## [176] 0.1355932 0.1440678 0.1372881 0.1542373 0.1406780 0.1406780 0.1389831
## [183] 0.1440678 0.1389831 0.1440678 0.1457627 0.1355932 0.1389831 0.1389831
## [190] 0.1491525 0.1322034 0.1406780 0.1355932 0.1474576 0.1355932 0.1288136
## [197] 0.1372881 0.1474576 0.1338983 0.1372881 0.1474576 0.1406780 0.1355932
## [204] 0.1508475 0.1440678 0.1440678 0.1440678 0.1457627 0.1423729 0.1423729
## [211] 0.1389831 0.1474576 0.1423729 0.1389831 0.1508475 0.1389831 0.1525424
## [218] 0.1457627 0.1372881 0.1406780 0.1423729 0.1423729 0.1338983 0.1389831
## [225] 0.1389831 0.1389831 0.1355932 0.1406780 0.1406780 0.1389831 0.1355932
## [232] 0.1440678 0.1389831 0.1457627 0.1440678 0.1372881 0.1406780 0.1338983
## [239] 0.1474576 0.1423729 0.1423729 0.1389831 0.1355932 0.1440678 0.1406780
## [246] 0.1372881 0.1372881 0.1474576 0.1389831 0.1355932 0.1474576 0.1389831
## [253] 0.1389831 0.1406780 0.1423729 0.1406780 0.1338983 0.1440678 0.1423729
## [260] 0.1440678 0.1389831 0.1355932 0.1406780 0.1389831 0.1355932 0.1406780
## [267] 0.1372881 0.1491525 0.1440678 0.1423729 0.1440678 0.1440678 0.1440678
## [274] 0.1423729 0.1406780 0.1440678 0.1423729 0.1355932 0.1372881 0.1338983
## [281] 0.1389831 0.1322034 0.1440678 0.1372881 0.1457627 0.1440678 0.1322034
## [288] 0.1457627 0.1406780 0.1440678 0.1372881 0.1355932 0.1474576 0.1389831
## [295] 0.1440678 0.1423729 0.1440678 0.1338983 0.1406780 0.1440678 0.1372881
## [302] 0.1355932 0.1372881 0.1406780 0.1457627 0.1338983 0.1457627 0.1355932
## [309] 0.1355932 0.1457627 0.1474576 0.1440678 0.1406780 0.1372881 0.1406780
## [316] 0.1406780 0.1355932 0.1440678 0.1423729 0.1372881 0.1389831 0.1406780
## [323] 0.1355932 0.1254237 0.1457627 0.1355932 0.1406780 0.1406780 0.1389831
## [330] 0.1423729 0.1355932 0.1457627 0.1355932 0.1508475 0.1389831 0.1423729
## [337] 0.1288136 0.1457627 0.1406780 0.1474576 0.1423729 0.1372881 0.1355932
## [344] 0.1423729 0.1389831 0.1406780 0.1457627 0.1372881 0.1338983 0.1355932
## [351] 0.1389831 0.1355932 0.1355932 0.1389831 0.1389831 0.1389831 0.1423729
## [358] 0.1474576 0.1406780 0.1389831 0.1389831 0.1508475 0.1423729 0.1457627
## [365] 0.1423729 0.1372881 0.1389831 0.1457627 0.1355932 0.1457627 0.1474576
## [372] 0.1305085 0.1525424 0.1372881 0.1406780 0.1406780 0.1355932 0.1423729
## [379] 0.1372881 0.1406780 0.1389831 0.1423729 0.1423729 0.1355932 0.1440678
## [386] 0.1355932 0.1322034 0.1457627 0.1508475 0.1338983 0.1423729 0.1355932
## [393] 0.1406780 0.1474576 0.1423729 0.1406780 0.1372881 0.1389831 0.1389831
## [400] 0.1406780 0.1389831 0.1457627 0.1423729 0.1423729 0.1355932 0.1338983
## [407] 0.1372881 0.1389831 0.1440678 0.1423729 0.1423729 0.1372881 0.1355932
## [414] 0.1338983 0.1423729 0.1355932 0.1457627 0.1440678 0.1525424 0.1372881
## [421] 0.1457627 0.1406780 0.1389831 0.1372881 0.1355932 0.1423729 0.1355932
## [428] 0.1355932 0.1389831 0.1457627 0.1338983 0.1423729 0.1389831 0.1389831
## [435] 0.1440678 0.1372881 0.1355932 0.1389831 0.1322034 0.1372881 0.1457627
## [442] 0.1322034 0.1406780 0.1389831 0.1372881 0.1338983 0.1406780 0.1474576
## [449] 0.1508475 0.1406780 0.1406780 0.1406780 0.1389831 0.1423729 0.1305085
## [456] 0.1338983 0.1338983 0.1389831 0.1338983 0.1372881 0.1406780 0.1440678
## [463] 0.1457627 0.1423729 0.1423729 0.1372881 0.1389831 0.1406780 0.1457627
## [470] 0.1406780 0.1474576 0.1508475 0.1406780 0.1406780 0.1372881 0.1440678
## [477] 0.1372881 0.1406780 0.1423729 0.1440678 0.1338983 0.1406780 0.1355932
## [484] 0.1406780 0.1389831 0.1322034 0.1423729 0.1525424 0.1406780 0.1389831
## [491] 0.1355932 0.1389831 0.1457627 0.1322034 0.1389831 0.1423729 0.1338983
## [498] 0.1355932 0.1440678 0.1406780
for(j in 1:500){
  
  set.seed(j)
  
  folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
  train.set$fold <- folds
  
  
  # Using QDA to produce the CV error rate
  
  CV.error<-NULL 
  
  for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~Longitude+OverallMeanAmp, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  Long.O.M.A.All<-c(Long.O.M.A.All, sum(CV.error))
  
}

Long.O.M.A.All
##   [1] 0.4305085 0.4220339 0.4271186 0.4288136 0.4152542 0.4305085 0.4203390
##   [8] 0.4237288 0.4322034 0.4203390 0.4288136 0.4271186 0.4271186 0.4203390
##  [15] 0.4271186 0.4271186 0.4271186 0.4220339 0.4237288 0.4186441 0.4220339
##  [22] 0.4084746 0.4288136 0.4220339 0.4237288 0.4237288 0.4203390 0.4338983
##  [29] 0.4220339 0.4237288 0.4220339 0.4322034 0.4186441 0.4169492 0.4288136
##  [36] 0.4237288 0.4254237 0.4305085 0.4254237 0.4101695 0.4220339 0.4305085
##  [43] 0.4152542 0.4305085 0.4237288 0.4288136 0.4220339 0.4084746 0.4135593
##  [50] 0.4220339 0.4237288 0.4254237 0.4220339 0.4203390 0.4135593 0.4271186
##  [57] 0.4220339 0.4152542 0.4305085 0.4237288 0.4186441 0.4203390 0.4271186
##  [64] 0.4237288 0.4220339 0.4237288 0.4169492 0.4101695 0.4169492 0.4254237
##  [71] 0.4220339 0.4220339 0.4305085 0.4101695 0.4254237 0.4169492 0.4135593
##  [78] 0.4118644 0.4254237 0.4237288 0.4186441 0.4220339 0.4186441 0.4288136
##  [85] 0.4186441 0.4169492 0.4203390 0.4220339 0.4135593 0.4203390 0.4152542
##  [92] 0.4203390 0.4254237 0.4220339 0.4254237 0.4271186 0.4220339 0.4237288
##  [99] 0.4305085 0.4186441 0.4186441 0.4135593 0.4237288 0.4203390 0.4220339
## [106] 0.4186441 0.4271186 0.4186441 0.4220339 0.4203390 0.4169492 0.4254237
## [113] 0.4271186 0.4186441 0.4271186 0.4338983 0.4237288 0.4135593 0.4203390
## [120] 0.4186441 0.4203390 0.4169492 0.4237288 0.4288136 0.4101695 0.4271186
## [127] 0.4203390 0.4169492 0.4322034 0.4355932 0.4118644 0.4305085 0.4186441
## [134] 0.4322034 0.4220339 0.4169492 0.4135593 0.4220339 0.4203390 0.4237288
## [141] 0.4254237 0.4237288 0.4254237 0.4203390 0.4135593 0.4237288 0.4237288
## [148] 0.4169492 0.4186441 0.4254237 0.4220339 0.4118644 0.4271186 0.4135593
## [155] 0.4288136 0.4254237 0.4186441 0.4152542 0.4169492 0.4135593 0.4254237
## [162] 0.4186441 0.4288136 0.4169492 0.4169492 0.4338983 0.4220339 0.4254237
## [169] 0.4152542 0.4322034 0.4271186 0.4254237 0.4338983 0.4203390 0.4203390
## [176] 0.4288136 0.4186441 0.4220339 0.4203390 0.4169492 0.4169492 0.4288136
## [183] 0.4186441 0.4220339 0.4169492 0.4322034 0.4169492 0.4220339 0.4220339
## [190] 0.4288136 0.4220339 0.4169492 0.4203390 0.4220339 0.4203390 0.4118644
## [197] 0.4322034 0.4254237 0.4237288 0.4203390 0.4237288 0.4220339 0.4389831
## [204] 0.4186441 0.4186441 0.4254237 0.4271186 0.4305085 0.4254237 0.4237288
## [211] 0.4152542 0.4169492 0.4203390 0.4152542 0.4169492 0.4237288 0.4271186
## [218] 0.4322034 0.4186441 0.4203390 0.4288136 0.4288136 0.4118644 0.4169492
## [225] 0.4152542 0.4067797 0.4220339 0.4169492 0.4135593 0.4169492 0.4237288
## [232] 0.4220339 0.4237288 0.4237288 0.4254237 0.4338983 0.4220339 0.4237288
## [239] 0.4271186 0.4254237 0.4237288 0.4288136 0.4118644 0.4203390 0.4220339
## [246] 0.4220339 0.4186441 0.4288136 0.4338983 0.4203390 0.4237288 0.4305085
## [253] 0.4203390 0.4169492 0.4203390 0.4254237 0.4152542 0.4203390 0.4271186
## [260] 0.4169492 0.4237288 0.4288136 0.4135593 0.4220339 0.4203390 0.4220339
## [267] 0.4372881 0.4118644 0.4203390 0.4220339 0.4203390 0.4254237 0.4254237
## [274] 0.4254237 0.4288136 0.4203390 0.4305085 0.4237288 0.4271186 0.4135593
## [281] 0.4135593 0.4169492 0.4254237 0.4203390 0.4186441 0.4203390 0.4254237
## [288] 0.4169492 0.4203390 0.4322034 0.4220339 0.4152542 0.4220339 0.4220339
## [295] 0.4169492 0.4169492 0.4203390 0.4338983 0.4135593 0.4203390 0.4288136
## [302] 0.4271186 0.4271186 0.4220339 0.4101695 0.4067797 0.4423729 0.4254237
## [309] 0.4220339 0.4322034 0.4254237 0.4322034 0.4169492 0.4305085 0.4237288
## [316] 0.4254237 0.4135593 0.4237288 0.4203390 0.4288136 0.4152542 0.4101695
## [323] 0.4254237 0.4186441 0.4322034 0.4220339 0.4322034 0.4220339 0.4254237
## [330] 0.4288136 0.4220339 0.4203390 0.4220339 0.4288136 0.4271186 0.4186441
## [337] 0.4186441 0.4254237 0.4118644 0.4254237 0.4118644 0.4118644 0.4237288
## [344] 0.4084746 0.4237288 0.4372881 0.4220339 0.4203390 0.4118644 0.4169492
## [351] 0.4186441 0.4254237 0.4254237 0.4220339 0.4220339 0.4220339 0.4220339
## [358] 0.4254237 0.4050847 0.4169492 0.4186441 0.4254237 0.4237288 0.4254237
## [365] 0.4288136 0.4338983 0.4237288 0.4135593 0.4220339 0.4067797 0.4237288
## [372] 0.4220339 0.4237288 0.4169492 0.4220339 0.4169492 0.4254237 0.4186441
## [379] 0.4254237 0.4271186 0.4271186 0.4186441 0.4237288 0.4220339 0.4254237
## [386] 0.4186441 0.4220339 0.4254237 0.4271186 0.4135593 0.4186441 0.4305085
## [393] 0.4220339 0.4220339 0.4186441 0.4220339 0.4237288 0.4203390 0.4169492
## [400] 0.4271186 0.4338983 0.4220339 0.4271186 0.4203390 0.4220339 0.4389831
## [407] 0.4169492 0.4169492 0.4237288 0.4203390 0.4084746 0.4322034 0.4254237
## [414] 0.4288136 0.4322034 0.4237288 0.4169492 0.4305085 0.4203390 0.4186441
## [421] 0.4322034 0.4169492 0.4169492 0.4186441 0.4220339 0.4118644 0.4169492
## [428] 0.4186441 0.4237288 0.4152542 0.4169492 0.4271186 0.4237288 0.4169492
## [435] 0.4135593 0.4288136 0.4169492 0.4220339 0.4169492 0.4254237 0.4322034
## [442] 0.4220339 0.4237288 0.4203390 0.4220339 0.4169492 0.4288136 0.4169492
## [449] 0.4254237 0.4220339 0.4169492 0.4220339 0.4305085 0.4220339 0.4118644
## [456] 0.4271186 0.4186441 0.4220339 0.4118644 0.4203390 0.4254237 0.4237288
## [463] 0.4203390 0.4203390 0.4237288 0.4254237 0.4271186 0.4203390 0.4271186
## [470] 0.4322034 0.4254237 0.4169492 0.4118644 0.4203390 0.4220339 0.4186441
## [477] 0.4203390 0.4169492 0.4118644 0.4254237 0.4254237 0.4254237 0.4288136
## [484] 0.4152542 0.4254237 0.4135593 0.4372881 0.4220339 0.4338983 0.4186441
## [491] 0.4186441 0.4254237 0.4186441 0.4237288 0.4169492 0.4271186 0.4135593
## [498] 0.4271186 0.4203390 0.4288136
for(j in 1:500){
  
  set.seed(j)
  
  folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
  train.set$fold <- folds
  
  
  # Using QDA to produce the CV error rate
  
  CV.error<-NULL 
  
  for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~OverallAvg+OverallMeanAmp, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  O.A.O.M.A.All<-c(O.A.O.M.A.All, sum(CV.error))
  
}

O.A.O.M.A.All
##   [1] 0.09491525 0.09491525 0.09661017 0.09322034 0.09152542 0.08644068
##   [7] 0.09322034 0.09322034 0.09830508 0.09491525 0.08983051 0.08983051
##  [13] 0.08813559 0.09152542 0.09152542 0.08983051 0.09491525 0.09322034
##  [19] 0.08983051 0.09661017 0.09152542 0.09152542 0.09661017 0.09322034
##  [25] 0.09661017 0.09152542 0.09661017 0.09322034 0.08983051 0.08813559
##  [31] 0.09152542 0.09152542 0.08644068 0.09322034 0.10000000 0.09322034
##  [37] 0.09830508 0.09322034 0.09322034 0.09322034 0.09322034 0.08813559
##  [43] 0.09661017 0.09152542 0.09322034 0.09152542 0.09322034 0.08474576
##  [49] 0.09491525 0.09491525 0.09491525 0.09322034 0.09152542 0.10000000
##  [55] 0.09322034 0.09491525 0.09491525 0.09152542 0.09830508 0.09152542
##  [61] 0.09491525 0.09830508 0.09152542 0.09322034 0.09322034 0.09830508
##  [67] 0.08644068 0.09661017 0.09661017 0.09661017 0.09491525 0.10000000
##  [73] 0.08644068 0.09152542 0.08983051 0.09661017 0.09322034 0.10000000
##  [79] 0.09491525 0.09491525 0.08983051 0.09322034 0.08983051 0.09322034
##  [85] 0.09322034 0.10169492 0.09152542 0.09661017 0.09322034 0.09491525
##  [91] 0.08813559 0.08644068 0.09152542 0.08983051 0.08983051 0.08813559
##  [97] 0.09491525 0.09152542 0.09491525 0.09322034 0.08644068 0.08474576
## [103] 0.09152542 0.08474576 0.09491525 0.08644068 0.09152542 0.08644068
## [109] 0.09661017 0.09491525 0.08644068 0.09491525 0.09322034 0.08644068
## [115] 0.09661017 0.08983051 0.08474576 0.08813559 0.09152542 0.09491525
## [121] 0.09661017 0.09830508 0.09491525 0.08474576 0.10169492 0.09830508
## [127] 0.08983051 0.08135593 0.09491525 0.09661017 0.09152542 0.09322034
## [133] 0.08983051 0.09322034 0.08983051 0.09152542 0.08644068 0.08983051
## [139] 0.09322034 0.08644068 0.09322034 0.08813559 0.09152542 0.08644068
## [145] 0.09830508 0.09491525 0.09152542 0.09152542 0.09661017 0.09152542
## [151] 0.09491525 0.09491525 0.08983051 0.09152542 0.09491525 0.09491525
## [157] 0.09152542 0.09661017 0.08644068 0.09491525 0.09152542 0.09322034
## [163] 0.09152542 0.09152542 0.09322034 0.08813559 0.09661017 0.09491525
## [169] 0.08813559 0.10000000 0.08644068 0.09491525 0.09322034 0.08813559
## [175] 0.08983051 0.08983051 0.09152542 0.09830508 0.09830508 0.09152542
## [181] 0.09322034 0.09322034 0.09830508 0.09661017 0.09322034 0.08983051
## [187] 0.09322034 0.09152542 0.09491525 0.09322034 0.08644068 0.09661017
## [193] 0.09152542 0.09322034 0.09322034 0.09661017 0.08983051 0.09491525
## [199] 0.08983051 0.08983051 0.09491525 0.08983051 0.08644068 0.09152542
## [205] 0.08813559 0.09152542 0.08983051 0.09661017 0.09491525 0.08644068
## [211] 0.08983051 0.09152542 0.08983051 0.09152542 0.09322034 0.09491525
## [217] 0.09152542 0.09491525 0.08983051 0.09661017 0.09322034 0.09491525
## [223] 0.09152542 0.09322034 0.08983051 0.09491525 0.09830508 0.09491525
## [229] 0.09661017 0.08983051 0.08983051 0.08983051 0.09322034 0.09152542
## [235] 0.09491525 0.09152542 0.08644068 0.09491525 0.09152542 0.09491525
## [241] 0.09491525 0.08983051 0.08813559 0.08983051 0.08644068 0.08644068
## [247] 0.09491525 0.08983051 0.08983051 0.09152542 0.09830508 0.09322034
## [253] 0.09830508 0.09152542 0.09152542 0.08644068 0.09491525 0.09491525
## [259] 0.09152542 0.09491525 0.09152542 0.08474576 0.08983051 0.09322034
## [265] 0.09152542 0.08813559 0.09152542 0.09152542 0.09322034 0.08813559
## [271] 0.08983051 0.09152542 0.08983051 0.09152542 0.09661017 0.08983051
## [277] 0.09491525 0.08813559 0.09152542 0.08474576 0.09152542 0.09322034
## [283] 0.08983051 0.09152542 0.08983051 0.09322034 0.09661017 0.09322034
## [289] 0.08813559 0.08983051 0.09491525 0.09661017 0.08983051 0.09661017
## [295] 0.09491525 0.08983051 0.09322034 0.08983051 0.09152542 0.08813559
## [301] 0.09152542 0.09661017 0.08305085 0.08474576 0.09322034 0.08983051
## [307] 0.09491525 0.08983051 0.09322034 0.09322034 0.09491525 0.09322034
## [313] 0.09491525 0.08983051 0.08983051 0.10000000 0.09491525 0.08813559
## [319] 0.09152542 0.08813559 0.09152542 0.09661017 0.09491525 0.09491525
## [325] 0.09152542 0.09152542 0.08813559 0.08305085 0.09152542 0.08983051
## [331] 0.09661017 0.09322034 0.09322034 0.10000000 0.08983051 0.08983051
## [337] 0.08983051 0.09830508 0.09491525 0.09830508 0.08983051 0.09152542
## [343] 0.09491525 0.08983051 0.09152542 0.09152542 0.09152542 0.08983051
## [349] 0.09661017 0.08813559 0.09491525 0.09152542 0.09322034 0.09152542
## [355] 0.09322034 0.09661017 0.08644068 0.09491525 0.08813559 0.08983051
## [361] 0.09491525 0.09322034 0.10677966 0.09322034 0.08813559 0.08983051
## [367] 0.09322034 0.08983051 0.09322034 0.08813559 0.09830508 0.08813559
## [373] 0.09491525 0.09152542 0.08813559 0.08983051 0.09152542 0.09322034
## [379] 0.08644068 0.08474576 0.09152542 0.09322034 0.09152542 0.08813559
## [385] 0.09491525 0.10000000 0.09152542 0.09152542 0.09322034 0.08813559
## [391] 0.09322034 0.09322034 0.09322034 0.09830508 0.10169492 0.08983051
## [397] 0.09152542 0.09152542 0.09830508 0.08644068 0.09322034 0.09830508
## [403] 0.10000000 0.08983051 0.09491525 0.09322034 0.08983051 0.08644068
## [409] 0.09491525 0.09322034 0.08813559 0.08813559 0.10169492 0.09830508
## [415] 0.08983051 0.09322034 0.08983051 0.09491525 0.08813559 0.08644068
## [421] 0.09661017 0.08983051 0.08813559 0.09830508 0.09491525 0.09322034
## [427] 0.08644068 0.09152542 0.09491525 0.09661017 0.09491525 0.09830508
## [433] 0.09491525 0.09322034 0.09661017 0.08305085 0.09491525 0.08644068
## [439] 0.09491525 0.09661017 0.08983051 0.08813559 0.09152542 0.09322034
## [445] 0.08983051 0.08813559 0.09322034 0.08813559 0.09830508 0.08983051
## [451] 0.09322034 0.09661017 0.09661017 0.08983051 0.09830508 0.09491525
## [457] 0.08983051 0.09152542 0.09152542 0.08474576 0.09152542 0.08983051
## [463] 0.09491525 0.09491525 0.10000000 0.09491525 0.09322034 0.08983051
## [469] 0.09491525 0.09152542 0.08983051 0.10677966 0.09152542 0.08813559
## [475] 0.08813559 0.08983051 0.09152542 0.09661017 0.09152542 0.09491525
## [481] 0.09491525 0.08983051 0.09830508 0.08983051 0.08305085 0.08983051
## [487] 0.09152542 0.09322034 0.09491525 0.08813559 0.08813559 0.09152542
## [493] 0.09152542 0.08983051 0.08983051 0.08983051 0.10169492 0.08644068
## [499] 0.09152542 0.09152542
for(j in 1:500){
  
  set.seed(j)
  
  folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
  train.set$fold <- folds
  
  
  # Using QDA to produce the CV error rate
  
  CV.error<-NULL 
  
  for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~Latitude+Longitude+OverallAvg, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  Lat.Long.O.A.All<-c(Lat.Long.O.A.All, sum(CV.error))
  
}

Lat.Long.O.A.All
##   [1] 0.07118644 0.06440678 0.07118644 0.07288136 0.07627119 0.06779661
##   [7] 0.06440678 0.06779661 0.06440678 0.06779661 0.07457627 0.06610169
##  [13] 0.06779661 0.06440678 0.06440678 0.06949153 0.06610169 0.06779661
##  [19] 0.07118644 0.06949153 0.06610169 0.07118644 0.06779661 0.07627119
##  [25] 0.07118644 0.06949153 0.06779661 0.07288136 0.06779661 0.06271186
##  [31] 0.05932203 0.06779661 0.07288136 0.07288136 0.06610169 0.06440678
##  [37] 0.07288136 0.06610169 0.07118644 0.07627119 0.07796610 0.07118644
##  [43] 0.06101695 0.06779661 0.06271186 0.07796610 0.06101695 0.06949153
##  [49] 0.06779661 0.07457627 0.07288136 0.07118644 0.06440678 0.06779661
##  [55] 0.06610169 0.07118644 0.06949153 0.07118644 0.06779661 0.06101695
##  [61] 0.07966102 0.06779661 0.07288136 0.06949153 0.06440678 0.06610169
##  [67] 0.05932203 0.07457627 0.06779661 0.07288136 0.06949153 0.07118644
##  [73] 0.06271186 0.06779661 0.06440678 0.06440678 0.06101695 0.06779661
##  [79] 0.07796610 0.06440678 0.06779661 0.06610169 0.06779661 0.06271186
##  [85] 0.07796610 0.07457627 0.06610169 0.07627119 0.07796610 0.07288136
##  [91] 0.06271186 0.06440678 0.06949153 0.06779661 0.07288136 0.07288136
##  [97] 0.05932203 0.07457627 0.06440678 0.06779661 0.06271186 0.06779661
## [103] 0.06779661 0.06779661 0.06779661 0.06949153 0.06610169 0.06949153
## [109] 0.06610169 0.06271186 0.06610169 0.06101695 0.07118644 0.06610169
## [115] 0.05762712 0.06949153 0.06949153 0.06610169 0.07288136 0.07118644
## [121] 0.07627119 0.06779661 0.06440678 0.06271186 0.06440678 0.06610169
## [127] 0.06271186 0.07118644 0.05423729 0.07118644 0.06101695 0.06949153
## [133] 0.06610169 0.07457627 0.06949153 0.07288136 0.06779661 0.06271186
## [139] 0.06610169 0.06271186 0.05932203 0.07288136 0.06440678 0.06779661
## [145] 0.07457627 0.06949153 0.06610169 0.06101695 0.07118644 0.06779661
## [151] 0.06610169 0.06949153 0.06949153 0.06440678 0.07288136 0.06101695
## [157] 0.06949153 0.06779661 0.06271186 0.06271186 0.06779661 0.06949153
## [163] 0.07457627 0.06440678 0.06949153 0.06949153 0.08305085 0.06440678
## [169] 0.06440678 0.06440678 0.07288136 0.08135593 0.07457627 0.05593220
## [175] 0.07118644 0.06440678 0.07288136 0.06949153 0.07457627 0.07627119
## [181] 0.07118644 0.06101695 0.06610169 0.07118644 0.07288136 0.06949153
## [187] 0.07288136 0.06101695 0.06440678 0.06610169 0.06101695 0.07118644
## [193] 0.06101695 0.07288136 0.07118644 0.06949153 0.05932203 0.06779661
## [199] 0.06949153 0.07288136 0.07627119 0.06949153 0.06101695 0.07457627
## [205] 0.06949153 0.07288136 0.06610169 0.07288136 0.06271186 0.06610169
## [211] 0.07118644 0.08135593 0.07118644 0.06440678 0.06610169 0.06779661
## [217] 0.07288136 0.06440678 0.06271186 0.07796610 0.06779661 0.06949153
## [223] 0.07118644 0.07118644 0.06271186 0.06779661 0.06779661 0.06949153
## [229] 0.07288136 0.07288136 0.05762712 0.06949153 0.06779661 0.07118644
## [235] 0.06440678 0.06949153 0.06610169 0.06779661 0.06949153 0.07288136
## [241] 0.07288136 0.06779661 0.08135593 0.06949153 0.07288136 0.07118644
## [247] 0.07118644 0.07288136 0.06949153 0.06101695 0.06949153 0.06101695
## [253] 0.06610169 0.06440678 0.07457627 0.06610169 0.06101695 0.07457627
## [259] 0.06949153 0.07457627 0.06610169 0.06949153 0.06610169 0.07288136
## [265] 0.06779661 0.06779661 0.07118644 0.07627119 0.06779661 0.05932203
## [271] 0.06949153 0.06949153 0.08305085 0.06949153 0.06949153 0.06440678
## [277] 0.06779661 0.06779661 0.07796610 0.06440678 0.06949153 0.06779661
## [283] 0.06779661 0.06779661 0.07118644 0.07457627 0.07796610 0.06271186
## [289] 0.06610169 0.07118644 0.05932203 0.06779661 0.06271186 0.07288136
## [295] 0.07288136 0.06271186 0.07118644 0.07288136 0.07288136 0.06101695
## [301] 0.05932203 0.06610169 0.06271186 0.06440678 0.06440678 0.06610169
## [307] 0.07966102 0.06949153 0.06779661 0.07288136 0.06779661 0.07118644
## [313] 0.06949153 0.06440678 0.07288136 0.07627119 0.07457627 0.06949153
## [319] 0.06610169 0.06271186 0.05932203 0.07288136 0.06779661 0.05932203
## [325] 0.06610169 0.07288136 0.06779661 0.06610169 0.06440678 0.07457627
## [331] 0.06610169 0.06440678 0.07118644 0.06440678 0.06779661 0.06779661
## [337] 0.07288136 0.06101695 0.05932203 0.07457627 0.06610169 0.06440678
## [343] 0.07118644 0.06271186 0.07966102 0.06610169 0.07118644 0.06779661
## [349] 0.06779661 0.07118644 0.07118644 0.06779661 0.07288136 0.06779661
## [355] 0.06949153 0.06949153 0.07118644 0.07457627 0.07118644 0.06271186
## [361] 0.06440678 0.06440678 0.06440678 0.07118644 0.06610169 0.06949153
## [367] 0.07627119 0.07288136 0.06610169 0.06610169 0.06779661 0.07118644
## [373] 0.07288136 0.06779661 0.06949153 0.06610169 0.07118644 0.06101695
## [379] 0.06779661 0.06440678 0.06949153 0.07118644 0.07118644 0.06101695
## [385] 0.07118644 0.07288136 0.06440678 0.07288136 0.06779661 0.06101695
## [391] 0.07288136 0.06271186 0.06271186 0.06779661 0.07288136 0.06101695
## [397] 0.07288136 0.06101695 0.06610169 0.07288136 0.08135593 0.07118644
## [403] 0.06610169 0.06779661 0.06949153 0.06949153 0.06440678 0.06271186
## [409] 0.06101695 0.07457627 0.06271186 0.06779661 0.06779661 0.07966102
## [415] 0.07288136 0.07118644 0.07457627 0.07118644 0.07288136 0.07966102
## [421] 0.07457627 0.06440678 0.06101695 0.05423729 0.06440678 0.06610169
## [427] 0.06101695 0.06101695 0.06949153 0.06779661 0.06101695 0.07288136
## [433] 0.06610169 0.06271186 0.07118644 0.06101695 0.07796610 0.06440678
## [439] 0.06949153 0.07118644 0.07118644 0.06949153 0.07457627 0.06440678
## [445] 0.06101695 0.06610169 0.07627119 0.07288136 0.07796610 0.06779661
## [451] 0.05762712 0.07457627 0.07118644 0.07627119 0.06949153 0.05762712
## [457] 0.06610169 0.07118644 0.06440678 0.07288136 0.06271186 0.07796610
## [463] 0.07457627 0.06779661 0.08135593 0.06949153 0.06440678 0.07118644
## [469] 0.06779661 0.06271186 0.07966102 0.06779661 0.06440678 0.06271186
## [475] 0.06779661 0.06949153 0.06949153 0.06949153 0.06949153 0.07288136
## [481] 0.06779661 0.06949153 0.05932203 0.07118644 0.07627119 0.06440678
## [487] 0.06779661 0.06271186 0.06610169 0.06779661 0.06440678 0.06779661
## [493] 0.06779661 0.05932203 0.06440678 0.07288136 0.06779661 0.06949153
## [499] 0.07796610 0.07288136
for(j in 1:500){
  
  set.seed(j)
  
  folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
  train.set$fold <- folds
  
  
  # Using QDA to produce the CV error rate
  
  CV.error<-NULL 
  
  for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~Latitude+Longitude+OverallMeanAmp, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  Lat.Long.O.M.A.All<-c(Lat.Long.O.M.A.All, sum(CV.error))
  
}

Lat.Long.O.M.A.All
##   [1] 0.2355932 0.2372881 0.2389831 0.2440678 0.2355932 0.2237288 0.2288136
##   [8] 0.2389831 0.2440678 0.2508475 0.2338983 0.2491525 0.2305085 0.2491525
##  [15] 0.2423729 0.2322034 0.2288136 0.2338983 0.2338983 0.2355932 0.2288136
##  [22] 0.2338983 0.2525424 0.2423729 0.2389831 0.2355932 0.2271186 0.2491525
##  [29] 0.2305085 0.2355932 0.2288136 0.2559322 0.2372881 0.2271186 0.2423729
##  [36] 0.2288136 0.2457627 0.2372881 0.2254237 0.2338983 0.2457627 0.2372881
##  [43] 0.2440678 0.2389831 0.2440678 0.2305085 0.2457627 0.2423729 0.2389831
##  [50] 0.2372881 0.2338983 0.2406780 0.2440678 0.2406780 0.2406780 0.2372881
##  [57] 0.2322034 0.2355932 0.2491525 0.2338983 0.2355932 0.2389831 0.2440678
##  [64] 0.2423729 0.2372881 0.2322034 0.2322034 0.2423729 0.2406780 0.2389831
##  [71] 0.2355932 0.2322034 0.2372881 0.2322034 0.2406780 0.2423729 0.2338983
##  [78] 0.2423729 0.2305085 0.2355932 0.2338983 0.2355932 0.2288136 0.2271186
##  [85] 0.2474576 0.2271186 0.2389831 0.2355932 0.2389831 0.2220339 0.2440678
##  [92] 0.2406780 0.2457627 0.2406780 0.2423729 0.2305085 0.2372881 0.2355932
##  [99] 0.2288136 0.2372881 0.2305085 0.2203390 0.2389831 0.2389831 0.2406780
## [106] 0.2440678 0.2338983 0.2406780 0.2508475 0.2406780 0.2355932 0.2423729
## [113] 0.2322034 0.2288136 0.2271186 0.2169492 0.2440678 0.2491525 0.2525424
## [120] 0.2355932 0.2338983 0.2305085 0.2440678 0.2305085 0.2355932 0.2406780
## [127] 0.2338983 0.2423729 0.2271186 0.2389831 0.2423729 0.2423729 0.2288136
## [134] 0.2355932 0.2322034 0.2338983 0.2355932 0.2305085 0.2338983 0.2271186
## [141] 0.2372881 0.2440678 0.2271186 0.2474576 0.2288136 0.2423729 0.2423729
## [148] 0.2389831 0.2406780 0.2271186 0.2372881 0.2355932 0.2355932 0.2355932
## [155] 0.2237288 0.2305085 0.2305085 0.2355932 0.2389831 0.2338983 0.2423729
## [162] 0.2491525 0.2440678 0.2372881 0.2457627 0.2423729 0.2338983 0.2322034
## [169] 0.2406780 0.2355932 0.2322034 0.2338983 0.2355932 0.2389831 0.2305085
## [176] 0.2372881 0.2423729 0.2406780 0.2457627 0.2389831 0.2305085 0.2406780
## [183] 0.2338983 0.2305085 0.2440678 0.2322034 0.2254237 0.2389831 0.2389831
## [190] 0.2271186 0.2389831 0.2457627 0.2322034 0.2288136 0.2406780 0.2355932
## [197] 0.2423729 0.2271186 0.2305085 0.2338983 0.2322034 0.2271186 0.2491525
## [204] 0.2355932 0.2322034 0.2423729 0.2440678 0.2355932 0.2322034 0.2338983
## [211] 0.2474576 0.2406780 0.2237288 0.2423729 0.2338983 0.2338983 0.2372881
## [218] 0.2389831 0.2491525 0.2457627 0.2406780 0.2389831 0.2389831 0.2423729
## [225] 0.2305085 0.2440678 0.2440678 0.2406780 0.2322034 0.2355932 0.2288136
## [232] 0.2322034 0.2288136 0.2406780 0.2338983 0.2406780 0.2254237 0.2423729
## [239] 0.2372881 0.2203390 0.2338983 0.2220339 0.2355932 0.2389831 0.2271186
## [246] 0.2254237 0.2372881 0.2423729 0.2372881 0.2338983 0.2508475 0.2355932
## [253] 0.2355932 0.2288136 0.2440678 0.2440678 0.2423729 0.2372881 0.2372881
## [260] 0.2355932 0.2305085 0.2288136 0.2389831 0.2508475 0.2322034 0.2237288
## [267] 0.2440678 0.2491525 0.2457627 0.2423729 0.2355932 0.2355932 0.2254237
## [274] 0.2389831 0.2254237 0.2355932 0.2440678 0.2355932 0.2389831 0.2203390
## [281] 0.2423729 0.2355932 0.2372881 0.2338983 0.2440678 0.2338983 0.2305085
## [288] 0.2305085 0.2508475 0.2237288 0.2355932 0.2372881 0.2338983 0.2389831
## [295] 0.2338983 0.2440678 0.2440678 0.2457627 0.2457627 0.2372881 0.2322034
## [302] 0.2389831 0.2271186 0.2355932 0.2338983 0.2440678 0.2322034 0.2288136
## [309] 0.2305085 0.2355932 0.2491525 0.2355932 0.2355932 0.2338983 0.2338983
## [316] 0.2406780 0.2389831 0.2288136 0.2322034 0.2559322 0.2338983 0.2474576
## [323] 0.2135593 0.2423729 0.2355932 0.2254237 0.2237288 0.2372881 0.2338983
## [330] 0.2542373 0.2288136 0.2457627 0.2372881 0.2440678 0.2355932 0.2322034
## [337] 0.2372881 0.2355932 0.2254237 0.2372881 0.2237288 0.2372881 0.2389831
## [344] 0.2338983 0.2322034 0.2152542 0.2322034 0.2457627 0.2322034 0.2372881
## [351] 0.2271186 0.2305085 0.2372881 0.2271186 0.2322034 0.2338983 0.2389831
## [358] 0.2322034 0.2271186 0.2491525 0.2305085 0.2372881 0.2355932 0.2372881
## [365] 0.2372881 0.2406780 0.2254237 0.2338983 0.2322034 0.2372881 0.2423729
## [372] 0.2355932 0.2338983 0.2355932 0.2288136 0.2305085 0.2372881 0.2355932
## [379] 0.2322034 0.2305085 0.2305085 0.2288136 0.2389831 0.2288136 0.2322034
## [386] 0.2338983 0.2406780 0.2254237 0.2355932 0.2338983 0.2305085 0.2355932
## [393] 0.2322034 0.2457627 0.2288136 0.2423729 0.2372881 0.2389831 0.2457627
## [400] 0.2406780 0.2288136 0.2322034 0.2491525 0.2322034 0.2355932 0.2440678
## [407] 0.2288136 0.2372881 0.2271186 0.2271186 0.2372881 0.2372881 0.2305085
## [414] 0.2288136 0.2338983 0.2338983 0.2389831 0.2305085 0.2389831 0.2271186
## [421] 0.2338983 0.2338983 0.2338983 0.2305085 0.2288136 0.2406780 0.2355932
## [428] 0.2338983 0.2355932 0.2372881 0.2423729 0.2355932 0.2355932 0.2322034
## [435] 0.2440678 0.2423729 0.2406780 0.2406780 0.2440678 0.2355932 0.2440678
## [442] 0.2389831 0.2372881 0.2338983 0.2322034 0.2203390 0.2440678 0.2372881
## [449] 0.2440678 0.2457627 0.2406780 0.2288136 0.2271186 0.2203390 0.2220339
## [456] 0.2440678 0.2406780 0.2254237 0.2254237 0.2271186 0.2423729 0.2406780
## [463] 0.2322034 0.2474576 0.2423729 0.2271186 0.2271186 0.2338983 0.2406780
## [470] 0.2254237 0.2355932 0.2355932 0.2457627 0.2237288 0.2406780 0.2491525
## [477] 0.2372881 0.2406780 0.2389831 0.2338983 0.2491525 0.2305085 0.2440678
## [484] 0.2322034 0.2355932 0.2338983 0.2406780 0.2355932 0.2288136 0.2355932
## [491] 0.2389831 0.2338983 0.2338983 0.2288136 0.2372881 0.2423729 0.2525424
## [498] 0.2355932 0.2389831 0.2525424
for(j in 1:500){
  
  set.seed(j)
  
  folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
  train.set$fold <- folds
  
  
  # Using QDA to produce the CV error rate
  
  CV.error<-NULL 
  
  for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~Latitude+OverallAvg+OverallMeanAmp, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  Lat.O.A.O.M.A.All<-c(Lat.O.A.O.M.A.All, sum(CV.error))
  
}

Lat.O.A.O.M.A.All
##   [1] 0.06779661 0.06779661 0.06610169 0.06949153 0.06779661 0.06949153
##   [7] 0.07288136 0.06779661 0.06101695 0.06779661 0.07118644 0.07627119
##  [13] 0.07627119 0.06949153 0.06610169 0.06779661 0.06610169 0.06779661
##  [19] 0.07288136 0.06610169 0.06949153 0.06610169 0.07118644 0.07288136
##  [25] 0.07627119 0.06949153 0.07288136 0.06949153 0.06949153 0.06949153
##  [31] 0.06440678 0.07118644 0.06440678 0.06779661 0.06779661 0.07627119
##  [37] 0.07457627 0.06610169 0.07118644 0.07288136 0.07457627 0.06779661
##  [43] 0.07288136 0.06949153 0.07457627 0.07118644 0.07118644 0.06779661
##  [49] 0.07118644 0.06949153 0.06779661 0.07288136 0.07118644 0.07118644
##  [55] 0.06610169 0.06440678 0.07627119 0.06779661 0.06949153 0.07288136
##  [61] 0.06610169 0.07288136 0.07118644 0.07627119 0.06779661 0.07288136
##  [67] 0.07288136 0.07288136 0.07118644 0.06610169 0.07288136 0.07288136
##  [73] 0.06779661 0.06949153 0.06949153 0.07118644 0.07288136 0.07457627
##  [79] 0.06949153 0.07288136 0.06949153 0.07118644 0.06271186 0.06949153
##  [85] 0.07118644 0.08135593 0.06440678 0.07627119 0.08135593 0.06610169
##  [91] 0.07118644 0.06440678 0.06779661 0.07118644 0.07627119 0.06779661
##  [97] 0.06949153 0.06610169 0.06779661 0.08305085 0.07288136 0.07627119
## [103] 0.06440678 0.07288136 0.07118644 0.06949153 0.07118644 0.07288136
## [109] 0.06610169 0.07118644 0.06610169 0.07118644 0.06949153 0.07288136
## [115] 0.06949153 0.06949153 0.06610169 0.06779661 0.07288136 0.07627119
## [121] 0.07627119 0.07288136 0.07288136 0.06610169 0.06101695 0.07627119
## [127] 0.06779661 0.06440678 0.07288136 0.06949153 0.06949153 0.07118644
## [133] 0.07796610 0.07288136 0.07627119 0.07627119 0.07118644 0.07457627
## [139] 0.07288136 0.06949153 0.06949153 0.06949153 0.07457627 0.07288136
## [145] 0.07627119 0.07118644 0.07796610 0.06949153 0.07457627 0.06949153
## [151] 0.07288136 0.06779661 0.06779661 0.06610169 0.06610169 0.06779661
## [157] 0.06779661 0.07627119 0.06271186 0.06610169 0.06949153 0.06440678
## [163] 0.06779661 0.06610169 0.06949153 0.06271186 0.07627119 0.07457627
## [169] 0.06440678 0.07457627 0.07118644 0.07118644 0.07288136 0.06440678
## [175] 0.06779661 0.07457627 0.06779661 0.06610169 0.07627119 0.06949153
## [181] 0.06779661 0.06440678 0.06610169 0.07796610 0.07457627 0.07966102
## [187] 0.06440678 0.06949153 0.06949153 0.07457627 0.06610169 0.07288136
## [193] 0.07796610 0.06949153 0.06949153 0.06949153 0.06779661 0.06610169
## [199] 0.06949153 0.06779661 0.06779661 0.06610169 0.06610169 0.07118644
## [205] 0.07288136 0.06949153 0.06949153 0.07627119 0.06949153 0.06779661
## [211] 0.07118644 0.07627119 0.07457627 0.07288136 0.06610169 0.07457627
## [217] 0.06949153 0.07627119 0.07118644 0.06610169 0.07288136 0.06779661
## [223] 0.06779661 0.06949153 0.06440678 0.06779661 0.07288136 0.06949153
## [229] 0.07627119 0.06949153 0.06610169 0.07457627 0.07118644 0.07118644
## [235] 0.07288136 0.07118644 0.07627119 0.07457627 0.06271186 0.07118644
## [241] 0.06440678 0.06779661 0.07966102 0.06610169 0.07118644 0.07288136
## [247] 0.07457627 0.07457627 0.06949153 0.06779661 0.06949153 0.06949153
## [253] 0.07627119 0.06610169 0.06610169 0.07288136 0.06101695 0.06949153
## [259] 0.08135593 0.07288136 0.06610169 0.06779661 0.06779661 0.06440678
## [265] 0.07288136 0.06949153 0.06271186 0.07457627 0.06949153 0.07288136
## [271] 0.06101695 0.07118644 0.07118644 0.06440678 0.06779661 0.06440678
## [277] 0.06949153 0.07118644 0.06949153 0.06949153 0.07118644 0.06101695
## [283] 0.06949153 0.07288136 0.07118644 0.07288136 0.07118644 0.07118644
## [289] 0.06610169 0.06949153 0.06949153 0.07288136 0.07288136 0.07796610
## [295] 0.07288136 0.06949153 0.07457627 0.06779661 0.06779661 0.06440678
## [301] 0.06949153 0.07118644 0.06610169 0.06610169 0.06610169 0.06440678
## [307] 0.07288136 0.07627119 0.06949153 0.07627119 0.06949153 0.07627119
## [313] 0.07457627 0.07118644 0.06949153 0.07627119 0.06440678 0.06610169
## [319] 0.07118644 0.07118644 0.06440678 0.06949153 0.06779661 0.06949153
## [325] 0.07627119 0.07288136 0.06949153 0.06779661 0.06949153 0.07288136
## [331] 0.07118644 0.07118644 0.07288136 0.07627119 0.07288136 0.06440678
## [337] 0.07627119 0.07288136 0.06440678 0.07288136 0.07118644 0.06610169
## [343] 0.07288136 0.06440678 0.07796610 0.07627119 0.07288136 0.06610169
## [349] 0.07288136 0.07457627 0.07457627 0.06610169 0.07796610 0.06779661
## [355] 0.06949153 0.07118644 0.06440678 0.07457627 0.07457627 0.06610169
## [361] 0.06610169 0.05762712 0.07627119 0.07118644 0.05932203 0.06440678
## [367] 0.06949153 0.07288136 0.07118644 0.06440678 0.06440678 0.06949153
## [373] 0.07288136 0.06779661 0.07118644 0.07457627 0.06440678 0.07288136
## [379] 0.06779661 0.05932203 0.06949153 0.06101695 0.06949153 0.06779661
## [385] 0.06610169 0.07457627 0.07118644 0.07457627 0.06779661 0.06440678
## [391] 0.06949153 0.07118644 0.06779661 0.08135593 0.07457627 0.06610169
## [397] 0.07457627 0.06610169 0.06779661 0.06440678 0.08135593 0.07627119
## [403] 0.07288136 0.06271186 0.07457627 0.06610169 0.07627119 0.06949153
## [409] 0.06610169 0.07627119 0.05762712 0.06610169 0.06440678 0.06610169
## [415] 0.06949153 0.06949153 0.07627119 0.07288136 0.06440678 0.06440678
## [421] 0.07457627 0.07118644 0.06610169 0.06440678 0.06949153 0.07457627
## [427] 0.06101695 0.06440678 0.07288136 0.06949153 0.07118644 0.06440678
## [433] 0.07457627 0.06949153 0.06610169 0.07457627 0.07627119 0.07118644
## [439] 0.06779661 0.06779661 0.06949153 0.07627119 0.06779661 0.06949153
## [445] 0.06101695 0.06779661 0.06779661 0.06610169 0.06949153 0.06779661
## [451] 0.06949153 0.07457627 0.07796610 0.06610169 0.07288136 0.07118644
## [457] 0.06779661 0.07796610 0.06779661 0.06440678 0.06779661 0.07796610
## [463] 0.07118644 0.06779661 0.07118644 0.06949153 0.07118644 0.06779661
## [469] 0.08135593 0.06610169 0.06440678 0.07118644 0.06949153 0.07118644
## [475] 0.06101695 0.06779661 0.07627119 0.07288136 0.07288136 0.07627119
## [481] 0.07118644 0.06610169 0.06440678 0.07457627 0.06949153 0.07118644
## [487] 0.07457627 0.07288136 0.07288136 0.07118644 0.06440678 0.06101695
## [493] 0.06271186 0.05762712 0.07457627 0.06779661 0.06440678 0.06779661
## [499] 0.07457627 0.07627119
for(j in 1:500){
  
  set.seed(j)
  
  folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
  train.set$fold <- folds
  
  
  # Using QDA to produce the CV error rate
  
  CV.error<-NULL 
  
  for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~Longitude+OverallAvg+OverallMeanAmp, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  Long.O.A.O.M.A.All<-c(Long.O.A.O.M.A.All, sum(CV.error))
  
}

Long.O.A.O.M.A.All
##   [1] 0.10000000 0.09152542 0.09322034 0.10338983 0.09830508 0.09830508
##   [7] 0.09491525 0.09661017 0.09491525 0.08983051 0.10000000 0.10338983
##  [13] 0.09491525 0.10847458 0.09661017 0.09830508 0.10338983 0.09322034
##  [19] 0.09661017 0.10338983 0.09830508 0.09322034 0.10338983 0.10338983
##  [25] 0.09491525 0.10169492 0.10338983 0.09491525 0.10508475 0.10000000
##  [31] 0.09491525 0.09661017 0.08813559 0.10169492 0.10000000 0.09152542
##  [37] 0.09830508 0.09322034 0.08983051 0.09830508 0.10169492 0.09661017
##  [43] 0.09322034 0.09152542 0.09830508 0.09152542 0.09661017 0.10000000
##  [49] 0.10169492 0.09830508 0.09491525 0.09661017 0.09830508 0.10169492
##  [55] 0.10169492 0.09661017 0.09491525 0.10338983 0.10000000 0.09830508
##  [61] 0.10338983 0.09830508 0.10338983 0.09830508 0.10000000 0.10000000
##  [67] 0.09491525 0.10000000 0.10338983 0.09830508 0.10508475 0.09830508
##  [73] 0.09322034 0.09661017 0.10169492 0.10169492 0.09830508 0.10338983
##  [79] 0.09830508 0.09491525 0.09152542 0.09661017 0.10000000 0.10000000
##  [85] 0.10847458 0.10338983 0.10169492 0.10169492 0.11186441 0.09661017
##  [91] 0.09830508 0.09661017 0.09322034 0.09830508 0.09830508 0.09322034
##  [97] 0.10000000 0.10169492 0.09661017 0.10847458 0.10169492 0.09830508
## [103] 0.09830508 0.09152542 0.10677966 0.09830508 0.09152542 0.09661017
## [109] 0.10508475 0.09661017 0.08983051 0.09661017 0.10338983 0.09661017
## [115] 0.09830508 0.09661017 0.10338983 0.10000000 0.09152542 0.09661017
## [121] 0.10508475 0.10169492 0.09661017 0.09661017 0.09661017 0.09830508
## [127] 0.09491525 0.10169492 0.09830508 0.10000000 0.09661017 0.09491525
## [133] 0.09830508 0.10000000 0.10338983 0.10847458 0.09661017 0.10000000
## [139] 0.09661017 0.09830508 0.09830508 0.09491525 0.10000000 0.10000000
## [145] 0.09661017 0.09152542 0.10169492 0.10508475 0.09322034 0.10338983
## [151] 0.09830508 0.10169492 0.09491525 0.10000000 0.10000000 0.10000000
## [157] 0.09661017 0.09661017 0.10169492 0.09152542 0.10000000 0.10169492
## [163] 0.10000000 0.09491525 0.10508475 0.09322034 0.10000000 0.10677966
## [169] 0.10000000 0.09661017 0.09661017 0.09830508 0.10000000 0.09661017
## [175] 0.09830508 0.10169492 0.10508475 0.10000000 0.10169492 0.09152542
## [181] 0.10169492 0.10169492 0.10000000 0.10508475 0.09830508 0.09152542
## [187] 0.10169492 0.10000000 0.08983051 0.10000000 0.09491525 0.09830508
## [193] 0.10169492 0.08813559 0.10169492 0.10677966 0.08813559 0.09830508
## [199] 0.10000000 0.09830508 0.11016949 0.09661017 0.09491525 0.09830508
## [205] 0.09491525 0.10338983 0.09491525 0.10000000 0.09491525 0.10169492
## [211] 0.10169492 0.09322034 0.09830508 0.09661017 0.09830508 0.10169492
## [217] 0.10338983 0.09830508 0.10169492 0.10338983 0.10000000 0.09830508
## [223] 0.10000000 0.09661017 0.08983051 0.10169492 0.09661017 0.10338983
## [229] 0.10000000 0.10000000 0.08813559 0.09491525 0.09491525 0.10508475
## [235] 0.10000000 0.11355932 0.10000000 0.11186441 0.10169492 0.09830508
## [241] 0.09830508 0.10000000 0.09152542 0.09152542 0.09491525 0.09830508
## [247] 0.09830508 0.10000000 0.09830508 0.09661017 0.10338983 0.09491525
## [253] 0.10169492 0.10000000 0.09830508 0.10169492 0.10169492 0.10169492
## [259] 0.10338983 0.09661017 0.09661017 0.09661017 0.10000000 0.09152542
## [265] 0.10169492 0.09830508 0.09322034 0.10508475 0.09491525 0.10169492
## [271] 0.09661017 0.09491525 0.09830508 0.09491525 0.09661017 0.10000000
## [277] 0.09661017 0.10169492 0.09661017 0.10169492 0.10000000 0.09661017
## [283] 0.09322034 0.09152542 0.09830508 0.10169492 0.09491525 0.10169492
## [289] 0.10169492 0.09491525 0.09830508 0.09322034 0.09491525 0.10338983
## [295] 0.10338983 0.10000000 0.09152542 0.09152542 0.10000000 0.09491525
## [301] 0.09491525 0.09661017 0.09322034 0.10169492 0.09661017 0.09491525
## [307] 0.09661017 0.10338983 0.10677966 0.09661017 0.09661017 0.10000000
## [313] 0.09830508 0.10169492 0.09830508 0.09661017 0.09661017 0.10169492
## [319] 0.10000000 0.10677966 0.09661017 0.09830508 0.10169492 0.10000000
## [325] 0.10677966 0.09322034 0.08983051 0.09830508 0.08983051 0.10508475
## [331] 0.09491525 0.09830508 0.09322034 0.11016949 0.09322034 0.09491525
## [337] 0.09491525 0.10000000 0.10338983 0.10677966 0.09322034 0.09152542
## [343] 0.10169492 0.09152542 0.09661017 0.10169492 0.10677966 0.10169492
## [349] 0.09491525 0.09322034 0.09491525 0.09830508 0.10338983 0.09661017
## [355] 0.10338983 0.10000000 0.10000000 0.10169492 0.09661017 0.10000000
## [361] 0.09322034 0.10169492 0.09661017 0.10677966 0.09152542 0.09661017
## [367] 0.09491525 0.10000000 0.10338983 0.09491525 0.09661017 0.09830508
## [373] 0.10338983 0.10000000 0.10000000 0.09152542 0.09322034 0.10000000
## [379] 0.09491525 0.09322034 0.09661017 0.09491525 0.10000000 0.09491525
## [385] 0.10338983 0.10000000 0.09830508 0.10169492 0.10169492 0.09491525
## [391] 0.10000000 0.09152542 0.09491525 0.10000000 0.10508475 0.09491525
## [397] 0.10169492 0.09152542 0.09830508 0.09322034 0.10508475 0.10677966
## [403] 0.10000000 0.10338983 0.10000000 0.09830508 0.09491525 0.09322034
## [409] 0.08813559 0.10338983 0.09830508 0.10000000 0.10000000 0.10169492
## [415] 0.09491525 0.09491525 0.10508475 0.09661017 0.10338983 0.09322034
## [421] 0.10338983 0.09830508 0.09661017 0.10508475 0.09830508 0.10169492
## [427] 0.09491525 0.09322034 0.09661017 0.10338983 0.09491525 0.09661017
## [433] 0.10338983 0.09661017 0.10677966 0.10169492 0.10000000 0.10169492
## [439] 0.09491525 0.10169492 0.09322034 0.09491525 0.09661017 0.09152542
## [445] 0.09661017 0.08983051 0.09661017 0.09661017 0.10847458 0.09661017
## [451] 0.09322034 0.10000000 0.10169492 0.09491525 0.09661017 0.09661017
## [457] 0.09830508 0.09830508 0.09830508 0.10000000 0.09322034 0.10677966
## [463] 0.10000000 0.10000000 0.10338983 0.09491525 0.10169492 0.10169492
## [469] 0.10169492 0.09661017 0.09830508 0.10338983 0.10169492 0.09830508
## [475] 0.10169492 0.09491525 0.10169492 0.10847458 0.09830508 0.09830508
## [481] 0.08813559 0.08644068 0.09491525 0.10000000 0.09491525 0.09152542
## [487] 0.09661017 0.09661017 0.09152542 0.09491525 0.10000000 0.09661017
## [493] 0.09322034 0.10000000 0.10508475 0.10000000 0.08983051 0.10169492
## [499] 0.10000000 0.09830508
for(j in 1:500){
  
  set.seed(j)
  
  folds <- createFolds(y=factor(train.set$Group), k = 5, list = FALSE)
  train.set$fold <- folds
  
  
  # Using QDA to produce the CV error rate
  
  CV.error<-NULL 
  
  for (i in 1:5) { 
    valid.data <- subset(train.set, fold == i)
    train.data <- subset(train.set, fold != i) 
    
    qda.fit<-qda(formula = Group~Latitude+Longitude+OverallAvg+OverallMeanAmp, data=train.data)
    qda.y <- valid.data$Group
    qda.predy<-predict(qda.fit, valid.data)$class
    
    ith.test.error<- mean(qda.y!=qda.predy) 
    CV.error<-c(CV.error,(nrow(valid.data)/nrow(train.set))*ith.test.error) 
  }
  
  Lat.Long.O.A.O.M.A.All<-c(Lat.Long.O.A.O.M.A.All, sum(CV.error))
  
}

Lat.Long.O.A.O.M.A.All
##   [1] 0.08474576 0.07796610 0.07796610 0.07457627 0.07796610 0.07627119
##   [7] 0.07118644 0.07457627 0.07966102 0.07288136 0.09152542 0.07627119
##  [13] 0.08474576 0.07118644 0.07796610 0.07966102 0.07966102 0.07627119
##  [19] 0.07627119 0.07966102 0.07627119 0.08135593 0.08135593 0.08644068
##  [25] 0.08305085 0.07966102 0.07288136 0.08135593 0.08135593 0.07118644
##  [31] 0.08135593 0.08474576 0.07457627 0.07627119 0.07118644 0.07627119
##  [37] 0.08474576 0.07627119 0.06610169 0.07966102 0.09152542 0.08305085
##  [43] 0.08135593 0.07288136 0.07627119 0.08474576 0.07457627 0.07966102
##  [49] 0.07966102 0.08135593 0.07796610 0.08135593 0.06949153 0.06949153
##  [55] 0.08474576 0.08305085 0.07118644 0.07457627 0.07288136 0.07796610
##  [61] 0.08644068 0.08135593 0.08474576 0.07457627 0.07118644 0.07457627
##  [67] 0.07966102 0.08474576 0.07966102 0.07288136 0.08474576 0.07288136
##  [73] 0.07288136 0.07627119 0.07288136 0.07457627 0.06440678 0.08474576
##  [79] 0.07627119 0.07796610 0.07796610 0.07966102 0.07627119 0.06949153
##  [85] 0.08474576 0.08135593 0.06949153 0.08305085 0.08135593 0.07627119
##  [91] 0.07457627 0.08474576 0.07457627 0.07288136 0.08474576 0.08474576
##  [97] 0.08474576 0.07627119 0.07627119 0.08474576 0.07627119 0.07457627
## [103] 0.07796610 0.07457627 0.07627119 0.07796610 0.07966102 0.07457627
## [109] 0.07627119 0.07627119 0.07796610 0.08305085 0.07457627 0.08135593
## [115] 0.06949153 0.07966102 0.08135593 0.07627119 0.08135593 0.08135593
## [121] 0.07966102 0.07796610 0.07966102 0.07118644 0.07457627 0.07796610
## [127] 0.07457627 0.07966102 0.07457627 0.07796610 0.07288136 0.07457627
## [133] 0.08644068 0.07288136 0.08135593 0.08305085 0.07627119 0.07457627
## [139] 0.06949153 0.07288136 0.07457627 0.07966102 0.07627119 0.08305085
## [145] 0.07796610 0.07796610 0.07796610 0.07627119 0.07288136 0.07288136
## [151] 0.07796610 0.07627119 0.07796610 0.07796610 0.07627119 0.07966102
## [157] 0.08135593 0.08983051 0.07288136 0.06779661 0.07457627 0.07796610
## [163] 0.08813559 0.07288136 0.07966102 0.06949153 0.08813559 0.07796610
## [169] 0.08135593 0.07796610 0.07796610 0.08305085 0.08135593 0.06949153
## [175] 0.07627119 0.07796610 0.07966102 0.07966102 0.06949153 0.07627119
## [181] 0.07627119 0.07118644 0.07457627 0.08305085 0.07796610 0.07966102
## [187] 0.07796610 0.06779661 0.07627119 0.07457627 0.07118644 0.08305085
## [193] 0.07118644 0.07966102 0.07627119 0.08644068 0.07118644 0.07118644
## [199] 0.07627119 0.07457627 0.08644068 0.07966102 0.07288136 0.08813559
## [205] 0.08474576 0.08644068 0.07627119 0.08135593 0.07966102 0.07796610
## [211] 0.08474576 0.08135593 0.07796610 0.07627119 0.07796610 0.07796610
## [217] 0.08644068 0.07627119 0.08474576 0.08305085 0.08474576 0.08474576
## [223] 0.07966102 0.08305085 0.07796610 0.06779661 0.08474576 0.08305085
## [229] 0.08644068 0.07796610 0.06779661 0.06779661 0.07796610 0.07627119
## [235] 0.07966102 0.07288136 0.07966102 0.08983051 0.07796610 0.08474576
## [241] 0.07457627 0.07966102 0.08135593 0.07288136 0.07966102 0.08813559
## [247] 0.07796610 0.08305085 0.06949153 0.07457627 0.07288136 0.07627119
## [253] 0.08135593 0.07966102 0.07457627 0.07457627 0.07796610 0.07796610
## [259] 0.08305085 0.07118644 0.06949153 0.07966102 0.07796610 0.08474576
## [265] 0.08135593 0.07627119 0.07796610 0.07966102 0.07796610 0.07966102
## [271] 0.07457627 0.07796610 0.08474576 0.07966102 0.07288136 0.07118644
## [277] 0.07627119 0.07966102 0.07966102 0.08305085 0.07796610 0.08305085
## [283] 0.06949153 0.07627119 0.07966102 0.08474576 0.09322034 0.08135593
## [289] 0.07288136 0.06949153 0.07796610 0.08305085 0.07457627 0.08474576
## [295] 0.07796610 0.07796610 0.06949153 0.08135593 0.08474576 0.07457627
## [301] 0.07796610 0.07457627 0.06949153 0.08813559 0.07457627 0.07288136
## [307] 0.08813559 0.07966102 0.07288136 0.07288136 0.07796610 0.08135593
## [313] 0.08305085 0.07627119 0.07966102 0.07966102 0.07966102 0.07627119
## [319] 0.07457627 0.06610169 0.07627119 0.08305085 0.07796610 0.08135593
## [325] 0.08644068 0.08305085 0.07627119 0.07627119 0.07457627 0.07288136
## [331] 0.07796610 0.07627119 0.07627119 0.07457627 0.07796610 0.07796610
## [337] 0.08135593 0.07288136 0.07627119 0.08474576 0.07288136 0.07457627
## [343] 0.07966102 0.07966102 0.08135593 0.07457627 0.08474576 0.06610169
## [349] 0.07288136 0.07796610 0.07796610 0.07118644 0.08644068 0.07966102
## [355] 0.08135593 0.07796610 0.08135593 0.08474576 0.08474576 0.07288136
## [361] 0.07288136 0.07118644 0.07796610 0.08305085 0.06610169 0.07118644
## [367] 0.07457627 0.08474576 0.07796610 0.08135593 0.07627119 0.08305085
## [373] 0.07966102 0.08813559 0.07796610 0.07457627 0.06949153 0.07966102
## [379] 0.07627119 0.06610169 0.09152542 0.08305085 0.07966102 0.08135593
## [385] 0.07118644 0.09322034 0.08135593 0.07457627 0.07796610 0.08305085
## [391] 0.07966102 0.08135593 0.07288136 0.08135593 0.08305085 0.07118644
## [397] 0.08474576 0.07457627 0.07796610 0.07796610 0.08305085 0.07796610
## [403] 0.08135593 0.07288136 0.08474576 0.07627119 0.07966102 0.07966102
## [409] 0.07457627 0.08813559 0.06610169 0.06779661 0.07796610 0.08305085
## [415] 0.07796610 0.07627119 0.08305085 0.08305085 0.08305085 0.07966102
## [421] 0.08474576 0.07966102 0.07796610 0.07288136 0.06949153 0.08474576
## [427] 0.07288136 0.08135593 0.08135593 0.07288136 0.06271186 0.07627119
## [433] 0.07627119 0.07457627 0.07966102 0.08305085 0.08135593 0.07796610
## [439] 0.07627119 0.07796610 0.07288136 0.08305085 0.08813559 0.07627119
## [445] 0.07118644 0.06610169 0.08135593 0.07796610 0.08135593 0.07796610
## [451] 0.07457627 0.08305085 0.08305085 0.07627119 0.07796610 0.07457627
## [457] 0.07288136 0.07796610 0.07288136 0.07966102 0.06949153 0.09152542
## [463] 0.08135593 0.07118644 0.08813559 0.07457627 0.07796610 0.07966102
## [469] 0.08135593 0.07796610 0.07457627 0.07288136 0.07627119 0.07966102
## [475] 0.07796610 0.07457627 0.07966102 0.07966102 0.07457627 0.07288136
## [481] 0.07796610 0.07118644 0.07288136 0.07796610 0.06949153 0.07627119
## [487] 0.08135593 0.07457627 0.08135593 0.08305085 0.08135593 0.07796610
## [493] 0.07118644 0.06440678 0.07288136 0.08813559 0.07796610 0.07966102
## [499] 0.07627119 0.08305085
PC1.<-data.frame(Variables="PC1.", CV.Error.Rate=PC1.All)
PC2.<-data.frame(Variables="PC2.", CV.Error.Rate=PC2.All)
PC1.PC2.<-data.frame(Variables="PC1.PC2.", CV.Error.Rate=PC1.PC2.All)
Lat.<-data.frame(Variables="Lat.", CV.Error.Rate=Lat.All)
Long.<-data.frame(Variables="Long.", CV.Error.Rate=Long.All)
O.A.<-data.frame(Variables="O.A.", CV.Error.Rate=O.A.All)  
O.M.A.<-data.frame(Variables="O.M.A.", CV.Error.Rate=O.M.A.All)    
Lat.Long.<-data.frame(Variables="Lat.Long.", CV.Error.Rate=Lat.Long.All)  
Lat.O.A.<-data.frame(Variables="Lat.O.A.", CV.Error.Rate=Lat.O.A.All)  
Lat.O.M.A.<-data.frame(Variables="Lat.O.M.A.", CV.Error.Rate=Lat.O.M.A.All)  
Long.O.A.<-data.frame(Variables="Long.O.A.", CV.Error.Rate=Long.O.A.All)  
Long.O.M.A.<-data.frame(Variables="Long.O.M.A.", CV.Error.Rate=Long.O.M.A.All)   
O.A.O.M.A.<-data.frame(Variables="O.A.O.M.A.", CV.Error.Rate=O.A.O.M.A.All)  
Lat.Long.O.A.<-data.frame(Variables="Lat.Long.O.A.", CV.Error.Rate=Lat.Long.O.A.All)  
Lat.Long.O.M.A.<-data.frame(Variables="Lat.Long.O.M.A.", CV.Error.Rate=Lat.Long.O.M.A.All) 
Lat.O.A.O.M.A.<-data.frame(Variables="Lat.O.A.O.M.A.", CV.Error.Rate=Lat.O.A.O.M.A.All)  
Long.O.A.O.M.A.<-data.frame(Variables="Long.O.A.O.M.A.", CV.Error.Rate=Long.O.A.O.M.A.All)  
Lat.Long.O.A.O.M.A.<-data.frame(Variables="Lat.Long.O.A.O.M.A.", CV.Error.Rate=Lat.Long.O.A.O.M.A.All) 

df<-rbind(PC1., PC2., PC1.PC2., Lat., Long., O.A., O.M.A., Lat.Long., Lat.O.A.,  Lat.O.M.A., Long.O.A., Lat.O.M.A., O.A.O.M.A., Lat.Long.O.A., Lat.Long.O.M.A., Lat.O.A.O.M.A., Long.O.A.O.M.A., Lat.Long.O.A.O.M.A.)

ggplot(df, aes(x=Variables, y=CV.Error.Rate))+geom_boxplot(color = "green")+geom_jitter(alpha=0.1)+theme(axis.text.x = element_text(angle = 90, hjust = 1, size = 7))

summary(PC1.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  0.1627  0.1712  0.1729  0.1735  0.1763  0.1847
quantile(PC1.All, probs = c(0.025, 0.975))
##      2.5%     97.5% 
## 0.1661017 0.1813559
sd(PC1.All)
## [1] 0.003846516
summary(PC2.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  0.3864  0.3949  0.3966  0.3971  0.4000  0.4102
quantile(PC2.All, probs = c(0.025, 0.975))
##      2.5%     97.5% 
## 0.3898305 0.4050847
sd(PC2.All)
## [1] 0.003760727
summary(PC1.PC2.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
## 0.04068 0.05085 0.05254 0.05290 0.05593 0.06610
quantile(PC1.PC2.All, probs = c(0.025, 0.975))
##       2.5%      97.5% 
## 0.04576271 0.06101695
sd(PC1.PC2.All)
## [1] 0.003817152
summary(Lat.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  0.3017  0.3136  0.3169  0.3170  0.3203  0.3356
quantile(Lat.All, probs = c(0.025, 0.975))
##      2.5%     97.5% 
## 0.3067797 0.3271186
sd(Lat.All)
## [1] 0.004835168
summary(Long.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  0.6458  0.6508  0.6525  0.6525  0.6542  0.6661
quantile(Long.All, probs = c(0.025, 0.975))
##      2.5%     97.5% 
## 0.6474576 0.6576271
sd(Long.All)
## [1] 0.002567439
summary(O.A.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  0.1525  0.1627  0.1644  0.1647  0.1661  0.1780
quantile(O.A.All, probs = c(0.025, 0.975))
##      2.5%     97.5% 
## 0.1576271 0.1728814
sd(O.A.All)
## [1] 0.003783707
summary(O.M.A.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  0.4017  0.4102  0.4119  0.4127  0.4153  0.4237
quantile(O.M.A.All, probs = c(0.025, 0.975))
##      2.5%     97.5% 
## 0.4050847 0.4203390
sd(O.M.A.All)
## [1] 0.00369611
summary(Lat.Long.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  0.2898  0.3000  0.3051  0.3044  0.3085  0.3220
quantile(Lat.Long.All, probs = c(0.025, 0.975))
##      2.5%     97.5% 
## 0.2932203 0.3169492
sd(Lat.Long.All)
## [1] 0.006006008
summary(Lat.O.A.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
## 0.04407 0.05254 0.05424 0.05538 0.05763 0.07288
quantile(Lat.O.A.All, probs = c(0.025, 0.975))
##       2.5%      97.5% 
## 0.04745763 0.06440678
sd(Lat.O.A.All)
## [1] 0.004144399
summary(Lat.O.M.A.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  0.2220  0.2305  0.2339  0.2340  0.2373  0.2475
quantile(Lat.O.M.A.All, probs = c(0.025, 0.975))
##      2.5%     97.5% 
## 0.2254237 0.2423729
sd(Lat.O.M.A.All)
## [1] 0.00452944
summary(Long.O.A.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  0.1254  0.1373  0.1407  0.1406  0.1441  0.1576
quantile(Long.O.A.All, probs = c(0.025, 0.975))
##      2.5%     97.5% 
## 0.1322034 0.1508475
sd(Long.O.A.All)
## [1] 0.00465351
summary(Long.O.M.A.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  0.4051  0.4186  0.4220  0.4222  0.4254  0.4424
quantile(Long.O.M.A.All, probs = c(0.025, 0.975))
##      2.5%     97.5% 
## 0.4101695 0.4338983
sd(Long.O.M.A.All)
## [1] 0.005925838
summary(O.A.O.M.A.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
## 0.08136 0.08983 0.09153 0.09236 0.09492 0.10680
quantile(O.A.O.M.A.All, probs = c(0.025, 0.975))
##       2.5%      97.5% 
## 0.08474576 0.10000000
sd(O.A.O.M.A.All)
## [1] 0.003754821
summary(Lat.Long.O.A.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
## 0.05424 0.06441 0.06780 0.06848 0.07119 0.08305
quantile(Lat.Long.O.A.All, probs = c(0.025, 0.975))
##       2.5%      97.5% 
## 0.05932203 0.07885593
sd(Lat.Long.O.A.All)
## [1] 0.004988383
summary(Lat.Long.O.M.A.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  0.2136  0.2322  0.2356  0.2363  0.2407  0.2559
quantile(Lat.Long.O.M.A.All, probs = c(0.025, 0.975))
##      2.5%     97.5% 
## 0.2237288 0.2491525
sd(Lat.Long.O.M.A.All)
## [1] 0.00687235
summary(Lat.O.A.O.M.A.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
## 0.05763 0.06780 0.06949 0.07012 0.07288 0.08305
quantile(Lat.O.A.O.M.A.All, probs = c(0.025, 0.975))
##       2.5%      97.5% 
## 0.06101695 0.07796610
sd(Lat.O.A.O.M.A.All)
## [1] 0.004303213
summary(Long.O.A.O.M.A.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
## 0.08644 0.09492 0.09831 0.09846 0.10170 0.11360
quantile(Long.O.A.O.M.A.All, probs = c(0.025, 0.975))
##       2.5%      97.5% 
## 0.08983051 0.10677966
sd(Long.O.A.O.M.A.All)
## [1] 0.004351914
summary(Lat.Long.O.A.O.M.A.All)
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
## 0.06271 0.07458 0.07797 0.07799 0.08136 0.09322
quantile(Lat.Long.O.A.O.M.A.All, probs = c(0.025, 0.975))
##       2.5%      97.5% 
## 0.06779661 0.08813559
sd(Lat.Long.O.A.O.M.A.All)
## [1] 0.00514601