url <- "https://web.stanford.edu/~hastie/ElemStatLearn/datasets/prostate.data"
prostate <- read.table(url, header = TRUE)
str(prostate)
## 'data.frame': 97 obs. of 10 variables:
## $ lcavol : num -0.58 -0.994 -0.511 -1.204 0.751 ...
## $ lweight: num 2.77 3.32 2.69 3.28 3.43 ...
## $ age : int 50 58 74 58 62 50 64 58 47 63 ...
## $ lbph : num -1.39 -1.39 -1.39 -1.39 -1.39 ...
## $ svi : int 0 0 0 0 0 0 0 0 0 0 ...
## $ lcp : num -1.39 -1.39 -1.39 -1.39 -1.39 ...
## $ gleason: int 6 6 7 6 6 6 6 6 6 6 ...
## $ pgg45 : int 0 0 20 0 0 0 0 0 0 0 ...
## $ lpsa : num -0.431 -0.163 -0.163 -0.163 0.372 ...
## $ train : logi TRUE TRUE TRUE TRUE TRUE TRUE ...
Dari beberapa variabel di atas, ada 2 variabel yang harus diubah tipe nya yaitu svi dan gleason yang harus diubah menjadi factor
#summary Data
summary(prostate)
## lcavol lweight age lbph
## Min. :-1.3471 Min. :2.375 Min. :41.00 Min. :-1.3863
## 1st Qu.: 0.5128 1st Qu.:3.376 1st Qu.:60.00 1st Qu.:-1.3863
## Median : 1.4469 Median :3.623 Median :65.00 Median : 0.3001
## Mean : 1.3500 Mean :3.629 Mean :63.87 Mean : 0.1004
## 3rd Qu.: 2.1270 3rd Qu.:3.876 3rd Qu.:68.00 3rd Qu.: 1.5581
## Max. : 3.8210 Max. :4.780 Max. :79.00 Max. : 2.3263
## svi lcp gleason pgg45
## Min. :0.0000 Min. :-1.3863 Min. :6.000 Min. : 0.00
## 1st Qu.:0.0000 1st Qu.:-1.3863 1st Qu.:6.000 1st Qu.: 0.00
## Median :0.0000 Median :-0.7985 Median :7.000 Median : 15.00
## Mean :0.2165 Mean :-0.1794 Mean :6.753 Mean : 24.38
## 3rd Qu.:0.0000 3rd Qu.: 1.1787 3rd Qu.:7.000 3rd Qu.: 40.00
## Max. :1.0000 Max. : 2.9042 Max. :9.000 Max. :100.00
## lpsa train
## Min. :-0.4308 Mode :logical
## 1st Qu.: 1.7317 FALSE:30
## Median : 2.5915 TRUE :67
## Mean : 2.4784
## 3rd Qu.: 3.0564
## Max. : 5.5829
#cek missing value
plot_intro(data = prostate,
ggtheme = theme_classic(),
theme_config = list(axis.line=element_blank(),
axis.ticks=element_blank(),
axis.text.x=element_blank(),
axis.title=element_blank()
))
Berdasarkan plot di atas dapat dilihat bahwa data terdiri dari 30% data
dikret dan 70% data dan tidak data hilang.
sum(is.na(prostate))
## [1] 0
Data juga tidak mengandung pengamatan duplikat
#Mengubah variabel svi menjadi factor
prostate$svi <- as.factor(prostate$svi)
#Mengubah variavel gleason menjadi factor
prostate$gleason <- as.factor(prostate$gleason)
# Mengkategorikan data gleason
prostate <- prostate %>%
mutate(gleason = case_when(
gleason == 6 ~ "low",
gleason == 7 ~ "intermediate",
gleason %in% c(8, 9) ~ "high",
TRUE ~ as.character(gleason)
))
str(prostate)
## 'data.frame': 97 obs. of 10 variables:
## $ lcavol : num -0.58 -0.994 -0.511 -1.204 0.751 ...
## $ lweight: num 2.77 3.32 2.69 3.28 3.43 ...
## $ age : int 50 58 74 58 62 50 64 58 47 63 ...
## $ lbph : num -1.39 -1.39 -1.39 -1.39 -1.39 ...
## $ svi : Factor w/ 2 levels "0","1": 1 1 1 1 1 1 1 1 1 1 ...
## $ lcp : num -1.39 -1.39 -1.39 -1.39 -1.39 ...
## $ gleason: chr "low" "low" "intermediate" "low" ...
## $ pgg45 : int 0 0 20 0 0 0 0 0 0 0 ...
## $ lpsa : num -0.431 -0.163 -0.163 -0.163 0.372 ...
## $ train : logi TRUE TRUE TRUE TRUE TRUE TRUE ...
prostate %>%
ggplot(aes(x = svi)) +
geom_bar(aes(fill = "blue")) +
ggtitle("SVI") +
theme(legend.position = "none")
table(prostate$svi)
##
## 0 1
## 76 21
# Histogram
plot_histogram(prostate,
ggtheme = theme_classic(),
geom_histogram_args = list(fill="red"))
## `stat_bin()` using `bins = 30`. Pick better value with `binwidth`.
library(corrplot)
# Memilih kolom numerik dari dataframe
numeric_data <- prostate[, sapply(prostate, is.numeric)]
# Menghitung matriks korelasi
M <- cor(numeric_data)
# Menyiapkan skala warna
col <- colorRampPalette(c("#BB4444", "#EE9988", "#FFFFFF", "#77AADD", "#4477AA"))
# Menampilkan matriks korelasi dengan corrplot
corrplot(M, method="color", col=col(200),
addCoef.col = "black",
tl.col="black", tl.srt=45,
diag=FALSE)
Dari matriks korelasi di atas dapat dilihat bahwa tidak terjadi
multikolinearitas karena tidak ada koefisien korelasi yang lebih dari
0.80
# Pisahkan data secara acak menjadi data training (80%) dan testing (20%)
set.seed(1501231060)
index_train <- createDataPartition(prostate$lpsa, p = 0.8, list = FALSE)
data_train <- prostate[index_train, ]
data_test <- prostate[-index_train, ]
#Regresi Linear untuk menentukan variabel prediktor yang paling berpengaruh terhadap lspa
reglinear<-lm(lpsa~.,data=data_train)
summary(reglinear)
##
## Call:
## lm(formula = lpsa ~ ., data = data_train)
##
## Residuals:
## Min 1Q Median 3Q Max
## -1.65592 -0.32988 -0.00379 0.40182 1.62142
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 0.042532 1.125184 0.038 0.96996
## lcavol 0.572727 0.099691 5.745 2.36e-07 ***
## lweight 0.478324 0.240801 1.986 0.05102 .
## age -0.017651 0.012847 -1.374 0.17400
## lbph 0.108037 0.063381 1.705 0.09284 .
## svi1 0.786531 0.250803 3.136 0.00253 **
## lcp -0.174506 0.099474 -1.754 0.08389 .
## gleasonintermediate 0.697382 0.437324 1.595 0.11543
## gleasonlow 0.600441 0.559015 1.074 0.28657
## pgg45 0.010247 0.005203 1.969 0.05298 .
## trainTRUE -0.121799 0.181653 -0.671 0.50481
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.6686 on 68 degrees of freedom
## Multiple R-squared: 0.7037, Adjusted R-squared: 0.6601
## F-statistic: 16.15 on 10 and 68 DF, p-value: 2.079e-14
berdasarkan summary model di atas, dapat dilihat bahwa variabel lcavol adalah variabel yang paling berpengaruh terhadap lpsa, sehingga variabel lcavol akan digunakan untuk membentuk pemodelan
Sebelum membentuk model polinomial, langkah awalnya adalah melakukan pemilihan derajat terbaik berdasarkan nilai MSE yang paling kecil. Proses ini melibatkan percobaan berbagai derajat polinomial dan mengukur MSE untuk setiap derajat tersebut. Derajat polinomial yang memberikan nilai MSE terendah akan dipilih sebagai derajat terbaik untuk pemodelan.
# Fungsi untuk menghitung MSE
calculate_mse <- function(actual, predicted) {
mean((actual - predicted)^2)
}
# Fungsi untuk melakukan seleksi derajat polinomial terbaik
select_poly_degree <- function(degree, dataset) {
set.seed(123)
# Check if 'dataset' is a data frame
if (!is.data.frame(dataset)) {
stop("'dataset' must be a data.frame")
}
mse_values <- sapply(degree, function(d) {
formula <- as.formula(paste("lpsa ~ poly(lcavol, degree = ", d, ")", sep = ""))
model <- lm(formula, data = dataset)
predictions <- predict(model, newdata = dataset)
mse <- calculate_mse(dataset$lpsa, predictions)
return(mse)
})
best_degree <- degree[which.min(mse_values)]
return(best_degree)
}
# Seleksi derajat polinomial terbaik
best_poly_degree <- select_poly_degree(1:5, data_train)
cat("Derajat polinomial terbaik adalah:", best_poly_degree, "\n")
## Derajat polinomial terbaik adalah: 5
# Membuat model regresi polinomial derajat 5
formula_poly <- as.formula("lpsa ~ poly(lcavol, degree = 5)")
model_poly <- lm(formula_poly, data = data_train)
# Summary of the polynomial regression model
summary(model_poly)
##
## Call:
## lm(formula = formula_poly, data = data_train)
##
## Residuals:
## Min 1Q Median 3Q Max
## -1.7920 -0.5770 0.1221 0.5012 1.8983
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 2.48629 0.08646 28.755 < 2e-16 ***
## poly(lcavol, degree = 5)1 7.59989 0.76851 9.889 4.09e-15 ***
## poly(lcavol, degree = 5)2 0.39229 0.76851 0.510 0.611
## poly(lcavol, degree = 5)3 1.10389 0.76851 1.436 0.155
## poly(lcavol, degree = 5)4 0.23489 0.76851 0.306 0.761
## poly(lcavol, degree = 5)5 -0.53144 0.76851 -0.692 0.491
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.7685 on 73 degrees of freedom
## Multiple R-squared: 0.5797, Adjusted R-squared: 0.5509
## F-statistic: 20.14 on 5 and 73 DF, p-value: 1.441e-12
# Prediksi menggunakan model polinomial pada data testing
test_predictions_poly <- predict(model_poly, newdata = data_test)
# Menghitung MSE dan RMSE
mse_test <- calculate_mse(data_test$lpsa, test_predictions_poly)
rmse_test <- sqrt(mse_test)
# Menampilkan hasil evaluasi
cat("MSE pada data testing:", mse_test, "\n")
## MSE pada data testing: 0.7546731
cat("RMSE pada data testing:", rmse_test, "\n")
## RMSE pada data testing: 0.8687192
sebelum membentuk model regresi spline, terlebih dahulu perlu dilakukan pemilihan derajat bebas terbaik yang akan digunakan untuk pemodelan. Pemilihan derajat bebas didasarkan pada nilai MSE yang paling kecil.
# Fungsi untuk mencari knots terbaik
find_best_knots <- function(data, max_knots) {
mse_values <- numeric(max_knots)
for (k in 1:max_knots) {
formula_spline <- as.formula(paste("lpsa ~ ns(lcavol, df =", k, ")", sep = ""))
model_spline <- lm(formula_spline, data = data)
# Prediksi menggunakan model spline
predictions <- predict(model_spline, newdata = data)
# Menghitung MSE
mse_values[k] <- calculate_mse(data$lpsa, predictions)
}
best_k <- which.min(mse_values)
return(list(best_knots = best_k, mse_values = mse_values))
}
# Mencari knots terbaik dengan jumlah maksimal knots 10
result_knots <- find_best_knots(data_train, max_knots = 10)
# Menampilkan hasil
cat("Jumlah knots terbaik:", result_knots$best_knots, "\n")
## Jumlah knots terbaik: 10
cat("MSE untuk setiap jumlah knots:", result_knots$mse_values, "\n")
## MSE untuk setiap jumlah knots: 0.5674004 0.5652605 0.5491307 0.5485053 0.5480689 0.5475133 0.5467953 0.5470584 0.5471766 0.5388623
# Fungsi untuk melakukan seleksi derajat bebas terbaik pada model spline
select_spline_df <- function(df_values, dataset) {
set.seed(123)
mse_values <- map_dbl(df_values, function(df) {
model <- lm(lpsa ~ bs(lcavol, df = df) + bs(lweight, df = df), data = dataset)
predictions <- predict(model, newdata = dataset)
mse <- calculate_mse(dataset$lpsa, predictions)
return(mse)
})
best_df <- df_values[which.min(mse_values)]
return(best_df)
}
# Seleksi derajat bebas terbaik pada model spline
best_spline_df <- select_spline_df(1:10, data_train)
## Warning in bs(lcavol, df = df): 'df' was too small; have used 3
## Warning in bs(lweight, df = df): 'df' was too small; have used 3
## Warning in bs(lcavol, df = df): 'df' was too small; have used 3
## Warning in bs(lweight, df = df): 'df' was too small; have used 3
cat("\n","derajat bebas spline terbaik adalah :",best_spline_df)
##
## derajat bebas spline terbaik adalah : 10
# Membangun model Spline dengan derajat bebas terbaik
spline_model <- lm(lpsa ~ bs(lcavol, df = 10 ) , data = data_train)
# Evaluasi model SPline pada data testing
test_predictions_spline <- predict(spline_model, newdata = data_test)
summary(spline_model)
##
## Call:
## lm(formula = lpsa ~ bs(lcavol, df = 10), data = data_train)
##
## Residuals:
## Min 1Q Median 3Q Max
## -1.56526 -0.51360 0.07821 0.45906 1.84092
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 0.8500 0.6625 1.283 0.203849
## bs(lcavol, df = 10)1 -1.6277 1.5792 -1.031 0.306330
## bs(lcavol, df = 10)2 1.9503 1.0446 1.867 0.066206 .
## bs(lcavol, df = 10)3 0.6152 0.9808 0.627 0.532632
## bs(lcavol, df = 10)4 1.6385 0.8022 2.042 0.044995 *
## bs(lcavol, df = 10)5 1.4903 0.8130 1.833 0.071160 .
## bs(lcavol, df = 10)6 2.0436 0.8572 2.384 0.019917 *
## bs(lcavol, df = 10)7 1.6986 0.9774 1.738 0.086756 .
## bs(lcavol, df = 10)8 3.1105 1.1211 2.774 0.007133 **
## bs(lcavol, df = 10)9 3.1316 1.2221 2.563 0.012609 *
## bs(lcavol, df = 10)10 4.0994 1.0179 4.027 0.000145 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 0.7848 on 68 degrees of freedom
## Multiple R-squared: 0.5917, Adjusted R-squared: 0.5317
## F-statistic: 9.856 on 10 and 68 DF, p-value: 5.797e-10
sebelum membentuk model GAM, terlebih dahulu perlu dilakukan pemilihan derajat bebas terbaik (k) yang akan digunakan untuk pemodelan. Pemilihan derajat bebas (k) GAM didasarkan pada nilai MSE yang paling kecil.
# Fungsi untuk menampilkan MSE untuk semua nilai k pada model GAM
display_gam_mse <- function(k_values, dataset) {
mse_values <- map_dbl(k_values, function(k) {
model <- gam(lpsa ~ s(lcavol, k = k) + s(lweight, k = k), data = dataset)
predictions <- predict(model, newdata = dataset)
mse <- calculate_mse(dataset$lpsa, predictions)
return(mse)
})
return(data.frame(K = k_values, MSE = mse_values))
}
# Menampilkan MSE untuk semua nilai k pada model GAM
gam_mse_results <- display_gam_mse(1:10, data_train)
## Warning in smooth.construct.tp.smooth.spec(object, dk$data, dk$knots): basis dimension, k, increased to minimum possible
## Warning in smooth.construct.tp.smooth.spec(object, dk$data, dk$knots): basis dimension, k, increased to minimum possible
## Warning in smooth.construct.tp.smooth.spec(object, dk$data, dk$knots): basis dimension, k, increased to minimum possible
## Warning in smooth.construct.tp.smooth.spec(object, dk$data, dk$knots): basis dimension, k, increased to minimum possible
cat("\nMSE for GAM Models:\n")
##
## MSE for GAM Models:
print(gam_mse_results)
## K MSE
## 1 1 0.5013242
## 2 2 0.5013242
## 3 3 0.5013242
## 4 4 0.5036140
## 5 5 0.5031268
## 6 6 0.5012781
## 7 7 0.5008509
## 8 8 0.4343074
## 9 9 0.4120074
## 10 10 0.4174613
# Fungsi untuk melakukan seleksi nilai k terbaik pada model GAM
select_gam_k <- function(k_values, dataset) {
set.seed(123)
mse_values <- map_dbl(k_values, function(k) {
model <- gam(lpsa ~ s(lcavol, k = k) + s(lweight, k = k), data = dataset)
predictions <- predict(model, newdata = dataset)
mse <- calculate_mse(dataset$lpsa, predictions)
return(mse)
})
best_k <- k_values[which.min(mse_values)]
return(best_k)
}
# Seleksi nilai k terbaik pada model GAM
best_gam_k <- select_gam_k(1:10, data_train)
## Warning in smooth.construct.tp.smooth.spec(object, dk$data, dk$knots): basis dimension, k, increased to minimum possible
## Warning in smooth.construct.tp.smooth.spec(object, dk$data, dk$knots): basis dimension, k, increased to minimum possible
## Warning in smooth.construct.tp.smooth.spec(object, dk$data, dk$knots): basis dimension, k, increased to minimum possible
## Warning in smooth.construct.tp.smooth.spec(object, dk$data, dk$knots): basis dimension, k, increased to minimum possible
cat("\n","derajat bebas spline terbaik adalah :",best_gam_k)
##
## derajat bebas spline terbaik adalah : 9
# Membangun model GAM dengan parameter terbaik
gam_model <- gam(lpsa ~ s(lcavol, k = 9 ) , data = data_train)
# Evaluasi model GAM pada data testing
test_predictions_gam <- predict(gam_model, newdata = data_test)
summary(gam_model)
##
## Family: gaussian
## Link function: identity
##
## Formula:
## lpsa ~ s(lcavol, k = 9)
##
## Parametric coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 2.48629 0.08584 28.96 <2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Approximate significance of smooth terms:
## edf Ref.df F p-value
## s(lcavol) 1 1 99.22 <2e-16 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## R-sq.(adj) = 0.557 Deviance explained = 56.3%
## GCV = 0.59726 Scale est. = 0.58214 n = 79
###Perbandingan model polinomial, spline, GAM
# Menghitung MSE untuk model terbaik
mse_poly_best <- calculate_mse(data_test$lpsa, test_predictions_poly)
mse_spline_best <- calculate_mse(data_test$lpsa, test_predictions_spline)
mse_gam_best <- calculate_mse(data_test$lpsa, test_predictions_gam)
# Menampilkan hasil MSE untuk model terbaik
cat("MSE Regresi Polinomial (degree =", best_poly_degree, "):", mse_poly_best, "\n")
## MSE Regresi Polinomial (degree = 5 ): 0.7546731
cat("MSE Regresi Spline (df =", best_spline_df, "):", mse_spline_best, "\n")
## MSE Regresi Spline (df = 10 ): 0.7244034
cat("MSE Generalized Additive Models (GAM) (k =", best_gam_k, "):", mse_gam_best, "\n")
## MSE Generalized Additive Models (GAM) (k = 9 ): 0.7862615
Berdasarkan hasil evaluasi model, dapat dilihat bahwa Regresi Spline dengan 10 derajat kebebasan (df) menghasilkan nilai Mean Squared Error (MSE) yang terendah dibandingkan dengan Regresi Polinomial dengan derajat 5 dan Generalized Additive Models (GAM) dengan 9 knot. Secara spesifik, MSE untuk Regresi Polinomial (degree = 5) sebesar 0.7546731, sementara Regresi Spline (df = 10) memiliki MSE sebesar 0.7244034, dan GAM (k = 9) memiliki MSE sebesar 0.7862615.
Dengan nilai MSE yang lebih rendah, Regresi Spline menunjukkan performa yang lebih baik dalam memodelkan hubungan antara variabel prediktor dan respons dalam dataset. MSE mencerminkan seberapa baik model dapat memprediksi nilai respons yang sebenarnya, dan semakin rendah nilai MSE, semakin baik model tersebut.
Oleh karena itu, dari segi performa prediksi, Regresi Spline dengan 10 derajat kebebasan dapat dianggap sebagai model yang lebih optimal dalam konteks ini.
# Memuat library yang diperlukan
library(ggplot2)
library(gridExtra)
##
## Attaching package: 'gridExtra'
## The following object is masked from 'package:dplyr':
##
## combine
# Membuat plot untuk model regresi polinomial
plot_poly <- ggplot(data = data_train, aes(x = lcavol, y = lpsa)) +
geom_point(alpha = 0.55, color = "black") +
geom_smooth(method = "lm", formula = y ~ poly(x, best_poly_degree), se = FALSE, col = "blue") +
labs(title = "Regresi Polinomial",
x = "lcavol",
y = "lpsa") +
theme_minimal()
# Membuat plot untuk model regresi spline
plot_spline <- ggplot(data = data_train, aes(x = lcavol, y = lpsa)) +
geom_point(alpha = 0.55, color = "black") +
geom_smooth(method = "lm", formula = y ~ bs(x, df = best_spline_df), se = FALSE, col = "red") +
labs(title = "Regresi Spline",
x = "lcavol",
y = "lpsa") +
theme_minimal()
# Membuat plot untuk model GAM
plot_gam <- ggplot(data = data_train, aes(x = lcavol, y = lpsa)) +
geom_point(alpha = 0.55, color = "black") +
geom_smooth(method = "gam", formula = y ~ s(x, k = best_gam_k), se = FALSE, col = "green") +
labs(title = "Generalized Additive Models (GAM)",
x = "lcavol",
y = "lpsa") +
theme_minimal()
#plot gabungan
plot_gab<-ggplot(data_train, aes(x = lcavol, y = lpsa)) +
geom_point(alpha = 0.55, color = "black") +
ggtitle("Scatterplot lcavol vs lpsa") +
geom_smooth(method = "lm", formula = y ~ poly(x, best_poly_degree), se = FALSE, col = "blue") +
geom_smooth(method = "lm", formula = y ~ bs(x, df = best_spline_df), se = FALSE, col = "red") +
geom_smooth(method = "gam", formula = y ~ s(x, k = best_gam_k), se = FALSE, col = "green") +
theme_light() +
labs(title = "Plot Gabungan",
x = "lcavol",
y = "lpsa") +
theme_minimal()
# Menggabungkan plot dalam satu frame
combined_plot <- grid.arrange(plot_poly, plot_spline, plot_gam,plot_gab, ncol = 2)
# Menampilkan plot
print(combined_plot)
## TableGrob (2 x 2) "arrange": 4 grobs
## z cells name grob
## 1 1 (1-1,1-1) arrange gtable[layout]
## 2 2 (1-1,2-2) arrange gtable[layout]
## 3 3 (2-2,1-1) arrange gtable[layout]
## 4 4 (2-2,2-2) arrange gtable[layout]
url <- "https://web.stanford.edu/~hastie/ElemStatLearn/datasets/bone.data"
Bone <- read.table(url, header = TRUE)
str(Bone)
## 'data.frame': 485 obs. of 4 variables:
## $ idnum : int 1 1 1 2 2 2 3 3 3 4 ...
## $ age : num 11.7 12.7 13.8 13.2 14.3 ...
## $ gender: chr "male" "male" "male" "male" ...
## $ spnbmd: num 0.01808 0.06011 0.00586 0.01026 0.21053 ...
DataFrame Bone_raw memiliki 1003 entri dan 5 variabel. Variabel-variabel tersebut adalah: - idnum: Variabel ini memiliki tipe data integer dan merupakan nomor identifikasi unik untuk setiap entri. - age: Variabel ini memiliki tipe data numerik (num) dan menyimpan informasi tentang usia subjek. - gender : Variabel ini memiliki tipe data kategorik (factor) dan menyimpan informasi tentang jenis kelamin subjek. - spnbmd: Variabel ini memiliki tipe data numerik (num) dan mengukur kepadatan mineral tulang.
summary(Bone)
## idnum age gender spnbmd
## Min. : 1.0 Min. : 9.40 Length:485 Min. :-0.064103
## 1st Qu.: 60.0 1st Qu.:12.70 Class :character 1st Qu.: 0.005858
## Median :124.0 Median :15.40 Mode :character Median : 0.026591
## Mean :151.5 Mean :16.10 Mean : 0.039252
## 3rd Qu.:240.0 3rd Qu.:19.15 3rd Qu.: 0.064127
## Max. :384.0 Max. :25.55 Max. : 0.219913
Bone <- subset(Bone,select=-c(idnum))
head(Bone)
## age gender spnbmd
## 1 11.70 male 0.018080670
## 2 12.70 male 0.060109290
## 3 13.75 male 0.005857545
## 4 13.25 male 0.010263930
## 5 14.30 male 0.210526300
## 6 15.30 male 0.040843210
DataFrame Bone_raw terdiri dari lima variabel, yaitu idnum, ethnic, age, sex, dan spnbmd. Variabel idnum adalah nomor identifikasi unik untuk setiap entri dalam dataset. ethnic mengindikasikan kelompok etnis, age mencatat usia subjek, sex mencatat jenis kelamin, dan spnbmd mengukur kepadatan mineral tulang.
DataFrame Bone dibuat sebagai subset dari Bone_raw dengan menghilangkan variabel idnum. Dengan demikian, DataFrame Bone hanya terdiri dari variabel ethnic, age, sex, dan spnbmd. Informasi yang tersedia dalam Bone melibatkan kelompok etnis subjek, usia, jenis kelamin, dan tingkat kepadatan mineral tulang yang diukur.
# Distribusi kelompok usia
hist(Bone$age, main = "Histogram Usia", xlab = "Usia")
# diagram gender
barplot(table(Bone$gender), main = "Diagram Batang Jenis Kelamin", xlab = "Jenis Kelamin", col = c("skyblue", "pink"))
boxplot(spnbmd ~ gender, data = Bone, main = "Boxplot Kepadatan Mineral Tulang Berdasarkan Jenis Kelamin", xlab = "Jenis Kelamin", ylab = "Kepadatan Mineral Tulang", col = c("skyblue", "pink"))
library(ggplot2)
ggplot(Bone, aes(x = age, fill = gender)) +
geom_density(alpha = 0.5) +
labs(title = "Kernel Density Plot Usia Berdasarkan Jenis Kelamin", x = "Usia", y = "Kepadatan")
### pembagian data
set.seed(1060)
index_train <- createDataPartition(Bone$spnbmd, p = 0.8, list = FALSE)
data_train_bone <- Bone[index_train, ]
data_test_bone <- Bone[-index_train, ]
nbagg_values <- c(50, 100, 150, 200)
# Inisialisasi variabel untuk menyimpan model dan hasil evaluasi
models_bagging <- list()
mse_values_bagging <- numeric(length(nbagg_values))
# Loop untuk mencoba setiap nilai nbagg
for (i in seq_along(nbagg_values)) {
# Melatih model
model_bagging <- bagging(spnbmd ~ ., data = data_train_bone, nbagg = nbagg_values[i])
models_bagging[[i]] <- model_bagging
# Melakukan prediksi pada data uji
prediksi_bagging <- predict(model_bagging, newdata = data_test_bone)
# Menghitung Mean Squared Error (MSE)
mse_values_bagging[i] <- mean((data_test_bone$spnbmd - prediksi_bagging)^2)
}
# Menampilkan hasil evaluasi untuk setiap nilai nbagg
results_bagging <- data.frame(nbagg = nbagg_values, MSE = mse_values_bagging)
print("Evaluasi Model Bagging:")
## [1] "Evaluasi Model Bagging:"
print(results_bagging)
## nbagg MSE
## 1 50 0.001468799
## 2 100 0.001513926
## 3 150 0.001524177
## 4 200 0.001505912
# Pilih model dengan MSE terendah
best_model_index_bagging <- which.min(mse_values_bagging)
best_model_bagging <- models_bagging[[best_model_index_bagging]]
# Tampilkan ringkasan model terbaik
print("Model Terbaik Bagging:")
## [1] "Model Terbaik Bagging:"
print(best_model_bagging)
##
## Bagging regression trees with 50 bootstrap replications
##
## Call: bagging.data.frame(formula = spnbmd ~ ., data = data_train_bone,
## nbagg = nbagg_values[i])
# Mengambil nilai nbagg dengan MSE terendah
best_nbagg_bagging <- results_bagging$nbagg[which.min(results_bagging$MSE)]
# Mendapatkan nilai MSE terendah
best_mse_bagging <- min(results_bagging$MSE)
# Menampilkan nilai nbagg terbaik dan MSE terendah
print(paste("Nilai nbagg terbaik untuk Bagging:", best_nbagg_bagging))
## [1] "Nilai nbagg terbaik untuk Bagging: 50"
print(paste("MSE terendah untuk Bagging:", best_mse_bagging))
## [1] "MSE terendah untuk Bagging: 0.00146879920609164"
# Visualisasi hasil prediksi dan nilai aktual pada data uji untuk Bagging
plot(data_test_bone$spnbmd, prediksi_bagging, col = "blue", pch = 16, main = "Prediksi vs. Nilai Aktual (Bagging)")
abline(0, 1, col = "red", lty = 2) # Garis diagonal untuk perbandingan sempurna
legend("topleft", legend = paste("MSE =", round(mse_values_bagging[best_model_index_bagging], 4)),
col = "red", lty = 2, bty = "n")
### Rgeression tree+random forest
library(randomForest)
## randomForest 4.7-1.1
## Type rfNews() to see new features/changes/bug fixes.
##
## Attaching package: 'randomForest'
## The following object is masked from 'package:gridExtra':
##
## combine
## The following object is masked from 'package:dplyr':
##
## combine
## The following object is masked from 'package:ggplot2':
##
## margin
# Inisialisasi nilai ntree yang akan diuji
ntree_values <- c(50, 100, 150, 200)
# Inisialisasi variabel untuk menyimpan model dan hasil evaluasi
models_rf <- list()
mse_values_rf <- numeric(length(ntree_values))
# Loop untuk mencoba setiap nilai ntree
for (i in seq_along(ntree_values)) {
# Melatih model
model_rf <- randomForest(spnbmd ~ ., data = data_train_bone, ntree = ntree_values[i])
models_rf[[i]] <- model_rf
# Melakukan prediksi pada data uji
prediksi_rf <- predict(model_rf, newdata = data_test_bone)
# Menghitung Mean Squared Error (MSE)
mse_values_rf[i] <- mean((data_test_bone$spnbmd - prediksi_rf)^2)
}
# Menampilkan hasil evaluasi untuk setiap nilai ntree
results_rf <- data.frame(ntree = ntree_values, MSE = mse_values_rf)
print("Evaluasi Model Random Forest:")
## [1] "Evaluasi Model Random Forest:"
print(results_rf)
## ntree MSE
## 1 50 0.001598226
## 2 100 0.001559068
## 3 150 0.001540907
## 4 200 0.001541876
# Pilih model dengan MSE terendah
best_model_index_rf <- which.min(mse_values_rf)
best_model_rf <- models_rf[[best_model_index_rf]]
# Tampilkan ringkasan model terbaik
print("Model Terbaik Random Forest:")
## [1] "Model Terbaik Random Forest:"
print(best_model_rf)
##
## Call:
## randomForest(formula = spnbmd ~ ., data = data_train_bone, ntree = ntree_values[i])
## Type of random forest: regression
## Number of trees: 150
## No. of variables tried at each split: 1
##
## Mean of squared residuals: 0.001592854
## % Var explained: 36.4
# Visualisasi hasil evaluasi untuk Random Forest
plot(results_rf$ntree, results_rf$MSE, type = "b",
main = "Evaluasi Model Random Forest", xlab = "Jumlah Pohon (ntree)", ylab = "Mean Squared Error (MSE)")
library(gbm)
## Loaded gbm 2.1.9
## This version of gbm is no longer under development. Consider transitioning to gbm3, https://github.com/gbm-developers/gbm3
library(caret)
# Inisialisasi ruang parameter untuk Grid Search
param_grid <- expand.grid(n.trees = seq(50, 150, by = 10),
interaction.depth = seq(3, 5, by = 1),
shrinkage = c(0.01, 0.1, 0.2),
n.minobsinnode = c(5, 10, 20))
# Fungsi untuk evaluasi model dengan cross-validation
eval_model <- function(params) {
set.seed(123) # Atur seed untuk hasil yang dapat direproduksi
model <- train(spnbmd ~ ., data = data_train_bone, method = "gbm",
trControl = trainControl(method = "cv", number = 5),
tuneGrid = params)
return(model)
}
# Lakukan penyetelan parameter pada model GBM
result_gbm <- eval_model(param_grid)
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0025 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0024 nan 0.0100 0.0000
## 7 0.0024 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0023 nan 0.0100 0.0000
## 40 0.0020 nan 0.0100 0.0000
## 60 0.0019 nan 0.0100 0.0000
## 80 0.0018 nan 0.0100 0.0000
## 100 0.0017 nan 0.0100 0.0000
## 120 0.0016 nan 0.0100 0.0000
## 140 0.0016 nan 0.0100 0.0000
## 150 0.0016 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0025 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0024 nan 0.0100 0.0000
## 7 0.0024 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0023 nan 0.0100 0.0000
## 40 0.0020 nan 0.0100 0.0000
## 60 0.0019 nan 0.0100 0.0000
## 80 0.0018 nan 0.0100 0.0000
## 100 0.0017 nan 0.0100 0.0000
## 120 0.0016 nan 0.0100 0.0000
## 140 0.0016 nan 0.0100 0.0000
## 150 0.0016 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0025 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0024 nan 0.0100 0.0000
## 7 0.0024 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0023 nan 0.0100 0.0000
## 40 0.0021 nan 0.0100 0.0000
## 60 0.0019 nan 0.0100 0.0000
## 80 0.0018 nan 0.0100 0.0000
## 100 0.0017 nan 0.0100 0.0000
## 120 0.0017 nan 0.0100 0.0000
## 140 0.0016 nan 0.0100 0.0000
## 150 0.0016 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0025 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0024 nan 0.0100 0.0000
## 7 0.0024 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0022 nan 0.0100 0.0000
## 40 0.0020 nan 0.0100 0.0000
## 60 0.0018 nan 0.0100 0.0000
## 80 0.0017 nan 0.0100 0.0000
## 100 0.0016 nan 0.0100 0.0000
## 120 0.0016 nan 0.0100 0.0000
## 140 0.0015 nan 0.0100 0.0000
## 150 0.0015 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0025 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0024 nan 0.0100 0.0000
## 7 0.0024 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0022 nan 0.0100 0.0000
## 40 0.0020 nan 0.0100 0.0000
## 60 0.0018 nan 0.0100 0.0000
## 80 0.0017 nan 0.0100 0.0000
## 100 0.0016 nan 0.0100 -0.0000
## 120 0.0016 nan 0.0100 0.0000
## 140 0.0015 nan 0.0100 0.0000
## 150 0.0015 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0025 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0024 nan 0.0100 0.0000
## 7 0.0024 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0022 nan 0.0100 0.0000
## 40 0.0020 nan 0.0100 0.0000
## 60 0.0019 nan 0.0100 0.0000
## 80 0.0018 nan 0.0100 0.0000
## 100 0.0017 nan 0.0100 0.0000
## 120 0.0016 nan 0.0100 0.0000
## 140 0.0016 nan 0.0100 0.0000
## 150 0.0016 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0025 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0024 nan 0.0100 0.0000
## 7 0.0024 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0022 nan 0.0100 0.0000
## 40 0.0020 nan 0.0100 0.0000
## 60 0.0018 nan 0.0100 0.0000
## 80 0.0017 nan 0.0100 0.0000
## 100 0.0016 nan 0.0100 0.0000
## 120 0.0015 nan 0.0100 0.0000
## 140 0.0015 nan 0.0100 -0.0000
## 150 0.0014 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0025 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0024 nan 0.0100 0.0000
## 7 0.0024 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0022 nan 0.0100 0.0000
## 40 0.0020 nan 0.0100 0.0000
## 60 0.0018 nan 0.0100 0.0000
## 80 0.0017 nan 0.0100 0.0000
## 100 0.0016 nan 0.0100 0.0000
## 120 0.0015 nan 0.0100 0.0000
## 140 0.0015 nan 0.0100 0.0000
## 150 0.0015 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0025 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0024 nan 0.0100 0.0000
## 7 0.0024 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0022 nan 0.0100 0.0000
## 40 0.0020 nan 0.0100 0.0000
## 60 0.0019 nan 0.0100 0.0000
## 80 0.0018 nan 0.0100 0.0000
## 100 0.0017 nan 0.0100 0.0000
## 120 0.0016 nan 0.0100 0.0000
## 140 0.0016 nan 0.0100 -0.0000
## 150 0.0015 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0002
## 2 0.0022 nan 0.1000 0.0001
## 3 0.0021 nan 0.1000 0.0001
## 4 0.0020 nan 0.1000 0.0001
## 5 0.0019 nan 0.1000 0.0001
## 6 0.0019 nan 0.1000 0.0000
## 7 0.0018 nan 0.1000 0.0000
## 8 0.0018 nan 0.1000 0.0000
## 9 0.0017 nan 0.1000 0.0000
## 10 0.0017 nan 0.1000 0.0000
## 20 0.0015 nan 0.1000 -0.0000
## 40 0.0013 nan 0.1000 -0.0000
## 60 0.0013 nan 0.1000 -0.0000
## 80 0.0012 nan 0.1000 -0.0000
## 100 0.0012 nan 0.1000 -0.0000
## 120 0.0011 nan 0.1000 -0.0000
## 140 0.0011 nan 0.1000 -0.0000
## 150 0.0011 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0001
## 2 0.0022 nan 0.1000 0.0001
## 3 0.0021 nan 0.1000 0.0001
## 4 0.0020 nan 0.1000 0.0001
## 5 0.0019 nan 0.1000 0.0001
## 6 0.0019 nan 0.1000 0.0001
## 7 0.0018 nan 0.1000 0.0000
## 8 0.0018 nan 0.1000 0.0000
## 9 0.0017 nan 0.1000 0.0000
## 10 0.0017 nan 0.1000 0.0000
## 20 0.0015 nan 0.1000 -0.0000
## 40 0.0014 nan 0.1000 -0.0000
## 60 0.0013 nan 0.1000 -0.0000
## 80 0.0013 nan 0.1000 -0.0000
## 100 0.0012 nan 0.1000 -0.0000
## 120 0.0012 nan 0.1000 -0.0000
## 140 0.0012 nan 0.1000 -0.0000
## 150 0.0012 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0001
## 2 0.0023 nan 0.1000 0.0001
## 3 0.0022 nan 0.1000 0.0001
## 4 0.0021 nan 0.1000 0.0001
## 5 0.0020 nan 0.1000 0.0001
## 6 0.0019 nan 0.1000 0.0000
## 7 0.0019 nan 0.1000 0.0000
## 8 0.0018 nan 0.1000 0.0000
## 9 0.0018 nan 0.1000 0.0000
## 10 0.0018 nan 0.1000 0.0000
## 20 0.0015 nan 0.1000 0.0000
## 40 0.0014 nan 0.1000 -0.0000
## 60 0.0014 nan 0.1000 -0.0000
## 80 0.0013 nan 0.1000 -0.0000
## 100 0.0013 nan 0.1000 -0.0000
## 120 0.0013 nan 0.1000 -0.0000
## 140 0.0013 nan 0.1000 -0.0000
## 150 0.0013 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0002
## 2 0.0022 nan 0.1000 0.0001
## 3 0.0021 nan 0.1000 0.0001
## 4 0.0020 nan 0.1000 0.0001
## 5 0.0019 nan 0.1000 0.0001
## 6 0.0018 nan 0.1000 0.0000
## 7 0.0017 nan 0.1000 0.0000
## 8 0.0017 nan 0.1000 0.0001
## 9 0.0016 nan 0.1000 0.0000
## 10 0.0016 nan 0.1000 0.0000
## 20 0.0014 nan 0.1000 -0.0000
## 40 0.0013 nan 0.1000 -0.0000
## 60 0.0012 nan 0.1000 -0.0000
## 80 0.0011 nan 0.1000 -0.0000
## 100 0.0011 nan 0.1000 -0.0000
## 120 0.0010 nan 0.1000 -0.0000
## 140 0.0010 nan 0.1000 -0.0000
## 150 0.0010 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0002
## 2 0.0022 nan 0.1000 0.0001
## 3 0.0021 nan 0.1000 0.0001
## 4 0.0019 nan 0.1000 0.0001
## 5 0.0019 nan 0.1000 0.0001
## 6 0.0018 nan 0.1000 0.0001
## 7 0.0017 nan 0.1000 0.0000
## 8 0.0017 nan 0.1000 0.0000
## 9 0.0016 nan 0.1000 0.0000
## 10 0.0016 nan 0.1000 0.0000
## 20 0.0014 nan 0.1000 -0.0000
## 40 0.0014 nan 0.1000 -0.0000
## 60 0.0013 nan 0.1000 -0.0000
## 80 0.0013 nan 0.1000 -0.0000
## 100 0.0012 nan 0.1000 -0.0000
## 120 0.0012 nan 0.1000 -0.0000
## 140 0.0011 nan 0.1000 -0.0000
## 150 0.0011 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0002
## 2 0.0022 nan 0.1000 0.0002
## 3 0.0021 nan 0.1000 0.0001
## 4 0.0020 nan 0.1000 0.0001
## 5 0.0019 nan 0.1000 0.0001
## 6 0.0018 nan 0.1000 0.0001
## 7 0.0018 nan 0.1000 0.0000
## 8 0.0017 nan 0.1000 0.0000
## 9 0.0017 nan 0.1000 0.0000
## 10 0.0017 nan 0.1000 0.0000
## 20 0.0015 nan 0.1000 -0.0000
## 40 0.0014 nan 0.1000 -0.0000
## 60 0.0013 nan 0.1000 -0.0000
## 80 0.0013 nan 0.1000 -0.0000
## 100 0.0013 nan 0.1000 -0.0000
## 120 0.0013 nan 0.1000 -0.0000
## 140 0.0012 nan 0.1000 -0.0000
## 150 0.0012 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.1000 0.0002
## 2 0.0021 nan 0.1000 0.0002
## 3 0.0020 nan 0.1000 0.0001
## 4 0.0019 nan 0.1000 0.0001
## 5 0.0018 nan 0.1000 0.0001
## 6 0.0018 nan 0.1000 0.0000
## 7 0.0017 nan 0.1000 0.0000
## 8 0.0017 nan 0.1000 0.0000
## 9 0.0016 nan 0.1000 0.0000
## 10 0.0016 nan 0.1000 0.0000
## 20 0.0014 nan 0.1000 -0.0000
## 40 0.0012 nan 0.1000 -0.0000
## 60 0.0012 nan 0.1000 -0.0000
## 80 0.0011 nan 0.1000 -0.0000
## 100 0.0010 nan 0.1000 -0.0000
## 120 0.0010 nan 0.1000 -0.0000
## 140 0.0010 nan 0.1000 -0.0000
## 150 0.0010 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0002
## 2 0.0022 nan 0.1000 0.0002
## 3 0.0020 nan 0.1000 0.0001
## 4 0.0019 nan 0.1000 0.0001
## 5 0.0018 nan 0.1000 0.0000
## 6 0.0018 nan 0.1000 0.0001
## 7 0.0017 nan 0.1000 0.0000
## 8 0.0017 nan 0.1000 0.0000
## 9 0.0016 nan 0.1000 0.0000
## 10 0.0016 nan 0.1000 0.0000
## 20 0.0014 nan 0.1000 -0.0000
## 40 0.0013 nan 0.1000 -0.0000
## 60 0.0012 nan 0.1000 -0.0000
## 80 0.0012 nan 0.1000 -0.0000
## 100 0.0011 nan 0.1000 -0.0000
## 120 0.0011 nan 0.1000 -0.0000
## 140 0.0011 nan 0.1000 -0.0000
## 150 0.0011 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0002
## 2 0.0022 nan 0.1000 0.0001
## 3 0.0021 nan 0.1000 0.0001
## 4 0.0020 nan 0.1000 0.0001
## 5 0.0019 nan 0.1000 0.0001
## 6 0.0019 nan 0.1000 0.0001
## 7 0.0018 nan 0.1000 0.0000
## 8 0.0018 nan 0.1000 0.0000
## 9 0.0017 nan 0.1000 0.0000
## 10 0.0017 nan 0.1000 0.0000
## 20 0.0015 nan 0.1000 -0.0000
## 40 0.0014 nan 0.1000 -0.0000
## 60 0.0013 nan 0.1000 -0.0000
## 80 0.0013 nan 0.1000 -0.0000
## 100 0.0013 nan 0.1000 -0.0000
## 120 0.0013 nan 0.1000 -0.0000
## 140 0.0012 nan 0.1000 -0.0000
## 150 0.0012 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.2000 0.0002
## 2 0.0021 nan 0.2000 0.0002
## 3 0.0019 nan 0.2000 0.0002
## 4 0.0018 nan 0.2000 0.0001
## 5 0.0017 nan 0.2000 0.0000
## 6 0.0016 nan 0.2000 0.0001
## 7 0.0016 nan 0.2000 -0.0000
## 8 0.0015 nan 0.2000 0.0000
## 9 0.0015 nan 0.2000 -0.0000
## 10 0.0015 nan 0.2000 -0.0000
## 20 0.0014 nan 0.2000 -0.0000
## 40 0.0013 nan 0.2000 -0.0000
## 60 0.0012 nan 0.2000 -0.0000
## 80 0.0011 nan 0.2000 -0.0000
## 100 0.0011 nan 0.2000 -0.0000
## 120 0.0010 nan 0.2000 -0.0000
## 140 0.0010 nan 0.2000 -0.0000
## 150 0.0010 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.2000 0.0003
## 2 0.0021 nan 0.2000 0.0002
## 3 0.0019 nan 0.2000 0.0001
## 4 0.0018 nan 0.2000 0.0001
## 5 0.0017 nan 0.2000 0.0001
## 6 0.0016 nan 0.2000 0.0000
## 7 0.0016 nan 0.2000 -0.0000
## 8 0.0016 nan 0.2000 0.0000
## 9 0.0015 nan 0.2000 -0.0000
## 10 0.0015 nan 0.2000 -0.0000
## 20 0.0014 nan 0.2000 -0.0000
## 40 0.0013 nan 0.2000 -0.0000
## 60 0.0012 nan 0.2000 -0.0000
## 80 0.0012 nan 0.2000 -0.0000
## 100 0.0011 nan 0.2000 -0.0000
## 120 0.0011 nan 0.2000 -0.0000
## 140 0.0011 nan 0.2000 -0.0000
## 150 0.0011 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.2000 0.0003
## 2 0.0021 nan 0.2000 0.0002
## 3 0.0019 nan 0.2000 0.0001
## 4 0.0018 nan 0.2000 0.0001
## 5 0.0017 nan 0.2000 0.0000
## 6 0.0017 nan 0.2000 -0.0000
## 7 0.0017 nan 0.2000 0.0000
## 8 0.0016 nan 0.2000 -0.0000
## 9 0.0016 nan 0.2000 0.0000
## 10 0.0016 nan 0.2000 0.0000
## 20 0.0015 nan 0.2000 -0.0000
## 40 0.0014 nan 0.2000 -0.0000
## 60 0.0013 nan 0.2000 -0.0000
## 80 0.0013 nan 0.2000 -0.0000
## 100 0.0012 nan 0.2000 -0.0000
## 120 0.0012 nan 0.2000 -0.0000
## 140 0.0012 nan 0.2000 -0.0000
## 150 0.0011 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.2000 0.0003
## 2 0.0020 nan 0.2000 0.0002
## 3 0.0018 nan 0.2000 0.0002
## 4 0.0017 nan 0.2000 0.0001
## 5 0.0016 nan 0.2000 0.0001
## 6 0.0016 nan 0.2000 -0.0000
## 7 0.0015 nan 0.2000 0.0001
## 8 0.0015 nan 0.2000 -0.0000
## 9 0.0014 nan 0.2000 0.0000
## 10 0.0014 nan 0.2000 -0.0000
## 20 0.0013 nan 0.2000 -0.0001
## 40 0.0012 nan 0.2000 -0.0000
## 60 0.0011 nan 0.2000 -0.0000
## 80 0.0010 nan 0.2000 -0.0000
## 100 0.0010 nan 0.2000 -0.0000
## 120 0.0009 nan 0.2000 -0.0000
## 140 0.0009 nan 0.2000 -0.0000
## 150 0.0009 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.2000 0.0003
## 2 0.0020 nan 0.2000 0.0002
## 3 0.0018 nan 0.2000 0.0001
## 4 0.0017 nan 0.2000 0.0001
## 5 0.0016 nan 0.2000 0.0000
## 6 0.0015 nan 0.2000 0.0000
## 7 0.0015 nan 0.2000 0.0000
## 8 0.0015 nan 0.2000 -0.0000
## 9 0.0014 nan 0.2000 -0.0000
## 10 0.0014 nan 0.2000 -0.0000
## 20 0.0013 nan 0.2000 -0.0000
## 40 0.0012 nan 0.2000 -0.0000
## 60 0.0012 nan 0.2000 -0.0000
## 80 0.0011 nan 0.2000 -0.0000
## 100 0.0011 nan 0.2000 -0.0000
## 120 0.0010 nan 0.2000 -0.0000
## 140 0.0010 nan 0.2000 -0.0000
## 150 0.0010 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.2000 0.0003
## 2 0.0020 nan 0.2000 0.0002
## 3 0.0019 nan 0.2000 0.0002
## 4 0.0017 nan 0.2000 0.0002
## 5 0.0017 nan 0.2000 0.0001
## 6 0.0016 nan 0.2000 0.0000
## 7 0.0016 nan 0.2000 0.0000
## 8 0.0015 nan 0.2000 0.0000
## 9 0.0015 nan 0.2000 0.0000
## 10 0.0015 nan 0.2000 0.0000
## 20 0.0014 nan 0.2000 -0.0000
## 40 0.0013 nan 0.2000 -0.0000
## 60 0.0013 nan 0.2000 -0.0000
## 80 0.0012 nan 0.2000 -0.0000
## 100 0.0012 nan 0.2000 -0.0000
## 120 0.0011 nan 0.2000 -0.0000
## 140 0.0011 nan 0.2000 -0.0000
## 150 0.0011 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.2000 0.0004
## 2 0.0019 nan 0.2000 0.0002
## 3 0.0018 nan 0.2000 0.0001
## 4 0.0016 nan 0.2000 0.0001
## 5 0.0016 nan 0.2000 0.0000
## 6 0.0015 nan 0.2000 0.0000
## 7 0.0015 nan 0.2000 -0.0000
## 8 0.0014 nan 0.2000 0.0000
## 9 0.0014 nan 0.2000 0.0000
## 10 0.0014 nan 0.2000 -0.0000
## 20 0.0012 nan 0.2000 -0.0000
## 40 0.0011 nan 0.2000 -0.0000
## 60 0.0010 nan 0.2000 -0.0000
## 80 0.0009 nan 0.2000 -0.0000
## 100 0.0009 nan 0.2000 -0.0000
## 120 0.0009 nan 0.2000 -0.0000
## 140 0.0008 nan 0.2000 -0.0000
## 150 0.0008 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0021 nan 0.2000 0.0003
## 2 0.0019 nan 0.2000 0.0001
## 3 0.0018 nan 0.2000 0.0001
## 4 0.0017 nan 0.2000 0.0000
## 5 0.0015 nan 0.2000 0.0001
## 6 0.0015 nan 0.2000 -0.0000
## 7 0.0015 nan 0.2000 -0.0000
## 8 0.0014 nan 0.2000 -0.0000
## 9 0.0014 nan 0.2000 -0.0000
## 10 0.0014 nan 0.2000 -0.0000
## 20 0.0013 nan 0.2000 -0.0000
## 40 0.0012 nan 0.2000 -0.0000
## 60 0.0011 nan 0.2000 -0.0000
## 80 0.0011 nan 0.2000 -0.0000
## 100 0.0010 nan 0.2000 -0.0000
## 120 0.0010 nan 0.2000 -0.0000
## 140 0.0010 nan 0.2000 -0.0000
## 150 0.0009 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.2000 0.0003
## 2 0.0020 nan 0.2000 0.0002
## 3 0.0018 nan 0.2000 0.0002
## 4 0.0017 nan 0.2000 0.0001
## 5 0.0016 nan 0.2000 0.0000
## 6 0.0016 nan 0.2000 0.0000
## 7 0.0015 nan 0.2000 0.0000
## 8 0.0015 nan 0.2000 -0.0000
## 9 0.0015 nan 0.2000 -0.0000
## 10 0.0015 nan 0.2000 -0.0000
## 20 0.0014 nan 0.2000 -0.0000
## 40 0.0013 nan 0.2000 -0.0000
## 60 0.0013 nan 0.2000 -0.0000
## 80 0.0012 nan 0.2000 -0.0000
## 100 0.0012 nan 0.2000 -0.0000
## 120 0.0011 nan 0.2000 -0.0000
## 140 0.0011 nan 0.2000 -0.0000
## 150 0.0011 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0023 nan 0.0100 0.0000
## 6 0.0023 nan 0.0100 0.0000
## 7 0.0023 nan 0.0100 0.0000
## 8 0.0022 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0021 nan 0.0100 0.0000
## 40 0.0019 nan 0.0100 0.0000
## 60 0.0017 nan 0.0100 0.0000
## 80 0.0016 nan 0.0100 0.0000
## 100 0.0015 nan 0.0100 0.0000
## 120 0.0015 nan 0.0100 0.0000
## 140 0.0014 nan 0.0100 0.0000
## 150 0.0014 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0023 nan 0.0100 0.0000
## 6 0.0023 nan 0.0100 0.0000
## 7 0.0023 nan 0.0100 0.0000
## 8 0.0022 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0021 nan 0.0100 0.0000
## 40 0.0019 nan 0.0100 0.0000
## 60 0.0017 nan 0.0100 0.0000
## 80 0.0016 nan 0.0100 0.0000
## 100 0.0016 nan 0.0100 0.0000
## 120 0.0015 nan 0.0100 -0.0000
## 140 0.0014 nan 0.0100 -0.0000
## 150 0.0014 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0023 nan 0.0100 0.0000
## 6 0.0023 nan 0.0100 0.0000
## 7 0.0023 nan 0.0100 0.0000
## 8 0.0022 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0021 nan 0.0100 0.0000
## 40 0.0019 nan 0.0100 0.0000
## 60 0.0017 nan 0.0100 0.0000
## 80 0.0016 nan 0.0100 0.0000
## 100 0.0016 nan 0.0100 0.0000
## 120 0.0015 nan 0.0100 0.0000
## 140 0.0015 nan 0.0100 0.0000
## 150 0.0014 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0023 nan 0.0100 0.0000
## 6 0.0023 nan 0.0100 0.0000
## 7 0.0023 nan 0.0100 0.0000
## 8 0.0022 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0021 nan 0.0100 0.0000
## 40 0.0018 nan 0.0100 0.0000
## 60 0.0017 nan 0.0100 0.0000
## 80 0.0016 nan 0.0100 0.0000
## 100 0.0015 nan 0.0100 0.0000
## 120 0.0014 nan 0.0100 0.0000
## 140 0.0014 nan 0.0100 0.0000
## 150 0.0013 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0023 nan 0.0100 0.0000
## 6 0.0023 nan 0.0100 0.0000
## 7 0.0023 nan 0.0100 0.0000
## 8 0.0023 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0021 nan 0.0100 0.0000
## 40 0.0018 nan 0.0100 0.0000
## 60 0.0017 nan 0.0100 0.0000
## 80 0.0016 nan 0.0100 0.0000
## 100 0.0015 nan 0.0100 0.0000
## 120 0.0014 nan 0.0100 0.0000
## 140 0.0014 nan 0.0100 0.0000
## 150 0.0014 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0023 nan 0.0100 0.0000
## 6 0.0023 nan 0.0100 0.0000
## 7 0.0023 nan 0.0100 0.0000
## 8 0.0022 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0021 nan 0.0100 0.0000
## 40 0.0019 nan 0.0100 0.0000
## 60 0.0017 nan 0.0100 0.0000
## 80 0.0016 nan 0.0100 0.0000
## 100 0.0015 nan 0.0100 0.0000
## 120 0.0015 nan 0.0100 0.0000
## 140 0.0014 nan 0.0100 0.0000
## 150 0.0014 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0023 nan 0.0100 0.0000
## 6 0.0023 nan 0.0100 0.0000
## 7 0.0022 nan 0.0100 0.0000
## 8 0.0022 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0020 nan 0.0100 0.0000
## 40 0.0018 nan 0.0100 0.0000
## 60 0.0016 nan 0.0100 0.0000
## 80 0.0015 nan 0.0100 0.0000
## 100 0.0014 nan 0.0100 0.0000
## 120 0.0014 nan 0.0100 0.0000
## 140 0.0013 nan 0.0100 0.0000
## 150 0.0013 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0023 nan 0.0100 0.0000
## 6 0.0023 nan 0.0100 0.0000
## 7 0.0023 nan 0.0100 0.0000
## 8 0.0022 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0020 nan 0.0100 0.0000
## 40 0.0018 nan 0.0100 0.0000
## 60 0.0017 nan 0.0100 0.0000
## 80 0.0015 nan 0.0100 0.0000
## 100 0.0014 nan 0.0100 0.0000
## 120 0.0014 nan 0.0100 0.0000
## 140 0.0013 nan 0.0100 0.0000
## 150 0.0013 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0023 nan 0.0100 0.0000
## 6 0.0023 nan 0.0100 0.0000
## 7 0.0023 nan 0.0100 0.0000
## 8 0.0022 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0021 nan 0.0100 0.0000
## 40 0.0019 nan 0.0100 0.0000
## 60 0.0017 nan 0.0100 0.0000
## 80 0.0016 nan 0.0100 0.0000
## 100 0.0015 nan 0.0100 0.0000
## 120 0.0015 nan 0.0100 0.0000
## 140 0.0014 nan 0.0100 0.0000
## 150 0.0014 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.1000 0.0001
## 2 0.0021 nan 0.1000 0.0001
## 3 0.0019 nan 0.1000 0.0001
## 4 0.0019 nan 0.1000 0.0001
## 5 0.0018 nan 0.1000 0.0001
## 6 0.0017 nan 0.1000 0.0000
## 7 0.0017 nan 0.1000 0.0001
## 8 0.0016 nan 0.1000 0.0000
## 9 0.0016 nan 0.1000 0.0000
## 10 0.0015 nan 0.1000 0.0000
## 20 0.0014 nan 0.1000 -0.0000
## 40 0.0012 nan 0.1000 -0.0000
## 60 0.0012 nan 0.1000 -0.0000
## 80 0.0011 nan 0.1000 -0.0000
## 100 0.0011 nan 0.1000 -0.0000
## 120 0.0010 nan 0.1000 -0.0000
## 140 0.0010 nan 0.1000 -0.0000
## 150 0.0010 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.1000 0.0001
## 2 0.0021 nan 0.1000 0.0001
## 3 0.0020 nan 0.1000 0.0001
## 4 0.0019 nan 0.1000 0.0001
## 5 0.0018 nan 0.1000 0.0001
## 6 0.0017 nan 0.1000 0.0001
## 7 0.0017 nan 0.1000 0.0000
## 8 0.0016 nan 0.1000 0.0000
## 9 0.0016 nan 0.1000 0.0000
## 10 0.0016 nan 0.1000 0.0000
## 20 0.0014 nan 0.1000 0.0000
## 40 0.0012 nan 0.1000 -0.0000
## 60 0.0012 nan 0.1000 -0.0000
## 80 0.0011 nan 0.1000 -0.0000
## 100 0.0011 nan 0.1000 -0.0000
## 120 0.0011 nan 0.1000 -0.0000
## 140 0.0010 nan 0.1000 -0.0000
## 150 0.0010 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.1000 0.0001
## 2 0.0021 nan 0.1000 0.0001
## 3 0.0020 nan 0.1000 0.0001
## 4 0.0019 nan 0.1000 0.0001
## 5 0.0018 nan 0.1000 0.0001
## 6 0.0017 nan 0.1000 0.0001
## 7 0.0017 nan 0.1000 0.0000
## 8 0.0017 nan 0.1000 0.0000
## 9 0.0016 nan 0.1000 0.0000
## 10 0.0016 nan 0.1000 0.0000
## 20 0.0014 nan 0.1000 0.0000
## 40 0.0013 nan 0.1000 -0.0000
## 60 0.0012 nan 0.1000 -0.0000
## 80 0.0012 nan 0.1000 -0.0000
## 100 0.0012 nan 0.1000 -0.0000
## 120 0.0011 nan 0.1000 -0.0000
## 140 0.0011 nan 0.1000 -0.0000
## 150 0.0011 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.1000 0.0002
## 2 0.0020 nan 0.1000 0.0001
## 3 0.0019 nan 0.1000 0.0001
## 4 0.0018 nan 0.1000 0.0001
## 5 0.0017 nan 0.1000 0.0001
## 6 0.0017 nan 0.1000 0.0001
## 7 0.0016 nan 0.1000 0.0000
## 8 0.0016 nan 0.1000 0.0001
## 9 0.0015 nan 0.1000 0.0000
## 10 0.0015 nan 0.1000 0.0000
## 20 0.0013 nan 0.1000 -0.0000
## 40 0.0011 nan 0.1000 -0.0000
## 60 0.0011 nan 0.1000 -0.0000
## 80 0.0010 nan 0.1000 -0.0000
## 100 0.0010 nan 0.1000 -0.0000
## 120 0.0009 nan 0.1000 -0.0000
## 140 0.0009 nan 0.1000 -0.0000
## 150 0.0009 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.1000 0.0002
## 2 0.0020 nan 0.1000 0.0001
## 3 0.0019 nan 0.1000 0.0001
## 4 0.0018 nan 0.1000 0.0001
## 5 0.0017 nan 0.1000 0.0001
## 6 0.0017 nan 0.1000 0.0001
## 7 0.0016 nan 0.1000 0.0000
## 8 0.0015 nan 0.1000 0.0000
## 9 0.0015 nan 0.1000 0.0000
## 10 0.0015 nan 0.1000 0.0000
## 20 0.0013 nan 0.1000 -0.0000
## 40 0.0012 nan 0.1000 -0.0000
## 60 0.0011 nan 0.1000 -0.0000
## 80 0.0011 nan 0.1000 -0.0000
## 100 0.0010 nan 0.1000 -0.0000
## 120 0.0010 nan 0.1000 -0.0000
## 140 0.0009 nan 0.1000 -0.0000
## 150 0.0009 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.1000 0.0002
## 2 0.0021 nan 0.1000 0.0001
## 3 0.0020 nan 0.1000 0.0001
## 4 0.0018 nan 0.1000 0.0001
## 5 0.0018 nan 0.1000 0.0001
## 6 0.0017 nan 0.1000 0.0000
## 7 0.0016 nan 0.1000 0.0000
## 8 0.0016 nan 0.1000 0.0000
## 9 0.0015 nan 0.1000 0.0000
## 10 0.0015 nan 0.1000 0.0000
## 20 0.0013 nan 0.1000 0.0000
## 40 0.0012 nan 0.1000 -0.0000
## 60 0.0012 nan 0.1000 -0.0000
## 80 0.0012 nan 0.1000 -0.0000
## 100 0.0011 nan 0.1000 -0.0000
## 120 0.0011 nan 0.1000 -0.0000
## 140 0.0011 nan 0.1000 -0.0000
## 150 0.0011 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.1000 0.0002
## 2 0.0021 nan 0.1000 0.0001
## 3 0.0019 nan 0.1000 0.0001
## 4 0.0018 nan 0.1000 0.0001
## 5 0.0017 nan 0.1000 0.0001
## 6 0.0016 nan 0.1000 0.0001
## 7 0.0016 nan 0.1000 0.0001
## 8 0.0015 nan 0.1000 0.0000
## 9 0.0015 nan 0.1000 0.0000
## 10 0.0014 nan 0.1000 0.0000
## 20 0.0012 nan 0.1000 -0.0000
## 40 0.0011 nan 0.1000 -0.0000
## 60 0.0010 nan 0.1000 -0.0000
## 80 0.0010 nan 0.1000 -0.0000
## 100 0.0009 nan 0.1000 -0.0000
## 120 0.0009 nan 0.1000 -0.0000
## 140 0.0008 nan 0.1000 -0.0000
## 150 0.0008 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.1000 0.0001
## 2 0.0020 nan 0.1000 0.0001
## 3 0.0019 nan 0.1000 0.0001
## 4 0.0018 nan 0.1000 0.0001
## 5 0.0017 nan 0.1000 0.0001
## 6 0.0016 nan 0.1000 0.0001
## 7 0.0016 nan 0.1000 0.0000
## 8 0.0015 nan 0.1000 0.0000
## 9 0.0015 nan 0.1000 0.0000
## 10 0.0014 nan 0.1000 0.0000
## 20 0.0012 nan 0.1000 0.0000
## 40 0.0011 nan 0.1000 -0.0000
## 60 0.0011 nan 0.1000 -0.0000
## 80 0.0010 nan 0.1000 -0.0000
## 100 0.0010 nan 0.1000 -0.0000
## 120 0.0009 nan 0.1000 -0.0000
## 140 0.0009 nan 0.1000 -0.0000
## 150 0.0009 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.1000 0.0001
## 2 0.0021 nan 0.1000 0.0002
## 3 0.0020 nan 0.1000 0.0001
## 4 0.0019 nan 0.1000 0.0001
## 5 0.0018 nan 0.1000 0.0001
## 6 0.0017 nan 0.1000 0.0001
## 7 0.0016 nan 0.1000 0.0001
## 8 0.0016 nan 0.1000 0.0000
## 9 0.0016 nan 0.1000 0.0000
## 10 0.0015 nan 0.1000 0.0000
## 20 0.0013 nan 0.1000 -0.0000
## 40 0.0012 nan 0.1000 -0.0000
## 60 0.0012 nan 0.1000 -0.0000
## 80 0.0012 nan 0.1000 -0.0000
## 100 0.0011 nan 0.1000 -0.0000
## 120 0.0011 nan 0.1000 -0.0000
## 140 0.0011 nan 0.1000 -0.0000
## 150 0.0011 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0020 nan 0.2000 0.0003
## 2 0.0019 nan 0.2000 0.0001
## 3 0.0017 nan 0.2000 0.0001
## 4 0.0016 nan 0.2000 0.0001
## 5 0.0015 nan 0.2000 0.0001
## 6 0.0014 nan 0.2000 0.0000
## 7 0.0014 nan 0.2000 0.0000
## 8 0.0014 nan 0.2000 -0.0000
## 9 0.0014 nan 0.2000 -0.0000
## 10 0.0013 nan 0.2000 0.0000
## 20 0.0012 nan 0.2000 -0.0000
## 40 0.0011 nan 0.2000 -0.0000
## 60 0.0010 nan 0.2000 -0.0000
## 80 0.0009 nan 0.2000 -0.0000
## 100 0.0009 nan 0.2000 -0.0000
## 120 0.0008 nan 0.2000 -0.0000
## 140 0.0008 nan 0.2000 -0.0000
## 150 0.0008 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0020 nan 0.2000 0.0003
## 2 0.0018 nan 0.2000 0.0002
## 3 0.0017 nan 0.2000 0.0001
## 4 0.0016 nan 0.2000 0.0001
## 5 0.0015 nan 0.2000 0.0001
## 6 0.0015 nan 0.2000 0.0000
## 7 0.0014 nan 0.2000 0.0000
## 8 0.0014 nan 0.2000 0.0000
## 9 0.0014 nan 0.2000 0.0000
## 10 0.0014 nan 0.2000 -0.0000
## 20 0.0012 nan 0.2000 0.0000
## 40 0.0011 nan 0.2000 -0.0000
## 60 0.0011 nan 0.2000 -0.0000
## 80 0.0010 nan 0.2000 -0.0000
## 100 0.0010 nan 0.2000 -0.0000
## 120 0.0009 nan 0.2000 -0.0000
## 140 0.0009 nan 0.2000 -0.0000
## 150 0.0009 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0021 nan 0.2000 0.0003
## 2 0.0019 nan 0.2000 0.0002
## 3 0.0017 nan 0.2000 0.0001
## 4 0.0016 nan 0.2000 0.0001
## 5 0.0015 nan 0.2000 0.0000
## 6 0.0015 nan 0.2000 0.0000
## 7 0.0015 nan 0.2000 0.0000
## 8 0.0014 nan 0.2000 0.0000
## 9 0.0014 nan 0.2000 0.0000
## 10 0.0014 nan 0.2000 0.0000
## 20 0.0013 nan 0.2000 -0.0000
## 40 0.0012 nan 0.2000 -0.0000
## 60 0.0011 nan 0.2000 -0.0000
## 80 0.0011 nan 0.2000 -0.0000
## 100 0.0010 nan 0.2000 -0.0000
## 120 0.0010 nan 0.2000 -0.0000
## 140 0.0010 nan 0.2000 -0.0000
## 150 0.0010 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0020 nan 0.2000 0.0003
## 2 0.0018 nan 0.2000 0.0002
## 3 0.0017 nan 0.2000 0.0001
## 4 0.0016 nan 0.2000 0.0001
## 5 0.0015 nan 0.2000 0.0000
## 6 0.0014 nan 0.2000 0.0001
## 7 0.0014 nan 0.2000 -0.0000
## 8 0.0013 nan 0.2000 0.0000
## 9 0.0013 nan 0.2000 -0.0000
## 10 0.0013 nan 0.2000 -0.0000
## 20 0.0011 nan 0.2000 -0.0000
## 40 0.0010 nan 0.2000 -0.0000
## 60 0.0009 nan 0.2000 -0.0000
## 80 0.0009 nan 0.2000 -0.0000
## 100 0.0009 nan 0.2000 -0.0000
## 120 0.0008 nan 0.2000 -0.0000
## 140 0.0008 nan 0.2000 -0.0000
## 150 0.0008 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0020 nan 0.2000 0.0003
## 2 0.0019 nan 0.2000 0.0002
## 3 0.0017 nan 0.2000 0.0001
## 4 0.0016 nan 0.2000 0.0001
## 5 0.0015 nan 0.2000 0.0001
## 6 0.0014 nan 0.2000 0.0000
## 7 0.0014 nan 0.2000 -0.0000
## 8 0.0014 nan 0.2000 0.0000
## 9 0.0013 nan 0.2000 0.0000
## 10 0.0013 nan 0.2000 0.0000
## 20 0.0012 nan 0.2000 -0.0000
## 40 0.0011 nan 0.2000 -0.0000
## 60 0.0010 nan 0.2000 -0.0000
## 80 0.0010 nan 0.2000 -0.0000
## 100 0.0009 nan 0.2000 -0.0000
## 120 0.0009 nan 0.2000 -0.0000
## 140 0.0008 nan 0.2000 -0.0000
## 150 0.0008 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0021 nan 0.2000 0.0003
## 2 0.0018 nan 0.2000 0.0002
## 3 0.0016 nan 0.2000 0.0001
## 4 0.0016 nan 0.2000 0.0001
## 5 0.0015 nan 0.2000 0.0001
## 6 0.0014 nan 0.2000 -0.0000
## 7 0.0014 nan 0.2000 -0.0000
## 8 0.0014 nan 0.2000 -0.0000
## 9 0.0013 nan 0.2000 0.0000
## 10 0.0013 nan 0.2000 -0.0000
## 20 0.0012 nan 0.2000 -0.0000
## 40 0.0011 nan 0.2000 -0.0000
## 60 0.0011 nan 0.2000 -0.0000
## 80 0.0010 nan 0.2000 -0.0000
## 100 0.0010 nan 0.2000 -0.0000
## 120 0.0010 nan 0.2000 -0.0000
## 140 0.0009 nan 0.2000 -0.0000
## 150 0.0009 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0020 nan 0.2000 0.0004
## 2 0.0018 nan 0.2000 0.0002
## 3 0.0016 nan 0.2000 0.0001
## 4 0.0015 nan 0.2000 0.0001
## 5 0.0014 nan 0.2000 0.0000
## 6 0.0014 nan 0.2000 0.0000
## 7 0.0014 nan 0.2000 0.0000
## 8 0.0013 nan 0.2000 -0.0000
## 9 0.0013 nan 0.2000 -0.0000
## 10 0.0013 nan 0.2000 -0.0000
## 20 0.0011 nan 0.2000 -0.0000
## 40 0.0009 nan 0.2000 -0.0000
## 60 0.0009 nan 0.2000 -0.0000
## 80 0.0008 nan 0.2000 -0.0000
## 100 0.0008 nan 0.2000 -0.0000
## 120 0.0007 nan 0.2000 -0.0000
## 140 0.0007 nan 0.2000 -0.0000
## 150 0.0007 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0020 nan 0.2000 0.0003
## 2 0.0018 nan 0.2000 0.0002
## 3 0.0016 nan 0.2000 0.0001
## 4 0.0015 nan 0.2000 0.0001
## 5 0.0014 nan 0.2000 0.0000
## 6 0.0014 nan 0.2000 0.0000
## 7 0.0013 nan 0.2000 0.0000
## 8 0.0013 nan 0.2000 -0.0000
## 9 0.0013 nan 0.2000 0.0000
## 10 0.0012 nan 0.2000 -0.0000
## 20 0.0011 nan 0.2000 -0.0000
## 40 0.0010 nan 0.2000 -0.0000
## 60 0.0009 nan 0.2000 -0.0000
## 80 0.0009 nan 0.2000 -0.0000
## 100 0.0008 nan 0.2000 -0.0000
## 120 0.0008 nan 0.2000 -0.0000
## 140 0.0008 nan 0.2000 -0.0000
## 150 0.0008 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0021 nan 0.2000 0.0003
## 2 0.0019 nan 0.2000 0.0002
## 3 0.0017 nan 0.2000 0.0001
## 4 0.0016 nan 0.2000 0.0001
## 5 0.0015 nan 0.2000 0.0000
## 6 0.0015 nan 0.2000 0.0000
## 7 0.0014 nan 0.2000 0.0000
## 8 0.0014 nan 0.2000 0.0000
## 9 0.0014 nan 0.2000 -0.0000
## 10 0.0014 nan 0.2000 0.0000
## 20 0.0013 nan 0.2000 -0.0000
## 40 0.0012 nan 0.2000 -0.0000
## 60 0.0011 nan 0.2000 -0.0000
## 80 0.0011 nan 0.2000 -0.0000
## 100 0.0010 nan 0.2000 -0.0000
## 120 0.0010 nan 0.2000 -0.0000
## 140 0.0009 nan 0.2000 -0.0000
## 150 0.0009 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0023 nan 0.0100 0.0000
## 6 0.0022 nan 0.0100 0.0000
## 7 0.0022 nan 0.0100 0.0000
## 8 0.0022 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0021 nan 0.0100 0.0000
## 40 0.0019 nan 0.0100 0.0000
## 60 0.0017 nan 0.0100 0.0000
## 80 0.0016 nan 0.0100 0.0000
## 100 0.0015 nan 0.0100 0.0000
## 120 0.0015 nan 0.0100 0.0000
## 140 0.0014 nan 0.0100 -0.0000
## 150 0.0014 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0023 nan 0.0100 0.0000
## 6 0.0022 nan 0.0100 0.0000
## 7 0.0022 nan 0.0100 0.0000
## 8 0.0022 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0021 nan 0.0100 0.0000
## 40 0.0019 nan 0.0100 0.0000
## 60 0.0017 nan 0.0100 0.0000
## 80 0.0016 nan 0.0100 0.0000
## 100 0.0015 nan 0.0100 0.0000
## 120 0.0015 nan 0.0100 0.0000
## 140 0.0014 nan 0.0100 0.0000
## 150 0.0014 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0023 nan 0.0100 0.0000
## 6 0.0022 nan 0.0100 0.0000
## 7 0.0022 nan 0.0100 0.0000
## 8 0.0022 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0021 nan 0.0100 0.0000
## 40 0.0019 nan 0.0100 0.0000
## 60 0.0017 nan 0.0100 0.0000
## 80 0.0016 nan 0.0100 0.0000
## 100 0.0016 nan 0.0100 0.0000
## 120 0.0015 nan 0.0100 -0.0000
## 140 0.0014 nan 0.0100 0.0000
## 150 0.0014 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0022 nan 0.0100 0.0000
## 6 0.0022 nan 0.0100 0.0000
## 7 0.0022 nan 0.0100 0.0000
## 8 0.0022 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0020 nan 0.0100 0.0000
## 40 0.0018 nan 0.0100 0.0000
## 60 0.0017 nan 0.0100 0.0000
## 80 0.0015 nan 0.0100 0.0000
## 100 0.0015 nan 0.0100 0.0000
## 120 0.0014 nan 0.0100 -0.0000
## 140 0.0014 nan 0.0100 -0.0000
## 150 0.0013 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0022 nan 0.0100 0.0000
## 6 0.0022 nan 0.0100 0.0000
## 7 0.0022 nan 0.0100 0.0000
## 8 0.0022 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0020 nan 0.0100 0.0000
## 40 0.0018 nan 0.0100 0.0000
## 60 0.0017 nan 0.0100 0.0000
## 80 0.0015 nan 0.0100 0.0000
## 100 0.0015 nan 0.0100 0.0000
## 120 0.0014 nan 0.0100 0.0000
## 140 0.0014 nan 0.0100 0.0000
## 150 0.0013 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0023 nan 0.0100 0.0000
## 6 0.0022 nan 0.0100 0.0000
## 7 0.0022 nan 0.0100 0.0000
## 8 0.0022 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0021 nan 0.0100 0.0000
## 40 0.0019 nan 0.0100 0.0000
## 60 0.0017 nan 0.0100 0.0000
## 80 0.0016 nan 0.0100 0.0000
## 100 0.0015 nan 0.0100 0.0000
## 120 0.0015 nan 0.0100 0.0000
## 140 0.0014 nan 0.0100 0.0000
## 150 0.0014 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0022 nan 0.0100 0.0000
## 6 0.0022 nan 0.0100 0.0000
## 7 0.0022 nan 0.0100 0.0000
## 8 0.0022 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0020 nan 0.0100 0.0000
## 40 0.0018 nan 0.0100 0.0000
## 60 0.0016 nan 0.0100 0.0000
## 80 0.0015 nan 0.0100 0.0000
## 100 0.0014 nan 0.0100 0.0000
## 120 0.0014 nan 0.0100 0.0000
## 140 0.0013 nan 0.0100 0.0000
## 150 0.0013 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0022 nan 0.0100 0.0000
## 6 0.0022 nan 0.0100 0.0000
## 7 0.0022 nan 0.0100 0.0000
## 8 0.0022 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0020 nan 0.0100 0.0000
## 40 0.0018 nan 0.0100 0.0000
## 60 0.0016 nan 0.0100 0.0000
## 80 0.0015 nan 0.0100 0.0000
## 100 0.0014 nan 0.0100 0.0000
## 120 0.0014 nan 0.0100 0.0000
## 140 0.0013 nan 0.0100 0.0000
## 150 0.0013 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.0100 0.0000
## 2 0.0023 nan 0.0100 0.0000
## 3 0.0023 nan 0.0100 0.0000
## 4 0.0023 nan 0.0100 0.0000
## 5 0.0023 nan 0.0100 0.0000
## 6 0.0022 nan 0.0100 0.0000
## 7 0.0022 nan 0.0100 0.0000
## 8 0.0022 nan 0.0100 0.0000
## 9 0.0022 nan 0.0100 0.0000
## 10 0.0022 nan 0.0100 0.0000
## 20 0.0021 nan 0.0100 0.0000
## 40 0.0019 nan 0.0100 0.0000
## 60 0.0017 nan 0.0100 0.0000
## 80 0.0016 nan 0.0100 0.0000
## 100 0.0015 nan 0.0100 0.0000
## 120 0.0015 nan 0.0100 0.0000
## 140 0.0014 nan 0.0100 0.0000
## 150 0.0014 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.1000 0.0001
## 2 0.0021 nan 0.1000 0.0001
## 3 0.0020 nan 0.1000 0.0001
## 4 0.0019 nan 0.1000 0.0001
## 5 0.0018 nan 0.1000 0.0001
## 6 0.0017 nan 0.1000 0.0001
## 7 0.0017 nan 0.1000 0.0000
## 8 0.0016 nan 0.1000 0.0000
## 9 0.0016 nan 0.1000 0.0000
## 10 0.0015 nan 0.1000 0.0000
## 20 0.0013 nan 0.1000 -0.0000
## 40 0.0012 nan 0.1000 -0.0000
## 60 0.0012 nan 0.1000 -0.0000
## 80 0.0011 nan 0.1000 -0.0000
## 100 0.0011 nan 0.1000 -0.0000
## 120 0.0011 nan 0.1000 -0.0000
## 140 0.0010 nan 0.1000 -0.0000
## 150 0.0010 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.1000 0.0001
## 2 0.0021 nan 0.1000 0.0001
## 3 0.0019 nan 0.1000 0.0001
## 4 0.0019 nan 0.1000 0.0001
## 5 0.0018 nan 0.1000 0.0001
## 6 0.0017 nan 0.1000 0.0000
## 7 0.0017 nan 0.1000 0.0001
## 8 0.0016 nan 0.1000 0.0000
## 9 0.0016 nan 0.1000 0.0001
## 10 0.0016 nan 0.1000 0.0000
## 20 0.0013 nan 0.1000 0.0000
## 40 0.0012 nan 0.1000 -0.0000
## 60 0.0012 nan 0.1000 -0.0000
## 80 0.0012 nan 0.1000 -0.0000
## 100 0.0011 nan 0.1000 -0.0000
## 120 0.0011 nan 0.1000 -0.0000
## 140 0.0011 nan 0.1000 -0.0000
## 150 0.0011 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.1000 0.0001
## 2 0.0020 nan 0.1000 0.0001
## 3 0.0019 nan 0.1000 0.0001
## 4 0.0018 nan 0.1000 0.0001
## 5 0.0017 nan 0.1000 0.0001
## 6 0.0017 nan 0.1000 0.0000
## 7 0.0016 nan 0.1000 0.0000
## 8 0.0016 nan 0.1000 0.0000
## 9 0.0016 nan 0.1000 0.0000
## 10 0.0015 nan 0.1000 0.0000
## 20 0.0013 nan 0.1000 0.0000
## 40 0.0012 nan 0.1000 -0.0000
## 60 0.0012 nan 0.1000 -0.0000
## 80 0.0012 nan 0.1000 -0.0000
## 100 0.0012 nan 0.1000 -0.0000
## 120 0.0011 nan 0.1000 -0.0000
## 140 0.0011 nan 0.1000 -0.0000
## 150 0.0011 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.1000 0.0001
## 2 0.0020 nan 0.1000 0.0001
## 3 0.0019 nan 0.1000 0.0001
## 4 0.0018 nan 0.1000 0.0001
## 5 0.0017 nan 0.1000 0.0001
## 6 0.0016 nan 0.1000 0.0001
## 7 0.0016 nan 0.1000 0.0000
## 8 0.0015 nan 0.1000 0.0000
## 9 0.0015 nan 0.1000 0.0000
## 10 0.0014 nan 0.1000 0.0000
## 20 0.0013 nan 0.1000 -0.0000
## 40 0.0012 nan 0.1000 -0.0000
## 60 0.0011 nan 0.1000 -0.0000
## 80 0.0010 nan 0.1000 -0.0000
## 100 0.0010 nan 0.1000 -0.0000
## 120 0.0010 nan 0.1000 -0.0000
## 140 0.0009 nan 0.1000 -0.0000
## 150 0.0009 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0021 nan 0.1000 0.0002
## 2 0.0020 nan 0.1000 0.0001
## 3 0.0019 nan 0.1000 0.0001
## 4 0.0018 nan 0.1000 0.0001
## 5 0.0017 nan 0.1000 0.0001
## 6 0.0016 nan 0.1000 0.0001
## 7 0.0016 nan 0.1000 0.0000
## 8 0.0015 nan 0.1000 0.0000
## 9 0.0015 nan 0.1000 0.0000
## 10 0.0015 nan 0.1000 0.0000
## 20 0.0013 nan 0.1000 -0.0000
## 40 0.0012 nan 0.1000 -0.0000
## 60 0.0011 nan 0.1000 -0.0000
## 80 0.0011 nan 0.1000 -0.0000
## 100 0.0011 nan 0.1000 -0.0000
## 120 0.0010 nan 0.1000 -0.0000
## 140 0.0010 nan 0.1000 -0.0000
## 150 0.0010 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.1000 0.0002
## 2 0.0020 nan 0.1000 0.0001
## 3 0.0019 nan 0.1000 0.0001
## 4 0.0019 nan 0.1000 0.0001
## 5 0.0018 nan 0.1000 0.0001
## 6 0.0017 nan 0.1000 0.0001
## 7 0.0016 nan 0.1000 0.0001
## 8 0.0016 nan 0.1000 0.0000
## 9 0.0015 nan 0.1000 0.0000
## 10 0.0015 nan 0.1000 0.0000
## 20 0.0013 nan 0.1000 0.0000
## 40 0.0012 nan 0.1000 -0.0000
## 60 0.0012 nan 0.1000 -0.0000
## 80 0.0012 nan 0.1000 -0.0000
## 100 0.0011 nan 0.1000 -0.0000
## 120 0.0011 nan 0.1000 -0.0000
## 140 0.0011 nan 0.1000 -0.0000
## 150 0.0011 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0021 nan 0.1000 0.0002
## 2 0.0020 nan 0.1000 0.0001
## 3 0.0018 nan 0.1000 0.0001
## 4 0.0017 nan 0.1000 0.0001
## 5 0.0016 nan 0.1000 0.0001
## 6 0.0016 nan 0.1000 0.0000
## 7 0.0015 nan 0.1000 0.0000
## 8 0.0015 nan 0.1000 0.0000
## 9 0.0014 nan 0.1000 0.0000
## 10 0.0014 nan 0.1000 0.0000
## 20 0.0012 nan 0.1000 -0.0000
## 40 0.0011 nan 0.1000 -0.0000
## 60 0.0010 nan 0.1000 -0.0000
## 80 0.0010 nan 0.1000 -0.0000
## 100 0.0009 nan 0.1000 -0.0000
## 120 0.0009 nan 0.1000 -0.0000
## 140 0.0009 nan 0.1000 -0.0000
## 150 0.0009 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0021 nan 0.1000 0.0002
## 2 0.0020 nan 0.1000 0.0001
## 3 0.0018 nan 0.1000 0.0001
## 4 0.0018 nan 0.1000 0.0001
## 5 0.0017 nan 0.1000 0.0001
## 6 0.0016 nan 0.1000 0.0001
## 7 0.0015 nan 0.1000 0.0001
## 8 0.0015 nan 0.1000 0.0000
## 9 0.0014 nan 0.1000 0.0000
## 10 0.0014 nan 0.1000 0.0000
## 20 0.0012 nan 0.1000 -0.0000
## 40 0.0011 nan 0.1000 -0.0000
## 60 0.0011 nan 0.1000 -0.0000
## 80 0.0011 nan 0.1000 -0.0000
## 100 0.0010 nan 0.1000 -0.0000
## 120 0.0010 nan 0.1000 -0.0000
## 140 0.0010 nan 0.1000 -0.0000
## 150 0.0010 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.1000 0.0001
## 2 0.0020 nan 0.1000 0.0001
## 3 0.0019 nan 0.1000 0.0001
## 4 0.0018 nan 0.1000 0.0001
## 5 0.0018 nan 0.1000 0.0001
## 6 0.0017 nan 0.1000 0.0000
## 7 0.0017 nan 0.1000 0.0000
## 8 0.0016 nan 0.1000 0.0000
## 9 0.0016 nan 0.1000 0.0000
## 10 0.0015 nan 0.1000 0.0000
## 20 0.0013 nan 0.1000 0.0000
## 40 0.0012 nan 0.1000 -0.0000
## 60 0.0012 nan 0.1000 -0.0000
## 80 0.0011 nan 0.1000 -0.0000
## 100 0.0011 nan 0.1000 -0.0000
## 120 0.0011 nan 0.1000 -0.0000
## 140 0.0011 nan 0.1000 -0.0000
## 150 0.0011 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0021 nan 0.2000 0.0002
## 2 0.0018 nan 0.2000 0.0002
## 3 0.0017 nan 0.2000 0.0001
## 4 0.0016 nan 0.2000 0.0001
## 5 0.0015 nan 0.2000 0.0000
## 6 0.0014 nan 0.2000 0.0000
## 7 0.0014 nan 0.2000 -0.0000
## 8 0.0014 nan 0.2000 0.0000
## 9 0.0013 nan 0.2000 0.0000
## 10 0.0013 nan 0.2000 -0.0000
## 20 0.0012 nan 0.2000 -0.0000
## 40 0.0011 nan 0.2000 -0.0000
## 60 0.0011 nan 0.2000 -0.0000
## 80 0.0010 nan 0.2000 -0.0000
## 100 0.0010 nan 0.2000 -0.0000
## 120 0.0009 nan 0.2000 -0.0000
## 140 0.0009 nan 0.2000 -0.0000
## 150 0.0009 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0021 nan 0.2000 0.0002
## 2 0.0019 nan 0.2000 0.0002
## 3 0.0017 nan 0.2000 0.0002
## 4 0.0016 nan 0.2000 0.0001
## 5 0.0016 nan 0.2000 0.0000
## 6 0.0015 nan 0.2000 0.0000
## 7 0.0014 nan 0.2000 0.0000
## 8 0.0014 nan 0.2000 0.0000
## 9 0.0014 nan 0.2000 -0.0000
## 10 0.0014 nan 0.2000 -0.0000
## 20 0.0013 nan 0.2000 -0.0000
## 40 0.0012 nan 0.2000 -0.0000
## 60 0.0011 nan 0.2000 -0.0000
## 80 0.0011 nan 0.2000 -0.0000
## 100 0.0010 nan 0.2000 -0.0000
## 120 0.0010 nan 0.2000 -0.0000
## 140 0.0010 nan 0.2000 -0.0000
## 150 0.0009 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0020 nan 0.2000 0.0003
## 2 0.0018 nan 0.2000 0.0002
## 3 0.0017 nan 0.2000 0.0001
## 4 0.0016 nan 0.2000 0.0001
## 5 0.0015 nan 0.2000 0.0001
## 6 0.0015 nan 0.2000 0.0001
## 7 0.0014 nan 0.2000 0.0000
## 8 0.0014 nan 0.2000 0.0000
## 9 0.0014 nan 0.2000 -0.0000
## 10 0.0014 nan 0.2000 0.0000
## 20 0.0013 nan 0.2000 -0.0000
## 40 0.0012 nan 0.2000 -0.0000
## 60 0.0011 nan 0.2000 -0.0000
## 80 0.0011 nan 0.2000 -0.0000
## 100 0.0011 nan 0.2000 -0.0000
## 120 0.0010 nan 0.2000 -0.0000
## 140 0.0010 nan 0.2000 -0.0000
## 150 0.0010 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0021 nan 0.2000 0.0003
## 2 0.0018 nan 0.2000 0.0002
## 3 0.0017 nan 0.2000 0.0001
## 4 0.0016 nan 0.2000 0.0001
## 5 0.0015 nan 0.2000 0.0001
## 6 0.0015 nan 0.2000 0.0000
## 7 0.0014 nan 0.2000 0.0000
## 8 0.0013 nan 0.2000 -0.0000
## 9 0.0013 nan 0.2000 -0.0000
## 10 0.0013 nan 0.2000 -0.0000
## 20 0.0012 nan 0.2000 -0.0000
## 40 0.0011 nan 0.2000 -0.0000
## 60 0.0010 nan 0.2000 -0.0000
## 80 0.0009 nan 0.2000 -0.0000
## 100 0.0009 nan 0.2000 -0.0000
## 120 0.0008 nan 0.2000 -0.0000
## 140 0.0008 nan 0.2000 -0.0000
## 150 0.0008 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0020 nan 0.2000 0.0003
## 2 0.0018 nan 0.2000 0.0001
## 3 0.0017 nan 0.2000 0.0001
## 4 0.0016 nan 0.2000 0.0000
## 5 0.0015 nan 0.2000 0.0001
## 6 0.0015 nan 0.2000 0.0000
## 7 0.0014 nan 0.2000 0.0000
## 8 0.0014 nan 0.2000 0.0000
## 9 0.0013 nan 0.2000 0.0000
## 10 0.0013 nan 0.2000 -0.0000
## 20 0.0012 nan 0.2000 -0.0000
## 40 0.0011 nan 0.2000 -0.0000
## 60 0.0010 nan 0.2000 -0.0000
## 80 0.0010 nan 0.2000 -0.0000
## 100 0.0010 nan 0.2000 -0.0000
## 120 0.0009 nan 0.2000 -0.0000
## 140 0.0009 nan 0.2000 -0.0000
## 150 0.0009 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0020 nan 0.2000 0.0003
## 2 0.0018 nan 0.2000 0.0001
## 3 0.0017 nan 0.2000 0.0000
## 4 0.0016 nan 0.2000 0.0000
## 5 0.0015 nan 0.2000 0.0000
## 6 0.0015 nan 0.2000 0.0000
## 7 0.0015 nan 0.2000 -0.0000
## 8 0.0014 nan 0.2000 0.0000
## 9 0.0014 nan 0.2000 -0.0000
## 10 0.0013 nan 0.2000 0.0000
## 20 0.0012 nan 0.2000 -0.0000
## 40 0.0012 nan 0.2000 -0.0000
## 60 0.0011 nan 0.2000 -0.0000
## 80 0.0011 nan 0.2000 -0.0000
## 100 0.0010 nan 0.2000 -0.0000
## 120 0.0010 nan 0.2000 -0.0000
## 140 0.0010 nan 0.2000 -0.0000
## 150 0.0010 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0020 nan 0.2000 0.0003
## 2 0.0018 nan 0.2000 0.0002
## 3 0.0016 nan 0.2000 0.0001
## 4 0.0015 nan 0.2000 0.0000
## 5 0.0014 nan 0.2000 0.0000
## 6 0.0014 nan 0.2000 0.0000
## 7 0.0013 nan 0.2000 0.0000
## 8 0.0013 nan 0.2000 -0.0000
## 9 0.0013 nan 0.2000 0.0000
## 10 0.0012 nan 0.2000 -0.0000
## 20 0.0011 nan 0.2000 -0.0000
## 40 0.0010 nan 0.2000 -0.0000
## 60 0.0009 nan 0.2000 -0.0000
## 80 0.0009 nan 0.2000 -0.0000
## 100 0.0008 nan 0.2000 -0.0000
## 120 0.0008 nan 0.2000 -0.0000
## 140 0.0008 nan 0.2000 -0.0000
## 150 0.0008 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0020 nan 0.2000 0.0003
## 2 0.0017 nan 0.2000 0.0002
## 3 0.0015 nan 0.2000 0.0001
## 4 0.0015 nan 0.2000 0.0001
## 5 0.0014 nan 0.2000 0.0001
## 6 0.0013 nan 0.2000 0.0000
## 7 0.0013 nan 0.2000 -0.0000
## 8 0.0013 nan 0.2000 0.0000
## 9 0.0013 nan 0.2000 -0.0000
## 10 0.0012 nan 0.2000 -0.0000
## 20 0.0011 nan 0.2000 -0.0000
## 40 0.0010 nan 0.2000 -0.0000
## 60 0.0010 nan 0.2000 -0.0000
## 80 0.0009 nan 0.2000 -0.0000
## 100 0.0009 nan 0.2000 -0.0000
## 120 0.0009 nan 0.2000 -0.0000
## 140 0.0008 nan 0.2000 -0.0000
## 150 0.0008 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0020 nan 0.2000 0.0003
## 2 0.0018 nan 0.2000 0.0002
## 3 0.0017 nan 0.2000 0.0002
## 4 0.0015 nan 0.2000 0.0001
## 5 0.0015 nan 0.2000 0.0000
## 6 0.0014 nan 0.2000 0.0000
## 7 0.0014 nan 0.2000 0.0000
## 8 0.0013 nan 0.2000 -0.0000
## 9 0.0013 nan 0.2000 -0.0000
## 10 0.0013 nan 0.2000 -0.0000
## 20 0.0012 nan 0.2000 -0.0000
## 40 0.0012 nan 0.2000 -0.0000
## 60 0.0011 nan 0.2000 -0.0000
## 80 0.0011 nan 0.2000 -0.0000
## 100 0.0010 nan 0.2000 -0.0000
## 120 0.0010 nan 0.2000 -0.0000
## 140 0.0010 nan 0.2000 -0.0000
## 150 0.0010 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0026 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0025 nan 0.0100 0.0000
## 7 0.0024 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0023 nan 0.0100 0.0000
## 40 0.0020 nan 0.0100 0.0000
## 60 0.0019 nan 0.0100 0.0000
## 80 0.0017 nan 0.0100 0.0000
## 100 0.0017 nan 0.0100 0.0000
## 120 0.0016 nan 0.0100 0.0000
## 140 0.0015 nan 0.0100 0.0000
## 150 0.0015 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0026 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0025 nan 0.0100 0.0000
## 7 0.0025 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0023 nan 0.0100 0.0000
## 40 0.0020 nan 0.0100 0.0000
## 60 0.0019 nan 0.0100 0.0000
## 80 0.0017 nan 0.0100 0.0000
## 100 0.0017 nan 0.0100 0.0000
## 120 0.0016 nan 0.0100 0.0000
## 140 0.0015 nan 0.0100 -0.0000
## 150 0.0015 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0026 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0025 nan 0.0100 0.0000
## 7 0.0025 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0023 nan 0.0100 0.0000
## 40 0.0020 nan 0.0100 0.0000
## 60 0.0019 nan 0.0100 0.0000
## 80 0.0018 nan 0.0100 0.0000
## 100 0.0017 nan 0.0100 0.0000
## 120 0.0016 nan 0.0100 0.0000
## 140 0.0016 nan 0.0100 0.0000
## 150 0.0015 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0026 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0025 nan 0.0100 0.0000
## 7 0.0024 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0022 nan 0.0100 0.0000
## 40 0.0020 nan 0.0100 0.0000
## 60 0.0018 nan 0.0100 0.0000
## 80 0.0017 nan 0.0100 0.0000
## 100 0.0016 nan 0.0100 0.0000
## 120 0.0015 nan 0.0100 0.0000
## 140 0.0015 nan 0.0100 0.0000
## 150 0.0015 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0026 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0024 nan 0.0100 0.0000
## 7 0.0024 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0022 nan 0.0100 0.0000
## 40 0.0020 nan 0.0100 0.0000
## 60 0.0018 nan 0.0100 0.0000
## 80 0.0017 nan 0.0100 0.0000
## 100 0.0016 nan 0.0100 0.0000
## 120 0.0015 nan 0.0100 0.0000
## 140 0.0015 nan 0.0100 -0.0000
## 150 0.0015 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0026 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0025 nan 0.0100 0.0000
## 7 0.0024 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0022 nan 0.0100 0.0000
## 40 0.0020 nan 0.0100 0.0000
## 60 0.0018 nan 0.0100 0.0000
## 80 0.0017 nan 0.0100 0.0000
## 100 0.0016 nan 0.0100 0.0000
## 120 0.0016 nan 0.0100 0.0000
## 140 0.0015 nan 0.0100 0.0000
## 150 0.0015 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0026 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0024 nan 0.0100 0.0000
## 7 0.0024 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0022 nan 0.0100 0.0000
## 40 0.0020 nan 0.0100 0.0000
## 60 0.0018 nan 0.0100 0.0000
## 80 0.0016 nan 0.0100 0.0000
## 100 0.0016 nan 0.0100 0.0000
## 120 0.0015 nan 0.0100 0.0000
## 140 0.0014 nan 0.0100 -0.0000
## 150 0.0014 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0026 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0025 nan 0.0100 0.0000
## 7 0.0024 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0022 nan 0.0100 0.0000
## 40 0.0020 nan 0.0100 0.0000
## 60 0.0018 nan 0.0100 0.0000
## 80 0.0017 nan 0.0100 0.0000
## 100 0.0016 nan 0.0100 0.0000
## 120 0.0015 nan 0.0100 0.0000
## 140 0.0015 nan 0.0100 0.0000
## 150 0.0014 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0026 nan 0.0100 0.0000
## 2 0.0025 nan 0.0100 0.0000
## 3 0.0025 nan 0.0100 0.0000
## 4 0.0025 nan 0.0100 0.0000
## 5 0.0025 nan 0.0100 0.0000
## 6 0.0025 nan 0.0100 0.0000
## 7 0.0024 nan 0.0100 0.0000
## 8 0.0024 nan 0.0100 0.0000
## 9 0.0024 nan 0.0100 0.0000
## 10 0.0024 nan 0.0100 0.0000
## 20 0.0022 nan 0.0100 0.0000
## 40 0.0020 nan 0.0100 0.0000
## 60 0.0018 nan 0.0100 0.0000
## 80 0.0017 nan 0.0100 0.0000
## 100 0.0016 nan 0.0100 0.0000
## 120 0.0016 nan 0.0100 0.0000
## 140 0.0015 nan 0.0100 -0.0000
## 150 0.0015 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0002
## 2 0.0022 nan 0.1000 0.0001
## 3 0.0021 nan 0.1000 0.0001
## 4 0.0020 nan 0.1000 0.0001
## 5 0.0019 nan 0.1000 0.0001
## 6 0.0019 nan 0.1000 0.0000
## 7 0.0018 nan 0.1000 0.0001
## 8 0.0017 nan 0.1000 0.0000
## 9 0.0017 nan 0.1000 0.0001
## 10 0.0017 nan 0.1000 0.0000
## 20 0.0015 nan 0.1000 -0.0000
## 40 0.0014 nan 0.1000 -0.0000
## 60 0.0013 nan 0.1000 -0.0000
## 80 0.0012 nan 0.1000 -0.0000
## 100 0.0012 nan 0.1000 -0.0000
## 120 0.0011 nan 0.1000 -0.0000
## 140 0.0011 nan 0.1000 -0.0000
## 150 0.0011 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0002
## 2 0.0022 nan 0.1000 0.0001
## 3 0.0021 nan 0.1000 0.0001
## 4 0.0020 nan 0.1000 0.0001
## 5 0.0019 nan 0.1000 0.0001
## 6 0.0018 nan 0.1000 0.0001
## 7 0.0018 nan 0.1000 0.0000
## 8 0.0017 nan 0.1000 0.0000
## 9 0.0017 nan 0.1000 0.0000
## 10 0.0017 nan 0.1000 0.0000
## 20 0.0015 nan 0.1000 0.0000
## 40 0.0014 nan 0.1000 -0.0000
## 60 0.0013 nan 0.1000 -0.0000
## 80 0.0013 nan 0.1000 -0.0000
## 100 0.0012 nan 0.1000 -0.0000
## 120 0.0012 nan 0.1000 -0.0000
## 140 0.0012 nan 0.1000 -0.0000
## 150 0.0012 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0002
## 2 0.0022 nan 0.1000 0.0002
## 3 0.0021 nan 0.1000 0.0001
## 4 0.0020 nan 0.1000 0.0001
## 5 0.0019 nan 0.1000 0.0001
## 6 0.0018 nan 0.1000 0.0001
## 7 0.0018 nan 0.1000 0.0000
## 8 0.0017 nan 0.1000 0.0000
## 9 0.0017 nan 0.1000 0.0000
## 10 0.0017 nan 0.1000 0.0000
## 20 0.0015 nan 0.1000 -0.0000
## 40 0.0014 nan 0.1000 -0.0000
## 60 0.0013 nan 0.1000 -0.0000
## 80 0.0013 nan 0.1000 -0.0000
## 100 0.0013 nan 0.1000 -0.0000
## 120 0.0013 nan 0.1000 -0.0000
## 140 0.0012 nan 0.1000 -0.0000
## 150 0.0012 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0002
## 2 0.0022 nan 0.1000 0.0001
## 3 0.0021 nan 0.1000 0.0001
## 4 0.0020 nan 0.1000 0.0001
## 5 0.0019 nan 0.1000 0.0000
## 6 0.0018 nan 0.1000 0.0001
## 7 0.0017 nan 0.1000 0.0000
## 8 0.0017 nan 0.1000 0.0000
## 9 0.0016 nan 0.1000 0.0000
## 10 0.0016 nan 0.1000 0.0000
## 20 0.0014 nan 0.1000 -0.0000
## 40 0.0013 nan 0.1000 -0.0000
## 60 0.0012 nan 0.1000 -0.0000
## 80 0.0012 nan 0.1000 -0.0000
## 100 0.0011 nan 0.1000 -0.0000
## 120 0.0011 nan 0.1000 -0.0000
## 140 0.0010 nan 0.1000 -0.0000
## 150 0.0010 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0002
## 2 0.0022 nan 0.1000 0.0001
## 3 0.0021 nan 0.1000 0.0001
## 4 0.0020 nan 0.1000 0.0001
## 5 0.0019 nan 0.1000 0.0001
## 6 0.0018 nan 0.1000 0.0001
## 7 0.0017 nan 0.1000 0.0000
## 8 0.0017 nan 0.1000 0.0000
## 9 0.0016 nan 0.1000 0.0000
## 10 0.0016 nan 0.1000 0.0000
## 20 0.0014 nan 0.1000 -0.0000
## 40 0.0013 nan 0.1000 -0.0000
## 60 0.0012 nan 0.1000 -0.0000
## 80 0.0012 nan 0.1000 -0.0000
## 100 0.0012 nan 0.1000 -0.0000
## 120 0.0011 nan 0.1000 -0.0000
## 140 0.0011 nan 0.1000 -0.0000
## 150 0.0011 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0002
## 2 0.0022 nan 0.1000 0.0001
## 3 0.0021 nan 0.1000 0.0001
## 4 0.0020 nan 0.1000 0.0001
## 5 0.0019 nan 0.1000 0.0001
## 6 0.0018 nan 0.1000 0.0001
## 7 0.0018 nan 0.1000 0.0000
## 8 0.0017 nan 0.1000 0.0000
## 9 0.0017 nan 0.1000 0.0000
## 10 0.0016 nan 0.1000 0.0000
## 20 0.0014 nan 0.1000 -0.0000
## 40 0.0014 nan 0.1000 -0.0000
## 60 0.0013 nan 0.1000 -0.0000
## 80 0.0013 nan 0.1000 -0.0000
## 100 0.0013 nan 0.1000 -0.0000
## 120 0.0012 nan 0.1000 -0.0000
## 140 0.0012 nan 0.1000 -0.0000
## 150 0.0012 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0002
## 2 0.0022 nan 0.1000 0.0001
## 3 0.0020 nan 0.1000 0.0001
## 4 0.0019 nan 0.1000 0.0001
## 5 0.0018 nan 0.1000 0.0001
## 6 0.0017 nan 0.1000 0.0000
## 7 0.0017 nan 0.1000 0.0000
## 8 0.0016 nan 0.1000 0.0000
## 9 0.0016 nan 0.1000 0.0000
## 10 0.0015 nan 0.1000 0.0000
## 20 0.0013 nan 0.1000 -0.0000
## 40 0.0012 nan 0.1000 -0.0000
## 60 0.0011 nan 0.1000 -0.0000
## 80 0.0011 nan 0.1000 -0.0000
## 100 0.0010 nan 0.1000 -0.0000
## 120 0.0010 nan 0.1000 -0.0000
## 140 0.0010 nan 0.1000 -0.0000
## 150 0.0010 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0002
## 2 0.0022 nan 0.1000 0.0002
## 3 0.0021 nan 0.1000 0.0001
## 4 0.0020 nan 0.1000 0.0001
## 5 0.0019 nan 0.1000 0.0001
## 6 0.0018 nan 0.1000 0.0001
## 7 0.0017 nan 0.1000 0.0000
## 8 0.0017 nan 0.1000 0.0000
## 9 0.0016 nan 0.1000 0.0000
## 10 0.0016 nan 0.1000 0.0000
## 20 0.0014 nan 0.1000 -0.0000
## 40 0.0013 nan 0.1000 -0.0000
## 60 0.0012 nan 0.1000 -0.0000
## 80 0.0012 nan 0.1000 -0.0000
## 100 0.0011 nan 0.1000 -0.0000
## 120 0.0011 nan 0.1000 -0.0000
## 140 0.0011 nan 0.1000 -0.0000
## 150 0.0010 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0002
## 2 0.0022 nan 0.1000 0.0002
## 3 0.0021 nan 0.1000 0.0001
## 4 0.0020 nan 0.1000 0.0001
## 5 0.0019 nan 0.1000 0.0001
## 6 0.0018 nan 0.1000 0.0001
## 7 0.0018 nan 0.1000 0.0000
## 8 0.0017 nan 0.1000 0.0000
## 9 0.0016 nan 0.1000 0.0000
## 10 0.0016 nan 0.1000 0.0000
## 20 0.0015 nan 0.1000 0.0000
## 40 0.0013 nan 0.1000 -0.0000
## 60 0.0013 nan 0.1000 -0.0000
## 80 0.0013 nan 0.1000 -0.0000
## 100 0.0012 nan 0.1000 -0.0000
## 120 0.0012 nan 0.1000 -0.0000
## 140 0.0012 nan 0.1000 -0.0000
## 150 0.0012 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.2000 0.0003
## 2 0.0020 nan 0.2000 0.0002
## 3 0.0018 nan 0.2000 0.0001
## 4 0.0017 nan 0.2000 0.0001
## 5 0.0017 nan 0.2000 0.0001
## 6 0.0017 nan 0.2000 0.0000
## 7 0.0016 nan 0.2000 0.0000
## 8 0.0015 nan 0.2000 0.0000
## 9 0.0015 nan 0.2000 -0.0000
## 10 0.0015 nan 0.2000 -0.0000
## 20 0.0014 nan 0.2000 -0.0001
## 40 0.0013 nan 0.2000 -0.0000
## 60 0.0012 nan 0.2000 -0.0000
## 80 0.0011 nan 0.2000 -0.0000
## 100 0.0011 nan 0.2000 -0.0000
## 120 0.0010 nan 0.2000 -0.0000
## 140 0.0010 nan 0.2000 -0.0000
## 150 0.0010 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.2000 0.0003
## 2 0.0020 nan 0.2000 0.0002
## 3 0.0018 nan 0.2000 0.0002
## 4 0.0017 nan 0.2000 0.0001
## 5 0.0016 nan 0.2000 0.0001
## 6 0.0016 nan 0.2000 -0.0000
## 7 0.0015 nan 0.2000 0.0000
## 8 0.0015 nan 0.2000 0.0000
## 9 0.0015 nan 0.2000 -0.0000
## 10 0.0015 nan 0.2000 -0.0000
## 20 0.0014 nan 0.2000 -0.0000
## 40 0.0013 nan 0.2000 -0.0000
## 60 0.0012 nan 0.2000 -0.0000
## 80 0.0012 nan 0.2000 -0.0000
## 100 0.0011 nan 0.2000 -0.0000
## 120 0.0011 nan 0.2000 -0.0000
## 140 0.0011 nan 0.2000 -0.0000
## 150 0.0010 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.2000 0.0003
## 2 0.0020 nan 0.2000 0.0002
## 3 0.0018 nan 0.2000 0.0002
## 4 0.0017 nan 0.2000 0.0001
## 5 0.0016 nan 0.2000 0.0000
## 6 0.0016 nan 0.2000 0.0000
## 7 0.0015 nan 0.2000 0.0000
## 8 0.0015 nan 0.2000 0.0000
## 9 0.0015 nan 0.2000 0.0000
## 10 0.0015 nan 0.2000 -0.0000
## 20 0.0014 nan 0.2000 0.0000
## 40 0.0013 nan 0.2000 -0.0000
## 60 0.0013 nan 0.2000 -0.0000
## 80 0.0012 nan 0.2000 -0.0000
## 100 0.0012 nan 0.2000 -0.0000
## 120 0.0012 nan 0.2000 -0.0000
## 140 0.0012 nan 0.2000 -0.0000
## 150 0.0012 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.2000 0.0003
## 2 0.0020 nan 0.2000 0.0002
## 3 0.0018 nan 0.2000 0.0001
## 4 0.0017 nan 0.2000 0.0001
## 5 0.0016 nan 0.2000 0.0000
## 6 0.0015 nan 0.2000 0.0000
## 7 0.0015 nan 0.2000 -0.0000
## 8 0.0014 nan 0.2000 -0.0000
## 9 0.0014 nan 0.2000 -0.0000
## 10 0.0014 nan 0.2000 0.0000
## 20 0.0013 nan 0.2000 -0.0000
## 40 0.0012 nan 0.2000 -0.0000
## 60 0.0011 nan 0.2000 -0.0000
## 80 0.0010 nan 0.2000 -0.0000
## 100 0.0010 nan 0.2000 -0.0000
## 120 0.0009 nan 0.2000 -0.0000
## 140 0.0009 nan 0.2000 -0.0000
## 150 0.0009 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.2000 0.0004
## 2 0.0020 nan 0.2000 0.0002
## 3 0.0018 nan 0.2000 0.0001
## 4 0.0017 nan 0.2000 0.0001
## 5 0.0016 nan 0.2000 0.0000
## 6 0.0015 nan 0.2000 0.0000
## 7 0.0015 nan 0.2000 -0.0000
## 8 0.0015 nan 0.2000 -0.0000
## 9 0.0014 nan 0.2000 -0.0000
## 10 0.0014 nan 0.2000 -0.0000
## 20 0.0013 nan 0.2000 -0.0000
## 40 0.0012 nan 0.2000 -0.0000
## 60 0.0011 nan 0.2000 -0.0000
## 80 0.0011 nan 0.2000 -0.0000
## 100 0.0010 nan 0.2000 -0.0000
## 120 0.0010 nan 0.2000 -0.0000
## 140 0.0010 nan 0.2000 -0.0000
## 150 0.0010 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.2000 0.0003
## 2 0.0020 nan 0.2000 0.0002
## 3 0.0018 nan 0.2000 0.0001
## 4 0.0017 nan 0.2000 0.0001
## 5 0.0016 nan 0.2000 0.0000
## 6 0.0016 nan 0.2000 0.0000
## 7 0.0015 nan 0.2000 0.0000
## 8 0.0015 nan 0.2000 0.0000
## 9 0.0015 nan 0.2000 -0.0000
## 10 0.0015 nan 0.2000 -0.0000
## 20 0.0014 nan 0.2000 -0.0001
## 40 0.0013 nan 0.2000 -0.0000
## 60 0.0013 nan 0.2000 -0.0000
## 80 0.0012 nan 0.2000 -0.0000
## 100 0.0012 nan 0.2000 -0.0000
## 120 0.0011 nan 0.2000 -0.0000
## 140 0.0011 nan 0.2000 -0.0000
## 150 0.0011 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.2000 0.0004
## 2 0.0019 nan 0.2000 0.0002
## 3 0.0017 nan 0.2000 0.0001
## 4 0.0016 nan 0.2000 0.0001
## 5 0.0016 nan 0.2000 0.0001
## 6 0.0015 nan 0.2000 0.0000
## 7 0.0015 nan 0.2000 -0.0000
## 8 0.0014 nan 0.2000 0.0000
## 9 0.0014 nan 0.2000 0.0000
## 10 0.0014 nan 0.2000 0.0000
## 20 0.0012 nan 0.2000 -0.0000
## 40 0.0011 nan 0.2000 -0.0000
## 60 0.0010 nan 0.2000 -0.0000
## 80 0.0010 nan 0.2000 -0.0000
## 100 0.0009 nan 0.2000 -0.0000
## 120 0.0009 nan 0.2000 -0.0000
## 140 0.0008 nan 0.2000 -0.0000
## 150 0.0008 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0022 nan 0.2000 0.0003
## 2 0.0020 nan 0.2000 0.0002
## 3 0.0018 nan 0.2000 0.0001
## 4 0.0017 nan 0.2000 0.0001
## 5 0.0016 nan 0.2000 0.0000
## 6 0.0015 nan 0.2000 0.0001
## 7 0.0015 nan 0.2000 0.0000
## 8 0.0014 nan 0.2000 0.0000
## 9 0.0014 nan 0.2000 -0.0000
## 10 0.0014 nan 0.2000 -0.0000
## 20 0.0013 nan 0.2000 -0.0000
## 40 0.0012 nan 0.2000 -0.0000
## 60 0.0011 nan 0.2000 -0.0000
## 80 0.0010 nan 0.2000 -0.0000
## 100 0.0010 nan 0.2000 -0.0000
## 120 0.0010 nan 0.2000 -0.0000
## 140 0.0009 nan 0.2000 -0.0000
## 150 0.0009 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.2000 0.0004
## 2 0.0020 nan 0.2000 0.0002
## 3 0.0019 nan 0.2000 0.0002
## 4 0.0018 nan 0.2000 0.0001
## 5 0.0017 nan 0.2000 0.0001
## 6 0.0016 nan 0.2000 0.0000
## 7 0.0015 nan 0.2000 0.0000
## 8 0.0015 nan 0.2000 -0.0000
## 9 0.0015 nan 0.2000 0.0000
## 10 0.0015 nan 0.2000 -0.0000
## 20 0.0013 nan 0.2000 -0.0000
## 40 0.0013 nan 0.2000 -0.0001
## 60 0.0012 nan 0.2000 -0.0000
## 80 0.0012 nan 0.2000 -0.0000
## 100 0.0011 nan 0.2000 -0.0000
## 120 0.0011 nan 0.2000 -0.0000
## 140 0.0011 nan 0.2000 -0.0000
## 150 0.0011 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0027 nan 0.0100 0.0000
## 2 0.0026 nan 0.0100 0.0000
## 3 0.0026 nan 0.0100 0.0000
## 4 0.0026 nan 0.0100 0.0000
## 5 0.0026 nan 0.0100 0.0000
## 6 0.0026 nan 0.0100 0.0000
## 7 0.0026 nan 0.0100 0.0000
## 8 0.0025 nan 0.0100 0.0000
## 9 0.0025 nan 0.0100 0.0000
## 10 0.0025 nan 0.0100 0.0000
## 20 0.0024 nan 0.0100 0.0000
## 40 0.0021 nan 0.0100 0.0000
## 60 0.0020 nan 0.0100 0.0000
## 80 0.0019 nan 0.0100 0.0000
## 100 0.0018 nan 0.0100 0.0000
## 120 0.0017 nan 0.0100 0.0000
## 140 0.0017 nan 0.0100 0.0000
## 150 0.0016 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0027 nan 0.0100 0.0000
## 2 0.0026 nan 0.0100 0.0000
## 3 0.0026 nan 0.0100 0.0000
## 4 0.0026 nan 0.0100 0.0000
## 5 0.0026 nan 0.0100 0.0000
## 6 0.0026 nan 0.0100 0.0000
## 7 0.0026 nan 0.0100 0.0000
## 8 0.0025 nan 0.0100 0.0000
## 9 0.0025 nan 0.0100 0.0000
## 10 0.0025 nan 0.0100 0.0000
## 20 0.0024 nan 0.0100 0.0000
## 40 0.0021 nan 0.0100 0.0000
## 60 0.0020 nan 0.0100 0.0000
## 80 0.0019 nan 0.0100 0.0000
## 100 0.0018 nan 0.0100 0.0000
## 120 0.0017 nan 0.0100 0.0000
## 140 0.0017 nan 0.0100 -0.0000
## 150 0.0016 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0027 nan 0.0100 0.0000
## 2 0.0026 nan 0.0100 0.0000
## 3 0.0026 nan 0.0100 0.0000
## 4 0.0026 nan 0.0100 0.0000
## 5 0.0026 nan 0.0100 0.0000
## 6 0.0026 nan 0.0100 0.0000
## 7 0.0026 nan 0.0100 0.0000
## 8 0.0025 nan 0.0100 0.0000
## 9 0.0025 nan 0.0100 0.0000
## 10 0.0025 nan 0.0100 0.0000
## 20 0.0024 nan 0.0100 0.0000
## 40 0.0022 nan 0.0100 0.0000
## 60 0.0020 nan 0.0100 0.0000
## 80 0.0019 nan 0.0100 0.0000
## 100 0.0018 nan 0.0100 0.0000
## 120 0.0017 nan 0.0100 0.0000
## 140 0.0017 nan 0.0100 0.0000
## 150 0.0017 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0027 nan 0.0100 0.0000
## 2 0.0026 nan 0.0100 0.0000
## 3 0.0026 nan 0.0100 0.0000
## 4 0.0026 nan 0.0100 0.0000
## 5 0.0026 nan 0.0100 0.0000
## 6 0.0026 nan 0.0100 0.0000
## 7 0.0025 nan 0.0100 0.0000
## 8 0.0025 nan 0.0100 0.0000
## 9 0.0025 nan 0.0100 0.0000
## 10 0.0025 nan 0.0100 0.0000
## 20 0.0023 nan 0.0100 0.0000
## 40 0.0021 nan 0.0100 0.0000
## 60 0.0019 nan 0.0100 0.0000
## 80 0.0018 nan 0.0100 -0.0000
## 100 0.0017 nan 0.0100 -0.0000
## 120 0.0016 nan 0.0100 0.0000
## 140 0.0016 nan 0.0100 0.0000
## 150 0.0016 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0027 nan 0.0100 0.0000
## 2 0.0026 nan 0.0100 0.0000
## 3 0.0026 nan 0.0100 0.0000
## 4 0.0026 nan 0.0100 0.0000
## 5 0.0026 nan 0.0100 0.0000
## 6 0.0026 nan 0.0100 0.0000
## 7 0.0025 nan 0.0100 0.0000
## 8 0.0025 nan 0.0100 0.0000
## 9 0.0025 nan 0.0100 0.0000
## 10 0.0025 nan 0.0100 0.0000
## 20 0.0023 nan 0.0100 0.0000
## 40 0.0021 nan 0.0100 0.0000
## 60 0.0019 nan 0.0100 0.0000
## 80 0.0018 nan 0.0100 0.0000
## 100 0.0017 nan 0.0100 0.0000
## 120 0.0017 nan 0.0100 0.0000
## 140 0.0016 nan 0.0100 0.0000
## 150 0.0016 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0027 nan 0.0100 0.0000
## 2 0.0026 nan 0.0100 0.0000
## 3 0.0026 nan 0.0100 0.0000
## 4 0.0026 nan 0.0100 0.0000
## 5 0.0026 nan 0.0100 0.0000
## 6 0.0026 nan 0.0100 0.0000
## 7 0.0026 nan 0.0100 0.0000
## 8 0.0025 nan 0.0100 0.0000
## 9 0.0025 nan 0.0100 0.0000
## 10 0.0025 nan 0.0100 0.0000
## 20 0.0024 nan 0.0100 0.0000
## 40 0.0021 nan 0.0100 0.0000
## 60 0.0020 nan 0.0100 0.0000
## 80 0.0018 nan 0.0100 0.0000
## 100 0.0017 nan 0.0100 0.0000
## 120 0.0017 nan 0.0100 0.0000
## 140 0.0016 nan 0.0100 0.0000
## 150 0.0016 nan 0.0100 0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0027 nan 0.0100 0.0000
## 2 0.0026 nan 0.0100 0.0000
## 3 0.0026 nan 0.0100 0.0000
## 4 0.0026 nan 0.0100 0.0000
## 5 0.0026 nan 0.0100 0.0000
## 6 0.0026 nan 0.0100 0.0000
## 7 0.0025 nan 0.0100 0.0000
## 8 0.0025 nan 0.0100 0.0000
## 9 0.0025 nan 0.0100 0.0000
## 10 0.0025 nan 0.0100 0.0000
## 20 0.0023 nan 0.0100 0.0000
## 40 0.0021 nan 0.0100 0.0000
## 60 0.0019 nan 0.0100 0.0000
## 80 0.0018 nan 0.0100 0.0000
## 100 0.0017 nan 0.0100 0.0000
## 120 0.0016 nan 0.0100 0.0000
## 140 0.0015 nan 0.0100 0.0000
## 150 0.0015 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0027 nan 0.0100 0.0000
## 2 0.0026 nan 0.0100 0.0000
## 3 0.0026 nan 0.0100 0.0000
## 4 0.0026 nan 0.0100 0.0000
## 5 0.0026 nan 0.0100 0.0000
## 6 0.0026 nan 0.0100 0.0000
## 7 0.0025 nan 0.0100 0.0000
## 8 0.0025 nan 0.0100 0.0000
## 9 0.0025 nan 0.0100 0.0000
## 10 0.0025 nan 0.0100 0.0000
## 20 0.0023 nan 0.0100 0.0000
## 40 0.0021 nan 0.0100 0.0000
## 60 0.0019 nan 0.0100 0.0000
## 80 0.0018 nan 0.0100 0.0000
## 100 0.0017 nan 0.0100 0.0000
## 120 0.0016 nan 0.0100 0.0000
## 140 0.0016 nan 0.0100 0.0000
## 150 0.0015 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0027 nan 0.0100 0.0000
## 2 0.0026 nan 0.0100 0.0000
## 3 0.0026 nan 0.0100 0.0000
## 4 0.0026 nan 0.0100 0.0000
## 5 0.0026 nan 0.0100 0.0000
## 6 0.0026 nan 0.0100 0.0000
## 7 0.0026 nan 0.0100 0.0000
## 8 0.0025 nan 0.0100 0.0000
## 9 0.0025 nan 0.0100 0.0000
## 10 0.0025 nan 0.0100 0.0000
## 20 0.0024 nan 0.0100 0.0000
## 40 0.0021 nan 0.0100 0.0000
## 60 0.0020 nan 0.0100 0.0000
## 80 0.0018 nan 0.0100 0.0000
## 100 0.0018 nan 0.0100 0.0000
## 120 0.0017 nan 0.0100 0.0000
## 140 0.0016 nan 0.0100 0.0000
## 150 0.0016 nan 0.0100 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0025 nan 0.1000 0.0002
## 2 0.0024 nan 0.1000 0.0001
## 3 0.0022 nan 0.1000 0.0001
## 4 0.0021 nan 0.1000 0.0001
## 5 0.0020 nan 0.1000 0.0001
## 6 0.0020 nan 0.1000 0.0001
## 7 0.0019 nan 0.1000 0.0000
## 8 0.0019 nan 0.1000 0.0000
## 9 0.0018 nan 0.1000 0.0000
## 10 0.0018 nan 0.1000 0.0000
## 20 0.0016 nan 0.1000 -0.0000
## 40 0.0015 nan 0.1000 -0.0000
## 60 0.0014 nan 0.1000 -0.0000
## 80 0.0013 nan 0.1000 -0.0000
## 100 0.0013 nan 0.1000 -0.0000
## 120 0.0012 nan 0.1000 -0.0000
## 140 0.0012 nan 0.1000 -0.0000
## 150 0.0012 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0025 nan 0.1000 0.0002
## 2 0.0024 nan 0.1000 0.0001
## 3 0.0023 nan 0.1000 0.0001
## 4 0.0022 nan 0.1000 0.0001
## 5 0.0021 nan 0.1000 0.0001
## 6 0.0020 nan 0.1000 0.0001
## 7 0.0020 nan 0.1000 0.0001
## 8 0.0019 nan 0.1000 0.0000
## 9 0.0018 nan 0.1000 0.0001
## 10 0.0018 nan 0.1000 0.0000
## 20 0.0016 nan 0.1000 -0.0000
## 40 0.0015 nan 0.1000 -0.0000
## 60 0.0014 nan 0.1000 -0.0000
## 80 0.0014 nan 0.1000 -0.0000
## 100 0.0013 nan 0.1000 -0.0000
## 120 0.0013 nan 0.1000 -0.0000
## 140 0.0012 nan 0.1000 -0.0000
## 150 0.0012 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0025 nan 0.1000 0.0002
## 2 0.0023 nan 0.1000 0.0001
## 3 0.0022 nan 0.1000 0.0001
## 4 0.0021 nan 0.1000 0.0000
## 5 0.0020 nan 0.1000 0.0001
## 6 0.0019 nan 0.1000 0.0001
## 7 0.0019 nan 0.1000 0.0001
## 8 0.0018 nan 0.1000 0.0000
## 9 0.0018 nan 0.1000 0.0000
## 10 0.0018 nan 0.1000 0.0000
## 20 0.0016 nan 0.1000 -0.0000
## 40 0.0015 nan 0.1000 -0.0000
## 60 0.0014 nan 0.1000 -0.0000
## 80 0.0014 nan 0.1000 -0.0000
## 100 0.0014 nan 0.1000 -0.0000
## 120 0.0013 nan 0.1000 -0.0000
## 140 0.0013 nan 0.1000 -0.0000
## 150 0.0013 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0025 nan 0.1000 0.0002
## 2 0.0024 nan 0.1000 0.0001
## 3 0.0022 nan 0.1000 0.0001
## 4 0.0021 nan 0.1000 0.0001
## 5 0.0021 nan 0.1000 0.0001
## 6 0.0020 nan 0.1000 0.0001
## 7 0.0019 nan 0.1000 0.0001
## 8 0.0018 nan 0.1000 0.0000
## 9 0.0018 nan 0.1000 0.0000
## 10 0.0017 nan 0.1000 0.0000
## 20 0.0015 nan 0.1000 -0.0000
## 40 0.0014 nan 0.1000 -0.0000
## 60 0.0013 nan 0.1000 -0.0000
## 80 0.0012 nan 0.1000 -0.0000
## 100 0.0012 nan 0.1000 -0.0000
## 120 0.0011 nan 0.1000 -0.0000
## 140 0.0011 nan 0.1000 -0.0000
## 150 0.0011 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0025 nan 0.1000 0.0002
## 2 0.0023 nan 0.1000 0.0001
## 3 0.0022 nan 0.1000 0.0001
## 4 0.0021 nan 0.1000 0.0001
## 5 0.0020 nan 0.1000 0.0001
## 6 0.0019 nan 0.1000 0.0001
## 7 0.0019 nan 0.1000 0.0000
## 8 0.0018 nan 0.1000 0.0000
## 9 0.0018 nan 0.1000 0.0000
## 10 0.0017 nan 0.1000 0.0000
## 20 0.0015 nan 0.1000 0.0000
## 40 0.0014 nan 0.1000 -0.0000
## 60 0.0013 nan 0.1000 -0.0000
## 80 0.0013 nan 0.1000 -0.0000
## 100 0.0012 nan 0.1000 -0.0000
## 120 0.0012 nan 0.1000 -0.0000
## 140 0.0012 nan 0.1000 -0.0000
## 150 0.0011 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0025 nan 0.1000 0.0002
## 2 0.0023 nan 0.1000 0.0002
## 3 0.0022 nan 0.1000 0.0001
## 4 0.0021 nan 0.1000 0.0001
## 5 0.0020 nan 0.1000 0.0001
## 6 0.0019 nan 0.1000 0.0001
## 7 0.0019 nan 0.1000 0.0000
## 8 0.0018 nan 0.1000 0.0001
## 9 0.0018 nan 0.1000 0.0000
## 10 0.0017 nan 0.1000 0.0000
## 20 0.0016 nan 0.1000 -0.0000
## 40 0.0015 nan 0.1000 -0.0000
## 60 0.0014 nan 0.1000 -0.0000
## 80 0.0014 nan 0.1000 -0.0000
## 100 0.0013 nan 0.1000 -0.0000
## 120 0.0013 nan 0.1000 -0.0000
## 140 0.0013 nan 0.1000 -0.0000
## 150 0.0013 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0025 nan 0.1000 0.0002
## 2 0.0023 nan 0.1000 0.0002
## 3 0.0021 nan 0.1000 0.0001
## 4 0.0020 nan 0.1000 0.0001
## 5 0.0019 nan 0.1000 0.0001
## 6 0.0018 nan 0.1000 0.0001
## 7 0.0018 nan 0.1000 0.0000
## 8 0.0017 nan 0.1000 0.0000
## 9 0.0017 nan 0.1000 0.0000
## 10 0.0016 nan 0.1000 0.0000
## 20 0.0015 nan 0.1000 -0.0000
## 40 0.0013 nan 0.1000 -0.0000
## 60 0.0012 nan 0.1000 -0.0000
## 80 0.0012 nan 0.1000 -0.0000
## 100 0.0011 nan 0.1000 -0.0000
## 120 0.0010 nan 0.1000 -0.0000
## 140 0.0010 nan 0.1000 -0.0000
## 150 0.0010 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.1000 0.0002
## 2 0.0023 nan 0.1000 0.0001
## 3 0.0022 nan 0.1000 0.0001
## 4 0.0020 nan 0.1000 0.0001
## 5 0.0019 nan 0.1000 0.0001
## 6 0.0019 nan 0.1000 0.0000
## 7 0.0018 nan 0.1000 0.0000
## 8 0.0017 nan 0.1000 0.0000
## 9 0.0017 nan 0.1000 0.0000
## 10 0.0017 nan 0.1000 0.0000
## 20 0.0015 nan 0.1000 -0.0000
## 40 0.0014 nan 0.1000 -0.0000
## 60 0.0013 nan 0.1000 -0.0000
## 80 0.0012 nan 0.1000 -0.0000
## 100 0.0012 nan 0.1000 -0.0000
## 120 0.0012 nan 0.1000 -0.0000
## 140 0.0011 nan 0.1000 -0.0000
## 150 0.0011 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0025 nan 0.1000 0.0002
## 2 0.0023 nan 0.1000 0.0001
## 3 0.0022 nan 0.1000 0.0001
## 4 0.0021 nan 0.1000 0.0001
## 5 0.0020 nan 0.1000 0.0001
## 6 0.0020 nan 0.1000 0.0000
## 7 0.0019 nan 0.1000 0.0001
## 8 0.0018 nan 0.1000 0.0001
## 9 0.0018 nan 0.1000 0.0001
## 10 0.0017 nan 0.1000 0.0000
## 20 0.0016 nan 0.1000 -0.0000
## 40 0.0014 nan 0.1000 -0.0000
## 60 0.0014 nan 0.1000 -0.0000
## 80 0.0014 nan 0.1000 -0.0000
## 100 0.0013 nan 0.1000 -0.0000
## 120 0.0013 nan 0.1000 -0.0000
## 140 0.0013 nan 0.1000 -0.0000
## 150 0.0013 nan 0.1000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.2000 0.0004
## 2 0.0021 nan 0.2000 0.0002
## 3 0.0019 nan 0.2000 0.0001
## 4 0.0018 nan 0.2000 0.0001
## 5 0.0017 nan 0.2000 0.0001
## 6 0.0017 nan 0.2000 0.0000
## 7 0.0017 nan 0.2000 -0.0000
## 8 0.0016 nan 0.2000 0.0000
## 9 0.0016 nan 0.2000 -0.0000
## 10 0.0016 nan 0.2000 0.0000
## 20 0.0014 nan 0.2000 -0.0000
## 40 0.0013 nan 0.2000 -0.0000
## 60 0.0013 nan 0.2000 -0.0000
## 80 0.0012 nan 0.2000 -0.0000
## 100 0.0011 nan 0.2000 -0.0000
## 120 0.0011 nan 0.2000 -0.0000
## 140 0.0010 nan 0.2000 -0.0000
## 150 0.0010 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0024 nan 0.2000 0.0003
## 2 0.0022 nan 0.2000 0.0002
## 3 0.0020 nan 0.2000 0.0001
## 4 0.0018 nan 0.2000 0.0001
## 5 0.0017 nan 0.2000 0.0000
## 6 0.0017 nan 0.2000 0.0001
## 7 0.0016 nan 0.2000 0.0000
## 8 0.0016 nan 0.2000 0.0000
## 9 0.0016 nan 0.2000 -0.0000
## 10 0.0016 nan 0.2000 -0.0000
## 20 0.0015 nan 0.2000 -0.0000
## 40 0.0014 nan 0.2000 -0.0000
## 60 0.0013 nan 0.2000 -0.0000
## 80 0.0012 nan 0.2000 -0.0000
## 100 0.0012 nan 0.2000 -0.0000
## 120 0.0012 nan 0.2000 -0.0000
## 140 0.0011 nan 0.2000 -0.0000
## 150 0.0011 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.2000 0.0003
## 2 0.0021 nan 0.2000 0.0002
## 3 0.0020 nan 0.2000 0.0002
## 4 0.0019 nan 0.2000 0.0001
## 5 0.0018 nan 0.2000 0.0001
## 6 0.0017 nan 0.2000 0.0000
## 7 0.0017 nan 0.2000 0.0000
## 8 0.0017 nan 0.2000 0.0000
## 9 0.0016 nan 0.2000 0.0000
## 10 0.0016 nan 0.2000 -0.0000
## 20 0.0015 nan 0.2000 -0.0000
## 40 0.0014 nan 0.2000 -0.0000
## 60 0.0014 nan 0.2000 -0.0000
## 80 0.0013 nan 0.2000 -0.0000
## 100 0.0013 nan 0.2000 -0.0000
## 120 0.0013 nan 0.2000 -0.0000
## 140 0.0012 nan 0.2000 -0.0000
## 150 0.0012 nan 0.2000 -0.0001
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.2000 0.0003
## 2 0.0021 nan 0.2000 0.0002
## 3 0.0019 nan 0.2000 0.0002
## 4 0.0018 nan 0.2000 0.0001
## 5 0.0017 nan 0.2000 0.0001
## 6 0.0017 nan 0.2000 0.0000
## 7 0.0016 nan 0.2000 -0.0001
## 8 0.0016 nan 0.2000 0.0000
## 9 0.0015 nan 0.2000 0.0000
## 10 0.0015 nan 0.2000 -0.0000
## 20 0.0014 nan 0.2000 -0.0000
## 40 0.0013 nan 0.2000 -0.0001
## 60 0.0011 nan 0.2000 -0.0000
## 80 0.0011 nan 0.2000 -0.0000
## 100 0.0010 nan 0.2000 -0.0000
## 120 0.0010 nan 0.2000 -0.0000
## 140 0.0009 nan 0.2000 -0.0000
## 150 0.0009 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.2000 0.0003
## 2 0.0021 nan 0.2000 0.0001
## 3 0.0018 nan 0.2000 0.0002
## 4 0.0017 nan 0.2000 0.0000
## 5 0.0017 nan 0.2000 0.0000
## 6 0.0016 nan 0.2000 0.0000
## 7 0.0016 nan 0.2000 -0.0000
## 8 0.0015 nan 0.2000 0.0000
## 9 0.0015 nan 0.2000 -0.0000
## 10 0.0015 nan 0.2000 -0.0000
## 20 0.0014 nan 0.2000 -0.0000
## 40 0.0013 nan 0.2000 -0.0000
## 60 0.0012 nan 0.2000 -0.0000
## 80 0.0011 nan 0.2000 -0.0000
## 100 0.0011 nan 0.2000 -0.0000
## 120 0.0010 nan 0.2000 -0.0000
## 140 0.0010 nan 0.2000 -0.0000
## 150 0.0010 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.2000 0.0004
## 2 0.0021 nan 0.2000 0.0003
## 3 0.0019 nan 0.2000 0.0001
## 4 0.0018 nan 0.2000 0.0001
## 5 0.0018 nan 0.2000 0.0000
## 6 0.0017 nan 0.2000 0.0001
## 7 0.0016 nan 0.2000 -0.0000
## 8 0.0016 nan 0.2000 0.0000
## 9 0.0016 nan 0.2000 -0.0000
## 10 0.0016 nan 0.2000 -0.0000
## 20 0.0015 nan 0.2000 -0.0000
## 40 0.0014 nan 0.2000 -0.0000
## 60 0.0013 nan 0.2000 -0.0000
## 80 0.0013 nan 0.2000 -0.0000
## 100 0.0013 nan 0.2000 -0.0000
## 120 0.0012 nan 0.2000 -0.0000
## 140 0.0012 nan 0.2000 -0.0000
## 150 0.0012 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.2000 0.0004
## 2 0.0020 nan 0.2000 0.0002
## 3 0.0019 nan 0.2000 0.0001
## 4 0.0018 nan 0.2000 0.0001
## 5 0.0017 nan 0.2000 0.0000
## 6 0.0016 nan 0.2000 0.0001
## 7 0.0016 nan 0.2000 -0.0000
## 8 0.0016 nan 0.2000 -0.0000
## 9 0.0015 nan 0.2000 -0.0000
## 10 0.0015 nan 0.2000 -0.0000
## 20 0.0013 nan 0.2000 -0.0000
## 40 0.0012 nan 0.2000 -0.0000
## 60 0.0011 nan 0.2000 -0.0000
## 80 0.0010 nan 0.2000 -0.0000
## 100 0.0010 nan 0.2000 -0.0000
## 120 0.0009 nan 0.2000 -0.0000
## 140 0.0009 nan 0.2000 -0.0000
## 150 0.0008 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.2000 0.0004
## 2 0.0020 nan 0.2000 0.0002
## 3 0.0018 nan 0.2000 0.0001
## 4 0.0017 nan 0.2000 0.0001
## 5 0.0017 nan 0.2000 0.0000
## 6 0.0016 nan 0.2000 0.0000
## 7 0.0016 nan 0.2000 0.0000
## 8 0.0015 nan 0.2000 0.0000
## 9 0.0015 nan 0.2000 -0.0000
## 10 0.0015 nan 0.2000 -0.0000
## 20 0.0014 nan 0.2000 -0.0000
## 40 0.0012 nan 0.2000 -0.0000
## 60 0.0011 nan 0.2000 -0.0000
## 80 0.0011 nan 0.2000 -0.0000
## 100 0.0010 nan 0.2000 -0.0000
## 120 0.0010 nan 0.2000 -0.0000
## 140 0.0009 nan 0.2000 -0.0000
## 150 0.0009 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.2000 0.0003
## 2 0.0021 nan 0.2000 0.0002
## 3 0.0019 nan 0.2000 0.0002
## 4 0.0019 nan 0.2000 0.0001
## 5 0.0017 nan 0.2000 0.0000
## 6 0.0017 nan 0.2000 0.0000
## 7 0.0017 nan 0.2000 0.0000
## 8 0.0016 nan 0.2000 0.0000
## 9 0.0016 nan 0.2000 0.0000
## 10 0.0015 nan 0.2000 -0.0000
## 20 0.0015 nan 0.2000 -0.0000
## 40 0.0014 nan 0.2000 -0.0000
## 60 0.0013 nan 0.2000 -0.0000
## 80 0.0013 nan 0.2000 -0.0000
## 100 0.0012 nan 0.2000 -0.0000
## 120 0.0012 nan 0.2000 -0.0000
## 140 0.0012 nan 0.2000 -0.0000
## 150 0.0011 nan 0.2000 -0.0000
##
## Iter TrainDeviance ValidDeviance StepSize Improve
## 1 0.0023 nan 0.1000 0.0002
## 2 0.0022 nan 0.1000 0.0001
## 3 0.0021 nan 0.1000 0.0001
## 4 0.0020 nan 0.1000 0.0001
## 5 0.0019 nan 0.1000 0.0001
## 6 0.0019 nan 0.1000 0.0001
## 7 0.0018 nan 0.1000 0.0001
## 8 0.0017 nan 0.1000 0.0001
## 9 0.0017 nan 0.1000 0.0000
## 10 0.0017 nan 0.1000 0.0000
## 20 0.0015 nan 0.1000 -0.0000
## 40 0.0014 nan 0.1000 -0.0000
## 60 0.0013 nan 0.1000 -0.0000
# Tampilkan hasil evaluasi untuk Gradient Boosting
print("Evaluasi Model Gradient Boosting:")
## [1] "Evaluasi Model Gradient Boosting:"
print(result_gbm$results)
## shrinkage interaction.depth n.minobsinnode n.trees RMSE Rsquared
## 1 0.01 3 5 50 0.04408953 0.3460155
## 12 0.01 3 10 50 0.04405234 0.3531072
## 23 0.01 3 20 50 0.04401938 0.3501382
## 100 0.10 3 5 50 0.04026525 0.3552917
## 111 0.10 3 10 50 0.03976312 0.3685204
## 122 0.10 3 20 50 0.03915516 0.3886862
## 199 0.20 3 5 50 0.04057785 0.3532345
## 210 0.20 3 10 50 0.04106677 0.3381253
## 221 0.20 3 20 50 0.03969788 0.3759487
## 34 0.01 4 5 50 0.04360556 0.3698257
## 45 0.01 4 10 50 0.04348288 0.3798695
## 56 0.01 4 20 50 0.04380526 0.3631043
## 133 0.10 4 5 50 0.04012266 0.3615673
## 144 0.10 4 10 50 0.03966024 0.3755548
## 155 0.10 4 20 50 0.03942013 0.3833595
## 232 0.20 4 5 50 0.04175680 0.3297890
## 243 0.20 4 10 50 0.04068436 0.3563009
## 254 0.20 4 20 50 0.04029132 0.3629651
## 67 0.01 5 5 50 0.04339819 0.3767987
## 78 0.01 5 10 50 0.04329840 0.3817269
## 89 0.01 5 20 50 0.04379277 0.3592265
## 166 0.10 5 5 50 0.04101430 0.3415844
## 177 0.10 5 10 50 0.04015929 0.3636001
## 188 0.10 5 20 50 0.03928673 0.3854903
## 265 0.20 5 5 50 0.04223968 0.3213552
## 276 0.20 5 10 50 0.04185826 0.3291249
## 287 0.20 5 20 50 0.04003544 0.3700872
## 2 0.01 3 5 60 0.04340335 0.3485302
## 13 0.01 3 10 60 0.04337538 0.3543132
## 24 0.01 3 20 60 0.04331617 0.3542635
## 101 0.10 3 5 60 0.04072778 0.3433345
## 112 0.10 3 10 60 0.04018866 0.3578347
## 123 0.10 3 20 60 0.03912572 0.3908092
## 200 0.20 3 5 60 0.04115919 0.3381005
## 211 0.20 3 10 60 0.04077899 0.3451820
## 222 0.20 3 20 60 0.03955499 0.3822204
## 35 0.01 4 5 60 0.04283519 0.3745909
## 46 0.01 4 10 60 0.04273394 0.3812968
## 57 0.01 4 20 60 0.04304452 0.3689520
## 134 0.10 4 5 60 0.04043525 0.3551056
## 145 0.10 4 10 60 0.03965857 0.3759831
## 156 0.10 4 20 60 0.03917609 0.3901879
## 233 0.20 4 5 60 0.04203771 0.3258745
## 244 0.20 4 10 60 0.04127414 0.3429294
## 255 0.20 4 20 60 0.04056110 0.3599464
## 68 0.01 5 5 60 0.04261318 0.3786277
## 79 0.01 5 10 60 0.04249794 0.3859121
## 90 0.01 5 20 60 0.04306013 0.3630292
## 167 0.10 5 5 60 0.04105388 0.3451217
## 178 0.10 5 10 60 0.04041184 0.3605387
## 189 0.10 5 20 60 0.03922564 0.3873453
## 266 0.20 5 5 60 0.04305170 0.3103475
## 277 0.20 5 10 60 0.04228763 0.3169794
## 288 0.20 5 20 60 0.04002554 0.3680875
## 3 0.01 3 5 70 0.04282844 0.3508292
## 14 0.01 3 10 70 0.04276825 0.3570027
## 25 0.01 3 20 70 0.04272962 0.3567098
## 102 0.10 3 5 70 0.04090777 0.3426066
## 113 0.10 3 10 70 0.03992769 0.3659609
## 124 0.10 3 20 70 0.03925393 0.3862183
## 201 0.20 3 5 70 0.04124318 0.3391551
## 212 0.20 3 10 70 0.04109513 0.3395552
## 223 0.20 3 20 70 0.03973793 0.3777197
## 36 0.01 4 5 70 0.04222803 0.3747569
## 47 0.01 4 10 70 0.04209279 0.3837767
## 58 0.01 4 20 70 0.04239566 0.3723871
## 135 0.10 4 5 70 0.04073878 0.3493029
## 146 0.10 4 10 70 0.04002844 0.3682721
## 157 0.10 4 20 70 0.03942586 0.3835330
## 234 0.20 4 5 70 0.04242249 0.3161816
## 245 0.20 4 10 70 0.04175119 0.3307799
## 256 0.20 4 20 70 0.04059072 0.3545203
## 69 0.01 5 5 70 0.04202484 0.3774555
## 80 0.01 5 10 70 0.04185014 0.3862671
## 91 0.01 5 20 70 0.04243017 0.3669474
## 168 0.10 5 5 70 0.04099172 0.3491143
## 179 0.10 5 10 70 0.04045118 0.3603022
## 190 0.10 5 20 70 0.03945279 0.3823967
## 267 0.20 5 5 70 0.04342147 0.3003390
## 278 0.20 5 10 70 0.04243256 0.3191180
## 289 0.20 5 20 70 0.04038878 0.3590905
## 4 0.01 3 5 80 0.04235136 0.3516508
## 15 0.01 3 10 80 0.04226994 0.3594163
## 26 0.01 3 20 80 0.04223052 0.3593136
## 103 0.10 3 5 80 0.04110345 0.3372845
## 114 0.10 3 10 80 0.03987064 0.3690868
## 125 0.10 3 20 80 0.03922787 0.3872036
## 202 0.20 3 5 80 0.04167289 0.3300705
## 213 0.20 3 10 80 0.04158335 0.3314312
## 224 0.20 3 20 80 0.04020504 0.3674743
## 37 0.01 4 5 80 0.04172674 0.3744045
## 48 0.01 4 10 80 0.04159144 0.3831488
## 59 0.01 4 20 80 0.04184123 0.3747208
## 136 0.10 4 5 80 0.04097712 0.3461024
## 147 0.10 4 10 80 0.04024814 0.3620599
## 158 0.10 4 20 80 0.03949199 0.3809882
## 235 0.20 4 5 80 0.04306259 0.3056013
## 246 0.20 4 10 80 0.04184386 0.3327425
## 257 0.20 4 20 80 0.04080419 0.3525358
## 70 0.01 5 5 80 0.04147247 0.3802819
## 81 0.01 5 10 80 0.04134228 0.3855641
## 92 0.01 5 20 80 0.04189591 0.3710259
## 169 0.10 5 5 80 0.04129778 0.3416587
## 180 0.10 5 10 80 0.04047273 0.3586069
## 191 0.10 5 20 80 0.03951419 0.3818319
## 268 0.20 5 5 80 0.04353697 0.3017690
## 279 0.20 5 10 80 0.04269135 0.3151621
## 290 0.20 5 20 80 0.04093090 0.3452640
## 5 0.01 3 5 90 0.04195587 0.3529889
## 16 0.01 3 10 90 0.04182126 0.3615045
## 27 0.01 3 20 90 0.04175598 0.3637114
## 104 0.10 3 5 90 0.04114291 0.3357208
## 115 0.10 3 10 90 0.04015001 0.3625080
## 126 0.10 3 20 90 0.03930458 0.3875899
## 203 0.20 3 5 90 0.04237692 0.3185955
## 214 0.20 3 10 90 0.04166725 0.3289312
## 225 0.20 3 20 90 0.04076072 0.3566966
## 38 0.01 4 5 90 0.04126998 0.3773148
## 49 0.01 4 10 90 0.04114127 0.3844701
## 60 0.01 4 20 90 0.04140157 0.3763335
## 137 0.10 4 5 90 0.04137302 0.3358605
## 148 0.10 4 10 90 0.04063281 0.3539972
## 159 0.10 4 20 90 0.03927267 0.3868334
## 236 0.20 4 5 90 0.04343045 0.3018924
## 247 0.20 4 10 90 0.04192830 0.3294141
## 258 0.20 4 20 90 0.04101573 0.3478090
## 71 0.01 5 5 90 0.04107056 0.3802690
## 82 0.01 5 10 90 0.04091181 0.3858792
## 93 0.01 5 20 90 0.04142302 0.3744048
## 170 0.10 5 5 90 0.04179793 0.3341364
## 181 0.10 5 10 90 0.04071065 0.3527903
## 192 0.10 5 20 90 0.03962988 0.3798553
## 269 0.20 5 5 90 0.04400049 0.2947959
## 280 0.20 5 10 90 0.04323852 0.3011095
## 291 0.20 5 20 90 0.04079945 0.3472076
## 6 0.01 3 5 100 0.04161061 0.3541868
## 17 0.01 3 10 100 0.04146770 0.3619547
## 28 0.01 3 20 100 0.04138448 0.3658253
## 105 0.10 3 5 100 0.04132801 0.3320952
## 116 0.10 3 10 100 0.04048515 0.3554189
## 127 0.10 3 20 100 0.03936043 0.3858411
## 204 0.20 3 5 100 0.04278184 0.3054295
## 215 0.20 3 10 100 0.04201630 0.3229922
## 226 0.20 3 20 100 0.04078427 0.3521815
## 39 0.01 4 5 100 0.04088156 0.3782271
## 50 0.01 4 10 100 0.04078568 0.3849951
## 61 0.01 4 20 100 0.04104295 0.3769792
## 138 0.10 4 5 100 0.04160479 0.3309136
## 149 0.10 4 10 100 0.04088794 0.3496041
## 160 0.10 4 20 100 0.03947818 0.3838858
## 237 0.20 4 5 100 0.04370985 0.2952138
## 248 0.20 4 10 100 0.04200935 0.3293836
## 259 0.20 4 20 100 0.04111955 0.3437123
## 72 0.01 5 5 100 0.04070438 0.3819021
## 83 0.01 5 10 100 0.04051143 0.3877034
## 94 0.01 5 20 100 0.04102623 0.3767444
## 171 0.10 5 5 100 0.04224666 0.3264044
## 182 0.10 5 10 100 0.04111865 0.3422488
## 193 0.10 5 20 100 0.03987856 0.3735079
## 270 0.20 5 5 100 0.04478086 0.2801179
## 281 0.20 5 10 100 0.04319802 0.3015797
## 292 0.20 5 20 100 0.04115679 0.3407440
## 7 0.01 3 5 110 0.04128155 0.3569845
## 18 0.01 3 10 110 0.04113011 0.3637511
## 29 0.01 3 20 110 0.04102796 0.3693519
## 106 0.10 3 5 110 0.04163943 0.3254876
## 117 0.10 3 10 110 0.04059829 0.3525175
## 128 0.10 3 20 110 0.03965932 0.3775706
## 205 0.20 3 5 110 0.04257729 0.3141773
## 216 0.20 3 10 110 0.04220398 0.3208050
## 227 0.20 3 20 110 0.04082810 0.3551074
## 40 0.01 4 5 110 0.04056252 0.3806316
## 51 0.01 4 10 110 0.04049166 0.3847290
## 62 0.01 4 20 110 0.04074106 0.3774786
## 139 0.10 4 5 110 0.04145431 0.3365776
## 150 0.10 4 10 110 0.04109957 0.3429990
## 161 0.10 4 20 110 0.03955611 0.3837656
## 238 0.20 4 5 110 0.04420704 0.2961874
## 249 0.20 4 10 110 0.04282786 0.3127404
## 260 0.20 4 20 110 0.04122976 0.3419603
## 73 0.01 5 5 110 0.04041055 0.3823148
## 84 0.01 5 10 110 0.04019405 0.3895421
## 95 0.01 5 20 110 0.04073688 0.3769201
## 172 0.10 5 5 110 0.04207093 0.3314766
## 183 0.10 5 10 110 0.04109003 0.3456912
## 194 0.10 5 20 110 0.03964124 0.3784496
## 271 0.20 5 5 110 0.04498171 0.2802428
## 282 0.20 5 10 110 0.04362915 0.2921565
## 293 0.20 5 20 110 0.04094348 0.3455688
## 8 0.01 3 5 120 0.04103640 0.3575189
## 19 0.01 3 10 120 0.04088280 0.3645297
## 30 0.01 3 20 120 0.04075832 0.3704823
## 107 0.10 3 5 120 0.04176037 0.3244390
## 118 0.10 3 10 120 0.04092226 0.3462722
## 129 0.10 3 20 120 0.03978939 0.3743337
## 206 0.20 3 5 120 0.04311437 0.3053495
## 217 0.20 3 10 120 0.04264375 0.3126431
## 228 0.20 3 20 120 0.04095463 0.3521990
## 41 0.01 4 5 120 0.04036765 0.3789140
## 52 0.01 4 10 120 0.04022488 0.3854184
## 63 0.01 4 20 120 0.04043984 0.3807115
## 140 0.10 4 5 120 0.04175830 0.3305288
## 151 0.10 4 10 120 0.04138105 0.3373290
## 162 0.10 4 20 120 0.03982335 0.3774603
## 239 0.20 4 5 120 0.04437243 0.2863573
## 250 0.20 4 10 120 0.04294081 0.3117676
## 261 0.20 4 20 120 0.04149268 0.3377272
## 74 0.01 5 5 120 0.04018446 0.3811067
## 85 0.01 5 10 120 0.03996756 0.3886206
## 96 0.01 5 20 120 0.04044158 0.3790570
## 173 0.10 5 5 120 0.04249386 0.3234133
## 184 0.10 5 10 120 0.04140301 0.3411329
## 195 0.10 5 20 120 0.03964088 0.3797420
## 272 0.20 5 5 120 0.04526416 0.2691924
## 283 0.20 5 10 120 0.04385545 0.2902540
## 294 0.20 5 20 120 0.04127575 0.3407868
## 9 0.01 3 5 130 0.04076509 0.3605454
## 20 0.01 3 10 130 0.04066394 0.3655340
## 31 0.01 3 20 130 0.04052363 0.3719454
## 108 0.10 3 5 130 0.04176536 0.3253844
## 119 0.10 3 10 130 0.04093313 0.3472092
## 130 0.10 3 20 130 0.03999744 0.3684597
## 207 0.20 3 5 130 0.04310833 0.3038742
## 218 0.20 3 10 130 0.04277246 0.3082299
## 229 0.20 3 20 130 0.04085952 0.3553442
## 42 0.01 4 5 130 0.04021481 0.3771042
## 53 0.01 4 10 130 0.04004775 0.3844766
## 64 0.01 4 20 130 0.04019423 0.3825021
## 141 0.10 4 5 130 0.04219340 0.3233724
## 152 0.10 4 10 130 0.04148562 0.3365895
## 163 0.10 4 20 130 0.03996627 0.3745320
## 240 0.20 4 5 130 0.04460784 0.2840074
## 251 0.20 4 10 130 0.04277909 0.3206149
## 262 0.20 4 20 130 0.04130754 0.3429632
## 75 0.01 5 5 130 0.04000103 0.3805863
## 86 0.01 5 10 130 0.03976999 0.3891958
## 97 0.01 5 20 130 0.04014260 0.3833580
## 174 0.10 5 5 130 0.04248794 0.3218502
## 185 0.10 5 10 130 0.04125569 0.3427841
## 196 0.10 5 20 130 0.03983562 0.3749671
## 273 0.20 5 5 130 0.04546151 0.2679110
## 284 0.20 5 10 130 0.04395328 0.2889169
## 295 0.20 5 20 130 0.04163118 0.3371649
## 10 0.01 3 5 140 0.04058152 0.3616187
## 21 0.01 3 10 140 0.04047602 0.3669927
## 32 0.01 3 20 140 0.04029519 0.3748181
## 109 0.10 3 5 140 0.04195449 0.3216424
## 120 0.10 3 10 140 0.04112702 0.3416623
## 131 0.10 3 20 140 0.03976909 0.3741261
## 208 0.20 3 5 140 0.04388958 0.2912667
## 219 0.20 3 10 140 0.04302747 0.3057742
## 230 0.20 3 20 140 0.04115154 0.3478438
## 43 0.01 4 5 140 0.04002585 0.3789956
## 54 0.01 4 10 140 0.03987660 0.3839479
## 65 0.01 4 20 140 0.03999548 0.3840832
## 142 0.10 4 5 140 0.04246233 0.3179325
## 153 0.10 4 10 140 0.04168835 0.3329154
## 164 0.10 4 20 140 0.04001420 0.3723271
## 241 0.20 4 5 140 0.04448999 0.2872466
## 252 0.20 4 10 140 0.04297354 0.3158213
## 263 0.20 4 20 140 0.04143045 0.3432537
## 76 0.01 5 5 140 0.03985083 0.3808406
## 87 0.01 5 10 140 0.03960814 0.3892728
## 98 0.01 5 20 140 0.03992477 0.3856023
## 175 0.10 5 5 140 0.04282151 0.3160427
## 186 0.10 5 10 140 0.04152966 0.3381984
## 197 0.10 5 20 140 0.03994603 0.3708773
## 274 0.20 5 5 140 0.04614700 0.2620484
## 285 0.20 5 10 140 0.04442358 0.2830652
## 296 0.20 5 20 140 0.04134372 0.3372828
## 11 0.01 3 5 150 0.04044736 0.3621940
## 22 0.01 3 10 150 0.04031043 0.3689065
## 33 0.01 3 20 150 0.04012801 0.3762127
## 110 0.10 3 5 150 0.04215690 0.3175513
## 121 0.10 3 10 150 0.04127466 0.3379014
## 132 0.10 3 20 150 0.03988041 0.3708651
## 209 0.20 3 5 150 0.04391427 0.2937395
## 220 0.20 3 10 150 0.04282003 0.3122272
## 231 0.20 3 20 150 0.04141601 0.3426405
## 44 0.01 4 5 150 0.03986590 0.3801678
## 55 0.01 4 10 150 0.03978330 0.3825329
## 66 0.01 4 20 150 0.03980057 0.3858323
## 143 0.10 4 5 150 0.04265007 0.3147345
## 154 0.10 4 10 150 0.04173651 0.3321491
## 165 0.10 4 20 150 0.04013457 0.3672820
## 242 0.20 4 5 150 0.04529141 0.2712076
## 253 0.20 4 10 150 0.04310491 0.3086307
## 264 0.20 4 20 150 0.04132500 0.3442649
## 77 0.01 5 5 150 0.03973720 0.3806398
## 88 0.01 5 10 150 0.03948071 0.3889903
## 99 0.01 5 20 150 0.03976035 0.3869284
## 176 0.10 5 5 150 0.04284539 0.3142254
## 187 0.10 5 10 150 0.04156433 0.3370964
## 198 0.10 5 20 150 0.04019616 0.3651891
## 275 0.20 5 5 150 0.04633222 0.2663773
## 286 0.20 5 10 150 0.04459560 0.2807462
## 297 0.20 5 20 150 0.04168749 0.3315074
## MAE RMSESD RsquaredSD MAESD
## 1 0.03389599 0.005839060 0.08264168 0.003938736
## 12 0.03380646 0.005895096 0.07651916 0.003872957
## 23 0.03376723 0.005776331 0.07532152 0.003807719
## 100 0.03006300 0.005869473 0.07850420 0.004052741
## 111 0.02974312 0.005600285 0.06540265 0.004033421
## 122 0.02947342 0.005363950 0.05991140 0.003658389
## 199 0.03032024 0.005768366 0.06396147 0.003886630
## 210 0.03022594 0.005764912 0.07033445 0.003787882
## 221 0.02967890 0.005832055 0.07047268 0.004181689
## 34 0.03345723 0.005873530 0.08172211 0.003958598
## 45 0.03332558 0.005831987 0.08072539 0.003886045
## 56 0.03355252 0.005757084 0.06787657 0.003701402
## 133 0.02987627 0.006021310 0.07951018 0.003907561
## 144 0.02956357 0.005807604 0.07453463 0.003892161
## 155 0.02961939 0.005443990 0.06465710 0.003879005
## 232 0.03063495 0.004952290 0.06562944 0.003265149
## 243 0.03028782 0.006441795 0.08698571 0.004183445
## 254 0.02977123 0.005820309 0.07434889 0.003756603
## 67 0.03323939 0.005957017 0.08641463 0.004019585
## 78 0.03322099 0.005852991 0.07200590 0.003861262
## 89 0.03348813 0.005827753 0.07475894 0.003684012
## 166 0.03044046 0.006100277 0.07546590 0.003994123
## 177 0.03003266 0.006652968 0.08509936 0.004573342
## 188 0.02968707 0.005422916 0.04759325 0.003404119
## 265 0.03108456 0.005874176 0.06709228 0.003563307
## 276 0.03093653 0.005949497 0.07138576 0.004201562
## 287 0.02996846 0.005386094 0.06232203 0.003663447
## 2 0.03330910 0.005825837 0.08218480 0.003918265
## 13 0.03323335 0.005918692 0.07999873 0.003913051
## 24 0.03315295 0.005811694 0.07497016 0.003817843
## 101 0.03033853 0.005755088 0.07220520 0.003957471
## 112 0.02997163 0.005843648 0.06993757 0.004205475
## 123 0.02950864 0.005450959 0.05925998 0.003771575
## 200 0.03043851 0.005705974 0.06364031 0.003732713
## 211 0.03012915 0.006011174 0.07351796 0.003781372
## 222 0.02955425 0.005501205 0.05833606 0.003619023
## 35 0.03278462 0.005943840 0.08078217 0.004004001
## 46 0.03267880 0.005883881 0.08113506 0.003937471
## 57 0.03288436 0.005769272 0.06546585 0.003680790
## 134 0.02989319 0.006203620 0.08025643 0.004168578
## 145 0.02966759 0.005753001 0.06934180 0.003863943
## 156 0.02944902 0.005481800 0.05923176 0.003865801
## 233 0.03077364 0.004712824 0.05430500 0.003051677
## 244 0.03036605 0.006105903 0.07976301 0.004013189
## 255 0.03031149 0.005548065 0.06785835 0.003646166
## 68 0.03259007 0.005953918 0.08389002 0.004056098
## 79 0.03251493 0.005891590 0.06816152 0.003877613
## 90 0.03283139 0.005842996 0.07274559 0.003734743
## 167 0.03047966 0.006019649 0.08251408 0.003930629
## 178 0.03001104 0.006507275 0.08383176 0.004479746
## 189 0.02949588 0.005440480 0.04925080 0.003494396
## 266 0.03177646 0.005372727 0.06961524 0.003465118
## 277 0.03141626 0.005972607 0.07428573 0.003904711
## 288 0.02989231 0.005436140 0.06420392 0.003527041
## 3 0.03278838 0.005796057 0.08143744 0.003877497
## 14 0.03269358 0.005919550 0.07985640 0.003966009
## 25 0.03262349 0.005803101 0.07446061 0.003812254
## 102 0.03054402 0.005794723 0.07339146 0.004016123
## 113 0.02967556 0.005857128 0.06248517 0.004185323
## 124 0.02955213 0.005579673 0.06186161 0.003928350
## 201 0.03055565 0.005455119 0.05424109 0.003624588
## 212 0.03033139 0.006082357 0.07031044 0.003994773
## 223 0.02982924 0.005674138 0.06668919 0.003768617
## 36 0.03225496 0.005989365 0.08344280 0.004064676
## 47 0.03210349 0.005910243 0.08293776 0.003974472
## 58 0.03229163 0.005800174 0.06675283 0.003707458
## 135 0.03020572 0.006100707 0.07290411 0.003944388
## 146 0.02981004 0.005715792 0.07156927 0.003938643
## 157 0.02955553 0.005361029 0.06006902 0.003852223
## 234 0.03127280 0.005057076 0.05177034 0.003409808
## 245 0.03075226 0.005900916 0.07781349 0.003823120
## 256 0.03014844 0.005825979 0.07525431 0.003574908
## 69 0.03206519 0.005946980 0.08179058 0.004057919
## 80 0.03191899 0.005936152 0.06846882 0.003919854
## 91 0.03223626 0.005820635 0.07439386 0.003728573
## 168 0.03038860 0.005834436 0.07672404 0.004007478
## 179 0.02992809 0.006069835 0.06906303 0.004199727
## 190 0.02965434 0.005486436 0.05459591 0.003527463
## 267 0.03191810 0.005875921 0.06788285 0.003595918
## 278 0.03144044 0.006302206 0.08660844 0.004367833
## 289 0.03036084 0.005481355 0.06069271 0.003646244
## 4 0.03234634 0.005871144 0.08023412 0.003939096
## 15 0.03223576 0.005929367 0.07957335 0.003971647
## 26 0.03217295 0.005834304 0.07496824 0.003838099
## 103 0.03065185 0.005363349 0.06667152 0.003573172
## 114 0.02957856 0.005986139 0.06956610 0.004206530
## 125 0.02940900 0.005634464 0.06169567 0.003896125
## 202 0.03092027 0.005880013 0.05917470 0.003760928
## 213 0.03048607 0.005804206 0.06590796 0.003982432
## 224 0.03001383 0.005697363 0.06991500 0.003754291
## 37 0.03180525 0.005987934 0.08299829 0.004060944
## 48 0.03162576 0.005941032 0.08239255 0.004018757
## 59 0.03177147 0.005816965 0.06593575 0.003726814
## 136 0.03033409 0.006247914 0.07938509 0.004053207
## 147 0.03000883 0.005791364 0.06774199 0.004097190
## 158 0.02960445 0.005353260 0.05411440 0.003834761
## 235 0.03165168 0.005162631 0.05608722 0.003313592
## 246 0.03073617 0.005573003 0.07570693 0.003736268
## 257 0.03023054 0.005701521 0.07416331 0.003715195
## 70 0.03157021 0.006016067 0.08104847 0.004132430
## 81 0.03142642 0.005932274 0.06838243 0.003936438
## 92 0.03171744 0.005802963 0.07069238 0.003710813
## 169 0.03060226 0.006283541 0.08375036 0.004207650
## 180 0.02994710 0.006000207 0.06590666 0.004132045
## 191 0.02964609 0.005517533 0.05725143 0.003440665
## 268 0.03195534 0.006095752 0.07299308 0.003555561
## 279 0.03162643 0.006358351 0.08202355 0.004206768
## 290 0.03059651 0.005281648 0.05860925 0.003609808
## 5 0.03198593 0.005895085 0.08182350 0.003945686
## 16 0.03183024 0.005979726 0.08165184 0.003972926
## 27 0.03171931 0.005815802 0.07341563 0.003821152
## 104 0.03054529 0.005571356 0.07092658 0.003684797
## 115 0.02970330 0.005837513 0.06564763 0.004235593
## 126 0.02951801 0.005538481 0.06277695 0.003819852
## 203 0.03126393 0.006127521 0.07150171 0.003733239
## 214 0.03049134 0.005866266 0.07292986 0.004231150
## 225 0.03030310 0.005268157 0.06737021 0.003554176
## 38 0.03139112 0.005971689 0.08087247 0.004054498
## 49 0.03122860 0.005937359 0.07892604 0.004007120
## 60 0.03135448 0.005849390 0.06604463 0.003723146
## 137 0.03046011 0.006310834 0.08422800 0.004160350
## 148 0.03039144 0.005958456 0.07306312 0.004082342
## 159 0.02957260 0.005292378 0.05110436 0.003648748
## 236 0.03200744 0.005383225 0.05502598 0.003417033
## 247 0.03084283 0.005545767 0.07409785 0.003629398
## 258 0.03027155 0.006068266 0.08067598 0.004005779
## 71 0.03120506 0.006070448 0.08271096 0.004156078
## 82 0.03101141 0.005955194 0.07136742 0.003960538
## 93 0.03128079 0.005814803 0.07048300 0.003725723
## 170 0.03087937 0.005886196 0.07580314 0.003892296
## 181 0.03023731 0.005998244 0.06782793 0.004217223
## 192 0.02972080 0.005537169 0.06001371 0.003459220
## 269 0.03228841 0.006389580 0.08020354 0.004191372
## 280 0.03196510 0.006381972 0.07967390 0.004374519
## 291 0.03059501 0.005512055 0.05891029 0.003793161
## 6 0.03169870 0.005977288 0.08454322 0.003981789
## 17 0.03151828 0.005983056 0.08227271 0.003946457
## 28 0.03139384 0.005859089 0.07263821 0.003855254
## 105 0.03068729 0.005508245 0.06544134 0.003732054
## 116 0.03003943 0.005840745 0.06494042 0.004310669
## 127 0.02953270 0.005576849 0.06684390 0.003948160
## 204 0.03139479 0.005610247 0.06270589 0.003381199
## 215 0.03095653 0.005776863 0.07004202 0.003984833
## 226 0.03032648 0.005424863 0.06059348 0.003608485
## 39 0.03106248 0.005929002 0.07844934 0.004017697
## 50 0.03090246 0.005970390 0.07921741 0.004027090
## 61 0.03105222 0.005880078 0.06927968 0.003724032
## 138 0.03055171 0.006149817 0.07990324 0.004005260
## 149 0.03042147 0.005712550 0.07791927 0.003804953
## 160 0.02962133 0.005284752 0.05272173 0.003738963
## 237 0.03232285 0.004875673 0.04869481 0.003175141
## 248 0.03103034 0.005429326 0.07183071 0.003468990
## 259 0.03052807 0.005697410 0.07024921 0.003418984
## 72 0.03084126 0.006062273 0.07907198 0.004109799
## 83 0.03065871 0.005980650 0.07204146 0.003976491
## 94 0.03096204 0.005826091 0.06948370 0.003711787
## 171 0.03113258 0.005641668 0.07544405 0.003684562
## 182 0.03059113 0.006025273 0.06913540 0.004077243
## 193 0.02990152 0.005338952 0.05230318 0.003370201
## 270 0.03266464 0.006048294 0.08145265 0.003871674
## 281 0.03192136 0.006507258 0.08366012 0.004344097
## 292 0.03078646 0.005255064 0.05488077 0.003543698
## 7 0.03141016 0.006018305 0.08525518 0.003979737
## 18 0.03124335 0.006003071 0.08109644 0.003927012
## 29 0.03107494 0.005874565 0.07304649 0.003846342
## 106 0.03097273 0.005500400 0.06804267 0.003721071
## 117 0.03009590 0.005881036 0.06607666 0.004163533
## 128 0.02973825 0.005161721 0.05761161 0.003819571
## 205 0.03135522 0.005665831 0.05543838 0.003577062
## 216 0.03106531 0.005681022 0.06929377 0.003998168
## 227 0.03042305 0.005502554 0.06234437 0.003671141
## 40 0.03074792 0.005906689 0.07636484 0.003983417
## 51 0.03061088 0.005977372 0.08027194 0.004032403
## 62 0.03077581 0.005892004 0.07119935 0.003714741
## 139 0.03041053 0.006131231 0.07841135 0.003972630
## 150 0.03042911 0.005506305 0.06307350 0.003715273
## 161 0.02979697 0.005438188 0.05451655 0.003850272
## 238 0.03253076 0.005327657 0.06458217 0.003281720
## 249 0.03160291 0.005185424 0.06563032 0.003206364
## 260 0.03060530 0.006018581 0.08197730 0.003795094
## 73 0.03054277 0.006113837 0.07892225 0.004095087
## 84 0.03034652 0.005970859 0.06982282 0.003942890
## 95 0.03070567 0.005807934 0.06987503 0.003670736
## 172 0.03105586 0.005582586 0.07328294 0.003353897
## 183 0.03040747 0.005771915 0.06226145 0.003860664
## 194 0.02987207 0.005459905 0.05417754 0.003527896
## 271 0.03285746 0.005898796 0.08219012 0.003490683
## 282 0.03225948 0.006307050 0.08127364 0.004348486
## 293 0.03077382 0.005170346 0.05226222 0.003405349
## 8 0.03120839 0.006034218 0.08551982 0.003963409
## 19 0.03100461 0.006040322 0.08341476 0.003955965
## 30 0.03082835 0.005861709 0.07263744 0.003804427
## 107 0.03090336 0.005448711 0.06390787 0.003669651
## 118 0.03038091 0.005742541 0.06604054 0.003967287
## 129 0.02977662 0.005405884 0.06253040 0.003902972
## 206 0.03173474 0.005956269 0.05907603 0.003981023
## 217 0.03151230 0.005690465 0.07487884 0.003844532
## 228 0.03049174 0.005438165 0.06281826 0.003627003
## 41 0.03053380 0.005895483 0.07535917 0.003935059
## 52 0.03037607 0.005921220 0.07666559 0.003956008
## 63 0.03050706 0.005838553 0.06954589 0.003647099
## 140 0.03071381 0.005681407 0.07319771 0.003645255
## 151 0.03067202 0.005596538 0.06742744 0.003888663
## 162 0.02977773 0.005451446 0.06131631 0.003878156
## 239 0.03259909 0.005308460 0.06296231 0.003209943
## 250 0.03182072 0.005154303 0.06826540 0.003172705
## 261 0.03084642 0.005791830 0.08483602 0.003821216
## 74 0.03030621 0.006090964 0.07834329 0.004096202
## 85 0.03013373 0.005941716 0.06990894 0.003942871
## 96 0.03047404 0.005767202 0.06889815 0.003597252
## 173 0.03147761 0.005509251 0.07149146 0.003220882
## 184 0.03073935 0.005488592 0.06064802 0.003680695
## 195 0.02988898 0.005570632 0.05959749 0.003783101
## 272 0.03324143 0.005798884 0.07625476 0.003165597
## 283 0.03238452 0.005993405 0.08166373 0.003961784
## 294 0.03081783 0.005381877 0.06443408 0.003942804
## 9 0.03098679 0.005988747 0.08230972 0.003872484
## 20 0.03082924 0.006010702 0.08250674 0.003902519
## 31 0.03061823 0.005866084 0.07296257 0.003782997
## 108 0.03091760 0.005263516 0.06414923 0.003510803
## 119 0.03028619 0.005747895 0.07135799 0.004013311
## 130 0.02985552 0.005668584 0.06851666 0.004014247
## 207 0.03168603 0.005993411 0.06071199 0.003909527
## 218 0.03157992 0.005764094 0.07594959 0.003782750
## 229 0.03064158 0.005591559 0.07035042 0.003711602
## 42 0.03037419 0.005902097 0.07499911 0.003915931
## 53 0.03019458 0.005899053 0.07754818 0.003933596
## 64 0.03031141 0.005865034 0.06952790 0.003646407
## 141 0.03112648 0.005469243 0.07266560 0.003533337
## 152 0.03079465 0.005533847 0.06773685 0.003759375
## 163 0.02993037 0.005499002 0.06285653 0.003829042
## 240 0.03241986 0.005674581 0.06882042 0.003288132
## 251 0.03157582 0.005032117 0.07543379 0.003177328
## 262 0.03064959 0.006259231 0.09458290 0.004045538
## 75 0.03012918 0.006096813 0.07715617 0.004059483
## 86 0.02996465 0.005981706 0.07142595 0.003970088
## 97 0.03023213 0.005745536 0.06774005 0.003556206
## 174 0.03156888 0.005769480 0.07257523 0.003509057
## 185 0.03057362 0.005730410 0.06616999 0.003891288
## 196 0.02998708 0.005453375 0.05772691 0.003839562
## 273 0.03298731 0.006067865 0.07704738 0.003589351
## 284 0.03257663 0.005818920 0.07425461 0.003890181
## 295 0.03109092 0.005135364 0.06365810 0.003549435
## 10 0.03083441 0.006004712 0.08350407 0.003878447
## 21 0.03067886 0.006042414 0.08204696 0.003907276
## 32 0.03043194 0.005838185 0.07145268 0.003765957
## 109 0.03093016 0.005490507 0.06635834 0.003728962
## 120 0.03050198 0.005778217 0.06846233 0.004037862
## 131 0.02983922 0.005698932 0.06674531 0.003931154
## 208 0.03217141 0.005888409 0.05407066 0.003612875
## 219 0.03183711 0.005344191 0.07169553 0.003304990
## 230 0.03075771 0.005208482 0.06623587 0.003417254
## 43 0.03019562 0.005859260 0.07187862 0.003872395
## 54 0.03004675 0.005921394 0.07806332 0.003970199
## 65 0.03014915 0.005839439 0.07001465 0.003623000
## 142 0.03115358 0.005622575 0.07592584 0.003527160
## 153 0.03094611 0.005526162 0.07149718 0.003749142
## 164 0.02991919 0.005583625 0.06340513 0.003824988
## 241 0.03235394 0.005669395 0.07009231 0.003267808
## 252 0.03153276 0.005321926 0.08007166 0.003400938
## 263 0.03084913 0.005812631 0.07887532 0.003940268
## 76 0.03000560 0.006041528 0.07567012 0.004004140
## 87 0.02979902 0.005945349 0.07000899 0.003947296
## 98 0.03006623 0.005744539 0.06770778 0.003534195
## 175 0.03156736 0.005571152 0.06967043 0.003407677
## 186 0.03076015 0.005610865 0.06520593 0.003660703
## 197 0.03003742 0.005414213 0.05743251 0.003708822
## 274 0.03368083 0.005681407 0.07589278 0.003200399
## 285 0.03291750 0.005620273 0.06984204 0.003780334
## 296 0.03087589 0.005339580 0.06152922 0.003486262
## 11 0.03073586 0.006017761 0.08284699 0.003843403
## 22 0.03055281 0.006102424 0.08301411 0.003905198
## 33 0.03029871 0.005814351 0.06994321 0.003749971
## 110 0.03110691 0.005612004 0.06813202 0.003782172
## 121 0.03062101 0.005939884 0.06934261 0.004088726
## 132 0.02978269 0.005808878 0.06582665 0.004195304
## 209 0.03221538 0.005819315 0.05538459 0.003532278
## 220 0.03149900 0.005317986 0.07188515 0.003439172
## 231 0.03076420 0.005386412 0.07105800 0.003715536
## 44 0.03004978 0.005862557 0.07092438 0.003879287
## 55 0.02996911 0.005916605 0.07706179 0.003960783
## 66 0.03000796 0.005844060 0.06978133 0.003629981
## 143 0.03109226 0.005553498 0.07083673 0.003549247
## 154 0.03105426 0.005430187 0.06943226 0.003674969
## 165 0.03002762 0.005621547 0.06221778 0.003944261
## 242 0.03296897 0.005638652 0.06630562 0.003184210
## 253 0.03185330 0.005154019 0.07390251 0.003348619
## 264 0.03066959 0.006106522 0.08091682 0.004118074
## 77 0.02990546 0.006027825 0.07478142 0.003989467
## 88 0.02970730 0.005882409 0.06688228 0.003893219
## 99 0.02994231 0.005729853 0.06639792 0.003516485
## 176 0.03160039 0.005651147 0.07575944 0.003496748
## 187 0.03069990 0.005885522 0.07592901 0.003889415
## 198 0.03024737 0.005538408 0.05896007 0.003897000
## 275 0.03378707 0.005826178 0.09014590 0.003323829
## 286 0.03292810 0.006047247 0.07751460 0.003947461
## 297 0.03103125 0.005393006 0.06280386 0.003418383
# Pilih model dengan RMSE terendah
best_model_index_gbm <- which.min(result_gbm$results$RMSE)
best_model_gbm <- result_gbm$finalModel
# Tampilkan ringkasan model terbaik
print("Model Terbaik Gradient Boosting:")
## [1] "Model Terbaik Gradient Boosting:"
print(best_model_gbm)
## A gradient boosted model with gaussian loss function.
## 60 iterations were performed.
## There were 2 predictors of which 2 had non-zero influence.
# Visualisasi hasil prediksi dan nilai aktual pada data uji untuk Gradient Boosting
prediksi_gbm <- predict(best_model_gbm, newdata = data_test_bone)
## Using 60 trees...
## Warning in predict.gbm(best_model_gbm, newdata = data_test_bone): NAs
## introduced by coercion
plot(data_test_bone$spnbmd, prediksi_gbm, col = "blue", pch = 16, main = "Prediksi vs. Nilai Aktual (Gradient Boosting)")
abline(0, 1, col = "red", lty = 2) # Garis diagonal untuk perbandingan sempurna
legend("topleft", legend = paste("RMSE =", round(result_gbm$results$RMSE[best_model_index_gbm], 4)),
col = "red", lty = 2, bty = "n")
# Menampilkan hasil perbandingan
cat("MSE Bagging:", best_mse_bagging, "\n")
## MSE Bagging: 0.001468799
cat("MSE Random Forest:", min(results_rf$MSE), "\n")
## MSE Random Forest: 0.001540907
cat("MSE Gradient Boosting:", min(result_gbm$results$RMSE), "\n")
## MSE Gradient Boosting: 0.03912572
Hasil evaluasi model dengan menggunakan tiga metode, yaitu Bagging, Random Forest, dan Gradient Boosting, telah diperoleh. hasilnya dapat dijelaskan sebagai berikut:
Metode Bagging memberikan hasil Mean Squared Error (MSE) sebesar 0.001468799, yang menunjukkan tingkat akurasi prediksi yang baik. Metode ini melibatkan pelatihan beberapa model regresi tree secara paralel dengan menggunakan bootstrap sampling, yang kemudian hasil prediksi dari setiap model digabungkan. MSE yang rendah menandakan bahwa model Bagging dapat menghasilkan prediksi yang mendekati nilai sebenarnya dengan baik.Metode Random Forest memberikan MSE sebesar 0.001540907, juga menunjukkan tingkat akurasi yang baik dalam melakukan prediksi. Random Forest merupakan pengembangan dari metode Bagging dengan tambahan penggunaan subset acak dari fitur pada setiap pohon regresi. Hasil MSE yang rendah menandakan bahwa Random Forest mampu mengatasi overfitting dan menghasilkan model yang stabil dan akurat.Sementara itu, metode Gradient Boosting menunjukkan MSE sebesar 0.03912572. Meskipun nilai ini lebih tinggi dibandingkan dengan Bagging dan Random Forest, Gradient Boosting memiliki pendekatan yang berbeda. Metode ini secara iteratif memperbaiki kesalahan prediksi model sebelumnya, memberikan penekanan pada kasus yang sulit diprediksi. Oleh karena itu, hasil yang lebih tinggi mungkin terjadi karena adanya penekanan pada pengurangan kesalahan pada kasus yang sulit. Dalam hal ini, model Bagging dan Random Forest dapat dianggap sebagai yang terbaik karena keduanya memberikan nilai MSE yang lebih rendah, menandakan kinerja prediksi yang lebih akurat.