Pada postingan ini kita akan menghitung Estimated probabilitas dari setiap response jawaban dan group. Pada postingan ini adalah berdasarkan pada penelitian dengan tujuan untuk mengetahui kebutuhan, pemenuhan kurikulum dan kepuasan mahasiswa terkait dengan pembelajaran bahasa Arab untuk tujuan Keagamaan PKPBA PAI UIN Maulana Malik Ibrahim.
Jawaban dari pertanyaan didapat 5 alternatif respon yaitu 1. Tidak setuju 2. Kurang setuju 3. Cukup 4. Setuju 5. Sangat setuju
Jumlah pertanyaan terdapat 24 pertanyaan yaitu : A. KEBUTUHAN KEAGAMAAN terdapat 8 pertanyaan B. PEMENUHAN KURIKULUM terdapat 8 pertanyaan C. KEPUASAN MAHASISWA terdapat 8 pertanyaan
Waktu pengumpulan data ada 2 gelombang : 1. Gelombang 1 dilakukan 2 periode : A. Periode 1 ditandai dengan y=0 atau theta=0 tanggal 11-13 Januari 2021, sebanyak 28 data B. Periode 2 ditandai dengan y=1 atau theta=1 tanggal 11-13 Januari 2021 14-16 Januari 2021, sebanyak 28 data 2. Gelombang 2 dilakukan 2 periode : A. Periode 1 ditandai dengan y=0 atau theta=0 tanggal 18-20 Januari 2021, sebanyak 28 data B. Periode 2 ditandai dengan y=1 atau theta=1 tanggal 11-13 Januari 2021 21-23 Januari 2021, sebanyak 28 data
Media untuk pengambilan data melalui google form dengan URL : https://forms.gle/eFyWAhQQyFGyEVNY6
Formulir Untuk Responden.
Beberapa pertamyaan adalah : 1. Saya belajar bahasa Arab karena ingin memahami Islam dari sumbernya yang asli. 2. Saya ingin belajar bahasa Arab dengan materi yang dikaitkan langsung dengan materi PAI 3. Saya ingin belajar bahasa Arab sekaligus mendalami pengetahuan tentang agama Islam
Untuk menyiapkan data perlu library tidyverse, sepeti command line dibawah ini :
library(tidyverse)
## ── Attaching packages ─────────────────────────────────────── tidyverse 1.3.0 ──
## ✓ ggplot2 3.3.3 ✓ purrr 0.3.4
## ✓ tibble 3.0.5 ✓ dplyr 1.0.3
## ✓ tidyr 1.1.2 ✓ stringr 1.4.0
## ✓ readr 1.4.0 ✓ forcats 0.5.0
## ── Conflicts ────────────────────────────────────────── tidyverse_conflicts() ──
## x dplyr::filter() masks stats::filter()
## x dplyr::lag() masks stats::lag()
Pada penelitian ini pertanyaan yamg diajukan ke reponden sebanyak 24 dengan variabel Q, dengan alrenatif jawaban sebanyak 5 dengan variabel A.
set.seed(27)
Q <- 24
A <- 5
alpha <- rep(5, A)
theta_0 <- gtools::rdirichlet(Q, alpha)
theta_1 <- gtools::rdirichlet(Q, alpha)
Dari google form diambil data sebagai file excel berbentuk data_kuisioner1.xlsx, yaitu tahap 1, kita bedakan waktu awal sebagai y=0, ditandai theta 0 dan waktu akhir sebagai y=1 ditandai theta 1, data ini diambil dari tanggal 11-13 Januari 2021
library(readxl)
Angket_Mahasiswa1 <- read_excel("Documents/data_kuisioner1.xlsx",
col_types = c("numeric", "numeric", "numeric",
"numeric", "numeric", "numeric",
"numeric", "numeric", "numeric",
"numeric", "numeric", "numeric",
"numeric", "numeric", "numeric",
"numeric", "numeric", "numeric",
"numeric", "numeric", "numeric",
"numeric", "numeric", "numeric",
"numeric"))
Angket_Mahasiswa1
## # A tibble: 56 x 25
## y P01 P02 P03 P04 P05 P06 P07 P08 P09 P10 P11 P12
## <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 0 5 5 5 5 5 5 5 5 5 5 5 5
## 2 0 5 5 5 4 5 5 5 5 5 5 5 5
## 3 0 5 5 5 5 5 5 5 5 5 5 5 5
## 4 0 5 4 4 4 3 5 5 5 4 3 4 4
## 5 0 5 5 5 3 5 5 5 5 3 3 2 3
## 6 0 4 4 4 2 2 5 5 5 4 4 5 5
## 7 0 5 5 5 5 5 5 5 5 5 5 5 5
## 8 0 5 1 5 5 1 5 5 1 3 3 3 3
## 9 0 5 5 4 4 4 5 5 4 4 4 4 4
## 10 0 4 3 4 4 3 4 5 5 4 4 3 4
## # … with 46 more rows, and 12 more variables: P13 <dbl>, P14 <dbl>, P15 <dbl>,
## # P16 <dbl>, P17 <dbl>, P18 <dbl>, P19 <dbl>, P20 <dbl>, P21 <dbl>,
## # P22 <dbl>, P23 <dbl>, P24 <dbl>
Angket_Mahasiswa1_convert <- type.convert(Angket_Mahasiswa1)
str(Angket_Mahasiswa1_convert)
## tibble [56 × 25] (S3: tbl_df/tbl/data.frame)
## $ y : int [1:56] 0 0 0 0 0 0 0 0 0 0 ...
## $ P01: int [1:56] 5 5 5 5 5 4 5 5 5 4 ...
## $ P02: int [1:56] 5 5 5 4 5 4 5 1 5 3 ...
## $ P03: int [1:56] 5 5 5 4 5 4 5 5 4 4 ...
## $ P04: int [1:56] 5 4 5 4 3 2 5 5 4 4 ...
## $ P05: int [1:56] 5 5 5 3 5 2 5 1 4 3 ...
## $ P06: int [1:56] 5 5 5 5 5 5 5 5 5 4 ...
## $ P07: int [1:56] 5 5 5 5 5 5 5 5 5 5 ...
## $ P08: int [1:56] 5 5 5 5 5 5 5 1 4 5 ...
## $ P09: int [1:56] 5 5 5 4 3 4 5 3 4 4 ...
## $ P10: int [1:56] 5 5 5 3 3 4 5 3 4 4 ...
## $ P11: int [1:56] 5 5 5 4 2 5 5 3 4 3 ...
## $ P12: int [1:56] 5 5 5 4 3 5 5 3 4 4 ...
## $ P13: int [1:56] 5 5 5 4 3 5 5 5 4 4 ...
## $ P14: int [1:56] 5 5 5 3 2 5 5 5 4 4 ...
## $ P15: int [1:56] 5 5 5 4 3 4 5 5 5 4 ...
## $ P16: int [1:56] 5 5 5 4 3 4 5 5 5 4 ...
## $ P17: int [1:56] 5 5 5 3 5 5 5 3 5 4 ...
## $ P18: int [1:56] 5 5 5 5 5 5 4 3 5 4 ...
## $ P19: int [1:56] 5 5 5 4 5 5 5 5 4 4 ...
## $ P20: int [1:56] 5 5 5 3 5 4 5 5 4 5 ...
## $ P21: int [1:56] 5 5 5 4 5 4 5 5 4 3 ...
## $ P22: int [1:56] 5 5 5 3 5 4 5 5 5 5 ...
## $ P23: int [1:56] 5 5 5 4 5 4 5 3 4 5 ...
## $ P24: int [1:56] 5 5 5 4 5 4 5 5 5 5 ...
Dari google form diambil data sebagai file excel berbentuk data_kuisioner2.xlsx, yaitu tahap 2, kita bedakan waktu awal sebagai y=0, ditandai theta 0 dan waktu akhir sebagai y=1 ditandai theta 1, data ini diambil dari tanggal 14-16 Januari 2021
library(readxl)
Angket_Mahasiswa2 <- read_excel("Documents/data_kuisioner2.xlsx",
col_types = c("numeric", "numeric", "numeric",
"numeric", "numeric", "numeric",
"numeric", "numeric", "numeric",
"numeric", "numeric", "numeric",
"numeric", "numeric", "numeric",
"numeric", "numeric", "numeric",
"numeric", "numeric", "numeric",
"numeric", "numeric", "numeric",
"numeric"))
Angket_Mahasiswa2
## # A tibble: 56 x 25
## y P01 P02 P03 P04 P05 P06 P07 P08 P09 P10 P11 P12
## <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl> <dbl>
## 1 0 4 4 4 4 3 4 5 4 4 4 4 4
## 2 0 5 4 5 4 3 4 5 4 4 4 3 4
## 3 0 4 4 4 4 4 4 4 4 3 3 3 3
## 4 0 4 4 4 4 4 4 4 4 4 4 4 4
## 5 0 5 3 5 4 4 5 5 5 4 3 3 3
## 6 0 5 4 5 5 4 4 5 3 3 3 3 4
## 7 0 5 5 5 5 5 5 5 5 5 4 3 4
## 8 0 5 5 5 5 5 5 5 5 3 3 3 4
## 9 0 4 4 4 4 4 4 4 4 4 4 4 4
## 10 0 5 5 5 5 5 5 5 5 5 5 4 4
## # … with 46 more rows, and 12 more variables: P13 <dbl>, P14 <dbl>, P15 <dbl>,
## # P16 <dbl>, P17 <dbl>, P18 <dbl>, P19 <dbl>, P1 <dbl>, P21 <dbl>, P22 <dbl>,
## # P23 <dbl>, P24 <dbl>
Angket_Mahasiswa2_convert <- type.convert(Angket_Mahasiswa2)
str(Angket_Mahasiswa2_convert)
## tibble [56 × 25] (S3: tbl_df/tbl/data.frame)
## $ y : int [1:56] 0 0 0 0 0 0 0 0 0 0 ...
## $ P01: int [1:56] 4 5 4 4 5 5 5 5 4 5 ...
## $ P02: int [1:56] 4 4 4 4 3 4 5 5 4 5 ...
## $ P03: int [1:56] 4 5 4 4 5 5 5 5 4 5 ...
## $ P04: int [1:56] 4 4 4 4 4 5 5 5 4 5 ...
## $ P05: int [1:56] 3 3 4 4 4 4 5 5 4 5 ...
## $ P06: int [1:56] 4 4 4 4 5 4 5 5 4 5 ...
## $ P07: int [1:56] 5 5 4 4 5 5 5 5 4 5 ...
## $ P08: int [1:56] 4 4 4 4 5 3 5 5 4 5 ...
## $ P09: int [1:56] 4 4 3 4 4 3 5 3 4 5 ...
## $ P10: int [1:56] 4 4 3 4 3 3 4 3 4 5 ...
## $ P11: int [1:56] 4 3 3 4 3 3 3 3 4 4 ...
## $ P12: int [1:56] 4 4 3 4 3 4 4 4 4 4 ...
## $ P13: int [1:56] 3 4 3 4 3 3 3 4 4 4 ...
## $ P14: int [1:56] 4 4 3 4 4 4 4 4 4 4 ...
## $ P15: int [1:56] 4 4 4 4 3 4 4 3 4 4 ...
## $ P16: int [1:56] 4 4 4 4 4 5 4 4 4 3 ...
## $ P17: int [1:56] 4 5 4 4 5 3 5 4 4 5 ...
## $ P18: int [1:56] 4 5 5 4 3 4 5 4 4 5 ...
## $ P19: int [1:56] 4 5 4 4 5 5 5 5 4 5 ...
## $ P1 : int [1:56] 4 5 4 4 3 3 5 5 4 5 ...
## $ P21: int [1:56] 4 5 4 4 3 4 5 5 4 4 ...
## $ P22: int [1:56] 4 5 4 4 5 3 4 4 4 4 ...
## $ P23: int [1:56] 4 4 4 4 5 3 4 3 4 5 ...
## $ P24: int [1:56] 5 5 4 4 5 4 5 5 4 5 ...
Untuk menjalankan model kita perlu library rstan seperti command line dinawah ini :
library(rstan)
## Loading required package: StanHeaders
## rstan (Version 2.21.2, GitRev: 2e1f913d3ca3)
## For execution on a local, multicore CPU with excess RAM we recommend calling
## options(mc.cores = parallel::detectCores()).
## To avoid recompilation of unchanged Stan programs, we recommend calling
## rstan_options(auto_write = TRUE)
##
## Attaching package: 'rstan'
## The following object is masked from 'package:tidyr':
##
## extract
rstan_options(auto_write = TRUE)
Berdasarkan model generatif yang ditentukan, fungsi Stan ditulis sebagai berikut, yang dicontoh dari https://michaeldewittjr.com/resources/stan_categorical_responses.html#data_generating_process
Model tersebut ditulis menggunakan RStudio dengan nama file stan_categorical_responses.stan, menjalankan model dengan cara mengisikan ke variabel model.
model <- stan_model("stan_categorical_responses.stan")
Format data, seperti biasanya, kita perlu melakukan sedikit format ulang data.
new_data <- list(
R = as.matrix(dplyr::select(Angket_Mahasiswa1_convert, -y)),
N = nrow(Angket_Mahasiswa1_convert),
y = Angket_Mahasiswa1_convert$y,
new_R = as.matrix(dplyr::select(Angket_Mahasiswa2_convert, -y)),
new_N = nrow(Angket_Mahasiswa2_convert),
Q = Q,
A = A,
alpha = alpha
)
new_data
## $R
## P01 P02 P03 P04 P05 P06 P07 P08 P09 P10 P11 P12 P13 P14 P15 P16 P17 P18
## [1,] 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
## [2,] 5 5 5 4 5 5 5 5 5 5 5 5 5 5 5 5 5 5
## [3,] 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
## [4,] 5 4 4 4 3 5 5 5 4 3 4 4 4 3 4 4 3 5
## [5,] 5 5 5 3 5 5 5 5 3 3 2 3 3 2 3 3 5 5
## [6,] 4 4 4 2 2 5 5 5 4 4 5 5 5 5 4 4 5 5
## [7,] 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 4
## [8,] 5 1 5 5 1 5 5 1 3 3 3 3 5 5 5 5 3 3
## [9,] 5 5 4 4 4 5 5 4 4 4 4 4 4 4 5 5 5 5
## [10,] 4 3 4 4 3 4 5 5 4 4 3 4 4 4 4 4 4 4
## [11,] 5 4 5 5 5 4 5 4 4 4 4 4 4 4 4 4 4 5
## [12,] 5 5 5 5 5 5 5 5 4 5 5 5 5 5 5 5 5 5
## [13,] 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
## [14,] 5 4 5 3 5 5 5 4 3 4 3 4 3 4 5 5 5 5
## [15,] 5 4 5 4 3 4 5 4 4 4 3 4 4 4 4 4 4 4
## [16,] 4 4 4 4 4 4 4 4 4 3 4 4 4 4 4 4 5 5
## [17,] 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
## [18,] 4 3 5 4 3 4 5 4 4 3 4 3 4 3 4 5 5 5
## [19,] 4 4 4 4 4 5 4 3 4 4 3 4 4 4 4 4 5 5
## [20,] 5 3 4 3 1 1 5 3 4 3 4 4 4 4 4 4 4 5
## [21,] 4 4 4 4 4 5 5 5 4 4 4 4 4 4 4 4 4 4
## [22,] 3 5 5 3 3 3 5 5 3 3 4 4 3 5 5 5 5 5
## [23,] 4 4 4 4 4 5 5 5 4 4 5 5 5 5 5 5 5 5
## [24,] 4 4 4 5 3 4 4 4 3 4 3 4 4 4 5 4 3 4
## [25,] 5 5 5 5 5 5 5 5 5 4 4 5 5 5 4 5 4 5
## [26,] 5 5 5 4 3 5 5 5 4 4 5 4 4 5 5 5 3 4
## [27,] 5 4 5 5 5 5 5 5 3 3 4 4 4 3 3 4 4 4
## [28,] 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
## [29,] 4 5 5 4 4 5 5 4 4 4 5 4 4 4 3 3 3 4
## [30,] 5 3 5 4 3 4 5 5 4 4 4 4 4 4 4 4 3 4
## [31,] 4 4 5 4 4 4 4 5 4 4 4 4 4 4 4 4 4 5
## [32,] 5 4 5 5 4 5 5 5 4 4 4 4 4 4 4 4 4 4
## [33,] 4 4 5 5 5 5 5 5 4 4 4 4 4 5 5 5 5 5
## [34,] 5 4 5 4 4 5 5 5 4 4 4 4 4 4 4 4 3 3
## [35,] 4 3 4 4 5 5 5 5 3 3 4 4 3 4 3 3 2 3
## [36,] 4 3 5 5 5 5 5 4 3 3 2 2 3 3 5 4 4 5
## [37,] 5 4 4 5 4 4 5 5 3 3 4 4 4 5 5 4 3 5
## [38,] 5 4 5 4 4 5 5 4 4 4 4 4 4 5 4 4 4 4
## [39,] 3 1 3 4 3 3 4 3 3 3 3 3 3 3 5 5 3 3
## [40,] 4 3 4 4 3 4 4 4 3 3 4 4 4 4 4 4 3 4
## [41,] 5 4 5 5 5 5 5 5 5 4 4 5 4 5 5 5 5 5
## [42,] 5 5 5 5 5 5 5 5 3 2 2 3 3 3 3 3 3 4
## [43,] 4 5 5 5 4 5 5 4 5 5 5 5 4 5 5 5 5 5
## [44,] 4 4 5 4 4 5 5 4 4 4 4 4 5 5 4 4 4 4
## [45,] 4 4 4 4 4 2 4 2 4 4 4 4 4 4 4 4 4 5
## [46,] 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
## [47,] 5 5 5 5 5 5 5 5 4 4 4 4 4 5 5 5 5 5
## [48,] 4 4 4 4 4 4 5 4 4 4 4 4 4 4 4 4 5 5
## [49,] 5 5 5 5 5 5 5 5 5 4 5 5 5 5 5 5 5 5
## [50,] 4 4 5 4 3 4 4 4 3 3 3 3 3 3 3 3 4 4
## [51,] 5 4 5 5 5 5 5 5 4 4 4 4 4 4 4 4 4 5
## [52,] 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
## [53,] 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
## [54,] 5 4 5 4 4 4 5 5 4 4 5 4 4 4 4 4 4 5
## [55,] 5 4 5 5 5 5 5 5 5 5 4 5 2 5 5 5 4 5
## [56,] 4 5 5 5 4 5 5 4 5 5 5 5 4 5 5 5 5 5
## P19 P20 P21 P22 P23 P24
## [1,] 5 5 5 5 5 5
## [2,] 5 5 5 5 5 5
## [3,] 5 5 5 5 5 5
## [4,] 4 3 4 3 4 4
## [5,] 5 5 5 5 5 5
## [6,] 5 4 4 4 4 4
## [7,] 5 5 5 5 5 5
## [8,] 5 5 5 5 3 5
## [9,] 4 4 4 5 4 5
## [10,] 4 5 3 5 5 5
## [11,] 5 4 4 4 4 4
## [12,] 5 5 5 5 5 5
## [13,] 5 5 5 5 5 5
## [14,] 5 5 5 5 5 5
## [15,] 4 4 5 5 4 4
## [16,] 5 5 4 5 5 5
## [17,] 5 5 5 5 5 5
## [18,] 5 5 3 5 4 5
## [19,] 4 4 4 4 4 4
## [20,] 5 5 5 5 4 4
## [21,] 4 4 4 4 4 4
## [22,] 5 5 4 5 5 5
## [23,] 5 5 4 5 4 5
## [24,] 4 3 4 4 4 4
## [25,] 5 5 5 5 4 4
## [26,] 5 4 5 5 4 4
## [27,] 5 3 5 4 4 4
## [28,] 5 5 5 5 5 5
## [29,] 5 4 5 3 4 5
## [30,] 4 4 2 3 4 4
## [31,] 5 5 4 5 4 5
## [32,] 4 4 5 4 4 4
## [33,] 4 5 4 5 5 5
## [34,] 5 3 4 4 4 4
## [35,] 4 3 3 3 3 4
## [36,] 5 5 4 4 3 4
## [37,] 5 4 3 4 4 5
## [38,] 5 4 4 4 5 5
## [39,] 3 3 3 3 4 5
## [40,] 4 4 4 4 4 4
## [41,] 5 5 5 5 5 5
## [42,] 5 3 4 4 4 4
## [43,] 5 4 4 5 5 5
## [44,] 4 4 4 4 4 4
## [45,] 3 3 5 5 4 4
## [46,] 5 5 5 5 5 5
## [47,] 5 4 5 5 4 5
## [48,] 4 4 4 4 4 4
## [49,] 5 5 4 4 3 4
## [50,] 5 3 3 4 4 4
## [51,] 5 5 4 4 3 4
## [52,] 5 5 5 5 5 5
## [53,] 5 5 5 5 5 5
## [54,] 5 4 4 5 5 5
## [55,] 4 4 4 5 4 5
## [56,] 5 4 4 5 5 5
##
## $N
## [1] 56
##
## $y
## [1] 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 1 1 1 1 1 1 1 1 1
## [39] 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1
##
## $new_R
## P01 P02 P03 P04 P05 P06 P07 P08 P09 P10 P11 P12 P13 P14 P15 P16 P17 P18
## [1,] 4 4 4 4 3 4 5 4 4 4 4 4 3 4 4 4 4 4
## [2,] 5 4 5 4 3 4 5 4 4 4 3 4 4 4 4 4 5 5
## [3,] 4 4 4 4 4 4 4 4 3 3 3 3 3 3 4 4 4 5
## [4,] 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4
## [5,] 5 3 5 4 4 5 5 5 4 3 3 3 3 4 3 4 5 3
## [6,] 5 4 5 5 4 4 5 3 3 3 3 4 3 4 4 5 3 4
## [7,] 5 5 5 5 5 5 5 5 5 4 3 4 3 4 4 4 5 5
## [8,] 5 5 5 5 5 5 5 5 3 3 3 4 4 4 3 4 4 4
## [9,] 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4
## [10,] 5 5 5 5 5 5 5 5 5 5 4 4 4 4 4 3 5 5
## [11,] 5 4 5 4 4 5 5 5 3 4 3 4 4 4 4 5 4 5
## [12,] 5 4 5 5 4 5 5 5 4 4 4 4 3 4 3 3 3 3
## [13,] 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4 4
## [14,] 4 4 5 4 3 4 3 4 4 4 5 4 4 5 4 4 4 5
## [15,] 5 4 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
## [16,] 5 4 5 4 5 5 5 4 5 4 4 4 4 5 4 4 4 5
## [17,] 5 5 5 5 5 5 5 5 4 4 5 5 5 5 5 5 5 5
## [18,] 5 4 5 5 4 5 5 5 5 5 5 5 5 5 5 5 5 5
## [19,] 5 5 5 5 5 5 5 5 4 4 4 4 4 4 5 5 5 5
## [20,] 5 5 5 5 4 5 5 5 5 5 5 5 5 5 5 5 5 5
## [21,] 5 5 5 4 4 5 5 5 4 3 3 3 4 4 4 4 4 4
## [22,] 4 5 4 4 3 3 5 4 3 4 5 4 4 4 5 4 4 5
## [23,] 5 5 4 5 4 5 5 5 4 4 4 4 4 4 4 4 5 5
## [24,] 4 4 4 4 4 4 4 4 3 4 3 3 3 4 3 3 3 4
## [25,] 5 4 5 4 4 5 5 4 4 4 4 4 4 4 5 5 5 5
## [26,] 3 3 4 3 3 4 4 3 4 3 3 3 3 4 4 4 4 4
## [27,] 4 4 4 4 4 5 5 5 4 4 4 4 4 5 4 4 4 5
## [28,] 5 5 5 5 5 5 5 5 4 4 4 4 4 4 5 5 5 5
## [29,] 5 5 5 5 5 4 5 5 4 4 5 5 5 5 4 4 5 5
## [30,] 5 4 5 5 5 5 5 5 4 5 4 5 4 4 5 5 4 5
## [31,] 5 5 5 5 4 5 5 5 5 5 5 5 5 5 5 5 5 5
## [32,] 5 5 5 5 5 5 5 5 3 3 3 3 3 4 4 4 5 5
## [33,] 4 4 4 4 4 4 4 4 4 4 3 3 3 4 3 4 4 4
## [34,] 4 4 5 4 4 4 4 4 4 4 4 4 5 4 4 4 4 4
## [35,] 4 4 5 4 4 5 5 5 4 4 4 4 4 4 4 4 4 5
## [36,] 5 4 5 4 3 5 5 5 4 4 4 4 4 5 4 4 5 5
## [37,] 5 4 5 5 5 5 5 5 4 4 4 4 4 4 4 4 4 4
## [38,] 4 4 5 4 4 5 5 5 4 4 4 5 4 4 5 4 4 4
## [39,] 4 4 5 5 5 5 5 5 4 4 4 4 4 4 4 4 4 4
## [40,] 5 4 5 3 3 5 5 5 3 5 4 5 4 4 5 5 4 5
## [41,] 5 5 5 5 5 5 5 5 3 2 3 3 3 5 4 4 4 5
## [42,] 5 4 5 5 4 5 5 5 3 3 3 3 3 4 4 4 4 4
## [43,] 4 3 5 5 5 5 4 4 3 4 3 3 3 3 4 4 4 4
## [44,] 5 4 5 4 4 5 5 5 2 3 3 3 4 4 3 3 3 4
## [45,] 3 3 3 3 2 3 3 3 3 3 4 4 4 3 3 3 3 3
## [46,] 4 3 4 4 3 4 4 4 4 4 4 4 4 4 4 4 4 4
## [47,] 5 4 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
## [48,] 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
## [49,] 5 4 5 5 5 5 5 5 3 4 5 5 3 3 5 5 5 5
## [50,] 5 3 5 4 5 4 5 5 5 3 3 5 4 5 5 4 4 5
## [51,] 5 5 5 5 5 4 5 5 4 4 4 4 4 4 4 4 4 4
## [52,] 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5 5
## [53,] 5 5 5 5 5 5 5 5 4 4 4 3 2 5 3 3 5 5
## [54,] 4 4 5 4 3 4 5 4 3 3 5 4 5 5 5 5 5 5
## [55,] 5 5 5 5 5 5 5 5 4 4 4 3 2 5 3 3 5 5
## [56,] 5 5 5 5 5 5 5 5 4 4 4 3 2 5 3 3 5 5
## P19 P1 P21 P22 P23 P24
## [1,] 4 4 4 4 4 5
## [2,] 5 5 5 5 4 5
## [3,] 4 4 4 4 4 4
## [4,] 4 4 4 4 4 4
## [5,] 5 3 3 5 5 5
## [6,] 5 3 4 3 3 4
## [7,] 5 5 5 4 4 5
## [8,] 5 5 5 4 3 5
## [9,] 4 4 4 4 4 4
## [10,] 5 5 4 4 5 5
## [11,] 5 4 5 4 4 4
## [12,] 5 5 3 3 3 4
## [13,] 4 4 4 4 4 4
## [14,] 4 4 4 5 4 4
## [15,] 5 5 5 5 5 5
## [16,] 5 4 4 4 3 3
## [17,] 5 5 5 4 4 5
## [18,] 4 5 5 5 4 5
## [19,] 5 5 4 4 4 4
## [20,] 5 5 5 5 5 5
## [21,] 4 4 4 4 4 5
## [22,] 5 4 4 4 3 4
## [23,] 5 4 5 5 5 5
## [24,] 5 5 4 4 3 3
## [25,] 4 4 5 5 5 5
## [26,] 4 4 4 4 4 4
## [27,] 5 4 5 5 3 4
## [28,] 5 4 4 5 5 5
## [29,] 5 4 4 4 4 4
## [30,] 5 5 4 4 3 5
## [31,] 5 5 5 5 5 5
## [32,] 5 5 5 5 5 5
## [33,] 4 4 4 4 4 4
## [34,] 4 4 4 4 4 5
## [35,] 5 4 4 5 4 5
## [36,] 5 5 4 4 3 3
## [37,] 5 4 5 4 4 4
## [38,] 5 5 4 4 4 5
## [39,] 4 4 5 5 4 5
## [40,] 5 5 5 4 3 4
## [41,] 5 4 5 4 5 5
## [42,] 4 4 4 4 4 4
## [43,] 5 4 4 4 3 5
## [44,] 5 4 4 4 3 3
## [45,] 3 3 3 3 4 4
## [46,] 4 4 4 4 4 4
## [47,] 5 5 5 5 4 5
## [48,] 5 5 5 5 5 5
## [49,] 5 5 5 5 4 5
## [50,] 5 4 4 4 3 5
## [51,] 4 4 4 5 5 5
## [52,] 5 5 5 5 5 5
## [53,] 5 5 5 5 5 5
## [54,] 5 5 4 5 4 5
## [55,] 5 5 5 5 5 5
## [56,] 5 5 5 5 5 5
##
## $new_N
## [1] 56
##
## $Q
## [1] 24
##
## $A
## [1] 5
##
## $alpha
## [1] 5 5 5 5 5
Menjalankan fit
fit <- sampling(model, new_data , cores = 3, iter = 1000, chains = 24, refresh=0)
fit
## Inference for Stan model: stan_categorical_responses.
## 24 chains, each with iter=1000; warmup=500; thin=1;
## post-warmup draws per chain=500, total post-warmup draws=12000.
##
## mean se_mean sd 2.5% 25% 50% 75%
## theta_0[1,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[1,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[1,3] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_0[1,4] 0.25 0.00 0.06 0.14 0.20 0.24 0.28
## theta_0[1,5] 0.45 0.00 0.07 0.32 0.41 0.45 0.50
## theta_0[2,1] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_0[2,2] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_0[2,3] 0.15 0.00 0.05 0.07 0.12 0.15 0.18
## theta_0[2,4] 0.30 0.00 0.06 0.19 0.26 0.30 0.34
## theta_0[2,5] 0.34 0.00 0.06 0.22 0.29 0.34 0.38
## theta_0[3,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[3,2] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_0[3,3] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_0[3,4] 0.28 0.00 0.06 0.17 0.24 0.28 0.32
## theta_0[3,5] 0.43 0.00 0.07 0.30 0.39 0.43 0.48
## theta_0[4,1] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_0[4,2] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_0[4,3] 0.17 0.00 0.05 0.08 0.13 0.17 0.20
## theta_0[4,4] 0.30 0.00 0.06 0.19 0.26 0.30 0.34
## theta_0[4,5] 0.32 0.00 0.06 0.20 0.28 0.32 0.36
## theta_0[5,1] 0.13 0.00 0.05 0.06 0.10 0.13 0.16
## theta_0[5,2] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_0[5,3] 0.23 0.00 0.06 0.12 0.19 0.22 0.26
## theta_0[5,4] 0.19 0.00 0.05 0.10 0.15 0.18 0.22
## theta_0[5,5] 0.34 0.00 0.06 0.22 0.29 0.34 0.38
## theta_0[6,1] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_0[6,2] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_0[6,3] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_0[6,4] 0.21 0.00 0.06 0.11 0.17 0.20 0.24
## theta_0[6,5] 0.47 0.00 0.07 0.34 0.42 0.47 0.52
## theta_0[7,1] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_0[7,2] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_0[7,3] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[7,4] 0.15 0.00 0.05 0.07 0.11 0.15 0.18
## theta_0[7,5] 0.57 0.00 0.07 0.43 0.52 0.57 0.61
## theta_0[8,1] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_0[8,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[8,3] 0.13 0.00 0.05 0.06 0.10 0.13 0.16
## theta_0[8,4] 0.23 0.00 0.06 0.13 0.19 0.22 0.26
## theta_0[8,5] 0.43 0.00 0.07 0.30 0.39 0.43 0.48
## theta_0[9,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[9,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[9,3] 0.21 0.00 0.06 0.11 0.17 0.20 0.24
## theta_0[9,4] 0.36 0.00 0.07 0.23 0.31 0.36 0.40
## theta_0[9,5] 0.25 0.00 0.06 0.14 0.20 0.24 0.28
## theta_0[10,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[10,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[10,3] 0.25 0.00 0.06 0.14 0.20 0.24 0.28
## theta_0[10,4] 0.32 0.00 0.06 0.20 0.28 0.32 0.36
## theta_0[10,5] 0.25 0.00 0.06 0.14 0.20 0.24 0.28
## theta_0[11,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[11,2] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_0[11,3] 0.21 0.00 0.06 0.11 0.17 0.20 0.24
## theta_0[11,4] 0.28 0.00 0.06 0.17 0.24 0.28 0.32
## theta_0[11,5] 0.30 0.00 0.06 0.19 0.26 0.30 0.34
## theta_0[12,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[12,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[12,3] 0.15 0.00 0.05 0.07 0.12 0.15 0.18
## theta_0[12,4] 0.36 0.00 0.06 0.24 0.31 0.36 0.40
## theta_0[12,5] 0.30 0.00 0.06 0.19 0.26 0.30 0.34
## theta_0[13,1] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_0[13,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[13,3] 0.15 0.00 0.05 0.07 0.12 0.15 0.18
## theta_0[13,4] 0.34 0.00 0.06 0.22 0.30 0.34 0.38
## theta_0[13,5] 0.32 0.00 0.06 0.20 0.28 0.32 0.36
## theta_0[14,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[14,2] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_0[14,3] 0.15 0.00 0.05 0.07 0.12 0.15 0.18
## theta_0[14,4] 0.28 0.00 0.06 0.17 0.24 0.28 0.32
## theta_0[14,5] 0.36 0.00 0.07 0.23 0.31 0.36 0.40
## theta_0[15,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[15,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[15,3] 0.13 0.00 0.05 0.06 0.10 0.13 0.16
## theta_0[15,4] 0.30 0.00 0.06 0.19 0.26 0.30 0.34
## theta_0[15,5] 0.38 0.00 0.07 0.25 0.33 0.38 0.42
## theta_0[16,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[16,2] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_0[16,3] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_0[16,4] 0.30 0.00 0.06 0.19 0.26 0.30 0.35
## theta_0[16,5] 0.40 0.00 0.07 0.27 0.35 0.39 0.44
## theta_0[17,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[17,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[17,3] 0.17 0.00 0.05 0.08 0.13 0.17 0.20
## theta_0[17,4] 0.23 0.00 0.06 0.12 0.19 0.22 0.26
## theta_0[17,5] 0.41 0.00 0.07 0.29 0.37 0.41 0.46
## theta_0[18,1] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_0[18,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[18,3] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_0[18,4] 0.23 0.00 0.06 0.13 0.19 0.22 0.26
## theta_0[18,5] 0.47 0.00 0.07 0.34 0.43 0.47 0.52
## theta_0[19,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[19,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[19,3] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[19,4] 0.23 0.00 0.06 0.13 0.19 0.22 0.26
## theta_0[19,5] 0.49 0.00 0.07 0.36 0.44 0.49 0.54
## theta_0[20,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[20,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[20,3] 0.15 0.00 0.05 0.07 0.12 0.15 0.18
## theta_0[20,4] 0.23 0.00 0.06 0.13 0.19 0.22 0.26
## theta_0[20,5] 0.43 0.00 0.07 0.30 0.39 0.43 0.48
## theta_0[21,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[21,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[21,3] 0.13 0.00 0.05 0.06 0.10 0.13 0.16
## theta_0[21,4] 0.28 0.00 0.06 0.17 0.24 0.28 0.32
## theta_0[21,5] 0.40 0.00 0.07 0.27 0.35 0.39 0.44
## theta_0[22,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[22,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[22,3] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_0[22,4] 0.21 0.00 0.06 0.11 0.17 0.20 0.24
## theta_0[22,5] 0.49 0.00 0.07 0.36 0.44 0.49 0.54
## theta_0[23,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[23,2] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_0[23,3] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_0[23,4] 0.36 0.00 0.07 0.24 0.31 0.36 0.40
## theta_0[23,5] 0.34 0.00 0.07 0.22 0.29 0.34 0.38
## theta_0[24,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[24,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_0[24,3] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_0[24,4] 0.30 0.00 0.06 0.19 0.26 0.30 0.34
## theta_0[24,5] 0.42 0.00 0.07 0.29 0.37 0.41 0.46
## theta_1[1,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[1,2] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_1[1,3] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_1[1,4] 0.32 0.00 0.06 0.20 0.28 0.32 0.36
## theta_1[1,5] 0.38 0.00 0.07 0.25 0.33 0.38 0.42
## theta_1[2,1] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_1[2,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[2,3] 0.17 0.00 0.05 0.08 0.13 0.17 0.20
## theta_1[2,4] 0.36 0.00 0.06 0.24 0.31 0.36 0.40
## theta_1[2,5] 0.26 0.00 0.06 0.16 0.22 0.26 0.30
## theta_1[3,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[3,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[3,3] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_1[3,4] 0.19 0.00 0.05 0.10 0.15 0.19 0.22
## theta_1[3,5] 0.51 0.00 0.07 0.38 0.46 0.51 0.56
## theta_1[4,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[4,2] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_1[4,3] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_1[4,4] 0.34 0.00 0.06 0.22 0.29 0.34 0.38
## theta_1[4,5] 0.38 0.00 0.07 0.25 0.33 0.38 0.42
## theta_1[5,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[5,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[5,3] 0.17 0.00 0.05 0.08 0.13 0.16 0.20
## theta_1[5,4] 0.32 0.00 0.06 0.20 0.28 0.32 0.36
## theta_1[5,5] 0.32 0.00 0.06 0.20 0.28 0.32 0.36
## theta_1[6,1] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_1[6,2] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_1[6,3] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_1[6,4] 0.23 0.00 0.06 0.12 0.19 0.22 0.26
## theta_1[6,5] 0.45 0.00 0.07 0.32 0.41 0.45 0.50
## theta_1[7,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[7,2] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_1[7,3] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[7,4] 0.19 0.00 0.05 0.10 0.15 0.18 0.22
## theta_1[7,5] 0.53 0.00 0.07 0.39 0.48 0.53 0.57
## theta_1[8,1] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_1[8,2] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_1[8,3] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_1[8,4] 0.26 0.00 0.06 0.16 0.22 0.26 0.30
## theta_1[8,5] 0.42 0.00 0.07 0.29 0.37 0.41 0.46
## theta_1[9,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[9,2] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_1[9,3] 0.23 0.00 0.06 0.13 0.19 0.22 0.26
## theta_1[9,4] 0.34 0.00 0.07 0.22 0.30 0.34 0.38
## theta_1[9,5] 0.24 0.00 0.06 0.14 0.20 0.24 0.28
## theta_1[10,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[10,2] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_1[10,3] 0.21 0.00 0.06 0.11 0.17 0.20 0.24
## theta_1[10,4] 0.38 0.00 0.07 0.25 0.33 0.38 0.42
## theta_1[10,5] 0.21 0.00 0.06 0.11 0.17 0.20 0.24
## theta_1[11,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[11,2] 0.13 0.00 0.05 0.06 0.10 0.13 0.16
## theta_1[11,3] 0.13 0.00 0.05 0.06 0.10 0.13 0.16
## theta_1[11,4] 0.40 0.00 0.07 0.27 0.35 0.40 0.44
## theta_1[11,5] 0.25 0.00 0.06 0.14 0.20 0.24 0.28
## theta_1[12,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[12,2] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_1[12,3] 0.15 0.00 0.05 0.07 0.12 0.15 0.18
## theta_1[12,4] 0.40 0.00 0.06 0.27 0.35 0.39 0.44
## theta_1[12,5] 0.25 0.00 0.06 0.14 0.20 0.24 0.28
## theta_1[13,1] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_1[13,2] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_1[13,3] 0.19 0.00 0.05 0.09 0.15 0.18 0.22
## theta_1[13,4] 0.42 0.00 0.07 0.29 0.37 0.42 0.46
## theta_1[13,5] 0.19 0.00 0.05 0.10 0.15 0.18 0.22
## theta_1[14,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[14,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[14,3] 0.17 0.00 0.05 0.08 0.13 0.17 0.20
## theta_1[14,4] 0.30 0.00 0.06 0.18 0.26 0.30 0.34
## theta_1[14,5] 0.34 0.00 0.06 0.22 0.30 0.34 0.38
## theta_1[15,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[15,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[15,3] 0.17 0.00 0.05 0.08 0.13 0.17 0.20
## theta_1[15,4] 0.30 0.00 0.06 0.19 0.26 0.30 0.34
## theta_1[15,5] 0.34 0.00 0.06 0.22 0.29 0.34 0.38
## theta_1[16,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[16,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[16,3] 0.17 0.00 0.05 0.08 0.13 0.16 0.20
## theta_1[16,4] 0.34 0.00 0.06 0.22 0.29 0.34 0.38
## theta_1[16,5] 0.30 0.00 0.06 0.19 0.26 0.30 0.34
## theta_1[17,1] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_1[17,2] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_1[17,3] 0.23 0.00 0.06 0.13 0.19 0.22 0.26
## theta_1[17,4] 0.28 0.00 0.06 0.17 0.24 0.28 0.32
## theta_1[17,5] 0.28 0.00 0.06 0.17 0.24 0.28 0.32
## theta_1[18,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[18,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[18,3] 0.15 0.00 0.05 0.07 0.12 0.15 0.18
## theta_1[18,4] 0.25 0.00 0.06 0.14 0.20 0.24 0.28
## theta_1[18,5] 0.42 0.00 0.07 0.29 0.37 0.41 0.46
## theta_1[19,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[19,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[19,3] 0.13 0.00 0.05 0.05 0.10 0.13 0.16
## theta_1[19,4] 0.25 0.00 0.06 0.14 0.20 0.24 0.28
## theta_1[19,5] 0.43 0.00 0.07 0.31 0.39 0.43 0.48
## theta_1[20,1] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_1[20,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[20,3] 0.21 0.00 0.06 0.11 0.17 0.20 0.24
## theta_1[20,4] 0.34 0.00 0.06 0.22 0.29 0.34 0.38
## theta_1[20,5] 0.26 0.00 0.06 0.16 0.22 0.26 0.30
## theta_1[21,1] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_1[21,2] 0.11 0.00 0.04 0.04 0.08 0.11 0.14
## theta_1[21,3] 0.17 0.00 0.05 0.08 0.13 0.17 0.20
## theta_1[21,4] 0.38 0.00 0.07 0.25 0.33 0.38 0.42
## theta_1[21,5] 0.25 0.00 0.06 0.14 0.20 0.24 0.28
## theta_1[22,1] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_1[22,2] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_1[22,3] 0.17 0.00 0.05 0.08 0.13 0.17 0.20
## theta_1[22,4] 0.32 0.00 0.06 0.20 0.27 0.32 0.36
## theta_1[22,5] 0.32 0.00 0.06 0.20 0.28 0.32 0.36
## theta_1[23,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[23,2] 0.09 0.00 0.04 0.03 0.06 0.09 0.12
## theta_1[23,3] 0.17 0.00 0.05 0.08 0.13 0.17 0.20
## theta_1[23,4] 0.38 0.00 0.07 0.25 0.33 0.38 0.42
## theta_1[23,5] 0.26 0.00 0.06 0.16 0.22 0.26 0.30
## theta_1[24,1] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[24,2] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[24,3] 0.09 0.00 0.04 0.03 0.07 0.09 0.12
## theta_1[24,4] 0.34 0.00 0.06 0.22 0.30 0.34 0.38
## theta_1[24,5] 0.38 0.00 0.06 0.25 0.33 0.38 0.42
## pred[1] 0.97 0.00 0.05 0.85 0.97 0.99 0.99
## pred[2] 0.97 0.00 0.05 0.85 0.97 0.99 1.00
## pred[3] 0.97 0.00 0.05 0.85 0.97 0.99 0.99
## pred[4] 0.27 0.00 0.24 0.01 0.08 0.20 0.42
## pred[5] 0.86 0.00 0.18 0.32 0.82 0.94 0.98
## pred[6] 0.61 0.00 0.27 0.08 0.39 0.65 0.85
## pred[7] 0.97 0.00 0.06 0.81 0.96 0.98 0.99
## pred[8] 0.86 0.00 0.19 0.30 0.81 0.94 0.98
## pred[9] 0.48 0.00 0.26 0.05 0.26 0.47 0.70
## pred[10] 0.62 0.00 0.27 0.08 0.42 0.67 0.86
## pred[11] 0.11 0.00 0.13 0.00 0.02 0.06 0.15
## pred[12] 0.97 0.00 0.04 0.86 0.97 0.99 1.00
## pred[13] 0.97 0.00 0.05 0.85 0.97 0.99 0.99
## pred[14] 0.91 0.00 0.12 0.55 0.89 0.96 0.98
## pred[15] 0.44 0.00 0.27 0.03 0.20 0.41 0.66
## pred[16] 0.47 0.00 0.27 0.05 0.24 0.46 0.70
## pred[17] 0.97 0.00 0.05 0.85 0.97 0.99 0.99
## pred[18] 0.61 0.00 0.27 0.08 0.39 0.65 0.84
## pred[19] 0.23 0.00 0.22 0.01 0.05 0.14 0.34
## pred[20] 0.86 0.00 0.18 0.34 0.81 0.93 0.98
## pred[21] 0.08 0.00 0.11 0.00 0.01 0.04 0.10
## pred[22] 0.87 0.00 0.17 0.37 0.82 0.93 0.98
## pred[23] 0.83 0.00 0.17 0.36 0.76 0.89 0.95
## pred[24] 0.17 0.00 0.20 0.00 0.03 0.09 0.25
## pred[25] 0.84 0.00 0.16 0.40 0.79 0.90 0.96
## pred[26] 0.66 0.00 0.24 0.14 0.49 0.72 0.87
## pred[27] 0.21 0.00 0.21 0.01 0.05 0.13 0.31
## pred[28] 0.97 0.00 0.05 0.85 0.97 0.99 0.99
## pred[29] 0.15 0.00 0.17 0.00 0.03 0.08 0.20
## pred[30] 0.14 0.00 0.18 0.00 0.02 0.07 0.19
## pred[31] 0.21 0.00 0.19 0.01 0.06 0.14 0.30
## pred[32] 0.12 0.00 0.14 0.00 0.03 0.07 0.16
## pred[33] 0.60 0.00 0.24 0.11 0.41 0.63 0.81
## pred[34] 0.07 0.00 0.10 0.00 0.01 0.03 0.09
## pred[35] 0.10 0.00 0.15 0.00 0.01 0.03 0.11
## pred[36] 0.19 0.00 0.21 0.00 0.03 0.11 0.27
## pred[37] 0.20 0.00 0.20 0.01 0.05 0.13 0.29
## pred[38] 0.11 0.00 0.13 0.00 0.02 0.06 0.15
## pred[39] 0.30 0.00 0.30 0.00 0.05 0.19 0.51
## pred[40] 0.12 0.00 0.16 0.00 0.02 0.05 0.15
## pred[41] 0.85 0.00 0.15 0.42 0.80 0.91 0.96
## pred[42] 0.14 0.00 0.19 0.00 0.02 0.06 0.18
## pred[43] 0.61 0.00 0.25 0.11 0.42 0.65 0.83
## pred[44] 0.08 0.00 0.12 0.00 0.02 0.04 0.10
## pred[45] 0.17 0.00 0.20 0.00 0.03 0.09 0.24
## pred[46] 0.97 0.00 0.05 0.85 0.97 0.99 0.99
## pred[47] 0.71 0.00 0.21 0.22 0.58 0.77 0.89
## pred[48] 0.12 0.00 0.15 0.00 0.02 0.06 0.15
## pred[49] 0.74 0.00 0.22 0.20 0.61 0.81 0.92
## pred[50] 0.13 0.00 0.18 0.00 0.02 0.06 0.17
## pred[51] 0.20 0.00 0.19 0.01 0.06 0.14 0.29
## pred[52] 0.97 0.00 0.05 0.85 0.97 0.99 0.99
## pred[53] 0.97 0.00 0.05 0.85 0.97 0.99 0.99
## pred[54] 0.31 0.00 0.23 0.02 0.12 0.25 0.46
## pred[55] 0.46 0.00 0.27 0.04 0.22 0.44 0.68
## pred[56] 0.61 0.00 0.25 0.11 0.42 0.65 0.83
## new_pred[1] 0.14 0.00 0.16 0.00 0.03 0.07 0.19
## new_pred[2] 0.80 0.00 0.19 0.28 0.71 0.86 0.94
## new_pred[3] 0.14 0.00 0.18 0.00 0.02 0.07 0.19
## new_pred[4] 0.05 0.00 0.09 0.00 0.01 0.02 0.06
## new_pred[5] 0.47 0.00 0.29 0.03 0.21 0.45 0.72
## new_pred[6] 0.19 0.00 0.21 0.00 0.03 0.10 0.27
## new_pred[7] 0.73 0.00 0.22 0.19 0.60 0.80 0.91
## new_pred[8] 0.53 0.00 0.28 0.05 0.29 0.54 0.77
## new_pred[9] 0.05 0.00 0.09 0.00 0.01 0.02 0.06
## new_pred[10] 0.52 0.00 0.26 0.07 0.30 0.53 0.75
## new_pred[11] 0.31 0.00 0.23 0.02 0.12 0.25 0.47
## new_pred[12] 0.08 0.00 0.12 0.00 0.01 0.03 0.09
## new_pred[13] 0.05 0.00 0.09 0.00 0.01 0.02 0.06
## new_pred[14] 0.24 0.00 0.22 0.01 0.06 0.17 0.37
## new_pred[15] 0.96 0.00 0.06 0.79 0.95 0.98 0.99
## new_pred[16] 0.12 0.00 0.15 0.00 0.02 0.06 0.16
## new_pred[17] 0.90 0.00 0.12 0.55 0.88 0.95 0.98
## new_pred[18] 0.90 0.00 0.13 0.52 0.86 0.94 0.98
## new_pred[19] 0.52 0.00 0.25 0.08 0.32 0.53 0.73
## new_pred[20] 0.95 0.00 0.07 0.74 0.94 0.98 0.99
## new_pred[21] 0.26 0.00 0.23 0.01 0.08 0.19 0.40
## new_pred[22] 0.24 0.00 0.23 0.01 0.06 0.16 0.37
## new_pred[23] 0.65 0.00 0.23 0.15 0.49 0.70 0.85
## new_pred[24] 0.13 0.00 0.18 0.00 0.01 0.05 0.17
## new_pred[25] 0.50 0.00 0.26 0.06 0.28 0.49 0.71
## new_pred[26] 0.44 0.00 0.31 0.02 0.16 0.41 0.72
## new_pred[27] 0.26 0.00 0.22 0.01 0.09 0.20 0.39
## new_pred[28] 0.61 0.00 0.24 0.13 0.43 0.64 0.81
## new_pred[29] 0.55 0.00 0.26 0.08 0.34 0.58 0.78
## new_pred[30] 0.42 0.00 0.26 0.04 0.20 0.39 0.62
## new_pred[31] 0.95 0.00 0.07 0.74 0.94 0.98 0.99
## new_pred[32] 0.90 0.00 0.13 0.49 0.87 0.95 0.98
## new_pred[33] 0.09 0.00 0.14 0.00 0.01 0.04 0.11
## new_pred[34] 0.07 0.00 0.10 0.00 0.01 0.03 0.08
## new_pred[35] 0.14 0.00 0.15 0.01 0.04 0.09 0.20
## new_pred[36] 0.38 0.00 0.26 0.03 0.16 0.34 0.58
## new_pred[37] 0.20 0.00 0.19 0.01 0.06 0.14 0.29
## new_pred[38] 0.18 0.00 0.17 0.01 0.05 0.12 0.25
## new_pred[39] 0.26 0.00 0.22 0.02 0.09 0.20 0.39
## new_pred[40] 0.67 0.00 0.25 0.12 0.50 0.74 0.89
## new_pred[41] 0.54 0.00 0.28 0.05 0.30 0.55 0.79
## new_pred[42] 0.16 0.00 0.19 0.00 0.03 0.09 0.23
## new_pred[43] 0.11 0.00 0.16 0.00 0.02 0.05 0.14
## new_pred[44] 0.13 0.00 0.18 0.00 0.02 0.05 0.17
## new_pred[45] 0.16 0.00 0.23 0.00 0.01 0.05 0.21
## new_pred[46] 0.11 0.00 0.14 0.00 0.02 0.05 0.14
## new_pred[47] 0.95 0.00 0.07 0.74 0.94 0.97 0.99
## new_pred[48] 0.97 0.00 0.05 0.85 0.97 0.99 0.99
## new_pred[49] 0.84 0.00 0.17 0.36 0.78 0.90 0.96
## new_pred[50] 0.35 0.00 0.26 0.02 0.13 0.29 0.53
## new_pred[51] 0.31 0.00 0.23 0.02 0.12 0.26 0.46
## new_pred[52] 0.97 0.00 0.05 0.85 0.97 0.99 0.99
## new_pred[53] 0.74 0.00 0.23 0.16 0.61 0.81 0.92
## new_pred[54] 0.81 0.00 0.19 0.29 0.72 0.87 0.95
## new_pred[55] 0.74 0.00 0.23 0.16 0.61 0.81 0.92
## new_pred[56] 0.74 0.00 0.23 0.16 0.61 0.81 0.92
## lp__ -3767.15 0.16 10.13 -3788.15 -3773.62 -3766.85 -3760.09
## 97.5% n_eff Rhat
## theta_0[1,1] 0.19 27247 1
## theta_0[1,2] 0.19 25118 1
## theta_0[1,3] 0.21 30807 1
## theta_0[1,4] 0.37 25959 1
## theta_0[1,5] 0.59 27682 1
## theta_0[2,1] 0.21 27077 1
## theta_0[2,2] 0.19 27900 1
## theta_0[2,3] 0.26 25552 1
## theta_0[2,4] 0.43 28921 1
## theta_0[2,5] 0.47 27186 1
## theta_0[3,1] 0.19 24982 1
## theta_0[3,2] 0.19 25872 1
## theta_0[3,3] 0.19 26218 1
## theta_0[3,4] 0.41 28442 1
## theta_0[3,5] 0.57 28567 1
## theta_0[4,1] 0.19 27268 1
## theta_0[4,2] 0.21 27847 1
## theta_0[4,3] 0.28 28676 1
## theta_0[4,4] 0.43 27142 1
## theta_0[4,5] 0.45 29226 1
## theta_0[5,1] 0.23 28535 1
## theta_0[5,2] 0.21 27228 1
## theta_0[5,3] 0.35 29591 1
## theta_0[5,4] 0.30 26157 1
## theta_0[5,5] 0.47 26714 1
## theta_0[6,1] 0.21 25453 1
## theta_0[6,2] 0.18 30030 1
## theta_0[6,3] 0.21 24902 1
## theta_0[6,4] 0.33 26966 1
## theta_0[6,5] 0.60 25779 1
## theta_0[7,1] 0.19 29327 1
## theta_0[7,2] 0.18 24701 1
## theta_0[7,3] 0.18 23665 1
## theta_0[7,4] 0.26 26073 1
## theta_0[7,5] 0.70 27938 1
## theta_0[8,1] 0.21 24763 1
## theta_0[8,2] 0.18 27180 1
## theta_0[8,3] 0.24 27460 1
## theta_0[8,4] 0.35 29276 1
## theta_0[8,5] 0.57 28628 1
## theta_0[9,1] 0.18 26661 1
## theta_0[9,2] 0.19 29586 1
## theta_0[9,3] 0.33 26445 1
## theta_0[9,4] 0.49 27226 1
## theta_0[9,5] 0.37 24940 1
## theta_0[10,1] 0.18 27349 1
## theta_0[10,2] 0.18 25902 1
## theta_0[10,3] 0.37 29711 1
## theta_0[10,4] 0.45 29270 1
## theta_0[10,5] 0.37 29670 1
## theta_0[11,1] 0.18 28278 1
## theta_0[11,2] 0.21 25846 1
## theta_0[11,3] 0.33 30176 1
## theta_0[11,4] 0.41 29223 1
## theta_0[11,5] 0.43 30922 1
## theta_0[12,1] 0.19 26213 1
## theta_0[12,2] 0.18 26138 1
## theta_0[12,3] 0.26 27443 1
## theta_0[12,4] 0.49 30285 1
## theta_0[12,5] 0.43 27167 1
## theta_0[13,1] 0.18 24960 1
## theta_0[13,2] 0.18 27061 1
## theta_0[13,3] 0.26 29936 1
## theta_0[13,4] 0.47 27624 1
## theta_0[13,5] 0.45 29174 1
## theta_0[14,1] 0.19 29096 1
## theta_0[14,2] 0.21 26797 1
## theta_0[14,3] 0.26 27322 1
## theta_0[14,4] 0.41 27202 1
## theta_0[14,5] 0.49 29991 1
## theta_0[15,1] 0.18 24932 1
## theta_0[15,2] 0.18 28048 1
## theta_0[15,3] 0.23 30290 1
## theta_0[15,4] 0.43 29001 1
## theta_0[15,5] 0.51 29610 1
## theta_0[16,1] 0.18 24315 1
## theta_0[16,2] 0.19 26994 1
## theta_0[16,3] 0.21 26802 1
## theta_0[16,4] 0.43 31794 1
## theta_0[16,5] 0.53 29646 1
## theta_0[17,1] 0.18 26672 1
## theta_0[17,2] 0.18 27383 1
## theta_0[17,3] 0.28 27848 1
## theta_0[17,4] 0.35 27541 1
## theta_0[17,5] 0.55 30888 1
## theta_0[18,1] 0.18 26214 1
## theta_0[18,2] 0.19 23442 1
## theta_0[18,3] 0.21 26467 1
## theta_0[18,4] 0.35 26806 1
## theta_0[18,5] 0.61 25479 1
## theta_0[19,1] 0.19 26579 1
## theta_0[19,2] 0.19 27140 1
## theta_0[19,3] 0.18 27583 1
## theta_0[19,4] 0.35 28301 1
## theta_0[19,5] 0.62 27909 1
## theta_0[20,1] 0.18 25440 1
## theta_0[20,2] 0.19 29027 1
## theta_0[20,3] 0.26 26654 1
## theta_0[20,4] 0.35 29784 1
## theta_0[20,5] 0.57 27863 1
## theta_0[21,1] 0.19 27365 1
## theta_0[21,2] 0.19 24300 1
## theta_0[21,3] 0.23 24463 1
## theta_0[21,4] 0.41 28296 1
## theta_0[21,5] 0.53 28092 1
## theta_0[22,1] 0.19 26517 1
## theta_0[22,2] 0.18 26413 1
## theta_0[22,3] 0.21 26982 1
## theta_0[22,4] 0.32 26234 1
## theta_0[22,5] 0.62 23987 1
## theta_0[23,1] 0.18 25592 1
## theta_0[23,2] 0.19 26469 1
## theta_0[23,3] 0.21 26853 1
## theta_0[23,4] 0.49 25189 1
## theta_0[23,5] 0.47 26835 1
## theta_0[24,1] 0.18 26761 1
## theta_0[24,2] 0.19 27228 1
## theta_0[24,3] 0.18 23490 1
## theta_0[24,4] 0.43 29482 1
## theta_0[24,5] 0.55 28827 1
## theta_1[1,1] 0.19 26590 1
## theta_1[1,2] 0.19 26594 1
## theta_1[1,3] 0.21 25999 1
## theta_1[1,4] 0.45 30748 1
## theta_1[1,5] 0.51 28105 1
## theta_1[2,1] 0.21 26926 1
## theta_1[2,2] 0.18 27358 1
## theta_1[2,3] 0.28 25692 1
## theta_1[2,4] 0.49 26670 1
## theta_1[2,5] 0.39 27961 1
## theta_1[3,1] 0.18 27434 1
## theta_1[3,2] 0.18 26406 1
## theta_1[3,3] 0.21 27285 1
## theta_1[3,4] 0.30 25657 1
## theta_1[3,5] 0.64 25656 1
## theta_1[4,1] 0.18 25056 1
## theta_1[4,2] 0.19 26611 1
## theta_1[4,3] 0.19 25008 1
## theta_1[4,4] 0.47 28684 1
## theta_1[4,5] 0.51 28286 1
## theta_1[5,1] 0.18 24944 1
## theta_1[5,2] 0.19 28019 1
## theta_1[5,3] 0.28 29904 1
## theta_1[5,4] 0.45 27128 1
## theta_1[5,5] 0.45 27204 1
## theta_1[6,1] 0.19 27738 1
## theta_1[6,2] 0.21 25481 1
## theta_1[6,3] 0.21 27124 1
## theta_1[6,4] 0.35 29352 1
## theta_1[6,5] 0.59 29007 1
## theta_1[7,1] 0.19 26076 1
## theta_1[7,2] 0.19 24753 1
## theta_1[7,3] 0.19 29045 1
## theta_1[7,4] 0.30 31655 1
## theta_1[7,5] 0.66 26121 1
## theta_1[8,1] 0.19 28294 1
## theta_1[8,2] 0.21 28474 1
## theta_1[8,3] 0.21 27005 1
## theta_1[8,4] 0.39 29214 1
## theta_1[8,5] 0.55 29069 1
## theta_1[9,1] 0.18 29717 1
## theta_1[9,2] 0.18 27005 1
## theta_1[9,3] 0.35 30266 1
## theta_1[9,4] 0.47 27964 1
## theta_1[9,5] 0.37 26042 1
## theta_1[10,1] 0.19 26487 1
## theta_1[10,2] 0.21 29268 1
## theta_1[10,3] 0.32 28229 1
## theta_1[10,4] 0.51 30701 1
## theta_1[10,5] 0.32 28522 1
## theta_1[11,1] 0.18 29771 1
## theta_1[11,2] 0.23 27059 1
## theta_1[11,3] 0.23 26699 1
## theta_1[11,4] 0.53 28830 1
## theta_1[11,5] 0.37 28032 1
## theta_1[12,1] 0.19 26924 1
## theta_1[12,2] 0.21 26970 1
## theta_1[12,3] 0.26 28731 1
## theta_1[12,4] 0.53 26039 1
## theta_1[12,5] 0.37 28074 1
## theta_1[13,1] 0.18 26981 1
## theta_1[13,2] 0.21 29562 1
## theta_1[13,3] 0.31 29041 1
## theta_1[13,4] 0.55 32413 1
## theta_1[13,5] 0.31 28170 1
## theta_1[14,1] 0.19 26700 1
## theta_1[14,2] 0.18 25801 1
## theta_1[14,3] 0.28 30451 1
## theta_1[14,4] 0.43 27287 1
## theta_1[14,5] 0.47 27891 1
## theta_1[15,1] 0.19 26836 1
## theta_1[15,2] 0.19 29013 1
## theta_1[15,3] 0.28 26840 1
## theta_1[15,4] 0.43 28824 1
## theta_1[15,5] 0.47 30774 1
## theta_1[16,1] 0.18 28612 1
## theta_1[16,2] 0.19 25329 1
## theta_1[16,3] 0.28 27663 1
## theta_1[16,4] 0.47 30368 1
## theta_1[16,5] 0.43 26998 1
## theta_1[17,1] 0.18 26531 1
## theta_1[17,2] 0.21 29333 1
## theta_1[17,3] 0.35 30495 1
## theta_1[17,4] 0.41 26787 1
## theta_1[17,5] 0.41 28053 1
## theta_1[18,1] 0.18 27411 1
## theta_1[18,2] 0.19 24612 1
## theta_1[18,3] 0.25 28496 1
## theta_1[18,4] 0.37 30482 1
## theta_1[18,5] 0.54 28449 1
## theta_1[19,1] 0.18 29666 1
## theta_1[19,2] 0.18 26721 1
## theta_1[19,3] 0.24 28682 1
## theta_1[19,4] 0.37 31935 1
## theta_1[19,5] 0.56 30569 1
## theta_1[20,1] 0.18 26448 1
## theta_1[20,2] 0.18 25722 1
## theta_1[20,3] 0.32 28339 1
## theta_1[20,4] 0.47 25560 1
## theta_1[20,5] 0.38 26620 1
## theta_1[21,1] 0.18 28816 1
## theta_1[21,2] 0.21 28299 1
## theta_1[21,3] 0.28 30910 1
## theta_1[21,4] 0.51 28794 1
## theta_1[21,5] 0.37 27802 1
## theta_1[22,1] 0.19 27029 1
## theta_1[22,2] 0.19 29494 1
## theta_1[22,3] 0.28 27547 1
## theta_1[22,4] 0.45 26914 1
## theta_1[22,5] 0.45 26663 1
## theta_1[23,1] 0.18 27892 1
## theta_1[23,2] 0.18 27592 1
## theta_1[23,3] 0.28 26445 1
## theta_1[23,4] 0.51 26969 1
## theta_1[23,5] 0.39 28694 1
## theta_1[24,1] 0.19 28858 1
## theta_1[24,2] 0.19 27111 1
## theta_1[24,3] 0.19 26072 1
## theta_1[24,4] 0.47 27668 1
## theta_1[24,5] 0.51 30816 1
## pred[1] 1.00 10434 1
## pred[2] 1.00 9795 1
## pred[3] 1.00 10434 1
## pred[4] 0.84 18922 1
## pred[5] 1.00 12955 1
## pred[6] 0.98 20481 1
## pred[7] 1.00 10552 1
## pred[8] 1.00 13647 1
## pred[9] 0.93 26525 1
## pred[10] 0.98 22817 1
## pred[11] 0.52 12696 1
## pred[12] 1.00 9788 1
## pred[13] 1.00 10434 1
## pred[14] 1.00 11566 1
## pred[15] 0.93 26668 1
## pred[16] 0.94 26051 1
## pred[17] 1.00 10434 1
## pred[18] 0.98 22650 1
## pred[19] 0.80 16153 1
## pred[20] 1.00 13675 1
## pred[21] 0.41 10808 1
## pred[22] 1.00 12783 1
## pred[23] 0.99 15360 1
## pred[24] 0.74 14077 1
## pred[25] 0.99 13873 1
## pred[26] 0.98 20701 1
## pred[27] 0.77 15148 1
## pred[28] 1.00 10434 1
## pred[29] 0.67 12593 1
## pred[30] 0.66 12113 1
## pred[31] 0.72 15904 1
## pred[32] 0.55 12497 1
## pred[33] 0.96 26668 1
## pred[34] 0.39 10765 1
## pred[35] 0.59 11161 1
## pred[36] 0.78 14662 1
## pred[37] 0.73 15471 1
## pred[38] 0.51 12656 1
## pred[39] 0.95 16171 1
## pred[40] 0.62 11279 1
## pred[41] 0.99 14557 1
## pred[42] 0.71 13042 1
## pred[43] 0.97 25549 1
## pred[44] 0.44 11366 1
## pred[45] 0.75 12410 1
## pred[46] 1.00 10434 1
## pred[47] 0.98 21378 1
## pred[48] 0.56 12253 1
## pred[49] 0.99 17373 1
## pred[50] 0.69 11823 1
## pred[51] 0.71 17334 1
## pred[52] 1.00 10434 1
## pred[53] 1.00 10434 1
## pred[54] 0.82 20983 1
## pred[55] 0.94 28855 1
## pred[56] 0.97 25549 1
## new_pred[1] 0.62 12379 1
## new_pred[2] 0.99 15640 1
## new_pred[3] 0.69 11975 1
## new_pred[4] 0.31 9945 1
## new_pred[5] 0.96 24683 1
## new_pred[6] 0.77 12963 1
## new_pred[7] 0.98 19574 1
## new_pred[8] 0.96 26702 1
## new_pred[9] 0.31 9945 1
## new_pred[10] 0.95 26653 1
## new_pred[11] 0.85 21204 1
## new_pred[12] 0.46 10864 1
## new_pred[13] 0.31 9945 1
## new_pred[14] 0.81 17924 1
## new_pred[15] 1.00 10593 1
## new_pred[16] 0.58 12819 1
## new_pred[17] 1.00 12082 1
## new_pred[18] 1.00 12173 1
## new_pred[19] 0.93 27806 1
## new_pred[20] 1.00 10451 1
## new_pred[21] 0.83 17407 1
## new_pred[22] 0.82 16996 1
## new_pred[23] 0.97 22428 1
## new_pred[24] 0.70 10960 1
## new_pred[25] 0.94 27968 1
## new_pred[26] 0.97 23494 1
## new_pred[27] 0.80 18524 1
## new_pred[28] 0.96 25828 1
## new_pred[29] 0.96 25659 1
## new_pred[30] 0.91 26760 1
## new_pred[31] 1.00 10451 1
## new_pred[32] 1.00 11475 1
## new_pred[33] 0.54 11083 1
## new_pred[34] 0.39 10800 1
## new_pred[35] 0.57 14394 1
## new_pred[36] 0.91 25764 1
## new_pred[37] 0.70 15926 1
## new_pred[38] 0.66 15020 1
## new_pred[39] 0.79 18928 1
## new_pred[40] 0.98 22980 1
## new_pred[41] 0.97 29192 1
## new_pred[42] 0.70 13161 1
## new_pred[43] 0.60 11735 1
## new_pred[44] 0.68 11604 1
## new_pred[45] 0.83 10981 1
## new_pred[46] 0.55 11986 1
## new_pred[47] 1.00 10260 1
## new_pred[48] 1.00 10434 1
## new_pred[49] 0.99 13764 1
## new_pred[50] 0.89 23100 1
## new_pred[51] 0.84 20803 1
## new_pred[52] 1.00 10434 1
## new_pred[53] 0.99 18300 1
## new_pred[54] 0.99 14633 1
## new_pred[55] 0.99 18300 1
## new_pred[56] 0.99 18300 1
## lp__ -3748.26 3998 1
##
## Samples were drawn using NUTS(diag_e) at Sat Jan 23 20:03:16 2021.
## For each parameter, n_eff is a crude measure of effective sample size,
## and Rhat is the potential scale reduction factor on split chains (at
## convergence, Rhat=1).
menjalankan tracerplot untuk diagnostik.
traceplot(fit)
## 'pars' not specified. Showing first 10 parameters by default.
library(bayesplot)
## This is bayesplot version 1.8.0
## - Online documentation and vignettes at mc-stan.org/bayesplot
## - bayesplot theme set to bayesplot::theme_default()
## * Does _not_ affect other ggplot2 plots
## * See ?bayesplot_theme_set for details on theme setting
library(tidybayes)
Mendapatkan fit dengan parameter theta_0
print(fit, pars = "theta_0")
## Inference for Stan model: stan_categorical_responses.
## 24 chains, each with iter=1000; warmup=500; thin=1;
## post-warmup draws per chain=500, total post-warmup draws=12000.
##
## mean se_mean sd 2.5% 25% 50% 75% 97.5% n_eff Rhat
## theta_0[1,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 27247 1
## theta_0[1,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 25118 1
## theta_0[1,3] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 30807 1
## theta_0[1,4] 0.25 0 0.06 0.14 0.20 0.24 0.28 0.37 25959 1
## theta_0[1,5] 0.45 0 0.07 0.32 0.41 0.45 0.50 0.59 27682 1
## theta_0[2,1] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 27077 1
## theta_0[2,2] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.19 27900 1
## theta_0[2,3] 0.15 0 0.05 0.07 0.12 0.15 0.18 0.26 25552 1
## theta_0[2,4] 0.30 0 0.06 0.19 0.26 0.30 0.34 0.43 28921 1
## theta_0[2,5] 0.34 0 0.06 0.22 0.29 0.34 0.38 0.47 27186 1
## theta_0[3,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 24982 1
## theta_0[3,2] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.19 25872 1
## theta_0[3,3] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.19 26218 1
## theta_0[3,4] 0.28 0 0.06 0.17 0.24 0.28 0.32 0.41 28442 1
## theta_0[3,5] 0.43 0 0.07 0.30 0.39 0.43 0.48 0.57 28567 1
## theta_0[4,1] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.19 27268 1
## theta_0[4,2] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 27847 1
## theta_0[4,3] 0.17 0 0.05 0.08 0.13 0.17 0.20 0.28 28676 1
## theta_0[4,4] 0.30 0 0.06 0.19 0.26 0.30 0.34 0.43 27142 1
## theta_0[4,5] 0.32 0 0.06 0.20 0.28 0.32 0.36 0.45 29226 1
## theta_0[5,1] 0.13 0 0.05 0.06 0.10 0.13 0.16 0.23 28535 1
## theta_0[5,2] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 27228 1
## theta_0[5,3] 0.23 0 0.06 0.12 0.19 0.22 0.26 0.35 29591 1
## theta_0[5,4] 0.19 0 0.05 0.10 0.15 0.18 0.22 0.30 26157 1
## theta_0[5,5] 0.34 0 0.06 0.22 0.29 0.34 0.38 0.47 26714 1
## theta_0[6,1] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 25453 1
## theta_0[6,2] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.18 30030 1
## theta_0[6,3] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 24902 1
## theta_0[6,4] 0.21 0 0.06 0.11 0.17 0.20 0.24 0.33 26966 1
## theta_0[6,5] 0.47 0 0.07 0.34 0.42 0.47 0.52 0.60 25779 1
## theta_0[7,1] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.19 29327 1
## theta_0[7,2] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.18 24701 1
## theta_0[7,3] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 23665 1
## theta_0[7,4] 0.15 0 0.05 0.07 0.11 0.15 0.18 0.26 26073 1
## theta_0[7,5] 0.57 0 0.07 0.43 0.52 0.57 0.61 0.70 27938 1
## theta_0[8,1] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 24763 1
## theta_0[8,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 27180 1
## theta_0[8,3] 0.13 0 0.05 0.06 0.10 0.13 0.16 0.24 27460 1
## theta_0[8,4] 0.23 0 0.06 0.13 0.19 0.22 0.26 0.35 29276 1
## theta_0[8,5] 0.43 0 0.07 0.30 0.39 0.43 0.48 0.57 28628 1
## theta_0[9,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 26661 1
## theta_0[9,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 29586 1
## theta_0[9,3] 0.21 0 0.06 0.11 0.17 0.20 0.24 0.33 26445 1
## theta_0[9,4] 0.36 0 0.07 0.23 0.31 0.36 0.40 0.49 27226 1
## theta_0[9,5] 0.25 0 0.06 0.14 0.20 0.24 0.28 0.37 24940 1
## theta_0[10,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 27349 1
## theta_0[10,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 25902 1
## theta_0[10,3] 0.25 0 0.06 0.14 0.20 0.24 0.28 0.37 29711 1
## theta_0[10,4] 0.32 0 0.06 0.20 0.28 0.32 0.36 0.45 29270 1
## theta_0[10,5] 0.25 0 0.06 0.14 0.20 0.24 0.28 0.37 29670 1
## theta_0[11,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 28278 1
## theta_0[11,2] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 25846 1
## theta_0[11,3] 0.21 0 0.06 0.11 0.17 0.20 0.24 0.33 30176 1
## theta_0[11,4] 0.28 0 0.06 0.17 0.24 0.28 0.32 0.41 29223 1
## theta_0[11,5] 0.30 0 0.06 0.19 0.26 0.30 0.34 0.43 30922 1
## theta_0[12,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 26213 1
## theta_0[12,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 26138 1
## theta_0[12,3] 0.15 0 0.05 0.07 0.12 0.15 0.18 0.26 27443 1
## theta_0[12,4] 0.36 0 0.06 0.24 0.31 0.36 0.40 0.49 30285 1
## theta_0[12,5] 0.30 0 0.06 0.19 0.26 0.30 0.34 0.43 27167 1
## theta_0[13,1] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.18 24960 1
## theta_0[13,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 27061 1
## theta_0[13,3] 0.15 0 0.05 0.07 0.12 0.15 0.18 0.26 29936 1
## theta_0[13,4] 0.34 0 0.06 0.22 0.30 0.34 0.38 0.47 27624 1
## theta_0[13,5] 0.32 0 0.06 0.20 0.28 0.32 0.36 0.45 29174 1
## theta_0[14,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 29096 1
## theta_0[14,2] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 26797 1
## theta_0[14,3] 0.15 0 0.05 0.07 0.12 0.15 0.18 0.26 27322 1
## theta_0[14,4] 0.28 0 0.06 0.17 0.24 0.28 0.32 0.41 27202 1
## theta_0[14,5] 0.36 0 0.07 0.23 0.31 0.36 0.40 0.49 29991 1
## theta_0[15,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 24932 1
## theta_0[15,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 28048 1
## theta_0[15,3] 0.13 0 0.05 0.06 0.10 0.13 0.16 0.23 30290 1
## theta_0[15,4] 0.30 0 0.06 0.19 0.26 0.30 0.34 0.43 29001 1
## theta_0[15,5] 0.38 0 0.07 0.25 0.33 0.38 0.42 0.51 29610 1
## theta_0[16,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 24315 1
## theta_0[16,2] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.19 26994 1
## theta_0[16,3] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 26802 1
## theta_0[16,4] 0.30 0 0.06 0.19 0.26 0.30 0.35 0.43 31794 1
## theta_0[16,5] 0.40 0 0.07 0.27 0.35 0.39 0.44 0.53 29646 1
## theta_0[17,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 26672 1
## theta_0[17,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 27383 1
## theta_0[17,3] 0.17 0 0.05 0.08 0.13 0.17 0.20 0.28 27848 1
## theta_0[17,4] 0.23 0 0.06 0.12 0.19 0.22 0.26 0.35 27541 1
## theta_0[17,5] 0.41 0 0.07 0.29 0.37 0.41 0.46 0.55 30888 1
## theta_0[18,1] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.18 26214 1
## theta_0[18,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 23442 1
## theta_0[18,3] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 26467 1
## theta_0[18,4] 0.23 0 0.06 0.13 0.19 0.22 0.26 0.35 26806 1
## theta_0[18,5] 0.47 0 0.07 0.34 0.43 0.47 0.52 0.61 25479 1
## theta_0[19,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 26579 1
## theta_0[19,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 27140 1
## theta_0[19,3] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 27583 1
## theta_0[19,4] 0.23 0 0.06 0.13 0.19 0.22 0.26 0.35 28301 1
## theta_0[19,5] 0.49 0 0.07 0.36 0.44 0.49 0.54 0.62 27909 1
## theta_0[20,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 25440 1
## theta_0[20,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 29027 1
## theta_0[20,3] 0.15 0 0.05 0.07 0.12 0.15 0.18 0.26 26654 1
## theta_0[20,4] 0.23 0 0.06 0.13 0.19 0.22 0.26 0.35 29784 1
## theta_0[20,5] 0.43 0 0.07 0.30 0.39 0.43 0.48 0.57 27863 1
## theta_0[21,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 27365 1
## theta_0[21,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 24300 1
## theta_0[21,3] 0.13 0 0.05 0.06 0.10 0.13 0.16 0.23 24463 1
## theta_0[21,4] 0.28 0 0.06 0.17 0.24 0.28 0.32 0.41 28296 1
## theta_0[21,5] 0.40 0 0.07 0.27 0.35 0.39 0.44 0.53 28092 1
## theta_0[22,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 26517 1
## theta_0[22,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 26413 1
## theta_0[22,3] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 26982 1
## theta_0[22,4] 0.21 0 0.06 0.11 0.17 0.20 0.24 0.32 26234 1
## theta_0[22,5] 0.49 0 0.07 0.36 0.44 0.49 0.54 0.62 23987 1
## theta_0[23,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 25592 1
## theta_0[23,2] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.19 26469 1
## theta_0[23,3] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 26853 1
## theta_0[23,4] 0.36 0 0.07 0.24 0.31 0.36 0.40 0.49 25189 1
## theta_0[23,5] 0.34 0 0.07 0.22 0.29 0.34 0.38 0.47 26835 1
## theta_0[24,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 26761 1
## theta_0[24,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 27228 1
## theta_0[24,3] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.18 23490 1
## theta_0[24,4] 0.30 0 0.06 0.19 0.26 0.30 0.34 0.43 29482 1
## theta_0[24,5] 0.42 0 0.07 0.29 0.37 0.41 0.46 0.55 28827 1
##
## Samples were drawn using NUTS(diag_e) at Sat Jan 23 20:03:16 2021.
## For each parameter, n_eff is a crude measure of effective sample size,
## and Rhat is the potential scale reduction factor on split chains (at
## convergence, Rhat=1).
Mendapatkan fit dengan parameter theta_1
print(fit, pars = "theta_1")
## Inference for Stan model: stan_categorical_responses.
## 24 chains, each with iter=1000; warmup=500; thin=1;
## post-warmup draws per chain=500, total post-warmup draws=12000.
##
## mean se_mean sd 2.5% 25% 50% 75% 97.5% n_eff Rhat
## theta_1[1,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 26590 1
## theta_1[1,2] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.19 26594 1
## theta_1[1,3] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 25999 1
## theta_1[1,4] 0.32 0 0.06 0.20 0.28 0.32 0.36 0.45 30748 1
## theta_1[1,5] 0.38 0 0.07 0.25 0.33 0.38 0.42 0.51 28105 1
## theta_1[2,1] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 26926 1
## theta_1[2,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 27358 1
## theta_1[2,3] 0.17 0 0.05 0.08 0.13 0.17 0.20 0.28 25692 1
## theta_1[2,4] 0.36 0 0.06 0.24 0.31 0.36 0.40 0.49 26670 1
## theta_1[2,5] 0.26 0 0.06 0.16 0.22 0.26 0.30 0.39 27961 1
## theta_1[3,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 27434 1
## theta_1[3,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 26406 1
## theta_1[3,3] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 27285 1
## theta_1[3,4] 0.19 0 0.05 0.10 0.15 0.19 0.22 0.30 25657 1
## theta_1[3,5] 0.51 0 0.07 0.38 0.46 0.51 0.56 0.64 25656 1
## theta_1[4,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 25056 1
## theta_1[4,2] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.19 26611 1
## theta_1[4,3] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.19 25008 1
## theta_1[4,4] 0.34 0 0.06 0.22 0.29 0.34 0.38 0.47 28684 1
## theta_1[4,5] 0.38 0 0.07 0.25 0.33 0.38 0.42 0.51 28286 1
## theta_1[5,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 24944 1
## theta_1[5,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 28019 1
## theta_1[5,3] 0.17 0 0.05 0.08 0.13 0.16 0.20 0.28 29904 1
## theta_1[5,4] 0.32 0 0.06 0.20 0.28 0.32 0.36 0.45 27128 1
## theta_1[5,5] 0.32 0 0.06 0.20 0.28 0.32 0.36 0.45 27204 1
## theta_1[6,1] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.19 27738 1
## theta_1[6,2] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 25481 1
## theta_1[6,3] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 27124 1
## theta_1[6,4] 0.23 0 0.06 0.12 0.19 0.22 0.26 0.35 29352 1
## theta_1[6,5] 0.45 0 0.07 0.32 0.41 0.45 0.50 0.59 29007 1
## theta_1[7,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 26076 1
## theta_1[7,2] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.19 24753 1
## theta_1[7,3] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 29045 1
## theta_1[7,4] 0.19 0 0.05 0.10 0.15 0.18 0.22 0.30 31655 1
## theta_1[7,5] 0.53 0 0.07 0.39 0.48 0.53 0.57 0.66 26121 1
## theta_1[8,1] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.19 28294 1
## theta_1[8,2] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 28474 1
## theta_1[8,3] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 27005 1
## theta_1[8,4] 0.26 0 0.06 0.16 0.22 0.26 0.30 0.39 29214 1
## theta_1[8,5] 0.42 0 0.07 0.29 0.37 0.41 0.46 0.55 29069 1
## theta_1[9,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 29717 1
## theta_1[9,2] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.18 27005 1
## theta_1[9,3] 0.23 0 0.06 0.13 0.19 0.22 0.26 0.35 30266 1
## theta_1[9,4] 0.34 0 0.07 0.22 0.30 0.34 0.38 0.47 27964 1
## theta_1[9,5] 0.24 0 0.06 0.14 0.20 0.24 0.28 0.37 26042 1
## theta_1[10,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 26487 1
## theta_1[10,2] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 29268 1
## theta_1[10,3] 0.21 0 0.06 0.11 0.17 0.20 0.24 0.32 28229 1
## theta_1[10,4] 0.38 0 0.07 0.25 0.33 0.38 0.42 0.51 30701 1
## theta_1[10,5] 0.21 0 0.06 0.11 0.17 0.20 0.24 0.32 28522 1
## theta_1[11,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 29771 1
## theta_1[11,2] 0.13 0 0.05 0.06 0.10 0.13 0.16 0.23 27059 1
## theta_1[11,3] 0.13 0 0.05 0.06 0.10 0.13 0.16 0.23 26699 1
## theta_1[11,4] 0.40 0 0.07 0.27 0.35 0.40 0.44 0.53 28830 1
## theta_1[11,5] 0.25 0 0.06 0.14 0.20 0.24 0.28 0.37 28032 1
## theta_1[12,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 26924 1
## theta_1[12,2] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 26970 1
## theta_1[12,3] 0.15 0 0.05 0.07 0.12 0.15 0.18 0.26 28731 1
## theta_1[12,4] 0.40 0 0.06 0.27 0.35 0.39 0.44 0.53 26039 1
## theta_1[12,5] 0.25 0 0.06 0.14 0.20 0.24 0.28 0.37 28074 1
## theta_1[13,1] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.18 26981 1
## theta_1[13,2] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 29562 1
## theta_1[13,3] 0.19 0 0.05 0.09 0.15 0.18 0.22 0.31 29041 1
## theta_1[13,4] 0.42 0 0.07 0.29 0.37 0.42 0.46 0.55 32413 1
## theta_1[13,5] 0.19 0 0.05 0.10 0.15 0.18 0.22 0.31 28170 1
## theta_1[14,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 26700 1
## theta_1[14,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 25801 1
## theta_1[14,3] 0.17 0 0.05 0.08 0.13 0.17 0.20 0.28 30451 1
## theta_1[14,4] 0.30 0 0.06 0.18 0.26 0.30 0.34 0.43 27287 1
## theta_1[14,5] 0.34 0 0.06 0.22 0.30 0.34 0.38 0.47 27891 1
## theta_1[15,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 26836 1
## theta_1[15,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 29013 1
## theta_1[15,3] 0.17 0 0.05 0.08 0.13 0.17 0.20 0.28 26840 1
## theta_1[15,4] 0.30 0 0.06 0.19 0.26 0.30 0.34 0.43 28824 1
## theta_1[15,5] 0.34 0 0.06 0.22 0.29 0.34 0.38 0.47 30774 1
## theta_1[16,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 28612 1
## theta_1[16,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 25329 1
## theta_1[16,3] 0.17 0 0.05 0.08 0.13 0.16 0.20 0.28 27663 1
## theta_1[16,4] 0.34 0 0.06 0.22 0.29 0.34 0.38 0.47 30368 1
## theta_1[16,5] 0.30 0 0.06 0.19 0.26 0.30 0.34 0.43 26998 1
## theta_1[17,1] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.18 26531 1
## theta_1[17,2] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 29333 1
## theta_1[17,3] 0.23 0 0.06 0.13 0.19 0.22 0.26 0.35 30495 1
## theta_1[17,4] 0.28 0 0.06 0.17 0.24 0.28 0.32 0.41 26787 1
## theta_1[17,5] 0.28 0 0.06 0.17 0.24 0.28 0.32 0.41 28053 1
## theta_1[18,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 27411 1
## theta_1[18,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 24612 1
## theta_1[18,3] 0.15 0 0.05 0.07 0.12 0.15 0.18 0.25 28496 1
## theta_1[18,4] 0.25 0 0.06 0.14 0.20 0.24 0.28 0.37 30482 1
## theta_1[18,5] 0.42 0 0.07 0.29 0.37 0.41 0.46 0.54 28449 1
## theta_1[19,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 29666 1
## theta_1[19,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 26721 1
## theta_1[19,3] 0.13 0 0.05 0.05 0.10 0.13 0.16 0.24 28682 1
## theta_1[19,4] 0.25 0 0.06 0.14 0.20 0.24 0.28 0.37 31935 1
## theta_1[19,5] 0.43 0 0.07 0.31 0.39 0.43 0.48 0.56 30569 1
## theta_1[20,1] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.18 26448 1
## theta_1[20,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 25722 1
## theta_1[20,3] 0.21 0 0.06 0.11 0.17 0.20 0.24 0.32 28339 1
## theta_1[20,4] 0.34 0 0.06 0.22 0.29 0.34 0.38 0.47 25560 1
## theta_1[20,5] 0.26 0 0.06 0.16 0.22 0.26 0.30 0.38 26620 1
## theta_1[21,1] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.18 28816 1
## theta_1[21,2] 0.11 0 0.04 0.04 0.08 0.11 0.14 0.21 28299 1
## theta_1[21,3] 0.17 0 0.05 0.08 0.13 0.17 0.20 0.28 30910 1
## theta_1[21,4] 0.38 0 0.07 0.25 0.33 0.38 0.42 0.51 28794 1
## theta_1[21,5] 0.25 0 0.06 0.14 0.20 0.24 0.28 0.37 27802 1
## theta_1[22,1] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.19 27029 1
## theta_1[22,2] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.19 29494 1
## theta_1[22,3] 0.17 0 0.05 0.08 0.13 0.17 0.20 0.28 27547 1
## theta_1[22,4] 0.32 0 0.06 0.20 0.27 0.32 0.36 0.45 26914 1
## theta_1[22,5] 0.32 0 0.06 0.20 0.28 0.32 0.36 0.45 26663 1
## theta_1[23,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.18 27892 1
## theta_1[23,2] 0.09 0 0.04 0.03 0.06 0.09 0.12 0.18 27592 1
## theta_1[23,3] 0.17 0 0.05 0.08 0.13 0.17 0.20 0.28 26445 1
## theta_1[23,4] 0.38 0 0.07 0.25 0.33 0.38 0.42 0.51 26969 1
## theta_1[23,5] 0.26 0 0.06 0.16 0.22 0.26 0.30 0.39 28694 1
## theta_1[24,1] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 28858 1
## theta_1[24,2] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 27111 1
## theta_1[24,3] 0.09 0 0.04 0.03 0.07 0.09 0.12 0.19 26072 1
## theta_1[24,4] 0.34 0 0.06 0.22 0.30 0.34 0.38 0.47 27668 1
## theta_1[24,5] 0.38 0 0.06 0.25 0.33 0.38 0.42 0.51 30816 1
##
## Samples were drawn using NUTS(diag_e) at Sat Jan 23 20:03:16 2021.
## For each parameter, n_eff is a crude measure of effective sample size,
## and Rhat is the potential scale reduction factor on split chains (at
## convergence, Rhat=1).
Menjalankan Model .
Mengetahui MCMC pada model stan .
Mengetahui estimate pada model stan .
Kita dapat dengan cepat menghitung akurasi pada set pengujian menggunakan ambang prediksi sebesar 0,52 :
pred <- fit %>%
spread_draws(new_pred[i]) %>%
median_qi(new_pred[i]) %>%
mutate(.pred = if_else(`new_pred[i]` > 0.5, 0, 1))
acc <- round(mean(pred$.pred == Angket_Mahasiswa2_convert$y), 2)
cat("The classification accuracy is:", acc)
## The classification accuracy is: 0.52
Kita juga dapat melihat bagaimana tahap 0 dan tahap 1 berbeda dengan memplot theta_0 dan theta_1.
theta_0_draws <- fit %>%
spread_draws(theta_0[i, j])
theta_1_draws <- fit %>%
spread_draws(theta_1[i, j])
theta_draws <- theta_0_draws %>%
left_join(theta_1_draws)
## Joining, by = c("i", "j", ".chain", ".iteration", ".draw")
Akhir dari proses data adalah kita dapat memvisualisasikan probabilitas respons dengan pertanyaan dan kelas
theta_draws %>%
gather(group, theta, theta_0, theta_1) %>%
mutate(
group = if_else(group == "theta_0", "Group 0", "Group 1"),
question = i,
response = j
) %>%
ggplot(aes(theta, fill = group, color = group)) +
geom_density(alpha = 0.5) +
facet_grid(
rows = vars(question),
cols = vars(response)
) +
labs(
title = "Estimated probability of each response by question and group",
subtitle = "Columns correspond to response, rows to questions",
x = "Probability of response") +
theme(
legend.position = "none",
axis.text.y = element_blank(),
axis.ticks.y = element_blank(),
axis.text.x = element_text(angle = 45, vjust = 1, hjust=1))+
theme(panel.grid = element_blank(),
panel.background = element_rect(fill="white"))
Datanya adalah kita ngambil real dari mahasiswa aktif di UIN Maulana Malik Ibrahim Malang, ini adalah tanggapan aktual dari sebuah survei, mungkin ada sesuatu temuan baru dari visuaisasi diatas.
Daftar pustaka :