Implementasi Metode Estimasi MM dalam Regresi Robust: Studi Kasus pada Dataset Coffee Chain
Pendahuluan
Dalam analisis data bisnis, regresi linear merupakan salah satu metode statistik yang paling umum digunakan untuk memahami hubungan antara variabel-variabel prediktor dan variabel respons. Namun, regresi linear konvensional sangat sensitif terhadap pencilan (outlier) dan data yang tidak mengikuti asumsi distribusi normal. Dalam konteks dunia nyata, seperti pada data keuangan dan operasional perusahaan, pencilan seringkali tidak dapat dihindari. Oleh karena itu, metode regresi robust menjadi alternatif penting untuk menghasilkan estimasi yang lebih stabil dan andal.
Regresi robust adalah pendekatan yang dirancang untuk mengurangi pengaruh observasi ekstrem yang dapat merusak model regresi. Salah satu metode yang banyak digunakan dalam regresi robust adalah MM-estimator, yang menggabungkan efisiensi dan ketahanan terhadap outlier melalui tiga tahap: estimasi awal dengan S-estimator, skala robust, dan iterasi menggunakan fungsi kerugian redaman (M-estimation). MM-estimator memberikan hasil yang lebih konsisten dan dapat diandalkan dalam kondisi data yang mengandung noise tinggi atau deviasi dari asumsi klasik.
Studi ini menerapkan regresi robust dengan metode MM-estimator pada dataset Coffee Chain, yaitu kumpulan data yang merepresentasikan informasi penjualan, biaya, dan profitabilitas dari jaringan toko kopi. Dataset ini mencakup berbagai variabel, antara lain Product, Product Line, Product Type, State, Type, serta variabel kuantitatif seperti Budget COGS, Budget Sales, Marketing, Profit, dan Total Expenses. Kompleksitas dan keragaman data ini membuka potensi besar munculnya pencilan atau data yang tidak homogen.
Melalui implementasi regresi robust, penelitian ini bertujuan untuk mengevaluasi hubungan antara variabel-variabel biaya dan pemasaran dengan profitabilitas toko, tanpa dipengaruhi secara signifikan oleh pencilan. Dengan demikian, hasil analisis diharapkan dapat memberikan wawasan yang lebih akurat dan praktis bagi pengambilan keputusan bisnis dalam industri ritel makanan dan minuman.
Landasan Teori
Regresi Robust
Regresi robust merupakan teknik yang dirancang untuk mengatasi kelemahan regresi linear klasik terhadap pencilan dan pelanggaran asumsi distribusi normal. Salah satu estimator robust yang banyak digunakan adalah MM-estimator, yang dikembangkan oleh Yohai (1987). Estimator ini menggabungkan ketahanan tinggi terhadap outlier (breakdown point tinggi) dengan efisiensi tinggi pada distribusi normal.
MM-estimator bekerja dalam tiga tahap utama:
1. Tahap Pertama: Estimasi Awal (S-Estimator)
Langkah pertama adalah mencari estimasi parameter awal yang memiliki breakdown point tinggi. Ini dilakukan menggunakan S-estimator, yang didefinisikan sebagai solusi dari: \[\begin{equation} \hat{\boldsymbol{\beta}}_0 = \arg\min_{\boldsymbol{\beta}} \, \hat{\sigma}(\boldsymbol{\beta}) \end{equation}\] dengan \(\hat{\sigma}(\boldsymbol{\beta})\) diperoleh dari solusi persamaan:
\[\begin{equation} \frac{1}{n} \sum_{i=1}^n \rho\left( \frac{y_i - \mathbf{x}_i^\top \boldsymbol{\beta}}{\hat{\sigma}} \right) = \delta \end{equation}\] di mana:
\(\rho(\cdot)\) adalah fungsi redaman, seperti Tukey’s bisquare loss,
\(\delta\) adalah konstanta yang tergantung dari fungsi \(\rho\) dan mengontrol tingkat robustnes.
2. Tahap Kedua: Estimasi Skala Robust
Setelah \(\hat{\boldsymbol{\beta}}_0\) diperoleh, dilakukan perhitungan terhadap skala robust berdasarkan residual:
\[\begin{equation} r_i^{(0)} = y_i - \mathbf{x}_i^\top \hat{\boldsymbol{\beta}}_0 \end{equation}\]
dan skala \(\hat{\sigma}\) dihitung sebagai solusi dari:
\[\begin{equation} \frac{1}{n} \sum_{i=1}^n \rho\left( \frac{r_i^{(0)}}{\hat{\sigma}} \right) = \delta \end{equation}\] Skala ini akan digunakan dalam tahap selanjutnya sebagai bobot untuk memperbaiki efisiensi estimator.
3. Tahap Ketiga: Estimasi Akhir (M-Estimator)
Tahap akhir MM-estimator adalah melakukan estimasi parameter regresi dengan menggunakan M-estimator berbasis skala robust \(\hat{\sigma}\) dan awalan parameter \(\hat{\boldsymbol{\beta}}_0\). Tujuannya adalah meningkatkan efisiensi estimator.
Estimasi dilakukan dengan:
\[\begin{equation} \hat{\boldsymbol{\beta}} = \arg\min_{\boldsymbol{\beta}} \sum_{i=1}^n \rho_1\left( \frac{y_i - \mathbf{x}_i^\top \boldsymbol{\beta}}{\hat{\sigma}} \right) \end{equation}\]
atau dalam bentuk sistem persamaan:
\[\begin{equation} \sum_{i=1}^n \psi_1\left( \frac{y_i - \mathbf{x}_i^\top \boldsymbol{\beta}}{\hat{\sigma}} \right) \mathbf{x}_i = 0 \end{equation}\]
dengan \(\psi_1(u) = \frac{d}{du} \rho_1(u)\).
4. Fungsi Redaman dan Turunannya
Fungsi redaman \(\rho\) yang umum digunakan dalam MM-estimator adalah fungsi :
\[\begin{equation} \rho(u) = \begin{cases} \frac{c^2}{6} \left[1 - \left(1 - \left(\frac{u}{c}\right)^2\right)^3\right], & |u| \leq c \\ \frac{c^2}{6}, & |u| > c \end{cases} \end{equation}\]
Turunan dari fungsi ini, yang disebut fungsi \(\psi(u)\), adalah:
\[\begin{equation} \psi(u) = \begin{cases} u \left(1 - \left(\frac{u}{c}\right)^2\right)^2, & |u| \leq c \\ 0, & |u| > c \end{cases} \end{equation}\]
Pemilihan nilai \(c\) biasanya dilakukan untuk menyeimbangkan efisiensi dan robustnes. Sebagai contoh, \(c = 4.685\) memberikan efisiensi sekitar 95% pada distribusi normal.
5. Breakdown Point dan Efisiensi
- Breakdown point dari estimator MM bisa mencapai hingga 50% karena menggunakan S-estimator sebagai awalan.
- Efisiensi asimtotik dapat dikendalikan melalui pemilihan fungsi \(\rho\), dan bisa mencapai efisiensi tinggi pada distribusi normal.
6. Algoritma Umum MM-Estimator
Langkah-langkah ringkas algoritma MM-estimator:
- Hitung estimasi awal \(\hat{\boldsymbol{\beta}}_0\) menggunakan S-estimator.
- Hitung skala robust \(\hat{\sigma}\) berdasarkan residual dari tahap pertama.
- Estimasi akhir \(\hat{\boldsymbol{\beta}}\) diperoleh menggunakan M-estimator dengan bobot berdasarkan \(\hat{\sigma}\).
Uji-F dan Uji-T
Landasan Teori: Uji F dan Uji t dalam Regresi Linear
Dalam analisis regresi linear, pengujian signifikansi model dan koefisien dilakukan untuk mengevaluasi apakah model yang digunakan memiliki daya prediksi yang signifikan. Dua uji statistik utama yang digunakan adalah Uji F dan Uji t.
Uji F: Pengujian Signifikansi Model Secara Keseluruhan
Uji F digunakan untuk menguji apakah model regresi secara keseluruhan signifikan, yaitu apakah terdapat hubungan linear yang signifikan antara variabel dependen dan seluruh variabel independen dalam model.
Hipotesis yang diuji:
- \(H_0\): Semua koefisien regresi (selain intercept) sama dengan nol, yaitu \(\beta_1 = \beta_2 = \ldots = \beta_k = 0\)
- \(H_1\): Setidaknya satu \(\beta_j \neq 0\)
Statistik uji F dihitung dengan rumus:
\[\begin{equation} F = \frac{\text{RegSumSq} / k}{\text{ResSumSq} / (n - k - 1)} = \frac{MSR}{MSE} \end{equation}\]
di mana:
- RegSumSq = Regression Sum of Squares (JK Regresi)
- ResSumSq = Residual Sum of Squares (JK Error)
- \(MSR = \frac{\text{RegSumSq}}{k}\): Mean Square Regression
- \(MSE = \frac{\text{ResSumSq}}{n - k - 1}\): Mean Square Error
Kriteria pengujian:
\[ \text{Tolak } H_0 \text{ jika } F_\text{hitung} > F_{\alpha, k, n-k-1} \]
Uji t: Pengujian Signifikansi Koefisien Regresi
Uji t digunakan untuk menguji signifikansi individual dari setiap koefisien regresi, yaitu apakah variabel independen tertentu berpengaruh secara signifikan terhadap variabel dependen.
Hipotesis yang diuji:
- \(H_0\): \(\beta_j = 0\)
- \(H_1\): \(\beta_j \neq 0\)
Statistik uji t:
\[\begin{equation} t = \frac{\hat{\beta}_j}{SE(\hat{\beta}_j)} \end{equation}\]
di mana:
- \(\hat{\beta}_j\) adalah koefisien regresi ke- \(j\)
- \(SE(\hat{\beta}_j)\) adalah standar error dari koefisien regresi tersebut
Kriteria pengujian:
\[ \text{Tolak } H_0 \text{ jika } |t_\text{hitung}| > t_{\alpha/2, n - k - 1} \]
Asumsi yang Diperlukan
Baik uji F maupun uji t dalam regresi klasik bergantung pada beberapa asumsi penting:
- Hubungan antara variabel independen dan dependen bersifat linear.
- Residual (galat) terdistribusi normal.
- Homoskedastisitas (varian residual konstan).
- Tidak terdapat autokorelasi antar residual.
Namun, ketika asumsi-asumsi ini tidak terpenuhi, terutama dalam kasus pencilan atau data ekstrem, regresi robust dapat digunakan sebagai alternatif. Meski demikian, interpretasi statistik seperti uji F dan uji t perlu dilakukan dengan hati-hati pada model robust.
Uji Asumsi Klasik dalam Regresi Linear
Dalam analisis regresi linear, pengujian terhadap asumsi-asumsi klasik diperlukan untuk menjamin validitas dari hasil estimasi parameter regresi. Asumsi-asumsi ini meliputi normalitas residual, tidak adanya multikolinearitas antar variabel independen, homoskedastisitas residual, dan tidak adanya autokorelasi antar residual.
1. Uji Normalitas
Uji ini digunakan untuk memastikan bahwa residual (galat) dari model regresi terdistribusi normal. Distribusi normal residual penting agar pengujian statistik (uji t dan F) valid.
Hipotesis:
- \(H_0\): Residual terdistribusi normal
- \(H_1\): Residual tidak terdistribusi normal
Metode umum:
- Uji Shapiro-Wilk
- Uji Kolmogorov-Smirnov
- Uji Jarque-Bera
- Q-Q Plot
2. Uji Multikolinearitas
Multikolinearitas terjadi jika variabel independen saling berkorelasi tinggi. Hal ini membuat interpretasi parameter regresi menjadi tidak reliabel.
Indikator umum:
- Variance Inflation Factor (VIF)
\[ \text{VIF}_j = \frac{1}{1 - R_j^2} \]
Di mana \(R_j^2\) adalah koefisien determinasi dari regresi variabel independen ke-\(j\) terhadap variabel independen lainnya.
Batas umum: VIF > 10 menunjukkan adanya multikolinearitas tinggi.
3. Uji Heteroskedastisitas
Heteroskedastisitas adalah kondisi di mana varian residual tidak konstan pada setiap tingkat variabel independen, melanggar asumsi homoskedastisitas.
Hipotesis:
- \(H_0\): Tidak terjadi heteroskedastisitas (varian residual konstan)
- \(H_1\): Terjadi heteroskedastisitas
Metode umum:
- Uji Breusch-Pagan
- Uji White
- Uji Glejser
4. Uji Autokorelasi
Autokorelasi terjadi saat residual pada suatu observasi berkorelasi dengan residual pada observasi lain, umumnya pada data time series.
Hipotesis:
- \(H_0\): Tidak terdapat autokorelasi
- \(H_1\): Terdapat autokorelasi
Uji Durbin-Watson:
\[ DW = \frac{\sum_{t=2}^{n} (e_t - e_{t-1})^2}{\sum_{t=1}^{n} e_t^2} \]
- DW mendekati 2: tidak ada autokorelasi
- DW < 2: autokorelasi positif
- DW > 2: autokorelasi negatif
5. Uji Linearitas
Uji linearitas bertujuan untuk memastikan bahwa hubungan antara variabel independen dan dependen dalam model regresi bersifat linear. Asumsi ini penting karena regresi linear hanya memberikan hasil yang valid jika hubungan antar variabel memang linear.
Jika asumsi linearitas dilanggar, model regresi dapat memberikan estimasi yang bias dan tidak akurat. Uji linearitas biasanya dilakukan melalui pendekatan grafik (scatter plot, plot residual) atau uji formal seperti uji ANOVA (menggunakan komponen linear dan non-linear).
Source Code
Baca data dengan menggunakan Library readxl
library(readxl)
data <- read_excel("D:/Perkuliahan UNS/sim/3. CM1 - Coffee Chain Datasets.xlsx")
data## # A tibble: 4,248 × 20
## `Area Code` Date Market `Market Size` Product `Product Line`
## <dbl> <dttm> <chr> <chr> <chr> <chr>
## 1 719 2012-01-01 00:00:00 Central Major Market Amaretto Beans
## 2 970 2012-01-01 00:00:00 Central Major Market Colombi… Beans
## 3 970 2012-01-01 00:00:00 Central Major Market Decaf I… Beans
## 4 303 2012-01-01 00:00:00 Central Major Market Green T… Leaves
## 5 303 2012-01-01 00:00:00 Central Major Market Caffe M… Beans
## 6 720 2012-01-01 00:00:00 Central Major Market Decaf E… Beans
## 7 970 2012-01-01 00:00:00 Central Major Market Chamomi… Leaves
## 8 719 2012-01-01 00:00:00 Central Major Market Lemon Leaves
## 9 970 2012-01-01 00:00:00 Central Major Market Mint Leaves
## 10 719 2012-01-01 00:00:00 Central Major Market Darjeel… Leaves
## # ℹ 4,238 more rows
## # ℹ 14 more variables: `Product Type` <chr>, State <chr>, Type <chr>,
## # `Budget COGS` <dbl>, `Budget Margin` <dbl>, `Budget Profit` <dbl>,
## # `Budget Sales` <dbl>, COGS <dbl>, Inventory <dbl>, Margin <dbl>,
## # Marketing <dbl>, Profit <dbl>, Sales <dbl>, `Total Expenses` <dbl>
Filter Data
Pada analisis ini penulis ingin fokus pada penjualan kopi di kota New York saja jadi gunakan Syntax filter untuk memfilter data
## [1] "Area Code" "Date" "Market" "Market Size"
## [5] "Product" "Product Line" "Product Type" "State"
## [9] "Type" "Budget COGS" "Budget Margin" "Budget Profit"
## [13] "Budget Sales" "COGS" "Inventory" "Margin"
## [17] "Marketing" "Profit" "Sales" "Total Expenses"
data1 <- data %>% filter(`State` == "New York", `Product Type` == "Coffee")
# Menampilkan hasil
data1## # A tibble: 24 × 20
## `Area Code` Date Market `Market Size` Product `Product Line`
## <dbl> <dttm> <chr> <chr> <chr> <chr>
## 1 716 2012-01-01 00:00:00 East Major Market Colombian Beans
## 2 917 2012-02-01 00:00:00 East Major Market Colombian Beans
## 3 718 2012-03-01 00:00:00 East Major Market Colombian Beans
## 4 631 2012-04-01 00:00:00 East Major Market Colombian Beans
## 5 585 2012-05-01 00:00:00 East Major Market Colombian Beans
## 6 646 2012-06-01 00:00:00 East Major Market Colombian Beans
## 7 845 2012-07-01 00:00:00 East Major Market Colombian Beans
## 8 845 2012-08-01 00:00:00 East Major Market Colombian Beans
## 9 917 2012-09-01 00:00:00 East Major Market Colombian Beans
## 10 315 2012-10-01 00:00:00 East Major Market Colombian Beans
## # ℹ 14 more rows
## # ℹ 14 more variables: `Product Type` <chr>, State <chr>, Type <chr>,
## # `Budget COGS` <dbl>, `Budget Margin` <dbl>, `Budget Profit` <dbl>,
## # `Budget Sales` <dbl>, COGS <dbl>, Inventory <dbl>, Margin <dbl>,
## # Marketing <dbl>, Profit <dbl>, Sales <dbl>, `Total Expenses` <dbl>
Regresi
Deklarasikan bagian bagian yang ingin dilakukan regresi sesuai dengan variablenya Y, X1, X2, X3
pada case kali ini karena ingin diketahui pengaruh COGS(Cost of Good Sold), Sales dan Total Expenses terhadap Profit maka buat Profit sebagai variabel independen dan sisanya sebagai variabel dependen
y <- data1$Profit
x1 <- data1$COGS
x2 <- data1$Sales
x3 <- data1$`Total Expenses`
reg <- lm(y~x1+x2+x3)
summary(reg)##
## Call:
## lm(formula = y ~ x1 + x2 + x3)
##
## Residuals:
## Min 1Q Median 3Q Max
## -17.8712 -6.6804 0.2677 5.9820 18.8585
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 615.19710 40.27457 15.275 1.72e-12 ***
## x1 -1.30158 0.22328 -5.829 1.06e-05 ***
## x2 2.78667 0.09578 29.096 < 2e-16 ***
## x3 -12.91007 0.57262 -22.546 1.08e-15 ***
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Residual standard error: 10.03 on 20 degrees of freedom
## Multiple R-squared: 0.9878, Adjusted R-squared: 0.986
## F-statistic: 540 on 3 and 20 DF, p-value: < 2.2e-16
Uji Asumsi
Dalam analisis regresi linear, penting untuk melakukan uji asumsi klasik agar hasil estimasi model dapat diinterpretasikan dengan valid dan akurat. Uji asumsi dilakukan untuk memastikan bahwa model regresi memenuhi syarat-syarat dasar yang menjamin keandalan hasil analisis. Apabila asumsi klasik tidak terpenuhi, maka hasil uji statistik seperti uji t dan uji F bisa menjadi tidak valid, dan parameter regresi yang diperoleh bisa menjadi bias atau tidak efisien.
1. Uji Normalitas
Hipotesis:
- \(H_0\): Residual terdistribusi normal
- \(H_1\): Residual tidak terdistribusi normal
##
## Exact one-sample Kolmogorov-Smirnov test
##
## data: reg$residuals
## D = 0.4319, p-value = 0.0001384
## alternative hypothesis: two-sided
Hasil uji normalitas menunjukkan bahwa nilai p-value kurang dari 0.05. Hal ini mengindikasikan bahwa residual tidak berdistribusi normal. Dengan demikian, asumsi normalitas tidak terpenuhi.
2. Uji Heterokedastisitas
Hipotesis:
- \(H_0\): Tidak terjadi heteroskedastisitas (varian residual konstan)
- \(H_1\): Terjadi heteroskedastisitas
##
## studentized Breusch-Pagan test
##
## data: reg
## BP = 3.5632, df = 3, p-value = 0.3127
Uji homogenitas menunjukkan nilai p-value lebih dari 0.05, yang berarti tidak terdapat gejala heteroskedastisitas. Maka, asumsi homoskedastisitas (varian residual konstan) terpenuhi.
3. Uji Autokorelasi
Hipotesis:
- \(H_0\): Tidak terdapat autokorelasi
- \(H_1\): Terdapat autokorelasi
##
## Durbin-Watson test
##
## data: reg
## DW = 1.3259, p-value = 0.013
## alternative hypothesis: true autocorrelation is greater than 0
Uji autokorelasi menunjukkan nilai p-value kurang dari 0.05. Hal ini menunjukkan bahwa terdapat autokorelasi pada residual, sehingga asumsi tidak terpenuhi.
4. Uji Non Multikolinearitas
Batas umum: VIF > 10 menunjukkan adanya multikolinearitas tinggi.
## x1 x2 x3
## 19.73458 19.22644 11.69581
Nilai VIF dari seluruh variabel independen lebih dari 10, yang menandakan adanya multikolinearitas tinggi antar variabel. Dengan demikian, asumsi tidak terpenuhi dan perlu dilakukan penanganan, seperti penghapusan atau penggabungan variabel.
5. Uji Linearitas
##
## RESET test
##
## data: reg
## RESET = 0.21986, df1 = 2, df2 = 18, p-value = 0.8048
Uji linearitas memberikan p-value lebih dari 0.05, yang berarti hubungan antara variabel independen dan dependen bersifat linear. Maka, asumsi linearitas terpenuhi.
6. Pencilan
## 1 2 3 4 5 6
## -0.67166592 0.06063742 -0.03248232 0.29849685 0.82268428 0.69405924
## 7 8 9 10 11 12
## -0.96411532 -0.71523614 -0.06470504 0.20951296 -0.46950707 -0.16867612
## 13 14 15 16 17 18
## -0.64124944 0.12306581 0.05114819 0.45419504 0.45592798 0.83789057
## 19 20 21 22 23 24
## -0.50233104 -0.29718061 0.21352373 0.18533472 -0.43303265 -0.09290807
## [1] 0.8164966
Jika ada nilai DFFITS > nilai pembanding, maka observasi tersebut berpengaruh besar terhadap model dan perlu ditinjau lebih lanjut
Berdasarkan hasil analisis, terlihat bahwa observasi ke-5, ke-7 dan ke-18 teridentifikasi sebagai pencilan. Kehadiran pencilan ini dapat memengaruhi hasil estimasi model regresi biasa. Oleh karena itu, penggunaan regresi robust menjadi pilihan yang tepat untuk mengatasi pengaruh pencilan dan memperoleh estimasi parameter yang lebih andal dan stabil.
Regresi Robust
library(robustbase)
reg_robust <- lmrob(y ~ x1 + x2 + x3, data = data1)
lmrob(y ~ x1 + x2 + x3, data = data1)##
## Call:
## lmrob(formula = y ~ x1 + x2 + x3, data = data1)
## \--> method = "MM"
## Coefficients:
## (Intercept) x1 x2 x3
## 9.287 -5.518 2.841 -1.231
##
## Call:
## lmrob(formula = y ~ x1 + x2 + x3, data = data1)
## \--> method = "MM"
## Residuals:
## Min 1Q Median 3Q Max
## -75.5180 -1.3608 0.7965 1.3829 148.5436
##
## Coefficients:
## Estimate Std. Error t value Pr(>|t|)
## (Intercept) 9.28659 20.73895 0.448 0.6591
## x1 -5.51783 0.14970 -36.859 <2e-16 ***
## x2 2.84147 0.02702 105.157 <2e-16 ***
## x3 -1.23103 0.43466 -2.832 0.0103 *
## ---
## Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
##
## Robust residual standard error: 2.893
## Multiple R-squared: 0.9992, Adjusted R-squared: 0.9991
## Convergence in 9 IRWLS iterations
##
## Robustness weights:
## 5 observations c(13,17,18,19,20) are outliers with |weight| = 0 ( < 0.0042);
## 2 weights are ~= 1. The remaining 17 ones are summarized as
## Min. 1st Qu. Median Mean 3rd Qu. Max.
## 0.8129 0.9656 0.9820 0.9650 0.9886 0.9989
## Algorithmic parameters:
## tuning.chi bb tuning.psi refine.tol
## 1.548e+00 5.000e-01 4.685e+00 1.000e-07
## rel.tol scale.tol solve.tol zero.tol
## 1.000e-07 1.000e-10 1.000e-07 1.000e-10
## eps.outlier eps.x warn.limit.reject warn.limit.meanrw
## 4.167e-03 1.659e-09 5.000e-01 5.000e-01
## nResample max.it best.r.s k.fast.s k.max
## 500 50 2 1 200
## maxit.scale trace.lev mts compute.rd fast.s.large.n
## 200 0 1000 0 2000
## psi subsampling cov
## "bisquare" "nonsingular" ".vcov.avar1"
## compute.outlier.stats
## "SM"
## seed : int(0)
Dari hasil Regresi Robust ini dapat dilakukan Uji-F dan Uji-T dengan interpretasi sebagai berikut
Interpretasi Uji t:
Berdasarkan hasil perhitungan koefisien regresi robust, diperoleh nilai p-value untuk masing-masing variabel sebagai berikut:
- Variabel
x1memiliki nilai p-value yang sangat kecil (< 0.001), sehingga dapat disimpulkan bahwax1berpengaruh signifikan terhadap variabel dependen pada tingkat signifikansi 1%. - Variabel
x2juga memiliki p-value < 0.001, menunjukkan bahwax2berpengaruh signifikan pada tingkat 1%. - Variabel
x3memiliki p-value sebesar 0.0103, sehingga signifikan pada tingkat signifikansi 5%. - Sementara itu, nilai p-value untuk intercept adalah 0.6591, yang berarti tidak signifikan secara statistik.
Kesimpulan:
Secara parsial, ketiga variabel independen (x1,
x2, dan x3) memiliki pengaruh yang signifikan
terhadap variabel dependen. Oleh karena itu, semua variabel prediktor
layak dipertahankan dalam model.
Kesimpulan
Regresi robust dengan metode MM efektif digunakan dalam analisis data yang mengandung pencilan dan pelanggaran asumsi klasik. Model ini mampu memberikan estimasi parameter yang lebih stabil dan interpretasi yang valid. Oleh karena itu, regresi robust menjadi pendekatan yang direkomendasikan untuk analisis lanjutan pada dataset Coffee Chain ini.
Interpretasi Koefisien Regresi Robust
Berdasarkan hasil estimasi regresi robust MM, berikut adalah interpretasi dari pengaruh masing-masing variabel independen terhadap variabel dependen:
🔹 Pengaruh x1 terhadap variabel dependen
Koefisien x1 sebesar -5.51783
menunjukkan bahwa setiap peningkatan 1 satuan pada x1 akan
menyebabkan penurunan rata-rata sebesar 5.52 satuan
pada variabel dependen, dengan asumsi variabel lainnya tetap.
Karena nilai p-value < 0.001 dan nilai t yang sangat tinggi (|36.859|), maka dapat disimpulkan bahwa x1 berpengaruh negatif dan signifikan secara statistik pada tingkat signifikansi 1% terhadap variabel dependen.
🔹 Pengaruh x2 terhadap variabel dependen
Koefisien x2 sebesar 2.84147
menunjukkan bahwa setiap kenaikan 1 satuan pada x2 akan
meningkatkan nilai variabel dependen sebesar 2.84
satuan.
Dengan p-value < 0.001 dan nilai t yang sangat tinggi (105.157), maka dapat disimpulkan bahwa x2 berpengaruh positif dan sangat signifikan terhadap variabel dependen.
🔹 Pengaruh x3 terhadap variabel dependen
Koefisien x3 sebesar -1.23103 berarti
bahwa setiap kenaikan 1 satuan pada x3 akan menurunkan
variabel dependen sebesar 1.23 satuan, dalam kondisi
variabel lainnya tetap.
Karena p-value = 0.0103, maka x3 juga berpengaruh negatif dan signifikan secara statistik pada tingkat signifikansi 5% terhadap variabel dependen.
Kesimpulan Umum
Semua variabel independen dalam model (x1,
x2, dan x3) memiliki pengaruh yang signifikan
terhadap variabel dependen:
x1danx3→ berpengaruh negatif signifikanx2→ berpengaruh positif signifikan
Model regresi robust MM berhasil memberikan estimasi hubungan yang stabil meskipun terdapat pencilan dalam data, sehingga cocok untuk digunakan pada dataset ini.