Implementasi Metode Estimasi MM dalam Regresi Robust: Studi Kasus pada Dataset Coffee Chain

Pendahuluan

Dalam analisis data bisnis, regresi linear merupakan salah satu metode statistik yang paling umum digunakan untuk memahami hubungan antara variabel-variabel prediktor dan variabel respons. Namun, regresi linear konvensional sangat sensitif terhadap pencilan (outlier) dan data yang tidak mengikuti asumsi distribusi normal. Dalam konteks dunia nyata, seperti pada data keuangan dan operasional perusahaan, pencilan seringkali tidak dapat dihindari. Oleh karena itu, metode regresi robust menjadi alternatif penting untuk menghasilkan estimasi yang lebih stabil dan andal.

Regresi robust adalah pendekatan yang dirancang untuk mengurangi pengaruh observasi ekstrem yang dapat merusak model regresi. Salah satu metode yang banyak digunakan dalam regresi robust adalah MM-estimator, yang menggabungkan efisiensi dan ketahanan terhadap outlier melalui tiga tahap: estimasi awal dengan S-estimator, skala robust, dan iterasi menggunakan fungsi kerugian redaman (M-estimation). MM-estimator memberikan hasil yang lebih konsisten dan dapat diandalkan dalam kondisi data yang mengandung noise tinggi atau deviasi dari asumsi klasik.

Studi ini menerapkan regresi robust dengan metode MM-estimator pada dataset Coffee Chain, yaitu kumpulan data yang merepresentasikan informasi penjualan, biaya, dan profitabilitas dari jaringan toko kopi. Dataset ini mencakup berbagai variabel, antara lain Product, Product Line, Product Type, State, Type, serta variabel kuantitatif seperti Budget COGS, Budget Sales, Marketing, Profit, dan Total Expenses. Kompleksitas dan keragaman data ini membuka potensi besar munculnya pencilan atau data yang tidak homogen.

Melalui implementasi regresi robust, penelitian ini bertujuan untuk mengevaluasi hubungan antara variabel-variabel biaya dan pemasaran dengan profitabilitas toko, tanpa dipengaruhi secara signifikan oleh pencilan. Dengan demikian, hasil analisis diharapkan dapat memberikan wawasan yang lebih akurat dan praktis bagi pengambilan keputusan bisnis dalam industri ritel makanan dan minuman.

Landasan Teori

Regresi Robust

Regresi robust merupakan teknik yang dirancang untuk mengatasi kelemahan regresi linear klasik terhadap pencilan dan pelanggaran asumsi distribusi normal. Salah satu estimator robust yang banyak digunakan adalah MM-estimator, yang dikembangkan oleh Yohai (1987). Estimator ini menggabungkan ketahanan tinggi terhadap outlier (breakdown point tinggi) dengan efisiensi tinggi pada distribusi normal.

MM-estimator bekerja dalam tiga tahap utama:

1. Tahap Pertama: Estimasi Awal (S-Estimator)

Langkah pertama adalah mencari estimasi parameter awal yang memiliki breakdown point tinggi. Ini dilakukan menggunakan S-estimator, yang didefinisikan sebagai solusi dari: \[\begin{equation} \hat{\boldsymbol{\beta}}_0 = \arg\min_{\boldsymbol{\beta}} \, \hat{\sigma}(\boldsymbol{\beta}) \end{equation}\] dengan \(\hat{\sigma}(\boldsymbol{\beta})\) diperoleh dari solusi persamaan:

\[\begin{equation} \frac{1}{n} \sum_{i=1}^n \rho\left( \frac{y_i - \mathbf{x}_i^\top \boldsymbol{\beta}}{\hat{\sigma}} \right) = \delta \end{equation}\] di mana:

\(\rho(\cdot)\) adalah fungsi redaman, seperti Tukey’s bisquare loss,

\(\delta\) adalah konstanta yang tergantung dari fungsi \(\rho\) dan mengontrol tingkat robustnes.

2. Tahap Kedua: Estimasi Skala Robust

Setelah \(\hat{\boldsymbol{\beta}}_0\) diperoleh, dilakukan perhitungan terhadap skala robust berdasarkan residual:

\[\begin{equation} r_i^{(0)} = y_i - \mathbf{x}_i^\top \hat{\boldsymbol{\beta}}_0 \end{equation}\]

dan skala \(\hat{\sigma}\) dihitung sebagai solusi dari:

\[\begin{equation} \frac{1}{n} \sum_{i=1}^n \rho\left( \frac{r_i^{(0)}}{\hat{\sigma}} \right) = \delta \end{equation}\] Skala ini akan digunakan dalam tahap selanjutnya sebagai bobot untuk memperbaiki efisiensi estimator.

3. Tahap Ketiga: Estimasi Akhir (M-Estimator)

Tahap akhir MM-estimator adalah melakukan estimasi parameter regresi dengan menggunakan M-estimator berbasis skala robust \(\hat{\sigma}\) dan awalan parameter \(\hat{\boldsymbol{\beta}}_0\). Tujuannya adalah meningkatkan efisiensi estimator.

Estimasi dilakukan dengan:

\[\begin{equation} \hat{\boldsymbol{\beta}} = \arg\min_{\boldsymbol{\beta}} \sum_{i=1}^n \rho_1\left( \frac{y_i - \mathbf{x}_i^\top \boldsymbol{\beta}}{\hat{\sigma}} \right) \end{equation}\]

atau dalam bentuk sistem persamaan:

\[\begin{equation} \sum_{i=1}^n \psi_1\left( \frac{y_i - \mathbf{x}_i^\top \boldsymbol{\beta}}{\hat{\sigma}} \right) \mathbf{x}_i = 0 \end{equation}\]

dengan \(\psi_1(u) = \frac{d}{du} \rho_1(u)\).

4. Fungsi Redaman dan Turunannya

Fungsi redaman \(\rho\) yang umum digunakan dalam MM-estimator adalah fungsi :

\[\begin{equation} \rho(u) = \begin{cases} \frac{c^2}{6} \left[1 - \left(1 - \left(\frac{u}{c}\right)^2\right)^3\right], & |u| \leq c \\ \frac{c^2}{6}, & |u| > c \end{cases} \end{equation}\]

Turunan dari fungsi ini, yang disebut fungsi \(\psi(u)\), adalah:

\[\begin{equation} \psi(u) = \begin{cases} u \left(1 - \left(\frac{u}{c}\right)^2\right)^2, & |u| \leq c \\ 0, & |u| > c \end{cases} \end{equation}\]

Pemilihan nilai \(c\) biasanya dilakukan untuk menyeimbangkan efisiensi dan robustnes. Sebagai contoh, \(c = 4.685\) memberikan efisiensi sekitar 95% pada distribusi normal.

5. Breakdown Point dan Efisiensi

  • Breakdown point dari estimator MM bisa mencapai hingga 50% karena menggunakan S-estimator sebagai awalan.
  • Efisiensi asimtotik dapat dikendalikan melalui pemilihan fungsi \(\rho\), dan bisa mencapai efisiensi tinggi pada distribusi normal.

6. Algoritma Umum MM-Estimator

Langkah-langkah ringkas algoritma MM-estimator:

  • Hitung estimasi awal \(\hat{\boldsymbol{\beta}}_0\) menggunakan S-estimator.
  • Hitung skala robust \(\hat{\sigma}\) berdasarkan residual dari tahap pertama.
  • Estimasi akhir \(\hat{\boldsymbol{\beta}}\) diperoleh menggunakan M-estimator dengan bobot berdasarkan \(\hat{\sigma}\).

Uji-F dan Uji-T

Landasan Teori: Uji F dan Uji t dalam Regresi Linear

Dalam analisis regresi linear, pengujian signifikansi model dan koefisien dilakukan untuk mengevaluasi apakah model yang digunakan memiliki daya prediksi yang signifikan. Dua uji statistik utama yang digunakan adalah Uji F dan Uji t.

Uji F: Pengujian Signifikansi Model Secara Keseluruhan

Uji F digunakan untuk menguji apakah model regresi secara keseluruhan signifikan, yaitu apakah terdapat hubungan linear yang signifikan antara variabel dependen dan seluruh variabel independen dalam model.

Hipotesis yang diuji:

  • \(H_0\): Semua koefisien regresi (selain intercept) sama dengan nol, yaitu \(\beta_1 = \beta_2 = \ldots = \beta_k = 0\)
  • \(H_1\): Setidaknya satu \(\beta_j \neq 0\)

Statistik uji F dihitung dengan rumus:

\[\begin{equation} F = \frac{\text{RegSumSq} / k}{\text{ResSumSq} / (n - k - 1)} = \frac{MSR}{MSE} \end{equation}\]

di mana:

  • RegSumSq = Regression Sum of Squares (JK Regresi)
  • ResSumSq = Residual Sum of Squares (JK Error)
  • \(MSR = \frac{\text{RegSumSq}}{k}\): Mean Square Regression
  • \(MSE = \frac{\text{ResSumSq}}{n - k - 1}\): Mean Square Error

Kriteria pengujian:

\[ \text{Tolak } H_0 \text{ jika } F_\text{hitung} > F_{\alpha, k, n-k-1} \]

Uji t: Pengujian Signifikansi Koefisien Regresi

Uji t digunakan untuk menguji signifikansi individual dari setiap koefisien regresi, yaitu apakah variabel independen tertentu berpengaruh secara signifikan terhadap variabel dependen.

Hipotesis yang diuji:

  • \(H_0\): \(\beta_j = 0\)
  • \(H_1\): \(\beta_j \neq 0\)

Statistik uji t:

\[\begin{equation} t = \frac{\hat{\beta}_j}{SE(\hat{\beta}_j)} \end{equation}\]

di mana:

  • \(\hat{\beta}_j\) adalah koefisien regresi ke- \(j\)
  • \(SE(\hat{\beta}_j)\) adalah standar error dari koefisien regresi tersebut

Kriteria pengujian:

\[ \text{Tolak } H_0 \text{ jika } |t_\text{hitung}| > t_{\alpha/2, n - k - 1} \]

Asumsi yang Diperlukan

Baik uji F maupun uji t dalam regresi klasik bergantung pada beberapa asumsi penting:

  • Hubungan antara variabel independen dan dependen bersifat linear.
  • Residual (galat) terdistribusi normal.
  • Homoskedastisitas (varian residual konstan).
  • Tidak terdapat autokorelasi antar residual.

Namun, ketika asumsi-asumsi ini tidak terpenuhi, terutama dalam kasus pencilan atau data ekstrem, regresi robust dapat digunakan sebagai alternatif. Meski demikian, interpretasi statistik seperti uji F dan uji t perlu dilakukan dengan hati-hati pada model robust.

Uji Asumsi Klasik dalam Regresi Linear

Dalam analisis regresi linear, pengujian terhadap asumsi-asumsi klasik diperlukan untuk menjamin validitas dari hasil estimasi parameter regresi. Asumsi-asumsi ini meliputi normalitas residual, tidak adanya multikolinearitas antar variabel independen, homoskedastisitas residual, dan tidak adanya autokorelasi antar residual.

1. Uji Normalitas

Uji ini digunakan untuk memastikan bahwa residual (galat) dari model regresi terdistribusi normal. Distribusi normal residual penting agar pengujian statistik (uji t dan F) valid.

Hipotesis:

  • \(H_0\): Residual terdistribusi normal
  • \(H_1\): Residual tidak terdistribusi normal

Metode umum:

  • Uji Shapiro-Wilk
  • Uji Kolmogorov-Smirnov
  • Uji Jarque-Bera
  • Q-Q Plot

2. Uji Multikolinearitas

Multikolinearitas terjadi jika variabel independen saling berkorelasi tinggi. Hal ini membuat interpretasi parameter regresi menjadi tidak reliabel.

Indikator umum:

  • Variance Inflation Factor (VIF)

\[ \text{VIF}_j = \frac{1}{1 - R_j^2} \]

Di mana \(R_j^2\) adalah koefisien determinasi dari regresi variabel independen ke-\(j\) terhadap variabel independen lainnya.

Batas umum: VIF > 10 menunjukkan adanya multikolinearitas tinggi.

3. Uji Heteroskedastisitas

Heteroskedastisitas adalah kondisi di mana varian residual tidak konstan pada setiap tingkat variabel independen, melanggar asumsi homoskedastisitas.

Hipotesis:

  • \(H_0\): Tidak terjadi heteroskedastisitas (varian residual konstan)
  • \(H_1\): Terjadi heteroskedastisitas

Metode umum:

  • Uji Breusch-Pagan
  • Uji White
  • Uji Glejser

4. Uji Autokorelasi

Autokorelasi terjadi saat residual pada suatu observasi berkorelasi dengan residual pada observasi lain, umumnya pada data time series.

Hipotesis:

  • \(H_0\): Tidak terdapat autokorelasi
  • \(H_1\): Terdapat autokorelasi

Uji Durbin-Watson:

\[ DW = \frac{\sum_{t=2}^{n} (e_t - e_{t-1})^2}{\sum_{t=1}^{n} e_t^2} \]

  • DW mendekati 2: tidak ada autokorelasi
  • DW < 2: autokorelasi positif
  • DW > 2: autokorelasi negatif

5. Uji Linearitas

Uji linearitas bertujuan untuk memastikan bahwa hubungan antara variabel independen dan dependen dalam model regresi bersifat linear. Asumsi ini penting karena regresi linear hanya memberikan hasil yang valid jika hubungan antar variabel memang linear.

Jika asumsi linearitas dilanggar, model regresi dapat memberikan estimasi yang bias dan tidak akurat. Uji linearitas biasanya dilakukan melalui pendekatan grafik (scatter plot, plot residual) atau uji formal seperti uji ANOVA (menggunakan komponen linear dan non-linear).

Source Code

Baca data dengan menggunakan Library readxl

library(readxl)
data <- read_excel("D:/Perkuliahan UNS/sim/3. CM1 - Coffee Chain Datasets.xlsx")
data
## # A tibble: 4,248 × 20
##    `Area Code` Date                Market  `Market Size` Product  `Product Line`
##          <dbl> <dttm>              <chr>   <chr>         <chr>    <chr>         
##  1         719 2012-01-01 00:00:00 Central Major Market  Amaretto Beans         
##  2         970 2012-01-01 00:00:00 Central Major Market  Colombi… Beans         
##  3         970 2012-01-01 00:00:00 Central Major Market  Decaf I… Beans         
##  4         303 2012-01-01 00:00:00 Central Major Market  Green T… Leaves        
##  5         303 2012-01-01 00:00:00 Central Major Market  Caffe M… Beans         
##  6         720 2012-01-01 00:00:00 Central Major Market  Decaf E… Beans         
##  7         970 2012-01-01 00:00:00 Central Major Market  Chamomi… Leaves        
##  8         719 2012-01-01 00:00:00 Central Major Market  Lemon    Leaves        
##  9         970 2012-01-01 00:00:00 Central Major Market  Mint     Leaves        
## 10         719 2012-01-01 00:00:00 Central Major Market  Darjeel… Leaves        
## # ℹ 4,238 more rows
## # ℹ 14 more variables: `Product Type` <chr>, State <chr>, Type <chr>,
## #   `Budget COGS` <dbl>, `Budget Margin` <dbl>, `Budget Profit` <dbl>,
## #   `Budget Sales` <dbl>, COGS <dbl>, Inventory <dbl>, Margin <dbl>,
## #   Marketing <dbl>, Profit <dbl>, Sales <dbl>, `Total Expenses` <dbl>

Filter Data

Pada analisis ini penulis ingin fokus pada penjualan kopi di kota New York saja jadi gunakan Syntax filter untuk memfilter data

library(dplyr)
library(lmtest)
names(data)
##  [1] "Area Code"      "Date"           "Market"         "Market Size"   
##  [5] "Product"        "Product Line"   "Product Type"   "State"         
##  [9] "Type"           "Budget COGS"    "Budget Margin"  "Budget Profit" 
## [13] "Budget Sales"   "COGS"           "Inventory"      "Margin"        
## [17] "Marketing"      "Profit"         "Sales"          "Total Expenses"
data1 <- data %>% filter(`State` == "New York", `Product Type` == "Coffee")

# Menampilkan hasil
data1
## # A tibble: 24 × 20
##    `Area Code` Date                Market `Market Size` Product   `Product Line`
##          <dbl> <dttm>              <chr>  <chr>         <chr>     <chr>         
##  1         716 2012-01-01 00:00:00 East   Major Market  Colombian Beans         
##  2         917 2012-02-01 00:00:00 East   Major Market  Colombian Beans         
##  3         718 2012-03-01 00:00:00 East   Major Market  Colombian Beans         
##  4         631 2012-04-01 00:00:00 East   Major Market  Colombian Beans         
##  5         585 2012-05-01 00:00:00 East   Major Market  Colombian Beans         
##  6         646 2012-06-01 00:00:00 East   Major Market  Colombian Beans         
##  7         845 2012-07-01 00:00:00 East   Major Market  Colombian Beans         
##  8         845 2012-08-01 00:00:00 East   Major Market  Colombian Beans         
##  9         917 2012-09-01 00:00:00 East   Major Market  Colombian Beans         
## 10         315 2012-10-01 00:00:00 East   Major Market  Colombian Beans         
## # ℹ 14 more rows
## # ℹ 14 more variables: `Product Type` <chr>, State <chr>, Type <chr>,
## #   `Budget COGS` <dbl>, `Budget Margin` <dbl>, `Budget Profit` <dbl>,
## #   `Budget Sales` <dbl>, COGS <dbl>, Inventory <dbl>, Margin <dbl>,
## #   Marketing <dbl>, Profit <dbl>, Sales <dbl>, `Total Expenses` <dbl>

Regresi

Deklarasikan bagian bagian yang ingin dilakukan regresi sesuai dengan variablenya Y, X1, X2, X3

pada case kali ini karena ingin diketahui pengaruh COGS(Cost of Good Sold), Sales dan Total Expenses terhadap Profit maka buat Profit sebagai variabel independen dan sisanya sebagai variabel dependen

y <- data1$Profit
x1 <- data1$COGS
x2 <- data1$Sales
x3 <- data1$`Total Expenses`


reg <- lm(y~x1+x2+x3)
summary(reg)
## 
## Call:
## lm(formula = y ~ x1 + x2 + x3)
## 
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -17.8712  -6.6804   0.2677   5.9820  18.8585 
## 
## Coefficients:
##              Estimate Std. Error t value Pr(>|t|)    
## (Intercept) 615.19710   40.27457  15.275 1.72e-12 ***
## x1           -1.30158    0.22328  -5.829 1.06e-05 ***
## x2            2.78667    0.09578  29.096  < 2e-16 ***
## x3          -12.91007    0.57262 -22.546 1.08e-15 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 10.03 on 20 degrees of freedom
## Multiple R-squared:  0.9878, Adjusted R-squared:  0.986 
## F-statistic:   540 on 3 and 20 DF,  p-value: < 2.2e-16

Uji Asumsi

Dalam analisis regresi linear, penting untuk melakukan uji asumsi klasik agar hasil estimasi model dapat diinterpretasikan dengan valid dan akurat. Uji asumsi dilakukan untuk memastikan bahwa model regresi memenuhi syarat-syarat dasar yang menjamin keandalan hasil analisis. Apabila asumsi klasik tidak terpenuhi, maka hasil uji statistik seperti uji t dan uji F bisa menjadi tidak valid, dan parameter regresi yang diperoleh bisa menjadi bias atau tidak efisien.

1. Uji Normalitas

Hipotesis:

  • \(H_0\): Residual terdistribusi normal
  • \(H_1\): Residual tidak terdistribusi normal
library(lmtest) 
library(car)

#UJI NORMALITAS
ks.test(reg$residuals, 'pnorm')
## 
##  Exact one-sample Kolmogorov-Smirnov test
## 
## data:  reg$residuals
## D = 0.4319, p-value = 0.0001384
## alternative hypothesis: two-sided

Hasil uji normalitas menunjukkan bahwa nilai p-value kurang dari 0.05. Hal ini mengindikasikan bahwa residual tidak berdistribusi normal. Dengan demikian, asumsi normalitas tidak terpenuhi.

2. Uji Heterokedastisitas

Hipotesis:

  • \(H_0\): Tidak terjadi heteroskedastisitas (varian residual konstan)
  • \(H_1\): Terjadi heteroskedastisitas
bptest(reg)
## 
##  studentized Breusch-Pagan test
## 
## data:  reg
## BP = 3.5632, df = 3, p-value = 0.3127

Uji homogenitas menunjukkan nilai p-value lebih dari 0.05, yang berarti tidak terdapat gejala heteroskedastisitas. Maka, asumsi homoskedastisitas (varian residual konstan) terpenuhi.

3. Uji Autokorelasi

Hipotesis:

  • \(H_0\): Tidak terdapat autokorelasi
  • \(H_1\): Terdapat autokorelasi
dwtest(reg)
## 
##  Durbin-Watson test
## 
## data:  reg
## DW = 1.3259, p-value = 0.013
## alternative hypothesis: true autocorrelation is greater than 0

Uji autokorelasi menunjukkan nilai p-value kurang dari 0.05. Hal ini menunjukkan bahwa terdapat autokorelasi pada residual, sehingga asumsi tidak terpenuhi.

4. Uji Non Multikolinearitas

Batas umum: VIF > 10 menunjukkan adanya multikolinearitas tinggi.

vif(reg)
##       x1       x2       x3 
## 19.73458 19.22644 11.69581

Nilai VIF dari seluruh variabel independen lebih dari 10, yang menandakan adanya multikolinearitas tinggi antar variabel. Dengan demikian, asumsi tidak terpenuhi dan perlu dilakukan penanganan, seperti penghapusan atau penggabungan variabel.

5. Uji Linearitas

resettest(reg, power = 2:3, type="fitted")
## 
##  RESET test
## 
## data:  reg
## RESET = 0.21986, df1 = 2, df2 = 18, p-value = 0.8048

Uji linearitas memberikan p-value lebih dari 0.05, yang berarti hubungan antara variabel independen dan dependen bersifat linear. Maka, asumsi linearitas terpenuhi.

6. Pencilan

dffits(reg)
##           1           2           3           4           5           6 
## -0.67166592  0.06063742 -0.03248232  0.29849685  0.82268428  0.69405924 
##           7           8           9          10          11          12 
## -0.96411532 -0.71523614 -0.06470504  0.20951296 -0.46950707 -0.16867612 
##          13          14          15          16          17          18 
## -0.64124944  0.12306581  0.05114819  0.45419504  0.45592798  0.83789057 
##          19          20          21          22          23          24 
## -0.50233104 -0.29718061  0.21352373  0.18533472 -0.43303265 -0.09290807
nilai.pembanding.dffits=2*(sqrt(4/24))
nilai.pembanding.dffits
## [1] 0.8164966

Jika ada nilai DFFITS > nilai pembanding, maka observasi tersebut berpengaruh besar terhadap model dan perlu ditinjau lebih lanjut

Berdasarkan hasil analisis, terlihat bahwa observasi ke-5, ke-7 dan ke-18 teridentifikasi sebagai pencilan. Kehadiran pencilan ini dapat memengaruhi hasil estimasi model regresi biasa. Oleh karena itu, penggunaan regresi robust menjadi pilihan yang tepat untuk mengatasi pengaruh pencilan dan memperoleh estimasi parameter yang lebih andal dan stabil.

Regresi Robust

library(robustbase)

reg_robust <- lmrob(y ~ x1 + x2 + x3, data = data1)
lmrob(y ~ x1 + x2 + x3, data = data1)
## 
## Call:
## lmrob(formula = y ~ x1 + x2 + x3, data = data1)
##  \--> method = "MM"
## Coefficients:
## (Intercept)           x1           x2           x3  
##       9.287       -5.518        2.841       -1.231
summary(reg_robust)
## 
## Call:
## lmrob(formula = y ~ x1 + x2 + x3, data = data1)
##  \--> method = "MM"
## Residuals:
##      Min       1Q   Median       3Q      Max 
## -75.5180  -1.3608   0.7965   1.3829 148.5436 
## 
## Coefficients:
##             Estimate Std. Error t value Pr(>|t|)    
## (Intercept)  9.28659   20.73895   0.448   0.6591    
## x1          -5.51783    0.14970 -36.859   <2e-16 ***
## x2           2.84147    0.02702 105.157   <2e-16 ***
## x3          -1.23103    0.43466  -2.832   0.0103 *  
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Robust residual standard error: 2.893 
## Multiple R-squared:  0.9992, Adjusted R-squared:  0.9991 
## Convergence in 9 IRWLS iterations
## 
## Robustness weights: 
##  5 observations c(13,17,18,19,20) are outliers with |weight| = 0 ( < 0.0042); 
##  2 weights are ~= 1. The remaining 17 ones are summarized as
##    Min. 1st Qu.  Median    Mean 3rd Qu.    Max. 
##  0.8129  0.9656  0.9820  0.9650  0.9886  0.9989 
## Algorithmic parameters: 
##        tuning.chi                bb        tuning.psi        refine.tol 
##         1.548e+00         5.000e-01         4.685e+00         1.000e-07 
##           rel.tol         scale.tol         solve.tol          zero.tol 
##         1.000e-07         1.000e-10         1.000e-07         1.000e-10 
##       eps.outlier             eps.x warn.limit.reject warn.limit.meanrw 
##         4.167e-03         1.659e-09         5.000e-01         5.000e-01 
##      nResample         max.it       best.r.s       k.fast.s          k.max 
##            500             50              2              1            200 
##    maxit.scale      trace.lev            mts     compute.rd fast.s.large.n 
##            200              0           1000              0           2000 
##                   psi           subsampling                   cov 
##            "bisquare"         "nonsingular"         ".vcov.avar1" 
## compute.outlier.stats 
##                  "SM" 
## seed : int(0)

Dari hasil Regresi Robust ini dapat dilakukan Uji-F dan Uji-T dengan interpretasi sebagai berikut

Interpretasi Uji t:

Berdasarkan hasil perhitungan koefisien regresi robust, diperoleh nilai p-value untuk masing-masing variabel sebagai berikut:

  • Variabel x1 memiliki nilai p-value yang sangat kecil (< 0.001), sehingga dapat disimpulkan bahwa x1 berpengaruh signifikan terhadap variabel dependen pada tingkat signifikansi 1%.
  • Variabel x2 juga memiliki p-value < 0.001, menunjukkan bahwa x2 berpengaruh signifikan pada tingkat 1%.
  • Variabel x3 memiliki p-value sebesar 0.0103, sehingga signifikan pada tingkat signifikansi 5%.
  • Sementara itu, nilai p-value untuk intercept adalah 0.6591, yang berarti tidak signifikan secara statistik.

Kesimpulan:
Secara parsial, ketiga variabel independen (x1, x2, dan x3) memiliki pengaruh yang signifikan terhadap variabel dependen. Oleh karena itu, semua variabel prediktor layak dipertahankan dalam model.

Kesimpulan

Regresi robust dengan metode MM efektif digunakan dalam analisis data yang mengandung pencilan dan pelanggaran asumsi klasik. Model ini mampu memberikan estimasi parameter yang lebih stabil dan interpretasi yang valid. Oleh karena itu, regresi robust menjadi pendekatan yang direkomendasikan untuk analisis lanjutan pada dataset Coffee Chain ini.

Interpretasi Koefisien Regresi Robust

Berdasarkan hasil estimasi regresi robust MM, berikut adalah interpretasi dari pengaruh masing-masing variabel independen terhadap variabel dependen:

🔹 Pengaruh x1 terhadap variabel dependen

Koefisien x1 sebesar -5.51783 menunjukkan bahwa setiap peningkatan 1 satuan pada x1 akan menyebabkan penurunan rata-rata sebesar 5.52 satuan pada variabel dependen, dengan asumsi variabel lainnya tetap.

Karena nilai p-value < 0.001 dan nilai t yang sangat tinggi (|36.859|), maka dapat disimpulkan bahwa x1 berpengaruh negatif dan signifikan secara statistik pada tingkat signifikansi 1% terhadap variabel dependen.


🔹 Pengaruh x2 terhadap variabel dependen

Koefisien x2 sebesar 2.84147 menunjukkan bahwa setiap kenaikan 1 satuan pada x2 akan meningkatkan nilai variabel dependen sebesar 2.84 satuan.

Dengan p-value < 0.001 dan nilai t yang sangat tinggi (105.157), maka dapat disimpulkan bahwa x2 berpengaruh positif dan sangat signifikan terhadap variabel dependen.


🔹 Pengaruh x3 terhadap variabel dependen

Koefisien x3 sebesar -1.23103 berarti bahwa setiap kenaikan 1 satuan pada x3 akan menurunkan variabel dependen sebesar 1.23 satuan, dalam kondisi variabel lainnya tetap.

Karena p-value = 0.0103, maka x3 juga berpengaruh negatif dan signifikan secara statistik pada tingkat signifikansi 5% terhadap variabel dependen.


Kesimpulan Umum

Semua variabel independen dalam model (x1, x2, dan x3) memiliki pengaruh yang signifikan terhadap variabel dependen:

  • x1 dan x3berpengaruh negatif signifikan
  • x2berpengaruh positif signifikan

Model regresi robust MM berhasil memberikan estimasi hubungan yang stabil meskipun terdapat pencilan dalam data, sehingga cocok untuk digunakan pada dataset ini.