Pendahuluan

Analisis regresi merupakan teknik analisis data yang digunakan untuk mengkaji hubungan antara beberapa variabel dan meramal suatu variabel. Teknik ini biasa dikenal dalam ilmu statistika dan dikemukakan oleh Sir Francis Galton (1822-1911). Analisis regresi terbagi menjadi dua jenis yaitu regresi linear sederhana dan regresi linear berganda. Pada regresi linear berganda, variabel independennya berjumlah lebih dari satu dan memengaruhi variabel dependen.

Tujuan dari analisi regresi linear berganda adalah untuk memprediksi nilai variabel dependen atau response (Y), apabila nilai-nilai variabel independennya atau prediktor \((X_1,X_2,...,X_n)\) diketahui.

Landasan Teori

Model Regresi Ganda

Menurut Sembiring (1995), model regresi linear adalah model yang memberikan gambaran tentang hubungan antara variabel independen dengan variabel dependen. Secara umum model persamaannya sebagai berikut:

\[Y_i=β_0 + β_ix_{i 1}+β_2x_{i 2}+...+β_kx_{i k} +ϵ_i ,i= 1,2,.....,n;ϵ∼N(0,σ^2)\]

dengan

\(Y_i : \text { nilai variabel dependen pada pengamatan ke i }\)

\(x_{i 1} ,x_{i 2},...,x_{n k} :\text { nilai variabel dependen ke-j, j = 1,2,...,k pada pengamatan ke i = 1,2,…,n }\)

\(β_0,β_1,...,β_p : \text { parameter koefisien regresi ke-j, j = 1,2,…,k }\)

\(ϵ_i : \text { eror untuk pengamatan ke i yang berdisribusi normal dengan mean nol dan varians konstan } { σ^2 (ϵi∼N(0,σ^2))} \text {dimana eror tidak saling berkorelasi}\)

Jika diambil sebanyak n pengamatan, maka model untuk pengamatan ke-i adalah :

\[y_i = β_0 + ∑ ^p_k = 1 β_k X_{ik}+ϵ_i\] Pada model ini, hubungan antara variabel independen dan variabel dependen diangap konstan pada setiap lokasi pengamatan.

Jika dituliskan dalam notasi matriks maka menjadi persamaan: \(y=Xβ+ϵ\) atau dapat dituliskan dalam bentuk matriks \(Y=Xβ+ϵ,ϵ∼N(0,σ^2I)\) dengan

\[ Y = \begin{pmatrix} Y_1 \\ Y_2 \\ Y_3 \\ \vdots \\ Y_n \end{pmatrix}, \quad X = \begin{pmatrix} 1 & x_{11} & x_{12} & x_{13} & \cdots & x_{1k} \\ \vdots & \vdots & \vdots & \vdots & \ddots & \vdots \\ 1 & x_{n1} & x_{n2} & x_{n3} & \cdots & x_{nk} \end{pmatrix}, \quad \beta = \begin{pmatrix} \beta_0 \\ \beta_1 \\ \beta_2 \\ \vdots \\ \beta_k \end{pmatrix}, \quad \varepsilon = \begin{pmatrix} \varepsilon_1 \\ \varepsilon_2 \\ \varepsilon_3 \\ \vdots \\ \varepsilon_n \end{pmatrix}\]

dan

Y : vektor variabel dependen berukuran n x k

X : matriks variabel independen berukuran n x (k+1)

β : vektor parameter berukuran (k+1) x 1

ϵ : vektor error berukuran n x 1

Sedangkan nilai estimasi untuk y dan ϵ adalah :

\(\hat{y}=X \beta\) dan

\(\hat{\epsilon}=y-\hat{y}=y-X \hat{\beta}: \text { residu }\)

Parameter dalam model regresi linier berpengaruh terhadap kecocokan model dengan data yang digunakan, sehingga estimasi parameter diperlukan dalam penentuan parameter.

UJI SIGNIFIKANSI

Uji Signifikansi Simultan (F)

Menurut Ghozali (2012: 98), uji simultan F pada dasarnya menunjukkan apakah semua variabel independen atau variabel independen yang dimasukkan dalam model mempunyai pengaruh secara bersama-sama (simultan) terhadap variabel dependen. Uji simultan dilakukan secara bersamasama dengan analisis varians (ANOVA).

Hasil uji F ini semakin diperkuat dengan hasil dari uji kesesuaian model \((R^2)\). Menurut Trijono (2015:77), keputusan untuk menerima model sebagai baik atau tepat harus dilihat bersama antara besarnya nilai F dan \(R^2\).

Nilai \(R^2\) terletak antara 0 – 1. Nilai \(R^2\) yang kecil berarti kemampuan variabel-variabel independen dalam menjelaskan variabel dependen amat terbatas. Nilai yang mendekati satu berarti variabel-variabel independen memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variabel dependen.

Hipotesis

\[H_0: \beta_1=\beta_2=\beta_3=\ldots=\beta_k= 0 \text { (tidak ada pengaruh secara simultan variabel independen terhadap variabel dependen) }\]

\(H_1: \text { minimal ada satu } \beta_k \neq 0 \text { (ada pengaruh secara simultan variabel independen terhadap variabel dependen) }\)

Daerah Kritis

\(H_0 \text { ditolak jika nilai } F_{\text {hitung }}>F_{(k-1, n-k, \alpha)}\)

Statistik Uji

\[F=\frac{R K R}{R K S}\]

dimana

\[\begin{aligned} R K R & =\frac{J K R}{k-1} \\ J K R & =\sum_{i=1}^n\left(\hat{Y}_i-\bar{Y}\right)^2 \\ R K S & =\frac{J K S}{n-k} \\ J K S & =\sum_{i=1}^n\left(Y_i-\hat{Y}_i\right)^2 \end{aligned}\]

dengan

k : banyaknya pengamatan

n : jumlah sampel

JKR : jumlah Kuadrat Regresi

JKS : jumlah Kuadrat Galat

RKR : rataan Kuadrat untuk Regresi

RKS : rataan Kuadrat untuk Galat

k-1 : derajat keindependenan JKR

n-1 : derajat keindependenan JKG

UJI SIGNIFIKANSI PARSIAL(t)

Menurut Ghozali (2013) Uji statistik t pada dasarnya digunakan untuk menunjukkan seberapa jauh pengaruh satu variabel independen secara individual dalam menerangkan variabel dependen. Hipotesis dari masing masing variabel yang akan di uji dengan statistik ini lebih dahulu ditentukan nilai \(t_{hitung}\) dengan rumus:

\[t_{hitung} = \frac{b_i}{S(b_i)}\\\] dengan

\(b_i\) : koefisien regresi

\(S_{(b_i)}\) : kesalahan baku koefisien regresi

Hipotesis dalam pengujian ini adalah:

Hipotesis

\[ \begin{aligned} H_0&: \ \beta_i = 0 \quad \text{(parameter regresi ke-$i$ tidak berpengaruh signifikan terhadap model)} \\ H_1&: \ \beta_i \ne 0, \text{ untuk } i = 0,1 \quad \text{(variabel independen ke-$i$ berpengaruh signifikan terhadap model)} \end{aligned} \]

Adapun penerimaan atau penolakan hipotesis dalam uji t berdasarkan pada kriteria berikut:

i). Apabila \(t_{hitung} > t_{tabel}\) dan nilai signifikan \(< 0,05\) maka variabel independen dapat menerangkan variabel dependennya atau dengan kata lain terdapat pengaruh yang signifikan diantara dua variabel yang diteliti.

ii). Apabila \(t_{hitung} > t_{tabel}\) dan nilai signifikan \(> 0,05\) maka variabel independen tidak dapat menerangkan variabel dependennya atau dengan kata lain tidak terdapat pengaruh yang signifikan diantara dua variabel yang diteliti.

iii). Diberikan tingkat signifikansi sebesar \(alpha = 0,05\), maka keputusan yang diambil adalah dengan membandingkan antara nilai \(t_{hitung}\) dengan \(t_{tabel}\) Selanjutnya aturan keputusannya adalah sebagai berikut:

Daerah kritis

\(H_0 \text { ditolak apabila nilai p-value < α=0.05}\)

UJI ASUMSI KLASIK

Uji Normalitas

Uji normalitas berfungsi untuk menguji apakah dalam sebuah model regresi memiliki residual yang berdistribusi normal. Banyak metode statistik yang memerlukan asumsi bahwa data berdistribusi normal. Jika data tidak berdistribusi normal, analisis yang dilakukan dapat menghasilkan kesimpulan yang tidak akurat atau tidak valid. Oleh karena itu, uji normalitas perlu dilakukan sebelum menerapkan metode statistik tertentu. Terdapat beberapa macam uji normalitas, seperti uji Kolmogorov-Smirnov, uji Shapiro Wilk, dll.

Uji Kolmogorov-Smirnov

Hipotesis

\(H_0 :\text { Residu berdistribusi normal }\)

\(H_1 :\text { Residu tidak berdistribusi normal }\)

Daerah Kritis

\(H_0 \text { ditolak jika } {D > D_{a,n}} \text{ ( nilai pada tabel Kolmogorov Smirnov )}\)

dengan

n : banyaknya observasi/nilai pengamatan

α : tingkat signifikansi yang dipilih untuk pengujian hipotesis (probabilitas maksimum untuk membuat kesalahan tipe I/kesalahan menolak hipotesis nol ketika sebenarnya benar). Nilai α yang umum digunakan adalah 0.05 atau 0.01.

Statistik Uji

\[D = max_{x} |F_{n}(x)-F_{0}(x)|\] dengan

\(F_{n}(x) :\text {probabilitas kumulatif normal.}\)

\(F_{0}(x) :\text {probabilitas kumulatif empiris.}\)

Uji Shapiro Wilk

Hipotesis

\(H_0 :\text {Residu berdistribusi normal}\)

\(H_1 :\text {Residu tidak berdistribusi normal}\)

Daerah Kritis

\(H_0 \text { ditolak jika nilai} \ α (0,10) < SW < α (0,50) \text { (nilai pada tabel Shapiro Wilk)}\)

Statistik Uji

\[SW = \frac{\left[ \sum_{i=1}^{k} a_i (x_{n-i+1} - x_i) \right]^2}{\left[ \sum_{i=1}^{n} (x_i - \bar{x}) \right]^2}\]

dengan

\(a_{i} :\text {konstanta yang dihasilkan dari kovarians, varians, dan mean sampel}\)

\(x_{n−i+1} :\text {nilai pengamatan ke} \text { n - i + 1}\)

\(x_{i} :\text {nilai pengamatan ke i}\)

\(\bar{x} :\text {rata-rata nilai pengamatan}\)

Uji Homogenitas

Uji homogenitas digunakan untuk menguji apakah dalam model regresi terjadi ketidaksamaan varian dari residual dari suatu pengamatan ke pengamatan lain. Syarat yang harus terpenuhi dalam model regresi adalah tidak adanya gejala heteroskedastisitas (Gujarati, 2003). Pengujian kali ini menggunakan uji Breusch-Pagan.

Hipotesis

\(H_0 :\text {Variansi residu homogen}\)

\(H_1 : \text {Paling tidak terdapat satu variansi residu tidak homogen}\)

Daerah kritis

\(H_0 \text{ ditolak apabila nilai } \phi_{hitung} > \chi^2_{(\alpha; k)} \text{ atau nilai } p\text{-value} < \alpha = 0{,}05\)

dengan k = banyaknya variabel independen

α : tingkat signifikansi yang dipilih untuk pengujian hipotesis (probabilitas maksimum untuk membuat kesalahan tipe I/kesalahan menolak hipotesis nol ketika sebenarnya benar). Nilai α yang umum digunakan adalah 0.05 atau 0.01.

Statistik Uji

\[ϕ = \frac {1} {2} (JKR)\\ \] dengan JKR : Jmlah Kuadrat Regresi

Uji Non Autokorelasi

Menurut Gujarati (1995) autokorelasi dapat didefinisikan sebagai hubungan yang terjadi antara anggota observasi yang diurutkan menurut waktu dan ruang. Dalam konteks regresi, model regresi linear klasik mengasumsikan bahwa autokorelasi seperti itu tidak terdapat dalam sesatan \(ϵ_{i}\), yang disebut kondisi non autokorelasi. Salah satu cara mendeteksi autokorelasi, yaitu dengan uji Durbin Watson (Gujarati, 1995). Hipotesis dalam pengujian ini adalah:

Hipotesis

\(H_0 :\text {Tidak ada autokorelasi antar residu}\)

\(H_1 :\text {Ada autokorelasi antar residu}\)

Adapun mekanismenya adalah sebagai berikut

i). Melakukan perhitungan metode kuadrat terkecil untuk memperoleh nilai \(ϵ_{i}\)

ii). Mencari besarnya nilai d yang diperoleh dengan rumus \[d = \frac{\sum_{i=2}^{n} (e_i - e_{i-1})^2}{\sum_{i=1}^{n} e_i^2}\]

iii). Untuk ukuran sampel 𝑛 dan 𝑘 = 𝑝−1, dengan 𝑝 adalah banyaknya parameter sehingga diperoleh nilai kritis \(d_{L}\) dan \(d_{U}\) (dapat dilihat pada Tabel Statistik 𝑑 )

iv). Jika diberikan tingkat signifikansi sebesar \(α\) , maka keputusan yang diambil adalah dengan membandingkan antara nilai d pengujian dengan nilai \(d_{U}\) (nilai batas atas dari tabel Durbin-Watson) dan \(d_{L}\) (nilai batas bawah dari tabel Durbin-Watson). Selanjutnya aturan keputusannya adalah sebagai berikut:

\[ - jika \ d_w < d_L \: \ H_0 \ ditolak\\ - Jika \ d_w > (4 - d_L) \: \ H_0 \ ditolak\\ - Jika \ d_U < d_w < (4 - d_U) \: \ H_0 \text { tidak ditolak }\\ - Jika \ d_L \leq d_w \leq d_U \ atau \ (4 - d_U) \leq d_w \leq (4 - d_L) \:\text { pengujian tidak dapat diambil keputusan }\]

Uji Non Multikolinearitas

Uji non-multikolinearitas merupakan salah satu asumsi dalam analisis regresi yang penting untuk memastikan bahwa variabel independen dalam model tidak saling berkorelasi tinggi. Dalam konteks regresi berganda atau ketika kita menggunakan lebih dari satu variabel independen, uji ini membantu mengidentifikasi apakah terdapat multikolinearitas antara variabel-variabel tersebut. Menurut Montgomery dan Peck (1992), salah satu cara mendeteksi adanya multikolinearitas dalam model adalah dengan nilai tolerance dan VIF (Variance Inflation Factors).

Hipotesis

\(H_0 :\text {Tidak terjadi multikolinearitas}\)

\(H_1 :\text {Terjadi multikolinearitas}\)

Daerah kritis

\(H_0 \text { ditolak apabila nilai } {VIF > 10}\)

α : tingkat signifikansi yang dipilih untuk pengujian hipotesis (probabilitas maksimum untuk membuat kesalahan tipe I/kesalahan menolak hipotesis nol ketika sebenarnya benar). Nilai α yang umum digunakan adalah 0.05 atau 0.01.

Statistik Uji

\[VIF_{j} = C_{jj}=\frac {1} {1-R^2_j},\quad j = 1 , 2,\dots k\]

Langkah-Langkah Analisis Data

  1. Menguji signikansi antara variabel independen terhadap variabel dependen, dengan uji signfikansi secara simultan dan secara parsial
  2. Menguji asumsi klasik yakni meliputi uji normalitas, uji homogen, uji non autokorelasi, dan uji non multikolinearitas
  3. Memodelkan dengan regresi linear berganda
  4. Kesimpulan

Pembahasan

Sumber data

data yang digunakan pada analisis ini adalah data luas panen, produktivitas, dan produksi padi pada provinsi jawa timur tahun 2019. data ini bersumber dari website resmi Badan Pusat Statistik (BPS)

Packages yang dibutuhkan

library(readxl)
library(car)
## Loading required package: carData
library(MASS)
library(lmtest)
## Loading required package: zoo
## 
## Attaching package: 'zoo'
## The following objects are masked from 'package:base':
## 
##     as.Date, as.Date.numeric

Input data

data = read_excel("C:/users/FIRMANSYAH/Downloads/regresiberganda.xlsx")
data
## # A tibble: 38 × 3
##        x1    x2       y
##     <dbl> <dbl>   <dbl>
##  1  20504    45  91942.
##  2  58080    55 322206.
##  3  20475    55 112214.
##  4  34584    57 196431.
##  5  36194    62 224027.
##  6  39449    56 222838.
##  7  48398    58 281072.
##  8  53466    53 283894.
##  9 123591    50 616858.
## 10  81553    55 445254.
## # ℹ 28 more rows

dengan

\(Y =\text { produksi padi}\)

\(x_1 =\text { luas panen }\)

\(x_2 =\text { produktivitas }\)

Model Regresi

model.reg=lm(y~., data=data)
summary(model.reg)
## 
## Call:
## lm(formula = y ~ ., data = data)
## 
## Residuals:
##    Min     1Q Median     3Q    Max 
## -65291  -7196   2136  12421  59269 
## 
## Coefficients:
##               Estimate Std. Error t value Pr(>|t|)    
## (Intercept) -1.848e+05  3.116e+04  -5.931 9.52e-07 ***
## x1           5.708e+00  9.367e-02  60.937  < 2e-16 ***
## x2           3.230e+03  5.491e+02   5.882 1.10e-06 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 21630 on 35 degrees of freedom
## Multiple R-squared:  0.9908, Adjusted R-squared:  0.9903 
## F-statistic:  1887 on 2 and 35 DF,  p-value: < 2.2e-16

UJI SIGNIFIKANSI

Uji Signifikansi Simultan (F)

Hipotesis

\(H_0 :\text { kedua variabel secara simultan tidak berpengaruh signifikan terhadap produksi padi }\)

\(H_1 :\text { paling tidak ada satu variabel yang berpengaruh signifikan terhadap produksi padi }\)

Taraf signifikansi : \(α =\text {5 %}\)

Daerah kritis

\(H_0 \text { ditolak apabila nilai p-value < α = 0.05}\)

Statistik uji :

model.reg=lm(y~., data=data)
summary(model.reg)
## 
## Call:
## lm(formula = y ~ ., data = data)
## 
## Residuals:
##    Min     1Q Median     3Q    Max 
## -65291  -7196   2136  12421  59269 
## 
## Coefficients:
##               Estimate Std. Error t value Pr(>|t|)    
## (Intercept) -1.848e+05  3.116e+04  -5.931 9.52e-07 ***
## x1           5.708e+00  9.367e-02  60.937  < 2e-16 ***
## x2           3.230e+03  5.491e+02   5.882 1.10e-06 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 21630 on 35 degrees of freedom
## Multiple R-squared:  0.9908, Adjusted R-squared:  0.9903 
## F-statistic:  1887 on 2 and 35 DF,  p-value: < 2.2e-16

Kesimpulan

berdasarkan output diperoleh nilai p-value:\(<2,2e-16\), dimana p-value:\(<2,2e-16\) < $ α =\text {5 %}$, maka \(H_0\) ditolak berarti bahwa paling tidak ada satu variabel yang berpengaruh signifikan terhadap jumlah produksi padi

Uji Signifikansi Parsial(t)

Hipotesis

Variabel \(X_1\) = Luas Panen

\(H_0 :\text { Luas panen tidak berpengaruh signifikan terhadap jumlah produksi padi }\)

\(H_1 :\text { Luas panen berpengaruh signifikan terhadap jumlah produksi padi }\)

Variabel \(X_2\) = Produktifitas

\(H_0 :\text { Produktifitas tidak berpengaruh signifikan terhadap jumlah produksi padi }\)

\(H_1 :\text { Produktifitas berpengaruh signifikan terhadap jumlah produksi padi }\)

taraf signifikansi : \(α =\text {5 %}\)

Daerah kritis

\(H_0 \text { ditolak apabila nilai p-value < α = 0.05}\)

Statistik uji :

summary(model.reg)
## 
## Call:
## lm(formula = y ~ ., data = data)
## 
## Residuals:
##    Min     1Q Median     3Q    Max 
## -65291  -7196   2136  12421  59269 
## 
## Coefficients:
##               Estimate Std. Error t value Pr(>|t|)    
## (Intercept) -1.848e+05  3.116e+04  -5.931 9.52e-07 ***
## x1           5.708e+00  9.367e-02  60.937  < 2e-16 ***
## x2           3.230e+03  5.491e+02   5.882 1.10e-06 ***
## ---
## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
## 
## Residual standard error: 21630 on 35 degrees of freedom
## Multiple R-squared:  0.9908, Adjusted R-squared:  0.9903 
## F-statistic:  1887 on 2 and 35 DF,  p-value: < 2.2e-16

Kesimpulan :

untuk \(X_1\) : Karena p-value = \(<2,2e-16\) < $ α =\text {5 %}$, maka \(H_0\) ditolak yang artinya luas panen berpengaruh signifikan terhadap Jumlah Produksi Padi

Untuk \(X_2\) : Karena p-value = \(1,10e-0,6\) < $ α =\text {5 %}$, maka \(H_0\) ditolak yang artinya produktifitas berpengaruh terhadap jumlah produksi padi

library(ggplot2)

# Scatterplot for x1 vs y
ggplot(data, aes(x = x1, y = y)) +
  geom_point() +
  labs(x = "Luas Panen", y = "Jumlah Produksi Padi", title = "Scatterplot of Jumlah Produksi Padi vs Luas Panen")

Kesimpulan

Berdasarkan plot dapat dilihat bahwa plot linear ke kanan sehingga dapat disimpulkan bahwa Luas Panen memiliki hubungan positif dengan Jumlah Produksi Padi.

# Scatterplot for x2 vs y
ggplot(data, aes(x = x2, y = y)) +
  geom_point() +
  labs(x = "Produktifitas", y = "Jumlah Produksi Padi", title = "Scatterplot of Jumlah Produksi Padi vs Produktifitas")

Kesimpulan

Berdasarkan plot dapat dilihat bahwa sebaran titik menunjukkan kecenderungan naik ke arah kanan, meskipun tidak sepenuhnya membentuk garis lurus. Hal ini menunjukkan bahwa Produktifitas memiliki hubungan positif dengan Jumlah Produksi Padi, namun hubungan tersebut bersifat lemah hingga sedang karena terdapat banyak penyimpangan (outlier) dan variasi yang besar antar data. Maka dapat dikatakan kenaikan produktifitas cenderung diikuti dengan kenaikan jumlah produksi padi, tetapi tidak selalu konsisten.

UJI ASUMSI KLASIK

Uji Normalitas

Hipotesis

\(H_0 :\text { Residu Berdistribusi Normal }\)

\(H_1 :\text { Residu tidak Berdistribusi Normal }\)

taraf signifikansi : \(α =\text {5 %}\)

Daerah kritis

\(H_0 \text { ditolak apabila nilai p-value < α = 0.05}\)

Statistik uji :

shapiro.test(model.reg$residuals)
## 
##  Shapiro-Wilk normality test
## 
## data:  model.reg$residuals
## W = 0.94089, p-value = 0.04478

Kesimpulan

Berdasarkan uji Shapiro-Wilk diatas, diperoleh nilai p-value = \(0.04478\) < \(α = 0.05\) sehingga \(H_0\) ditolak. Dapat disimpulkan bahwa residu tidak berdistribusi normal, yang artinya asumsi normalitas tidak terpenuhi.

Uji Homogenitas

Hipotesis

\(H_0 :\text { Variansi residu homogen }\)

\(H_1 :\text { paling tidak terdapat satu variansi residu tidak homogen }\)

taraf signifikansi : \(α =\text {5 %}\)

Daerah kritis

\(H_0 \text { ditolak apabila nilai p-value < α = 0.05}\)

Statistik uji :

bptest(model.reg)
## 
##  studentized Breusch-Pagan test
## 
## data:  model.reg
## BP = 9.0469, df = 2, p-value = 0.01085

Kesimpulan

Berdasarkan uji Breushch-Pagan diatas, diperoleh nilai p-value = \(0.01085\) < \(α = 0.05\) sehingga \(H_0\) ditolak . Artinya, terdapat bukti yang cukup untuk menyimpulkan bahwa residu tidak homogen atau terjadi heteroskedastisitas pada model regresi tersebut.

Uji Non Autokorelasi

Hipotesis

\(H_0 :\text { Tidak ada autokorelasi antar residu }\)

\(H_1 :\text { Ada autokorelasi antar individu }\)

taraf signifikansi : \(α =\text {5 %}\)

Daerah kritis

\(H_0 \text { ditolak apabila nilai p-value < α = 0.05}\)

Statistik uji :

dwtest(model.reg)
## 
##  Durbin-Watson test
## 
## data:  model.reg
## DW = 1.93, p-value = 0.337
## alternative hypothesis: true autocorrelation is greater than 0

Kesimpulan

Berdasarkan uji Durbin-Watson diatas, diperoleh nilai p-value = \(0.337 > α = 0.05\) sehingga \(H_0\) diterima. Dapat disimpulkan bahwa tidak ada autokorelasi antar residu, yang artinya asumsi non autokorelasi terpenuhi.

Uji Multikolinearitas

Hipotesis

\(H_0 :\text { Tidak terjadi multikolinearitas }\)

\(H_1 :\text { Terjadi multikolinearitas }\)

taraf signifikansi : $ α =\text {5 %}$

Daerah kritis

\(H_0 \text { ditolak apabila nilai p-value < α = 0.05}\)

Statistik uji :

vif(model.reg)
##       x1       x2 
## 1.000949 1.000949

Kesimpulan

Berdasarkan uji VIF diatas, diperoleh nilai VIF dari \(X_1,X_2 < 10\) sehingga \(H_0\) diterima. Dapat disimpulkan bahwa tidak terjadi multikolinearitas, yang artinya asumsi non multikolinearitas terpenuhi.

Model Regresi Linear Berganda

Analisis Regresi variabel \(Y\) Jumlah produksi padi dengan variabel independen yaitu luas panen \((X_1)\), produktifitas \((X_2)\).

modelregresi <- lm(data$y~data$`x1`+data$`x2`, data = data)
modelregresi
## 
## Call:
## lm(formula = data$y ~ data$x1 + data$x2, data = data)
## 
## Coefficients:
## (Intercept)      data$x1      data$x2  
##  -1.848e+05    5.708e+00    3.230e+03

Berdasarkan hasil analisis regresi diatas didapatkan persamaan regresi:

\[Y=−184,000+5,708X_1+3,230X_2\]

menunjukkan bahwa baik luas panen maupun produktivitas berpengaruh positif terhadap produksi padi. Koefisien \(5.708\) pada \(X_1\) mengindikasikan bahwa setiap penambahan 1 hektar luas panen, dengan produktivitas tetap, akan meningkatkan produksi padi sebesar \(5,708\) satuan (misalnya ton). Sementara itu, koefisien \(3.230\) pada \(X_2\) menunjukkan bahwa peningkatan produktivitas sebesar \(1\) satuan, dengan luas panen tetap, akan menambah produksi sebesar \(3,230\) satuan. Nilai konstanta −184.000 tidak memiliki makna praktis secara langsung, karena menunjukkan produksi saat luas panen dan produktivitas sama dengan nol, yang tidak realistis. Secara keseluruhan, model ini memperlihatkan bahwa peningkatan luas panen memberikan dampak yang lebih besar terhadap produksi dibandingkan peningkatan produktivitas.