Apa bedanya regresi berganda dan regresi linier berganda?

Regresi Linear Berganda adalah model regresi linear dengan melibatkan lebih dari satu variable bebas atau predictor. Dalam bahasa inggris, istilah ini disebut dengan multiple linear regression.

Pada dasarnya regresi linear berganda adalah model prediksi atau peramalan dengan menggunakan data berskala interval atau rasio serta terdapat lebih dari satu predictor.

Lantas, kenapa memakai regresi linier berganda? Analisis regresi linear berganda ini biasanya digunakan untuk mengetahui arah hubungan antara variabel independen dengan variabel dependen apakah masing-masing variabel independen berhubungan positif atau negatif.

Hemn... Mari kita bahas sedikit regresi linear agar lebih paham. Dalam statistika, regresi linear adalah sebuah pendekatan untuk memodelkan hubungan antara variable terikat Y dan satu atau lebih variable bebas yang disebut X. Salah satu kegunaan dari regresi linear adalah untuk melakukan prediksi berdasarkan data-data yang telah dimiliki sebelumnya.  Hubungan di antara variable-variabel tersebut disebut sebagai model regresi linear. Berdasarkan penggunaan variable bebas, maka regresi linear dapat dibagi menjadi dua, yaitu regresi linear univariate dan regresi linear multivariate. (Wikipedia)

Jadi perbedaan Regresi Linear Berganda dan Regresi Linear Sederhana berapa pada jumlah variable bebas nya. Jika jumlah variable bebas hanya satu, maka itu disebut dengan regresi linear sederhana.

Dalam pemanfaatannya, regresi linier sederhana digunakan apabila variable dependen dipengaruhi hanya oleh satu variable independent, sedangkan regresi linier berganda digunakan untuk menguji pengaruh lebih dari satu variable independent terhadap variable dependen.

Model regresi linear berganda dilukiskan dengan persamaan sebagai berikut (statistikian):

Y = α + β1 X2 + β2 X2 + βn Xn + e

Keterangan:
Y = Variabel terikat atau response.
X = Variabel bebas atau predictor.
α = Konstanta.
β = Slope atau Koefisien estimate.

Lebih lanjut analisis/uji regresi merupakan suatu kajian dari  hubungan antara satu variabel, dengan satu atau lebih variabel. Apabila variabel bebasnya hanya satu, maka uji/analisis regresinya dikenal dengan regresi linier sederhana.  Apabila variabel bebasnya lebih dari pada satu, maka uji/analisis regresinya dikenal dengan regresi linear berganda. Dikatakan linier berganda karena terdapat dua atau lebih variabel bebas yang mempengaruhi variabel tak bebas.  

Analisis regresi digunakan untuk mengukur seberapa besar pengaruh antara variabel bebas dan variabel terikat. Apabila hanya terdapat satu variabel bebas dan satu variabel terikat, maka regresi tersebut dinamakan regresi linear sederhana (Juliandi, Irfan, & Manurung, 2014). Sebaliknya, apabila terdapat lebih dari satu variabel bebas atau variabel terikat, maka disebut regresi linear berganda. Regresi linear berganda merupakan model regresi yang melibatkan lebih dari satu variabel independen. Analisis regresi linear berganda dilakukan untuk mengetahui arah dan seberapa besar pengaruh variabel independen terhadap variabel dependen (Ghozali, 2018).

Dalam contoh penelitian ini uji regresi linear berganda dilakukan untuk mendapatkan gambaran bagaimana variabel independen yang meliputi CSR, likuiditas, capital intensity, dan inventory intensity mempengaruhi variabel dependen yaitu agresivitas pajak dengan tingkat signifikansi sebesar 0,05 (Ghozali, 2018). Hasil dalam pengujian regresi linear berganda dalam table 1 sebagai berikut.

Dalam teori statistik, banyak peneliti mungkin tidak lagi asing dengan model regresi data panel dan regresi linear berganda. Meski keduanya sama-sama digunakan untuk memprediksi nilai pada intersep dan slope, namun terdapat perbedaan yang cukup signifikan.

Ini perbedaan regresi data panel dan regresi linear berganda, bisa tergantung pada peneliti serta jenis penelitian yang bakal dijalankan. Tentu juga, dengan mempertimbangkan kelebihan dan kelemahan di masing-masing metode yang ada.

Analisis regresi terdiri atas berbagai jenis, salah satunya adalah regresi linear berganda. Analisis yang satu ini melibatkan lebih dari satu variabel bebas atau predictor. Dalam bahasa Inggris, model ini disebut dengan multiple linear regression.

Perbedaan Regresi Sederhana dengan Regresi Linear Berganda

Membedakan analisis regresi sederhana dengan analisis regresi linear berganda bukan hal yang sulit. Analisis regresi sederhana hanya melibatkan satu variabel dependen dan satu variabel independen. Sedangkan regresi linear berganda menggunakan jumlah variabel bebas yang berjumlah lebih dari satu.

Asumsi klasik regresi linear berganda

Seperti halnya uji parametris lainnya, regresi linear juga memiliki syarat atau asumsi klasik yang harus terpenuhi agar model prediksi yang dihasilkan nantinya bersifat BLUE (Best Linear Unbiased Estimation). Asumsi klasik pada regresi linear berganda antara lain:

1. Data interval atau rasio

Skala data semua variabel terutama variabel terikat adalah interval atau rasio. Asumsi ini tidak perlu diuji, cukup kita pastikan bahwa data yang digunakan adalah data interval atau rasio (numeric atau kuantitatif).

2. Linearitas

Variabel bebas berhubungan dengan variabel terikat. Asumsi linearitas diuji dengan uji linearitas regresi, misalnya dengan kurva estimasi.

Dengan kurva estimasi kita bisa menentukan ada hubungan linear atau tidak dengan melihat nilai p value linearitas. Jika p value < 0,05 maka terdapat hubungan yang linear antara predictor dan response.

3. Normalitas residual

Residual adalah beda antara y dengan y prediksi. Dalam hal ini, y adalah variabel terikat, sedangkan y prediksi adalah y hasil persamaan regresi yang dibuat. Dengan demikian, residual dibangun dengan rumus y – y prediksi. Asumsi normalitas pada regresi linear adalah pada residualnya, bukan pada data per variabel.

Uji asumsi normalitas regresi linear dapat diuji dengan berbagai metode uji normalitas, seperti uji Shapiro wilk, Lilliefors, atau Kolmogorov smirnov, Anderson darling, Ryan joiner, Shapiro francia, Jarque bera, Skewness kurtosis test, dan berbagai jenis uji normalitas lainnya.

4. Non outlier

Outlier disebut dengan data pencilan atau data yang nilainya extreme atau lain dari pada yang lainnya. Batasan outlier tidak bisa dilihat dari nilai absolut studentized residual. Jika absolut studentized residual > 3, maka sampel atau observasi yang dimaksud menjadi outlier.

5. Homoskedastisitas

Homoskedastisitas adalah sebuah kondisi saat varians dari error bersifat konstan atau tetap. Dengan kata lain, varians dari error bersifat identic untuk setiap pengamatan.

Kebalikan dari homoskedastisitas adalah heteroskedastisitas. Model regresi linear berganda yang baik adalah model yang bebas dari kondisi heteroskedastisitas.

Untuk menguji homoskedastisitas regresi linear berganda, dapat digunakan uji homoskedastisitas dari glejser, uji park, uji white, spearman heteroskedastisitas, dan masih banyak uji lainnya.

6. Non Multikolinearitas

Multikolinearitas adalah keadaan saat terdapat interkorelasi atau korelasi kuat antarvariabel bebas di dalam model. Dinyatakan ada interkorelasi jika korelasi antarvariabel bebas di dalam model regresi linear berganda > 0,8. Beberapa pakar menggunakan batasan lebih dari 0,9.

Cara lain yang lebih objektif adalah dengan menggunakan nilai variance inflating factor (VIF) dan tolerance. Dikatakan ada multikolinearitas jika nilai VIF > 10 dan/atau nilai tolerance < 0,01.

Berdasarkan uraian di atas, maka jelas sekali bahwa asumsi multikolinearitas hanya ada dalam regresi linear berganda dan tidak ada pada regresi linear sederhana. Sebab pada regresi linear berganda ada lebih dari satu variabel bebas, sedangkan pada regresi linear sederhana hanya ada satu variabel bebas.

7. Non Autokorelasi

Autokorelasi dapat diartikan bahwa terdapat korelasi antar waktu. Sehingga bisa diartikan dengan mudah bahwa autokorelasi ini sering terjadi pada regresi linear berganda dengan data time series atau runtun waktu dan jarang sekali terjadi pada data cross section.

Data runtun waktu ini, misalnya data return of investment (ROI) atas saham milik sebuah perusahaan per bulan dari tahun 2012 hingga 2017. Sedangkan data cross section, misalnya data hasil dari kuesioner yang disebarkan pada semua siswa sebuah kelas, yaitu hanya diukur satu kali saja.

Uji autokorelasi ini bisa diuji dengan menggunakan nilai Durbin Watson (DW) dan run test. 

Contoh Analisis Regresi Linear Berganda

Analisis regresi linier berganda adalah hubungan secara linear antara dua atau lebih variabel independen (X1, X2,….Xn) dengan variabel dependen (Y). maka data yang digunakan biasanya berskala interval atau rasio. Persamaan regresi linear berganda adalah sebagai berikut.

Y’ = a + b1X1+ b2X2+…..+ bnXn

Y’                    = Variabel dependen (nilai yang diprediksikan).

X1 dan X2      = Variabel independen.

a                      = Konstanta (nilai Y’ apabila X1, X2…..Xn = 0).

b                      = Koefisien regresi (nilai peningkatan ataupun penurunan).

Contoh kasus

Seorang mahasiswa bernama Ari melakukan penelitian tentang faktor-faktor yang memengaruhi harga saham pada perusahaan di BEJ. Dalam penelitiannya, ia ingin mengetahui hubungan antara rasio keuangan PER dan ROI terhadap harga saham. 

Dengan ini, Ari menganalisis dengan bantuan program SPSS dengan alat analisis regresi linear berganda. Dari uraian di atas didapat variabel dependen (Y) adalah harga saham, sedangkan variabel independen (X1 dan X2) adalah PER dan ROI.

Data-data yang di dapat berupa data rasio dan ditabulasikan sebagai berikut.            

Tabulasi Data (contoh)

TahunHarga Saham (Rp)PER (%)ROI (%)199083004.906.47199175003.283.14199289505.055.00199382504.004.75199490005.976.23199587504.246.031996100008.008.75199782007.457.72199883007.478.0019991090012.6810.4020001280014.4512.422001945010.508.6220021300017.2412.072003800015.565.832004650010.855.202005900016.568.532006760013.247.3720071020016.989.38

Langkah-Langkah pada program SPSS

Berikut adalah langkah-langkah menggunakan program SPSS.

  1. Masuk program SPSS.
  2. Klik variable view pada SPSS data editor.
  3. Pada kolom Name ketik y, kolom Name pada baris kedua ketik x1, kemudian untuk baris kedua ketik x2.
  4. Pada kolom Label, untuk kolom pada baris pertama ketik Harga Saham, untuk kolom pada baris kedua ketik PER, kemudian pada baris ketiga ketik ROI.
  5. Untuk kolom-kolom lainnya boleh dihiraukan (isian default).
  6. Buka data view pada SPSS data editor, maka didapat kolom variabel y, x1, dan x2.
  7. Ketikkan data sesuai dengan variabelnya.
  8. Klik Analyze  – Regression – Linear.
  9. Klik variabel Harga Saham dan masukkan ke kotak Dependent, kemudian klik variabel PER dan ROI kemudian masukkan ke kotak Independent.
  10. Klik Statistics, klik Casewise diagnostics, klik All cases. Klik Continue.

Terakhir, klik OK, maka hasil output yang didapat pada kolom Coefficients dan Casewise diagnostics dapat dilihat pada tabel Hasil Analisis Regresi Linear Berganda berikut.

Persamaan regresinya sebagai berikut.

Y’ = a + b1X1+ b2X2

Y’ =  4662,491 + (-74,482)X1 + 692,107X2

Y’ =  4662,491 – 74,482X1 + 692,107X2

Keterangan:

Y’        = Harga saham yang diprediksi (Rp)

a          = konstanta

b1,b2  = koefisien regresi

X1        = PER (%)

X2        = ROI (%)

Persamaan regresi di atas dapat dijelaskan sebagai berikut.

  • Konstanta sebesar 4662,491; artinya jika PER (X1) dan ROI (X2) nilainya adalah 0, maka harga saham (Y’) nilainya adalah Rp4662,491.
  • Koefisien regresi variabel PER (X1) sebesar -74,482; artinya jika variabel independen lain nilainya tetap dan PER mengalami kenaikan 1%, maka harga saham (Y’) akan mengalami penurunan sebesar Rp74,482. Koefisien bernilai negatif artinya terjadi hubungan negatif antara PER dengan harga saham, semakin naik PER maka semakin turun harga saham. 
  • Koefisien regresi variabel ROI (X2) sebesar 692,107; artinya jika variabel independen lain nilainya tetap dan ROI mengalami kenaikan 1%, maka harga saham (Y’) akan mengalami peningkatan sebesar Rp692,107. Koefisien bernilai positif artinya terjadi hubungan positif antara ROI dengan harga saham, semakin naik ROI maka semakin meningkat harga saham.

Nilai harga saham yang diprediksi (Y’) dapat dilihat pada tabel Casewise Diagnostics (kolom Predicted Value). Sedangkan Residual (unstandardized residual) adalah selisih antara harga saham dengan Predicted Value, dan Std. 

Residual (standardized residual) adalah nilai residual yang telah terstandarisasi (nilai semakin mendekati 0 maka model regresi semakin baik dalam melakukan prediksi, sebaliknya semakin menjauhi 0 atau lebih dari 1 atau -1, maka semakin tidak baik model regresi dalam melakukan prediksi).

Analisis regresi linear berganda ini biasanya digunakan untuk mengetahui arah hubungan antara variabel independen dengan variabel dependen apakah masing-masing variabel independen berhubungan positif atau negatif. Selain itu untuk memprediksi apakah nilai dari variabel dependen apabila nilai variabel independen mengalami kenaikan atau penurunan. 

Semoga artikel ini bermanfaat, ya! Cari tahu lagi ulasan-ulasan lainnya terkait keuangan dan asuransi di Lifepal, yuk!

Apa perbedaan regresi berganda dan regresi linier berganda?

Jika dua atau lebih variabel penjelas memiliki hubungan linier dengan variabel dependen, regresi disebut regresi linier berganda. Regresi berganda, di sisi lain, adalah kelas regresi yang lebih luas yang mencakup regresi linear dan nonlinier dengan beberapa variabel penjelas.

Apa itu regresi linier dan berganda?

Regresi linear berganda merupakan model regresi yang melibatkan lebih dari satu variabel independen. Analisis regresi linear berganda dilakukan untuk mengetahui arah dan seberapa besar pengaruh variabel independen terhadap variabel dependen (Ghozali, 2018).

Apa saja jenis regresi berganda?

Ada dua metode yang sering dipakai dalam jenis regresi berganda ini, yaitu metode logit dan probit.

Mengapa pakai regresi linier berganda?

Adapun tujuan dari analisis regresi linier berganda adalah mengetahui seberapa besar pengaruh beberapa variabel bebas terhadap variabel tidak bebas dan juga dapat meramalkan nilai variabel tidak bebas apabila seluruh variabel bebas sudah diketahui nilainya.