Pengujian
Asumsi Model Regresi
Berkaitan dengan model yang
digunakan adalah model regresi linier berganda dengan data panel, maka
memerlukan pemenuhan asumsi agar model dapat digunakan sebagai alat estimasi
yang baik. Dalam regresi linier berganda dikenal setidaknya ada 4 (empat)
asumsi yang diuji, yaitu asumsi normalitas, asumsi nonmultikolinieritas, asumsi
nonautokorelasi, dan asumsi homoskedastisitas. Penjelasan keempat asumsi model
regresi adalah sebagai berikut:
a.
Asumsi Normalitas
Asumsi
normalitas penting karena merupakan syarat dalam penelitian parametrik. Clasical normal linear regression model
mengasumsikan bahwa error εit
(Gujarati, 2003, hal. 108) sebagai berikut:
Rata-rata:
(44)
Varians :
(45)
Cov (εit, εis):
; i ≠ s (46)
Menurut
Gujarati (2003, hal. 147-148), uji normalitas dapat dilakukan dengan melihat
histogram dari residual, Normal Probability
Plot (NPP) dan Jarque-Bera test.
Penjelasannya sebagai berikut:
Ø Histogram
dari residual
Histogram
dari residual merupakan cara yang paling sederhana untuk melihat apakah data
berdistribusi normal atau tidak, hanya terdiri dari dua langkah. Pertama, dibentuk kurva melalui data
yang ada. Kedua, dari kurva tersebut
dilihat, jika kurvanya berbentuk lonceng maka dapat dikatakan bahwa data
tersebut berdistribusi normal. Berikut adalah contoh histogram residual:
Gambar 2. Contoh histogram residual
Ø Normal Probability Plot (NPP)
Melalui NPP
dapat dilihat plot dari residual di mana pada sumbu horizontal adalah nilai
residual dan pada sumbu vertikal adalah nilai probability-nya. Apabila plot cenderung menyebar pada sekitar garis
lurus maka dapat dikatakan bahwa data tersebut terdistribusi normal. Contoh NPP
apabila data normal:
Sumber:
Gujarati (2003, hal 148)
Gambar 3. Contoh Normal Probabilithy Plot
(NPP)
Uji
Jarque-Bera merupakan uji formal dalam pengujian asumsi normalitas. Uji
normalitas Jarque-Bera bersifat asimtotik atau uji yang diberlakukan dalam
sampel besar yang juga berdasarkan residual OLS. Prosedur dari pengujian
awalnya adalah menghitung skewness
dan kurtosis yang digunakan untuk
mengukur residual OLS dengan menggunakan uji statistik berikut (Gujarati, 2003,
hal. 148):
(47)
di mana
(48)
(49)
di
mana N adalah jumlah sampel, S adalah skewness,
dan K adalah kurtosis. Nilai JB
dibandingkan dengan nilai chi-square
dengan derajat bebas 2. Apabila nilai JB lebih kecil dari nilai chi-square tabel atau nilai probability-nya lebih besar dari p-value maka dapat disimpulkan bahwa residual mengikuti distribusi normal.
b.
Asumsi Nonmultikolinieritas
1) Estimator
masih BLUE tetapi mempunyai variance
dan covariance yang besar, sehingga
sulit mendapatkan estimasi yang tepat.
2)
Karena variance dan covariance yang besar, selang kepercayaan cenderung lebih lebar dan
nilai hitung statistik uji t akan kecil sehingga membuat variabel bebas secara
statistik tidak signifikan memengaruhi variabel tak bebas.
3)
Dengan tingginya
tingkat kolinearitas, peluang untuk menerima hipotesis, padahal hipotesis itu
salah (type II error), menjadi
semakin besar.
4)
Nilai koefisien
determinasi (R2) relatif
tinggi, tetapi uji parsial tidak signifikan.
5) Selama
konilieritas ganda tidak sempurna, masih mungkin untuk menghitung perkiraan
koefisien regresi, tetapi standard error-nya menjadi sangat sensitif,
walaupun terjadi perubahan yang sangat kecil.
Ada beberapa cara untuk mendeteksi
multikolinieritas, yaitu:
a) Nilai
koefisien determinasi (R2)
masih relatif tinggi tetapi dari hasil uji t parsial (partial t test)
menunjukkan tidak satupun atau sangat sedikit sekali variabel yang signifikan
mempengaruhi variabel tidak bebas maka patut dicurigai adanya multikoliniaritas
antarpeubah bebas. Namun dari uji F simultan
(overall F test) menunjukan hasil yang signifikan (Gujarati, 2003, hal.
354).
b) Apabila
korelasi antara variabel bebas cukup tinggi, maka model tersebut dapat dicurigai
mempunyai multikolinieritas. Hal ini dapat dilihat dari matriks korelasi antar
variabel bebas. Apabila sepasang variabel penjelas memiliki koefisien korelasi
lebih dari sama dengan 0.90 maka diduga terdapat hubungan linier antara kedua
variabel tersebut (Sanjoyo, 2008).
c)
Jika koefisien korelasi
tinggi, tapi koefisien korelasi parsialnya rendah, maka dapat dikatakan
terdapat hubungan linier yang cukup tinggi antar variabel bebas yang ada dalam
model.
d) Gujarati
(2003, hal. 351), menggunakan nilai Variance
Inflation Factor (VIF) atau Tolerance.
(50)
(51)
Menurut Neter,
et al (1989, hal. 409) jika nilai VIF > 10 maka dapat disimpulkan bahwa
terdapat masalah multikolinieritas.
Ada beberapa cara yang dapat
dilakukan untuk mengatasi masalah multikolinieritas, yaitu (Gujarati, 2003,
hal. 364-369):
1)
Adanya informasi
sebelumnya (a priori information).
2)
Menggabungkan data ”cross section” dan “time series”.
3)
Mengeluarkan satu atau
lebih variabel yang terkena masalah multikolinieritas.
4)
Transformasi variabel.
5)
Penambahan data baru.
6)
Menggunakan teknik factors analysis dan principal componest analysis.
c.
Asumsi Nonautokorelasi
Asumsi nonautokorelasi ini
mensyaratkan tidak ada korelasi antar error
eit untuk
setiap observasi. Dengan demikian, dianggap bahwa tidak ada hubungan
positif atau negatif antara eit
dan ejt.
Ada
beberapa alasan terjadinya autokorelasi, yaitu sebagai berikut (Gujarati, 2003,
hal. 443):
1)
Kelembaman
(Inertia). Telah diketahui bahwa data time series, seperti GNP,
indeks harga, produksi, employment, dan unemployment, selalu
menunjukkan siklus bisnis. Mulai dari bawah (button) pada waktu terjadi resesi,
ketika ekonomi mulai membaik, variabel-variabel ekonomi ini mulai bergerak.
Dalam setiap perubahan ini, nilai variabel pada suatu waktu tertentu bisa lebih
besar atau lebih kecil dari nilai tahun sebelumnya. Jadi, ada suatu “momentum”
atau laju dalam variabel-variabel tersebut sampai sesuatu terjadi (misalnya
kenaikan tingkat bunga, pajak, atau kenaikan keduanya) yang membuat gerakannya
menjadi agak lambat. Oleh karena itu, dalam regresi dengan data time series,
data observasi yang berurutan (succesive observations) saling
terkait/tergantung (interdependent).
2)
Terjadi
bias dalam spesifikasi: kasus tidak mencakup variabel yang penting dalam
penelitian. Jika variabel tersebut memengaruhi variabel dependen, kesalahan
pengganggu εt akan menunjukkan suatu pola yang sistematis, jadi akan
menimbulkan autokorelasi.
3)
Terjadi
bias dalam spesifikasi: bentuk fungsi yang dipergunakan tidak tepat. Misalnya
model yang benar untuk studi biaya adalah model polinomial, namun peneliti
menggambarkannya dalam bentuk model linier. Dalam hal ini, kesalahan pengganggu
εt akan mencerminkan autokorelasi yang disebabkan oleh penggunaan
fungsi yang tidak tepat. Dan hal ini berpeluang besar menyebabkan “underestimate”.
4)
Fenomena
sarang laba-laba (cobwed phenomenom). Suplai dari berbagai komoditas
pertanian mencerminkan apa yang disebut fenomena sarang laba-laba, di mana
suplai bereaksi terhadap harga dengan beda kala (lag) satu satuan
waktu.
5)
Beda
kala (time lags). Misalnya konsumsi. Konsumsi waktu t tergantung
pada konsumsi waktu t-1 sehingga apabila mengabaikan konsumsi (t-1)
dalam model, akan menyebabkan terjadi autokorelasi.
6)
Adanya
manipulasi data (manipulation of data). Dalam analisis empiris, data
sering dimanipulir. Contonhya saja proses interpolasi data dan “smoth”
data jika data yang digunakan triwulanan. Hal tersebut mempunyai kemungkinan
besar menyebabkan terjadinya autokorelasi.
7)
Data
yang tidak stasioner, untuk kasus data time series.
Dampak
adanya autokorelasi dalam estimasi adalah sebagai berikut (Gujarati, 2003, hal.
455 ):
1) Varian residual
akan “underestimate” terhadap σ2.
2)
Penggunaan Uji t dan F tidak lagi sah (valid).
3)
Nilai estimasi sangat sensitif dengan fluktuasi sampling.
4) Nilai estimasi masih tidak efisien (apabila
dibandingkan dengan BLUE). Oleh karena itu, interval keyakinan semakin lebar,
uji signifikansi kurang kuat (less powerfull).
Metode umum yang digunakan untuk
memeriksa ada tidaknya autokorelasi adalah (Gujarati, 2003, hal. 462-474):
a)
Metode Grafik
Mendeteksi gejala autokorelasi dengan
metode grafik dengan cara grafik dari residual. Apabila grafik residu membentuk
pola tertentu maka dapat dikatakan bahwa data mengalami masalah autokorelasi.
Contoh metode grafik adalah sebagai berikut:
Sumber: Gujarati (2003, hal. 463)
Gambar 4.
Contoh metode grafik uji autokrelasi
b) Run test.
Uji Run merupakan sebuah uji nonparametrik.
Uji ini dilakukan dengan formula (Gujarati, 2003, hal. 466):
Mean:
(52)
Variance:
(53)
di mana N adalah jumlah amatan, N1
adalah jumlah amatan dengan nilai negatif (- residual), N2 adalah
jumlah amatan dengan nilai positif (+ residual).
CI:
(54)
Tolak H0 jika nilainya berada
pada selang interval dan dapat dikatakan bahwa data tidak mengandung masalah
autokorelasi.
c) Durbin-Watson
test (Gujarati, 2003, hal. 467)
Uji statistik Durbin Watson
didasarkan pada residual metode
kuadrat terkecil.
Rumus Durbin-Watson untuk panel
data:
(55)
Durbin-Watson
telah menurunkan nilai kritis batas bawah (dL) dan batas atas (dU).
Jadi jika nilai d dihitung
berdasarkan persaman diatas maka dapat ditarik kesimpulan sebagai berikut:
0
< d < dL Hipotesis
null ditolak, artinya terdapat autokorelasi yang positif
dL
< d < dU Daerah
keragu-raguan, artinya tidak dapat disimpulkan apakah ada autokorelasi atau
tidak.
dU
< d < 4-dU Menerima
hipotesis null, artinya tidak ada autokorelasi positif atau negatif.
4-dU
< d < 4-dL Daerah
keragu-raguan, artinya tidak dapat disimpulkan apakah ada autokorelasi atau
tidak.
4-dL
< d < 4 Hipotesis
null ditolak, artinya terdapat autokorelasi yang negatif.
Ada
beberapa cara yang umum dapat untuk mengatasi masalah autokorelasi, yaitu:
1)
Metode selisih (the first difference method).
2)
Melakukan transformasi,
misalnya dalam bentuk logaritma atau logaritma natural.
3)
Melakukan estimasi
dengan metode Generalized Least Square
(GLS) atau Feasible Generalized Least
Square (FGLS).
d.
Asumsi Homoskedastisitas
Asumsi
homoskedastisitas merupakan asumsi yang penting dalam analisis regresi. Homoskedastisitas
berasal dari kata homoscedasticity,
di mana homo berarti sama dan scedasticity berarti penyebaran sehingga
homoskedastisitas berarti penyebarannya sama atau juga identik. Asumsi
homoskedastisitas adalah asumsi di mana semua gangguan mempunyai variance sama untuk seluruh pengamatan.
Apabila semua asumsi regresi berganda terpenuhi, kecuali adanya
heteroskedastisitas maka penaksir OLS tetap tidak bias dan konsisten, namun
penaksiran tersebut tidak efisien (varians minimum) baik dalam sampel kecil
maupun sampel besar. Jika tetap menggunakan OLS pada kondisi
heteroskedastisitas maka variance
penduga akan menaksir terlau rendah (under
estimate) atau menaksir terlalu tinggi (over
estimate). Pelanggaran asumsi hereskedastisitas dapat dijumpai dalam
melakukan regresi terhadap data cross
section. Perbedaan karakteristik setiap individu merupakan penyebab utama
terlanggarnya asumsi ini. Metode yang umum digunakan untuk memeriksa
adanya heteroskedastisitas adalah sebagai berikut:
Ø
Metode
Grafik
Sumber: Gujarati
(2003, hal. 402)
Gambar 5. Contoh
Metode Grafik Uji Heteroskedastisitas
Dalam grafik, plot yang dibandingkan yaitu antara error kuadrat dengan variabel tersebut. Dari gambar dapat dilihat
(a) terlihat bahwa error-nya relatif
konstan sehingga tidak menunjukkan pola pada variance, artinya gambar (a) homoskedastisitas sedangkan gambar
(b), (c), (d), dan (e) menunjukkan pola masing-masing yaitu fluktuasi, trend, dan logaritma sehingga dapat
dikatakan bahwa pada keempat gambar tersebut terjadi heteroskedastisitas.
Ø Uji Park
Menggunakan fungsi:
atau
(56)
Karena variance umumnya tidak diketahui maka
Park menyarankan untuk menggunakan error
sehingga persamaan regresinya menjadi:
(57)
Kesimpulan : jika
koefisien regresi (β) signifikan secara statistik maka dikatakan terjadi
heteroskedastisitas.
Ø Uji Korelasi Rank Spearman (Gujarati, 2003, hal. 406)
Langkah-langkah:
·
Cocokkan
regresi y terhadap X, dan hitung ei.
·
Hitung
rank dari |ei| dan Xi, selanjutnya hitung korelasi
Spearman.
(58)
(59)
Di mana rs adalah
selisih rank dari karakteristik yang berbeda.
Tolak H0 jika t-hitung
> t-tabel dan dapat disimpulkan
bahwa terjadi heteroskedastisitas.
Ø Uji Goldfeld-Quandt (Gujarati, 2003, hal. 408)
Langkah-langkah:
·
Urutkan
nilai X dari yang terkecil sampai terbesar.
·
Abaikan
beberapa pengamatan sekitar median, katakanlah sebanyak c pengamatan. Sisanya masih sebanyak (N-c) pengamatan.
·
Lakukan
regresi pada pengamatan 1 dan hitung SSE 1.
·
Lakukan
regresi pada pengamatan 2 dan hitung SSE 2.
·
Hitung df
= jumlah pengamatan dikurangi jumlah parameter.
Statistik uji:
(60)
Bila λ > F-tabel, maka H0 ditolak dan
dapat disimpulkan bahwa data mempunyai variance
yang heteroskedastisitas.
Ø Uji Breusch-Pangan-Godfrey (Gujarati, 2003, hal. 411)
Langkah-langkah:
·
Estimasi
model dengan OLS dan hitung nilai residul
.
·
Hitung
(61)
·
Hitung
(62)
·
Hitung Sum of Square Regression
(SSR)
Cari:
(63)
·
Bandingkan
nilai θ dengan nilai tabel Chi-square (m-1). Jika nilai θ lebih besar dari
nilai tabel chi-square maka H0
dan dapat disimpulkan bahwa data mempunyai variance
heteroskedastisitas.
Ø Uji White (White’s General Heteroskedastis) (Gujarati, 2003, hal. 413)
Dalam implementasinya, model ini relatif lebih mudah dari uji-uji
sebelumnya. Langkah-langkahnya sebagai berikut:
·
Estimasi
model dengan OLS dan hitung residual
·
Buat persamaan:
(64)
·
Statistik uji:
(65)
·
Jika nilai penghitungan lebih besar dari nilai tabel chi-square maka dapat disimpulkan bahwa tidak terjadi
heteroskedastisitas (homoskedastisitas).
Ada banyak cara
yang umum dipakai untuk mengatasi masalah heteroskedastisitas, dua di antaranya
adalah:
1)
Melakukan transformasi
terhadap variabel yang digunakan.
2)
Melakukan estimasi
dengan Generalized Least Square (GLS)
atau dengan Feasible Generalized Least
Square (FGLS).