Kamis, 19 Januari 2017

Pengujian Asumsi Model Regresi




Pengujian Asumsi Model Regresi
Berkaitan dengan model yang digunakan adalah model regresi linier berganda dengan data panel, maka memerlukan pemenuhan asumsi agar model dapat digunakan sebagai alat estimasi yang baik. Dalam regresi linier berganda dikenal setidaknya ada 4 (empat) asumsi yang diuji, yaitu asumsi normalitas, asumsi nonmultikolinieritas, asumsi nonautokorelasi, dan asumsi homoskedastisitas. Penjelasan keempat asumsi model regresi adalah sebagai berikut:
a.        Asumsi Normalitas
Asumsi normalitas penting karena merupakan syarat dalam penelitian parametrik. Clasical normal linear regression model mengasumsikan bahwa error εit (Gujarati, 2003, hal. 108) sebagai berikut:
Rata-rata:                                                                                     (44)
Varians :                                                               (45)
Cov (εit, εis): ; i ≠ s                                                                   (46)
Menurut Gujarati (2003, hal. 147-148), uji normalitas dapat dilakukan dengan melihat histogram dari residual, Normal Probability Plot (NPP) dan Jarque-Bera test. Penjelasannya sebagai berikut:
Ø  Histogram dari residual
Histogram dari residual merupakan cara yang paling sederhana untuk melihat apakah data berdistribusi normal atau tidak, hanya terdiri dari dua langkah. Pertama, dibentuk kurva melalui data yang ada. Kedua, dari kurva tersebut dilihat, jika kurvanya berbentuk lonceng maka dapat dikatakan bahwa data tersebut berdistribusi normal. Berikut adalah contoh histogram residual:

Gambar 2. Contoh histogram residual
Ø  Normal Probability Plot (NPP)
Melalui NPP dapat dilihat plot dari residual di mana pada sumbu horizontal adalah nilai residual dan pada sumbu vertikal adalah nilai probability-nya. Apabila plot cenderung menyebar pada sekitar garis lurus maka dapat dikatakan bahwa data tersebut terdistribusi normal. Contoh NPP apabila data normal:

Sumber: Gujarati (2003, hal 148)
Gambar 3. Contoh Normal Probabilithy Plot (NPP)
Ø  Uji Jaque-Bera
Uji Jarque-Bera merupakan uji formal dalam pengujian asumsi normalitas. Uji normalitas Jarque-Bera bersifat asimtotik atau uji yang diberlakukan dalam sampel besar yang juga berdasarkan residual OLS. Prosedur dari pengujian awalnya adalah menghitung skewness dan kurtosis yang digunakan untuk mengukur residual OLS dengan menggunakan uji statistik berikut (Gujarati, 2003, hal. 148):
                                                                                    (47)
di mana
                                                                                    (48)
                                                                                     (49)
di mana N adalah jumlah sampel, S adalah skewness, dan K adalah kurtosis. Nilai JB dibandingkan dengan nilai chi-square dengan derajat bebas 2. Apabila nilai JB lebih kecil dari nilai chi-square tabel atau nilai probability-nya lebih besar dari p-value maka dapat disimpulkan bahwa residual mengikuti distribusi normal.
b.        Asumsi Nonmultikolinieritas
Istilah multikolinieritas ditemukan oleh Ragner Frish di dalam bukunya “Statistical confluence analysis by means of complete regression system”, yang berarti adanya hubungan yang sempurna atau eksak di antara variabel-variabel bebas dalam regresi (Gujarati, 2003, hal. 341). Jadi, Multikolinieritas adalah kondisi adanya hubungan linier di antara beberapa atau semua variabel penjelas. Dampak adanya multikolinieritas dalam estimasi menggunakan metode least square adalah sebaga berikut (Gujarati, 2003, hal. 350) :
1)      Estimator masih BLUE tetapi mempunyai variance dan covariance yang besar, sehingga sulit mendapatkan estimasi yang tepat.
2)      Karena variance dan covariance yang besar, selang kepercayaan cenderung lebih lebar dan nilai hitung statistik uji t akan kecil sehingga membuat variabel bebas secara statistik tidak signifikan memengaruhi variabel tak bebas.
3)      Dengan tingginya tingkat kolinearitas, peluang untuk menerima hipotesis, padahal hipotesis itu salah (type II error), menjadi semakin besar.
4)      Nilai koefisien determinasi (R2) relatif tinggi, tetapi uji parsial tidak signifikan.
5)      Selama konilieritas ganda tidak sempurna, masih mungkin untuk menghitung perkiraan koefisien regresi, tetapi standard error-nya menjadi sangat sensitif, walaupun terjadi perubahan yang sangat kecil.
Ada beberapa cara untuk mendeteksi multikolinieritas, yaitu:
a)      Nilai koefisien determinasi (R2) masih relatif tinggi tetapi dari hasil uji t parsial (partial t test) menunjukkan tidak satupun atau sangat sedikit sekali variabel yang signifikan mempengaruhi variabel tidak bebas maka patut dicurigai adanya multikoliniaritas antarpeubah bebas. Namun dari uji F simultan (overall F test) menunjukan hasil yang signifikan (Gujarati, 2003, hal. 354).
b)      Apabila korelasi antara variabel bebas cukup tinggi, maka model tersebut dapat dicurigai mempunyai multikolinieritas. Hal ini dapat dilihat dari matriks korelasi antar variabel bebas. Apabila sepasang variabel penjelas memiliki koefisien korelasi lebih dari sama dengan 0.90 maka diduga terdapat hubungan linier antara kedua variabel tersebut (Sanjoyo, 2008).
c)      Jika koefisien korelasi tinggi, tapi koefisien korelasi parsialnya rendah, maka dapat dikatakan terdapat hubungan linier yang cukup tinggi antar variabel bebas yang ada dalam model.
d)      Gujarati (2003, hal. 351), menggunakan nilai Variance Inflation Factor (VIF) atau Tolerance.
                                                                                          (50)
                                                                                    (51)
Menurut Neter, et al (1989, hal. 409) jika nilai VIF > 10 maka dapat disimpulkan bahwa terdapat masalah multikolinieritas.
Ada beberapa cara yang dapat dilakukan untuk mengatasi masalah multikolinieritas, yaitu (Gujarati, 2003, hal. 364-369):
1)             Adanya informasi sebelumnya (a priori information).
2)             Menggabungkan data ”cross section” dan “time series”.
3)             Mengeluarkan satu atau lebih variabel yang terkena masalah multikolinieritas.
4)             Transformasi variabel.
5)             Penambahan data baru.
6)             Menggunakan teknik factors analysis dan principal componest analysis.
c.         Asumsi Nonautokorelasi
Asumsi nonautokorelasi ini mensyaratkan tidak ada korelasi antar error eit untuk setiap observasi. Dengan demikian, dianggap bahwa tidak ada hubungan positif atau negatif antara eit dan ejt.
Ada beberapa alasan terjadinya autokorelasi, yaitu sebagai berikut (Gujarati, 2003, hal. 443):
1)             Kelembaman (Inertia). Telah diketahui bahwa data time series, seperti GNP, indeks harga, produksi, employment, dan unemployment, selalu menunjukkan siklus bisnis. Mulai dari bawah (button) pada waktu terjadi resesi, ketika ekonomi mulai membaik, variabel-variabel ekonomi ini mulai bergerak. Dalam setiap perubahan ini, nilai variabel pada suatu waktu tertentu bisa lebih besar atau lebih kecil dari nilai tahun sebelumnya. Jadi, ada suatu “momentum” atau laju dalam variabel-variabel tersebut sampai sesuatu terjadi (misalnya kenaikan tingkat bunga, pajak, atau kenaikan keduanya) yang membuat gerakannya menjadi agak lambat. Oleh karena itu, dalam regresi dengan data time series, data observasi yang berurutan (succesive observations) saling terkait/tergantung (interdependent).
2)             Terjadi bias dalam spesifikasi: kasus tidak mencakup variabel yang penting dalam penelitian. Jika variabel tersebut memengaruhi variabel dependen, kesalahan pengganggu εt akan menunjukkan suatu pola yang sistematis, jadi akan menimbulkan autokorelasi.
3)             Terjadi bias dalam spesifikasi: bentuk fungsi yang dipergunakan tidak tepat. Misalnya model yang benar untuk studi biaya adalah model polinomial, namun peneliti menggambarkannya dalam bentuk model linier. Dalam hal ini, kesalahan pengganggu εt akan mencerminkan autokorelasi yang disebabkan oleh penggunaan fungsi yang tidak tepat. Dan hal ini berpeluang besar menyebabkan “underestimate”.
4)             Fenomena sarang laba-laba (cobwed phenomenom). Suplai dari berbagai komoditas pertanian mencerminkan apa yang disebut fenomena sarang laba-laba, di mana suplai bereaksi terhadap harga dengan beda kala (lag) satu satuan waktu.
5)             Beda kala (time lags). Misalnya konsumsi. Konsumsi waktu t tergantung pada konsumsi waktu t-1 sehingga apabila mengabaikan konsumsi (t-1) dalam model, akan menyebabkan terjadi autokorelasi.
6)             Adanya manipulasi data (manipulation of data). Dalam analisis empiris, data sering dimanipulir. Contonhya saja proses interpolasi data dan “smoth” data jika data yang digunakan triwulanan. Hal tersebut mempunyai kemungkinan besar menyebabkan terjadinya autokorelasi.
7)             Data yang tidak stasioner, untuk kasus data time series.
Dampak adanya autokorelasi dalam estimasi adalah sebagai berikut (Gujarati, 2003, hal. 455 ):
1)      Varian residual  akan “underestimate” terhadap σ2.
2)      Penggunaan Uji t dan F tidak lagi sah (valid).
3)      Nilai estimasi sangat sensitif dengan fluktuasi sampling.
4)      Nilai estimasi masih tidak efisien (apabila dibandingkan dengan BLUE). Oleh karena itu, interval keyakinan semakin lebar, uji signifikansi kurang kuat (less powerfull).
Metode umum yang digunakan untuk memeriksa ada tidaknya autokorelasi adalah (Gujarati, 2003, hal. 462-474):
a)      Metode Grafik
Mendeteksi gejala autokorelasi dengan metode grafik dengan cara grafik dari residual. Apabila grafik residu membentuk pola tertentu maka dapat dikatakan bahwa data mengalami masalah autokorelasi.


Contoh metode grafik adalah sebagai berikut:

Sumber: Gujarati (2003, hal. 463)
Gambar 4. Contoh metode grafik uji autokrelasi
b)      Run test.
Uji Run merupakan sebuah uji nonparametrik. Uji ini dilakukan dengan formula (Gujarati, 2003, hal. 466):
Mean:                                                                                    (52)
Variance:                                                                        (53)
di mana N adalah jumlah amatan, N1 adalah jumlah amatan dengan nilai negatif (- residual), N2 adalah jumlah amatan dengan nilai positif (+ residual).
CI:                                            (54)
Tolak H0 jika nilainya berada pada selang interval dan dapat dikatakan bahwa data tidak mengandung masalah autokorelasi.
c)      Durbin-Watson test (Gujarati, 2003, hal. 467)
Uji statistik Durbin Watson didasarkan pada residual metode kuadrat terkecil.
Rumus Durbin-Watson untuk panel data:
                                                                                        (55)
Durbin-Watson telah menurunkan nilai kritis batas bawah (dL) dan batas atas (dU). Jadi jika nilai d dihitung berdasarkan persaman diatas maka dapat ditarik kesimpulan sebagai berikut:
0 < d < dL                    Hipotesis null ditolak, artinya terdapat autokorelasi yang positif
dL < d < dU                  Daerah keragu-raguan, artinya tidak dapat disimpulkan apakah ada autokorelasi atau tidak.
dU < d < 4-dU              Menerima hipotesis null, artinya tidak ada autokorelasi positif atau negatif.
4-dU < d < 4-dL           Daerah keragu-raguan, artinya tidak dapat disimpulkan apakah ada autokorelasi atau tidak.
4-dL < d < 4                Hipotesis null ditolak, artinya terdapat autokorelasi yang negatif.
Ada beberapa cara yang umum dapat untuk mengatasi masalah autokorelasi, yaitu:
1)        Metode selisih (the first difference method).
2)        Melakukan transformasi, misalnya dalam bentuk logaritma atau logaritma natural.
3)        Melakukan estimasi dengan metode Generalized Least Square (GLS) atau Feasible Generalized Least Square (FGLS).
d.        Asumsi Homoskedastisitas
Asumsi homoskedastisitas merupakan asumsi yang penting dalam analisis regresi. Homoskedastisitas berasal dari kata homoscedasticity, di mana homo berarti sama dan scedasticity berarti penyebaran sehingga homoskedastisitas berarti penyebarannya sama atau juga identik. Asumsi homoskedastisitas adalah asumsi di mana semua gangguan mempunyai variance sama untuk seluruh pengamatan. Apabila semua asumsi regresi berganda terpenuhi, kecuali adanya heteroskedastisitas maka penaksir OLS tetap tidak bias dan konsisten, namun penaksiran tersebut tidak efisien (varians minimum) baik dalam sampel kecil maupun sampel besar. Jika tetap menggunakan OLS pada kondisi heteroskedastisitas maka variance penduga akan menaksir terlau rendah (under estimate) atau menaksir terlalu tinggi (over estimate). Pelanggaran asumsi hereskedastisitas dapat dijumpai dalam melakukan regresi terhadap data cross section. Perbedaan karakteristik setiap individu merupakan penyebab utama terlanggarnya asumsi ini. Metode yang umum digunakan untuk memeriksa adanya heteroskedastisitas adalah sebagai berikut:
Ø   Metode Grafik

Sumber: Gujarati (2003, hal. 402)
Gambar 5. Contoh Metode Grafik Uji Heteroskedastisitas
Dalam grafik, plot yang dibandingkan yaitu antara error kuadrat dengan variabel tersebut. Dari gambar dapat dilihat (a) terlihat bahwa error-nya relatif konstan sehingga tidak menunjukkan pola pada variance, artinya gambar (a) homoskedastisitas sedangkan gambar (b), (c), (d), dan (e) menunjukkan pola masing-masing yaitu fluktuasi, trend, dan logaritma sehingga dapat dikatakan bahwa pada keempat gambar tersebut terjadi heteroskedastisitas.
Ø   Uji Park
Menggunakan fungsi:
     atau                                                  (56)
Karena variance umumnya tidak diketahui maka Park menyarankan untuk menggunakan error sehingga persamaan regresinya menjadi:
                                                                    (57)
Kesimpulan : jika koefisien regresi (β) signifikan secara statistik maka dikatakan terjadi heteroskedastisitas.
Ø   Uji Korelasi Rank Spearman (Gujarati, 2003, hal. 406)
Langkah-langkah:
·        Cocokkan regresi y terhadap X, dan hitung ei.
·        Hitung rank dari |ei| dan Xi, selanjutnya hitung korelasi Spearman.
                                                                        (58)
                                                                          (59)
Di mana rs adalah selisih rank dari karakteristik yang berbeda.
Tolak H0 jika t-hitung > t-tabel dan dapat disimpulkan bahwa terjadi heteroskedastisitas.

Ø   Uji Goldfeld-Quandt (Gujarati, 2003, hal. 408)
Langkah-langkah:
·        Urutkan nilai X dari yang terkecil sampai terbesar.
·        Abaikan beberapa pengamatan sekitar median, katakanlah sebanyak c pengamatan. Sisanya masih sebanyak (N-c) pengamatan.
·        Lakukan regresi pada pengamatan 1 dan hitung SSE 1.
·        Lakukan regresi pada pengamatan 2 dan hitung SSE 2.
·        Hitung df = jumlah pengamatan dikurangi jumlah parameter.
Statistik uji:                                                           (60)
Bila λ > F-tabel, maka H0 ditolak dan dapat disimpulkan bahwa data mempunyai variance yang heteroskedastisitas.
Ø   Uji Breusch-Pangan-Godfrey (Gujarati, 2003, hal. 411)
Langkah-langkah:
·        Estimasi model dengan OLS dan hitung nilai residul .
·        Hitung                                                                         (61)
·        Hitung                                                                            (62)
·        Hitung Sum of Square Regression (SSR)
Cari:                                                                            (63)
·        Bandingkan nilai θ dengan nilai tabel Chi-square (m-1). Jika nilai θ lebih besar dari nilai tabel chi-square maka H0 dan dapat disimpulkan bahwa data mempunyai variance heteroskedastisitas.
Ø   Uji White (White’s General Heteroskedastis) (Gujarati, 2003, hal. 413)
Dalam implementasinya, model ini relatif lebih mudah dari uji-uji sebelumnya. Langkah-langkahnya sebagai berikut:
·        Estimasi model dengan OLS dan hitung residual
·        Buat persamaan:                             (64)
·        Statistik uji:                                                                   (65)
·        Jika nilai penghitungan lebih besar dari nilai tabel chi-square maka dapat disimpulkan bahwa tidak terjadi heteroskedastisitas (homoskedastisitas).
Ada banyak cara yang umum dipakai untuk mengatasi masalah heteroskedastisitas, dua di antaranya adalah:
1)             Melakukan transformasi terhadap variabel yang digunakan.
2)             Melakukan estimasi dengan Generalized Least Square (GLS) atau dengan Feasible Generalized Least Square (FGLS).

Tidak ada komentar:

Posting Komentar