BAB V
UJI ASUMSI KLASIK
UJI ASUMSI KLASIK
Di muka
telah disinggung, baik dalam regresi linier sederhana maupun dalam regresi
linier berganda, bahwadalam kedua regresi linier tersebut perlu memenuhi
asumsi-asumsi seperti yang telah di uraikan dalam kedua bahasan tersebut.
Munculnya kewajiban untuk memenuhi asumsi tersebut mengandung arti bahwa
formula atau rumus regresi diturunkan dari suatu asumsi tertentu. Artinya,
tidak semua data dapat diperlakukan dengan regresi. Jika data yang diregresi
tidak memenuhi asumsi- asumsi yang telah disebutkan, maka regresi yang
diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah
memenuhi asumsi-asumsi regresi maka
nilai
estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan dari:
Best, Linear, Unbiased,Estimator.
Asumsi-asumsi
seperti yang telah dituliskan dalam bahasan OLS di depan, adalah asumsi yang
dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal
dengan sebutan Gauss-Markov Theorem. Serupa dengan asumsi-asumsi tersebut,
Gujarati (1995) merinci 10 asumsi yang menjadi syarat penerapan OLS,18 yaitu:
Asumsi 1:
Linear regression Model. Model regresi merupakan hubungan linear dalam
parameter.
Y = a + bX
+e
Untuk
model regresi Y = a + bX + cX2 + e
Walaupun
variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam
parameter sehingga OLS masih dapat diterapkan.
Asumsi 2:
Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated
sampling). Tepatnya bahwa nilai X adalah nonstochastic (tidak random).
Asumsi 3:
Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance).
Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja
terdapat error yang berada di atas garis regresi atau di bawah garis regresi,
tetapi setelah keduanya dirata-rata harus bernilai nol.
Asumsi 4:
Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama
sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X
memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut
heteroskedastisitas
Asumsi 5:
Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No
autocorrelation between the disturbance).
Asumsi 6:
Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat
memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi
maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan pengaruh
masing-masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non
random atau non stochastic.
Asumsi 7:
Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter
yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n
harus cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari
jumlah observasi, maka persamaan regresi tidak akan bisa diestimasi.
Asumsi 8:
Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang
observasi maka tidak bisa dilakukan regresi.
Asumsi 9:
Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi
yang bias, karena semuanya telah terekomendasi atau sesuai dengan teori.
Asumsi 10.
Tidak ada multikolinearitas antara variable penjelas. Jelasnya kolinear antara
variable penjelas tidak boleh sempurna atau tinggi.
Secara
teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga
yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada
Multikolinearitas, dan Tidak ada Heteroskedastisitas.
Apabila
seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil
regresi yang best, linear, unbias, efficient of estimation (BLUE).
A. Uji
Autokorelasi
A.1.
Pengertian autokorelasi
Dalam
asumsi klasik telah dijelaskan bahwa pada model OLS harus telah terbebas dari
masalah autokorelasi atau serial korelasi. Autokorelasi adalah keadaan dimana
variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan
pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data
yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data
kerat silang (cross section). Hanya saja masalah autokorelasi lebih sering
muncul pada data time series, karena sifat data time series ini sendiri lekat
dengan kontinyuitas dan adanya sifat ketergantungan antar data. Sementara pada
data cross section hal itu kecil kemungkinan terjadi.
A.2.
Sebab-sebab Autokorelasi
Terdapat
banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi,
namun dalam pembahasan ini hanya mengungkapkan beberapa faktor saja antara lain:
1.
Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk
menganalisis regresi tidak didukung oleh teori-teori yang relevan dan
mendukung.
2. Tidak
memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini
adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
3.
Manipulasi data. Misalnya dalam penelitian kita ingin menggunakan data bulanan,
namun data tersebut tidak tersedia.
4.
Menggunakan data yang tidak empiris. Jika data semacam ini digunakan, terkesan
bahwa data tersebut tidak didukung oleh realita.
A.3.
Akibat Autokorelasi
Uraian-uraian
di atas mungkin saja mengajak kita untuk bertanya tentang apa dampak dari
autokorelasi yang timbul. Pertanyaan seperti ini tentu saja merupakan sesuatu
yang wajar, karena kita tentu mempunyai pilihan apakah mengabaikan adanya
autokorelasi ataukah akan mengeliminasinya.
A.4.
Pengujian Autokorelasi
Pengujian
autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah
lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan
oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya
autokorelasi, antara lain melalui:
1. Uji
Durbin-Watson (DW Test).
Uji
Durbin-Watson yang secara popular digunakan untuk mendeteksi adanya serial
korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan
Watson. Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan
Durbin-Watson d statistic.
2.
Menggunakan metode LaGrange Multiplier (LM).
LM sendiri
merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat
variable tambahan yang dimasukkan dalam model. Variabel tambahan tersebut
adalah data Lag dari variable dependen. Dengan demikian model dalam LM menjadi
sebagai berikut:
Y = β0 +
β1X1+ β2 X2 + β3 Yt-1+ β4 Yt-2 + ε
Variabel
Yt-1 merupakan variabel lag 1 dari Y.
Variabel
Yt-2 merupakan variabel lag 2 dari Y.
B. Uji
Normalitas
Tujuan
dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e)
memiliki distribusi normal atau tidak. Pengujian normalitas data dapat
dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya saja
pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum
tahapan regresi lebih efisien dalam waktu. Sangat beralasan
kiranya,
karena jika asumsi normalitas data telah dipenuhi terlebih dulu, maka dampak
yang mungkin akan ditimbulkan dari adanya ketidaknormalan data seperti bias
pada nilai t hitung dan nilai F hitung dapat dihindari. Sebaliknya, bila
dilakukan analisis regresi terlebih dulu, dimana nilai t dan F baru diketahui,
yang kemudian baru dilakukan normalitas data, sedangkan ternyata hasilnya tidak
normal maka analisis regresi harus diulang lagi. Pengujian normalitas ini
berdampak pada nilai t dan F karena pengujian terhadap keduanya diturunkan dari
asumsi bahwa data Y atau e berdistribusi normal.
C. Uji
Heteroskedastisitas
C.1.
Pengertian Heteroskedastisitas
Sebagaimana
telah ditunjukkan dalam salah satu asumsi yang harus ditaati pada model regresi
linier, adalah residual harus homoskedastis, artinya, variance residual
harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang
lebih sama. Karena jika variancenya tidak sama, model akan menghadapi masalah
heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan atau residual
dari model yang diamati tidak memiliki varians yang konstan dari satu observasi
ke observasi lainnya (Kuncoro, 2001: 112).
C.2. Konsekuensi
Heteroskedastisitas
Analisis
regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu
asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta
random sesuai dengan besarnya variabel-variabel independen (Arsyad, 1994:198).
Asumsi regresi linier yang berupa variance residual yang sama, menunjukkan bahwa
standar error (Sb) masing-masing observasi tidak mengalami perubahan, sehingga
Sb nya tidak bias. Lain halnya, jika asumsi ini tidak terpenuhi, sehingga
variance residualnya berubah-ubah sesuai perubahan observasi, maka akan
mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias.
Selain itu, adanya kesalahan dalam model yang dapat mengakibatkan nilai b
meskipun tetap linier dan tidak bias, tetapi nilai b bukan nilai yang terbaik.
Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias,
akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan.
Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb.
C.3.
Pendeteksian Heteroskedastisitas
Untuk
mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai
cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank
Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji, 2004:
18)21.
Pengujian
heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan
membandingkan sebaran antara nilai prediksi variabel terikat dengan
residualnya, yang output pendeteksiannya akan tertera berupa sebaran
data pada scatter plot. Dengan menggunakan alat bantu komputer teknik
ini sering dipilih, karena alasan kemudahan dan kesederhanaan cara pengujian,
juga tetap mempertimbangkan valid dan tidaknya hasil pengujian.
D. Uji
Multikolinieritas
D.1.
Pengertian Multikolinearitas
Multikolinieritas
adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau
eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat
kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak
berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila
masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama.
Apabila antara variabel penjelas memiliki banyak sifat-sifat yang sama dan
serupa sehingga hamper tidak dapat lagi dibedakan tingkat pengaruhnya terhadap
Y, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau
sempurna. Sedangkan Tidak berklinear jika antara variabel penjelas tidak
mempunyai sama sekali kesamaan.
D.2.
Konsekuensi Multikolinearitas
Pengujian
multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu
penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan
menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai
standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan
kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t (Setiaji,
2004: 26).
D.3.
Pendeteksian Multikolinearitas
Terdapat
beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matrix
korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation,
melakukan regresi partial dengan teknik auxilary regression, atau dapat pula
dilakukan dengan mengamati nilai variance inflation factor (VIF). Cara
mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi
antar variabel dengan menggunakan Spearman’s Rho Correlation dapat dilakukan
apabila data dengan skala ordinal (Kuncoro, 2001: 114). Sementara untuk data
interval atau nominal dapat dilakukan dengan Pearson Correlation. Selain itu
metode ini lebih mudah dan lebih sederhana tetapi tetap memenuhi syarat untuk
dilakukan.
2. Cobalah untuk menyimpulkan
maksud dari uraian bab ini!
Uji asumsi
untuk regresi dapat dikelompokkan atas :
1. Uji
asumsi dasar regresi
Uji normalitas
Uji linearitas
Uji homogenitas
2. Uji
asumsi klasik regresi
Uji multikolinearitas
Uji heteroskedastisitas
Uji autokorelasi
Uji normalitas
Uji Normalitas (Test of normality) digunakan untuk mengetahui apakah
populasi data berdistribusi normal atau tidak. Biasanya digunakan untuk data
berskala ordinal, interval atau pun rasio. Uji yang biasa digunakan adalah uji
Liliefors melalui nilai pada Kolmogorov Smirnov.
Uji Linearitas (Test of Linearity) digunakan untuk mengetahui apakah
dua variabel mempunyai hubungan yang linear atau tidak secara signifikan. Pada
SPSS diperoleh melalui ANOVA dengan memilih icon "Test for
Linearity".
Uji Homogenitas (Test of Homogenity) digunakan untuk mengetahui apakah
beberapa varian populasi data adalah sama atau tidak. Pada SPSS diperoleh
melalui ANOVA dengan memilih Test of Homogenity, dan hasilnya bisa dilhat dari
nilai Levene Test dimana semakin kecil nilainya maka semakin besar
homogenitasnya.
Uji Multikolinearitas (Test of Multicolinearity) digunakan untuk
mengetahui ada atau tidaknya hubungan linear antar variabel independen dalam
model regresi. Pada SPSS diperoleh melalui Linear Regression dengan memilih
icon Collinearity diagnostics, dan hasilnya ada pada kolom VIF
yang memiliki nilai kurang dari 5 maka tidak terdapat multikolinearitas.
Uji Heteroskedastisitas (Test of Heteroskedasticity) digunakan untuk
mengetahui ada atau tidaknya ketidaksamaan varian dari residual pada model
regresi. Pada SPSS diperoleh melalui Bivariate Correlation.
Uji Autokorelasi (Test of Autocorrelation) digunakan untuk mengetahui
ada atau tidaknya korelasi antara satu residual pengamatan dengan residual
pengamatan lainnya pada model regresi. Pada SPSS diperoleh melalui Linear
Regression dengan memilih icon Durbin-Watson.
Dalam
regresi linear ada empat asumsi yang harus dipenuhi, yaitu :
- Masing-masing variabel bebas adalah linear dan tidak berkorelasi.
- Random error memiliki variansi konstan.
- Random error saling bebas (independen).
- Random error memiliki distribusi normal dengan mean 0 dan standar deviasi tetap.
Masing-masing
asumsi dapat diuji dengan uji asumsi klasik di atas, yaitu
- Asumsi 1 : Uji normalitas
- Asumsi 2 : uji heteroskedastisitas
- Asumsi 3 : Uji autokorelasi
- Asumsi 4 : Uji multikolinearitas
3.
Jawablah pertanyaan-pertanyaan di bawah ini:
a. Coba
jelaskan apa yang dimaksud dengan asumsi klasik!
analisis
yang dilakukan untuk menilai apakah di dalam sebuah model regresi linear
Ordinary Least Square (OLS) terdapat masalah-masalah asumsi klasik.
b.
Sebutkan apa saja asumsi-asumsi yang ditetapkan!
Asumsi 1:
Linear regression Model. Model regresi merupakan hubungan linear dalam
parameter.
Y = a + bX
+e
Untuk
model regresi Y = a + bX + cX2 + e
Walaupun
variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam
parameter sehingga OLS masih dapat diterapkan.
Asumsi 2:
Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated
sampling). Tepatnya bahwa nilai X adalah nonstochastic (tidak random).
Asumsi 3:
Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance).
Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja
terdapat error yang berada di atas garis regresi atau di bawah garis regresi,
tetapi setelah keduanya dirata-rata harus bernilai nol.
Asumsi 4:
Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama
sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X
memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut
heteroskedastisitas
Asumsi 5:
Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No
autocorrelation between the disturbance).
Asumsi 6:
Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat
memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi
maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan pengaruh
masing-masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non
random atau non stochastic.
Asumsi 7:
Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter
yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n
harus cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari
jumlah observasi, maka persamaan regresi tidak akan bisa diestimasi.
Asumsi 8:
Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang
observasi maka tidak bisa dilakukan regresi.
Asumsi 9:
Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi
yang bias, karena semuanya telah terekomendasi atau sesuai dengan teori.
Asumsi 10.
Tidak ada multikolinearitas antara variable penjelas. Jelasnya kolinear antara
variable penjelas tidak boleh sempurna atau tinggi.
c. Coba
jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!
Karena
penyimpangan masing masing asumsi tidak mempunyai dampak yang sama terhadap
regresi.
d.
Jelaskan apa yang dimaksud dengan autokorelasi!
Autokorelasi
adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi
dengan variabel gangguan pada periode lain.
e.
Jelaskan kenapa autokorelasi timbul!
autokorelasi
muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis
runtut waktu (time series) ataupun data kerat silang (cross section).
f.
Bagaimana cara mendeteksi masalah autokorelasi?
apabila
ada ketergantungan atau adanya kesalahan pengganggu yang secara otomatis
mempengaruhi data berikutnya.
g. Apa
konsekuensi dari adanya masalah autokorelasi dalam model?
Meskipun
ada autokorelasi, nilai parameter estimator (b 1 , b 2 ,…,b n ) model regresi
tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan
tetapi nilai variance tidak minimum dan standard error (Sb 1 , Sb 2 ) akan
bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t
diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias
maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
h.
Jelaskan apa yang dimaksud dengan heteroskedastisitas!
residual
harus homoskedastis, artinya, variance residual harus memiliki variabel yang
konstan, atau dengan kata lain, rentangan e kurang lebih sama. Karena jika
variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas.
i.
Jelaskan kenapa heteroskedastisitas timbul!
Heteroskedastisitas
muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki
varians yang konstan dari satu observasi ke observasi lainnya
j.
Bagaimana cara mendeteksi masalah heteroskedastisitas?
Untuk
mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai
cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank
Correlation, dan uji Whyte menggunakan Lagrange Multiplier
k. Apa
konsekuensi dari adanya masalah heteroskedastisitas dalam model?
Munculnya
masalah heteroskedastisitas yang mengakibatkan nilai S b menjadi bias, akan
berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena
nilai t dihasilkan dari hasil bagi antara b dengan S b .
l.
Jelaskan apa yang dimaksud dengan multikolinearitas!
Multikolinieritas
adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak
di antara variabel penjelas yang dimasukkan ke dalam model.
m.
Jelaskan kenapa multikolinearitas timbul!
Karena
tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah,
tidak berkolinear, dan sempurna.
n.
Bagaimana cara mendeteksi masalah multikolinearitas?
Cara mendeteksi
ada tidaknya multikolinieritas
dengan menghitung nilai korelasi antar variabel
dengan menggunakan
Spearman’s Rho Correlation dapat
dilakukan apabila data dengan skala ordinal
o. Apa
konsekuensi dari adanya masalah multikolinearitas dalam model?
jika
antara X1 dan X2 terjadi kolinearitas sempurna sehingga data menunjukkan bahwa
X1=2X2, maka nilai b1 dan b2 akan tidak dapat ditentukan hasilnya, akan menghasilkan bilangan pembagian,b1
= 0/0 , sehingga nilai b1 hasilnya tidak menentu. Hal itu akan berdampak pula
pada standar error Sb akan menjadi sangat besar, yang tentu akan memperkecil
nilai t.
p.
Jelaskan apa yang dimaksud dengan normalitas!
sebuah uji
yang dilakukan dengan tujuan untuk menilai sebaran data pada sebuah
kelompok data atau variabel, apakah sebaran data tersebut berdistribusi
normal ataukah tidak.
q.
Jelaskan kenapa normalitas timbul!
Karena
data tidak normal, maka diperlukan upaya untuk mengatasi seperti: memotong data
yang out liers, memperbesar sampel,
atau melakukan transformasi data.
r.
Bagaimana cara mendeteksi masalah normalitas?
Mendeteksi
masalah normalitas dengan menggunakan metode numberik yang membandingkan nilai
statistic yaitu antara nilai median dengan nilai mean, menggunakan formula
jarque bera dan mengamati sebaran data.
s. Apa
konsekuensi dari adanya masalah normalitas dalam model?
Konsekuensi
dari adanya masalah normalitas adalah pengujian normalitas ini berdampak pada
nilai t dan F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa
data Y atau e berdistribusi normal.
t.
Bagaimana cara menangani jika data ternyata tidak normal?
Mengidentifikasi
dan, jika mungkin, menentukan alasan data tidak normal dan mengatasinya atau
Gunakan alat yang tidak memerlukan asumsi normalitas
Tidak ada komentar:
Posting Komentar