BAB 5
UJI ASUMSI KLASIK
regresi liniersederhana maupun dalam regresi linier berganda,
bahwa dalam kedua regresi linier tersebut perlu memenuhi asumsi-asumsi seperti
yang telah di uraikan dalam kedua bahasan tersebut. Munculnya kewajiban untuk
memenuhi asumsi tersebut mengandung arti bahwa formula atau rumus regresi
diturunkan dari suatu asumsi tertentu. Artinya, tidak semua data dapat
diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi
asumsiasumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan
estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi
maka nilai estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan
dari: Best, Linear, Unbiased, Estimator.
Best dimaksudkan sebagai terbaik. Untuk memahami arti Best, perlu
kembali kepada kesadaran kita bahwa analisis regresi linier digunakan untuk
menggambarkan sebaran data dalam bentuk garis regresi. Dengan kata lain, garis
regresi merupakan cara memahami pola hubungan antara dua seri data atau lebih.
Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan guna
melakukan estimasi atau peramalan dari sebaran data, menghasilkan error yang
terkecil. Perlu diketahui bahwa error itu sendiri adalah perbedaan
antara nilai observasi dan nilai yang diramalkan oleh garis regresi.
Jika garis regresi telah Best dan disertai pula oleh
kondisi tidak bias (unbiased), maka estimator regresi akan efisien. Linear
mewakili linear dalam model, maupun linear dalam parameter. Linear dalam model
artinya model yang digunakan dalam analisis regresi telah sesuai dengan kaidah
model OLS dimana variabel-variabel penduganya hanya berpangkat satu. Sedangkan
linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan fungsi
linear dari sampel. Secara jelas bila diukur dengan nilai rata-rata. Unbiased
atau tidak bias, Suatu estimator dikatakan unbiased jika nilai harapan
dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai rata-rata
b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan
bias. Estimator yang efisien dapat ditemukan apabila ketiga kondisi di atas
telah tercapai. Karena sifat estimator yang efisien merupakan hasil konklusi
dari ketiga hal sebelumnya itu. Asumsi-asumsi seperti yang telah dituliskan
dalam bahasan OLS di depan, adalah asumsi yang dikembangkan oleh Gauss dan
Markov, yang kemudian teori tersebut terkenal dengan sebutan Gauss-Markov Theorem.
Serupa dengan asumsi-asumsi tersebut, Gujarati (1995) merinci 10 asumsi yang
menjadi syarat penerapan OLS, yaitu:
Asumsi
1: Linear regression Model. Model regresi merupakan hubungan linear
dalam parameter. Y = a + bX +e Untuk model regresi Y = a + bX + cX2 + e Walaupun
variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter
sehingga OLS masih dapat diterapkan.
Asumsi
2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in
repeated sampling). Tepatnya bahwa nilai X adalah nonstochastic (tidak
random).
Asumsi
3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance).
Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja
terdapat error yang berada di atas garis regresi atau di bawah garis
regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
Asumsi 4: Homoskedastisitas, atau
variabel pengganggu e memiliki variance yang sama sepanjang observasi
dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang
sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas Asumsi 5: Tidak
ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between
the disturbance).
Asumsi 6: Variabel X dan disturbance e
tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan
pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang
tindih (sulit dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti terpenuhi
jika X adalah variabel non random atau non stochastic.
Asumsi 7: Jumlah observasi atau besar
sampel (n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan
untuk memenuhi asumsi
yang lain, sebaiknya jumlah n harus
cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah
observasi, maka persamaan regresi tidak akan bisa diestimasi.
Asumsi 8: Variabel X harus memiliki
variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa
dilakukan regresi.
Asumsi 9: Model regresi secara benar
telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya
telah terekomendasi atau sesuai dengan teori.
Asumsi 10. Tidak ada multikolinearitas
antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak
boleh sempurna atau tinggi. Penyimpangan masing-masing asumsi tidak mempunyai
impak yang sama terhadap regresi. Sebagai contoh, adanya penyimpangan atau
tidak terpenuhinya asumsi multikolinearitas (asumsi 10) tidak berarti mengganggu,
sepanjang uji t sudah signifikan. Hal ini disebabkan oleh membesarnya standar
error pada kasus multikolinearitas, sehingga nilai t, b, Sb, menjadi cenderung kecil. Jika nilai t
masih signifikan, maka
multikolinearitas tidak perlu diatasi.
Akan tetapi, jika terjadi penyimpangan pada asumsi heteroskedastisitas atau
pada autokorelasi, penyimpangan tersebut dapat menyebabkan bias pada Sb, sehingga t menjadi tidak menentu.
Dengan demikian, meskipun nilai t sudah signifikan ataupun tidak signifikan,
keduanya tidak dapat memberi informasi yang sesungguhnya. Untuk memenuhi asumsi-asumsi
di atas, maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan,
seperti uji normalitas, autokorelasi, heteroskedastisitas, ataupun
multikolinearitas. Secara teoretis model OLS akan menghasilkan estimasi nilai
parameter model penduga yang sahih bila
dipenuhi asumsi Tidak ada
Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada
Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi
maka akan menghasilkan hasil regresi yang best, linear, unbias,
efficient of estimation (BLUE).
A. Uji Autokorelasi
1. Pengertian autokorelasi
Dalam asumsi klasik telah
dijelaskan bahwa pada model OLS harus telah terbebas dari masalah otokorelasi atau
serial korelasi. Autokorelasi adalah keadaan Diana variabel gangguan pada
periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi
muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis
runtut waktu (time series) ataupun data kerat silang (cross section).
Hanya saja masalah autokorelasi lebih sering muncul pada data Time series,
karena sifat data time series ini sendiri lekat dengan kontinyuitas dan
adanya sifat ketergantungan antar data. Sementara pada data cross
section hal itu kecil kemungkinan terjadi. Asumsi terbebasnya autokorelasi
ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan variannya konstan.
Asumsi variance yang
tidak konstan menunjukkan adanya pengaruh perubahan nilai satu observasi
berdampak pada observasi lain. Sebagai ilustrasi, misalnya kita mengamati
perubahan inflasi apakah dipengaruhi oleh suku bunga deposito ataukah tidak.
Bisa saja perubahan bunga deposito pada waktu tertentu, juga dialami oleh
perubahan tingkat inflasi pada waktu yang sama. Kalau saja terjadi autokorelasi
dalam kasus semacam ini, maka menjadi tidak jelas apakah inflasi betul-betul
dipengaruhi oleh perubahan bunga deposito ataukah karena sifat dari
kecenderungannya sendiri untuk berubah. Telah jelas bagi kita bahwa
autokorelasi akan muncul apabila ada ketergantungan atau adanya kesalahan pengganggu
yang secara otomatis mempengaruhi data berikutnya. Jika terdapat
ketergantungan, dalam bahasa matematisnya dituliskan sebagai berikut:
E(ui, uj) 0; i j
Sebaliknya, jika tidak
terdapat ketergantungan atau tidak adanya kesalahan pengganggu yang secara
otomatis mempengaruhi data berikutnya maka masalah autokorelasi tidak akan
muncul. Hal seperti itu dalam bahasa matematisnya dituliskan sebagai berikut:
E(ui, uj) = 0; i j
A.2. Sebab-sebab
Autokorelasi
Terdapat banyak
faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi, namun dalam
pembahasan ini hanya mengungkapkan beberapa faktor saja antara lain:
1. Kesalahan dalam pembentukan model,
artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh
teori-teori yang relevan dan mendukung.
2. Tidak memasukkan variabel yang
penting. Variabel penting yang dimaksudkan di sini adalah variabel yang
diperkirakan signifikan mempengaruhi variabel Y. Sebagai misal kita ingin
meneliti faktor apa saja yang mempengaruhi terjadinya inflasi. Secara teoritik,
banyaknya Jumlah Uang Beredar (JUB) mempunyai kaitan kuat dengan terjadinya
inflasi. Alur berfikirnya seperti ini, semakin banyak JUB maka daya beli masyarakat
akan meningkat tentu akan pula diikuti dengan permintaan yang meningkat pula, Jika
jumlah penawaran tidak mampu bertambah, tentu harga akan meningkat, ini berarti
inflasi akan terjadi. Nah, tidak dimasukkannya JUB sebagai prediktor, sangat
besar mengandung kecenderungan terjadinya autokorelasi.
3. Manipulasi data. Misalnya dalam
penelitian kita ingin menggunakan data bulanan, namun data tersebut tidak tersedia.
Kemudian kita mencoba menggunakan triwulanan yang tersedia, untuk dijadikan
data bulanan melalui cara interpolasi atau ekstrapolasi. Contohnya membagi tiga
data triwulanan tadi (n/3). Apabila hal seperti ini dilakukan, maka sifat data
dari bulan ke satu akan terbawa ke bulan kedua dan ketiga, dan ini besar kemungkinan
untuk terjadi autokorelasi.
4. Menggunakan data yang tidak empiris.
Jika data semacam ini digunakan, terkesan bahwa data tersebut tidak didukung
oleh realita. Misalnya pengaruh periklanan terhadap penjualan. Kalau dalam penelitian
menggunakan data biaya periklanan bulan ke n dan data penjualan bulan ke n,
besar kemungkinan akan terjadi autokorelasi. Secara empirik, upaya periklanan
bulan ke n tidak akan secara langsung berdampak pada bulan yang sama, tetapi besar
kemungkinan akan berdampak pada bulan berikutnya, jaraknya bisa 1 bulan, 2 bulan,
atau lebih. Seharusnya data penjualan yang digunakan adalah data penjualan
bulan ke n+1 atau n+2 tergantung dampak empiris tadi. Penggunaan data pada
bulan yang sama dengan mengabaikan empiris seperti ini disebut juga sebagai
Cobweb Phenomenon.
A.3. Akibat Autokorelasi
Uraian-uraian di atas
mungkin saja mengajak kita untuk bertanya tentang apa dampak dari autokorelasi
yang timbul. Pertanyaan seperti ini tentu saja merupakan sesuatu yang wajar,
karena kita tentu mempunyai pilihan apakah mengabaikan adanya autokorelasi
ataukah akan mengeliminasinya. Meskipun ada autokorelasi, nilai parameter
estimator (b1, b2,…,bn) model regresi tetap linear dan tidak bias dalam memprediksi B
(parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard
eror (Sb1, Sb2) akan bias. Akibatnya adalah nilai t
hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb
terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau
bersifat tidak pasti (misleading).
A.4. Pengujian Autokorelasi
Pengujian autokorelasi
dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang
timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan oleh
analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya
autokorelasi, antara lain melalui:
1. Uji Durbin-Watson (DW
Test).
Uji Durbin-Watson yang
secara populer digunakan untuk mendeteksi adanya serial korelasi dikembangkan
oleh ahli statistik (statisticians) Durbin dan Watson. Formula yang
digunakan untuk mendeteksi terkenal pula dengan sebutan Durbin- Watson d
statistic, yang dituliskan sebagai berikut: Langkah-langkah pengujian
autokorelasi
menggunakan uji Durbin Watson (DW test)
dapat dimulai dari menentukan hipotesis. Rumusan hipotesisnya (H0) biasanya menyatakan bahwa dua ujungnya
tidak ada serial autokorelasi baik positif maupun negatif. Misalnya: terdapat
otokorelasi positif, atau, terdapat autokorelasi negatif. Bertolak dari
hipotesis tersebut, maka perlu mengujinya karena hipotesis sendiri merupakan jawaban
sementara yang masih perlu diuji. Terdapat beberapa standar keputusan yang
perlu dipedomani ketika menggunakan DW test, yang semuanya menentukan lokasi
dimana nilai DW berada. Dalam pengujian autokorelasi terdapat kemungkinan
munculnya autokorelasi positif maupun negatif. Karena adanya masalah korelasi dapat
menimbulkan adanya bias pada hasil regresi.
Bantuan dengan SPSS
Untuk mengetahui ada
tidaknya autokorelasi dengan DW test, tahapannya dilakukan seperti pada tahapan
regresi, hanya saja dilanjutkan dengan mengaktifkan kunci lainnya. Lengkapnya
tahapan tersebut adalah sebagai berikut:
Pilih Analyze, Regression, Linear
Masukkan variabel Y ke kotak
Variabel
Dependen, dan variabel X1 dan X2 ke dalam kotak
Variabel Independen
Klik pada kotak pilihan Statistik (bawah)
Aktikan Durbin-Watson pada
kolom Residual
Klik Continue, kemudian klik OK.
2. Menggunakan metode
LaGrange Multiplier
(LM).
LM sendiri merupakan teknik
regresi yang memasukkan variabel lag. Sehingga terdapat variabel tambahan yang
dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari
variabel
dependen. Dengan demikian model dalam LM
menjadi sebagai berikut:
Y = 0 + 1X1+ 2 X2 + 3 Yt-1+ 4 Yt-2 +
Variabel Yt-1 merupakan variabel lag 1
dari Y. Variabel Yt-2 merupakan variabel lag 2 dari Y. Lag 1 dan Lag 2 variabel Y
dimasukkan dalam model ini bertujuan untuk mengetahui pada lak berapa problem
otokorelasi muncul. Lag sendiri merupakan rentang waktu. Lag 1 menunjukkan adanya
kesenjangan waktu 1 periode, sedang lag 2 menunjukkan kesenjangan waktu 2
periode. Periodenya tergantung pada jenis data apakah data harian, bulanan, tahunan.
Lag 1 data harian berarti ada kesenjangan satu hari, lag 2 kesenjangan 2 hari
dan seterusnya. Sebagai kunci untuk
mengetahui pada lak berapa autokorelasi muncul, dapat dilihat dari signifikan
tidaknya variabel lag tersebut. Ukuran yang digunakan adalah nilai t
masing-masing variabel lag yang dibandingkan dengan t tabel, seperti yang telah
dibahas pada uji t sebelumnya. Misalnya variabel Yt-1 mempunyai nilai t
signifikan, berarti terdapat masalah autokorelasi atau pengaruh kesalahan
pengganggu mulai satu periode sebelumnya. Jika ini terjadi, maka untuk
perbaikan hasil regresi perlu dilakukan regresi ulang dengan
merubah posisi data untuk disesuaikan
dengan kurun waktu lag tersebut. Terdapat beberapa alat uji lain untuk
mendeteksi autokorelasi seperti uji Breusch-Godfrey, Uji Run, Uji Statistik Q:
Box-Pierce dan Ljung Box, dan lainlain, namun uji-uji tersebut tidak dibahas di
sini, mengingat tulisan ini masih berlingkup atau bersifat pengantar.
B. Uji Normalitas
Tujuan dilakukannya uji
normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi
normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun
setelah tahapan analisis regresi. Hanya saja pengalaman menunjukkan bahwa pengujian
normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu.
Sangat beralasan kiranya, karena jika asumsi normalitas data telah dipenuhi terlebih
dulu, maka dampak yang mungkin akan ditimbulkan dari adanya ketidaknormalan
data seperti bias pada nilai t hitung dan nilai F hitung dapat dihindari. Sebaliknya,
bila dilakukan analisis regresi terlebih dulu, dimana nilai t dan F baru
diketahui, yang kemudian baru dilakukan normalitas data, sedangkan ternyata
hasilnya tidak normal maka analisis regresi harus diulang lagi. Pengujian
normalitas ini berdampak pada nilai t dan F karena pengujian terhadap keduanya
diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.
Bantuan dengan SPSS
SPSS dapat digunakan untuk
melihat nilai Mean, Median, Modus, Skewness, Kurtosis, dan lain-lain. Caranya
dapat dilakukan dengan tahapan sebagai berikut:
Pilih Analyze, Descriptive
Statistic, Frequencies
Pindahkan variabel yang mau dicari
nilainya (sebelah kiri) ke
kotak Variables (sebelah kanan)
Kilik Statistik (bawah)
Aktifkan pilihan yang ada dalam kotak Dispersion,
Distribution, Central
Tendency
Kemudian klik Continue, dan OK.
Standar deviasi ini digunakan untuk
menentukan rentang deviasi dari posisi simetris
data. Untuk mempermudah, kita dapat memberinya nama:
SD1 yang berarti rentang pertama, di
sebelah kiri dan sebelah kanan dari posisi tengah-tengah (simetris).
SD2 yang berarti rentang kedua di
sebelah kiri dan sebelah kanan posisi tengahtengah (simetris).
Maka SPSS akan menampakkan output
sebagai berikut:
SD3 yang berarti rentang ketiga di
sebelah kiri dan sebelah kanan posisi tengahtengah (simetris). Penentuan area
ini penting, karena sebaran
data yang dikatakan normal19 apabila tersebar sebagai
berikut:
Sebanyak 68% dari observasi berada pada
area SD1 Sebanyak 95% dari sisanya berada pada area SD2 Sebanyak 99,7% dari
sisanya berada pada area SD3 Untuk memperjelas maksud dari uraian di atas, kita
dapat melihatnya pada gambar berikut ini Dalam pengujian normalitas mempunyai
dua kemungkinan, yaitu data berdistribusi normal atau tidak normal. Apabila
data telah berdistribusi normal maka
tidak
ada masalah karena uji t dan uji F dapat dilakukan (Kuncoro, 2001: 110). Apabila
data tidak normal, maka diperlukan upaya untuk mengatasi seperti: memotong data
yang out liers, memperbesar sampel, atau melakukan transformasi data. Data
yang tidak normal juga dapat dibedakan dari tingkat kemencengannya (skewness).
Jika data cenderung menceng ke kiri disebut positif skewness, dan jika
data cenderung menceng ke kanan disebut negatif skewness. Data dikatakan
normal jika datanya simetris. Lihat gambar berikut: Langkah transformasi data
sebagai upaya untuk menormalkan sebaran data dapat dilakukan dengan merubah
data dengan nilai absolut ke dalam bilangan logaritma. Dengan mentransformasi
data ke bentuk logaritma akan memperkecil error sehingga kemungkinan timbulnya
masalah heteroskedastisitas juga menjadi sangat kecil (Setiaji, 2004: 18). Sebagai
penjelas dari uraian di atas, maka ada baiknya kalau kita ikuti contoh soal
sebagai berikut:
Misalnya kita memiliki jumlah observasi
sebanyak 30 sampel, dari penghitungan berat badan orang dewasa yang rata-ratanya
ditemukan 46 kg, dengan standar deviasi(SD) 5 kg. Untuk menentukan normal
tidaknya data sampel tersebut, dapat diketahui dari sebaran datanya. Misalnya
dari data tersebut diketahui bahwa 20 dari data observasi (68% X 30) 10 orang
di antaranya mempunyai berat badan yang berkisar antara 41-46 kg., dan 10 orang
lainnya dengan berat 46-51 kg. Dan 4 orang mempunyai berat badan antara 36-41 kg,
serta 5 orang berat badannya berkisar antara 51-56, dan satu orang beratnya
kurang dari 36 kg, maka data dapat dikatakan normal. Dengan demikian bila
diwujudkan dalam bentuk diagram sebaran data akan tampak sebagai berikut:
C. Uji Heteroskedastisitas
C.1. Pengertian
Heteroskedastisitas
Sebagaimana telah
ditunjukkan dalam salah satu asumsi yang harus ditaati pada model regresi
linier, adalah residual harus homoskedastis, artinya, variance residual
harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang
lebih sama. Karena
jika variancenya tidak sama, model akan
menghadapi masalah heteroskedastisitas. Heteroskedastisitas muncul apabila
kesalahan atau residual dari model yang diamati tidak memiliki varians yang
konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001: 112). Padahal
rumus regresi diperoleh dengan asumsi
bahwa variabel
pengganggu (error) atau e,
diasumsikan memiliki variabel yang konstan (rentangan e kurang lebih sama).
Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik
atau mengalami heteroskedastisitas (Setiaji, 2004: 17). Masalah
heteroskedastisitas lebih sering muncul dalam data cross section dari
pada data time series
(Kuncoro, 2001: 112; Setiaji, 2004: 17).
Karena dalam data cross
section menunjukkan obyek yang berbeda dan waktu yang berbeda pula. Antara
obyek satu dengan yang lainnya tidak ada saling keterkaitan, begitu pula dalam
hal waktu. Sedangkan data time series, antara observasi satu dengan yang
lainnya saling mempunyai kaitan. Ada tren yang cenderung sama. Sehingga variance
residualnya juga cenderung sama. Tidak seperti data cross Election
yang cenderung menghasilkan variance residual yang berbeda pula.
C.2. Konsekuensi
Heteroskedastisitas
Analisis regresi menganggap
kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau
deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya
variabel-variabel independen (Arsyad, 1994:198). Asumsi regresi linier yang
berupa variance residual yang sama, menunjukkan bahwa standar error (Sb) masing-masing observasi tidak
mengalami perubahan, sehingga Sb nya tidak bias. Lain halnya, jika asumsi ini tidak terpenuhi,
sehingga variance residualnya berubah-ubah sesuai perubahan observasi,
maka akan mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias.
Selain itu, adanya kesalahan
dalam model yang dapat mengakibatkan nilai b meskipun tetap linier dan tidak
bias, tetapi nilai b bukan nilai yang terbaik. Munculnya masalah
heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi
tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b
dengan Sb. Jika nilai Sb mengecil, maka nilai t
cenderung membesar.
Hal ini akan berakibat bahwa
nilai t mungkin mestinya tidak signifikan, tetapi karena Sb nya bias, maka t menjadi
signifikan. Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t yang seharusnya
signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan
dari Sb ini dapat menjadikan hasil
riset yang mengacaukan.
C.3. Pendeteksian
Heteroskedastisitas
Untuk mendeteksi ada
tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji
grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji
Whyte menggunakan Lagrange Multiplier (Setiaji, 2004: 18). Pengujian heteroskedastisitas
menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran antara
nilai prediksi variabel terikat dengan residualnya, yang output pendeteksiannya
akan tertera berupa sebaran data pada scatter plot.
Dengan menggunakan alat
bantu komputer teknik ini sering dipilih, karena alasan kemudahan dan kesederhanaan
cara pengujian, juga tetap mempertimbangkan valid dan tidaknya hasil pengujian.
Pengujian heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara
melakukan regresi atas residual, dengan model yang dapat dituliskan e2 a bYˆ 2 u . Dari hasil regresi
tersebut dihitung nilai R2. Nilai R2 tadi dikalikan dengan jumlah sampel (R2 x N).
Hasil perkalian ini kemudian
dibandingkan dengan nilai chi-square (2) pada derajat kesalahan tertentu. Dengan df=1 (ingat, karena hanya
memiliki satu variabel bebas). Jika R2 x N lebih besar dari chi-square (2) tabel, maka standar error mengalami
heteroskedastisitas. Sebaliknya, jika R2 x N lebih kecil dari chi-square (2) tabel, maka standar error telah
bebas dari masalah heteroskedastisitas, atau telah homoskedastis.
D. Uji Multikolinieritas
D.1. Pengertian
Multikolinearitas
Multikolinieritas adalah
suatu keadaan Diana terjadi korelasi linear yang ”perfect” atau eksak di
antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan
hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear,
dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel
penjelas hanya mempunyai sedikit sifat-sifat yang sama. Apabila antara variabel
penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak
dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya
dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berklinear
jikaantara variabel penjelas tidak mempunyai sama sekali kesamaan.
D.2. Konsekuensi
Multikolinearitas
Pengujian multikolinearitas
merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena
apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai
koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya
(Sb) cenderung bias, dalam arti tidak dapat
ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t
(Setiaji, 2004: 26).
Logikanya adalah seperti ini, jika
antara X1 dan X2 terjadi kolinearitas sempurna sehingga data menunjukkan bahwa
X1=2X2, maka nilai b1 dan b2 akan tidak dapat ditentukan hasilnya, karena dari
formula OLS
sebagaimana dibahas terdahulu, sehingga nilai
b1 hasilnya tidak menentu. Hal itu akan berdampak pula pada standar error Sb
akan menjadi sangat besar, yang tentu akan memperkecil nilai t.
D.3. Pendeteksian
Multikolinearitas
Terdapat beragam cara untuk
menguji multikolinearitas, di antaranya: menganalisis matriks korelasi dengan Pearson
Correlation atau dengan Spearman’s Rho Correlation, melakukan
regresi partikel dengan teknik auxilary regression, atau dapat pula dilakukan
dengan mengamati nilai variance inflation factor (VIF).
Cara mendeteksi ada tidaknya
multikolinieritas dengan menghitung nilai korelasi antar variabel dengan
menggunakan Spearman’s Rho Correlation dapat dilakukan apabila
data dengan skala
ordinal (Kuncoro, 2001: 114). Sementara
untuk data interval atau nominal dapat dilakukan dengan Pearson Correlation.
Selain itu metode ini lebih mudah dan lebih sederhana tetapi tetap memenuhi
syarat untuk dilakukan. Pengujian multikolinearitas menggunakan angka korelasi
dimaksudkan untuk menentukan ada tidaknya multikolinearitas. Mengacu pendapat
Pindyk dan Rubinfeld22, yang mengatakan bahwa apabila korelasi antara dua variabel bebas
lebih tinggi dibanding korelasi
salah satu atau kedua variabel bebas
tersebut dengan variabel terikat.
Juga pendapat Gujarati
(1995:335) yang mengatakan bahwa bila korelasi antara dua variabel bebas melebihi
0,8 maka multikolinearitas menjadi masalah yang serius. Gujarati juga
menambahkan bahwa, apabila korelasi antara variabel penjelas tidak lebih besar dibanding
korelasi variabel terikat dengan masing-masing variabel penjelas, maka dapat
dikatakan tidak terdapat masalah yang serius. Dengan demikian, dapat disimpulkan
bahwa apabila angka korelasi lebih kecil dari 0,8 maka dapat dikatakan telah
terbebas dari masalah multikolinearitas. Dalam kaitan adanya kolinear yang
tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari masalah
multikolinearitas, dengan mempertimbangkan sifat data dari cross section,
maka bila tujuan persamaan hanya sekedar untuk keperluan prediksi, hasil
regresi dapat ditolerir, sepanjang nilai t signifikan.
Tugas:
1.
Buatlah rangkuman dari pembahasan di atas!
2.
Cobalah untuk menyimpulkan maksud dari uraian bab ini!
3.
Jawablah pertanyaan-pertanyaan di bawah ini:
a.
Coba jelaskan apa yang dimaksud dengan asumsi klasik!
Asumsi klasik
adalah suatu syarat yang harus ada atau dipenuhi dalam regresi linear
sederhana atau regresi linear berganda dengan menghasilkan nilai parameter yang memenuhi asumsi tidak ada autokorelasi, tidak
ada multikolinearitas, dan tidak ada
heteroskedasitas sehingga menghasilkan hasil regresi yang BLUE (best, linear,
unbiased, estimator).
b.
Sebutkan apa saja asumsi-asumsi yang ditetapkan!
Asumsi
1: Linear regression Model. Model regresi merupakan hubungan linear
dalam parameter. Y = a + bX +e Untuk model regresi Y = a + bX + cX2 + e Walaupun
variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter
sehingga OLS masih dapat diterapkan.
Asumsi
2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in
repeated sampling). Tepatnya bahwa nilai X adalah nonstochastic (tidak
random).
Asumsi
3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance).
Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja
terdapat error yang berada di atas garis regresi atau di bawah garis
regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
Asumsi 4: Homoskedastisitas, atau
variabel pengganggu e memiliki variance yang sama sepanjang observasi
dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang
sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas Asumsi 5: Tidak
ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between
the disturbance).
Asumsi 6: Variabel X dan disturbance e
tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan
pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang
tindih (sulit dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti terpenuhi
jika X adalah variabel non random atau non stochastic.
Asumsi 7: Jumlah observasi atau besar
sampel (n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan
untuk memenuhi asumsi
yang lain, sebaiknya jumlah n harus
cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah
observasi, maka persamaan regresi tidak akan bisa diestimasi.
Asumsi 8: Variabel X harus memiliki
variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa
dilakukan regresi.
Asumsi 9: Model regresi secara benar
telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya
telah terekomendasi atau sesuai dengan teori.
Asumsi
10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear
antara variabel penjelas tidak boleh sempurna atau tinggi
c.
Coba jelaskan mengapa tidak semua asumsiperlu lakukan pengujian!
Karena
asumsi-asumsi tersebut telah memenuhi asumsi regresi dan nilai yang diperoleh telah bersifat BLUE (Best, Linear,
Unbiased, Estimator).
d.
Jelaskan apa yang dimaksud dengan autokorelasi!
Autokorelasi adalah
keadaan dimana variabel gangguan pada periode tertentu berkorelasi
dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat
korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time
series) atau data kerat silang (cross section). Masalah autokorelasi lebih sering muncul pada data time series, karena sifatnya
lekat dengan kontinyuitas dan adanya
sifat ketergantungan antar data, sedangkan pada cross section hal itu kecil kemungkinan terjadi.
e.
Jelaskan kenapa autokorelasi timbul!
1. Kesalahan dalam pembentukan
model, artinya model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan
mendukung. 2.Tidak memasukkan variabel
yang penting. Variabel penting yang dimaksud adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y. 3.Manipulasi data. 4. Menggunakan data yang tidak empiris.
f.
Bagaimana cara mendeteksi masalah autokorelasi?
Cara menguji
autokorelasi yaitu dengan cara : 1) Uji Durbin-Watson (DW Test). Dengan
langkah-langkahnya menentukan hipotesis. Rumusan hipotesisnya (H0) biasanya
menyatakan bahwa dua ujungnya tidak ada serial autokorelasi baik positif maupun
negatif. 2) Menggunakan metode LaGrange Multiplier (LM). LM sendiri merupakan
teknik regresi yang memasukkan variabel lag, sehingga terdapat variabel
tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data
Lag dari variabel dependen.
g.
Apa konsekuensi dari adanya masalah autokorelasi dalam model?
h.
Jelaskan apa yang dimaksud dengan heteroskedastisitas!
i.
Jelaskan kenapa heteroskedastisitas timbul!
Heteroskedastisitas
muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke
observasi lainnya (Kuncoro, 2001:112).
Masalah heteroskedastisitas lebih sering muncul dalam data cross section dari pada data time series (Kuncoro, 2001:112;
Setiaji, 2004:17 ).
j.
Bagaimana cara mendeteksi masalah heteroskedastisitas?
Pengujian
heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan membandingkan
sebaran antara nilai prediksi variabel terikat dengan residualnya, yang output pendeteksiannya akan tertera berupa
sebaran data pada scatter plot . Pengujian heteroskedastisitas menggunakan
uji Arch dilakukan dengan cara melakukan regresi atas residual, dengan model
yang dapat dituliskan e2 = a + bŶ2+u.
k.
Apa konsekuensi dari adanya masalah heteroskedastisitas dalam
model?
Munculnya masalah
heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan
berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b
dengan Sb.
l.
Jelaskan apa yang dimaksud dengan multikolinearitas!
Multikolinieritas
adalah suatu keadaan dimana terjadi korelasi linear yang “perfect ” atau eskak
diantara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan
antar variabel penjelas dapat ditrikotomika lemah, tidak berkolinear, dan
sempurna.
m.
Jelaskan kenapa multikolinearitas timbul!
Multikolinieritas
timbul karena nilai koefisien regresi (b) masing-masing variabel bebas dan
standar error nya (Sb) cenderung bias dalam arti tidak dapat ditentukan kepastian nilainya.
n.
Bagaimana cara mendeteksi masalah multikolinearitas?
Cara
mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi
antar variabel dengan menggunakan Spearman’s Rho Correlation dapat dilakukan
apabila data dengan skala ordinal (Kuncoro, 2001: 114). Sementara untuk data
interval atau nominal dapat dilakukan dengan Pearson Correlation
.
o.
Apa konsekuensi dari adanya masalah multikolinearitas dalam model?
Pengujian
multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu
penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan
menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai
standar
error -nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan
kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t (Setiaji,
2004: 26).
p.
Jelaskan apa yang dimaksud dengan normalitas!
Normalitas adalah
untuk menguji aspek variabel
pengganggu (e) memiliki distribusi normal
atau tidak yang dapat dilakukan sebelum atau setelah tahapan analisis regresi.
q.
Jelaskan kenapa normalitas timbul!
Normalitas timbul
karena mempunyai dua kemungkinan, yaitu apakah variabel pengganggu
pada data
berdistribusi normal atau tidak normal.
r.
Bagaimana cara mendeteksi masalah normalitas?
s.
Apa konsekuensi dari adanya masalah normalitas dalam model?
Konsekuensi
normalitas dalam model
berdampak pada nilai t dan F karena pengujian terhadap keduanya diturunkan dari
asumsi bahwa data Y atau e berdistribusi normal.
t.
Bagaimana cara menangani jika data ternyata tidak normal?
Apabila data tidak
normal, maka diperlukan upaya untuk mengatasi seperti : memotong data yang out liers, memperbesar sampel,
atau melakukan transformasi data.
Supawi
Pawenang, 2017, Modul Ekonometrika, Fakultas Ekonomi, UNIBA Surakarta
Komentar
Posting Komentar