BAB 5


                                                         UJI ASUMSI KLASIK
 
regresi liniersederhana maupun dalam regresi linier berganda, bahwa dalam kedua regresi linier tersebut perlu memenuhi asumsi-asumsi seperti yang telah di uraikan dalam kedua bahasan tersebut. Munculnya kewajiban untuk memenuhi asumsi tersebut mengandung arti bahwa formula atau rumus regresi diturunkan dari suatu asumsi tertentu. Artinya, tidak semua data dapat diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi asumsiasumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan dari: Best, Linear, Unbiased, Estimator.
Best dimaksudkan sebagai terbaik. Untuk memahami arti Best, perlu kembali kepada kesadaran kita bahwa analisis regresi linier digunakan untuk menggambarkan sebaran data dalam bentuk garis regresi. Dengan kata lain, garis regresi merupakan cara memahami pola hubungan antara dua seri data atau lebih. Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari sebaran data, menghasilkan error yang terkecil. Perlu diketahui bahwa error itu sendiri adalah perbedaan antara nilai observasi dan nilai yang diramalkan oleh garis regresi.
Jika garis regresi telah Best dan disertai pula oleh kondisi tidak bias (unbiased), maka estimator regresi akan efisien. Linear mewakili linear dalam model, maupun linear dalam parameter. Linear dalam model artinya model yang digunakan dalam analisis regresi telah sesuai dengan kaidah model OLS dimana variabel-variabel penduganya hanya berpangkat satu. Sedangkan linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan fungsi linear dari sampel. Secara jelas bila diukur dengan nilai rata-rata. Unbiased atau tidak bias, Suatu estimator dikatakan unbiased jika nilai harapan dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan bias. Estimator yang efisien dapat ditemukan apabila ketiga kondisi di atas telah tercapai. Karena sifat estimator yang efisien merupakan hasil konklusi dari ketiga hal sebelumnya itu. Asumsi-asumsi seperti yang telah dituliskan dalam bahasan OLS di depan, adalah asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal dengan sebutan Gauss-Markov Theorem. Serupa dengan asumsi-asumsi tersebut, Gujarati (1995) merinci 10 asumsi yang menjadi syarat penerapan OLS, yaitu:
Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear dalam parameter. Y = a + bX +e Untuk model regresi Y = a + bX + cX2 + e Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter sehingga OLS masih dapat diterapkan.

Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling). Tepatnya bahwa nilai X adalah nonstochastic (tidak random).

Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.

Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).

Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non random atau non stochastic.

Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan untuk memenuhi asumsi
yang lain, sebaiknya jumlah n harus cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi, maka persamaan regresi tidak akan bisa diestimasi.

Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.

Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan teori.

Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh sempurna atau tinggi. Penyimpangan masing-masing asumsi tidak mempunyai impak yang sama terhadap regresi. Sebagai contoh, adanya penyimpangan atau tidak terpenuhinya asumsi multikolinearitas (asumsi 10) tidak berarti mengganggu, sepanjang uji t sudah signifikan. Hal ini disebabkan oleh membesarnya standar error pada kasus multikolinearitas, sehingga nilai t, b, Sb, menjadi cenderung kecil. Jika nilai t masih signifikan, maka
multikolinearitas tidak perlu diatasi. Akan tetapi, jika terjadi penyimpangan pada asumsi heteroskedastisitas atau pada autokorelasi, penyimpangan tersebut dapat menyebabkan bias pada Sb, sehingga t menjadi tidak menentu. Dengan demikian, meskipun nilai t sudah signifikan ataupun tidak signifikan, keduanya tidak dapat memberi informasi yang sesungguhnya. Untuk memenuhi asumsi-asumsi di atas, maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan, seperti uji normalitas, autokorelasi, heteroskedastisitas, ataupun multikolinearitas. Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila
dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear, unbias, efficient of estimation (BLUE).

A. Uji Autokorelasi
1. Pengertian autokorelasi
Dalam asumsi klasik telah dijelaskan bahwa pada model OLS harus telah terbebas dari masalah otokorelasi atau serial korelasi. Autokorelasi adalah keadaan Diana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section). Hanya saja masalah autokorelasi lebih sering muncul pada data Time series, karena sifat data time series ini sendiri lekat dengan kontinyuitas dan adanya sifat ketergantungan antar data. Sementara pada data cross section hal itu kecil kemungkinan terjadi. Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan variannya konstan.
Asumsi variance yang tidak konstan menunjukkan adanya pengaruh perubahan nilai satu observasi berdampak pada observasi lain. Sebagai ilustrasi, misalnya kita mengamati perubahan inflasi apakah dipengaruhi oleh suku bunga deposito ataukah tidak. Bisa saja perubahan bunga deposito pada waktu tertentu, juga dialami oleh perubahan tingkat inflasi pada waktu yang sama. Kalau saja terjadi autokorelasi dalam kasus semacam ini, maka menjadi tidak jelas apakah inflasi betul-betul dipengaruhi oleh perubahan bunga deposito ataukah karena sifat dari kecenderungannya sendiri untuk berubah. Telah jelas bagi kita bahwa autokorelasi akan muncul apabila ada ketergantungan atau adanya kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya. Jika terdapat ketergantungan, dalam bahasa matematisnya dituliskan sebagai berikut:
E(ui, uj) 0; i j
Sebaliknya, jika tidak terdapat ketergantungan atau tidak adanya kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya maka masalah autokorelasi tidak akan muncul. Hal seperti itu dalam bahasa matematisnya dituliskan sebagai berikut:
E(ui, uj) = 0; i j

A.2. Sebab-sebab Autokorelasi
Terdapat banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi, namun dalam pembahasan ini hanya mengungkapkan beberapa faktor saja antara lain:
1. Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
2. Tidak memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y. Sebagai misal kita ingin meneliti faktor apa saja yang mempengaruhi terjadinya inflasi. Secara teoritik, banyaknya Jumlah Uang Beredar (JUB) mempunyai kaitan kuat dengan terjadinya inflasi. Alur berfikirnya seperti ini, semakin banyak JUB maka daya beli masyarakat akan meningkat tentu akan pula diikuti dengan permintaan yang meningkat pula, Jika jumlah penawaran tidak mampu bertambah, tentu harga akan meningkat, ini berarti inflasi akan terjadi. Nah, tidak dimasukkannya JUB sebagai prediktor, sangat besar mengandung kecenderungan terjadinya autokorelasi.
3. Manipulasi data. Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun data tersebut tidak tersedia. Kemudian kita mencoba menggunakan triwulanan yang tersedia, untuk dijadikan data bulanan melalui cara interpolasi atau ekstrapolasi. Contohnya membagi tiga data triwulanan tadi (n/3). Apabila hal seperti ini dilakukan, maka sifat data dari bulan ke satu akan terbawa ke bulan kedua dan ketiga, dan ini besar kemungkinan untuk terjadi autokorelasi.
4. Menggunakan data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh realita. Misalnya pengaruh periklanan terhadap penjualan. Kalau dalam penelitian menggunakan data biaya periklanan bulan ke n dan data penjualan bulan ke n, besar kemungkinan akan terjadi autokorelasi. Secara empirik, upaya periklanan bulan ke n tidak akan secara langsung berdampak pada bulan yang sama, tetapi besar kemungkinan akan berdampak pada bulan berikutnya, jaraknya bisa 1 bulan, 2 bulan, atau lebih. Seharusnya data penjualan yang digunakan adalah data penjualan bulan ke n+1 atau n+2 tergantung dampak empiris tadi. Penggunaan data pada bulan yang sama dengan mengabaikan empiris seperti ini disebut juga sebagai Cobweb Phenomenon.
A.3. Akibat Autokorelasi
Uraian-uraian di atas mungkin saja mengajak kita untuk bertanya tentang apa dampak dari autokorelasi yang timbul. Pertanyaan seperti ini tentu saja merupakan sesuatu yang wajar, karena kita tentu mempunyai pilihan apakah mengabaikan adanya autokorelasi ataukah akan mengeliminasinya. Meskipun ada autokorelasi, nilai parameter estimator (b1, b2,…,bn) model regresi tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard eror (Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
A.4. Pengujian Autokorelasi
Pengujian autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain melalui:
1. Uji Durbin-Watson (DW Test).
Uji Durbin-Watson yang secara populer digunakan untuk mendeteksi adanya serial korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan Watson. Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan Durbin- Watson d statistic, yang dituliskan sebagai berikut: Langkah-langkah pengujian autokorelasi
menggunakan uji Durbin Watson (DW test) dapat dimulai dari menentukan hipotesis. Rumusan hipotesisnya (H0) biasanya menyatakan bahwa dua ujungnya tidak ada serial autokorelasi baik positif maupun negatif. Misalnya: terdapat otokorelasi positif, atau, terdapat autokorelasi negatif. Bertolak dari hipotesis tersebut, maka perlu mengujinya karena hipotesis sendiri merupakan jawaban sementara yang masih perlu diuji. Terdapat beberapa standar keputusan yang perlu dipedomani ketika menggunakan DW test, yang semuanya menentukan lokasi dimana nilai DW berada. Dalam pengujian autokorelasi terdapat kemungkinan munculnya autokorelasi positif maupun negatif. Karena adanya masalah korelasi dapat menimbulkan adanya bias pada hasil regresi.

Bantuan dengan SPSS
Untuk mengetahui ada tidaknya autokorelasi dengan DW test, tahapannya dilakukan seperti pada tahapan regresi, hanya saja dilanjutkan dengan mengaktifkan kunci lainnya. Lengkapnya tahapan tersebut adalah sebagai berikut:
Pilih Analyze, Regression, Linear
Masukkan variabel Y ke kotak Variabel
Dependen, dan variabel X1 dan X2 ke dalam kotak
Variabel Independen
Klik pada kotak pilihan Statistik (bawah)
Aktikan Durbin-Watson pada kolom Residual
Klik Continue, kemudian klik OK.

2. Menggunakan metode LaGrange Multiplier
(LM).
LM sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari variabel
dependen. Dengan demikian model dalam LM menjadi sebagai berikut:
Y = 0 + 1X1+ 2 X2 + 3 Yt-1+ 4 Yt-2 + 
Variabel Yt-1 merupakan variabel lag 1 dari Y. Variabel Yt-2 merupakan variabel lag 2 dari Y. Lag 1 dan Lag 2 variabel Y dimasukkan dalam model ini bertujuan untuk mengetahui pada lak berapa problem otokorelasi muncul. Lag sendiri merupakan rentang waktu. Lag 1 menunjukkan adanya kesenjangan waktu 1 periode, sedang lag 2 menunjukkan kesenjangan waktu 2 periode. Periodenya tergantung pada jenis data apakah data harian, bulanan, tahunan. Lag 1 data harian berarti ada kesenjangan satu hari, lag 2 kesenjangan 2 hari
dan seterusnya. Sebagai kunci untuk mengetahui pada lak berapa autokorelasi muncul, dapat dilihat dari signifikan tidaknya variabel lag tersebut. Ukuran yang digunakan adalah nilai t masing-masing variabel lag yang dibandingkan dengan t tabel, seperti yang telah dibahas pada uji t sebelumnya. Misalnya variabel Yt-1 mempunyai nilai t signifikan, berarti terdapat masalah autokorelasi atau pengaruh kesalahan pengganggu mulai satu periode sebelumnya. Jika ini terjadi, maka untuk perbaikan hasil regresi perlu dilakukan regresi ulang dengan
merubah posisi data untuk disesuaikan dengan kurun waktu lag tersebut. Terdapat beberapa alat uji lain untuk mendeteksi autokorelasi seperti uji Breusch-Godfrey, Uji Run, Uji Statistik Q: Box-Pierce dan Ljung Box, dan lainlain, namun uji-uji tersebut tidak dibahas di sini, mengingat tulisan ini masih berlingkup atau bersifat pengantar.

B. Uji Normalitas
Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya saja pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu. Sangat beralasan kiranya, karena jika asumsi normalitas data telah dipenuhi terlebih dulu, maka dampak yang mungkin akan ditimbulkan dari adanya ketidaknormalan data seperti bias pada nilai t hitung dan nilai F hitung dapat dihindari. Sebaliknya, bila dilakukan analisis regresi terlebih dulu, dimana nilai t dan F baru diketahui, yang kemudian baru dilakukan normalitas data, sedangkan ternyata hasilnya tidak normal maka analisis regresi harus diulang lagi. Pengujian normalitas ini berdampak pada nilai t dan F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.
Bantuan dengan SPSS
SPSS dapat digunakan untuk melihat nilai Mean, Median, Modus, Skewness, Kurtosis, dan lain-lain. Caranya dapat dilakukan dengan tahapan sebagai berikut:
Pilih Analyze, Descriptive Statistic, Frequencies
Pindahkan variabel yang mau dicari nilainya (sebelah kiri) ke
kotak Variables (sebelah kanan)
Kilik Statistik (bawah)
Aktifkan pilihan yang ada dalam kotak Dispersion,
Distribution, Central Tendency
Kemudian klik Continue, dan OK. Standar deviasi ini digunakan untuk
menentukan rentang deviasi dari posisi simetris data. Untuk mempermudah, kita dapat memberinya nama:
SD1 yang berarti rentang pertama, di sebelah kiri dan sebelah kanan dari posisi tengah-tengah (simetris).
SD2 yang berarti rentang kedua di sebelah kiri dan sebelah kanan posisi tengahtengah (simetris).
Maka SPSS akan menampakkan output sebagai berikut:
SD3 yang berarti rentang ketiga di sebelah kiri dan sebelah kanan posisi tengahtengah (simetris). Penentuan area ini penting, karena sebaran
data yang dikatakan normal19 apabila tersebar sebagai berikut:
Sebanyak 68% dari observasi berada pada area SD1 Sebanyak 95% dari sisanya berada pada area SD2 Sebanyak 99,7% dari sisanya berada pada area SD3 Untuk memperjelas maksud dari uraian di atas, kita dapat melihatnya pada gambar berikut ini Dalam pengujian normalitas mempunyai dua kemungkinan, yaitu data berdistribusi normal atau tidak normal. Apabila data telah berdistribusi normal maka
 tidak ada masalah karena uji t dan uji F dapat dilakukan (Kuncoro, 2001: 110). Apabila data tidak normal, maka diperlukan upaya untuk mengatasi seperti: memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data. Data yang tidak normal juga dapat dibedakan dari tingkat kemencengannya (skewness). Jika data cenderung menceng ke kiri disebut positif skewness, dan jika data cenderung menceng ke kanan disebut negatif skewness. Data dikatakan normal jika datanya simetris. Lihat gambar berikut: Langkah transformasi data sebagai upaya untuk menormalkan sebaran data dapat dilakukan dengan merubah data dengan nilai absolut ke dalam bilangan logaritma. Dengan mentransformasi data ke bentuk logaritma akan memperkecil error sehingga kemungkinan timbulnya masalah heteroskedastisitas juga menjadi sangat kecil (Setiaji, 2004: 18). Sebagai penjelas dari uraian di atas, maka ada baiknya kalau kita ikuti contoh soal sebagai berikut:
Misalnya kita memiliki jumlah observasi sebanyak 30 sampel, dari penghitungan berat badan orang dewasa yang rata-ratanya ditemukan 46 kg, dengan standar deviasi(SD) 5 kg. Untuk menentukan normal tidaknya data sampel tersebut, dapat diketahui dari sebaran datanya. Misalnya dari data tersebut diketahui bahwa 20 dari data observasi (68% X 30) 10 orang di antaranya mempunyai berat badan yang berkisar antara 41-46 kg., dan 10 orang lainnya dengan berat 46-51 kg. Dan 4 orang mempunyai berat badan antara 36-41 kg, serta 5 orang berat badannya berkisar antara 51-56, dan satu orang beratnya kurang dari 36 kg, maka data dapat dikatakan normal. Dengan demikian bila diwujudkan dalam bentuk diagram sebaran data akan tampak sebagai berikut:

C. Uji Heteroskedastisitas
C.1. Pengertian Heteroskedastisitas
Sebagaimana telah ditunjukkan dalam salah satu asumsi yang harus ditaati pada model regresi linier, adalah residual harus homoskedastis, artinya, variance residual harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang lebih sama. Karena
jika variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001: 112). Padahal
rumus regresi diperoleh dengan asumsi bahwa variabel
pengganggu (error) atau e, diasumsikan memiliki variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik atau mengalami heteroskedastisitas (Setiaji, 2004: 17). Masalah heteroskedastisitas lebih sering muncul dalam data cross section dari pada data time series
(Kuncoro, 2001: 112; Setiaji, 2004: 17).
Karena dalam data cross section menunjukkan obyek yang berbeda dan waktu yang berbeda pula. Antara obyek satu dengan yang lainnya tidak ada saling keterkaitan, begitu pula dalam hal waktu. Sedangkan data time series, antara observasi satu dengan yang lainnya saling mempunyai kaitan. Ada tren yang cenderung sama. Sehingga variance residualnya juga cenderung sama. Tidak seperti data cross Election yang cenderung menghasilkan variance residual yang berbeda pula.
C.2. Konsekuensi Heteroskedastisitas
Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel-variabel independen (Arsyad, 1994:198). Asumsi regresi linier yang berupa variance residual yang sama, menunjukkan bahwa standar error (Sb) masing-masing observasi tidak mengalami perubahan, sehingga Sb nya tidak bias. Lain halnya, jika asumsi ini tidak terpenuhi, sehingga variance residualnya berubah-ubah sesuai perubahan observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias.
Selain itu, adanya kesalahan dalam model yang dapat mengakibatkan nilai b meskipun tetap linier dan tidak bias, tetapi nilai b bukan nilai yang terbaik. Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai Sb mengecil, maka nilai t cenderung membesar.
Hal ini akan berakibat bahwa nilai t mungkin mestinya tidak signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan. Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
C.3. Pendeteksian Heteroskedastisitas
Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji, 2004: 18). Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran antara nilai prediksi variabel terikat dengan residualnya, yang output pendeteksiannya akan tertera berupa sebaran data pada scatter plot.
Dengan menggunakan alat bantu komputer teknik ini sering dipilih, karena alasan kemudahan dan kesederhanaan cara pengujian, juga tetap mempertimbangkan valid dan tidaknya hasil pengujian. Pengujian heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara melakukan regresi atas residual, dengan model yang dapat dituliskan e2 a bYˆ 2 u . Dari hasil regresi tersebut dihitung nilai R2. Nilai R2 tadi dikalikan dengan jumlah sampel (R2 x N).
Hasil perkalian ini kemudian dibandingkan dengan nilai chi-square (2) pada derajat kesalahan tertentu. Dengan df=1 (ingat, karena hanya memiliki satu variabel bebas). Jika R2 x N lebih besar dari chi-square (2) tabel, maka standar error mengalami heteroskedastisitas. Sebaliknya, jika R2 x N lebih kecil dari chi-square (2) tabel, maka standar error telah bebas dari masalah heteroskedastisitas, atau telah homoskedastis.

D. Uji Multikolinieritas
D.1. Pengertian Multikolinearitas
Multikolinieritas adalah suatu keadaan Diana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama. Apabila antara variabel penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berklinear jikaantara variabel penjelas tidak mempunyai sama sekali kesamaan.

D.2. Konsekuensi Multikolinearitas
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).
Logikanya adalah seperti ini, jika antara X1 dan X2 terjadi kolinearitas sempurna sehingga data menunjukkan bahwa X1=2X2, maka nilai b1 dan b2 akan tidak dapat ditentukan hasilnya, karena dari formula OLS
sebagaimana dibahas terdahulu, sehingga nilai b1 hasilnya tidak menentu. Hal itu akan berdampak pula pada standar error Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai t.

D.3. Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matriks korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation, melakukan regresi partikel dengan teknik auxilary regression, atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF).
Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s Rho Correlation dapat dilakukan apabila data dengan skala
ordinal (Kuncoro, 2001: 114). Sementara untuk data interval atau nominal dapat dilakukan dengan Pearson Correlation. Selain itu metode ini lebih mudah dan lebih sederhana tetapi tetap memenuhi syarat untuk dilakukan. Pengujian multikolinearitas menggunakan angka korelasi dimaksudkan untuk menentukan ada tidaknya multikolinearitas. Mengacu pendapat Pindyk dan Rubinfeld22, yang mengatakan bahwa apabila korelasi antara dua variabel bebas lebih tinggi dibanding korelasi
salah satu atau kedua variabel bebas tersebut dengan variabel terikat.
Juga pendapat Gujarati (1995:335) yang mengatakan bahwa bila korelasi antara dua variabel bebas melebihi 0,8 maka multikolinearitas menjadi masalah yang serius. Gujarati juga menambahkan bahwa, apabila korelasi antara variabel penjelas tidak lebih besar dibanding korelasi variabel terikat dengan masing-masing variabel penjelas, maka dapat dikatakan tidak terdapat masalah yang serius. Dengan demikian, dapat disimpulkan bahwa apabila angka korelasi lebih kecil dari 0,8 maka dapat dikatakan telah terbebas dari masalah multikolinearitas. Dalam kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari masalah multikolinearitas, dengan mempertimbangkan sifat data dari cross section, maka bila tujuan persamaan hanya sekedar untuk keperluan prediksi, hasil regresi dapat ditolerir, sepanjang nilai t signifikan.
Tugas:
1.     Buatlah rangkuman dari pembahasan di atas!
2.     Cobalah untuk menyimpulkan maksud dari uraian bab ini!
3.     Jawablah pertanyaan-pertanyaan di bawah ini:
a.     Coba jelaskan apa yang dimaksud dengan asumsi klasik!
Asumsi klasik adalah suatu syarat yang harus ada atau dipenuhi dalam regresi linear sederhana atau regresi linear berganda dengan menghasilkan nilai parameter yang memenuhi asumsi tidak ada autokorelasi, tidak ada multikolinearitas, dan tidak ada heteroskedasitas sehingga menghasilkan hasil regresi yang BLUE (best, linear, unbiased, estimator).

b.     Sebutkan apa saja asumsi-asumsi yang ditetapkan!

Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear dalam parameter. Y = a + bX +e Untuk model regresi Y = a + bX + cX2 + e Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter sehingga OLS masih dapat diterapkan.

Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling). Tepatnya bahwa nilai X adalah nonstochastic (tidak random).

Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.

Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).

Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non random atau non stochastic.

Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan untuk memenuhi asumsi
yang lain, sebaiknya jumlah n harus cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi, maka persamaan regresi tidak akan bisa diestimasi.

Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.

Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan teori.

Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh sempurna atau tinggi

c.      Coba jelaskan mengapa tidak semua asumsiperlu lakukan pengujian!
Karena asumsi-asumsi tersebut telah memenuhi asumsi regresi dan nilai yang diperoleh telah bersifat BLUE (Best, Linear, Unbiased, Estimator).

d.     Jelaskan apa yang dimaksud dengan autokorelasi!
Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu  berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul  bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) atau data kerat silang (cross section). Masalah autokorelasi lebih sering muncul pada data time series, karena sifatnya lekat dengan kontinyuitas dan adanya sifat ketergantungan antar data, sedangkan pada cross section hal itu kecil kemungkinan terjadi.
e.      Jelaskan kenapa autokorelasi timbul!
1. Kesalahan dalam pembentukan model, artinya model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung. 2.Tidak memasukkan variabel yang penting. Variabel penting yang dimaksud adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y. 3.Manipulasi data. 4. Menggunakan data yang tidak empiris.
f.       Bagaimana cara mendeteksi masalah autokorelasi?
Cara menguji autokorelasi yaitu dengan cara : 1) Uji Durbin-Watson (DW Test). Dengan langkah-langkahnya menentukan hipotesis. Rumusan hipotesisnya (H0) biasanya menyatakan bahwa dua ujungnya tidak ada serial autokorelasi baik positif maupun negatif. 2) Menggunakan metode LaGrange Multiplier (LM). LM sendiri merupakan teknik regresi yang memasukkan variabel lag, sehingga terdapat variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari variabel dependen.

g.     Apa konsekuensi dari adanya masalah autokorelasi dalam model?

h.     Jelaskan apa yang dimaksud dengan heteroskedastisitas!

i.       Jelaskan kenapa heteroskedastisitas timbul!
Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001:112). Masalah heteroskedastisitas lebih sering muncul dalam data cross section dari pada data time series (Kuncoro, 2001:112; Setiaji, 2004:17 ).
j.       Bagaimana cara mendeteksi masalah heteroskedastisitas?
Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran antara nilai prediksi variabel terikat dengan residualnya, yang  output pendeteksiannya akan tertera berupa sebaran data pada scatter plot . Pengujian heteroskedastisitas menggunakan uji Arch dilakukan dengan cara melakukan regresi atas residual, dengan model yang dapat dituliskan e2 = a + bŶ2+u.

k.     Apa konsekuensi dari adanya masalah heteroskedastisitas dalam model?
Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi  bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb.

l.       Jelaskan apa yang dimaksud dengan multikolinearitas!
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang “perfect ” atau eskak diantara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomika lemah, tidak berkolinear, dan sempurna.

m.  Jelaskan kenapa multikolinearitas timbul!
Multikolinieritas timbul karena nilai koefisien regresi (b) masing-masing variabel bebas dan standar error nya (Sb) cenderung bias dalam arti tidak dapat ditentukan kepastian nilainya.

n.     Bagaimana cara mendeteksi masalah multikolinearitas?
Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s Rho Correlation dapat dilakukan apabila data dengan skala ordinal (Kuncoro, 2001: 114). Sementara untuk data interval atau nominal dapat dilakukan dengan Pearson Correlation
.

o.     Apa konsekuensi dari adanya masalah multikolinearitas dalam model?
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai
 standar error -nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).

p.    Jelaskan apa yang dimaksud dengan normalitas!
Normalitas adalah untuk menguji aspek variabel pengganggu (e) memiliki distribusi normal atau tidak yang dapat dilakukan sebelum atau setelah tahapan analisis regresi.

q.     Jelaskan kenapa normalitas timbul!
Normalitas timbul karena mempunyai dua kemungkinan, yaitu apakah variabel  pengganggu pada data berdistribusi normal atau tidak normal.
r.      Bagaimana cara mendeteksi masalah normalitas?

s.      Apa konsekuensi dari adanya masalah normalitas dalam model?
Konsekuensi normalitas dalam model berdampak pada nilai t dan F karena  pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e  berdistribusi normal.

t.       Bagaimana cara menangani jika data ternyata tidak normal?
Apabila data tidak normal, maka diperlukan upaya untuk mengatasi seperti : memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data.

Supawi Pawenang, 2017, Modul Ekonometrika, Fakultas Ekonomi, UNIBA Surakarta
 

Komentar

Postingan Populer