BAB V UJI ASUMSI KLASIK
Soal no 1.
UJI ASUMSI KLASIK
Dimuka telah disinggung, baik dalam
regresi linier sederhana maupun dalam regresi linier berganda, bahwa dalam
kedua regresi linier tersebut perlu memenuhi asumsi-asumsi seperti yang telah
diuraikan dalam kedua bahasan tersebut. Munculnya kewajiban untuk memenuhi
asumsi tersebut mengandung arti bahwa formula atau rumus regresi diturunkan
dari suatu asumsi tertentu. Artinya, tidak semua data dapat diperlakukan dengan
regresi. Jika data yang diregresi tidak memenuhi asumsi- asumsi yang telah
disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias.
Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi
yang diperoleh akan bersifat BLUE,yang merupakan singkatan dari : Best, Linear,
Unbiased, Estimator. Best dimaksudkan sebagai terbaik. Untuk memahami arti
Best, perlu kembali kepada kesadaran kita bahwa analisis regresi linier digunakan untuk menggambarkan
sebaran data dalam bentuk garis regresi. Dengan kata lain, garis regresi
merupakan cara memahami pola hubungan antara dua seri data atau lebih. Hasil
regresi dikatakan Best apabila garis regresi yang dihasilkan gun amelakukan
estimasi atau peramalan dari sebaran data,menghasilkan error yang terkecil.
Perlu diketahui bahwa error itu sendiri adalah perbedaan
antara nilai observasi dan nilai yang diramalkan oleh garis regresi. Jika garis regresi telah Best dan disertai pula
oleh kondisi tidak bias (unbiased), maka estimator regresi akan efisien.
Penyimpangan masing-masin gasumsi tidak
mempunyai impak yang sama terhadap regresi. Sebagai contoh, adanya penyimpangan
atau tidak terpenuhinya asumsi multikolinearitas (asumsi 10) tidak berarti
mengganggu, sepanjang uji t sudah signifikan. Hal ini disebabkan oleh
membesarnya standar error pada kasus multikolinearitas, sehingga nilai t, b,
Sb, menjadi cenderung kecil .Jika nilai t masih signifikan, maka
multikolinearitas tidak perlu diatasi. Akan tetapi, jika terjadi
penyimpangan pada asumsi
heteroskedastisitas atau pada autokorelasi, penyimpangan tersebut dapat
menyebabkan bias pada Sb, sehingga t menjadi tidak menentu. Dengan demikian,
meskipun nilait sudah signifikan ataupun tidak signifikan, keduanya tidak dapat
memberii nformasi yang sesungguhnya. Untuk memenuhi asumsi-asumsi di atas, maka
estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan, seperti
uji normalitas, autokorelasi, heteroskedastisitas, atupun multikolinearitas.
Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model
penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada
Multikolinearitas, dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi
klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best,
linear, unbias, efficientofestimation (BLUE).
A. Uji Autokorelasi
a. pengertian autokorlasi
Dalam
asumsi klasik telah dijelaskan
bahwa pada model OLS harus telah
terbebas dari masalah autokorelasi atauserial korelasi. Autokorelasi adalah
keadaan dimana variabel gangguan pada
periode tertentu berkorelasi dengan variabel gangguan pada periode
lain. Sifat autokorelasi muncul
bila terdapat korelasi
antara data yang diteliti, baik itu data
jenis runtut waktu (time series) ataupun datakerat silang (cross section).
Hanya saja masalah autokorelasi lebih sering muncul pada data time series, karena
sifat data time series ini
sendiri lekat dengan
kontinyuitas dan adanya sifat
ketergantungan antar data. Sementara pada data crosssectionhal itu kecil
kemungkinan terjadi. Asumsi terbebasnya auto korelasi ditunjukkan oleh nilai e
yang mempunyai rata-rata nol, dan variannya konstan. Asumsi
variance yang tidak
konstan menunjukkan adanya pengaruh perubahan nilai suatu observasi berdampak
pada observasi lain.
Sebagai ilustrasi, misalnya kita mengamati perubahan inflasi apakah
dipengaruhi oleh suku bunga deposito ataukah tidak. Bisa saja perubahan bunga
deposito pada waktu tertentu, juga dialami oleh perubahan tingkat
inflasi pada waktu yang sama. Kalau saja terjadi autokorelasi dalam kasus
semacam ini, maka menjadi tidak jelas
apakah inflasi betul-betul dipengaruhi oleh perubahan bunga deposito ataukah
karena sifat dari kecenderungannya sendiri untuk berubah.
b. Sebab-sebab Autokorelasi
Terdapat
banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi,
namun dalam pembahasan ini hanya mengungkapkan beberapa factor saja antara
lain:
1) Kesalahan dalam pembentukan model,
artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh
teori-teori yang relevan dan mendukung.
2) Tidak
memasukkan variabel yang
penting. Variabel penting yang dimaksudkan di sini adalah variabel yang
diperkirakan signifikan
mempengaruhi variabel Y. Sebagai misal kita ingin meneliti faktor apa saja yang mempengaruhi
terjadinya inflasi. Secara teoritik, banyaknya Jumlah Uang Beredar (JUB)
mempunyai kaitan kuat dengan terjadinya
inflasi. Alur berfikirnya seperti ini, semakin banyak JUB maka daya beli
masyarakat akan meningkat
tentu akan pula diikuti dengan permintaan yang meningkat
pula, Jika jumlah penawaran tidak mampu bertambah, tentu harga akan
meningkat, ini berarti inflasi
akanterjadi.
3) Manipulasi data. Misalnya dalam penelitian
kita ingin menggunakan data bulanan, namun data tersebut tidak tersedia.
Kemudian kita mencoba menggunakan triwulanan yang tersedia, untuk dijadikan
data bulanan melalui cara interpolasi atau ekstrapolasi. Contohnya membagi tiga
data triwulanan tadi (n/3). Apabila hal seperti ini dilakukan, maka sifat data
dari bulan ke satuakan terbawa ke bulan kedua dan ketiga, dan ini besar
kemungkinan untuk terjadi autokorelasi.
4) Menggunakan data yang tidak empiris. Jika
data semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh
realita. Misalnya pengaruh periklanan terhadap penjualan. Kalau dalam
penelitian menggunakan data biaya periklanan bulan kendan data penjualan bulan
ken, besar kemungkinan akan terjadi autokorelasi. Secara empirik, upaya
periklanan bulan ke n tidak akan secara langsung berdampak pada bulan yang
sama, tetapi besar kemungkinan akan berdampak pada bulan berikutnya, jaraknya
bisa 1 bulan, 2 bulan, atau lebih. Seharusnya data penjualan yang digunakan
adalah data penjualan bulan ke n+1 atau n+2 tergantung dampak empiris tadi.
Penggunaan data pada bulan yang sama dengan mengabaikan empiris seperti ini
disebut juga sebagai Cobweb Phenomenon.
c. AkibatAutokorelasi
Uraian-uraian
diatas mungkin saja mengajak kita untuk bertanya tentang apa dampak dari auto
korelasi yang timbul. Pertanyaan seperti
ini tentu saja merupakan sesuatu yang
wajar, karena kita tentu mempunyaip ilihan apakah mengabaikan adanya
autokorelasi atau kahakan mengeliminasinya. Meskipun ada autokorelasi, nilai
para meter estimator (b1,b2,…,bn) model
regresi tetap linear dan tidak
bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai
variance tidak minimum dan standarderror (Sb1, Sb2) akan bias. Akibatnya adalah
nilait hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi
Sb terhadap b (t= b/sb).Berhubung nilai Sb bias maka nilai t juga akan bias
atau bersifat tidak pasti (misleading).
d. Pengujian Autokorelasi
Pengujiana
utokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah
lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan
oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya
autokorelasi, antara lain melalui:
1) Uji Durbin-Watson (DW Test).
Uji Durbin-Watson yang secara populer digunakan untuk mendeteksi adanya
serial korelasi dikembangkan oleh ahli statistic (statisticians) Durbin dan
Watson. Formula yang digunakan untuk
mendeteksi terkenal pula dengan sebutan Durbin- Watsondstatistic, Dalam DW
testini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
·
Terdapat
interceptdalam model regresi.
·
Variabel penjelasnya tidak
random (nonstochastics).
·
Tidak
ada unsure lag dari variabel dependen di dalam model.
·
Tidak
ada data yang hilang.
2) Menggunakan metode
La Grange Multiplier (LM).
LM sendiri merupakan teknik regresi yang
memasukkan variabellag. Sehingga terdapat variabel tambahan yang dimasukkan
dalam model. Variabel tambahan tersebut adalah data Lag dari variabel dependen.
Sebagai kunci untuk
mengetahui pada lag berapa auto korelasi muncul, dapat
dilihat dari signifikan tidaknya variabel
lag tersebut. Ukuran yang
digunakan adalah nilai
t masing-masing variabel lag yang
dibandingkan dengan t tabel, seperti yang telah dibahas pada uji t sebelumnya.
Misalnya variabel Yt-1 mempunya inilai t signifikan, berarti terdapat masalah
auto korelasi atau pengaruh kesalahan pengganggu mulai satu periode sebelumnya.
Jika ini terjadi, maka untuk perbaikan hasil regresi perlu dilakukan regresi
ulang dengan merubah posisi data untuk disesuaikan dengan kurun waktu lag
tersebut.
B. Uji Normalitas
Tujuan dilakukannya uji normalitas adalah
untuk menguji apakah variabel
penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas
data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya
saja pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum
tahapan regresi lebih efisien dalam waktu. Sangat beralasan kiranya, karena
jika asumsi normalitas data telahdipenuhi terlebih dulu, maka dampak yang
mungkin akan ditimbulkan dari adanya ketidaknormalan data sepertibias pada
nilai t hitung dan nilai F hitung dapat dihindari. Sebaliknya, bila dilakukan
analisis regresi terlebih dulu, dimana nilai t dan F baru diketahui, yang
kemudian baru dilakukan normalitas data, sedangkan ternyata hasilnya tidak
normal maka analisis regresi harus diulang lagi. Pengujian normalitas ini
berdampak pada nilai tdan F karena pengujian terhadap keduanya diturunkan dari
asumsi bahwa data Y ataue berdistribusi normal. Dalam pengujian normalitas
mempunyai dua kemungkinan, yaitu data berdistribusi normal atau tidak normal.
Apabila data telah berdistribusi normal maka tidak adamasalah
karena uji t dan uji F dapat dilakukan (Kuncoro, 2001:110). Apabila data tidak
normal, maka diperlukan upaya untuk mengatasi seperti: memotong data yang
outliers, memperbesar sampel, atau melakukan transformasi data. Langkah
transformasi data sebagai upaya untuk menormalkan sebaran data dapat dilakukan
dengan merubah data dengan nilai absolute kedalam bilangan logaritma. Dengan
mentransformasi data ke bentuk logaritma akan memperkecil error sehingga
kemungkinan timbulnya masalah heteroskedastisitas juga
menjadi sangat kecil (Setiaji,2004:18).
C. Uji Heteroskedastisitas
a. Pengertian Heteroskedastisitas
Sebagaimana
telah ditunjukkan dalam salah satu asumsi yang harus ditaati pada model regresi
linier, adalah residual harus homoskedastis, artinya, variance residual harus
memiliki variabel yang konstan, atau dengan kata lain, rentangan e
kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi
masalah heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan ataur
esidual dari model yang diamati tidak memiliki varians yang konstan dari satu
observasi ke observasi lainnya (Kuncoro, 2001: 112). Padahal rumus regresi diperoleh
dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan memiliki
variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi varian e
tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik atau
mengalami heteroskedastisitas (Setiaji, 2004:17).
b. Konsekuensi Heteroskedastisitas
Analisis regresi menganggap kesalahan
(error) bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari
garis yang paling tepat muncul serta random sesuai dengan besarnya
variabel-variabel independen (Arsyad,
1994:198). Asumsi regresi linier yang berupa varian ceresidual yang
sama, menunjukkan bahwa standar error (Sb) masing-masing observasi tidak
mengalami perubahan, sehingga Sb nya tidak bias. Lain halnya, jika asumsi ini
tidak terpenuhi, sehingga variance residualnya berubah-ubah sesuai perubahan
observasi, maka akan mengakibatkan nilai Sb
yang diperoleh dari hasil regresi akan menjadi bias. Selain itu, adanya
kesalahan dalam model yang dapat mengakibatkan nilai b meskipun tetap
linier dan tidak bias,
tetapi nilai b bukan nilai yang
terbaik. Munculnya masalah heteroskedastisitas yang mengakibatkan nilai
Sb menjadi bias,
akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan.
Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb. Untuk mendeteksi
ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti
uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji
Whyte menggunakan Lagrange Multiplier (Setiaji,2004:18). Pengujian
heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan
membandingkan sebaran antara nilai prediksi variabel terikat dengan
residualnya, yang output pendeteksiannya akan tertera berupa sebaran data pada
scatterplot. Dengan menggunakan alat bantu computer teknik ini sering dipilih,
karena alasan kemudahan dan kesederhanaan cara pengujian, juga tetap
mempertimbangkan valid dan tidaknya hasil pengujian.
D. Uji Multikolinieritas
a. Pengertian Multikolinieritas
suatu
keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak diantara
variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan
antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan
sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas
hanya mempunyai sedikit
sifat-sifat yang sama. Apabila antara variabel penjelas memiliki banyak
sifat-sifat yang sama dan serupa sehingga hampir tidak dapat lagi dibedakan
tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat dikatakan
serius, atau perfect, atau sempurna. Sedangkan Tidak berklinear jika antara
variabel penjelas tidak mempunyai sama sekali kesamaan.
b. Konsekuensi Multikolinearitas
Pengujian
multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu
penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan
menyebabkan nilai koefisien regresi (b)
masing-masing variabel bebas
dan nilai standarerror-nya (Sb)
cenderung bias, dalam arti tidak dapat
ditentukan kepastian nilainya,
sehingga akan berpengaruh pula
terhadap nilai t (Setiaji, 2004: 26).
c. Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji
multikolinearitas, diantaranya : menganalisis matrix korelasi dengan Pearson
Correlation atau dengan Spearman’s Rho Correlation, melakukan regresi partial
dengan teknik auxilary regression, atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF).Cara mendeteksi ada
tidaknya multikolinieritas dengan menghitung nilai korelasi antar variabel
dengan menggunakan Spearman’s Rho Correlation dapat dilakukan apabila data
dengan skala ordinal (Kuncoro, 2001:114). Sementara untuk data interval atau
nominal dapat dilakukan dengan Pearson
Correlation. Selain itu metode ini lebih mudah dan lebih sederhana tetapi tetap
memenuhi syarat untuk dilakukan. Dalam kaitan adanya kolinear yang tinggi
sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari masalah multikolinearitas, dengan mempertimbangkan sifat data dari
crosssection, maka bila tujuan persamaan hanya sekedar untuk
keperluan prediksi, hasil regresi
dapat ditolerir, sepanjang nilai t signifikan
Soal no. 2
Simpulan :
Dari rangkuman dan
penjelasan ini dapat disimpulkan bahwa dalam uji asumsi klasik terdapat 4
(empat ) point yang harus kita tahu yaitu uji autokorelasi, uji normalitas, uji
heterokedastisitas danuji multikolinearitas. Dengan adanya rangkuman diatas
kita jadi bisa membedakan apa saja uji –uji asumsi klasik dari segi
pengertian, mengapa bisa timbul, cara mendeteksi
masalah tersebut,
dan bagaimana konsekuensi yang didapat dari masalah pada uji – uji
tersebut. Agar kedepannya kita jadi lebih mengerti dalam
mengimplementasikan uji – uji yang ada dalam asumsi klasik.
Soal no. 3
a.
Asumsi
klasik ialah syarat-syarat yang harus dipenuhi pada model regresi linier OLS
agar modeltersebut menjadi valid sebagai alat penduga.
b.
Asumsi-asumsi
yang ditetapkan :
11)Asumsi 1: linear regression model
12) Asumsi 2 : nilai X adalah tetap
dalam sampling yang diulang – ulang
13)Asumsi 3 : variabel pengganggu e memiliki
rata – rata nol
14) Asumsi 4 : homoskedastisitas atau
variabel pengganggu e memiliki variance yang samasepanjang observasi
dari berbagai nilai X.
15)Asumsi 5 : tidak ada otokorelasi antara
variabel e pada setiap nilai nilai x1 dan j1.
16)Asumsi 6 : variabel X dan disturbancee tidak
berkorelasi.
17)Asumsi 7 : besar sampel harus lebih besar
dari jumlah parameter yang diestimasi.
18)Asumsi 8 : variabel X harus memiliki
variabilitas.
19)Asumsi 9 : model regresi secara benar
telah terspesifikasi.
20)Asumsi 10 : tidak ada multikolinearitas
antara variabel penjelas.
c. Tidak semua asumsi perlu lakukan
pengujian, misalnya uji multikolinearitas tidak dapatdigunakan pada analisis regresi linear sederhana dan uji autokorelasi yang tidak perlu diterapkan pada datacross
section. Uji asumsi juga tidak perlu dilakukan untuk analisis regresi linear
yang bertujuanuntuk menghitung nilai paa variabel tertentu, misalnya nilai
return saham yang dihitung denganmarket model. Perhitungan nilai return yang
diharapkan dilakukan dengan persamaan regresi dantidak perlu di uji dengan
asumsi klasik.
d. Autokorelasi adalah keadaan dimana
variabel gangguan pada periode tertentu berkorelasi denganvariabel gangguan
pada periode lain.
e. Autokorelasi timbul bila terdapat korelasi
antara data yang diteliti, baik itu data jenis runtut waktu(time series) ataupun
data kerat silang(cross section).Hanya saja masalah autokorelasi
lebihsering muncul pada data time series, karena sifat data time series ini sendiri
lekat dengankontinyuitas dan adanya sifat ketergantungan antar data.
f. Cara mendeteksi masalah autokorelasi
dengan
1) Uji Durbin-Watson (DW Test).
2) Menggunakan metode LaGrange Multiplier
(LM).
g. Konsekuensi dari adanya masalah
autokorelasi dalam model ialah sebagai berikut :
1) Estimator yang dihasilkan tidakBLUE
2) Estimasi standar error dan varian
koefisien regresi yang didapat akan underestimate.
3) Pemeriksaan terhadap residualnya akan
menemui permasalahan.
h. Heterokedastisitas merupakan salah satu
faktor yang menyebabkan model regresi linear sederhanatidak efisien dan akurat,
juga mengakibatkan pengunaan metode kemungkinan maksimum dalammengestimasi parameter
regresi akan terganggu.
i.
Heterokedastisitas
muncul karena apabila kesalahan atau residual dari model yang diamati
tidakmemiliki varians yang konstan dari satu observasi ke observasi lainnya
(Kuncoro, 2001: 112).
j.
Cara
mendeteksi masalah heterokedastisitas dapat dilakukan dengan uji grafik, uji
Park, UjiGlejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan
Lagrange Multiplier (Setiaji, 2004: 18)
k. Konsekuensi adanya heterokedastisitas
dalam model berakibat model yang terbentuk kurangmampu menaksir parameter dari
populasi sebenarnya. Tapi tenang karena ini semua bisa dihindaridengan
transformasi variabel. Contoh jika penelitian kita datanya primer, maka kita
dapatmenambah jumlah sampel kita sehingga jadi lebih besar.
l.
Multikolinieritas
adalahsuatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak
diantara variabel penjelas yang dimasukkan ke dalam model.
m. Multikolinieritas muncul karena kesalahan
teoritis dalam pembentukan model fungsi regresi yangmemasukan variabel bebas
yang hampir sama. Dan bisa timbul juga karena terlampau kecilnya jumlah
pengamatan yang akan dianalisis dengan model regresi.
n. Cara mendeteksi masalah multikolinieritas,
di antaranya: menganalisis matrix korelasi dengan Pearson Correlationatau
denganSpearman’s Rho Correlation,
melakukan regresi partial dengantekni auxilary regression, atau dapat
pula dilakukan dengan mengamati nilaivariance inflation factor (VIF).
o. Konsekuensi dari adanya masalah
multikolinieritas dalam model apabila belum terbebas darimasalah
multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing
variabel bebas dan nilai standar error-nya
(Sb) cenderung bias, dalam arti tidak dapat
ditentukan kepastiannilainya.
p. Normalitas adalah penilaian sebaran data pada sebuah kelompok data atau variabel, yang manasebaran
data tersebut berdistribusi normal atau tidak.
q. Normalitas timbul untuk mengetahui apakah
data empirik yang didapatkan dari lapangan itu sesuaidengan
distribusi teoritik tertentu.
r.
Cara
mendeteksi masalah normalitas yaitu dengan melakukan uji – uji
normalitas sepertichi-kuadrat, uji liliefors, denganteknik
kolmogorov-smirnov, shapiro wilk dll.
s. Konsekuensi dari adanya masalah normalitas
dalam model ialah jika error dari model yangdihasilkan dari penelitian tidak
mengikuti distribusi normal, maka kurang mampu dijadikaninstrumen analisis
lebih lanjut. Varian yang tidak mengikuti distribusi normal berarti ia inkonsistenuntuk
setiap amatan.
t.
Cara
menangani jika data ternyata tidak normal yaitu dengan dilakukan upaya seperti
:
1) Memotong data yang out liers
2) Memperbesar sampel
3) Melakukan transformasi data
Komentar
Posting Komentar