BAB V UJI ASUMSI KLASIK

Soal no 1.

UJI ASUMSI KLASIK
Dimuka telah disinggung, baik dalam regresi linier sederhana maupun dalam regresi linier berganda, bahwa dalam kedua regresi linier tersebut perlu memenuhi asumsi-asumsi seperti yang telah diuraikan dalam kedua bahasan tersebut. Munculnya kewajiban untuk memenuhi asumsi tersebut mengandung arti bahwa formula atau rumus regresi diturunkan dari suatu asumsi tertentu. Artinya, tidak semua data dapat diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi asumsi- asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE,yang merupakan singkatan dari : Best, Linear, Unbiased, Estimator. Best dimaksudkan sebagai terbaik. Untuk memahami arti Best, perlu kembali kepada kesadaran kita bahwa analisis  regresi linier digunakan untuk menggambarkan sebaran data dalam bentuk garis regresi. Dengan kata lain, garis regresi merupakan cara memahami pola hubungan antara dua seri data atau lebih. Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan gun amelakukan estimasi atau peramalan dari sebaran data,menghasilkan error yang  terkecil.   Perlu  diketahui  bahwa error itu sendiri adalah perbedaan antara nilai observasi dan nilai yang diramalkan oleh garis regresi. Jika  garis regresi telah Best dan disertai pula oleh kondisi tidak bias (unbiased), maka estimator regresi akan efisien.
Penyimpangan masing-masin gasumsi tidak mempunyai impak yang sama terhadap regresi. Sebagai contoh, adanya penyimpangan atau tidak terpenuhinya asumsi multikolinearitas (asumsi 10) tidak berarti mengganggu, sepanjang uji t sudah signifikan. Hal ini disebabkan oleh membesarnya standar error pada kasus multikolinearitas, sehingga nilai t, b, Sb, menjadi cenderung kecil .Jika nilai t masih signifikan, maka multikolinearitas tidak perlu diatasi. Akan tetapi, jika terjadi penyimpangan  pada  asumsi  heteroskedastisitas atau pada autokorelasi, penyimpangan tersebut dapat menyebabkan bias pada Sb, sehingga t menjadi tidak menentu. Dengan demikian, meskipun nilait sudah signifikan ataupun tidak signifikan, keduanya tidak dapat memberii nformasi yang sesungguhnya. Untuk memenuhi asumsi-asumsi di atas, maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan, seperti uji normalitas, autokorelasi, heteroskedastisitas, atupun multikolinearitas. Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear, unbias, efficientofestimation (BLUE).

A. Uji Autokorelasi
a.       pengertian autokorlasi
Dalam asumsi klasik telah dijelaskan  bahwa  pada model OLS harus telah terbebas dari masalah autokorelasi atauserial korelasi. Autokorelasi adalah keadaan dimana variabel   gangguan   pada  periode   tertentu   berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul  bila  terdapat korelasi antara  data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun datakerat silang (cross section). Hanya saja masalah autokorelasi lebih sering muncul pada data time series, karena sifat  data time  series ini  sendiri lekat dengan  kontinyuitas  dan adanya  sifat  ketergantungan antar data. Sementara pada data crosssectionhal itu kecil kemungkinan terjadi. Asumsi terbebasnya auto korelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan variannya konstan.    Asumsi    variance    yang    tidak    konstan menunjukkan adanya pengaruh perubahan nilai suatu observasi   berdampak  pada   observasi   lain.  Sebagai ilustrasi, misalnya kita mengamati perubahan inflasi apakah dipengaruhi oleh suku bunga deposito ataukah tidak. Bisa saja perubahan  bunga  deposito pada waktu tertentu, juga dialami oleh perubahan tingkat inflasi pada waktu yang sama. Kalau saja terjadi autokorelasi dalam kasus semacam  ini, maka menjadi tidak jelas apakah inflasi betul-betul dipengaruhi oleh perubahan bunga deposito ataukah karena sifat dari kecenderungannya sendiri untuk berubah.
b.      Sebab-sebab Autokorelasi
Terdapat banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi, namun dalam pembahasan ini hanya mengungkapkan beberapa factor saja antara lain:
1)      Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
2)      Tidak   memasukkan   variabel   yang   penting. Variabel penting yang dimaksudkan di sini adalah variabel      yang      diperkirakan      signifikan mempengaruhi  variabel  Y. Sebagai misal  kita ingin meneliti faktor apa saja yang mempengaruhi terjadinya inflasi. Secara teoritik, banyaknya Jumlah Uang Beredar (JUB) mempunyai kaitan kuat  dengan  terjadinya  inflasi. Alur berfikirnya seperti ini, semakin banyak JUB maka daya beli masyarakat  akan  meningkat   tentu  akan  pula diikuti dengan permintaan yang meningkat pula, Jika jumlah penawaran tidak mampu bertambah, tentu harga akan meningkat,  ini berarti inflasi akanterjadi.
3)      Manipulasi data. Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun data tersebut tidak tersedia. Kemudian kita mencoba menggunakan triwulanan yang tersedia, untuk dijadikan data bulanan melalui cara interpolasi atau ekstrapolasi. Contohnya membagi tiga data triwulanan tadi (n/3). Apabila hal seperti ini dilakukan, maka sifat data dari bulan ke satuakan terbawa ke bulan kedua dan ketiga, dan ini besar kemungkinan untuk terjadi autokorelasi.
4)      Menggunakan data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh realita. Misalnya pengaruh periklanan terhadap penjualan. Kalau dalam penelitian menggunakan data biaya periklanan bulan kendan data penjualan bulan ken, besar kemungkinan akan terjadi autokorelasi. Secara empirik, upaya periklanan bulan ke n tidak akan secara langsung berdampak pada bulan yang sama, tetapi besar kemungkinan akan berdampak pada bulan berikutnya, jaraknya bisa 1 bulan, 2 bulan, atau lebih. Seharusnya data penjualan yang digunakan adalah data  penjualan bulan ke  n+1 atau n+2 tergantung dampak empiris tadi. Penggunaan data pada bulan yang sama dengan mengabaikan empiris seperti ini disebut juga sebagai Cobweb Phenomenon.
c.       AkibatAutokorelasi
Uraian-uraian diatas mungkin saja mengajak kita untuk bertanya tentang apa dampak dari auto korelasi yang timbul.  Pertanyaan seperti ini tentu  saja merupakan sesuatu yang wajar, karena kita tentu mempunyaip ilihan apakah mengabaikan adanya autokorelasi atau kahakan mengeliminasinya. Meskipun ada autokorelasi, nilai para meter estimator (b1,b2,…,bn) model  regresi  tetap linear dan  tidak  bias dalam  memprediksi  B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standarderror (Sb1, Sb2) akan bias. Akibatnya adalah nilait hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t= b/sb).Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
d.      Pengujian Autokorelasi
Pengujiana utokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain melalui:
1)      Uji Durbin-Watson (DW Test).
Uji Durbin-Watson     yang secara  populer digunakan untuk mendeteksi adanya serial korelasi dikembangkan oleh ahli statistic (statisticians) Durbin dan Watson.  Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan Durbin- Watsondstatistic, Dalam DW testini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
·         Terdapat interceptdalam model regresi.
·         Variabel     penjelasnya     tidak     random (nonstochastics).
·         Tidak ada unsure lag dari variabel dependen di dalam model.
·         Tidak ada data yang hilang.
2)      Menggunakan  metode  La Grange  Multiplier (LM).
LM sendiri merupakan teknik regresi yang memasukkan variabellag. Sehingga terdapat variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari variabel dependen. Sebagai  kunci  untuk  mengetahui   pada   lag berapa auto korelasi muncul, dapat dilihat dari signifikan  tidaknya  variabel  lag  tersebut.  Ukuran yang  digunakan   adalah   nilai   t  masing-masing variabel lag yang dibandingkan dengan t tabel, seperti yang telah dibahas pada uji t sebelumnya. Misalnya variabel Yt-1 mempunya inilai t signifikan, berarti terdapat masalah auto korelasi atau pengaruh kesalahan pengganggu mulai satu periode sebelumnya. Jika ini terjadi, maka untuk perbaikan hasil regresi perlu dilakukan regresi ulang dengan merubah posisi data untuk disesuaikan dengan kurun waktu lag tersebut.

B. Uji Normalitas
Tujuan dilakukannya uji normalitas adalah untuk menguji  apakah  variabel  penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya saja pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu. Sangat beralasan kiranya, karena jika asumsi normalitas data telahdipenuhi terlebih dulu, maka dampak yang mungkin akan ditimbulkan dari adanya ketidaknormalan data sepertibias pada nilai t hitung dan nilai F hitung dapat dihindari. Sebaliknya, bila dilakukan analisis regresi terlebih dulu, dimana nilai t dan F baru diketahui, yang kemudian baru dilakukan normalitas data, sedangkan ternyata hasilnya tidak normal maka analisis regresi harus diulang lagi. Pengujian normalitas ini berdampak pada nilai tdan F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y ataue berdistribusi normal. Dalam pengujian normalitas mempunyai dua kemungkinan, yaitu data berdistribusi normal atau tidak normal. Apabila  data telah  berdistribusi normal maka tidak adamasalah karena uji t dan uji F dapat dilakukan (Kuncoro, 2001:110). Apabila data tidak normal, maka diperlukan upaya untuk mengatasi seperti: memotong data yang outliers, memperbesar sampel, atau melakukan transformasi data. Langkah transformasi data sebagai upaya untuk menormalkan sebaran data dapat dilakukan dengan merubah data dengan nilai absolute kedalam bilangan logaritma. Dengan mentransformasi data ke bentuk logaritma akan memperkecil error sehingga kemungkinan timbulnya  masalah   heteroskedastisitas   juga   menjadi sangat kecil (Setiaji,2004:18).


C. Uji Heteroskedastisitas
a.       Pengertian Heteroskedastisitas
Sebagaimana telah ditunjukkan dalam salah satu asumsi yang harus ditaati pada model regresi linier, adalah residual harus homoskedastis, artinya, variance residual  harus  memiliki  variabel yang  konstan, atau dengan kata lain, rentangan e kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan ataur esidual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke  observasi lainnya (Kuncoro,  2001: 112). Padahal rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan memiliki variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik atau mengalami heteroskedastisitas (Setiaji, 2004:17).
b.      Konsekuensi Heteroskedastisitas
Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel-variabel independen (Arsyad,  1994:198). Asumsi regresi linier yang berupa varian ceresidual yang sama, menunjukkan bahwa standar error (Sb) masing-masing observasi tidak mengalami perubahan, sehingga Sb nya tidak bias. Lain halnya, jika asumsi ini tidak terpenuhi, sehingga variance residualnya berubah-ubah sesuai perubahan observasi, maka akan mengakibatkan nilai Sb  yang diperoleh dari hasil regresi akan menjadi bias. Selain itu, adanya kesalahan dalam model yang dapat mengakibatkan nilai b meskipun tetap linier  dan tidak  bias,  tetapi nilai b  bukan nilai yang terbaik. Munculnya masalah heteroskedastisitas yang mengakibatkan  nilai  Sb  menjadi  bias,  akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb. Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji,2004:18). Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan membandingkan sebaran antara nilai prediksi variabel terikat dengan residualnya, yang output pendeteksiannya akan tertera berupa sebaran data pada scatterplot. Dengan menggunakan alat bantu computer teknik ini sering dipilih, karena alasan kemudahan dan kesederhanaan cara pengujian, juga tetap mempertimbangkan valid dan tidaknya hasil pengujian.

D. Uji Multikolinieritas
a.       Pengertian Multikolinieritas
suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak diantara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel  penjelas  hanya mempunyai sedikit  sifat-sifat yang sama. Apabila antara variabel penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berklinear jika antara variabel penjelas tidak mempunyai sama sekali kesamaan.
b.      Konsekuensi Multikolinearitas
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas   akan  menyebabkan   nilai  koefisien regresi  (b)  masing-masing   variabel   bebas  dan  nilai standarerror-nya (Sb) cenderung bias, dalam arti tidak dapat  ditentukan  kepastian  nilainya,  sehingga  akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).
c.       Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji multikolinearitas, diantaranya : menganalisis matrix korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation, melakukan regresi partial dengan teknik auxilary regression, atau dapat pula dilakukan  dengan mengamati  nilai variance  inflation factor (VIF).Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s Rho Correlation dapat dilakukan apabila data dengan skala ordinal (Kuncoro, 2001:114). Sementara untuk data interval atau nominal dapat dilakukan dengan   Pearson Correlation. Selain itu metode ini lebih mudah dan lebih sederhana tetapi tetap memenuhi syarat untuk dilakukan. Dalam kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari masalah   multikolinearitas, dengan   mempertimbangkan sifat data dari crosssection, maka bila tujuan persamaan hanya sekedar  untuk  keperluan  prediksi, hasil regresi dapat ditolerir, sepanjang nilai t signifikan

Soal no. 2
Simpulan :
Dari rangkuman dan penjelasan ini dapat disimpulkan bahwa dalam uji asumsi klasik terdapat 4 (empat ) point yang harus kita tahu yaitu uji autokorelasi, uji normalitas, uji heterokedastisitas danuji multikolinearitas. Dengan adanya rangkuman diatas kita jadi bisa membedakan apa saja uji –uji asumsi klasik dari segi pengertian, mengapa bisa timbul, cara mendeteksi masalah tersebut, dan bagaimana konsekuensi yang didapat dari masalah pada uji –  uji tersebut. Agar kedepannya kita jadi lebih mengerti dalam mengimplementasikan uji –  uji yang ada dalam asumsi klasik.
Soal no. 3
a.       Asumsi klasik ialah syarat-syarat yang harus dipenuhi pada model regresi linier OLS agar modeltersebut menjadi valid sebagai alat penduga.
b.      Asumsi-asumsi yang ditetapkan :
11)Asumsi 1: linear regression model
12) Asumsi 2 : nilai X adalah tetap dalam sampling yang diulang –  ulang
13)Asumsi 3 : variabel pengganggu e memiliki rata –  rata nol
14) Asumsi 4 : homoskedastisitas atau variabel pengganggu e memiliki variance yang samasepanjang observasi dari berbagai nilai X.
 15)Asumsi 5 : tidak ada otokorelasi antara variabel e pada setiap nilai nilai x1 dan j1.
 16)Asumsi 6 : variabel X dan disturbancee tidak berkorelasi.
 17)Asumsi 7 : besar sampel harus lebih besar dari jumlah parameter yang diestimasi.
 18)Asumsi 8 : variabel X harus memiliki variabilitas.
 19)Asumsi 9 : model regresi secara benar telah terspesifikasi.
 20)Asumsi 10 : tidak ada multikolinearitas antara variabel penjelas.
c.       Tidak semua asumsi perlu lakukan pengujian, misalnya uji multikolinearitas tidak dapatdigunakan pada analisis regresi linear sederhana dan uji autokorelasi yang tidak perlu diterapkan pada datacross section. Uji asumsi juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuanuntuk menghitung nilai paa variabel tertentu, misalnya nilai return saham yang dihitung denganmarket model. Perhitungan nilai return yang diharapkan dilakukan dengan persamaan regresi dantidak perlu di uji dengan asumsi klasik.
d.      Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi denganvariabel gangguan pada periode lain.
e.       Autokorelasi timbul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu(time series) ataupun data kerat silang(cross section).Hanya saja masalah autokorelasi lebihsering muncul pada data time series, karena sifat data time series ini sendiri lekat dengankontinyuitas dan adanya sifat ketergantungan antar data.
f.       Cara mendeteksi masalah autokorelasi dengan
1)      Uji Durbin-Watson (DW Test).
2)      Menggunakan metode LaGrange Multiplier (LM).
g.      Konsekuensi dari adanya masalah autokorelasi dalam model ialah sebagai berikut :
1)      Estimator yang dihasilkan tidakBLUE 
2)      Estimasi standar error dan varian koefisien regresi yang didapat akan underestimate.
3)      Pemeriksaan terhadap residualnya akan menemui permasalahan.
h.      Heterokedastisitas merupakan salah satu faktor yang menyebabkan model regresi linear sederhanatidak efisien dan akurat, juga mengakibatkan pengunaan metode kemungkinan maksimum dalammengestimasi parameter regresi akan terganggu.
i.        Heterokedastisitas muncul karena apabila kesalahan atau residual dari model yang diamati tidakmemiliki varians yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001: 112).
j.        Cara mendeteksi masalah heterokedastisitas dapat dilakukan dengan uji grafik, uji Park, UjiGlejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji, 2004: 18)
k.      Konsekuensi adanya heterokedastisitas dalam model berakibat model yang terbentuk kurangmampu menaksir parameter dari populasi sebenarnya. Tapi tenang karena ini semua bisa dihindaridengan transformasi variabel. Contoh jika penelitian kita datanya primer, maka kita dapatmenambah jumlah sampel kita sehingga jadi lebih besar.
l.        Multikolinieritas adalahsuatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak diantara variabel penjelas yang dimasukkan ke dalam model.
m.    Multikolinieritas muncul karena kesalahan teoritis dalam pembentukan model fungsi regresi yangmemasukan variabel bebas yang hampir sama. Dan bisa timbul juga karena terlampau kecilnya jumlah pengamatan yang akan dianalisis dengan model regresi.
n.      Cara mendeteksi masalah multikolinieritas, di antaranya: menganalisis matrix korelasi dengan Pearson Correlationatau denganSpearman’s Rho Correlation, melakukan regresi partial dengantekni auxilary regression, atau dapat pula dilakukan dengan mengamati nilaivariance inflation factor (VIF).
o.      Konsekuensi dari adanya masalah multikolinieritas dalam model apabila belum terbebas darimasalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastiannilainya.
p.       Normalitas adalah penilaian sebaran data pada sebuah kelompok data atau variabel, yang manasebaran data tersebut berdistribusi normal atau tidak.
q.      Normalitas timbul untuk mengetahui apakah data empirik yang didapatkan dari lapangan itu sesuaidengan distribusi teoritik tertentu.
r.        Cara mendeteksi masalah normalitas yaitu dengan melakukan uji –  uji normalitas sepertichi-kuadrat, uji liliefors, denganteknik kolmogorov-smirnov, shapiro wilk  dll.
s.       Konsekuensi dari adanya masalah normalitas dalam model ialah jika error dari model yangdihasilkan dari penelitian tidak mengikuti distribusi normal, maka kurang mampu dijadikaninstrumen analisis lebih lanjut. Varian yang tidak mengikuti distribusi normal berarti ia inkonsistenuntuk setiap amatan.
t.        Cara menangani jika data ternyata tidak normal yaitu dengan dilakukan upaya seperti :
1)      Memotong data yang out liers
2)      Memperbesar sampel

3)      Melakukan transformasi data





Komentar

Postingan populer dari blog ini

Teori Laba & Fungsi Laba

Akuntansi Biaya