Kecenderungan yang terjadi pada masa kini dalam hal pendugaan suatu parameter populasi, adalah terdapatnya perbedaan antara metode klasik yang mendasarkan kesimpulannya semata-mata pada informasi yang diperoleh dari suatu contoh acak yang ditarik dari populasi tersebut, dan metode Bayes yang menggunakan atau menggabungkan pengetahuan subyektif mengenai sebaran peluang parameter yang tidak diketahui tersebut dengan informasi yang diperoleh dari data contoh. Secara singkat dan jelas dalam kaitannya dengan uji asumsi klasik, menurut Damodar Gujarati (2006) agar model regresi tidak bias atau agar model regresi BLUE (Best Linear Unbiased Estimator) maka perlu dilakukan uji asumsi klasik terlebih dahulu.
Ada beberapa properties yang diperlukan dalam suatu uji asumsi klasik, sebagai berikut :
Uji Multikolinearitas
Uji multikolinearitas bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel bebas (independen). Model regresi yang baik seharusnya tidak terjadi korelasi di antara variabel bebas. Jika variabel bebas (independen) saling berkorelasi, maka variabel-variabel ini tidak ortogonal. Variabel ortogonal adalah variabel bebas yang nilai korelasi antar sesama variabel bebas sama dengan nol. Untuk mendeteksi ada atau tidaknya multikolinearitas di dalam model regresi adalah sebagai berikut :
- Nilai R2 yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi, tetapi secara individual variabel-variabel bebas banyak yang tidak signifikan mempengaruhi variabel terikatnya (dependen).
- Menganalisis matrik korelasi variabel-variabel bebas. Jika antar variabel bebas ada korelasi yang cukup tinggi (umumnya di atas 0.9), maka hal ini merupakan indikasi adanya multikolinearitas. Tidak adanya korelasi yang tinggi antar variabel bebas tidak berarti bebas dari multikolinearitas. Multikolinearitas dapat disebabkan karena adanya efek kombinasi dua atau lebih variabel bebasnya. (independen).
- Multikolinearitas dapat juga dilihat dari nilai tolerance dan lawannya, melihat variance inflation factor (VIF). Kedua ukuran ini menunjukkan setiap variabel bebas manakah yang dijelaskan oleh variabel bebas lainnya. Dalam pengertian sederhana setiap variabel bebas menjadi variabel terikat dan diregres terhadap variabel bebas lainnya. Tolerance mengukur variabilitas variabel bebas yang terpilih yang tidak dijelaskan oleh variabel bebas lainnya. Jadi nilai tolerance yang renda sama dengan nilai VIF tinggi (karena VIF = 1/Tolerance). Nilai cutoff yang umum dipakai untuk menunjukkan adanya multikolinearitas adalah nilai Tolerance lebih kecil sama dengan 0.10 atau sama dengan nilai VIF lebih besar atau sama dengan 10. Setiap peneliti harus menentukan tingkat kolonieritas yang masih dapat ditolerir. Sebagai misal nilai tolerance = 0.10 sama dengan tingkat kolonieritas 0.95. Walaupun multikolinearitas dapat dideteksi dengan nilai tolerance dan VIF, tetapi kita masih tetap tidak mengetahui variabel-variabel bebas mana sajakah yang saling berkorelasi.
Uji Autokorelasi
Uji autokorelasi bertujuan menguji apakah dalam model regresi lienar ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan pengganggu pada periode t-1 (sebelumnya). Jika terjadi korelasi, maka dinamakan ada masalah autokorelasi. Autokorelasi muncul karena observasi yang berurutan sepanjang waktu berkaitan satu sama lainnya. Masalah ini timbul karena residual (kesalahan pengganggu) tidak bebas dari satu observasi ke observasi lainnya. Hal ini sering ditemukan pada data runtu waktu (time series) karena "gangguan" pada seseorang individu/kelompok cenderung mempengaruhi "gangguan" pada individu/kelompok yang sama pada periode berikutnya.
Pada data crossection (silang waktu), masalah autokorelasi relatif jarang terjadi karena "gangguan" pada observasi yang berbeda berasal dari individu/kelompok yang berbeda. Model regresi yang baik ada regresi yang bebas dari autokorelasi. Ada beberapa cara yang dapat digunakan untuk mendeteksi ada atau tidaknya autokorelasi.
- Uji Durbin - Watson (DW Test)
Uji Durbin - Watson hanya digunakan untuk autokorelasi tingkat satu (first order correlation) dan mensyaratkan adanya intercept (konstanta) dalam model regresi dan tidak ada variabel lag di antara variabel bebas. - Uji Lagrange Multiplier (LM Test)
Uji autokorelasi dengan LM test terutama digunakan untuk sampel besar di atas 100 observasi. Uji ini memang lebih tepat digunakan dibandingkan uji DW terutma bila sampe yang digunakan relatif besar dan derajat autokorelasi lebih dari satu. Uji LM akan menghasilkan statistik Breusch-Godfrey. Pengujian Breush-Godfrey (BG test) dilakukan dengan me-regres variabel pengganggu (residual) untuk menggunakan autoregresive model dengan orde p. - Uji Statistik Q : Box-Pierce dan Ljung Box
Uji Box-Pierce dan Ljung Box digunakan untuk melihat autokorelasi dengan lag lebih dari dua (default SPSS sampai 1ag 16). - Uji Run Test
Run test sebagai bagian dari statistik non-parametrik dapat pula digunakan untuk menguji apakah antar residual terdapat korelasi yang tinggi. Jika antar residual tidak terdapat hubungan korelasi maka dikatakan bahwa residual adalah acak atau random. Run test digunakan untuk melihat apakah data residual terjadi secara random atau tidak (sistematis).
Uji Heteroskedastisitas
Uji heteroskedastisitas bertujuan menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain. Jika variance dari residual satu pengamatan ke pengamatan lain tetap, maka disebut Homoskedastisitas dan jika berbeda disebut Heteroskedastisitas. Model regresi yang baik adalah yang Homoskedastisitas atau tidak terjadi Heteroskedastisitas. Kebanyakan data crossection mengandung situasi Heteroskedastisitas karena data ini menghimpun data yang mewakili berbagai ukuran (kecil, sedang dan besar).
Ada beberapa cara untuk mendeteksi ada atau tidaknya heteroskedastisitas.
- Dengan melihat grafik plot antara nilai prediksi variabel terikat yaitu ZPRED dengan residualnya SRESID. Deteksi ada tidaknya heteroskedastisitas dapat dilakukan dengan melihat ada tidaknya pola tertentu pada grafik scatterplot antara SRESID dengan ZPRED dimana sumbu Y adalah Y yang telah diprediksi, dan sumbu X adlah residual (Y prediksi - Y aktual) yang telah di-studentized.
- Uji Park. Park mengemukakan metode bahwa variance merupakan fungsi dari variabel-variabel bebas yang dinyatakan dalam persamaa \sigma _{i}^{2}=\alpha X_{i}\beta
Persamaan ini dijadikan linear dalam bentuk persamaan logaritma sehingga menjadi Ln\sigma _{i}^{2}=\alpha + \beta Ln X_{i} + v_{i}
Karena s_{i}^{2} umumnya tidak diketahui, maka dapat ditaksir dengan menggunakan residual Ut sebagai proksi, sehingga persamaan menjadi Ln U _{i}^{2}=\alpha + \beta Ln X_{i} + v_{i} - Uji Glejser
Seperti halnya Park, Glejser mengusulkan untuk meregres nilai absolut residual terhadap variabel bebas (Gujarati, 2003) dengan persamaan regresi : |U_{t}|=\alpha + \beta X_{t} + v_{t} - Uji White
Pada dasarnya uji White mirip dengan kedua uji lainnya (Park dan Glejser). Menurut White, uji ini dapat dilakukan dengan meregres residual kuadrat U2t dengan variabel bebas, variabel bebas kuadrat dan perkalian (interaksi) variabel bebas. Misalkan kita punya dua variabel bebas X1 dan X2 maka persamaa regresinya : U2t = b0 + b1X1 + b2X2 + b3X12 + b4X22 + b5X1X2.
Dari persamaan regresi ini didapatkan nilai R2 untuk menghitung c2, dimana c2 = n x R2 (Gujarati, 2003). Pengujiannya adalah jika c2 hitung < c2 tabel, maka hipotesis alternatif Ha : adanya heteroskedastisitas dalam model ditolak.
Uji Normalitas
Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal. Seperti diketahui bahwa uji t dan F mengasumsikan bahwa nilai residual mengikuti distribusi normal. Kalau asumsi ini dilanggar maka uji statistik menjadi tidak valid untuk jumlah sampel kecil. Ada dua cara untuk mendeteksi apakah residual berdistribusi normal atau tidak yaitu dengan analisis grafik dan uji statistik.
- Analisis grafik
Salah satu cara termudah untuk melihat normalitas residual adalah dengan melihat grafik histogram yang membandingkan antara data observasi dengan distribusi yang mendekati distribusi normal. Namun demikian hanya dengan melihat histogram hal ini dapat menyesatkan, khususnya untuk jumlah sampel yang kecil. Metode yang lebih handal adala dengan melihat normal probability plot yang membandingkan distribusi kumulatif dari distribusi normal. Distribusi normal akan membentuk satu garis lurus diagonal dan ploting data residual akan dibandingkan dengan garis diagonal. Jika distribusi data residual normal, maka garis yang menggambarkan data sesungguhnya akan mengikut garis diagonalnya. - Analisis statistik
Uji normalitas dengan grafik dapat menyesatkan kalau tidak hati-hati secara visual kelihatan normal, pada hal secara statistik bisa sebaliknya. Oleh sebab itu dianjurkan disamping uji grafik dilengkapi dengan uji statistik. Uji statistik sederhana dapat dilakukan dengan melihat nilai kurtosis dan skewness dari residual. Nilai z statistik untuk skewness dapat dihitung nilai Z skewness dengan sedangkan nilai Z kurtosis.
Z_{Skewness}=\frac{Skweness}{\sqrt{\frac{6}{N}}} dan Z_{Kurtosis}=\frac{Kurtosis}{\sqrt{\frac{24}{N}}}
Dimana N adalah jumlah sampel, jika nilai Z hitung > Z tabel, maka distribusi tidak normal. Misalkan nilai Z hitung > 2.58 menunjukkan penolakan asumsi normalitas pada tingkat signifikansi 0.01 dan pada tingkat signifikansi 0.05 nilai Z tabel = 1.96.
Uji Linearitas
Uji ini digunakan untuk melihat apakah spesifikasi model yang digunakan sudah benar atau tidak. Apakah fungsi yang digunakan dalam suatu studi empiris sebaiknya berbentuk linear, kuadrat atau kubik. Dengan uji linearitas akan diperoleh informasi apakah model empiris sebaiknya linear, kuadrat atau kubik. Ada beberapa uji yang dapat dilakukan, seperti.
- Uji Durbin Watson>
Uji ini biasanya dilakukan untuk melihat ada tidaknya autokorelasi dalam suatu model regresi. Cara melakukan uji apakah sebaiknya model regresi linear atau kuadrat dapat dilakukan dengan cara melakukan regresi dua persamaan linear dan kuadrat, seperti :
1. X = b0 + b1A + b2B + b3C
2. X = b0 + b1A + b2B + b3C + b4A2 + b5B2 + b6C2
3. Kemudian dapatkan nilai DW-nya untuk masing-masing model.
4. Bandingkan nilai statistik DW. Jika signifikan atau berada pada daerah autokorelasi positif, maka spesifikasi model persamaan utama adalah salah, atau model tidak linear. - Uji Ramsey Test
Uj ini dikembankan oleh Ramsey tahun 1969. Ramsey menyarankan bahwa suatu uji yang disebut general test o spesification atau RESET. Untuk melakukan uji ini kita harus membuat suatu asumsi atau keyakinan bahwa fungsi yang benar adalah fungsi linear. Uji ini bertujuan untuk menghasilkan nilai F-hitung. Jika nilai F-hitung > F tabel maka dapat disimpulkan bahwa hipotesis nol Ho ditolak yang berarti model regresi tidak dalam bentuk linear. - Uji Lagrange Multiplier
Uji ini merupakan uji alternatif dari Ramsey test dan dikembangkan oleh Engle tahun 1982. Estimasi dengan uji ini bertujuan untuk mendapatkan nilai c2 hitung atau (n x R2). Jika nilai c2 hitung > c2 tabel, maka hipotesis yang menyatakan model linear ditolak.
Tidak ada komentar:
Posting Komentar