Terdapat asumsi-asumsi yang harus terpenuhi sebelum dilakukan analisis regresi dan asumsi-asumsi tersebut biasanya disebut dengan asumsi klasik regresi. Asumsi tersebut antara lain:
1. Uji Multikolineritas
Uji multikolineritas ini diperlukan untuk mengetahui ada tidaknya variabel independen yang memiliki kemiripan dengan variabel independen lain dalam satu model. Kemiripan antarvariabel independen dalam suatu model akan menyebabkan terjadinya korelasi yang sangat kuat antara suatu variabel independen dengan variabel independen yang lain. Selain itu, deteksi terhadap multikolineritas juga bertujuan untuk menghindari kebiasan dalam proses pengambilan kesimpulan mengenai pengaruh pada uji parsial masing-masing variabel independen terhadap variabel dependen. Model regresi yang baik seharusnya tidak terjadi korelasi di antara variabel independen.
Uji multikolineritas dilakukan dengan menghitung nilai variance influation factor (VIF) dari tiap-tiap variabel independen. Nilai VIF kurang dari 10 menunjukkan bahwa, korelasi antar variabel independen masih bisa ditolerir. Uji multikolinieritas tidak dilakukan pada regresi linier sederhana karena hanya terdiri dari satu variabel penjelas
Contoh :
Untuk mendeteksi ada atau tidaknya multikolinieritas dapat dilihat dari Variance Inflation Factor (VIF). Apabila nilai VIF >10 maka menunjukkan adanya multikolinieritas. Dan apabila sebaliknya VIF < 10 maka tidak terjadi multikolinieritas.
Dari hasil perhitungan yang ada di Tabel 4.13 masing-masing variabel bebas menunjukkan nilai VIF yang tidak lebih dari nilai 10, maka asumsi tidak terjadi multikolinieritas telah terpenuhi.
2. Uji Autokorelasi
Uji autokorelasi bertujuan untuk mengetahui ada tidaknya korelasi antara variabel pengganggu pada periode tertentu dengan variabel pengganggu periode seblumnya. Jika terjadi korelasi, maka dinamakan ada problem autokorelasi. Autokorelasi muncul karena observasi yang berurutan sepanjang waktu berkaitan satu sama lainnya. Masalah ini timbul karena residual (kesalahan pengganggu) tidak bebas dari satu observasi ke observasi lainnya. Hal ini sering ditemukan pada data runtut waktu (time series) karena “gangguan” pada seseorang individu/kelompok cenderung mempengaruhi “gangguan” pada individu/kelompok yang sama pada periode berikutnya. Model regresi yang baik adalah regresi yang bebas dari autokorelasi.
Cara yang digunakan dalam penelitian ini untuk mendeteksi ada atau tidaknya autokorelasi ada dengan uji Durbin-Watson (DW Test). Hipotesis yang melandasi pengujian adalah :
H0 = tidak ada autokorelasi ( r = 0 )
H1 = terdapat autokorelasi ( r ≠ 0 )
Kaidah dari uji Durbin-Watsen d test adalah :
• Jika dU < d < (4-dU), maka H0 diterima, yang berarti tidak terdapat autokorelasi.
• Jika d < dL atau d > (4-dL), maka H0 ditolak, yang berarti terdapat autokorelasi.
• Jika dL < d < dU atau ( 4-dU ) < d < (4 – dL ), maka uji Durbin-Watson tidak menghasilkan kesimpulan yang pasti, sehingga tidak dapat disimpulkan ada tidaknya autokorelasi.
3. Uji Hesteroskesdastisitas
Heteroskedastisitas adalah varian residual yang tidak konstan pada regresi, sehingga akurasi hasil prediksi menjadi meragukan. Uji heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi terjadi ketidaksamaan variance dari residual satu observasi ke observasi yang lain. Uji heterokedastisitas dapat dilakukan antara lain melalui :
a. Scatter Plot
Heteroskesdastisitas menggambarkan nilai hubungan antara nilai yang diprediksi dengan Studentized Delete Residual nilai tersebut. Uji heteroskedastisitas dilakukan dengan menggunakan grafik uji scatter plot antara y yang diprediksi dan Studentized Delete Residual. Model regresi yang baik adalah yang tidak terdapat heterokedastisitas atau memenuhi asumsi homokedastisitas. Dasar menentukan apakah model regresi memenuhi homokedastisitas adalah scatter plot memiliki ciri-ciri sebagai berikut:
• Jika ada pola tertentu, seperti titik-titik yang ada membentuk pola tertentu yang teratur, maka mengindikasikan telah terjadi heterokedastisitas.
• Jika tidak ada pola yang jelas, serta titik-titik menyebar diatas dan dibawah angka 0 pada sumbu y, maka tidak terjadi heterokedastisitas.
b. Uji Glejser
Uji Glejser untuk mendeteksi heterokedastisitas dilakukan dengan cara meregresikan nilai absolute residual atau residual yang dimutlakkan (|e_i |) hasil regresi terhadap variabel independent
(|e_i | )=a+bx_i+v_i
Jika b signifikan maka mengindikasikan terdapat heterokedastisitas dalam model.
Contoh :
Heteroskedastisitas dapat dideteksi dengan melihat grafik plot antara nilai prediksi variabel terikat (dependen) yaitu ZPRED dengan residualnya SRESID. Deteksi ada tidaknya heteroskedastisitas dapat dilakukan dengan melihat ada tidaknya pola tertentu pada grafik scatterplot antara SRESID dan ZPRED dimana sumbu Y adalah Y yang telah terprediksi, dan sumbu X adalah residual (Y prediksi – Y sesungguhnya).
Berdasarkan grafik scatterplot tersebut terlihat bahwa titik-titik menyebar secara acak serta tersebar baik di atas maupun di bawah angka 0 pada sumbu Y. Dengan demikian dapat disimpulkan bahwa tidak terjadi heteroskedastisitas pada model path.
4. Uji Normalitas
Uji Normalitas ini bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau residual memiliki distribusi normal. Menurut metode ini jika suatu variabel memiliki nilai statistik KS signifikan (p>0,05) maka variabel tersebut memiliki distribusi normal. Dalam Uji Normalitas ini ada dua cara untuk mendeteksi apakah residual berdistribusi normal atau tidak yaitu dengan analisis grafik dan uji statistic.
Analisis grafik
Menggunakan normal PP plot dan histogram. Pada normal pp plot jika titik-titik data terletak di sekitar garis diagonal maka dikatakan asumsi normalitas terpenuhi dan pada histogram jika histogram mengikuri sebaran normal tepat di tengah tanpa menceng ke kanan atau kiri maka asummsi normalitas terpenuhi.
Analisis Statistik
Analisis yang digunakan adalah uji 1 sampel kolmogorov smirnov di mana residual dari data dimasukkan untuk diuji apakah memenuhi asumsi normalitas atau tidak. Uji ini paling banyak digunakan pada penelitian karena lebih akurat dan dilakukan secara inferensia bukan hanya deskriptif.
Contoh :
Model regresi dapat dikatakan memenuhi asumsi normalitas jika residual yang disebabkan oleh model regresi berdistribusi normal. Untuk menguji asumsi ini, dapat digunakan metode Kolmogorov-Smirnov.
Berdasarkan pengujian Kolmogorov-Smirnov di atas, didapatkan nilai signifikan sebesar 0,630, dimana nilai tersebut lebih besar daripada α = 0,05. Karena nilai signifikansi lebih besar daripada α = 0,05, maka dapat disimpulkan bahwa asumsi normalitas residual terpenuhi. Jika menggunakan grafik PP-Plot dapat dilihat bahwa titik-titik dari data mendekati garis diagonal sehingga dapat dinyatakan bahwa model tersebut menyebar secara normal.
Dan jika nilai residual dikelompokkan dalam sebuah histogram, maka residual-residual tersebut akan membentuk suatu pola kurva distribusi normal, yakni residual tersebut mengelompok pada bagian tengah dengan titik puncaknya berada pada rata-rata sama dengan 0,000 seperti pada gambar 1 berikut :
Sumber : Modul Pelatihan SPSS Dasar by FNI Statistics
Tidak ada komentar:
Posting Komentar