Selasa, 16 Juli 2013

Analisis Faktor

Pengertian dan Tujuan

Analisa faktor  adalah suatu metode untuk menganalisis sejumlah observasi, dipandang dari sisi interkorelasinya untuk mendapatkan apakah variasi-variasi yang nampak dalam observasi itumungkin berdasarkan atas sejumlah kategori dasar yang jumlahnya lebih sedikit dari yang nampak (Fruchter, 1954). Sementara itu Kerlinger (1990) mengungkapkan bahwa faktor adalah  gagasan atau konsep suatu hipotesis yang sungguh-sungguh ada yang mendasari suatu tes, skala, aitem dan pengukuran pengukuran dalam banyak hal. Jadi analisis faktor bermanfaat untuk mengurangi pengukuran-pengukuran dan tes-tes yang beragam supaya menjadi sederhana.

Menurut Kerlinger (1990), maksud dan kegunaan dasar analisa faktor ada dua yaitu;a)mengeksplorasi wilayah-wilayah variabel guna mengetahui dan menunjukkan faktor-faktor yang diduga melandasi variabel-variabel itu, b)menguji  hipotesis tentang relasi-relasi antar variabel.

Secara garis besar ada dua tipe analisa faktor, yaitu:

1)    Confirmatory Factor Analysis

Model yang diasumsikan  untuk menggambarkan, menjelaskan atau menghitung data empirik. Konstruksi dari model ini  berdasar pada informasi yang apriori mengenai sifat dari struktur data atau isi dari teori (Joreskog & Sorbon, 1989 dalam Crowley & Fan, 1997).

2)    Exploratory Factor Analysis

Model yang  diaplikasikan untuk mengeksplorasi data yang ada mengenai jumlah karakteristiknya, sifat-sifat yang menarik dan hubungan-hubungan yang mungkin ada. Exploratory Factor Analysis ini berguna untuk  tujuan menggenerasikan struktur, model-model teoritis dan mengetes hipotesis (Gorsuch, 1983 dalam Crowley & Fan, 1997). Pada penelitian ini yang digunakan adalah analisis faktor eksploratori (exploratory factor analysis). Menurut Panter,dkk (1997) aplikasi dari exploratory factor analysis adalah mengidentifikasi makna, konstrak  atau dimensi yang dievaluasi oleh kovarians yang diobservasi yang meliputi sifat yang diobservasi, respon, tanda dan symton. Model ini secara umum dijelaskan sebagai perilaku yang diobservasi yang dapat digambarkan dalam bentuk konstrak tertentu dengan asumsi hanya pada kasus yang jarang yang dapat menjadi korespondensi secara eksak antara indeks perilaku spesifik yang diobservasi tertentu yang bervariasi  atau operasionalisasi dan konstruks tertentu yang berhubungan.

Model-model dari analisa faktor mempunyai peranan penting didalam memformulasikan model konsep didalam kepribadian dan untuk menguji secara empiris berbagai instrumen yang mengukur kepribadian (Panter,dkk, 1997). Hal ini didukung oleh pendapat Ozer dan Reise, 1994 (dalam Panter,dkk, 1997) bahwa pendekatan analisa faktor didalam asesmen kepribadian mempunyai peran utama didalam mengkontruksi skala dan mengetes teori dalam hal struktur kepribadian dan perkembangannya. Banyak inventori-inventori kepribadian yang telah dikonstruksi dengan menggunakan metode analisa faktor (Aiken, 1997).

Komponen-komponen dalam Analisa Faktor

Ada berbagai pengertian atau komponen yang penting dalam analisa faktor, antara lain, unity  atau total variance, common variance, specific variance dan error variance (Fruchter, 1954 & Mulaik, 1972). Berikut definisi secara ringkas mengenai hal tersebut.

1).Unity atau total variance merupakan suatu ubahan yang terdiri dari tiga variance yaitu; common, specific dan error. Proporsi besarnya unity atau variance total ini adalah 1,00. Gabungan antara common variance dan specific variance  akan merupakan suatu  nilai yang biasanya diindikasikan sebagai koefisien keandalan (reliabilitas)

2).Common variance atau komunalitas merupakan bagian dari  reliable variance  yang berhubungan dengan variabel lain. Komunalitas merupakan jumlah kuadrat dari common variance dan dilambangkan dengan simbol h² (Fruchter, 1954). Menurut Suryabrata (1982) komunalitas menunjukkan proporsi varians variabel tertentu yang diterangkan oleh faktor-faktor. Semakin tinggi h², berarti variabel-variabel tersebut makin mempunyai kesamaan faktor.

3). Specific variance  merupakan bagian dari reliable variance yang tidak berhubungan dengan variabel lain.

4). Error variance merupakan hasil dari kesalahan-kesalahan sampling, pengukuran, kondisi tes yang tidak standar, pengaruh fisiologi atau pengaruh lain dalam diri individu yang membuat tidak reliabel. Variance ini tidak berkorelasi dengan reliable variance.
c. Langkah-langkah dalam Analisa Faktor

         Berbagai langkah yang dilakukan dalam analisa faktor (Fruchter, 1954; Suryabrata, 1982; Santoso, 2003) yaitu:

1). Membuat matriks korelasi antar masing-masing subfaktor . Masing-masing subfaktor tersebut dalam penelitian ini adalah penjumlahan dari 6 aitem sehingga keseluruhan didapatkan 30 subfaktor. Selanjutnya dilakukan pengujian Measure of Sampling Adequacy (KMO) dengan Kaiser Meyer Olkin (KMO)

2). Menentukan faktor  atau ekstraksi faktor dengan menggunakan Principle Component Analysis (PC) karena dapat mengambil  atau menyedot varians sebanyak-banyaknya (Fruchter, 1954).

3). Untuk menghentikan ekstraksi faktor menggunakan tolak ukur  eigen value diatas 1.

4). Melakukan rotasi dari faktor yang telah terbentuk. Tujuan rotasi untuk memudahkan dalam interpretasi. Metode rotasi yang digunakan adalah rotasi orthogonal dengan metode varimax. Pemilihan metode rotasi orthogonal karena strukturnya sederhana dan metode varimax untuk memudahkan interpretasi bagi peneliti mengenai faktor-faktor yang diperoleh.

sumber 

Jumat, 12 Juli 2013

UJI FISHER (FISHER EXACT TEST)

Uji Fisher merupakan suatu tehnik untuk menganalisa data diskrit (nominal atau ordinal) ketika dua sampel independen adalah kecil.  Skor dibuat dalam bentuk frekuensi dalam tabel kontingensi 2 x 2  seperti berikut ini:
f1 

Peluang (probabilita) untuk pemunculan frekuensi-frekuensi pada table 2 x 2 ketika  jumlah marginal fixed adalah dengan distribusi hypergeometric sebagai berikut:

f2 

Untuk mendapatkan p-value ketika H0 benar , kita harus menjumlahkan probabilita dari pemunculan data dengan probabilita dari kemungkinan pemunculan yang lebih ekstrim.
Hipotesis:
H0 : P1 = P2.
H1 : P1 ≠ P2 (untuk uji dua arah) atau
P1 > P2 atau P1 < P2 (untuk uji satu arah)
Gunakan formula hypergeometric untuk mendapatkan nilai probabilita (p-value) (atau anda dapat menggunakan tabel Fisher, lihat pada buku nonparametric statistics karangan Sidney Siegel dan N. John Castellan, Jr.).  Jika  p-value < α  maka keputusannya adalah tolak H0.   jika  N > 15  gunakan uji χ2 (seperti pada uji median)
Contoh: berikut adalah 12 observasi dari dua kelompok data yang dibagi dalam dua kategori yaitu diatas median dan dibawah median.  Ujilah apakah proporsi diatas media populasi I lebih besar dari populasi II?  Gunakan α = 0,05.
f3
f4
Keputusan:      Tolak H0 karena  p-value < α
Kesimpulan:    proporsi diatas median populasi I lebih besar dari populasi II dengan  tingkat keyakinan sebesar 95%.
Untuk uji dua arah
Ho :  P1 = P2
H1 :  P1 ≠ P2
Peluang tersebut diatas ditambah dengan kemungkinan pemunculan ekstrim dari sisi yang lain.
Kemungkinan pemunculan yang lebih ekstrim dari sisi yang lain
f5
f6
Setiap kemungkinan pemunculan yang mempunyai selisih peluang (P1 – P2) lebih besar dari 0,66 maka dikatakan mempunyai peluang pemunculan yang lebih ekstrim.
Untuk uji dua arah
H0 :  P1 = P2
H1 :  P1 ≠ P2
peluang pemunculan yang lebih ekstrim juga berlaku untuk arah yang berlawanan.

Kamis, 11 Juli 2013

UJI LINIERITAS

Uji linearitas bertujuan untuk mengetahui apakah dua variabel mempunyai hubungan yang linear atau tidak secara signifikan. Uji ini biasanya digunakan sebagai prasyarat dalam analisis korelasi atau regresi linear. Pengujian pada SPSS dengan menggunakan Test for Linearity dengan pada taraf signifikansi 0,05. Dua variabel dikatakan mempunyai hubungan yang linear bila signifikansi (Linearity) kurang dari 0,05.
Contoh kasus:
Seorang mahasiswa bernama Joko melakukan penelitian untuk mengetahui hubungan antara kecemasan dengan optimisme pada remaja. Data-data skor total yang di dapat ditabulasikan sebagai berikut:

Tabel. Tabulasi Data  (Data Fiktif)
Subjek
Kecemasan
Optimisme
1
90
124
2
88
137
3
96
120
4
95
128
5
96
124
6
94
133
7
91
138
8
96
126
9
95
132
10
90
140
11
85
143
12
91
124
13
87
131
14
90
119
15
85
135
16
83
141
17
86
137
18
91
134
19
86
138
20
83
141

Langkah-langkah pada program SPSS
Ø  Masuk program SPSS
Ø  Klik variable view pada SPSS data editor
Ø  Pada kolom Name ketik x, untuk kolom Name baris kedua ketik y
Ø  Pada kolom Decimals angka ganti menjadi 0 untuk variabel x dan y
Ø  Untuk kolom Label ketik Kecemasan, untuk kolom Label pada baris kedua ketik Optimisme.
Ø  Kolom lainnya boleh dihiraukan (isian default)
Ø  Buka data view pada SPSS data editor
Ø  Terlihat kolom x dan y, x adalah variabel kecemasan dan y adalah variabel optimisme, ketikkan data sesuai dengan variabelnya.
Ø  Klik Analyze - Compare Means - Means
Ø  Klik variabel Optimisme dan masukkan ke kotak Dependent List, kemudian klik variabel Kecemasan dan masukkan ke Independent List.
Ø  Klik Options, pada Statistics for First Layer klik Test for Linearity, kemudian klik Continue
Ø  Klik OK, maka hasil output yang didapat pada kolom Anova Table adalah sebagai berikut:

Tabel. Hasil Test for Linearity


Dari output di atas dapat diketahui bahwa nilai signifikansi pada Linearity sebesar 0,006. Karena signifikansi kurang dari 0,05 maka dapat disimpulkan bahwa antara variabel kecemasan dan optimisme terdapat hubungan yang linear.

Rabu, 10 Juli 2013

UJI NORMALITAS REGRESI

Uji normalitas pada model regresi digunakan untuk menguji apakah nilai residual yang dihasilkan dari regresi terdistribusi secara normal atau tidak. Model regresi yang baik adalah yang memiliki nilai residual yang terdistribusi secara normal. Beberapa metode uji normalitas yaitu dengan melihat penyebaran data pada sumber diagonal pada grafik Normal P-P Plot of regression standardized residual atau dengan uji One Sample Kolmogorov Smirnov. Berikut pembahasannya:

Contoh kasus:
Akan dilakukan analisis regresi untuk mengatahui pengaruh biaya produksi, distribusi, dan promosi terhadap tingkat penjualan. sebelumnya akan dilakukan uji normalitas pada model regresi untuk mengetahui apakah residual terdistribusi normal atau tidak. Data seperti berikut:

Tahun
Tingkat penjualan
Biaya produksi
Biaya distribusi
Biaya promosi
1996
127300000
37800000
11700000
8700000
1997
122500000
38100000
10900000
8300000
1998
146800000
42900000
11200000
9000000
1999
159200000
45200000
14800000
9600000
2000
171800000
48400000
12300000
9800000
2001
176600000
49200000
16800000
9200000
2002
193500000
48700000
19400000
12000000
2003
189300000
48300000
20500000
12700000
2004
224500000
50300000
19400000
14000000
2005
239100000
55800000
20200000
17300000
2006
257300000
56800000
18600000
18800000
2007
269200000
55900000
21800000
21500000
2008
308200000
59300000
24900000
21700000
2009
358800000
62900000
24300000
25900000
2010
362500000
60500000
22600000
27400000



1)   Metode grafik
Uji normalitas residual dengan metode grafik yaitu dengan melihat penyebaran data pada sumber diagonal pada grafik Normal P-P Plot of regression standardized residual. Sebagai dasar pengambilan keputusannya, jika titik-titik menyebar sekitar garis dan mengikuti garis diagonal maka nilai residual tersebut telah normal.
Langkah-langkah analisis pada SPSS sebagai berikut:
-       Inputkan data pada SPSS 
- Untuk analisis data, klik menu Analyze >> Regression >> Linear       
-       Pada kotak dialog Linear Regression, masukkan variabel Tingkat penjualan ke kotak Dependent, kemudian masukkan variabel Biaya produksi, Biaya distribusi, dan Biaya promosi ke kotak Independent(s).
-          Klik tombol Plots, kemudian terbuka kotak dialog Linear Regression: Plots.
-          Beri tanda centang pada ‘Normal probability plot’, kemudian klik tombol Continue. Akan kembali ke kotak dialog sebelumnya, klik tombol OK. Maka hasil grafik Normal P-P Plot seperti berikut:


Dari gambar grafik di atas dapat diketahui bahwa titik-titik menyebar sekitar garis dan mengikuti garis diagonal maka nilai residual tersebut telah normal.

2)   Metode statistik One Sample Kolmogorov Smirnov
Uji One Sample Kolomogorov Smirnov digunakan untuk mengetahui distribusi data, apakah mengikuti distribusi normal, poisson, uniform, atau exponential. Dalam hal ini untuk mengetahui apakah distribusi residual terdistribusi normal atau tidak. Residual berdistribusi normal jika nilai signifikansi lebih dari 0,05.
Langkah-langkah analisis pada SPSS sebagai berikut:
-       Inputkan data di SPSS 
-       Langkah pertama yaitu mencari nilai residual, caranya klik Analyze >> Regression >> Linear        
-       Pada kotak dialog Linear Regression, masukkan variabel Tingkat penjualan ke kotak Dependent, kemudian masukkan variabel Biaya produksi, Biaya distribusi, dan Biaya promosi ke kotak Independent(s).
- Klik tombol Save, selanjutnya akan terbuka kotak dialog ‘Linear Regression: Save’
-          Pada Residuals, beri tanda centang pada ‘Unstandardized’. Kemudian klik tombol Continue. Akan kembali ke kotak dialog sebelumnya, klik tombol OK. Hiraukan hasil output SPSS, Anda buka input data di halaman Data View, disini akan bertambah satu variabel yaitu residual (RES_1).
 - Langkah selanjutnya melakukan uji normalitas residual, caranya klik Analyze >> Non Parametric tests >> Legacy Dialogs >> 1-Sample K-S.
-       Selanjutnya akan terbuka kotak dialog ‘One Sample Kolmogorov Smirnov Test’ seperti berikut:
-       Masukkan variabel Unstandardized Residual(RES 1) ke kotak Test Variable List. Pada Test Distribution, pastikan terpilih Normal. Jika sudah klik tombol OK. Akan kembali ke kotak dialog sebelumnya. Klik OK, maka hasil output seperti berikut:


    Dari output di atas dapat diketahui bahwa nilai signifikansi (Asymp.Sig 2-tailed) sebesar 0,631. Karena signifikansi lebih dari 0,05 (0,631 > 0,05), maka nilai residual tersebut telah normal.