Sie sind auf Seite 1von 6

3.3.2.

1 Analisis Komponen Utama Analisis Komponen Utama (AKU) atau Principal Component Analysis (PCA) adalah suatu teknik menyusutkan (reduksi) data dimana tujuan utamanya untuk mengurangi banyaknya dimensi variabel yang saling berkorelasi menjadi variabelvariabel baru (disebut Komponen Utama (KU)) yang tidak berkorelasi dengan

mempertahankan sebanyak mungkin keragaman dalam himpunan data tersebut. Artinya dengan dimensi yang lebih kecil diharapkan lebih mudah melakukan penafsiran atau interpretasi tanpa kehilangan banyak informasi tentang data. Banyaknya KU (variabel baru) yang terbentuk diharapkan seminimal mungkin, akan tetapi mampu menerangkan keragaman total yang maksimal. Dalam penelitian ini, Analisis Komponen Utama digunakan untuk

menyederhanakan dimensi peubah-peubah potensi ekonomi dan dimensi peubahpeubah karakteristik rumah tangga miskin, agar lebih mudah dalam melakukan analisis lebih lanjut serta interpretasi terhadap data yang ada. Analisis Komponen Utama (AKU) digunakan untuk mengetahui apakah penelitian ini layak untuk analisis lebih lanjut dalam hal ini Analisis Faktor, dilihat dari nilai Kaiser Meyer Olkin (KMO ) dan uji Bartlett . Secara aljabar linier, komponen utama merupakan kombinasi-kombinasi linier dan p variabel acak X1, X2, X3,X4,., Xp. Secara geometris kombinasi linier ini merupakan sistem koordinat baru yang didapat dari rotasi sistem semula dengan X1, X2, X3,X4,., Xp. sebagai sumbu koordinat. Sumbu baru tersebut merupakan arah dengan variabilitas maksimum dan memberikan kovariasi yang lebih sederhana. Sebagai catatan, dalam Analisis Komponen Utama, asumsi populasi mengikuti distribusi Normal Multivariate tidak diperlukan. Komponen utama yang dibentuk merupakan kombinasi linear dari variabel32

variabel asli, dimana koefisiennya adalah vektor ciri (eigen vector). Vektor ciri dihasilkan dari akar ciri (eigen value) matriks kovarian atau matriks korelasi.

Penggunaan matriks kovarian atau matriks korelasi tergantung dari kesamaan satuan variabel-variabel yang dianalisis. Apabila satuannya sama digunakan matriks kovarian, sedang bila tidak sama digunakan matriks korelasi. Bila komponen utama diturunkan dari populasi normal multivariate dengan random vektor X = ( X1, X2,..., Xp ) dan vektor mean kovarians dengan akar ciri (eigen kombinasi linier komponen utama adalah: Y1 ! e1' X ! e11 X 1  e 21 X 2  ...  e p1 X p
' Y2 ! e 2 X ! e12 X 1  e22 X 2  ...  e p 2 X p

=(

,...,

p)

dan matriks

value)

yaitu

P1 u P 2 u ~u P p u 0 didapat

. Y p ! e 'p X ! e1 p X 1  e2 p X 2  ...  e pp X p Maka: Varian (Yi ) ! ei' ei Kovarian (Yi , Yk ) ! ei' e k i , k = 1, 2, , p Syarat untuk membentuk komponen utama yang merupakan kombinasi linear dari variabel X agar mempunyai varian maksimum adalah dengan memilih vektor ciri (eigen vector) yaitu e ! (e1 , e2 , e p ) ' sedemikian hingga varian (Yi ) ! ei' e k maksimum dan ei' ei ! 1 y
' Komponen utama pertama adalah kombinasi linear e 1 X yang memaksimumkan var

( e1' X )dengan syarat e1' e1 ! 1 y Komponen utama kedua adalah kombinasi linier e'2X yang memaksimumkan var

33

( e'2X ) dengan syarat e'2 e2 = 1 y Komponen utama ke-i adalah kombinasi linier e'iX yang memaksimumkan var ( e'i X ) dengan syarat e'i ei = 1 dan kov (e'i X, e' k X) = 0 untuk k < i. Antar komponen utama tersebut tidak berkorelasi dan mempunyai variasi yang sama dengan akar ciri dari . Akar ciri dari matriks ragam peragam merupakan varian dari komponen utama Y, sehingga matriks ragam peragam dari Y adalah: P1 0 ! . 0 0 P2 . . 0 .... 0 .... . .... P p ....

Total keragaman variabel asal akan sama dengan total keragaman yang diterangkan oleh komponen utama yaitu:

var( X 1 ) ! tr (7) ! P1  P 2  ...  P p ! var(Yi )


j !1 j !1

Penyusutan dimensi dari variabel asal dilakukan dengan mengambil sejumlah kecil komponen yang mampu menerangkan bagian terbesar keragaman data. Jika

diambil sebanyak q komponen, di mana q < p, maka proporsi dari keragaman total yang bisa diterangkan oleh komponen utama ke-i adalah: P1  P 2  ...  P q p atau

x100%

P
j !1

x100%, j ! 1,2,3,....q

Penurunan komponen utama dari matriks korelasi dilakukan apabila data sudah terlebih dahulu ditransformasikan kedalam bentuk baku Z. Transformasi ini dilakukan terhadap

34

data yang satuan pengamatannya tidak sama. Bila variabel yang diamati ukurannya pada skala dengan perbedaan yang sangat lebar atau satuan ukurannya tidak sama, maka variabel tersebut perlu dibakukan (standardized). Variabel baku (Z) didapat dari transformasi terhadap variabel asal dalam matriks berikut: Z =(V1/2)-1 (X - ) V1/2 adalah matriks simpangan baku dengan unsur diagonal utama adalah ( ii)1/2

sedangkan unsur lainnya adalah nol. Nilai harapan E( Z ) = 0 dan keragamannya adalah Cov(Z) = (V1/2 )-1(V1/2)-1 = Dengan demikian komponen utama dari Z dapat ditentukan dari vektor ciri yang didapat melalui matriks korelasi variabel asal . Untuk mencari akar ciri dan

menentukan vektor pembobotnya sama seperti pada matriks . Sementara teras matriks korelasi akan sama dengan jumlah p variabel yang dipakai. Penetapan banyaknya KU untuk dapat ditafsirkan dengan baik dapat dilihat dari: 1. Proporsi Keragaman Kumulatif dari KU Menurut Morrison (1990:319), banyaknya KU yang dipilih sudah cukup memadai apabila KU tersebut mempunyai persentase keragaman kumulatif tidak kurang dari 75% dari total keragaman data. Sedangkan Johnson dan Wichern (2002:429)

mengisyaratkan bahwa KU dengan kondisi persentase keragaman kumulatif sebesar 8090%, dapat menggambarkan data asalnya. Keragaman total KU:

Var (Y ) ! P
i i !1

 P 2  ....  P p =

P
i !1

2.

Nilai dari Akar Ciri Pemilihan komponen utama yang digunakan, didasarkan pada nilai akar cirinya.

35

Menurut Kaiser (dalam Ekaria, 2004:4), pemilihan KU berdasarkan pendekatan akar ciri yang nilainya 1. AKU seringkali disajikan dalam tahap pertengahan dalam penelitian yang lebih besar. KU bisa merupakan masukan pada Analisis Faktor atau Analisis Gerombol. KU terpilih selanjutnya digunakan sebagai pembentuk variabel dalam Analisis Faktor. Langkah selanjutnya adalah melakukan pengujian terhadap matriks korelasi dari data yang menjadi objek pengamatan. Matriks korelasi digunakan untuk melihat keeratan hubungan antara variabel yang satu dengan variabel yang lain. Ada dua macam pengujian yang dapat dilakukan terhadap matriks korelasi, yaitu: o Uji Bartlett Pengujian ini dilakukan untuk melihat apakah matrik korelasinya bukan merupakan suatu matrik identitas, jika matriks korelasinya merupakan matrik identitas, maka tidak ada korelasi antar variabel yang digunakan. Uji ini dipakai bila sebagian besar dari koefisien korelasi kurang dari 0,5. Langkah-langkahnya adalah: 1. Hipotesis Ho : Matriks korelasi merupakan matriks identitas H1 : Matriks korelasi bukan merupakan matriks identitas 2. Statistik uji (2 p  5) G 2 !  ( N  1)  ln R 6 N = Jumlah observasi p = Jumlah variabel R = Determinan dari matriks korelasi 3. Keputusan Uji Bartlett akan menolak H0 jika nilai

36

2 obs

>

2 ,p(p-1)/2

o Uji Kaiser Meyer Olkin ( KMO ) Uji KMO digunakan untuk mengetahui apakah metode penarikan sampel yang digunakan memenuhi syarat atau tidak. Disamping itu, uji KMO dalam Analisis Faktor berguna untuk mengetahui apakah data yang digunakan dapat dianalisis lebih lanjut atau tidak dengan Analisis Faktor. Rumusan uji KMO adalah

r
KMO !
i i{ j

ij ; i ! 1,2,..., p; j ! 1,2,..., p

r
i i{ j

ij  a 2 ij
i i{ j

di mana: rij = Koefisisen korelasi sederhana antara variabel i dan j aij = Koefisien korelasi parsial antara variabel i dan j Adapun penilaian uji KMO dari matrik antar variabel menurut Kaisar dan Rice (1974) menetapkan kriteria pengukuran adalah sebagai berikut: y 0,90< KMO <1,00 : data sangat baik untuk analisis faktor. y 0,80< KMO <0,90 : data baik untuk analisis faktor. y 0,70< KMO <0,80 : data agak baik untuk analisis faktor. y 0,60< KMO <0,70 : data lebih dari cukup untuk analisis faktor. y 0,50< KMO <0,60 : data cukup untuk analisis faktor. y KMO <0,50 : data tidak layak untuk uji lebih lanjut dengan analisis faktor.

37

Das könnte Ihnen auch gefallen