pca laporan.docx

Upload: walidahp

Post on 09-Jan-2016

95 views

Category:

Documents


0 download

TRANSCRIPT

BAB IPENDAHULUAN

1.1 Latar BelakangAnalisis regresi adalah salah satu metode statistika yang sering digunakan untuk mengetahui hubungan antara variabel respon dengan variabel penjelas. Dalam kehidupan sehari-hari banyak permasalahan yang dapat dipecahkan dengan analisis regresi, salah satu contohnya adalah tingkat pertumbuhan tanaman kacang yang diduga dipengaruhi oleh pupuk, penyiangan, dan pengairan. Dalam hal ini, tingkat pertumbuhan tanaman kacang sebagai variabel respon, sedangkan pupuk, penyiangan dan pengairan sebagai variabel penjelas.Asumsi yang mendasari analisis regresi adalah tidak terdapat multikolinieritas diantara variabel penjelas. Multikolinieritas terjadi apabila terdapat hubungan atau korelasi diantara beberapa atau seluruh variabel penjelas. Jika terjadi multikolinieritas dianatar variabel penjelas, maka harus dilakukan penanganan. Salah satu cara menangani masalah multikolinieritas adalah dengan menggunakan metode regresi komponen utama.

1.2 TujuanTujuan dari praktikum ini adalah :1. Mahasiswa mampu mendeteksi adanya multikolinieritas.2. Mahasiswa mampu menangani adanya asumsi non multikolinieritas dengan menggunakan metode regresi komponen utama.3. Mahasiswa mampu membuat model persamaan baru setelah dilakukan penanganan multikolinieritas.

BAB IITINJAUAN PUSTAKA

Multikolinieritas adalah suatu kondisi dimana terjadi korelasi antar sesama variabel penjelas yang diikutsertakan dalam pembentukan model regresi.Menurut Montgomery dan Peck, penyebab terjadinya multikolinieritas adalah metode pengumpulan data yang digunakan membatasi nilai dari regressor, kendala model pada populasi yang diamati, spesifikasi model, penentuan jumlah variabel penjelas yang lebih banyak dari jumlah observasi atau overdetermined model, data time series, trend tercakup dalam nilai variabel penjelas yang ditunjukkan oleh penurunan atau peningkatan sejalan dengan waktu. Ada beberapa cara untuk mendeteksi ada tidaknya gejala multikolinieritas yang antara laina. Matriks korelasi (korelasi antar variabel penjelas), yaitu jika korelasi antar variabel melebihi 0,50 diduga terdapat gejala multikolinieritas.b. Faktor inflasi ragam (Variance Inflation Factor / VIF). VIF digunakan sebagai kriteria untuk mendeteksi multikolinieritas pada regresi linier yang melibatkan lebih dari dua variabel bebas. Nilai VIF lebih besar dari 10 mengindikasikan adanya masalah multikolinieritas.(Gujarati,1991)

Ciri-ciri yang sering ditemui apabila model regresi linier mengalami multikolinieritas adalah:1. Terjadi perubahan yang berarti pada koefisien model regresi (misal nilainya menjadi lebih besar atau kecil) apabila dilakukan penambahan atau pengeluaran sebuah peubah prediktor dari model regresi.2. Diperoleh nilai R-square yang besar, sedangkan koefisien regresi tidak signifikan pada uji parsial (uji t).3. Tanda (+ atau -) pada koefisien model regresi berlawanan dengan yang disebutkan dalam teori (atau logika). Misal, pada teori (atau logika) seharusnya b1 bertanda (+), namun yang diperoleh justru bertanda (-).4. Nilai standard error untuk koefisien regresi menjadi lebih besar dari yang sebenarnya (overestimated) (Kutner,2004)Konsekuensi adanya multikolinieritas adalah :a. Walaupun persifat BLUE, estimator OLS yang didapatkan memiliki varians dan kovarians yang besar, sehingga estimasi yang tepat sulit dilakukan.b. Rentang kepercayaan menjadi besar.c. Uji t untuk satu atau beberapa koefisien regresi cenderung untuk tidak signifikan.d. Walaupun banyak koefisien yang tidak signifikan (dalam uji t), akan tetapi nilai koefisien determinan biasanya sangat tinggi.e. Estimasi OLS dan standart errornya menjadi sangat sensitive dengan adanya perubahan kecil pada data.(Kutner,2004)Penanganan Multikolinieritas dengan Regresi Komponen UtamaUsaha untuk mengatasi multikolinearitas kadang-kadang ditempuh dengan membangun analisis regresi bertatar (stepwise regression), di mana berdasarkan prosedur bertatar akan dikeluarkan peubah-peubah yang menyebabkan multikolinearitas sehingga dihasilkan persamaan regresi yang terdiri dari peubah-peubah yang nyata secara statistik. Dengan demikian analisis regresi bertatar hanya mempertimbangkan kriteria statistik dan tidak mempertimbangkan kriteria teoritik dengan masalah yang dihadapi. Pada analisis regresi komponen utama semua peubah bebas masuk kedalam model, tetapi sudah tidak terjadi multikolinieritas karena sudah dihilangkan pada tahap analisis komponen utama (Supranto ,1984).Analisis komponen utama pada dasarnya bertujuan untuk menyederhanakan peubah yang diamati dengan cara menyusutkan (mereduksi) dimensinya. Hal ini dilakukan dengan jalan menghilangkan korelasi di antara peubah melalui transformasi peubah asal kepeubah baru (merupakan kombinasi linear dari peubah-peubah asal) yang tidak saling berkorelasi. Dari p buah peubah asal dapat dibentuk p buah komponen utama, dipilih k buah komponen utama saja (k 10. Hanya variable X1 yang VIF < 10. Hal ini mengindikasikan bahwa data tersebut mengandung multikolinieritas. Untuk itu harus dilakukan perbaikan pada model dengan menggunakan metode regresi komponen utama.Dari hasil ANOVA diatas dapat diketahui bahwa p-value = 0.002 < 0.05, artinya H0 ditolak dan dapat disimpulkan bahwa data tersebut mengandung multikolinieritas.

2. Standarisasi

3. Penentuan komponen utama

Principal Component Analysis: Z1, Z2, Z3, Z4 Eigenanalysis of the Correlation MatrixEigenvalue 2.9630 1.0070 0.0235 0.0065Proportion 0.741 0.252 0.006 0.002Cumulative 0.741 0.992 0.998 1.000Variable PC1 PC2 PC3 PC4Z1 0.055 0.992 0.097 0.061Z2 0.576 0.039 -0.807 0.123Z3 0.579 -0.015 0.297 -0.759Z4 0.574 -0.120 0.501 0.637

Berdasarkan output tersebut dapat diketahui bahwa komponen yang dapat mewakili dari 4 komponen adalah 1 komponen utama sesuai kriteria 75 % dari proporsi kumulatif keragaman dan sesuai kriteria nilai eigen value minimal 1.Dilihat dari nilai proporsi komponen utama, kontribusi proporsi keragaman menjelaskan 99.2% keragaman dari Y. Ini berarti komponen 2 dapat disertakan dalam model, karena nilai keragaman data asal yang dapat dijelaskan oleh komponen utama bernilai besar.4. Persamaan WBerdasarkan nilai PC2 dari komponen utama yang dapat mewakili dari 4 komponen tersebut dapat dibentuk persamaan W sebagai berikut :

5. Regresi antara variabel respon dengan W2

The regression equation isY = 14.9 - 2.25 W2Predictor Coef SE Coef T P VIFConstant 14.858 2.034 7.31 0.000W2 -2.254 2.117 -1.06 0.312 1.000S = 7.04596 R-Sq = 10.2% R-Sq(adj) = 1.2%Analysis of VarianceSource DF SS MS F PRegression 1 56.25 56.25 1.13 0.312Residual Error 10 496.46 49.65Total 11 552.71

Berdasarkan output tersebut dapat diketahui bahwa model regresi yang terbentuk antara Y denganW2 adalah

kemudian persamaan W2 dimasukkan ke model regresi sehingga didapatkan y duga sementara sebagai berikut : )

6. Nilai rata-rata dan ragam (statistika deskriptif)

7. Nilai betaBerikut merupakan hasil dari rumus = - - untuk mencari b0 dan hasil dari rumus untuk mencari b1, b2,b3 dan b4

= = = 4.96960

= = = 0.000003189

= = = 0.00005924

= = = 0.000180785

= Z - - - = 14.9 4.96960 0.000003189 -0.00005924 -0.000180785 = 9.93016

8. InterpretasiBerdasarkan hasil di point 7 dapat diketahui bahwa model tanpa multikolinieritas yang terbentuk dari nilai b0, b1,b2,b3 dan b4 adalah

Dari model tersebut dapat disimpulkan bahwa : Rata-rata Tingkat Inflasi adalah 9.93016 Setiap kenaikan satu unit CRBT maka tingkat inflasi akan naik sebesar 4.96960 (bisa juga dianggap tetap karena peningkatan yang cukup kecil) dengan faktor yang lain dianggap konstan. Setiap kenaikan satu unit JPB maka tingkat inflasi akan naik sebesar 0.000003189dengan faktor yang lain dianggap konstan. Setiap kenaikan satu unit NIB maka tingkat inflasi akan naik sebesar 0.00005924 dengan faktor yang lain dianggap konstan. Setiap kenaikan satu unit NEB maka tingkat inflasi akan naik sebesar 0.000180785 dengan faktor yang lain dianggap konstan.

BAB VPENUTUP

5.1 KesimpulanMultikolinieritas adalah keadaan dimana antar variabel penjelas memiliki hubungan atau korelasi. Hal ini tidak diperbolehkan dalam pengujian, karena asumsi saling bebas antar variabel penjelas tidak terpenuhi. Untuk mengetahui adanya multikolinieritas, digunakan nilai VIF. Jika nilai VIF > 10 maka antar variabel penjelas mengandung multikolinieritas.Jika antar variabel penjelas mengandung multikolinieritas maka harus ditangani dengan menggunakan beberapa metode, salah satunya adalah regresi komponen utama.Dari kasus diatas dapat diketahui bahwa rata-rata tingkat inflasi adalah 9.93016. Setiap kenaikan satu unit CRBT maka tingkat inflasi akan naik sebesar 4.96960 (bisa juga dianggap tetap karena peningkatan yang cukup kecil) dengan faktor yang lain dianggap konstan. Setiap kenaikan satu unit JPB maka tingkat inflasi akan naik sebesar 0.000003189 dengan faktor yang lain dianggap konstan. Setiap kenaikan satu unit NIB maka tingkat inflasi akan naik sebesar 0.00005924 dengan faktor yang lain dianggap konstan. Setiap kenaikan satu unit NEB maka tingkat inflasi akan naik sebesar 0.000180785 dengan faktor yang lain dianggap konstan.

5.2 Saran a. Berhati-hati dan teliti saat mamasukkan variabel penjelas dan variabel respon, jangan sampai rancu.b. Berhati-hati dan teliti saat memasukkan rumus di kalkulator minitab saat mencari nilai b0, b1 dan b2. c. Berhati-hati menginterpretasikan data, mana variabel yang dianggap konstan dan yang tidak dianggap konstan.

DAFTAR PUSTAKAGujarati, D. 1991. Ekonometrika Dasar. Jakarta:Erlangga.Kutner, M.H., C.J. Nachtsheim dan J. Neter. 2004. Applied Linear Regression Models. Fourth Ed. New York: The McGraw-Hill Company, Inc.Sembiring .1995 . Analisis Regresi .Bandung. ITB.Supranto .1984 .Ekonomerika Edisi Kedua .Jakarta: Lembaga Penerbit Fakultas Ekonomi , UI

LAMPIRAN

01/04/2015 13:25:22 PM

Welcome to Minitab, press F1 for help. Regression Analysis: Y versus X1, X2, X3, X4

The regression equation isY = 21.3 - 1.21 X1 + 0.000122 X2 + 0.0136 X3 - 0.00148 X4

Predictor Coef SE Coef T P VIFConstant 21.315 5.560 3.83 0.006X1 -1.2080 0.6208 -1.95 0.093 1.936X2 0.0001223 0.0002449 0.50 0.633 30.092X3 0.01362 0.02169 0.63 0.550 91.816X4 -0.001476 0.007834 -0.19 0.856 72.648

S = 3.02014 R-Sq = 88.4% R-Sq(adj) = 81.8%

Analysis of Variance

Source DF SS MS F PRegression 4 488.86 122.22 13.40 0.002Residual Error 7 63.85 9.12Total 11 552.71

Source DF Seq SSX1 1 30.43X2 1 451.75X3 1 6.35X4 1 0.32

Unusual Observations

Obs X1 Y Fit SE Fit Residual St Resid 1 8.8 17.600 11.900 1.162 5.700 2.04R

R denotes an observation with a large standardized residual.

Principal Component Analysis: Z1, Z2, Z3, Z4

Eigenanalysis of the Correlation Matrix

Eigenvalue 2.9630 1.0070 0.0235 0.0065Proportion 0.741 0.252 0.006 0.002Cumulative 0.741 0.992 0.998 1.000

Variable PC1 PC2 PC3 PC4Z1 0.055 0.992 0.097 0.061Z2 0.576 0.039 -0.807 0.123Z3 0.579 -0.015 0.297 -0.759Z4 0.574 -0.120 0.501 0.637

Principal Component Analysis: Z1, Z2, Z3, Z4

Eigenanalysis of the Correlation Matrix

Eigenvalue 2.9630 1.0070 0.0235 0.0065Proportion 0.741 0.252 0.006 0.002Cumulative 0.741 0.992 0.998 1.000

Variable PC1 PC2 PC3 PC4Z1 0.055 0.992 0.097 0.061Z2 0.576 0.039 -0.807 0.123Z3 0.579 -0.015 0.297 -0.759Z4 0.574 -0.120 0.501 0.637

Regression Analysis: Y versus W2

The regression equation isY = 14.9 - 2.25 W2

Predictor Coef SE Coef T P VIFConstant 14.858 2.034 7.31 0.000W2 -2.254 2.117 -1.06 0.312 1.000

S = 7.04596 R-Sq = 10.2% R-Sq(adj) = 1.2%

Analysis of Variance

Source DF SS MS F PRegression 1 56.25 56.25 1.13 0.312Residual Error 10 496.46 49.65Total 11 552.71

Unusual Observations

Obs W2 Y Fit SE Fit Residual St Resid 12 -1.47 32.80 18.17 3.71 14.63 2.44R

R denotes an observation with a large standardized residual.

Regression Analysis: Y versus W1, W2

Z0Z1Z2Z3Z41-0.23273-0.61463-0.49938-0.503691-0.37972-0.68340-0.64582-0.566271-0.77168-0.72727-0.69480-0.631271-2.14356-0.67899-0.68337-0.5674810.15924-0.41640-0.31266-0.2523610.35522-0.14719-0.37730-0.5608211.090151.058270.540900.5282711.139151.381891.541651.1610310.94317-0.22537-0.14010-0.1889810.69819-0.54885-0.54040-0.5105610.35522-0.66625-0.59809-0.568691-1.212642.268192.409372.66083

W1W2W3W4-0.94530-0.187380.073032-0.031166-1.11376-0.326240.0394720.022799-1.22631-0.70826-0.010151-0.010535-1.23076-2.07498-0.146564-0.055788-0.557080.176390.1322770.035184-0.605800.41922-0.239727-0.0671961.286201.05177-0.3235250.1216922.418271.022610.034180-0.192350-0.267560.951370.1369590.015510-0.883870.740040.0944010.060069-1.037160.403030.1097250.0316534.16313-1.467580.0999190.070128

Mean1Mean2Mean3Mean4Variance1Variance2 Variance3 Variance49.27515127.8283.95657.2254.16568416179605 161765 981554

15