mengatasi multikolinearitas menggunakan principal … · 2014-04-28 · 4. walaupun metode regresi...

28
MENGATASI MULTIKOLINEARITAS MENGGUNAKAN PRINCIPAL COMPONENT ANALYSIS (PCA) Laporan Praktikum ke-2 Disusun untuk Memenuhi Laporan Praktikum Analisis Regresi Lanjutan Oleh Nama : Faisyal Nim : 125090507111001 Asisten 1 : Windy Antika Antis Watin Asisten 2 : Faikotur Rohima LABORATORIUM STATISTIKA PROGRAM STUDI STATISTIKA JURUSAN MATEMATIKA FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM UNIVERSITAS BRAWIJAYA 2014

Upload: others

Post on 07-Jan-2020

7 views

Category:

Documents


0 download

TRANSCRIPT

MENGATASI MULTIKOLINEARITAS MENGGUNAKAN

PRINCIPAL COMPONENT ANALYSIS (PCA)

Laporan Praktikum ke-2

Disusun untuk Memenuhi Laporan Praktikum

Analisis Regresi Lanjutan

Oleh

Nama : Faisyal

Nim : 125090507111001

Asisten 1 : Windy Antika Antis Watin

Asisten 2 : Faikotur Rohima

LABORATORIUM STATISTIKA

PROGRAM STUDI STATISTIKA

JURUSAN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM

UNIVERSITAS BRAWIJAYA

2014

BAB I

PENDAHULUAN

1.1 Latar Belakang

Analisis regresi adalah metode statistika yang digunakan untuk

mengetahui sejauh mana ketergantungan atau hubungan sebuah variabel

respon (variabel tak bebas) dengan sebuah atau lebih variabel prediktor

(variabel bebas). Bila dalam analisisnya hanya melibatkan satu variabel

prediktor, maka analisis yang digunakan adalah analisis regresi linear

sederhana. Sedangkan bila dalam analisisnya melibatkan dua atau lebih

variabel prediktor, maka analisis yang digunakan adalah analisis regresi

linear berganda.

Dalam kehidupan sehari-hari, banyak sekali permasalahan yang

melibatkan analisis regresi linear berganda. Dalam analisis regresi yang

memuat banyak variabel prediktor, sering timbul masalah karena adanya

hubungan antara dua atau lebih variabel prediktornya. Variabel prediktor

yang berkorelasi disebut kolinearitas ganda (multicollinearity).

(Soemartini, 2008)

Bentuk persamaan yang paling sederhana dari regresi linear

berganda adalah yang mempunyai dua variabel prediktor X dan sebuah

variabel respon seperti pada persamaan berikut:

Y = βo + β1X1i + β2X2

Cara lain yang umum dipergunakan pada penulisan model regresi linear

berganda untuk dua prediktor seperti yang dikembangkan oleh Yule dengan

model persamaan berikut:

Y i = βY.12 + βY1.2Xi1 + βY3.1Xi2 + εi

Indeks (subscrift) dengan angka 1 pada variabel X adalah untuk variabel X1

dan angka 2 untuk variabel X2. Nilai koefisien regresi βY.12 dalam model

tersebut merupakan titik potong dengan sumbu tegak atau intercept, yang

biasanya diartikan sebagai pengaruh ratarata (mean effect) tehadap variabel

respon Y di luar variabel prediktor X yang ada dalam model atau nilai rata-

rata Y jika X1 dan X2 sama dengan nol (= 0). Koefisien regresi βY1.2 adalah

koefisien arah atau estimator regresi Y terhadap X1 dengan X2 dianggap

konstan. Koefisien regresi βY3.1 adalah koefisien arah atau estimator regresi

Y terhadap variabel X2 dengan X1 dianggap konstan. Interprestasi dari

analisis regresi linier berganda ini adalah hampir serupa dengan

interprestasi analisis regresi linier sederhana, artinya variabel prediktor X1

bersama-sama dengan variabel prediktor X2 berpengaruh terhadap variabel

1

respon Y, yang masing-masing variabel Xi bekerja secara linier dan bebas

sesamanya. (Anonim, 2012)

Secara umum persamaan regresi linier dengan k prediktor

dinyatakan dengan : Yi = βo + β1X1i + β2X2i + …+ βkXki + εi

dengan :

Yi = variabel respon atau pengamatan ke i pada variabel yang

dijelaskan y

Xi = prediktor atau pengamatan ke i pada variabel penjelas xk

β1… βk = parameter atau koefisien regresi variabel penjelas xk

εi = variabel gangguan atau error

Ketika terjadi multikolinearitas maka akan mengakibatkan suatu

model regresi menjadi tidak baik dijadikan sebagai penduga karena model

yang digunakan akan berbias. Untuk mendeteksi terjadinya

multikolinearitas maka menggunakan uji VIF (Variance inflation factors).

Selanjutnya model yang terdeteksi adanya multikolinearitas harus

melakukan penanganan supaya modelnya menjadi non multikolinearitas.

Salah satu cara yang digunakan dalam mengatasi non multikolinearitas

adalah menggunakan Principal Component Analysis (PCA).

1.2 Rumusan Masalah

Yang menjadi rumusan masalah dalam laporan ini adalah:

1. Bagaimanakah cara mendeteksi adanya multikolinearitas

menggunakan Variance inflation Factors (VIF) ?

2. Bagaimanakah cara mengatasi multikoliearitas menggunakan

Principal Component Analysis (PCA) ?

1.3 Tujuan

Tujuan dari pembuatan laporan ini yaitu menggunakan Principal

Component Analysis untuk mengatasi masalah multikolinearitas pada yang

terjadi pada model regresi berganda. Sehingga didapatkan model regresi

yang baik untuk digunakan.

2

BAB II

KAJIAN PUSTAKA

2.1 Multikolinearitas

Multikolinearitas muncul ketika variabel-variabel prediktornya saling

berkorelasi. Variabel-variabel prediktor yang berkorelasi membuat kita

sulit mengambil kesimpulan mengenai masing-masing koefisien regresi

dan masing-masing dampaknya terhadap variabel terikat. Pada akhirnya,

hamper mustahil untuk memilih variabel-variabel yang benar-benar tidak

berhubungan. Dengan kata lain, hampir mustahil untuk menciptakan

kelompok kelompok variabel prediktor yang tidak berhubungan hingga

tingkat tertentu.

Alasan untuk menghindari variabel yang berkorelasi adalah

kemungkinan menghasilkan hasil yang salah dalam pengujian hipotesis

untuk masing-masing variabel prediktor. Hal ini disebabkan oleh

ketidakstabilan dalam kesalahan standar estimasi. Beberapa petunjuk yang

mengindikasikan masalah-masalah multikolinearitas adalah:

a. Sebuah variabel prediktor yang diketahui merupakan prediktor

penting ternyata memiliki koefisien regresi yang tidak signifikan.

b. Sebuah koefisien regresi yang seharusnya memiliki nilai positif

ternyata bernilai negatif, atau sebaliknya.

c. Ketika sebuah variabel prediktor ditambahkan atau dihilangkan,

terjadi perubahan yang drastis pada nilai koefisien regresi yang

tersisa.

Pada umumnya pendekatan yang digunakan untuk mengurangi resiko

terjadinya multikolinearitas adalah memilih variabel prediktor secara hati-

hati. Aturan umumnya, jika korelasi antara dua variabel prediktor berada

diantara -0.70 dan 0.70, tampaknya tidak masalah untuk menggunakan

variabel-variabel prediktor tersebut (lind dkk, 2008).

Tetapi ada pengujian yang lebih cermat dalam mendeteksi

multikolinearitas yaitu uji variance inflation factor (VIF).

2.2 Variance Inflation Factors (VIF)

3

Variance Inflation Factors (VIF) merupakan salah satu indikator untuk

mengukur besarnya kolinearitas. VIF menunjukkan peningkatan ragam dari

koefisien regresi yang disebabkan karena adanya ketergantungan linear

peubah prediktor tersebut dengan peubah prediktor yang lain. digunakan

untuk mendeteksi adanya multikolinearitas. Rumus VIF adalah sebagai

berikut:

VIFj = 1

1−R j2 , j = 1,2,….,n

Dimana p = banyaknya peubah prediktor dan Suku Rj2 adalah koefisien

determinasi, dimana variabel prediktor yang dipilih digunakan sebagai

respon dan variabel prediktor lainnya digunakan sebagai variabel prediktor.

Sebuah VIF yang lebih besar dari 10 dianggap tidak memuaskan,

mengindikasikan bahwa variabel prediktor tersebut seharusnya dibuang

(Suci, 2014).

2.3 Principal Component Analysis (PCA)

Montgomery dan Hines (1990) menjelaskan bahwa dampak

multikolinearitas dapat mengakibatkan koefisien regresi yang dihasilkan

oleh analisis regresi berganda menjadi sangat lemah atau tidak dapat

memberikan hasil analisis yang mewakili sifat atau pengaruh dari variabel

prediktor yang bersangkutan. Dalam banyak hal masalah Multikolinearitas

dapat menyebabkan uji T menjadi tidak signifikan padahal jika masing-

masing variabel prediktor diregresikan secara terpisah dengan variabel

respon (simple regression) uji T menunjukkan hasil yang signifikan. Hal

tersebutlah yang sering kali membuat pusing para peneliti karena hasil

analisis yang dilakukan pada regresi berganda dan regresi sederhana

tidaklah sejalan atau bahkan sangat bertentangan.

Akan tetapi, pada prakteknya prosedur penanggulangan yang telah

disebutkan di atas sangat tergantung sekali pada kondisi penelitian,

misalnya prosedur penggunaan informasi apriori sangat tergantung dari ada

atau tidaknya dasar teori (literatur) yang sangat kuat untuk mendukung

hubungan matematis antara variabel prediktor yang saling berkolinear,

prosedur mengeluarkan variabel prediktor yang berkolinear seringkali

membuat banyak peneliti keberatan karena prosedur ini akan mengurangi

obyek penelitian yang diangkat, sedangkan prosedur lainya seperti

menghubungkan data cross sectional dan time series, prosedur first

difference dan penambahan data baru seringkali hanya memberikan efek

4

penanggulangan yang kecil pada masalah multikolinearitas. Oleh karena

itu, kita dapat mengunakan teknik lain yang dapat digunakan untuk

meminimumkan masalah multikolinearitas tanpa harus mengeluarkan

variabel prediktor yang terlibat hubungan kolinear, yaitu dengan metode

Principal Component Analysis (PCA) yang ada dalam analisis faktor.

Prosedur PCA pada dasarnya adalah bertujuan untuk

menyederhanakan variabel yang diamati dengan cara menyusutkan

(mereduksi) dimensinya. Hal ini dilakukan dengan cara menghilangkan

korelasi diantara variabel prediktor melalui transformasi variabel prediktor

asal ke variabel baru yang tidak berkorelasi sama sekali atau yang biasa

disebut dengan principal component. Setelah beberapa komponen hasil

PCA yang bebas multikolinearitas diperoleh, maka komponen-komponen

tersebut menjadi variabel prediktor baru yang akan diregresikan atau

dianalisa pengaruhnya terhadap variabel respon (Y) dengan menggunakan

analisis regresi.

Keuntungan penggunaan Principal Component Analysis (PCA)

dibandingkan metode lain :

1. Dapat menghilangkan korelasi secara bersih (korelasi = 0) sehingga

masalah multikolinearitas dapat benar-benar teratasi secara bersih.

2. Dapat digunakan untuk segala kondisi data / penelitian.

3. Dapat dipergunakan tanpa mengurangi jumlah variabel asal.

4. Walaupun metode Regresi dengan PCA ini memiliki tingkat kesulitan

yang tinggi, akan tetapi kesimpulan yang diberikan lebih akurat

dibandingkan dengan pengunaan metode lain (Soemartini, 2008)

Prinsip utama dari PCA atau biasa juga disebut dengan regresi

komponen utama ialah skor komponen utama yang diregresikan dengan

peubah respon atau dengan kata lain regresi komponen utama merupakan

analisis regredi dari peubah respon terhadap komponen-komponen utama

yang tidak saling berkorelasi.

Dengan demikian apabila W1, W2,….., Wm dinyatakan sebagai

komponen utama yang dilibatkan dalam analisis regresi, serta Y sebagai

peubah respon, maka model regresi komponen utama dapat dirumuskan

sebagai:

Y = α0 + α1W1+ α2W2+……+ αmWm+ ε (2)

Dimana:

5

Wj = Peubah prediktor komponen utama yang merupakan kombinasi

linear dari semua peubah baku Z (j=1,2,…,m),

α0 = konstanta,

αj = koefisien regresi (j=1,2,…,m),

ε = faktor pengganggu,

m = banyaknya komponen utama, m ≤ p.

Setiap komponen utama dalam persamaan (2) memiliki hubungan

dengan semua peubah baku Z yang merupakan kombinasi linear dari semua

peubah baku Z. Hubungan itu dinyatakan sebagai:

W1 = α11Z1+ α21Z2+….+ αp1Zp

W2 = α12Z1+ α22Z2+….+ αp2Zp (3)

………………………………………………

Wm = α1mZ1+ α2mZ2+….+ αpmZp

Dengan memanfaatkan hubungan antara komponen utama W1,

W2,…Wm dengan peubah baku Z1, Z2,…Zp pada persamaan (2), apabila

disubstitusikan ke dalam persamaan (3) dan diselesaikan secara aljabar

maka akan diperoleh persaman regresi dalam bentuk baku Z yaitu:

Y = c0 + c1Z1+ c2Z2+……+ cpZp (4)

Dimana:

c0 = α0,

c1 = α0 a11+ α2 a12+…..+ αm a1m

c2 = α1 a21+ α2 a22+…..+ αm a2m

…………………………………………………………

cp = α1 ap1+ α2 ap2+…..+ αmapm (5)

Persamaan (5) menunjukkan adanya hubungan antara koefisien

regresi dari peubah asli (peubah baku Z) dan koefisien pembobot dari setiap

komponen utama. Pendugaan parameter persamaan struktural yang asli

(koefisien regresi c) dapat dilakukan berdasarkan koefisien regresi

komponen utama (α). Dengan demikian apabila nilai dugaan bagi

parameter model regresi komponen utama (α) telah diketahui maka secara

otomotis nilai dugaan bagi parameter model struktural yang asli (c) dapat

ditentukan (Gaspersz, 1995).

Regresi komponen utama dalam bentuk matrik:

Y = XVVT𝛽 + ε (6)

= Wδ + ε

Penduga parameter regresi komponen utama (δ)

6

𝛅 = (WTW)

-1 W

TY (7)

Dimana:

Y = vektor peubah respon (nx1),

X = matrik peubah prediktor (nx(p+1)),

𝛽 = vektor parameter regresi ((p+1)x1),

ε = vektor galat (nx1),

V = matrik (pxp) yang berisi vektor eigen yang telah dinormalisir dari

matrik korelasi XTX yang bersesuaian dengan nilai eigen λ1, λ2,….,λp.

W = (W1, W2,…..,WP) = ZV = matrik komponen utama dari Z(Zij = (𝑋𝑖𝑗− 𝑋 𝑗 )

𝑉𝑎𝑟 (𝑋𝑗 ) (Suci, 2014)

7

BAB III

METODOLOGI 8

3.1 Mendeteksi Multikolinearitas Menggunakan Software Minitab

Langkah-langkah dalam mendeteksi adanya nilai multikolinearitas

yaitu sebagai berikut:

1. Membuka software Minitab dengan cara mengklik dua kali

shortcut Minitab pada Desktop. Seperti gambar berikut:

2. Selanjutnya akan muncul tampilan awal software Minitab seperti

gambar dibawah ini:

3. Masukan data yang ingin di uji multikolinearitasnya pada

worksheet seperti terlihat pada gambar berikut:

4. Klik stat => Regression => regression, sehingga akan muncul

tampilan pada gambar berikut:

9

5. Masukan Y pada kolom response dan masukan X1, X2, X3 dan X4

pada kolom predictors. Seperti terlihat pada gambar berikut ini:

6. Klik options dan centang Variance Inflations Factors seperti

terlihat pada gambar berikut:

7. Klik Ok, kemudian klik lagi Ok maka akan Muncul Outputnya.

3.2 Mengatasi Multikolinearitas dengan PCA Menggunakan Minitab

Langkah-langkah dalam mengatasi adanya multikolinearitas dapat

dilakukan sebagai berikut:

1. Melakukan standarisasi nilai peubah prediktor.

2. Sediakan tabel pada worksheet untuk Z0, Z1, Z2, Z3 dan Z4. Untuk

nilai Z0 isikan dengan angka 1. Seperti terlihat pada gambar

berikut: 10

3. Klik calc => standardize. Sehingga akan tampil gambar berikut:

4. Pada input column masukan X1, X2, X3, dan X4 dan pada store

results masukan Z1, Z2, Z3 dan Z4. Seperti gambar berikut:

5. Klik ok maka akan muncul data yang sudah distandarisasi seperti

pada gambar berikut:

6. Selanjutnya membentuk mencari regresi komponen utama.

Sediakan kolom W1, W2, W3 dan W4 pada worksheet. Klik stat

=> multivariate => principal components analysis. Sehingga

muncul gambar berikut:

11

7. Pada kolom variables masukan Z1, Z2, Z3, dan Z4 dan Type of

matrix pilih correlation. Seperti gambar berikut:

8. Klik storage, pada kolom scores masukan W1, W2, W3 dan W4.

Seperti gambar berikut:

9. Klik ok => ok. Maka akan muncul tampilan pada worksheet

sebagai berikut:

12

10. Tampilan pada session sebagai berikut:

11. Nilai cumulative dari W1 dan W2 sampai > 75% maka bisa

mewakili data yang lain. Sehingga regresikan W1 dan W2 dengan

Y. langkahnya klik Stat – Regressions – Regression Sehingga

muncul berikut:

Pada response masukan Y dan pada predictors masukan W1 dan

W2. Seperti gambar berikut:

Klik ok dan akan terlihat tampilan regresinya pada session sebagai

berikut:

13

12. Substitusikan nilai W1 dan W2 pada persamaan regresi yang baru.

Sehingga akan dihasilkan persamaan regresi PCA.

13. Mencari mean dan variance. Klik stat => basic statistics => store

descriptive statistics. Sehingga muncul gambar berikut:

Pada kolom variables masukan X1, X2, X3 dan X4. Seperti

gambar berikut:

Klik statistics centang mean dan variance seperti gambar berikut:

Lalu klik ok. Maka pada worksheet maka akan muncul tampilan

berikut:

14

14. Selanjutnya mencari nilai b0, b1, b2 dan b4. Siapin dulu tempat

untuk b0, b1, b2 dan b4 pada worksheet. Klik calc => calculator

maka muncul gambar berikut:

Untuk mencari bo maka pada store result in variable masukan b0

pada expression masukan perhitungan sesuai dengan rumus regresi

ridge yaitu nilai b0 PCA-(b1 PCA*mean1/var1)-(b2

PCA*mean2/var2)-(b3 PCA*mean3/var3)-(b4 PCA*mean4/var4).

Untuk b1 maka pada store result in variable masukan b1 dan pada

expresision perhitungannya b1 PCA/var1.

Untuk b2 maka pada store result in variable masukan b2 dan pada

expresision perhitungannya b2 PCA/var2.

Untuk b3 maka pada store result in variable masukan b3 dan pada

expresision perhitungannya b3 PCA/var3.

Untuk b4 maka pada store result in variable masukan b4 dan pada

expresision perhitungannya b4 PCA/var4.

Sehingga pada worksheet akan muncul nilai b0, b1, b2. b3 dan b4.

15

16

BAB IV

HASIL DAN PEMBAHASAN

4.1 Permasalahan

Diketahui data poros dalam semen yang diakibatkan oleh penambahan

4 jenis aditif X1, X2, X3, X4. Hasil pengamatan sebagai berikut dengan

Y merupakan panas (kalor) semen :

Y X1 X2 X3 X4

78.5 7 26 6 60

74.3 1 29 15 52

104.3 11 56 8 20

87.6 11 31 8 47

95.9 7 52 6 33

109.2 11 55 9 22

102.7 3 71 17 6

72.5 1 31 22 44

93.1 2 54 18 22

115.9 21 47 4 26

83.8 1 40 23 34

113.3 11 66 9 12

109.4 10 68 8 12

4.2 Penyelesaian

a. Pengujian Hipotesis Multikolinearitas

Pengujian hipotesis multikolinearitas berguna untuk mengetahui

apakah data yang diuji mengandung multikolinearitas atau tidak.

Hipotesis

H0 : prediktor saling bebas

H1 : Prediktor tidak saling bebas

Langkah-langkah pengujian sesuai pada metodologi dalam bab 3.

Sehingga didapatkan output Minitab seperti terlihat pada gambar

berikut:

17

Dari output minitab terlihat bahwa nilai VIF untuk semua prediktor

yaitu > 10 sehingga mengakibatkan tolak H0 yang berarti terdapat

multikolinearitas pada variabel-variabel prediktornya. Jadi dapat

disimpulkan bahwa sudah cukup bukti untuk mengatakan bahwa

terdapat hubungan atau korelasi antara keempat zat aditif yang

ditambahkan pada poros semen. Maka dalam hal ini variabel-

variabel prediktor memerlukan penanganan yaitu menggunakan

PCA.

b. Penanganan Data Multikolinearitas dengan PCA

Dalam menggunakan PCA maka data yang kita punya harus

dilakukan standarisasi untuk mengurangi nilai korelasinya dan

menyamakan satuan dari variabel-variabel prediktornya. Untuk

langkah-langkahnya seperti dijelaskan pada metodologi pada bab 3.

Dari langkah-langkah tersebut maka didapatkan model regresi

komponen W1 dan W2 yaitu yaitu:

𝑌 = 95.4 + 9.88W1 - 0.125W2.

Sedangkan model regresi baru setelah dilakukan substitusi ke nilai

W1 dan W2 sebelumnya yaitu:

𝑌 = 95.4 + 4.64338 Z1+ 5.50182Z2 – 3.84347Z3 – 5.34574Z4.

Dimana:

W1 = 0.476Z1 +0.564Z2 -0.394Z3 -0.548Z4

W2 = 0.509Z1 -0.414Z2 -0.605Z3 0.451Z4

Selanjutnya mencari b0,..b4 untuk model regresi yang yang

dikembalikan pada data awal yaitu secara berturut-turut:

18

Sehingga didapatkan nilainya adalah:

Maka didapatkanlah model regresi yang baik untuk peramalan yaitu:

𝑌 = 94.9796 + 0.134192 X1+ 0.022721X2 – 0.0936847X3 –

0.019080X4

19

Sehingga dapat disimpulkan bahwa model yang baru ini baik

digunakan untuk peramalan.

Interpretasi :

Jika zat aditif 1 meningkat 1 unit maka, diharapkan rata-rata

panas semen meningkat sebesar 0.134192 kalor, dengan syarat

variabel lain dianggap tetap atau konstan.

Jika zat aditif 2 meningkat 1 unit maka, diharapkan rata-rata

panas semen meningkat sebesar 0.022721 kalor, dengan syarat

variabel lain dianggap tetap atau konstan.

Jika zat aditif 3 meningkat 1 unit maka, diharapkan rata-rata

panas semen menurun sebesar 0.093684 kalor, dengan syarat

variabel lain dianggap tetap atau konstan.

Jika zat aditif 4 meningkat 1 unit maka, diharapkan rata-rata

panas semen menurun sebesar 0.019080 kalor, dengan syarat

variabel lain dianggap tetap atau konstan.

20

BAB V

PENUTUP

5.1 Kesimpulan

Untuk mendapatkan suatu model regresi yang baik untuk melakukan

peramalan atau pendugaan maka harus dilakukan pengujian asumsi. Salah-

satu asumsi yang harus dipenuhi yaitu asumsi non multikolinearitas. Untuk

mendeteksi multikolinearitas bisa dilakukan melalui pengujian hipotesis

Variance inflation factors (VIF). Jika VIF > 10 maka terdapat

multikolinearitas pada data tersebut. Oleh karena data mengandung

multikolinearitas maka harus dilakukan penanganan. Salah-satu caranya

yaitu menggunakan Principal Component Analysis (PCA).

Keuntungan penggunaan Principal Component Analysis (PCA)

dibandingkan metode lain :

1. Dapat menghilangkan korelasi secara bersih (korelasi = 0) sehingga

masalah multikolinearitas dapat benar-benar teratasi secara bersih.

2. Dapat digunakan untuk segala kondisi data / penelitian.

3. Dapat dipergunakan tanpa mengurangi jumlah variabel asal.

4. Walaupun metode Regresi dengan PCA ini memiliki tingkat kesulitan

yang tinggi, akan tetapi kesimpulan yang diberikan lebih akurat

dibandingkan dengan pengunaan metode lain.

Dari permasalahan dalam tulisan ini didapatkan model regresi baru

yang baik dalam peramalan atau pendugaan yaitu:

𝑌 = 94.9796 + 0.134192 X1+ 0.022721X2 – 0.0936847X3 –

0.019080X4

Dengan interpretasi jika zat aditif 1 meningkat 1 unit maka, diharapkan

rata-rata panas semen meningkat sebesar 0.134192 kalor. Jika zat aditif 2

meningkat 1 unit maka, diharapkan rata-rata panas semen meningkat

sebesar 0.022721 kalor. Jika zat aditif 3 meningkat 1 unit maka, diharapkan

rata-rata panas semen menurun sebesar 0.0936847 kalor. Jika zat aditif 4

meningkat 1 unit maka, diharapkan rata-rata panas semen menurun sebesar

0.019080 kalor. Dengan syarat masing-masing variabel lain konstan atau

tetap.

21

5.2 Saran

Semakin banyaknya metode yang digunakan dalam penanganan

masalah multikolinearitas membuat pekerjaan statistisi menjadi lebih

mudah. Namun, di balik semua itu tersirat juga kebingungan mengenai

perbedaan-perbedaan hasil dari beberapa metode dan pengerjaan dari

metode yang cukup ruwet. Sehingga statistisi bingung memilih metode

mana yang paling baik. Diharapkan dengan kemajuan teknologi yang

cukup cepat memungkinkan adanya cmetode-metode baru yang lebih

praktis dalam penanganan multikolinearitas.

22

DAFTAR PUSTAKA

Douglas A, lind dkk. 2008. Teknik-teknik Statistika dalam Bisnis dan

Ekonomi Menggunakan Kelompok Data Global.

http://books.google.co.id/books?id=3vQBfpNncpsC&pg=PA144&

dq=FAKTOR+VARIANS+INFLASI&hl=en&sa=X&ei=VJ8vU7T

HM8GHrgeJt4FI&redir_esc=y#v=onepage&q&f=false. Diakses 24

maret 2014.

Soemartini. 2008. Penyelesaian Multikolinearitas Melalui Metode Ridge

Regression. http://pustaka.unpad.ac.idwp

contentuploads200905penyelesaian_multikolinearitas.pdf. Diakses

22 maret 2014.

Anonim. 2012. Regresi Linier Berganda Dua Variabel Bebas.

http://www.fp.unud.ac.id/ind/wp-

content/uploads/mk_ps_agribisnis/ekonomitrika/3_.%20%20Analis

is%20Regresi%20%20Linier%20Berganda%20Dua%20Peubah.pd

f. Diakses 2 April 2014.

Soemartini. 2008. Principal Component Analysis (PCA) sebagai Salah Satu

Metode untuk Mengatasi Masalah Multikolinearitas.

http://elmurobbie.files.wordpress.com/2009/06/principal-

component-analysis-pca2.pdf. Diakses 2 april 2014.

Astutik, Suci. 2014. Modul Praktikum Analisis Regresi Lanjutan. Malang:

FMIPA-UB.

23

24

LAMPIRAN-LAMPIRAN

Lampiran 1. Output Uji VIF Pada Minitab

25

Lampiran 2. Tampilan Hasil Uji Multikolinearitas Menggunakan Minitab

26

27