Download - PRAKTIKUM 1.docx

Transcript
Page 1: PRAKTIKUM 1.docx

BAB IPENDAHULUAN

1.1. Latar Belakang Analisis regresi merupakan analisis yang ditujukan untuk

mengetahui hubungan fungsional satu atau beberapa peubah prediktor terhadap peubah respon. Sebelum suatu data di analisis dengan analisis regresi, data tersebut harus memenuhi beberapa asumsi klasik dalam regresi. Salah satu asumsi klasik tersebut adalah asumsi non-multikolinearitas.

Asumsi non-multikolinearitas berlaku pada data yang mana memiliki lebih dari satu peubah prediktor. Asumsi ini mengharuskan bahwa tidak boleh ada hubungan linier antara sesama peubah prediktor. Apabila terdapat hubungan linier antar peubah prediktor yang bersifat sempurna maka akan terjadi multikolinearitas sempurna. Sedangkan apabila terdapat hubungan linier antar peubah prediktor namun tidak sempurna, maka akan terjadi multikolinearitas kurang sempurna.

Masalah multikolinearitas patut diwaspadai dalam analisis regresi karena akan mengakibatkan hasil penaksiran parameter yang tidak dapat dipercaya. Bahkan untuk kasus di mana multikolinearitas bersifat sempurna, penaksiran parameter sama sekali tidak dapat dilakukan. Sedangkan untuk kasus di mana multikolinearitas bersifat kurang sempurna, penaksiran masih dapat digunakan namun memiliki tingkat presisi yang rendah.

Adanya multikolinearitas dapat dideteksi dengan menggunakan koefisien determinasi, korelasi parsial, nilai VIF dan nilai akar ciri. Sedangkan untuk penanganan multikolinearitas dapat dilakukan dengan memanfaatkan informasi apriori dari teori atau penelitian sebelumnya, menggabungkan data cross-sectional dengan data deret waktu, menghilangkan peubah penyebab multikolinearitas, menambahkan data baru dan dengan menggunakan analisis komponen utama dan regresi ridge.

1

Page 2: PRAKTIKUM 1.docx

1.2. Tujuan Untuk mengetahui definisi dan sifat dasar dari

multikolinearitas Untuk mengetahui pendeteksian multikolinearitas Untuk menghasilkan persamaan regresi terbaik melalui

Ridge Regression

2

Page 3: PRAKTIKUM 1.docx

BAB IITINJAUAN PUSTAKA

2.1 Definisi dan Sifat Multikolinearitas

Multikolinearitas merupakan istilah yang mula-mula ditemukan oleh Ragnar Frisch. Arti dari multikolinearitas saat itu adalah adanya hubungan linear yang sempurna di antara peubah prediktor dalam model regresi. Hubungan linier antar peubah prediktor tersebut dapat dijelaskan sebagai berikut: andaikan terdapat k peubah prediktor yaitu X1, X2,…,Xk (di mana X1=1 untuk semua pengamatan atau merupakan unsur intersep), hubungan linier terjadi apabila memenuhi kondisi

(1)

Di mana adalah konstanta yang sedemikian rupa sehingga ada salah satu yang bernilai tidak nol (Gujarati, 1998).

Saat ini istilah multikolinearitas digunakan dalam pengertian yang lebih luas, yaitu tidak hanya pada hubungan linier yang bersifat sempurna tetapi juga pada kondisi di mana peubah X saling berkorelasi tetapi tidak secara sempurna, sehingga persamaan (1) menjadi

(2)

Pada regresi nonlinier, adanya hubungan nonlinier dalam model misal

(3)

Pada model tersebut terlihat jelas adanya hubungan antar peubah Xi, namun hubungan ini tidak menyalahi asumsi non-multikolinearitas karena bentuk hubungan tersebut bersifat nonlinier.

3

Page 4: PRAKTIKUM 1.docx

Dalam melakukan analisis regresi, diperlukan asumsi non-multikolinearitas karena beberapa hal sebagai berikut:

Jika terdapat multikolinearitas sempurna seperti pada persamaan (1) maka koefisien regresi menjadi tak tentu dan kesalahannya tak terhingga.

Jika terdapat multikolinearitas kurang sempurna pada persamaan (2) maka koefisien regresi walaupun masih bisa ditentukan, namun memilihi kesalahan standar yang besar (bila dibandingkan dengan koefisien regresi itu sendiri), akibatnya koefisien tidak dapat ditaksir dengan ketepatan yang tinggi.

2.2 Pendeteksian Multikolinearitas

1. Kolinearitas dapat diduga ketika tinggi (0.7-1.0) dan ketika korelasi derajat nol juga tinggi. Akan tetapi, tidak ada atau sedikit sekali koefisien regresi yang bersifat signifikan secara parsial (Gujarati, 1998).

2. Korelasi derajat nol yang tinggi tidak selamanya menunjukkan kolinearitas tinggi pada kasus tertentu. Misalnya, terdapat model regresi dengan empat peubah prediktor X1, X2,..,X4. X4 merupakan kombinasi linier dari

X2 dan X3 sehingga .

(4)

4

Page 5: PRAKTIKUM 1.docx

Persamaan tersebuh dipenuhi oleh ,

.

Jadi, dapat disimpulkan bahwa korelasi sederhana atau korelasi derajat nol tidak akan salah memberikan informais mengenai multikolinearitas kecuali jika terdapat lebih dari dua peubah prediktor (Gujarati, 1998).

3. Berkaitan dengan poin ke-2, maka selain melihat korelasi derajat nol (korelasi sederhana) maka disarankan untuk melihat korelasi parsial. Misal dalam regresi tersebut

didapatkan sangat tinggi tetapi , dan relative rendah, maka hal ini menunjukkan bahwa peubah X2, X3 dan X4 berkorelasi tinggi dan setidaknya terdapat satu peubah yang ‘berlebihan’ (Gujarati, 1998).

4. Karena multikolinearitas timbul karena adanya satu atau lebih peubah prediktor yang merupakan kombinasi linier dari peubah lainnya, maka salah satu cara untuk mengetahui peubah mana yang saling berhubungan maka dilakukan regresi dari setiap Xi terhadap Xi* yang tersisa, lalu dihitung

(5)

mengikuti distribusi F dengan db (k-2, N+k-1)

di mana :

N= jumlah sampel

k= banyaknya peubah prediktor dan unsur intersep

=nilai koefisien determinasi peubah Xi terhadap peubah lain yang tersisa

5

Page 6: PRAKTIKUM 1.docx

Apabila nilai F lebih besar dari titik kritis pada taraf nyata yang ditentukan, maka Xi tersebut kolinear dengan X lainnya. sebaliknya, bila nilai F lebih kecil drai titik kritis maka Xi tersebut tidak kolinear dengan X lainnya (Gujarati, 1998).

5. Mulitikolinearitas dapat diperiksa dengan melihat nilai Variance Inflation Factors (VIF). Nilai VIF ini diperoleh dari diagonal utama hasil perhitungan matriks (XtX)-1. Apabila salah satu dari nilai VIF lebih dari 10, maka dapat diidentifikasikan bahwa peubah Xi berhubungan erat dengan peubah-peubah X lainnya atau dengan kata lain terdapat masalah multikolinearitas (Myers,1990 dalam Gusriani, 2004). Nilai Variance Inflation Factors ( faktor inflasi ragam) dapat juga dihitung berdasarkan rumus :

(6)

Dengan adalah koefisien determinan yang diperoleh jika peubah Xi diregresikan dengan p-1 peubah prediktor lainnya. VIF memperlihatkan kenaikan ragam dugaan parameter yang dipengaruhi oleh keberadaan multikolinearitas (Sen dan Srivastava 1990, dalam Gusriani 2004).

6. Akar ciri XtX yaitu dapat digunakan untuk mengukur keberadaan multikolinearitas dalam data. Jika ada satu atau lebih ketergantungan linier dalam data, maka akar cirinya aka nada yang bernilai sangat kecil dan menunjukkan adanya ketergantungan linier di antara kolom X. Beberapa peneliti menentukan kondisi XtX dengan menentukan indeks kondisi

(7)

6

Page 7: PRAKTIKUM 1.docx

Nilai ≥30 menunjukkan adanya masalah multikolinearitas pada XtX (Gusriani, 2004).

2.3 Penanganan Multikolinearitas dengan Analisis Komponen Utama

Montgomery dan Hines (1990) dalam Soemartini (2008) menjelaskan bahwa dampak multikolinearitas dapat mengakibatkan koefisien regresi yang dihasilkan oleh analisis regresi berganda menjadi sangat lemah atau tidak dapat memberikan hasil analisis yang mewakili sifat atau pengaruh dari peubah bebas yang bersangkutan. Dalam banyak hal masalah Multikolinearitas dapat menyebabkan uji T menjadi tidak signifikan padahal jika masing-masing peubah prediktor diregresikan secara terpisah dengan peubah tak bebas (simple regression) uji T menunjukkan hasil yang signifikan. Hal tersebutlah yang sering kali membuat pusing para peneliti karena hasil analisis yang dilakukan pada regresi berganda dan regresi sederhana tidaklah sejalan atau bahkan sangat bertentangan.

Akan tetapi, pada prakteknya prosedur penanggulangan yang telah disebutkan sebelumnya sangat tergantung sekali pada kondisi penelitian, misalnya prosedur penggunaan informasi apriori sangat tergantung dari ada atau tidaknya dasar teori (literatur) yang sangat kuat untuk mendukung hubungan matematis antara peubah prediktor yang saling berkolinear, prosedur mengeluarkan peubah bebas yang berkolinear seringkali membuat banyak peneliti keberatan karena prosedur ini akan mengurangi obyek penelitian yang diangkat, sedangkan prosedur lainya seperti menghubungkan data cross sectional dan time series, prosedur first difference dan penambahan data baru seringkali hanya memberikan efek penanggulangan yang kecil pada masalah multikolinearitas. Oleh karena itu, kita dapat mengunakan teknik lain yang dapat digunakan untuk meminimumkan masalah multikolinearitas tanpa harus mengeluarkan peubah bebas yang terlibat hubungan kolinear, yaitu dengan metode Principal Component

7

Page 8: PRAKTIKUM 1.docx

Analysis (PCA) yang ada dalam analisis faktor (Soemartini, 2008).

Prosedur PCA pada dasarnya adalah bertujuan untuk menyederhanakan peubah yang diamati dengan cara menyusutkan (mereduksi) dimensinya. Hal ini dilakukan dengan cara menghilangkan korelasi diantara peubah bebas melalui transformasi peubah prediktor asal ke peubah baru yang tidak berkorelasi sama sekali atau yang biasa disebut dengan principal component. Setelah beberapa komponen hasil PCA yang bebas multikolinearitas diperoleh, maka komponen-komponen tersebut menjadi peubah bebas baru yang akan diregresikan atau dianalisa pengaruhnya terhadap peubah respon (Y) dengan menggunakan analisis regresi (Soemartini, 2008).

Tahap pertama pada prosedur regresi komponen utama yaitu menghitung komponen utama yang merupakan kombinasi linear dari beberapa peubah X, dan tahap kedua adalah peubah tak-bebas diregresikan pada komponen utama dalam sebuah model regresi linear. Bentuk persamaan regresi dalam bentuk peubah asli X dapat ditulis sebagai :

(8)

dengan: Y = peubah responXi = peubah prediktor ke-i yang dispesifikasikan sejak awal, i = 1, 2, …, k.β0 = konstantaβi = koefisien regresi dari peubah prediktor ke-i, i = 1, 2, …, k.Peubah baru (W) sebagai komponen utama adalah hasil transformasi dari peubah asal (X) yang modelnya dalam bentuk matriks adalah W = A X, dan komponen ke-j ditulis

, atau

(9)

8

Page 9: PRAKTIKUM 1.docx

dimana vektor pembobot aj’ diperoleh dengan memaksimumkan keragaman komponen utama ke-j, yaitu

(10)

dengan kendala , untuk .Vektor pembobot aj’ diperoleh dari matriks peragam Σ yang diduga dengan matriks S, yaitu :

(11)Misalkan diberikan notasi K1, K2, …, Km sebagai banyaknya komponen utama dan Y sebagai peubah tak-bebas, maka model regresi komponen utama dapat ditulis sebagai

(12)dengan: Y = peubah responKj = peubah prediktor komponen utama yang merupakan kombinasi linear dari semua peubah baku Z (j = 1, 2, …, m).w0 = konstanta.wj = parameter model regresi atau koefisien regresi, (j = 1, 2, …, m).ε = galat.(Prasetyo, 2010)

9

Page 10: PRAKTIKUM 1.docx

10

Page 11: PRAKTIKUM 1.docx

BAB IIIMETODOLOGI

3.1 Pengujian Data1. Buka software Minitab yang ada di komputer anda

2. Isi data di dalam software minitab sesuai data yang ingin anda ujikan

3. Setelah isi data, regresikan data tersebut dengan mengklik Stat => Regression => Regression...

11

Page 12: PRAKTIKUM 1.docx

4. Isi kolom Response dengan variabel respon (Y) Isi kolom Predictors dengan variabel prediktor (X)

5. Jika ingin menampilkan nilai variance inflation factors, klik Options... => centang Variance Inflation Factor

6. Maka, inilah hasil output dari pengregresian data di atas. Nilai VIF > 10 menunjukkan data tersebut mengalami multikolinieritas

12

Page 13: PRAKTIKUM 1.docx

3.2 Standardisasi 1. Setelah itu kita beri variabel Z untuk distandarisasi

2. Berikut langkah untuk melakukan standarisasi dataKlik Calc => Standardize...

3. Isi kolom Input column[s]: variabel yang akan distandardisasikan.Isi kolom Score results in: variabel hasil standardisasi (Z)

13

Page 14: PRAKTIKUM 1.docx

4. Inilah hasil data yang sudah distandarisasikan, kemudian Z0 diganti dgn 1

3.3 Mencari Nilai kMencari nilai k menggunakan Excel :

1. Agar memudahkan, copy data dari minitab ke Excel.

14

Page 15: PRAKTIKUM 1.docx

2. Masukan koefisien β hasil minitab pada Excel

3. Lalu Transpose β, klik kanan Paste Special

15

Page 16: PRAKTIKUM 1.docx

4. Pilih Transpose Ok

5. Mengalikan β ' dengan β.

Dalam excel, perkalian matriks menggunakan rumus =MMULT(array1,array2).

=MMULT(Q11:W11;R2:R8) artinya Q11:W11 adalah

Range β 'dan R2:R8 adalah Range β.

6. Menghitung nilai k

6 adalah banyaknya variabel predictor dan 1290 adalah nilai

KTG dan Q13 adalah cell perkalian (β 'x β )

3.4 PendugaanRegresi Ridge

1. Membuat Matrix Identitas2. Mengalikan nilai k dengan Matrikx Identitas.

16

Page 17: PRAKTIKUM 1.docx

3. Dalam perkalian matrix di excel terlebih dahulu blok cell sesuai ordo hasil perkalian. Dalam kasus ini ordo perkalian nilai k dengan Matrikx Identitas adalah 7x7 maka blok cell 7x7.

Q15 adalah nilai k dan Q17:W23 adalah range matriks identitas. 4. Transpose z0-z6 dengan langkah seperti mentraspose β.

5. Mengalikan z ' dengan z (dengan langkah seperti Mengalikan β '

dengan β.

6. Menghitung (z ' x z+K∗I ¿¿−1

7. Mengalikan Z ' Y dengan langkah seperti mengalikan β ' dengan

β.8. Menghitung pendugaan regresi ridge

β̂R=( Z' Z+KI )−1Z ' Y

9. Menghitung Rata-rata Setiap Variabel

17

Page 18: PRAKTIKUM 1.docx

10. Menghitung Standart Deviasi

11. Menghitungβ0

12. Menghitungβ1

18

Page 19: PRAKTIKUM 1.docx

BAB IVHASIL DAN PEMBAHASAN

4.1 PermasalahanData pengaruh tebu yang digiling,rendemen,pol tebu, ME,

BHR, dan Total Losses terhadap jumlah produksi gula SHS.

Y X1 X2 X3 X4 X5 X6360,0

05845,0

0 7,35 9,5091,9

484,1

52,1

5456,0

06162,7

0 7,3810,0

193,2

779,0

52,6

3330,0

04182,5

0 7,4010,1

093,3

778,4

32,7

0370,0

05664,6

0 7,4010,0

793,0

978,9

42,6

7435,0

05160,4

0 7,4010,0

792,8

279,1

92,6

7450,0

05385,7

0 7,4510,1

593,4

378,5

62,7

0461,3

85869,4

0 7,4710,1

593,5

078,7

12,6

8510,7

05670,7

0 7,5110,2

193,0

379,0

52,7

0503,0

05952,2

0 7,5510,2

193,4

679,1

62,6

6501,0

05902,4

0 7,5810,2

593,4

179,1

72,6

7513,0

06528,3

0 7,5810,2

593,6

878,9

42,6

7466,6

46752,1

0 7,6010,3

093,9

078,5

82,7

0

19

Page 20: PRAKTIKUM 1.docx

490,36

6235,70 7,60

10,30

93,83

78,63

2,70

513,72

6411,30 7,65

10,31

94,06

78,87

2,66

456,37

5725,70 7,63

10,30

93,47

79,25

2,67

510,15

6598,60 7,65

10,30

94,04

79,00

2,65

533,50

6642,90 7,66

10,32

93,49

79,40

2,66

501,41

6478,30 7,70

10,32

93,59

79,72

2,62

497,33

6569,30 7,68

10,30

94,03

79,30

2,62

511,88

6541,40 7,69

10,32

93,72

79,51

2,63

505,40

6426,30 7,71

10,32

93,70

79,79

2,60

504,32

6327,20 7,72

10,32

93,67

79,86

2,60

405,79

5072,10 7,74

10,33

92,88

80,67

2,59

525,00

6794,00 7,68

10,29

93,38

79,93

2,61

492,50

6557,80 7,68

10,29

93,49

79,81

2,61

413,00

6668,70 7,69

10,29

93,51

79,96

2,60

540,80

6600,00 7,75

10,30

93,64

80,39

2,55

540,65

6778,50 7,76

10,30

93,70

80,41

2,54

485,00

6454,00 7,68

10,26

93,72

79,87

2,58

485,52

6204,50 7,72

10,27

93,82

80,16

2,55

511,7 6452,4 7,72 10,2 93,5 80,3 2,5

20

Page 21: PRAKTIKUM 1.docx

5 0 7 7 0 5539,6

06715,1

0 7,8010,2

894,2

880,4

82,4

8512,8

56451,3

0 7,8510,2

993,7

081,4

22,4

4555,0

07004,7

0 7,9010,3

193,6

581,8

22,4

1501,0

05145,7

0 7,9010,3

394,0

481,3

22,4

3394,0

05934,7

0 7,8010,3

093,8

080,7

32,5

0530,0

06779,7

0 7,8210,3

093,6

681,0

72,4

8572,0

07007,7

0 8,0010,3

394,0

182,4

12,3

3

Y = Jumlah Produksi Gula SHSX1 = Tebu GilingX2 = RendemenX3 = Pol TebuX4 = MEX5 = BHRX6 = Hilang Total

4.2 Pengujian Multikolinieritas

21

Page 22: PRAKTIKUM 1.docx

Pengujian asumsi multikolinieritas dilakukan dengan mencari nilai VIF dari data tersebut. Hipotesis :H0 : Prediktor saling bebasH1 : Prediktor tidak saling bebas

Predictor Coef SE Coef T P VIFConstant 21301 33324 0,64 0,527X1 0,05087 0,01301 3,91 0,000 1,8X2 630 3736 0,17 0,867 9589,4X3 -137 3664 -0,04 0,970 8410,7X4 -116,9 180,0 -0,65 0,521 163,0X5 -141,0 202,6 -0,70 0,492 1680,1X6 -907 3911 -0,23 0,818 5996,3

Berdasarkan hasil output di atas tampak bahwa nilai VIF > 10 untuk predictor X2, X3, X4 , X5, dan X6 sehingga dapat di simpulkan bahwa sudah cukup bukti untuk mengatakan bahwa prediktor tidak saling bebas. Hal ini mengindikasikan bahwa terdapat multikolinieritas pada data. Maka untuk menangani masalah multikolinieritas tersebut adalah dengan menggunakan Regresi Ridge.

4.3 Penanganan Multikolinieritas Langkah pertama adalah mentransformasi data menjadi bentuk baku dengan menggunakan rumus :

Zij=X ij−X j

S ij

di mana sij=∑ij

n

¿¿¿¿

Pembakuan prediktor bertujuan untuk mengurangi korelasi antar prediktor serta membuat prediktor memiliki satuan yang sama. Berikut ini adalah data variabel prediktor yang telah dibakukan :

22

Page 23: PRAKTIKUM 1.docx

4.3 Pendugaan Ridge β̂R (k )Dengan adanya nilai k, maka ragam akan bertambah kecil dan

koefisien regresi akan semakin stabil.

K= p× KTGβ ' β

p : Banyaknya prediktor pada data.

Analysis of Variance

Source DF SS MS F PRegression 6 73732 12289 9,52 0,000Residual Error 31 39997 1290Total 37 113729

Dari tabel tersebut didapat KTG sebesar 1290. Koefisien Beta

The regression equation isY = 21301 + 0,0509 X1 + 630 X2 - 137 X3 - 117 X4 - 141 X5 - 907 X6

Predictor Coef SE Coef T P VIFConstant 21301 33324 0,64 0,527X1 0,05087 0,01301 3,91 0,000 1,8

X2 630 3736 0,17 0,867 9589,4X3 -137 3664 -0,04 0,970 8410,7

23

Page 24: PRAKTIKUM 1.docx

X4 -116,9 180,0 -0,65 0,521 163,0X5 -141,0 202,6 -0,70 0,492 1680,1X6 -907 3911 -0,23 0,818 5996,3

S = 35,9196 R-Sq = 64,8% R-Sq(adj) = 58,0%

Didapat koefisien b0= 21301 , b1=0.05087 , b2=630 , b3=-137 , b4=-116.9 , b5=-141.0 , b6=-907 Beta Transpose

Perkalian β ' β

MenghitungNilai K.

K= p × KTGβ ' β

= 5 × 49628447419570260.9294

=0.591420

= (6x1290)/455004465,6=1,70108E-05

Perkalian K dengan Matrix Identitas

Perkalian z’z

24

Page 25: PRAKTIKUM 1.docx

( Z ' Z+KI )−1

Perkalian Z ' Y

β̂R=( Z' Z+KI )−1Z ' Y

4.4 Pendugaan Ridge Kembali ke Peubah AsliMengembalikan persamaan regresi ridge kepersamaan atau peubah aslinya.Untuk mengembalikan persamaan regresi dari koefisien regresi ridge ke peubah aslinya adalah sebagai berikut :

25

Page 26: PRAKTIKUM 1.docx

β̂ i=β̂i , R

S jj

,i=1,2, …, p

β̂0= β̂0 , R−β̂1 , R X1

S1

−β̂2 , R X2

S2

−…−β̂ p , R X p

Sp

Sehingga, masing-masingkoefisienadalahsebagaiberikut :

β̂1=β̂1 , R

S jj

=¿ 9,0857E-09

β̂2=β̂2 , R

S jj

=¿ 3,6488E-07

β̂3=β̂3 ,R

S jj

=¿ -1,417E-07

β̂4=β̂4 , R

S jj

=¿ -2,089E-07

β̂5=β̂5 ,R

S jj

=¿ 0,0009254

β̂6=β̂6 , R

S jj

=-4,288E-07

β̂0= β̂0 , R−β̂1 , R X1

S1

−β̂2 , R X2

S2

−β̂3 , R X3

S3

−β̂4 , R X4

S4

= 0,1205812

SHS = 0,1205812+9,0857E-09TebuGiling+3,6488E-07Rendemen-1,417E-07PolTebu-2,089E-07ME+0,0009254BHR-4,288E-07TotalHilang

26

Page 27: PRAKTIKUM 1.docx

Setelah melakukan pendugaan parameter menggunakan regresi ridge dengan tujuan untuk menangani asumsi multikolinieritas dapat dilihat bahwa tanda positif dan negatif juga mengalami perubahan begitu pula dengan koefisien. Perubahan paling menonjol pada tebu giling yang semakin kecil begitu juga dengan halnya Rendemen,Pol Tebu, ME,BHR,dan Total Hilang yang semakin membesar.

Interpretasi:

1. Setiap kenaikan 1 unit Tebu Giling akan menaikkan jumlah produksi gula SHS sebesar 9,0857E-09 dengan menganggap variabel lain konstan.

2. Setiap kenaikan 1 unit Rendemen akan menaikkan jumlah produksi gula SHS sebesar 3,6488E-07 dengan menganggap variabel lain konstan.

3. Setiap kenaikan 1 unit Pol Tebu akan menurunkan jumlah produksi gula SHS sebesar 1,417E-07 dengan menganggap variabel lain konstan.

4. Setiap kenaikan 1 unit ME akan menurunkan jumlah produksi gula SHS sebesar 2,089E-07 dengan menganggap variabel lain konstan.

5. Setiap kenaikan 1 unit BHR akan menaikkan jumlah produksi gula SHS sebesar 0,0009254 dengan menganggap variabel lain konstan.

6. Setiap kenaikan 1 unit Total Hilang akan menurunkan jumlah produksi gula SHS sebesar 4,288E-07 dengan menganggap variabel lain konstan.

7. Jumlah gula SHS yang diproduksi sebesar 0,1205812 apabila tidak ada variabel yang mempengaruhi.

27

Page 28: PRAKTIKUM 1.docx

BAB VPENUTUP

5.1 Kesimpulan Faktor-faktor yang mempengaruhi jumlah gula SHS yang diproduksi adalah Tebu yang digiling,rendemen,pol tebu,ME,BHR,dan Total Hilang.Metode statistika yang bisa menjelaskan hubungan jumlah gula SHS yang diproduksi dengan faktor-faktor yang berpengaruhadalah analisis berganda, dengan model yang dihasilkan adalah SHS = 0,1205812+9,0857E-09TebuGiling+3,6488E-07Rendemen-1,417E-07PolTebu-2,089E-07ME+0,0009254BHR-4,288E-07TotalHilangModel tersebut berarti bahwa setiap penambahan 1000 ton tebu yang digiling maka akan menambah produksi gula sebesar 9,0857E-06 ton atau setara dengan 9,0857 kg dengan menganggap variabel lain konstan. Setiap kenaikan 1% rendemen akan menaikkan jumlah produksi gula sebesar 3,6488E-04 ton dengan mengganggap variabel yang lain konstan. Setiap kenaikan 1% pol tebu akan menurunkan jumlah produksi sebesar 1,417E-04 ton dengan menganggap variabel lain konstan. Setiap kenaikan 1% ME akan menurunkan jumlah produksi gula sebesar 2,0857E-03 ton dengan menganggap variabel lain konstan. Setiap kenaikan 1% BHR akan menaikkan jumlah produksi gula sebesar 0,9254 ton dengan menganggap variabel lain konstan. Setiap kenaikan 1% Total hilang akan

28

Page 29: PRAKTIKUM 1.docx

menurunkan jumlah produksi gula sebesar 4,288E-04 ton dengan menganggap variabel lain konstan.

5.2 SaranTeliti dalam menetukan faktor mana yang akan di regresikan dan menentukan variabel respon atau prediktor. Juga kita harus mampu menginterpretasikan hasilnya dengan benar dan obyektif.

29

Page 30: PRAKTIKUM 1.docx

Daftar Pustaka

Nauva,Ryn. Multikolinieritas dalam regresihttp://rianprestasi.blogspot.com/2011/05/multikolinieritas-dalam-regresi.html. Diakses tanggal 28 Maret 2015

Gusriani,Nurul.2004. Regresi Ridge dengan Penduga Bayes untuk mengatasi Multikolinieritas. Bogor:IPB

Soemartini. 2008. Principal Component Analysis sebagai Salah Satu untuk Mengatasi Multikolinearitas. Jatinangor: FMIPA-UNPAD

30

Page 31: PRAKTIKUM 1.docx

31

Page 32: PRAKTIKUM 1.docx

Lampiran

Z0 Z1 Z2 Z3 Z4 Z5 Z6

1 -0,58054 -1,96384 -5,00633 -3,87235 3,56173 -3,72752

1 -0,06305 -1,77001 -1,55602 -0,69681 -0,70732 0,37815

1 -3,28848 -1,64079 -0,94714 -0,45805 -1,22631 0,9769

1 -0,87438 -1,64079 -1,1501 -1,12658 -0,7994 0,72029

1 -1,69564 -1,64079 -1,1501 -1,77124 -0,59013 0,72029

1 -1,32866 -1,31773 -0,60888 -0,31479 -1,11749 0,9769

1 -0,54079 -1,18851 -0,60888 -0,14766 -0,99193 0,80583

1 -0,86444 -0,93006 -0,20296 -1,26984 -0,70732 0,9769

1 -0,40592 -0,67162 -0,20296 -0,24316 -0,61525 0,63476

1 -0,48704 -0,47778 0,06765 -0,36254 -0,60687 0,72029

1 0,53245 -0,47778 0,06765 0,28212 -0,7994 0,72029

1 0,89698 -0,34856 0,40592 0,80739 -1,10075 0,9769

1 0,05585 -0,34856 0,40592 0,64026 -1,05889 0,9769

1 0,34188 -0,0255 0,47357 1,18941 -0,858 0,63476

1 -0,77486 -0,15473 0,40592 -0,21928 -0,53991 0,72029

1 0,64696 -0,0255 0,40592 1,14166 -0,74918 0,54922

1 0,71912 0,03911 0,54122 -0,17153 -0,41435 0,63476

1 0,45101 0,29755 0,54122 0,06723 -0,14649 0,29262

1 0,59923 0,16833 0,40592 1,11779 -0,49806 0,29262

32

Page 33: PRAKTIKUM 1.docx

1 0,55379 0,23294 0,54122 0,37762 -0,32227 0,37815

1 0,36631 0,36216 0,54122 0,32987 -0,08789 0,12155

1 0,20489 0,42677 0,54122 0,25824 -0,0293 0,12155

1 -1,83947 0,556 0,60888 -1,62798 0,64873 0,03601

1 0,96523 0,16833 0,33827 -0,43417 0,0293 0,20708

1 0,5805 0,16833 0,33827 -0,17153 -0,07115 0,20708

1 0,76114 0,23294 0,33827 -0,12378 0,05441 0,12155

1 0,64924 0,62061 0,40592 0,18661 0,41435 -0,30612

1 0,93999 0,68522 0,40592 0,32987 0,43109 -0,39166

1 0,41143 0,16833 0,13531 0,37762 -0,02093 -0,04952

1 0,00503 0,42677 0,20296 0,61638 0,22182 -0,30612

1 0,40882 0,42677 0,20296 0,01948 0,33901 -0,30612

1 0,83672 0,94367 0,27061 1,71469 0,48969 -0,90487

1 0,40703 1,26672 0,33827 0,32987 1,27653 -1,24701

1 1,30843 1,58978 0,47357 0,21049 1,61136 -1,50361

1 -1,71958 1,58978 0,60888 1,14166 1,19282 -1,33254

1 -0,43443 0,94367 0,40592 0,56863 0,69895 -0,7338

1 0,94194 1,07289 0,40592 0,23436 0,98356 -0,90487

1 1,31332 2,23589 0,60888 1,07003 2,10523 -2,18789

Welcome to Minitab, press F1 for help.

Regression Analysis: Y versus X1; X2; X3; X4; X5; X6

The regression equation isY = 21301 + 0,0509 X1 + 630 X2 - 137 X3 - 117 X4 - 141 X5 - 907 X6

Predictor Coef SE Coef T P VIFConstant 21301 33324 0,64 0,527X1 0,05087 0,01301 3,91 0,000 1,8X2 630 3736 0,17 0,867 9589,4X3 -137 3664 -0,04 0,970 8410,7X4 -116,9 180,0 -0,65 0,521 163,0X5 -141,0 202,6 -0,70 0,492 1680,1X6 -907 3911 -0,23 0,818 5996,3

33

Page 34: PRAKTIKUM 1.docx

S = 35,9196 R-Sq = 64,8% R-Sq(adj) = 58,0%

Analysis of Variance

Source DF SS MS F PRegression 6 73732 12289 9,52 0,000Residual Error 31 39997 1290Total 37 113729

Source DF Seq SSX1 1 58008X2 1 9919X3 1 5056X4 1 124X5 1 556X6 1 69

Unusual Observations

Obs X1 Y Fit SE Fit Residual St Resid 1 5845 360,00 360,38 35,02 -0,38 -0,05 X 21 6426 505,40 505,40 35,92 -0,00 * X 26 6669 413,00 507,48 11,24 -94,48 -2,77R 36 5935 394,00 486,28 11,03 -92,28 -2,70R

R denotes an observation with a large standardized residual.X denotes an observation whose X value gives it large influence.

34


Top Related