laporan analisis regresi lanjutan kristin verahditiya ke-2

Upload: prasetyo-indra-surono

Post on 18-Oct-2015

104 views

Category:

Documents


1 download

DESCRIPTION

dsadsadsadsacvxzsazdsa

TRANSCRIPT

BAB I

PENDAHULUAN

1.1. Latar Belakang Analisis regresi merupakan analisis yang ditujukan untuk mengetahui hubungan fungsional satu atau beberapa peubah prediktor terhadap peubah respon. Sebelum suatu data di analisis dengan analisis regresi, data tersebut harus memenuhi beberapa asumsi klasik dalam regresi. Salah satu asumsi klasik tersebut adalah asumsi non-multikolinearitas.

Asumsi non-multikolinearitas berlaku pada data yang mana memiliki lebih dari satu peubah prediktor. Asumsi ini mengharuskan bahwa tidak boleh ada hubungan linier antara sesama peubah prediktor. Apabila terdapat hubungan linier antar peubah prediktor yang bersifat sempurna maka akan terjadi multikolinearitas sempurna. Sedangkan apabila terdapat hubungan linier antar peubah prediktor namun tidak sempurna, maka akan terjadi multikolinearitas kurang sempurna.

Masalah multikolinearitas patut diwaspadai dalam analisis regresi karena akan mengakibatkan hasil penaksiran parameter yang tidak dapat dipercaya. Bahkan untuk kasus di mana multikolinearitas bersifat sempurna, penaksiran parameter sama sekali tidak dapat dilakukan. Sedangkan untuk kasus di mana multikolinearitas bersifat kurang sempurna, penaksiran masih dapat digunakan namun memiliki tingkat presisi yang rendah.

Adanya multikolinearitas dapat dideteksi dengan menggunakan koefisien determinasi, korelasi parsial, nilai VIF dan nilai akar ciri. Sedangkan untuk penanganan multikolinearitas dapat dilakukan dengan memanfaatkan informasi apriori dari teori atau penelitian sebelumnya, menggabungkan data cross-sectional dengan data deret waktu, menghilangkan peubah penyebab multikolinearitas, menambahkan data baru dan dengan menggunakan analisis komponen utama dan regresi ridge.

1.2. Tujuan

1.2.1. Untuk mengetahui definisi dan sifat dasar dari

multikolinearitas

1.2.2. Untuk mengetahui pendeteksian multikolinearitas

1.2.3. Untuk menghasilkan persamaan regresi terbaik melalui

analisis komponen utama (PCA)

BAB IITINJAUAN PUSTAKA2.1 Definisi dan Sifat Multikolinearitas

Multikolinearitas merupakan istilah yang mula-mula ditemukan oleh Ragnar Frisch. Arti dari multikolinearitas saat itu adalah adanya hubungan linear yang sempurna di antara peubah prediktor dalam model regresi. Hubungan linier antar peubah prediktor tersebut dapat dijelaskan sebagai berikut: andaikan terdapat k peubah prediktor yaitu X1, X2,,Xk (di mana X1=1 untuk semua pengamatan atau merupakan unsur intersep), hubungan linier terjadi apabila memenuhi kondisi

(1)

Di mana adalah konstanta yang sedemikian rupa sehingga ada salah satu yang bernilai tidak nol (Gujarati, 1998).

Saat ini istilah multikolinearitas digunakan dalam pengertian yang lebih luas, yaitu tidak hanya pada hubungan linier yang bersifat sempurna tetapi juga pada kondisi di mana peubah X saling berkorelasi tetapi tidak secara sempurna, sehingga persamaan (1) menjadi

(2)

Berikut ini adalah contoh yang menunjukkan perbedaan antara multikolinearitas sempurna dan multikolinearitas kurang sempurna. Andaikan dimiliki data hipotetik seperti pada tabel berikut:

X2X3X3*

105052

157575

189097

24120129

30150152

Dari tabel tersebut, terlihat jelas bahwa X3i=5X2i. Hal ini menunjukkan bahwa terjadi multikolinearitas (korelasi sempurna) antara X3 dan X2. Sedangkan peubah X3* berasal dari peubah X3 yang berturut-turut ditambahkan angka berikut: 2,0,7,9,2 (unsur kesalahan ). Akibatnya tidak terdapat kolinearitas sempurna antara X2 dan X3.

Pada regresi nonlinier, adanya hubungan nonlinier dalam model misal

(3)

Pada model tersebut terlihat jelas adanya hubungan antar peubah Xi, namun hubungan ini tidak menyalahi asumsi non-multikolinearitas karena bentuk hubungan tersebut bersifat nonlinier.

Dalam melakukan analisis regresi, diperlukan asumsi non-multikolinearitas karena beberapa hal sebagai berikut:

Jika terdapat multikolinearitas sempurna seperti pada persamaan (1) maka koefisien regresi menjadi tak tentu dan kesalahannya tak terhingga.

Jika terdapat multikolinearitas kurang sempurna pada persamaan (2) maka koefisien regresi walaupun masih bisa ditentukan, namun memilihi kesalahan standar yang besar (bila dibandingkan dengan koefisien regresi itu sendiri), akibatnya koefisien tidak dapat ditaksir dengan ketepatan yang tinggi.

2.2 Pendeteksian Multikolinearitas

1. Kolinearitas dapat diduga ketika tinggi (0.7-1.0) dan ketika korelasi derajat nol juga tinggi. Akan tetapi, tidak ada atau sedikit sekali koefisien regresi yang bersifat signifikan secara parsial (Gujarati, 1998).

2. Korelasi derajat nol yang tinggi tidak selamanya menunjukkan kolinearitas tinggi pada kasus tertentu. Misalnya, terdapat model regresi dengan empat peubah prediktor X1, X2,..,X4. X4 merupakan kombinasi linier dari X2 dan X3 sehingga .

(4)

Persamaan tersebuh dipenuhi oleh ,

EMBED Equation.DSMT4 .

Jadi, dapat disimpulkan bahwa korelasi sederhana atau korelasi derajat nol tidak akan salah memberikan informais mengenai multikolinearitas kecuali jika terdapat lebih dari dua peubah prediktor (Gujarati, 1998).

3. Berkaitan dengan poin ke-2, maka selain melihat korelasi derajat nol (korelasi sederhana) maka disarankan untuk melihat korelasi parsial. Misal dalam regresi tersebut didapatkan sangat tinggi tetapi , dan relative rendah, maka hal ini menunjukkan bahwa peubah X2, X3 dan X4 berkorelasi tinggi dan setidaknya terdapat satu peubah yang berlebihan (Gujarati, 1998).

4. Karena multikolinearitas timbul karena adanya satu atau lebih peubah prediktor yang merupakan kombinasi linier dari peubah lainnya, maka salah satu cara untuk mengetahui peubah mana yang saling berhubungan maka dilakukan regresi dari setiap Xi terhadap Xi* yang tersisa, lalu dihitung

(5)

mengikuti distribusi F dengan db (k-2, N+k-1)

di mana :

N= jumlah sampel

k= banyaknya peubah prediktor dan unsur intersep

=nilai koefisien determinasi peubah Xi terhadap peubah lain yang tersisa

Apabila nilai F lebih besar dari titik kritis pada taraf nyata yang ditentukan, maka Xi tersebut kolinear dengan X lainnya. sebaliknya, bila nilai F lebih kecil drai titik kritis maka Xi tersebut tidak kolinear dengan X lainnya (Gujarati, 1998).

5. Mulitikolinearitas dapat diperiksa dengan melihat nilai Variance Inflation Factors (VIF). Nilai VIF ini diperoleh dari diagonal utama hasil perhitungan matriks (XtX)-1. Apabila salah satu dari nilai VIF lebih dari 10, maka dapat diidentifikasikan bahwa peubah Xi berhubungan erat dengan peubah-peubah X lainnya atau dengan kata lain terdapat masalah multikolinearitas (Myers,1990 dalam Gusriani, 2004).

Nilai Variance Inflation Factors ( faktor inflasi ragam) dapat juga dihitung berdasarkan rumus :

(6)

Dengan adalah koefisien determinan yang diperoleh jika peubah Xi diregresikan dengan p-1 peubah prediktor lainnya. VIF memperlihatkan kenaikan ragam dugaan parameter yang dipengaruhi oleh keberadaan multikolinearitas (Sen dan Srivastava 1990, dalam Gusriani 2004).

6. Akar ciri XtX yaitu dapat digunakan untuk mengukur keberadaan multikolinearitas dalam data. Jika ada satu atau lebih ketergantungan linier dalam data, maka akar cirinya aka nada yang bernilai sangat kecil dan menunjukkan adanya ketergantungan linier di antara kolom X. Beberapa peneliti menentukan kondisi XtX dengan menentukan indeks kondisi

(7)

Nilai 30 menunjukkan adanya masalah multikolinearitas pada XtX (Gusriani, 2004).

2.3 Penanganan Multikolinearitas dengan Analisis Komponen UtamaMontgomery dan Hines (1990) dalam Soemartini (2008) menjelaskan bahwa dampak multikolinearitas dapat mengakibatkan koefisien regresi yang dihasilkan oleh analisis regresi berganda menjadi sangat lemah atau tidak dapat memberikan hasil analisis yang mewakili sifat atau pengaruh dari peubah bebas yang bersangkutan. Dalam banyak hal masalah Multikolinearitas dapat menyebabkan uji T menjadi tidak signifikan padahal jika masing-masing peubah prediktor diregresikan secara terpisah dengan peubah tak bebas (simple regression) uji T menunjukkan hasil yang signifikan. Hal tersebutlah yang sering kali membuat pusing para peneliti karena hasil analisis yang dilakukan pada regresi berganda dan regresi sederhana tidaklah sejalan atau bahkan sangat bertentangan.

Akan tetapi, pada prakteknya prosedur penanggulangan yang telah disebutkan sebelumnya sangat tergantung sekali pada kondisi penelitian, misalnya prosedur penggunaan informasi apriori sangat tergantung dari ada atau tidaknya dasar teori (literatur) yang sangat kuat untuk mendukung hubungan matematis antara peubah prediktor yang saling berkolinear, prosedur mengeluarkan peubah bebas yang berkolinear seringkali membuat banyak peneliti keberatan karena prosedur ini akan mengurangi obyek penelitian yang diangkat, sedangkan prosedur lainya seperti menghubungkan data cross sectional dan time series, prosedur first difference dan penambahan data baru seringkali hanya memberikan efek penanggulangan yang kecil pada masalah multikolinearitas. Oleh karena itu, kita dapat mengunakan teknik lain yang dapat digunakan untuk meminimumkan masalah multikolinearitas tanpa harus mengeluarkan peubah bebas yang terlibat hubungan kolinear, yaitu dengan metode Principal Component Analysis (PCA) yang ada dalam analisis faktor (Soemartini, 2008).

Prosedur PCA pada dasarnya adalah bertujuan untuk menyederhanakan peubah yang diamati dengan cara menyusutkan (mereduksi) dimensinya. Hal ini dilakukan dengan cara menghilangkan korelasi diantara peubah bebas melalui transformasi peubah prediktor asal ke peubah baru yang tidak berkorelasi sama sekali atau yang biasa disebut dengan principal component. Setelah beberapa komponen hasil PCA yang bebas multikolinearitas diperoleh, maka komponen-komponen tersebut menjadi peubah bebas baru yang akan diregresikan atau dianalisa pengaruhnya terhadap peubah respon (Y) dengan menggunakan analisis regresi (Soemartini, 2008).

Tahap pertama pada prosedur regresi komponen utama yaitu menghitung komponen utama yang merupakan kombinasi linear dari beberapa peubah X, dan tahap kedua adalah peubah tak-bebas diregresikan pada komponen utama dalam sebuah model regresi linear. Bentuk persamaan regresi dalam bentuk peubah asli X dapat ditulis sebagai :

(8)

dengan:

Y = peubah respon

Xi = peubah prediktor ke-i yang dispesifikasikan sejak awal, i = 1, 2, , k.

0 = konstanta

i = koefisien regresi dari peubah prediktor ke-i, i = 1, 2, , k.Peubah baru (W) sebagai komponen utama adalah hasil transformasi dari peubah asal (X) yang modelnya dalam bentuk matriks adalah W = A X, dan komponen ke-j ditulis

, atau

(9)dimana vektor pembobot aj diperoleh dengan memaksimumkan keragaman komponen utama ke-j, yaitu

(10)dengan kendala QUOTE

, untuk .

Vektor pembobot aj diperoleh dari matriks peragam yang diduga dengan matriks S, yaitu :

(11)Misalkan diberikan notasi K1, K2, , Km sebagai banyaknya komponen utama dan Y sebagai peubah tak-bebas, maka model regresi komponen utama dapat ditulis sebagai

(12)dengan: Y = peubah respon

Kj = peubah prediktor komponen utama yang merupakan kombinasi linear dari semua peubah baku Z (j = 1, 2, , m).

w0 = konstanta.

wj = parameter model regresi atau koefisien regresi, (j = 1, 2, , m).

= galat.

(Prasetyo, 2010)

BAB III

METODOLOGI1. Buka software Minitab yang ada di komputer anda

2. Isi data di dalam software minitab sesuai data yang ingin anda ujikan

3. Setelah isi data, regresikan data tersebut dengan mengklik Stat => Regression => Regression...

4. Isi kolom Response dengan variabel respon (Y) Isi kolom Predictors dengan variabel prediktor (X)

5. Jika ingin menampilkan nilai variance inflation factors, klik Options... => centang Variance Inflation Factor

6. Maka, inilah hasil output dari pengregresian data di atas. Nilai VIF > 10 menunjukkan data tersebut mengalami multikolinieritas

7. Setelah langkah tersebut, kita beri variabel Z untuk distandarisasi

8. Berikut langkah untuk melakukan standarisasi dataKlik Calc => Standardize.....

9. Isi kolom Input column[s]: variabel yang akan distandardisasikanIsi kolom Score results in: variabel hasil standardisasi (Z)

10. Inilah hasil data yang sudah distandarisasikan, kemudian Z0 diganti dgn 1

11. Setelah langkah tersebut, kita beri variabel W untuk memasukkan nilai W1, W2, W3, dan W4

\\

12. Lakukan analisis komponen utama dengan cara klik Stat => Multivariate => Principal Components...

13. Isi kolom Variables dengan variabel prediktor (X) Type of Matrix pilih Correlation

14. Setelah itu, pilih Storage. Isi kolom Scores dengan letak cell W1-W4

15. Inilah hasilnya

16. Perhatikan nilai cumulative masing-masing PC1, PC2, PC3, dan PC4. Pilih nilai cumulative yang kurang dari 0,75 untuk dijadikan variabel regresi selanjutnya. Setelah itu, regresikan lagi dengan cara Stat => Regression => Regression...

17. Isi kolom Response dengan variabel respon (Y)Isi kolom Predictors dengan variabel W1 dan W2

18. Maka inilah hasilnya,Regression Analysis: Y versus W1, W2

The regression equation is

Y = 87.5 - 21.9 W1 + 18.9 W2

Predictor Coef SE Coef T P VIF

Constant 87.50 14.64 5.98 0.009

W1 -21.91 11.75 -1.86 0.159 1.0

W2 18.93 13.27 1.43 0.249 1.0

S = 35.8514 R-Sq = 64.7% R-Sq(adj) = 41.2%

Terbukti, bahwa persamaan regresi yang dihasilkan sudah tidak multikolinieritas lagi

19. Selanjutnya masukkan nilai PC1 dan PC2 ke variabel W1 dan W2 sehingga menghasilkan variabel Z1, Z2, Z3, dan Z4

W1 = PC1

W1 = 21,9 (0,627Z1 + 0,541Z2 + 0,56Z3 0,021Z4)

W2 = PC2

W2 = 18,9 (0,415Z1 0,352Z2 0,156Z3 0,824Z4)

20. Langkah terakhir adalah mentrasformasikan nilai Z ke nilai X dengan rumus

BAB IVHASIL DAN PEMBAHASAN4.1 Permasalahan

Data pengaruh pemberian pupuk A, B, C, dan D dalam produksi kelapa sawit setiap tahunnya di 6 lokasi berbedaLokasiY

(ton)A

(gram/ha)B

(gram/ha)C

(gram/ha)D

(gram/ha)

1255113539853074678

2505346595247194364

3755272571354384749

41005164483149864410

51254804484844324748

61505254454249194098

4.2 Pembahasan

4.2.1 Pendugaan Parameter

Dengan bantuan software minitab, didapatkan hasil output seperti berikutThe regression equation is

Y = - 2696 + 0.588 X1 - 0.186 X2 - 0.168 X3 + 0.344 X4

Predictor Coef SE Coef T P VIF

Constant -2696 2281 -1.18 0.447

X1 0.5881 0.4004 1.47 0.381 30.4

X2 -0.18583 0.09137 -2.03 0.291 13.4

X3 -0.1678 0.1035 -1.62 0.352 7.6

X4 0.3443 0.2562 1.34 0.407 23.1

S = 31.2103 R-Sq = 91.1% R-Sq(adj) = 55.5%

Analysis of Variance

Source DF SS MS F P

Regression 4 9963.4 2490.9 2.56 0.434

Residual Error 1 974.1 974.1

Total 5 10937.5

.

4.2.2 Pengujian Asumsi Multikolinieritas

Pengujian asumsi multikolinieritas dilakukan dengan mencari nilai VIF dari data tersebut.

Hipotesis

H0: Prediktor saling bebas

H1: Prediktor tidak saling bebas

Predictor Coef SE Coef T P VIF

Constant -2696 2281 -1.18 0.447

X1 0.5881 0.4004 1.47 0.381 30.4

X2 -0.18583 0.09137 -2.03 0.291 13.4

X3 -0.1678 0.1035 -1.62 0.352 7.6

X4 0.3443 0.2562 1.34 0.407 23.1

Berdasarkan hasil output di atas tampak bahwa nilai VIF > 10 untuk predictor X1, X2, dan X4 , sehingga dapat di simpulkan bahwa sudah cukup bukti untuk mengatakan bahwa prediktor tidak saling bebas. Hal ini mengindikasikan bahwa terdapat multikolinieritas pada data pengaruh pemberian pupuk A, B, C, dan D dalam produksi kelapa sawit setiap tahunnya di 6 lokasi berbeda. Maka untuk menangani masalah multikolinieritas tersebut adalah dengan menggunakan Analisis Komponen Utama.4.2.3 Penanganan Multikolinieritas dengan Analisis Komponen UtamaLangkah pertama adalah mentransformasi data menjadi bentuk baku dengan menggunakan rumus :

di mana Pembakuan prediktor bertujuan untuk mengurangi korelasi antar prediktor serta membuat prediktor memiliki satuan yang sama. Berikut ini adalah data variabel prediktor yang telah dibakukan :

Langkah selanjutnya adalah mencari nilai PCA masing-masing komponen X1, X2, X3, dan X4Eigenvalue 1.8608 1.4600 0.6652 0.0139

Proportion 0.465 0.365 0.166 0.003

Cumulative 0.465 0.830 0.997 1.000

Variable PC1 PC2 PC3 PC4

X1 0.627 0.415 0.121 0.647

X2 0.541 -0.352 0.640 -0.418

X3 0.560 -0.156 -0.756 -0.301

X4 -0.021 -0.824 -0.069 0.562

Mencari variabel PCA mana yang akan digunakan untuk regresi selanjutnya, dengan cara melihat nilai cumulative < 0,75. Hasilnya, PC1 dan PC2 digunakan sebagai variabel yang akan diregresikan selanjutnyaSetelah itu regresikan PC1 dan PC2 dengan variabel Y, sehingga diperoleh Persamaan Analisis Komponen Utama baru :

Y = 87.5 - 21.9 W1 + 18.9 W2

Langkah selanjutnya adalah memasukkan nilai PC1 dan PC2 ke dalam W1 dan W2, sehingga mendapatkan persamaan dengan variabel Z1, Z2, Z3, dan Z4

Langkah terakhir adalah mengembalikan variabel Z ke X. Berikut ini perhitungan untuk mengembalikan data Z ke X :

Maka persamaan regresinya setelah pengembalian ke data asli adalah = 85,114 + 0,00056X1 + 0,00002X2 + 0,00007X3 0,00022X4

Interpretasi :

- Jika pupuk A meningkat sebesar 1 unit diharapkan produksi kelapa sawit akan meningkat sebesar 0,0,00056 ton, dengan syarat pupuk B, C, dan D tetap

- Jika pupuk B meningkat sebesar 1 unit diharapkan produksi kelapa sawit akan meningkat sebesar 0,00002 ton, dengan syarat pupuk A, C, dan D tetap.

- Jika pupuk C meningkat sebesar 1 unit diharapkan produksi kelapa sawit akan meningkat sebesar 0,00007 ton, dengan syarat pupuk A, B, dan D tetap.

- Jika pupuk D meningkat sebesar 1 unit diharapkan produksi kelapa sawit akan menurun sebesar 0,00022 ton, dengan syarat pupuk A, B, dan C tetap

BAB V

PENUTUP

5.1 KESIMPULAN Berdasarkan uraian materi yang telah dijabarkan, maka dapat disimpulkan beberapa hal sebagai berikut:

Asumsi non-multikolinearitas mengharuskan bahwa tidak boleh ada hubungan linier antara sesama peubah prediktor

Pendeteksian multikolinearitas dapat dilakukan dengan menggunakan koefisien determinasi, korelasi parsial, nilai VIF dan nilai akar ciri.

Penanganan multikolinearitas dapat dilakukan dengan memanfaatkan informasi apriori dari teori atau penelitian sebelumnya, menggabungkan data cross-sectional dengan data deret waktu, menghilangkan peubah penyebab multikolinearitas, menambahkan data baru, menggunakan analisis regresi ridge, dan bisa juga menggunakan analisis komponen utama Dari contoh kasus yang telah dianalisis diperoleh model regresi dengan peubah prediktor asal yaitu = 85,114 + 0,00056X1 + 0,00002X2 + 0,00007X3 0,00022X4

5.2 SARAN

Dalam statistika sebuah model regresi dikatakan baik atau cocok,jika dipenuhi asumsi-asumsi ideal (klasik). Tidak terpenuhinya salah satu asumsi, khususnya asumsi non mutikolinearitas akan menyebabkan kesulitan pada saat penaksiran parameter. Dan banyak metode untuk mengatasi masalah multikolinieritas. Walaupun analisis komponen utama terlihat lebih mudah, akan tetapi lebih efektif jika menggunakan metode regresi ridge untuk mengatasi masalah multikolinieritas terlihat dari perbandingan nilai koefisien regresi keduanya, karena koefisien regresi analisis komponen utama lebih kecil dibandingankan regresi ridge.

Sedangkan dari analisis multikolinieritas dengan analisis komponen utama juga ditemukan kesulitan dalam melakukan analisis. Kita harus berhati-hati dalam memasukkan faktor mana yang akan diregresikan, jangan sampai faktor yang nilai cumulativenya sudah lebih dari 75% kita masih gunakan. Kita juga harus berhati-hati dalam memasukkan variabel PC1,PC2, dst dalam mentransformasikan data ke Z1,Z2,dst.DAFTAR PUSTAKA

Gusriani, Nurul. 2004. Regresi Ridge dengan Penduga Bayes untuk Mengatasi Multikolinieritas. Bogor : IPB

Adi Soehono, Loekito. 2012. Modul Pengantar Rancangan Percobaan. Malang:FMIPA-UBPrasetyo, H.B. Analisis regresi komponen utama untuk mengatasi masalah multikolinieritas dalam analisis regresi linier berganda. [email protected]. Diakses tanggal 29 Maret 2014

Soemartini. 2008. Principal Component Analysis sebagai Salah Satu untuk Mengatasi Multikolinearitas. Jatinangor: FMIPA-UNPAD

LAMPIRAN

---------- 3/29/2014 9:30:56 AM

Welcome to Minitab, press F1 for help.

Regression Analysis: Y versus X1, X2, X3, X4

The regression equation is

Y = - 2696 + 0.588 X1 - 0.186 X2 - 0.168 X3 + 0.344 X4

Predictor Coef SE Coef T P VIF

Constant -2696 2281 -1.18 0.447

X1 0.5881 0.4004 1.47 0.381 30.4

X2 -0.18583 0.09137 -2.03 0.291 13.4

X3 -0.1678 0.1035 -1.62 0.352 7.6

X4 0.3443 0.2562 1.34 0.407 23.1

S = 31.2103 R-Sq = 91.1% R-Sq(adj) = 55.5%

Analysis of Variance

Source DF SS MS F P

Regression 4 9963.4 2490.9 2.56 0.434

Residual Error 1 974.1 974.1

Total 5 10937.5

Source DF Seq SS

X1 1 894.6

X2 1 6416.3

X3 1 894.3

X4 1 1758.2

Unusual Observations

Obs X1 Y Fit SE Fit Residual St Resid

1 5113 25.0 27.8 31.1 -2.8 -1.00 X

2 5346 50.0 52.5 31.1 -2.5 -1.00 X

X denotes an observation whose X value gives it large influence.

Principal Component Analysis: X1, X2, X3, X4

Eigenanalysis of the Correlation Matrix

Eigenvalue 1.8608 1.4600 0.6652 0.0139

Proportion 0.465 0.365 0.166 0.003

Cumulative 0.465 0.830 0.997 1.000

Variable PC1 PC2 PC3 PC4

X1 0.627 0.415 0.121 0.647

X2 0.541 -0.352 0.640 -0.418

X3 0.560 -0.156 -0.756 -0.301

X4 -0.021 -0.824 -0.069 0.562

Regression Analysis: Y versus W1, W2

The regression equation is

Y = 87.5 - 21.9 W1 + 18.9 W2

Predictor Coef SE Coef T P VIF

Constant 87.50 14.64 5.98 0.009

W1 -21.91 11.75 -1.86 0.159 1.0

W2 18.93 13.27 1.43 0.249 1.0

S = 35.8514 R-Sq = 64.7% R-Sq(adj) = 41.2%

Analysis of Variance

Source DF SS MS F P

Regression 2 7082 3541 2.75 0.209

Residual Error 3 3856 1285

Total 5 10938

Source DF Seq SS

W1 1 4465

W2 1 2617

2

_1457267424.unknown

_1457267432.unknown

_1457590128.unknown

_1457590131.unknown

_1457590133.unknown

_1457590135.unknown

_1457590136.unknown

_1457590134.unknown

_1457590132.unknown

_1457590129.unknown

_1457267434.unknown

_1457590127.unknown

_1457267433.unknown

_1457267428.unknown

_1457267430.unknown

_1457267431.unknown

_1457267429.unknown

_1457267426.unknown

_1457267427.unknown

_1457267425.unknown

_1457267416.unknown

_1457267420.unknown

_1457267422.unknown

_1457267423.unknown

_1457267421.unknown

_1457267418.unknown

_1457267419.unknown

_1457267417.unknown

_1457267412.unknown

_1457267414.unknown

_1457267415.unknown

_1457267413.unknown

_1457267409.unknown

_1457267410.unknown

_1457267407.unknown