Asumsi Regresi Linier Klasik

2 08 2007

Setelah didapatkan model regresi, kita tidak bisa langsung melakukan interpretasi terhadap hasil yang diperoleh. Hal ini disebabkan karena model regresi harus diuji terlebih dahulu apakah sudah memenuhi asumsi klasik. Apabila ada satu syarat saja yang tidak terpenuhi, maka hasil analisis regresi tidak dapat dikatakan bersifat BLUE (Best Linear Unbiased Estimator). Asumsi regresi linier klasik tersebut antara lain adalah:

  1. Model regresi dispesifikasikan dengan benar.
  2. Error menyebar normal dengan rataan nol dan memiliki suatu ragam (variance) tertentu.
  3. Tidak terjadi heteroskedastisitas pada ragam error.
  4. Tidak terjadi multikolinieritas antara peubah bebas.
  5. Error tidak mengalami autokorelasi (error tidak berkorelasi dg dirinya sendiri).

Aksi

Information

58 responses

2 10 2007
Deny

Silahkan kirimkan saran, kritik atau pertanyaan, agar weblog ini menjadi lebih baik lagi.

14 02 2008
vhya

#1
aku lagi ngerjain skripsi nih…
aku pake 3 persamaan regresi sederhana yang masing-masing berdiri sendiri,,
lalu akan dibandingkan keakuratan model prediksi itu
nah, pertanyaannya juga sederhana,,
kalo pake regresi sederhana, apakah tetap menggunakan asumsi klasik juga???

14 02 2008
Deny

Respon untuk #1
1. Pengujian asumsi regresi linier klasik TETAP DILAKUKAN walaupun Vhya menggunakan regresi linier sederhana. Bagaimanapun juga, regresi linier termasuk ke dalam LINEAR MODEL, dimana linear model dibangun atas dasar asumsi tertentu. Nah, di dalam konsep regresi, asumsi-asumsinya disebut asumsi regresi linier klasik. :)

10 04 2008
Fikri Kusharyadi

#2
menambahkan pertanyaan punya vhya diatas, yang ingin saya tanyakan adalah :
1. tujuan kita untuk mengasumsi klasik untuk apa ?

2. klo memang asumsi klasik tetap dilakukan pada regresi linier sederhana, model jenis asumsi klasik apa yang bisa dipakai, krn setau saya regresi linier sederhana itukan secara parsial antara variabel dependent dan independent saja.. punten klo bisa di kasih penjelasannya ya mas deni mengapa menggunakan asumsi klasik jenis (misal multikolinieritas).

3. apakah regresi linier sederhana perlu memakai uji f atau tidak ?

terima kasih sebelumnya, n di tunggu jawabannya ya mas deni klo bisa secepat mungkin krn sy bingung bgt untuk ketiga pertanyaan diatas.

11 04 2008
d1az_4yu

#3
aku bingung bisa tolong dibantu mas…
penelitian ku pake regresi linier sederhana saja, tapi pake asumsi klasik ga ya ???
asumsi klasik kan ada 5, multikolikieritas, heteroskedastisitas, autokorelasi, normalitas, linieritas.. yang cocok pake yang mana untuk regrei linier sederhana ?? mksh.

16 04 2008
Deny

Respon untuk #2
1. Untuk memastikan apakah nilai koefisien regresi yang kita peroleh tidak bias dan telah sahih (benar). Jangan sampai nilai koefisien regresi tersebut muncul dipengaruhi oleg berbagai macam “penyakit” di dalam regresi, misal autokorelasi, multikolinieritas ataupun heteroskedastisitas.
2. Tetap dilakukan. Perbedaan antara regresi linier berganda dan sederhana hanyalah terletak pada banyaknya var bebas yang diikutsertakan. Khusus multikolinieritas, tidak perlu dilakukan pada regresi linier sederhana. Coba baca tulisan saya ttg Multikolinieritas.
3.Regresi linier sederhana tetap menggunakan uji-F dan uji-t. :)

22 04 2008
Rara

#4
1. Apabila regresi menggunakan backward elimination yg pada dasarnya berarti memasukkan semua variabel yg signifikan ke persamaan regresi, lalu ternyata hasilnya masih ada variabel yg tidak signifikan (dilihat dari sig nya pada tabel coefficient), itu gmn?
2. Untuk asumsi homoskedasitas, apakah yg bertindak sebagai faktor adalah variabel independen?
3. Jika asumsi homoskedasitas dan normalitas tidak terpenuhi, bgmn transformasi data yg harus dilakukan?cari dimana2 ga ada yg nulis banyak tentang itu.
makasih banget sebelumnya

22 04 2008
Deny

Respon untuk #3
1.Untuk regresi linier sederhana, asumsi multikolinieritas tidak perlu diterapkan. hal ini disebabkan karena multikolinieritas adalah asumsi terjadinya hubungan yang erat ANTAR VARIABEL BEBAS di dalam regresi linier. Oleh karena regresi linier sederhana hanya memuat 1 buah variabel bebas, maka merupakan suatu hal yang pasti bahwa regresi linier sederhana bebas dari multikolinieritas. :)

22 04 2008
Deny

Respon untuk #4
1.Setahu saya, backward elimination menjamin bahwa variabel2 yang “lolos seleksi” hingga tahap akhir adalah variabel2 yang benar2 signifikan. Metode ini mirip dengan Forward elimination, hanya saja forward elimination memasukkan satu-per-satu variabel, sehingga variabel2 yang tidak signifikan akan dikeluarkan. Jadi, kebalikan dari backward elimination. Dengan demikian, pada tahap akhir backward elimination, variabel2 yang masuk ke dalam model regresi adal;ah variabel2 yang signifikan. Sehingga, tidak mungkin lagi dijumpai variabel2 yang tidak signifikan. Jadi, tolong periksa lagi proses backward elimination yang Anda lakukan. Kalaupun tetap ada yang tidak signifikan, menurut saya cara interpretasinya sama dengan konsep regresi linier biasa, dimana konsep ini di dalam SPSS disebut metode ‘enter’.
2.Ya, yang dijadikan fakor adalah variabel independen.
3.a. Untuk homoskedastisitas, sebenarnya jangan terburu2 melakukan transformasi data, sebab ada metode yang “powerful” yang sering digunakan, yaitu metode Weighted Least Square (WLS). Metode WLS bertujuan untuk menstabilkan ragam (variance) error dengan cara memasukkan suatu variabel pembobot.
b. Untuk kasus nonnormalitas, metode transformasi yang dapat dilakukan adalah dengan transformasi BOX-COX. Transformasi ini mencoba mencari suatu nilai konstanta, dimana konstanta yang ditemukan tersebut akan dijadikan nilai pangkat bagi data yang akan di-normal-kan. Apabila konstanta yang ditemukan bernilai nol, maka transformasi yang tepat adalah transformasi logaritma, yaitu dengan menghitung nilai log dari setiap data yang akan di-normal-kan tersebut.
4.Banyak buku yang membahas tentang transformasi. Tentu saja, buku-buku yang saya maksud adalah buku-buku statistika yang teoritis, jangan buku-buku statistika yang sifatnya terapan saja. Selain itu, coba cari di google: Weighted Least Square + PDF ato box-cox transformation + PDF

23 04 2008
Rara

#5
makasih buat jawabannya..tapi ada yg mau saya tanyakan lagi, atas jawaban no.2 (Respon untuk #4) di atas: kalo saya punya 5 var independen dan 1 var dependen, lau menginput untuk test homoskedastisitas (homogeneity of variance/Levene test) bgmn?karena di tampilannya seolah2 u/ kolom factor hanya bisa memasukkan 1 entry, dan malah kolom u/ dependen list yg bisa memasukkan banyak.
Lalu apakah untuk uji normalitas dan homoskedastisitas, yang diuji adalah nilai residualnya, bukan data var independen dan var dependen?

23 04 2008
Rara

#6
Maf, mau nambahin dikit, sesuai topik yg ditulis di paling atas tentang Asumsi regresi Linier Klasik, ditulis bahwa :
– Error menyebar normal dengan rataan nol
– Tidak terjadi heteroskedatisitas pada ragam error
Berarti yg diuji bukan langsung nilai var dep & independennya, tapi error nya?
Saya masih kurang paham hubungan antara residual dan error, jadi apakah yg diinput u/ diuji asumsi adalah residualnya?bagaimana dgn predicted value?
makasih banyak sekali lagi..

23 04 2008
Deny

Respon untuk #5
1. kalau saya tidak salah, Anda pake SPSS ya?Begini, biasanya Levene test itu digunakan untuk uji homoskedastisitas pada model ANOVA. Sedangkan Anda menggunakan model regresi linier. Alangkah baiknya kalau Anda coba metode Breusch-Pagan Test. Metode ini jauh lebih sederhana daripada Levene Test. Dan, Bresusch-Pagan Test lebih sering digunakan untuk uji homoskedastisitas di dalam model regresi linier. Apabila Anda menggunakan Breusch-Pagan Test, Anda hanya perlu memasukkan model persis seperti model regresi, kemudian secara otomatis akan dianalisis, jika asumsi error tidak terpenuhi, maka nilai p-value akan menjadi kecil (< 0.05).
2. Ya, untuk uji asumsi klasik pada regresi, yaitu Autokorelasi, normalitas dan heteroskedastisitas, yang digunakan adalah data residual, bukan data asli.

Respon untuk #6
1. Begini ya, kalau kita pake SPSS, memang untuk uji heteroskedastisitas dan normalitas, yang digunakan adalah data residual. Jadi anda harus mengeluarkan output residual baru kemudian dianalisis menggunakan statistik uji, misal normalitas= Kolmogorov-Smirnov Test. Saya belum pernah menemukan statistik uji Breusch-Pagan Test di SPSS, jadi silahkan pake S-plus ato R -software. Kecuali, untuk uji autokorelasi, di SPSS bisa otomatis muncul, yaitu pake Durbin-Watson Statistics.
2. Residual dan error sebenarnya adalah sama. Hanya saja, kalau kita menggunakan data sampel, sisa (galat) yang diperoleh disebut residual. Sedangkan kalau kita pake data populasi, galatnya disebut error. Karena kebanyakan dari kita menggunakan data sampel, maka disebut sebagai residual. Nah, residual inilah yang dipakai untuk uji normalitas, heteroskedastisitas, autokorelasi.
3. Predicted value adalah nilai duga yang dihasilkan oleh model regresi. misal, model regresi: y= 2+3x. Kalau kita masukkan nilai x=10, maka y bernilai 32. Nilai 32 inilah yang disebut sebagai Predicted value. Tentu saja, biasanya, nilai predicted berbeda dengan pengamatan sebenarnya.
:)

23 04 2008
Rara

#6
Nuhun pisan…alias makasih banget sudah menjawab keragu-raguan saya..
saya coba dulu

24 04 2008
Deny

Respon untuk #6
Inggih, sami-sami mbak…alias Iya, sama-sama mbak. Saya tunggu hasil analisisnya untuk didiskusikan. :)

5 05 2008
ferry kusmanto

#7
mas, aku mo nanyak, kalo sudah pakek analisis faktor dan regresi berganda, apakah masih harus juga pkek uji asumsi klasik?kan asumsi klasik tujuannya hampir sama analisis faktor, misalnya multikolinearitas sama ama ekstraksi faktor dan autokorelasi sama ama uji barletts.itu bagaimana ya mas?mohon penjelasan dan tolong cepet dibalezz ya mas. trims bgt

8 05 2008
Deny

Respon untuk #7
1. Jawabannya, Ya. Anda masih perlu melakukan uji asumsi klasik.
2. Multikolinieritas tidak sama dengan analisis faktor. Uji bartlett adalah uji mengenai kehomogenan ragam, sedangkan autokrelasi biasanya tidak diuji dengan bartlett, tapi dengan durbin-watson statistics.

6 06 2008
dieska

#8
mas mau tanya kalo bedanya uji normalitas biasa dengan uji normalitas error (residu) apa ya, karena dua2nya pake kolmogorov smirnov, mohon penjelasannya ya, tx

10 06 2008
tiwi

#9
dalam asumsi klasik regresi linier apakah variabel dummy di ikutkan dalam perhitungan asumsi klasik regresi berganda???
apa alasannya?

10 06 2008
wie

#10
saya mau tanya lagi, bagaimana cara menghitung asumsi klasik denan soft ware minitab14 dengan variabel dummy??
makasih…….

13 06 2008
Deny

Respon untuk #8

1. Perbedaannya terletak pada data yang dianalisis, yang satu menganalisis data asli, sedangkan uji normalitas residual menganalisis kenormalan residual. Sedangkan untuk metode Kolmogorov-Smirnov sendiri, untuk kedua kasus TIDAK ADA BEDANYA sama sekali, dengan kata lain rumusnya sama persis. Sehingga di dalam konsep statistika tidak pernah ada istilah uji normalitas biasa dan uji normalitas tidak biasa. :)
2. Terdapat perbedaan yang perlu kita ketahui dalam melakukan pengujian normalitas untuk model linier (misal regresi linier, ANOVA, dll) dengan yang bukan model linier (misal uji-t dan uji-z). Sering sekali saya temui pada teman2 mahasiswa yang sedang penelitian (tidak semua mahasiswa lo, hehehe), mereka mencampuradukkan konsep uji normalitas antar kedua kasus di atas. Teman2 mahasiswa tersebut menganggap bahwa data yang dianalisis dalam uji normalitas pada kedua kasus di atas sama saja. Padahal, pemahaman semacam ini tidak sesuai dengan teori statistika. Pada model linier, pada saat melakukan uji normalitas, DATA YANG DIGUNAKAN ADALAH DATA RESIDUAL dari model yang telah diperoleh, bukan data mentah hasil pengamatan. Sedangkan pada uji-z dan uji-t, data yang di uji normalitasnya adalah DATA PENGAMATAN.
3. Hal ini disebabkan oleh asumsi dari model linier yang menyebutkan bahwa “ error menyebar normal dengan rata-rata nol dan ragam tertentu.” Sedangkan uji-z maupun uji-t memiliki asumsi “ data yang dianalisis harus mengikuti distribusi (sebaran) normal”. Dengan demikian, pada model linier, kita berkepentingan dengan residualnya (error), sedangkan pada uji-z atau uji-t, kita berkepentingan dengan data pengamatannya.
4. Mengenai perbedaan error dan residual, silahkan baca tulisan saya “ Perbedaan error dan residual”. :)

13 06 2008
Deny

Respon untuk #9 dan #10

Respon untuk #9
Maaf, apa yang Anda maksud dengan “cara menghitung asumsi klasik…”? Mungkinkah maksud Anda “cara menguji asumsi klasik”? Kalo ya, cara menguji asumsi klasik sebenarnya sama saja antara regresi linier yang melibatkan dengan yang tidak melibatkan variabel dummy. Hal ini karena yang diuji untuk kedua macam regresi tersebut adalah sama, yaitu menguji error-nya, apakah error dari kedua macam regresi tersebut sesuai dengan asumsi klasik. Dengan demikian, data yang digunakan adalah data residual. Regresi linier yang melibatkan var dummy dan regresi linier yang tidak melibatkan var dummy sama-sama dapat menghasilkan data residual. Kecuali saat pengujian asumsi klasik multikolinieritas. data yang digunakan adalah data pengamatan, yaitu data dari var dependent (Y) dan var independent (X). Apapun software-nya, cara menguji-nya sama aja.

Respon untuk #10
Ya, tentu saja. Jika anda menggunakan regresi dengan var dummy, pengujian asumsi klasik turut melibatkan variabel dummy. Hal ini disebabkan karena variabel dummy juga termasuk ke dalam model regresi.
Data yang digunakan untuk uji asumsi klasik adalah data residual dari model yang Anda dapatkan, bukan data pengamatan. Kecuali, untuk uji multikolinieritas, data yang digunakan adalah data pengamatan, termasuk variabel dummy.

10 07 2008
rofiq

#12
mas deny salam kenal………, saya pingin naya, tolong dibantu dijelasin ya. bagaimana cara mengatasi adanya autokorelasi dalam model regeresi. adakah uji tertentu? kalau di SPSS, mengatasinya pake’apa? atau mungkin di software lainnya…….
terima kasih

15 07 2008
erika

#11
mas pengen tanya tentang regresi ridge ni. saya baca di buku, regresi ridge bisa digunakan untuk mengatasi multikolinearitas. tapi saya bingung untuk menentukan nilai c (konstanta bias) yang optimum untuk regresi ridge. bagaimana caranya? ada rumusnya gak? tolong di jawab ya mas. terima kasih..

20 07 2008
Deny

Respon untuk #11
Untuk mendapatkan nilai c yang optimal, Anda membutuhkan 2 alat pendeteksi, yaitu Ridge Trace dan nilai VIF. Caranya:
1. Dapatkan nilai koefisien-koefisien regresi dengan berbagai nilai c (0 s.d. 1).
2. Dapatkan juga nilai-nilai VIF-nya dari penggunaan berbagai nilai c tersebut.
3. Tentukan nilai c yang bisa menghasilkan koefisien regresi ridge yang stabil dan nilai VIF yang mendekati 1. Stabil maksudnya adalah bahwa nilai sudah relatif tidak berubah, sedangkan tandanya sudah tidak berubah2 lagi.
4. Itulah nilai c yang optimal. :)

20 07 2008
Deny

Respon untuk #12
1. Sebenarnya autokorelasi disebabkan karena adanya faktor yang sangat berpengaruh terhadap var Y, namun tidak diikutkan di dalam model regresi.
2. Langkah yang bisa dilakukan adalah:
– coba cek, sapa tau ada variabel yang tidak dimasukkan, misal waktu atau yang lain.
– kalo emang sudah mentok, Anda bisa melakukan transformasi data. Metode yang bisa dipakai misalnya Cochran-Orcutt.
– coba cari literatur itu ya. Banyak kok!!
:)

23 07 2008
oon

#13
mas mo nanya ni…,cara transformasi data klo g linier tu gmana…,data q g linier ni…,makasih y

23 07 2008
Deny

Respon untuk #13
1. Untuk melakukan transformasi data, tergantung pada keadaan nonlinieritas pada data tersebut.
2. Biasanya, digunakan metode Box-Cox transformation, jika yang ditransformasi adlh var Y.
:)

24 07 2008
oon

#14
kayanya dataq masuk kuadratik?soalnya tak liat lwat scaterplot dan crve estimations di SPSS mendekati tu…
gambarre kya gni…
|——————–*
|——————-*
|——————-*
|——————*
|—————–**
|—————–**
|—————-**
|————–***
|———-*****
|——-***
|——**
|—–*
|
|_____________________________
trus transforamsinya gmana ni?klo box cox tu gmana?yang pke SPS d g mas?q d pusing ni?

24 07 2008
Deny

Respon untuk #14
1. Gampang saja. Box-cox itu sebenarnya mencari nilai power (pangkat) sedemikian rupa sehingga data yang dipangkatkan bisa mendekati normal. kalo digunakan dalam regresi, errornya diharapkan bisa normal. Itu konsep dasarnya. Tapi dalam kasus ini, coba jangan transformasi dulu.
2. Teknik yang bisa digunakan adalah: tambahkan variabel kuadratik ke dalam model regresi Anda. Misal model awal: y = a + bx, sehingga menjadi: y = a+b1X+b2X^2.
Dimana X^2 berarti X pangkat 2.
3. Setelah ditambahkan var baru itu, biasanya R-square jadi lebih besar. :)

28 07 2008
erika

#15
mas tanya lagi dong. selain regresi ridge ada cara lain untuk mengatasi multikolinearitas gak? tapi yang bersifat matematis gitu (bukan dengan membuang variabel, menambah sampel, dsb)…

30 07 2008
Deny

Respon untuk #15
1. Ada alternatif lain yang bisa Erika coba, yaitu dengan melakukan regresi menggunakan Principal Component Analysis (Analisis Komponen Utama).
2. Data awal yang telah ditransformasi menjadi skor komponen utama, kemudian diregresikan, insya Allah dijamin 100% tidak akan mengalami multikolinieritas. :)

30 07 2008
Deny

#16
Puput
apr_xxxx@yahoo.com | 222.124.203.66

Waahh…seneng banget bisa nemu blog yang isinya statistik banget.

Boleh nanya kan Mas?
Saya lagi ngerjain TA. Masih bingung soal uji asumsi klasik.
Saat kapan itu digunakan?

Dari Statistika Parametrik dan Statistika Nonparametrik, 2008/07/29 at 10:59 AM

Respon untuk #16
Ok, pengujian asumsi klasik dilakukan SETELAH Anda mendapatkan model regresi linier. Model regresi linier yang Anda dapatkan pastilah berisi koefisien2 regresi (beta0, beta1, dst.). Koefisien2 regresi tersebut diperoleh dengan didasari oleh beberapa asumsi, yaitu yang kita kenal dengan asumsi klasik. Nah, untuk menguji apakah koefisien regresi yang diperoleh tersebut benar-benar sahih (benar; dapat diterima), atau dengan kata lain, semua asumsi dasarnya terpenuhi, maka perlu dilakukan uji asumsi klasik. :)

4 08 2008
QQ

#18
ass..mas deny..
1. aq mau nanya tentang uji sumsi klasik..aq dah regresi dataq, tp aq kesulitan dengan uji multi dan hetero..dataq time series, 13 tahun dgn 5 var dependen, setelah aq itung ternyata terjadi multi n hetero, gimana cara biar ga terjadi multi n hetero?soalny syarat OLS kan harus memenuhi uji asumsi klasik,..
2. perintah spss yang dipake buat ngitung hetero apa?aq takut salah masukain perintahnya…

4 08 2008
QQ

#18
tambahan pertanyaan mas ttg uji stasioner, perlu ga sih dataq di uji stasioner..kenapa?pake program apa..di spss ada ga ma?

4 08 2008
QQ

#18
bagaimana menginterpretasi intersep yang bernilai negatif…ada ga sih yg nilainya negatif?

4 08 2008
Ria

#19
Saya baca dari buku Sugiyono bahwa kalau data tidak pakai sample tapi berupa sensus itu tidak perlu uji signigikansi. Jadi proses apa saja untuk melakukan analisa regresi sederhana? Tahap-tahapnya gitu lho. Misal ada 30 responden untuk melihat pengaruh variabel x terhadap y naka kita buat tabel jawaban dari para responden tersebut. Lalu proses seterusnya apa ya? Tks.

5 08 2008
devi

#17
mas, aku kan pake regresi berganda, numpang nanya, kalo nguji asumsi klasik itu musti urut secara berkesinambungan ga si?
semisal, data udah lolos uji normalitas, tapi ga lolos uji heterokedastisitas. trus kan data ditransform dulu biar lolos… nah untuk uji berikutnya, pake data awal apa data yang udh di transform???
oiya, kalo transform data tuh, yg ditransform smua variabel data apa salah satu variabel yg ga lolos aja?
truss kalo pas uji asumsi klasik, kan Qta sempet transform data (yg mksd sblmnya,biar lolos uji asumsi klasik) pas ngeregresinya pake data yg hasil transforman ato data aslinya???
eiya mas, kalo ga lolos uji asumsi klasik, biasanya yang salah datanya ato cara ngujinya???
ada buku tentang transform data ga? tapi yg bukan teory… yg terapan gt….
ditunggu ya, jwbannya….
tararengkyu….

7 08 2008
magda

#20
Permisi Mas Deny,

saya mau tanya, soal analisis regresi yg pengujian t..

saya bingung analisisnya, bgini :

nilai t dari X1 saya 0.692
sedangkan nilai sig. nya = 0.491

bagaimana cara interpretasinya?

thanx.

8 08 2008
Shally

#21

Pak Deny saya mau tanya
hasil regresi saya menunjukkan
Y = 0.1089543737X1 – 0.0902898792X2+ 0.0001607632864X3 – 0.001051710799X4 + 1.284562475

1. R-Square = 0.06344
2. F-statistic = 0.94833
3. Prob(F-statistic) = 0.443056
4. Durbin-Watson stat = 1.745797

apakah regresi saya dapat diterima?kalo tidak bisa apa yang harus saya lakukan?

10 08 2008
Deny

Respon untuk #17
1. Pake data hasil transformasi. Namun demikian, saya TIDAK menyarankan untuk mentransformasi data. Misal untuk kasus heteroskedastisitas, saya lebih suka menggunakan metode WLS (Weighted Least Square), yaitu membentuk suatu variabel pembobot untuk menanggulangi ketidakhomogenan ragam error. Sedangkan untuk autokorelasi, lebih baik pelajari kembali kasus Anda, apakah ada variabel yang sangat berpengaruh tetapi tidak dimasukkan ke dalam model regresi. Penyebab autokorelasi biasanya adalah ada 1 atau beberapa variabel berpengaruh yang tidak dimasukkan ke dalam model regresi.
2. Sebenarnya, sebelum melakukan transformasi data, harus diketahui “karakter” dari ketidaksesuaian yang menyebabkan data harus ditransform. Bisa saja yang ditransform adalah variabel tersebut saja, namun ada juga yang seluruh variabel harus ditransformasi.
3. Saat analisis regresi, dalam kasus seperti yang Anda alami, data yang digunakan adalah data hasil transformasi. Kemudian setelah itu, model regresi di-back transform untuk mengembalikan ke kasus tanpa transformasi. Nah, saat itu, dibutuhkan sedikit (atau banyak) enumerasi (utak-atik rumus) matematika.
4. Kemungkinan besar penyebab pelanggaran asumsi klasik adalah karakteristik datanya sendiri.
5. Untuk buku terapan, saya tidak punya. Semua buku saya kebanyakan teoritis. Coba cari di internet, mungkin ada. :)

10 08 2008
Deny

Respon untuk #18 (digabung)

1. Untuk menginterpretasikan intersep, Anda harus kembali ke konsep teoritis dari penelitian Anda dan Anda sendiri yang paham. Nilai negatif bisa saja ada, tergantung kasusnya.
2. Pada umumnya, intersep tidak perlu diinterpretasikan. Hal ini karena biasanya data penelitian (var X) kita tidak mencakup nilai pengamatan x=0.
3. Menurut saya, semakin banyak kita melakukan uji asumsi, semakin terpercaya-lah informasi yang kita peroleh. Sejauh yang saya tahu, di dalam konsep regresi linier, asumsi stasioneritas jarang dipakai. Untuk kasus data time series, yang lebih sering dipakai adalah uji asumsi autokorelasi.
4. Apabila asumsi klasik terpenuhi semua, maka pada umumnya stasioneritas akan terpenuhi dengan sendirinya.
5. Untuk mengatasi multikol, cara yang paling gampang adalah dengan menambah data pengamatan. Bisa juga dengan metode stepwise, tapi berisiko akan mengeluarkan 1 atau beberapa variabel bebas dari model.
6. Untuk mengatasi heteroskedastisitas, gunakan wetode WLS (Weighted Least Square). Metode WLS akan membentuk sebuah variabel baru sebagai variabel sisipan di dalam proses perhitungan, bukan di dalam model. Sayang sekali, saya belum sempat menulis di weblog ini. coba cari di internet, insya Allah akan banyak sekali tulisan ttg WLS. :)

10 08 2008
Deny

Respon untuk #19
Jawaban dipindah ke Kategori regresi linier dan korelasi >> Regresi linier.
1. Betul, tidak perlu uji signifikansi jika yang digunakan adalah data populasi.
2. Untuk melakukan tahapan penelitian seperti yang Anda minta, coba:
– buat kuesioner dengan skala likert, di dalamnya akan berisi pertanyaan-pertanyaan
– uji validitas dan reliabilitas kuesionernya
– kalo dah valid dan reliabel, jalankan penelitian sesungguhnya
– data dari kuesioner kemudian di-ekstrak sehingga menjadi variabel latent.
– lakukan analisis regresi dengan data dari variabel laten.
3. Ingat, regresi linier mensyaratkan bahwa data untuk variabel Y setidak-tidaknya bertipe data interval.
4. Untuk meng-ekstrak variabel laten dari data kuesioner, Anda bisa baca tulisan sederhana saya “Semua tentang kuesioner”.
5. Diskusikan dulu dengan dosen Anda.

11 08 2008
devi

#22
makasih buat jawabannya ya mas,
he…aku masih bingung, WLS (Weighted Least Square) si kalo di SPSS itu gmn? sama ga… sama OLS??
karakter data itu apa si?? apa maksudnya teorinya???
mas, nanti aku nanya2 lagi, boleh ya….

11 08 2008
Deny

Respon untuk #20
1. Itu berarti secara parsial koefisien regresi untuk X1 tidak signifikan.
2. Interpretasi: Secara parsial (individual), variabel X1 tidak signifikan memberikan kontribusi terhadap variabel Y. Dengan kata lain, pengaruh /kontribusi var X1 terhadap Y tidak nyata.

11 08 2008
Deny

Respon untuk #21
1.Wah, nampaknya model regresi Anda belum bisa diterima. Semua statistik uji-nya gak bagus.
2. Ada kemungkinan, model regresi nya perlu ditambahkan suatu variabel kuadratik atau bahkan kubik. Saya tidak bisa memutuskan, karena saya belum lihat kasusnya.
3. Coba diplotkan (scatterplot) satu persatu, antara X1-Y, X2-Y, X3-Y dan X4-Y. Coba lihat bentuk hubungannya secara grafis. Saya yakin sekali, ada 1 atau beberapa hubungan yang tidak/kurang bisa diwakili oleh garis linier. :)

11 08 2008
Deny

Respon untuk #22
1. WLS itu sebuah metode untuk mengatasi ketidakhomogenan ragam dari error.
2. Ada langkah2 yang perlu dilakukan:
– Lakukan regresi Y terhadap X1, X2,…, dst
– Dapatkan nilai residual e
– Kuadratkan nilai residual, disimpan pada variabel e2
– Lakukan regresi: e2 terhadap X1, X2, …, dst, dan dapatkan nilai residual
– Nah, nilai residual inilah sebagai variabel pembobot di dalam regresi anda, tapi tidak termasuk ke dalam model sistematik regresi Anda. Maksudnya, penulisan model regresinya gak perlu ditulis dengan penambahan e2, misal: Y = x1+ x1 + … + e2.
– Kemudian, pelajari dulu teori WLS. kalo saya bahas di sini, gakl bakalan muat.
3. Tadi itu, langkah2 inti dari WLS.
4. Coba cari di internet tentang WLS. Maaf, saya belum sempat buat artikelnya, coz lagi sibuk kerja.
5. Saya persilahkan kalo mbak devi mau tanya2 lagi…semoga saya bisa bantu ya… :)

13 08 2008
devi

#23
he… makasih lagi ya mas,
eiya, mas, perlu diketahui data saya adalah data panel (data time seris dan crossection) dari tahun 2003-2007, dari 3 perusahaan, diambil secara 3bulanan.

waktu tempo hari coba uji asumsi klasik, hanya uji normalitas yang lolos, selebihnya engga lolos.
truss sambil belajar WLS seperti saran mas deni, kemarin ada teman saya yang menyarankan untuk mengacak data biar lolos uji asumsi klasik. setelah saya coba mengacak data saya supaya tidak urut, rupanya uji asumsi klasik(termasuk heterokedastisitas) bisa dilewati kecuali autokorelasi.

pertanyaaannya,
1. langkah yang saya jalani seperti mengacak data, diperbolehkan apa ga si???? emangnya Qta boleh mengotak-atik data(bagaimanapun caranya) supaya lolos uji asumsi klasik? apa dibenarkan???
2. selain coba menganalisis data dengan SPSS, saya juga mencoba dengan e-views, tapi saya bingung… hasil uji e-views kok lebih besar dr SPSS? kan saya pernah baca tulisan mas deni kalo apapun programnya, sebenernya analisis datanya ya sama. kok waktu saya coba, beda ya???
3. kan di e-views ada spesialis untuk data panel, kalo di SPSS ada ga ?? mas deni bisa nunjukin ga??? (soalnya dosenku minta aku pake SPSS)
4. gmn menanggulangi otokorelasi???

he, mas deni jangan bosen dulu ya,,,
trimakasih buat jawabannya….:)

15 08 2008
Deny

respon untuk #23
1. Mengacak data? Selama saya kuliah, saya belum pernah menemukan metode mengacak data, apa saya yang kurang belajar ato gimana saya kurang tahu. Selain itu, bagaimana langkah2 yang Devi lakukan dalam mengacak data dan apa dasar hukumnya sehingga mengacak data diperbolehkan? Menurut saya, walaupun data urutannya diacak, hasil uji asumsi klasik regresi akan tetap sama, asalkan pengacakannya konsisten, yaitu, kalo data ke-1 dipindahkan ke urutan ke 10, maka baik data ke-1 pada var x maupun data ke-1 var y juga harus dipindahkan ke urutan 10, bukan hanya salah satu variabel saja. Namun tetap saja, kasus Anda tidak relevan jika diterapkan pengacakan data, karena data Anda merupakan data panel yang juga mengandung data time series (berurut). Oleh karena itu, saran saya, jangan dulu menerapkan konsep pengacakan data, konsultasikan dengan dosen Anda.
Kita diperbolehkan mengotak-atik data, asalkan ada dasar hukum ilmiah, misal transformasi data.
2. Kalo angkanya beda-beda dikit, itu wajar, karena bahasa program yang digunakan e-views dan SPSS kemungkinan beda. Selain itu, spesifikasi hardware komputer Anda juga turut mempengaruhi. Namun demikian, bedanya boleh dikatakan tidak signifikan. Mungkin perbedaan hanya pada nilai desimal, itupun mungkin desimal ke-16. Seperti halnya software R dengan SPSS, pasti ada sedikit perbedaan. Boleh dikatakan software R lebih presisi dari SPSS, karena software R didisain spt itu, mengingat software R adalah software statistika untuk riset. Tapi kalo perbedaannya terlalu besar, misal terpaut kira2 10 atau 15, maka saya kuatir, itu adalah human error, bukan salah software-nya.
3. Maaf saya kurang tahu. Saya sudah lama beralih ke software R.
4. Penyebab utama autokorelasi adalah adanya 1 atau beberapa variabel berpengaruh yang tidak dimasukkan ke dalam model. Mungkin ada faktor-faktor lain yang berpengaruh, misalnya faktor musiman. Sedangkan metode transformasi data yang sering digunakan adalah: Cochrane-Orcutt Procedure, Hildreth-Lu Procedure dan First Difference Procedure.

Nggak Mbak, saya gak pernah bosen sama mbak Devi. Jangan kemakan perasaan sendiri yang gak beralasan gitu dong. hehehe :)

16 08 2008
devi

#24
he….he…he… kmrn aku juga dibilang ngawur sama dosen ku….
sekarang aku ikut saran mas Deny aja lah….

kemarin aku coba langkah2 WLS dari mas Deny, alhamdulillah Berhasil… tapi sekarang berenti di Multikolinearitas….
aku udah caba transform gitu…. ngubah X jadi 1\X , akarX, Xkuadrat… tetep aja VIF nya masih juga lebih dari 10…
mas, kasih langkah2 buat ngatasin multikolinearitas kaya waktu mas Deny kasih tau tentang WLS dong….

makasih ya….

22 08 2008
Deny

Respon untuk #24
1. Saya mengucapkan Alhamdulillah juga deh.
2. Transformasi data untuk mengatasi multikolinieritas BUKANLAH dengan cara mengubah X menjadi 1/X, akar X, X kuadrat atau semacamnya.
3. Langkah-langkah yang saya sarankan adalah:
– tambahi banyaknya data n, misal kalo sekarang banyak data n = 20, coba beri tambahan data lagi misal sebanyak 4 data lagi sehingga sekarang n menjadi 24. Kalo masih belum berhasil, tambahi lagi datanya sehingga n menjadi lebih banyak lagi. Lakukan analisis regresi.
– kalo penambahan data spt itu belum juga berhasil, maka memang terdapat 1 atau beberapa variabel prediktor sebagai penyebab multikolinieritas. Untuk itu, variabel tersebut sebaiknya dikeluarkan dari model regresi. Metode yang tepat digunakan adalah STEPWISE method. Beberapa software seperti SPSS punya fasilitasnya.
– ada metode lain yang bisa digunakan, tapi tergolong sulit untuk orang2 nonstatistika, yaitu metode Ridge Regression. Metode Ridge Regression mencoba mentransformasi data dengan cara mencari sebuah konstanta c, dimana konstanta c tersebut dapat menanggulangi multikolinieritas.
4. Namun demikian, saran yang sangat saya anjurkan adalah dengan cara penambahan banyaknya data pengamatan n. Sebab, Devi tidak perlu pusing-pusing melakukan back-transforming. :)

6 09 2008
amanda

#26
pak deny, skripsi saya menggunakan regresi linear berganda,dengan spss metode backward dan non intersep(tidak ada nilai konstan).yg mau sy tanyakan :
– apakah data yang memakai non intersep selalu ada mslh heteroskedastisitas?krn data saya terjadi mslh tsb.
– bagaimana cara menanggulanginya?
– nilai VIF saya 2,059 apakah itu berarti terdapat mslh multikol?karena saya dpt byk jwbn ttg batas nilai multikol.ada yg blg 1,5 dan 10.mana yg benar?
ditunggu jawabannya..thanx.

8 09 2008
tantodikdik

#25
mas, gimana cara menentukan bahwa dalam data regresi kita ada multikol atau tidaknya? saya masih bingung. saya sedang skripsi dan mengolah dengan eviews. bagaimana cara tau ada tidaknya multikol dengan eviews.

17 09 2008
Deny

Respon untuk #25
Multikol bisa dilihat dari statistik Uji VIF (Variance Inflation Factor). Kalo nilai VIF > 10, maka itu adalah indikasi adanya multikolinieritas. Coba baca tulisan saya tentang Regresi Linier dalam format PDF di kategori: Regresi Linier dan Korelasi> Regresi Linier. Tulisannya sederhana, tapi sapa tau bisa bantu dikit2. :)

17 09 2008
Deny

Respon untuk #26
1. Bisa saja (tidak selalu) terjadi heteroskedastisitas walau tanpa intersep.
2. Untuk menanggulangi hetrosekedastisitas, gunakan metode WLS (Weighted Least Square). Coba cari refrensinnya ya.
3. Nilai VIF 2.059 berarti tidak terjadi multikolinieritas.
4. Nilai batas multikol adalah 10. Apabila VIF > 10, itu berarti terjadi multikolinieritas.

24 09 2008
tu

#27
Pak Deny, Salam Kenal. Pak saya mau tanya. Skripsi saya menggunakan hanya satu variabel bebas. Untuk pengujian sebelum masuk ke regresi sederhana, boleh atau tidak kalau hanya menggunakan uji normalitas saja. Sebelumnya terimakasih atas jawabannya.

6 10 2008
Deny

Respon untuk #27
1.SEmua uji asumsi klasik regresi linier, baik itu sederhana maupun berganda, dilakukan setelah membentuk model regresi nya. Jadi, lakukan dulu analisis regresi nya, kemudian lakukan uji normalitas.
2. Menurut saya, jangan cuma normalitas aja yang diuji, heteroskedastisitas dan autokorelasi juga perlu :)

3 11 2008
aline

#28
Halo Pak Deny,

Saya sedang melakukan uji regresi untuk penelitian tugas akhir. Persamaan regresinya adalah sbb :

Y = -0.346 + 0.189 X1 + 0.085 X2 + 0.480 X3 – 0.187 X4 + 0.152 X5

– Apakah model regresi tersebut dapat diterima ? (R squared = 0.366)
– Apakah arti dari nilai negatif pada konstanta regresi?

Untuk uji hipotesis nya,saya melakukan t test dan melihat p-value.
Yang ingin saya tanyakan, bagaimana sebaiknya kita mendefinisikan H0 dan H1? Dari beberapa sumber, disebutkan bahwa H0 merupakan hipotesa yang kita yakini. Untuk itu, saya menganggap semua variabel independen dalam penelitian saya akan mempengaruhi variabel dependennya sehingga H0 untuk semua variabel positif (mempengaruhi) dan H1 nya negatif (tidak mempengaruhi). Namun dalam hasil akhir, ternyata hanya 1 variabel independen yang mempengaruhi var.dependennya. Bagaimana menurut Bpk?
Terima kasih

4 11 2008
Deny

Respon untuk #28

1. Model regresi baru bisa dikatakan diterima bila asumsi klasik regresi linier sudah terpenuhi, ditambah uji simultan (uji F) yang menyatakan bahwa model layak diterima (H0 ditolak). Jadi, tidak cukup hanya dengan R-sq aja loh…

2. Saya tidak bisa mengartikan nilai negatif dalam kasus Anda karena saya tidak tahu latar belakang penelitian Anda.

3. Ya, H0 berarti sebelum ada bukti yang akurat dari hasil analisis data, maka kondisi yang disebutkan di H0 adalah benar. Jadi, boleh berpendapat bahwa H0 itu yang kita anggap benar, sebelum ada bukti kuat dari data (analisis data).

4. Suatu variabel dikatakan mempengaruhi var Y tidak ditentukan dari tanda nya. Itu teori dasar nya. Namun, jika penelitian Anda (dari dasar teori yang melatarbelakangi kasus Anda) menyatakan bahwa tanda + berarti var x berpengaruh terhadap Y, itu suatu pengecualian). kalo saya berangkat dari dasar teori statistika, maka tanda negatif itu sebenarnya berpengaruh terhadap Y, namun tidak semakin menambah nilai Y, tapi justru setiap peningkatan 1 satuan var X, akan mengurangi var Y.

5. Perbedaan tanda koefisien regesi antara dasar teori penelitian dengan hasil analisis data biasanya disebabkan oleh tidak terpenuhinya suatu asumsi yang menyatakan bahwa antar var X tidak terjadi multikolinieritas. Coba cek lagi ya…Sapa tahu tandanya bisa berubah…
:)

Tinggalkan Balasan

Isikan data di bawah atau klik salah satu ikon untuk log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Logout / Ubah )

Twitter picture

You are commenting using your Twitter account. Logout / Ubah )

Facebook photo

You are commenting using your Facebook account. Logout / Ubah )

Google+ photo

You are commenting using your Google+ account. Logout / Ubah )

Connecting to %s




Ikuti

Get every new post delivered to your Inbox.

Bergabunglah dengan 88 pengikut lainnya.

%d bloggers like this: