Professional Documents
Culture Documents
Eigen Mathematics Journal: Analisis Masalah Heteroskedastisitas Menggunakan
Eigen Mathematics Journal: Analisis Masalah Heteroskedastisitas Menggunakan
ABSTRACT
Regression analysis is one statistical method that allows users to analyze the influence of one or more independent
variables (X) on a dependent variable (Y). The most commonly used method for estimating linear regression parameters
is Ordinary Least Square (OLS). But in reality, there is often a problem with heteroscedasticity, namely the variance of
the error is not constant or variable for all values of the independent variable X. This results in the OLS method being
less effective. To overcome this, a parameter estimation method can be used by adding weight to each parameter, namely
the Generalized Least Square (GLS) method. This study aims to examine the use of the GLS method in overcoming
heteroscedasticity in regression analysis and examine the comparison of estimation results using the OLS method with
the GLS method in the case of heteroscedasticity. The results show that the GLS method was able to maintain the nature
of the estimator that is not biased and consistent and able to overcome the problem of heteroscedasticity, so that the GLS
method is more effective than the OLS method.
Keywords :Classical Assumption Violation, Estimator Effectiveness,Generalized Least Square, Ordinary Least Square,
Regression Analysis
* Corresponding author.
Email: ikahip@gmail.com
1. Pendahuluan 2. Landasan Teori
Istilah regresi pertama kali diperkenalkan oleh Sir 2.1 Analisis Regresi
Francis Galton pada tahun 1886. Analisis regresi pada Analisis Regresi (regression analysis) merupakan
dasarnya adalah studi mengenai ketergantungan variabel suatu teknik untuk membangun persamaan garis lurus yang
dependen (terikat) dengan satu atau lebih variabel independen selanjutnya digunakan untuk membuat suatu perkiraan.
(bebas), dengan tujuan untuk mengestimasi atau memprediksi Prinsip dasar yang harus dipenuhi dalam membangun suatu
rata-rata populasi atau nilai rata-rata variabel dependen persamaan regresi adalah bahwa antara variabel dependen
berdasarkan nilai variabel independen yang diketahui dengan variabel independennya mempunyai sifat hubungan
(Gujarati, 2004). Dalam analisis regresi harus memperhatikan sebab akibat (hubungan kausalitasi), baik yang didasarkan
beberapa asumsi, yaitu multikolinearitas, heteroskedastisitas, pada teori, hasil penelitian sebelumnya, ataupun yang
autokorelasi, normalitas dan linearitas. Namun dalam didasarkan pada penjelasan logis tertentu (Algifari, 2000).
penelitian ini akan difokuskan pada uji asumsi
heteroskedastisitas karena di dalam beberapa kasus terlihat Bentuk umum analisis regresi adalah
adanya perbedaan variansi dari error suatu pengamatan Y i=β 0 + β 1 X 1 i+ β 2 X 2 i +…+ β k X ki + ε i ,i=1,2 , … , n
kepengamatan lain (Quadratullah, 2012). yang paling (2.1)
berpengaruh terhadap klasifikasi hotel di Pulau Lombok dan Keterangan:
menentukan ketepatan klasifikasinya.
Yi : variabel dependen ke-i
Terjadinya heteroskedastisitas dapat dilihat dari hasil
X ki : variabel independen dengan k =1,2 , … , j
estimasi Ordinary Least Square (OLS) yang diperoleh tetap
bersifat linier dan tak bias, tetapi variansi yang diperoleh β 0 , β 1 , … , β k : parameter yang tidak diketahui nilainya
menjadi tidak efisien, artinya variansi cenderung membesar
atau tidak lagi merupakan variansi yang minimum sehingga dan akan diestimasi
estimasi yang diperoleh tidak lagi BLUE (Best Linear
Unbiased Estimator). Akibat dari variansi yang tidak lagi εi : variabel galat/kesalahan regresi
minimum yaitu perhitungan standard error metode Ordinary n : banyaknya data observasi
Least Square (OLS) menjadi tidak bisa dipercaya
kebenarannya. Standard error ini memiliki peran dalam Untuk melakukan analisis regresi yang benar
pembentukan t hitung maupun F hitung. berdasarkan metode kuadrat terkecil maka harus memenuhi
asumsi-asumsi yang telah ditentukan. Asumsi yang
Dengan demikian masalah heteroskedastisitas harus diperlukan dalam metode kuadrat terkecil, yaitu:
diatasi terlebih dahulu untuk memenuhi asumsi-asumsi yang 1. Normalitas
ditentukan. Ada beberapa cara untuk mengatasi Asumsi kenormalan harus terpenuhi untuk
heteroskedastisitas. Uthami, dkk. (2013) mencoba mengatasi mengetahui apakah error dari data berdistribusi normal
heteroskedastisitas dengan metode Regresi Kuantil Median. atau tidak atau untuk mengetahui apakah data sampel
Selain itu heteroskedastisitas dapat pula diatasi dengan metode berasal dari populasi yang berdistribusi normal.
Generalized Least Square (GLS) yang merupakan 2. Homoskedastisitas
pengembangan dari Ordinary Least Square (OLS). Homoskedastisitas yaitu varians dari error bersifat
konstan untuk semua nilai dari variabel independen X. Uji
Metode GLS (Generalized Least Square) dipilih dalam homoskedastisitas digunakan untuk menguji apakah dalam
penelitian ini karena adanya nilai lebih yang dimiliki oleh model regresi linear error mempunyai varians yang sama
GLS dibandingkan OLS dalam mengestimasi parameter atau tidak dari satu pengamatan ke pengamatan lain.
regresi dan menurut Iswati, dkk. (2014) bahwa parameter GLS 3. Non-Autokorelasi
lebih efisien dan stabil dibandingkan parameter OLS. Metode Nilai error setiap pengamatan pada setiap variabel
OLS yang umum tidak mengasumsikan bahwa variansi independen bersifat bebas. Uji autokorelasi digunakan untk
variabel adalah heterogen. Metode GLS sudah menguji apakah dalam sebuah model regresi linear terdapat
memperhitungkan heterogenitas yang terdapat pada variabel korelasi antara error pada periode t dengan error pada
independent secara eksplisit, sehingga metode ini mampu periode t-n (sebelumnya).
menghasilkan estimator yang memenuhi kriteria BLUE (Best 4. Non-Multikoliniearitas
Linear Unbiased Estimator) (Gujarati, 2004). Selain itu Multikolinearitas adalah suatu kondisi dimana terjadi
metode ini adalah untuk mencegah heteroskedastisitas agar korelasi yang kuat diantara variabel independen yang
tetap mendapatkan estimasi yang tidak bias, konsisten, dan diikutsertakan dalam pembentukan model regresi linear
efisien. berganda. Jadi, Non-multikolinearitas artinya tidak terjadi
korelasi yang kuat di antara variabel independen X.
bahwa terdapat heteroskedastisitas pada data (Suliyanto,
2.2 Heteroskedastisitas 2011).
Menurut Nachrowi (2006) salah satu asumsi penting 2. Metode Glejser
dalam membuat model Regresi adalah var (ε i ) harus sama Uji hetroskedastisitas dengan metode Glejser
dilakukan dengan meregresikan semua variabel independen
dengan σ 2 (konstan) atau semua residual atau error
terhadap nilai mutlak errornya. Jika terdapat pengaruh
mempunyai variansi yang sama. Kondisi seperti ini disebut variabel independen yang signifikan terhadap nilai mutlak
dengan Homoskedastisitas. Sedangkan apabila variansi errornya maka dalam model terdapat masalah
tidak konstan atau berubah-ubah disebut heteroskedastisitas (Suliyanto, 2011).
Heteroskedastisitas.
2.3 Ordinary Least Square (OLS)
Konsekuensi dari pelanggaran asumsi
homoskedastisitas adalah sebagai berikut : Metode kuadrat terkecil adalah estimasi parameter
1. Penduga (estimator) yang diperoleh tetap memenuhi yang sering digunakan dalam analisis regresi dengan tujuan
persyaratan tidak bias. Sifat ketidak biasan tidak tergantung meminimumkan jumlah kuadrat error (sum square error)
pada variansi galat. Jika dalam model regresi ada (Andani dan Widodo, 2016).
heteroskedastisitas, maka tetap diperoleh nilai parameter
yang tidak bias karena sebagai penduga tidak bias tidak Menurut Gujarati (2004), estimasi ^
β 0, ^β 1, ^β 2,..., ^β k
memerlukan asumsi bahwa variansi galat harus konstan. dengan menggunakan kuadrat terkecil dapat diperoleh
2. Variansi penduga yang diperoleh akan menjadi tidak dengan meminimumkan jumlah kuadrat error
efisien, artinya penduga tersebut tidak memiliki variansi ε i=Y i− β^ 0− β^ 1 X 1 i− ^β 2 X 2i −⋯− ^β k X ki
terkecil di antara penduga-penduga tidak bias lainnya.
dimana ε =Y − X ^β.
n
Sehingga ∑ ε i2=ε T ε
i=1
¿(Y −X ^β)T (Y − X β^ )
¿ ( Y T − ^β T X T )( Y −X ^β )
¿ Y T Y −Y T X ^β− ^β T X T Y + ^β T X T X β^
(2.3)
Gambar 2. 1 Pola hipotesis kuadrat error yang ditaksir
Selanjutnya, untuk menentukan estimator regresi
Gambar 2.1 (a) dapat dilihat bahwa tidak ada pola yang linear dapat dihitung dari turunan pertama persamaan
sistematis antara dua variabel yang menyatakan bahwa
tidak ada heteroskedatistisitas pada data, namun gambar (b)
β T dan disamakan hasilnya
(2.22) secara parsial terhadap ^
dengan nol.
sampai (e) menunjukkan pola tertentu yang menyatakan
∂(ε T ε ) ∂ (Y T Y −Y T X β−^ ^βT X T Y + ^β T X T X ^β ) Var ( ε ¿ )=E {[ε ¿ – E (ε ¿ )][ε ¿ – E( ε ¿ )]T }
=
∂ ^βT ∂ ^βT ¿ E( ε ¿ ε ¿T )
∂(ε T ε ) (2.4 ¿ E( K −1 ε ε T K−1 )
=−X T Y + X T X ^β
∂ ^β T ) ¿ K −1 E( ε ε T )K −1
∂ (εT ε ) ¿ σ 2 K−1 V K −1
=0 ¿ σ 2 K−1 K K K −1
∂ ^β T
T T ¿ σ2 I
−X Y + X X ^β=0
X T X β^ =X T Y Setelah ditransformasi ternyata model regresi
^β=( X T X )−1( X T Y ) (2.5 memenuhi asumsi regresi klasik tidak adanya autokorelasi
) yaitu E( ε )=0 dan homoskedasitas Var ( ε ¿ )=σ 2 I .
¿
−1 konsisten.
¿ I β + ( X T V −1 X ) X T V −1 ε −β
−1
¿ ( X T V −1 X ) X T V −1 ε 4.1.2 Pembahasan Hasil Perbandingan Estimator OLS
T dan GLS
var ( ^β GLS ) =E[ ( ^β−β )( ^β−β ) ] ¿ E ¿
−1 −1
¿ E[ ( X T V −1 X ) X T ε ε T V −1 X ( X T V −1 X ) ] Dari hasil perbandingan estimator OLS dan GLS
T −1 −1 T T −1 T −1 −1 berdasarkan sifat estimator, diketahui bahwa estimator
¿ ( X V X ) X E( ε ε ) V X ( X V X ) OLS dan GLS memenuhi sifat estimator tak bias dan
−1
¿ ( X T V −1 X ) X T σ 2 I V −1 X ( X T V −1 X )
−1
konsisten. Namun, jika dibandingkan dengan sifat variansi
−1 −1 minimum bahwa GLS lebih efisien karena memliki
¿ σ 2 ( X T V −1 X ) X T V −1 X ( X T V −1 X ) variansi lebih minimum sehingga metode GLS lebih dapat
¿ σ 2 ( X T V −1 X )
−1 digunakan untuk melakukan estimasi parameter. GLS
(Generalized Least Square) sebagai salah satu bentuk dari
pengembangan estimasi least square, merupakan bentuk
3. Konsisten
estimasi yang dibuat untuk mengatasi sifat
heteroskedastisitas yang memiliki kemampuan untuk
Untuk menentukan estimator bersifat konsisten mempertahankan sifat efisiensi estimatornya tanpa harus
menggunakan ketidaksamaan Chebyshev’s yaitu : kehilangan sifat unbiased dan konsistensinya. Walaupun
1 metode ini merupakan pengembangan Ordinary Least
P (| X−μ x́|< k σ x́ ) ≥ 1−
k2 Square untuk mengatasi heteroskedastisitas, namun metode
Diperoleh : ini juga bisa digunakan pada data yang homoskedastisitas.
a. μ x́ =E ( ^β OLS ) =β 4.2 Penerapan Prosedur Estimasi pada Data
−1
b. σ 2x́ =var ( β^ OLS ) =σ 2 ( X T X ) Bangkitan
Pada bagian ini diuraikan hasil penerapan estimasi
1 regresi dengan GLS pada data bangkitan yang diolah
Jadi:P (| ^β−β|<k σ ^β ) ≥ 1− 2 menggunakan software matematika R i386 3.4.1. Data
k yang dibangkitkan merupakan pasangan data dari model
σ regresi linier berganda dengan dua variabel bebas dan satu
Misalkan : ε =k variabel terikat. Pada pembangkitan galat/error digunakan
√ XT X error yang mengikuti model autoregressive orde AR(1)
ε √ XT X dengan ρ yang digunakan adalah 0.8 , 0.5 dan 0.2
k=
σ sehingga memungkinkan model regresi yang diperoleh
ε ( X T X)
2 memiliki sifat yang tidak independent dan
k 2= heteroskedastisitas. Sedangkan data variabel bebas X 1 dan
σ2
Sehingga :
X 2 yang digunakan mengikuti sebaran uniform (0,1).
1 Adapun data variabel terikat , diperoleh dengan beberapa
^ |< ε ) ≥ 1−
P (|β−β persamaan, yaitu Y i= X 1 i+ X 2 i+ e
ε (X T X )
2
Data bangkitan yang digunakan merupakan pasangan
σ2 data dengan beberapa n , yaitu n=30 n=60 dan n=100.
^ |< ε ) ≥ 1− σ2
P (|β−β 4.2.1 Hasil Penerapan untuk Data Simulasi dengan
ε 2 (X T X ) Y i= X 1 i+ X 2 i+ e
2
σ
lim P (|β−
x→ ∞
^ β|< ε ) ≥ lim ¿ 1−
x→∞ (
ε2 ( X T X )
=1 ¿
dengan
)
Berdasarkan data bangkitan berukuran
minimum 0 dan maksimum 1 dengan
n=30
Dengan demikian ^ β OLS merupakan estimator Y i= X 1 i+ X 2 i+ e dan error mengikuti AR(1) dengan
konsisten bagi β ,sedangkan ^β GLS analogi dengan OLS ρ=0,8 dilakukan estimasi parameter regresi dengan
didapatkan : metode OLS menggunakan persamaan normal yang
σ2 disusun dalam bentuk matriks pada persamaan sebagai
lim P (|β−
x→ ∞
^ β|< ε ) ≥ lim ¿ 1−
x→∞ ( ε 2 ( X T V −1 X ) ) =1¿ berikut:
−1 Dengan hipotesis sebagai berikut :
^β 0 N ∑ x1 ∑ x2 ∑y
[][
^β 1 =
^β 2
∑ x1
∑ x2
30
∑ x12 ∑ x1 x 2
∑ x 1 x2 ∑ x 22
15,97 18,13
][ ]
−1
20,14
∑ x1 y
∑ x2 y
H0: error mempunyai varian yang sama atau tidak terjadi
heteroskedastisitas
H1: error mempunyai varian berbeda atau terjadi
heteroskedastisitas
[
¿ 15,97
18,13
0,39
10,08 9.56
9.56 13,29 ][ ]
15,04
17,97
❑
−0,35 −0,27 20,14
Tabel 4. 2 Hasil Uji Glejser OLS untuk data bangkitan
Variabel
|ε|= X 1 i+ X 2 i+ e
Estimate Standard t-hitung p-
[
¿ −0,35
−0,27
0,64
0,02
0,02
0,43 ][ ]
15,04
17,97
Konstanta
X1
0.02
0.89
Eror
0.63
0.81
0.04
1.09
value
0.97
0.29
X2 1.48 0.67 2.22 0.04
−2,43
[ ]
¿ 2,89
2,59
Berdasarkan tabel 4.2 dapat dilihat nilai p-value ¿
α =0,05 adalah parameter β 2 sebesar 0,04 yang artinya
H0 ditolak, sehingga dapat disimpulkan bahwa error
mempunyai varian berbeda atau terjadi heteroskedastisitas.
Berikut ini adalah hasil estimasi OLS menggunakan 3. Independensi Error
software R dalam bentuk tabel dan diperoleh hasil berikut Salah satu uji yang dapat dilakukan untuk menguji
Tabel 4. 1 Hasil OLS untuk bangkitan Independensi error adalah uji Durbin Watson. Pada uji
Y i= X 1 i+ X 2 i+ e Durbin Watson, hipotesis yang diuji adalah
H0 : ρ s=0
Variabel Estimate Varian H1 : ρ s ≠ 0
Konstanta -2.43 0.39 Dengan n=30 dan k =2 didapat nilai dL sebesar
X1 2.89 0.64
1,18 dan dU sebesar 1,46 dari tabel Durbin Watson,
X2 2.59 0.43
sedangkan hasil analisis Durbin-Watson dengan nilai
statistik uji diperoleh berdasarkan persamaan sebagai
Berdasarkan tabel 4.1 didapatkan nilai sebesar -2,43 berikut:
untuk parameter regresi β 0, 2,89 untuk parameter β 1, 2,59 n
[ ]
X2 0.63 0.82 0.77 0.45
ρ 1 ρ ⋯ ρ48
1
V= 2 ρ2 ρ 1 ⋯ ρ47 : Berdasarkan tabel 4.4 dapat dilihat nilai parameter
( 1−ρ ) ⋮ memiliki nilai p-value ¿ α =0,05 yang artinya H0
⋮ ⋮ ⋱ ⋮
diterima, sehingga dapat disimpulkan bahwa error
ρ49 48
ρ ρ 47 ⋯ 1 mempunyai varian yang sama atau tidak terjadi
Karena error mengikuti AR(1 ¿ dengan nilai ρ adalah heteroskedastisitas.
parameter dari AR(1 ¿ yaitu ρ=0.8 menurut Iswati, 3. Independensi Error
(2014). Sehingga dilakukan estimasi menggunakan GLS Salah satu uji yang dapat dilakukan untuk menguji
dan diperoleh hasil sebagai berikut : Independensi error adalah uji Durbin Watson. Pada uji
Tabel 4. 3 Hasil GLS untuk data bangkitan Durbin Watson, hipotesis yang diuji adalah
Y i= X 1 i+ X 2 i+ e H0 : ρ s=0
H1 : ρ s ≠ 0
Variabel Estimate Varian Dengan n=30 dan k =2 didapat nilai dL sebesar
Konstanta -0.57 0.87 1,18 dan dU sebesar 1,46 dari tabel Durbin Watson,
X1 -0.08 0.57 sedangkan hasil analisis Durbin-Watson dengan nilai
X2 1.34 0.31 statistik uji diperoleh berdasarkan persamaan sebagai
berikut:
Berdasarkan tabel 4.3 hasil estimasi dengan GLS n
|ε|= X 1 i+ X 2 i+ e β2 1.52
0.33
60 0,8
β0 -0.40
0.09 ya tidak tidak
β2 0.89 0.07
β1 1.05
0.19 0,5
β0 2.34 0.08 ya ya tidak
β2 1.52
0.18
β1 0.48 0.09
0,5
β0 -0.63
0.12 ya tidak tidak
β2 -1.42 0.09
β1 1.18
0.22 0,2
β0 0.03 0.02 ya ya tidak
β2 1.67
0.23
β1 0.97 0.00
0,2
β0 -0.11
0.09 ya tidak ya
β2 0.93 0.00
β1 1.41
0.20
β2 1.01
0.20
Dari hasil tabel 4.5 dan 4.6 dapat dibentuk grafik untuk
10
0
0,8
β0 1.06 0.09 ya tidak tidak
varian OLS dan GLS seperti berikut :
β1 1.47 0.12
β2 -0.11 0.12
0,5
β0 0.06 0.07 ya tidak tidak
β1 0.96 0.14
β2 1.12 0.12
0,2
β0 -0.00 0.02 ya tidak tidak
β1 0.99 0.00
β2 0.95 0.00
β1 -0.08 0.57
β2 1.34 0.31
0,5
β0 -0.25 0.25 ya ya Tidak
β1 1.35 0.36
β2 0.98 0.25
0,2
β0 -0.04 0.23 ya ya Ya
β1 0.90 0.36
β2 1.11 0.40
60 0,8
β0 -0.38 0.41 ya ya Tidak
β1 1.09 0.11
β2 1.11 0.12
0,5
β0 -0.39 0.15 ya ya Tidak Gambar 4.1 Nilai Variansi OLS dan GLS AR( ρ=0.8)
β1 0.67
0.19
β2 1.69
0.18
0,2
β0 -0.02 0.09 ya ya Ya
β1 1.28 0.19
β2 0.95 0.21
10 0,8
β0 0.79 0.27 ya ya tidak
Gambar 4.3 Nilai Variansi OLS dan GLS AR( ρ=0.2)
5. Kesimpulan
DAFTAR PUSTAKA