Download as docx, pdf, or txt
Download as docx, pdf, or txt
You are on page 1of 12

UJIAN TENGAH SEMESTER STRUKTUR DATA

NAMA : NALDA HAVID


NIM : F1A220014
KELAS : B
PRODI : STATISTIKA

Soal:
1. Buatlah makro atau coding program regresi linier berganda lengkap dengan asumsi
residualnya!
Jawab:
1. Berikut program regresi linier berganda dengan uji asumsi residualnya. Adapun data yang
digunakan yaitu:
Kepadatan Tingkat Angka Harapan
Provinsi Penduduk Pengangguran hidup (%)
(jiwa/km2) Terbuka (%)
Aceh 83 10.12 69.40
Sumatra Utara 186 6.45 69.90
Sumatra Barat 121 7.02 70.09
Riau 69 5.48 71.73
Sumatra Selatan 85 4.84 70.10
Bengkulu 91 4.61 70.44
Lampung 229 5.69 70.09
Kepulauan Riau 227 5.63 69.90
DKI Jakarta 15015 8.63 73.56
Jawa Barat 1282 9.16 68.84
Jawa Tengah 1014 6.01 71.97
DI Yogyakarta 1147 3.24 73.62
Jawa Timur 803 4.30 70.37
Bali 702 1.83 71.20
Nusa Tenggara Barat 254 5.30 63.21
Nusa Tenggara Timur 102 3.25 68.05
Kalimantan Barat 32 3.99 67.40
Kalimantan Tengah 16 3.00 71.47
Kalimantan Selatan 99 3.66 64.82
Kalimantan Timur 19 7.95 71.78
Sulawesi Utara 170 6.79 72.62
Sulawesi Tengah 45 4.19 67.21
Sulawesi Selatan 179 5.10 70.60
Sulawesi Tenggara 63 4.38 68.56
Gorontalo 98 4.15 67.54
Sulawesi Barat 64 2.35 68.34
Maluku 35 9.91 67.88
Maluku Utara 35 3.80 66.97
Papua Barat 9 4.40 69.14
Papua 10 3.15 69.13
Sumber:BPSpusat
Variabel respon: (Y) = Kepadatan Penduduk (jiwa/Km2)
Variabel predictor: (X1) = Tingkat Pengangguran Terbuka (%)
(X2) = Angka Harapan Hidup (%)

a. Regresi Liniear Berganda


Coding:
> data1<-read.csv("D:/dataku.csv", sep=",", header=TRUE)
> data1
> y=data1$y
> x1=data1$x1
> x2=data1$x2
> regresi=function(y,x1,x2){
+ n=length(data1$y)
+ p=n*sum(x1*y)-sum(x1)*sum(y)
+ q=n*sum(x2^2)-(sum(x2))^2
+ r=n*sum(x1*x2)-sum(x1)*sum(x2)
+ s=n*sum(x2*y)-sum(x2)*sum(y)
+ t=n*sum(x1^2)-(sum(x1))^2
+ u=t*q-r^2
+ b1=(p*q-r*s)/u
+ b2=(s*t-p*r)/u
+ a= (sum(y)-b1*sum(x1)-b2*sum(x2))/n
+ cat("persamaan regresi linear berganda adalah :
+ ","y=",a,"+",b1,"x1","+",b2,"x2")
+ }
> regresi(x1,x2,y)
> regresi<-lm(y~x1+x2,data=data1)
> regresi

Output:
y x1 x2
1 83 10.12 69.40
2 186 6.45 69.90
3 121 7.02 70.09
4 69 5.48 71.73
5 85 4.84 10.10
6 91 4.61 70.44
7 229 5.69 70.09
8 227 5.63 69.90
9 15015 8.63 73.56
10 1282 9.16 68.84
11 1014 6.01 71.97
12 1147 3.24 73.62
13 803 4.30 70.73
14 702 1.83 71.20
15 254 5.30 63.21
16 102 3.25 68.05
17 32 3.99 67.40
18 16 3.00 71.47
19 99 3.66 64.82
20 19 7.95 71.78
21 170 6.79 72.62
22 45 4.19 67.21
23 179 5.10 70.60
24 63 4.38 68.56
25 98 4.15 67.54
26 64 2.35 68.34
27 35 9.91 67.88
28 35 3.80 66.97
29 9 4.40 69.14
30 10 3.15 69.13

persamaan regresi linear berganda adalah :


y= 4.628349 + 0.007064926 x1 + 0.0002339765 x2

Call:
lm(formula = y ~ x1 + x2, data = data1)

Coefficients:
(Intercept) x1 x2
-2848.87 363.94 24.73

b. Uji Asumsi Klasik


1) Uji Autokorelasi
Coding:
> #UJI AUTOKORELASI
> read.csv("D:/dataku.csv", sep = ",", header = TRUE)
> data1<-read.csv("D:/dataku.csv",header=TRUE,sep=",")
> regresi<-lm(y~x1+x2, data=data1)
> regresi
> residual<-resid(regresi)
> res<-resid(regresi)
> acf(res)
> cor(data1
> residual<-resid(regresi)
> res<-resid(regresi)
> acf(res)
> cor(data1)
> model_autokorelasi<-lm(y~x1+x2, data=data1)
> lmtest::dwtest(model_autokorelasi)
Output 1:
y x1 x2
1 83 10.12 69.40
2 186 6.45 69.90
3 121 7.02 70.09
4 69 5.48 71.73
5 85 4.84 10.10
6 91 4.61 70.44
7 229 5.69 70.09
8 227 5.63 69.90
9 15015 8.63 73.56
10 1282 9.16 68.84
11 1014 6.01 71.97
12 1147 3.24 73.62
13 803 4.30 70.73
14 702 1.83 71.20
15 254 5.30 63.21
16 102 3.25 68.05
17 32 3.99 67.40
18 16 3.00 71.47
19 99 3.66 64.82
20 19 7.95 71.78
21 170 6.79 72.62
22 45 4.19 67.21
23 179 5.10 70.60
24 63 4.38 68.56
25 98 4.15 67.54
26 64 2.35 68.34
27 35 9.91 67.88
28 35 3.80 66.97
29 9 4.40 69.14
30 10 3.15 69.13

Call:
lm(formula = y ~ x1 + x2, data = data1)

Coefficients:
(Intercept) x1 x2
-2848.87 363.94 24.73
y x1 x2
y 1.0000000 0.2976465 0.1218364
x1 0.2976465 1.0000000 0.0718781
x2 0.1218364 0.0718781 1.0000000

Durbin-Watson test

data: model_autokorelasi
DW = 2.1061, p-value = 0.6011
alternative hypothesis: true autocorrelation is greater than 0
Output 2:

Interpretasi:
Pada data di atas terdapat tiga variabel dengan satu variabel respon dan dua variabel
prediktor dengan n=30, dan hasil persamaan membentuk persamaan regresi dan juga
dw adalah 2.1061, dapat disimpulkan bahwa data tersebut tidak mengalami
autokorelasi dikarenakan jika hasil dw dibandingkan dengan dl dan k=2 hasilnya
ialah 2.1061 > 0.6011. Dengan hasil seperti ini maka dapat ditarik kesimpulan data
tidak mengalami autokorelasi. Berikut hipotesisinya
 Hipotesis
H0 : Tidak terjadi autokorelasi
H1 : Terjadi autokorelasi
 α = 0,05
 statistic uji
t −N
∑ ( e t −e t −1 )2
t −2
d= t −N
∑ e t2
t −1
 Pengambilan keputusan
Jika d ≤ dl, maka tolak H0 artinya terdapat serial korelasi positif antar variabel
Jika d ≥ dl, maka terima H0 artinya terdapat serial korelasi negatif antar variabel
Jika du < d < 4-du, maka terima H0 artinya tidak terdapat serial korelasi positif
maupun negatif antar variabel
Jika dl < d < du atau 4-dl < d < 4-du, maka tidak dapat diambil kesimpulan maka
pengujian dianggap tidak meyakinkan.
 Kesimpulan
Karena hasil dari pegujian yang dilakukan adalah d ≥ dl (2.1061 ≥ 0.6011) maka
terima H0 yang berarti terdapat serial korelasi negatif antar variabel sehingga
dapat disimpulkan bahwa data tersebut tidak terdapat autokorelasi.
2) Uji heteroskedastisitas
Coding:
> #uji heteroskedastisitas
> read.csv("D:/dataku.csv", sep = ",", header = TRUE)
> data1<-read.csv("D:/dataku.csv",header=TRUE,sep=",")
> regresi<-lm(y~x1+x2, data= data1)
> regresi
> library(lmtest)
> bptest(regresi)

Output:
y x1 x2
1 83 10.12 69.40
2 186 6.45 69.90
3 121 7.02 70.09
4 69 5.48 71.73
5 85 4.84 10.10
6 91 4.61 70.44
7 229 5.69 70.09
8 227 5.63 69.90
9 15015 8.63 73.56
10 1282 9.16 68.84
11 1014 6.01 71.97
12 1147 3.24 73.62
13 803 4.30 70.73
14 702 1.83 71.20
15 254 5.30 63.21
16 102 3.25 68.05
17 32 3.99 67.40
18 16 3.00 71.47
19 99 3.66 64.82
20 19 7.95 71.78
21 170 6.79 72.62
22 45 4.19 67.21
23 179 5.10 70.60
24 63 4.38 68.56
25 98 4.15 67.54
26 64 2.35 68.34
27 35 9.91 67.88
28 35 3.80 66.97
29 9 4.40 69.14
30 10 3.15 69.13

Call:
lm(formula = y ~ x1 + x2, data = data1)

Coefficients:
(Intercept) x1 x2
-2848.87 363.94 24.73

studentized Breusch-Pagan test

data: regresi
BP = 3.4271, df = 2, p-value = 0.1802

Interpretasi:
Berdasarkan hasil program diatas dengan n sebanyak 30 dan hasil persamaan
membentuk persamaan regresi dan juga BP adalah 3.4271. Adapun nilai p-value dari
data tersebut adalah 0.1802 dimana nilai p-value > taraf nyata sehingga dapat kita
simpulkan bahwa terima H0. Ini mengindikasikan bahwa dari data yang kita miliki,
terjadi gejala homokedastisitas dimana nilai variansi galatnya = nilai simpangan
baku. Berikut hipotesisinya
 Hitotesis :
H0: Model regresi tidak memiliki masalah pada heteroskesdisitas
H1 : Model regresi memiliki masalah pada heteroskesdisitas
 Taraf signifikan nilai ( = 0,05).
 Statistik uji

β^ i
t=
Se β
 Kriteria keputusan :
t hitung >t α
:n−p
 H0 ditolak jika atau nilai Sig 2 atau nilai sig <α .
 Keputusan :
Nilai p-value adalah 0.1892 adalah secara otomatis p-value > nilai maka
kesimpulannya terima H0 sehingga cukup bukti untuk mengatakan bahwa variansi
galat pada data tersebut mengalami gejala homokedastisitas yaitu nilai variansi
galatnya = nilai simpangan baku.
3) Uji Linearitas
Coding:
> #uji linearitas
> read.csv("D:/dataku.csv", sep = ",", header = TRUE)
> data1<-read.csv("D:/dataku.csv",header=TRUE,sep=",")
> regresi<-lm(y~x1+x2, data= data1)
> regresi
> library(lmtest)
> resettest(regresi)

Output:
y x1 x2
1 83 10.12 69.40
2 186 6.45 69.90
3 121 7.02 70.09
4 69 5.48 71.73
5 85 4.84 10.10
6 91 4.61 70.44
7 229 5.69 70.09
8 227 5.63 69.90
9 15015 8.63 73.56
10 1282 9.16 68.84
11 1014 6.01 71.97
12 1147 3.24 73.62
13 803 4.30 70.73
14 702 1.83 71.20
15 254 5.30 63.21
16 102 3.25 68.05
17 32 3.99 67.40
18 16 3.00 71.47
19 99 3.66 64.82
20 19 7.95 71.78
21 170 6.79 72.62
22 45 4.19 67.21
23 179 5.10 70.60
24 63 4.38 68.56
25 98 4.15 67.54
26 64 2.35 68.34
27 35 9.91 67.88
28 35 3.80 66.97
29 9 4.40 69.14
30 10 3.15 69.13

Call:
lm(formula = y ~ x1 + x2, data = data1)

Coefficients:
(Intercept) x1 x2
-2848.87 363.94 24.73

RESET test
data: regresi
RESET = 1.3232, df1 = 2, df2 = 25, p-value = 0.2843

Interpretasi:
Berdasarkan hasil uji linearitas diatas, p-value > = 0.05 dimana nilai p-value tersebut
sebesar 0.2834. Sehingga H0 ditolak, hal ini menunjukan bahwa hubungan antara
variabel X1 dan X2 terhadap Y ada hubungan linearitas atau linear sehingga model
regresi yang dihasilkan atau yang cocok kemudian digunakan untuk memodelkan
hubungan antara variabel X dan Y adalah model regresi linear. Berikut hipotesisinya:
 Hipotesis :
H0 : Model linear
H1 : Model non linear
 Taraf signifikan nilai ( = 0,05).
 Statistik uji :
RJK TC
F=
RJK E
 Kriteria keputusan :
Terima H0 jika atau p-value > taraf nyata
 Keputusan :
Berdasarkan dari output perintah resettest (x~y, data = linear), diperoleh p-value >
= 0.05. Sehingga terima H1. Hal ini menunjukkan bahwa hubungan antara
variabel X dan Y terdapat hubungan linier.
4) Uji Normalitas
Coding:
> #uji normalitas
> read.csv("D:/dataku.csv", header=TRUE,sep=",")
> aq<-read.csv("D:/dataku.csv", header=TRUE,sep=",")
> mean=function(t,b,a,z){
+ n=length(aq$x1)
+ sumxt=sum(aq$x1)
+ sumxb=sum(aq$x2)
+ sumxa=sum(aq$y)
+ sumxz=sum(aq$x1+aq$x2+aq$y)
+ t=sumxt/n
+ b=sumxb/n
+ a=sumxa/n
+ z=sumxz/n
+ cat("Hasil Rata-rata dari kedua data di atas ialah : rata-rata
x1
+ ",t, "rata-rata x2 ",b,"rata-rata y",a,"dan rata-rata dari data
di
+ atas adalah",z)
+ }
> mean(t,b,a,z)
> #MENAMPILKAN NILAI RESIDUAL
> residu=resid(regresi)
> residu
> data.frame(residu)
#MENGGUNAKAN FUNGSI SHAPIRO WILK
> shapiro.test(aq$x1)
> shapiro.test(aq$x2)
> shapiro.test(aq$y)
> shapiro.test(aq$x1+aq$x2+aq$y)

Output:
y x1 x2
1 83 10.12 69.40
2 186 6.45 69.90
3 121 7.02 70.09
4 69 5.48 71.73
5 85 4.84 10.10
6 91 4.61 70.44
7 229 5.69 70.09
8 227 5.63 69.90
9 15015 8.63 73.56
10 1282 9.16 68.84
11 1014 6.01 71.97
12 1147 3.24 73.62
13 803 4.30 70.73
14 702 1.83 71.20
15 254 5.30 63.21
16 102 3.25 68.05
17 32 3.99 67.40
18 16 3.00 71.47
19 99 3.66 64.82
20 19 7.95 71.78
21 170 6.79 72.62
22 45 4.19 67.21
23 179 5.10 70.60
24 63 4.38 68.56
25 98 4.15 67.54
26 64 2.35 68.34
27 35 9.91 67.88
28 35 3.80 66.97
29 9 4.40 69.14
30 10 3.15 69.13

Hasil Rata-rata dari kedua data di atas ialah : rata-rata x1


5.279333 rata-rata x2 67.543 rata-rata y 742.8 dan rata-rata
dari data di
atas adalah 815.6223

1 2 3 4 5
6
-2467.454827 -1041.144316 -1318.291072 -850.373095 922.618666
-479.840840
7 8 9 10 11
12
-726.245303 -701.710083 12903.948075 -905.219993 -104.198549
996.123485
13 14 15 16 17
18
337.810358 1124.129723 -389.169405 85.226309 -238.018336
5.638110
19 20 21 22 23
24
12.884870 -1800.551703 -1248.149068 -293.108605 -574.130182
-377.642571
25 26 27 28 29
30
-233.711510 367.604578 -2401.437994 -155.235337 -453.264456
2.913072

residu
1 -2467.454827
2 -1041.144316
3 -1318.291072
4 -850.373095
5 922.618666
6 -479.840840
7 -726.245303
8 -701.710083
9 12903.948075
10 -905.219993
11 -104.198549
12 996.123485
13 337.810358
14 1124.129723
15 -389.169405
16 85.226309
17 -238.018336
18 5.638110
19 12.884870
20 -1800.551703
21 -1248.149068
22 -293.108605
23 -574.130182
24 -377.642571
25 -233.711510
26 367.604578
27 -2401.437994
28 -155.235337
29 -453.264456
30 2.913072

Shapiro-Wilk normality test

data: aq$x1
W = 0.9354, p-value = 0.06844

Shapiro-Wilk normality test

data: aq$x2
W = 0.36049, p-value = 2.365e-10
Shapiro-Wilk normality test

data: aq$y
W = 0.2613, p-value = 3.378e-11

Shapiro-Wilk normality test

data: aq$x1 + aq$x2 + aq$y


W = 0.26179, p-value = 3.409e-11

Interpretasi:
Berdasarkan hasil output dapat dilihat bahwa rata-rata dari x1, x2, dan y adalah
815.6223. kemudian ditampilkan pula nilai residunya. Berikut hipotesisinya,
 Hipotesis
H0 : Data berdistribusi Normal
H1 : Data tidak berdistribusi Normal
 Taraf signifikan nilai ( = 0,05).
 Uji statistik :

(∑ )
n 2
ai xi
i =1
W= n
∑ ( x i− x̄ )2
i=1

 Kriteria keputusan
Probabilitas (P-value) >0,05 maka Ho diterima
Probabilitas (P-value) <0,05 maka Ho ditolak
Jika nilai residual sebagian besar mendekati nilai rata-rata maka terima Ho
 Keputusan
Hasil perhitungan menyatakan bahwa besarnya probabilitas (p-value) untuk data
x1 adalah 0.06844, p-value untuk data x2 adalah 2.365e-10, dan p-value untuk
data y adalah 3.378e-11. Adapun p-value untuk sum (data x1,x2,y) adalah 3.409e-
11. Karena probabilitas lebih besar daripada taraf uji yang digunakan dalam
penelitian atau p-value > α (3.409e-11 > 0,05) maka H0 diterima. Dengan
demikian dapat disimpulkan bahwa data berdistribusi normal.

You might also like