Download as pdf or txt
Download as pdf or txt
You are on page 1of 8

DERİN ÖĞRENME

PROJE

Numara

202523046

192523067

212503208

Ad SOYAD

KİRAZ SİNEM ÖNAL

SÜVEYDA SULTAN ALTAY

AHMET SENDİL

BİLGİSAYAR MÜHENDİSLİĞİ
2022/2023

İSKENDERUN TEKNİK ÜNİVERSİTESİ


MÜHENDİSLİK VE FEN BİLİMLERİ ENSTİTÜSÜ
2023
Rapor Derin Öğrenme
Bu bölümde python ile gerçekleştirilen denemelerde kullanılan parametreler ve bu parametrelere karşılık elde edilmiş sınıflama başarımları verilmelidir.
Farklı dizilimdeki CONV blokları, farklı filtre sayı ve büyüklükleri, Farklı FC ve FC’deki nöron sayıları ile deneme yapınız.
Model Data Transfer loss Epoch Traning Function Optimizer Accuracy
Çoğaltma Function (Train-Test)
1 CONV(3@32) Flip softmax mse 50 sigmoid adam 94.45-96.43
MAXPOOL
RELU
CONV(4@128)
CONV(7@96)
FC(100)-FC(40)
2 Conv2D(64, (4, 4)
RELU
Conv2D(32, (3, 3)
72.52-61.85
RELU
Maxpool Flip softmax binary_crossentropy 10 tanh adam
LeakyRELU
RELU
FC(64)-FC(3)
Conv2D(128,(3, 3)
RELU
Conv2D(64,(3, 3)
3 Flip softmax 20 tanh adam 79.59-74.47
RELU categorical_crossentropy
Maxpool
ELU
LeakyRELU
FC(100)-FC(40)
4

VGG16
Flip softmax 20 sigmoid adam 85.70-91.71
categorical_crossentropy

5
(Conv2D(128,(4,4)
RELU
Conv2D(128, (4,
Flip
softmax binary_crossentropy 10 sigmoid AdaGrad 50.00-60.00
4)
ELU
Conv2D(32, (3,3)
RELU
MaxPooling2D
RELU
FC(64)-FC(3)
6 Conv2D(64,(3, 3)
RELU
Conv2D(32,(3, 3)
Flip softmax
RELU categorical_crossentropy 10 tanh adam 78.78-83.37
Maxpool
ELU
RELU
FC(120)-FC(50)

YORUM:

Yukarıdaki sonuçlardan da görüldüğü gibi , farklı parametreler kullanılarak oluşturulan kombinasyonlarının başarım ölçütünü önemli ölçüde etkilediği
görülmektedir. Örneğin, farklı filtre ölçeklendirmelerinde , doğruluk oranları önemli ölçüde değişmiştir. Benzer şekilde, örneğin Model 5'de kullanılan filtre
ile düşük doğruluk oranları elde edilmiştir. Ancak, Model 4'de farklı bir filtre dizilimi kullanılmış ve yüksek doğruluk oranları elde edilmiştir. Buna ek
olarak, loss fonksiyonu, aktivasyon fonksiyonları ve optimizer gibi faktörlerin de sınıflandırma başarısını önemli ölçüde etkilediği görülmektedir.

1. Model: Bu modelde, 4x4 boyutlu 64 filtre kullanılmıştır. İlk Conv2D katmanından sonra ReLU aktivasyon fonksiyonu kullanılmıştır. Ardından, 3x3
boyutlu 32 filtre kullanılan bir Conv2D katmanı gelmektedir. Daha sonra bir MaxPooling2D katmanı ve ardından LeakyReLU aktivasyon fonksiyonu
kullanılan bir Conv2D katmanı eklenmiştir. Son olarak, 64 nöronlu bir FC katmanı ve 3 nöronlu bir FC katmanı kullanılmıştır. Bu modelde, data
augmentation kullanılmış Loss fonksiyonu olarak binary crossentropy seçilmiştir. Epoch sayısı 10 ve tanh aktivasyon fonksiyonu kullanılmıştır. Optimizer
olarak Adam tercih edilmiştir. Bu modelde, eğitim ve test verileri için sırasıyla 72.52-61.85 doğruluk oranları elde edilmiştir.

2. Model: Bu modelde, 3x3 boyutlu 128 filtre kullanılmıştır. İlk Conv2D katmanından sonra ReLU aktivasyon fonksiyonu kullanılmıştır. Ardından, 3x3
boyutlu 64 filtre kullanılan bir Conv2D katmanı gelmektedir. Daha sonra bir MaxPooling2D katmanı ve ardından ELU aktivasyon fonksiyonu kullanılan bir
Conv2D katmanı eklenmiştir. Son olarak, 100 nöronlu bir FC katmanı ve 40 nöronlu bir FC katmanı kullanılmıştır. Bu modelde softmax aktivasyon
fonksiyonu tercih edilmiştir. Loss fonksiyonu olarak categorical crossentropy seçilmiştir. Epoch sayısı 20 ve tanh aktivasyon fonksiyonu kullanılmıştır.
Optimizer olarak Adam tercih edilmiştir. Bu modelde, eğitim ve test verileri için sırasıyla 80.59-74.47doğruluk oranları elde edilmiştir.

3. Model: Bu modelde, VGG16 mimarisi kullanılmıştır. VGG16, 16 katmandan oluşan bir Convolutional Neural Network (CNN) mimarisidir. İlk
katmanlarda küçük boyutlu filtreler kullanılırken, son katmanlarda büyük boyutlu filtreler kullanılmaktadır. Bu modelde, flip augmentasyonu kullanılmıştır.
Softmax aktivasyon fonksiyonu, sınıflandırma problemlerinde kullanılan bir fonksiyondur ve çıktıları sınıf olasılıklarına dönüştürür. Categorical
crossentropy, çok sınıflı sınıflandırma problemlerinde kullanılan bir loss fonksiyonudur. Bu modelde, 20 sınıf için eğitim yapılmıştır. Sigmoid aktivasyon
fonksiyonu, çıktıların 0 ile 1 arasında olmasını sağlar. Adam optimizer, Gradient Descent yönteminin geliştirilmiş bir versiyonudur ve genelde derin öğrenme
modellerinde kullanılır. Bu modelde, eğitim ve test verileri için sırasıyla %82.70 ve %91.71 doğruluk oranları elde edilmiştir. Bu model diğer modellere
oranla daha başarılı olmuştur.
4. Model: Bu modelde, 3 Conv2D katmanı kullanılmıştır. İlk Conv2D katmanında 128 adet 4x4 boyutlu filtre kullanılmıştır ve ReLU aktivasyon fonksiyonu
kullanılmıştır. İkinci Conv2D katmanında da 128 adet 4x4 boyutlu filtre kullanılmıştır ancak ELU aktivasyon fonksiyonu kullanılmıştır. Üçüncü Conv2D
katmanında ise 32 adet 3x3 boyutlu filtre kullanılmıştır ve ReLU aktivasyon fonksiyonu kullanılmıştır. Daha sonra bir MaxPooling2D katmanı eklenmiştir ve
ardından yine ReLU aktivasyon fonksiyonu kullanılan bir FC(64) katmanı ve son olarak FC(3) katmanı eklenmiştir. Bu modelde, flip augmentasyonu
kullanılmıştır. Softmax aktivasyon fonksiyonu sınıf olasılıklarını hesaplamak için kullanılmıştır. Binary crossentropy, iki sınıflı sınıflandırma problemlerinde
kullanılan bir loss fonksiyonudur. Epoch sayısı 10 olup, sigmoid aktivasyon fonksiyonu kullanılmıştır. AdaGrad, Gradient Descent yönteminin bir türevidir
ve özellikle düşük boyutlu veri setleri üzerinde iyi sonuçlar verir. Bu modelde, eğitim ve test verileri için sırasıyla %50.00 ve %60.00 doğruluk oranları elde
edilmiştir..

5. Model: Bu modelde, 2 Conv2D katmanı kullanılmıştır. İlk Conv2D katmanında 64 adet 3x3 boyutlu filtre kullanılmıştır ve ReLU aktivasyon fonksiyonu
kullanılmıştır. İkinci Conv2D katmanında ise 32 adet 3x3 boyutlu filtre kullanılmıştır ve yine ReLU aktivasyon fonksiyonu kullanılmıştır. Daha sonra bir
MaxPooling2D katmanı eklenmiştir ve ardından ELU ve ReLU aktivasyon fonksiyonları sırasıyla kullanılan iki Conv2D katmanı eklenmiştir. Son olarak, bir
FC(120) katmanı ve FC(50) katmanı kullanılmıştır. Bu modelde, flip augmentasyonu kullanılmıştır. Softmax aktivasyon fonksiyonu sınıf olasılıklarını
hesaplamak için kullanılmıştır. Categorical crossentropy, çok sınıflı sınıflandırma problemlerinde kullanılan bir loss fonksiyonudur. Epoch sayısı 10 olup,
tanh aktivasyon fonksiyonu kullanılmıştır. Adam optimizer, Gradient Descent yönteminin geliştirilmiş bir versiyonudur ve genelde derin öğrenme
modellerinde kullanılır. Bu modelde, eğitim ve test verileri için sırasıyla %78.78 ve %83.37 doğruluk oranları elde edilmiştir.

topladığım veri:orta hasarlı

Drive Colab Linki:


https://colab.research.google.com/drive/1EcT_m0x8c5iZWC-B1ytHAWa1x85D0Z1o?usp=drive_link

Drive Verisetinin Linki:

https://drive.google.com/drive/folders/1CAv7TGlL5eZHdstoWkipsITxHmkYh5Y1?usp=drive_link

En Başarılı Model

https://drive.google.com/file/d/1ak1QvUOBBIcnlaCuzvnLQ-tvIDD_6rDy/view?usp=drive_link

You might also like