Download as docx, pdf, or txt
Download as docx, pdf, or txt
You are on page 1of 2

AB Yapay Zeka Yasası

Son yılların belki de en heyecanlandırıcı gelişmelerinden olan yapay zeka; sağlık, finans,
ulaşım de dahil olmak üzere bir çok sektörde çeşitli ekonomik ve toplumsal faydalar
getirmesi bekleniyor. Hastalıkların tedavisi, üretkenliğin artması ve iklim değişikliğine
yönelik çözümler gibi potansiyel faydaları yaygın olarak kabul edilse de, bu ilerlemelerin
doğal riskleri de beraberinde getirdiğinin kabul edilmesi önemlidir.

Yapay zeka pek çok farklı sektör ve uygulamada kullanılmaya başlandı ancak bazı
durumlarda insan haklarını etkileyen sorunlar da yaşandı. Hollanda hükümeti sosyal
yardımları yönetmek için bir uygulama başlattı ancak ne yazık ki bu uygulama yabancılara
karşı ciddi bir önyargı sergileyerek büyük bir skandala yol açtı ve ardından başvurunun
durdurulmasına yol açtı. Gizlilik de önemli bir endişe kaynağı olarak ortaya çıkıyor. Tüm
makine öğrenimi sistemleri kişisel verilere dayanmasa da önemli bir çoğunluk bunu
yapıyor. Üstelik bu sistemler kişisel verileri yalnızca eğitim modelleri için kullanmakla
kalmıyor, aynı zamanda kişisel verilerden çıkarım yapıp tahmin edebiliyor, bu da bireyler
için mahremiyet sonuçlarıyla ilgili geçerli endişeleri artırıyor.

Kişisel tedbirlerle ne kadar başarılı olacağımız merak konusuyken devletler de yapay zekayı
gündemine aldı. Dünyanın çeşitli yerlerinde yapay zekânın yasal çerçevesini oluşturmak
üzere çalışmalar sürerken bu alanda kapsamlı bir kanun için ilk somut adımı Avrupa Birliği
attı. Avrupa Birliği, dijital stratejisinin bir parçası olarak yapay zekayı, bu teknolojinin
geliştirilmesi ve kullanılması için uygun koşulları sağlayacak şekilde düzenlemeyi
amaçlıyor. AB hükümetleri ve Avrupa Parlamentosu Üyeleri, ChatGPT dahil yapay
zeka sistemlerini yöneten bir anlaşmaya vardı. Yeni yasa ile yapay zeka uygulamasına risk
temelli bir yaklaşım izlenecek. Bu uygulamanın yaratacağı riskler, “en yüksek” ve “en düşük”,
“kabul edilemez” ve “spesifik şeffaflık riski” olarak sınıflandırılıyor.

Kabul edilemez risk: İnsanların temel haklarına yönelik açık bir tehdit olarak
değerlendirilen yapay zeka sistemleri yasaklanacak. Bu kapsamda, insanları
davranışlarından dolayı ödüllendiren ya da cezalandıran vatandaş takip sistemleri ya da
insan davranışlarını manipüle etmeye çalışan yapay zeka sistemlerine izin verilmeyecek.

Yüksek risk: Su, enerji, yargı, güvenlik, sağlık ve biyometri gibi yaşamsal öneme sahip
alanları yönetmek için kullanılan yapay zeka sistemleri bu kapsamda yer alıyor.

Spesifik şeffaflık riski: Kullanıcıların, sohbet robotları gibi yapay zeka sistemlerini
kullanırken bir makineyle etkileşimde bulunduklarının farkında olmaları sağlanacak.
Düşük risk: İnsan hakları ve güvenliği açısından daha düşük düzeyde riske sahip olan
yapay zeka destekli öneri sistemleri veya spam filtreleri gibi uygulamalar, daha esnek
kurallara sahip olacak.

Yapay Zeka Yasası konusunda AB'nin en büyük üç ülkesi olan Almanya, Fransa ve İtalya’nın
çekinceleri vardı. Bu ülkeler, katı kuralların sadece ABD’li teknoloji şirketlerini değil, Avrupalı
kuruşları da etkileyeceğini savunuyordu. Uzun süren müzakereler sonucu, bu ülkeler
ikna edildi. Yapay Zeka Yasası’nın, "temel haklara ve demokrasiye saygı gösterdiği, aynı
zamanda işletmelerin gelişmesine ve büyümesine izin verdiği" konusunda anlaşma
sağlandı.

Referans:

https://emag.directindustry.com/2023/12/20/eu-ai-act-different-rules-for-different-risk-
levels/

You might also like