Avrupa Birliği’nde kullanılacak yapay zeka sistemlerine yönelik kuralları belirleyen Yapay Zeka Yasası, Brüksel’de yapılan ortak komite toplantısında onaylandı. 71 “evet”, 8 “hayır” oyuyla kabul edilen düzenleme, risk temelli bir yaklaşım getirerek yüksek riskli sistemlere katı kurallar öngörüyor.
RİSK TEMELLİ YAKLAŞIM
Yeni yasa, yapay zeka sistemlerini topluma zarar verme ihtimaline göre sınıflandıracak. Yüksek riskli yapay zeka uygulamaları daha sıkı denetime tabi tutulurken, sınırlı riskli sistemler kullanıcıya içeriğin yapay zeka tarafından üretildiğini açıkça bildirmek zorunda olacak.
YASAKLANACAK KULLANIMLAR
AB, bazı yapay zeka uygulamalarını “kabul edilemez risk” kategorisine aldı. Buna göre, bilişsel davranış manipülasyonu, yüz görüntülerinin hedefsiz toplanması, iş yerlerinde ve okullarda duygu tanıma, sosyal puanlama ve hassas biyometrik sınıflandırma yöntemleri yasaklanacak.
KOLLUK KUVVETLERİNE İSTİSNALAR
Emniyet birimleri, istisnai durumlarda kamuya açık alanlarda gerçek zamanlı uzaktan biyometrik tanımlama sistemlerini kullanabilecek. Bu durum, yalnızca terör saldırılarının önlenmesi, ağır suç şüphelilerinin aranması ve ciddi tehditlerin engellenmesi gibi senaryolarla sınırlandırılacak.
GENEL AMAÇLI YAPAY ZEKÂYA ÖZEL KURALLAR
Video, metin, görsel ve kod üretimi gibi çok yönlü görevleri yerine getirebilen genel amaçlı yapay zeka sistemlerine ek şeffaflık yükümlülükleri getirilecek. Google’ın Gemini modeli ve ChatGPT gibi sistemler bu kapsamda değerlendirilecek.
YASA NİSAN’DA GENEL KURUL’DA OYLANACAK
Yapay Zeka Yasası, nisan ayında Avrupa Parlamentosu Genel Kurulu’nda oylamaya sunulacak. Resmi onay sürecinin tamamlanmasının ardından yasa, 2 yıl içinde yürürlüğe girecek. Böylece AB, yapay zekâ teknolojilerini düzenleyen ilk küresel aktör olacak.