Avrupa Parlamentosu’nun (AP) İç Pazar Komitesi ve Sivil Özgürlükler Komitesi, Brüksel’de yaptığı ortak toplantıda yapay zekâya dair tarihi bir karara imza attı. Üye ülkeler ve AP arasında uzlaşılan “Yapay Zeka Yasası”, 8 “hayır”, 71 “evet” oyuyla kabul edildi.

RİSK TEMELLİ YAKLAŞIMLA YENİ DÖNEM

Yasa, Avrupa Birliği (AB) ülkelerinde kullanılacak yapay zekâ sistemlerinin güvenli olmasını ve temel haklara saygı göstermesini şart koşuyor. Yapay zeka sistemleri, topluma verebileceği zarara göre risk seviyelerine ayrılacak. Yüksek riskli sistemlere daha sıkı kurallar getirilirken, sınırlı riskli sistemlerde kullanıcıya yapay zeka kullanıldığının bildirilmesi zorunlu olacak.

YASAKLANACAK KULLANIMLAR

Bilişsel davranış manipülasyonu, internetten veya kapalı devre kamera sistemlerinden hedefsiz yüz görüntüsü toplanması, iş yerinde ve eğitim kurumlarında duygu tanıma uygulamaları, sosyal puanlama ve cinsel yönelim veya dini inanç gibi hassas veriler için biyometrik sınıflandırma yapılması yasaklanacak.

YÜKSEK RİSKLİ SİSTEMLERE KATI KURALLAR

Kolluk kuvvetleri, terör saldırılarının önlenmesi, ciddi suç şüphelilerinin yakalanması gibi istisnai durumlarda kamuya açık alanlarda gerçek zamanlı biyometrik tanımlama sistemlerini izin alarak kullanabilecek. Yüksek riskli sistemlerin AB pazarına girişi, bir dizi uygunluk ve güvenlik değerlendirmesine tabi tutulacak.

GENEL AMAÇLI YAPAY ZEKAYA ŞEFFAFLIK ZORUNLULUĞU

Video, metin, görüntü üretme, çeviri yapma, kod yazma gibi çok çeşitli görevler yerine getirebilen büyük yapay zekâ sistemlerine özel kurallar getirilecek. Bu sistemlerin piyasaya sürülmeden önce şeffaflık yükümlülüklerine uyması zorunlu olacak.

2 YIL SONRA YÜRÜRLÜĞE GİRECEK

Yasa, nisan ayında AP Genel Kurulu’nda oylanacak ve onay sürecinin ardından iki yıl içinde yürürlüğe girecek. Yeni kurallar, Google’ın Gemini modeli ve ChatGPT gibi büyük yapay zekâ teknolojilerini de kapsayacak.

Uzay giysilerinin sırları: Astronotları koruyan teknoloji
Uzay giysilerinin sırları: Astronotları koruyan teknoloji
İçeriği Görüntüle

Kaynak: Haber Merkezi