Yapay Zeka Çağında Hukuki Sorumluluk: Kimin Kusuru?

Teknoloji, insan hayatını dönüştürme hızını hiç olmadığı kadar artırdı. Bugün artık sürücüsüz araçların trafiğe çıkması, doktorların yapay zeka destekli tanı araçlarıyla karar vermesi, hatta mahkemelerde davaların belirli aşamalarında algoritmaların kullanılması sıradan gelişmeler haline geldi. Bir zamanlar bilim kurgu filmlerinde karşımıza çıkan bu uygulamalar, artık günlük yaşamın olağan parçaları oldu. Ancak her yenilik beraberinde yeni bir tartışmayı da getiriyor: hukuki sorumluluk.

Hukuk, doğası gereği insan iradesine ve davranışlarına göre şekillenmiş bir disiplin. Fakat yapay zeka söz konusu olduğunda bu denge bozuluyor. Çünkü ortada, klasik anlamda “irade” sahibi olmayan ama sonuç doğuran kararlar veren bir aktör var. İşte bu noktada şu sorular gündeme geliyor:

Bir sürücüsüz araç kaza yaptığında kimin sorumlu tutulacağı nasıl belirlenecek? Bir yapay zeka sağlık sisteminin yanlış tanı koyması sonucu hastanın zarara uğraması hâlinde tazmin yükümlülüğü kimde olacak? Ya da algoritmaların ayrımcı kararlar alması durumunda mağduriyetleri kim giderecek?

Bugün Türk hukukunda bu sorulara doğrudan cevap verecek bir düzenleme bulunmuyor. Mevcut mevzuat üzerinden yorum yapılmaya çalışılıyor. Örneğin Borçlar Kanunu’ndaki eser ve hizmet sözleşmelerine ilişkin hükümler veya Tüketicinin Korunması Kanunu çerçevesinde üretici ve satıcı sorumluluğu gündeme gelebiliyor. Ancak bu hükümler, yapay zekanın özerk karar mekanizmasıyla yarattığı özel durumu kapsamakta çoğu zaman yetersiz kalıyor.

Avrupa Birliği, bu alandaki boşluğu doldurmak adına AI Act (Yapay Zeka Yasası) adıyla kapsamlı bir düzenlemeye imza attı. Yasada, yüksek riskli yapay zeka uygulamaları için sıkı denetimler öngörülüyor ve sorumluluk zinciri netleştirilmeye çalışılıyor. Türkiye ise henüz bu yönde somut bir adım atmış değil. Ancak Avrupa ile ticari, hukuki ve teknolojik ilişkilerimiz düşünüldüğünde, bizim de benzer bir düzenlemeyi yakın zamanda gündemimize almamız kaçınılmaz görünüyor.

Bir başka tartışma başlığı ise kişisel verilerin korunması. Yapay zeka sistemlerinin öğrenebilmesi için milyonlarca, hatta milyarlarca veriye ihtiyaç duyuluyor. Bu verilerin önemli bir kısmı da kişisel veri niteliğinde. KVKK ve GDPR çerçevesinde açık rıza, veri minimizasyonu, amaçla bağlılık gibi ilkeler bulunuyor. Ancak yapay zekanın “öğrenme” süreci bu ilkelerle sık sık çatışabiliyor. Örneğin, bir yüz tanıma sistemi kamusal alanlarda kullanıldığında bireylerin özel hayatı ve mahremiyeti nasıl korunacak?

Bütün bu sorular, sadece hukukçuların değil toplumun tüm kesimlerinin ortak gündemi haline gelmiş durumda. Zira teknoloji yalnızca fırsatlar değil, aynı zamanda ciddi riskler de barındırıyor. Hukuk bu riskleri minimize etmenin en temel aracıdır.

Bugün için yapılması gereken, Türk yargısının mevcut kuralları teknolojiye uyumlu şekilde esnek yorumlaması ve yasa koyucunun da geleceği öngören düzenlemeler yapmasıdır. Aksi halde, mağdurların hak arama yolları ciddi biçimde tıkanabilir.

Kısacası, yapay zeka çağında hukuk dünyasının en büyük sınavı, teknolojinin sunduğu hız ve imkanları adalet ve hakkaniyet ilkeleriyle dengeleyebilmek olacaktır. Yasa koyucunun, hukukçuların ve akademinin bu meseleye kayıtsız kalma lüksü yoktur. Çünkü bugünün ihmal edilen boşlukları, yarının telafisi mümkün olmayan mağduriyetlerine dönüşebilir.