Yapay zekayla üretilmiş görseller, sesler ve videolar, savaş alanlarından seçim süreçlerine kadar pek çok alanda dezenformasyon ve dolandırıcılık amacıyla kullanılmaya başlandı. Uzmanlara göre bu içerikler, bilgi manipülasyonunun en tehlikeli yöntemleri arasında yer alıyor.
SAVAŞ VE SEÇİMLERDE YAPAY ZEKA İÇERİKLERİ KULLANILDI
Sensity AI tarafından yürütülen araştırmalara göre Rusya-Ukrayna Savaşı sırasında Ukraynalı siyasetçiler ve askerler, deepfake videolarla teslim olmaya çağıran veya suç işlediğini itiraf eden kişiler gibi gösterildi. Tayvan’da seçim dönemlerinde politikacıların sahte konuşmaları ve uydurma skandalları sosyal medyada yayıldı. Japonya’da ise yapay zekayla üretilmiş sahte doğal afet görüntüleri, nükleer kaza ya da sel felaketi gibi kurgularla halkta panik oluşturuldu.
CAVALLI: YAPAY İÇERİKLERİN TANINMASI GİDEREK ZORLAŞIYOR
Sensity AI kurucu ortağı Francesco Cavalli, yapay zekayla üretilmiş içeriklerin ayırt edilmesinin her geçen gün zorlaştığını belirtti. Cavalli, bu içeriklerin anlaşılması için yüzde ışık tutarsızlığı, aşırı pürüzsüz cilt, yapay göz kırpma ve ağız hareketlerinin dikkatle incelenmesi gerektiğini söyledi. Ancak düşük çözünürlüklü veya sıkıştırılmış formatlarda bu farklılıkların fark edilmesinin çok zor olduğunu vurguladı.
TAKLİT SESLER YÜKSEK RİSK TAŞIYOR
Yapay zekayla üretilen seslerin en büyük tehlikeyi oluşturduğunu belirten Cavalli, taklit edilen seslerin telefon görüşmelerinde güvenilir kişilerin kimliğine bürünerek dolandırıcılıkta kullanıldığını aktardı. ABD’de Dışişleri Bakanı Marco Rubio’nun sesini taklit eden bir dolandırıcının, farklı ülkelerin bakanlarıyla sahte iletişim kurduğu örneğini paylaştı.
YAPAY ZEKA İLE SEÇİM VE SAVAŞ GÖRSELLERİ PAYLAŞILIYOR
Cavalli, seçim müdahalelerinde yapay zeka üretimi medya içeriklerinin, sahte basın toplantıları yapan politikacılarla ilgili görüntülerin ve savaş sahnelerinin sıkça kullanıldığını belirtti. Bu tür içeriklerin sahte haber siteleri ve sosyal medya reklamları üzerinden yayıldığını ifade etti.
PROAKTİF DENETİM ÇAĞRISI
Teknoloji şirketlerinin ve sosyal medya platformlarının yapay zeka tabanlı dezenformasyona karşı daha güçlü önlemler alması gerektiği ifade ediliyor. Cavalli, kullanıcı şikayetlerine dayalı sistemlerin yetersiz olduğunu belirterek, proaktif denetim ve ağır yaptırımların zorunlu hale getirilmesi gerektiğini söyledi.
GÖRMEK ARTIK İNANMAK ANLAMINA GELMİYOR
Sensity AI’nin geliştirdiği sistemlerin yüz manipülasyonu, taklit ses ve yapay görselleri tespit etmeye yönelik analizler içerdiği, bu raporların resmi soruşturmalarda kullanılabildiği aktarıldı. Cavalli, görsel medyaya olan güvenin azaldığını belirterek farkındalığın artırılmasının önemine işaret etti. İnsanların, gazetecilerin ve araştırmacıların bu konuda eğitilmesi gerektiğini vurguladı.