Bir sabah uyanıyorsunuz, telefonunuzdaki videoda tanıdığınız bir siyasetçi, aslında hiç söylemediği bir cümleyi kuruyor. Ya da anneniz gibi konuşan bir ses, sizden acil para istiyor. Gerçek gibi görünen ama aslı olmayan bu sahnelerin ardında deepfake teknolojisi var. Ve bu teknoloji, sadece gözlerimize değil, kulaklarımıza da ihanet edebiliyor.
"Gerçeği Taklit Etmek"
"Deepfake" terimi, "derin öğrenme" (deep learning) ve "sahte" (fake) kelimelerinin birleşiminden doğmuş. Özüne inersek: Yapay zeka, bir insanın sesini, yüzünü, hatta mimiklerini kopyalayarak neredeyse ayırt edilemez sahte içerikler üretebiliyor. Eskiden sadece sinema efektleriyle mümkün olan bu taklitler, şimdi herkesin bilgisayarından çıkabiliyor.
Sıkıntı da burada başlıyor: Gerçek olmayan bir video, milyonlarca kişiye ulaşıp algıları değiştirebiliyor.
Gözlerimiz Bize Yalan Söyleyebilir
Dolandırıcılığın Yeni Yüzü
Yapay zeka destekli ses klonlama, dolandırıcılara adeta yeni bir "kılık" kazandırdı. 2019'da Birleşik Krallık'ta yaşanan bir olayda, bir dolandırıcı bir enerji şirketinin CEO'sunun sesini birebir taklit ederek yöneticiden 243 bin dolar para transferi istedi. Ses o kadar gerçekti ki, kimse şüphelenmedi. Para gitti, dolandırıcı ise izini kaybettirdi.
Yakınlarımızın Sesini Bile Klonluyorlar
2023'te, Birleşik Krallık'ta yaşayan bir kadın, telefonda tanıdık bir sesle karşılaştı. Arayan kişi, acil para isteyen bir aile bireyi gibi konuşuyordu. Ses tonu, kelime seçimi o kadar tanıdıktı ki neredeyse inanacaktı. Neyse ki önceden duyduğu uyarılar sayesinde şüphelendi ve dolandırılmanın eşiğinden döndü.
Siyasette Algı Yönetimi
Deepfake sadece bireyleri hedef almıyor. Seçim dönemlerinde sıklıkla ortaya çıkan sahte videolar, siyasetçilerin ağızlarından çıkmamış sözleri yayarak kamuoyunu yanıltabiliyor. Sosyal medyada hızla paylaşılan bu içerikler, demokrasiyi temelden sarsacak kadar etkili olabiliyor.
Teknoloji Teknolojiyle Durdurulabilir mi?
Gibi… Geliştirilen bazı çözümler var. Bazı algoritmalar, deepfake videolardaki mikromimik farklılıklarını ya da seslerdeki doğal olmayan titreşimleri tespit edebiliyor. Microsoft, Adobe gibi şirketler, içeriklerin gerçekliğini belgeleyen dijital imza sistemleri üzerinde çalışıyor.
Blokzincir teknolojisiyle, bir videonun ne zaman ve kim tarafından çekildiği kaydedilebiliyor. Bu sayede, paylaşılan bir içeriğin orijinal olup olmadığı anlaşılabiliyor. Adeta dijital bir video pasaportu gibi.
Bazı ülkelerde, kişinin izni olmadan yüzünü veya sesini kullanarak deepfake içerik üretmek artık suç. Böylesi yasal düzenlemelerin ve hukuki sonuçların tüm dünyada yaygınlaştırılması şart. Ancak teknolojinin ortak bir anlayışla, etik değerler çerçevesinde düzenlenmesinin de şu ana kadar pek mümkün olamadığı ortada.
Toplum olarak en önemli savunma aracımız ise medya okuryazarlığı. "Her izlediğine inanma" dönemi geldi çattı. Gördüğümüz her videonun kaynağını sorgulamak, farklı kaynaklardan teyit almak, dijital dünyada ayakta kalmak için artık şart.
Doğrulama ve Eleştirel Düşünme Dönemi
Deepfake, görsel ve işitsel algılarımızın manipüle edilebildiği bir çağın kapısını araladı. Bu imkanlar etik çerçevede ve doğru senaryolarda kullanılırsa eğitim, sanat ve sinema gibi alanlarda büyük gelişmeler sunabilir. Ancak kötü niyetli kullanımlarla toplumsal güveni sarsabilecek kadar büyük sorunlar da doğurabilir.
Artık soru şu: Gördüğümüze değil, doğrulananına inanmayı öğrenmeye hazır mıyız?
Çünkü bu savaşta en büyük kozumuz, kuşkucu aklımız ve sorgulama yeteneğimiz olacak.
…
..
.
Peki ya doğrulamayı yapanları kim, nasıl doğrulayacak?