Video

En derin sahtekârlık: Deepfake teknolojisi 2020’ye damga vurabilir

Yapay zeka destekli "deepfake" yazılımlarıyla tablo ve fotoğraflar da videolaştırılabiliyor.
İnsan yüzünü kullanan teknolojilerin ardı arkası kesilmiyor. Telefonlarımızın kilidini açmak ve alışveriş yapmak gibi basit sayılabilecek işlevlerin yanı sıra, hayatta olmayan oyunculara yeni filmlerde rol vermek gibi daha karmaşık imkânlar da yapay zekâ sayesinde artık mevcut. “Deepfake” bu alanda birkaç yıldır en çok tartışılan uygulamalardan. Sahte pornografiden, siyasetçilere yönelik karalama kampanyalarına kadar geniş bir uygulama alanına sahip deepfake videoları, 2020 ABD Başkanlık Seçimi sürecinde daha çok tartışabiliriz.

Deepfake, birinin yüzünü dijital olarak başka birinin vücuduna monte edip onu istediğiniz gibi kontrol edebildiğiniz fabrikasyon bir medya çağını başlattı. Bu teknoloji ile, ses ve mimiğe kadar bir insanı baştan yaratmak mümkün. Deepfake videolar dolaşıma sokularak her konuda manipülasyon yapılabilir. Üstelik bunları üretebilmek için ne video montaj becerisi, ne “CGI” uzmanlığı gerekiyor. İnternetten kolayca ulaşılabilen hazır algoritmalar kullanılarak A kişisinin yüzü B kişisine montajlanabiliyor.

ABD’nin iki ünlü sunucusu, John Oliver ve Jimmy Fallon’un yüzlerinin takas edildiği aşağıdaki video, yaklaşık 15 bin kare fotoğraf kullanılarak eğitilmiş bir yapay zekâ modeliyle tasarlandı. Sahte (fake) videoyu yaratan kodun çekirdeğinde otomatik bir kodlayıcı ve giriş-çıkışların nasıl kontrol edilebileceğini bilen bir derin (deep) sinir ağı mevcut. Kodlayıcı insan yüzündeki mimiklerin bir sonraki karedeki görünümünü varsayımsal olarak tahmin edip videoyu tasarlıyor. Yapay zekâ eğitilirken ne kadar fazla gerçek görüntü kullanılırsa, oluşturulacak videonun sahte olduğunu anlamak o kadar zorlaşıyor.

Bu teknolojinin en çok memnun ettiği sektör, sinema… Star Wars’da Leia karakterini canlandıran oyuncu Carrie Fisher, ölümünün ardından, serinin son filminde bu teknolojiyle canlandırılmıştı. Sadece gişe filmleri değil, porno sektörü de deepfake videolardan yararlanmaya başladı. ABD’de bu endüstrinin önde gelen şirketlerinden Naughty America, müşterilerini istedikleri filmin özel sahnelerine yerleştirip yapay pornografi fikrine öncülük ediyor. Ancak şunu belirtmek gerekir ki, tarafların karşılıklı rızası da olsa, bu metalaştırmanın daha tehlikeli fikirlere gebe olduğunu öngörebilmek zor değil. Nitekim deepfake bir yandan da rıza dışı görüntülerin üretilip fidye talebi ve benzeri suç olaylarında kullanılabilmesini sağladı.

Sesi de taklit edebiliyor

Sadece beden ve yüz değil, ses de deepfake ile taklit edilebiliyor. Yapay zekâlı sesli asistanları ele alalım: Amazon’un Alexa’sı, Apple’ın Siri’si ve Google’ın Asistanı’nın başını çektiği bu sektör, artık sizin adınıza randevu alabilen, insanı karşı tarafta gerçek bir insan ile konuştuğu yanılsamasına düşürebilen, “hmmmm, ııııııııııı” gibi duraksamalarınızı dahi yapabilen ve insani tüm ögeleri başarıyla taklit edebilen hizmetler oluşturmaya başladı.

Deepfake teknolojik mi, yoksa ideolojik bir sorun mu? Temelinde salt yalanın yattığı bu sorunun sosyolojik bir çerçevede ele alınması gerekiyor. Deepfake teknolojisini iyi kullanan bir insanın eline, bir ülkenin demokrasisini kırılganlaştırma imkânı geçtiği vakit, bu durum teknolojik ve ideolojik saiklerin ötesinde yerlere gidiyor. Orada anonimliğin verdiği kuvvet ile gücüne güç katıyor ve reel dünyada var olmayan bir video, viral olması halinde hiçbir merkezi mekanizmanın müdahale edemeyeceği bir hızda yayılmaya devam ediyor.

Eski sevgililerden siyasetçilere…

Dünyada yükselen sağ popülizm ile birlikte artışa geçen kutuplaşma sonucu sekterliğin arttığı coğrafyalarda, deepfake videolar ile birlikte akışa sokulan politik manipülasyon büyük bir risk haline geliyor. Yakın gelecekte Türkiye’de de gerçeğinden ayırt edilemeyecek deepfake videolar üretilebilir, tanınmış simalar hedef alınabilir. Kimisi siyasetçilerin, kimisi eski sevgililerinin itibarlarını bu yolla yok etmeye çalışabilir.

İşte tam da bu yüzden, uzmanlar bir yandan da deepfake videolardaki hataları ayıklayabilecek yeni teknolojiler geliştirmekle meşgul. Nasıl ki Photoshop ile maniple edilmiş fotoğraflar çeşitli uygulamalar aracılığıyla piksel piksel analiz edilip sahtekârlıklar kolayca tespit edilebiliyorsa, deepfake videoları açığa çıkaracak analiz araçları da geliştirilme aşamasında.

Rusya trollerden sonra deepfake’i kullanabilir

Deepfake teknolojisi özellikle 2020 Başkanlık Seçimi süreci nedeniyle ABD’de endişe yaratıyor. 2016 seçimlerinde henüz yeterince gelişmiş olmadığı için fazla sorun çıkarmayan bu teknolojide son birkaç yıldır yapılan atılımlar, önümüzdeki aylarda sahte videoların siyasi amaçlarla daha yaygın kullanılabileceği öngörülerini besliyor. 2016 Başkanlık Seçimlerinin sonuçlarına troller vasıtasıyla etki ettiğine inanılan Rusya’nın, çok sayıda “kaliteli” deepfake üretip stratejik olarak bunları kullanarak seçim sonuçlarını kendi çıkarlarına göre yönlendireceğini öne sürenler var.

‘Hakikat sonrası çağ’ın bir parçası haline gelen deepfake teknolojisinin toplum üzerindeki uzun vadeli etkilerini kestirebilmek şimdilik oldukça güç. Eğer bu teknoloji kusursuzlaştırılırsa iletişim konusunda dünyada o kadar büyük bir güven eksikliği oluşacak; güvene ve mahremiyete dair görüşlerimiz öylesine etkilenecek ki, insanlar gördüklerine bile inanmayacak hale gelecek. Bu süreçte her zaman şüpheci olmakta ve gerçeği bulmaya çalışmakta fayda var.

İlkan Akgül

İlkan Akgül

Uzun yıllardır içerisinde bulunduğu reklam sektöründe birçok siyasi parti ve STK ile çalıştı. Çeşitli platformlarda editör olarak görev yaptı. Dijital haber servisi ShortMAG’ın kurucularından biri olan İlkan Akgül, Medyapod ağı üzerinden gerçekleştirilen ShortCAST isimli programın koordinatörlüğünü de yürütüyor. Yazıları ve çevirileri halen çeşitli platformlarda yayınlanmaya devam ediyor.