Yapay zekâ araçları giderek daha gerçekçi görüntüler yaratıyor. Görsel doğrulama süreçlerinde gazetecilerin de işini zorlaştıran bu sorunu çözmek için habercilerin ve teyitçilerin verdiği temel ipuçlarını derledik. “Deepfake” fotoğrafların ve videoların nasıl saptanabileceğini 5 maddede anlatıyoruz:
1. Işık, gölge ve arka plan tutarlılığı
Metin temelli komutları görsele dönüştüren DALL-E ve Midjourney gibi yapay zekâ modelleri, doğal görünmeyen, tamamen pürüzsüz ve düz yüzeyler yaratma eğiliminde. Örneğinin insan yüzü sık sık aşırı estetize edilmiş, “cilalı” gibi görünüyor. Ancak yine komutları ayarlayarak yapay zekânın daha gerçekçi yüzeyler yaratmasını sağlamak da mümkün.
Bu yüzden görsellerin ana nesnelerinden çok, ayrıntılarına odaklanmak, yapay zekâ kullanımını daha kolay saptamayı sağlayabilir. Uzmanlara göre “deepfake” oluşturmakta da kullanılan yapay zekâ modelleri özellikle ışık, gölge ve arka planda “gerçekdışı” görüntüleri daha sık üretiyor. Dolayısıyla, görseldeki ışığın ve gölgelerin odaktaki nesneyle arka plan arasındaki tutarlılığını incelemek yapay zekâ kullanımını saptamak için iyi bir başlangıç.
Örneğin, odaktaki nesneyle arka planın birleştiği sınırlarda oluşan bulanıklıklar, görüntünün yapay zekâ kullanılarak oluşturulduğunu düşündüren olası bir delil olabilir. Mevcut yapay zekâ modellerinden birçoğu, bir cihazın tuşları (örneğin klavye) gibi kendisini tekrarlayan örüntüleri ve çeşitli alfabelerdeki yazıları oluştururken de daha sık hata yapıyor.
2. İnsan yüzünde, parmaklarda ve saçlarda tuhaflık
Yapay zekâ modelleri insan yüzünün bazı unsurlarını tutarlı bir biçimde oluşturmakta zorlanabiliyor. Özellikle dişlerde, kulaklarda ve ağızda gerçekdışı görüntüler ortaya çıkabiliyor. Örneğin ağız açıksa dişler tek tek incelenip ne kadar gerçekçi göründükleri belirlenmeli. Saçlar, parmaklar ve vücudun çeşitli bölgeleri arasında cilt tonu tutarlılığı da günümüzdeki yapay zekâ modellerini görüntü oluştururken zorlayan unsurlar arasında.
Bir video söz konusuysa, bir insan konuşurken dudak hareketlerinin gerçeğe uygun olup olmadığı ve vücut hareketlerinin fiziksel tutarlılığı kontrol edilmeli. Dudak senkronizasyonu (lip-sync) uygulamaları ve Sora gibi yeni modeller giderek daha gerçekçi videolar üretse bile hâlâ gerçek dışı görüntüler ortaya çıkarabiliyorlar. Bu tür videolarda elbette seslerdeki tutarlılığı ve gerçekçiliği de dikkate almalı (örneğin sesin robotlaştığı kısımlar var mı?).
Bunun yanında, “deepfake” kullanımında başlıca tekniklerden birinin “yüz değiştirme” (face-swapping) olduğunu da unutmamak gerekiyor. Yani görüntünün büyük bölümü gerçekken, sadece yüz kısmı yapay zekâyla oluşturulmuş veya bir başka görüntü kullanılarak montajlanmış olabilir. Üstteki unsurları bu ihtimali de dikkate alarak incelemek faydalı bir strateji olur.
3. Büyük resme bakın, bağlamı esas alın
Bazen bir görüntünün hiçbir ayrıntısında bir gerçekdışılık saptanmasa bile büyük resim ve bağlam, yapay zekâ kullanımına dair şüpheler oluşturmaya yeter.
Örneğin bir fotoğrafta bir ünlünün hiç olmayacak bir şey yaptığı mı görülüyor? Mesela kamusal mekânlarda her zaman törensel dinî giysilerini giyen Papa’nın bir gün halkın önüne lüks bir şişme montla çıktığını gösteren en üstteki görüntü söz konusuysa şüphelenmek ve teyit için ek kanıtlar aramak gerekir.
Bir kişinin kendi karakterine uygun olmayan, gerçekçi görünmeyen veya abartılı bir hâlini gösteren bu tür görüntülerin kaynağını inceleyerek teyit sürecine başlayabilirsiniz. Görüntünün yayıncısı güvenilir bir kaynak mı? Görüntünün 5N1K‘si ne?
Teyit sürecinde “deepfake” videoların temelde 3 kategoriye ayrıldığını da hatırlayabiliriz:
-
- Eksik bağlam: Görüntü bağlamından koparılmış ve gerçeğin hatalı bir temsili ortaya çıkarılmış olabilir.
- Aldatıcı düzenleme: Görüntü yanıltma amacıyla kesilip biçilmiş, gerçekteki önemli unsurlar kadraj dışarıda bırakılmış olabilir.
- Kötü niyetli dönüştürme: Görüntü üzerinde oynanmış ve hatta hiç var olmayan unsurlar montajlanarak ona eklenmiş olabilir.
4. Yapay zekâ filigranı veya uyarı metinleri
Sahte görüntülerin yaygınlaşması üzerine yapay zekâ modellerini geliştiren şirketler yeni önlemler almak zorunda kaldı. Bunlardan biri de, yapay zekâyla oluşturulan görsellere filigran eklenmesi.
Elbette filigranın kolayca kesip atılabilecek bir biçimde eklenmesi (görselin bir köşesine konan logo gibi) pek bir koruma sağlamıyor. Ancak son aylarda yapay zekâyla oluşturulmuş görsellere görünmez filigranlar ekleyen şirketler de var. İlgili görsele dijital olarak şifrelenip kodlanan bu filigranları silmek o kadar kolay değil.
Ayrıca artık bu modelleri üreten şirketler, oluşturulan görselleri kullanacak kişi ve kurumların bunların yapay zekâyla oluşturulduğunu bir uyarı metniyle duyurmasını da şart koşabiliyor. Bu nedenle gazetecilerin, hem görünür veya görünmez filigranları araması, hem de şüpheli görsellerin ilk paylaşıldığı yayını bulup orada bir yapay zekâ uyarısı olup olmadığını kontrol etmesi yerinde olur.
5. Yapay zekâya karşı yapay zekâ kullanan tespit araçları
Gerek metinlerde gerekse görüntülerde yapay zekâ kullanımını saptamayı amaçlayan dijital araçlar sık sık yanlış sonuçlar verse bile, bazen işe yarayabilir.
“Deepfake” görüntü tespitinde örneğin Intel’in FakeCatcher adlı uygulamasını veya Microsoft’un aracını deneyebilirsiniz. Bu uygulamalar, görselleri piksel piksel inceleyip gerçek olup olmadıklarını saptamaya çalışan özgün algoritmalar kullanıyor.
Ayrıca makine öğrenme teknikleri kullanarak bir fotoğrafın coğrafi konum tespitini yapmaya çalışan Geolocation Estimation gibi farklı uygulamalar da var.
- Bu ipuçlarını, uluslararası haber ajansı Associated Press‘in, Washington Post gazetesinin ve kâr amacı gütmeyen uluslararası doğrulama kuruluşu Africa Check‘in ilgili içeriklerindeki uzman tavsiyelerini özetleyerek derledik.
İLGİLİ:
Montaj tespit araçları: “Seçimler yılında klon seslere hazır mıyız?”
Pulitzer Ödülleri’nin bu yılki 5 finalisti yapay zekâ destekli
Medyada yapay zekâ devriminin tartışıldığı TEKİL 18’de öğrendiklerim
Tarihi anlaşma: Avrupa Birliği Yapay Zekâ Yasası’nda neler var?
Cesur yeni dünya: Habercilikte yapay zekâ stratejisi için 5 tavsiye