İhlas Haber Ajansı’nın (İHA) yayımladığı “Çinli arama kurtarma personeli Müslüman oldu” başlıklı haberin görselinde yapay zekâ kullanıldığı kolayca anlaşılıyor. TRT, Sabah ve Yeni Şafak gibi onlarca medya kuruluşu bu haberi aktardı. Habertürk’ün Facebook paylaşımı, bu platformda son 24 saatte en çok etkileşim alan içeriklerden oldu. Haber metninin de asılsız olduğu iddia ediliyor. Tepkilerin ardından birçok medya kuruluşu haberi yayından kaldırdı. (Alttaki haberin sonunda önemli güncellemeler var.)
Sahte görselllerin üretilmesini kolaylaştıran programlar konusunda Journo olarak son yıllarda kamuoyunu uyarmış, özellikle son bir yılda geliştirilen GPT-3, Dall-E, ChatGPT ve Midjourney gibi uygulamalar nedeniyle “medyanın eskisi gibi olmayacağını” vurgulamıştık.
Son 24 saat içinde TRT Haber, Yeni Şafak, Sabah, Haber 7 ve Star gibi medya kuruluşlarınca yayımlanan “Çinli arama kurtarma personeli Müslüman oldu” başlıklı haber, Journo‘nun uyarılarının pek işe yaramadığını gösterdi.
İlgili haberin kaynağını araştırdığımızda, asparagas haberleri daha önce çok kez eleştirilen İhlas Haber Ajansı‘nı (İHA) bulduk.
Bu haber ilk kez Adem Demirkıran imzasıyla 13 Şubat 2023 akşamı İHA’nın web sitesinde yayımlandı. Sahte görseli İHA çalışanları üretmiş olabileceği gibi, kapalı sosyal medya grupları veya kişisel mesajlaşma uygulamalarında buna rastlayıp doğrulama yapmadan yayına almış da olabilirler.
Düzeltme ve özür yayımlayan yok: Bazı siteler haberi sildi ama çoğunda duruyor
Onlarca haber sitesinin yanı sıra Ülke TV gibi bazı TV kanalları da ekranlarda bu haberi aynen aktardı. Fotoğrafın manipule edildiğinin ortaya çıkmasının ardından Diyanet TV gibi bazı siteler haberi yayından kaldırdı.
İHA, 74 bin görüntüleme ve 1500’ü aşkın etkileşim alan tweetini bu dakika itibarıyla silmedi.
Habertürk‘ün paylaşımı da Türkçe haber kuruluşlarının son 24 saatte Facebook‘ta en çok etkileşim alan gönderileri arasında yer almayı sürdürüyor:
Haberdeki görselin manipule edildiğini anlamak için mevcut yapay zekâ uygulamalarının Journo‘da daha önce yer verdiğimiz özelliklerini bilmek yetiyor.
Fotoğraflara biraz dikkatli bakıldığında insan yüzlerinin ve özellikle gözlerin biçimsiz olduğu kolayca görülüyor (en üstte).
Ayrıca Dall-E ve Midjourney gibi yapay zekâ uygulamaları insan ellerini ve yazıları da genelde düzgün oluşturamıyor (altta).
Bu duruma dikkat çekilen BirGün haberinde, “Söz konusu yalan haberin İletişim Başkanlığı tarafından hazırlanan ‘Dezenformasyon Bülteni’ne girip girmeyeceği ise merak ediliyor” ifadesi kullanıldı.
Reuters Enstitüsü’nün 2018’de hazırladığı rapora göre Türkiye, dezenformasyon ve sahte haberlerin en çok görüldüğü ülke.
İHA, asılsız ve niteliksiz haberleri nedeniyle yakın geçmişte çok defa eleştirildi. Son olarak Journo‘da, çayın sağlığa etkisiyle ilgili uluslararası bir bilimsel araştırmayı İHA’nın Eskişehir’deki bir kıraathane işletmecisine doğrulattığına dikkat çekmiştik.
Güncelleme, 15 Şubat 2023, saat 13.20: Bu haberin yayımlanmasından kısa bir süre sonra, kurumuyla ilişkilendirilmesini istemediği için ismini yayımlamadığımız bir Journo takipçisi şu ihtimale de dikkat çekti: Özgün fotoğrafın bulanık olması nedeniyle yapay zekâ kullanılarak çözünürlük artırılmış olabilir. Haber sitelerinin yayımladığı düşük çözünürlüklü fotoğraf, yapay zekâ uygulamalarıyla iyileştirildiğinde, İHA’nın servis ettiği yüksek çözünürlüklü görsele yakın sonuçlar elde ediliyor. Bir başka Journo takipçisi, Remini uygulamasının bu iş için kullanıldığını belirtti. Ancak bu da durumu pek değiştirmiyor: Kötü niyet olmasa bile, manipule edilmiş görselleri, bu konuda bir uyarı bile koymadan yayımlamak gazetecilik etiğine aykırı.
Bu arada TRT de haberi yayından kaldırdı.
Bir Instagram paylaşımında, fotoğrafta görülen kişinin Çin’deki Hui topluluğunun bir üyesi olarak “zaten Müslüman olduğu” ve enkaz kaldırma çalışmalarında yer aldığı iddia edildi:
Güncelleme, 16 Şubat 2023, saat 10.52: Teyit de bu sabah bir analiz yayımladı. BirGün haberindeki ifadelere odaklanan analizde fotoğrafların orijinallerinde yazıların ve insanların yüzlerinin daha net görüldüğü, kişilerin yapay zekâyla üretilmedikleri belirtildi. Kişilerin yapay zekâyla “yoktan var edildikleri” üstteki Journo haberinde iddia edilmemiş, ilgili fotoğrafların çözünürlüğünü yükseltme (upscale) amacıyla yapay zekâ kullanıldığının anlaşıldığına dair yoruma yer verilmişti.
İLGİLİ:
Bu haber görselini yapay zekâ üretti: DALL-E gazetecilik için tehdit mi, fırsat mı?
Recep Tayyip Kılıçdaroğlu: Dikkat, sahte video üretmek artık çocuk oyuncağı
En derin sahtekârlık: Deepfake teknolojisi 2020’ye damga vurabilir
GPT-3 yapay zekâda çığır açtı: ‘Gazeteciliğin de otomatiği var, mesela Yılmaz Özdil yazıları’
Deprem haberleri: Medyanın “uzman” diye sunduğu bu adam, kâhin değil şarlatan