GAZETECİLİK

Hey Grok bu doğru mu?

ABD ve İsrail’in İran’a dönük saldırısı nedeniyle tırmanan çatışmalar, dijital dezenformasyonun en net laboratuvarı hâline geldi.

Kriz anlarında doğru bilgiye ulaşmak, hızla yayılan komplo teorileri ve sahte içeriklerle mücadelede her zamankinden daha hayati bir öneme sahip.

Peki okuyucu/izleyici sahte ve gerçeği nasıl ayırt edebilir.

İşte ipuçları…

Tel Aviv’in tamamen harabeye döndüğü, gökyüzünden alevlerin yağdığı, binaların bombardman altında ikiye yarıldığı görüntüler; Hamaney’in enkaz altında kaldığı iddiaları; düşürüldüğü öne sürülen İsrail savaş uçakları, İran’ın İsrail’e nükleer saldırı başlattığına dair “son dakika” anonsları… Son günlerde sosyal medya, ABD ve İsrail’in İran’a dönük adımlarının ardından yayılan yüzlerce manipüle edilmiş içerikle çalkalanıyor. Kimi gazeteciler ve bazı haber kanalları da bu tuzağa düşerek yanlış bilginin hızla yayılmasına katkı sağlıyor. Uzmanlar, özellikle yapay zekâ ile üretilmiş videoların ayırt edilmesinin giderek zorlaştığını belirtiyor. İzleyicilere düşen görev ise kaynakları doğrulamadan paylaşmamak, resmi açıklamaları takip etmek ve görüntülerin orijinalliğini kontrol etmek. Sosyal medyanın hızına kapılmadan “doğru bilgi”yi ayırt etmek, kriz anlarında kritik önem taşıyor.

İnsanlık tarihinin en büyük ironilerinden biriyle karşı karşıyayız: Bilgiye saniyeler içinde erişebildiğimiz bir çağda, saf gerçeğe ulaşmak hiç olmadığı kadar zorlaştı. Modern krizler ve savaşlar artık fiber optik kablolar, devasa sunucu çiftlikleri ve algoritmalar aracılığıyla dijital dünyanın kalbinde de yaşanıyor. ABD, İsrail ve İran ekseninde tırmanan çatışmalar, bu dijital savaşın en net laboratuvarı hâline geldi. İlk kaotik anlarda, toplumların en temel ihtiyacı olan güvenilir bilgi, hızla manipülatif ve zehirli dezenformasyonla yer değiştirdi.

İstanbul Bilgi Üniversitesi öğretim üyesi Prof. Dr. Erkan Saka, geleneksel haberciliğin veri toplamak için zamana ihtiyaç duyduğunu, bu nedenle arada bir “bilgi boşluğu” oluştuğunu söylüyor. Bu boşlukta insanlar kaygı ve korku altında analitik düşünmek yerine duygusal tepkiler veriyor; en hızlı ve en açıklayıcı görünen anlatılar öne çıkıyor. Komplo teorileri, söylentiler ve yapay zekâ ile üretilmiş içerikler de tam bu boşluğu dolduruyor.

Şubat 2026’daki yoğun askeri operasyonlar sırasında X, Facebook ve Instagram gibi sosyal ağlar, alevler içinde düşen savaş uçakları ve geceyi aydınlatan füze videolarıyla dolup taştı. Bu kriz anında, bir video olağanüstü hızla viral oldu: F-35 savaş uçağının yoğun uçaksavar ateşiyle vurulduğu ve İran’ın tarihte bir Amerikan yapımı F-35’i düşüren ilk ülke olduğu iddia ediliyordu. Gece görüşü tonlarında, amatör bir asker kamerası titremesiyle ve üzerine eklenmiş Farsça marşlar, sahte “Breaking News” bantlarıyla servis edilen içerik, kısa sürede tek platformda 70 milyon izlenmeye ulaştı 

GROK BİLE YANILTTI

Oysa bu görüntüler, Çekyalı oyun stüdyosu Bohemia Interactive’in geliştirdiği ve gelişmiş fizik motoruna sahip “Arma 3” oyunundan kaydedilmişti. X’in yapay zekası Grok, kullanıcı yorumlarını analiz ederken sentetik ile gerçeği ayırt edemedi ve oyun görüntülerini gerçek bir saldırı sanarak “İran, Tel Aviv’i Ağır Füzelerle Vurdu” başlığıyla öne çıkardı.

Prof. Dr. Erkan Saka’ya göre, en gelişmiş büyük dil modellerinin (LLM) bile kirlilikten zehirlenmesini ve yanılmasını medyanın yapısal bir zafiyeti olarak değerlendirmek gerekiyor.  Yaşanan durum üç katmanlı bir zafiyete işaret ediyor. Platformlar insan moderasyonunu azaltıp denetimi yapay zekâya bırakırken, LLM’ler eğitimlerindeki örüntü yakalama mantığı nedeniyle bilgi kirliliğini gerçek sanabiliyor. Kullanıcılar ise bu araçları “tarafsız hakem” gibi gördüğü için yaygın yanlışlar kolayca yeniden üretiliyor. Saka, bu nedenle sorunlu bir bilgi ekosistemine yapay zekâyı denetleyici olarak eklemenin başlı başına bir hata olduğunu söylüyor. Dünyanın en gelişmiş dil modellerinden birinin bir bilgisayar oyununa ait görüntüleri milyonlara “son dakika haberi” gibi servis edebilmesi, bağımsız teyit mekanizmalarının artık yalnızca entelektüel bir tercih değil, bir güvenlik meselesi olduğunu gösteriyor.

“DUYGUYU KENARA BIRAKMAK GEREK”

Doğrula.org’un direktörü Yunus Çağlar, böyle bir içerikle karşılaştıklarında ilk yaptıkları şeyin duygusal reaksiyonu bir kenara bırakmak olduğunu ifade ediyor. Savaş görüntüleri özellikle güçlü duygular üretmek için dolaşıma sokulabiliyor; bu yüzden uzmanlar doğrulama sürecine bir nevi “dijital olay yeri” gibi yaklaşıyorlar. Evrimsel sürecimiz boyunca insan beyni, tehlike anlarında uzun uzun analitik düşünmek yerine hızlı, sezgisel ve hayatta kalmaya yönelik kararlar vermek üzere tasarlandı. Çarpıcı bir hastane patlaması, ABD veya İsrail üslerine yönelik kanlı bir çatışma anı gördüğümüzde, beynimizin amigdalası (duygusal tepki ve korku merkezi) anında devreye girerek rasyonel düşünceyi bloke eder .

Prof. Dr. Saka’nın da eklediği üzere, dezenformasyon üreticileri tam da bu nöropsikolojik açıklığı hedeflemekte; beynin tehdit algısını tetikleyen içerikler tasarlayarak teknik manipülasyon ile duygusal mimariyi birbirini besleyecek şekilde konumlandırmakta.

Yunus Çağlar görüntü kalitesi düştüğünde görsel analizin yeterli olmadığını söylüyor: Videolar karelere ayrılıyor, tersine görsel aramalarla eski veya net versiyonlara ulaşılıyor. Arama sonuç vermezse coğrafi doğrulama ve teknik incelemelerle içeriğin gerçekliği saniyeler içinde tespit edilebiliyor.

CNNTÜRK ÖRNEĞİ VE TEYİT MEKANİZMALARINDAKİ ZAFİYET

Bu dezenformasyon taktiğinin çarpıcı örnekleri sadece küresel ağlarda değil, Türkiye’deki ulusal yayın organlarında da açıkça görülmekte. Örneğin, krizin tırmandığı anlarda CNN Türk ekranlarında “İran’dan misilleme / Tel Aviv” alt yazısıyla son dakika olarak verilen sıcak çatışma ve yıkım görüntülerinin, aslında 6 Şubat Kahramanmaraş depremlerinde yıkılan binalara ait eski bir video olduğu saniyeler içinde teyit edildi. Gazeteci Umut Taştan tarafından da ortaya konan bu durum da medya kuruluşlarının teyit mekanizmalarındaki zafiyeti özetlemekte.

Doğrula.org direktörü Çağlar’a göre teyitçiler tek bir büyük hatadan çok küçük tutarsızlıkların birikimine bakıyor; çünkü yapay üretimlerde zamanla mutlaka bir uyumsuzluk ortaya çıkıyor. Örneğin, Arma 3 ile üretilen İran–İsrail F-35 videosunda odak derinliği hataları dikkat çekiyor. Gece hızla uçan bir jeti çeken kamerada arka planın bulanık olması gerekirken, görüntüde uçak, mermiler ve kilometrelerce uzaktaki detaylar aynı anda net görünüyor. Ayrıca patlama ve duman efektleri de gerçek hayattaki kaotik davranış yerine döngüsel ve şablon biçimde tekrar ediyor.

Kriz anlarında dolaşıma giren “yıkıntılar önünde ağlayan sivil” türü görüntülerde kulakların yüzle bağlantısı, göz bebeklerinin şekli ya da gözlerdeki ışık yansımaları gibi detaylar çoğu zaman doğal davranmaz. Işık ve gölge ilişkisi de sık sık tutarsızdır; sahnedeki nesneler farklı yönlerden aydınlanıyormuş gibi görünebilir. Yapay zekâ insan anatomisini iki boyutlu verilerden öğrendiği için parmak eklemleri, el hareketleri ve nesne sürekliliği gibi ayrıntılarda hatalar üretir. Bir karede görülen bir nesne sonraki karede aniden kaybolabilir ya da gölgeler ışık kaynağıyla uyum göstermez. Manipülatörler bu kusurları gizlemek için görüntü kalitesini bilerek düşürür, videoları defalarca sıkıştırarak pikselleştirir ve WhatsApp ya da Telegram gibi ağlarda dolaşıma sokar. Böylece dijital hatalar “savaş alanı pürüzü” gibi algılanır. Yine de teknoloji gelişse bile doğrulama imkânsız hale gelmiyor. Yunus Çağlar’a göre mesele artık yalnızca görüntünün sahte olup olmadığını göstermek değil; o görüntünün ortaya atılan iddiayı gerçekten kanıtlayıp kanıtlamadığını anlamak.

Tüm bu teknik zafiyetlere rağmen, neden milyonlarca insanın bu bariz kurgulara inanıp onları hızla yaydığı sorusunun cevabı, silikon çiplerinde değil, kitle psikolojisinde yatmakta. Çatışma ve terör saldırısı gibi yüksek anksiyete  anlarında, bireyler yavaş ve şüpheci olan eleştirel düşünme sistemlerini kapatıp, tamamen hayatta kalmaya ve taraf olmaya odaklı duygusal reflekslere geçmekte. Habertürk’ten Çetiner Çetin’in X platformunda yaptığı bir paylaşımda bu durum gözlemlendi. Çetin, İran’da dans eden ve gülen insanların olduğu bir videoyu paylaşarak üzerine şu notu düştü: “Dünyada en acı manzaralardan biri, bir insanın kendi ülkesi vurulurken buna kayıtsız kalabilmesi; bombalar düşerken dans edebilmesi, gülebilmesidir. ” Ancak bu yoğun ahlaki ve sosyolojik çıkarımlara zemin hazırlayan videonun gerçekliği bambaşkaydı; paylaşılan görüntüler güncel bir bombardıman anına ya da halkın duyarsızlığına değil, çok daha geçmişte İran’daki kadın hareketinin aktifleştiği, sivil itaatsizliğin yükseldiği bir döneme aitti.

YANKI FANUSLARI

Saka’ya göre savaş anlarında keskinleşen “biz ve onlar” ayrımı, sosyal medyadaki yankı fanuslarını duygusal siper hatlarına dönüştürüyor. Kullanıcılar kendi kimlik ve aidiyetlerini doğrulayan içeriklerle karşılaştığında şüphe duymak yerine “zaten biliyordum” duygusuyla hareket ediyor ve yanlış bilgiyi yeniden üretiyor.

Yunus Çağlar da dezenformasyonla mücadelede en zor alanın bu psikolojik boyut olduğunu söylüyor. Çünkü insanlar bir içeriğe yalnızca doğru olduğuna inandıkları için değil, kendi dünya görüşleriyle uyumlu olduğu için tutunabiliyor. Bu içerikler yankı fanuslarında tekrarlandıkça “İllüzyonist Hakikat Etkisi” devreye giriyor; insan beyni sık karşılaştığı bir bilgiyi zamanla daha güvenilir algılamaya başlıyor.

Prof. Dr. Erkan Saka’ya göre Türkiye’de yalnızca geriye dönük doğrulama ile yetinmek artık yeterli değil. Saka, manipülasyonlara karşı kitleleri korumak için ilkokuldan üniversiteye uzanan dijital okuryazarlık eğitiminin müfredatın bir parçası hâline getirilmesi gerektiğini vurguluyor. Bu inisiyatifler yalnızca devletle sınırlı kalmamalı; sivil toplum kuruluşları ve gazeteciler de dahil edilerek, çoğulcu, tarafsız ve şeffaf projelerle bir propaganda değil, toplumsal bağışıklık mekanizması olarak tasarlanmalı.

SAHTEYİ AYIRT ETMEK İÇİN DÖRT BASİT İPUCU

Özellikle kriz anlarında sosyal medyada gördüğünüz bir videonun sahte olup olmadığını anlamak için bu basit hileleri uygulayabilirsiniz:

  • Mavi Tike Aldanmayın: Videoyu paylaşan hesap onaylı (mavi tikli) olabilir ancak bu her zaman güvenilirlik anlamına gelmez. Hesabın takipçi sayısına, katılım tarihine ve daha önceki paylaşımlarının ne olduğuna mutlaka bakın.
  • İlk Kaynağı ve Güvenilir Ajansları Arayın: Videoyu ilk kimin paylaştığını bulmaya çalışın. Güvenilir, bilinen haber ajansları bu bilgiyi geçmiş mi veya teyit etmiş mi diye kontrol edin.
  • Ekran Görüntüsü ile Google’da Aratın: Videonun dikkat çekici bir anından ekran görüntüsünü alın ve “Google Görseller”de (Google Images) aratın. Eski bir oyun videosu veya geçmiş yıllara ait bir olay olup olmadığını hızlıca görebilirsiniz.
  • Yorumları Mutlaka Okuyun: Alttaki yorumları inceleyin. Dikkatli kullanıcılar veya teyit platformları videonun sahte olduğuna dair kanıtları ya da gerçek kaynağı yorumlarda çoktan belirtmiş olabilir.
Etiketler

Volkan Kahyalar

Edebiyat, kültür, sanat, bilim ve felsefe alanlarında içerik küratörü ve serbest gazeteci. Kitapdedektifiyiz adlı YouTube, podcast ve blog kanallarının kurucusu. Birçok dergide öyküleri yayımlandı.

Journo E-Bülten

ÖNE ÇIKANLAR