Yeni bir araştırmaya göre YouTube’un algoritması, bu platformun içerik kurallarını ihlal eden videoları kullanıcılara öneriyor. Bu yüzden dezenformasyon, nefret söylemi ve şiddet içeren videolar büyük kitlelere ulaşıyor. Dili İngilizce olmayan ülkelerde sorun daha da derin.
ABD merkezli özgür yazılım topluluğu Mozilla Vakfı, YouTube öneri algoritmasının nasıl çalıştığını inceleyen yeni araştırmasının sonuçlarını bu hafta yayımladı.
Exeter Üniversitesi’nden 41 araştırmacıyla 10 ay boyunca yürütülen çalışmada, açık kaynak kodlu bir tarayıcı eklentisi kullanılarak binlerce gönüllü YouTube kullanıcısına algoritmanın hangi videoları önerdiği incelendi. Böylece YouTube’un, kamuoyundan gizlediği algoritmik öneri verilerine dair bugüne kadarki en büyük veritabanı oluşturuldu.
Kullanıcılar önerilerin yüzde 71’ini onaylamıyor
Araştırmanın sonuçları özetle şöyle:
- YouTube’un “içerik politikası” gereği kâğıt üstünde yasakladığı türden videolar, algoritma tarafından önerilerek milyonlarca kullanıcıya ulaştırılıyor. Bunlar arasında COVID-19 gibi konularda felaket tellallığından siyasi dezenformasyona kadar birçok türde içerik var.
- Çocukların hedeflendiği birçok videoda müstehcenlik bulunmasına rağmen algoritma bunları da kullanıcılara öneriyor. Oyuncak Hikâyesi animasyon filminin cinsel parodileri buna örnek.
- Irkçılık ve kadın düşmanlığı içeren videolar da, içerik politikasına aykırı olmasına rağmen YouTube algoritması tarafından öne çıkarılıyor.
- Kullanıcılar, kendilerine önerilen videoların yüzde 71’nin algoritma tarafından öne çıkarılmasını yanlış buldu. Gönüllülere önerilen videolardan yaklaşık 200’ü, araştırmanın başlamasından sonra YouTube tarafından silindi. Silinmeden önce bu videolar 160 milyon kez izlenmişti.
- Dili İngilizce olmayan ülkelerde durum daha da kötü. Bu ülkelerdeki gönüllüler arasında, YouTube’un kendilerine önerdiği videoları onaylamayanların oranı yüzde 60 daha yüksek çıktı. Bu ülkelerde COVID-19 salgınıyla ilgili yanlış bilgi içeren videolar en büyük sorun.
‘YouTube’un kabul etmesi gerekiyor’
Araştırma ekibini de yöneten Mozilla’nın Savunudan Sorumlu Kıdemli Yöneticisi Brandi Guerkink’e göre, algoritma İngilizce dilinde daha iyi eğitildiği için, İngilizce konuşulmayan ülkelerde zararlı içerikleri daha sık öneriyor. Guerkink, “Algoritmasının insanlara zarar veren ve onları yanlış bilgilendiren bir şekilde tasarlandığını YouTube’un kabul etmesi gerekiyor” dedi.
Mozilla, YouTube’a öneri algoritması konusunda daha şeffaf olması çağrısında bulundu. Vakıf, ayrıca tüm platformların kullanıcılara, kişiselleştirilmiş önerileri kapatma seçeneği sunması gerektiğini vurguladı. Politika yapıcılar da, yapay zekâ ile çalışan bu tür sistemlerin şeffaflığını sağlayacak ve bağımsız araştırmacıları koruyacak yasalar çıkarmaya davet edildi.
Uluslararası Basın Enstitüsü (IPI) Dijital Medya Raporu‘nda da, YouTube öneri algoritmasının Türkiye’de iktidar medyasının izleyicilerini bir “yankı odasında” tuttuğu saptanmıştı. Rapora göre aynı algoritma, bağımsız medyanın izleyicilerini ise sık sık iktidar yanlısı YouTube kanallarına yönlendiriyor.
İLGİNİZİ ÇEKEBİLİR – YOUTUBE’DA TELİF SANSÜRÜ