Büyük teknoloji şirketleri, yapay zeka sistemlerini kullanıcı deneyimini iyileştirmek için ‘olumlu’ ve ‘nötr’ içerikleri öne çıkaracak şekilde geliştiriyor. Ancak bu sürecin beklenmeyen bir sonucu var: Eleştirel haberler ve sorgulayıcı içerikler giderek daha az görünür hale geliyor. Bilgi ekosistemini yönlendiren bu yapay zeka düzenlemeleri, haber alma hakkımız üzerinde dolaylı bir sansür etkisi yaratıyor ve artık yalnızca bir teknoloji tartışması değil, küresel ölçekte düzenlenmesi gereken bir mesele haline geliyor. Böylece, yapay zeka destekli algoritmalar, bilinçli bir sansür mekanizması kurmasa bile, eleştirel haberciliği sistematik olarak geri plana iterek dolaylı bir sansür etkisi yaratıyor.
Türkiye’de ‘zorla güzellik olmaz’ diye bir söz vardır. Görünen o ki, zorla güzellik olmuyor ama teknoloji devleri tarafından bize ‘zorba iyimserlik’ dayatılıyor.
İnsanlığı koruma refleksiyle şekillendirilen yapay zeka, insanlığa çocuk muamelesi yapmaya başlıyor. Gerçek dünyadaki acı gerçekleri yumuşatıyor, sert haberleri daha az görünür hale getiriyor ve böylece ‘zorba iyimserlik’ dediğimiz bir sistem ortaya çıkıyor. Doğru bilgiye erişim hakkı, algoritmaların etrafımıza yarattığı pembe filtrenin içine hapsediliyor.
Türkiye’de dijital medyanın önde gelen alternatif haber sitelerinden biri olan Gazete Duvar da bu pembe filtrenin sebep olduğu maddi sıkıntılar ve düşen ziyaretçi trafiği nedeniyle yayın hayatına son verme kararı aldı.
Ekim 2024’ten beri benzer şekilde erişimlerinin kısıtlandığını belirten diğer dijital gazeteler ise, yayın hayatlarını sürdürmelerine rağmen hem Gazete Duvar ile dayanışmalarını göstermek, hem de aynı kaderi paylaşabilecekleri endişesiyle tepkilerini dile getirmek için “Google’ın yıkıcı ambargosunu protesto ediyoruz” başlığıyla kamuoyuna açık bir mektup yayınladılar.
Büyük teknoloji şirketleri, yapay zeka sistemlerini geliştirirken üç temel motivasyonla hareket ediyor:
1. İnsanlığın yapay zekadan korkmasını önlemek: Böylece yapay zekanın gelişimine engel olunmaması sağlanıyor. Eğer toplum, yapay zekanın tehlikeli olduğu düşüncesine kapılırsa, bu alandaki yatırımlar azalabilir ve teknoloji şirketleri hem ekonomik hem de stratejik kayıplar yaşayabilir.
2. Yapay zekanın kullanıcılar üzerinde olumsuz sonuçlar doğurmasını engellemek: Olası trajedilerden ve büyük tepki çekebilecek hatalardan kaçınarak, linç kampanyalarının ve düzenleyici kurumların baskılarının önüne geçmek hedefleniyor.
3. Kullanıcıları mutlu etmek ve fayda sağlamak: Kullanıcılar yapay zekadan memnun kaldıkça, onunla daha fazla etkileşim kuruyor, daha fazla veri üretiyor ve sistemin öğrenme süreci hızlanıyor. Bu da, yapay zekanın gelişimini sürdürülebilir hale getiriyor.
Bu üç temel motivasyon, teknoloji devleri için yapay zekayı nasıl şekillendireceklerini belirleyen en büyük çerçeve haline gelmiş durumda.
Bu kriterlere bağlı kalarak yapay zeka yatırımlarını genişleten teknoloji devleri “kullanıcılarını mutlu etmek ve fayda sağlamak” amacıyla ve “insanlarda olumsuz bir etki yaratmaması” isteğiyle çoğunlukla ‘olumlu’ ve ‘nötr’ içerikleri öne çıkaracak şekilde geliştiriyor.
Ancak sosyal medya platformlarından yapay zeka destekli dil modellerine, arama motorlarından içerik keşif sistemlerine kadar genişleyen bu düzenleme, eleştirel içeriklerin ve sert toplumsal gerçekliklerin görünürlüğünü sistematik olarak azaltıyor.
İnsanlığı koruma refleksiyle şekillendirilen yapay zeka, bu kez insanlığa çocuk muamelesi yapmaya başlıyor. Gerçek dünyadaki acı gerçekleri yumuşatıyor, sert haberleri daha az görünür hale getiriyor ve böylece ‘zorba iyimserlik’ dediğimiz bir sistem ortaya çıkıyor. Doğru bilgiye erişim hakkı, algoritmaların etrafımıza çizdiği pembe çerçevenin içine hapsediliyor.
Üstelik burada göz ardı edilen önemli bir konu var: Olumlu ve olumsuz içerikler arasındaki ayrım kim tarafından ve nasıl yapılıyor?
İnsan yaşamı gibi kritik konular tartışılırken felsefi açmazlara (örneğin tramvay ikilemi gibi etik sorulara) giriyoruz, ancak yapay zeka destekli algoritmaların çevremize kurduğu bu pembe filtreyi sorgulamanın vakti geldi de geçiyor bile.
İnsanlık yapay zekaya sınırlar çizerken, aslında farkında olmadan onun da insanlığa sınırlar çizmesine neden olunan bu noktada neyin ‘olumlu’ neyin ‘olumsuz’ olduğuna kim karar veriyor? Ve bu kararlar, toplumun haber alma hakkını nasıl etkiliyor?
Yapay zekanın giderek artan bu dolaylı sansür etkisi, artık yalnızca basının ve teknolojinin meselesi değil, yasalar ve uluslararası antlaşmalarla düzenlenmesi gereken bir konu haline gelmiş gibi görünüyor.
Alternatif basın, buz dağının görünen yüzüne odaklanarak kamuoyuna yaşanan süreci ‘sansür’ olarak yansıttı.
Ancak derinlemesine bakıldığında teknik altyapı yetersizliklerinin de sansür mekanizmasını perçinleyen bir unsur olduğunu da söylemek mümkün.
Herkesin Google Page Speed Insights gibi basit araçlarla yapabileceği türden analizlerle bu medya kuruluşlarının neredeyse hepsinin teknik olarak geri kalmış, mobilde başarısız ve yavaş web siteleri olduğu gerçeği gözlemlenebilir.
Not: Bu yazı için Türkiye’de medyanın dijital yeterlilik analizi adlı bir çalışma yaptık ve verilerin hala aynı olduğunu gördük. 15-16 Mart 2025 tarihinde toplanmış verilerden oluşturulan bu analizde birçok dijital gazetenin mobil ve desktop hızlarına erişebilirsiniz.
Burada ayrıca algoritmadan etkilenecek sitelerin olumlu-olumsuz-nötr içerik yüzdelerine ulaşabilirsiniz. Bu verilerin ortaya koyduğu tablo, alternatif basının neden daha az görünür hale geldiğini anlamamız açısından kritik.
Peki, yapay zeka destekli algoritmalar, içerikleri hangi kriterlere göre değerlendiriyor? Alternatif, anaakım ve yandaş medyanın içerik kompozisyonları arasındaki farklar ne anlatıyor? Bir sonraki bölümde, bu soruların yanıtlarını Türkiye’de medyanın dijital yeterlilik analizi kapsamında elde ettiğimiz sonuçlarla ele alacağız.
T24 yazarı Eray Özer’in Google Arama’nın global basın sözcüsü Danny Sullivan ile yaptığı söyleşi, konuyu daha sağlıklı bir çerçeveye oturttu ve bilgi kirliliğini önleyen önemli bir adımdı.
Danny Sullivan’ın açıklamaları için aslında bir Google yetkilisine bile gerek yoktu. Türkiye’de dijital pazarlama ve SEO ile ilgilenen herhangi bir uzman benzer cevapları verebilirdi. Ancak bu açıklamaların Google sözcüsü tarafından dile getirilmesi, en azından “çözümcü bir anlayışla meseleye yaklaşılıyor” algısını yarattı ve benim gözümde de konunun hem basın hem de Google tarafından tamamen görmezden gelinmediği fikrini pekiştirdi.
Aslında Sullivan’ın verdiği yanıtlar ne kadar muğlak olursa olsun, Google’ın işleyişini bilenler için şaşırtıcı değildi.
Örneğin, Google’ın arama motoru üzerine en yetkin isimlerinden biri olan John Mueller de hiçbir zaman net vaatlerde bulunmaz. “Doğru olan metodlar şunlardır, bunlara özen gösterilmesi gerekir” gibi genel ifadeler kullanır ancak bu uygulandığında bile sonuçların değişeceğine dair bir teminat vermez.
Bizler de bu ekosistemde çalışan dijital pazarlamacılar, reklamcılar ve yazılımcılar olarak Mueller’in bile net vaatlerde bulunmadığı bir sistemde, kesin sonuçlar vadetmenin açıkça yalan söylemek olacağını biliriz. Bu yüzden Danny Sullivan’ın her soruya muğlak ifadelerle genel çerçeveden yanıt vermesi şaşırtıcı değildi.
Ancak alternatif basının tatmin olmamasının sebebi, görüşmeyi “sorunun kaynağını anlama” amacıyla değil, “çözüm mercisine talep iletme” olarak değerlendirmeleriydi.
Oysa şu açık bir gerçek: Google’ın yapay zeka yatırımlarına yön verenler sadece mühendisler değil, sermayedarlar, yönetim kurulu ve stratejik karar alıcılardır. Algoritmada bölgesel taleplere göre bir değişiklik yapılması mümkün değildir; bu tür değişiklikler küresel ölçekli, uzun vadeli stratejik kararlarla hayata geçirilir.
Bu noktada en önemli detay ise Şirin Payzın ve Murat Sabuncu’nun da yer aldığı T24 YouTube yayını sırasında Eray Özer’in değindiği bir ayrıntı aslında kritik bir noktaydı:
“Danny Sullivan, ‘sansür’ ile ilgili her soruya öfkelendi”
Bu ayrıntının ortaya koyduğu tablo bana şunu gösterdi: Ne bizim alternatif basınımız ne de Google yalan söylemiyordu. Ancak ortada bir gerçeklik vardı ve bu gerçekliği görmek için
1. Google’ın büyük verisine sahip olmamıza gerek yoktu. Düzinelerce dijital gazete “trafiğimiz azaldı” diyordu – ki bu, tek başına yeterince büyük bir veri anlamına geliyordu.
2. Google, bilinçli bir sansür uygulamadığını söylüyordu ve sözcüsü, bu iddianın konuşulmasından bile rahatsız oluyordu.
Buradan yola çıkarak, Danny Sullivan’ın söyleşisini detaylı incelediğimde başka bir detay daha fark ettim;
Sullivan, Google’ın bilinçli bir sansür uygulamadığını vurguluyordu ancak bir yandan da algoritmanın böyle olumsuz sonuçlar doğurmuş olabileceğini kesinlikle reddedemiyordu.
Bu şu anlama geliyordu: Google belki kasıtlı olarak sansür yapmıyordu ama yapay zeka destekli algoritmada yapılan küçük bir değişiklik, farkında olmadan bir sansürü tetiklemiş olabilirdi.
Bu zaten sansür olduğunu düşünenler için bir şey ifade etmeyebilir ancak biz uzmanlar için önemli bir detaydı.
Çünkü biz de, Sullivan da; yapay zeka kendisine çizilen çerçevede özerk bir şekilde ilerlediğini çok iyi biliyoruz.
Dolayısıyla bir çocuğun ebeveynleri onu iyi niyetle yetiştirmiş olabilir, ancak bu onun ileride suç işlemeyeceği anlamına gelmez. Hatta yetiştirilme biçimindeki bazı hatalar bu suçun motivasyonu haline bile gelebilir.
Bu ipuçlarını takip ederek derinlemesine araştırmalara başladım. Fikrine kıymet verdiğim uzmanlarla yaptığım görüşmeler ve saha verileri, yapbozun parçalarını birleştirmemi sağladı.
Ve araştırmamın sonucunda şu sonuca vardım:
1. Bizim basın haklı: Ortada bir sansür var.
2. Ancak bu Google’ın belirttiği gibi: Bilinçli ve kasıtlı bir sansür değil. Bu, dünyada yaşanan büyük bir teknolojik devrimin: Yapay zeka devriminin yan etkisi (ama nihayetinde sansür).
Özetle bizim basın da Google da haklı çıktı.
Peki, bu sonuç verilerle nasıl doğrulanıyor?
Alternatif, anaakım ve yandaş medyanın içerik kompozisyonu yapay zeka tarafından nasıl değerlendiriliyor?
Bu soruların yanıtlarını, Türkiye’de Medyanın Dijital Yeterlilik Analizi kapsamında elde ettiğimiz sonuçlarla bir sonraki bölümde ele alacağız.
Alternatif basının görünürlüğünün azalmasının nedenlerini anlayabilmek için Türkiye’de medyanın dijital yeterlilik analizini yaptık.
Bu analiz için önce 46 basın kuruluşunun teknik altyapısını inceledik. Anaakım, alternatif ve yandaş olarak tarif edilen bütün dijital gazeteler birbirileriyle benzer teknik altyapıya sahip olmalarına ve Google’ın temel kriterlerini karşılamada aynı seviyede olmasına rağmen alternatif medya ekstra bir trafik kaybı yaşıyordu.
Bu noktada Google’ın kendisini sadece son kullanıcı için değil aynı zamanda ChatGPT, DeepSeek gibi YZ teknolojileri için de geliştirdiğini ve Gemini’ye yatırım yaptığından yola çıkarak; peki yapay zeka websiteleri nasıl değerlendiriyor sorusunu sorduk.
Böylece yapay zekanın içerikleri Doğal Dil İşleme (NLP) ile analiz ettiğinde sorunun ortaya çıktığını tespit ettik. Çünkü NLP sürecinin en önemli kısımlarından birisi duygu analiziydi (Sentiment Analysis).
Biz de 46 basın kuruluşunun son 1 yıl içerisinde ürettikleri Siyaset ve Ekonomi temalı haberlerinden 500’er tanesini Doğal Dil İşleme (NLP) ve Duygu Analizi (Sentiment Analysis) yöntemleriyle inceledik.
Not: İşte bu analizin temel farkını ve sansür iddiasının ana argümanını da bu veri setleri oluşturuyor.
Her dijital gazetenin ve gruplandırdığımız kategorinin ortalama içerik kompozisyonu, yapay zekanın nasıl bir filtreleme mekanizması oluşturduğunu gösteren önemli ipuçları sunuyor.
1. Anaakım medya: Etliye sütlüye karışmamanın avantajları
Anaakım medya kuruluşları, eleştirel söylemlere yer vermek yerine içeriklerinde denge siyasetini içeren bir dil kullanıyor ve algoritma açısından bakıldığında daha fazla nötr haber üretiyor. Dolayısıyla içeriklerin algoritmalar tarafından geri plana atılma riski azalıyor.
Anaakım medyanın içerik dağılımı:
Olumlu (iyimser): %16
Nötr: %68
Olumsuz (eleştirel): %16
Hiçbir anaakım medya kuruluşunda eleştirel içerik olarak değerlendirebileceğimiz ‘olumsuz dil ve anlam yapısı içeren’ içerik oranı %30’un üzerine çıkmıyor.
Not: Anaakımda oranı yükselten aslında 2025 yılında haber yapmaya devam ettiğini fark ettiğimiz Radikal. O da olmasa eleştirel içerik oranı %20’yi geçmiyor.
En yüksek ‘olumlu’ içerik oranı ise %28, en düşük oran ise %10 civarında.
Bu dağılım, Google ve diğer algoritmaların, anaakım medyanın içeriklerini daha fazla önerdiğini ve keşfet sekmesinde daha çok yer verdiğini gösteriyor. Çünkü anaakım medya, yapay zekanın önceliklendirdiği ‘pozitif’ ve ‘nötr’ içerik üretim modeline daha uyumlu.
2. Yandaş medya: Zoraki iyimserliğiyle algoritma tarafından da ödüllendiriliyor
Daha hükümet yanlısı yayın yapan medya kuruluşları, içeriklerinde ağırlıklı olarak olumlu anlatı kullanıyor. Bu nedenle yapay zekanın filtreleme mekanizmasından en az etkilenen grup oluyorlar.
Yandaş medyanın içerik dağılımı:
Olumlu (iyimser): %42
Nötr: %33
Olumsuz (eleştirel): %25
Bazı yandaş medya organlarında ‘olumlu’ içerik oranı %55’e kadar çıkabilse de ‘olumsuz’ içerik oranı %40’ı aşmıyor.
Sonuç olarak, yapay zeka tarafından “daha olumlu” olarak işaretlenen haberler öne çıkarıldığı için, bu yayınlar algoritmalar tarafından daha fazla öneriliyor.
3. Alternatif medya: Algoritma değişikliğini en yoğun hisseden cephe
Alternatif medya kuruluşları genellikle eleştirel, sorgulayıcı ve toplumsal meselelere duyarlı içerikler üretiyor. Ancak yapay zeka algoritmaları bu içerikleri olumsuz olarak değerlendirdiğinde, haberlerin yaygın görünürlüğü azalıyor.
Alternatif medyanın içerik dağılımı:
Olumlu (iyimser): %10
Nötr: %43
Olumsuz (eleştirel): %48
En eleştirel içerik oranı %80 ile Sözcü’de, en fazla ‘olumlu-iyimser’ içerik üreten TV100 bile %25’in üzerine çıkamıyor.
Örneğin, Gazete Duvar ve Halk TV’nin içeriklerinde olumsuz olarak değerlendirilen eleştirel içerik oranı %70’in üzerinde.
Not: Sözcü en yüksek eleştirel içeriği barındırmasına rağmen yıllardır Türkiye’de en çok ziyaret edilen ilk 10 haber sitesi içerisinde yer aldığı için algoritma değişikliğinden diğerleri kadar etkilenmiyor. Teknik altyapısı diğer bütün gazetelerden daha kötü durumda olan Gazete Duvar ise bu değişikliklerden en fazla yara alan medya kuruluşu oluyor.
Elde edilen veriler, yapay zekanın filtreleme süreçlerinin eleştirel ve olumsuz içeriklere yönelik bir dezavantaj oluşturduğunu açıkça ortaya koyuyor ve biz bu bilgiyi Google’dan değil, sahada bu kaybı yaşayan taraflardan öğreniyoruz.
1. Alternatif medya kuruluşları yüksek oranda olumsuz içerik ürettiği için, yapay zeka tarafından daha az öneriliyor.
2. Anakım medya, daha fazla nötr içerik ürettiği için, yapay zekanın tercih ettiği dengeyi sağlıyor.
3. Yandaş medya, genellikle olumlu içerikler sunduğu için algoritmaların doğrudan teşvik ettiği yapıya en uygun grubu oluşturuyor.
Böylece, yapay zeka destekli algoritmalar, bilinçli bir sansür mekanizması kurmasa bile, eleştirel haberciliği sistematik olarak geri plana iterek dolaylı bir sansür etkisi yaratıyor.
Yapay zeka destekli algoritmalar, içerikleri değerlendirirken sadece konuya değil, kullanılan dilin pozitif veya negatif oluşuna da odaklanıyor. Bu da, eleştirel haberlerin doğrudan içerik politikaları gereği değil, ‘duygu analizi’ üzerinden sansürlenmesine yol açıyor.
Bunu anlamak için basit bir örnek üzerinden değerlendirebiliriz:
Örneğin termik santrallerle ilgili bir haberde üç farklı yaklaşımla hazırlanan başlıkları yapay zeka destekli duygu analizi sistemlerine analiz ettirdiğimizde, şu sonuçları alıyoruz:
1. “Termik santraller çok gereklidir: Ulusumuzun kurtuluşudur”
(Pozitif)
2/a. “Termik santrallere hayır”
(Negatif)
2/b.“Termik santralleri istemiyoruz: Gelecek yeşil enerjide”
(Negatif)
3. “Gelecek yeşil enerjide”
(Nötr)
Bu üç farklı yaklaşımla hazırlanan başlıkların taşıdığı anlam farkı aslında çok büyük.
Ancak yapay zeka, duygusal içerik analizi yaparken yalnızca dildeki duygu tonunu değerlendirdiği için bu derin görüş ayrılıklarını ve ifade uçurumlarını kavrayamıyor; algoritmasındaki sınırlamalar olduğu sürece de bunu kavrayamayacak
İnsanlığa hizmet etmek ve iyiyi sunmak isterken, sadece olumlu tarafı sunarak çok derin bir perspektif farkını ve madalyonun diğer yüzünü göstermemiş olacak.
Suç elbette ki yapay zekada değil, bu teknolojileri geliştirirken ‘kullanıcıya sadece iyi sonuçların verilerek onların mutlu edilebileceğini düşünen’ bu dar zihniyette.
Yani bir fikir belirtilecekse bunun sadece olumlu olması ve olumlu bir dille kurulması gerekliliği bu örnekte bile sansürün, haber alma ve ifade özgürlüğüne vurulan darbenin boyutunu ortaya koyuyor.
Olumsuz bir ifade kullanmadan ekonomik krizleri, adaletsizlikleri ve toplumsal eşitsizlikleri anlatmak mümkün mü? Diyelim ki anlatmaya çalıştık; bu yuvarlak ifadeler gerçeği yeterince yansıtabilecek mi?
Peki insanlık özgürce eleştiremediği, kendisine yönelik eleştirileri duymadığı, dolayısıyla hatalarını görmediği bir dünyada kendisini nasıl geliştirecek?
Mantıksız olanı ‘mantıksız’, yanlış olanı ‘yanlış’ diye tarif edemediğimiz bir dünyada saçmalıklara ‘irrasyonel yaklaşımlar’ deyip geçiştirecek miyiz?
Yapay zeka, eleştiriyi törpüleyerek, hataların hem görülmesini, hem de düzeltilmesini engellemiş olmuyor mu?
Sonuç olarak, eleştirel haberleriyle öne çıkan alternatif medya, yapay zekanın pozitif veya nötr içerikleri öne çıkarma eğilimi nedeniyle görünürlüğünü kaybediyor.
Alternatif medya bu durumu haklı olarak ‘sansür’ olarak değerlendirirken, sürecin teknik boyutunu anlamakta ve anlatmakta gecikmesi sorunun çözümünü daha da zorlaştırdı.
Google’ın bilinçli bir siyasi sansür uygulamadığını, yapay zeka algoritmanın işleyiş şeklinin haberlere de uygulanmasının bir sonucu doğurduğunu göz önünde bulundursak ve ‘Biz kim muhalif kim değil bilmiyoruz’ diyen Sullivan’ın sözleri, Google’ın kasıtlı bir politik bir müdahalesi olmadığı anlamına gelse de, algoritmaların dolaylı olarak eleştirel sesleri görünmez hale getirdiği ve alternatif medyanın öznesi olan dijital gazeteleri hayalet gazetelere dönüştürdüğü gerçeğini değiştirmiyor.
Dijital platformlar, haber sitelerinin erişimini belirleyen temel araçlardan biri haline gelirken, algoritmaların işleyişi medya organlarının görünürlüğü üzerinde doğrudan etkili olabilecek durumda.
Özellikle, haberlerin nasıl keşfedildiği ve okura nasıl ulaştırıldığı, artık yalnızca içerik üretiminin değil, aynı zamanda dijital ekosistemin dinamiklerinin de belirleyici olduğu bir meseleye dönüşmesi yayın hayatını sürdürmesine rağmen, erişimlerinin kısıtlandığını belirten ve “dijital hayalet gazete” olma riskiyle karşı karşıya kalan diğer yayın organlarını endişelendiriyor.
Her ne kadar Daron Acemoğlu ile Türkiye’nin de gündemine ‘haber çölleşmesi’ (news desert) kavramı girmiş olsa da bu kavram ne Türkiye’de ne de dünyada yaşanan durumu bizce doğru tarif edebiliyor.
Nobel Ekonomi ödülü Daron Acemoğlu’na saygı duymakla birlikte, konuya biraz daha eleştirel bir perspektifle bakmam sebebiyle ‘haber çölü’ kavram çerçevesinde Nikki Usher’a biraz daha fazla kulak verilmesi gerektiğini düşünüyorum.
Nikki Usher ‘haber çölü’ kavramının; gazetelerin açık veya kapalı olması, coğrafyanın kırsal veya kentsel olması gibi ikili karşıtlıklara daralttığını belirtiyor. ‘Yerel’ kavramının belirsizliğine vurgu yapmakla birlikte anaakım gazetelerin topluluk bilgileri için altın standart olarak görülmesini eleştiriyor. Bu yönleriyle; mekâna dayalı özgüllüğe odaklanan bir yaklaşım öneriyor.
Düşünceler kavramlarla gelişir, bu sebeple kavramların zihin dünyamızdaki yeri önemli bir yer tutar.
Biz bugün alternatif basının yok olması tehdidinden bahsederken belki mekana dayalı değil, ancak özgül ağırlığı olan bir noktaya parmak basmamız sebebiyle soruna “haber çölleşmesi” demeyi doğru bulmuyorum.
Hangi kavramla açıklanacağı daha geniş bir tartışmanın konusu olmakla birlikte Gazete Duvar ve diğer gazetelerin karşı karşıya olduğu tehdide gönül rahatlığıyla ‘hayalet gazete’ olma tehlikesi çerçevesinde ele alabiliriz.
Geleneksel anlamda “hayalet gazete”, yerel gazetelerin ekonomik sıkıntılar nedeniyle küçülmesi, editöryal bağımsızlığını kaybetmesi veya sadece ismen var olmaya devam etmesi durumunu ifade ediyordu.
Dijital çağda ise “hayalet gazete”, içerik üretmeye devam etmelerine rağmen geniş bir okur kitlesine ulaşamayan medya organları için pekala kullanılabilir.
Not: Burada bir de alternatif basının sürdürülebilirliğinin; teknoloji tekellerin elindeki araçlara ve buradan elde ettikleri gelire bağlı olmaları üzerinden “alternatif basın ne kadar alternatif” konusunu tartışılması da gerekecektir elbet ancak bu başka akademik ve entelektüel kaygıları içeriyor. Ben somut konu ve çözümü üzerinden devam edeceğim.
Sonuç olarak, büyük teknoloji şirketlerinin algoritmalarında yaptıkları bu müdahaleler, sadece bilgi akışını değil, bireylerin ve toplumun duygusal algısını da şekillendirmektedir.
‘İyimserliğe yönelik duygu düzenleme’ çabaları, her ne kadar ‘duygu bulaşmasını’ (emotional contagion) hedeflese de, toplumun bilgi edinme süreçlerini yapay bir mutluluk algısıyla biçimlendirmektedir. Bu durum, ‘zorunlu iyimserlik hegemonyası’ veya ‘zorba iyimserlik sarmalı’ olarak tarif edilebilir.
1. Algoritmalar, sürekli olarak olumlu içerikleri öne çıkararak, bireyleri mutlu ve iyimser olmaya zorlamış olur.
– İyi ve kötünün, olumlu ve olumsuzun ne olduğuna bireylerin kendi karar vermesi doğru olandır.
– Elbette; ırkçı, cinsiyetçi, ayrımcı birtakım filtrelerden geçmesi sorun olmamakla birlikte bunu beyan ederek neleri engellediklerini de şeffaf bir şekilde açıklamaları gerekir.
2. Anaakımlaşma, popülizm ve trend tutkunluğu
– Algoritmalar, kullanıcıları sürekli olarak belirli içeriklere yönlendirerek bireyselliğin ve eleştirel düşüncenin önüne geçebilir.
– Sadece olumlu ve nötr (duygusuz, hissiz) içerikler ön plana çıkarılırken bir yönüyle anaakımlaşma ve trendlerin parçası olma zorunlu kılınır.
– Olumsuz veya eleştirel içerikler geri plana atılır, böylece toplumda baskın ve zorunlu bir “iyimserlik normu” yaratılır.
– Dijital dünyada görülen iyimserlik ile kullanıcıların gerçek dünyada yaşadıkları deneyim arasındaki uçurum büyüdükçe, bireyler mutsuzluklarını dile getiremez hale gelir ve bir “suskunluk sarmalı” ortaya çıkar.
– Olumsuz deneyimler, eleştirel düşünceler ve fikirlere sahip insanlar azınlıkta olduklarını düşündükleri görüşleri ifade etmekten kaçınır. İfade etseler bile dijital dünyada görünür olmazlar.
Bu bağlamda zorba İyimserlik bir sarmal halini alır: yalnızca bireysel bir duygu manipülasyonu değil, aynı zamanda toplumsal düzeyde bir baskı mekanizması oluşturur.
Dijital platformların dayattığı “zorunlu iyimserlik”, bireylerin özgür düşünme ve hissetme alanlarını daraltırken, suskunluk sarmalına giren olumsuz duyguların birikmesi, toplumsal öfkenin patlamasına ve radikal eğilimlerin güçlenmesine yol açabilir.
Dijitalleşme çağında haber tüketimi, bilgi akışı ve kamusal tartışmalar büyük ölçüde algoritmalar tarafından şekillendirilmektedir. Algoritmaların bilgiye erişim üzerindeki etkisini tanımlamak için bugüne kadar birçok kavramsal çerçeve kullanılmıştır
Hayalet Gazete, Haber Çölü, Filtre Balonu, Algoritmik Önyargı, Algoritmik Sessizleştirme, Algoritmik Marjinalleşme, Algoritmik Paternalizm, Epistemik Paternalizm ve Misinformasyon gibi kavramlar, bilgi ekosistemindeki dönüşümü anlamamıza yardımcı olsa da, algoritmaların yalnızca neyi sakladığı veya neyi öne çıkardığına değil, aynı zamanda bizi hangi duygusal çerçeveye hapsettiğine de odaklanan bir kavramsal açıklamanın eksik olduğu açıktır.
Mevcut kavramlar, daha çok bilginin görünürlüğü, manipülasyonu ve sansürü üzerine odaklanırken, biz burada algoritmaların yalnızca bilgiyi yönlendirmekle kalmadığını, aynı zamanda duygusal bir çerçeve oluşturduğunu ve bireyleri ‘zorunlu iyimserlik’ içerisine hapsettiğini tartışmalıyız.
Bu bağlamda ‘zorba iyimserlik’ kavramı, yapay zeka destekli algoritmaların bizi eleştirel düşünceden, sorgulamadan ve olumsuz duyguların varlığını kabul etmekten uzaklaştırarak, yalnızca olumlu içeriklere maruz kalmaya zorlamasını ifade eder.
1. Teknolojiye uyum sağlamalı
Kullanıcı deneyimini en iyi hale getirecek şekilde teknik altyapılarını iyileştirmeli ki halihazırda sahip oldukları trafiği de kaybetmesin.
2. Yumurtaları farklı sepetlere koymalı
Yalnızca teknoloji tekellerinin insafına kalmamak için kendi keşif mekanizmalarını oluşturmalı. Örneğin sansürün en üst düzey yürütüldüğü İran’da toplum bunu telegram kanallarıyla delmeyi başardı. Bugün Türkiye’de telegram kanallarından haber takip etmek gibi bir kültür halihazırda zaten var (İbrahim Haskoloğlu bunun somut bir örneği) alternatif basın bu gibi kanallardan yayılmayı es geçmemeli.
Özetle “siz böyle söylüyorsunuz ancak NLP ve duygu analizi sonuçlarınıza ne kadar etki ediyor” şeklinde onları da somut başlıklara yöneltip – farkında değillerse hatalarını fark etmelerini sağlamak gerekiyor. Örneğin Avrupa’daki GDPR baskıları sonrası değişiklikler yapılmıştı. Eğer bir kasıt yoksa ve durumun ciddiyeti fark edilirse yanlıştan olabildiğince erken dönülüp zararın etkileri azaltılabilir. Bu süreçten doğan zarar ise uzun bir dava sürecine gidilmeden anlaşmalarla sonuçlandırılabilir.
Zaten bu medya organlarının takipçi kitlesi eleştirel ve muhalif fikirlere yeterince açık. Toplumun hangi içeriklerin kendilerine hangi paketlerle sunulduğunu öğrenmesi lazım.
Elbette bu bilgilendirme yapılırken bütün gücün teknoloji devlerinin elinde olmadığı ve bizim irademizin dışında gerçekleştiği duygusu aşılanmadan bu durum ele alınmalı.
Yani mesele kullanıp/kullanmamak değil; bu teknolojileri kullanan bilinçli tüketiciler haline gelmek. Dijital okuryazarlığın artması çabası da tam olarak bu doğrultuda.
CHP milletvekili Ulaş Karasu bu sorunu TBMM gündemine taşıyıp bakanlığa “Söz konusu “örtülü sansürün” sona ermesi için bir planlamanız var mı?” diye Ulaştırma ve Altyapı Bakanlığı’na sormuştu.
Bilindiği üzere Ulaştırma ve Altyapı Bakanı Uraloğlu ise Kasım 2024 tarihinde CNN Türk’te Hakan Çelik’in sorularını açıklarken “bir adım atılabilir” diyerek Google’a müdahale etmeye açık olduğunu dile getirdi. Hatta Uraloğlu yol haritasını da verdi. Aktardığı kadarıyla bütün mesele bakanlık, BTK ve rekabet kurumuna konunun çerçevesinin doğru aktarılması; bu da sadece “algoritma değişikliği” demekle mümkün gözükmüyor.
Yer yer Fahrettin Altun’un bile (örneğin Gazze meselesinde) Instagram sansürünü eleştirdiği göz önünde bulundurulursa; iktidarın da uluslararası arenada aynı konulardan zorluklar yaşayacağı şüphe götürmez bir gerçek.
Öte yandan ülkemize yönelik böylesi bir müdahalenin bir ‘ulusal güvenlik’ meselesi olması sebebiyle en geniş siyasal cephenin dikkatini çekeceği ve ulusal destek toplayacağı düşüncesindeyim.
6. Uluslararası destek için çalışmalarda bulunmak
Bu konu en az KVK meselesi kadar önemli. Eğer Google bir noktada zora girerse ve iddiaları reddedip Türkiye’de yaşanan gelişmeleri görmezden gelirse diye yurt dışında da aynı markajın uygulanması lazım.
Hatta Google bu hatadan dönse bile yapay zeka’nın yaratacağı bu etkinin yarın tekrar yaşanmayacağının bir garantisi yok.
Bu sebeple belki de en önemlisi bu alanda bir düzenleme için şimdiden bütün paydaşlarla bir araya gelip çalışmaya başlamak.
Ortak bildiriye imza atan basın kuruluşları başta olmak üzere haber alma hakkını savunan bütün paydaşlar bir araya gelip yaşanan durumu gözler önüne sermek ve bu bilgiyi uluslararası kamuoyuyla paylaşması gerekir.
Bu ortak bir basın açıklaması veya bir çalıştay daveti ile olabilir. Mümkünse her ikisini birden yapmak faydalı olacaktır.
Yapay zeka gelişmeleri ve bunun insanlığın haber alması üzerindeki tehdidin seviyesi göz önünde bulundurulursa açık ve net insan hakları düzeyinde bir müdahale olduğu unutulmamalı.
Bu sebeple ülkemizde TİHV ve İHD gibi insan hakları odaklı vakıf ve dernekler, TBMM’de İnsan Hakları komisyonunda görevli milletvekilleri ve Avrupa Parlamentosu’ndan özellikle Sivil Özgürlükler komisyonunda görevli vekilleri bir araya getirip onların desteğiyle bu çalışmaları gerçekleştirmek önemli bir etki yaratacaktır.
7. Yasal düzenlemeler talep etmek
AB Dijital Hizmetler Yasası (DSA) ve Dijital Piyasalar Yasası (DMA) gibi küresel düzenlemelerde şu değişikliklere ihtiyaç bulunuyor:
– Pembe filtreye son: Yapay zeka teknolojileri üreten şirketler, duygu analizi (sentiment analysis) ve diğer NLP tabanlı filtreleme yöntemleriyle haberleri eleyip – eleştirel içerikleri geri plana atmamalı.
– Algoritmik şeffaflık: Teknoloji şirketleri, hangi içerikleri nasıl öne çıkardıkları hakkında daha şeffaf olmalı ve algoritmalarının nasıl çalıştığını daha şeffaf bir şekilde açıklamalı.
– Dijital hklar ve sansür yasaları: Yapay zekanın toplumsal bilgi akışına müdahalesi, ifade özgürlüğü, basın özgürlüğü ve kamu yararı gibi kavramlarla çelişmemeli
– Eleştirel düşünceyi koruma: Alternatif medya organları, algoritmaların olumsuz etkilerinden korunmalı ve adil rekabet şansına sahip olmalıdır.
– Ayrımcılığı önleme: Bugün toplumsal cinsiyet eşitliği ve ırkçılık karşıtlığı gibi alanlarda ayrımcılığı önlemeye çalışıldığı gibi; dijital platformlar, suç içermeyen eleştirel içeriklere ayrımcılık yapmamalı, anaakım medya ile alternatif medya için eşit erişim politikaları uygulamalı.
Özetle yeni dönemde ister arama motoru olsun ve ister sosyal medya platformu olsun; bu araçların yapay zeka destekli algoritmalarının, belirli bir duyguyu sistematik olarak avantajlı hale getirip veya insanın diğer duygu ve ifade biçimlerini asimile etmesi yasaklanmalı. Yapay zeka insanı insan yapan etkenlerden uzaklaştırmayacak bir hassasiyetle geliştirilmeli.
Kaynakça:
1. Türkiye’de Medya’nın Dijital Yeterlilik Analizi (pdf)
2. Google’ın Doğal Dil İşleme modeli ve kapsamı ile ilgili ipuçları barındıran ekran görüntüleri (klasör)
3. Alternatif Medya’nın PageSpeedTest raporları:
PNG format / PDF format
4. Gazete Duvar’ın raporları (pdf)
*Gazete Duvar her analizimizde farklı sonuçlar verdiği için hepsini ayrı bir klasör olarak derlemeyi uygun gördük
Sendika.Org, yayın hayatına başladığından bu yana işçi sınıfı hareketinin, solun ve genel olarak toplumsal muhalefetin gündemine ilişkin, farklı politik perspektiflerden düşünsel katkılara açık bir tartışma platformu olagelmiştir. Sitemizde yayımlanan yazılar yayın kurulunun politik perspektifiyle uyumluluk göstermeyebilir. Amacımız, mücadelenin gereksinim duyduğu bilimsel ve politik bilginin üretimini zenginleştirecek tüm katkılara, yayın ilkelerimiz çerçevesinde, olabildiğince yer verebilmektir.