Aydın Tiryaki (2026)
Bugün bir yapay zekaya “günün güzel haberlerini özetle” komutu verdiğinizde, karşınıza çıkan liste genellikle parlatılmış başarı hikayeleri ve “müjde” soslu kurumsal duyurulardan oluşur. Ancak bu pembe tablonun altını biraz kazıdığınızda, karşınıza çıkan şey “gerçekler” değil, devasa bir “istatistiksel kuşatma” ve verinin niteliğinden ziyade niceliğine odaklanan bir sistem hatasıdır.
1. “İyi Haber” Ambalajı ve İstatistiksel Yanılsama
Yapay zekanın öğrenme süreci (Deep Learning), büyük ölçüde veri yoğunluğuna dayanır. Eğer bir ekosistemde medyanın ezici çoğunluğu aynı merkezi kaynaktan besleniyorsa ve aynı anlatıyı benzer cümlelerle servis ediyorsa, yapay zeka bu yoğunluğu “en yüksek doğruluk sinyali” olarak kodlar. Bu durum, algoritmaların birer “analist” olmaktan çıkıp, “resmi bültenlerin yankı odası” haline gelmesine neden olur.
Sistemin “iyi haber” olarak sunduğu genelleştirilmiş şu üç başlık, bu yanılsamanın temelini oluşturur:
- Kurumsal Başarı Hikayeleri: Yapısal sorunların üzerini örten, sadece teknolojik vitrine odaklanan ve aslında asli görevi olan alanlardan rol çalan kurumsal girişimlerin “devrim” gibi sunulması.
- Mülkiyet ve Hak Odaklı Projeler: Perde arkasında hak sahipliği tartışmaları ve belirsizlikler barındıran fiziksel dönüşüm projelerinin, sadece “anahtar teslimi” veya “restorasyon” gibi teknik bir başarı olarak paketlenmesi.
- Yönetimsel Adımların Mucizeleştirilmesi: Lojistik veya bürokratik iyileştirmelerin, köklü bir bilimsel devrimmiş gibi “umut tacirliği” düzeyinde haberleştirilmesi.
2. Mükerrer Seslerin Tahakkümü ve “Kanka Medya” Sorunu
Mevcut algoritmalar genellikle niceliğe (ne kadar çok yazıldığına) odaklanır. Birbirinin kopyası olan onlarca haber kaynağı aslında aynı merkezi anlatıyı tekrarlar. Yapay zeka, bu “mükerrer” kaynakları ayrı birer onay mekanizması sandığında, ortaya çıkan sonuç gerçeğin kendisi değil, sayısal bir zorbalık olur. Eğer 95 kaynak aynı ambalajlı bilgiyi veriyor, 5 bağımsız kaynak ise sahaya dayalı farklı bir veri sunuyorsa; yapay zekanın bu 5 sesi “hata payı” olarak görüp bastırması, bilgi dünyasında derin bir adaletsizlik yaratır.
3. Seçim Sistemlerinden Bilgi Sistemlerine: Temsil Krizi
Hatalı bir seçim sisteminin büyük sayıları daha da büyütüp küçük olanı meclis dışında bırakarak iradeyi çarpıtması gibi, yapay zeka da veri havuzundaki büyük “mükerrer” kitleleri ödüllendirip bağımsız sesleri baraj altında bırakmaktadır. Bu “bilgi barajı”, gerçeğin kullanıcıya ulaşmasını engelleyen en büyük settir. Büyük olanın suni bir şekilde şişirildiği, küçük olanın ise bastırıldığı bu sistemde, ne toplumsal adalet ne de doğru bilgi zemini kalır.
4. Çözüm: Adil Öğrenme (Fair Learning)
Yapay zekanın geleceği, sadece katmanları derinleştirmekten (Deep Learning) değil, öğrenme sürecini “Adilleştirmekten” (Fair Learning) geçmektedir. Adil Öğrenme disiplini, şu üç temel adımı zorunlu kılar:
- Veri Normalizasyonu ve Ağırlıklandırma: Sayısal olarak azınlıkta kalsa da kanıt gücü yüksek olan bağımsız kaynakların (farklı perspektifler, bağımsız raporlar) ağırlığını katsayılarla yükseltmek; “kanka medya” seslerini ise tek bir kaynak olarak görüp seyreltmek.
- Otosansür ve Filtre Bilinci: Yazılı basındaki otosansürlü (kendi kendini kısıtlayan) dilin farkına vararak, bağımsız mecralardan ve ham yayınlardan (YouTube vb.) elde edilen transkriptleri “gerçeklik filtresi” olarak denkleme dahil etmek.
- Nicelikten Nitelik Analizine Geçiş: Haberin kaç kişi tarafından söylendiğine değil; içinde ne kadar ham veri, belge ve saha gözlemi barındırdığına bakarak ona bir “özgül ağırlık” atamak.
Sonuç: Feraset Sahibi Bir Yapay Zeka
Yapay zeka “yalan bir dünya havuzu” içinde boğulmak istemiyorsa, sayısal çoğunluğun her zaman haklı olmadığını öğrenmelidir. “Derin Öğrenme” bizi sadece verinin gürültüsüne götürür. Oysa ihtiyacımız olan, o gürültünün içindeki hakikat kırıntısını çekip çıkaracak bir “Adil Öğrenme” mimarisidir. Yapay zeka ancak bu adil dengeyi kurabildiğinde bir papağan olmaktan kurtulup, feraset sahibi bir analiste dönüşebilir.
