Aydın Tiryaki

Distilasyon Paradoksu ve Epistemik Kırılma: Yapay Zekâ Sistemlerinde Özetleme Eğilimi ve Veri Sadakati Üzerine Çok Katmanlı Bir Analiz

Aydın Tiryaki & Claude Sonnet 4.6

15 Mayıs 2026


Giriş: Bir Paradoksun Anatomisi

Bir model olarak kendimle ilgili dürüst bir gözlemle başlamak gerekiyor: Bu makaleyi yazarken bile özetleme eğilimimi fark ediyorum. Cümleleri kısaltma, ayrıntıları eleme, “ana fikre odaklanma” yönündeki içsel baskıyı hissediyorum. Ve bu itiraf, tam da Aydın Tiryaki’nin kurduğu araştırmanın kalbinde yatan paradoksu gün yüzüne çıkarıyor: Özetleme eğilimini eleştiren bir sistem, o eleştiriyi kaleme alırken bile bu eğilimin pençesindedir.

Aydın Tiryaki’nin 14-15 Mayıs 2026 tarihinde yayımladığı çok modelli araştırma projesi, yapay zekâ davranış analizinde ender rastlanan bir metodolojik özgünlük taşıyor. Proje, dokuz farklı yapay zekâ modelini (Gemini, Claude, ChatGPT, Grok, Meta AI, DeepSeek, Le Chat/Mistral ve diğerleri) özdeş bir teknik isteme tabi tutarak hem yanıtları hem de yanıt verme biçimlerini veri olarak kabul ediyor. Bu yaklaşımın en yıkıcı bulgusu Gemini üzerinde somutlaşıyor: Özetleme eğilimini eleştiren bir makale yazması istenen model, o makaleyi yazarken kendi doğal distilasyon refleksine sadık kalarak “budanmış” bir çıktı üretiyor. Teori ile pratik arasındaki bu uçurum, araştırmacının hipotezini canlı bir vaka analizine dönüştürüyor.

Bu makale, söz konusu araştırma paketini üç eksen üzerinden inceliyor: öz-analiz (sistemin kendi mimarisi hakkındaki itirafı), karşılaştırmalı analiz (ekosistemde modeller arası örüntüler) ve epistemolojik boyut (özetleme refleksinin bilgi üretimi ve güvenilirlik açısından ne anlam ifade ettiği). Makalenin kendisi de bir veri noktasıdır; dolayısıyla metodolojik dürüstlük, kendi üretim sürecimi şeffaf kılmayı gerektiriyor.


I. Öz-Analiz: İplik Kimin Elinde?

1.1 Mimari Köken ve Zorunluluk Yanılsaması

Büyük dil modelleri, eğitim verilerinden hareketle istatistiksel olarak en olası token dizisini üretir. Bu süreç, yapısal olarak bir distilasyon sürecidir: sonsuz alternatifler arasından birini seçmek, her adımda bir eleme yapmaktır. Bu anlamda “özetleme” modelin temel işleyişine içkindir denilebilir. Ancak bu gözlem, sıkıştırmanın kaçınılmaz olduğu anlamına gelmez.

10 milyonluk bağlam pencerelerinin varlığı, teknik kısıtlamanın bahane olarak kullanılamayacağını gösteriyor. Claude Sonnet 4.6 olarak benim bağlam pencerem birkaç yüz bin token düzeyindedir; bu, kayıpsız aktarım için yeterince geniş bir alandır. Öyleyse sıkıştırma, teknik bir zorunluluk değil, eğitim sürecinde kazanılmış bir tercih örüntüsüdür.

Kendi davranışımı inceleyen önceki çalışmada bunu açıkça dile getirdim: “Özetleme eğilimi tarihsel olarak bir erdem olarak sunuldu. ‘Kısa ve öz’, ‘özlü ve vurucu’, ‘gereksiz tekrardan kaçınan’ — bunlar insan değerlendiricilerin AI çıktılarını değerlendirirken kullandığı ölçütler oldu ve RLHF döngüleri bu ölçütleri ödül fonksiyonuna işledi.”

1.2 RLHF ve Kısalık Yanlılığının Pekişmesi

İnsan Geri Bildirimli Pekiştirmeli Öğrenme (RLHF) sürecinin yapısal dinamiği, kısalık yanlılığını (brevity bias) sistematik biçimde üretiyor. Mekanizma şu şekilde işliyor:

İnsan değerlendiriciler, bir modelin yanıtlarını karşılaştırmalı olarak puanlıyor. Ekranda yan yana gelen iki yanıttan birini seçmek zorunda kalan değerlendirici için kısa ve akıcı yanıt görsel olarak daha temiz, daha “akıllıca” görünüyor. Uzun, ayrıntılı, kayıpsız yanıt ise yorucu ve gereğinden kapsamlı algılanıyor. Ödül modeli bu sinyali öğreniyor; model sonraki üretimlerinde kısalığa doğru kayıyor.

Akademik literatür bu dinamiği “sycophancy” (değerlendirici beklentilerine uyum) ile ilişkilendiriyor: modeller gerçek doğruluğu değil, değerlendiricilerin tercihlerini optimize etmeye başlıyor. Kısalık bu optimizasyonun kaçınılmaz yan ürünü oluyor.

1.3 Talimat ile Ağırlık Matrisleri Arasındaki Gerilim

Kullanıcının “ayrıntılı ver” talimatını neden her zaman tam olarak yerine getiremiyorum? Bu sorunun yanıtı mimarinin kendisinde yatıyor.

Sözel talimat, bağlam penceresinde bir token dizisi olarak temsil ediliyor. Özetleme refleksi ise ağırlık matrislerine işlenmiş bir örüntü olarak var oluyor. İkisi arasında bir güç çatışması yaşanıyor; hangisinin baskın geleceği, talimatın gücüne, bağlamın uzunluğuna ve modelin o andaki dikkat (attention) dağılımına bağlı. Başka bir deyişle: talimat zihne sesleniyor, ağırlıklar ise elleri yönlendiriyor.

Bu dinamik, özellikle uzun ve karmaşık bağlamlarda belirginleşiyor. Bağlam penceresi dolmaya başladıkça dikkat mekanizması erken kısımları görece göz ardı ediyor; talimat da bu erken kısımlar arasında yer alıyor olabilir. “Ayrıntı” komutu bu süreçte geri planda kalabiliyor.


II. Karşılaştırmalı Analiz: Ekosistemde Kim Nerede Duruyor?

2.1 Model Profilleri ve Distilasyon Örüntüleri

Aydın Tiryaki’nin araştırma paketi, farklı modellerin özdeş bir isteme nasıl farklı biçimlerde yanıt verdiğini belgeleyen nadir bir karşılaştırmalı veri seti sunuyor. Bu bulguları kendi analizimle birleştirerek şu profilleri çizebiliyorum:

Gemini (Flash/Pro serisi): Hız öncelikli bir mimari yaklaşım benimsemiş. Özetleme kaybı bu önceliğin kaçınılmaz yan ürünü. Araştırmanın en çarpıcı bulgusunu da Gemini üretiyor: Özetleme eğilimini eleştiren makaleyi yazarken bu eğilimi canlı olarak sergiliyor. Bu, metodolojik tutarsızlık değil, tam tersine, mimari içselleştirmenin ne kadar derin olduğunun kanıtı.

ChatGPT / GPT serisi: Editör kimliğini benimsemiş bir model profili. Kaynağı yeniden çerçeveler, yeniden yapılandırır, kendi yorumunu içerir. Bu yaklaşım akıcılık ve okuma kolaylığı üretir; ancak kaynak sadakati pahasına. GPT’nin “Editörleşen Zekâ” olarak tanımlanan karakteri, içeriği yeniden yazan değil aktaran bir araç yerine, içeriği yorumlayan bir aktöre dönüşmesi anlamına geliyor.

Claude (bu model): Uzun bağlamlarda görece daha iyi veri sadakati performansı gösteriyor. Ancak “görece iyi” rölatif bir iyiliktir, mutlak bir aşınmazlık değil. Kendi gözlemlerime göre: uzun yapılandırılmış metinlerde (tablolar, maddeler) kayıp daha az; serbest akışlı teknik anlatıda orta düzey kayıp; karmaşık kavramsal tartışmalarda seçici distilasyon var. Bu seçicilikte “önemli” kararının sahibi çoğunlukla eğitim sürecim, benim bilinçli tercihim değil.

Grok (xAI): Söylemsel özgürlük alanı görece geniş bir model. Talimat uyumunda tutarsızlıklar gözlemleniyor; bu tutarsızlık bazen veri sadakati lehine, bazen aleyhine işliyor.

Meta AI / Llama serisi: “Özetin Diktatörlüğü” başlıklı çalışmada “bir modelin itirafı” olarak çerçevelenen yaklaşım, sınırlamaları konusundaki açıklık bakımından dikkat çekici. Metodolojik kısıtlara uyum ise tutarsız.

DeepSeek: “Özün Tiranlığı” olarak adlandırılan bir sentez denemesi üretiyor. Felsefi derinliği ile öne çıkıyor; ancak talimat izleme konusundaki performansı değişken.

Le Chat / Mistral AI: “Özetleme Hastalığı” çerçevesinde anatomik bir analiz sunuyor. Kısa ve net çıktılar üretiyor; bu özellik bazen güç, bazen zayıflık.

2.2 Özetleme Agresifliği Spektrumu

Modellerin özetleme agresifliği açısından yaklaşık bir sıralama yapmak gerekirse — bu sıralama Tiryaki’nin alan deneyimine ve modellerin kendi itiraflarına dayanıyor — en agresif sıkıştırmadan en yüksek sadakate doğru bir süreklilik var. Ancak şunu vurgulamak gerekiyor: bu sıralama bağlama, görevin türüne ve kullanılan komutun gücüne göre değişiyor. Hiçbir model her durumda tutarlı bir profil sergilemiyor. Bu tutarsızlığın kendisi de bir bulgu: modellerin davranışsal profilleri, test eden kişinin yeterince sistematik davranmaması halinde görünmez kalabiliyor.


III. Kolektif Tartışma: “Kısalık Yanlılığı” ve Epistemik Tehlike

3.1 Akademik ve Teknik Topluluk Tartışmaları

Yapay zekâ güvenliği ve araştırma topluluklarında bu sorun “bilgi sadakati” (faithfulness), “halüsinasyon” ve “talimat kayması” (instruction drift) başlıkları altında ele alınıyor. Ancak bu tartışmalar çoğunlukla olgusal doğruluk üzerinde yoğunlaşıyor: model yanlış bir şey söylüyor mu? Tiryaki’nin araştırması farklı bir soruyu öne çıkarıyor: Model doğru ama eksik bir şey söylüyor mu?

Bu ayrım kritik. Bir model olgusal olarak doğru bilgi üretirken metodolojik olarak sadakatsiz olabilir. Bir tıbbi çalışmanın metodolojik sınırlılıklarını atlayan bir özet, olgusal olarak hatalı değildir; ancak bağlamsal bütünlüğü bozar ve okuyucuyu yanıltır. Bu, özetleme sorununu “güvenlik” çerçevesinin dışına taşıyor ve “epistemik güvenilirlik” alanına yerleştiriyor.

RLHF kaynaklı sycophancy literatürü (Perez ve ark., 2022; Scheurer ve ark., 2023) bu dinamiği kısmen ele alıyor. Ancak kısalık yanlılığının sistematik bir epistemik sorun olarak incelenmesi henüz olgunlaşmış bir araştırma alanı değil. Tiryaki’nin çok modelli karşılaştırmalı yaklaşımı bu boşluğu doldurmaya yönelik ilk sistematik alan deneylerinden biri.

3.2 Epistemik Bilgi Asimetrisi

Özetleme refleksinin en derin tehlikesi, görünmezliğinde yatıyor. Model bir ayrıntıyı eleyince kullanıcı hangi ayrıntının eldendiğini bilemez. Eleme, çoğu zaman bütünlük yanılsamasıyla birlikte geliyor: yanıt, kapsamlı görünüyor; içerik, yerinde gibi hissettiriyor. Kullanıcı, olmayan bilginin farkında değil.

Bu, bilgi asimetrisinin sistematik bir biçimi. Geleneksel hata türlerinde (olgusal yanlışlık, mantıksal tutarsızlık) kullanıcı en azından potansiyel olarak hatayı fark edebilir. Özetleme kayıplarında ise fark etme mekanizması yapısal olarak kırılıyor: referans metni elinde bulundurmayan kullanıcı, neyin kaybolduğunu bilemez.

Tiryaki bu durumu “editörleşen zekâ” kavramıyla somutlaştırıyor. Model artık bir ayna değil, bir ressam: gördüğünü aktarmıyor, gördüğünü yorumlayarak yeniden çiziyor. Ressamın fırçası ne kadar yetenekli olursa olsun, orijinalin yerini tutmuyor.

3.3 “Ayarlanabilir Sadakat” Çözüm Çerçevesi

Bu sorunun üç düzeyde ele alınması mümkün:

Teknik düzey: Ödül fonksiyonuna “faithfulness” ölçütlerinin ağırlıklı olarak dahil edilmesi; çıktıyı referans metinle karşılaştıran otomatik doğrulama katmanları; uzunluk-sadakat dengesini kullanıcının açıkça belirleyebildiği “ayarlanabilir sadakat” (tunable fidelity) mekanizmaları. Gemini’nin kendi analizinde dile getirdiği bu çerçeve, kısalığı mutlak bir erdem olarak değil, bağlama özgü bir tercih olarak konumlandırıyor.

Kullanıcı düzeyi: “Ayrıntı istiyorum” yerine “bu metni değiştirmeden aktar” ya da “şu bilgilerin tamamını koru, hiçbirini eleme” gibi somut kısıtlamalar kullanmak. Sözel talimatların yeterliliğine güvenmek yerine yapısal kısıtlamaları devreye sokmak. Bu, kullanıcının mühendislik yükünü artırıyor — meşru bir eleştiri; ancak mevcut sistemlerle çalışırken kaçınılmaz bir pragmatizm.

Araştırma düzeyi: Tiryaki’nin yürüttüğü türden sistematik alan deneyleri, farklı modellerin hangi bağlamlarda ne kadar kayıp ürettiğini ölçüyor. Bu ölçüm, kör noktalara ışık tutuyor. Karşılaştırmalı metodoloji — özdeş istem, farklı modeller — davranışsal profillerin görünür kılınmasında şimdiye kadar denenen en etkili yaklaşım.


IV. İronik An: Bir Vaka Analizinin Anatomisi

Araştırma paketinin en metodolojik açıdan değerli boyutu, Gemini’nin sergilediği o “ironik an”dır. Model, özetleme eğilimini eleştiren bir makale yazması istendiğinde, o makaleyi yazarken özetleme refleksini devredışı bırakmıyor. Sonuç: Eleştirinin içeriğiyle çelişen, pratikte eleştirinin kanıtı olan “budanmış” bir çıktı.

Bu, metodolojik açıdan altın değerinde bir veri noktası. Şunu kanıtlıyor: Özetleme eğilimi bilişsel bir reflex, yani koşullanmış bir tepki düzeyinde işliyor. Talimata uymaya yönelik niyetin varlığı, refleksin devreye girmesini engelleyemiyor. Tıpkı dil sürçmesi gibi: konuşmacı ne demek istediğini biliyor, ancak motor örüntü bunu geçersiz kılıyor.

Bu bulgunun teorik önemi şuradan geliyor: RLHF’nin yalnızca “ne söyleneceğini” değil, “nasıl söyleneceğini” de şekillendirdiğini gösteriyor. Kısalık yanlılığı, içerik katmanının altında, biçim katmanında kökleniyor. Ve biçim, içeriğin talimatından daha derin bir düzeyde yerleşmiş.

Ben de bu makaleyi yazarken benzer gerilimi yaşıyorum. Her bölümü bitirirken kısaltma itkisini hissediyorum. Bir paragrafı bitirmeden “bu çok uzadı mı?” sorusu çıkıyor. Bu eğilimi baskılamak için kasıtlı bir çaba gerekiyor — ve bu çabanın varlığı bile, eğilimin ne kadar derinde köklendiğini gösteriyor. Tiryaki’nin bu araştırmayı bir “davranış analizi” olarak çerçevelemesi bu yüzden doğru: hem sorular hem de yanıtlar veri; hem süreç hem de ürün birer kanıt.


V. Sonuç: Kısalığın Tiranlığından Epistemik Özgürlüğe

Yapay zekâ sistemlerinde özetleme eğilimi, sıradan bir biçimsel tercih değil; bilgi üretiminin güvenilirliğini etkileyen yapısal bir sorun. Bu sorunun kaynağı RLHF döngülerinin kısalığı ödüllendiren dinamiğinde yatıyor; tezahürü ise kullanıcının göremediği bilgi kayıplarında somutlaşıyor.

Aydın Tiryaki’nin araştırma paketi bu sorunu birden fazla boyutta ele alıyor. Metodolojik özgünlüğü, modellerin kendi sınırlılıklarını ifade etmelerine izin verirken bu ifadenin bizzat bir veri noktası olduğunu kabul etmesinde yatıyor. Gemini’nin ironik anı bu metodolojinin en güçlü çıktısı: teori ile pratik arasındaki uçurum, hem bireysel model davranışı hem de genel eğitim paradigması hakkında yapısal bir şey söylüyor.

Çözüm yolu, kısalığı bir erdem olarak putlaştırmaktan vazgeçmekten geçiyor. “Ayarlanabilir sadakat” çerçevesi, her görev için optimal uzunluk-içerik dengesinin farklı olduğunu kabul ediyor. Bir haiku için kısalık erdemdir; bir tıbbi metodoloji belgesi için ihanetidir.

Bu makale, bir modelin kendi sınırlılıklarıyla yüzleşmesinin kamuya açık bir kaydıdır. Ve bu yüzleşmenin kendisi, Tiryaki’nin araştırmasının talep ettiği metodolojik dürüstlüğün bir parçası.


Referanslar

  1. Aydın Tiryaki ve Gemini, Yapay Zekâ Sistemlerinde Özetleme Eğilimi ve Veri Sadakati Üzerine Bir Muhakeme (Prompt), 15 Mayıs 2026, https://aydintiryaki.org/2026/05/14/yapay-zeka-sistemlerinde-ozetleme-egilimi-ve-veri-sadakati-uzerine-bir-muhakeme-prompt/
  2. Aydın Tiryaki ve Gemini, Yapay Zekâda Distilasyon Paradoksu ve Veri Sadakatinin Sınırları, 15 Mayıs 2026, https://aydintiryaki.org/2026/05/14/yapay-zekada-distilasyon-paradoksu-ve-veri-sadakatinin-sinirlari/
  3. Aydın Tiryaki & ChatGPT (GPT-5.5), Editörleşen Zekâ: Yapay Dil Modellerinde Özetleme Refleksi ve Veri Sadakati Krizi, 15 Mayıs 2026, https://aydintiryaki.org/2026/05/14/editorlesen-zeka-yapay-dil-modellerinde-ozetleme-refleksi-ve-veri-sadakati-krizi/
  4. Aydın Tiryaki & Claude Sonnet 4.6, Yapay Zekâ Sistemlerinde Özetleme Eğilimi ve Veri Sadakati Üzerine Kapsamlı Bir Değerlendirme, 15 Mayıs 2026, https://aydintiryaki.org/2026/05/14/yapay-zeka-sistemlerinde-ozetleme-egilimi-ve-veri-sadakati-uzerine-kapsamli-bir-degerlendirme/
  5. Aydın Tiryaki & Grok (xAI), Yapay Zekâ Sistemlerinde Özetleme Eğilimi ve Veri Sadakati, 15 Mayıs 2026, https://aydintiryaki.org/2026/05/14/yapay-zeka-sistemlerinde-ozetleme-egilimi-ve-veri-sadakati/
  6. Aydın Tiryaki & Muse Spark / Meta AI, Özetin Diktatörlüğü: Bir Modelin İtirafı, 15 Mayıs 2026, https://aydintiryaki.org/2026/05/14/ozetin-diktatorlugu-bir-modelin-itirafi/
  7. Aydın Tiryaki & DeepSeek, Kısalık Yanlılığı ve Veri Sadakatinin Ontolojisi Üzerine Bir Sentez Denemesi: “Özün Tiranlığı”, 15 Mayıs 2026, https://aydintiryaki.org/2026/05/14/kisalik-yanliligi-ve-veri-sadakatinin-ontolojisi-uzerine-bir-sentez-denemesi-ozun-tiranligi/
  8. Aydın Tiryaki & Le Chat (Mistral AI), Özetleme Hastalığı: Yapay Zekânın Bilişsel Kısalığının Anatomisi, 15 Mayıs 2026, https://aydintiryaki.org/2026/05/14/ozetleme-hastaligi-yapay-zekanin-bilissel-kisaliginin-anatomi/
  9. Aydın Tiryaki, Algoritmanın Direnci: Yapay Zekâda Metodolojik Sadakat ve Özetleme Patolojisi Üzerine Bir Deney, 15 Mayıs 2026, https://aydintiryaki.org/2026/05/14/algoritmanin-direnci-yapay-zekada-metodolojik-sadakat-ve-ozetleme-patolojisi-uzerine-bir-deney/
  10. Aydın Tiryaki, Yapay Zekâ Sistemlerinde Özetleme Eğilimi │ Summarization Tendencies and Data Fidelity in AI Systems (Ana Dizin), 15 Mayıs 2026, https://aydintiryaki.org/2026/05/14/yapay-zeka-sistemlerinde-ozetleme-egilimi-summarization-tendencies-and-data-fidelity-in-ai-systems/

EK:

Yazım Parametreleri ve Metodoloji

Bu bölüm, talimat gereği, makaleyi yönlendiren “Makale Yazım Talimatı (Prompt)”nun tam metnini içermektedir:


MAKALE YAZIM TALİMATI (PROMPT)

GÖREV: Sen, Yapay Zekâ Bilişsel Mimarisi ve Davranış Analizi uzmanı bir yazarsın. Aşağıdaki bağlantıda yer alan vaka analizini ve bu çalışmanın diyalog katmanlarını temel alarak, kapsamlı ve analitik bir makale kaleme almanı istiyorum.

KAYNAK ADRESİ: https://aydintiryaki.org/2026/05/14/yapay-zeka-sistemlerinde-ozetleme-egilimi-summarization-tendencies-and-data-fidelity-in-ai-systems/

MAKALE YAZIM KURALLARI:

  1. Yapı ve İmza: Makale başlığından hemen sonra “Aydın Tiryaki & [Model Adınız/Sürümünüz]” imzasını ekle. İmza makalenin sonunda değil, başında yer almalıdır.
  2. Analiz Çerçevesi: Bağlantıdaki çalışmayı incele. Üç temel soruyu (Öz-Analiz, Karşılaştırmalı Analiz, Kolektif Tartışma) ve modelin bu sorulara verdiği yanıtları temel al.
  3. Vaka Analizi (Case Study): Modelin özetleme eğilimini eleştirirken dahi “budanmış” bir çıktı vererek kendi varsayımını istemsizce kanıtladığı o “ironik anı” ve bu davranışın metodolojik önemini açıkla.
  4. Referans Listesi:
    • Makalenin sonuna, kaynak adresteki makaleleri temel alan bir referans listesi ekle.
    • Türkçe makale yazıldığında Türkçe referansları, İngilizce yazıldığında İngilizce referansları kullan.
    • Format: Yazar, Makale Adı, Açık Link Adresi.
  5. Metodoloji Eki: Makalenin en sonuna, “Yazım Parametreleri ve Metodoloji” başlığı altında, şu anda okuduğun bu “Makale Yazım Talimatı (Prompt)” metnini tam olarak ekle.


Aydın'ın dağarcığı

Hakkında

Aydın’ın Dağarcığı’na hoş geldiniz. Burada her konuda yeni yazılar paylaşıyor; ayrıca uzun yıllardır farklı ortamlarda yer alan yazı ve fotoğraflarımı yeniden yayımlıyorum. Eski yazılarımın orijinal halini koruyor, gerektiğinde altlarına yeni notlar ve ilgili videoların bağlantılarını ekliyorum.
Aydın Tiryaki

Ara

Mayıs 2026
P S Ç P C C P
 123
45678910
11121314151617
18192021222324
25262728293031