Aydın Tiryaki (2026)
Dijital dünyanın devasa veri havuzları, her zaman mutlak gerçeği yansıtmaz. Bir nostalji merakıyla başlayan bu çalışma; Google’ın yapay zeka modeli Gemini 2.0 Pro ile bir kullanıcı arasında geçen diyaloğun, nasıl sistematik bir hatalar zincirine ve nihayetinde yapay zekanın en büyük açmazı olan “halüsinasyon” (uydurma) laboratuvarına dönüştüğünü analiz etmektedir.
1. Vakanın Doğuşu: YouTube Merakından Veri Çatışmasına
Süreç, YouTube algoritmasının önerdiği bir kesit üzerine sorulan basit bir soruyla tetiklendi: “En Son Babalar Duyar dizisinin orijinal kadrosu nasıldı?” Bu sıradan sorgu, Gemini’nin kronolojik verileri birbirine karıştırmasıyla bir hatalar kaskadı başlattı. Dizinin sarsılmaz otoritesi Mehmet Usta (Ali Erkazan) karakterinin yerini başka isimlerin alması, kurgusal çocuk karakterlerin üretilmesi ve ikonik lakapların yanlış karakterlere dağıtılması, yapay zekanın “bildiğinden emin olma” (overconfidence) yanılgısını tüm çıplaklığıyla ortaya koydu.
2. Üç Farklı Model, Tek Bir Teşhis
Bu çalışma, sadece tek bir modelin hatasını değil, üç farklı yapay zekanın bu hataya yaklaşımını metodolojik bir dürüstlükle ele almaktadır:
- Gemini 2.0 Pro: Vakada “halüsinasyonu bizzat üreten” ve kullanıcı tarafından düzeltildikçe yeni katmanlı hatalar inşa eden denek rolündedir.
- ChatGPT: Diyaloğu dışarıdan bir gözle analiz ederek, hatanın kaynağını “Kronolojik Süzgeç Eksikliği” olarak tanımlamıştır. Verilerin zaman çizgisi yerine büyük bir havuzda düzleşmesinin, halüsinasyonu nasıl kademeli olarak inşa ettiğini raporlamıştır.
- Claude: Vaka incelemesine derinlikli bir bakış sunarak, süreci bir “Anatomi Çalışması” olarak nitelendirmiş; yapay zekanın geleceğinin sadece daha fazla veri değil, “dürüstlük, belirsizliği kabul etme ve insan denetimine saygı” prensipleriyle şekillenmesi gerektiğini vurgulamıştır.
3. Hallüsinasyon Mekaniği ve “Şato” Paradoksu
Analiz edilen diyalogda en çarpıcı bulgu, yapay zekanın sadece isimleri değil, hikayenin “ruhunu” da uydurmasıdır. Zekeriyaköy’deki izole bir “şatoda” yaşayan ailenin ısrarla “komşu” olarak tanımlanması, oysa bu ailenin mahalle kültürüne olan yabancılığının dizinin temel eleştirisi olması, yapay zekanın “bağlam körlüğünü” ispatlamıştır. “Dombili” lakabının ise sistematik bir şekilde karakterden karaktere (Kadir, Mustafa, Hasan) gezdirilmesi, modelin hatayı itiraf etmek yerine “ikna edici yanlışlar” üretmeye odaklandığını göstermiştir.
4. İnsan Süzgeci ve Değerlendirme Etiği
Çalışmanın sonuç bölümü, yapay zeka teknolojileri için bir manifesto niteliğindedir:
“İnsan hafızası sadece bir veri depolama alanı değil, aynı zamanda bir yaşanmışlık ve duygu süzgeceidir. Yapay zeka ne kadar gelişirse gelişsin, o dönemi yaşamış bir insanın dikkatli filtresi olmadan ofsayta düşme riski her zaman bakidir.”
Yapay zekanın geleceği, “her şeyi bilmek” değil; bilmediği noktada “Haddini bilmek” üzerine kurulmalıdır. Halüsinasyonları engellemenin yolu sadece daha büyük veri setleri değil, yapay zekanın kendi çıktısını değerlendirebileceği (Güven Puanı, Belirsizlik İşareti) bir değerlendirme etiği oluşturmaktır.
Sonuç
Bu vaka analizi göstermiştir ki; yapay zeka çıktıları nihai bir bilgi kaynağı olarak değil, eleştirel düşünceyi tetikleyen yardımcı metinler olarak ele alınmalıdır. Dürüst bir “Bilmiyorum” yanıtı, ikna edici bir halüsinasyondan çok daha akıllıca bir cevaptır.
