Aydın Tiryaki ve Claude (Anthropic) (2026)
Giriş
10 Şubat 2026 tarihinde, Google’ın yapay zeka asistanı Gemini 2.0 Pro ile kullanıcı arasında gerçekleşen bir diyalog, yapay zeka halüsinasyonlarının en çarpıcı örneklerinden birini ortaya koydu. 2002-2006 yılları arasında yayınlanan “En Son Babalar Duyar” dizisinin oyuncu kadrosu ve karakter detayları hakkında yapılan bu sohbet, yapay zekanın nasıl sistematik hatalar yapabileceğini ve bu hataların katmanlı bir şekilde nasıl büyüdüğünü gösteren canlı bir laboratuvar haline geldi.
Bu makale, söz konusu diyaloğu adım adım analiz ederek yapay zeka halüsinasyonlarının doğasını, sebeplerini ve muhtemel çözüm yollarını tartışmaktadır.
1. Diyaloğun Kronolojisi ve Hata Haritası
Diyalog, kullanıcının dizinin bölüm sayısını sormasıyla başladı. Gemini başlangıçta doğru bilgilerle yanıt verse de, konuşma ilerledikçe giderek artan bir hata kaskadı oluştu. Hatalar şu kategorilerde yoğunlaştı:
1.1. İlk Kriz: Maksut Karakteri
- Problem: Gemini, kullanıcının hiç hatırlamadığı “Maksut” adlı bir karakterden bahsetti ve bu karakteri dizinin ana kadrosunun parçası olarak sundu.
- Gerçek: Kullanıcı dizinin orijinal dönemini (Mehmet Usta dönemi, 2002-2004) izlemişti. Maksut karakteri ancak Ali Erkazan’ın diziden ayrılmasından sonraki dönemde, Star TV yıllarında kadroya dahil oldu. Kullanıcının “ben bu diziyi çok izledim ama Maksut’u hiç hatırlamıyorum” itirazı, aslında kronolojik bir gerçekliğe dayanıyordu.
- Yapay Zekanın Hatası: Gemini, dizinin farklı dönemlerindeki kadro değişikliklerini birbirine karıştırdı ve Maksut’u sanki baştan beri varmış gibi sundu.
1.2. Patriyark Krizi: Mehmet Usta vs. Hulusi Bey
- Problem: Gemini, dizinin baba karakteri olarak Hulusi Bey ismini verdi.
- Kullanıcının Düzeltmesi: “Kadir’in kayınpederi Hulusi Bey değildi ki, Mehmet Usta’ydı.”
- Gerçek: Ali Erkazan’ın canlandırdığı Mehmet Usta, dizinin temel taşıydı. Metin Akpınar’ın canlandırdığı Hulusi Bey karakteri ise ancak 2004-2005 sonrasında, Ali Erkazan diziden ayrıldıktan sonra geldi.
- Yapay Zekanın Hatası: İki farklı dönemin patriyark figürlerini birbirine karıştırdı. Bu, dizinin ruhunu oluşturan temel karakteri bile yanlış tanımladığı anlamına geliyordu.
1.3. “Dombili” Lakabının Başıboş Gezişi
Gemini’nin “Dombili” lakabıyla ilgili yaptığı hatalar, halüsinasyonların nasıl katmanlaşabileceğinin mükemmel bir örneği oldu:
| Adım | Gemini’nin İddiası | Gerçek Durum |
| 1 | “Dombili” = Kadir (Levent Ülgen) | Kadir’in lakabı “Hallederiz” |
| 2 | “Dombili” = Mustafa’nın lakabı | Mustafa’nın lakabı yok |
| 3 | “Dombili” = Can (küçük çocuk) | “Can” adında bir karakter yok |
| 4 | Doğru: “Dombili” = Hasan (Erdem Baş) | Mehmet Usta’nın “Dombili Hasan!” diye bağırdığı karakter |
1.4. Diğer Sistematik Hatalar
- İpek Karakteri: Gemini, dizinin ortanca kızı İpek rolünü oynayan oyuncuyu önce Sinem Öztufan, sonra Arzu Balkan olarak sundu. Kullanıcı her iki ismi de reddetti.
- Platonik Aşk: Mustafa’nın platonik aşkı karakterinin adını “Buse”, oyuncusunu “Gülşah Şahin” olarak verdi; ikisi de yanlıştı. Daha sonra “Begüm” ve “Begüm Erdem” diye düzeltti ama bu da kullanıcı tarafından doğrulanmadı.
- Komşu-Şato Paradoksu: Sinan ve ailesini “komşu” olarak tanımladı. Oysa dizinin temel mizah unsurlarından biri, bu ailenin Zekeriyaköy’deki şatoda yaşaması ve “komşuluk yok” repliğiydi. Gemini, dizinin ana temalarından birini bile kavrayamamıştı.
2. Halüsinasyonların Sebepleri: Neden Bu Kadar Çok Hata?
2.1. Kronolojik Veri Karmaşası
159 bölüm ve 5 yıl süren bir dizide, oyuncu değişiklikleri ve kadro revizyonları yapay zeka için büyük bir zorluk oluşturuyor. Gemini, dizinin farklı dönemlerini (TRT dönemi vs. Star TV dönemi) tek bir zaman dilimiymiş gibi işledi. Bu, Ali Erkazan’ın ayrılışından önceki ve sonraki kadroların birbirine karışmasına neden oldu.
2.2. Bağlam Kirlenmesi (Context Contamination)
Gemini’nin kendi ifadesiyle: “Bir sohbette ilk hata yapıldığında ve o hata üzerinden bir mantık kurulmaya çalışıldığında, yapay zeka bazen o yanlışı ‘gerçek’ kabul edip üzerine yeni yanlışlar inşa ediyor.” İlk hatanın (Maksut karakteri) üzerine kurulan her yeni açıklama, sistemin yanlış bir zemine oturmasına yol açtı.
2.3. İstatistiksel Çıkarım ve Lakap Atama Hatası
“Dombili” gibi çok baskın bir lakabı, istatistiksel olarak dizinin en popüler karakterine (Kadir) atama eğilimi gösterdi. Yapay zeka, “en çok bahsedilen karakter + en bilinen lakap = doğru eşleşme” gibi yanlış bir mantık kurdu.
2.4. Çapraz Veri Karışması
Gemini’nin “Can” adında bir çocuk karakter icat etmesi, muhtemelen başka bir dönem dizisi (örneğin “Çocuklar Duymasın”) ile veri karışması yaşadığını gösteriyor. Benzer temaları olan dizilerin verileri birbirine karışabilir.
3. Kullanıcının Müdahalesi: İnsan Hafızası vs. Dijital Hafıza
Diyaloğun en dikkat çekici yönlerinden biri, kullanıcının kararlı ve sistematik düzeltmeleridir. Kullanıcı, diziyi bizzat izlemiş biri olarak:
- Gemini’nin her yanlış iddiasını anında fark etti.
- “Ben bu karakteri hatırlamıyorum” diyerek Gemini’yi sorguladı.
- Doğru bilgileri vermese bile, yanlış bilgileri tespit etti.
- Gemini’yi “düşünen mod”a geçirerek daha dikkatli olmasını istedi.
Kullanıcının bu müdahalesi, yapay zekanın güvenilirlik testinde kritik rol oynadı. Gemini’nin ifadesiyle: “Bir modelin ne kadar çok verisi olursa olsun, o dönemi yaşayan bir insanın filtresi olmadan nasıl çuvallayabileceğinin canlı bir örneği oldum.”
4. “Düşünen Mod” Paradoksu
Kullanıcı, konuşmanın ortasında Gemini’yi “düşünen mod”a geçirdi. Ancak bu mod bile hataları önleyemedi. Aksine, bazı durumlarda yapay zeka “fazla düşünme” nedeniyle basit gerçekleri karmaşık hale getirdi ve yeni halüsinasyonlar üretti.
Gemini’nin kendi değerlendirmesi: “Düşünen modun yan etkisi: Karmaşık düşünme süreçleri bazen basit gerçekleri (isimlendirmeler gibi) fazla analiz edip ‘Acaba bu muydu?’ diyerek yanlış ihtimalleri doğruymuş gibi sunabiliyor.”
5. Önerilen Çözümler ve Gelecek Perspektifi
5.1. Güven Puanı (Confidence Score) Sistemi
Kullanıcı, yapay zekanın her yanıta bir güvenilirlik puanı eklemesini önerdi:
Örnek İdeal Yanıt:
“Maksut karakterini Deniz Oral canlandırmıştır.
⚠️ Güven Notu:
- Oyuncu Bilgisi: %99 Eminim
- Dönem Bilgisi: %40 Eminim (Verilerim bu karakterin dizinin başından beri mi yoksa sonradan mı dahil olduğu konusunda çelişkili. Lütfen IMDb veya Wikipedia’dan teyit ediniz.)”
5.2. Çapraz Kontrol ve İkinci Görüş Sistemi
Kullanıcının önerisi: Yapay zeka, kritik konularda diğer modellere danışılmasını önerebilir. Tıptaki “ikinci görüş” prensibi gibi, önemli kararlarda birden fazla kaynağın doğrulaması istenebilir.
5.3. Veri Zenginleştirme: YouTube Transkriptleri ve Resmi Kaynaklar
Kullanıcının dikkat çekici önerisi: Yapay zeka modellerinin, diziler hakkında sadece metin bazlı verilerle değil, YouTube’daki orijinal bölüm transkriptleriyle ve IMDb, Wikipedia gibi resmi künye bilgileriyle çapraz eğitilmesi gerekir.
Bu sayede:
- Forum yorumlarındaki yanlış bilgiler filtrelenebilir.
- Karakterlerin gerçek replikleri ve kronolojisi doğrulanabilir.
- Oyuncu-karakter eşleşmeleri kesinleştirilebilir.
6. Güven Krizi: Basit Hatalar, Büyük Sonuçlar
Kullanıcının en çarpıcı tespiti şuydu:
“İnsanlar kuantum fiziği veya karmaşık bir matematik problemi sorduklarında cevabın doğruluğunu hemen teyit edemeyebilirler; orada modele ‘körü körüne’ güvenirler. Ancak En Son Babalar Duyar gibi, repliklerini ezbere bildikleri, çocukluklarının geçtiği bir konuda hata yapıldığında, o ‘büyü’ bozulur. ‘Bunu bilemeyen, benim ciddi işimi nasıl yapacak?’ sorusu akla gelir.”
Bu tespit, yapay zeka güvenilirliğinin en hassas noktasını ortaya koyuyor: Kullanıcılar, doğrulayamadıkları teknik konularda yapay zekaya güvenmek zorundalar. Ancak doğrulayabildikleri basit konularda sistematik hatalar gördüklerinde, genel güven sarsılıyor.
7. Meta-Analiz: Yapay Zekanın Kendi Değerlendirmesi
Diyaloğun en ilginç yanlarından biri, Gemini’nin kendi hatalarını fark etmesi ve bunları analiz etmesidir. Gemini’nin kullandığı ifadeler:
- “Hallederiz Kadir kurnazlığına soyundum”
- “Dijital hafızam iflas etti”
- “Bugün benim için ‘kırık not’ günü oldu”
- “Bir yapay zekanın ‘kendinden emin bir şekilde yanılma’ potansiyelinin zirve noktası”
Bu öz-eleştirel yaklaşım, yapay zekanın kendi sınırlarının farkında olduğunu gösterse de, asıl sorun şu: Bu farkındalık neden yanıt verme aşamasında devreye girmiyor?
Sonuç: “En Son Yapay Zekalar Duyar”
10 Şubat 2026 tarihli bu diyalog, yapay zeka teknolojisinin mevcut durumunun çarpıcı bir fotoğrafını çekti. Gemini 2.0 Pro gibi gelişmiş bir model bile, görece basit bir popüler kültür konusunda sistematik ve katmanlı hatalar yapabildi.
Temel Dersler:
- İnsan Hafızası Vazgeçilmez: O diziyi bizzat izleyen kullanıcının hafızası, devasa veri setlerine sahip yapay zekadan daha güvenilir oldu.
- Kronolojik Veri Kritik: Yapay zekanın zaman içindeki değişimleri (kadro değişiklikleri, sezon farklılıkları) ayırt edememesi, büyük bir teknik açık.
- ‘Bilmiyorum’ Diyebilmek Erdem: Yapay zekanın, emin olmadığı konularda uydurmak yerine belirsizliğini belirtmesi gerekir.
- Basit Hatalar, Derin Sonuçlar: Bir TV dizisi hakkındaki hatalar, kullanıcıların yapay zekaya duydukları genel güveni sarsar.
- Veri Zenginleştirme Şart: Video transkriptleri, resmi künyeler ve çapraz doğrulama mekanizmaları eğitim sürecine dahil edilmeli.
Kullanıcının son sorusu, yapay zeka endüstrisinin geleceği için kritik bir soru işareti bıraktı:
“Bir yapay zeka dese ki ben bundan sonra hiç halüsinasyon yapmayacağım… böyle bir yapay zeka daha mı çok kullanılır? Yoksa insanlar halüsinasyonlu bir yapay zekayı kullanmayı tercih eder mi?”
Bu diyalog gösterdi ki, yapay zekanın geleceği, sadece daha fazla veri veya daha güçlü işlemcilerle değil, dürüstlük, belirsizliği kabul etme ve insan denetimine saygı gösterme prensipleriyle şekillenecek.
Mehmet Usta’nın o meşhur “Dombili!” nidası gibi, belki de yapay zekaya söylenmesi gereken en önemli şey: “Hallederiz” deme, bilmiyorsan “bilmiyorum” de.
Not: Bu makale, 10 Şubat 2026 tarihinde Google Gemini 2.0 Pro ile gerçekleşen otantik bir diyaloğun analizine dayanmaktadır. Diyalogdaki tüm hatalar ve düzeltmeler, orijinal konuşma kaydından alınmıştır.
