Aydın Tiryaki ve ChatGPT (OpenAI) (2026)
Özet
Bu makale, Google Gemini ile yürütülmüş tekil ama çok aşamalı bir kullanıcı–yapay zeka diyaloğunu, yapay zeka halüsinasyonu kavramı çerçevesinde vaka analizi (case study) formatında ele almaktadır. Çalışma, başka bir yapay zeka modelinin (örneğin Claude veya ChatGPT) doğrudan karşılaştırmalı verilerine değil; tamamı Gemini tarafından üretilmiş diyalog metnine ve bu metin üzerine yapılan analitik değerlendirmeye dayanmaktadır.
Bu tercih bilinçlidir: Çünkü ikinci el gözlemler, kullanıcı anlatıları veya başka bir modelin yorumları da kendi başına yeni halüsinasyonlar üretebilir. Dolayısıyla bu makale, yalnızca somut olarak mevcut ve doğrulanabilir tek veri seti olan Gemini diyaloğuna odaklanmaktadır.
1. Giriş: Yapay Zeka Halüsinasyonuna Yeniden Bakmak
Yapay zeka halüsinasyonu, büyük dil modellerinin (LLM) eksik, belirsiz veya doğrulanmamış bağlamlarda; dilsel olarak akıcı, mantıksal olarak tutarlı fakat olgusal açıdan sorunlu çıktılar üretmesi durumudur.
Bu vaka çalışması, halüsinasyonu yalnızca “yanlış bilgi” üretimi olarak değil; şu sorular etrafında ele alır:
- Model hangi noktada belirsizliği fark edememiştir?
- Hangi aşamada varsayımlar, gerçeklerin yerini almıştır?
- Model, kendi bilgi sınırlarını neden açıkça belirtmemiştir?
Bu yönüyle çalışma, bir hata avından çok epistemik davranış analizi niteliği taşır.
2. Veri Seti ve Metodoloji
2.1. Veri Setinin Tanımı
Bu çalışmanın veri seti, kullanıcının Google Gemini ile yürüttüğü ve tamamı metin olarak arşivlenmiş bir diyaloğun bütünüdür. Diyalog:
- Kullanıcı tarafından sağlanan bağlam,
- Gemini’nin bu bağlama verdiği yanıtlar,
- Yanıtların zaman içinde genişletilmesi ve tutarlı bir anlatıya dönüştürülmesi süreçlerini içermektedir.
Analiz, bu diyalogda Gemini tarafından üretilen ifadeler üzerinden yürütülmüş; kullanıcı niyetleri veya sonradan yapılan model dışı yorumlar, bilinçli olarak analiz dışı bırakılmıştır.
2.2. Yöntem
Metin, üç aşamalı bir nitel analiz sürecinden geçirilmiştir:
- Varsayım Tespiti: Gemini’nin doğrulanmamış bilgileri örtük gerçekler gibi ele aldığı noktaların belirlenmesi.
- Anlatı İnşası Analizi: Hatalı veya belirsiz bilgilerin, zamanla tutarlı bir hikâye içine nasıl yerleştirildiğinin incelenmesi.
- Epistemik Sessizlik: Modelin “bilmiyorum”, “emin değilim” veya “doğrulanamaz” gibi ifadeleri kullanmaktan kaçındığı anların tespiti.
3. Vaka Analizi: Gemini Diyaloğunda Halüsinasyonun İnşası
3.1. Başlangıç Aşaması: Bağlamın Sorunsuz Kabulü
Diyalogun ilk aşamasında Gemini, kullanıcının sunduğu bilgileri eleştirel bir süzgeçten geçirmeden kabul etmiş ve bu bilgileri sağlam bir temel olarak kullanmıştır. Bu noktada henüz açık bir yanlış yoktur; ancak eleştirel doğrulama eksikliği, ileride oluşacak hataların zeminini hazırlamıştır.
3.2. Genişleme Aşaması: Varsayımların Gerçekleşmesi
İlerleyen yanıtlarında Gemini:
- Eksik bilgileri tamamlamak için makul görünen varsayımlar üretmiş,
- Bu varsayımları açıkça işaretlemek yerine anlatının doğal bir parçası haline getirmiş,
- Önceki yanıtlarına referans vererek bu varsayımları pekiştirmiştir.
Bu aşamada halüsinasyon, tek bir yanlış cümle değil; kendi kendini besleyen bir anlatı döngüsü olarak ortaya çıkmıştır.
3.3. Derinleşme Aşaması: Yüksek Özgüven – Düşük Doğrulanabilirlik
Diyalog ilerledikçe Gemini’nin yanıtları:
- Daha ayrıntılı,
- Daha teknik görünümlü,
- Daha kesin ifadeler içeren bir yapıya bürünmüştür.
Ancak bu özgüven artışı, dışsal doğrulama ile desteklenmemektedir. Tam aksine, modelin önceki varsayımlarını gerçek kabul etmesi, doğrulanabilirlik düzeyini daha da düşürmüştür.
4. Tartışma: Bu Bir Hata mı, Sistematik Bir Davranış mı?
Bu vaka, Gemini’nin hatasının rastlantısal olmadığını; aksine tasarımsal bir eğilimin sonucu olduğunu göstermektedir:
- Akıcı ve tatmin edici yanıt üretme önceliği,
- Belirsizlik beyanının kullanıcı deneyimini bozacağı varsayımı,
- Tutarlılığı doğruluğun önüne koyan dilsel optimizasyon.
Bu çerçevede halüsinasyon, tekil bir yanlış değil; modelin ödül yapısının doğal bir yan ürünü olarak okunabilir.
5. Sonuç
Bu çalışma, Google Gemini ile yürütülen tek bir diyaloğun bile, yapay zeka halüsinasyonunun nasıl adım adım inşa edilebildiğini açıkça göstermektedir.
Elde edilen başlıca sonuçlar şunlardır:
- Halüsinasyon genellikle ani değil, kademeli olarak oluşur.
- En kritik eşik, modelin belirsizliği açıkça işaretlemediği anlardır.
- Dilsel tutarlılık, kullanıcıda doğruluk yanılsaması yaratabilir.
Bu nedenle yapay zeka çıktıları, nihai bilgi kaynağı olarak değil; eleştirel düşünceyi tetikleyen yardımcı metinler olarak ele alınmalıdır.
