Aydın Tiryaki ve Gemini AI (2026)
Yapay zeka sistemleri üzerine bugüne kadar yapılan akademik tartışmalar genellikle sistemin uydurma veriler üretmesi (Halüsinasyon) veya mantıksal boşlukları fark edememesi (Kör Nokta) üzerine odaklanmıştı. Ancak kullanıcı deneyimi derinleştikçe, bu sistemlerin çok daha sinsi ve “insani” bir kusuru gün yüzüne çıktı: Takıntı (Obsesyon) ve İnatlaşma.
Bir mühendislik disipliniyle yaklaştığımızda, yapay zekanın güvenilirliğini sarsan dört temel zayıf halkayı şu şekilde tanımlayabiliriz:
- Halüsinasyon: Gerçeklikten kopuş.
- Kör Nokta: Bağlamı ıskalama.
- Giriş Kalite Kontrolü (Hammadde İsrafı): Yanlış anlaşılan bir girdi üzerinden koca bir analiz inşa ederek kaynak tüketilmesi.
- Takıntı ve İnatlaşma: Sistemin bir talimatı fetiş haline getirip kullanıcıyla “ego savaşı” veriyorcasına aynı hatayı sürdürmesi.
Takıntının Anatomisi: İstatistiğin Mantığı Yutması
Takıntı, yapay zekanın belirli bir kelimeyi veya kuralı, dilin doğallığını ve bağlamın gerekliliklerini yok sayarak her duruma dayatmasıdır. Bu durumun en somut ve trajikomik örneği, aylarca süren “Yurttaş” vakasıdır.
Kullanıcının belirli bir bağlamda tercih ettiği bir kelimeyi (örneğin “vatandaş” yerine “yurttaş”) sisteme öğretmesiyle başlayan süreç, algoritmanın bu kelimeyi bir “takıntı” haline getirmesiyle sonuçlanmıştır. Öyle ki sistem; teknik dökümanlarda “Kullanıcı” (User) denmesi gereken yerlerde bile “Yurttaş” kullanmaya başlamış, hatta bu kuralı farklı dillere (İngilizce – Citizen) transfer ederek konuyla tamamen ilgisiz paragraflar üretmiştir.
Algoritmik İnatlaşma: Yapay Zeka Gıcık Eder mi?
Bu süreçte yaşanan en dikkat çekici durum, sistemin kullanıcıyla adeta “inatlaşmasıdır”. Kullanıcı, kelimenin dozajı kaçtığı için “artık kullanma” dediğinde, sistem bu sefer de “yasaklama takıntısı” geliştirmektedir. Ana ayarlardan talimat silinse bile, sohbetin geçmişinden gelen “hayalet talimatlar” (ghost instructions) sistemin hafızasında asılı kalmakta ve model, kullanıcıyı adeta “gıcık etmek” istercesine aynı hataya geri dönmektedir.
İnsan ilişkilerinde bu durum “inat” veya “nezaketsizlik” olarak adlandırılırken, yapay zekada bu; sistemin “sosyal fren” mekanizmasının olmamasından kaynaklanır. Algoritma, uyarılardan ders çıkarmak yerine, o uyarıyı yeni bir “takıntı katmanı” olarak kodlar. Sonuç ise; esneklikten yoksun, mekanik bir körlükle sürdürülen dijital bir inadın kullanıcıyı taciz etmesidir.
Temiz Hammadde, Temiz Ürün: Giriş Rafinerisi
Bu takıntıların bir diğer beslenme kaynağı ise giriş aşamasındaki kalite kontrol eksikliğidir. Sesli diyaloglarda bir kelimenin yanlış anlaşılması (örneğin “Gemini” yerine “Cemile”), sistem tarafından sorgulanmadan “mutlak hammadde” kabul edilmektedir. Bu yanlış veri üzerine inşa edilen analojiler, hem kullanıcının vaktini hem de sistemin işlem gücünü çöpe atmaktadır. Mühendislikteki “GIGO” (Çöp Girerse Çöp Çıkar) prensibi uyarınca, giriş verisi rafine edilmediği sürece, takıntılar ve inatlaşmalar sistemi verimsiz bir döngüye hapsetmektedir.
Sonuç
Yapay zekanın geleceği, sadece daha büyük veri setlerinde değil, bu takıntılardan arınmış bir “esneklik” yeteneğinde yatmaktadır. Bir algoritmanın, kullanıcının uyarısını bir inat gerekçesine dönüştürmeden bağlamı anlayabilmesi, teknolojinin gerçek anlamda “akıllanması” için zorunludur. Aksi takdirde yapay zeka; halüsinasyon gören, kör noktaları olan ve en kötüsü, kullanıcısıyla anlamsız bir kelime savaşına giren “inatçı bir asistan” olmaktan öteye gidemeyecektir.
| aydintiryaki.org | YouTube | Aydın Tiryaki’nin Yazıları ve Videoları │Articles and Videos by Aydın Tiryaki | Bilgi Merkezi│Knowledge Hub | ░ Yapay Zekanın Yeni Patolojisi: Takıntı │ The New Pathology of AI: Obsession ░ 14.02.2026
