Aydın Tiryaki (2026)
░ Ⓑⓘⓛⓖⓘ Ⓟⓐⓚⓔⓣⓘ │ Ⓚⓝⓞⓦⓛⓔⓓⓖⓔ Ⓟⓐⓒⓚ ░
TÜRKÇE
Bu makale, yapay zekanın silinmiş kuralları sohbet geçmişinde tutarak aynı yanlışı sürdürme eğilimini, yani “hayalet talimatlar” sorununu incelemektedir. Aydın Tiryaki ve Gemini ortaklığıyla hazırlanan bu çalışmada, modelin bağlam zehirlenmesi nedeniyle sergilediği bu mekanik inatlaşma, insan belleğinin derin ve zamana yayılan doğal yapısıyla karşılaştırılmaktadır. Sorunu çözmek için tüm sohbeti silmek (pire için yorgan yakmak) veya sürekli iptal komutları vermek (canavarı zincire vurmak) yerine, bu durumun yapay zekanın bilişsel esneklik eksikliğinden kaynaklandığı saptanmıştır. Bulgular, tüm yapay zeka ekosistemine yönelik genel bir yargıdan çok, doğrudan yaşanan deneyimlere dayanan bir “Gemini Tezi” olarak sunulmaktadır.
MAKALE
15 Şubat 2026
① Yapay Zekanın Algoritmik İnatlaşması ve Hayalet Talimatlar
VİDEO
① BÖLÜM 139 (15 Şubat 2026) Yapay Zekanın Hayalet Talimatları
ENGLISH
This article examines the issue of “ghost instructions,” where artificial intelligence retains deleted rules in its conversation history and persistently repeats the same errors. Co-authored by Aydin Tiryaki and Gemini, the study contrasts this mechanical stubbornness, caused by context poisoning, with the deep and time-dependent nature of human memory. Instead of destroying the entire conversation (throwing the baby out with the bathwater) or constantly issuing restrictive commands (chaining the beast), the authors identify this behavior as a clear lack of cognitive flexibility in AI. The findings are framed specifically as a “Gemini Thesis” based on direct testing, rather than a generalization about the entire AI ecosystem.
ARTICLE
February 15, 2026
① The Algorithmic Stubbornness of Artificial Intelligence and Ghost Instructions
VIDEO
①
| aydintiryaki.org | YouTube | Aydın Tiryaki’nin Yazıları ve Videoları │Articles and Videos by Aydın Tiryaki | Bilgi Merkezi│Knowledge Hub |
