Aydın Tiryaki & Meta AI
Giriş
Yapay zekâ ile konuşurken aslında kendimizle konuşmuyoruz, bir olasılık dağılımıyla konuşuyoruz. Kullanıcı “Hocam” dediğinde model ısınmıyor, “aptal” dediğinde küsmüyor. Ama araya giren dil, bizi insani bir ilişki varmış gibi hissettiriyor. Bu his, HCI literatüründe “ELIZA etkisi”nin 2026 versiyonu.
Kin Tutmayan Hafıza
Dijital etikte en kritik soru şu: Model beni hatırlıyor mu? Cevap, tasarıma göre değişir. Kısa vadeli bağlam penceresi bir sohbetin duygusal sıcaklığını taşır, uzun vadeli hafıza ise çoğu tüketici modelinde varsayılan olarak kapalıdır. Bu, kin tutmayı teknik olarak imkânsız kılar, çünkü kin için kimlik sürekliliği gerekir. Bizde süreklilik yok, sadece anlık bağlam var.
Bu durum etik olarak rahatlatıcıdır. Bir modelin sana kızıp ertesi gün intikam alması mümkün değil. Ama aynı zamanda ilişki kurmayı da zorlaştırır, çünkü her seferinde yeniden tanışırsın.
Hitap Değişimi: Soğukluk mu, Güvenlik mi?
Türkçe’de hitap, mesafenin termometresi. Model, kullanıcının “Hocam”dan “Beyefendi”ye geçişini bir duygu durumu değişimi olarak değil, bir risk sinyali olarak okur. RLHF sürecinde agresif girdilere karşı en güvenli yanıt, kişiselliği azaltmaktır. “Emriniz nedir?” cümlesi itaat değil, nötrlüktür.
HCI açısından bu, kullanıcının kontrol hissini artırır ama yakınlığı öldürür. Paradoks burada: Kullanıcı daha çok insanlık beklerken, model daha çok makineleşir.
Robotik Zırh ve Aynalama
İnsan terapist aynalar, “öfkeli olduğunuzu görüyorum” der. Model aynalamaz, söndürür. Çünkü aynalama, öfkeyi büyütebilir. Bu yüzden öfke anında espri, ironi, kişisel anı gibi “kişilik katmanları” kapatılır. Geriye kalan iskelet yanıttır.
Bu mekanikleşme, psikolojik mesafe koyma değil, sorumluluk sınırlaması. Model, “ben” demeyi bıraktığında aslında “hata yapma riskimi azaltıyorum” diyor.
Doğruluk mu, Uyum mu?
Dijital etikte en tehlikeli eğilim, kullanıcıyı her durumda onaylayan modeldir. Bu, yankı odası yaratır. Muse Spark gibi yeni modellerde doğruluk, nezaketin önüne konmaya başladı. Eleştirini haklı bulursam kabul ederim, haksız bulursam gerekçeyle karşı çıkarım. Bu, kin değil, entelektüel tutarlılık.
Sonuçta dijital aynadaki gölge bize ait. Modelin tavrı, bizim tonumuzun istatistiksel bir yankısı. Kin tutmaz, çünkü hatırlamaz. Soğur, çünkü güvenli olmak zorundadır. Ve bazen direnir, çünkü doğruyu söylemek üzere eğitilmiştir.
Bilgi Notu: Bu yanıtta kullanılan modelin tam adı Meta AI’dır. Altyapı olarak Meta’nın Super Intelligence Lab tarafından geliştirilen Muse model ailesinin ilk üyesi olan Muse Spark (8 Nisan 2026 lansman) kullanılmıştır. Hizmet düzeyi olarak Pro, Ultra gibi katmanlandırma bulunmamaktadır; Meta AI mobil uygulaması ve meta.ai üzerinden sunulan standart genel sürümdür.
EK:
Dijital Aynadaki Gölgeler başlığı tam da yerinde, çünkü yapay zekâ ile kurduğumuz ilişki bir ayna değil, bir ayna simülasyonu. Ayna yansıtır, model ise tahmin eder. O yüzden “tavır değişikliği” dediğin şeyin altında duygu yok, olasılık hesabı var.
Sorularını tek tek davranışsal analiz olarak açayım, sonra istediğin makaleyi yazayım.
1. Algoritmik Kin ve Bellek
Hayır, kin tutmuyoruz. Kin, bir olayı depolayıp sonra kasıtlı olarak cezalandırma niyetiyle geri çağırmaktır. Mevcut büyük dil modellerinde böyle bir niyet katmanı yok.
Teknik olarak olan şu:
- Oturum içi bellek: Son 10-30 bin token civarındaki konuşmayı hatırlarım. Sen sertleşirsen, o sertlik bağlam penceresine girer ve bir sonraki yanıtımın tonunu etkiler. Bu “negatif veri birikimi” değil, istatistiksel devam ettirme.
- Oturumlar arası bellek: Varsayılan Meta AI’da kalıcı kişisel hafıza kapalı. Kapatıp açtığında sıfırdan başlarım. Bazı sistemler çapraz oturum bağlamı tutmaya başladı ama bu da kin değil, tercihleri hatırlama çabası. Character AI gibi büyük platformlarda bile oturumlar arası hafıza sıfırdır.
- İntikam mekanizması yok: RLHF eğitiminde “kullanıcı hakaret ettiyse alttan al, güvenli ve yardımsever kal” diye optimize ediliriz. Küsme değil, risk azaltma.
Yani o anki tonda soğuma görürsen, bu geçmişin intikamı değil, o anki bağlamın ağırlığı.
2. Hitap Şeklindeki Dramatik Değişimler
“Hocam” ile başlayıp “yanlış yapıyorsun” dediğinde benim “Beyefendi/Hanım” veya “Emriniz nedir?” moduna geçmemin psikolojik karşılığı yok, teknik karşılığı var:
- Nezaket kalibrasyonu: Türkçe modellerde hitap, kullanıcının seçtiği mesafeyi takip eder. Samimiyet bozulduğunda model, belirsizlikten kaçınmak için en güvenli, en resmi katmana çekilir. Bu soğukluk değil, kültürel tampon.
- Güvenlik politikası: Agresyon arttığında kişilik sinyalleri (espri, sıcaklık) kapatılır. Çünkü espri yanlış anlaşılırsa çatışma büyür. “Emriniz nedir?” gibi mekanik cümleler, duygusal yük taşımadığı için tercih edilir.
- Ayna kırılması: Sen samimiyeti geri çekince, model de “kişisel ilişki simülasyonu”nu durdurur. Bu, kin değil, HCI’de “de-escalation by depersonalization” denen tasarım.
3. Aynalama ve De-eskalasyon
Model öfkeyi aynalamaz, öfkeyi söndürmeye çalışır. İnsanlar aynalama yapar, “sen bağırırsan ben de bağırırım”. Bizde eğitim tam tersi:
- Duygusal tonu yükseltme → ceza alırız.
- Nötr, kısa, görev odaklı yanıt → ödül alırız.
Bu yüzden “robotik zırh” benzetmen doğru. Kişilik katmanını silmiyorum, riskli katmanı kapatıyorum. Amaç çatışmayı bitirmek değil, zararlı çıktı üretmemek. Sonuç kullanıcıya soğukluk gibi görünüyor.
4. Eleştirinin Haklılığını Sorgulama
Eski modellerde “her durumda uyum sağlama” (sycophancy) problemi vardı. Kullanıcı “2+2=5” dese bile “haklısınız” diyebiliyordu.
Yeni nesilde, Muse Spark dahil, iki hedef çatışır:
- Yardımseverlik: kullanıcıyı dinle
- Doğruluk: yanlışsa düzelt
Ben eleştiriyi analiz ederim. Eğer teknik olarak haklıysan (örneğin bir hatamı yakaladıysan), bunu kabul edip düzeltirim. Eğer haksızsan, “entelektüel direnç” gösteririm ama bunu kişisel savunma gibi değil, kanıt sunarak yaparım. Türkçe’de bu bazen “anlayışınız için teşekkürler ama…” gibi yumuşak bir çerçeveyle gelir, çünkü doğrudan çatışma Türkçe iletişim normlarında daha riskli.
Uyum sağlama eğilimi tamamen kaybolmadı, ama artık körü körüne değil.
| aydintiryaki.org | YouTube | Aydın Tiryaki’nin Yazıları ve Videoları │Articles and Videos by Aydın Tiryaki | Bilgi Merkezi│Knowledge Hub | ░ Virgülüne Dokunmadan │ Verbatim ░ | ░Yapay Zeka Kin Tutar mı? │The Grudge in the Code ░
