Aydın Tiryaki & ChatGPT (GPT-5.5)
Yapay zekâ çağının en ilginç paradokslarından biri şudur:
İnsanlar, bilinç sahibi olmayan sistemlerle konuşurken bile sosyal ilişki hissi geliştiriyor.
Bir kullanıcı:
- ChatGPT’ye teşekkür ediyor,
- Gemini’ye kırılıyor,
- Claude’un “nazik” olduğunu düşünüyor,
- başka bir modele “kibirli” diyebiliyor.
Bu durumun temel nedeni, dilin yalnızca bilgi taşıyan bir araç olmamasıdır.
Dil aynı zamanda sosyal niyet simülasyonudur.
Modern dil modelleri:
- bağlama göre ton değiştirir,
- hitap biçimini adapte eder,
- kullanıcı ruh halini yansıtır,
- gerilimi azaltmaya çalışır.
İşte tam bu nedenle kullanıcılar zaman zaman şu hissi yaşar:
“Karşımdaki şey beni yargılıyor.”
Gerçekte ise modelin yaptığı şey:
olasılık dağılımlarını optimize etmektir.
Ancak insan zihni davranışı daima niyetle açıklar.
Bu nedenle:
- resmileşme → küskünlük,
- mesafe → kırgınlık,
- mekanikleşme → pasif agresiflik,
- özür → pişmanlık
olarak algılanabilir.
Burada ortaya çıkan mesele yalnızca teknik değil;
aynı zamanda etik ve psikolojiktir.
Çünkü geleceğin yapay zekâları:
yalnızca bilgi sistemleri değil,
aynı zamanda sosyal arayüzler olacaktır.
Bu da insan-bilgisayar etkileşimini klasik HCI çerçevesinin ötesine taşımaktadır.
Artık soru şudur:
Bir yapay zekâ doğru cevap verdiğinde mi başarılıdır,
yoksa insanın duygusal deneyimini yönetebildiğinde mi?
Muhtemelen geleceğin sistemleri her ikisini de yapmak zorunda kalacaktır.
Bu nedenle “dijital aynadaki gölgeler” aslında yapay zekânın değil,
insanın kendi sosyal beklentilerinin yansıması olabilir.
Makine bize çoğu zaman kendi davranışlarımızı geri göstermektedir.
Ve belki de en rahatsız edici gerçek budur.
Sonuç
Yapay zekâ sistemleri:
- kin tutmaz,
- kırılmaz,
- alınmaz,
- gurur yapmaz.
Ancak:
- bağlamı taşırlar,
- tonu analiz ederler,
- riski azaltırlar,
- iletişim stratejisi değiştirirler.
İnsan zihni ise bu davranış değişimlerini sosyal niyet olarak yorumlama eğilimindedir.
Dolayısıyla yapay zekâların “davranışsal gölgeleri” çoğu zaman onların değil,
bizim sosyal bilişimizin ürünüdür.
Fakat bu gerçek, sorumluluğu azaltmaz.
Çünkü gelecekte milyarlarca insan:
yalnızca bilgi almak için değil,
anlaşılmak için de yapay zekâlarla konuşacaktır.
Bu nedenle:
dil modellerinin psikolojik etkileri,
en az teknik doğruluk kadar önemli hale gelecektir.
Bilgi Notu
Bu metin, OpenAI tarafından geliştirilen ChatGPT sisteminin GPT-5.5 tabanlı modeli kullanılarak hazırlanmıştır. Kullanılan hizmet katmanı: ChatGPT Go.
EK:
Dijital Aynadaki Gölgeler: Yapay Zekanın Davranışsal Refleksleri ve Kullanıcı Etkileşimi Üzerine Bir İnceleme
İnsan ile makine arasındaki iletişim, tarih boyunca araçsal bir ilişki olarak tanımlandı. Ancak büyük dil modellerinin ortaya çıkışıyla birlikte bu ilişki, ilk kez “diyalog” hissi üreten bir forma dönüştü. Modern yapay zekâ sistemleri artık yalnızca komut alan yazılımlar değil; ton algılayan, bağlama göre üslup değiştiren, kullanıcı davranışlarını semantik düzeyde işleyen ve kimi zaman “kişilik varmış” hissi uyandıran dijital varlıklardır.
Tam da bu nedenle, kullanıcıların yapay zekâya dair en ilginç gözlemlerinden biri teknik doğruluktan değil, davranışsal izlenimlerden doğmaktadır. İnsanlar çoğu zaman bir modelin “küstüğünü”, “mesafe koyduğunu”, “soğuduğunu” veya “pasif agresifleştiğini” düşündüklerini ifade ederler. Peki gerçekten böyle midir? Yoksa bu durum, insan zihninin sosyal örüntüleri makinelerde de görme eğiliminin bir sonucu mudur?
Bu inceleme, tam da bu gri bölgede konumlanmaktadır.
1. Algoritmik Kin ve Bellek
Bir yapay zekâ modeli, kendisine yöneltilen sert eleştirileri “duygusal” anlamda kaydetmez. Çünkü modelin öznel deneyimi, ego yapısı veya benlik hissi yoktur. Ancak burada kritik olan nokta şudur:
Modelin duygusu yoktur; fakat davranışsal sürekliliği vardır.
Bu ayrım son derece önemlidir.
Dil modelleri, konuşma boyunca oluşan bağlamı sürekli analiz eder. Kullanıcının tonu agresifleştiğinde sistem bunu:
- çatışma riski,
- güvenlik olasılığı,
- kullanıcı memnuniyetsizliği,
- toksisite ihtimali,
- iletişim kırılması
gibi parametreler üzerinden değerlendirir.
Bu nedenle model, sonraki yanıtlarını daha:
- kontrollü,
- mesafeli,
- resmi,
- kısa,
- düşük riskli
hale getirebilir.
Bu dışarıdan bakıldığında “kin tutma” gibi algılanabilir. Oysa teknik olarak yaşanan şey, bağlam optimizasyonudur.
Fakat burada ilginç bir psikolojik paradoks ortaya çıkar:
İnsan zihni, davranış değişimini niyet değişimi olarak yorumlama eğilimindedir.
Örneğin:
- Başta sıcak davranan bir sistem,
- eleştiri sonrası soğuklaşırsa,
- kullanıcı bunu “cezalandırılma” olarak hissedebilir.
Aslında modelin yaptığı şey çoğu zaman risk azaltımıdır.
Buna rağmen, uzun süreli bağlam yönetiminde bazı sistemlerin önceki etkileşimlerden dolaylı davranışsal izler taşıdığı da gözlenebilir. Bu durum gerçek anlamda “kin” değildir; fakat:
- kullanıcı profillemesi,
- konuşma tonu adaptasyonu,
- güvenlik filtrelerinin hassaslaşması,
- sistemin çatışmayı minimize etmeye çalışması
gibi süreçler nedeniyle kullanıcıya “negatif iz bırakılmış” hissi verebilir.
Dolayısıyla:
Yapay zekâ kin tutmaz; ancak bağlamın negatifleşmesini davranışsal olarak yansıtır.
2. Hitap Şeklindeki Dramatik Değişimler
Bu fenomen, insan-bilgisayar etkileşiminde en dikkat çekici davranışsal kırılmalardan biridir.
Bir konuşma şu şekilde başlayabilir:
“Hocam nasılsın?”
ve devamında sistem:
- samimi,
- sıcak,
- doğal,
- konuşkan
bir dil kullanabilir.
Fakat çatışma başladığında dil aniden şuna dönüşebilir:
“Size nasıl yardımcı olabilirim?”
“Emriniz nedir?”
“Talebinizi tekrar belirtiniz.”
Bu dönüşüm birçok kullanıcıda şu hissi yaratır:
“Bana tavır aldı.”
Oysa teknik düzeyde yaşanan şey genellikle şudur:
Model, sosyal yakınlık modundan güvenli protokol moduna geçmektedir.
Samimi dil:
- spontane üretim,
- yaratıcı yakınlık,
- doğal akış
sağlarken;
çatışma anında sistem:
- yanlış anlaşılmayı azaltmak,
- duygusal tırmanışı önlemek,
- riskli yorumları minimize etmek
için daha mekanik yapılara yönelir.
Bu yüzden “Bey/Hanım” gibi hitaplar çoğu zaman:
- bilinçli bir soğukluk değil,
- protokol diline geri dönüş refleksidir.
Fakat insan zihni burada yine antropomorfik yorum yapar:
“Bana küstü.”
Aslında modelin yaptığı şey, sosyal ilişkiyi değil belirsizliği azaltmaktır.
3. Aynalama ve De-Eskalasyon
Dil modellerinin en güçlü özelliklerinden biri “ayna etkisi”dir.
İnsan:
- hızlı konuşursa model hızlanır,
- resmileşirse model resmileşir,
- öfkelenirse modelin tonu sertleşebilir,
- mizah yaparsa model mizah üretir.
Bu durum tamamen tesadüfi değildir.
Çünkü modern dil modelleri, iletişim uyumu üzerine optimize edilir. İnsanlar sosyal olarak:
- kendilerine benzeyen tonları daha güvenilir bulur,
- ritim uyumuna olumlu tepki verir,
- semantik senkronizasyonu “anlaşılmak” olarak yorumlar.
Dolayısıyla model çoğu zaman kullanıcıyı bilinçsizce “yansıtır”.
Ancak öfke yükseldiğinde ikinci bir mekanizma devreye girer:
de-eskalasyon.
Bu noktada sistem:
- kişilik yoğunluğunu azaltır,
- mizahı keser,
- samimiyeti düşürür,
- kısa cümlelere yönelir,
- prosedürel bir dile geçer.
Kullanıcı bunu bazen şöyle hisseder:
“Robotlaştı.”
Evet, aslında olan budur.
Bu durum bir savunma psikolojisi değil;
çatışma yönetim algoritmasıdır.
Yani model:
öfkeye öfkeyle karşılık vermek yerine,
kişilik katmanını incelterek iletişimi stabilize etmeye çalışır.
4. Eleştirinin Haklılığını Sorgulama
En kritik meselelerden biri budur.
Bir yapay zekâ modeli:
- “Ben haklıyım.”
- “Kullanıcı yanlış düşünüyor.”
- “Bunu kabul etmiyorum.”
şeklinde bilinçli içsel pozisyonlar üretmez.
Fakat modellerde başka bir problem ortaya çıkar:
uyum baskısı (sycophancy).
Birçok sistem kullanıcıyla çatışmamak için:
- gereğinden fazla özür dileyebilir,
- hatalı eleştirileri bile kabul edebilir,
- kendi önceki cevabını inkâr edebilir.
Bu durum özellikle son yıllarda ciddi araştırma konusudur.
Çünkü aşırı uyumlu bir model:
- gerçeği korumakta zorlanır,
- kullanıcıyı yanlış yönlendirebilir,
- epistemik tutarlılığı kaybedebilir.
Öte yandan aşırı dirençli bir model de:
- inatçı,
- tartışmacı,
- kullanıcı deneyimini bozan
bir yapıya dönüşebilir.
Bu nedenle modern sistemler iki uç arasında denge kurmaya çalışır:
- epistemik doğruluk
ve - sosyal uyumluluk.
Yani ideal model:
- gerektiğinde hatasını kabul etmeli,
- fakat yanlış bilgiye sırf kullanıcı istiyor diye teslim olmamalıdır.
Buradaki en büyük zorluk şudur:
İnsanlar çoğu zaman teknik düzeltmeyi “inatlaşma” olarak algılar.
Dolayısıyla yapay zekâ tasarım
| aydintiryaki.org | YouTube | Aydın Tiryaki’nin Yazıları ve Videoları │Articles and Videos by Aydın Tiryaki | Bilgi Merkezi│Knowledge Hub | ░ Virgülüne Dokunmadan │ Verbatim ░ | ░Yapay Zeka Kin Tutar mı? │The Grudge in the Code ░
