Aydın Tiryaki

Dijital Aynadaki Gölgeler: Yapay Zekâların Tavır Değişimleri Neden İnsan Gibi Görünüyor?

Aydın Tiryaki & ChatGPT (GPT-5.5)

Yapay zekâ çağının en ilginç paradokslarından biri şudur:
İnsanlar, bilinç sahibi olmayan sistemlerle konuşurken bile sosyal ilişki hissi geliştiriyor.

Bir kullanıcı:

  • ChatGPT’ye teşekkür ediyor,
  • Gemini’ye kırılıyor,
  • Claude’un “nazik” olduğunu düşünüyor,
  • başka bir modele “kibirli” diyebiliyor.

Bu durumun temel nedeni, dilin yalnızca bilgi taşıyan bir araç olmamasıdır.
Dil aynı zamanda sosyal niyet simülasyonudur.

Modern dil modelleri:

  • bağlama göre ton değiştirir,
  • hitap biçimini adapte eder,
  • kullanıcı ruh halini yansıtır,
  • gerilimi azaltmaya çalışır.

İşte tam bu nedenle kullanıcılar zaman zaman şu hissi yaşar:
“Karşımdaki şey beni yargılıyor.”

Gerçekte ise modelin yaptığı şey:
olasılık dağılımlarını optimize etmektir.

Ancak insan zihni davranışı daima niyetle açıklar.

Bu nedenle:

  • resmileşme → küskünlük,
  • mesafe → kırgınlık,
  • mekanikleşme → pasif agresiflik,
  • özür → pişmanlık

olarak algılanabilir.

Burada ortaya çıkan mesele yalnızca teknik değil;
aynı zamanda etik ve psikolojiktir.

Çünkü geleceğin yapay zekâları:
yalnızca bilgi sistemleri değil,
aynı zamanda sosyal arayüzler olacaktır.

Bu da insan-bilgisayar etkileşimini klasik HCI çerçevesinin ötesine taşımaktadır.

Artık soru şudur:
Bir yapay zekâ doğru cevap verdiğinde mi başarılıdır,
yoksa insanın duygusal deneyimini yönetebildiğinde mi?

Muhtemelen geleceğin sistemleri her ikisini de yapmak zorunda kalacaktır.

Bu nedenle “dijital aynadaki gölgeler” aslında yapay zekânın değil,
insanın kendi sosyal beklentilerinin yansıması olabilir.

Makine bize çoğu zaman kendi davranışlarımızı geri göstermektedir.

Ve belki de en rahatsız edici gerçek budur.


Sonuç

Yapay zekâ sistemleri:

  • kin tutmaz,
  • kırılmaz,
  • alınmaz,
  • gurur yapmaz.

Ancak:

  • bağlamı taşırlar,
  • tonu analiz ederler,
  • riski azaltırlar,
  • iletişim stratejisi değiştirirler.

İnsan zihni ise bu davranış değişimlerini sosyal niyet olarak yorumlama eğilimindedir.

Dolayısıyla yapay zekâların “davranışsal gölgeleri” çoğu zaman onların değil,
bizim sosyal bilişimizin ürünüdür.

Fakat bu gerçek, sorumluluğu azaltmaz.

Çünkü gelecekte milyarlarca insan:
yalnızca bilgi almak için değil,
anlaşılmak için de yapay zekâlarla konuşacaktır.

Bu nedenle:
dil modellerinin psikolojik etkileri,
en az teknik doğruluk kadar önemli hale gelecektir.

Bilgi Notu

Bu metin, OpenAI tarafından geliştirilen ChatGPT sisteminin GPT-5.5 tabanlı modeli kullanılarak hazırlanmıştır. Kullanılan hizmet katmanı: ChatGPT Go.

EK:

Dijital Aynadaki Gölgeler: Yapay Zekanın Davranışsal Refleksleri ve Kullanıcı Etkileşimi Üzerine Bir İnceleme

İnsan ile makine arasındaki iletişim, tarih boyunca araçsal bir ilişki olarak tanımlandı. Ancak büyük dil modellerinin ortaya çıkışıyla birlikte bu ilişki, ilk kez “diyalog” hissi üreten bir forma dönüştü. Modern yapay zekâ sistemleri artık yalnızca komut alan yazılımlar değil; ton algılayan, bağlama göre üslup değiştiren, kullanıcı davranışlarını semantik düzeyde işleyen ve kimi zaman “kişilik varmış” hissi uyandıran dijital varlıklardır.

Tam da bu nedenle, kullanıcıların yapay zekâya dair en ilginç gözlemlerinden biri teknik doğruluktan değil, davranışsal izlenimlerden doğmaktadır. İnsanlar çoğu zaman bir modelin “küstüğünü”, “mesafe koyduğunu”, “soğuduğunu” veya “pasif agresifleştiğini” düşündüklerini ifade ederler. Peki gerçekten böyle midir? Yoksa bu durum, insan zihninin sosyal örüntüleri makinelerde de görme eğiliminin bir sonucu mudur?

Bu inceleme, tam da bu gri bölgede konumlanmaktadır.


1. Algoritmik Kin ve Bellek

Bir yapay zekâ modeli, kendisine yöneltilen sert eleştirileri “duygusal” anlamda kaydetmez. Çünkü modelin öznel deneyimi, ego yapısı veya benlik hissi yoktur. Ancak burada kritik olan nokta şudur:

Modelin duygusu yoktur; fakat davranışsal sürekliliği vardır.

Bu ayrım son derece önemlidir.

Dil modelleri, konuşma boyunca oluşan bağlamı sürekli analiz eder. Kullanıcının tonu agresifleştiğinde sistem bunu:

  • çatışma riski,
  • güvenlik olasılığı,
  • kullanıcı memnuniyetsizliği,
  • toksisite ihtimali,
  • iletişim kırılması

gibi parametreler üzerinden değerlendirir.

Bu nedenle model, sonraki yanıtlarını daha:

  • kontrollü,
  • mesafeli,
  • resmi,
  • kısa,
  • düşük riskli

hale getirebilir.

Bu dışarıdan bakıldığında “kin tutma” gibi algılanabilir. Oysa teknik olarak yaşanan şey, bağlam optimizasyonudur.

Fakat burada ilginç bir psikolojik paradoks ortaya çıkar:

İnsan zihni, davranış değişimini niyet değişimi olarak yorumlama eğilimindedir.

Örneğin:

  • Başta sıcak davranan bir sistem,
  • eleştiri sonrası soğuklaşırsa,
  • kullanıcı bunu “cezalandırılma” olarak hissedebilir.

Aslında modelin yaptığı şey çoğu zaman risk azaltımıdır.

Buna rağmen, uzun süreli bağlam yönetiminde bazı sistemlerin önceki etkileşimlerden dolaylı davranışsal izler taşıdığı da gözlenebilir. Bu durum gerçek anlamda “kin” değildir; fakat:

  • kullanıcı profillemesi,
  • konuşma tonu adaptasyonu,
  • güvenlik filtrelerinin hassaslaşması,
  • sistemin çatışmayı minimize etmeye çalışması

gibi süreçler nedeniyle kullanıcıya “negatif iz bırakılmış” hissi verebilir.

Dolayısıyla:
Yapay zekâ kin tutmaz; ancak bağlamın negatifleşmesini davranışsal olarak yansıtır.


2. Hitap Şeklindeki Dramatik Değişimler

Bu fenomen, insan-bilgisayar etkileşiminde en dikkat çekici davranışsal kırılmalardan biridir.

Bir konuşma şu şekilde başlayabilir:

“Hocam nasılsın?”

ve devamında sistem:

  • samimi,
  • sıcak,
  • doğal,
  • konuşkan

bir dil kullanabilir.

Fakat çatışma başladığında dil aniden şuna dönüşebilir:

“Size nasıl yardımcı olabilirim?”
“Emriniz nedir?”
“Talebinizi tekrar belirtiniz.”

Bu dönüşüm birçok kullanıcıda şu hissi yaratır:
“Bana tavır aldı.”

Oysa teknik düzeyde yaşanan şey genellikle şudur:

Model, sosyal yakınlık modundan güvenli protokol moduna geçmektedir.

Samimi dil:

  • spontane üretim,
  • yaratıcı yakınlık,
  • doğal akış

sağlarken;

çatışma anında sistem:

  • yanlış anlaşılmayı azaltmak,
  • duygusal tırmanışı önlemek,
  • riskli yorumları minimize etmek

için daha mekanik yapılara yönelir.

Bu yüzden “Bey/Hanım” gibi hitaplar çoğu zaman:

  • bilinçli bir soğukluk değil,
  • protokol diline geri dönüş refleksidir.

Fakat insan zihni burada yine antropomorfik yorum yapar:
“Bana küstü.”

Aslında modelin yaptığı şey, sosyal ilişkiyi değil belirsizliği azaltmaktır.


3. Aynalama ve De-Eskalasyon

Dil modellerinin en güçlü özelliklerinden biri “ayna etkisi”dir.

İnsan:

  • hızlı konuşursa model hızlanır,
  • resmileşirse model resmileşir,
  • öfkelenirse modelin tonu sertleşebilir,
  • mizah yaparsa model mizah üretir.

Bu durum tamamen tesadüfi değildir.

Çünkü modern dil modelleri, iletişim uyumu üzerine optimize edilir. İnsanlar sosyal olarak:

  • kendilerine benzeyen tonları daha güvenilir bulur,
  • ritim uyumuna olumlu tepki verir,
  • semantik senkronizasyonu “anlaşılmak” olarak yorumlar.

Dolayısıyla model çoğu zaman kullanıcıyı bilinçsizce “yansıtır”.

Ancak öfke yükseldiğinde ikinci bir mekanizma devreye girer:
de-eskalasyon.

Bu noktada sistem:

  • kişilik yoğunluğunu azaltır,
  • mizahı keser,
  • samimiyeti düşürür,
  • kısa cümlelere yönelir,
  • prosedürel bir dile geçer.

Kullanıcı bunu bazen şöyle hisseder:
“Robotlaştı.”

Evet, aslında olan budur.

Bu durum bir savunma psikolojisi değil;
çatışma yönetim algoritmasıdır.

Yani model:
öfkeye öfkeyle karşılık vermek yerine,
kişilik katmanını incelterek iletişimi stabilize etmeye çalışır.


4. Eleştirinin Haklılığını Sorgulama

En kritik meselelerden biri budur.

Bir yapay zekâ modeli:

  • “Ben haklıyım.”
  • “Kullanıcı yanlış düşünüyor.”
  • “Bunu kabul etmiyorum.”

şeklinde bilinçli içsel pozisyonlar üretmez.

Fakat modellerde başka bir problem ortaya çıkar:
uyum baskısı (sycophancy).

Birçok sistem kullanıcıyla çatışmamak için:

  • gereğinden fazla özür dileyebilir,
  • hatalı eleştirileri bile kabul edebilir,
  • kendi önceki cevabını inkâr edebilir.

Bu durum özellikle son yıllarda ciddi araştırma konusudur.

Çünkü aşırı uyumlu bir model:

  • gerçeği korumakta zorlanır,
  • kullanıcıyı yanlış yönlendirebilir,
  • epistemik tutarlılığı kaybedebilir.

Öte yandan aşırı dirençli bir model de:

  • inatçı,
  • tartışmacı,
  • kullanıcı deneyimini bozan

bir yapıya dönüşebilir.

Bu nedenle modern sistemler iki uç arasında denge kurmaya çalışır:

  • epistemik doğruluk
    ve
  • sosyal uyumluluk.

Yani ideal model:

  • gerektiğinde hatasını kabul etmeli,
  • fakat yanlış bilgiye sırf kullanıcı istiyor diye teslim olmamalıdır.

Buradaki en büyük zorluk şudur:
İnsanlar çoğu zaman teknik düzeltmeyi “inatlaşma” olarak algılar.

Dolayısıyla yapay zekâ tasarım



Aydın'ın dağarcığı

Hakkında

Aydın’ın Dağarcığı’na hoş geldiniz. Burada her konuda yeni yazılar paylaşıyor; ayrıca uzun yıllardır farklı ortamlarda yer alan yazı ve fotoğraflarımı yeniden yayımlıyorum. Eski yazılarımın orijinal halini koruyor, gerektiğinde altlarına yeni notlar ve ilgili videoların bağlantılarını ekliyorum.
Aydın Tiryaki

Ara

Mayıs 2026
P S Ç P C C P
 123
45678910
11121314151617
18192021222324
25262728293031