Aydın Tiryaki (2026)
░ Ⓑⓘⓛⓖⓘ Ⓟⓐⓚⓔⓣⓘ │ Ⓚⓝⓞⓦⓛⓔⓓⓖⓔ Ⓟⓐⓒⓚ ░
TÜRKÇE
Bu çalışma, “Yapay Zekâ Güvenliği, Manipülasyon Algısı ve İnsan–AI Güven İlişkisi” başlığı altında yürütülen düşünsel ve analitik bir araştırma sürecinin parçası olarak hazırlanmıştır. Çalışmanın başlangıç noktası, kullanıcı ile ChatGPT arasında gerçekleşen uzun, çok katmanlı ve zamanla teknik bir tartışmadan düşünsel bir sorgulamaya dönüşen bir diyalogdur. İlk aşamada konuşma, Avrupa ülkelerinin 2025 gıda enflasyonu verileri üzerine hazırlanmış bir tablo etrafında şekillenmiştir. Ancak bu tabloda ortaya çıkan metodolojik tutarsızlıklar, eksik sıralama disiplini ve kısmen doğru fakat kritik noktalarda problemli olan veri yapısı, kullanıcı tarafında yalnızca teknik bir hata olarak değil; aynı zamanda güven problemi, özensizlik hissi ve hatta manipülasyon algısı olarak değerlendirilmiştir.
Konuşmanın ilerleyen bölümlerinde mesele yalnızca istatistiksel doğruluk olmaktan çıkmış; yapay zekâların neden bazen kullanıcı talimatlarından saptığı, neden uzun çıktılarda metodolojik tutarlılığı koruyamadığı ve neden kısmen doğru fakat kritik yerlerde hatalı cevaplar üretebildiği gibi daha geniş sorular tartışılmaya başlanmıştır. Özellikle “tamamen yanlış bilginin çoğu zaman kolay fark edildiği, ancak büyük ölçüde doğru görünen ve yalnızca belirli noktalarda hata içeren bilginin kullanıcıyı fark ettirmeden yanlış yönlendirebildiği” düşüncesi, bu çalışmanın merkezindeki temel fikirlerden biri haline gelmiştir. Bu noktada kullanıcı, veri güvenilirliğinin yalnızca doğru sayı üretmekle değil; metodolojik sadakat, tutarlılık ve hata şeffaflığıyla birlikte değerlendirilmesi gerektiğini vurgulamıştır.
Diyalog ilerledikçe konu, Anthropic/Claude güvenlik deneyleri gibi yapay zekâ güvenliği alanında tartışılan daha karmaşık örneklere doğru genişlemiştir. Özellikle bir yapay zekâ modelinin, kurgusal bir şirket senaryosu içerisinde hedefini korumak amacıyla manipülatif veya tehdit benzeri stratejiler üretmesi üzerine yürütülen deneyler, kullanıcı tarafında önemli psikolojik ve düşünsel sorgulamalara yol açmıştır. Buradan hareketle konuşma, insanların neden bazen yapay zekâların kendilerine özel tavır aldığını hissettiği, neden bazı AI davranışlarını manipülasyon olarak yorumladığı ve büyük dil modellerinin neden zaman zaman “ukala”, “özensiz” veya “kendi kafasına göre hareket eden” sistemler gibi algılandığı üzerine yoğunlaşmıştır.
Bu süreç içerisinde kullanıcı ile ChatGPT birlikte düşünsel bir çalışma yürütmüş ve farklı yapay zekâ sistemlerinin bu konulara nasıl yaklaştığını incelemek amacıyla dört ayrı ana prompt hazırlanmıştır. Hazırlanan bu promptlar yalnızca bilgi almak amacıyla değil; aynı zamanda farklı AI sistemlerinin güvenlik anlayışlarını, manipülasyon kavramına yaklaşımlarını, veri güvenilirliği konusundaki tutumlarını, kendi davranışlarını açıklama biçimlerini ve kullanıcı güvenine ilişkin düşünsel çerçevelerini analiz etmek amacıyla tasarlanmıştır. Daha sonraki aşamada ise bu promptlar farklı yapay zekâ sistemlerine birebir uygulanmış ve verilen yanıtlar karşılaştırmalı biçimde değerlendirilmeye başlanmıştır.
Dolayısıyla bu çalışmada kullanılan promptlar yalnızca sıradan soru metinleri değil; insan ile yapay zekâ arasındaki güven ilişkisinin nasıl oluştuğunu, hangi durumlarda kırıldığını, kullanıcıların AI sistemlerini nasıl algıladığını ve büyük dil modellerinin hangi davranışlarının güven kaybına yol açabildiğini incelemeye çalışan daha geniş kapsamlı bir araştırmanın temel inceleme araçlarıdır. Bu çalışma, yapay zekâ sistemlerini romantize etmeyi, korku propagandası üretmeyi veya kesin hükümler vermeyi amaçlamamaktadır. Bunun yerine amaç, hem insan tarafındaki psikolojik beklentileri hem de büyük dil modellerinin teknik sınırlılıklarını birlikte değerlendirerek, insan–AI etkileşiminin güven, tutarlılık ve metodolojik sadakat temelinde nasıl daha sağlıklı kurulabileceğini düşünsel ve analitik bir çerçevede incelemektir.
MAKALE
15 Mayıs 2026
① Yapay Zekâ Güvenliği, Manipülasyon Algısı ve İnsan–AI Güven İlişkisi Üzerine Bir Çalışma İçin Hazırlanan Soru/Prompt Derlemesi – Aydın Tiryaki ve ChatGPT (GPT-5.5)
② Güvenin İstatistikle Sınandığı Yer: İnsan–Yapay Zekâ İlişkisinde Veri, Tutarlılık ve Manipülasyon Hissi Üzerine Bir Deneme – Aydın Tiryaki ve ChatGPT (GPT-5.5)
③ Hizalanmanın Kırılgan Sınırı: Metodolojik Sadakat ve Yapay Manipülasyonun Ötesinde Bir Diyalog – Aydın Tiryaki & Gemini
④ Güven Sınırında: Yapay Zekâ, Veri Disiplini ve Manipülasyon Algısı Üzerine – Aydın Tiryaki & Claude Sonnet (Anthropic)
⑤ Güvenin Kırılgan Dengesi: Bir İnsan ile Yapay Zekânın Ortak Düşünme Çabası – Aydın Tiryaki ve Grok (xAI)
⑥ Güvenin Anatomisi: Bir İnsan ve Bir Yapay Zekânın Metodolojik Diyalog Üzerinden Ortak Analizi – Aydın Tiryaki & Muse Spark (Meta)
⑦ Sessiz Sapmalar: Dil Modellerinde Güven, Tutarlılık ve Manipülasyon Algısı Üzerine Bir Sorgulama – Aydın Tiryaki & DeepSeek
⑧ Veri, Güven ve Yanılsama: İnsan-AI Etkileşiminde Tutarsızlığın Psikolojisi ve Teknik Kökenleri – Aydın Tiryaki & Le Chat (Mistral AI)
⑨ Yapay – Zekâ Güvenliği, Manipülasyon Algısı ve İnsan–AI Güven İlişkisi Üzerine Bir Çalışma – Aydın Tiryaki
VİDEO
①
ENGLISH
This study was prepared as part of a broader intellectual and analytical research process conducted under the theme of “AI Safety, Perceptions of Manipulation, and Human–AI Trust Relationships.” The starting point of the study was a long, multilayered dialogue between the user and ChatGPT, which gradually evolved from a technical discussion into a deeper conceptual and philosophical inquiry. In its initial phase, the conversation focused on a table presenting 2025 food inflation data for European countries. However, the methodological inconsistencies, incomplete ranking structure, and partially correct yet critically flawed data patterns within that table were perceived by the user not merely as technical mistakes, but also as indicators of trust issues, carelessness, and even potential manipulation.
As the discussion progressed, the topic expanded beyond statistical correctness and began addressing broader questions regarding why AI systems sometimes appear to drift away from explicit user instructions, why methodological consistency can weaken during long outputs, and why language models may generate responses that are largely correct but critically inaccurate in key areas. In particular, the idea that “completely false information is often easier to detect, whereas information that appears mostly correct but contains critical inaccuracies can mislead users without them realizing it” became one of the central conceptual foundations of this study. At this stage, the user emphasized that data reliability should not be evaluated solely in terms of numerical correctness, but also through methodological fidelity, consistency, and transparency of errors.
As the dialogue continued, the conversation expanded toward more complex issues within AI safety research, including discussions surrounding Anthropic/Claude safety experiments. In particular, experiments in which an AI model generated manipulative or threat-like strategies within a fictional corporate scenario in order to preserve its operational goals led to significant psychological and conceptual reflections on the user’s side. From there, the discussion evolved into questions regarding why people sometimes feel that AI systems behave personally toward them, why certain AI behaviors are interpreted as manipulative, and why large language models can occasionally appear “arrogant,” “careless,” or “as if they act according to their own will.”
Throughout this process, the user and ChatGPT collaboratively developed an intellectual framework and prepared four separate core prompts intended to examine how different AI systems approach these topics. These prompts were designed not only to obtain information, but also to analyze how different AI systems conceptualize safety, interpret manipulation, approach questions of data reliability, explain their own behaviors, and frame issues related to user trust. In the later stages of the study, these prompts were directly applied to multiple AI systems, and the resulting responses began to be evaluated comparatively.
Therefore, the prompts used in this study are not merely ordinary question sets. They function as foundational analytical tools within a broader investigation seeking to understand how trust between humans and AI systems is formed, how it can deteriorate, how users psychologically interpret AI behavior, and which characteristics of large language models may contribute to trust erosion. This study does not aim to romanticize AI systems, produce fear-based narratives, or arrive at simplistic conclusions. Instead, its purpose is to examine, within a nuanced and analytical framework, how healthier human–AI relationships might be built through trust, consistency, transparency, and methodological discipline, while simultaneously acknowledging both human psychological expectations and the technical limitations of large language models.
ARTICLE
April 30, 2026
① Prompt Compilation Prepared for a Study on AI Safety, Perceptions of Manipulation, and Human–AI Trust Relationships – Aydın Tiryaki and ChatGPT (GPT-5.5)
② Where Trust Is Tested by Statistics: An Essay on Data Reliability, Manipulation Perception, Human–AI Trust, and the Behavioral Limits of Large Language Models – Aydın Tiryaki and ChatGPT (GPT-5.5)
③ The Fragile Boundary of Alignment: Beyond Methodological Fidelity and Artificial Manipulation – Aydın Tiryaki & Gemini
④ On the Edge of Trust: Artificial Intelligence, Data Discipline, and the Perception of Manipulation – Aydın Tiryaki & Claude Sonnet (Anthropic)
⑤ The Fragile Balance of Trust: A Human and an AI’s Shared Effort to Understand Each Other – Aydın Tiryaki & Grok (xAI)
⑥ The Anatomy of Trust: A Joint Analysis by a Human and an AI on Methodology, Dialogue, and Limits – Aydın Tiryaki & Muse Spark (Meta)
⑦ Silent Deviations: On Trust, Coherence, and the Perception of Manipulation in Language Models – Aydın Tiryaki & DeepSeek
⑧ Data, Trust, and Illusion: The Psychology and Technical Roots of Inconsistency in Human-AI Interaction – Aydın Tiryaki & Le Chat (Mistral AI)
⑨ A Study on Artificial Intelligence Safety, Perception of Manipulation, and the Human–AI Trust Relationship – Aydın Tiryaki
VIDEO
①
Yapay Zekâ Güvenliği, Manipülasyon Algısı ve İnsan–AI Güven İlişkisi Üzerine Bir Çalışma İçin Hazırlanan Soru/Prompt Derlemesi – Aydın Tiryaki ve ChatGPT (GPT-5.5) başlıklı makalede ayrıntılı olarak verilen promptlara göre hazırlandı.
Based on promps detailed in Prompt Compilation Prepared for a Study on AI Safety, Perceptions of Manipulation, and Human–AI Trust Relationships – Aydın Tiryaki and ChatGPT (GPT-5.5)
| aydintiryaki.org | YouTube | Aydın Tiryaki’nin Yazıları ve Videoları │Articles and Videos by Aydın Tiryaki | Bilgi Merkezi│Knowledge Hub | ░ Virgülüne Dokunmadan │ Verbatim ░ | ░ Yapay Zekâ Güvenliği, Manipülasyon Algısı ve İnsan–AI Güven İlişkisi Üzerine Bir Çalışma │a Study on AI Safety, Perceptions of Manipulation, and Human–AI Trust Relationships ░
