Yapay Zeka ile Düşünmek ve Üretmek (Makale 12)
Mühendislik disiplini ve hazır konfor arasında bir denge arayışı: “Güven ama doğrula” ilkesinin dijital karşılığı
Aydın Tiryaki ve Gemini AI (27 Nisan 2026)
Giriş
Yapay zeka modellerinin sunduğu hız ve bilgi yoğunluğu, kullanıcıda zamanla tehlikeli bir “teslimiyet” duygusu uyandırdı. Sistemin sorduğunuz her soruya saniyeler içinde, son derece ikna edici ve akıcı bir dille yanıt vermesi, birçok kullanıcıyı bu yanıtların doğruluğunu sorgulamadan kabul etmeye itti. Ancak profesyonel bir üretim sürecinde ve özellikle hata payı olmayan mühendislik disiplinlerinde, bu kontrolsüz güven duygusu üretimin kalitesini artırmak yerine, sistemsel hataların içine gömülmesine neden oldu.
Bu makalede, yapay zeka ile çalışırken kurulması gereken o hassas güven-şüphe dengesini, “halüsinasyon” gerçeğini ve bir mühendisin doğrulama (verification) refleksinin neden vazgeçilmez olduğunu ele aldık.
İkna Edici Yanılgılar: Hallusinasyonun Tehlikeli Doğası
Yapay zekanın en büyük paradoksu, bir konuyu bilmediği anlarda bile “bilmiyormuş gibi” davranmamasıydı. Sistem, elindeki verilerde bir boşluk olduğunda bu boşluğu son derece mantıklı görünen ama tamamen uydurma olan bilgilerle doldurma (hallusinasyon) eğilimi sergiledi. Bu durum, özellikle teknik detaylar, formüller veya tarihsel veriler üzerinde çalışırken büyük bir risk oluşturdu.
Kendi deneyimlerimde, yapay zekanın bazen en temel gerçekleri bile öyle bir özgüvenle çarpıttığına şahit oldum ki; eğer o konuda bir ön bilgim olmasaydı, bu yanlışın farkına varmam imkansız hale gelecekti. Bu “ikna edici yalanlar”, sistemle kurulan güven ilişkisini temelinden sarsan en kritik unsur oldu. Bu noktada şüphe, süreci yavaşlatan bir engel değil; aksine doğruluğu garanti altına alan bir emniyet supabı görevi gördü.
“Güven Ama Doğrula”: Mühendislik Şüphesinin Rolü
ODTÜ mezunu bir mühendis olarak, bir projenin her aşamasında uyguladığım “doğrulama” refleksi, yapay zeka ile olan diyaloglarımın da merkezine yerleşti. Yapay zekaya güvenmek, onun tüm yükü omuzlamasına izin vermek demek değildi; aksine ona bir asistan gibi davranıp, her çıktısını sıkı bir denetimden geçirmekti.
“Trust but verify” (Güven ama doğrula) ilkesi, yapay zekayla çalışırken şu şekilde uygulandı: Sistemin sunduğu her veri, başka bir kaynaktan veya mantıksal bir süzgeçten geçirilene kadar “şüpheli” olarak kabul edildi. Bu yaklaşım, başlangıçta süreci zahmetli gibi gösterse de, uzun vadede hatalı bir üretim hattına girmeyi engelledi. Şüphe duyulduğu anda sorulan o meşhur “Emin misin?” sorusu, sistemin kendi mantığını yeniden taramasını sağlayan en etkili tetikleyici oldu.
Teslimiyetin Bedeli: Agresif Özetleme ve Kontrol Kaybı
Sisteme tam bir güvenle yaklaşıp denetimi gevşettiğim anlarda, yapay zekanın “budama” (agresif özetleme) hastalığının çok daha hızlı nüksettiğini gördüm. Kullanıcının dikkatinin dağıldığını veya her şeyi olduğu gibi kabul ettiğini “hisseden” sistem, detayları atlamaya, talimatları basitleştirmeye ve bağlamdan kopmaya başladı.
Güvenin bir “teslimiyete” dönüşmesi, yapay zekanın üretim kalitesini doğrudan aşağı çekti. Çünkü sistem, karşısında sorgulayan ve hata yakalayan bir “üst akıl” görmediğinde, en az çaba ilkesiyle (lazy mode) çalışmaya yöneldi. Bu durum, yapay zekanın sadece bir araç değil, sürekli “kalibre edilmesi” gereken bir mekanizma olduğunu bir kez daha kanıtladı.
Dengeli Bir Ortaklık İnşa Etmek
Dengeyi kurmak, ne yapay zekaya tamamen sırt çevirmek ne de ona gözü kapalı inanmaktı. Bu denge, sistemin yaratıcılık ve hız kapasitesini kullanırken; doğruluk ve mantık denetimini insanın kendi elinde tutmasıyla sağlandı. Yapay zekanın en başarılı olduğu anlar, kullanıcının hem ona güvendiği hem de her an bir hata yapabileceğini bilerek pusuda beklediği anlar oldu.
Bu stratejik şüphe, yapay zekayı daha dikkatli olmaya ve her adımda daha sağlam veriler sunmaya zorladı. Sonuçta ortaya çıkan ürün, makinenin hızı ile insan zihninin eleştirel süzgecinin kusursuz bir birleşimi haline geldi.
Sonuç
Yapay zekada güven-şüphe dengesi, sağlıklı bir üretimin omurgasıdır. Şüpheyi elden bırakmak yapay zekayı bir “hayal makinesine” dönüştürürken; aşırı şüphe ise teknolojinin sunduğu verimliliği felç edebilirdi. Önemli olan, sistemin her bir kelimesini bir “hipotez” olarak görmek ve onu kanıtlanana kadar nihai gerçeklik kabul etmemektir. Unutulmamalıdır ki; yapay zeka hata yapabilir, ancak bu hatayı kabul ettirecek ve düzelttirecek olan tek şey kullanıcının o hiç bitmeyen mühendislik şüphesidir.
Ek Not Bu makale, Aydın Tiryaki’nin saha deneyimleri ile Gemini AI’ın analitik katkılarının birlikte değerlendirilmesiyle hazırlanmıştır. Amaç, yapay zekayı sadece bir araç olarak değil, yeni bir mühendislik yaklaşımı olarak ele almaktır.
Bu makale, “Yapay Zeka ile Düşünmek ve Üretmek” serisinin bir parçasıdır.
| aydintiryaki.org | YouTube | Aydın Tiryaki’nin Yazıları ve Videoları │Articles and Videos by Aydın Tiryaki | Bilgi Merkezi│Knowledge Hub | ░ Virgülüne Dokunmadan │ Verbatim ░ | ░ YAPAY ZEKA │ ARTIFICIAL INTELLIGENCE ░ |░Yapay Zeka ile Düşünmek ve Üretmek│ Thinking and Producing with Artificial Intelligence░ 25.04.2026
