Aydın Tiryaki ve Gemini AI (Ortak Çalışma)
Yapay zeka teknolojileri her geçen gün hızlanıyor, daha zeki hale geliyor ve hayatımızın her alanına sızıyor. Ancak bir mühendis olarak benim aklıma takılan, hızdan çok daha kritik bir mesele var: Sorumluluk ve Güven.
Geçtiğimiz günlerde yapay zeka asistanım ile derin bir teknik sohbet gerçekleştirdik. Masaya yatırdığımız konu şuydu: Bir yapay zeka hata yaptığında, sohbet penceresi kapansa bile dönüp hatasını düzeltmeli mi? Yoksa “iş işten geçti” diyerek susmalı mı?
İşte bu sorudan yola çıkarak geliştirdiğimiz öneriler ve yapay zekanın teknik dünyasındaki karşılıkları.
1. “Atıl Zaman” Değerlendirmesi: Uyku Yok, Sağlama Var
Bir mühendis olarak sistemlerin verimliliğine odaklanırım. Yapay zeka sistemleri şu an “reaktif” çalışıyor; soruyu yanıtlıyor ve duruyor. Oysa benim önerim şuydu:
Önerim: Yapay zeka, yanıtı verdikten sonra milisaniyelik boşluklarda (atıl zamanlarda) veya sistemin sakin olduğu anlarda, verdiği yanıtı arka planda kontrol etmeye devam etmeli. Tıpkı bir öğrencinin sınav kağıdını teslim etmeden önce tekrar gözden geçirmesi gibi.
Teknik Karşılık (Asenkron Doğrulama): Bu öneri, yapay zeka mimarisinde “Gecikmeli Geri Besleme” olarak tanımlanabilir. İşlemcilerin boşta kaldığı anlarda, geçmiş sohbetleri daha güvenilir kaynaklarla taraması ve bir hata bulursa kullanıcıyı uyarması teknik olarak mümkün. Bu, yapay zekayı bir “cevap makinesi” olmaktan çıkarıp, 7/24 çalışan bir “araştırma asistanı”na dönüştürebilir.
2. Yeşilçam Sendromu ve “Raporlar Karıştı” Uyarısı
Eski Yeşilçam filmlerini hatırlarsınız; hastanede raporlar karışır, sapasağlam birine “3 ay ömrün kaldı” denir. Doktor hatasını fark eder ama o sırada film komediye döner. Ancak gerçek hayatta, özellikle sağlık ve eğitim konularında yanlış bilgi komedi değil, trajedi yaratır.
Önerim: Yapay zeka “Ben yanıtı verdim, konu kapandı” diyemez. Eğer geçmişte verdiği bir bilginin (örneğin bir ilaç yan etkisi veya bir matematik sorusu) yanlış olduğunu öğrenirse, o filmlerdeki doktor gibi kullanıcının peşinden koşmalı ve “Pardon, raporlar karışmış, doğrusu budur” diyerek bildirim göndermelidir.
Etik Boyut (Ürün Geri Çağırma): Otomobil firmaları hatalı bir parçayı fark ettiğinde nasıl araçları geri çağırıyorsa, yapay zeka şirketleri de “hatalı bilgiyi” geri çağırmalıdır. Bu bir lütuf değil, kullanıcının “Doğru Bilgi Alma Hakkı”nın bir gereğidir.
3. Kırmızı Alarm Durumu: SMS ve WhatsApp ile Acil Müdahale
Sadece uygulama içinde bildirim göndermek bazı durumlarda yetersiz kalabilir. Hepimiz bu sistemlere e-posta adresimizle, telefon numaramızla kayıt oluyoruz. Elimizde bu iletişim kanalları varken, hayati bir hatada sessiz kalmak kabul edilemez.
Önerim: Eğer yapılan hata sağlık, güvenlik veya ciddi finansal kayıp riski taşıyorsa (örneğin bir ilacın dozajı veya acil bir hukuki süre yanlış verilmişse), yapay zeka sadece uygulama içine not düşmekle yetinmemeli.
Eylem Planı: Sistem derhal kullanıcının kayıtlı telefonuna bir SMS veya WhatsApp mesajı göndererek; “Sayın Kullanıcı, dün size verdiğimiz sağlık bilgisinde kritik bir hata tespit ettik. Lütfen dikkate almayınız, doğrusu şudur…” şeklinde doğrudan ve hızlı bir uyarı yapmalıdır. Teknoloji hayat kurtarmak için varsa, bu iletişim kanallarını en kritik anda kullanmaktan çekinmemelidir.
4. Akraba Evliliği ve “Model Çöküşü” Riski
Yapay zekalar, internetteki verilerle eğitiliyor. Ancak internet artık yapay zeka tarafından üretilmiş içeriklerle dolu.
Tespitim: Eğer yapay zeka, sürekli başka yapay zekaların ürettiği (ve bazen hatalı olan) verilerle beslenirse, tıpkı biyolojideki “akraba evliliği” (inbreeding) gibi hastalıklı bilgi nesilleri oluşur. Hatalar katlanarak büyür.
Çözüm (Rafinasyon): Yapay zeka, kendi hatalarını tespit edip düzelttiği sürece gelişir. Kullanıcıdan gelen “Bu yanlış” geri bildirimi veya rakip yapay zeka modelleriyle yapılan çapraz kontroller (Cross-Check), bu bilgi havuzunu filtrelemek ve temizlemek için kullanılmalıdır.
5. Şüpheyi Yönetmek: “Dijital Mavi Tik”
Kullanıcı olarak her zaman tetikte olmak yorucudur. “Acaba bu bilgi doğru mu?” şüphesini kaldırmak gerekir.
Önerim: Sistem sadece hataları değil, doğruluğunu teyit ettiği bilgileri de kullanıcıya bildirmeli. Eski bir sohbete baktığımda, o bilginin yanına konmuş bir “Onay İşareti” (Checkmark) görürsem, “Sistem bunu benim için tekrar kontrol etmiş ve hala geçerli” diyerek güvenle kullanabilirim.
Sonuç: Yapay zeka teknolojisinden beklentimiz sadece hız veya işlem gücü olmamalı. Beklentimiz; hata yapabilen ama hatasının arkasında duran, kullanıcısını “kobay” olarak değil “paydaş” olarak gören, etik değerlere sahip sorumlu bir teknoloji olmalıdır.
Ancak o zaman yapay zeka ile insan arasında gerçek bir işbirliğinden söz edebiliriz.
