Yapay zeka sohbet botlarının en bilinen sorunlarından biri, "kendinden emin hatalar" yapmaları. Yani, yanlış bilgiyi doğruymuş gibi sunmaları ve hatta itiraz edildiğinde bile ısrar etmeleri. ChatGPT gibi büyük dil modelleri (LLM) için bu durum, kullanıcı deneyimini ciddi şekilde etkiliyor. Uzun süredir gündemde olan ve birçok kullanıcının dikkatini çeken bir hata nihayet düzeltildi: ChatGPT, "strawberry" kelimesinde kaç tane "r" harfi olduğunu artık doğru biliyor. Ancak bu durum, yapay zeka dünyasında köklü bir çözümden ziyade, yüzeysel bir düzeltme mi sorusunu akıllara getiriyor.
ChatGPT'nin Garip "R" Hatası Artık Yok
OpenAI'ın ChatGPT'si, uzun bir süre boyunca "strawberry" kelimesinde kaç tane "r" harfi olduğunu soran kullanıcılara ısrarla yanlış cevap verdi. Kelimede üç "r" harfi bulunmasına rağmen, bot sürekli farklı sayılarla karşılık veriyordu. Bu, yapay zeka modellerinin basit metin analizlerinde bile ne kadar zorlandığını gösteren, sıkça alay konusu olan bir örnekti. OpenAI, X (eski adıyla Twitter) üzerinden yaptığı bir paylaşımla bu hatanın giderildiğini gururla duyurdu. Artık ChatGPT, bu soruyu doğru cevaplıyor.
Güvenilir Hatalar Devam Ediyor
ChatGPT'nin düzeltilen tek mantık hatası "strawberry" ile sınırlı değildi. Örneğin, 50 metre uzaklıktaki oto yıkamaya yürüyerek mi yoksa arabayla mı gidilmesi gerektiği sorusuna daha önce "yürüyerek" cevabını veriyordu. Bu da artık düzelmiş durumda. Ancak OpenAI'ın duyurusuna gelen yanıtlara bakınca, sorunun kökten çözülmediği anlaşılıyor. Birçok kullanıcı, benzer mantık hatalarının başka kelimelerde veya senaryolarda devam ettiğini gösteren ekran görüntüleri paylaştı. Örneğin, "cranberry" kelimesinde kaç "r" harfi olduğu sorulduğunda, ChatGPT hâlâ yanlış bir şekilde "1 tane 'R' var" cevabını veriyor.
Çözüm Yüzeysel mi Kalıyor
Bu durum, düzeltmelerin modelin temel mantığını geliştirmekten ziyade, belirli ve sıkça sorulan sorulara "elle girilmiş çözümler" (hardcoded solutions) uygulanarak yapılmış olabileceği şüphesini doğuruyor. Yani, modelin genel anlama ve sayma yeteneği değil, sadece o spesifik sorular için doğru cevaplar öğretilmiş olabilir. Bu tür yüzeysel düzeltmeler, yapay zeka sohbet botlarının güvenilirliği konusunda büyük soru işaretleri bırakıyor. Türkiye'deki kullanıcılar için de, bu araçları bilgi kaynağı olarak kullanırken kritik düşünme ve teyit etme ihtiyacının ne kadar önemli olduğunu bir kez daha ortaya koyuyor.
Doğruluk Sadece Belirli Kelimelerde mi Geçerli
ChatGPT'nin "strawberry" kelimesindeki "r" sayısını doğru bilmesi olumlu bir adım olsa da, "cranberry" gibi benzer kelimelerde hâlâ aynı hatayı yapması, yapay zeka modellerinin temel problem çözme yeteneğinde değil, yalnızca spesifik noktalarda iyileşme gösterdiğini işaret ediyor. Bu durum, modellerin genel güvenilirliği için henüz kat etmeleri gereken uzun bir yol olduğunu gösteriyor.