TEKNOLOJİ

Yapay zeka akıllandıkça gerçeği unutuyor! Yanlış bilgi üretimi arttı

Yapay zeka her geçen gün daha zeki hale geliyor; fakat bu zekâ, gerçeği söyleme konusunda pek de güvenilir değil. Yeni nesil dil modelleri, bilgi üretiminde insanüstü bir performans sergilese de, bu bilgilerin doğruluğu giderek daha çok sorgulanır hale geliyor.

OpenAI’ın “o3” ve “o4-mini” modelleriyle yapılan son testler, yapay zekanın gerçekle bağını ne kadar sık kopardığını gözler önüne serdi. Modellerin yüzde33 ila yüzde 48 oranında yanlış bilgi üretmesi, “akıllandıkça yanılıyor mu?” sorusunu akıllara getirdi.

Bu sadece OpenAI ile sınırlı değil. Google, DeepSeek gibi devlerin çözümleri de aynı tuzağa düşüyor. Üstelik bu hatalar, teknolojinin en gelişmiş sürümlerinde bile azalmak yerine artıyor.

“HALÜSİNASYONLAR SİLİNMEZ BİR KUSUR OLABİLİR”

Vectara CEO’su Amr Awadallah’a göre yapay zekadan tamamen doğru bilgi beklemek, bugünkü sistemlerle mümkün değil. Awadallah, “Halüsinasyonları sıfırlamak hayalperestlik olur” diyor ve bu teknolojilere yatırım yapan şirketlerin bu gerçekle yüzleşmesi gerektiğini vurguluyor.

Gerçeğe dayanmayan içerikler sadece kullanıcı güvenini sarsmakla kalmıyor, aynı zamanda iş dünyasında hatalı kararların temelini de atabiliyor. Özellikle son dönemde model eğitimi için giderek daha fazla kullanılan sentetik veriler, yapay zekaların kendi uydurmalarını referans almasına neden oluyor. Bu da, yanlışın yeniden üretilip doğrulaştırılması anlamına geliyor.

Tüm bu gelişmeler, yapay zeka çağında bilginin niteliğini ve güvenilirliğini yeniden sorgulamamıza neden oluyor. büyüyor ama ona olan güven aynı hızla artıyor mu, yoksa azalmaya mı başladı?

İlgili Makaleler

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

Başa dön tuşu