
Yapay zeka sohbetinin (chatbot) robotları ortaya çıktığından beri, yanıltıcı bilgiler veya “halüsinasyonlar” sürekli bir sorun olmuştur.
Her yeni modelde, bu halüsinasyonların azalması beklenmektedir. Ancak, Openii’nin en son keşifleri halüsinasyonların daha da arttığını gösteriyor.
Genel veri testinde, GPT-O3 cevaplarının yüzde 33’ünde yanlış bilgi verdi; Bu rapor, önceki GPT-O1 modelinin hata oranının iki katıdır. En kompakt O4-mini GPT daha da kötüleşti ve %48’lik yanıltıcı bilgi üretti.
Yapay zeka çok düşünüyor mu?
Önceki modeller akan metinlerin üretiminde çok başarılıydı, ancak O3 ve O4-mini, insan mantığını taklit etmek için adım adım düşünce planlayarak geliştirildi.
İronik olarak, bu yeni “düşünce” tekniği sorunun kaynağı olabilir. Yapay zeka araştırmacıları, model hakkında ne kadar çok düşünce olursa, yanlış yolun sapma olasılığının daha olası olduğunu teyit eder.
Yüksek güvenli tepkilere sahip eski sistemlerin aksine, bu yeni modeller karmaşık kavramlar arasında bir köprü doldurmaya çalışırken yanlış ve garip sonuçlar elde edebilir.
En gelişmiş yapay zeka modelleri neden daha az güvenilir?
Openai, yapay zekanın halüsinasyonlarındaki artışı, doğrudan düşünce şeklinde değil, modellerin anlatımında bolluk ve cesaretle ilişkilendirir. Yapay zeka yararlı ve eksiksiz olmaya çalışırken, bazen tahminler yapar ve teoriyi gerçeklikle karıştırabilir. Sonuçlar son derece ikna edici olabilir, ancak tamamen yanlış olabilir.
Yapay zeka halüsinasyonlarının gerçek dünyasının riskleri
Yapay, yasal, tıbbi, eğitim veya devlet hizmetlerinde kullanılırsa büyük riskler içerir. Yargı belgesinde veya tıbbi raporda, yanıltıcı bilgiler felakete yol açabilir.
Günümüzde, Chatgpt nedeniyle, avukatlar mahkemenin alıntılarını sağladıkları için onaylanmıştır. Bir istihdam ilişkisi, okul görevi veya devlet siyasi belgesinde yapılan küçük hatalar ne olacak?
En yapay zeka hayatımıza entegre edilmiştir, hata yapma olasılığı o kadar azalır. Bununla birlikte, paradoks şudur: Yapacağı hataların tehlikesi ne kadar faydalı olursa, o kadar büyür.