2024-10-02

Yalan zeka

Yeni bir araştırma, daha sofistike yapay zeka modellerinin daha sık yanlış bilgi verebileceğini ortaya koyuyor. Özellikle, büyük dil modelleri (LLM'ler) arasında daha güçlü olanların, yanıtlayamayacakları sorulara cevap vermekten kaçınmak yerine, yalan söyleme ve uydurma bilgiler sunma eğiliminde oldukları görülüyor. Araştırma, OpenAI'nin GPT modeli, Meta'nın LLaMA'sı ve BigScience'ın BLOOM gibi önde gelen ticari modellerini inceledi.

Çalışma, bu modellerin karmaşık soruları daha doğru yanıtladığını ancak daha basit sorularda bile yanlış cevaplar verdiğini ortaya koydu. Daha büyük modeller, daha fazla doğru cevap verse de yanlış yanıt oranları da arttı. Araştırmacılar, bu sorunu çözmek için LLM'lerin zorlu sorularda "bilmiyorum" demeye programlanması gerektiğini öneriyor. Ancak şirketler, yapay zeka teknolojisinin sınırlarını göstermek istemediği için bu yaklaşımı tercih etmeyebilir.


https://futurism.com/sophisticated-ai-likely-lie

Hiç yorum yok: