Le allucinazioni dell'AI sono inevitabili? - Wired

“Gli LLM avranno sempre delle allucinazioni; è un difetto di progettazione. Prevedono sequenze di testi plausibili, ma non seguono il mondo e non sanno come verificare i fatti. Ogni singolo LLM è stato lo stesso. Avremo bisogno di nuovi progressi scientifici per risolvere questo problema”, ha commentato Gary Marcus, una delle voci più autorevoli e critiche nel campo dell’IA, raggiunto da Wired Italia.

Esistono strumenti, metodi e classificazioni della probabilità che si verifichino allucinazioni quando si utilizza un LLM per riassumere documenti. I risultati sembrano progressivamente migliorare, tuttavia, come sostenuto dagli autori della ricerca, il problema non è mai stato del tutto risolto.

Leggi tutto: https://www.wired.it/article/allucinazioni-ai-inevitabili/

Vai alla ricerca: Hallucination is Inevitable: "An Innate Limitation of Large Language Models"

Commenti

Post popolari in questo blog

Dove trovare raccolte di dati (dataset) utilizzabili gratuitamente

Building a high-performance data and AI organization - MIT report 2023

AI Will Transform the Global Economy. Let’s Make Sure It Benefits Humanity. - IFM blog