La “sindrome della mucca pazza” che colpisce l'intelligenza artificiale - Wired

Titolo decisamente insulso, quello scelto da Wired, per un argomento decisamente interessante: qual è l'impatto dell'utilizzo dei dati sintetici sull'addestramento dei modelli di machine learning? Ed emerge il problema dell'overfitting.

«Il peggior nemico dell’intelligenza artificiale potrebbe essere l’intelligenza artificiale stessa. Uno studio pubblicato lo scorso luglio da alcuni ricercatori della Rice e della Stanford University ha rivelato che l’allenamento dei modelli di AI attraverso dati sintetici sembra causarne l’erosione, almeno sul lungo periodo. Il termine coniato dagli studiosi per indicare questa apparente “autoallergia” dei software è Mad, acronimo di Model autophagy disorder (disordine autofagico del modello). Il paper solleva grandi interrogativi su quello che potrebbe essere il punto debole di una pratica già ampiamente diffusa nel settore dell’AI.» (Leggi tutto: https://www.wired.it/article/intelligenza-artificiale-dati-sintetici-problemi-dataset/)

Scarica il documento della Rice University e Stanford University: "Self-Consuming Generative Models Go MAD"

Commenti

Post popolari in questo blog

Building a high-performance data and AI organization - MIT report 2023

AI Will Transform the Global Economy. Let’s Make Sure It Benefits Humanity. - IFM blog

Dove trovare raccolte di dati (dataset) utilizzabili gratuitamente