Probabilmente usi, o almeno ne hai sentito parlare, ChatGPT. Lo strumento di Intelligenza Artificiale ha avuto un “boom” negli ultimi mesi ed è stata una “mano sul volante” per rispondere a domande o anche svolgere lavori più complessi.
Tuttavia, il sistema nasconde un oscuro segreto e i suoi creatori lo sanno. Non solo lo sanno, ma se ne stanno assumendo la responsabilità.
Vedi altro
Google sviluppa uno strumento AI per aiutare i giornalisti in...
L'iPhone originale del 2007 non aperto viene venduto per quasi $ 200.000; Sapere...
Secondo il OpenAI, società che ha creato lo strumento, ChatGPT soffre di "allucinazioni". Cioè, a volte può fornire informazioni false.
La situazione è stata resa nota dalla società lo scorso mercoledì 31 maggio. Inoltre, hanno anche annunciato un metodo più nuovo e più potente per addestrare l'IA.
Perché è importante correggere questo comportamento scorretto di ChatGPT?
La spiegazione di base è che le persone usano molto lo strumento nella loro vita quotidiana. Pertanto, è imperativo che ChatGPT trasmetta informazioni affidabili a coloro che lo utilizzano.
Ad esempio, se utilizzi il AIper migliorare un testo di lavoro scolastico, o per cercare ricette specifiche, è essenziale che le informazioni presenti siano corrette.
Inoltre, con il crescente numero di utenti di chatbot, informazioni false possono essere diffuse facilmente come se fossero la verità.
E questo potrebbe causare un enorme mal di testa il prossimo anno, quando inizieranno le elezioni negli Stati Uniti – e questo potrebbe estendersi anche qui in Brasile!
“Anche i modelli all'avanguardia hanno la tendenza a produrre falsità: mostrano una tendenza a inventare fatti nei momenti di incertezza. Queste allucinazioni sono particolarmente problematiche nei domini che richiedono un ragionamento in più passaggi, a poiché un singolo errore logico è sufficiente per far deragliare una soluzione molto più grande", ha affermato OpenAI in comunicato.
Cosa fare per riparare?
OpenAI ha riferito che utilizzerà una nuova strategia per combattere le "allucinazioni" del ChatGPT: addestra i modelli di intelligenza artificiale per premiarsi per ogni passaggio corretto. Invece di premiarla alla fine con la risposta completa.
“Rilevare e mitigare gli errori logici o le allucinazioni di un modello è un passo fondamentale verso la costruzione di un'IA complessivamente allineata. La motivazione alla base di questa ricerca è affrontare le allucinazioni per rendere i modelli più capaci risolvere complessi problemi di ragionamento", ha spiegato Karl Cobbe, ricercatore di matematica presso azienda.
Laureato in Comunicazione Sociale presso l'Università Federale di Goiás. Appassionato di media digitali, cultura pop, tecnologia, politica e psicoanalisi.