Vous utilisez probablement – ou du moins vous en avez entendu parler – ChatGPT. L'outil d'intelligence artificielle a connu un "boom" ces derniers mois et a été une "main sur le volant" pour répondre aux questions ou même effectuer des tâches plus complexes.
Cependant, le système cache un sombre secret – et ses créateurs le savent. Non seulement ils le savent, mais ils en assument la responsabilité.
voir plus
Google développe un outil d'IA pour aider les journalistes à…
L'iPhone original de 2007 non ouvert se vend à près de 200 000 $; savoir...
Selon le OpenAI, société qui a créé l'outil, ChatGPT souffre d'"hallucinations". Autrement dit, il peut parfois donner de fausses informations.
La situation a été annoncée par la société mercredi 31 mai dernier. En outre, ils ont également annoncé une méthode plus récente et plus puissante pour entraîner l'IA.
Pourquoi est-il important de corriger ce mauvais comportement de ChatGPT ?
L'explication de base est que les gens utilisent beaucoup l'outil dans leur vie quotidienne. Par conséquent, il est impératif que ChatGPT transmette des informations fiables à ceux qui l'utilisent.
Par exemple, si vous utilisez le IApour améliorer un texte de travail scolaire, ou pour rechercher des recettes spécifiques, il est essentiel que les informations y soient correctes.
Plus que cela, avec le nombre croissant d'utilisateurs de chatbot, de fausses informations peuvent être facilement diffusées comme s'il s'agissait de la vérité.
Et cela pourrait causer un énorme mal de tête l'année prochaine, lorsque les élections américaines commenceront - et cela pourrait aussi se propager ici au Brésil !
"Même les modèles de pointe ont tendance à produire des faussetés - ils ont tendance à inventer des faits dans les moments d'incertitude. Ces hallucinations sont particulièrement problématiques dans les domaines qui nécessitent un raisonnement en plusieurs étapes, un puisqu'une seule erreur de logique suffit à faire dérailler une solution beaucoup plus importante », a déclaré OpenAI dans communiqué.
Que faire pour réparer ?
OpenAI a indiqué qu'il utilisera une nouvelle stratégie pour lutter contre les "hallucinations" des ChatGPT: entraînez les modèles d'IA à se récompenser pour chaque pas correct. Au lieu de simplement la récompenser à la fin avec la réponse complète.
« Détecter et atténuer les erreurs logiques ou les hallucinations d'un modèle est une étape cruciale vers la construction d'une IA globalement alignée. La motivation derrière cette recherche est de traiter les hallucinations pour rendre les modèles plus capables de résoudre des problèmes de raisonnement complexes », a expliqué Karl Cobbe, chercheur en mathématiques à entreprise.
Diplômée en communication sociale à l'Université fédérale de Goiás. Passionné par les médias numériques, la culture pop, la technologie, la politique et la psychanalyse.