ChatGPT: los creadores exponen un oscuro secreto

protection click fraud

Probablemente use, o al menos haya oído hablar de ChatGPT. La herramienta de Inteligencia Artificial ha tenido un “boom” en los últimos meses y ha sido una “mano en el volante” para resolver dudas o incluso realizar trabajos más complejos.

Sin embargo, el sistema esconde un oscuro secreto, y sus creadores lo saben. No solo lo saben, sino que asumen la responsabilidad por ello.

vea mas

Google desarrolla una herramienta de IA para ayudar a los periodistas en…

El iPhone original de 2007 sin abrir se vende por casi $200,000; saber...

De acuerdo con IA abierta, empresa que creó la herramienta, ChatGPT sufre de “alucinaciones”. Es decir, puede dar información falsa en ocasiones.

La situación fue anunciada por la empresa el pasado miércoles 31 de mayo. Además, también han anunciado un método más nuevo y potente para entrenar la IA.

¿Por qué es importante corregir este mal comportamiento de ChatGPT?

La explicación básica es que la gente usa mucho la herramienta en su vida diaria. Por lo tanto, es imperativo que ChatGPT pase información confiable a quienes la usan.

instagram story viewer

Por ejemplo, si utiliza el AIpara mejorar un texto de trabajo escolar, o para buscar recetas específicas, es fundamental que la información allí sea correcta.

Más que eso, con el creciente número de usuarios de chatbots, la información falsa se puede difundir fácilmente como si fuera la verdad.

Y esto podría causar un gran dolor de cabeza el próximo año, cuando comiencen las elecciones de los Estados Unidos, ¡y esto también podría extenderse aquí en Brasil!

“Incluso los modelos más avanzados tienen tendencia a producir falsedades: exhiben una tendencia a inventar hechos en momentos de incertidumbre. Estas alucinaciones son particularmente problemáticas en dominios que requieren un razonamiento de varios pasos, un ya que un solo error lógico es suficiente para descarrilar una solución mucho más grande", dijo OpenAI en comunicado

¿Qué hacer para arreglar?

OpenAI informó que utilizará una nueva estrategia para combatir las "alucinaciones" del ChatGPT: entrenar modelos de IA para recompensarse por cada paso correcto. En lugar de simplemente recompensarla al final con la respuesta completa.

“Detectar y mitigar los errores lógicos o alucinaciones de un modelo es un paso crítico hacia la construcción de una IA alineada en general. La motivación detrás de esta investigación es abordar las alucinaciones para hacer que los modelos sean más capaces de resolver problemas complejos de razonamiento”, explicó Karl Cobbe, investigador de matemáticas en empresa.

Graduada en Comunicación Social en la Universidad Federal de Goiás. Apasionado por los medios digitales, la cultura pop, la tecnología, la política y el psicoanálisis.

Teachs.ru
8 grandes inventos del siglo XX

8 grandes inventos del siglo XX

Durante el siglo XX, la expansión económica y el uso de las nuevas tecnologías permitieron la cre...

read more

Mira cómo enviar una imagen que se autodestruye en WhatsApp

O Whatsapp lanzó una nueva función de vista previa de mensajes para los usuarios. Ahora, será pos...

read more
Reto visual: encuentra los kiwis escondidos en 22 segundos

Reto visual: encuentra los kiwis escondidos en 22 segundos

A menudo debes encontrar desafíos en internet que te dejan intrigado por el grado de dificultad. ...

read more
instagram viewer