ChatGPT: los creadores exponen un oscuro secreto

Probablemente use, o al menos haya oído hablar de ChatGPT. La herramienta de Inteligencia Artificial ha tenido un “boom” en los últimos meses y ha sido una “mano en el volante” para resolver dudas o incluso realizar trabajos más complejos.

Sin embargo, el sistema esconde un oscuro secreto, y sus creadores lo saben. No solo lo saben, sino que asumen la responsabilidad por ello.

vea mas

Google desarrolla una herramienta de IA para ayudar a los periodistas en…

El iPhone original de 2007 sin abrir se vende por casi $200,000; saber...

De acuerdo con IA abierta, empresa que creó la herramienta, ChatGPT sufre de “alucinaciones”. Es decir, puede dar información falsa en ocasiones.

La situación fue anunciada por la empresa el pasado miércoles 31 de mayo. Además, también han anunciado un método más nuevo y potente para entrenar la IA.

¿Por qué es importante corregir este mal comportamiento de ChatGPT?

La explicación básica es que la gente usa mucho la herramienta en su vida diaria. Por lo tanto, es imperativo que ChatGPT pase información confiable a quienes la usan.

Por ejemplo, si utiliza el AIpara mejorar un texto de trabajo escolar, o para buscar recetas específicas, es fundamental que la información allí sea correcta.

Más que eso, con el creciente número de usuarios de chatbots, la información falsa se puede difundir fácilmente como si fuera la verdad.

Y esto podría causar un gran dolor de cabeza el próximo año, cuando comiencen las elecciones de los Estados Unidos, ¡y esto también podría extenderse aquí en Brasil!

“Incluso los modelos más avanzados tienen tendencia a producir falsedades: exhiben una tendencia a inventar hechos en momentos de incertidumbre. Estas alucinaciones son particularmente problemáticas en dominios que requieren un razonamiento de varios pasos, un ya que un solo error lógico es suficiente para descarrilar una solución mucho más grande", dijo OpenAI en comunicado

¿Qué hacer para arreglar?

OpenAI informó que utilizará una nueva estrategia para combatir las "alucinaciones" del ChatGPT: entrenar modelos de IA para recompensarse por cada paso correcto. En lugar de simplemente recompensarla al final con la respuesta completa.

“Detectar y mitigar los errores lógicos o alucinaciones de un modelo es un paso crítico hacia la construcción de una IA alineada en general. La motivación detrás de esta investigación es abordar las alucinaciones para hacer que los modelos sean más capaces de resolver problemas complejos de razonamiento”, explicó Karl Cobbe, investigador de matemáticas en empresa.

Graduada en Comunicación Social en la Universidad Federal de Goiás. Apasionado por los medios digitales, la cultura pop, la tecnología, la política y el psicoanálisis.

Ilusión óptica con video de Mickey Mouse; Que ves?

Las ilusiones ópticas son capaces de engañar nuestra visión, porque a través de ellas vemos cosas...

read more

La avena es buena para la salud, pero no en todos los casos

La avena es muy apreciada y merece reconocimiento. Es un superalimento rico en nutrientes y antio...

read more

ESTAS RAZAS DE PERROS NO DEBEN USAR ROPA, SEGÚN LOS VETERINARIOS

¿Eres una de las muchas personas que tienen mascotas en casa? Si es así, ¿tu mascota es peluda o ...

read more