ChatGPT: создатели раскрывают страшную тайну

Вы, вероятно, используете или, по крайней мере, слышали о ChatGPT. Инструмент искусственного интеллекта пережил «бум» в последние месяцы и был «рукой на руле», чтобы отвечать на вопросы или даже выполнять более сложные задания.

Однако система скрывает темную тайну — и ее создатели знают об этом. Они не только знают, но и несут за это ответственность.

узнать больше

Google разрабатывает инструмент искусственного интеллекта, чтобы помочь журналистам…

Неоткрытый оригинальный iPhone 2007 года продается почти за 200 000 долларов; знать...

Согласно OpenAI, создавшая инструмент, ChatGPT страдает от «галлюцинаций». То есть иногда может давать ложную информацию.

О ситуации компания сообщила в минувшую среду, 31 мая. Кроме того, они также объявили о более новом и мощном методе обучения ИИ.

Почему важно исправить это неправильное поведение ChatGPT?

Основное объяснение заключается в том, что люди часто используют этот инструмент в своей повседневной жизни. Поэтому крайне важно, чтобы ChatGPT передавал достоверную информацию тем, кто его использует.

Например, если вы используете ИИчтобы улучшить текст школьной работы или найти конкретные рецепты, важно, чтобы информация была правильной.

Более того, с ростом числа пользователей чат-ботов ложная информация может легко распространяться, как если бы это была правда.

И это может стать причиной огромной головной боли в следующем году, когда начнутся выборы в Соединенных Штатах, и это может распространиться и на Бразилию!

«Даже самые современные модели склонны к ложным выводам — они склонны придумывать факты в моменты неопределенности. Эти галлюцинации особенно проблематичны в областях, требующих многоступенчатого рассуждения, поскольку одной логической ошибки достаточно, чтобы сорвать гораздо более масштабное решение», — сказал OpenAI в общался.

Что делать, чтобы исправить?

OpenAI сообщила, что будет использовать новую стратегию для борьбы с «галлюцинациями» ЧатGPT: обучайте модели ИИ вознаграждать себя за каждый правильный шаг. Вместо того, чтобы просто наградить ее в конце полным ответом.

«Обнаружение и устранение логических ошибок или галлюцинаций модели — важный шаг на пути к построению общего согласованного ИИ. Мотивация этого исследования состоит в том, чтобы обратиться к галлюцинациям, чтобы сделать модели более способными к решать сложные логические задачи», — объяснил Карл Коббе, исследователь-математик из компания.

Окончил факультет социальных коммуникаций Федерального университета Гояса. Увлечен цифровыми медиа, поп-культурой, технологиями, политикой и психоанализом.

Появляются новые профессии: узнайте, какие из них оплачиваются лучше всего

Согласно прогнозам на будущее, примерно через четыре года около 25% людей будут проводить не мене...

read more

Caixa объявляет об открытии вакансий для стажеров; стипендии достигают 1 тыс. реалов

Caixa Econômica Federal, считающийся крупнейшим государственным банком Бразилии, недавно объявил ...

read more

Как убедиться, что незнакомец использует вашу учетную запись Google?

Знаете ли вы, что Google предлагает расширенный контроль безопасности для вашей учетной записи, п...

read more