ChatGPT: создатели раскрывают страшную тайну

protection click fraud

Вы, вероятно, используете или, по крайней мере, слышали о ChatGPT. Инструмент искусственного интеллекта пережил «бум» в последние месяцы и был «рукой на руле», чтобы отвечать на вопросы или даже выполнять более сложные задания.

Однако система скрывает темную тайну — и ее создатели знают об этом. Они не только знают, но и несут за это ответственность.

узнать больше

Google разрабатывает инструмент искусственного интеллекта, чтобы помочь журналистам…

Неоткрытый оригинальный iPhone 2007 года продается почти за 200 000 долларов; знать...

Согласно OpenAI, создавшая инструмент, ChatGPT страдает от «галлюцинаций». То есть иногда может давать ложную информацию.

О ситуации компания сообщила в минувшую среду, 31 мая. Кроме того, они также объявили о более новом и мощном методе обучения ИИ.

Почему важно исправить это неправильное поведение ChatGPT?

Основное объяснение заключается в том, что люди часто используют этот инструмент в своей повседневной жизни. Поэтому крайне важно, чтобы ChatGPT передавал достоверную информацию тем, кто его использует.

instagram story viewer

Например, если вы используете ИИчтобы улучшить текст школьной работы или найти конкретные рецепты, важно, чтобы информация была правильной.

Более того, с ростом числа пользователей чат-ботов ложная информация может легко распространяться, как если бы это была правда.

И это может стать причиной огромной головной боли в следующем году, когда начнутся выборы в Соединенных Штатах, и это может распространиться и на Бразилию!

«Даже самые современные модели склонны к ложным выводам — они склонны придумывать факты в моменты неопределенности. Эти галлюцинации особенно проблематичны в областях, требующих многоступенчатого рассуждения, поскольку одной логической ошибки достаточно, чтобы сорвать гораздо более масштабное решение», — сказал OpenAI в общался.

Что делать, чтобы исправить?

OpenAI сообщила, что будет использовать новую стратегию для борьбы с «галлюцинациями» ЧатGPT: обучайте модели ИИ вознаграждать себя за каждый правильный шаг. Вместо того, чтобы просто наградить ее в конце полным ответом.

«Обнаружение и устранение логических ошибок или галлюцинаций модели — важный шаг на пути к построению общего согласованного ИИ. Мотивация этого исследования состоит в том, чтобы обратиться к галлюцинациям, чтобы сделать модели более способными к решать сложные логические задачи», — объяснил Карл Коббе, исследователь-математик из компания.

Окончил факультет социальных коммуникаций Федерального университета Гояса. Увлечен цифровыми медиа, поп-культурой, технологиями, политикой и психоанализом.

Teachs.ru

Было ли это справедливо? Мужчину раскритиковали за то, что он написал книгу с помощью ChatGPT

К искусственный интеллект (ИИ) развиваются все больше и больше, что заставляет его действовать в ...

read more

4 самых дешевых международных направления, которые поместятся в вашем кармане

Многие люди мечтают о поездке за границу, будь то учеба, работа или даже туризм. Однако очень выс...

read more

Новые смайлики для ваших разговоров: смотрите значения

Новый смайлики прибыл для некоторых моделей мобильных телефонов андроид и iOS с пакетным обновлен...

read more
instagram viewer