Вероятно използвате – или поне сте чували за – ChatGPT. Инструментът за изкуствен интелект имаше „бум“ през последните месеци и беше „ръка на волана“, за да отговаря на въпроси или дори да изпълнява по-сложни задачи.
Системата обаче крие мрачна тайна – и нейните създатели я знаят. Те не само знаят, но и носят отговорността за това.
виж повече
Google разработва AI инструмент, за да помогне на журналистите в...
Неотварян оригинален iPhone от 2007 г. се продава за близо $200 000; зная...
Според OpenAI, компания, създала инструмента, ChatGPT страда от „халюцинации“. Тоест понякога може да даде невярна информация.
Ситуацията беше обявена от компанията миналата сряда, 31 май. В допълнение, те също обявиха по-нов и по-мощен метод за обучение на AI.
Защо е важно да коригираме това неправилно поведение на ChatGPT?
Основното обяснение е, че хората използват инструмента много в ежедневието си. Следователно е наложително ChatGPT да предава надеждна информация на тези, които го използват.
Например, ако използвате
AIза подобряване на учебен текст или за търсене на конкретни рецепти е важно информацията там да е вярна.Нещо повече, с нарастващия брой потребители на chatbot, фалшивата информация може лесно да се разпространява, сякаш е истината.
И това може да причини огромно главоболие следващата година, когато започнат изборите в Съединените щати – и това може да се разпространи и тук, в Бразилия!
„Дори най-съвременните модели имат склонност да създават лъжи – те проявяват склонност да измислят факти в моменти на несигурност. Тези халюцинации са особено проблематични в области, които изискват многоетапно разсъждение, a тъй като една-единствена логическа грешка е достатъчна, за да провали много по-голямо решение“, каза OpenAI в съобщени.
Какво да направя, за да поправя?
OpenAI съобщи, че ще използва нова стратегия за борба с "халюцинациите" на ChatGPT: обучете AI модели да се награждават за всяка правилна стъпка. Вместо просто да я възнаградите накрая с пълния отговор.
„Откриването и смекчаването на логически грешки или халюцинации на модел е критична стъпка към изграждането на цялостно подравнен AI. Мотивацията зад това изследване е да се обърне внимание на халюцинациите, за да се направят моделите по-способни решават сложни проблеми с разсъжденията“, обясни Карл Кобе, изследовател по математика в компания.
Завършва социална комуникация във Федералния университет на Гояс. Страстен към дигиталните медии, поп културата, технологиите, политиката и психоанализата.