ChatGPT: Създателите разкриват тъмна тайна

Вероятно използвате – или поне сте чували за – ChatGPT. Инструментът за изкуствен интелект имаше „бум“ през последните месеци и беше „ръка на волана“, за да отговаря на въпроси или дори да изпълнява по-сложни задачи.

Системата обаче крие мрачна тайна – и нейните създатели я знаят. Те не само знаят, но и носят отговорността за това.

виж повече

Google разработва AI инструмент, за да помогне на журналистите в...

Неотварян оригинален iPhone от 2007 г. се продава за близо $200 000; зная...

Според OpenAI, компания, създала инструмента, ChatGPT страда от „халюцинации“. Тоест понякога може да даде невярна информация.

Ситуацията беше обявена от компанията миналата сряда, 31 май. В допълнение, те също обявиха по-нов и по-мощен метод за обучение на AI.

Защо е важно да коригираме това неправилно поведение на ChatGPT?

Основното обяснение е, че хората използват инструмента много в ежедневието си. Следователно е наложително ChatGPT да предава надеждна информация на тези, които го използват.

Например, ако използвате

AIза подобряване на учебен текст или за търсене на конкретни рецепти е важно информацията там да е вярна.

Нещо повече, с нарастващия брой потребители на chatbot, фалшивата информация може лесно да се разпространява, сякаш е истината.

И това може да причини огромно главоболие следващата година, когато започнат изборите в Съединените щати – и това може да се разпространи и тук, в Бразилия!

„Дори най-съвременните модели имат склонност да създават лъжи – те проявяват склонност да измислят факти в моменти на несигурност. Тези халюцинации са особено проблематични в области, които изискват многоетапно разсъждение, a тъй като една-единствена логическа грешка е достатъчна, за да провали много по-голямо решение“, каза OpenAI в съобщени.

Какво да направя, за да поправя?

OpenAI съобщи, че ще използва нова стратегия за борба с "халюцинациите" на ChatGPT: обучете AI модели да се награждават за всяка правилна стъпка. Вместо просто да я възнаградите накрая с пълния отговор.

„Откриването и смекчаването на логически грешки или халюцинации на модел е критична стъпка към изграждането на цялостно подравнен AI. Мотивацията зад това изследване е да се обърне внимание на халюцинациите, за да се направят моделите по-способни решават сложни проблеми с разсъжденията“, обясни Карл Кобе, изследовател по математика в компания.

Завършва социална комуникация във Федералния университет на Гояс. Страстен към дигиталните медии, поп културата, технологиите, политиката и психоанализата.

Използване на букви G и J: кога да се използва правилно?

Използване на букви G и J: кога да се използва правилно?

О използване на букви G и J може да породи съмнения, тъй като сричките "ge" и "je", както и "gi" ...

read more

Генитален херпес: причина, симптоми, лечение и профилактика.

Гениталният херпес или херпес тип 2 е полово предавано заболяване, причинено от херпес симплекс ...

read more
Участие на жените на пазара на труда

Участие на жените на пазара на труда

В Бразилия участие на жените на пазара на труда нараства ежегодно. През последните десетилетия бр...

read more