ChatGPT: Създателите разкриват тъмна тайна

Вероятно използвате – или поне сте чували за – ChatGPT. Инструментът за изкуствен интелект имаше „бум“ през последните месеци и беше „ръка на волана“, за да отговаря на въпроси или дори да изпълнява по-сложни задачи.

Системата обаче крие мрачна тайна – и нейните създатели я знаят. Те не само знаят, но и носят отговорността за това.

виж повече

Google разработва AI инструмент, за да помогне на журналистите в...

Неотварян оригинален iPhone от 2007 г. се продава за близо $200 000; зная...

Според OpenAI, компания, създала инструмента, ChatGPT страда от „халюцинации“. Тоест понякога може да даде невярна информация.

Ситуацията беше обявена от компанията миналата сряда, 31 май. В допълнение, те също обявиха по-нов и по-мощен метод за обучение на AI.

Защо е важно да коригираме това неправилно поведение на ChatGPT?

Основното обяснение е, че хората използват инструмента много в ежедневието си. Следователно е наложително ChatGPT да предава надеждна информация на тези, които го използват.

Например, ако използвате

AIза подобряване на учебен текст или за търсене на конкретни рецепти е важно информацията там да е вярна.

Нещо повече, с нарастващия брой потребители на chatbot, фалшивата информация може лесно да се разпространява, сякаш е истината.

И това може да причини огромно главоболие следващата година, когато започнат изборите в Съединените щати – и това може да се разпространи и тук, в Бразилия!

„Дори най-съвременните модели имат склонност да създават лъжи – те проявяват склонност да измислят факти в моменти на несигурност. Тези халюцинации са особено проблематични в области, които изискват многоетапно разсъждение, a тъй като една-единствена логическа грешка е достатъчна, за да провали много по-голямо решение“, каза OpenAI в съобщени.

Какво да направя, за да поправя?

OpenAI съобщи, че ще използва нова стратегия за борба с "халюцинациите" на ChatGPT: обучете AI модели да се награждават за всяка правилна стъпка. Вместо просто да я възнаградите накрая с пълния отговор.

„Откриването и смекчаването на логически грешки или халюцинации на модел е критична стъпка към изграждането на цялостно подравнен AI. Мотивацията зад това изследване е да се обърне внимание на халюцинациите, за да се направят моделите по-способни решават сложни проблеми с разсъжденията“, обясни Карл Кобе, изследовател по математика в компания.

Завършва социална комуникация във Федералния университет на Гояс. Страстен към дигиталните медии, поп културата, технологиите, политиката и психоанализата.

20-те най-големи града в Бразилия

Столицата на щата Сао Пауло е най-големият град в Бразилия, а също и в южното полукълбо и в Амери...

read more

Нови плащания за спешна помощ; Домакин

Според правителството Конгресът е бил помолен да предостави специален кредит от 2,8 милиарда R$ н...

read more

Как да печелите пари с онлайн платформи под карантина?

Като цяло всички сектори на националната икономика бяха засегнати от пандемията от коронавирус. к...

read more