ChatGPT: Създателите разкриват тъмна тайна

Вероятно използвате – или поне сте чували за – ChatGPT. Инструментът за изкуствен интелект имаше „бум“ през последните месеци и беше „ръка на волана“, за да отговаря на въпроси или дори да изпълнява по-сложни задачи.

Системата обаче крие мрачна тайна – и нейните създатели я знаят. Те не само знаят, но и носят отговорността за това.

виж повече

Google разработва AI инструмент, за да помогне на журналистите в...

Неотварян оригинален iPhone от 2007 г. се продава за близо $200 000; зная...

Според OpenAI, компания, създала инструмента, ChatGPT страда от „халюцинации“. Тоест понякога може да даде невярна информация.

Ситуацията беше обявена от компанията миналата сряда, 31 май. В допълнение, те също обявиха по-нов и по-мощен метод за обучение на AI.

Защо е важно да коригираме това неправилно поведение на ChatGPT?

Основното обяснение е, че хората използват инструмента много в ежедневието си. Следователно е наложително ChatGPT да предава надеждна информация на тези, които го използват.

Например, ако използвате

AIза подобряване на учебен текст или за търсене на конкретни рецепти е важно информацията там да е вярна.

Нещо повече, с нарастващия брой потребители на chatbot, фалшивата информация може лесно да се разпространява, сякаш е истината.

И това може да причини огромно главоболие следващата година, когато започнат изборите в Съединените щати – и това може да се разпространи и тук, в Бразилия!

„Дори най-съвременните модели имат склонност да създават лъжи – те проявяват склонност да измислят факти в моменти на несигурност. Тези халюцинации са особено проблематични в области, които изискват многоетапно разсъждение, a тъй като една-единствена логическа грешка е достатъчна, за да провали много по-голямо решение“, каза OpenAI в съобщени.

Какво да направя, за да поправя?

OpenAI съобщи, че ще използва нова стратегия за борба с "халюцинациите" на ChatGPT: обучете AI модели да се награждават за всяка правилна стъпка. Вместо просто да я възнаградите накрая с пълния отговор.

„Откриването и смекчаването на логически грешки или халюцинации на модел е критична стъпка към изграждането на цялостно подравнен AI. Мотивацията зад това изследване е да се обърне внимание на халюцинациите, за да се направят моделите по-способни решават сложни проблеми с разсъжденията“, обясни Карл Кобе, изследовател по математика в компания.

Завършва социална комуникация във Федералния университет на Гояс. Страстен към дигиталните медии, поп културата, технологиите, политиката и психоанализата.

Изплащането на 2-ра вноска от 13-та заплата по INSS започва след седмица

Плащания на втората вноска от 13-та заплата на пенсионери, пенсионери и други бенефициенти на INS...

read more

Безплатен онлайн конкурс търси технически идеи за стимулиране на икономиката

Fecomércio RJ в партньорство със Sebrae RJ ще рекламира Hackathon Rio Empreender Criativo, безпла...

read more

Пощите започват коледната си кампания за осиновяване на писма до Дядо Коледа

Вече традиционната коледна кампания, организирана от Correios, търси помощта на хора, фирми и пуб...

read more