Du använder förmodligen – eller åtminstone har hört talas om – ChatGPT. Verktyget för artificiell intelligens har haft en "boom" de senaste månaderna och har varit en "hand på ratten" för att svara på frågor eller till och med utföra mer komplexa jobb.
Systemet döljer dock en mörk hemlighet – och dess skapare vet det. Inte bara vet de, utan de tar på sig ansvaret för det.
se mer
Google utvecklar AI-verktyg för att hjälpa journalister i...
Oöppnad original 2007 iPhone säljs för nästan $200 000; känna till...
Enligt OpenAI, företag som skapade verktyget, ChatGPT lider av "hallucinationer". Det vill säga att det ibland kan ge falsk information.
Situationen meddelades av företaget förra onsdagen den 31 maj. Dessutom har de även annonserat en nyare och mer kraftfull metod för att träna AI: n.
Varför är det viktigt att fixa detta ChatGPT-felbeteende?
Den grundläggande förklaringen är att människor använder verktyget mycket i sin vardag. Därför är det absolut nödvändigt att ChatGPT skickar tillförlitlig information till dem som använder den.
Till exempel, om du använder AIför att förbättra en skolarbetstext, eller för att leta efter specifika recept, är det väsentligt att informationen där är korrekt.
Mer än så, med det växande antalet chatbotanvändare, kan falsk information lätt spridas som om det vore sanningen.
Och detta kan orsaka en enorm huvudvärk nästa år, när valet i USA börjar – och detta kan även spilla över här i Brasilien!
"Till och med toppmoderna modeller har en tendens att producera falskheter - de uppvisar en tendens att hitta på fakta i stunder av osäkerhet. Dessa hallucinationer är särskilt problematiska i domäner som kräver flerstegsresonemang, a eftersom ett enda logiskt fel räcker för att spåra ur en mycket större lösning", sa OpenAI i kommunicerade.
Vad ska man göra för att fixa?
OpenAI rapporterade att de kommer att använda en ny strategi för att bekämpa "hallucinationerna" av ChatGPT: träna AI-modeller att belöna sig själva för varje korrekt steg. Istället för att bara belöna henne i slutet med det fullständiga svaret.
"Att upptäcka och mildra en modells logiska fel eller hallucinationer är ett avgörande steg mot att bygga en övergripande anpassad AI. Motivationen bakom denna forskning är att ta itu med hallucinationer för att göra modeller mer kapabla till lösa komplexa resonemangsproblem”, förklarade Karl Cobbe, matematikforskare vid företag.
Examen i social kommunikation vid Federal University of Goiás. Brinner för digitala medier, popkultur, teknik, politik och psykoanalys.