U gebruikt waarschijnlijk – of heeft er in ieder geval van gehoord – ChatGPT. De tool voor kunstmatige intelligentie heeft de afgelopen maanden een "boom" gekend en is een "hand aan het stuur" geweest om vragen te beantwoorden of zelfs complexere taken uit te voeren.
Het systeem verbergt echter een duister geheim - en de makers weten dat. Ze weten het niet alleen, ze dragen er ook de verantwoordelijkheid voor.
Bekijk meer
Google ontwikkelt AI-tool om journalisten te helpen bij…
Ongeopende originele iPhone uit 2007 wordt verkocht voor bijna $ 200.000; weten...
Volgens de OpenAI, bedrijf dat de tool heeft gemaakt, ChatGPT lijdt aan "hallucinaties". Dat wil zeggen, het kan soms valse informatie geven.
De situatie werd afgelopen woensdag 31 mei door het bedrijf aangekondigd. Daarnaast hebben ze ook een nieuwere en krachtigere methode aangekondigd om de AI te trainen.
Waarom is het belangrijk om dit wangedrag van ChatGPT op te lossen?
De basisverklaring is dat mensen de tool veel gebruiken in hun dagelijks leven. Daarom is het absoluut noodzakelijk dat ChatGPT betrouwbare informatie doorgeeft aan degenen die het gebruiken.
Als u bijvoorbeeld de AIom een schoolwerktekst te verbeteren, of om specifieke recepten te zoeken, is het essentieel dat de informatie daar correct is.
Sterker nog, met het groeiende aantal chatbotgebruikers kan valse informatie gemakkelijk worden verspreid alsof het de waarheid is.
En dit zou volgend jaar, wanneer de Amerikaanse verkiezingen beginnen, voor enorme hoofdpijn kunnen zorgen – en dit zou ook hier in Brazilië kunnen overslaan!
“Zelfs state-of-the-art modellen hebben de neiging om onwaarheden te produceren – ze vertonen de neiging om feiten te verzinnen in momenten van onzekerheid. Deze hallucinaties zijn vooral problematisch in domeinen die redeneren in meerdere stappen vereisen, a aangezien een enkele logische fout genoeg is om een veel grotere oplossing te laten ontsporen", aldus OpenAI in gecommuniceerd.
Wat te doen om te repareren?
OpenAI meldde dat het een nieuwe strategie zal gebruiken om de "hallucinaties" van de ChatGPT: train AI-modellen om zichzelf te belonen voor elke juiste stap. In plaats van haar aan het einde alleen maar te belonen met het volledige antwoord.
“Het detecteren en verminderen van de logische fouten of hallucinaties van een model is een cruciale stap in de richting van het bouwen van een algeheel afgestemde AI. De motivatie achter dit onderzoek is om hallucinaties aan te pakken om modellen beter in staat te stellen complexe redeneerproblemen oplossen”, legt Karl Cobbe, een wiskundeonderzoeker bij bedrijf.
Afgestudeerd in sociale communicatie aan de Federale Universiteit van Goiás. Gepassioneerd door digitale media, popcultuur, technologie, politiek en psychoanalyse.