Probabil că folosești – sau cel puțin ai auzit de – ChatGPT. Instrumentul de inteligență artificială a avut un „boom” în ultimele luni și a fost o „mână pe volan” pentru a răspunde la întrebări sau chiar pentru a efectua lucrări mai complexe.
Cu toate acestea, sistemul ascunde un secret întunecat – și creatorii săi îl cunosc. Nu numai că știu, dar își asumă responsabilitatea pentru asta.
Vezi mai mult
Google dezvoltă un instrument AI pentru a ajuta jurnaliştii din...
iPhone-ul original nedeschis din 2007 se vinde cu aproape 200.000 USD; stiu...
In conformitate cu OpenAI, companie care a creat instrumentul, ChatGPT suferă de „halucinații”. Adică poate oferi uneori informații false.
Situația a fost anunțată de companie miercurea trecută, 31 mai. În plus, au anunțat și o metodă mai nouă și mai puternică pentru antrenamentul AI.
De ce este important să remediați acest comportament incorect ChatGPT?
Explicația de bază este că oamenii folosesc instrumentul mult în viața lor de zi cu zi. Prin urmare, este imperativ ca ChatGPT să transmită informații de încredere celor care le folosesc.
De exemplu, dacă utilizați AIpentru a îmbunătăți un text de lucru școlar, sau pentru a căuta rețete specifice, este esențial ca informațiile de acolo să fie corecte.
Mai mult decât atât, odată cu creșterea numărului de utilizatori chatbot, informațiile false pot fi răspândite cu ușurință ca și cum ar fi adevărul.
Și acest lucru ar putea provoca o mare durere de cap anul viitor, când vor începe alegerile din Statele Unite – și acest lucru s-ar putea răspândi și aici, în Brazilia!
„Chiar și modelele de ultimă generație au tendința de a produce falsități – manifestă tendința de a inventa fapte în momentele de incertitudine. Aceste halucinații sunt deosebit de problematice în domeniile care necesită raționament în mai mulți pași, a deoarece o singură eroare logică este suficientă pentru a deraia o soluție mult mai mare”, a spus OpenAI în comunicat.
Ce să faci pentru a remedia?
OpenAI a raportat că va folosi o nouă strategie pentru a combate „halucinațiile” ale ChatGPT: antrenează modele AI pentru a se recompensa pentru fiecare pas corect. În loc să o recompensezi la sfârșit cu răspunsul complet.
„Detectarea și atenuarea erorilor logice sau halucinațiilor unui model este un pas esențial către construirea unei IA aliniate în ansamblu. Motivația din spatele acestei cercetări este de a aborda halucinațiile pentru a face modelele mai capabile rezolva probleme complexe de raționament”, a explicat Karl Cobbe, cercetător în matematică la companie.
Licențiat în Comunicare Socială la Universitatea Federală din Goiás. Pasionat de media digitală, cultura pop, tehnologie, politică și psihanaliza.