ChatGPT: creatorii dezvăluie secrete întunecate

Probabil că folosești – sau cel puțin ai auzit de – ChatGPT. Instrumentul de inteligență artificială a avut un „boom” în ultimele luni și a fost o „mână pe volan” pentru a răspunde la întrebări sau chiar pentru a efectua lucrări mai complexe.

Cu toate acestea, sistemul ascunde un secret întunecat – și creatorii săi îl cunosc. Nu numai că știu, dar își asumă responsabilitatea pentru asta.

Vezi mai mult

Google dezvoltă un instrument AI pentru a ajuta jurnaliştii din...

iPhone-ul original nedeschis din 2007 se vinde cu aproape 200.000 USD; stiu...

In conformitate cu OpenAI, companie care a creat instrumentul, ChatGPT suferă de „halucinații”. Adică poate oferi uneori informații false.

Situația a fost anunțată de companie miercurea trecută, 31 mai. În plus, au anunțat și o metodă mai nouă și mai puternică pentru antrenamentul AI.

De ce este important să remediați acest comportament incorect ChatGPT?

Explicația de bază este că oamenii folosesc instrumentul mult în viața lor de zi cu zi. Prin urmare, este imperativ ca ChatGPT să transmită informații de încredere celor care le folosesc.

De exemplu, dacă utilizați AIpentru a îmbunătăți un text de lucru școlar, sau pentru a căuta rețete specifice, este esențial ca informațiile de acolo să fie corecte.

Mai mult decât atât, odată cu creșterea numărului de utilizatori chatbot, informațiile false pot fi răspândite cu ușurință ca și cum ar fi adevărul.

Și acest lucru ar putea provoca o mare durere de cap anul viitor, când vor începe alegerile din Statele Unite – și acest lucru s-ar putea răspândi și aici, în Brazilia!

„Chiar și modelele de ultimă generație au tendința de a produce falsități – manifestă tendința de a inventa fapte în momentele de incertitudine. Aceste halucinații sunt deosebit de problematice în domeniile care necesită raționament în mai mulți pași, a deoarece o singură eroare logică este suficientă pentru a deraia o soluție mult mai mare”, a spus OpenAI în comunicat.

Ce să faci pentru a remedia?

OpenAI a raportat că va folosi o nouă strategie pentru a combate „halucinațiile” ale ChatGPT: antrenează modele AI pentru a se recompensa pentru fiecare pas corect. În loc să o recompensezi la sfârșit cu răspunsul complet.

„Detectarea și atenuarea erorilor logice sau halucinațiilor unui model este un pas esențial către construirea unei IA aliniate în ansamblu. Motivația din spatele acestei cercetări este de a aborda halucinațiile pentru a face modelele mai capabile rezolva probleme complexe de raționament”, a explicat Karl Cobbe, cercetător în matematică la companie.

Licențiat în Comunicare Socială la Universitatea Federală din Goiás. Pasionat de media digitală, cultura pop, tehnologie, politică și psihanaliza.

Clienții Banco do Brasil pot plăti taxe cu criptomonede

Clienții Banco do Brasil pot plăti taxe cu criptomonede

Ați auzit vreodată de criptomonede? Criptomonedele sunt active amprentele digitale sau virtuale c...

read more

Caixa Tem: aflați cum va arăta contul dvs. în 2023

Multe probleme au apărut odată cu schimbarea guvernului în anul 2023, iar una dintre ele este leg...

read more

Depășirea anxietății matematice: 3 strategii eficiente

Matematica este una dintre cele mai de temut materii pentru studenții din întreaga lume. Mulți st...

read more