Mai mare decât ChatGPT? OpenAI pare să fi dezvoltat un nou „super AI”; dar ea este periculoasă

În ultimele săptămâni, pe internet au circulat informații despre care consiliul de administrație al OpenAI, creatorul ChatGPT, ar fi primit avertismente despre o IA potențial periculoasă pentru umanitate.

Informația, care vine de la agenția de presă Reuters, a mai arătat că noul algoritm super inteligent ar fi capabil să rezolve probleme matematice simple într-un mod complet diferit de ceea ce se vedea până atunci.

Vezi mai mult

Pe cale de dispariție de 40 de ani, pasărea a fost găsită recent în Brazilia

Beneficiarii BPC vor primi al 13-lea salariu în decembrie?

În loc să folosească învățarea automată convențională, metoda de antrenament ChatGPT și Google Bard, de exemplu, noua IA ar avea o arhitectură mai complexă, capabilă să o transforme într-un „super AI”.

Q*, sau Q-Star, pentru cei apropiați

Potrivit informațiilor obținute de Reuters, IA care alarmează experții este Q*, sau Q-Star (în pronunția numelui său).

După cum am menționat mai sus, acest AI este capabil să rezolve probleme matematice simple. Cu toate acestea, până acum nu este nimic nou, deoarece ChatGPT și alte IA sunt, de asemenea, capabile să facă acest lucru.

Ideea este că pentru a oferi răspunsuri la problemele matematice, alte modele AI folosesc metodologii simple și directe. direct, folosind probabilitățile matematice într-un mod exact, mai mult sau mai puțin așa cum fac calculatoarele convenţional.

Pe de altă parte, Q-Star ar folosi o metodă pe care o putem numi „înțelegere” pentru a rezolva probleme. Cu alte cuvinte, această nouă inteligență artificială ar „gândi” să rezolve probleme, la fel cum facem noi, oamenii.

(Imagine: dezvăluire)

Acest salt de la utilizarea procesării brute la o formă de înțelegere ridică ștacheta pentru AI la un concept numit „inteligență generală artificială” sau IAG.

Potrivit unor experți care au studiat deja IAG, acesta ar fi capabil să facă mașini capabile să „gândească pentru ele însele”, depășind ființele umane într-o serie de sarcini mai complexe.

În acest sens, IAG poate face viața infractorilor care folosesc tehnici precum deepfake și clonarea vocii, de exemplu, pentru a efectua escrocherii și a crea diviziuni.

Din toate aceste motive, apariția Q* și posibila apariție a IA similare cu acesta necesită o mare vigilență din partea autorităților. La urma urmei, utilizarea greșită a tehnologiei cu aceste caracteristici poate, de fapt, să dăuneze umanității.

Licențiat în Istorie și Tehnologia Resurselor Umane. Pasionat de scris, astăzi trăiește visul de a lucra profesional ca Web Content Writer, scriind articole în mai multe nișe și formate diferite.

„Înalt” sau „Înalt” - Când folosiți acești termeni în limba engleză?

Există similare cuvinte în portugheză care ne fac nesiguri când trebuie să le folosim. Înaltși în...

read more
Efect Compton. Ce este efectul Compton?

Efect Compton. Ce este efectul Compton?

În anul 1922, Arthur Holly Compton, după efectuarea unor studii privind interacțiunea radiații-ma...

read more
Culori. Caracteristicile culorii

Culori. Caracteristicile culorii

Știința care studiază măsurarea culorii se numește colorimetrie. Colorimetria dezvoltă metode de...

read more