Tehnologija umjetne inteligencije svakim danom postaje sve snažnija. Za kreatora ChatGPT, Sam Altman, neće proći dugo prije nego što umjetna inteligencija postane potencijalno zastrašujuća. Za njega sve institucije u svijetu moraju biti spremne na ovaj scenarij. U nastavku pogledajte više detalja o govoru Sama Altmana o tome zašto se bojati umjetne inteligencije.
AI tehnologija mogla bi biti zastrašujuća ako se ne uvodi postupno
vidi više
Google razvija AI alat za pomoć novinarima u...
Neotvoreni originalni iPhone iz 2007. prodaje se za gotovo 200.000 dolara; znati...
Sam Altman je u svojim tweetovima izvijestio o svojoj zabrinutosti zbog ubrzanog razvoja AI u životima ljudi.
Za njega, iako nam ova tehnologija daje veću produktivnost, pametnije učenje, sadržaj zabavu, a između ostalih prednosti, ljudima treba vremena da se prilagode drastičnim promjenama koje dogodit će se.
U njegovim se tvitovima dogodilo nekoliko spominjanja
Sam dalje kaže da će institucijama trebati vremena da shvate što učiniti, jer će propisi biti kritični. Za njega umjetna inteligencija još nije zastrašujuća, ali je vrlo blizu tome.
Na razini usporedbe, Altman je kao primjer uzeo prijelaz koji se dogodio iz svijeta prije pametnih telefona u svijet nakon pametnih telefona.pametni telefon. Zbog brojnih prednosti, svijet će postati duboko integriran s AI alatima.
Međutim, nastavlja naglašavajući važnost toga da ovaj proces bude postupan kako ne bi prestrašio većinu ljudi.
Koji se izazovi mogu pojaviti na putu?
Altman je dodao da bi se mnogi izazovi mogli pojaviti zbog raširene uporabe tehnologije. Između nekoliko, istaknuo je predrasude i ljude koji se još uvijek osjećaju nesigurno kada razgovaraju s chatbotom.
Stoga je izuzetno važno razmotriti ove probleme, osim toga, OpenAI radi na ublažavanju pristranosti u svojim alatima.
nedavni strašni susreti
Altmanovi komentari potaknuli su neke neugodne odgovore Microsoft Binga. Tvrtka je čak postavila ograničenje od pet odgovora u jednom chatu i rekla da će to pomoći Bing AI-u da ostane na pravom putu.