OpenAI-ledare kommenterar behovet av ett tillsynsorgan för AI.

Artificiell intelligens är nuets verktyg. Med sin snabba utveckling slogs rekord på kort tid med den fenomenala ChatGPT. Dess ledare anser dock att det behövs ett internationellt tillsynsorgan, liknande det som styr kärnenergi. Det finns en stark oro över den skadliga användningen av verktyget för att skapa felaktig information och deepfakes.

I ett inlägg på företagets blogg samlades OpenAI-grundaren Sam Altman, president Greg Brockman och chefsforskaren Ilya Sutskever för att ge mer information om vad som kan göras.

se mer

Google utvecklar AI-verktyg för att hjälpa journalister i...

Oöppnad original 2007 iPhone säljs för nästan $200 000; känna till...

Vad står det i OpenAI-blogginlägget?

De personer som leder OpenAI anser att det nu är den bästa tiden att reflektera över så kallad "superintelligensstyrning". Företaget tror starkt på att superintelligens - AI-system under de kommande 10 åren - kommer att vara mycket kraftfullare än andra tekniker som mänskligheten har hanterat.

Det sägs att vi kan få en dramatiskt mer välmående framtid, men att vi måste veta hur vi ska hantera riskerna för att nå dit. Författarna kommenterar att "med tanke på möjligheten till existentiell risk kan vi inte bara vara reaktiva. A

kärnenergiär ett vanligt använt historiskt exempel på en teknik med denna egenskap; syntetisk biologi är ett annat exempel."

Den avslutar sina första avsnitt med att slå fast att vi måste minska riskerna med dagens AI-teknik, men att superintelligens kommer att kräva särskild behandling och samordning.

Han fortsätter med att tala om detta förhållande av behovet av ett tillsynsorgan, såväl som den redan existerande internationella atomenergiorganet, från Förenta Nationerna, FN.

”Vi behöver en viss grad av samordning mellan stora utvecklingsinsatser för att säkerställa att utvecklingen av superintelligens sker på ett sätt som gör att vi kan upprätthålla säkerheten och hjälpa till med en smidig integration av dessa system med samhälle."

"Det är troligt att vi så småningom kommer att behöva något som en [International Atomic Energy Agency] för superintelligensinsatser; varje ansträngning över en viss kapacitetströskel (eller resurser såsom datoranvändning) kommer att behöva underkastas en internationell myndighet som kan inspektera system, kräva revisioner, testa överensstämmelse med säkerhetsstandarder, införa restriktioner för utbyggnadsgrader och säkerhetsnivåer, etc".

Företaget ser offentligt bidrag som viktigt i processen

Det sägs att styrningen av kraftfulla system måste åtfölja offentlig tillsyn. Jag anser att människor runt om i världen bör ges befogenhet att demokratiskt bestämma vilka gränser och normer AI-system Företaget påpekar att de fortfarande inte vet hur man utformar en sådan mekanism, men att utvecklingen av den pågår. planera.

Slutligen framhålls att det är riskabelt att förhindra tillkomsten av en superintelligens. Det lyfter fram deras fördelar och att antalet aktörer som bygger dem ökar snabbt och är i sig en del av den tekniska vägen. Företaget ber att åtgärderna måste vara korrekta.

Klicka på för att komma åt originalpublikationen här.

Google meddelar att sökningar efter "feminism" har ökat markant

Enligt en undersökning gjord av Google Trends, intresse för information om feminism i hittaren. F...

read more

De pratar mer än mun: dessa tecken är extroverta och pratar för mycket

Det finns människor som visar en enorm lätthet i att utveckla konversationer om vilket ämne som h...

read more

Supermarket i RJ säljer ryggbiff för 19,98 R$ och överraskar kunderna

Foton på affischer placerade i en stormarknad i Niterói, i storstadsregionen Rio de Janeiro, cirk...

read more