Kunstig intelligens er øyeblikkets verktøy. Med sin raske utvikling ble rekorder slått på kort tid med den fenomenale ChatGPT. Lederne mener imidlertid at det trengs et internasjonalt reguleringsorgan, likt det som styrer kjernekraft. Det er sterk bekymring for ondsinnet bruk av verktøyet for å skape feilinformasjon og deepfakes.
I et innlegg på selskapets blogg kom OpenAI-grunnlegger Sam Altman, president Greg Brockman og sjefforsker Ilya Sutskever sammen for å gi flere detaljer om hva som kan gjøres.
se mer
Google utvikler AI-verktøy for å hjelpe journalister i...
Uåpnet original iPhone fra 2007 selges for nesten $200 000; vet...
Hva står det i OpenAI-blogginnlegget?
Personene som leder OpenAI mener at nå er den beste tiden å reflektere over såkalt "superintelligens styring". Selskapet har stor tro på at superintelligens - AI-systemer i løpet av de neste 10 årene - vil være mye kraftigere enn andre teknologier som menneskeheten har jobbet med.
Det sies at vi kan ha en dramatisk mer velstående fremtid, men at vi må vite hvordan vi skal håndtere risikoen for å komme dit. Forfatterne kommenterer at "gitt muligheten for eksistensiell risiko, kan vi ikke bare være reaktive. EN
kjernekrafter et ofte brukt historisk eksempel på en teknologi med denne egenskapen; syntetisk biologi er et annet eksempel."
Den avslutter sine første avsnitt med å slå fast at vi må redusere risikoen ved dagens AI-teknologi, men at superintelligens vil kreve spesiell behandling og koordinering.
Han fortsetter med å snakke om dette forholdet til behovet for et reguleringsorgan, så vel som det allerede eksisterende internasjonale atomenergibyrået i FN, FN.
«Vi trenger en viss grad av koordinering mellom store utviklingsarbeid for å sikre at utviklingen av superintelligens oppstår på en måte som lar oss opprettholde sikkerheten og hjelpe til med jevn integrasjon av disse systemene med samfunn."
«Det er sannsynlig at vi til slutt vil trenge noe som et [International Atomic Energy Agency] for superetterretningsinnsats; enhver innsats over en viss kapasitetsterskel (eller ressurser som databehandling) må være underlagt en internasjonal myndighet som kan inspisere systemer, kreve revisjoner, teste samsvar med sikkerhetsstandarder, pålegge restriksjoner på utplasseringsgrader og sikkerhetsnivåer, etc".
Selskapet ser på offentlig bidrag som viktig i prosessen
Det sies at styringen av kraftige systemer må følge offentlig tilsyn. Jeg mener at mennesker rundt om i verden bør få myndighet til å demokratisk bestemme hvilke grenser og standarder AI-systemer Selskapet påpeker at de fortsatt ikke vet hvordan de skal designe en slik mekanisme, men at utviklingen pågår. planlegger.
Til slutt understrekes det at det er risikabelt å hindre opprettelsen av en superintelligens. Det fremhever deres fordeler og at antallet aktører som bygger dem øker raskt og er iboende en del av den teknologiske banen. Selskapet ber om at tiltakene må være nøyaktige.
For å få tilgang til den originale publikasjonen, klikk her.