De viktigste selskapene iKunstig intelligens(AI) fra USA, Google, Microsoft og OpenAI, gjør betydelige fremskritt mot ansvarlig teknologiutvikling.
Som svar på en oppfordring fra Det hvite hus, forplikter disse selskapene seg frivillig til å ta i bruk viktige sikkerhetstiltak i AI-løsningene sine.
se mer
Kit fra Kina lover å forvandle den klassiske Beetle til en elbil
iPhones som ikke lyktes: 5 lanseringer avvist av publikum!
President Bidens ledelse har sterkt understreket viktigheten av å sikre at AI-selskaper utvikler sine etisk teknologi til nytte for samfunnet uten å gå på bekostning av sikkerhet, individuelle rettigheter eller verdier demokratisk.
Både visepresident Kamala Harris og president Joe Biden har vært aktive deltakere i diskusjoner med ledere av AI-bransjen, og fremhever hvor viktig det er å fremme ansvarlighet i dette felt.
Ansvarlig AI-vekst blir satt i gang av de største selskapene
Ifølge informasjon fra et utkast til dokumentet innhentet av Bloomberg, blir teknologiselskaper bedt om å rette seg etter åtte foreslåtte tiltak knyttet til sikkerhet, beskyttelse og
sosialt ansvar. Slike handlinger tar sikte på å sikre en mer bevisst tilnærming ved utvikling og bruk av AI.Noen av disse inkluderer å la uavhengige eksperter teste AI-modeller for å oppdage mulig upassende oppførsel, investering i cybersikkerhet og oppmuntring av tredjeparter til å identifisere smutthull i sikkerhet.
(Bilde: Avsløring)
Som en måte å håndtere samfunnsrisiko, inkludert skjevhet og upassende bruk av kunstig intelligens, selskaper retter sin innsats for å gjennomføre dyptgående og grundig forskning på implikasjonene av slike teknologi.
I tillegg er de forpliktet til å dele pålitelig og sikkerhetsrelatert informasjon med andre selskaper og offentlige etater, fremme en samarbeidende tilnærming til ansvarlig utvikling av AI.
Ved å utføre detaljerte undersøkelser søker bedrifter å identifisere og redusere mulige etiske og sosiale problemer knyttet til bruken av dette verktøyet.
En slik proaktiv tilnærming er ment å sikre at AI brukes på en måte som beskytter individuelle rettigheter, unngår skjevhet og forhindrer utilsiktede negative konsekvenser.
Denne avtalens frivillige tilnærming tydeliggjør utfordringene beslutningstakere står overfor når det gjelder å holde tritt med det raske tempoet i AI-fremskritt.
Det er foreslått flere lovforslag i kongressmed sikte på å regulere teknologi, søke å hindre at bedrifter drar nytte av Seksjon 230-beskyttelse og unnslippeansvar for skadelig innhold generert av algoritmer av AI.
I tillegg har disse initiativene også som mål å kreve spesifikke avsløringer i politiske annonser som bruker generativ AI.
Hos Trezeme Digital forstår vi viktigheten av effektiv kommunikasjon. Vi vet at hvert ord betyr noe, så vi streber etter å levere innhold som er relevant, engasjerende og personlig tilpasset dine behov.