Een speciale commissie van het Europees Parlement keurde onlangs de eerste versie van een wetsvoorstel goed dat dat beoogt heeft tot doel richtlijnen vast te stellen voor de ontwikkeling en het gebruik van kunstmatige-intelligentiesystemen op het vasteland Europese.
De goedkeuring van deze voorbereidende fase betekent een belangrijke stap voorwaarts in het nastreven van regelgeving die is ontworpen om de snelle vooruitgang van AI-technologieën te beheersen. Deze wetten zijn nodig vanwege de snelle evolutie van deze technologieën.
Bekijk meer
Bedreiging voor Netflix: de gratis service van Google concurreert met streaming
Google ontwikkelt AI-tool om journalisten te helpen bij…
De nieuwe wetgeving, getiteld “European Artificial Intelligence Act”, is een primeur in het Westen, net als in de China en andere Aziatische landen hebben al regelgeving waar generatieve AI-bedrijven zoals OpenAI zich mee bezighouden jouw ChatGPT, moet volgen.
De Europese regelgeving voor kunstmatige intelligentie gaat uit van het risicopotentieel van elk AI-systeem. Hoe groter het gevaar dat ze vormen, hoe strenger ze zullen worden gecontroleerd.
De regels bevatten ook specifieke vereisten waaraan ontwikkelaars moeten voldoen, ook wel bekend als "basismodellen".
De risicocategorieën van kunstmatige intelligenties
De Europese wet inzake kunstmatige intelligentie categoriseert AI's ook op basis van hun risiconiveau. Dit zijn: minimaal of geen risico, beperkt risico, hoog risico en onaanvaardbaar risico.
Zelfs AI met een hoog risico kan onder regelgeving werken, maar tools die zijn geclassificeerd als onaanvaardbaar risico kunnen niet eens in Europa werken. Onaanvaardbare risico-AI's zijn:
- Systemen die subliminale, manipulatieve of misleidende technieken gebruiken om hun eigen gedrag te verstoren;
- Kunstmatige intelligenties die misbruik maken van kwetsbaarheden van specifieke individuen of groepen;
- Biometrische categoriseringssystemen op basis van gevoelige attributen of kenmerken;
- AI's gebruikt voor sociale scores of betrouwbaarheidsbeoordeling;
- AI-systemen die worden gebruikt voor risicobeoordelingen die strafrechtelijke of administratieve overtredingen voorspellen;
- Systemen die databases voor gezichtsherkenning creëren of uitbreiden door middel van niet-gericht schrapen;
- Mechanismen die emoties afleiden bij wetshandhaving, grensbeheer, de werkplek en het onderwijs.
Om de verspreiding van schadelijke kunstmatige intelligenties, zoals hoog risico en onaanvaardbaar risico, te voorkomen, de nieuwe Europese wet op kunstmatige intelligentie zal ontwikkelaars dwingen om normen te volgen vooraf bepaald.
Een van de aspecten van deze database is het vooraf testen van de kunstmatige intelligenties, wat in alle gevallen moet gebeuren, op straffe van sancties voor de ontwikkelaar die weigert de tests uit te voeren.
“Aanbieders van deze AI-modellen zullen maatregelen moeten nemen om de risico’s voor de grondrechten te beoordelen en te beperken. gezondheid, veiligheid, milieu, democratie en de rechtsstaat”, zei Ceyhun Pehlivan, een Europese advocaat die door de omroep werd geïnterviewd. CNBC.
Kortom, experts in kunstmatige intelligentie
Omdat het niet anders kon, sloeg het nieuws dat er een wet in het leven wordt geroepen om AI in Europa te reguleren in als een bom onder specialisten in het veld en sommige technologie-industrieën.
Vooraf valt op te merken dat de Europese Wet Kunstmatige Intelligentie nog in ontwikkeling is en dat de recente goedkeuring slechts voorlopig is. Toch spreken enkele belangrijke actoren hun bezorgdheid uit.
Volgens de Computer and Communications Industry Association of Europe is de reikwijdte van de nieuwe wet te ver uitgebreid, waardoor deze "onschadelijke AI's zou kunnen vangen".
“Het is verontrustend om te zien dat grote categorieën van nuttige AI-toepassingen – die zeer beperkte of geen risico’s met zich meebrengen – nu kunnen worden geconfronteerd strikte eisen, of ze kunnen zelfs uit Europa worden verbannen', zei Boniface de Champris, beleidsmanager bij de organisatie, in een verklaring aan CNBC. per email.
Volgens Dessi Savova, hoofd technologie bij het gerenommeerde advocatenkantoor Clifford Chance, zullen de AI-controlewetten die in Europa opkomen de wereld gaan beïnvloeden.
"Het bereik van de voorgestelde AI-regels in Europa zal AI-ontwikkelaars over de hele wereld bereiken", zei hij.
“De centrale vraag is echter of de Europese Wet Kunstmatige Intelligentie de standaard gaat zetten voor AI in de wereld. Dat komt omdat China, de VS en het VK, om er maar een paar te noemen, hun eigen AI-beleid en regelgevende benaderingen definiëren”, vraagt Savova zich af.
"Maar ze zullen ongetwijfeld allemaal de onderhandelingen die in Europa plaatsvinden nauwlettend volgen om hun eigen aanpak aan te passen", concludeerde hij.
Ten slotte benadrukte Sarah Chander, senior beleidsadviseur bij European Digital Rights, dat nieuwe Europese AI-wetten van ontwikkelaars vereisen dat ze hun "macht" demonstreren.
“Hoewel deze transparantie-eisen [opgenomen in het wetsvoorstel] zorgen over infrastructuur en economie niet wegnemen, met de ontwikkeling van deze enorme AI-systemen, ze eisen van technologiebedrijven dat ze de hoeveelheid rekenkracht bekendmaken die nodig is om ze te ontwikkelen”, herinnert hij zich in gesprek met de CNBC.
Tot nu toe zijn de volgende stappen van de Europese wet op kunstmatige intelligentie nog niet vrijgegeven door het Europees Parlement.
Afgestudeerd in Geschiedenis en Human Resources Technology. Gepassioneerd door schrijven, leeft hij vandaag de droom om professioneel op te treden als inhoudschrijver voor het web, door artikelen te schrijven in verschillende niches en verschillende formaten.