Specjalna komisja Parlamentu Europejskiego zatwierdziła niedawno wstępną wersję projektu ustawy, który ma na celu ma na celu ustanowienie wytycznych dotyczących rozwoju i wykorzystania systemów sztucznej inteligencji na kontynencie Europejski.
Zatwierdzenie tej wstępnej fazy stanowi znaczący krok naprzód w dążeniu do regulacji mających na celu kontrolowanie szybkiego rozwoju technologii sztucznej inteligencji. Prawa te są konieczne ze względu na szybką ewolucję tych technologii.
Zobacz więcej
Zagrożenie dla Netflix: bezpłatna usługa Google konkuruje ze streamingiem
Google opracowuje narzędzie AI, które pomoże dziennikarzom w…
Nowe ustawodawstwo, zatytułowane „Europejski akt o sztucznej inteligencji”, jest pierwszym na Zachodzie, podobnie jak w Chiny i inne kraje azjatyckie mają już przepisy, z którymi korzystają generatywne firmy AI, takie jak OpenAI twój ChatGPT, Musisz podążać.
Europejskie przepisy dotyczące sztucznej inteligencji przyjmują podejście oparte na potencjale ryzyka każdego systemu AI. Im większe zagrożenie stwarzają, tym surowsza będzie ich kontrola.
Zasady określają również określone wymagania, których muszą przestrzegać programiści, znane jako „modele podstawowe”.
Kategorie ryzyka sztucznej inteligencji
Europejski akt o sztucznej inteligencji również kategoryzuje AI według poziomu ryzyka. Są to: ryzyko minimalne lub brak ryzyka, ryzyko ograniczone, ryzyko wysokie i ryzyko nieakceptowalne.
Nawet sztuczna inteligencja wysokiego ryzyka może działać zgodnie z przepisami, ale narzędzia sklasyfikowane jako stwarzające niedopuszczalne ryzyko nie mogą nawet działać w Europie. Niedopuszczalne AI ryzyka to:
- Systemy wykorzystujące techniki podprogowe, manipulacyjne lub oszukańcze w celu zniekształcenia własnego zachowania;
- Sztuczne inteligencje, które wykorzystują słabości konkretnych osób lub grup;
- Systemy kategoryzacji biometrycznej oparte na wrażliwych atrybutach lub cechach;
- Sztuczne Inteligencje wykorzystywane do oceny społecznej lub oceny wiarygodności;
- systemy sztucznej inteligencji wykorzystywane do oceny ryzyka, które przewidują przestępstwa karne lub administracyjne;
- Systemy, które tworzą lub rozszerzają bazy danych rozpoznawania twarzy poprzez nieukierunkowane skrobanie;
- Mechanizmy, które wywnioskują emocje w egzekwowaniu prawa, zarządzaniu granicami, miejscu pracy i edukacji.
Aby zapobiec rozprzestrzenianiu się szkodliwych sztucznej inteligencji, takich jak wysokie ryzyko i niedopuszczalne ryzyko, nowe europejskie prawo o sztucznej inteligencji zmusi deweloperów do przestrzegania standardów określony z góry.
Jednym z aspektów tej bazy danych jest wcześniejsze testowanie sztucznej inteligencji, które musi mieć miejsce we wszystkich przypadkach pod groźbą sankcji dla twórcy, który odmówi przeprowadzenia testów.
„Dostawcy tych modeli sztucznej inteligencji będą zobowiązani do podjęcia działań w celu oceny i ograniczenia zagrożeń dla praw podstawowych, zdrowie, bezpieczeństwo, środowisko, demokracja i rządy prawa” – powiedział Ceyhun Pehlivan, europejski prawnik, z którym rozmawiał nadawca CNBC.
Jednym słowem eksperci od Sztucznej Inteligencji
Ponieważ nie mogło być inaczej, wiadomość o powstaniu prawa regulującego sztuczną inteligencję w Europie spadła jak bomba wśród specjalistów w tej dziedzinie i niektórych branż technologicznych.
Z góry warto zauważyć, że europejski akt o sztucznej inteligencji jest wciąż opracowywany, a niedawne zatwierdzenie jest jedynie wstępne. Mimo to niektórzy ważni aktorzy wyrażają zaniepokojenie.
Według Europejskiego Stowarzyszenia Przemysłu Komputerowego i Komunikacyjnego (Computer and Communications Industry Association of Europe) zakres nowego prawa został rozszerzony zbyt daleko, co może spowodować, że „złapie nieszkodliwe AI”.
„Niepokojące jest to, że duże kategorie użytecznych aplikacji AI – które stwarzają bardzo ograniczone, jeśli w ogóle, ryzyko – mogą teraz napotkać rygorystyczne wymagania, a nawet mogą zostać zakazane w Europie” – powiedział Boniface de Champris, kierownik ds. Polityki w organizacji w oświadczeniu wysłanym do CNBC. e-mailem.
Zdaniem Dessi Savovej, szefa technologii w renomowanej kancelarii prawnej Clifford Chance, pojawiające się w Europie przepisy dotyczące kontroli AI będą miały wpływ na świat.
„Zasięg proponowanych zasad sztucznej inteligencji w Europie dotrze do twórców sztucznej inteligencji na całym świecie” – powiedział.
„Głównym pytaniem jest jednak to, czy europejski akt o sztucznej inteligencji wyznaczy standard dla sztucznej inteligencji na świecie. To dlatego, że Chiny, Stany Zjednoczone i Wielka Brytania, by wymienić tylko kilka, definiują własną politykę AI i podejścia regulacyjne”, pyta Savova.
„Ale niezaprzeczalnie wszyscy będą uważnie śledzić negocjacje toczące się w Europie, aby dostosować swoje własne podejście” – podsumował.
Na koniec Sarah Chander, starszy doradca ds. polityki w European Digital Rights, podkreśliła, że nowe europejskie przepisy dotyczące sztucznej inteligencji będą wymagały od programistów zademonstrowania swojej „mocy”.
„Chociaż te wymogi dotyczące przejrzystości [zawarte w ustawie] nie eliminują obaw związanych z infrastrukturą i ekonomią, wraz z rozwojem tych ogromnych systemy sztucznej inteligencji, wymagają od firm technologicznych ujawnienia ilości mocy obliczeniowej potrzebnej do ich opracowania” – wspominał w rozmowie z CNBC.
Jak dotąd kolejne kroki Europejskiego aktu o sztucznej inteligencji nie zostały jeszcze wydane przez Parlament Europejski.
Absolwent historii i technologii zarządzania zasobami ludzkimi. Pasjonuje się pisaniem, dziś spełnia marzenie o profesjonalnym działaniu jako autor treści w Internecie, pisząc artykuły w różnych niszach i różnych formatach.