W zeszłym tygodniu Biały Dom potwierdził, że Adobe, IBM, Palantir, Nvidia i Salesforce wraz z trzema innymi firmami Sztuczna inteligencja (AI), przyjęło dobrowolne standardy bezpieczeństwa i niezawodności.
Firmy te dołączają do uznanych już w segmencie nazw, takich jak Amazon, Anthropic, Google, Inflection AI, Microsoftu i OpenAI, które zaangażowały się w tę inicjatywę w lipcu.
Zobacz więcej
Gas Aid i Bolsa Familia od września zaczynają otrzymywać wypłaty w tym…
Nadchodzi koniec zimy, a temperatury w całym kraju przekraczają 40°C;…
Chociaż standardy te nie są uregulowane i nie podlegają nadzorowi rządu, stanowią wspólny wysiłek mający na celu zwiększenie zaufania do ewolucji technologii.
Rosnące znaczenie sztucznej inteligencji, wzmocnione przez uruchomienie ChatGPT przez OpenAI w zeszłym roku, umieściło tę technologię w centrum uwagi uwagę, co ma znaczący wpływ na siłę roboczą, rozpowszechnianie nieprawidłowych informacji i obawy dotyczące rozwoju sytuacji autonomiczny.
Ze względu na takie wyzwania w Waszyngtonie doszło do intensywnych debat wśród ustawodawców, organów regulacyjnych i przedsiębiorców w tej dziedzinie na temat zarządzania postępem sztucznej inteligencji i kierowania nią.
Technolodzy będą zeznawać przed Senatem ws. regulacji dotyczących sztucznej inteligencji
W serii wydarzeń mających na celu uregulowanie sztucznej inteligencji Brad Smith z Microsoftu i William Dally z Nvidia mają złożyć zeznania na przesłuchaniu przed podkomisją Senatu ds. prywatności, technologii i prawo.
Za kilka dni odbędzie się spotkanie na wysokim szczeblu między prawodawcami podczas wydarzenia poświęconego sztucznej inteligencji, którego gospodarzem będzie senator Demokratów z Nowego Jorku Chuck Schumer, a następującymi przedsiębiorcami:
Elon Musk (m.in. SpaceX, Tesla);
Marka Zuckerberga (Meta);
Sam Altman (OpenAI);
Sundar Pichai (Google).
Jeff Zients, szef personelu Białego Domu, odpowiedział na rosnące zaangażowanie firm technologicznych: stwierdzając, że „prezydent wyraził się jasno: wykorzystaj zalety sztucznej inteligencji, zarządzaj ryzykiem i idź do przodu szybko. I to właśnie zaangażowanie demonstrujemy we współpracy z sektorem prywatnym”.
(Zdjęcie: ujawnienie)
Spółki, uznając swoją odpowiedzialność, zgodziły się na:
Oceń przyszłe produkty pod kątem potencjalnych zagrożeń bezpieczeństwa;
Wprowadź znaki wodne w celu identyfikacji treści generowanych przez sztuczną inteligencję;
Udostępniaj informacje o zagrożeniach bezpieczeństwa;
Raportuj trendy zaobserwowane w Twoich systemach.
Nadzór rządu USA w obliczu wyzwań związanych z bezpieczeństwem
Przyspieszony rozwój sztucznej inteligencji w ostatnich dziesięcioleciach wywołał szereg debat w skali globalnej.
W centrum tych dyskusji Stany Zjednoczone, potęga technologiczna, wykazały zaniepokojenie skutkami tej technologii.
Rząd amerykański, dostrzegając transformacyjny potencjał sztucznej inteligencji, zwrócił większą uwagę na implikacje dla bezpieczeństwa wynikające z takiej rewolucji technologicznej.
Obawy nie ograniczają się tylko do ochrony danych i prywatności, ale rozciągają się na integralność systemów kwestie krytyczne, potencjalne zagrożenia dla infrastruktury krajowej oraz możliwość niewłaściwego wykorzystania sztucznej inteligencji w scenariuszach konfliktowy.
Takie uznanie odzwierciedla pilną potrzebę ustanowienia jasnych wytycznych i solidnych przepisów gwarantujących bezpieczny i etyczny rozwój Sztuczna inteligencja.