Sztuczna inteligencja jest narzędziem chwili. Dzięki swojej szybkiej ewolucji rekordy zostały pobite w krótkim czasie dzięki fenomenalnemu ChatGPT. Jej przywódcy uważają jednak, że potrzebny jest międzynarodowy organ regulacyjny, podobny do tego, który zarządza energią jądrową. Istnieją poważne obawy dotyczące złośliwego wykorzystania narzędzia do tworzenia dezinformacji i głębokie podróbki.
W poście na firmowym blogu założyciel OpenAI, Sam Altman, prezes Greg Brockman i główny naukowiec Ilya Sutskever wspólnie przedstawili więcej szczegółów na temat tego, co można zrobić.
Zobacz więcej
Google opracowuje narzędzie AI, które pomoże dziennikarzom w…
Nieotwarty oryginalny iPhone z 2007 roku kosztuje prawie 200 000 USD; wiedzieć...
Co mówi post na blogu OpenAI?
Osoby kierujące OpenAI uważają, że teraz jest najlepszy czas na refleksję nad tzw. „zarządzaniem superinteligencją”. Firma głęboko wierzy, że superinteligencja — systemy sztucznej inteligencji w ciągu najbliższych 10 lat — będzie znacznie potężniejsza niż inne technologie, z którymi ludzkość miała do czynienia.
Mówi się, że możemy mieć znacznie bardziej pomyślną przyszłość, ale musimy wiedzieć, jak zarządzać ryzykiem, aby to osiągnąć. Autorzy komentują, że „biorąc pod uwagę ryzyko egzystencjalne, nie możemy po prostu być reaktywni. A energia nuklearnajest powszechnie stosowanym historycznym przykładem technologii o tej właściwości; biologia syntetyczna to kolejny przykład”.
Kończy swoje pierwsze sekcje stwierdzeniem, że musimy ograniczać ryzyko związane z dzisiejszą technologią sztucznej inteligencji, ale superinteligencja będzie wymagać specjalnego traktowania i koordynacji.
Dalej mówi o tym związku potrzeby organu regulacyjnego, a także już istniejącej Międzynarodowej Agencji Energii Atomowej, Organizacji Narodów Zjednoczonych, ONZ.
„Potrzebujemy pewnego stopnia koordynacji między głównymi wysiłkami rozwojowymi, aby zapewnić, że rozwój superinteligencja odbywa się w sposób, który pozwala nam zachować bezpieczeństwo i pomagać w płynnej integracji tych systemów z tzw społeczeństwo."
„Jest prawdopodobne, że w końcu będziemy potrzebować czegoś w rodzaju [Międzynarodowej Agencji Energii Atomowej] do działań superwywiadowczych; wszelkie wysiłki powyżej pewnego progu pojemności (lub zasobów, takich jak obliczenia) będą musiały podlegać międzynarodowemu organowi, który może kontrolować systemy, wymagać audytów, testować zgodność ze standardami bezpieczeństwa, nakładać ograniczenia na stopień wdrożenia i poziomy bezpieczeństwa, itp".
Firma postrzega wkład publiczny jako ważny w tym procesie
Mówi się, że nadzorowi publicznemu musi towarzyszyć zarządzanie potężnymi systemami. Uważam, że ludzie na całym świecie powinni mieć możliwość demokratycznego decydowania o tym, jakie są granice i standardy systemy sztucznej inteligencji Firma zaznacza, że wciąż nie wie, jak zaprojektować taki mechanizm, ale jego rozwój jest w toku. planowanie.
Na koniec podkreśla się, że niedopuszczenie do powstania superinteligencji jest ryzykowne. Podkreśla ich zalety oraz to, że liczba podmiotów je budujących szybko rośnie i jest nieodłączną częścią ścieżki technologicznej. Firma prosi, aby pomiary były dokładne.
Aby uzyskać dostęp do oryginalnej publikacji, kliknij Tutaj.