Sztuczna inteligencja (AI) to jedna z najbardziej zaawansowanych technologii obecnych w naszym codziennym życiu, wykorzystywana do wspomagania ludzi w różnych zadaniach, oprócz ochrony danych i informacji. Jednak nawet przy wszystkich postępach sztuczna inteligencja nie jest pozbawiona wad i słabych punktów, o czym świadczy próba włamania się do systemu operacyjnego Microsoftu za pomocą chatbota ChatGPT.
Hakowanie za pomocą samego narzędzia
Zobacz więcej
Uwaga: TA trująca roślina spowodowała, że młody mężczyzna wylądował w szpitalu
Google opracowuje narzędzie AI, które pomoże dziennikarzom w…
Grupa internautów, należąca do kanału YouTube Enderman, próbowała obejść system operacyjny Microsoftu poprzez ChatGPT, który służy jako narzędzie dialogowe i posiada sztuczną inteligencję. Pomysł polegał na wygenerowaniu prawidłowych kluczy dla systemu Windows 95.
Rezultat próby włamania się do systemu operacyjnego był niepokojący i potwierdził istnienie luk w sztucznej inteligencji, a także naraził społeczeństwo na zagrożenia związane z tą technologią.
Kradzież materiałów i nielegalna produkcja handlowa to tylko niektóre przykłady zagrożeń, jakie może stwarzać sztuczna inteligencja.
Znaczenie bezpieczeństwa AI
Epizod wywołał wielkie reperkusje i zaniepokojenie, a nawet skłonił miliardera Elona Muska do opublikowania listu domagając się przerwania platformy do badań i ulepszeń, wraz ze Stevem Wozniakiem, inżynierem ds Jabłko.
ChatGPT ma ograniczenia dotyczące udzielanych odpowiedzi, aby uniknąć udostępniania poufnych informacji. Gdy pytania są podejrzane, system wyświetla komunikat negatywny lub zamyka rozmowę.
Jednak grupie internautów udało się aktywować 3,3% kluczy i mieć dostęp do środowiska, które powinno być ograniczone.
Słabość SI
Próba włamania się do systemu operacyjnego Microsoftu za pośrednictwem ChatGPT ujawniła kruchość sztucznej inteligencji i zagrożenia, jakie może ona przynieść społeczeństwu.
Należy podkreślić potrzebę inwestycji w bezpieczeństwo i doskonalenie technologii, aby zapobiec ponownemu wystąpieniu tego typu incydentów.
Ponadto niezwykle ważne jest, aby firmy i rządy współpracowały przy tworzeniu zasad bezpieczeństwa. solidne i wydajne narzędzia dla sztucznej inteligencji, zapewniające ochronę informacji i prywatności użytkowników.