Niedawno wystartował technologia z ChatGPT. Stało się uzależniające wśród uczniów po tym, jak odkryli, że ta sztuczna inteligencja jest w stanie rozwiązywać operacje matematyczne i opracowywać eseje w kilka sekund. Jednak może być również potężnym narzędziem dla hakerów i złośliwych osób do tworzenia kampanii phishingowych. Dowiedz się więcej szczegółów poniżej.
ChatGPT może przynosić korzyści ludziom o złym charakterze
Zobacz więcej
Zastąpiona przez ChatGPT w pracy, kobieta spędza trzy miesiące…
W kierunku sztucznej inteligencji: Apple planuje zintegrować chatbota z…
Sprawdź poniżej niektóre złośliwe działania, które ChatGPT może zaoferować:
- Może być używany do tworzenia złośliwego kodu
ChatGPT ma kilka prostych poleceń, które mogą tworzyć złośliwy kod. A te pułapki mogą opracować nie tylko doświadczeni hakerzy, ale także zwykli ludzie.
- Może być używany do tworzenia bezbłędnych wiadomości phishingowych
Dzięki tej funkcji złośliwi ludzie mogą tworzyć fałszywe wiadomości w imieniu znanych firm i usług w celu przechwycenia danych bankowych. Wynika to z wiadomości e-mail typu phishing bez literówek.
- Może pomóc w rozpowszechnianiu dezinformacji
Ze względu na fakt, że ChatGPT jest zasilany treściami, które sięgają do 2021 roku, aby odpowiedzieć na pytania użytkowników, oprogramowanie wykorzystuje nieaktualne wiadomości i artykuły, więc rozpowszechnianie mylna informacja.
- Może pomóc szerzyć uprzedzenia
Oprogramowanie zostało opracowane w celu obsługi różnych treści dostępnych w Internecie, w tym postów zawierających nienawiść. Dlatego jest w stanie reprodukować uprzedzenia, takie jak rasizm i seksizm.
- Może to utrudnić wykrycie plagiatu
Na przykład treść, którą robot opracowuje w celu stworzenia eseju, może pozostać niezauważona przez kilka innych programów, które są przeszkolone w wykrywaniu plagiatu. Na razie tylko OpenAI Detector jest w stanie pomóc w tej kwestii, ale wciąż jest w fazie rozwoju.
- Potrafi być przekonujący, nawet jeśli się myli.
Ze względu na to, że robot jest w stanie rozwinąć styl pisania i języka bardzo podobny do ludzkiego, kończy się udawaniem racji w sytuacjach, które czasami są błędne. To kończy się oszukaniem wielu internautów.