V posledních měsících jsme byli svědky „boomu“ ve vzniku nové a působivé umělé inteligence, jako je ChatGPT.
Najednou tyto nástroje mění a zlepšují životy mnoha lidí v různých oblastech, zejména v činnostech zahrnujících technologie.
vidět víc
Odborníci říkají, že umělá inteligence je silou dobra
V oblasti vývoje AI Čína postupuje, zatímco USA…
Ukazuje se však, že tyto ultrasofistikované systémy lze také takříkajíc použít ke zlu.
V rozhovoru pro The New York Post expert na kybernetickou bezpečnost z Harvardu J.S Nelson Právnická fakulta kategoricky uvedla, že existují zločinci, kteří využívají AI k praxi zločiny.
„Je jasné, že ‚špatní herci‘ mají nyní přístup k sofistikovaným nástrojům, které dříve neměli. Dalo jim to možnosti, které předtím neměli,“ řekl.
Lisa Palmer, která je hlavní stratégkou AI v poradenské firmě AI Leaders, také promluvila s novinami a varovala, že tento problém lze pozorovat po celém světě.
„Děje se to v globálním měřítku. To není něco, co se děje jen ve Spojených státech. Je to problém v několika zemích,“ řekla.
Podle Palmera a Nelsona je trendem, že výskyt trestných činů využívajících AI bude v následujících letech jen narůstat. V následujících tématech jsou uvedeny a vysvětleny některé z hlavních trestných činů tohoto typu. Čti dál!
deepfake
Jedním z hlavních zločinů spáchaných s „pomocí“ AI je takzvaný deepfake, který v podstatě spočívá ve vytváření falešných obrázků pomocí obličeje osoby.
K páchání těchto zločinů zločinci používají aplikace vybavené umělou inteligencí, jako jsou ty, které slibují, že fotografie promění v obrazy nebo dokonce zestárnou tváře uživatelů.
K tomuto tématu se vyjádřila i Lisa Palmer a varovala před nebezpečím deepfake aplikací. „Některé z těchto aplikací ve svých podmínkách služby jasně dávají najevo, že sdílíte svou tvář s úložištěm dat,“ varoval.
V některých vážných případech AI vytváří smyslné nebo dokonce pornografické obrázky pomocí tváří obyčejných lidí. Výsledek je tak realistický, že jej lze použít k očernění obrazu jednotlivce, což je mimořádně vážné.
Umělá inteligence může také zachytit data, jako jsou otisky prstů a podpisy očí, zfalšovat autentizaci a nechat uživatele náchylné k digitálním zločinům.
Pokud jde o veřejnou debatu, problém může být ještě hlubší, jak to umí generativní AI vytvářet falešné představy o politických událostech, přírodních katastrofách a jiných událostech, které by falešně poplachovaly populace.
Toho mohou podle odborníků využít zlomyslní lidé jako formu manipulace.
phishing
Phishing, což je odesílání e-mailů a neoprávněné telefonní hovory, lze také usnadnit pomocí umělé inteligence.
„Nyní mohou [phishingoví phisheři] vytvářet tyto phishingové e-maily v masivním měřítku pomocí AI,“ řekla Lisa Palmer v nedávné přednášce.
Než se objevily generativní umělé inteligence, phishing a další invazivní praktiky byly brzděny složitostí práce. Nyní mohou aktivitu usnadnit a urychlit inteligentní chatboti, jako je ChatGPT.
Obecně platí, že „phisheři“ odstraňují osobní údaje z profilů na sociálních sítích a odtud začnou posílat nevítané zprávy na e-mailové adresy.
Lisa Palmer také varuje, že generativní umělé inteligence se začínají používat k automatickému telefonování.
„AI také zlepšuje schopnost vytvářet falešné telefonní hovory. Jediné, co je potřeba, je, aby skutečná osoba zaznamenala tři sekundy řeči. Robot zachytí řeč a reprodukuje ji ve falešných hovorech,“ řekl expert.
V poslední době zločinci použili AI k padělání únos teenagera v USA. Matce dívky zazvonil telefon, ve kterém robot napodobil hlas její dcery. Bohužel, takové případy jsou čím dál častější.
Dan Mayo, agent FBI, který má na starosti městský dozor ve Phoenixu, varuje před odchodem profily na sociálních sítích přístupné veřejnosti představují riziko, protože mohou poskytovat relevantní informace zločinci.
"Budou hledat veřejné profily, které o vás mají co nejvíce informací, a když je budou mít, pokusí se vám ublížit," řekl důstojník.
Nedávno americký tisk široce informoval, že i Jerome Powell, prezident Federálního rezervního systému, centrální banky Spojených států, byl podveden zpravodajským phishingem umělý.
Powell údajně obdržel hovor, ve kterém se AI vydávala za prezidenta Ukrajiny Volodymyra Zelenského. Později se zjistilo, že nešlo o nic jiného než o podvrh, který někteří zahálející Rusové hráli na Jeroma. Každopádně výstraha byla zapnutá.
Doručování malwaru
Další znepokojivá schopnost umělé inteligence souvisí s šířením a vylepšováním malwaru, což jsou v podstatě počítačové viry.
Lisa Palmer vysvětluje, že kyberzločinci používají tento škodlivý software ke krádeži uživatelských informací. „Samozřejmě by to byly věci jako vaše hesla k bankovním systémům, vaše hesla k lékařským záznamům, vaše hesla ve školních záznamech vašich dětí, ať už je to cokoliv, cokoli, co je chráněno,“ řekl. ona.
Podle Lisy lze pomocí umělé inteligence poukázat na způsoby, jakými hackeři může následovat a získat přístup i k chráněným strojům, jako jsou vládní počítače a velké společnosti.
Včetně hlavních cílů těchto delikventů jsou vysoce postavení jednotlivci, jako jsou ministři států, velcí podnikatelé, zákonodárci a dokonce i prezidenti.
Ransomware je další hrozbou, která je vylepšována pomocí umělé inteligence. „[ransomware] převezmou kontrolu nad vaším systémem, změní vaše hesla, uzamknou vás ze svých vlastních systémů a požadují výkupné,“ vysvětluje vážně.
Vládní agentury a společnosti zabývající se kybernetickou bezpečností si po celém světě již uvědomují negativní využití, které AI může mít.
V několika zemích se již vypracovávají specifické právní předpisy a bezpečnostní protokoly pro kontrolu této záležitosti.