Záležitosti okolo budúcnosti umelej inteligencie (AI) sú na celom svete stále horúce.
Téma sa stala ešte aktuálnejšou po tom, čo sa renomovaní manažéri a prestížni vedci rozhodli odhaliť svoje obavy. Niektorí dokonca veria v schopnosť ľudí v priebehu času anihilovať.
pozrieť viac
Odborníci tvrdia, že AI je silou dobra
V oblasti vývoja AI Čína napreduje, zatiaľ čo USA…
Ale, je to možné?
Pozri tiež: Objavte 5 povolaní, ktoré vznikli vďaka umelej inteligencii
Otvorený list varuje pred nebezpečenstvom AI
Otvorený list zverejnený 30. mája obsahoval podpis tých, ktorí sú zodpovední za veľké spoločnosti ako OpenAI a Google DeepMind. V skutočnosti sa podpísali aj Goffrey Hinton a Yoshua Bengio a títo dvaja sú považovaní za „krstných otcov“ modernej AI.
Cieľ signatárov bol len jeden: pokúsiť sa znížiť potenciálne škodlivé účinky, ktoré môže AI spôsobiť. Tento problém by sa mal riešiť ako globálna núdzová situácia porovnateľná s pandémiami a jadrovými vojnami.
Obavy mnohých ľudí posilnil aj článok neziskovej organizácie Center for Ai Safaty. Generálnym riaditeľom organizácie je Dan Hendrycks, ktorý je uznávaným odborníkom na AI.
Text s názvom „Prirodzený výber uprednostňuje AI pred ľuďmi“ hovorí o prirodzenom výbere, ktorý uprednostňuje AI oveľa viac ako ľudí.
Ako môže AI vyhladiť ľudí?
Po prvé, vedzte, že záujem vedcov nie je o jednoduchších nástrojoch, ako je ChatGPT a iná AI, ktorá dokáže robiť obrázky, napr.
Hovoria o budúcich inteligenciách schopných nadobudnúť vedomie a konať na základe toho, čo „chcú“, a nie toho, čo im bolo prikázané.
Podľa výskumníkov a vedúcich pracovníkov by AI tejto úrovne bola schopná akcií, ako je vytváranie alebo uvoľňovanie vysoko smrteľné pre ľudstvo, šíriť s mimoriadnou účinnosťou rôzny lživý a zavádzajúci obsah, spúšťať jadrové bomby, atď.
Vo všeobecnosti existuje obava, že stroj, ktorý by dospel k záveru, že ľudia sú zlo, proti ktorému treba bojovať, by ľahko vyhladil druhy z povrchu Zeme.
Takémuto katastrofickému scenáru by predchádzala devastácia trhu práce a príležitosti pre ľudí, okrem iných dôsledkov nerozlišujúceho využívania umelej inteligencie.