Vědci tvrdí, že superinteligentní umělá inteligence bude nekontrolovatelná

protection click fraud

Superinteligentní systémy se již vytvářejí a šíří po celém světě kvůli technologickému závodu. Z tohoto důvodu vyvstávají některé otázky: je to možné ovládat umělou inteligenci jak daleko? Jak jsme připraveni bojovat a AI že to funguje nad lidské kapacity? Jak etické je vytvořit program, jehož důsledky a dopady ještě nelze měřit? Podívejte se nyní na další informace o těchto otázkách kladených vědci.

Přečtěte si více: 7 aplikací umělé inteligence: některé již nahrazují lidskou práci

vidět víc

Upozornění: TATO jedovatá rostlina přivedla mladého muže do nemocnice

Google vyvíjí nástroj AI, který má novinářům pomoci v…

Umělá inteligence se superinteligencí

Zní to jako zápletka ze sci-fi filmu, ale pravdou je, že umělá inteligence skutečně dokáže vytvořit autonomii, aby se naučila příkazy, které se později mohou obrátit proti lidem. Není například zaručeno, že se budou řídit pravidly jako „nezpůsobit újmu lidstvu“. že budou naprogramováni tak, aby měli autonomii a mohli obcházet limity stanovené tím programátory.

instagram story viewer

Problém zastavení Alan Turing

Tento problém, nazývaný „problém zastavení“, poskytuje dvě alternativy příkazu zadaného počítači: buď bude dojít k závěru a buď na něj reagovat zastavením, nebo bude pokračovat ve smyčce ve snaze najít řešení – dokud Najdi ji. Z tohoto důvodu nelze vědět, zda se umělá inteligence zastaví, nebo zda si všechny možné závěry najde a uloží do paměti.

Problém je v tom, že není možné po chvíli změřit, jaké řešení nebo alternativu stroj pro daný problém zvolí. Tímto způsobem bude jeho chování nepředvídatelné a bude zbytečné vytvářet zadržovací algoritmus.

Rozdíly mezi názory vědců

Někteří vědci tvrdí, že všechny pokroky v technologii musí být navrženy tak, aby podporovaly obecné dobro bezpečným a kontrolovaným způsobem. Tímto způsobem se superstroj schopný uchovat všechny typy inteligence, s neefektivními zadržovacími schopnostmi a stále nezměřenou schopností ničení, jeví jako něco nebezpečného.

S ohledem na to počítačoví výzkumníci tvrdí, že superinteligentní stroje mohou mít škody, které převažují nad výhodami, a jejich konstrukci je třeba se vyhnout. Mnoho programátorů neustále řeší, že se jejich stroje naučily dělat věci, které nikdy nedokázaly. učil nebo vytvářel příkazy, aby se učili - a to v závislosti na tom, co se učí, může symbolizovat a riziko.

etické problémy

Schůdnou alternativou může být omezení schopností superinteligence. K tomu je možné jej odříznout od částí internetu nebo od určitých sítí. To by byly příklady zadržovacích mechanismů. Zatím však není známo, zda jsou tyto alternativy životaschopné – nebo zda by stroj měl přístup k tomuto obsahu způsobem, který ještě nebyl odhalen.

Pokud tedy lidstvo pokračuje v pokroku s umělou inteligencí, je nutné být velmi opatrný s tím, do jaké míry musí být autonomní.

Teachs.ru
Hybridizace typu Sp3. Hybridizace uhlíku typu sp3

Hybridizace typu Sp3. Hybridizace uhlíku typu sp3

Podle modelu orbitalů vytvořeného Linusem Paulingem v roce 1960 byla kovalentní vazba, která tvoř...

read more

Malé evropské země. Co jsou malé evropské země?

Evropa má územní rozšíření 10,3 milionu čtverečních kilometrů a je rozdělena do 50 zemí. Mnoho ze...

read more

Sestavení základního vzorce

Je důležité, aby student věděl, jak provádět sestavení vzorce základnyprotože je to velmi žádaný ...

read more
instagram viewer