A tudósok szerint a szuperintelligens mesterséges intelligencia irányíthatatlan lesz

A technológiai verseny miatt a szuperintelligens rendszereket már most is létrehozzák és terjesztik szerte a világon. Emiatt felmerül néhány kérdés: lehetséges-e irányítani a mesterséges intelligenciát milyen messze? Mennyire vagyunk készek a harcra a AI ami meghaladja az emberi képességeket? Mennyire etikus olyan programot létrehozni, amelynek következményei és hatásai még nem mérhetők? Tekintse meg most a tudósok által feltett kérdésekkel kapcsolatos további információkat.

Olvass tovább: A mesterséges intelligencia 7 alkalmazása: néhány már helyettesíti az emberi munkát

többet látni

Figyelmeztetés: EZ a mérgező növény egy fiatal férfit kórházba juttatott

A Google mesterséges intelligencia eszközt fejleszt, hogy segítse az újságírókat…

Mesterséges intelligencia szuperintelligenciával

Úgy hangzik, mint egy sci-fi film cselekménye, de az igazság az, hogy egy mesterséges intelligencia valóban képes autonómiát teremteni olyan parancsok megtanulására, amelyek később az emberek ellen fordulhatnak. Nem garantált például, hogy betartják a „ne okozzon kárt az emberiségnek” szabályait, hiszen hogy önállóságra lesznek programozva, és meg tudják kerülni az általuk szabott korlátokat programozók.

Alan Turing leállási probléma

A „leállítási problémának” nevezett probléma két alternatívát ad a számítógépnek adott parancsra: vagy megteszi jöjjön egy következtetésre, és vagy válaszoljon rá megállással, vagy egy hurokban folytatja a megoldást – amíg Találd meg őt. Emiatt nem lehet tudni, hogy a mesterséges intelligencia leáll-e, vagy minden lehetséges következtetést megtalál és eltárol a memóriájában.

Ezzel az a baj, hogy egy idő után nem lehet lemérni, hogy egy adott problémára melyik megoldást, alternatívát választja a gép. Így a viselkedése kiszámíthatatlan lesz, és értelmetlen lesz elzárkózási algoritmust létrehozni.

Eltérések a tudósok véleménye között

Egyes tudósok azzal érvelnek, hogy a technológia minden fejlődését úgy kell megtervezni, hogy biztonságos és ellenőrzött módon mozdítsa elő a közjót. Ilyen módon veszélyesnek tűnik egy szupergép, amely bármilyen típusú intelligenciát képes tárolni, nem hatékony visszatartó erővel és még mérhetetlen pusztítóképességgel.

Ezt szem előtt tartva a számítástechnikai kutatók azt állítják, hogy a szuperintelligens gépek olyan károkat okozhatnak, amelyek meghaladják az előnyöket, ezért konstrukciójukat kerülni kell. Sok programozó folyamatosan foglalkozik azzal a ténnyel, hogy a gépei olyan dolgokat tanultak meg, amikre soha nem tudtak. tanított vagy alkotott parancsokat, hogy megtanulják – és ez attól függően, hogy mit tanulnak, szimbolizálhatja a kockázat.

etikai kérdések

A szuperintelligencia képességeinek korlátozása életképes alternatíva lehet. Ehhez le lehet vágni az internet egyes részeiről vagy bizonyos hálózatokról. Ezek példák lennének a visszatartó mechanizmusokra. Azt azonban még nem tudni, hogy ezek az alternatívák életképesek-e – illetve, hogy a gép hozzáférne-e ezekhez a tartalmakhoz olyan módon, amit még nem árultak el.

Ezért, ha az emberiség továbbra is fejlődik a mesterséges intelligenciával, nagyon óvatosnak kell lenni azzal, hogy milyen mértékben kell autonómnak lennie.

A zöld tea előnyei

A zöld tea a levelekből származik Camellia sinensis. Ez a növény kínai eredetű, és japán buddhist...

read more

Tályog. A tályog okai és kezelése

tályogok bakteriális fertőzések okozzák. A test különböző szerveiben és szöveteiben előfordulhatn...

read more

Hyperecplexia: mozgászavar

A hipereplexia a mozgászavar amelyet annak ellenére, hogy súlyos, kevéssé tanulmányoztak, talán a...

read more