A tudósok szerint a szuperintelligens mesterséges intelligencia irányíthatatlan lesz

A technológiai verseny miatt a szuperintelligens rendszereket már most is létrehozzák és terjesztik szerte a világon. Emiatt felmerül néhány kérdés: lehetséges-e irányítani a mesterséges intelligenciát milyen messze? Mennyire vagyunk készek a harcra a AI ami meghaladja az emberi képességeket? Mennyire etikus olyan programot létrehozni, amelynek következményei és hatásai még nem mérhetők? Tekintse meg most a tudósok által feltett kérdésekkel kapcsolatos további információkat.

Olvass tovább: A mesterséges intelligencia 7 alkalmazása: néhány már helyettesíti az emberi munkát

többet látni

Figyelmeztetés: EZ a mérgező növény egy fiatal férfit kórházba juttatott

A Google mesterséges intelligencia eszközt fejleszt, hogy segítse az újságírókat…

Mesterséges intelligencia szuperintelligenciával

Úgy hangzik, mint egy sci-fi film cselekménye, de az igazság az, hogy egy mesterséges intelligencia valóban képes autonómiát teremteni olyan parancsok megtanulására, amelyek később az emberek ellen fordulhatnak. Nem garantált például, hogy betartják a „ne okozzon kárt az emberiségnek” szabályait, hiszen hogy önállóságra lesznek programozva, és meg tudják kerülni az általuk szabott korlátokat programozók.

Alan Turing leállási probléma

A „leállítási problémának” nevezett probléma két alternatívát ad a számítógépnek adott parancsra: vagy megteszi jöjjön egy következtetésre, és vagy válaszoljon rá megállással, vagy egy hurokban folytatja a megoldást – amíg Találd meg őt. Emiatt nem lehet tudni, hogy a mesterséges intelligencia leáll-e, vagy minden lehetséges következtetést megtalál és eltárol a memóriájában.

Ezzel az a baj, hogy egy idő után nem lehet lemérni, hogy egy adott problémára melyik megoldást, alternatívát választja a gép. Így a viselkedése kiszámíthatatlan lesz, és értelmetlen lesz elzárkózási algoritmust létrehozni.

Eltérések a tudósok véleménye között

Egyes tudósok azzal érvelnek, hogy a technológia minden fejlődését úgy kell megtervezni, hogy biztonságos és ellenőrzött módon mozdítsa elő a közjót. Ilyen módon veszélyesnek tűnik egy szupergép, amely bármilyen típusú intelligenciát képes tárolni, nem hatékony visszatartó erővel és még mérhetetlen pusztítóképességgel.

Ezt szem előtt tartva a számítástechnikai kutatók azt állítják, hogy a szuperintelligens gépek olyan károkat okozhatnak, amelyek meghaladják az előnyöket, ezért konstrukciójukat kerülni kell. Sok programozó folyamatosan foglalkozik azzal a ténnyel, hogy a gépei olyan dolgokat tanultak meg, amikre soha nem tudtak. tanított vagy alkotott parancsokat, hogy megtanulják – és ez attól függően, hogy mit tanulnak, szimbolizálhatja a kockázat.

etikai kérdések

A szuperintelligencia képességeinek korlátozása életképes alternatíva lehet. Ehhez le lehet vágni az internet egyes részeiről vagy bizonyos hálózatokról. Ezek példák lennének a visszatartó mechanizmusokra. Azt azonban még nem tudni, hogy ezek az alternatívák életképesek-e – illetve, hogy a gép hozzáférne-e ezekhez a tartalmakhoz olyan módon, amit még nem árultak el.

Ezért, ha az emberiség továbbra is fejlődik a mesterséges intelligenciával, nagyon óvatosnak kell lenni azzal, hogy milyen mértékben kell autonómnak lennie.

A segítséget kérő macska mémmé válik az interneten; tudja az okát

O macska segítségért kiált hatalmas nemzetközi mém lett. Az örökbefogadott Cream cica úgy döntött...

read more

Miért szunyókáljunk ebéd után?

Ebéd után gyakori, hogy elalszik, és úgy érzi, hogy szundikál. Kiderült, hogy a legújabb tanulmán...

read more

Az „Operação Escola Segura” figyelemmel kíséri a brazíliai támadásokat

A közelmúltban történt tragikus támadás egy iskolában Cambé városában (PR), amely két tinédzser h...

read more
instagram viewer