A technológiai verseny miatt a szuperintelligens rendszereket már most is létrehozzák és terjesztik szerte a világon. Emiatt felmerül néhány kérdés: lehetséges-e irányítani a mesterséges intelligenciát milyen messze? Mennyire vagyunk készek a harcra a AI ami meghaladja az emberi képességeket? Mennyire etikus olyan programot létrehozni, amelynek következményei és hatásai még nem mérhetők? Tekintse meg most a tudósok által feltett kérdésekkel kapcsolatos további információkat.
Olvass tovább: A mesterséges intelligencia 7 alkalmazása: néhány már helyettesíti az emberi munkát
többet látni
Figyelmeztetés: EZ a mérgező növény egy fiatal férfit kórházba juttatott
A Google mesterséges intelligencia eszközt fejleszt, hogy segítse az újságírókat…
Mesterséges intelligencia szuperintelligenciával
Úgy hangzik, mint egy sci-fi film cselekménye, de az igazság az, hogy egy mesterséges intelligencia valóban képes autonómiát teremteni olyan parancsok megtanulására, amelyek később az emberek ellen fordulhatnak. Nem garantált például, hogy betartják a „ne okozzon kárt az emberiségnek” szabályait, hiszen hogy önállóságra lesznek programozva, és meg tudják kerülni az általuk szabott korlátokat programozók.
Alan Turing leállási probléma
A „leállítási problémának” nevezett probléma két alternatívát ad a számítógépnek adott parancsra: vagy megteszi jöjjön egy következtetésre, és vagy válaszoljon rá megállással, vagy egy hurokban folytatja a megoldást – amíg Találd meg őt. Emiatt nem lehet tudni, hogy a mesterséges intelligencia leáll-e, vagy minden lehetséges következtetést megtalál és eltárol a memóriájában.
Ezzel az a baj, hogy egy idő után nem lehet lemérni, hogy egy adott problémára melyik megoldást, alternatívát választja a gép. Így a viselkedése kiszámíthatatlan lesz, és értelmetlen lesz elzárkózási algoritmust létrehozni.
Eltérések a tudósok véleménye között
Egyes tudósok azzal érvelnek, hogy a technológia minden fejlődését úgy kell megtervezni, hogy biztonságos és ellenőrzött módon mozdítsa elő a közjót. Ilyen módon veszélyesnek tűnik egy szupergép, amely bármilyen típusú intelligenciát képes tárolni, nem hatékony visszatartó erővel és még mérhetetlen pusztítóképességgel.
Ezt szem előtt tartva a számítástechnikai kutatók azt állítják, hogy a szuperintelligens gépek olyan károkat okozhatnak, amelyek meghaladják az előnyöket, ezért konstrukciójukat kerülni kell. Sok programozó folyamatosan foglalkozik azzal a ténnyel, hogy a gépei olyan dolgokat tanultak meg, amikre soha nem tudtak. tanított vagy alkotott parancsokat, hogy megtanulják – és ez attól függően, hogy mit tanulnak, szimbolizálhatja a kockázat.
etikai kérdések
A szuperintelligencia képességeinek korlátozása életképes alternatíva lehet. Ehhez le lehet vágni az internet egyes részeiről vagy bizonyos hálózatokról. Ezek példák lennének a visszatartó mechanizmusokra. Azt azonban még nem tudni, hogy ezek az alternatívák életképesek-e – illetve, hogy a gép hozzáférne-e ezekhez a tartalmakhoz olyan módon, amit még nem árultak el.
Ezért, ha az emberiség továbbra is fejlődik a mesterséges intelligenciával, nagyon óvatosnak kell lenni azzal, hogy milyen mértékben kell autonómnak lennie.