Tehnoloģiju sacīkšu dēļ superinteliģentās sistēmas jau tiek radītas un izplatītas visā pasaulē. Šī iemesla dēļ rodas daži jautājumi: vai tas ir iespējams kontrolēt mākslīgo intelektu cik tālu? Cik gatavi mēs esam cīņai a AI kas darbojas pāri cilvēka spējām? Cik ētiski ir izveidot programmu, kuras sekas un ietekmi vēl nevar izmērīt? Skatiet tagad vairāk informācijas par šiem zinātnieku uzdotajiem jautājumiem.
Lasīt vairāk: 7 mākslīgā intelekta pielietojumi: daži jau aizstāj cilvēku darbu
redzēt vairāk
Brīdinājums: ŠIS indīgais augs nogādāja slimnīcā jaunu vīrieti
Google izstrādā AI rīku, lai palīdzētu žurnālistiem…
Mākslīgais intelekts ar superintelektu
Tas izklausās pēc zinātniskās fantastikas filmas sižeta, taču patiesība ir tāda, ka mākslīgais intelekts patiešām var radīt autonomiju, lai apgūtu komandas, kas vēlāk var vērsties pret cilvēkiem. Piemēram, netiek garantēts, ka viņi ievēros tādus noteikumus kā “nenodara kaitējumu cilvēcei”, kopš ka tie tiks ieprogrammēti autonomijai un var apiet ierobežojumus, ko uzliek programmētājiem.
Alans Tjūrings apturēšanas problēma
Šī problēma, ko sauc par “apturēšanas problēmu”, dod divas alternatīvas datoram dotai komandai: vai nu tā tiks nonāc pie secinājuma un vai nu reaģē uz to, apstājoties, vai arī turpināsies ciklā, mēģinot atrast risinājumu – līdz atrast viņu. Šī iemesla dēļ nav iespējams zināt, vai mākslīgais intelekts apstāsies, vai arī tas atradīs un saglabās atmiņā visus iespējamos secinājumus.
Problēma ir tāda, ka pēc kāda laika nav iespējams izmērīt, kādu risinājumu vai alternatīvu iekārta izvēlēsies konkrētai problēmai. Tādā veidā tā uzvedība būs neparedzama un būs bezjēdzīgi izveidot ierobežošanas algoritmu.
Zinātnieku viedokļu atšķirības
Daži zinātnieki apgalvo, ka visi tehnoloģiju sasniegumi ir jāveido tā, lai drošā un kontrolētā veidā veicinātu kopējo labumu. Tādā veidā supermašīna, kas spēj uzglabāt jebkāda veida izlūkdatus, ar neefektīvām ierobežošanas spējām un joprojām neizmērītu iznīcināšanas spēju, šķiet kaut kas bīstams.
Paturot to prātā, skaitļošanas pētnieki apgalvo, ka superinteliģentām mašīnām var būt kaitējums, kas pārsniedz ieguvumus, un no to konstrukcijas ir jāizvairās. Daudzi programmētāji pastāvīgi saskaras ar faktu, ka viņu mašīnas ir iemācījušies darīt lietas, ko viņi nekad nav varējuši. mācīja vai radīja komandas, lai viņi varētu mācīties - un tas atkarībā no tā, ko viņi mācās, var simbolizēt a risks.
ētikas jautājumiem
Superinteliģences spēju ierobežošana var būt dzīvotspējīga alternatīva. Lai to izdarītu, to var atvienot no interneta daļām vai noteiktiem tīkliem. Tie būtu ierobežošanas mehānismu piemēri. Tomēr vēl nav zināms, vai šīs alternatīvas ir dzīvotspējīgas, vai arī iekārtai būtu piekļuve šim saturam tādā veidā, kas vēl nav atklāts.
Tāpēc, ja cilvēce turpina virzīties uz priekšu ar mākslīgo intelektu, ir jābūt ļoti uzmanīgiem ar to, cik lielā mērā tam jābūt autonomam.