Superälykkäitä järjestelmiä luodaan jo ja levitetään ympäri maailmaa teknologisen kilpailun vuoksi. Tästä syystä herää joitain kysymyksiä: onko se mahdollista hallita tekoälyä kuinka kaukana? Kuinka valmiita olemme taistelemaan a AI joka toimii yli ihmisen kyvyn? Kuinka eettistä on luoda ohjelma, jonka seurauksia ja vaikutuksia ei voida vielä mitata? Katso nyt lisätietoja näistä tutkijoiden esittämistä kysymyksistä.
Lue lisää: 7 tekoälyn sovellusta: jotkut korvaavat jo ihmistyön
Katso lisää
Varoitus: TÄMÄ myrkyllinen kasvi joutui nuoren miehen sairaalaan
Google kehittää tekoälytyökalua auttamaan toimittajia…
Tekoäly superälyn kanssa
Se kuulostaa scifi-elokuvan juonelta, mutta totuus on, että tekoäly voi todellakin luoda autonomian oppiakseen käskyjä, jotka voivat myöhemmin kääntyä ihmisiä vastaan. Ei esimerkiksi voida taata, että he noudattavat sääntöjä, kuten "älä aiheuta vahinkoa ihmiskunnalle", koska että ne ohjelmoidaan itsenäisiksi ja voivat kiertää asettamat rajat ohjelmoijat.
Alan Turingin pysäytysongelma
"Pysäytysongelmaksi" kutsuttu ongelma antaa kaksi vaihtoehtoa tietokoneelle annetulle komennolle: joko se tekee tule johtopäätökseen ja joko vastaa siihen pysähtymällä tai se jatkaa silmukassa, joka yrittää löytää ratkaisun – kunnes löydä hänet. Tästä syystä on mahdotonta tietää, pysähtyykö tekoäly vai löytääkö ja tallentaako se kaikki mahdolliset johtopäätökset muistiinsa.
Ongelma tässä on se, että hetken kuluttua ei ole mahdollista mitata, minkä ratkaisun tai vaihtoehdon kone ottaa tietylle ongelmalle. Tällä tavalla sen käyttäytyminen on arvaamatonta ja on turhaa luoda suojausalgoritmia.
Tiedemiesten mielipiteiden erot
Jotkut tutkijat väittävät, että kaikki tekniikan edistysaskeleet on suunniteltava edistämään yhteistä hyvää turvallisesti ja hallitusti. Tällä tavoin superkone, joka pystyy tallentamaan kaikenlaisia älykkyyttä, tehotonta torjuntakykyä ja vielä mittaamatonta tuhoamiskykyä, näyttää joltakin vaaralliselta.
Tätä silmällä pitäen tietojenkäsittelytutkijat väittävät, että superälykkäillä koneilla voi olla haittoja, jotka ovat suuremmat kuin hyödyt, ja niiden rakentamista tulisi välttää. Monet ohjelmoijat käsittelevät jatkuvasti sitä tosiasiaa, että heidän koneensa ovat oppineet tekemään asioita, joita he eivät koskaan voineet. opetti tai loi käskyjä heidän oppiakseen - ja tämä, riippuen siitä, mitä he oppivat, voi symboloida a riski.
eettiset ongelmat
Superälykyvyn rajoittaminen voi olla varteenotettava vaihtoehto. Tätä varten se on mahdollista katkaista Internetin osista tai tietyistä verkoista. Nämä olisivat esimerkkejä eristämismekanismeista. Vielä ei kuitenkaan tiedetä, ovatko nämä vaihtoehdot käyttökelpoisia – vai pääsisikö kone käsiksi näihin sisältöihin tavalla, jota ei vielä paljasteta.
Siksi, jos ihmiskunta jatkaa edistymistä tekoälyn kanssa, on välttämätöntä olla erittäin varovainen sen suhteen, missä määrin sen on oltava itsenäinen.