Superinteligentne systemy są już tworzone i rozpowszechniane na całym świecie z powodu wyścigu technologicznego. Z tego powodu nasuwają się pytania: czy to możliwe sterować sztuczną inteligencją jak daleko? Jak jesteśmy gotowi do walki z sztuczna inteligencja działa ponad ludzkie możliwości? Jak etyczne jest tworzenie programu, którego konsekwencji i wpływu nie można jeszcze zmierzyć? Zobacz teraz więcej informacji na temat pytań zadawanych przez naukowców.
Czytaj więcej: 7 zastosowań sztucznej inteligencji: niektóre już zastępują ludzką pracę
Zobacz więcej
Uwaga: TA trująca roślina spowodowała, że młody mężczyzna wylądował w szpitalu
Google opracowuje narzędzie AI, które pomoże dziennikarzom w…
Sztuczna inteligencja z superinteligencją
Brzmi to jak fabuła filmu science fiction, ale prawda jest taka, że sztuczna inteligencja może rzeczywiście stworzyć autonomię, aby uczyć się poleceń, które mogą później obrócić się przeciwko ludziom. Nie ma na przykład gwarancji, że będą przestrzegać zasad takich jak „nie szkodzić ludzkości”, ponieważ że zostaną zaprogramowane tak, aby miały autonomię i mogły obchodzić ograniczenia narzucone przez programiści.
Problem zatrzymania Alana Turinga
Nazywany „problemem zatrzymania”, problem ten daje dwie alternatywy dla polecenia wydanego komputerowi: albo tak się stanie dojść do wniosku i albo odpowiedzieć na to zatrzymaniem, albo będzie kontynuować w pętli, próbując znaleźć rozwiązanie – aż Znajdź ją. Z tego powodu nie wiadomo, czy sztuczna inteligencja się zatrzyma, czy znajdzie i zapisze w swojej pamięci wszystkie możliwe wnioski.
Problem polega na tym, że po pewnym czasie nie można zmierzyć, które rozwiązanie lub alternatywę przyjmie maszyna dla danego problemu. W ten sposób jego zachowanie będzie nieprzewidywalne i tworzenie algorytmu powstrzymującego nie będzie miało sensu.
Rozbieżności między opiniami naukowców
Niektórzy naukowcy twierdzą, że wszystkie postępy w technologii muszą być zaprojektowane tak, aby promować wspólne dobro w bezpieczny i kontrolowany sposób. W ten sposób supermaszyna zdolna do przechowywania wszelkiego rodzaju informacji wywiadowczych, o nieefektywnych zdolnościach powstrzymywania i wciąż niezmierzonej zdolności niszczenia, wydaje się czymś niebezpiecznym.
Mając to na uwadze, informatycy twierdzą, że superinteligentne maszyny mogą powodować szkody przewyższające korzyści i należy unikać ich budowy. Wielu programistów nieustannie zmaga się z faktem, że ich maszyny nauczyły się robić rzeczy, których nigdy nie potrafiły. nauczał lub tworzył dla nich polecenia do nauczenia się – a to, w zależności od tego, czego się uczą, może symbolizować ryzyko.
Zagadnienia etyczne
Realną alternatywą może być ograniczenie możliwości superinteligencji. W tym celu możliwe jest odcięcie go od części internetu lub niektórych sieci. Byłyby to przykłady mechanizmów powstrzymujących. Jednak nie wiadomo jeszcze, czy te alternatywy są wykonalne – lub czy maszyna miałaby dostęp do tych treści w sposób, który jeszcze nie został ujawniony.
Dlatego, jeśli ludzkość będzie nadal rozwijać sztuczną inteligencję, należy bardzo uważać na stopień, w jakim musi być autonomiczna.