Naukowcy twierdzą, że superinteligentna sztuczna inteligencja będzie nie do opanowania

Superinteligentne systemy są już tworzone i rozpowszechniane na całym świecie z powodu wyścigu technologicznego. Z tego powodu nasuwają się pytania: czy to możliwe sterować sztuczną inteligencją jak daleko? Jak jesteśmy gotowi do walki z sztuczna inteligencja działa ponad ludzkie możliwości? Jak etyczne jest tworzenie programu, którego konsekwencji i wpływu nie można jeszcze zmierzyć? Zobacz teraz więcej informacji na temat pytań zadawanych przez naukowców.

Czytaj więcej: 7 zastosowań sztucznej inteligencji: niektóre już zastępują ludzką pracę

Zobacz więcej

Uwaga: TA trująca roślina spowodowała, że ​​młody mężczyzna wylądował w szpitalu

Google opracowuje narzędzie AI, które pomoże dziennikarzom w…

Sztuczna inteligencja z superinteligencją

Brzmi to jak fabuła filmu science fiction, ale prawda jest taka, że ​​sztuczna inteligencja może rzeczywiście stworzyć autonomię, aby uczyć się poleceń, które mogą później obrócić się przeciwko ludziom. Nie ma na przykład gwarancji, że będą przestrzegać zasad takich jak „nie szkodzić ludzkości”, ponieważ że zostaną zaprogramowane tak, aby miały autonomię i mogły obchodzić ograniczenia narzucone przez programiści.

Problem zatrzymania Alana Turinga

Nazywany „problemem zatrzymania”, problem ten daje dwie alternatywy dla polecenia wydanego komputerowi: albo tak się stanie dojść do wniosku i albo odpowiedzieć na to zatrzymaniem, albo będzie kontynuować w pętli, próbując znaleźć rozwiązanie – aż Znajdź ją. Z tego powodu nie wiadomo, czy sztuczna inteligencja się zatrzyma, czy znajdzie i zapisze w swojej pamięci wszystkie możliwe wnioski.

Problem polega na tym, że po pewnym czasie nie można zmierzyć, które rozwiązanie lub alternatywę przyjmie maszyna dla danego problemu. W ten sposób jego zachowanie będzie nieprzewidywalne i tworzenie algorytmu powstrzymującego nie będzie miało sensu.

Rozbieżności między opiniami naukowców

Niektórzy naukowcy twierdzą, że wszystkie postępy w technologii muszą być zaprojektowane tak, aby promować wspólne dobro w bezpieczny i kontrolowany sposób. W ten sposób supermaszyna zdolna do przechowywania wszelkiego rodzaju informacji wywiadowczych, o nieefektywnych zdolnościach powstrzymywania i wciąż niezmierzonej zdolności niszczenia, wydaje się czymś niebezpiecznym.

Mając to na uwadze, informatycy twierdzą, że superinteligentne maszyny mogą powodować szkody przewyższające korzyści i należy unikać ich budowy. Wielu programistów nieustannie zmaga się z faktem, że ich maszyny nauczyły się robić rzeczy, których nigdy nie potrafiły. nauczał lub tworzył dla nich polecenia do nauczenia się – a to, w zależności od tego, czego się uczą, może symbolizować ryzyko.

Zagadnienia etyczne

Realną alternatywą może być ograniczenie możliwości superinteligencji. W tym celu możliwe jest odcięcie go od części internetu lub niektórych sieci. Byłyby to przykłady mechanizmów powstrzymujących. Jednak nie wiadomo jeszcze, czy te alternatywy są wykonalne – lub czy maszyna miałaby dostęp do tych treści w sposób, który jeszcze nie został ujawniony.

Dlatego, jeśli ludzkość będzie nadal rozwijać sztuczną inteligencję, należy bardzo uważać na stopień, w jakim musi być autonomiczna.

Złudzenie optyczne: czy widzisz pływającego kotka?

Złudzenie optyczne: czy widzisz pływającego kotka?

Kto nie lubi kociąt, prawda? Nie ma nic lepszego niż mieszanie tych kociąt i kilku ciekawostek, j...

read more

Anac udostępnia iFood, aby dostarczać zamówienia dronami w Brazylii

Po zrewolucjonizowaniu systemu dostaw od czasu jego wprowadzenia na rynek, iFood zrobił kolejny w...

read more

Nowy samochód na 2023 rok? Zobacz 3 tańsze opcje od 0 km

W nadchodzącym roku jednym z Twoich celów może być zakup samochodu, który przebiegnie zero kilome...

read more