Сверхразумные системы уже создаются и распространяются по всему миру благодаря технологической гонке. В связи с этим возникают вопросы: возможно ли управлять искусственным интеллектом как далеко? Насколько мы готовы бороться с ИИ что выходит за рамки человеческих возможностей? Насколько этично создавать программу, последствия и влияние которой еще нельзя измерить? Смотрите теперь больше информации об этих вопросах, заданных учеными.
Читать далее: 7 применений искусственного интеллекта: некоторые уже заменяют человеческий труд
узнать больше
Внимание: ЭТО ядовитое растение привело молодого человека в больницу
Google разрабатывает инструмент искусственного интеллекта, чтобы помочь журналистам…
Искусственный интеллект со сверхразумом
Звучит как сюжет научно-фантастического фильма, но правда в том, что искусственный интеллект действительно может создать автономию для изучения команд, которые впоследствии могут обернуться против людей. Не гарантируется, например, что они будут следовать таким правилам, как «не причинять вреда человечеству», поскольку что они будут запрограммированы на автономию и смогут обходить ограничения, установленные программисты.
Проблема остановки Алана Тьюринга
Названная «проблемой остановки», эта проблема дает две альтернативы команде, отдаваемой компьютеру: либо она будет прийти к выводу и либо ответить на него остановкой, либо будет продолжаться в цикле, пытаясь найти решение — до тех пор, пока Найди ее. По этой причине невозможно знать, остановится ли искусственный интеллект, или же он найдет и сохранит в своей памяти все возможные выводы.
Проблема в том, что через какое-то время невозможно измерить, какое решение или альтернативу выберет машина для данной проблемы. Таким образом, его поведение будет непредсказуемым, и создавать алгоритм сдерживания будет бессмысленно.
Расхождения во мнениях ученых
Некоторые ученые утверждают, что все достижения в области технологий должны быть направлены на обеспечение общего блага безопасным и контролируемым образом. Таким образом, супермашина, способная хранить любой тип интеллекта, с неэффективными возможностями сдерживания и еще неизмеримой способностью к разрушению, кажется чем-то опасным.
Имея это в виду, исследователи вычислительной техники заявляют, что вред сверхразумных машин может перевешивать преимущества, и их создания следует избегать. Многие программисты постоянно сталкиваются с тем, что их машины научились делать то, чего они никогда не умели. учили или создавали команды для их изучения - и это, в зависимости от того, что они изучают, может символизировать риск.
этические вопросы
Ограничение возможностей сверхразума может быть жизнеспособной альтернативой. Для этого можно отрезать его от частей интернета или от определенных сетей. Это были бы примеры механизмов сдерживания. Однако пока неизвестно, жизнеспособны ли эти альтернативы или будет ли машина иметь доступ к этому содержимому способом, который еще предстоит раскрыть.
Поэтому, если человечество продолжит развиваться с помощью искусственного интеллекта, необходимо быть очень осторожным с тем, в какой степени он должен быть автономным.