초지능 시스템은 기술 경쟁으로 인해 이미 전 세계적으로 생성 및 보급되고 있습니다. 이러한 이유로 몇 가지 질문이 발생합니다. 가능합니까? 제어 인공 지능 얼마나 멀리? 우리는 얼마나 싸울 준비가 되어 있습니까? 일체 포함 인간의 능력을 넘어서는 일? 결과와 영향을 아직 측정할 수 없는 프로그램을 만드는 것이 얼마나 윤리적인가? 과학자들이 묻는 이러한 질문에 대한 자세한 정보를 지금 확인하십시오.
더 읽어보기: 인공 지능의 7가지 응용 프로그램: 일부는 이미 인간의 노동력을 대체합니다.
더보기
경고: 이 유독한 식물이 젊은 남자를 병원에 데려다 주었습니다.
구글, 언론인 돕는 AI 도구 개발…
초지능을 갖춘 인공 지능
공상 과학 영화의 줄거리처럼 들리지만 사실은 인공 지능이 실제로 나중에 인간에게 등을 돌릴 수 있는 명령을 학습하는 자율성을 만들 수 있다는 것입니다. 예를 들어 "인류에게 해를 끼치지 않는다"와 같은 규칙을 따를 것이라는 보장은 없습니다. 그들은 자율성을 갖도록 프로그래밍되고 다음에 의해 부과된 제한을 피할 수 있습니다. 프로그래머.
앨런 튜링 정지 문제
"정지 문제"라고 하는 이 문제는 컴퓨터에 주어진 명령에 대해 두 가지 대안을 제공합니다. 결론에 도달하고 중지하여 응답하거나 솔루션을 찾으려고 루프를 계속합니다. 그녀를 찾아. 이 때문에 인공지능이 멈출지, 가능한 모든 결론을 찾아 메모리에 저장할지 알 수 없다.
이것의 문제는 주어진 문제에 대해 기계가 어떤 해결책이나 대안을 취할 것인지 잠시 후에 측정할 수 없다는 것입니다. 이렇게 하면 동작을 예측할 수 없으며 포함 알고리즘을 만드는 것이 무의미합니다.
과학자들의 의견 차이
일부 과학자들은 모든 기술 발전이 안전하고 통제된 방식으로 공동선을 증진하도록 설계되어야 한다고 주장합니다. 이런 식으로 모든 유형의 지능을 저장할 수 있고 비효율적인 억제력과 아직 측정되지 않은 파괴 능력을 가진 슈퍼 머신은 위험한 것으로 보입니다.
이를 염두에 두고 컴퓨팅 연구자들은 초지능형 기계가 이점보다 더 큰 해를 끼칠 수 있으므로 이러한 기계의 구성을 피해야 한다고 주장합니다. 많은 프로그래머는 자신의 기계가 결코 할 수 없는 일을 하도록 학습되었다는 사실을 끊임없이 다룹니다. 그들이 배울 수 있도록 가르치거나 만든 명령 - 이것은 그들이 배우는 내용에 따라 다음을 상징할 수 있습니다. 위험.
윤리적 문제
초지능 능력을 제한하는 것이 실행 가능한 대안이 될 수 있습니다. 이를 위해 인터넷의 일부 또는 특정 네트워크에서 차단할 수 있습니다. 이것들은 봉쇄 메커니즘의 예가 될 것입니다. 그러나 이러한 대안이 실행 가능한지 또는 기계가 아직 공개되지 않은 방식으로 이러한 콘텐츠에 액세스할 수 있는지 여부는 아직 알려지지 않았습니다.
따라서 인류가 인공지능으로 계속 발전한다면 어느 정도까지 자율적이어야 하는지에 대해 각별한 주의가 필요하다.