科学者たちは、超インテリジェントな人工知能は制御不能になるだろうと言う

超インテリジェント システムは、技術競争によりすでに世界中で作成され、普及しています。 このため、次のような疑問が生じます。 人工知能を制御する どこまで? 戦う準備ができているか AI それは人間の能力を超えて機能しますか? 結果や影響がまだ測定できないプログラムを作成することは、どの程度倫理的でしょうか? 科学者によるこれらの質問についての詳細を今すぐご覧ください。

続きを読む: 人工知能の 7 つの応用例: 一部はすでに人間の労働力に取って代わります

続きを見る

警告: この有毒植物により、若者が病院に運ばれました

Google、ジャーナリストを支援する AI ツールを開発…

超知能を備えた人工知能

まるで SF 映画のプロットのように聞こえますが、実際のところ、人工知能は実際に自律性を生み出し、後に人間に敵対する可能性のあるコマンドを学習できるのです。 たとえば、彼らが「人類に危害を与えない」などの規則に従うという保証はありません。 彼らは自律性を持ち、社会によって課せられた制限を回避できるようにプログラムされるだろうということです。 プログラマー。

アラン・チューリングの停止問題

「停止問題」と呼ばれるこの問題では、コンピュータに与えられるコマンドに対して 2 つの選択肢が与えられます。 結論に達し、停止してそれに応答するか、解決策を見つけるためにループを継続します。 彼女を見つけます。 このため、人工知能が停止するかどうか、あるいは考えられるすべての結論を見つけてメモリに保存するかどうかを知ることは不可能です。

これの問題は、特定の問題に対してマシンがどの解決策や代替案を採用するのか、しばらく経つと測定できなくなることです。 このようにすると、その動作は予測不可能になり、封じ込めアルゴリズムを作成するのは無意味になります。

科学者の意見の相違

一部の科学者は、テクノロジーの進歩はすべて、安全かつ管理された方法で共通の利益を促進するように設計されなければならないと主張しています。 このように、あらゆる種類の情報を保存できるスーパーマシンは、非効率な封じ込め能力とまだ測定されていない破壊能力を備えているが、何か危険なもののように思えます。

これを念頭に置いて、コンピューティング研究者らは、超知能マシンには利点を上回る害がある可能性があり、その構築は避けるべきだと主張している。 多くのプログラマーは、自分のマシンが決してできなかったことができるようになったという事実に常に対処しています。 彼らが学ぶためにコマンドを教えたり作成したりする - そしてこれは、彼らが学んだ内容に応じて、 危険。

倫理的問題

スーパーインテリジェンス機能を制限することが実行可能な代替案になる可能性があります。 これを行うには、インターネットの一部または特定のネットワークからそれを遮断することが可能です。 これらは封じ込めメカニズムの例です。 ただし、これらの代替手段が実行可能であるかどうか、またはまだ明らかにされていない方法でマシンがこれらのコンテンツにアクセスできるかどうかはまだ不明です。

したがって、人類が人工知能の進歩を続ける場合、どこまで自律性を持たせる必要があるかについては細心の注意を払う必要があります。

これらのドライバーの IPVA 2023 はすでに参照できます。 チェックアウト!

これらのドライバーの IPVA 2023 はすでに参照できます。 チェックアウト!

12月20日には自動車固定資産税の納付カレンダー(IPVA)サンパウロ州の2023年が公開されました。 開示によると、税金は最大5回に分けて支払うことができる。 現金での支払いを希望するドライバ...

read more
サンパウロ政府はすでにIPVAの2023年の支払いスケジュールを発表している

サンパウロ政府はすでにIPVAの2023年の支払いスケジュールを発表している

支払いスケジュール IPVA2023 サンパウロ州の判決は12月20日にリリースされた。 自動車保有税は最大5回まで分割して納めることができます。 税金を現金で一括で支払うことを希望する場合は、...

read more

IPVA 2023 の支払いが遅れると、非常に重い罰金が科せられる可能性があります

IPVA は自動車所有税です。 この税の金額、条件、税率は居住国によって定義されます。 2023 年に向けて、いくつかの連盟がすでにこの税の支払いスケジュールの開示を開始しており、その遅れは非常...

read more