人工知能 (AI) は、私たちの日常生活に存在する最も先進的なテクノロジーの 1 つであり、データや情報を保護するだけでなく、人々のさまざまなタスクを支援するために使用されます。 しかし、チャットボットを使用して Microsoft のオペレーティング システムをハッキングする試みで明らかなように、あらゆる進歩にもかかわらず、AI には欠陥や脆弱性がないわけではありません。 チャットGPT.
ツール自体を使ったハッキング
続きを見る
警告: この有毒植物により、若者が病院に運ばれました
Google、ジャーナリストを支援する AI ツールを開発…
YouTube チャンネル「Enderman」に所属するインターネット ユーザーのグループは、対話ツールとして使用され AI を搭載した ChatGPT を通じて Microsoft のオペレーティング システムを回避しようとしました。 アイデアは、Windows 95 に有効なキーを生成することでした。
オペレーティング システムのハッキングの試みの結果は憂慮すべきものであり、AI の欠陥の存在が確認されただけでなく、このテクノロジーのリスクが社会にさらされました。
AI が引き起こす可能性のあるリスクの例としては、物品の盗難や違法な取引による生産などが挙げられます。
AIセキュリティの重要性
このエピソードは大きな反響と懸念を引き起こし、億万長者のイーロン・マスク氏さえも手紙を出版するに至った のエンジニアであるスティーブ・ウォズニアックとともに、研究と改善のためのプラットフォームの中断を要求しました。 りんご。
ChatGPT では、機密情報の共有を避けるために、提供する応答に制限があります。 質問が疑わしい場合、システムは否定的なメッセージを表示するか、会話を終了します。
しかし、インターネット ユーザーのグループはキーの 3.3% をアクティベートすることに成功し、制限されているはずの環境にアクセスできました。
AIの弱点
ChatGPT を介して Microsoft のオペレーティング システムをハッキングする試みは、AI の脆弱性とそれが社会にもたらす可能性のあるリスクを明らかにしました。
この種のインシデントの再発を防ぐためには、セキュリティへの投資とテクノロジーの向上の必要性を強調することが重要です。
さらに、企業と政府が協力してセキュリティ ポリシーを作成することが重要です。 AI 用の堅牢かつ効率的なツールにより、ユーザー情報とプライバシーが確実に保護されます。