おそらく、ChatGPT を使用しているか、少なくとも聞いたことがあるでしょう。 人工知能ツールはここ数カ月で「ブーム」となり、質問に答えたり、より複雑な仕事を実行したりするための「ハンドルを握る」役割を果たしています。
しかし、このシステムには暗い秘密が隠されており、その作成者はそれを知っています。 彼らは知っているだけでなく、それに対する責任も負っています。
続きを見る
Google、ジャーナリストを支援する AI ツールを開発…
未開封のオリジナルの 2007 年製 iPhone は 20 万ドル近くで取引されています。 知る...
による OpenAI、ツールChatGPTを作成した会社は、「幻覚」に苦しんでいます。 つまり、時には誤った情報を与える可能性があるということです。
この状況は先週水曜日、5月31日に同社によって発表された。 さらに、AI をトレーニングするための、より新しく強力な方法も発表しました。
この ChatGPT の不正な動作を修正することがなぜ重要なのでしょうか?
基本的な説明は、人々が日常生活でこのツールを頻繁に使用しているということです。 したがって、ChatGPT がそれを使用する人に信頼できる情報を渡すことが不可欠です。
たとえば、次のように使用すると、 AI学校の課題テキストを改善したり、特定のレシピを探したりするには、そこにある情報が正しいことが不可欠です。
さらに、チャットボットユーザーの増加により、誤った情報が真実であるかのように簡単に拡散してしまう可能性があります。
そして、これは、米国選挙が始まる来年、大きな頭痛の種を引き起こす可能性があり、これはここブラジルにも波及する可能性があります。
「最先端のモデルであっても虚偽を生み出す傾向があり、不確実な瞬間には事実をでっち上げる傾向が見られます。 これらの幻覚は、多段階の推論を必要とする領域で特に問題になります。 なぜなら、単一の論理エラーがはるかに大規模なソリューションを狂わせるのに十分だからです」と OpenAI は述べています。 伝わりました。
修正するにはどうすればよいですか?
OpenAIは、「幻覚」と戦うために新しい戦略を使用すると報告した。 チャットGPT: AI モデルをトレーニングして、正しいステップごとに自分自身に報酬を与えます。 最後に完全な答えを彼女に与えるだけではなく。
「モデルの論理エラーや幻覚を検出して軽減することは、全体的に調整された AI を構築するための重要なステップです。 この研究の背後にある動機は、幻覚に対処してモデルの能力を高めることです。 複雑な推論問題を解決します」と数学研究者のカール・コッベ氏は説明しました。 会社。
ゴイアス連邦大学でソーシャルコミュニケーションを卒業。 デジタル メディア、ポップ カルチャー、テクノロジー、政治、精神分析に情熱を注いでいます。