ChatGPT: クリエイターが暗い秘密を暴露

おそらく、ChatGPT を使用しているか、少なくとも聞いたことがあるでしょう。 人工知能ツールはここ数カ月で「ブーム」となり、質問に答えたり、より複雑な仕事を実行したりするための「ハンドルを握る」役割を果たしています。

しかし、このシステムには暗い秘密が隠されており、その作成者はそれを知っています。 彼らは知っているだけでなく、それに対する責任も負っています。

続きを見る

Google、ジャーナリストを支援する AI ツールを開発…

未開封のオリジナルの 2007 年製 iPhone は 20 万ドル近くで取引されています。 知る...

による OpenAI、ツールChatGPTを作成した会社は、「幻覚」に苦しんでいます。 つまり、時には誤った情報を与える可能性があるということです。

この状況は先週水曜日、5月31日に同社によって発表された。 さらに、AI をトレーニングするための、より新しく強力な方法も発表しました。

この ChatGPT の不正な動作を修正することがなぜ重要なのでしょうか?

基本的な説明は、人々が日常生活でこのツールを頻繁に使用しているということです。 したがって、ChatGPT がそれを使用する人に信頼できる情報を渡すことが不可欠です。

たとえば、次のように使用すると、 AI学校の課題テキストを改善したり、特定のレシピを探したりするには、そこにある情報が正しいことが不可欠です。

さらに、チャットボットユーザーの増加により、誤った情報が真実であるかのように簡単に拡散してしまう可能性があります。

そして、これは、米国選挙が始まる来年、大きな頭痛の種を引き起こす可能性があり、これはここブラジルにも波及する可能性があります。

「最先端のモデルであっても虚偽を生み出す傾向があり、不確実な瞬間には事実をでっち上げる傾向が見られます。 これらの幻覚は、多段階の推論を必要とする領域で特に問題になります。 なぜなら、単一の論理エラーがはるかに大規模なソリューションを狂わせるのに十分だからです」と OpenAI は述べています。 伝わりました。

修正するにはどうすればよいですか?

OpenAIは、「幻覚」と戦うために新しい戦略を使用すると報告した。 チャットGPT: AI モデルをトレーニングして、正しいステップごとに自分自身に報酬を与えます。 最後に完全な答えを彼女に与えるだけではなく。

「モデルの論理エラーや幻覚を検出して軽減することは、全体的に調整された AI を構築するための重要なステップです。 この研究の背後にある動機は、幻覚に対処してモデルの能力を高めることです。 複雑な推論問題を解決します」と数学研究者のカール・コッベ氏は説明しました。 会社。

ゴイアス連邦大学でソーシャルコミュニケーションを卒業。 デジタル メディア、ポップ カルチャー、テクノロジー、政治、精神分析に情熱を注いでいます。

注意力をテストします。ミス ゲームで時間を破ることができますか?

それは子供たちと関連付けられることが一般的ですが、 間違いのゲーム あらゆる年齢層に楽しんでいただけることをお約束します。 細部にもっと注意を払いたい場合は、この楽しくて効果的な娯楽が注意力を鍛...

read more

瞑想は日常生活に大きな変化をもたらす

東洋人の間では、瞑想の実践は数千年に渡って行われています。 それは何世紀にもわたって開発されており、その利点は人間の精神的および身体的健康において科学的に証明されています。 瞑想の主要なポイント...

read more
ハングマンキャンプのアイテム: 推測できますか?

ハングマンキャンプのアイテム: 推測できますか?

○ キャンプ 都会の喧騒から逃れ、自然との特別な時間を楽しむ方法です。 このアクティビティのために特別に予約されている場所もいくつかありますが、多くの場所で安全に行うことができます。 で 絞首刑...

read more