オンライン ゲームでは、AI が不適切なチャット メッセージを検出する可能性があります

ゲームチャット内で言語化されたヘイトスピーチは、 人工知能. 実際、一部のオンライン ゲームではすでに AI を使用してハラスメント、暴力、非犯罪化のフレーズを識別していることを知らない人もいます。 このマシンは ToxMod と呼ばれ、プラットフォーム上のプレイヤー間のさまざまな会話を分析するために使用されます。

攻撃的なフレーズを検出すると、AI は何が起こっているかをゲーム コミュニティに通知します。 このアイデアはマサチューセッツ州の Modulate 社から来ており、さまざまな e スポーツ企業でテストされています。 ライアットゲームズ、ゲームの所有者 リーグ・オブ・レジェンズは、月間アクティブプレイヤー数が 1 億人を超え、AI のテストも行っています。 録音室, バーテックス スタジアム, ポーカースターズ それは ガンレイダー.

続きを見る

Google、ジャーナリストを支援する AI ツールを開発…

未開封のオリジナルの 2007 年製 iPhone は 20 万ドル近くで取引されています。 知る...

Modulate CEO の Carter Huffman 氏によると、需要は企業に十分なリソースを提供する可能性があります。

「月に数億時間、または数十億時間の音声チャットが行われる可能性があります。[…] 私たちの仕事は、それをすべてフィルタリングすることです。 これは、プレイヤーのエクスペリエンスを実際に悪化させ、マイナスの影響を与えているものの核心にまで遡ります。」 述べました。

記録されているヘイトスピーチの悪影響は、国民の 70% に達しました。 プレティーン, Anti-Defamation League 2022 のレポートに記載されているように、オンライン ゲームのプレイ中に暴言を受けたと報告したのは 10 代の若者の 66%、成人の 86% でした。 さらに成人の20%と若者の15%が、ゲームに参加するのは白人が優勢であると報告した 「コール・オブ・デューティ」, ヴァロラント, ワールド オブ ウォークラフト, フォートナイト その他。

人工知能がゲーム内のヘイトスピーチを検出

AI アサーションは、使用されるさまざまな機能を利用します。 コミュニティへの違反、攻撃的な態度の暴発を特定した場合、コミュニケーションは詳細に分析されます。

特に、AI を利用する各企業は、コミュニケーション中にロボットが同行していることをユーザーに通知する方法を選択します。 仮想ゲーム環境を人々が快適に過ごせる場所にすることが制作のトレンドです。

言葉によるコミュニケーションは分析されますが、次のような非言語的なスピーチも AI によって罰せられないわけではありません。 ナチスのシンボルに代表されるグループの創設、または自分自身の内部の行動による憎悪の表明 ゲーム。

映画やシリーズ、映画に関わるすべてのことが大好きです。 ネットワークに積極的に興味を持ち、常にウェブに関する情報に接続しています。

物質としての熱。 物質としての熱の理論

今日、私たちはそれを知っています 熱 それは、それらの間の温度差のために、ある物体またはシステムから別の物体またはシステムにエネルギーを伝達することを意味します。 しかし、この概念が常に普及し...

read more

医学、環境、食品中のバクテリア

ボトックスの使用について聞いたことがあるでしょう?ボトックス®は、バクテリアによって生成されるボツリヌス毒素に付けられた商品名です。 ボツリヌス菌。 この物質は筋肉の収縮を軽減または排除すること...

read more

遠隔教育モダリティによる環境教育のトレーナーのトレーニング

現在の研究は、遠隔教育(EAD)のプロジェクトの精緻化で構成されています。 私たちの意図は、遠隔教育モダリティで継続教育の提案を説明することです。 介入による環境問題について、マラカナウ/セ市...

read more