オンライン ゲームでは、AI が不適切なチャット メッセージを検出する可能性があります

ゲームチャット内で言語化されたヘイトスピーチは、 人工知能. 実際、一部のオンライン ゲームではすでに AI を使用してハラスメント、暴力、非犯罪化のフレーズを識別していることを知らない人もいます。 このマシンは ToxMod と呼ばれ、プラットフォーム上のプレイヤー間のさまざまな会話を分析するために使用されます。

攻撃的なフレーズを検出すると、AI は何が起こっているかをゲーム コミュニティに通知します。 このアイデアはマサチューセッツ州の Modulate 社から来ており、さまざまな e スポーツ企業でテストされています。 ライアットゲームズ、ゲームの所有者 リーグ・オブ・レジェンズは、月間アクティブプレイヤー数が 1 億人を超え、AI のテストも行っています。 録音室, バーテックス スタジアム, ポーカースターズ それは ガンレイダー.

続きを見る

Google、ジャーナリストを支援する AI ツールを開発…

未開封のオリジナルの 2007 年製 iPhone は 20 万ドル近くで取引されています。 知る...

Modulate CEO の Carter Huffman 氏によると、需要は企業に十分なリソースを提供する可能性があります。

「月に数億時間、または数十億時間の音声チャットが行われる可能性があります。[…] 私たちの仕事は、それをすべてフィルタリングすることです。 これは、プレイヤーのエクスペリエンスを実際に悪化させ、マイナスの影響を与えているものの核心にまで遡ります。」 述べました。

記録されているヘイトスピーチの悪影響は、国民の 70% に達しました。 プレティーン, Anti-Defamation League 2022 のレポートに記載されているように、オンライン ゲームのプレイ中に暴言を受けたと報告したのは 10 代の若者の 66%、成人の 86% でした。 さらに成人の20%と若者の15%が、ゲームに参加するのは白人が優勢であると報告した 「コール・オブ・デューティ」, ヴァロラント, ワールド オブ ウォークラフト, フォートナイト その他。

人工知能がゲーム内のヘイトスピーチを検出

AI アサーションは、使用されるさまざまな機能を利用します。 コミュニティへの違反、攻撃的な態度の暴発を特定した場合、コミュニケーションは詳細に分析されます。

特に、AI を利用する各企業は、コミュニケーション中にロボットが同行していることをユーザーに通知する方法を選択します。 仮想ゲーム環境を人々が快適に過ごせる場所にすることが制作のトレンドです。

言葉によるコミュニケーションは分析されますが、次のような非言語的なスピーチも AI によって罰せられないわけではありません。 ナチスのシンボルに代表されるグループの創設、または自分自身の内部の行動による憎悪の表明 ゲーム。

映画やシリーズ、映画に関わるすべてのことが大好きです。 ネットワークに積極的に興味を持ち、常にウェブに関する情報に接続しています。

重力とは何ですか? それは私たちにどのような影響を与えますか?

重力は宇宙で最も重要な力の 1 つにすぎません。 それは、それが私たちを地球上、強固な地面の上で団結させるものだからです。 つまり、もし地球の重力が異なっていたら、おそらく私たちの移動方法は現在...

read more

ブラジルのトップ 3 最大のモール。 そのうちの 1 つはラテンアメリカ最大のものです

現在、世界には合計 620 のモールがあることをご存知ですか? ブラジル? そう、あなたがショッピング好きなら、選択肢に事欠くことはありません。どこの角にも違う店があるからです。 そのうちの1つ...

read more

2色の粉ミルクスイーツの作り方は? ここをチェックしてください

チョコレート入りの甘い粉ミルクはおいしく、昼食後や午後のおやつとしてもお召し上がりいただけます。 そこで、家族や友人を家に迎えるときに提供できるように、このレシピをご紹介しました。また、液体ミル...

read more