게임 채팅에서 말로 표현된 증오심 표현은 인공 지능. 실제로 일부 온라인 게임에서는 이미 AI를 사용해 괴롭힘, 폭력, 비범죄화 문구를 식별하고 있다는 사실을 모르는 사람들이 있다. ToxMod라는 기계는 플랫폼에 있는 플레이어 간의 다양한 대화를 분석하는 데 사용됩니다.
공격적인 문구를 감지하면 AI는 무슨 일이 일어나고 있는지 게임 커뮤니티에 알립니다. 아이디어는 매사추세츠의 Modulate 회사에서 나왔고 여러 e스포츠 회사에서 테스트되고 있습니다. 게임의 주인인 라이엇 게임즈 리그 오브 레전드월간 활성 플레이어가 1억 명 이상인 은(는) AI도 테스트하고 있습니다. 휴게실, 버텍스 스타디움, 포커스타즈 그것은 총기 침입자.
더보기
구글, 언론인 돕는 AI 도구 개발…
개봉하지 않은 오리지널 2007년 iPhone은 거의 $200,000에 판매됩니다. 알다...
Modulate의 CEO인 Carter Huffman에 따르면 수요는 기업에 충분한 자원을 제공할 수 있습니다.
“한 달에 수억 시간 또는 수십억 시간의 음성 채팅을 할 수 있습니다. […] 우리의 임무는 모든 것을 걸러내는 것입니다. 이것은 플레이어 경험을 실제로 악화시키고 부정적인 영향을 미치고 있는 것의 핵심입니다.” 정해진.
기록된 증오심 표현의 부정적인 영향은 70%에 달했습니다. 초반, Anti-Defamation League 2022 보고서에 명시된 바와 같이 온라인 게임을 하는 동안 언어 폭력으로 고통받는다고 보고한 십대의 66%와 성인의 86%. 또 다른 20%의 성인과 15%의 청소년은 게임에 참여하는 백인이 우세하다고 보고했습니다. 부름, 발로란트, 월드 오브 워크래프트, 포트 나이트 다른 사람.
인공 지능은 게임에서 혐오 발언을 감지합니다
AI 어설션은 다양한 사용 기능을 활용합니다. 커뮤니티의 위반 사항을 파악하고 공격적인 태도를 구두로 드러내는 경우 커뮤니케이션을 자세히 분석합니다.
특히, AI를 사용하는 각 회사는 통신 중에 사용자에게 로봇이 동행하고 있음을 알리는 방법을 선택합니다. 창작의 트렌드는 가상의 게임 환경을 사람들이 편안하게 느낄 수 있는 곳으로 만드는 것입니다.
언어적 의사소통은 분석되지만 비언어적 대화도 다음과 같은 AI에 의해 처벌되지 않습니다. 나치 상징으로 대표되는 집단의 생성 또는 자신의 행동을 통한 증오의 표현 게임.
영화와 시리즈, 영화와 관련된 모든 것을 사랑하는 사람. 네트워크에 대한 적극적인 호기심, 항상 웹에 대한 정보에 연결되어 있습니다.