דברי שטנה המפורשים בצ'אטים במשחק ייקלטו על ידי בינה מלאכותית. למעשה, יש כאלה שלא יודעים שחלק מהמשחקים המקוונים כבר משתמשים בבינה מלאכותית כדי לזהות ביטויים של הטרדה, אלימות והפללה. המכונה נקראת ToxMod, המשמשת לניתוח שיחות שונות בין שחקנים הנוכחים בפלטפורמה.
לאחר זיהוי ביטוי אגרסיבי, ה-AI יאותת לקהילת המשחקים מה קרה. הרעיון הגיע מחברת Modulate, ממסצ'וסטס, והוא נבדק בחברות esports שונות. Riot Games, הבעלים של המשחק ליגת האגדות, עם יותר מ-100 מיליון שחקנים פעילים חודשיים, בודק גם AI, כמו גם חדר השינה, אצטדיון Virtex, פוקרסטארס זה פושטי נשק.
ראה עוד
גוגל מפתחת כלי בינה מלאכותית כדי לעזור לעיתונאים ב...
אייפון מקורי 2007 שלא נפתח נמכר בכמעט 200,000 דולר; לָדַעַת...
לדברי מנכ"ל Modulate, קרטר האפמן, הביקוש יכול לספק משאבים רבים לחברות:
"יכולים להיות לך מאות מיליוני או מיליארדי שעות של צ'אט קולי בחודש […] התפקיד שלנו הוא לסנן את הכל. זה עד הליבה של הדברים שבאמת מחמירים את חווית השחקן ומשפיעים לרעה." נָקוּב.
ההשפעה השלילית של דברי שטנה, כפי שנרשמה, הגיעה ל-70% מ העשרה, 66% מבני הנוער ו-86% מהמבוגרים שדיווחו שסובלים מהתעללות מילולית בזמן ששיחקו במשחקים מקוונים, כפי שצוין בדו"ח נגד השמצה של ליגת 2022. עוד 20% מהמבוגרים ו-15% מהצעירים דיווחו על דומיננטיות של אנשים לבנים שמשתתפים במשחקים
תחושת שליחות, גבורה, World of Warcraft, פורטנייט ואחרים.בינה מלאכותית תזהה דברי שטנה במשחקים
הצהרות AI עושות שימוש במגוון תכונות משומשות. בעת זיהוי הפגיעה בקהילה, חשיפה מילולית של עמדות פוגעניות, תינתח התקשורת בפירוט.
בפרט, כל חברה שמשתמשת בבינה מלאכותית בוחרת את הדרך שבה היא תודיע למשתמשים שלה שהם מלווים על ידי רובוט במהלך התקשורת. המגמה ביצירה היא להפוך את סביבת המשחקים הוירטואלית למקום שבו אנשים יכולים להרגיש בנוח.
תקשורת מילולית תנתח, אך נאומים לא מילוליים לא יישארו ללא עונש גם על ידי ה-AI, כגון יצירת קבוצות המיוצגות על ידי הסמל הנאצי או גילוי שנאה באמצעות פעולות בתוך עצמו מִשְׂחָק.
חובב סרטים וסדרות וכל מה שקשור לקולנוע. סקרן פעיל ברשתות, מחובר תמיד למידע על האינטרנט.