Skip to content

Istantanea sulla sicurezza: marzo

Moderazione dell'intera scena, nuova Dashboard Creatore e formazione dei Community Manager

Nella nostra Istantanea sulla sicurezza di marzo, spieghiamo come moderiamo i contenuti tramite sistemi automatizzati progettati per rilevare e rimuovere i contenuti problematici, spesso prima che gli utenti li vedano. Inoltre, presentiamo una nuova dashboard che consente ai creatori di individuare e gestire i comportamenti scorretti degli utenti nei loro giochi, nonché un nuovo programma per formare i Community Manager di tutto il settore. Per ulteriori informazioni sugli strumenti di segnalazione degli utenti, consulta l'Istantanea sulla sicurezza del mese scorso

Moderazione continua del comportamento degli utenti 

I contenuti in continua evoluzione e in costante espansione sviluppati dai creatori sono una delle risorse più preziose di Roblox. I creatori pubblicano costantemente aggiornamenti dei giochi e aggiungono nuovi badge o animaletti, mentre gli utenti cambiano gli abiti dei loro avatar e dipingono o costruiscono oggetti in tempo reale. Esaminiamo tutti questi contenuti prima che vengano pubblicati sulla piattaforma e rimuoviamo tutto ciò che non rispetta le nostre linee guida. 

Grazie ai nostri strumenti di moderazione a più livelli, riusciamo a individuare la stragrande maggioranza dei contenuti problematici su Roblox e rimuoviamo tutto ciò che va contro le Norme della community. Tuttavia, non siamo perfetti, quindi ci avvaliamo anche delle segnalazioni degli utenti per individuare eventuali errori che ci sono sfuggiti e intervenire di conseguenza.

Data la natura dinamica dei giochi su Roblox, i contenuti cambiano continuamente in base al modo in cui gli utenti combinano avatar, abiti e movimenti precedentemente approvati. Ad esempio, nei giochi che consentono di disegnare liberamente, un utente potrebbe creare un simbolo o un oggetto offensivo. Ecco perché di recente abbiamo lanciato un nuovo sistema di intelligenza artificiale per la moderazione multimodale in tempo reale, in grado di analizzare queste combinazioni nel loro insieme.

I sistemi di moderazione tradizionali basati sull'intelligenza artificiale sono progettati per valutare un oggetto alla volta e spesso non tengono conto del contesto, quindi non individuano combinazioni che potrebbero risultare problematiche anche se i singoli articoli non lo sono. Il nostro nuovo sistema di moderazione multimodale in tempo reale analizza l'intera scena, inclusi avatar, testo e oggetti 3D. Acquisisce tutti questi elementi contemporaneamente in un momento preciso e valuta se l'intera scena viola le nostre norme. Se questo tipo di comportamento problematico si verifica ripetutamente in una singola sessione di gioco, il sistema chiuderà solo quella sessione (chiamata anche server) anziché l'intero gioco. 

Dal lancio di questo sistema multimodale, abbiamo chiuso circa 5.000 sessioni al giorno che violavano le nostre Norme della community. Man mano che addestriamo il sistema e ne ampliamo la portata, miglioriamo sempre di più la nostra accuratezza e collaboriamo con la community per ridurre al minimo i falsi positivi. Ci stiamo impegnando per potenziare questo sistema multimodale in modo da rilevare e monitorare il 100% del tempo di gioco (playtime). Tuttavia, ci saranno sempre persone che cercheranno di eludere qualsiasi sistema, perciò stiamo sviluppando attivamente una tecnologia che non si limiti alla chiusura dei server. Stiamo cercando nuovi modi per individuare gli utenti scorretti, in modo da poterli espellere dalla piattaforma senza compromettere l'esperienza dei giocatori onesti.

Offrire ai creatori visibilità sulle chiusure dei server

Grazie all'aggiunta della dashboard relativa all'instantanea sulla sicurezza, offriamo ai creatori una maggiore trasparenza sui risultati di questo sistema di moderazione multimodale. Come indicato prima, disattiviamo i server di gioco quando gli utenti si comportano in modo scorretto. Per offrire ai creatori una visione più chiara della frequenza con cui ciò accade nei loro giochi, abbiamo aggiunto un nuovo grafico alla loro dashboard esistente. 

Nuovo grafico che mostra il numero di server disattivati giornalmente nell'esperienza di un creatore a causa del rilevamento di comportamenti scorretti da parte degli utenti. I picchi potrebbero indicare un aumento dei comportamenti problematici.

I creatori possono ora verificare quanti dei loro server di gioco sono stati chiusi a causa di comportamenti scorretti da parte degli utenti (ad esempio, violazioni delle nostre politiche in materia di molestie e discriminazioni oppure di contenuti romantici e sessuali). In questo modo, possono accorgersi di un aumento improvviso e intervenire prima che i blocchi abbiano ripercussioni su tutta la loro community. Possono quindi esaminare più da vicino il loro gioco e decidere se sono necessarie modifiche alle emote personalizzate, agli strumenti di modifica degli avatar o alle funzionalità di creazione degli utenti all'interno del gioco, per aiutare a prevenire creazioni problematiche. 

Formazione dei moderatori digitali 

Roblox, Keyword Studios e Riot Games collaborano con Rachel Kowert, psicologa ricercatrice e direttrice della ricerca Games for Change, per realizzare un nuovo programma di certificazione per i leader delle community digitali. Roblox metterà a disposizione la propria esperienza in materia di moderazione della community e progettazione prosociale per avviare e contribuire a definire il programma didattico del nuovo DLC Leadership Program. L'obiettivo dell'iniziativa è quello di ovviare alla mancanza di una formazione standardizzata per i moderatori online, i Community Manager e i creatori nel settore del gaming. In un recente articolo, Rachel ha affermato che il programma mira a "trasformare la ricerca sulle community di gioco e sui comportamenti online in strumenti pratici che i leader del digitale possano usare per creare community online più resilienti e sostenibili".

Partecipando a questa iniziativa, contribuiremo a guidare il settore, sviluppando un programma di certificazione standardizzato innovativo, pensato per favorire la community dei creatori di Roblox e l'industria del gaming in generale. Una volta completato, il programma aiuterà i creatori ad acquisire le competenze fondamentali necessarie per moderare e gestire in modo efficace le proprie community in crescita. Crediamo che formare un maggior numero di moderatori e creatori sulle migliori pratiche per garantire l'esistenza di community online sane e rispettose contribuirà a rendere il mondo del gaming online un ambiente più positivo per tutti.