Skip to content

Latest

More results

Zoom sur la sécurité : janvier

Modération proactive des avatars et recherche sur la civilité

Ce mois-ci, le zoom sur la sécurité met en lumière les initiatives de sécurité et de civilité que nous avons lancées au cours des dernières semaines, notamment une nouvelle technologie permettant de surveiller de manière proactive les avatars et d'informer les utilisateurs sur nos politiques. Nous avons également créé et lancé de nouveaux rapports sur la civilité en partenariat avec des organisations tierces.

Annonce de la modération proactive des avatars

En 2025, les utilisateurs de Roblox ont modifié leurs avatars en moyenne 274 millions de fois par jour, en changeant les vêtements et les coiffures de leur avatar et en ajoutant des animaux de compagnie, des chapeaux et d'autres accessoires. De nombreux utilisateurs passent du temps à soigner l'apparence de leur avatar, car il s'agit d'une expression d'eux-mêmes sur la plateforme. Pour assurer la sécurité des utilisateurs, nous analysons de manière proactive tout ce qui est mis en ligne sur la Marketplace Avatar et bloquons tout ce que nous détectons comme étant en violation de nos normes de la communauté. Cependant, les utilisateurs combinent parfois des items inoffensifs d'une manière qui crée une tenue en violation de nos politiques. Par exemple, un costume noir, un brassard et une moustache sont tous conformes individuellement, mais combinés, ils pourraient être utilisés pour créer un avatar ressemblant à Adolf Hitler, ce qui va à l'encontre de nos politiques.

Lorsque l'avatar d'un utilisateur est réinitialisé, ce dernier voit une notification similaire à celle illustrée ci-dessus, expliquant quelle politique a été enfreinte. L'avatar est ensuite réinitialisé, ce qui signifie que tous les items de vêtements sont retirés.
Soutenir la recherche sur la civilité

Nous avons toujours identifié les avatars problématiques grâce aux signalements des utilisateurs. À partir de ce mois-ci, nous analyserons automatiquement les avatars à la recherche d'éventuelles violations à chaque fois qu'ils seront modifiés, souvent avant que les autres utilisateurs ne les voient. Ces analyses évaluent l'avatar dans son ensemble, avec tous les items qui le composent, afin de détecter tout ce qui enfreint nos normes. Si le système détecte quelque chose d'inapproprié, l'avatar de l'utilisateur sera remplacé par un avatar par défaut (sans aucun item). Une notification informera l'utilisateur que son avatar a été réinitialisé et quelle politique a été enfreinte, afin de l'aider à apprendre et à respecter les directives de notre plateforme à l'avenir. Bien qu'aucun système ne soit parfait, ces notifications permettent aux utilisateurs de signaler s'ils estiment que le système a commis une erreur et nous aident à améliorer la précision de la modération.

Lorsque l'avatar d'un utilisateur est réinitialisé, ce dernier voit une notification similaire à celle illustrée ci-dessus, expliquant quelle politique a été enfreinte. L'avatar est ensuite réinitialisé, ce qui signifie que tous les items de vêtements sont retirés.
Soutenir la recherche sur la civilité

Pour faire progresser davantage la recherche dans le secteur du gaming, Roblox a collaboré avec le Prosocial Design Network, une association dédiée à la promotion d'éléments de conception innovants qui favorisent et encouragent un comportement positif sur les plateformes en ligne. L'objectif de cette collaboration était d'identifier des projets de recherche susceptibles de contribuer à promouvoir des relations sociales positives sur les plateformes de jeux. Les propositions ont été examinées et nous sommes heureux d'annoncer que six équipes de recherche ont reçu des subventions pour poursuivre des projets liés à la promotion des échanges par le jeu. À mesure de l'avancement de ces projets de recherche, nous espérons en tirer des enseignements susceptibles d'influencer la conception future des produits sur Roblox et dans d'autres entreprises. Pour en savoir plus sur les projets gagnants, rendez-vous ici

Rapport : Concevoir pour des relations sociales positives

En collaboration avec le Young and Resilient Research Centre de l'Université de Western Sydney et PROJECT ROCKIT, nous avons récemment publié un rapport sur le développement des liens. Le rapport fournit un cadre aux décideurs politiques et aux leaders du secteur technologique pour concevoir de manière intentionnelle et proactive des solutions favorisant le bien-être, l'autonomie et des relations sociales saines pour les enfants. Ces recommandations basées sur des données probantes incluent des innovations techniques et des normes réglementaires visant à permettre au secteur de collaborer pour créer des environnements numériques favorisant l'épanouissement des jeunes dans des cadres sécurisés et connectés.  

Les recommandations de ce rapport renforcent les investissements réalisés par Roblox au fil des ans. Nombre d'entre elles correspondent à la façon dont nous mettons la sécurité au centre de nos préoccupations, notamment :

  • Système de sécurité multicouche : au fil des ans, nous avons conçu un système de sécurité multicouche avec redondances intégrées et amélioration continue pour concilier innovation et sécurité des utilisateurs. 

  • Partenariat avec des experts : nous employons une combinaison de technologies de sécurité sophistiquées et de partenariats concrets, en collaborant avec l'ensemble des parties prenantes (parents, experts en sécurité et organismes gouvernementaux) afin d'assurer la sécurité et la civilité de notre communauté. 

  • Conseils d'adolescents et de parents : ces conseils réunissent les jeunes et leurs parents pour les consulter sur certaines de nos politiques et fonctionnalités. Ils visent aussi à leur donner un aperçu du langage utilisé, afin de s'assurer que le contenu que nous partageons avec les jeunes utilisateurs est pertinent et respectueux.

  • Modération vocale en temps réel : ce système déclenche des notifications pour informer les utilisateurs lorsqu'ils ont enfreint une politique, les éduquer sur nos politiques et mettre en œuvre des temps d'arrêt de chat pour les violations ultérieures. 

  • Modération proactive des avatars : comme indiqué ci-dessus, ce nouveau système inclura également des informations pour expliquer aux utilisateurs pourquoi leur avatar ne peut pas être publié et indiquer la politique que leur avatar ou leur mise à jour enfreint.

« Notre collaboration avec Roblox souligne l'importance d'une conception basée sur des données probantes pour créer des environnements numériques qui donnent la priorité au bien-être des jeunes », a déclaré la professeure Amanda Third, du Young and Resilient Research Centre de l'Université de Western Sydney. « Ce travail important met en évidence la valeur de rassembler chercheurs, jeunes et professionnels du secteur pour approfondir notre compréhension et concevoir des espaces qui favorisent la connexion, l'empathie, l'inclusion et l'engagement social positif. La collaboration intersectorielle est essentielle si nous voulons créer des environnements en ligne qui respectent les droits des enfants et soutiennent de manière significative les comportements prosociaux, en plaçant la voix des jeunes au centre de ce processus. »

Tout ce travail s'inscrit dans le cadre de notre action continue de sensibilisation et de collaboration avec les organisations de jeunesse, notamment PROJECT ROCKIT, afin de soutenir leurs initiatives de prévention du harcèlement en ligne et de promotion de relations sociales saines et positives sur Internet.