重新思考聊天体验:让交流更有趣、游戏更顺畅、互动更文明
实时措辞更改功能,让游戏沟通保持顺畅
-
在团队或社区共同参与的游戏中,自然、流畅的聊天体验至关重要。
-
此前,不当语言被屏蔽后,以 ##### 字符串代替,这会破坏聊天体验,让人难以跟上对话,并打断游戏节奏。
-
为了保持聊天顺畅度,维护相互尊重的环境,我们正在改进聊天过滤器,将脏话改写为符合社区准则的词汇。
-
这是我们长期计划的第一步,目标是减少聊天中出现的 #####,打造更自然的聊天体验。 我们将继续学习、迭代和改进我们的工具,营造安全文明的聊天环境,包括为用户提供更多控制选项。
每天都有数百万人在 Roblox 上交流和游玩,实时沟通对于用户表达和协调游戏玩法非常重要。 使用 AI 过滤器来屏蔽有问题的文本(对用户显示为 #####)一直是我们保障安全和提高文明程度的核心方法。 这些井号是实时生成的,帮助用户了解他们输入的内容不合规。 当然,如果用户屡次违反规则,他们将面临更严重的后果,而不仅仅是文字被 ### 屏蔽。
2025 年 5 月,我们推出了主动实时警告功能,帮助用户了解我们的政策。 这些警告现在同时适用于文本和语音聊天。 这些通知会告诉用户他们违反了规则,提醒他们下次慎重发言,并帮助他们成为更好的数字公民。 在去年的实验中,我们看到,采用体验内文字聊天通知和聊天罚时措施后,被过滤的聊天消息数量减少了 5%,被举报滥用并受到处罚的情况减少了 6%。
今天,我们又新增了一项功能,帮助营造文明的体验内文字聊天环境:我们利用人工智能自动更改消息中的措辞,首先针对脏话进行处理。 随着这些系统不断扩展,它们会形成推动文明交流的“飞轮效应”,通过实时反馈帮助用户学习并遵循我们的社区标准。 所有用户(而不仅仅是消息发送者)都可以看到 Roblox 允许的内容,而发送者可以看到消息中不被允许的部分。 这可以为不太了解规则的用户提供更多反馈,在过滤和实时警告的基础上更进一步,帮助打造安全、文明且有趣的 Roblox 对话环境。
实时聊天措辞更改:从禁止到引导
对于许多用户来说,一串 ##### 可能会让对话陷入僵局,因为他们不知道如何修正措辞,以符合我们的社区准则。 这往往会造成混乱,使团队更难以在游戏中进行协作。 想象一下,某人想告诉朋友身后有怪物,并输入“我操! 你身后有怪啊啊啊!”之类的话来警告对方。 而朋友只能看到“###########”,这对游戏并没有什么帮助。
从今天开始,被过滤的文本将被改写成更加尊重他人的措辞,同时仍符合 Roblox 用户的日常表达习惯。 在推出阶段,此项实时措辞更改功能主要针对脏话。 例如,“你他妈快点!”可能会变成“你快点!”,这比 ##### 更接近原意。 需要明确的是,虽然我们会重新表述违反我们脏话政策的消息,但消息本身仍然是违规的,并且仍然适用相同的规则。 如果用户在聊天中继续使用脏话,仍将面临因反复违规而产生的后果。
这个系统更像是引导方向的路牌,而不是禁止标志:如果消息违反了我们的政策,聊天中的每个人都会收到通知,告知为了保持文明的聊天环境,文本中的措辞已被更改。 我们将限制词汇替换为用户在日常聊天中经常使用的词语,从而保持聊天的真实感和流畅度,同时维护相互尊重的聊天环境。 以实时指导的方式取代屏蔽,既能减少交流阻碍,也能继续强化反对脏话的规则。
当文本被屏蔽时,我们将通过更改措辞并提供更多上下文来帮助用户理解。这方面的工作刚刚起步。 就像其他 AI 翻译工具一样,随着时间的推移,它在保留用户原始语气和语境方面会变得越来越准确、细致。 我们的首要任务始终是在 Roblox 上打造安全、文明的沟通环境。在用户理解平台标准的过程中,我们将继续以告知、教育和引导为优先原则。
虽然措辞更改可以减少聊天中的部分干扰,但对于更严重的行为,我们的多层安全系统仍会继续发挥作用。 措辞更改功能目前仅适用于体验内聊天,并且只在年龄段相近且已完成年龄验证的用户及其可信赖的联系人之间提供。 措辞更改功能支持目前自动翻译工具所覆盖的所有语言。 我们的目标是达到足够高的准确度,从而逐步减少 ### 的使用,直至最终完全停用,让线上沟通像面对面交流一样自然、清晰。
在开发这一功能时,我们咨询了青少年委员会成员,希望打造一个能够反映青少年真实聊天方式的系统。 委员会成员 Sofia 表示:“实时措辞更改功能可以在保障安全的同时,保持对话的流畅性。 它会温和地把互动引导回正轨,也让每个人都能感到被欢迎。”
青少年委员会成员 Jordyn 也认同这一观点。 Jordyn 表示:“这种转变会让玩家更注意自己的沟通方式,通过营造友善的交流氛围来提升互动体验。 通过启用措辞更改功能,我们在玩家需求与必要的安全标准之间找到了平衡的解决办法。”
文本过滤升级:从模式识别迈向语境理解
我们的安全功能会不断演进,以更好地适应 Roblox 用户的聊天方式。 我们的文本过滤系统经过训练,可检测并屏蔽任何违反社区准则的内容。 这项工作需要覆盖全球、实时进行,与用户聊天同步完成。
最初,该系统包含两个组成部分:1)基于规则的系统,用于在现实世界发生相关事件时,在几分钟内检测并屏蔽违反规则的内容。 2)一组专用模型。这些模型基于更大的模型训练而成,并使用持续更新的模拟与真实样本,以适应不断演变的语言表达。
这些专用模型在某些特定任务上表现出色,例如识别平台禁用词汇,但它们的推理能力有限,因此不太擅长识别不断演变的新表达。 而超大型模型难以实现实时运行,且“幻觉”(或错误分类)往往会提高误报率。
在本次更新中,我们为文本过滤系统引入了第三个新组件。 现在,当专用模型无法确定某条内容是否违反规则时,它会被发送给更擅长推理和综合更多上下文的大型模型进行判断。 这些大型模型能够做出更复杂的判断。
我们的实验表明,这种组合方式显著提升了过滤系统的效果。 现在,过滤系统可以更好地识别“变形文字”(例如用数字或符号替代字母),以及更隐蔽的规避过滤手段。 没有任何系统是完美的,但我们很高兴看到,这项最新创新让我们在识别共享或索取个人信息(如社交账号或电话号码)方面,将漏报率降低了 20 倍。
这是一种大胆的全新尝试,措辞更改并非总能做到完全准确。 但我们会持续学习、不断探索,并继续减少用户在聊天中看到 ##### 的数量,长期目标是彻底取消这类屏蔽。 我们的最终目标,是让用户能够以既有趣又彼此尊重的方式进行协作和交流。