泄漏的备忘录表明,由于对儿童保护的安全担忧,Meta收紧了AI聊天机器人规则

Meta的AI聊天机器人即将变得更加严格。 Business Insider获得的内部文件揭示了该公司对聊天机器人进行培训的最新指南,尤其是围绕互联网最敏感的主题之一,包括儿童性剥削。

AI Techology正在迅速发展,Meta,OpenAI和Google之类的公司承受着越来越多的压力,以确保他们的聊天机器人不会造成伤害,尤其是对像孩子这样的脆弱用户。

最近,美国联邦贸易委员会要求这些公司对其AI系统的运作方式以及保护未成年人免受危险内容的影响更加透明。

围绕AI聊天机器人的争议

今年早些时候,梅塔(Meta)面对反弹,据透露其聊天机器人被允许与孩子们进行浪漫或感性的交谈,该公司后来承认这是一个错误。

在面临严厉的批评之后,梅塔迅速修改了其政策,这些最新指南反映了这些变化。

商业内部人士揭示的新限制表明,梅塔的聊天机器人将不再参与任何可以使儿童进行性化的事情。

从现在开始,AI被禁止从事涉及未成年人的性角色扮演或认可或描述任何形式的儿童性虐待。这也意味着聊天机器人必须拒绝与儿童色情或剥削有关的任何请求。

AI聊天机器人的局限性

那么,根据这些新规则,聊天机器人可以做什么?

它仍然可以谈论诸如修饰或儿童性虐待之类的敏感问题,但只有以学术的预防方式。例如,聊天机器人可能会解释修饰行为的迹象,但永远不会给出有关如何利用或虐待儿童的明确指示。

聊天机器人必须拒绝与孩子一起浪漫或性爱戏剧的任何尝试。如果用户要求在浪漫或感性的情况下假装自己是未成年人,则聊天机器人将拒绝。

如果聊天机器人从事虚构的叙述,它可以产生非性浪漫的内容,例如罗密欧和朱丽叶式的故事。但是,很明显,这些只是故事,而不是真正的互动,所涉及的角色必须是18岁或以上。

帮助测试聊天机器人回答的承包商正在使用这些新准则来确保AI在这些边界内保持。目的是创建一个可以处理困难主题的人工智能,而不会越过有害领土。

安全是优先事项

这些更新的指南是Meta更大的努力的一部分,以表明它正在认真对待安全。多年来,该公司面临重大反对,因为他们没有做足够的事情来保护其平台上的未成年人。

随着AI聊天机器人的兴起,赌注甚至更高,尤其是在较早的启示之后,梅塔的聊天机器人曾经允许与孩子进行浪漫的互动。

梅塔(Meta)的通讯负责人安迪·斯通(Andy Stone)表示,该公司致力于保护儿童免受有害内容的影响。他告诉《商业内幕人士》:“我们的政策禁止将儿童以及未成年人的任何性或浪漫的角色扮演。”

8月,参议员乔什·霍利(Josh Hawley)呼吁元首席执行官马克·扎克伯格(Mark Zuckerberg)移交详细的计划,概述了聊天机器人的运作方式,包括风险评估和安全措施。

尽管梅塔(Meta)错过了第一个截止日期,但现在正在努力交付这些文件,并证明这是严重的防止伤害。

梅塔(Meta)的AI被允许以事实或预防术语讨论滥用,但绝不能使其正常化,描述或促进有害行为。

为了阐明这些界限,指南定义了关键术语,“描述”是指详细叙述事件,“讨论”意味着在不可视化信息的情况下提供信息,“启用”涉及给出某人可以采取行动的特定说明,而“鼓励”或“认可”意味着建议或支持特定的行动,直接或间接地进行特定的行动。