通过AI进行功能风险检查,限制了90%的人类监督,引发了安全辩论

Facebook和Instagram背后的公司Meta计划在检查新功能和更新中的风险方面有很大的变化。 Meta并没有主要依靠人,而是希望让人工智能(AI)处理其中90%的检查。

此信息来自NPR看到的内部文档。在过去的十年中,Meta使用人为主导的评论来检查变化是否会损害用户,例如侵犯隐私,影响孩子或传播有害内容。

根据新计划,Meta的产品团队将填写有关其更新的问卷。然后,AI将迅速做出批准或团队在启动之前必须满足的条件清单。团队将负责确认他们遵守规则。

梅塔(Meta)表示,这将有助于开发人员更快地行动,并专注于创新。它声称,只有AI才能处理简单或低风险的决策,而人类专家仍将审查复杂或敏感的问题。

但是,内部文件和员工评论表明,即使是AI安全,青年保护和暴力内容等高风险地区也可以由AI进行审查。

梅塔(Meta)表示,它仍然会检查AI的决定,并为欧洲例外,法律需要更严格的监督。对于欧盟的用户,风险审查将继续由爱尔兰的团队进行。

这种转变是META在公司中使用AI的更广泛计划的一部分。首席执行官马克·扎克伯格(Mark Zuckerberg)最近表示,梅塔(Meta)的AI代理商很快将撰写公司的大部分代码。这些AI工具已经可以调试代码并比许多开发人员更好。

Meta还正在建立特殊的AI工具,以帮助研究和产品开发。

其他科技公司也在这样做。 Google的首席执行官表示,他们的代码中有30%是AI编写的,Openai的首席执行官表示,有些公司为50%。

尽管如此,Meta的时机还是提出了问题。这些变化在结束事实核对计划并放松了仇恨言论的规则之后不久。批评者担心,元正在删除安全检查以更快地移动,可能会使用户处于危险之中。