印度高级政府小组表示,人工智能监管不需要单独的法律

一个高级政府人工智能(AI)委员会确定,印度目前不需要单独的法律来监管人工智能技术。专家组得出的结论是,与人工智能飞跃相关的大量风险可以通过现有立法框架有效应对——无需制定单独的法律。

该委员会的建议记录在由首席科学顾问 Ajay Kumar Sood 和 IT 部长 S. Krishnan 等高级政府官员宣布的“印度人工智能治理指南”中。该指导意见明确指出,“现有法律(例如关于信息技术、数据保护、消费者保护以及法定民法和刑法等)可以用来规范人工智能应用。因此,鉴于目前的风险评估,现阶段不需要单独的法律来规范人工智能。”

这一决定是在 OpenAI、Perplexity、Google 和 Meta 等全球舞台上的主要 AI 参与者加倍努力为印度用户提供生成式 AI 努力之际作出的。

印度不需要针对人工智能制定单独的法律

印度的做法是“通过授权相关部门监管机构来管理人工智能的应用,而不是监管底层技术本身。”该委员会表示,其主要目标是鼓励创新和人工智能的采用,同时保护个人和社会免受伤害的风险。

尽管政府没有制定新的立法,但信息技术部长 S. Krishnan 澄清说,如果情况发生变化,印度已准备好采取行动。

目前,委员会提倡采用平衡、敏捷和灵活的框架,支持创新,同时最大限度地降低风险。为了实现这一目标,官方指南提出了几个关键步骤:

根据印度环境下的伤害经验证据创建一个框架。

鼓励行业采取有关隐私和安全的自愿措施。

建立报告人工智能相关危害并确保在合理时间内得到解决的系统。

审查现行法律,找出与人工智能系统相关的监管差距,并通过有针对性的修订来解决这些问题。

行业应发布透明度报告,评估在印度背景下对个人和社会造成伤害的风险,如果报告包含敏感信息,则应与相关监管机构秘密共享。

根据人工智能所执行的职能、风险水平以及是否遵守尽职调查,实施问责制度。

该委员会强调,“需要及时、一致地执行适用法律,以建立信任并减轻伤害”,并强调新技术的冲击给社会和公民带来的固有风险。