促进负责人的AI标准

随着人工智能(AI)的发展,全球各国都认识到需要国家和国际治理以应对其利益和挑战。人工智能治理中的关键问题之一是如何培养创新和跨境贸易,同时维护基本价值和权利。我们认为,国际AI安全研究所(INASI)的国际网络是将来自世界各地的技术和道德专业知识汇集在一起​​,以制定和采用自愿,可互操作的AI标准 – 技术和道德的标准。

尽管人们对有效AI治理的需求越来越关注,但如何实现它几乎没有共识。最近的全球协议,例如联合国教科文组织的AI建议和经济合作与发展组织的AI原则,都承认基本价值观,例如人类尊严,自主权,公平和透明度。但是,这些框架的广泛而模棱两可的语言为不同的解释留出了空间,反映了不同的政治和道德优先事项。建立全球人工智能治理规则的关键障碍包括竞争的国家利益,不同的监管哲学,缺乏强大的问责机制,军事化,AI,技术霸权和有限的政治意愿。

c标准,例如国际标准化组织,国际电子技术委员会和电气和电子工程师研究所的标准,定义了产品,服务或流程的要求,从而为技术采购和产品开发奠定了基础。他们促进了技术从研究到应用程序的快速转移,并为公司开放市场。同时,标准确保互操作性,对技术的应用产生透明度和信任,并通过使用统一的条款和概念来支持所有各方之间的沟通。

标准化AI系统的努力正在如火如荼地进行。国际和国家标准发展组织正在制定针对AI各个方面的标准,包括风险管理,数据质量,算法偏见,解释性,人类的监督,网络安全和鲁棒性。同样,欧盟的AI法案依赖于通过标准化进行共同调节的想法,以确保高风险的AI系统,从长远来看,大型语言模型和其他符合该法规的基础模型。

所有这些标准都不纯粹是技术性的。制定数据质量以减轻偏见的标准不仅需要技术专长,而且还需要对我们想要避免的歧视种类的理解。同样,对解释性和人类监督的制定标准涉及定义在道德和法律上可以接受的透明度和监督水平。在这种情况下,国际标准化努力不仅会影响公司和社会,还通过塑造AI技术的道德和法律界限来影响公民和社会。

Inasi于2024年11月成立,以达成关于AI安全的国际共识。该计划汇集了来自澳大利亚,加拿大,欧洲委员会,法国,日本,肯尼亚,大韩民国,新加坡,英国和美国的AI安全研究所。其目的是提高AI安全性,确定风险并提出解决方案以减轻此类风险。它是国际合作的领先论坛,旨在促进对AI安全性以及可互操作原则和全球最佳实践的共同技术理解。难题的一个关键缺失是印度的缺席,其包容性对于AI标准环境的真正代表性国际论坛将很重要。

印度在塑造全球AI治理方面发挥了变革性的作用。作为全球南部的主要声音,印度将成为最大的AI优先生态系统,第四大经济体和AI研究与创新的全球枢纽结合了优势。它最近在国际论坛上的领导地位,例如G20峰会和全球人工智能伙伴关系,强调了其弥合发展和发展国家的观点的能力。这些平台强调了印度对包容性数字转型和公平AI框架的发展的承诺。政府最近宣布建立AI安全研究所的消息将使印度能够投入更多的专用资源来解决社会风险,设定全球标准以及增强国内能力,并与全球最佳实践保持一致。

印度对Inasi这样的计划的参与对于确保其声音对于塑造基础AI治理原则至关重要至关重要。通过促进来自全球南方的专家,并强调AI在医疗保健,教育和农业等领域的变革潜力,印度可以支持一种公平的AI发展方法。它对全球协议的认可将是其采用的关键,这反映了其独特的能力,以确保AI技术受益于所有人,尤其是代表性不足的地区。

AI安全机构将在国际标准环境中发挥关键作用。目前,在全球范围内没有一个单一模型。我们的建议是,国际模式必须具有包容性,确保来自全球北方和全球南方的地区都进入对话(类似于G20),并且发展和发展的国家都在平等的基础上运作。这对于确保标准和未来法规的互操作性非常重要。

作家分别是机器人和AI律师协会主席,以及塔尔图大学,爱沙尼亚大学和对话的创始董事的IT法律教授。