不要在AI上掷骰子

帕特里斯·凯恩(Patrice Caine)

围绕AI的辩论正在加剧,怀疑也是如此。但是AI在这里留下来。尽管一些头条新闻批评技术巨头针对AI驱动的社交媒体或可疑的消费者工具,但AI本身是必不可少的。它的效率是无与伦比的,没有任何企业或政府可以忽略的收益。

在印度,预测表明,到2029 – 30年,GDP的生成AI可能会在印​​度储备银行储备银行副州长Michael Debabrata Patra到2029 – 30年增加3590亿至4380亿美元。

这意味着很快,AI将像电力一样不可或缺 – 为我们的汽车提供动力,塑造我们的医疗保健,保护我们的银行并保持灯光。最大的问题是,我们准备好接下来会发生什么了吗?

围绕AI的公众对话主要集中在道德,错误信息和工作的未来上。但是一个至关重要的问题是在雷达下飞行:AI本身的安全性。随着AI几乎嵌入了社会的每个部分,我们正在创建庞大的,相互联系的系统,具有塑造我们的日常生活的力量 – 或错误的手,粉碎了我们的日常生活。我们为风险做好准备吗?

当我们为AI提供更多控制任务(从诊断疾病到管理敏感位置的物理访问)时,网络攻击的后果会成倍增长。令人不安的是,某些AI既脆弱又脆弱。

认识到对AI资产的威胁,印度的电子和信息技术部最近主持了建立印度人工智能安全研究所的咨询,以确保在印度的AI技术的安全和道德部署。这不仅将推动印度在AI安全方面的国内能力,还可以鼓励更多的合作和全球参与。由于政府和私人组织必须共同努力以确保AI资产,因此这些步骤为未来提供了很好的预期。

有趣的是,在启动“评估值得信赖的人工智能(ETAI)”框架和指导方针的同时,印度国防部长阿尼尔·乔汉(Gen Anil Chauhan)对可信赖的AI系统的评论也很有趣。他强调,必须确保这些系统不仅可以按预期工作,而且对对手的攻击也有弹性。对于国防而言,此声明与平民申请一样。

攻击AI的可能方法是什么?攻击AI系统的主要方法有两种。首先是窃取数据,损害从个人健康记录到敏感公司秘密的一切。无论是通过利用医疗数据库还是欺骗聊天机器人绕过自己的安全网,黑客都可以欺骗模型来吐出安全的信息。

第二个是破坏模型本身,以危险的方式歪曲。 AI驱动的汽车被欺骗误读“停止”标志,因为“ 70 mph”说明了威胁的真实性。随着AI的扩展,可能的攻击清单只会增加。

然而,由于这些风险而放弃AI将是最大的错误。牺牲对安全的竞争力将使组织依赖第三方,缺乏经验和控制迅速成为必不可少的技术的经验和控制。

那么,我们如何在不赌博风险的情况下获得AI的好处呢?

这是三个关键步骤:

并非所有的AI同样容易受到攻击。例如,大型语言模型非常容易受到影响,因为它们依赖于广泛的数据集和统计方法。但是其他类型的AI,例如符号或混合模型,较少的数据密集型,并且在明确的规则上运行,使其更难破解。

数字水印,加密和定制培训等工具可以增强AI模型,以防止新兴威胁。例如,泰勒斯(Thales)的“战箱”使网络安全团队强调AI模型,以在黑客利用它们之前查找和修复漏洞。

AI并非孤立地运行 – 它是较大信息生态系统的一部分。必须在AI时代加强和量身定制传统的网络安全措施。这始于培训员工;毕竟,人为错误仍然是任何网络安全系统的阿喀琉斯的脚跟。

有些人可能认为AI的战斗只是坏演员与不知情受害者之间正在进行的冲突的另一章。但是这次,赌注比以往任何时候都高。如果未确定AI的安全性,我们有可能将控制权力的人割让控制。