围绕人工智能 (AI) 的全球讨论很大程度上是由对技术成就的痴迷主导的。关于创建更智能的系统、优化计算效率和重新定义创新边界的对话充满了兴奋。然而,一种令人不安的沉默正在显现——这种沉默回避了人工智能提出的深刻的道德和社会问题。作为一个全球社会,我们是否对“我们能吗?”如此着迷?我们忽视了同样重要的“我们应该吗?”。
无可否认,科学技术推动了人类前进,但人工智能的崛起也带来了超越其领域的挑战。从本质上讲,人工智能迫使我们解决有关信任、正义和公平的问题。算法能否真正理解道德,还是只是通过统计模型模拟道德推理?毕竟,作为存在了几个世纪的人类社会,我们仍然没有将道德理解为二元的。这些不是技术难题,因为它们是深刻的人类困境。然而,它们常常被边缘化,被政策优化和监管规模的指标所掩盖。
塑造人工智能的技术专家和政策制定者经常在准确性和性能的框架内运作。但这种关注引出了关键问题:为谁提供准确性?表现到什么目的呢?技术进步自动转化为社会进步的假设是危险的天真。当算法决定获得医疗保健、信贷甚至正义的机会时,它们所行使的道德权威远远超出了其预期设计。这些决定的社会后果需要进行审查——技术人员既没有接受过培训,也没有能力提供这种审查。
在全球范围内,监管人工智能的尝试揭示了一个支离破碎的局面。欧盟的人工智能法案是最全面的法案之一,它按风险对人工智能系统进行分类,并对高风险应用程序执行严格的要求。美国采取了更加针对具体行业的方法,而中国则凭借其庞大的数据资源,将人工智能深深嵌入到监视和国家控制中。与此同时,印度正站在十字路口,试图在对技术领先地位的渴望与解决其独特的数据主权挑战的需要之间取得平衡。
在一个幅员辽阔且复杂的国家,当数字素养和访问仍然不平衡时,我们如何确保人工智能系统的公平性?在权力动态根深蒂固的社会经济环境中,我们如何保护个人同意?印度的监管框架必须了解这些问题。
人工智能辩论中明显缺乏不同的声音,这加剧了这种复杂性。行业领导者和政府经常将人工智能简化为地缘政治棋子,将其吹捧为经济主导地位或民族自豪感的工具。
考虑一下人工智能中通常如何评估危害和收益。功利主义原则占据主导地位,以最大多数人的最大利益来衡量结果。但当基本权利受到威胁时,这种方法就足够了吗?如果一个AI系统让99%的用户受益,却歧视1%的用户,它的存在还有道理吗?
此外,人工智能的道德挑战正在以远远超出我们监管能力的速度发展。自主武器、深度造假技术和无处不在的监视已成为现实。
人工智能的影响超出了治理范围,延伸到了消费主义本身。人工智能已经在重塑我们的消费方式,算法巧妙地影响着我们购买的产品、阅读的新闻,甚至我们持有的价值观。这种转变对于印度来说尤其重要,印度 14 亿人口中有一半以上年龄在 30 岁以下。作为数字原住民,这一群体将推动消费模式。
人工智能系统可以推动偏好、塑造愿望和操纵选择,通常是以企业利润而非个人福祉的方式服务的。对于年轻的印度来说,这引发了有关代理和自由的令人不安的问题。
人工智能对劳动力市场的影响使情况进一步复杂化。自动化将挑战传统的工作结构,形成提高技能和重新定义工作本身的双重要求。如果印度的劳动力没有为人工智能主导的未来做好准备,印度的人口红利可能很快就会成为一种负担。这种准备必须超越技术技能,培养批判性思维、道德意识和适应能力。
人工智能的兴起也迫使我们面对关于自己的令人不安的事实。我们是否如此迷恋我们的技术实力而忽视了它的局限性?在我们追求效率的过程中,我们是否忽视了人工智能带来的更大的社会挑战?在人工智能部署后对其进行监管或依赖肤浅的道德准则是不够的。道德考虑必须融入人工智能开发的每个阶段。
这种转变需要采取多学科的方法。哲学家必须努力解决机器道德问题。人类学家必须研究人工智能如何重塑文化和社会规范。艺术家和作家必须想象另一种未来,设想将人性置于效率之上的技术。
人工智能的形成方式,甚至可能引导人类的方式,将不仅仅是我们技术能力的反映。这将是对我们道德勇气的最终试金石。印度面临着微妙的平衡:制定稳定的人工智能法规,同时避免陷入将新兴技术领导地位让给根深蒂固的西方主导地位的陷阱,就像 Web1 和 Web2 所发生的那样。如果失去技术主权是道德治理的代价,那么印度真的有选择吗——还是变相的霍布森选择?
作者是公司董事会的公司顾问兼独立董事。