在另一波人工智能(AI)炒作中,“吉卜力效应”最近遭受了社交媒体的风暴。但这不仅仅是一个有趣的在线趋势。在其可爱的AI生成的动漫肖像之下,这是一个更深层次的问题 – 私有和消费者信任。数以百万计的用户渴望看到自己的动漫化身,在不知不觉中将一群个人图像移交给了AI应用程序。家庭照片,私人时刻,甚至是儿童的图像都被上传了,通常没有清楚地了解这些数据的去向或如何使用。这要求停下来检查潜在的伤害,例如贫血滥用,以及如何调节它。
AI在没有明确法律后果的情况下模仿艺术风格的能力长期以来使艺术家感到沮丧,从而揭示了版权法中的差距。但是除了创造性的关注之外,这种趋势是以娱乐为幌子收集大众数据的工具。 AI公司现在没有抓住互联网,而是依靠用户愿意提交自己的图像,通常不清楚地了解术语和条件的密集法律。
印度的数字个人数据保护(DPDP)法案,《 2023年》及其规则草案旨在使消费者控制其数据,需要同意和数据处理通知。但是,执法和有限的公众意识的延误使这些保护措施无效。该法案还豁免了公开可用的数据,这意味着公司可以免费使用的任何图像。结合隐私政策,这使应用程序可以在用户单击“同意”条款和条件后,在上传的图像上训练AI系统 – 通常不阅读精美的打印。
最令人震惊的部分?一旦对个人数据进行了AI模型的培训,就几乎不可能删除该数据。即使用户请求删除,AI也保留了学习的模式,从而使完全删除不可能。这不仅仅是个人隐私。它对AI分析和对人类特征进行分类的能力提出了更广泛的关注。
在深层和面部识别技术时代,这尤其令人担忧。用户认为他们只是在创建自己的无害动画。实际上,他们正在为AI系统提供高质量的自愿提交的面部数据。这些数据可用于面部识别数据库中,被操纵为假视频,用于分析或在数据泄露中妥协。
风险不是假设的。最近的基因测试公司23andMe的案例是一个明显的警告。一旦成为最高的基因测试服务,它现在面临财务困扰,正在寻找买家,将1500万用户的DNA数据置于风险上。那些出于好奇心分享遗传信息的人现在急于删除它。
吉卜力效应是另一个提醒,印度的监管立场仍然被动。 DPDP ACT不会明确调节AI模型培训,也不需要对用户数据的重新使用方式进行透明度。公司没有法律要求揭示其AI是否接受过个人图像的培训。
同时,消费者继续使用AI工具。这种趋势的病毒性质只会加速广泛的数据收集。似乎有趣的趋势是,实际上,AI公司悄悄地积累了大量用户数据,而法规的适应性缓慢。
为了防止这种剥削消费者数据,印度的监管框架必须优先考虑隐私,透明度和问责制。应要求AI公司获得数据收集和处理的明确和知情同意,以确保消费者可以实时访问来修改或删除其数据。法规必须授权目的限制,限制AI公司使用超出既定目标的个人数据。逐个设计的隐私应是强制性的,并将数据最小化,匿名性和加密为保护用户数据。应要求诸如差异隐私和联合学习之类的技术,从而减少对集中数据库的依赖并减轻隐私风险。强大的网络安全协议必须防止未经授权的访问。
此外,AI培训的透明度至关重要。公司必须披露其数据保留政策,阐明是否对AI模型进行了个人图像培训。重要的是,数据收集必须使用默认的选择模型,需要主动用户同意,而不是繁重的选择退出或撤回流程。
强大的监管框架对于执行合规性,惩罚滥用并确保道德AI部署至关重要。没有监管监督,消费者仍然容易受到剥削。应进行定期公平审核,以识别和减轻此类风险。
消费者意识计划必须对公众进行AI风险进行教育,以确保用户了解将图像或个人数据上传到AI工具具有长期影响。此外,必须建立有效的申诉机制,以便为受影响的用户提供针对数据滥用的法律追索权。应支持消费者团体在提高认识,建立能力和支持个人解决与AI相关的不满方面发挥关键作用。印度现在必须采取行动,以建立一个保护AI时代权利的治理模式。
吉卜力效应不仅是另一种互联网趋势。它体现了AI公司如何由于缺乏用户意识和通过掩盖的同意而获得大量个人数据。当趋势逐渐消失时,剩下的是一个数字生态系统,消费者在很大程度上不知道他们所做的隐私权衡。同时,问题仍然存在:您自己的可爱动漫化身值得揭露您的数字身份吗?因为现在,没有其他人为您问这个问题。
Cuts International的Krishaank Jugiani为本文做出了贡献
作家分别是议会的成员,拉贾·萨卜哈(Rajya Sabha)和秘书长削减了国际。