绿色AI是小时的需要

人工智能(尤其是生成的AI)是我们时代最具变革性的技术之一。从创建类似人类的内容到加速药物发现并增强商业智能,Genai正在以前所未有的速度重塑行业。但是,随着该技术变得越来越强大,其环境成本也变得显而易见。我们现在面临的问题既紧迫又至关重要:我们可以使Genai更具可持续性吗?

培训大规模的AI模型,例如OpenAI的GPT-4,Google Gemini或Meta的Llama需要大量的计算能力。这个过程的量表与延长的数百所房屋的供电相媲美。马萨诸塞大学阿默斯特大学(University of Amherst)2019年的一项研究表明,只有一种深度学习模型可以像五辆汽车一生一样发出碳。鉴于AI在日常操作中的采用越来越多,如果没有解决的话,预计该碳足迹将显着上升。

幸运的是,AI社区并没有忽略这些关注。正在探索一系列策略,即技术,基础设施和监管,以减少生成AI系统的环境影响。

开发人员现在专注于优化模型体系结构。通过实施诸如模型修剪,定量和知识蒸馏之类的技术,可以在不损害其性能的情况下降低AI模型的大小和复杂性。此外,转移学习是在预训练模型上建立的实践,而不是从头开始训练 – 显着减少了计算负载和相关排放。

AI计算的骨干(DATA Centres)正在重新构想。像Google,Microsoft和Amazon这样的公司正在对碳中性或可再生能源供电的设施进行大量投资。此外,正在部署液体冷却,智能功率分配和动态负载平衡等创新,以提高能源效率并减少浪费。

诸如TPU(张量处理单元)和NVIDIA的绿色GPU等专业芯片旨在更有效地处理AI工作负载,在保持高性能的同时消耗了更少的能量。此外,在边缘设备(例如智能手机或IoT传感器)上运行模型,而不是完全依靠云可以大大减少能量使用和延迟,从而使AI更容易访问和可持续。

与技术改进一样重要的是政策和治理框架。通过法规,碳抵消激励措施和环境审计标准来鼓励AI的可持续性,对于将AI发展与全球气候目标保持一致至关重要。 AI道德委员会的创建和可持续性评级机制也可以指导负责任的创新。

Genai将继续成为创新的推动力 – 但其未来必须通过设计可持续。企业和开发人员需要优先考虑能源效率和气候影响与性能和可扩展性一样多。