近日,北京大学集成电路学院、人工智能研究院团队联合攻关,在模拟计算芯片领域取得颠覆性突破。他们成功研制出一种支持高效片上学习的新型模拟AI芯片,其能效比相较传统数字芯片提升达惊人的228倍。这项成果犹如一道锐利的光芒,刺破了当前AI大模型训练与部署中高能耗的厚重迷雾,为人工智能的可持续发展开辟了一条极具想象力的崭新路径。
随着ChatGPT等大模型席卷全球,智能算力需求呈爆炸式增长,但其背后堪称“吞电巨兽”的能耗问题已成为制约行业发展的核心瓶颈。传统数字芯片在执行神经网络训练时,需在处理器与存储器间频繁搬运海量数据,这一过程产生了巨大的能量损耗。北大团队独辟蹊径,将目光投向了模拟计算这一前沿方向。

团队创新性地提出了“模拟算法-硬件协同设计”的全栈解决方案。他们设计出的超高效模拟电路,能够直接在存储单元内部进行并行运算,彻底避免了数据搬运的能耗开销。更关键的是,该芯片首次在模拟芯片上实现了高效的“片上学习”能力。这意味着,如同人脑一样,芯片能在执行任务的同时,根据环境实时自我调整与优化,具备了真正的自适应智能,而能耗仅为传统方案的零头。
该芯片在视觉识别、语音处理等经典任务上的实测表现惊艳,其在能效上的飞跃性提升,被业界专家评价为“里程碑式”的进展。它有望首先在智能手机、自动驾驶汽车、物联网终端等对功耗极度敏感的边缘设备上引发革命,让高性能AI无所不在。长远来看,这项技术或将大幅降低大型数据中心的运营成本与碳足迹,助力绿色计算。
“这不仅是单项指标的突破,更是计算范式的一次重要演进。”团队负责人表示。这项发表于权威期刊的成果,标志着我国在突破AI算力基础瓶颈的赛道上,已跻身世界最前沿。它承载的,不仅是提升能效的技术答案,更是对未来智能时代底层架构的重新定义。

关注 “悠AI” 更多干货技巧行业动态