突破模拟计算时代难题,推出高精度可扩展模拟

【看! 【我们的前沿技术】本报北京10月13日报道(记者金浩天)经过半个多世纪的数字计算在计算机领域的领先,中国科学家在新型计算架构方面取得了重大成功。北京大学人工智能研究院孙忠团队带领,联合集成电路学院研究团队,成功研发出基于存储器电阻传输的高精度可测模拟矩阵计算芯片,首次提高了24位点模拟的模拟精度。相关性能评测显示,在解决大规模MIMO信号检测等重大科学问题时,计算芯片的运算量和kahuEnergy比当前顶级数字处理器(如图形处理器和GPU)高出数十万倍。这一成功标志着我国进入模拟时代计算模拟,是后摩尔时代计算范式变革的重大成功,为应对人工智能、6G通信等领域的计算挑战开辟了新路径。相关成果13日发表在国际学术期刊《自然电子学》上。相应论文集孙忠告诉记者,模拟计算是早期计算机的基础技术。它直接通过物理定律运行,具有高模拟、低延迟、低功耗的天然优势。然而,由于Mabab的精度和扩展传统模拟计算的难度,逐渐用高精度、可编程的数字计算取代它们,成为教科书上存在的“老技术”。 “如何让模拟计算具有同样的高精度和灵活性,为全球科学界充分发挥其天然优势。虽然数字计算由于精度高,计算速度慢。智能、科学计算、6G通信。”通过与新型信息器件、原创电路和经典算法的协同,他们首次实现了堪比数字计算精度的模拟计算系统,将传统模拟计算的传统提升了五个数量级。“我们开发的新方案在保持模拟计算低复杂度优势的同时,实现了媲美数字FP32处理器的计算精度。该团队还提出了一种计算矩阵的分块方法,用许多芯片分解大问题来解决难题。通过大小模拟和实验计算,实现了16×16矩阵等式的解。 ” 孙忠宣布,通过严格的实验测试和基准对比,该技术展现出了出色的性能。在计算方面计算能力,在解决32×32矩阵求逆问题时,该解决方案的计算强度超过了高端GPU的单核。当问题规模扩大到128×128时,计算吞吐量可以达到领先数字处理器的1000倍以上。 “这项技术还展现了极致的能效比,在相同精度下,该技术的能效比比传统数字处理器高出100倍以上,为算力中心的能耗问题提供了基础技术支撑。” “这一突破的重要性不只是一篇领先的论文,它具有广泛的应用前景,可能赋能很多计算场景,有望重塑算力格局。”孙忠表示,未来6G通信领域,可以让基站实时处理海量天线信号,且能耗低,提高网络容量效率和能源效率。针对人工智能技术的快速发展,本研究有望通过大模型训练加速计算密集型二阶算法优化,从而显着提高训练效率。 “更重要的是,低功耗特性还将有力支持复杂信号处理和AI训练的直接运行并推送到终端设备,大大减少对云端的依赖,从而将边缘计算推向新的阶段。” “这项工作最大的量就是用事实证明模拟计算能够以非常高的效率和精度解决现代科学和工程中的重大计算问题。可以说打破了数字计算的长期垄断,开启了泛在、绿色、大算力的新时代。”孙忠宣布,目前,团队正在积极推动这项技术的产业化进程,并引入数字计算技术。g实验室成果即将推向市场。
牢记嘱托、感恩前行——安徽奋勇向前|满载49吨,每公里发电1度电,合肥造重卡推动商用车绿色转型
牢记嘱托、感恩前行——安徽奋勇向前|满载49吨,每公里发电1度电,合肥打造MaTruck卡车,推动商用车绿色转型