找回密码
注册会员
发新帖
27_avatar_middle

1800

积分

0

好友

177

主题
online_member 发表于 昨天 12:09 | 查看: 11| 回复: 0
科学家造了一颗"像大脑一样思考"的芯片,它做到了超级计算机做的事
科学家研发出具备类脑思考能力的芯片,性能媲美超级计算机846 / 作者:单丁鹤纷 / 帖子ID:130980


你打过网球吗?
接球的那一刻,你的大脑在做什么?
它在实时计算球的速度、旋转、风阻、落点,然后协调你全身几百块肌肉,在几百毫秒内做出精确的动作响应。
这背后的计算量,专业名词叫"E级计算"——exascale,就是现在全球最顶尖的超级计算机才能勉强触及的那个量级。
你的大脑做这件事,用了不到20瓦的功率。
一个电灯泡的能耗。
美国能源部桑迪亚国家实验室的科学家Brad Aimone说了一句话:"这些都是非常精密的计算。它们是E级问题,我们的大脑却能用极低的能量完成。"
今年2月,他和同事Brad Theilman在《自然·机器智能》上发表了一项研究,试图回答一个问题:我们能不能把大脑的这套计算方式,真正装进一颗芯片?

当然,芯片不是没人试过模仿大脑。
这个方向有个专业名字,叫"神经形态计算"——neuromorphic computing,字面意思就是"形态像神经的计算"。思路很直接:既然大脑能用极低的功耗做复杂的计算,那就按大脑的结构设计芯片。
这个想法本身不新,从上世纪80年代就有人在做了。
但几十年来,神经形态芯片一直被认为是一种"特殊用途"的工具——擅长图像识别、语音处理、加速神经网络推理,这些模式识别类的任务。
它不被认为能处理"硬数学"。
什么叫硬数学?
就是物理学和工程学里那些真正的核心计算工具——偏微分方程。

  天气怎么预报的?背后是偏微分方程。


  飞机机翼怎么产生升力的?背后是偏微分方程。


  核弹的物理过程怎么仿真的?背后是偏微分方程。


  桥梁受力后怎么变形的?背后是偏微分方程。

这类方程描述的是:一个系统里,多个变量如何在时间和空间中同时相互影响、不断变化。
比如一锅煮沸的水,你要知道下一秒某个位置的温度,就必须把整锅水当前所有位置的状态全部纳入计算,然后推演它们的下一刻。
变量多,相互耦合,精度要求高。
这类计算,传统上只有大型超级计算机才能处理。动辄耗电几百万瓦,占地几百平方米。
神经形态芯片?从来不在考虑范围内。
但,Theilman和Aimone做了一件反直觉的事!
他们没有硬堆算力,而是从一个不同的角度切入:大脑本来就在解偏微分方程,只是没人用这个角度去理解它。
Theilman说了一段话,值得仔细读:"我们基于计算神经科学领域一个相对成熟的模型,发现它和偏微分方程之间存在一个自然但不明显的联系——这个联系在模型被提出12年后,从没人发现过。"
他们发现的,是大脑皮层神经网络的某种运作模式,和解偏微分方程所需的数学结构之间,存在深层的对应关系。
简单说:大脑皮层里神经元的激活和传递方式,本质上就是在做某种形式的偏微分方程求解——只不过用的是模拟信号、脉冲和稀疏激活,而不是数字计算机里一步步的浮点运算。
他们把这个发现写成了一个新算法,叫NeuroFEM,然后把它跑在了英特尔的Loihi 2上——目前最先进的神经形态芯片之一,集成了大约100万个人工神经元。
结果出乎所有人的意料,Loihi 2跑NeuroFEM,解出了偏微分方程。
不是近似解,不是简化版,是真正意义上的物理仿真计算。
更惊人的是扩展性——普通超级计算机加处理器,是有边际递减的——处理器越多,它们之间互相等待、传递数据的开销也越大,到了一定数量之后,加处理器反而变得低效。这是传统计算架构的根本性限制。
NeuroFEM在Loihi 2上表现出了接近理想的扩展规律:核心数量翻倍,解题时间几乎减少一半。
近乎线性的加速,没有出现传统系统的那种"拥堵效应"。
同时,能耗也显著低于在普通CPU上运行同样的计算。而且,问题规模越大、越复杂,这个能耗优势越明显。
Aimone总结说:"你可以用像大脑一样的计算方式,去解真正的物理问题。这是大多数人不会预期的,因为大家的直觉是反过来的。但实际上那个直觉是错的。"
不过,你先不要着急,现在的超级计算机仍然是一个巨大问题!
在往下说之前,有必要理解清楚现在的计算机到底有多耗能。
比如美国负责维护核武器的国家核安全局,每年需要用超级计算机模拟大量核物理过程。这些机器,单台耗电量可以达到数十兆瓦。
目前全球最强的超级计算机Frontier,峰值功耗约22.7兆瓦——相当于一个小型城市的用电量,每年电费超过一亿美元。
这还只是一台机器。
更大的问题是,现有的超级计算机架构依赖GPU进行大规模并行计算,而GPU并不擅长很多物理仿真类问题。Aimone说:"这些问题其实不太适合GPU——而GPU正是未来E级系统要依赖的核心。"
换句话说:计算机行业在往一个方向全力跑,但跑的方向对这类问题来说,不是最优解。
而,神经形态计算提供了另一条路。
那么,大脑是什么架构?
要理解为什么神经形态芯片在这件事上有优势,需要先理解它和普通芯片的根本区别。
普通计算机的架构,叫冯·诺依曼架构:内存和处理器是分开的,数据必须从内存搬运到处理器里计算,算完再写回去。每一次搬运都需要时间和能量。处理器越快,这个搬运开销越成为瓶颈——这就是所谓的"冯·诺依曼瓶颈"。
神经形态芯片的设计哲学完全不同:内存和计算是融合在一起的,每个人工神经元既是存储单元,也是计算单元。更重要的是,它是事件驱动的——人工神经元只在接收到信号的时候才激活,没有信号就安静待着,不消耗任何能量。
这正是真实大脑的工作方式。
大脑里的神经元不是一直在"工作"的。大部分时候,大部分神经元都沉默着。只有当一个信号从某处传来,相关的神经元才会"点火",产生一个脉冲,传递给下一层。
这种稀疏激活、事件驱动的方式,使得大脑可以用极低的平均功耗完成极复杂的计算——因为大多数时候,大多数"计算单元"都在省电待机。
而偏微分方程的求解,恰好也可以用类似的稀疏、分布式的方式来表达。这就是NeuroFEM的核心洞见所在。
Aimone在研究里提到了一件让他自己兴奋的事。
他们设计的神经形态算法电路,和大脑皮层神经网络的结构,有着非常接近的对应关系。
这意味着什么?
也许,大脑的某些计算过程,本质上就是在求解某类偏微分方程——只不过用的是生物物理的方式,而不是数字计算。
如果这个猜想是对的,那神经形态计算就不只是工程问题,而是打开了理解大脑的一把钥匙。
Aimone说了一句话,值得停下来想一想:"大脑的疾病,可能是计算的疾病。但我们现在还没有真正搞清楚大脑是如何进行计算的。"
阿尔茨海默症,帕金森症,抑郁症——这些疾病都是大脑的问题。但我们对大脑如何计算的理解,还极为有限。
如果神经形态芯片能帮助我们理解大脑里信息处理的基本规律,那它的价值,就远远超出了省电这件事。
这项研究是一个突破,但研究者自己说得很清醒。
答案其实还不知道。
NeuroFEM处理的是一类特定类型的偏微分方程——有限元问题。物理仿真里还有很多其他类型的数学工具,它们能不能也被"翻译"进神经形态计算,目前完全是未知的。
而且神经形态芯片的编程方式,和传统计算机完全不同,现有的软件生态几乎要从头建立。桑迪亚的团队希望这项研究能推动数学家、神经科学家和工程师坐下来,共同开发这条路。
但方向已经清晰了。
一颗芯片里,装着几百万个像神经元一样工作的计算单元,用脉冲和稀疏激活代替浮点运算,用几瓦的电力处理过去需要几兆瓦才能解决的物理方程。
嵌入一架飞机,实时仿真气动力学。嵌入一座桥,实时监控结构应力。嵌入一个核反应堆,实时模拟热流分布。
这就是研究团队描述的"神经形态孪生体"的未来——一个用极低能耗持续运行的、嵌在真实物理系统里的数字副本。
好,今天就到这里啦~
00_avatar_middle
您需要登录后才可以回帖 登录 | 注册会员

手机版|UFO中文网

GMT+8, 2026-4-29 08:51

Powered by Discuz! X3.5

© 2001-2026 Discuz! Team.

快速回复 返回顶部 返回列表