英特尔上线大型神经拟态系统Hala Point 称最高速度比人脑快200倍
今早我梦醒了坎
发表于 2024-4-22 20:42:48
188
0
0
据悉,Hala Point在英特尔第一代大规模研究系统Pohoiki Springs的基础上,通过架构改进发展而来,其神经元容量提高了10倍以上,性能方面则提高了12倍。
作为第一个在主流AI工作中展示先进计算效率的大型神经拟态系统,Hala Point在执行传统深度神经网络时支持每秒高达20万亿次运算(20 petaops),效率超过每秒每瓦15万亿次8位运算 (TOPS/W)。
英特尔表示,其独特功能可以实现未来AI应用的实时持续学习, 例如解决科学和工程问题、物流、智能城市基础设施管理、大语言模型和人工智能代理等。
根据英特尔在公告中透露的数据,Hala Point内置1152个、基于Intel 4制程的英特尔Loihi 2处理器,支持多达11.5亿个神经元和1280亿个突触,每秒可处理超过380万亿个8位突触和超过240万亿个神经元操作;其最大功耗为2600瓦,还包括了2300多个用于辅助计算的嵌入式x86处理器。
在应用于仿生脉冲神经网络模型时,Hala Point能以比人脑快20倍的实时速度运行其所包含的11.5亿个神经元,在运行神经元数量较低的情况下,最高速度可达比人脑快200倍。虽然Hala Point并非用于神经科学建模,但其神经元容量大致相当于猫头鹰的大脑或卷尾猴的大脑皮层。英特尔也指出,基于Loihi的此系统可以使用比传统CPU和GPU架构快50倍的速度执行AI推理并解决优化问题。
背后则是英特尔在神经拟态方面的长期研究。简而言之,神经拟态计算来自对大脑计算过程的学习,大脑的神经网络通过脉冲来传递信息,脑内神经网络及其环境中多个区域之间的协作和竞争性相互作用就产生了智能的行为。而神经拟态这种计算方式,能够更好地模拟人脑神经元的结构,来提升智能程度。
从2015年开始,英特尔就开始了神经拟态计算的研究,2017年英特尔推出了第一款自主学习的神经拟态芯片Loihi;到2019年,英特尔推出了包含64块Loihi的Pohoiki Beach系统,到2020年,英特尔推出的Pohoiki Springs包含768块Loihi芯片,拥有1亿个神经元。据悉,英特尔选择了“会说话”的玄凤鹦鹉进行研究。
2021年,Loihi系列升级,英特尔发布了第二代神经拟态芯片Loihi 2。如今,英特尔基于Loihi 2、Pohoiki Springs继续迭代。在AI计算路径上,芯片巨头的竞争进一步加剧,对于类脑技术的研究、跨学科的研究也在争议中继续发展。
英特尔实验室神经拟态计算实验室主任Mike Davies表示:“当下AI模型的算力成本正在以不可持续的速度上升,行业需要规模扩展的全新方法。为此我们开发了Hala Point,它将深度学习的高效与新颖的类脑学习和优化能力结合在一起,我们希望通过对Hala Point的研究,能在大规模AI技术的效率和适应性方面有所推进与突破。”
桑迪亚国家实验室的研究人员计划用 Hala Point 进行先进的大脑规模计算研究,将专注于解决器件物理、计算机结构、计算机与信息科学方面的科学计算问题。桑迪亚国家实验室Hala Point团队负责人Craig Vineyard也表示:“与Hala Point合作提高了我们桑迪亚团队解决计算和科学建模问题的能力,使用这种规模的系统进行研究将使我们能够跟上AI在商业、国防和基础科学等领域的发展步伐。”
英特尔也透露,下一步Hala Point系统将向桑迪亚国家实验室交付,这也意味着英特尔共享的大型神经拟态研究系统的首次部署,接下来的开发将使神经形态计算应用克服AI能力在现实世界中实时部署的功率和延迟限制。
CandyLake.com is an information publishing platform and only provides information storage space services.
Disclaimer: The views expressed in this article are those of the author only, this article does not represent the position of CandyLake.com, and does not constitute advice, please treat with caution.
Disclaimer: The views expressed in this article are those of the author only, this article does not represent the position of CandyLake.com, and does not constitute advice, please treat with caution.