互联网资讯 · 2024年4月19日 0

英特尔推出Hala Point:降低AI应用能耗,推动实时持续学习

作为英特尔首个神经元数量达到11.5亿的神经拟态系统,Hala Point为更高效、规模更大的AI开辟了道路。

英特尔发布了代号为Hala Point的大型神经拟态系统。Hala Point基于英特尔LoiHi 2神经拟态处理器打造而成,旨在支持类脑AI领域的前沿研究,解决AI目前在效率和可持续性等方面的挑战。在英特尔第一代大规模研究系统Pohoiki SpRings的基础上,Hala Point改进了架构,将神经元容量提高了10倍以上,性能提高了12倍。

英特尔研究院神经拟态计算实验室总监Mike Davies 表示:目前,AI模型的算力成本正在持续上升。行业需要能够规模化的全新计算方法。为此,英特尔开发了Hala Point,将高效率的深度学习和新颖的类脑持续学习、优化能力结合起来。我们希望使用Hala Point的研究能够在大规模AI技术的效率和适应性上取得突破。

Hala Point在主流AI工作负载上展现了出色的计算效率。研究显示,在运行传统深度神经网络时,该系统能够每秒完成多达2万万亿次(20 petaops)运算,8位运算能效比达到了15 TOPS/W,相当于甚至超过了基于GPU和CPU的架构。Hala Point有望推动多领域AI应用的实时持续学习,如科学研究、工程、物流、智能城市基础设施管理、大语言模型(LLMs)和AI助手(AI agents)。

目前,Hala Point是一个旨在改进未来商用系统的研究原型。英特尔预计其研究将带来实际技术突破,如让大语言模型拥有从新数据中持续学习的能力,从而有望在AI广泛部署的过程中,大幅降低训练能耗,提高可持续性。

英特尔推出Hala Point:降低AI应用能耗,推动实时持续学习

深度学习模型的规模正在不断扩大,参数量可达万亿级。这一趋势意味着AI技术在可持续性上面临着严峻的挑战,有必要探索硬件架构底层的创新。神经拟态计算是一种借鉴神经科学研究的全新计算方法,通过存算一体和高细粒度的并行计算,大幅减少了数据传输。在本月举行的声学、语音与信号处理国际会议(ICASSP)上,英特尔发表的研究表明,LoiHi 2在新兴的小规模边缘工作负载上实现了效率、速度和适应性数量级的提升。

Hala Point在其前身Pohoiki SpRings的基础上实现了大幅提升,基于神经拟态计算技术提升了主流、常规深度学习模型的性能和效率,尤其是那些用于处理视频、语音和无线通信等实时工作负载的模型。例如,在今年的世界移动通信大会(MWC)上,爱立信研究院(ERicSSon ReSeaRch)就展示了其如何将 LoiHi 2神经拟态处理器应用于电信基础设施效率的优化。

Hala Point基于神经拟态处理器LoiHi 2打造,LoiHi 2应用了众多类脑计算原理,如异步(asynchRonoUS)、基于事件的脉冲神经网络(SNNs)、存算一体,以及不断变化的稀疏连接,以实现能效比和性能的数量级提升。神经元之间能够直接通信,而非通过内存通信,因此能降低整体功耗。

英特尔推出Hala Point:降低AI应用能耗,推动实时持续学习

在执行AI推理负载和处理优化问题时, LoiHi 2神经拟态芯片系统的速度比常规CPU和GPU架构快50倍,同时能耗降低了100倍。早期研究结果表明,通过利用稀疏性高达10比1的稀疏连接(spaRse connectivITy)和事件驱动的活动,Hala Point运行深度神经网络的能效比高达15 TOPS/W,同时无需对输入数据进行批处理。批处理是一种常用于GPU的优化方法,会大幅增加实时数据(如来自摄像头的视频)处理的延迟。尽管仍处于研究阶段,但未来的神经拟态大语言模型将不再需要定期在不断增长的数据集上再训练,从而节约数千兆瓦时的能源。

世界各地领先的学术团体、研究机构和公司共同组成了英特尔神经拟态研究社区(INRC),成员总数超过200个。携手英特尔神经拟态研究社区,英特尔正致力于开拓类脑AI前沿技术,以将其从技术原型转化为业界领先的产品。