《科学》杂志在今年4月份提出了125个最具挑战性的前沿科学问题,其中信息科学领域的首个问题便是:计算机处理速度是否有上限?(Is there an upper limit to computer processing speed?)在数字计算机中,处理器速度的上限很大程度上由时钟频率决定,而时钟频率的增加实质上受逻辑状态(“0”与“1”)翻转速度的限制。进一步提高处理器的速度将导致严重的过热问题,这也解释了为什么十多年来,处理器的时钟频率已经停止了增长,这也导致传统计算机在有着大规模计算需求的物联网、自动驾驶等应用场景中面临巨大挑战。一种应对的思路是利用并行计算技术,通过提高并行度来提升处理速度的上限。常规的多核、多芯片、多板卡并行计算系统均采用“空间换时间”的妥协方式来提高算力,如何利用新的计算硬件和计算方案来实现大规模并行计算,从而实现信息处理速度的不断提升,是未来计算领域一个广受关注的议题。近日,我校缪峰教授合作团队利用连续时间的信息加载方式和频分复用技术,首次提出并实验验证迄今最高并行度的神经形态计算方案。
利用忆阻器交叉阵列可实时连续地处理动态信息的特点,该团队提出利用时间上连续的信号作为信息载体,引入频率维度,提出了迄今最高并行度的神经形态计算方案。作为验证,团队利用两个级联的忆阻器交叉阵列,成功实现了对16张字母图片的并行识别。该工作为回答“计算机处理速度是否有上限”的前沿科学问题提供了新的思路,并为利用大规模并行计算技术在神经形态计算领域实现应用提供了科学基础。
研究团队基于忆阻器交叉阵列可以在时间上连续处理信息的特性,提出了在频域上采用频分复用实现并行计算的方式。在该方式中,如果将单一频率的连续信号输入忆阻器阵列进行计算,输出的信号会维持单一频率;如果将多个单频率信号叠加合成为一个多频率信号,并输入忆阻器阵列进行计算,输出的信号会具有多个频率。我们选取了一系列正弦波叠加后的信号作为忆阻器交叉阵列的输入信号(图1a),该信号的频谱会出现多个离散的峰,每个峰均可被用来加载数据。
该计算方案具有两种操作模式:并行读取模式和并行计算模式。如图1b所示,以一个M*N的忆阻器阵列为例,在并行读取模式下,M行中的每行输入不同频率、相同幅值的单一频率信号;而在计算模式下,忆阻器阵列M行中的每行输入的信号存在k种频率,每个频率有着不同的幅值,忆阻器不同行不同频率上输入的数据构成了一个k*M大小的输入矩阵。在两种模式下,忆阻器的N列输出电流的频谱中都包含了k种频率分量,共同构成了一个k*N大小的输出矩阵。因此,在计算模式下,利用忆阻器阵列一步完成了输入矩阵(k*M)与忆阻器权值矩阵(M*N)的点乘运算。该运算的并行度为M,并可随着阵列规模的扩大而增加。
图1 基于忆阻器交叉阵列的频分复用计算。 a 利用忆阻器交叉阵列实现频分复用计算,其中信息的载体是多种分立频率信号合成的时间上连续的信号。b 利用频分复用计算进行并行读取和并行计算的图解。在读取模式下,忆阻器阵列的每行输入不同频率、相同幅值的单一频率信号;而在计算模式下,忆阻器阵列每行输入的信号有着多种频率,每个频率有着不同的幅值,忆阻器不同行不同频率上输入的数据构成一个输入矩阵。在读取和计算两种模式下,忆阻器交叉阵列每一列的输出电流的频谱中包含了多种的频率分量,共同构成了一个输出矩阵。在计算模式下,一步即完成了输入矩阵与忆阻器权值矩阵的点乘运算。
进一步,研究团队将两个分别工作在读取和计算模式下的阵列进行级联,实现了并行读取、并行识别、与识别结果传输的功能演示(图2)。在该演示中,第一个阵列储存了代表16张“NANJING UNIV CHINA”的5*5像素的字母图片,第二个阵列储存了用于识别上述9类字母的神经网络权重。当给第一个忆阻器阵列按列施加不同频率、相同幅值的电压信号时,在第一个阵列内完成了并行读取的过程。通过电流-电压转换,第一个阵列的信息被直接加载到第二个阵列的输入信号中。通过第二个忆阻器阵列的推理之后,完成了对16张图片的同时分类。此外,频分复用计算的输出信号和无线频分复用通信系统中的通讯信号相互兼容,还可以通过无线射频模块直接完成识别结果的无线传输。
图2:基于频分复用并行计算技术进行的多个图片并行识别和识别结果的无线传输。 a 实现图片并行读取-识别-发送的示意图。其中两个忆阻器交叉阵列分别用于保存待处理图片和执行推理任务。b 16 个待识别图片按照特定的方式构成16*25数据矩阵。c 另一个忆阻器交叉阵列被训练成神经网络权重矩阵。d 16张图片的并行识别结果。忆阻器阵列的识别结果通过射频电路发射,并在无线终端实现接收。可以通过判断接收到每个频道信号的正负相位(红、蓝色方块),获取对初始待识别图像的识别结果。
最后,值得一提的是,在该工作中,虽然团队利用忆阻器阵列作为硬件展示,但是该频分复用计算技术可以广泛应用于相变存储器、磁隧穿结存储器、浮栅器件等其他神经形态计算硬件上。该工作为未来人工智能时代,填补海量数据计算需求所面临的算力缺口提供了可行的技术途径。
相关研究成果以《Scalable massively parallel computing using continuous-time data representation in nanoscale crossbar array》(利用连续时间数据表达在纳米尺度交叉阵列上实现可扩展大规模并行计算)为题于 2021年7月8日发表在《自然-纳米技术》(Nature Nanotechnology)期刊上。南京大学物理学院博士生王聪和副教授梁世军为共同第一作者,缪峰教授为通讯作者,共同作者还包括东南大学和紫金山实验室张在琛教授、张川教授团队。该工作得到国家杰出青年科学基金、国家自然科学基金重点项目、中科院先导B等项目的资助,以及固体微结构物理国家重点实验室、人工微结构科学与技术协同创新中心等支持。
相关文章链接: