受人脑工作机理、计算方式等启发,近年来,科学家们试图借鉴人脑的物理结构和工作特点,让计算机完成特定的计算任务。

  不过,受制于传统计算机架构瓶颈的限制,在目前的信息计算处理技术中,数据存储和计算需要由存储芯片和中央处理器分别来完成。数据在二者之间“搬运”处理,耗时长、功耗大,还随时有可能“交通堵塞”。

  计算机能不能像人脑一样将存储和计算合二为一,从而高速处理信息?

  近日,清华大学微电子所、未来芯片技术高精尖创新中心研究团队,与合作者共同研发出一款基于多个忆阻器阵列的存算一体系统,能够高效地处理卷积神经网络,能效比图形处理器芯片高两个数量级,有望大幅提升计算设备的算力,相关成果近日发表于《自然》杂志。

  存算一体小功耗实现大算力

  随着人工智能应用对计算和存储需求的不断提升,集成电路芯片技术面临诸多新挑战。一方面,摩尔定律“渐行渐远”,通过集成电路工艺微缩的方式获得算力提升越来越难;另一方面,传统架构中,计算与存储在不同电路单元中完成,大量数据搬运会造成功耗增加和额外延迟。

  “如果我们把居家生活比作存储,把上班比作计算,每天上班路上会消耗时间、能量,遇到早晚高峰,通勤时间会更长。这个场景和信息处理有很多相似之处,如果存储和计算合二为一,就相当于居家办公一样,能减少通勤时间也能节省体力消耗,可以用更小的功耗实现更大的算力,减少数据传输的延迟。”该团队的研究成员之一、清华大学未来芯片技术高精尖创新中心教授吴华强说。

  所以,如何实现计算存储一体化、突破算力瓶颈,成为近年来国内外的科研热点。

  忆阻器,是继电阻、电容、电感之后的第四种电路基本元件,这种元件的阻值是由流经它的电荷确定的。即使电流中断,忆阻器的电阻仍然会停留在之前的数值,这意味着,就算是断电了,这一部分的数据还可以保留。再加上忆阻器的尺寸小,可以大规模集成,功耗低,又适合做模拟计算,所以研究团队认为,可以用忆阻器尝试做存算一体、低能耗类脑计算。

  但现实远比理想骨感。忆阻器器件间波动、器件电导卡滞、电导状态漂移等,会导致计算准确率降低,制备具有高一致性、高可靠性的多值忆阻器阵列很困难。

  忆阻器性能好坏,很大程度上取决于材料的选择与组合。在选择材料时,团队主要考虑所选材料的物理参数是否易调控、未来是否适合产业化。

  出于这些考量,团队在忆阻器常用的二氧化铪材料上,添加了一层界面调控层。这个界面调控层是一种金属氧化层材料,它的不同成分占比可以根据不同工艺精确控制。通过这种方法,可以比较有效地控制忆阻器中二氧化铪部分的微观变化,以及内部的温度和电场。

  “界面调控层就像一层口罩,不仅能隔绝病毒、灰尘,还能保暖、保湿。这种设计方式使器件具有非常优异的电学特性,而且可以在工厂里大规模生产。”该研究团队的高滨副教授说。

  或许会率先应用在人工智能领域

  想让忆阻器存算一体系统解决实际问题,需要在处理大量的计算任务中,克服器件、系统、算法等方面的瓶颈,卷积神经网络是很好的“试金石”。

  卷积神经网络是一种重要的深度学习模型,借鉴了人脑处理视觉信息的方式,从算法角度,通过卷积、池化等操作,高效提取图像、视频等特征信息,在多种计算机视觉任务处理中取得了很好的效果。在传统计算架构中,受限于存储和计算分离的设计,实现卷积神经网络模型会出现功耗高、延时长,无法满足众多生活场景中电池容量、实时操作等要求。

  团队认为,存算一体的忆阻器,可以用来实现卷积神经网络等深度学习模型的高效处理,满足日常应用对算力、功耗的要求。他们还提出了空间并行的机制,将相同卷积核编程到多组忆阻器阵列中,各组忆阻器阵列可并行处理不同的卷积输入块。他们集成了8个忆阻器处理单元,每个单元阵列包含2048个忆阻器件,用以提高并行计算的效率。该系统高效运行了卷积神经网络算法,成功验证了图像识别功能,证明了存算一体架构全硬件实现的可行性。

  吴华强说,忆阻器存算一体系统,或许会率先应用在人工智能领域,如果用基于忆阻器的存算一体芯片生产手机,那么芯片的算力几乎可以让手机掌握“读心术”,“它能听懂你的声音,知道你喜欢哪些照片,会跟你越来越亲近,变得越来越智能。”