MIT工程师开发可编程的纳米光子处理器

2018-05-15

这个未来主义的绘图展示了集成在印刷电路板上的可编程纳米光子处理器,并进行深度学习计算。 RedCube Inc.和研究人员的礼貌

一组工程师提出了全光学神经网络的新体系结构,原则上,该体系结构可以提供与用于传统推理任务的最新电子设备相比计算速度和功率效率的提高。 EM>

基于人造神经网络的“深度学习”计算机系统已经成为计算机科学中的一个热门话题,模拟大脑从示例中积累的方式进行学习。除了支持脸部和语音识别软件之类的技术之外,这些系统还可以扫描海量的医疗数据以找到可能对诊断有用的模式,或扫描可能的新药物的化学分子式。

但是这些系统必须执行的计算非常复杂和苛刻,即使是最强大的计算机也是如此。

现在,麻省理工学院和其他地方的一组研究人员已经开发出一种新的方法来处理这种计算,用光而不是电,他们认为这可以极大地提高某些深度学习计算的速度和效率。他们的研究成果今天出版在MIT博士后期刊“自然光子学”杂志上,研究生Nicholas Harris,MarinSoljačić教授和Dirk Englund教授以及其他八位教授的论文中。

Soljačić说,多年来许多研究人员都提出了关于基于光学的计算机的说法,但是“人们显然过分承诺过,并且会导致事故。”尽管这种光子计算机的许多建议使用结果并不实际,但是基于光这个团队开发的神经网络系统“可能适用于某些应用的深度学习,”他说。

当涉及某些重要的神经网络任务所需的各种计算时,传统的计算机体系结构效率不高。这些任务通常涉及矩阵的重复乘法,这在传统的CPU或GPU芯片中可能非常计算密集。

经过多年的研究,麻省理工学院团队提出了一种以光学方式进行这些操作的方式。 Soljačić说:“一旦你调整了这个芯片,就可以在原则上实现矩阵乘法,几乎是瞬间的零能量。 “我们已经展示了关键的构件,但还没有完整的系统。”

通过类比,Soljačić指出,即使是普通的眼镜片也会对通过它的光波进行复杂的计算(即所谓的傅立叶变换)。光束在新型光子芯片中进行计算的方式远为普遍,但具有类似的基本原理。这种新方法使用多个光束,使得它们的波彼此相互作用,产生传达预期操作结果的干涉图案。由此产生的设备是研究人员称之为可编程的纳米光子处理器。

Shen说,结果是使用这种架构的光学芯片原则上可以比传统的电子芯片更快地执行典型的人工智能算法所执行的计算并且每次操作的能量少于千分之一。 “使用光进行矩阵乘法的天然优势在加速和节能方面起着重要作用,因为密集矩阵乘法是人工智能算法中功耗最大,耗时最长的部分”,他说。

由Harris及其合作者在Englund实验室开发的新型可编程纳米光子处理器使用一系列波导,这些波导以可根据需要进行修改的方式进行互连,并对该波束进行编程以进行特定计算。 “你可以在任何矩阵操作中编程,”哈里斯说。处理器通过一系列耦合的光子波导引导光线。该团队的完整提案要求交错层设备应用称为非线性激活功能的操作,类似于大脑中神经元的操作。

为了展示这个概念,该团队设置了可编程纳米光子处理器来实现识别四个基本元音的神经网络。即使有了这个基本的系统,他们也能达到77%的准确度水平,而传统系统则达到约90%。 Soljačić说,为了提高准确性,放大系统“没有实质性障碍”。

Englund补充说,可编程纳米光子处理器也可以具有其他应用,包括用于数据传输的信号处理。 “高速模拟信号处理是可以管理的事情”比首先将信号转换为数字形式的其他方法更快,因为光是固有的模拟介质。 “这种方法可以直接在模拟领域进行处理,”他说。

该团队表示,为了使这个系统有用还需要更多的努力和时间。但是,一旦系统扩展并且功能完善,就可以找到许多用户案例,例如数据中心或安全系统。哈里斯说,这个系统也可以成为自动驾驶汽车或无人驾驶飞机的福音,或者“只要你需要做大量的计算,但你没有太多的动力和时间”。

该研究团队还包括麻省理工学院研究生Scott Skirlo和Mihika Prabhu在电子研究实验室孙新的数学,以及生物学中的Shijie Zhao,纽约Elenion Technologies的Tom Baehr-Jones和Michael Hochberg以及位于纽约的Elenion Technologies的Hugo Larochelle,魁北克舍布鲁克大学。这项工作得到了美国陆军研究办公室通过士兵纳米技术研究所,国家科学基金会和空军科学研究办公室的支持。

出版物:Yichen Shen等人,“用相干纳米光电路进行深度学习”,Nature Photonics(2017)doi:10.1038 / nphoton.2017.93

来源:大卫钱德勒,麻省理工新闻