来自德国明斯特大学的研究人员展示了一种具有自学习能力的全光学的脉冲神经网络,这一网络能够实现监督和非监督学习下的模式识别,对于基于光学的人工脉冲神经网络的研究具有重要意义。这一工作发表在顶级期刊《Natu ...
背景 在我们的日常生活中,人工神经网络已经被广泛使用,例如,执行诸如人脸和语音识别等任务,而这些任务经常在我们的移动电话上进行。在医疗诊断和自动驾驶等更复杂的应用中,高速数据分析将变得越来越重要。然而,由于速度和能量效率低下,使用传统计算技术来满足这种对快速和高效处理的需求是有问题的。传统的计算机是按照冯·诺依曼(von Neumann)架构建造的,有两个独立的内存单元和按顺序操作的处理器,一次一个指令。与大脑的大规模并行信号处理相比,在基于冯·诺依曼架构的机器上用软件模拟神经网络并受到内存和处理器之间数据传输的限制的原因就很清楚了。神经形态计算的更激进的方法是通过开发模拟生物大脑的基本构造单元(即神经元和突触)的硬件,并将它们组合成适当规模的网络和阵列,以克服使用传统计算机进行类脑处理的局限性。例如,这种方法可以在芯片上直接并行地有效地处理和分析数据,从而在诸如移动设备和所谓的“边缘计算”应用等电力紧缺的情况下得到广泛应用。 摘要 大脑启发计算的软件实现是许多重要计算任务的基础,从图像处理到语音识别,人工智能和深度学习应用。然而,与真实的神经组织不同,传统计算架构将存储和处理这两个核心计算功能物理分离,使得快速、高效、低能耗的计算难以实现。为了克服这些限制,一个有吸引力的替代方案是设计模拟神经元和突触的硬件。这些硬件,当连接成网络或神经形态系统时,处理信息的方式更类似于大脑。在这里,我们提出了这样一个神经突触系统的全光学版本,能够实现监督和非监督学习。我们利用波分多路复用技术来实现一个可扩展的光子神经网络电路架构,成功地在光学领域直接演示了模式识别。这样的光子神经突触网络有望获得光学系统固有的高速和高带宽,从而能够直接处理光学通信和视觉数据。 Software implementations of brain-inspired computing underlie many important computational tasks, from image processing to speech recognition, artificial intelligence and deep learning applications. Yet, unlike real neural tissue, traditional computing architectures physically separate the core computing functions of memory and processing, making fast, efficient and low-energy computing difficult to achieve. To overcome such limitations, an attractive alternative is to design hardware that mimics neurons and synapses. Such hardware, when connected in networks or neuromorphic systems, processes information in a way more analogous to brains. Here we present an all-optical version of such a neurosynaptic system, capable of supervised and unsupervised learning. We exploit wavelength division multiplexing techniques to implement a scalable circuit architecture for photonic neural networks, successfully demonstrating pattern recognition directly in the optical domain. Such photonic neurosynaptic networks promise access to the high speed and high bandwidth inherent to optical systems, thus enabling the direct processing of optical telecommunication and visual data. |