Excerpt from PDF:

Meta-learning Spiking Neural Networks with Surrogate Gradient Descent Kenneth M Stewart1, Emre O Neftci2 1 Department of Computer Science, UC Irvine, Irvine California, USA 2 Department of Computer Science, Department of Cognitive Sciences, UC Irvine Peter Grünberg Institute – Neuromorphic Software Ecosystems Forschungszentrum Jülich, Germany Faculty of Electrical Engineering and Information Technology, RWTH Aachen, Germany E-mail: kennetms@uci.edu Abstract. Adaptive “life-long” learning at the edge and during online task performance is an aspirational goal of AI research. Neuromorphic hardware implementing Spiking Neural Networks (SNNs) are particularly attractive in this regard, as their real-time, event-based, local computing paradigm makes them suitable for edge implementations and fast learning. However, the long and iterative learning that characterizes state-of-the-art SNN training is incompatible with the physical nature and real-time operation of neuromorphic hardware. Bi-level learning, such as meta-learning is increasingly used in deep learning to overcome these limitations. In this work, we demonstrate gradient-based meta-learning in SNNs using the surrogate gradient method that approximates the spiking threshold function for gradient estimations. Because surrogate gradients can be made twice differentiable, well-established, and effective second-order gradient meta-learning methods such as Model Agnostic Meta Learning (MAML) can be used. We show that SNNs meta-trained using MAML match or exceed the performance of conventional Artificial Neural Networks (ANNs) meta-trained with MAML on event-based meta-datasets. Furthermore, we demonstrate the specific advantages that accrue from meta-learning: fast learning without the requirement of high precision weights or gradients. Our results emphasize how meta-learning techniques can become instrumental for deploying neuromorphic learning technologies on real-world problems. arXiv:2201.10777v1 [cs.NE] 26 Jan 2022 Meta-learning Spiking Neural Networks with Surrogate Gradient Descent 2 Keywords: Meta-Learning, Neuromorphic Computing, Spiking Neural Networks, Surrogate Gradient, Auto-Differentiation 1. Introduction Rapid adaptation to unfamiliar and ambiguous tasks are hallmarks of cognitive function and long-standing goals of Artificial Intelligence (AI). Neuromorphic electronic systems inspired by the brain’s dynamics and architecture strive to capture its key properties to enable low-power, versatile, and fast information processing (Mead, 1990; Indiveri et al., 2011; Davies, 2019). Several recent neuromorphic systems are now equipped with on-chip local synaptic plasticity dynamics (Chicca et al., 2013; Pfeil et al., 2012; Davies et al., 2018). Such neuromorphic learning machines hold promise to building fast and power-efficient life- learning machines (Neftci, 2018). SNNs can be modeled as a special case of artificial Recurrent Neural Networks (RNNs) with internal states akin to the Long Short-Term Memory (LSTM) (Neftci et al., 2019). Using a surrogate gradient approach that approximates the spiking threshold function for gradient estimations, SNNs can be trained to match or exceed the accuracy of conventional neural networks on event-based vision, audio, and reinforcement learning tasks (Kaiser et al., 2019; Cramer et al., 2020; Bellec et al., 2019; Bohnstingl et al., 2020; Zenke and Ganguli, 2017; Neftci et al., 2017). Although these methods achieve state-of-the-art accuracy in SNNs, they are not practically realizable on neuromorphic hardware or any other online learning systems, for several reasons: Firstly, learning via (stochastic) gradient descent requires data to be sampled in an independent and identically …더보기

This paper was uploaded based on materials provided by arXiv.
This paper is an open academic resource, and the original text can be accessed on arXiv.
Source: arXiv – A free repository for scientific and technical researchers.
This paper is provided for academic research purposes, and the original can be downloaded from arXiv.
Visit arXiv to explore more recent papers!

번역 (Translation):

대리인 그라디언트 출신의 메타 학습 스파이 킹 신경망 Kenneth M Stewart1, Emre o Neftci2 1 Computer Science, UC Irvine, Irvine California, UC Irvine, Computer Science, Cognitive Sciences, UC Irvine Peter Grünberg Institute-Neuromorphic Software Scresstem and Electrum, German, Germon eternich jungszegnich, RWTH AACHEN, 독일 이메일 : kennetms@uci.edu 초록. 최첨단과 온라인 작업 수행 중에 적응 형 “평생”학습은 AI 연구의 열망적인 목표입니다. SNNS (Spiking Neural Networks) 구현 신경성 하드웨어는 실시간, 이벤트 기반의 로컬 컴퓨팅 패러다임으로 인해 Edge 구현 및 빠른 학습에 적합하기 때문에 이와 관련하여 특히 매력적입니다. 그러나 최첨단 SNN 훈련을 특징으로하는 길고 반복적 인 학습은 신경성 하드웨어의 물리적 특성 및 실시간 작동과 호환되지 않습니다. 메타 학습과 같은 양적 학습은 이러한 한계를 극복하기 위해 딥 러닝에서 점점 더 많이 사용되고 있습니다. 이 연구에서, 우리는 그라디언트 추정을위한 스파이크 임계 값 함수에 근사하는 대리 기울기 방법을 사용하여 SNN에서 기울기 기반 메타 학습을 보여줍니다. 대리 기울기는 두 번 분리 가능하고 잘 확립되어 있으며 MAML (Model Agnostic Meta Learning)과 같은 효과적인 2 차 그라디언트 메타 학습 방법을 사용할 수 있기 때문입니다. 우리는 MAML을 사용하여 SNNS 메타 훈련을 받거나 이벤트 기반 메타-다타타에 MAML로 훈련 된 기존 인공 신경 네트워크 (ANNS)의 성능을 초과 함을 보여줍니다. 또한, 우리는 메타 학습에서 발생하는 특정 장점을 보여줍니다 : 높은 정밀 가중치 또는 그라디언트가 필요하지 않은 빠른 학습. 우리의 결과는 메타 학습 기술이 실제 문제에 대한 신경 학적 학습 기술을 배포하는 데 어떻게 도움이 될 수 있는지 강조합니다. ARXIV : 2201.10777V1 [CS.NE] 26 1 월 2022 년 1 월 26 일 대리 기울기 하강 2 키워드 : 메타 학습, 신경성 컴퓨팅, 스파이크 신경 네트워크, 대리 기울기, 자동 인식에 대한 신속한 적응 및 모욕적 인 작업 및 모호한 작업이라는 신속한 적응 1. 인공 지능 (AI)의 오랜 목표. 뇌의 역학 및 아키텍처에서 영감을 얻은 신경성 전자 시스템은 저전력, 다목적 및 빠른 정보 처리를 가능하게하기 위해 주요 특성을 포착하기 위해 노력하고 있습니다 (Mead, 1990; Indiveri et al., 2011; Davies, 2019). 몇몇 최근의 신경 형태 시스템에는 이제 온칩 국소 시냅스 소성 역학이 장착되어있다 (Chicca et al., 2013; Pfeil et al., 2012; Davies et al., 2018). 이러한 신경 학적 학습 기계는 빠르고 전력 효율적인 생명 학습 기계를 구축 할 것을 약속합니다 (Neftci, 2018). SNN은 긴 단기 기억 (LSTM)과 유사한 내부 상태를 가진 인공 재발 신경 네트워크 (RNN)의 특별한 경우로 모델링 될 수있다 (Neftci et al., 2019). 그라디언트 추정에 대한 스파이크 임계 값 기능을 근사화하는 대리 기울기 접근법을 사용하여, SNN은 이벤트 기반 비전, 오디오 및 강화 학습 과제에 대한 기존 신경망의 정확성을 일치 시키거나 초과하도록 훈련 될 수있다 (Kaiser et al., 2
019; Cramer et al., 2020; Bellec et al., 2020, 2020; Neftci et al., 2017). 이러한 방법은 SNN에서 최첨단 정확도를 달성하지만, 신경성 하드웨어 또는 기타 온라인 학습 시스템에서는 실제로 실현할 수는 없습니다. 첫째, (확률 론적) 기울기 하강을 통해 학습은 독립적이고 동일하게 데이터를 샘플링해야합니다.

이 논문은 arXiv에서 제공되는 자료를 바탕으로 업로드되었습니다.
본 논문은 공개된 학술 자료이며, 원문은 arXiv에서 확인할 수 있습니다.
출처: arXiv – 과학 및 기술 연구자들을 위한 무료 논문 저장소.
이 논문은 학술 연구 목적으로 제공되며, 원문은 arXiv에서 다운로드할 수 있습니다.
더 많은 최신 논문을 보려면 arXiv를 방문하세요!

PDF 다운로드

Leave a comment

이메일 주소는 공개되지 않습니다. 필수 필드는 *로 표시됩니다