账号:
密码:
最新动态
产业快讯
CTIMES / 文章 /
人工智慧推动神经网路技术开发热潮
让运算架构更接近大脑

【作者: 盧傑瑞】2023年02月22日 星期三

浏览人次:【2071】

神经网路几??成了人工智慧的代名词,正在被应用於各种领域,包括影像识别、语音辨识、自然语言处理、自动驾驶、讯号分析、大数据分析和游戏。


这是一个瞬息万变的世界,每年都有新的神经网路模型被更新,大量的开放原始码到处流传,专用人工智慧晶片开发企业更是如雨後春笋般涌现。


因此全球研究人员正透过模仿人类大脑组织方式,积极开发类神经网路技术,虽然一直有突破性的进展,但是现阶段的神经网路,还是缺乏即时变化的灵活性,以及难以快速适应陌生的状况,使得神经网路技术普及实用化的进程还是相当遥远。


根据不同应用开发出的神经网路模型

神经网路是模仿人类神经细胞网路的模型,由输入层、中间层(隐藏层)和输出层的神经元,以及连接它们的突触组成。而机器学习就是在大量资料的基础上,自动构建连接和它们的权重。


深度学习是指,使用具有多个中间层的神经网路的机器学习。深度学习使电脑能够提取自己的特徵量,作为发现模式和规则时应该注意些什麽,同时也能进行识别和其他作业,因此促进了人工智慧热潮。


模型根据应用的不同,又分为影像识别的深度神经网路(DNN)、卷积神经网路(CNN)、语音辨识的??圈神经网路(RNN)和自然语言处理的Transformer。模型可以在不同的应用中进行整合,也可为每个应用开发出新模型。


深度神经网路(DNN)

DNN的隐藏层由一个卷积层和一个池化层组成。卷积层利用过滤上一层附近的节点,而可得到一个特徵图。池化层进一步缩小卷积层输出的特徵图,得到新的特徵图,同时可在保持影像特性的同时,可以极大地压缩影像中的资讯量。例如,在2012年ILSVRC影像识别比赛中,以压倒性的优势获胜,采用八层结构的AlexNet就引发了深度学习的热潮,随後经过改进而来的ResNet,其层数就达到了152层。因此,透过导入简化处理块的Residual模组,即使是在高层数的结构下,也能达到高效学习。


??圈神经网路(RNN)

具有自我回??的递??网路RNN,是一个适合处理包括语音波形、视讯和文字档(字串)等等时间序列资料的神经网路。例如神经网络中为了处理如语音等,可变长时间序列数据,将隐藏层的值再次回??输入到隐藏层。当存取很久以前的数据,或出现运算量爆炸等问题时,可透过应用於自然语言处理的LSTM(长短时记忆)来解决。


Transformer

在自然语言处理方面,既不是透过RNN,也不是CNN,而是据由深度学习的Transformer取得了重大进展:这是一个只使用Attention(表示要注意句子中哪些单词的分数)的Encoder-Decoder模型,也可透过并行化来减少学习时间。在後续的技术改进下也相继开发出的BERT、GPT-2、T5等,甚至已超过了人类的语言处理能力。


而Conformer是一个结合CNN的模型,可被应用於语音辨识,其能力已经超过RNN的最高准确性。Conformer结合了善於提取长时空依赖关系的Transformer,和善於提取局部关系的CNN。此外,一个新的影像识别模型-Vision Transformer也被开发出来,在进行影像识别时,所需要的运算资源比CNN少更少。


大型数据处理业者相争投入开发AI晶片

神经网路中的讯号处理,相当於将神经元乘以权重的数值加在一起,再透过高速运算乘积之和的操作来模仿大脑行为(高速积和加速器)。最近的主流配置是尽可能多铺设必要数量的图砖(Tile)来进行AI运算,例如,一个图砖被用於终端感测器控制,4-16个图砖用於中等规模的边缘处理,64个或更多图砖用於资料中心等伺服器。


人工智慧晶片的功能大致可分为推理和学习。两者都需要相同的高速乘积运算,但与推理相比,学习需要进行大量的乘积和运算,因此各大数据处理业者正积极投入这方面的研发,例如,Google目前正积极开发TPU来作为本身资料中心的AI晶片。第一代(2017年)有8位元定点操作,只能用於推理,但第二代有16位浮点运算,则可以应用在学习。接下来第三代的性能则是120Tops @ 250W,最新的第四代载板设计了4颗TPU,且采用液体冷却,运算速度更是上一代的2.7倍。这些电路板被安装在一个个机柜内,然後通过高速传输线相互连接。


用於推理的人工智慧晶片要求体积小、功耗低和即时处理。例如,Gyrfalco销售一种形状像USB随身碟的AI棒。采用的AI晶片是一款具有矩阵处理引擎,利用PIM(记忆体中处理器)技术来进行神经网路模型的计算处理,这个架构可降低与记忆体和计算电路之间的资料存取的功耗,晶片内部有大约28000个节点和10M bytes的记忆体,据称能够将通用模型所需的所有性能都能整合到晶片中。


NTT与东大合作开发新型类脑学习算法

对於深度神经网络的运算,日本NTT与东京大学合作下,开发了一种不需要准确掌握物理系统资讯,适用於物理神经网络的新演算法-「扩展DFA(Detrended Fluctuation Analysis)」。


图一A是这种演算法的概况和结果的定位,这是基於深入研究了一种名为直接回??排列法的学习演算法,是将反向传播演算法(Back Propagation;BP)修改为在大脑资讯处理更容易实现的形式,并将其扩展到可在物理神经网络中实现。


这个方法是将神经网络最後一层的输出与所需输出讯号(误差讯号)之间的差值,透过随机元素的矩阵的线性变换来更新学习叁数。运算过程不需要测量物理系统的状态,也不需要像BP法需要利用微分回应的物理类比进行近似运算。


此外,这个运算可以在包括光路等物理系统上执行,除了可以在物理系统上有效地运算推理,还可以进行学习。这种新的学习方法不仅适用於物理实现中实现的神经网络模型,也适用於各种机器学习模型,包括实际用於机器翻译和其他应用的高级深度神经网络模型。


因此NTT与东京大学构建了一个光学神经网络(图一 B),证明了以前难以进行的光学神经网络学习,可以利用光学计算辅助推理和学习运算的可行性。这一成果将解决人工智慧的计算时,功耗和计算时间增加的问题。



图一 : 物理系统的计算被纳入学习部分来提高效率;以及实际设备应用的光学神经网络。(source:日本NTT;作者整理)
图一 : 物理系统的计算被纳入学习部分来提高效率;以及实际设备应用的光学神经网络。(source:日本NTT;作者整理)

适用於物理神经网络的扩展DFA法

DFA法是受到大脑资讯处理的启发,因而进一步扩展为适合在物理神经网络中实现的形式。如图二A所示,传统的DFA法是透过随机矩阵对最後一层的误差,进行线性变换来训练深度神经网络学习;尽管比BP法更适用於物理神经网络,但仍然需要计算物理神经网络时,使用的非线性变换及其导数。


而NTT与东大扩展了DFA法技术,使这部分可以由一个任意的非线性函数代替。这完全省去了对物理系统的状态测量、基於微分响应的物理类比的近似值,以及基於这些近似值的顺序反向传播演算。学习过程已被大幅度简化,实现了用物理神经网络几??不可能的学习。此外在对各种深度学习模型的适用性应用於各种深度学习模型时,也可以适用於广泛的深度神经网络模型,包括从实际用於影像识别,和其他应用的高级模型(图二B)。



图二 : A现有和新开发的学习方法概述;B各种模型的基准测试结果。(source:日本NTT;作者整理)
图二 : A现有和新开发的学习方法概述;B各种模型的基准测试结果。(source:日本NTT;作者整理)

图三A是使用构建系统对影像处理基准任务性能的比较结果,光学神经网络可达到最高性能。图三B则是显示了每单位影像的学习时间对神经元数量的依赖性。在小规模网络模型的情况下,速率决定了资讯传输到光学硬体的处理时间,因此效果不如光学计算的计算加速效果大。


但是随着神经元数量的增加,可以发现光学神经网络计算在运算速度上比传统的数位电子计算更有优势。此外,由於人工智慧运算的功耗,是由效率和计算时间的积和所决定的,因此加速计算有助於降低功耗。



图三 : A使用光学神经网络进行影像辨识测试(手写字符辨识、衣服影像辨识;B 每单位影像的运算时间对神经元数量的依赖性。(source:日本NTT;作者整理)
图三 : A使用光学神经网络进行影像辨识测试(手写字符辨识、衣服影像辨识;B 每单位影像的运算时间对神经元数量的依赖性。(source:日本NTT;作者整理)

灵感来自於线虫的液体神经网路技术

2020年,由麻省理工学院Ramin Hasani和Matthias Lechner所领导的一个研究小组,推出了一种液体神经网路(Liquid Neural Network)的新形态神经网路,其灵感来自微小的线虫。这项技术是以模仿具有细长的线状身体的「线性动物」为叁考基础,来开发出神经网络技术,达到前所未有的速度和灵活性,来实现「质」的跨越性进步,足以在某些应用中取代传统网路。


据加州大学伯克利分校的机器人工程师Ken Goldberg表示,根据实验结果显示,比起需要透过随时间变化,来进行建立模型的「连续时间神经网路」,这款「液体神经网路技术」,要来得更快、更准确(图四)。



图四 : 麻省理工学院Ramin Hasani和Matthias Lechner开发出新形态的液体神经网路。(source:麻省理工学院Ramin Hasani博士)
图四 : 麻省理工学院Ramin Hasani和Matthias Lechner开发出新形态的液体神经网路。(source:麻省理工学院Ramin Hasani博士)

Hasani和Lechner在思考如何能建立出一个够灵活,且能快速适应新状况的反应性神经网路时,发现线虫是一个非理想可叁考的生物体。线虫是少数具有完全反射的神经系统的生物之一,可以透过一个大约1mm长的神经系统,来完成一系列复杂的行为,包括迁移、觅食、睡眠、交配,甚至从经验中不断的学习,而且在现实世界中,线虫无论在任何环境或状况下都具有相当优秀的适应能力。


液体神经网路技术与传统的神经网路有很大的不同,传统的神经网路只提供特定时刻的结果。而液体神经网路技术是一种非常特别的神经网路架构,可以将神经元都是联系在一起,并且透过彼此之间具有相互依赖的特性,来描述系统於任何特定时间下的状态。


此外,在处理突触的方式上也有所不同,突触是人工神经元之间的连接。在标准的神经网路中,突触连接的强度,可以用单一的数值来表示「权重(weight)」。而另一方面,在液体神经网路中,神经元之间的讯号交换是透过「非线性」函数控制的随机过程,这意味着不会传回与输入成比例的响应(图五)。



图五 : MIT的研究人员基於蠕虫的启发,发现了一种更灵活的机器学习方法-液体神经网络,可以即时转换其底层算法,达到前所未有的速度和适应性。(source:Quanta Magazine)
图五 : MIT的研究人员基於蠕虫的启发,发现了一种更灵活的机器学习方法-液体神经网络,可以即时转换其底层算法,达到前所未有的速度和适应性。(source:Quanta Magazine)

只需利用基本运算获得精确的近似解

传统的神经网路演算法是利用在训练期间调整「权重」的最隹值,但在面对大量资料的环境下,液体神经网路的适应性会来得更强。因为液体神经网路可以根据观察到的输入改变基础程式。例如在对自动驾驶汽车操作进行测试时,传统的神经网路只能定期分析来自汽车摄影机的视觉资料,虽然液体神经网路仅由19个神经元和253个突触所组成,按机器学习标准来说这个能力根本是非常薄弱,但事实上,该模型是允许对例如蜿??的道路等,复杂的道路进行更频繁的采样,因此液体神经网路能比传统神经网路,表现出更高的反应能力。


不过,在突触和神经元的非线性方程式,通常需要电脑多次运算才能得出解决方案。因此这也是液体神经网路的死穴,因为液体神经网路的突触和神经元的软体,由於是单独进行计算,再加上所使用的突触和神经元数量不多,因此运行速度非常慢。不过,这样的困境也被克服了。


在2022年11月新发表的一篇论文中表示,研究团队提出了一种新网络架构,不必透过复杂困难的运算来解决非线性方程式。这个架构是只需要利用基本运算,就可以获得近??精确的近似解,大幅度的减少运算时间和能量,以及明显地提高了处理速度。


目前这个小组正用一架无人机测试最新的液体神经网路,最初的测试是在森林中进行的,但希??将来能移到城市环境中,看看在面对新的环境条件时自我调适能力。


结语:过度投入将导致泡沫热潮

神经运算是人工智慧热潮的基础技术,在许多业者和机构的投入下,从材料到设备、硬体、软体到应用,都呈现迅速地发展的态势。此外,还有全方位的开放架构,进入门槛相当低,尤其是从应用的角度来看,也有相当多的开发工具可使用。


以目前来看,但最大的障碍可能是收集所需要的大量学习数据,例如在某些领域,由於隐私和其他问题,资料收集是非常困难的。


另外,有些应用领域更是缺乏关於缺陷和故障的资料,如预测性故障和故障分析。由於神经运算是一个以归纳方式给出答案的系统,因此有些人会抱怨,这和诉诸理性的演绎法不同。


然而,无论如何神经运算已经开始启动了,也呈现出非要达到目标的势头。为了解决上述问题,仍然需要技术的创新,可以说所有的技术领域都有商业机会。因此更要冷静地分析形势,不要被繁荣的景象所引诱,而又出现另一个泡沫热潮。


相关文章
AI成闺密?神经网路与机器学习正在改变世界!
利用Time-of-Flight感测器开发3D手势辨识
AIoT应用推升深度学习市场规模
理解人工智慧:训练
为AI注入理解力
comments powered by Disqus
相关讨论
  相关新闻
» Seagate发布再生能源使用及实践永续循环成效
» 宜鼎独创MIPI over Type-C解决方案突破技术局限,改写嵌入式相机模组市场样貌
» 英业达以AI科技实践永续 携手台大保护云雾林生物多样性
» 震旦研发ESG绿色报表协助企业绿色减碳
» 研华AIoV智慧车联网解决方案 打造智慧交通与商用车国家队


刊登廣告 新聞信箱 读者信箱 著作權聲明 隱私權聲明 本站介紹

Copyright ©1999-2024 远播信息股份有限公司版权所有 Powered by O3  v3.20.1.HK84RAU3IBISTACUKJ
地址:台北数位产业园区(digiBlock Taipei) 103台北市大同区承德路三段287-2号A栋204室
电话 (02)2585-5526 #0 转接至总机 /  E-Mail: webmaster@ctimes.com.tw