AI芯天下丨Intel和小发猫押重注的神经模态计算,行业能否蜕变

国内新闻 阅读(1513)
?

更令人兴奋的是,请关注公众号“AI核心世界”。

物联网和人工智能将给社会带来巨大变化。然而,基于深度学习的芯片难以实现对物联网的低功耗的需求。这是神经模态芯片的用武之地。

只要神经元的数量和突触连接的数量超过阈值,神经模态计算现在可能涉及大量的能量,甚至远远超出之前的想象。

GPU在AI主导地位将终结

小发猫大胆预测GPU在AI中的主导地位正在结束。 GPU能够执行大量用于图形处理的并行矩阵乘法运算,这恰好与神经网络所需的完全相同。

由于没有GPU,我们永远无法达到我们在AI性能方面所取得的性能水平。但随着越来越多的公司越来越多地掌握如何实施人工智能,他们也在寻找设计更高效硬件的方法和途径。

工程界已经意识到降低能耗的关键是最小化计算体系结构中必须从内存迁移到处理器进行计算的数据的出现,因为这种迁移需要花费大量的时间和精力。

仿真技术自然适用于边缘人工智能。模拟计算需要低功率,并证明是节能但不准确。模拟正在返回,因为内存计算和模拟计算协同工作。存储器阵列负责神经网络权重,模拟组件负责求和和触发。

人工智能学科发展与人类智能之间的差距之一是对多模态信息的智能理解。人工信息的数量带来了更大的多样性,视觉,声音,象征性语言,嗅觉和触觉等信息无限多样化。

%5C

神经模态计算的重要意义

1当前的深度学习只能实现人脑功能的很小一部分,人类智能还有很长的路要走。当有足够的人工神经元时,神经模态计算的使用直接模仿神经元系统,或者会有希望。可以取得比深度学习更好的结果,更接近人类的大脑。

2深度学习计算中遇到的当前困难是能效和延迟问题。在功耗非常低的物联网领域,以及在延迟要求非常高的无人驾驶领域,部署深度学习将遇到一个巨大的挑战。

恰好神经模态计算则可以解决这两大问题

神经模态计算的一个主要优点是其计算功耗与输入有关,并且当输入不激活大量神经元时其功耗可能非常低。

2对于物联网应用,神经形态计算可以利用激活神经元的规律,仅在需要完成事件识别时消耗能量,而在其他事件中,由于神经元未被激活,因此没有能量。低,因此实现比深度学习芯片低得多的平均功耗。

3神经模态计算不是传统的冯诺依曼结构。神经模态计算芯片通常不与DRAM一起使用,而是直接在神经元中存储信息。这避免了由记忆墙引起的功耗和延迟,因此神经模态计算芯片的延迟和能量效率比将优于传统的深度学习。

%5C

神经模态芯片发展的方向

1神经模式芯片的发展方向首先是规模,即扩大神经元的规模,这也是英特尔和小发猫的主要赌注。

2使用神经模态计算低功耗和低延迟的特性,并进一步优化芯片设计,开发出具有高能效和低延迟的芯片。这些芯片可能没有大量的神经元,但它们可以实现非常低的功耗和非常好的能效比,因此它们可以部署在无法部署传统深度学习的情况下。

神经模态芯片的商业化落地

1对于像英特尔和小发猫这样大量投资大规模神经元的公司而言,他们在过去几年中更加关注神经形态计算的研究和生态,并且当神经模拟计算研究取得突破时,机器。

2在中型神经元尺度和主要低功率神经模式芯片的方向上,物联网将成为最佳的登陆应用。

多模态人工智能存在不少难点

1数据模态是多种多样的,包括2D图像,3D模型,结构化信息,文本,声音和更多无法量化的数据。

2多模态数据不对应,例如从图像到文本,从文本到图像,是一个“一对多”过程,会有各种描述和演示。

3多模态数据的融合,软件或算法的进展相对容易,但是通过多种算法,通过语言模型,3D建模,自动路径查找和图像分析等步骤,难度将几何上升。

4多式联运监督。

%5C

AI芯片向多模态演进

目前,物联网和人工智能是发展趋势,AI芯片正处于从通用到专用的发展和转变过程中。特别是在物联网的边缘,通用的AI芯片具有较低的计算效率,然后在成本和功耗方面存在不匹配。

在物联网应用的早期,许多AI芯片都采用单模功能进入市场,最常见的是语音应用。但是,未来的应用将是多模式融合。机器人是典型的多模式应用示例,它也像汽车芯片。因此,多模态是市场发展的必然趋势。

对于体系结构,虽然每个芯片企业的体系结构都有自己的特点和实现方法,但支持机器学习的算法将逐步形成统一的框架。将来,可以在不同的AI芯片硬件上形成所有神经网络的模型,这在不久的将来是完全可能的。

随着5G和物联网的大规模部署,低功耗AI芯片将成为未来的主要发展方向。只要能够确定相关标准,商机就是无限的。

%5C

企业先后跨足神经形态领域

虽然2016年神经形态技术在航空,军事和国防,汽车,消费,医疗,金融服务,基础设施和公用事业等行业的应用并不多,但这些行业将在未来十年内开始。使用了大量的神经形态技术。

小发猫,英特尔和惠普等巨头都在这个领域,为神经形态芯片开发硬件。与此同时,高通公司计划到2018年将其认知计算和机器学习平台Zeroth商业化,从而整合神经形态功能。在嵌入式系统中。

2016年整体神经形态芯片市场价值约12亿美元,复合年增长率为26.3%,到2022年市场规模达到48亿美元。

这不包括消费者终端产业,而是指工业检查,航空,军事和国防推动的神经形态芯片的市场需求。到2022年,亚洲将占神经形态市场的一半以上。

%5C

国内神经模态芯片被重视

国内神经模态芯片已经受到国家和行业的关注。清华脑计算中心做出了卓越的贡献,其作品已在世界顶级期刊和会议上发表。上海今年还成立了上海脑科学和脑研究中心。神经网络计算是中心的关键方向之一。

在商业化方面,孵化清华脑计算中心的初创公司灵邑科技今年发布了自主研发的“Tenji第二代”芯片系统,采用多核存储和集成架构,具有高速,高性能功耗低。专业。

与国外同行相比,近年来中国的神经模型计算受到了国家的高度重视。相信未来几年将会有全球领先的成果。

在过去的几年里,尹守义副教授领导了可重构多模混合神经计算芯片(代号为Thinker)的研究和设计。

Thinker芯片基于团队积累的长期可重构计算芯片技术,采用可重构架构和电路技术突破了神经网络计算和内存访问的瓶颈,实现了节能的多模混合神经网络计算。

Thinker芯片具有节能的突出优势,其能效比目前在深度学习中广泛使用的GPU高三个数量级。

它支持电路级编程和重建,是一种通用的神经网络计算平台,可广泛应用于机器人,无人机,智能汽车,智能家居,安全监控和消费电子产品。

%5C

结尾:

目前,英特尔和小发猫等公司正在积极探索超低功耗神经模态芯片在不同领域的应用。随着AI + IoT在未来几年的发展,神经模态计算将迎来新一波的热情。

目前,尚未发现如何有效训练大规模神经模态神经元的算法。因此,在现有的训练框架下,优先考虑能量效率比优先于神经元的数量可能是优选的。

关注公众号“AI芯天下”,后台回复“门票”

免费领取高交会门票