中文 英语

AI芯片看起来像什么?

随着人工智能市场的升温,人们对如何构建这些系统也感到困惑。

受欢迎程度

根据您的参考点,人工智能将是下一个大事,或者它将在所有下一个大事中发挥重要作用。

这解释了过去18个月在这一部门的活动狂热。大公司正在支付数十亿美元来获取启动公司,更为竞争对手。此外,全球各国政府正在向大学和研究院倾倒额外数量。正在进行全球比赛来创建最佳架构和系统,以处理需要处理以使AI工作所需的大量数据。

市场预测相应地升起。根据TRARTICA的数据,预计每年的AI收入将达到2025年的368亿美元。该研究所表示,到目前为止,它已确定了27种不同的行业细分和191年使用案例。

屏幕截图2017-02-24在9.41.23 AM
图1所示。人工智能收入增长预测。来源:Tractica

但挖掘更深,很快就会变得明显,没有一个最佳方式来解决ai。实际上,甚至没有一致的定义是什么是需要分析的AI或需要分析的数据类型。

“这里有三个需要解决的问题,”Raik Brinkmann,总裁兼首席执行官Raik Brinkmann说OneSpin解决方案。“首先是您需要处理大量数据。第二是为并行处理构建互连。第三是权力,这是您必须四处移动的数据量的直接结果。因此,您真的需要从von neumann架构移动到数据流架构。但这究竟是什么样子?“

到目前为止,很少有答案,这就是为什么这个市场的第一个筹码包括各种各样的现成CPU,GPU,FPGA和DSP的组合。虽然新的设计正在开发的公司,如英特尔、谷歌、英伟达QualcommIBM.,这不清楚他们的方法将获胜。看来,始终将需要至少一个CPU来控制这些系统,但作为流化数据并行化,将需要各种类型的共处理器。

AI中大部分处理涉及矩阵乘法和添加。并行工作的大量GPU提供了廉价的方法,但罚款是更高的力量。FPGA具有内置DSP块和本地存储器更节能,但它们通常更昂贵。这也是一个段,软件和硬件真的需要共同开发,但许多软件远远落后于硬件。

该公司董事长兼首席执行官沃利•莱因斯表示:“目前研究和教育机构的活动非常活跃。导师图形。“有一个新的处理器开发比赛。还有标准的GPU用于深入学习,同时有一群人与CPU一起工作。目标是使神经网络的行为更像是人类大脑,这将刺激全新的设计浪潮。“

视力加工在达到AI方面收到了大部分的关注,主要是因为特斯拉在自动车辆预期推出前近15年引入了自动驾驶能力。这已经为这项技术开辟了巨大的市场,并且为芯片和整体系统架构进行处理,需要通过图像传感器,雷达和激光雷达收集的数据。但许多经济学家和咨询公司正在超越这个市场,以如何影响整体生产力。最近报告来自埃森哲预测某些国家的AI将超过GDP(见下文2)。虽然预计会造成重大干扰就业机会,但整体收入改善太大而无法忽视。

屏幕截图2017-02-24在10.00.15 AM
图2:AI的预计影响。

Aart de Geus,主席和合作社synopsys.,指向三波的电子计算和网络,移动性和数字智能。在后一种类别中,焦点从技术本身转移到它可以为人们做些什么。

“您将看到具有神经网络IP的处理器,以便在汽车中进行面部识别和视觉处理,”De Geus说。“机器学习是另一方面。有一个巨大的推动,可以获得更多功能,而最先进的状态正在更快地进行。这将推动到7nm和5nm及以后的发展。“

目前的方法
自动驾驶中的视力加工占据了目前在AI的大部分研究中,但该技术在无人机和机器人中也具有日益增长的作用。

“对于AI应用中的AI应用,计算复杂性很高,”罗伯特布莱克(总裁兼首席执行官)说ACHRONIX.。“通过无线,数学很了解。通过图像处理,就像狂野的西部。这是一个非常多变的工作量。在市场摇摇欲坠之前需要5到10年,但由于需要以高度平行的方式完成可变精度算术,可编程逻辑肯定会有一个重要的作用。“

FPGA非常擅长矩阵乘法。最重要的是,可编程性增加了一些必要的灵活性和未来打样的设计,因为此时尚不清楚所谓的智能将驻留在设计中。用于做出决定的一些数据将在本地处理,有些数据将在数据中心处理。但每个实施的百分比可能会改变。

这对人工智能芯片和软件设计有很大影响。尽管人工智能的总体情况并没有发生太大的变化——大多数被称为人工智能的东西更接近于机器学习,而不是真正的人工智能——但人们对如何构建这些系统的理解发生了显著变化。

“与汽车,人们正在做的是将现有的东西带到一起,并将其放在一起,”营销副总裁Kurt Shuler说动脉杆菌。“对于一个真正有效的嵌入式系统,可以学习,它需要一个高效的硬件系统。有一些不同的方法被使用。如果你看看视觉处理,你正在做的是试图弄清楚设备看到的是什么以及你如何从中推断出来。这可能包括来自视觉传感器,激光雷达和雷达的数据,然后使用专用算法。这里发生了很多事情正在尝试模仿大脑中正在使用深层和卷积神经网络发生的事情。“

从真正的人工智能不同的情况下,本领域的当前状态正在能够检测和避免对象,而真正的人工智能将能够增加一系列推理,例如如何通过一群人越过人街道或追逐球的孩子是否可能遇到街道。在前者中,判断基于来自各种传感器的输入,基于大量数据嘎吱声和预先编程行为。在后者中,机器将能够进行价值判断,例如促使避免孩子的许多可能的后果 - 这是最佳选择。

“传感器融合是20世纪90年代出现飞机的想法,”普罗尔说。“您将其融为一个常见的数据格式,其中机器可以缩短它。如果你在军队中,你担心有人射击你。在一辆车里,这是关于一个推动你前面婴儿车的人。所有这些系统都需要极高的带宽,所有这些都必须拥有安全内置的安全性。最重要的是,您必须保护数据,因为安全性正在变得更大,更大的问题。那么你需要的是计算效率和编程效率。“

这是今天许多设计中缺少的东西,因为这么大的开发是用完的零件建造的。

“如果你优化了网络,优化了问题,最小化了比特数,利用为卷积神经网络定制的硬件,你可以实现2 - 3倍的功率降低,”Samer Hijazi,高级架构师说节奏公司深入学习集团的主任。“效率来自软件算法和硬件IP。”

谷歌试图改变该公式。该公司开发了张量加工单位(TPU),这是专门为机器学习创建的ASIC。并努力加快AI发展,2015年公司将其TensoRFlow软件转换为开源。

屏幕截图2017-02-25在10.46.19
图3:谷歌的TPU板。来源:谷歌。

其他人则有自己的平台。但预计这些都不会是最终产品。这是一种进化,没有人能确定人工智能在未来十年将如何进化。部分原因是这种技术的用例仍在被发现。在一个领域起作用的东西,比如视觉处理,不一定适用于另一个领域,比如确定一种气味是危险的还是良性的,或者两者兼而有之。

“我们在黑暗中拍摄,”Anush Mohandass说,他是营销和业务发展副总裁NetSpeed系统。“我们知道如何进行机器学习和人工智能,但目前还不知道它们如何工作和融合。当前的方法是拥有大量的计算能力和不同类型的计算引擎——用于神经网络类型应用程序的cpu、dsp——并且你需要确保它能工作。但这只是第一代人工智能。重点是计算能力和异构性。”

然而,预计会改变,因为所解决的问题变得更加针对性。就像IOT设备的早期版本一样,没有人知道各种市场如何发展,所以系统公司在现有芯片技术中推动了一切,并将产品赶到市场上。在智能手表的情况下,结果是电池,仅在收费之间持续数小时。由于新的芯片为这些特定应用而开发,功率和性能通过更具目标功能的组合来平衡,如何在本地设备和云之间解析处理的如何解析,以及更好地理解瓶颈中的位置设计。

“挑战在于找到你不知道的瓶颈和限制,”该公司模型技术主管比尔•内费特(Bill Neifert)表示手臂。“但根据工作负载,处理器可以与软件交互不同,这几乎是固有的并行应用。因此,如果您正在查看像金融建模或天气映射等工作量,那么每个强调底层系统都有不同的方式。你只能通过探测来了解。“

他指出,在软件方面所解决的问题需要从更高的抽象级别看,因为它使它们更容易约束和修复。这是拼图的一键。随着AI进入更多市场,所有这项技术都需要演变,以实现技术产业一般的同类效率,特别是半导体行业在过去展示。

Mohandass说:“现在我们发现,如果架构只能很好地处理一种类型的计算,那么它们就会很吃力。”“但异构性的缺点是,整个分而治之的方法会崩溃。因此,解决方案通常涉及过度供应或供应不足。”

新方法
随着更多用途的案例为AI超出自主车辆,采用将扩大。

这就是英特尔去年8月收购Nervana的原因。Nervana开发了2.5D深度学习芯片,利用高性能处理器核心,将数据通过interposer传输到高带宽内存中。其目标是与基于gpu的解决方案相比,将训练深度学习模型的时间缩短100倍。

屏幕-射- 2016 - 04 - 26 - - 10.23.50点
图4:Nervana AI芯片。来源:Nervana

“这些都是很像高性能计算芯片,它基本上是使用硅插入器的2.5d芯片,”营销副总裁Mike Gianfagna说埃斯利昂。“您将需要大量吞吐量和超高带宽内存。我们看到了一些看这个的公司,但尚未待几金。这仍然有点早。当您谈论实现机器学习和自适应算法时,以及如何将带有传感器和信息流集成的时候,这是非常复杂的。如果您查看汽车,您可以从多个不同的源流媒体数据,并为碰撞避免添加自适应算法。“

他说,用这些设备解决有两个挑战。一个是可靠性和认证。另一个是安全性。

通过AI,需要在系统级别考虑可靠性,包括硬件和软件。ARM于12月份收购Allinea提供了一个参考点。另一个出现了斯坦福,研究人员正在尝试量化修剪计算从软件的影响。他们发现大规模切割或修剪,不会显着影响最终产品。加州大学伯克利分校在基于计算的计算精确的计算,已经开发了类似的方法。

“与细粒修剪相比,粗粮修剪没有伤害准确性,”潘汉说,潘汉,博士说。斯坦福大学的候选人正在研究节能深度学习。韩表示,在斯坦福所开发的稀疏矩阵需要10倍的计算,8倍较小的内存占地面积,并且比DRAM更少的能量。适用于斯坦福州呼叫高效的语音识别引擎,他表示压缩导致推动加速推断。(这些发现是在Cadence最近的嵌入式神经网络峰会上呈现。)

量子计算为人工智能系统增加了另一个选择。Leti首席执行官玛丽·塞梅里亚表示,量子计算是她的团队未来的方向之一,尤其是人工智能应用。IBM研究部负责科学和解决方案的副总裁达里奥·吉尔解释说,使用经典计算,四张牌中有四分之一的几率猜出哪张是红的,如果其他三张是蓝的。利用量子计算机和叠加量子位元的纠缠,通过反转纠缠,系统每次都会给出正确的答案。

截图2017-02-25下午6.53.27
图5:量子处理器。来源:IBM。

结论
AI不是一回事,因此没有单一的系统在最佳地上运行。但是AI系统存在一些一般要求,如下图所示。

屏幕截图2017-02-28在7.06.12下午
图6:AI基础知识。资料来源:

人工智能在许多市场都有应用,所有这些都需要广泛的改进、昂贵的工具和一个支持生态系统。在多年来依赖于缩小设备来提高功率、性能和成本之后,整个细分市场都在重新思考如何进军新市场。这对架构师来说是一个巨大的胜利,它为设计团队增加了巨大的创造性选择,但它也将推动从工具和IP供应商到封装和过程开发的大规模开发。这就像科技行业按下了重启按钮,在未来的几年里,这应该会对整个生态系统的业务有益。

相关案例
ai真的是什么意思?
Esilicon的主席看着技术进步,其限制和人工智能的社会影响 - 以及它将如何改变我们的世界。
神经网络计算爆炸
深度掌上公司开始定制此方法的特定应用 - 并花费大量的资金来获取初创公司。
堵塞机器学习中的孔
第2部分:短期和长期解决方案,以确保机器的行为如预期。
可穿戴AI系统可以检测对话音(MIT)
一种人工智能,可穿戴系统,可以根据人的语音模式和威胁来预测谈话是否快乐,悲伤或中立。



5点评论

约翰·泰伦斯 说:

这里未提及的另外两种方法:

1.牙髓组组进行BinaryConnect,2个数量级增益。

2.模拟计算,通过[a]或等斜线/等半线,增益:100倍成本,10,000倍;功率。

顺便说一下,isosemi也可以在一般的SIMD处理器上使用模拟计算,并在isscc有一个gps芯片,功耗低66倍。

Elegatec 说:

对于真正的人工智能不需要如此强大的数学发动机......内存用于动态重建多阵列结构......无论该目的如何玩国际象棋或PCB跟踪......相同的芯片,不同的数据学习

肯尼斯 说:

相同的芯片,但他是对的,如果使用我们的大脑来解决深度学习,它必须使用不同的程序。这是在美国也在其他国家

约翰 说:

所以AI芯片缩短数据更快。大问题是,什么样的数据?谁提供数据?你怎么知道数据是否好?如何验证AI芯片的输出是否好?AI芯片可以有虫子吗?谁在修复AI代码?谁在写新的代码来处理新事件?

ed sperling. 说:

约翰,那些都是好问题。可能是供应商使用AI服务提供的数据,但谁提供算法仍有待观察。

留下一个回复


(注意:此名称将被公开显示)