中文 英语

伟大的机器学习竞赛

随着技术开始成形,芯片行业重新定位;目前还没有明显的赢家。

人气

处理器制造商,工具供应商和包装房屋正在竞争,以便在机器学习中找到自己的角色,尽管没有人对这项技术最适合哪种架构或最终会成功。

这种不确定性非但没有抑制投资,反而助长了一种狂热。资金正从四面八方涌入。根据一份新的Moor Insights报告截至2017年2月,全球共有超过1700家机器学习初创公司和2300名投资者。焦点范围从相对简单的动态网络优化到军用无人机利用实时信息躲避火力和调整目标。

截图2017-04-02上午11.29.20
图1:机器学习图景。来源:沼泽的见解

而涉及到一般概念机器学习- 一种设备未明确编程的事情 -可以追溯到20世纪40年代末从那时起,机器学习就断断续续地取得了进展。机器学习最初受到粗糙的软件(20世纪50年代至70年代)的阻碍,然后受到处理能力、内存和带宽不足(20世纪80年代至90年代)的阻碍,最后受到电子产品市场深度低迷(2001年至2008年)的阻碍,机器学习花了近70年的时间才发展到具有商业价值的程度。

从那以后,有几件事发生了变化:

  • 上世纪80年代和90年代的技术性能障碍现在已经消失。这几乎是无限的处理能力,使用新的芯片架构,以及封装方法,如2.5 d和扇出晶圆级包装。非常快的内存已经可用,在途中具有更多类型,并且硅光子学的进步可以加速存储和检索的大型数据块的大块数据。
  • 在数据中心和自动驾驶汽车市场,机器学习已经有了现成的市场,这些设备的中心逻辑需要定期更新,以提高安全性和可靠性。参与这些市场的公司拥有雄厚的资金或强大的支持,他们正在机器学习方面大举投资。
  • 钟摆又回到了硬件上,或者至少回到了硬件和软件的结合上,因为它更快,能耗更少,而且比把所有东西都放到软件里更安全。这对机器学习来说是个好兆头,因为它需要巨大的处理需求,而且它改变了半导体投资的经济模式。

尽管如此,这是一种技术方法,凭借最有效的问题,为什么。

“如果有一个胜利者,我们已经看到了,”兰迪艾伦,董事或高级研究说导师图形。“很多公司都在使用gpu,因为它们更容易编程。但是对于gpu来说,最大的问题是决定论。如果您向FPGA发送一个信号,您将在给定的时间内得到响应。对于GPU,这是不确定的。如果你确切地知道自己要做什么,定制的专用集成电路(ASIC)就更好了,但并没有人人都会使用的扣篮算法。”

asic是处理数据最快、最便宜、功率最低的解决方案。但它们也是开发成本最高的,而且如果需要更改,它们是不可原谅的。机器学习几乎保证了变化,因为该领域仍在发展,所以依赖asic——或至少依赖asic只要asic是一场赌博。

这也是图形处理器成为主要选择的原因之一,至少在短期内是这样。它们价格低廉,高度并行,并且有足够的编程工具来测试和优化这些系统。其缺点是,它们比混合处理器(包括cpu、gpu、dsp和fpga)的能效要低。

FPGA添加了未来校样和较低功率的额外元素,它们可用于加速其他操作。但在高度平行的架构中,它们也更贵,这已经重新关注了嵌入式fpga

“这个问题需要5到10年才能解决,”该公司总裁兼首席执行官罗伯特•布莱克表示Achronix。“目前,机器学习的数学还没有达成一致。这将是未来十年的狂野西部。在你得到更好的Siri或Alexa界面之前,你需要经过优化的算法来做到这一点。工作负载非常多样化,变化迅速。”

大量的并行性是必需的。浮点运算也有一些需要。但除此之外,它可能是1位或8位的数学。

“很多这是基于文本的字符串的模式匹配,”布莱克说。“你不需要浮点。您可以在FPGA中实现逻辑以进行比较。“

学习与解释
这变得如此复杂的原因之一是机器学习有两个主要组成部分。一个是“学习”阶段,这是一组相关性或模式匹配。例如,在机器视觉中,它允许设备判断图像是狗还是人。一开始只是2D比较,但是数据库的复杂性已经增加了。它们现在包括从情绪到动作的一切。他们可以辨别不同品种的狗,以及一个人是在爬还是在走。

数学问题越难以解释阶段。这可能涉及基于一组数据的推理结论,然后从这些结论中推断出来发展推定。它还可以包括估计,这是经济学如何利用机器学习的估计。

此时,由于所需的计算能力大量,在云中正在云中完成大部分推动力。但至少有些人将被要求在自动车辆上载。对于一件事,至少在当地做一些那么令人更快。对于另一个,连接并不总是一致的,并且在某些位置上它可能根本无法使用。

“你需要在与其他核心锁定步骤中工作的实时核心,你可以有三个或四个级别的冗余,”公司战略和营销高级副总裁Steve Glaser说赛灵思公司。“你想要立即回复。你希望它是确定性的。并且您希望它是灵活的,这意味着创建优化的数据流,您需要软件加上软件加上神经网络的不同层的I / O可编程性。这是任何与任何连接。“

然而,如何最好地实现这一目标并不完全清楚。其结果是一场对市场地位的争夺,这是自个人电脑问世以来芯片行业从未出现过的。芯片制造商正在构建包括开发软件、库、框架等所有内容的解决方案,由于市场仍在不断变化,这些解决方案具有内置的灵活性,以防止突然过时。

对芯片制造商来说这么引人注目的是,当智能手机筹码市场正在平整时,机器学习机会正在展开。但与手机或PC不同,机器学习跨多个市场段,每条段,每个段都具有显着增长的可能性(见下文2)。

machine-learning-impact
图2:机器学习机会。

重新思考架构
所有这些都需要放在机器学习中正在展开的两个重要架构变化的背景下。第一个转变是从尝试在软件上做所有的事情到在硬件上做更多的事情。软件更容易编程,但是从能力/性能的角度来看,它的效率要低得多,从安全的角度来看,它更容易受到攻击。根据Xilinx的Glaser的说法,这里的解决方案是通过使用软件定义编程来充分利用这两个领域的优点。他说:“我们正在展示每秒图像效率提高了6倍。”

第二个变化是强调更多的处理器和更多类型的处理器,而不是更少的、高度集成的定制处理器。这扭转了自PC时代开始以来一直在进行的趋势,即把所有东西放在一个模具上提高了每瓦特的性能,并降低了材料成本的总体费用。

“大量小型处理器的兴趣远远多于大型大型处理器,”型号技术主任的Bill Neifert说:手臂。“我们看到在被建模的小处理器数量中看到。我们也看到了更多的FPGA和ASICs正在模仿的内容。“

因为机器学习的增长很大一部分与自动驾驶汽车的安全关键系统有关,这就需要对系统进行更好的建模和验证。

“尽早创建模型的好处之一是,你可以为所有可能的安全要求注入故障,这样当某些东西发生故障时——它确实会发生故障——它可以优雅地失效,”Neifert说。如果你改变你的架构,你希望能够以不同的方式路由数据,这样就不会有瓶颈。这也是为什么我们在高性能计算中看到如此多的并发性。”

尽管如此,测量性能和成本不是一个简单的公式。可以以各种方式实现性能,例如更好的吞吐量或更好地吞吐量或更快,更狭窄地写入特定作业的算法,以及通过加速度的高度平行计算。同样,可以以多种方式测量成本,例如总系统成本,功耗,有时是缓慢的结果的影响,例如一块军事设备,在自主车辆中不够快速做出决策。

除此之外,还有涉及编程环境的挑战,这是部分算法和零件直觉。“你正在做的是试图弄清楚人类如何没有语言,”导师的艾伦说。“机器学习是第n学位。这就是人类识别模式的方式,以及你需要正确的发展环境。迟早我们会找到它的正确抽象水平。第一语言是口译员。如果您今天看起来大多数语言,他们在很大程度上是图书馆呼叫。最终,我们可能需要语言将其与流水线或重叠的计算联系在一起。如果没有通过结合结果的方式,那将比高级功能的成功发生了很大的成功。“

营销副总裁Kurt ShulerArteris,同意。他表示,到目前为止发展的大部分系统都被用于跳跃研究和算法的开发。下一阶段将专注于更异构的计算,这为缓存一致性创造了挑战。

“计算效率与编程效率之间存在平衡”,“普罗尔说。“你可以让程序员更简单。早期的选择是使用一个“开放”机器学习系统,该系统由ARM集群和一些专用AI处理元件组成,如SIMD发动机或DSP。有一个软件库,人们可以许可。该芯片公司拥有软件算法,您可以购买芯片和板,并提前跑步。您也可以使用Intel Xeon Chips进行此操作,并使用FPGA在您或其他公司的IP中构建。但这些初始方法不会完全切片问题,所以基本上你正在使用一般平台,这不是最有效的。为了提高机器学习效率,该行业正在向这些SOC中使用多种类型的异构处理元件。“

实际上,这是一系列乘法并累积需要在操作开始时解析的步骤并在最后重新组合。长期以来一直是并行运营中最大的障碍之一。新的皱纹是,有更多的数据来处理,跨越RC延迟的瘦身电线的移动可能会影响性能和功率。

“移动数据有一个多维的限制,”首席执行官Raik Brinkmann说奥克森解决方案。“此外,权力由数据移动主导。因此,您需要本地化处理,这就是为什么今天FPGA中有DSP块。“

布林克曼说,这种情况在深度神经网络(DNNs)中变得更加复杂,因为它有多层网络。

这就产生了其他问题。“验证中的不确定性成为一个大问题,”Achim Nohl说,他是高性能ASIC原型系统的技术营销经理synopsys.。“没有人有答案签署这些系统。这一切都足够好,但是什么是好的?因此,在使用硬件和软件的情况下,它变得越来越多的要求。您必须从设计验证中扩展到现实世界中的系统验证。“

内部应用程序
并非所有的机器学习都与自动驾驶汽车或基于云的人工智能有关。只要有太多的复杂性和太多的选择,机器学习就能发挥作用。很多情况下,这种情况已经发生了。

例如,NetSpeed系统正在使用机器学习来为客户开发片上拓扑拓扑。Esilicon正在使用它来选择涉及电源,性能和成本的特定参数的最佳IP。ASML正在使用它来优化计算光刻,基本上填充分布模型上的点,以提供比更高水平的抽象所在的更准确的图像可以本质上提供。

“在路线方面有很多品种,”CTO,CTO说NetSpeed系统。“有不同的频道尺寸,不同的流动以及如何集成对服务质量产生影响。这些领域的决策导致不同的NOC设计。因此,从架构角度来看,您需要决定一个拓扑,这可能是网格,戒指或树。架构更简单,潜在的死锁越少。但如果你手动做到这一切,那么很难提出多种设计的可能性。如果自动化它,您可以使用正式的技术和数据分析来连接所有部分。“

在这种情况下,机器学习组件是基于该数据的培训数据和扣除的组合。

“这里的真实司机是更少的设计规则,”Kumar说。“一般来说,您将在软件中难以编码逻辑以进行决策。随着比较,您有更多的设计规则,这使得更新设计规则是一个难以解决的问题。您有数百个设计规则仅用于架构。您真正需要做的是提取功能,以便您可以为用户捕获每个细节。“

NetSpeed一直在利用商业上可用的机器学习工具。相比之下,eSilicon基于其内部开发和商业第三方IP的经验建立了自己的定制平台。

“供应商与客户之间的基本互动正在发生变化,”Mike Gianfagna说,eSilicon公司负责营销的副总裁。“因为太复杂了,所以已经不起作用了。系统供应商、IP供应商、终端用户和ASIC供应商之间需要更多的合作。每个建筑和物理设计都有多个维度。”

ASML与此同时,正在与Cadence和林的研究为了更精确地建模光学接近校正和最小化边缘位置错误。应用机器学习,允许ASML提高掩模,光学,抗蚀剂和蚀刻模型的准确性,以小于2NM,ASML应用产品管理主任Henk Nies表示,Henk Nies表示。“我们已经通过设计和图案化设备的合作来改善图案化。”

结论
机器学习作为处理日益增长的复杂性的最佳方法正在获得发展,但具有讽刺意味的是,对于开发这些机器学习系统的最佳架构、语言或方法,还没有明确的方法。虽然这项技术在有限的应用领域取得了成功,但从整体上看,需要解决的问题是艰巨的。

“如果你看看嵌入式愿景,那么它本质上是如此嘈杂和暧昧,”它需要帮助,“韵律Chris Rowen。“这不仅仅是愿景。音频和自然语言也有问题。但99%的捕获的原始数据是像素,并且人类不会看到或解释大多数像素。实际价值是当你没有人类的时候,但这需要人类认知技术的发展。“

而如何最好地实现这一目标仍是一项正在进行的工作——这是一个巨大的项目,有很多进展,还有很长的路要走。但随着创业公司和各行业大公司之间的合作不断涌入这一领域,这种进步开始加速。

有关的故事
堵塞机器学习的漏洞
第2部分:短期和长期解决方案,以确保机器按预期表现。
机器学习中缺少的是什么
第1部分:教导机器如何表现是一件事。理解可能在这之后可能的缺陷是另一个。
建筑物可以学习
机器学习,即人工智能,需要的不仅仅是能力和性能。
人工智能芯片是什么样的?
随着人工智能的市场加热,困惑如何构建这些系统。
人工智能风暴酝酿
人工智能的加速发展将对社会和商业产生重大影响。



2的评论

Hellmut Kohlsdorf 说:

机器学习将对就业替代产生巨大影响,与之相关的是国家和社会融资的原则。机器学习仍处于起步阶段,不仅能够取代对能力要求不高的工作,还能取代许多目前被认为安全的工作。
今天,国家职能的资金来源在很大程度上依赖于工资税收、医疗和社会保障的资金来源。
如果越来越多的工作被取代,特别是那些薪水更高的工作,用机器学习工具,薪水将会越来越少的人。
我住在德国,正因为如此,我看到机器学习将对作为政府和社会基础设施主要收入来源的工资征税产生巨大影响。我看到了为纳税人提供基本收入的第一步。因此,在一个大量工作岗位将被机器学习取代的世界里,资金将不得不通过对被机器学习取代的功能征税来实现。
我非常赞同本文中提出的观点,即机器学习的研究、开发和实现资金雄厚,因此机器学习的进步速度现在是,将来也将是惊人的!

波克罗夫斯基安德烈 说:

对于gpu来说,FWIW延迟决定论并不是一个大问题。只要数据停留在GPU内存中,内核执行时间就很少变化。

发表评论


(注意:此名称将公开显示)