您现在的位置是:首页 >知识百科 > 2021-05-01 21:27:39 来源:
Facebook的Yann LeCun表示 内部活动是关于AI芯片的
在旧金山举行的国际固态电路会议上接受ZDNet采访时,Facebook人工智能研究团队负责人Yann LeCun表示,该公司正在开展机器学习芯片方面的工作,尽管他对许多解决方案将充满希望并充满信心来自芯片行业。
LeCun表示,“当然,对于谷歌和Facebook这样的公司来说,如果行业不能提供大量的产品,就可以在自己的引擎上工作。”他指的是需要针对深度学习而优化的新型处理技术。
“Facebook传统上做的是与硬件供应商合作,以吸引他们构建我们认为对我们有利的东西,”他说。
LeCun在之前的采访中提到了内部芯片开发的可能性。然而,“现在的不同之处在于,在这方面存在内部活动,这在当时是非常新生的,”他说,这意味着,四年前。当被要求扩展内部活动在Facebook上的内容时,LeCun表示反对。“我可能不会告诉你,”他笑着说。
谷歌的张量处理单元(TPU)被LeCun称为他所谈论的大公司内部努力的一个例子。
更广泛地说,LeCun重申了他的全体会议的基本要点,即在整个培训和推理过程中需要广泛的行业努力来解决深度学习芯片问题。
LeCun积分的亮点包含在他所做的视频中,由Facebook AI Research周一早上发布。
LeCun也在今天早上的演讲中发布了他的幻灯片。
例如,迫切需要低功耗芯片来处理来自移动设备的所有传感器数据,但是在设备本身上处理该数据,而不是将数据发送到云。
然后是“中间”计算领域,例如云中神经网络的传统“离线”训练和云中的传统推理。这两项任务都消耗了大量能源,因此行业也需要提供更节能的处理。
在深度学习食物链的最高端,在Facebook和其他研发部门,除了主导供应商Nvidia之外,还需要更多选择,其GPU是神经网络培训的事实上的解决方案。
“在最高端,我们现在需要的是目前占主导地位的供应商的竞争对手,”LeCun说。“并不是因为他们不擅长它,而是因为他们做出了假设,并且拥有一套不同的硬件可以用来做当前作用的GPU擅长的补充事物,这将是一件好事。”
然而,如何构建这些替代芯片是一个悬而未决的问题,赛义德说。他说,很明显,明天的神经网络将远远超过今天的神经网络,因为需要采用整个视频输入并查看大量像素,例如预测视频片段的运动。但与此同时,这些操作可能必须在与当今矩阵乘法硬件不同的处理架构中进行计算。他说,矩阵和张量是当今人工智能硬件的基石,未来可能不是理想的解决方案。
LeCun表示,最先进的芯片“基本上经过优化,可以进行大量的四乘四矩阵乘法”。“所以,如果你能将你所有的神经网络减少到4乘4的矩阵乘法,那么。但它可能不是进行大量卷积的最佳方法,”他说。
什么可以取代他们?“我不知道。我认为真正的硬件天才将不得不发明新方法来做这些事情。”
“在某种程度上,您可以将此视为我们目前在神经网络中执行的一组类似操作,除了您访问数据的方式是通过交互;而不是以整齐的数组呈现给您的东西,您拥有的是用于获取数据的指针数组,“用于处理基于图形的数据。