为适应人工智能的工作量,IBM和英特尔竟然这么做?

2018年01月24日 由 xiaoshan.xiang 发表 573102 0
为适应人工智能的工作量,IBM和英特尔竟然这么做?

人工智能对处理器提出了新的需求。算法数据处理不同于早期处理数据的模型,比如LINPACK这样的基准。它通过降低CPU的重要性,并利用了协处理器的更快的计算能力,改变了计算架构。CPU只是一个辅助器,很多深度学习都是在像 GPU, FPGA和谷歌的Tensor处理单元这样的加速器芯片上完成的。

像IBM、英特尔、英伟达和AMD这样的大型硬件公司都在接受架构和优化硬件的变革,这些变革鼓励了人工神经网络的创建。IBM的新POWER9系统在12月初发布,它依赖于超高速的管道——术语为“hose”,而不是“straw”——将数据移动到能够进行机器学习的协同处理器上。计算机的学习能力直接与互连的通量直接相关,因为移动数据意味着更快的结果。

数据中心的大部分深度学习都是以英伟达GPU为中心的,而IBM的POWER9服务器家族通过专用的下一代NVLink通道为Nvidia最新的Volta GPU提供了最快的路径,它的速度比x86芯片上当前的PCI-Express 3.0要快7到10倍。Nvidia为其GPU提供了基于CUDA编程工具包的深度学习框架,IBM提供了支持流行深度学习工具的PowerAI软件。

Nvidia的GPU很受欢迎,因为它可以在数千个内核中进行低水平的浮点处理,这可以提供一个关于猫是否真的是图像中的猫的近似值,这是一个典型的人工智能问题。与大脑的运作方式类似,在这个过程中,一个神经元网络共同处理可用的信息,以识别可能作为目标的信息。


IBM认为POWER9的快速通量优于x86系统,但是,正如英特尔所指出的,有很多方法可以解决这个问题。英特尔已经在包括fpga在内的芯片堡垒周围建立了自己的人工智能投资组合,希望有什么东西能坚持下去。该芯片制造商正试图将其在智能手机和电视等智能手机上的失败风险降至最低。


也许是由于英伟达的成功,英特尔也在构建自己的GPU(2009年放弃了一个代号为Larrabee的代码),整合了服务器内部的神经芯片(它也有一个伴随的深度学习框架),并提供Altera FPGA。它拥有Saffron编程框架,专门负责从多个来源纯源化和统一数据。英特尔的Altera FPGA将被在汽上使用,用于模仿与图像识别相关的类似GPU的功能。英特尔最近放弃了它的Knights Hill超级计算芯片,想要制造一种新型芯片。


但是IBM有先发优势,比如PCI-Express 4.0(比PCIeE 3.0快两倍),以及一个名为OpenCAPI的开放互连,它可以把不同的共处理器、存储和内存可以连接在一起。除了AMD GPU之外,POWER9还附有专门的深度学习协同处理器(如谷歌TPU)和Wave Computing和Graphcore等公司的其他产品。协处理器公司需要向OpenCAPI添加兼容性


对于IBM和英特尔来说,支持FPGA是关键,因为芯片可能会影响到人工智能的GPU优势。在深度学习中,FPGA可以加载用于图像识别、金融建模或国家语言处理的代码。代码可以很容易地被更改为重新目的化的FPGA。长期以来,FPGA都是通过代码或测试操作系统来模拟芯片的。苹果、英特尔、高通、微软和其他公司都通过FPGA测试软件和硬件。FPGA在高速运行时耗电量大,但效率更高。与CPU不同,FPGA不能作为通用芯片来执行各种操作。


展望未来,IBM的POWER9系统可以被看作是IBM研究开发的量子计算机和神经形态芯片的预备阶段。两者都专注于人工智能,但有不同的编程模型。现在是人工智能的早期阶段,但决策者面临的挑战是采用计算机设计——在GPU,FPGA或ASIC上进行设计——并坚持使用。

欢迎关注ATYUN官方公众号
商务合作及内容投稿请联系邮箱:bd@atyun.com
评论 登录
热门职位
Maluuba
20000~40000/月
Cisco
25000~30000/月 深圳市
PilotAILabs
30000~60000/年 深圳市
写评论取消
回复取消