一起来看看英特尔如何发挥AI处理能力

最近一起来看看英特尔如何发挥AI处理能力这个话题,相信很多小伙伴都是非常有兴趣了解的吧,一段好的故事可以给读者带来很多值得深思的新东西,甚至还可以在一定程度上让读者的视野在瞬间扩大,那么既然现在大家都想要知道此类的信息,今日小编将给带来关于一起来看看英特尔如何发挥AI处理能力的资讯!

云和数据中心架构师正在追寻新方法,以将更多的人工智能功能整合到已经有限的空间中,他们将希翼仔细研究英特尔的新型Nervana神经网络处理器。根据应用的不同,处理器可以提供四倍的性能或五分之一的功耗,这是市售的替代产品。

新处理器是英特尔针对深度学习工作负载量身定制的首批ASIC产品。该公司上周宣布,处理器现在开始出货。

除了用于训练的NNP-T1000和用于推理的NNP-I1000之外,英特尔还宣布了下一代Movidius无数视觉处理单元,该单元专门用于边缘的AI视觉和推理处理。代号为Keem Bay的ASIC计划于明年上半年上市。

ASIC是半导体行业对新兴的,快速增长的,性能要求极高的AI处理市场的必定反应,到目前为止,该市场在很大程度上已经得到了通用处理器的支持,如英特尔的Xeon和GPU(如环绕Nvidia的Tesla和GPU)。图灵架构。

实际上,由于云和数据中心的高度并行性,通常将其部署在GPU上进行训练,而CPU则具有出色的可编程性和灵便的内存寻址功能,因此可以在CPU上进行推理。但是,对每平方英寸性能的不满足要求导致了新的,更优化的解决方案。

硬件决策者越来越多地寻求Xilinx和Intel等公司的现场可编程门阵列或FPGA,它们是四年前通过收购Altera进入市场的。FPGA可以为特定的工作负载量身定制电路,因此有潜力提供更高效的性能。尽管具有性能优势,但FPGA的起步速度并不快,因为与CPU或GPU相比,FPGA相对较难使用,灵便性较低且价格昂贵。

ASIC代表了AI处理过程中的下一个转折点,因为它们比其他替代方案更高效,更具成本效益。实际上,Google已经部署了自己内部设计的ASIC(称为Tensor处理单元,即TPU),专门用于处理深度学习工作负载。英特尔的新型NNP可能是主要供应商针对云和数据中心应用开放市场的首批AI专用ASIC。

NNP可以在相同的空间中以更低的功耗带来更多的AI性能,而NNP可以使Intel在数据中心和云中的深度学习计算方面大有作为。实际上,数据中心OEM告诉我,他们已经对想要测试评估NNP板和系统的客户产生了很多兴趣。

固然,我们无法保证所有的轮胎踢都将转变为市场的全面转变。待确定的是软件开辟生态系统将如何响应,以使开辟人员可以轻松利用新处理器的深度学习功能。确实,英伟达的CUDA开辟平台可能是英特尔扩大其在AI领域的最大障碍,因为CUDA被如此广泛地采纳。

为此,英特尔正在大力投资自己的生态系统,以期吸引开辟人员。实际上,在上周的AI活动中,英特尔推出了AI DevCloud for Edge,这是一个用于构建和测试AI系统的云托管平台。除了AI DevCloud,英特尔还提供了用于视觉应用程序的OpenVINO工具包,以及马上推出的oneAPI计划,旨在跨英特尔的所有硬件AI架构进行开辟。

那将派上用场。除了新的NNP和VPU ASIC外,英特尔还于周日披露了其首个为数据中心设计的GPU架构,比Supercomputing 2019早于今天在丹佛开始。基于马上到来的GPU架构的主板称为Ponte Vecchio,将于2021年上市。

凭借其现有的CPU和FPGA产品,这些新增功能将为英特尔提供最多样化的AI处理选项集。

(0)
上一篇 2022年7月10日
下一篇 2022年7月10日

相关推荐