image.png
  • 人工智能是增长最快的计算工作负载,其复杂性也在不断增长,对计算、功率和带宽的要求也越来越高。
  • 我们处于一个转折点:人工智能正在逐渐突破数据中心,随着人工智能应用时代的到来,人工智能的未来更在数据中心之外。
  • 英特尔以独家方法论推动人工智能从云到端再到边缘的发展。
  • 英特尔的人工智能策略是通过降低用户的进入门槛加速人工智能普及。基于英特尔®至强®处理器和英特尔强大的产品组合及开放的软件生态系统,我们不仅能够引领人工智能的发展,也可以深入影响更广泛的行业趋势,让每个人都可以更便捷地使用人工智能。

image.png

Sandra Rivera

英特尔公司执行副总裁兼数据中心与人工智能事业部总经理

人工智能(AI)的核心是使机器识别模式并据此做出准确预测的能力。而随着AI模型持续变得更加精妙和复杂,对更多计算、内存、带宽和功率的需求也与日俱增。

AI是增长最快的计算工作负载,也是英特尔认为将对世界产生变革性影响的四大超级技术力量之一。尽管它诞生于数据中心,但我相信AI的未来在数据中心之外。AI在客户端和边缘的应用时代已经来临,为了让AI从云端扩展到边缘,社区需要一种更加开放和整体的解决方案来加速并简化整个数据建模和部署管道。我们的策略是复制公司历史上为其他重大技术转型所采取的措施:向更多客户开放,加速AI的普及化并推动更大规模的应用。

在全球范围内,英特尔是为数不多的能够更好地引领世界进入AI下一个时代的公司。基于我们强大的生态系统和开放式软件,以及至关重要的CPU、GPU、ASIC等架构能够满足无数AI使用场景的特定需求,这将使我们能够引领市场发展并为无处不在的开放式AI打下坚实基础。

一系列具备AI特性的领先架构

提及AI,许多人立刻会联想到深度学习训练和显卡性能。由于训练往往是大规模并行的,因此显卡得到了很多关注,但这只是AI的一部分。大部分AI实践中的解决方案会包含经典机器学习算法和中低复杂度的深度学习模型的组合,而这些功能都已经被集成在至强等现代CPU内。

 

image.png

目前,AI数据流水线主要在至强处理器上运行。通过内置加速和优化软件,我们能够让至强处理器运行得更快。基于此,我们一方面通过Sapphire Rapids,将AI的总体性能比上一代产品提高最多30倍;同时,我们还通过将更多AI工作负载引入至强处理器以减少对独立加速器的需求,从而进一步提高至强处理器的产品竞争力。对于诸如至强等英特尔产品而言,AI功能和优化并不是一个新概念。因此,我们计划扩展这种方法,将AI融入我们交付到数据中心、客户端、边缘、显卡等诸多领域的每个产品中。

对于那些真正在GPU上表现最佳的深度学习训练,我们希望客户能够自由选择最适合其AI工作负载的计算。现阶段的GPU是专有且封闭的,但我们有一款针对特定领域的Habana Gaudi AI处理器,和一款专为高性能计算打造的Ponte Vecchio显卡,它们将基于开放的行业标准。我们对Gaudi目前取得的进展感到十分高兴,AWS在2021年第四季度宣布全面推出基于Habana Gaudi的DL1实例,其性价比较基于显卡的现有实例高40%,并在早期Gaudi使用测试中表现优异。

打造成熟的生态系统吸引更多客户

特定的模型、算法和要求会因使用场景和行业而变化。例如,一家自动驾驶汽车公司需要解决感知(使用物体检测、定位和分类)、高清地图和路线规划等问题,并采取需要适应动态环境的行动。此外,技术支持软件的聊天机器人也需要了解特定公司和行业的技术术语,才能准确地回答相关问题。同理,对AI软硬件需求也因客户、细分市场、工作负载和设计点而异。设备端、嵌入式和客户端AI系统需要在功耗和散热受限条件下实现低延迟推理。人们也越来越需要云中开发的AI具有边缘感知能力,以便云中开发的解决方案可以部署在边缘,反之亦然。

所有这些因素都在推动从数据中心到网络再到边缘的全面创新,并影响诸如高带宽和大容量内存、快速互连和智能软件在内的系统级硬件架构。

image.png

端到端AI流水线中最大的增长点在于模型部署和AI推理阶段。如今,超过70%的AI推理在至强处理器上运行,其中一个增长最快的AI推理使用场景是智能边缘,而至强已在此领域深耕多年。

在过去的八个月中,我一直在与主要客户保持密切沟通,以更深入了解他们的需求和工作负载。这些交流不仅让我们深入了解到如云服务供应商之类的有较强影响力客户的需求,也向我们展示了战略合作伙伴如何帮助我们了解我们自身产品组合所应用的关键领域。现阶段,有数以万计的云实例在英特尔处理器上运行,而且它的增长速度比任何其他架构都快。与此同时,针对x86架构编写的代码有数千亿行,整个行业也已经安装了数亿颗至强处理器。因此,英特尔具备得天独厚的优势,不仅可以通过行业标准横向推动行业发展,亦能在需求更加专业的自动化和医疗等领域纵向推动行业发展。

面向AI开发者的开放软件堆栈

硬件只是解决方案的一部分,因此我们在AI策略上始终秉持“软件优先”的理念。其中,“软件优先”包括安全的AI软件组件,即让用户能够利用至强处理器的独特软件和安全功能,如通过英特尔®软件防护扩展(英特尔® SGX)进行机密计算,保护使用中的关键数据和软件。英特尔®SGX是业界第一个也是部署最多的基于硬件的数据中心可信执行环境,在此基础之上,我们的至强产品路线图也涵盖更多机密计算技术,这也将夯实我们的技术领先性。

我们花费数年时间为CPU优化最流行的开源框架和函数库,而且我们拥有基于开放标准开发的最广泛的特定领域加速器组合,使代码更容易移植且避免被锁定。此外,为增强技术领先性并持续推动创新,我们持续深耕技术,希望能够打造开放式AI,以涵盖从云和数据中心到客户端、边缘和更多领域。

尽管在AI框架中默认启用英特尔优化对于推动大规模芯片应用至关重要,但我们仍然需要满足各类AI开发者的需求,如从事软件堆栈底部工作的框架开发者、在堆栈较高位置工作的低代码或无代码主题专家,以及部署、运行、训练和维护AI模型(MLOps)的所有工程和运营人员。尽管他们的角色迥然不同,但AI工作流程的每个阶段都有共同的目标,即以最低的成本和风险快速从概念扩展到现实世界,这也意味着他们需要选择以及基于易于部署和维护的通用框架的开放解决方案。

基于此,我们已经开发了BigDL和OpenVino™。其中,BigDL支持在现有大数据基础设施上进行大规模机器学习;而通过数百个提前训练的模型,OpenVino™可以加速并简化推理在许多不同硬件上的部署。通过一致的标准和API,为从事底层AI堆栈工作的开发者提供可组合或优化的构建块,以及为低代码开发者提供优化和产品化的工具和套件,英特尔助力AI开发者茁壮成长。我们持续深耕AI加速器和安全性,这将让我们能够使这些关键计算元素在所有客户、细分市场和产品中广泛存在。

英特尔推动AI Everywhere

现阶段AI已经在深刻变革各行各业,未来它也有望改善地球上每个人的生活,但前提是它能够被更容易地大规模部署。我们认为,降低AI的进入门槛需要正确的AI技术集合。经过实践,我们验证了一个成功的模式,以加速AI创新的下一个时代:通过开源工作帮助定义开发环境,我们将能够开发和影响客户的解决方案,从而影响整个行业。我们预测,到2026年,英特尔AI逻辑芯片的市场规模将超过400亿美元。我们正以强大的实力抓住这个机会,我对未来充满信心。

英特尔技术可能需要硬件、软件的支持或服务激活。没有任何产品或组件是绝对安全的。实际成本和性能测试结果可能有所不同。产品性能因用途、配置和其它因素而已。

前瞻性声明

本新闻稿中涉及与未来计划和预期的相关声明属于前瞻性声明。涉及或基于估计、预测、推测、不确定时间或假设的陈述,包括与未来产品和技术以及这些产品和技术的可用性和好处、市场机会、以及我们的业务或与之相关的市场的预期趋势有关的陈述,也被确定为前瞻性陈述。这些声明是基于当前的预期,涉及许多可能导致实际结果存在重大差异的风险和不确定性。关于可能导致实际结果出现实质性差异的因素的更多信息,请参见英特尔最新财报和美国证券交易委员会网站

引用地址:http://news.eeworld.com.cn/gykz/ic562696.html

本网站转载的所有的文章、图片、音频视频文件等资料的版权归版权所有人所有,本站采用的非本站原创文章及图片等内容无法一一联系确认版权者。如果本网所选内容的文章作者及编辑认为其作品不宜公开自由传播,或不应无偿使用,请及时通过电子邮件或电话通知我们,以迅速采取适当措施,避免给双方造成不必要的经济损失。

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注