您的位置:首页 >智能硬件 >

当前时讯:从数据中心到物联网设备,人工智能计算的持续发展(5)<i class="original_article_icon">原创</i>

2022-10-08 17:08:07    来源:laocuo1142

事情变得越来越复杂,但我们正在尝试简化它们。但是功耗和处理之间存在关系。我想知道问题的复杂性、我们在解决该问题的处理方面所做的工作以及功耗之间的相互作用是什么。

对。嗯,这是一个很好的观点。因为我们一直在谈论的很多关于人工智能的东西听起来像是很多软件,而且确实如此。归根结底,你可以在几乎任何类型的执行引擎上完成 AI,无论是通用 CPU、通用 DSP,当然,GPU 很早就成为了流行的选择,对吧?因为它们在结构上的架构使得它们比 CPU 和 DSP 更有效地进行矩阵运算。


(资料图)

但你几乎可以在每台设备上运行 AI。近年来发生的事情是,我们会看到一系列专门用于创建专门用于运行 AI 工作负载的架构的专业化。诸如 TPU 之类的东西,它们是张量处理单元。事物有不同的名称。NPU 代表神经处理单元,专为 AI 工作负载而设计。你能否将在 NPU 上运行的 AI 工作负载运行在通用 CPU 或 DSP 上?也许你可以。我们所暗示的问题是,与专用处理器相比,它对在通用处理器上运行该图的效率有什么影响?两者之间可能存在数量级的效率差异。而且,当然,

处理方面的另一个元素是我在最后提到的带有 U 的东西:CPU、TPU 和 NPU。这意味着一种可以配置的架构,但它有点用于这些专门的工作负载。我们看到很多客户都有非常具体的用例,他们正在构建自己的神经网络加速器。即使是一个通用的流程被设计用来处理,比如说,一个类或广泛的人工智能工作负载,对于他们的特定应用程序来说可能不够高效。因此,他们正在推出自己的产品,他们正在建造自己的,并且正在建造自己的加速器。顺便说一句,这些加速器可能与 CPU 或 DSP 或 NPU 并存。

但随后他们正在处理一些特定的 AI 工作负载,这些工作负载可能需要以比我们在更通用的处理元素之一中完成的更高的性能水平运行。所以我会说,在那种学习模式下,人工智能有点像,作为一个行业,我们正在开发特别适合更好地做人工智能的处理器架构。

顺便说一句,AI 不会取代 SOC 上存在的一些现有处理要求。例如,我们必须能够进行实时控制;你必须能够进行信号处理。而且,将每种处理工作负载所需的所有门都安装到单个执行单元处理器中并不是很有效,甚至在技术上也不可能。

因此,客户通常正在寻找一种方法来创建异构处理平台,在这些平台上,他们可以使用由 CPU、DSP、浮点单元,然后是信号处理器、GPU 和 AI 加速器或 AI 或 NPU、神经处理单元的总线连接的任意组合,以完成其特定应用程序的任何任务。所以他们希望基本上混合和匹配,对于我想在我的应用程序中完成的不同工作负载,最有效的处理单元是什么?

如果我们是一家大型公司,例如超大规模企业之一,那么我们可能拥有在内部执行此操作的专业知识。如果你是一家规模较小的公司,AI 知道,你内部可能没有这种专业知识。我们可能不想在内部拥有这种专业知识,因为我们可能不会一直需要它。我想对于那个级别的公司来说,走出去寻找同时具备 IP 专业知识和设计专业知识的人是一种溢价。

是的。并且不要忘记其中的工具部分。所以有硬件部分,你刚才准确地描述了客户,根据这些客户的规模,做出权衡。这是经典的构建与购买。如果我能找到现成的组件——例如 IP——满足我的要求,我的 PPA——我的性能、功率和面积要求——那么这可能是我的最佳选择。

而且我可以把我宝贵的资源投入到做更有差异化的事情上。

因此,客户正在与他们交谈的供应商中做出这些选择。他们从一个供应商那里得到的东西越多,通常就越好。但工具方面也很重要。我不仅指实现 SOC 所需的各种工具,我还指与处理器架构配套使用的工具。处理器本身,无论架构多么巧妙,如果你不能对它们进行编程,它们就毫无价值。理解大部分努力都用于开发软件并不是一个革命性的想法,并且我们需要能够将软件投资从一代处理器带到下一代。因此,这些工具对于程序员能够以有效的方式创建以及标准之间的互操作性非常重要,

而且,在边缘设备的情况下,你必须担心内存。设备上有多少内存?所以代码密度。云中没有人担心代码。关于他们的计划有多大。在这些类型的应用程序中,大部分内存都是免费的。

在受限设备中,情况并非如此。所以你甚至在看类似的东西,我的编译器会创建非常密集的程序吗?因此,一些编译器比其他编译器更优化,更擅长做这件事。因此,我们将所有这些因素都考虑在内——所需的工具、可用的操作系统、用于执行机器学习应用程序的库构建块,以及它们在多大程度上允许我映射到我拥有的不同硬件资源— SOC 开发人员在考虑选择供应商时会考虑所有这些因素。

我们一直在与 Synopsys 的 Matt Gutierrez 讨论边缘人工智能。我提到,随着去年收购 Virage,Synopsys 现在拥有更丰富的 IP 组合来为其客户提供服务。这是 Matt 提供了一些关于其中包含的内容的细节。

大多数人都知道 Synopsys 是用于实施和验证 SOC 的 EDA 工具提供商。当然,我们以广泛的知识产权组合而闻名。Synopsys 的 IP 产品线之一是弧形处理器 IP 产品组合,专为嵌入式设备而设计:具有功率和面积限制的设备。因此,我们针对不同的处理工作负载开发了一系列处理器。

我们有 CPU;我们有 DSP,包括高端矢量 DSP;我们有视觉处理器;我们有神经网络加速器。所以我们认识到 SOC 正变得越来越异构。特别是在边缘设备中,我们需要能够高效地处理工作负载。我们无法在一个大型处理器上完成所有工作,我们需要将这些工作负载分解为各种处理元素,这些元素将以最省电和最节省面积的方式完成。这就是我们构建投资组合的方式。

如果你考虑一下这个应用程序,我认为这是一个真正的应用程序,我们将在不远的将来看到,走进那个商场,让一些东西能够识别你和你的风格并提出建议。我认为对于某些人来说,这将是一个问题,有时是原则性的,只是因为这感觉像是对某种隐私的侵犯。而且我认为还有其他像我这样的人可能会受到时尚挑战,他们实际上可能会欣赏一些人工智能大脑找出可能符合我的风格或我对我的偏好并提出建议的人。

因此,它与我们在互联网上描述的尾随并没有太大区别。当我们在亚马逊上寻找一些东西时,我们会发现有多烦人,而我们在其他网站甚至亚马逊本身上却被一堆广告击中?嘿,如果你买了这个,你可能会对这五样东西感兴趣。有时它非常有用,有时它很烦人。我认为同样的事情也适用于这些更多零售环境中的一些人工智能用例。

关键词: 工作负载 人工智能 应用程序

相关阅读

精彩推送