您的位置:首页 >智能机器人 >

TinyML使AI无处不在,并可供消费者使用,是如何做到的

2020-11-04 10:27:59    来源: TechWeb

TinyML是深度学习和人工智能领域的最新技术。它带来了在随处可见的微控制器(几乎是最小的电子芯片)中运行机器学习模型的能力。

微控制器是我们每天使用的许多设备的大脑。从电视遥控器到电梯再到智能扬声器,它们无处不在。可以发射遥测数据的多个传感器连接到微控制器。执行器,例如开关和电动机,也连接到同一微控制器。它带有嵌入式代码,可以从传感器获取数据并控制执行器。

TinyML的兴起标志着终端用户消费人工智能方式的重大转变。来自硬件和软件行业的供应商正在合作将人工智能模型引入微控制器。

在电子设备中运行复杂的深度学习模型的能力开辟了许多途径。TinyML不需要边缘、云或互联网连接。它在同一个微控制器上本地运行,该微控制器具有管理连接的传感器和执行器的逻辑。

TinyML的演变

第1阶段-云中的AI

在AI的早期,机器学习模型是在云中训练和托管的。运行AI所需的强大计算能力使云成为理想的选择。开发人员和数据科学家利用高端CPU和GPU训练模型,然后托管它们以进行推理。每个消耗AI的应用程序都与云对话。该应用程序将与微控制器通信以管理传感器和执行器。

第二阶段-边缘人工智能

虽然云仍然是人工智能的逻辑家园,但它确实在消耗深度学习模型的同时引入了延迟。想象一下,每次与智能扬声器通话时,请求都会被云处理。往返行程中的延误扼杀了体验。其他场景,如工业自动化、智能医疗、联网车辆等,都要求人工智能模型在本地运行。

边缘计算(云和本地物联网设备之间的管道)已成为在本地托管AI模型的理想选择。在边缘运行的AI不会遭受在云中运行相同AI所带来的延迟。

但是,鉴于边缘资源有限,培训和再培训模型仍然需要云。可以在边缘托管经过训练的模型,以进行推理(使用机器学习模型的过程),而不用于训练。因此,在云中训练模型并将其部署在边缘变得很普遍。这种方法提供了两全其美的优势-用于训练的强大计算环境(云)和用于推理的低延迟托管环境(边缘)。

在边缘使用AI时,微控制器从连接的传感器获取遥测,然后将遥测发送到本地部署的模型以通过应用程序进行推理。然后,模型返回输入数据的预测或分类,用于确定后续步骤。

阶段3-微控制器中的AI

虽然在许多情况下在边缘运行AI是一个完美的解决方案,但是在某些情况下,部署边缘计算层是不切实际的。例如,将诸如智能扬声器和遥控器之类的消费类设备连接到边缘是过大的选择。这增加了设备的总拥有成本和供应商的支持成本。但是这些消费类设备是注入AI功能的温床。

在工业场景中,预测性维护已成为设备的重要组成部分。昂贵的机械设备需要嵌入能够实时检测异常的机器学习模型,以提供预测性维护。通过主动检测故障,客户可以节省数百万美元的维护成本。

直接在微控制器中嵌入AI成为消费和工业物联网场景的关键。这种方法不依赖于外部应用程序,边缘计算层或云。AI模型与嵌入到微控制器的嵌入式代码一起运行。它成为提供无与伦比的速度的整体逻辑的组成部分。

传统上,机器学习模型始终部署在资源丰富的环境中。由于TinyML模型可以嵌入微控制器中,因此它们不会占用大量资源。这种方法是将AI注入物联网设备的最有效,最具成本效益的方法。

TinyML不断发展的生态系统

尽管TinyML尚处于起步阶段,但正在形成一个充满活力的生态系统。电子芯片和物联网套件制造商(例如Adafruit,联发科技,Arduino和STM)正在其设备中支持TinyML。微软的Azure Sphere(安全微控制器)也可以运行TinyML模型。TensorFlow Lite是流行的开源深度学习框架的变体,可以移植到支持的设备上。另一个开源机器学习编译器和运行时Apache TVM也可以用于将模型转换为TinyML。

Always AI、Cartesiam、EdgeImpulse、OctoML和Queexo等新兴的AutoML和TinyML平台正在构建工具和开发环境,以简化针对微控制器的训练和优化模型的过程。

TinyML使AI无处不在,并可供消费者使用。它将为我们每天使用的数百万种设备带来智能。

关键词: 人工智能

相关阅读

精彩推送