领先的人工智能平台 Edge Impulse 今天宣布推出自带模型(BYOM),允许人工智能团队利用他们自己定制的 ML 模型并针对任何边缘对其进行优化设备。为了使所有 ML 工程师能够快速将实时智能添加到他们的产品中,Edge Impulse 推出了 Python SDK,允许在现有开发人员环境中无缝集成 BYOM。团队现在可以在几分钟内以前所未有的轻松体验 Edge Impulse 的强大功能。
Edge Impulse 以其创新工具而闻名,这些工具大大降低了为数字健康和工业生产力构建边缘 AI 解决方案的障碍。凭借其开创性的基于 Web 的 Studio 平台,工程师们已经能够收集数据、开发和调整 ML 模型,并将它们部署到设备上。这使团队能够快速创建和优化在任何边缘设备上以最佳性能运行的模型和算法。借助 BYOM,用户现在可以将自己训练的模型导入 Edge Impulse Studio,而不必使用数据集在平台内构建原始模型。
结合 BYOM,新的 Python SDK 进一步简化了工作流程,让 ML 团队可以直接从他们自己的开发环境中利用 Edge Impulse。该 SDK 提供了强大而有价值的功能,可以通过简短、直观的 Python 一行代码调用:
任何边缘设备的模型分析——为任何经过训练的模型计算设备上的推理延迟以及 RAM 和 ROM 内存消耗,使开发团队能够确定他们的应用程序将在何处以及如何以最快和最有效的方式运行。这有助于他们在模型优化和硬件功能之间找到适当的平衡点。
模型优化和 C++ 转换——使用 Edge Impulse 边缘优化神经 (EON) 编译器调整模型并将模型导出为 C++ 库,这是将 ML 部署到边缘设备的通用格式。
“我们一直以出色的用户界面而闻名,但像我们这样的 ML 从业者生活在 Python 中,”Edge Impulse 的 ML 负责人 Daniel Situnayake 说。“我们在笔记本中勾勒出想法,构建数据管道和训练脚本,并与充满活力的 Python 工具生态系统集成。Edge Impulse SDK 旨在成为其中之一。它旨在与您已知的工具无缝协作。它感觉很熟悉很明显,但也很神奇。”
BYOM 发布还包括 EON 编译器第二版的发布。此功能最大限度地减少了神经网络的 RAM 和 ROM 使用,使企业能够在最受限的设备上执行更多 AI,从而构建更具成本效益和效率的产品。与 TensorFlow Lite for Microcontrollers (TFLM) 相比,改进后的 EON Compiler 使企业能够节省超过 70% 的 RAM 和 40% 的 ROM。除了提高模型的整体效率外,EON Compiler 还支持比 TFLM 更广泛的内置内核,以及 TFLM 中不可用的模型类型,例如 transformer 和经典机器学习模型。
新的 Edge Impulse 工具为企业及其 ML 开发团队提供了难以置信的强大功能,并有望成为所有 ML 工程师工具包中的重要组成部分。
标签:
免责声明:本文由用户上传,如有侵权请联系删除!