该硬件专为企业应用而设计,例如在工厂中自动进行质量控制检查。
谷歌新的 Edge TPU 芯片只需一美分。
两年前,谷歌推出了其张量处理单元或 TPU——一种专门的芯片,它存在于公司的数据中心,可以轻松完成人工智能任务。现在,该公司正在将其 AI 专业知识从云端转移,并揭开了新的Edge TPU 的面纱;一个微型人工智能加速器,将在物联网设备中执行机器学习工作。
Edge TPU 旨在执行所谓的“推理”。这是机器学习的一部分,算法实际上执行它被训练要做的任务;例如,识别图片中的对象。谷歌基于服务器的 TPU 针对这一过程的训练部分进行了优化,而这些新的 Edge TPU 将进行推理。
这些新芯片注定要用于企业工作,而不是你的下一部智能手机。这意味着诸如在工厂中自动进行质量控制检查之类的任务。在设备上执行此类工作比使用必须通过 Internet 发送数据进行分析的硬件具有许多优势。设备端机器学习通常更安全;减少停机时间;并提供更快的结果。无论如何,这就是销售宣传。
Edge TPU 是常规张量处理单元的小兄弟,谷歌用它来驱动自己的人工智能,其他客户也可以通过谷歌云使用它。
不过,谷歌并不是唯一一家为这种设备上的人工智能任务设计芯片的公司。ARM、高通、联发科和其他公司都制造了自己的 AI 加速器,而 Nvidia 制造的 GPU 则以主导训练算法市场而闻名。
然而,谷歌拥有其竞争对手所没有的是对整个人工智能堆栈的控制。客户可以将他们的数据存储在 Google 的云上;使用 TPU 训练他们的算法;然后使用新的 Edge TPU 执行设备端推理。而且,更有可能的是,他们将使用 TensorFlow(由 Google 创建和运营的编码框架)来创建他们的机器学习软件。
这种垂直整合有明显的好处。谷歌可以确保所有这些不同的部分尽可能高效和顺畅地相互交流,让客户更容易在公司的生态系统中玩耍(和停留)。
“您的传感器不仅仅是数据收集器”
Google Cloud 的物联网副总裁 Injong Rhee 在一篇博文中将新硬件描述为“专用于在边缘运行 TensorFlow Lite ML 模型的专用 ASIC 芯片” 。Rhee 说:“Edge TPU 旨在补充我们的 Cloud TPU 产品,因此您可以在云端加速 ML 训练,然后在边缘进行闪电般的 ML 推理。您的传感器不仅仅是数据收集器——它们可以做出本地、实时、智能的决策。”
有趣的是,谷歌还将 Edge TPU 作为开发套件提供,这将使客户更容易测试硬件的功能并了解它如何适合他们的产品。该开发套件包括一个系统级模块 (SOM),其中包含 Edge TPU、一个 NXP CPU、一个 Microchip 安全元件和 Wi-Fi 功能。它可以通过 USB 或 PCI Express 扩展槽连接到计算机或服务器。不过,这些开发套件仅在测试版中可用,潜在客户必须申请访问权限。
这似乎只是新闻的一小部分,但值得注意的是,谷歌通常不会让公众接触其人工智能硬件。但是,如果公司希望客户采用其技术,则需要确保他们可以先尝试一下,而不是仅仅要求他们信仰飞跃进入人工智能 Google 领域。这个开发板不仅仅是对公司的诱惑——它表明谷歌对拥有整个人工智能堆栈是认真的。