EnCharge AI是一家构建硬件以加速边缘AI 处理的公司,今天以 2170 万美元的 A 轮融资脱颖而出,由 Anzu Partners 领投,AlleyCorp、Scout Ventures、Silicon Catalyst Angels、Schams Ventures、E14 Fund 和 Alumni 跟投风险投资。联合创始人兼首席执行官 Naveen Verma 通过电子邮件向 TechCrunch 表示,所得款项将用于硬件和软件开发以及支持新客户参与。
Verma 说:“现在是筹集资金的最佳时机,因为该技术已经通过之前的研发一直到计算堆栈得到了广泛验证。” “[它] 提供了一条清晰的产品化路径(没有新技术开发)和人工智能前沿客户应用程序的价值主张基础,将 EnCharge 定位为市场影响……许多边缘应用程序正处于新兴阶段,最大的人工智能的价值机会仍在定义中。”
Encharge AI 由 Verma、Echere Iroaga 和 Kailash Gopalakrishnan 提出。 Verma 是普林斯顿凯勒工程教育创新中心的主任,而 Gopalakrishnan(直到最近)还是 IBM 研究员,在这家科技巨头工作了近 18 年。就 Iroaga 而言,他之前曾担任半导体公司 Macom 的连接业务部门的副总裁和总经理。
EnCharge 源于 Verma 于 2017 年与伊利诺伊大学香槟分校的合作者一起获得的联邦资助。作为 DARPA 正在进行的旨在广泛推进计算机芯片技术的电子复兴计划的产物,Verma 领导了一项 830 万美元的努力来研究新型非易失性存储设备。
与当今计算机中普遍使用的“易失性”内存相比,非易失性内存可以在没有持续供电的情况下保留数据,理论上更节能。闪存和大多数磁性存储设备,包括硬盘和软盘,都是非易失性存储器的例子。
DARPA 还资助了 Verma 对用于机器学习计算的内存计算的研究——这里的“内存”指的是在 RAM 中运行计算以减少存储设备引入的延迟。
EnCharge 的推出是为了将 Verma 的研究与基于标准 PCIe 外形规格的硬件一起商业化。 Verma 声称,使用内存计算,EnCharge 的定制插件硬件可以加速服务器和“网络边缘”机器中的 AI 应用程序,同时降低相对于标准计算机处理器的功耗。
在迭代硬件时,EnCharge 的团队必须克服几个工程挑战。内存计算往往对电压波动和温度峰值敏感。因此 EnCharge使用电容器而不是晶体管来设计其芯片;存储电荷的电容器可以更精确地制造,并且不受电压变化的影响。
EnCharge 还必须创建软件,让客户调整他们的 AI 系统以适应定制硬件。 Verma 表示,该软件一旦完成,将允许 EnCharge 的硬件与不同类型的神经网络(即 AI 算法集)一起工作,同时保持可扩展性。
“EnCharge 产品在能源效率和性能方面提供了数量级的收益,”Verma 说。 “这是通过高度稳健和可扩展的下一代技术实现的,该技术已经在几代测试芯片中得到证明,扩展到高级节点并在架构中扩展。 EnCharge 不同于遭受现有内存和计算效率瓶颈的数字技术,以及面临基本技术障碍和跨计算堆栈验证有限的超越数字技术。”
这些都是崇高的主张,值得注意的是,EnCharge 尚未开始大规模生产其硬件——而且还没有客户排队。 (Verma 表示,该公司尚未实现收入。)在另一个挑战中,EnCharge 正在与已经饱和的 AI 加速器硬件市场中资金雄厚的竞争者对抗。 Axelera和 GigaSpaces 都在开发内存硬件来加速 AI 工作负载。 NeuroBlade 去年 10 月为其数据中心和边缘设备的内存推理芯片筹集了 8300 万美元。 Syntiant 也不甘示弱,正在提供内存中的语音处理 AI 边缘芯片。
但到目前为止,它设法获得的资金表明投资者至少对 EnCharge 的路线图有信心。
Anzu Partners 的 Jimmy Kan 在一份新闻稿中表示:“随着 Edge AI 继续推动业务自动化,对可持续技术的需求巨大,这些技术可以显着提高端到端 AI 推理能力以及成本和能效。” “EnCharge 的技术解决了这些挑战,并已在硅片中成功验证,与量产完全兼容。”
EnCharge 大约有 25 名员工,总部位于圣克拉拉。
EnCharge AI 以 2170 万美元从隐身中脱颖而出,用于开发 AI 加速器硬件作者: Kyle Wiggers ,最初发表于TechCrunch