资源与支持

SiFive 博客

来自 RISC-V 专家的最新洞察与深度技术解析

September 11, 2025

赋能远端边缘的 AI 创新

SiFive X100 系列,SiFive Intelligence 系列第二代成员

当前行业的焦点,更多投向那些能够将数据中心 AI 性能推向更高峰的硬件技术上。在 HotChips 2025 大会期间,对超大规模计算性能提升的需求占据绝大多数议程,而功能强大的大型芯片则成为了焦点。

然而,除了这些有关云行业的性能头条和新闻之外,tinyML 在远端边缘领域仍蕴藏着巨大机会。这类设备覆盖了丰富多样的传感器端点,它们在将元数据提交到云端之前会先进行采集、预处理和分析真实世界的数据。下图展示了在边缘、移动、PC 以及物联网系统市场快速增长的 AI 工作负载预测。

graph

这一增长背后的原因很简单:并非所有 AI 任务都可以或应该在云端或大型数据中心完成。在互联网接入不足、需要实时响应,或需要隐私的情况下,存在着大量的机会,而这些隐私阻止了具有网络依赖性、数据延迟和安全/隐私问题的基于云的解决方案。即便采用基于云的解决方案,本地执行 AI 也能降低数据传输成本与功耗,并具备更好的可持续性。尽管其他 IP 供应商已在这一类应用上“放缓脚步”,SiFive 却加大投入,积极拓展产品覆盖,为远端边缘的多样化应用提供支持,并辅以参考级的 AI 软件栈。我们的目标是帮助客户以最高的性价比和最短的周期,打造并部署行业领先的产品。

AI models effectiveness

如何将高效 AI 带到边缘?

随着 AI 模型快速演进 (卷积神经网络已被 Transformer 模型取代,业内甚至有人预测 Transformer 也将被淘汰),灵活、可适应的架构极为重要。为了让 AI 无处不在,开发边缘应用的公司正专注于提升延迟表现、优化带宽利用,并增强数据安全性。

这些系统往往面临资源受限,包括功耗、成本和尺寸。同时,不同垂直市场还存在独特需求:

在医疗领域,数据隐私合规至关重要; 在工业和制造场景中,实时响应必不可少; 在汽车应用中,网络连接并不总是可靠。

业界对这类应用有许多称呼,最近较流行的一个是“物理 AI (Physical AI)”。无论采用哪种分类方式,SiFive 都积极拥抱“本地 AI”,并展示为何以开放标准 RISC-V 为基础是最佳选择——它在功耗、尺寸和通用软件方面具备明显优势。自 2021 年推出首款 Intelligence 产品以来,SiFive 已在各种物联网应用中获得 40 多个 Design Win。如今,为满足更广泛市场需求,我们正式发布了第二代 Intelligence 系列。新产品结合了用的标量和向量流水线,为客户提供更多选择、可扩展性,以及在加速计算解决方案中进行创新的机会。X100 系列是其中最小的产品,正是基于客户对“深度嵌入式边缘高效 AI 推理”的直接反馈而设计。

AI products chart

我们的产品不仅能作为独立处理器运行,还可与客户自研加速器搭配使用。虽然专用加速器能带来高性能和高效率,但其功能固定且受限。正如 SiFive 联合创始人 Krste 在新品发布视频中所强调,第二代 Intelligence 系列的一大优势在于支持创建“智能加速器”——将强大的固定功能加速器与可编程前端结合。我们通过引入两个专为数据传输与控制设计的直连内核接口来实现这一点。

另一个关键点是数据类型支持。在所有第二代 Intelligence 产品中,我们都引入了 Bfloat16 支持。Bfloat16 最初由 Google Brain 开发,专为神经网络训练和推理设计。这种数据类型可在大幅降低内存使用和加快计算速度的同时,仍然保持与标准 32 位格式相当的精度。这种特性近年来才开始大规模部署,因此许多旧产品并不支持。除本文提及的功能,SiFive 也正持续关注业界标准和新提案,与客户紧密合作,共同规划未来产品方向。

目前,X100 系列包含两个成员:X160X180。其中 X180 是一款 64 位处理器。早期客户反馈指出,它通常会与 64 位主处理器 (通常运行 Linux) 搭配使用。X180 的使用简化了内存映射和核心之间的信息共享。

对垂直市场意味着什么?

小型化的专用向量处理能力,意味着 AI 工作负载能够运行得更快、功耗更低,从而推动更多样化的解决方案,实现实时响应和更高的隐私保护,而无需依赖网络连接。统一、可扩展的架构可覆盖广泛的边缘 AI 应用,使产品开发和软件编程更简化。借助可自定义指令,产品 roadmap 能更好地应对快速变化的 AI 模型格局。相比受限的处理器选择和封闭的软件栈,RISC-V 开放标准让工程师能够在 tinyML 上实现更宏大的构想。

市场机遇巨大,优势同样显而易见。以至于在产品正式发布之前,已有两家美国顶尖半导体厂取得授权,用于构建到他们未来的边缘 AI SoC 中。欢迎阅读更多 Case Study,以及 X100 产品系列的详细信息。

如果您想讨论 SiFive 产品如何成为您公司 AI 旅程的一部分,请联系我们

Read more Insights from the RISC-V Experts

Investing In Our Next Chapter of Growth
Blog Post
Investing In Our Next Chapter of Growth
Today, we are proud to announce one of the most significant milestones in our journey: a $400M funding round led by Atreides Management with other A-list investors, valuing the company at $3.65 billion and will accelerate SiFive’s RISC-V CPU and AI IP solutions into the heart of the data center and AI infrastructure markets.
RISC-V 代码模型(2026 版)
Blog Post
RISC-V 代码模型(2026 版)
RISC-V 指令集架构 (ISA) 在设计上兼顾简洁与模块化。为了实现上述设计目标,RISC-V 有意识地减少了寻址方式的种类,从而降低了实现复杂 ISA 时的一项重大成本。寻址方式成本高昂:在小型设计中,会增加解码开销;在大型设计中,则会引入隐式依赖成本。
模块化是 AI 的未来:为何 SiFive-NVIDIA 的里程碑意义重大
Blog Post
模块化是 AI 的未来:为何 SiFive-NVIDIA 的里程碑意义重大
AI 的巨大潜力目前正受限于一个主要瓶颈:数据传输。在当今系统中,GPU 的处理速度往往受到互联技术以及 CPU、加速器与系统其余部分间数据流动效率的限制。