从国产大模型的迅猛出圈到各行业的实际落地,过去两年里“把 AI 用起来”成为共识,却也暴露出同样直白的现实:数据质量参差、系统割裂难以打通,叠加大模型“幻觉”带来的不确定性,AI 很难直接对企业核心业务负责。
DolphinDB 给出的答案不是“堆更多模型”,而是回到底座能力——以可靠的基础软件为起点,让数据与计算以工程化方式与 AI 协同演进。就像大脑离不开感知与肢体的协作,AI 的价值同样需要高性能数据平台与实时计算的稳固承托。
在 2025 DolphinDB 峰会上,研发副总监程训焘与产品经理毛忻玥为我们带来了面向“Infra + AI”的最前沿的产品进展与实践探索:从实时计算平台到低延时内核优化,再到贯穿投研流程的 AI Agent 实践。它们并非彼此孤立的“功能清单”,而是共同构成了一个可落地、可扩展、可演进的企业级基础软件全景。
现在,让我们通过一次简要回顾,看看今年 DolphinDB 发布的全新产品亮点。
三大核心产品:全面提升实时计算力
Orca:企业级实时计算平台
去年峰会上,我们首次提出构建企业级实时计算平台的设想。一年后,Orca 平台全面落地,成为 DolphinDB 针对企业流式数据管理和实时计算需求的完整解决方案。
在 Orca 之上,开发者可以像写 SQL 一样,以声明式方式描述流计算需求。Orca 内核会自动推理并生成计算图,智能规划流引擎的部署、流数据表结构和负载均衡策略。过去需要数百乃至上千行代码、繁琐人工运维才能完成的流计算任务,如今往往只需五行链式调用即可实现。开发复杂度与调试成本的降低,也意味着企业可以更自然地采用真正的流式语义,而不必再因工具缺失而退而求其次使用批式处理。
更重要的是,Orca 天生具备多模态数据处理能力。它继承 DolphinDB 十年的技术积累,关系型数据、向量数据、流数据都可以在同一平台上统一处理。面对 AI 时代多样化的数据需求,企业不再需要为每一种模态单独部署一套系统,也无需借助中间件去拼接复杂的数据管道。Orca 让多模态数据的实时计算与管理在统一底座上完成,从根本上降低了架构复杂度和运维成本。
面向金融场景,Orca 还提供了 INSTRUMENT、MKTDATA 等专用数据模型。金融产品和衍生品数据可以直接以这些模型封装并按金融业务语义操作,而无需再转换成关系型表去编写复杂 SQL。这不仅简化了建模,更让金融研究员可以更专注于策略与逻辑。
企业级高可用同样是 Orca 的核心特性。通过全局数据目录、跨地域查询和 Raft learner 等分布式技术,企业可以在不同机房、不同地域的集群间低成本构建异地协同计算链路。在保证数据一致性的同时,Orca 将常见业务计算的延迟压缩到秒级甚至毫秒级,为量化投研、实时风控、物联网监控等高实时性需求的场景提供了强大支持。

Swordfish:十微秒级嵌入式引擎
如果说 Orca 解决了宏观架构层面的实时计算问题,那么 Swordfish 则把计算性能推向了极限。Swordfish 是一款可嵌入用户 C++ 程序的高性能计算函数库,内置 DolphinDB 自研计算内核,包括 2000 多个函数、丰富的数据结构与流计算引擎。它让用户程序无需跨网络访问服务器,就能直接在本地硬件上完成计算。
通过类型特化、行式执行优化、内存对象生命周期管理以及面向 CPU 缓存的多项工程优化,Swordfish 在高端处理器上实现了十微秒甚至单微秒级的计算延迟。相较于普通 C++ 程序的毫秒级延迟,乃至特定场景优化程序的百微秒延迟,这一性能提升极为可观。对于高频因子计算、逐笔订单级别策略计算等极端追求速度的任务,Swordfish 让企业关键业务真正做到“快人一步”。目前 Swordfish 已支持 C++ 与 Java,Python 版本也将在后续发布。

Shark:CPU/GPU 异构计算平台
在算力不断攀升的今天,如何充分利用 GPU 也成为业界关注的焦点。过去一年,继 NVIDIA 后,DolphinDB 又携手海光信息团队,全面优化基于国产 GPU 的 Shark 异构计算平台。其核心——Shark Graph 通用并行计算引擎,带来了前所未有的性能突破:
- 因子挖掘提速 10 倍+:在 GPLearn 中,我们利用 GPU 并行加速遗传算法迭代计算,以往耗时一小时的因子挖掘任务,如今几分钟即可完成。
- DolphinDB 脚本一键加速:用户只需在自定义函数上添加“@GPU”标签,Shark 就能自动解析并转换为可在 GPU 上执行的计算图,实现 10–20 倍以上性能提升,无须任何 CUDA 二次开发。
- 释放 CPU 资源:Shark Graph 支持对用户自定义表达式进行批式并行计算,大幅减少 CPU 和内存占用,让服务器更高效稳定。
目前,Shark 已全面支持海光 DCU 处理器。未来,DolphinDB 将持续在国产处理器的安全性、性能与易用性方面深耕,为企业带来更强大、更便捷的算力支持。

AI Agent:打通智能应用的“最后一公里”
强大的数据与计算能力只是起点。如何让金融研究人员与投资经理以最自然的方式触达这些能力,是 DolphinDB 进一步探索的方向。AI Agent,正是我们打通智能应用“最后一公里”的实践成果。
不同于一次性给出黑盒式答案的传统模型,DolphinDB 的 Agent 具备自我验证与迭代纠错机制:它会根据执行结果持续评估并自动调整,直到结果可行可靠。AI Agent 配合 MCP 工具体系,大模型不再“拍脑袋”回答,而是精准调用 DolphinDB 的数据与计算接口,让每一个判断都有据可依、每一个结果都可复现。
我们还提出了“统一接口开发范式”:同一套标准接口既可直接驱动前端可视化平台,也能封装成 MCP 工具供 Agent 调用。这样,传统的图形化操作与自然语言交互实现无缝切换,研究员可以用最习惯的方式触达强大的底层能力。

在这一范式下,多个代表性应用已进入验证与试用:
- 研报因子复现 Agent:上传研报文件,系统自动解析因子逻辑、生成脚本、输出 IC 值与相关指标,让因子从纸面走向可验证的真实数据。
- 因子衍生 Agent:在原有因子基础上自动生成多个变种,迭代评估,筛选出表现更优的策略。
- 智能 FICC 计算 Agent:只需一句自然语言指令即可完成国债期货、外汇衍生品等复杂定价。
- 组合管理 Agent:统一 FICC 建模后,支持一句话查询混合资产组合的持仓分布、风险归因等核心指标。
- 智能选股 Agent:沉淀因子元数据并标准化选股流程,让机构多年的因子研究以可解释的方式直达 C 端投资者。
它们共同验证:AI 在金融研究中的正确打开方式,是把“聪明”嵌入到工程化流程之中——工具化、流程化、元数据管理与可追溯计算,代替不可解释的一次性“猜测”。
回到出发点,DolphinDB 的“Infra + AI”并非单点功能的堆叠,而是面向未来的一套方法论与实现路径:以自研内核保证确定性与性能边界,以统一的数据与接口层降低复杂度,再以 Agent 将能力以最自然的方式交付给使用者。AI 不是替代者,而是能力延伸。想第一时间体验 AI Agent 的强大功能?快联系小助手获取 Demo!





与未来同行
从 Orca 到 Swordfish,再到 Shark 和 AI Agent,DolphinDB 以自研内核为基石,为 AI 时代提供极致的实时计算与数据管理能力;同时,通过智能化的 Agent,让大模型真正走进金融研究与投资实践。
在 “Infra + AI” 的浪潮中,我们期待与合作伙伴携手,以技术创新与业务洞察的双向赋能,将金融科技的想象力化为面向未来的生产力。
DolphinDB —— 至简致远,让数据与智能共生。