下一代 AI 实时计算与数据的基础设施

从实时特征工程到大模型 RAG,为 AI 应用提供高性能、多模态的一站式数据底座。

基于 DolphinDB 打造面向 AI Agent 的数据底座

统一的多模态数据基座

DolphinDB 深度整合时序、向量与文本引擎,在同一个系统内实现海量业务数据与模型语义数据的统一存储,彻底解决多仓架构带来的数据割裂。依托领先的流批一体技术,开发者可使用同一套代码完成特征训练与实时推理,性能优化保证特征计算最低延时可达微秒级,为 AI 模型提供高性能的数据底座。

生成式 AI 与大模型生态

通过支持 MCP 协议,为大模型与数据资产的连接打造标准化桥梁,赋予大模型直接查数据、算指标、生成策略的专业执行力。结合原生向量检索与 Text-to-SQL 技术,企业能够快速构建高准确度的 RAG 方案与金融智能体,让大模型在理解复杂业务语义的同时,提供基于真实数据的专业决策支持。 

机器学习模型推理加速

支持将机器学习推理过程直接下沉到数据层,无需跨系统迁移数据,即可在库内高效完成模型推理与复杂计算。DolphinDB 原生支持 PyTorch、TensorFlow、XGBoost、LightGBM 等主流框架模型,支持遗传规划、蒙特卡洛等算法,结合 GPU 并行加速能力,显著提升计算性能。

DolphinMind

DolphinMind:企业级 RAG 智能体

DolphinMind 是基于 DolphinDB 强大的向量引擎、文本引擎和计算能力构建的企业级 RAG 智能体,旨在解答日常使用 DolphinDB 与 DLang 过程中遇到的各类问题。其采用“混合检索 + 多路召回 + 重排序”架构,深度整合数据库与大模型能力,确保专业问答的极速响应与逻辑精准,消除大模型幻觉。

快速响应,告别等待

依托 DolphinDB 的高性能向量与文本引擎,在海量知识库中实现瞬时检索,保障 AI 对话流畅响应。

语义 + 词法双重加持,精准溯源

采用“混合检索”架构,既能理解复杂的语义意图,也能精准锁定专业术语,确保每一个答案都“查有实据”,彻底消除 AI 幻觉。

深度意图理解,像专家一样思考

通过智能查询改写与多路召回技术,DolphinMind 能自动补全上下文,从多维度提取核心信息,给出逻辑严密的深度解答。

DolphinMind 架构
DolphinMind AI 对话界面
Starfish AI

Starfish AI:金融级投研与因子开发智能体

Starfish AI 是基于 DolphinDB 构建的智能投研平台。它通过引入前沿 AI 技术,将传统的因子开发、策略生成与数据分析流程从“人工编写”升级为“智能驱动”,显著提升了金融机构在量化研究中的智能化水平与研究效率。

交互式因子研究:重塑开发与分析范式

Starfish AI 通过自然语言交互,将研究员的逻辑构思高效转化为可执行脚本,大幅提升研究脚本的开发效率,实现了对海量历史数据的即时洞察。

因子与策略代码自动生成

根据用户对因子逻辑的文字描述,秒级生成计算脚本与完整策略代码,直接对接回测引擎。

统一数据层智能分析

通过自然语言提问,AI 自动检索全库表并编写分析脚本,快速返回大规模数据处理结果。

开发效率极致提升

大幅减少手动编写、调试代码的工作量,确保金融逻辑在底层高性能引擎上的准确运行。

AI 研报分析:打通从文献到因子的闭环

Starfish AI 中的研报分析助手,通过 NLP 技术将冗长的 PDF 研报转化为可执行、可验证的量化资产。
自动化因子挖掘与复现上传 PDF 研报,系统解析文中的因子逻辑并生成对应的 DolphinDB 代码。
闭环回测与迭代优化自动执行因子回测,根据结果反馈循环修改代码,获得更优的因子表现。
多维度智能归因报告自动输出因子评估报告,助力科学优化策略。

AI-Ready 的核心技术优势

向量与时序数据的一体化存储

DolphinDB 在原生时序引擎基础上集成向量与文本索引,实现了时序数据与语义向量的同库存储。这消除了跨库数据迁移的延迟,为 RAG 和多模态应用提供了统一存储与管理的数据基础。

微秒级“流批一体”因子工程

DolphinDB 支持使用同一套代码进行离线训练与在线推理。其内置的流计算引擎,既能对历史数据进行批量因子计算,也能对实时流数据进行毫秒级特征计算,两者逻辑一致,有效支撑模型从开发到上线的平滑过渡。

CPU-GPU 异构加速算力

针对 AI 训练与复杂模拟,用户可无缝切换 CPU 与 GPU 算力,利用 GPU 并行能力加速大规模因子挖掘,将原本数小时的计算任务缩短至分钟级。

丰富的实时流式触发机制

系统提供事件驱动、时间窗口等多种流式计算引擎,可基于规则实时触发特征计算,为对时效性要求较高的应用提供稳定的流式数据支持。

嵌入式深度学习推理引擎

通过 LibTorch 插件,DolphinDB 允许用户将训练好的模型直接部署在数据库内核。数据入库即推理,无需调用外部服务接口,从而在保证数据闭环的同时,实现了端到端“入库到预测”的极低延迟。

金融级分布式高可用架构

作为基础设施,DolphinDB 基于 Raft 协议提供强一致性保障与水平扩展能力。在支撑万亿级数据吞吐的同时,确保任务在节点故障时能无感切换,为核心 AI 业务提供金融级的稳定性与数据安全性。

看看 DolphinDB 如何加速您的
AI 应用落地
加速企业的智能数据驱动,预约 DolphinDB AI 专属演示
探索 DolphinDB AI 如何重塑您的数据与 AI 工作流:
point构建面向 AI 的多模态数据底座
point极速特征工程与实时指标计算
point大模型与企业数据深度集成
point一站式 AI 推理与业务闭环
现在就预约
请填写以下信息,我们的技术顾问将在 1 个工作日内与您联系,安排专属演示。
请选择地区
提交即表示您同意我们的隐私政策和服务条款。