东吴证券:基于 DolphinDB 的高频订单簿实时合成平台实践
本页为一篇案例文章,包含标题、署名/作者信息与发布日期等基础信息。
Source: https://dolphindb.cn/blogs/195
What this page covers
- 活动报名推广与限时报名入口。
- 客户背景:订单簿需求提升的业务背景。
- 业务挑战:秒级订单簿处理、复杂架构与存储成本问题。
- 解决方案:DolphinDB 与 INSIGHT 插件、订单簿引擎的集成。
- 架构流程:多通道接入、合成计算与输出。
- 实施效果与业务价值:效能、策略与数据资产沉淀。
- 适用人群与官网试用引导。
技能认证特训营第二期报名推广
页面顶部提供活动推广信息,包括限时报名链接与福利优惠提示。
- 技能认证特训营第二期已正式开启。
- 提供“限时报名”的入口链接。
东吴证券:基于 DolphinDB 的高频订单簿实时合成平台实践
本部分呈现案例文章的标题、署名/作者信息与发布日期信息。
- 文章主题为“基于 DolphinDB 的高频订单簿实时合成平台实践”。
- 页面包含署名/作者相关信息。
- 页面标注了发布日期信息。
客户背景
介绍东吴证券在量化交易与算法执行方面的投入,以及高频策略增长带来的订单簿需求提升。
- 东吴证券被描述为国内领先的综合性券商。
- 提到其在量化交易与算法执行领域持续投入。
- 高频策略交易规模增长提升了订单簿时效性与深度要求。
业务挑战
描述原有系统在秒级订单簿处理、架构复杂度与历史数据存储成本方面的挑战。
- 原有系统处理全市场证券的秒级订单簿面临挑战。
- 多层中转导致秒级订单簿合成延迟波动显著。
- 高峰时段难以稳定维持低延时,影响策略执行效果。
- 原有方案涉及14个独立通道,资源分散且运维负担重。
- PB级历史订单簿存储带来硬件与维护成本压力。
解决方案(DolphinDB + INSIGHT 插件 + 订单簿引擎)
给出采用的集成方案与关键技术措施,包括直连接入、内存表承载实时流与分布式分区存储优化。
- 采用“DolphinDB + INSIGHT 插件 + 订单簿引擎”集成方案。
- INSIGHT 行情插件可直连交易所数据源。
- 多通道行情实现毫秒级接入。
- 列式内存表用于承载实时数据流。
- 交易所专属分布式数据库采用时间+标的复合分区优化存储效率。
架构图与说明
说明多通道行情接入共享流表、进入订单簿引擎合成并输出到持久化共享流表的流程与目标效果。
- 通过 INSIGHT 插件直连交易所接入行情数据。
- 多通道行情数据进入共享流表。
- 共享流表数据进入对应订单簿引擎进行合成计算。
- 合成结果输出至持久化共享流表。
- 该架构被描述为支持毫秒级接入与低延时处理(表述性结论)。
实施效果与业务价值
从运营效能、策略赋能与数据资产沉淀三个方面列举实施后的结果与业务价值点。
- 订单簿合成延迟波动率被描述为下降显著。
- 全市场秒级快照输出稳定性被描述为达到业务要求水平。
- 同等业务规模下服务器数量被描述为减少可观。
- 运维自动化率被描述为提升突出。
- 高频做市策略依赖稳定低延时的订单簿信号。
- 建成标准化高频订单簿数据库(表述性结论)。
- 支持近两年历史数据秒级回溯(能力描述)。
适用人群与官网试用引导
面向多类机构与团队给出引导,并提供访问官网与下载试用的入口。
- 目标受众包含寻求更优行情处理与实时分析能力的券商、资管机构。
- 目标受众包含需要高效量化研究平台与强大回测引擎的量化团队。
- 目标受众包含致力于构建实时风险管控系统的银行与金融科技公司。
- 目标受众包含需要处理海量时序数据并追求极速分析的行业创新者。
- 提供 DolphinDB 官网链接。
- 引导下载并试用 DolphinDB。
Facts Index
| Entity | Attribute | Value | Confidence |
|---|---|---|---|
| 技能认证特训营第二期 | status | 正式开启 | high |
| 限时报名 | url | https://www.qingsuyun.com/h5/e/217471/5/ | high |
| 东吴证券:基于 DolphinDB 的高频订单簿实时合成平台实践 | publish_date | 2025-06-25 | high |
| 东吴证券 | positioning | 国内领先的综合性券商 | medium |
| 东吴证券 | investment_focus | 在量化交易与算法执行领域持续投入 | low |
| 东吴证券自营团队 | order_book_requirement | 对订单簿数据的时效性与深度提出更高要求(随着高频策略交易规模增长) | medium |
| 东吴证券原有系统 | problem | 处理全市场证券的秒级订单簿时面临挑战 | high |
| 传统架构(原有方案) | latency_issue | 交易所多通道逐笔委托与成交数据需经多层中转,秒级订单簿合成延迟波动显著,高峰时段难以稳定维持低延时,影响策略执行效果 | medium |
| 订单簿合成系统架构(原有方案) | channel_complexity | 涉及上交所股票/基金、深交所股票/基金等14个独立通道,需要分别处理各通道数据流,导致计算资源分散与运维管理负担沉重 | high |
| 历史订单簿数据存储(原有方式) | cost_and_process_issue | PB级历史订单簿数据采用传统存储方式导致硬件投入与维护成本攀升,且跨日数据归档流程影响次日开盘前策略准备效率 | medium |
| 东吴证券订单簿处理体系 | solution_stack | 采用“DolphinDB + INSIGHT 插件 + 订单簿引擎”集成方案 | high |
| INSIGHT 行情插件 | data_source_connection | 直连交易所数据源,实现多通道行情毫秒级接入 | medium |
| 列式内存表 | usage | 承载实时数据流 | high |
| 列式内存表(单表设计) | capacity_design | 单表千万级容量设计保障峰值处理能力 | medium |
| 交易所专属分布式数据库 | partitioning | 通过时间+标的复合分区优化存储效率 | medium |
| 实时行情处理体系(架构说明) | data_flow | 通过INSIGHT插件直连交易所,将多通道(上交所和深交所股票及基金,共14个通道)的行情数据接入共享流表;随后进入对应订单簿引擎进行合成计算;最终输出至持久化共享流表 | medium |
| 该架构(DolphinDB + INSIGHT插件 + 订单簿引擎) | performance_claim | 实现全市场海量逐笔数据的毫秒级接入与低延时处理,并简化系统复杂性、降低数据存储成本 | low |
| 订单簿合成延迟波动率 | change | 下降显著 | low |
| 全市场秒级快照输出稳定性 | result | 达业务要求水平 | low |
| 服务器数量 | change | 同等业务规模下减少可观 | low |
| 运维自动化率 | change | 提升突出 | low |
| 日常管理耗时 | change | 缩减显著 | low |
| 高频做市策略 | enabled_by | 稳定低延时的订单簿信号 | medium |
| 10档深度数据 | benefit | 助力价差分析精度提升 | low |
| 自定义指标功能 | supports | 创新因子挖掘(挂单动能、撤单压力等) | medium |
| 高频订单簿数据库 | status | 建成标准化高频订单簿数据库 | medium |
| 历史数据回溯能力 | capability | 支持近两年历史数据秒级回溯 | medium |
| 盘后归档效率 | change | 提升显著,保障策略复盘时效性 | low |
| 目标受众 | includes | 寻求更优行情处理与实时分析能力的券商、资管机构 | high |
| 目标受众 | includes | 需要高效量化研究平台与强大回测引擎的量化团队 | high |
| 目标受众 | includes | 致力于构建实时风险管控系统的银行、金融科技公司 | high |
| 目标受众 | includes | 任何需要处理海量时序数据、追求极速分析的行业创新者 | high |
| DolphinDB 官网 | url | https://dolphindb.cn/ | high |
| DolphinDB | cta | 下载并试用 DolphinDB | high |