配对交易完整设计文档

hyperliquid-pair-hype-purr-analyze 技术设计文档

版本: v1.4
更新日期: 2026-02-11
作者: Claude Code
项目: 加密货币配对交易信号实时分析与自动执行系统


目录

版本变更 (v1.3 → v1.4):

  • 新增: Adaptive Bollinger Z-Score 策略引擎 (src/trading/strategy.py, Plan A)
    • 策略驱动: process_analysis() 替代原先直接 on_entry_signal/on_exit_signal 钩子
    • 策略缓冲区: z4h 滚动缓冲区 (144 个 5min bar) + Welford 增量标准差
    • 入场: 首次穿越 adaptive_z 阈值即入场,无双重确认
    • 退场: z4h 回归至 entry_z4h × reversion_factor
  • 重构: TradingOrchestrator 从 __init__.py 移至 orchestrator.py
  • 重构: TradeRepository 从 utils/database/ 移至 src/trading/
  • 新增: Protocol 接口 (protocols.py): Executor, TradeRepositoryProtocol, DatabaseClient
  • 新增: 交易配置扩展: 限价单、移动止损、最大持仓时间、Plan A 策略参数
  • 变更: ANALYSIS_USE_COPY_METHOD = True (启用 COPY 批量写入)
  • 变更: 连接池 max=60→30, min=5→10
  • 变更: 全局配置路径 src/utils/core/config.pysrc/config.py

版本变更 (v1.2 → v1.3):

  • 新增: 自动交易模块 (src/trading/, 7个文件, ~1680行)
    • TradingOrchestrator 统一编排器
    • HyperliquidExecutor SDK执行器 (hyperliquid-python-sdk)
    • PositionManager 仓位生命周期管理
    • RiskManager 9项开仓前风控检查
    • 三层安全机制: KillSwitch + RateLimiter + CircuitBreaker
    • TradeRepository 交易数据持久化
    • TradingConfig 独立配置 (从 .env 加载)
  • 新增: 4张交易数据表 (trading_signals, pair_positions, trade_orders, daily_trading_stats)
  • 新增: 2个监控线程 (止损监控 30s + 仓位同步 60s), 总线程: ~37 → ~39 (通用版)
  • 变更: analysis_results 保留策略从 180天 改为永久保留
  • 变更: ZSCORE_THRESHOLDS 结构重构为语义化键名 (long/middle/short/strong/medium)
  • 变更: config.py 引入 dotenv 加载环境变量
  • 数据库脚本版本: v1.1 → v1.2

版本变更 (v1.1 → v1.2):

  • 工作线程: 15 → 30, 总线程: ~22 → ~37
  • 连接池: min=2,max=10 → min=5,max=60
  • 队列: analysis_queue 15000 → 30000
  • 相关系数阈值: 通用版0.85→0.6, HYPE版0.99→0.5
  • 新增: 建仓双重确认 (DoubleCheckState)、均值回归平仓 (MeanReversionState)
  • 重连最大延迟: 60s → 10s
  • ServiceConfig 字段重构: 新增 logger_module, 移除 enable_new_symbol_monitor

1. 项目概述

1.1 系统简介

hyperliquid-pair-hype-purr-analyze 是一个基于统计套利的加密货币配对交易信号实时分析与自动执行系统。系统通过WebSocket实时接收Hyperliquid交易所的K线数据,执行多周期统计分析,检测配对交易机会,通过飞书发送实时告警,并支持自动化交易执行。

核心定位:

  • 量化交易策略支持系统
  • 实时信号发现引擎
  • 统计套利机会监控平台
  • 自动交易执行引擎(可选启用)

代码引用: src/services/realtime_kline_service.py:1-35

1.2 核心功能

实时数据接收

  • WebSocket订阅: 直接订阅交易所原生K线 (5m/1h/4h)
  • 订阅数量: N个活跃币种 × 3周期
  • 精度保证: 数据精度与REST API完全一致,无本地聚合误差
  • 订阅优势: 1h/4h推送频率极低 (<2%额外开销),Volume数据完全一致

代码引用: src/services/realtime_kline_service.py:5-26

多周期统计分析

  • 相关性分析: 基于收益率相关系数 (去趋势化、平稳性)
  • 协整检验: Engle-Granger两步法 (Old全量 + New双窗口)
  • Z-score异常检测: 标准化价差监控
  • 多周期验证: 3周期 × 2方法 = 6个协整检验结果
  • 协整健康监控: 双窗口评分机制 (长期200期 + 短期100期)

分析周期配置:

  • 5m周期: 7天历史数据
  • 1h周期: 30天历史数据
  • 4h周期: 60天历史数据

代码引用: src/utils/analysis/analysis_core.py:1-44

智能告警系统

  • 飞书富文本告警: 彩色卡片格式化
  • 建仓告警触发条件:
    • 协整通过数 ≥ 2 (可配置)
    • Z-score符号一致性(3周期方向一致)
    • Z-score超阈值 (short>1, middle>0.2, long>0.2)
    • 协整健康状态约束 (短期窗口需HEALTHY)
    • 双重确认 (DoubleCheckState): 首次信号记录状态,5分钟内第二次信号增强(|Z-score|增大且>2.5)确认后才发送告警
  • 平仓告警触发条件 (均值回归):
    • 实时 zscore_4h 回归至建仓时的 baseline 水平(avg_zscore_4h)
    • 双重确认 (MeanReversionState): 首次检测到回归仅记录状态,5分钟内再次检测到回归仍成立才确认平仓
    • 回归消失时自动重置首次检测状态
  • 重试机制: 最大3次,指数退避

代码引用: src/utils/monitoring/alert_formatter.py, src/services/realtime_kline_service_base.py:1393-1490

数据质量保证

  • K线连续性校验: 检测时间间隙
  • 自动数据补充: REST API补充缺失K线
  • 黑名单机制: 过滤数据不足的新币种
  • 协整健康监控: 避免协整关系恶化时的虚假信号

代码引用: src/utils/analysis/kline_data_filler.py

1.3 技术栈

核心技术

编程语言: Python 3.12+

数据库:

  • TimescaleDB 2.x (PostgreSQL时序扩展)
  • psycopg 3.x (连接池管理)
  • 自动分片 (7天chunk)

网络通信:

  • websocket-client 1.x (原生WebSocket实现)
  • Hyperliquid API SDK
  • requests (HTTP请求)

交易执行 (v1.3新增):

  • hyperliquid-python-sdk (交易所SDK,Exchange/Info)
  • eth_account (以太坊账户签名)

统计分析:

  • NumPy 1.26+ (数值计算)
  • pandas 2.2+ (数据处理)
  • statsmodels 0.14+ (协整检验、ADF检验)

并发控制:

  • threading (多线程并发)
  • queue.Queue (线程安全队列)
  • cachetools.TTLCache (去重缓存)

容器化:

  • Docker 24.x
  • docker-compose 2.x

代码引用: pyproject.toml, docker-compose.yml

1.4 架构亮点

1. 直接订阅原生K线

  • ✅ 精度与REST API一致
  • ✅ 无本地聚合误差
  • ✅ Volume数据完全一致
  • ✅ 额外开销 <2%

设计权衡: 放弃本地聚合换取数据精度和简洁性

代码引用: src/services/realtime_kline_service.py:22-26

2. 双窗口OLS协整分析

  • beta_window=100期: 稳定回归参数
  • zscore_window=30期: 敏感均值回归
  • 避免look-ahead bias: 使用前N-1期计算OLS
  • 智能模型选择: 根据α显著性选择有α/无α模型

设计优势: 平衡稳定性与灵敏度

代码引用: src/utils/analysis/analysis_core.py:185-407, src/utils/core/config.py:BETA_WINDOW, src/utils/core/config.py:ZSCORE_WINDOW

3. 多线程异步批量写入

  • COPY命令: >40K条/秒 (比INSERT快100倍)
  • 临时表策略: ON COMMIT DROP自动清理
  • 批量触发: 1000条/5秒
  • 死锁防护: 批量排序保证锁获取顺序一致

性能提升: 批量写入性能提升100倍

代码引用: src/utils/database/timescaledb.py:342-450, src/services/realtime_kline_service.py:635-760

4. 双重健康检测

底层连接检测:

  • ws.keep_running 状态标志
  • ws_ready_event 就绪标志
  • ws_thread 存活检查

应用层心跳 (假活检测):

  • 追踪最后消息时间
  • 超时阈值: 15秒
  • 定期健康报告: 每60秒

设计参考: strong-hyperliquid-websocket

代码引用: enhanced_ws_manager.py:54-114

5. 智能重连策略

  • 指数退避: 1s → 2s → 4s → 8s → 10s (封顶)
  • 随机抖动: ±25% (防止雷鸣羊群效应)
  • 最大重试: 无限次 (WS_MAX_RETRIES=None)
  • 5步确定性清理: 停止循环 → 停止Ping → 关闭连接 → 等待线程 → 清除引用

代码引用: enhanced_ws_manager.py:120-183, enhanced_ws_manager.py:698-781

6. Template Method Pattern 架构

  • 90%共同逻辑: 1931行基类封装核心流程
  • 4个抽象方法: 子类定制差异化行为(币种获取、配置参数、监控开关、相关系数阈值)
  • 2个实现版本: 通用版(动态币种,30 workers,~39线程)+ HYPE版(固定币种,2 workers,~10线程)
  • 配置参数化: ServiceConfig 数据类传递配置差异

设计优势: 消除代码重复,提升可维护性,支持多场景部署

代码引用: src/services/realtime_kline_service_base.py:1-1931

7. 自动交易模块 (v1.3新增)

  • TradingOrchestrator模式: 统一编排器协调5大组件
  • 9项风控检查: 开仓前全链路风控审查
  • 三层安全机制: KillSwitch(文件系统紧急停止)+ RateLimiter(滑动窗口频率限制)+ CircuitBreaker(连续失败熔断)
  • 仓位生命周期: pending → opening → open → closing → closed / error
  • 双腿交易: single模式(仅目标币种)/ pair模式(目标+基准双腿对冲)

设计优势: 模块化可插拔,安全优先,信号系统与执行系统完全解耦

代码引用: src/trading/__init__.py:1-396


2. 系统架构设计

2.1 整体架构图

graph TD
    A[Hyperliquid WebSocket API] -->|K线推送| B[EnhancedWebSocketManager]
    B -->|状态机管理| C[HealthMonitor<br/>双重健康检测]
    B -->|on_message| D[K线解析]

    D -->|5m/1h/4h K线| E[kline_buffer<br/>Queue 10000]
    D -->|5m推送触发| F[analysis_queue<br/>Queue 30000]

    E -->|批量1000条/5秒| G[batch_writer线程]
    G -->|COPY命令| H[(TimescaleDB<br/>klines表)]

    F -->|并发消费| I[N×analysis_worker线程<br/>通用版:30 / HYPE版:2]
    I -->|多周期验证| J[analysis_result_buffer<br/>Queue 10000]
    I -->|Z-score异常| K[飞书告警<br/>Lark Bot API]
    I -->|建仓/平仓信号| P[TradingOrchestrator<br/>交易编排器]

    J -->|批量100条/2秒| L[result_batch_writer线程]
    L -->|批量插入| M[(TimescaleDB<br/>analysis_results表)]

    H -.查询历史数据.-> I

    N[queue_monitor线程] -.监控.-> E
    N -.监控.-> F
    N -.监控.-> J

    O[new_symbol_monitor线程] -.每小时检查.-> B

    P -->|风控审查| Q[RiskManager<br/>9项检查]
    Q -->|通过| R[PositionManager]
    R -->|下单| S[HyperliquidExecutor<br/>SDK执行器]
    S -->|市价单| T[Hyperliquid Exchange API]
    R -->|持久化| U[(TimescaleDB<br/>交易表)]
    P -.止损/同步.-> S

代码引用: src/services/realtime_kline_service.py:118-141

2.2 核心组件关系

组件清单

组件 类型 职责 线程数
EnhancedWebSocketManager 网络管理器 WebSocket连接管理、订阅管理、健康监控 3 (主线程+Ping+健康检查)
batch_writer 数据持久化 K线批量写入TimescaleDB (COPY命令) 1
analysis_worker 分析引擎 多周期协整验证、Z-score计算、告警发送 30
result_batch_writer 结果持久化 分析结果批量写入 1
queue_monitor 监控线程 队列使用率监控、去重清理、双重确认清理 1
new_symbol_monitor 币种监控 自动发现新币种、动态订阅 1
trading-stop-loss 止损监控 定期检查仓位盈亏、触发止损 1 (交易启用时)
trading-sync 仓位同步 与交易所核对仓位、更新峰值权益 1 (交易启用时)

总线程数: ~37个线程 (3+1+30+1+1+1),启用交易后 ~39个线程 (+2)

代码引用: src/services/realtime_kline_service.py:224-275

组件交互流程

  1. 数据接收流程:

    WebSocket推送 → on_message回调 → K线解析 → kline_buffer队列
    
  2. 批量写入流程:

    kline_buffer → batch_writer线程 → COPY命令 → TimescaleDB
    触发条件: 1000条 OR 5秒超时
    
  3. 分析触发流程:

    5m K线推送 → 去重检查 (30s入队/60s分析) → analysis_queue队列
    
  4. 并发分析流程:

    analysis_queue → 30×analysis_worker → 查询历史数据 → 多周期验证 → 结果入队
    
  5. 告警发送流程:

    异常检测成功 → 飞书告警 (重试3次) → 记录发送结果
    

代码引用: src/services/realtime_kline_service.py:635-1035

2.3 数据流设计

K线数据流

sequenceDiagram
    participant WS as WebSocket
    participant OM as on_message
    participant KB as kline_buffer
    participant BW as batch_writer
    participant DB as TimescaleDB

    WS->>OM: 推送K线消息
    OM->>OM: 解析JSON
    OM->>KB: put(kline_dict)

    loop 每5秒 or 满1000条
        BW->>KB: get_nowait(批量取出)
        BW->>BW: 去重排序
        BW->>DB: COPY批量写入
        DB-->>BW: 写入确认
    end

去重保护:

  • 入队去重: 30秒窗口 (TTLCache)
  • 数据库去重: 主键 (time, symbol, timeframe) ON CONFLICT UPDATE

代码引用: src/services/realtime_kline_service.py:635-760, src/utils/database/timescaledb.py:342-450

分析数据流

sequenceDiagram
    participant OM as on_message (5m)
    participant AQ as analysis_queue
    participant AW as analysis_worker
    participant DB as TimescaleDB
    participant ARB as result_buffer
    participant LK as 飞书告警

    OM->>OM: 检查去重 (60s窗口)
    OM->>AQ: put(analysis_task)

    AW->>AQ: get(阻塞等待)
    AW->>DB: 查询3周期历史数据
    DB-->>AW: 返回K线数据

    AW->>AW: 数据连续性校验
    AW->>AW: 相关性前置过滤
    AW->>AW: 多周期协整验证 (6次)
    AW->>AW: Z-score计算与异常检测

    alt 异常检测成功
        AW->>LK: 发送飞书告警 (重试3次)
        AW->>ARB: put(分析结果)
    else 未检测到异常
        AW->>ARB: put(分析结果, is_anomaly=False)
    end

分析去重保护:

  • 5m周期: 60秒窗口
  • 1h周期: 300秒窗口
  • 4h周期: 900秒窗口
  • 跨线程共享: 所有analysis_worker共享同一TTLCache

代码引用: src/services/realtime_kline_service.py:908-1035, src/services/realtime_kline_service.py:1037-1402

2.4 技术选型说明

为什么选择 TimescaleDB?

优势:

  • ✅ 基于PostgreSQL,生态成熟
  • ✅ 自动分片 (chunk_time_interval=7天)
  • ✅ 时序查询优化 (time-bucket聚合)
  • ✅ 连续聚合视图 (Continuous Aggregates)
  • ✅ 数据保留策略 (自动清理180天前数据)

对比其他方案:

  • vs InfluxDB: PostgreSQL生态更强,SQL兼容性好
  • vs ClickHouse: 部署简单,小规模场景更合适
  • vs 原生PostgreSQL: 时序优化更好,分片自动管理

代码引用: init_timescaledb.sql, docker-compose.yml

为什么选择 websocket-client?

优势:

  • ✅ 原生Python实现,零依赖
  • ✅ 简单可靠,社区活跃
  • ✅ 支持自定义回调 (on_open/on_message/on_error/on_close)
  • ✅ 线程模型清晰 (run_forever独立线程)

对比其他方案:

  • vs aiohttp: 不需要asyncio复杂性
  • vs python-binance: 通用性更好,不绑定特定交易所

代码引用: enhanced_ws_manager.py:1-34

为什么选择多线程而非异步?

理由:

  • ✅ psycopg 3.x同步API性能已足够 (COPY >40K条/秒)
  • ✅ statsmodels同步阻塞计算,异步无优势
  • ✅ 线程模型简单清晰,易于调试
  • ✅ 并发分析任务完全独立,线程池模式适合

权衡:

  • ❌ 线程上下文切换开销 (但39线程规模可接受)
  • ✅ 避免asyncio生态碎片化问题

代码引用: src/services/realtime_kline_service.py:224-275

2.5 架构模式设计

Template Method Pattern 应用

设计背景:

  • 代码重复问题: 通用版和HYPE版服务存在90%相同逻辑(1440+行)
  • 维护成本: 双份代码同步维护,bug修复需要两处更改
  • 扩展需求: 未来可能支持更多配对策略(如三角套利、跨交易所)

解决方案: 引入 Template Method Pattern,将共同逻辑抽取到抽象基类

架构组成:

  1. ServiceConfig 数据类: 参数化配置差异
  2. RealtimeKlineServiceBase 抽象基类: 封装1931行核心流程
  3. RealtimeKlineService 通用版: 183行实现,动态币种获取
  4. RealtimeKlineServiceHypePurr HYPE版: 137行实现,固定币种配对

ServiceConfig 配置类

数据结构 (src/services/realtime_kline_service_base.py:85-93):

@dataclass
class ServiceConfig:
    """服务配置参数数据类"""
    base_symbol: str                    # 基准币种 (如 "BTC/USDC:USDC" 或 "HYPE/USDC:USDC")
    corr_threshold: float              # 相关系数阈值 (0.6 或 0.5)
    queue_config: Dict[str, int]       # 队列配置
    analysis_workers: int              # 工作线程数 (30 或 2)
    data_filler_class: Type            # 数据填充器类
    logger_module: str                 # logger 模块标识('logger' 或 'get_logger')

配置对比:

配置字段 通用版 HYPE版 差异原因
base_symbol BTC/USDC:USDC HYPE/USDC:USDC HYPE版专注单一配对
corr_threshold 0.6 0.5 HYPE版使用更宽松阈值
analysis_workers 30 2 HYPE版订阅数少,减少线程
kline_buffer_size 10000 1000 HYPE版订阅数少
analysis_queue_size 30000 1000 HYPE版分析任务少
analysis_result_buffer_size 10000 1000 HYPE版结果产生速度低
data_filler_class KlineDataFiller KlineDataFillerLazy HYPE版使用懒加载
logger_module 'logger' 'logger' 日志模块标识

RealtimeKlineServiceBase 抽象基类

核心职责 (src/services/realtime_kline_service_base.py:114-1931):

  • ✅ WebSocket连接管理(ping/健康监控/断线重连)
  • ✅ K线数据接收和批量写入
  • ✅ 分析任务队列管理(通用版30个 / HYPE版2个 worker线程)
  • ✅ 结果写入和告警发送(含建仓/平仓双重确认)
  • ✅ 队列监控和性能统计

4个抽象方法 (子类必须实现):

@abstractmethod
def _get_active_symbols(self) -> List[str]:
    """获取活跃币种列表"""
    pass

@abstractmethod
def _get_config_params(self) -> ServiceConfig:
    """获取服务配置参数"""
    pass

@abstractmethod
def _should_enable_symbol_monitoring(self) -> bool:
    """是否启用新币种监控线程"""
    pass

@abstractmethod
def _get_corr_threshold_for_analysis(self) -> float:
    """获取分析用的相关系数阈值"""
    pass

两个实现版本对比

维度 通用版 HYPE版
文件 src/services/realtime_kline_service.py src/services/realtime_kline_service_hype.py
文件大小 183行 137行
币种来源 动态获取(TimescaleDB查询 + 交易所API) 固定列表 ["HYPE/USDC:USDC", "PURR/USDC:USDC"]
基准币种 BTC/USDC:USDC HYPE/USDC:USDC
相关系数阈值 0.6 0.5
分析线程数 30 2
队列大小 kline:10000, analysis:30000, result:10000 kline:1000, analysis:1000, result:1000
币种监控 ✅ 启用(自动发现新币种) ❌ 禁用
数据填充器 KlineDataFiller KlineDataFillerLazy
总线程数 ~37 (~39含交易) ~8 (~10含交易)

通用版实现 (src/services/realtime_kline_service.py:89-103):

def _get_config_params(self) -> ServiceConfig:
    """获取通用版服务配置参数"""
    return ServiceConfig(
        base_symbol=DEFAULT_BASE_SYMBOL,
        corr_threshold=TARGET_CORR_THRESHOLD,
        queue_config=QUEUE_CONFIG_GENERAL,
        analysis_workers=ANALYSIS_WORKERS_GENERAL,
        data_filler_class=KlineDataFiller,
        logger_module='logger'
    )

def _should_enable_symbol_monitoring(self) -> bool:
    return True  # 启用新币种监控

HYPE版实现 (src/services/realtime_kline_service_hype.py:78-110):

def _get_config_params(self) -> ServiceConfig:
    """获取 HYPE/PURR 专用版服务配置参数"""
    return ServiceConfig(
        base_symbol=HYPE_BASE_SYMBOL,
        corr_threshold=HYPE_CORR_THRESHOLD,
        queue_config=QUEUE_CONFIG_HYPE,
        analysis_workers=ANALYSIS_WORKERS_HYPE,
        data_filler_class=KlineDataFillerLazy,
        logger_module='logger'
    )

def _should_enable_symbol_monitoring(self) -> bool:
    return False  # 禁用新币种监控

架构优势

代码复用率:

  • ✅ 共享代码: 1931行(90%)
  • ✅ 通用版独有: 183行(10%)
  • ✅ HYPE版独有: 137行(7%)
  • ✅ 消除重复: 避免1700+行重复代码

维护效率:

  • ✅ 单点修改: bug修复只需改基类
  • ✅ 统一升级: 性能优化自动惠及所有版本
  • ✅ 一致性保证: 核心逻辑完全一致

扩展性:

  • ✅ 新增策略: 只需实现4个抽象方法(<200行)
  • ✅ 配置化差异: ServiceConfig 数据类清晰表达差异
  • ✅ 多态支持: 基类引用,子类实例化

测试友好:

  • ✅ 隔离测试: 基类逻辑独立测试
  • ✅ Mock简单: 抽象方法易于Mock
  • ✅ 覆盖率高: 1931行基类测试覆盖90%代码

代码引用:

  • 基类: src/services/realtime_kline_service_base.py:85-1931
  • 通用版: src/services/realtime_kline_service.py:1-183
  • HYPE版: src/services/realtime_kline_service_hype.py:1-137

3. 数据库设计

3.1 TimescaleDB架构

核心特性

TimescaleDB = PostgreSQL + 时序优化扩展

架构优势:

  • 自动分片 (hypertable + chunks)
  • 时序查询优化 (time-bucket, first/last聚合)
  • 连续聚合 (Continuous Aggregates)
  • 数据保留策略 (Retention Policy)
  • 数据压缩 (Compression)

代码引用: init_timescaledb.sql:1-11

Hypertable分片策略

klines表:

  • chunk_time_interval: 7天
  • 分片键: time
  • 索引: 自动创建时间索引

analysis_results表:

  • chunk_time_interval: 30天
  • 分片键: analysis_time
  • 索引: 自动创建时间索引

分片优势:

  • 查询性能: 自动分区剪枝
  • 数据管理: 按chunk删除历史数据
  • 并发写入: 不同chunk并发写入无锁竞争

代码引用: init_timescaledb.sql:99-117

3.2 核心数据表

klines表 (K线数据)

CREATE TABLE klines (
    time TIMESTAMPTZ NOT NULL,           -- K线时间(UTC)
    symbol VARCHAR(50) NOT NULL,         -- 币种(BTC/USDC:USDC)
    timeframe VARCHAR(10) NOT NULL,      -- 周期(5m/1h/4h)
    open DOUBLE PRECISION NOT NULL,      -- 开盘价
    high DOUBLE PRECISION NOT NULL,      -- 最高价
    low DOUBLE PRECISION NOT NULL,       -- 最低价
    close DOUBLE PRECISION NOT NULL,     -- 收盘价
    volume DOUBLE PRECISION NOT NULL,    -- 成交量
    volume_usd DOUBLE PRECISION,         -- 成交额(USD)
    return_pct DOUBLE PRECISION,         -- 收益率(%)
    created_at TIMESTAMPTZ DEFAULT NOW(),-- 写入时间

    PRIMARY KEY (time, symbol, timeframe)
);

设计说明:

  • 复合主键: (time, symbol, timeframe) 自动去重
  • return_pct: 预计算收益率(可选,用于加速相关性分析)
  • volume_usd: 用于流动性过滤

数据示例:

time: 2026-01-30 12:00:00+00
symbol: BTC/USDC:USDC
timeframe: 5m
close: 106500.0
volume: 1234.56

代码引用: init_timescaledb.sql:19-36

symbol_metadata表 (币种元数据)

CREATE TABLE symbol_metadata (
    symbol VARCHAR(50) PRIMARY KEY,
    base_asset VARCHAR(20) NOT NULL,     -- 基础资产(BTC)
    quote_asset VARCHAR(20) NOT NULL,    -- 计价资产(USDC)
    listing_time TIMESTAMPTZ,            -- 上线时间
    first_kline_time TIMESTAMPTZ,        -- 首次K线时间
    last_kline_time TIMESTAMPTZ,         -- 最后K线时间
    is_active BOOLEAN DEFAULT TRUE,      -- 是否活跃
    data_quality_score DOUBLE PRECISION DEFAULT 0.0,
    total_klines BIGINT DEFAULT 0,       -- K线总数
    created_at TIMESTAMPTZ DEFAULT NOW(),
    updated_at TIMESTAMPTZ DEFAULT NOW()
);

用途:

  • 追踪币种上线时间
  • 过滤数据不足的新币
  • 监控数据质量

代码引用: init_timescaledb.sql:38-54

analysis_results表 (分析结果)

CREATE TABLE analysis_results (
    id SERIAL,
    analysis_time TIMESTAMPTZ NOT NULL,  -- 分析执行时间
    symbol VARCHAR(50) NOT NULL,         -- 目标币种
    base_symbol VARCHAR(50) NOT NULL,    -- 基准币种

    -- 时间链路
    kline_time TIMESTAMPTZ,              -- K线原始时间
    analysis_delay_seconds FLOAT,        -- 分析延迟(秒)

    -- 相关系数
    corr_5m_7d DOUBLE PRECISION,         -- 5m周期7天相关系数
    corr_1h_30d DOUBLE PRECISION,        -- 1h周期30天相关系数
    corr_4h_60d DOUBLE PRECISION,        -- 4h周期60天相关系数

    -- Z-score
    zscore_5m DOUBLE PRECISION,
    zscore_1h DOUBLE PRECISION,
    zscore_4h DOUBLE PRECISION,

    -- 协整检验
    cointegration_passed BOOLEAN DEFAULT FALSE,
    adf_pvalue DOUBLE PRECISION,

    -- 信号标识
    is_anomaly BOOLEAN DEFAULT FALSE,    -- 是否异常
    trading_direction VARCHAR(50),       -- 交易方向
    signal_strength VARCHAR(20),         -- 信号强度

    created_at TIMESTAMPTZ DEFAULT NOW(),
    PRIMARY KEY (analysis_time, id)
);

字段说明:

  • kline_time: 用于分析延迟监控
  • cointegration_passed: 多周期协整通过标志
  • is_anomaly: 异常检测结果(告警触发)
  • trading_direction: long/short方向

代码引用: init_timescaledb.sql:56-93

3.3 索引策略

主键索引 (自动创建)

-- klines表
PRIMARY KEY (time, symbol, timeframe)
→ 自动创建 B-tree 索引

-- analysis_results表
PRIMARY KEY (analysis_time, id)
→ 自动创建 B-tree 索引

查询优化索引

-- 索引1: klines 按币种+周期+时间倒序(最常用查询)
CREATE INDEX idx_klines_symbol_timeframe_time
ON klines (symbol, timeframe, time DESC);

-- 索引2: symbol_metadata 活跃币种快速查询(部分索引)
CREATE INDEX idx_symbol_active
ON symbol_metadata (symbol)
WHERE is_active = TRUE;

-- 索引3: analysis_results 异常信号快速过滤(部分索引)
CREATE INDEX idx_analysis_anomaly_time
ON analysis_results (analysis_time DESC)
WHERE is_anomaly = TRUE;

-- 索引4: 延迟监控查询索引(部分索引)
CREATE INDEX idx_analysis_delay
ON analysis_results (analysis_delay_seconds DESC)
WHERE analysis_delay_seconds > 5;

索引设计原则:

  • 覆盖最常用查询路径
  • 部分索引减少索引大小
  • 时间字段降序索引(最新数据优先)

代码引用: init_timescaledb.sql:120-167

3.4 分区策略

自动分片 (Hypertable)

-- klines: 7天chunk
SELECT create_hypertable(
    'klines',
    'time',
    chunk_time_interval => INTERVAL '7 days'
);

-- analysis_results: 30天chunk
SELECT create_hypertable(
    'analysis_results',
    'analysis_time',
    chunk_time_interval => INTERVAL '30 days'
);

分片效果:

  • 查询优化: 分区剪枝(仅扫描相关chunk)
  • 并发写入: 不同chunk并发无锁冲突
  • 历史数据管理: 按chunk删除

代码引用: init_timescaledb.sql:99-117

数据保留策略

-- klines: 保留90天
SELECT add_retention_policy(
    'klines',
    INTERVAL '90 days'
);

-- analysis_results: 永久保留(不设置自动清理策略)
-- 注意:数据将永久保留,需手动管理存储空间
-- 如需恢复自动清理,取消注释以下代码:
-- SELECT add_retention_policy(
--     'analysis_results',
--     INTERVAL '180 days',
--     if_not_exists => TRUE
-- );

自动清理:

  • klines: 后台作业自动执行,按chunk删除(性能高)
  • analysis_results: 永久保留(v1.3变更),需手动管理存储

代码引用: database/init_timescaledb.sql:216-237

数据压缩策略

-- klines: 7天后压缩(按symbol和timeframe分段)
ALTER TABLE klines SET (
    timescaledb.compress,
    timescaledb.compress_segmentby = 'symbol,timeframe'
);

SELECT add_compression_policy(
    'klines',
    INTERVAL '7 days'
);

压缩效果:

  • 存储节省: 70-90%
  • 查询性能: 轻微下降(可接受)
  • 适用场景: 历史数据查询

代码引用: database/init_timescaledb.sql:240-270

3.5 交易模块表结构 (v1.3新增)

trading_signals表 (交易信号记录)

CREATE TABLE trading_signals (
    signal_id UUID NOT NULL,
    signal_time TIMESTAMPTZ NOT NULL,
    signal_type TEXT NOT NULL,              -- 'entry' / 'exit'
    symbol TEXT NOT NULL,
    base_symbol TEXT NOT NULL,
    direction TEXT,                          -- 'long' / 'short'
    zscore_5m DOUBLE PRECISION,
    zscore_1h DOUBLE PRECISION,
    zscore_4h DOUBLE PRECISION,
    avg_zscore_4h DOUBLE PRECISION,
    cointegration_count INTEGER DEFAULT 0,
    signal_strength TEXT,
    latest_alt_price DOUBLE PRECISION,
    action_taken TEXT DEFAULT 'none',        -- 'none'/'opened'/'closed'/'rejected'
    reject_reason TEXT,
    network TEXT DEFAULT 'testnet',
    raw_data JSONB,
    created_at TIMESTAMPTZ DEFAULT NOW(),

    PRIMARY KEY (signal_time, signal_id)
);
  • Hypertable: 30天chunk
  • 用途: 记录所有入场/退场信号及其处理结果(opened/closed/rejected)

代码引用: database/init_timescaledb.sql:277-308

pair_positions表 (配对仓位)

CREATE TABLE pair_positions (
    position_id UUID PRIMARY KEY,
    symbol TEXT NOT NULL,
    base_symbol TEXT NOT NULL,
    direction TEXT NOT NULL,                -- 'long' / 'short'
    status TEXT NOT NULL DEFAULT 'pending', -- pending/opening/open/closing/closed/error
    pair_mode TEXT NOT NULL DEFAULT 'single', -- 'single' / 'pair'

    -- 目标币种仓位
    alt_side TEXT,                           -- 'buy' / 'sell'
    alt_size DOUBLE PRECISION DEFAULT 0,
    alt_entry_price DOUBLE PRECISION DEFAULT 0,
    alt_exit_price DOUBLE PRECISION DEFAULT 0,

    -- 基准币种仓位(pair 模式)
    base_side TEXT,
    base_size DOUBLE PRECISION DEFAULT 0,
    base_entry_price DOUBLE PRECISION DEFAULT 0,
    base_exit_price DOUBLE PRECISION DEFAULT 0,

    -- 信号快照
    entry_zscore_4h DOUBLE PRECISION,
    entry_avg_zscore_4h DOUBLE PRECISION,
    entry_signal_strength TEXT,

    -- 盈亏
    unrealized_pnl DOUBLE PRECISION DEFAULT 0,
    realized_pnl DOUBLE PRECISION DEFAULT 0,

    -- 时间 & 关联
    open_time TIMESTAMPTZ,
    close_time TIMESTAMPTZ,
    entry_signal_id UUID,
    exit_signal_id UUID,
    network TEXT DEFAULT 'testnet',
    created_at TIMESTAMPTZ DEFAULT NOW(),
    updated_at TIMESTAMPTZ DEFAULT NOW()
);
  • 普通表: UUID主键(非Hypertable,因为需要频繁按status查询更新)
  • 用途: 管理配对仓位生命周期

代码引用: database/init_timescaledb.sql:314-356

trade_orders表 (订单明细)

CREATE TABLE trade_orders (
    order_id SERIAL,
    order_time TIMESTAMPTZ NOT NULL,
    position_id UUID NOT NULL,
    coin TEXT NOT NULL,
    side TEXT NOT NULL,                      -- 'buy' / 'sell'
    size DOUBLE PRECISION NOT NULL,
    price DOUBLE PRECISION DEFAULT 0,
    exchange_order_id BIGINT,
    status TEXT NOT NULL,                    -- 'filled'/'partial'/'rejected'/'error'
    order_type TEXT DEFAULT 'market',
    error_message TEXT,
    raw_response JSONB,
    network TEXT DEFAULT 'testnet',
    created_at TIMESTAMPTZ DEFAULT NOW(),

    PRIMARY KEY (order_time, order_id)
);
  • Hypertable: 30天chunk
  • 用途: 记录每笔实际提交到交易所的订单

代码引用: database/init_timescaledb.sql:362-391

daily_trading_stats表 (每日交易统计)

CREATE TABLE daily_trading_stats (
    stat_date DATE PRIMARY KEY,
    total_signals INTEGER DEFAULT 0,
    entry_signals INTEGER DEFAULT 0,
    exit_signals INTEGER DEFAULT 0,
    trades_opened INTEGER DEFAULT 0,
    trades_closed INTEGER DEFAULT 0,
    trades_rejected INTEGER DEFAULT 0,
    total_realized_pnl DOUBLE PRECISION DEFAULT 0,
    max_drawdown DOUBLE PRECISION DEFAULT 0,
    max_open_pairs INTEGER DEFAULT 0,
    network TEXT DEFAULT 'testnet',
    created_at TIMESTAMPTZ DEFAULT NOW(),
    updated_at TIMESTAMPTZ DEFAULT NOW()
);
  • 普通表: DATE主键,通过 ON CONFLICT DO UPDATE 实现原子更新
  • 用途: 汇总每日信号数/执行数/盈亏/回撤

代码引用: database/init_timescaledb.sql:395-411

交易模块索引

-- trading_signals 索引
CREATE INDEX idx_trading_signals_symbol ON trading_signals (symbol, signal_time DESC);
CREATE INDEX idx_trading_signals_type ON trading_signals (signal_type, signal_time DESC);

-- pair_positions 索引
CREATE INDEX idx_pair_positions_symbol_status ON pair_positions (symbol, status);
CREATE INDEX idx_pair_positions_active ON pair_positions (status) WHERE status IN ('open', 'opening', 'closing');
CREATE INDEX idx_pair_positions_open_time ON pair_positions (open_time DESC);

-- trade_orders 索引
CREATE INDEX idx_trade_orders_position ON trade_orders (position_id, order_time DESC);
CREATE INDEX idx_trade_orders_coin ON trade_orders (coin, order_time DESC);

代码引用: database/init_timescaledb.sql:417-446

交易模块压缩策略

-- trading_signals: 30天后压缩(按symbol分段)
ALTER TABLE trading_signals SET (timescaledb.compress, timescaledb.compress_segmentby = 'symbol');
SELECT add_compression_policy('trading_signals', INTERVAL '30 days', if_not_exists => TRUE);

-- trade_orders: 30天后压缩(按coin分段)
ALTER TABLE trade_orders SET (timescaledb.compress, timescaledb.compress_segmentby = 'coin');
SELECT add_compression_policy('trade_orders', INTERVAL '30 days', if_not_exists => TRUE);

代码引用: database/init_timescaledb.sql:449-477

数据库总览 (v1.2脚本)

类别 数量 详情
数据表 7 klines, symbol_metadata, analysis_results, trading_signals, pair_positions, trade_orders, daily_trading_stats
Hypertable 4 klines (7天chunk), analysis_results (30天), trading_signals (30天), trade_orders (30天)
索引 21 klines:6, analysis_results:6, symbol_metadata:2, trading_signals:2, pair_positions:3, trade_orders:2
压缩策略 4 klines (7天), analysis_results (30天), trading_signals (30天), trade_orders (30天)
连续聚合 1 daily_analysis_stats (每小时刷新)

3.6 连接池设计

单例模式连接池

class TimescaleDBClient:
    _instance: Optional['TimescaleDBClient'] = None
    _pool: Optional[ConnectionPool] = None

    def __new__(cls):
        if cls._instance is None:
            cls._instance = super().__new__(cls)
            cls._instance._initialized = False
        return cls._instance

设计优势:

  • 全局唯一连接池实例
  • 避免重复初始化
  • 线程安全

代码引用: src/utils/database/timescaledb.py:94-129

连接池配置

self._pool = ConnectionPool(
    conninfo=self.config.connection_string,
    min_size=5,    # 最小连接数
    max_size=60,   # 最大连接数(匹配30个工作线程 × 2)
    timeout=30,    # 获取连接超时(秒)
    max_lifetime=3600,  # 连接最大存活时间(秒)
    max_idle=600,       # 最大空闲时间(秒)
    open=True
)

参数说明:

  • min_size=5: 保持最少5个活跃连接
  • max_size=60: 最多60个并发连接(30个工作线程 × 2,避免连接池耗尽)
  • max_lifetime=3600: 每小时回收连接(防止连接泄漏)
  • max_idle=600: 10分钟空闲自动回收

代码引用: src/utils/database/timescaledb.py:131-150

连接污染检测

@contextmanager
def get_connection(self) -> Connection:
    conn = None
    connection_valid = True

    try:
        conn = self._pool.getconn()
        yield conn
        conn.commit()
    except Exception as e:
        if conn:
            try:
                conn.rollback()
                # 关键: 测试连接是否仍然可用
                with conn.cursor() as test_cur:
                    test_cur.execute("SELECT 1")
            except Exception as test_e:
                # 连接已污染,标记为无效
                logger.error(f"连接已污染,将其移除: {test_e}")
                connection_valid = False
        raise
    finally:
        if conn:
            if connection_valid:
                self._pool.putconn(conn)  # 健康连接复用
            else:
                self._pool.putconn(conn, close=True)  # 污染连接移除

污染检测机制:

  1. 异常后执行 SELECT 1 测试
  2. 测试失败 → 标记为污染连接
  3. 污染连接关闭并移除
  4. 健康连接返回连接池复用

代码引用: src/utils/database/timescaledb.py:152-217


4. 网络层设计

4.1 WebSocket管理器架构

核心类设计

class EnhancedWebSocketManager:
    """
    增强型 WebSocket 连接管理器

    核心功能:
    - 双重健康检测(底层连接 + 应用层心跳)
    - 指数退避重连策略
    - 完整的状态机管理
    - 线程安全设计
    - 可观测性(统计信息和健康报告)
    """

设计参考: strong-hyperliquid-websocket

代码引用: enhanced_ws_manager.py:1-34

状态机管理

class ConnectionState(Enum):
    DISCONNECTED = "disconnected"  # 未连接
    CONNECTING = "connecting"      # 连接中
    CONNECTED = "connected"        # 已连接
    RECONNECTING = "reconnecting"  # 重连中
    FAILED = "failed"              # 连接失败

状态转换:

DISCONNECTED → CONNECTING → CONNECTED
     ↓              ↓            ↓
  FAILED ← RECONNECTING ← (网络中断)

代码引用: enhanced_ws_manager.py:41-48

线程模型

主要线程:

  1. WebSocket主线程: 运行 WebSocket.run_forever()
  2. Ping线程: 每5秒发送ping保活
  3. 健康监控线程: 每2秒检查连接健康

线程同步:

  • ws_thread: WebSocket主线程句柄
  • ws_ready_event: WebSocket就绪标志(threading.Event)
  • stop_ping: Ping线程停止信号(threading.Event)

代码引用: enhanced_ws_manager.py:501-597

4.2 双重健康检测机制

底层连接检测

def _is_connected_base(self) -> bool:
    """检查底层WebSocket连接状态"""
    with self.state_lock:
        return (
            self.ws is not None
            and self.ws.keep_running  # WebSocket底层标志
            and self.ws_ready_event.is_set()  # 就绪标志
            and self.ws_thread is not None
            and self.ws_thread.is_alive()  # 线程存活
        )

检测指标:

  • ws.keep_running: WebSocket底层运行标志
  • ws_ready_event: 连接就绪标志
  • ws_thread.is_alive(): 线程存活检查

代码引用: enhanced_ws_manager.py:800-828

应用层心跳 (假活检测)

class HealthMonitor:
    """
    健康监控器(应用层心跳)

    功能:
    - 追踪最后消息接收时间
    - 检测数据流中断(假活状态)
    - 双阈值告警(警告 + 超时)
    """

    def __init__(self, timeout=15, warning_threshold=10):
        self.timeout = timeout  # 15秒超时
        self.warning_threshold = warning_threshold  # 10秒警告
        self.last_message_time = time.time()
        self.message_count = 0

    def is_alive(self) -> tuple[bool, float]:
        idle_time = time.time() - self.last_message_time

        if idle_time > self.timeout:
            return False, idle_time  # 假活检测
        elif idle_time > self.warning_threshold:
            logger.warning(f"健康检查警告: {idle_time:.1f}秒未收到数据")

        return True, idle_time

假活场景:

  • WebSocket底层连接正常
  • 但15秒未收到任何消息 → 判定为假活
  • 触发重连

健康度百分比:

def get_health_percentage(self) -> float:
    _, idle_time = self.is_alive()
    return max(0, 100 - (idle_time / self.timeout * 100))

代码引用: enhanced_ws_manager.py:54-114

4.3 重连策略设计

指数退避算法

class ReconnectionManager:
    """
    重连管理器(指数退避策略)

    特性:
    - 指数退避: 1s → 2s → 4s → 8s → 10s (封顶)
    - 随机抖动: ±25% (防止雷鸣羊群效应)
    - 可配置最大延迟和重试次数
    """

    def __init__(
        self,
        initial_delay=1.0,    # 初始延迟
        max_delay=10.0,       # 最大延迟
        multiplier=2.0,       # 递增因子
        max_retries=None      # 最大重试次数
    ):
        self.initial_delay = initial_delay
        self.max_delay = max_delay
        self.multiplier = multiplier
        self.max_retries = max_retries
        self.current_attempt = 0

延迟计算:

def get_delay(self) -> float:
    # 指数退避: initial_delay * multiplier^attempt
    delay = self.initial_delay * (self.multiplier ** self.current_attempt)
    delay = min(delay, self.max_delay)

    # 随机抖动: ±25%
    jitter = delay * (random.random() - 0.5) * 0.5  # ±25%
    return max(0, delay + jitter)

退避序列示例:

尝试1: 1.0s ± 25% = 0.75-1.25s
尝试2: 2.0s ± 25% = 1.5-2.5s
尝试3: 4.0s ± 25% = 3.0-5.0s
尝试4: 8.0s ± 25% = 6.0-10.0s
尝试5+: 10.0s ± 25% = 7.5-12.5s (封顶)

代码引用: enhanced_ws_manager.py:120-183

5步确定性清理

def _force_cleanup_websocket(self):
    """
    5步确定性清理 WebSocket 连接

    步骤:
    1. 停止运行循环
    2. 停止Ping线程
    3. 关闭WebSocket连接
    4. 等待WebSocket线程退出
    5. 清除引用
    """

    # Step 1: 停止运行循环
    if self.ws:
        self.ws.keep_running = False

    # Step 2: 停止Ping线程
    if hasattr(self, 'stop_ping'):
        self.stop_ping.set()
        if hasattr(self, 'ping_thread'):
            self.ping_thread.join(timeout=2.0)

    # Step 3: 关闭WebSocket连接
    if self.ws:
        try:
            self.ws.close()
        except Exception as e:
            logger.warning(f"关闭WebSocket时出错: {e}")

    # Step 4: 等待WebSocket线程退出
    if self.ws_thread and self.ws_thread.is_alive():
        self.ws_thread.join(timeout=2.0)
        if self.ws_thread.is_alive():
            logger.warning("WebSocket线程未正常退出")

    # Step 5: 清除引用
    self.ws = None
    self.ws_thread = None
    self.ws_ready_event.clear()

清理保证:

  • 确定性顺序执行
  • 超时保护(2秒)
  • 线程泄漏检测

代码引用: enhanced_ws_manager.py:698-781

4.4 订阅管理与数据缓存

动态订阅管理

def add_subscriptions(self, new_subscriptions: List[Dict]):
    """动态添加订阅"""
    with self.subscriptions_lock:
        for sub in new_subscriptions:
            sub_key = (sub['type'], tuple(sorted(sub.items())))
            if sub_key not in self.active_subscriptions:
                self.subscriptions.append(sub)
                self.active_subscriptions.add(sub_key)

        # 如果连接已建立,立即发送订阅
        if self._is_connected():
            self._send_subscriptions(new_subscriptions)

订阅去重:

  • active_subscriptions: set集合
  • 订阅键: (type, sorted_params) 元组

即时订阅 vs 延迟订阅:

  • 连接已建立 → 立即发送subscribe消息
  • 连接未建立 → 添加到列表,重连时自动订阅

代码引用: enhanced_ws_manager.py:420-470

数据缓存设计

# latest_data 字典缓存最新K线/订单簿/交易记录
self.latest_data = {
    "candles": {},      # {(symbol, timeframe): kline_dict}
    "l2Book": {},       # {symbol: orderbook_dict}
    "trades": {},       # {symbol: [trade_list]}
}

# 同步查询接口
def get_latest_candle(self, symbol: str, timeframe: str) -> Optional[Dict]:
    """获取最新K线(同步查询)"""
    with self.latest_data_lock:
        return self.latest_data["candles"].get((symbol, timeframe))

def get_latest_mid_price(self, symbol: str) -> Optional[float]:
    """获取最新中间价(同步查询)"""
    with self.latest_data_lock:
        book = self.latest_data["l2Book"].get(symbol)
        if book and 'levels' in book:
            levels = book['levels']
            if len(levels) >= 2:
                best_bid = float(levels[0][0]['px'])
                best_ask = float(levels[1][0]['px'])
                return (best_bid + best_ask) / 2
    return None

应用场景:

  • 同步查询最新价格
  • 避免重复数据库查询
  • 降低API请求频率

代码引用: enhanced_ws_manager.py:194-343


5. 分析引擎设计

5.1 核心算法流程

flowchart TD
    A[收到5m K线推送] --> B{检查黑名单}
    B -->|在黑名单| Z[跳过分析]
    B -->|不在黑名单| C[查询3周期历史数据]

    C --> D[K线连续性校验]
    D -->|有缺失| E[REST API补充数据]
    D -->|完整| F[相关系数前置过滤]
    E --> F

    F -->|相关性 < 阈值| Z
    F -->|相关性 ≥ 阈值| G[多周期协整验证]

    G --> H[Old方法: 全量OLS]
    G --> I[New方法: 双窗口OLS]

    H --> J[3周期 × 2方法 = 6个结果]
    I --> J

    J --> K{协整通过数 ≥ 2?}
    K -->|否| Z
    K -->|是| L[Z-score符号一致性检查]

    L -->|不一致| Z
    L -->|一致| M[Z-score超阈值检查]

    M -->|未超阈值| Z
    M -->|超阈值| N[协整健康状态约束]

    N -->|短期窗口非HEALTHY| Z
    N -->|短期窗口HEALTHY| O[保存分析结果]

    O --> DC1{建仓双重确认}
    DC1 -->|首次信号| DC2[记录状态,等待确认]
    DC1 -->|确认通过| P[发送建仓告警]
    DC2 --> Q

    P --> P2[缓存建仓baseline]
    P2 --> Q[分析完成]

    subgraph 平仓检测[均值回归平仓检测 - 每次分析都执行]
        R1{zscore_4h 回归至 baseline?}
        R1 -->|首次检测到回归| R2[记录首次回归时间]
        R1 -->|窗口内再次检测| R3[平仓双重确认通过]
        R1 -->|回归消失| R4[重置首次检测状态]
        R1 -->|超出窗口| R5[超时重置为新首次]
        R3 --> R6[发送平仓告警]
    end

代码引用: src/services/realtime_kline_service_base.py:_analyze_and_alert, src/services/realtime_kline_service_base.py:_check_mean_reversion

5.2 相关性分析

为什么使用收益率相关性?

# 计算收益率序列(与价格相关性的区别)
base_returns = base_prices.pct_change().dropna()
alt_returns = alt_prices.pct_change().dropna()

# 计算收益率相关系数
correlation = base_returns.corr(alt_returns, method='pearson')

收益率相关性的优势:

  1. 去趋势化: 消除市场整体涨跌的影响

    • 价格相关性: 受长期趋势主导(牛市都涨 → 高相关)
    • 收益率相关性: 反映短期波动同步性
  2. 平稳性: 收益率序列通常平稳,适合统计建模

    • 价格序列: 非平稳(有趋势)
    • 收益率序列: 近似平稳(零均值)
  3. 实战意义: 反映"基准币涨1%时,目标币涨多少"

    • 更符合配对交易的实际需求

前置过滤:

if abs(correlation) < TARGET_CORR_THRESHOLD:
    logger.debug(f"相关性不足 ({correlation:.4f} < {TARGET_CORR_THRESHOLD}),跳过分析")
    return None

代码引用: src/utils/analysis/analysis_core.py:83-141

5.3 协整检验 (Engle-Granger)

Old方法 - 全量OLS

def calculate_cointegration_params_ols(
    base_klines: List[Dict],
    alt_klines: List[Dict]
) -> Optional[Dict]:
    """
    全量数据OLS协整参数计算(Engle-Granger两步法)

    用途: 事后验证分析
    数据窗口: 全量历史数据
    局限: 存在 look-ahead bias
    """
    # Step 1: OLS回归 log(alt) = α + β * log(base) + ε
    log_base_series = np.log(base_prices)
    log_alt_series = np.log(alt_prices)

    X = sm.add_constant(log_base_series)
    model = sm.OLS(log_alt_series, X).fit()

    alpha = model.params.iloc[0]
    beta = model.params.iloc[1]

    # Step 2: 计算价差
    if use_alpha:
        spread = log_alt_series - (alpha + beta * log_base_series)
    else:
        spread = log_alt_series - beta * log_base_series

    # Step 3: ADF检验价差平稳性
    adf_result = adfuller(spread.values, autolag='AIC')
    adf_pvalue = adf_result[1]

    # Step 4: 判定协整
    is_cointegrated = (adf_pvalue < COINTEGRATION_THRESHOLD)

    return {
        'alpha': alpha,
        'beta': beta,
        'spread': spread,
        'adf_pvalue': adf_pvalue,
        'is_cointegrated': is_cointegrated
    }

局限性:

  • 使用未来数据计算历史OLS参数
  • 不适合实时交易决策

适用场景:

  • 回测验证
  • 历史分析

代码引用: src/utils/analysis/analysis_core.py:185-277

New方法 - 双窗口OLS

def calculate_cointegration_params_dual_window(
    base_klines: List[Dict],
    alt_klines: List[Dict],
    beta_window: int = 100,     # OLS回归窗口
    zscore_window: int = 30      # Z-score计算窗口
) -> Optional[Dict]:
    """
    双窗口OLS协整参数计算(实时交易版本)

    用途: 实时交易
    beta_window: 稳定回归参数(100期)
    zscore_window: 敏感均值回归(30期)
    避免 look-ahead bias: 使用前N-1期计算OLS
    """
    # 数据验证
    if len(aligned) < beta_window + zscore_window:
        return None

    # Step 1: 使用前beta_window期计算OLS参数
    ols_data = aligned.iloc[-(beta_window + zscore_window):-zscore_window]

    log_base_ols = np.log(ols_data['base'])
    log_alt_ols = np.log(ols_data['alt'])

    X = sm.add_constant(log_base_ols)
    model = sm.OLS(log_alt_ols, X).fit()

    alpha = model.params.iloc[0]
    beta = model.params.iloc[1]

    # Step 2: 使用最近zscore_window期计算Z-score
    zscore_data = aligned.iloc[-zscore_window:]

    log_base_zscore = np.log(zscore_data['base'])
    log_alt_zscore = np.log(zscore_data['alt'])

    if use_alpha:
        spread = log_alt_zscore - (alpha + beta * log_base_zscore)
    else:
        spread = log_alt_zscore - beta * log_base_zscore

    # Step 3: 计算Z-score(避免样本偏差)
    spread_mean = spread[:-1].mean()
    spread_std = spread[:-1].std()
    current_zscore = (spread.iloc[-1] - spread_mean) / spread_std

    # Step 4: ADF检验价差平稳性
    adf_result = adfuller(spread.values, autolag='AIC')
    adf_pvalue = adf_result[1]

    return {
        'alpha': alpha,
        'beta': beta,
        'zscore': current_zscore,
        'adf_pvalue': adf_pvalue,
        'is_cointegrated': (adf_pvalue < COINTEGRATION_THRESHOLD)
    }

设计优势:

  • 避免look-ahead bias: 不使用未来数据
  • 平衡稳定性与灵敏度:
    • beta_window=100期: 稳定回归参数,减少过拟合
    • zscore_window=30期: 快速响应价差变化

参数选择:

BETA_WINDOW = 100  # 约20天(5m周期)
ZSCORE_WINDOW = 30  # 约6天(5m周期)

代码引用: src/utils/analysis/analysis_core.py:280-407, src/utils/core/config.py:BETA_WINDOW, src/utils/core/config.py:ZSCORE_WINDOW

智能模型选择

def _select_cointegration_model(alpha: float, alpha_pvalue: float) -> Tuple[str, bool, str]:
    """
    根据α的显著性和绝对值大小选择最优模型

    规则:
    - |α| > 5.0 且显著 → 无α模型(跨资产类配对,如NEAR/BTC)
    - |α| < 2.0 且显著 → 标准EG模型(同类资产配对,如UNI/SUSHI)
    - 其他 → 无α模型
    """
    if alpha_pvalue < 0.05 and abs(alpha) > 5.0:
        return "no_intercept_forced", False, f"|α|={abs(alpha):.1f}>5.0, 跨资产类配对"

    elif alpha_pvalue < 0.05 and abs(alpha) < 2.0:
        return "standard_EG", True, f"|α|={abs(alpha):.1f}<2.0, 同类资产配对"

    else:
        return "no_intercept", False, "α不显著或中等范围"

设计原理:

  • 跨资产类配对 (如NEAR/BTC): α显著且大 → 使用无α模型
  • 同类资产配对 (如UNI/SUSHI): α显著且小 → 使用标准EG模型
  • 不确定情况: 默认无α模型(更稳健)

代码引用: src/utils/analysis/analysis_core.py:149-183

5.4 Z-score计算与异常检测

Z-score标准化

# 避免样本偏差: 使用前N-1期计算均值和标准差
spread_mean = spread[:-1].mean()
spread_std = spread[:-1].std()

# 当前Z-score
current_spread = spread.iloc[-1]
current_zscore = (current_spread - spread_mean) / spread_std

避免样本偏差:

  • 不使用当前值计算均值/标准差
  • 避免Z-score被当前异常值拉扯

代码引用: src/utils/analysis/analysis_core.py:410-481

异常检测阈值

ZSCORE_THRESHOLDS = {
    '5m': 1.8,   # 5m周期:敏感度高
    '1h': 1.5,   # 1h周期:中等敏感
    '4h': 0.2,   # 4h周期:低敏感(仅确认趋势)
}

阈值设计原理:

  • 5m周期: 高频交易,需要明确信号(1.8σ)
  • 1h周期: 中期趋势确认(1.5σ)
  • 4h周期: 长期趋势确认(0.2σ,主要看方向)

异常判定:

if abs(zscore) > threshold:
    if zscore > threshold:
        direction = "short"  # 目标币高估,做空配对
    else:
        direction = "long"   # 目标币低估,做多配对

代码引用: src/utils/core/config.py:ZSCORE_THRESHOLDS

5.5 多周期验证机制

验证流程

def analyze_multi_period(
    symbol: str,
    base_symbol: str,
    klines_data: Dict[str, List[Dict]],  # {'5m': [...], '1h': [...], '4h': [...]}
    required_periods: int = 2
) -> Optional[Dict]:
    """
    多周期协整验证

    验证流程:
    1. 遍历3周期 (5m/7d, 1h/30d, 4h/60d)
    2. 每周期执行 Old+New 协整检验 (共6个结果)
    3. 统计协整通过数 (默认需≥2)
    4. 验证Z-score符号一致性
    5. 验证Z-score超阈值
    """
    cointegration_results = {}
    zscore_results = {}

    # Step 1: 遍历3周期
    for tf in ['5m', '1h', '4h']:
        base_klines = klines_data[tf]['base']
        alt_klines = klines_data[tf]['alt']

        # Old方法: 全量OLS
        old_result = calculate_cointegration_params_ols(base_klines, alt_klines)
        cointegration_results[f'{tf}_old'] = old_result

        # New方法: 双窗口OLS
        new_result = calculate_cointegration_params_dual_window(
            base_klines, alt_klines,
            beta_window=BETA_WINDOW,
            zscore_window=ZSCORE_WINDOW
        )
        cointegration_results[f'{tf}_new'] = new_result
        zscore_results[tf] = new_result['zscore'] if new_result else None

    # Step 2: 统计协整通过数
    passed_count = sum(
        1 for res in cointegration_results.values()
        if res and res.get('is_cointegrated')
    )

    if passed_count < required_periods:
        logger.debug(f"协整通过数不足 ({passed_count} < {required_periods})")
        return None

    # Step 3: Z-score符号一致性检查
    valid_zscores = [z for z in zscore_results.values() if z is not None]
    if len(valid_zscores) < 2:
        return None

    signs = [np.sign(z) for z in valid_zscores]
    if len(set(signs)) > 1:
        logger.debug("Z-score符号不一致,跳过告警")
        return None

    # Step 4: Z-score超阈值检查
    anomaly_flags = {}
    for tf, zscore in zscore_results.items():
        if zscore is not None:
            anomaly_flags[tf] = abs(zscore) > ZSCORE_THRESHOLDS[tf]

    if not any(anomaly_flags.values()):
        logger.debug("所有周期Z-score未超阈值")
        return None

    # Step 5: 返回验证结果
    return {
        'cointegration_passed': True,
        'passed_count': passed_count,
        'zscore_5m': zscore_results['5m'],
        'zscore_1h': zscore_results['1h'],
        'zscore_4h': zscore_results['4h'],
        'is_anomaly': any(anomaly_flags.values()),
        'trading_direction': 'long' if valid_zscores[0] < 0 else 'short'
    }

验证逻辑:

  1. 6个协整检验 (3周期 × 2方法)
  2. 协整通过数 ≥ required_periods (默认2)
  3. Z-score符号必须一致
  4. 至少1个周期Z-score超阈值

代码引用: src/utils/analysis/analysis_core.py:737-996, src/services/realtime_kline_service.py:1037-1402

5.6 协整健康监控

双窗口健康评分

def calculate_cointegration_health(
    base_klines: List[Dict],
    alt_klines: List[Dict],
    long_window: int = 200,   # 长期窗口
    short_window: int = 100   # 短期窗口
) -> Dict:
    """
    协整健康监控(双窗口评分机制)

    评分指标:
    - ADF p值: 40% (越小越好)
    - 半衰期: 30% (适中最好)
    - 稳定性: 30% (越稳定越好)

    健康状态:
    - HEALTHY: 评分 ≥ 18
    - WARNING: 评分 ∈ [14, 18)
    - CRITICAL: 评分 < 14
    """
    # 长期窗口评分
    long_data = aligned.iloc[-long_window:]
    long_score = _calculate_health_score(long_data)

    # 短期窗口评分
    short_data = aligned.iloc[-short_window:]
    short_score = _calculate_health_score(short_data)

    # 健康状态判定
    short_state = _get_health_state(short_score)
    long_state = _get_health_state(long_score)

    return {
        'long_window_score': long_score,
        'long_window_state': long_state,
        'short_window_score': short_score,
        'short_window_state': short_state
    }

def _calculate_health_score(data: pd.DataFrame) -> float:
    """
    健康评分计算

    评分公式:
    - ADF p值评分: (1 - min(p_value, 1.0)) * 40
    - 半衰期评分: gaussian(half_life, optimal=20, sigma=10) * 30
    - 稳定性评分: (1 - cv) * 30
    """
    # 1. ADF p值评分 (40%)
    adf_pvalue = adfuller(spread.values)[1]
    adf_score = (1 - min(adf_pvalue, 1.0)) * 40

    # 2. 半衰期评分 (30%)
    half_life = calculate_half_life(spread)
    half_life_score = gaussian_score(half_life, optimal=20, sigma=10) * 30

    # 3. 稳定性评分 (30%)
    coefficient_of_variation = spread.std() / abs(spread.mean())
    stability_score = (1 - min(coefficient_of_variation, 1.0)) * 30

    total_score = adf_score + half_life_score + stability_score
    return total_score

def _get_health_state(score: float) -> str:
    """健康状态判定"""
    if score >= 18:
        return "HEALTHY"
    elif score >= 14:
        return "WARNING"
    else:
        return "CRITICAL"

告警约束:

# 仅当短期窗口健康时才发送告警
if health_result['short_window_state'] != "HEALTHY":
    logger.debug(f"协整健康状态不佳 ({health_result['short_window_state']}),跳过告警")
    return None

设计原理:

  • 避免协整关系恶化时的虚假信号
  • 双窗口监控: 长期趋势 + 短期状态
  • 短期状态优先: 告警约束

代码引用: src/utils/analysis/coingetation_more_check.py


6. 并发架构设计

6.1 线程模型

线程清单

通用版线程配置 (~37个线程, 启用交易后 ~39):

线程名称 数量 职责 启动方式
WebSocket主线程 1 运行 WebSocket.run_forever() threading.Thread
Ping线程 1 每5秒发送ping保活 threading.Thread
健康监控线程 1 每2秒检查连接健康 threading.Thread
batch_writer线程 1 K线批量写入TimescaleDB threading.Thread
analysis_worker线程 30 并发执行分析任务 threading.Thread × 30
result_batch_writer线程 1 分析结果批量写入 threading.Thread
queue_monitor线程 1 队列使用率监控 threading.Thread
new_symbol_monitor线程 1 新币种监控 threading.Thread
trading-stop-loss 0~1 🆕 止损监控(30秒间隔) threading.Thread (daemon)
trading-sync 0~1 🆕 仓位同步(60秒间隔) threading.Thread (daemon)

HYPE版线程配置 (~8个线程, 启用交易后 ~10):

线程名称 数量 差异说明
WebSocket相关 3 主线程 + Ping线程 + 健康监控线程(相同)
batch_writer 1 K线批量写入(相同)
analysis_worker 2 ⚠️ 减少至2个(订阅数少)
result_batch_writer 1 分析结果批量写入(相同)
queue_monitor 1 队列使用率监控(相同)
new_symbol_monitor 0 ❌ 禁用(固定币种列表)
trading-stop-loss 0~1 🆕 止损监控(交易启用时)
trading-sync 0~1 🆕 仓位同步(交易启用时)

线程数对比:

  • 通用版: ~37个线程 (3 WebSocket + 1 批量写入 + 30 分析worker + 1 结果写入 + 1 队列监控 + 1 币种监控),启用交易后 ~39 (+2 交易监控)
  • HYPE版: ~8个线程 (3 WebSocket + 1 批量写入 + 2 分析worker + 1 结果写入 + 1 队列监控),启用交易后 ~10 (+2 交易监控)

差异原因: HYPE版专注单一配对(HYPE/PURR),订阅数少,减少worker数量,取消币种监控

代码引用: src/services/realtime_kline_service.py:224-275, enhanced_ws_manager.py:501-597

线程生命周期管理

# 线程启动
def start_service(self):
    """启动所有服务线程"""
    # 1. WebSocket线程(由EnhancedWebSocketManager管理)
    self.ws_manager.start()

    # 2. 批量写入线程
    self.batch_writer_thread = threading.Thread(
        target=self._batch_writer,
        name="KlineBatchWriter",
        daemon=True
    )
    self.batch_writer_thread.start()

    # 3. 分析工作线程池
    self.analysis_threads = []
    for i in range(ANALYSIS_WORKERS_GENERAL):
        t = threading.Thread(
            target=self._analysis_worker,
            name=f"AnalysisWorker-{i}",
            daemon=True
        )
        t.start()
        self.analysis_threads.append(t)

    # 4. 分析结果写入线程
    self.result_writer_thread = threading.Thread(
        target=self._analysis_result_batch_writer,
        name="ResultBatchWriter",
        daemon=True
    )
    self.result_writer_thread.start()

    # 5. 队列监控线程
    self.queue_monitor_thread = threading.Thread(
        target=self._queue_health_monitor,
        name="QueueMonitor",
        daemon=True
    )
    self.queue_monitor_thread.start()

    # 6. 新币种监控线程
    self.new_symbol_monitor_thread = threading.Thread(
        target=self._new_symbol_monitor,
        name="NewSymbolMonitor",
        daemon=True
    )
    self.new_symbol_monitor_thread.start()

    logger.info("所有服务线程已启动")

# 线程停止
def stop_service(self):
    """停止所有服务线程"""
    logger.info("开始停止服务...")

    # 1. 设置停止标志
    self.stop_event.set()

    # 2. 停止WebSocket连接
    self.ws_manager.stop()

    # 3. 等待工作线程退出(超时保护)
    for t in self.analysis_threads:
        t.join(timeout=WORKER_THREAD_SHUTDOWN_TIMEOUT)

    # 4. 等待批量写入线程退出
    self.batch_writer_thread.join(timeout=WORKER_THREAD_SHUTDOWN_TIMEOUT)
    self.result_writer_thread.join(timeout=WORKER_THREAD_SHUTDOWN_TIMEOUT)

    logger.info("服务已停止")

daemon线程:

  • 所有工作线程设置为daemon=True
  • 主线程退出时自动终止所有daemon线程
  • 超时保护: join(timeout=30s)

代码引用: src/services/realtime_kline_service.py:224-275, src/services/realtime_kline_service.py:1589-1659

6.2 队列设计

队列清单

队列名称 大小 类型 写入者 读取者 批量触发条件
kline_buffer 10000 queue.Queue on_message batch_writer 1000条 OR 5秒
analysis_queue 30000 queue.Queue on_message (5m) 30×analysis_worker 实时消费
analysis_result_buffer 10000 queue.Queue 30×analysis_worker result_batch_writer 100条 OR 2秒

代码引用: src/services/realtime_kline_service.py:208-220

队列配置

# 队列配置(从配置文件读取)
QUEUE_CONFIG_GENERAL = {
    'kline_buffer_size': 10000,
    'analysis_queue_size': 30000,
    'analysis_result_buffer_size': 10000
}

# 队列初始化
self.kline_buffer = queue.Queue(maxsize=QUEUE_CONFIG_GENERAL['kline_buffer_size'])
self.analysis_queue = queue.Queue(maxsize=QUEUE_CONFIG_GENERAL['analysis_queue_size'])
self.analysis_result_buffer = queue.Queue(maxsize=QUEUE_CONFIG_GENERAL['analysis_result_buffer_size'])

队列大小设计原则:

  • kline_buffer: 10000条 ≈ 5分钟缓冲(N个币种 × 3周期)
  • analysis_queue: 30000条 ≈ 应对市场高波动期的分析缓冲
  • analysis_result_buffer: 10000条 ≈ 批量写入缓冲

代码引用: src/utils/core/config.py:QUEUE_CONFIG_GENERAL, src/services/realtime_kline_service.py:208-220

队列配置对比(通用版 vs HYPE版)

队列 通用版 HYPE版 差异原因
kline_buffer 10000 1000 HYPE版订阅数少(2个币种 vs N个币种)
analysis_queue 30000 1000 分析worker少(2个 vs 30个)
analysis_result_buffer 10000 1000 结果产生速度低(2 workers)

配置来源: src/utils/core/config.py

  • 通用版: QUEUE_CONFIG_GENERAL
  • HYPE版: QUEUE_CONFIG_HYPE

设计原则:

  • HYPE版订阅数: 1个币种 × 3周期 = 3个订阅(vs 通用版N×3)
  • 队列大小按比例缩减(约50%),避免资源浪费
  • 保持相同的批量触发条件(1000条/5秒,100条/2秒)

6.3 去重机制

TTLCache去重

from cachetools import TTLCache

# 入队去重字典(线程安全,避免重复入队)
self.recent_enqueue = TTLCache(maxsize=10000, ttl=1800)  # 30分钟TTL
self.recent_enqueue_lock = threading.Lock()

# 分析去重字典(跨线程共享,避免重复分析)
self.recent_analysis = TTLCache(maxsize=10000, ttl=1800)
self.recent_analysis_lock = threading.Lock()

TTLCache特性:

  • 自动过期: 1800秒 (30分钟)
  • 最大容量: 10000条
  • 防止内存泄漏: 自动清理过期记录

代码引用: src/services/realtime_kline_service.py:193-205

入队去重窗口

ENQUEUE_DEDUP_WINDOWS = {
    '5m': 1,     # 5m周期: 1秒去重窗口
    '1h': 180,   # 1h周期: 180秒去重窗口
    '4h': 600,   # 4h周期: 600秒去重窗口
}

def _enqueue_analysis_if_needed(self, symbol: str, timeframe: str, kline_time: datetime):
    """入队去重检查"""
    with self.recent_enqueue_lock:
        key = (symbol, timeframe, kline_time)
        if key in self.recent_enqueue:
            logger.debug(f"入队去重: {key} 在{ENQUEUE_DEDUP_WINDOWS[timeframe]}秒内已入队")
            return False

        # 添加到去重字典
        self.recent_enqueue[key] = time.time()

        # 入队
        try:
            self.analysis_queue.put_nowait({
                'symbol': symbol,
                'timeframe': timeframe,
                'kline_time': kline_time
            })
            return True
        except queue.Full:
            logger.warning("分析队列已满,跳过入队")
            return False

去重窗口设计:

  • 5m周期: 1秒 (极短窗口,允许高频触发)
  • 1h周期: 180秒 (约1/20周期)
  • 4h周期: 600秒 (约1/24周期)

代码引用: src/utils/core/config.py:ENQUEUE_DEDUP_WINDOWS, src/services/realtime_kline_service.py:575-633

分析去重窗口

DEDUP_WINDOWS = {
    '5m': 1,     # 5m周期: 1秒去重窗口
    '1h': 300,   # 1h周期: 300秒去重窗口
    '4h': 900,   # 4h周期: 900秒去重窗口
}

def _analyze_and_alert(self, task: Dict):
    """分析去重检查"""
    symbol = task['symbol']
    timeframe = task['timeframe']
    kline_time = task['kline_time']

    with self.recent_analysis_lock:
        key = (symbol, timeframe, kline_time)
        if key in self.recent_analysis:
            logger.debug(f"分析去重: {key} 在{DEDUP_WINDOWS[timeframe]}秒内已分析")
            return None

        # 添加到去重字典
        self.recent_analysis[key] = time.time()

    # 执行分析
    result = analyze_multi_period(...)
    return result

去重窗口设计:

  • 5m周期: 1秒 (极短窗口,允许高频触发)
  • 1h周期: 300秒 (约1/12周期)
  • 4h周期: 900秒 (约1/16周期)

跨线程共享:

  • 所有analysis_worker共享同一recent_analysis字典
  • 使用recent_analysis_lock保证线程安全

代码引用: src/utils/core/config.py:DEDUP_WINDOWS, src/services/realtime_kline_service.py:1037-1402

6.4 同步与锁策略

RLock (递归锁)

# symbols列表保护
self.symbols_lock = threading.RLock()

with self.symbols_lock:
    self.symbols.append(new_symbol)

# subscriptions列表保护
self.subscriptions_lock = threading.RLock()

with self.subscriptions_lock:
    self.subscriptions.extend(new_subscriptions)

# WebSocket状态保护
self.state_lock = threading.RLock()

with self.state_lock:
    self.state = ConnectionState.CONNECTED

# 数据缓存保护
self.latest_data_lock = threading.RLock()

with self.latest_data_lock:
    self.latest_data["candles"][(symbol, timeframe)] = kline_dict

RLock特性:

  • 递归锁: 同一线程可多次获取
  • 适用场景: 嵌套调用、复杂操作

代码引用: enhanced_ws_manager.py:194-343, src/services/realtime_kline_service.py:183-189

threading.Lock

# 入队去重保护
self.recent_enqueue_lock = threading.Lock()

with self.recent_enqueue_lock:
    self.recent_enqueue[key] = time.time()

# 分析去重保护
self.recent_analysis_lock = threading.Lock()

with self.recent_analysis_lock:
    self.recent_analysis[key] = time.time()

# 黑名单保护
self.blacklist_lock = threading.Lock()

with self.blacklist_lock:
    self.new_symbol_blacklist.add(symbol)

Lock特性:

  • 简单锁: 不可递归
  • 适用场景: 简单临界区保护

代码引用: src/services/realtime_kline_service.py:193-205

threading.Event

# 全局停止信号
self.stop_event = threading.Event()

# 检查停止信号
if self.stop_event.is_set():
    break

# 停止服务
self.stop_event.set()

# WebSocket就绪标志
self.ws_ready_event = threading.Event()

# 等待连接就绪
self.ws_ready_event.wait(timeout=30)

# 设置就绪标志
self.ws_ready_event.set()

# Ping线程停止信号
self.stop_ping = threading.Event()

# 停止Ping线程
self.stop_ping.set()

Event特性:

  • 信号机制: wait/set
  • 适用场景: 线程间通信、同步

代码引用: src/services/realtime_kline_service.py:207, enhanced_ws_manager.py:501-597

6.5 批量写入优化

COPY批量写入

def batch_upsert_copy(self, klines: List[Dict]) -> int:
    """
    使用COPY命令批量写入K线数据(高性能版本)

    性能: >40000条/秒 (比executemany快100倍)

    流程:
    1. 创建临时表 (ON COMMIT DROP)
    2. COPY数据到临时表 (CSV格式)
    3. INSERT ... ON CONFLICT ... DO UPDATE
    4. 自动清理临时表
    """
    with self.db_client.get_connection() as conn:
        with conn.cursor() as cur:
            # Step 1: 创建临时表
            cur.execute("""
                CREATE TEMP TABLE temp_klines (
                    time TIMESTAMPTZ,
                    symbol VARCHAR(50),
                    timeframe VARCHAR(10),
                    open DOUBLE PRECISION,
                    high DOUBLE PRECISION,
                    low DOUBLE PRECISION,
                    close DOUBLE PRECISION,
                    volume DOUBLE PRECISION,
                    volume_usd DOUBLE PRECISION,
                    return_pct DOUBLE PRECISION
                ) ON COMMIT DROP;
            """)

            # Step 2: COPY数据到临时表
            csv_buffer = StringIO()
            for kline in klines:
                csv_buffer.write(
                    f"{kline['time']}\t{kline['symbol']}\t{kline['timeframe']}\t"
                    f"{kline['open']}\t{kline['high']}\t{kline['low']}\t"
                    f"{kline['close']}\t{kline['volume']}\t{kline['volume_usd']}\t"
                    f"{kline['return_pct']}\n"
                )
            csv_buffer.seek(0)

            with cur.copy("COPY temp_klines FROM STDIN") as copy:
                copy.write(csv_buffer.read())

            # Step 3: INSERT ... ON CONFLICT ... DO UPDATE
            cur.execute("""
                INSERT INTO klines (time, symbol, timeframe, open, high, low, close, volume, volume_usd, return_pct)
                SELECT * FROM temp_klines
                ON CONFLICT (time, symbol, timeframe)
                DO UPDATE SET
                    open = EXCLUDED.open,
                    high = EXCLUDED.high,
                    low = EXCLUDED.low,
                    close = EXCLUDED.close,
                    volume = EXCLUDED.volume,
                    volume_usd = EXCLUDED.volume_usd,
                    return_pct = EXCLUDED.return_pct
            """)

            conn.commit()
            return len(klines)

性能对比:

方法 性能 适用场景
executemany ~1000条/秒 小批量
COPY >40000条/秒 大批量

优化技巧:

  • StringIO缓冲区: 避免磁盘I/O
  • 临时表: ON COMMIT DROP自动清理
  • 批量排序: 减少锁竞争

代码引用: src/utils/database/timescaledb.py:342-450

死锁防护

def _batch_writer(self):
    """K线批量写入线程(死锁防护)"""
    batch = []
    last_flush_time = time.time()

    while not self.stop_event.is_set():
        try:
            # 批量获取队列数据
            while len(batch) < DEFAULT_BATCH_SIZE:
                kline = self.kline_buffer.get_nowait()
                batch.append(kline)
        except queue.Empty:
            pass

        # 批量触发条件
        if len(batch) >= DEFAULT_BATCH_SIZE or \
           (batch and time.time() - last_flush_time >= DEFAULT_BATCH_TIMEOUT):

            # 去重
            dedup_batch = self._deduplicate_batch(batch)

            # 关键: 批量排序,保证锁获取顺序一致
            dedup_batch = sorted(
                dedup_batch,
                key=lambda x: (x['time'], x['symbol'], x['timeframe'])
            )

            # 批量写入(死锁重试)
            success = self._batch_write_with_retry(dedup_batch, max_retries=5)

            if success:
                batch.clear()
                last_flush_time = time.time()

        time.sleep(0.1)

def _batch_write_with_retry(self, batch: List[Dict], max_retries: int = 5) -> bool:
    """批量写入(死锁重试)"""
    for attempt in range(max_retries):
        try:
            self.kline_repo.batch_upsert_copy(batch)
            return True
        except psycopg.errors.DeadlockDetected as e:
            if attempt < max_retries - 1:
                wait_time = 0.1 * (2 ** attempt) * (1 + random.random() * 0.5)
                logger.warning(f"死锁检测,第{attempt+1}次重试,等待{wait_time:.2f}秒")
                time.sleep(wait_time)
                continue
            else:
                logger.error(f"死锁重试{max_retries}次后仍然失败")
                return False
        except Exception as e:
            logger.error(f"批量写入失败: {e}")
            return False

死锁防护策略:

  1. 批量排序: 保证锁获取顺序一致
  2. 指数退避重试: 最大5次,递增等待时间
  3. 随机抖动: 避免重试冲突

代码引用: src/services/realtime_kline_service.py:635-760, src/services/realtime_kline_service.py:294-373


7. 性能优化设计

7.1 批量写入对比

性能测试结果

方法 性能 1000条耗时 10000条耗时 适用场景
executemany (单条INSERT) ~1000条/秒 ~1.0s ~10s 小批量 (<100条)
executemany (批量INSERT) ~5000条/秒 ~0.2s ~2s 中批量 (100-1000条)
COPY (临时表) >40000条/秒 ~0.025s ~0.25s 大批量 (>1000条)

性能提升: COPY方法比executemany快40-100倍

代码引用: src/utils/database/timescaledb.py:342-450

COPY优化技巧

# 1. StringIO缓冲区(避免磁盘I/O)
csv_buffer = StringIO()
for kline in klines:
    csv_buffer.write(f"{kline['time']}\t{kline['symbol']}\t...\n")
csv_buffer.seek(0)

# 2. 临时表(ON COMMIT DROP自动清理)
CREATE TEMP TABLE temp_klines (...) ON COMMIT DROP;

# 3. 批量排序(减少锁竞争)
dedup_batch = sorted(
    dedup_batch,
    key=lambda x: (x['time'], x['symbol'], x['timeframe'])
)

代码引用: src/utils/database/timescaledb.py:342-450, src/services/realtime_kline_service.py:635-760

7.2 缓存策略

TTLCache自动清理

from cachetools import TTLCache

# 去重缓存(自动过期)
self.recent_enqueue = TTLCache(maxsize=10000, ttl=1800)  # 30分钟TTL
self.recent_analysis = TTLCache(maxsize=10000, ttl=1800)

# WebSocket数据缓存
self.latest_data = {
    "candles": {},   # {(symbol, timeframe): kline_dict}
    "l2Book": {},    # {symbol: orderbook_dict}
    "trades": {},    # {symbol: [trade_list]}
}

TTLCache优势:

  • 自动过期: 1800秒 (30分钟)
  • 最大容量: 10000条
  • 防止内存泄漏: 自动清理过期记录

代码引用: src/services/realtime_kline_service.py:193-205, enhanced_ws_manager.py:194-343

定时清理任务

def _cleanup_recent_tasks(self):
    """定时清理去重字典(防御性编程)"""
    while not self.stop_event.is_set():
        time.sleep(CLEANUP_INTERVAL)  # 300秒

        with self.recent_enqueue_lock:
            if len(self.recent_enqueue) > MAX_RECENT_TASKS:
                logger.warning(f"入队去重字典超过阈值 ({len(self.recent_enqueue)} > {MAX_RECENT_TASKS}),触发清理")
                # TTLCache会自动清理,这里只是监控

        with self.recent_analysis_lock:
            if len(self.recent_analysis) > MAX_RECENT_TASKS:
                logger.warning(f"分析去重字典超过阈值 ({len(self.recent_analysis)} > {MAX_RECENT_TASKS}),触发清理")

清理策略:

  • 定时检查: 每300秒
  • 硬性上限: MAX_RECENT_TASKS=5000
  • 监控告警: 超过阈值触发清理

代码引用: src/utils/core/config.py:CLEANUP_INTERVAL, src/utils/core/config.py:MAX_RECENT_TASKS

7.3 数据库查询优化

索引优化

-- 覆盖最常用查询路径
CREATE INDEX idx_klines_symbol_timeframe_time
ON klines (symbol, timeframe, time DESC);

-- 查询示例(走索引)
SELECT * FROM klines
WHERE symbol = 'BTC/USDC:USDC'
  AND timeframe = '1h'
  AND time >= NOW() - INTERVAL '30 days'
ORDER BY time DESC
LIMIT 10000;

索引命中率: >95%

代码引用: init_timescaledb.sql:123-128

查询限制

DB_QUERY_LIMIT = 10000  # 单次查询最大返回条数

def get_klines_by_timeframe(
    self,
    symbol: str,
    timeframe: str,
    start_time: datetime,
    end_time: datetime
) -> List[Dict]:
    """查询K线数据(限制返回条数)"""
    query = """
        SELECT * FROM klines
        WHERE symbol = %s
          AND timeframe = %s
          AND time >= %s
          AND time <= %s
        ORDER BY time DESC
        LIMIT %s
    """
    params = (symbol, timeframe, start_time, end_time, DB_QUERY_LIMIT)

    with self.db_client.get_connection() as conn:
        with conn.cursor() as cur:
            cur.execute(query, params)
            rows = cur.fetchall()
            return [dict(row) for row in rows]

查询保护:

  • 单次查询最大10000条
  • 防止OOM
  • 超过限制返回截断数据

代码引用: src/utils/core/config.py:DB_QUERY_LIMIT, src/utils/database/timescaledb.py:487-589

7.4 内存管理

内存占用监控

import psutil

def _monitor_memory_usage(self):
    """内存占用监控"""
    process = psutil.Process()
    memory_info = process.memory_info()

    logger.info(
        f"内存占用: RSS={memory_info.rss / 1024 / 1024:.2f}MB, "
        f"VMS={memory_info.vms / 1024 / 1024:.2f}MB"
    )

    # 告警阈值: 512MB
    if memory_info.rss > 512 * 1024 * 1024:
        logger.warning("内存占用超过512MB,建议检查内存泄漏")

内存优化:

  • TTLCache自动清理
  • 队列大小限制
  • 定时清理任务

代码引用: src/services/realtime_kline_service.py:1713-1785

7.5 性能指标与监控

目标指标

指标 目标值 实际值 监控方式
分析延迟 <5秒 ~3秒 analysis_delay_seconds
告警延迟 <10秒 ~8秒 飞书响应时间
内存占用 <512MB ~300MB psutil.Process().memory_info()
CPU占用 <50% ~30% psutil.cpu_percent()
批量写入性能 >10K条/秒 >40K条/秒 COPY命令性能测试

代码引用: src/services/realtime_kline_service.py:27-31

实时统计

self.stats = {
    'messages_received': 0,         # WebSocket消息总数
    'klines_written': 0,            # K线写入总数
    'analyses_completed': 0,        # 分析完成总数
    'analyses_failed': 0,           # 分析失败总数
    'alerts_sent': 0,               # 建仓告警发送总数
    'reversion_alerts_sent': 0,     # 平仓告警发送总数
    # 建仓双重确认统计
    'double_check_first_signals': 0,    # 首次信号
    'double_check_confirmed': 0,        # 确认通过
    'double_check_refreshed': 0,        # 信号刷新
    'double_check_expired': 0,          # 超时重置
    # 平仓双重确认统计
    'reversion_dc_first_signals': 0,    # 首次检测
    'reversion_dc_confirmed': 0,        # 确认通过
    'reversion_dc_expired': 0,          # 超时重置
    'reversion_dc_reset': 0,            # 回归消失重置
    'uptime_seconds': 0,            # 服务运行时长
    'queue_kline_size': 0,          # K线队列大小
    'queue_analysis_size': 0,       # 分析队列大小
    'queue_result_size': 0          # 结果队列大小
}

def get_stats(self) -> Dict:
    """获取实时统计信息"""
    self.stats['uptime_seconds'] = time.time() - self.start_time
    self.stats['queue_kline_size'] = self.kline_buffer.qsize()
    self.stats['queue_analysis_size'] = self.analysis_queue.qsize()
    self.stats['queue_result_size'] = self.analysis_result_buffer.qsize()
    return self.stats

代码引用: src/services/realtime_kline_service_base.py:259-280

队列使用率监控

def _queue_health_monitor(self):
    """队列使用率监控(每60秒)"""
    while not self.stop_event.is_set():
        time.sleep(QUEUE_MONITOR_INTERVAL)  # 60秒

        kline_usage = self.kline_buffer.qsize() / QUEUE_CONFIG_GENERAL['kline_buffer_size']
        analysis_usage = self.analysis_queue.qsize() / QUEUE_CONFIG_GENERAL['analysis_queue_size']
        result_usage = self.analysis_result_buffer.qsize() / QUEUE_CONFIG_GENERAL['analysis_result_buffer_size']

        logger.info(
            f"队列使用率 | K线: {kline_usage*100:.1f}% | "
            f"分析: {analysis_usage*100:.1f}% | "
            f"结果: {result_usage*100:.1f}%"
        )

        # 告警阈值: 80%
        if kline_usage > QUEUE_WARNING_THRESHOLD:
            logger.warning(f"K线队列使用率超过{QUEUE_WARNING_THRESHOLD*100}%,建议增加批量写入频率")
        if analysis_usage > QUEUE_WARNING_THRESHOLD:
            logger.warning(f"分析队列使用率超过{QUEUE_WARNING_THRESHOLD*100}%,建议增加工作线程数")
        if result_usage > QUEUE_WARNING_THRESHOLD:
            logger.warning(f"结果队列使用率超过{QUEUE_WARNING_THRESHOLD*100}%,建议检查数据库性能")

监控指标:

  • 队列使用率: 每60秒输出
  • 告警阈值: 80%
  • 优化建议: 自动生成

代码引用: src/services/realtime_kline_service.py:1452-1539, src/utils/core/config.py:QUEUE_MONITOR_INTERVAL, src/utils/core/config.py:QUEUE_WARNING_THRESHOLD


8. 可靠性设计

8.1 错误处理机制

WebSocket错误处理

def on_error(self, ws, error):
    """WebSocket错误回调"""
    logger.error(f"WebSocket错误: {error}")
    # 记录错误日志,由on_close触发重连

def on_close(self, ws, close_status_code, close_msg):
    """WebSocket关闭回调"""
    logger.warning(f"WebSocket连接关闭 | 状态码: {close_status_code} | 消息: {close_msg}")

    # 清除就绪标志
    self.ws_ready_event.clear()

    # 更新状态
    with self.state_lock:
        if self.state != ConnectionState.FAILED:
            self.state = ConnectionState.DISCONNECTED

    # 非正常关闭触发重连
    if close_status_code not in [1000, 1001]:  # 1000=正常关闭, 1001=Going Away
        logger.info("检测到非正常关闭,触发重连")
        self._reconnect_with_backoff()

错误分类:

  • 网络错误: 自动重连
  • 协议错误: 记录日志
  • 业务错误: 跳过处理

代码引用: enhanced_ws_manager.py:830-891

数据库错误处理

@contextmanager
def get_connection(self) -> Connection:
    """
    获取数据库连接(连接污染检测)

    异常处理:
    - 正常退出: 自动提交事务
    - 异常退出: 自动回滚事务
    - 连接污染: 测试连接可用性,移除污染连接
    """
    conn = None
    connection_valid = True

    try:
        conn = self._pool.getconn()
        yield conn
        conn.commit()
    except Exception as e:
        if conn:
            try:
                conn.rollback()
                # 测试连接是否仍然可用
                with conn.cursor() as test_cur:
                    test_cur.execute("SELECT 1")
            except Exception as test_e:
                # 连接已污染
                logger.error(f"连接已污染,将其移除: {test_e}")
                connection_valid = False
        logger.error(f"数据库连接错误: {e}")
        raise
    finally:
        if conn:
            if connection_valid:
                self._pool.putconn(conn)  # 健康连接复用
            else:
                self._pool.putconn(conn, close=True)  # 污染连接移除

连接污染检测:

  1. 异常后执行 SELECT 1 测试
  2. 测试失败 → 标记为污染连接
  3. 污染连接关闭并移除
  4. 健康连接返回连接池复用

代码引用: src/utils/database/timescaledb.py:152-217

分析错误处理

def _analysis_worker(self):
    """分析工作线程(错误隔离)"""
    while not self.stop_event.is_set():
        try:
            # 获取分析任务
            task = self.analysis_queue.get(timeout=QUEUE_GET_TIMEOUT)

            # 执行分析
            result = self._analyze_and_alert(task)

            if result:
                # 入队分析结果
                self.analysis_result_buffer.put_nowait(result)
                self.stats['analyses_completed'] += 1
            else:
                self.stats['analyses_failed'] += 1

        except queue.Empty:
            continue
        except Exception as e:
            logger.error(f"分析工作线程异常: {e}", exc_info=True)
            self.stats['analyses_failed'] += 1
            # 单个分析失败不影响其他任务
            continue

错误隔离:

  • try-except包裹: 单个分析失败不影响其他
  • 统计失败次数: analyses_failed
  • 日志记录: 完整堆栈信息

代码引用: src/services/realtime_kline_service.py:908-1035

8.2 重试策略

WebSocket重连

def _reconnect_with_backoff(self):
    """指数退避重连"""
    while not self.stop_event.is_set():
        # 获取延迟时间
        delay = self.reconnection_manager.get_delay()

        logger.info(
            f"第{self.reconnection_manager.current_attempt+1}次重连尝试,"
            f"等待{delay:.2f}秒"
        )

        # 等待延迟
        time.sleep(delay)

        # 尝试重连
        success = self._connect()

        if success:
            logger.info("重连成功")
            self.reconnection_manager.reset()
            break
        else:
            self.reconnection_manager.increment_attempt()

            # 检查最大重试次数
            if self.reconnection_manager.should_give_up():
                logger.error(f"重连失败{self.reconnection_manager.max_retries}次,放弃重连")
                with self.state_lock:
                    self.state = ConnectionState.FAILED
                break

            # 告警机制: 第5次失败发送告警
            if self.reconnection_manager.current_attempt == WS_ALERT_THRESHOLD:
                self._send_alert_on_failure()

重连策略:

  • 指数退避: 1s → 2s → 4s → 8s → 10s (封顶)
  • 随机抖动: ±25%
  • 最大重试: 无限次 (WS_MAX_RETRIES=None)
  • 告警机制: 可配置 (WS_ALERT_THRESHOLD)

代码引用: enhanced_ws_manager.py:1009-1076

数据库死锁重试

def _batch_write_with_retry(self, batch: List[Dict], max_retries: int = 5) -> bool:
    """批量写入(死锁重试)"""
    for attempt in range(max_retries):
        try:
            self.kline_repo.batch_upsert_copy(batch)
            return True
        except psycopg.errors.DeadlockDetected as e:
            if attempt < max_retries - 1:
                # 指数退避 + 随机抖动
                wait_time = 0.1 * (2 ** attempt) * (1 + random.random() * 0.5)
                logger.warning(f"死锁检测,第{attempt+1}次重试,等待{wait_time:.2f}秒")
                time.sleep(wait_time)
                continue
            else:
                logger.error(f"死锁重试{max_retries}次后仍然失败")
                return False
        except Exception as e:
            logger.error(f"批量写入失败: {e}")
            return False

死锁重试策略:

  • 最大重试: 5次
  • 指数退避: 0.1s → 0.2s → 0.4s → 0.8s → 1.6s
  • 随机抖动: ±50%

代码引用: src/services/realtime_kline_service.py:294-373

飞书告警重试

def sender_colourful(webhook_url: str, msg: Dict, max_retries: int = 3) -> bool:
    """发送飞书告警(重试机制)"""
    for attempt in range(max_retries):
        try:
            response = requests.post(
                webhook_url,
                json=msg,
                timeout=10,  # 10秒超时
                headers={"Content-Type": "application/json"}
            )

            if response.status_code == 200:
                logger.info("飞书告警发送成功")
                return True
            else:
                logger.warning(f"飞书告警发送失败: {response.status_code} {response.text}")

        except requests.RequestException as e:
            logger.error(f"飞书告警发送异常 (尝试{attempt+1}/{max_retries}): {e}")

        # 指数退避
        if attempt < max_retries - 1:
            wait_time = 2 ** attempt
            time.sleep(wait_time)

    logger.error(f"飞书告警发送失败,已重试{max_retries}次")
    return False

告警重试策略:

  • 最大重试: 3次
  • 请求超时: 10秒
  • 指数退避: 1s → 2s → 4s

代码引用: src/utils/monitoring/lark_bot.py

8.3 死锁防护

批量排序策略

def _batch_writer(self):
    """K线批量写入线程(死锁防护)"""
    batch = []

    while not self.stop_event.is_set():
        # ... 批量获取数据 ...

        # 去重
        dedup_batch = self._deduplicate_batch(batch)

        # 关键: 批量排序,保证锁获取顺序一致
        dedup_batch = sorted(
            dedup_batch,
            key=lambda x: (x['time'], x['symbol'], x['timeframe'])
        )

        # 批量写入(死锁重试)
        success = self._batch_write_with_retry(dedup_batch, max_retries=5)

        if success:
            batch.clear()
            last_flush_time = time.time()

死锁原因:

  • 多个事务以不同顺序获取锁
  • 例如: 事务A锁定行1→行2,事务B锁定行2→行1

防护策略:

  • 批量排序: 保证所有事务以相同顺序获取锁
  • 排序键: (time, symbol, timeframe)

代码引用: src/services/realtime_kline_service.py:635-760

8.4 降级策略

新币数据不足处理

def _check_and_blacklist_new_symbol(self, symbol: str):
    """检查新币数据是否充足,不足则加入黑名单"""
    # 检查4H数据点
    klines_4h = self.kline_repo.get_klines_by_timeframe(
        symbol=symbol,
        timeframe='4h',
        start_time=datetime.now(timezone.utc) - timedelta(days=60),
        end_time=datetime.now(timezone.utc)
    )

    if len(klines_4h) < MIN_4H_DATA_POINTS:  # 358个点
        logger.warning(
            f"新币种 {symbol} 4H数据点不足 ({len(klines_4h)} < {MIN_4H_DATA_POINTS}),"
            f"加入黑名单并取消订阅"
        )

        # 加入黑名单
        with self.blacklist_lock:
            self.new_symbol_blacklist.add(symbol)

        # 取消该币种所有订阅
        self._unsubscribe_symbol(symbol)

        return True
    else:
        logger.info(f"新币种 {symbol} 数据充足,可以正常分析")
        return False

降级策略:

  • 检查4H数据点 < 358 → 加入黑名单
  • 取消该币种所有订阅 (5m/1h/4h)
  • 避免重复分析数据不足的新币

代码引用: src/services/realtime_kline_service.py:1179-1211

协整健康恶化处理

def _analyze_and_alert(self, task: Dict):
    """分析并告警(协整健康约束)"""
    # ... 多周期协整验证 ...

    # 检查协整健康状态
    health_result = calculate_cointegration_health(
        base_klines_5m,
        alt_klines_5m,
        long_window=200,
        short_window=100
    )

    # 短期窗口状态非HEALTHY → 不发送告警
    if health_result['short_window_state'] != "HEALTHY":
        logger.debug(
            f"协整健康状态不佳 ({health_result['short_window_state']}),跳过告警"
        )
        return None

    # ... 发送告警 ...

降级策略:

  • 短期窗口状态非HEALTHY → 不发送告警
  • 避免协整关系恶化时的虚假信号

代码引用: src/services/realtime_kline_service.py:1037-1402

队列满丢弃

def _enqueue_analysis_if_needed(self, symbol: str, timeframe: str, kline_time: datetime):
    """入队分析任务(队列满丢弃)"""
    with self.recent_enqueue_lock:
        # ... 去重检查 ...

        # 入队
        try:
            self.analysis_queue.put_nowait(task)
            return True
        except queue.Full:
            logger.warning(f"分析队列已满,跳过任务: {symbol} {timeframe}")
            self.stats['analyses_dropped'] += 1
            return False

降级策略:

  • analysis_queue满 → 跳过分析,记录丢弃数
  • analysis_result_buffer满 → 跳过保存,记录丢弃数

代码引用: src/services/realtime_kline_service.py:575-633

8.5 健康监控

WebSocket健康监控

def _health_check_loop(self):
    """健康检查循环(每2秒)"""
    while not self.stop_event.is_set():
        time.sleep(WS_HEALTH_CHECK_INTERVAL)  # 2秒

        # 底层连接检测
        is_connected_base = self._is_connected_base()

        # 应用层心跳检测
        is_alive, idle_time = self.health_monitor.is_alive()

        # 双重检测: 底层连接正常 + 应用层存活
        if is_connected_base and not is_alive:
            logger.error(
                f"假活检测: 底层连接正常,但{idle_time:.1f}秒未收到数据,触发重连"
            )
            self._force_cleanup_and_reconnect()

        # 定期健康报告(每60秒)
        if int(time.time()) % WS_HEALTH_REPORT_INTERVAL == 0:
            health_pct = self.health_monitor.get_health_percentage()
            logger.info(
                f"WebSocket健康报告 | 连接: {is_connected_base} | "
                f"健康度: {health_pct:.1f}% | "
                f"消息数: {self.health_monitor.message_count}"
            )

健康指标:

  • 底层连接: ws.keep_running, ws_ready_event, ws_thread.is_alive()
  • 应用层心跳: 最后消息时间,15秒超时
  • 健康度百分比: 0-100%

代码引用: enhanced_ws_manager.py:893-975

队列健康监控

def _queue_health_monitor(self):
    """队列使用率监控(每60秒)"""
    while not self.stop_event.is_set():
        time.sleep(QUEUE_MONITOR_INTERVAL)

        kline_usage = self.kline_buffer.qsize() / QUEUE_CONFIG_GENERAL['kline_buffer_size']
        analysis_usage = self.analysis_queue.qsize() / QUEUE_CONFIG_GENERAL['analysis_queue_size']
        result_usage = self.analysis_result_buffer.qsize() / QUEUE_CONFIG_GENERAL['analysis_result_buffer_size']

        logger.info(
            f"队列使用率 | K线: {kline_usage*100:.1f}% | "
            f"分析: {analysis_usage*100:.1f}% | "
            f"结果: {result_usage*100:.1f}%"
        )

        # 告警阈值: 80%
        if kline_usage > QUEUE_WARNING_THRESHOLD:
            logger.warning("K线队列使用率超过80%,建议增加批量写入频率")
        if analysis_usage > QUEUE_WARNING_THRESHOLD:
            logger.warning("分析队列使用率超过80%,建议增加工作线程数")
        if result_usage > QUEUE_WARNING_THRESHOLD:
            logger.warning("结果队列使用率超过80%,建议检查数据库性能")

监控指标:

  • 队列使用率: 每60秒输出
  • 告警阈值: 80%
  • 优化建议: 自动生成

代码引用: src/services/realtime_kline_service.py:1452-1539

数据库健康监控

def health_check(self) -> bool:
    """数据库健康检查"""
    try:
        with self.get_connection() as conn:
            with conn.cursor() as cur:
                cur.execute("SELECT 1")
                result = cur.fetchone()
                return result[0] == 1
    except Exception as e:
        logger.error(f"数据库健康检查失败: {e}")
        return False

def get_pool_stats(self) -> Dict:
    """连接池统计信息"""
    return {
        'pool_size': self._pool.size,
        'pool_available': self._pool.available,
        'pool_usage': (self._pool.size - self._pool.available) / self._pool.size * 100
    }

健康指标:

  • 连接测试: SELECT 1
  • 连接池使用率: (size - available) / size

代码引用: src/utils/database/timescaledb.py:218-273


9. 监控与告警

9.1 实时监控指标

核心指标

指标类别 指标名称 计算方式 告警阈值
吞吐量 messages_received WebSocket消息计数 -
吞吐量 klines_written K线写入计数 -
吞吐量 analyses_completed 分析完成计数 -
质量 analyses_failed 分析失败计数 >10/分钟
质量 analyses_dropped 分析丢弃计数 >5/分钟
延迟 analysis_delay_seconds kline_time → analysis_time >10秒
资源 queue_kline_usage kline_buffer使用率 >80%
资源 queue_analysis_usage analysis_queue使用率 >80%
资源 queue_result_usage result_buffer使用率 >80%
资源 memory_usage_mb 进程内存占用 >512MB
资源 cpu_usage_percent CPU使用率 >70%
连接 ws_health_percentage WebSocket健康度 <50%
连接 db_pool_usage 数据库连接池使用率 >90%
告警 reversion_dc_first_signals 平仓双重确认首次检测 -
告警 reversion_dc_confirmed 平仓双重确认通过 -
告警 reversion_dc_expired 平仓双重确认超时重置 -
告警 reversion_dc_reset 平仓双重确认回归消失重置 -

代码引用: src/services/realtime_kline_service.py:1661-1711

统计信息收集

self.stats = {
    'messages_received': 0,
    'klines_written': 0,
    'analyses_completed': 0,
    'analyses_failed': 0,
    'analyses_dropped': 0,
    'alerts_sent': 0,
    'reversion_alerts_sent': 0,              # 平仓告警发送
    'double_check_first_signals': 0,         # 建仓双重确认首次信号
    'double_check_confirmed': 0,             # 建仓双重确认通过
    'double_check_refreshed': 0,             # 建仓双重确认刷新
    'double_check_expired': 0,               # 建仓双重确认超时
    'reversion_dc_first_signals': 0,         # 平仓双重确认首次检测
    'reversion_dc_confirmed': 0,             # 平仓双重确认通过
    'reversion_dc_expired': 0,               # 平仓双重确认超时重置
    'reversion_dc_reset': 0,                 # 平仓双重确认回归消失重置
    'uptime_seconds': 0,
    'queue_kline_size': 0,
    'queue_analysis_size': 0,
    'queue_result_size': 0
}

def get_stats(self) -> Dict:
    """获取实时统计信息"""
    self.stats['uptime_seconds'] = time.time() - self.start_time
    self.stats['queue_kline_size'] = self.kline_buffer.qsize()
    self.stats['queue_analysis_size'] = self.analysis_queue.qsize()
    self.stats['queue_result_size'] = self.analysis_result_buffer.qsize()
    return self.stats

def print_stats_report(self):
    """打印统计报告"""
    stats = self.get_stats()
    logger.info(
        f"统计报告 | "
        f"运行时长: {stats['uptime_seconds']/3600:.2f}小时 | "
        f"消息总数: {stats['messages_received']} | "
        f"K线写入: {stats['klines_written']} | "
        f"分析完成: {stats['analyses_completed']} | "
        f"分析失败: {stats['analyses_failed']} | "
        f"告警发送: {stats['alerts_sent']} | "
        f"平仓告警: {stats['reversion_alerts_sent']}"
    )

代码引用: src/services/realtime_kline_service_base.py:259-280

9.2 飞书告警格式化

告警消息结构

def format_anomaly_alert(
    symbol: str,
    base_symbol: str,
    analysis_result: Dict,
    timeframe: str = '5m'
) -> Dict:
    """
    格式化异常告警消息(飞书富文本)

    消息结构:
    - 标题: 🚨 配对交易信号
    - 币种信息: 目标币种 vs 基准币种
    - 信号强度: 🔥HIGH / ⚡MEDIUM / 💡LOW
    - 交易方向: 🔻做空 / 🔺做多
    - 多周期数据: 5m/1h/4h相关系数和Z-score
    - 协整信息: 通过数/总数, ADF p值
    - 时间链路: K线时间, 分析时间, 延迟
    """
    # 计算信号强度
    signal_strength = _calculate_signal_strength(analysis_result)

    # 构建飞书消息
    message = {
        "msg_type": "interactive",
        "card": {
            "header": {
                "title": {
                    "content": "🚨 配对交易信号",
                    "tag": "plain_text"
                },
                "template": "red"  # 红色主题
            },
            "elements": [
                {
                    "tag": "div",
                    "fields": [
                        {
                            "is_short": True,
                            "text": {
                                "tag": "lark_md",
                                "content": f"**目标币种**\n{symbol}"
                            }
                        },
                        {
                            "is_short": True,
                            "text": {
                                "tag": "lark_md",
                                "content": f"**基准币种**\n{base_symbol}"
                            }
                        }
                    ]
                },
                {
                    "tag": "div",
                    "fields": [
                        {
                            "is_short": True,
                            "text": {
                                "tag": "lark_md",
                                "content": f"**信号强度**\n{signal_strength}"
                            }
                        },
                        {
                            "is_short": True,
                            "text": {
                                "tag": "lark_md",
                                "content": f"**交易方向**\n{trading_direction}"
                            }
                        }
                    ]
                },
                {
                    "tag": "hr"
                },
                {
                    "tag": "div",
                    "text": {
                        "tag": "lark_md",
                        "content": (
                            f"**多周期数据**\n"
                            f"5m: 相关系数={corr_5m:.4f}, Z-score={zscore_5m:.2f}\n"
                            f"1h: 相关系数={corr_1h:.4f}, Z-score={zscore_1h:.2f}\n"
                            f"4h: 相关系数={corr_4h:.4f}, Z-score={zscore_4h:.2f}"
                        )
                    }
                },
                {
                    "tag": "div",
                    "text": {
                        "tag": "lark_md",
                        "content": (
                            f"**协整信息**\n"
                            f"通过数: {passed_count}/6\n"
                            f"ADF p值: {adf_pvalue:.4f}"
                        )
                    }
                },
                {
                    "tag": "note",
                    "elements": [
                        {
                            "tag": "plain_text",
                            "content": f"K线时间: {kline_time} | 分析延迟: {delay:.2f}秒"
                        }
                    ]
                }
            ]
        }
    }

    return message

def _calculate_signal_strength(analysis_result: Dict) -> str:
    """
    计算信号强度

    规则:
    - HIGH: 所有3个周期Z-score超阈值
    - MEDIUM: 2个周期Z-score超阈值
    - LOW: 1个周期Z-score超阈值
    """
    zscore_5m = abs(analysis_result.get('zscore_5m', 0))
    zscore_1h = abs(analysis_result.get('zscore_1h', 0))
    zscore_4h = abs(analysis_result.get('zscore_4h', 0))

    exceeds_count = sum([
        zscore_5m > ZSCORE_THRESHOLDS['5m'],
        zscore_1h > ZSCORE_THRESHOLDS['1h'],
        zscore_4h > ZSCORE_THRESHOLDS['4h']
    ])

    if exceeds_count == 3:
        return "🔥 HIGH"
    elif exceeds_count == 2:
        return "⚡ MEDIUM"
    else:
        return "💡 LOW"

告警示例:

🚨 配对交易信号

目标币种: NEAR/USDC:USDC
基准币种: BTC/USDC:USDC

信号强度: 🔥 HIGH
交易方向: 🔻 做空配对

─────────────────────

多周期数据:
5m: 相关系数=0.8523, Z-score=2.34
1h: 相关系数=0.8156, Z-score=1.87
4h: 相关系数=0.7891, Z-score=0.45

协整信息:
通过数: 5/6
ADF p值: 0.0023

K线时间: 2026-01-30 12:00:00 | 分析延迟: 3.45秒

代码引用: src/utils/monitoring/alert_formatter.py

9.3 系统级告警

WebSocket连接告警

def _send_alert_on_failure(self):
    """WebSocket重连失败告警"""
    message = {
        "msg_type": "text",
        "content": {
            "text": (
                f"⚠️ WebSocket连接告警\n"
                f"连接状态: {self.state.value}\n"
                f"重连尝试: {self.reconnection_manager.current_attempt}次\n"
                f"最后错误: {self.last_error}\n"
                f"建议: 检查网络连接和服务器状态"
            )
        }
    }
    sender_colourful(lark_webhook_url, message)

告警触发:

  • 第5次重连失败
  • 连接状态 = FAILED

代码引用: enhanced_ws_manager.py:1009-1076

队列过载告警

def _queue_health_monitor(self):
    """队列使用率监控(告警)"""
    # ... 队列使用率计算 ...

    if kline_usage > QUEUE_WARNING_THRESHOLD:
        logger.warning("K线队列使用率超过80%")
        # 发送飞书告警
        self._send_queue_alert("K线队列", kline_usage)

    if analysis_usage > QUEUE_WARNING_THRESHOLD:
        logger.warning("分析队列使用率超过80%")
        self._send_queue_alert("分析队列", analysis_usage)

def _send_queue_alert(self, queue_name: str, usage: float):
    """发送队列过载告警"""
    message = {
        "msg_type": "text",
        "content": {
            "text": (
                f"⚠️ 队列过载告警\n"
                f"队列名称: {queue_name}\n"
                f"使用率: {usage*100:.1f}%\n"
                f"建议: 增加处理线程或批量写入频率"
            )
        }
    }
    sender_colourful(lark_webhook_url, message)

告警触发:

  • 队列使用率 > 80%

代码引用: src/services/realtime_kline_service.py:1452-1539

内存过载告警

def _monitor_memory_usage(self):
    """内存占用监控(告警)"""
    process = psutil.Process()
    memory_info = process.memory_info()

    if memory_info.rss > 512 * 1024 * 1024:  # 512MB
        logger.warning("内存占用超过512MB")

        # 发送飞书告警
        message = {
            "msg_type": "text",
            "content": {
                "text": (
                    f"⚠️ 内存过载告警\n"
                    f"内存占用: {memory_info.rss / 1024 / 1024:.2f}MB\n"
                    f"建议: 检查内存泄漏,清理缓存"
                )
            }
        }
        sender_colourful(lark_webhook_url, message)

告警触发:

  • 内存占用 > 512MB

代码引用: src/services/realtime_kline_service.py:1713-1785

9.4 数据补充与校验

K线连续性校验

def check_data_continuity(
    self,
    klines: List[Dict],
    timeframe: str
) -> Tuple[bool, List[Tuple[datetime, datetime]]]:
    """
    检查K线数据连续性

    返回:
        (is_continuous, gaps): 是否连续,间隙列表
    """
    if not klines or len(klines) < 2:
        return True, []

    # 计算周期间隔
    timeframe_delta = self._get_timeframe_delta(timeframe)

    # 检查间隙
    gaps = []
    for i in range(len(klines) - 1):
        current_time = klines[i]['time']
        next_time = klines[i + 1]['time']
        expected_time = current_time + timeframe_delta

        # 允许5秒误差
        if abs((next_time - expected_time).total_seconds()) > 5:
            gaps.append((current_time, next_time))

    is_continuous = len(gaps) == 0
    return is_continuous, gaps

校验逻辑:

  • 计算相邻K线时间差
  • 对比预期时间间隔
  • 允许5秒误差

代码引用: src/utils/analysis/kline_data_filler.py

自动数据补充

def fill_missing_klines(
    self,
    symbol: str,
    timeframe: str,
    start_time: datetime,
    end_time: datetime
) -> List[Dict]:
    """
    补充缺失的K线数据(REST API)

    流程:
    1. 查询数据库现有数据
    2. 检查连续性
    3. 识别间隙
    4. REST API补充缺失区间
    5. 批量写入数据库
    """
    # 1. 查询现有数据
    existing_klines = self.kline_repo.get_klines_by_timeframe(
        symbol, timeframe, start_time, end_time
    )

    # 2. 检查连续性
    is_continuous, gaps = self.check_data_continuity(existing_klines, timeframe)

    if is_continuous:
        logger.info(f"数据连续,无需补充")
        return existing_klines

    # 3. 补充缺失区间
    logger.info(f"检测到{len(gaps)}个间隙,开始补充")

    filled_klines = []
    for gap_start, gap_end in gaps:
        # REST API获取缺失K线
        missing_klines = self._fetch_klines_from_api(
            symbol, timeframe, gap_start, gap_end
        )

        # 批量写入数据库
        if missing_klines:
            self.kline_repo.batch_upsert_copy(missing_klines)
            filled_klines.extend(missing_klines)
            logger.info(f"补充{len(missing_klines)}条K线")

    # 4. 重新查询完整数据
    complete_klines = self.kline_repo.get_klines_by_timeframe(
        symbol, timeframe, start_time, end_time
    )

    return complete_klines

补充策略:

  • 识别时间间隙
  • REST API获取缺失数据
  • 批量写入数据库
  • 重新校验连续性

代码引用: src/utils/analysis/kline_data_filler.py


10. 部署设计

10.1 Docker容器化

docker-compose配置

version: '3.8'

services:
  timescaledb:
    image: timescale/timescaledb:latest-pg16
    container_name: crypto_timescaledb
    environment:
      POSTGRES_USER: postgres
      POSTGRES_PASSWORD: ${POSTGRES_PASSWORD}
      POSTGRES_DB: crypto_data
    ports:
      - "5432:5432"
    volumes:
      - timescaledb_data:/var/lib/postgresql/data
      - ./init_timescaledb.sql:/docker-entrypoint-initdb.d/init.sql
    restart: unless-stopped
    shm_size: 256mb
    command:
      - postgres
      - -c
      - shared_buffers=256MB
      - -c
      - work_mem=16MB
      - -c
      - maintenance_work_mem=128MB
      - -c
      - max_connections=100

  realtime_service:
    build:
      context: .
      dockerfile: Dockerfile  # 需自行创建(参考上方模板)
    container_name: crypto_realtime_service
    depends_on:
      - timescaledb
    environment:
      POSTGRES_HOST: timescaledb
      POSTGRES_PORT: 5432
      POSTGRES_USER: postgres
      POSTGRES_PASSWORD: ${POSTGRES_PASSWORD}
      POSTGRES_DB: crypto_data
      LARK_WEBHOOK_URL: ${LARK_WEBHOOK_URL}
      SERVICE_VERSION: ${SERVICE_VERSION:-general}  # general 或 hype
    restart: unless-stopped
    volumes:
      - ./realtime_kline_service.log:/app/realtime_kline_service.log

volumes:
  timescaledb_data:

容器说明:

  • timescaledb: 时序数据库服务
  • realtime_service: 实时分析服务

代码引用: docker-compose.yml

Dockerfile 配置

⚠️ 重要变更: 原 docker/Dockerfile.realtime 已删除(提交 fee7e19 - "restruct director")

当前部署方式:

1. 开发环境 - 直接运行 Python 脚本:

# 通用版
python src/services/realtime_kline_service.py

# HYPE版
python src/services/realtime_kline_service_hype.py

2. 生产环境 - 需自行创建 Dockerfile(参考模板):

FROM python:3.12-slim

WORKDIR /app

# 安装系统依赖
RUN apt-get update && \
    apt-get install -y --no-install-recommends \
    gcc \
    postgresql-client && \
    rm -rf /var/lib/apt/lists/*

# 安装Python依赖
COPY pyproject.toml uv.lock ./
RUN pip install --no-cache-dir uv && \
    uv pip install --system -r pyproject.toml

# 复制应用代码
COPY src/ ./src/

# 健康检查
HEALTHCHECK --interval=60s --timeout=10s --start-period=30s --retries=3 \
    CMD python -c "import psycopg; conn = psycopg.connect('dbname=crypto_data user=postgres host=timescaledb'); conn.close()" || exit 1

# 启动服务(通用版)
CMD ["python", "src/services/realtime_kline_service.py"]

# 或启动HYPE版
# CMD ["python", "src/services/realtime_kline_service_hype.py"]

变更说明:

  • ✅ 代码引用路径更新为 src/ 结构
  • ✅ 支持通用版和HYPE版两种启动方式
  • ❌ 原 Dockerfile.realtime 已被删除,需自行创建

相关提交: fee7e19 - "restruct director"

10.2 环境配置管理

环境变量

# .env文件
# 数据库配置
POSTGRES_HOST=localhost
POSTGRES_PORT=5432
POSTGRES_USER=postgres
POSTGRES_PASSWORD=your_secure_password
POSTGRES_DB=crypto_data

# 飞书配置
LARK_WEBHOOK_URL=https://open.feishu.cn/open-apis/bot/v2/hook/your_webhook_id

# 服务配置
DEFAULT_BASE_SYMBOL=BTC/USDC:USDC
DEFAULT_TIMEFRAMES=5m,1h,4h
ANALYSIS_WORKERS_GENERAL=30

# 性能配置
DEFAULT_BATCH_SIZE=1000
DEFAULT_BATCH_TIMEOUT=5.0
BETA_WINDOW=100
ZSCORE_WINDOW=30

# 监控配置
QUEUE_MONITOR_INTERVAL=60
QUEUE_WARNING_THRESHOLD=0.8

代码引用: .env.example

配置加载

import os
from dotenv import load_dotenv

# 加载环境变量
load_dotenv()

# 数据库配置
POSTGRES_HOST = os.getenv('POSTGRES_HOST', 'localhost')
POSTGRES_PORT = int(os.getenv('POSTGRES_PORT', 5432))
POSTGRES_USER = os.getenv('POSTGRES_USER', 'postgres')
POSTGRES_PASSWORD = os.getenv('POSTGRES_PASSWORD')
POSTGRES_DB = os.getenv('POSTGRES_DB', 'crypto_data')

# 飞书配置
LARK_WEBHOOK_URL = os.getenv('LARK_WEBHOOK_URL')

# 服务配置
DEFAULT_BASE_SYMBOL = os.getenv('DEFAULT_BASE_SYMBOL', 'BTC/USDC:USDC')
DEFAULT_TIMEFRAMES = os.getenv('DEFAULT_TIMEFRAMES', '5m,1h,4h').split(',')
ANALYSIS_WORKERS_GENERAL = int(os.getenv('ANALYSIS_WORKERS_GENERAL', 30))

代码引用: src/utils/core/config.py

10.3 资源限制策略

Docker资源限制

services:
  realtime_service:
    deploy:
      resources:
        limits:
          cpus: '2.0'       # 最大2核
          memory: 1G        # 最大1GB内存
        reservations:
          cpus: '0.5'       # 保留0.5核
          memory: 512M      # 保留512MB内存

代码引用: docker-compose.yml

应用层资源限制

# 队列大小限制
QUEUE_CONFIG_GENERAL = {
    'kline_buffer_size': 10000,
    'analysis_queue_size': 30000,
    'analysis_result_buffer_size': 10000
}

# 数据库连接池限制
TIMESCALEDB_POOL_MIN_SIZE = 5
TIMESCALEDB_POOL_MAX_SIZE = 60

# 工作线程数限制
ANALYSIS_WORKERS_GENERAL = 30

# 查询结果限制
DB_QUERY_LIMIT = 10000

代码引用: src/utils/core/config.py

10.4 运维方案

启动服务

# 1. 启动数据库
docker-compose up -d timescaledb

# 2. 等待数据库就绪
docker-compose logs -f timescaledb | grep "database system is ready"

# 3. 启动实时服务
docker-compose up -d realtime_service

# 4. 查看日志
docker-compose logs -f realtime_service

停止服务

# 1. 停止实时服务(优雅关闭)
docker-compose stop realtime_service

# 2. 停止数据库
docker-compose stop timescaledb

# 3. 停止所有服务
docker-compose down

日志管理

# 查看实时日志
docker-compose logs -f realtime_service

# 查看最近100行日志
docker-compose logs --tail=100 realtime_service

# 导出日志到文件
docker-compose logs --no-color realtime_service > service.log

备份与恢复

# 数据库备份
docker exec crypto_timescaledb pg_dump -U postgres crypto_data > backup.sql

# 数据库恢复
docker exec -i crypto_timescaledb psql -U postgres crypto_data < backup.sql

# 数据卷备份
docker run --rm -v timescaledb_data:/data -v $(pwd):/backup ubuntu tar czf /backup/timescaledb_backup.tar.gz /data

11. 配置管理

11.1 核心配置参数

服务配置

# 基准币种(用于配对分析)
DEFAULT_BASE_SYMBOL = 'BTC/USDC:USDC'

# 订阅周期列表
DEFAULT_TIMEFRAMES = ['5m', '1h', '4h']

# 批量写入配置
DEFAULT_BATCH_SIZE = 1000        # K线批量写入大小
DEFAULT_BATCH_TIMEOUT = 5.0      # K线批量写入超时(秒)

# 分析结果批量写入配置
ANALYSIS_RESULT_BATCH_SIZE = 100
ANALYSIS_RESULT_BATCH_TIMEOUT = 2.0
ANALYSIS_USE_COPY_METHOD = True   # 使用 COPY 批量写入 (~30x 性能提升)

代码引用: src/config.py:DEFAULT_BASE_SYMBOL, src/config.py:DEFAULT_TIMEFRAMES

数据窗口配置

# 数据窗口配置(天数)
DATA_WINDOW_CONFIG = {
    '5m': 7,    # 5分钟周期: 7天
    '1h': 30,   # 1小时周期: 30天
    '4h': 60    # 4小时周期: 60天
}

# 最小数据点要求
MIN_DATA_POINTS = {
    '5m': 100,   # 5m周期最小100个点
    '1h': 100,   # 1h周期最小100个点
    '4h': 358    # 4h周期最小358个点(60天)
}

MIN_4H_DATA_POINTS = 358  # 新币种4H数据点阈值

代码引用: src/config.py:DATA_WINDOW_CONFIG, src/config.py:MIN_DATA_POINTS

分析参数配置

# 相关性阈值
TARGET_CORR_THRESHOLD = 0.6      # 相关系数阈值(前置过滤)
CORRELATION_METHOD = 'pearson'    # 相关系数方法

# OLS协整参数
BETA_WINDOW = 100                 # OLS回归窗口(期数)
ZSCORE_WINDOW = 30                # Z-score计算窗口(期数)
COINTEGRATION_THRESHOLD = 2       # 最少需要2个协整检验通过

# Z-score阈值(语义化键名,v1.3重构)
ZSCORE_THRESHOLDS = {
    'long': 0.2,      # 长周期(4h): 方向确认
    'middle': 0.2,    # 中周期(1h): 方向确认
    'short': 1,       # 短周期(5m): 高敏感度
    'strong': 2.5,    # 强信号阈值
    'medium': 2.0,    # 中等信号阈值
}

# 多周期验证要求
REQUIRED_PERIODS = [('5m', '7d'), ('1h', '30d'), ('4h', '60d')]

# α显著性判定
ALPHA_SIGNIFICANCE_LEVEL = 0.05   # α的p值阈值
ALPHA_CROSS_ASSET_THRESHOLD = 5.0 # 跨资产类阈值
ALPHA_SAME_ASSET_THRESHOLD = 2.0  # 同类资产阈值

代码引用: src/config.py:TARGET_CORR_THRESHOLD, src/config.py:BETA_WINDOW, src/config.py:SIGNAL_STRENGTH_THRESHOLDS

11.2 性能调优参数

队列配置

QUEUE_CONFIG_GENERAL = {
    'kline_buffer_size': 10000,          # K线缓冲队列大小
    'analysis_queue_size': 30000,        # 分析任务队列大小
    'analysis_result_buffer_size': 10000 # 分析结果队列大小
}

# 队列监控配置
QUEUE_MONITOR_INTERVAL = 60     # 监控间隔(秒)
QUEUE_WARNING_THRESHOLD = 0.8   # 告警阈值(80%)
QUEUE_GET_TIMEOUT = 1.0         # 队列获取超时(秒)

代码引用: src/utils/core/config.py:QUEUE_CONFIG_GENERAL

工作线程配置

# 分析工作线程数
ANALYSIS_WORKERS_GENERAL = 30

# 线程关闭超时
WORKER_THREAD_SHUTDOWN_TIMEOUT = 5.0    # 工作线程关闭超时(秒)
MAIN_THREAD_SHUTDOWN_TIMEOUT = 10.0     # 主线程关闭超时(秒)

代码引用: src/config.py:ANALYSIS_WORKERS_GENERAL

去重配置

# 入队去重窗口(秒)
ENQUEUE_DEDUP_WINDOWS = {
    '5m': 1,     # 5m周期: 1秒
    '1h': 180,   # 1h周期: 180秒
    '4h': 600    # 4h周期: 600秒
}

# 分析去重窗口(秒)
DEDUP_WINDOWS = {
    '5m': 1,     # 5m周期: 1秒
    '1h': 300,   # 1h周期: 300秒
    '4h': 900    # 4h周期: 900秒
}

# 去重字典清理配置
CLEANUP_INTERVAL = 300       # 清理间隔(秒)
MAX_RECENT_TASKS = 5000      # 最大缓存任务数

代码引用: src/utils/core/config.py:ENQUEUE_DEDUP_WINDOWS, src/utils/core/config.py:DEDUP_WINDOWS

双重确认配置

# 建仓告警双重确认
DOUBLE_CHECK_WINDOW_SECONDS = 300       # 时间窗口(秒)
DOUBLE_CHECK_ZSCORE_5M_THRESHOLD = 2.5  # 5m Z-score 绝对值阈值
DOUBLE_CHECK_CLEANUP_SECONDS = 600      # 过期清理阈值(秒)

# 平仓告警双重确认
REVERSION_DOUBLE_CHECK_WINDOW_SECONDS = 300  # 时间窗口(秒)

设计说明:

  • 建仓双重确认: 首次信号记录状态,窗口内第二次信号需 5m Z-score 绝对值增强且超阈值才确认
  • 平仓双重确认: 首次检测到均值回归仅记录状态,窗口内再次检测到回归仍成立才确认平仓;若回归消失则重置

数据结构:

  • DoubleCheckState: 建仓确认状态 (zscore_5m, direction, first_signal_time)
  • MeanReversionState: 均值回归状态 (baseline, direction, signal_time, first_reversion_time, first_reversion_value)

代码引用: src/utils/core/config.py:DOUBLE_CHECK_WINDOW_SECONDS, src/utils/core/config.py:REVERSION_DOUBLE_CHECK_WINDOW_SECONDS

数据库配置

# 连接池配置
TIMESCALEDB_POOL_MIN_SIZE = 5     # 最小连接数
TIMESCALEDB_POOL_MAX_SIZE = 60    # 最大连接数(匹配30工作线程×2)
TIMESCALEDB_POOL_TIMEOUT = 30.0   # 获取连接超时(秒)
TIMESCALEDB_POOL_MAX_LIFETIME = 3600  # 连接最大存活时间(秒)
TIMESCALEDB_POOL_MAX_IDLE = 600   # 最大空闲时间(秒)

# 查询限制
DB_QUERY_LIMIT = 10000       # 单次查询最大返回条数

代码引用: src/utils/core/config.py:TIMESCALEDB_POOL_MIN_SIZE, src/utils/core/config.py:DB_QUERY_LIMIT

11.3 ServiceConfig 数据类配置

配置类设计

目的: 通过数据类参数化通用版和HYPE版的配置差异,实现 Template Method Pattern

数据结构 (src/services/realtime_kline_service_base.py:85-93):

from dataclasses import dataclass
from typing import Type, Dict

@dataclass
class ServiceConfig:
    """服务配置参数数据类

    用于参数化通用版和HYPE版的配置差异,支持 Template Method Pattern
    """
    base_symbol: str                    # 基准币种 (如 "BTC/USDC:USDC" 或 "HYPE/USDC:USDC")
    corr_threshold: float              # 相关系数阈值 (0.6 或 0.5)
    queue_config: Dict[str, int]       # 队列配置
    analysis_workers: int              # 工作线程数 (30 或 2)
    data_filler_class: Type            # 数据填充器类 (KlineDataFiller 或 KlineDataFillerLazy)
    logger_module: str                 # logger 模块标识('logger' 或 'get_logger')

配置实例对比

通用版配置 (src/services/realtime_kline_service.py:89-103):

from src.utils.core.config import (
    DEFAULT_BASE_SYMBOL,            # "BTC/USDC:USDC"
    TARGET_CORR_THRESHOLD,          # 0.6
    ANALYSIS_WORKERS_GENERAL,       # 30
    QUEUE_CONFIG_GENERAL            # {kline:10000, analysis:30000, result:10000}
)
from src.utils.analysis.kline_data_filler import KlineDataFiller

config = ServiceConfig(
    base_symbol=DEFAULT_BASE_SYMBOL,
    corr_threshold=TARGET_CORR_THRESHOLD,
    queue_config=QUEUE_CONFIG_GENERAL,
    analysis_workers=ANALYSIS_WORKERS_GENERAL,
    data_filler_class=KlineDataFiller,
    logger_module='logger'
)

HYPE版配置 (src/services/realtime_kline_service_hype.py:78-92):

from src.utils.core.config import (
    HYPE_BASE_SYMBOL,              # "HYPE/USDC:USDC"
    HYPE_CORR_THRESHOLD,           # 0.5
    ANALYSIS_WORKERS_HYPE,         # 2
    QUEUE_CONFIG_HYPE              # {kline:1000, analysis:1000, result:1000}
)
from src.utils.analysis.kline_data_filler import KlineDataFillerLazy

config = ServiceConfig(
    base_symbol=HYPE_BASE_SYMBOL,
    corr_threshold=HYPE_CORR_THRESHOLD,
    queue_config=QUEUE_CONFIG_HYPE,
    analysis_workers=ANALYSIS_WORKERS_HYPE,
    data_filler_class=KlineDataFillerLazy,
    logger_module='logger'
)

配置差异总结

配置字段 通用版 HYPE版 差异原因
base_symbol BTC/USDC:USDC HYPE/USDC:USDC HYPE版专注单一基准
corr_threshold 0.6 0.5 HYPE版使用更宽松阈值
analysis_workers 30 2 HYPE版订阅数少,减少线程
queue_config.kline_buffer 10000 1000 HYPE版订阅数少
queue_config.analysis_queue 30000 1000 分析任务少
queue_config.result_buffer 10000 1000 结果产生速度低
data_filler_class KlineDataFiller KlineDataFillerLazy HYPE版使用懒加载
logger_module 'logger' 'logger' 日志模块标识

配置加载流程

class RealtimeKlineServiceBase(ABC):
    """抽象基类(模板方法模式)"""

    def __init__(self, base_symbol=None, timeframes=None, ...):
        """初始化服务(模板方法)

        通过子类实现 _get_config_params() 获取 ServiceConfig
        """
        # 1. 获取子类配置
        self._config = self._get_config_params()

        # 2. 初始化基础配置
        self.base_symbol = base_symbol or self._config.base_symbol

        # 3. 动态初始化 logger
        self.logger = self._init_logger(self._config.logger_module)

        # 4. 初始化数据填充器(使用配置指定的类)
        self.data_filler = self._config.data_filler_class(kline_repo=self.kline_repo)

        # 5. 初始化队列(使用配置参数)
        queue_config = self._config.queue_config
        self.kline_buffer = queue.Queue(maxsize=queue_config['kline_buffer_size'])
        self.analysis_queue = queue.Queue(maxsize=queue_config['analysis_queue_size'])
        self.analysis_result_buffer = queue.Queue(maxsize=queue_config['analysis_result_buffer_size'])

        # 6. 启动分析worker线程
        for i in range(self._config.analysis_workers):
            t = threading.Thread(target=self._analysis_worker)
            t.start()

        # 7. 根据子类实现决定是否启动新币种监控
        if self._should_enable_symbol_monitoring():
            self._start_new_symbol_monitor()

设计优势

1. 配置集中化:

  • ✅ 所有差异参数集中在一个数据类中
  • ✅ 避免散落在多个配置文件中
  • ✅ 清晰展示两个版本的差异

2. 类型安全:

  • ✅ 使用 @dataclass 自动生成构造函数和类型检查
  • ✅ IDE智能提示支持
  • ✅ 运行时类型验证

3. 扩展性:

  • ✅ 新增版本只需创建新的 ServiceConfig 实例
  • ✅ 无需修改基类代码
  • ✅ 支持更多配置参数(如不同的分析策略、告警规则等)

4. 测试友好:

  • ✅ Mock配置非常简单
  • ✅ 单元测试可以轻松创建不同配置的实例
  • ✅ 配置参数化测试支持

代码引用:

  • ServiceConfig定义: src/services/realtime_kline_service_base.py:85-93
  • 通用版配置: src/services/realtime_kline_service.py:89-103
  • HYPE版配置: src/services/realtime_kline_service_hype.py:78-92
  • 配置使用: src/services/realtime_kline_service_base.py:125-196

11.4 WebSocket配置

# 连接配置
WS_URL = 'wss://api.hyperliquid.xyz/ws'
WS_TIMEOUT = 60              # 连接超时(秒)
WS_MAX_RETRIES = None        # 最大重试次数(None=无限重试)
WS_ALERT_THRESHOLD = None    # 告警阈值(None=不发送告警)

# Ping配置
WS_PING_INTERVAL_MS = 5000   # Ping间隔(毫秒)
WS_PING_THREAD_SHUTDOWN_TIMEOUT = 2.0  # Ping线程关闭超时(秒)

# 健康监控配置
WS_HEALTH_MONITOR_TIMEOUT = 15          # 假活检测超时(秒)
WS_HEALTH_MONITOR_WARNING_THRESHOLD = 15 # 警告阈值(秒)
WS_HEALTH_CHECK_INTERVAL = 2            # 健康检查间隔(秒)
WS_HEALTH_REPORT_INTERVAL = 60          # 健康报告间隔(秒)

# 重连配置
WS_RECONNECT_MIN_DELAY = 0.1            # 最小重连延迟(秒)
WS_RECONNECT_INITIAL_DELAY = 1.0        # 初始重连延迟(秒)
WS_RECONNECT_MAX_DELAY = 10.0           # 最大重连延迟(秒)
WS_RECONNECT_MULTIPLIER = 2.0           # 延迟递增因子
WS_RECONNECT_JITTER = 0.25              # 随机抖动比例(±25%)

# 状态管理
WS_STATE_VALIDATION_DELAY = 1.0         # 状态验证延迟(秒)
WS_READY_TIMEOUT = 5.0                  # 就绪超时(秒)
WS_CLEANUP_DELAY = 0.5                  # 清理延迟(秒)

# 批量订阅配置
WS_SUBSCRIBE_BATCH_SIZE = 50            # 批量订阅大小
WS_SUBSCRIBE_BATCH_DELAY = 0.1          # 批量订阅间隔(秒)

代码引用: src/utils/core/config.py:WS_URL, src/utils/core/config.py:WS_PING_INTERVAL_MS


12. 建仓双重确认与平仓机制

12.1 建仓双重确认 (DoubleCheckState)

设计动机

传统策略中,单次异常信号可能是噪声。双重确认机制要求:

  1. 首次信号: 记录状态(方向、Z-score、时间戳)
  2. 确认信号: 在时间窗口内再次检测到信号增强才触发告警

核心数据结构 (src/services/realtime_kline_service_base.py:106-111):

@dataclass
class DoubleCheckState:
    """建仓告警双重确认状态"""
    zscore_5m: float                     # 触发时的 5m Z-score
    direction: str                       # 'long' 或 'short'
    first_signal_time: datetime = None   # 第一次信号时间 (UTC)

确认流程

首次信号 → 记录 DoubleCheckState
  ↓
等待窗口内 (300秒)
  ↓
第二次信号:
  - |zscore_5m| 增大 (信号增强)
  - |zscore_5m| > 2.5 (超强阈值)
  → ✅ 确认通过,发送建仓告警

超出窗口 → ❌ 过期重置

方向变化 → 🔄 替换为新方向的首次信号

配置参数

参数 说明
DOUBLE_CHECK_WINDOW_SECONDS 300 双重确认时间窗口(5分钟)
DOUBLE_CHECK_ZSCORE_5M_THRESHOLD 2.5 5m Z-score绝对值增强阈值
DOUBLE_CHECK_CLEANUP_SECONDS 600 过期状态清理阈值(10分钟)

代码引用: src/services/realtime_kline_service_base.py:1257-1332

12.2 均值回归平仓 (MeanReversionState)

设计动机

建仓后,需要监控 zscore_4h 是否回归到建仓时的 baseline 水平,确认价差恢复后发送平仓告警。

核心数据结构 (src/services/realtime_kline_service_base.py:96-103):

@dataclass
class MeanReversionState:
    """均值回归事件循环状态"""
    baseline: float              # 建仓时的 avg_zscore_4h
    direction: str               # 'long' 或 'short'
    signal_time: datetime = None  # 建仓时间
    first_reversion_time: datetime = None   # 首次回归检测时间
    first_reversion_value: float = None     # 首次回归时的 zscore_4h

平仓检测流程

建仓告警发送后 → 缓存 MeanReversionState (baseline = avg_zscore_4h)
  ↓
每次分析执行 → 检查 zscore_4h 是否回归至 baseline
  ↓
首次检测到回归 → 记录 first_reversion_time
  ↓
窗口内再次检测 (300秒):
  - 回归仍成立 → ✅ 平仓双重确认通过,发送平仓告警
  - 回归消失   → ❌ 重置 first_reversion_time
  - 超出窗口   → ⏳ 视为新的首次检测

回归判定规则

  • long方向: zscore_4h 从负值回升到 baseline 水平
  • short方向: zscore_4h 从正值回落到 baseline 水平
  • 回归消失: 再次检测时 zscore_4h 偏离 baseline

配置参数

参数 说明
REVERSION_DOUBLE_CHECK_WINDOW_SECONDS 300 平仓双重确认时间窗口(5分钟)

状态清理

queue_monitor 线程定期清理过期的 DoubleCheckState 和 MeanReversionState:

  • 建仓状态超过 DOUBLE_CHECK_CLEANUP_SECONDS (600秒) 自动清理
  • 平仓状态随告警发送后自动清除

代码引用: src/services/realtime_kline_service_base.py:1393-1490

12.3 统计监控

双重确认机制的运行状态通过 stats 字典实时追踪:

# 建仓双重确认统计
'double_check_first_signals': 0,    # 首次信号
'double_check_confirmed': 0,        # 确认通过
'double_check_refreshed': 0,        # 信号刷新(方向变化)
'double_check_expired': 0,          # 超时重置

# 平仓双重确认统计
'reversion_dc_first_signals': 0,    # 首次检测
'reversion_dc_confirmed': 0,        # 确认通过
'reversion_dc_expired': 0,          # 超时重置
'reversion_dc_reset': 0,            # 回归消失重置

代码引用: src/services/realtime_kline_service_base.py:259-280


13. 自动交易模块 (v1.3新增)

13.1 模块概述

自动交易模块将信号分析系统的输出(建仓/平仓信号)转化为实际的交易执行。模块采用 Orchestrator模式,通过 TradingOrchestrator 统一编排5大组件,实现信号系统与执行系统的完全解耦。

核心特性:

  • 可选启用: 通过 TRADING_ENABLED=true 环境变量控制
  • 安全优先: 三层安全机制 + 9项风控检查
  • 双腿交易: single模式(仅目标币种)/ pair模式(目标+基准对冲)
  • 仓位生命周期: 完整的状态机管理(6个状态)
  • 自动止损: 后台线程持续监控仓位盈亏
  • 仓位同步: 定期与交易所核对仓位一致性

代码引用: src/trading/orchestrator.py, src/trading/strategy.py

13.2 模块架构

组件关系图

graph TD
    A[信号系统<br/>process_analysis] --> B[TradingOrchestrator<br/>交易编排器]
    B --> S[AdaptiveBollingerStrategy<br/>Plan A 策略引擎]
    S --> B

    B --> C[SafetyLayer]
    C --> C1[KillSwitch<br/>文件系统紧急停止]
    C --> C2[RateLimiter<br/>滑动窗口频率限制]
    C --> C3[CircuitBreaker<br/>连续失败熔断]

    B --> D[RiskManager<br/>9项风控检查]
    B --> E[PositionManager<br/>仓位生命周期]
    B --> F[HyperliquidExecutor<br/>SDK执行器]
    B --> G[TradeRepository<br/>数据持久化]

    E --> F
    E --> G
    D --> C1
    D --> C3

    F --> H[Hyperliquid Exchange API]
    G --> I[(TimescaleDB)]

组件职责

组件 文件 职责
TradingOrchestrator src/trading/orchestrator.py 统一入口,process_analysis 策略驱动,线程管理
AdaptiveBollingerStrategy src/trading/strategy.py Plan A 策略引擎: EMA+滚动标准差,入场/退场判定
HyperliquidExecutor src/trading/executor.py SDK封装,下单/查询/杠杆设置
PositionManager src/trading/position_manager.py 开仓/平仓/恢复/同步/价格更新
RiskManager src/trading/risk_manager.py 9项检查/仓位计算/止损/回撤/每日PnL
SafetyLayer src/trading/safety.py KillSwitch/RateLimiter/CircuitBreaker
TradeRepository src/trading/trade_repository.py CRUD: signals/positions/orders/stats
TradingConfig src/trading/config.py 从 .env 加载配置,类型安全
数据模型 src/trading/models.py 枚举/信号/订单/仓位数据类
Protocol 接口 src/trading/protocols.py Executor/TradeRepositoryProtocol/DatabaseClient

13.3 数据模型

枚举类型

class TradingNetwork(Enum):
    MAINNET = "mainnet"
    TESTNET = "testnet"

class PositionStatus(Enum):
    PENDING = "pending"      # 待开仓
    OPENING = "opening"      # 开仓中
    OPEN = "open"            # 持仓中
    CLOSING = "closing"      # 平仓中
    CLOSED = "closed"        # 已平仓
    ERROR = "error"          # 异常

class SignalType(Enum):
    ENTRY = "entry"          # 入场信号
    EXIT = "exit"            # 退场信号

核心数据类

@dataclass
class PairTradeSignal:
    """交易信号"""
    signal_id: str           # UUID
    signal_type: SignalType  # entry / exit
    symbol: str              # "PURR/USDC:USDC"
    base_symbol: str         # "HYPE/USDC:USDC"
    direction: str           # 'long' / 'short'
    zscore_5m/1h/4h: float   # 多周期 Z-score
    signal_strength: str     # 'extreme' / 'strong' / 'medium'
    raw_data: Dict           # 原始分析结果

@dataclass
class PairPosition:
    """配对仓位状态"""
    position_id: str         # UUID
    status: PositionStatus   # 仓位状态机
    alt_side/size/entry_price/current_price: float  # 目标币种
    base_side/size/entry_price/current_price: float # 基准币种(pair模式)
    unrealized_pnl: float    # 未实现盈亏
    realized_pnl: float      # 已实现盈亏
    pair_mode: str           # 'single' / 'pair'

@dataclass
class OrderResult:
    """单笔订单结果"""
    success: bool
    order_id: int            # Hyperliquid oid
    coin/side/size/price: str/float
    status: str              # 'filled' / 'partial' / 'rejected' / 'error'

代码引用: src/trading/models.py:1-147

13.4 交易执行流程

信号入口 (v1.4 策略驱动)

服务基类在每次分析完成后调用 process_analysis(),由策略引擎判定是否产生入场/退场信号:

_trigger_strategy_if_ready(symbol, timeframe, multi_period_result, ...)
  │
  └─ TradingOrchestrator.process_analysis(symbol, z4h, multi_period_result, timestamp, ...)
        │
        ├─ 1. 调用 strategy.process_tick(symbol, z4h, timestamp)
        │     └─ 返回 (entry_signal, exit_signal)
        │
        ├─ 2. 若有 exit_signal → on_exit_signal(reversion_info)
        │
        └─ 3. 若有 entry_signal → on_entry_signal(symbol, multi_period_result, ..., direction, strength)

策略引擎 (Plan A) 逻辑:

  • 维护 z4h 滚动缓冲区 (144 个 5min bar)
  • adaptive_z = (z4h - ema) / rolling_std(Welford 增量标准差)
  • 入场: 首次穿越 abs(adaptive_z) >= threshold (默认 2.5)
  • 退场: adaptive_z 回归至 entry_adaptive_z × reversion_factor (默认 0.18)
  • 无双重确认,冷却期 30 分钟

代码引用: src/services/realtime_kline_service_base.py:1165-1194, src/trading/strategy.py

入场信号处理

on_entry_signal(symbol, multi_period_result, direction, signal_strength, ...)
  │
  ├─ 1. 构造 PairTradeSignal (direction/signal_strength 来自策略引擎)
  │
  ├─ 2. RateLimiter.allow()
  │     └─ 拒绝 → 保存信号(rejected) + 更新统计
  │
  ├─ 3. RiskManager.pre_trade_check() [9项检查]
  │     ├─ ① enabled: 总开关
  │     ├─ ② kill_switch: 文件系统紧急停止
  │     ├─ ③ circuit_breaker: 熔断器状态
  │     ├─ ④ duplicate_position: 重复仓位检查
  │     ├─ ⑤ max_open_pairs: 最大持仓对数
  │     ├─ ⑥ total_exposure: 总敞口检查
  │     ├─ ⑦ daily_loss: 每日亏损上限
  │     ├─ ⑧ max_drawdown: 最大回撤
  │     └─ ⑨ min_balance: 最低余额
  │     └─ 拒绝 → 保存信号(rejected) + 更新统计
  │
  ├─ 4. 保存信号(opened) + 更新统计
  │
  ├─ 5. PositionManager.open_position(signal)
  │     ├─ 获取实时价格
  │     ├─ 计算仓位大小 (base_usd × strength_scale)
  │     ├─ HyperliquidExecutor.market_open()
  │     │   ├─ Leg A: 目标币种下单
  │     │   └─ Leg B: 基准币种下单 (pair模式, 失败则回滚Leg A)
  │     └─ 持久化到 pair_positions + trade_orders
  │
  └─ 6. 结果处理
        ├─ 成功 → CircuitBreaker.record_success() + 飞书通知
        └─ 失败 → CircuitBreaker.record_failure() + 错误日志

退场信号处理

on_exit_signal(reversion_info)
  │
  ├─ 1. 检查是否有活跃仓位
  │
  ├─ 2. 构造退场 PairTradeSignal
  │
  ├─ 3. 保存信号(closed) + 更新统计
  │
  └─ 4. PositionManager.close_position(symbol, signal, reason="signal")
        ├─ HyperliquidExecutor.market_close()
        ├─ 计算已实现PnL
        ├─ 更新 pair_positions (status=closed)
        ├─ RiskManager.update_daily_pnl()
        └─ TradeRepository.update_daily_stats()

代码引用: src/trading/orchestrator.py:356-450

13.5 仓位大小计算

STRENGTH_SCALE = {
    "extreme": 1.5,   # 极端信号: 1.5倍基础仓位
    "strong": 1.0,    # 强信号: 1.0倍基础仓位
    "medium": 0.7,    # 中等信号: 0.7倍基础仓位
}

position_usd = min(base_position_usd × scale, max_position_usd)
alt_size = position_usd / alt_price
base_size = position_usd / base_price  # pair模式

示例: base_position_usd=$100, signal_strength="strong", alt_price=$0.05
→ position_usd = $100 × 1.0 = $100
→ alt_size = $100 / $0.05 = 2000 PURR

代码引用: src/trading/risk_manager.py:105-143

13.6 安全机制

三层安全架构

组件 机制 触发条件 恢复方式
1 KillSwitch 文件系统检查 touch /tmp/trading_kill_switch 删除文件
2 RateLimiter 滑动窗口 (deque) 30次/60秒 超限 窗口过期自动恢复
3 CircuitBreaker 连续失败计数 5次连续失败 300秒冷却后自动恢复

KillSwitch

class KillSwitch:
    """touch 文件即停止交易,删除文件后恢复"""
    def is_killed(self) -> bool:
        return os.path.exists(self._file_path)  # /tmp/trading_kill_switch
  • 紧急场景: 运维人员通过 touch /tmp/trading_kill_switch 立即停止所有交易
  • 恢复: 删除文件后自动恢复
  • 无需重启: 每次下单前实时检查

RateLimiter

class RateLimiter:
    """滑动窗口下单频率限制"""
    def allow(self) -> bool:
        # 清理过期时间戳
        # 检查窗口内请求数 < max_requests
  • 默认配置: 30次/60秒
  • 线程安全: threading.Lock
  • 滑动窗口: deque 实现,自动清理过期时间戳

CircuitBreaker

class CircuitBreaker:
    """连续失败达阈值后触发熔断,冷却期后自动恢复"""
    def is_open(self) -> bool:
        # 检查冷却期是否结束
    def record_failure(self):
        # 累计失败次数,达阈值触发
  • 默认配置: 5次连续失败触发,300秒冷却
  • 自动恢复: 冷却期结束后自动重置
  • 成功重置: 任何成功操作立即重置计数

代码引用: src/trading/safety.py:1-143

13.7 止损与仓位同步

止损监控线程

def _stop_loss_monitor(self):
    """每30秒执行: 更新价格 → 检查每个仓位 → 触发止损"""
    while not self._stop_event.is_set():
        self._position_manager.update_position_prices()
        for pos in self._position_manager.open_positions:
            if self._risk_manager.check_stop_loss(pos):
                self._position_manager.close_position(pos.symbol, reason="stop_loss")
        self._stop_event.wait(interval)  # 30秒

止损判定:

  • single模式: alt_pnl_pct < -stop_loss_pct (默认 -5%)
  • pair模式: (alt_pnl_pct + base_pnl_pct) / 2 < -stop_loss_pct

仓位同步线程

def _position_sync(self):
    """每60秒执行: 与交易所核对仓位 + 更新峰值权益"""
    while not self._stop_event.is_set():
        self._position_manager.sync_with_exchange()
        account_value = self._executor.get_account_value()
        self._risk_manager.update_peak_equity(account_value)
        self._stop_event.wait(interval)  # 60秒

同步内容:

  • 核对内存仓位与交易所实际仓位的一致性
  • 检测交易所侧仓位被手动平仓的情况
  • 更新峰值权益(用于最大回撤计算)

代码引用: src/trading/orchestrator.py

13.8 交易配置

所有交易配置通过 .env 文件管理,由 TradingConfig 数据类提供类型安全访问。

配置项 环境变量 默认值 说明
总开关 TRADING_ENABLED false 交易模块启用开关
网络 TRADING_NETWORK testnet mainnet / testnet
私钥 HYPERLIQUID_PRIVATE_KEY - 交易签名私钥
基础仓位 TRADING_BASE_POSITION_USD 100 单次开仓基础USD
最大仓位 TRADING_MAX_POSITION_USD 500 单仓上限USD
杠杆 TRADING_LEVERAGE 3 杠杆倍数
杠杆模式 TRADING_LEVERAGE_MODE cross cross / isolated
最大对数 TRADING_MAX_OPEN_PAIRS 3 同时持仓对数上限
最大敞口 TRADING_MAX_EXPOSURE_USD 3000 总敞口USD上限
止损比例 TRADING_STOP_LOSS_PCT 0.05 5% 止损阈值
最大回撤 TRADING_MAX_DRAWDOWN_PCT 0.10 10% 最大回撤
每日亏损 TRADING_MAX_DAILY_LOSS_USD 500 每日亏损上限
频率限制 TRADING_RATE_LIMIT_PER_MINUTE 30 每分钟最大操作数
熔断阈值 TRADING_CIRCUIT_BREAKER_THRESHOLD 5 连续失败触发数
熔断冷却 TRADING_CIRCUIT_BREAKER_COOLDOWN 300 冷却时间(秒)
Kill Switch TRADING_KILL_SWITCH_FILE /tmp/trading_kill_switch 紧急停止文件路径
下单模式 TRADING_PAIR_MODE single single / pair
止损检查 TRADING_STOP_LOSS_CHECK_INTERVAL 30 止损监控间隔(秒)
仓位同步 TRADING_POSITION_SYNC_INTERVAL 60 仓位同步间隔(秒)
Plan A EMA 窗口 TRADING_STRATEGY_EMA_SPAN 72 策略 EMA 窗口 (5min bar)
Plan A 入场阈值 TRADING_STRATEGY_ADAPTIVE_THRESHOLD 2.5 adaptive_z 突破阈值
Plan A 回归因子 TRADING_STRATEGY_REVERSION_FACTOR 0.18 退场回归判定
移动止损激活 TRADING_TRAILING_STOP_ACTIVATION_PCT 0.07 盈利 7% 后激活
开仓订单类型 TRADING_OPEN_ORDER_TYPE market market / limit
平仓订单类型 TRADING_CLOSE_ORDER_TYPE market market / limit

代码引用: src/trading/config.py, .env.example

13.9 启动与恢复流程

启动流程

TradingOrchestrator.start()
  ├─ 1. 检查 enabled + private_key
  ├─ 2. 初始化 HyperliquidExecutor (SDK连接)
  ├─ 3. 初始化 TradeRepository (数据库)
  ├─ 4. 初始化 RiskManager
  ├─ 5. 初始化 PositionManager
  ├─ 6. 恢复仓位 (从数据库加载 open/opening/closing 状态仓位)
  ├─ 7. 初始化峰值权益 (账户价值)
  ├─ 8. 启动止损监控线程 (daemon, 30秒间隔)
  ├─ 9. 启动仓位同步线程 (daemon, 60秒间隔)
  ├─ 10. 初始化 AdaptiveBollingerStrategy
  ├─ 11. 从 DB 灌入历史 z4h 初始化策略缓冲区
  ├─ 12. 同步已恢复仓位到策略引擎
  └─ 13. 发送飞书启动通知

优雅关闭

TradingOrchestrator.stop()
  ├─ 1. 设置 stop_event
  ├─ 2. 等待止损线程退出 (timeout=5s)
  ├─ 3. 等待同步线程退出 (timeout=5s)
  ├─ 4. 报告剩余活跃仓位数
  └─ 注意: 不会自动平仓,活跃仓位保留在交易所

代码引用: src/trading/orchestrator.py:69-215


14. 附录

14.1 关键设计决策

1. 直接订阅原生K线 vs 本地聚合

决策: 直接订阅交易所原生 5m/1h/4h K线

理由:

  • ✅ 精度与REST API一致
  • ✅ 无本地聚合误差
  • ✅ Volume数据完全一致
  • ✅ 额外开销 <2%
  • ✅ 代码简洁,维护成本低

权衡:

  • ❌ 订阅数增加 (N个币种 × 3周期)
  • ✅ 1h/4h推送频率极低,实际影响可忽略

代码引用: src/services/realtime_kline_service.py:22-26

2. Old方法 vs New方法协整检验

决策: 同时使用Old全量OLS和New双窗口OLS,多周期验证

理由:

  • Old方法: 全量数据,事后验证可靠
  • New方法: 双窗口OLS,实时交易可用,避免look-ahead bias
  • 多周期验证: 6个结果互相印证,减少虚假信号

权衡:

  • ❌ 计算量增加 (6次协整检验)
  • ✅ 信号质量显著提升

代码引用: src/utils/analysis/analysis_core.py:185-407, src/utils/core/config.py:REQUIRED_PERIODS

3. COPY批量写入 vs executemany

决策: 使用COPY命令批量写入

理由:

  • ✅ 性能提升100倍 (>40K条/秒)
  • ✅ 支持临时表策略,ON COMMIT DROP自动清理
  • ✅ 批量排序减少死锁

权衡:

  • ❌ 代码复杂度略高
  • ✅ 性能提升远超复杂度成本

代码引用: src/utils/database/timescaledb.py:342-450

4. 多线程 vs 异步IO

决策: 使用多线程 (threading)

理由:

  • ✅ psycopg 3.x同步API性能足够 (COPY >40K条/秒)
  • ✅ statsmodels同步阻塞计算,异步无优势
  • ✅ 线程模型简单清晰,易于调试
  • ✅ 并发分析任务完全独立,线程池模式适合

权衡:

  • ❌ 线程上下文切换开销
  • ✅ 39线程规模可接受,避免asyncio生态碎片化

代码引用: src/services/realtime_kline_service.py:224-275

14.2 技术权衡分析

性能 vs 可靠性

场景 性能优先 可靠性优先 采用方案
批量写入 executemany COPY + 死锁重试 可靠性优先
WebSocket连接 简单重连 指数退避 + 假活检测 可靠性优先
协整检验 Old方法 Old + New多周期验证 可靠性优先
去重机制 无去重 双重去重 (入队 + 分析) 可靠性优先

设计原则: 在保证性能目标的前提下,优先保证可靠性

复杂度 vs 精度

场景 简单方案 精确方案 采用方案
K线获取 本地聚合 直接订阅原生K线 简单方案 (精度一致)
协整检验 单一方法 Old + New双方法 精确方案
Z-score计算 简单移动平均 避免样本偏差 精确方案
健康监控 单一指标 双重健康检测 精确方案

设计原则: 核心算法优先精度,辅助功能优先简单

14.3 未来优化方向

短期优化 (1-3个月)

  1. 协整健康监控优化

    • 增加更多健康指标 (半衰期、均值回归速度)
    • 优化评分权重
    • 实时健康度曲线
  2. 告警过滤优化

    • 增加信号强度过滤 (仅发送HIGH信号)
    • 增加流动性过滤 (过滤低流动性币种)
    • 增加波动率过滤 (过滤高波动币种)
  3. 性能优化

    • 优化数据库查询 (增加更多索引)
    • 优化批量写入 (动态批量大小)
    • 优化分析线程数 (自适应线程池)

代码引用: src/utils/analysis/coingetation_more_check.py

中期优化 (3-6个月)

  1. 机器学习增强

    • 协整关系强度预测
    • 信号质量评分模型
    • 异常检测模型 (LSTM/Transformer)
  2. 多策略支持

    • 支持Johansen协整检验
    • 支持距离协整 (Distance Cointegration)
    • 支持统计套利其他策略
  3. 实时回测

    • 实时策略回测引擎
    • 实时绩效监控
    • 实时风险管理

代码引用: Johansen检验详解.md

长期优化 (6-12个月)

  1. 分布式架构

    • 支持多节点部署
    • 支持负载均衡
    • 支持水平扩展
  2. 自动交易执行已完成 (v1.3)

    • 集成交易执行引擎 → TradingOrchestrator + HyperliquidExecutor
    • 支持订单管理 → PositionManager 仓位生命周期管理
    • 支持风险控制 → RiskManager 9项检查 + 三层安全机制
  3. Web控制台

    • 实时监控面板
    • 策略配置管理
    • 历史数据查询

14.4 项目文件结构(v1.3)

完整目录树

⚠️ 重要变更: 提交 fee7e19 ("restruct director") 完成目录重构,将 utils/ 移动到 src/ 结构

hyperliquid-pair-hype-purr-analyze/
├── src/                                    # 源代码目录
│   ├── services/                           # 服务层
│   │   ├── realtime_kline_service_base.py  # 抽象基类(1931行)
│   │   ├── realtime_kline_service.py       # 通用版实现(183行)
│   │   └── realtime_kline_service_hype.py  # HYPE版实现(137行)
│   ├── trading/                            # 🆕 自动交易模块 (v1.3)
│   │   ├── __init__.py                     # TradingOrchestrator(396行)
│   │   ├── config.py                       # TradingConfig(91行)
│   │   ├── models.py                       # 数据模型(147行)
│   │   ├── executor.py                     # HyperliquidExecutor(305行)
│   │   ├── position_manager.py             # PositionManager(378行)
│   │   ├── risk_manager.py                 # RiskManager(220行)
│   │   └── safety.py                       # KillSwitch/RateLimiter/CircuitBreaker(143行)
│   └── utils/                              # 工具模块
│       ├── analysis/                       # 分析工具
│       │   ├── analysis_core.py            # 核心分析算法(976行)
│       │   ├── kline_data_filler.py        # 数据填充器
│       │   └── coingetation_more_check.py  # 协整健康监控
│       ├── database/                       # 数据库工具
│       │   ├── timescaledb.py              # TimescaleDB连接池
│       │   └── trade_repository.py         # 🆕 交易数据仓库(330行)
│       ├── websocket/                      # WebSocket工具
│       │   └── enhanced_ws_manager.py      # 增强WebSocket管理器
│       ├── monitoring/                     # 监控工具
│       │   ├── lark_bot.py                 # 飞书机器人
│       │   └── alert_formatter.py          # 告警格式化
│       └── core/                           # 核心工具
│           ├── config.py                   # 配置管理(162行)
│           └── logging_config.py           # 日志配置
├── database/                               # 🆕 数据库脚本目录
│   └── init_timescaledb.sql                # TimescaleDB初始化脚本(v1.2, 560行)
├── backtest/                               # 回测脚本
│   ├── backtest_with_double_check.py       # 双重确认策略回测
│   └── backtest_entry.py                   # 建仓策略回测
├── query/                                  # 数据查询脚本
│   ├── query_analysis_results.py           # 分析结果查询
│   └── query_klines.py                     # K线数据查询
├── docs/                                   # 文档目录
│   ├── DESIGN.md                           # 技术设计文档(v1.3,本文档)
│   ├── TRADING_MODULE_DESIGN.md            # 🆕 交易模块设计文档
│   ├── study/                              # 🆕 架构分析文档
│   ├── README.md                           # 项目说明文档
│   ├── Johansen检验详解.md                  # Johansen协整检验
│   └── Old方法和New方法差异解释.md          # 协整方法对比
├── spider/                                 # 爬虫脚本
│   ├── ws_kline_spider.py                  # WebSocket K线爬虫
│   └── rest_kline_spider.py                # REST API K线爬虫
├── .env.example                            # 🆕 环境变量示例(含交易配置)
├── docker-compose.yml                      # Docker编排配置
├── pyproject.toml                          # Python项目配置(uv管理)
├── uv.lock                                 # 依赖锁定文件
└── README.md                               # 项目说明(根目录)

重构变更摘要(提交 fee7e19

目录结构变更:

  • ✅ 新增 src/ 顶层目录
  • ✅ 新增 src/services/ 服务层目录
  • utils/src/utils/ 移动
  • ✅ 按功能分类:analysis/, database/, websocket/, monitoring/, core/
  • ❌ 删除 docker/Dockerfile.realtime(需自行创建)

文件移动清单(34个文件):

旧路径 新路径 说明
realtime_kline_service.py src/services/realtime_kline_service.py 通用版服务
- src/services/realtime_kline_service_base.py 新增抽象基类
- src/services/realtime_kline_service_hype.py 新增HYPE版
utils/analysis_core.py src/utils/analysis/analysis_core.py 分析核心
utils/kline_aggregator.py src/utils/analysis/kline_aggregator.py K线聚合
utils/kline_data_filler.py src/utils/analysis/kline_data_filler.py 数据填充
utils/scheduler.py src/utils/analysis/scheduler.py 调度器
utils/coingetation_more_check.py src/utils/analysis/coingetation_more_check.py 协整监控
utils/timescaledb.py src/utils/database/timescaledb.py 数据库连接
utils/redisdb.py src/utils/database/redisdb.py Redis缓存
utils/enhanced_ws_manager.py src/utils/websocket/enhanced_ws_manager.py WebSocket
utils/lark_bot.py src/utils/monitoring/lark_bot.py 飞书机器人
utils/alert_formatter.py src/utils/monitoring/alert_formatter.py 告警格式
utils/spider_failed_alert.py src/utils/monitoring/spider_failed_alert.py 失败告警
utils/config.py src/utils/core/config.py 配置管理
utils/logging_config.py src/utils/core/logging_config.py 日志配置

导入路径变更示例:

# 旧导入(v1.0)
from utils.analysis_core import analyze_pair
from utils.config import DEFAULT_BASE_SYMBOL
from utils.timescaledb import TimescaleDBManager

# 新导入(v1.1)
from src.utils.analysis.analysis_core import analyze_pair
from src.utils.core.config import DEFAULT_BASE_SYMBOL
from src.utils.database.timescaledb import TimescaleDBManager

重构收益

1. 代码组织优化:

  • ✅ 按功能分层:服务层、分析层、数据层、监控层
  • ✅ 目录结构清晰,易于导航
  • ✅ 模块职责明确,降低耦合

2. 架构模式引入:

  • ✅ Template Method Pattern(1931行基类 + 2个实现)
  • ✅ 消除代码重复(1700+行)
  • ✅ 支持多场景部署(通用版、HYPE版)

3. 可维护性提升:

  • ✅ 单点修改,影响范围明确
  • ✅ 新增功能只需扩展子类
  • ✅ 配置差异参数化(ServiceConfig)

4. 测试友好:

  • ✅ 模块隔离,易于单元测试
  • ✅ Mock简单,测试覆盖率高
  • ✅ 基类测试覆盖90%代码

相关提交记录

fee7e19 - restruct director (2026-01-31)
  - 目录重构:utils/ → src/utils/
  - 引入 Template Method Pattern
  - 删除 docker/Dockerfile.realtime

3c3817e - design document gen 2 (2026-01-31)
  - 生成初版技术设计文档

404a8ce - design document gen (2026-01-31)
  - 设计文档准备

f55fe1f - extract base class for realtime analyze 2 (2026-01-30)
  - 抽取抽象基类第二版

5cac050 - extract base class for realtime analyze (2026-01-30)
  - 抽取抽象基类第一版

代码统计(v1.3)

文件 行数 说明
src/services/realtime_kline_service_base.py 1931 抽象基类(核心流程)
src/utils/analysis/analysis_core.py 976 分析算法
src/utils/database/timescaledb.py 1075 数据库管理
src/utils/websocket/enhanced_ws_manager.py 1214 WebSocket管理
src/services/realtime_kline_service.py 183 通用版实现
src/services/realtime_kline_service_hype.py 137 HYPE版实现
src/utils/core/config.py 162 配置管理
信号分析子计 5678行
src/trading/__init__.py 396 🆕 交易编排器
src/trading/executor.py 305 🆕 SDK执行器
src/trading/position_manager.py 378 🆕 仓位管理
src/trading/risk_manager.py 220 🆕 风控管理
src/trading/safety.py 143 🆕 安全机制
src/trading/models.py 147 🆕 数据模型
src/trading/config.py 91 🆕 交易配置
src/utils/database/trade_repository.py 330 🆕 交易数据仓库
交易模块子计 2010行
总计 7688行 核心代码

信号分析代码复用率: 1931 / (1931 + 183 + 137) = 85.8%
交易模块新增: 2010行(占总代码 26.1%)


结语

本设计文档详细描述了 hyperliquid-pair-hype-purr-analyze 项目的技术架构、核心算法、并发设计、性能优化、可靠性保证、自动交易执行和部署方案。

文档覆盖内容:

  • ✅ 系统架构设计 (整体架构图、组件关系、数据流、架构模式)
  • ✅ 数据库设计 (7张表、21个索引、4个压缩策略、连接池)
  • ✅ 网络层设计 (WebSocket管理、双重健康检测、重连策略)
  • ✅ 分析引擎设计 (相关性分析、协整检验、Z-score计算、多周期验证)
  • ✅ 并发架构设计 (线程模型、队列设计、去重机制、锁策略、多版本对比)
  • ✅ 性能优化设计 (批量写入、缓存策略、查询优化、内存管理)
  • ✅ 可靠性设计 (错误处理、重试策略、死锁防护、降级策略)
  • ✅ 监控与告警 (实时监控、飞书告警、系统告警、数据补充)
  • ✅ 部署设计 (Docker容器化、环境配置、资源限制、运维方案)
  • ✅ 配置管理 (核心配置、性能调优、WebSocket配置、ServiceConfig数据类)
  • ✅ 建仓双重确认与平仓机制 (DoubleCheckState、MeanReversionState)
  • ✅ 自动交易模块 (TradingOrchestrator、风控、安全机制、仓位管理) (v1.3新增)
  • ✅ 附录 (关键设计决策、技术权衡分析、未来优化方向、项目文件结构)

设计亮点:

  1. 直接订阅原生K线 (精度 + 简洁性)
  2. 双窗口OLS协整分析 (稳定性 + 灵敏度)
  3. 多线程异步批量写入 (性能提升100倍)
  4. 双重健康检测 (底层 + 应用层)
  5. 智能重连策略 (指数退避 + 随机抖动)
  6. Template Method Pattern (85.8%代码复用率)
  7. 自动交易模块 (Orchestrator模式 + 三层安全 + 9项风控) (v1.3新增)

性能指标:

  • 分析延迟: <5秒
  • 告警延迟: <10秒
  • 批量写入: >40K条/秒
  • 内存占用: <512MB
  • CPU占用: <50%

感谢阅读!如有疑问或建议,欢迎反馈。


文档版本: v1.3
生成日期: 2026-01-31
作者: Claude Code
项目仓库: hyperliquid-pair-hype-purr-analyze

Read more

跑步的技巧(滚动落地)

“滚动落地(rolling contact / rolling foot strike)”不是一种教条式的“脚法”,而是一种 让冲击沿着整只脚、整条后链逐级传递的落地机制。 它的核心不是“你先用哪儿着地”,而是: 你的脚落地之后,冲击是不是像轮子一样滚过去,而不是像锤子一样砸下去。 这就是滚动落地的本质。 一、什么叫“滚动落地”? 你可以把它理解成两种完全不同的落地方式: 1. 砸地(撞击式) 脚像锤子一样拍到地上: * 要么后跟先砸 * 要么前掌先戳 * 冲击集中在一个点 * 一个结构瞬间吃掉大部分载荷 结果就是: * 后跟砸 → 膝盖难受 * 前掌戳 → 前脚掌磨烂 * 都不是长跑友好模式 这叫 撞击式着地(impact strike)。 2. 滚地(滚动式) 脚像轮胎一样“滚”过地面: * 不是某一点硬砸 * 而是外侧中足先轻触 * 再向前滚到前掌 * 最后从大脚趾蹬离

By SHI XIAOLONG

AMI的优越性

世界模型(World Models)的具体例子 如下,我按类型分类,便于理解。每类都附带实际实现、演示效果和应用场景。 1. Yann LeCun / Meta 的 JEPA 系列(最直接对应“世界模型”概念) 这些是 LeCun 主张的非生成式抽象预测世界模型代表。 * I-JEPA(Image JEPA,2023) 输入一张图像,模型把不同区域(context 和 target)编码成抽象表示,然后预测 target 的表示(不在像素级别重建)。 例子:给定一张遮挡了部分物体的图片,模型能预测“被遮挡物体的大致位置和属性”,构建对物体持久性和空间关系的理解。 这是一个“原始世界模型”,能学习物理常识(如物体不会凭空消失)。 * V-JEPA / V-JEPA 2(Video JEPA,

By SHI XIAOLONG

什么是:“世界模型(World Models)”

世界模型(World Models) 是人工智能领域的一个核心概念,尤其在 Yann LeCun 等研究者推动的下一代 AI 架构中占据中心位置。它指的是 AI 系统在内部构建的对现实世界的抽象模拟或内部表示,让机器能够像人类或动物一样“理解”物理世界、预测未来、规划行动。 简单比喻 想象你闭上眼睛也能“看到”房间里的物体会如何移动、碰撞或掉落——这就是你大脑里的世界模型。AI 的世界模型就是类似的“数字孪生”(digital twin)或“内部模拟器”:它不是简单记住数据,而是学习世界的动态、因果关系和物理直觉(如重力、物体持久性、遮挡、因果等)。 为什么需要世界模型? 当前主流的大型语言模型(LLM) 擅长处理文本(统计模式预测),但存在根本局限: * 缺乏对物理世界的真正理解 → 容易“幻觉”、无法可靠规划。 * 样本效率低 → 人类/

By SHI XIAOLONG

K线周期可配置化设计方案

K线周期可配置化设计方案 1. 背景与目标 当前 Beta 套利策略的 K 线周期硬编码为 "1h",分散在多个文件中。需要: 1. 将 K 线周期从 1h 改为 2h 2. 提取为环境变量 BETA_ARB_KLINE_INTERVAL,使其可在 .env 中配置 2. 影响范围分析 2.1 需要修改的文件(共 6 个) 文件 硬编码位置 修改内容 src/trading/config.py BetaArbConfig dataclass 新增 kline_interval 字段,

By SHI XIAOLONG