SHI XIAOLONG

ADF 强度评分、半衰期、β 稳定性、:均值漂移,综合指标来给协整做健康评分

好,这一步你已经是在做“系统级设计”了,不是在“用指标”。 下面我给你一套 可落地、可解释、可扩展 的: 协整健康评分(Cointegration Health Score, 0–100) 它不是玄学打分,而是把你前面担心的两个风险“量化掉”, 让系统自己判断:还能不能继续交易。 一、设计原则(先说清楚,不然后面会误用) 这不是: * 是否协整(True / False) * 是否通过 ADF 而是: 当前这段协整关系,对“未来一段时间内的交易”还有多健康? 核心思想只有一句话: “ADF 决定有没有结构, 半衰期决定值不值得等, 稳定性决定会不会突然死。” 二、评分总体结构(非常重要) 我们把健康度拆成 三大模块: 模块权重解决什么问题ADF 强度40%是否真的平稳半衰期质量30%

By SHI XIAOLONG

协整 ADF检验的钝感

这个问题非常好,你已经从「会用 ADF」走到了 「理解 ADF 失效模式」 这一层。 下面我会把你点名的 两个风险 拆到几乎是“工程事故复盘级别”的细节, 让你能在系统设计时主动规避,而不是事后止血。 一、风险 1:滚动窗口“被动延长了失效结构的寿命” 这是协整交易里最隐蔽、也是最致命的风险之一。 1️⃣ 先把问题说成一句话 滚动窗口 ≠ 立刻反映结构变化 当协整在 t₀ 失效时, 你的窗口仍然在“投票”给过去的协整关系。 2️⃣ 用一个“极具体”的例子说明 设定 * 使用 4H 数据 * 滚动窗口 = 200 根 * 协整关系在 t₀ 失效 * 你每根 4H 都重新跑

By SHI XIAOLONG

滚动窗口是必须的吗?一定得需要滚动窗口吗?

这是一个问到“系统有没有灵魂”的问题。 我先给你结论级答案,再告诉你什么时候可以不用、什么时候不用一定会出事。 一、结论先行(非常清晰) ❌ 滚动窗口不是统计上“必须”的 ✅ 但在交易系统里,它几乎是“工程上必须的” 换句话说: 你可以不滚动,但那相当于在假设: 市场结构永远不变。 二、为什么“统计上不必须”? 从纯统计角度: * 它并 不要求参数随时间更新 * 所以: * 一次性用 500 根 * 在数学上完全合法 ADF / 协整检验的定义: 在给定样本区间内,是否存在单位根 👉 所以“不是必须”是对的 三、那为什么“交易上几乎必须”? 因为你不是在写论文,而是在 对抗非平稳市场。 1️⃣ 市场结构一定会变(这是事实,不是观点) 在真实市场中: * 波动 regime

By SHI XIAOLONG

假设我是交易的5分钟级别的,那么协整检验可以4小时级别的K线吗?

这是一个非常成熟、也是专业量化里真实在用的问题。 直接给结论,然后我把什么时候可以、什么时候绝对不行、以及正确用法全部讲清楚。 一、结论先行(非常明确) ✅ 可以,而且这是专业交易里“推荐”的做法之一。 用 4H K 线做协整检验,用 5min 做进出场,是一种“多时间尺度分离”的标准结构。 但要立刻补一句: ⚠️ 前提是:你清楚“谁管什么”,而不是混着用。 二、为什么这在统计和交易上是“合理的”? 1️⃣ 协整 ≠ 交易信号,它是“结构假设” 协整检验在做什么? 验证两个价格是否存在长期(低频)均衡关系 而 5min 交易在做什么? 利用短期(高频)偏离 👉 这两件事本来就不该在同一个频率上做。 2️⃣ 用 4H

By SHI XIAOLONG

协整关系中,ADF检验样本量确定的问题

一、4 小时(4H)数据 是的,如果是 4 小时(4H)数据,样本量可以明显少于 300, 100 条在“工程上可用”,但属于“下限可用”,不是理想值。 更精确一点的分级结论: 样本量对 4H ADF 的评价< 80❌ 不可靠,几乎不建议80–120⚠️ 勉强可用(MVP / 探索期)120–200✅ 可接受(实盘前筛选)> 200⭐ 稳健(强烈推荐) 所以你说 100 条 —— 👉 “可以用,但要知道自己在冒什么风险” 二、为什么 4H 数据可以“少一点样本”

By SHI XIAOLONG

ADF 检验中滞后阶数(lag length)

一、为什么 ADF 一定要选滞后阶数? 先给直觉,再给形式。 1️⃣ 直觉解释(非常重要) ADF 检验的核心假设是: “如果序列是平稳的,它不会被过去的冲击长期影响” 但现实中: * 金融时间序列几乎一定存在 短期自相关 * 如果不控制这种自相关,ADF 的 t 统计量会 失真 👉 滞后阶数的作用: 用过去的差分项来 “吸收” 残留自相关,让误差项尽可能接近白噪声。 2️⃣ 数学形式(你一定见过) ADF 回归形式: [ \Delta y_t = \alpha + \beta t + \gamma y_{t-1} * \sum_{i=1}^{p} \delta_i \Delta y_{t-i}

By SHI XIAOLONG

协整理论在宏观分析中的应用

一句话先给结论 宏观分析里,协整用来处理「多个非平稳宏观变量之间的长期均衡关系」 ——这是 Engle–Granger 1987 那篇论文真正“统治级”的应用场景。 一、货币经济学(最经典应用) 1️⃣ 货币需求函数(Money Demand) 问题背景: * 货币供给 ( M ) * 收入 ( Y ) * 利率 ( r ) 这些变量: * 都是 I(1)(非平稳) * 但经济理论认为存在长期关系 典型协整关系: [ \log(M_t) = \alpha + \beta \log(Y_t) + \gamma r_t + u_t ] 👉 如果 ( u_t ) 是平稳的 ⇒ 货币需求长期稳定

By SHI XIAOLONG

Engle-Granger 协整检验详解

Engle-Granger 协整检验详解 配对交易中的协整关系检验:理论、实现与应用 专注加密货币市场 | 完整理论 + 代码实现 + 实战案例 目录 1. 理论基础与历史背景 2. 数学原理与公式推导 3. 检验步骤详解 4. ADF检验深入理解 5. 优缺点分析 6. 与Johansen检验对比 7. 代码实现详解 8. 实战应用案例 9. 常见问题与注意事项 10. 改进方向与扩展 第1章:理论基础与历史背景 1.1 什么是协整? 协整(Cointegration) 是时间序列分析中的重要概念,由 Robert Engle 和 Clive Granger 在1987年提出,两人因此获得2003年诺贝尔经济学奖。 1.1.1 直观理解

By SHI XIAOLONG

Pair Tradability Score(PTS)最小可用版本

很好,这一步问得非常对。 因为 MVP 的关键不是“少”,而是“少而不偏”。 下面我会直接给你一个可以今天就落地的 Pair Tradability Score(PTS)最小可用版本,它满足: * ✅ 覆盖你提出的 5 个维度的“信息核心” * ✅ 不依赖 ACF / GARCH / KPSS(先别上) * ✅ 参数少、解释性强 * ✅ 能直接接到你现在的 zscore_analysis 流程 一、MVP 设计原则(为什么要这样压缩) 我们先明确一件事: MVP 的目标不是“评估全面”,而是“防止犯致命错误” 在配对交易里,真正会一票否决一个 pair 的只有三类问题: 1. 赚不到钱(波动 < 成本) 2.

By SHI XIAOLONG

残差波动结构检测优化方案

一、优化目标与背景 1.1 当前问题诊断 基于残差波动结构检测评估报告的分析,当前 multi_coins3.py 存在以下核心问题: 现状:仅实现"协整存在性验证" * ✅ ADF 平稳性检验(第 433、479 行) * ✅ Z-score 偏离信号(第 559 行) * ❌ 未评估配对的可交易性 缺失的关键维度: | 维度 | 影响 | 缺失导致的问题 | |------|------|--------------| | 回归速度 | 资金效率 | 可能选中"回归太慢"的币种,资金周转率低 | | 波动幅度 | 盈利能力 | 可能选中"波动不覆盖手续费"的币种,

By SHI XIAOLONG

K线数据持久化 + 实时WebSocket优化方案

🎯 核心亮点:双模式数据源架构 传统模式(现有): REST API轮询 → 限流风险 + 高延迟 升级模式(新增): WebSocket实时推送 → 零限流 + 毫秒级延迟 通过集成 strong-hyperliquid-websocket 项目,实现: 1. ✅ 实时K线数据流:毫秒级延迟,无需轮询API 2. ✅ 自动持久化:WebSocket数据 → 缓冲队列 → 批量写入TimescaleDB 3. ✅ 混合数据源:历史数据用REST API,实时数据用WebSocket 4. ✅ 解决假活问题:使用增强型WebSocket管理器,确保连接稳定 一、数据库选型推荐 基于您的需求分析: 推荐方案:TimescaleDB(PostgreSQL时序扩展) 选择理由: * ✅ 时序数据专用:专为K线这类时间序列数据优化,查询性能比普通PostgreSQL提升10-100倍 * ✅ SQL兼容:完全兼容PostgreSQL,学习成本低,生态成熟 * ✅ 实时写入优化:

By SHI XIAOLONG

K线数据持久化优化方案

一、数据库选型推荐 基于您的需求分析: 推荐方案:TimescaleDB(PostgreSQL时序扩展) 选择理由: * ✅ 时序数据专用:专为K线这类时间序列数据优化,查询性能比普通PostgreSQL提升10-100倍 * ✅ SQL兼容:完全兼容PostgreSQL,学习成本低,生态成熟 * ✅ 实时写入优化:支持高并发插入,适合您的实时增量写入需求 * ✅ 时间范围查询极快:内置时间分区(hypertable),按时间查询接近O(1) * ✅ 云服务支持:Timescale Cloud 或 AWS RDS for PostgreSQL + TimescaleDB 扩展 * ✅ 数据压缩:自动压缩历史数据,节省50-90%存储空间 * ✅ Python生态完善:psycopg2/asyncpg 驱动成熟稳定 数据规模估算(您的场景): * 50个币种 × 3个时间周期(5m/1h/4h)× 180天 * 5分钟K线:288条/

By SHI XIAOLONG