代码实现 BTC vs 美股(SPY)对比收益率自相关性

对比四件事:

  • |rₜ| 自相关(波动聚集)
  • rₜ² 的 ARCH / GARCH 结构
  • Realized Volatility 的长记忆
  • 低频收益(周 / 月)的趋势性

特点

  • 只依赖 yfinance + numpy + pandas + statsmodels + arch
  • 不做花哨回测,只做统计证据
  • BTC vs 美股(SPY)对照

一、环境依赖

pip install yfinance numpy pandas statsmodels arch scipy

二、数据获取(BTC vs SPY)

import yfinance as yf
import numpy as np
import pandas as pd

def get_returns(ticker, start="2018-01-01"):
    df = yf.download(ticker, start=start, progress=False)
    px = df["Adj Close"].dropna()
    ret = np.log(px).diff().dropna()
    return ret

btc_ret = get_returns("BTC-USD")
spy_ret = get_returns("SPY")

三、1️⃣ |rₜ| 的自相关(波动聚集)

from statsmodels.tsa.stattools import acf

def acf_summary(series, nlags=50):
    return acf(series, nlags=nlags, fft=True)

btc_abs_acf = acf_summary(np.abs(btc_ret))
spy_abs_acf = acf_summary(np.abs(spy_ret))

print("BTC |r_t| ACF (first 10 lags):", btc_abs_acf[:10])
print("SPY |r_t| ACF (first 10 lags):", spy_abs_acf[:10])

你会看到:

  • BTC:缓慢衰减,10–20 lag 仍明显 > 0
  • SPY:5–10 lag 内迅速贴近 0

👉 这是你表中 “非常强 | 波动率聚集” 的第一条证据。


四、2️⃣ rₜ² 的 ARCH / GARCH 结构

1. Ljung–Box(检验是否白噪声)

from statsmodels.stats.diagnostic import acorr_ljungbox

lb_btc = acorr_ljungbox(btc_ret**2, lags=[10, 20], return_df=True)
lb_spy = acorr_ljungbox(spy_ret**2, lags=[10, 20], return_df=True)

print("BTC r^2 Ljung-Box:\n", lb_btc)
print("SPY r^2 Ljung-Box:\n", lb_spy)

BTC 的 p-value 通常 接近 0,SPY 明显更弱。


2. GARCH 参数对比

from arch import arch_model

def fit_garch(ret):
    model = arch_model(ret * 100, vol="Garch", p=1, q=1, dist="normal")
    res = model.fit(disp="off")
    return res

btc_garch = fit_garch(btc_ret)
spy_garch = fit_garch(spy_ret)

print("BTC GARCH params:\n", btc_garch.params)
print("SPY GARCH params:\n", spy_garch.params)

重点看:

alpha_beta_btc = btc_garch.params["alpha[1]"] + btc_garch.params["beta[1]"]
alpha_beta_spy = spy_garch.params["alpha[1]"] + spy_garch.params["beta[1]"]

print("BTC α+β =", alpha_beta_btc)
print("SPY α+β =", alpha_beta_spy)

典型结果:

  • BTC:α + β ≈ 0.95 – 1.0
  • SPY:α + β ≈ 0.85 – 0.9

👉 这就是 “BTC 接近 IGARCH” 的实证体现。


五、3️⃣ Realized Volatility 的长记忆(Hurst)

yfinance 没有分钟数据,但我们可以用 日内平方收益近似 做一个简化版本。

1. 构造 RV(滚动)

def realized_volatility(ret, window=5):
    return (ret**2).rolling(window).sum().dropna()

btc_rv = realized_volatility(btc_ret, window=5)
spy_rv = realized_volatility(spy_ret, window=5)

2. Hurst 指数估计(R/S)

from scipy.stats import linregress

def hurst_exponent(ts):
    lags = range(2, 50)
    tau = [np.std(ts.diff(lag).dropna()) for lag in lags]
    slope, _, _, _, _ = linregress(np.log(lags), np.log(tau))
    return slope

print("BTC RV Hurst:", hurst_exponent(btc_rv))
print("SPY RV Hurst:", hurst_exponent(spy_rv))

经验结果:

  • BTC:H ≈ 0.7–0.85
  • SPY:H ≈ 0.55–0.65

👉 对应你表里的 “Realized volatility | 长记忆”


六、4️⃣ 低频收益(周 / 月)趋势性

1. 聚合收益

btc_weekly = btc_ret.resample("W").sum()
spy_weekly = spy_ret.resample("W").sum()

btc_monthly = btc_ret.resample("M").sum()
spy_monthly = spy_ret.resample("M").sum()

2. 一阶自相关

def lag1_corr(series):
    return series.autocorr(lag=1)

print("BTC weekly autocorr:", lag1_corr(btc_weekly))
print("SPY weekly autocorr:", lag1_corr(spy_weekly))

print("BTC monthly autocorr:", lag1_corr(btc_monthly))
print("SPY monthly autocorr:", lag1_corr(spy_monthly))

常见现象:

  • BTC:显著正相关
  • SPY:弱正或接近 0

3. 最简单的动量 t-stat

def momentum_tstat(series):
    mean = series.mean()
    std = series.std()
    n = len(series)
    return mean / (std / np.sqrt(n))

print("BTC monthly momentum t:", momentum_tstat(btc_monthly))
print("SPY monthly momentum t:", momentum_tstat(spy_monthly))

👉 你会看到 BTC 在低频上的 t-stat 明显更高


七、把“实证结果”映射回你那张表

序列实证证据
|rₜ|ACF 缓慢衰减
rₜ²Ljung–Box 拒绝 + α+β≈1
RVHurst > 0.7
周/月收益正自相关 + 动量 t-stat

八、专业提醒(很重要)

  1. 不要用 rₜ 的 ACF 否定 BTC 的可预测性
  2. 所有可利用信号都在“状态变量”而非“方向变量”
  3. 这套框架是:
    • 研究级验证
    • 不是直接盈利策略

Read more

跑步的技巧(滚动落地)

“滚动落地(rolling contact / rolling foot strike)”不是一种教条式的“脚法”,而是一种 让冲击沿着整只脚、整条后链逐级传递的落地机制。 它的核心不是“你先用哪儿着地”,而是: 你的脚落地之后,冲击是不是像轮子一样滚过去,而不是像锤子一样砸下去。 这就是滚动落地的本质。 一、什么叫“滚动落地”? 你可以把它理解成两种完全不同的落地方式: 1. 砸地(撞击式) 脚像锤子一样拍到地上: * 要么后跟先砸 * 要么前掌先戳 * 冲击集中在一个点 * 一个结构瞬间吃掉大部分载荷 结果就是: * 后跟砸 → 膝盖难受 * 前掌戳 → 前脚掌磨烂 * 都不是长跑友好模式 这叫 撞击式着地(impact strike)。 2. 滚地(滚动式) 脚像轮胎一样“滚”过地面: * 不是某一点硬砸 * 而是外侧中足先轻触 * 再向前滚到前掌 * 最后从大脚趾蹬离

By SHI XIAOLONG

AMI的优越性

世界模型(World Models)的具体例子 如下,我按类型分类,便于理解。每类都附带实际实现、演示效果和应用场景。 1. Yann LeCun / Meta 的 JEPA 系列(最直接对应“世界模型”概念) 这些是 LeCun 主张的非生成式抽象预测世界模型代表。 * I-JEPA(Image JEPA,2023) 输入一张图像,模型把不同区域(context 和 target)编码成抽象表示,然后预测 target 的表示(不在像素级别重建)。 例子:给定一张遮挡了部分物体的图片,模型能预测“被遮挡物体的大致位置和属性”,构建对物体持久性和空间关系的理解。 这是一个“原始世界模型”,能学习物理常识(如物体不会凭空消失)。 * V-JEPA / V-JEPA 2(Video JEPA,

By SHI XIAOLONG

什么是:“世界模型(World Models)”

世界模型(World Models) 是人工智能领域的一个核心概念,尤其在 Yann LeCun 等研究者推动的下一代 AI 架构中占据中心位置。它指的是 AI 系统在内部构建的对现实世界的抽象模拟或内部表示,让机器能够像人类或动物一样“理解”物理世界、预测未来、规划行动。 简单比喻 想象你闭上眼睛也能“看到”房间里的物体会如何移动、碰撞或掉落——这就是你大脑里的世界模型。AI 的世界模型就是类似的“数字孪生”(digital twin)或“内部模拟器”:它不是简单记住数据,而是学习世界的动态、因果关系和物理直觉(如重力、物体持久性、遮挡、因果等)。 为什么需要世界模型? 当前主流的大型语言模型(LLM) 擅长处理文本(统计模式预测),但存在根本局限: * 缺乏对物理世界的真正理解 → 容易“幻觉”、无法可靠规划。 * 样本效率低 → 人类/

By SHI XIAOLONG

K线周期可配置化设计方案

K线周期可配置化设计方案 1. 背景与目标 当前 Beta 套利策略的 K 线周期硬编码为 "1h",分散在多个文件中。需要: 1. 将 K 线周期从 1h 改为 2h 2. 提取为环境变量 BETA_ARB_KLINE_INTERVAL,使其可在 .env 中配置 2. 影响范围分析 2.1 需要修改的文件(共 6 个) 文件 硬编码位置 修改内容 src/trading/config.py BetaArbConfig dataclass 新增 kline_interval 字段,

By SHI XIAOLONG