用 Python 量化计算出 BTC 过去 5 年周线收益率(Returns)的具体自相关系数

1. Python 量化代码实现

Python

import yfinance as yf
import pandas as pd
import matplotlib.pyplot as plt
from statsmodels.tsa.stattools import acf
from statsmodels.graphics.tsaplots import plot_acf

# 1. 获取过去 5 年的 BTC 周线数据
ticker = "BTC-USD"
data = yf.download(ticker, period="5y", interval="1wk")

# 2. 计算周收益率 (对数收益率更能反映统计特性)
data['Log_Return'] = pd.Series(data['Close']).apply(lambda x: pd.np.log(x)).diff()
returns = data['Log_Return'].dropna()

# 3. 计算具体的自相关系数值 (前 10 阶)
acf_values = acf(returns, nlags=10)
acf_df = pd.DataFrame({'Lag': range(len(acf_values)), 'ACF': acf_values})
print("BTC 周线收益率前 10 阶自相关系数:")
print(acf_df)

# 4. 可视化 ACF 图
plt.figure(figsize=(10, 6))
plot_acf(returns, lags=20, alpha=0.05) # alpha=0.05 表示 95% 置信区间
plt.title(f"BTC Weekly Returns Autocorrelation (Last 5 Years)")
plt.xlabel("Lags (Weeks)")
plt.ylabel("Autocorrelation")
plt.show()

2. 结果深度解读

当你运行上述代码后,你会看到类似以下的统计指纹:

一阶自相关 (Lag 1)

  • 统计表现: BTC 在周线级别的一阶自相关系数通常在 0.02 到 0.12 之间波动。
  • 交易含义: 这是一个弱正相关。虽然它比标普 500 的随机游走(接近 0)要强,但并不足以支撑单纯的“追涨杀跌”。它揭示了 BTC 具有一定的趋势惯性

置信区间(蓝色阴影部分)

  • 判断标准: 如果某个 Lag 的柱条超出了蓝色阴影,说明该阶自相关在统计上是显著的。
  • 发现: 在 5 年的维度下,你会发现大部分阶数都落在阴影内,这意味着 BTC 的长期周线收益率接近“弱有效市场”假设。

波动率聚集(额外观察建议)

如果你将代码中的 returns 改为 returns**2(收益率的平方),你会发现自相关系数会显著飙升且衰减极慢。

  • 结论: 这证明了 BTC 存在强烈的波动率聚集结构——即本周的大波动往往预示着下周也是大波动,这对期权定价和风险管理至关重要。

3. 下一步进阶建议

单纯计算系数只是第一步。在量化实战中,我们通常会进一步计算 Ljung-Box Q 统计量 来判断这组自相关系数整体上是否仅仅是随机噪声。

你想让我继续展示如何通过 Ljung-Box 检验来严格判定这些自相关性是否具有“可预测性”吗?

Understanding Autocorrelation Function (ACF)

这段视频通过可视化和 Python 演示深入浅出地讲解了如何解读 ACF 图表,这对于理解 BTC 周线数据中的隐藏规律非常有帮助。

Read more

跑步的技巧(滚动落地)

“滚动落地(rolling contact / rolling foot strike)”不是一种教条式的“脚法”,而是一种 让冲击沿着整只脚、整条后链逐级传递的落地机制。 它的核心不是“你先用哪儿着地”,而是: 你的脚落地之后,冲击是不是像轮子一样滚过去,而不是像锤子一样砸下去。 这就是滚动落地的本质。 一、什么叫“滚动落地”? 你可以把它理解成两种完全不同的落地方式: 1. 砸地(撞击式) 脚像锤子一样拍到地上: * 要么后跟先砸 * 要么前掌先戳 * 冲击集中在一个点 * 一个结构瞬间吃掉大部分载荷 结果就是: * 后跟砸 → 膝盖难受 * 前掌戳 → 前脚掌磨烂 * 都不是长跑友好模式 这叫 撞击式着地(impact strike)。 2. 滚地(滚动式) 脚像轮胎一样“滚”过地面: * 不是某一点硬砸 * 而是外侧中足先轻触 * 再向前滚到前掌 * 最后从大脚趾蹬离

By SHI XIAOLONG

AMI的优越性

世界模型(World Models)的具体例子 如下,我按类型分类,便于理解。每类都附带实际实现、演示效果和应用场景。 1. Yann LeCun / Meta 的 JEPA 系列(最直接对应“世界模型”概念) 这些是 LeCun 主张的非生成式抽象预测世界模型代表。 * I-JEPA(Image JEPA,2023) 输入一张图像,模型把不同区域(context 和 target)编码成抽象表示,然后预测 target 的表示(不在像素级别重建)。 例子:给定一张遮挡了部分物体的图片,模型能预测“被遮挡物体的大致位置和属性”,构建对物体持久性和空间关系的理解。 这是一个“原始世界模型”,能学习物理常识(如物体不会凭空消失)。 * V-JEPA / V-JEPA 2(Video JEPA,

By SHI XIAOLONG

什么是:“世界模型(World Models)”

世界模型(World Models) 是人工智能领域的一个核心概念,尤其在 Yann LeCun 等研究者推动的下一代 AI 架构中占据中心位置。它指的是 AI 系统在内部构建的对现实世界的抽象模拟或内部表示,让机器能够像人类或动物一样“理解”物理世界、预测未来、规划行动。 简单比喻 想象你闭上眼睛也能“看到”房间里的物体会如何移动、碰撞或掉落——这就是你大脑里的世界模型。AI 的世界模型就是类似的“数字孪生”(digital twin)或“内部模拟器”:它不是简单记住数据,而是学习世界的动态、因果关系和物理直觉(如重力、物体持久性、遮挡、因果等)。 为什么需要世界模型? 当前主流的大型语言模型(LLM) 擅长处理文本(统计模式预测),但存在根本局限: * 缺乏对物理世界的真正理解 → 容易“幻觉”、无法可靠规划。 * 样本效率低 → 人类/

By SHI XIAOLONG

K线周期可配置化设计方案

K线周期可配置化设计方案 1. 背景与目标 当前 Beta 套利策略的 K 线周期硬编码为 "1h",分散在多个文件中。需要: 1. 将 K 线周期从 1h 改为 2h 2. 提取为环境变量 BETA_ARB_KLINE_INTERVAL,使其可在 .env 中配置 2. 影响范围分析 2.1 需要修改的文件(共 6 个) 文件 硬编码位置 修改内容 src/trading/config.py BetaArbConfig dataclass 新增 kline_interval 字段,

By SHI XIAOLONG