项目

一般

简介

0002-基金量化定投选基系统设计规约 » 历史记录 » 版本 3

Huarui Lin, 2026-04-12 14:48

1 1 Huarui Lin
---
2 2 Huarui Lin
3
**document_id:** SPEC-FUND-DCA-001
4
**version:** 1.0.0
5
**status:** Frozen (Baseline)
6
**created_date:** 2026-04-11
7
**approved_by:** Henry Lin
8
**redmine_link:** https://redmine.persys.top/projects/fund-selection-system
9
10 1 Huarui Lin
---
11
# 基金量化定投选基系统 — 最终设计规约 (v1.0)
12
> **⚠️ 机器与人工强制红线声明** 
13
> 本文档为系统的唯一业务与技术真相源。AI 必须严格按此执行,研发人员任何代码实现若与本文档冲突,一律以本文档为准。**严禁擅自修改任何参数、公式或逻辑。**
14
## 变更日志
15
| 版本 | 日期 | 变更人 | 变更内容摘要 | 审批状态 |
16
|------|------|--------|--------------|----------|
17
| v1.0.0 | 2026-04-11 | Henry Lin | 初始基线版本确立,锁定所有业务参数、引擎防火墙与工程质量红线。 | ✅ Approved |
18
---
19
## 〇、决策确认总表
20
| 编号 | 决策项 | 最终决策 |
21
|------|--------|---------|
22
| D-1 | 类型表无时间维度 | 使用最新 `fund_type` 全局过滤,工程中预留接口扩展位 |
23
| D-2 | 标签定义 | DCA 简单平均成本法,20% 止盈,150 周窗口,未达则 0 |
24
| D-3 | label=0 样本保留 | 单基金上限 `max_samples_per_fund × 0.3`(默认 50×0.3=15 条) |
25
| D-4 | 无风险利率 | 年化 2.0%,复利折算至周频 |
26
| D-5 | 增量更新 | 不采用增量,每周全量刷盘重训,MLflow 管理模型版本替换 |
27
| D-6 | 止盈贴近度特征 | 不添加,依赖现有 `dca_return` 系列特征覆盖定投浮盈信息 |
28
| D-7 | IC 计算 | 严格限制在 Time-Series Split 训练折内局部计算 |
29
## 一、数据基础
30
### 1.1 数据源 Schema
31
**净值表 `fund_net_info`**(主表):
32
| 字段 | 类型 | 说明 |
33
|------|------|------|
34
| `id` | BigInteger PK | 自增主键,清洗阶段丢弃 |
35
| `fund_id` | String(50) | 基金代码 |
36
| `cumulative_net_value` | Numeric(12,4) | 累计净值,读入后映射为 Float64 |
37
| `net_value_date` | Date | 净值日期 |
38
**基金信息表 `fund_basic_info`**(辅助表):
39
| 字段 | 类型 | 说明 |
40
|------|------|------|
41
| `fund_id` | String PK | 基金代码 |
42
| `fund_name` | String | 基金名称 |
43
| `fund_type` | String | 当前基金类型(仅快照值,无时间维度) |
44
| `create_date` | Date | 基金成立日期(仅作参考,系统以首条净值日期为实际 inception_date) |
45
**数据规模**:约 3000 万行,周频,64GB 内存。
46
### 1.2 数据处理规则
47
| 环节 | 规则 | 说明 |
48
|------|------|------|
49
| 周频聚合 | 同一 `fund_id` + 同一自然周内若存在多条记录,取该周最后一个交易日的 `cumulative_net_value`,其余丢弃 | 防止重复计数 |
50
| 类型过滤 | 一次性 JOIN `fund_basic_info`,保留白名单类型基金,后续不再变更 | 白名单类型见下方 |
51
| 建仓期剔除 | 以每只基金第一条有效净值的 `net_value_date` 为 `inception_date`,硬删前 12 周数据 | 防止建仓期净值污染波动率特征 |
52
| 缺失值填充 | 单基金内部按时间排序,前向填充;**连续缺失 > 4 周的区段直接截断**,截断后各段独立参与后续计算 | 短缺用 ffill,长缺硬切 |
53
| 异常值 | `cumulative_net_value ≤ 0` → 剔除该行;单周涨跌幅绝对值 > 50% → 该值置 NULL(不删行) | 保留时间序列连续性 |
54
| 存活期过滤 | 单基金(含所有截断段的总有效周数)< 52 周则整体剔除 | 避免信息量过少引入噪声 |
55
| 清盘基金 | 数据中断前所有有效数据完整保留,满足 52 周最低要求即纳入 | 控制幸存者偏差 |
56
**类型白名单**: 
57
`['股票型', '混合型-偏股', '混合型-灵活', 'QDII-普通股票', 'QDII-混合偏股', 'QDII-混合灵活']`
58
### 1.3 存储方案
59
- 按年份分区存储:`data/processed/net_value_YYYY.parquet`
60
- Parquet `row_group_size = 100,000`
61
- 每次全量刷新时覆盖写入,不追加
62
## 二、计算引擎架构
63 3 Huarui Lin
64 1 Huarui Lin
### 2.1 DuckDB ↔ Polars 职责防火墙
65 3 Huarui Lin
{{mermaid
66 1 Huarui Lin
graph TD
67
    subgraph 数据处理流水线
68
        A[DuckDB] -->|SQL 下推过滤| B[Arrow 单年级 ≤300万行]
69
        B --> C[Polars 计算引擎]
70
        C --> D[覆盖写回 Parquet + MLflow]
71
    end
72
    subgraph DuckDB 职责 [DuckDB 职责边界]
73
        A1[按年份提取 Parquet]
74
        A2[JOIN 类型表]
75
        A3[WHERE 条件过滤]
76
        A4[COUNT/SUM 审计统计]
77
    end
78
    subgraph Polars 职责 [Polars 职责边界]
79
        C1[rolling 滚动窗口]
80
        C2[EWM 指数加权]
81
        C3[截面 Z-Score]
82
        C4[标签生成]
83
        C5[共线性筛选]
84
    end
85
    A --- A1
86
    A --- A2
87
    A --- A3
88
    A --- A4
89
    C --- C1
90
    C --- C2
91
    C --- C3
92
    C --- C4
93
    C --- C5
94 3 Huarui Lin
}}
95
96 1 Huarui Lin
### 2.2 防火墙规则(铁律)
97
| 编号 | 规则 |
98
|------|------|
99
| FW-1 | DuckDB 仅负责 Parquet 读写、跨表 JOIN、行列过滤、聚合统计审计 |
100
| FW-2 | **严禁** DuckDB 执行滚动窗口函数,该类计算全部由 Polars 原生表达式完成 |
101
| FW-3 | DuckDB → Polars 必须按年份拆分提取,每次 Arrow 转换 ≤ 单年数据量 |
102
| FW-4 | Polars 处理完毕后按年份分区覆盖写回 Parquet |
103
| FW-5 | DuckDB 每次启动重新注册 Parquet 创建 VIEW,不维护持久化数据库状态 |
104
## 三、标签系统
105
### 3.1 标签定义
106
| 参数 | 值 | 说明 |
107
|------|-----|------|
108
| 起始点 | T 日 | T 日特征截止,T+1 日开始模拟 |
109
| 定投方式 | 等额周定投,每周归一化投入 1 元 | — |
110
| 成本计算 | 简单平均成本法 | `avg_cost = Σ(各周买入净值) / 已买入周数` |
111
| 收益率计算 | `(当前净值 - avg_cost) / avg_cost` | — |
112
| 止盈触发 | 定投累计收益率 **首次 ≥ 20%** | 触发即刻停止模拟 |
113
| 标签映射 | `150 - 耗费周数` | 值域 [1, 149] |
114
| 未达标 | 标签 = 0 | 含:150 周内未达、基金清盘中断 |
115
| 手续费 | 暂不扣除 | `config.yaml` 中预留 `deduct_fee: false` 开关 |
116
### 3.2 标签计算算法
117
**核心约束**:不使用全局 Python for 循环,采用 Polars `group_by` + NumPy 向量化并行策略。
118
```python
119
对每只基金(单次处理约 300-500 周的极小数组):
120
nav_array = [nav_0, nav_1, ..., nav_T]
121
对每个时间点 t(作为"开始定投"的候选时刻):
122
    ① 有效窗口 = nav_array[t+1 : t+151] (numpy 切片自动截断于数据末尾)
123
    ② 若有效窗口长度 < 2 → label = 0(数据不足以定投)
124
    ③ 累计成本序列:cum_cost = np.cumsum(有效窗口) / np.arange(1, len+1)
125
    ④ 当前净值序列:current = 有效窗口
126
    ⑤ DCA 收益率序列:dca_ret = (current - cum_cost) / cum_cost
127
    ⑥ 首次达标检测:mask = dca_ret >= 0.20
128
       - any(mask) 为 True → weeks = np.argmax(mask) + 1 → label = 150 - weeks
129
       - any(mask) 为 False → label = 0
130
```
131
**清盘基金处理**:NumPy 切片在数组越界时自动截断。清盘基金的有效窗口短于 150 周,若截断前未触发止盈则 `any(mask)` 为 False,标签自动为 0。**无需额外逻辑。**
132
### 3.3 样本平衡机制
133
| 样本类型 | 保留规则 |
134
|----------|---------|
135
| label > 0(正样本) | 单基金最多保留 `max_samples_per_fund`(默认 50)条,等距抽样 |
136
| label = 0(负样本) | 单基金最多保留 `max_samples_per_fund × 0.3`(默认 15)条,等距抽样 |
137
| 等距抽样方法 | `np.linspace(0, len(samples)-1, N, dtype=int)`,按时间均匀取点 |
138
## 四、特征系统
139
### 4.1 特征目录(共约 40+ 维)
140
#### A. 均值回归类
141
| 特征名 | 计算方式 | 窗口期 |
142
|--------|---------|--------|
143
| `price_vs_ma_ratio` | `nav / rolling_mean(nav, W)` | 12, 26, 52 |
144
| `price_vs_ma_ratio_ewm` | `nav / ewm_mean(nav, span=W)` | 26, 52 |
145
#### B. 波动类
146
| 特征名 | 计算方式 | 窗口期 |
147
|--------|---------|--------|
148
| `rolling_std` | `rolling_std(weekly_return, W)` | 12, 26, 52 |
149
| `downside_vol` | `rolling_std(min(weekly_return, 0), W)` | 26, 52 |
150
| `volatility_regime` | `rolling_std(12w) / rolling_std(52w)` | (12 vs 52) |
151
#### C. 趋势与动量类
152
| 特征名 | 计算方式 | 窗口期 |
153
|--------|---------|--------|
154
| `momentum` | `(nav_t / nav_{t-W}) - 1` | 4, 12, 26, 52 |
155
| `max_drawdown` | `1 - nav_t / rolling_max(nav, W)` | 26, 52 |
156
| `trend_slope` | 对 `log(nav)` 做 OLS 线性回归斜率,再年化 | 26, 52 |
157
| `trend_r_squared` | 上述回归的 R² | 26, 52 |
158
| `consecutive_down_weeks` | 从当前向前连续 `weekly_return < 0` 的周数 | — |
159
#### D. 定投特有类
160
| 特征名 | 计算方式 | 窗口期 |
161
|--------|---------|--------|
162
| `dca_cost_ratio` | `rolling_mean(nav, W) / nav`(值 <1 表示浮盈) | 12, 26, 52 |
163
| `dca_return` | `(nav - rolling_mean(nav, W)) / rolling_mean(nav, W)` | 12, 26, 52 |
164
| `dca_return_vol` | `rolling_std(dca_return 逐周序列, W)` | 26, 52 |
165
| `dca_win_rate` | `rolling_mean(dca_return > 0 转为 0/1, W)` | 26, 52 |
166
#### E. 风险调整类
167
| 特征名 | 计算方式 | 窗口期 |
168
|--------|---------|--------|
169
| `rolling_sharpe` | `(rolling_mean(weekly_ret) - weekly_rf) / rolling_std(weekly_ret) × √52` | 26, 52 |
170
| `rolling_sortino` | `(rolling_mean(weekly_ret) - weekly_rf) / rolling_std(min(weekly_ret, 0)) × √52` | 26, 52 |
171
| `calmar_ratio` | `annualized_return(W) / max_drawdown(W)` | 52 |
172
**无风险利率折算公式**: 
173
`weekly_rf = (1 + 0.02)^(1/52) - 1 ≈ 0.000381 (0.0381%)`
174
### 4.2 窗口有效值判定
175
- 对每个滚动窗口特征,计算窗口内非 NULL 值的数量
176
- 有效值 < `window_size × min_valid_ratio`(默认 0.20) → 特征值输出 NULL
177
- 示例:52 周窗口至少需要 11 个有效值(`52 × 0.2 = 10.4`,向上取整)
178
### 4.3 截面标准化(T-1 严格模式)
179
分四步严格执行:
180
1. **计算统计量**:计算每个日期截面的均值、标准差、中位数、MAD。
181
2. **时间对齐**:将统计量整体 `shift(1)`,即 T 日的标准化参数使用 T-1 日截面的统计量。**首日(数据集第一天)无 T-1 可用,该日所有标准化特征输出 NULL。**
182
3. **Z-Score**:将 shifted 统计量 Join 回主表,执行 `z_score = (raw_feature - T1_mean) / T1_std`。
183
4. **MAD 去极值**: 
184
   `median = T1 截面中位数`
185
   `mad = median(|x - median|) × 1.4826`
186
   `clip z_score to [median - 3×mad, median + 3×mad]`
187
**持久化**:每个时间截面的标准化参数独立保存为 `standardization_params.parquet`:
188
| 字段 | 类型 | 说明 |
189
|------|------|------|
190
| `date` | Date | 截面日期(即统计量的来源日期) |
191
| `feature_name` | String | 特征名 |
192
| `mean` | Float64 | 截面均值 |
193
| `std` | Float64 | 截面标准差 |
194
| `median` | Float64 | 截面中位数 |
195
| `mad` | Float64 | 截面 MAD |
196
推理时加载该文件的最新行,对输入特征做同样的 Z-Score + MAD clip。
197
### 4.4 特征共线性剔除
198
| 步骤 | 说明 |
199
|------|------|
200
| 1 | 计算所有特征间的 Pearson 相关系数矩阵 |
201
| 2 | 找出 \|r\| > 0.90 的特征对 |
202
| 3 | 对每个高相关特征对,计算各自与标签的 **Spearman Rank IC**(**仅在 Time-Series Split 的训练折内**计算,严禁跨时间窗口使用未来标签) |
203
| 4 | 保留 \|IC\| 更高的特征,剔除另一个 |
204
| 5 | 输出最终保留的特征列表,持久化为 `final_feature_list.json` |
205
## 五、模型训练
206
### 5.1 训练数据流
207
```text
208
features.parquet (按年分区)
209
       │ Polars: 读取并合并
210
211
labels.parquet
212
       │ Polars: LEFT JOIN (on fund_id + date)
213
214
train_dataset.parquet
215
schema: fund_id | date | feature_1 | ... | feature_K | label
216
```
217
缺失值处理:特征 NULL 在 LightGBM 内部自动处理(设为缺失值,树模型原生支持),不做预填充。
218
### 5.2 交叉验证
219
- 使用 `TimeSeriesSplit(n_splits=5)`
220
- **严禁** 随机 K-Fold
221
- 每一折的训练集内部独立执行:截面标准化 → 共线性筛选
222
- 验证集仅使用对应训练折产出的标准化参数
223
### 5.3 Optuna 超参搜索
224
| 参数 | 搜索范围 | 类型 |
225
|------|---------|------|
226
| `num_leaves` | [31, 511] | int |
227
| `learning_rate` | [0.01, 0.3] | log uniform |
228
| `feature_fraction` | [0.5, 1.0] | uniform |
229
| `bagging_fraction` | [0.5, 1.0] | uniform |
230
| `lambda_l1` | [0, 10] | log uniform |
231
| `lambda_l2` | [0, 10] | log uniform |
232
| `min_child_samples` | [20, 100] | int |
233
| `max_depth` | [5, 12] | int |
234
停止条件:200 次试验 或 1 小时,先到者停。
235
### 5.4 评估指标体系
236
**模型层**:
237
| 指标 | 说明 |
238
|------|------|
239
| AUC | 区分"能止盈"与"不能止盈"的能力 |
240
| NDCG@20 | Top-20 推荐的排序质量 |
241
**业务层(回测评估)**:
242
在验证集的每个时间截面 T 上:
243
1. 用模型对所有候选基金打分
244
2. 按得分分四桶:Top 20 / Top 21-50 / Top 51-100 / 其余
245
3. 每桶模拟等权周定投组合(每周投入 20 元均分到该桶基金)
246
4. 追踪组合净值,计算:
247
| 回测指标 | 说明 |
248
|----------|------|
249
| 年化收益率 | 定投组合的实际年化回报 |
250
| 最大回撤 | 组合净值的最大峰谷跌幅 |
251
| Sharpe Ratio | 风险调整后收益 |
252
| Calmar Ratio | 年化收益 / 最大回撤 |
253
| 止盈成功率 | 150 周内达到 20% 定投收益率的比例 |
254
5. 基准对照:全标的池等权随机组合的相同指标
255
### 5.5 MLflow 实验记录
256
每次训练自动记录:
257
- Optuna 最优超参数
258
- 模型层指标(AUC、NDCG)+ 业务层回测指标
259
- LightGBM 模型文件(`.txt`)
260
- `config.yaml` 快照
261
- `final_feature_list.json`
262
- `standardization_params.parquet`
263
- SHAP summary plot(图片)
264
- 各分桶回测净值曲线(图片)
265
模型通过 MLflow Model Registry 管理,新模型打 `Production` 标签后直接替换推理服务加载的模型版本,旧版本归档至 `Archived`。
266
## 六、推理服务
267
### 6.1 输入输出
268
| 场景 | 输入 | 输出 |
269
|------|------|------|
270
| 单基金查询 | 单只基金近期周频净值 CSV(≥52 周) | 推荐得分(0-100)、Top5 正/负贡献特征、决策建议文本 |
271
| 批量推荐 | 基金代码列表 + 最新净值数据 | 排序后的推荐 DataFrame(fund_id, score, top_features, recommendation) |
272
### 6.2 推理流程
273
```text
274
输入净值 → Polars 读入
275
276
特征计算(复用 Module3 逻辑,单基金精简版)
277
278
加载 standardization_params.parquet(最新一周参数)
279
280
T-1 参数做 Z-Score + MAD clip
281
282
加载 LightGBM Production 模型 → 预测概率
283
284
score = round(概率 × 100) → 0-100 整数分
285
286
SHAP TreeExplainer → 单样本特征归因
287
288
输出:得分 + Top5正向特征 + Top5负向特征 + 决策建议文本
289
```
290
### 6.3 决策建议文本生成规则
291
| 得分区间 | 建议等级 | 文案模板 |
292
|----------|---------|---------|
293
| 80-100 | 强烈推荐定投 | "该基金趋势强劲、波动适中,定投体验优异,建议立即开始定投" |
294
| 60-79 | 推荐定投 | "该基金整体特征良好,建议关注并适时开始定投" |
295
| 40-59 | 中性观望 | "该基金部分特征达标,建议持续关注,等待更好的定投入场时机" |
296
| 0-39 | 不推荐 | "该基金当前特征不佳(主要受XX拖累),建议暂缓定投" |
297
具体文案需拼接该基金的 Top 贡献特征名。
298
## 七、工程质量规范
299
### 7.1 目录结构
300
```text
301
project-root/
302
├── pyproject.toml
303
├── config/
304
│   └── config.yaml
305
├── data/
306
│   ├── raw/                # 原始 CSV / Parquet
307
│   ├── processed/          # 清洗后 Parquet(按年分区)
308
│   ├── features/           # 特征矩阵 Parquet(按年分区)
309
│   ├── models/             # 模型文件 & 标准化参数
310
│   └── metadata/           # SHA-256 hash 校验文件
311
├── src/
312
│   ├── __init__.py
313
│   ├── utils/
314
│   │   ├── __init__.py
315
│   │   ├── config.py       # YAML 配置加载器
316
│   │   ├── logging.py      # 结构化日志配置
317
│   │   └── hash.py         # SHA-256 数据血缘校验
318
│   ├── data_loader.py      # 数据清洗与入库
319
│   ├── feature_engineering.py # 特征计算引擎
320
│   ├── label_generator.py  # 标签生成器
321
│   ├── trainer.py          # 模型训练与评估
322
│   └── inference.py        # 推理服务
323
├── tests/
324
│   ├── test_label_generator.py
325
│   └── test_feature_engineering.py
326
├── mlruns/                 # MLflow 实验追踪
327
└── logs/                   # 运行日志
328
```
329
### 7.2 配置与代码分离
330
所有硬参数集中在 `config.yaml`,代码中严禁魔法数字。核心参数分区如下:
331
```yaml
332
# === 标签参数 ===
333
label:
334
  target_return: 0.20
335
  max_weeks: 150
336
  deduction_method: "simple_avg" # 预留: "irr"
337
  deduct_fee: false
338
  purchase_fee_rate: 0.0012
339
# === 数据过滤 ===
340
filter:
341
  fund_type_whitelist:
342
    - "股票型"
343
    - "混合型-偏股"
344
    - "混合型-灵活"
345
    - "QDII-普通股票"
346
    - "QDII-混合偏股"
347
    - "QDII-混合灵活"
348
  min_net_value_weeks: 52
349
  building_period_weeks: 12
350
  max_gap_weeks: 4
351
  single_week_change_limit: 0.50
352
# === 特征参数 ===
353
feature:
354
  windows:
355
    mean_reversion: [12, 26, 52]
356
    volatility: [12, 26, 52]
357
    momentum: [4, 12, 26, 52]
358
    trend: [26, 52]
359
    dca_specific: [12, 26, 52]
360
    risk_adjusted: [26, 52]
361
  min_valid_ratio: 0.20
362
  outlier_method: "mad"
363
  outlier_bound: 3.0
364
# === 截面标准化 ===
365
standardization:
366
  method: "zscore"
367
  use_shift_1: true # 使用 T-1 截面统计量
368
# === 样本平衡 ===
369
sample_balance:
370
  max_samples_per_fund: 50
371
  zero_label_ratio: 0.3 # label=0 的上限比例
372
# === 模型训练 ===
373
model:
374
  time_series_n_splits: 5
375
  optuna_budget: 200
376
  optuna_timeout_hours: 1
377
# === 风险 ===
378
risk_free_rate:
379
  annual: 0.02
380
```
381
### 7.3 数据血缘
382
| 检查对象 | 算法 | 存储位置 | 触发时机 |
383
|----------|------|---------|---------|
384
| 原始数据文件 | SHA-256 | `data/metadata/raw_hash.json` | 数据入库前 |
385
| 清洗后 Parquet | SHA-256(按文件) | `data/metadata/processed_hash.json` | 清洗完成后 |
386
| 特征矩阵 Parquet | SHA-256(按文件) | `data/metadata/features_hash.json` | 特征计算完成后 |
387
| `config.yaml` | SHA-256 | MLflow artifact | 每次训练开始时 |
388
Pipeline 启动时自动校验上游 hash,不匹配则输出 WARNING 日志但不中断流程。
389
### 7.4 工程约束
390
| 约束 | 说明 |
391
|------|------|
392
| 禁止 Pandas | 仅允许 LightGBM `.fit()` 内部隐式调用 |
393
| 类型提示 | 所有自定义函数必须有 Python Type Hints |
394
| 日志 | 核心数据处理环节必须记录运行状态与耗时 |
395
| 异常处理 | 关键步骤 try-except 防止单点故障导致全流程崩溃 |
396
| 单元测试 | `label_generator` 必须覆盖全部 7 个场景(见第九节) |
397
| 特征存储 | 严禁 Pivot 成宽表,始终保持长表形态 |
398
## 八、实施路线图
399
按以下 6 个 Step 逐步交付,每步确认后再推进:
400
| Step | 模块 | 交付物 | 依赖 |
401
|------|------|--------|------|
402
| **1** | 工程脚手架 | `pyproject.toml`、目录树、`config.yaml`、`config.py`、`logging.py`、`hash.py` | 无 |
403
| **2** | 数据基建与入库 | `data_loader.py` + 清洗后的按年 Parquet + DuckDB VIEW + 数据质量审计日志 | Step 1 |
404
| **3** | 特征工程引擎 | `feature_engineering.py` + `features.parquet` + `standardization_params.parquet` + `final_feature_list.json` | Step 2 |
405
| **4** | 标签生成器 | `label_generator.py` + `labels.parquet` + `test_label_generator.py` | Step 2 |
406
| **5** | 模型训练与评估 | `trainer.py` + 模型文件 + 回测报告 + SHAP 图 + MLflow 记录 | Step 3 + Step 4 |
407
| **6** | 推理服务 | `inference.py`(单基金 + 批量) | Step 3 + Step 5 |
408
> **注**:Step 3 和 Step 4 无相互依赖,可并行开发。但在流水线执行中,Step 4 的标签需要 Join 到 Step 3 的特征表,所以最终训练集的生成依赖两者都完成。
409
## 九、单元测试必覆盖场景
410
`tests/test_label_generator.py` 必须完整覆盖以下 7 个场景:
411
| 编号 | 测试场景 | 输入条件 | 期望输出 |
412
|------|---------|---------|---------|
413
| 1 | 正常止盈 | 净值从 1.0 经 N 周涨到触发 20% DCA 收益率 | `label = 150 - N` |
414
| 2 | 150周未达 | 净值缓慢增长,150 周内 DCA 收益率始终 < 20% | `label = 0` |
415
| 3 | 清盘截断 | 净值开始定投后,60 周时数据中断,期间未达 20% | `label = 0` |
416
| 4 | 清盘前止盈 | 净值在 30 周达标,第 50 周数据中断 | `label = 120` |
417
| 5 | 精确边界 | 第 1 周净值即满足 20% 收益(防御性测试) | `label = 149` |
418
| 6 | 全亏损路径 | 净值从 1.0 持续下跌到 0.5 | `label = 0` |
419
| 7 | 建仓期后首周 | 数据恰好从第 13 周开始(前 12 周已被 Module2 剔除) | 正常生成标签,不报错 |