项目

一般

简介

0002-基金量化定投选基系统设计规约 » 历史记录 » 版本 5

Huarui Lin, 2026-04-12 14:52

1 1 Huarui Lin
---
2 2 Huarui Lin
3
**document_id:** SPEC-FUND-DCA-001
4
**version:** 1.0.0
5
**status:** Frozen (Baseline)
6
**created_date:** 2026-04-11
7
**approved_by:** Henry Lin
8
**redmine_link:** https://redmine.persys.top/projects/fund-selection-system
9
10 1 Huarui Lin
---
11
# 基金量化定投选基系统 — 最终设计规约 (v1.0)
12
> **⚠️ 机器与人工强制红线声明** 
13
> 本文档为系统的唯一业务与技术真相源。AI 必须严格按此执行,研发人员任何代码实现若与本文档冲突,一律以本文档为准。**严禁擅自修改任何参数、公式或逻辑。**
14
## 变更日志
15
| 版本 | 日期 | 变更人 | 变更内容摘要 | 审批状态 |
16
|------|------|--------|--------------|----------|
17
| v1.0.0 | 2026-04-11 | Henry Lin | 初始基线版本确立,锁定所有业务参数、引擎防火墙与工程质量红线。 | ✅ Approved |
18
---
19
## 〇、决策确认总表
20
| 编号 | 决策项 | 最终决策 |
21
|------|--------|---------|
22
| D-1 | 类型表无时间维度 | 使用最新 `fund_type` 全局过滤,工程中预留接口扩展位 |
23
| D-2 | 标签定义 | DCA 简单平均成本法,20% 止盈,150 周窗口,未达则 0 |
24
| D-3 | label=0 样本保留 | 单基金上限 `max_samples_per_fund × 0.3`(默认 50×0.3=15 条) |
25
| D-4 | 无风险利率 | 年化 2.0%,复利折算至周频 |
26
| D-5 | 增量更新 | 不采用增量,每周全量刷盘重训,MLflow 管理模型版本替换 |
27
| D-6 | 止盈贴近度特征 | 不添加,依赖现有 `dca_return` 系列特征覆盖定投浮盈信息 |
28
| D-7 | IC 计算 | 严格限制在 Time-Series Split 训练折内局部计算 |
29
## 一、数据基础
30
### 1.1 数据源 Schema
31
**净值表 `fund_net_info`**(主表):
32
| 字段 | 类型 | 说明 |
33
|------|------|------|
34
| `id` | BigInteger PK | 自增主键,清洗阶段丢弃 |
35
| `fund_id` | String(50) | 基金代码 |
36
| `cumulative_net_value` | Numeric(12,4) | 累计净值,读入后映射为 Float64 |
37
| `net_value_date` | Date | 净值日期 |
38
**基金信息表 `fund_basic_info`**(辅助表):
39
| 字段 | 类型 | 说明 |
40
|------|------|------|
41
| `fund_id` | String PK | 基金代码 |
42
| `fund_name` | String | 基金名称 |
43
| `fund_type` | String | 当前基金类型(仅快照值,无时间维度) |
44
| `create_date` | Date | 基金成立日期(仅作参考,系统以首条净值日期为实际 inception_date) |
45
**数据规模**:约 3000 万行,周频,64GB 内存。
46
### 1.2 数据处理规则
47
| 环节 | 规则 | 说明 |
48
|------|------|------|
49
| 周频聚合 | 同一 `fund_id` + 同一自然周内若存在多条记录,取该周最后一个交易日的 `cumulative_net_value`,其余丢弃 | 防止重复计数 |
50
| 类型过滤 | 一次性 JOIN `fund_basic_info`,保留白名单类型基金,后续不再变更 | 白名单类型见下方 |
51
| 建仓期剔除 | 以每只基金第一条有效净值的 `net_value_date` 为 `inception_date`,硬删前 12 周数据 | 防止建仓期净值污染波动率特征 |
52
| 缺失值填充 | 单基金内部按时间排序,前向填充;**连续缺失 > 4 周的区段直接截断**,截断后各段独立参与后续计算 | 短缺用 ffill,长缺硬切 |
53
| 异常值 | `cumulative_net_value ≤ 0` → 剔除该行;单周涨跌幅绝对值 > 50% → 该值置 NULL(不删行) | 保留时间序列连续性 |
54
| 存活期过滤 | 单基金(含所有截断段的总有效周数)< 52 周则整体剔除 | 避免信息量过少引入噪声 |
55
| 清盘基金 | 数据中断前所有有效数据完整保留,满足 52 周最低要求即纳入 | 控制幸存者偏差 |
56
**类型白名单**: 
57
`['股票型', '混合型-偏股', '混合型-灵活', 'QDII-普通股票', 'QDII-混合偏股', 'QDII-混合灵活']`
58
### 1.3 存储方案
59
- 按年份分区存储:`data/processed/net_value_YYYY.parquet`
60
- Parquet `row_group_size = 100,000`
61
- 每次全量刷新时覆盖写入,不追加
62
## 二、计算引擎架构
63 3 Huarui Lin
64 1 Huarui Lin
### 2.1 DuckDB ↔ Polars 职责防火墙
65 3 Huarui Lin
{{mermaid
66 5 Huarui Lin
graph TD
67
    subgraph s1 ["数据处理流水线"]
68 1 Huarui Lin
        A[DuckDB] -->|SQL 下推过滤| B[Arrow 单年级 ≤300万行]
69
        B --> C[Polars 计算引擎]
70
        C --> D[覆盖写回 Parquet + MLflow]
71
    end
72 5 Huarui Lin
    subgraph s2 ["DuckDB 职责边界"]
73 1 Huarui Lin
        A1[按年份提取 Parquet]
74
        A2[JOIN 类型表]
75
        A3[WHERE 条件过滤]
76
        A4[COUNT/SUM 审计统计]
77
    end
78 5 Huarui Lin
    subgraph s3 ["Polars 职责边界"]
79 1 Huarui Lin
        C1[rolling 滚动窗口]
80
        C2[EWM 指数加权]
81
        C3[截面 Z-Score]
82
        C4[标签生成]
83
        C5[共线性筛选]
84
    end
85
    A --- A1
86
    A --- A2
87
    A --- A3
88
    A --- A4
89
    C --- C1
90
    C --- C2
91
    C --- C3
92
    C --- C4
93
    C --- C5
94
}}
95 5 Huarui Lin
96 3 Huarui Lin
97 1 Huarui Lin
### 2.2 防火墙规则(铁律)
98
| 编号 | 规则 |
99
|------|------|
100
| FW-1 | DuckDB 仅负责 Parquet 读写、跨表 JOIN、行列过滤、聚合统计审计 |
101
| FW-2 | **严禁** DuckDB 执行滚动窗口函数,该类计算全部由 Polars 原生表达式完成 |
102
| FW-3 | DuckDB → Polars 必须按年份拆分提取,每次 Arrow 转换 ≤ 单年数据量 |
103
| FW-4 | Polars 处理完毕后按年份分区覆盖写回 Parquet |
104
| FW-5 | DuckDB 每次启动重新注册 Parquet 创建 VIEW,不维护持久化数据库状态 |
105
## 三、标签系统
106
### 3.1 标签定义
107
| 参数 | 值 | 说明 |
108
|------|-----|------|
109
| 起始点 | T 日 | T 日特征截止,T+1 日开始模拟 |
110
| 定投方式 | 等额周定投,每周归一化投入 1 元 | — |
111
| 成本计算 | 简单平均成本法 | `avg_cost = Σ(各周买入净值) / 已买入周数` |
112
| 收益率计算 | `(当前净值 - avg_cost) / avg_cost` | — |
113
| 止盈触发 | 定投累计收益率 **首次 ≥ 20%** | 触发即刻停止模拟 |
114
| 标签映射 | `150 - 耗费周数` | 值域 [1, 149] |
115
| 未达标 | 标签 = 0 | 含:150 周内未达、基金清盘中断 |
116
| 手续费 | 暂不扣除 | `config.yaml` 中预留 `deduct_fee: false` 开关 |
117
### 3.2 标签计算算法
118
**核心约束**:不使用全局 Python for 循环,采用 Polars `group_by` + NumPy 向量化并行策略。
119
```python
120
对每只基金(单次处理约 300-500 周的极小数组):
121
nav_array = [nav_0, nav_1, ..., nav_T]
122
对每个时间点 t(作为"开始定投"的候选时刻):
123
    ① 有效窗口 = nav_array[t+1 : t+151] (numpy 切片自动截断于数据末尾)
124
    ② 若有效窗口长度 < 2 → label = 0(数据不足以定投)
125
    ③ 累计成本序列:cum_cost = np.cumsum(有效窗口) / np.arange(1, len+1)
126
    ④ 当前净值序列:current = 有效窗口
127
    ⑤ DCA 收益率序列:dca_ret = (current - cum_cost) / cum_cost
128
    ⑥ 首次达标检测:mask = dca_ret >= 0.20
129
       - any(mask) 为 True → weeks = np.argmax(mask) + 1 → label = 150 - weeks
130
       - any(mask) 为 False → label = 0
131
```
132
**清盘基金处理**:NumPy 切片在数组越界时自动截断。清盘基金的有效窗口短于 150 周,若截断前未触发止盈则 `any(mask)` 为 False,标签自动为 0。**无需额外逻辑。**
133
### 3.3 样本平衡机制
134
| 样本类型 | 保留规则 |
135
|----------|---------|
136
| label > 0(正样本) | 单基金最多保留 `max_samples_per_fund`(默认 50)条,等距抽样 |
137
| label = 0(负样本) | 单基金最多保留 `max_samples_per_fund × 0.3`(默认 15)条,等距抽样 |
138
| 等距抽样方法 | `np.linspace(0, len(samples)-1, N, dtype=int)`,按时间均匀取点 |
139
## 四、特征系统
140
### 4.1 特征目录(共约 40+ 维)
141
#### A. 均值回归类
142
| 特征名 | 计算方式 | 窗口期 |
143
|--------|---------|--------|
144
| `price_vs_ma_ratio` | `nav / rolling_mean(nav, W)` | 12, 26, 52 |
145
| `price_vs_ma_ratio_ewm` | `nav / ewm_mean(nav, span=W)` | 26, 52 |
146
#### B. 波动类
147
| 特征名 | 计算方式 | 窗口期 |
148
|--------|---------|--------|
149
| `rolling_std` | `rolling_std(weekly_return, W)` | 12, 26, 52 |
150
| `downside_vol` | `rolling_std(min(weekly_return, 0), W)` | 26, 52 |
151
| `volatility_regime` | `rolling_std(12w) / rolling_std(52w)` | (12 vs 52) |
152
#### C. 趋势与动量类
153
| 特征名 | 计算方式 | 窗口期 |
154
|--------|---------|--------|
155
| `momentum` | `(nav_t / nav_{t-W}) - 1` | 4, 12, 26, 52 |
156
| `max_drawdown` | `1 - nav_t / rolling_max(nav, W)` | 26, 52 |
157
| `trend_slope` | 对 `log(nav)` 做 OLS 线性回归斜率,再年化 | 26, 52 |
158
| `trend_r_squared` | 上述回归的 R² | 26, 52 |
159
| `consecutive_down_weeks` | 从当前向前连续 `weekly_return < 0` 的周数 | — |
160
#### D. 定投特有类
161
| 特征名 | 计算方式 | 窗口期 |
162
|--------|---------|--------|
163
| `dca_cost_ratio` | `rolling_mean(nav, W) / nav`(值 <1 表示浮盈) | 12, 26, 52 |
164
| `dca_return` | `(nav - rolling_mean(nav, W)) / rolling_mean(nav, W)` | 12, 26, 52 |
165
| `dca_return_vol` | `rolling_std(dca_return 逐周序列, W)` | 26, 52 |
166
| `dca_win_rate` | `rolling_mean(dca_return > 0 转为 0/1, W)` | 26, 52 |
167
#### E. 风险调整类
168
| 特征名 | 计算方式 | 窗口期 |
169
|--------|---------|--------|
170
| `rolling_sharpe` | `(rolling_mean(weekly_ret) - weekly_rf) / rolling_std(weekly_ret) × √52` | 26, 52 |
171
| `rolling_sortino` | `(rolling_mean(weekly_ret) - weekly_rf) / rolling_std(min(weekly_ret, 0)) × √52` | 26, 52 |
172
| `calmar_ratio` | `annualized_return(W) / max_drawdown(W)` | 52 |
173
**无风险利率折算公式**: 
174
`weekly_rf = (1 + 0.02)^(1/52) - 1 ≈ 0.000381 (0.0381%)`
175
### 4.2 窗口有效值判定
176
- 对每个滚动窗口特征,计算窗口内非 NULL 值的数量
177
- 有效值 < `window_size × min_valid_ratio`(默认 0.20) → 特征值输出 NULL
178
- 示例:52 周窗口至少需要 11 个有效值(`52 × 0.2 = 10.4`,向上取整)
179
### 4.3 截面标准化(T-1 严格模式)
180
分四步严格执行:
181
1. **计算统计量**:计算每个日期截面的均值、标准差、中位数、MAD。
182
2. **时间对齐**:将统计量整体 `shift(1)`,即 T 日的标准化参数使用 T-1 日截面的统计量。**首日(数据集第一天)无 T-1 可用,该日所有标准化特征输出 NULL。**
183
3. **Z-Score**:将 shifted 统计量 Join 回主表,执行 `z_score = (raw_feature - T1_mean) / T1_std`。
184
4. **MAD 去极值**: 
185
   `median = T1 截面中位数`
186
   `mad = median(|x - median|) × 1.4826`
187
   `clip z_score to [median - 3×mad, median + 3×mad]`
188
**持久化**:每个时间截面的标准化参数独立保存为 `standardization_params.parquet`:
189
| 字段 | 类型 | 说明 |
190
|------|------|------|
191
| `date` | Date | 截面日期(即统计量的来源日期) |
192
| `feature_name` | String | 特征名 |
193
| `mean` | Float64 | 截面均值 |
194
| `std` | Float64 | 截面标准差 |
195
| `median` | Float64 | 截面中位数 |
196
| `mad` | Float64 | 截面 MAD |
197
推理时加载该文件的最新行,对输入特征做同样的 Z-Score + MAD clip。
198
### 4.4 特征共线性剔除
199
| 步骤 | 说明 |
200
|------|------|
201
| 1 | 计算所有特征间的 Pearson 相关系数矩阵 |
202
| 2 | 找出 \|r\| > 0.90 的特征对 |
203
| 3 | 对每个高相关特征对,计算各自与标签的 **Spearman Rank IC**(**仅在 Time-Series Split 的训练折内**计算,严禁跨时间窗口使用未来标签) |
204
| 4 | 保留 \|IC\| 更高的特征,剔除另一个 |
205
| 5 | 输出最终保留的特征列表,持久化为 `final_feature_list.json` |
206
## 五、模型训练
207
### 5.1 训练数据流
208
```text
209
features.parquet (按年分区)
210
       │ Polars: 读取并合并
211
212
labels.parquet
213
       │ Polars: LEFT JOIN (on fund_id + date)
214
215
train_dataset.parquet
216
schema: fund_id | date | feature_1 | ... | feature_K | label
217
```
218
缺失值处理:特征 NULL 在 LightGBM 内部自动处理(设为缺失值,树模型原生支持),不做预填充。
219
### 5.2 交叉验证
220
- 使用 `TimeSeriesSplit(n_splits=5)`
221
- **严禁** 随机 K-Fold
222
- 每一折的训练集内部独立执行:截面标准化 → 共线性筛选
223
- 验证集仅使用对应训练折产出的标准化参数
224
### 5.3 Optuna 超参搜索
225
| 参数 | 搜索范围 | 类型 |
226
|------|---------|------|
227
| `num_leaves` | [31, 511] | int |
228
| `learning_rate` | [0.01, 0.3] | log uniform |
229
| `feature_fraction` | [0.5, 1.0] | uniform |
230
| `bagging_fraction` | [0.5, 1.0] | uniform |
231
| `lambda_l1` | [0, 10] | log uniform |
232
| `lambda_l2` | [0, 10] | log uniform |
233
| `min_child_samples` | [20, 100] | int |
234
| `max_depth` | [5, 12] | int |
235
停止条件:200 次试验 或 1 小时,先到者停。
236
### 5.4 评估指标体系
237
**模型层**:
238
| 指标 | 说明 |
239
|------|------|
240
| AUC | 区分"能止盈"与"不能止盈"的能力 |
241
| NDCG@20 | Top-20 推荐的排序质量 |
242
**业务层(回测评估)**:
243
在验证集的每个时间截面 T 上:
244
1. 用模型对所有候选基金打分
245
2. 按得分分四桶:Top 20 / Top 21-50 / Top 51-100 / 其余
246
3. 每桶模拟等权周定投组合(每周投入 20 元均分到该桶基金)
247
4. 追踪组合净值,计算:
248
| 回测指标 | 说明 |
249
|----------|------|
250
| 年化收益率 | 定投组合的实际年化回报 |
251
| 最大回撤 | 组合净值的最大峰谷跌幅 |
252
| Sharpe Ratio | 风险调整后收益 |
253
| Calmar Ratio | 年化收益 / 最大回撤 |
254
| 止盈成功率 | 150 周内达到 20% 定投收益率的比例 |
255
5. 基准对照:全标的池等权随机组合的相同指标
256
### 5.5 MLflow 实验记录
257
每次训练自动记录:
258
- Optuna 最优超参数
259
- 模型层指标(AUC、NDCG)+ 业务层回测指标
260
- LightGBM 模型文件(`.txt`)
261
- `config.yaml` 快照
262
- `final_feature_list.json`
263
- `standardization_params.parquet`
264
- SHAP summary plot(图片)
265
- 各分桶回测净值曲线(图片)
266
模型通过 MLflow Model Registry 管理,新模型打 `Production` 标签后直接替换推理服务加载的模型版本,旧版本归档至 `Archived`。
267
## 六、推理服务
268
### 6.1 输入输出
269
| 场景 | 输入 | 输出 |
270
|------|------|------|
271
| 单基金查询 | 单只基金近期周频净值 CSV(≥52 周) | 推荐得分(0-100)、Top5 正/负贡献特征、决策建议文本 |
272
| 批量推荐 | 基金代码列表 + 最新净值数据 | 排序后的推荐 DataFrame(fund_id, score, top_features, recommendation) |
273
### 6.2 推理流程
274
```text
275
输入净值 → Polars 读入
276
277
特征计算(复用 Module3 逻辑,单基金精简版)
278
279
加载 standardization_params.parquet(最新一周参数)
280
281
T-1 参数做 Z-Score + MAD clip
282
283
加载 LightGBM Production 模型 → 预测概率
284
285
score = round(概率 × 100) → 0-100 整数分
286
287
SHAP TreeExplainer → 单样本特征归因
288
289
输出:得分 + Top5正向特征 + Top5负向特征 + 决策建议文本
290
```
291
### 6.3 决策建议文本生成规则
292
| 得分区间 | 建议等级 | 文案模板 |
293
|----------|---------|---------|
294
| 80-100 | 强烈推荐定投 | "该基金趋势强劲、波动适中,定投体验优异,建议立即开始定投" |
295
| 60-79 | 推荐定投 | "该基金整体特征良好,建议关注并适时开始定投" |
296
| 40-59 | 中性观望 | "该基金部分特征达标,建议持续关注,等待更好的定投入场时机" |
297
| 0-39 | 不推荐 | "该基金当前特征不佳(主要受XX拖累),建议暂缓定投" |
298
具体文案需拼接该基金的 Top 贡献特征名。
299
## 七、工程质量规范
300
### 7.1 目录结构
301
```text
302
project-root/
303
├── pyproject.toml
304
├── config/
305
│   └── config.yaml
306
├── data/
307
│   ├── raw/                # 原始 CSV / Parquet
308
│   ├── processed/          # 清洗后 Parquet(按年分区)
309
│   ├── features/           # 特征矩阵 Parquet(按年分区)
310
│   ├── models/             # 模型文件 & 标准化参数
311
│   └── metadata/           # SHA-256 hash 校验文件
312
├── src/
313
│   ├── __init__.py
314
│   ├── utils/
315
│   │   ├── __init__.py
316
│   │   ├── config.py       # YAML 配置加载器
317
│   │   ├── logging.py      # 结构化日志配置
318
│   │   └── hash.py         # SHA-256 数据血缘校验
319
│   ├── data_loader.py      # 数据清洗与入库
320
│   ├── feature_engineering.py # 特征计算引擎
321
│   ├── label_generator.py  # 标签生成器
322
│   ├── trainer.py          # 模型训练与评估
323
│   └── inference.py        # 推理服务
324
├── tests/
325
│   ├── test_label_generator.py
326
│   └── test_feature_engineering.py
327
├── mlruns/                 # MLflow 实验追踪
328
└── logs/                   # 运行日志
329
```
330
### 7.2 配置与代码分离
331
所有硬参数集中在 `config.yaml`,代码中严禁魔法数字。核心参数分区如下:
332
```yaml
333
# === 标签参数 ===
334
label:
335
  target_return: 0.20
336
  max_weeks: 150
337
  deduction_method: "simple_avg" # 预留: "irr"
338
  deduct_fee: false
339
  purchase_fee_rate: 0.0012
340
# === 数据过滤 ===
341
filter:
342
  fund_type_whitelist:
343
    - "股票型"
344
    - "混合型-偏股"
345
    - "混合型-灵活"
346
    - "QDII-普通股票"
347
    - "QDII-混合偏股"
348
    - "QDII-混合灵活"
349
  min_net_value_weeks: 52
350
  building_period_weeks: 12
351
  max_gap_weeks: 4
352
  single_week_change_limit: 0.50
353
# === 特征参数 ===
354
feature:
355
  windows:
356
    mean_reversion: [12, 26, 52]
357
    volatility: [12, 26, 52]
358
    momentum: [4, 12, 26, 52]
359
    trend: [26, 52]
360
    dca_specific: [12, 26, 52]
361
    risk_adjusted: [26, 52]
362
  min_valid_ratio: 0.20
363
  outlier_method: "mad"
364
  outlier_bound: 3.0
365
# === 截面标准化 ===
366
standardization:
367
  method: "zscore"
368
  use_shift_1: true # 使用 T-1 截面统计量
369
# === 样本平衡 ===
370
sample_balance:
371
  max_samples_per_fund: 50
372
  zero_label_ratio: 0.3 # label=0 的上限比例
373
# === 模型训练 ===
374
model:
375
  time_series_n_splits: 5
376
  optuna_budget: 200
377
  optuna_timeout_hours: 1
378
# === 风险 ===
379
risk_free_rate:
380
  annual: 0.02
381
```
382
### 7.3 数据血缘
383
| 检查对象 | 算法 | 存储位置 | 触发时机 |
384
|----------|------|---------|---------|
385
| 原始数据文件 | SHA-256 | `data/metadata/raw_hash.json` | 数据入库前 |
386
| 清洗后 Parquet | SHA-256(按文件) | `data/metadata/processed_hash.json` | 清洗完成后 |
387
| 特征矩阵 Parquet | SHA-256(按文件) | `data/metadata/features_hash.json` | 特征计算完成后 |
388
| `config.yaml` | SHA-256 | MLflow artifact | 每次训练开始时 |
389
Pipeline 启动时自动校验上游 hash,不匹配则输出 WARNING 日志但不中断流程。
390
### 7.4 工程约束
391
| 约束 | 说明 |
392
|------|------|
393
| 禁止 Pandas | 仅允许 LightGBM `.fit()` 内部隐式调用 |
394
| 类型提示 | 所有自定义函数必须有 Python Type Hints |
395
| 日志 | 核心数据处理环节必须记录运行状态与耗时 |
396
| 异常处理 | 关键步骤 try-except 防止单点故障导致全流程崩溃 |
397
| 单元测试 | `label_generator` 必须覆盖全部 7 个场景(见第九节) |
398
| 特征存储 | 严禁 Pivot 成宽表,始终保持长表形态 |
399
## 八、实施路线图
400
按以下 6 个 Step 逐步交付,每步确认后再推进:
401
| Step | 模块 | 交付物 | 依赖 |
402
|------|------|--------|------|
403
| **1** | 工程脚手架 | `pyproject.toml`、目录树、`config.yaml`、`config.py`、`logging.py`、`hash.py` | 无 |
404
| **2** | 数据基建与入库 | `data_loader.py` + 清洗后的按年 Parquet + DuckDB VIEW + 数据质量审计日志 | Step 1 |
405
| **3** | 特征工程引擎 | `feature_engineering.py` + `features.parquet` + `standardization_params.parquet` + `final_feature_list.json` | Step 2 |
406
| **4** | 标签生成器 | `label_generator.py` + `labels.parquet` + `test_label_generator.py` | Step 2 |
407
| **5** | 模型训练与评估 | `trainer.py` + 模型文件 + 回测报告 + SHAP 图 + MLflow 记录 | Step 3 + Step 4 |
408
| **6** | 推理服务 | `inference.py`(单基金 + 批量) | Step 3 + Step 5 |
409
> **注**:Step 3 和 Step 4 无相互依赖,可并行开发。但在流水线执行中,Step 4 的标签需要 Join 到 Step 3 的特征表,所以最终训练集的生成依赖两者都完成。
410
## 九、单元测试必覆盖场景
411
`tests/test_label_generator.py` 必须完整覆盖以下 7 个场景:
412
| 编号 | 测试场景 | 输入条件 | 期望输出 |
413
|------|---------|---------|---------|
414
| 1 | 正常止盈 | 净值从 1.0 经 N 周涨到触发 20% DCA 收益率 | `label = 150 - N` |
415
| 2 | 150周未达 | 净值缓慢增长,150 周内 DCA 收益率始终 < 20% | `label = 0` |
416
| 3 | 清盘截断 | 净值开始定投后,60 周时数据中断,期间未达 20% | `label = 0` |
417
| 4 | 清盘前止盈 | 净值在 30 周达标,第 50 周数据中断 | `label = 120` |
418
| 5 | 精确边界 | 第 1 周净值即满足 20% 收益(防御性测试) | `label = 149` |
419
| 6 | 全亏损路径 | 净值从 1.0 持续下跌到 0.5 | `label = 0` |
420
| 7 | 建仓期后首周 | 数据恰好从第 13 周开始(前 12 周已被 Module2 剔除) | 正常生成标签,不报错 |