📄 논문: QuantaAlpha: An Evolutionary Framework for LLM-Driven Alpha Mining (Jun Han, Shuo Zhang, Wei Li 외 24인 - 상하이재경대(SUFE), QuantaAlpha社, Stanford, 북경대(PKU), 2026.02)
퀀트 투자의 핵심 목표는 알파(Alpha), 즉 시장 전체 수익률(베타)을 초과하는 초과 수익을 만드는 것입니다. 이를 위해 알파 팩터(Alpha Factor) 를 발굴합니다.
알파 팩터란 주식의 미래 수익률을 예측하는 수식입니다. 예를 들어:
수학적으로는 N개 종목, T개 시점, D개 특성값을 담은 시장 데이터 행렬 X ∈ R^(N×T×D) 에서, 다음 시점의 횡단면 수익률 y(t+1) 을 예측하는 함수 f를 찾는 문제입니다.
f(X_t) → y(t+1)
목표는 예측력(IC)을 극대화하면서도 불필요하게 복잡하지 않은 팩터를 찾는 것입니다.
주식 시장은 매우 다루기 어려운 환경입니다:
XGBoost, LSTM, Transformer 등의 딥러닝 모델을 이용한 수익률 예측은 이미 많이 연구됐습니다. 하지만 이들은 블랙박스이며 “왜 이 종목이 오르는가”를 설명할 수 없습니다.
최근에는 LLM을 활용해 “퀀트 연구원의 작업 흐름”을 자동화하려는 시도들이 나왔습니다:
일반적인 작업 흐름:
① 가설 생성 (Hypothesis Generation)
↓
② 팩터 구현 (Factor Construction)
↓
③ 백테스트 평가 (Backtesting)
↓
④ 결과를 바탕으로 가설 수정 → ①로 반복
그러나 이 방식에는 세 가지 핵심 한계가 있습니다:
| 한계 | 설명 |
|---|---|
| 제어 불가능성 (Fragile Controllability) | 노이즈 많은 백테스트 결과에 이끌려 개선하다 보면, 원래 경제적 의미에서 멀어지는 “의미 표류(Semantic Drift)”가 발생 |
| 낮은 신뢰성 (Limited Trustworthiness) | 검증된 좋은 아이디어를 체계적으로 다음 iteration에 물려주지 못함. 어떤 이유로 좋은 결과가 나왔는지 추적이 어려움 |
| 제한된 탐색 (Constrained Exploration) | 초기 아이디어 근처만 반복 탐색하는 지역 최적화 문제. 다양한 가능성을 충분히 탐구하지 못함 |
“각각의 알파 발굴 실행(run) 전체를 하나의 궤적(Trajectory)으로 보고, 궤적 자체를 진화시키자”
기존 방법이 개별 단계의 결과물(팩터 코드, 가설 문장)을 수정하는 데 집중했다면, QuantaAlpha는 가설 생성부터 백테스트 평가까지의 전체 과정을 하나의 단위로 취급합니다.
하나의 알파 발굴 실행은 다음과 같은 순서열로 표현됩니다:
τ = (s0, a0, s1, a1, ..., sn)
s0: 초기 컨텍스트 (시장 상황, 사용자가 준 시드 팩터)ai: i번째 단계에서 에이전트가 취한 행동sn: 최종 상태 (백테스트 결과)궤적의 품질은 최종 보상으로 측정합니다:
R(τ) = L(f_τ(X), y) - λR(f_τ)
^^^^^^^^^^^^^^^^^^^^^^^^^^
예측력 복잡도 페널티
목표: 이 보상을 최대화하는 궤적 생성 정책 π*를 찾는 것.
초기화 에이전트가 서로 보완적인 다양한 가설들을 동시에 만들어냅니다.
다양성 확보 기준:
💡 “씨앗을 한 곳에만 뿌리지 않고 밭 전체에 고르게 뿌린다”는 원칙입니다. 좁은 지역 최적에 일찍 수렴하는 위험을 줄입니다.
팩터를 바로 Python 코드로 생성하면 세 가지 문제가 생깁니다: 문법 오류, 의존성 불일치, 의미 표류. QuantaAlpha는 중간 표현으로 추상 구문 트리(AST) 를 도입합니다.
가설 h (자연어)
"10일 저점 대비 현재 가격의 편차를 거래량 가중치로 조정"
↓ [아이디어 에이전트]
의미적 설명 d
"TS_MIN(close, 10)에서의 편차 / 거래량 정규화"
↓ [팩터 에이전트]
심볼릭 표현 f (AST)
RANK(DIV(SUB(close, TS_MIN(close, 10)), SMA(volume, 10)))
↓ [컴파일러]
실행 가능 코드 c (Python)
AST(추상 구문 트리)의 구조:
$close, $volume, $high)TS_MIN(), SMA(), RANK())이를 통해 계산 의존성과 데이터 흐름이 완전히 투명하게 됩니다.
LLM 검증기가 두 가지를 확인합니다:
검증 실패 시 문제가 있는 단계만 재생성합니다.
복잡도 측정:
C(f) = α₁·SL(f) + α₂·PC(f) + α₃·log(1+|F_f|)
SL(f): 심볼릭 길이 (표현식의 길이)PC(f): 자유 파라미터 수 (윈도우 크기 등)F_f: 사용된 원시 특성의 집합중복성 측정: 두 팩터의 AST에서 동일한 부분 트리의 최대 크기로 구조적 유사도를 계산합니다. 기존 팩터 풀(alpha zoo)과의 유사도가 임계값을 넘으면 거절하고 재생성합니다.
이것이 QuantaAlpha의 핵심입니다. 생물의 진화(Mutation + Crossover) 에서 착안했습니다.
낮은 보상의 궤적에서 가장 문제가 되는 단계만 찾아 수정합니다. 나머지 단계는 동결(freeze).
기존 궤적:
[가설A 생성] → [심볼릭 표현α] → [코드 생성] → [백테스트: IC=0.05]
↑ 낮은 보상
자기 반성(Self-Reflection):
"심볼릭 표현α에서 시간 스케일이 너무 짧아 노이즈에 취약함"
변이 후:
[가설A 생성] → [심볼릭 표현α' (10일→20일로 수정)] → [코드 재생성] → [IC=0.12]
^^^^^^^^^^^ ↑ ^^^^^^^^^^^
동결 수정된 부분 자동 재생성
변이는 다음과 같은 메커니즘 수준 변화를 포함할 수 있습니다:
성능이 높은 여러 궤적에서 강점이 되는 구간만 선택해 조합합니다.
부모 궤적 1 (IC=0.12): [좋은 가설 구조] → [평범한 구현] → [평범한 수정]
부모 궤적 2 (IC=0.11): [평범한 가설] → [좋은 구현 방식] → [효과적인 오류 수정]
↓ 교차
자식 궤적: [좋은 가설 구조] → [좋은 구현 방식] → [효과적인 오류 수정]
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
각 부모의 강점을 물려받아 결합
이는 인간 퀀트 연구원들이 서로 다른 전략의 장점을 결합해 새로운 전략을 만드는 방식을 모방한 것입니다.
진화 과정에서 검증된 팩터들을 축적·관리합니다.
팩터 추가 규칙 (탐욕적 RankIC 기반):
→ 다양성을 유지하면서 알파 붕괴(factor crowding)를 방지
| 방법 | 모델 | IC | ICIR | ARR (%) | MDD (%) |
|---|---|---|---|---|---|
| 전통 ML | LightGBM | 0.0247 | 0.2055 | 0.07 | 21.80 |
| 딥러닝 | Transformer | 0.0331 | 0.2702 | 5.21 | 13.81 |
| TRA | 0.0421 | 0.3402 | 6.81 | 8.51 | |
| 팩터 라이브러리 | Alpha158 | 0.0131 | 0.0817 | 2.66 | 10.15 |
| RD-Agent | GPT-5.2 | 0.0531 | 0.4300 | 9.91 | 14.82 |
| AlphaAgent | Claude-4.5 | 0.1092 | 0.7718 | 16.48 | 8.14 |
| GPT-5.2 | 0.0966 | 0.6344 | 15.54 | 12.89 | |
| QuantaAlpha | DeepSeek-V3.2 | 0.1338 | 0.8533 | 23.77 | 9.14 |
| Claude-4.5 | 0.1111 | 0.6374 | 22.70 | 6.96 | |
| 🏆 QuantaAlpha | GPT-5.2 | 0.1501 | 0.9110 | 27.75 | 7.98 |
핵심 성과 (GPT-5.2 기준):
어떤 백본 LLM을 써도 (Qwen, DeepSeek, Gemini, Claude, GPT 모두) QuantaAlpha가 일관되게 상위 성능을 보여 모델 의존성이 낮다는 것도 중요한 결과입니다.
CSI 300에서 발굴한 팩터를 재최적화 없이 다른 시장에 그대로 적용:
| 적용 시장 | 4년 누적 초과 수익률 |
|---|---|
| CSI 500 (중국 중형주) | 약 +160% |
| S&P 500 (미국 시장) | 약 +137% |
특히 2023년 12월경부터 경쟁 방법들이 시장 국면 전환에 따라 성과가 정체되는 반면, QuantaAlpha는 안정적인 상승 궤적을 유지합니다.
각 구성요소를 하나씩 제거했을 때의 영향:
| 제거된 요소 | IC 변화 | Rank IC 변화 | ARR 변화 | MDD 변화 |
|---|---|---|---|---|
| 기준 (QuantaAlpha) | 0.1493 | 0.1458 | 28.99% | 9.42% |
| 초기화 계획 제거 | -0.0005 | -0.0006 | -7.78% | +2.73% |
| 변이(Mutation) 제거 | -0.0292 | -0.0284 | -9.81% | +0.43% |
| 교차(Crossover) 제거 | -0.0070 | -0.0077 | -2.82% | +1.21% |
해석:
세 가지 제약(일관성 검증, 복잡도 제어, 중복성 필터) 중 어떤 하나만 제거해도 성능이 하락합니다. 특히 복잡도 제어 제거 시 연간 초과 수익 -8.44%, MDD +2.57%로 전략 수준에서 가장 큰 타격을 받습니다.
이 섹션은 논문에서 가장 실전적이고 흥미로운 부분입니다.
중국 A주 시장은 2023년에 뚜렷한 스타일 전환을 겪었습니다:
이 전환으로 인해 기존 팩터들이 2023년에 대거 효력을 잃었습니다.
QuantaAlpha의 강세 팩터들:
| 팩터 | Rank IC | 설명 |
|---|---|---|
GapZ10_Overnight_vs_TR |
0.0793 | 오버나이트 갭의 크기를 최근 진정범위(True Range) 대비 정규화. 콜옥션에 의한 충격과 이후 조정을 포착 |
Gap_IntradayAcceptanceScore_20D |
0.0744 | 오버나이트 갭의 “수용(acceptance) vs 거부(rejection)”를 일중 방향성으로 판단. 최근 변동성으로 스케일링 |
Gap_IntradayAcceptance_VolWeighted_20D |
0.0606 | 비정상적 거래량으로 가중된 갭 수용 점수. 정보 많은 개장에 초점 |
CleanTrend_Continuation_Score_RS10_WVMA5 |
0.0590 | 낮은 잔차 노이즈와 약한 거래량 압력 조건에서만 추세 지속성을 포착 |
AlphaAgent의 강세 팩터들:
| 팩터 | Rank IC | 설명 |
|---|---|---|
Exhaustion_Intensity_Index_10D |
0.0323 | 60일 가격 변위 × 거래량 강도. 고갈(Exhaustion) 및 반전 포착 |
Climax_Exhaustion_Intensity |
0.0242 | 단기 거래량 클라이맥스 vs 장기 기준선. 항복(Capitulation)성 반전 식별 |
2023년 소형주 테마 장세에서:
요약 통계 비교 (2023년):
| 지표 | QuantaAlpha | AlphaAgent |
|---|---|---|
| 유효 지표 커버리지 | 98% | 80% |
| Rank IC > 0 비율 | 62.6% | 59.4% |
| 평균 Rank IC | 0.0057 | 0.0012 |
| Rank IC > 0.03 비율 | 10.2% | 1.56% |
| Rank IC > 0.05 비율 | 2.72% | 0.00% |
QuantaAlpha는 변이(Mutation) 메커니즘을 통해 다양한 정보 채널에 걸친 팩터 집단을 유지하기 때문에, 시장 스타일이 전환되어도 그 중 일부 팩터가 여전히 유효하게 작동합니다.
5번의 iteration에 걸쳐 IC 분포를 추적한 결과:
1~5 iteration 동안의 팩터 진화 과정:
최적 iteration 수: 성능은 iteration 11~12번째에서 최고 균형점(수익률 vs 낙폭 최적화)에 도달하며, 이 시점에서 약 350개의 팩터가 풀에 축적됩니다. 이후에는 중복 정보가 늘어나 오히려 전략 강건성이 떨어집니다.
| 구분 | 기존 접근 | QuantaAlpha |
|---|---|---|
| 방법론 | 인간 연구원이 가설 생성 | LLM이 다양한 가설 자동 생성 |
| 탐색 범위 | 인간의 직관 범위 내 | 가격, 거래량, 행동, 마이크로구조 등 광범위 |
| 개선 방식 | 수동 백테스트 후 수정 | 진화 알고리즘으로 자동 개선 |
| 설명 가능성 | 높음 | 높음 (AST 기반 투명한 표현) |
| 알파 붕괴 대응 | 수동 모니터링 및 교체 | 다양한 팩터 풀로 자동 대응 |
딥러닝 기반 블랙박스 모델과 달리, QuantaAlpha는:
QuantaAlpha는 LLM과 진화 알고리즘의 결합을 통해 알파 팩터 발굴 분야에 새로운 기준을 세웠습니다.
핵심 기여를 한 줄로 요약하면: “좋은 알파 발굴 과정(궤적) 자체를 유전자처럼 물려주고 교배시켜, 점점 더 좋은 팩터를 찾는다.”
특히 2023년 중국 시장의 국면 전환을 돌파한 사례는, 이 시스템이 단순히 과거 데이터를 외운 것이 아니라 진정한 의미의 구조적 팩터를 발굴한다는 것을 보여줍니다.
AI가 퀀트 투자의 알파를 스스로 찾는 시대, 빠르게 다가오고 있습니다.
Written on February 25th, 2026 by Jonghyun Ho📌 참고 논문: arXiv:2602.07085
본 포스팅은 논문의 내용을 정리·해석한 것이며, 투자 조언이 아닙니다. 실제 투자는 항상 신중하게 판단하시기 바랍니다.