1 / 16

5. Basic strategy for trend prediction 5.1 Feature extraction

5. Basic strategy for trend prediction 5.1 Feature extraction feature extraction: raw input data 를 input/target 쌍으로 변환 pattern: input/target 쌍 -> 학습의 대상 cf. handwritings market data 에 대한 자질 추출의 어려움 the upper/lower bound is unknown : non-stationary must deal with uncertainty

yank
Download Presentation

5. Basic strategy for trend prediction 5.1 Feature extraction

An Image/Link below is provided (as is) to download presentation Download Policy: Content on the Website is provided to you AS IS for your information and personal use and may not be sold / licensed / shared on other websites without getting consent from its author. Content is provided to you AS IS for your information and personal use only. Download presentation by click this link. While downloading, if for some reason you are not able to download a presentation, the publisher may have deleted the file from their server. During download, if you can't get a presentation, the file might be deleted by the publisher.

E N D

Presentation Transcript


  1. 5. Basic strategy for trend prediction 5.1 Feature extraction • feature extraction: raw input data를 input/target 쌍으로 변환 • pattern: input/target 쌍 -> 학습의 대상 • cf. handwritings • market data에 대한 자질 추출의 어려움 • the upper/lower bound is unknown : non-stationary • must deal with uncertainty • 현재/미래의 시장 상황을 정확히 표현하는 패턴이 필요 • 해결안 • dynamic range • linear normalization

  2. linear normalization approach • xj : j 일 전 대비 현재일(i ) 종가의 변화 정도(-1에서 1사이) • 극단값에 대해서는 절단 •  : 미리 계산된 dynamic range 평가값의 벡터 • probable volatility window • j 일 동안의 종가 변화율은 대부분 +에서 사이 • P : 분석 대상이 되는 전체 날짜 수

  3. example • P=12, A=4(analysis window size)

  4.  : price change, /ci : rate of change • P-A : 실제 학습 패턴의 수

  5. target의 결정 • ideal signal by percent change technique • 가격이 %이상 오르면, 최저가일이 ideal buy signal : di = 0.05 (sell signal에 대해서는 di=0.95)

  6. ideal signal이 없는 날의 target

  7. 5.2 Neural net configuration • 결정할 사항 • 입력 neuron 수, 출력 neuron 수 • hidden layer 수 • 각 hidden layer의 neuron 수 • 본 교재에서의 기준 • 입력 neuron 수 • ideal signal 사이의 평균 날짜 수보다 큰 수 • 5 ~ 20 neurons,  = 1% for ideal signal generation • 출력 neuron 수 : 1 • hidden layer 수 : 1

  8. hidden layer의 neuron 수 • 예측 가능한 서로 다른(unique) 추세 변화 상황의 수를 결정하는 연결(weight)의 수를 결정 • 상황의 수는 학습할 패턴(예제)의 수와 밀접한 연관 ( : unique pattern의 비율) (=0.5의 경우, B=10)

  9. 5.3 Training the net • 학습을 위한 3가지 데이터 집합 • training set • net의 weight를 학습 • parameter set • 신경망 출력의 해석을 위한 임계치(threshold)들을 구함 • test set • trading system의 효용성 검증 • 학습 시 고려사항 • 종결 조건: tss error가 error threshold이하면 중단, ... • noise level • conflict: 동일한 입력 패턴의 서로다른 목표값(target) • noise level이 높으면 error threshold를 낮게하거나, 자질 추출 단계를 개선해야 한다

  10. 5.4 Signal generation • parameter set으로부터 2개의 임계치를 설정 • method 1: 너무 일찍 신호를 발생할 가능성이 있다 • method 2: 임계치에 도달한 후 방향이 바뀔 때만 신호 생성 • 최적 임계치의 조건 • profit • maxdraw: maximum drawdown • drawdown: 연쇄적인 손실(loss)의 양 • 최초의 profit peak 이후에 확정 (그림 5.6)

  11. 상대 이익 (relative profit) • profit과 maxdraw를 모두 고려 • MI : 최소 투자금 (minimum investment) • 1.5 = 1 + 0.5 ( 1 : 투자 시작 직후에 maxdraw가 생겨도 투자 지속) 0.5 : 실제 상황에서의 돌발적 손실에 대비한 여분) • BNAV (beginning net asset value) : 초기 순 자산의 권장량

  12. 5.5 Walk-forward testing • 유용성에 대한 최종적인 검증 • 학습이나 인자 설정에서 경험하지 않은 기간의 데이터 사용 • 사례 • Tmin = 0.12, Tmax = 0.87 • Profit: $6925 • Maxdraw: $21775 • annual 14.4% gain, 45.5% drawdown

More Related