트레이딩 학습 방법

마지막 업데이트: 2022년 2월 2일 | 0개 댓글
  • 네이버 블로그 공유하기
  • 네이버 밴드에 공유하기
  • 페이스북 공유하기
  • 트위터 공유하기
  • 카카오스토리 공유하기
하나의 시작 포트폴리오 값으로 세 개의 가능한 포트폴리오 값으로 연결되는 세 개의 액션으로 구성됩니다.
주식 가격이 바뀌면 “hold”가 다른 포트폴리오 가치로 이어질 수 있습니다.

earticle

Many developments have been steadily carried out by researchers with applying knowledge-based expert system or 트레이딩 학습 방법 machine learning algorithms to the financial field. In particular, it is now common to perform knowledge based system trading in using stock prices. Recently, deep learning technologies have been applied to real fields of stock trading marketplace as GPU performance and 트레이딩 학습 방법 large scaled data have been supported enough. Especially, LSTM has been tried to apply to stock price prediction because of its compatibility for time series data. In this paper, we implement stock price prediction using LSTM. In modeling of LSTM, we propose a fitness combination of model parameters and activation functions for best performance. Specifically, we propose suitable selection methods of initializers of weights and bias, regularizers to avoid over-fitting, activation functions and optimization methods. We also compare model performances according to the different selections of the above important modeling considering factors on the real-world stock price data of global major companies. Finally, our experimental work brings a fitness method of applying LSTM model to stock price prediction.

과거 인공지능 분야에서는 지식 기반의 전문가 시스템 트레이딩 학습 방법 및 머신러닝 알고리즘들을 금융 분야에 적용하는 연구가 꾸준하게 수행되어 왔다. 특히 주식에 대한 지식 기반의 시스템 트레이딩은 이제 보편화되었고, 최근에는 대용량 데이터 에 기반한 딥러닝 기술을 주가 예측에 적용하기 시작했다. 이중 LSTM은 시계열 데이터에 대한 검증된 모델로서 주가 예측에도 적용되고 있다. 본 논문에서는 주가 예측 모델로서 LSTM을 적용할 때 성능향상을 위해 고려해야 할 복잡한 매개변수 설정과 적용 함수들에 대해 적합한 조합 방법을 제안하도록 한다. 크게 가중치와 바이어스에 대한 초기화 대상 과 설정 방법, 과적합을 피하기 위한 정규화 적용 대상과 설정 방법, 활성화 함수 트레이딩 학습 방법 적용 방법, 최적화 알고리즘 선택 등을 제시한다. 이 때 나스닥 상장사들에 대한 대용량 데이터를 바탕으로 각각의 방법들을 적용하여 정확도를 비교하면서 평가한다. 이를 통해 주가 예측을 위한 LSTM 적용 시 최적의 모델링 방법을 실증적인 형태로 제안하여 현실적인 시사 점을 갖도록 한다. 향후에는 입력 데이터의 포맷과 길이, 하이퍼파라미터들에 대한 성능평가를 추가 수행하여 주요 설정 항목들의 조합에 대한 일반화 연구를 수행하고자 한다.

요약
Abstract
1. 서론
2. LSTM 구조와 동작
3. 주가 예측 모델 구축 및 평가
3.1 데이터 수집 및 전처리
3.2 학습 모델 구축 및 평가 트레이딩 학습 방법
3.3 초기화(Initialization) 방법
3.4 정규화(Regularization) 방법
3.5 활성화(Activation) 함수
3.6 최적화(Optimization) 함수
4. 실험 및 평가 환경
5. 결론
REFERENCES

pizzaplanet

이유: Q러닝은 기대 손익을 예측하나, 정책 경사는 어떤 행동이 현재 상태에서 가장 좋을지를 확률 적으로 판단하기 때문.

확률적 경사 하강법(SGD)에 Learning rate는 0.01, 0.001 등 종목별로 다르게 설정

아모레퍼시픽 : 6개월 +10.86%

동원산업 : 6개월 6% + 하락 방어

1. 익일 주가 등락 여부에 따른 긍부정 강도 생성

  • 뉴스 파싱
  • 주가 등락 심했을 때, 이전의 뉴스를 직접 모음
  • 뉴스마다 긍정 / 부정 라벨링
  • 단어마다 긍정 / 부정 뉴스 등장 빈도수 측정
  • Diff = (긍정 뉴스 등장 수 - 부정 뉴스 등장 수) / 총 뉴스 등장 수
  • Strength1 = Diff의 합
  • Strength2 = Diff의 합 / 뉴스 총 단어 수
  • Pos_count1 = Diff > 0 단어 수
  • Pos_count2 = Diff > 0.2 단어 수
  • Pos_count3 = Diff > 0.2 이고, 빈도수가 100 이상인 단어 수
  • Neg_count1 = Diff < 0 단어 수
  • Neg_count2 = Diff < -0.2 단어 수
  • Neg_count3 = Diff < -0.2 이고, 빈도수가 100 이상인 단어 수
  • 20분마다 트레이딩 학습 방법 동작하도록 배치
  • 시간대별 종목에 대한 긍부정 점수 계산 -> 부정 점수 급등 시점 포착
  • 부정점수와 MACD 보조지표의 매도 신호 모두 1일 경우 전량 매도

1. 등락 예측이 목표인 기존 주식 방법은 사용하지 마라.

2. 주식 트레이딩에는 강화학습을 추천한다.

3. 학습기간이 길다고 무조건 좋은것이 아니다.

4. 백테스트의 수익률은 절대로 반복되지 않는다.

5. 투자를 할때, 강화학습의 결과를 참고로 사용하면 좋다.

1. 폭락 방지 알고리즘을 제대로 만들어야 한다.

-> 안정적인 수익이 우선이기 때문!

-> 폭락이 빠르게 감지가 안되는 점 보완.

-> 예시) 아모레퍼시픽 폭락임에도 신호 X

Q : 종목마다 다른 피쳐를 사용하였는데 어떤 기준으로 피쳐셀렉션 했는지.

종목별로 강화학습 모델을 생성하신 듯 했다. 종목별로 다른 피쳐를 사용하기 때문인 듯 하다.

발표를 듣기 전 생각했던 방법은 전체 종목 데이터를 활용하여 학습하는 것이었으나, 각 종목 별로 학습을 하셨다. 피쳐셀렉션도 수작업으로 하나씩 다 테스트 해보신 듯 했다. 처음에 300개 종목에 어떻게 다 다른 보조지표를 부여하셨는지 여쭤보려 했으나 300개 종목 중 일부 종목 하나씩만 테스트 하신 것 같아 질문을 말았다.

수익도 중요하지만 발표 말씀처럼 하락을 잘 방어하는 것이 키 포인트라 생각한다. 그 점에서 방어를 어떻게 하셨는지 흥미롭게 들을 수 있었던 발표였던 듯 하다.

Rltrader

파이썬과 케라스를 이용한 딥러닝/강화학습 주식투자 - 퀀트 투자, 알고리즘 트레이딩을 위한 최첨단 해법 입문 (개정판)

강화학습은 스스로 학습하는 머신러닝 기법으로서 주식 데이터 학습에 잘 적용되는 기법입니다. 이 책은 파이썬을 이용한 강화학습 기반의 주식투자 시뮬레이션 프로그램을 개발하는 방법을 설명합니다. 이를 위해 이론과 코드 수준에서 상세한 설명을 덧붙였습니다. 이 책을 통해 딥러닝과 강화학습을 이해하고 이를 주식투자를 비롯한 다양한 도메인에서 활용할 수 있을 것입니다.

구매 링크

표지

이 책에서 다루는 내용

  • 딥러닝과 강화학습 이론
  • 주식투자에 강화학습을 적용하는 법
  • 강화학습 기반의 주식투자 시스템 개발
  • 강화학습을 위한 실제 주식 데이터 획득 및 처리
  • 강화학습으로 주식 데이터를 학습하는 법
  • 학습한 강화학습 모델을 활용하는 법
  • 강화학습 기반의 주식투자 시스템을 커스터마이징하는 법
  • Anaconda 3.7+
  • TensorFlow 1.15.2
    • pip install tensorflow==1.15.2
    • pip install tensorflow-gpu==1.15.2
    • pip install plaidml-keras==0.6.2
    • pip install mplfinance

    conda 환경

    TF 1.15

    conda create -n rltrader python=3.6 conda activate rltrader pip install tensorflow-gpu==1.15 conda install cudatoolkit=10.0 conda install cudnn=7.3.1 pip install numpy pip install pandas

    TF 2.5

    conda create -n rltrader2 python=3.6 conda activate rltrader2 pip install tensorflow==2.5

    CUDA 11.2 cuDNN 8.1

    PATH C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.2\bin C:\Program Files\NVIDIA GPU Computing Toolkit\CUDA\v11.2\libnvvp

    트레이딩 학습 방법


    DDPG(Deep Deterministic Policy Gradient)란 무엇인가?
    (논문 참고 : https://deepmind.com/research/publications/deterministic-policy-gradient-algorithms/ )
    continuous action domain을 가지 시스템에서 원하는 목적을 달성하도록 제어를 하는 알고리즘으로 actor-critic model-free policy gradient 방법을 적용하는 기술
    Deep이라는 단어를 사용한 이유는, DQN과 같이 Actor와 Critic approximation function에 neural network를 사용하였기 때문이다.

    DDPG의 의미
    DQN이 가지는 큰 의미는 State/Observation space dimension이 매우 크더라도 신경망이 이를 처리하여 의미 있는 결과를 얻을 수 있음을 보여준 것이다. 물론 알고리즘의 안정적 수렴을 위해 스마트한 기술을 도입하긴 했지만 DQN은 action space는 크지 않는 경우를 대상으로 하였다. 그러나 실제적 일에는 action space가 연속적이거나 dimension이 매우 큰 경우가 많으므로, DQN과 같이 action-value function이 최대가 되는 action을 선택하도록 하는 Q-learning 알고리즘을 그대로 사용하려면 먼저 생각할 수 있는 방법이 action space의 discretization과 같은 편법을 사용할 필요가 있다. 이 논문에서는 이러한 문제를 해결하기 위해 neural network actor 및 critic을 채용하여 state space와 action space가 모두 큰 dimension 또는 continuous space일 때 사용 가능하도록 한 것이다.

    DDPG Algorithm의 특징
    이 알고리즘의 특징이 DQN Algorithm의 특징과 유사할수 밖에 없는 이유는 결국 neural network function approximator를 사용하게 되면 생길 수 있는 문제를 태생적으로 가질 수 밖에 없기 때문이다(너무 많은 패러미터들 가진 함수는 학습시키기 어렵다). 그러므로, 학습에 사용되는 sample은 iid(independently and identically distributed) 특징을 가져야 한다. 이를 위해 사용한 방법이 DQN의 replay buffer이다.

    같은 맥락에서 action value network 학습을 위해 target network를 별도로 두는 방법도 역시 이용되었다. 그러나 이 논문에서는 약간의 변형을 시도하였다. 일명 ‘soft’ target update방법으로 아래와 같이 target network의 parameter들이 보다 ‘soft’하게 변화하도록 했다.

    신경망 학습에서 state/observation에 포함되는 여러 값들의 절대값의 order of magnitude문제에 의한 학습 성능 저하를 막기위해 사용하는 트레이딩 학습 방법 batch normalization도 적용하였다.

    마지막으로, continuous action space에서 exploration이 지속적으로 이루어지는 방법에 관한 것이다. DDPG에서는 off-policy 학습방법을 사용하기 때문에 기술적으로 구현이 매우 쉬운 장점이 있으며, 이 논문에서는 behavior policy에 noise process 을 도입하고, noise process로 Ornstein-Uhlenbeck process를 사용하였다고 밝혔다.

    Stock Trading Strategy은 투자 회사에서 중요한 역할을 합니다. 그러나 복잡하고 역동적 인 주식 시장에서 최적의 전략을 얻는 것은 어렵습니다. 우리는 주식 거래 전략을 최적화하여 투자 수익을 극대화하기 위한 Deep Reinforcement Learning의 잠재력을 탐색합니다.

    30 개의 주식이 우리의 주식으로 선택되며, 일일 가격은 훈련 및 거래 시장 환경으로 사용됩니다. 우리는 Deep Learning Agent를 훈련시키고 adaptive trading strategy을 얻습니다. Agent의 성과는 평가되고 다우 존스 산업 평균 및 전통적인 분 분산 포트폴리오 할당 전략과 비교됩니다. 제안된 Deep Reinforcement Learning은 Sharpe 비율과 누적 수익의 측면에서 두 개의 기준선을 능가하는 것으로 나타났습니다.

    1. Introduction

    수익성있는 Stock Trading Strategy는 투자 회사에게 필수적입니다. 자본 배분을 최적화하여 기대 수익과 같은 성과를 극대화하는 데 적용됩니다. 수익 극대화는 주식의 잠재적 수익 및 위험에 대한 추정치를 기반으로합니다. 그러나 애널리스트가 복잡한 주식 시장에서 모든 적합한 요인을 고려하는 것은 어려운 일입니다 [1-3].
    하나의 전통적인 접근 방식은 [4]에서 설명한대로 두 단계로 수행됩니다.

    먼저 주가의 기대 수익률과 주가의 공분산 행렬을 계산합니다. 포트폴리오의 고정 된 위험에 대한 수익을 극대화하거나 수익의 범위에 대한 위험을 최소화함으로써 최상의 포트폴리오 배분을 찾을 수 있습니다. 최상의 거래 전략은 최고의 포트폴리오 할당을 따라 추출됩니다. 그러나 관리자가 각 시간 단계에서 결정한 사항을 수정하고 예를 들어 거래 비용을 고려하기를 원할 경우이 방법을 구현하는 것은 매우 복잡 할 수 있습니다. 주식 거래 문제를 해결하기위한 또 다른 접근법은 Markov Decision Process (MDP)로 모델링하고 동적 프로그래밍을 사용하여 최적의 전략을 해결하는 것입니다. 그러나 이 모델의 확장 성은 주식 시장을 다루는 the large state spaces 때문에 제한적이다 [5-8].
    위의 도전에 동기를 부여하여 복잡하고 역동적 인 주식 시장에서 최고의 트레이딩 전략을 찾기 위해 DDPG (Deep Deterministic Policy Gradient) [9]라는 깊이 보강 학습 알고리즘을 탐구합니다.

    이 알고리즘은 크게 세 가지 주요 구성 요소로 구성된다 :
    (i) actor-critic framework[10] – that models large state and action spaces
    (ii) target network – that stabilizes the training process[11]
    (iii) experience replay – 샘플 간의 상관 관계를 제거하고 데이터 사용을 트레이딩 학습 방법 늘립니다. DDPG 알고리즘의 효율성은 전통적인 분 분산 포트폴리오 할당 방법과 다우 존스 산업 평균 지수 (Dow Jones Industrial Average 1, DJIA)보다 높은 수익률을 달성함으로써 입증됩니다.
    이 논문은 다음과 같이 구성됩니다. 섹션 2에는 주식 거래 문제에 대한 설명이 포함되어 있습니다. 3 장에서 우리는 주 DDPG 알고리즘을 운전하고 명기한다. 4 절에서는 데이터 전처리와 실험 설정을 기술하고 DDPG 알고리즘의 성능을 제시한다. 5 절에서 결론을 내린다.

    2 Problem Statement

    우리는 Markov Decision Process (MDP)로 주식 거래 프로세스를 모델링합니다.
    그런 다음 maximization problem에 대하여 우리의 trading goal을 공식화합니다.

    2.1 Problem Formulation for Stock Trading

    하나의 시작 포트폴리오 값으로 세 개의 가능한 포트폴리오 값으로 연결되는 세 개의 액션으로 구성됩니다.
    주식 가격이 바뀌면 “hold”가 다른 포트폴리오 가치로 이어질 수 있습니다.

    본 연구에서는 거래 시장의 확률 적 및 상호 트레이딩 학습 방법 작용 성을 고려하여 그림 1과 같이 주식 거래 프로세스를 Markov Decision Process (MDP)로 모델화 하였다.

    주식 시장의 역 동성은 다음과 같이 설명됩니다. 우리는 시간 t를 나타 내기 위해 첨자를 사용하고, 주식 d에 대해 가능한 행동은 다음과 같다.

    모든 매입 한 주식은 포트폴리오 가치의 마이너스 잔고가되어서는 안된다는 점에 유의해야합니다. 즉, 일반성을 잃지 않고 첫 번째 d1 종목에 대한 판매 주문이 있고 마지막 d2 종목에 대한 구매 주문이 있다고 가정하고, [1 : d1] +에서 pt ​​[1 : d1] T를 만족해야한다고 가정합니다 [D-d2 : D] ≥ 0 일 때 bt + pt [D-d2 : D] T이다. 나머지 잔액은 bt + 1 = bt + pTt로 갱신된다.
    그림 1은이 프로세스를 보여줍니다.
    위에 정의 된 바와 같이, 포트폴리오 가치는 모든 보유 주식의 주식의 잔액과 합계로 구성됩니다. 시간 t에서 조치가 취해지고 실행 된 조치 및 주가 갱신에 따라 포트폴리오 값이 “포트폴리오 값 0″에서 “포트폴리오 값 1”, “포트폴리오 값 2″또는 “포트폴리오 값 3″으로 변경됩니다 “시간 (t + 1).
    환경에 노출되기 전에 p0는 0시에 주가로 설정되고 b0는 거래에 사용 가능한 초기 자금입니다.
    h와 Qπ (s, a)는 0으로 초기화되고, π (s)는 모든 상태에 대한 모든 동작간에 균일하게 분산됩니다. 그런 다음, Qπ (st, at)는 외부 환경과의 상호 작용을 통해 학습됩니다.

    벨만 방정식에 따르면, 행동을 취하는 예상 보상은 보상 r (st, at, st + 1)의 기대치와 다음 상태 st + 1의 예상 보상을 더하여 계산됩니다. 수익률이 γ 배만큼 할인된다는 가정하에, 우리는


    2.2 Trading Goal as Return Maximization

    모델의 Markov 속성으로 인해 문제는 Qπ (st, at) 함수를 최대화하는 정책을 최적화하는 것으로 끝낼 수 있습니다. action-value 함수가 트레이딩 학습 방법 정책 결정자에게 알려지지 않았고 환경과의 상호 작용을 통해 학습해야하기 때문에이 문제는 매우 어렵습니다. 따라서 이 논문에서 우리는 이 문제를 해결하기 위해 Deep Reinforcement Learning 방법을 사용한다.

    3 A Deep Reinforcement Learning Approach

    우리는 투자 수익을 극대화하기 위해 DDPG 알고리즘을 사용합니다.
    DDPG는 DPG (Deterministic Policy Gradient) 알고리즘 [12]의 개선 된 버전입니다.
    DPG는 Q-learning [13]과 정책 구배 [14]의 프레임 워크를 결합합니다. DPG와 비교하여 DDPG는 신경 회로망을 함수 근사자로 사용합니다. 이 섹션의 DDPG 알고리즘은 주식 거래 시장의 MDP 모델에 대해 지정됩니다.

    함수 근사를 수행하기 위해 신경 네트워크를 채택하는 DQN (Deep Q-network)을 사용하면 상태가 값 함수로 인코딩됩니다.
    그러나 DQN 접근 방식은 작업 공간의 크기가 크기 때문에이 문제에 대해 다루기가 어렵습니다.
    각 주식에 대한 실현 가능한 거래 행위는 개별 집합에 있고 전체 주식의 수를 고려하기 때문에 행동 공간의 크기는 기하 급수적으로 증가하여 “차원의 저주”[15]로 이어진다.
    따라서 DDPG 알고리즘은이 문제를 해결하기 위해 상태를 결정적으로 동작에 매핑하는 데 제안됩니다.

    DDPG와 마찬가지로 DDPG는 experience replay buffer R을 사용하여 전환을 저장하고 모델을 업데이트하며 경험 샘플 간의 상관 관계를 효과적으로 줄일 수 있습니다.


    critic network 및 actor network가 experience buffer로부터의 transitions에 의해 업데이트 된 후, target actor network 및 target critic network는 다음과 같이 업데이트된다 :

    4 Performance Evaluations

    Alg 1에서 DDPG 알고리즘의 성능을 평가합니다.
    결과는 DDPG 에이전트를 사용한 제안 된 방법이 다우 존스 산업 평균 및 전통적인 분 – 분산 포트폴리오 할당 전략보다 더 높은 수익을 달성 함을 보여줍니다 [16, 17].

    4.1 Data Preprocessing

    우리는 트레이딩 주식으로 2011 년 1 월 1 일의 다우 존스 30 주식을 추적 및 선택하고, 01/01/2009부터 2011/9/30까지의 과거 트레이딩 학습 방법 일일 가격을 사용하여 에이전트를 교육하고 실적을 테스트합니다. 이 데이터 세트는 Wharton Research Data Services (WRDS) [18]를 통해 액세스 한 Compustat 데이터베이스에서 다운로드됩니다.
    우리의 실험은 훈련, 검증 및 거래의 3 단계로 구성됩니다.
    훈련 단계에서 Alg. 1은 잘 훈련 된 거래 에이전트를 생성합니다.
    그런 트레이딩 학습 방법 다음 유효성 검사 단계는 학습 속도, 에피소드 수 등과 같은 주요 매개 변수 조정을 위해 수행됩니다.
    마지막으로 거래 단계에서 제안 된 계획의 수익성을 평가합니다. 전체 데이터 세트는 그림 3과 같이 이러한 목적으로 세 부분으로 나뉩니다.
    2009 년 1 월 1 일부터 2014 년 12 월 31 일까지의 데이터를 교육에 사용하며, 2010 년 1 월 1 일부터 2010 년 1 월 1 일까지의 데이터를 유효성 검사에 사용합니다.
    우리는 훈련 자료와 검증 데이터 모두에 대해 우리의 에이전트를 교육하여 사용 가능한 데이터를 최대한 활용합니다.
    마지막으로 거래 데이터에 대한 에이전트의 실적을 테스트합니다. 거래 데이터는 2011 년 1 월 1 일부터 2018 년 9 월 30 일까지입니다. 거래 데이터를보다 잘 활용하기 위해 우리는 거래 단계에서 에이전트를 계속 교육하여 에이전트가 시장 역학에보다 잘 적응할 수 있도록 개선 할 것입니다.

    4.2 Experimental Setting and Results of Stock Trading

    우리는 DDPG agent가 훈련 된 일일 주가의 벡터로 30 개의 주식 데이터를 설정함으로써 환경을 구축합니다.
    학습 속도 및 에피소드 수를 업데이트하기 위해 에이전트는 유효성 검사 데이터에서 유효성이 검사됩니다. 마지막으로 우리는 거래 데이터에 대해 에이전트를 운영하고 DJI (Dow Jones Industrial Average) 및 최소 분산 포트폴리오 할당 전략과 성능을 비교합니다.
    결과를 평가하기 위해 최종 포트폴리오 값, 연간 수익률, 연간 표준 오류 및 샤프 비율이라는 네 가지 메트릭이 사용됩니다. 최종 포트폴리오 가치는 거래 단계의 마지막 시점의 포트폴리오 가치를 반영합니다. 연간 수익은 연간 포트폴리오 수익률을 나타냅니다. 연간 표준 오류는 우리 모델의 강건 함을 보여줍니다. 샤프 비율은 그러한 평가를 제공하기 위해 수익과 위험을 결합합니다 [19].
    그림 4에서 우리는 DDPG 전략이 다우 존스 산업 평균과 최소 분산 포트폴리오 할당보다 훨씬 우월함을 알 수 있습니다. 표 1에서 알 수 있듯이 DDPG 전략은 연간 수익률 22.24 %를 달성하며 다우 존스 산업 평균 (Dow Jones Industrial Average)의 16.40 % 및 최소 분산 포트폴리오 할당의 15.93 %보다 월등히 높습니다. DDPG 전략의 샤프 비율 (sharpe ratio) 또한 훨씬 높으며, 이는 DDPG 전략이 다우 존스 산업 평균 및 최소 분산 포트폴리오 할당 모두를 상회하여 위험과 수익의 균형을 맞추는 것을 의미합니다. 따라서 결과는 제안 된 DDPG 전략이 벤치 마크 다우 존스 산업 평균 및 전통적인 분 – 분산 포트폴리오 배분 방법을 능가하는 거래 전략을 효과적으로 개발할 수 있음을 보여줍니다.

    5 Conclusion

    본 논문에서는 DDPG (Deep Deterministic Policy Gradient) 에이전트가 주식 거래 전략을 학습 할 수있는 가능성을 모색했다.
    결과는 우리의 숙련 된 에이전트가 누적 수익률에서 다우 존스 산업 평균 및 최소 분산 포트폴리오 할당 방법보다 우월함을 보여줍니다.
    Sharpe 비율에 대한 비교는 우리의 방법이 위험과 수익의 균형을 잡는 데있어서 다른 방법보다 훨씬 견고 함을 보여줍니다.
    미래의 연구는 더 정교한 모델을 탐구하고, 더 큰 규모의 데이터를 다루고, 지능적인 행동을 관찰하고 예측 계획을 통합하는 흥미로운 일이 트레이딩 학습 방법 될 것이다.

    퀀트 투자를 위한 머신러닝·딥러닝 알고리듬 트레이딩 2/e

    파이썬, Pandas, 텐서플로 2.0, Scikit-learn을 활용한 효과적인 트레이딩

    ■ 출간일 : 2021년 09월 30일 출간

    ■ 크 기 : 188 * 235 * 55 mm

    1부. 데이터, 알파 팩터, 포트폴리오

    1장. 트레이딩용 머신러닝: 아이디어에서 주문 집행까지
    __투자업계에서 머신러닝의 부상
    ____전자 트레이딩 학습 방법 거래에서 고빈도 매매(HFT)까지
    ____팩터 투자와 스마트 베타 펀드
    ____알고리듬 개척자는 인간보다 우위에 있다
    ____머신러닝과 대체 데이터
    ____크라우드 소싱 거래 알고리듬
    __머신러닝 기반 전략의 설계와 실행
    ____데이터의 소싱과 관리
    ____알파 팩터 리서치에서 포트폴리오 관리까지
    ____전략 백테스팅
    __트레이딩을 위한 머신러닝: 전략과 사용 사례
    ____알고리듬 트레이딩의 진화
    ____거래를 위한 머신러닝 사용 사례
    __요약

    2장. 시장 데이터와 기본 데이터: 소스와 기법
    __시장 데이터는 시장 환경을 반영한다
    ____시장 미시 구조: 기본 지식
    ____트레이딩 방법: 여러 종류의 주문
    ____트레이딩 장소: 거래소에서 다크풀까지
    __고빈도 데이터로 작업
    ____나스닥 주문 호가창으로 작업
    ____FIX 프로토콜을 활용한 거래의 통신
    ____나스닥 토탈뷰-잇치 데이터 피드
    ____틱에서 바로: 시장 데이터 정규화 방법
    ____AlgoSeek 분 바: 주식 호가와 거래 데이터
    __시장 데이터에 대한 API 접근
    ____판다스를 이용한 원거리 데이터 접근
    ____yfinance: 데이터를 야후! 파이낸스로부터 스크레이핑
    ____퀀토피안
    ____집라인
    ____퀀들
    ____기타 시장 데이터 공급자
    __기본 데이터 작업 방법
    ____재무제표 데이터
    ____기타 기본 데이터 소스
    __판다스를 이용한 효율적 데이터 저장
    __요약

    3장. 금융을 위한 대체 데이터: 범주와 사용 사례
    __대체 데이터 혁명
    __대체 데이터의 원천
    ____개인
    ____비즈니스 프로세스
    ____센서
    __대체 데이터 평가를 위한 기준
    ____신호 내용의 질
    ____데이터의 질
    ____기술적 측면
    __대체 데이터 시장
    ____데이터 제공업체와 사용 사례
    __대체 데이터로 작업
    ____오픈테이블 데이터 스크래핑
    ____어닝 콜 트랜스크립트 스크래핑과 파싱
    __요약

    4장. 알파 팩터 리서치
    __알파 팩터 실무: 데이터부터 시그널까지
    __알파 팩터 공학
    ____수십 년간의 팩터 연구를 바탕으로 구축
    ____모멘텀과 심리: 추세는 당신의 친구다
    ____가치 팩터
    ____변동성과 규모 이례 현상
    __우량주 팩터
    ____수익률을 예측하는 알파 팩터 공학
    ____판다스와 넘파이를 사용한 팩터 공학
    ____칼만 필터를 사용한 알파 팩터의 잡음 제거
    ____웨이블릿을 이용한 잡음 데이터의 전처리 방법
    __시그널에서 트레이딩으로: 백테스트를 위한 집라인
    ____단일 팩터 전략을 백테스트하는 방법
    ____다양한 데이터 소스의 팩터 결합
    __알파렌즈를 사용한 시그널과 잡음의 분리
    ____미래 수익률과 팩터 분위수의 생성
    ____팩터 5분위수에 의한 예측 성과
    ____정보 계수
    ____팩터 회전율
    __알파 팩터 리소스
    ____기타 알고리듬 트레이딩 라이브러리
    __요약

    5장. 포트폴리오 최적화와 성과 평가
    __포트폴리오 성과를 측정하는 방법
    ____단일 숫자로 위험 수익 트레이드오프 포착
    ____적극적 운용의 근본 법칙
    __포트폴리오 위험과 수익률 관리하는 방법
    ____현대 포트폴리오 관리의 진화
    ____평균 분산 최적화
    ____평균 분산 최적화의 대안
    ____리스크 패리티
    ____리스크 트레이딩 학습 방법 팩터 투자
    ____계층적 리스크 패리티
    __집라인으로 트레이딩과 포트폴리오 관리
    ____신호 생성과 거래 실행 계획 수립
    ____평균 분산 포트폴리오 최적화 구현
    __파이폴리오를 이용한 백테스팅 성과 측정
    ____수익률과 벤치마크 입력 생성
    ____표본 외 수익률로 전진 분석
    __요약

    2부. 트레이딩을 위한 ML: 기본

    6장. 머신러닝 프로세스
    __데이터로부터 머신러닝이 작동하는 방법
    ____도전 과제: 알고리듬을 작업에 매칭
    ____지도학습: 예제에 의한 학습
    ____비지도학습: 유용한 패턴의 발견
    ____강화학습
    __머신러닝 워크플로
    ____기본 설명: k-최근접 이웃
    ____문제의 구성: 목적과 성과 측정
    ____데이터의 수집과 준비
    ____특성 탐험, 추출, 특성 공학
    ____ML 알고리듬 선택
    ____모델 설계와 조정
    ____모델 선택을 위한 교차 검증의 활용
    ____파이썬으로 교차 검증을 구현하는 방법
    ____금융에서 교차 검증의 문제
    ____사이킷런을 이용한 파라미터 조정과 옐로우브릭
    __요약

    7장. 선형 모델: 리스크 팩터에서 수익률 예측까지
    __추론에서 예측까지
    __베이스라인 모델: 다중 선형 회귀 모델
    ____모델을 만드는 방법
    ____모델을 훈련하는 방법
    ____가우스-마르코프 정리
    ____통계적 추론을 수행하는 방법
    ____문제를 진단하고 해결하는 방법
    __실제로 선형 회귀를 실행하는 방법
    ____statsmodels를 활용한 최소 자승법
    ____sklearn을 활용한 확률적 경사 하강법(SGD)
    __선형 요인 모델을 구축하는 방법
    ____CAPM에서 파마-프렌치 5 요인 모델까지
    ____위험 요인 입수
    ____파마-맥베스 회귀 분석
    __수축 방법을 사용한 선형 회귀 규제화
    ____과적합을 방지하는 방법
    ____리지 회귀 분석의 작동 방식
    ____라쏘 회귀 분석의 작동 방식
    __선형 회귀로 수익률을 예측하는 방법
    ____모델 특성과 선도 수익률 준비
    ____statsmodels를 사용한 선형 OLS 회귀 분석
    ____사이킷런을 이용한 선형 OLS 회귀
    ____사이킷런을 이용한 리지 회귀 분석
    ____sklearn을 이용한 라쏘 회귀 분석
    ____예측 신호의 품질 비교
    __선형 분류
    ____로지스틱 회귀 모델
    ____statsmodels로 추론을 수행하는 방법
    ____가격 움직임을 로지스틱 회귀 분석으로 예측
    __요약

    8장. ML4T 작업 흐름: 모델에서 전략 백테스트까지
    __ML 기반 전략의 백테스트 방법
    __백테스트의 단점과 이를 회피하는 방법
    ____데이터를 올바르게 얻기
    ____시뮬레이션을 올바르게 수행
    ____통계량을 올바르게 얻기
    __백테스트 엔진 작동법
    ____벡터화 대 이벤트 기반 백테스트
    ____주요 구현 측면
    __백트레이더: 로컬 백테스트용 유연한 도구
    ____백트레이더의 세레브로 구조의 주요 개념
    ____실제에서 백트레이더를 사용하는 방법
    ____백트레이더 요약과 다음 단계
    __집라인: 퀀토피안이 만든 확장 가능한 백테스트
    ____강건한 시뮬레이션을 위한 캘린더와 파이프라인
    ____분 데이터를 사용해 자체 번들 인제스트
    ____파이프라인 API: ML 시그널 백테스트
    ____백테스트 중 모델을 훈련하는 방법
    ____노트북 사용법
    __요약

    9장. 시계열 모델
    __진단과 특성 추출을 위한 분석 도구
    ____시계열 패턴의 분해
    ____롤링 윈도우 통계량과 이동 평균
    ____자기 상관계수의 측정
    __정상성 진단과 회복
    ____정상성을 얻기 위한 시계열 변환
    ____단위근의 처리 방법
    ____시계열 변환의 실제 적용
    __일변량 시계열 모델
    ____자기 회귀 모델의 구축
    ____이동 평균 모델의 구축
    ____ARIMA 모델 구축과 확장
    ____매크로 펀더멘털 예측
    ____시계열 모델을 활용한 변동성 예측
    __다변량 시계열 모델
    ____방정식 체계
    ____벡터 자기 회귀(VAR) 모델
    ____VAR 모델을 활용한 매크로 펀더멘털 예측
    __공적분: 공통 추세를 가진 시계열
    ____엥글-그레인저 2단계 방법
    ____요한센 우도 비율 테스트
    __공적분을 활용한 통계적 차익 거래
    ____같이 움직이는 자산 쌍을 선택하는 방법
    ____페어 트레이딩 실제 구현
    ____전략 백테스트 준비
    ____백트레이더를 이용한 전략 백테스트
    ____확장: 개선 방법
    __요약

    10장. 베이지안 머신러닝: 동적 샤프 비율과 페어 트레이딩
    __베이지안 머신러닝 학습법
    ____경험적 증거에서 가정을 업데이트하는 방법
    ____정확한 추론: 최대 사후 확률 추정
    ____결정론적 및 확률론적 근사 추론
    __PyMC3를 사용한 확률 프로그래밍
    ____테아노를 이용한 베이지안 머신러닝
    ____PyMC3 워크플로: 경기 침체 예측
    __트레이딩을 위한 베이지안 머신러닝
    ____성과 비교를 위한 베이지안 샤프 비율
    ____페어 트레이딩을 위한 베이지안 롤링 회귀 분석
    ____확률 변동성 모델
    __요약

    11장. 랜덤 포레스트: 일본 주식 롱/숏 전략
    __결정 트리: 데이터로부터의 규칙 학습
    ____트리의 결정 규칙 학습과 적용
    ____결정 트리의 실용적 사용법
    ____과대적합과 규제화
    ____하이퍼파라미터의 조정
    __랜덤 포레스트: 트리의 신뢰성을 높인다
    ____앙상블 모델의 성과가 더 좋은 이유
    ____배깅
    ____랜덤 포레스트를 구축하는 방법
    ____랜덤 포레스트의 학습과 조정
    ____랜덤 포레스트를 위한 특성 중요도
    ____아웃오브백 테스트
    ____랜덤 포레스트의 장점과 단점
    __일본 주식에 대한 롱/숏 시그널
    ____데이터: 일본 주식
    ____LightGBM을 사용한 ML4T
    ____전략: 집라인을 이용한 백테스트
    __요약

    12장. 거래 전략 강화
    __시작하기: 적응형 부스팅
    ____에이다부스트 알고리듬
    ____에이다부스트를 사용해 월별 가격 변동 예측
    __그래디언트 부스팅: 대부분의 작업을 위한 앙상블
    ____GBM 모델을 훈련하고 조정하는 방법
    ____사이킷런으로 그래디언트 부스팅을 사용하는 방법
    __XGBoost, LightGBM, CatBoost 사용
    ____알고리듬 혁신이 성능을 향상시키는 방법
    __부스팅을 사용한 롱/숏 거래 전략
    ____LightGBM과 CatBoost로 시그널 생성
    ____블랙박스의 내부: GBM 결과를 해석하는 방법
    ____부스팅 앙상블에 기반을 둔 전략 백테스팅
    ____학습한 교훈과 다음 단계
    __일중 전략을 위한 부스팅
    ____고빈도 데이터를 위한 특성 공학
    ____LightGBM으로 분 단위 빈도 시그널
    ____거래 시그널 품질 평가
    __요약

    13장. 비지도학습을 활용한 데이터 기반 리스크 팩터와 자산 배분
    __차원 축소
    ____차원의 저주
    ____선형 차원 축소
    ____매니폴드 학습: 선형 차원 축소
    __트레이딩을 위한 PCA
    ____데이터 주도형 리스크 팩터
    ____고유 포트폴리오
    __군집화
    ____k-평균 군집화
    ____계층적 군집화
    ____밀도 기반 군집화
    ____가우시안 혼합 모델
    __최적 포트폴리오를 위한 계층적 군집화
    ____계층적 리스크 패리티의 작동 원리
    ____ML 트레이딩 전략을 사용한 HRP 트레이딩 학습 방법 백테스트
    __요약

    14장. 트레이딩을 위한 텍스트 데이터: 감성 분석
    __텍스트를 이용한 머신러닝: 언어에서부터 특성까지
    ____텍스트 데이터 작업의 주요 과제
    ____자연어 처리 워크플로
    ____응용 사례
    __텍스트에서 토큰으로: NLP 파이프라인
    ____spaCy와 textacy를 이용한 NLP 파이프라인
    ____TextBlob을 사용한 자연어 처리
    __토큰 계산: 문서 단어 행렬
    ____단어 주머니 모델
    ____sklearn을 사용한 문서 단어 행렬(DTM)
    ____핵심적인 교훈
    __트레이딩을 위한 자연어 처리
    ____나이브 베이즈 분류기
    ____뉴스 기사 분류
    ____트위터와 옐프 데이터를 사용한 감성 분석
    __요약

    15장. 토픽 모델링
    __잠재 토픽 학습: 목적과 접근법
    ____잠재 의미 인덱싱
    ____sklearn을 이용한 LSI의 구현 방법
    ____장점과 제약점
    __pLSA
    ____sklearn을 이용한 pLSA의 구현 방법
    ____장점과 제한점
    __LDA
    ____LDA의 원리
    ____LDA 토픽 평가
    ____sklearn을 이용한 LDA의 구현 방법
    ____pyLDAvis를 이용한 LDA 결과의 시각화
    ____Gensim을 사용한 LDA의 구현 방법
    __실적 발표 콜을 위한 토픽 모델링
    ____데이터 전처리
    ____모델 훈련과 평가
    ____실험 실행
    __금융 뉴스를 위한 토픽 모델링
    __요약

    16장. 어닝 콜과 SEC 공시 보고서를 위한 단어 임베딩
    __단어 임베딩이 의미를 인코딩하는 방법
    ____신경 언어 모델이 문맥에서 사용법을 배우는 방법
    ____word2vec: 확장 가능한 단어와 구분 임베딩
    ____의미론적 산술을 활용한 임베딩 평가
    __사전 훈련된 단어 벡터를 사용하는 방법
    ____GloVe: 단어 표현을 위한 글로벌 벡터
    __금융 뉴스를 위한 사용자정의 임베딩
    ____전처리: 문장 인식과 앤그램
    ____텐서플로 2를 이용한 스킵그램 아키텍처
    ____텐서보드를 사용해 임베딩 시각화
    ____Gensim으로 임베딩을 더 빠르게 훈련하는 방법
    __SEC 공시 문서를 이용한 트레이딩을 위한 word2vec
    ____전처리: 문장 인식과 앤그램
    ____모델 훈련
    __doc2vec 임베딩을 사용한 감성 분석
    ____옐프 감성 데이터에서 doc2vec 입력 생성
    ____doc2vec 모델 훈련
    ____문서 벡터로 분류기 훈련
    ____학습한 교훈과 다음 단계
    __새로운 개척자: 사전 훈련된 트랜스포머 모델
    ____어텐션은 당신이 필요한 모든 것
    ____BERT: 좀 더 보편적인 언어 모델을 지향
    ____텍스트 데이터에 대한 트레이딩: 교훈과 다음 단계
    __요약

    17장. 딥러닝
    __딥러닝: 무엇이 새롭고 왜 중요한가
    ____계층적 구조가 고차원 데이터의 문제을 완화한다
    ____표현 학습으로서의 DL
    ____DL의 ML과 AL와의 연관성
    __신경망의 설계
    ____단순 순전파 신경망 구조
    ____주요 설계 선택
    ____심층 신경망의 규제화
    ____더 빠른 훈련: DL을 위한 최적화
    ____요약: 주요 하이퍼파라미터를 조정하는 방법
    __파이썬을 이용해 처음부터 신경망을 구축하는 방법
    ____입력층
    ____은닉층
    ____출력층
    ____순전파
    ____교차 엔트로피 비용 함수
    ____파이썬을 사용해 역전파를 구현하는 방법
    __인기 있는 딥러닝 라이브러리
    ____GPU 가속화의 활용
    ____텐서플로 2를 사용하는 방법
    ____텐서보드 사용법
    ____파이토치 1.4 사용법
    ____다른 옵션
    __롱/숏 전략을 위한 NN의 최적화
    ____일 수익률을 예측하기 위한 특성 공학
    ____NN 구조 프레임워크 정의
    ____NN을 조정하한 설계 옵션 교차 검증
    ____예측 성능 평가
    ____앙상블 시그널을 기반으로 하는 전략의 백테스트
    ____결과를 더욱 개선하는 방법
    __요약

    18장. 금융 시계열과 인공위성 이미지를 위한 CNN
    __CNN이 그리드 같은 데이터를 모델링하는 방법
    ____수작업 코딩부터 데이터의 학습 필터까지
    ____합성곱층의 요소 연산 방법
    ____CNN 아키텍처의 진화: 주요 혁신
    __인공위성 이미지와 물체 인식을 위한 CNN
    ____LeNet5: 산업용 애플리케이션을 갖춘 최초의 CNN
    ____알렉스넷: 딥러닝 연구의 재점화
    ____전이학습: 적은 데이터로 더 빠른 훈련
    ____객체 탐지와 분할
    ____실제 객체 탐지
    __시계열 데이터용 CNN: 수익률 예측
    ____1차원 합성곱이 있는 자기 회귀 CNN
    ____CNN-TA-2D 형식의 시계열 군집화
    __요약

    19장. 순환 신경망
    __RNN의 작동 원리
    ____순환 주기로 계산 그래프 펼치기
    ____시간을 통한 역전파
    ____대안적 순환 신경망 구조
    ____심층 RNN의 설계
    ____장기 의존성 학습 시 문제점
    ____GRU
    __텐서플로 2를 이용한 시계열을 위한 RNN
    ____일변량 회귀: S&P 500 예측
    ____시계열 데이터를 RNN용 형태로 변환
    ____적층 LSTM: 주가 움직임과 수익률 예측
    ____매크로 데이터에 대한 다변량 시계열 회귀
    __텍스트 데이터를 위한 RNN
    ____감성 분류를 위한 LSTM과 단어 임베딩
    ____사전 학습된 단어 벡터를 이용한 감성 분석
    ____SEC 보고서 임베딩으로부터 수익률 예측
    __요약

    20장. 조건부 위험 요인과 자산 가격 결정을 위한 오토인코더
    __비선형 특성 추출을 위한 오토인코더
    ____선형 차원 축소 일반화
    ____이미지 압축을 위한 합성곱 오토인코더
    ____규제화된 오토인코더로 과적합 관리
    ____노이즈 제거 오토인코더로 손상된 데이터 수정
    ____시계열 특성을 위한 Seq2seq 오토인코더
    ____변분 오토인코더로 생성 모델링
    __텐서플로 2로 오토인코더 구현
    ____데이터를 준비하는 방법
    ____단층 순전파 오토인코더
    ____희소성 제약 조건이 있는 순전파 오토인코더
    ____심층 순전파 오토인코더
    ____합성곱 오토인코더
    ____오토인코더 노이즈 제거
    __거래를 위한 조건부 오토인코더
    ____주식 가격과 메타데이터 정보 습득
    ____예측 자산 특징 계산
    ____조건부 오토인코더 아키텍처 만들기
    ____교훈과 다음 단계
    __요약

    21장. 합성 시계열 데이터를 위한 적대적 생성 네트워크
    __GAN으로 합성 데이터 생성
    ____생성 모델과 판별 모델 비교
    ____적대적 훈련: 사기의 제로섬 계임
    ____GAN 아키텍처 ZOO의 급속한 진화
    ____이미지를 위한 GAN 애플리케이션과 시계열 데이터
    __텐서플로 2를 사용해 GAN을 빌드하는 방법
    ____생성자 네트워크 빌드
    ____판별자 네트워크 생성
    ____적대적 훈련 프로세스 설정
    ____평가 결과
    __합성 금융 데이터를 위한 TimeGAN
    ____특성과 시간에 걸쳐 데이터를 생성하는 방법 학습
    ____텐서플로 2를 사용한 TimeGAN 구현
    ____합성 시계열 데이터의 품질 평가
    ____교훈과 다음 단계
    __요약

    22장. 심층 강화학습: 트레이딩 에이전트의 구축
    __RL 시스템의 구성 요소
    ____정책: 상태에서 행동으로 전이
    ____보상: 행동으로부터 학습
    ____가치 함수: 장기적으로 최적 선택
    ____모델 기반 대 모델 프리: 도약 전에 보기?
    __RL 문제의 해법
    ____RL 문제 풀이의 주요 문제점
    ____RL 문제를 푸는 근본적인 방법
    __동적 계획 문제 풀기
    ____유한 MDP
    ____정책 반복
    ____가치 반복
    ____일반화된 정책 반복
    ____파이썬을 이용한 동적 계획
    __Q-러닝: 바둑에서 최적 정책 찾기
    ____탐험 대 활용 트레이드오프: ε-탐욕 정책
    ____Q-러닝 알고리듬
    ____파이썬을 이용한 Q-러닝 에이전트 훈련법
    __OpenAI Gym을 사용한 심층 강화학습
    ____신경망을 이용한 가치 함수의 근사
    ____딥 Q-러닝 알고리듬과 확장
    ____OpenAI GYM 소개
    ____텐서플로2를 이용한 DDQN의 구현
    ____간단한 트레이딩 에이전트 작성
    ____사용자 정의 OpenAI 트레이딩 환경을 설계하는 방법
    ____Deep Q-learning on the stock market
    ____얻은 교훈
    __요약

    23장. 결론과 다음 단계
    __학습에서 얻은 주요 요점과 교훈
    ____데이터는 가장 중요한 단일 재료
    ____도메인 전문 지식: 잡음으로부터 시그널의 구별
    ____ML은 데이터로 문제를 풀기 위한 도구 모음이다
    ____백테스트의 과적합을 주의하라
    ____블랙박스 모델에서 통찰력을 얻는 방법
    __실전 트레이딩을 위한 ML
    ____데이터 관리 테크놀로지
    ____ML 도구
    ____온라인 트레이딩 플랫폼
    __결론

    부록. 알파 팩터 라이브러리
    __TA-Lib에서 구현된 공통 요인 알파
    ____핵심 구성 요소: 이동 평균
    ____중첩 연구: 가격과 변동성 추세
    ____모멘텀 지표
    ____거래량과 유동성 지표
    ____변동성 지표
    ____기본 위험 요인
    __정형화된 알파에 대한 월드퀀트의 탐구
    ____횡단면 및 시계열 함수
    ____정형화된 알파 표현식
    __이변량 및 다변량 요인 평가
    ____정보 계수와 상호 정보량
    ____특성 중요도와 SHAP 값
    ____비교: 각 지표에 대한 Top 25 특성
    ____금융 성과: 알파렌즈

    퀀트 투자를 위한 머신러닝·딥러닝 알고리듬 트레이딩 2/e 도서 상세이미지


    #퀀트 #투자를 #위한 #머신러닝.딥러닝 #알고리듬 #트레이딩 #2/e

    상품필수 정보

    도서명 퀀트 투자를 위한 머신러닝.딥러닝 알고리듬 트레이딩 2/e 저자, 출판사 스테판 젠슨 지음, 홍창수 외 옮김 에이콘출판 크기 188 X 235mm 쪽수 1164 제품 구성 낱권 출간일 20210930 목차 또는 책소개 파이썬


0 개 댓글

답장을 남겨주세요