-
Notifications
You must be signed in to change notification settings - Fork 0
/
agent.py
249 lines (216 loc) · 9.63 KB
/
agent.py
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
import random
import numpy as np
import utils
'''
속성
initial_balacne: 초기 투자금
balance: 현금 잔고
num_stocks: 보유 주식 수
portfolio_value: 포트폴리오 가치(투자금 잔고 + 주식 현재가 X 보유 주식수)
num_buy: 매수 횟수
num_sell: 매도 횟수
num_hold: 관망 횟수
immediate_reward: 즉시 보상
profitloss: 현재 손익
base_profitloss: 직전 지연 보상 이후 손익
exploration_base: 탐험 행동 결정 기준
함수
reset(): 에이전트의 상태를 초기화
set_balance(): 초기 자본금을 설정
get_states(): 에이전트 상태를 휙득
decide_action(): 탐험 또는 정책 신경망에 의한 행동 결정
validate_action(): 행동의 유효성 판단
decide_trading_unit(): 매수 또는 매도할 주식 수 결정
act(): 행동 수행
'''
class Agent:
# 에이전트 상태가 구성하는 값 개수
STATE_DIM = 3 # 주식 보유 비율, 포트폴리오 가치 비율, 평균 매수 단가 대비 등락률
# 매매 수수료 및 세금
TRADING_CHARGE = 0.00015 # 거래 수수료 0.015%
# TRADING_CHARGE = 0.00011 # 거래 수수료 0.011%
# TRADING_CHARGE = 0 # 거래 수수료 미적용
TRADING_TAX = 0.0025 # 거래세 0.25%
# TRADING_TAX = 0 # 거래세 미적용
# 행동
ACTION_BUY = 0 # 매수
ACTION_SELL = 1 # 매도
ACTION_HOLD = 2 # 홀딩
# 인공 신경망에서 확률을 구할 행동들
ACTIONS = [ACTION_BUY, ACTION_SELL, ACTION_HOLD]
NUM_ACTIONS = len(ACTIONS) # 인공 신경망에서 고려할 출력값의 개수
def __init__(
self, environment, balance, min_trading_unit=1, max_trading_unit=2):
# Environment 객체
# 현재 주식 가격을 가져오기 위해 환경 참조
self.environment = environment
# 최소 매매 단위, 최대 매매 단위, 지연보상 임계치
self.min_trading_unit = min_trading_unit # 최소 단일 거래 단위
self.max_trading_unit = max_trading_unit # 최대 단일 거래 단위
# Agent 클래스의 속성
self.initial_balance = balance # 초기 자본금
self.balance = balance # 현재 현금 잔고
self.num_stocks = 0 # 보유 주식 수
# 포트폴리오 가치: balance + num_stocks * {현재 주식 가격}
self.portfolio_value = 0
self.base_portfolio_value = 0 # 직전 학습 시점의 PV
self.num_buy = 0 # 매수 횟수
self.num_sell = 0 # 매도 횟수
self.num_hold = 0 # 홀딩 횟수
self.immediate_reward = 0 # 즉시 보상
self.profitloss = 0 # 현재 손익
self.base_profitloss = 0 # 직전 지연 보상 이후 손익
self.exploration_base = 0 # 탐험 행동 결정 기준
# Agent 클래스의 상태
self.ratio_hold = 0 # 주식 보유 비율
self.ratio_portfolio_value = 0 # 포트폴리오 가치 비율
self.avg_buy_price = 0 # 주당 매수 단가
def reset(self):
self.balance = self.initial_balance
self.num_stocks = 0
self.portfolio_value = self.initial_balance
self.base_portfolio_value = self.initial_balance
self.num_buy = 0
self.num_sell = 0
self.num_hold = 0
self.immediate_reward = 0
self.ratio_hold = 0
self.ratio_portfolio_value = 0
def reset_exploration(self, alpha=None):
if alpha is None:
alpha = 0
self.exploration_base = 0.5 + alpha
def set_balance(self, balance):
self.initial_balance = balance
def get_states(self):
self.ratio_hold = self.num_stocks / int(self.portfolio_value / self.environment.get_price())
self.ratio_portfolio_value = (
self.portfolio_value / self.base_portfolio_value
)
return (
self.ratio_hold,
self.ratio_portfolio_value,
(self.environment.get_price() / self.avg_buy_price) - 1 if self.avg_buy_price > 0 else 0
)
def decide_action(self, pred_value, pred_policy, epsilon):
confidence = 0.
pred = pred_policy
if pred is None:
pred = pred_value
if pred is None:
# 예측 값이 없을 경우 탐험
epsilon = 1
else:
# 값이 모두 같은 경우 탐험
maxpred = np.max(pred)
if (pred == maxpred).all():
epsilon = 1
# 탐험 결정
if np.random.rand() < epsilon:
exploration = True
if np.random.rand() < self.exploration_base:
action = self.ACTION_BUY
else:
action = np.random.randint(self.NUM_ACTIONS - 1) + 1
else:
exploration = False
action = np.argmax(pred)
confidence = .5
if pred_policy is not None:
confidence = pred[action]
elif pred_value is not None:
confidence = utils.sigmoid(pred[action])
return action, confidence, exploration
def validate_action(self, action):
if action == Agent.ACTION_BUY:
# 적어도 1주를 살 수 있는지 확인
if self.balance < self.environment.get_price() * (
1 + self.TRADING_CHARGE) * self.min_trading_unit:
return False
elif action == Agent.ACTION_SELL:
# 주식 잔고가 있는지 확인
if self.num_stocks <= 0:
return False
return True
def decide_trading_unit(self, confidence):
if np.isnan(confidence):
return self.min_trading_unit
added_traiding = max(min(
int(confidence * (self.max_trading_unit -
self.min_trading_unit)),
self.max_trading_unit-self.min_trading_unit
), 0)
return self.min_trading_unit + added_traiding
def act(self, action, confidence):
if not self.validate_action(action):
action = Agent.ACTION_HOLD
# 환경에서 현재 가격 얻기
curr_price = self.environment.get_price()
# 즉시 보상 초기화
self.immediate_reward = 0
# 매수
if action == Agent.ACTION_BUY:
# 매수할 단위를 판단
trading_unit = self.decide_trading_unit(confidence)
balance = (
self.balance - curr_price * (1 + self.TRADING_CHARGE) * trading_unit
)
# 보유 현금이 모자랄 경우 보유 현금으로 가능한 만큼 최대한 매수
if balance < 0:
trading_unit = max(
min(
int(self.balance / (
curr_price * (1 + self.TRADING_CHARGE))),
self.max_trading_unit
),
self.min_trading_unit
)
# 수수료를 적용하여 총 매수 금액 산정
invest_amount = curr_price * (1 + self.TRADING_CHARGE) * trading_unit
if invest_amount > 0:
self.avg_buy_price = (self.avg_buy_price * self.num_stocks + curr_price) / (self.num_stocks + trading_unit) # 주당 매수 단가 갱신
self.balance -= invest_amount # 보유 현금을 갱신
self.num_stocks += trading_unit # 보유 주식 수를 갱신
self.num_buy += 1 # 매수 횟수 증가
# 매도
elif action == Agent.ACTION_SELL:
# 매도할 단위를 판단
trading_unit = self.decide_trading_unit(confidence)
# 보유 주식이 모자랄 경우 가능한 만큼 최대한 매도
trading_unit = min(trading_unit, self.num_stocks)
# 매도
invest_amount = curr_price * (
1 - (self.TRADING_TAX + self.TRADING_CHARGE)) * trading_unit
if invest_amount > 0:
self.avg_buy_price = (self.avg_buy_price * self.num_stocks - curr_price) / (self.num_stocks - trading_unit) if self.num_stocks > trading_unit else 0 # 주당 매수 단가 갱신
self.num_stocks -= trading_unit # 보유 주식 수를 갱신
self.balance += invest_amount # 보유 현금을 갱신
self.num_sell += 1 # 매도 횟수 증가
# 홀딩
elif action == Agent.ACTION_HOLD:
self.num_hold += 1 # 홀딩 횟수 증가
# 포트폴리오 가치 갱신
self.portfolio_value = self.balance + curr_price * self.num_stocks
self.profitloss = (
(self.portfolio_value - self.initial_balance) / self.initial_balance
)
return self.profitloss
'''
# 즉시 보상 - 수익률
self.immediate_reward = self.profitloss
# 지연 보상 - 익절, 손절 기준
delayed_reward = 0
self.base_profitloss = (
(self.portfolio_value - self.base_portfolio_value) \
/ self.base_portfolio_value
)
if self.base_profitloss > self.delayed_reward_threshold or \
self.base_profitloss < -self.delayed_reward_threshold:
# 목표 수익률 달성하여 기준 포트폴리오 가치 갱신
# 또는 손실 기준치를 초과하여 기준 포트폴리오 가치 갱신
self.base_portfolio_value = self.portfolio_value
delayed_reward = self.immediate_reward
else:
delayed_reward = 0
return self.immediate_reward, delayed_reward
'''