본문 바로가기

분류 전체보기45

Chapter 4. 알파 팩터 리서치 스테판 젠슨, 『퀀트 투자를 위한 머신러닝·딥러닝 알고리듬 트레이딩 2/e』, 이기홍, 홍창수, 에이콘출판사(2022), p159-214. ✅ 알파 팩터란 무엇인가? ✔️ 정의 알파(alpha): 시장의 수익률을 초과하는 수익률 (Excess return) 일반적으로 자산 운용사의 액티브 펀드 매니저들이 시장을 얼마나 이겼는지 측정하는 중요 지표 ex. 코스피 지수 성과가 5%, 포트폴리오가 10%였다면, 5%의 알파를 창출한 것 알파 팩터(alpha factor): 자산 가격의 움직임을 예측하는 것을 목표로 하는 원시 데이터의 변환 자산 수익률을 높이는 리스크를 포착하는 것이 목표 시장, 기본, 대체 데이터를 변환한 것 변수의 시간에 따른 상대적/절대적 변화 데이터 시리즈 간 비율 단순/지수 이동 평균.. 2023. 6. 18.
Chapter 3. 금융을 위한 대체 데이터: 범주와 사용 사례 스테판 젠슨, 『퀀트 투자를 위한 머신러닝·딥러닝 알고리듬 트레이딩 2/e』, 이기홍, 홍창수, 에이콘출판사(2022), p127-158. ✅ 대체 데이터 혁명 5V (Volume, Velocity, Variety, Veracity, Value) 매크로, 회사별 데이터 예시 온라인 가격 데이터: 인플레이션 측정 매장 방문 횟수, 구매 횟수: 경제 활동의 실시간 추정 인공위성 이미지: 수확량, 광산, 석유 굴착장에서의 활동 포착 머신러닝 지표 Momentum: 시장 가격 변동, 산업 심리, 경제 팩터에 대한 자산 노출 Value: 재무제표 + 경제 및 산업별 정형/비정형 데이터 분석 Quality: 고객 평가, 직원 리뷰, 앱 트래픽 등으로 시장 점유율 및 기초 수익 팩터로 이익 식별 Sentiment: .. 2023. 6. 12.
Chapter 2. 시장 데이터와 기본 데이터: 소스와 기법 스테판 젠슨, 『퀀트 투자를 위한 머신러닝·딥러닝 알고리듬 트레이딩 2/e』, 이기홍, 홍창수, 에이콘출판사(2022), p75-126. ✅ 전통적인 전략 주식 재무제표 데이터를 기반으로 재무 모델을 구축 산업 or 매크로 데이터와 결합하기도함 기술적 분석을 이용해 주가와 거래량으로부터 계산된 지표들을 사용해 시장 데이터에서 신호를 추출 ✅ 트레이딩 방법 시장가 주문 (market order): 주문이 거래 플랫폼에 도달하는 순간, 가능한 시장가격으로 즉시 체결 보장 지정가 주문 (limit order) 매수: 시장 가격이 지정가보다 작은 경우에만 체결 매도: 시장 가격이 지정가보다 큰 경우에만 체결 스탑 주문 (stop order) 매수: 시장 가격이 지정가보다 높은 경우에 활성화 매도: 시장 가격이 .. 2023. 6. 11.
Chapter 1. 트레이딩용 머신러닝: 아이디어에서 주문 집행까지 스테판 젠슨, 『퀀트 투자를 위한 머신러닝·딥러닝 알고리듬 트레이딩 2/e』, 이기홍, 홍창수, 에이콘출판사(2022), p47-74. ✅ 액티브 투자의 목표: 알파 생성 투자 전략 종류 패시브 전략: 동일 자산이나 파생 상품 등에 대한 차익 거래 액티브 전략: 주문 예측이나 추세 조장 행위(momentum ignition) 주문 예측: 유동성 탐지, 대형 기관 투자자의 숨겨진 유동성을 탐지하는 작은 탐색 주문을 내고, 이후 후속가격 변동으로부터 이익을 얻기 위해 대규모 주문에 앞서 거래하는 알고리즘 추세 조장 행위: 공격적으로 매수 or 매도를 하여 가격 변동으로부터 이익을 얻으려는 다른 HFT 알고리즘을 속이기 위한 일련의 주문을 실행 및 취소하는 알고리즘 알파: 평가에 사용된 벤치마크를 초과하는 포.. 2023. 6. 4.
Chapter 5. 연속형 확률 분포 장철원, 『몬테카를로 시뮬레이션으로 배우는 확률통계 with 파이썬 기초 개념부터 확률 과정 기반 데이터 예측까지』, 비제이퍼블릭(2023), p183-258. 1. 연속형 균일 분포(Continuous uniform distribution) 확률 변수 \(X\)는 특정 값을 가질 확률이 모두 동일한 분포 \(X\sim U(a,b)\) 1-a. 확률 밀도 함수 \(f_X(x) = \displaystyle{1\over {b-a}},\;\; \small x\in [a,b]\) $$ \begin{align*} \int^b_af_X(x)dx & = \displaystyle\int^b_a{1\over {b-a}}dx\\ & = \Big[{1\over {b-a}}\Big]^b_a\\ & = {b\over {b-a}.. 2023. 5. 18.
Chapter 4. 이산형 확률 분포 장철원, 『몬테카를로 시뮬레이션으로 배우는 확률통계 with 파이썬 기초 개념부터 확률 과정 기반 데이터 예측까지』, 비제이퍼블릭(2023), p101-182. 이산형 균일 분포(discrete uniform distribution) 균일 분포(uniform distribution): 확률 변수가 특정 값을 가질 확률이 모두 동일한 분포 표본 공간이 1부터 시작하는 분포 \(X\sim U(1, N)\) \(P(X=x) = \displaystyle{1\over n}, \;\; x=1,2,\cdots, N\) \(\sum^N_{x=1}P(X=x) = 1\) → 확률 질량 함수의 성질 \(E(X) = \displaystyle{{N+1}\over 2}\) $$\begin{align*} E(X) & = \disp.. 2023. 5. 11.
Chapter 3. 확률 장철원, 『몬테카를로 시뮬레이션으로 배우는 확률통계 with 파이썬 기초 개념부터 확률 과정 기반 데이터 예측까지』, 비제이퍼블릭(2023), p43-100. 확률의 개념 표본 공간(sample space): 발생 가능한 모든 결과의 집합 기호: \(\varOmega\) (오메가) 사건(event): 표본 공간의 부분 집합 확률(probability): 어떤 사건이 발생할 가능성을 0~1 사이의 숫자로 수치화 시킨 것 독립(independent): 두 사건이 발생할 확률을 곱한 결과가 두 사건이 동시에 발생할 확률과 동일함 \(P(A\cap B) = P(A)P(B)\) 배반(disjoint): 동시에 발생할 확률이 0 \(P(A\cap B) = 0\) \(P(\displaystyle\bigcup^{\in.. 2023. 5. 3.
Chapter 2. 기초 수학 장철원, 『몬테카를로 시뮬레이션으로 배우는 확률통계 with 파이썬 기초 개념부터 확률 과정 기반 데이터 예측까지』, 비제이퍼블릭(2023), p15-42. 단조 함수 (monotone function) 단조 증가 함수: 주어진 구간에서 감소하는 구간이 없는 함수 $$x_1\le x_2, \;\;f(x_1)\le f(x_2)$$ 단조 감소 함수: 주어진 구간에서 증가하는 구간이 없는 함수 $$x_1\le x_2, \;\;f(x_1)\ge f(x_2)$$ 자연 상수 e (natural constant) $$e= \displaystyle\sum^{\infty}_{n=0}{1\over {n!}} \thickapprox 2.718$$ 무한급수 (infinite series) 무한 수열 \({\{a_n\}}\)의.. 2023. 4. 29.
Chapter 6. 텍스트 분류 알고리즘 젠스 알브레히트, 시다르트 라마찬드란, 크리스티안 윙클러, 『파이썬 라이브러리를 활용한 텍스트 분석 Blueprints for Text Analytics Using Python』, 심상진, 한빛미디어-OREILLY(2022), p213-249. Learned SVM 랜덤 포레스트 대비 희소 데이터의 분류 및 예측 작업에 더 적합함 ➡️ 텍스트 데이터로 작업할 때 선호됨 숫자로만 이루어진 입력 특성으로 작업할 때 적합 혼합된 입력 특성(ex. 범주 + 수치)인 경우, 다른 알고리즘을 쓰는 것이 좋음 Linear SVC vs SVC vs SGDClassifier LinearSVC sklearn.svm.LinearSVC liblinear 구현을 기반 (C++ 오픈 소스 라이브러리) SVC, SGDClassif.. 2023. 3. 26.
Chapter 5. 특성 엔지니어링 및 구문 유사성 젠스 알브레히트, 시다르트 라마찬드란, 크리스티안 윙클러, 『파이썬 라이브러리를 활용한 텍스트 분석 Blueprints for Text Analytics Using Python』, 심상진, 한빛미디어-OREILLY(2022), p177-212. Learned MultiLabelBinarizer One-hot Encoding을 할 경우 MultiLabelBinarizer를 쓰는 것을 권장 OneHotEncoder는 범주형 특성에만 적합 Multi-label Classification에서도 활용 가능 Bag Of Words (BOW) BOW를 이용해 문서 간의 유사성을 구할 때, 문서 벡터 간의 각도를 유사성의 척도로 활용하는 방법을 추천 스칼라곱은 벡터의 크기(문서의 단어 수)에 민감함 유클리디안 거리는 .. 2023. 3. 26.
반응형