Machine Learning(3)
-
[AFML]Ch 5. Fractional Differentiation
본 글은 Marcos Lopez de Prado의 'Advances in Financial Machine Learning(2018)'의 5장 'Fractionally Differenced Features'의 내용을 발췌해서 정리한 것임. 1. Literature Review Virtually all the financial time series literature is based on the premise of making non-stationary series stationary through "integer transformation." 실제로 논문을 읽어봐도 대부분 거리낌 없이 1계 내지는 2계 차분을 통해 stationarity를 회복한 후 분석을 진행한다. 따라서 다음의 질문들이 떠오르는 것은 ..
2021.08.18 -
Adative Linear Neuron(적응형 선형 뉴런; Adaline)
Intro Adaline(이하 아달린)은 퍼셉트론의 향상된 버전으로 볼 수 있다. 아달린은 연속 함수를 비용함수로 정의하고 최소화한다. 아달린 규칙(위드로우-호프 규칙)과 로젠블라트의 퍼셉트론의 가장 큰 차이점은 가중치를 업데이트하는 데 퍼셉트론처럼 단위 계단 함수 대신 선형 활성화 함수를 사용한다는 점이다. 아달린에서 선형활성화 함수 $\phi(z)$는 최종 입력과 동일한 함수이다. 즉 다음과 같다. $$\phi(\mathbf w^T \mathbf x) = \mathbf w^T \mathbf x$$ 선형 활성화 함수가 가중치 학습에 사용되지만 최종 예측을 만드는 데에는 여전히 임계함수를 사용한다. 퍼셉트론에서의 단위 계단 함수와 유사하다. 아달린 알고리즘은 진짜 클래스 레이블과 선형 활성화 함수의 실수..
2021.01.02 -
Perceptron(퍼셉트론)
1. 수학적 정의 입력 신호 → 수상 돌기 → 축삭 돌기 → 출력 신호 수상 돌기에 여러 신호가 도착하면 세포체에 합쳐진다. 합쳐진 신호가 특정 임계값을 넘으면 출력 신호가 생성되고 축삭 돌기를 이용하여 전달된다. 로젠블라트(Frank Rosenblatt)는 뉴런 모델을 기반으로 퍼셉트론 학습 개념을 처음 발표했다. 퍼셉트론 규칙에서 로젠블라트는 자동으로 최적의 가중치를 학습하는 알고리즘을 제안했다. 이는 두 개의 클래스가 있는 이진분류 작업으로 볼 수 있다. 두 클래스는 간단하게 1(양성 클래스)과 -1(음성 클래스)로 나타낸다. 그 다음 입력 값 $\bf{x}$와 이에 상응하는 가중치 벡터 $\bf{w}$의 선형 결합으로 결정 함수 $\phi(z)$를 정의한다. 최종 입력은 $z = w_1x_1 + ..
2021.01.02