Lecture1 : Supervised Learning

INTRO : What is Machine Learning ?

고전적인 컴퓨터 과학에서 프로그램은 일종의 Input이다. DataProgram을 Input으로 입력하면 컴퓨터가 계산하여 Output을 출력하는 형태로 이루어진다.

반면에 기계학습에서 프로그램은 일종의 Output이다. Data와 **Output(Label)**을 Input으로 입력하면 컴퓨터가 Ouput으로 Program을 만들어주는 형태로 작동한다.

Untitled

SETUP : We need to find h ∈ H

Superviese Learning에서 다루는 데이터는 라벨이 있는 데이터$\left( \mathbf{x}, y \right)$이다. 각 Data Point$(\mathbf{x}_i, y_i)$는 우리가 모르는 분포 $\mathcal{P}(\mathbf{X}, Y)$로 부터 $i.i.d$( $identically \space independent$)하게 샘플링 되었다고 볼 수 있다.

[Which H to choose ?] Hypothesis Classes and No Free Lunch Theorem

No Free Lunch Theorem은 모든 ML 알고리즘이 Assumption이 없이는 어떠한 학습도 할 수 없다는 의미이다. 따라서 함수$h$를 학습시키기 위해 적절한 $\mathcal{H} \ni h$ 선택을 통해 Assumption을 반영해야 한다.

Example

[Which h to choose ?] Loss Functions on Training Data ; Average Loss

Loss function은 **Training Data $\mathcal D$**에서 $h \in \mathcal{H}$의 성능이 얼마나 나쁜가를 평가하는 함수이다. 이 함수를 최소화하는 과정 $h = \argmin\limits_{h \in \mathcal{H}} \mathcal{L}(h)$을 통해 hypothesis class (set of possible functions) $\mathcal{H}$에서 적절한 function $h$를 찾는다.