Page 20 -
P. 20
이런 다중 분류(multiclass classification)의 전형적인 예는 손으로 쓴 글자 인식입니다. 여기서 글자
(“A”, “B”, “C” 등)는 예측하려는 대상이며 순서가 없는 범주나 클래스 레이블로 표현됩니다. 알파
벳 각 글자를 손으로 쓴 이미지 샘플을 모아서 훈련 데이터셋을 구성합니다. 새로운 글자를 입력
으로 제공하면 예측 모델이 일정한 정확도로 알파벳 글자를 예측할 것입니다. 0에서 9까지 숫자
가 훈련 데이터셋에 없다면 이 머신 러닝 시스템은 숫자를 인식하지 못할 것입니다.
회귀: 연속적인 출력 값 예측
이전 절에서 분류 작업은 범주형 순서가 없는 레이블을 샘플에 할당하는 것이라고 배웠습니다.
두 번째 지도 학습의 종류는 연속적인 출력 값을 예측하는 회귀 분석입니다. 회귀는 예측 변수
(predictor variable)(또는 설명 변수(explanatory variable))와 연속적인 반응 변수(response variable)(또
는 결과(outcome))가 주어졌을 때 출력 값을 예측하기 위해 두 변수 사이의 관계를 찾습니다.
머신 러닝 분야에서는 예측 변수를 보통 “특성(feature)”이라고 부르며, 반응 변수를 “타깃(target)”
이라고 부릅니다. 이 책에서는 이런 관례를 따르겠습니다.
예를 들어 학생들의 수학 SAT 점수를 예측한다고 가정해 보죠. 시험 공부에 투자한 시간과 최종
점수 사이에 관계가 있다면 두 값으로 훈련 데이터를 만들고 모델을 학습할 수 있습니다. 이 모델
은 시험에 응시하려는 학생들이 공부한 시간을 이용하여 시험 점수를 예측합니다.
Note 회귀는 1886년 프란시스 갈톤(Francis Galton)이 쓴 “Regression towards Mediocrity in
Hereditary Stature”에서 유래되었습니다. 갈톤은 사람 키의 분산이 시대가 흘러도 증가하지 않는 생물학적 현상을
설명했습니다.
그는 부모의 키가 자녀에게 전달되지 않는 것을 관찰했습니다. 오히려 자녀 키는 인구 전체 평균으로 회귀합니다.
그림 1-4는 선형 회귀(linear regression)의 개념을 나타냅니다. 특성 x와 타깃 y가 주어지면 데이터
포인트와 직선 사이 거리가 최소가 되는 직선을 그을 수 있습니다. 일반적으로 평균 제곱 거리를
3
사용합니다. 이렇게 데이터에서 학습한 직선의 기울기와 절편(intercept) 을 사용하여 새로운 데이
터의 출력 값을 예측합니다.
3 역주 원서에서는 방정식의 상수 항을 가리킬 때 절편(intercept)과 편향(bias)을 혼용하여 사용합니다. 번역서에서는 혼동을 피하기 위해 절
편으로 통일합니다. 편향은 과대적합과 과소적합, 분산- 편향 트레이드오프를 설명할 때 사용하겠습니다.
036
machinelearning_06.indd 36 2021-03-17 오후 12:36:03