Page 12 -
P. 12
● 강화 학습
시스템이 어떤 행동을 선택한 결과에 따라 환경에서 보상을 받아 행동을 개선하는 구조로 2
시행착오를 거치면서 환경에 적응하는 학습입니다. 각각의 입력에 정답이 있지는 않으므로
지도 학습은 아니지만, 개선의 단서를 보상 형태로 받으므로 비지도 학습도 아닙니다. 원래 머신 러닝의 여러 측면
는 심리학에서 동물 학습 실험이나 제어 공학에서 최적 제어 이론에 사용하던 기초로, 로봇
제어에서 많이 활용하는 기술입니다. 또 각 선택에 정답/오답을 정하지 못해도 일련의 동작
결과에 따라 학습할 수 있어 대전 게임에 적용하기도 합니다.
2.4 방법이나 과제 설정에 따른 분류
MACHINE LEARNING
1.5절 퀵 투어에서 언급했지만, 머신 러닝에서 기술이나 과제 설정에 따른 분류를 다시 살펴봅
시다.
● 분류 문제
데이터를 분류하는 지도 학습 문제입니다. 학습 데이터에서 분류 기준을 학습하고, 미지의
데이터를 적절하게 분류할 수 있게 하는 것을 목표로 합니다.
● 회귀 문제
수치를 예측하는 지도 학습 문제입니다. 학습 단계에서 입력과 정답 값의 관계를 학습하고,
미지의 입력 값에서도 적절한 값을 예측할 수 있는 것을 목표로 합니다.
● 클러스터링
데이터에서 클러스터를 작성하는 비지도 학습 문제입니다. 정답이 없는 곳에도 쓸 수
있으므로 탐색적 작업에서 주로 사용합니다. 데이터의 전처리, 중간 처리에서도 사용합
니다.
051
machine_07.indd 51 2018-05-15 오전 9:53:12