Page 12 -
P. 12

●   강화 학습
                             시스템이 어떤 행동을 선택한 결과에 따라 환경에서 보상을 받아 행동을 개선하는 구조로                              2
                             시행착오를 거치면서 환경에 적응하는 학습입니다. 각각의 입력에 정답이 있지는 않으므로
                             지도 학습은 아니지만, 개선의 단서를 보상 형태로 받으므로 비지도 학습도 아닙니다. 원래                            머신 러닝의 여러 측면

                             는 심리학에서 동물 학습 실험이나 제어 공학에서 최적 제어 이론에 사용하던 기초로, 로봇
                             제어에서 많이 활용하는 기술입니다. 또 각 선택에 정답/오답을 정하지 못해도 일련의 동작
                             결과에 따라 학습할 수 있어 대전 게임에 적용하기도 합니다.






                        2.4         방법이나 과제 설정에 따른 분류
                                                                                 MACHINE LEARNING






                        1.5절 퀵 투어에서 언급했지만, 머신 러닝에서 기술이나 과제 설정에 따른 분류를 다시 살펴봅
                        시다.


                           ●   분류 문제

                             데이터를 분류하는 지도 학습 문제입니다. 학습 데이터에서 분류 기준을 학습하고, 미지의
                             데이터를 적절하게 분류할 수 있게 하는 것을 목표로 합니다.


                           ●   회귀 문제
                             수치를 예측하는 지도 학습 문제입니다. 학습 단계에서 입력과 정답 값의 관계를 학습하고,
                             미지의 입력 값에서도 적절한 값을 예측할 수 있는 것을 목표로 합니다.


                           ●   클러스터링

                             데이터에서 클러스터를 작성하는 비지도 학습 문제입니다. 정답이 없는 곳에도 쓸 수
                             있으므로 탐색적 작업에서 주로 사용합니다. 데이터의 전처리, 중간 처리에서도 사용합
                             니다.










                                                                                                      051




         machine_07.indd   51                                                                    2018-05-15   오전 9:53:12
   7   8   9   10   11   12   13