Page 17 -
P. 17

러한 보상이 커지는 행동은 자주 하도록 하고, 줄어드는 행동은 덜 하도록 하여 학습을 진행합니
               다. 자세한 내용은 ‘12장 강화 학습’에서 설명합니다.

                  그림 1-9 강화 학습(<쿠키런> 게임)(출처: https://www.devsisters.com/ko/product/games/)







               ী੉੹౟










                                             ജ҃

               지도 학습, 비지도 학습, 강화 학습에서 자주 사용되는 알고리즘은 다음 표와 같습니다.


                  표 1-2 지도 학습, 비지도 학습, 강화 학습
                구분                 유형                  알고리즘

                지도 학습              분류(classification)  •K-최근접 이웃(K-Nearest Neighbor, KNN)
                (supervised learning)                  •서포트 벡터 머신(Support Vector Machine, SVM)
                                                       •결정 트리(decision tree)
                                                       •로지스틱 회귀(logistic regression)
                                   회귀(regression)      선형 회귀(linear regression)
                비지도 학습             군집(clustering)      •K-평균 군집화(K-means clustering)
                (unsupervised learning)                •밀도 기반 군집 분석(DBSCAN)
                                   차원 축소               주성분 분석
                                   (dimensionality reduction)  (Principal Component Analysis, PCA)

                강화 학습              -                   마르코프 결정 과정
                (reinforcement learning)               (Markov Decision Process, MDP)



               각 알고리즘은 ‘3장 머신 러닝 핵심 알고리즘’에서 간단히 살펴봅니다.









         024
   12   13   14   15   16   17   18   19   20   21   22