Page 14 -
P. 14

어떻게 될지를 예측하는 것도 큰 목적이다. 이로 인해 예측 성능이 높은 모델이 좋은 모델이라 할
                    수 있다.

                    그리고 해석과 예측은 서로 연관되어 있다. 배경지식과 잘 맞는, 이해하기 쉬운 모델에는 강건성                              1
                    (robustness)이 있다. 강건성이란 구축한 모델을 조금 바꾸거나 입력으로 사용하는 데이터를 살짝
                    바꿔도 해석과 예측이 크게 변하지 않는 성질이다. 모델에 강건성이 없으면 새로운 데이터를 전혀                              통계 모델링과 Stan 개요
                    예측하지 못하는 경우도 자주 생기고, 실무에 사용되면 크게 실패할 수 있다.

                    현상에 대한 예측성을 높이는 데만 한정한다면 서포트 벡터 머신(Support Vector Machine, SVM)이

                    나 경사 부스팅(gradient boosting), 랜덤 포레스트(random forest)와 같은 머신 러닝 방법이 통계 모
                    델링처럼 지식을 수식으로 치환하는 작업이 별로 없고 현상의 배경이 확실하지 않을 때도 쉽게 제
                                                                  2
                    대로 작동한다는 장점이 있지만, 결과 해석이 어렵고 과학습 이 일어나도 눈치채기 어렵다는 단점
                    이 있다.

                    한편 고전적인 분산분석과 그룹별 집계 등은 결과를 해석하기는 쉽지만 예측에는 도움이 되지 않
                    는 경우가 많다. 이 방법의 문제는 대상에 대한 배경지식과 경험을 가졌지만 전부 활용하지 않는

                    다는 점에 있다.
                    머신 러닝 방법과 고전적인 방법을 비교한 통계 모델링은 복잡한 현실 문제도 결과를 해석하기 쉬

                    우며 예측 성능도 높다는 장점만 모을 수 있다. 요즘은 얻을 수 있는 데이터가 많아졌고 통계 모델
                    노하우도 축적되었으므로 이렇게 장점만 모은 모델을 논문 등에서 자주 볼 수 있다. 이 책이 독자
                    의 각 분야에서 이런 모델을 구축할 수 있게 도움이 되었으면 한다.






                    1.3         확률적 프로그래밍 언어
                                                                 MODELING WITH ST AN






                    일반적으로 확률 모델 매개변수 값을 추정하려면 분석자가 추정 계산의 난해한 수식을 유도해서
                    알고리즘을 프로그래밍 언어로 구현해야 한다. 이 모든 과정이 복잡하므로 버그가 생기기 쉽다.

                    게다가 추정 계산은 모델에 의존하므로 모델이 바뀔 때마다 수식과 구현을 수정해야 한다. 따라
                    서 추정 계산 과정은 통계 모델링을 사용해보고 싶은 분석자에게 문턱이 매우 높았다. 하지만 이



                    2 과학습은 2.3절에서 설명한다.

                                                                                                  025







     1데이터분석을위한베이지안통계모델링.indd   25                                                            2019. 3. 14.   오후 8:32
   9   10   11   12   13   14   15   16   17   18   19