Page 12 -
P. 12

16장 순환 신경망으로 순차 데이터 모델링                               667


                16.1  순차 데이터 소개  668
                     16.1.1 순차 데이터 모델링: 순서를 고려한다  669
                     16.1.2 시퀀스 표현  669
                     16.1.3 시퀀스 모델링의 종류  670

                16.2  시퀀스 모델링을 위한 RNN  672
                     16.2.1 RNN 반복 구조 이해  672
                     16.2.2 RNN의 활성화 출력 계산  674
                     16.2.3 은닉 순환과 출력 순환  677
                     16.2.4 긴 시퀀스 학습의 어려움  680
                     16.2.5 LSTM 셀  681
                16.3  텐서플로로 시퀀스 모델링을 위한 RNN 구현  683
                     16.3.1 첫 번째 프로젝트: IMdb 영화 리뷰의 감성 분석  684
                     16.3.2 두 번째 프로젝트: 텐서플로로 글자 단위 언어 모델 구현  699

                16.4  트랜스포머 모델을 사용한 언어 이해  711
                     16.4.1 셀프 어텐션 메커니즘 이해  711
                     16.4.2 멀티-헤드 어텐션과 트랜스포머 블록  714
                16.5  요약  715




                17장 새로운 데이터 합성을 위한 생성적 적대 신경망                                    717


                17.1  생성적 적대 신경망 소개  718
                     17.1.1 오토인코더  719
                     17.1.2 새로운 데이터 합성을 위한 생성 모델  721
                     17.1.3 GAN으로 새로운 샘플 생성  723
                     17.1.4 GAN의 생성자와 판별자 손실 함수 이해  724
                17.2  밑바닥부터 GAN 모델 구현  726
                     17.2.1 구글 코랩에서 GAN 모델 훈련  726
                     17.2.2 생성자와 판별자 신경망 구현  731
                     17.2.3 훈련 데이터셋 정의  734
                     17.2.4 GAN 모델 훈련하기  736









     machinelearning_06.indd   28                                                           2021-03-17   오후 12:35:58
   7   8   9   10   11   12   13   14   15   16   17