Page 12 -
P. 12
16장 순환 신경망으로 순차 데이터 모델링 667
16.1 순차 데이터 소개 668
16.1.1 순차 데이터 모델링: 순서를 고려한다 669
16.1.2 시퀀스 표현 669
16.1.3 시퀀스 모델링의 종류 670
16.2 시퀀스 모델링을 위한 RNN 672
16.2.1 RNN 반복 구조 이해 672
16.2.2 RNN의 활성화 출력 계산 674
16.2.3 은닉 순환과 출력 순환 677
16.2.4 긴 시퀀스 학습의 어려움 680
16.2.5 LSTM 셀 681
16.3 텐서플로로 시퀀스 모델링을 위한 RNN 구현 683
16.3.1 첫 번째 프로젝트: IMdb 영화 리뷰의 감성 분석 684
16.3.2 두 번째 프로젝트: 텐서플로로 글자 단위 언어 모델 구현 699
16.4 트랜스포머 모델을 사용한 언어 이해 711
16.4.1 셀프 어텐션 메커니즘 이해 711
16.4.2 멀티-헤드 어텐션과 트랜스포머 블록 714
16.5 요약 715
17장 새로운 데이터 합성을 위한 생성적 적대 신경망 717
17.1 생성적 적대 신경망 소개 718
17.1.1 오토인코더 719
17.1.2 새로운 데이터 합성을 위한 생성 모델 721
17.1.3 GAN으로 새로운 샘플 생성 723
17.1.4 GAN의 생성자와 판별자 손실 함수 이해 724
17.2 밑바닥부터 GAN 모델 구현 726
17.2.1 구글 코랩에서 GAN 모델 훈련 726
17.2.2 생성자와 판별자 신경망 구현 731
17.2.3 훈련 데이터셋 정의 734
17.2.4 GAN 모델 훈련하기 736
machinelearning_06.indd 28 2021-03-17 오후 12:35:58