텐서플로로 배우는 수치최적화와 딥러닝

기초 수학과 함께 비전부터 언어까지!
$35.64
SKU
9791189184087
+ Wish
[Free shipping over $100]

Standard Shipping estimated by Fri 04/18 - Thu 04/24 (주문일로부 10-14 영업일)

Express Shipping estimated by Tue 04/15 - Thu 04/17 (주문일로부 7-9 영업일)

* 안내되는 배송 완료 예상일은 유통사/배송사의 상황에 따라 예고 없이 변동될 수 있습니다.
Publication Date 2022/11/01
Pages/Weight/Size 182*232*24mm
ISBN 9791189184087
Categories IT 모바일 > 프로그래밍 언어
Description
이 책은 텐서플로(TensorFlow)를 사용하여 다양한 딥러닝 모델을 학습하는 방법과 최적화 이론을 다룬다. 딥러닝에 관련된 많은 수학 이론이 있지만, 가장 핵심적인 최적화 문제를 중심으로 딥러닝 학습을 설명한다. 2020년도에 발간된 “딥러닝을 위한 최적화와 수치해석”의 개정판 성격이 강하다.

텐서플로 1이던 기존 실습 예제들이 모두 텐서플로 2로 변경되는 큰 변화가 있다. 또한, 기존에는 자연어 데이터에서 중요한 사전학습 관련 파트를 추가하고, 영상, 자연어, 그리고 테이블 데이터가 모두 섞여 있는 데이터를 다루는 파트도 추가하여 실제 현장과 제품에 적용할 때 도움이 되도록 구성하였다.

현재까지 출판된 딥러닝 관련 도서와 강의들은 최적화 이론에 대해서 다루지 않거나 너무 간단하게 다룬다. 하지만 최적화 이론을 이해하기에는 부족한 양입니다. 이 책에서는 가장 먼저 최적화 이론을 소개하고, 최적화 문제는 텐서플로를 사용하여 푼다.
Contents
이 책을 내며...
들어가며...
추천의 말

PART 1 프로그래밍 준비 작업

Chapter 01 개발환경 설정하기
1.1 아나콘다(Anaconda)
1.1.1 아나콘다 설치하기
1.1.2 터미널 실행 방법
1.1.3 개발환경 생성과 삭제 그리고 패키지 설치
1.1.4 개발환경 활성화와 비활성화
1.1.5 개발환경 내에 패키지 설치하기
1.1.6 개발환경 내보내기와 불러오기

1.2 텐서플로(TensorFlow) 및 관련 패키지 설치하기
1.2.1 yml을 통해 불러오기
1.2.2 yml없이 직접 설정하기

Chapter 02 주피터 노트북과 파이썬 튜토리얼
2.1 주피터 노트북(Jupyter Notebook)
2.1.1 파이썬 코드 실행하기
2.1.2 마크다운
2.1.3 편리한 기능 소개

2.2 파이썬 기초 문법
2.2.1 변수 선언 및 함수 선언, 그리고 익명함수
2.2.2 주요 변수 타입
2.2.3 for loop
2.2.4 if statement
2.2.5 제너레이터(Generator)

2.3 자주 사용되는 파이썬 문법 패턴
2.3.1 데이터 타입마다 다른 for loop 스타일
2.3.2 zip이 들어간 for loop
2.3.3 한 줄 for문
2.3.4 파일 읽기/쓰기

2.4 numpy array
2.4.1 n차원 배열(Array)
2.4.2 배열의 모양(Shape)
2.4.3 전치 연산(Transpose)
2.4.4 Reshape
2.4.5 배열 인덱싱

2.5 시각화 패키지(matplotlib) 튜토리얼
2.5.1 분포도(Scatter Plot) 그리기
2.5.2 Pair Plot(페어플랏) 그리기
2.5.3 단일변수 함수 그래프 그리기
2.5.4 여러 그래프를 한 눈에 보기
2.5.5 그래프 스타일링
2.5.6 다변수 함수 그래프 그리기

Chapter 03 텐서플로 튜토리얼
3.1 텐서플로 설치

3.2 텐서플로 구조 이해하기
3.2.1 그래프(Graph)
3.2.2 텐서(Tensor)
3.2.3 연산(Operation)

3.3 주요 타입 2가지
3.3.1 Constant
3.3.2 Variable

3.4 기초 수학 연산
3.4.1 스칼라 덧셈
3.4.2 텐서플로에서 제공하는 다양한 함수
3.4.3 리덕션(Reduction)
3.4.4 케라스(Keras) 모델

PART 2 딥러닝에 필요한 수치해석 이론

Chapter 04 최적화 이론에 필요한 선형대수와 미분
4.1 선형대수
4.1.1 정의 및 표기법
4.1.2 교육과정에 따른 선형대수의 방향성
4.1.3 벡터/벡터 연산
4.1.4 행렬/벡터 연산
4.1.5 행렬/행렬 연산
4.1.6 선형시스템의 풀이

4.2 딥러닝에서 자주 사용되는 선형대수 표기법
4.2.1 미분과 그래디언트(Gradient)

Chapter 05 딥러닝에 필요한 최적화 이론
5.1 딥러닝에 나타나는 최적화 문제

5.2 최적화 문제의 출발

5.3 최적화 문제 표현의 독해법
5.3.1 선형 회귀 모델
5.3.2 제곱값의 합을 이용한 선형 회귀
5.3.3 절댓값의 합을 사용한 선형 회귀

5.4 다양한 딥러닝 모델과 최적화 문제 미리보기

Chapter 06 고전 수치최적화 알고리즘
6.1 수치최적화 알고리즘이 필요한 이유

6.2 수치최적화 알고리즘의 패턴

6.3 그래디언트 디센트(Gradient Descent)
6.3.1 예제로 배우는 그래디언트 디센트
6.3.2 그래디언트 디센트 방법의 한계점

6.4 그래디언트 디센트를 사용한 선형 회귀 모델 학습
6.4.1 선형 회귀 문제 수식 소개
6.4.2 그래디언트 디센트 방법 적용
6.4.3 한계점

Chapter 07 딥러닝을 위한 수치최적화 알고리즘
7.1 스토캐스틱 방법(Stochastic method)

7.2 스토캐스틱 방법의 코드 구현 패턴

7.3 탐색 방향 기반 알고리즘
7.3.1 스토캐스틱 그래디언트 디센트 방법
7.3.2 모멘텀/네스테로프 방법

7.4 학습률 기반 알고리즘
7.4.1 적응형 학습률 방법의 필요성
7.4.2 Adagrad
7.4.3 RMSProp (Root Mean Square Propagation)
7.4.4 Adam

PART 3 텐서플로를 사용한 딥러닝의 기본 모델 학습

Chapter 08 선형 회귀 모델
8.1 예측 모델과 손실함수

8.2 결정론적 방법과 스토캐스틱 방법
8.2.1 결정론적 방법
8.2.2 스토캐스틱 방법

8.3 비선형 회귀 모델
8.3.1 이차 곡선 데이터
8.3.2 삼차 곡선 데이터
8.3.3 삼각함수 곡선 데이터

8.4 비선형 특성값 추정 방법과 신경망 모델

Chapter 09 선형 분류 모델
9.1 이항 분류 모델
9.1.1 연속 확률 모델
9.1.2 최대우도법과 크로스 엔트로피
9.1.3 미니 배치 방법을 통한 모델 학습
9.1.4 특성값을 이용한 비선형 분류 모델

9.2 다중 분류 모델
9.2.1 소프트맥스(Softmax)
9.2.2 원-핫(One-hot) 인코딩
9.2.3 다중 분류 모델의 크로스 엔트로피
9.2.4 미니 배치 방법을 통한 모델 학습
9.2.5 MNIST

Chapter 10 신경망 회귀 모델
10.1 신경망 모델의 필요성
10.2 신경망 모델 용어 소개
10.3 신경망 모델 구현
10.4 신경망 모델의 다양한 표현
10.5 특성값 자동 추출의 원리
10.6 신경망 모델의 단점

Chapter 11 신경망 분류 모델
11.1 신경망 분류 모델의 필요성

11.2 다양한 데이터 분포와 신경망 분류 모델
11.2.1 신경망 분류 모델 학습
11.2.2 체커보드 예제
11.2.3 불규칙한 데이터 분포 예제

11.3 신경망 분류 모델의 다양한 표현

11.4 MNIST 분류 문제

PART 4 학습용/테스트용 데이터와 언더피팅/오버피팅

Chapter 12 언더피팅/오버피팅 소개
12.1 딥러닝 모델과 함수
12.2 학습용 데이터와 정답함수
12.3 정답함수와 테스트용 데이터
12.4 언더피팅/오버피팅의 2가지 요인

Chapter 13 언더피팅의 진단과 해결책
13.1 학습 반복 횟수 재설정
13.2 학습률 재설정
13.3 모델 복잡도 증가
13.4 언더피팅된 신경망 분류 모델
13.5 언더피팅 요약

Chapter 14 오버피팅의 진단과 해결책
14.1 학습 반복 횟수 재설정

14.2 Regularization 함수 추가
14.2.1 L2 Regularization
14.2.2 L1 Regularization

14.3 드롭아웃(Dropout)
14.4 분류 문제
14.5 교차검증 데이터의 등장

Chapter 15 텐서보드(TensorBoard) 활용
15.1 그래프 그리기
15.2 히스토그램 그리기
15.3 이미지 그리기
15.4 신경망 모델 학습 과정에 텐서보드 적용하기
15.5 Custom 값을 텐서보드에 출력하기

Chapter 16 모델 저장하기와 불러오기
16.1 저장하기
16.2 불러오기
16.3 오버피팅 현상 해결 응용 예제

Chapter 17 딥러닝 가이드라인
17.1 딥러닝 프로젝트 진행 순서
17.1.1 모델과 손실함수 선택
17.1.2 모델 학습 진행
17.1.3 언더피팅 확인
17.1.4 오버피팅 확인
17.1.5 최종 성능 확인

17.2 딥러닝 학습의 근본적 한계
17.2.1 손실함수에는 학습용 데이터뿐이다
17.2.2 데이터 전처리는 매우 중요하다
17.2.3 손실함수와 정확도는 다르다
17.2.4 테스트 데이터의 분포는 완전히 알 수 없다

PART 5 딥러닝 모델

Chapter 18 CNN 모델
18.1 딥러닝(Deep Learning) 이란
18.2 CNN 모델 소개

18.3 콘볼루션(Convolution)
18.3.1 커널(Kernel)/Filter
18.3.2 Strides
18.3.3 Padding

18.4 Max-Pooling
18.5 Dropout

18.6 ReLU 활성 함수
18.6.1 사라지는 그래디언트 문제(Vanishing gradient problem)
18.6.2 문제의 이해
18.6.3 문제의 원인
18.6.4 해결

18.7 자동 특성(Feature) 추출

18.8 MNIST 숫자 분류 문제
18.8.1 데이터 훑어보기
18.8.2 One-Hot 인코딩
18.8.3 CNN모델 구축하기
18.8.4 최적화 문제 설정
18.8.5 하이퍼 파라미터 설정
18.8.6 학습 시작
18.8.7 정확도 확인
18.8.8 전체 코드

Chapter 19 GAN(Generative Adversarial Networks) 모델
19.1 min-max 최적화 문제 소개

19.2 Generator(생성기)
19.2.1 학습용 데이터 준비
19.2.2 Leaky ReLU(누설 ReLU)
19.2.3 Tanh Output

19.3 Discriminator(판별기)

19.4 GAN 네트워크 만들기
19.4.1 Hyperparameters

19.5 손실함수

19.6 Training(학습)
19.6.1 Training(학습)의 세부 조건 설정
19.6.2 Training one epoch
19.6.3 학습 시작
19.6.4 Training loss(학습 손실)
19.6.5 생성기로 만든 샘플 영상
19.6.6 생성기로 새로운 영상 만들기

19.7 유용한 링크 및 전체 코드
19.7.1 유용한 링크
19.7.2 전체 코드

PART 6 응용 문제

Chapter 20 영상
20.1 Transfer Learning(전이 학습)

20.2 꽃 사진 분류
20.2.1 필요한 사전 지식
20.2.2 환경 준비
20.2.3 문제 소개
20.2.4 VGG16 모델
20.2.5 데이터 훑어보기
20.2.6 모델 만들기
20.2.7 최적화 문제와 하이퍼 파라미터 설정
20.2.8 학습
20.2.9 정확도

20.3 Fine-tuning
20.4 Transfer Learning 전체 코드

Chapter 21 자연어 데이터 전처리와 머신러닝 모델
21.1 IMDB 데이터
21.2 자연어 데이터 전처리
21.3 머신러닝에서 사용하던 전처리 기법

Chapter 22 IMDB 영화 리뷰 예제: RNN 모델 학습
22.1 Embedding
22.2 LSTM모델 학습
22.3 Bidirectional LSTM모델 학습
22.4 Multi-Layer LSTM 모델 학습

Chapter 23 IMDB 영화 리뷰 예제: RNN 사전학습 모델 활용
23.1 임베딩 그대로 사용하기
23.2 임베딩 추가 학습하기

Chapter 24 IMDB 영화 리뷰 예제: BERT 사전학습 모델 활용
24.1 BERT 사전학습 모델
24.2 BERT 사전학습 모델 로드하기
24.3 BERT 사전학습을 IMDB 감정 분석으로 추가 학습

Chapter 25 혼합 타입 데이터를 입력으로 받는 딥러닝 모델
25.1 Concatenate를 활용한 다중 입력 모델 생성
25.2 이미지 데이터 추가한 모델 생성
25.3 이미지와 자연어 데이터 추가한 모델 생성

PART 7 부록

Chapter 26 GPU 사용하기
26.1 CPU vs GPU - Latency and throughput processing
26.2 TPU, Tensor core

26.3 GPU 환경 구축
26.3.1 Linux(리눅스)
26.3.2 Windows(윈도)

26.4 텐서플로 예제

Chapter 27 텐서플로를 이용한 병렬 계산
27.1 암달의 법칙

27.2 데이터 병렬화와 모델 병렬화
27.2.1 데이터 병렬화(data parallelism)
27.2.2 모델 병렬화(model parallelism)

27.3 데이터 병렬화 예제

27.4 전체 코드
27.4.1 18장 데이터 병렬화
27.4.2 20장 데이터 병렬화

찾아보기
Author
황윤구,양한별,신동욱
연세대학교 계산과학공학과에서 강화학습을 통한 수리생물학으로 응용수학 박사학위를 마쳤다. 패스트 캠퍼스에서 ‘딥러닝’ 강의를 했으며, Udacity에서는 Deep Reinforcement Learning 나노디그리의 멘토로 활동하고 있다. 삼성메디슨 연구소에서 영상/신호처리 알고리즘 개발을 했었고, 현재는 LG CNS D&A 연구소에서 AI Professional로 강화학습 파트에서 근무하고 있다.
연세대학교 계산과학공학과에서 강화학습을 통한 수리생물학으로 응용수학 박사학위를 마쳤다. 패스트 캠퍼스에서 ‘딥러닝’ 강의를 했으며, Udacity에서는 Deep Reinforcement Learning 나노디그리의 멘토로 활동하고 있다. 삼성메디슨 연구소에서 영상/신호처리 알고리즘 개발을 했었고, 현재는 LG CNS D&A 연구소에서 AI Professional로 강화학습 파트에서 근무하고 있다.