Python과 R을 몰라도 쉽게 공부하는 인공지능 머신러닝 이론

$24.79
SKU
9791141029951
+ Wish
[Free shipping over $100]

Standard Shipping estimated by Fri 12/6 - Thu 12/12 (주문일로부 10-14 영업일)

Express Shipping estimated by Tue 12/3 - Thu 12/5 (주문일로부 7-9 영업일)

* 안내되는 배송 완료 예상일은 유통사/배송사의 상황에 따라 예고 없이 변동될 수 있습니다.
Publication Date 2023/05/31
Pages/Weight/Size 188*257*20mm
ISBN 9791141029951
Categories IT 모바일 > 컴퓨터 공학
Description
대부분의 인공지능 머신러닝 도서들은 python과 R이라는 언어 툴을 중심으로 설명을 하고 있다. 그러므로 초보자과 언어에 익숙하지 않은 분들은 상당히 힘이 들 수 밖에 없다. 또한 풀타임 학생들도 언어에 익숙한 경우가 많지만, 언어 툴을 사용한 경험이 부족하고 이론적 부족으로 어려움을 겪는 경우가 많음을 지도하면서 발견하였다.

또한 다양한 석사와 박사 과정의 연구 학생들을 지도하면서 python과 R이라는 구현 언어를 몰라도 이해를 할 수 있는 인공지능의 개념서를 요구하는 경우가 많았고, 이런 연유로 본 도서를 만들어야 겠다는 출발점이 되었다. R과 Python을 몰라도 인공지능, 머신러닝과 딥러닝 등을 접하게 하는 것이 본 도서의 목표였다. 그렇지만 두 언어와 떨어진 상태에서 인공지능, 머신러닝을 수행하는 것은 영어라는 툴을 사용하지 않고 미국 대학을 가고자 하는 학생과 같음을 느꼈다. 그러므로 이론적 배경을 숙지한 후 차츰 두 언어에 대한 숙련과 친숙함을 길러서 이런 문제점을 보완하면 되기 때문에 언어에 대한 설명은 최대한 줄였다.
Contents
제 1 부 인공지능과 머신 러닝 1

1.1. 인공지능 1
1) 인공지능: 현대적 접근 방식 1
2) 스마트 홈 생태계 3
1.2. 머신러닝 5
1) 기계학습 핵심: 최적화와 일반화 6
2) 인공지능, 기계학습과 딥러닝 8
1.3. 기계학습 학습방식 11
1) 지도학습(supervised learning) 11
2) 비지도 학습(Unsupervised learning) 13
3) 반지도 학습 13
4) 강화학습(Reinforcement learning) 14
1.4. 기타 학습법 15
1) 차원 축소 15
2) 자가 학습(self learning) 16
3) 특징 학습(feature learning) 17
4) 매니폴드 학습 알고리즘(manifold learning algorithms) 17
5) 희소 사전 학습(sparse dictionary learning) 18
6) 이상 탐지(anomaly detection) 19
7) 연관 규칙(association rules) 20
1.5. 머신러닝 모델 22
1) 인공신경망(ANN) 22
2) 의사 결정 트리 23
3) 서포트 벡터 머신(SVM) 25
4) 회귀 분석 29
5) 베이지안 네트워크 30
6) 유전 알고리즘(Genetic algorithms) 31
7) 연합 학습(Federated learning) 32
1.6. 머신러닝 단점 34
1) 편향 34
2) 과적합 35
3) 기타 단점 36
1.6. 모델 평가 40
1) K-폴드 교차검증 40
2) TP, FP, FPR, FNR 40
3) 성능평가 지표(F1-score) 41
4) 혼동행렬, ROC 43

제 2 부 데이터와 머신 러닝 45

2.1. 데이터 45
1) Data, 정보, 지식과 지혜 45
2) 빅데이터(Big Data) 46
2.2. 정형과 비정형 데이터 47
1) 비정형 데이터 분석방법 48
2) 텍스트 마이닝 49
3) 오피니언 마이닝 49
2.3. 머신러닝 학습 50
1) 분류분석(Classification) 50
2) 예측분석(Prediction) 52
3) 군집분석(Clustering) 53
4) 장바구니 분석(Market Basket Analysis) 54
5) 지지도, 신뢰도와 향상도 55

제 3 부 데이터 유형, 전처리와 특성 58

3.1. 데이터 유형: 시계열 데이터 58
1) 시계열 예측 모델 방법론 59
2) 시계열 구성요소(components) 60
3) 시계열 구성요소 모형 62
4) 시계열 데이터의 특성 63
5) 시계열 데이터의 머신러닝 모델 64
3.2. 데이터 셋 불균형 65
1) SMOTE 65
2) 오버 및 언더 샘플링 66
3) 클래스 가중치 설정 67
4) 앙상블 기법 69
3.3. k Fold Cross-Validation 70
3.4. 데이터 전처리(Data preprocessing) 71
1) 결측치 보정 73
2) 상관관계 분석 73
3) 데이터 정리 73
4) 데이터 편집 75
5) 이상치 76
6) 논리적 불일치 76
3.5. 데이터 축소 77
1) 차원 축소 78
2) 숫자 감소 79
3) 압축 80
4) 특성 선택 81
3.6. 데이터 랭글링 82
1) 데이터 랭글링과 마이닝 82
2) 데이터 랭글링 주요 단계 84
3) 데이터 전처리 예 86
3.7. 데이터 마이닝 87
1) 시맨틱 데이터 전처리(Semantic data preprocessing) 88
2) 의미 데이터 마이닝과 의미 사전 처리 89
3) 시맨틱 데이터 마이닝 장점 89
4) Simple Semantic Data Mining 91
5) 퍼지 전처리 91
6) 온톨로지 92

제 4 부 머신러닝 부트스트랩 94

4.1. 부트스트랩(bootstrap) 94
1) 부팅(booting) 94
4.2. 부트스트랩 방법론 95
1) 부트스트래핑 sampling 96
2) 부트스트래핑 가설 검증 96
3) Bootstrap sampling 특징 97
4) 배깅(부트스트랩 집계) 97
5) 부트스트랩 데이터 세트 생성 98
6) out-of-bag 데이터 세트 생성 100
4.3. 머신러닝 부트스트랩 생성 101
1) 결정 트리(decision tree) 부트스트랩 101
2) 랜덤포레스트 102
3) 랜덤포레스트와 군중지혜 103
4) 결정 결과와 군중 지혜 105
5) 예측 정확도 개선 106
6) 오존 데이터 예측 108

제 5 부 머신러닝 모델 110

5.1. KNN (K-Nearest Neighbor) 110
1) k-NN 분류 110
2) KNN 동작원리 111
3) k-NN 분류와 회귀 113
4) k-NN 단점 115
5) 하이퍼파라미터 매개변수 지정 116
6) k-NN 회귀 122
5.2. 결정 트리(decision tree)) 124
1) 결정트리 종류 125
2) 결정 트리의 스태킹 방법 126
3) 결정트리 기타 방법 127
4) 구조 설명 : 노드, 클래스, 리프, 레이블 127
5) 수학적 기법과 계산적 기법의 조합 129
6) 평가 측정지표 129
7) 지니 불순도(Gini impurity) 135
9) 정보 이득(Information gain) 138
9) 결정트리 모델의 특징 139
10) 결정트리 장점과 한계점 141
11) 결정트리 구현 142
12) 결정트리 대체 검색 방법 145
5.3. 랜덤포레스트(random forest) 150
1) random decision forests 150
2) Random Forest 프로세스 151
3) Random Forest의 성능 평가 154
4) 트리 배깅 알고리즘 155
5) 배깅과 랜덤포레스트 156
6) 랜덤포레스트 특성 157
7) KeRF(keystone random forest)와 랜덤포레스트 162
8) 랜덤포레스트 특징과 단점 163
9) 랜덤포레스트 구현과 평가 164
5.4. SVM(Support Vector Machine) 169
1) SVM 169
2) SVC 커널 트릭 169
3) 파라미터 튜닝 170
4) 수학적 정의 170
3) 커널 방식 172
5.5. 나이브 베이즈 174
5.6. 로지스틱 회귀분석 175
5.7. 뉴럴 네트워크 176
1) 이진 활성화 함수 176
2) 인공 신경망 아키텍쳐 178
3) 가중치 조정 178
4) MLP 179
5) BPNN 180
5.8. Stochastic Gradient Descent(SGD) 182
5.9. 부스팅 184
1) 5 부스팅 알고리즘 184
2) CatBoost 185
3) XGBoost 188
4) AdaBoost 191
5.9. 앙상블 스태킹(stacking) 194
1) 앙상블(ensemble) 194
2) 앙상블 종류 196
3) 배깅(bagging) 197
4) 부스팅(boosting) 199
5) 배깅과 부스팅 특징 201
6) 기타 앙상블 유형 203
5.10. 앙상블 학습 애플리케이션 206
1) 원격 감지(Remote sensing) 206
2) 컴퓨터 보안분야 207
3) 얼굴 인식 207
4) 감정 인식 208
5) 사기 탐지 208
6) 재정적 의사결정 208
7) 의학 208
5.11. 앙상블 알고리즘 구현 208
1) 알고리즘 성능 비교 209
2) 하드 보팅과 소프트 보팅 210
3) VotingClassifier 210
4) R로 구현하기 212
5.12. blending 212
1) blending 의 프로세스 212
2) blending과 stacking 213
5.13. 스태킹 앙상블(stacking ensemble) 214
1) 기본적인 구조 214

제 6 부 데이터 사이언스 218

6.1. 클래스 불균형 218
1) 클래스 균형 218
2) over and under sampling 220
6.2. 데이터 파티션 221
1) train data와 validation data 221
2) test data 221
6.3. anova 분석 222
6.4. 그랜저 인과관계(granger causality) 223
1) 시계열 데이터 225
2) 정상성과 방향성 226
3) 적정한 lags 227
4) r 그래인저 인과 패키지 229
5) 이스라엘과 팔레스타인 문제 231
6.5. 나이브 베이즈 분류기 구현 234
1) 파이썬 구현 234
2) 나이브 베이즈 장단점 235
6.6. 분류성능 평가지표 235
1) 모델의 분류와 정답 236
2) precision, recall and accuracy 236
Author
진하수
부산대학교 경제학 박사. 블록체인 알고리즘, 신경망 전문가 지원 시스템, 빅데이타와 코딩언어(R, Python) 등의 융합학문 연구와 강의를 하고 있다. 교육경제 컨설턴트, 영어전문가, 음악 치유사. AI 교육 전문가로 교육과 경제와 미래학 관련 학술지에 논문 게재하고 있다.

게임이론을 적용한 블록체인 알고리즘 구현을 연구하였다. 지금은 계량경제, 빅데이타와 코딩언어(R, Python)를 융합한 연구를 하고 있다. 교육경제컨설턴트로, 영어학원과 취미로 음악실을 운영하고 있고, 교육경제관련 유명 학술지에 여러편의 논문을 게재하였다. 사교육이 일반고등학생의 성적향상과 대학진학에 유의미한 영향을 주었는가? 등을 다방면으로 모델링하고 있다.
부산대학교 경제학 박사. 블록체인 알고리즘, 신경망 전문가 지원 시스템, 빅데이타와 코딩언어(R, Python) 등의 융합학문 연구와 강의를 하고 있다. 교육경제 컨설턴트, 영어전문가, 음악 치유사. AI 교육 전문가로 교육과 경제와 미래학 관련 학술지에 논문 게재하고 있다.

게임이론을 적용한 블록체인 알고리즘 구현을 연구하였다. 지금은 계량경제, 빅데이타와 코딩언어(R, Python)를 융합한 연구를 하고 있다. 교육경제컨설턴트로, 영어학원과 취미로 음악실을 운영하고 있고, 교육경제관련 유명 학술지에 여러편의 논문을 게재하였다. 사교육이 일반고등학생의 성적향상과 대학진학에 유의미한 영향을 주었는가? 등을 다방면으로 모델링하고 있다.