본문 바로가기

도서 소개

신경망과 심층학습: 뉴럴 네트워크와 딥러닝 교과서

이 책은 현재 절판입니다. 그간 읽어주신 독자들께 감사드립니다.
2020 대한민국학술원 우수학술도서 선정!

 

도서구매 사이트(가나다순)
[교보문고] [도서11번가] [반디앤루니스] [알라딘] [영풍문고] [예스이십사] [인터파크] [쿠팡]

전자책 구매 사이트(가나다순)
[교보문고] [구글도서] [리디북스] [알라딘] [예스24] [인터파크]


신경망의 기초부터 고급 주제까지

체계적으로 정리한 새로운 인공지능 교과서!

 

출판사 제이펍

저작권사 Springer

원서명 Neural Networks and Deep Learning: A Textbook(원서 ISBN: 9781617293528)

저자명 차루 C. 아가르왈

역자명 류광

출판일 2019년 9월 17일

페이지 760쪽

시리즈 I♥A.I. 19(제이펍의 인공지능 시리즈 19)

판 형 188*245*37

제 본 무선(soft cover)

정 가 39,000원

ISBN 979-11-88621-66-8 (93000)

키워드 신경망 / 인공지능/ 딥러닝 / 머신러닝 / 기계학습 / 심층학습 / 뉴럴 네트워크

분야 인공지능 / 딥러닝

 
관련 사이트
 
관련 포스트
 
관련 시리즈
 
관련 도서
 
관련 파일 다운로드
■ 해답집(PDF, 영문)

Instructor's Solution Manual for Neural Networks.pdf

■ 강의 슬라이드(PDF, 영문)

강의 슬라이드(LaTex, 영문)

 

관련 동영상

■ 저자 직강 중 [3.1 Backpropagation in Neural Networks]

 

 
 
 
강의보조 자료 다운로드
교재로 채택하신 분들은 메일을 보내주시면 아래의 자료를 보내드리겠습니다: jeipubmarketer@gmail.com
■ 본문의 그림과 표, 수식을 모은 PDF 파일, 강의용 슬라이드(PDF 및 LaTex 영문 버전), 해답집(PDF, 영문 버전)
 
샘플 PDF
(옮긴이 머리말, 머리말, 감사의 글, 저자 소개, 베타리더 후기, 1장 '신경망 입문' 일부, 3장 '심층 신경망의 훈련' 일부, 6장 '제한 볼츠만 기계' 일부)
정오표 페이지
 
도서구매 사이트(가나다순)

전자책 구매 사이트(가나다순)
[교보문고] [구글도서] [리디북스] [알라딘] [예스24] [인터파크]

도서
소개
신경망의 기초부터 고급 주제까지
체계적으로 정리한 새로운 인공지능 교과서!
 
이 책은 현세대의 심층 학습 모형들을 주로 다루되, 전통적인 기계 학습 모형들도 언급한다. 이 책의 주요 내용은 다음과 같다.
 
신경망의 기초: 전통적인 기계 학습 모형 중에는 신경망의 특수 사례로 이해할 수 있는 것들이 많이 있다. 제1장과 제2장은 전통적인 기계 학습과 신경망의 관계에 초점을 둔다. 이 두 장은 지지 벡터 기계, 선형회귀와 로지스틱 회귀, 특잇값 분해, 행렬 인수분해, 추천 시스템이 신경망의 특수 사례들에 해당함을 보여 준다. 그와 함께 word2vec 같은 최근의 특징 공학 방법들도 소개한다.
 
기본적인 신경망 구조들과 학습 방법: 제3장과 제4장에서는 신경망의 훈련과 정칙화를 상세하게 논의한다. 제5장과 제6장은 방사상 기저 함수(RBF) 신경망과 제한 볼츠만 기계(RBM)를 소개한다.
 
신경망의 고급 주제: 제7장과 제8장은 순환 신경망과 합성곱 신경망을 논의한다. 제9장과 제10장에서는 심층 강화 학습, 신경 튜링 기계, 생성 대립 신경망(GAN) 같은 여러 고급 주제를 논의한다.
 
이 책의 대상 독자
이 책의 주된 대상은 대학원생과 연구자, 실무자이다. 강의와 독학에 도움이 되도록 각 장 끝에 연습문제들을 수록했다. 그리고 신경망과 심층 학습이 실제로 어떻게 쓰이는지 독자가 가늠할 수 있도록 응용 사례를 중심으로 논의를 진행했다.
 
지은이 소개
차루 C. 아가르왈(Charu C. Aggarwal)
아가르왈은 미국 뉴욕 요크타운 하이츠 소재 IBM T. J. 왓슨 연구센터의 저명 연구원(Distinguished Research Staff Member, DRSM)이다. 그는 1993년에 인도 칸푸르의 인도 공과대학교에서 컴퓨터 과학을 학사로 졸업하고, 1996년 매사추세츠 공과대학(MIT)에서 박사 학위를 받았다. 데이터 마이닝 분야에서 주로 일했으며, 주요 콘퍼런스와 학술지에 350편이 넘는 논문을 발표했고, 80건이 넘는 특허를 가지고 있다. 또한, 데이터 마이닝과 추천 시스템, 이상치 분석에 관한 교과서들을 비롯해 18권의 책을 저술 또는 편집했다. 보유한 특허들의 상업적 가치 덕분에 IBM에서 세 번이나 Master Inventor로 선정되었다. 그는 데이터 스트림에서 생물 테러 위협을 검출하는 문제에 관한 연구로 2003년 IBM Corporate Award를 받았으며, 개인정보 기술에 대한 과학적 기여로 2008년 IBM Outstanding Innovation Award를 받았다. 또한, 자료 스트림/고차원 자료에 관한 연구로 2009년과 2015년에 IBM Outstanding Technical Achievement Award를 받았다. 2014년에는 응축(condensation) 기반 개인정보 보존 데이터 마이닝에 관한 연구로 EDBT 2014 Test of Time Award를 받았다. 그는 또한 2015년 IEEE ICDM Research Contributions Award 수상자인데, 이 상은 데이터 마이닝 분야에 기여한 연구자들에 주는 가장 권위 있는 두 상중 하나이다.
 
옮긴이 소개
류광
20년 이상의 번역 경력을 가진 전문 번역가다. 인공지능의 교과서라 불리는 《인공지능: 현대적 접근방식(제3판)》(총 2권)과 커누스 교수의 《컴퓨터 프로그래밍의 예술》 시리즈를 포함하여 60여 종의 다양한 IT 전문서를 번역했다.
 
차례
1장 신경망 입문
1.1 소개 1
1.1.1 인간 대 컴퓨터: 인공지능의 한계 확장 4
1.2 신경망의 기본 구조 6
1.2.1 단일 계산층: 퍼셉트론 7
1.2.2 다층 신경망 25
1.2.3 계산 그래프로서의 다층망 28
1.3 역전파를 이용한 신경망 훈련 30
1.4 신경망 훈련의 실질적인 문제점들 35
1.4.1 과대적합 문제점 35
1.4.2 기울기 소실 및 폭발 문제 41
1.4.3 수렴의 어려움 41
1.4.4 국소 가짜 최적해 42
1.4.5 계산의 어려움 43
1.5 함수 합성이 강력한 이유 44
1.5.1 비선형 활성화 함수의 중요성 47
1.5.2 깊이를 이용한 매개변수 요구수준 감소 49
1.5.3 통상적이지 않은 신경망 구조들 51
1.6 흔히 쓰이는 신경망 구조들 54
1.6.1 얕은 모형으로 기본적인 기계 학습 흉내 내기 54
1.6.2 방사상 기저 함수(RBF) 신경망 54
1.6.3 제한 볼츠만 기계 55
1.6.4 순환 신경망 56
1.6.5 합성곱 신경망 59
1.6.6 위계적 특징 공학과 미리 훈련된 모형 61
1.7 고급 주제 64
1.7.1 강화 학습 64
1.7.2 자료 저장과 계산의 분리 65
1.7.3 생성 대립 신경망(GAN) 66
1.8 주요 벤치마크 두 가지 67
1.8.1 필기 숫자들을 담은 MNIST 데이터베이스 67
1.8.2 ImageNet 데이터베이스 69
1.9 요약 70
1.10 문헌 정보 71
1.10.1 동영상 강의 73
1.10.2 소프트웨어 정보 74
연습문제 75
더보기
2장 얕은 신경망을 이용한 기계 학습
2.1 소개 79
2.2 이진 분류 모형을 위한 신경망 구조 82
2.2.1 퍼셉트론 다시 보기 83
2.2.2 최소제곱 회귀 85
2.2.3 로지스틱 회귀 91
2.2.4 지지 벡터 기계 94
2.3 다중 분류 모형을 위한 신경망 구조들 97
2.3.1 다부류 퍼셉트론 97
2.3.2 웨스턴-왓킨스 SVM 99
2.3.3 다항 로지스틱 회귀(소프트맥스 분류기) 101
2.3.4 다중 분류를 위한 위계적 소프트맥스 103
2.4 해석성과 특징 선택을 위한 돌출 요인 역전파 104
2.5 자동부호기를 이용한 행렬 인수분해 105
2.5.1 자동부호기의 기본 원리 106
2.5.2 비선형 활성화 함수 113
2.5.3 심층 자동부호기 116
2.5.4 이상치 검출에 응용 119
2.5.5 은닉층이 입력층보다 넓은 경우 120
2.5.6 기타 응용 122
2.5.7 추천 시스템: 행 색인과 행 가치 예측 124
2.5.8 논의 128
2.6 word2vec: 단순 신경망 구조의 한 응용 129
2.6.1 연속 단어 모음을 이용한 신경망 단어 내장 130
2.6.2 스킵그램 모형을 이용한 신경망 내장 134
2.6.3 word2vec(SGNS)은 로그 행렬 인수분해이다 142
2.6.4 보통의 스킵그램은 다항 행렬 인수분해이다 145
2.7 그래프 내장을 위한 간단한 신경망 구조 146
2.7.1 임의의 간선 횟수 처리 148
2.7.2 다항 모형 149
2.7.3 DeepWalk 및 node2vec의 관계 149
2.8 요약 150
2.9 문헌 정보 151
2.9.1 소프트웨어 정보 153
연습문제 154
 
3장 심층 신경망의 훈련
3.1 소개 157
3.2 아주 상세한 역전파 알고리즘 160
3.2.1 역전파와 계산 그래프 추상 160
3.2.2 해결책은 동적 계획법 166
3.2.3 활성화 후 변수를 이용한 역전파 167
3.2.4 활성화 전 값을 이용한 역전파 171
3.2.5 여러 활성화 함수의 갱신 공식 174
3.2.6 벡터 중심적 역전파의 분리 관점 176
3.2.7 다중 출력 노드 및 은닉 노드의 손실함수 179
3.2.8 미니배치 확률적 경사 하강법 180
3.2.9 역전파에서 가중치 공유를 처리하는 요령 183
3.2.10 기울기 계산의 정확성 확인 184
3.3 설정과 초기화 문제 186
3.3.1 초매개변수 조정 186
3.3.2 특징 전처리 188
3.3.3 초기화 191
3.4 기울기 소실 및 폭발 문제 193
3.4.1 기하학으로 살펴본 기울기 비의 효과 194
3.4.2 활성화 함수의 선택을 이용한 부분적인 해법 196
3.4.3 뉴런의 죽음과 ‘뇌손상’ 198
3.5 경사 하강 전략들 199
3.5.1 학습 속도 감쇄 200
3.5.2 운동량 기반 학습 201
3.5.3 매개변수 고유 학습 속도 204
3.5.4 절벽과 고차 불안정성 210
3.5.5 기울기 절단 211
3.5.6 2차 미분 212
3.5.7 폴리액 평균 224
3.5.8 극소점과 가짜 최소점 225
3.6 배치 정규화 226
3.7 가속과 압축을 위한 실질적인 요령들 232
3.7.1 GPU 가속 232
3.7.2 병렬 및 분산 구현 235
3.7.3 모형 압축을 위한 알고리즘 요령 237
3.8 요약 242
3.9 문헌 정보 243
3.9.1 소프트웨어 정보 245
연습문제 246
 
4장 일반화 능력을 위한 심층 학습 모형의 훈련
4.1 소개 249
4.2 편향 대 분산 절충 관계 256
4.2.1 공식적인 관점 258
4.3 모형의 조정 및 평가와 관련된 일반화 문제점 262
4.3.1 예비와 교차 검증을 이용한 모형 평가 264
4.3.2 자료 집합의 규모에 따른 훈련상의 문제점 266
4.3.3 자료 추가 수집 필요성 판정 266
4.4 벌점 기반 정칙화 267
4.4.1 잡음 주입과의 관계 269
4.4.2 정칙화 271
4.4.3 정칙화 대 정칙화 272
4.4.4 은닉 단위에 대한 벌점: 희소 표현 학습 273
4.5 앙상블 방법 274
4.5.1 배깅과 부표집 275
4.5.2 매개변수 기반 모형 선택과 평균화 277
4.5.3 무작위 연결 생략 278
4.5.4 드롭아웃 278
4.5.5 자료 섭동 앙상블 283
4.6 조기 종료 284
4.6.1 분산의 관점에서 본 조기 종료 285
4.7 비지도 사전훈련 286
4.7.1 비지도 사전학습의 변형들 290
4.7.2 지도 사전훈련은 어떨까? 291
4.8 연속법과 커리큘럼 학습 293
4.8.1 연속법 294
4.8.2 커리큘럼 학습 295
4.9 매개변수 공유 296
4.10 비지도 학습의 정칙화 298
4.10.1 값 기반 벌점: 희소 자동부호기 298
4.10.2 잡음 주입: 잡음 제거 자동부호기 299
4.10.3 기울기 기반 벌점: 축약 자동부호기 301
4.10.4 은닉 확률 구조: 변분 자동부호기 305
4.11 요약 314
4.12 문헌 정보 315
4.12.1 소프트웨어 정보 317
연습문제 318
 
5장 방사상 기저 함수 신경망
5.1 소개 321
5.2 RBF 망의 훈련 326
5.2.1 은닉층의 훈련 326
5.2.2 출력층의 훈련 328
5.2.3 직교 최소제곱 알고리즘 331
5.2.4 완전 지도 학습 332
5.3 RBF 망의 변형 및 특수화 333
5.3.1 퍼셉트론 판정기준을 이용한 분류 334
5.3.2 경첩 손실함수를 이용한 분류 334
5.3.3 RBF 망의 선형 분리가능성 개선 335
5.3.4 RBF 망을 이용한 보간 337
5.4 핵 방법들과의 관계 338
5.4.1 특수한 RBF 망으로서의 핵 회귀 338
5.4.2 특수한 RBF 망으로서의 핵 SVM 339
5.4.3 관찰 340
5.5 요약 341
5.6 문헌 정보 342
연습문제 343
 
6장 제한 볼츠만 기계
6.1 소개 345
6.1.1 역사적 관점 346
6.2 홉필드 망 347
6.2.1 훈련된 홉필드 망의 최적 상태 구성 349
6.2.2 홉필드 망의 훈련 352
6.2.3 간단한 영화 추천 시스템의 구축과 그 한계 354
6.2.4 홉필드 망의 표현력 증가 355
6.3 볼츠만 기계 357
6.3.1 볼츠만 기계의 자료 생성 359
6.3.2 볼츠만 기계의 가중치 학습 360
6.4 제한 볼츠만 기계 363
6.4.1 RBM의 훈련 366
6.4.2 대조 발산 알고리즘 367
6.4.3 실천상의 문제와 알고리즘 수정 369
6.5 제한 볼츠만 기계의 응용 370
6.5.1 RBM을 이용한 차원 축소와 자료 재구축 371
6.5.2 RBM을 이용한 협업 필터링 374
6.5.3 RBM을 이용한 분류 378
6.5.4 RBM을 이용한 주제 모형화 383
6.5.5 RBM을 이용한 다중 모드 자료 기계 학습 385
6.6 RBM을 이진 자료 이외의 자료에 적용 387
6.7 중첩된 RBM 389
6.7.1 비지도 학습 392
6.7.2 지도 학습 392
6.7.3 심층 볼츠만 기계와 심층 믿음망 393
6.8 요약 394
6.9 문헌 정보 394
연습문제 397
 
7장 순환 신경망
7.1 소개 399
7.1.1 순환 신경망의 표현력 403
7.2 순환 신경망의 구조 404
7.2.1 RNN을 이용한 언어 모형 예제 408
7.2.2 시간에 따른 역전파 411
7.2.3 양방향 순환 신경망 415
7.2.4 다층 순환 신경망 418
7.3 순환 신경망 훈련의 어려움과 그 해법 420
7.3.1 층 정규화 424
7.4 반향 상태 신경망 426
7.5 장단기 기억(LSTM) 429
7.6 게이트 제어 순환 단위(GRU) 433
7.7 순환 신경망의 응용 436
7.7.1 자동 이미지 캡션 생성 437
7.7.2 순차열 대 순차열 학습과 기계 번역 439
7.7.3 문장 수준 분류 444
7.7.4 언어적 특징을 활용한 토큰 수준 분류 445
7.7.5 시계열 예상 및 예측 447
7.7.6 시간적 추천 시스템 450
7.7.7 2차 단백질 구조 예측 453
7.7.8 종단간 음성 인식 453
7.7.9 필기 인식 454
7.8 요약 455
7.9 문헌 정보 455
7.9.1 소프트웨어 정보 457
연습문제 458
 
8장 합성곱 신경망
8.1 소개 461
8.1.1 역사 및 생물학의 영향 462
8.1.2 좀 더 넓은 관점에서 본 합성곱 신경망 464
8.2 합성곱 신경망의 기본 구조 465
8.2.1 여백 채우기 472
8.2.2 보폭 474
8.2.3 전형적인 설정 475
8.2.4 ReLU 층 476
8.2.5 풀링 477
8.2.6 층들의 완전 연결 479
8.2.7 서로 다른 층들의 교대 구성 480
8.2.8 국소 반응 정규화 484
8.2.9 위계적 특징 공학 485
8.3 합성곱 신경망의 훈련 487
8.3.1 합성곱 층에 대한 역전파 487
8.3.2 역/전치 필터를 이용한 합성곱 연산으로서의 역전파 489
8.3.3 행렬 곱셈으로서의 합성곱 및 역전파 490
8.3.4 자료 증강 493
8.4 합성곱 신경망 구조의 사례 연구 495
8.4.1 AlexNet 495
8.4.2 ZFNet 499
8.4.3 VGG 500
8.4.4 GoogLeNet 504
8.4.5 ResNet 507
8.4.6 깊이의 효과 512
8.4.7 미리 훈련된 모형들 512
8.5 시각화와 비지도 학습 514
8.5.1 훈련된 합성곱 신경망의 특징 시각화 515
8.5.2 합성곱 자동부호기 522
8.6 합성곱 신경망의 응용 529
8.6.1 내용 기반 이미지 검색 530
8.6.2 물체 위치 추정 530
8.6.3 물체 검출 532
8.6.4 자연어 처리와 순차열 학습 534
8.6.5 동영상 분류 535
8.7 요약 536
8.8 문헌 정보 537
8.8.1 소프트웨어 및 자료 집합 정보 540
연습문제 542
 
9장 심층 강화 학습
9.1 소개 543
9.2 상태 없는 알고리즘: 여러 팔 강도 547
9.2.1 단순한 알고리즘 548
9.2.2 탐욕 알고리즘 548
9.2.3 상계 방법 549
9.3 강화 학습의 기본 틀 550
9.3.1 강화 학습의 어려움 553
9.3.2 틱택토 게임을 위한 간단한 강화 학습 554
9.3.3 심층 학습의 역할과 잠정적 알고리즘 555
9.4 가치 함수 학습의 부트스트래핑 558
9.4.1 함수 근사기로서의 심층 강화 학습 모형 560
9.4.2 응용 사례: 아타리 설정을 위한 강화 학습 심층 신경망 565
9.4.3 정책 내 방법 대 정책 외 방법: SARSA 566
9.4.4 상태의 모형화 대 상태-동작 쌍 568
9.5 정책 기울기 방법 571
9.5.1 유한차분법 573
9.5.2 가능도비 방법 574
9.5.3 지도 학습과 정책 기울기 방법의 결합 577
9.5.4 행위자-비평자 방법 578
9.5.5 연속 동작 공간 580
9.5.6 정책 기울기 방법의 장단점 581
9.6 몬테카를로 트리 검색 582
9.7 사례 연구 584
9.7.1 알파고: 세계 최고 수준의 인공지능 바둑 기사 584
9.7.2 스스로 배우는 로봇 591
9.7.3 대화 시스템 구축: 챗봇을 위한 심층 학습 596
9.7.4 자율주행차 600
9.7.5 강화 학습을 이용한 신경망 구조의 추론 603
9.8 안전과 관련된 실무적인 어려움들 604
9.9 요약 606
9.10 문헌 정보 606
9.10.1 소프트웨어와 실험 환경 정보 608
연습문제 610
 
10장 심층 학습의 고급 주제들
10.1 소개 613
10.2 주의 메커니즘 616
10.2.1 시각적 주의의 순환 모형 618
10.2.2 기계 번역을 위한 주의 메커니즘 622
10.3 외부 메모리가 있는 신경망 627
10.3.1 가상 정렬 게임 628
10.3.2 신경 튜링 기계 631
10.3.3 미분 가능 신경 컴퓨터 개괄 639
10.4 생성 대립 신경망(GAN) 641
10.4.1 생성 대립 신경망의 훈련 642
10.4.2 변분 자동부호기와 비교 646
10.4.3 GAN을 이용한 이미지 자료 생성 647
10.4.4 조건부 생성 대립 신경망 649
10.5 경쟁 학습 655
10.5.1 벡터 양자화 657
10.5.2 코호넨 자기조직화 지도 658
10.6 신경망의 한계 662
10.6.1 대담한 목표: 단발 학습 662
10.6.2 대담한 목표: 에너지 효율적 학습 665
10.7 요약 667
10.8 문헌 정보 667
10.8.1 소프트웨어 정보 669
연습문제 671
 
참고문헌 673
찾아보기 722


제이펍 소식 더 보기
(제이펍의 소통 채널에서 더욱 다양한 소식을 확인하세요!)

네이버 책

포스트

유튜브

인스타그램

트위터

페이스북