신경망과 심층학습 : 북윈도
리뷰 0 위시 120

신경망과 심층학습 요약정보 및 구매

뉴럴 네트워크와 딥러닝 교과서

상품 선택옵션 0 개, 추가옵션 0 개

출판사 제이펍
저자 차루 C. 아가르왈
ISBN 9791188621668 (1188621661)
정가 39,000원
판매가 35,100원(10% 할인)
배송비 무료배송
포인트 정책 설명문 닫기

00포인트

포인트 정책 설명문 출력

선택된 옵션

관심상품

상품 정보

사은품
상품 기본설명
뉴럴 네트워크와 딥러닝 교과서
상품 상세설명


아가르왈은 미국 뉴욕 요크타운 하이츠 소재 IBM T. J. 왓슨 연구센터의 저명 연구원(Distinguished Research Staff Member, DRSM)이다. 그는 1993년에 인도 칸푸르의 인도 공과대학교에서 컴퓨터 과학을 학사로 졸업하고, 1996년 매사추세츠 공과대학(MIT)에서 박사 학위를 받았다. 데이터 마이닝 분야에서 주로 일했으며, 주요 콘퍼런스와 학술지에 350편이 넘는 논문을 발표했고, 80건이 넘는 특허를 가지고 있다. 또한, 데이터 마이닝과 추천 시스템, 이상치 분석에 관한 교과서들을 비롯해 18권의 책을 저술 또는 편집했다. 보유한 특허들의 상업적 가치 덕분에 IBM에서 세 번이나 Master Inventor로 선정되었다. 그는 데이터 스트림에서 생물 테러 위협을 검출하는 문제에 관한 연구로 2003년 IBM Corporate Award를 받았으며, 개인정보 기술에 대한 과학적 기여로 2008년 IBM Outstanding Innovation Award를 받았다. 또한, 자료 스트림/고차원 자료에 관한 연구로 2009년과 2015년에 IBM Outstanding Technical Achievement Award를 받았다. 2014년에는 응축(condensation) 기반 개인정보 보존 데이터 마이닝에 관한 연구로 EDBT 2014 Test of Time Award를 받았다. 그는 또한 2015년 IEEE ICDM Research Contributions Award 수상자인데, 이 상은 데이터 마이닝 분야에 기여한 연구자들에 주는 가장 권위 있는 두 상중 하나이다.

목차
1장 신경망 입문
1.1 소개 1
1.1.1 인간 대 컴퓨터: 인공지능의 한계 확장 4
1.2 신경망의 기본 구조 6
1.2.1 단일 계산층: 퍼셉트론 7
1.2.2 다층 신경망 25
1.2.3 계산 그래프로서의 다층망 28
1.3 역전파를 이용한 신경망 훈련 30
1.4 신경망 훈련의 실질적인 문제점들 35
1.4.1 과대적합 문제점 35
1.4.2 기울기 소실 및 폭발 문제 41
1.4.3 수렴의 어려움 41
1.4.4 국소 가짜 최적해 42
1.4.5 계산의 어려움 43
1.5 함수 합성이 강력한 이유 44
1.5.1 비선형 활성화 함수의 중요성 47
1.5.2 깊이를 이용한 매개변수 요구수준 감소 49
1.5.3 통상적이지 않은 신경망 구조들 51
1.6 흔히 쓰이는 신경망 구조들 54
1.6.1 얕은 모형으로 기본적인 기계 학습 흉내 내기 54
1.6.2 방사상 기저 함수(RBF) 신경망 54
1.6.3 제한 볼츠만 기계 55
1.6.4 순환 신경망 56
1.6.5 합성곱 신경망 59
1.6.6 위계적 특징 공학과 미리 훈련된 모형 61
1.7 고급 주제 64
1.7.1 강화 학습 64
1.7.2 자료 저장과 계산의 분리 65
1.7.3 생성 대립 신경망(GAN) 66
1.8 주요 벤치마크 두 가지 67
1.8.1 필기 숫자들을 담은 MNIST 데이터베이스 67
1.8.2 ImageNet 데이터베이스 69
1.9 요약 70
1.10 문헌 정보 71
1.10.1 동영상 강의 73
1.10.2 소프트웨어 정보 74
연습문제 75

2장 얕은 신경망을 이용한 기계 학습
2.1 소개 79
2.2 이진 분류 모형을 위한 신경망 구조 82
2.2.1 퍼셉트론 다시 보기 83
2.2.2 최소제곱 회귀 85
2.2.3 로지스틱 회귀 91
2.2.4 지지 벡터 기계 94
2.3 다중 분류 모형을 위한 신경망 구조들 97
2.3.1 다부류 퍼셉트론 97
2.3.2 웨스턴-왓킨스 SVM 99
2.3.3 다항 로지스틱 회귀(소프트맥스 분류기) 101
2.3.4 다중 분류를 위한 위계적 소프트맥스 103
2.4 해석성과 특징 선택을 위한 돌출 요인 역전파 104
2.5 자동부호기를 이용한 행렬 인수분해 105
2.5.1 자동부호기의 기본 원리 106
2.5.2 비선형 활성화 함수 113
2.5.3 심층 자동부호기 116
2.5.4 이상치 검출에 응용 119
2.5.5 은닉층이 입력층보다 넓은 경우 120
2.5.6 기타 응용 122
2.5.7 추천 시스템: 행 색인과 행 가치 예측 124
2.5.8 논의 128
2.6 word2vec: 단순 신경망 구조의 한 응용 129
2.6.1 연속 단어 모음을 이용한 신경망 단어 내장 130
2.6.2 스킵그램 모형을 이용한 신경망 내장 134
2.6.3 word2vec(SGNS)은 로그 행렬 인수분해이다 142
2.6.4 보통의 스킵그램은 다항 행렬 인수분해이다 145
2.7 그래프 내장을 위한 간단한 신경망 구조 146
2.7.1 임의의 간선 횟수 처리 148
2.7.2 다항 모형 149
2.7.3 DeepWalk 및 node2vec의 관계 149
2.8 요약 150
2.9 문헌 정보 151
2.9.1 소프트웨어 정보 153
연습문제 154

3장 심층 신경망의 훈련
3.1 소개 157
3.2 아주 상세한 역전파 알고리즘 160
3.2.1 역전파와 계산 그래프 추상 160
3.2.2 해결책은 동적 계획법 166
3.2.3 활성화 후 변수를 이용한 역전파 167
3.2.4 활성화 전 값을 이용한 역전파 171
3.2.5 여러 활성화 함수의 갱신 공식 174
3.2.6 벡터 중심적 역전파의 분리 관점 176
3.2.7 다중 출력 노드 및 은닉 노드의 손실함수 179
3.2.8 미니배치 확률적 경사 하강법 180
3.2.9 역전파에서 가중치 공유를 처리하는 요령 183
3.2.10 기울기 계산의 정확성 확인 184
3.3 설정과 초기화 문제 186
3.3.1 초매개변수 조정 186
3.3.2 특징 전처리 188
3.3.3 초기화 191
3.4 기울기 소실 및 폭발 문제 193
3.4.1 기하학으로 살펴본 기울기 비의 효과 194
3.4.2 활성화 함수의 선택을 이용한 부분적인 해법 196
3.4.3 뉴런의 죽음과 ‘뇌손상’ 198
3.5 경사 하강 전략들 199
3.5.1 학습 속도 감쇄 200
3.5.2 운동량 기반 학습 201
3.5.3 매개변수 고유 학습 속도 204
3.5.4 절벽과 고차 불안정성 210
3.5.5 기울기 절단 211
3.5.6 2차 미분 212
3.5.7 폴리액 평균 224
3.5.8 극소점과 가짜 최소점 225
3.6 배치 정규화 226
3.7 가속과 압축을 위한 실질적인 요령들 232
3.7.1 GPU 가속 232
3.7.2 병렬 및 분산 구현 235
3.7.3 모형 압축을 위한 알고리즘 요령 237
3.8 요약 242
3.9 문헌 정보 243
3.9.1 소프트웨어 정보 245
연습문제 246

4장 일반화 능력을 위한 심층 학습 모형의 훈련
4.1 소개 249
4.2 편향 대 분산 절충 관계 256
4.2.1 공식적인 관점 258
4.3 모형의 조정 및 평가와 관련된 일반화 문제점 262
4.3.1 예비와 교차 검증을 이용한 모형 평가 264
4.3.2 자료 집합의 규모에 따른 훈련상의 문제점 266
4.3.3 자료 추가 수집 필요성 판정 266
4.4 벌점 기반 정칙화 267
4.4.1 잡음 주입과의 관계 269
4.4.2 정칙화 271
4.4.3 정칙화 대 정칙화 272
4.4.4 은닉 단위에 대한 벌점: 희소 표현 학습 273
4.5 앙상블 방법 274
4.5.1 배깅과 부표집 275
4.5.2 매개변수 기반 모형 선택과 평균화 277
4.5.3 무작위 연결 생략 278
4.5.4 드롭아웃 278
4.5.5 자료 섭동 앙상블 283
4.6 조기 종료 284
4.6.1 분산의 관점에서 본 조기 종료 285
4.7 비지도 사전훈련 286
4.7.1 비지도 사전학습의 변형들 290
4.7.2 지도 사전훈련은 어떨까? 291
4.8 연속법과 커리큘럼 학습 293
4.8.1 연속법 294
4.8.2 커리큘럼 학습 295
4.9 매개변수 공유 296
4.10 비지도 학습의 정칙화 298
4.10.1 값 기반 벌점: 희소 자동부호기 298
4.10.2 잡음 주입: 잡음 제거 자동부호기 299
4.10.3 기울기 기반 벌점: 축약 자동부호기 301
4.10.4 은닉 확률 구조: 변분 자동부호기 305
4.11 요약 314
4.12 문헌 정보 315
4.12.1 소프트웨어 정보 317
연습문제 318

5장 방사상 기저 함수 신경망
5.1 소개 321
5.2 RBF 망의 훈련 326
5.2.1 은닉층의 훈련 326
5.2.2 출력층의 훈련 328
5.2.3 직교 최소제곱 알고리즘 331
5.2.4 완전 지도 학습 332
5.3 RBF 망의 변형 및 특수화 333
5.3.1 퍼셉트론 판정기준을 이용한 분류 334
5.3.2 경첩 손실함수를 이용한 분류 334
5.3.3 RBF 망의 선형 분리가능성 개선 335
5.3.4 RBF 망을 이용한 보간 337
5.4 핵 방법들과의 관계 338
5.4.1 특수한 RBF 망으로서의 핵 회귀 338
5.4.2 특수한 RBF 망으로서의 핵 SVM 339
5.4.3 관찰 340
5.5 요약 341
5.6 문헌 정보 342
연습문제 343

6장 제한 볼츠만 기계
6.1 소개 345
6.1.1 역사적 관점 346
6.2 홉필드 망 347
6.2.1 훈련된 홉필드 망의 최적 상태 구성 349
6.2.2 홉필드 망의 훈련 352
6.2.3 간단한 영화 추천 시스템의 구축과 그 한계 354
6.2.4 홉필드 망의 표현력 증가 355
6.3 볼츠만 기계 357
6.3.1 볼츠만 기계의 자료 생성 359
6.3.2 볼츠만 기계의 가중치 학습 360
6.4 제한 볼츠만 기계 363
6.4.1 RBM의 훈련 366
6.4.2 대조 발산 알고리즘 367
6.4.3 실천상의 문제와 알고리즘 수정 369
6.5 제한 볼츠만 기계의 응용 370
6.5.1 RBM을 이용한 차원 축소와 자료 재구축 371
6.5.2 RBM을 이용한 협업 필터링 374
6.5.3 RBM을 이용한 분류 378
6.5.4 RBM을 이용한 주제 모형화 383
6.5.5 RBM을 이용한 다중 모드 자료 기계 학습 385
6.6 RBM을 이진 자료 이외의 자료에 적용 387
6.7 중첩된 RBM 389
6.7.1 비지도 학습 392
6.7.2 지도 학습 392
6.7.3 심층 볼츠만 기계와 심층 믿음망 393
6.8 요약 394
6.9 문헌 정보 394
연습문제 397

7장 순환 신경망
7.1 소개 399
7.1.1 순환 신경망의 표현력 403
7.2 순환 신경망의 구조 404
7.2.1 RNN을 이용한 언어 모형 예제 408
7.2.2 시간에 따른 역전파 411
7.2.3 양방향 순환 신경망 415
7.2.4 다층 순환 신경망 418
7.3 순환 신경망 훈련의 어려움과 그 해법 420
7.3.1 층 정규화 424
7.4 반향 상태 신경망 426
7.5 장단기 기억(LSTM) 429
7.6 게이트 제어 순환 단위(GRU) 433
7.7 순환 신경망의 응용 436
7.7.1 자동 이미지 캡션 생성 437
7.7.2 순차열 대 순차열 학습과 기계 번역 439
7.7.3 문장 수준 분류 444
7.7.4 언어적 특징을 활용한 토큰 수준 분류 445
7.7.5 시계열 예상 및 예측 447
7.7.6 시간적 추천 시스템 450
7.7.7 2차 단백질 구조 예측 453
7.7.8 종단간 음성 인식 453
7.7.9 필기 인식 454
7.8 요약 455
7.9 문헌 정보 455
7.9.1 소프트웨어 정보 457
연습문제 458

8장 합성곱 신경망
8.1 소개 461
8.1.1 역사 및 생물학의 영향 462
8.1.2 좀 더 넓은 관점에서 본 합성곱 신경망 464
8.2 합성곱 신경망의 기본 구조 465
8.2.1 여백 채우기 472
8.2.2 보폭 474
8.2.3 전형적인 설정 475
8.2.4 ReLU 층 476
8.2.5 풀링 477
8.2.6 층들의 완전 연결 479
8.2.7 서로 다른 층들의 교대 구성 480
8.2.8 국소 반응 정규화 484
8.2.9 위계적 특징 공학 485
8.3 합성곱 신경망의 훈련 487
8.3.1 합성곱 층에 대한 역전파 487
8.3.2 역/전치 필터를 이용한 합성곱 연산으로서의 역전파 489
8.3.3 행렬 곱셈으로서의 합성곱 및 역전파 490
8.3.4 자료 증강 493
8.4 합성곱 신경망 구조의 사례 연구 495
8.4.1 AlexNet 495
8.4.2 ZFNet 499
8.4.3 VGG 500
8.4.4 GoogLeNet 504
8.4.5 ResNet 507
8.4.6 깊이의 효과 512
8.4.7 미리 훈련된 모형들 512
8.5 시각화와 비지도 학습 514
8.5.1 훈련된 합성곱 신경망의 특징 시각화 515
8.5.2 합성곱 자동부호기 522
8.6 합성곱 신경망의 응용 529
8.6.1 내용 기반 이미지 검색 530
8.6.2 물체 위치 추정 530
8.6.3 물체 검출 532
8.6.4 자연어 처리와 순차열 학습 534
8.6.5 동영상 분류 535
8.7 요약 536
8.8 문헌 정보 537
8.8.1 소프트웨어 및 자료 집합 정보 540
연습문제 542

9장 심층 강화 학습
9.1 소개 543
9.2 상태 없는 알고리즘: 여러 팔 강도 547
9.2.1 단순한 알고리즘 548
9.2.2 탐욕 알고리즘 548
9.2.3 상계 방법 549
9.3 강화 학습의 기본 틀 550
9.3.1 강화 학습의 어려움 553
9.3.2 틱택토 게임을 위한 간단한 강화 학습 554
9.3.3 심층 학습의 역할과 잠정적 알고리즘 555
9.4 가치 함수 학습의 부트스트래핑 558
9.4.1 함수 근사기로서의 심층 강화 학습 모형 560
9.4.2 응용 사례: 아타리 설정을 위한 강화 학습 심층 신경망 565
9.4.3 정책 내 방법 대 정책 외 방법: SARSA 566
9.4.4 상태의 모형화 대 상태-동작 쌍 568
9.5 정책 기울기 방법 571
9.5.1 유한차분법 573
9.5.2 가능도비 방법 574
9.5.3 지도 학습과 정책 기울기 방법의 결합 577
9.5.4 행위자-비평자 방법 578
9.5.5 연속 동작 공간 580
9.5.6 정책 기울기 방법의 장단점 581
9.6 몬테카를로 트리 검색 582
9.7 사례 연구 584
9.7.1 알파고: 세계 최고 수준의 인공지능 바둑 기사 584
9.7.2 스스로 배우는 로봇 591
9.7.3 대화 시스템 구축: 챗봇을 위한 심층 학습 596
9.7.4 자율주행차 600
9.7.5 강화 학습을 이용한 신경망 구조의 추론 603
9.8 안전과 관련된 실무적인 어려움들 604
9.9 요약 606
9.10 문헌 정보 606
9.10.1 소프트웨어와 실험 환경 정보 608
연습문제 610

10장 심층 학습의 고급 주제들
10.1 소개 613
10.2 주의 메커니즘 616
10.2.1 시각적 주의의 순환 모형 618
10.2.2 기계 번역을 위한 주의 메커니즘 622
10.3 외부 메모리가 있는 신경망 627
10.3.1 가상 정렬 게임 628
10.3.2 신경 튜링 기계 631
10.3.3 미분 가능 신경 컴퓨터 개괄 639
10.4 생성 대립 신경망(GAN) 641
10.4.1 생성 대립 신경망의 훈련 642
10.4.2 변분 자동부호기와 비교 646
10.4.3 GAN을 이용한 이미지 자료 생성 647
10.4.4 조건부 생성 대립 신경망 649
10.5 경쟁 학습 655
10.5.1 벡터 양자화 657
10.5.2 코호넨 자기조직화 지도 658
10.6 신경망의 한계 662
10.6.1 대담한 목표: 단발 학습 662
10.6.2 대담한 목표: 에너지 효율적 학습 665
10.7 요약 667
10.8 문헌 정보 667
10.8.1 소프트웨어 정보 669
연습문제 671

참고문헌 673
찾아보기 721
책속으로
심층 학습 모형은 로지스틱 회귀나 선형회귀 같은 좀 더 단순한 모형들을 차곡차곡 쌓은 것으로 볼 수 있다. 이번 장에서 상세히 이야기하겠지만, 선형 뉴런과 S자형 활성화 함수를 조합하면 로지스틱 회귀 모형이 된다. 선형 단위와 S자형 활성화 함수의 조합은 좀 더 복잡한 신경망의 구축에도 광범위하게 쓰인다. 이로부터 다음과 같은 질문이 자연스럽게 제기된다.
_80페이지이러한 미니배치 확률적 경사 하강법이 안정성, 속도, 메모리 요구량을 가장 잘 절충하는 선택일 때가 많다. 미니배치 확률적 경사 하강법을 사용할 때는 한 층의 출력들이 벡터가 아니라 행렬이며, 순전파에서는 가중치 행렬과 활성화 값 행렬을 곱한다. 가중치들의 행렬을 갱신하는 역전파에서도 마찬가지로 행렬 곱셈이 필요하다. 따라서 미니배치 확률적 경사 하강법 구현은 보통의 확률적 경사 하강법 구현보다 메모리를 더 많이 소비하며, 이러한 높은 메모리 요구수준은 미니배치의 크기를 제한하는 요소이다.
_183페이지연속법과 커리큘럼 학습은 사람이 뭔가를 배우는 과정과도 잘 맞는다. 사람들은 먼저 간단한 개념을 배우고 더 복잡한 개념으로 나아갈 때가 많다. 그러한 원리에 기초해서 학습 주제들을 적절히 배치한 것을 흔히 커리큘럼 또는 교육과정이라고 부르는데, 잘 정의된 커리큘럼은 학습 성과를 높이는 데 도움이 된다. 이러한 원리는 기계 학습에서도 잘 작동하는 것으로 보인다. 그럼 연속법과 커리큘럼 학습을 좀 더 자세히 살펴보자.
_294페이지은닉 단위 개수를 선택하는 한 가지 방법은 자료의 일부를 따로 떼어서 예비 집합을 만들고 여러 가지 은닉 단위 개수로 그 예비 집합에 대한 정확도를 측정해 보는 것이다. 정확도가 가장 좋은 모형의 은닉 단위 개수를 선택하면 된다.
_341페이지전통적인 역전파와 ‘deconvnet’의 차이를 해석하는 한 가지 방법은 기울기 역전파를 복호기가 수행하는 역합성곱(부호기 합성곱의 전치) 연산으로 간주하는 것이다. 단, 이 경우 복호기는 ReLU가 함의하는 기울기 기반 변환이 아니라 ReLU 함수를 다시 사용한다. 사실 모든 형태의 복호기는 부호기와 동일한 활성화 함수를 사용한다.
_519페이지
출판사 서평
신경망의 기초부터 고급 주제까지
체계적으로 정리한 새로운 인공지능 교과서!이 책은 현세대의 심층 학습 모형들을 주로 다루되, 전통적인 기계 학습 모형들도 언급한다. 이 책의 주요 내용은 다음과 같다.■ 신경망의 기초: 전통적인 기계 학습 모형 중에는 신경망의 특수 사례로 이해할 수 있는 것들이 많이 있다. 제1장과 제2장은 전통적인 기계 학습과 신경망의 관계에 초점을 둔다. 이 두 장은 지지 벡터 기계, 선형회귀와 로지스틱 회귀, 특잇값 분해, 행렬 인수분해, 추천 시스템이 신경망의 특수 사례들에 해당함을 보여 준다. 그와 함께 word2vec 같은 최근의 특징 공학 방법들도 소개한다.■ 기본적인 신경망 구조들과 학습 방법: 제3장과 제4장에서는 신경망의 훈련과 정칙화를 상세하게 논의한다. 제5장과 제6장은 방사상 기저 함수(RBF) 신경망과 제한 볼츠만 기계(RBM)를 소개한다.■ 신경망의 고급 주제: 제7장과 제8장은 순환 신경망과 합성곱 신경망을 논의한다. 제9장과 제10장에서는 심층 강화 학습, 신경 튜링 기계, 생성 대립 신경망(GAN) 같은 여러 고급 주제를 논의한다.이 책의 대상 독자
이 책의 주된 대상은 대학원생과 연구자, 실무자이다. 강의와 독학에 도움이 되도록 각 장 끝에 연습문제들을 수록했다. 그리고 신경망과 심층 학습이 실제로 어떻게 쓰이는지 독자가 가늠할 수 있도록 응용 사례를 중심으로 논의를 진행했다.
상품 정보 고시
도서명 신경망과 심층학습
저자 차루 C. 아가르왈
출판사 제이펍
ISBN 9791188621668 (1188621661)
쪽수 760
출간일 2019-09-17
사이즈 188 * 245 * 37 mm
목차 또는 책소개 1장 신경망 입문
1.1 소개 1
1.1.1 인간 대 컴퓨터: 인공지능의 한계 확장 4
1.2 신경망의 기본 구조 6
1.2.1 단일 계산층: 퍼셉트론 7
1.2.2 다층 신경망 25
1.2.3 계산 그래프로서의 다층망 28
1.3 역전파를 이용한 신경망 훈련 30
1.4 신경망 훈련의 실질적인 문제점들 35
1.4.1 과대적합 문제점 35
1.4.2 기울기 소실 및 폭발 문제 41
1.4.3 수렴의 어려움 41
1.4.4 국소 가짜 최적해 42
1.4.5 계산의 어려움 43
1.5 함수 합성이 강력한 이유 44
1.5.1 비선형 활성화 함수의 중요성 47
1.5.2 깊이를 이용한 매개변수 요구수준 감소 49
1.5.3 통상적이지 않은 신경망 구조들 51
1.6 흔히 쓰이는 신경망 구조들 54
1.6.1 얕은 모형으로 기본적인 기계 학습 흉내 내기 54
1.6.2 방사상 기저 함수(RBF) 신경망 54
1.6.3 제한 볼츠만 기계 55
1.6.4 순환 신경망 56
1.6.5 합성곱 신경망 59
1.6.6 위계적 특징 공학과 미리 훈련된 모형 61
1.7 고급 주제 64
1.7.1 강화 학습 64
1.7.2 자료 저장과 계산의 분리 65
1.7.3 생성 대립 신경망(GAN) 66
1.8 주요 벤치마크 두 가지 67
1.8.1 필기 숫자들을 담은 MNIST 데이터베이스 67
1.8.2 ImageNet 데이터베이스 69
1.9 요약 70
1.10 문헌 정보 71
1.10.1 동영상 강의 73
1.10.2 소프트웨어 정보 74
연습문제 75

2장 얕은 신경망을 이용한 기계 학습
2.1 소개 79
2.2 이진 분류 모형을 위한 신경망 구조 82
2.2.1 퍼셉트론 다시 보기 83
2.2.2 최소제곱 회귀 85
2.2.3 로지스틱 회귀 91
2.2.4 지지 벡터 기계 94
2.3 다중 분류 모형을 위한 신경망 구조들 97
2.3.1 다부류 퍼셉트론 97
2.3.2 웨스턴-왓킨스 SVM 99
2.3.3 다항 로지스틱 회귀(소프트맥스 분류기) 101
2.3.4 다중 분류를 위한 위계적 소프트맥스 103
2.4 해석성과 특징 선택을 위한 돌출 요인 역전파 104
2.5 자동부호기를 이용한 행렬 인수분해 105
2.5.1 자동부호기의 기본 원리 106
2.5.2 비선형 활성화 함수 113
2.5.3 심층 자동부호기 116
2.5.4 이상치 검출에 응용 119
2.5.5 은닉층이 입력층보다 넓은 경우 120
2.5.6 기타 응용 122
2.5.7 추천 시스템: 행 색인과 행 가치 예측 124
2.5.8 논의 128
2.6 word2vec: 단순 신경망 구조의 한 응용 129
2.6.1 연속 단어 모음을 이용한 신경망 단어 내장 130
2.6.2 스킵그램 모형을 이용한 신경망 내장 134
2.6.3 word2vec(SGNS)은 로그 행렬 인수분해이다 142
2.6.4 보통의 스킵그램은 다항 행렬 인수분해이다 145
2.7 그래프 내장을 위한 간단한 신경망 구조 146
2.7.1 임의의 간선 횟수 처리 148
2.7.2 다항 모형 149
2.7.3 DeepWalk 및 node2vec의 관계 149
2.8 요약 150
2.9 문헌 정보 151
2.9.1 소프트웨어 정보 153
연습문제 154

3장 심층 신경망의 훈련
3.1 소개 157
3.2 아주 상세한 역전파 알고리즘 160
3.2.1 역전파와 계산 그래프 추상 160
3.2.2 해결책은 동적 계획법 166
3.2.3 활성화 후 변수를 이용한 역전파 167
3.2.4 활성화 전 값을 이용한 역전파 171
3.2.5 여러 활성화 함수의 갱신 공식 174
3.2.6 벡터 중심적 역전파의 분리 관점 176
3.2.7 다중 출력 노드 및 은닉 노드의 손실함수 179
3.2.8 미니배치 확률적 경사 하강법 180
3.2.9 역전파에서 가중치 공유를 처리하는 요령 183
3.2.10 기울기 계산의 정확성 확인 184
3.3 설정과 초기화 문제 186
3.3.1 초매개변수 조정 186
3.3.2 특징 전처리 188
3.3.3 초기화 191
3.4 기울기 소실 및 폭발 문제 193
3.4.1 기하학으로 살펴본 기울기 비의 효과 194
3.4.2 활성화 함수의 선택을 이용한 부분적인 해법 196
3.4.3 뉴런의 죽음과 ‘뇌손상’ 198
3.5 경사 하강 전략들 199
3.5.1 학습 속도 감쇄 200
3.5.2 운동량 기반 학습 201
3.5.3 매개변수 고유 학습 속도 204
3.5.4 절벽과 고차 불안정성 210
3.5.5 기울기 절단 211
3.5.6 2차 미분 212
3.5.7 폴리액 평균 224
3.5.8 극소점과 가짜 최소점 225
3.6 배치 정규화 226
3.7 가속과 압축을 위한 실질적인 요령들 232
3.7.1 GPU 가속 232
3.7.2 병렬 및 분산 구현 235
3.7.3 모형 압축을 위한 알고리즘 요령 237
3.8 요약 242
3.9 문헌 정보 243
3.9.1 소프트웨어 정보 245
연습문제 246

4장 일반화 능력을 위한 심층 학습 모형의 훈련
4.1 소개 249
4.2 편향 대 분산 절충 관계 256
4.2.1 공식적인 관점 258
4.3 모형의 조정 및 평가와 관련된 일반화 문제점 262
4.3.1 예비와 교차 검증을 이용한 모형 평가 264
4.3.2 자료 집합의 규모에 따른 훈련상의 문제점 266
4.3.3 자료 추가 수집 필요성 판정 266
4.4 벌점 기반 정칙화 267
4.4.1 잡음 주입과의 관계 269
4.4.2 정칙화 271
4.4.3 정칙화 대 정칙화 272
4.4.4 은닉 단위에 대한 벌점: 희소 표현 학습 273
4.5 앙상블 방법 274
4.5.1 배깅과 부표집 275
4.5.2 매개변수 기반 모형 선택과 평균화 277
4.5.3 무작위 연결 생략 278
4.5.4 드롭아웃 278
4.5.5 자료 섭동 앙상블 283
4.6 조기 종료 284
4.6.1 분산의 관점에서 본 조기 종료 285
4.7 비지도 사전훈련 286
4.7.1 비지도 사전학습의 변형들 290
4.7.2 지도 사전훈련은 어떨까? 291
4.8 연속법과 커리큘럼 학습 293
4.8.1 연속법 294
4.8.2 커리큘럼 학습 295
4.9 매개변수 공유 296
4.10 비지도 학습의 정칙화 298
4.10.1 값 기반 벌점: 희소 자동부호기 298
4.10.2 잡음 주입: 잡음 제거 자동부호기 299
4.10.3 기울기 기반 벌점: 축약 자동부호기 301
4.10.4 은닉 확률 구조: 변분 자동부호기 305
4.11 요약 314
4.12 문헌 정보 315
4.12.1 소프트웨어 정보 317
연습문제 318

5장 방사상 기저 함수 신경망
5.1 소개 321
5.2 RBF 망의 훈련 326
5.2.1 은닉층의 훈련 326
5.2.2 출력층의 훈련 328
5.2.3 직교 최소제곱 알고리즘 331
5.2.4 완전 지도 학습 332
5.3 RBF 망의 변형 및 특수화 333
5.3.1 퍼셉트론 판정기준을 이용한 분류 334
5.3.2 경첩 손실함수를 이용한 분류 334
5.3.3 RBF 망의 선형 분리가능성 개선 335
5.3.4 RBF 망을 이용한 보간 337
5.4 핵 방법들과의 관계 338
5.4.1 특수한 RBF 망으로서의 핵 회귀 338
5.4.2 특수한 RBF 망으로서의 핵 SVM 339
5.4.3 관찰 340
5.5 요약 341
5.6 문헌 정보 342
연습문제 343

6장 제한 볼츠만 기계
6.1 소개 345
6.1.1 역사적 관점 346
6.2 홉필드 망 347
6.2.1 훈련된 홉필드 망의 최적 상태 구성 349
6.2.2 홉필드 망의 훈련 352
6.2.3 간단한 영화 추천 시스템의 구축과 그 한계 354
6.2.4 홉필드 망의 표현력 증가 355
6.3 볼츠만 기계 357
6.3.1 볼츠만 기계의 자료 생성 359
6.3.2 볼츠만 기계의 가중치 학습 360
6.4 제한 볼츠만 기계 363
6.4.1 RBM의 훈련 366
6.4.2 대조 발산 알고리즘 367
6.4.3 실천상의 문제와 알고리즘 수정 369
6.5 제한 볼츠만 기계의 응용 370
6.5.1 RBM을 이용한 차원 축소와 자료 재구축 371
6.5.2 RBM을 이용한 협업 필터링 374
6.5.3 RBM을 이용한 분류 378
6.5.4 RBM을 이용한 주제 모형화 383
6.5.5 RBM을 이용한 다중 모드 자료 기계 학습 385
6.6 RBM을 이진 자료 이외의 자료에 적용 387
6.7 중첩된 RBM 389
6.7.1 비지도 학습 392
6.7.2 지도 학습 392
6.7.3 심층 볼츠만 기계와 심층 믿음망 393
6.8 요약 394
6.9 문헌 정보 394
연습문제 397

7장 순환 신경망
7.1 소개 399
7.1.1 순환 신경망의 표현력 403
7.2 순환 신경망의 구조 404
7.2.1 RNN을 이용한 언어 모형 예제 408
7.2.2 시간에 따른 역전파 411
7.2.3 양방향 순환 신경망 415
7.2.4 다층 순환 신경망 418
7.3 순환 신경망 훈련의 어려움과 그 해법 420
7.3.1 층 정규화 424
7.4 반향 상태 신경망 426
7.5 장단기 기억(LSTM) 429
7.6 게이트 제어 순환 단위(GRU) 433
7.7 순환 신경망의 응용 436
7.7.1 자동 이미지 캡션 생성 437
7.7.2 순차열 대 순차열 학습과 기계 번역 439
7.7.3 문장 수준 분류 444
7.7.4 언어적 특징을 활용한 토큰 수준 분류 445
7.7.5 시계열 예상 및 예측 447
7.7.6 시간적 추천 시스템 450
7.7.7 2차 단백질 구조 예측 453
7.7.8 종단간 음성 인식 453
7.7.9 필기 인식 454
7.8 요약 455
7.9 문헌 정보 455
7.9.1 소프트웨어 정보 457
연습문제 458

8장 합성곱 신경망
8.1 소개 461
8.1.1 역사 및 생물학의 영향 462
8.1.2 좀 더 넓은 관점에서 본 합성곱 신경망 464
8.2 합성곱 신경망의 기본 구조 465
8.2.1 여백 채우기 472
8.2.2 보폭 474
8.2.3 전형적인 설정 475
8.2.4 ReLU 층 476
8.2.5 풀링 477
8.2.6 층들의 완전 연결 479
8.2.7 서로 다른 층들의 교대 구성 480
8.2.8 국소 반응 정규화 484
8.2.9 위계적 특징 공학 485
8.3 합성곱 신경망의 훈련 487
8.3.1 합성곱 층에 대한 역전파 487
8.3.2 역/전치 필터를 이용한 합성곱 연산으로서의 역전파 489
8.3.3 행렬 곱셈으로서의 합성곱 및 역전파 490
8.3.4 자료 증강 493
8.4 합성곱 신경망 구조의 사례 연구 495
8.4.1 AlexNet 495
8.4.2 ZFNet 499
8.4.3 VGG 500
8.4.4 GoogLeNet 504
8.4.5 ResNet 507
8.4.6 깊이의 효과 512
8.4.7 미리 훈련된 모형들 512
8.5 시각화와 비지도 학습 514
8.5.1 훈련된 합성곱 신경망의 특징 시각화 515
8.5.2 합성곱 자동부호기 522
8.6 합성곱 신경망의 응용 529
8.6.1 내용 기반 이미지 검색 530
8.6.2 물체 위치 추정 530
8.6.3 물체 검출 532
8.6.4 자연어 처리와 순차열 학습 534
8.6.5 동영상 분류 535
8.7 요약 536
8.8 문헌 정보 537
8.8.1 소프트웨어 및 자료 집합 정보 540
연습문제 542

9장 심층 강화 학습
9.1 소개 543
9.2 상태 없는 알고리즘: 여러 팔 강도 547
9.2.1 단순한 알고리즘 548
9.2.2 탐욕 알고리즘 548
9.2.3 상계 방법 549
9.3 강화 학습의 기본 틀 550
9.3.1 강화 학습의 어려움 553
9.3.2 틱택토 게임을 위한 간단한 강화 학습 554
9.3.3 심층 학습의 역할과 잠정적 알고리즘 555
9.4 가치 함수 학습의 부트스트래핑 558
9.4.1 함수 근사기로서의 심층 강화 학습 모형 560
9.4.2 응용 사례: 아타리 설정을 위한 강화 학습 심층 신경망 565
9.4.3 정책 내 방법 대 정책 외 방법: SARSA 566
9.4.4 상태의 모형화 대 상태-동작 쌍 568
9.5 정책 기울기 방법 571
9.5.1 유한차분법 573
9.5.2 가능도비 방법 574
9.5.3 지도 학습과 정책 기울기 방법의 결합 577
9.5.4 행위자-비평자 방법 578
9.5.5 연속 동작 공간 580
9.5.6 정책 기울기 방법의 장단점 581
9.6 몬테카를로 트리 검색 582
9.7 사례 연구 584
9.7.1 알파고: 세계 최고 수준의 인공지능 바둑 기사 584
9.7.2 스스로 배우는 로봇 591
9.7.3 대화 시스템 구축: 챗봇을 위한 심층 학습 596
9.7.4 자율주행차 600
9.7.5 강화 학습을 이용한 신경망 구조의 추론 603
9.8 안전과 관련된 실무적인 어려움들 604
9.9 요약 606
9.10 문헌 정보 606
9.10.1 소프트웨어와 실험 환경 정보 608
연습문제 610

10장 심층 학습의 고급 주제들
10.1 소개 613
10.2 주의 메커니즘 616
10.2.1 시각적 주의의 순환 모형 618
10.2.2 기계 번역을 위한 주의 메커니즘 622
10.3 외부 메모리가 있는 신경망 627
10.3.1 가상 정렬 게임 628
10.3.2 신경 튜링 기계 631
10.3.3 미분 가능 신경 컴퓨터 개괄 639
10.4 생성 대립 신경망(GAN) 641
10.4.1 생성 대립 신경망의 훈련 642
10.4.2 변분 자동부호기와 비교 646
10.4.3 GAN을 이용한 이미지 자료 생성 647
10.4.4 조건부 생성 대립 신경망 649
10.5 경쟁 학습 655
10.5.1 벡터 양자화 657
10.5.2 코호넨 자기조직화 지도 658
10.6 신경망의 한계 662
10.6.1 대담한 목표: 단발 학습 662
10.6.2 대담한 목표: 에너지 효율적 학습 665
10.7 요약 667
10.8 문헌 정보 667
10.8.1 소프트웨어 정보 669
연습문제 671

참고문헌 673
찾아보기 721
배송공지

사용후기

회원리뷰 총 0개

사용후기가 없습니다.

상품문의

등록된 상품문의

상품문의 총 0개

상품문의가 없습니다.

교환/반품

[반품/교환방법]
마이페이지> 주문배송조회 > 반품/교환신청 또는 고객센터 (070-4680-5689)로 문의 바랍니다.

[반품주소]
- 도로명 : (10882) 경기도 파주시 산남로 62-20 (산남동)
- 지번 : (10882) 경기도 파주시 산남동 305-21

[반품/교환가능 기간]
변심반품의 경우 수령 후 14일 이내, 상품의 결함 및 계약내용과 다를 경우 문제점 발견 후 30일 이내

[반품/교환비용]
단순 변심 혹은 구매착오로 인한 반품/교환은 반송료 고객 부담

[반품/교환 불가 사유]
- 소비자의 책임 있는 사유로 상품 등이 손실 또는 훼손된 경우
(단지 확인을 위한 포장 훼손은 제외)
- 소비자의 사용, 포장 개봉에 의해 상품 등의 가치가 현저히 감소한 경우
예) 화장품, 식품, 가전제품(악세서리 포함) 등
- 복제가 가능한 상품 등의 포장을 훼손한 경우
예) 음반/DVD/비디오, 소프트웨어, 만화책, 잡지, 영상 화보집
- 소비자의 요청에 따라 개별적으로 주문 제작되는 상품의 경우 ((1)해외주문도서)
- 디지털 컨텐츠인 eBook, 오디오북 등을 1회 이상 다운로드를 받았을 경우
- 시간의 경과에 의해 재판매가 곤란한 정도로 가치가 현저히 감소한 경우
- 전자상거래 등에서의 소비자보호에 관한 법률이 정하는 소비자 청약철회 제한 내용에 해당되는 경우
* (1) 해외주문도서 : 이용자의 요청에 의한 개인주문상품으로 단순변심 및 착오로 인한 취소/교환/반품 시
‘해외주문 반품/취소 수수료’ 고객 부담 (해외주문 반품/취소 수수료 : ①양서-판매정가의 12%, ②일서-판매정가의 7%를 적용)

[상품 품절]
공급사(출판사) 재고 사정에 의해 품절/지연될 수 있으며, 품절 시 관련 사항에 대해서는 이메일과 문자로 안내드리겠습니다.

[소비자 피해보상, 환불지연에 따른 배상]
- 상품의 불량에 의한 교환, A/S, 환불, 품질보증 및 피해보상 등에 관한 사항은 소비자분쟁해결 기준 (공정거래위원회 고시)에 준하여 처리됩니다.
- 대금 환불 및 환불지연에 따른 배상금 지급 조건, 절차 등은 전자상거래 등에서의 소비자 보호에 관한 법률에 따라 처리함.

회원로그인

오늘 본 상품

  • 신경망과 심층학습
    신경망과 심층학습
    35,100
  • 알아서 공부하는 아이는 무엇이 다를까
    알아서 공부하는 아
    13,320
  • 키워드로 정리하는 정보보안 119
    키워드로 정리하는
    17,820
  • 1등의 통찰
    1등의 통찰
    13,500
  • 뇌과학자가 싫은 기억을 지우는 법
    뇌과학자가 싫은 기
    12,420
  • 그때 그 시절 추억놀이 회상카드
    그때 그 시절 추억
    18,000
  • 가장 빨리 만나는 스프링 부트
    가장 빨리 만나는
    13,500
  • 몸은 얼굴부터 늙는다
    몸은 얼굴부터 늙는
    12,600
  • 알츠하이머 해독제
    알츠하이머 해독제
    25,200
  • Win+ ITQ 한글 2016
    Win+ ITQ 한
    13,500
  • 장이 깨끗하면 뇌도 건강해진다
    장이 깨끗하면 뇌도
    7,650
  • 줄서는 미술관의 SNS 마케팅 비법
    줄서는 미술관의 S
    16,200
  • 날개의 발명
    날개의 발명
    15,300
  • 매운 눈꽃
    매운 눈꽃
    10,800
  • 한국소설을 읽다
    한국소설을 읽다
    16,200
  • Let Them Be, 자녀들을 내버려 둬라+하늘에서 한비가 내려와 세트
    Let Them B
    29,700
  • 애자일 경영 교과서
    애자일 경영 교과서
    23,400
  • 도산회사 살리기
    도산회사 살리기
    13,500
  • 초보자를 위한 MariaDB
    초보자를 위한 Ma
    29,700
  • [출간예정] 자본주의 대전환
    [출간예정] 자본주
    16,200
  • 초등 감정 수업
    초등 감정 수업
    11,700
  • 최강의 식물식
    최강의 식물식
    16,200
  • 카이젠 저니
    카이젠 저니
    19,800