알파고를 분석하며 배우는 인공지능 : 북윈도
리뷰 0 위시 120

알파고를 분석하며 배우는 인공지능 요약정보 및 구매

딥 러닝, 몬테카를로 트리 탐색, 듀얼 네트워크, 강화 학습 구조 이해하기

상품 선택옵션 0 개, 추가옵션 0 개

출판사 제이펍
저자 오츠키 토모시
ISBN 9791188621644 (1188621645)
정가 26,000원
판매가 23,400원(10% 할인)
배송비 무료배송
포인트 정책 설명문 닫기

00포인트

포인트 정책 설명문 출력

선택된 옵션

관심상품

상품 정보

사은품
상품 기본설명
딥 러닝, 몬테카를로 트리 탐색, 듀얼 네트워크, 강화 학습 구조 이해하기
상품 상세설명


알파고를 통해 인간의 지혜를 넘어선 한 수의 비밀을 탐구한다! 인공지능은 어떻게 인간의 두뇌를 뛰어넘도록 설계되고 진화했을까? 이세돌을 비롯한 많은 프로 바둑기사를 제압한 알파고를 통해 인공지능의 구조와 원리를 파헤친다! 2016년 3월, 이세돌 9단과 알파고의 세기의 대전이 열렸다. 결과는 4승 1패로 알파고의 승리. 2017년 5월에는 커제 9단과 알파고의 대국이 열렸다. 결과는 알파고의 3연승. 이후 알파고의 진화는 계속되었고, 2017년 10월에는 알파고 제로에 관한 논문이 발표되었다. 그리고, 알파고 제로는 기존 알파고에 100연승하였다. 이렇듯 인공지능 기술은 일취월장하고 있으며, 특히 머신 러닝, 딥 러닝, 강화 학습 분야에 주력하고 있다. 저자 오츠키 토모시는 《네이처》에 게재된 알파고 및 알파고 제로에 관한 난해한 학술 논문을 읽고 해석해서 알파고에 이용되는 딥 러닝, 강화 학습, 몬테카를로 트리 탐색과 알파고 제로에 이용되는 듀얼 네트워크의 구조에 대해 알기 쉽게 설명했다. 이 책을 통해 최신 인공지능 기술이 알파고 및 알파고 제로에 어떻게 이용되는지 파악하고, 이를 다양한 연구 개발에 활용하기 위한 아이디어를 얻을 수 있을 것이다.





목차
CHAPTER 1 알파고의 등장 1
1.1 게임 AI의 역사와 발전 2
1.1.1 앨런 튜링과 AI 2
1.2 천재 데미스 하사비스의 등장 5
1.2.1 신동 데미스 하사비스 5
1.3 알파고의 활약 7
1.3.1 알파고의 활약 7
1.4 바둑 AI의 기초 13
1.4.1 바둑의 규칙 13
1.4.2 바둑 AI를 구현한다는 것은 무엇인가? 16
1.4.3 ‘다음의 한 수’ 태스크 20
1.4.4 ‘다음의 한 수’ 태스크의 어려운 점 21
1.4.5 머신 러닝을 이용한 ‘다음의 한 수’ 태스크 22
1.4.6 알파고의 롤 아웃 정책 학습 26
1.5 정리 30

CHAPTER 2 딥 러닝 - 바둑 AI는 순간적으로 수를 떠올린다 31
이 장에서 설명할 내용 32
2.1 딥 러닝이란? 34
2.1.1 AI는 사람의 직관을 실현할 수 있을까? 34
2.2 필기체 숫자 인식의 예 42
2.2.1 필기체 숫자 인식이란? 42
2.2.2 필기체 숫자 인식의 데이터 세트 ‘MNIST’ 42
2.2.3 신경망을 사용한 필기체 숫자 인식 44
2.2.4 필기체 숫자 인식에 대한 컨볼루션 신경망 47
2.2.5 다단계의 신경망에서도 유효한 활성화 함수 51
2.2.6 오류 역전파 방법에 기초한 CNN의 필터 가중치 학습 54
2.2.7 화상 처리 CNN의 발전 60
2.3 알파고의 컨볼루션 신경망 64
2.3.1 알파고의 컨볼루션 신경망 64
2.3.2 ‘다음의 한 수’ 태스크와 화상 인식의 유사성 65
2.3.3 바둑의 수를 선택하는 CNN - SL 정책 네트워크 66
2.3.4 SL 정책 네트워크의 입력 48채널의 특징 71
2.3.5 SL 정책 네트워크의 컨볼루션 계산 예 75
2.3.6 SL 정책 네트워크의 계산량 77
2.3.7 SL 정책 네트워크의 학습용 데이터 획득 81
2.3.8 SL 정책 네트워크의 학습 기법 84
2.3.9 SL 정책 네트워크의 학습 결과 87
2.3.10 국면의 유리 불리를 예측하는 CNN(밸류 네트워크) 90
2.4 Chainer로 CNN 학습시키기 93
2.4.1 MNIST의 신경망 학습 부분 작성하기 93
2.4.2 SL 정책 네트워크의 학습 부분 작성하기 96
2.5 정리 100

CHAPTER 3 강화 학습 - 바둑 AI는 경험을 배운다 101
이 장에서 설명할 내용 102
3.1 강화 학습이란? 104
3.1.1 어떻게 경험에서 배울 것인가? 104
3.2 강화 학습의 역사 108
3.2.1 강화 학습 108
3.3 멀티 암드 밴딧 문제 112
3.3.1 강화 학습의 사례 112
3.3.2 UCB1 알고리즘 116
3.4 미로를 풀기 위한 강화 학습 118
3.4.1 4 × 4칸으로 이루어진 미로 118
3.4.2 가치 기반의 방식: Q 학습을 통해 미로 해결 120
3.4.3 정책 기반 방식: 정책 경사법을 통해 미로 해결 124
3.5 비디오 게임 조작 스킬을 얻기 위한 강화 학습 127
3.5.1 DQN 127
3.6 알파고의 강화 학습 131
3.6.1 알파고의 강화 학습 131
3.6.2 정책 경사법에 근거하는 강화 학습 134
3.6.3 RL 정책 네트워크의 성능 137
3.6.4 밸류 네트워크 학습용의 데이터 작성 기법 138
3.7 정리와 과제 143

CHAPTER 4 탐색 - 바둑 AI는 어떻게 예측할까? 145
이 장에서 설명할 내용 146
4.1 2인 제로섬 유한 확정 완전 정보 게임 148
4.1.1 어떻게 수를 예측할까? 148
4.2 게임에서의 탐색 153
4.2.1 SL 정책 네트워크 153
4.3 기존의 게임 트리 탐색(민맥스 트리 탐색) 155
4.3.1 ‘완전 탐색’의 개념 155
4.3.2 탐색 포인트 ? 가지치기와 평가 함수 162
4.4 바둑에서의 몬테카를로 트리 탐색 165
4.4.1 몬테카를로 방법 165
4.4.2 바둑에서의 몬테카를로 방법: 원시 몬테카를로 166
4.4.3 몬테카를로 트리 탐색 170
4.4.4 몬테카를로 트리 탐색의 결과와 최종적인 수 탐색 179
4.4.5 몬테카를로 트리 탐색의 개선 182
4.5 몬테카를로 트리 탐색의 성공 요인과 과제 185
4.5.1 CrazyStone과 Gnu Go 185
4.5.2 단 1줄로 다시 태어난 CrazyStone 186
4.6 정리 188
4.6.1 탐색 188

CHAPTER 5 알파고의 완성 189
5.1 알파고의 설계도 190
5.1.1 알파고의 재료 190
5.1.2 전체를 제어하는 AI 192
5.2 비동기 정책 가치 갱신 몬테카를로 트리 탐색 195
5.2.1 세 가지 정책의 특징 195
5.2.2 비동기 정책 가치 갱신 몬테카를로 트리 탐색 197
5.2.3 APV-MCTS의 선택 처리 200
5.2.4 APV-MCTS의 전개 처리 201
5.2.5 APV-MCTS의 평가 처리 201
5.2.6 APV-MCTS의 갱신 처리 202
5.3 대량 CPU·GPU의 이용 204
5.3.1 대량의 CPU와 GPU에 의한 병렬 탐색 204
5.3.2 로크리스 해시 206
5.3.3 가상 손실 208
5.4 알파고의 강력함 211
5.4.1 몬테카를로 트리 탐색, 밸류 네트워크, 정책 네트워크의 조합 효과 211

CHAPTER 6 알파고에서 알파고 제로로 213
6.1 시작에 앞서 214
6.2 알파고 제로에서의 딥 러닝 216
6.2.1 듀얼 네트워크의 구조 218
6.2.2 듀얼 네트워크의 학습 224
6.2.3 알파고 제로의 딥 러닝 정리 227
6.3 알파고 제로에서의 몬테카를로 트리 탐색 228
6.3.1 알파고 제로의 몬테카를로 트리 탐색 개요 228
6.3.2 몬테카를로 트리 탐색의 플로 차트 230
6.3.3 알파고 제로의 몬테카를로 트리 탐색 정리 233
6.4 알파고 제로에서의 강화 학습 234
6.4.1 알파고 제로의 강화 학습 기법 236
6.4.2 강화 학습의 계산 시간 242
6.4.3 알파고 제로의 강화 학습은 무엇을 하고 있나? 245
6.4.4 강화 학습의 효과 247
6.4.5 알파고 제로의 강화 학습 정리와 그 후의 진전 248
6.5 알파고 제로의 강력함 251
6.6 알파고 제로는 지식 없이 만들 수 있을까? 253
6.7 알파고나 알파고 제로에 약점은 있을까? 255
6.7.1 알파고와 알파고 제로의 약점 가능성 255
6.8 알파고 제로의 향후 미래 257
6.8.1 바둑계의 미래는 어떻게 될까? 257
6.8.2 AI의 과제 258

Appendix 1 수식에 관하여 263
A1.1 콘볼루션 신경망의 학습 법칙 도출 264
A1.1.1 SL 정책 네트워크의 학습 법칙 도출 264
A1.1.2 밸류 네트워크의 학습 법칙 도출 265
A1.1.3 듀얼 네트워크의 손실 함수에 관한 보충 267
A1.2 강화 학습의 학습 법칙 도출 269
A1.2.1 파알고의 RL 정책 네트워크 강화 학습 방법의 학습 법칙 도출 269
A1.2.2 미로를 예로 든 정책 경사법의 학습 법칙 도출 271

Appendix 2 바둑 프로그램용 UI 소프트웨어 GoGui 및 GoGui용 프로그램 DeltaGo 이용 방법 273
A2.1 DeltaGo란? 274
A2.1.1 DeltaGo의 특징 274
A2.2 GoGui의 설치 및 GoGui용 프로그램 DeltaGo 이용 방법 276
A2.2.1 DeltaGo 다운로드와 압축 풀기 276

찾아보기 289
책속으로
머신 러닝이란 컴퓨터에 ‘학습’을 시켜서 어떤 태스크에 대한 컴퓨터의 ‘예측 능력’과 ‘판별 능력’을 향상시켜 나가는 방법이다. 컴퓨터는 모든 국면을 기억할 수 없지만, ‘비슷한 국면에서 유사한 수가 좋은 수가 될 것이다’라는 것을 가정하여 배후에 있는 규칙성을 구하는 것이 목표다.
_22쪽CNN에서는 필터 가중치가 공유되므로 모든 링크에 독립적인 가중치(파라미터)를 주는 전체 결합 네트워크와 비교하면 학습해야 할 파라미터의 수가 적다. 예를 들어, 만일 3 × 3의 필터가 16개인 경우, 파라미터의 수는 입력 16개, 출력이 16장인 경우(16 × 16 × 3 × 3) 약 2,300개가 되며, 이는 1계층 당 약 8만 개나 되는 전체 결합 네트워크보다 압도적으로 적다.
_51쪽Q 학습의 경우 처음에는 모든 가치가 0이라는 초깃값부터 시작한다. 또한, 인접하는 칸의 가치를 바탕으로 가치 함수를 갱신하므로 첫 번째 에피소드에서는 보상을 얻을 수 있는 출구의 직전 칸 가치만이 갱신된다. 그것이 에피소드가 진행됨에 따라 시작 측에 가치가 전달되어 가는 과정을 확인할 수 있다. 결국 최단 경로에 해당하는 칸의 가치가 높아진다.
_122쪽‘CrazyStone’의 개발자 레미 쿨롱에 따르면 몬테카를로 트리 탐색은 단 1줄의 변경으로 굉장히 강해졌다고 언급했다. 그 개선은 플레이 아웃의 결과를 ‘땅 크기의 차이’가 아니라 ‘승리 또는 패배’로 변경한 것이다. ‘승리 또는 패배’보다 ‘땅 크기의 차이’ 쪽이 정보가 많으므로 언뜻 보면 더 나은 평가가 가능해 보인다. 정보를 적게 하는 편이 좀 더 잘된다는 점은 의외로 느껴진다.
_186쪽게임 AI에 강화 학습을 적용할 때의 장점은 지도 학습의 경우 필수가 되는 훈련 데이터가 필요 없다는 점을 들 수 있다. 따라서 원래 플레이 데이터를 얻기 어려운 게임이나 이미 강해져 교사 데이터를 만들기 어려운 AI에 대해서는 효과적인 기술이다. 한편, 강화 학습을 적용하는 다른 장점으로, 아무런 지식도 없는 상태에서 사람과 비슷한 지식수준이나 지금까지 알려지지 않았던 새로운 지식을 획득할 수 있다는 점을 들 수 있다.
_248쪽
상품 정보 고시
도서명 알파고를 분석하며 배우는 인공지능
저자 오츠키 토모시
출판사 제이펍
ISBN 9791188621644 (1188621645)
쪽수 292
출간일 2019-07-25
사이즈 171 * 226 * 20 mm /560g
목차 또는 책소개 CHAPTER 1 알파고의 등장 1
1.1 게임 AI의 역사와 발전 2
1.1.1 앨런 튜링과 AI 2
1.2 천재 데미스 하사비스의 등장 5
1.2.1 신동 데미스 하사비스 5
1.3 알파고의 활약 7
1.3.1 알파고의 활약 7
1.4 바둑 AI의 기초 13
1.4.1 바둑의 규칙 13
1.4.2 바둑 AI를 구현한다는 것은 무엇인가? 16
1.4.3 ‘다음의 한 수’ 태스크 20
1.4.4 ‘다음의 한 수’ 태스크의 어려운 점 21
1.4.5 머신 러닝을 이용한 ‘다음의 한 수’ 태스크 22
1.4.6 알파고의 롤 아웃 정책 학습 26
1.5 정리 30

CHAPTER 2 딥 러닝 - 바둑 AI는 순간적으로 수를 떠올린다 31
이 장에서 설명할 내용 32
2.1 딥 러닝이란? 34
2.1.1 AI는 사람의 직관을 실현할 수 있을까? 34
2.2 필기체 숫자 인식의 예 42
2.2.1 필기체 숫자 인식이란? 42
2.2.2 필기체 숫자 인식의 데이터 세트 ‘MNIST’ 42
2.2.3 신경망을 사용한 필기체 숫자 인식 44
2.2.4 필기체 숫자 인식에 대한 컨볼루션 신경망 47
2.2.5 다단계의 신경망에서도 유효한 활성화 함수 51
2.2.6 오류 역전파 방법에 기초한 CNN의 필터 가중치 학습 54
2.2.7 화상 처리 CNN의 발전 60
2.3 알파고의 컨볼루션 신경망 64
2.3.1 알파고의 컨볼루션 신경망 64
2.3.2 ‘다음의 한 수’ 태스크와 화상 인식의 유사성 65
2.3.3 바둑의 수를 선택하는 CNN - SL 정책 네트워크 66
2.3.4 SL 정책 네트워크의 입력 48채널의 특징 71
2.3.5 SL 정책 네트워크의 컨볼루션 계산 예 75
2.3.6 SL 정책 네트워크의 계산량 77
2.3.7 SL 정책 네트워크의 학습용 데이터 획득 81
2.3.8 SL 정책 네트워크의 학습 기법 84
2.3.9 SL 정책 네트워크의 학습 결과 87
2.3.10 국면의 유리 불리를 예측하는 CNN(밸류 네트워크) 90
2.4 Chainer로 CNN 학습시키기 93
2.4.1 MNIST의 신경망 학습 부분 작성하기 93
2.4.2 SL 정책 네트워크의 학습 부분 작성하기 96
2.5 정리 100

CHAPTER 3 강화 학습 - 바둑 AI는 경험을 배운다 101
이 장에서 설명할 내용 102
3.1 강화 학습이란? 104
3.1.1 어떻게 경험에서 배울 것인가? 104
3.2 강화 학습의 역사 108
3.2.1 강화 학습 108
3.3 멀티 암드 밴딧 문제 112
3.3.1 강화 학습의 사례 112
3.3.2 UCB1 알고리즘 116
3.4 미로를 풀기 위한 강화 학습 118
3.4.1 4 × 4칸으로 이루어진 미로 118
3.4.2 가치 기반의 방식: Q 학습을 통해 미로 해결 120
3.4.3 정책 기반 방식: 정책 경사법을 통해 미로 해결 124
3.5 비디오 게임 조작 스킬을 얻기 위한 강화 학습 127
3.5.1 DQN 127
3.6 알파고의 강화 학습 131
3.6.1 알파고의 강화 학습 131
3.6.2 정책 경사법에 근거하는 강화 학습 134
3.6.3 RL 정책 네트워크의 성능 137
3.6.4 밸류 네트워크 학습용의 데이터 작성 기법 138
3.7 정리와 과제 143

CHAPTER 4 탐색 - 바둑 AI는 어떻게 예측할까? 145
이 장에서 설명할 내용 146
4.1 2인 제로섬 유한 확정 완전 정보 게임 148
4.1.1 어떻게 수를 예측할까? 148
4.2 게임에서의 탐색 153
4.2.1 SL 정책 네트워크 153
4.3 기존의 게임 트리 탐색(민맥스 트리 탐색) 155
4.3.1 ‘완전 탐색’의 개념 155
4.3.2 탐색 포인트 ? 가지치기와 평가 함수 162
4.4 바둑에서의 몬테카를로 트리 탐색 165
4.4.1 몬테카를로 방법 165
4.4.2 바둑에서의 몬테카를로 방법: 원시 몬테카를로 166
4.4.3 몬테카를로 트리 탐색 170
4.4.4 몬테카를로 트리 탐색의 결과와 최종적인 수 탐색 179
4.4.5 몬테카를로 트리 탐색의 개선 182
4.5 몬테카를로 트리 탐색의 성공 요인과 과제 185
4.5.1 CrazyStone과 Gnu Go 185
4.5.2 단 1줄로 다시 태어난 CrazyStone 186
4.6 정리 188
4.6.1 탐색 188

CHAPTER 5 알파고의 완성 189
5.1 알파고의 설계도 190
5.1.1 알파고의 재료 190
5.1.2 전체를 제어하는 AI 192
5.2 비동기 정책 가치 갱신 몬테카를로 트리 탐색 195
5.2.1 세 가지 정책의 특징 195
5.2.2 비동기 정책 가치 갱신 몬테카를로 트리 탐색 197
5.2.3 APV-MCTS의 선택 처리 200
5.2.4 APV-MCTS의 전개 처리 201
5.2.5 APV-MCTS의 평가 처리 201
5.2.6 APV-MCTS의 갱신 처리 202
5.3 대량 CPU·GPU의 이용 204
5.3.1 대량의 CPU와 GPU에 의한 병렬 탐색 204
5.3.2 로크리스 해시 206
5.3.3 가상 손실 208
5.4 알파고의 강력함 211
5.4.1 몬테카를로 트리 탐색, 밸류 네트워크, 정책 네트워크의 조합 효과 211

CHAPTER 6 알파고에서 알파고 제로로 213
6.1 시작에 앞서 214
6.2 알파고 제로에서의 딥 러닝 216
6.2.1 듀얼 네트워크의 구조 218
6.2.2 듀얼 네트워크의 학습 224
6.2.3 알파고 제로의 딥 러닝 정리 227
6.3 알파고 제로에서의 몬테카를로 트리 탐색 228
6.3.1 알파고 제로의 몬테카를로 트리 탐색 개요 228
6.3.2 몬테카를로 트리 탐색의 플로 차트 230
6.3.3 알파고 제로의 몬테카를로 트리 탐색 정리 233
6.4 알파고 제로에서의 강화 학습 234
6.4.1 알파고 제로의 강화 학습 기법 236
6.4.2 강화 학습의 계산 시간 242
6.4.3 알파고 제로의 강화 학습은 무엇을 하고 있나? 245
6.4.4 강화 학습의 효과 247
6.4.5 알파고 제로의 강화 학습 정리와 그 후의 진전 248
6.5 알파고 제로의 강력함 251
6.6 알파고 제로는 지식 없이 만들 수 있을까? 253
6.7 알파고나 알파고 제로에 약점은 있을까? 255
6.7.1 알파고와 알파고 제로의 약점 가능성 255
6.8 알파고 제로의 향후 미래 257
6.8.1 바둑계의 미래는 어떻게 될까? 257
6.8.2 AI의 과제 258

Appendix 1 수식에 관하여 263
A1.1 콘볼루션 신경망의 학습 법칙 도출 264
A1.1.1 SL 정책 네트워크의 학습 법칙 도출 264
A1.1.2 밸류 네트워크의 학습 법칙 도출 265
A1.1.3 듀얼 네트워크의 손실 함수에 관한 보충 267
A1.2 강화 학습의 학습 법칙 도출 269
A1.2.1 파알고의 RL 정책 네트워크 강화 학습 방법의 학습 법칙 도출 269
A1.2.2 미로를 예로 든 정책 경사법의 학습 법칙 도출 271

Appendix 2 바둑 프로그램용 UI 소프트웨어 GoGui 및 GoGui용 프로그램 DeltaGo 이용 방법 273
A2.1 DeltaGo란? 274
A2.1.1 DeltaGo의 특징 274
A2.2 GoGui의 설치 및 GoGui용 프로그램 DeltaGo 이용 방법 276
A2.2.1 DeltaGo 다운로드와 압축 풀기 276

찾아보기 289
배송공지

사용후기

회원리뷰 총 0개

사용후기가 없습니다.

상품문의

등록된 상품문의

상품문의 총 0개

상품문의가 없습니다.

교환/반품

[반품/교환방법]
마이페이지> 주문배송조회 > 반품/교환신청 또는 고객센터 (070-4680-5689)로 문의 바랍니다.

[반품주소]
- 도로명 : (10882) 경기도 파주시 산남로 62-20 (산남동)
- 지번 : (10882) 경기도 파주시 산남동 305-21

[반품/교환가능 기간]
변심반품의 경우 수령 후 14일 이내, 상품의 결함 및 계약내용과 다를 경우 문제점 발견 후 30일 이내

[반품/교환비용]
단순 변심 혹은 구매착오로 인한 반품/교환은 반송료 고객 부담

[반품/교환 불가 사유]
- 소비자의 책임 있는 사유로 상품 등이 손실 또는 훼손된 경우
(단지 확인을 위한 포장 훼손은 제외)
- 소비자의 사용, 포장 개봉에 의해 상품 등의 가치가 현저히 감소한 경우
예) 화장품, 식품, 가전제품(악세서리 포함) 등
- 복제가 가능한 상품 등의 포장을 훼손한 경우
예) 음반/DVD/비디오, 소프트웨어, 만화책, 잡지, 영상 화보집
- 소비자의 요청에 따라 개별적으로 주문 제작되는 상품의 경우 ((1)해외주문도서)
- 디지털 컨텐츠인 eBook, 오디오북 등을 1회 이상 다운로드를 받았을 경우
- 시간의 경과에 의해 재판매가 곤란한 정도로 가치가 현저히 감소한 경우
- 전자상거래 등에서의 소비자보호에 관한 법률이 정하는 소비자 청약철회 제한 내용에 해당되는 경우
* (1) 해외주문도서 : 이용자의 요청에 의한 개인주문상품으로 단순변심 및 착오로 인한 취소/교환/반품 시
‘해외주문 반품/취소 수수료’ 고객 부담 (해외주문 반품/취소 수수료 : ①양서-판매정가의 12%, ②일서-판매정가의 7%를 적용)

[상품 품절]
공급사(출판사) 재고 사정에 의해 품절/지연될 수 있으며, 품절 시 관련 사항에 대해서는 이메일과 문자로 안내드리겠습니다.

[소비자 피해보상, 환불지연에 따른 배상]
- 상품의 불량에 의한 교환, A/S, 환불, 품질보증 및 피해보상 등에 관한 사항은 소비자분쟁해결 기준 (공정거래위원회 고시)에 준하여 처리됩니다.
- 대금 환불 및 환불지연에 따른 배상금 지급 조건, 절차 등은 전자상거래 등에서의 소비자 보호에 관한 법률에 따라 처리함.

회원로그인

오늘 본 상품

  • 알파고를 분석하며 배우는 인공지능
    알파고를 분석하며
    23,400
  • 오늘도 삶을 읽어나갑니다
    오늘도 삶을 읽어나
    13,320
  • 어린이를 위한 초등 자기주도 공부법×배움공책
    어린이를 위한 초등
    13,320
  • 두근두근 처음 도서관
    두근두근 처음 도서
    4,950
  • 수수께끼 변주곡
    수수께끼 변주곡
    12,420
  • 나는 오늘 나에게 ADHD라는 이름을 주었다
    나는 오늘 나에게
    14,400
  • 초등 혼자 매일 공부
    초등 혼자 매일 공
    13,320
  • [출간예정] 파이썬으로 배우는 게임 개발: 실전편
    [출간예정] 파이썬
    27,000
  • 부모가 자라야 아이가 자란다
    부모가 자라야 아이
    11,700
  • 믿음 주는 부모 자존감 높은 아이
    믿음 주는 부모 자
    12,600
  • 네모의 기록이야기
    네모의 기록이야기
    16,200
  • 친절한 실전 딥러닝 수업
    친절한 실전 딥러닝
    19,800
  • 우리가 사는 방식
    우리가 사는 방식
    12,600
  • 스윗한 SwiftUI
    스윗한 SwiftU
    28,800
  • 대한민국 규제 백과
    대한민국 규제 백과
    17,820
  • 하루 30분 너를 그리는 시간
    하루 30분 너를
    10,800
  • 백년 두뇌
    백년 두뇌
    12,600
  • New 심리학 콘서트
    New 심리학 콘서
    14,400
  • 배 속 아가가 엄마 아빠에게 속삭이는 태교이야기
    배 속 아가가 엄마
    11,250
  • 사과에 대하여
    사과에 대하여
    13,320
  • 플럼번
    플럼번
    12,000
  • Head First Agile
    Head First
    31,500
  • 불안한 엄마 무관심한 아빠(리커버)
    불안한 엄마 무관심
    15,750
  • 이경제 원장의 귀 잡고 병 잡고
    이경제 원장의 귀
    15,300