본문 바로가기

오탈자 정보

[딥 러닝 제대로 정리하기]_오탈자

현재까지 발견된 위 책의 오탈자 정보와 오류, 그리고 보다 매끄러운 문장을 위해 수정한 내용을 안내해드립니다. 번역과 편집 시에 미처 확인하지 못하고 불편을 끼쳐드려 죄송하다는 말씀을 드립니다. 아래의 오탈자 사항은 추후 재쇄 시에 반영하도록 하겠습니다. 


이외의 오탈자 정보를 발견하시면 옮긴이(flourscent@gmail.com)나 출판사(readers.jpub@gmail.com)로 연락주시면 고맙겠습니다.


최종수정일자: 2018년 6월 7일

1쇄본 오탈자


161쪽 첫 번째 문단 5번째 줄(박O우 님 제보)                                          

규제화 기법이다. 이어서 최적화를

==>                                  

규제화 기법이다. 최적화를 


144쪽 식 4.3 아래 문단 1번째 줄(박O우 님 제보)   

==>

144쪽 식 4.3 아래 문단 2번째 줄  

==>


144쪽 식 4.3 아래 문단 2번째 줄(박O우 님 제보)                                          

각각의 dy dy dx 변수를 조금씩 움직였을 때 

==>                                  

각각의 dz dy dx 변수를 조금씩 움직였을 때                                       

                                                                                                                             

185쪽 첫번째 문단 2번째 줄(박O우 님 제보)                                                    

==>

                                                                                                

191쪽 그림 5.9의 (c) 제목에서(박O우 님 제보)                                                          

1쌍의 합 성곱층 

==>

1쌍의 합성곱층                                                                                                                        

                                                                                

228쪽 첫번째 문단 5번째 줄(박O우 님 제보)                                                     

모든 중간층 노드의 추가 충분하다면                                              

==>                                                                            

모든 중간층에서 노드 수가 충분하다면                                                                                                

229쪽 두번째 문단 11번째 줄(박O우 님 제보)                                                     

1DNN을 음향 모형으로 사용하는                                                   

==>                                                                            

DNN을 음향 모형으로 사용하는                                                    

                                                                   

231쪽 식 6.16 바로 아랫줄(박O우 님 제보)                                                         

이런 방법으로 업데이트된 새로은 학습                                            

==>                                                                            

이런 방법으로 업데이트된 새로운 학습                                            

                                                                                                                                          

255 두번째 문단 2번째 줄(박O우 님 제보)                                                

사전훈련에서 학습된 특징의 조합을 사전훈련에서                     

===>                                                                            

사전훈련에서 학습된 특징의 조합을 사후학습에서                  

                                                                                                                       

263쪽 세번째 문단 1번째 줄 (박O우 님 제보)                                                    

7.3.1.항에서 설명했던 하향식                           

===>                                                                            

7.3.1.항에서 설명했던 상향식                                                                                                   

                                                                                                                           

279쪽 마지막 문단 아래에서 2번째 줄 (박O우 님 제보)                                        

앞으로 자연어 처리는 분야에서    

===>                                                                            

앞으로 자연어 처리라는 분야에서  


39쪽 3행에서(수식 오류)(박O우 님 제보)

조건부 확률분포 p(X | Y)를 

==>

조건부 확률분포 p(Y | X)


39쪽 7행에서(수식 오류)(박O우 님 제보)

p(X | Y)를 노이즈 과정으로

==>

p(Y | X)를 노이즈 과정으로


53쪽 2번째 문단 9행에서(수식 오류)(박O우 님 제보)

==>


75쪽 2번째 문단 1행에서(수식 오류)(박O우 님 제보)

H^(2)를 비가시층으로

==>

H^(3)를 비가시층으로


75쪽 2번째 문단 3행에서(수식 오류)

특징점 f^(1)으로부터

==>

특징점 f^(μ)으로부터


104쪽 2번째 문단 3행에서(박O우 님 제보)

먼저 입력 정보를 입력된 정보를 줄일 수밖에

==>

먼저 입력된 정보를 줄일 수밖에


109쪽 식 3.3의 아래 행에서(박O우 님 제보)

p(H_i = h_j | ~~) 

==> 

p(H_j = h_j | ~~) 


115쪽 3번째 문단의 2행에서(박O우 님 제보)

모형분포 p(v|h, Θ) ==> 모형분포 p(v, h|Θ)


129쪽 그림 3.5의 맨 좌측 그림 설명 중에서(박O우 님 제보)

각 인접층에서 EFH(RPM) ==> 각 인접층에서 EFH(RBM


133쪽 마지막 문단 2-3행에서(박O우 님 제보)

다층 NN을 아래층부터 순서대로 구축하여 방식이다. 

==>

다층 NN을 아래층부터 순서대로 구축하고 학습하는 방식이다. 


134쪽 첫 번째 문단 1-2행에서(박O우 님 제보)(번역 누락)

학습이 끝나면, 입력 x와 비가시층 h^(1)을 새로운 입력으로 삼아 
==>
이 학습이 끝나면 입력 x와 비가시층 h^(1) 사이의 가중치와 바이어스를 저장해 둔 다음, 
입력 x에서 계산한 h^(1)을 새로운 입력으로 삼아