본문 바로가기

오탈자 정보

[머신러닝 인 액션]_오탈자

현재까지 발견된 위 책의 오탈자 정보와 오류 사항 그리고 보다 매끄러운 문장을 위해 수정한 내용들입니다. 불편을 끼쳐드려 죄송합니다.

혹시 이 외의 오탈자 정보를 발견하시는 분이 계시면 출판사 메일 jeipub골뱅이gmail.com이나 역자 메일 goldenyj골뱅이gmail.com으로 연락주시면고맙겠습니다.

최종수정일자: 2017년 1월 17일
1-4쇄본 오탈자


아래의 오탈자 사항은 추후 재쇄 시에는 모두 반영하도록 하겠습니다. 번역과 편집 시에 미처 확인을 하지 못해 불편을 끼쳐드려 다시 한 번 죄송하다는 말씀을 드립니다.


x쪽 차례에서(문*환 님 제공, 편집 오류)

8.5 성향 / 변화량 관계 ==> 8.5 편향/분산 관계

 

133쪽 두 번째 문단 첫 번째 줄에서(문*환 님 제공, 번역 오류)

이것은 데이터가 100% 선형분리된다는 가정을 만든다.

==> 

이것은 데이터가 100% 선형 분리된다는 가정이 필요하다.

 

135쪽 6.3.1절 첫 번째 문단에서(문*환 님 제공, 번역 오류)

플랫의 SMO는 순차적 최소 최적화(Sequential Minimal Optimization)의 약어이다. 이것은 커다란 최적화 문제를 가지고 있으며, 이 문제는 다시 작은 문제들로 나누어진다. 작은 문제들은 쉽게 해결할 수 있으며 순차적으로 해결된다. 순차적으로 해결된 문제들의 답은 모두 같게 되는데, 이는 모든 문제를 다함께 처리한 것과 같은 효과가 있다. 또한, 같은 답을 얻게 됨으로써 처리 시간이 크게 줄어든다.

==> 

플랫의 SMO는 순차적 최소 최적화(Sequential Minimal Optimization)의 약어로, 큰 문제를 작은 문제들로 나눈다. 이렇게 나뉜 작은 문제들은 쉽게 해결할 수 있으며, 이 작은 문제들을 순차적으로 해결함으로써 큰 문제를 한 번에 해결하는 것과 같은 답을 얻을 수 있다. 더군다나 처리 시간 역시 크게 줄어든다.

 

165쪽 7.1.1절 첫 번째 문단 1-2행에서(문*환 님 제공, 번역 오류)

이러한 통합을 위해 배깅은 크기가 S인 원본 데이터 집합을 가지고 크기가 S인 다른 데이터 집합을 S번 만들게 된다.

==>

이러한 통합을 위해 배깅은 원본 데이터 집합으로부터 S개의 새로운 데이터 집합을 만들게 되며, 새롭게 만들어진 데이터 집합의 크기는 원본 데이터 집합의 크기와 같다.

 

166쪽 두 번째 문단 1행에서(문*환 님 제공, 번역 오류)

여기에서는 랜덤포레스트(random forests)처럼 배깅보다 더 발전된 방법을 다룬다.

==> 

여기에는 랜덤포레스트(random forests)를 비롯해 배깅의 발전된 방법들이 존재한다.  

 

195쪽 아래에서 두 번째 문단 1-2행에서(문*환 님 제공, 번역 오류)

이것을 w에 대해 유도하게 되면,

=> 

이것을 w에 대해 미분하면,


207쪽 두 번째 문단 1-2행에서(문*환 님 제공, 번역 오류)

데이터 행렬 X에 전체 순위가 없다고 말한다. 데이터에 전체 순위가 없다면, 전치 행렬을 계산하는 데 어려움을 겪게 된다. 

==> 

데이터 행렬 X가 최대계수(full rank)가 아니므로 전치 행렬을 계산할 수 없게 된다. 

 

207쪽 세 번째 문단 4-5행에서(문*환 님 제공, 번역 오류)

이것은 라소에 가까운 쉬운 방법이다.

=> 

이것은 라소를 근사(approximate)시킨 쉬운 방법이다.

 

207쪽 8.4.1절 능형 회귀 수식에서(문*환 님 제공, 편집 오류) 

(XTX=λI)

=>

(XTX+λI)

 

207쪽 8.4.1절 두 번째 문단 1-2행에서(문*환 님 제공, 편집 오류) 

그러나 이것은 추정에 성향을 추가함으로써 더 좋은 평가를 얻는 데도 사용할 수 있다.

==> 

그런데 이것은 추정에 편향(bias)을 추가하여 더 좋은 추정치를 얻는 데도 사용될 수 있다.

 

207쪽 8.4.1절 두 번째 문단 3-4행에서(문*환 님 제공, 번역 오류) 

이렇게 뚜렷한 패널티가 있기 때문에 우리는 중요하지 않은 매개변수를 줄일 수 있다.

=> 

이렇게 패널티를 부여함으로써 우리는 중요하지 않은 매개변수를 줄일 수 있다.

 

215쪽 8.5절 제목(문*환 님 제공, 번역 오류) 

8.5 성향 / 변화량 관계

=> 

8.5 편향/분산 관계


433쪽 맨 아래 수식에서(김*필 님 제공, 원서 오류)

dA1/dx1 dA2/dx2

dA1/dx1 dA2/dx2

dA1/dx1 dA2/dx2

==>

dA1/dB1 dA2/dB1

dA1/dB2 dA2/dB2

dA1/dB3 dA2/dB3


최종수정일자: 2015년 11월 17일
1-3쇄본 오탈자


아래의 오탈자 사항은 추후 재쇄 시에는 모두 반영하도록 하겠습니다. 번역과 편집 시에 미처 확인을 하지 못해 불편을 끼쳐드려 다시 한 번 죄송하다는 말씀을 드립니다.


137쪽 의사코드 중에서(크리스 김 님 제공)
//데이터 벡터가 최적화될 수 없다면

==>

//데이터 벡터가 최적화될 수 다면


최종수정일자: 2013년 11월 8일
1쇄본 오탈자


아래의 오탈자 사항은 추후 재쇄 시에는 모두 반영하도록 하겠습니다. 번역과 편집 시에 미처 확인을 하지 못해 불편을 끼쳐드려 다시 한 번 죄송하다는 말씀을 드립니다.

123쪽 예제 박스 5번에서(이정민 님 제공)
오유율에 따라 ==> 오류율에 따라


56쪽 3.1.2절 첫 번째 문단 5행에서

고맙게도 몇몇 데이터는 2차원으로 플롯된다. ==> 데이터를 2차원으로 플롯한다고 생각해보자.

 

64쪽 3.2.1절 1-2행에서

매스플롯라이브러리는 텍스트에 가까운 데이터를 추가할 수 있어 주석(annotations)이라고 불릴 정도로 훌륭한 도구이다.

==>

매스플롯라이브러리에는 애너테이션(annotation)이라는 훌륭한 도구를 포함하고 있다. 이 애너테이션은 그려진 플롯 내에 있는 데이터 점들을 설명할 할 수 있도록 주석을 추가하는 도구이다.


xviii쪽 두 번째 문단 세 번째 줄(강대기 님 제공)

modieling ==> modeling


10쪽 두 번째 문단 8번째 줄(강대기 님 제공)

회귀(regression)에서 목적 변수는 계속 되풀이될 수 있다. 

==> 

회귀에서 목적 변수는 정수가 아닌 실수처럼 연속적인 값을 가질 수 있다.

 

11쪽 첫 번째 문단 5-6번째 줄(역자 제공)

목적 변수나 분류 항목은 훈련 예제에 있으므로 예측값을 서로 비교할 수 있으며, 이를 통해 알고리즘이 얼마나 정확한지 짐작할 수 있게 된다.

==>

그리고서 예측 값과 검사 예제의 본래 목적 변수(또는 분류 항목)를 비교하여 알고리즘이 얼마나 정확한지 짐작할 수 있게 된다. 

 

12쪽 4-5번째 줄(강대기 님 제공)

이를 통해 둘 또는 세 개의 관점으로 데이터를 적절하게 그려보는 방법을 사용하기도 한다.

==>

2차원 또는 3차원으로 데이터를 적절하게 그려보는 방법을 사용하기도 한다.