현재까지 발견된 위 책의 오탈자 정보와 오류, 그리고 보다 매끄러운 문장을 위해 수정한 내용을 안내해드립니다. 집필과 편집 시에 미처 확인하지 못하고 불편을 끼쳐드려 죄송하다는 말씀을 드립니다. 아래의 오탈자 사항은 추후 재쇄 시에 반영하도록 하겠습니다. 


이외의 오탈자 정보를 발견하시면 옮긴이(jeonhyungkang@gmail.com)나 출판사(readers.jpub@gmail.com)로 연락주시면 고맙겠습니다.


최종수정일자: 2017년 9월 14일

1-2쇄본 오탈자


377쪽 식 16.2에서 P(s)의 값 수정(parky님 제보, 원서 오류)

0.328 ==> 0.888


377쪽 식 16.4에서 P(a|s)의 값 수정(parky님 제보, 원서 오류) 

0.2105 ==> 0.0745



최종수정일자: 2017년 5월 8일

1쇄본 오탈자


283쪽 살사 알고리즘에서(dudwo56님 제보, 편집오류)

현재 정책을 사용해서 s행동을 선택한다.

=>

현재 정책을 사용해서 a 행동을 선택한다.


40쪽 식 2.23의 우변항에서(김*석 님 제보, 원서 오류)

E( ({x_i)-u)E( ({y_i)-v))

=>

E( ({x_i)-u) ({y_i)-v))


29쪽 식 2.6 아래 세 줄에서(이*수 님 제보, 번역 오류)

민감도(긍정률)는 긍정이라고 판별난 부분 중에 실제 긍정 예제들의 비율을 나타내며, 특이도는 부정이라고 판별난 부분 중 실제 부정 예제들의 비율을 나타낸다. 정밀도는 실제 긍정 예제들 중에 긍정이라고 제대로 맞게 분별된 비율을 나타내고,

=>

민감도(긍정률)는 실제 긍정 예제들 중에서 긍정이라고 판별된 부분의 비율을 나타내며, 특이도는 실제 부정 예제들 중에서 부정이라고 판별난 부분의 비율을 나타낸다. 정밀도는 실제 긍정이라고 판별난 부분 중에서 실제 긍정 예제들의 비율을 나타내고,



48쪽 두 번째 문단 6행에(강*관 님 제보, 편집 오류)

가소성(palticity)은

=>

가소성(plasticity)은


119쪽 하단 식 4.23의 우측 편미분 항에서(Unnamed 님 제보, 원서 오류)

(yk - sigma(wik * xi))

=>

(sigma(wik * xi) - tk)


29쪽 식 2.2(노*희 님 제보, 원서 오류)

정확도 = #TP + #FP / #TP + #FP + #TN + #FN

=>

정확도 = #TP + #TN / #TP + #FP + #TN + #FN


449-450쪽 코드 인덴트(들여쓰기) 전면 수정(최*렬 님 제보, 원서 오류)

(책의 코드를 아래 코드로 전면 수정해야 합니다. 참고로, 책과 함께 제공되는 예제 코드는 이상 없음을 알려드립니다)


    def updown(self,inputs,labels):


        N = np.shape(inputs)[0]


        # 가중치를 분리

        for i in range(self.nRBMs):

            self.layers[i].rec = self.layers[i].weights.copy()

            self.layers[i].gen = self.layers[i].weights.copy()


        old_error = np.iinfo('i').max

        error = old_error

        self.eta = 0

        for epoch in range(11):

            # 웨이크 단계

    

            v = inputs

            for i in range(self.nRBMs):

                vold = v

                h,ph = self.compute_hidden(v,i)

                v,pv = self.compute_visible(h,i)

    

                # 생성 가중치를 트레인

                self.layers[i].gen += self.eta * np.dot((vold-pv).T,h)/N

                self.layers[i].visiblebias += self.eta * np.mean((vold-pv),axis=0)


                v=h


            # 라벨이 있는 RBM을 트레인

            self.layers[self.nRBMs].contrastive_divergence(v,labels,silent=True)


            # 라벨이 있는 RBM을 샘플

            for i in range(self.nCDsteps):

                h,ph = self.layers[self.nRBMs].compute_hidden(v,labels)

                v,pv,pl = self.layers[self.nRBMs].compute_visible(h)


            # 클래스 오류 계산

            #print (pl.argmax(axis=1) != labels.argmax(axis=1)).sum()    


            # 슬립 단계

    

            # 라벨이 있는 RBM의 마지막 상태로 초기화

            h = v

            for i in range(self.nRBMs-1,-1,-1):

                hold = h

                v, pv = self.compute_visible(h,i)

                h, ph = self.compute_hidden(v,i)

            

                # 트레인 인식 가중치

                self.layers[i].rec += self.eta * np.dot(v.T,(hold-ph))/N

                self.layers[i].hiddenbias += self.eta * np.mean((hold-ph),axis=0)


                h=v

        

            old_error2 = old_error

            old_error = error

            error = np.sum((inputs - v)**2)/N

            if (epoch%2==0): 

                print epoch, error

            if (old_error2 - old_error)<0.01 and (old_error-error)<0.01:

                break



저작자 표시 비영리 동일 조건 변경 허락
신고

댓글을 달아 주세요

  1.  댓글주소  수정/삭제  댓글쓰기 Unnamed 2017.01.17 23:43 신고

    p43의 식 (2.27)에서 p(x)의 분모식에서 2PI의 지수승이 d/2가 아닌 1/2입니다.

    •  댓글주소  수정/삭제 Favicon of http://jpub.tistory.com BlogIcon 제이펍 2017.01.18 17:16 신고

      안녕하세요? 문의 감사드립니다. 먼저, 원서를 확인해보니 현재 번역서와 똑같이 되어 있습니다. 독자님의 지적이 맞다면 원서 오류인 것 같은데, 역자님과 상의하여 다시 댓글로 안내해 드리겠습니다.
      감사합니다.

    •  댓글주소  수정/삭제 Favicon of http://jpub.tistory.com BlogIcon 제이펍 2017.01.19 11:31 신고

      역자님으로부터 아래와 같은 답변을 받아 옮겨 드립니다.

      ============
      오류가 아닙니다. 여기서 d는 데이터의 차원을 나타내는데요 예를 들면 1차원일 경우에 d에 1을 대입하면 univariate normal distribution인 식 2.26이 됩니다. 1차원이기 때문에 mu 값이 스칼라이고 (하나의 숫자) sigma 역시 스칼라입니다.

      2차원이 될 경우에는 mu 값이 두 개의 숫자를 갖는 벡터가 되고요. sigma는 2x2의 행렬이 됩니다. 동일한 원리로 d차원이 되면 multivariate normal distribution 식은 2.27과 같고 mu는 d차원의 벡터 sigma는 dxd의 행렬이 됩니다.
      ============
      혹시 추가 문의 있으면 다시 말씀해주세요!

  2.  댓글주소  수정/삭제  댓글쓰기 Unnamed 2017.01.19 16:11 신고

    친절한 답변 감사드립니다. 혹시 P.119의
    연쇄법칙을 이용한 식 4.23에서 편미분 항을 보면 (yk - sigma(wik * xi))로 표기된 부분을
    (yk-tk) 혹은 (sigma(wik * xi) - tk)가 맞는식 아닌가요?
    같은 페이지 10번째 줄에 따르면 sigma(wik * xi) 값이 yk라고 표현되어 있길래 한번 남겨봅니다.

  3.  댓글주소  수정/삭제  댓글쓰기 역자 2017.01.20 13:47 신고

    원서오탈자인듯 보이네요
    위에서 yk를 sigma(wik * xi)로 나타냈으니 말씀하신데로 (sigma(wik * xi) - tk)가 맞습니다.
    고로 이를 미분하면
    (4.23) 1/2 .... del/del w_{l,k} (sigma(w_{l,k} * x_i) - t_k) 가 되고
    (4.25)는 (yk-tk)(x_i) 가되고요 이는 (tk-yk)(-xi)와 같기도 합니다.

  4.  댓글주소  수정/삭제  댓글쓰기 dudwo56@gmail.com 2017.05.05 12:04 신고

    283페이지 살사 알고리즘 부분에서
    "현재 정책을 사용해서 s` 행동을 선택한다."
    부분이
    "현재 정책을 사용해서 a` 행동을 선택한다."
    가 맞는게 아닌가요?
    제가 잘못이해한건지 오탈자인지 확실치 않아서 댓글남깁니다.

    •  댓글주소  수정/삭제 Favicon of http://jpub.tistory.com BlogIcon 제이펍 2017.05.08 10:56 신고

      안녕하세요? 말씀하신 내용을 확인해 보니 편집상 오류가 있었습니다. 말씀해주신 대로 s가 아닌 a가 되어야 합니다. 위의 오탈자 내용에 반영해두었고, 재쇄 시에 반영하여 인쇄하도록 하겠습니다.
      고맙습니다!

  5.  댓글주소  수정/삭제  댓글쓰기 parky 2017.09.07 18:22 신고

    377p에서
    16.2 식에서 p(s)는 0.888 이 나오는데 값이 이상하고
    p(a|s)는 0.2105 가 아니라 0.0745인것 같은데..
    확인 부탁드릴께요



    •  댓글주소  수정/삭제 Favicon of http://jpub.tistory.com BlogIcon 제이펍 2017.09.07 18:56 신고

      네. 문의 고맙습니다. 살펴보고 빠른 시일 안에 다시 답변을 드리겠습니다.

    •  댓글주소  수정/삭제 Favicon of http://jpub.tistory.com BlogIcon 제이펍 2017.09.11 22:39 신고

      안녕하세요?
      오래 기다리게 해서 죄송합니다. 확인해본 결과, 원서의 오류로 확인되었습니다.

      1. 377쪽 식(16.2)에 있는 p(s)는 0.328 --> 0.684로 수정하는 것이 맞습니다.
      2. 식 (16.4)에서 P(a|s)는 말씀하신대로 0.2105 --> 0.0745가 맞습니다.

      혹시 추가로 여쭤보실 게 있으면 다시 연락해주세요! 감사합니다.

  6.  댓글주소  수정/삭제  댓글쓰기 parky 2017.09.12 09:53 신고

    377p 16.2 의 경우 본문에서 '시험이 지루했고 얼마만큼 시험을 두려워할지 예측하고 싶다고 하자.' 라고 했으니 B 가 True 인 경우의 확률만 모두 더하면 될것으로 생각되는데 아닌가요? 0.684는 B가 True 인지 False인지 모를 경우로 생각되고요.
    제가 생각하기에 식의 과정은 맞고 답이 잘못 표기된것으로 생각되는데 한번 더 확인 부탁드립니다.

    •  댓글주소  수정/삭제 Favicon of http://jpub.tistory.com BlogIcon 제이펍 2017.09.14 09:47 신고

      안녕하세요? 저희 역자 중 한 분에게 문의하신 내용을 여쭤보고 아래와 같은 답변을 받아 전달해 드립니다.

      =============
      (16.2)의 값은 0.888이 맞습니다.
      문장 윗 부분에서 말씀하신 대로 주변 확률 조건을 지루할 경우에만으로 국한했기 때문에 식은 맞고 답이 잘못된 경우가 됩니다. 결국 오타라고 할 수 있겠습니다. 감사합니다.
      =============



티스토리 툴바