현재까지 발견된 위 책의 오탈자 정보와 오류, 그리고 보다 매끄러운 문장을 위해 수정한 내용을 안내해드립니다. 집필과 편집 시에 미처 확인하지 못하고 불편을 끼쳐드려 죄송하다는 말씀을 드립니다. 아래의 오탈자 사항은 추후 재쇄 시에 반영하도록 하겠습니다. 


이외의 오탈자 정보를 발견하시면 옮긴이(jeonhyungkang@gmail.com)나 출판사(readers.jpub@gmail.com)로 연락주시면 고맙겠습니다.


최종수정일자: 2017년 5월 8일

1쇄본 오탈자


283쪽 살사 알고리즘에서(dudwo56님 제보, 편집오류)

현재 정책을 사용해서 s행동을 선택한다.

=>

현재 정책을 사용해서 a 행동을 선택한다.


40쪽 식 2.23의 우변항에서(김*석 님 제보, 원서 오류)

E( ({x_i)-u)E( ({y_i)-v))

=>

E( ({x_i)-u) ({y_i)-v))


29쪽 식 2.6 아래 세 줄에서(이*수 님 제보, 번역 오류)

민감도(긍정률)는 긍정이라고 판별난 부분 중에 실제 긍정 예제들의 비율을 나타내며, 특이도는 부정이라고 판별난 부분 중 실제 부정 예제들의 비율을 나타낸다. 정밀도는 실제 긍정 예제들 중에 긍정이라고 제대로 맞게 분별된 비율을 나타내고,

=>

민감도(긍정률)는 실제 긍정 예제들 중에서 긍정이라고 판별된 부분의 비율을 나타내며, 특이도는 실제 부정 예제들 중에서 부정이라고 판별난 부분의 비율을 나타낸다. 정밀도는 실제 긍정이라고 판별난 부분 중에서 실제 긍정 예제들의 비율을 나타내고,



48쪽 두 번째 문단 6행에(강*관 님 제보, 편집 오류)

가소성(palticity)은

=>

가소성(plasticity)은


119쪽 하단 식 4.23의 우측 편미분 항에서(Unnamed 님 제보, 원서 오류)

(yk - sigma(wik * xi))

=>

(sigma(wik * xi) - tk)


29쪽 식 2.2(노*희 님 제보, 원서 오류)

정확도 = #TP + #FP / #TP + #FP + #TN + #FN

=>

정확도 = #TP + #TN / #TP + #FP + #TN + #FN


449-450쪽 코드 인덴트(들여쓰기) 전면 수정(최*렬 님 제보, 원서 오류)

(책의 코드를 아래 코드로 전면 수정해야 합니다. 참고로, 책과 함께 제공되는 예제 코드는 이상 없음을 알려드립니다)


    def updown(self,inputs,labels):


        N = np.shape(inputs)[0]


        # 가중치를 분리

        for i in range(self.nRBMs):

            self.layers[i].rec = self.layers[i].weights.copy()

            self.layers[i].gen = self.layers[i].weights.copy()


        old_error = np.iinfo('i').max

        error = old_error

        self.eta = 0

        for epoch in range(11):

            # 웨이크 단계

    

            v = inputs

            for i in range(self.nRBMs):

                vold = v

                h,ph = self.compute_hidden(v,i)

                v,pv = self.compute_visible(h,i)

    

                # 생성 가중치를 트레인

                self.layers[i].gen += self.eta * np.dot((vold-pv).T,h)/N

                self.layers[i].visiblebias += self.eta * np.mean((vold-pv),axis=0)


                v=h


            # 라벨이 있는 RBM을 트레인

            self.layers[self.nRBMs].contrastive_divergence(v,labels,silent=True)


            # 라벨이 있는 RBM을 샘플

            for i in range(self.nCDsteps):

                h,ph = self.layers[self.nRBMs].compute_hidden(v,labels)

                v,pv,pl = self.layers[self.nRBMs].compute_visible(h)


            # 클래스 오류 계산

            #print (pl.argmax(axis=1) != labels.argmax(axis=1)).sum()    


            # 슬립 단계

    

            # 라벨이 있는 RBM의 마지막 상태로 초기화

            h = v

            for i in range(self.nRBMs-1,-1,-1):

                hold = h

                v, pv = self.compute_visible(h,i)

                h, ph = self.compute_hidden(v,i)

            

                # 트레인 인식 가중치

                self.layers[i].rec += self.eta * np.dot(v.T,(hold-ph))/N

                self.layers[i].hiddenbias += self.eta * np.mean((hold-ph),axis=0)


                h=v

        

            old_error2 = old_error

            old_error = error

            error = np.sum((inputs - v)**2)/N

            if (epoch%2==0): 

                print epoch, error

            if (old_error2 - old_error)<0.01 and (old_error-error)<0.01:

                break



저작자 표시 비영리 동일 조건 변경 허락
신고
크리에이티브 커먼즈 라이선스
Creative Commons License

댓글을 달아 주세요

  1.  댓글주소  수정/삭제  댓글쓰기 Unnamed 2017.01.17 23:43 신고

    p43의 식 (2.27)에서 p(x)의 분모식에서 2PI의 지수승이 d/2가 아닌 1/2입니다.

    •  댓글주소  수정/삭제 Favicon of http://jpub.tistory.com BlogIcon 제이펍 2017.01.18 17:16 신고

      안녕하세요? 문의 감사드립니다. 먼저, 원서를 확인해보니 현재 번역서와 똑같이 되어 있습니다. 독자님의 지적이 맞다면 원서 오류인 것 같은데, 역자님과 상의하여 다시 댓글로 안내해 드리겠습니다.
      감사합니다.

    •  댓글주소  수정/삭제 Favicon of http://jpub.tistory.com BlogIcon 제이펍 2017.01.19 11:31 신고

      역자님으로부터 아래와 같은 답변을 받아 옮겨 드립니다.

      ============
      오류가 아닙니다. 여기서 d는 데이터의 차원을 나타내는데요 예를 들면 1차원일 경우에 d에 1을 대입하면 univariate normal distribution인 식 2.26이 됩니다. 1차원이기 때문에 mu 값이 스칼라이고 (하나의 숫자) sigma 역시 스칼라입니다.

      2차원이 될 경우에는 mu 값이 두 개의 숫자를 갖는 벡터가 되고요. sigma는 2x2의 행렬이 됩니다. 동일한 원리로 d차원이 되면 multivariate normal distribution 식은 2.27과 같고 mu는 d차원의 벡터 sigma는 dxd의 행렬이 됩니다.
      ============
      혹시 추가 문의 있으면 다시 말씀해주세요!

  2.  댓글주소  수정/삭제  댓글쓰기 Unnamed 2017.01.19 16:11 신고

    친절한 답변 감사드립니다. 혹시 P.119의
    연쇄법칙을 이용한 식 4.23에서 편미분 항을 보면 (yk - sigma(wik * xi))로 표기된 부분을
    (yk-tk) 혹은 (sigma(wik * xi) - tk)가 맞는식 아닌가요?
    같은 페이지 10번째 줄에 따르면 sigma(wik * xi) 값이 yk라고 표현되어 있길래 한번 남겨봅니다.

  3.  댓글주소  수정/삭제  댓글쓰기 역자 2017.01.20 13:47 신고

    원서오탈자인듯 보이네요
    위에서 yk를 sigma(wik * xi)로 나타냈으니 말씀하신데로 (sigma(wik * xi) - tk)가 맞습니다.
    고로 이를 미분하면
    (4.23) 1/2 .... del/del w_{l,k} (sigma(w_{l,k} * x_i) - t_k) 가 되고
    (4.25)는 (yk-tk)(x_i) 가되고요 이는 (tk-yk)(-xi)와 같기도 합니다.

  4.  댓글주소  수정/삭제  댓글쓰기 dudwo56@gmail.com 2017.05.05 12:04 신고

    283페이지 살사 알고리즘 부분에서
    "현재 정책을 사용해서 s` 행동을 선택한다."
    부분이
    "현재 정책을 사용해서 a` 행동을 선택한다."
    가 맞는게 아닌가요?
    제가 잘못이해한건지 오탈자인지 확실치 않아서 댓글남깁니다.

    •  댓글주소  수정/삭제 Favicon of http://jpub.tistory.com BlogIcon 제이펍 2017.05.08 10:56 신고

      안녕하세요? 말씀하신 내용을 확인해 보니 편집상 오류가 있었습니다. 말씀해주신 대로 s가 아닌 a가 되어야 합니다. 위의 오탈자 내용에 반영해두었고, 재쇄 시에 반영하여 인쇄하도록 하겠습니다.
      고맙습니다!



티스토리 툴바