Ch 15. Representation Learning
15.2 Transfer Learning and Domain Adaptation
Transfer learning/Domain adaptation
- 모두 representation learning의 일환이다.
- 한 setting에서의 학습이 다른 setting에서 활용되어서 일반화(generalization)을 증진시키는 것
Transfer learning
- 다른 task들을 수행하지만, 한 task에서의 variation을 설명하던 factor가 다른 task에서의 variation도 설명이 어느정도 가능하다는 것
- 시각 task라면 edge나 형상(shape)와 같은 low-level 개념을 공유함으로서 개/고양이 식별의 학습 결과를 곤충 식별에도 유용하게 이용
- 그림처럼 이 공통점은 input의 semantic보다는 output의 semantic에 더 가까운 것임
Domain adaptation
- 동일한 task를 수행하지만 입력이 약간 상이한 경우
- ex) 감정인식 task, 책 서평 데이터 -> 가전기기 서평 데이터
Concept drift
- 시간의 흐름에 따라서 분포가 서서히 바뀌어 컨셉이 바뀌어 간다는 것
- 이것도 시간을 축으로 한 transfer learning으로 봐도 무방
두 개의 극단적 TL
- One-shot learning
- TL 두번째 단계에서 단지 하나의 labeled example 만을 학습 데이터로 주는 것
- TL 첫번째 단계에서 이미 기저의 클래스들을 이미 분류하는 능력을 학습했기 때문에 가능한 것
- Zero-shot learning
- ex) 고양이에 대한 많은 문서를 읽은 후, 이미지에서 고양이를 인식하는 것
- 고양이 이미지를 한장도 본적이 없지만, 고양이 특성을 문서상으로 익힌 후 이를 이용해 guessing 하는 것
- 어떻게 가능한가? TL 첫번째 단계에서 추가적인 정보를 익히기 때문에
- multi-modal learning 을 보여준다.
- 그림에서 x(단어), y(이미지) 사이의 상관관계는 모르지만, fx(단어에 대한 representation)와 fy(이미지에 대한 representation)사이의 상관관계를 바탕으로 이를 연관시킴
15.3 Semi-supervised Disentangling of Causal Factors
한 representation이 다른 representation보다 좋은 것인지를 판단하는 기준
이상적인 representation
- 데이터 간의 인과관계(causal)를 잘 밝혀내는 것
- 서로 다른 원인들 사이를 잘 분리하는 것
- seperate features or directions in feature space corresponding to different causes
- disentangles the causes from one another