- Product-90 dataset 생성.
- 사용자의 리뷰를 기반으로 labels 생성. label 생성 cost를 줄일 수 있음
- 90개 클래스에 대해 140K 이상의 이미지 수집.
- noisy가 포함된 label에 대해 guidance learning (GL)을 도입.
- Products-90 뿐 아니라 Food101, Food101N, Clothing1M 에서도 실험.
Guidance Learning
- 아래 두 단계로 구성
- 1) teacher network training 2) student network training.
- teacher network training
- noisy가 포함된 전체 dataset에 대해 학습. cross entropy 학습
- student Network
- dataset을 noisy subset과 clean subset으로 구분 후 학습.
- clean subset은 일반적인 cross entropy 학습
- noisy subset 학습은 noisy label에 영향을 감소시키기 위해 teacher network의 prediciton 값을 아래 식(2)과 같이 temperature 를 도입해서 soft label 생성.
- 최종 soft targe은 기존 noisy label에 아래 식(3)과 같이 식(2)에서 생성한 soft label을 적용 후 생성.
.
- soft target 생성 후 KL-divergence Loss을 이용해 학습.
- total loss는 KL-divergence loss(noisy subset)과 cross entropy loss(clean subset)을 더해준다.
Experiments on Food-101 and Food-101N
- Food-101 dataset은 101 클래스를 갖는 dataset으로 총 101,000장으로 구성.
- 각 클래스 마다 750장은 학습, 250장은 평가에 사용.
- Food-101N noisy dataset
- Google, Bing, Yelp, and TripAdvisor 등에서 크롤링.
- 310,000장 수집.
- 학습
- teacher model은 Food-101(clean) 과 Food-101N(noisy)에 대해 학습했고, 85.8%를 얻음. cleanNet보다 성능이 좋음. 이는 noisy dataset이지만 학습에 활용하면 성능이 더 개선됨을 보여준다.
- 제안하는 guidance learning을 활용하면 85.8%에서 87.36%로 개선.
'Classification' 카테고리의 다른 글
An Energy and GPU-Computation Efficient Backbone Networkfor Real-Time Object Detection (0) | 2020.09.10 |
---|