deep learning

A collection of 1 post

Distilling the Knowledge in a Neural Network 논문 리뷰

Distilling the Knowledge in a Neural Network 논문 리뷰 요약 논문 내에서 소개하고 있는 Knowledge Distillation 방법에는 크게 총 4가지가 존재한다. 앙상블 네트워크(Parent)로 만들어진 데이터 class를 Single 모델(Child)에의 학습 앙상블 네트워크(Parent)로 만들어진 데이터 클래스와 더불어 logit 값(Sigmoid)를 Single 모델(Child)에의 학습 위와 같이 앙상블 네트워크(Parent)로 만들어진 데이터 클래스와 더불어 logit…

정아리의 땅끝까지 파헤치는 모바일 머신러닝

Copyright 2020. Jeongah Shin ALL RIGHTS RESERVED.