딥 residual network를 이용한 선생-학생 프레임워크에서 힌트-KD 학습 성능 분석Performance Analysis of Hint-KD Training Approach for the Teacher-Student Framework Using Deep Residual Networks

Cited 0 time in webofscience Cited 0 time in scopus
  • Hit : 382
  • Download : 0
DC FieldValueLanguage
dc.contributor.author배지훈ko
dc.contributor.author임준호ko
dc.contributor.author유재학ko
dc.contributor.author김귀훈ko
dc.contributor.author김준모ko
dc.date.accessioned2018-04-24T04:28:18Z-
dc.date.available2018-04-24T04:28:18Z-
dc.date.created2018-04-03-
dc.date.created2018-04-03-
dc.date.issued2017-
dc.identifier.citation전자공학회논문지, v.54, no.5, pp.35 - 41-
dc.identifier.issn2287-5026-
dc.identifier.urihttp://hdl.handle.net/10203/241260-
dc.description.abstract본 논문에서는 지식추출(knowledge distillation) 및 지식전달(knowledge transfer)을 위하여 최근에 소개된 선생-학생 프레임워크 기반의 힌트(Hint)-knowledge distillation(KD) 학습기법에 대한 성능을 분석한다. 본 논문에서 고려하는 선생-학생 프레임워크는 현재 최신 딥러닝 모델로 각광받고 있는 딥 residual 네트워크를 이용한다. 따라서, 전 세계적으로 널리 사용되고 있는 오픈 딥러닝 프레임워크인 Caffe를 이용하여 학생모델의 인식 정확도 관점에서 힌트-KD 학습 시 선생모델의 완화상수 기반의 KD 정보 비중에 대한 영향을 살펴본다. 본 논문의 연구결과에 따르면 KD 정보 비중을 단조감소하는 경우보다 초기에 설정된 고정된 값으로 유지하는 것이 학생모델의 인식 정확도가 더 향상된다는 것을 알 수 있었다.-
dc.languageKorean-
dc.publisher대한전자공학회-
dc.subjectKnowledge distillation-
dc.subjectHint training-
dc.subjectDeep residual networks-
dc.subjectCaffe-
dc.title딥 residual network를 이용한 선생-학생 프레임워크에서 힌트-KD 학습 성능 분석-
dc.title.alternativePerformance Analysis of Hint-KD Training Approach for the Teacher-Student Framework Using Deep Residual Networks-
dc.typeArticle-
dc.type.rimsART-
dc.citation.volume54-
dc.citation.issue5-
dc.citation.beginningpage35-
dc.citation.endingpage41-
dc.citation.publicationname전자공학회논문지-
dc.identifier.kciidART002224772-
dc.contributor.localauthor김준모-
dc.contributor.nonIdAuthor배지훈-
dc.contributor.nonIdAuthor유재학-
dc.contributor.nonIdAuthor김귀훈-
dc.description.isOpenAccessN-
Appears in Collection
EE-Journal Papers(저널논문)
Files in This Item
There are no files associated with this item.

qr_code

  • mendeley

    citeulike


rss_1.0 rss_2.0 atom_1.0