DC Field | Value | Language |
---|---|---|
dc.contributor.author | 배지훈 | ko |
dc.contributor.author | 임준호 | ko |
dc.contributor.author | 유재학 | ko |
dc.contributor.author | 김귀훈 | ko |
dc.contributor.author | 김준모 | ko |
dc.date.accessioned | 2018-04-24T04:28:18Z | - |
dc.date.available | 2018-04-24T04:28:18Z | - |
dc.date.created | 2018-04-03 | - |
dc.date.created | 2018-04-03 | - |
dc.date.issued | 2017 | - |
dc.identifier.citation | 전자공학회논문지, v.54, no.5, pp.35 - 41 | - |
dc.identifier.issn | 2287-5026 | - |
dc.identifier.uri | http://hdl.handle.net/10203/241260 | - |
dc.description.abstract | 본 논문에서는 지식추출(knowledge distillation) 및 지식전달(knowledge transfer)을 위하여 최근에 소개된 선생-학생 프레임워크 기반의 힌트(Hint)-knowledge distillation(KD) 학습기법에 대한 성능을 분석한다. 본 논문에서 고려하는 선생-학생 프레임워크는 현재 최신 딥러닝 모델로 각광받고 있는 딥 residual 네트워크를 이용한다. 따라서, 전 세계적으로 널리 사용되고 있는 오픈 딥러닝 프레임워크인 Caffe를 이용하여 학생모델의 인식 정확도 관점에서 힌트-KD 학습 시 선생모델의 완화상수 기반의 KD 정보 비중에 대한 영향을 살펴본다. 본 논문의 연구결과에 따르면 KD 정보 비중을 단조감소하는 경우보다 초기에 설정된 고정된 값으로 유지하는 것이 학생모델의 인식 정확도가 더 향상된다는 것을 알 수 있었다. | - |
dc.language | Korean | - |
dc.publisher | 대한전자공학회 | - |
dc.subject | Knowledge distillation | - |
dc.subject | Hint training | - |
dc.subject | Deep residual networks | - |
dc.subject | Caffe | - |
dc.title | 딥 residual network를 이용한 선생-학생 프레임워크에서 힌트-KD 학습 성능 분석 | - |
dc.title.alternative | Performance Analysis of Hint-KD Training Approach for the Teacher-Student Framework Using Deep Residual Networks | - |
dc.type | Article | - |
dc.type.rims | ART | - |
dc.citation.volume | 54 | - |
dc.citation.issue | 5 | - |
dc.citation.beginningpage | 35 | - |
dc.citation.endingpage | 41 | - |
dc.citation.publicationname | 전자공학회논문지 | - |
dc.identifier.kciid | ART002224772 | - |
dc.contributor.localauthor | 김준모 | - |
dc.contributor.nonIdAuthor | 배지훈 | - |
dc.contributor.nonIdAuthor | 유재학 | - |
dc.contributor.nonIdAuthor | 김귀훈 | - |
dc.description.isOpenAccess | N | - |
Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.