다중 지수 BFP를 활용한 고정확도 DNN 학습 가속에 관한 연구Towards accurate and fast DNN training acceleration through multi-exponent block floating point encoding

Cited 0 time in webofscience Cited 0 time in scopus
  • Hit : 64
  • Download : 0
딥러닝 분야에서는 모델 훈련의 연산 비용을 줄이기 위해 부동소수점 데이터를 block floating point (BFP) 데이터로 대체하는 연구가 주목받고 있다. BFP 기반의 훈련은 높은 연산 효율성을 보인다. 하지만 BFP 데이터로 훈련된 모델은 부동소수점 대비 큰 모델 정확도 손실을 나타낼 수 있다. 이러한 문제를 해결하기 위해, 본 연구에서는 딥러닝 모델 훈련 상에서 BFP의 특성을 분석하여 정확도 손실이 단일 공유 지수에 의해 발생함을 확인하고 두 개의 공유 지수를 갖는 다중 지수 BFP 데이터를 제안한다. 본 연구에서 제안하는 가속기는 다중 지수 BFP 데이터 기반의 행렬 곱셈 연산을 약간의 하드웨어 비용을 추가하여 처리한다. 그리고 실험을 통해 다중 지수 BFP의 정확도 향상과 추가적인 하드웨어 비용에 의한 가속기의 연산 속도 저하가 없음을 보인다.
Advisors
박종세researcherPark, Jongseresearcher
Description
한국과학기술원 :전산학부,
Publisher
한국과학기술원
Issue Date
2023
Identifier
325007
Language
kor
Description

학위논문(석사) - 한국과학기술원 : 전산학부, 2023.2,[iv, 29 p. :]

Keywords

딥러닝▼a하드웨어 가속기▼a양자화; Deep Neural Network▼aHardware Accelerator▼aQuantization

URI
http://hdl.handle.net/10203/309530
Link
http://library.kaist.ac.kr/search/detail/view.do?bibCtrlNo=1032963&flag=dissertation
Appears in Collection
CS-Theses_Master(석사논문)
Files in This Item
There are no files associated with this item.

qr_code

  • mendeley

    citeulike


rss_1.0 rss_2.0 atom_1.0