사전 학습된 한국어 언어 모델의 보정Calibration of Pre-trained Language Model for the Korean Language

Cited 0 time in webofscience Cited 0 time in scopus
  • Hit : 469
  • Download : 103
DC FieldValueLanguage
dc.contributor.author정소영ko
dc.contributor.author양원석ko
dc.contributor.author박채훈ko
dc.contributor.author박종철ko
dc.date.accessioned2021-11-24T06:40:13Z-
dc.date.available2021-11-24T06:40:13Z-
dc.date.created2021-11-23-
dc.date.created2021-11-23-
dc.date.created2021-11-23-
dc.date.created2021-11-23-
dc.date.created2021-11-23-
dc.date.issued2021-04-
dc.identifier.citation정보과학회논문지, v.48, no.4, pp.434 - 443-
dc.identifier.issn2383-630X-
dc.identifier.urihttp://hdl.handle.net/10203/289416-
dc.description.abstract심층 학습 모델의 발전은 컴퓨터 비전, 자연언어 이해 문제들에서 인간을 뛰어넘는 성능을 보이고 있다. 특히 트랜스포머 기반의 사전 학습 모델은 질의응답, 대화문과 같은 자연언어 이해 문제에서 최근 높은 성능을 보인다. 하지만 심층 학습 모델의 급격한 발전 양상에 비해, 이의 동작 방식은 상대적으로 잘 알려져 있지 않다. 심층 학습 모델을 해석하는 방법으로 모델의 예측 값과 실제 값이 얼마나 일치하는지를 측정하는 모델의 보정이 있다. 본 연구는 한국어 기반의 사전 학습된 심층 학습 모델의 해석을 위해 모델의 보정을 수행했다. 그리고 사전 학습된 한국어 언어 모델이 문장이 내포하는 애매성을 잘 파악하는지의 여부를 확인하고, 완화 기법들을 적용하여 문장의 애매성을 확신 수준을 통해 정량적으로 출력할 수 있도록 했다. 또한 한국어의 문법적 특징으로 인한 문장의 의미 변화를 모델 보정 관점에서 평가하여 한국어의 문법적 특징을 사전 학습된 언어 모델이 잘 이해하고 있는지를 정량적으로 확인했다.-
dc.languageKorean-
dc.publisher한국정보과학회-
dc.title사전 학습된 한국어 언어 모델의 보정-
dc.title.alternativeCalibration of Pre-trained Language Model for the Korean Language-
dc.typeArticle-
dc.type.rimsART-
dc.citation.volume48-
dc.citation.issue4-
dc.citation.beginningpage434-
dc.citation.endingpage443-
dc.citation.publicationname정보과학회논문지-
dc.identifier.doi10.5626/JOK.2021.48.4.434-
dc.embargo.liftdate9999-12-31-
dc.embargo.terms9999-12-31-
dc.identifier.kciidART002706290-
dc.contributor.localauthor박종철-
dc.contributor.nonIdAuthor박채훈-
dc.description.isOpenAccessN-
Appears in Collection
CS-Journal Papers(저널논문)
Files in This Item

qr_code

  • mendeley

    citeulike


rss_1.0 rss_2.0 atom_1.0