Yoda: 딥러닝 모델 취약성 점검 도구를 통한 적대적 예제 생성 공격의 비교 및 분석Yoda: Comparison Evaluation of Adversarial Example Attacks

Cited 0 time in webofscience Cited 0 time in scopus
  • Hit : 84
  • Download : 0
최근 딥러닝 모델이 발전하면서 보안성 검증 평가에 대한 요구가 많아지고, 특히 적대적 예제(Adversarial Example) 생성 공격에 대한 연구가 증가하고 있다. 하지만, 많은 연구들이 독자적인 플랫폼에서 진행되고, 통합 환경이 부족한 상황이다. 따라서 우리는 이 논문에서 적대적 공격 통합 도구 프레임 워크인 Yoda를 제안한다. Yoda는 10개의 적대적 공격을 지원하며, 모든 공격이 동시에 진행돼 사용자가 쉽게 딥러닝 모델에 대한 보안성 검증을 수행할 수 있다. 또 5개의 벤치마크 데이터 셋을 대상으로 공격 수행 결과를 통해 10개의 공격을 서로 비교 분석한 결과를 제시한다.
Publisher
한국정보과학회
Issue Date
2021-12-21
Language
Korean
Citation

KSC 2021 : 2021 한국소프트웨어종합학술대회

URI
http://hdl.handle.net/10203/299264
Appears in Collection
CS-Conference Papers(학술회의논문)
Files in This Item
There are no files associated with this item.

qr_code

  • mendeley

    citeulike


rss_1.0 rss_2.0 atom_1.0