최근 딥러닝 모델이 발전하면서 보안성 검증 평가에 대한 요구가 많아지고, 특히 적대적 예제(Adversarial Example) 생성 공격에 대한 연구가 증가하고 있다. 하지만, 많은 연구들이 독자적인 플랫폼에서 진행되고, 통합 환경이 부족한 상황이다. 따라서 우리는 이 논문에서 적대적 공격 통합 도구 프레임 워크인 Yoda를 제안한다. Yoda는 10개의 적대적 공격을 지원하며, 모든 공격이 동시에 진행돼 사용자가 쉽게 딥러닝 모델에 대한 보안성 검증을 수행할 수 있다. 또 5개의 벤치마크 데이터 셋을 대상으로 공격 수행 결과를 통해 10개의 공격을 서로 비교 분석한 결과를 제시한다.