이 연구에서는 자기 지도 대조 학습을 기반으로 편향을 해소하고 집단 공정성을 만족하는 데이터 표현을 생성하는 방법을 제시한다. 모델은 공정하게 데이터를 표현하기 위해 임베딩 공간상에서 보호 집단을 구분 불가능하도록 임베딩을 생성하여 이후 본 학습에서 보호 변수를 학습하지 못하도록 한다. 성별, 인종 등의 대표적인 보호 변수에 대해 실험을 진행한 결과, 우리의 모델은 4개의 데이터에서 큰 성능의 손실 없이 공정한 임베딩을 생성하는 결과를 보였다.