한줄 요약: 기존의 generator와 discriminator가 번갈아 가며 적대적 학습을 하는 과정을 한 과정에 효율적으로 하는 방법을 제안.
Method: GAN을 크게 두가지 종류로 나눔. 하나는 Symmetric GAN, 나머지 하나는 Asymmetric GAN임. Vanilla GAN은 symmetric GAN이며 non-saturation version의 GAN은 Asymmetric GAN임. 이는 Generator의 loss가 discriminator의 loss와 형태가 같은지 아닌지 여부를 보고 판별하며 같으면 Symmetric GAN임. Symmetric GAN의 경우 판별자를 학습해 준 후 생성자를 학습할 때 gradient의 방향만 반대로 주고 학습을 하면 되기에 쉽게 학습이 가능하지만, Asymmetric GAN은 Generator의 로스 형태가 다르기에 똑같은 방식으로 학습하면 안됨. 이를 위해 gradient를 decomposition하여 보정 값들을 도입하였음.
실험결과: 실험결과 모델마다 다르지만 약 worst case에 4/3정도의 연산 효율이 생김 이론적으로 확인하였고, 실험적으로는 simultaneous training을 통해 기존 GAN과 비교할만한 성능이 나옴을 확인하였음. 하지만, 단점으로는 판별자와 생성자가 1:1로 학습하는 상황에서만 사용가능하며, ImageNet 실험 결과가 없어 실제 연산 부담이 큰 large-scale training에서 효과가 있을지가 의문임.