https://arxiv.org/abs/2202.11833
Near Perfect GAN Inversion (Qianli Feng, Viraj Shah, Raghudeep Gadde, Pietro Perona, Aleix Martinez)
이게 어떻게 가능하지 싶었는데 generator 자체를 업데이트 해버렸군요. generator 자체를 업데이트해서 inversion을 하면 editing이 망가질 테니 generator에 대한 gan 학습 loss도 같이 사용. 어떻게 보면 이게 가장 속 편한 방법일 것 같기도 하고 그렇네요. 아마존에서 이런 연구를 하다니 좀 신기하기도 하네요.
#gan_inversion