Diederik P. Kingma - OpenAI, Google AI (Adam, VAE)
Prafulla Dhariwal - OpenAI
Flow-based generative models (흐름 기반 생성 모델)는 정확한 log-likelihood의 추적성과 정확한 latent-variable inference (잠재 변수 추론), 훈련과 합성 모두의 병렬성으로 인해 개념적으로 매력적이다. 이 논문에서 우리는 invertable 1x1 conv를 사용하는 간단한 유형의 generative flow인 Glow를 제안한다. 우리들의 방법을 사용함으로써 우리는 표준 benchmark에서 log-likelihood의 상당항 향상을 보여준다. 아마 가장 놀라운 것은 일반 log-likelihood objective쪽으로 최적화되는 Flow-based generative model (흐름 기반 생성 모델)이 큰 이미지들에서 사실적으로 보이는 합성과 조작이 효율적으로 가능하다는 것을 증명할 수 있다는 점일 것이다. 우리들의 모델 코드는 아래에서 확인할 수 있다. https://github.com/openai/glow
https://papers.nips.cc/paper/2018/hash/d139db6a236200b21cc7f752979132d0-Abstract.html
https://arxiv.org/abs/1807.03039
Related work
1) Autoregressive models : Simplicity / limited parallelizability of synthesis
2) Variational autoencoders : parallelizability of training and synthesis / challenging to optimize
3) Flow-based generative model : NICE, Density estimation using Real NVP, Glow
Motivation
1) 정확한 latent variable inference (잠재변수 추론)과 log-likelihood 평가가 가능
2) 효율적인 추론과 합성
3) 유용한 latent space (잠재 공간)
4) 메모리 절약에 상당한 잠재성을 가짐
기존 방법론에서는 Jacobian matrix function f의 미분과 Inverse에 대한 계산이 어려웠음.
Non-Linear한 network 혹은 data space의 경우 inversion과 Jocobian 계산이 어려움.
z inference - random sample
Evaluation 지표도 좋아짐.
Interpolation의 결과 Fig 5.
Temperature가 낮으면 비슷한 이미지 점점 커지면 Diverse. 그러나 1에 가까워질 수록 이상한 이미지 생김
L layer 개수가 적은 것(4)보다 depth가 커야함(6).
https://github.com/openai/glow
https://cdn.openai.com/research-covers/glow/videos/both_loop_new.mp4
https://sanghyu.tistory.com/18