AI 공부 도전기

PR-087 "Spectral Normalization for Generative Adversarial Networks" Review (2018 ICLR)(GAN)

 

 

1. Citations & Abstract 읽기

Citations : 2022.02.23 기준 2822 회

저자

Takeru Miyato, Toshiki Kataoka - Preferred Networks, Inc. 
Masanori Koyama - Ritsumeikan University 
Yuichi Yoshida - National Institute of Informatics

Abstract

 

2. 발표 정리

 

공식 논문 링크

https://openreview.net/forum?id=B1QRgziT- 

 

Spectral Normalization for Generative Adversarial Networks

We propose a novel weight normalization technique called spectral normalization to stabilize the training of the discriminator of GANs.

openreview.net

Arxiv

https://arxiv.org/abs/1802.05957

 

Spectral Normalization for Generative Adversarial Networks

One of the challenges in the study of generative adversarial networks is the instability of its training. In this paper, we propose a novel weight normalization technique called spectral normalization to stabilize the training of the discriminator. Our new

arxiv.org

 

Presentation Slide

https://www.slideshare.net/thinkingfactory/pr12-spectral-normalization-for-generative-adversarial-networks

 

[PR12] Spectral Normalization for Generative Adversarial Networks

Introduction to Spectral Normalization for Generative Adversarial Networks (ICLR 2018 Oral) video: https://youtu.be/iXSYqohGQhM paper: https://openreview.net/f…

www.slideshare.net

Contents

https://youtu.be/iXSYqohGQhM

 

발표자료 slide 3

 

GAN은 학습하기 어렵고 불안정적. 이에 새로운 normalization인 spectral normalization을 통해 안정성을 높이고자 함.

이 norm은 batch norm과 같은 sample-wise norm이 아닌 weight space를 normalization하는 것.

 

1) Lipschitz constant가 유일한 hyper-parameter이고 민감하지 않게 학습

2) 간단하고 계산 비용이 작음

 

발표자료 slide 4

Discriminator 미분에 대하여 제약에 대한 부분이 없음. 이 때문에 제약을 가하면 좋은 결과가 나올 수 있지 않을까하는 생각을 하게 되고 이 생각이 발전되어 WGAN, WGAN-GP가 도입된 것

발표자료 slide 7

 

함수 space에서 제약 -> Lipschitz constrain 특정 미분 값의 값보다 작도록 제약을 거는 것

WGAN - weight clipping 0~1

WGAN-GP gradient penality regularizaiton으로 제약

(샘플 점 하나를 뽑아 이에 대한 gradient를 구하고 regularization을 사용)

두 방식 모두 sample을 뽑아 heuristic하게 사용. 원하는 함수 공간 전체에 대한 제약은 제약이 어렵기 때문에 위 방법 모두 회의적.

 

발표자료 slide 9

 p=2일 때 spectral norm, l2

 

식 (6) matrix norm

W에 대해 W에 대한 spectral norm으로 나눠주면 f의 Lipschitz를 1보다 작거나 같도록 제약을 걸 수 있음

함수 전체 공간에서 bound가 예쁘게 가능

 

발표자료 slide 13

 

식 (11)

첫 번째 term은 기존에 있는 term

두 번째 term은 추가된 regularization

λλ가 양수란 것은 δδWSNhWSNh의 방향이 일치할 때임

한 방향으로만 바라보지 않고 다양한 방향으로 바라볼 수 있도록 penalty를 주는 것

 

발표자료 slide 14

 

weight norm

W의 L2 norm으로 나눠주는 것 -> 원치 않는 제약이 생김 -> rank가 1이 됨

h 고정 W의 SVD시 회전 행렬 + scaling projection 최대로 함. 방향이 같도록 하나만 1 나머지 0 행렬

singular value vector 1개 rank = 1

한쪽 방향으로 projection된 방향 하나로 판단 -> 너무 강한 제약

다양한 방향의 singular vector 학습 여지를 위해 spectral norm을 사용해야함.

 

발표자료 slide 15

 

orthonormal SVD 모든 signular value가 1

spectrum의 모든 형태가 1 -> 중요하지 않는 sigular value도 학습 -> 안 좋음

 

gradient penalty

heuristic, computation heavy

 

 

다른 spectrum도 고려하기 때문에 다양한 lr, beta1, beta2, 등 다양한 hyper-parameter에 insensitive

 

 

singluar value σσ layer 1 ~ 7 in Figure 3 (b) 다른 sigular vector에 대해서도 좋은 값을 도출

 

 feature map의 사이즈가 커져도 SN-GAN이 안정적으로 학습

발표자료 slide 22

다양한 네트워크 구조, hyperparameter setting, 데이터 세트에 대해 실용적인 측정 값을 설명함.

 

 

 

 

 

 

참조

GitHub - tensorflow

https://github.com/pfnet-research/sngan_projection

 

GitHub - pfnet-research/sngan_projection: GANs with spectral normalization and projection discriminator

GANs with spectral normalization and projection discriminator - GitHub - pfnet-research/sngan_projection: GANs with spectral normalization and projection discriminator

github.com

 

블로그

https://jaejunyoo.blogspot.com/2018/05/paper-skim-spectral-normalization-for-gan.html

 

[Paper Skim] Spectral Normalization for Generative Adversarial Networks

Machine learning and research topics explained in beginner graduate's terms. 초짜 대학원생의 쉽게 풀어 설명하는 머신러닝

jaejunyoo.blogspot.com

 

공유하기

facebook twitter kakaoTalk kakaostory naver band