23년 5월 10일 추가 정리

  1. low-resolution에는 Gaussian noise가 잘 작동되고, 반대 high-resolution(128 128, 256 256)에는 blur가 잘 작동됨.
  2. truncated conditioning augmentation는 방법은 128 128 이하에 잘 작동함. 그리고 low resolution model은 변화 필요 없음. low resolution 부분을 잘라서 augmentation 하는 기법임, → resolutiion 구간에 대한 자세한 연구
  3. Non-truncated conditioning augmentation 같은 경우에는 성능은 trauncated보다 안좋지만 비용이 덜듦. 왜냐하면 적절한 s를 찾기위한 여러 경우의 수를 고려 x

이전 버전

1. Introduction

강한 condtioning information 없이 높은 해상도를 가진 diffusion model의 샘플 퀄리티를 높이는 것이 목표다. 주요 기여는 diffusion model의 샘플을 cascades를 이용해 향상시킨 거다.

첫 sample은 저해상도를 가지지만 점차 해상도를 늘리기 위해 super-resolution model로부터 sampling을 한다.

저자는 이 기술을 conditioning augmentation이라 일컫는다.

2. Background

2.1 Diffusion Models

$Σ_θ$를 학습하는 경우, hybrid loss를 사용한다.아래와 같은 공식을 가진다.

Untitled

$L_{vb}=E_{x_0}[L_θ(x_0)]$인데 stop-gradient는 $L_θ$ term 안에 $E_θ$로 적용되어있다. hybrid loss 최적화는 동시에 $L_{simple}$을 이용해 $µ_θ$를 학습하고 $Σ_θ$는 ELBO를 이용해 학습된다.

나머지는 아는 내용이다.