해밀토니안을 이용해 $v_t$와 $x_t$를 합친 분포를 만든다. 이 방법이 data-velocity 공간을 잘 traverse하게 하고 data distribution을 이전 분포에서 더욱 부드럽게 변화를 준다. 저자는 CDL(critically damped Langevin diffusion)을 보여준다.

Untitled

위와 같은 속도의 condtional distribution의 score를 학습한다.

1 CDL

CDL은 해밀토니안과 Ornstein으로 $dx_t, dv_t$를 구한다.

Untitled

그리고 SDE에 쓰이는 $f,g$를 아래와 같이 정의한다.

Untitled

자잘한 변수들은 이렇게 알잘딱하자.(논문 읽으면 나옴, 아니면 정리한 거 확인)

1.1 SCORE MATCHING OBJECTIVE

당연하지만 기존 $∇_{x_t} log p_t(x_t|x_0)$에서 $∇_{v_t} log p_t(u_t)$로 바뀐다. 즉 $v_t$를 기반으로 된다. $u_t$에 대한 설명을 좀 추가하자면 SDE이다.

Untitled

SM(score matching)을 보이자면 아래와 같다.

Untitled

그리고 $∇_{v_t} log p_t(u_t)$ 이거는 아래와 같이 변한다.

Untitled

1.2 SCALABLE TRAINING

저자는 DSM(denoising score matching)에서 HSM(hybrid score matchin)을 제안한다.