해밀토니안을 이용해 $v_t$와 $x_t$를 합친 분포를 만든다. 이 방법이 data-velocity 공간을 잘 traverse하게 하고 data distribution을 이전 분포에서 더욱 부드럽게 변화를 준다. 저자는 CDL(critically damped Langevin diffusion)을 보여준다.
위와 같은 속도의 condtional distribution의 score를 학습한다.
CDL은 해밀토니안과 Ornstein으로 $dx_t, dv_t$를 구한다.
그리고 SDE에 쓰이는 $f,g$를 아래와 같이 정의한다.
자잘한 변수들은 이렇게 알잘딱하자.(논문 읽으면 나옴, 아니면 정리한 거 확인)
당연하지만 기존 $∇_{x_t} log p_t(x_t|x_0)$에서 $∇_{v_t} log p_t(u_t)$로 바뀐다. 즉 $v_t$를 기반으로 된다. $u_t$에 대한 설명을 좀 추가하자면 SDE이다.
SM(score matching)을 보이자면 아래와 같다.
그리고 $∇_{v_t} log p_t(u_t)$ 이거는 아래와 같이 변한다.
저자는 DSM(denoising score matching)에서 HSM(hybrid score matchin)을 제안한다.