talking headとは?

talking headは、1枚の画像や顔写真を「しゃべっている人」に見えるように動かす技術です。入力した画像を、別途用意した参照動画の動き音声を手がかりにして、口や表情を動かします。

リップシンクとよく似ていますが、リップシンクは「元からある動画の口だけを音声に合わせる」ものが中心です。talking headは、1枚絵を動かすことが基本で、音声ではなく参照動画の動きを元に動かすことをメインに据えているものが多いです。

talking headの名の通り、顔を動かすことからスタートしましたが、上半身や全身まで動かす方向へと進化しています。


変形ベースのtalking head

Thin-Plate Spline Motion Model for Image Animation

1枚の画像と、動いている人の動画を入力すると、画像側がその動きを真似するように変形します。

やっていることは3Dモデルというより、2Dのまま「グニャっと」ねじっているイメージに近いです。Photoshopのパペットワープのようなものですね。

LivePortrait

AdvancedLivePortrait_image2video.json

こちらも1枚絵と参照動画を入力にしますが、顔のパーツごとの動きや視線、感情のニュアンスなどを安定して再現できるよう工夫されています。

拡散モデルではないため比較的軽く、リアルタイム寄りにも向いています。また、「顔の向きを少し下に」や「目を少し開く」といった編集ができるため、現在でもよく使われます。


拡散モデルベースのtalking head

次の世代では、拡散モデルを使って「絵そのものを描き直す」方向のtalking headが出てきました。X-PortraitHelloMemeといった系統です。

HelloMeme_video.json

これらは、参照動画から「頭の向き」や「表情の変化」に相当する信号を取り出し、それを条件として拡散モデルに渡します。やっていることは、ControlNetでポーズや構図を固定しながら画像生成するのに近く、「このキャラの顔を、この動きで描き直してほしい」と指定しているようなものです。


動画生成モデルベースのtalking head

さらに新しい世代では、動画生成モデル自体をベースにしたtalking head / avatarモデルが登場しています。OmniAvatarWan-Animateがこのラインにあたります。

Wan-Animate

Wan-Animateは、キャラクター画像と「動きを持った参照動画」を入力にして、その動きをなぞるようにキャラクターを動かすタイプのモデルです。


Human Motion Transferへ

talking headの技術が顔まわりを安定して扱えるようになってくると、「上半身や全身も動かしたい」となるのは自然な流れです。

Thin-Plate Splineのような古いものも、もともと顔だけでなく全身に適用できましたし、Wan-Animateでは完璧に全身を扱うことができるので、わざわざtalking headと区別する必要も無い気がしますが、Human Motion Transferはこちらはこちらで独自に進化してきたので、少し見てみましょう。

Human Motion Transfer