表題の通りの内容をITmediaの記事で見つけたので紹介
元記事はこちら。
要約すると
元のモーションデータを、ルートや下半身各関節の速度ベクトルといった検索用の特徴量と、ポーズを決定するために必要な追加の特徴量(手の関節の速度ベクトルなど)に変換 3つの学習モデルを作ったところ通常のモーションマッチングと同程度の品質のアニメーションを再生できた (この時点でメモリ使用量は590.8MBから16.8MBに) その学習モデルを圧縮したところメモリ使用量が更に約半分の8.5MBに減った、ということで学習の前処理はセンスが必要そうに見えますが2足も4足も基本的に下半身で駆動するので検索用特徴量は同じような感じになるかも?
数フレームに1回実行
- Projector
入力から飛び先インデックスを検索するモデル
毎フレーム実行
- Stepper
現在のインデックスから次に再生するインデックスを決定するモデル
- Decompressor
再生するインデックスの特徴量から各関節の位置を決定するモデル