ユウカが細腿になったら効果音がヌッからニュッになるのかな…とかそういうことばかり考えている
ユウカが細腿になったら効果音がヌッからニュッになるのかな…とかそういうことばかり考えている
これ学習してどうこうとかじゃなくて、live2dと全く同じように自動でメッシュ取ってワープ・回転デフォーマ作ってるだけな気がしてきたな
イラスト系でdream machineを使ってるの見てるとlive2dっぽいのしかないし、live2dで検索してごっそり持ってきた動画を学習用データにしてたりとかはなくもなさそう…
たぶん仕組みとしてはmpegのフレーム予測と完全に一緒の発想で、動画の補完フレーム使って学習してるんちゃうかという予想は付くんですけど
この時間だとdream machineの待ち時間ないのね、2d to 3d的なカメラワーク変化だけならイラスト方面もいずれなんとかなりそうだけど、立ち上がるみたいなレベルで身体を動かすのは難しそう
dream machine使ってみたけどカメラが上にパンしてその部分が補完されただけだったので、プロンプトの書き方がぜんぜんダメっぽい