メモですが、FramePackという動画生成AIを知ったので試してみました。先ずWeb版を見たのですが、サブスクでお金がかかります。
それでちょっと調べるとstable diffusionのようにローカル環境でも生成可能だという事で、インストールして実行。ローカル環境(私のPC内で)で一枚の絵から動きが作れました。
更に設定が細かい版のFramePack-eichi(叡智ですよ)というものを見かけたのでそれを入れ、先頭と終わりの画像を指定しても結構自然とした動きになりました。(一応同じ人物っぽい絵で姿勢が異なる画像)
あと正確には計ってませんが、1秒の動画で6、7分くらいかかった気がする。10分かも。長い動画はPC稼働が大変なことになりそう。グラボが唸って火を噴くぜ。
しかし凄まじいですね。最新曲のMVはVeo2やSoraで動きを作っていますが、自前のPCで作れるとは。私のMV用途なら、これで瞬きや髪を動かす数秒のループ動画を作ってずっと繰り返すとかでいいと思いますわ。
以下が最新のMV用に出力していた画像を指定して出来たもので、1秒だけど私のMV用途なら十分なクオリティで出来てると思います。(とりあえず使ってみただけで、まだ2回しか試してないんだけど)
30フレーム/秒になっていて、24フレーム/秒にする設定が見当たらなくて。その方が生成時間もデータ量も少なくて済むはずなのに。サイズは変更する場所があるようです。
-- 記事一覧ページへ --
(next)DTMボカロ曲のテンポやキー »
« スプラ、胸部CT、買い物、ものが増えるとひと手間増える(prev)