RYOMON1985_re
@Ryomon1985_re
確率的オウムを軸に短編小説を考えていましたが、ポチョムキン理解と魔族をつなげるなんて、本当にワクワクする。
最近わかってきた、ポチョムキン理解やハルシネーションといったAIの本質的な部分を見てるとAIの到達地点って『フローレンの世界の魔族』みたいなモトだと思っちゃうのだ
3Dモデルを作ってVACEでDepthリファレンスしたら、まぁまぁうまくi2i生成できる LoRA用データ作成に役立つ、かも。




Wan VACEでi2i ポーズリファレンス 精度は微妙で安定しない Framepackの方がいいかもしれませんがggufなので速度は早い。




まじですごい
精細感はYouTubeの4K動画で確認してくださいね~。 Arrival SpaceやSuperSplatなどのWebに上げている3DGSは粗くしている。ちゃんと撮ったデータなら広域でも本来はこれぐらい。 youtu.be/hPCq3N0JHtw
高画質化について試行錯誤しています Light x2v-LoRAは、品質に影響を与えないと思っていたのですが、1.0より0.5の方が品質が良い気がします StepsやShiftは画質に影響を与えにくく、参照画像の画質をとにかく高画質にするとよい結果が得られる気がします。
スケジューラーの違い アニメ系は、euler / dpm++がよさげ flowmatch / causvidは動きが少ないですが綺麗
アップスケールの代替案 Uni3Cでカメラ制御と最初のフレームで再生成 SLGとEnfance A videoも調整するとかなり違いがでます
アップスケールを色々検証しましたが、AIで生成した崩れた元動画をアップスケールしても正直限界があり、元動画をUni3Cで参照して高画質化を目指す方がよい気がする。(1つ目がUni+SLG+Enhance、2つ目が元動画)
wan2.1の高速videoアップスケール Eses Image Adjustments2をかましています サンプラー:euler スケジューラ:karras
360視点変更で背景を生成して、それをTrue Depthで複数方向にメッシュを生成して設置したら空間が作れるでしょうか。