まだ実験段階だけれども 100日修行16日経過。
マイク音声で形状が反応するところまではいった。
モーフミキサーで何個もモーフィングオブジェクトはもてるんで色々やってみて
現在不明な箇所は
凹TIPSさんのOVRLipSyncMorphTarget の Viseme To Blend Targets の母音部分を対象のモーフのインデックス番号を指定… というところの、インデックス番号とうのが何のことかよく理解できてない? 探る余地はいろいろあるのでそれが何を意味するところのことか探っていこう。
口ばしなどの簡単なもでるで閉じ開きを試す。
lightwaveを2015にアップグレードしてかなり進んだ。
その後数時間後 いろいろいじってなんとなくコツみたいなものが分かってきた。
インデックス番号ってより、モーフターゲットの数と設定する数字が合ってるとうまくいく。
人の口の母音とか子音の形とか追及してくとブリブリした分かりずらいモデルになるので
ハキハキと分かりやすく設定する兼ね合いは、トライ&エラーで追い込んで行けそう。
モデルの形態により設定が変わりそう。
マニュアル的な設定では OVRLipSyncContextMorphTargetのところのSkinMesheRendrerのところで作ったオブジェクトを指定するくらい。
-----基本
OVRLipSyncは空オブジェクトにアタッチして
そのほかのOVRLipSyncContextやマイクインプットやモーフのスクリプトは、キャラクターのオブジェクトに直接アタッチする。
OVRについて書いてあったところがあったのでリンク
0コメント