Marvelous Designer 8 についてのレポート

2019年2月28日

Marvelous Designer 8を触る機会がありましたので新機能をざっくりレポートしておきます。

まずは、新機能の動画については↓から

https://www.marvelousdesigner.com/learn/learnmd8


触ってみての感想ですが、

◆Remeshing(beta)

こちらはまだBeta版ということもありますのでまだ何とも言えない部分はありますが、 導入されればかなり仕事はしやすくなると思います。 1点だけ問題点は、 型紙のseam同士を無理やりつなげるので接点に三角ポリゴンが多数できてしまい その接点を調整するのは現状かなり大変だとおもいます。 上記が改善されるととても良いと思います。


◆3D Sewing

こちらは3Dビュア上で縫い付けができるようになったのは縫い目を逆さにつなげてしまう心配がなくなったので とても便利になりました。


◆Sculpt

こちらに関しましては、正直う~~ん、、という感じです。 やはり専用のツールには勝てませんし、操作性も悪いし何よりスカルプトしにくいです。。

ポリゴンを分割すればスカルプトしやすいかな?と思ったのですが、重すぎて動かないのと軽くすると細かい皺を作りづらいのでこの機能はまだまだ保留かなぁというところです。


◆Trace Patterns with UV Map

今回この機能が一番便利だったかもしれません。 3Dツールで作成したOBJファイルのUV情報が型紙として使えるという機能です。 これができることで、型紙自体を3Dツールでも作成できるようになるので、 例えば、MDで作成した衣服のモデルをMAYAでインポート、少しUVなどを調整したりしたモデルを またMDにエクスポートができるというような行き来ができるようになります。 ただ検証をしてみましたが、読み込むモデルのポリ数が多いと処理できず落ちるみたいです・・・。 あまり逆パターンはないと思いますが、例えばリボンのようなパーツは作成しにくいので 別途ツールで作成してMDにエクスポートしてシミュレーションをかける等できるようになりそうです。

 

 


◆Automated Arrangement Point Creation

こちらも便利です、個別に作成したアバターをインポートする際ArrangementPointとBoundingVolumes をオートで作成してくれるようになりました。 シミュレーションに絶対必要というわけではないのですが、使う人にはとても便利です。

 


◆Adjust Trim Weight

こちらは用途にもよりますが、例えば、衣服のポケット中に重たいものが入っていたとしたら その重さを設定したシミュレーションをかけることができる設定です。


リメッシュしたモデルをそのまま使ってみてMAYA上でテクスチャーアサイン→レンダリングしてみました。


Marvelous Designerはお仕事の影響でバージョン3から覚え始めたのですが、もう機能がかなり増えました。

重要なのは自分の制作フローのなかでMarvelous Designerのどの機能が必要なのか?例えば、シワだけ取り込めればいいのであれば、すべてを覚える必要なんてありません。型紙をつくってシミュレーションをかけたモデルだけをエクスポートしてつかえればそれでいいということになりますし、逆にMarvelousだけで7割方衣装を完成させることも可能です。

キャラクター制作においては必要なツールなのでこれからも使っていこうと思います。

また新機能などでてきましたら検証していきたいと思います。

[戦国武将7] 鎧のモデリングPart1 -兜とマスクを制作する-

2019年2月23日

こんにちは、越智光進です!

 

制作のため少し日が開いてしまいましたが、引き続きブログを書いてまいります。

前回までは人体をゼロから作るというテーマで戦国武将の武田信玄の制作過程を説明してまいりました。
今回からはジャンルに分けて鎧の制作、着物類の制作という2つのアプローチを説明してまいります。

 

 

鎧の制作は主に、MAYA、zbrushを中心に、
着物の制作は、MurvelousDesigner、MAYAが中心になりますが、
まずは鎧の制作第1回目として兜の制作までを説明してまいります。

 

入りとして、武田信玄という過去に実在した人物を作っているので鎧、着物は自由な発想で作ってはいけないという事もあり、しっかりとした資料を探さないといけません。
制作の冒頭で少し話しましたが、高解像度の細かい資料があればあるほど作りやすく迷いも少なくなります。
制作にあたり、鎧、着物はやはり実際着てみないと何もわからないと思いましたので忠実に再現された信玄の鎧を丸竹産業さんからリース、自分で着付をしてみて撮影を行うことで少しでも制作の迷いをなくす方向で考えました。

 


 

素材集めはやはり足を使う方が個人的には納得がいきますし、仕事等で制作をする際はネットから拾った素材は必ずストップがかかる事が多いです、著作の問題上当然なのですが、
フリー素材をガンガン使うのは控えるように心がけています。プロシージャルな素材を探すという意味ではPoliigonやCGtexture等、とても役に立ちますが、
今回のような実在した物を作ると言った場合はより実物感を求められますので自分で資料のある場所へ出向いて調べることが一番の策だと思っています。
後は生い立ちを読んだり、資料館に出向いたりと、どんな戦をしたのか?等把握しておくべきだと思いました。

 

と、偉そうにうんちくを語っていますが^^;、、、うまく出来る出来ないは別にしても、物作りの考え方として結構大切な事だと思っております。


というわけで、まずは鎧の中の「兜」から作成してまいります。
撮影した画像を見ながらまた着付けの順番なども確認しながら出来る限り忠実に再現していきます。

鎧もゼロから作っていくのですがまずは素材を眺め、単体として作らなければいけないオブジェクトと、流用出来るオブジェクトをリストアップします。

・鎧の大まかな外観(まびさし、吹き返し等)
・前立ち(金の紋章)
・お面

を単体として作成、

・その周りに付いている星形の細かい金パーツと鉄製のパーツ
・紐の種類が4種類程

はUV別でモデル流用できるオブジェクト
とリストアップしていきます。

 

 

 

悩んだのは紐の類ですが、鎧の間にいくつも張り巡らされていてとても一つ一つ別々に作るのは至難の技です。
種類をたくさん作ってそれをうまく使っていくという選択を取らないと終わらないなぁ、という判断をしました。
本当は一つ一つ別々で作りたいのですが数えたら1000を超えそうでしたのでここだけは時間の関係もあり仕方ないと考えました。

ではまずは大きな外観を顔の周りにMAYAで作成していきます。


バランスは上のように撮った写真を板ポリに貼り付けて位置関係を図るとても作りやすいと思います。
※カメラのパースも出来る限りは近くなるように合わせてください。↑

 

鎧はハード系の制作ですが、大切なことは形をしっかり取ることと、エッジの割り込みです。
特にサポートエッジの割り込みは感覚でエッジを分割してる人をよく見かけることがありますが、それぞれエッジが立つところのスペキュラーの入り具合がどんなものか?
パーツパーツで違ったりするので見極めることが大切です。
要するにベベルの設定ということになるのですが、頻繁にスムースプレビューや、レンダリングをしながら確認すると良いと思います。↓

 

 

 


 

次に鎧の周りに巡らされている紐を作成します。
こちらは太めの紐はDisplacemant、細めの細かい紐はNormalのみで表現していきます。
素材を観ると細かい編み込みが連なってできていますので、zbrushのラディアス機能を使ってベースとなる紐の形を作成していきます。↓

 

 

何種類か作成したらUVの取られたシリンダープリミティブをプロジェクトし、DisplacemantMapとNormalMapを吐き出します。
それをフォトショップで加工しスクロールをかけて左右が連なるテスクチャーを作ります。↓

作成したら紐のDisplacementMapを各箇所に配置したモデルにアサインして流用させます。
全て流用は見た目に影響するので最低でも一緒類5パターンくらいの形の変化かある紐を用意してイレギュラー感をだします、また、汚しなどのピンポイントの見た目を決める箇所は別のUVとして持たせて視覚的な安定を図ります。↓

 

紐を鎧に当てはめましたらbend機能を使って丸めます。↓

 

あとは各パーツのイレギュラー感をさらに出すためにzbrushにオブジェクトを持っていき、ムーブ等で動かしたり回転させたりして整った形状を崩していきます。↓

※faceの形が崩れすぎないように気を付けます。
※鎧のようなオブジェクトが多い場合はGOZよりもFBXでインポートエクスポートする方がエラーもなく便利です。


 

上記内容を繰り返し、まびさしや吹き返しといったパーツも同様に仕上げていきます。↓


 

てっぺんの前立てやお面はスカルプトで作り、DisplacementMapとNormalMapを作成、配置します。
このようなモーションに影響のないオブジェクトのローモデルはZRemesherでスパイラルしないように形状を出して、軽くリトポするくらいで十分使えますので作業コストを極力抑えます。↓

 

 


 

全体のシルエットが完成したら最後に頭部にはめ込んで位置合わせとお面を被せて紐を作成し着付けをしてあげます。
お面を覆う紐はいろいろなやり方があると思いますが、私の場合はzbrushのinsertブラシで紐を簡単に縫い付け、
ZRemesherでローモデルに落としたらMAYA上でエッジをカーブに変換→カーブの形を整えたらそのカーブをパスにしてNURBSのチューブを作成→最後にポリゴンに変換するという流れで作成しています。↓

 


 

あとはお面と兜の頭部から生えている毛をFiberMeshでラフを作成、全体の形を整えて兜のモデルを完成させました。
※FiberMeshはsegmentの数値に限界があるのでポリポリに見えるのですが、肌の毛と同様にカーブに変換してhairツールのベースとして使うので現状配置確認の段階です。

 

これ以上の細かい傷や凹凸はテスクチャーを描いた後にその素材をつかってノーマル化させてテクスチャー同士でcombineして合わせていきます。

鎧が一部でも完成し、形になると制作自体が楽しくなってくるのですが甲冑等の制作は、出来る限りは二度手間にならないように感覚で作るのではなく計画的に機能性なども見ながら作っていくことがとても大切です。
最初に作るものをリストアップして一番作るのが大変な小物類から作成しておくと結構ゆとりを持って作ることが出来るので私はおススメしています。
BGを作ったりするときも先に建物以外の配置物を作ったりしておくと後々楽に作業が進むことが多いです。

またブログ内ではアップはしていませんし繰り返しになりますが、できる限りレンダリングしながら形状を確認して見た目のバランスを整えながら作業することをお勧めいたします。

 

 

次回は今回作成しています内容にテクスチャーを貼っていく工程をご説明いたします。

 

読んでいただきましてありがとうございました!

[戦国武将6] 出力したDisplacementMapを使ってレンダリングをする

2019年2月22日

こんにちは、越智光進です!

前回は、描いたDisplacementをMUDBOXへコンバートさせる方法を説明いたしました。
今回は、コンバートしたスカルプトをVectorDisplacementとしてOutputしVrayでレンダリングするところまでをご説明いたします。

まずは前回コンバートしたモデルと素のローモデルを用意していたので、ExtractTextureMapからVectorDisplacementMapを出力します。↓


設定は上記を確認してください。
VectorDisplacementMapが出力されたらMAYAを開きローモデルをインポートします。
(眼も仮でいいので作成して一緒にインポートしてください)
インポートしたら、スキンパーツにまずはVrayDisplacementMapを設定します。↓

 

設定するとアウトライナーにVrayDisplacementの項目が追加されるのでそのAttributeを開きます。
まずはVray専用のDisplacementControl、Subdivision、SubdivisionControlの設定にチェックを入れて、
マップを入れた後の設定ができるようにします。

同時にVectorDisplacementMapをファイルから追加します。↓

追加した3つのAttribute項目を調整します。↓

 

※説明にありますように、MUDBOXから吐き出す際の設定に合わせてください。(absotuteの項目等)
あとはサブディビジョンの回数は任意なのですが、基本的にはMUDBOXでのサブディビジョン回数と同じに近い数値にあわせておくのがベストです。
(カメラが寄らない場合はデフォルトでもかまわないと思います)
こちらを多く入れすぎるとレンダリングコストがかさむのとあまり大きな数字をいれても途中から結果はさほど変化がなくなってくると思います。
もちろん変化がある場合は別ですが、例えばお仕事などで映像用のアセットを作成しそのデータを先方にお渡しする際、自分が作成したデータだけサブディビジョンの
設定をグンと上げたりしてしまうといろんなアセットを入れてシーケンスを作成する時、1つだけそのレンダリングに時間がかかり過ぎてしまいます。
そのため出来るだけ低コスト、ハイクオリティを求められますので自分が作成しているモデルだけが使われるわけではないという考えと、むやみに高い数値を入れるのには注意が必要です。

今回MUDBOXでは6回割っていたのでSubdivision設定は6にしました(カメラが寄らない場合は4でいいと思います)

 

また、ショットになる場合は少しEdgeLengthを下げてクオリティを上げることをしても良いと思います。こちらも下げるとレンダリングコストはかかると思うので、検証しながら良い数値をみつけてください。
全ての設定を完了させたらVrayマテリアルをアサイン、DomeLightをセットします。↓

※必要ならBump MapもしくはNormalMapも入れてレンダリングをします。
今回バンプマップはMARIで作成したGチャンネルとBチャンネルを統合したものを出力してアサインしています。

 


マテリアルの設定と仮のライトの設定をしたら確認のレンダリングをしていきます。
DisplacementMapの具合をまずは確認して、荒すぎやのっぺりしすぎなどを確認します。

また、とくに眼の周りや口の周りは破綻が起こりやすいので細かくみて、必要ならもう一度戻ってスカルプトを見直します。

さらに全体と顔周りに破綻箇所がないか確認していきます。

 

 

最後に簡単にポージングをして、イメージのすり合わせのための眼とzbrushで作成した仮のファイバーメッシュを置き、眼周りのシルエットを再調整して一先ず信玄のSkinパートを完成させました。↓

髭は武田信玄の挿絵から特徴を反映させて若干アレンジを加えています。

※写真素材から似顔絵を作っているわけではないので正解がない分ちょこちょこと触ってしまいがちになるのですが、きりがないのでいったん筆を止めました。SSSシェーダーをアサインすると凹凸の強弱等、また違って見えるので形も含め必要なら微調整していきます。

 

 

スキン関係のモデルの説明は以上になります。


今回は検証も兼ねたご説明もありましたが、R&Dも含め実作業的には10日程度だったとおもいます。
慣れるともっと早いかもしれませんが、素材があるのでここまで早かったわけで、ディテールに関しては人体ではないモデルを作成する場合は掘り込む素材から作っていかなければなりません。

 

まずは

①より基本が求められるzbrushでのボリュームの作成が重要であること

②ディテール作成でなんとかするという考えで物作りをしないこと

③素材を探すことと、作るという作業がDisplacementMapを作る上で重要ということ

という考えで作成していく事が個人的には大切な事だと思っております。

 

ゼロから人体を作ることは、最先端においては少々ナンセンスと言われるかもしれませんが基礎力を磨く上で先々において勉強にもなると思います。
上手くいかなければ基礎を見直そうと思える機会ですし、うまくいけば制作がより楽しくなりますし自信がつきます。
また、今回のようなフローを覚えることで人体ではない他の制作フローでも応用を効かせることができるようになると思います。

 

今回の工程まででもとても勉強になると思いますし私自身もブログを書きながら勉強になりました。ご興味のある方は是非一度チャレンジしてみてはいかがでしょうか?

 

次回は少しお時間空きますが、 MAYA、MurvelousDesigner、zbrush等を使って衣装と甲冑を作成していきます。

 

 

読んでいただきましてありがとうございました!

[戦国武将5] MARIを使って描いたDisplacementMapをMUDBOXへコンバートする

2019年2月21日

前回はテクスチャリングXYZの素材を使って顔のディテールを描きこむまでをご説明致しました。

今回はさらに顔から下のボディパーツのディテールの描きこみと、完成したらzbrushからのボリュームで作成したDisplacementMapと、MARIで描いた素材を掛け合わせて各種マップをMUDBOXへコンバートする方法をご説明したいと思います。

 

まずはボディパーツのディテールの描きこみです。
こちらは前回同様素材を作成して、各パーツに合った箇所にImage ManagerからPaint Throughでコラージュしていきます。

ボディもタイリング用のレイヤーを作成して肩、胸、腕、といった各箇所にそれ用の素材を合わせていきます。

 

Headと同様、素材さえしっかり作成しておけば難しい作業ではありませんし、皮膚の繊維の大きさ等、しっかりリファレンスを確認しつつ注意して描きこんでいきます。
あと、素材のグレーエリアのはみ出しも無いように随時チェックしてください。

※また、ブラシの選択も大切ですがコラージュ作業はエアブラシ系よりも、しっかり描き込めるOpasity100パーセントのブラシを選択する方が境目などの微妙な箇所がボケずに描けるのでおススメです。

各箇所しっかり描いていきます。↓
境目を気にしながら根気よく描きこんだらひとまず完成です。
最後にはみ出しやおかしな所がないかしっかりチェックしてください。


 

またRGBで分けて素材作成していますので、CopyChannelをレイヤーに入れてRGBごとのマップも確認してください。

 

RGB画像でチェックで注意する点はPixelAnalyzerを開いてスポイトツールでカラーを選択、HSVのVを見てもらって50パーセントグレーのあたりの数値になってるか?確認してください。
要するにzbrushでいうmid0.5の設定にそっているか?ということなのですが、この数値が離れすぎていると全体の形状が持ち上がりすぎたり凹んだりするので注意が必要です。

このPixel Analyzerでチェックするという確認は非常に重要で、今回に限らずリニアワークフローでのテクスチャーを描く上では各要素のなかの色のパーセンテージを決めるときなどに必ず確認することが多いので、常に画面に出しておくことをお勧めします。
フォトショップでいう情報タグです。

 

すべて確認しましたら、上記の各チャンネルを分けてOutPutします。
今回Displacementで使用するのはRGチャンネルなので、各種要素名を決めてエスクポートします。

 

 


-MUDBOXでのコンバート作業-

 

MARIで2つの要素を出力したら、zbrushから書き出したDisplacementMapをMUDBOXで掛け合わせます。

DisplacementMapの使い道なのですが、いくつか方法がございます。

————————

①MARIで2つの要素とzbrushから吐き出したDisplacementMapを直接MAYA内のノードに繋げる方法

②MARIの2つの要素をzbrush内でレイヤーとして掛け合わせる方法

③MUDBOX内で各要素を掛け合わせてVectorDisplacementMapとして出力する方法

————————

①の方法はカメラが皮膚の繊維が見えるくらい寄る場合、直接MARIから吐き出したマップをDisplacementMapとしてノードを組んでvrayDisplacementに持って行く方法です。正直見栄えを重視するならこちらが一番お勧めでもあります。
ですが、zbrushから出したDisplacementと、MARIから出したDisplacementMap2種類の計3種類のDisplacementをノードにさす事になり、レンダリング時間が膨大に増えるといったデメリットもございます。
サーバーや、モンスターマシンでない限りはローカルで回さない方がいいかと思います。

 

②の方法はかなり一般的なのですが、zbrushのVecterDisplacementMapの吐き出しは推奨されていません。私も散々検証しましたが、UDIMをつかったオブジェクトになるとどうしても結果がでませんでした。NomalDisplacementならまだ大丈夫です。
あとはリアルタイム用のノーマルマップを吐き出す際などはこちらで掛け合わせ、xNomalでベイクさせる方法で使われると思います。

③はMUDBOX内ですべての要素を掛け合わせるのですが、MUDBOXを使用する理由は、VectorDisplacementMapで吐き出せる事と、サブディビジョンのアルゴリズムがMAYAと同じですので、UVのseamに差が出ないという事です。
映像用のクオリティを追求するならお勧めの方法だと思います。

 

今回③の方法でマップを出力していきますが、
まず最初にMUDBOXで掛け合わせる前にする作業としては、MARIからのファイル名が1001からのUDIMですので、こちらの語尾を_u1_v1からのMUDBOX用のUDIMに書き換える必要があります。

書き換える際のUDIMの変換コードは以下になります。

※UDIMは縦並びは上限ありませんが、横並びは10枚までしか作成することはできませんのでご注意ください。

また、以前も説明しましたが、ボリュームスカルプトが完成した段階でzbrushからもDisplacementMapを書き出しておきます。

※zbrushからのDisplacementMapの吐き出し方については大切なルールもありますので、次回ご説明いたします。


ここからMUDBOXでの作業です。

書き換えましたら
先ずはMUDBOXから使用するローモデルをインポートします。
インポートしたら、Duplicateして、ローモデル用とハイモデル用で分けておきます。

 

ハイモデル用のオブジェクトをshiftDを押して任意のポリ数までdivideします。
ポリ数を増やしたらまずはzbrushからのボリュームスカルプトのDisplacementMapをSculptUsingMapを使って読み込みます。

 


次にMARIからのRG要素を、読み込みます。
このときオフセットは、0.5にしてください。

MARIからの素材は読み込んだらレイヤータブのDisplacement設定の数値を、「0.5~1.5」程度にしてディテールの細かさを表現させます。
各種設定を決めたら、3つの各種要素が重なって人体のディテールまでが出来上がります。
Rチャンネルは高め、Gチャンネルは弱めにすると程よい見栄えになると思います。

 

 

最後に必要な箇所をMUDBOX内でスカルプトして完成させます。

 


完成したスカルプトを、VectorDisplacementMapで書き出しましてMAYAで同じモデルを開き、vray Displacementで設定していきますが、、長くなりそうですので今週はここまでにいたします。

 

 

今週はレンダリングまで説明出来ず申し訳ありませんが、
次回は、大切なDisplacementMapの設定の仕方と、レンダリングまでご説明いたします。

読んでいただきまして、ありがとうございました!

[戦国武将4] MARIを使ってdisplacementMapを描く

2019年2月20日

こんにちは、越智光進です。

前回はMARIを使うにあたっての推奨パッケージや、初期設定の話について記述させていただきました。

 

今回は簡単なTipsも交えながら肌(頭部)のdisplacementMAPを描くことをメインに説明してまいります。
私自身まだ、MARIを100パーセント理解しているわけではありませんので、説明に不備がございましたら
何卒ご容赦ください。

まず、肌のディテールを彫るまたは描く方法は様々なフローが存在します。
そして、制作の中の仕様として、ショットにも耐えるものを作るのか?ミドルレンジくらいからの見栄えでいいのか?
とう選択でも考え方も変わるのですが、今回は前者を選んで進めてまいります。

それを踏まえ↓

 

——————————-
①スカルプトで直接彫り込む方法

②テクスチャリングxyzサイトからディテールのディスプレイメントマップをダウンロードして3Dペイントする方法

③高解像度素材を撮影、フォトショップで編集または3Dペイントし、バイパスからディテールを検出する方法

——————————-

 

①の直接彫り込む方法は、zbrush、マドボックス等でアルファ、もしくはステンシルを駆使して彫り込んでいきます。
一番活用されているフローです。

②テクスチャリングxyzを使う方法は、サイトから高解像度のテクスチャーを購入→ダウンロードし、rgb分けした各要素をMARIで描いていきます。

③高解像度の素材から抽出するためには、撮影した肌の素材をフォトショップ等のツールでハイライトを消し、albedo化させます。
それをモデルにペイント、ハイパスをとってディテールのベースとして使用します。
少し特殊な方法かもしれませんが、albedoの精度が高いほど効果を発揮すると思います。
ただハイライトを消したときにテクスチャーの色味が破綻してしまうので調整がとても難しいというネックもあります。
そこがクリアできるなら一番効率のよい方法といえます。

 

 

他にもやり方は存在しますが、新規で制作していく場合の主要な方法はわかっている範囲では上記の中からという感じでしょうか。
どのフローも一長一短ですし、ご紹介している内容が正解というわけでもありません。

※もちろん方法④としまして、経済的なゆとりがあるならという限定ですが、モデルとalbedoテクスチャーが入った精度の良いスキャンモデルを購入、もしくは撮影し使用する方法もございます。
すでに人体というジャンルに関してはモデルは作るのではなくスキャンする時代になっているので私がこれまで説明している内容もすでに古いといわれるかもしれません。

 

結果論とましては、いろいろなところから入ってくる情報から自分なりのフローを見つけて検証して、成果を生み出してみるのが一番よい方法だと思っております。

 


 

今回は私自身MARIでテクスチャーを描くということを目的としているのと、仮想として人体を作成している観点から
②のテクスチャリングxyzをつかって細部のディテールをMARIで描いていく手法を解説したいと思います。
素材を貼り付けるといったニュアンスなのでMARIの基本さえ理解していれば簡単に進めることができると思います。

テクスチャリングxyzに関しましてはご存知の方も多いと思いますが、以下のサイトを見ていただければと思います。

https://texturing.xyz/

肌のディテールに関しましては、ショットに耐えるものを作るとなるともかなり高解像度で作成しなければいけません。

そういう意味で人物や動物といったジャンルに限られますが、
テクスチャリングxyzの素材は大変精度がすばらしく、応用すればいろいろなキャラクターで活用できると思います。
もちろん無償ではないのですが、比較的値段もお手ごろで購入できます。

またMARIの基本操作につきましては前回の最後にも記載しましたがFOUNDRYのページにありますTUTORIALSを拝見ください。↓

https://www.foundry.com/products/mari/tutorials


 

まずはダウンロードしたdisplacementMAPをフォトショップか、Nukeで編集します。↓

内容として、
3枚のテクスチャーから構成されています(tertiary /secondary /micro)

こちらを16bitベースの1枚のテクスチャーとしてRGBチャンネルにコピー&ペーストします。

すると以下のような少しカラーのついた画像が生まれます。↓

 

 

落とした素材自体はかなり高解像度ですので幾分縮小してから、顔の各パートごとの画像に切り抜いてtif(16bit)等で保存します。
また皮膚の凡用としてスクロールさせた2,3枚のベース素材(顔の各箇所にあわせたもの)も作成しておくと描きやすいと思います。

※さまざまなフローのチュートリアルがtextureingXYZの中にありますので見ておくととてもわかりやすいと思います。↓

※種類の内容としてはtertiary secondaryの素材が質感の9割を占めると思ってよいと思います。
microに関しましてはbumpマップとして使うくらいの細かさですのでdisplacementとしては使用しなくてもよいかな?という感じでしょうか。
(皮膚のショットで顔のパーツが見えないくらい寄るなら話はべつかもしれません;)

 

 

同時にzbrushでスカルプトしたモデルのミドルモデルをobjでエクスポートします。(zbrushからの場合はUVの向きは必ず確認してください)↓

 

 


MARIでモデルをインポートをして、中身を確認したら、Image Managerパレットに切り抜いた素材をインポートもしくはドラッグ&ドロップします。↓


(眼球はイメージをつかみやすくするために仮で着色しています。)

次にPatchesパレット解像度の設定とChannelパレットからdisplacementと題したチャンネルを作成し、32bitフロートで任意の解像度を設定します。
※diffuseを描くわけではないので、Color Data MaskDataの設定はrawにしておきます。

 


これで準備が整いました。

まずは塗り残しを回避するために
Add Procedural Layerから、Procedural → Pattern → Tiledを選択し、凡用で作成した素材をTiled Imageにドラッグ&ドロップします。
リピートや回転といったパラメータはリファレンスをみながらお好みで。↓


※このTiledの機能はテクスチャーを描いていく上で、ベースの貼り付けとしてさまざまなところで役に立ちますので覚えておくと便利です。
あくまでベースですので模様がたくさん残ったりしているとリピートをかけたときにその模様が目立ってしまうので素材作成に注意してください。


次にImage Managerの素材を頭部にPaint Throughツール(U)を使って部分部分を投影させていきます。↓

 

このときベイク前の塗りこみをしますが、実際作成したモデルと使っている素材は当然ながら一致はしませんので、Warpツールをつかって
伸びすぎない程度にあわせてからベイクするとよいでしょう。フォトショップでいうワープツールなのですが、
必要に応じて↑↓ボタンで割り数をきめられますので細かく変形させたいときは増やして編集してください。

 

またImage Managerからドラッグした画像はPaint Bufferの設定と同じように、

Shift:Move
Ctrl:Rotation
Shift+Ctrl:Zoom

となっていますので調整しながら投影させてください。
Paint Throughのモードは変更できますのでrepeatさせたりstampさせたりとその時々で塗り方もかえると良いと思います。
あとはpaintする際のテクスチャーの透明度などはTool Propertiesパレットの中で設定できます。

※Tool Propertiesは選択したツールの設定が各種できますので必ず開いておいたほうがいいパレットです。

 

上図のように1つのパーツを投影したら各パーツごとに同じようにあわせて投影させていきます。
レイヤーはできるならパーツパーツごとに1レイヤー組んでいくほうが良いと思います。

今回の説明ではあまりレイヤーを作る作業はないのですが、解像度が大きめなので(8K)お勧めのグラフィックスボードやSSD等のセッティングをしていない場合は
早めにレイヤーをキャッシュ化させてデータを軽くしながら進めていくと効率が良いと思います。
※こちらはインディゾーンさんのブログでも詳しく説明いただいております。

 

描きながら注意する点は前回も述べたように、Paint Bufferの範囲をしっかりみながらロークオリティにならないように描いていくことと、
目のまわりや、唇周りなどの神経を使う箇所は時間をかけて慎重に描いていくことです。

初めて描いていく方は先の読めない内容になってしまうのですが、、
おそらくこういった作業を繰り返すことによって人の肌の流れを理解することができ、人体の外側の仕組みという意味でもとても勉強になると思います。

 

 

 

上記のようにすすめましたら、ボディパーツにも同様に塗りこんでいきます。

 

長くなってしまいましたが、今回はここまでにしまして、次回はスカルプトから吐き出したボリューム用のdisplacementMAPとMARIでボディ全体まで着色した素材を
組み合わせて信玄素体モデルを完成させたいと思います。

 

読んでいただきましてありがとうございました!

[戦国武将3] MARIを使用するにあたっての環境と設定について

2019年2月19日

前回までに信玄を想定したヘッドとボディのスカルプトをしました。
その彫り込んだスカルプトにディテール用のテクスチャーをMARIで描いていこうと思いますが、
今回はまず、MARIに関する事を少しお話しさせていただきます。

MARIは高解像度のテクスチャーを3D上で描けるとても便利なツールです。
以前まではフォトショップで頭を使いながら描いてきたフローが直接的に描ける事で見た目のリアリティはともかく、とても分かりやくテクスチャーを描けるようになりました。

他にSubstancePainter等も存在していますが、何十枚、時には50枚、100枚を超える高解像度のUDIMを処理できるという利点で私はMARIを選択しています。
もちろんベースのテクスチャーを作成するためにフォトショップや他のツールも必ず使います。
以前はDiffuse、Albedoのみ描くつもりで使用していたのですが、最近のCPUグラフィックボードの進化でかなりストレスフリーで描いていけるようになってきましたので全てMARIで賄っていけるようになりました。

MARIを今後使ってみようとお考えの方がいましたら、まずは下記の内容をお読みになって参考にしていただけましたらと存じます。

 

まず、MARIを導入するにあたり、グラフィックボードのメモリーが多ければ多いほど快適に動作致します。

推奨のグラフィックスカードは、
• NVIDIA Quadro 4000
• NVIDIA Quadro M1000M
• NVIDIA Quadro P4000
• NVIDIA Quadro P5000
• NVIDIA Titan X
などになります。

ご使用にあたりご予算と品質を考慮して、最適なグラフィックスカードをご選択下さい。

それ以外は、こちらをご覧ください。↓

http://indyzone.jp/catalog/products/foundry/mari/system.html

 

経済的なゆとりがあるならば上のスペックを使えば使うほどいいのは当然のことではありますが、
これからワークステーションを組もうと思っいる方がいましたら、ご参考にしていただければと思います。個人的にはMARIがストレスフリーで動けば他のソフトはまず問題なく動くと思っています。
そのくらいMARIを使用するにはある程度のスペックが必要になるということですが、以前よりも予算をかけずに使用することが可能になったということです。


また、もう1つ大切な要素が、SSD(ソリッド・ステート・ドライブ)の使用です。
従来のハードディスクよりもはるかに処理速度が速いのでベイクや、カメラワークといった描くことに大切な操作性ということにおいて必ずといっていいほど導入をしておいたほうがいいHDDです。
こちらも500GBや1T以上でも比較的安価で購入できるようになりました。

※SSDはFoundry社の方でも強く推奨しています。SSDについては、市販してるドライブも限られていますので容量と接続方法(PCIe対応やSATA)などをご確認の上ご購入ください。

 

 

もちろんMARIだけを使用するわけではありませんので、CPUやメモリーもある程度のスペックを用意したほうがよいと思います。

MARIは、CPUとGPUの双方を効率良く使用する設計となっていますので出来るだけ高スペックなCPUをお勧め致します。
但し、CPUが低いという理由で、MARIが起動しないことはありません。メモリーは、安価に購入できるようになっていますので、32GBは欲しいところです。最近、アーティスト向けのデスクトップPCでは、64GBを搭載するマシーンも多くなってきています。
MARIが使用するハードウェア構成要素については、こちらの記事にまとめています。↓

http://nukex.jp/2016/09/07/mari-usage-of-hardware-components/

 

というようにMARIを使用する際は少し制作環境をしっかり確認してみる必要があるのですが、解像度の高いテクスチャーでキャラクターやBGを制作したいとお考えでしたらまずは推奨されているグラフィックスボードと、SSDの導入をお考えいただくことをお勧めいたします。

まずはMARIを快適にご使用いただくための前置きをさせていただきました。
導入に関しまして、スペック等、詳しいことはインディゾーンさんにご質問・ご相談をしていただけましたらと存じます。

 


ではMARIを実際に使用してまいりますが、まずはじめに、、、

ご自身が使用するワークステーションの中身を理解していただいた上で、
MARIが使用するハードウェア構成要素についてはインディゾーンさんのブログの中にあるように、以下を拝見ください。↓

MARIが使用するハードウェア構成要素

大切なことはGPU、CPUで果たせれている役割をしっかり把握しておくことです。
そうすることによって前置きでお話した自身の制作に必要なスペックが理解していけると思います。

 

※MARIはフォトショップとかなり設定やツールが似ています。
もちろん深く探ればさまざまな機能があるので、いきなりいろいろと覚えようとすると難しいなぁと考えがちですが、
個人的には6割7割くらいはフォトショップの機能がはいっているかな?と思っています。
それだけに、まずはフォトショップの機能もしっかり理解しておくことも大切なのですが、
フォトショップを理解している方にとってはMARIを最初に触ったときにこれはフォトショップでいうあの機能かな?
というようにポジティブ考えていけばすこし馴染むのがはやいと思います!

 

上記構成要素を読んでいただいた上で、、
MARIを開いた際の初期設定に関しましては、いくつかのプリファレンスを設定しておきます。↓

 

MARIプロジェクトにおけるパフォーマンスの最適化

Mip-Map Generation     —- fast
Depth Projection        —- チェックなし
Vitual Texture Type     —- byte
Virtual Texture Depth   —- 32

特にVitual Texture Type の設定とVirtual Texture Depthの数値に関しましては最初に設定しておいたほうがよいでしょう。
こちらの設定がdefaultの場合GPUメモリの制限をすぐに越えてしまいレイヤーを重ねていったときに表示がぼやけたまま、描いていくことが難しくなってしまいます。

※最初にご説明しても何のことか理解に苦しむ方が多いかもしれませんが、実際にdefaultで最初は作業をしていってもらってなるほど、と思ってもらうのもいいかもしれません。

 


もう1つ重要なことで、設定として知っておいてもらいたいのは、「paint buffer」についてです。
こちらもなんのこと?と思うのですが、MARIはUV展開された3Dオブジェクトに描いていくことになります。
ですので、設定しているUVがカメラワークにより大きくなったり、小さくなったりとたえず変わってしまうことになります。
ですのでデスクトップの解像度より大きい設定の解像度で描きたい場合、解像度が追いつかず、せっかく高い解像度に設定していても中身はボケボケになってしまうという現象が起こってしまいます。

それを補ってくれるのが「paint buffer」という機能です。

 

上記画像のようにTransform paint buffer からShift + Ctrlを使って白いラインのbuffferサイズを任意の大きさにあわせます。
描きたい1つのpatch(UV)のサイズとbufferサイズに誤差がないような大きさで描いていくことをお勧めします。

 


最後に追記ではありますが、上記でも説明したようにMARIはフォトショップに近いソフトですので、もしご自身がフォトショップのショートカットを使っている場合はMARIに少し慣れてきた段階で早めにショートカットをあわせておくことをお勧めします!
制作をしているとMARIやMAYA、zbrush、フォトショップ等とさまざまなソフト間を行き来するのですが、変わるたびにショートカットの設定がまったく違っていると、どうしてもそのたびに頭を切り替えていかないといけません。
もちろん慣れると身体がそれになじむのですが、設定できるのなら違う環境でもできる限りなじみやすいボタンで制作していくほうが作業はしやすいと思います。

 

 

今回は余談の回になりましたが、まず覚えていくにあたっての準備と設定に関しまして簡単にご説明させていただきました。
次回は作成した仮想信玄のボディにテクスチャリングXYZからダウンロードしたdisplacementMAPをMARIで描くご説明をいたします。

 

MARIの入りとしましては、FOUNDRYのページにありますTUTORIALSを見るとかなり詳しく説明がされております。↓

https://www.foundry.com/products/mari/tutorials

 

読んでいただきましてありがとうございました!