2012/02/13(月) [n年前の日記]
#1 [papercraft] ツインテールの試作中
ツインテールなる呼び方をするのはアニメオタクだけという話もあるのだけど。それはさておき。
電卓(SpeedCrunch)を叩いて、AR-CADで作図してみたり。あるいはblenderでポリゴンモデルを作ってUV展開図をpng保存してみたり。それらをプリンタで印刷して組み立ててみたけれど。どう見てもシンプルな形状には程遠く。
諦めて、ただの紙をぶら下げる形にしてみたり。
電卓(SpeedCrunch)を叩いて、AR-CADで作図してみたり。あるいはblenderでポリゴンモデルを作ってUV展開図をpng保存してみたり。それらをプリンタで印刷して組み立ててみたけれど。どう見てもシンプルな形状には程遠く。
諦めて、ただの紙をぶら下げる形にしてみたり。
[ ツッコむ ]
#2 [blender][papercraft] blenderでペーパークラフト
作業メモ。
blender上でUV展開図を作ればペーパークラフトの下地画像が作れる。
ポリゴンモデルを作成後、分割線を指定。辺を選択して Mark Seam を選ぶ。線がオレンジ色になる。Clear Seamで分割線の指定を解除できる。Ctrl+Eでもメニューが出てくるが、左側のツールボタン?群がMesh Tools になっているなら、Mark Seam も Clear Seam もボタンが用意されているので、辺選択後、それらのボタンを押せばいい。
分割線を指定し終わったら、UV展開図を自動作成。aキーを押して全選択してから、UV Unwrap をしてUV展開図を作る。uキー、あるいは左側のツールボタン群中から UV Unwrap を選ぶ。その際、左下のほうに表示されている Method で、Angle Based ではなく、Conformalを選ぶと歪みが少なくなる場合もあるらしい。
UV展開図を表示するのは、上のほうのレイアウト?選択欄から、UV Editing を選ぶと楽。
展開図はpng保存することができる。ウインドウの下のほうのメニュー中から、UVs → Export UV Layout。
後は保存したpngをGIMPで開いてのりしろを付けてみたり。
参考ページ。
_matoさんのぶろぐ UV UnwrapのMethodについて
_mi-zmix's Gimmicks: Blender手探りメモ:UV展開
_マテリアル、UV、テクスチャ関連 - BlenderFAQ
blender上でUV展開図を作ればペーパークラフトの下地画像が作れる。
ポリゴンモデルを作成後、分割線を指定。辺を選択して Mark Seam を選ぶ。線がオレンジ色になる。Clear Seamで分割線の指定を解除できる。Ctrl+Eでもメニューが出てくるが、左側のツールボタン?群がMesh Tools になっているなら、Mark Seam も Clear Seam もボタンが用意されているので、辺選択後、それらのボタンを押せばいい。
分割線を指定し終わったら、UV展開図を自動作成。aキーを押して全選択してから、UV Unwrap をしてUV展開図を作る。uキー、あるいは左側のツールボタン群中から UV Unwrap を選ぶ。その際、左下のほうに表示されている Method で、Angle Based ではなく、Conformalを選ぶと歪みが少なくなる場合もあるらしい。
UV展開図を表示するのは、上のほうのレイアウト?選択欄から、UV Editing を選ぶと楽。
展開図はpng保存することができる。ウインドウの下のほうのメニュー中から、UVs → Export UV Layout。
後は保存したpngをGIMPで開いてのりしろを付けてみたり。
参考ページ。
_matoさんのぶろぐ UV UnwrapのMethodについて
_mi-zmix's Gimmicks: Blender手探りメモ:UV展開
_マテリアル、UV、テクスチャ関連 - BlenderFAQ
[ ツッコむ ]
#3 [blender][cg_tools][neta] 手に持ってくるくる回しながら形を確認していくそのノリを入力機器にできないだろうか
組み立てたペーパークラフトを手に持って、くるくる回して、色んな角度から眺めつつ、改良点を見出そうとしていたのだけど。ふと、この行為を、3DCGソフトの入力機器・UIにできないものかと。
一応、今の3DCGソフトも、マウス操作で似たようなことをしているけれど。例えば blender なら、中ボタン(ホイールボタン)を押しつつマウスを動かせば、そういう操作ができる。でも、個人的には、まだ直観的ではないような気がしていたり。
加速度センサが入っている長方形の箱を手で持ってくるくる回すと、画面の中でカメラが動いてそのように見える、という感じの操作だったら、作業は楽にならないだろうか?
加速度センサ付きの箱…と言うと…。携帯電話の中にも加速度センサは入っている。これをPCからリアルタイムに読み取れないものか。無理だろうな。携帯電話はPCの入力機器として使えるように設計されてないし。…携帯電話のソレが流用できたら色々遊べたのだろうけど。
もし、似たようなことをするとしたら、Wiiリモコンを買ってきてPCの入力機器として使ってみるのが妥当だろうか。
まあ、そのうち、Kinect が普及してくれるだろうし。そっちに期待するほうがいいのかも。Kinectの前で手を捻ったり、両手をかかげて位置を変えると、画面の中で3DCGモデルがそのようにくるくる回ってくれるとか。そうなれば、もう少し作業が楽になるかもしれず。
一応、今の3DCGソフトも、マウス操作で似たようなことをしているけれど。例えば blender なら、中ボタン(ホイールボタン)を押しつつマウスを動かせば、そういう操作ができる。でも、個人的には、まだ直観的ではないような気がしていたり。
加速度センサが入っている長方形の箱を手で持ってくるくる回すと、画面の中でカメラが動いてそのように見える、という感じの操作だったら、作業は楽にならないだろうか?
加速度センサ付きの箱…と言うと…。携帯電話の中にも加速度センサは入っている。これをPCからリアルタイムに読み取れないものか。無理だろうな。携帯電話はPCの入力機器として使えるように設計されてないし。…携帯電話のソレが流用できたら色々遊べたのだろうけど。
もし、似たようなことをするとしたら、Wiiリモコンを買ってきてPCの入力機器として使ってみるのが妥当だろうか。
まあ、そのうち、Kinect が普及してくれるだろうし。そっちに期待するほうがいいのかも。Kinectの前で手を捻ったり、両手をかかげて位置を変えると、画面の中で3DCGモデルがそのようにくるくる回ってくれるとか。そうなれば、もう少し作業が楽になるかもしれず。
[ ツッコむ ]
以上、1 日分です。