mieki256's diary



2019/03/09() [n年前の日記]

#1 [prog] Windows用のスクリーンセーバーの作り方を少し調べていたり

なんとなく、Windows用のスクリーンセーバーの作り方を調べていたり。Python等のLLで作れたりしないかなと。

Processing で作る事例も見かけたけれど、Windowsのシステムフォルダ内に、ライブラリ関連ファイルを色々突っ込んだフォルダを作らなきゃいけないっぽいのがなんだかアレだなと。スクリーンセーバーは、exeが1ファイル、程度になってないと、気分的にちょっと…。

2018/03/09(金) [n年前の日記]

#1 [ruby][mruby] Windows上でmrubyのビルドを試したり

以下の記事を読みながら、Windows10 x64 + Visual Studio 2015 Community + bison + Ruby 2.2.6 p396 mingw32版で、mruby がビルドできるのか実験。

_Windows上でmrubyをビルドし動かしてみる - Qiita
_mruby概論(2):“組み込みRuby”こと「mruby」をセットアップしてみよう (1/3) - MONOist(モノイスト)
_mruby/mruby: Lightweight Ruby

おお。スゴイ。あっという間にビルドが終わった。bin/ディレクトリ内に、*.exe ができてる。

mruby hoge.rb を実行したら動いてくれた。なんだか感動。

以下の記事によると、MinGW + MSYS を使ってもビルドできるらしい。MinGW + MSYS もインストールしてある環境なので、試してみたり。

_mrubyをWindows 7(MinGW, msys)でビルドしてみた - 平凡なエンジニアの独り言 はてなブログ出張所

ビルドできてしまった…。

でも、Visual Studio 2015 でビルドした時は、各exeが数百KBという小ささになったのに、MinGW版は、各exeが6〜7MBぐらいになってしまった。かつ、MinGW版は、実行して結果が返ってくるまで待たされる。puts "Hello world" しか書いてないスクリプトも、1秒ぐらい経ってから出力される。何故なんだろうな。

MSYS2 を使ってもビルドできるのかなと試してみたら、コレは途中でエラーになった。

mrbgemについて勉強。 :

以下のページを眺めながら勉強。

_mrbgemの話それから標準ライブラリの話 - けいぞうのメモ帳
_mrubyのビルド方法 - Qiita

mrubyをビルドするためのファイル一式の中に、 _build_config.rb というファイルがあって、コレを修正してから mruby をビルドすることで、欲しい機能・ライブラリが追加された状態の mruby が出来上がるらしい。で、そういう仕組みを mrbgem と呼んでいる、のかな。たぶんそうなんだろう…。

つまり、一般的なRuby(CRuby?)はガンダムみたいなもんで…。コアファイターの上にガンキャノンの上半身をつけたり、下にガンタンクの下半身をつけたりして、コアファイターを一々作り直すことなく、MS(モビルスーツ)のスペックを変えることができる。

mrubyは、ザク、グフ、ドムみたいなもんで…。電撃が使いたかったら、ザクを改良してグフを開発しないといけないし、ホバー機能が欲しかったら、ドムを作らないといけない。ザクに何かを合体させたら電撃が使えたりホバー機能が使えるようになるわけじゃない。MSそのものを最初から作り替えないといけない。

ますます分かりづらい喩えになってないかコレ。

2017/03/09(木) [n年前の日記]

#1 [ruby] Rubyを使ってwavefront形式のファイルをまだ読み込もうとしているところ

とりあえず、ジオメトリ? 頂点情報? を読み込んで Ruby + gosu + opengl で描画するところまではできたのだけど、マテリアル情報を読み込むあたりで少々ハマっていたり。

マテリアル情報は .mtl ファイルの中に記述されているのだけど、「Ke」から始まる行が。コレは何だろう…。 _Wavefront .objファイル - Wikipedia にも書いてないし…。

もしかして、「Ke」は「Emission」だろうか。 _3d - KE Attribute in MTL Files - Stack Overflow を眺めると「Ke stands for emissive coeficient.」と説明されてる。放射関係の数値かな…。

複数のテクスチャが利用されている時の、OpenGL側の指定方法も分からず。glBegin 〜 glEnd の中で頻繁にテクスチャを切り替えることなんてできるのだろうか…。いやまあ、フツーは、モデルを一つ描画する際の使用テクスチャは一枚にしておくもの、かもしれないけど。

#2 [anime] グランブルーファンタジーアニメ版を視聴

結構前に1〜2話がBSで放送されてたのだけど、録画してたソレをようやく視聴。

導入部分としてはイイ感じの出来だったような気がしたり。ゲーム(?)の基本設定はこういう感じなのですか、なるほどなるほど、みたいな。

しかし最近のアニメ映像は恐ろしい…。ここまで作り込まないといかんのか…。

失われたアナログ感を再び求めていくソレ。 :

画面を眺めていて気になったところが。おそらくは撮影段階で、手描きっぽく見える何かをかけている感じがして。線をかすれさせたり、若干塗りミスがあるかのように色の範囲を少し膨張させたり等。パッと見の雰囲気はイイ感じだなと。

しかし、なんだか不思議な状況になってきているような…。昔、セルでアニメを作ってた頃は、トレス線がかすれるとか、塗りが線からはみ出すなんてのは基本的にNGというか許されないこと、てな方向で努力してたはずなのだけど…。 *1

デジタル制作に移行して、仕上げ前の線画は二値化されたから線がかすれてしまうこともなく、バケツツールで塗るから線から塗りがうっすらはみ出てしまうなんてこともなくなったはずなのに。そこにフィルタの類を適用して、わざわざ線をかすれさせてボソボソゴツゴツさせたり、塗りミスっぽく見えるギリギリのところを攻めてみたり…。

セルで作ってた当時であれば、今のデジタル制作のソレは、ある面では理想と言うか究極の仕上げ状態・映像に思えたはずだよなと。なのに今、当時の感覚では「プロならこんな仕上げをやっちゃダメ」てな状態を、あえて苦労して再現してるという…。

当時追い求めていたはずの「綺麗なアニメ映像」って、一体何だったんだろう? ソレは、苦労して神経擦り減らして追求すべき理想の映像だったんだろうか? そんなところにアニメとしての価値はあったんだろうか?

それは同時に、今のアニメが追求してる映像の方向性にも疑問が湧いてしまうわけで。例えば、やたらめったら線が多くて手描きアニメーターさんが地獄を見ているそういう方向の映像って、これは本当に追及すべき理想の映像なんだろうか。十数年後「アレは一体何だったんだろう」「何のためにあんなことしてんだろう」「○○使えば一発だったのにわざわざ手描きして…」とか言ってたりして。

とりあえずそんな感じで、なんだか不思議な状態になってるなと思いました。とメモ。

*1: トレスマシンの普及前と普及後で鉛筆の線を活かすか殺すかの流れも違ってたはずなので、単純に「かすれた線はNG」とも言えないんだけど、人がセルに線を描き移してた頃であれば「綺麗な線」が良いものとされていたのだろうなと想像したりもするわけで。

2016/03/09(水) [n年前の日記]

#1 [windows] Windows10のSegoe UI Symbolフォントについてメモ

Windows には Segoe UI Symbol というフォントが入っていて、そこには色んな絵記号が山ほど入っていてなんだか便利そうなのだけど。Windows10では件のフォントに変更があったのかどうかが気になってきたので、ちょっとだけ調べてメモ。

手元の環境(Windows10 Pro バージョン 1511 ビルド 10586.164)で調べたり、 _[Fix] Unknown Characters or Vertical Rectangles are Showing in place of Metro Icons in Windows 8 and 8.1 Start Screen and Login Screen - AskVG を眺めたところ、以下のような感じらしい。
Segoe UI Symbol
osversion
Windows 106.20
Windows 8.16.09
Windows 85.90
Windows 75.01
バージョンが変わってるのは間違いない。ただ、どの文字(絵記号)が追加されたのか、そこまでは分からなかった。

_Windows 7 と Windows Server 2008 R2 での Segoe UI 記号の更新プログラムの提供について を眺めた感じでは、Windows7 も、Windows8 の Segoe UI Symbol フォントなら入手できなくもないように見える。ただ、8.1/10 の版となると(公式では)入手できないようで。

コレ、Windows10に同梱されてるフォントを、Windows7/8/8.1にも公式配布してくれないかな…。どの絵記号なら最低限持っていて、どの絵記号は持ってないのか分からないし。この際、Windows10 同梱フォントで足並み揃えちゃったほうが使いやすいのではないかと。せっかくヨサゲなフォント持ってるのに、もったいない。これじゃ迂闊に使えない。

などと思いながらググってたら、以下のページに遭遇。

_Segoe MDL2 アイコンのガイドライン - Windows app development
Segoe UI Symbol は、"レガシ" リソースとして引き続き使うことができます。ただし、アプリケーションはすべて、新しい Segoe MDL2 Assets を使うように更新することをお勧めします。

Segoe MDL2 アイコンのガイドライン - Windows app development より

え? どゆこと? これからアプリ作るなら、Segoe UI Symbol じゃなくて Segoe MDL2 Assets とやらを使えって? ソレ、どこにあるの?

Windows10 同梱フォントの中に、Segoe MDL2 Assets なるフォントがあった。眺めてみたら、便利そうな記号がたくさん入ってた。

この Segoe MDL2 Assets フォントって、Windows7/8/8.1 は、持ってるのかな…?

このフォントを入手するには Windows 10 をインストールする必要があります。

Segoe MDL2 アイコンのガイドライン - Windows app development より

Windows10 で追加されたフォントっぽい。てことは、ますます使えない。

フォントを使って絵記号を表示したいなら、 _Ligature Symbols_Typicons 等の、SIL Open Font License のフォントを探してアプリに同梱したほうがいいような気がしてきたり。それなら間違いなく、アプリ制作側が意図した絵記号が表示されるはずだし。

それにしても…。Segoe UI Symbol も、Segoe MDL2 Assets も、もったいないなあ…。これじゃ使えない。公式で配布してくれればいいのに。

Typiconsフォントの導入の仕方。 :

_Releases - stephenhutchings/typicons.font の、Add SVG to Bower package の Source code (zip) をクリックすると、typicons.font-2.0.7.zip というファイルがDLできる。解凍すると、src\font\typicons.ttf に ttfファイルがあるので、コレをインストールすれば使えるはず。

どんな文字(絵記号)が入ってるかは、src\font\demo.html をブラウザで開いて確認できる。

ちなみに自分は、 _NexusFont というフォント管理ソフトをインストールして、該当フォントを右クリック → 文字コード表、で確認してたりしますが。

2015/03/09(月) [n年前の日記]

#1 [nitijyou] 何をしてたか忘れた

この日記は数日後に思い出しながらメモしてたりすることもあるのだけど。この日は何をしてたか忘れた…。どうせネット見ながらアニメを消化してただけだろうと思うけど。

何かを調べてたような記憶が…。たしか、Windows版GIMPのプラグインの作り方をググってたような…。Go言語で作れたりしないのかなと変な気を起こしてググってたけど、そんな事例はまったく見つからず。そして、Cで書くにしてもGTK+が必要と書いてあって、それはキツイわと。だったらもう処理が遅くても Python-fu でいいわと。そういう結論になった、気がする。たしかそんな感じ、だったはず。

2014/03/09() [n年前の日記]

#1 [nitijyou] 自転車で買い物に

天気が悪くならないうちに、自転車で買い物に。カワチで夜食等を購入。

#2 [nitijyou] 某サイトのcssを弄ってる

ブラウザのウインドウ幅が違ってたらレイアウトを変更するようにしてみたり。

この日記ページもそういう作りにしたほうがいいのだろうか。でも、作業が面倒臭いな…。

2013/03/09() [n年前の日記]

#1 [digital] 指じゃ荒過ぎる

指で触って操作するスマートフォンやタブレット端末がたくさん登場してくれたのは嬉しいこと、ではあるなと。富士通のタッチおじさんの素晴らしさをようやく世界も認めてくれたか!みたいな。

でも、指を使うことしか想定してないポインティングデバイスでは、お絵描きに使うには荒過ぎるよなと…。

幼児やアフリカ原住民が、ウンコ座りして地面に何かしらを描く時ですら、そのへんに転がってる木の棒を使ったりするわけですよ。指で地面にお絵描きなんかしない。つまりはそのぐらい、指先ってのは、お絵描きする道具としてはイマイチで。

木の棒を動かすよりも、指先を動かすほうが、脳にとっては、より正確に間違いない制御ができるはずなのに、それでも木の棒を使うのは何故でしょうかね。

要するに、指には精度が無い。太過ぎる。細かいことができない。大雑把に「このへん」を指すことはできても、細かく「この点」を指すことができない。といったあたりなのかなと。

今時は、ペンでも指でも両方入力可能、みたいな入力デバイスがWACOMから出ていたりもするわけで。となると、巷の機器が指の太さしか受け付けないのは、技術の問題ではなく意識の問題なのだろうなと。

ジョブズは指で操作するスタイルだけを提示してみせたけど、ニンテンドーDSや、昔のPDAを眺めれば、その先があるぞ、もっと便利にできそうだぞと気付くはずで。この先も永遠にジョブズの猿真似で終わるのか、もっと未来を提示するつもりがあるのか、各メーカはそこを問われてる、ような気がしたり。

ウンコ座りして指でゴシゴシレベルで終わってしまうのか、木の棒使う段階に進むのか。みたいな。

ということで、自分は enchantMOON に期待してるのでした。アレに触った技術者・開発者が、「コレやべえ。ペン描きってめっちゃ気持ちいい。脳汁出てきた」的に気付いてくれたら、その後の流れが変わるかもしれない、てなことを夢想。

や。単に自分はコンピュータでスイスイお絵描きしたいだけなんですけど…。どのタブレット端末もペン入力をサポートすれば量産効果で安くなるはず、みたいなズルいことを。スイマセン。

PDAはどうして普及しなかったんだろう。 :

昔のPDAはペン入力が当たり前だったけど、それらが普及せずに、より荒い入力しかできない iPhone が普及したのは何故なんだろう、てな疑問も。

本体スペックが向上したことでユーザ体験が大きく変化したから、とか?

あの大きさだと細かいペン操作より大雑把に指示するほうが快適さが損なわれない、とか? でもソレを言ったら、ニンテンドーDSがヒットしたのはどうして、という話に。…まあ、ニンテンドーDSの全ソフトが、ペン入力を使ってるわけでもないだろうけど。

#2 [digital] KONAMIのPICNOってあったよね

「たのしくテレビに絵が描ける」と謳った、 _ピクノ という玩具が大昔にKONAMIから出てたけど。今になって考えると、アレ、本当に惜しかったよなと…。もうちょっと行けばニンテンドーDSに近い何かになれたのかなと。何が足りなかったんだろう。 *1

どうしてドーンと一般受けしなかったんだろう。TV画面と、お絵描きする面が、分離してたあたりが、やはり厳しかったのだろうか。液晶タブレットみたいな形にして、おもむろに、TV画面に直接描けたら、印象が違ったのかな…。

でも、あの頃のTVってブラウン管だから、一緒にしようとしたら静電気バリバリで手がビリビリ。子供が泣きそう。いや、そもそもそんなもんの上にタブレット面を設置したら、誤動作するかもしれんか。内部で高電圧を発してるブラウン管TVに触らせるってのも、安全面で色々問題がありそう。

子供ですら使えるコンピュータ、しかも、ゲーム機以外の使い方、という点では先見性があったように思うのだけど。
*1: いや、方向性が全然違うか。アレはどちらかというと、社内で使われてたグラフィックツールを商品化、なノリに近いのかな。あのグラフィックツールの名前、忘れてしまったけど。

#3 [digital] ニンテンドーDSとiPhone

コレって前にも書いたっけか…? いいや、またメモしておこう。

ニンテンドーDS(以下NDSと記述)と言えば。iPhoneが出てきた背景にはNDSの普及があるはず、と自分は邪推してるのだけど。どうなんだろうなと。 そんなSF小説のような光景を、一時でも現実にしてしまったのが、NDSなわけですが。

そんな光景をチラリと目にして、未来のコンピュータはどうあるべきか、延々語り(騙り?)続けてきたジョブズのような人間が、ピンとこないわけないだろうと。

もちろん、 _Newton その他 _PDA の失敗事例、日本のガラケー文化の発達、 _アラン・ケイが提唱したDynabook の概念等々をジョブズは知ってたはずで。そういうアレコレが脳内でグツグツと煮込まれて、iPhone がゴポゴポと浮かんできた、と自分は勝手に邪推しているわけです。

NDSに限らず、任天堂が出してきたゲーム機、あるいはゲームソフトの類は、幼児ですら使えているという点で、未来のコンピュータのあるべき姿という面に対し様々なヒントを提示してくれているように思えるのだけど。しかし、日本の家電メーカその他は、そこらへんを延々ガン無視し続けてきた歴史があって。その結果、飛行機のコクピットに迫るほどのボタン数を持ったデジタル家電のリモコンや、何か指示を出すたびにググッと待たされる、使う快感なんて欠片も考えずに設計された愚鈍な機器、そんなものが平気で出てくる現状になったわけですが。

NDS等、iPhoneの元ネタ要素にさっぱり言及せず、いきなり突然ジョブズがiPhoneを発明したのだと主張するジョブズ信者のソレにも、日本の家電メーカが各種ヒントをガン無視してきたソレに近い何かを自分は感じてしまうわけで。ジョブズはいきなり発明したわけじゃない。ジョブズにも、日本人にも、等しくヒントは提示されていた。日本人はソレを無視してきたけど、ジョブズは無視しなかった。そこが大きな違いだったりしませんかね、と。

だから、ジョブズに天啓が、的主張を見かけるともやもやするのでした。NDSの存在すら無視してiPhoneを称賛する、その認識や姿勢がそもそもどうなんだろうと。「アイツは天才だから」で済ませるなと。発明するためのネタは、こっちも均しく渡されてた。そこを無視するな、と。…まあ、同じものを目にしてたにも関わらず、こっちは作れなくてジョブズは作れたんだから、やっぱりジョブズは天才なんだろうけど。何もないところから考え出したんだよ、アイツ凄いよ、てな見方・褒め方をして棚上げして話を終わらせてたら、おそらくこの先も自分達はずっとダメな予感が。 *1

えーと。何の話だったっけ。

要するに、iPhone褒めるならNDSも褒めろよ、と、そういう話でしかないのかな、コレ。わかんないけど。

NDSの元ネタは何だろう。 :

iPhone の元ネタはアレやコレかなと邪推できるけど。さて、NDSはどういう発想で生まれてきたんだろう。何をヒントにしてNDSに辿り着いたのやら。GBA+PDA、でいいんだろうか。もっと色々ありそうな。

あの当時、任天堂はとうとう狂った、とまで言われてたけど。他のゲーム機メーカと違うコースを走ってたのに、そのことにこっちは気付けなかった。だから狂ったように見えていただけで。

AppleがiPodを出してきた時も、ちとソレに近い印象があったような。Appleは何を考えてるんだ、と自分は思ってしまった記憶があって。

そう考えると、「あの会社、狂ったんじゃないか」と思った時は要注意、かもしれず。こっちがさっぱり気付いてないテーマ・信念に基づいて、着々と駒を進めてる可能性がある、のかも。や、たいしたテーマ・信念を持たず、その場の思い付きで出してそれっきりなメーカもあるだろうから、判別は難しいか…。

*1: もちろん、NDSがiPhoneに影響を与えたかどうかなんてわからんのですけど。ジョブズの性格からして、○○に影響を受けたなんて滅多に言わないだろうし、言ったとしても本当のことを言わないだろうし。発言内容から真実を知ろうとしても徒労に終わりそう。
何せ、ビルゲイツと一緒にTV出演した際、ゲイツが「これからはタブレットPCだよ!」と熱く語ってるのに「それはねえよ。絶対ねえよ」と叩いておきながらしれっとiPad出してくる人だし。
Creative社がAppleにMP3プレイヤーを売り込んできたときに、こんなもん売れるかと全否定して追い返しながら、すかさずiPod開発チームを組んじゃう人だし。
彼はそういう人物だから、NDSを見てピンときたことがあったとしても、たぶんそのことを言わないんじゃないかと。「え? そんなの知らないよ。俺が自力で考えたんだよ」と平気で言いそうだなと。たぶん。

2012/03/09(金) [n年前の日記]

#1 [anime][neta] 業界用語を使ったらあかんのだろうか

_寿司屋で「あがり」「がり」と言ってはダメだと88才料理研究家 - 速報:@niftyニュース
「しゃり」(ご飯)、「がり」(しょうが)もいけません。「ネタ」なんてとんでもないですよ。最近では、当たり前のように使われていますが、これらはいわゆる“隠語”で、素人の女性が口にするべき言葉ではないのです。(中略)“粋”を取り違えて、努々、お愛想を尽かされませんように…。

寿司屋で「あがり」「がり」と言ってはダメだと88才料理研究家 - 速報:@niftyニュース より


なんだか、うどんや蕎麦はズズズッと音を出しながら食べないとカッコ悪いのだ、みたいな話を思い出した。自分、学生時代に、音を出さないでうどんを食べてたら、気持ち悪い食べ方だ、音を立てて食べろ、と指摘されたことがあって。言われるまで、音を立てて食べるべき、てな不文律がその世界に存在してたなんて全然知らなかったのだけど。

ひょっとすると元記事を書いた方は、かつて寿司屋で、「なぜシャリと言わない」「なぜガリと言わない」「これはネタというんだぞ。そんなことも知らないのか。これだから田舎者は…」等を言われて馬鹿にされたのかもしれない。こういうのって、「ファッション」を知っている人が、知らない人をやたらと馬鹿にする傾向があるし。

それはともかく。アニメや特撮の世界でも、客側が、業界用語を使う場面があるなと気付いて、なんだか考え込んでしまった。使わないほうがいいのだろうか…?

アニメや特撮の場合は、ちょっと事情が違う気がする。業界用語を知らない人が居て、「それってどういう意味?」と尋ねられたとしたら…親切に説明する場合が多い、そんな印象も。それらの世界は、ファッションではなく、知識量でプライド合戦をしているようなところもあるので、説明するという行為自体がある種の名誉であり、故に険悪な雰囲気にはならない可能性もありそうだなと。また、ファッション云々に比べ、制作上の概念・手法・作業内容が複雑なため、それらをまとめた用語を駆使して会話していかないと伝達がシンドイ、という事情があるのかもしれない。てなことを思ったけれど、実際はどうなのだろうか。

ソレとは別に、「郷に入っては郷に従え」と言う言葉もあるし。そのお店で、「しゃり」「がり」「ネタ」等の言葉が飛び交っているなら、それを使ったほうが無難だし、飛び交ってないなら、使わないほうが無難だろうな、とも思うわけで。アニメや特撮も同じかもしれない。たまにしかアニメを見ない人の前で「コンテが〜」なんて言い出したらちょっとアレだし。意固地になってどちらかに固執するのではなく、何でもそうだろうけどTPOで使い分けよう、という話に過ぎないような気もしてきたり。

#2 [nitijyou] 石碑についてもやもや考えてる

_【教訓】昭和8年の三陸地震の模様:イザ!
_寺田寅彦 津浪と人間
_日本三古碑 - Wikipedia
_金石文 - Wikipedia

石碑は今一つ効果がない、と昭和8年の段階で寺田先生が論じていて。読んでみて、「…ですよねえ。困りましたな」と思ってしまったり。でもまあ、無いよりはマシかも、という気もするけれど。

それはともかく、今なら石ではなく別の物質を使えることをすっかり失念していたわけで。
このような理由から、放射性廃棄物の地層処分が行われた場所など、遠未来の人類に確実に残さなければならない情報については、炭化ケイ素セラミックスのプレートに文字として刻印することが検討されている。

金石文 - Wikipedia より

なるほど、耐久時間に関しては石じゃないほうが良いのかもしれないのか、と。

文章で残しても、読めない可能性があることにも気が付いた。平安時代の文献なんて、自分達は読めないし。1000年後の人達も、今の文献なんか読めないだろう。となると。

漫画で残すのはどうだろうとか、フィギュアで残すのはどうだろうとか、そんなことをもやもやと。石碑に文字がずらずら彫ってあるのと、漫画が彫ってあるのでは、どちらがパッと見、「なんだこりゃ? 何が描かれているんだ?」と興味を引きやすいだろうか。…と思ったが、例えばピラミッド関係のアレコレは、今見ても理解できるかどうか微妙な気もする。となると、漫画も同じかしら。

見るからに迫力が伝わってくる絵画の類ではどうだろう。いや、写真でもいいのだろうけど。芸術作品として扱われるほどの何かがドーンと立っていて、それが警告を発する内容だったら…。

2011/03/09(水) [n年前の日記]

#1 [cg_tools] 立体復元機能をまだまだ試していたり

親父さんにお願いして、ラジカセを4方向から撮影してもらって、それを元にして実験を。

今度は光源を変化させていないから大丈夫だろう、と思ったが、窓から入る光が強過ぎたようで片側が真っ暗・真っ黒に。更に丸みを帯びた形状で。その2点が原因で、とにかく指定が難しく。SurveyFromPhoto で作業したけれど、膨大な数の点を指定しないと座標系?が確定できなかった。点の数が多いので、三角形ポリゴンの数も無駄に増えてしまい、テクスチャもとにかくバラバラに。なかなか難しい。

ひょっとすると、小物を復元する時は、別途、座標系を確定するためだけの何かも含めて撮影しておいたほうがいいのかもしれない。立体スキャナの類も、えてしてキャリブレーション用に模様が印刷された紙を撮影するようだし。

SurveyFromPhoto の場合、頂点だけではなくエッジも指定できることに気が付いた。もしかすると、エッジも一緒に指定しておけば正確に立体復元できるのかもしれない。が、それについてはまだ試していない。

SurveyFromPhoto の配布サイトを再確認したところ、公開されているサンプルデータは、17枚とか33枚とかそのぐらいの枚数の写真を元にして立体復元していたらしい。箱を並べた程度の形状ならともかく、複雑な形状は、4枚程度では厳しいのだろうな。

#2 [nitijyou] 昼頃に地震

かなり長い時間揺れていた。いよいよ来たか、と思ったが、震度3ぐらいだったらしい。長い周期の揺れだったあたり、ちと珍しいソレだった印象。

#3 [pc] Windows XPの動作が不調

ウイルス対策ソフトのプログラム部分をアップデートしたら動作が不調に。OSを再起動しようとすると、終了時にエクスプローラが「メモリにwrittenできねえ」的なエラーを出すようになってしまった。

ウイルス対策ソフトの問題かと思ったけど、どうもアップデートした際に行ったウイルス検査で、Unlockerなるソフトについてきたebay云々のプログラムを隔離してしまったせい、だったような感じ。該当ソフトをアンインストールしたところエラーは出なくなった。

そこに到達するまで、ちょっと前にインストールしていた、Bazaar や Adobe Reader X その他を疑って数時間ほど色々試してしまった。無駄骨だった。

それはともかく。色々試していたら、常駐ソフトのタスクトレイ登録がかなりの確率で失敗する状態に。どうも何かのソフトがOS起動時に長時間HDDを占有している気がする。HDDにアクセスし続けているプログラムの正体が分からない。ウイルス対策ソフトだろうか。

2010/03/09(火) [n年前の日記]

#1 [anime][zatta] NHKでアニソンSPとかいう番組が流れてたのだけど

アニメで使われた歌を延々と流す、みたいな番組内容らしい。少しだけ、チラリと見てみたけれど、知らない曲ばかり。アニメって、そのほとんどが都市圏でのみ放映されている・都市圏の中だけで回っているのだなあ、と再認識。

#2 [nitijyou] 外は雪だった

窓を開けたら雪。のわりにはそんなに寒くないような。

2009/03/09(月) [n年前の日記]

#1 [anime] ケロロ軍曹も3DCGになりつつあるのか

Aパート?が丸々3DCGでビックリした。しかも見ていてそんなに違和感がない。凄いな…。

検索してみたら、都市圏における放送では既にかなりの部分が3DCGに置き換わっているらしく。>ケロロ軍曹。福島は大体1年ぐらい遅れて放送してるので、これからは3DCGのケロロ軍曹がバンバン出てくるのであろうか。なんだか凄いな。そういう時代になってきたんだなあ。

#2 [anime] NHK-BS2で秒速なんとかメートルが流れていたっぽい

気づいた時には、もう放送終了後だった。ガックリ。

いやまあ、本当にどうしても見たかったら、レンタル屋さんに行って借りてくるとか、DVD買うとかすればいいわけで。そこまでしないということは、特にどうしても見てみたい作品というわけでもないのだろう…。>自分。と思うことにする。

2008/03/09() [n年前の日記]

#1 [python] wxPythonを勉強中

iアプリ用のツールを作ろうと思い立って、せっかくだからGUIのツールでも、と。で、wxPythonを勉強しようかと。

wxGladeを使ってみたり。 :

GUIの設計ができるらしいのでインストールして使ってみたり。とにかく Panel と Sizer を置いて入れていくみたいな感じなのだなと。

python のソースコードの形で出力もできるらしいのだけど、該当ソースはそのままでは動かなかった。IDが定義されてない云々のエラーが出る。うーむ。

XRCedも使ってみたり。 :

xml の形で出力してくれるらしい。

gettextにも手を伸ばす。 :

文字列を、環境の国別設定によって変えてくれるらしい。翻訳ファイル?があれば、の話みたいだけど。

以下のページを参考にしながら作業。

_Pythonによる国際化プログラミング - Heretic Programmer(2007-09-08)
_国際化(i18n)メモ - 2006-01-18 - himainuの日記
_wxPythonの国際化について ? Plone en sourdine

文字列をことごとく「_("english message.")」と書いておけばいいらしいのだけど。class の中にそういう記述を書いたら、「'_' なんて文字は知らねえよ」とエラーが。 _6.28.3.2 アプリケーションを地域化する というページには、
import gettext
gettext.install('myapplication', '/usr/share/locale', unicode=1)
てな感じに書け、とあるのだけど…。む。 _6.28.3.1 モジュールを地域化する というページに、
import gettext
t = gettext.translation('spam', '/usr/share/locale')
_ = t.ugettext
というのがあった。 _6.28.2.1 NullTranslations クラス の中に、
install( [unicode])
  unicode フラグが偽の場合、このメソッドは self.gettext() を組み込み名前空間に組み入れ、"_" と結び付けます。 unicode が真の場合、self.gettext() の代わりに self.ugettext() を結び付けます。 標準では unicode は偽です。

  この方法はアプリケーションで _ 関数を利用できるようにする ための最も便利な方法ですが、唯一の手段でもあるので注意してください。 この関数はアプリケーション全体、とりわけ組み込み名前空間に影響する ので、地域化されたモジュールで _ を組み入れることが できないのです。その代わりに、以下のコード:

  import gettext
  t = gettext.translation('mymodule', ...)
  _ = t.gettext

  を使って _ を使えるようにしなければなりません。

  この操作は _ をモジュール内だけのグローバル名前空間に 組み入れるので、モジュール内の _ の呼び出しだけに影響 します。

Python日本語マニュアル - The Japanese manual of Python より

という記述が。こっちを使えばいいのかな?

_6.28.3 プログラムやモジュールを国際化する によると、
  • pythonスクリプト中から翻訳すべき文字列を取り出す pygettext.py なるスクリプト。
  • 翻訳ファイル(?)に変換する msgfmt.py なるスクリプト。
があるらしい。pythonインストールフォルダ/Tools/i18n/以下に入ってた。

試してみたり。
set MYSCRIPTNAME=hoge
set GETTEXT_TOOLS_INSTALL_PATH=c:\usr\local\Python25\Tools\i18n

%GETTEXT_TOOLS_INSTALL_PATH%\pygettext.py -k_ -o ja.po %MYSCRIPTNAME%.py
ja.po なるファイルが出来上がった。該当ファイルの中身を日本語に書き換えていくらしい。
"Language-Team: LANGUAGE <LL@li.org>\n"
↓
"Language-Team: japanese\n"
"Content-Type: text/plain; charset=CHARSET\n"
↓
"Content-Type: text/plain; charset=UTF-8\n"
#: hoge.py:61
msgid "E&xit"
msgstr ""
↓
#: hoge.py:61
msgid "E&xit"
msgstr "終了(&X)"
で、.moに変換。
%GETTEXT_TOOLS_INSTALL_PATH%\msgfmt.py -o %MYSCRIPTNAME%.mo ja.po
しようとしたけどエラーが。どうも ja.po は utf-8 じゃなくて utf-8n で保存しないといけないっぽい。再度変換。今度は hoge.mo が出来た。

スクリプトのあるフォルダに、locale/ja/LC_MESSAGES/ とうフォルダを作成。hoge.mo をコピー。

2007/03/09(金) [n年前の日記]

#1 [flash] Flex 2 SDK をインストールしてみたり

_trick7.com blog: 3月4日開催「第1回:寺子屋(仮)」の報告

上記の記事を読ませていただいたら、FlashDevelop なるツールがあると知り、興味が湧いたり。早速検索。なんだか面白そう。…と、その前に、Flex 2 SDK なるものをインストールしないといけないらしい。

_CodeZine:はじめてのActionScript 3〜ライフゲームを作ってみる :

_ActionScript 3.0メモ
_mxmlcの使い方とコンパイルオプションを勝手に解説

コンパイラに関してはフリーで入手可能とのことなので、試してみたり。
  1. Adobe のサイトから Flex 2 SDK と Flex 2 SDK Japanese Language Pack をDL。
  2. Flex 2 SDK を適当な場所に解凍。Japanese Language Pack を解凍して、Flex 2 SDK を解凍した場所に上書き。
  3. Windows の環境変数、というか Path に、解凍場所\bin を追加。
  4. Debug用らしき Flash Player をセットアップする。解凍場所\player\debug\Install Flash Player 9.exe を実行。
.as を作成して、各記事のサンプルをコピペ。コンパイル。

エクスプローラの関連付けで、.swf は 解凍場所\player\debug\SAFlashPlayer.exe で開くように設定。

DOS窓で hoge.swf と打つ。おお。出てきた。

_FlashDevelopをActionScript3のIDEとして使う :

_FlashDeveloperのメニューを日本語化
_FlashDevelop2 Plugins
_FlashDevelop環境で、AS3を開発してみる。

メニューの日本語化は 2.0.0専用との記述だけど、2.0.2 の各 .xml と見比べてみたところ、特に項目数は変わってないように見えた。ので、オリジナルの .xml をどこぞにバックアップした上で上書きコピー。おお。メニューが日本語になった。ありがたや。

AS3 and Flex 2 Project Templates や FlashBuild 1.0 Beta 1 をDLさせてもらったり。

…Test Movie のボタンがグレーアウトされたままだな…。うーん。

_FlashDevelop - Flashmagazine :

_(via Krik? Krak! - FlashDevelop)

AS2 なら記事どおりにできた。Ctrl+Enterで表示確認できるのか…。

ライブラリに画像等を登録することもできるっぽい。swfmill がどうとか書いてあるな…。ていうか、FlashDevelop のインストールフォルダ中にも swfmill は含まれてるのだな。swfmill 0.2.11.20 と出てきた。swfmill の公式サイトでは、 _Current Release: 0.2.12 となってるから、ちと古いのか。

2006/03/09(木) [n年前の日記]

#1 [pc][windows][nitijyou] アプリをインストール

色々と。

CG関係のツール。 :

  • GIMP 2.2.10
  • Photoshop 5.0
  • Painter 5.5
  • Painter 6
  • FLASH 4
  • FREEHAND 8
  • Flash Creator 1.6
  • Poser 2
  • myShade 2
  • IconShop
  • 色取鳥i
  • OPTPiX(無印)
  • Kai's Power Tools 3

プリンタ・スキャナ。 :

  • EPSON GT7600 関連。ドライバとか。
  • EPSON PM-3000C 関連。ドライバとか。

#2 [digital] RD-H1のリモコンについての感想

ブラインドタッチ(?)ができないのはツライ。ビデオデッキの類は映像を見ながら作業する機器なので、一々手元のボタン配置を目視で確認して押さなきゃいかんのは致命的。

コマ送り(←/→)と、スロー再生(←/→)と、チャプター選択(←/→)と、リプレイ(←)・スキップ(→)が、全部バラバラの位置に配置されてるのがわからん。それは再生ボタンの周囲に左右を関連付けて配置できるんでは…。

「十字ボタン」と、「再生・停止・巻き戻し・早送り」はまとめられそうだが。十字 or 8方向に相当するボタンが複数ある理由がわからん。いや、テンキー部分まで合わせたら3つあるような?

サブメニューへの行き来に、決定ボタンと戻るボタンを押さなきゃいかんのが面倒。左右ボタンで充分やろ…。と思ったら、行くのは右ボタンでOKっぽい。が、キャンセルは、戻るボタン。中途半端だな。

PC のキーボードだって、「F」「J」「テンキーの5」なんかにはポッチがあってブラインドタッチの助けになるわけだけど。RD-H1のリモコンに、そういうアプローチが見られないのがわからん。いや、テンキー部分の「5」にはポッチがついてるんだけど。再生時や編集時はテンキー使わんし。利用頻度の少ないボタンにはポッチをつけてるのに、頻繁に使うところには無頓着。…別にポッチでなくても、ボタン形状が違ってれば済むんだけど。そこはコストの問題なのだろうか。あるいは耐久性か。

片手で操作が難しい配置にどうしてもなってしまうなら、いっそ両手持ちで使えるようにしてほしかったかもしれん。…とにかく使いづらい。

リモコンのボタン配置を決定した人に誰かインタビューをしてみてくれないものか。一体誰が、どんな思考・方向性でデザインしたのか。…もしかして、あらゆる箇所で特許回避してるが故に使いづらいとか? アイコンひとつで訴えられる世界だしなぁ…。

#3 [iappli] アタリ判定作成中のはずが表示部分の変更にまで及んだり

画像の内容的に、必ずしも中心からの距離でアタリ範囲を作れないことに気づいて修正してるうちに表示部分まで書き直し。

視覚的にアタリ範囲や中心点を設定してテキストデータとして出力できるツールはないものだらうか。 :

今現在、GIMP で読み込んで、ガイドを設定して、 _guide_information.scm でガイド位置の値を確認して、手打ちで記述してるものの。かなり面倒なり。

検索してみたけど、そういう機能を持ったツールは完全に見当たらない。ドットエディタの類に付随してたりしないかと期待したのだけど。特殊過ぎるのかしら。2Dアクションゲーム制作でしか使わんもんなぁ…。

_シューティングゲーム(STG)のつくり方 - 当たり判定 :

#4 [iappli][java][eclipse] _簡単な Javadoc の書き方

ドキュメンテーションコメントとはコメント文の一種である.その記述は /** で始まり */ で終わる.

簡単な Javadoc の書き方 より

@param タグ : メソッドやコンストラクタの引数の説明に使用する.

簡単な Javadoc の書き方 より

なるほど。慣れておいたほうがいいのだろうなと思ったのでそのように記述し始めたり。

うわ。eclipse で「/**」を入れると自動で引数を列挙してくれる。素晴らしい。

_外部エディタとの連携 :

[ウィンドウ(W)]メニュー→[設定(P)]で設定ダイアログを表示させます。

左側ペインの[一般]→[ワークスペース]を選択し、右側ペインの[自動で更新(R)]にチェックを入れます。すると、外部エディタで編集し保存したファイルがEclipse上ですぐに更新されます。

Eclipse 3.1 より

xyzzy のキーボードマクロを使って楽をしたいので、この設定を有効にしてみたり。

2005/03/09(水) [n年前の日記]

#1 [anime] 十二国記の後に何を流すのかと思ったら

「今日からマ王」だった。ぎゃふん。

NHK-BSで流れてたときは、2話以降を数話見て視聴中止にしたんだけど。1話は見たことがなかったので、とりあえず見てみたり。

1話のせいだろうか。作画は随分と綺麗だなと感心。他には…。スイマセン。ダメでした。これ以上、よかった探しは無理です。ギブアップ。歯が立たない。コイツは強敵だ。

自分は、この作品に寒さしか感じないんだけど。それはつまり、本来のターゲット層にはウケる作品であることを見事に証明してるのかもしれないなぁ…。特定の嗜好性をピンポイントで狙うと、その嗜好性を持ってない人間からは徹底的に拒否されるのが常。自分がゲンナリすればするほど、自分とは逆の嗜好性を持った層から絶賛されてる可能性が高まるわけで。この作品は、それだけ、消費者のニーズを的確に掴んだ、よく出来ている商品なのだろう。

しかし、「マ王」と「スピカ」のコンボとはなぁ。…ビデオの録画予約、消しとこ。

#2 [pc] 親父さんがBフレッツを申し込んだのだけど

と言っても申し込んだのは結構前で。Bフレッツへの勧誘電話がかかってきて、工事費無料・料金2ヶ月無料のキャンペーン中だからとアピールされて、申し込んだらしく。

3/15に工事をするらしい。…本当に工事費無料なんだろうか。家の壁に穴を開ける必要があるだろうと想像するのだけど。別途工事費を追加されそうな予感。

plalaのセット契約を変更する必要があるわけで :

ということで、plalaのサイトを覗いたら。plalaからBフレッツの申し込みをしたほうが、plalaの料金も数ヶ月分無料になる上に、4thMediaチューナーも無料で入手できるみたいなんだけど…。勧誘電話経由で申し込むのは明らかに損だったのでは…。まあ、ISDN・ADSLの時と違って、今回は親父さん主導で話が進んでるので、別にいいか。

工事日前日に、plalaのサイト上からセット契約変更を申し込めばいいとのこと。親父さんが、plalaに電話で質問して確認をとったらしい。…が。サイトから申し込んで、即座に切り替わるのであろうか。まあ、plalaが電話でそう答えたということは、それしか方法は用意されてない *1 ということだろうから、「一週間かかります」とか後になって言い出されても仕方ないだろうな。それが嫌なら、そもそもplalaからBフレッツ取次云々をすべきであったろうし。

ONU(光ファイバーの終端装置)を設置する場所を親父さんが作成 :

自分は、玄関近くの靴箱(靴入れ棚?)の上 ―― 今現在、ADSLモデムが置いてある場所の周辺 ―― でいいんじゃないかと思ってたのだけど。親父さんは、壁から近くて済む、階段のデッドスペース ―― 天井に近いあたりに設置したいと言い出して、昨日、そのあたりに板を張っていた。

B5サイズの板なのだけど。ONU、置けるサイズなのかしら。自分、ONUのサイズは知らないわけで。Googleのイメージ検索で、いくつか写真を目にした限りでは、ADSLモデムと同程度の大きさに見えなくもないのだけど…。

ていうか、地震で落ちそうな予感。そのへんの対策を考えるのは、やっぱり、自分や妹の役目なのだろうか…。

ADSLモデムをONU設置予定場所に置き始めた :

親父さんが、「PCの電源を切れ」と言い出したから何かと思ったら。ONU設置予定場所に、ADSLモデムをこれから移動するのだと言う。

たしかに、洋間に設置してあるルータから、設置予定場所まで、現在使用中のLANケーブルが届くのか確認しておく必要はあるし。また、電源コードをどこまで伸ばせるか確認しておく必要もあるのだけど。何も今のうちからやらんでも…。電話線にノイズが乗らないよう、あれこれ工夫して配置してたつもりだけど。そのあたり無頓着に設置されて、うーむ。でもまあ、本人が好きでやってることだし。「工事日まで速度が遅くなることは覚悟の上でやってほしい」とだけ伝え、親父さんのやりたいようにやってもらった。

が。親父さんが実際に設置してみたところ、自分の予想と正反対の結果に。速度が、2Mbps → 2.3Mbps に向上してしまった。なんでやねーん。

つまりは、自分や親父さんが今まで認知できなかったノイズ源が、これまでのADSLモデム設置場所の周辺に存在してたということだろうか。AMラジオ片手にうろついて、場所決めしたのだけどなぁ…。更に、自分がノイズ源に成りえると思ってたものは、実はそれほど影響がなかったということか。ああ、なんてこった…。つーか、アナログはワケワカラン…。

テープ剥がしを命じられてちょっとゲンナリ :

電源コードやLANケーブルをそのまま剥き出しにしておくと、美観云々でお袋さんから苦情が出るので、木目調のモールでそこそこ隠してたのだけど。それらモールが不必要になったので、除外するかどうか、という話に。自分は、接着してるテープが強力なので、壁や床の表面まで剥がれたり、跡が残りそうだから、そのまま残したほうがいいのでは…と言ってる間にも親父さんがベリベリと剥がし始めて、わー。

幸い、床や壁の表面は剥がれず、両面テープが残っただけで。そのうちの一つは親父さん自身が剥がしたのだけど。他に残ってるテープを剥がせとの御命令。なんでやねーん。自分は、残してもいいのでは、と言ったやーん。自分の主張と異なる行為を何故自分がしなければならないねん。と文句を言いつつも一応作業を始めてみたら。…剥がれんわ、コレ。えらいシンドイ。親父さん、途中で作業するのが嫌になったんだな…。

妹が、シール剥がしの溶剤を持ってるとのことで。試しに使ってみた。が、妹が事前に言っていたとおり、両面テープには効果が薄い模様。結局、ヘラでしつこくゴシゴシやらないとダメか…。

今気づいたけど。万が一、こちらの想定外の場所から光ファイバーが出てきたら、どうなるんだろう。モール、貼り直しだろうな…。

*1: 流れを少なくすることで、コスト削減を図ってる部分もあったりするのであろうし。

#3 [colinux] coLinux上のGIMPで作業をしてたんだけど

Cygwin/Xで作業をしてたけど。重いー(のか?)。GAP の Next Frame で画像が表示されるまで3秒ぐらいかかる。Win版GIMPなら1秒未満で出てくるのだけどなぁ。

作業が終わってから、気がついた。Winの共有フォルダ上のファイルにアクセスしてた気がする(爆) それじゃ遅いわ。アホだ>自分。

でもまあ、Win版GIMP 2.x.x と違って、GAP を使うたびにDOS窓が出てこないのはありがたい。>coLinux上のGIMP。

#4 [cg_tools] GIMPでGAPを使ってアニメGIF作成

作業手順をメモ。使用したのはWin版GIMP 1.2.5 + GAP。
  1. フレーム(=連番.xcf)を、別のディレクトリにコピーして、“必ず”バックアップをとっておく。
  2. フレームをGIMPで開く。
  3. 画像ウインドウ内で右クリックをするとメニューが出てくるので…
  4. 『動画』→『フレーム統合』。 <それぞれのフレームが、1枚のレイヤーでできたフレームになる。
  5. 『動画』→『フレームを画像に』。 <「名称未設定」のウインドウが新しく作成されて、全フレームがレイヤーになった画像ができる。
『フレーム統合』で、それまで開いてた全フレームが破壊される=後から修正できない状態になってしまうので、『フレーム統合』する前に、バックアップを忘れずに。

『フレームを画像に』の際に、ダイアログが開いて、そこにレイヤー名の入力欄があるのだけど。その中に「(41ms)」みたいな表記があったりする。これは、そのフレームに対するwait時間らしい。IEでアニメGIFを再生する場合、ここの数値が、おそらく「(60ms)」より大きくなってないと、こちらの意図したwaitで再生されないみたい。ちと注意。

ココから先は、GIMPの一般的(?)なGIFアニメ作成作業と同じ。
  1. 新しく作成された「名称未設定」ウインドウを選択。
  2. 『画像』→『モード』→『インデックス』。 <GIF画像は256色までしか使えないので、インデックスカラーモードに変換する。
  3. 動画をプレビューして確認。『フィルタ』→『アニメーション』→『動画再生』。
  4. 場合によっては動画を最適化してもいい。『フィルタ』→『アニメーション』→『動画最適化』。
  5. 『ファイル』→ 『別名で保存』 → ファイルネームの最後に、「.gif」をつけて保存。アニメとして保存するか云々を尋ねてくるので、アニメのほうにチェックを入れて、保存する。
  6. 出来上がり。

問題点 :

GIMPで作成したアニメGIFを、IEで表示してみると、再生してるうちに再生速度がどんどん遅くなってくる…時もある。いくつか実験してみたけど、どうやら、
  • 共通パレットを使ってる。
  • 動画を最適化してる。
このどちらか、あるいは両方で、違いが出てくるようではあったり。ちなみに、Mozilla系のブラウザなら、そういった不具合は見られない。

こういった症状が嫌ならば、
  • 『動画』→『フレーム変換』
で、全フレームを別フォーマットの連番画像として書き出せるので、後は、GIMP以外のアニメGIF作成ソフトで好みの設定にしてアニメGIFを作る、というのもアリかも。

例えば、
  1. 『動画』→『フレーム変換』で、連番png を出力。
  2. 「藤 -Resizer-」で、連番pngを、好みのサイズに、一括で縮小。
  3. 「Padie」で、連番pngを「共通パレット」を作らずに、一括で減色。
  4. 「natm」で、連番pngを読み込み、「最適化しない」設定で、アニメGIFを作成。
とか。

一応、前述のソフトへリンクを。

_藤 -Resizer- :

フリーの画像拡大縮小ツール。複数の画像を一括で処理できる。拡大縮小以外にも色々な画像処理を加えることができる。例えば、縮小と同時に「輪郭強調」をかけたりとか。

_Padie :

フリーの減色ツール。複数の画像を一括で処理できる。

xPadieのほうは、バッチ処理が実装されてないので注意。最初、気づかずに xPadie をインストールして首を捻ってました。ちゃんと説明を読めよぅ… >自分。

_natm :

フリーのアニメGIF作成ツール。

グローバルパレット(共通パレット)を使用しない設定でアニメGIFを作れたりもするので、GIMPで出力したアニメGIFを読み込んで、そのへんだけ修正する、とかできたりする、かもしれないけどまだ試してないです。

#5 [cg_tools] ということでGIMPでアニメGIFを作ってみたりして

GIMPで作ったアニメGIF
こんな感じ。中華キャノンのプラモデルを撮影して、GIMPでシコシコと。800Kbyteぐらいあってちょっとアレだけど。

ちゅーか、素材を撮影したの、 _何ヶ月前やねん。 ちなみに _こんな感じで撮影してた模様。

でもまあ、 _「お店に安いじゅんでカメラがならんでいると、いちばん安いところから25cmのあたりにならんでいるカメラ」 *1 と、フリーのグラフィックツールでこのぐらいは遊べるということで。なんとなく満足。

ヘボヘボなアニメGIFではあっても、作業してるうちにいくつか気づいた点があるので、以下にメモ。

アニメと実写は、たぶん違う :

最初、商業アニメと同様、「背景は1コマ撮り(?)」「手前のオブジェクトは(基本的には)3コマ撮り(?)」で作ってみたのだけど。実際やってみると、どうにも不自然で、全く見れたものではなく。結局、全フレームでオブジェクトを動かしてしまったり。 *2

どうして不自然だったのか考えたのだけど。…手前のオブジェクトがプラモデルだったからではないかと。

動いてるオブジェクトが、現実に存在してる物体の質感に近ければ近いほど、見る側は、日常生活と同じ動き=フルアニメを求めてしまうのかもしれない。と、そんなことを思ったり。 *3

もっとも、元々アニメだってフルアニメだったわけで。途中でリミテッドアニメが主流になって、そういう映像に慣れちゃっただけ、かも。例えば、3DCGアニメや実写であっても、アニメのような動きをする商品が延々と市場に流れ続ければ、こういった不自然さもなくなってくるのかもしれない。…まあ、そういう展開はありえないだろうけど。

素材撮影の段階が重要 :

マスクを作りやすくするために、青い画用紙を背景にして、ブルーバック撮影の真似事をしながら素材を撮影したのだけど。結局、選択領域を一つ一つマウスで描き直してた気がする。青部分の明度・彩度等にバラつきがあり過ぎて、色選択だけではほとんど使い物にならず…。

色んな素材をCGで合成することで、たしかに色々な表現ができるのだけど。素材のマスクをサクッと作れる方法を知ってないと、そのへん厳しいのだなと。合成して、画面が出来ていく様子を見るのは楽しいけど。マスクを作ってるだけの作業は全然楽しくないッス…。

動いてしまえば光源の向きは結構気にならないかも :

素材の光源はめちゃくちゃなのだけど。こうして見てみると、結構気にならないものだなと。ただ、複数の素材が合成された場合は、さすがに光源の違いが悪影響を及ぼす可能性が高そうな予感。

onionskinがないと話にならない :

GIMP 1.2.5 + GAP で主に作業をしたのだけど。GIMP 2.x.x と違って、GIMP 1.2.5 には onionskin がなくて。仕方ないので、フレームを行ったり来たりしながら作業したり…。とにかく動きがつけにくかった。ということで、onionskin機能は、こういう遊びをする上でも必須だなと思ったり。

こうなってくると、Win版GIMP 2.x.x で GAP を使うとDOS窓がパカパカ開くのが致命的かも。2.x.x じゃないと onionskin は無い。けど、Win版GIMP 2.x.x は GAP自体が使えない。…そのことでGIMPは随分と損をしてるようにも思う。UIの統合云々より、そっちのほうをまずはどうにかしてほしい気も…。

と思ったけど、そもそもGAPを使う人なんか居ないか。いや待て。GAPが使えないから、GAPを使う人が居ないのだったりして。Linux環境ではたしかに使えるけど、そもそもLinuxユーザよりWindowsユーザのほうが、この手の遊びにチャレンジしてくれそうな印象もあるわけで。必要性をさほど感じてないLinuxユーザはGAPを問題なく使えて、でも、そもそも必要性を感じてないから使うことも少なくて。あったらあったで触ってみたいと思ってるWindowsユーザは、GAPを使えない…という図式が仮にあったとしたら、やっぱり損をしてるような気も。

つーかフツーはFLASHを使うか(爆) 特にWindowsユーザならそっちを選びそう。わざわざGAPを使って遊びたいと思う人なんか居ないよな…。

ん? もしかすると、GAP が FLASH の swfデータを吐き出す機能を持ってたら、Windowsユーザから、「ギブミー、GAP!」という声がめっちゃ上がるのだろうか。と、バカ妄想。

*1: Canon PowerShot A300。
*2: と言っても、全フレーム分の素材を撮影したわけではなくて。拡大縮小を使ったり、座標を変えたり、そのぐらい。
*3: ふと思い出したのが、低コストで作成されたという3DCGアニメ「Alice」。以前鑑賞したとき、冒頭のあたりで不自然さを感じたことが。件の作品は、3DCGの質感だけど、どうも3コマ撮りで人物等を動かしてた感じで。<ちと自信はないけど。…ということで、やはり、質感が現実に近づけば近づくほど、動きに必要なコマ数も増えていくのかも。

2004/03/09(火) [n年前の日記]

#1 [nitijyou] お呼びがかかった

昨日の夕方、チラシ作成の件で電話があったらしい。今日、電話で連絡したところ、修正点があるので来て欲しいとのこと。明日のPM1:00に伺う事に。

買い物に :

スーパーまで夜食関係を買いに。自転車で。…運動不足を痛感。

#2 [windows] キャプチャ関係のフリーソフトをインストール

色々入れた。

_CaptureLight :

軽いキャプチャソフト。Win98を再インストールした際に入れ忘れてたので、再度Win98上でインストール。…コレ、WinXPでは動くんだろうか。謎。

Huffyuv :

動作が比較的軽いらしい、可逆圧縮codec。可逆圧縮なので画質劣化がない、けど、その分容量は食う。 _日本語化パッチのページ から辿って、本体zipを入手。また、日本語化パッチも入手。

インストール手順。本体のzip解凍後、huffyuv.dllの置いてあるディレクトリに日本語化パッチを解凍して、日本語化パッチの.exeを実行。本体のzipに含まれてた.infを右クリック→インストールを選ぶ。

ちなみに、これはWinXPでも使えるみたい。

_AviUtl :

キャプチャ後のavi内容を確認して、特定フレームを取り出す為にインストール。WinXPでも動いた。

_AviUtl用、フレームブレンドプラグイン :

こんなものがあったとは。 _こんな画面(400Kbyte、png)_このように。(200Kbyte、png) ありがたや。

こういう処理が出来たら、アニメ動画キャプチャで効果を発揮するのではと妄想してたのでありますが。ここまで効果があるとは。 *1 これで更に、特定範囲を処理から除外する機能がついたら便利かも。口パク部分だけ非処理の範囲指定をすれば、多くの箇所で、多くのフレームを利用して、美しい画面が作れそう。…いや、一々範囲指定をするのが大変だし、その範囲を記録しておかなければならないだろうしで、実現は難しいだろうけど。

*1: アニメの場合、静止画がずっと表示されてるシーンが多かったりするのだけど。それらのシーンの全フレームを合成・平均化して置き換えれば、ノイズがなく、かつ、ガタつかない画面が作れるのではないかと。

#3 [digital] _YUVフォーマット及び YUV<->RGB変換

頭が爆発しそう。

#4 [anime] 環境整備と動作確認も兼ねて久々にキャプチャ

せっかくの機会なので、スピカのマッハバンドの画面をキャプチャ。
環境
ソースVHS3倍録画
録画ビデオデッキPanasonic NV-SB88W
再生ビデオデッキ15年前ぐらいに買ったアジア製VHSビデオデッキ
キャプチャボードIO-DATA GV-VCP/PCI (BT848ボード)
キャプチャソフトCaptureLight
codecHuffyuv
フォーマットYUY2,640x480
入力端子コンポジット
編集ソフトAviUtl + フレームブレンドプラグイン
結果画像 _[1] _[2] 。png画像。どちらも200Kbyteぐらい。 *1 一応かろうじてマッハバンドらしきものが見えるような見えないような。と思ったけど、BT848で取り込んだ時点で、あるいはビデオテープに録画した時点で、画像情報って少なくなってるよう気も。それじゃマッハバンドが出てくるのも当たり前か。 *2 キャプチャした意味無し。…でもまあ、環境整備には繋がったから、いいか。

再生機器の問題だったりはしないかな :

実は、自分が見てたTV自体に、マッハバンドが見える原因があったりしないだろうか。メモリが少ないとか、AD・DAコンバータの精度が低いとか。

BSアナログの仕組みからくる問題だったりはしないか :

どこかに資料が無いものか。今は、BSデジタル、地上波デジタルの時代なので、BSアナログの資料は見つからず。

*1: デジタル処理に頼ってるが故にアナログ部分はヘロヘロらしいビデオデッキで、何度も上書きしてる安物VHSテープに3倍録画、それを昔のアジア製ビデオデッキで再生して、しかもキャプチャ作業では鬼門のコンポジット入力という最低最悪のソースなので、取り込んだ直後は「こりゃダメだ」と絶望的な気持ちに。しかし、動きが無いシーンを選んでフレームブレンドしたら、信じられない美しさになりました。ビバ!フレームブレンド。と言ってもさすがに限界があるけど。
*2: 先日マッハバンドに気付いたのは、本放送視聴時の話。

#5 [anime] ビデオテープを再生しっぱなしにしてたら

スピカの昔の回――閉鎖環境云々の回が残ってた。見ていて唸った。作画のクオリティが異様に高い。何より女の子3人の絵に萌力が溢れてる。…この頃は作画に関して余力があったのだな。

#6 [anime] 3DCGのトランスフォーマー

TVつけてたら流れてた。なるほど。セルシェーディング(?)とやらでロボットを。静止シーンだけ見れば人力で描かれた絵と上手くマッチしてる。動きの枚数に関しても、いわゆるセルアニメを意識してるような感じ。しかし、何故こんなに見づらいんだろう。何が描かれてるのか、どう動いたのか、一瞬判らなくなる。手で描いたロボットの画・動きと、何が違うんだろう。…線の情報が多すぎるのかな。「如何に情報を削るか・隠すか」という技術研究開発が、今後必要になっていきそうな。

2003/03/09() [n年前の日記]

#1 [anime] 555とナージャ

ビデオに撮ってた先週の555、ナージャを鑑賞。

555 :

555。オルフェノクトリオ3人目の演技に感心。見てるだけで面白い。このままではライダー側トリオが負けそう。にしても、人間体の時はどっちが正義でどっちが悪かさっぱりわからないところが面白い。さすが井上脚本、であろうか。お約束をお約束で崩す事にかけては天才的。

ナージャ :

緻密で繊細な演出。そしてあまりにも美し過ぎる舞踏シーンへの流れに感動。そのシーンだけ5、6回繰り返し鑑賞したぐらい。これほどまでに美しい演出をした人は一体誰だろうと思ったら細田守氏だった。なるほど道理で。5話を演出するという話をどこかで目にしてたはずが忘れていた。見逃さなくて良かった。

#2 透過光らしき表現を得ようと悩むも

主に画像フォーマット変換作業において上手い方法が見つからず。 _

#3 [digital] αチャンネル付連番png変換

手持ちのツールのみで透過光らしき表現を得ようとして悩む。

作業の流れとしては、
  1. FLASH4で透過光用マスクの動画を作成。αチャンネル付連番pngで書き出し。
  2. Photoshop、あるいは、Gimp for Win32で連番pngに対しフィルタ処理適用。αチャンネル情報を持たせたまま連番pngで保存。
  3. FLASH4でαチャンネル付連番pngを読み込み。フレームに配置。
となるはず。問題は2番。αチャンネル付連番pngを各種CGツール上で如何にして出力するか、という点である。Windows版FLASH4においては、pngを介する以外にαチャンネル付でビットマップ画像を読み込む方法は無い。故になんとしてもαチャンネル付連番pngを得なければならない。

実現方法はいくつか思いつく。検討、あるいは実際に試してみた。
  1. Photoshopのアクションを利用する。 → ループ実行毎に変化するフィルタパラメータを与える方法がわからず。実験するまでもなく挫折。
  2. Gimpであれば、連番ファイルを動画フレームとして扱い、各フレームを1ファイル中の複数レイヤーへ配置、更に全レイヤーに対しフィルタパラメータを変化させつつ適用可能。それら機能を利用する。 → 結果を連番xcf(.xcf=Gimpの画像ファイルフォーマット)で保存することは可能だが、連番png保存は出来なかった。
  3. Gimpで保存した連番xcfを、別の変換ツールでαチャンネル付連番pngとして保存。 → ImageMagicKを導入し試してみるも、αチャンネル情報消失。xcf→psd変換してみるもPhotoshop 5.0では読めないpsdが出力された。Windowsにおいては、xcfが変換可能なツールの存在を期待できない点も痛い。CGの世界では、xcfはある種存在しないものとして扱われている。ImageMagicKですらReadのみ対応・Write非対応であることからも扱われ方が判る。
  4. Gimpで、複数レイヤーを持ったpsdとして保存し、「ぜんまいはうす」が公開している「psdを読み込んで各レイヤーをavi出力するツール」でαチャンネル付aviとして出力。 → 案の定、αチャンネル付aviとしては出力できず。αチャンネル情報は失われる。αチャンネル付aviとして出力できれば、もしかするとFLASH4で読み込み可能かもしれないし、そうではなくてもαチャンネル付avi→αチャンネル付連番pngとして保存できるツールが存在するかもしれないと思ったが。
…こういった状態で、上手い方法が見つからない。手はないものか。


FLASH4の半透明処理において、Photoshop等に見られる「乗算」「スクリーン」等多数の合成モードをサポートしていない点も透過光的表現に関しては致命的。あくまで想像だが、透過光表現の合成時に最低限求められるのは、「ドットのRGB値を加算し、255をオーバーしたら255にする」といった合成処理…おそらくPhotoshopでいう「スクリーン」に相当する合成処理ではないだろうか。(「スクリーン」が実際にそういう処理かどうかは知らない。) しかし、FLASH4の半透明処理はそういった合成方法ではない。ベースとなるRGB値と重ねるRGB値の割合を調整して半透明を実現しているように見受けられる。となると、色味が濁る部分・グレー色が画面に出てしまい、結果としては汚い画像しか得られないのではないか。もっとも、フィルタ処理を適用したαチャンネル付連番pngを得る事は、透過光表現に限らず、FLASH4上での表現力は増すはずではある。
ImageMagicKのcompositeを利用してオプション「-compose Plus」を付加して実験したところ、ベースとなるpngに対し、透過光的表現を付加した別のpngを「スクリーン」的に合成することが可能であった。つまり、FLASH4で実現できない多様な合成モードについては、素材毎に連番png出力し、compositeを利用することで、どうにか解消できる可能性があるように思える。ただ、compositeはコマンドラインから利用するツールであり、なおかつ複数ファイルをワイルドカード等で一気に与える事はできない。かといって一々各ファイルの合成指示をキーボードから打っていくのは非効率。BATファイル、Perl、WSH等スクリプトを作成して自動化を図らない限り、それら合成作業は現実的ではない。また、αチャンネルを利用した合成が可能であるか現時点では把握できていない。もし出来ないとすれば万能とまでは言えず、場合によっては使える、程度の扱いが望ましい。
ImageMagicKのmogrifyを利用してαチャンネル付連番pngに対しぼかし処理を試してみたところ、αチャンネル情報は破棄されずに維持されていた。つまり、ImagicMagicKのユーティリティ群に用意されたフィルタ機能で済む処理内容であれば、PhotoshopやGimpを介さず、ImageMagicKのみの利用で作業は完了する。しかし、ImageMagicKが内包するフィルタ数は多くはない。よって、おそらく目的を果たせない場面が多々あるだろうと予想する。(それでもフリーで利用できるこの手のツールにしてはフィルタ数は多いほうなのだろう。) また、αチャンネルについてもフィルタ処理が適用されていたかまでは確認できず、フィルタ処理により得られる品質についても確認できていない。検証が必要。
Gimpの連番png保存についてネットで情報を探してみたが、各レイヤーを連番png保存できるスクリプトが公開されていた。これが利用できれば問題解決である。しかし残念ながら、導入して実行してみるも、保存されたpngはαチャンネル情報を残してはいるが、なぜか多数のノイズが載っていて使いものにならない。また、動作させる度に、違う色・違う場所にノイズが出る。原因を考える。
  1. メモリ異常? → Memtest86v3.0でチェックするも問題は無かった。
  2. Gimp動作時に共に動いている常駐アプリの仕業? → それらを停止してみるも症状変わらず。
  3. ビデオカード(G400)の問題? → G400のバスマスタ転送等、関連性がありそうな設定をoffにしてみるも変化無し。
となるとおそらく、Windows98上でのGimp foe Win32の動作か、スクリプト内容に問題がある。スクリプト内容を眺めた範囲では、 等を予想したが、知識が無い故確かな事がわからず、修正すべき内容も皆目検討がつかない。かといってScript-fuを積極的に勉強したいという気にもならず。Script-fuは、「納得のいかない妙な記述を要求される場面が多い」「勉強してもGimp以外に知識を流用できない」「将来性が期待できない」等の話もあり。スクリプト動作不具合であるかどうかを検証する為、勉強する手間隙をかけてみても、はたしてどの程度報われるのか不安。そもそも、Gimp for Win32においてはSucript-fuの動作で一部問題ありとの話も見かけた。Script-fu習得以外の解決方法があるならそちらに頼りたい。
また、Windows版はGtk実装状態の関係上タブレット利用も制限されている。Script-fuの件と言い、タブレットの件と言い、Windows上で無理にGimpを使うのではなく、メインPCにLinuxもインストールして、そちらで各種作業を実験してみた方が良いのかもしれない。Linuxであれば、Win版は開発中止になったVideomaidも開発続行しているし、FilmGimp(CinePaint)という動画に特化したらしきGimpも存在する。また、Gimp自身でavi保存が可能であるかもしれない。(GimpのマニュアルにはaviのRead/Writeが可能と書かれているが、今現在利用している日本語Win版Gimpにおいてはavi保存の仕方が未だにわからない。もしかするとWin版はavi保存について未サポートなのかもしれない。) などを考慮すると、フリーソフトを用いたavi編集作業においては、Linux導入によりメリットが得られる可能性は高いかもしれない。

(2003/03/16追記:
ゴミが出る原因が判った。やはり初期化していない事が原因らしい。
(gimp-drawable-fill tmp-layer TRANS-IMAGE-FILL)
を、
(gimp-image-add-layer tmp-img tmp-layer 0)
の直前に入れたところゴミが出なくなった。
(gimp-selection-all tmp-img)
(gimp-edit-clear tmp-layer)
(gimp-selection-none tmp-img)
も試してみたが、こちらは症状変わらず。)
AfterEffectsがあればこんな苦労はしなくて済むのだろう。所有していないし触った事もないので実態は知らないが、おそらく一瞬で同様の作業は終わり、表現出来る事も多いに違いない。しかし、Standard版でも10万円というのはやはり高すぎる。手が出せない。PhotoshopやPremiereのようにLEやElementsが発売されないものだろうか。もっとも、発売されても今の自分には購入できないのだが。

色々試してはいるものの、やはり現状では、「PCを利用した個人によるアニメ制作=金持ち、あるいは犯罪者しか実行に移せない」状態であるように思う。自分も、PhotoshopやFLASH4を所有していたから実験してみようという気持ちになったが、もし所有してなければ到底手を出そうという気持ちにすらならなかっただろう。8mmカメラをPCで自動制御してた頃に比べれば状況は良くなったのだろうが、もう少しなんとかならないものだろうか。アニメ制作の垣根が低くなり、それら作業に触れる人が増えれば、才能を持った人間が登場する可能性も今以上に期待できるのではないか。
もっとも企業からみれば、それらソフトの価格は得られる機能に対し比較的安価に設定しているつもりであろうし、普及といってもソフトの性質上、爆発的な利用者数増加は期待できないであろうから、専門家用のソフトとして個人から見れば高値になるのは致し方ないのかもしれない。

むしろ個人的には、AfterEffectsよりFLASHの価格設定のほうが疑問だ。Macromediaは「FLASH classic」的ラインナップ=機能制限を加えた廉価版を市場に投入してもいい時期だと思う。FLASHはアマチュアの動画制作作業を根底から変える可能性がある。小学生にすら気軽に動画を作れてしまうツールが普及する事は、映像文化をも変えてしまう可能性を秘めているようにも思える。それら変化が価格という要因によって阻害されているなら惜しいことだと思うのだが。

2002/03/09() [n年前の日記]

#1 歯医者

おねティ、エンコ中。


歯医者行ってきました。
糸切り歯に、ちゃんとしたのがつきました。
一見すると白い歯みたいだけど、裏側は金属(?)が剥き出し。

2001/03/09(金) [n年前の日記]

#1 露天風呂

親父さんと一緒に、シビックで山まで水汲みに。
ここ2,3日は天気が荒れるとの予報が心配だったけど。
ところどころ危ないところはあるものの、ほとんど乾いてて助かりました>山の中の路面

水汲みってのは…
ウチ、飲料水に関しては、山とか井戸とかに行って汲んでくるのです。
何年か前から、親父さんの趣味(=写真)も兼ねてやってるらしく。

自然の中の水を飲んじゃうと水道水は臭くて飲めない、とはお袋さんの弁。
たしかに須賀川の水は汚い。
もちろん汚くしてるのはそこに住んでる自分達なんですが…

帰りに岩瀬村の村営?温泉に入ってきました。
須賀川の市営温泉施設とは雲泥の差。とても綺麗。
1階が温泉施設、2階が保健センターだそうで。
近隣の御歳を召した方々がかなり集まってました。
露天風呂もあって、結構気持ち良かったです。

それにしても…
働きもせず平日の真昼間から爺さん婆さん達と一緒に温泉…
そのうち絶対、手酷いしっぺ返しを食らいそう。

と思ってたら、早速食らいました>しっぺ返し
内容は恥ずかしすぎて書けない…俺はボケ老人か…
いや、きっと昨日今日の運転で疲れてたんだ…そう思いたい…


「ダウンロードって何?」
という問いに即座に答えられない自分を発見。
改めて考えると…どう説明すればわかりやすいのだろう。

2000/03/09(木) [n年前の日記]

#1 (NoTitle)古いゲームラボを廃棄...

古いゲームラボを廃棄。
オイラはコンシューマ機でのゲーム改造を趣味にしてないので、ほとんどのページをそのまま廃棄処分。
そういや、たまたま中を読んでたら『なんとかガスを使ったCPU冷却で、あなたのPCも450MHzの世界に突入かも!?』なる記事が。ホントこの世界は進歩が速い。数年前の話なのになぁ。

居間のコタツでまた寝てしまう。
テレホタイムが無駄に…
まあ昼起きて夜寝る生活だから健康的っていえば健康的なんだけど。

1999/03/09(火) [n年前の日記]

#1 (NoTitle)パソコン、動きました...

パソコン、動きました。
ケーブルの接続やCPUクーラー取りつけは上手くできたようです。
で、肝心のNHKの映りですが…変わりません。トホホ。
とりあえず内部のケーブルの位置をゴショゴショいじったら、TVの縞模様が減りました。
やった!
…と思ったのもつかの間。
一階の家族団欒用TVの画面は相変らずのひどい縞模様。ウエ〜ン。(;_;)
これはもうお手上げです。なにか他に対策はないものか…。
それにしても、雑誌やらNiftyやらインターネットやらでこの手の情報を調べてみたのですが
全くと言っていいほど情報を目にする事がありません。なぜだろう…?
昔、MZやファミコンを使うとTVに縞模様が入った記憶があるので、
こういった事っていうのは、結構あちこちで発生していると思うんですけど。
不思議だ…。

あ、SoundBlasterPCI128の使用感ですが…なんかSB64とそんなに変わらないような気が…。
MIDIの音は、やっぱりSC-88VLの音のほうがしっとりしていて好きだし。
私、4チャンネルも使うゲームなんてプレイしたりしませんし…
なんだか無駄な出費だったかなぁ。

以上、21 日分です。

過去ログ表示

Prev - 2019/05 - Next
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31

カテゴリで表示

検索機能は Namazu for hns で提供されています。(詳細指定/ヘルプ


注意: 現在使用の日記自動生成システムは Version 2.19.6 です。
公開されている日記自動生成システムは Version 2.19.5 です。

Powered by hns-2.19.6, HyperNikkiSystem Project