mieki256's diary



2012/07/01() [n年前の日記]

#1 [prog] HTML5 Audioをまだ勉強中

ようやく、複数のサウンドファイルを順に鳴らすことができるようになった。

jQueryを使っているなら書き方が楽になるらしい。 :

jQuery を使っているなら、$.get() でファイルを読み込むことができるらしいと知った。知らずに、自分で XMLHttpRequest を確保してた…。トホホ。

Google Chrome はローカルファイルを読めない。 :

Google Chrome では、そのままの状態だと、ローカルファイルを読み込むことができないらしい。テキストファイルを読めなくてハマった…。

起動時にオプションとして
--allow-file-access-from-files
をつけることで、ローカルファイルにアクセスできるようになるらしい。以下の記事が参考になった。ありがたや。

_Google Chromeでは(Ajaxで)ローカルファイルにアクセスしようとするとエラーになることについて、他 - エンジニアのソフトウェア的愛情
_起動オプション - Google Chrome まとめWiki

スライダーを貼りたいのだけど。 :

HTML5 では、input type="range" が増えたらしく。これは便利そう、と思いきや、Firefox では未実装だそうで。ぎゃふん。

jQuery UI なるものがあると知り、そちらを使うことでも似たようなソレができるそうで。一応ソレでどうにか。

_html5slider: <input type=range> for Firefox なるものもあるらしい。

2012/07/02(月) [n年前の日記]

#1 [web][neta] 昨今のFLASH叩きにムカムカ

自分は、FLASH 2? 3? の頃から ―― まだ Macromedia が出してた頃に触り始めたのだけど。

その頃の FLASH は、やたら敷居の低い、グラフィックツール / ドローソフト / アニメ制作ソフト、ぐらいの存在で。ActionScript なんて無かったから、プログラミング? 何それ美味しいの? 状態。どう見ても絵描きのためのソフト。…当時の FLASH なら、小学生でもちょっと勉強すればアニメが作れるぐらい、簡単で優しいソフトだった。

ところがその後、Adobe が Macromedia を買収、ActionScript実装、開発環境がどんどんプログラマー寄りになって、最新の動画フォーマットをガチで再生できるようになって、公式ソフトの値段が跳ね上がり…。

「何コレ? おもしろーい」とサラサラ描ける道具だったのに。絵なんか描いたことなさそうな人達がぞろぞろ集まってきて、色んな注文付けて、手を入れて、変わり果てた。最初の頃、FLASHと言えばソフトだったけど、今は違う。各人が、何を FLASH と呼んでいるのか、分からなくなっている。

で、ここに来て。Apple と Adobe の戦いに Apple が勝利した! Adobe は負けた! FLASHは死んだ! だの。これからはHTML5+JavaScriptの時代だ! だの。とにかく FLASH 叩かれまくり。まるで、FLASH が存在していること自体が悪、てな空気すら。

いいかげんにしろ。

絵描きや子供達の手から奪い取って、お前達が好き勝手に弄りまくってグチャグチャにしておきながら、ああもうコイツ要らねえや、さっさと消えろ、目障りだよオラァ!と路上に蹴り出すかのような。そんな扱いするぐらいなら、最初から最後まで、ずっと絵描きの手元に置いとけよ!

それでもまだ、後に残るものがあるならば、まあいいかなと思えるだろうけど。もはや全く、そんな期待はできないし。

今の FLASH CSx のUIは、もうお絵かきソフトのソレじゃねえよ! こんなの、小学生にオススメできるわけがない。自分ですらわけわかんないし。中途半端にプログラマー向けにしたまま放り出しやがって。

それに、昔に比べたら値段も随分高くなってしまった。「なんだか面白そう」なノリで手が出せる値段じゃない。昔はもう少し安かったのに。

そもそも、FLASH CSx 自体がもう無くなりそう。

FLASH で出来てたことが、ブラウザの標準機能でできるようになる。それはそれで良い展開かもしれない。けれど。最初の頃の、「FLASHというCGソフト」が持ってた、あの楽しさ。一体どこに行ってしまったんだろうと。気楽に描けて、アニメもできる、小学生でも使えそうだと思わせる敷居の低さ。道具としての楽しさ、面白さ、軽快さ、気軽さ。どこに行った? 誰か引き継いで、育てていますか? 育ててないよね。すっかり忘れてる。

そもそも、忘れる以前の話か。そういう良さを内包しいてた道具なのだと、そんなことすら知らない人が大半だろうし。曲線一本すら描いたことないんだろう。だから「FLASHはさっさと死ね」とか軽々しく言える。最初の頃の FLASH が持ってた可能性を少しでも知ってるなら、「惜しい」「もったいない」「どうしてこうなった」という感想になるはずで。

Adobeが作ってきた、プラットフォームその他としての FLASH はともかく。ほぼリアルタイムにベクターデータを扱えるからこそ実現できるインタラクティブ性を持ったお絵描き体験てな感じの、初期のFLASHの良さぐらいは、そろそろ絵描きや子供達に何らかの形で返せ! その程度の責任ぐらいはちゃんと取れ! てなことを思ったりもするのです。 *1

何か光るものを持っていた田舎娘が、都会に連れてかれて、事務所の言うがまま整形して化粧して、とうとうナマハゲのような見た目になり、捨てられてしまう。そんな展開を見ている気分。お前達は知らないんだろうけどなあ、この娘は、田舎に居た時は、ただフツーに話をしてるだけでこっちが浮き浮きしてくるような、そういう種類の娘だったんだよ! 大きくなったら美人さんになるだろうなーと思ってたら…。チクショウ…こんな姿にしちまいやがって…。しかも罵倒までして…。お前達は、FLASHの魅力が分かってねえんだよ! このにわか野郎共めが!

みたいな感じで、FLASHを叩く発言の数々を見ていると、少しムカムカしちゃったりもして。この人達、絵描きの存在を忘れてるなと。考え過ぎかもしれんけど。
*1: 別にそのへん、FLASH というソレに拘らなくてもいいのだと思う。ブラウザ + HTML5 + JavaScript + SVG 等で、初期の FLASH が持ってた楽しさを車輪の再発明してみる、てのもアリだろうし。

2012/07/03(火) [n年前の日記]

#1 [nitijyou] 暑くて何もする気が起きず

室温32度ぐらい。まだエアコンをつけてないけど、そろそろ厳しい。

#2 [pc] zip中のファイル名を直接変更できるソフトってあるのだろうか

解凍するとファイル名が長過ぎてエラーが出るらしいzipがあると知ったのだけど、zip中のファイル名を書き換えることができたら多少はどうにかなるのに、と思えたり。

しかし、少し探してみたけれど、そういうソフトは見つからず。zipの仕様からして難しいのだろうか。…そもそも、そういうzipを作るなという話なんだろうか。でも、システムによっては無駄に長いファイル名を駆使して動いている場合もあるだろうし。長いファイル名は使うな、なんて言ってたら、バックアップ作業等に使えない、あてにならないフォーマット、と判断されちゃうよなあ…。

2012/07/04(水) [n年前の日記]

#1 [nitijyou] 100円ショップで買った温度計が10度近く異なる数値を出していてなんだかな

他の温度計 ―― 980円ぐらいで買ったデジタル時計についてる温度計や、昔から部屋に転がっていたらしいアナログな温度計は、34度ぐらいを示しているのだけど。ダイソーで買った温度計は、42度ぐらいを示していて。一体どの温度計が信用できるのやら。まあ、ダイソーのが一番怪しいと予想してるけど。

100円ショップの温度計は、値段の高い温度計の横に置いて、どのくらいずれてるか把握した上で使え、みたいなノリなんだろうか。

2012/07/05(木) [n年前の日記]

#1 [zatta] なら、SPEEDIはぶっ壊して関係者全員クビにしろや

腹が立ってしょうがない。

_事故調“SPEEDI 正確性持たない” NHKニュース
事故調“SPEEDI 正確性持たない" 7月5日 20時8分

原発事故の際に放射性物質の広がりを、気象情報などを元に予測する「SPEEDI(スピーディー)」と呼ばれるシステムについて、国会の事故調査委員会は、予測に用いる気象情報の精度に限界があるなどとして、「初動の避難の根拠にできるほど正確性を持つものではない」という見解を示しました。

福島第一原発の事故では、SPEEDIの計算の前提となる放射性物質の放出源の情報が地震の影響で得られず、政府は震災当日から予測を計算していたにもかかわらず、一部を除いて1か月後以上公表していません。
このSPEEDIについて国会の事故調査委員会は「予測に用いる気象情報の精度に限界があり、雨や雪といった刻々と変わる気象情報を反映させて避難の指示を決定するには現実的に困難である」と評価しました。
そのうえで特に放出源の情報が得られない場合には、「初動の避難区域の設定の根拠にできるほど正確性を持つものではない」とという見解を示しました。
また、政府の対応に対して、「SPEEDIの機能について十分な説明を行わなかったため『避難指示に有効活用できる』という誤解と混乱を住民に持たせた」として、問題があったと指摘しています。SPEEDIを巡っては、すでに報告書をまとめたそれぞれの事故調査の委員会で評価が異なっていて、政府の事故調査・検証委員会は「今回の原発事故で仮にデータが提供されていれば自治体や住民は、より適切な避難経路を選ぶことができた」としたほか、民間の事故調査委員会も「住民の被ばくの可能性を低減するため、最大限活用する姿勢が必要だった」としています。

事故調“SPEEDI 正確性持たない” NHKニュース より

コイツラの言うことが本当なら、役に立たないシステムに貴重な血税ツッコんでいても無駄だろう。だったら、SPEEDIを破壊・廃棄しろや。関係者を全員クビにしろや。…もちろん自分は真逆のことを ―― あのぐらい予測ができるなら存在・運用する意味があるし、今後もより強化していくべきシステムだと思ってるけど。そもそも国防に関するシステムだから、正確性を持たないなら正確性を増すように改善必須なんだよ。正確性を鑑みて情報公開しない、なんて選択肢は導き出しようがないポジションのシステムなんだけど? わかってんのか?

「俺達、悪くありません!」と国会議員その他に言い訳させるための援護射撃、ということなのかなあ…。当時の予測結果は、大味だけど結構当たってたと思うのだけど。どういう言い訳を用意して、正確性が無いことに仕立て上げようと企んでいるのか。

つーか正確じゃなくても公開すべきなんだよ? 科学の限界はあって当たり前。人間は神様じゃないんだからピッタリの正解なんか出せるかボケ! シミュレーションである以上、外れる可能性が必ずある。なのに、コイツラ今頃になって一体何言ってんだ? シミュレーションを何だと思ってるんだ?

ここまでは予測したけど、当たってるかどうかは怪しい、でも全然構わないから公開すべきだったという話で。公開して仮に外れても、科学の限界だから仕方ない、これからも研究を進めていくしかないよな、で大半の人は諦めがつくんだってば。…緊急地震速報もそうでしょ? 同時に2ヶ所で地震が起きたら、めちゃくちゃな予測になることが原理からして確定してるけど、無いよりはマシだわ、てなノリで納得できてるでしょうが。SPEEDIも同じなんだってば。

でも、そこで情報を隠しちゃったら、政治家や役人達が『悪意』で情報を隠したんだな、という話になってしまう。科学云々の話が、悪意云々の話に変化しちゃうから、マズイんだって。それを避けるために公開しろって言ってんだよ。

無駄に国民を馬鹿扱いするのはやめろや。予測と実測の区別もつかない馬鹿ばかりだから予測結果なんて迂闊に出せません! と主張してるわけだろ? 一体どこまで国民を馬鹿にすれば気が済むんだ。

日本国民である以上、義務教育を受けてるのだから、科学に対してちっとは素養があるはずで。だから、「これはあくまで予測結果です」と一言付け加えればそれで済むんだよ。もし、それで済まないとしたら、今までやってきた義務教育の中身がおかしいことが証明されちまうだろうが! 文科省は今まで何やってたんだ? 義務教育なんて無駄だったのか? という結論をお前等は導き出したいのか? いや、個人的には、義務教育も一部中身がおかしいと思ってるけど、強制してる側が中身がおかしいと言い出したら、建前が破綻しちゃうだろ。

どう考えてみても、その、国会の事故調査委員会とやらの見解は、色々と筋が通らない…。なんで素直に「公開すべきだった」という話にならんのだ。そうしないと辻褄が合わなくなるだろう。こっちは建前だけでも一本筋を通せと言ってるだけなんだが、建前レベルのロジックすら構築できずに自ら破綻させてどうすんだ、この馬鹿! みたいな。

結局この国は、何も反省してないんだろう。また事故を起こしても、同じことが繰り返されるんだろう。…いいかげんにしろ。俺達が被ばくしたのは無意味か? 完全に無駄だったのか? ひたすらやられっぱなしで諦めろってか?

せめて、事故を活かして改善する見込みぐらいは見せろ! 酷い目にあったけど、その分少しは世の中良くなりそうだと思わせろ! 精神的なリターンが何も得られそうにないのが一番ツライ。小さい希望すら見出せないのがツラいんだよ!

まあ、とにかく、腹が立ってしょうがないです。とメモ。

_スパコン“京”が完成し公開 NHKニュース :

SPEEDIが正確ではないと言うのであれば…「1番じゃなきゃダメなんです!」の例のスパコンでどうにかできないのだろうか。

どうにかできないのだとしたら、何のために血税をブッコんだのかと。やっぱり富士通を儲けさせるのが第一目的程度の話だったのかなと思ったり。

2012/07/06(金) [n年前の日記]

#1 [nitijyou] 自転車で買い物に

親父さんの電動自転車を借りて買い物に行ったのだけど、帰ろうとしたら外は雨が降り出して。濡れながら帰ってきたけど、自転車、大丈夫だろうか…。電動自転車って防水設計になってるのかな…。

#2 [dtm][prog][javascript] HTML5 Audioをまだ勉強中

各サウンドを呼び出す割合、みたいなものを設定して、それに応じて次々とサウンドを鳴らすようにしてみたり。割合を全部足して、その値で乱数を出して、対応するサウンド種類を鳴らす、みたいな。これは正確な割合にならないことは分かってるけど、大体ソレっぽくなればいいかなと。

本当なら、以下のようにしたほうがいいのかも。 メモリを馬鹿みたいに使いそうだけど。もっと上手な方法がありそうな気もする。

前に鳴らした音を途中で打ち切って、次の音を鳴らす際、ブツブツとノイズが入って困っていたり。前に鳴らした音をフェードアウトしてから次の音を鳴らしたほうがいいのかもしれん。いや、前の音はフェードアウトしつつ、次の音はフェードインして鳴らしたほうがいいのだろうか。試してみたが、スムーズに音が切り替わっているようには聞こえず。次に鳴らそうとしている音の音量が、小さい状態になっているような…。そもそも、volume プロパティの値は、本当に反映されているのだろうか。そこだけ動作確認するスクリプトを書いてみたほうがいいかな…。

2012/07/07() [n年前の日記]

#1 [dtm][prog][javascript] フェードアウトに関して実験中

フェードアウトというか、フェードインというか、クロスフェードというか。前の音をフェードアウトさせながら、次の音をフェードインで鳴らす、みたいなことを HTML5 + JavaScript で実験中。本当に volume の変更は効いているのかどうか確認するために。

とりあえず、動作確認ページを書いてみたり。

_HTML5 Audio Fade Test1 (2016/09/04, 2017/03/19 置き場所変更)

Firefox と Google Chrome 上では一応それっぽく動いた。しかし問題が。 根拠が無い勝手な想像だけど。即座に音量変化が行われないあたり、ブラウザ側が一定間隔で音量変更のための処理をしている予感。JavaScript 側が音量変更の指示を出すタイミングと、実際に処理が行われるタイミングがずれている気がする。根拠はないけど。

フェードアウト時の音量変化のさせ方についても悩んでしまったり。直線的に音量変更するのと、曲線的に変更するのと、どちらがいいのやら。以前その手の解説記事をどこかで目にした記憶があるのだけど、検索しても見つからず。

2017/03/19追記。 :

Dropboxのpublicフォルダが死んだのでファイルの置き場所を変更。

2012/07/08() [n年前の日記]

#1 [dtm][prog][javascript] 複数の音を連続して鳴らす処理を実験中

前に鳴ってた音を途中で切る際に、フェードアウトさせながら切る方法と、Audio.muted = true で切る方法を試してみたり。…効果は無かった。どっちもブツブツとノイズが入る。また、フェードアウトするほうは、前に鳴らした音と、新しく鳴らした音が、時々重なっているようにも聞こえる。何が起きているのやら。

HTML5 Audio のソレで鳴らすのは無理があるのかもしれない。Flash あたりでやったらあっさり解決、したら悲しいな。

Firefox には Audio Data API、Google Chrome には Web Audio API、なる、波形データそのものを生成して鳴らす機能が実装されているらしい。ソレを使って音を合成するような仕組みにすればいいのだろうか。しかし、Audio Data API と Web Audio API のそれぞれの処理を書かなきゃいけない予感。面倒臭い。…だったら Flash でやったほうがいいんじゃないのか。Flash を使えばIEその他にも対応できるし。スマートフォン等はガン無視になるけど。

#2 [web][neta] Firefox と Opera が mp3 に対応してくれればいいのに

HTML5 Audio に関して、ogg と mp3 の両方をページ制作側で用意することが、なんだか馬鹿馬鹿しい…。

こんだけネット上で mp3 が普及したのに、対応しないとか変な話だなと思う。例えば、png と mng は表示できるけど jpg と gif が表示できないブラウザがあったとしたら、どういう気分になるか。Firefox や Opera がやってるのはそういうことじゃないのか。…いや、mp3 はライセンス料が必要になるから云々というソレも分からないではないけれど。だったら一時期、gif表示しないブラウザになってなきゃ話がおかしいような。

しかしこのへん、IE や Safari が ogg に対応してくれればいいのに、とも思えてくるあたりもなんというか。Microsoft と Apple はどうして対応しないんだろう。金を取られるわけでもないだろうに。特に Apple は、わけがわからない。散々FlashをDisっておきながら、なんでオープンな ogg に対応しないんだ。矛盾してる。…スマートフォンとデスクトップPCでは方針が違うということなんだろうか? iPhone4 は ogg に対応してるみたいだし。

なんでネット上で、ベータとVHSの争い的なソレを繰り返すんだろう。馬鹿馬鹿しい。どれかしらのフォーマットが主流になったからと言って、日本の家電メーカのように、ブラウザを出してる企業・組織が儲かるわけでもないだろうに。ハードウェアと違って、どちらかをサポートしたらもう片方がサポートできなくなるわけでもないのに。主流にならないフォーマットに開発リソース割くのが無駄だということなら、そもそも Audio も Video もサポートしないのが賢い選択だったろう。Flash に任せてしまえば、もっとリソースが節約できただろうと。

Flash をDisるなら mp3にも対応しろ、と思う。HTML5 + JavaScript でどうにかならんかと思って勉強してたけど、途中から「Flashで実験したほうが良かったんじゃ…どのブラウザでも鳴るし…」てな気分になってきて、この現状ってなんだか馬鹿馬鹿しいよなあ、と。

でも、スマートフォン上では、Flash 動かせなくなるんだよなあ…。 *1 PCとスマートフォンで、別々のアレコレを習得しなきゃいけないのは、もっと面倒臭いだろうし。かといって mp3 と ogg の両方を用意するのも馬鹿馬鹿しい。どうにかならんのですか。
*1: Adobe AIR は残るみたいだけど。

2012/07/09(月) [n年前の日記]

#1 [dtm][javascript][prog] まだHTML5 Audioを勉強中

Webページ上で多数の音声を次々に鳴らす実験をしていたのだけど。とりあえず、こんな感じになった。

_HTML5 Audio test 2 (2016/09/04, 2017/03/19 置き場所変更)

Dropbox に置いたので、「音声リスト読込」ボタンを押した後の全音声読み込みに少し時間がかかるのだけど。一応鳴ってるっぽい。

データフォルダURLに ./voice1/ を指定して「音声リスト読込」「再生」をすれば、この実験の目指してたところが分かって、そのくだらなさに呆れかえること間違いなしなのだけど、それはさておき。ランダムに一定間隔で、細切れの音声を次々に再生すれば、それっぽくなるんじゃないかと安易に思っていたけれど、全然甘かった。以下、感じた問題点をメモ。

問題点その1。 :

前に鳴っていた音声を途中で打ち切って、次の音声を再生しようとすると、ブチブチとノイズが入って気に障る。これはブラウザの、サウンド周りの実装に起因してる気がする。

微小なフェードアウトをかけてみたり、Audio.muted = true で打ち切ってみたりしたけれど、全く改善せず。そもそも、音を聞いた限りでは、フェードアウトが出来てない予感。Audio.volume の値はたしかに変化しているが、音量変化が実際に行われるタイミングが異なっているのではないかと邪推。あるいは、現状のブラウザは、連続でサウンドを鳴らすとそれだけでノイズが入る状態なのかもしれない。

解決策としては…。
  • Audio Data API/Web Audio API を勉強して、それらを使って鳴らす。Firefox と Google Chrome 以外はガン無視。
  • Flash で作り直す。
  • Javaアプレットで作り直して(たぶん)地獄を見る。
  • PyGame や Ruby/SDL 等を使って、ローカル環境のみで実験する。
そのくらいしか思いつかず。

問題点その2。 :

これも、音声を途中で打ち切る場合の問題だけど。一旦ブチッと切って繋げてしまうと、どうにも不自然。各音声を滑らかに繋げる・変化させるための、何かしらの工夫が必要だなと。

一応、前の音声をフェードアウトさせつつ、同時に次の音声をフェードインで重ねてみたりもしたのだけれど。そもそもフェードアウトが実現できてないっぽいので、改善されたようには聞こえなかった。

ただ、このあたり、一般的な音声合成のソレとは事情が異なるから難易度は低いはず。一般的な音声合成なら、発音がはっきり聞こえないと問題があるけれど。自分がやりたかったソレは、むしろはっきり発音しないほうが都合がいいというか、突拍子もない、予測不能な声らしき音が聞こえてきたほうがそれっぽくなりそうだし。低レベルな音声処理部分に問題が無ければ、いくらでも解決策は見出せそうな予感も。…考えが甘いかもしれないけれど。

問題点その3。 :

同じ音声が続けて鳴った場合に不自然。ピッチを変える、エンベロープ相当を加味して変化を与える等、何かしら微妙な違いを与えないといけない予感。

一応、Audio.playbackrate なるプロパティで、再生速度を変更できるらしいのだけど。試してみたところ、ピッチが変化するわけではなく、本当に再生速度変更だったり、ずっとブチブチしたノイズが入ったり、そもそもブラウザによっては変化してるように聞こえない・おそらくは機能が未実装だったりで、期待してた効果は得られなかった。

ただ、これについては、事前にどんな音声データを用意するかで、解決できそうな気もする。1つの音声データから、聞こえ具合が微妙に異なる音声データを複数作り、プログラム側は同じ音声を続けて再生しないようにすればいい。もっとも、そのやり方では、音声データがどんどん増えてしまう問題もあるわけで。プログラム側で変化を与えたほうが、容量が少なくて済みそう。

問題点その4。 :

ランダムで鳴らすと、各音声の関連性が見出せず、今一つな感じが強い。「ああ、乱数で鳴らしてますねえ」と興醒めしてしまう。どの音声から、どの音声に繋がるか、別途データが必要なのかもしれない。

しかし、そういう鳴らし方は、結局は楽曲データを鳴らしているのと変わらないわけで。サンプラー音源にその手の音声を突っ込んで、MIDIシーケンサ相当で鳴らしたほうが手っ取り早いだろう、という話になりそう。

個人的には、そういうことをしなくてもそれっぽくならないか、パラメータを与えることで変化を出せないか、と思って実験を始めたわけで。最初から人間が音声の並びを全部用意できるなら、そりゃ実現は容易だけど、単なる力技になって、作業時間がどんどん増えてしまう。というか、膨大なシナリオを声優さんに渡して収録するほうが、音声が自然になるからベスト、という話にもなりそう。しかし、そのやり方では、音声に関してインタラクティブ性が実現できないわけで。画面内の状況変化に対応して音声が変化していかなければ、この手のソレを行う意味がないと思っていたり。

ということで。 :

心底くだらないことを安直な方法でやろうとしたにも関わらず、それでも結構技術的な問題点が多々見えてきてしまって、なかなか難しいもんだなと。

3Dカスタム少女とか、カスタムメイド3Dとか、このへんの処理はどうやっているんだろう…。音声データ以外の管理情報をどこまで持つのか、その管理情報をどう活用して、波形レベルでどんな変化を与えるのか、というあたりが鍵なのだろうか。いや、もっと簡単な方法で実現しているのでは、という気もしているのだけど。

2017/03/19追記。 :

Dropboxのpublicフォルダが死んだのでファイルの置き場所を変更。

#2 [anime] ノイタミナの最終回を観賞

坂道のアポロン、つり球の最終回を視聴。

以下ネタバレ。

アポロンは、イイ感じのラストだと思えた。登場人物達の セッションだけでも間違いなく盛り上がるのに、その後にOP曲が流れて、これは最終回における勝利の方程式だな! と思ったらその後 通常通りのEDが流れ始めてアレアレアレ?みたいな。何故OPを流したところでスパッと終わらないのだ…。尺が余ってしまったのだろうか…。BRSで、ED→OPで終わる流れを見ていたので、それと比べると、少々残念。

作品そのものに対しては、渡辺信一郎監督が何かのインタビューで語ってた通り、全編通して映像とサウンドで何かを伝える場面が ―― 監督曰く「映画的」と称していたソレが多く、大変好印象。アニメが総合芸術であることを意識した作り方は、制作上の制約が多いのであろう日本のアニメにおいては贅沢な作りと思うわけで。…やってる作品はちゃんとやってるけれど、やってない作品はとことんやってない・気にしてないし。アニメは総合芸術なんだよ、忘れちゃいかんよ、とコラムで苦言を呈していた故・首藤剛志さんが生前目にしていたら、おそらくは褒めてくれたであろう作品、なのではないかなあ、てな勝手な妄想すら。

つり球は、盛り上がっていたような気がする。やってることはむちゃくでツッコミどころ満載なのだけど。なんとなく、BGMの力は偉大、てなことを思ったり。 *1

カードバトルだの、ミニ4駆だの、TVゲームだの、そういったもので 世界を救うアニメは見かけた気がするのだけど。 釣りで世界を救うアニメは、今まで見た記憶が無いような。もしかすると、つり球は、そういう面では世界初のアニメ、いや、世界初の映像作品だったんじゃあるまいか、と今頃気が付いたり。…いや、自分が無知なだけで、既に存在してる可能性は高いか。なんだか戦隊シリーズの一エピソードで、そういう設定がありそうな気もしてきた。

UN-GO、ギルクラ、BRSも含め、アニメ砂漠の田舎にとっては、とてもありがたい枠だなと。ノイタミナ、ありがとう…。心の中で手を合わせ拝みながら視聴させていただいております。
*1: 曲と叫びでどうにかしちゃうあたり、考えてみたらギルクラとほとんど似た感じの最終回だったような気もしたり。なのに印象が違ったのは、もしかすると絵柄のせいだったりもするのだろうか。かっちりした密度の濃い絵柄では、それに相応しい密度を持った内容を、無意識に要求してしまう…? つり球はさっぱり系の絵柄だから、そういったものを要求せずに済むのでハードルが下がる…? いや、単に、期待値で印象が違っただけかも。ギルクラは最終回数話前の時点で、自分の中では妙に期待しちゃってたし。期待しながら作品を見てしまうと、えてして面白さを感じなくなるのでマズイと分かっていたのに…。それでも期待してしまったあたり、ギルクラもよく出来た作品だったのだろうと思っているのだけど。

#3 [neta] しょーもないもので世界を救う設定ってなんとなく好き

しょーもないもの、と言ってしまうと語弊があるけど。普段、さほど気にしてないソレが世界を救う、的な。 他に何かないかな。そんなもんで世界を救っちゃうの!? 的な。

逆の設定もアリか。そんなしょーもないもので世界が滅びるなんて、みたいな。ちゃんと見たことはないけれど、老人Zとか、最臭兵器とか、そのあたりなんだろうか。いや、○○で世界を救う、という設定は、えてして、○○で世界が滅びる、という設定でもあるか。

#4 [zatta] 車のUIはクソだと思うのだけど

別に自分だけがそう思ってるわけじゃないとは思うけど。

例えば、ママチャリに乗っていて、ブレーキかけようとしてベダル踏み込んじゃう、なんて事故はまず無いわけで。

なんでかというと。「止めたければ握れ」「進みたければ踏め」というUIだから。…UIという呼び方で合ってるのか分からないけど、とにかく、間違えにくいUI設計になっている、と思う。

ところがどっこい。車の場合は、「止めたければ踏め」「進みたければ踏め」というUIで。そりゃ、ブレーキと間違えてアクセル踏み込む事故が起きるよ…。

しかし。その手の事故が起きても、ドライバーの注意力がどうとか、そもそも高年齢者は運転せずに免許を返すべきとか、そういう議論が出てくるわけで。そういう意見が出てくる時点で、この社会は狂ってると思う。あくまで、その手の事故に限って言えば、だけど。どう考えてもUIがマズいでしょうが。どうして、ユーザに全ての非があるような方向で話をするんだ、と。

重いと思われる電動自転車ですら、重量は20〜35kg。その程度の重さの乗り物ですら、間違えにくいUIを実現している。車の場合は…よく知らないけど検索してみたら軽い車種でも700kgはあるらしい。しかも自転車と違って、時速100km以上出せるパワーも持っている。なのに、間違えやすいUIをそのまま使い続けてる。おかしいだろう。車のUIのマズさは人命とかなり直結してるのに、扱いがずぼら過ぎるだろう。

最初にUI設計した人は、当の昔に亡くなってると想像するのだけど。一体、誰の顔色伺って、こんなクソUIを使い続けてるんだ? そろそろ見直さないとダメだろう。と常々思うのですが。

Windows のスタートボタンの横に即シャットダウンのアイコンが設置されてたら皆怒ると思うんだけど。車のUIはそのぐらいマズイと思う。狂ってるよ、あのUI。

2012/07/10(火) [n年前の日記]

#1 [neta] 女体GUIって作れないかな

男体GUIでもいいけど。

ソフトウェアシンセサイザのGUIを見ていると、どれもこれも豪華絢爛で、なんだか感心してしまったり。うっかりすると実用性が無さそうだなと思ってしまうのだけど、一目で何の音源を使っているか認知できるメリットがあるなと思えてきて、そのデザイン文化に関して、肯定的な気分になったりして。そのうち、ふと、設定ダイアログの中に、萌えキャラがポツンと立ってる、てなGUIは作れないのかな、と妄想してしまったわけで。

萌えキャラが描かれているDTM関連ソフトと言えば、 _ペンちゃんの不思議なけんばん を思い出す。記憶が定かではないけれど、たしか提灯の伸び縮みで、ピッチベンドのパラメータを変更したり、状態変化が、星の大きさで表示されたりしていた記憶が。

伸びたり、縮んだり、大きくなったり、小さくなったりで、パラメータが変更できる。

伸びたり縮んだり、大きくなったり小さくなったり。

萌えキャラGUIに関して、何かヒントが見えてきたような気がする。気がするだけ。

例えば、エロゲーのオプション画面に女性の裸体がドーンと描かれていて、各所をドラッグして設定を変更することはできないか、てな妄想もしてみたり。ユーザから絶対に苦情が出るか。どこに何が配置されているのかわからん、音量設定すらできん、的な。…どうせエロゲーなんだからマジックで描いとけばいいか。何か色々と最低なことを妄想しちゃってる予感。

#2 [pc][digital][neta] 萌えキャラ絵の自動生成はできないものか

女体GUI、というか、萌えキャラGUIの雛形を試しに作ってみようと思ったけれど、そもそも自分は萌え絵を描けないことに気が付いた。ダメじゃん。

その手の実験に使えそうな、萌えキャラ絵自動生成、みたいなツールはないものか…。

少し検索してみたが、福笑いのノリで作るアレコレ、アバター作成サービスは見かけたものの。生成画像の使用について禁止条項がずらずらと書かれたものが多く、利用は難しそうだなと。

そういったあたりで楽をしようとしたら、コミPo!を購入するぐらいしか手は無いのだろうか。いや、あのソフトも、生成画像の使用についておそらくは禁止条項がありそうな予感。大半の市販ソフトは、そういう条項が用意されているものだし。

Poserあたりはどうなってるんだろう。…あのソフトは、萌え絵を生成とかそういう種類のソフトではなさそうか。モデルデータ次第かもしれんけど。

MMDあたりはどうなってるんだろう。おそらくはモデルデータ制作者が色々条件を示してるのだろうけど。検索してみたが、そもそもボーカロイドのモデルデータばかりのようで。となると、ボーカロイドのキャラクター自体が自由に使えるわけではないから…。やはり制限がありそうだなと。

六角大王、blender、Metasequoia あたりのモデルデータは…。検索するとボーカロイドのモデルデータしかリストアップされず。となると、これも制限がありそう。

自由に使える画像素材を欲するなら、結局は自分で描くしかないのだろうか…。

カス子なら大丈夫かな。 :

もしかして、3Dカスタム少女が使えないか。利用条件を眺めてみたら、XP購入者ならスクリーンショットの商用利用も可、とすら書いてあった。だったら、実験用画像を生成するのも構わないだろう…。別に売り物にするわけでもないし。

#3 [neta] リチャード・ストールマンも喜びそうな自由に使える萌え絵自動生成ツールって作れないだろうか

と思ったが、キャラクターデザインが障害かもしれず。その手の環境・ツールを欲しても、キャラクターデザインが絡んでくるから、「自由」を実現するのは難しいのでは、と思い至った。

企業にしても、作家にしても、苦労して作ったデザインを、「自由に使っていいよー」なんて言うわけがない。企業も、作家も、そのキャラクターデザインから得られるであろう利益を独占したいはずだし。

しかし、初音ミクや東方キャラが人気を博したのは、特定条件を守る限りは自由に使っていいよ、という条件、がついていたからで。ちと語弊はあろうけど、「その程度の条件」がつくだけで、これだけ人気が出るとなると…。

例えば、マイナーな企業や作家が、企業名や作家名を広めるために、何に使ってもOKマジOK、という条件をつけたキャラクターデザインを提示してみる、という広報戦略は結構有効だったりする…? いや、わからんけど。

ご当地マスコットキャラクターなどは、そういうことをすると、県名・市名・町名が一緒に広まって、有効かもしれない。と思ったが、たぶん各自治体やら商店街やらの中で、怒り始める人が出てきて台無しになる予感も。俺達のマスコットキャラが、同人誌の中でこんな卑猥なことを。許せん。とかフツーに起きそう。

キャラクターデザインにGPLを持ち込むことはできないのかな。 :

自由に使っていいし、それを使って売り物にしてもいいが、そのキャラクターデザインを含んだ創造物は、別の誰かが自由に使っていいという条件を継承し続けなければならない、みたいな。

そんなこと、できるのかな? 法的にアリなのかナシなのか、それもわからず。弁護士さんから「日本国内においてそういう条件付けは無効」とか言われたりして。

2012/07/11(水) [n年前の日記]

#1 [digital] 東芝製HDDレコーダが怪しい

東芝 RD-BZ710の話。

「録画できる信号がありません」とメッセージが表示されて、予約録画に失敗する ―― 番組の最初のあたりだけが録画できてない症状が、1週間に数回は確実に起きているのだけど。

今まで、BSのW録画時しか起きないのだろう、と思っていたけどそういうわけでもないようで。1番組しか録画していない、つまりはW録画をしていない状態でも、症状が発生することを、目の前でたしかに確認。

このクソ製品が! まさかW録画じゃなくても起きるとは。なんだこの製品。

何が原因なんだろう。HDDが壊れてるとか? それ信号とちゃうやろ、と言われそうだけど、おそらく東芝が外注で作らせたライブラリ群の返り値が、お決まりの値しか戻してこない腐れライブラリで、真のエラー内容を推測できないものだから、なんでもかんでも「録画できる信号がありません」のメッセージ表示で誤魔化している、ような気がする。根拠はないけど。

ネット上の書き込みを探すと、東芝製HDDレコーダは、数世代・何年にも渡って、件のメッセージ表示と録画失敗が起こり続けてるようで。ブルーレイ対応機種のみならず、DVDのみ対応の機種ですら、同種の不具合が出ているらしい。

おそらく東芝の開発陣は、未だに内部で何が起きているのか、起因箇所すら把握できてないのだと思う。もし把握できてたら、少なくとも、どこに原因があるのか、もう少し絞り込めるエラーメッセージを表示するはずで。それすら出来ていないのだから、「???」な状態が続いているとしか思えない。何せOSが3つも動いてる状態らしいし、そりゃ、わけわからんよな。同情はするけれど、しかしこの状況は困る。

とにもかくにも。アニメオタクなら東芝製HDDレコーダは絶対回避すべき、とますます思ったり。冒頭の十数秒とは言え、予約録画に失敗するHDDレコーダって、ありえねえ…。どれほど機能豊富でも録画失敗するのでは話にならない。何年も問題が解決できてない・対策すら分からないって、かなりマズイ。

お金があればパナかソニーのHDDレコーダに買い換えたいところだけど。極めて貧乏なので、そういうわけにもいかず。なんとも参りました。トホホ。

#2 [neta] 誰のモノでもあり誰のモノでもないライセンスってないのかな

誰もが自由に使えるけれど、誰かが独占することは許さない、そういうライセンスって無いのだろうか。

仮にあったとしても、商標登録のあたりで何か抜け道がありそうな気がする。何せ、東方プロジェクトすら、作者以外の企業が商標を取ってしまったわけだし。

この記事へのツッコミ

Re: 誰のモノでもあり誰のモノでもないライセンスってないのかな by passerby    2012/07/13 08:02
GPLは?

2012/07/12(木) [n年前の日記]

#1 [cg_tools] 画像を何度か回転させて1枚の画像に連結

忘れそうなので作業手順をメモ。

アルファチャンネルを持った画像、hoge.png があるとする。

ImageMagick の convert を使って画像を回転させる。
convert -rotate -45 hoge.png hoge_m45.png
convert -rotate -30 hoge.png hoge_m30.png
convert -rotate -15 hoge.png hoge_m15.png
convert -rotate 15 hoge.png hoge_p15.png
convert -rotate 30 hoge.png hoge_p30.png
convert -rotate 45 hoge.png hoge_p45.png
-rotate N の指定で、N度回転させた画像が出力できる。

これで、-45,-30,-15,+15,+30,+45度に回転させた画像が得られた。しかし、画像サイズがそれぞれ異なるサイズになり、また、画像の一部に無駄な不透明部分が出来てしまっている。

GIMPで開いて、画像サイズの統一、不透明部分の消去(透明化)を行う。
  1. ひとまず、画像サイズが一番大きい画像を開く。
  2. 回転させた全ての画像をレイヤーとして開く。ファイル→レイヤーとして開く。Ctrl や Shift を押しながら選択すれば、複数ファイルが選択できて、一気にレイヤーとして読み込めるはず。
  3. 一番最初に開いた画像(レイヤー一覧で「背景」と名前がついてるはず)は、オフセット値等がおかしくなってるので、そのレイヤーは削除。
  4. 画像をトリミングする。矩形選択ツールで領域を選択。画像→選択範囲で切り抜き。
  5. 不透明部分を削除して透明にする。ファジー選択ツール等で選択して、消去(おそらくDeleteキー)。
  6. レイヤー毎に別画像として保存。continuous-save.scm を使用。
連番画像、001.png 〜 007.png が得られたとする。

ImageMagick の convert で、画像を結合?連結?して1枚の画像にする。
convert -append 0*.png out.png
-append を指定すると、垂直方向に画像を連結して1つの画像にしてくれる。+append なら、水平方向に連結。画像サイズはすべて同じにしておく必要がある。上記の例では、元画像の指定に _ワイルドカード を使って、0*.png と書いている。

少しずつ回転した画像が垂直にずらりと並んだ、out.png が得られた。

GIMP の Script-fu で処理ができそうな気もするが…。

#2 [neta] 女体GUIを仮作成

萌えGUIと呼んだほうが合ってるような。

_萌えGUIのテスト

「アホか」と言われそうな気もするけれど、真面目にデザインやレイアウトを考えていけば、COOLで萌えなGUIが作れそうな気もする。が、昔からこういうお遊びは多々ありそうな気もしてきた。自分が知らない/忘れてるだけで。

それはともかく。やはり、どこに何があるのか全く分からないところが問題かもしれず。

2012/07/13(金) [n年前の日記]

#1 [neta] アノニマスのお面がなんとなくひろゆき氏っぽく見えた

_アノニマスの仮面のモデル、ガイ・フォークスって知ってる? - NAVER まとめ

サムネイル画像を見ているうちに、なんとなく、ひろゆき氏がニヤニヤしてる顔に似ているなと思えてきた。

ドワンゴ?あたりから「ひろゆきお面」「ひろゆきマスク」でも出したら微妙に売れないかな。アノニマスのソレにインスパイアのオマージュということで、ヒゲだけ付け加えて。アノニマスのマスクをゲットしたと思ったらひろゆきマスクだった騙された、けど、匿名性の象徴と言う点では微妙に共通点がありそうな気もするからこれでもいっかー、みたいな展開を希望。

いっそ、クマーのお面とか麻呂のお面とかそういう方向のソレは…。金儲けするなと言い出す人が出てきてまた炎上するのだろうか。

_Pedobear こと、海外におけるクマーの捉えられ方 - Vanteyのアース線 (Ver.2.6) :

クマーの面じゃなくて、Pedobearの面と称して売ればいいのかな。海外で流行しているあの顔が、とかテキトーなことを謳いながら。

あのデザインをお面にするのは難しいか。

名無しさんを表すキャラクターデザインが存在しないのだな。 :

日本においては、匿名のソレを視覚的に象徴するキャラクターデザインが存在していない。海外はアノニマスのマスクという形で存在しているけど。日本国内も、そのうち、アノニマスのマスク=名無しさんを示すキャラクターデザインとして定着してしまうのだろうか?

個人的には、「TEXT ONLY」と書かれた黒い紙袋を被ったキャラデザ?などもヨサゲな気もするのだけど。
7743マスク
…動きづらいか。いちいち紙袋の角度を直したりしそう。

2012/07/14() [n年前の日記]

#1 [prog] FLASHとmp3について調べていたり

Firefox の Audio Data API、Google Chrome の Web Audio API について動作確認をしていたのだけど、何故かノイズが乗る。両APIとも、実装がまだアレなのか。それとも、自分の環境は、アドオンやら拡張やら常駐ソフトやらを入れまくってるから動作がおかしくなるのか。なんとなく後者のような予感も。しかし、そういう環境で利用するとノイズが入る、みたいな実装ではやっぱりマズイ気もするわけで。「俺達が追加した新機能を使うためにはOSを再インストールせよ」とか言い出したら、そりゃマズイ。

そんな流れで、FLASH(ActionScript3)なら状況が違うのだろうか、と関連情報を調べ始めたり。 FLASHもFLASHで、色々難しい。あちらを立てればこちらが立たず。外部oggの読み込みに対応していれば良かったのに。

Audio Data API/Web Audio API はノイズが乗るし。FLASHは扱えるフォーマットに制限があるし。ブラウザ上でサウンドを扱うのって、現状では制約があるのだなと。

2012/07/15() [n年前の日記]

#1 [movie] スパイダーマンを観賞

TVをつけたら流れてたので途中から見た。火事の中にスパイダーマンが飛び込んでいくあたりから。

そのシーン。警官がやってきて、スパイダーマンに「逮捕するぞ」と言い出すのだけど。 _人命救助して罰金1万8000円 の話を思い出した。人命を救おうと努力している人間に対し、逮捕するぞとか、罰金払えとか…。スパイダーマンはフィクションだからまだいいよ。現実世界で同じことしちゃダメだろ。いや、現実の警察がそういうアレだから、フィクションの中で皮肉られているんだろうけど。

映画の中で警察官は、結局のところ実質的には譲歩して(ただし建前上は警察に責任が及ばない形にして)スパイダーマンのやりたいようにさせるのだけど。あれがもし日本だったら、スパイダーマンはすぐに手錠をかけられ、「文句があるなら裁判を起こせ」と言い放たれて、警察のせいで子供は焼死して、話は終わってしまうかも、てなことを思って陰鬱な気持ちに。

2012/07/16(月) [n年前の日記]

#1 [nitijyou] 自転車で買い物に

夜になってから親父さんの電動自転車を借りて以下略ヨークベニマルまで。昔は10:00〜11:00ぐらいまで営業してたような記憶もあるのだけど、最近は9:30までの営業になったのだな…。

帰りにコンビニ(たしかローソン)に寄ったのだけど。もっとウチに近いところにも、ローソンができていたことを確認。こんなに近いところに同じコンビニが出来てしまっても、商売になるのかしら。なんだか潰し合いをしてるような気がするのだけど、大丈夫なのかなあ…。

#2 [zatta] GFDLについて少し調べてた

GFDLってのは、GPLの文書版、みたいなもの。GPLは、プログラムに対してのライセンスらしいのだけど。GFDLは、文書や画像に対するライセンスらしい。

例えばの話、キャラクターデザインに対してGFDLを適用することができるかどうかが気になってたのだけど。調べてみた感じでは、どうも現実的ではないように思えたり。改変履歴を添付しなきゃいけないとか、改変者の名前を列挙しなきゃいけないとか。そのあたりが足枷になりそう。ネット上で特定のキャラクターデザインが普及していく場面を想像すると、おそらくは画像ファイル「だけ」があっちこっちでコピーされて公開される状態になるのだろうと思えるわけで。しかし、その画像ファイルに対して、改変履歴を一々添付した状態でコピーするかと考えると、ちょっとそれはありえない。また、アレンジを加えていった人の名前が、画像中に列挙されるかというと、それもありえない気がするわけで。よって、キャラクターデザインの類にGFDLを適用するのは難しそうだなと。

そういや、 _Linuxのペンギン や、 _BSDの _デーモン? って、ライセンスはどうなってるんだろう…?

2012/07/17(火) [n年前の日記]

#1 [anime] エウレカセブンAOがちょっと気になってる

前作のメカとキャラが出てきて急に興味が湧いて関連情報を検索したら、ホントかどうかは知らないけれど、初期のシリーズ構成の人がどこかに行ってしまって會川氏がシリーズ構成を引き継いでた、てな話を今頃知ったわけで。なんだか全然違う意味で気になる作品になってきた…。何が起きているんだ…。

とりあえず、會川脚本でEVAをやるとこうなっちゃうんだぜ、みたいな作品になってほしいなあと淡い期待を。いや、別に、毎回必ず會川脚本というわけではないみたいだけど。

會川版EVAは、既に存在してそうな気もする。どの作品がソレに相当するのかは、ちょっと分からないけど。もしかして、妖奇士あたりがソレなのかな。江戸時代版ウルトラマンと言えなくもないし。

#2 [game] 今のゲームにおいてプレイヤーは傍観者になってたりしないのかな

某所で、昨今のギャルゲーだかエロゲーだかも、相変わらず主人公キャラの顔は出さないし音声も出さないことが多いんだよ、みたいな話を見かけたり。

たしか、ときメモ1の頃に、主人公キャラはプレイヤーの分身なのだから、顔を出すのも音声を出すのも御法度、みたいな話を聞いて、なるほどと思ったことがあるのだけど。しかし、昨今までそういう「手法」が踏襲されていると聞くと、本当にそれって合ってるのかなと不安に思ったりもするわけで。

現代のゲームの中で展開していくストーリー、シナリオ上で用意された主人公キャラの言動は、ディスプレイのこちら側に居るプレイヤーの意に沿ったものになっているのだろうか。もはや、主人公キャラは、プレイヤーの分身としての立場から、当の昔に乖離していないか。プレイヤーはゲームに対し、傍観者として接しているのが当たり前だったりしないか。いや、そのへん、タイトルによるだろう、とは思うけど。

主人公の顔を見せない・音声を出さないというのは、ある種の「型」だけど。実態と合っていないのに、型だけ守っている状態になってないか。プレイヤーが傍観者になっているなら、もっと効果的な手法が他にあるのではないか。てな不安が湧いてきたりもして。

漫画、ドラマ、映画においては、主人公キャラが、読者、視聴者、観客の分身でなければいけない、という原則はないように思う。別に傍観者でも問題無いし、傍観者であっても作品にのめり込んでいける作りは可能なはずで。というかほとんどの作品はそういう作りを模索している気がする。

ゲームは、他のメディアに比べると、主人公キャラをプレイヤーの分身として錯覚させやすいメディアではあるけれど。必ずしも、分身として見えるように作らねばならない、と法律か何かで決まっているわけでもないし。

FPSやアクションゲームなら、プレイヤーキャラの細かい行動の一つ一つをプレイヤーが制御しているわけだから、プレイヤーの分身になりやすい気もするけれど。それ以外のゲームはどうなんだろうなあ、と。

そんなことをぼんやり思いました、とメモ。

#3 [game][neta] 昔の恋愛シミュゲーって何かがおかしかった気がしてきた

現実世界において、自分の目の前に異性が立っていて、こちらに何か話しかけてくる、てな場面はあり得るだろうとは思うけど。

しかし現実世界なら、女の子の前にメッセージ窓なんて無いよな。もちろん To Heart のように、視野一杯が半透明の黒で塗り潰されていて文章がビッシリ表示されてるなんてあり得ない。

主人公キャラがプレイヤーの分身であるなら、プレイヤーに対して、その場に居るかのような臨場感を与えるほうが都合がいいはず。であれば、画面には、背景と女の子の立ち絵しか表示されていない状態が正解、のような気がしてきたり。台詞も、音声のみで伝えるのが妥当かも。だって、自分達が現実世界の異性と会話するとき、メッセージ窓を使って会話なんかしないわけだし。

もしかすると、メッセージ窓その他を表示している時点で、作り手の中では、臨場感を出そうという思考がたいして働いてない、と言えてしまうのだろうか。

昔のゲームは、音声なんか出せなかったから、メッセージ窓とメッセージで台詞を伝えるしかなかったけれど。音声が出せるようになった時点で、本当は「メッセージ窓、要らないんじゃね?」と気付くべきだったのでは。

さすがに、今時のその手のゲームは、メッセージ窓なんか表示してないんだろうなあ…。わざわざ自ら、仮想現実感を弱めてしまう画面を作る必要はあるまい…。素敵な声を操れる声優さんを、お金出して連れてきて、山ほど音声を収録しておきながら、無機質なメッセージ文を表示して被せてたら、それって馬鹿だよな…。たぶん。

いや、待てよ。臨場感を増したいなら、そもそもアニメ調/3DCGの女の子が画面に表示されている時点で、色々台無しじゃないのか?

プレイヤーは、どんな仮想現実感を味わいたいと思っているのだろう。実は、現実世界のソレではなく、漫画やアニメの中に自分が入り込んでいる感じを味わいたい、とか? だとしたらメッセージ窓も全然アリ?

なんだかよくわからなくなってきた。

2012/07/18(水) [n年前の日記]

#1 [firefox] Firefox 14.0.1にしたらツールバーのアイコンが一部表示されなくなった

ScrapBook のアイコンが表示されない状態に。なんでや…。

#2 [anime][neta] 小学生の頃に少女漫画を読んでない人は目が巨大なキャラクターデザインについていけない、という仮説はどうか

どうかと言われても。

たぶんその仮説は正しくないだろうな…。自分、小学生の頃にキャンディキャンディ読んでたけれど。ジェイデッカーやセイバーマリオネットJのキャラデザ見た時にギョッとしたし。…でも、今見ると、どちらの作品も、別にフツーのサイズだよなあ。自分も慣れてしまったのだろうか。

子供の頃は目の大きさを気にしなくて、大人になるにつれ気になり始める、のだろうか。何故かというと、異性を選別するにあたって…。ちょっと怖い考えになってきたので、これ以上は考えないことにする。

#3 [anime] じょしらく1話を視聴

面白かった。なんだかとんでもないアニメを見ているような気がしたり。

冒頭の 「アニメ化する意味は」のやり取りで引き込まれてしまった。無言の時間をたっぷり取って妙な緊張感を高めてから、いきなり自己言及で 商品の存在意義全否定だもの。一体何が始まったのかとビックリ。凄いことするなあ…。

合間で出てくる「邪魔にならない程度の〜」の説明もなんだか凄い。そういう前置きを聞かされたら、見るにあたってハードルを下げざるを得ない=ちょっとしたネタでも笑ってしまう。上手いわ…。まんまと誘導されてしまった…。

A、Cパートの作りに感心。基本的には会話だけで話が進む、というか進む話自体が存在しない感じなのだけど。なんとなく、スタイルが落語そのままになっている気が。まるで噺家が、5人の女の子がそこに居る、という設定で話をしている、その内容を映像化、みたいな。落語家が登場する設定のアニメで、落語のように話が進んでいく。何だコレ。どういう構造の作品なんだ。ややこしい。しかし全然ややこしいように見せてない。凄いわ…。

Bパートで落語のアレコレを解説したあたりも感心。地味に勉強になった…。アニメを楽しんで見ているだけで雑学までするりとゲットできるなんて、なんというお得感。それでいて、キャラの属性を紹介することで「萌え」まで提供。淡々と見せているのに実は色々とてんこもり。かもしれず。

「返せー」のあたり、おそらくは原作がきわどいのだろうけど、アニメ版もちゃんときわどい感じで。冒頭のソレも含めて、この手のジャンルは、ぶっちゃけた感を醸し出せると強いのかも、と思えてきたりもして。

ここ最近、自分の中では、ギャグアニメはテンションを無理矢理高くして見せないと面白くならないんじゃないか、と思い込んでた節があるのだけど。そんなことはないのだ、と再認識させてもらえたような気がしたり。なんとなく、スタッフに感謝の言葉を述べたい気分。自分が間違っていることを自覚できました、ありがとう、みたいな。

とにかく、これはすげえ、と思いました。素晴らしい。…と思う。たぶん。ちと自信無いけど。

2012/07/19(木) [n年前の日記]

#1 [anime] 境界線上のホライゾンを視聴

作業しつつBGVとして流してチラ見では基本設定すら理解できない感じがしたので、「後で見る」つもりで録画だけして放置状態だったのだけど。HDDレコーダの空きが厳しいのでそろそろ消化しないと、てな感じで1話から目を通し始めたり。

ある意味、凄いな…。ディスプレイに全画面表示して腕組みしながらガン見してみたけれど。つまりは視聴に専念したつもりだけど。それでも、登場人物が何を言ってるのかさっぱりわからねえ…。全ての会話が意味不明。まるで技術系のはてなダイアリーを眺めてる気分。なんだこの呪文の羅列は、みたいな。

設定が観念的過ぎる上に、作品内でのみ通用する用語・単語がてんこもりだから、チンプンカンプンなのだろうと思うけど。映像化しちゃいけないラノベって、あるんだなあ…。

全てを文章で示す、小説という表現手法なら、観念的な設定も独自用語もいくらでも書くことができるし、読者が理解できずに引っ掛かっても読み返すことができるから、作品・商品として成立する可能性は十分ある。ので、それが小説なら、作家さんが好きなだけ突っ走ってくださいな、で済むのだけど。これをアニメにするのは…。小説以外では表現できない作品ってあると思うけど、これはそういう作品じゃないのかなと。

アニメだの映画だのを見るにあたって、「理解不能な部分は、『よくわかんない』とラベルを貼ってパッケージングしてひとまず横に置いといて、理解できるところだけ受け止めて、どんどん先に進む」てな鑑賞の仕方もあるよ、という話を以前どこかで見た記憶があって。自分も時々そういう見方で凌いだ(?)作品がいくつかあるけれど。この作品は、それも無理だなと。全てを細かくパッケージングする羽目になるから処理が追いつかないし、理解できる部分がほとんど残らない。もしかするとそのあたり、視聴者側の脳内で、ある種のオーバーフローを起こし続けることで、「この作品、なんだかすげえ」と錯覚(?)させる作り、なのかなと勝手な想像も。

まあ、世の中、色んな作品があったほうがいいよね。と思うので、これはこれで。2期も作られてるみたいだから需要はあるのだろうし。

1〜3話をガン見して理解できなかったのだから、たぶんこの後の話も理解不能だろう…。どんどん消していこう…。しかし、このおいてけぼり感、スゲエなあ…。

ガンダムシリーズやマクロスシリーズも、こう見えているのだろうか。 :

アニメばかり見ている人にはピンとくる設定も、普段アニメを見てない人には、こんな感じでチンプンカンプン、なのだろうか。なんだかマズイな…。

能・狂言・歌舞伎も、それをずっと見ている人なら、お約束が分かってるから楽しめるのだろうけど。この作品もそういう領域に入ってる作品なのだろうか。ラノベばかり読んでる人ならピンとくるのかしら。わからんけど。

アニメだの、ラノベだの、そのへんなんだかヤバイのかもしれない。蛸壺化してる可能性が高そう。

まあ、作品によるか。全てがこういう作品というわけでもないし。

#2 [anime][neta] ラノベ原作アニメ内の固有名詞だか専門用語だかについてぼんやり思ったり

境界線上のホラなんとかを見ていて思ったけれど。原作を読めば、作品内の、固有名詞? 専門用語? 独自用語? に、どんな漢字が割り当てられているか分かるだろうから、多少は台詞の意味も分かってくるのかも、と。なんだかそのへん、灼眼のシャナ、彩雲国物語、等と同じ問題を抱えてるような気が。

妙な単語をやたら作りたがる・使いたがる作家さんってたまに居るけど、映像化する時、困るよなあ…。

ラノベ原作のアニメ化企画は、今後も増えると思うけど。原作内で使われる膨大な独自用語(?)を、映像ではどのように理解・把握させるのか、その手法について、アニメ業界には課題が突き付けられている、と個人的には思っていたり。

用語と言ってもピンとこないか…。説明に適してるか分からないけど。例えば、昨今流行り(?)の「怪異」なる単語で説明すると。小説では「怪異」と書けるから、読者にもイメージが伝わるけれど、アニメでは「カイイ」という音の響きにしかならないので、視聴者は、「カイイ? 何ソレ?」と困惑する羽目になる。台詞内の単語で一々引っ掛かると、作品を楽しむどころではなくなるわけで。

これがもし新房作品なら、臆することなく画面にドーンと「怪異」の文字を表示したり、黒板に書いたりしちゃうと思う。「なるほど、そういう単語か」と視聴者は把握できるので、その後はすんなり作品に入っていける。

実写作品だけど、仮面ライダー響鬼も同じことをしてた。怪人の呼称について、画面にドーンと「魔化魍」の文字を表示してた記憶が。 *1

そんな感じで、このあたり何かしら工夫しなきゃいけない。と思う。 やり方はなんでも構わないから、技を発見しないといけない。

新房監督とその仲間達は、技を会得しつつある気がするのだけど。でも、他作品では、技を見つけようという気概すら見えないことも多く。技を見つけようとしないということは、作り手に、伝えよう、理解してもらおうという気持ちすら無いことの証明だから、あまり良い傾向ではない。

いや、そもそも、そんな面倒臭いラノベはアニメ化しないのが一番手っ取り早いのか。というわけにはいかんよな… (´・ω・`)

単語数が少なければ、文字ドーン方式その他も使えるんだけど。単語が多過ぎると、手の付けようがないよな…。例えば、ホラなんとかで文字ドーンをやったら、画面が文字だらけになりそう。

いっそ、無声アニメにして、台詞は全部字幕に…。嘘です。アニメなのに、ゲームっぽくメッセージ窓を常時表示して…。嘘です。

何か手は無いのかな。「その手があったか!」と感動してみたいものですが。

まあ、宿題ですわな。アニメ業界に出されてる宿題。てなことを思いながら視聴させてもらってます。

昔のアニメはそのへんどうしてたっけ。 :

ラノベ原作アニメ、と言うわけじゃないけれど。

例えば、ナウシカの「フカイ」「キョシンヘイ」「オウム」は、どの時点で、観客の脳内に辞書登録してたんだろう?

「フカイ」は、タイトルロゴを出す直前、説明文を画面に出すところで、「腐海」の文字を見せてたっけ? 記憶が怪しいな…。「キョシンヘイ」「オウム」は、本編中で最後まで、文字を見せてなかった気がする。

でも、ナウシカの場合、実物を見せながら「○○だ!」と言わせてた。
  • 「腐海」に沈んだ村を歩くユパ様が、「この村も『フカイ』に沈んだか…」
  • 「巨神兵」の繭?を目の前にして、ユパ様とミト爺が、「『キョシンヘイ』が掘り起こされたというのだ」「すると、これが…?」
  • 「王蟲」の抜け殻を目にしたナウシカが、「なんて綺麗な『オウム』の抜け殻」
実際の台詞は違ってるだろうけど、そういうことをやってた。観客が、「ああ、この世界では、これを○○と呼んでんのか」と理解さえできれば、どんな漢字がついてるのか分からなくても問題は無いだろうな、と思う。

富野アニメは、どうだろう…? 基本的に、独自用語はカタカナだけにしてることが多いので、そもそも漢字・文字を見せる必要が無い。…たぶん、これも、技なのだろうと思う。

それでも、自分が子供の頃は、「モビルスーツ」「ニュータイプ」「サイコミュ」「デスドライブ」あたりで引っ掛かってた記憶があり。

「ニュータイプ」は、シリーズ中盤、マチルダさんとブライトさんの会話で、「エスパーみたいなもの」とぶっちゃけてる。でも、これは映画版だけだったかも? 記憶が怪しい。それに、ニュータイプが実際に出てくるまで時間が空いちゃうので、その頃には視聴者は設定を忘れてる。しかし、後半アムロがどんどん強くなり、それに伴って「ニュータイプ」「ニュータイプ」と周囲が言い始めるので、「凄いパイロットのことなんだろうな」ぐらいは伝わるのだと思う。

「デスドライブ」は、映像を見て、「ヤマトのワープみたいなもんかなあ」と思った記憶がある。後に、ロマンアルバムを読んで、ワープとは概念が違うのだと知ったけど。そんなの知らなくても、やっぱりワープみたいなもんだと思っておけば問題無い。これは、既に知られている概念・設定を利用して、混乱を少なくした事例、なのかしら。「ニュータイプ」を「エスパーみたいなもの」とぶっちゃけてるソレに、少し近いのかもしれない。

「マグネットコーティング」は、全然引っ掛からなかった記憶がある。おそらく、アムロのスピードにガンダムがついていけない、という問題を提示して、それに対する解決策を、技術者が登場して説明する、という流れが良かったのかなと思う。実際には何やってるかさっぱりわからんけど、「油を差すようなもんだ」と言ってたような気もするし。

なんとなくだけど、比喩を上手に使って説明を済ませた場面が多い、のかな…。

しかし…。何かのバラエティ番組で、ガンダム芸人さんが、「ロボットのことをモビルスーツって呼ぶんです!」と、一般人のゲストに向かって叫んでた映像を目にした記憶もあり。そういう説明が必要な時点で、結構危ないのだと思えたり。ガンダム芸人さんが、なぜ叫ばなければいけなかったのか、それを鑑みると。独自用語を1つ増やすたびに、お客さんが作品から振り落とされそうになっている、ということぐらいは意識したほうがいいのかもしれない。

宮崎駿監督も、富野監督も、その他、尊敬すべき先輩方も、ちゃんとそういう危機感を持ってアニメを作ってた。特に昔は、アニメ=子供の見るもの、だったから、今以上に気配りが必要だったのだろうと想像するのだけど。

先輩達は、色々な技を発見してきたけど。さて、現役世代は、どうだろうなあ…。まあ、数が少なければ、先輩達が発見した技を使ってどうにかなるんだろうけど。数が多くなると…。この量は、先輩達の時代には、ちょっと無かったよねえ…。

いっそ、東映アニメの動画枚数制限のように、「1話につき独自用語の使用は○種類まで」の制限を脚本家に課してしまうとか。…気配りできる演出家・脚本家なら、そんな制限は不要だろうけど。気配りできない・技を見つけようとしないスタッフしか居ないなら、規則を強制して解決するしか…。いや、そこはやっぱり、自発的に何かしらの技を見つけてほしいような気も。

まあ、宿題ですわな。

*1: 響鬼のソレは、筆文字というデザイン性を活かして、視覚的にもおどろおどろしい感じを伝えていた。仮に文字が読めなかったとしても、なんか気味が悪いモノなんだなと、低年齢の視聴者にも雰囲気で伝えようとしていたのかしら。…いや、待て。OPで、主人公の名前その他も、同じデザインで表示してたから、そういうわけではないか。単にそのほうが和風ムードが出るから、かな…。

#3 [anime] アニメの中で説明できる量について最近思ったことをメモ

もやしもんリターンズの1話を見て、これはちょっとギリギリか? でもないか? このくらいなら大丈夫か? もうちょっとイケるか? 無理か? と少しハラハラドキドキしたり。

何がギリギリ? 説明できる量が。

アニメは、説明することに長けている表現手法。と、自分は思っているけれど。しかし、アニメは、時間制御できる表現手法でもあるから、説明できる量には限度がありそうだな、てなことを、件の作品を見ているうちに思ったり。

それぞれ説明が必要かしら? 自分もそのうち忘れそうだから、一応メモしておこう…。

アニメは説明することに長けている表現手法。 :

前にも書いた気がするのだけど、記事が見つからなかったので、一応メモ。

例えば、ニュース番組や教養番組で、少し複雑な事故・事件・知識等を説明するときは、ちょっとしたアニメが挿入されたりする。なんでアニメが出てくるのか。アニメを使うと説明が分かりやすくなるから。

そもそも、日本で初めて作られたアニメは、教育目的で作られたらしい。子供達に科学知識を教える際に、アニメを使うと分かりやすく説明できる、てな効能を見出されたのだとか。東映動画が誕生する、少し前の時代の話。

ということで、実際に使われている場面を眺めると、アニメは説明することに長けている表現手法、と言えるのではないかと。

アニメになるとどうして分かりやすくなるのか。これは自分の勝手な仮説だけど。
  • 動きを表現できる。動きとは、時間の変化に伴った、状態の変化のこと。
  • 説明する上で邪魔になる視覚情報を、デフォルメ・記号化を通すことで、消去することができる。肝の部分だけ、見せることができる。
  • 「読み聞かせ」ができる。
  • etc.
どれも、アニメ特有の強みというわけではないけれど。時間、絵、音を操れる総合芸術だからこそ持てる強み、ではあると思う。

ついでに、飛躍した極論も書いてしまうけど。アニメを使っているのに上手に説明できないということは、そのアニメを作った人達が、説明すべき内容を理解できてない証拠。もしくは、作った人達が、アニメを愛してない。アニメという表現手法と真剣にお付き合いしてないから、活用できないのだろうなと。自分の勝手な極論ですけど。

しかし時間制御する表現手法には量に関して限界がある。 :

アニメは説明することに長けているけれど。しかし、作り手が時間を制御できる表現手法でもあるので、説明できる量には限界があるよな、と。

作り手が時間を制御できない、小説や漫画と比較すると、分かりやすい気がする。
  • 小説や漫画は、時間の制御を、読者が行う。理解が遅い読者はゆっくり読むし、理解が早い読者はガンガン読み進む。一人一人の理解速度に対応できる。
  • 小説や漫画は、途中で引っ掛かる部分が出てきたときに、少し前に戻って読み返すこともできる。過去の情報を容易に参照できる。
  • 小説や漫画は、詰め込む情報量に自由度がある。ページサイズや文字数が許す限り、ギッシリ詰め込むこともできるし、逆に、特大の文字で台詞を一つだけ書く、なんてこともできる。
アニメでは、どれも難しい。
  • アニメは、視聴者一人一人の理解速度に対応できない。作り手が設定した速度以外にはならないから。
  • アニメは、作り手が仕込まない限り、過去の情報を参照できない。
  • アニメは、フレームという制限、TVという解像度の制約があるので、詰め込める視覚情報の量に制限がある。
  • アニメは、音声を流すので、一定の時間内に詰め込める台詞の量に限界がある。
  • etc.

例えば、もやしもんは漫画が原作だけど。漫画版では、教授がやたら長々と農学について説明するコマがある。アニメでは、そういう表現は無理。説明するためには、その音声分の時間が必要になるので、下手すると教授の説明台詞だけでAパートが終わってしまう。しかしこれが漫画なら、たった1コマ、吹き出しの中にビッシリ細かい文字で書き込んで、読者に情報を与えることができる。その上、読者がその気になれば、その説明を一字一句漏らさず読んで理解することもできてしまう。…いや、もやしもんの件のコマは、どう見ても読み飛ばすこと推奨なのだけど。そこに書かれた大量の文章を、読もうと思えば読めてしまうのが、時間制御をユーザに任せている表現手法の強み。アニメでは、そういうのは無理。

アニメは音楽と同じ。提示した情報は、どんどん流れて消えていく。

作り手が時間を制御できる表現手法は、理解させられる量に関して限界がある。オーケストラの楽器音の一つ一つ、合唱団の一人一人の声を聞き分けるのは、素人には無理。

もっとも音楽は、漠然と全体を感じることができればそれで娯楽になるけれど。アニメは、そういうわけにはいかない。いや、そういう状態で問題無い場面と、問題がある場面が混在している。それがアニメ。

説明することに関して、そういう難しさが、アニメにはあるよなと。分かりやすい形で伝えられるけど、提示できる情報量には限界がある。感じさせることはたやすいけど、大量にしっかりと一度に全てを理解してもらうことは難しい。

このへん、アニメに限った話じゃなくて、映像コンテンツに共通する話なのだけど。

そんなこんなで。 :

「もやしもんリターンズ」を見ていると、説明できる量や、説明する速度について、どのへんがギリギリのラインか、絶えず意識しながら作ってるように思えるので、好印象でしたよ、と。アニメという表現手法と悩みながら付き合ってくれているんだな、みたいな。まあ、漫画原作があの情報量だから、そうせざるをえないよ、と言われそうな気もするけれど。

「氷菓」も、同じような理由で好印象。謎について説明する際に、アニメの強みを活かした説明を模索しているように見える。巷のアニメのほとんどが、「読み聞かせ」しか使わない怠惰ぶりを見せる中、あの手のこの手で状況を説明しようと試みている。心意気からして違う。原動画の細やかさもそうだけど、京アニは、アニメ(あるいは映像表現)を愛してくれている人達が集まっているんだなあ、と感じて嬉しくなるわけで。

自分は薄いアニオタだけど、それでも一応アニメが好きなほうなので。アニメの強みや弱みを意識しながら作ってる作品群を見ていると、それだけでなんだか嬉しくなってしまうのでした。みたいな。

そんなことを思いましたよとメモ。

2012/07/20(金) [n年前の日記]

#1 [anime] 聖闘士星矢Ωと水戸黄門

聖闘士星矢Ωを見ていて、相変わらず忍者クンは勝手に動いているなあ、と思ったのだけど。情報収集担当だから、勝手に動いてるほうが自然なのかと思い直したり。要するに、風車の弥七ポジションなんだな…。

と思ったところで気がついた。コレって水戸黄門か! 黄門様を、可憐で、優しくて、弱々しくて、思わず守ってあげたくなる、そんな萌え美少女にしてみた。それが、聖闘士星矢Ωだったのか!

いや、でも、うっかり八兵衛が居ないし…。市先輩とやらがそのポジション…ではないよな、退場しちゃったし。

どちらかというと、西遊記に近いのかな。日本国内で作られる西遊記は、何故か三蔵法師が女性になってることが多いし。強大な謎の力を持っているけど、どこか儚い感じのする女性を、猿と豚と河童が護衛して旅をする。そこに風車の弥七をプラスしたのが、聖闘士星矢Ω。みたいな。

ペガサスとライオンが、どっちが猿でどっちが豚かで揉め始めそう。「ええっ? 俺、猿かよ?」「いーや違うね。孫悟空はどう考えても俺。お前が豚だ!」「なんだと!」みたいな。

ちなみに、 _沙悟浄はそもそも河童じゃない のだけど。

#2 [anime] なんとかのホラなんとかを消化中

ガンガン流し見してガンガン消してるうちに、ふと気が付いた。これって要するに、FSS(ファイブスター物語)じゃないのか。いや、中身は全然違うと思うけど。ジャンルとして同じ、とでも言えばいいのだろうか。

目の前の霧が晴れたような気がする。なるほど、そうか、そういうことか。中身は相変わらずさっぱりわからないけど、どういう商品かよく分かった。だからそれなりに人気があるのか。

ハマる人達の気持ち、分かる気がする。自分も、エルガイムMkIIを落書きするときに、額にファティマの影を得意気に必ず描いてた子供だったので。そういうのが楽しいのだろうな。って何言ってるか分かんないか。分かんなくていいです。要は知識欲が絡んでる作品なのだろうと思うけど。

アニメだけ眺めてもチンプンカンプンなはずだわ。テキスト情報を浴びるように読んで補完していかないと分かるはずがない。そういう種類の作品だもの。「理解できない。何だコレ」と悩むこと自体が無駄だ。こんなの分かるわけがない。アニメだけ見て分かったら、ソイツは頭がおかしい。もしくはかなりの見栄っ張り。

なんだかスッキリした。そうか。そういう作品か…。色々と納得。いや、見当違いな捉え方をしてる可能性もあるけど。自分の中では、そういうことにすれば納得できるので、これはこれで。

2012/07/21() [n年前の日記]

#1 [zatta] 学生さんと社会人とお金と時間

考えをまとめるためにメモ。

学生さんと社会人では、時間に対する感覚が違う。 仕事で忙しい思いをしたことがある人なら、「時間のほうが貴重」「時間がもったいない」という感覚が分かるであろう気もする。そして、一度そういう感覚になると、その感覚は継続する。…社会人といっても、忙しい思いをしたことがない人も居るだろうから、社会人なら全てがそうだ、とは言えないけれど。

学生さんは、「時間のほうが貴重」と言われてもピンと来ない。自分も学生時代は分からなかったので、これは体験しないと分からない感覚なのだと思う。分かる学生さんが居たら、その人は学生さんらしからぬ体験を、どこかでしているのだろう。

なので、学生さんに近い感覚で娯楽コンテンツを味わってる人に、「プレイ時間が長過ぎる」「ページ数があり過ぎる」「時間のほうが貴重だ」と言っても分かってもらえない気がする。

上記を踏まえると、以下の極論も導き出せなくもない。 …本当にそうかな? この話、単純化し過ぎてないか? あるいは、学生さんと社会人と言う分類が、合ってない気もするぞ?

ここにパチンコの例を持ち込んで考え始めると、もっと面倒臭いことになりそうな気がしてきた。

#2 [zatta] 「長い」「作品」「商品」「ハードル」

思考メモ。

まとめ。 :

先に結論を。

「長さ」は、「作品」を否定する要因にはならないし、「商品」として間違いなく売れないと決定するほどの要因でもない。ただし、「長い」と、「商品」としてのハードルは上がる。なぜかというと、お金はあるけど時間に余裕がない人が多いから。世の中、社会人のほうが多いので。

以下は蛇足というか、思考過程のメモ。

「作品」と「商品」という見方があると思う。 :

ちょっと前に、「その手のゲームは長いと良くない」てな思考メモを書いたのだけど。自分が、何を問題にしているか、今一つ分かってなかった気がしてきたり。

長いから面白い、長いけど面白い、という作品もフツーにあるのだから、「長い」と「作品」としてダメになる、という話じゃ全然ないんだよな…。

おそらく、「長いのはダメ」と言われると、自分が作った/楽しんだ「作品」を否定された気分になってカチンとくる人が居そうだなと思うのだけど。「長いと作品としてダメ」と言われてるわけではなくて、「長い」と「商品」としての売り込む際の「ハードル」が上がっちゃうよね、という話でしかないのだと思う。

社会人のほうがお金を持ってる。だから、売りたい、儲けたいと思うなら、社会人“も”狙ったほうがいい。となると、長いコンテンツより短いコンテンツのほうが手に取ってもらえる可能性が高まる。だから、長いのは良くないよ、短いほうがいいよ、と、そういう話でしかない。

作品の良し悪し、創作云々の話じゃない。商品として売り込みやすいか、お金を持ってる人達を狙いやすくなるか。つまりは、商売の話。「作品」じゃなくて、「商品」としてどうか、という話。

…自分がメモしたソレは、そこが明確ではなかった気がする。読み返してないけど、たぶん「作品」「作品」って書いてたんじゃないかしら。作品じゃなくて商品の話をしてることに、その時点では自分も気付いてなかった可能性が高いなあ、と今頃思えてきたり。

長いと商品にならない、わけでもない。 :

長いと絶対に商品にならない、というわけでもない。学生さんだけ狙うなら、たぶん長くてもいいし。あるいは、長くすることで作品価値が上がり、商品としてのハードルなんて作品の価値で軽々と飛び越えられると勝算が見出せるなら、長くてもいいのだと思う。

それに、長いモノを短くして売る方法だってある。
  • TVアニメは、長いシリーズを、話数で分割して売っている。
  • 児童向けの出版物のように、長い小説のダイジェスト版を作って売る、という手もある。
  • 1stガンダム劇場版のように、長いTVシリーズを編集して、映画版という短い形にして売ることもできる。
  • 小説を、漫画やアニメや舞台等、別の表現手法で作り直すことで、短くして売ることもできる。
売り方を工夫することでも状況は変わる。長いままの形で売らなきゃいけない、なんて法律で決まってるわけでもない。 *1

例えば、昔、MEGA-CDのゲームで、TVアニメに見立てたADVゲームがあったんだけど。そういう手も使えるんじゃないかしら。クリアまで数十時間かかると言われるより、1話20分で終わるよ、全部で何話だよ、と言われたほうが、20分単位か、だったらプレイできるかな? という気にならないかなと。実際、TVアニメがそういう形で商品になってるから、実績はあると言えるし。

ケータイゲームも、そういうやり方かもしれない。NHKの番組で、1日にピークが3回あると紹介されてたけど。朝、昼、夕に、数分〜数十分のプレイ。そこだけ見ると、プレイ時間は短く見える。でも、トータルのプレイ時間はとても長い。…そもそも、ケータイもスマホも、バッテリーの問題があるから、長いコンテンツも細切れにして提供しないと話にならないのかもしれないけれど。

つまり、構成の仕方を変える、パッケージングの仕方を変える、適切な区切りを入れて短さを強調する…ことでも状況が変わる。かもしれない。

でも、こういう話は、「作品」を作ってるつもりの人や、純粋なユーザ視点で「作品」を楽しんでる人には、ピンとこないかもしれないのか。「商売」「商品」の話でしかないから。

なんでこのへんもやもや考えたかというと。 :

_『2012年春 星海社FICTIONS新人賞 編集者座談会』2012年5月24日@星海社会議室 | 最前線 という記事を読んで、やたらと「長い」「長い」で没になってるなあ、と…。そこだけ見ると、「やっぱり『長い』とダメなんだ」と結論を出しちゃいそうだけど。

勝手な想像だけど。編集者は社会人だから、長い小説を読むのが基本的にツラいのではないか。読んでるうちに、「仕事とはいえ、時間がもったいない」と思い始めちゃうんじゃないか。だから、「長い」を理由にして、あっさり没にするのではないか、と邪推したりもして。

でも、 _SAO(ソードアート・オンライン) というラノベの話を見かけて、考え込んでしまったわけで。

なんでも、投稿規定をオーバーしたから自分で没にしてウェブで公開してた作品を、出版したらヒットしたとかなんとか…。いや、大賞応募用に編集し直したとか、出版する際に加筆修正したとか、そういう話も目にしたけど。そこは本筋じゃなくて。

つまり、SAOは、「『長い』という理由で没にされることが確定していた作品を実際出してみたら売れた」という例ではないのかしら、と思えてきたり。 *2

実際どうだったのかは分からんけど、とりあえずそうだと仮定すると。「長いから作品としてダメ」「長いから商品として売れない」が真ならば、SAOはそんなに売れなかったはず。だけどSAOは売れた(らしい)のだから、「長いから作品としてダメ」「長いから商品として売れない」という仮説があったとしても、それは間違っていると断言できる。…もちろん、そこから、「長いから作品として良い」「長いから商品として売れる」と変な結論出されても困るけど。

Fateシリーズもそういう事例なのか。長いけど、売れてる。めちゃくちゃヒットしてる。

そんな感じで、「長いからダメ、と自分は思ったけど、何がダメなんだろう」と、もやもやと。

少なくとも、「長さ」は、「作品」を否定する要因にはならないし、「商品」として間違いなく売れないと決定するほどの要因でもない、とは言えると思う。ただ、「商品」としてのハードルは上がる。なぜかというと、お金はあるけど時間に余裕がない人が多いから。

あくまで、自分の勝手な仮説ですよ。見落とし、間違い、事実誤認がありそうな気がします。

まあ、娯楽コンテンツを作って売ること自体、所詮は博打なので、こういうのって正解なんか無いですわな…。それに「作品」としてダメなら、どんなに工夫しても「商品」にはならんと思うし。

*1: いや、アニメ化・映画化云々は、「編集」を経由して、作品に手を入れちゃってる例なので、何か違う気もするけど。
*2: となると、「長い」という理由で没にしている編集者は、どこまで本当の商品価値を見出せているのかどうか、また、その投稿規定とやらが適切だったのかどうか、なんだか怪しい気もしてきたり。たぶん、作家さん当人や、編集者は、「規定があったから編集もした。推敲もできた。作品の質は上がった」「だから日の目を見たし、だから売れたのだ」と主張するだろうと想像するけれど。…本当にそうなのかな?

#3 [zatta] 小説も細切れにできるのかな

例えば、挿絵の枚数を増やして、文章のページを少なくして、1冊分の内容を、2〜3冊に分割したら、手を付けやすくなるのだろうか。

アレ? それ、ラノベじゃないのか。

実はラノベこそが、社会人でも手を付けやすくした、工夫の産物?

自分の中の、ラノベの定義が、そもそも間違ってないか。ラノベって何だろ?

#4 [zatta] 小説と漫画とアニメと負担と消費時間

小説と漫画とアニメを比較して、送り手にかかる負担は、小説<漫画<アニメ、のような気がしてる。小説家に漫画を描かせたら「小説書くほうが楽」と言うだろうし、漫画家にアニメを作らせたら「漫画描くほうが楽」と言うだろう、と思うわけで。

そして、受け手にかかる負担は、小説>漫画>アニメ、のような気がしている。

負担は、そこにかかる時間と考えてもいい。送り手にとっては、制作時間。受け手にとっては、消費時間。

紙芝居ゲームは、どのあたりに相当するのだろう…?

漫画とアニメは、消費時間が逆かな? 漫画のほうが、アニメより、短い時間で消費できるのだろうか。漫画単行本1冊分をTVアニメにすると、数話分になったりするから…。例えば、1冊分を、TVアニメ3話に分けたと仮定したら、20分x3=60分か。単行本1冊を、1時間で読むのは遅い? 早い? そもそも、単行本1冊分を、アニメでは何話ぐらいに分けるものなんだろうか。

受け手が、最も早く消費できるメディアって、何だろうな…。

コストという負担もあるか。…コストは、送り手も、受け手も、小説<漫画<アニメの順で同じかなあ。

コストパフォーマンスが一番良いメディアって、何だろう? 小説かな? 1冊読むのに、結構時間をかけられるもんな。でも、時間が貴重な社会人にとっては、時間がかかること自体がツライだろうし。その場合、消費時間が短いほうが、コストパフォーマンスが良い、という話にならないか?

送り手にとって、あるいは受け手にとって、一番バランスが取れているメディアって、何だろう…?

2012/07/22() [n年前の日記]

#1 [nitijyou] 選挙に行ってきた

須賀川市議会議員補欠選挙投票日だったので、親父さんの電動自転車を借りて公会堂まで行って投票を。…ちなみに、酒飲み運転した議員さんがクビになったので、こういうことに。なんだか恥ずかしいというか、情けないというか。

ついでに、ケーズデンキに行ってBD-Rを、ザ・ビッグで夜食等を購入。

DoCoMoショップに行ったのだけど、やたら混んでて、店員さんの話では、手続きまで2〜3時間待ちとのことで。平日なら空いてるかと尋ねたら、「今、夏休みですので…」との返事。ああ…そうか…。参ったな…。まあ、別の日にまた来ます。と引き返したり。

雨が降らないうちにと思って急いで帰宅。

#2 [anime] 目を瞑ってアニメの説明台詞を聞いたら分かりやすくなることに気付いた

アニメを見ている最中、なんだか目が疲れてきた気がしたので、目を閉じてぼんやりと台詞だけを聞いてたのだけど。「アレ?」と。ちと分かりづらさを感じてた説明台詞の類が、すいすい分かる。何だコレ。

不安になって、画面を見ながら台詞を聞く・目を瞑って台詞を聞く、という行為を繰り返したのだけど。やっぱり、目を瞑って聞いてるほうが、すんなり理解できる。

参ったなあ…。アニメって、総合芸術じゃなかったのか? これなら、ドラマCDで十分じゃないのか? なんだか嫌だなあ。アニメーターが原動画を描く作業は無駄でした、本当はそんなもの要りませんでした、なんて仮説は立てたくないぞ…。

そもそも、この現象、自分だけだろうか。少し不安になってきた。

脳の処理能力が落ちているだけかも。 :

自分がおじさんになって、脳の総合的・並列的な処理能力が落ちてるだけかも。視覚情報を処理するための脳のリソースを、ヒアリングと情報整理の回路に振り分けてやらないと、情報を処理しきれなくなっている、だけかもしれない。

あるいは、体調による可能性も。目が疲れたと感じるほどにアニメを見続けて、脳が疲れて、処理能力が落ちているのかも。調子のいい状態で同じことをしたら、結果が違う可能性もありそうな。

意識しながら演出に使っている場合はあるのだろうか。 :

視覚情報を無くして聴覚情報だけ流したほうが説明台詞が理解できる、と仮説を立てたとして。それを演出に利用している場面もあったりするのだろうか。

もしかすると、押井作品あたりは使ってそう。ボソボソ喋ると何を喋ってるのか聞き取ろうとして注目してくれる、等の理論武装をして演出してたりするらしいし。画面をわざと変化の少ない状態にして、といった技を使っていてもおかしくはない。…仮説が正しければ、だけど。

今までそういう演出方法について意識したことが無かったけれど。これからは、そのあたりも意識しながらアニメを見てみようかしら。

どこかで実験していないかな。 :

映像学科のある大学などで、このあたり、実験していないのだろうか。例えば、以下のような感じで。

内容が分かりづらいと思われる説明台詞の音声を用意して、それぞれ異なる映像と組み合わせ、同人数で構成したA〜Fの被験者グループに見せる。その後、説明台詞の内容について、どの程度理解できたかテストを行う。映像種類は以下の通り。
  • A. 説明内容に合わせ、文字や図を次々に表示する映像。
  • B. 画面は真っ白、もしくは真っ黒の映像。
  • C. イケメン/美人の役者が、こちらを向いて語りかけている映像。
  • D. 美しい風景映像。
  • E. 萌え美少女アニメキャラの口パク映像。
  • F. 大学教授が講義をしている映像。
どの映像と組み合わせた時、観客は、台詞の内容を理解しやすくなるのだろうか。

勝手な予想。以下のような理由で、A〜Fの順に理解度が悪くなっていかないか。
  • A. 視覚と聴覚の両方で説明されるから、一番理解できるのではないか。
  • B. 聴覚情報にのみ集中できるから、理解ができるのではないか。
  • C. 目の前に実際の人間が居て語りかけているように錯覚するから、聞き取ろうとして台詞に集中し、理解できるのではないか。
  • D. 風景に気を取られて、台詞内容に集中できないかもしれない。あるいは逆に、風景を気にかけず、聞き取りに集中するか。
  • E. 現実世界に存在しない異形の物体が喋っているという視覚情報が気になってしまい、台詞に集中できないかもしれない。
  • F. 大学教授は難しいことを話すはずだという思い込みが働き、理解しようという意思が積極的に働かず、理解できないかもしれない。
勝手な予想、というか妄想だけど。

実際に実験したら、どんな結果になることやら。結果が判れば、説明シーンの演出方法について、定石が見つかったりするのかしらん。

既に外国の大学などで、こういう実験は行われてるような気もする。自分如きが思いつくのだから、誰かが調べてるんじゃないかなあ…。

2012/07/23(月) [n年前の日記]

#1 [haxe][prog] Haxeを試用

ActionScript3 に近い書き方で、FLASH や JavaScriptのコードを吐けるという、Haxe なるソレを試してみたり。試した環境は、Windows7 x64 + Flash Develop。

_Haxe公式サイト? から、Haxe-2.10-Windows.exe をDL。実行してインストール。FlashDevelop 上で新規プロジェクト作成。Haxe - AS3 やら、Haxe - JS(JavaScript)やらを選んで、Hello World をしてみた。たしかに、目的の言語(?)に変換されている模様。Flash Player やブラウザ上で動いてること確認。

NME も試用。 :

Haxe で使える、 _NME という2Dライブラリもあるそうで。FLASH、HTML5、Windows、Mac、Android、iOSなどで動作するプログラムが作れるらしいので、これも試してみたり。

NME-3.4.0-Windows.exe をDL・インストール。 _Haxe - Wikipedia に、画像表示するだけのサンプルが載ってたので、それを打ち込んで動作確認した。画像を、assets/img/ に入れて、ソース中での指定を「img/sample.png」に変えた程度。

FlashDevelop 上で、Haxe - NME の新規プロジェクトを作る際は、パッケージ名に、「com.xxxx」等の形で入力しておかないといけない模様。そうしないと、プロジェクト作成直後に、エラーメッセージが表示される。

FLASH は、特に何もしなくても、F5を押してビルド?をしたら動いてくれた。

HTML5(JavaScript)は、「デバッグ」ではなく「リリース」にしないと、ビルド時?にエラーが出る模様。そこだけ気を付ければ、ブラウザ上で動いてくれた。

Windows 用のソレを作るには、Visual Studio 2010 Express (Visual C++ 2010 Express) が必要。NME には、それぞれで必要になる環境を用意してくれる機能があるようで、コマンドプロンプト上で、nme setup windows と打ち込めば、Visual Studio 2010 をDLするかい? と尋ねてきて、環境を揃えてくれる模様。ただし、インストールされる Visual Studio は、おそらくは英語版。最初から日本語版を自分でインストールしておいたほうがヨサゲかも。

とりあえず今回は、Visual Studio 英語版がインストールされた後に、日本語版を Microsoft のサイトからDLして、上書き(?)インストールしてみた。スタートメニューから起動した限りでは、日本語版になっているように見える。

ひとまず、プロジェクトフォルダの、bin/cpp/windows/bin/ 以下に、exeファイルが出来たので、クリックしたら動いてくれた。しかし、起動の際にDOS窓らしきウインドウが開く。本当はどういう起動のさせ方をするべきなんだろうか?

Android 用も少し試したり。必要な環境は、nme setup android と打ち込めば揃えてくれる。 Android SDK、Android NDK、Apche Ant、JDK、をDL・インストールするらしい。それらを導入済みなら、それぞれで「n」を押せば、DL・インストール作業をスキップできる。その後、「○○○のパスを教えろや」と尋ねてくるので、インストール済みSDK等のパスを入力してやればいい。

しかし、ビルド?はできたっぽいのだけど、どのファイルが成果物なのやら…。エミュレータ上で動かせないのかな? 自分、そのあたりの基本的なことが分かってないので、ここで手詰まり。

文法で引っかかったところをメモ。 :

  • switch - case は、各 case に1行しか書けない。break; は不要。
  • 整数は Int と指定。var step:Int = 0; みたいな書き方。
  • 一般的な for 文、for ( var i=0; i < arr.length; i++ ) { } は、無くて、for (i in 0...arr.length) { } しか用意されてないらしい。

#2 [eclipse] Eclipse 4.2.0を入れてみた

なんだか新しい版が出てたらしいので、試しに触ってみようかと。

_MergeDoc Project から、pleiades-e4.2-ultimate-jre_20120716.zip をDL。せっかく Windows7 x64 を使っていることだし、今回は試しに 64bit版をインストールしてみた。

zip の中にはパスがやたらと長いファイルが入っているらしいので、解凍するソフトや、解凍場所を気を付けないといけない。とりあえず、C: に tmp というフォルダを作って、そこに zip を移動してから解凍した。

起動してみたけれど…。なんだか、ウインドウの下地の色が変わった? 気のせい?

プラグインも入れた。 :

今まで何を入れていたか忘れてしまっているけど…。思い出せる範囲で追加。もしかすると、既に不要なものまで入れてる可能性もあるけど。

_Markdown Text-Editor plugin for Eclipse
Eclipse上でMarkdown形式のファイルを編集できる。インストールは、eclipse のメニューから、ヘルプ→新規ソフトウェアのインストール、を選んで行うけれど、URLに、 _http://winterstein.me.uk/projects/tt-update-site/site.xml を指定しないとインストールできない。

_Lunar Eclipse (Editor Enhanncements)
_@IT:CoolなEclipseプラグイン(7)
Emacs風の補完機能を追加する。editorEnhancements_3.1.1.zip をDL・解凍して、eclipseのpluginsフォルダにコピーしてインストール。

_Eclipse Text Editor Extensions (ETEE)
選択範囲を外部フィルタに渡せる。net.sf.eclipseexeditor_1.0.7.zip をDL・解凍して、pluginsフォルダへコピー。

_Web Search Plugin
選択範囲の文字列でWeb検索できる。新規ソフトウェアのインストール、で、 _http://www.ahmadsoft.org/update/site.xml を指定。

_Android Development Tools (ADT)
Andorid向けアプリを開発する際に使用。ヘルプ→新規ソフトウェアのインストール、を選んで、 _https://dl-ssl.google.com/android/eclipse/ を指定。

以下は、ちょっと気になるプラグイン。

_Eclipse Platform Extensions
パッケージエクスプローラ上で、フォルダを選んで右クリックすると、コマンドプロンプトが開けたりするらしい。けど、Open External というプラグインが、Pleiades 版には既に入ってた模様。右クリック→「外部で開く」で同じことができる。ので、こっちのプラグインは入れなかった。ただ、Eclipse Platform Extensions は、ガベージコレクションを指示したり、再起動云々の項目が追加されたりする違いがあるらしい。

_AnyEdit
大文字小文字の変換等ができるようになる。新規ソフトウェアのインストール、で、 _http://andrei.gmxhome.de/eclipse/ を指定。で、インストールしてしまったのだけど、後で確認したら、Pleiades版には最初から既に入ってた…。

#3 [pc][neta] Macを使っているプログラマーさんにちょっとお願いしたいことがある

いや、わざわざ、こんな記事タイトルにするような、大げさな話じゃないけど…。

「このツールが便利」等の記事を書く時は、「Mac」「OS X」等のキーワードを記事中に書いといてほしい…。というのも、「ほほう、そんな便利なツールが」と思って検索したらMac用だったりしてショボンとすることが最近多くて。どうも、Macを使ってるプログラマーさんは、環境を書かない人が多い、ような気がしてきた今日この頃。Macユーザは、世界中のパソコンは全てMacだ、と思ってる人が多いのでしょうか。

などと書いてはみたけれど。Windowsユーザのほうが、そのへん圧倒的に酷いですわな…。

こういった傾向に気付いてからというもの、一応自分も、「Windows7 x64 + ○○」みたいな文字列を意識してメモしているつもりではあるのですが。それでもやっぱり時々メモし忘れてるだろうし、昔書いたメモはそのあたりもう酷いもんで。なんだかスイマセン。

その点、Linuxユーザは偉いですよ…。ほとんどの場合、「Ubuntu」「CentOS」「Debian」等のキーワードが記事中に書いてある。「ああ、Linuxの話か」とすぐに分かる。まあ、ディストリがたくさんある状況も関係してるのでしょうけど…。それでもその都度、ちゃんとメモしているのは、本当に偉い。Linuxユーザは偉い。

ということで、自分も含めてなのだけど、皆でLinuxユーザを見習おうよ。…てなことを思ってしまったという話なんですが。

しかし、こういうのって自動化できないものかなあ、という気もチラリと。

#4 [movie] 「きみがぼくを見つけた日」を視聴

外国の映画。TVをつけたら流れてたので、20分ぐらいは見逃してしまったけど、最後まで見てみたり。ランダムな時代にタイムトラベルしてしまう体質、を持った男が少女と出会い、みたいな話。

最初のあたりは、ロマンチックな話かなと思って見てたのだけど。 結婚後にどんどんリアルな展開、あるいはミステリーな展開になっていってビックリ。それでいて、ラストはグッと来る終わり方で。

自分、基本的に、時間軸を行ったり来たりする設定・話が好きで。これだよ…。こういうのがいいんですよ…。タイムトラベラーモノは、こういう切なさ(?)を醸し出せるから好き。最初から見ておけば良かった…。

2012/07/24(火) [n年前の日記]

#1 [haxe][prog] Haxe+NMEをもう少し勉強中

ゲームのメインループっぽいものが書けないとよくわからないな、と思えてきたので、 _サンプルプログラム を書いてみたり。Windows7 x64 上の、 で動作確認した。

60FPSを指定してみたけど、Flash も JavaScriptも、Windows7 x64 + Google Chrome 上ではそれなりに動いているようで、なんだか感動。もっとも、自分の環境は、CPU が Core i5-2500(4コア、3.3GHz) なので、もっと非力な環境で動かすとどうなるか分からないけれど。また、Firefox と Opera 上では、JavaScript版は動きがガタガタしている。…Firefox のソレは、アドオンが何かをしているのかもしれないか。

全然関係ないけど。Webページ上でのソースコード表示に、SyntaxHighlighter なる JavaScriptライブラリ?を使ってみたり。色分けされると結構違うなと。Haxeのソースには、as3 (actionscript3)を指定してみたけれど、一応そこそこ色分けされてる模様。

Androidエミュレータ上でも一応動いた。 :

プロジェクトフォルダ内の bin/android/bin/bin/ 内に、hoge-debug.apk なるファイルが出来ていた。

エミュレータが認識(?)されているか確認。adb devices と打つ。
>adb devices
List of devices attached
emulator-5554   device
「emulator-5554 device」と表示されたらOK。「offline」だったらダメ、なのかな。

.apk をインストールする。adb install hoge-debug.apk と打ってみた。
>adb install haxehellowroldnme-debug.apk
195 KB/s (1741276 bytes in 8.677s)
        pkg: /data/local/tmp/hoge-debug.apk
Success
「Success」と表示されたら転送成功。しかし、なんだか時々、「Failure [INSTALL_FAILED_CONTAINER_ERROR]」と表示されるのが気になる…。

それと、Android 2.3.3 (ARM)、Android 2.2 (ARM)、Android 4.1 (ARM) のエミュレータなら実行できたけど。Android 2.3.3 (x86)エミュレータでは実行できなかった。インストールは出来るが、起動しようとクリックすると、エラーダイアログを出して、そもそも起動しない。もしかすると、ARM用とx86用で異なるバイナリを用意しないといけないのかもしれない。Android SDK を使って作ったアプリはJavaモドキだからどちらでも動くけど。Haxe + NME は、おそらく Android NDK を使って作成している = C++ で作ってるから。ということかも。わからんけど。

#2 [movie] 「きみがぼくを見つけた日」のラストがなんだかおかしい気がしてきた

昨日視聴した、「きみがぼくを見つけた日」という映画のラストが、今頃になってなんだかおかしいような気がしてきたり。観客側は時間の流れが順方向だから不自然さを感じないけど。男は どんな状況に自分が飛んできたのか知らないわけだから、あんな言動をしないような…? あの男は、 どの時代から飛んできた男なんだろう? 何故、あの状況を受け入れているのだろう? なんだか、観客を感動させることを優先した結果、おかしな展開になっている気がする。もしかすると、原作には無かったけれど、映画スタッフが考え無しに付け加えてしまったラストなのではあるまいか。

いや、自分が見逃した最初のあたりで、同じ光景を既に提示されている可能性があるか。その時点では、男は全く違うことを考えてその言動を取った、という描写がなされているのかもしれない。

いやいや。あらかじめ、あのシーンを見せてしまっていたら、観客はラストが分かってしまうだろう。 男も奥さんも知らない未来を観客だけは事前に知っている状態になってしまうから、せっかく 奥さんが感動しているシーンも、観客は「ハイハイ。知ってました」的気分で眺めてしまうわけで。感動のラストにはならないのではないか。だとすると、もし最初のあたりで見せるとしても、ラストシーンを見ている観客が「ああ、あのシーンはこういうことだったか」と思える程度に、微妙に情報を隠しながら見せなければならない。

タイムトラベラーが出てくる話って、辻褄合わせが大変だなあ…。

2012/07/25(水) [n年前の日記]

#1 [haxe] Haxe + NMEをまだ実験中

とりあえず、Android実機、Lenovo IdeaPad A1 で動かせるか試していたり。実機をUSBケーブルで接続して、adb install -r hoge_debug.apk と打てばインストールはできる。-r は、reinstall の r。

一応動いたのだけど、600x1024の画面サイズの端末に、320x480で設計したソレを表示しているから、画面の左上に小さく表示されている状態で。画面一杯に表示したいのだが…。

方法その1。ソース中で、
var stage = Lib.current.stage;
stage.scaleMode = nme.display.StageScaleMode.EXACT_FIT;
stage.align = nme.display.StageAlign.TOP_LEFT;
stage.displayState = StageDisplayState.FULL_SCREEN;
等を指定する。 このように指定すれば、画面サイズ一杯に引き延ばしてくれる。ただし、application.nmml 中で、unless="mobile" と書かれた部分を削除しておかないといけない。この指定が入っていると、Android 版は、 〜.scaleMode = 〜.NO_SCALE しか機能しない。ソレ以外を指定すると、そもそも画面が一切表示されない状態になる。…でも、わざわざそういう指定がデフォルトでされているということは、この指定を削ると別の環境では問題が出るのだろうな。

方法その2。ステージに Sprite を addChild() して、描画したいものは全てそのSpriteに addChild()。その、全てを司る Sprite を、画面サイズに拡大縮小する。画面の縦横幅は、Lib.current.stage.stageWidth , Lib.current.stage.stageHeight で取得できる。

一応このようにして、画面一杯に表示できなくはない。けど。どちらも遅い…。60FPSを指定しているはずなのだけど、どう見ても処理落ちして、動きがガクガクしてる。10〜20FPSぐらいを前提にして作らないと描画が間に合わない予感。大昔のガラケー並みに酷い。 *1

Lib.current.stage.quality = StageQuality.LOW; 等を指定して、画質を落として処理速度を稼げないかと期待したけれど。試してみても効果は無く。
*1: もっとも、昔のガラケーは 600x1024 よりはるかに小さい画面サイズだったので、それに比べれば、機器のスペックは明らかに向上しているのだろうけど。

#2 [flash] Flashはまだゲームパッドに対応してなかったのか

Flash 11 はゲームコントローラもサポートする、という話があったことを今頃知って、少し検索してみたのだけど。どうも、AIR TV なる環境でしか使えないらしく。
ゲームコントローラー API(AIR TV) ? 開発者は、ゲームパッドやコントローラーなど、接続されているゲーム入力デバイスと通信できるテレビアプリケーションを構築できます。注意:この機能は、デスクトップやモバイル用の AIR ではまだ使用できません。

Flash Player 11 および AIR 3 リリースノート:2011/10/04 より

「この機能は、デスクトップやモバイル用の AIR ではまだ使用できません。」とな。ショボン。

となると、ブラウザ上で動作して、かつ、ジョイスティック・ゲームパッドを使えるゲームを作りたいとなると、Unity一択ということになるのかな…。

ローカル上で動作させること前提なら、DirectX や SDL を使ったLL用のライブラリも、そのあたり対応してくれていることが多いので、どうにかなりそうだけど。DXRuby、Ruby/SDL、PyGame は対応していた記憶があるし。LLではないけど、HSPも機能追加でできたような記憶も。でも、ブラウザ上でページを開くとすぐにプレイできる、という手軽さと比べてしまうと…。DLして、解凍して、実行する、というのは…。

やっぱり、ゲーム作りたいならUnity、なのかなあ…。

条件付きでゲームパッドに対応できなくもないらしい。 :

_JoyServer - Flash 上でジョイスティックを操作するためのソフト
_Flashでジョイスティックを使う実験 - GEOQUAKE Backstage

前者は、Windows上でジョイスティックを読み取るサーバを動かして、後者は、Unityのプラグインに読み取らせて、Flashでやり取りする仕組み。らしい。

できなくはない。が、利用者側にとってはハードルが高いよなあ…。リンク先でもそのあたり言及されてるけど。利用者側がそこまでするか? と考えると…。

Flashが対応してくれれば話は早いのだろうけど。

2012/07/26(木) [n年前の日記]

#1 [actionscript][haxe] Starling、ND2D等について調べたり

Flash Player 11 では Stage3D なる機能が追加された、と今頃知った。なんでも、GPUを積極的に使うことで、描画パフォーマンスを向上させる機能なのだとか。ただ、使うのはちょっと面倒らしく。それを簡単にするための、ライブラリだかフレームワークだかが、いくつか公開されているのだとか。

Starling と ND2D は、そういったフレームワークで、2D描画に限定したものらしい。

ということで、FlashDevelop 上で使えそうなのか、少し調べているところ。

先日知った Haxe から使えたら良かったのだけど、どうも使えているらしき事例が見つからず。おそらく、Starling、ND2D、を利用するなら、最初から終わりまで ActionScript3 用としてガッチリ書かないといけないのだろうな…。

Haxe + NME とベンチマークを取っている記事も見かけた。

_RunnerMark Scores ?July 18, 2012
_Performance Showdown: Starling vs ND2D vs Genome2D vs Haxe NME

グラフの見方が分からないけど…。短いほうが速くて、長いほうが遅い、ということなのかな? 常識的に考えて、Haxe + NME のほうが速くなるわけがないだろうし。もし、Haxe + NME のほうが速いなら、Stage 3D なんて要らなかったんや、という話になっちゃうだろうし。

3Dのフレームワークだけど、 _Away3D も気になる。Flash でこんなことができる時代になってたのか。知らなかった。自分、遅れてるなあ…。

しかし、どれを勉強しておくべきなのやら。 :

Web上で3D云々を見せようとするなら、どれを選ぶべきなのか。今一つよくわからず。巷では、「これからはWebGLの時代だ」と気炎(?)を吐いてる記事を見かけるけれど。Microsoftが「IEはWebGLに対応しねえよ」と明言してるし。IEが対応する予定がないのに、WebGLは標準になれるのかな、という不安もあるわけで。 *1 その点、Flash Player なら、普及率に関して問題はない。Unityプラグインという選択肢もあるけど、これは普及率という点で微妙。となると、全てのブラウザ上で3D表現を見せたいなら、現状では Flash を選ぶのが妥当なのだろうか。

しかし、スマートフォン上では、Flashプラグインの提供は終わってしまったし。AIRアプリの形なら、FlashもまだまだOKらしいけど、何にせよデスクトップ用とモバイル用では状況が違ってしまう。

結局、Webに限って言えば、「コレで作っておけばどの環境でもOK」という状態は得られないのだろうな…。デスクトップ用と、モバイル用。ブラウザ上で動かすか、アプリとして動かすか。普及しているか、してないか。それぞれの視点で見ていくと、どれが妥当かよく分からず。 *2

サウンド関係も、各ブラウザの対応状況がmp3派とogg派に別れていて面倒だけど。ブラウザ上の3D云々も、面倒なことになってる気がしてきた。IEがWebGLに対応すれば、「これからはWebGLだね」で話は済むだろうに。

*1: もっとも、IE上でもWebGL相当を使う方法は模索されているらしく。Java Applet の形で実現する JebGL。IEにプラグインの形で機能追加する IEWebGL。IE上で Webkit を使うらしい Google Chrome Frame。色々な試みがあるらしい。
*2: 速度を諦めれば、HTML5 + JavaScript が、もっとも汎用性がありそうだけど。でも、遅いし。あの速度は…。昔のガラケーですか。ベーマガ時代ですか。という気分になる。まあ、そのうち高速化される可能性はあるのだろうけど。

#2 [anime][neta] スタジオジブリとマッサージチェア

夢の中でアホな妄想を思いついたのでメモ。

マッサージチェアを作ってるメーカ側から、スタジオジブリに、マッサージチェアを寄贈するのはどうかなあ、と。ただし、使ったアニメーターさん達の感想を宣伝広告に使わせてもらう条件付きで寄贈する。みたいな。

以前NHKの番組内で、宮崎駿監督がマッサージを受けている映像を見たことがあるのだけど。そこから察するに、おそらくアニメーターさんにとって「肩こり」は職業病。いわばアニメーターさんは、「肩こりのプロ」。特にジブリのアニメーターさんなら、ガンガン描かされているはずだから、「肩こりのプロの中のプロ」のはず。そんな人達が絶賛するマッサージチェアが、この世に存在するとしたら…。

要するに、「あのスタジオジブリが認めたマッサージチェア!」というキャッチコピーは、インパクトがありませんか、と。

おそらくコピーを見た人の頭の中では、「なんでジブリとマッサージチェアが繋がるんだ。わけわかんねえ」→「ああ、アニメーターが絶賛しているという話だったのか」→「ジブリのアニメーターが褒めているってことは、よっぽど効果があるマッサージチェアなんだろう…」てな流れに。これはもう、商品として抜群の宣伝効果。

また、そういう話を聞けば、ちょっとお金を持っている漫画家さんなども、「ジブリで使ってるマッサージチェアなら…」と期待して購入するかもしれない。つまり、特定の業界内で妙にじわじわ売れていくヒット商品に育つ可能性が。

と、そんなバカ妄想をしたのだけど。しかしそもそも、アニメーターの職業病=肩こり、なのかなという疑問も。腕や肩の筋を痛めるとか、指が変な方向に曲がってしまうとか、原画をペラペラめくる時の風でお腹が冷えて下痢するとか、トレス台の光を見続けて目が悪くなるとか、そういうことのほうがありえそう。

そもそも、ジブリのアニメーターさんが「これはいい」と思うようなマッサージチェアなんて、存在するのだろうか。最初のうちは珍しくて利用してくれたとしても、そのうち、「なんだか効果がないね」「かえって体が痛くなった」と言われてホコリを被ってしまいそうな。

あるいは、効果があっても、利用してるアニメーターさんの姿を見て、宮崎駿監督が「仕事をサボるな!」と怒り始めるかもしれない。そして、誰も怖がって使わない状態に。…でも、鈴木Pなら気にせず使ってくれるかもしれない。あと、遊びに来た庵野監督が使ったり。ゴロー監督も大丈夫か。ゲド戦記の制作風景から想像するに、ゴロー監督の姿を目にしても宮崎駿監督はくるりと引き返してくれるから怒られずに済むのかも。

それはともかく。もしアニメーターさんが肩こりバリバリの人種なら、マッサージチェア開発時の被験者として有効活用できそうな気も。日本が発明したソレとしては、トイレのウォシュレットが有名だけど。マッサージチェアも世界に誇れる製品になるのかもしれない。日本が延々手描きアニメを作っていたから、日本のマッサージチェアは異常に発展した、みたいな。

実にくだらない妄想ですね。

2012/07/27(金) [n年前の日記]

#1 [nitijou] DoCoMoの携帯電話を解約してきた

今まで、DoCoMo端末向けのiアプリ(iOS用のアプリじゃなくて、ガラケーのアプリ)を開発するために契約してたのだけど。いくらなんでも今後その手の話は入ってこないだろうと予想するわけで。7月中なら、2年縛りによる解約時の違約金を払わずに済むので、この際だから解約することに。

親父さんの電動自転車を借りて、近所のDoCoMoショップまで。先日はむちゃくちゃ混んでいて2〜3時間待ちだったけど。今日はそこそこ空いてるように見えた。しかし、それでも20分待ち。

解約時にSIMカード?を返すのかと思ったけれど、そのまま持ち帰ってもよいらしく。カードを差しておかないと色々な機能が使えなくなる携帯がある、との話なので、せっかくだからカードは持ち帰ることに。一応店頭で、ワンセグ機能が使えることを確認してもらったりもして。いや、自分、ワンセグ機能はほとんど使ったことないけど。電波が弱いから人物の顔がすぐにグロ映像になるし。

それはともかく、カードを差していても、ちゃんと通話・通信できない状態になった。圏外の表示が出たままになる。なんだか凄いなあ。

60日間だか、90日間だかは、携帯の電話番号に電話がかかってきた際に、別の電話番号を音声で流してもらえるらしい。実家の固定電話の番号を知らせてもらうようお願いしてきた。

本当は、緊急時の連絡用に契約し続けておきたいところなのだけど。そのためだけに、毎月支払い続けるというのも…。自分、基本的に外出しないし…。大昔のテレホンカードのように、事前にいくらか支払って、その範囲で通話のみができるサービスでもあればいいのだけど。おそらくは、ちょっと前まであった、プリペイド方式の携帯になるのかな。ただ、DoCoMoはそういうサービスから撤退したらしいし。auあたりは残ってるらしいけど、専用の端末が必要になるようで。スマホでそういうことができるならともかく、専用端末ではなあ…。そうまでして使うだろうか、という気もするので今回はスルー。…GHz級のデュアルコアCPU積んでおきながら、その手のサービスにサクッと対応できないスマホって、一体何なんだろうという気もするけど。いや、端末側ではなく、サービス提供側にとって面倒な何かがあるのだろうな。

MNPでauあたりに乗り換えて特典ゲット云々も考えたけど。現時点では、まだお仕事(?)になりそうな道筋が見えてないから、そのへんが見えた時に新規契約すればいいよな、と。

#2 [nitijyou] 色々買い物してきた

リオンドールで夜食等を。その後、ヨークベニマル店内のSeria(100円ショップ)でちょこっと購入。
ダイユーエイトにも寄った。

#3 [actionscript] Starlingを勉強中

Flash Player 11 以降で使える2Dフレームワーク、Starling について勉強中。FlashDevelop中で色々テスト。

最初、flash.display.Sprite を starling.display.Sprite に置き換えれば動くのかと思ったけれど。エラーが出てしまって悩んだり。要するに、Main.as は flash.display.Sprite を継承して、その中から starling.display.Sprite を継承したクラスを、という形にしないといかんようで。そこが分かってからはサクサクと。

_Starling を使った Flash コンテンツ表示の基本 - akihiro kamijo がめちゃくちゃ参考になりました。ありがたや…。

2012/07/28() [n年前の日記]

#1 [actionscript] Starlingについてまだ勉強中

画像を表示できるところまではどうにか分かった。

svgも表示してみようと思い立ったのだけど。こんな感じ?
// svgファイル埋め込み
[Embed(source="../image/face_cp.svg")]
private static const MySvg:Class;
// svgをSpriteの中に入れる
var spr:flash.display.Sprite = new MySvg();

// BitmapDataを作る
var bdt:BitmapData = new BitmapData(128, 128, true, 0x000000);

// BitmapDataにSpriteの見た目を描き込む
bdt.draw(spr);

// BitmapDataから、Textureを作成
var myTex:Texture = Texture.fromBitmapData(bdt);

// Textureから、Imageを作成
var myImg:Image = new Image(myTex);

2012/07/29() [n年前の日記]

#1 [cg_tools] Texture Atlasについて調べてる

複数のpngファイル等を1つの画像に配置することで、GPUにとっては処理が楽になるらしいのだけど。そのへんの仕組み? 概念? を、 _Texture Atlas と呼ぶらしい。えてして、1つになった画像と、どこに何のテクスチャが配置されているのか記述したxml、とのセットで使う模様。

Flash の2Dフレームワークである Starling も、それをサポートしてるようで。

一応、GIMP等を使って手作業で画像を配置して、xmlも自分で打って、とかやっていけば目的は果たせるだろうけど、ぶっちゃけ面倒臭い。画像修正するたびに作り直しなんて途方に暮れる。ので、ツールがあるなら使ったほうが、はるかに便利だろうとは思う。

_TexturePacker - Create Sprite Sheets for your game! :

Texture Atlas 用の画像を作成できるツール。Windows/Mac/Ubuntu Linuxで動作する。Cocos2D,Starling,Unity等、様々なフレームワークに対応。それぞれに対応したxmlを出力してくれる、ということじゃないかと想像。

無料版と有料版があるように見えたので、無料版を試用してみたが、作業が圧倒的に楽になりそうだと感じた。

ただし、無料版は、Publish で画像出力した際に、画像の中に文字が書き込まれてしまうので、実際の開発作業には使えない。あくまで体験版の位置づけなのだと思う。

機能制限が無い有料版は、ライセンスが2千円台で購入できるそうで。言及しているblog記事を眺めた限りでは、この手のツールを欲してる人は軒並み購入してるように見えた。たしかに、得られるメリットを考えると、値段は安い。フツーはコレを買ってこの話は終わり、だろうと思う。

_What is a sprite sheet? - The Movie :

Texture Atlas についての説明動画、なのかな。分かりやすい。

_Texture Atlas Tools :

NVIDIAで公開されているツールらしいが…。Windows7 x64上にインストールしてみたけれど、ビューワと、コマンドラインで画像を連結出力するツールが入ってるみたい。

.taiファイルなるものを読み込むらしいが、エディタで開いてみたら、タブやスペースで情報が区切られたテキストファイルだった。

_Texture Atlas Maker - CodeProject :

Javaで作られたツールらしい。試用してみようかと思ったら、ダウンロード時に、サイトへのメンバー登録を要求された。そーゆーのは面倒臭い。試用は諦めた。

_bitorus - STAME - Simple Texture Atlas Map Editor :

Windows7 x64 上で動作確認してみた。どうやら手作業で各画像を配置していくツールらしい。
  • グリッドにスナップされない。カーソルキー+目視で配置するのはツライ。
  • 矩形領域を指定できるモードがあるらしいけど、ドラッグしても領域指定ができない。
  • exportしても、xml内に配置情報が全く出力されない。
おそらく、現在鋭意制作中のツールであろう予感。

_Sprite Sheet Packer :

Windows上で動作するツールらしい。
  • 画像ファイルをD&Dするとリストに登録される。
  • Image Padding は、余白をどれだけ取るかの指定。
  • Require Power of Two Output は、出力画像サイズを2のべき乗(128,256,512,1024等)にするか、という意味じゃないかと思うけど自信がない。
Image File に出力画像ファイル名を指定して、Build Sprite Sheet を押せば、画像と txtファイルが出力される。txtファイルは以下のようなフォーマット。
ball = 0 514 64 64
ball_red = 0 0 512 512
ball_red_small = 514 0 64 64
ball_red_small_2 = 580 0 64 64
chara = 514 66 64 64
chara2 = 0 580 64 64
おそらくは、元画像ファイル名 = x y w h が並んでいるのかな? たぶん。PerlやRubyでxmlに整形出力すれば、使えるのかもしれない。

各画像内の無駄な余白について、TexturePacker のようにトリミングしてくれる機能は無いので、リストに登録する前に、自分で無駄な余白を無くす等しておかないといけない。

_Texture Atlas Utilities | GIMP Plugin Registry :

GIMP用スクリプト。メニューの、画像 → Texture Atlas に項目が追加されるのだけど。Add Image Layers To Atlas... を選んでもエラーが出る。使い方がさっぱりわからない。

#2 [cg_tools] GIMP関係で気になるソレをメモ

_全レイヤーを画像サイズに合わせるor自動切抜きするスクリプト
_全レイヤーの表示位置をテキストファイルに出力するスクリプト

全レイヤーの、x,y,w,hが取得できるわけだから、GIMP上で Texture Atlas を作るスクリプトも書けそうな気もする。 ここまでは、既に、機能やスクリプトがあるのでOK。

ここは作らないといけない。配置する際に、画像サイズを2のべき乗単位に変更する処理も必要になるだろうか。

これは、既にスクリプトがある。

ここは作らないといけない。もしくは、GIMPスクリプトを修正して、xmlでも出力できるモードを追加するとか。

でも、Python + PIL 等で作ってしまったほうが楽そうな気もする。

塗りに関して気になるページ。 :

_マチュアアニメーションを安く制作するのを応援するページは

「串刺し塗り」というアプローチに、なるほどと思ったり。手描きアニメ制作時の作業効率向上に繋がりそう。そのままできる場面は少ないとしても、自動判定処理を盛り込んでいけばどうにか…。

もしかして、RETASあたりはそういうことが当たり前のようにできたりするんだろうか。気になって検索。 _昔はできた っぽい。

#3 [cg_tools] psdをレイヤー別にpngで保存する方法

_ImageMagickを使えばpsdファイルをレイヤー別に保存 できるらしい…。知らなかった。

Windows7 x64 + GIMP 2.6.11 で、複数のレイヤーを持ったpsdを保存して実験。ImageMagick の convert で変換。
convert hoge.psd -delete 0 fuga_%04d.png
複数の fuga_*.png が得られた。GIMPでレイヤーとして開いてみたが、透明度も残ってるように見える。素晴らしい。

と思ったが問題発見。全レイヤーに対して自動切り抜きをしたpsdで同じことをしたら、GIMPで開く際に、「画像サイズ外に描かれている変なpngだ」と警告されてしまった。Photoshop Elements 8.0 で psd を保存し直して試してみたけど、同じ結果に。どうやらあらかじめ、 _全レイヤーを画像サイズに合わせる 処理をしておかないといけない感じ。

GIMP + _Continuous Save なら、そういう問題は起きない模様。位置情報は消えるけど、レイヤー内の描かれている部分だけをpng保存してくれる。

その後少し調べてみたが、そもそも Photoshop Elements 8.0 でpsd保存すると、GIMP上で全レイヤーに自動切り抜きをかけた状態と同じになる。つまり、Photoshop Elements で保存したpsdに対してImageMagick でレイヤー別に保存すると、おかしなpngが出来てしまうのが確定、なわけで…。Photoshop しか持ってない人は、ImageMagick だけではレイヤー別に保存できないんじゃないかと思えてきたり。

_どうでもいいと思うよ: ImageMagickのPSDの扱い方 で詳細な実験結果が。どうやら各pngには、位置情報も含まれているらしい。それを取り出して位置合わせをすれば解決するらしいが、どう考えても面倒。

_image processing - Extract layers from PSD with ImageMagick, preserving layout - Stack Overflow に、気になるオプションが見つかった。
convert hoge.psd -set dispose Background -coalesce -delete 0 fuga_%04d.png
これなら、警告が出ないフツーのpngに変換できた、ような気がする。オプションの意味はさっぱりわからないけど。

でも、やっぱり、GIMP + _Continuous Save + _全レイヤーを画像サイズに合わせる 、を使ったほうが楽かな。 そんな感じだろうか。

#4 [cg_tools] GIMPのパターンファイルを少し増やしてみたり

_PhotoshopのパターンをGIMPで開くプラグイン | Eglantyne2 画像遊び
_Photoshop Pattern Loader Binaries for Microsoft Windows | GIMP Plugin Registry
_鉄とGIMP >> Blog Archive >> 複数の画像からパターンを一括作成(Script-Fu)

参考にして、PhotoshopのパターンファイルをGIMPのパターンファイルに変換。

_Free Patterns for Photoshop or Gimp | texturemate.com - Free Textures, Brushes, Patterns, and Design Articles!
いくつかDLさせてもらって、変換のテストを。…当初、GIMPでもそのまま使えるpatファイルなのかと思ったら、そんなことはなかったわけで。なので、このあたりの実験を。

2012/07/30(月) [n年前の日記]

#1 [nitijyou] 自宅サーバ止めてました

雷が鳴っていたので、13:45-15:45の間、自宅サーバを止めてました。申し訳ないです。

このへん、 _東京電力の落雷情報ページ を見て確認等してるのですが。郡山市のあたりは真っ赤でした…。しかし、どうして東京電力なんだろう。東北電力じゃなくて。

ああ、 _東北電力の落雷情報ページ もあるのか。でも、拡大が出来ないから、東京電力のページを見てたんだな…。忘れてました。

#2 [zatta] どうして犬の名前は「ポチ」なんだろう

なんででしょうね。

_ポチ - Wikipedia

明治以降の話だったのか。江戸時代はどんな名前をつけるのがメジャーだったんだろうか。

#3 [prog] 長方形詰込み問題について調べてる

Texture Atlas 用の画像を作成する際、複数の画像を、1枚の画像の中に、詰め込んで配置していく必要があるわけだけど。そのあたりを自動化するにあたって、適したアルゴリズムがあったりしないのかなと検索してみたら、実はかなり難しい問題だったようで。 色々な呼び名があるようだけど、まあ、とにかく難しい。 _NP困難 な問題、とされてるそうで。 _Sequence-pair とか、何が何だかさっぱり。

とりあえず、その手の解説ページを読んでいるところ。

以下は妄想。

_フロアプラン問題・手動配置サンプル というページで矩形を動かしているうちに思ったけれど。各画像のサイズでアタリ判定をつけて重ならないようにしてくれるCGツールがあったら、こういう時に役に立つんだろうかと妄想。手作業で配置すること前提の話だけど。

昨今は物理演算なるものがゲーム界隈で流行ってるらしいけど。それを使って詰込みできたりしないのかなと妄想したりもして。摩擦係数の少ない矩形を落としていって、箱を左右に何度か傾けると、収まるべきところに収まってくれる、みたいな。いや、そんなに上手くは行かないか…。

矩形の一つ一つが意志を持って、自分が収まるべき場所を探し続ける光景も妄想。なんだかオブジェクト指向っぽい。時々、小さい矩形がz軸を使ってジャンプして、大きな矩形を飛び越えて隙間に入ったり。

おそらく、どれも、「ソレは○○で実装されてるよ」「ソレは○○法だよ」と言われそうな予感。

2012/07/31(火) [n年前の日記]

#1 [javascript] 長方形詰込み問題について実験中

とりあえずプログラムを書いてみないとよくわからないなと思えてきたので、HTML5 の canvas と JavaScript を使って処理が確認できるページを作成。

_長方形詰込み問題のテスト (2013/10/06 リンク先をDropboxから自宅サーバ内ページに変更)

詰込む様子をアニメで確認できる。

自分の頭が悪過ぎて、Next-Fit法モドキしか書けない…。「ランダム」で作成した矩形(=長方形)なら、それらしく見えるけど。「データ」で作成した矩形でやると、ひどいことに。

人間の目なら、「おい! その隙間に入りそうだろ!」と分かるのだけど。コンピュータに「ここに入るかチェックしてみろや」と伝えるにはどうすればいいのやら。

ちなみに、Texture Atlas用のアレコレで実験しているので、矩形数=画像数はそれほど多くならないはずで、そこは助かりそう。本当の長方形詰込み問題は、膨大な個数を詰め込まなければいけないから、各アルゴリズムの処理時間が重要になってくるだろうけど。今回、そのあたりは無視できる。

ただ、元画像の並びをまあまあ維持できたほうが、結果画像を見た時に混乱しない予感もあるので、そのへん困るところ。 どっちを優先しますか、という問題がありそうな気もする。…まあ、どこに何が配置されているかはxmlで出力して、プログラムはその情報を使うわけだし、画像修正する際は、元画像の修正後にその手のツールで配置し直すのが常だろうし。画像の並びなんてどうでもいいやん、という気も。基板の配線パターンの見た目に拘ったジョブズじゃあるまいし。

以上、31 日分です。

過去ログ表示

Prev - 2012/07 - Next
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28
29 30 31

カテゴリで表示

検索機能は Namazu for hns で提供されています。(詳細指定/ヘルプ


注意: 現在使用の日記自動生成システムは Version 2.19.6 です。
公開されている日記自動生成システムは Version 2.19.5 です。

Powered by hns-2.19.6, HyperNikkiSystem Project