2024/11/01(金) [n年前の日記]
#1 [proce55ing][processing] Processingで木の葉サワサワ処理を書いてみた
数日前に、p5.js を使って、木の葉がさわさわする処理を書いてみたけれど。
_p5.jsで木の葉サワサワ処理を試しに書いてみた - mieki256's diary
p5.js ではアルファチャンネル付き連番画像を保存できない(と思う)ので、Processing で書き直して、一連のフレームをアルファチャンネル付き連番画像として保存できるようにしてみた。ちなみに、アルファチャンネル画像を保存する仕組みについては、一昨日の日記が参考になるかなと…。
_ProcessingのPGraphicsの動作を確認
せっかくだから、githubにアップロードしておいた。License は CC0 / Public Domain ってことで。
_mieki256/sketch_draw_leaves: Processing (Proce55ing) sample. Draw and animate leaves.
一応 Windows10 x64 22H2上で動く実行形式も用意して zip で置いておいた。ただ、Java関連ファイルも含まれているのでファイルサイズが大きい…。解凍すると258MBぐらいになる…。
_Releases - mieki256/sketch_draw_leaves
動かしてる様子は以下。
本来はフルスクリーン表示で動くのだけど…。フルスクリーン表示にすると、デスクトップ録画ソフト OBS Studio 30.2.3 64bit では、デスクトップ画面を正常にキャプチャできなかった。仕方ないので、プログラム側を少し修正して、ウインドウ表示にしてキャプチャしてる。setup() {} の最初のほうの fullscreen(); を「//」でコメントアウトして、その下にある size(); のコメントアウトを外せばウインドウ表示になる。
p5.js は葉っぱを200個ぐらい描画すると処理落ちが始まったけど、Processing の場合は数千個描画してもヌルヌル動いてる。p5.js、重いのだな…。まして Processing.js になったら、もっと重いのだろうな…。
ただ、そもそも、この仕組みでは動きに限界がありそうな気も…。
先日、風が強い日に犬の散歩をしていた際、公園の木が風で揺れてる様子をじっと観察してみたのだけど。葉だけではなく、当然ながら枝も揺れるよなーと思えてきて…。
幹は太いから動かないとしても、枝はフツーに揺れるし、その枝についてる葉の位置も、枝の動きに合わせて変化する。これをプログラムで再現しようとしたら幹と枝、枝と葉で、親子関係を実装することになるんだろうなと。枝の動きは角度の変化で出せるのではないか。それもまたパーリンノイズでそこそこらしく見えてくれそう。たぶん。
ただ、どうやって、枝の位置、角度、長さを指示したらいいのか、そのあたりの仕様で悩む…。マウス操作で指定できたら良さそうだけど、どういう感じの操作手順がいいのか…。それとも疑似乱数で、枝や葉を生成するようにしてしまおうか…。いい形が出てくるまでサイコロを振ってもらう感じで…。
枝もあらかじめ描くとなると、枝の表面をどう描画したらいいのか、そのあたりも悩む。テクスチャ画像を与えるにしても、どういう画像を用意して、どう描画すればらしくなるのか…?
そういったことを考えていくと、いっそのことblender等の3DCGソフトでちゃんとモデルを作って、物理演算で動かせないか試したほうがいいのかな、とも…。
_p5.jsで木の葉サワサワ処理を試しに書いてみた - mieki256's diary
p5.js ではアルファチャンネル付き連番画像を保存できない(と思う)ので、Processing で書き直して、一連のフレームをアルファチャンネル付き連番画像として保存できるようにしてみた。ちなみに、アルファチャンネル画像を保存する仕組みについては、一昨日の日記が参考になるかなと…。
_ProcessingのPGraphicsの動作を確認
せっかくだから、githubにアップロードしておいた。License は CC0 / Public Domain ってことで。
_mieki256/sketch_draw_leaves: Processing (Proce55ing) sample. Draw and animate leaves.
一応 Windows10 x64 22H2上で動く実行形式も用意して zip で置いておいた。ただ、Java関連ファイルも含まれているのでファイルサイズが大きい…。解凍すると258MBぐらいになる…。
_Releases - mieki256/sketch_draw_leaves
動かしてる様子は以下。
本来はフルスクリーン表示で動くのだけど…。フルスクリーン表示にすると、デスクトップ録画ソフト OBS Studio 30.2.3 64bit では、デスクトップ画面を正常にキャプチャできなかった。仕方ないので、プログラム側を少し修正して、ウインドウ表示にしてキャプチャしてる。setup() {} の最初のほうの fullscreen(); を「//」でコメントアウトして、その下にある size(); のコメントアウトを外せばウインドウ表示になる。
p5.js は葉っぱを200個ぐらい描画すると処理落ちが始まったけど、Processing の場合は数千個描画してもヌルヌル動いてる。p5.js、重いのだな…。まして Processing.js になったら、もっと重いのだろうな…。
◎ 使用例 :
せっかくだから、このプログラムで保存した連番画像を、動画編集ソフト AviUtl にインポートして、それらしい動画を作成できそうか試してみた。
連番画像以外の使用画像は以下。
_tree_base.png
_cloud1.png
_cloud2.png
_sky.png
以下のような動画を作成できた。解像度が荒くて分かりづらいかもしれないけれど、雰囲気ぐらいは伝わるかなと。
これで、Processing の描画結果を連番画像で保存して、動画編集ソフトにインポートして素材として利用できそうだと分かった。
連番画像以外の使用画像は以下。
_tree_base.png
_cloud1.png
_cloud2.png
_sky.png
以下のような動画を作成できた。解像度が荒くて分かりづらいかもしれないけれど、雰囲気ぐらいは伝わるかなと。
これで、Processing の描画結果を連番画像で保存して、動画編集ソフトにインポートして素材として利用できそうだと分かった。
◎ 課題 :
- あらかじめ幹/枝の画像も読み込んで、幹/枝画像の奥や手前を選んで描画する仕様を追加すれば、もう少しそれらしくなるかなと…。幹/枝が無いと、あてずっぽうで葉を配置することになるし…。
- せっかくGUI/スライドバーを追加できたのだから、葉っぱ画像の明度や色相も似た感じで指定できれば、色合いの変化を固定しながら葉っぱを配置できそうだなと…。
- Undoも欲しい。葉の数を減らしていけばいいだけのような気もする。
- 葉を発生させる領域を円で表示して作業できれば、少しは良くなるだろうか。
ただ、そもそも、この仕組みでは動きに限界がありそうな気も…。
先日、風が強い日に犬の散歩をしていた際、公園の木が風で揺れてる様子をじっと観察してみたのだけど。葉だけではなく、当然ながら枝も揺れるよなーと思えてきて…。
幹は太いから動かないとしても、枝はフツーに揺れるし、その枝についてる葉の位置も、枝の動きに合わせて変化する。これをプログラムで再現しようとしたら幹と枝、枝と葉で、親子関係を実装することになるんだろうなと。枝の動きは角度の変化で出せるのではないか。それもまたパーリンノイズでそこそこらしく見えてくれそう。たぶん。
ただ、どうやって、枝の位置、角度、長さを指示したらいいのか、そのあたりの仕様で悩む…。マウス操作で指定できたら良さそうだけど、どういう感じの操作手順がいいのか…。それとも疑似乱数で、枝や葉を生成するようにしてしまおうか…。いい形が出てくるまでサイコロを振ってもらう感じで…。
枝もあらかじめ描くとなると、枝の表面をどう描画したらいいのか、そのあたりも悩む。テクスチャ画像を与えるにしても、どういう画像を用意して、どう描画すればらしくなるのか…?
そういったことを考えていくと、いっそのことblender等の3DCGソフトでちゃんとモデルを作って、物理演算で動かせないか試したほうがいいのかな、とも…。
[ ツッコむ ]
#2 [movie] 「ゴジラ -1.0」を視聴
金曜ロードショーで放送されていたので視聴してみた。初見。
面白かった…。基本設定や脚本も良かったけれど、何よりVFXが凄い。さすが山崎貴監督作品。さすが白組。なのだろうか。素晴らしい。
山崎監督が今まで手掛けてきた映画作品のアレコレが、この映画に結集されていた気もする。「ALWAYS 三丁目の夕日」「SPACE BATTLESHIP ヤマト」「永遠の0」「アルキメデスの大戦」等々。今はもうこの世界に無い風景をVFXで再現する手管もそうだろうし、戦中戦後を舞台にしている脚本もそうだろうし、特攻と言う行為を美化しがちな展開に対する主張もそうだろうし。監督が今まで手に入れてきた色々なピースが、この映画でパチリパチリとハマったような印象。このゴジラを作るために、ああいった作品群を手掛けることが運命づけられていたのでは、などと思えてくるほど。
それにしても、「シン・ゴジラ」の直後でプレッシャーもあっただろうに…。よくまあこんなゴジラを作ってみせたものだなあ…。素晴らしい。
面白かった…。基本設定や脚本も良かったけれど、何よりVFXが凄い。さすが山崎貴監督作品。さすが白組。なのだろうか。素晴らしい。
山崎監督が今まで手掛けてきた映画作品のアレコレが、この映画に結集されていた気もする。「ALWAYS 三丁目の夕日」「SPACE BATTLESHIP ヤマト」「永遠の0」「アルキメデスの大戦」等々。今はもうこの世界に無い風景をVFXで再現する手管もそうだろうし、戦中戦後を舞台にしている脚本もそうだろうし、特攻と言う行為を美化しがちな展開に対する主張もそうだろうし。監督が今まで手に入れてきた色々なピースが、この映画でパチリパチリとハマったような印象。このゴジラを作るために、ああいった作品群を手掛けることが運命づけられていたのでは、などと思えてくるほど。
それにしても、「シン・ゴジラ」の直後でプレッシャーもあっただろうに…。よくまあこんなゴジラを作ってみせたものだなあ…。素晴らしい。
[ ツッコむ ]
2024/11/02(土) [n年前の日記]
#1 [proce55ing][processing] Processing用VSCode拡張を変更した
Processingのソースを書く際に VSCode (Visual Studio Code) を使っているけれど、Processing用のVSCode拡張についてちょっと問題というか、不具合があるように感じてきたので変更することにした。
環境は Windows10 x64 22H2 + VSCode 1.95.1。
今まで入れていたのは以下。Processing Language と Processing Code Formatter をインストールしていた。
_Processing用VSCode拡張をインストール - mieki256's diary
Processing Language は、「"」「'」等の引用符(?)を自動で閉じてくれないし、Processing Code Formatter は、コメントの中まで整形しようとしてグチャグチャになることが分かってきた。そこで、以下の拡張をインストールして置き換えることにした。
_Processing VSCode - Visual Studio Marketplace
_Luke-zhang-04/processing-vscode: A Visual Studio Code extension for the Processing programming language (https://processing.org/)
_format.pde - Visual Studio Marketplace
_jn3008/format-pde: VSCode extension to format Processing java files (.pde)
Processing VSCode は、Processing Language の fork版らしい。引用符を自動で閉じてくれたり、ツールバー上にRunアイコン(右向きの三角)が追加されて、それをクリックすることで実行できるようにしてくれる。
Processing VSCode も Processing Language と同様に、設定で Processing: Processing Path に processing-java.exe のパスを設定する必要がある。今回は D:\Prog\Processing\processing-4.3\processing-java.exe を設定した。
ワークスペース内の tasks.json の "command" 行には、以下のように記述することになるっぽい。
Processing Language の場合は以下の記述だった。
format.pde はProcessingのフォーマッタ(ソース整形)だけど、今のところコレが一番変なことをしないように感じる。ちなみに、他のフォーマッタは以下の不具合があった。
環境は Windows10 x64 22H2 + VSCode 1.95.1。
今まで入れていたのは以下。Processing Language と Processing Code Formatter をインストールしていた。
_Processing用VSCode拡張をインストール - mieki256's diary
Processing Language は、「"」「'」等の引用符(?)を自動で閉じてくれないし、Processing Code Formatter は、コメントの中まで整形しようとしてグチャグチャになることが分かってきた。そこで、以下の拡張をインストールして置き換えることにした。
_Processing VSCode - Visual Studio Marketplace
_Luke-zhang-04/processing-vscode: A Visual Studio Code extension for the Processing programming language (https://processing.org/)
_format.pde - Visual Studio Marketplace
_jn3008/format-pde: VSCode extension to format Processing java files (.pde)
Processing VSCode は、Processing Language の fork版らしい。引用符を自動で閉じてくれたり、ツールバー上にRunアイコン(右向きの三角)が追加されて、それをクリックすることで実行できるようにしてくれる。
Processing VSCode も Processing Language と同様に、設定で Processing: Processing Path に processing-java.exe のパスを設定する必要がある。今回は D:\Prog\Processing\processing-4.3\processing-java.exe を設定した。
ワークスペース内の tasks.json の "command" 行には、以下のように記述することになるっぽい。
"command": "${config:processing.processingPath}",
Processing Language の場合は以下の記述だった。
"command": "${config:processing.path}",
format.pde はProcessingのフォーマッタ(ソース整形)だけど、今のところコレが一番変なことをしないように感じる。ちなみに、他のフォーマッタは以下の不具合があった。
- Processing Formatter ... インデントがグチャグチャになる。
- Processing Code Formatter ... コメントの中まで整形してしまってグチャグチャになる。
[ ツッコむ ]
#2 [proce55ing][processing] Processingで使う画像ファイルの置き場所について
Processing (Proce55ing) で使う画像ファイルの置き場所について勘違いしてた。
.pde と同じ階層に置いておけばいいのだろうと安易に思い込んでいたけれど、解説ページを眺めていたら「data/ 以下に置け」という話を見かけて…。
そもそも、Processing 4.3 のエディタウインドウ内に、エクスプローラ等から画像ファイルをドラッグアンドドロップしてやれば、自動で data/ を作成してその中に画像ファイルをコピーしてくれるらしい。
data/ 以下に画像ファイルが置いてあれば、Windows用の実行形式としてエクスポートした際も、data/ を含めた状態でエクスポートしてくれる。
.pde と同じ階層に置いておけばいいのだろうと安易に思い込んでいたけれど、解説ページを眺めていたら「data/ 以下に置け」という話を見かけて…。
そもそも、Processing 4.3 のエディタウインドウ内に、エクスプローラ等から画像ファイルをドラッグアンドドロップしてやれば、自動で data/ を作成してその中に画像ファイルをコピーしてくれるらしい。
data/ 以下に画像ファイルが置いてあれば、Windows用の実行形式としてエクスポートした際も、data/ を含めた状態でエクスポートしてくれる。
[ ツッコむ ]
2024/11/03(日) [n年前の日記]
#1 [proce55ing][processing] 木の葉サワサワプログラムを少し修正
先日、木の葉がサワサワするプログラムをProcessingで書いてみたけど。
_Processingで木の葉サワサワ処理を書いてみた - mieki256's diary
課題として挙げていたアレコレを追加してみた。
_mieki256/sketch_draw_leaves: Processing (Proce55ing) sample. Draw and animate leaves.
_Processingで木の葉サワサワ処理を書いてみた - mieki256's diary
課題として挙げていたアレコレを追加してみた。
_mieki256/sketch_draw_leaves: Processing (Proce55ing) sample. Draw and animate leaves.
- Zキー押しっぱなしで Undo。
- 葉を発生させる領域を円で表示。
- 配置する葉っぱ画像の色合いをHSB指定で変更して固定できる機能を追加。Hキーでモードが切り替わる。
- 下絵画像も読み込んで表示するようにした。連番画像として保存する際は、下絵は無視される。
◎ tint()の動作確認 :
tint() を使うことで、画像の色合いを変更しながら描画することができるのだけど、どのパラメータがどう反映されるのかよく分からない…。
colorMode(HSB, 360.0, 100.0, 100.0); を記述することで以下の範囲の値が指定できるようなるけれど。
一応テスト用のプログラムを書いてみけど…。よく分からない…。
_sketch_tint_test.pde
使用画像は以下。.pde と同じ階層に data/ を作成して、その中に入れる。
_leaf.png
動作時の見た目は以下。
colorMode(HSB, 360.0, 100.0, 100.0); を記述することで以下の範囲の値が指定できるようなるけれど。
- Hue(色相) を 0.0 - 360.0
- Saturation(彩度) を 0.0 - 100.0
- Brightness(明度) を 0.0 - 100.0
一応テスト用のプログラムを書いてみけど…。よく分からない…。
_sketch_tint_test.pde
// tint() test. import controlP5.*; PImage img; float scrw, scrh; ControlP5 cp5; Slider slider_hsb_h; Slider slider_hsb_s; Slider slider_hsb_b; void setup() { size(512, 512, P2D); scrw = width; scrh = height; img = loadImage("leaf.png"); // init ControlP5 (GUI library) cp5 = new ControlP5(this); PFont myfont = createFont("Arial", 14, true); ControlFont cf1 = new ControlFont(myfont, 14); float x = 20; float y = 20; float yd = 40; slider_hsb_h = cp5.addSlider("hue") .setRange(0.0, 360.0) .setValue(180.0) .setPosition(x, y + 0 * yd) .setSize(180, 20) .setColorForeground(color(0, 160, 0)) .setColorActive(color(0, 200, 0)) .setFont(cf1); slider_hsb_s = cp5.addSlider("saturation") .setRange(0.0, 100.0) .setValue(100.0) .setPosition(x, y + 1 * yd) .setSize(180, 20) .setColorForeground(color(0, 160, 0)) .setColorActive(color(0, 200, 0)) .setFont(cf1); slider_hsb_b = cp5.addSlider("brightness") .setRange(0.0, 100.0) .setValue(100.0) .setPosition(x, y + 2 * yd) .setSize(180, 20) .setColorForeground(color(0, 160, 0)) .setColorActive(color(0, 200, 0)) .setFont(cf1); } void draw() { noTint(); colorMode(RGB, 255, 255, 255); background(color(40, 80, 160)); imageMode(CENTER); colorMode(HSB, 360, 100, 100); float h = slider_hsb_h.getValue(); float s = slider_hsb_s.getValue(); float b = slider_hsb_b.getValue(); tint(h, s, b); image(img, scrw / 2, scrh / 2); colorMode(RGB, 255, 255, 255); noTint(); }
使用画像は以下。.pde と同じ階層に data/ を作成して、その中に入れる。
_leaf.png
動作時の見た目は以下。
[ ツッコむ ]
#2 [cg_tools] Affinity Designer 2を購入
ソースネクストで、ドローソフト Affinity Designer 2 が 1,980円、11/3までの限定特価で販売されてたので、悩みに悩んだけれど購入してしまった…。件のソフトはたまにセールをする時があるけれど、いつもは6,000円ぐらいだった気がする。
「その値段なら躊躇せずに買えよ」と言われそうだけど、使う場面があるのかどうかを考えると、自分の場合は少し怪しくて。使わないソフトを買うのは無意味だし、セールの最終日まで悩んでしまったのだけど。以前からずーっと気になっていたドローソフトなので、この際購入して、今後は気分的にスッキリしてしまおうかなと…。
ちなみに自分、今までドローソフトを使いたい時は Inkscape か LibreOffice Draw で作業をしていた。自分の作業範囲なら Inkscape で十分なんじゃないかな、という気も…。
Drawgraphic 3 Pro もソースネクストから購入して持ってるけれど、どうやら WMFフォーマットに特化した作りのようで、色々問題があって…。
「その値段なら躊躇せずに買えよ」と言われそうだけど、使う場面があるのかどうかを考えると、自分の場合は少し怪しくて。使わないソフトを買うのは無意味だし、セールの最終日まで悩んでしまったのだけど。以前からずーっと気になっていたドローソフトなので、この際購入して、今後は気分的にスッキリしてしまおうかなと…。
ちなみに自分、今までドローソフトを使いたい時は Inkscape か LibreOffice Draw で作業をしていた。自分の作業範囲なら Inkscape で十分なんじゃないかな、という気も…。
Drawgraphic 3 Pro もソースネクストから購入して持ってるけれど、どうやら WMFフォーマットに特化した作りのようで、色々問題があって…。
- 保存可能なベクターデータの種類が限られる。
- ビットマップデータとして保存する際、大きいサイズで保存できない。
- 曲線は細かい直線で近似されてしまう。
- テキストは形が荒れてしまう。
◎ 入手方法がちょっと変わってた :
環境は Windows10 x64 22H2。
セットアップファイルは、ソースネクストではなく、開発元(?)の Serif 公式サイトからダウンロードする模様。ソースネクストのサイトに、「Serif Affinity Designer for PC 2 スタートガイド」というpdfがあるので、じっくり見て、手順に沿って作業する。
件の .pdf に記述されたURLで、Serif のサイトに飛ぶ。VOUCHER CODE なるものを入力するとダウンロードページに辿り着けるのだけど、その途中でアカウントを作成して、メールアドレスとパスワードを Serif に登録しておく。
ダウンロードしたのは、Affinity Designer 2.5.5、affinity-designer-msi-2.5.5.exe。約584MB。今回、D:\Program Files\Affinity\ にインストールした。
起動するとメールアドレスとパスワードを入力するウインドウが開く。先ほど作成したアカウントのメールアドレスとパスワードを入力すれば利用できるようになる。
しかし、こういう手順でセットアップするとなると…。万が一、Serif社が倒産して公式サイトが消滅したら、このアプリのセットアップ作業はもうできなくなってしまうのだろうな…。
セットアップファイルは、ソースネクストではなく、開発元(?)の Serif 公式サイトからダウンロードする模様。ソースネクストのサイトに、「Serif Affinity Designer for PC 2 スタートガイド」というpdfがあるので、じっくり見て、手順に沿って作業する。
件の .pdf に記述されたURLで、Serif のサイトに飛ぶ。VOUCHER CODE なるものを入力するとダウンロードページに辿り着けるのだけど、その途中でアカウントを作成して、メールアドレスとパスワードを Serif に登録しておく。
ダウンロードしたのは、Affinity Designer 2.5.5、affinity-designer-msi-2.5.5.exe。約584MB。今回、D:\Program Files\Affinity\ にインストールした。
起動するとメールアドレスとパスワードを入力するウインドウが開く。先ほど作成したアカウントのメールアドレスとパスワードを入力すれば利用できるようになる。
しかし、こういう手順でセットアップするとなると…。万が一、Serif社が倒産して公式サイトが消滅したら、このアプリのセットアップ作業はもうできなくなってしまうのだろうな…。
◎ 支払方法が不安 :
ソースネクストの通販サイトは、以前クレジットカード情報を大量流出させてしまったことがあるので、クレジットカードで購入するのは、まだちょっと怖いなと。なので、手数料が若干追加されるけど、今回はコンビニ後払いを選んでみた。初めて利用する支払方法だけど、どのくらい時間が経ったら請求が来るのだろうか…。
[ ツッコむ ]
2024/11/04(月) [n年前の日記]
#1 [cg_tools] Affinity Designerのスウォッチ種類を増やしたい
せっかく Affinity Designer 2 を購入したので操作方法を勉強中。ただ、スウォッチの種類が少ないなと…。
スウォッチと言うのは、パレットウインドウ、パレットパネルとでも思っておけばいいのだろうか。あらかじめ、色を数色〜数十色置いといて、クリック一つで利用できるようにする機能。
Affinity Designer 2 は、Photoshop のスウォッチファイル (.ase) をインポートすることができるらしい。しかし、手元にあるのは GIMP Palette (.gpl) ばかり。.gpl を .ase に変換できればいいのだけど…。
スウォッチと言うのは、パレットウインドウ、パレットパネルとでも思っておけばいいのだろうか。あらかじめ、色を数色〜数十色置いといて、クリック一つで利用できるようにする機能。
Affinity Designer 2 は、Photoshop のスウォッチファイル (.ase) をインポートすることができるらしい。しかし、手元にあるのは GIMP Palette (.gpl) ばかり。.gpl を .ase に変換できればいいのだけど…。
◎ 変換ツールを探した :
.gpl を .ase に変換できるツールを探してみた。2つほど見つかった。どちらも Windows10 x64 22H2 上で動作した。
_Cyotek Color Palette Editor - Color palette editing made easy - Cyotek
_solarstrings/GPL2ASE: GIMP .gpl to Adobe .ase palette converter
Cyotek Color Palette Editor の場合は、.gpl をウインドウ上にドラッグアンドドロップすると読み込まれて色一覧が表示されるので、その状態から File → Import/Export → Export to a palette file → ファイル種類で「Adobe Swatch Exchange Files (*.ase)」を選んで保存すれば、.gpl を .ase に変換することができる。
gpl2ase.exe の場合は、gpl2ase input.gpl output.ase と打てば、input.gpl を output.ase に変換してくれる模様。
_Cyotek Color Palette Editor - Color palette editing made easy - Cyotek
_solarstrings/GPL2ASE: GIMP .gpl to Adobe .ase palette converter
Cyotek Color Palette Editor の場合は、.gpl をウインドウ上にドラッグアンドドロップすると読み込まれて色一覧が表示されるので、その状態から File → Import/Export → Export to a palette file → ファイル種類で「Adobe Swatch Exchange Files (*.ase)」を選んで保存すれば、.gpl を .ase に変換することができる。
gpl2ase.exe の場合は、gpl2ase input.gpl output.ase と打てば、input.gpl を output.ase に変換してくれる模様。
◎ いくつか変換してみた。 :
手元にある .gpl を、いくつか .ase に変換してみた。一応 zip にまとめて置いておく。
_photoshop_swatch.zip
中に入っているファイルは以下。
色見本は以下。
_DawnBringer 32 Palette
_DawnBringer 16 Palette
_Sweetie 16 Palette
_Pyxel's new palette - Issue #217 - kitao/pyxel
_Flat UI Palette v1
_マテリアル UI カラー(全20色) - みんなの知識 ちょっと便利帳
_Tango Desktop Project - Wikipedia
ところで、上記の色見本をメモしていて気づいた。上記ページのいくつかで、.ase も配布してるじゃんよ…。わざわざ変換する必要はなかったかも…。
_photoshop_swatch.zip
中に入っているファイルは以下。
db16_tic80_old.ase db16_tic80_old.gpl db32.ase db32.gpl flatUIColors.ase flatUIColors.gpl Material-Design.ase Material-Design.gpl MaterialUIColors.ase MaterialUIColors.gpl Pyxel_new.ase Pyxel_new.gpl sweetie-16_tic80_new.ase sweetie-16_tic80_new.gpl tango-palette.ase Tango-Palette.gpl
色見本は以下。
_DawnBringer 32 Palette
_DawnBringer 16 Palette
_Sweetie 16 Palette
_Pyxel's new palette - Issue #217 - kitao/pyxel
_Flat UI Palette v1
_マテリアル UI カラー(全20色) - みんなの知識 ちょっと便利帳
_Tango Desktop Project - Wikipedia
- DawnBringer 32 (DB32), DawnBringer 16 (DB16), Sweetie 16, Pyxelパレットは、ドット絵(PixelArt)用のカラーパレット。
- DB16 は、昔の TIC-80 でデフォルトパレットとして使われていた。
- Sweetie 16 は、今の TIC-80 でデフォルトパレットして使われている。
- TIC-80 や Pyxel は、ファンタジーコンソールの一種。架空のゲームコンソールエミュレーター。PICO-8 が一番有名だろうか。
ところで、上記の色見本をメモしていて気づいた。上記ページのいくつかで、.ase も配布してるじゃんよ…。わざわざ変換する必要はなかったかも…。
◎ Affinity Designer 2上でインポート :
Affinity Designer 2 のスウォッチパネルの右上のほうにあるメニューアイコン?をクリックすると、メニューが表示されるので、その中の「パレットをインポート」→「アプリケーションパレットとして」を選べば、.ase をインポートすることができる。
メニューの中には「パレット名を変更」「パレットを削除」等もあるので、それらを使って整理できそう。
また、「画像からパレットを作成」を使えば、画像の中で使われている色を調べてそれらしいパレットを作成してくれる。ただ、並び順は滅茶苦茶になる。
スウォッチ内の各色は、ドラッグアンドドロップで順番を変更することもできる。
メニューの中には「パレット名を変更」「パレットを削除」等もあるので、それらを使って整理できそう。
また、「画像からパレットを作成」を使えば、画像の中で使われている色を調べてそれらしいパレットを作成してくれる。ただ、並び順は滅茶苦茶になる。
スウォッチ内の各色は、ドラッグアンドドロップで順番を変更することもできる。
[ ツッコむ ]
#2 [pc] 親父さん用PCがWindows11にアップグレードされた
昨晩から今朝にかけて、親父さん用PCが、Windows10 22H2 から Windows11 23H2 にアップグレードされたとメモ。
ただし、この作業、自分が意図してアップグレード作業を始めたわけではなくて…。
親父さんがWindows10で作業中に、「Windows11にアップグレードしましょう」系の例のポップアップが表示されたそうで、「えっ。Windows10が使えなくなるのか?」と訳も分からず「します」系のボタンをクリックしていったらアップグレードしちゃったそうで…。いや、いいんだけど。いつかはアップグレードしないといかんよなと思ってたし、アップグレードできるようにCPU交換したりMBRをGPTに変換したりと苦労したわけだから別にいいんだけど。
親父さんがそういう操作をすでにしちゃってると自分は知らないまま、親父さんから「Windows11にアップグレードするにはどうしたらいいんだ?」と質問を受けて…。「SSDの空き容量が20GBしかないからせめて64GBまで空けてください」と答えたら「やり方が分からない」と言われて、ドキュメント内の各ファイルを外付けHDDに移動する方法を教えているうちに、Windows Update の設定画面で「Windows11インストール中」と表示されてることに気づいたという…。
途中で止まるかなと思ったけれど、夜中まで放置しておいたらWindwos10とは違うサインイン画面が表示されていた。
とりあえず、関連ドライバ等のインストールは一切してないけれど、フツーにWindows11が動いてしまっているようなので、まあいいかなと…。何かおかしな動作が出てきたら、その時はドライバ等のインストールを試みるつもりで様子見しておこうかと。
余談。スタートボタンの位置が変わっていて、自分も親父さんも最初は困惑。シャットダウンのさせ方すら分からない…。各アイコンが真ん中に寄せてあることに気づいたら、そこから先はなんとなくで分かったけれど。でも、こんなレイアウトにする意味はあるのか…? この変更については何か理論武装してあるんだろうか?
ただし、この作業、自分が意図してアップグレード作業を始めたわけではなくて…。
親父さんがWindows10で作業中に、「Windows11にアップグレードしましょう」系の例のポップアップが表示されたそうで、「えっ。Windows10が使えなくなるのか?」と訳も分からず「します」系のボタンをクリックしていったらアップグレードしちゃったそうで…。いや、いいんだけど。いつかはアップグレードしないといかんよなと思ってたし、アップグレードできるようにCPU交換したりMBRをGPTに変換したりと苦労したわけだから別にいいんだけど。
親父さんがそういう操作をすでにしちゃってると自分は知らないまま、親父さんから「Windows11にアップグレードするにはどうしたらいいんだ?」と質問を受けて…。「SSDの空き容量が20GBしかないからせめて64GBまで空けてください」と答えたら「やり方が分からない」と言われて、ドキュメント内の各ファイルを外付けHDDに移動する方法を教えているうちに、Windows Update の設定画面で「Windows11インストール中」と表示されてることに気づいたという…。
途中で止まるかなと思ったけれど、夜中まで放置しておいたらWindwos10とは違うサインイン画面が表示されていた。
とりあえず、関連ドライバ等のインストールは一切してないけれど、フツーにWindows11が動いてしまっているようなので、まあいいかなと…。何かおかしな動作が出てきたら、その時はドライバ等のインストールを試みるつもりで様子見しておこうかと。
余談。スタートボタンの位置が変わっていて、自分も親父さんも最初は困惑。シャットダウンのさせ方すら分からない…。各アイコンが真ん中に寄せてあることに気づいたら、そこから先はなんとなくで分かったけれど。でも、こんなレイアウトにする意味はあるのか…? この変更については何か理論武装してあるんだろうか?
[ ツッコむ ]
2024/11/05(火) [n年前の日記]
#1 [cg_tools] Stable Diffusion web UIを勉強中
Stable Diffusion web UI でアウトペインティングのやり方について勉強中。以前も少し試してた気もするけれど…。512x512の画像を16:9の画像にしたいので、足りない部分をアウトペインティングで塗り潰してもらいたい。
自分が把握してるやり方は4つ。
_Haoming02/sd-webui-mosaic-outpaint: An Extension for Automatic1111 Webui that trivializes outpainting
_Stable Diffusionの「Poor man’s outpainting」を利用してアウトペインティング | taziku / AI × クリエイティブ | 東京・名古屋
_img2img入門(7) アウトペインティング|AICU media
_Stable Diffusionの「Outpainting mk2」を利用してアウトペインティング | taziku / AI × クリエイティブ | 東京・名古屋
これは想像だけど、マスクを自分で塗ってアウトペインティングするやり方は、左右の端が横一直線に引き延ばされてから生成されている気がする…。元画像にパースがついた背景が含まれていても、アウトペインティングされた部分は平面的な背景になりがちなので、おそらくアウトペインティングされる領域には横一直線になった部分が多く含まれているのではないかと。
何度か試したけれど、人間が手を動かしてアタリを描き込んでから生成させるのが一番確実というか、望む結果が得られやすい感じがする。自動処理では平面的な構図にしか対応できない印象。
自分が把握してるやり方は4つ。
- img2img の inpaint で、変えたくないところにマスクを塗って、「マスクの範囲以外をinpaint (inpaint not masked)」「縦横比の維持(埋める) (Resize and fill)」を選び、「Resize to」で欲しい画像サイズを指定して生成。
- 拡張機能 sd-webui-mosaic-outpaint を使って、左右にモザイク状の領域を作成してから img2img に送る。img2img で「Resize by」を選んでスケール=1にして生成。
- img2img のスクリプト、「簡易アウトペインティング (Poor man's outpainting)」を使う。
- img2img のスクリプト、「Outpainting mk2」を使う。
_Haoming02/sd-webui-mosaic-outpaint: An Extension for Automatic1111 Webui that trivializes outpainting
_Stable Diffusionの「Poor man’s outpainting」を利用してアウトペインティング | taziku / AI × クリエイティブ | 東京・名古屋
_img2img入門(7) アウトペインティング|AICU media
_Stable Diffusionの「Outpainting mk2」を利用してアウトペインティング | taziku / AI × クリエイティブ | 東京・名古屋
これは想像だけど、マスクを自分で塗ってアウトペインティングするやり方は、左右の端が横一直線に引き延ばされてから生成されている気がする…。元画像にパースがついた背景が含まれていても、アウトペインティングされた部分は平面的な背景になりがちなので、おそらくアウトペインティングされる領域には横一直線になった部分が多く含まれているのではないかと。
何度か試したけれど、人間が手を動かしてアタリを描き込んでから生成させるのが一番確実というか、望む結果が得られやすい感じがする。自動処理では平面的な構図にしか対応できない印象。
[ ツッコむ ]
2024/11/06(水) [n年前の日記]
#1 [movie] 「ゴジラ×メカゴジラ」を視聴
BS12で放送されていたのを録画しておいたので視聴。初見。
2002年に公開された映画らしい。そのせいかエヴァンゲリオンの影響があったような気もする。 ゴジラの骨を元にして作られるとか、 バッテリーで動いてるから活動可能時間が設定されてるとか、 何故か暴走するとか、 電気が足りなくて日本中の電気を集めて動かすとか。ここまで持ってくるならいっそのことエヴァの実写版も作ったら良かったのではと…。着ぐるみでムッチリしてるエヴァも面白そうだし。いや、ブーイングの嵐だろうけど…。
メカゴジラの中に放射能除去装置なるものが設置してあって、なんだか原発事故前の映画だなと感じた。実写版宇宙戦艦ヤマトもそうだったけど、原発事故前の日本映画では放射能というものが妙な捉え方をされている…。いやまあ、この映画のソレは比較的正しい描写ではあったのだろうか。体に付着した放射性物質を吹き飛ばす装置としてはアレもアリなのかな…。そもそも設定上、何が放射線を発しているのか分からんけど。ゴジラがそうなのか、それともメカゴジラが核で動いているのか。
物理的(?)にありえない動きが多くて、そこはちょっと萎えた。その小さい飛行機でメカゴジラを空中輸送するのは無理だろ、とか。翼が無いのにその飛び方はどうなの、とか。尻尾掴んで振り回すのはこの手のお約束だけどやっぱり無理あるなあ、とか。ゴジラそのものがあり得ないとは言え、もうちょっと…。見ていて燃えてくるありえなさと、見ていて萎えてしまうありえなさがあるんだろうけど、この映画については後者が多かった印象。
特技監督さんは、平成ウルトラシリーズや平成ガメラ3に参加してた方らしい。そのせいか平成ウルトラシリーズや平成ガメラのノリもちょっと感じられた気もする。Wikipediaの記述によると、時間がかかりがちという理由で、極力CGは使わない方針で作られたそうで…。
_ゴジラ×メカゴジラ - Wikipedia
本編の監督さんもゴジラ好きだったそうで…。まさかそのせいで「ゴジラと言えば着ぐるみとミニチュアだろう」となったのだろうか…? いや、分からんけど。
_手塚昌明 - Wikipedia
それはさておき。「機龍」という名前は良いなと。機龍だけで話を作れないものかな…。
2002年に公開された映画らしい。そのせいかエヴァンゲリオンの影響があったような気もする。 ゴジラの骨を元にして作られるとか、 バッテリーで動いてるから活動可能時間が設定されてるとか、 何故か暴走するとか、 電気が足りなくて日本中の電気を集めて動かすとか。ここまで持ってくるならいっそのことエヴァの実写版も作ったら良かったのではと…。着ぐるみでムッチリしてるエヴァも面白そうだし。いや、ブーイングの嵐だろうけど…。
メカゴジラの中に放射能除去装置なるものが設置してあって、なんだか原発事故前の映画だなと感じた。実写版宇宙戦艦ヤマトもそうだったけど、原発事故前の日本映画では放射能というものが妙な捉え方をされている…。いやまあ、この映画のソレは比較的正しい描写ではあったのだろうか。体に付着した放射性物質を吹き飛ばす装置としてはアレもアリなのかな…。そもそも設定上、何が放射線を発しているのか分からんけど。ゴジラがそうなのか、それともメカゴジラが核で動いているのか。
物理的(?)にありえない動きが多くて、そこはちょっと萎えた。その小さい飛行機でメカゴジラを空中輸送するのは無理だろ、とか。翼が無いのにその飛び方はどうなの、とか。尻尾掴んで振り回すのはこの手のお約束だけどやっぱり無理あるなあ、とか。ゴジラそのものがあり得ないとは言え、もうちょっと…。見ていて燃えてくるありえなさと、見ていて萎えてしまうありえなさがあるんだろうけど、この映画については後者が多かった印象。
特技監督さんは、平成ウルトラシリーズや平成ガメラ3に参加してた方らしい。そのせいか平成ウルトラシリーズや平成ガメラのノリもちょっと感じられた気もする。Wikipediaの記述によると、時間がかかりがちという理由で、極力CGは使わない方針で作られたそうで…。
_ゴジラ×メカゴジラ - Wikipedia
本編の監督さんもゴジラ好きだったそうで…。まさかそのせいで「ゴジラと言えば着ぐるみとミニチュアだろう」となったのだろうか…? いや、分からんけど。
_手塚昌明 - Wikipedia
それはさておき。「機龍」という名前は良いなと。機龍だけで話を作れないものかな…。
[ ツッコむ ]
2024/11/07(木) [n年前の日記]
#1 [blender] blenderで木の葉がさわさわする動画を作れるか試してみた
数日前に、木が風でサワサワしてる感じの動画を Processing で作れないか試してたけど。
_Processingで木の葉サワサワ処理を書いてみた - mieki256's diary
無料で使える3DCGソフト blender でも、木が風でさわさわしてる感じの動画を作れそうか試してみた。
環境は Windows10 x64 22H2 + blender 4.2.3 LTS。CPUは AMD Ryzen 5 5600X。RAM 16GB。GPUは NVIDIA GeForce GTX 1060 6GB。
blender には、木のモデルデータを作成できる Sapling Tree Gen というアドオンがある。このアドオンにはアニメーションをさせる機能もあると以下のチュートリアル動画で知った。ありがたや。
_[Blender] 風で揺れる「木」の作り方!! Sapling Tree Gen のアニメーション機能 #084 - YouTube
動画の通りに試してみたら、さわさわ動画がすんなり作れてしまった。素晴らしい…。以下のような雰囲気の動画が作れる。
動きに関してはコレでいいんじゃないかな…。
ただ、例えばアニメの背景に使おうとするなら、このままだといかにも3DCG過ぎるので、アニメ風の見た目にするためのテクニックが必要になるはず。そのあたりはまた別の話。
_Processingで木の葉サワサワ処理を書いてみた - mieki256's diary
無料で使える3DCGソフト blender でも、木が風でさわさわしてる感じの動画を作れそうか試してみた。
環境は Windows10 x64 22H2 + blender 4.2.3 LTS。CPUは AMD Ryzen 5 5600X。RAM 16GB。GPUは NVIDIA GeForce GTX 1060 6GB。
blender には、木のモデルデータを作成できる Sapling Tree Gen というアドオンがある。このアドオンにはアニメーションをさせる機能もあると以下のチュートリアル動画で知った。ありがたや。
_[Blender] 風で揺れる「木」の作り方!! Sapling Tree Gen のアニメーション機能 #084 - YouTube
動画の通りに試してみたら、さわさわ動画がすんなり作れてしまった。素晴らしい…。以下のような雰囲気の動画が作れる。
動きに関してはコレでいいんじゃないかな…。
ただ、例えばアニメの背景に使おうとするなら、このままだといかにも3DCG過ぎるので、アニメ風の見た目にするためのテクニックが必要になるはず。そのあたりはまた別の話。
◎ 操作手順をメモ :
せっかくだから手順をメモ。Sapling Tree Gen アドオンのインストールは済ませてあること。
追加 → カーブ → Sapling tree gen、を選択。木のモデルが追加される。
「Branch Splitting」で、枝の分岐を設定できる。レベルを2から3に上げると、発生する枝の数が増える。ただ、blenderの処理が一気に重くなるので注意。何か操作をするたびに10〜20秒ぐらい待たされる状態になる。
「Leaves」を選んで、葉の状態を設定する。
「アーマチュア」で、アニメーションをつけるためのボーンを枝に設定できる。Use Armature にチェックを入れる。
「アニメーション」で、動きを設定。
追加 → カーブ → Sapling tree gen、を選択。木のモデルが追加される。
- 左下に「Sapling: Add Tree」という項目が出るので展開させる。
- 「ジオメトリ」を選んで、ランダムシードを変更すると木の形が乱数で変わる。
- Load Preset で、木の種類をいくつか選べる。
「Branch Splitting」で、枝の分岐を設定できる。レベルを2から3に上げると、発生する枝の数が増える。ただ、blenderの処理が一気に重くなるので注意。何か操作をするたびに10〜20秒ぐらい待たされる状態になる。
「Leaves」を選んで、葉の状態を設定する。
- Show Leaves にチェックを入れると、葉を表示/発生させられる。
- Leaves の数字を変更すると、発生する個数を変更できる。
- Leaf Scale で、葉の大きさを変更できる。
「アーマチュア」で、アニメーションをつけるためのボーンを枝に設定できる。Use Armature にチェックを入れる。
「アニメーション」で、動きを設定。
- Armatue Animation と Leaf Animation にチェックを入れる。前者は枝を、後者は葉を揺らす。
- Animation Speed で、全体のアニメスピードを変更できる。
- Loop Frames に最終フレームを指定するとループアニメが作れる。0ならループしない。
- Overall Wind Strength で風の強さを指定。
- Leaf Wind Settings の振幅で、葉が揺れる大きさを指定。
◎ 余談。このあたりの処理を気にするようになった経緯 :
昔、「ダイナミックコード」というTVアニメを見ていた際、風で木がさわさわしてるSEが流れてるのに背景の木はピクリとも動いてないカットがあって、「おいおい。それはどうなの…」と思ってしまったことがあって。
それ以来、アニメの中で木がさわさわしてるカットが出てくると、どういう処理をしてさわさわさせてるのか、ついつい気になってしまう体質(?)に…。まあ、おかげで色々な方法があることが分かってきた。
それはさておき。ググってたら、blenderを使ってアニメ風の木に見せつつさわさわさせる作例を見かけた。
_Anime Tree Tutorial | Blender (include Project Files) - YouTube
個人的には、これが理想的なさわさわのように思える…。どう見てもアニメ風だし、滑らかにさわさわしてるし。
それ以来、アニメの中で木がさわさわしてるカットが出てくると、どういう処理をしてさわさわさせてるのか、ついつい気になってしまう体質(?)に…。まあ、おかげで色々な方法があることが分かってきた。
- 木の幹と、葉っぱのシルエットを、アニメーターが動画で描いてしまう。セル+フィルム時代の手法。
- 少し形が違う木を背景美術っぽい絵柄で2〜3枚描いて、オーバーラップでほわほわと切り替えてさわさわしてることにする。セル+フィルム時代の手法。
- 幹と葉っぱを別レイヤーに分けて、葉っぱ全体だけ撮影で何かのフィルタをかけてモサモサと動いてるように見せる。(先日、「アクロトリップ」というTVアニメで目撃した)
- 葉っぱの塊を複数レイヤーで重ねて撮影で動かす。
- 3DCGにしちゃう。
それはさておき。ググってたら、blenderを使ってアニメ風の木に見せつつさわさわさせる作例を見かけた。
_Anime Tree Tutorial | Blender (include Project Files) - YouTube
個人的には、これが理想的なさわさわのように思える…。どう見てもアニメ風だし、滑らかにさわさわしてるし。
[ ツッコむ ]
2024/11/08(金) [n年前の日記]
#1 [cg_tools] miniPaintを試用
画像生成AI Stable Diffusion web UI について調べてたら、miniPaintなるものを利用できるようにする拡張があると知った。
_miniPaint - image editor
_0Tick/a1111-mini-paint: Image editor for the AUTOMATIC1111 stable-diffusion-webui
_viliusle/miniPaint: online image editor
_miniPaint extension published : r/StableDiffusion
Webブラウザ上で動作する画像編集アプリ、らしい。レイヤー機能もある。なかなか良さそう。
Stable Diffusion web UI上で少し試用してみたのだけど、ちょっとハマった。上のほうにあるメニューの中から「Send」を選べば、txt2img や img2img に画像を送信できるのだけど、ControlNet に送っても画像が反映されなくて首を捻った。
どうやら、アルファチャンネルを持った状態の画像(RGBA 32bit)を送ってしまう時があるようで、そのフォーマットの画像では ControlNet が処理できないようだなと…。おそらく RGB 24bit の画像にしないといけない。
解決策としては…。miniPaint側で、背景として真っ白なレイヤー等を置いた状態で、Layer → Flatten Image を選んでレイヤーを全結合すればアルファチャンネルが無くなってくれるかなと。その状態で「Send」を選んで送った ControlNet にも反映された。
_miniPaint - image editor
_0Tick/a1111-mini-paint: Image editor for the AUTOMATIC1111 stable-diffusion-webui
_viliusle/miniPaint: online image editor
_miniPaint extension published : r/StableDiffusion
Webブラウザ上で動作する画像編集アプリ、らしい。レイヤー機能もある。なかなか良さそう。
Stable Diffusion web UI上で少し試用してみたのだけど、ちょっとハマった。上のほうにあるメニューの中から「Send」を選べば、txt2img や img2img に画像を送信できるのだけど、ControlNet に送っても画像が反映されなくて首を捻った。
どうやら、アルファチャンネルを持った状態の画像(RGBA 32bit)を送ってしまう時があるようで、そのフォーマットの画像では ControlNet が処理できないようだなと…。おそらく RGB 24bit の画像にしないといけない。
解決策としては…。miniPaint側で、背景として真っ白なレイヤー等を置いた状態で、Layer → Flatten Image を選んでレイヤーを全結合すればアルファチャンネルが無くなってくれるかなと。その状態で「Send」を選んで送った ControlNet にも反映された。
◎ 余談。他の拡張もメモ :
Stable Diffusion web UI 上で利用できる画像編集系拡張としては、Photopea Stable Diffusion WebUI Extension というものもあるので一応メモしておく。
_yankooliveira/sd-webui-photopea-embed: A simple Stable Diffusion WebUI extension that adds a Photopea tab and integration.
_yankooliveira/sd-webui-photopea-embed: A simple Stable Diffusion WebUI extension that adds a Photopea tab and integration.
[ ツッコむ ]
2024/11/09(土) [n年前の日記]
#1 [cg_tools] Photopeaの使い方を少し調べてた
画像生成AI Stable Diffusion web UI上に、画像編集ができる Photopea というツールを追加できる拡張がある。
_yankooliveira/sd-webui-photopea-embed: A simple Stable Diffusion WebUI extension that adds a Photopea tab and integration.
_無料画像編集ツールPhotopea【AUTOMATIC1111版web UI】 | ジコログ
_高機能画像編集ツール「Photopea」を Stable Diffusion web UI に導入する
_Photopea | Online Photo Editor
Stable Diffusion web UI reForge 上でインストールして利用していたのだけど、ブラシサイズを変更するのが面倒臭いなと思えてきた。
_yankooliveira/sd-webui-photopea-embed: A simple Stable Diffusion WebUI extension that adds a Photopea tab and integration.
_無料画像編集ツールPhotopea【AUTOMATIC1111版web UI】 | ジコログ
_高機能画像編集ツール「Photopea」を Stable Diffusion web UI に導入する
_Photopea | Online Photo Editor
Stable Diffusion web UI reForge 上でインストールして利用していたのだけど、ブラシサイズを変更するのが面倒臭いなと思えてきた。
- 左上のアイコンをクリックして、ブラシ設定ウインドウを表示して。
- ブラシサイズのスライドバーを変更して。
- 設定ウインドウを閉じて。
- キャンバス上で描く。
◎ ショートカットキーについてメモ :
まず、ブラシツールとスポイトツールのショートカットキーをメモ。
Iキーでスポイトツールにして色を取得して、Bキーでブラシツールにして描いていけば、少しは作業が楽かなと…。
ブラシサイズの変更は "@", "[" でできるらしい。英語キーボードなら "[", "]" が割り当てられているらしいけど、日本語キーボードはキー配置が違うので "@", "[" になるのかも。何にせよキーが左右に並んでるので分かりやすい割り当てかもしれない。
加えて、Alt + 右ボタンドラッグでブラシサイズを変更することもできたらしい。
_Feature request: Brush resize shortcut - Issue #5641 - photopea/photopea
ただ、この ALt + 右ドラッグ、ちと問題が…。Google Chrome 上で試したところたしかに動作したのだけど、Google Chrome にインストールしてあるマウスジェスチャ拡張機能 (crxMouse Chrome Gestures)も反応してしまって、ちょっと面倒なことに…。
もっとも、crxMouse Chrome Gestures にはブラックリスト登録機能があって、URL(?)を登録しておけば、そのサイト/ページだけはマウスジェスチャを無効にできる。今回、「www.photopea.com」を登録してみたら、Photopea利用時はマウスジェスチャが無効化される状態になった。これでなんとかなるかな…。
他のショートカットキーもメモ。
_Photopea - Navigation
- ブラシツール : Bキー
- スポイトツール : Iキー
Iキーでスポイトツールにして色を取得して、Bキーでブラシツールにして描いていけば、少しは作業が楽かなと…。
ブラシサイズの変更は "@", "[" でできるらしい。英語キーボードなら "[", "]" が割り当てられているらしいけど、日本語キーボードはキー配置が違うので "@", "[" になるのかも。何にせよキーが左右に並んでるので分かりやすい割り当てかもしれない。
加えて、Alt + 右ボタンドラッグでブラシサイズを変更することもできたらしい。
_Feature request: Brush resize shortcut - Issue #5641 - photopea/photopea
ただ、この ALt + 右ドラッグ、ちと問題が…。Google Chrome 上で試したところたしかに動作したのだけど、Google Chrome にインストールしてあるマウスジェスチャ拡張機能 (crxMouse Chrome Gestures)も反応してしまって、ちょっと面倒なことに…。
もっとも、crxMouse Chrome Gestures にはブラックリスト登録機能があって、URL(?)を登録しておけば、そのサイト/ページだけはマウスジェスチャを無効にできる。今回、「www.photopea.com」を登録してみたら、Photopea利用時はマウスジェスチャが無効化される状態になった。これでなんとかなるかな…。
他のショートカットキーもメモ。
- Alt + マウスホイール : キャンバスのズーム
- Ctrl + Space + 左ボタンドラック : キャンバスのズーム
- 中ボタン(ホイール)ドラッグ : キャンバスのPAN(スクロール)
- Space + 左ボタンドラッグ : キャンバスのPAN(スクロール)
- Sfift + F5 : 塗り潰し
- Ctrl + + : キャンバス拡大
- Ctrl + - : キャンバス縮小
- Ctrl + 0 : 表示範囲をエリアに合わせる
- Ctrl + 1 : 等倍表示
_Photopea - Navigation
◎ 他の機能もメモ :
「境界線を調整」機能を使えば、境界が怪しい画像に対してもイイ感じに選択範囲を作って切り抜き作業ができる。選択 → 境界線を調整、を選べば画面が切り替わって、白、グレー、黒の3色で塗り潰すウインドウと、切り抜き結果のプレビューウインドウが表示される。白で切り抜きたい範囲を、黒で背景を、グレーで境界部分を塗ればいい。
_Photopea - Refine Edge
GIMPの前傾抽出選択ツールのようなものだろうか…?
_前景抽出選択ツール < ツールの紹介 | GIMP入門(2.10版)
自動で背景を削除する機能も持っている。選択 → Remove BG を選ぶと、数秒待たされた後、背景が削除された。おそらくAIで処理してそう。
_XユーザーのPhotopeaさん: 「Have you tried our new single-click background removal? :) / X
ただ、この機能を無料で利用する場合は1日1回しか使えないらしい。何度も利用したいなら有料プランにしてくれ、とメッセージが表示された。あるいは、提示される全画面広告を視聴すれば、その1回だけは利用させてもらえる。
選択範囲内を、プロンプトの入力内容で置き換えることもできる。こちらもおそらく画像生成AIの結果を利用しているのだろう。設定項目の中に、画像生成AIのモデルデータを選べる項目もあった。
_XユーザーのPhotopeaさん: 「Have you tried our new Magic Replace tool? :) / X
そしてこの機能も、無料なら1日1回だけ使える模様。有料プランにすれば使い放題になるらしい。
_Photopea - Refine Edge
GIMPの前傾抽出選択ツールのようなものだろうか…?
_前景抽出選択ツール < ツールの紹介 | GIMP入門(2.10版)
自動で背景を削除する機能も持っている。選択 → Remove BG を選ぶと、数秒待たされた後、背景が削除された。おそらくAIで処理してそう。
_XユーザーのPhotopeaさん: 「Have you tried our new single-click background removal? :) / X
ただ、この機能を無料で利用する場合は1日1回しか使えないらしい。何度も利用したいなら有料プランにしてくれ、とメッセージが表示された。あるいは、提示される全画面広告を視聴すれば、その1回だけは利用させてもらえる。
選択範囲内を、プロンプトの入力内容で置き換えることもできる。こちらもおそらく画像生成AIの結果を利用しているのだろう。設定項目の中に、画像生成AIのモデルデータを選べる項目もあった。
_XユーザーのPhotopeaさん: 「Have you tried our new Magic Replace tool? :) / X
そしてこの機能も、無料なら1日1回だけ使える模様。有料プランにすれば使い放題になるらしい。
◎ 余談。画像生成AI機能追加について :
このランク(?)の画像編集ツールですら画像生成AIがこうして組み込まれていく流れを目の当たりにしたら…。CLIP STUDIO PAINT に画像生成AIの機能を追加しようとしたら一部のユーザが猛反発して機能追加の話が無くなってしまった件を思い出してしまった。
_CLIP STUDIO PAINTへ画像生成AI機能を搭載しないことといたしました
_クリスタに画像生成AIを搭載する予定ない──提供元セルシスが発表 「データセットがクリーンなものしか使わない」 - ITmedia NEWS
CLIP STUDIO PAINT はユーザからの圧力で時代に逆行させられてしまっているというか、置いてけぼり状態になってたりしないか…。
もっとも、その手の機能を使いたい人は別ソフトを導入すれば済むから特に問題ないのだろうけど。アプリを売る側にとってはせっかくの売り(?)を潰されちゃうんだからたまったもんじゃないよな…。とは言え権利面での不安はまだあるし、社会的な大勢が決まるまで様子見するのも賢いと言えば賢いのかもしれないか…。
_CLIP STUDIO PAINTへ画像生成AI機能を搭載しないことといたしました
_クリスタに画像生成AIを搭載する予定ない──提供元セルシスが発表 「データセットがクリーンなものしか使わない」 - ITmedia NEWS
CLIP STUDIO PAINT はユーザからの圧力で時代に逆行させられてしまっているというか、置いてけぼり状態になってたりしないか…。
もっとも、その手の機能を使いたい人は別ソフトを導入すれば済むから特に問題ないのだろうけど。アプリを売る側にとってはせっかくの売り(?)を潰されちゃうんだからたまったもんじゃないよな…。とは言え権利面での不安はまだあるし、社会的な大勢が決まるまで様子見するのも賢いと言えば賢いのかもしれないか…。
[ ツッコむ ]
#2 [pc] ソースネクストのコンビニ後払いについてメモ
先日、ソースネクストで Affinity Designer ダウンロード版を購入したのだけど、その際に支払い方法としてコンビニ後払いを選んだので、そのあたりについてメモ。コンビニ後払いを初めて利用するので、ちょっと流れが分からなかった。
購入したのは 2024/11/03。そして今日、2024/11/09 に、ソースネクストではなく、クロネコヤマトから、コンビニで支払うための払込票がはがきサイズで届いた。
つまり、払込票が届くまで6日間ぐらいはかかる、と思っておけばいいのかな…。
支払期限は、2024/11/19 と印字されてる。購入日から16日間、払込票が届いてから10日間ぐらいの間に支払うことになっている感じだろうか。
ソースネクストのコンビニ後払いは、ソースネクストにコンビニ経由で代金を支払うのではなく、一旦クロネコヤマト(ヤマト運輸株式会社)が代行してソースネクストに支払って、購入者はクロネコヤマトに対して代金を支払う、という仕組みになっているっぽい。
そういう仕組みだから、ソースネクストのサイトで製品ライセンスその他について確認してみても、まだ代金を支払ってないのに「処理済み」扱いになっていたのだな…。おそらく既にソースネクストには、クロネコヤマトから代金が支払われているからそういう扱いになっていたのだろう…。そしてこちら側は、代金をクロネコヤマトに支払えば、それでこの取引は完了する、はず、と…。
購入したのは 2024/11/03。そして今日、2024/11/09 に、ソースネクストではなく、クロネコヤマトから、コンビニで支払うための払込票がはがきサイズで届いた。
つまり、払込票が届くまで6日間ぐらいはかかる、と思っておけばいいのかな…。
支払期限は、2024/11/19 と印字されてる。購入日から16日間、払込票が届いてから10日間ぐらいの間に支払うことになっている感じだろうか。
ソースネクストのコンビニ後払いは、ソースネクストにコンビニ経由で代金を支払うのではなく、一旦クロネコヤマト(ヤマト運輸株式会社)が代行してソースネクストに支払って、購入者はクロネコヤマトに対して代金を支払う、という仕組みになっているっぽい。
そういう仕組みだから、ソースネクストのサイトで製品ライセンスその他について確認してみても、まだ代金を支払ってないのに「処理済み」扱いになっていたのだな…。おそらく既にソースネクストには、クロネコヤマトから代金が支払われているからそういう扱いになっていたのだろう…。そしてこちら側は、代金をクロネコヤマトに支払えば、それでこの取引は完了する、はず、と…。
◎ 2024/11/10追記 :
セブンイレブンで払込をしてきた。今回届いた払込票をレジに出したら、バーコードを読み取って、いつも買い物するような感じで現金を支払って終了。
手数料110円が追加されるけれど、コンビニ先払いのようにATMっぽい機械を操作したりしなくていいので、この支払い方法のほうが簡単かもしれない。
手数料110円が追加されるけれど、コンビニ先払いのようにATMっぽい機械を操作したりしなくていいので、この支払い方法のほうが簡単かもしれない。
[ ツッコむ ]
2024/11/10(日) [n年前の日記]
#1 [movie] 「GODZILLA」2014年版を視聴
BS12で放送されていたので視聴。ハリウッド版ゴジラ。ギャレス・エドワーズ監督作品。
たしか2回目の視聴だと思うけど、やっぱり映像が凄いなと…。このCG版ゴジラを見てしまったら、もう着ぐるみ+ミニチュアのゴジラは見れたもんじゃない…。
製作費が気になったので色々ググってしまった。Wikipediaには$160,000,000、と書いてあった。先日見た「ゴジラVSメカゴジラ」はどのくらいかなとググってみたら、製作費10億円と出てきた。ただ、これはソースが見つからなくて怪しい。しかし、「ゴジラ FINAL WARS」がゴジラシリーズとしては破格の製作費20億円、という情報があったので、そこまでは行ってなかったんだろうなと…。となると、このハリウッド版は「ゴジラVSメカゴジラ」の24〜25倍ぐらいの予算になる。そりゃ映像クオリティが全然違ってくるよな…。
「ゴジラ -1.0」については、監督さん自身が10億では作れないと発言してたという話も見かけた。「FINAL WARS」並みの予算だったとしても、ハリウッド版より桁が一つ少ない予算と言うのは間違いなさそう。それであそこまで作れたんだから、たしかにスゴイかも…。
ギャレス監督も、山崎貴監督も、VFX畑出身と言うのが大きい気もする…。欲しい画を作るために何が必要になりそうか予測がつくのが強みだったりするのかな…。
たしか2回目の視聴だと思うけど、やっぱり映像が凄いなと…。このCG版ゴジラを見てしまったら、もう着ぐるみ+ミニチュアのゴジラは見れたもんじゃない…。
製作費が気になったので色々ググってしまった。Wikipediaには$160,000,000、と書いてあった。先日見た「ゴジラVSメカゴジラ」はどのくらいかなとググってみたら、製作費10億円と出てきた。ただ、これはソースが見つからなくて怪しい。しかし、「ゴジラ FINAL WARS」がゴジラシリーズとしては破格の製作費20億円、という情報があったので、そこまでは行ってなかったんだろうなと…。となると、このハリウッド版は「ゴジラVSメカゴジラ」の24〜25倍ぐらいの予算になる。そりゃ映像クオリティが全然違ってくるよな…。
「ゴジラ -1.0」については、監督さん自身が10億では作れないと発言してたという話も見かけた。「FINAL WARS」並みの予算だったとしても、ハリウッド版より桁が一つ少ない予算と言うのは間違いなさそう。それであそこまで作れたんだから、たしかにスゴイかも…。
ギャレス監督も、山崎貴監督も、VFX畑出身と言うのが大きい気もする…。欲しい画を作るために何が必要になりそうか予測がつくのが強みだったりするのかな…。
[ ツッコむ ]
2024/11/11(月) [n年前の日記]
#1 [gimp][cg_tools] GIMPからrembgを呼び出したい
無料で利用できる画像編集ソフト GIMP上で、AIを使って画像の背景を消去することができないものかなと思えてきた。ググってみたところ、Python から利用できる rembg というツールを GIMP から呼び出すことで実現できそうだと知った。
環境は、Windows10 x64 22H2 + Python 3.10.11。GIMP 2.10.34 Portable。
環境は、Windows10 x64 22H2 + Python 3.10.11。GIMP 2.10.34 Portable。
◎ rembgを利用できる状態にする :
GIMP から rembg を利用するためには、どこからでも rembg.exe が呼び出せないといけない。つまり、Python の仮想環境を作ってそこにインストールするのではなく、システムに入っている Python に rembg をインストールしないといけない気がする。たぶん。
実は、仮想環境に rembg をインストールする形でも利用できることが後になって分かったのだけど…。それについては後で書く。
rembg だけ python -m pip install rembg でインストールしてみたものの、rembg --help すら動いてくれなかった。filetype、gradio、asyncer 等々、とにかく色々なモジュールが見つからないと言われてしまう。
ダメ元で、エラーが出るたびに、無いと言われてしまったモジュールをインストールしていった。
その結果、おそらく rembg CPU版は動いたけれど…。せっかくだからと rembg GPU版をインストールしたら、なんだかよく分からない大量のエラーが出て動かない。
過去の日記のメモを参考にして、以下のバージョンで揃えてインストールしたら、動いてくれた。
以下のように打ってインストールした。
この状態なら rembg --help も動いてくれた。
これでようやく、rembg をどこからでも呼び出して使えるようになった。とりあえず、以下のように打てば、in.png の背景を削除して out.png を作ってくれる。
それにしても、足りないモジュールをこうやって安易にインストールしていいのだろうか…? 不安に思ったけれど、どうやらそういうものらしい。
_GIMPで背景の消去を自動化!電脳はさみの代わりにrembgをインストールして綺麗に背景を消去してみた! | 文化東京生活
ちなみに、rembg が使うモデルデータ(.onnx)は、C:\Users\(USERNAME)\.u2net\ 以下に保存される模様。1ファイルあたり170MB前後だった。
実は、仮想環境に rembg をインストールする形でも利用できることが後になって分かったのだけど…。それについては後で書く。
rembg だけ python -m pip install rembg でインストールしてみたものの、rembg --help すら動いてくれなかった。filetype、gradio、asyncer 等々、とにかく色々なモジュールが見つからないと言われてしまう。
ダメ元で、エラーが出るたびに、無いと言われてしまったモジュールをインストールしていった。
その結果、おそらく rembg CPU版は動いたけれど…。せっかくだからと rembg GPU版をインストールしたら、なんだかよく分からない大量のエラーが出て動かない。
過去の日記のメモを参考にして、以下のバージョンで揃えてインストールしたら、動いてくれた。
> pip list | grep -E "rembg|onnx|proto|open-clip-torch" onnx 1.13.0 onnxruntime 1.14.1 onnxruntime-gpu 1.14.1 open-clip-torch 2.16.0 protobuf 3.20.3 rembg 2.0.59
以下のように打ってインストールした。
python -m pip install onnx==1.13.0 onnxruntime==1.14.1 onnxruntime-gpu==1.14.1 open-clip-torch==2.16.0 protobuf==3.20.3 rembg[gpu,cli]
この状態なら rembg --help も動いてくれた。
> which rembg.exe "D:\Python\Python310-64\Scripts\rembg.exe" > rembg --help Usage: python -m rembg [OPTIONS] COMMAND [ARGS]... Options: --version Show the version and exit. --help Show this message and exit. Commands: b for a byte stream as input d download all models i for a file as input p for a folder as input s for a http server
これでようやく、rembg をどこからでも呼び出して使えるようになった。とりあえず、以下のように打てば、in.png の背景を削除して out.png を作ってくれる。
rembg i -m u2net -a -ae 15 in.png out.png
それにしても、足りないモジュールをこうやって安易にインストールしていいのだろうか…? 不安に思ったけれど、どうやらそういうものらしい。
_GIMPで背景の消去を自動化!電脳はさみの代わりにrembgをインストールして綺麗に背景を消去してみた! | 文化東京生活
ちなみに、rembg が使うモデルデータ(.onnx)は、C:\Users\(USERNAME)\.u2net\ 以下に保存される模様。1ファイルあたり170MB前後だった。
◎ 仮想環境を作ってrembgをインストールしてみた :
試しに、venv で仮想環境を作ってから rembg をインストールしてみたところ、特に何もせず、すんなり実行できる状態になった…。今回は X:\aiwork\gimp_plugins\RemoveBG\ 以下にインストールしてみた。
batファイル removebgcall.bat を書いて呼び出せるようにしてみた。これならシステムのPython環境を汚さずに rembg が使える状態にできそう。
以下のような感じで呼び出して使う。
python -m venv venv venv\Scripts\activate python -m pip install rembg[gpu,cli] rembg --help rembg i -m u2net -a -ae 15 in.png out.png deactivate
batファイル removebgcall.bat を書いて呼び出せるようにしてみた。これならシステムのPython環境を汚さずに rembg が使える状態にできそう。
@set REMBGPATH=X:\aiwork\gimp_plugins\RemoveBG cd /d %REMBGPATH% call %REMBGPATH%\venv\Scripts\activate.bat @echo on rembg %1 %2 %3 %4 %5 %6 %7 %8 %9 deactivate
以下のような感じで呼び出して使う。
removebgcall.bat i -m u2net -a -ae 15 in.png out.png
◎ GIMPから呼び出す :
GIMPから呼び出すPythonプラグインについては以下から入手させてもらった。
_GIMPに生成AIを導入するには -Stable Diffusion, remBG- | nhabitslog
RemoveBG.py を入手して、aiExe のパスを、rembg.exe のある場所に変更。大体は、Pythonインストールフォルダ\Scripts\rembg.exe にあるのではないかと…。
RemoveBG.py を、GIMPユーザーフォルダ内の plug-ins/ あたりにコピーしてインストールする。GIMPを起動すると、上のメニュー内に remBG という項目が増えているので、それを選べばダイアログが表示されて背景削除ができるようになる。
RemoveBG.py 内の aiExe のパスを、前述のbatファイルに置き換えてみたところ、そちらでも処理できることが確認できた。つまり、システムの Python にわざわざインストールしなくても、仮想環境を作って、そこに rembg をインストールして利用することは可能、と分かった。
_GIMPに生成AIを導入するには -Stable Diffusion, remBG- | nhabitslog
RemoveBG.py を入手して、aiExe のパスを、rembg.exe のある場所に変更。大体は、Pythonインストールフォルダ\Scripts\rembg.exe にあるのではないかと…。
RemoveBG.py を、GIMPユーザーフォルダ内の plug-ins/ あたりにコピーしてインストールする。GIMPを起動すると、上のメニュー内に remBG という項目が増えているので、それを選べばダイアログが表示されて背景削除ができるようになる。
RemoveBG.py 内の aiExe のパスを、前述のbatファイルに置き換えてみたところ、そちらでも処理できることが確認できた。つまり、システムの Python にわざわざインストールしなくても、仮想環境を作って、そこに rembg をインストールして利用することは可能、と分かった。
◎ 参考ページ :
_rembg - PyPI
_danielgatis/rembg: Rembg is a tool to remove images background
_rembg のインストールと動作確認(画像の背景除去)(Python を使用)(Windows 上)
_簡単に背景除去する (Background remove) #Python - Qiita
_Rembgを使って画像を切り取ってみた - Minerva
_【背景自動透過ツール】Rembgを利用してみた - 環境立ち上げと動作確認 - しーさん
_【remove.bgレベル】画像の背景透過ツールRembgのインストール | ジコログ
_[Windows×Python] バッチファイルで仮想環境をアクティベートしてPythonファイルを実行する #コマンドプロンプト - Qiita
_Tech-Archive/gimp-rembg-plugin: Remove Backgrounds With AI & GIMP
_GIMPに生成AIを導入するには -Stable Diffusion, remBG- | nhabitslog
_GIMPで背景の消去を自動化!電脳はさみの代わりにrembgをインストールして綺麗に背景を消去してみた! | 文化東京生活
_How to Install the rembg Plugin in GIMP for AI-Powered Background Removal | by Tech Archive | Sep, 2024 | Medium
_danielgatis/rembg: Rembg is a tool to remove images background
_rembg のインストールと動作確認(画像の背景除去)(Python を使用)(Windows 上)
_簡単に背景除去する (Background remove) #Python - Qiita
_Rembgを使って画像を切り取ってみた - Minerva
_【背景自動透過ツール】Rembgを利用してみた - 環境立ち上げと動作確認 - しーさん
_【remove.bgレベル】画像の背景透過ツールRembgのインストール | ジコログ
_[Windows×Python] バッチファイルで仮想環境をアクティベートしてPythonファイルを実行する #コマンドプロンプト - Qiita
_Tech-Archive/gimp-rembg-plugin: Remove Backgrounds With AI & GIMP
_GIMPに生成AIを導入するには -Stable Diffusion, remBG- | nhabitslog
_GIMPで背景の消去を自動化!電脳はさみの代わりにrembgをインストールして綺麗に背景を消去してみた! | 文化東京生活
_How to Install the rembg Plugin in GIMP for AI-Powered Background Removal | by Tech Archive | Sep, 2024 | Medium
[ ツッコむ ]
2024/11/12(火) [n年前の日記]
#1 [cg_tools] お絵描きソフトは変わっていくのかもしれない
思考メモ。
ここ最近、色々な画像編集ソフトに、画像生成AIの各種機能が組み込まれていく流れがあるような気がしてる。
そこから妄想したのだけど、もしかするとPC上のお絵描きソフト/ペイントソフトは、今後全然違うものになっていくのかもしれないなと…。
今はまだ、お絵描きソフトと言えば、「マウスやタブレットペンを人間が手で動かして」「ブラシ使ってシコシコと描いていくもの」という認識だろうけど…。
将来的には、「このへんにコレを描いて」と指示するとAIがそれらしい画像を生成するから、それらをどう並べてどう整えるか、そのあたりを試行錯誤するのがお絵描きソフトでしょ? 違うの? と言われちゃう時代が来るかもしれないなあ、と…。
ここ最近、色々な画像編集ソフトに、画像生成AIの各種機能が組み込まれていく流れがあるような気がしてる。
- Photoshop でもAIで画像生成できてるそうだし。使ってないから知らんけど。
- GIMP や Krita でも画像生成機能が追加できてるし。
- 自分が知らなかったマイナーなペイントソフトでも、画像生成AIが呼び出せるのが売りになってたりするっぽい。広告でたまに見かける。
そこから妄想したのだけど、もしかするとPC上のお絵描きソフト/ペイントソフトは、今後全然違うものになっていくのかもしれないなと…。
今はまだ、お絵描きソフトと言えば、「マウスやタブレットペンを人間が手で動かして」「ブラシ使ってシコシコと描いていくもの」という認識だろうけど…。
将来的には、「このへんにコレを描いて」と指示するとAIがそれらしい画像を生成するから、それらをどう並べてどう整えるか、そのあたりを試行錯誤するのがお絵描きソフトでしょ? 違うの? と言われちゃう時代が来るかもしれないなあ、と…。
◎ PCを使ったお絵描きは過去に変革が起きていた :
考えてみたら、「PCで絵を描く際の作業スタイル」は、既に一度、大きく変化してるのだな…。
と言うのも、大昔の 8bit PC時代、PCで絵を描こうとしたら、BASICのLINE命令とPAINT命令を使って描くのが当たり前だったから。
DATA文で座標値を羅列して、ループ回して座標値を取得して、LINE命令で直線をずらずら描いて、その中をPAINT命令で塗り潰す。それでようやくPCの画面に絵が出てくるのだけど、そのためには座標値の羅列を作らないといけない。方眼紙の上に線画を描いて、曲線は短い直線で近似して、直線の始点と終点の座標を目視で調べて、座標値をメモして、それをPCに打ち込んでいく。
PCで絵を描くというのは、そういうことだった。そういう作業をしなきゃいけなかった。自分も方眼紙の上にラムちゃんをトレスしてやってました…。
しかし、マウスやペンタブレットというポインティングデバイスがPCでも使えるようになって作業スタイルが激変した。マウスを使って画面上の座標を直接指定しながら、ペンやブラシでシコシコと線を引いたり塗ったりしていく。そんな光景に変わった。
結果的にPCの画面に絵が出てるという点は昔も今も同じだけれど。ライン&ペイント方式と比べて、マウスやペンタブを使った作業スタイルは、それまでと全く異質な作業スタイルと言える。
ということは…。画像生成AIの登場と普及で、PC上でのお絵描きに、また変革が起きても全然おかしくないよなと…。マウス等の普及で一度激変してるのだから、今度は画像生成AIの普及で、また激変してしまうのかもしれない。
「なわけねえよ。この作業スタイルは変わらねえよ」とは言えないよな…。だってもう、実際に一度は変わってるんだもの。 *1
と言うのも、大昔の 8bit PC時代、PCで絵を描こうとしたら、BASICのLINE命令とPAINT命令を使って描くのが当たり前だったから。
DATA文で座標値を羅列して、ループ回して座標値を取得して、LINE命令で直線をずらずら描いて、その中をPAINT命令で塗り潰す。それでようやくPCの画面に絵が出てくるのだけど、そのためには座標値の羅列を作らないといけない。方眼紙の上に線画を描いて、曲線は短い直線で近似して、直線の始点と終点の座標を目視で調べて、座標値をメモして、それをPCに打ち込んでいく。
PCで絵を描くというのは、そういうことだった。そういう作業をしなきゃいけなかった。自分も方眼紙の上にラムちゃんをトレスしてやってました…。
しかし、マウスやペンタブレットというポインティングデバイスがPCでも使えるようになって作業スタイルが激変した。マウスを使って画面上の座標を直接指定しながら、ペンやブラシでシコシコと線を引いたり塗ったりしていく。そんな光景に変わった。
結果的にPCの画面に絵が出てるという点は昔も今も同じだけれど。ライン&ペイント方式と比べて、マウスやペンタブを使った作業スタイルは、それまでと全く異質な作業スタイルと言える。
ということは…。画像生成AIの登場と普及で、PC上でのお絵描きに、また変革が起きても全然おかしくないよなと…。マウス等の普及で一度激変してるのだから、今度は画像生成AIの普及で、また激変してしまうのかもしれない。
「なわけねえよ。この作業スタイルは変わらねえよ」とは言えないよな…。だってもう、実際に一度は変わってるんだもの。 *1
◎ 各世代にとっての当たり前 :
昔と比べたら随分便利になったよなー、と思うのだけど…。産まれた時から「PCにマウスがついてるのが当たり前」だった世代にとっては、「一体どこが便利なの?」「こんなのできて当たり前じゃん」という感覚だろうな、という気はする。
となると、産まれた時から「画像生成AIが使えて当たり前」になる世代は、また違う感覚を持つだろうなと。「手を動かして絵を描く? 何言ってんの。画像生成AIの生成結果をディレクションするためのソフトがお絵描きソフトでしょ?」という感覚が当たり前になるのではないか。「そういうことができなかったらPCで絵を描く意味がないじゃん」とすら言われるかもしれない。
自分達は、「PCでマウスやペンタブが使えるのは当たり前」という感覚を持ちながら、今現在のお絵描きソフトを捉えているけれど。「PCで画像生成AIが使えるのは当たり前」な世代にとって、お絵描きソフトはもっと違うものになるんじゃないだろうか。
そう考えると、「○○に画像生成AI機能をつけるな!」という主張は、かなりマズイ主張なのかもしれない。未来の作業スタイルが想像できていない旧世代にとっての「ナシ」は、新世代にとって全然「アリ」だったりするのではないか…?
まあ、その新世代は、今はまだ実際に産まれてないか、産まれていても子供さんだったりするから表立って異を唱えることもないので、故に旧世代は胸を張って大声で「ナシ」を叫べている面もあるのだろうけど。新世代がそれなりに育ってきたら、「このジジイ共は何を口走ってるんだ?」と言われちゃうのでは…。世代にとっての「できて当たり前」は違うはずだし…。
さてはて、未来ではどういう作業スタイルになってるんだろうな…。個人的には、「こんなはずでは」と呟くより「やっぱりそうなったかー。なっちゃったかー」と呟きたいものだけど、未来予測って難しいからなあ…。ホント、どうなるんだろ。
思考メモです。オチは無いです。
となると、産まれた時から「画像生成AIが使えて当たり前」になる世代は、また違う感覚を持つだろうなと。「手を動かして絵を描く? 何言ってんの。画像生成AIの生成結果をディレクションするためのソフトがお絵描きソフトでしょ?」という感覚が当たり前になるのではないか。「そういうことができなかったらPCで絵を描く意味がないじゃん」とすら言われるかもしれない。
自分達は、「PCでマウスやペンタブが使えるのは当たり前」という感覚を持ちながら、今現在のお絵描きソフトを捉えているけれど。「PCで画像生成AIが使えるのは当たり前」な世代にとって、お絵描きソフトはもっと違うものになるんじゃないだろうか。
そう考えると、「○○に画像生成AI機能をつけるな!」という主張は、かなりマズイ主張なのかもしれない。未来の作業スタイルが想像できていない旧世代にとっての「ナシ」は、新世代にとって全然「アリ」だったりするのではないか…?
まあ、その新世代は、今はまだ実際に産まれてないか、産まれていても子供さんだったりするから表立って異を唱えることもないので、故に旧世代は胸を張って大声で「ナシ」を叫べている面もあるのだろうけど。新世代がそれなりに育ってきたら、「このジジイ共は何を口走ってるんだ?」と言われちゃうのでは…。世代にとっての「できて当たり前」は違うはずだし…。
さてはて、未来ではどういう作業スタイルになってるんだろうな…。個人的には、「こんなはずでは」と呟くより「やっぱりそうなったかー。なっちゃったかー」と呟きたいものだけど、未来予測って難しいからなあ…。ホント、どうなるんだろ。
思考メモです。オチは無いです。
*1: もっとも、元々人間は、鉛筆や絵筆を動かして絵を描いてたわけで…。マウス等の登場で、ようやくそのレベルをPCでも再現できるようになったと言えるのかもしれない。だから、「マウスの普及と画像生成AIの普及を同列に並べるのは違うんじゃね?」という感覚もアリかもなあ、とも思う。
[ ツッコむ ]
#2 [movie] 「バズ・ライトイヤー」を視聴
随分前(2024/09/27?)に金曜ロードショーで放送されていたソレを録画したままだったので視聴。ディズニー配給、ピクサー制作の3DCGアニメ。
たしか本放送時は何か作業をしながらチラ見してた気がする…。これは後でちゃんと正座して見ないとダメなやつだ、と思って録画したソレを今まで残してた。
面白かった。実に良くできたSFアクションアニメなのでは。素晴らしい。SFと言っても「攻殻機動隊」みたいな小難しいソレじゃなくて、藤子F作品のようなSFと言うか。ドラえもん劇場版に近い印象。そういえばこのアニメにも猫型ロボットが出てたな…。まさかオマージュ? なわけないか。
トイ・ストーリーシリーズに登場する玩具の元ネタの映画、という設定がなんだか面白いなと。考えてみたらスタジオジブリの「猫の恩返し」と同じか…。アレも、「耳をすませば」のヒロインが書いた小説、という設定だった気がするし。
ウラシマ効果というワードが出てきて驚いた。常にファミリー向けを強く意識することを要求されそうな、ディズニー+ピクサーのアニメなのに、その設定、使うんだ? と。そして、ソレを利用したシチュエーションにも感心。 時間の進み方が異なる同僚同士の人生を断片的に見せていくあたりは「カールじいさんの空飛ぶ家」を連想した。キャラの人生の全体をざっくり見せていくなら、こういう見せ方がベストな気がする。そしてやっぱり、このシチュエーションは泣ける…。
女性同士が夫婦になって、しかも妊娠までするというシチュが出てきて、「おお…SFだ!」と感じた。劇場版アニメ「超時空要塞マクロス 愛・おぼえていますか」のゼントラーディとメルトランディ、あるいはTVアニメ「ヴァンドレッド」や「セイバーマリオネットJ」の設定に近い気がするけど、あの手の設定をまさかディズニー+ピクサーで見れるとは…。いやー、時代は変わったなあ…。この映画の件のシーンについてはポリコレ云々で叩く人種を見かけるけれど、SF作品ではちょくちょく出現する設定なので、そんな反応されちゃってもなあ、と…。まあ、どうせあの手の人達は何を見せてもそう見えちゃうんだろうけど。いやまあ、こっちはこっちで何を見ても「むっ。これもSFだなッ…?」と言い出すから似たようなものかも…。
伏線の量には脱帽。さりげなくちょこっと出てきたシーンが後でしっかり役に立つ、みたいなソレがてんこ盛り。一つ一つをリストアップしたら結構な数になるのではなかろうか…。
台詞の繰り返しも上手いなと感じた。色々な台詞が繰り返し使われていたけれど、特に、トイ・ストーリー1で使われてた「無限の彼方へ! さあ行くぞ!」の使い方が良い。指を差し出すアクションも付加することで変な誤解をされたあたりでも笑えたし、しかし最後には、というのもベタだけど良い。
随分昔、ジョン・ラセター監督がまだピクサーに在籍していた頃、「私達はミヤザキサンからコントラストを学んだ」と来日インタビューで発言してたけど、ピクサー全体にその学びがすっかり浸透してる気配も感じた。 激しいカーチェイス(?)の合間に挿入される転送装置による「ポトン…」的カットとか。 発進前にカッコよく決めた直後に触手で攫われてどこか間抜けな悲鳴を上げてるソレとか。 懐かしいスーツを着込んでテンション上がって「ハッ!」「ハッ!」とポーズ取りまくってたら他者にじーっと見られてたとか。動と静。静と動。とにかく各所でコントラストを意識してる。まあ、人によっては真面目に見ればいいのか笑って見ればいいのか分からんと文句を言い出したりもするようだけど…。このほうが飽きさせない作りになっているのではないかと。
無重力空間でのアクションや、天地が分からないほどグルグル回ってる状態でのアクション等、アニメならではのアクションシーンが盛り込まれていた気もする。実写でやろうとしたらちょっと難しいのではないか、全部CGでカットを作ることになりそうだなと…。
各所の細かい動きにも唸ってしまった。例えば、左手をブンと振ると反動で通信機の蓋がパチャッと閉まる動きとか。カッコいい…。ああいうのはアニメーターさんが手付けでモーションをつけてるんだろうけど、そういうちょっとしたアクションをわざわざさせようと考えるあたりが敵わないなと…。いや、初代プリキュアでも変身アイテムをブンと振って蓋をパカッと開ける動きはやってたから、日本のアニメだってその気になればやれるよな。たぶん。
あらゆるシーンで「上手いな…」と呟いてしまうアニメだったなと。作り込みも凄いし、隙が無い。素晴らしい。 *1
たしか本放送時は何か作業をしながらチラ見してた気がする…。これは後でちゃんと正座して見ないとダメなやつだ、と思って録画したソレを今まで残してた。
面白かった。実に良くできたSFアクションアニメなのでは。素晴らしい。SFと言っても「攻殻機動隊」みたいな小難しいソレじゃなくて、藤子F作品のようなSFと言うか。ドラえもん劇場版に近い印象。そういえばこのアニメにも猫型ロボットが出てたな…。まさかオマージュ? なわけないか。
トイ・ストーリーシリーズに登場する玩具の元ネタの映画、という設定がなんだか面白いなと。考えてみたらスタジオジブリの「猫の恩返し」と同じか…。アレも、「耳をすませば」のヒロインが書いた小説、という設定だった気がするし。
ウラシマ効果というワードが出てきて驚いた。常にファミリー向けを強く意識することを要求されそうな、ディズニー+ピクサーのアニメなのに、その設定、使うんだ? と。そして、ソレを利用したシチュエーションにも感心。 時間の進み方が異なる同僚同士の人生を断片的に見せていくあたりは「カールじいさんの空飛ぶ家」を連想した。キャラの人生の全体をざっくり見せていくなら、こういう見せ方がベストな気がする。そしてやっぱり、このシチュエーションは泣ける…。
女性同士が夫婦になって、しかも妊娠までするというシチュが出てきて、「おお…SFだ!」と感じた。劇場版アニメ「超時空要塞マクロス 愛・おぼえていますか」のゼントラーディとメルトランディ、あるいはTVアニメ「ヴァンドレッド」や「セイバーマリオネットJ」の設定に近い気がするけど、あの手の設定をまさかディズニー+ピクサーで見れるとは…。いやー、時代は変わったなあ…。この映画の件のシーンについてはポリコレ云々で叩く人種を見かけるけれど、SF作品ではちょくちょく出現する設定なので、そんな反応されちゃってもなあ、と…。まあ、どうせあの手の人達は何を見せてもそう見えちゃうんだろうけど。いやまあ、こっちはこっちで何を見ても「むっ。これもSFだなッ…?」と言い出すから似たようなものかも…。
伏線の量には脱帽。さりげなくちょこっと出てきたシーンが後でしっかり役に立つ、みたいなソレがてんこ盛り。一つ一つをリストアップしたら結構な数になるのではなかろうか…。
台詞の繰り返しも上手いなと感じた。色々な台詞が繰り返し使われていたけれど、特に、トイ・ストーリー1で使われてた「無限の彼方へ! さあ行くぞ!」の使い方が良い。指を差し出すアクションも付加することで変な誤解をされたあたりでも笑えたし、しかし最後には、というのもベタだけど良い。
随分昔、ジョン・ラセター監督がまだピクサーに在籍していた頃、「私達はミヤザキサンからコントラストを学んだ」と来日インタビューで発言してたけど、ピクサー全体にその学びがすっかり浸透してる気配も感じた。 激しいカーチェイス(?)の合間に挿入される転送装置による「ポトン…」的カットとか。 発進前にカッコよく決めた直後に触手で攫われてどこか間抜けな悲鳴を上げてるソレとか。 懐かしいスーツを着込んでテンション上がって「ハッ!」「ハッ!」とポーズ取りまくってたら他者にじーっと見られてたとか。動と静。静と動。とにかく各所でコントラストを意識してる。まあ、人によっては真面目に見ればいいのか笑って見ればいいのか分からんと文句を言い出したりもするようだけど…。このほうが飽きさせない作りになっているのではないかと。
無重力空間でのアクションや、天地が分からないほどグルグル回ってる状態でのアクション等、アニメならではのアクションシーンが盛り込まれていた気もする。実写でやろうとしたらちょっと難しいのではないか、全部CGでカットを作ることになりそうだなと…。
各所の細かい動きにも唸ってしまった。例えば、左手をブンと振ると反動で通信機の蓋がパチャッと閉まる動きとか。カッコいい…。ああいうのはアニメーターさんが手付けでモーションをつけてるんだろうけど、そういうちょっとしたアクションをわざわざさせようと考えるあたりが敵わないなと…。いや、初代プリキュアでも変身アイテムをブンと振って蓋をパカッと開ける動きはやってたから、日本のアニメだってその気になればやれるよな。たぶん。
あらゆるシーンで「上手いな…」と呟いてしまうアニメだったなと。作り込みも凄いし、隙が無い。素晴らしい。 *1
*1: いやまあ、ラストのあたりは「いやいやいや。そうはならんやろ」と思ったりもしたけど、「逆シャア」を思い返すとアレもアリかなあ、とも…。彼のスーツはサイコフレームで作られている、という設定にしておきたい…。
[ ツッコむ ]
2024/11/13(水) [n年前の日記]
#1 [blender] blenderでアニメ風の木を作る手順について勉強中
先日目にしたチュートリアル動画が気になってる。
_Anime Tree Tutorial | Blender (include Project Files) - YouTube
_Tutorial - Blender - Anime Foliage Pipeline
理想的なアニメ風の木に思える…。しかも、ちゃんとサワサワしてる。どうやったらこんな動画を作れるのだろう。せっかくだから参考にして勉強中。
環境は Windows10 x64 22H2 + blender 4.2.3 x64 LTS。
英語が得意な人なら件の動画を眺めて再現できるのだろうけど…。自分は英語が苦手なので、分かった範囲で手順をメモしておく。
_Anime Tree Tutorial | Blender (include Project Files) - YouTube
_Tutorial - Blender - Anime Foliage Pipeline
理想的なアニメ風の木に思える…。しかも、ちゃんとサワサワしてる。どうやったらこんな動画を作れるのだろう。せっかくだから参考にして勉強中。
環境は Windows10 x64 22H2 + blender 4.2.3 x64 LTS。
英語が得意な人なら件の動画を眺めて再現できるのだろうけど…。自分は英語が苦手なので、分かった範囲で手順をメモしておく。
◎ 大まかな流れ :
動画で紹介されてる内容は、5つのステップに分けられている、とのこと。
- 平面ポリゴンを、ジオメトリノードを利用してビルボード化する。(カメラの方向を向くポリゴンにする)
- パーティクルシステムを使って平面ポリゴンを複数並べて茂みにする。
- カスタム法線(?)を転送して、茂みを膨張(?)させる。
- シェーダを作成して適用する。
- 木の形に整える。
◎ 事前の全体設定 :
動画によると、事前に全体の設定を変更しておくと、アニメ風の見た目に近づいてくれるらしい。
レンダー設定 → カラーマネジメント → ビュー変換 → 「標準」に変更。
ワールド設定 → サーフェイス → 強さを 0.0 に変更。
更に、カメラの焦点距離も 50mm から 80mm ぐらいに変えておくとアニメ風になる、と動画では言っているように見える。
レンダー設定 → カラーマネジメント → ビュー変換 → 「標準」に変更。
ワールド設定 → サーフェイス → 強さを 0.0 に変更。
更に、カメラの焦点距離も 50mm から 80mm ぐらいに変えておくとアニメ風になる、と動画では言っているように見える。
◎ 平面ポリゴンをビルボード化 :
平面ポリゴンを1枚作成して、ジオメトリノードを使って、ビルボード相当にする。動画によると以下のようなジオメトリノードにすればいいらしい。
英語表示なら以下。
上記のジオメトリノードにするには、以下のノードを追加することになる。
ジオメトリノードウインドウ内で Shift + A を押せば、ノード追加用のメニューが開く。英語表示なら、ノード追加用のメニュー内にある検索欄に英単語を入力するだけで、各ノードがリストアップされる。
日本語表示の場合も、検索欄に「位置設定」といった感じで日本語を打ち込めばリストアップされるけど…。以下のようにメニューを辿ることでも追加できる。
ジオメトリノードを作れたら、モディファイアー設定 → オブジェクト、に、カメラのオブジェクトを指定する。
ここまでできれば、カメラの回転が平面ポリゴンにも反映されるので、ビルボード相当になってくれる。
英語表示なら以下。
上記のジオメトリノードにするには、以下のノードを追加することになる。
- 「位置設定 (Set Position)」
- 「ベクトル回転 (Vector Rotate)」
- 「位置 (Position)」
- 「ドメインでの評価 (Evaluate on Domain)」
- 「オブジェクト情報 (Object Info)」
ジオメトリノードウインドウ内で Shift + A を押せば、ノード追加用のメニューが開く。英語表示なら、ノード追加用のメニュー内にある検索欄に英単語を入力するだけで、各ノードがリストアップされる。
日本語表示の場合も、検索欄に「位置設定」といった感じで日本語を打ち込めばリストアップされるけど…。以下のようにメニューを辿ることでも追加できる。
- 追加 → ジオメトリ → 書込 → 位置設定
- 追加 → ユーティリティ → ベクトル → ベクトル回転
- 追加 → ジオメトリ → 読込 → 位置
- 追加 → ユーティリティ → フィールド → ドメインでの評価
- 追加 → 入力 → シーン → オブジェクト情報
ジオメトリノードを作れたら、モディファイアー設定 → オブジェクト、に、カメラのオブジェクトを指定する。
ここまでできれば、カメラの回転が平面ポリゴンにも反映されるので、ビルボード相当になってくれる。
[ ツッコむ ]
2024/11/14(木) [n年前の日記]
#1 [blender] blenderでアニメ風の木を作る手順について勉強中。その2
_昨日
に続いて、blenderでアニメ風の木を作る手順を勉強中。
_Anime Tree Tutorial | Blender (include Project Files) - YouTube
_Tutorial - Blender - Anime Foliage Pipeline
環境は Windows10 x64 22H2 + blender 4.2.3 x64 LTS。
_Anime Tree Tutorial | Blender (include Project Files) - YouTube
_Tutorial - Blender - Anime Foliage Pipeline
環境は Windows10 x64 22H2 + blender 4.2.3 x64 LTS。
◎ パーティクルシステムで平面ポリゴンを増やして茂みにする :
ステップ1で作成した平面ポリゴンを、パーティクルシステムを使って増やして茂みっぽくする。
まずは、パーティクルの発生元(エミッタ)を作らないといけない。
わざわざ立方体を加工して球にしないで、最初からUV球を選んで済ませたらダメなのか、と思われそうだけど、パーティクルを発生させる関係でこの形じゃないといけないらしい…。
パーティクルシステムを用意する。先ほど作った球を選択した状態で、以下の操作をする。
ステップ1で作成しておいた、ビルボード相当の平面ポリゴンを選択してから、モディファイアーを追加。物理演算 → パーティクルインスタンス、を選ぶ。
パーティクルインスタンスの設定をする。
これで、パーティクルシステムを使って複数の平面ポリゴンが生成される状態になった。
発生元のエミッタ(元立方体)は表示する意味が無いので、目やカメラのアイコンをクリックして非表示にしておく。
動画では、平面ポリゴンとエミッタを1つのコレクションにまとめているように見える。Ctrl + クリックで複数選択して、Mキー → コレクションを新規作成、だろうか。
まずは、パーティクルの発生元(エミッタ)を作らないといけない。
- 立方体を作成。Shift + A → メッシュ → 立方体。
- サブディビジョンサーフェスモディファイアをかけて球っぽくする。モディファイアー設定 → モディファイアーを追加 → 生成 → サブディビジョンサーフェス。
- ビューポートのレベル数を2に。
- 「適用」を選んで形を決定する。
わざわざ立方体を加工して球にしないで、最初からUV球を選んで済ませたらダメなのか、と思われそうだけど、パーティクルを発生させる関係でこの形じゃないといけないらしい…。
パーティクルシステムを用意する。先ほど作った球を選択した状態で、以下の操作をする。
- パーティクル設定 → 右側の「+」をクリックして、パーティクルシステムスロットを追加。
- 「ヘアー」を選択。
- 「詳細設定」にチェックを入れる。これを入れないと「回転」の項目が表示されない。
- 発生 → ヘアー長、を 0m にする。
- 「回転」にチェックを入れて、回転する軸を「なし」にする。
- レンダー → レンダリング方法 → オブジェクト、を選択。
- レンダー → スケール → 1.0 を設定。
ステップ1で作成しておいた、ビルボード相当の平面ポリゴンを選択してから、モディファイアーを追加。物理演算 → パーティクルインスタンス、を選ぶ。
パーティクルインスタンスの設定をする。
- オブジェクトに、先ほど作成したエミッタ相当の立方体を指定する。
- インスタンスを作成 → サイズ、を有効にする。
- 量は、0.03 前後に。
- 座標軸は、Y を選ぶ。
これで、パーティクルシステムを使って複数の平面ポリゴンが生成される状態になった。
発生元のエミッタ(元立方体)は表示する意味が無いので、目やカメラのアイコンをクリックして非表示にしておく。
動画では、平面ポリゴンとエミッタを1つのコレクションにまとめているように見える。Ctrl + クリックで複数選択して、Mキー → コレクションを新規作成、だろうか。
◎ 茂みを膨らませる :
平面ポリゴンに、エミッタを担当してる球、の法線を転送して、茂みを膨らませる。らしい。たぶん。球の法線を平面ポリゴンに反映させることで、茂みが丸みを帯びているように見せかけるのだろうか…?
平面ポリゴンを選択して、モディファイアーを追加。編集 → データ転送、を選択。
データ転送(DataTransfer)モディファイアーの設定をする。
今回は blender 4.2.3 LTS を使っているので、ここまでの指定で、平面ポリゴン達の見た目(明るさ?)に変化が出てくるけれど。blender 3.x の場合は、データ設定 → 自動スムーズにチェックを入れる必要があるらしい。
更に、ジオメトリノードを追加して、平面ポリゴン達の大きさを調整できるようにする。モディファイアー設定で、ジオメトリノードを追加。
ジオメトリノードを新規作成して、以下のようにジオメトリノードを組む。
スケール (Scale) を調整すると、平面ポリゴンの大きさが変わる。
平面ポリゴンを選択して、モディファイアーを追加。編集 → データ転送、を選択。
データ転送(DataTransfer)モディファイアーの設定をする。
- ソースに、エミッタ球を指定する。
- ソースの右にある、オブジェクトトランスフォーム、のアイコンをクリックしてチェックを外す。これをしないと、後でこの茂みを増やしたときにマズイことになるらしい。
- 面コーナーデータにチェックを入れて、カスタム法線をクリックして選ぶ。
今回は blender 4.2.3 LTS を使っているので、ここまでの指定で、平面ポリゴン達の見た目(明るさ?)に変化が出てくるけれど。blender 3.x の場合は、データ設定 → 自動スムーズにチェックを入れる必要があるらしい。
更に、ジオメトリノードを追加して、平面ポリゴン達の大きさを調整できるようにする。モディファイアー設定で、ジオメトリノードを追加。
ジオメトリノードを新規作成して、以下のようにジオメトリノードを組む。
- 要素スケール (Scale Elements)ノードを追加。
スケール (Scale) を調整すると、平面ポリゴンの大きさが変わる。
◎ 余談。日本語表示と英語表示を切り替えるアドオンをインストールした :
blender のチュートリアル記事やチュートリアル動画は英語圏のモノが多いので、blender を日本語表示にして使っていると、それぞれの名前が日本語で何になるのかが分かりづらい。
そのあたりを改善できる、日本語表示と英語表示を瞬時に切り替えるアドオンがあったような気がする…。ググってみたけれど、おそらく以下のアドオンじゃないかな…。たぶん。
_Addon :Toggle Translated UI(日本語/英語UI表示ワンタッチ切替アドオン) - CGrad Project
blender 4.2.3 LTS上でインストールさせてもらった。以下の操作でインストールできる。
あらかじめ日本語表示にしておけば、Endキーを叩くたびに、日本語表示と英語表示が切り替わる。
そのあたりを改善できる、日本語表示と英語表示を瞬時に切り替えるアドオンがあったような気がする…。ググってみたけれど、おそらく以下のアドオンじゃないかな…。たぶん。
_Addon :Toggle Translated UI(日本語/英語UI表示ワンタッチ切替アドオン) - CGrad Project
blender 4.2.3 LTS上でインストールさせてもらった。以下の操作でインストールできる。
- ToggleTranslatedUI.py をダウンロード。
- blender上で、編集 → プリファレンス → アドオン。
- 右上に下向きの三角があるのでクリック。メニューが表示される。
- メニューの中の「ディスクからインストール」を選択。
- ファイル選択ダイアログが表示されるので、ToggleTranslatedUI.py を選択。
あらかじめ日本語表示にしておけば、Endキーを叩くたびに、日本語表示と英語表示が切り替わる。
[ ツッコむ ]
2024/11/15(金) [n年前の日記]
#1 [blender] blenderでアニメ風の木を作る手順について勉強中。その3
_昨日
に続いて、blenderでアニメ風の木を作る手順を勉強中。
_Anime Tree Tutorial | Blender (include Project Files) - YouTube
_Tutorial - Blender - Anime Foliage Pipeline
環境は Windows10 x64 22H2 + blender 4.2.3 x64 LTS。
昨日でステップ3まで再現できたので、ステップ4のシェーダーを用意するところを ―― マテリアル設定をしていくところを勉強。
シェーダーエディター上で、大まかに分けて以下の4つのノード群を作っていく。
_Anime Tree Tutorial | Blender (include Project Files) - YouTube
_Tutorial - Blender - Anime Foliage Pipeline
環境は Windows10 x64 22H2 + blender 4.2.3 x64 LTS。
昨日でステップ3まで再現できたので、ステップ4のシェーダーを用意するところを ―― マテリアル設定をしていくところを勉強。
シェーダーエディター上で、大まかに分けて以下の4つのノード群を作っていく。
- アルファチャンネル用。
- 色指定用。
- アンビエントオクルージョン用。
- グラデーション用。
◎ ライトを設定 :
事前の準備として、ライトの設定をしておく。
- 見た目を確認しつつ作業するので、ビューポートシェーディングを「レンダー」に変更。右上のアイコンをクリックして切り替える。
- blender起動直後から用意されてるライトの設定を変更。「ポイント(点光源)」から、「サン(太陽光)」に変更。
- ライトの強さを 5.540 ぐらいに変更。
- ライトの角度を調整する。
◎ アルファチャンネル用のテクスチャ画像を用意する :
葉っぱ群のアルファチャンネル用テクスチャ画像を用意する。件の動画を参考にして似た感じのテクスチャを作ってみた。黒が透明、白が不透明(マテリアル設定で指定した色が表示される部分)になる予定。
_leaf.png
◎ マテリアルを作成 :
平面ポリゴンのマテリアル設定をしていく。マテリアル設定の「新規」をクリックして、マテリアル設定を作成。
シェーダーエディターを使えるようにする。ウインドウを分割して、片方をシェーダーエディターにしてもいいし、上のほうで「Shading」レイアウトを選んでもいい。
シェーダーエディターを使えるようにする。ウインドウを分割して、片方をシェーダーエディターにしてもいいし、上のほうで「Shading」レイアウトを選んでもいい。
◎ アルファチャンネル用のノードを作成 :
平面ポリゴンのマテリアル設定に、アルファチャンネル用のノードを追加していく。以下のノードを追加。
加えて、用意しておいたアルファチャンネル用テクスチャ画像を、エクスプローラ等からシェーダーエディター上にドラッグアンドドロップ。画像テクスチャノードが自動で追加される。
ノードを以下のように配置して繋げると、平面ポリゴンにテクスチャが反映されて、アルファチャンネルを持っている状態になる。上が日本語表示。下が英語表示。
blender 4.2 の場合、マテリアル設定の、「影を透過」にチェック、レンダーメソッドを「ディザー」にしておく必要があるらしい。
blender 3.x の場合は、アルファクリップ云々を設定しておく、と動画では説明されてた。
- シェーダーミックス (Mix Shader) : 追加 → シェーダー → シェーダーミックス
- 透過BSDF (Transparent BSDF) : 追加 → シェーダー → 透過BSDF
- ディフューズBSDF (Diffuse BSDF) : 追加 → シェーダー → ディフューズBSDF
加えて、用意しておいたアルファチャンネル用テクスチャ画像を、エクスプローラ等からシェーダーエディター上にドラッグアンドドロップ。画像テクスチャノードが自動で追加される。
ノードを以下のように配置して繋げると、平面ポリゴンにテクスチャが反映されて、アルファチャンネルを持っている状態になる。上が日本語表示。下が英語表示。
blender 4.2 の場合、マテリアル設定の、「影を透過」にチェック、レンダーメソッドを「ディザー」にしておく必要があるらしい。
blender 3.x の場合は、アルファクリップ云々を設定しておく、と動画では説明されてた。
◎ 色を付ける :
アルファチャンネルを反映させることができたので、色を付けるノードを追加していく。
ノードを以下のような配置にして繋いでいく。シェーダーミックスとディフューズBSDFの間に挿入する感じ。上が日本語表示。下が英語表示。
カラーランプノードに木の葉っぱの色を指定していくことで、それらしく色がつく。
- シェーダーのRGB化 (Shader to RGB) : 追加 → コンバーター → シェーダーのRGB化
- カラーランプ (Color Ramp) : 追加 → コンバーター → カラーランプ
ノードを以下のような配置にして繋いでいく。シェーダーミックスとディフューズBSDFの間に挿入する感じ。上が日本語表示。下が英語表示。
カラーランプノードに木の葉っぱの色を指定していくことで、それらしく色がつく。
◎ アンビエントオクルージョンを指定する :
アニメ風の木の黒い影部分を表現するために、アンビエントオクルージョンを設定する。以下のノードを追加する。
以下のようにノードを配置して繋いでいく。
ただ、これで反映されたのかどうか、ちょっとよく分からない…。動画では blender 3.x を使っていて、EEVEE のアンビエントオクルージョンの項目にチェックを入れているのだけど、blender 4.2 ではアンビエントオクルージョンの項目が見当たらなくて…。レンダリング結果にはちゃんと違いが出ていたので、特に何もしなくていいのだろうか?
- アンビエントオクルージョン (Ambient Occlusion) : 追加 → 入力 → アンビエントオクルージョン
- カラーミックス : 追加 → カラー → カラーミックス
- 数式 (Math) x 3 : 追加 → コンバーター → 数式
以下のようにノードを配置して繋いでいく。
- カラーランプとシェーダーミックスの間に挿入する。
- 数式ノードについては、3つ作成して、「累乗」と「乗算」x2 にする。
ただ、これで反映されたのかどうか、ちょっとよく分からない…。動画では blender 3.x を使っていて、EEVEE のアンビエントオクルージョンの項目にチェックを入れているのだけど、blender 4.2 ではアンビエントオクルージョンの項目が見当たらなくて…。レンダリング結果にはちゃんと違いが出ていたので、特に何もしなくていいのだろうか?
◎ グラデーションを設定する :
茂み全体に、光源の位置? 角度? を反映したグラデーションをつけるように設定していく。以下のノードを追加する。
以下のようにノードを配置して繋いでいく。
- テクスチャ座標 : 追加 → 入力 → テクスチャ座標
- マッピング : 追加 → ベクトル → マッピング
- グラデーションテクスチャ : 追加 → テクスチャ → グラデーションテクスチャ
以下のようにノードを配置して繋いでいく。
- テクスチャ座標ノードのオブジェクト云々のところには、ライトの名前を設定する。
◎ まとめ :
[ ツッコむ ]
#2 [nitijyou] 部屋の中に蚊が居る
時期的にそこそこ寒くなってきたと思うのだけど、こんな気温なのに、部屋の中に蚊が居る…。なんだか足が異様に痒いなと思ったら2ヶ所も刺されてた…。
蚊取り線香をつけて対抗するしかないかと思いきや、蚊取り線香(アースノーマット)のビンの中が空になってることに気づいた。買ってこないと…。
近所のサンドラッグに寄ったら、一応蚊取り線香はあったのだけど、60日分 x 2本のセットしかなく。高い…。30日分 x 1本でいいんだけど…。でもまあ、予備があって困るものでもないから仕方ないかと購入。
帰宅後、早速蚊取り線香をONに。これで退治できればいいのだけど、本当に効果はあるのかな…。
余談。ググってみたら、最近はダイソーでも、アースノーマットの蚊取り線香を売っていたりするらしい。でもまあ、どうせ季節商品扱いで、今の時期は置いてなさそうな気もする。ドラッグストアやホームセンターでもこの時期になると置いてなかったりするし。たしか以前、ホーマックやカワチの店頭で探したけれど置いてなくて、店員さんに尋ねたら時期的に置いてないと言われてしまった記憶もあるし。まして100円ショップではな…。
蚊取り線香をつけて対抗するしかないかと思いきや、蚊取り線香(アースノーマット)のビンの中が空になってることに気づいた。買ってこないと…。
近所のサンドラッグに寄ったら、一応蚊取り線香はあったのだけど、60日分 x 2本のセットしかなく。高い…。30日分 x 1本でいいんだけど…。でもまあ、予備があって困るものでもないから仕方ないかと購入。
帰宅後、早速蚊取り線香をONに。これで退治できればいいのだけど、本当に効果はあるのかな…。
余談。ググってみたら、最近はダイソーでも、アースノーマットの蚊取り線香を売っていたりするらしい。でもまあ、どうせ季節商品扱いで、今の時期は置いてなさそうな気もする。ドラッグストアやホームセンターでもこの時期になると置いてなかったりするし。たしか以前、ホーマックやカワチの店頭で探したけれど置いてなくて、店員さんに尋ねたら時期的に置いてないと言われてしまった記憶もあるし。まして100円ショップではな…。
[ ツッコむ ]
2024/11/16(土) [n年前の日記]
#1 [blender] blenderでアニメ風の木を作る手順について勉強中。その4
_昨日
に続いて、blenderでアニメ風の木を作る手順を勉強中。
_Anime Tree Tutorial | Blender (include Project Files) - YouTube
_Tutorial - Blender - Anime Foliage Pipeline
環境は Windows10 x64 22H2 + blender 4.2.3 x64 LTS。
ステップ4まで再現できたので、ステップ5にチャレンジ。茂みの数を増やして、木に見える形に整える。
_Anime Tree Tutorial | Blender (include Project Files) - YouTube
_Tutorial - Blender - Anime Foliage Pipeline
環境は Windows10 x64 22H2 + blender 4.2.3 x64 LTS。
ステップ4まで再現できたので、ステップ5にチャレンジ。茂みの数を増やして、木に見える形に整える。
◎ 茂みの数を増やす :
平面ポリゴンを選択して、「オブジェクトを複製」で増やしていく。
大量に増やして、それぞれを、それらしい位置に配置する。
そのままだと、どの茂みも同じ見た目なので、それぞれが違う見た目になるように調整する。
- オブジェクト → オブジェクト複製、で複製できる。
- もしくは Shift + Dキー。
大量に増やして、それぞれを、それらしい位置に配置する。
そのままだと、どの茂みも同じ見た目なので、それぞれが違う見た目になるように調整する。
- モディファイアー設定 → パーティクルインスタンスの「量」を変更して、平面ポリゴンの発生個数を変更。
- 回転して見た目を変更。Rキー → Zキー → マウスを動かして左クリックで決定。
- 奥行きを変更。Gキー → Yキー → マウスを動かして左クリックで決定。
◎ 木の幹を用意する :
木の幹を用意する。動画では事前に作った幹モデルを持ってきてどうにかしていたけれど、今回は木を作れるアドオン Sapling Tree Gen を使って幹だけを仮作成してみた。
Sapling Tree Gen のインストール方法は以下が参考になるかと。
_【Blender】初心者でも簡単に木をモデリングする方法 | Vook(ヴック)
_無料の3DCG統合環境「Blender 4.2」の新しい拡張機能は導入・管理が簡単! - Blender ウォッチング - 窓の杜
アドオンを追加できたら、カーブ → Sapling Tree Gen を選べば、木のモデルデータを追加できる。
生成直後はウインドウの左下のほうに設定ウインドウがあるので、そこで形を調整。Load Preset でざっくりとした木の種類を選んで、他のパラメータを弄れば形を変えられる。
Sapling Tree Gen のインストール方法は以下が参考になるかと。
_【Blender】初心者でも簡単に木をモデリングする方法 | Vook(ヴック)
_無料の3DCG統合環境「Blender 4.2」の新しい拡張機能は導入・管理が簡単! - Blender ウォッチング - 窓の杜
アドオンを追加できたら、カーブ → Sapling Tree Gen を選べば、木のモデルデータを追加できる。
生成直後はウインドウの左下のほうに設定ウインドウがあるので、そこで形を調整。Load Preset でざっくりとした木の種類を選んで、他のパラメータを弄れば形を変えられる。
◎ ライトの位置を調整 :
◎ 出来上がり :
これでアニメ風の木が作成できた。レンダリングした結果は以下。
_このテクスチャ画像1枚 から、こういう見た目のモノを作れるなんて、blenderってスゴイなと…。チュートリアルを作成してくれた方もスゴイ。ありがたや。
さて、これを風でサワサワさせたいわけで…。
_このテクスチャ画像1枚 から、こういう見た目のモノを作れるなんて、blenderってスゴイなと…。チュートリアルを作成してくれた方もスゴイ。ありがたや。
さて、これを風でサワサワさせたいわけで…。
◎ 見落としがあった :
ライトの位置や角度を変更した際に、変なところにグラデーションがつくなと首を捻っていたけれど、動画を確認してみたらマテリアル設定のグラデーション部分でパラメータを変更していることを見落としていたことに気づいた。
正解(?)は以下。マッピングノードで、回転やスケールの値を変更しておく。
これで、ライトの位置や角度と、グラデーションの付き方が、それらしく対応している感じになった。
正解(?)は以下。マッピングノードで、回転やスケールの値を変更しておく。
- 回転 X,Y,Z が、4.7, 104, 0 に。
- スケール X,Y,Z が、1.0, 1.0, 0.6 に。
これで、ライトの位置や角度と、グラデーションの付き方が、それらしく対応している感じになった。
◎ 風でサワサワさせる。その1 :
風で木がサワサワしている感じのアニメを追加したい。
動画によると、ジオメトリノードを使って、大きい動き(枝の動きに相当)と小さい動き(葉の動きに相当)を作って、それを組み合わせて動きを作るらしい。
ひとまず、大きい動きだけを先につけてみる。
平面ポリゴンを選択して、モディファイアー設定で、「モディファイアーを追加」。「ジオメトリノード」を選ぶ。
ジオメトリノードエディターにして、「新規」をクリックして、ジオメトリノードグループを作成。名前をつけておく。今回は「GN_AddWind」にしてみた。
以下のノードが必要になるので追加していく。
値ノードには、分かりやすくするために名前をつけることができる。
以下のような配置、パラメータにする。上が日本語表示で、下が英語表示。水色の点線で囲んだところが、動きを出力してくれるノード群。
この状態で再生してみれば、大雑把ではあるけど平面ポリゴンがもわもわと動いてくれる。
動画によると、ジオメトリノードを使って、大きい動き(枝の動きに相当)と小さい動き(葉の動きに相当)を作って、それを組み合わせて動きを作るらしい。
ひとまず、大きい動きだけを先につけてみる。
平面ポリゴンを選択して、モディファイアー設定で、「モディファイアーを追加」。「ジオメトリノード」を選ぶ。
ジオメトリノードエディターにして、「新規」をクリックして、ジオメトリノードグループを作成。名前をつけておく。今回は「GN_AddWind」にしてみた。
以下のノードが必要になるので追加していく。
- 位置設定 (Set Position) : 追加 → ジオメトリ → 書込 → 位置設定
- ベクトル演算 x 2 (乗算 (Multiply)、スケール (Scale)): 追加 → ユーティリティ → ベクトル → ベクトル演算
- 値 x 3 : 追加 → 入力 → 定数 → 値
- シーンタイム (Scene Time) : 追加 → 入力 → シーン → シーンタイム
- 数式 x 2 (乗算 (Multiply)、減算 (Subtract)) : 追加 → ユーティリティ → 数式 → 数式
- ノイズテクスチャ (Noise Texture) : 追加 → テクスチャ → ノイズテクスチャ
値ノードには、分かりやすくするために名前をつけることができる。
- ノードを選択して、右クリックするとメニューが表示されるので、名前を変更。
- もしくは、ノードを選択して、F2キーで名前を変更。
- Large - Wind Speed
- Large - Wind Scale
- Large - Wind Intensity
以下のような配置、パラメータにする。上が日本語表示で、下が英語表示。水色の点線で囲んだところが、動きを出力してくれるノード群。
この状態で再生してみれば、大雑把ではあるけど平面ポリゴンがもわもわと動いてくれる。
◎ 風でサワサワさせる。その2 :
ジオメトリノードを使って、大きい動き(枝の動きに相当)を再現することができたので、小さい動きも追加していく。
水色の点線で囲んだ部分のノード達を選択して、コピー、貼り付けをして、動きを出力してくれるノード群をもう一つ増やす。それを小さい動きとして利用する。
二つの動きを混ぜるためのノード群を追加していく。
以下のように配置する。文字が小さくて見辛いけれど、全部のノードを収めようとするとこんなサイズになってしまう…。何か良い手は無いものか…。
これで、大きい動きと小さい動きが組み合わされた動きになる。
水色の点線で囲んだ部分のノード達を選択して、コピー、貼り付けをして、動きを出力してくれるノード群をもう一つ増やす。それを小さい動きとして利用する。
二つの動きを混ぜるためのノード群を追加していく。
- ベクトル回転 (Vector Rotate) : 追加 → ユーティリティ → ベクトル → ベクトル回転
- 位置 (Position) x 2 : 追加 → ジオメトリ → 読込 → 位置
- ノーマル (Normal) : 追加 → ジオメトリ → 読込 → ノーマル
- ドメインでの評価 (Evaluate on Domain) : 追加 → ユーティリティ → フィールド → ドメインでの評価
以下のように配置する。文字が小さくて見辛いけれど、全部のノードを収めようとするとこんなサイズになってしまう…。何か良い手は無いものか…。
これで、大きい動きと小さい動きが組み合わされた動きになる。
◎ 全ての茂みに反映させる :
茂み1つ分を動かせたので、これを他の茂みにも適用したい。
動きを設定してない茂み達を、Shift + 左クリックで複数選択する。モディファイアー設定で、モディファイアーが4つ並んでることに注意。
動きを設定している茂みを、Ctrl + 左クリックで追加選択する。モディファイアー設定で、モディファイアーが5つ並んでることに注意。5つ目がさわさわ動きのためのモディファイアー。
5つ目のモディファイアーの、右上の下向き三角をクリックしてメニューを表示。「選択にコピー」を選ぶ。これで、動きが設定されてなかった茂み達にも動き(モディファイアー)がコピーされた。
この状態で再生してみると、全ての茂みがさわさわと動いてくれる。
動きを設定してない茂み達を、Shift + 左クリックで複数選択する。モディファイアー設定で、モディファイアーが4つ並んでることに注意。
動きを設定している茂みを、Ctrl + 左クリックで追加選択する。モディファイアー設定で、モディファイアーが5つ並んでることに注意。5つ目がさわさわ動きのためのモディファイアー。
5つ目のモディファイアーの、右上の下向き三角をクリックしてメニューを表示。「選択にコピー」を選ぶ。これで、動きが設定されてなかった茂み達にも動き(モディファイアー)がコピーされた。
この状態で再生してみると、全ての茂みがさわさわと動いてくれる。
◎ 結果 :
連番png画像としてアニメーションレンダリングをして、AviUtl + 拡張編集プラグインで他の素材と合成してみた。
これで、blender を使ってアニメ風の木を作ってさわさわさせる動画を作れることが分かった。
念のために再度書いておくけれど、以下が参考になったチュートリアル動画。ありがたや。
_Anime Tree Tutorial | Blender (include Project Files) - YouTube
_Tutorial - Blender - Anime Foliage Pipeline
件のチュートリアル動画のページにはプロジェクトファイルへのリンクもあるので、ダウンロードして内容を確認してみるのも良さそう。ただ、試しに入手して開いてみたら、Pythonスクリプトを実行できない云々とメッセージが表示されたけど…。
これで、blender を使ってアニメ風の木を作ってさわさわさせる動画を作れることが分かった。
念のために再度書いておくけれど、以下が参考になったチュートリアル動画。ありがたや。
_Anime Tree Tutorial | Blender (include Project Files) - YouTube
_Tutorial - Blender - Anime Foliage Pipeline
件のチュートリアル動画のページにはプロジェクトファイルへのリンクもあるので、ダウンロードして内容を確認してみるのも良さそう。ただ、試しに入手して開いてみたら、Pythonスクリプトを実行できない云々とメッセージが表示されたけど…。
[ ツッコむ ]
#2 [zatta] マンガン乾電池が売ってない
台所に設置してある、ワイヤレスチャイムの送信機の電池が弱まってしまったようで、代わりの電池を ―― 9Vの角型乾電池を入手しないといけなくなった。
乾電池は使ってる材料で種類が分かれる。
しかし、ケーズデンキに行って探してみたけれど、マンガン角型乾電池が置いてない。アルカリ角型乾電池しかない…。
いやまあ、事前にケーズデンキの通販サイトで調べて、マンガン角型乾電池は扱ってなさそうと分かってたのでやっぱりかという感じだけど。これは困る…。アルカリ乾電池は何度も液漏れしてるので選びたくない…。でもコレしかないのでは…。
一応、できる対策として、パッケージに液漏れ防止云々が書いてあるものを選んで購入した。しかし、お値段も高い。800円ぐらいする…。
帰宅後ググってみたら、ヨドバシカメラならマンガン角型乾電池が178円で売ってたようで…。でも、在庫は僅かとも書いてある…。もうどこでも売ってないんだな…。
そもそも今時、ワイヤレスチャイムの送信機なら、コイン型電池(ボタン型電池)を使うものがほとんどだよな…。角型乾電池を使うぐらいに古い送信機を使い続けてることが、そもそもの問題なのかもしれない…。
乾電池は使ってる材料で種類が分かれる。
- マンガン乾電池。昔ながらの乾電池で、出てくる電流の量は少ないけれど、休み休み使うと回復するし、液漏れしにくい。長期間入れっぱなしの機器(リモコン等)に向いている。
- アルカリ乾電池。最近の主流。マンガンより多く電流が流れるけれど、液漏れしやすい。液漏れしちゃうと機器自体が使えなくなる。
しかし、ケーズデンキに行って探してみたけれど、マンガン角型乾電池が置いてない。アルカリ角型乾電池しかない…。
いやまあ、事前にケーズデンキの通販サイトで調べて、マンガン角型乾電池は扱ってなさそうと分かってたのでやっぱりかという感じだけど。これは困る…。アルカリ乾電池は何度も液漏れしてるので選びたくない…。でもコレしかないのでは…。
一応、できる対策として、パッケージに液漏れ防止云々が書いてあるものを選んで購入した。しかし、お値段も高い。800円ぐらいする…。
帰宅後ググってみたら、ヨドバシカメラならマンガン角型乾電池が178円で売ってたようで…。でも、在庫は僅かとも書いてある…。もうどこでも売ってないんだな…。
そもそも今時、ワイヤレスチャイムの送信機なら、コイン型電池(ボタン型電池)を使うものがほとんどだよな…。角型乾電池を使うぐらいに古い送信機を使い続けてることが、そもそもの問題なのかもしれない…。
[ ツッコむ ]
2024/11/17(日) [n年前の日記]
#1 [cg_tools] ノードは不便な気がする
思考メモ。
ここ最近、3DCGソフト blender での操作を勉強していたけれど、ノードってちょっと不便だなと感じてる。ノードの接続だの配置だのを別の誰かに伝えようとした時に、スクリーンショットを撮ってアップロードでもしないといけないあたりがなんだか面倒臭い。
こういうのってテキストで記述することはできないのだろうか? 例えばフローチャートはソースコードにできたりするわけだから、アレと似たような感じで…。何かしら手はあるんじゃないのか。
そう思ってググってみたけれど、そういった記法/フォーマットは見つからなかった。そもそも「ノード」で検索すると Node.js の解説ページばかりが出てきてしまうし。いや、その問題は「-node.js」と追加すればいいんだけど…。何にせよ、関連する情報には遭遇できず。
その手の記法の需要自体がそもそも無いのかな…。まあ、記法だけがあっても、読むほうもその記法を知ってないと意味がないから普及しにくいか。
ここ最近、3DCGソフト blender での操作を勉強していたけれど、ノードってちょっと不便だなと感じてる。ノードの接続だの配置だのを別の誰かに伝えようとした時に、スクリーンショットを撮ってアップロードでもしないといけないあたりがなんだか面倒臭い。
こういうのってテキストで記述することはできないのだろうか? 例えばフローチャートはソースコードにできたりするわけだから、アレと似たような感じで…。何かしら手はあるんじゃないのか。
そう思ってググってみたけれど、そういった記法/フォーマットは見つからなかった。そもそも「ノード」で検索すると Node.js の解説ページばかりが出てきてしまうし。いや、その問題は「-node.js」と追加すればいいんだけど…。何にせよ、関連する情報には遭遇できず。
その手の記法の需要自体がそもそも無いのかな…。まあ、記法だけがあっても、読むほうもその記法を知ってないと意味がないから普及しにくいか。
[ ツッコむ ]
#2 [movie] 「ゴジラ キング・オブ・モンスターズ」を視聴
BS12で放送されていたので視聴。ハリウッド版ゴジラ。2019年公開の映画らしい。初見かなと思ってたけど、最後のあたりは見覚えがあるなと…。途中から見たとかそんな感じだったのかな。
モスラや ラドンや キングギドラが登場してそりゃもう世界中大騒ぎさ、みたいな展開。CGで描かれた怪獣達のスケールがどれもこれも圧倒的に大きくて、しかし動きについては細部までしっかり作り込まれていて、とにかく見応えがあった…。怪獣達が戦ってる場所もとにかく派手にする何かが盛り込まれていて…。猛吹雪に加えて雷まで光りまくりの中、ゆらりと登場するソレとか。これが邦画なら猛吹雪にしたところでもう十分と言い出して終わるんじゃないか。盛って盛って盛りまくる画の数々。そこがハリウッドらしい…。
日本人の博士として登場していた渡辺謙さん演じる芹沢博士が今作で退場ということらしくて、そこはちょっと残念だなと…。あの映像ではさすがに 復活は無理だよな…。佐渡先生が 「誤診してしまったわい」と言い出しても無理だろう…。
モスラや ラドンや キングギドラが登場してそりゃもう世界中大騒ぎさ、みたいな展開。CGで描かれた怪獣達のスケールがどれもこれも圧倒的に大きくて、しかし動きについては細部までしっかり作り込まれていて、とにかく見応えがあった…。怪獣達が戦ってる場所もとにかく派手にする何かが盛り込まれていて…。猛吹雪に加えて雷まで光りまくりの中、ゆらりと登場するソレとか。これが邦画なら猛吹雪にしたところでもう十分と言い出して終わるんじゃないか。盛って盛って盛りまくる画の数々。そこがハリウッドらしい…。
日本人の博士として登場していた渡辺謙さん演じる芹沢博士が今作で退場ということらしくて、そこはちょっと残念だなと…。あの映像ではさすがに 復活は無理だよな…。佐渡先生が 「誤診してしまったわい」と言い出しても無理だろう…。
[ ツッコむ ]
#3 [nitijyou] 日記をアップロード
2024/09/23を最後に日記をアップロードしてなかったのでアップロード。
[ ツッコむ ]
以上、17 日分です。