2024/06/30(日) [n年前の日記]
#1 [cg_tools] IC-Lightを試用してみた
画像内の照明状態を変更できる、IC-Lightというツールがあるらしい。
_lllyasviel/IC-Light: More relighting!
_光源を指定して画像の背景を違和感なく変更できる生成AIツール「IC-Light」をControlNetの作者が公開したので使ってみた - GIGAZINE
_「IC-Light」画像の照明効果を自在に変更できる生成AI | Technology | KLablog | KLab株式会社
Windows10 x64 22H2上でインストールしてみた。
動作確認環境は以下。
_lllyasviel/IC-Light: More relighting!
_光源を指定して画像の背景を違和感なく変更できる生成AIツール「IC-Light」をControlNetの作者が公開したので使ってみた - GIGAZINE
_「IC-Light」画像の照明効果を自在に変更できる生成AI | Technology | KLablog | KLab株式会社
Windows10 x64 22H2上でインストールしてみた。
動作確認環境は以下。
- OS : Windows10 x64 22H2
- CPU : AMD Ryzen 5 5600X
- GPU : NVIDIA GeForec GTX 1060 6GB
- RAM : 16GB
- git 2.45.1.windows.1
- Python 3.10.10 64bit
◎ スタンドアローン版をインストール :
単体で動作する版をまず試してみた。HDD/SSDを10GBほど使うけど…。
以下の解説を参考にして作業。
_IC-Light導入手順書|BD
今回は、`C:\aiwork\IC-Light\` というディレクトリを作成して、その中で作業してみた。DOS窓を開いて以下を打ちこんでいった。
以下の解説を参考にして作業。
_IC-Light導入手順書|BD
今回は、`C:\aiwork\IC-Light\` というディレクトリを作成して、その中で作業してみた。DOS窓を開いて以下を打ちこんでいった。
git clone https://github.com/lllyasviel/IC-Light.git cd IC-Light python -m venv venv venv\Scripts\activate python -m pip list python -m pip install --upgrade pip python -m pip install torch torchvision --index-url https://download.pytorch.org/whl/cu121 python -m pip install -r requirements.txt
◎ 初回起動 :
以下を実行。
初回起動時はモデルデータがダウンロードされる。フォルダ内の容量は、全部で 7.14GB になった。
Webブラウザで以下のURLを開けば操作画面が表示される。
終了はDOS窓上で Ctrl + C でいいのだろうか。
自分のメインPC上では、512x512の画像に対して処理をするのに、1分15秒ほどかかった。
python gradio_demo.py
初回起動時はモデルデータがダウンロードされる。フォルダ内の容量は、全部で 7.14GB になった。
Webブラウザで以下のURLを開けば操作画面が表示される。
http://localhost:7860
終了はDOS窓上で Ctrl + C でいいのだろうか。
自分のメインPC上では、512x512の画像に対して処理をするのに、1分15秒ほどかかった。
◎ 2回目以降の起動 :
参考記事に従って、start_IC-Light.bat というbatファイルを新規作成して以下を記述した。
start_IC-Light.bat を実行すれば、DOS窓が開く。Webブラウザで以下のURLにアクセス。
BG画像を指定できる版もあるっぽいので、そちらのbatファイルも作成しておいた。start_IC-Light_bg.bat を新規作成して以下を記述。
@echo off cd /d "%~dp0" call venv\Scripts\activate python gradio_demo.py pause
start_IC-Light.bat を実行すれば、DOS窓が開く。Webブラウザで以下のURLにアクセス。
http://localhost:7860
BG画像を指定できる版もあるっぽいので、そちらのbatファイルも作成しておいた。start_IC-Light_bg.bat を新規作成して以下を記述。
@echo off cd /d "%~dp0" call venv\Scripts\activate python gradio_demo_bg.py pause
◎ Stable Diffusion web UI拡張機能版をインストール :
せっかくだから、Stable Diffusion web UI forge版の拡張機能版もインストールしてみた。
_huchenlei/sd-forge-ic-light: A1111/SD Forge extension for IC-Light
_IC-Lightを使用して人物画像のリライティングを行う | パソコンニキ
_【Stable Diffusion】Forgeの拡張機能「sd-forge-ic-light」の使い方 | イクログ
Stable Diffusion web UI forge の、Extensions → Install from URL で、以下を指定してインストール。
モデルデータが必要になるので、以下から入手。
_Releases - Haoming02/sd-forge-ic-light
以下の2つのファイルを入手して、webui/models/ic-light/ に置く。
巷の解説ページでは webui/models/unet/ に置くことになっているけれど、2024/06/30現在の版では、webui/models/ic-light/ に置くことになっているので注意。
インストールできると、txt2img や img2img の画面に、IC-Light と言う項目が増える。
しかし、試してみてもそれらしい結果が出てこない…。指定の仕方がおかしいのだろうか? 特定の sampler を選ばないと上手くいかないとか…?
スタンドアローン版はそれらしい結果が返ってくるけれど、Stable Diffusion web UI forge 拡張版は結果が全く得られない状態になった。
_huchenlei/sd-forge-ic-light: A1111/SD Forge extension for IC-Light
_IC-Lightを使用して人物画像のリライティングを行う | パソコンニキ
_【Stable Diffusion】Forgeの拡張機能「sd-forge-ic-light」の使い方 | イクログ
Stable Diffusion web UI forge の、Extensions → Install from URL で、以下を指定してインストール。
https://github.com/huchenlei/sd-forge-ic-light.git
モデルデータが必要になるので、以下から入手。
_Releases - Haoming02/sd-forge-ic-light
以下の2つのファイルを入手して、webui/models/ic-light/ に置く。
IC-Light.SD15.FBC.safetensors IC-Light.SD15.FC.safetensors
巷の解説ページでは webui/models/unet/ に置くことになっているけれど、2024/06/30現在の版では、webui/models/ic-light/ に置くことになっているので注意。
(Stable Diffusion web UI foregインストールフォルダ)\webui\models\ic-light\
インストールできると、txt2img や img2img の画面に、IC-Light と言う項目が増える。
しかし、試してみてもそれらしい結果が出てこない…。指定の仕方がおかしいのだろうか? 特定の sampler を選ばないと上手くいかないとか…?
スタンドアローン版はそれらしい結果が返ってくるけれど、Stable Diffusion web UI forge 拡張版は結果が全く得られない状態になった。
[ ツッコむ ]
以上です。