自分の描いた絵をAIにリファインしてもらった。
こういう使い方もあるなぁと。
ドレスのお姉さんはなぜかセンシティブになってしまって、生成できなかった。
girl standing in Royal Palace corridor, wear with red long dressって改めて指示したら出力してくれた、謎。
ラフっぽいもののほうがAIによるリファイン効果が大きくなるけど、その分画風は変わっていく。
グラボをGEFORCE1660TiからRADEON7800XTに変えました。
でかすぎてケースに入らないという焦る事態になりましたが、HDDの拡張スロットを泣く泣く外してなんとか押し込みました。
グラボの載せ替え後なぜか、PT3のチューナーが認識されなくなりました。
PT3-Example-64bit-400+.exeを実行すると、エラーが。
前回もこんなことあったなぁと検索すると、PCIバスのAbove 4G Decodingを無効する必要があるらしい。
なぜかAbove 4G Decodingが勝手に有効になってしまったうえに、UEFIで無効にしても、再起動すると勝手に有効に戻るという泥沼にハマりました。
pt2wdmSetup64.exeでドライバを上書きすればOKという教えに従って解決。
Above 4G問題
なーんかHDMI端子の出力がしょっちゅう途切れたりと、なんか安定してない...。
これはどうも、HDMIにノイズが干渉しているんではないかと。
グラボ変えたらもっとノイズが入ったので、Displayportに変更しました。
で、この際だからと2倍再生にしようかと、TVTest 0.10.0にアップグレードをと試行錯誤した結果、NG判明。
BonCasProxy は現状 TVTest 0.9.0・TVTest 0.10.0 に対応していない。 そのため、BonCasProxy を起動した状態で 0.9.0 以降の TVTest を起動すると、すぐ異常終了したり、BonCasProxy の仮想スマートカードが認識されず、スクランブル解除ができない事がある。BonCasProxy は、起動している間 OS 全体の WinSCard API を横取りし、BonCasStub.dll 上にある BonCasLink のクライアントを実装した仮想スマートカードで強引に API を置き換えるような実装となっている。
その影響で、スクランブル周りの実装が刷新された TVTest 0.9.0 以降ではカードリーダーの管理の整合性が崩れ、エラーになるのではないかと推測している。BonCasLink (BonCasServer, BonCasService) のクライアントには BonCasProxy ではなく、BonCasClient か BonCasSCard を利用する事を推奨する。
思ってた以上に簡単にインストールできるのでびっくりした!
使い勝手を良くしていくのが大変そうですが。
Youtubeにインストール動画あるので、それ見たほうがわかりやすいのですけど再構築とかの時は、まどろっこしいのでサクッと手順だけのリストがあると便利なので書いておく。
以下は、AUTOMATIC1111さんが、Stable DiffusionをWebUIで使えるようにしたものをWindows10のローカル環境にインストールした手順です。
Python 3.10.6のインストール
AI開発でよく使われてる開発言語って雑な認識ですが、少し古いバージョンですが、これ使ってくれって指定なんで、素直に従いました
インストーラーの最初で、Add Python to PATHのチェックボックスをONにするのを忘れないように!じゃないと自力でPATH通す設定しないとならんので面倒です
www.python.org/
Python 3.10.6 - Aug. 2, 2022
Download Windows installer (64-bit)
gitのインストール
バージョン管理をしてくれるそうで、Stable Diffusionのインストールの補助をしてる感じ
バージョンの縛りなし、インストーラーのデフォルトのままで大丈夫
git-scm.com/
git 2.40.0 (2023-03-12)
Stable Diffusionをインストールするフォルダを作る。念のためファルダ名に日本語を入れないようにしておく。下準備完了。
Windowsのコマンドプロンプトを使って、stable-diffusionをダウンロード
作ったフォルダのアドレスバーの白地をクリクして「cmd」と入力。
こうすることで、このフォルダを作業場所としてコマンドプロンプトの起動ができます。cdで移動しなくていいなんて便利すぎ。
以下を入力すると、gitがStable Diffusion本体のファイル一式を自動でダウンロードしてくれます。
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
本体のインストールが完了したので、使えるように設定をしていきます。
モデルのインストール
どんな絵を書かせるか学習したファイルを以下に入れます
インストールフォルダ\stable-diffusion-webui\models\Stable-diffusion
どこからでも良いのですが、今回はHugging Faceというサイトから頂いてきました。
https://huggingface.co/
gsdfさんのCounterfeit-V2.5
Files and VertionsというタブからCounterfeit-V2.5_pruned.safetensorsをダウンロード
こんな感じで、気に入ったモデルをいくつか試しに入れてみましょう
Stable Diffusionの起動
インストールしたフォルダのルートにあるwebui-user.batをダブルクリックするとコマンドプロンプトが現れ、初回はインストールの仕上げを行います。ちょっと時間がかかります。
コマンドプロンプトが待機状態になったら、ブラウザからhttp://127.0.0.1:7860にアクセス。無事画面が出れば完了~。
あとは、性能アップをしてく感じです。
サーバー化
起動ファイルwebui-user.batにオプションを追加
set COMMANDLINE_ARGS= --listen
起動時のプロンプトに「0.0.0.0:7860」とでてれば成功。
ローカルからのアクセスは「127.0.0.1:7860」のまま。
高速化と合わせて記述
set COMMANDLINE_ARGS=--xformers --listen
VAE
インストールフォルダ\stable-diffusion-webui\models\VAE
vae-ft-mse-840000-ema-pruned.safetensors
という言い方が正しいのでしょうか?
Stable Diffusionに絵を描いてもらいました。
まだ思った通りには出力できませんが、好みの方向の絵を量産してくれそうな感じ。
ある水準を超えるとなのか、技術なのか、画風を自在に使い分けるのはすごく難しい。
物理的にトレースするように、頭の中のイメージをトレースして出力できるひともいます。鍛錬で習得できるものなのかどうなのか、プロの漫画家さんやイラストレーターのひとと話してきたけれど「できる人」からすると、なぜできないのかが不思議という方ばかりでした。
自分はできない側で、理想の画風や絵柄は、たぶん頭の中に薄ぼんやりとあるのに、自分の手では描けないので、お絵かきAIは絵を描くツールとして期待をしています。
かつてイラストを描くのにデジタル化する時に賛否両論があったように、そんな時代があったんですよね、AIを使うことが当たり前になるような気がします。とても絵の上手い人に代筆してもらったような、自分で描いたといえないような、なので「AI絵師」と名乗るのは違和感を感じていて、どちらかというと、ディレクターやプロデューサーみたいな感じがしています。
PAMO Menu | ||||
イラスト | 綾波レイ | MIWO | 独白 | 掲示板 |