先月買った自身初購入のミニPCでAMD Ryzen AIを積んだRyzen 7 8845HS搭載AOOSTAR GEM12 Pro MAXにプリインストール・クリーンインストール済みWindows 11 Proとは別にマルチブート、AMDXDNA(Ryzen AI NPU)が実装されたLinuxカーネル6.14な25.04ベータを入れ、USB SSDブートしていたUbuntuでComfyUIやLocalAIを使ってみた話。
ComfyUIとは、https://www.comfy.org/やgithub上のcomfyanonymous / ComfyUIからダウンロードしたり、git cloneしたりできるグラフ、ノード、フローチャートから高度なStable Diffusionパイプラインを実行できる生成AIソフトウェアとのこと。
実行は簡単で、起動時点でGPUが使われてますね。
ComfyUIマネージャっていうのがあるのか...ふむふむ...。
と眺めつつ、なんとなく開いたComfyUI サーバー構成の説明を見るとINT8しか対応していないRyzen 7 8845HSには、厳しそうな雰囲気。
というわけで撤退...。
LocalAIは、githubのmudler/LocalAIから利用でき、インストールするか、Dockerイメージを起動、GPUがなくCPUだけしかないという場合でもローカルでLLM/Large Language Model/大規模言語モデルを使ったAIアシスタント、画像生成、音楽生成、テキスト to スピーチなどができるというAIツール的なソフトウェア。
LocalAIでテキスト(プロンプト)から画像生成中...っていうか、CPUオンリーといいつつ、GPUも使ってますね。
そしてLocalAIでテキストからの画像生成も、あっさり、できました...が、CPUオンリーイメージだからか、ギャラリーから選択できるもので言うと、sd1.5モデル以外のStable Diffusionやdreamなんちゃらとかだとエラーになる。
かと言ってCPUに限定しない方のDockerイメージを使うと原因究明はできていないのですが、なぜか起動させることができない...。
sd1.5モデルだと、何も指定しないとフォーカスが全くあっていない、物体が一体何かわからないというほど、薄らぼんやりした画像しか生成できず、この画像は、クリア品質でと追加指定、これでも遥かにマシにはなり、それが何かがわかる画像が生成されるようにはなるものの、ぼんやり品質は相変わらずだったり。
これは、Docker版だからでインストールすれば違うのか?同じSD1.5系でもモデルに違いがあるからなのか?、なんらかの設定でどうにかなるものなのか?、単にプロンプトの入力が下手だからなのか?、iGPUやNPUを使えていないからなのか?、もし、Alpaca/OllamaやLM Studioに画像生成AIモデルがあれば、Windows版オンリーなAmuseばりに期待するようなものができるものなのか?、何らかの理由でそうしたモデルを使うことはできないものなのか?
SD 3.5が出てさえ人気があるというSD1.5だし、そんなはずはないよねと確認の意味も込めて、他の方法でもStable Diffusion、中でもv1.5は試してみないとねということでAUROMTIC1111なStable Diffusion Web UI、その後、lshqqytigerなamdgpu対応版を使ってみることにし、Linuxでの生成AIについては、Stable Diffusion Web UI amdgpuに落ち着きました。
他にPinokioなども試しつつ、記事のアップ日は前後しましたが。
今回、LocalAI Dockerで使ったモデルはsd-1.5-ggml。
このモデルはrunwayとあり、Stable Diffusionを公開した3つのグループの内の1つですよね(ん?あれはRunway?同じ?)。
先のLinksを辿ってみるとHugging FaceのページでOriginal Modelとしてrunwaml/stable-diffusion-v1-5。
その下を見ていくとstable-diffusion-v1-5-pruned-emaonly-Q8の文字が。
よって実際は、量子化済みのstable-diffusion-v1-5-pruned-emaonly-Q8_0.ggufのような気が。
これってQ8_0はともかく、Stable Diffusion Web UIのデフォルトと同じ...でも、Web UIでは、ぼやけることなく、バッチリ、画像生成できているんですが...。
LocalAIには、ネガティブプロンプトがないからですかね...?でも、SD Web UIだとポジティブプロンプトだけでも、そこそこ生成されるんですよね...。
LocalAIのAIアシスタントは、まずまずの精度...尤も精度という面ではモデルに依存するわけで、Gemini系なのかgemmaもGo○gle製っぽいですけどね。