T-CREATOR

ComfyUI のインストール完全ガイド:Windows/Mac/Linux 別・最短手順

ComfyUI のインストール完全ガイド:Windows/Mac/Linux 別・最短手順

ComfyUI は、Stable Diffusion をノードベースで扱える強力な画像生成ツールです。 従来の WebUI とは異なり、ワークフローを視覚的に組み立てられるため、複雑な画像生成プロセスも直感的に理解できます。

本記事では、Windows、Mac、Linux の各 OS 別に、ComfyUI を最短でインストールする手順を詳しく解説します。 初めての方でも迷わず導入できるよう、各ステップを丁寧に説明していきますね。

背景

ComfyUI とは

ComfyUI は、画像生成 AI の処理をノードベースで構築できるインターフェースです。 各処理をノード(部品)として視覚化し、それらを線で繋ぐことでワークフローを組み立てます。 この設計により、画像生成の各工程を明確に把握でき、カスタマイズの自由度が飛躍的に向上しました。

以下の図は、ComfyUI の基本的な構造を示しています。

mermaidflowchart TB
    user["ユーザー"] -->|ブラウザアクセス| ui["ComfyUI<br/>Web インターフェース"]
    ui -->|ワークフロー実行| backend["ComfyUI<br/>バックエンド"]
    backend -->|モデル読込| models[("AI モデル<br/>(.safetensors)")]
    backend -->|推論処理| gpu["GPU/CPU<br/>演算"]
    gpu -->|生成結果| backend
    backend -->|画像データ| ui
    ui -->|表示| user

上図のように、ユーザーはブラウザから操作し、バックエンドが AI モデルを使って画像生成を行います。 この仕組みを理解すると、インストールで何が必要かが見えてきますね。

従来の WebUI との違い

Stable Diffusion WebUI(AUTOMATIC1111)は、フォーム入力型のインターフェースでした。 一方、ComfyUI はノードを繋げるビジュアルプログラミング的なアプローチを採用しています。

#項目Stable Diffusion WebUIComfyUI
1インターフェース形式フォーム入力型ノードベース
2ワークフロー可視化困難容易
3カスタマイズ性★★★★★★★★
4初心者の学習曲線緩やかやや急
5複雑な処理の組立スクリプト必要ノードで直感的

ComfyUI は、複雑な処理を視覚的に組み立てられる点が最大の強みです。 ただし、最初は操作に慣れるまで少し時間がかかるかもしれません。

なぜ ComfyUI を選ぶのか

ComfyUI を選ぶ理由は、主に以下の 3 点にまとめられます。

まず、ワークフローの再利用性です。 一度組んだノードグラフを保存すれば、いつでも同じ処理を再現できます。

次に、処理の透明性が挙げられますね。 各ステップがノードとして表示されるため、何が起きているか一目瞭然です。

最後に、拡張性の高さも見逃せません。 カスタムノードを追加することで、機能を自由に拡張できるのです。

課題

インストールの複雑さ

ComfyUI のインストールは、OS によって手順が大きく異なります。 また、Python 環境の準備、Git のインストール、依存パッケージの管理など、複数の工程を経る必要があるのです。

以下は、インストール時によくある課題を示した図です。

mermaidflowchart TB
    start["ComfyUI<br/>インストール開始"] --> check["環境チェック"]
    check --> python_ok{"Python<br/>インストール済?"}
    python_ok -->|いいえ| install_python["Python<br/>インストール"]
    python_ok -->|はい| git_ok{"Git<br/>インストール済?"}
    install_python --> git_ok
    git_ok -->|いいえ| install_git["Git<br/>インストール"]
    git_ok -->|はい| gpu_check{"GPU 対応<br/>確認"}
    install_git --> gpu_check
    gpu_check -->|NVIDIA| cuda["CUDA 版<br/>PyTorch"]
    gpu_check -->|AMD/Mac| rocm_mps["ROCm/MPS 版<br/>PyTorch"]
    gpu_check -->|CPU のみ| cpu["CPU 版<br/>PyTorch"]
    cuda --> clone["ComfyUI<br/>クローン"]
    rocm_mps --> clone
    cpu --> clone
    clone --> deps["依存関係<br/>インストール"]
    deps --> done["完了"]

このように、いくつもの分岐点があり、それぞれで適切な選択をしなければなりません。 初めての方は、どの道を選べばよいのか迷ってしまうでしょう。

OS 別の違い

Windows、Mac、Linux では、それぞれ異なるツールやコマンドを使います。

Windows の課題は、パッケージ管理ツールが標準で用意されていない点です。 また、パスの設定やコマンドプロンプトの操作に不慣れな方も多いでしょう。

Mac の課題は、Apple Silicon チップ(M1/M2/M3)と Intel チップで環境が異なる点ですね。 特に、GPU アクセラレーション(MPS)の設定が複雑になりがちです。

Linux の課題は、ディストリビューションごとにパッケージマネージャーが異なること。 Ubuntu、Fedora、Arch では、それぞれコマンドが変わってきます。

#OS主な課題対策
1Windowsパッケージ管理の不在手動インストールまたは Scoop 利用
2Mac (Apple Silicon)MPS 対応の確認PyTorch 2.0 以降を使用
3Mac (Intel)CUDA 非対応CPU モードで運用
4Linuxディストリ別の差異各ディストリのドキュメント参照

GPU 環境の違い

ComfyUI は、GPU を使うことで処理速度が劇的に向上します。 しかし、NVIDIA、AMD、Apple のそれぞれで、必要な設定が異なるのです。

NVIDIA GPUの場合、CUDA と cuDNN のインストールが必須となります。 バージョンの組み合わせも重要で、間違えると動作しません。

AMD GPUでは、ROCm というプラットフォームが必要ですね。 ただし、Windows では公式サポートが限定的で、Linux での利用が推奨されます。

Apple Siliconでは、MPS という独自のフレームワークを使います。 PyTorch 2.0 以降で対応が進んでいますが、まだ発展途上の部分もあるのです。

モデルファイルの準備

ComfyUI を動かすには、AI モデル(.safetensors ファイル)が必要です。 これらは数 GB の容量があり、ダウンロードに時間がかかります。

また、モデルを正しいディレクトリに配置しないと、ComfyUI が認識してくれません。 初めての方は、この配置場所で迷うことが多いでしょう。

解決策

インストール前の準備

まず、各 OS で共通して必要なものを確認しましょう。

必須要件は以下の通りです。

#項目推奨バージョン備考
1Python3.10 または 3.113.12 は未対応の場合あり
2Git最新版バージョン管理ツール
3ディスク空き容量20GB 以上モデルファイル含む
4メモリ(RAM)16GB 以上8GB でも動作可能だが遅い
5GPU(推奨)VRAM 6GB 以上CPU でも動作可能

これらを事前にチェックしておくと、スムーズに進められますね。

以下の図は、インストールの全体フローを示しています。

mermaidflowchart TB
    prep["事前準備<br/>(Python/Git)"] --> clone["ComfyUI<br/>リポジトリクローン"]
    clone --> venv["仮想環境<br/>作成"]
    venv --> torch["PyTorch<br/>インストール"]
    torch --> deps["依存パッケージ<br/>インストール"]
    deps --> model["モデルファイル<br/>配置"]
    model --> launch["ComfyUI<br/>起動"]
    launch --> browser["ブラウザで<br/>アクセス"]

この流れを頭に入れておくと、各ステップの目的が明確になります。

Windows でのインストール手順

Windows 環境では、コマンドプロンプトまたは PowerShell を使って作業します。 以下、順を追って説明していきますね。

ステップ 1:Python のインストール

まず、Python 公式サイトからインストーラーをダウンロードします。 https://www.python.org/downloads/windows/

インストール時は、「Add Python to PATH」にチェックを入れてください。 これを忘れると、後でパスの設定が必要になり面倒です。

インストール後、コマンドプロンプトで確認しましょう。

powershell# Python バージョン確認
python --version

Python 3.10.x または Python 3.11.x と表示されれば OK です。

ステップ 2:Git のインストール

次に、Git をインストールします。 https://git-scm.com/download/win

インストーラーは、基本的にデフォルト設定のまま進めて大丈夫です。 完了したら、コマンドプロンプトで確認してみましょう。

powershell# Git バージョン確認
git --version

バージョン番号が表示されれば成功ですね。

ステップ 3:ComfyUI のクローン

作業用のディレクトリを作成し、そこに ComfyUI をクローンします。

powershell# 作業用ディレクトリへ移動(例:デスクトップ)
cd %USERPROFILE%\Desktop

# ComfyUI をクローン
git clone https://github.com/comfyanonymous/ComfyUI.git

クローンには数分かかることがあります。 完了すると、ComfyUI フォルダが作成されているはずです。

powershell# ComfyUI ディレクトリへ移動
cd ComfyUI

ステップ 4:仮想環境の作成

Python の仮想環境を作成します。 これにより、システムの Python 環境を汚さずに済むのです。

powershell# 仮想環境作成
python -m venv venv

作成した仮想環境を有効化しましょう。

powershell# 仮想環境を有効化
venv\Scripts\activate

プロンプトの先頭に (venv) と表示されれば、有効化されています。

ステップ 5:PyTorch のインストール

PyTorch は、GPU の種類によってインストールコマンドが変わります。

NVIDIA GPU(CUDA 対応)の場合、以下のコマンドを実行してください。

powershell# CUDA 12.1 版 PyTorch インストール
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

CPU のみの場合は、こちらを使います。

powershell# CPU 版 PyTorch インストール
pip install torch torchvision torchaudio

インストールには数分かかりますが、完了するまで待ちましょう。

ステップ 6:依存パッケージのインストール

ComfyUI が必要とする他のパッケージをインストールします。

powershell# 依存パッケージをインストール
pip install -r requirements.txt

エラーが出なければ、インストール成功です。

ステップ 7:モデルファイルの配置

AI モデルをダウンロードして、所定のフォルダに配置します。 Stable Diffusion 1.5 のモデルを例にしましょう。

モデルは、Hugging Face から入手できます。 https://huggingface.co/runwayml/stable-diffusion-v1-5/tree/main

v1-5-pruned-emaonly.safetensors をダウンロードし、以下のフォルダに配置してください。

powershellComfyUI\models\checkpoints\

フォルダが存在しない場合は、手動で作成しましょう。

ステップ 8:ComfyUI の起動

いよいよ ComfyUI を起動します。

powershell# ComfyUI を起動
python main.py

起動メッセージが表示され、最後に以下のような行が出れば成功です。

cssTo see the GUI go to: http://127.0.0.1:8188

ブラウザで http:​/​​/​127.0.0.1:8188 にアクセスしてみてください。 ComfyUI のインターフェースが表示されるはずです。

Mac でのインストール手順

Mac 環境では、ターミナルを使って作業します。 Apple Silicon と Intel Mac で一部手順が異なるため、注意してくださいね。

ステップ 1:Homebrew のインストール

Homebrew は、Mac のパッケージ管理ツールです。 まだインストールしていない場合は、以下のコマンドを実行しましょう。

bash# Homebrew インストール
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"

インストール後、画面の指示に従ってパスを設定してください。

ステップ 2:Python と Git のインストール

Homebrew を使って、Python と Git をインストールします。

bash# Python 3.11 をインストール
brew install python@3.11
bash# Git をインストール
brew install git

インストール完了後、バージョンを確認しましょう。

bash# Python バージョン確認
python3.11 --version

# Git バージョン確認
git --version

ステップ 3:ComfyUI のクローン

作業用ディレクトリを作成し、ComfyUI をクローンします。

bash# ホームディレクトリへ移動
cd ~

# ComfyUI をクローン
git clone https://github.com/comfyanonymous/ComfyUI.git
bash# ComfyUI ディレクトリへ移動
cd ComfyUI

ステップ 4:仮想環境の作成

Python の仮想環境を作成し、有効化します。

bash# 仮想環境作成
python3.11 -m venv venv
bash# 仮想環境を有効化
source venv/bin/activate

プロンプトの先頭に (venv) が表示されれば OK ですね。

ステップ 5:PyTorch のインストール

Mac の場合、PyTorch のインストールはチップによって異なります。

Apple Silicon(M1/M2/M3)の場合、MPS 対応版をインストールしましょう。

bash# Apple Silicon 用 PyTorch インストール
pip install torch torchvision torchaudio

Intel Mac の場合も、同じコマンドで大丈夫です。

bash# Intel Mac 用 PyTorch インストール
pip install torch torchvision torchaudio

ステップ 6:依存パッケージのインストール

ComfyUI の依存パッケージをインストールします。

bash# 依存パッケージをインストール
pip install -r requirements.txt

エラーが出なければ成功です。

ステップ 7:モデルファイルの配置

Windows と同様に、モデルファイルをダウンロードして配置します。

bash# checkpoints フォルダへ移動
cd models/checkpoints

Hugging Face からモデルをダウンロードし、このフォルダに配置してください。 https://huggingface.co/runwayml/stable-diffusion-v1-5/tree/main

ダウンロードには、ブラウザを使うか wget コマンドが便利です。

bash# wget でモデルをダウンロード(例)
wget https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.safetensors
bash# ComfyUI ルートディレクトリへ戻る
cd ../..

ステップ 8:ComfyUI の起動

ComfyUI を起動しましょう。

bash# ComfyUI を起動
python main.py

起動メッセージが表示され、以下のような行が出れば成功です。

cssTo see the GUI go to: http://127.0.0.1:8188

ブラウザで http:​/​​/​127.0.0.1:8188 にアクセスしてみてください。

Linux でのインストール手順

Linux 環境では、ディストリビューションに応じてパッケージマネージャーが異なります。 ここでは Ubuntu/Debian を例に説明しますが、他のディストリでも基本は同じですね。

ステップ 1:システムの更新

まず、パッケージリストを更新しましょう。

bash# パッケージリスト更新
sudo apt update
bash# インストール済みパッケージを更新
sudo apt upgrade -y

ステップ 2:Python と Git のインストール

必要なパッケージをインストールします。

bash# Python 3.11、pip、venv、Git をインストール
sudo apt install -y python3.11 python3.11-venv python3-pip git

インストール後、バージョンを確認してください。

bash# Python バージョン確認
python3.11 --version

# Git バージョン確認
git --version

ステップ 3:NVIDIA ドライバーと CUDA のインストール(GPU 使用の場合)

NVIDIA GPU を使う場合、ドライバーと CUDA をインストールします。

bash# NVIDIA ドライバー検索
ubuntu-drivers devices

推奨されるドライバーをインストールしましょう。

bash# 推奨ドライバーを自動インストール
sudo ubuntu-drivers autoinstall

CUDA ツールキットも必要です。

bash# CUDA ツールキットをインストール(例:CUDA 12.1)
sudo apt install -y nvidia-cuda-toolkit

インストール後、再起動してください。

bash# システムを再起動
sudo reboot

再起動後、GPU が認識されているか確認します。

bash# GPU 認識確認
nvidia-smi

GPU 情報が表示されれば成功ですね。

ステップ 4:ComfyUI のクローン

ホームディレクトリで ComfyUI をクローンします。

bash# ホームディレクトリへ移動
cd ~

# ComfyUI をクローン
git clone https://github.com/comfyanonymous/ComfyUI.git
bash# ComfyUI ディレクトリへ移動
cd ComfyUI

ステップ 5:仮想環境の作成

仮想環境を作成し、有効化します。

bash# 仮想環境作成
python3.11 -m venv venv
bash# 仮想環境を有効化
source venv/bin/activate

ステップ 6:PyTorch のインストール

NVIDIA GPU を使う場合、CUDA 対応版をインストールします。

bash# CUDA 12.1 版 PyTorch インストール
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121

CPU のみの場合は、以下を使いましょう。

bash# CPU 版 PyTorch インストール
pip install torch torchvision torchaudio

ステップ 7:依存パッケージのインストール

ComfyUI の依存パッケージをインストールします。

bash# 依存パッケージをインストール
pip install -r requirements.txt

ステップ 8:モデルファイルの配置

モデルファイルをダウンロードして配置します。

bash# checkpoints フォルダへ移動
cd models/checkpoints

wget でモデルをダウンロードしましょう。

bash# モデルをダウンロード
wget https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.safetensors
bash# ComfyUI ルートディレクトリへ戻る
cd ../..

ステップ 9:ComfyUI の起動

ComfyUI を起動します。

bash# ComfyUI を起動
python main.py

以下のメッセージが表示されれば成功です。

cssTo see the GUI go to: http://127.0.0.1:8188

ブラウザでアクセスしてみてください。

トラブルシューティング

インストール中によくあるエラーと、その解決方法をまとめました。

エラー 1:ModuleNotFoundError: No module named 'torch'

エラーコード: ModuleNotFoundError

エラーメッセージ:

vbnetModuleNotFoundError: No module named 'torch'

発生条件: PyTorch がインストールされていない、または仮想環境が有効化されていない場合に発生します。

解決方法:

  1. 仮想環境が有効化されているか確認する
  2. 有効化されていない場合は、source venv​/​bin​/​activate(Mac/Linux)または venv\Scripts\activate(Windows)を実行
  3. PyTorch を再インストールする
bash# PyTorch を再インストール
pip install torch torchvision torchaudio

エラー 2:CUDA out of memory

エラーコード: RuntimeError

エラーメッセージ:

sqlRuntimeError: CUDA out of memory. Tried to allocate X.XX GiB

発生条件: GPU の VRAM が不足している場合に発生します。

解決方法:

  1. バッチサイズを小さくする
  2. 画像サイズを下げる
  3. モデルを軽量版に変更する
  4. --lowvram または --novram オプションで起動する
bash# lowvram モードで起動
python main.py --lowvram

エラー 3:Address already in use

エラーコード: OSError

エラーメッセージ:

iniOSError: [Errno 48] Address already in use

発生条件: ポート 8188 が既に使用されている場合に発生します。

解決方法:

  1. 既存の ComfyUI プロセスを終了する
  2. 別のポートを指定して起動する
bash# ポート 8189 で起動
python main.py --port 8189

エラー 4:No checkpoints found

エラーメッセージ:

bashNo checkpoints found. Please place model files in models/checkpoints/

発生条件: モデルファイルが正しく配置されていない場合に発生します。

解決方法:

  1. モデルファイルの配置場所を確認する
  2. ファイル名が正しいか確認する(.safetensors または .ckpt)
  3. ファイルのダウンロードが完全に完了しているか確認する
bash# checkpoints フォルダの内容を確認
ls models/checkpoints/

具体例

初回起動から画像生成までの流れ

ComfyUI を初めて起動した後、実際に画像を生成してみましょう。 ここでは、基本的なワークフローを使った生成手順を説明します。

以下の図は、画像生成の基本フローを示しています。

mermaidflowchart LR
    load["モデル読込<br/>ノード"] --> prompt_p["正プロンプト<br/>ノード"]
    load --> prompt_n["負プロンプト<br/>ノード"]
    prompt_p --> sampler["サンプラー<br/>ノード"]
    prompt_n --> sampler
    sampler --> vae["VAE デコード<br/>ノード"]
    vae --> save["画像保存<br/>ノード"]
    save --> output["生成画像<br/>出力"]

ステップ 1:デフォルトワークフローの読み込み

ComfyUI を起動すると、デフォルトでワークフローが表示されます。 左側のパネルには、いくつかのノードが既に配置されているはずです。

もし何も表示されていない場合は、画面上部の「Load Default」をクリックしてください。

ステップ 2:モデルの選択

「Load Checkpoint」ノードを探しましょう。 このノードで、使用する AI モデルを選択します。

ノード内のドロップダウンをクリックし、先ほど配置した v1-5-pruned-emaonly.safetensors を選んでください。

ステップ 3:プロンプトの入力

「CLIP Text Encode (Prompt)」ノードが 2 つあります。

Positive(正)プロンプトには、生成したい画像の説明を入力します。

cssa beautiful landscape with mountains and a lake, sunset, highly detailed

Negative(負)プロンプトには、避けたい要素を入力しましょう。

blurry, low quality, distorted

ステップ 4:サンプリング設定

「KSampler」ノードで、生成のパラメータを設定します。

#パラメータ推奨値説明
1seed-1(ランダム)同じ値で再現可能
2steps20-30サンプリング回数
3cfg7-8プロンプト強度
4sampler_nameeuler_aサンプリング方法
5schedulernormalスケジューラー

初めての場合は、デフォルト値のままでも大丈夫ですね。

ステップ 5:画像生成の実行

画面右側の「Queue Prompt」ボタンをクリックします。 生成が開始され、進行状況がコンソールに表示されるでしょう。

数十秒から数分で、「Save Image」ノード内に生成された画像が表示されます。 画像を右クリックして保存できますよ。

カスタムワークフローの作成例

基本的な生成に慣れたら、カスタムワークフローを作ってみましょう。 ここでは、アップスケール(高解像度化)を含むワークフローを作成します。

以下の図は、アップスケールを含むワークフローの構造です。

mermaidflowchart TB
    load["モデル読込"] --> encode_p["正プロンプト<br/>エンコード"]
    load --> encode_n["負プロンプト<br/>エンコード"]
    encode_p --> sampler1["1回目<br/>サンプリング"]
    encode_n --> sampler1
    sampler1 --> vae1["VAE デコード"]
    vae1 --> upscale["アップスケール<br/>(2x)"]
    upscale --> vae2["VAE エンコード"]
    vae2 --> sampler2["2回目<br/>サンプリング<br/>(高解像度)"]
    encode_p --> sampler2
    encode_n --> sampler2
    sampler2 --> vae3["VAE デコード"]
    vae3 --> save["画像保存"]

ノードの追加方法

画面上で右クリックすると、ノード追加メニューが表示されます。 「Add Node」→「image」→「upscale」→「ImageScale」を選択しましょう。

新しいノードが追加されたら、ドラッグして適切な位置に配置してください。

ノードの接続

ノードの出力端子から、次のノードの入力端子へドラッグして接続します。 線が繋がると、データが流れる経路が視覚化されますね。

パラメータの調整

「ImageScale」ノードで、アップスケール倍率を設定します。

#パラメータ説明
1upscale_methodlanczos補間方法
2scale_by2.0拡大倍率

保存と再利用

作成したワークフローは、画面上部の「Save」から保存できます。 JSON 形式で保存され、次回は「Load」から読み込めますよ。

外部モデルの追加

ComfyUI では、Stable Diffusion 以外のモデルも使えます。 ここでは、人気のカスタムモデルを追加する方法を説明しますね。

モデルの入手先

主なモデル配布サイトは以下の通りです。

#サイト名URL特徴
1Hugging Facehttps://huggingface.co/オープンソースモデル多数
2Civitaihttps://civitai.com/コミュニティ製モデル
3ModelScopehttps://modelscope.cn/中国発のモデル共有

ダウンロードと配置

例として、Civitai から「Realistic Vision」をダウンロードしましょう。

  1. Civitai にアクセスし、モデルページへ移動
  2. 「Download」ボタンをクリック
  3. .safetensors ファイルを ComfyUI​/​models​/​checkpoints​/​ に配置

ComfyUI を再起動すると、新しいモデルがドロップダウンに表示されます。

LoRA の追加

LoRA(Low-Rank Adaptation)は、モデルに追加できる小型の拡張ファイルです。 特定のスタイルやキャラクターを強化できますよ。

LoRA ファイルは、以下のフォルダに配置してください。

bashComfyUI/models/loras/

ワークフローで LoRA を使うには、「Load LoRA」ノードを追加します。 ノード内のドロップダウンから、配置した LoRA ファイルを選択しましょう。

カスタムノードのインストール

ComfyUI の機能を拡張するカスタムノードも利用できます。 ここでは、人気の「ComfyUI Manager」をインストールしてみましょう。

ComfyUI Manager とは

ComfyUI Manager は、カスタムノードを簡単にインストール・管理できるツールです。 ブラウザ上から操作できるため、コマンドラインが不要になりますね。

インストール手順

ComfyUI のディレクトリで、以下のコマンドを実行します。

bash# custom_nodes フォルダへ移動
cd custom_nodes
bash# ComfyUI Manager をクローン
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
bash# ComfyUI ルートディレクトリへ戻る
cd ..

ComfyUI を再起動すると、画面右側に「Manager」ボタンが表示されます。

カスタムノードの検索とインストール

「Manager」ボタンをクリックし、「Install Custom Nodes」を選びましょう。 検索バーで欲しいノードを探し、「Install」をクリックするだけです。

インストール後は、ComfyUI の再起動が必要な場合があります。

まとめ

ComfyUI のインストールは、一見複雑に見えますが、手順を追えば確実にできます。 Windows、Mac、Linux のそれぞれで、基本的な流れは共通していますね。

重要なポイントをまとめると、以下の通りです。

環境準備では、Python 3.10/3.11 と Git が必須でした。 OS ごとにインストール方法は異なりますが、公式サイトやパッケージマネージャーを使えば簡単です。

GPU 環境は、処理速度に大きく影響します。 NVIDIA、AMD、Apple Silicon のそれぞれで、適切な PyTorch バージョンを選びましょう。

モデルファイルの配置は、初めての方が迷いやすいポイントですね。 models​/​checkpoints​/​ フォルダに .safetensors ファイルを置けば認識されます。

トラブルシューティングでは、よくあるエラーと解決方法を紹介しました。 エラーメッセージをよく読み、該当する対処法を試してみてください。

ComfyUI は、ノードベースの柔軟なワークフローにより、創造性を最大限に発揮できるツールです。 インストールが完了したら、ぜひ様々なワークフローを試して、自分だけの画像生成パイプラインを作ってみてくださいね。

今後、新しいモデルやカスタムノードも続々と登場するでしょう。 ComfyUI のコミュニティは活発なので、最新情報をチェックしながら楽しんでください。

関連リンク

以下のリンクから、さらに詳しい情報を入手できます。