ComfyUI のインストール完全ガイド:Windows/Mac/Linux 別・最短手順
ComfyUI は、Stable Diffusion をノードベースで扱える強力な画像生成ツールです。 従来の WebUI とは異なり、ワークフローを視覚的に組み立てられるため、複雑な画像生成プロセスも直感的に理解できます。
本記事では、Windows、Mac、Linux の各 OS 別に、ComfyUI を最短でインストールする手順を詳しく解説します。 初めての方でも迷わず導入できるよう、各ステップを丁寧に説明していきますね。
背景
ComfyUI とは
ComfyUI は、画像生成 AI の処理をノードベースで構築できるインターフェースです。 各処理をノード(部品)として視覚化し、それらを線で繋ぐことでワークフローを組み立てます。 この設計により、画像生成の各工程を明確に把握でき、カスタマイズの自由度が飛躍的に向上しました。
以下の図は、ComfyUI の基本的な構造を示しています。
mermaidflowchart TB
user["ユーザー"] -->|ブラウザアクセス| ui["ComfyUI<br/>Web インターフェース"]
ui -->|ワークフロー実行| backend["ComfyUI<br/>バックエンド"]
backend -->|モデル読込| models[("AI モデル<br/>(.safetensors)")]
backend -->|推論処理| gpu["GPU/CPU<br/>演算"]
gpu -->|生成結果| backend
backend -->|画像データ| ui
ui -->|表示| user
上図のように、ユーザーはブラウザから操作し、バックエンドが AI モデルを使って画像生成を行います。 この仕組みを理解すると、インストールで何が必要かが見えてきますね。
従来の WebUI との違い
Stable Diffusion WebUI(AUTOMATIC1111)は、フォーム入力型のインターフェースでした。 一方、ComfyUI はノードを繋げるビジュアルプログラミング的なアプローチを採用しています。
| # | 項目 | Stable Diffusion WebUI | ComfyUI |
|---|---|---|---|
| 1 | インターフェース形式 | フォーム入力型 | ノードベース |
| 2 | ワークフロー可視化 | 困難 | 容易 |
| 3 | カスタマイズ性 | ★★★ | ★★★★★ |
| 4 | 初心者の学習曲線 | 緩やか | やや急 |
| 5 | 複雑な処理の組立 | スクリプト必要 | ノードで直感的 |
ComfyUI は、複雑な処理を視覚的に組み立てられる点が最大の強みです。 ただし、最初は操作に慣れるまで少し時間がかかるかもしれません。
なぜ ComfyUI を選ぶのか
ComfyUI を選ぶ理由は、主に以下の 3 点にまとめられます。
まず、ワークフローの再利用性です。 一度組んだノードグラフを保存すれば、いつでも同じ処理を再現できます。
次に、処理の透明性が挙げられますね。 各ステップがノードとして表示されるため、何が起きているか一目瞭然です。
最後に、拡張性の高さも見逃せません。 カスタムノードを追加することで、機能を自由に拡張できるのです。
課題
インストールの複雑さ
ComfyUI のインストールは、OS によって手順が大きく異なります。 また、Python 環境の準備、Git のインストール、依存パッケージの管理など、複数の工程を経る必要があるのです。
以下は、インストール時によくある課題を示した図です。
mermaidflowchart TB
start["ComfyUI<br/>インストール開始"] --> check["環境チェック"]
check --> python_ok{"Python<br/>インストール済?"}
python_ok -->|いいえ| install_python["Python<br/>インストール"]
python_ok -->|はい| git_ok{"Git<br/>インストール済?"}
install_python --> git_ok
git_ok -->|いいえ| install_git["Git<br/>インストール"]
git_ok -->|はい| gpu_check{"GPU 対応<br/>確認"}
install_git --> gpu_check
gpu_check -->|NVIDIA| cuda["CUDA 版<br/>PyTorch"]
gpu_check -->|AMD/Mac| rocm_mps["ROCm/MPS 版<br/>PyTorch"]
gpu_check -->|CPU のみ| cpu["CPU 版<br/>PyTorch"]
cuda --> clone["ComfyUI<br/>クローン"]
rocm_mps --> clone
cpu --> clone
clone --> deps["依存関係<br/>インストール"]
deps --> done["完了"]
このように、いくつもの分岐点があり、それぞれで適切な選択をしなければなりません。 初めての方は、どの道を選べばよいのか迷ってしまうでしょう。
OS 別の違い
Windows、Mac、Linux では、それぞれ異なるツールやコマンドを使います。
Windows の課題は、パッケージ管理ツールが標準で用意されていない点です。 また、パスの設定やコマンドプロンプトの操作に不慣れな方も多いでしょう。
Mac の課題は、Apple Silicon チップ(M1/M2/M3)と Intel チップで環境が異なる点ですね。 特に、GPU アクセラレーション(MPS)の設定が複雑になりがちです。
Linux の課題は、ディストリビューションごとにパッケージマネージャーが異なること。 Ubuntu、Fedora、Arch では、それぞれコマンドが変わってきます。
| # | OS | 主な課題 | 対策 |
|---|---|---|---|
| 1 | Windows | パッケージ管理の不在 | 手動インストールまたは Scoop 利用 |
| 2 | Mac (Apple Silicon) | MPS 対応の確認 | PyTorch 2.0 以降を使用 |
| 3 | Mac (Intel) | CUDA 非対応 | CPU モードで運用 |
| 4 | Linux | ディストリ別の差異 | 各ディストリのドキュメント参照 |
GPU 環境の違い
ComfyUI は、GPU を使うことで処理速度が劇的に向上します。 しかし、NVIDIA、AMD、Apple のそれぞれで、必要な設定が異なるのです。
NVIDIA GPUの場合、CUDA と cuDNN のインストールが必須となります。 バージョンの組み合わせも重要で、間違えると動作しません。
AMD GPUでは、ROCm というプラットフォームが必要ですね。 ただし、Windows では公式サポートが限定的で、Linux での利用が推奨されます。
Apple Siliconでは、MPS という独自のフレームワークを使います。 PyTorch 2.0 以降で対応が進んでいますが、まだ発展途上の部分もあるのです。
モデルファイルの準備
ComfyUI を動かすには、AI モデル(.safetensors ファイル)が必要です。 これらは数 GB の容量があり、ダウンロードに時間がかかります。
また、モデルを正しいディレクトリに配置しないと、ComfyUI が認識してくれません。 初めての方は、この配置場所で迷うことが多いでしょう。
解決策
インストール前の準備
まず、各 OS で共通して必要なものを確認しましょう。
必須要件は以下の通りです。
| # | 項目 | 推奨バージョン | 備考 |
|---|---|---|---|
| 1 | Python | 3.10 または 3.11 | 3.12 は未対応の場合あり |
| 2 | Git | 最新版 | バージョン管理ツール |
| 3 | ディスク空き容量 | 20GB 以上 | モデルファイル含む |
| 4 | メモリ(RAM) | 16GB 以上 | 8GB でも動作可能だが遅い |
| 5 | GPU(推奨) | VRAM 6GB 以上 | CPU でも動作可能 |
これらを事前にチェックしておくと、スムーズに進められますね。
以下の図は、インストールの全体フローを示しています。
mermaidflowchart TB
prep["事前準備<br/>(Python/Git)"] --> clone["ComfyUI<br/>リポジトリクローン"]
clone --> venv["仮想環境<br/>作成"]
venv --> torch["PyTorch<br/>インストール"]
torch --> deps["依存パッケージ<br/>インストール"]
deps --> model["モデルファイル<br/>配置"]
model --> launch["ComfyUI<br/>起動"]
launch --> browser["ブラウザで<br/>アクセス"]
この流れを頭に入れておくと、各ステップの目的が明確になります。
Windows でのインストール手順
Windows 環境では、コマンドプロンプトまたは PowerShell を使って作業します。 以下、順を追って説明していきますね。
ステップ 1:Python のインストール
まず、Python 公式サイトからインストーラーをダウンロードします。 https://www.python.org/downloads/windows/
インストール時は、「Add Python to PATH」にチェックを入れてください。 これを忘れると、後でパスの設定が必要になり面倒です。
インストール後、コマンドプロンプトで確認しましょう。
powershell# Python バージョン確認
python --version
Python 3.10.x または Python 3.11.x と表示されれば OK です。
ステップ 2:Git のインストール
次に、Git をインストールします。 https://git-scm.com/download/win
インストーラーは、基本的にデフォルト設定のまま進めて大丈夫です。 完了したら、コマンドプロンプトで確認してみましょう。
powershell# Git バージョン確認
git --version
バージョン番号が表示されれば成功ですね。
ステップ 3:ComfyUI のクローン
作業用のディレクトリを作成し、そこに ComfyUI をクローンします。
powershell# 作業用ディレクトリへ移動(例:デスクトップ)
cd %USERPROFILE%\Desktop
# ComfyUI をクローン
git clone https://github.com/comfyanonymous/ComfyUI.git
クローンには数分かかることがあります。
完了すると、ComfyUI フォルダが作成されているはずです。
powershell# ComfyUI ディレクトリへ移動
cd ComfyUI
ステップ 4:仮想環境の作成
Python の仮想環境を作成します。 これにより、システムの Python 環境を汚さずに済むのです。
powershell# 仮想環境作成
python -m venv venv
作成した仮想環境を有効化しましょう。
powershell# 仮想環境を有効化
venv\Scripts\activate
プロンプトの先頭に (venv) と表示されれば、有効化されています。
ステップ 5:PyTorch のインストール
PyTorch は、GPU の種類によってインストールコマンドが変わります。
NVIDIA GPU(CUDA 対応)の場合、以下のコマンドを実行してください。
powershell# CUDA 12.1 版 PyTorch インストール
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
CPU のみの場合は、こちらを使います。
powershell# CPU 版 PyTorch インストール
pip install torch torchvision torchaudio
インストールには数分かかりますが、完了するまで待ちましょう。
ステップ 6:依存パッケージのインストール
ComfyUI が必要とする他のパッケージをインストールします。
powershell# 依存パッケージをインストール
pip install -r requirements.txt
エラーが出なければ、インストール成功です。
ステップ 7:モデルファイルの配置
AI モデルをダウンロードして、所定のフォルダに配置します。 Stable Diffusion 1.5 のモデルを例にしましょう。
モデルは、Hugging Face から入手できます。 https://huggingface.co/runwayml/stable-diffusion-v1-5/tree/main
v1-5-pruned-emaonly.safetensors をダウンロードし、以下のフォルダに配置してください。
powershellComfyUI\models\checkpoints\
フォルダが存在しない場合は、手動で作成しましょう。
ステップ 8:ComfyUI の起動
いよいよ ComfyUI を起動します。
powershell# ComfyUI を起動
python main.py
起動メッセージが表示され、最後に以下のような行が出れば成功です。
cssTo see the GUI go to: http://127.0.0.1:8188
ブラウザで http://127.0.0.1:8188 にアクセスしてみてください。
ComfyUI のインターフェースが表示されるはずです。
Mac でのインストール手順
Mac 環境では、ターミナルを使って作業します。 Apple Silicon と Intel Mac で一部手順が異なるため、注意してくださいね。
ステップ 1:Homebrew のインストール
Homebrew は、Mac のパッケージ管理ツールです。 まだインストールしていない場合は、以下のコマンドを実行しましょう。
bash# Homebrew インストール
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
インストール後、画面の指示に従ってパスを設定してください。
ステップ 2:Python と Git のインストール
Homebrew を使って、Python と Git をインストールします。
bash# Python 3.11 をインストール
brew install python@3.11
bash# Git をインストール
brew install git
インストール完了後、バージョンを確認しましょう。
bash# Python バージョン確認
python3.11 --version
# Git バージョン確認
git --version
ステップ 3:ComfyUI のクローン
作業用ディレクトリを作成し、ComfyUI をクローンします。
bash# ホームディレクトリへ移動
cd ~
# ComfyUI をクローン
git clone https://github.com/comfyanonymous/ComfyUI.git
bash# ComfyUI ディレクトリへ移動
cd ComfyUI
ステップ 4:仮想環境の作成
Python の仮想環境を作成し、有効化します。
bash# 仮想環境作成
python3.11 -m venv venv
bash# 仮想環境を有効化
source venv/bin/activate
プロンプトの先頭に (venv) が表示されれば OK ですね。
ステップ 5:PyTorch のインストール
Mac の場合、PyTorch のインストールはチップによって異なります。
Apple Silicon(M1/M2/M3)の場合、MPS 対応版をインストールしましょう。
bash# Apple Silicon 用 PyTorch インストール
pip install torch torchvision torchaudio
Intel Mac の場合も、同じコマンドで大丈夫です。
bash# Intel Mac 用 PyTorch インストール
pip install torch torchvision torchaudio
ステップ 6:依存パッケージのインストール
ComfyUI の依存パッケージをインストールします。
bash# 依存パッケージをインストール
pip install -r requirements.txt
エラーが出なければ成功です。
ステップ 7:モデルファイルの配置
Windows と同様に、モデルファイルをダウンロードして配置します。
bash# checkpoints フォルダへ移動
cd models/checkpoints
Hugging Face からモデルをダウンロードし、このフォルダに配置してください。 https://huggingface.co/runwayml/stable-diffusion-v1-5/tree/main
ダウンロードには、ブラウザを使うか wget コマンドが便利です。
bash# wget でモデルをダウンロード(例)
wget https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.safetensors
bash# ComfyUI ルートディレクトリへ戻る
cd ../..
ステップ 8:ComfyUI の起動
ComfyUI を起動しましょう。
bash# ComfyUI を起動
python main.py
起動メッセージが表示され、以下のような行が出れば成功です。
cssTo see the GUI go to: http://127.0.0.1:8188
ブラウザで http://127.0.0.1:8188 にアクセスしてみてください。
Linux でのインストール手順
Linux 環境では、ディストリビューションに応じてパッケージマネージャーが異なります。 ここでは Ubuntu/Debian を例に説明しますが、他のディストリでも基本は同じですね。
ステップ 1:システムの更新
まず、パッケージリストを更新しましょう。
bash# パッケージリスト更新
sudo apt update
bash# インストール済みパッケージを更新
sudo apt upgrade -y
ステップ 2:Python と Git のインストール
必要なパッケージをインストールします。
bash# Python 3.11、pip、venv、Git をインストール
sudo apt install -y python3.11 python3.11-venv python3-pip git
インストール後、バージョンを確認してください。
bash# Python バージョン確認
python3.11 --version
# Git バージョン確認
git --version
ステップ 3:NVIDIA ドライバーと CUDA のインストール(GPU 使用の場合)
NVIDIA GPU を使う場合、ドライバーと CUDA をインストールします。
bash# NVIDIA ドライバー検索
ubuntu-drivers devices
推奨されるドライバーをインストールしましょう。
bash# 推奨ドライバーを自動インストール
sudo ubuntu-drivers autoinstall
CUDA ツールキットも必要です。
bash# CUDA ツールキットをインストール(例:CUDA 12.1)
sudo apt install -y nvidia-cuda-toolkit
インストール後、再起動してください。
bash# システムを再起動
sudo reboot
再起動後、GPU が認識されているか確認します。
bash# GPU 認識確認
nvidia-smi
GPU 情報が表示されれば成功ですね。
ステップ 4:ComfyUI のクローン
ホームディレクトリで ComfyUI をクローンします。
bash# ホームディレクトリへ移動
cd ~
# ComfyUI をクローン
git clone https://github.com/comfyanonymous/ComfyUI.git
bash# ComfyUI ディレクトリへ移動
cd ComfyUI
ステップ 5:仮想環境の作成
仮想環境を作成し、有効化します。
bash# 仮想環境作成
python3.11 -m venv venv
bash# 仮想環境を有効化
source venv/bin/activate
ステップ 6:PyTorch のインストール
NVIDIA GPU を使う場合、CUDA 対応版をインストールします。
bash# CUDA 12.1 版 PyTorch インストール
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121
CPU のみの場合は、以下を使いましょう。
bash# CPU 版 PyTorch インストール
pip install torch torchvision torchaudio
ステップ 7:依存パッケージのインストール
ComfyUI の依存パッケージをインストールします。
bash# 依存パッケージをインストール
pip install -r requirements.txt
ステップ 8:モデルファイルの配置
モデルファイルをダウンロードして配置します。
bash# checkpoints フォルダへ移動
cd models/checkpoints
wget でモデルをダウンロードしましょう。
bash# モデルをダウンロード
wget https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned-emaonly.safetensors
bash# ComfyUI ルートディレクトリへ戻る
cd ../..
ステップ 9:ComfyUI の起動
ComfyUI を起動します。
bash# ComfyUI を起動
python main.py
以下のメッセージが表示されれば成功です。
cssTo see the GUI go to: http://127.0.0.1:8188
ブラウザでアクセスしてみてください。
トラブルシューティング
インストール中によくあるエラーと、その解決方法をまとめました。
エラー 1:ModuleNotFoundError: No module named 'torch'
エラーコード: ModuleNotFoundError
エラーメッセージ:
vbnetModuleNotFoundError: No module named 'torch'
発生条件: PyTorch がインストールされていない、または仮想環境が有効化されていない場合に発生します。
解決方法:
- 仮想環境が有効化されているか確認する
- 有効化されていない場合は、
source venv/bin/activate(Mac/Linux)またはvenv\Scripts\activate(Windows)を実行 - PyTorch を再インストールする
bash# PyTorch を再インストール
pip install torch torchvision torchaudio
エラー 2:CUDA out of memory
エラーコード: RuntimeError
エラーメッセージ:
sqlRuntimeError: CUDA out of memory. Tried to allocate X.XX GiB
発生条件: GPU の VRAM が不足している場合に発生します。
解決方法:
- バッチサイズを小さくする
- 画像サイズを下げる
- モデルを軽量版に変更する
--lowvramまたは--novramオプションで起動する
bash# lowvram モードで起動
python main.py --lowvram
エラー 3:Address already in use
エラーコード: OSError
エラーメッセージ:
iniOSError: [Errno 48] Address already in use
発生条件: ポート 8188 が既に使用されている場合に発生します。
解決方法:
- 既存の ComfyUI プロセスを終了する
- 別のポートを指定して起動する
bash# ポート 8189 で起動
python main.py --port 8189
エラー 4:No checkpoints found
エラーメッセージ:
bashNo checkpoints found. Please place model files in models/checkpoints/
発生条件: モデルファイルが正しく配置されていない場合に発生します。
解決方法:
- モデルファイルの配置場所を確認する
- ファイル名が正しいか確認する(
.safetensorsまたは.ckpt) - ファイルのダウンロードが完全に完了しているか確認する
bash# checkpoints フォルダの内容を確認
ls models/checkpoints/
具体例
初回起動から画像生成までの流れ
ComfyUI を初めて起動した後、実際に画像を生成してみましょう。 ここでは、基本的なワークフローを使った生成手順を説明します。
以下の図は、画像生成の基本フローを示しています。
mermaidflowchart LR
load["モデル読込<br/>ノード"] --> prompt_p["正プロンプト<br/>ノード"]
load --> prompt_n["負プロンプト<br/>ノード"]
prompt_p --> sampler["サンプラー<br/>ノード"]
prompt_n --> sampler
sampler --> vae["VAE デコード<br/>ノード"]
vae --> save["画像保存<br/>ノード"]
save --> output["生成画像<br/>出力"]
ステップ 1:デフォルトワークフローの読み込み
ComfyUI を起動すると、デフォルトでワークフローが表示されます。 左側のパネルには、いくつかのノードが既に配置されているはずです。
もし何も表示されていない場合は、画面上部の「Load Default」をクリックしてください。
ステップ 2:モデルの選択
「Load Checkpoint」ノードを探しましょう。 このノードで、使用する AI モデルを選択します。
ノード内のドロップダウンをクリックし、先ほど配置した v1-5-pruned-emaonly.safetensors を選んでください。
ステップ 3:プロンプトの入力
「CLIP Text Encode (Prompt)」ノードが 2 つあります。
Positive(正)プロンプトには、生成したい画像の説明を入力します。
cssa beautiful landscape with mountains and a lake, sunset, highly detailed
Negative(負)プロンプトには、避けたい要素を入力しましょう。
blurry, low quality, distorted
ステップ 4:サンプリング設定
「KSampler」ノードで、生成のパラメータを設定します。
| # | パラメータ | 推奨値 | 説明 |
|---|---|---|---|
| 1 | seed | -1(ランダム) | 同じ値で再現可能 |
| 2 | steps | 20-30 | サンプリング回数 |
| 3 | cfg | 7-8 | プロンプト強度 |
| 4 | sampler_name | euler_a | サンプリング方法 |
| 5 | scheduler | normal | スケジューラー |
初めての場合は、デフォルト値のままでも大丈夫ですね。
ステップ 5:画像生成の実行
画面右側の「Queue Prompt」ボタンをクリックします。 生成が開始され、進行状況がコンソールに表示されるでしょう。
数十秒から数分で、「Save Image」ノード内に生成された画像が表示されます。 画像を右クリックして保存できますよ。
カスタムワークフローの作成例
基本的な生成に慣れたら、カスタムワークフローを作ってみましょう。 ここでは、アップスケール(高解像度化)を含むワークフローを作成します。
以下の図は、アップスケールを含むワークフローの構造です。
mermaidflowchart TB
load["モデル読込"] --> encode_p["正プロンプト<br/>エンコード"]
load --> encode_n["負プロンプト<br/>エンコード"]
encode_p --> sampler1["1回目<br/>サンプリング"]
encode_n --> sampler1
sampler1 --> vae1["VAE デコード"]
vae1 --> upscale["アップスケール<br/>(2x)"]
upscale --> vae2["VAE エンコード"]
vae2 --> sampler2["2回目<br/>サンプリング<br/>(高解像度)"]
encode_p --> sampler2
encode_n --> sampler2
sampler2 --> vae3["VAE デコード"]
vae3 --> save["画像保存"]
ノードの追加方法
画面上で右クリックすると、ノード追加メニューが表示されます。 「Add Node」→「image」→「upscale」→「ImageScale」を選択しましょう。
新しいノードが追加されたら、ドラッグして適切な位置に配置してください。
ノードの接続
ノードの出力端子から、次のノードの入力端子へドラッグして接続します。 線が繋がると、データが流れる経路が視覚化されますね。
パラメータの調整
「ImageScale」ノードで、アップスケール倍率を設定します。
| # | パラメータ | 値 | 説明 |
|---|---|---|---|
| 1 | upscale_method | lanczos | 補間方法 |
| 2 | scale_by | 2.0 | 拡大倍率 |
保存と再利用
作成したワークフローは、画面上部の「Save」から保存できます。 JSON 形式で保存され、次回は「Load」から読み込めますよ。
外部モデルの追加
ComfyUI では、Stable Diffusion 以外のモデルも使えます。 ここでは、人気のカスタムモデルを追加する方法を説明しますね。
モデルの入手先
主なモデル配布サイトは以下の通りです。
| # | サイト名 | URL | 特徴 |
|---|---|---|---|
| 1 | Hugging Face | https://huggingface.co/ | オープンソースモデル多数 |
| 2 | Civitai | https://civitai.com/ | コミュニティ製モデル |
| 3 | ModelScope | https://modelscope.cn/ | 中国発のモデル共有 |
ダウンロードと配置
例として、Civitai から「Realistic Vision」をダウンロードしましょう。
- Civitai にアクセスし、モデルページへ移動
- 「Download」ボタンをクリック
.safetensorsファイルをComfyUI/models/checkpoints/に配置
ComfyUI を再起動すると、新しいモデルがドロップダウンに表示されます。
LoRA の追加
LoRA(Low-Rank Adaptation)は、モデルに追加できる小型の拡張ファイルです。 特定のスタイルやキャラクターを強化できますよ。
LoRA ファイルは、以下のフォルダに配置してください。
bashComfyUI/models/loras/
ワークフローで LoRA を使うには、「Load LoRA」ノードを追加します。 ノード内のドロップダウンから、配置した LoRA ファイルを選択しましょう。
カスタムノードのインストール
ComfyUI の機能を拡張するカスタムノードも利用できます。 ここでは、人気の「ComfyUI Manager」をインストールしてみましょう。
ComfyUI Manager とは
ComfyUI Manager は、カスタムノードを簡単にインストール・管理できるツールです。 ブラウザ上から操作できるため、コマンドラインが不要になりますね。
インストール手順
ComfyUI のディレクトリで、以下のコマンドを実行します。
bash# custom_nodes フォルダへ移動
cd custom_nodes
bash# ComfyUI Manager をクローン
git clone https://github.com/ltdrdata/ComfyUI-Manager.git
bash# ComfyUI ルートディレクトリへ戻る
cd ..
ComfyUI を再起動すると、画面右側に「Manager」ボタンが表示されます。
カスタムノードの検索とインストール
「Manager」ボタンをクリックし、「Install Custom Nodes」を選びましょう。 検索バーで欲しいノードを探し、「Install」をクリックするだけです。
インストール後は、ComfyUI の再起動が必要な場合があります。
まとめ
ComfyUI のインストールは、一見複雑に見えますが、手順を追えば確実にできます。 Windows、Mac、Linux のそれぞれで、基本的な流れは共通していますね。
重要なポイントをまとめると、以下の通りです。
環境準備では、Python 3.10/3.11 と Git が必須でした。 OS ごとにインストール方法は異なりますが、公式サイトやパッケージマネージャーを使えば簡単です。
GPU 環境は、処理速度に大きく影響します。 NVIDIA、AMD、Apple Silicon のそれぞれで、適切な PyTorch バージョンを選びましょう。
モデルファイルの配置は、初めての方が迷いやすいポイントですね。
models/checkpoints/ フォルダに .safetensors ファイルを置けば認識されます。
トラブルシューティングでは、よくあるエラーと解決方法を紹介しました。 エラーメッセージをよく読み、該当する対処法を試してみてください。
ComfyUI は、ノードベースの柔軟なワークフローにより、創造性を最大限に発揮できるツールです。 インストールが完了したら、ぜひ様々なワークフローを試して、自分だけの画像生成パイプラインを作ってみてくださいね。
今後、新しいモデルやカスタムノードも続々と登場するでしょう。 ComfyUI のコミュニティは活発なので、最新情報をチェックしながら楽しんでください。
関連リンク
以下のリンクから、さらに詳しい情報を入手できます。
articleComfyUI のインストール完全ガイド:Windows/Mac/Linux 別・最短手順
articleComfyUI とは?ノードベースで組む最新画像生成ワークフローを完全解説【2025 年版】
articleCursor の自動テスト生成を検証:Vitest/Jest/Playwright のカバレッジ実測
articleDevin 運用ポリシー策定ガイド:利用権限・レビュー必須条件・ログ保存期間
articleCline × Claude/GPT/Gemini モデル比較:長文理解とコード品質の相性
articleClaude Code が編集差分を誤検出する時:競合・改行コード・改フォーマット問題の直し方
articleConvex で「Permission denied」多発時の原因特定:認可/コンテキスト/引数を総点検
articleBun コマンド チートシート:bun install/run/x/test/build 一括早見表
blogiPhone 17シリーズの発表!全モデルiPhone 16から進化したポイントを見やすく整理
blogGoogleストアから訂正案内!Pixel 10ポイント有効期限「1年」表示は誤りだった
blog【2025年8月】Googleストア「ストアポイント」は1年表記はミス?2年ルールとの整合性を検証
blogGoogleストアの注文キャンセルはなぜ起きる?Pixel 10購入前に知るべき注意点
blogPixcel 10シリーズの発表!全モデル Pixcel 9 から進化したポイントを見やすく整理
blogフロントエンドエンジニアの成長戦略:コーチングで最速スキルアップする方法
review今の自分に満足していますか?『持たざる者の逆襲 まだ何者でもない君へ』溝口勇児
reviewついに語られた業界の裏側!『フジテレビの正体』堀江貴文が描くテレビ局の本当の姿
review愛する勇気を持てば人生が変わる!『幸せになる勇気』岸見一郎・古賀史健のアドラー実践編で真の幸福を手に入れる
review週末を変えれば年収も変わる!『世界の一流は「休日」に何をしているのか』越川慎司の一流週末メソッド
review新しい自分に会いに行こう!『自分の変え方』村岡大樹の認知科学コーチングで人生リセット
review科学革命から AI 時代へ!『サピエンス全史 下巻』ユヴァル・ノア・ハラリが予見する人類の未来