構成例・予算別 (更新:2026-05-07)

生成AI 用 自作PC|Stable Diffusion XL とローカル LLM の最適構成 2026年版

Stable Diffusion XL(SD XL)でのローカル画像生成と Llama 3 13B / Qwen 2.5 等のローカル LLM を快適に動かす自作PC を解説。VRAM 16GB クラス GPU・メモリ 64GB・SSD 2TB・電源 750W が必須な理由をベンチで裏付け。

生成AI 用 自作PC|Stable Diffusion XL とローカル LLM の最適構成 2026年版 のサムネイル画像

※ 本記事はアフィリエイト広告(Amazon アソシエイト等)を含みます

ChatGPT・Claude のクラウド AI が広がる中で、機密データを社外に出せないAPI 課金を抑えたいオフラインで使いたい というニーズで ローカル AI を運用する人が急増中。本記事では Stable Diffusion XL(SD XL)Llama 3 / Qwen 2.5 等のローカル LLM を快適に動かすローカル AI 専用自作PC の構成を、VRAM・メモリ・SSD の要件から逆算して設計します。

この記事の要点

  • VRAM 16GB が境界線:SD XL Hires.fix・Llama 3 13B Q4 はここから動く
  • VRAM 24GB(RTX 4090):70B 級 LLM の量子化版や FLUX 系画像 AI に必要
  • メモリ 64GB 必須:モデルロード時にシステム RAM も大量消費
  • SSD 2TB 以上:モデルファイルは 1 つ 5〜30GB、コレクションは 数百 GB に
  • 電源 750W 以上GPU + CPU で 600W ピーク使用は珍しくない

1. ローカル AI のリソース要件

Stable Diffusion 系

Stable Diffusion モデル別の VRAM 消費
評価項目
モデル
1024×1024 生成
Hires.fix(2x)
推奨 VRAM
SD 1.5(512×512) 3GB 6GB 6GB
SDXL Base 8GB 14GB 12GB
SDXL + Refiner 10GB 16GB 16GB
SDXL Turbo 6GB 10GB 10GB
FLUX.1 Dev 12GB 20GB 16GB+
Pony Diffusion XL 10GB 16GB 16GB
Hires.fix(2倍解像度仕上げ)まで実用域に入れるなら VRAM 16GB が境界線。

ローカル LLM 系

ローカル LLM 量子化別の VRAM 消費
評価項目
モデル
Q4 量子化
Q8 量子化
FP16
Llama 3.1 8B 6GB 10GB 16GB
Llama 3.1 13B 10GB 16GB 26GB
Qwen 2.5 14B 10GB 16GB 28GB
Llama 3.3 70B(Q4 のみ実用) 40GB 70GB 140GB
DeepSeek R1 Distill 32B 20GB 32GB 64GB
Q4(4bit 量子化)で大幅に VRAM 圧縮できるが、品質も少し落ちる。13B Q4 が VRAM 16GB の本命。

VRAM 16GB あれば SD XL + Llama 3 13B Q4 + Qwen 2.5 14B Q4 までこなせる。これが本記事推奨の境界線。

2. 本命構成(合計 約 28〜32 万円)

生成AI 用 25 万円構成(VRAM 16GB ライン)
目標 ¥300,000 合計 ¥322,000
パーツ 製品名 価格 メモ リンク
CPU AMD Ryzen 9 7900 BOX(12C/24T) ¥65,000 モデルロード・前処理に効く Amazon
CPUクーラー Noctua NH-U12A ¥14,000 深夜の連続生成にも静音 Amazon
マザボ ASUS ProArt B650-CREATOR ¥30,000 PCIe 5.0 ×16・M.2×3 Amazon
メモリ Crucial DDR5-5600 64GB(32GB×2) ¥50,000 モデルロード時のシステム RAM 確保 Amazon
SSD Crucial T500 2TB Gen4 NVMe ¥28,000 モデルコレクションで 1TB はすぐ枯渇 Amazon
GPU MSI GeForce RTX 4060 Ti 16GB VENTUS ¥80,000 VRAM 16GB が SD XL・LLM 13B Q4 の境界 Amazon
電源 Corsair RM750x(2024)80+ Gold ¥17,000 10年保証・余裕の 750W Amazon
ケース Fractal Design Define 7 Compact ¥21,000 GPU 長対応・静音 Amazon
OS Windows 11 Pro DSP ¥17,000 Pro 化 Amazon
価格は 2026-05-07 時点・kakaku.com 概算。Linux 運用なら OS 費 -17,000 円。Amazon リンクは商品名検索ベース(推測 ASIN は使用していません)。

※ 価格は記事執筆時点の公開情報に基づく目安。最新価格は各販売店でご確認ください。アフィリエイトリンクを含みます。

3. もっと本格的なら:RTX 4090(VRAM 24GB)構成

4. ソフトウェア別の選び方

画像生成(Stable Diffusion XL)

ツール主な特徴推奨 VRAM
AUTOMATIC1111(A1111)老舗 WebUI、拡張機能豊富8GB+(XL なら 12GB+)
ComfyUIノードベース、メモリ効率良8GB+(XL なら 10GB+)
ForgeA1111 派生、低 VRAM 環境向き6GB+(XL なら 10GB+)
Invoke AI商用利用前提の UI8GB+

VRAM 16GB あれば全ツールで XL を不便なく扱える

ローカル LLM

ツール主な特徴おすすめ環境
Ollama(CLI 中心)簡単導入・モデル切替容易Windows/Mac/Linux
LM Studio(GUI)非エンジニアでも扱えるWindows/Mac
llama.cpp軽量・カスタマイズ性上級者向け
text-generation-webuiA1111 的 UI・拡張多数カスタマイズ重視

初心者は LM Studio、エンジニア層は Ollama or llama.cpp が定番。

5. クラウド AI(Claude / ChatGPT)との使い分け

6. よくある質問

Q1. RTX 4070 SUPER(VRAM 12GB)で SDXL は動く?

A. 動きますが境界線。1024×1024 生成は OK、Hires.fix(2倍 = 2048×2048)でメモリ枯渇エラー出ることあり。16GB に格上げが安全。詳しくは RTX 4060 Ti 16GB vs RTX 4070 SUPER で。

Q2. メモリ 32GB でも生成 AI 動きますか?

A. SD XL のみなら 32GB で動作。ただ モデルロード時にシステム RAM 30GB 超え することもあるので、Chrome やブラウザを閉じる必要あり。64GB ならストレスフリー

Q3. SSD 1TB で足りる?

A. 足りません。SDXL のチェックポイントだけで 1 つ 6〜7GB、LoRA は 100〜800MB、LLM は 4〜30GB/個。気付けば 3 ヶ月で 1TB 枯渇。2TB スタートが現実的。

Q4. AMD GPU(Radeon RX 7900 XTX 24GB)はどう?

A. ROCm(AMD 版 CUDA 互換)対応が進んでいるが、ツール対応・安定性・コミュニティのナレッジ蓄積で NVIDIA が圧倒的に有利。生成 AI 目的なら NVIDIA 一択。

Q5. M2 Ultra Mac でも生成 AI できる?

A. ユニファイドメモリで 70B モデルも動きますが、性能は RTX 4090 の半分以下。研究用途なら可、本気の生成速度は Windows + NVIDIA。

まとめ

生成AI 用自作 PC の優先順位:

  1. GPU VRAM 容量(16GB が実用境界、24GB で本格運用)
  2. メモリ 64GB(モデルロードのシステム RAM 確保)
  3. SSD 2TB Gen4(モデルコレクションの肥大化に対応)
  4. 電源 750W 以上(GPU + CPU ピーク 600W 想定)
  5. CPU は Ryzen 9 7900 で十分(生成中は GPU が主役)

コスパ重視 28〜32 万円構成で SD XL + Llama 3 13B Q4 まで快適。本格運用 50 万円構成で 70B LLM や FLUX 系まで対応。Claude Code・ChatGPT で足りるなら 予算 25 万円ビジネス機 で十分という判断もアリです。

出典・参考情報