生成AI 用 自作PC|Stable Diffusion XL とローカル LLM の最適構成 2026年版
Stable Diffusion XL(SD XL)でのローカル画像生成と Llama 3 13B / Qwen 2.5 等のローカル LLM を快適に動かす自作PC を解説。VRAM 16GB クラス GPU・メモリ 64GB・SSD 2TB・電源 750W が必須な理由をベンチで裏付け。
※ 本記事はアフィリエイト広告(Amazon アソシエイト等)を含みます
ChatGPT・Claude のクラウド AI が広がる中で、機密データを社外に出せない・API 課金を抑えたい・オフラインで使いたい というニーズで ローカル AI を運用する人が急増中。本記事では Stable Diffusion XL(SD XL) と Llama 3 / Qwen 2.5 等のローカル LLM を快適に動かすローカル AI 専用自作PC の構成を、VRAM・メモリ・SSD の要件から逆算して設計します。
この記事の要点
- VRAM 16GB が境界線:SD XL Hires.fix・Llama 3 13B Q4 はここから動く
- VRAM 24GB(RTX 4090):70B 級 LLM の量子化版や FLUX 系画像 AI に必要
- メモリ 64GB 必須:モデルロード時にシステム RAM も大量消費
- SSD 2TB 以上:モデルファイルは 1 つ 5〜30GB、コレクションは 数百 GB に
- 電源 750W 以上:GPU + CPU で 600W ピーク使用は珍しくない
1. ローカル AI のリソース要件
Stable Diffusion 系
| 評価項目 | モデル | 1024×1024 生成 | Hires.fix(2x) | 推奨 VRAM |
|---|---|---|---|---|
| SD 1.5(512×512) | 3GB | 6GB | 6GB | |
| SDXL Base | 8GB | 14GB | 12GB | |
| SDXL + Refiner | 10GB | 16GB | 16GB | |
| SDXL Turbo | 6GB | 10GB | 10GB | |
| FLUX.1 Dev | 12GB | 20GB | 16GB+ | |
| Pony Diffusion XL | 10GB | 16GB | 16GB |
ローカル LLM 系
| 評価項目 | モデル | Q4 量子化 | Q8 量子化 | FP16 |
|---|---|---|---|---|
| Llama 3.1 8B | 6GB | 10GB | 16GB | |
| Llama 3.1 13B | 10GB | 16GB | 26GB | |
| Qwen 2.5 14B | 10GB | 16GB | 28GB | |
| Llama 3.3 70B(Q4 のみ実用) | 40GB | 70GB | 140GB | |
| DeepSeek R1 Distill 32B | 20GB | 32GB | 64GB |
→ VRAM 16GB あれば SD XL + Llama 3 13B Q4 + Qwen 2.5 14B Q4 までこなせる。これが本記事推奨の境界線。
2. 本命構成(合計 約 28〜32 万円)
| パーツ | 製品名 | 価格 | メモ | リンク |
|---|---|---|---|---|
| CPU | AMD Ryzen 9 7900 BOX(12C/24T) | ¥65,000 | モデルロード・前処理に効く | Amazon |
| CPUクーラー | Noctua NH-U12A | ¥14,000 | 深夜の連続生成にも静音 | Amazon |
| マザボ | ASUS ProArt B650-CREATOR | ¥30,000 | PCIe 5.0 ×16・M.2×3 | Amazon |
| メモリ | Crucial DDR5-5600 64GB(32GB×2) | ¥50,000 | モデルロード時のシステム RAM 確保 | Amazon |
| SSD | Crucial T500 2TB Gen4 NVMe | ¥28,000 | モデルコレクションで 1TB はすぐ枯渇 | Amazon |
| GPU | MSI GeForce RTX 4060 Ti 16GB VENTUS | ¥80,000 | VRAM 16GB が SD XL・LLM 13B Q4 の境界 | Amazon |
| 電源 | Corsair RM750x(2024)80+ Gold | ¥17,000 | 10年保証・余裕の 750W | Amazon |
| ケース | Fractal Design Define 7 Compact | ¥21,000 | GPU 長対応・静音 | Amazon |
| OS | Windows 11 Pro DSP | ¥17,000 | Pro 化 | Amazon |
※ 価格は記事執筆時点の公開情報に基づく目安。最新価格は各販売店でご確認ください。アフィリエイトリンクを含みます。
3. もっと本格的なら:RTX 4090(VRAM 24GB)構成
4. ソフトウェア別の選び方
画像生成(Stable Diffusion XL)
| ツール | 主な特徴 | 推奨 VRAM |
|---|---|---|
| AUTOMATIC1111(A1111) | 老舗 WebUI、拡張機能豊富 | 8GB+(XL なら 12GB+) |
| ComfyUI | ノードベース、メモリ効率良 | 8GB+(XL なら 10GB+) |
| Forge | A1111 派生、低 VRAM 環境向き | 6GB+(XL なら 10GB+) |
| Invoke AI | 商用利用前提の UI | 8GB+ |
→ VRAM 16GB あれば全ツールで XL を不便なく扱える。
ローカル LLM
| ツール | 主な特徴 | おすすめ環境 |
|---|---|---|
| Ollama(CLI 中心) | 簡単導入・モデル切替容易 | Windows/Mac/Linux |
| LM Studio(GUI) | 非エンジニアでも扱える | Windows/Mac |
| llama.cpp | 軽量・カスタマイズ性 | 上級者向け |
| text-generation-webui | A1111 的 UI・拡張多数 | カスタマイズ重視 |
→ 初心者は LM Studio、エンジニア層は Ollama or llama.cpp が定番。
5. クラウド AI(Claude / ChatGPT)との使い分け
6. よくある質問
Q1. RTX 4070 SUPER(VRAM 12GB)で SDXL は動く?
A. 動きますが境界線。1024×1024 生成は OK、Hires.fix(2倍 = 2048×2048)でメモリ枯渇エラー出ることあり。16GB に格上げが安全。詳しくは RTX 4060 Ti 16GB vs RTX 4070 SUPER で。
Q2. メモリ 32GB でも生成 AI 動きますか?
A. SD XL のみなら 32GB で動作。ただ モデルロード時にシステム RAM 30GB 超え することもあるので、Chrome やブラウザを閉じる必要あり。64GB ならストレスフリー。
Q3. SSD 1TB で足りる?
A. 足りません。SDXL のチェックポイントだけで 1 つ 6〜7GB、LoRA は 100〜800MB、LLM は 4〜30GB/個。気付けば 3 ヶ月で 1TB 枯渇。2TB スタートが現実的。
Q4. AMD GPU(Radeon RX 7900 XTX 24GB)はどう?
A. ROCm(AMD 版 CUDA 互換)対応が進んでいるが、ツール対応・安定性・コミュニティのナレッジ蓄積で NVIDIA が圧倒的に有利。生成 AI 目的なら NVIDIA 一択。
Q5. M2 Ultra Mac でも生成 AI できる?
A. ユニファイドメモリで 70B モデルも動きますが、性能は RTX 4090 の半分以下。研究用途なら可、本気の生成速度は Windows + NVIDIA。
まとめ
生成AI 用自作 PC の優先順位:
- ✅ GPU VRAM 容量(16GB が実用境界、24GB で本格運用)
- ✅ メモリ 64GB(モデルロードのシステム RAM 確保)
- ✅ SSD 2TB Gen4(モデルコレクションの肥大化に対応)
- ✅ 電源 750W 以上(GPU + CPU ピーク 600W 想定)
- ✅ CPU は Ryzen 9 7900 で十分(生成中は GPU が主役)
コスパ重視 28〜32 万円構成で SD XL + Llama 3 13B Q4 まで快適。本格運用 50 万円構成で 70B LLM や FLUX 系まで対応。Claude Code・ChatGPT で足りるなら 予算 25 万円ビジネス機 で十分という判断もアリです。