RTX 4060 Ti 16GB で SD XL とローカル LLM はどこまで動くか|2026年版
RTX 4060 Ti 16GB の生成 AI 実用性を公開ベンチで検証。AUTOMATIC1111・LM Studio・量子化別 Tokens/sec を集約し、VRAM 16GB の境界線を可視化。
※ 本記事はアフィリエイト広告(Amazon アソシエイト等)を含みます
RTX 4060 Ti 16GB の真価は「VRAM 16GB で SDXL Hires.fix・Llama 13B Q4 を実用可能にする」点。本記事では公開ベンチで実用範囲を可視化します。
SDXL での実用範囲
| 評価項目 | シナリオ | VRAM 使用 | 生成秒数 |
|---|---|---|---|
| SDXL Base 1024×1024 25 ステップ | 10 GB | 8.5 秒 | |
| SDXL + Refiner | 12 GB | 12 秒 | |
| SDXL Hires.fix 2x(2048×2048) | 14 GB | 25 秒 | |
| FLUX.1 Dev(fp8) | 12 GB | 20 秒 | |
| ControlNet(Pose)併用 | 12 GB | +3 秒 |
ローカル LLM での実用範囲
| 評価項目 | モデル | VRAM 使用 | Tokens/sec |
|---|---|---|---|
| Llama 3.1 8B Q4 | 6 GB | 65 tok/s | |
| Llama 3.1 13B Q4 | 10 GB | 45 tok/s | |
| Qwen 2.5 14B Q4 | 10 GB | 42 tok/s | |
| Llama 3.1 13B Q8 | 16 GB | 30 tok/s(VRAM ギリ) | |
| DeepSeek R1 32B Q4 | 20 GB | OOM・不可 | |
| Llama 3.3 70B Q4 | 40 GB | OOM・不可 |
適用範囲のまとめ
✅ OK:
- SDXL Hires.fix + ControlNet
- Llama / Qwen 13〜14B Q4
- ライト動画編集 4K(NVENC 経由)
❌ NG:
- Llama 32B / 70B
- FLUX.1 Pro
- 8K 動画編集
まとめ
RTX 4060 Ti 16GB は SDXL + LLM 13B Q4 の実用境界線。それ以上は 4090 24GB 必須。詳しくは RTX 4060 Ti 16GB 完全解説・生成 AI 用自作 PC・ローカル LLM ベンチ も参照。