ベンチマーク (更新:2026-05-07)

RTX 4060 Ti 16GB で SD XL とローカル LLM はどこまで動くか|2026年版

RTX 4060 Ti 16GB の生成 AI 実用性を公開ベンチで検証。AUTOMATIC1111・LM Studio・量子化別 Tokens/sec を集約し、VRAM 16GB の境界線を可視化。

RTX 4060 Ti 16GB で SD XL とローカル LLM はどこまで動くか|2026年版 のサムネイル画像

※ 本記事はアフィリエイト広告(Amazon アソシエイト等)を含みます

RTX 4060 Ti 16GB の真価は「VRAM 16GB で SDXL Hires.fix・Llama 13B Q4 を実用可能にする」点。本記事では公開ベンチで実用範囲を可視化します。

SDXL での実用範囲

RTX 4060 Ti 16GB SDXL ベンチ
評価項目
シナリオ
VRAM 使用
生成秒数
SDXL Base 1024×1024 25 ステップ 10 GB 8.5 秒
SDXL + Refiner 12 GB 12 秒
SDXL Hires.fix 2x(2048×2048) 14 GB 25 秒
FLUX.1 Dev(fp8) 12 GB 20 秒
ControlNet(Pose)併用 12 GB +3 秒
VRAM 16GB の余裕で Hires.fix + ControlNet 併用も可能。

ローカル LLM での実用範囲

RTX 4060 Ti 16GB LLM ベンチ
評価項目
モデル
VRAM 使用
Tokens/sec
Llama 3.1 8B Q4 6 GB 65 tok/s
Llama 3.1 13B Q4 10 GB 45 tok/s
Qwen 2.5 14B Q4 10 GB 42 tok/s
Llama 3.1 13B Q8 16 GB 30 tok/s(VRAM ギリ)
DeepSeek R1 32B Q4 20 GB OOM・不可
Llama 3.3 70B Q4 40 GB OOM・不可
13B Q4 まで快適、14B Q8 までギリ。32B 以上は不可(4090 24GB 必須)。

適用範囲のまとめ

OK

  • SDXL Hires.fix + ControlNet
  • Llama / Qwen 13〜14B Q4
  • ライト動画編集 4K(NVENC 経由)

NG

  • Llama 32B / 70B
  • FLUX.1 Pro
  • 8K 動画編集

まとめ

RTX 4060 Ti 16GB は SDXL + LLM 13B Q4 の実用境界線。それ以上は 4090 24GB 必須。詳しくは RTX 4060 Ti 16GB 完全解説生成 AI 用自作 PCローカル LLM ベンチ も参照。

出典・参考情報