#ローカルLLM
3 件の記事
2026-09-25 ・ ベンチマーク
RTX 4060 Ti 16GB で SD XL とローカル LLM はどこまで動くか|2026年版
RTX 4060 Ti 16GB の生成 AI 実用性を公開ベンチで検証。AUTOMATIC1111・LM Studio・量子化別 Tokens/sec を集約し、VRAM 16GB の境界線を可視化。
2026-09-08 ・ ベンチマーク
ローカル LLM ベンチマーク|Llama 3.1 8B/13B/70B Tokens/sec 2026年版
ローカル LLM(Llama 3.1・Qwen 2.5・DeepSeek R1)の GPU 別 Tokens/sec を集約。LM Studio / Ollama / llama.cpp の量子化別速度を主要 GPU で比較。
2026-07-14 ・ 構成例・予算別
生成AI 用 自作PC|Stable Diffusion XL とローカル LLM の最適構成 2026年版
Stable Diffusion XL(SD XL)でのローカル画像生成と Llama 3 13B / Qwen 2.5 等のローカル LLM を快適に動かす自作PC を解説。VRAM 16GB クラス GPU・メモリ 64GB・SSD 2TB・電源 750W が必須な理由をベンチで裏付け。