🟢 GPU 系
CUDA コア
NVIDIA GPU内の汎用並列演算ユニット。
別名・略称: CUDA Core クーダコア シェーダーコア(NVIDIA)
🧾 概要
NVIDIA GPU内の汎用並列演算ユニット。
何ができるか
- 3Dグラフィックスのシェーダー処理を担う
- 機械学習・科学計算を高速並列処理する
- 物理シミュレーション・流体計算を行う
- 動画編集のエフェクト処理を加速する
特徴
- 数千個単位で搭載される(4060 Tiで約4,352基)
- CUDA言語・cuDNN・PyTorchから直接利用可能
- 1コアは単純な演算しかできないが大量並列で高性能
- 世代ごとに1コアあたりの性能も向上
図解
[GPU チップ]
├─ SM (Streaming Multiprocessor) × 多数
│ ├─ CUDA コア × 128
│ ├─ Tensor コア × 4
│ ├─ RT コア × 1
│ └─ L1 キャッシュ
└─ L2 キャッシュ ─ VRAM
仕組み
- SIMT(Single Instruction Multiple Threads)方式で並列実行
- 32スレッド単位(Warp)で同期動作
- VRAMからデータを取得して演算結果を書き戻す
- CPUと比較して数値演算スループットが圧倒的に高い
構成要素 / 種別
- FP32 / FP16ユニット — 浮動小数点演算
- INT32ユニット — 整数演算
- Tensor コア — AI行列演算専用(CUDA コアとは別)
- RT コア — レイトレーシング専用(CUDA コアとは別)
■ ユースケース
- 実務:CUDA活用ソフト(PyTorch/TensorFlow/Blender等)で性能を発揮
- 比較・選定:GPU選定ガイド
■ 関連用語
- GPU — CUDA コアを内包
- GeForce — NVIDIAのGPUブランド
- VRAM — CUDA コアが処理するデータの置き場
- レイトレーシング — RT コアが担当(CUDA コアとは別)
■ 関連サイト・詳細な文書
- NVIDIA CUDA 公式 — CUDA開発者向け情報
- NVIDIA GeForce RTX 公式 — 各モデルのCUDA コア数