AI処理と必要なGPU環境【2025年度】

ローカル環境でAIを動かすことにロマンを感じる人です。昨今のハードウェア事情に疎かったため、GPU性能と扱えるAIモデルをまとめてみました。

VRAM容量

生成AIにはVRAMの容量が重要

画像生成AIやLLMのモデルは数GB~数十GBのパラメータを持っている。これをまるごとVRAMに載せられないと高速処理ができない。

7B(70億パラメータ)のモデルは
float16(2バイト)で約14GB → 4bit量子化して約4GB前後

また推論中の中間データが一時的にVRAMを占有するため、モデル本体とは別に容量の余裕が必要になる。
※量子化とは重み(パラメータ)を通常の16bitや32bitではなく4bit(16段階)に丸めて圧縮する手法。

画像生成AIモデル

VRAM容量解像度対象GPU
4GB~8GB512×512GeForce RTX 3070
8GB~10GB768×768GeForce RTX 4070
12GB~16GB1024×1024GeForce RTX 5070 Ti
GeForce RTX 4090
GeForce RTX 5090

LLMモデル

VRAM容量パラメータ数対象GPU
4GB~6GB3B(30億パラメータ)GeForce RTX 3070
8GB~10GB7BGeForce RTX 4070
12GB~16GB13BGeForce RTX 5080
GeForce RTX 5070 Ti
GeForce RTX 4090
24GB~30BGeForce RTX 5090

VRAMが不足した場合

CPU/SSDへオフロードすることになり、処理が激遅になる。

発売されているGPUとVRAM

製品名VRAM容量メモリと速度発売時期価格(2025/11)
GeForce RTX 30708GBGDDR6 (448GB/s)2020/9
GeForce RTX 407012GBGDDR6 (480GB/s)2023/4約9万円
GeForce RTX 409024GBGDDR6 (1008GB/s)2022/9約30万円
GeForce RTX 5070 Ti16GBGDDR7 (896GB/s)2025/1約16万円
GeForce RTX 508016GBGDDR7 (960GB/s)2025/1約20万円
GeForce RTX 509032GBGDDR7 (1792GB/s)2025/1約60万円

自分が所有しているVRAM12GBのRTX4070は画像生成AIは768×768あたり、LLMは7Bあたりまでを快適に実行できる。やはりRTX4090が欲しくなりますね・・。

処理速度

処理速度に関してはTensorコアやCUDAコアの数と世代に依存する。

製品名コア名コアクロック(MHz)CUDAコア数Tensorコア数AI TOPS消費電力(W)
RTX 3070GA104(8nm)1500-17255888184163220
RTX 4070AD104(4nm)1920-24755888184466200
RTX 4090AD102(4nm)2235-2520163845121321450
RTX 5070 TiGB203(4nm)2295-245289602801406300
RTX 5080GB203(4nm)2295-2617107523361801360
RTX 5090GB202(4nm)2017-2407217606803352575

TOPSとは

AI対応PCの性能指標に使われるTOPSという単位。(Microsoftが発表したCopilot+ PCの性能要件は40TOPS)
これは1秒間に何兆回の整数演算ができるかを表している。AI分野におけるTOPSは8-bit精度(INT8)の整数演算の回数を表す。

参考
https://www.nvidia.com/ja-jp/geforce/graphics-cards/50-series/

タイトルとURLをコピーしました