RTX PRO 5000 Blackwellを購入しました。GeForce RTX 5070Tiからの乗り換えです。ローカル生成AIを始めたのはほんの4カ月前ぐらいなんですが、異例の速さで大金を使うことになりました。数年前まではGPUに10万円以上とかないでしょ、という感覚でしたが・・。
購入までの流れ
ローカルLLMにおいてVRAM容量は正義、ということで業務用GPUを調べることにしたんですが、RTX PROシリーズは全くと言っていいほどネット上にレビューが見つかりませんでした。RTX PROを買う個人なんてマイノリティなのかもしれません。職場ではQuadro系を使ってきたので馴染みはありましたが、高額なので個人で買おうと思ったことはなかったです。
GPU比較はこちら
RTX PROとGeForce RTXの違い【2025年度】

他の選択肢で悩んだのはGeForce RTX 5090でした。
| 製品名 | VRAM容量 | メモリと速度 | 消費電力 | Tensorコア数 | 価格(2025/12) |
| GeForce RTX 5070 Ti | 16GB | GDDR7 (896GB/s) | 300W | 280 | 約16万円 |
| RTX PRO 4500 Blackwell | 24GB | GDDR7 (896GB/s) | 200W | 280 | 約48万円 |
| GeForce RTX 5090 | 32GB | GDDR7 (1792GB/s) | 575W | 680 | 約60万円 |
| RTX PRO 5000 Blackwell | 48GB | GDDR7 (1344GB/s) | 300W | 400 | 約78万円 |
| NVIDIA RTX PRO 6000 Blackwell Workstation Edition | 96GB | GDDR7 (1792GB/s) | 600W | 752 | 約150万円 |
表を見てもらえるとわかりますが、なかなか絶妙な感じです。最高出力ならRTX 5090ですが、VRAM容量と消費電力の大きさ、カードの物理的な大きさがどうも引っ掛かりました。そもそも数量が少ないので購入も難しく、現在購入できるものでも60万円ぐらいするので、それならもう少し頑張ってRTX PRO 5000にしようかなと思いました。VRAMが48GBもあればだいぶ余裕が生まれます。
GeForce RTXの時期シリーズを来年まで待つ、という選択肢もありましたが、AIデーターセンター需要の影響でメモリ価格が高騰しているこのご時世、先がどうなるかが不透明なので、機会損失を考えたら今買ってしまったほうがいいと思いました。生成AIの世界は1年が濃密なので。

自分の需要としては
・様々な生成AIモデルを片っ端から試してみたい
・ローカルLLMを常に起動した状態にして一緒に何かの作業をしたい
・サーバーにして他のPCからリモートでアクセスしたい
といった感じだったのでRTX PRO 5000へ辿り着いたのも自然な流れだったかなと思います。生成AIは90年代のPCや3Dゲーム、インターネット以来、久々に胸が躍るイベントなので、あまりお金をケチって機会損失をしたくはないのですよね。
職場でも新しい技術をワークフローに取り入れるポジションなのでもしかしたら無駄にはならないかもしれない。今のところは趣味でやってますけど。
使用感
生成AIに詳しくないのでどうベンチマークを取れば知らないのでこれから調べますが、体感を書いておきます。
画像生成AI
厳密にベンチマークをしたわけではないですが、画像生成の時間を比較しました。
| SDXL 1200 x 896 | Z-Image Turbo 1280 x 960 | |
| GeForce RTX 4070 / VRAM 12GB | 10.9秒 | – |
| GeForce RTX 5070 Ti / VRAM 16GB | 7.1秒 | 10.5秒 |
| RTX PRO 5000 Blackwell / VRAM 48GB | 4.5秒 | 4.5秒 |
だいぶ速くなった感覚があります。
ローカルLLM
ローカルLLMも快適になりました。30B級のLLMはスラスラと返答してくれます。
| モデル規模 | モデル | 体感速度 |
| 20B級 | gpt-oss-20b(12.11GB) / OpenAI(2025-8) | 速い |
| 30B級 | Nemotron 3 Nano(24.5GB) / nVidia(2025-12) | 速い |
| Qwen3-VL-30B(Q4_K_M, 19.64GB) / Alibaba(2025-10) | 速い | |
| 70B級 | Qwen3-Next-80B(Q4_K_M, 48.4GB) / Alibaba(2025-9) | VRAMから溢れるが、許容できる速度 |
VRAMに収まるのは大事なんだと実感しました。llama-benchはいつかやります。
感想
最終的な感想はもう少し使ってから別の記事で書きます。
余談ですが、いままで買ったGPUすべてを合計しても今回の1枚には届かないだろうなと思いました。nVidiaの粗利益が7割らしいので、相当お布施している気分です。独占はよくないですね。

