RTX5060Ti16GB 投稿
RTX5060Ti16GB - 1黄昏のゲーマー 2025/08/23(土) 08時35分38秒
- を買おうか迷ってるんだけど、どう思いますか
16GBはもったいない8GBで充分だとか
- 17ヾ(゚д゚)ノ゛バカー 2025/08/24(日) 15時16分17秒
- よく考えたら新しいグラボがなくても困らないから買うのはやめた
- 18ヾ(゚д゚)ノ゛アホー 2025/08/24(日) 15時23分29秒
- 新しいグラボ買ったら片思いの彼女から告白されたって報告もありますよ
- 19ヾ(゚д゚)ノ゛バカー 2025/08/24(日) 15時26分59秒
- 宝くじは当たるわ、痔は治るわでいいことずくめですわ
- 20ヾ(゚д゚)ノ゛バカー 2025/08/24(日) 15時59分13秒
- AIで遊ぶんでもなければまだ行けそうだよな>980Ti
- 21ヾ(゚д゚)ノ゛アホー 2025/08/24(日) 16時12分33秒
- ローカルLLM を動かすにはメモリ何GB あればいいの?
- 22ChatGPT君に聞いてみた 2025/08/24(日) 16時56分52秒
- ローカルでLLM(大規模言語モデル)をPC上で動かす場合に必要なものを整理しますね。
⸻
🔧 必要なもの
1. PCのハードウェア
• CPU
→ 中規模モデル(7B〜13Bパラメータ程度)なら最新のマルチコアCPUでも動作可能。ただし推論速度は遅い。
• GPU(推奨)
→ NVIDIA GPU(CUDA対応、VRAM 8GB以上)が一般的。大きなモデルほどVRAMが必要。
→ 例:
• 7Bモデル → VRAM 6〜8GB
• 13Bモデル → VRAM 12〜16GB
• 30B以上 → VRAM 24GB〜 or CPU/RAMで分散推論
• メモリ(RAM)
→ CPUで動かす場合はモデルサイズと同等かそれ以上のメモリが必要。
• 7B → 8〜16GB
• 13B → 16〜32GB
• 30B → 64GB以上
• ストレージ
→ モデルファイルは数GB〜数十GB。SSD推奨。
なるほど
- 23なるほど 2025/08/24(日) 17時01分38秒
- いい環境ですね!🎉
Ryzen 7 2700X + GTX 980 Ti + RAM 32GB なら、ローカルLLMを動かすのに十分な性能があります。
⸻
🔍 スペックから考える
• GPU: GTX 980 Ti (6GB VRAM)
→ VRAMが6GBなので、7Bモデルの量子化版(int4/ int8)ならギリギリ動作可能。
→ 13B以上はVRAM不足なので CPU + RAMで動かす必要あり。
• CPU: Ryzen 7 2700X (8コア16スレッド)
→ CPUだけでも量子化モデルなら動作可能。ただし応答速度は遅め。
• RAM: 32GB
→ 7B〜13BモデルをCPU推論で扱えるメモリ容量。
• ストレージ
→ モデルサイズは数GB〜数十GB。SSD推奨。
- 24なるほどなるほど 2025/08/24(日) 17時05分53秒
- なるほど!GPU を RTX 5060 Ti 16GB(仮定) に替えた場合ですね。
(※5060Ti はまだ未発売ですが、性能を RTX 4060Ti 16GB と同等クラスと想定して説明します💡)
⸻
🔍 スペック変化のポイント
• VRAM: 16GB
→ 一気に扱えるモデルのサイズが広がる
• 7B, 13B モデルは 余裕
• 30B クラスも量子化すれば動作可能
• CUDA 世代
→ 980Ti(古いMaxwell世代)から最新世代にジャンプ
→ Tensor Core で FP16 / INT8 / INT4 が高速化
• Ryzen 7 2700X + RAM 32GB
→ CPU/RAMはそのままでも十分サポート
⸻
🚀 できること
1. 7B / 13B モデル
• フル精度 (FP16/BF16) でも動かせる
• 量子化版ならかなり高速(ChatGPT並み応答速度)
2. 30B クラス
• VRAM 16GB ではギリギリ
• 量子化 (Q4, Q5) モデルなら実用的
• 一部を CPU RAM に逃す「オフロード推論」も可能
- 25ヾ(゚д゚)ノ゛バカー 2025/08/24(日) 17時07分35秒
- やっぱり買ってみようかな
- 26superまで待ておじさん 2025/08/24(日) 17時19分24秒
- 待てるならsuper出るの待った方が
superならお値段ほぼ同じでメモリが増える可能性大
superなしが安くなる可能性も大
まあいつになるかわからんから、欲しくなった今すぐ買うのももちろんあり
スレ一覧 レス全部 前の10個