RTX5060Ti16GB  投稿
RTX5060Ti16GB
1黄昏のゲーマー 2025/08/23(土) 08時35分38秒
を買おうか迷ってるんだけど、どう思いますか

16GBはもったいない8GBで充分だとか

17ヾ(゚д゚)ノ゛バカー 2025/08/24(日) 15時16分17秒
よく考えたら新しいグラボがなくても困らないから買うのはやめた

18ヾ(゚д゚)ノ゛アホー 2025/08/24(日) 15時23分29秒
新しいグラボ買ったら片思いの彼女から告白されたって報告もありますよ

19ヾ(゚д゚)ノ゛バカー 2025/08/24(日) 15時26分59秒
宝くじは当たるわ、痔は治るわでいいことずくめですわ

20ヾ(゚д゚)ノ゛バカー 2025/08/24(日) 15時59分13秒
AIで遊ぶんでもなければまだ行けそうだよな>980Ti

21ヾ(゚д゚)ノ゛アホー 2025/08/24(日) 16時12分33秒
ローカルLLM を動かすにはメモリ何GB あればいいの?

22ChatGPT君に聞いてみた 2025/08/24(日) 16時56分52秒
ローカルでLLM(大規模言語モデル)をPC上で動かす場合に必要なものを整理しますね。



🔧 必要なもの

1. PCのハードウェア
• CPU
→ 中規模モデル(7B〜13Bパラメータ程度)なら最新のマルチコアCPUでも動作可能。ただし推論速度は遅い。
• GPU(推奨)
→ NVIDIA GPU(CUDA対応、VRAM 8GB以上)が一般的。大きなモデルほどVRAMが必要。
→ 例:
• 7Bモデル → VRAM 6〜8GB
• 13Bモデル → VRAM 12〜16GB
• 30B以上 → VRAM 24GB〜 or CPU/RAMで分散推論
• メモリ(RAM)
→ CPUで動かす場合はモデルサイズと同等かそれ以上のメモリが必要。
• 7B → 8〜16GB
• 13B → 16〜32GB
• 30B → 64GB以上
• ストレージ
→ モデルファイルは数GB〜数十GB。SSD推奨。



なるほど

23なるほど 2025/08/24(日) 17時01分38秒
いい環境ですね!🎉
Ryzen 7 2700X + GTX 980 Ti + RAM 32GB なら、ローカルLLMを動かすのに十分な性能があります。



🔍 スペックから考える
• GPU: GTX 980 Ti (6GB VRAM)
→ VRAMが6GBなので、7Bモデルの量子化版(int4/ int8)ならギリギリ動作可能。
→ 13B以上はVRAM不足なので CPU + RAMで動かす必要あり。
• CPU: Ryzen 7 2700X (8コア16スレッド)
→ CPUだけでも量子化モデルなら動作可能。ただし応答速度は遅め。
• RAM: 32GB
→ 7B〜13BモデルをCPU推論で扱えるメモリ容量。
• ストレージ
→ モデルサイズは数GB〜数十GB。SSD推奨。

24なるほどなるほど 2025/08/24(日) 17時05分53秒
なるほど!GPU を RTX 5060 Ti 16GB(仮定) に替えた場合ですね。
(※5060Ti はまだ未発売ですが、性能を RTX 4060Ti 16GB と同等クラスと想定して説明します💡)



🔍 スペック変化のポイント
• VRAM: 16GB
→ 一気に扱えるモデルのサイズが広がる
• 7B, 13B モデルは 余裕
• 30B クラスも量子化すれば動作可能
• CUDA 世代
→ 980Ti(古いMaxwell世代)から最新世代にジャンプ
→ Tensor Core で FP16 / INT8 / INT4 が高速化
• Ryzen 7 2700X + RAM 32GB
→ CPU/RAMはそのままでも十分サポート



🚀 できること

1. 7B / 13B モデル
• フル精度 (FP16/BF16) でも動かせる
• 量子化版ならかなり高速(ChatGPT並み応答速度)

2. 30B クラス
• VRAM 16GB ではギリギリ
• 量子化 (Q4, Q5) モデルなら実用的
• 一部を CPU RAM に逃す「オフロード推論」も可能

25ヾ(゚д゚)ノ゛バカー 2025/08/24(日) 17時07分35秒
やっぱり買ってみようかな

26superまで待ておじさん 2025/08/24(日) 17時19分24秒
待てるならsuper出るの待った方が
superならお値段ほぼ同じでメモリが増える可能性大
superなしが安くなる可能性も大

まあいつになるかわからんから、欲しくなった今すぐ買うのももちろんあり

スレ一覧   レス全部   前の10個
投稿者

メール