■ RTX5060Ti16GB  一番下へ


1投稿者:黄昏のゲーマー  投稿日:2025年08月23日(土) 08時35分38秒
を買おうか迷ってるんだけど、どう思いますか

16GBはもったいない8GBで充分だとか

2投稿者:ヾ(゚д゚)ノ゛バカー  投稿日:2025年08月23日(土) 10時21分00秒
なんのゲームやるん?
マインスイーパー?
3投稿者:ヾ(゚д゚)ノ゛アホー  投稿日:2025年08月23日(土) 10時40分37秒
スプラトゥーン
4投稿者:superまで待ておじさん  投稿日:2025年08月23日(土) 11時02分39秒
superまで待て
5投稿者:ヾ(゚д゚)ノ゛バカー  投稿日:2025年08月23日(土) 11時11分56秒
スペックはどのくらい違うんですか?
6投稿者:ヾ(゚д゚)ノ゛アホー  投稿日:2025年08月23日(土) 22時50分22秒
でも今、GTX 980Ti を使っててそれほど不満はないんだよなぁ
やっぱり買うのは止めておこうかな
7投稿者:ヾ(゚д゚)ノ゛バカー  投稿日:2025年08月23日(土) 22時58分50秒
980Tiって出た当時は相当値段したんじゃ
8投稿者:ヾ(゚д゚)ノ゛バカー  投稿日:2025年08月23日(土) 23時03分55秒
しました
しかも3枚持ってるw
9投稿者:ヾ(゚д゚)ノ゛アホー  投稿日:2025年08月23日(土) 23時08分54秒
250Wと電気食いなところが悩み
10投稿者:ヾ(゚д゚)ノ゛バカー  投稿日:2025年08月23日(土) 23時15分50秒
俺が去年買ったグラボが285Wなのにすごいなそれは
11投稿者:ヾ(゚д゚)ノ゛バカー  投稿日:2025年08月23日(土) 23時19分38秒
なんかムラムラして衝動的にポチっちゃいそう
12投稿者:ヾ(゚д゚)ノ゛アホー  投稿日:2025年08月23日(土) 23時22分09秒
どっかの合成ベンチマークで1.5倍差なんだけどどうするか
13投稿者:ヾ(゚д゚)ノ゛アホー  投稿日:2025年08月23日(土) 23時24分30秒
欲しいときが買い時よ
何メインで使いたいのか知らないけど
14投稿者:ヾ(゚д゚)ノ゛バカー  投稿日:2025年08月24日(日) 06時36分37秒
うーん冷静に考えてみるとRTX5070 12GBもいいかなぁ
ナントカベンチマークで980Ti と比べてダブルスコアになる
価格は5060Ti とほとんど変わらない
電源が250Wと電気代が怖いところが残念
15投稿者:ヾ(゚д゚)ノ゛アホー  投稿日:2025年08月24日(日) 06時50分31秒
2連ファンの物と3連ファンの物があるけどやっぱり冷却性能が違うんだろうな
16投稿者:ヾ(゚д゚)ノ゛バカー  投稿日:2025年08月24日(日) 06時53分59秒
心配なのがこれを7年前のPCに入れようとしてるところ
多分PCIe-3.0かPCIe-4.0
17投稿者:ヾ(゚д゚)ノ゛バカー  投稿日:2025年08月24日(日) 15時16分17秒
よく考えたら新しいグラボがなくても困らないから買うのはやめた
18投稿者:ヾ(゚д゚)ノ゛アホー  投稿日:2025年08月24日(日) 15時23分29秒
新しいグラボ買ったら片思いの彼女から告白されたって報告もありますよ
19投稿者:ヾ(゚д゚)ノ゛バカー  投稿日:2025年08月24日(日) 15時26分59秒
宝くじは当たるわ、痔は治るわでいいことずくめですわ
20投稿者:ヾ(゚д゚)ノ゛バカー  投稿日:2025年08月24日(日) 15時59分13秒
AIで遊ぶんでもなければまだ行けそうだよな>980Ti
21投稿者:ヾ(゚д゚)ノ゛アホー  投稿日:2025年08月24日(日) 16時12分33秒
ローカルLLM を動かすにはメモリ何GB あればいいの?
22投稿者:ChatGPT君に聞いてみた  投稿日:2025年08月24日(日) 16時56分52秒
ローカルでLLM(大規模言語モデル)をPC上で動かす場合に必要なものを整理しますね。



🔧 必要なもの

1. PCのハードウェア
• CPU
→ 中規模モデル(7B〜13Bパラメータ程度)なら最新のマルチコアCPUでも動作可能。ただし推論速度は遅い。
• GPU(推奨)
→ NVIDIA GPU(CUDA対応、VRAM 8GB以上)が一般的。大きなモデルほどVRAMが必要。
→ 例:
• 7Bモデル → VRAM 6〜8GB
• 13Bモデル → VRAM 12〜16GB
• 30B以上 → VRAM 24GB〜 or CPU/RAMで分散推論
• メモリ(RAM)
→ CPUで動かす場合はモデルサイズと同等かそれ以上のメモリが必要。
• 7B → 8〜16GB
• 13B → 16〜32GB
• 30B → 64GB以上
• ストレージ
→ モデルファイルは数GB〜数十GB。SSD推奨。



なるほど
23投稿者:なるほど  投稿日:2025年08月24日(日) 17時01分38秒
いい環境ですね!🎉
Ryzen 7 2700X + GTX 980 Ti + RAM 32GB なら、ローカルLLMを動かすのに十分な性能があります。



🔍 スペックから考える
• GPU: GTX 980 Ti (6GB VRAM)
→ VRAMが6GBなので、7Bモデルの量子化版(int4/ int8)ならギリギリ動作可能。
→ 13B以上はVRAM不足なので CPU + RAMで動かす必要あり。
• CPU: Ryzen 7 2700X (8コア16スレッド)
→ CPUだけでも量子化モデルなら動作可能。ただし応答速度は遅め。
• RAM: 32GB
→ 7B〜13BモデルをCPU推論で扱えるメモリ容量。
• ストレージ
→ モデルサイズは数GB〜数十GB。SSD推奨。
24投稿者:なるほどなるほど  投稿日:2025年08月24日(日) 17時05分53秒
なるほど!GPU を RTX 5060 Ti 16GB(仮定) に替えた場合ですね。
(※5060Ti はまだ未発売ですが、性能を RTX 4060Ti 16GB と同等クラスと想定して説明します💡)



🔍 スペック変化のポイント
• VRAM: 16GB
→ 一気に扱えるモデルのサイズが広がる
• 7B, 13B モデルは 余裕
• 30B クラスも量子化すれば動作可能
• CUDA 世代
→ 980Ti(古いMaxwell世代)から最新世代にジャンプ
→ Tensor Core で FP16 / INT8 / INT4 が高速化
• Ryzen 7 2700X + RAM 32GB
→ CPU/RAMはそのままでも十分サポート



🚀 できること

1. 7B / 13B モデル
• フル精度 (FP16/BF16) でも動かせる
• 量子化版ならかなり高速(ChatGPT並み応答速度)

2. 30B クラス
• VRAM 16GB ではギリギリ
• 量子化 (Q4, Q5) モデルなら実用的
• 一部を CPU RAM に逃す「オフロード推論」も可能
25投稿者:ヾ(゚д゚)ノ゛バカー  投稿日:2025年08月24日(日) 17時07分35秒
やっぱり買ってみようかな
26投稿者:superまで待ておじさん  投稿日:2025年08月24日(日) 17時19分24秒
待てるならsuper出るの待った方が
superならお値段ほぼ同じでメモリが増える可能性大
superなしが安くなる可能性も大

まあいつになるかわからんから、欲しくなった今すぐ買うのももちろんあり
タイトル
投稿者

メール