■ RTX5060Ti16GB 一番下へ
- 1投稿者:黄昏のゲーマー 投稿日:2025年08月23日(土) 08時35分38秒
- を買おうか迷ってるんだけど、どう思いますか
16GBはもったいない8GBで充分だとか
- 2投稿者:ヾ(゚д゚)ノ゛バカー 投稿日:2025年08月23日(土) 10時21分00秒
- なんのゲームやるん?
マインスイーパー?
- 3投稿者:ヾ(゚д゚)ノ゛アホー 投稿日:2025年08月23日(土) 10時40分37秒
- スプラトゥーン
- 4投稿者:superまで待ておじさん 投稿日:2025年08月23日(土) 11時02分39秒
- superまで待て
- 5投稿者:ヾ(゚д゚)ノ゛バカー 投稿日:2025年08月23日(土) 11時11分56秒
- スペックはどのくらい違うんですか?
- 6投稿者:ヾ(゚д゚)ノ゛アホー 投稿日:2025年08月23日(土) 22時50分22秒
- でも今、GTX 980Ti を使っててそれほど不満はないんだよなぁ
やっぱり買うのは止めておこうかな
- 7投稿者:ヾ(゚д゚)ノ゛バカー 投稿日:2025年08月23日(土) 22時58分50秒
- 980Tiって出た当時は相当値段したんじゃ
- 8投稿者:ヾ(゚д゚)ノ゛バカー 投稿日:2025年08月23日(土) 23時03分55秒
- しました
しかも3枚持ってるw
- 9投稿者:ヾ(゚д゚)ノ゛アホー 投稿日:2025年08月23日(土) 23時08分54秒
- 250Wと電気食いなところが悩み
- 10投稿者:ヾ(゚д゚)ノ゛バカー 投稿日:2025年08月23日(土) 23時15分50秒
- 俺が去年買ったグラボが285Wなのにすごいなそれは
- 11投稿者:ヾ(゚д゚)ノ゛バカー 投稿日:2025年08月23日(土) 23時19分38秒
- なんかムラムラして衝動的にポチっちゃいそう
- 12投稿者:ヾ(゚д゚)ノ゛アホー 投稿日:2025年08月23日(土) 23時22分09秒
- どっかの合成ベンチマークで1.5倍差なんだけどどうするか
- 13投稿者:ヾ(゚д゚)ノ゛アホー 投稿日:2025年08月23日(土) 23時24分30秒
- 欲しいときが買い時よ
何メインで使いたいのか知らないけど
- 14投稿者:ヾ(゚д゚)ノ゛バカー 投稿日:2025年08月24日(日) 06時36分37秒
- うーん冷静に考えてみるとRTX5070 12GBもいいかなぁ
ナントカベンチマークで980Ti と比べてダブルスコアになる
価格は5060Ti とほとんど変わらない
電源が250Wと電気代が怖いところが残念
- 15投稿者:ヾ(゚д゚)ノ゛アホー 投稿日:2025年08月24日(日) 06時50分31秒
- 2連ファンの物と3連ファンの物があるけどやっぱり冷却性能が違うんだろうな
- 16投稿者:ヾ(゚д゚)ノ゛バカー 投稿日:2025年08月24日(日) 06時53分59秒
- 心配なのがこれを7年前のPCに入れようとしてるところ
多分PCIe-3.0かPCIe-4.0
- 17投稿者:ヾ(゚д゚)ノ゛バカー 投稿日:2025年08月24日(日) 15時16分17秒
- よく考えたら新しいグラボがなくても困らないから買うのはやめた
- 18投稿者:ヾ(゚д゚)ノ゛アホー 投稿日:2025年08月24日(日) 15時23分29秒
- 新しいグラボ買ったら片思いの彼女から告白されたって報告もありますよ
- 19投稿者:ヾ(゚д゚)ノ゛バカー 投稿日:2025年08月24日(日) 15時26分59秒
- 宝くじは当たるわ、痔は治るわでいいことずくめですわ
- 20投稿者:ヾ(゚д゚)ノ゛バカー 投稿日:2025年08月24日(日) 15時59分13秒
- AIで遊ぶんでもなければまだ行けそうだよな>980Ti
- 21投稿者:ヾ(゚д゚)ノ゛アホー 投稿日:2025年08月24日(日) 16時12分33秒
- ローカルLLM を動かすにはメモリ何GB あればいいの?
- 22投稿者:ChatGPT君に聞いてみた 投稿日:2025年08月24日(日) 16時56分52秒
- ローカルでLLM(大規模言語モデル)をPC上で動かす場合に必要なものを整理しますね。
⸻
🔧 必要なもの
1. PCのハードウェア
• CPU
→ 中規模モデル(7B〜13Bパラメータ程度)なら最新のマルチコアCPUでも動作可能。ただし推論速度は遅い。
• GPU(推奨)
→ NVIDIA GPU(CUDA対応、VRAM 8GB以上)が一般的。大きなモデルほどVRAMが必要。
→ 例:
• 7Bモデル → VRAM 6〜8GB
• 13Bモデル → VRAM 12〜16GB
• 30B以上 → VRAM 24GB〜 or CPU/RAMで分散推論
• メモリ(RAM)
→ CPUで動かす場合はモデルサイズと同等かそれ以上のメモリが必要。
• 7B → 8〜16GB
• 13B → 16〜32GB
• 30B → 64GB以上
• ストレージ
→ モデルファイルは数GB〜数十GB。SSD推奨。
なるほど
- 23投稿者:なるほど 投稿日:2025年08月24日(日) 17時01分38秒
- いい環境ですね!🎉
Ryzen 7 2700X + GTX 980 Ti + RAM 32GB なら、ローカルLLMを動かすのに十分な性能があります。
⸻
🔍 スペックから考える
• GPU: GTX 980 Ti (6GB VRAM)
→ VRAMが6GBなので、7Bモデルの量子化版(int4/ int8)ならギリギリ動作可能。
→ 13B以上はVRAM不足なので CPU + RAMで動かす必要あり。
• CPU: Ryzen 7 2700X (8コア16スレッド)
→ CPUだけでも量子化モデルなら動作可能。ただし応答速度は遅め。
• RAM: 32GB
→ 7B〜13BモデルをCPU推論で扱えるメモリ容量。
• ストレージ
→ モデルサイズは数GB〜数十GB。SSD推奨。
- 24投稿者:なるほどなるほど 投稿日:2025年08月24日(日) 17時05分53秒
- なるほど!GPU を RTX 5060 Ti 16GB(仮定) に替えた場合ですね。
(※5060Ti はまだ未発売ですが、性能を RTX 4060Ti 16GB と同等クラスと想定して説明します💡)
⸻
🔍 スペック変化のポイント
• VRAM: 16GB
→ 一気に扱えるモデルのサイズが広がる
• 7B, 13B モデルは 余裕
• 30B クラスも量子化すれば動作可能
• CUDA 世代
→ 980Ti(古いMaxwell世代)から最新世代にジャンプ
→ Tensor Core で FP16 / INT8 / INT4 が高速化
• Ryzen 7 2700X + RAM 32GB
→ CPU/RAMはそのままでも十分サポート
⸻
🚀 できること
1. 7B / 13B モデル
• フル精度 (FP16/BF16) でも動かせる
• 量子化版ならかなり高速(ChatGPT並み応答速度)
2. 30B クラス
• VRAM 16GB ではギリギリ
• 量子化 (Q4, Q5) モデルなら実用的
• 一部を CPU RAM に逃す「オフロード推論」も可能
- 25投稿者:ヾ(゚д゚)ノ゛バカー 投稿日:2025年08月24日(日) 17時07分35秒
- やっぱり買ってみようかな
- 26投稿者:superまで待ておじさん 投稿日:2025年08月24日(日) 17時19分24秒
- 待てるならsuper出るの待った方が
superならお値段ほぼ同じでメモリが増える可能性大
superなしが安くなる可能性も大
まあいつになるかわからんから、欲しくなった今すぐ買うのももちろんあり
スレ一覧リロード