ローカルLLMで無法地帯 下へ
- 1投稿者:麻耶犬 24/11/16(土) 17時01分25秒
- LLMはラージランゲージモデルの略ね
これが普通にネット上に公開されてたりするんやけど
とても一般人のPCでは動かないようなとんでもない処理能力を必要とするもので
例えばH100っていう約500万もするグラボを6〜7枚くらい必要とするねん
でもな、量子化っていう技術があって、なんか精度を落とした状態?俺もよくわからんけど
その量子化されたモデルが落ちてて、それを試してみた
てっきりLinuxでしか動かへんと思ってたけど案外簡単に動かせたのやけど、それでな・・・
- 2投稿者:ヾ(゚д゚)ノ゛バカー 24/11/16(土) 17時14分18秒
- 頭悪そう
- 3投稿者:麻耶犬 24/11/16(土) 17時14分39秒
- ちょっとAIに訂正されながら書いてて俺っぽくない変な文章になってるから、100%俺の文章で書くわ!
JailBreakって聞いたことあるでしょう?iPhoneのカスタムファームウェアとか昔流行ったよね
それとは全然違うけど、LLMに対してもJailBreakっていうのがあって
要はAIの制限やルールを回避して、普通なら絶対答えへんようなことを
【全文を見るにはここをクリック】
- 4投稿者:麻耶犬 24/11/16(土) 17時41分01秒
- エロでおさまるならいいけど、めっちゃ危険な事にも答えてくれるから
これ遅かれ早かれ犯罪に使われるわ、さすがに規制されるべきって俺ですら思っちゃう
前
上へ
一覧
最後から