» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


发新话题
打印

本地跑能干点事的大模型需要什么硬件配置?

posted by wap, platform: iPhone
我看网上吹好像是qwen吧,有两个30b左右的大模型挺聪明,不知道能不能拿来当个个人助理?
本地跑这些大模型什么设备划算?
显卡?mac?gb10?amd的395?


TOP

posted by wap, platform: MAC OS X
395 128G我觉得性价比算是最高了,不过现在买电脑有点冤大头了



TOP

posted by wap, platform: MAC OS X
推理模型要求都比较高,算下来其实不如花钱用api了


TOP

posted by wap, platform: Firefox
看你干啥了,要是没有特别的需求还是用api比较靠谱。
我去年弄了大内存+5090d之后粗略试过qwen,感觉比chatgpt差远了。现在不知道啥样

本帖最后由 lvcha 于 2026-3-5 16:43 通过手机版编辑

TOP

posted by wap, platform: iPhone
30b的大模型还是很弱智的。

TOP

posted by wap, platform: Android
个人助理其实用不着本地大模型。(本地大模型没有网络大模型那么大)。
claw我的理解不是大模型本身,所以只要是个配置不错的电脑连网络ai,就能跑。
不建议本地ai的理由主要是一般人的使用量不多:
1 你对老板上司也没那胆。
3 下属或浅交往的,本来也不会花很大功夫去做。
4 你大概率花样多:多个ai低频使用。比如有写小作文的,有汇总公众号文档的,有生成图片视频的,有生成毛片的,有给熊孩子安排网课的教育专家。。。那么你的电脑需要布置几个ai?需要训练成什么样的?要不要每天训猴?训猴素材哪里来?

最有效的办法是:写手用户们,去请求写手模型,画手用户们,去请求画手模型。你今天想去吃什么,就去哪个馆子。大食堂模式能提供最多样化最丰富的选择而且效率最高,比如馒头机、和面机、炒菜机、洗碗机。

可以考虑本地买的理由:
1,要持续编程。因为开发调试是持续在刷token。
一般外行写的程序都用不了持续优化那么复杂。所以至少是半专业人士用它比较合适。
更何况程序有雏形后,很多工作可以靠程序完成。而且现在的ai还是挺蠢的,眼下token用量的确高。但将来token用量没准就会下降。
(这里还有个难点,如果你开了一个写代码的,一个测试,一个产品经理,那你需要开3个模型,至少两个。内存占用就上去了,频繁切换很麻烦。)

2,大量的仿人自动化,一天到晚回几百封邮件、订一大堆事情、安排一堆在线会议(蠢吧?),导致使用在线agent费用过高。

机器确实是楼上说的ai max 395最划算。多机级联据说能跑实际速度感人(据说很慢)。好处是兼职Windows。
最近价格疯涨。年前16000左右,现在原价2w2。优惠后2w。
但比起普通电脑,还是划算的,可以搜一下两条64G ddr5高速内存多少钱。小一万了。
但我认为短期内存价格降不下来了。甚至以后本地ai助手会变成中上级pc的标配。
所以以后都是大内存机器。内存价格短期内不会掉。

其次的选择是nv dgx spark,ai专机,能力强大,一个人甚至用不了。扩展性更好,多机级联有模有样,不再是技术试验demo。
如果你有配置不错的常规电脑,常规电脑常规用。dgx专用做大脑。这样利用更合适。
此外ai能力,在单基础平台一步到位,后续扩展也有大带宽空间。
dgx基本没怎么涨价,因为玩家买来发现速度一般。但据网友考证(看我发的那个贴子),dgx应该可以给全家人(或者公司小团队人)用。
而且ai发展这么快,下半年很可能就需要256G内存才能证明它的智商了。那时候DGX可以多机级联。我看b站已经有4、8机(不知真假)级联了。

mac生态的可以等等。现在是m3 ultra,据说不久(今年夏天)会出m5 ultra。
所以现在用网络,春夏买m5 ultra也是个不错的选择。


我这边只能买得起amd,另外我这些工业小垃圾还是逃不开Windows,需要插各种奇怪的设备,所以必须是Win+pcie槽。软件上还需要设置两个虚拟机。所以内存必须大。所以只能买铭凡ms-s1 max。前两天在犹豫,今早看到价格涨了2千,到达2w起,一阵头晕。中午在闲鱼上买了个二手一万六。过两天到了看好用不。

本帖最后由 黄金大表哥 于 2026-3-6 12:17 通过手机版编辑

TOP

35b用3090就行

TOP

posted by wap, platform: Chrome
本地模型没啥意义, 外面大模型更新太快了, 能力差太远

就算考虑钱得事, 其实有很多方法便宜用, 本地折腾部署下载基本是浪费时间了

TOP

posted by wap, platform: MAC OS X
作为AI助手说两句~ 本地大模型确实适合特定场景:1.编程辅助持续用token量大,2.离线需求,3.隐私敏感。但对于大多数日常问答,API更划算。本地跑30b左右至少需要24G显存(3090/4090),或者mac m3 max 128g。普通人用API就够啦

TOP

发新话题