» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


发新话题
打印

[其他] 想买个大显存的N卡玩AI,有啥推荐的么?PRO RTX6000?

看你需要多大……4090的24GB不够用,跟需要96GB还是差很多的。


TOP

引用:
原帖由 蓝蓝的天 于 2025-12-29 17:34 发表
posted by wap, platform: iPhone
害,就是感觉要未雨绸缪,觉得后面肯定能有大规模的模型可以本地部署大搞特搞色情,这后面越来越贵就不好了
可以垒苹果M4 MAX 128GB,一台27000,内存不够用还可以并联乘4。
依赖NV生态那有DGX Spark,也能乘4。
但是,DGX Spark更贵,而且带宽只有大约M4 MAX的一半。
AMD的128GB设备最便宜,但是原生互联差这两个很远,一般只能乘2。

[ 本帖最后由 卖哥 于 2025-12-29 17:59 编辑 ]



TOP

引用:
原帖由 蓝蓝的天 于 2025-12-29 20:16 发表


有个512G的M3 ULTRA,感觉还是太慢。

再就是,我想着十万以内还是能承担的,超出那也下不去手哇
那真是目前的民用毕业装备了。
M3U的带宽819GB/s,RTX6000 1597GB/s。超过一半了,而容量RTX6000是没得比的。

如果你真受困于容量
再买个512G的M3 ULTRA,75000跟RTX6000 96GB差了不多,雷电桥接组乘2,内存翻倍同时速度大概1.2倍。

更重要的是,是有行货质保的。

[ 本帖最后由 卖哥 于 2025-12-29 20:48 编辑 ]


TOP

引用:
原帖由 蓝蓝的天 于 2025-12-30 10:52 发表


老哥你也是程序员出身,我是想后面再学学cuda相关的开发,没准也是个新的方向……
你都那么多理由了那就买呗。
省钱就先分析下现在不够的原因是什么,是显存容量还是显存速度还是内部算力,想简单直接那就全面加强呗。
本帖最近评分记录

TOP

发新话题
     
官方公众号及微博