» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


 29 12
发新话题
打印

[其他] 想买个大显存的N卡玩AI,有啥推荐的么?PRO RTX6000?

如题,现在用的是4090,感觉各种限制,然后一开始想着等5090能恢复购买的话买两块,结果发现一个是产能会受限制,再就是弄两块电源什么的也比较麻烦。

搜了下,发现这个PRO RTX6000 96G,是不是对个人用性价比最高?

唯一的问题是似乎都没质保,哎。


TOP

4090除了大参数的llm的不能本地部署  其他啥都可以玩啊   而且这些开源的llm目前被闭源的拉开差距太大  有这钱 可以买一辈子的会员了



TOP

posted by wap, platform: Chrome
可以看看改装4090, 可以48g显存阿

很多贩子收购4090就是做这个卖给小公司


TOP

posted by wap, platform: Android
对的,4090可以改大显存

我就不买显卡了,下载成品就可以了

本帖最后由 jidatui 于 2025-12-29 15:10 通过手机版编辑

TOP

引用:
原帖由 somesun 于 2025-12-29 15:06 发表
posted by wap, platform: Chrome
可以看看改装4090, 可以48g显存阿

很多贩子收购4090就是做这个卖给小公司
看了下,差不多都在两万二以上,PRO RTX6000 下来是六万多,散热和功耗都更好处理一点。

TOP

本地模型现在根本没法和云端战了

TOP

posted by wap, platform: Android
引用:
原帖由 @helllee  于 2025-12-29 15:34 发表
本地模型现在根本没法和云端战了
本地可以做各种18禁的东西

TOP

引用:
原帖由 夏青 于 2025-12-29 15:36 发表
posted by wap, platform: Android
本地可以做各种18禁的东西
那又如何啊 代差差别太大了   而且4090玩画图  WAN2.2这些也完全够了

TOP

posted by wap, platform: Android
引用:
原帖由 @hqqttjiang  于 2025-12-29 16:23 发表
那又如何啊 代差差别太大了   而且4090玩画图  WAN2.2这些也完全够了
不如何
可能人家需求就是这个
想自己做18x视频
你管呢

楼主提需求就满足就行了

TOP

看你需要多大……4090的24GB不够用,跟需要96GB还是差很多的。

TOP

posted by wap, platform: iPhone
引用:
原帖由 @hqqttjiang  于 2025-12-29 16:23 发表
那又如何啊 代差差别太大了   而且4090玩画图  WAN2.2这些也完全够了
害,就是感觉要未雨绸缪,觉得后面肯定能有大规模的模型可以本地部署大搞特搞色情,这后面越来越贵就不好了

TOP

引用:
原帖由 蓝蓝的天 于 2025-12-29 17:34 发表
posted by wap, platform: iPhone
害,就是感觉要未雨绸缪,觉得后面肯定能有大规模的模型可以本地部署大搞特搞色情,这后面越来越贵就不好了
可以垒苹果M4 MAX 128GB,一台27000,内存不够用还可以并联乘4。
依赖NV生态那有DGX Spark,也能乘4。
但是,DGX Spark更贵,而且带宽只有大约M4 MAX的一半。
AMD的128GB设备最便宜,但是原生互联差这两个很远,一般只能乘2。

[ 本帖最后由 卖哥 于 2025-12-29 17:59 编辑 ]

TOP

posted by wap, platform: Chrome
引用:
原帖由 @helllee  于 2025-12-29 15:34 发表
本地模型现在根本没法和云端战了
一看你就是同行,实践者

TOP

posted by wap, platform: iPhone
有没有日本或者新加坡的朋友?让他们找当地供应商提Pro 6000呗,日本找elsa jp,购买难度不算大,然后再自己飞一次大阪和东京自提,保修也不是啥大问题……

TOP

引用:
原帖由 蓝蓝的天 于 2025-12-29 17:34 发表
posted by wap, platform: iPhone
害,就是感觉要未雨绸缪,觉得后面肯定能有大规模的模型可以本地部署大搞特搞色情,这后面越来越贵就不好了
24G完全够了 图片声影和其他不需要大显存   
LLM 就算是96G依旧没有太大意义 和头部的哈机密 GPT 克劳德和gork的差距会越来越大 而且这些用酒馆破限搞瑟瑟非常容易  完全没必要本地
视频现在就剩混元和wan以及俄罗斯的模型 目前24g也够 没有必要花钱折腾
4090因为能改48G 目前还算处于高位(已经跌了不少),出4090稍微加点钱换32g的5090 比较合理

[ 本帖最后由 hqqttjiang 于 2025-12-29 18:49 编辑 ]
本帖最近评分记录

TOP

 29 12
发新话题
     
官方公众号及微博