Board logo

标题: [其他] 想买个大显存的N卡玩AI,有啥推荐的么?PRO RTX6000? [打印本页]

作者: 蓝蓝的天    时间: 2025-12-29 14:38     标题: 想买个大显存的N卡玩AI,有啥推荐的么?PRO RTX6000?

如题,现在用的是4090,感觉各种限制,然后一开始想着等5090能恢复购买的话买两块,结果发现一个是产能会受限制,再就是弄两块电源什么的也比较麻烦。

搜了下,发现这个PRO RTX6000 96G,是不是对个人用性价比最高?

唯一的问题是似乎都没质保,哎。
作者: hqqttjiang    时间: 2025-12-29 14:57

4090除了大参数的llm的不能本地部署  其他啥都可以玩啊   而且这些开源的llm目前被闭源的拉开差距太大  有这钱 可以买一辈子的会员了
作者: somesun    时间: 2025-12-29 15:06

posted by wap, platform: Chrome
可以看看改装4090, 可以48g显存阿

很多贩子收购4090就是做这个卖给小公司
作者: jidatui    时间: 2025-12-29 15:09

posted by wap, platform: Android
对的,4090可以改大显存

我就不买显卡了,下载成品就可以了

本帖最后由 jidatui 于 2025-12-29 15:10 通过手机版编辑
作者: 蓝蓝的天    时间: 2025-12-29 15:17

引用:
原帖由 somesun 于 2025-12-29 15:06 发表
posted by wap, platform: Chrome
可以看看改装4090, 可以48g显存阿

很多贩子收购4090就是做这个卖给小公司
看了下,差不多都在两万二以上,PRO RTX6000 下来是六万多,散热和功耗都更好处理一点。
作者: helllee    时间: 2025-12-29 15:34

本地模型现在根本没法和云端战了
作者: 夏青    时间: 2025-12-29 15:36

posted by wap, platform: Android
引用:
原帖由 @helllee  于 2025-12-29 15:34 发表
本地模型现在根本没法和云端战了
本地可以做各种18禁的东西
作者: hqqttjiang    时间: 2025-12-29 16:23

引用:
原帖由 夏青 于 2025-12-29 15:36 发表
posted by wap, platform: Android
本地可以做各种18禁的东西
那又如何啊 代差差别太大了   而且4090玩画图  WAN2.2这些也完全够了
作者: 夏青    时间: 2025-12-29 16:40

posted by wap, platform: Android
引用:
原帖由 @hqqttjiang  于 2025-12-29 16:23 发表
那又如何啊 代差差别太大了   而且4090玩画图  WAN2.2这些也完全够了
不如何
可能人家需求就是这个
想自己做18x视频
你管呢

楼主提需求就满足就行了
作者: 卖哥    时间: 2025-12-29 17:22

看你需要多大……4090的24GB不够用,跟需要96GB还是差很多的。
作者: 蓝蓝的天    时间: 2025-12-29 17:34

posted by wap, platform: iPhone
引用:
原帖由 @hqqttjiang  于 2025-12-29 16:23 发表
那又如何啊 代差差别太大了   而且4090玩画图  WAN2.2这些也完全够了
害,就是感觉要未雨绸缪,觉得后面肯定能有大规模的模型可以本地部署大搞特搞色情,这后面越来越贵就不好了
作者: 卖哥    时间: 2025-12-29 17:57

引用:
原帖由 蓝蓝的天 于 2025-12-29 17:34 发表
posted by wap, platform: iPhone
害,就是感觉要未雨绸缪,觉得后面肯定能有大规模的模型可以本地部署大搞特搞色情,这后面越来越贵就不好了
可以垒苹果M4 MAX 128GB,一台27000,内存不够用还可以并联乘4。
依赖NV生态那有DGX Spark,也能乘4。
但是,DGX Spark更贵,而且带宽只有大约M4 MAX的一半。
AMD的128GB设备最便宜,但是原生互联差这两个很远,一般只能乘2。

[ 本帖最后由 卖哥 于 2025-12-29 17:59 编辑 ]
作者: zxsoft    时间: 2025-12-29 18:13

posted by wap, platform: Chrome
引用:
原帖由 @helllee  于 2025-12-29 15:34 发表
本地模型现在根本没法和云端战了
一看你就是同行,实践者
作者: Zico2003    时间: 2025-12-29 18:17

posted by wap, platform: iPhone
有没有日本或者新加坡的朋友?让他们找当地供应商提Pro 6000呗,日本找elsa jp,购买难度不算大,然后再自己飞一次大阪和东京自提,保修也不是啥大问题……
作者: hqqttjiang    时间: 2025-12-29 18:39

引用:
原帖由 蓝蓝的天 于 2025-12-29 17:34 发表
posted by wap, platform: iPhone
害,就是感觉要未雨绸缪,觉得后面肯定能有大规模的模型可以本地部署大搞特搞色情,这后面越来越贵就不好了
24G完全够了 图片声影和其他不需要大显存   
LLM 就算是96G依旧没有太大意义 和头部的哈机密 GPT 克劳德和gork的差距会越来越大 而且这些用酒馆破限搞瑟瑟非常容易  完全没必要本地
视频现在就剩混元和wan以及俄罗斯的模型 目前24g也够 没有必要花钱折腾
4090因为能改48G 目前还算处于高位(已经跌了不少),出4090稍微加点钱换32g的5090 比较合理

[ 本帖最后由 hqqttjiang 于 2025-12-29 18:49 编辑 ]
作者: 蓝蓝的天    时间: 2025-12-29 20:16

引用:
原帖由 卖哥 于 2025-12-29 17:57 发表

可以垒苹果M4 MAX 128GB,一台27000,内存不够用还可以并联乘4。
依赖NV生态那有DGX Spark,也能乘4。
但是,DGX Spark更贵,而且带宽只有大约M4 MAX的一半。
AMD的128GB设备最便宜,但是原生互联差这两个很远, ...
有个512G的M3 ULTRA,感觉还是太慢。

再就是,我想着十万以内还是能承担的,超出那也下不去手哇
作者: 卖哥    时间: 2025-12-29 20:43

引用:
原帖由 蓝蓝的天 于 2025-12-29 20:16 发表


有个512G的M3 ULTRA,感觉还是太慢。

再就是,我想着十万以内还是能承担的,超出那也下不去手哇
那真是目前的民用毕业装备了。
M3U的带宽819GB/s,RTX6000 1597GB/s。超过一半了,而容量RTX6000是没得比的。

如果你真受困于容量
再买个512G的M3 ULTRA,75000跟RTX6000 96GB差了不多,雷电桥接组乘2,内存翻倍同时速度大概1.2倍。

更重要的是,是有行货质保的。

[ 本帖最后由 卖哥 于 2025-12-29 20:48 编辑 ]
作者: lvcha    时间: 2025-12-29 21:26

posted by wap, platform: Android
搞不懂。。买来干啥。。
作者: sigmaxion    时间: 2025-12-29 21:48

posted by wap, platform: iPad
搞涩涩视频是卖钱么,自娱自乐的话好像很麻烦,容易腻歪
作者: shenmu    时间: 2025-12-29 22:06

跑图没必要,闭源强太多了。跑色图更没必要,又不可能天天跑!
作者: Zico2003    时间: 2025-12-29 23:56

posted by wap, platform: iPhone
有没有日本或者新加坡的朋友?让他们找当地供应商提Pro 6000呗,日本找elsa jp,购买难度不算大,然后再自己飞一次大阪和东京自提,保修也不是啥大问题……
作者: Zico2003    时间: 2025-12-30 01:38

posted by wap, platform: iPhone
有没有日本或者新加坡的朋友?让他们找当地供应商提Pro 6000呗,日本找elsa jp,购买难度不算大,然后再自己飞一次大阪和东京自提,保修也不是啥大问题……
作者: 0瞎子0    时间: 2025-12-30 07:49

posted by wap, platform: Android
48g是一个门槛
我是用5090加5060 组的,太吵了
作者: 踩姑娘的小蘑菇    时间: 2025-12-30 09:23

目前wan2.2在24g下的上限是1280*960 161p,再高就爆显存。苹果这类统一构架用带宽比传统内存高很多但离显存带宽还是有数量级的差别。
另外,从模型结构上对于极大数据目前也是异步并行处理,也就是说可以分布或者做后期,比如nano banana最近比较火的设计图生成就是多个模型结果合并,并不需要极大的显存这等级来跑同步。wan2.2上很多几十秒甚至超过一分钟的视频也是多段融合拼接。
另外目前开源或民间同好的模型在样本分辨率上都做了限制,单帧并不会有极高的分辨率(能可控有效直出4k的都非常少,zit也就2k,qwen到4k基本就是失控)所以对显存压力并不太大,反过来说如果没有这种极大占用显存的模型或直出分辨率极高的能力,超过48g以上的显存对个人用户用途并不大,大概简单操作下的唯一作用就是受控延长视频输出帧数,其他就涉及较为复杂的应用了。

[ 本帖最后由 踩姑娘的小蘑菇 于 2025-12-30 09:25 编辑 ]
作者: 蓝蓝的天    时间: 2025-12-30 10:52

引用:
原帖由 lvcha 于 2025-12-29 21:26 发表
posted by wap, platform: Android
搞不懂。。买来干啥。。
老哥你也是程序员出身,我是想后面再学学cuda相关的开发,没准也是个新的方向……
作者: 蓝蓝的天    时间: 2025-12-30 10:55

引用:
原帖由 Zico2003 于 2025-12-30 01:38 发表
posted by wap, platform: iPhone
有没有日本或者新加坡的朋友?让他们找当地供应商提Pro 6000呗,日本找elsa jp,购买难度不算大,然后再自己飞一次大阪和东京自提,保修也不是啥大问题……
专门飞一趟太麻烦了,老兄你说的elsa jp我看了下,似乎也没有。

淘宝上是6万左右,我感觉也能接受,年初似乎要十万左右呢
作者: 卖哥    时间: 2025-12-30 12:19

引用:
原帖由 蓝蓝的天 于 2025-12-30 10:52 发表


老哥你也是程序员出身,我是想后面再学学cuda相关的开发,没准也是个新的方向……
你都那么多理由了那就买呗。
省钱就先分析下现在不够的原因是什么,是显存容量还是显存速度还是内部算力,想简单直接那就全面加强呗。
作者: 蓝蓝的天    时间: 2025-12-30 12:49

引用:
原帖由 卖哥 于 2025-12-30 12:19 发表

你都那么多理由了那就买呗。
省钱就先分析下现在不够的原因是什么,是显存容量还是显存速度还是内部算力,想简单直接那就全面加强呗。
嗯,感谢。
作者: 踩姑娘的小蘑菇    时间: 2025-12-30 16:24

上面说的还是不太全面,玩AI 有两个路径,纯计算还是包括训练,ai硬件分两种一个是计算卡或设备,比如现在手机CPU都附带NPU单元,就是作为边缘计算用,不跑训练,比如刷脸认证、实时路况的导航路径、拍照和视频处理等等就是依靠NPU计算本地模型。一个是训练卡,可以对预处理标注后的数据进行训练,当然也能跑计算,比如现在的cuda单元的RTX游戏卡。
大部分人离线也只玩计算,就是用别人做好的模型来跑生成,当然还有少部分人会自己搞数据来跑训练,特别是一些公开平台上没有的或者过于小众不好找的,不说checkpiont至少跑跑lora还是比较容易的,比如想弄个一般模型里都没有的稍有姿势、服装、表情、face之类。
从需求上看,计算卡对硬件需求是有限的,常规限制源于模型大小限制,cuda数量决定速度,显存决定容量。而训练就是无上限的,容量越大越好否则数据处理效率就会很低(不要妄图用内存虚拟显存来代替,两则之间的带宽差异极大,而且很多预处理软件压根就不支持这种虚拟),几百G显存都是常见,数据总量是可以无上限的,要LLM蒸馏也必须先有初始的模型才谈得上优化,训练也是要追求效率的。

[ 本帖最后由 踩姑娘的小蘑菇 于 2025-12-30 16:27 编辑 ]




欢迎光临 TGFC Lifestyle (http://tgfcer.com/) Powered by Discuz! 6.0.0