
原帖由 @zhufigo 于 2026-3-21 04:32 PM 发表
只有9B那个能跑。前两个模型龙虾很容易内存爆掉,KV CACHE太大
原帖由 @dzgxg 于 2026-3-21 05:56 PM 发表
我是16g的m1 imac,用ollama接入openclaw的话,基本所有模型都属于不可用的水平,响应极慢甚至一直不响应,前两天试了omlx,感觉更慢,按说应该是比ollama好一些,但确实也是不可用的水平,不过毕竟是很老的电脑了。配置低的话可以用模型跑一些不接入前端的本地任务,24g的话没试过,感觉响应速度能接受的话也行,我拿qwen3:8b接龙虾写过一些脚本,没有问题,如果是接openwebui的话,其实响应速度确实要快很多
原帖由 @lelivre 于 2026-3-21 18:46 发表
是这样的,
首先M1确实比M4慢很多,
然后就是模型选择,GPT OSS 20b和Qwen3.5 35B A3b这种MOE模型,每次只有3b左右的激活参数,所以会比8b、9b这种密集模型要快很多。3b vs 9b这样。
| 欢迎光临 TGFC Lifestyle (http://tgfcer.com/) | Powered by Discuz! 6.0.0 |