全球主机交流论坛备用站

 找回密码
 立即注册

QQ登录

只需一步,快速开始

全球云38元起免备案V2EX搬瓦工VPS
SEO查询超级PING网站测速
Virmach特价鸡乌云漏洞吾爱破解
查看: 120|回复: 6

推荐最新的开源大语言模型Llama-3_1-Nemotron-Ultra-253B-v1

[复制链接]

24

主题

98

回帖

396

积分

中级会员

Rank: 3Rank: 3

积分
396
发表于 2025-4-12 17:49:25 | 显示全部楼层 |阅读模式
20230417
前几天nvidia推出了新模型Llama-3_1-Nemotron-Ultra-253B-v1, 今天我试了一下, 感觉很好. 看测试数据的话, 比deepseek r1还高, 当然数字只能作为参考.

主要它是只有253B的参数, 不用太多的显存. deepseek r1是671B的参数, 本地跑的话要太多的显存了. nvidia的模型和deepseek的模型都是带思考的, 不过 nvidia的模型可以关掉, deepseek的模型不行. deepseek r1是MoE架构的, 这个不是.

要是有条件的话, 可以试一试.
MJJ,你的签名掉了~~~
回复

使用道具 举报

314

主题

2275

回帖

6914

积分

论坛元老

Rank: 8Rank: 8

积分
6914
发表于 2025-4-12 18:14:26 | 显示全部楼层
自己部署意义何在?
MJJ,你的签名掉了~~~
回复 支持 反对

使用道具 举报

7

主题

1497

回帖

4165

积分

论坛元老

Rank: 8Rank: 8

积分
4165
发表于 2025-4-12 18:55:43 | 显示全部楼层
本帖最后由 kindlecon 于 2025-4-12 19:04 编辑

253b就算就算4bit量化也要170g显存。
如果用CPU和内存跑,那前提是你有多通道服务器主板,否则那速度谁受得了。
MJJ,你的签名掉了~~~
回复 支持 反对

使用道具 举报

268

主题

309

回帖

1600

积分

金牌会员

Rank: 6Rank: 6

积分
1600
发表于 2025-4-12 19:10:45 | 显示全部楼层
我昨天才听说整个,还没弄。 你实际测试了吗?
MJJ,你的签名掉了~~~
回复 支持 反对

使用道具 举报

14

主题

4282

回帖

1万

积分

论坛元老

Rank: 8Rank: 8

积分
10344
发表于 2025-4-12 19:27:15 | 显示全部楼层
有llama4 为啥用3.1,而且4需要的显存更少
MJJ,你的签名掉了~~~
回复 支持 反对

使用道具 举报

24

主题

98

回帖

396

积分

中级会员

Rank: 3Rank: 3

积分
396
 楼主| 发表于 2025-4-12 19:57:08 | 显示全部楼层
acm 发表于 2025-4-12 19:27
有llama4 为啥用3.1,而且4需要的显存更少

llama 4 是个很失败的模型.
MJJ,你的签名掉了~~~
回复 支持 反对

使用道具 举报

24

主题

98

回帖

396

积分

中级会员

Rank: 3Rank: 3

积分
396
 楼主| 发表于 2025-4-12 19:27:00 | 显示全部楼层
吊打华伪 发表于 2025-4-12 19:10
我昨天才听说整个,还没弄。 你实际测试了吗?

我只是大概地试了一些问题, 感觉不错. 你如果不本地部署的话, 可以通过openrouter测试看看.
MJJ,你的签名掉了~~~
回复 支持 反对

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

展开

QQ|Archiver|手机版|小黑屋|全球主机交流论坛备用站

GMT+8, 2025-4-20 00:55 , Processed in 0.045980 second(s), 27 queries , Gzip On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表