开个帖子,用实例讲解deepseek如何胡说八道,被GPT和google打脸
<i class="pstatus"> 本帖最后由 吊打华伪 于 2025-4-2 15:09 编辑 </i><br /><br />
是这样的,昨晚睡觉前在被窝和deepseek说,int4模型显卡不支持要退回fp16计算,然后deepseek一直给我洗脑!<br />
<br />
他说,int4反量化fp16后要回写显存或者内存,然后进行矩阵运算时要再次从显存或者内存读取。<br />
<br />
然后我问为什么英伟达不把反量化后就进行矩阵运算,不就不用读取显存或者内存了吗?<br />
<br />
deepseek又说,1.构架比较早,当时还没AI计算,英伟达没想到。 2. 市场需求,要兼顾游戏卡之类。。。<br />
<br />
反正时baba说了一堆!<br />
<br />
<br />
<br />
结果:<br />
<br />
1.问了下openai 和google 2.5, 都坚决否认会二次读取显存或者内存!<br />
<br />
<br />
一会下面分3楼把对话都发上来! 高下立判!<br />
<br />
<br />
<br />
update: <br />
============================================<br />
快来看,我还没发完数据,傻逼粉蛆就急眼了! 真是不管事实,只看立场!<br />
<br />
我先不发了,等等看看还有多少傻逼急眼了<img src="https://hostloc.com/static/image/smiley/default/lol.gif" smilieid="12" border="0" alt="" /> <br />
好羡慕你天天专门找屎吃找得这么高潮 。。。 我看什么立场,我只是针对你这个垃圾人,仅此而已 好羡慕你每天都能高潮好几次<img src="https://hostloc.com/static/image/smiley/default/lol.gif" smilieid="12" border="0" alt="" /> DS是得罪你了吗,我的哥,你天天咬住不放 又是何必 哗众取宠而已 DS胡言乱语我早就发现了啊.<br />
他不能连续问答 GPT可以连续问答. 有时候甚至会更懂我的意思.就是回答的越来越好. <br />
但是DS.一旦连续问答. 就开始胡言乱语.. 2楼----deepseek 占楼 你是shabi <i class="pstatus"> 本帖最后由 吊打华伪 于 2025-4-2 15:04 编辑 </i><br />
<br />
3楼----chatGPT 占楼<br />
<br />
<br />
运行int4模型,但是显卡不支持int4,只能退回fp16计算,现在问题是这个过程是否是先从显存读取int4后经过反量化到fp16后,要先写回显存,然后cuda再次读取显存后再进行矩阵运算? 也就是要二次读取数据???<br />
<br />
<br />
ChatGPT 说:<br />
推理关于显卡计算过程,持续 20 秒<br />
通常情况下,不会发生二次读取显存的过程。大多数实现方案会在 CUDA 内核中直接将从显存中加载的 int4 数据进行反量化(转换成 fp16),这个转换通常在寄存器或共享内存中完成,然后直接用于矩阵运算,而不需要先写回全局显存后再重新加载数据。当然,具体细节可能依赖于具体的实现和优化方案,但高效的实现都会尽量避免额外的内存传输开销。<br />
<br />
<br />
<br />
======================<br />
BTW, 我这个免费号貌似问多了,被降低智商了,每次回答字数都不多,看来要换个号,缓一缓了<img src="https://hostloc.com/static/image/smiley/default/lol.gif" smilieid="12" border="0" alt="" />
页:
[1]
2