ouqihang 发表于 2024-11-29 15:57

当初推出的时候,已经可以预料到,中文圈的内容就是屎,在屎上雕花,几大平台的内容都封闭起来。21年的时间节点网络上已经有不少生成的垃圾内容了,加上中文圈各家封闭,没有语料训练怎么会好。现在是各家都用自家的内容自己训练了。
而且**的问题是不会的问题强行乱说,涉及某些明确答案的问题,稍微懂的就会知道错,直接用在搜索引擎是个隐患。
消耗的资源多,后面缩减了资源回答的质量就下降。

装陈醋的酱油瓶 发表于 2024-11-29 16:00

被某些美吹给毒奶奶死了。

sarcasm aside,
主要是瓶颈了, 电网、训练材料 及 大模型本身scaling的问题。最后一个问题最大。
或者说,大模型表现出来的逻辑本身不是逻辑,而是概率。
或许Transformer 本身可能也就这样了,可能以后会有其它的魔法。
毕竟这是过去十几年最靠谱的玩意儿了,比区块链元宇宙靠谱多了

af_x_if 发表于 2024-11-29 16:07

瓶颈了也可以缩模型呀
通义千问现在的32b比自家上一代72b强,和别家72b有来有回,其实很有意义的。

JasonGreen 发表于 2024-11-29 16:45

刚才给了Chat**一堆坐标点,让他把x的数值都乘2。结果就是不对的,搞的还是自己写了程序来做。

williamqh 发表于 2024-11-30 10:16

装陈醋的酱油瓶 发表于 2024-11-29 16:00
被某些美吹给毒奶奶死了。

sarcasm aside,


哪瓶颈了,开源模型一个接一个,一个比一个强。写代码完全有能力替代很多程序员了。

netjunegg 发表于 2024-11-30 10:59

af_x_if 发表于 2024-11-29 16:07
瓶颈了也可以缩模型呀
通义千问现在的32b比自家上一代72b强,和别家72b有来有回,其实很有意义的。 ...

32b用什么机器跑?

netjunegg 发表于 2024-11-30 11:00

豆包还可以, 每次回答后会给出一些有用的搜索链接

ioko 发表于 2024-11-30 12:08

无论什么东西,只要是通用的,就无法开疆拓土。我的个人观点,目前这种形态的各家ai模型,全部没有商业化的可能,一丁点都没有可能。只能期待细分行业另外突破,再套用目前的ai逻辑特征找到立足点才能活下来。总结,先在细分行业从一开始就在代码中布局钳入商业基因。说白点就是有商业化前景的细分市场切入。结构就是:先造毛细血管再到心脏,而不是现在就造个心脏。

af_x_if 发表于 2024-11-30 12:28

netjunegg 发表于 2024-11-30 10:59
32b用什么机器跑?

22gb显存需求。

su2353 发表于 2024-12-1 13:12

最近发现,非通用的**反倒更好用

在其领域内的问题都基本都正确回答,范围外,就直接回答范围外

而通用型,即使不知道答案,它都会硬生生给你生出一个像模像样的答案,这种最麻烦,也最危险

yangzi123aaa20 发表于 2024-12-1 14:17

**4开始左脚踩右脚自己生成垃圾喂自己,那可不就越来越蠢
页: 1 [2]
查看完整版本: 大家有没有觉得市面上这些语言模型变"蠢"了?