而且**的问题是不会的问题强行乱说,涉及某些明确答案的问题,稍微懂的就会知道错,直接用在搜索引擎是个隐患。
消耗的资源多,后面缩减了资源回答的质量就下降。 被某些美吹给毒奶奶死了。
sarcasm aside,
主要是瓶颈了, 电网、训练材料 及 大模型本身scaling的问题。最后一个问题最大。
或者说,大模型表现出来的逻辑本身不是逻辑,而是概率。
或许Transformer 本身可能也就这样了,可能以后会有其它的魔法。
毕竟这是过去十几年最靠谱的玩意儿了,比区块链元宇宙靠谱多了
瓶颈了也可以缩模型呀
通义千问现在的32b比自家上一代72b强,和别家72b有来有回,其实很有意义的。 刚才给了Chat**一堆坐标点,让他把x的数值都乘2。结果就是不对的,搞的还是自己写了程序来做。 装陈醋的酱油瓶 发表于 2024-11-29 16:00
被某些美吹给毒奶奶死了。
sarcasm aside,
哪瓶颈了,开源模型一个接一个,一个比一个强。写代码完全有能力替代很多程序员了。 af_x_if 发表于 2024-11-29 16:07
瓶颈了也可以缩模型呀
通义千问现在的32b比自家上一代72b强,和别家72b有来有回,其实很有意义的。 ...
32b用什么机器跑? 豆包还可以, 每次回答后会给出一些有用的搜索链接 无论什么东西,只要是通用的,就无法开疆拓土。我的个人观点,目前这种形态的各家ai模型,全部没有商业化的可能,一丁点都没有可能。只能期待细分行业另外突破,再套用目前的ai逻辑特征找到立足点才能活下来。总结,先在细分行业从一开始就在代码中布局钳入商业基因。说白点就是有商业化前景的细分市场切入。结构就是:先造毛细血管再到心脏,而不是现在就造个心脏。 netjunegg 发表于 2024-11-30 10:59
32b用什么机器跑?
22gb显存需求。 最近发现,非通用的**反倒更好用
在其领域内的问题都基本都正确回答,范围外,就直接回答范围外
而通用型,即使不知道答案,它都会硬生生给你生出一个像模像样的答案,这种最麻烦,也最危险 **4开始左脚踩右脚自己生成垃圾喂自己,那可不就越来越蠢
页:
1
[2]