找回密码
 加入我们
搜索
      

在火山引擎上用api方式做了实验,关于llm本地部署不得不说

查看数: 1250 | 评论数: 9 | 收藏 2
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2025-6-13 12:02

正文摘要:

程序python的,主要功能是基于llm的自动的论文抓取、分析、实验、写报告。 在火山引擎花19.9整了2千万tokens的额度,整个跑下来的大体数据: 1. 数据:2篇英文论文全篇 2. llm流程:生成概要、多个agent角色生成多 ...

回复

powerduke 发表于 2025-6-13 22:46
pdvc 发表于 2025-6-13 20:35
H200八卡机器价格在200-230左右。

好吧,告辞
pdvc 发表于 2025-6-13 20:35
powerduke 发表于 2025-6-13 17:18
看新闻介绍还是要买nv的专业产品,不知道价格几何

H200八卡机器价格在200-230左右。
neavo 发表于 2025-6-13 17:59
本帖最后由 neavo 于 2025-6-13 18:07 编辑

火山API的整体优化是吞吐向的而不是延迟向的,可以尝试把任务并行化,几十kt/s的吞吐速度很轻松,可以算是个人账户速度限额给的最宽松的平台了

01.jpg
powerduke 发表于 2025-6-13 17:40
YsHaNg 发表于 2025-6-13 17:10
我选择白嫖一手gemini 现在市场还在早期 过两天就会再送免费高阶额度 上次的azure r1 perplexity pro 够用 ...

基于工作流方式,实际用哪个llm平台影响不太大,目前我的选择标准肯定是哪个便宜快就支持哪个。
powerduke 发表于 2025-6-13 17:18
pdvc 发表于 2025-6-13 14:22
本地跑速度在3000-4000t/s,可以试试NIM

看新闻介绍还是要买nv的专业产品,不知道价格几何
YsHaNg 发表于 2025-6-13 17:10
我选择白嫖一手gemini 现在市场还在早期 过两天就会再送免费高阶额度 上次的azure r1 perplexity pro 够用好久
pdvc 发表于 2025-6-13 14:22
本地跑速度在3000-4000t/s,可以试试NIM
木子滴血 发表于 2025-6-13 13:19
什么?本地大语言模型不都是为了RP(角色扮演)吗
kkiller007 发表于 2025-6-13 13:11
本地碰到上下文内容大 就会大量占用显存拖慢速度

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-6-26 22:59 , Processed in 0.009480 second(s), 7 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表