皇冠3.0L 发表于 2025-9-18 20:06
支持普通话吗?
jaycty 发表于 2025-9-18 20:07
支持,英文视频和中文视频我全试了,特别厉害。语言保持默认的AUTO即可 ...
皇冠3.0L 发表于 2025-9-18 20:23
模型下载到本地硬盘后,生成字幕还依赖网络吗?
能不能断网离线生成
aozorahishi 发表于 2025-9-18 20:34
翻译也本地化可以本地跑一个模型,在播放器里通过鸡皮提的翻译插件走api翻译
https://github.com/Felix3322 ...
jaycty 发表于 2025-9-18 20:39
去年我对接过deepseek的模型,不是太好用,跑起来比较慢,思考过程也都显示出来了,我不太会调。 ...
ndswj 发表于 2025-9-18 20:46
试了一下,生成中文好像是繁体字
ndswj 发表于 2025-9-18 20:46
试了一下,生成中文好像是繁体字
jaycty 发表于 2025-9-18 12:39
去年我对接过deepseek的模型,不是太好用,跑起来比较慢,思考过程也都显示出来了,我不太会调。
这项目 ...
BloodRaining 发表于 2025-9-18 23:35
用我的5090试了试 最大模型ggml-large-v3-turbo,体验强悍无比,代价是5090直接占用10G显存,机箱风扇转速 ...
powerduke 发表于 2025-9-18 23:41
https://www.koc.com.tw/archives/595714
网上的方法试了下,pot可以本地llm翻译,效果可用,测试了下,开 ...
powerduke 发表于 2025-9-19 00:33
1080P的无字幕版Dracula A Love Tale (2025)mp4测试,
字幕生成 + 自动翻译,5070ti已经接近100%占用率了 ...
allensakura 发表于 2025-9-19 00:19
字幕跑了几段之后直接消失,看转换引擎还在启用,很正常
不知道怎解决.... ...
sun1a2b3c4d 发表于 2025-9-18 22:12
请问large的v3性能最好吧?Vulkan和CUDA用哪个好呢?
BloodRaining 发表于 2025-9-18 23:35
用我的5090试了试 最大模型ggml-large-v3-turbo,体验强悍无比,代价是5090直接占用10G显存,机箱风扇转速 ...
Wang_Yves 发表于 2025-9-19 01:08
非实时用的vulcan,他推荐的那个一直下载不下来。
实时选的vlucan(客户端推荐),不需要额外下载引擎文 ...
sun1a2b3c4d 发表于 2025-9-19 01:17
多谢,我的设定和你一样,但是Auto模式下有时会出现语种识别错误的情况,最好还是手动选择。 ...
jaycty 发表于 2025-9-19 00:44
显卡性能不足
wm1128 发表于 2025-9-19 01:30
最近有项目用到whisper和微软的speech text,感觉质量离生产力还是有不小的差距的 ...
sun1a2b3c4d 发表于 2025-9-19 01:17
多谢,我的设定和你一样,但是Auto模式下有时会出现语种识别错误的情况,最好还是手动选择。 ...
红色惊雷 发表于 2025-9-19 10:38
可以离线输出字幕吗?实时跑我怕性能不够···
sun1a2b3c4d 发表于 2025-9-19 01:11
turbo是给偏好更快推理速度的用户用的,如果你想更准确应该用v3。
jaycty 发表于 2025-9-19 00:11
这个模型是最大的吗?才1.5GB大小啊。我这里只吃2G多显存,没有ggml-large-v3.bin吃得多 ...
BloodRaining 发表于 2025-9-19 11:50
v3最大,turbo不大我理解错误。看有个turbo以为更强
graz_chell 发表于 2025-9-19 11:51
请问下,AMD显卡能用吗?看回复基本都是N卡,是只能N卡么。。
allensakura 发表于 2025-9-19 11:25
翻译效果最好的是qwen3-30b-A3B,但是恐怕要24G才能跟上实时翻译的需求,特别是large-v3语音识别还要吃2. ...
graz_chell 发表于 2025-9-19 11:51
请问下,AMD显卡能用吗?看回复基本都是N卡,是只能N卡么。。
allensakura 发表于 2025-9-19 11:25
翻译效果最好的是qwen3-30b-A3B,但是恐怕要24G才能跟上实时翻译的需求,特别是large-v3语音识别还要吃2. ...
jupz 发表于 2025-9-19 12:21
好像只是N卡福利,我9070xt,只有tiny最好用
jupz 发表于 2025-9-19 12:21
好像只是N卡福利,我9070xt,只有tiny最好用
allensakura 发表于 2025-9-19 14:43
能帮我看一下9070xt延迟吗?4080使用V3延迟在1-3s左右,算是可用
v3 turbo没什么区别
megaslx 发表于 2025-9-19 15:24
很多电视剧或者电影其实是由英语字幕的,到不一定非要语音转文字才能翻译,不知道能不能直接从内嵌字幕着手 ...
sun1a2b3c4d 发表于 2025-9-19 15:23
请问CUDA有比Vulkan好用吗?
megaslx 发表于 2025-9-19 15:24
很多电视剧或者电影其实是由英语字幕的,到不一定非要语音转文字才能翻译,不知道能不能直接从内嵌字幕着手 ...
sun1a2b3c4d 发表于 2025-9-19 15:23
请问CUDA有比Vulkan好用吗?
iamyangyi 发表于 2025-9-19 07:43
支持哪些国家语言 有日语不 ,看番就方便了。
Judecca 发表于 2025-9-19 16:09
完美解码行不行?
Wang_Yves 发表于 2025-9-19 17:47
昨晚试了几个视频,正常语速正常对话、独白能识别,“特殊的语气词、呐喊、尖叫、呻吟”等无法正常识别。 ...
Wang_Yves 发表于 2025-9-19 17:47
昨晚试了几个视频,正常语速正常对话、独白能识别,“特殊的语气词、呐喊、尖叫、呻吟”等无法正常识别。 ...
sun1a2b3c4d 发表于 2025-9-19 18:08
看来恐怖片和战争片不太适合用
jaycty 发表于 2025-9-19 02:06
目前我用过的语音识别率最强的是豆包。
netjunegg 发表于 2025-9-19 21:26
确实有这需求,不一定实时。如果有个独立工具,可以根据视频文件生成字幕文件也很好。 字幕生成后,再用播 ...
流氓海 发表于 2025-9-18 22:52
有没有下载好的模型啊,自己下载太久了
xiao88 发表于 2025-9-20 04:13
是不是只能支持WMV格式啊?!
欢迎光临 Chiphell - 分享与交流用户体验 (https://www.chiphell.com/) | Powered by Discuz! X3.5 |