苦忘
发表于 2023-11-17 03:28
我用的4.9的模型,然后4K 60fps没有压力呀
pdvc
发表于 2023-11-17 10:31
苦忘 发表于 2023-11-17 03:28
我用的4.9的模型,然后4K 60fps没有压力呀
楼主说的是非整数倍的4K60,比如23-25的补帧到60,这个4090带不动。
另外从4.10开始加码了,多了30%功耗,然后ensemble版模型,4K整数倍下4090都跑不动了。
小心夹脚
发表于 2023-11-18 17:02
kongzheng3333
发表于 2023-12-4 21:08
RIFE更新至v4.13 omnx文件下载链接 看benchmark图是一次不小的进步
fatezeroart
发表于 2023-12-4 21:55
kongzheng3333 发表于 2023-12-4 21:08
RIFE更新至v4.13 omnx文件下载链接 看benchmark图是一次不小的进步
简单测了下,细小物件动态硬字幕处理上比4.12又更进了一步,4.12下还有少数动态场景硬字幕的抖动也得到了改善不抖了,看动漫现在只需要4.13
pdvc
发表于 2023-12-4 22:04
kongzheng3333 发表于 2023-12-4 21:08
RIFE更新至v4.13 omnx文件下载链接 看benchmark图是一次不小的进步
这更新频率,国内CV圈真是太卷了[流汗]
kongzheng3333
发表于 2023-12-4 22:04
fatezeroart 发表于 2023-12-4 21:55
简单测了下,细小物件动态硬字幕处理上比4.12又更进了一步,4.12下还有少数动态场景硬字幕的抖动也得到了 ...
我看电视剧也会开RIFE 感觉补帧效果甚至比动漫更自然[偷笑]
kongzheng3333
发表于 2023-12-4 22:13
pdvc 发表于 2023-12-4 22:04
这更新频率,国内CV圈真是太卷了
开发RIFE的大佬现在在上海阶跃星辰 不知道这是家怎么样的公司
fatezeroart
发表于 2023-12-4 22:16
kongzheng3333 发表于 2023-12-4 22:04
我看电视剧也会开RIFE 感觉补帧效果甚至比动漫更自然
是的电影看起来更爽,现在动漫的硬字幕也处理的接近完美了,就差一些密集线条的极个别场景还有些许伪影要是也能解决的话那就真完美了
lyys
发表于 2023-12-4 22:30
到v14.test3了[流汗]
redraiderj
发表于 2023-12-4 23:52
kongzheng3333 发表于 2023-12-4 21:08
RIFE更新至v4.13 omnx文件下载链接 看benchmark图是一次不小的进步
4.13lite是绿色那根还是浅蓝色那根?
lyys
发表于 2023-12-4 23:55
下来试了一下,RTX超分4级+4.13v2补帧25->50,3080ti差不多快冒烟了
kongzheng3333
发表于 2023-12-5 08:45
redraiderj 发表于 2023-12-4 23:52
4.13lite是绿色那根还是浅蓝色那根?
绿色那根
kongzheng3333
发表于 2024-1-8 23:35
RIFE更新至v4.14
画面瑕疵问题又有进步,有兴趣的可以对比药屋少女第一集6:50秒如图所示画面处,比4.13瑕疵明显更小。有意思的是4.13lite此处没有瑕疵,猜测是补帧力度较小所以画面瑕疵也较小。另外一点是mpv-lazy使用4.14比mpc-be外挂svp 4.14此处表现要更好,这个就不知何故了。
donkey_ever
发表于 2024-1-9 08:29
你都用上rife了,跟给svp上供美刀还有什么必然关系吗?
kongzheng3333
发表于 2024-1-9 08:56
donkey_ever 发表于 2024-1-9 08:29
你都用上rife了,跟给svp上供美刀还有什么必然关系吗?
一开始是不知道mpv-lazy 用到现在回过头看 能调用VSR的同时RIFE实时插帧 还能继续使用原来符合自己使用习惯的播放器的方法好像也只有svp了吧 或者说有别的办法?
孤刀踏歌行
发表于 2024-1-9 21:45
好耶,期待更好的性能和效果
gdsd
发表于 2024-1-9 22:21
mark
hsy5571615
发表于 2024-1-25 23:02
pdvc 发表于 2023-11-17 10:31
楼主说的是非整数倍的4K60,比如23-25的补帧到60,这个4090带不动。
另外从4.10开始加码了,多了30%功耗 ...
想请教下lite、不带后缀版和ensemble这三种模型,是不是压力和性能依次提高的?
pdvc
发表于 2024-1-25 23:20
hsy5571615 发表于 2024-1-25 23:02
想请教下lite、不带后缀版和ensemble这三种模型,是不是压力和性能依次提高的? ...
ensemble是整合所有模型出结果,负载最大,没啥必要。
不带后缀是标准版,负载居中,然后是lite版。v2是标准版的seek优化版。
hyunjin
发表于 2024-1-25 23:47
还在用madvr,AI时代我落伍了。。
ligs85
发表于 2024-1-26 12:58
pdvc 发表于 2024-1-25 23:20
ensemble是整合所有模型出结果,负载最大,没啥必要。
不带后缀是标准版,负载居中,然后是lite版。v2是 ...
大佬,请问用MPV_lazy如何启用v2版模型?
seek延迟太难受了[吐槽]
pdvc
发表于 2024-1-26 13:54
ligs85 发表于 2024-1-26 12:58
大佬,请问用MPV_lazy如何启用v2版模型?
seek延迟太难受了
我用的是MPC/POT+SVP。
mpv的你试试改文件名替换模型。
kongzheng3333
发表于 2024-1-26 15:33
ligs85 发表于 2024-1-26 12:58
大佬,请问用MPV_lazy如何启用v2版模型?
seek延迟太难受了
github里那个问题就是我提的。。。找到MEMC_RIFE_NV.vpy这个文件 Ext_Proc这行true改False就行
hsy5571615
发表于 2024-1-26 15:33
pdvc 发表于 2024-1-25 23:20
ensemble是整合所有模型出结果,负载最大,没啥必要。
不带后缀是标准版,负载居中,然后是lite版。v2是 ...
模型在这里下载的:https://github.com/AmusementClub/vs-mlrt/releases/tag/external-models。我用v2版模型,训练时必然报错,不带后缀的就没问题,看了半天日志也没看出个所以然
Start parsing network model
----------------------------------------------------------------
Input filename: C:/Program Files (x86)/SVP 4/rife\models\rife_v2\rife_v4.9.onnx
ONNX IR version:0.0.8
Opset version: 16
Producer name: pytorch
Producer version: 2.2.0
Domain:
Model version: 0
Doc string:
----------------------------------------------------------------
onnx2trt_utils.cpp:377: Your ONNX model has been generated with INT64 weights, while TensorRT does not natively support INT64. Attempting to cast down to INT32.
onnx2trt_utils.cpp:403: One or more weights outside the range of INT32 was clamped
onnx2trt_utils.cpp:403: One or more weights outside the range of INT32 was clamped
onnx2trt_utils.cpp:403: One or more weights outside the range of INT32 was clamped
onnx2trt_utils.cpp:403: One or more weights outside the range of INT32 was clamped
onnx2trt_utils.cpp:403: One or more weights outside the range of INT32 was clamped
Finish parsing network model
Could not read timing cache from: C:\Users\hhhh\AppData\Roaming\SVP4\cache\Program Files (x86)/SVP 4/rife\models\rife_v2\rife_v4.9.onnx.min64x64_opt1920x1088_max2560x1440_fp16_trt-8502_cudnn_I-fp16_O-fp16_NVIDIA-GeForce-RTX-4090_65612893.engine.cache. A new timing cache will be generated and written.
Init cuDNN: CPU +734, GPU +10, now: CPU 10048, GPU 1697 (MiB)
Global timing cache in use. Profiling results in this builder pass will be stored.
Using kFASTER_DYNAMIC_SHAPES_0805 preview feature.
Error: Error Code 2: Internal Error (Assertion isOpConsistent(deconvolution.get()) failed. Cask deconvolution isConsistent check failed.)
Error: Error Code 2: Internal Error (Assertion engine != nullptr failed. )
Engine could not be created from network
Building engine failed
Failed to create engine from model or file.
Engine set up failed
ligs85
发表于 2024-1-26 17:37
kongzheng3333 发表于 2024-1-26 15:33
github里那个问题就是我提的。。。找到MEMC_RIFE_NV.vpy这个文件 Ext_Proc这行true改False就行 ...
我看到提问了,没想到是你[傻笑]
很奇怪不是直接指定带v2的模型就可以吗? 为什么会有单独的开关...
ligs85
发表于 2024-1-26 17:37
pdvc 发表于 2024-1-26 13:54
我用的是MPC/POT+SVP。
mpv的你试试改文件名替换模型。
好的,谢谢
NullPointerExce
发表于 2024-1-26 17:46
现在老黄新出的一个 可以把SDR视频自动映射为HDR 不知道能不能在本地播放视频的时候用起来
孤刀踏歌行
发表于 2024-1-26 19:14
ligs85 发表于 2024-1-26 17:37
我看到提问了,没想到是你
很奇怪不是直接指定带v2的模型就可以吗? 为什么会有单独的开关... ...
因为不是直接根据名字调用模型的,MEMC_RIFE_STD.vpy 调用k7sfunc.py在去调用模型的,ext_proc就是个入参而已,通过这个入参判断调用v1/v2模型https://cdn.jsdelivr.net/gh/master-of-forums/master-of-forums/public/images/patch.gif
Illidan2004
发表于 2024-1-26 20:58
灵乌路空 发表于 2023-11-16 17:13
git上的MPV_lazy
免费体验也不比买个svp差
这个MPV怎么对接SVP Rife?