我:把 SDR 白点亮度锚在标准的 100 cd/m² , 转换到 HDR.
你:根据最新的BT.2408规范标准HDR基准白是203nits而不是什么100nits
我寻思也没人说过 HDR paperwhite 是 100 cd/m² 啊?这是在承认之前虚空立靶还是原地打滚啊……?我是没看懂哈。
2.我说的是SDR标准下观看环境需求压根没跟你在扯什么SDR转HDR需要什么观看环境问题
还是我:把 SDR 白点亮度锚在标准的 100 cd/m² , 转换到 HDR.
还是你:就是在胡说八道,首先蓝光格式对于最大以及最低亮度并没有做任何限制,具体输出多低的亮度还是多高的亮度是你显示器设备决定的。建
议具体多高亮度要参考你观看环境才行。
那么 SDR 本身没有绝对亮度元数据,和技术上客观讨论 SDR / HDR 的差异,需要以一台能覆盖 [0,10000] 完整 HDR 范围的显示器为例,计算其在标准的监看环境 / 白点亮度下时两者的精度差异,有任何矛盾的点吗?还是说现在的你又承认了之前的你在虚空立靶,胡言乱语?
3.SDR是相对亮度跟本不存在绝对亮度的说法,也就是说你显示设备SDR模式下输出的最高亮度就是SDR 100%亮度值。虽然建议的参考亮度是80-120nits之间。
指定了范围的相对亮度和绝对亮度没有任何差异。很显然:HDR 的本质就是一个指定了固定范围的相对亮度。
从 EOTF 最终的实现角度上都是相对亮度,没有任何区别。你进了显示器就是三道归一化信号,[0,1] , 统统是相对的。
4.8 bit SDR 转到 10 bit HDR 会出现精度丢失,但是 8 bit SDR 转 12 bit HDR 不会,这不就是典型的处理精度不足造成的灰阶断层吗?关显示设备P的关系,在转换过程中已经出现灰阶断层问题了。 前面所有对话都说得明明白白:哪怕处理精度是 65536 bit , 把 8 bit SDR 的素材转换到 10 bit HDR 显示设备上会丢精度,但是把 8 bit SDR 的素材转换到 12 bit HDR 显示设备上不会丢精度。
73.7 cd/m² 到 100 cd/m² 的亮度范围,对于 8 bit SDR 而言是 33 个灰阶……而在 10 bit HDR 里,这个范围是 30 个灰阶。
你的显示器只剩 30 阶的精度了,待上变换的内容占了 33 个码值,所以丢精度了,能理解吗?
30 个灰阶没法完整再现 33 个灰阶的全部内容,能理解吗?
你现在告诉我的事实 be like:
你自己无法理解"30 个灰阶没法完整再现 33 个灰阶的全部内容" , 并且你试图搜查整个互联网来辅助你理解"30 个灰阶没法完整再现 33 个灰阶的全部内容" , 同时你找过你身边所有懂这方面的人,全都不知道如何去理解"30 个灰阶没法完整再现 33 个灰阶的全部内容" 。
我开始怀疑你应该是在某个特殊的地点,身边的人都是一些特殊的人了。
5.一个追求的是还原 SDR , 一个追求的是模拟 HDR。那么windows要多此一句的SDR to hdr的转换?况且本身技术标准上是一样的,说简单点都是把SDR内容扩展到HDR中。况且游戏中AUTO HDR目的不就是用来模拟HDR效果吗?
你都认为技术标准的上变换相比逆色调映射是“多此一举”了……甚至“本身技术标准上是一样的,说简单点都是把SDR内容扩展到HDR中”,不禁让我联想到了你的“HDR本身就是高动态范围图像的SDR”高论,这种透露出一股浓浓民科气息的神论我觉得一般还是很难见到的。
这就是你和你身边“懂这方面”的人的认知吗?
那确实挺懂的,鼓掌。
是谁在胡说八道?我这些内容至少是有依据可循的,至少是能找到相关内容的而不是像你这种除了你这里说到外其余地方压根找不到类似的内容。我都已经把BT.2100 2390 2408 2446这些翻了一遍都没找到类似的内容。反正我是不信一个正确的内容其它地方找不到任何相关信息。
仔细想想你神论还真不少,来摘抄几段:
“无论HDR转SDR还是SDR转HDR这个过程不会造成信息的丢失”
“就比如要还原0-200nit之间的信息,HDR10就是纪录50nit 100nit 150nit 200nit这几个亮度节点,而按照SDR下就是200nit(100%),然后按照75% 50%以及25%换算,这样SDR模式下就能实现HDR 0-200nit之间完整信息了。”
“如今的HDR设备跟非HDR设备最大区别只是HDR模式下能触发更高的峰值亮度。”
确实就挺震撼的,这就是你有据可循、能找到一大堆类似内容……甚至还写进了了 ITU-R Recommendation 的正确信息。哦差点忘了,你身边还有一帮“懂这方面”并且支持你观点的好朋友。
原来是捅了民科窝了。
|