原帖由 @zmqzmqzmq 于 2019-9-11 06:52 PM 发表
SRGB标准(伽玛2.2 最高120cd)完全可以满足亮室环境游戏要求。
HDR有点过亮了。
原帖由 zmqzmqzmq 于 2019-9-11 18:52 发表
posted by wap, platform: Android
SRGB标准(伽玛2.2 最高120cd)完全可以满足亮室环境游戏要求。
HDR有点过亮了。
原帖由 @夏青 于 2019-9-11 19:14 发表
hdr要求的是容宽度
其实如果你的面板黑色潜得下去,不用开那么亮
原帖由 @zmqzmqzmq 于 2019-9-11 19:26 发表
显示设备没有宽容度这个参数。
彩监709下的黑色标准是灰阶20亮度为2.7cd。
原帖由 @夏青 于 2019-9-11 19:41 发表
反正我看oled的hdr片子比lcd的舒服多了
黑是真黑,亮也没那么刺眼,就是通透
原帖由 @zmqzmqzmq 于 2019-9-11 19:48 发表
暗室100cd,伽玛2.4的709色域标准下的艺卓液晶都感觉刺眼。
OLED蓝光峰值比较强,还是多爱护下眼睛。
原帖由 @夏青 于 2019-9-11 19:53 发表
lcd刺眼睛正常,原来用lcd看电影难受
现在换了好多了。电视的距离远,蓝光比显示器伤害少多了,还是别老坐显示器前面吧,沙发电视美滋滋
原帖由 @zmqzmqzmq 于 2019-9-11 20:04 发表
当然是65寸等离子,55寸A8F换着用。
蓝光强度和亮度接近等比,和距离关系不大。
原帖由 @grammyliu 于 2019-9-11 19:56 发表
懂摄影的人就懂了HDR的好处在哪里了,跟照相机传感器的宽容度和出片效果的道理是相似的
原帖由 @zmqzmqzmq 于 2019-9-11 08:16 PM 发表
不太懂你的意思。
拍摄视频的话,宽容度应该和设备硬件有关,和记录的格式(RAW)有关,和记录的色深(10bit)有关。
至于本帖讨论的HDR设备显示的宽容度,你的意思大概是用8bit设备算法降级后显示10bit原始信号的使用环境,设备的最低和峰值亮度之间的差值,HDR比SRGB差值的绝对值更大的意思。
原帖由 @夏青 于 2019-9-11 20:07 发表
不大喷了…
你5米闪光灯和50cm看闪光灯试试
原帖由 @grammyliu 于 2019-9-11 20:24 发表
“手机的HDR拍照就是高动态范围,用于对象的最明亮和最暗部分相差特别大的时候。HDR开启后会连拍三张照片,分别对应欠曝光、正常曝光和过度曝光,然后把这三张图片合到一块并且突出每张照片最好的部分从而生成一张精妙绝伦的照片。”——游戏和电影在hdr显示设备上显示的我认为就是这种后期处理过的假影像,优势是不言而喻的。
在传统摄影中,因为没有多张照片合成这一步,照相机的传感器的尺寸越大宽容度越大,那么只拍摄一张照片(一次曝光)时可以同时记录和可还原的明暗信息也就越丰富,反映到出片上时就是亮和暗部的细节都可以得到很好的再现。
这些我认为与8bit和10bit,也就是与颜色无关。
本帖最后由 grammyliu 于 2019911 20:28 通过手机版编辑
原帖由 @zmqzmqzmq 于 2019-9-11 20:26 发表
人眼对中等、低亮度环境感知最敏感,对超过350cd亮度以上的色彩分辨和“感知亮度”并不是直线分布,这也是伽玛1886曲线为什么不是一条直线的原因。
电影院调教出来的标准亮度如果是100cd,那么对应的3色xyY的Y是固定值,蓝色Y强度值也是固定的。
所以为什么我强调了你在OLED上跑HDR伤眼,就是因为WOLED的蓝色曲线峰值集中,而入眼的白色是由红绿蓝3原色组成,如果要达到650cd常亮标准,这个蓝色强度是和650cd白色等比例变化的,所以我说他的强度和亮度接近等比。
你觉得5米和50cm距离无遮挡能对650cd强度的光线产生多大的衰减?如果这个衰减很大,校色的话就得再加个测试绝对距离的参数了。
本帖最后由 zmqzmqzmq 于 2019911 20:29 通过手机版编辑
原帖由 @zmqzmqzmq 于 2019-9-11 08:29 PM 发表
这种算是在有限的色彩空间里,比如常用SRGB环境(8bit)下,用“算法”去“修饰”照片。
原帖由 @夏青 于 2019-9-11 20:34 发表
光强和距离无关,听了这话爱因斯坦怕是要气死了。打破波粒二象性理论么?
强弱还用算吗?相机闪光灯5米看和怼着你眼睛闪你感受一下不就知道了。
另送一个公式,光照度与距离的平方成反比。百度即可
原帖由 grammyliu 于 2019-9-11 08:42 PM 发表
posted by wap, platform: Samsung
10bit 8bit应该是动态范围,跟色域无关,是不是这样?我也在google,边看边学,大家一起讨论
原帖由 @grammyliu 于 2019-9-11 20:35 发表
HDR是一个与颜色无关的概念,实现HDR效果和输出有两种途径:算法和带HDR功能的传感器,个人感觉游戏里肯定是前者,电影拍摄应该是后者
HDR images can represent a greater range of luminance levels than can be achieved using more traditional methods, such as many realworld scenes containing very bright, direct sunlight to extreme shade, or very faint nebulae. This is often achieved by capturing and then combining several different, narrower range, exposures of the same subject matter.
原帖由 @zmqzmqzmq 于 2019-9-11 20:41 发表
不用抬杠,在5米和50cm这个距离上,无遮挡环境,OLED飙到650cd下,对你眼睛的伤害是基本一致的,不用引申为无限距离。
换个说法,无限距离下,还有讨论HDR的意义么?
是吧?
原帖由 @zmqzmqzmq 于 2019-9-11 08:50 PM 发表
电影拍摄记录的是RAW,比常规商用HDR视频记录的10bit色深,覆盖大部分2020色彩空间,带4:2:0的信息量。
游戏如果原始素材是SRGB或者P3的,映射到2020色域理论上显示出来应该与SRGB环境保持一致,并不会多出来更多的颜色,甚至因为原始素材是8bit的,伸张到10bit环境,也还是与原始素材的表达应该一致。
所以这是两种不同的生成方式,一个是记录后降质,一个“很可能”是“低转高”,用高标准去“映射”非标准素材。
但理论上不论他们怎么变,理论上通过色彩转换后不做任何变动,最终的“表达”应该是一样的,因为HDR的色域和色深远远大于SRGB环境。
原帖由 @夏青 于 2019-9-11 20:50 发表
基本一致张嘴就来嘛?
你测了?
公式都给你了,你自己想想吧。
如果不信下次闪光灯怼脸、反正区别不大不是吗
实例和公式都给你了,你选哪种都可以。不谢
原帖由 夏青 于 2019-9-11 20:50 发表
posted by wap, platform: iPhone
基本一致张嘴就来嘛?
你测了?
公式都给你了,你自己想想吧。
如果不信下次闪光灯怼脸、反正区别不大不是吗
实例和公式都给你了,你选哪种都可以。不谢
原帖由 狂风007 于 2019-9-11 21:34 发表
非常正确,真正优秀的显示面板都是主动发光的比如等离子和OLED,因为黑色黑的下去,所以不用开很亮就能得到优秀的画面。
而LCD这种被动发光的就不行了,因为LCD黑色黑不下去,所以只能提高亮度来提高对比度,具 ...
原帖由 @zyray 于 2019-9-11 11:11 PM 发表
现在还有人认为视频HDR和照片HDR一回事?!!差远了好吗!
最新超高清UHD Premium的标准就是4k 10Bit bt2020色域(实际显示至少覆盖90%p3)+HDR,严格地说你显示设备不支持HDR都算不上超高清!
另外,HDR看着晃眼难受的,不是显示设备太烂,就是调色太烂。
真正的HDR主要提升的高亮部分的细节,中暗部其实和Bt709没有多大区别!
有些人人制作HDR视频时,为了强调HDR感,使劲的提高反差,该亮的地方亮了,不该亮的地方也亮了!暗部又压个死黑....不晃眼才怪呢!!!
色阶的问题不想做太多说明了~容器大了,想装满还保持原有的密度,怎么办?
以上内容不服来战!
顺便臭屁下,我制作的影片去年全国 4KHDR杯第二名!
原帖由 @grammyliu 于 2019-9-11 23:27 发表
谁说是一回事了?说的是概念类似,通过类比获得理解是最基本的学习方法了。“亮部和暗部的细节”,就这个跟照片的宽容度的定义有什么冲突吗?
本帖最后由 grammyliu 于 2019911 23:29 通过手机版编辑
原帖由 @zmqzmqzmq 于 2019-9-12 08:59 AM 发表
照片那种HDR“修饰”形式是在有限的色彩空间塞入更多的可识别信息,但并不能改变本身容纳信息量和分级数量不足的缺陷,比如说709色域下8bit大面积云层画面很容易出现的色彩断层,后期需要通过加入噪点去“修饰”。
视频这种属于从根本上提高了信息量容积和分级数量,不需要照片HDR一样特别辛苦的去折中整个图像的明暗,因为本身标准就定得很高,硬件性能达标的话,就足以应付明暗部分的显示。
可以了解下RAW转换到SRGB色域环境的流程,把RAW的性能类比做视频HDR就行了。
原帖由 @grammyliu 于 2019-9-12 09:07 发表
我之前说了啊,hdr视频是拍摄是硬件直接拍出来的不是算出来的,但无论是成果物是算出来的还是硬件拍出来的,表现出来的结果就是比不经过计算和不使用hdr拍摄设备宽容度更高了,明暗细节更丰富了;这些与色域无关,也就是说你一开始说的什么“srgb的亮度在环境光下足够了”这种观点与楼主的问题没有关系。hdr是一个宽容度的概念,跟色域(color gamut)没关,它是动态范围(daynamic range)。
原帖由 @grammyliu 于 2019-9-12 09:22 发表
回到楼主的问题,以下是我对楼主主帖的回复:
HDR的作用是让画面中过亮和过暗的局部中的细节显示得更丰富,这需要高亮度支撑,跟低亮度的SDR设备比起来“相对刺眼”会是必然的,但是我认为这种拿刺眼换细节是值得的,而且刺眼程度也是可以调节的。
但我的设备不行,机器5我只能用100的亮度,因为超过100高亮的天空里的云彩就会损失掉细节变成一块白,而100在特别暗的地下场景里对于我来说亮度是不够的,需要很费力地去分辨周围环境里的细节;把亮度调到300甚至更高就好很多,但是这时候天空的云彩又都看不见了。我猜想更好的HDR显示设备应该是可以在一个hdr亮度上做到两者兼得。
——以上这些都比SDR显示要相对刺眼一些,但我觉得完全在可接受范围之内,换得的暗部和亮部细节的丰富是前所未有的良好体验,值得。
以上。
原帖由 grammyliu 于 2019-9-12 09:07 发表
posted by wap, platform: Samsung
我之前说了啊,hdr视频是拍摄是硬件直接拍出来的不是算出来的,但无论是成果物是算出来的还是硬件拍出来的,表现出来的结果就是比不经过计算和不使用hdr拍摄设备宽容度更高了,明暗 ...
原帖由 @zyray 于 2019-9-12 11:05 发表
色域和HDR确实是两个概念~但还是有间接联系的,因为HDR需要更大的亮度空间,提升亮度~色彩空间就大了,色域自然也就大了!
欢迎光临 TGFC Lifestyle (http://tgfcer.com/) | Powered by Discuz! 6.0.0 |