» 您尚未登录:请 登录 | 注册 | 标签 | 帮助 | 小黑屋 |


发新话题
打印

[新闻] 目前效果最好的CG图片,不知哪年能即时演算出来

引用:
原帖由 级替四 于 2013-7-31 01:33 发表
哭姐3的引擎没这个潜力,光照准确度有硬伤。
CE3静态渲染可以做到比较接近的效果,但达不到100%相同的层次
现在几大GI的问题:LPV只有日光严谨一点,夜间靠规模照明堆;Enlighten不能适应场景动态变化;UE4用SVO探测效果是最好的,但速度慢目前只有GTX680能勉强跑,所以太监了……


TOP

难得看见说的很靠谱的,不知道ls是哪个公司的啊?:D

[ 本帖最后由 shinkamui 于 2013-7-31 05:56 编辑 ]



TOP

引用:
原帖由 Nemo_theCaptain 于 2013-7-31 01:44 发表

CE3静态渲染可以做到比较接近的效果,但达不到100%相同的层次
现在几大GI的问题:LPV只有日光严谨一点,夜间靠规模照明堆;Enlighten不能适应场景动态变化;UE4用SVO探测效果是最好的,但速度慢目前只有GTX680能勉 ...
“本人中的第一篇siggraph,还有幸被选入了SIGGRAPH Trailer,立刻要在siggraph 2013上发表了,借这里宣传一下。是关于用神经网络做实时GI的。光源可变、视点可变、材质可变,>30FPS。” by gongminmin

http://www.opengpu.org/forum.php?mod=viewthread&tid=15585

pdf共享在http://pan.baidu.com/share/link? ... 5&uk=2234620764
video共享在http://pan.baidu.com/share/link? ... 7&uk=2234620764

不晓得离实用化程度有多远。。


TOP

下一代主机像样一点的实时动态全局光都跑不好真是太监,考虑攒钱配pc了,主机就玩玩独占吧。

TOP

婊子的深坑有新消息了,看上去很诱人。

TOP

很真实的画面。

TOP

引用:
原帖由 wk6833795 于 2013-7-31 10:12 发表
婊子的深坑有新消息了,看上去很诱人。
在哪里??

TOP

引用:
原帖由 变色龙 于 2013-7-31 11:04 发表

在哪里??
http://game.watch.impress.co.jp/ ... 0130731_608483.html

TOP

现在很希望拉拉比回归。。
真融合是每家厂家的目标。。
到了这个年代,大家都不用买硬件,。。
俺估摸初步定价,8tf/5文rmb/1小时吧。。

TOP

posted by wap, platform: Chrome
引用:
原帖由 @MAYL  于 2013-7-28 09:27 发表
做到完全和真实一样  眼睛看的会累死的  这样的游戏也不适合太长
。。。我看真实世界20多年了。也没累死。

TOP

引用:
原帖由 wk6833795 于 2013-7-31 11:13 发表

http://game.watch.impress.co.jp/ ... 0130731_608483.html
看不懂,好像深坑用的64x64x64的SVOGI,这精度也太低了吧

TOP

引用:
原帖由 wk6833795 于 2013-7-31 11:13 发表

http://game.watch.impress.co.jp/ ... 0130731_608483.html
看了一下访谈,跟MT比,Deep down这个Panta Rhei更先进,对延迟渲染和通用运算更深入
问题是,CAPCOM现在不缺搞引擎的人,缺的是靠谱的美工和特效师
拿去年的生化6来说吧,从引擎支持特性来看6肯定是比5丰富的,结果呢?
所以我个人不看好现在的CAPCOM,就算他们能做出一个强大的引擎,手下一大堆新人也缺乏把这个引擎发挥好的实力
再说,Deep down如果真的开发顺利,也不会避开E3展不展出了

TOP

引用:
原帖由 倍舒爽 于 2013-7-31 08:41 发表


“本人中的第一篇siggraph,还有幸被选入了SIGGRAPH Trailer,立刻要在siggraph 2013上发表了,借这里宣传一下。是关于用神经网络做实时GI的。光源可变、视点可变、材质可变,>30FPS。” by gongminmin

http: ...
KlayGE的参与者我都是相当佩服的,算是国内研究引擎技术最好的一批人了:D
大概溜了一眼视频和PDF,这个demo的特点是光源可变、视点可变、材质可变,但似乎没有提到场景是否动态可变,因为算法还是有很多预处理的部分,在下一代游戏里,GI算法能否适应动态场景是很重要的一点,CE3宁可大幅削减GI也要保证对动态场景的适应
demo很棒的一点是对材质变化和反射的体现,而且神经网络可以内插和外插,灵活性比较高
其实能拿到SIGGRAPH去讲,原理本身都是相当成熟且深思熟虑的,剩下的就是优化效率实现可用性了
所以就算这个demo目前跑得不够快,继续优化,投入流畅实际引用也是很有希望的

TOP

第一张的远景树木都是照片,近景细节都是后期ps的

图片上噪点比较多,掩饰了很多问题

TOP

还是要靠新算法和硬件升级,几年内基本没戏啊~

TOP

发新话题
     
官方公众号及微博