原帖由 @md2 于 2015-3-13 15:51 发表
因为SS的多边形是2D活动块模拟的
所以用负责图像处理的VDP活动块处理能力倒推出SS的最大多边形数量
SS的每秒处理像素是2400万,假设一个多边形是16X16的活动块模拟的,那60分之一秒就是1500个,也就是说SS最多可以给9万多边形贴材质。
负责矩阵计算的是SH2,它完成一个完整的顶点运算需要150周期,也就是说极限只能支撑19万个顶点,而换算成四边形可能要减半。
最理想状况下,考虑到还需要处理游戏其他程序,SS的多边形数应该在10万左右。
考虑到双CPU的因素可以认为是20万。
而PS是36万。
http://www.wizforest.com/OldGood/saturn/index.html
原帖由 @md2 于 2015-3-13 15:51 发表
因为SS的多边形是2D活动块模拟的
所以用负责图像处理的VDP活动块处理能力倒推出SS的最大多边形数量
SS的每秒处理像素是2400万,假设一个多边形是16X16的活动块模拟的,那60分之一秒就是1500个,也就是说SS最多可以给9万多边形贴材质。
负责矩阵计算的是SH2,它完成一个完整的顶点运算需要150周期,也就是说极限只能支撑19万个顶点,而换算成四边形可能要减半。
最理想状况下,考虑到还需要处理游戏其他程序,SS的多边形数应该在10万左右。
考虑到双CPU的因素可以认为是20万。
而PS是36万。
http://www.wizforest.com/OldGood/saturn/index.html
原帖由 @SE光影GA 于 2015-3-16 13:13 发表
泪流满面,在公司看这个视频,开场有个开机的音效,几个老玩家都围过来了
紧接着是开盖出九球的音效,大家都快哭了
原帖由 @SE光影GA 于 2015-3-16 15:32 发表
有几个伙伴都是儿时的玩伴
原帖由 md2 于 2015-3-13 15:51 发表
因为SS的多边形是2D活动块模拟的
所以用负责图像处理的VDP活动块处理能力倒推出SS的最大多边形数量
SS的每秒处理像素是2400万,假设一个多边形是16X16的活动块模拟的,那60分之一秒就是1500个,也就是说SS最多可以给9万多边形贴材质。
负责矩阵计算的是SH2,它完成一个完整的顶点运算需要150周期,也就是说极限只能支撑19万个顶点,而换算成四边形可能要减半。
最理想状况下,考虑到还需要处理游戏其他程序,SS的多边形数应该在10万左右。
考虑到双CPU的因素可以认为是20万。
而PS是36万。
原帖由 快乐猪头 于 2015-3-13 17:28 发表
posted by wap, platform: OPPO FIND 7 标准版
PS的36万是理想值,MODEL2的30万是实际值,差别很明显。PS实际值应该不到20万,SS估计15万都没有
原帖由 lemonninja 于 2015-3-19 00:58 发表
不会怎么样,当年SONY用的r3000是定制,里面包含有专门用来处理矩阵的GTE单元(相当于现在gpu里面顶点处理单元),普通的r3000和sh2没啥两样。
原帖由 werety 于 2015-3-19 10:03 发表
GTE单元并不是集成在R3000内的,而是一块独立的芯片,就在主板上能看到,比R3000还大了一号。
我们经常会在PS游戏里看到画面出现多边形位移、碎裂、缝隙等等情况,也是因为GTE的运算精度有限。
另外GTE的顶点处理 ...
原帖由 lemonninja 于 2015-3-19 22:45 发表
你说的那个不是GTE,那个是用来做纹理和像素绘图以及Sprite的芯片,类似于SS上的VDP1。GTE是和R3000集成在一起的。
硬件T&L早在上世纪70年代就有了,只不过都大多都用在高端的图形工作站上。
GTE的全称是Geome ...
原帖由 lemonninja 于 2015-3-19 00:54 发表
我感觉这个链接里的资料有误。i960和i860这两款都是超标量cpu,理论指标非常强大,当年ss之所以没有采用,我觉得应该主要原因是价格问题,sh2的性价比高。
连接里面说ss和model1比,model1的cpu速度慢,但是要 ...
原帖由 qyqgpower 于 2015-3-23 01:59 发表
posted by wap, platform: iPhone
R3000架构是88年公布的,用在了很多工作站和服务器上,改进型R3000A是89年。
所以94年上市(起码92年就开始开发了吧)的PS自称游戏工作站一点都不为过。
何况PS用的R3000A还整合 ...
原帖由 qyqgpower 于 2015-3-23 01:59 发表
posted by wap, platform: iPhone
R3000架构是88年公布的,用在了很多工作站和服务器上,改进型R3000A是89年。
所以94年上市(起码92年就开始开发了吧)的PS自称游戏工作站一点都不为过。
何况PS用的R3000A还整合 ...
原帖由 lemonninja 于 2015-3-23 23:59 发表
Model1有N块Fujitsu TGP MB86233浮点协处理器,每一块理论上都能有16MFLOPS的32bit单精度浮点运算,这可不是比SS强点,完全是法拉利和桑塔纳的差距。基本上估计model1的计算力能有早期model2的70%左右(早期的mo ...
原帖由 lemonninja 于 2015-3-24 01:05 发表
过去那些电软的文章就能拿来消遣消遣好了,不必当真。那个时候没有互联网,加上国内获取信息的渠道有限,资料错误在所难免,而且再说那个时候电软的读者大多都不具备计算机的基本知识,看的也似懂非懂。
技术发展 ...
原帖由 qyqgpower 于 2015-3-23 01:59 发表
posted by wap, platform: iPhone
R3000架构是88年公布的,用在了很多工作站和服务器上,改进型R3000A是89年。
所以94年上市(起码92年就开始开发了吧)的PS自称游戏工作站一点都不为过。
何况PS用的R3000A还整合 ...
原帖由 井冈山剿匪记 于 2015-3-18 16:01 发表
这视频专业性令人发指。感觉日本制作人在技术方面的灵感和才华都在这种有严重限制的硬件条件上过早的燃烧殆尽了,导致现在3D技术如此发达的今天反而做不出好画面了。
原帖由 werety 于 2015-3-24 19:43 发表
难道真的是我记错了,R3000真的集成了GTE+MDEC,不是吧?面积那么小的芯片,94年(开发应该再92-93年)有那样的硬件技术吗?
另外我找到了早年特工黄给电软写的PS运行原理与硬件分析文章。
原帖由 lemonninja 于 2015-3-24 23:12 发表
什么叫靠猜?所谓的z-buffer就是完全依靠性能来支撑的,换句话说只要有足够的性能就可以用z-buffer,机能强大与没有z-buffer并不冲突都是什么乱七八糟的。理论上像ss ps都可以用z-buffer,只不过帧率要掉到个位数 ...
原帖由 lemonninja 于 2015-3-24 23:12 发表
什么叫靠猜?所谓的z-buffer就是完全依靠性能来支撑的,换句话说只要有足够的性能就可以用z-buffer,机能强大与没有z-buffer并不冲突都是什么乱七八糟的。理论上像ss ps都可以用z-buffer,只不过帧率要掉到个位数 ...
原帖由 lemonninja 于 2015-3-24 23:12 发表
什么叫靠猜?所谓的z-buffer就是完全依靠性能来支撑的,换句话说只要有足够的性能就可以用z-buffer,机能强大与没有z-buffer并不冲突都是什么乱七八糟的。理论上像ss ps都可以用z-buffer,只不过帧率要掉到个位数 ...
原帖由 SONIC3D 于 2015-3-25 21:29 发表
理论上倒是确实可以,只不过如果不用图形硬件来做而这样纯软件实现,效率低到对游戏机没有意义。既要用到CPU资源,又要人工分配缓冲,又不能与图形硬件的现有管线契合。
原帖由 lemonninja 于 2015-3-25 22:10 发表
我想你说的应该是N64那个4K纹理cache吧,这个不光是n64有,就连现代的GPU也都有,比如最新的GTX980总共也就是1M的纹理cache,那么难不成GTX980只能存放1M的纹理不成?还不如voodoo1??再说这个又和多边形的输出 ...
原帖由 KainX 于 2015-3-26 14:13 发表
80年代的Z-buffering和100年以后的Z-buffering不会有区别:http://en.wikipedia.org/wiki/Z-buffering
凡是硬件支持上链接中算法(所谓硬件支持就是针对这种算法特殊设计的处理器)、才能叫支持Z-buffering,没 ...
原帖由 KainX 于 2015-3-26 15:06 发表
4K纹理的结果就是N64的机能被填充率限制,进而限制了几何机能(多边形)。http://en.wikipedia.org/wiki/Nin ... ing_characteristics
我简单说下上链接重点:
“N64在实际游戏中的可用多边形大概 ...
原帖由 lemonninja 于 2015-3-27 00:33 发表
“硬件支持“和”软件支持”并没有那么泾渭分明,所谓硬件方法就是用一块或者一群处理器来把相关的任务单独分离出来而已,也就是分担运算,后来又有了单独针对某一算法而优化的专用芯片。早期的3D显卡的硬件都是 ...
原帖由 lemonninja 于 2015-3-27 00:37 发表
我理解你的意思,但是直接造成n64瓶颈的并不是这区区4k的cache,而是捉襟见肘的内存带宽以及较高的内存延迟,所以才会变成大大依赖这个cache的作用。现代GPU也仅仅只有1M左右的纹理cache,这个cache相比PS SS来说 ...
原帖由 KainX 于 2015-3-27 15:51 发表
N64没有什么低精度模式,把所有特效都去掉它也只有4K贴图;也没有任何N64游戏用了50万多边形,还是那句话——别靠猜。
不要总拿什么“同一个标准下”当挡箭牌,有一个标准高于一切,叫做现实——实际游戏中的多边形使用量就是最终解释。
原帖由 KainX 于 2015-3-27 15:51 发表
N64没有什么低精度模式,把所有特效都去掉它也只有4K贴图;也没有任何N64游戏用了50万多边形,还是那句话——别靠猜。
不要总拿什么“同一个标准下”当挡箭牌,有一个标准高于一切,叫做现实——实际游戏中的多 ...
原帖由 lemonninja 于 2015-3-27 20:15 发表
就你自己贴的链接里都有
SGI's default microcode for Nintendo 64 is called "Fast3D", which some developers noted was poorly profiled for use in games. Although it allows more than 100,000 high accu ...
原帖由 KainX 于 2015-3-28 07:32 发表
LOL后面那句你怎么不贴出来呢:due to the graphical degradation, Nintendo officially discouraged its use.
那些开发者还真就死死守着10万多边形不放,N64到最后也没有几个游戏超过10万——这就是现实中N64 ...
原帖由 werety 于 2015-3-19 10:03 发表
GTE单元并不是集成在R3000内的,而是一块独立的芯片,就在主板上能看到,比R3000还大了一号。
我们经常会在PS游戏里看到画面出现多边形位移、碎裂、缝隙等等情况,也是因为GTE的运算精度有限。
另外GTE的顶点处理 ...
欢迎光临 TGFC Lifestyle (http://tgfcer.com/) | Powered by Discuz! 6.0.0 |