Ich bin grad am rumspielen mit alten Benchmarks die NICHT 3DMark heißen. Beim Vulpine GLmark ist mir aufgefallen das es fast keinen Unterschied macht ob man 16-Bit oder 32-Bit einstellt. Ist das bei OpenGL prinzipiell so?
Hardware:
- AMD Athlon Thunderbird C, 1,4GHz
- 512MB SDRAM PC133
- MSI GeForce3 Ti 200, 128MB DDR
Benchmark
- 1024er 16-Bit = 44,7 fps
- 1024er 32-Bit = 43,4 fps