Vulpine GLmark - Hat bei OpenGL die Einstellung 16-Bit oder 32-Bit nicht soviel Einfluß?

  • Ich bin grad am rumspielen mit alten Benchmarks die NICHT 3DMark heißen. Beim Vulpine GLmark ist mir aufgefallen das es fast keinen Unterschied macht ob man 16-Bit oder 32-Bit einstellt. Ist das bei OpenGL prinzipiell so?

    Hardware:

    - AMD Athlon Thunderbird C, 1,4GHz

    - 512MB SDRAM PC133

    - MSI GeForce3 Ti 200, 128MB DDR

    Benchmark

    - 1024er 16-Bit = 44,7 fps

    - 1024er 32-Bit = 43,4 fps

    Permanent aufgebaut:
    A7V133, Athlon 1,4GHz, 512MB, GeForce3 Ti200 128MB, SB Live! X-Gamer
    Für die LAN:
    TUSL2-C, PIII-S 1,4GHz, 512MB, GeForce2 GTS 32MB, 2x Monster II 12M, SB Live!
    TUSL2-C, PIII-S 1,4GHz, 512MB, GeForce2 GTS 32MB, 2x Monster II 12M, SB Live!
    CUSL2-C, PIII 933MHz, 512MB, G400 Max 32MB AGP, 2x 3D Blaster Voodoo² 12MB, SB Live!
    CUSL2-C, PIII 933MHz, 512MB, G400 Max 32MB AGP, 2x Monster II 8MB, SB Live!