Mach das Ganze mal mit 32-Bit, dann wird es vermutlich anders aussehen.
Die Ergebnisse halbieren sich fast. Als Beispiel der 99er bei 1024 runter auf 3741 anstelle von 6427.
Und da ich über eine Stunde auf ein und den selben Benchmark geschaut habe, kann ich dir versichern das es exakt NULL optischen Unterschied zwischen 16bit vs. 32bit gibt. Es ist und bleibt eine Marketingmasche von NieVidia. Die wenigsten hatten um 2000 herum einen 1.2 GHz Boliden, das Gros hatte Rechner im der PII bestenfalls PIII Gegend mit etwa 800MHz (Slot Basis) oder halt noch eine steinalte S-Sockel 7 Umgebung.
(Enthusiasten mal ausgenommen. Die bildeten allerdings auch nie die Mehrheit. )
32Bit Spiele-Grafik verbietet sich auf solchen Systemen sowieso.