Beiträge von Robbitop

    Also wir haben zum Thema Texturfilterung ein paar lesenswerte Artikel- Vor allem den hier: http://www.3dcenter.de/artikel/grafikfilter/

    Die TNT konnte noch gar kein richtiges AF. Damals war AF nicht wirklich festgelegt und jeder konnte für Erreichung dieses Checklist Features machen was er wollte. Die PVR Serie2 war IIRC die erste GPU, welche richtige anisotrope Texturfilterung beherrscht. Danach erst NV10.

    Mathematisch anspruchsvoll ist die Berechnung der Line-of-Anisotropy. Hier wird die Anzahl der nötigen Samples abhängig vom Blickwinkel ermittelt. Aber das geht in Hardware in einem Takt (dank dedizierter HW). Das kostet aber Transistoren (deswegen ist es ja auch so teuer für ein breites Spektrum an Winkeln um die Z Achse eine brauchbare Rechnung für LOA zu bekommen...daraus resultiert die winkelabhängige anisotrope Filterung bei NV40/G70/R3xx/R2xx/R4xx).
    Außerdem kostet AF abhängig von der verwendeten Sampleanzahl pro Texel Füllrate.

    Das korrigieren?
    Dazu müßte man ersteinmal Informationen haben, woher das Ganze kommt, wie es wirklich umgesetzt ist, wer es umgesetzt hat und wie er es genau umgesetzt hat. Ich bezweifle ganz ehrlich, dass das so gehen soll...wenn es überhaupt geht.
    Verstehen konnten weder Arne noch ich viele Zusammenhänge, da sie unkorrekt/verwirrend sind.
    Das Elipsenmodell ist ein theoretischer mathematischer Ansatz für die Winkelabhängige (also An-isotrope) Texturfilterung. Funktioniert in Hardware natürlich ganz anders und vereinfacht.
    Ein Problem ist immer die Berechnung der Line-of-Anisotropy. Vertexbasierend könnte man lediglich für ~90° Winkel eine korrekte Berechnung durchführen, alle anderen Winkel bekäme die falsche Sampleanzahl und würde über- oder unterfiltert werden.
    Um die Verzerrung und damit die nötigen Samples auszurechnen ist Berechnung auf Pixelebene in HW nötig oder so genanntes RIP-Mapping (ist aber viel zu aufwändig).

    Mein Tipp: nimm den Kram einfach raus. Soweit ich weiß, ist es nirgends implementiert. Wenn man etwas zu einem vertexbasierendem AF schreibt, dann lieber einen seperaten Techartikel, der das ganze richtig erklärt.
    Alles andere verwirrt die Leser nur.

    Meines Erachten ist dieser Teil des Artikels schlichtweg Unsinn.

    Offensichtlich hat der Autor irgendwelchen Kram abgeschrieben und kombiniert, ohne die Hintergründe der Texturfilterung wirklich durchdrungen zu haben. Er bringt hier vieles durcheinander und kombiniert es unsinnigerweise.

    Und selbst wenn das funktionieren sollte, ist Vertexbasierte LOD/LOA Berechnung immer sehr ungenau (der G200 berechnet das LOD ja noch über die Geometrie statt über das Trisetup ...furchtbar!). Das würde in Bewegung wohl unbrauchbar sein. Das ist wohl auch der Grund, warum es nie umgesetzt wurde.