Fps-Duell in 30 Spielen: Radeon RX 6900 XT vs. Geforce RTX 3090

Kein Mensch nimmt Min oder Max FPS für Vergleiche, weil diese Metriken quasi gewürfelt sind. Der Einfluss des Zufalls ist viel zu groß. Avg und 1% Low sind hier the way to go und da liegt die RTX 3090 deutlich vorne, zumindest, wenn man die Mathematik verwendet, die ich so kenne.
Also gilt das 2te Bildchen von dir, dann hatte Gurdi doch recht, seine Karte ist schneller.
Und warum sollte denn dann noch was kommen?
Mach doch mal den Tabelle, wo du die Werte direkt nebeneinander siehst. Was anderes kann man dazu echt nicht mehr sagen.
 
Zuletzt bearbeitet von einem Moderator:
Nochmal: Der InGameBench ist nicht der konsistenteste, will er vermutlich sowieso nicht sein. Er zeigt gut die grundsätzlichen Schwankungen des Systems, nicht so wie externe Tools.

Und da sage ich schlicht nochmal: Mit den 3090 "Werten" stimmt was nicht. Ich möchte nix unterstellen!
Entweder ist sein SyS murks oder aber nvidia/Treiber hat ein Problem.

Hier mal drei läufe, habe mein OC etwas zurück genommen um so zu den ~ 105 FPS-Durchnitt zu kommen. :ugly:
WDL_1_Driverxx.png
WDL_2_Driverxx.png
WDL_3_Driverxx.png

Klar, das Game wurde zwischenzeitlich gepatcht war vorher aber auch schon so.
Und jetzt frage ich: Ist alles in Ordnung mit den 3090 Werten??

PS: Sorry kann die Treiberversion nicht angeben.
 
Zuletzt bearbeitet:
Nochmal: Der InGameBench ist nicht der konsistenteste, will er vermutlich sowieso nicht sein. Er zeigt gut die grundsätzlichen Schwankungen des Systems, nicht so wie externe Tools.
Wie meinst du das? Allgemein oder auf dieses spezielle Beispiel bezogen? Allgemein sind Built-in Benchmarks bei denjenigen beliebt, die Angst vor Custom Scenes haben oder wenig Erfahrung damit vorweisen können. Und dann gibt's noch die Automatisierer wir Ian Cutress von Anandtech. Diese Leute verwenden das, weil das ohne Aufwand sehr zuverlässig reproduzierbar ist. Im Allgemeinen ist das so, aber es gibt auch Ausnahmen.

WDL gehört aber eben nicht zu den Ausnahmen, wie du selbst nachgewiesen hast. Deine Daten zeigen Abweichungen im Bereich von ~1-1.2% bezogen auf Avg und 1% Low. Das ist konsistent! Warum man Max und Min nicht beachten sollte, habe ich oben bereits angeschnitten. 0.1% Low reagiert ebenfalls zu stark auf Ausreißer.

Mittelwerte und Standardperzentile ab einschließlich 1% aufwärts sind robst gegen Ausreißer. 0.2% ist in vielen Fällen ebenfalls geeignet, das sagt zumindest die Empirie. ComputerBase verwendet P0.2. Ich finde das mutig und begrüße das.

Spezielle x% Low Metriken wie beispielsweise die des MSI Afterburners (integral/zeitbasiert) oder die von Gamers Nexus (average) sind sensitiv gegen Ausreißer. Gerade die Metriken von Gamers Nexus sind im Grunde ungeeignet für vergleichende Hardwaretests. Ich versuche ihn seit längerem davon zu überzeugen, leider aber ohne Erfolg.
 
Zuletzt bearbeitet von einem Moderator:
So sieht es mit meiner 3090 Strix OC in WD:L aus:

UV (1800MHz):
WDL_ULTRA_WQHD_UV.png


OC (2100MHz):
WDL_ULTRA_WQHD_OC.png


Ich kann also gerade nicht nachvollziehen was @openSUSE an den Werten von @Esenel stört :ka:

Ganz abgesehen davon das der Benchmark nicht mal im Ansatz die Performance im echten Spiel widerspiegelt...

Werte mit der 6900XT kann ich bei Zeiten noch mal nachreichen, gerade bin ich aber zu faul die wieder einzubauen.
 
Die min fps. haben schon eine Aussagekraft, aber dafür braucht man Abtraktionsdenken.
Wenn die RTX3090 wiederholt und reproduzierbar niedrigere min. fps als die RX6900XT zeigt, bedeutet es, dass die RTX3090 stärker droppt, also Zuckungen (Anzeichen von stärkeren Ruckeln) bei der beobachteten Messung macht.
Diese Zuckungen müssen ebenfalls beobachtet werden, weil im real case so ein drop das Spielgefühlt negativ beeinträchtigt bspw. von 170fps auf 60fps dropt.
Die RX6900XT federt die framedrops viel besser ab weil sie 10% schneller ist und nur auf 67fps dropt.
Bei Spielen, die schnellere Szenarien/Umgebungen usw. wechseln hat die RTX3090 somit Nachteile weil die Frequenz des drops höher ist. Da nützen die höheren avg. fps gar nichts wenn die RTX3090 häufiger zuckt und dropt.
Das ist auch der Grund wieso Nvidia`s Karten generell viel schlechter altern während AMD`s Karten über Jahre noch "smooth" sind. Nvidia neigt stärker zum droppen während alle Hardwaretester avg. fps als Maßstab nehmen, der auch richtig und wichtig ist. Davon leitet sich eben dann auch dass Massenbewusstsein ab, das dann als Referenz genommen wird.
Jedoch ist das Bewusstsein nur ein kleiner Teil der Wahrnehmung und das Unterbewusstsein ist viel stärker ausgeprägt und das hat AMD`s Hardware deutliche Vorteile.
 
WDL gehört aber eben nicht zu den Ausnahmen, wie du selbst nachgewiesen hast. Deine Daten zeigen Abweichungen im Bereich von ~1-1.2% bezogen auf Avg und 1% Low. Das ist konsistent! Warum man Max und Min nicht beachten sollte, habe ich oben bereits angeschnitten. 0.1% Low reagiert ebenfalls zu stark auf Ausreißer.

Mittelwerte und Standardperzentile ab einschließlich 1% aufwärts sind robst gegen Ausreißer. 0.2% ist in vielen Fällen ebenfalls geeignet, das sagt zumindest die Empirie. ComputerBase verwendet P0.2. Ich finde das mutig und begrüße das.

Spezielle x% Low Metriken wie beispielsweise die des MSI Afterburners (integral/zeitbasiert) oder die von Gamers Nexus (average) sind sensitiv gegen Ausreißer. Gerade die Metriken von Gamers Nexus sind im Grunde ungeeignet für vergleichende Hardwaretests. Ich versuche ihn seit längerem davon zu überzeugen, leider aber ohne Erfolg.
Servus bin etwas verwirrt, oben Schreibst du Mittelwerte sind robust [gut].
Und unten Gamers Nexus (average) sind sensitiv gegen Ausreißer.
Ist ein average nicht der Mittelwert ?
 
Servus bin etwas verwirrt, oben Schreibst du Mittelwerte sind robust [gut].
Und unten Gamers Nexus (average) sind sensitiv gegen Ausreißer.
Ist ein average nicht der Mittelwert ?
Das ist tatsächlich etwas komplizierter. Gamers Nexus verwendet eine Definitionen, die dafür sorgt, dass die unteren 1% der Werte (nach Sortierung) genommen werden. Diese Werte werden gemittelt. Dardurch wirken stets Ausreißer auf das Ergebnis ein, weil die schlechtesten Werte immer in den unteren 1% enthalten sind. Das führt dann beispielsweise zu sonderbaren Charts, in denen einen ein 8700K plötzliche bessere Lows hat als ein 9900K. Sehr schön im letzten Cyberpunk 2077 "CPU Test" zu sehen auf seinem YT-Channel.

Hier gibt's noch mehr Infos dazu. Das methodische Problem dahinter ist, dass es sog. systembedingte Ausreißer gibt, die reproduzierbar sind. Diese Art von Ausreißer sind kein Problem, weil die Metriken konsistent sind. Das Problem sind die zufällig induzierten Ausreißer (ein Virensanner macht einen Check oder ein Windows-Service führt irgendwas aus). Dieses Verhalten ist nicht reproduzierbar. Ergebnisse werden verfälscht. Man kann dem damit begegnen, sehr viel Runs zu machen, die man am Ende filtert, aber das ist letztlich wenig praxistauglich. Normale Perzentile sind robust gegen Ausreißer und wesentlich zeiteffizienter.
 
Zuletzt bearbeitet von einem Moderator:
@gaussmath
Wenn ich das richtig verstehe sollte also der Gute Mittelwert aus den Werten zwischen 1% und 99% werten gemittelt werden oder?
Und als zweiten Graph im Benchmark nimmt man dann den 0,2% oder ?
Also wenn man Robuste vergleichbare Werte haben möchte.
 
Also wenn man Robuste vergleichbare Werte haben möchte.
Wenn man robuste Werte haben möchte, nimmt man Perzentile. Diese werden am Ende auch durch Sortierung gewonnen, aber man schneidet einfach alles nach unten ab, indem man einfach den Wert beim x% Index nimmt. Es wurde bereits die Kritik geäußert, dass es ja nur ein Wert sei, der das gesamte Perzentil repräsentiert. Aber das ist ein Trugschluss, denn die Sortierung macht das Perzentil zu einem "Strukturparameter". Der Wert steht nicht für sich alleine, sondern repräsentiert eine Struktur (eine bestimmte Stelle in der Reihenfolge).
 
Zuletzt bearbeitet von einem Moderator:
Als max FPs sollte als eher das 99 Perzentil nehmen da ja nur 1% der Werte besser sind als dieser. 1% Perzentil wäre dann das bessere low FPS da er ja niedriger ist als 99% aller anderen Werte.

Edit: Ist dann der Median ein Robust Mittelwert ?
PS: wie man sieht bin ich keine Kanone in mathe ;).
 
Zuletzt bearbeitet:
Als max FPs sollte als eher das 99 Perzentil nehmen da ja nur 1% der Werte besser sind als dieser. 1% Perzentil wäre dann das bessere low FPS da er ja niedriger ist als 99% aller anderen Werte.
Manche nehmen auch 95% als Max. Das kommt drauf an. 99% ginge aber auch.
Edit: Ist dann der Median ein Robust Mittelwert ?
PS: wie man sieht bin ich keine Kanone in mathe ;).
Siehst du vollkommen richtig. Der Median ist extrem robust und sollte eigentlich dem Average vorgezogen werden. Das ist aber sehr schwer an den Mann und die Frau zu bringen, wirkt halt exotisch. ^^
 
Zurück