RTX 4090 - niedrige 3DMark Ergebnisse

4890

Komplett-PC-Käufer(in)
Hallo Zusammen

Ich habe vor diese Woche eine RTX 4090 eingebaut. ( Palit GeForce RTX 4090 GameRock OC)
Die Leistung der Grafikkarte in den Games ist wirklich krank :stupid:

Jedoch habe ich eine Frage zu den 3DMark Ergebnisse.
Ich habe alle Resultate die ich im Internet finden konnte, mit meinen verglichen. (Gleiches Modell der Grafikkarte)

In gewissen Tests, ist der Unterschied einige tausende Punkte! Was meiner Meinung nach sehr viel ist.
Ich habe die besten Resultate von mir, im Vergleich Unten aufgelistet.

Notebookcheck ResultateMeine Resultate
Time Spy36'83633’416
Fire Strike Extreme44'99744’983
Fire Strike Ultra Graphics25'01824’615

Gpu-monkey ResultateMeine Resultate
Time Spy37'14333’416
Time Spy Extreme19'74319’012
Fire Strike Extreme46'05244’983
Port Royale26'22524’807
Speed Way10'1589’819

Kitguru ResultateMeine Resultate
Time Spy Extreme19'63919’012

Tobis Hardware Ecke - YoutubeMeine Resultate
Time Spy Extreme19'14519’012
Speed Way9'8539’819

Die Resultate sind Lichtjahre entfernt von den Anderen, ausser diese von "Tobis Hardware Ecke", die haben keinen riesigen Unterschied.

Sind so grosse Abweichungen normal?

-Grafikkarte läuft im "Performance Mode"
-V-Sync ist für die Benchmarks deaktiviert
-PC Gehäuse ist offen und die Temperaturen sind alle normal


Was ich noch versucht habe:
-Mainboard Bios Update
-Neuerer Graka Treiber
-GraKa Treiber komplett deinstalliert & neu installiert



Danke für die Hilfe :-)
 
Zuletzt bearbeitet:
Schau mal "Time Spy", "Speed Way", da ist es doch im Rahmen. Vergesse nicht das Gesamtsystem zu sehen ... die CPU macht einiges.
 
@SpoonRest_D
Sollten die "Graphic Score" nicht relativ selbständig sein, was die komplett System Leistung ausmacht?
Oder ändert sich das trotzdem ein bisschen, wenn man ein schnelleres System hat?

Wobei mein System jetzt nicht wirklich lansam ist.. :ugly:
 
1000 Punkte bei 33.000 Punkte ist ein Unterschied von 3%
2000 Punkte Unterschied bei 46.000 Punkte sind etwa 4% Unterschied.
Das ist allerdings "SEHR VIEL". (Ironie).

Da würde ich mir genau NULL Gedanken drüber machen. Nicht dass da Deine CPU mit reinspielt.
 
Sind so grosse Abweichungen normal?
In gewissen Tests, ist der Unterschied einige tausende Punkte!
Lernt endlich mal Prozentrechnung...
:rollen:


Bis auf die zwei ersten Time Spy sind das Abweichungen von 2-4%.


Auch interessant:
In unserem ersten Test mit einem Ryzen 9 5950X stellten wir fest, dass die Leistung der RTX 4090 bei 1080p von der CPU derart ausgebremst wurde, dass die Ergebnisse in dieser Auflösung bei diversen Einstellungen kaum besser waren als bei einer RTX 3090 Ti. Daher setzen wir nun auf ein System mit dem Core i9-13900K.
 
@XT1024
Ich weiss, das es in Prozent nur 2-4% sind..

@HisN
in 3DMark Punkte ist es viel, ja..


@PCGH_Dave
Achso.. danke dir, das wusste ich nicht!
Ich bin nicht mehr so up-to-date wie früher mal :redface:

Das heisst ein System, mit einem i9-13900KF, würde das "Problem" lösen? :-P
 
in TimeSpy erhalte ich auch nur um die 34100 Punkte sprich, GPU Score 38992 und CPU Score 19948, wobei mir mein CPU Score etwas niedrig erscheint. Nur für die Benchmark-Punkte würde ich persönlich jetzt nicht upgraden. Das merkt man kaum bis gar nicht.
 
Zuletzt bearbeitet:
1.7k für ein 13900k mit Board und DDR5 um ein 3-4% „Problem“zu lösen :-)
Wer den 13900K nur zum Zocken kauft, hat ohnehin etwas falsch verstanden (oder einfach zu viel Geld). Ein 13600K mit OC ist praktisch genauso schnell. Im vorliegenden Fall würde ich einfach die Grafikdetails maximieren, wozu hat man sich sonst so eine Monster-GPU geholt.
 
@MezZo_Mix
Geiles System :daumen:

@HisN
Hat sowieso wider mal Lust ein neues System auf Intel Basis zu bauen, ich glaube das ist der richtige Moment :)

@PCGH_Dave
Die Grafikkarte kann man ohne Probleme auslasten. zBsp. Cyberpunk @4k mit allen Details...
 
Meine Ergebnisse auf 3DMark würden sich mit übertaktetem Prozessor und Grafikkarte beziehen, daher würde ich Werte davon nicht so ernst nehmen.
 
Wer seine Grafikkarte nicht ausgelastet bekommt, der hat die Regler im Game/Treiber vergessen.
Meiner Meinung nach gibt es nicht "die beste CPU für Graka XXX".
Es gibt die User, die die Regler bedienen können, und es gibt die User, die das nicht wollen/können.
Alternativ kann man noch "ich brauche XXX CPU-FPS" anführen.

Aber eine CPU für eine Graka? Das ist nicht zielführend sondern ein Wunschtraum basierend auf 100 aus den Fingern gezogenen Annahmen.


Ist meine CPU zu lahm für meine Graka, oder bin ich nur zu blöd die Regler zu bedienen?
DAS ist die eigentliche Frage.
Und das sogar mit einem uralten lahmen Threadripper.
u4_2022_10_19_22_24_1vpcnb.jpg
u4_2022_10_19_22_24_5cpcc9.jpg


Eine Graka bekommt man immer klein, und dazu braucht es kein 4K.
Nur die Regler im Game.
rdr2_2022_10_29_16_576bf72.jpg



Es sei denn die passende Definition für "welche CPU passt zu meiner Graka" ist der Wert an Punkten in irgendwelchen Bencharks, die ja auch mit "vorgegebenen" Parametern laufen, was sie ja schon wieder ins absurde führt, weil es mir die Selbstbestimmung über diese Parameter aus der Hand nimmt, was ja zwangsläufig in ein unverschuldetes CPU-Limit führen könnte.
Denn anstatt dem CPU-Limit hinterherzuheulen, könnte ich ja auch die Regler anziehen.

D.h. "welche CPU passst zur Graka XXX" ist ein Leitfaden für Leute, die die Regler nicht bedienen wollen? Denn man kann einfach nicht bestreiten, dass man eine Graka immer klein bekommt. Und wenn ich dazu 16x DSR draufklatschen muss, die Möglichkeit habe ich ja.
 
Zuletzt bearbeitet:
Eine Graka bekommt man immer klein, und dazu braucht es kein 4K.
Nur die Regler im Game.
Das schreibst du jeden Tag, seit wie vielen Jahren, in wie vielen Threads?
Fakt ist, dass viele immer noch nicht zwischen CPU- und GPU-Limit unterscheiden können. Die neue Hardware wird dennoch gekauft, weil sie den längsten Balken hat. Der kommende Artikel behandelt sowohl Theorie, als auch Praxis. Einem Experten, wie du es bist, wird er natürlich nichts Neues erzählen.
 
Für den Threadersteller habe ich meine 4090FE mit UV getestet (0,9v@2595Mhz+500Mem)(zweiter 1080p Monitor hing auch dran) :
Speed Way: 9560
Port Royale: 24236
Timespy Extreme: 18308
Timespy: 34040
Fire Strike Ultra: 23743
Fire Strike Extreme: 43767

Wobei die GPU dank UV nur maximal 335W gezogen hat und Lüfter drehten nicht mal auf.
Das UV SOLLTE umdie 5-9% Leistung kosten.

Auf die Frage hin, warum dein System so "langsam" ist. Neben V-Sync gibt es ja noch G-Sync, das aus muss und das Globale FPS-Limit im NV-Sys (hatte ich z.b. im ersten Run vergessen, aber ich hatte es manuell angemacht).
Ansonsten soll es ja mal passieren, das die PCI-E Lanes nicht immer auf 4.0x16 laufen, genau das soll in 3DMark 2-4% kosten :D. Das kannste mit GPU-Z checken und im Bios einstellen z.b. von Auto auf 4.0.
Dann in HWiNFO64 gucken, ob auch alle Werte die Temp, GPU Stromverbrauch, Takt und GPU-Kern-Last auch alle stimmen. Bzw den Takt und Temp zeigt 3DMark hinterher ja auch an.
CPU-Limit. Bis UHD ist keine CPU schnell genug, um die 4090 optimal auszulasten.
Wenn du die 4090 auslasten willst: Auflösung maximal, Details maximal, alles maximal. Dann reicht mit Glück der 5950X.
Die Scores vom TE sind keine kombinierten, sondern nur die GPU-Scores, bei denen die CPU NICHT im Limit ist.

Im Gesamtscore oder in Spielen sieht das natürlich anders aus, da spielt die CPU mit.
in TimeSpy erhalte ich auch nur um die 34100 Punkte sprich, GPU Score 38992 und CPU Score 19948, wobei mir mein CPU Score etwas niedrig erscheint. Nur für die Benchmark-Punkte würde ich persönlich jetzt nicht upgraden. Das merkt man kaum bis gar nicht.
In Timespy war mein CPU Score mit einem 5800X3D nur 11527. ^^
Aber was bringt es eine 16-Kern CPU zu haben, wenn die Spiele die man damit spielt maximal 8 Kerne nutzen. Häufig sind sogar nur 2 Kerne im Gebrauch.
Der 13900K ist zwar schneller, wegen viel höherem Takt, aber für das bisschen eine ganze neue Platform kaufen?
Vorallem der Sockel ändert sich ja bald schon wieder bei Intel...
 
Hallo :)

Ist jetzt einige Zeit her...
Ich habe in der Zwischenzeit ein neues System gekauft und war fast 1 Woche lang am benchen/einstellen...
Zu erwähnen, es läuft alles auf Stock CPU und GPU.
Die einzige Einstellung die evt. nicht als "Stadart" gilt, das ich die CPU Watt Limit deaktiviert habe, so das die CPU nicht kastriert wird. Allerdings geht das glaube ich nicht unter "Overclocking". :D

Ich habe beim neuem System alle Komponenten soweit es geht einzeln getestet/gebencht.
Ist alles im grünen Bereich.

Einige hatten gesagt, die niedrigeren 3DMark Ergebnisse könnten wegen dem CPU Engpass sein. (CPU zu langsam für die Grafikkarte / CPU-Limit)

Im angehängte Bild (Excel Screenshot), könnt ihr sehen das zwischen altem System mit 5950x und neuem System mit i13900K praktisch 0 Unterschied bestehen im Graphics Score.
Bei "Speedway" und "FireStrike Ultra" ist es mit dem neuem System (das einiges schneller ist), sogar niedriger, egal wie viele Male ich es durchlaufen lasse. :ugly:

Der Einzige Test wo es viel mehr Punkte gab, ist der "Time Spy".
Graphics score alt: 33'116
Graphics score neu: 36'218

Den "Fire Strike" kann man eigentlich aus der Liste löschen. Ich bekomme dort Punkte zwischen 62'300 - 70'300 angezeigt. (mit dem neuen System)
Ich habe keine Ahnung, wieso es einen so grossen Unterschied hat zwischen den Ergebnisse, das habe ich sonst in keinem 3DMark Test und ich habe mittlerweile um die 50+ Durchläufe gemacht.
Ich habe noch ein Screenshot angehängt, mit dem niedrigsten und höchstem Ergebniss, ich sehe aber keinen Unterschied an was es liegen soll.
Da ich mit meinem altem System bereits 67'533 Punkte hatte, sehe ich da keien Performance Steigerung mit dem neuem System.


Ich nehme mal an beim 3DMark gab es mit meinem alten System keinen "CPU Limit / Engpass"?
Oder sehe ich das falsch?



Was ich noch bemerkt habe, das anscheinend die Graphics Score beim "Fire Strike Extreme" & "Fire Strike", ziemlich unterschiedlich sind je nach CPU (AMD 7950x vs Intel 13900K, siehe Screenshot)



Ich habe die aktuelle Bechmarkergebnisse verglichen mit den "Internet Reviews Ergebnisse" (gleiche Grafikkarten Version) nochmals neu angehängt.
Einige grosse Unterschiede sind beim Port Royale, Time Spy Extreme, Fire Strike Extreme...


*Info*
Altes System:
AMD Ryzen 9 5950X
G.Skill GB DDR4 - 3200
Pait RTX 4090 Gaming OC

Neues System:
Intel i9-13900K
Dominator RGB DDR5 - 6200
Pait RTX 4090 Gaming OC




@theGucky
Ich schalte nur das G-Sync aus in der Nvidia Systemsteuerung.
Sonst kommt bereits bevor man einen 3DMark Benchmark startet, die Meldung das die Ergebnisse nicht richtig sein werden wegen dem G-Sync.
Muss man die Vertikale Synchronisierung in den 3D Einstellungen der Nvidia Systemsteuerung auch ausschalten? Wusste ich bis jetzt nämlich nicht... :huh:


Betreffend der Einstellung der PCI-E Lanes.
Die Bios Einstellung habe ich auf "AUTO" gelassen, weil ich hatte Angst hatte das die Grafikkarte nachher im IDLE nicht mehr in den Zero Fan Mode geht..
Kann das einen Zusammenhang haben? Sonst stelle ich es auf "GEN 4.0" um, statt auf "AUTO".


Ich habe mir ein neues System gekauft, weil ich Lust hatte wieder zu schrauben etc., nicht nur wegen ein paar Benchmark Punkte :)
 

Anhänge

  • benchmark vergleich internet.jpg
    benchmark vergleich internet.jpg
    243,7 KB · Aufrufe: 103
  • excel system vergleich.jpg
    excel system vergleich.jpg
    196,2 KB · Aufrufe: 116
  • Fire Strike Unterschied.jpg
    Fire Strike Unterschied.jpg
    1,2 MB · Aufrufe: 103
  • Unterschied Intel & AMD.jpg
    Unterschied Intel & AMD.jpg
    132,2 KB · Aufrufe: 135
Zurück