News Preiskampf bei Radeon RX 7800 XT: Angebote ab 459 Euro

Klar 220 Watt hört sich schon deutlich besser an. Aber auf was bekommt man dann eine 4070. 150 - 160 Watt, die Abstände bleiben die gleichen schätze ich. Ich denke das wird AMD hoffentlich mit der nächsten Gen etwas besser machen, auch wenn es nicht so tragisch ist momentan.

Ich bin auf die nächsten Radeon Karten gespannt. Vorallem das die 7800xt so schnell ersetzt wird, da sieht man nur das diesen Karten viel Spät kamen.
Auch wenn es preislich kein Vergleich ist. Eine 4090 kann man auch auf 250W drosseln und sie ist dann immernoch schneller als eine 7900XTX...

Für den Preisvon 459€ ist die 7800XTX eine gute Karte.
Da frage ich mich aber, was mit der 8700XT und 8800XT sein wird und deren Preise.
Will AMD die 7800XT abverkaufen, damit man eine 8700XT für 500€ starten kann?
 
Wirklich ernsthaft Raytracing geht damit ja auch nicht.

Doch geht, es lebe der FSR2 Performacemodus.

Sachen wie DLSS und reduzierte Raytracing Einstellungen gehen gar nicht, da sie den gewünschten Effekt der ursprünglich gewünschten besserern Grafik ja zu einer Witznummer umkehren.

Das war schon immer so. Die einen drehen lieber die Details runter,, die anderen die Auflösung, du sparst lieber an Details. Mit DLSS und FSR gibt es halt eben jetzt eine weitere Option, die die Quadratur des Kreises verwirklicht.

Ach, bitte ehrlich beantworten: hast du FSR oder DLSS schon selbst benutzt, also etwas länger oder ist das etwas vom Hörensagen?

Will AMD die 7800XT abverkaufen, damit man eine 8700XT für 500€ starten kann?

Die orientieren sich am Markt. Die 7800XT kann man zur UVP nicht vernünftig verkaufen, also muß der Preisrunter, bis es passt. Der Abwerkauf beginnt wohl kurz vorher, falls es überhaupt einen gibt. Die RX 6000er geistern ja bis heute herum und Nvidia schmeißt unter der RTX XX80 dem Laden das erste halbe Jahr auch großteils mit alten Karten.
 
Klar 220 Watt hört sich schon deutlich besser an. Aber auf was bekommt man dann eine 4070. 150 - 160 Watt, die Abstände bleiben die gleichen schätze ich. Ich denke das wird AMD hoffentlich mit der nächsten Gen etwas besser machen, auch wenn es nicht so tragisch ist momentan.

Ich bin auf die nächsten Radeon Karten gespannt. Vorallem das die 7800xt so schnell ersetzt wird, da sieht man nur das diesen Karten viel Spät kamen.
Klar, die Abstände bleiben. Tatsächlich kriegt man eine Geforce noch sparsamer, da die Limits quasi offen sind. Aber der Punkt war ja die Leistungsaufnahme von 250 Watt. Mit der muss man nicht leben. Vergleichbare Geforce-Karten laufen mit 30 bis 50 Watt weniger (RTX 4070S respektive RTX 4070), das ist keine völlig andere Liga – Raytracing ausdrücklich ausgeklammert.

MfG
Raff
 
Ich hab's mal schnell durchgerechnet: Für 460 Euro erreicht die Radeon RX 7800 XT einen PLV-Index von stolzen 94,8 Prozent (Rasterizing) - klare Empfehlung unsererseits. Einen Test der Acer Nitro lest ihr übrigens im nächsten Heft bzw. als Plus, denn wir vergleichen 12 Grafikkarten zwischen rund 450 und 650 Euro ausführlich. :daumen:

MfG
Raff
Unter anderem auf Deinen Rat hin hab ich mich letzten Monat für die ASUS RX 7800 XT OC entschieden - gebraucht in top Zustand für 450 €. So eine geile Karte (ok, ich komme von der 5700 XT...), dann noch der 5800X3D dazu und mein 6 Jahre alter AM4 Kasten rennt wieder :daumen:
 
Gar nicht mal so schlecht, was den Preis angeht
Wäre für mich eine Überlegung wert, für die 78ßßxt meine 2080 in Rente zu schicken.
Nur schade, dass da wohl mein 550 Watt Netzteil wohl nicht reichen wird und ich mir ein neues kaufen müsste.
Da war das Netzteil wohl doch ein Flaschenhals, als ich mir damals den PCGH-PC gekauft habe.
 
Wer noch nie in den geschmack gekommen is, kann natürlich sowas behaupten.
RT/PT ist geil und trägt unglaublich viel zur Immersion bei.
Da kommt es wie immer auf die Implementierung an...
Ich tu mich z.B. mit den RT Schatten in Homeworld 3 schwer... keine Atmosphäre, die das Licht streuen könnte und doch so ausgeprägte Halbschatten..
Vor allem bei den großen wracks sind mir die Schatten viel zu hell, wenn die Haupt Lichtquelle ein Stern ist und große Teile eines Wracks von anderen verdeckt werden.

Ja, fürs Gameplay wird aufgehellt und damit man mehr von den schönen Modellen sehen kann... dennoch ist man (zumindest nach dem, was man auf den Bildern und in den Review Videos sehen kann) viel zu oft im Halbschatten.

Dann kann man RT auch gleich lassen, denn das Weichrechnen der sowieso schon zu hellen Schatten bringt dann auch nicht mehr viel
 
Gar nicht mal so schlecht, was den Preis angeht
Wäre für mich eine Überlegung wert, für die 78ßßxt meine 2080 in Rente zu schicken.
Nur schade, dass da wohl mein 550 Watt Netzteil wohl nicht reichen wird und ich mir ein neues kaufen müsste.
Da war das Netzteil wohl doch ein Flaschenhals, als ich mir damals den PCGH-PC gekauft habe.
Kann ich nicht bestätigen.
Habe mir vor zwei Monaten die 7800XT gegönnt (489 Euro...immer noch ein guter Preis gewesen) und diese läuft mit meinem 550 Watt bequiet Straight Power und einem Ryzen 3600XT (auch nicht grade sparsam) absolut stabil ohne Abstürze, Bluescreens oder Ähnlichem.
Ein 550 Watt Chinaböller würde ich mit der Kombi allerdings nicht ausprobieren.

Will sagen: Ein 550 Watt Markennetzteil reicht für die 7800XT, wenn du kein OC betreiben willst.
 
Zuletzt bearbeitet:
Uff, ich hab mal geschrieben, bei 450,- werde ich vielleicht schwach.
Wird langsam eng.
Dabei wollte ich doch auf Battlemage warten aber wer weiss wieviele Jahre Intel dafür noch braucht :schief:
 
Ja, die Karte war von Anfang an ein 500 Euro Teil und die 7700 eine 400 Euro Karte.
Wirklich ernsthaft Raytracing geht damit ja auch nicht.
Man wäre ja schön blöd, wenn man für Raytracing (also mehr Grafikbombast) dafür die Grafik runterschraubt.
Klingt nach Paradoxon, ist es auch.
Sachen wie DLSS und reduzierte Raytracing Einstellungen gehen gar nicht, da sie den gewünschten Effekt der ursprünglich gewünschten besserern Grafik ja zu einer Witznummer umkehren.
Ja, das habe ich schon beim Test in die Kommentare geschrieben! 7800XT = 499€ Und 7700XT = 399€.

Die 8700XT ist bestimmt schneller im Raster und in der RT Performance und nicht teurer. Wer soll da noch zur 7800XT greifen ?
 
Wer tut sich das denn freiwillig optisch an..

Ich hab die Diablo 4 Beta in FSR 2 Ultra Performance in 4K@Ultra durchgezockt. So lief es mit 45FPS, womit meine GTX 1060 6GB nach Nvidialogik besser als eine RTX 4070 ist.

Ich war damit sehr zufrieden, nur in einer Szene hat es stark geflimmert.

Da kannste bei Nvidia DLSS ebenfalls den Performance Modus reinhauen und hast immer noch fast die Bildqualität von FSR.2.2-Quality

Für den Quatsch hätte ich gerne eine Quelle und zwar eine, die besser als "trust me Bro" ist.

Der Käse verselbstständigt sich. Ja, DLSS schneidet im Bewegtbildvergleich besser ab, aber irgendwann wird es auch mal lächerlich. Am Ende soll DLSS Ultra Performance dann wohl noch besser als AMD nativ sein.
 
Für den Quatsch hätte ich gerne eine Quelle
Gibt da genug Videos von zb Hardware unboxed die FSR und DLSS direkt miteinander vergleichen..
und Spieletests auf genug (auch seriösen) PC fachseiten dazu.
Es ist einfach ein Fakt das man mit DLSS mit der Renderauflösung bedeutend tiefer kommt als mit FSR bevor es kacke aussieht.


Ich hab die Diablo 4 Beta in FSR 2 Ultra Performance in 4K@Ultra durchgezockt. So lief es mit 45FPS, womit meine GTX 1060 6GB nach Nvidialogik besser als eine RTX 4070 ist.

Ich war damit sehr zufrieden, nur in einer Szene hat es stark geflimmert.
Wenn man keine Ansprüche hat ist das ja das eine...
Wenn man den Unterschied aber noch nicht live gesehen hat und kennt das andere.

Kannst auch mit ner 4070 in 4k mit Upscaling im Performance Modus Spielen.. ich weiß zwar nicht was da raus kommt an FPS aber es werden bedeutend mehr sein als 45..

Ich kann dir nur sagen das ne 4080 auf Performance Modus bei Diablo n 5800x3d uns CPU Limit hauen kann auf 3440x1440 und da siehst du auf jedenfall n großen Unterschied zwischen DLSS und FSR
 
Zuletzt bearbeitet:
"Immenser Verbrauch" und "250 Watt" in einem Satz: verstehe ich nicht. :D Zumal man eine 7800 XT mittels Undervolting ohne Leistungsverlust mit ~220 Watt betreiben kann (Powerlimit maximal runter, dann Spannung nach unten ausloten). Sicher, Ada ist effizienter, aber das ist ziemlich anständig.

MfG
Raff
Ich finde nicht, das 250W für die Leistungsklasse nur ansatzweise gut wäre.
Ich finde Ada ist so an der Grenze zu effizient genug.

Wenn ich noch ein paar Tage zurück denke dann hat gerade mal eine 1080ti, oder eine 2080ti Stock um 250W verbraucht... Daher kann ich solche Aussagen schon verstehen.
Yep, rein nach Zahlen aber unterlegen – Raster-PLV von 82,2 Prozent.

MfG
Raff
Aber dafür rein von der Leistung einfach überlegen ;)
Absurd hoch vielleicht absolut gesehen, aber relativ gesehen nicht. Da sie ja einfach die 6800 XT ersetzt hat und einfach etwas effizienter und vielleicht 10% schneller war, bei ca. gleichem Preis.
Es war also eher Stillstand, als sonstwas.
Das ist leider absolut richtig. Hat sich halt so entwickelt.
Mittelklasse?
600€ Karten sind sicher keine Mittelklasse.
Aber wie kommst du nach der ersten Aussage darauf, es sei keine Mittelklasse.
Ich meine über den Begriff Mainstream Karte könnte man streiten, was kauft schon der Mainstream. Aber Mittelklasse macht sich am Produktangebot des Marktes fest.

Da ist alles bis inkl. RTX4060ti und 7600X Einstiegsklasse, alles bis 7900GRE und 4070 Super Mittelklasse, dann bis zur 7900XTX und 4080s Oberklasse und dann die 4090 High End. AMD hat ja leider nichts auf dem Niveau gehabt.

Ich bezeichne meine 4070ti auch "nur" als gehobene Mittelklasse, bis beginnende Oberklasse.
Vielleicht sollte es "immersiver Verbrauch" heißen. :ugly:
Immens war schon richtig.
Auch wenn es preislich kein Vergleich ist. Eine 4090 kann man auch auf 250W drosseln und sie ist dann immernoch schneller als eine 7900XTX...

Für den Preisvon 459€ ist die 7800XTX eine gute Karte.
Da frage ich mich aber, was mit der 8700XT und 8800XT sein wird und deren Preise.
Will AMD die 7800XT abverkaufen, damit man eine 8700XT für 500€ starten kann?
Besser kann man es nicht auf den Punkt bringen ;)
Bestimmt. Näheres dann hoffentlich auf der Computex https://www.techradar.com/computing...minent-as-huge-driver-related-hint-is-dropped
Aber eine 8800 XT wird zunächst bestimmt bei um die € 700 landen, sagt mir meine Glaskugel.
700€ und dann 7900XT Raster Leistung und 4070ti RT Leistung. Wäre eigentlich entäuschend.
Klar, die Abstände bleiben. Tatsächlich kriegt man eine Geforce noch sparsamer, da die Limits quasi offen sind. Aber der Punkt war ja die Leistungsaufnahme von 250 Watt. Mit der muss man nicht leben. Vergleichbare Geforce-Karten laufen mit 30 bis 50 Watt weniger (RTX 4070S respektive RTX 4070), das ist keine völlig andere Liga – Raytracing ausdrücklich ausgeklammert.

MfG
Raff
Da fängt der Fisch aber an zu stinken.
Erst wird irgendwas pauschal gesagt (meine jetzt nicht unbedingt dich ;) ) und dann kommt immer irgendwo das ausklammern, von RT zum Beispiel. Oder anderen Vorteilen, wie DLSS, VR Performance und Support.

Warum sollte ich in 2024 maximale Details ausklammern.
Wurde das bei AO seiner Zeit auch so lange gemacht. Oder bei Tessellation
Gar nicht mal so schlecht, was den Preis angeht
Wäre für mich eine Überlegung wert, für die 78ßßxt meine 2080 in Rente zu schicken.
Nur schade, dass da wohl mein 550 Watt Netzteil wohl nicht reichen wird und ich mir ein neues kaufen müsste.
Da war das Netzteil wohl doch ein Flaschenhals, als ich mir damals den PCGH-PC gekauft habe.
Wie kommst du denn darauf...
Ich betreibe ohne Probleme eine 4070ti Super an einem 9 Jahre alten 450W Netzteil.

Oder verwendest du etwa einen 1x900KS als CPU? Dann ok, aber mit normaleren CPUs sollten 550W reichen. Eher ist die Frage, Single Rail, Multi Rail und wie abgesichert.
Ich hab die Diablo 4 Beta in FSR 2 Ultra Performance in 4K@Ultra durchgezockt. So lief es mit 45FPS, womit meine GTX 1060 6GB nach Nvidialogik besser als eine RTX 4070 ist.

Ich war damit sehr zufrieden, nur in einer Szene hat es stark geflimmert.



Für den Quatsch hätte ich gerne eine Quelle und zwar eine, die besser als "trust me Bro" ist.

Der Käse verselbstständigt sich. Ja, DLSS schneidet im Bewegtbildvergleich besser ab, aber irgendwann wird es auch mal lächerlich. Am Ende soll DLSS Ultra Performance dann wohl noch besser als AMD nativ sein.
Nachdem was ich alles finden konnte, ist denke ich grundsätzlich im Schnitte davon auszugehen, das DLSS B, wie FSR Q aussieht. Manchmal reicht dafür auch DLSS P. Das bezieht sich auf Standbilder. Bei bewegtbildern gibt es nicht selten, eigentlich Ergebnisse die FSR im aktuellen Stand nahezu ausschließen.

Aber wer sich an dem ganzen kriesel und geflimmer nicht stört, ist ja super für den. Aber der soll mich auch nicht mit 12GB und 4k volltexten.

Aber es soll nicht unerwähnt bleiben, das es auch die Ausnahmen gibt in denen auch FSR überwiegend eine gute Figur macht.

Schöne Vergleiche dazu findet man zum Beispiel bei Techpowerup. Lässt sich super, übersichtlich vergleichen mit allen Infos die man braucht.
 
Zuletzt bearbeitet:
Sachen wie DLSS und reduzierte Raytracing Einstellungen gehen gar nicht, da sie den gewünschten Effekt der ursprünglich gewünschten besserern Grafik ja zu einer Witznummer umkehren.
Ich kann aus eigener Erfahrung sagen, dass ich den Unterschied der nativen Auflösung zu DLSS Upscaling mit einer Stufe niedrigerer Aulösung nicht sehe. Der Geschwindigkeitsunterschied ist jedoch gewaltig.
 
Gibt da genug Videos von zb Hardware unboxed die FSR und DLSS direkt miteinander vergleichen..
und Spieletests auf genug (auch seriösen) PC fachseiten dazu.

Mit anderen Worten: deine beiden Quellen sind "Trust me Bro" und "such doch im Internet".

Hab ich mir schon gedacht, dass du nichts hast.

Es ist einfach ein Fakt das man mit DLSS mit der Renderauflösung bedeutend tiefer kommt als mit FSR bevor es kacke aussieht.

Es gab einen Blindtest, bei dem die meisten DLSS bevorzugt haben, einige konnten sich nicht entscheiden und niemand hat FSR2 ghgenommen.

Da reden wir aber von der selben Stufe, also Quality gegen Quality. Du hast von zwei Stufen drunter gesprochen und das ist Quatsch, dafür hätte ich gerne eine Quelle. Kannst du nicht liefern? So lange bleibt es Quatsch.

Wenn man keine Ansprüche hat ist das ja das eine...

Es sieht um Welten besser aus, als die anderen Optionen und ich bin da echt dankbar. Ich hätte mich natürlich auch nativ mit 4-6FPS durch die Gegend ruckeln können oder in 1080p mit 30FPS. Da sind die 4K FSR2 Ultra Performance klar die beste Wahl.

Wenn man den Unterschied aber noch nicht live gesehen hat und kennt das andere.

Das sieht fast genauso aus, wie nativ.

Trust me Bro

Kannst auch mit ner 4070 in 4k mit Upscaling im Performance Modus Spielen.. ich weiß zwar nicht was da raus kommt an FPS aber es werden bedeutend mehr sein als 45..

Es sind 43FPS nativ. Von einer Karte, die 6 Jahre später auf dem Markt kam und die damals über 800€ gekostet hat, erwarte ich mir sowas aber.

Aber es ging hier um Nvidialogik, da ist meine GTX 1060 besser, als die RTX 4070.

Ich kann dir nur sagen das ne 4080 auf Performance Modus bei Diablo n 5800x3d uns CPU Limit hauen kann auf 3440x1440 und da siehst du auf jedenfall n großen Unterschied zwischen DLSS und FSR

Das es einen Unterschied gibt steht fast. Mit einer RTX Karte gibt es auch wenig Grund FSR zu wählen. Du hast jedoch einen Unterschied von etwa zwei Stufen behauptet.

Nachdem was ich alles finden konnte, ist denke ich grundsätzlich im Schnitte davon auszugehen, das DLSS B, wie FSR Q aussieht.

Es gibt einen Unterschied, aber zwei Stufen? Eher nicht.

Manchmal reicht dafür auch DLSS P.

Dafür möchte ich eine Quelle.

Das bezieht sich auf Standbilder.

Damit praktisch nicht wirklich zu gebrauchen. Wer zockt schon mit Standbildern?

Bei bewegtbildern gibt es nicht selten, eigentlich Ergebnisse die FSR im aktuellen Stand nahezu ausschließen.

Was willst du mit diesem Satz sagen?

Bewegung ist eher die Schwäche von DLSS, da es dann zum schmieren neigt.

Aber wer sich an dem ganzen kriesel und geflimmer nicht stört, ist ja super für den.

Ich hab es wie gesagt selbst ausprobiert. Es gab nur eine problematische Stelle und das bei 19h Spielzeit. Wie gesagt: Ultra Performance.

Aber der soll mich auch nicht mit 12GB und 4k volltexten.

Was willst du uns damit wieder sagen?

Aber es soll nicht unerwähnt bleiben, das es auch die Ausnahmen gibt in denen auch FSR überwiegend eine gute Figur macht.

Alle haben ihre Stärken und Schwächen. Auch FSR1 kann glänzen, wenn man die Tatsache ausnutzt, dass da immer nur ein einzelnes Bild verbessert wird. Umgekehrt kann man die Probleme auch gezielt ausnutzen.
 
Trust me Bro
Wenn du Hardware Unboxed sowie Diverse PC Fachseiten wie Anandtech, Hardwarelux, PCGH, CB, igorlab ect inn ihren Spieletests nicht glaubst bist du das unseriöse
Die haben sicher alle recht ABER, die Qualität des Bildschirminhalts wird denke ich höchst subjektiv wahr genommen.
Soll heissen , messbar ist da wenig und der eine findet es schrecklich , der andere überhaupt nicht schlimm.
Vielleicht so ähnlich wie mit der Ruckelei bei wenig FPS.
 
Was man sieht ist entscheidend und da ist der Monitor essentiell
Ips panels könnte man kaum die Bildqualität vergleichen da der fehlende Kontrast alles verschluckt
va sind die Farben nicht konstant genug und oled der einzig wahre vergleich möglich aber da stört es das kein sync (vrr free gsync) brauchbar ist.
va ist somit aktuell der beste Kompromiss ohne sync bis 100hz
IPS verfälscht die Farben und der Kontrast ist extrem schlecht, oled somit die einzige Option um wirklich zwischen upscaling und nativ zu vergleichen.
Das upscaling angeblich besser ist in der Bildqualität als nativ ist rein aus logische gründen nicht möglich
Die fps suggerieren ein flüssigeres Bild das aber ist kein qualitätsnachweis sondern lediglich der fakt das dass Auge ruhigeres Bild bevorzugt da gilt je gleicher die fps und je weniger unscharf desto besser
 
Zurück