News Radeon RX 7900 XTX: Geht da noch mehr?

Zumindest das stimmt nicht. Aktuell haben alle Reviewer eine Karte in der Hand und arbeiten bis zum Reviewembargo am 12.12. Den einen oder anderen Leak gibt es schon...aber Handfest ist gar nichts..

Das Referenz Modell hat ein Powerlimit von 366W. Wenn du mehr willst musst du die Custom Karten mit 3x150W Anschlüssen kaufen. Allein darum ging es.

Du verstehts den Term Vollausbau anscheinend nicht. Es geht um den Chip selber und ob darin zwecks Ausbeute teile deaktiviert wurden. Die 4090 hat z.b. 16384 von 18432 Cuda-Kernen und ist daher kein Vollausbau.
Die 7900XTX hat 12288 von 12288 möglichen ALUs da kann mit demselben Navi 31 Chips nichts mehr kommen.

Natürlich könnte noch ein Navi 30 Chip kommen der noch größer ist, hat aber nichts mit dem Term Vollausbau zu tun.

Mit dem Cache hat Navi 31 eine Größe von 522mm². Ein GCD mit 600mm² mit ebenfalls 6 MCDs wäre dann über 800mm². Dazu kommt noch viel Filler zwischen den MCDs, das würde das Package soo riesig machen, das man die Stromversorgung und VRAM neu überarbeiten müsste. Auch der Stromverbrauch wäre exorbitant mit 500-600W oder mehr. Deshalb wird sowas nicht kommen.
Was ich mir noch vorstellen könnte für ein Navi 30 Chip, wäre ein paar mm in der breite, sodass 2 weitere MCDs Platz hätten. Würde aber die Kosten um mind 50% steigern. Das wäre dann eine 450W Karte...

Zur Hand schon und mit Sicherheit auch schon getestet! Aber noch nicht veröffentlicht! ;)
PCGH hat die Karten ja auch schon und Raff ist bestimmt schon im Stress! :-D

ja, stimmt - ich korrigiere mich: die karten liegen schon bei den reviewern.
 
Wieso sollte sich AMD zurückhalten
Designfehler?

Die RX7900XTX ist soweit ich weiß bereits der Vollausbau, aber es stand noch gestackter Cache im Raum. Dazu noch vielleicht übertakteter VRAM und >=450Watt...
Ja und Nein.
Grdsd. Ist der verbaute MCD ein Vollausbau. Denkbar, wenn auch aktuell unwahrscheinlich ist aber eine Karte mit zwei Modulen. Dazu wäre wie du sagst, schnellerer VRAM denkbar und eben das Gerücht was von einem Designfehler spricht und damit ggfls. Takt.

Mit 355W ist die schon nahe an der 12V Grenze von 366W mit 2x8-Pin (2x150W) und 66W (12V) durch den PCI-E Slot. ICH würde kein AMD Referenzmodel kaufen, da die ZU nahe am maximalen Power-Limit gestrickt ist.
Naja, bleibt man in der Norm hast du Recht, da ist die Karte auslimitiert. man sollte aber nicht vergessen, dass die 8PINs ca. 100% Reserve bieten (der 12/16 PIN quasi nichts) und daher wird man easy 450W schicken können, liegt dann außerhalb der Norm, aber in meinen Augen auch nicht schlimmer als beim 16PIN 600W

Das Ding ist noch weit weg von Vollausbau bzw. was mit 5nm möglich wäre.
Der GPU Die ist nur 306mm²
Das ist ja auch nur die halbe Wahrheit, ja ein 600mm² MCD wäre möglich, aber wirtschaftlich nicht sinnvoll. Daher muss NV extreme Preise nehmen, AMD kann dagegen deutlich günstiger produzieren. Sinnvoll wären nur 2 dies
 
Wie immer wenn es Amd wie so oft vergeigt hat , kommen Phantasien auf , das Amd absichtlich Leistung zurückhält .

Was auch Sinn macht Nvidia einen Vorsprung beim Verkauf zu lassen oder !? :stupid:

Amd hat gemacht, was mit Amd,s Resourcen möglich war , Fertig.

Wären jetzt schon 3GHZ ohne das sich eine Rx7900xtx auch als Wasserkocher eignet möglich , hätte Amd das schon lang und breit belabbert.

Amd wird sehr warscheinlich noch eine ( wenn wunderts ) rx7950 bringen die dann wenigstens an der Nvidia RTX4080 zumindest bei der Raster Leistung einigermaßen klar vorbeikommt , das war,s dann auch schon mit dieser Gen . ;)
 
SO ein Nachfolger wäre dann aber eher eine "RX8900" - und würde nicht dadurch realisiert dass man den Die größer macht (denn das würde ja eben genau den Vorteil von MCM zerstören - der Die ist nur deswegen so klein weil der Cache daneben liegt - ohne MCM wäre die GPU bei glöeicher Leistung auch an die 600 groß), sondern dass man zwei dieser Compute-Dies reinpflanzt.

AMD kann praktisch zwei 7900XTX auf eine Karte basteln. Früher hieß das "HD7990" und krankte an bekannten Multi-GPU-Problemen. Eine "RX7990" mit zwei N31-Compute-Tiles und doppelter stacked Cachemenge würde, angenommen die Mikroruckel- und Skalierthematik wäre behoben, eine 7900er oder 4090er performanceseitig brutal abschießen - und wenn mans ausnutzt auch die 600W-Klasse an Grafikkarten aufmachen.

Es gab nebenbei Gerüchte dass eine solche Karte schon lange in Entwicklung sei.
ich denke, man wird das "2 in 1"-design nicht weiter verfolgen, da ja eben das mikrogeruckel aufgrund physischer bedingungen wieder auftritt und es ja gewisse latenzen geben würde.

es gibt ja die 4090-customs wie die HOF mit 666W TDP... so eine karte würde mir nie im PC kommen. der stromverbrauch ist jenseits von gut und böse. und zum glück macht AMD die 600W-klasse bis jetzt eben nicht auf!

Wie immer wenn es Amd wie so oft vergeigt hat , kommen Phantasien auf , das Amd absichtlich Leistung zurückhält .

Was auch Sinn macht Nvidia einen Vorsprung beim Verkauf zu lassen oder !? :stupid:

Amd hat gemacht, was mit Amd,s Resourcen möglich war , Fertig.

Wären jetzt schon 3GHZ ohne das sich eine Rx7900xtx auch als Wasserkocher eignet möglich , hätte Amd das schon lang und breit belabbert.

Amd wird sehr warscheinlich noch eine ( wenn wunderts ) rx7950 bringen die dann wenigstens an der Nvidia RTX4080 zumindest bei der Raster Leistung einigermaßen klar vorbeikommt , das war,s dann auch schon mit dieser Gen . ;)

mit den ressourcen gehe ich noch tw. mit. AMD hat nicht die ressourcen wie NV.

aber wo vergeigt AMD etwas? da vergeigt NV eher mehr... u.a. 12V-stecker und preisgestaltung z.B.

und der rest von dir ist sowieso reine spekulation, weiter nichts.
 
Zuletzt bearbeitet:
ich denke auch, man wird das "2 in 1"-design nicht weiter verfolgen, da ja eben das mikrogeruckel aufgrund physischer bedingungen wieder auftritt und es ja gewisse latenzen geben würde.
Das bringt man nur, wenn man das Problem weitestgehend gelöst hat. Was damals aber schwierig bis unmöglich war (ohne Renderverfahren zu nutzen die eben sehr schlecht skalieren) ist aber heute physikalisch machbar da die Dies direkt nebeneinander liegen (viel höhere Bandbreite und viel kleinere Latenzen als früher) und tonnenweise an L2-Cache da ist den man damals nicht hatte.
halte ich persönlich für fantasie, vor allem eine TDP von 600 W. da kann ich beim zocken ja schon staubsauger oder mikrowelle nebenher laufen lassen, würde ja auf der strom-endabrechnung dann auch nicht mehr auffallen ^^
Das hat man, als Grafikkarten noch 50W gebraucht haben, auch für modelle mit 150W gesagt. Und dann, dass 250W gar nicht gehen. Dann, dass 375W absolut unkühlbar seien und bei der ersten 525W Karte naja du kannst es dir vorstellen. Die Argumente sind seit 20 Jahren die gleichen warum gerade jetzt das Limit aber erreicht ist und noch mehr TDP keinesfalls kommen wird. Und 2027 erscheinen dann RTX6090 und RX9900XTX mit jeweils zwei GCDs und 600W TDP und alle habens ja immer gewusst...
 
Du verstehts den Term Vollausbau anscheinend nicht.
Dieser Terminus sollte aber für ein MCM Design erstmal definiert werden, sind ja auch zwei MCDs pro GPU möglich, also irgendwie doch kein Vollausbau der gesamten GPU,sondern nur eines MCD.

Die 4090 hat z.b. 16384 von 18432 Cuda-Kernen und ist daher kein Vollausbau.
Da muss man dann aber von nochmals drastischen Preissprüngen reden, denn ob die Größe noch wirtschaftlich fehlerfrei produziert wird? Mal abwarten
 
Das bringt man nur, wenn man das Problem weitestgehend gelöst hat. Was damals aber schwierig bis unmöglich war (ohne Renderverfahren zu nutzen die eben sehr schlecht skalieren) ist aber heute physikalisch machbar da die Dies direkt nebeneinander liegen (viel höhere Bandbreite und viel kleinere Latenzen als früher) und tonnenweise an L2-Cache da ist den man damals nicht hatte.

aber latenzen lassen sich bei 2 physisch getrennten chips eben nicht ganz vermeiden. klar, kann man über den cache und den takt regeln => aber wieder mehr stromverbrauch.

Das hat man, als Grafikkarten noch 50W gebraucht haben, auch für modelle mit 150W gesagt. Und dann, dass 250W gar nicht gehen. Dann, dass 375W absolut unkühlbar seien und bei der ersten 525W Karte naja du kannst es dir vorstellen. Die Argumente sind seit 20 Jahren die gleichen warum gerade jetzt das Limit aber erreicht ist und noch mehr TDP keinesfalls kommen wird. Und 2027 erscheinen dann RTX6090 und RX9900XTX mit jeweils zwei GCDs und 600W TDP und alle habens ja immer gewusst...
ja, da warst du schneller - war den vorherigen beitrag noch am editieren. da muss ich sagen: natürlich können die hersteller den stromverbrauch weiter anheben. die frage ist allerdings, ob sich das zocken mit dem PC dann noch jeder leisten will und kann bei den energie- und inflationspreisen.
 
aber latenzen lassen sich bei 2 physisch getrennten chips eben nicht ganz vermeiden. klar, kann man über den cache und den takt regeln => aber wieder mehr stromverbrauch.
Die lassen sich auch innerhalb eines Einzelchips nicht vermeiden ;-)
Nur wenn Chips direkt nebeneinanderliegen und die Packagings immer besser werden (da die Entwicklung noch rehct neu ist ist da noch riesiges Potential) werden die so klein dass man es bestenfalls als "ein Chip" nutzen kann, selbst wenn zwei oder mehr Dies physisch da sind.
Der Stromverbrauch kann dabei auch sinken (da man die gleiche Performance mit viel weniger Takt und damit viel effizienter erreichen kann) - wird aber wohl steigen weil die Leute ja eher MEHR POWER wollen.

die frage ist allerdings, ob sich das zocken mit dem PC dann noch jeder leisten will und kann bei den energie- und inflationspreisen.
Jeder sicher nicht. Aber wer 1500€ für ne Grafikkarte hat den jucken auch 20€ mehr oder weniger Stromkosten im Monat sicher nicht. Das Segment in dem wir uns hier bewegen ist ja sowieso eher das mit Aufschrift "aus dem Weg, Geringverdiener!"... ;-)
 
Dieser Terminus sollte aber für ein MCM Design erstmal definiert werden, sind ja auch zwei MCDs pro GPU möglich, also irgendwie doch kein Vollausbau der gesamten GPU,sondern nur eines MCD.
Erstmal GCD statt MCD.
Und Vollausbau heisst voll aktiviert / alle Einheiten aktiviert. Man kann auch mehrere teildeaktivierte Chiplets verbauen. Also multi Salvage, siehe Ryzen CPUs. Von daher muss man Vollausbau (bezogen auf Chiplet) und Anzahl der Chiplets trennen.
 
ich denke, man wird das "2 in 1"-design nicht weiter verfolgen, da ja eben das mikrogeruckel aufgrund physischer bedingungen wieder auftritt und es ja gewisse latenzen geben würde.
Im Gegenteil!
Alle setzen genau hierdrauf, es ist auch gar nicht mehr mit alten Ideen vergleichbar, da man sich nun Cache und VRAM teilt und jeweils die gleiche Geschwindigkeit in der Anbindung hat. AMDs Infinity Link bietet bereits jetzt 9,2 GB/s, die alten SLI Bridges hatten 1GB/s, selbst die letzte Inkarnation alias HB hatte nur 1,625, wir sprechen hier also von ganz anderen Voraussetzungen.
Erstmal GCD statt MCD.
Und Vollausbau heisst voll aktiviert / alle Einheiten aktiviert. Man kann auch mehrere teildeaktivierte Chiplets verbauen. Also multi Salvage, siehe Ryzen CPUs. Von daher muss man Vollausbau (bezogen auf Chiplet) und Anzahl der Chiplets trennen.
Erstmal hast du mit GCD völlig Recht und deine Definition passt so auch. Ändert nur eben nichts dran, dass AMD hier mit deutlich geringeren Aufwand eine neue Ausbaustufe bringen kann, als wenn man einen grßeren MCD baut
 
Naja, bleibt man in der Norm hast du Recht, da ist die Karte auslimitiert. man sollte aber nicht vergessen, dass die 8PINs ca. 100% Reserve bieten (der 12/16 PIN quasi nichts) und daher wird man easy 450W schicken können, liegt dann außerhalb der Norm, aber in meinen Augen auch nicht schlimmer als beim 16PIN 600W
Es geht, klar. Mein Corsair Netzteil nutzt auch nur 2 Kabel vom Netzteil für den 12VHPWR Anschluss. Das entscheidet aber der Hersteller der Netzteile und nicht Nvidia oder AMD.
Das entspricht aber auch nicht der PCI-SIG, ergo es könnte bei vielen Netzteilen zu Problemen führen. Das wäre ansich ein größerer Skandal als beim Adapter aus meiner Sicht.

Kleine Anmerkung AUCH AMD hat den 12VHPWR abgesegnet, die sind ja auch Teil des Gremiums in der PCI-SIG.
 
Das wäre ansich ein größerer Skandal als beim Adapter aus meiner Sicht.
Es ging hier doch ursprünglich darum, dass du keine Karte mit 2x8 PIN kaufen würdest weil zu wenig Potenzial vorhanden ist. Das sehe ich nicht als Problem an, bei OC betreibst du die Karte ja eh außerhalb der Specs und mit Vernunft und gutem Netzteil sollten die 366W keine Hürde sein.

ergo es könnte bei vielen Netzteilen zu Problemen führen
Kommt hier auf die Definition "viele" an, gerade ältere Netzteile würde ein höheres Übertakten für Probleme stellen, 400W, selbst 450W sollten aber ein in der Größe ausreichendes Netzteil nicht vor Probleme stellen.

Kleine Anmerkung AUCH AMD hat den 12VHPWR abgesegnet, die sind ja auch Teil des Gremiums in der PCI-SIG.
Und? Ich hab nichts gegen den Standard, das Problem muss gelöst werden, so lange kaufe ich kein Produkt mit diesem Standard, danach ist alles gut, egal ob AMD, INTEL ode NV. Ich sage nur, dass man in meinen Augen hier Augenwischerei betrieben hat, man hat quasi den 2x8 PIN genommen, Sense Leitungen die derzeit keine Funktion erfüllen hinzugefügt und die Reserven entfernt und voila hat man statt 300W nun 600W Specs
 
Es ging hier doch ursprünglich darum, dass du keine Karte mit 2x8 PIN kaufen würdest weil zu wenig Potenzial vorhanden ist. Das sehe ich nicht als Problem an, bei OC betreibst du die Karte ja eh außerhalb der Specs und mit Vernunft und gutem Netzteil sollten die 366W keine Hürde sein.
Kann man so oder so sehen. Wenn die AIBs ein 400-450W Bios haben ist das wieder innerhalb des Specs. :D
Es geht darum, das noch keiner so wirklich weiß, wie effizient oder ausgehungert die 7900XTX bei 350W ist.
Mit Glück gibt es die Ergebnisse morgen, vielleicht kommen die genauen Ergebnisse auch später.

Aber eine Karte mit nur 4% Luft nach oben ist mit halt zu wenig, auch wenn ich es nie nutzen werde.
Es geht mir auch um Spikes etc.
 
Aber eine Karte mit nur 4% Luft nach oben ist mit halt zu wenig, auch wenn ich es nie nutzen werde.
Aber genau das ist es doch, die AMD FEs bieten mehr, du kannst ja auch bspw. bei meiner Saphire mit 2x 8PIN auf 15% mehr Leistungsaufnahme gehen, sind dann auch über 350W und mit BIOS Editor geht ja beliebig viel. Eine AIB Karte mit 3x8 PIN ist per se schon außerhalb der Specs, da es dreimal 8 nicht gibt!
 
[...] Also die GTX 280 hatte ein 576mm² Die und ein 512 Bit Interface. Die Karte hat keine 2500€ gekostet.
Entweder ich habe hier irgendwas nicht verstanden oder der Vergleichsversuch ist tatsächlich sinnbefreit. ;-) Die von dir aus der Versenkung hervorgezerrte Karte ist eine alte Tesla-Architektur aus 2008, gefertigt in 65 nm mit gerade mal 1,4 Mrd. Transistoren.
Einerseits waren die Wafer-Kosten deutlich geringer, andererseits bspw. ebenso die Entwicklungskosten und diese gar um ein Vielfaches, d. h. den damaligen G(T)200 zu entwickeln und auch zu fertigen kostete nur einen Bruchteil dessen, was die Hersteller für heutige Hardware aufwenden müssen.

*) Bspw. IBS hat mal in 2018 ein Analyse-Chart zur Chipentwicklung hochkomplexer Logikchips bereitgestellt und in diesem aufgezeigt, dass alleine die Entwicklung eines solchen 65 nm-Desings im Mittel um die 29 Mio. US$ verschlingt. Zum Zeitpunkt der Erstellung dieser Analyse waren die 7nm schon bei TSMC in der Produktion und ein entsprechendes Design schätzte man nur bzgl. der Entwicklung mit bereits 298 Mio. US$ Entwicklungskosten ab, also mal eben das 10-fache dessen, was man noch vor einigen Jahren investieren musste. Deren damalige 5nm-Entwicklungsabschätzung reichte gar hinauf zu 542 Mio. US$ Entwicklungskosten (ohne dass man auch nur einen einzigen Chip gefertigt hat), mal eben das 19-fache des 65 nm-Designs. (Eine Analyse von Gartner aus 2014 zeichnet ein sehr ähnliches Bild).
Bzgl. der IBS-Analyse könnte man nun spekulieren, dass die konkrete 5 nm-Fertigung zum Zeitpunkt der Analyse noch deutlich in der Zukunft lag (TSMC nahm die Produktion erst im 1HJ20 auf), sodass man ihnen einige Ungenauigkeit unterstellen kann. Und tatsächlich präzisierte IBSs CEO die Angaben auch im Februar 2022 und erklärte, dass man bei einem 28 nm-Chip mit um die 40 Mio. US$ Entwicklungskosten rechnen muss, während man für ein 7 nm-Design 217 Mio. US$ einplanen müsse und ein 3 nm-Design beziffert man nun mit 590 Mio. US$ Entwickllungskosten ... wohlgemerkt nur die Entwicklung.
Zum Thema Wafer-Kosten: Hier werde ich jetzt nicht aufwändig zurückrecherchieren, weil eigentlich das damalige Zeitäquivalent die präzise Aussage wäre, aber nur mal zum schnellen Vergleich: 5 nm-Wafer werden zurzeit mit grob um die 17.000 US$ beziffert, während 65 nm-Wafer mit 2000 US$ beziffert werden. Die ab/ in 2023 genutzten 3 nm-Wafer werden gar auf bis zu 20000 US$ pro einzelnem Wafer abgeschätzt.
 
mit den ressourcen gehe ich noch tw. mit. AMD hat nicht die ressourcen wie NV.

aber wo vergeigt AMD etwas? da vergeigt NV eher mehr... u.a. 12V-stecker und preisgestaltung z.B.

und der rest von dir ist sowieso reine spekulation, weiter nichts.


Wilst du etwa abstreiten , das Amd zurückrudern musste und anstatt der RTX4090 dann die kleinere RTX 4080 als Gegner für ihre Rx7900xtx angeben musste ?

Willst du abstreiten das Amd wieder nicht Konkurenzfähig ist was RT und DLSS angeht ?

Willst du abstreiten das Amd mit der Rx7900 zu spät dran ist ?

Willst du abstreiten das eine Rx 7900xtx ca. 1320,- Euro kosten wird ?

Willst du abstreiten das Amd Lieferschwierigkeiten bis ins neue Jahr haben wird ?

So gesehen hat Amd es wieder mal vergeigt . :schief:

Das sind belegbare Fakten und keine Spekulationen von denen du offensichtlich nichts wissen willst !

Eine aktuell lieferbare Nvidia RTX 4080 gibt es für 1349,- Euro zu kaufen , da habe ich angesichts der Euro Preise von Amd kein Problem mit Nvidia.

Und auch nicht mit den Stromanschlüssen der Nvidia Karten das jeder 14 Jährige mit ein wenig Gehirn hinbekommt .



Jetzt fehlt nur noch der PCGH Leistungsindex und auch da fürchte schauts nicht gut aus für Amd und die Rx7900xt(x) .

Wer jetzt zu Weinachten eine neue Karte in der Klasse will und logisch denken kann wird bei Nvidia zuschlagen ;)
 
Wilst du etwa abstreiten , das Amd zurückrudern musste und anstatt der RTX4090 dann die kleinere RTX 4080 als Gegner für ihre Rx7900xtx angeben musste ?

Willst du abstreiten das Amd wieder nicht Konkurenzfähig ist was RT und DLSS angeht ?

Willst du abstreiten das Amd mit der Rx7900 zu spät dran ist ?

Willst du abstreiten das eine Rx 7900xtx ca. 1320,- Euro kosten wird ?

Willst du abstreiten das Amd Lieferschwierigkeiten bis ins neue Jahr haben wird ?

So gesehen hat Amd es wieder mal vergeigt . :schief:

Das sind belegbare Fakten und keine Spekulationen von denen du offensichtlich nichts wissen willst !

Eine aktuell lieferbare Nvidia RTX 4080 gibt es für 1349,- Euro zu kaufen , da habe ich angesichts der Euro Preise von Amd kein Problem mit Nvidia.

Und auch nicht mit den Stromanschlüssen der Nvidia Karten das jeder 14 Jährige mit ein wenig Gehirn hinbekommt .



Jetzt fehlt nur noch der PCGH Leistungsindex und auch da fürchte schauts nicht gut aus für Amd und die Rx7900xt(x) .

Wer jetzt zu Weinachten eine neue Karte in der Klasse will und logisch denken kann wird bei Nvidia zuschlagen ;)
AMD hat nie behauptet schneller oder gleich schnell zu sein wie die 4090... wer logisch denken kann glaubt deinen Posts nicht? Aber von dir war eh nichts anderes zu erwarten außer Quark
 
lagen ja alle komplett daneben

am ende wird RDN4 wohl nicht mal so schnell, wie die hier spekulierte wunder graka :ugly:
 
Zurück