News Radeon RX 7900 XTX: Geht da noch mehr?

Mehr Leistung würde sich sicher auch am Preis bemerkbar machen. Dass AMD bei konkurrenzfähiger Leistung auch gerne mal etwas mehr verlangt als früher ist seit Zen 4 nichts neues mehr.

Die 7900 XTX nahe an einer 4090, das würde AMD nie für 999$ verkaufen. Daher macht warten nicht viel Sinn, außer man will mehr Geld für mehr Leistung ausgeben.
 
Dass AMD bei konkurrenzfähiger Leistung auch gerne mal etwas mehr verlangt als früher ist seit Zen 4 nichts neues mehr.
Für Leute die schon länger dabei sind ist das noch nie was neues gewesen. Ein FX-62 als schnellste CPU kostete vor gefühlten 20 Jahren schon über 1000 Dollar (was heute eher 2000 wären). [EDIT: Google sagt 1031$ im Jahre 2006 :-D]
Natürlich verlangt AMD auch der Performance angepasste Preise - weil ihr Marktanteil im GPU-Bereich aber so winzig ist gegenüber NV würde aber eine gleich schnelle Karte dennoch etwas günstiger sein (müssen).
 
Oh doch, das gibt es - es ist nur selten vorgekommen bisher.
Kannst mal in den Archiven des Internets suchen nach dem guten alten Core2Quad Q6600. Den gab es im ursprünglichen B-Stepping mit 2,4 GHz zu kaufen und mit viel Glück kam man auf 3 GHz mit viel Spannung.

Ein recht schnell nachgereichtes Stepping namens "G0" das einen solchen Bug bereinigt hatte konnte man dann auf einmal zwischen 3,5 und 4 GHz takten bei unter 1,4v. Oder anders gesagt da war spontan ein GHz mehr drin bei der gleichen CPU nach Bugfix.
ja stimmt ich erinnere mich, ist aber wirklich die Ausnahme
 
SO ein Nachfolger wäre dann aber eher eine "RX8900" - und würde nicht dadurch realisiert dass man den Die größer macht (denn das würde ja eben genau den Vorteil von MCM zerstören - der Die ist nur deswegen so klein weil der Cache daneben liegt - ohne MCM wäre die GPU bei glöeicher Leistung auch an die 600 groß), sondern dass man zwei dieser Compute-Dies reinpflanzt.
Aber genau darum gehts doch, man kann den GPU Die beliebig größer skalieren weil eben der Cache durch die MCDs daneben liegt und nicht im Chip sitzt wodurch man wie Du sagst wie damals 2 Chips auf die Karte bauen muss.
Das ist doch der große Vorteil des MCM Designs was eben nur durch den Platz auf der Karte selber und die Stromaufnahme limitiert wird.
Für 5nm sind die 300mm² recht klein, mit besseren Yields oder wenn AMD meint die Karte kann teurer werden spricht doch nichts dagegen einen 450 oder 600mm² GPU Die zu bauen, die MCDs mit dem Cache fallen doch da kaum ins Gewicht.
Spannung und Takt etwas runter damit der Stromverbrauch nicht explodiert und fertig wäre der 4090ti Killer.
Aktuell nutzt man das MCM Design um Kosten zu sparen, wäre sehr seltsam wenn man es nicht auch für mehr Leistung nutzen würde.
 
Zuletzt bearbeitet:
spricht doch nichts dagegen einen 450 oder 600mm² GPU Die zu bauen
...außer dass der Preis dafür dann so hoch wäre dass man 2500 dafür aufrufen müsste (momentan). Denn dann haste die Kosten für nen BigChip PLUS die für MCDs und komplexes Packaging.
Die ganze Nummer zielt in erster Linie ja darauf ab, eben keine 600+mm^2 große Monster mehr auflegen zu müssen weil die eben immens teuer sind (grade bei 5nm abwärts). NV macht das aktuell auch nur noch deswegen, weil ihr MCM Ansatz noch nicht fertig ist.
Natürlich geht das technisch alles da haste ja Recht - es ist nur nicht wirtschaftlich bzw. es besteht keine (/viel zu kleine) Zielgruppe für Grafikkarten im 3000€-Bereich die man bräuchte um sowas aufzulegen.
 
Das wäre dann wohl eine echte 8K Karte, da die AMD Karten, dank dem Infinitycache Auflösungskrüppel (AMD Fanboys lieben ja das Wort) sind und nur mit4K/5K zurecht kommen, darüber sind die Leistung massiv. Es hat seinen Grund, warum in der Präsentation nur 8K im FSR Performacemodus gezeigt hat und Nvidia auch immer die nativen Zahlen mitgeliefert hat.

Wobei man mit 8K wohl erst bei der RTX 5090 wunschlos glücklich werden wird.

Es soll auch Leute gegeben haben, die von einer rx 6900 auf eine rx6950 gewechselt haben. Mir ist zwar persönlich keiner bekannt aber...

Es gab sogar Leute, die von einem i7 6700K auf den i7 7700K aufgerüstet haben und das hat noch wesentlich weniger Sinn ergeben.

Ich halte das für Wunschdenken.
Wieso sollte sich AMD zurückhalten und Nvidia das Feld überlassen, wenn sie die Möglichkeit hätten, daran was zu ändern? Ergibt für mich gar keinen Sinn.

Weil man dafür ersteinmal genug Cache Produzieren muß. Ähnliches hat man ja schon bei Zen 3 gesehen. Da kam der 5800X3D auch wesentlich später und dann gab es auch nur ein Modell. Bei Zen 4 soll es ja flächendeckend eingeführt werden, auch auch da gibt es die erste Zeit nur die Modelle mit weniger Cache.

...außer dass der Preis dafür dann so hoch wäre dass man 2500 dafür aufrufen müsste (momentan). Denn dann haste die Kosten für nen BigChip PLUS die für MCDs und komplexes Packaging.
Die ganze Nummer zielt in erster Linie ja darauf ab, eben keine 600+mm^2 große Monster mehr auflegen zu müssen weil die eben immens teuer sind (grade bei 5nm abwärts). NV macht das aktuell auch nur noch deswegen, weil ihr MCM Ansatz noch nicht fertig ist.
Natürlich geht das technisch alles da haste ja Recht - es ist nur nicht wirtschaftlich bzw. es besteht keine (/viel zu kleine) Zielgruppe für Grafikkarten im 3000€-Bereich die man bräuchte um sowas aufzulegen.

Also die GTX 280 hatte ein 576mm² Die und ein 512 Bit Interface. Die Karte hat keine 2500€ gekostet.
 
bisher hat offiziell niemand eine 79XX zur hand und somit auch nicht testen können, womit keine deiner aussagen hand und fuß haben. wenn du doch mehr weißt: links/nachweise bitte, das möchte ich dann bitte auch lesen.
Zumindest das stimmt nicht. Aktuell haben alle Reviewer eine Karte in der Hand und arbeiten bis zum Reviewembargo am 12.12. Den einen oder anderen Leak gibt es schon...aber Handfest ist gar nichts..
Ist doch latte, kannst da auch 500 W durchballern. Die Frage ist, ob und wie überhaupt Takt und Performance mit höherer Leistungsaufnahme skalieren.
Das Referenz Modell hat ein Powerlimit von 366W. Wenn du mehr willst musst du die Custom Karten mit 3x150W Anschlüssen kaufen. Allein darum ging es.
Das Ding ist noch weit weg von Vollausbau bzw. was mit 5nm möglich wäre.
Der GPU Die ist nur 306mm² groß, 5nm macht ca. 600mm² wirtschaftlich möglich (siehe 4090). Da wäre noch eine Menge Platz für extra Shader.
Dank dem MCM Design können die den GPU Die fast beliebig skalieren da der Rest einfach als MCD dazu kommt, so hätte man bei einem 600mm² GPU Die wohl mindestens 70%+ Mehrleistung.
Würde mich nicht überraschen wenn noch so eine Karte kommt, die technischen Möglichkeiten haben sie ja.

Die 4090 kann man schon eher als fast Vollausbau bezeichnen, NV hat im Gegensatz zu AMD kaum noch Möglichkeiten den Chip noch größer zu skalieren ohne das die Yields ins Bodenlose stürzen. Durch das monolithische Design muss NV neben den Shadern alles andere auch in diese zusätzliche Die Size packen, da bleibt nicht viel Platz für extra Shader um die Leistung großartig zu steigern.
Du verstehts den Term Vollausbau anscheinend nicht. Es geht um den Chip selber und ob darin zwecks Ausbeute teile deaktiviert wurden. Die 4090 hat z.b. 16384 von 18432 Cuda-Kernen und ist daher kein Vollausbau.
Die 7900XTX hat 12288 von 12288 möglichen ALUs da kann mit demselben Navi 31 Chips nichts mehr kommen.

Natürlich könnte noch ein Navi 30 Chip kommen der noch größer ist, hat aber nichts mit dem Term Vollausbau zu tun.

Mit dem Cache hat Navi 31 eine Größe von 522mm². Ein GCD mit 600mm² mit ebenfalls 6 MCDs wäre dann über 800mm². Dazu kommt noch viel Filler zwischen den MCDs, das würde das Package soo riesig machen, das man die Stromversorgung und VRAM neu überarbeiten müsste. Auch der Stromverbrauch wäre exorbitant mit 500-600W oder mehr. Deshalb wird sowas nicht kommen.
Was ich mir noch vorstellen könnte für ein Navi 30 Chip, wäre ein paar mm in der breite, sodass 2 weitere MCDs Platz hätten. Würde aber die Kosten um mind 50% steigern. Das wäre dann eine 450W Karte...
 
Für Leute die schon länger dabei sind ist das noch nie was neues gewesen. Ein FX-62 als schnellste CPU kostete vor gefühlten 20 Jahren schon über 1000 Dollar (was heute eher 2000 wären). [EDIT: Google sagt 1031$ im Jahre 2006 :-D
Kannte sogar mal einen der hatte den mit 2 x 7900 GTX. Das war für mich mit meinem 3000+ damals ein Freak (Im Positiven) ?
 
[...] Die 4090 ist im Grunde auch eine 350 Watt GPU, die ab Werk bis 450Watt übertaktet ist [...]
Die Karte hat takttechnisch gar noch Luft nach oben. Die zieht nur deshalb so viel, weil die Fertigungstechnik nicht mit den Sprüngen mithalten kann, die der Markt sich hier wünscht ... oder willst du analog etwa behaupten eine RX 6900 XT ist eigentlich eine 200 W-Karte, die AMD lediglich ab Werk auf 300 W übertaktet hat? ;-)
Ja, alles ist möglich. EIn Chip mit neuem Stepping bei 3 Ghz, oder ein anderer Chip(let) [...]
Möglich ist (in diesem Sinne nahezu) alles, die Frage ist nur ob das aus wirtschaflticher Sicht für AMD infrage kommt. Selbst wenn ein überarbeitetes Modell mit etwas besserer Leistung kommt, werden ihre Absatzzahlen nicht überproportional steigen, weil der Markt nun einmal langsam reagiert aber die immensen zusätzlichen Entwicklungskosten hätte man dennoch zu verbuchen.
Man wird einfach mal abwarten müssen, was genau da bei Navi31 im Argen liegt. In den Notizen zur Mesa-Treiberentwicklung liest sich das eher so, als wenn das nichts wäre, was man mal eben mit einem neuen Stepping lösen könnte.
Da bleibt nur die Hoffnung, dass die kleineren Modelle frühzeitig nachbearbeitet und redesigned wurden und ggf. zumindest relativ gesehen besser abschneiden werden? Wenn es dagegen ganz RDNA3/GFX11 betrifft ... :heul:

Ein überarbeitetes GCD für Navi31 scheint nicht unbedingt wahrscheinlich (vielleicht kommt es noch, vielleicht auch nicht *) und ein noch größerer GCD (denn der aktuelle von Navi31 nutzt in der RX 7900 XTX bereits den Vollausbau des Chips) für ein neues Spitzenmodell ist aufgrund ihrer kleinen Marktanteile gar noch deutlich unwahrscheinlicher, zumal der Absatzmarkt da noch weiter schrumpfen würde weil man sich dann in noch höhere Preisregionen bewegen würde.

*) Das nächste Problem ist ja auch dann noch bzgl. der Amortisierung die Zeitschiene. Bekommt man das überarbeitete Design erst im 2HJ23 in den Markt, möglicherweise gar spät, dann ist man schon wenige Schritte später in 2024 und dann wirft bereits wieder nVidia's NextGen ihre Schatten voraus, was erneut zu weiter verringerten Absatzzahlen und der Notwendigkeit weiterer Preisnachlässe führt. Und nVidia kann und wird voraussichtlich zudem auch noch in 2023 eine RTX 4090 Ti nachreichen ...

Aktuell kann man leider nicht einmal abschätzen, ob noch ein V-Cache-Design wahrscheinlich ist, da unklar ist, wie viel prozentualen Leistungszugewinn der vergößerte L3$ tatsächlich imstande wäre beizusteuern. Der GDDR6 liefert nun mehr Bandbreite als zuvor und der L3$ ist gem. AMDs erster Vorstellung gar deutlich durchsatzstärker geworden, d. h. hier stellt sich durchaus die Frage, was eine Vergrößerung kosten/nutzentechnisch tatsächlich noch bringt, denn sechs stacked MCDs werden keinesfalls günstig in der Fertigung sein, einerseits aufgrund des zusätzlichen Siliziums, voraussichtlich aber auch aufgrund des komplexeren Packagings.
In frühen Leaks war mal die Rede von einem regelrechten Cache-Monster, das es wohl zumindest im Labor gab, jedoch gab es dazu auch Gerüchte, die erklärten, dass AMD von einer derartigen Entwicklung Abstand nehmen würde aufgrund eines "abgrundtiefschlechten" P/L-Verhältnisses.
Man wird abwarten müssen was hier noch kommen mag oder auch nicht.

**) Wenn man ganz viel Pecht hat bedingen sich der/die Hardwarebug(s) und die mögliche Verwendung von stacked MCDs gar gegenseitig und letzteres macht ohne ein überarbeitetes GCD keinen Sinn? Man weiß es zurzeit einfach nicht.
Aktuell scheint man sich nur mit nVidia's zweitbester Karte messen zu können was jedoch bereits AMDs Erstvorstellung unmissverständlich klar machte aufgrund des ausgerufenen Preises, denn natürlich würde auch AMD mehr verlangen wollen, wenn sie es sich leisten könnten. Und bei der Raytracing-Leistung scheint es nicht einmal dafür zu reichen. Man wird sehen was das mit AMDs Grafikpsarte im nächsten Jahr macht, nun da ein weiterer Konkurrent im volumenträchtigeren Mainstream Anteile für sich beansprucht.

Aber genau darum gehts doch, man kann den GPU Die beliebig größer skalieren [...]
Solange wir uns mit Fragen in der realen Welt befassen, kann man das eben nicht, weil es hier sowohl technische wie auch wirtschaftliche Faktoren gibt, die dagegen sprechen. Man wird abwarten müssen was hier bei AMD noch möglich ist oder ob sie das ggf. aussitzen/abhaken und ihr Augenmerk dann eher frühzeitig auf RDNA4 legen werden.
 
bisher hat offiziell niemand eine 79XX zur hand und somit auch nicht testen können, womit keine deiner aussagen hand und fuß haben. wenn du doch mehr weißt: links/nachweise bitte, das möchte ich dann bitte auch lesen.
Zur Hand schon und mit Sicherheit auch schon getestet! Aber noch nicht veröffentlicht! ;)
PCGH hat die Karten ja auch schon und Raff ist bestimmt schon im Stress! :-D
 
Wenn man zurück schaut ist mir eines immerwieder bei AMD aufgefallen.
Kurz nach der Veröffentlichung neuer Karten gab es meistens ein Software Update das die Leistung der Karten deutlich gesteigert hat. Würde mich nicht wundern wenn. Wenn das diesmal wieder so ist. Könnten sie sich deutlich vor der 4080 positionieren und Nvidia unter Druck setzen. Es braucht nicht immer neue Karten. Vielleicht halten sie sich noch etwas Leistung in der Software Hinterhand. Ich würde das Update " Lach-Gas" nennen! ?
 
[...] Vielleicht halten sie sich noch etwas Leistung in der Software Hinterhand. [...]
Ja genau, der Underdog mit <20% Marktanteil bewirbt sein Produkt absichtlich mit niedrigerer Leistung, hält sich aber ein Hintertürchen offen um ein paar Wochen später plötzlich doch seine 1000$-Karte die 50% teurere Konkurrenz pulverisieren zu lassen.
In so einem Fall würden wohl eher AMDs Aktien pulverisiert...

Ich verstehe schon den gewissen hämischen Unterton, dass AMD wieder nicht uneingeschränkt zum Topmodell von nVidia aufschließen kann und in Teilbereichen und vielleicht sogar der Effizienz auch von dem zweitstärksten Modell der Konkurrenz geschlagen wird.
Aber Karten, die für 800-1000$ jetzt auch in 4K alles super spielbar machen sind auch eine Ansage und eine klare Zielgruppe. Und für die Mehrheit, die in Full HD oder WQHD zockt gibt es auch wesentlich sparsamere Karten als in der Vorgeneration mit voraussichtlich klarem Preisvorteil bei AMD. In der letzten Generation hat sich nVidia in 4K ein bisschen besser geschlagen als AMD, das dürfte nun Geschichte sein.

Noch eine Generation weiter wird es richtig spannend: AMD, Intel und nVidia haben dann "richtige" MCM-Designs (wo vielleicht auch die Compute Dies gestückelt sind) im Rennen und wer weiß, was dann rumkommt wenn man tatsächlich auf die 600 Watt zielen kann und dabei nur mehr Chipfläche im Sweet Spot betreibt statt auf biegen und schmelzen zu übertakten!
 
Zurück