Nur dass die Karte in der Realität 1600 kostet. Wenn wir da 800 nehmen wären wir da, wo auch 2080 war und 3080 hätte ohne Mininghype sein sollen.Weil sich der Threadersteller Gedanken macht, bevor er die Umfrage erstellt.
699 + 500 sind ~1199.
Wenn wir nun "800" nehmen, dann wäre die Karte günstiger als die 3080.
Die Antwortmöglichkeit fehlt mir auch.^^[sonstiges]
4090 vorhanden. 4080 würde ich nie kaufen^^
Nur leider wird eben mal wieder nicht erkannt, dass die Karten ja noch nicht die 30x0 Karten ersetzen sollen, sondern nach oben komplettieren. Sind die Ampere irgendwann weg , dann werden auch die Preise purzeln. Solange müssen sich eben die selbsternannten Sparfüchse gedulden. AMD hat anscheinend nicht das Problem mit den hohen Lagerbeständen und kann seine vorherige Generation ersetzen. Hätte ja jeder so gemacht wahrscheinlich.Warum ist die höchste Option denn "500 zu teuer"?^^
Gemessen an ihren Vorgängern ist die Karte 800€ zu teuer
Dennoch das Häkchen bei "Ich würde die 4080 kaufen, falls (deutlich) billiger" - für <1000€.
Die 3080 ging meistens für über 1000 Euro über den Tisch und kostet selbst heute noch 800.Nur dass die Karte in der Realität 1600 kostet. Wenn wir da 800 nehmen wären wir da, wo auch 2080 war und 3080 hätte ohne Mininghype sein sollen.
Das ist sie ohne Frage - außer den Preis gibts kaum was zu meckern (wenn sie <1000 kosten würde hätte ich sie schon).Ich halte die RTX 4080 für eine extrem gut Karte!
Wenn die Argumente fehlen OT-haten. Wie gewohnt.AMD verschleudert ihre RT Luftpumpen zum Discountpreis.
Mag mich irren, aber laut dem Whitepaper des AD103 stimmen deine Daten so nicht...Das ist sie ohne Frage - außer den Preis gibts kaum was zu meckern (wenn sie <1000 kosten würde hätte ich sie schon).
Wenn man böse wäre könnte man sagen, dass außer dem vergrößerten Cache der AD103 einfach nur ein geshrinkter GA102 ist - und die Verbesserung nahezu ausschließlich vom Wechsel Samsung 8nm auf TSMC 4nm stammt. Das, was eine 4080 schneller ist als eine 3090Ti ist auch in etwa das, was sie an Takt mehr laufen kann.
Ich meine mal ehrlich. Besonders kreativ war NV da wirklich nicht.
AD103 <--> GA102
Anhang anzeigen 1408836Anhang anzeigen 1408837
Wenn die Argumente fehlen OT-haten. Wie gewohnt.
Das ist das erste Googleergebnis gewesen, ist von Videocardz.Mag mich irren, aber laut dem Whitepaper des AD103 Stimmen deine Daten so nicht...
Normalerweise nicht - aber der Sprung von Samsung-8 (was eigentlich der 10nm-Node ist) auf TSMC-4N (was eigentlich der 5nm Node ist nur für NV angepasst) sind praktisch 2 Sprünge. Auf TSMC-7 wäre ein "normaler" Fertigungssprung gewesen, dass der hier überdurchschnittlich gut ausfällt war schon zu erwarten.Mal ganz zu schweigen davon, dass die jeweiligen Einheiten ja nicht die selben sind wie noch bei
Ampere. Alleine durch einen Die-Shrink bekommt man solche Leistungssteigerung bei reduziertem
Stromverbrauch wohl kaum hin.
Das ist das erste Googleergebnis gewesen, ist von Videocardz.
Normalerweise nicht - aber der Sprung von Samsung-8 (was eigentlich der 10nm-Node ist) auf TSMC-4N (was eigentlich der 5nm Node ist nur für NV angepasst) sind praktisch 2 Sprünge. Auf TSMC-7 wäre ein "normaler" Fertigungssprung gewesen, dass der hier überdurchschnittlich gut ausfällt war schon zu erwarten.
An den Shadereinheiten selbst hat sich (abseits des viel größeren Caches) praktisch nichts verändert - die takten nur höher im neuen Prozess. Architekturänderungen gab es offenbar im Wesentlichen "nur" bei RT-Einheiten, Videoengine usw. aber nicht bei den eigentlichen Ausführungseinheiten.
Ich meine auch wenn die Daten nicht 1:1 gleich sind - die Shaderzahl ist zumindest sehr ähnlich. Und bei ganz grob +25% Takt stehen ganz grob +25% Performance.
Du hast das doch behauptet.Was sollte man auch alle 2 Jahre an so einer grundlegenden Einheit wie den Cuda Cores, die ja nun seit
der 8000er Serie weiterentwickelt werden ändern?
Dass NV trotz schlechterem Node gut dabei war wurde durchaus oft genannt - meist dann wenn man sich wunderte warum die 6000er AMD-Karten derart viel höher takten konnten was auch einfach am besseren TSMC-7 lag. Ampere hat hier klar die bessere IPC gehabt gegenüber der Konkurrenz. Vielleicht ist gerade weil man sich hier im Vorteil gesehen hat auch der Fokus auf anderen Bereichen gewesen und nicht auf der reinen Shader-IPC bei Ada.Also die 30er Serie konnte ja schon ganz gut mit AMD's 6X Serie mithalten, trotz merklichem
Fertigungsunterschied, da hat diesen Aspekt kaum einer erwähnt.
Na ja, also die IPC Steigerung der CPU's finde ich weit weniger "interssant" als den LeistungshungerDu hast das doch behauptet.
Aber um die Frage zu benatworten: Kontinuierliche Verbesserungen und Anpassen auf aktuelle Entwicklungen der Branche. Das, was GPU-Entwickler genauso seit Jahrzehnten tun wie CPU-Entwickler beispielsweise im x86-Bereich. Da wird auch ständig "ausoptimiert" gerufen und trotzdem sehen wir alle paar Jahre IPC-Steigerungen im zweistelligen Prozentbereich.
Dass NV trotz schlechterem Node gut dabei war wurde durchaus oft genannt - meist dann wenn man sich wunderte warum die 6000er AMD-Karten derart viel höher takten konnten was auch einfach am besseren TSMC-7 lag. Ampere hat hier klar die bessere IPC gehabt gegenüber der Konkurrenz. Vielleicht ist gerade weil man sich hier im Vorteil gesehen hat auch der Fokus auf anderen Bereichen gewesen und nicht auf der reinen Shader-IPC bei Ada.
Wenn man den Gesamtchip im passenden Workload betrachtet (wie mans bei GPUs ja auch macht), also beliebige Kern-/Shaderzahl bei super parallelisierbarem Multithreadworkload (Cinebench für CPUs wie Rendergrafik für GPUs) sind 50% mehr Performance bei gleicher Leistungsaufnahme noch sehr niedrig gegriffen für CPUs.Aber 50% Leistungssteigerung in 2 Jahren, das wäre doch mal was bei CPU's?
Also ohne die 500W Marke zu knacken.
Well well... Ja ok. In Cinebench... Aber z.B. Real world Gaming? Eher nicht...Wenn man den Gesamtchip im passenden Workload betrachtet (wie mans bei GPUs ja auch macht), also beliebige Kern-/Shaderzahl bei super parallelisierbarem Multithreadworkload (Cinebench für CPUs wie Rendergrafik für GPUs) sind 50% mehr Performance bei gleicher Leistungsaufnahme noch sehr niedrig gegriffen für CPUs.
Vergleiche da mal 11900K --> 12900K --> 13900K. Das sind ohne groß nachzusehen iirc 15K --> 25K --> 40K CB23-Punkte. Roundabout +60% jedes mal bei gleichbleibend ~250W.
Die 3080 lief also schon ne Weile bei dir. Wie lang genau? Und hast sie nun für "faire" 650€ abgegeben. Echt jetzt?Habe die Karte gekauft, und meine 3080 verkauft. Die 3080 hat mir während Corona und der Quarantäne Langeweile sehr geholfen. Ich hatte damals bei Launch 748 bezahlt und sie jetzt einem Freund für faire 650 gegeben.