Sinnloses Nvidia Gelaber

cx19

Freizeitschrauber(in)
Ich bin schon gespannt wie das hier wieder so gedreht wird dass Nvidia "evil" ist. :ugly:

Na ja Huang hat schon ein kleines Königreich aufgebaut. Es gab da so ein paar Dinge wie

- das GTX 970-Debakel
- Umgang mit HardwareUnboxed und anderen (J2C)
- Umgang mit Board-Partnern/Freiheiten der Board-Partner
- Linus Torvalds Reaktion auf nVidias Linuxsupport
- GeForce-Partner-Programm
- Angabe von Umsatz durch Verkauf an Miningfarmen und Strafe durch SEC
- GSync
- Preispolitik
- G84 Hitzeprobleme und Gerichtsverfahren
- GTX 1060 3GB


in den letzten Jahren die einem Fan schon Magenschmerzen bereitet haben. Dennoch habe ich eine RTX-Karte. Aber nVidia könnte sympathischer sein als sie es aktuell sind.

Allerdings werden wir wie du sagst die Wahrheit nie erfahren.

PS: Ich hab sicher einige Sachen vergessen...
 
Na ja Huang hat schon ein kleines Königreich aufgebaut. Es gab da so ein paar Dinge wie

- das GTX 970-Debakel
- Umgang mit HardwareUnboxed und anderen (J2C)
- Umgang mit Board-Partnern/Freiheiten der Board-Partner
- Linus Torvalds Reaktion auf nVidias Linuxsupport
- GeForce-Partner-Programm
- Angabe von Umsatz durch Verkauf an Miningfarmen und Strafe durch SEC
- GSync
- Preispolitik
- G84 Hitzeprobleme und Gerichtsverfahren
- GTX 1060 3GB


in den letzten Jahren die einem Fan schon Magenschmerzen bereitet haben. Dennoch habe ich eine RTX-Karte. Aber nVidia könnte sympathischer sein als sie es aktuell sind.

Allerdings werden wir wie du sagst die Wahrheit nie erfahren.

PS: Ich hab sicher einige Sachen vergessen...
Ja hast du.. gängelung von Zeitschriften, deswegen bekommt ja Heise auch keine Test Exemplare mehr...
PhysikX künstlich beschneiden Wenn es auf der CPU läuft
Dssl was sicher auch Quelloffen gegangen wäre siehe AMD
Dssl 3.0 Was nur auf 4000 läuft
...
Auch ich habe sicher noch was vergessen
 
Alles gut, er ist der Vor-Feuerlöscher.
Na ja, es ging in seiner Aussage darum, dass einige direkt auf den Hatetrain aufspringen. Und unrecht hat er damit absolut nicht.

Und es ist einfach so, dass gegen nV viel gehated wird. Man kann aber auch sagen:

Ja, nV hat in der Vergangenheit Mist gebaut, die Produkte sind trotzdem geil.

Abgesehen davon kennen wir die Wahrheit nicht.
 
PhysikX künstlich beschneiden Wenn es auf der CPU läuft
Da wurde nichts künstlich beschnitten, es wurde nur keine weitere Arbeit reingeschickt, um es auf mehrkern CPUs zu optimieren. Ein "läuft" reichte Nvidia, aber absichtlich was beschnitten/entfernt haben sie nicht.

Dssl was sicher auch Quelloffen gegangen wäre siehe AMD
Dssl 3.0 Was nur auf 4000 läuft
Erstens heißt es DLSS (Deep Learning Super Sampling) und zweitens wäre es vermutlich möglich gewesen. Die Frage ist nur, ob es sich dann auch für uns gelohnt hätte, weil DLSS2 und 3 dedizierte Hardware voraussetzt, damit es schnell genug arbeitet und dir als Gamer einen Vorteil bietet.

AMD hat bei seinem Verfahren keinen DL (Deep Learning) Part. Wenn es doch so einfach möglich wäre, wieso haben sie es dann nicht? Möglicherweise benötigt man dafür dedizierte Einheiten in der GPU, die das ganze beschleunigen, damit es sich lohnt.

Man kann Nvidia bei DLSS3 natürlich vorwerfen zu lügen, aber die Möglichkeit, dass es auf aktuellen Karten nichts bringe würde, weil der entsprechende HW Part zu langsam arbeitet, ist nicht abwegig.
 
Zuletzt bearbeitet:
Jede Firma, auch AMD, hat Leichen im Keller. Es bringt wenig, das gegeneinander aufzurechnen.
Natürlich nicht. Bei AMD habe ich auch Kritikpunkte. Die aber eher ander Hardware/Software. :D
Vergleichen braucht man keinen Konzern was Moral und Werte angeht. Ist die Wahl zwischen Pest und Cholera.

Mir ging es in meinem ursprünglichen Posting darum, dass Kritik an nVidia schon berechtigt sein kann und auch ausgesprochen werden muss. Aber es läuft halt leider oft auf den Hatetrain und Schwachsinn hinaus.
 
Da wurde nichts künstlich beschnitten, es wurde nur keine weitere Arbeit reingeschickt, um es auf mehrkern CPUs zu optimieren. Ein "läuft" reichte Nvidia, aber absichtlich was beschnitten/entfernt haben sie nicht.


Erstens heißt es DLSS (Deep Learning Super Sampling) und zweitens wäre es vermutlich möglich gewesen. Die Frage ist nur, ob es sich dann auch für uns gelohnt hätte, weil DLSS2 und 3 dedizierte Hardware voraussetzt, damit es schnell genug arbeitet und dir als Gamer einen Vorteil bietet.

AMD hat bei seinem Verfahren kein DL (Deep Learning) Part. Wenn es doch so einfach möglich wäre, wieso haben sie es dann nicht? Möglicherweise benötigt man dafür dedizierte Einheiten in der GPU, die das ganze beschleunigen, damit es sich lohnt.

Man kann Nvidia bei DLSS3 natürlich vorwerfen zu lügen, aber die Möglichkeit, dass es auf aktuellen Karten nichts bringe würde, weil der entsprechende HW Part zu langsam arbeitet, ist nicht abwegig.
Also 1. Der Gegenpart von AMD ist fast bis genauso gut..
Also funktioniert es
2. Doch haben es künstlich beschnitten, in dem Sie die FPU benutzt haben was man seit gut 20 Jahren nicht mehr macht statt SSE...
Nachdem es veröffentlicht wurde, wurde auf einmal ganz schnell SSE benutzt
 
Also 1. Der Gegenpart von AMD ist fast bis genauso gut..
Also funktioniert es
Hier geht es nicht um "ist genau so gut", sondern um den technischen Aspekt. AMD hat keinen Deep Learning Part in seiner Variante, weil es ansonsten vermutlich nicht schnell genug wäre und genau dieser DL Part fehlt, um DLSS das Wasser reichen zu können.
Nvidia hat aber einen und dieser setzt nun mal dedizierte Hardware voraus.

2. Doch haben es künstlich beschnitten, in dem Sie die FPU benutzt haben was man seit gut 20 Jahren nicht mehr macht statt SSE...
Der Code stammt noch von Ageia und wurde von Nvidia nicht verändert. Ageia hat es also programmiert, ansonsten hätte ich von dir gern eine Quelle zu der Behauptung.
 
Hier geht es nicht um "ist genau so gut", sondern um den technischen Aspekt. AMD hat keinen Deep Learning Part in seiner Variante, weil es ansonsten vermutlich nicht schnell genug wäre.
Nvidia hat aber einen und dieser setzt nun mal dedizierte Hardware voraus.
Gibt es einen Beweis, dass der Deep Learning Teil benötigt eird?

Der Code stammt noch von Ageia und wurde von Nvidia nicht verändert. Ageia hat es also programmiert, ansonsten hätte ich von dir gern eine Quelle zu der Behauptung.
Das ist ja das Problem...
Havok und Co. zeigen, dass es deutlich modernere Wege gibt, das zu programmieren - und eine Umstellung des Codes wäre deutlich einfacher gewesen, als die Neuentwicklung von Havok und Co.
Aber es funktionierte ja gut auf den dafür optimierten GPU Architekturen... wen interessiert dann die schlechte Performance auf CPUs?
Denn immerhin wurde der PhysX Code für GPUs schon vor langer Zeit auf modernen Code umgestellt - ist übrigens alles schön im Netz nachzulesen

Hier nur mal eine Quelle von 2010 zu dem Thema:

Edit: Das haben wir übrigens vor einigen Jahren schon diskutiert, mein lieber owned...

und natürlich hat Nvidia was getan, nachdem GPU PhysX praktisch tot war.
 
Gibt es einen Beweis, dass der Deep Learning Teil benötigt eird?
Was meinst du damit? Ob es für dich als Anwender benötigt wird?

Das ist ja das Problem...
Die Aussage war "PhysikX künstlich beschneiden Wenn es auf der CPU läuft" und das ist einfach falsch.
Es wurde nichts aktiv künstlich beschnitten. Wie du selbst schon richtig schreibst, wurde der Code im Nachhinein nicht weiter optimiert, sondern so gelassen wie er ist.
Es macht einen Unterschied, ob ich aktiv den Code verändere oder er so alt ist, dass das Programm langsamer läuft.
 
Hier geht es nicht um "ist genau so gut", sondern um den technischen Aspekt. AMD hat keinen Deep Learning Part in seiner Variante, weil es ansonsten vermutlich nicht schnell genug wäre und genau dieser DL Part fehlt, um DLSS das Wasser reichen zu können.
Nvidia hat aber einen und dieser setzt nun mal dedizierte Hardware voraus.


Der Code stammt noch von Ageia und wurde von Nvidia nicht verändert. Ageia hat es also programmiert, ansonsten hätte ich von dir gern eine Quelle zu der Behauptung.
Also wenn AMD fast bis genauso gut ist und open Source und auf allen Grafikkarten läugt.... tja was ist jetzt besser

 
Also wenn AMD fast bis genauso gut ist und open Source und auf allen Grafikkarten läugt.... tja was ist jetzt besser
Aus technischer Sicht? DLSS.
Ist auch lustig, dass man Pixel gezählt hat, als DLSS1 rauskam und jetzt geben sich auf einmal alle mit dem schlechteren Ergebnis zufrieden.
Jedes neue Feature von Nvidia wird erstmal grundsätzlich schlecht geredet und ist ja unnötig. Sobald AMD was ähnliches bringt, liest man solche Kommentare irgendwie nie.

AMDs Ansatz wird ohne DL Aspekt niemals so gut wie DLSS werden können, weil DLSS feine Details rekonstruieren kann. FSR2 kann das nicht.

In deinem Link ist nicht zu sehen, ob Nvidia den Code so verändert hat, dass er schlechter läuft.
 
Was meinst du damit? Ob es für dich als Anwender benötigt wird?
Ob es für die DLSS Leistung wirklich benötigt wird.
Angeblich war DLSS 1 ja mehrere Jahre in Entwicklung.
Irgendwie unpraktisch, dass die Konkurrenz es dann schafft, wenige Jahre später eine gleichwertige Technik ohne Deep Learning vorzustellen... die mit Version 2 und jetzt 2.1 auch nochmal deutlich besser wurde

Die Aussage war "PhysikX künstlich beschneiden Wenn es auf der CPU läuft" und das ist einfach falsch.
Es wurde nichts aktiv künstlich beschnitten. Wie du selbst schon richtig schreibst, wurde der Code im Nachhinein nicht weiter optimiert, sondern so gelassen wie er ist.
Es macht einen Unterschied, ob ich aktiv den Code verändere oder er so alt ist, dass das Programm langsamer läuft.
Oh, aus Sicht der Anwender trifft die Aussage vollkomen zu, denn Nvidia hätte schon vor 14 Jahren den Code für CPUs auf Multithreading bringen können - oder zumindest auf SSE.
Haben sie nicht und damit blieb PhysX auf CPUs deutlich unter den Möglichkeiten... was nicht gerade wenig mit dem Untergang von GPU PhysX zu tun hatte.
 
Ob es für die DLSS Leistung wirklich benötigt wird.
Ja wird es, weil die Bildqualität ansonsten schlechter wäre.

Angeblich war DLSS 1 ja mehrere Jahre in Entwicklung.
Naja DLSS 1 als solches vermutlich nicht, aber von den ersten Schritten und Beispielen mit Deep Learning als solches bis zur ersten DLSS Version vergingen sicher einige Jahre.

Irgendwie unpraktisch, dass die Konkurrenz es dann schafft, wenige Jahre später eine gleichwertige Technik ohne Deep Learning vorzustellen... die mit Version 2 und jetzt 2.1 auch nochmal deutlich besser wurde
AMDs FSR1 war ein Spatial Upscaler. Die gab es davor schon zu hauf und waren nicht neu, aber den Ansatz hat man mit DLSS ja nicht verfolgt, weil die Qualität nicht gut genug war. Man wollte mehr.

Oh, aus Sicht der Anwender trifft die Aussage vollkomen zu, denn Nvidia hätte schon vor 14 Jahren den Code für CPUs auf Multithreading bringen können.
Du widersprichst dir selbst. Nvidia hätte ihn verändern können, was sie nicht haben. Sie haben nichts getan.
Wenn ich PhysX künstlich beschneide, muss ich das aber aktiv tun. Also was ist jetzt richtig?
Hat Nvidia nichts getan oder haben sie PhysX künstlich beschneiden? Beides geht nicht.
 
Ja wird es, weil die Bildqualität ansonsten schlechter wäre.


Naja DLSS 1 als solches vermutlich nicht, aber von den ersten Schritten und Beispielen mit Deep Learning als solches bis zur ersten DLSS Version vergingen sicher einige Jahre.


AMDs FSR1 war ein Spatial Upscaler. Die gab es davor schon zu hauf und waren nicht neu, aber den Ansatz hat man mit DLSS ja nicht verfolgt, weil die Qualität nicht gut genug war. Man wollte mehr.
Mhm... hat bei DLSS 1 ja auch suuper funktioniert... nicht.
Und was ist mit FSR 2 bzw. jetzt 2.1?
Wäre da Deep Learning auch unbedingt erforderlich?
 
Wäre da Deep Learning auch unbedingt erforderlich?
Was ist das bitte für ein Argument?
Ist dein PC unbedingt erforderlich? Nein.
Ist eine 6900XT unbedingt erforderlich? Nein.
Wir brauchen auch zukünftig keine neuen Grafikkarten mehr. Die aktuellen sind doch schnell genug :klatsch:

Diskutiere ordentlich mit mir oder lass es. Auf dein hin und her bis dein Lieblingsunternehmen besser dasteht habe ich keine Lust.
 
Ja wird es, weil die Bildqualität ansonsten schlechter wäre.


neu, aber den Ansatz hat man mit DLSS ja nicht verfolgt, weil die Qualität nicht gut genug war. Man wollte mehr.
Amd schafft es auch ohne.. mmh ffsr2.0 def besser als dlss 1.0
Kommt mir eher vor als wenn Nvidia wie bei gsync einfach sinnlos Leute an Ihr Ökosystem binden wollen

Frage:
Was ist aus User Sicht besser, eine Technik die nur paar % benutzen können oder eine Technik die mind 95% des Ergebnisses schafft und die sicher über 80% der User wenn nicht sogar weit mehr benutzen können

Zu SSE, ein Programmier Guide von Intel hat schon 2001 von Verwendung der FPU abgeraten, komisch das Nvidia das 10 Jahre später immer noch so macht
Und kaum wurde es aufgedeckt.. schwups im paar Wochen wurde es geändert
Was ist das bitte für ein Argument?
Ist dein PC unbedingt erforderlich? Nein.
Ist eine 6900XT unbedingt erforderlich? Nein.
Wir brauchen auch zukünftig keine neuen Grafikkarten mehr. Die aktuellen sind doch schnell genug :klatsch:

Diskutiere ordentlich mit mir oder lass es. Auf dein hin und her bis dein Lieblingsunternehmen besser dasteht habe ich keine Lust.
Boa was ist das für ein bescheuerten Argument..
Du sagst man braucht unbedingt Deep Learning...
Komisch das FSR 2.0 um einiges bessere Ergebnisse liefert als dlss 1.0.. Das Ohne Speizielle Cores und Deep Learnung und das auch noch auf 10 Jahre alten Grafikkarten... Ja für was brauch ich dann denn das Deep Learning unbedingt?
Warum sehe ich das nicht?
 
Zuletzt bearbeitet:
Was ist das bitte für ein Argument?
Ist dein PC unbedingt erforderlich? Nein.
Ist eine 6900XT unbedingt erforderlich? Nein.
Wir brauchen auch zukünftig keine neuen Grafikkarten mehr. Die aktuellen sind doch schnell genug :klatsch:

Diskutiere ordentlich mit mir oder lass es. Auf dein hin und her bis dein Lieblingsunternehmen besser dasteht habe ich keine Lust.
Du verstehst es offensichtlich mal wieder nicht.
Wenn Deep Learning nicht für gute DLSS Qualität und Performance nötig ist, hat Nvidia das alte Hammer Problem.
Wenn man nur einen Hammer besitzt, wird jedes Problem zu einem Nagel.

Nvidia hat sich sehr auf KI versteift und wirft die Lösung mal eben auf jedes Problem.
Ob es die effizienteste bzw. beste Lösung ist, scheint aktuell niemanden zu kümmern - ist immerhin "Deep Learning" und "AI" als Buzzword mit drin.
 
Zurück