Sinnloses Nvidia Gelaber

Nein. Es geht mir drum zu verstehen, welchen Entwicklungsaufwand es mit "traditionellen" Algorithmen bräuchte, um das gleiche Ergebnis zu erzielen.
Wenn man DLSS 2.x mit FSR 2.1 vergleicht und DLSS 1 mit FSR1, könnte sich die Antwort aufdrängen, dass es keine 10 Jahre gebraucht hätte.
Und AMD hat jetzt 4 Jahre für FSR 2.1 gebraucht und ist nicht ganz auf Augenhöhe mit DLSS 2 während Nvidia den nächsten "Gamechanger" mit DLSS 3.0 raushaut...


Lies bitte die Diskussion von Anfang an.
Da frage ich aktiv, ob Deep Learning für das erreichte Ergebnis erforderlich ist.
Antwort von Owned: Ja, weil DLSS ein besseres Ergebnis liefert.

Das ist nicht wirklich eine Antwort auf die Frage.
Es ist bisher die einzige Antwort die wir nachweislich darlegen können? Ich meine, was fragst Du uns das? Wir können doch nur Tests prüfen, und da liegt DLSS eben vor FSR. Somit scheint der DL Anteil ausschlaggebend zu sein. Bisher ist DLSS immer vor FSR, egal in welcher Iteration, gewesen.
 
Keine Beweislast-Umkehr mit mir. Du behauptest dass Nvidia aktiv PhysX langsamer gemacht hat. Also lieferst Du auch zuerst eine Quelle die Deine These untermauert.
Ich habe schon einen Li k geliefert wo PhysikX im Jahr 2010 auseinandergenommen wurde mit dem Fazit das es extra Langsam programmiert wurde.. .
Wenn es nur einen Schalter im Compiler umzulwgen gilt damit es um grossen Performance ist... aus Kundensicht ist es extra langsam gemacht worden wenn man keine Nvidia Grafikkarte benutzt hat.
Wie gesagt als das Thema angesprochen wurde hatte es in kürzester Zeit plötzlich ssl Unterstützung..
Komisch, oder....
Ihr behauptet immer Nvidia hat den Anode so übernommen und nichts daran geändert...
Zu dieser Behauptung will ich jetzt mal ne Quelle sehen
 
Es ist bisher die einzige Antwort die wir nachweislich darlegen können?
Doch können wir. DLSS rekonstruiert das Bild und somit werden feine Details, die in FSR beispielsweise verschwinden würden, wieder hinzugefügt, weil die KI das Bild kennt. Ohne KI, weiß der Code also nicht, wie das Bild aussieht -> KI wird benötigt.

Lustigerweise lief DLSS1 auch auf den Tensorcores. Nur Remedys Eigenentwicklung lief auf den Shadern:
With the exception of the shader-core version implemented in Control, DLSS is only available on GeForce RTX 20, GeForce RTX 30, and Quadro RTX series of video cards, using dedicated AI accelerators called Tensor Cores.

Die beiden behaupten hier also durchgehend nur Schwachsinn.
 
Zuletzt bearbeitet:
Und AMD hat jetzt 4 Jahre für FSR 2.1 gebraucht und ist nicht ganz auf Augenhöhe mit DLSS 2 während Nvidia den nächsten "Gamechanger" mit DLSS 3.0 raushaut...
Der Gamechanger ist nicht DLSS3.
Das ist ein reiner Taschenspielertrick.
Der Gamechanger ist RTX Remix.
Über den wird viel zu wenig geredet.

Es ist bisher die einzige Antwort die wir nachweislich darlegen können? Ich meine, was fragst Du uns das? Wir können doch nur Tests prüfen, und da liegt DLSS eben vor FSR. Somit scheint der DL Anteil ausschlaggebend zu sein. Bisher ist DLSS immer vor FSR, egal in welcher Iteration, gewesen.
Mein alter Prof würde dazu sagen, dass es eine unzulässige Schlussfolgerung ist.
1) DLSS funktionert aktuell super
2) DLSS sieht in der aktuellen Iteration auch besser aus als FSR 2.0
3) Sagt es aber nichts darüber aus, ob DL dafür notwendig ist.

Für mich drängt sich halt immer mehr auf, dass Nvidia nach folgendem Motto vorging "Neuronale Netze sind der heiße Schei*... Kunden fahren voll auf KI etc. ab... lass uns die Bilderkennung auch für Spiele nutzen"
Ohne sich drum zu kümmern, ob sie mit weniger Aufwand zum gleichen, oder besseren Ergebnis gekommen wären.
Wenn dem so wäre, hätte Nvidia eine Menge Geld verbrannt, die GPUs vollkommen unnötig um 20-30% aufgeblasen und unnötig teuer gemacht... für einen Egotrip.
 
[...]
Dagegen sag ich doch nichts... DLSS liefert aktuell definitiv die besseren Ergebnisse.
Das war aber nie der Punkt.
Die Frage ist: Kann man die gleichen Ergebnisse ohne KI erreichen?
[...]

Nein, kann man nicht. Woher sollen die fehlenden Bildinformationen kommen? Nvidia füttert die KI nicht umsonst mit 16K Quelldateien. Daher kommen die zusätzlichen Details im Vergleich zum nativen Bild.

Nach Nvidia und Intel wird aber auch AMD vermehrt im KI Bereich tätig sein. Wer weiß was wir in der Zukunft noch sehen werden.

In meinen Augen hat Nvidia mit EVGA einer der wichtigsten/besten Partner verloren.

Wahrscheinlich den letzten Partner, der noch eine gute Kundenbindung pflegt. Einer der Lüfter meiner EVGA 3080 hat ab 1300rpm komische Geräusche gemacht. Ich habe am Mittwoch Nachmittag mit dem EVGA Support telefoniert und heute Vormittag war der Ersatzlüfter im Briefkasten.
 
Ich habe schon einen Li k geliefert wo PhysikX im Jahr 2010 auseinandergenommen wurde mit dem Fazit das es extra Langsam programmiert wurde.. .
Was weiterhin nicht die Argumentation stützt dass Nvidia PhysX extra langsamer gemacht hat! Also bitte, liefere eine Quelle die diese Aussage stützt, denn das hattest Du ja behauptet.

PhysikX künstlich beschneiden Wenn es auf der CPU läuft


Wenn es nur einen Schalter im Compiler umzulwgen gilt damit es um grossen Performance ist... aus Kundensicht ist es extra langsam gemacht worden wenn man keine Nvidia Grafikkarte benutzt hat.
Du drehst es wieder so hin dass ein "nichts tun" plötzlich eine aktive Handlung wird. Das wird sie aber nicht.
 
Nein, kann man nicht. Woher sollen die fehlenden Bildinformationen kommen? Nvidia füttert die KI nicht umsonst mit 16K Quelldateien. Daher kommen die zusätzlichen Details im Vergleich zum nativen Bild.
Nvidia füttert die KI aktuell mit gar nichts von den Spielen.
Seit DLSS 2.0 muss das Netz nicht mehr pro Spiel trainiert werden.
Damit kann die KI auch nicht die fehlenden Details kennen

Nach Nvidia und Intel wird aber auch AMD vermehrt im KI Bereich tätig sein. Wer weiß was wir in der Zukunft noch sehen werden.
Die Zeit wird es zeigen - und auch, in welchem Bereich sie KI einsetzen

Wahrscheinlich den letzten Partner, der noch eine gute Kundenbindung pflegt. Einer der Lüfter meiner EVGA 3080 hat ab 1300rpm komische Geräusche gemacht. Ich habe am Mittwoch Nachmittag mit dem EVGA Support telefoniert und heute Vormittag war der Ersatzlüfter im Briefkasten.
Jepp.. leider ist halt auch nicht viel Service drin, wenn die Marge nur bei 5% liegt.


Noch ein Déjà vu.

Ohne Zweifel hat es nicht nur Vorteile. Aber ein Taschenspielertrick... Ganz schön mutig von Dir, ohne jeden First-Hand Bericht darüber gehört zu haben.
Es sind berechnete Zwischenbilder, um die Bewegung geschmeidiger zu machen...
Dazu noch Nvidia Reflex... dass es schon davor gab... automatisch aktiviert
Wo soll da noch eine Verbesserung des Lags herkommen, wenn die Bilder ohne Input der Game Engine berechnet werden?
Es ist halt was die Fernseher schon lange machen.

Hier nochmal das Video zum DLSS 3 first Hand Bericht von WCCFtech:

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Cyberpunk 2077 in 1440p mit DLSS 3 frame generation aktiviert kam im Quality DLSS mode auf 170 fps mit 53 ms latency.... 53ms... bei 170 fps...
theoretisch sollte die Latenz da im Bereich von 10 - 15 ms liegen... wenn man nen echt schlechten Bildschirm hat

Gerade solche Aussagen entlarven einige Leute, dass es nicht um die Diskussion über Technik geht sondern um das Durchsetzen der eigenen Präferenz und Agitation gegen das, was man nicht mag.
Da verweise ich einfach nochmal nach oben aufs Video...
 
Es sind berechnete Zwischenbilder, um die Bewegung geschmeidiger zu machen...
Dazu noch Nvidia Reflex... dass es schon davor gab... automatisch aktiviert
Wo soll da noch eine Verbesserung des Lags herkommen, wenn die Bilder ohne Input der Game Engine berechnet werden?
Es ist halt was die Fernseher schon lange machen.

Hier nochmal das Video zum DLSS 3 first Hand Bericht von WCCFtech:

Cyberpunk 2077 in 1440p mit DLSS 3 frame generation aktiviert kam im Quality DLSS mode auf 170 fps mit 53 ms latency.... 53ms... bei 170 fps...
theoretisch sollte die Latenz da im Bereich von 10 - 15 ms liegen... wenn man nen echt schlechten Bildschirm hat


Da verweise ich einfach nochmal nach oben aufs Video...

Und das ist jetzt ein Taschenspielertrick? Du bist anscheinend Programmierer und kennst Dich hervorragend mit Bild-Algorithmen und neuronalen Netzwerken aus, ansonsten wäre diese Bewertung ja nicht valide. Und AMD kommt Ende Nov bei RDNA3 bestimmt mit demselben Feature raus, muss ja super einfach zu entwickeln sein!

Ich bookmarke mir den Post, mal sehen wann das Feature von AMD kommt, dann sprechen wir uns wieder. :schief:
 
Und das ist jetzt ein Taschenspielertrick? Du bist anscheinend Programmierer und kennst Dich hervorragend mit Bild-Algorithmen und neuronalen Netzwerken aus, ansonsten wäre diese Bewertung ja nicht valide. Und AMD kommt Ende Nov bei RDNA3 bestimmt mit demselben Feature raus, muss ja super einfach zu entwickeln sein!

Ich bookmarke mir den Post, mal sehen wann das Feature von AMD kommt, dann sprechen wir uns wieder. :schief:
Nö, ich glaube nicht, dass AMD mit dem Feature so schnell kommen wird.
53ms Input lag bei 170 fps find ich jetzt nicht so prall...

Das sind nur 5ms weniger, als in der ersten Demo bei 98 fps und da war es DLSS performance - ausgehend von UHD. Da geht DLSS Quality bei 1440p Ausgang auch auf 1080p iuntern, wenn ich mich recht erinnere
 
Nö, ich glaube nicht, dass AMD mit dem Feature so schnell kommen wird.
53ms Input lag bei 170 fps find ich jetzt nicht so prall...

das sind nur 5ms weniger, als in der ersten Demo bei 98 fps und da war es DLSS quality

Also Du findest 170 FPS bei 53ms Input Lag nicht so prall und zockst dann lieber nativ mit 22 FPS und einem Input Lag aus der Hölle. Jedem das seine. :lol:
 
Was weiterhin nicht die Argumentation stützt dass Nvidia PhysX extra langsamer gemacht hat! Also bitte, liefere eine Quelle die diese Aussage stützt, denn das hattest Du ja behauptet.





Du drehst es wieder so hin dass ein "nichts tun" plötzlich eine aktive Handlung wird. Das wird sie aber nicht.
Wie gesagt ist auch ein Straftat Bestand etwas zu unterlassen obwohl möglich..
Ich möchte erst mal ne Quelle von euch sehen das der Code wirklich 1 zu 1 übernommen wurde wie ihr behauptet
 
Wie gesagt ist auch ein Straftat Bestand etwas zu unterlassen obwohl möglich..
Ich möchte erst mal ne Quelle von euch sehen das der Code wirklich 1 zu 1 übernommen wurde wie ihr behauptet

Immernoch nein. Ein unterlassen von Code Änderungen wird niemals "aktives verlangsamen" werden, egal wie oft Du das noch behauptest. Also, her mit der Quelle dass Nvidia "aktiv verlangsamt" hat. Ich warte.
 
*seufz*
Du verstehst es immernoch nicht.. leider fürchte ich, dass keine Erklärungsversuche der Welt dir da helfen würden.
Außerdem vergleiche ich FSR mit DLSS1.... nicht FSR2...

Kurz gesagt:
Beides war der erste Versuch. Bei Nvidia mit unglaublichen Aufwand mit Deep Learning, bei AMD mit traditionell "handgedengelten" Algorithmen.
Die Ergebnisse lagen kaum merklich auseinander.
Kaum merklich? Sei mir nicht böse aber FSR 2.0 im Release war DLSS 2.0 im Release klar und deutlich unterlegen. Tiny Tina Charaktere sind förmlich zerbröselt weil die alten Frames noch reingerechnet haben. Seit dem kann ich das aber auch nicht mehr beurteilen hatte es nicht mehr in Verwendung.
Doch können wir. DLSS rekonstruiert das Bild und somit werden feine Details, die in FSR beispielsweise verschwinden würden, wieder hinzugefügt, weil die KI das Bild kennt. Ohne KI, weiß der Code also nicht, wie das Bild aussieht -> KI wird benötigt.
Wie kommst du darauf dass man dafür zwingend eine KI benötigt? Du verarbeitest Bilddaten vergangener Frames um weitere Abtastpunkte zu bestimmen. Ich sehe da keinen Grund zwingend eine KI zu verwenden.
Es sind berechnete Zwischenbilder, um die Bewegung geschmeidiger zu machen...
Dazu noch Nvidia Reflex... dass es schon davor gab... automatisch aktiviert
Wo soll da noch eine Verbesserung des Lags herkommen, wenn die Bilder ohne Input der Game Engine berechnet werden?
Es ist halt was die Fernseher schon lange machen.
Das ganze zu einem "was Fernseher schon lange machen" zu degradieren ist wirklich abstrus. Fernseher können das Bildmaterial interpolieren, das ist wirklich einfach. Eine Extrapolation wie hier ist da nicht ansatzweise so trivial wie das was Fernseher machen... Man kann ja kritisch ggü. Features sein, aber das wird schon lächerlich.
 
Es ist besser als 55ms Input Lag bei 85 fps...
Ein kleiner Verweis auf das Hardware Unboxed Video zu Input Lag:
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.

Bei 144 fps sollte der im Idealfall bei so 20ms liegen und nicht beim Faktor 2,75 davon
Das ganze zu einem "was Fernseher schon lange machen" zu degradieren ist wirklich abstrus. Fernseher können das Bildmaterial interpolieren, das ist wirklich einfach. Eine Extrapolation wie hier ist da nicht ansatzweise so trivial wie das was Fernseher machen... Man kann ja kritisch ggü. Features sein, aber das wird schon lächerlich.
Nvidia hat bis jetzt nur geradeaus fahrende Autos gezeigt... das kann auch jeder Fernseher so glattbügeln.
 
Zurück