Verstehe nur Bahnhof..
Ich sehe nur ein Unterschied in der Zeit, die zum Rendern benötigt wird. In meinem
Beispiel aus dem ADL-Thema, mit derselben Datei, mit dem Prozessor 54 Min und mit der Grafikkarte nur 16 Min.
Mit dem Programm schneide ich Videos, füge Effekte ein, füge ggf. auch noch andere Tonspuren ein und noch viel mehr und am Ende muss ich mich entscheiden, in was für eine Datei und Auflösung ich das Ganze neu berechnen lasse und je nachdem, was ich dazu auswähle, fällt die Größe auch anderes aus.
Egal was ich dazu auswähle, am Ende muss das Video neu erstellt werden, was als Rendern bezeichnet wird und hier kann ich in den Einstellungen auch die Grafikkarte mit auswählen, was dann um ein vielfaches schneller als der Prozessor berechnen kann.
Ja mag ja sein das gpu schneller ist, aber wenn es um die Größe der Ausgabe bzw Ausgangs Datei geht, dann geht nix über die CPU alleine, es sei denn man mag minimale kleinere habe nur damit man ne besseres Bild dabei raus bekommt.
Das muss mir mal näher erklären, denn ich sehe da kein Unterschied, nur dass der Prozessor länger zum Berechnen benötigt.
Es gab auch noch das hybrid umwandeln. Ich weiß nur leider nicht mehr wie es heißt, cuda oder das mit Intel beschleunigte Verfahren so das ein paar Effekte die gpu macht um die CPU zu entlasten.
Ja gab es früher mal, da wurde die iGPU mit dazu verwendet.
Wie dann die Bildqualität am Ende w#re und ob es dann bei der Größe nen Unterschied dann gibt. Wäre ja mal interessant.
Wieso soll es da ein Unterschied geben, ist dieselbe Berechnung.