Irgendwas mit Videobearbeitung...

latiose88

BIOS-Overclocker(in)
Ja mag ja sein das gpu schneller ist, aber wenn es um die Größe der Ausgabe bzw Ausgangs Datei geht, dann geht nix über die CPU alleine, es sei denn man mag minimale kleinere habe nur damit man ne besseres Bild dabei raus bekommt. Es gab auch noch das hybrid umwandeln. Ich weiß nur leider nicht mehr wie es heißt, cuda oder das mit Intel beschleunigte Verfahren so das ein paar Effekte die gpu macht um die CPU zu entlasten. Wie dann die Bildqualität am Ende w#re und ob es dann bei der Größe nen Unterschied dann gibt. Wäre ja mal interessant. Naja nur schade das es eben nicht so einfach wäre.
 
Verstehe nur Bahnhof..:huh:

Ich sehe nur ein Unterschied in der Zeit, die zum Rendern benötigt wird. In meinem Beispiel aus dem ADL-Thema, mit derselben Datei, mit dem Prozessor 54 Min und mit der Grafikkarte nur 16 Min.

Mit dem Programm schneide ich Videos, füge Effekte ein, füge ggf. auch noch andere Tonspuren ein und noch viel mehr und am Ende muss ich mich entscheiden, in was für eine Datei und Auflösung ich das Ganze neu berechnen lasse und je nachdem, was ich dazu auswähle, fällt die Größe auch anderes aus.

Egal was ich dazu auswähle, am Ende muss das Video neu erstellt werden, was als Rendern bezeichnet wird und hier kann ich in den Einstellungen auch die Grafikkarte mit auswählen, was dann um ein vielfaches schneller als der Prozessor berechnen kann.

Ja mag ja sein das gpu schneller ist, aber wenn es um die Größe der Ausgabe bzw Ausgangs Datei geht, dann geht nix über die CPU alleine, es sei denn man mag minimale kleinere habe nur damit man ne besseres Bild dabei raus bekommt.
Das muss mir mal näher erklären, denn ich sehe da kein Unterschied, nur dass der Prozessor länger zum Berechnen benötigt.

Es gab auch noch das hybrid umwandeln. Ich weiß nur leider nicht mehr wie es heißt, cuda oder das mit Intel beschleunigte Verfahren so das ein paar Effekte die gpu macht um die CPU zu entlasten.
Ja gab es früher mal, da wurde die iGPU mit dazu verwendet.

Wie dann die Bildqualität am Ende w#re und ob es dann bei der Größe nen Unterschied dann gibt. Wäre ja mal interessant.
Wieso soll es da ein Unterschied geben, ist dieselbe Berechnung.
 
Zuletzt bearbeitet von einem Moderator:
Doch es gab bei mir nen Unterschied, zwar nicht bei der bildqulität aber in der Größe des Ausgabe Datei sehr wohl.
Habe bis auf das preset das ja bei gpu anders ist als bei CPU eben sonst alles das gleiche eingestellt gehabt. Ich habe mit den Bitraten so meine Probleme bei gpu Seite weil die meisten wo zur Auswahl steht eben selbst eine Bitrate wählen muss und nicht das Programm es selbst festlegen tut an welcher Stelle wo mehr oder weniger verwendet werden muss. Nen vollwertigen Ersatz auf gpu Seite gegenüber CPU mit crf gibt es kaum zur Auswahl.
Das fertige Video war bei CPU 245 MB und bei gpu mit selben bildqulität weil man da ja ne höhere Bitrate braucht um mit CPU gleich zu ziehen, macht sich das freilich mit 500 MB wirklich bemerkbar. Die Quell Datei ist 650 MB groß. Also ne ersparnis von 150 MB. Gpu ist also sehr wenig bei Einsparung , dann kann ich gpu gleich ganz bleiben lassen. Allerdings habe ich eben interlaced Videos also muss ich es bearbeiten. Also bin ich in einer zwickmühle.
 
Bei mir gibt es kein Unterschied und wie die Qualität des Videos ausfällt, hängt immer ganz von der Bearbeitung ab. Bin momentan am Bearbeiten einiger Videos von mir und je nachdem was ich für Effekte mit einfüge, wird der Prozessor auch stärker mit beansprucht. Momentan bearbeite ich eines meiner alten Videos aus dem Jahr 2002 und damals war die Qualität DVD und 4:3. An der Bildqualität kann ich nichts ändern, aber ich habe jetzt solche verschwommene Ränder rechts und links eingefügt, um die schwarze Bereiche wegzubekommen und da geht die Rechenleistung des Prozessors bis auf 68 Watt hoch. Die Grafikkarte wird aber immer noch hauptsächlich mit bis zu 100 Watt ausgelastet.

Kann daher nur von meinem Programm und was ich hierzu verwende berichten.
 
Zuletzt bearbeitet von einem Moderator:
Ja dann hast du Glück. Ich habe da vermurkste TV aufmahen mit 50 halbbilder weil interlaced, als 720x576i MPEG 2 ts vorliegen. Da scheint wohl die gpu so seine Probleme beim verkleinern zu haben. Darum wird die aufmahen die umwandelt geworden ist auch noch so groß. Nicht jede aufmahme eignet sich für die gpu. Es handelt sich bei meinem Fall um ein pokemon Aufnahme. Es lief damals noch bei rtl2. Viele kleine Details und auch beim Gras sieht man unterscheide sofort. Es ist also ein MPEG 2 ts 720x576i 4:3 Format. Wo das Programm wenn man nix einstellt denkt das es ein 16:9 Format ist und darum es als das ausgibt weil es am anfang die ersten bilder das falsche Format hat. Habe das zwar korregiert aber dennoch wird die Aufnahme nicht groß kleiner bei der gpu seite. Die gpu will mich also ärgern. Habe ich diese cbr oder wie die alle hießen mit mindest und maximale Bitrate selbst gewählt sah es unter gpu Seite schlechter aus. Die Datei war zwar klein gewesen aber ich sah die schlechte Bildqulitat sehr wohl.
Habe her gegangen und frame für frame analysiert. Bild von einer bestimmen Szene gemacht und 1 zu 1 miteinander verglichen. CPU sah besser aus und gpu war ich nicht ganz zufrieden gewesen. Besonders mit Szene im Wald sah ich die Unterschiede gut. Mir sagte wer es gäbe einen modus wo die bildqulität wie bei CPU entspricht. Diese nam ich und ja bildquli war wirklich genauso. Die sah so aus als ob es ne CPU umgewandelt hätte. Nur eines verriet das es nicht per CPU umgewandelt wurde. Die Größe und ich bin auf diese zum achevieren angewiesen. Ich bekam es einfach nicht wirklich hin ohne bildqulität Verluste es unter der gpu genau wie bei der CPU hin zu bekommen. Egal was ich mache, es klappt nicht. Entweder mache ich was total falsch oder die quelldatei ist vermurkts oder die setting sind nicht richtig. Da wo die bildqulität wie bei CPU war, waren die einstellmöglichkeiten total eingeschränkt gewesen. Also kam ich schneller wieder zurück zu CPU basiertes umwandeln. Die Größten Sendung bin ich nun endlich fast hinter mir. Es war echt heftig, für 1 Sendung 30 bzw 20 Minuten Zeit zum umwandeln.
Da hilft es leider eben auch nix das ich die modernste gpu namens 1650 habe. Zwar aktuellen Leistung beim videoumwandeln zu haben.
Eines muss man schon sagen, schnelles umwandeln ist das postive. Aber es haptert nur noch an der Größe.
Wenn die nicht wäre, würde ich es schon längst auf gpu umwandeln. Da dies nicht der Fall ist, warte ich das auch das Problem gelöst wurde. Mir geht es alleine nur um h264 und nicht das doofe h265. Schnelles umwandeln ist nicht schnell genug. Du wandelst wohl in h265 um,darum hast du auch nicht diese Probleme wie ich beim umwandeln. Ich halte weiterhin bei h264 fest. Für mich gibt es keine Alternativen. Ich lehne auch die neuen kommenden Codecs ab. Ich brauche ein schnelles und doch gutes umwandeln. Geschwindigkeit ist mir wichtig. Viele fps beim umwandeln ein guter Faktor. Ich habe auch extra die settings auf schnell und doch gute bildqulität ausgewält. Aus nem 60 GB Video wird es bei mir nur 2 GB am Ende rauskommen. Meinst ich ändere wegen einzelne Videos die settings. Das kannst du schön braf bei mir knicken lassen.

Und es soll auf jeder Kartoffel es abgespielt werden können. Also auch auf 10 oder 15 Jahre alte Geräte. Da beherrscht da keiner ein h265 codec. Also von daher auch noch flexible sein. Hier gibt es keine Alternativen. Gpu umwandeln mit h264 ist also ne Qual. Hier gibt es auch in Zukunft keine Lösung mehr. Weil die hersteller sich um die Nachfolger kümmern werden. Ich werde also leer ausgehen in Zukunft. Aber dafür habe ich ja CPU Leistung mir gekauft. Um genau auf das Problem gewapnet zu sein.
 
Ja dann hast du Glück. Ich habe da vermurkste TV aufmahen mit 50 halbbilder weil interlaced, als 720x576i MPEG 2 ts vorliegen.
Genau solche Videos bin ich momentan am Bearbeiten, weil ich vor ein paar Tagen meine alten Kassetten dazu digitalisiert habe. An der Bildqualität kann ich aber nichts ändern, die ist halt so wie sie ist. Natürlich kann ich in 1080P oder 2160P umwandeln, aber an der Bildqualität ändert sich trotzdem nichts!

Aus einer guten Qualität kannst eine schlechtere Qualität machen, aber nicht umgekehrt.
 
Zuletzt bearbeitet von einem Moderator:
Ja da hast du recht. Nur das es mir gelungen ist die selbe biflqualtität auch unter gpu Seite. Nur das diese ziemlich die Größe nicht passt. Entweder irgendwas bläht auf bei der gpu. Bei gpu was sind das denn für Einstellung von Low Latenz und so. Das sind merkwürdige preset wenn du mich frägst. Naja mal sehen ob man da was noch machen kann.
 
Bei mir nicht, bei mir spielt es keine Rolle wie ich rendern tue. Alles andere was du hierzu aufzählst, hat mit der Bearbeitung was zu tun und ich darf das 4:3 Format nicht ändern. Auf 16:9 gehe ich nicht, denn dazu müsste ich oben und unten Teile wegschneiden und dann das Bild noch stärker vergrößern. Dadurch würde sich das Bild viel stärker verziehen.

Aus diesem Grund habe ich das Format 4:3 beibehalten und die schwarzen Ränder kaschiert.
Am Ende wird dann wieder ein 16:9 Format daraus.
Ashampoo_Snap_Freitag, 21. Januar 2022_20h17m42s_001_.png

Hinter diesen verschwommene Ränder liegt kein Filmmaterial, das Programm fügt irgendwie Schatten noch hinzu, was dann so aussieht, als würde da ein Teil des Videos verblendet.
 
Zuletzt bearbeitet von einem Moderator:
ah ok,also ich habe weil das programm der anicht ist ,das es 16:9 ist,es aber eine 4:3 Quelle ist,bei den Seitenverhältnissen 4:3 eingestellt.Das eine Videos zeigt das in Roter Schrift an und da stehen dann minus Betrag. Bei der Wiedergabe ist nix verzehrrt. außerhalb des 4:3 ist es nur noch schwarz.
Hm welches Format und EInstellungen verwendest du denn genau?
Vielleicht kann ich es dann mit meiner CPU einstellung als Bild direkt vergleichen und dann sehen was dann davon besser oder schlechter ist.
 
Bei der Wiedergabe ist nix verzehrrt. außerhalb des 4:3 ist es nur noch schwarz.
Wäre ja bei mir auch, aber ich habe diesen Effekt was ich mit einbauen kann, dann werden diese Ränder kaschiert. Beim Rändern kann ich dann auch 16:9 auswählen. Ohne diesen Effekt dürfte ich nicht in 16:9 rendern, weil sonst das Bild in die Breite gestreckt werden würde und dann sieht alles komisch aus. :D

Solche Effekte sind oft auf YouTube zu finden, wenn ein Video mit dem Handy gedreht wurde und hochkant steht.
 
Nun das Problem ist,das Programm macht es von alleine.Ich schmeise es rein,wandle um und das Programm macht aus dem 4:3 Video ein 16:9 Video.Dementsprechen breit sieht es dann auch aus.Dabei habe ich nix umgestellt.Ich muss also das Programm dazu zwingen es richtig umzuwandeln.Bei der Wiedergabe des Originals zeigt es kurz 16:9 an und wechselt dann in das 4:3 Format um.Da passt es,nur beim Umwandeln wandelt das Programm das 4:3 automatisch in ein 16:9 Format um.FInde ich blödsinn ist aber so.
Naja ,interessiere mich jedenfalls was für Einstellungen du unter GPU Umwandlung so eingestellt hast.
 
Zurück