Massiver Qualitätsverlust nach Upload bei Youtube

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Massiver Qualitätsverlust nach Upload bei Youtube

    Anzeige
    Hallo erstmal :D
    Ich habe vor, demnächst mit Let's Plays zu starten. Meine Testaufnahmen sind auch immer von guter Qualität, doch kaum lade ich sie bei Youtube hoch, geht die Qualität flöten. Ich rendere immer auf 720p und wenn ich es auf dem Desktop abspiele ist es auch HD. Doch kaum ist es auf Youtube, ist die Qualität fürn A****.
    Kann mir hier jemand sagen warum das so ist und was man dagegen tun kann?
    Grüsse TannecHD
  • Anzeige
    Ganz normal - youtube encodet NOCH einmal, und wenn du vorher schon suboptimal gearbeitet hast (wahrscheinlich encodierst du auch noch mit nem schlechten programm ala camtasia) und nimmst sogar verlustbehaftet auf, bleibt halt am ende noch schlechteres Material übrig.
  • Die Qualität auf 720p ist einfach auch für den Arsch. ;) Man kann es leider nicht anders sagen. Selbst wenn du den optimalen Weg nehmen und Rohaufnahmen hochladen würdest, käme auf YouTube nur Matsch an, weil 720p zu wenig Bitrate bekommt. Die Lösung - höhere Auflösung wählen. Ideal wären 3200x1800.
  • Sazoga schrieb:

    Wahrscheinlich suboptimaler Workflow. MeGUI + 1800p und die Sache ist gegessen.

    @Vorposter ""Rendern"" würde er mit einem Programm wie Cinema4D..
    Ich zitiere mal Wikipedia:
    Rendern (Videobearbeitung), Verarbeitung eines geschnittenen Videos zu einer fertigen Videodatei oder einem Datenträger-Image
    Das soll jetzt nicht kleinkariert wirken, aber ich mag es nicht, wenn man mich verbessert und augenscheinlich keine Ahnung hat.

    Das Ausgabeformat ist insofern wichtig, als das nicht bei allen Formaten der Youtube Renderer nochmal intensiv drüber rennt - der VP9 Codec ist zwar ganz nett, aber nicht der Weisheit letzter Schluss. Videos, welche man im m2ts Container hochlädt stehen beispielsweise sofort in allen Auflösungen zur Verfügung - bei gleichbleibender Qualität, wie man sie auf dem lokalen PC anschaut.
    Ihr nennt es Let's Play, ich nenne es: Podcast mit Assoziationsbeschleuniger.

    Neuer, alter Kanal: Robert Ongrui

  • Ongrui schrieb:

    Das Ausgabeformat ist insofern wichtig, als das nicht bei allen Formaten der Youtube Renderer nochmal intensiv drüber rennt - der VP9 Codec ist zwar ganz nett, aber nicht der Weisheit letzter Schluss. Videos, welche man im m2ts Container hochlädt stehen beispielsweise sofort in allen Auflösungen zur Verfügung - bei gleichbleibender Qualität, wie man sie auf dem lokalen PC anschaut.

    Das stimmt aber so nicht. YouTube kodiert immer noch mal neu, völlig unabhängig vom Format und immer mit denselben schlechten Einstellungen. Die Qualität ist also immer schlechter als lokal.
  • Julien schrieb:

    Ongrui schrieb:

    Das Ausgabeformat ist insofern wichtig, als das nicht bei allen Formaten der Youtube Renderer nochmal intensiv drüber rennt - der VP9 Codec ist zwar ganz nett, aber nicht der Weisheit letzter Schluss. Videos, welche man im m2ts Container hochlädt stehen beispielsweise sofort in allen Auflösungen zur Verfügung - bei gleichbleibender Qualität, wie man sie auf dem lokalen PC anschaut.

    Das stimmt aber so nicht. YouTube kodiert immer noch mal neu, völlig unabhängig vom Format und immer mit denselben schlechten Einstellungen. Die Qualität ist also immer schlechter als lokal.
    Dann habe ich mich falsch ausgedrückt - Der VP9 Codec scheint mit einigen Eingabeformaten weniger Probleme zu haben als mit anderen.
    Ihr nennt es Let's Play, ich nenne es: Podcast mit Assoziationsbeschleuniger.

    Neuer, alter Kanal: Robert Ongrui

  • Ongrui schrieb:

    Ich zitiere mal Wikipedia:

    Zitat
    Rendern (Videobearbeitung), Verarbeitung eines geschnittenen Videos zu einer fertigen Videodatei oder einem Datenträger-Image

    Das soll jetzt nicht kleinkariert wirken, aber ich mag es nicht, wenn man mich verbessert und augenscheinlich keine Ahnung hat.


    Und er hat doch Ahnung. Bilder werden gerendert. Videos werden encodiert. Wenn Videos gerendert gespeichert werden würden, dann könnte man bei 30FPS auch einfach 30 bspw. PNG Dateien speichern. Quasi wie ein entpackbares Ziparchiv. Da da aber ein Codec drauf kommt, wird das ganze encodiert und beim decodieren wird das ganze mittels der relativen Informationen zum Bild im Videofile gerendert.

    Wikipedia beweist hier nur wieder, dass da auch totaler Mumpitz drin stehen kann ;)


    Aktuelle Projekte
    Mass Effect 2 | The Legend of Zelda: Skyward Sword
  • Einigen wir uns darauf, das es verschiedene Definitionen gibt.
    Hier meine Version:
    Ich nehme ein Rohvideo und bringe es in ein Youtube freundliches Format: Ich encodier es.
    Ich nehme ein encodiertes Video und bringe es in ein anderes Format: Ich transcodiere es.
    Ich nehme ein Video, füge Sprache hinzu, Untertitel etc - ich rendere es.

    Sorry für eventuelle Missverständnisse.
    Ihr nennt es Let's Play, ich nenne es: Podcast mit Assoziationsbeschleuniger.

    Neuer, alter Kanal: Robert Ongrui

  • Da Tannec aber aktuell nicht antwortet kommen wir hier nicht weiter.
    Ich habe ein anderes Verständnis von der Videoverarbeitung als du, wenn du magst kannst du das auch als meinen Fehler interpretieren, aber ich denke zu der Encode Thematik ist nun genug gesagt worden.
    Ihr nennt es Let's Play, ich nenne es: Podcast mit Assoziationsbeschleuniger.

    Neuer, alter Kanal: Robert Ongrui

  • Ongrui schrieb:

    Ich nehme ein Video, füge Sprache hinzu, Untertitel etc - ich rendere es.

    Nein. Ist so nicht richtig. Audio und Video zusammenfügen nennt sich muxen. Untertitel kann man verschiedener Maßen einfügen. Dafür gibt es Soft Subs und Hard Subs.
    Die Soft Subs werden auch wie Audio hinzugemuxt oder liegen extern zum Video bei. Nur die Hard Subs werden eingebrannt bzw. neu mit dem Video berechnet und anschließend codiert. In diesem Fall spricht man tatsächlich von rendern.

    Rendern tut man erst wenn zusätzliche Sachen ins Video einfließen und das Bild somit neu berechnet werden muss.

    Es ist ein ekliger Ausdruck es Rendern zu nennen in NLEs. Denn eigentlich setzt man das ganze ja schließlich vorher zusammen und encodiert eigentlich nur noch. Das Rendern ist das minimalste an der Sache.

    Ongrui schrieb:

    Ich nehme ein Rohvideo und bringe es in ein Youtube freundliches Format: Ich encodier es.

    Auch falsch. In diesem Falle wenn dus schon genau machst, transkodierst du es auch nur wieder.
    Um etwas zu transkodieren (Kodieren) muss es Enkodiert werden. Erst durch einen Encode zu einen anderen Format ist der Transcode Prozess fertig. Man nennt das Transkodieren auch direktes Umwandeln.
    Es gibt auch indirekte Umwandlungen wo ein Medium zwischen Quellvideo und Zielvideo sitzt. Beispielsweise ein Frameserver. Oder bei ner NLE halt ein interner Frameserver. Denn eine NLE setzt das Bild auch nur neu zusamm egal was man da sagt.

    Direkte Umwandlungen kann man z.B. mit MediaRecode erzeugen, Virtual Dub etc.
    Und indirekte Umwandlungen erfolgen über NLEs, Frameserver usw.

    Nix desto trotz werden diese allesamt Encodiert, woraufhin wir uns statt Transkodieren das ganze mal nur Encoding nennen wollen ^^ Weil das trifft auf beiden Varianten zu.

    In einer NLE wird immer berechnet. Wenn man z.B. ein Interlaced Material in eine NLE laden tut, wird diese meist schon automatisch deinterlaced. Sprich es wirken ohne das der User es mitbekommt schon Filter auf das Video. Sprich sofern etwas das Original Bild in einer kleinsten Weise verändert ohne vorher encodiert zu haben spricht man von Berechnungen des Bildes. Oder besser gesagt Bildsynthese. Im allgemenen Munde in der Anime Szene z.B. wird sowas auch einbrennen genannt. Vor allem wenn neue Sachen wie Bilder hinzukommen zum Video.

    Man kann auch seine LPs direkt encodieren wenn man das möchte. Erst dann wäre das ein Transcode. Auch wieder bestehend aus Encoding halt wie erklärt.
    Das verwendet YT z.B. YT nutzt in diesem Fall tatsächlich einen direkten Encode für die Videos. Und dazu einen sehr miesen.

    Video + Audio + Soft Subs nennt man Muxen. Man kann diese Elemente zum Beispiel in ein MKV Container muxen und demuxen lassen. Quasi mehrere Stream IDs in einen Container sind das Resultat eines Muxvorganges.

    Video + Hard Subs + Wasserzeichen + Rahmen + ... nennt man Einbrennen oder auch Rendern bzw. besser gesagt Berechnen der einzelenen Elemente untereinander. Man nennt sowas auch Bildsynthese. Das ist nicht nur bei Grafikprogrammen so.

    Und ein indirekter Encode ist halt alles mit einen Medium zwischen Quellvideo und Zielvideo.

    Mal Bildhaft noch mal:

    direkter Encode (Transkodieren): Quellvideo -> Encoder -> Zielvideo
    indirekter Encode: Quellvideo -> Medium -> Encoder -> Zielvideo

    Video + Audio + Soft Subs + Fonts + Timecodes + etc. in einen Container = MUXEN
    Das trennen dieser Elemente aus dem Container nennt man dann entsprechend = DEMUXEN

    Video + Hard Subs + Rahmen + Wasserzeichen + Endcards + Intro + ... nennt man = BERECHEN (Rendern) oder halt BILDSYNTHESE
    Rendern ist einfach falsch gewählt in den NLEs, denn es wird nicht nur gerendert
    Quellvideo + alle Elemente die darauf kommen und später fest sitzen im Video werden erst -> Berechnet (gerendert) -> dann Encodiert

    Frameserver wie AVISynth berechnen auch, nur liegt das näher am Encoder als jede NLE.

    Bei einer NLE wird zuerst berechnet, und wenn man mit MeGUI arbeitet, wird noch mal (sofern man die nötigen Sachen macht) auch noch mal berechnet. Das wäre schon gar ein dreifaches indirekt kann man sagen ^^ : Quellvideo -> NLE -> Debug Frameserver -> AVISynth Frameserver -> Encode -> Zielvideo

    Wer nur mit MeGUI arbeitet hat diesen Walkflow: Quellvideo -> AVISynth Frameserver -> Encode -> Zielvideo
    Sprich ein indirekter Encode.

    NLEs haben diesen: Quellvideo -> NLE -> Berechnen (Rendern) "Und das immer" -> Encode -> Zielvideo

    x264 kann auch direkt encoden. Sieht dann so aus: Quellvideo -> Encode -> Zielvideo

    Jede Art der Änderung in einem Video nennt man zum einen indirektes Encodieren und zum zweiten eine Neu Berechnung des Videos.

    Ich denke damit sind alle Fragen jetzt geklärt ^^
  • Ongrui schrieb:

    Das Ausgabeformat ist insofern wichtig, als das nicht bei allen Formaten der Youtube Renderer nochmal intensiv drüber rennt - der VP9 Codec ist zwar ganz nett

    Youtube benutzt H.264 und kein VP9.

    Und der Re-encode fällt besser aus, je besseres Material du hochlädst..
    Aktuelle Projekte/Videos




    Seit etlichen Monaten komplett veraltete Signatur, wie ihr sicherlich schon bemerkt habt. Habe mittlerweile mehr als 4 Projekte, weshalb die Signatur leider momentan gesprengt ist xD
    Notdürftig die Liste was aktuell läuft: Unreal | Complex DooM (LPT) | DooM 2016 | Need For Speed III: Hot Pursuit | Dirt Rally | Dirt 4 | WRC 7
  • sorry dass ich erst so spät antworte. Ich habe mal ein Video gemacht und dieses in 3200x1800 gerendert. Bei den Abmessungen habe ich dann 100% ausgewählt, was 1280x800 entspricht. (Ich rendere übrigens mir Screenflow)

    Hier sind noch die Screenshots meiner Einstellungen:














    und ein Link zum fertigen Video: (Ist nur eine Probeaufnahme, nicht zugeschnitten und so)

    Test Video (Minecraft)





    Ich hoffe ihr könnt mir helfen :)
    Grüsse
    TannecHD

    Dieser Beitrag wurde bereits 2 mal editiert, zuletzt von TannecHD ()