Videoquallität zweier Spiele unterschiedlich trotz gleicher Aufnahme- und Rendereinstellungen?!?!

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Videoquallität zweier Spiele unterschiedlich trotz gleicher Aufnahme- und Rendereinstellungen?!?!

    Anzeige
    Hey Leute, ich versuche momentan mit League of Legends Videos anzufangen, so Montages und Funny Clips undso, aber komischerweise ist die Videoquallität bei einem League of Legends Video schlechter als z.B. bei Mirrors Edge. Ich nehme beide Spiele mit Fraps auf und rendere mit Magix Video Deluxe 2013 Plus, bei jeweils gleichen Einstellungen bei Aufnahme und Rendervorgang. Dies kann man besonders gut erkennen wenn ich League of Legends und Mirrors Edge (Mirrors Edge ist hier mein Vergleich für die bessere Quallität) zusammen rendere. Das habe ich mal in einem Testvideo getan, was ihr hier ansehen könnt: youtube.com/watch?v=bVQF8em8B8w&feature=youtu.be Das Video ist in 720p gerendert falls Youtube es noch nicht fertig bearbeitet hat, einfach kurz warten!

    Wie kann es sein, dass trotzdem bei League of Legends eine sichtlich schlechtere Quallität ist als bei Mirrors Edge obwohl es sogar im gleichen Video ist??

    Hoffe ihr habt Ideen :)

    LG DerDecane
  • Anzeige
    Okay also hier sind die Dinger von MediaInfo:

    League of Legends: puu.sh/dbjvh/d4a7fcdd2f.png
    Mirrors Edge: puu.sh/dbjxW/f2780d649a.png


    Außerdem habe ich die Videos zu den beiden Spielen nochmal einzeln hochgeladen:

    League of Legends: youtube.com/watch?v=BsIx5n0NDqk&feature=youtu.be
    Mirrors Edge: youtube.com/watch?v=mRFpdJbHDsQ&feature=youtu.be

    Kann aber sein dass die Videos wieder ein wenig brauchen bis sie mit 720p verfügbar sind.
  • Ok.

    Zu deinem ersten Video:
    Bei LoL und Mirrors Edge erwartest du mit gleichem Encode mit gleicher Bitrate das die Qualität gleich bleibt. Vernachlässigst aber die Komplexität des einzelnen Spieles. Die Darstellung bei Mirrors Edge ist doch ganz anders und wesentlich einfacher als das LoL Game bei dir.

    Mal als Beispiel:
    Bei Mirrors Edge hast du schöne einheitliche Weiße Flächen im Video. Beim Hochklettern kaum Bewegung, Text ist auch nicht ein oder zwei Pixel breit, sondern Flächenfarbig.
    Und dann hast du da auch noch leichtes Motion Blur bei dem Spiel.

    Bei deinem LoL Video ganz anders. Dünne Textschrift mit einem im Hintergrund bewegendes Bild.
    Rein von der Theorie her müsste das LoL Video mehr Bitrate benötigen als Mirrors Edge bei deinem Beispiel.

    Und das merkste dann auch wenn du es auf YT hochgeladen hast das YT die Bitrate dann auf 4000 kbps limitert bei beiden Games. Da Mirrors Edge weniger benötigt, bleibt auch mehr Qualität übrig als beim anderen Game. Da LoL wieder etwas komplexer vom Bildaufbau her.

    Glaubt man manchmal gar nicht. Aber Minecraft ist ja auch hoch Komplexes Bildmaterial als z.B. Resident Evil 5 oder 6 ^^


    Was du tun musst um entgegenzuwirken ist
    • [lexicon]Auflösung[/lexicon] höher setzen, damit du auf YT mehr [lexicon]Bitrate[/lexicon] bekommst und mehr Qualität übrig bleibt. Am besten ein spezifischen Resizer verwenden dafür wie Spline100 oder Spline16 (Wirste nicht in deiner [lexicon]NLE[/lexicon] finden. NLEs resizen Bicubisch oder Bilinear oft)
    • Künstliches [lexicon]Motion Blur[/lexicon] auftragen auf den Videos. Entweder über deine [lexicon]NLE[/lexicon] oder anderen Programmen. Damit wird erreicht das Bewegungen unschärfer werden und [lexicon]Bitrate[/lexicon] gespart werden kann.
    • Mit 25 FPS Encoden statt mit 30. Die Einsparung der Bilder gibt dir noch mal mehr [lexicon]Bitrate[/lexicon] für für die anderen Frames frei die du bei den 5 Frames jetzt sparen kannst.
    Das sind so kleine Tipps die zur Verbesserung immer funktionieren. ;D

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Sagaras ()

  • Okay danke für die Ausfühliche Erklärung. Merkt man dann nicht einen unterschied zwischen 25 und 30 FPS?

    *Edit:

    Mit 1080p sieht's gleich viel besser aus. Wen es interessiert, hier das Video: youtube.com/watch?v=mn2449ShIik

    Ob ich jetzt 30 oder 25 FPS nutze muss ich mir noch überlegen, danke schonmal für eure Hilfe!

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von DerDecane ()

  • Das Empfinden ist bei jedem etwas anders. Der eine merkt es sofort weil er nur 60 FPS gewohnt ist, der andere merkt das nicht, weil seine Augen zu träge sind dafür.

    Musst du austesten.
    Relativ Unauffällig wird es sein wenn du 25 FPS + Motion Blur machst. Dann fällt die Bewegung etwas flüssiger aus durch die Bewegungsunschärfe. Dann merkste nicht mal ob 30 oder 25.
    Der Frameunterschied ist noch relativ gering als von 60 auf 30 zu fallen ^^

    Wirste also kaum Wahrnehmen von 30 auf 25. Da musste schon deutlich hinschauen ^^
  • Keine Ahnung ob das mit deiner NLE überhaupt geht.

    Kostenlos würde das mit dem SSM + MeGUI gehen.
    Im SSM kannste sowohl die Resizertypen auswählen wie Spline100 oder Spline16 + du kannst Motion Blur nutzen + die Framerate senken (Changen) + du kannst mit MeGUI via CRF und einen 10Bit Encode alles encodieren lassen.

    Eigentlich jede menge Vorteile für Qualitäten ^^
  • Wenn du Magix und MeGUI nutzen willst und es keinen Frameserver gibt, so gibt es immer noch die Möglichkeit das Video via VFW mit einem Lossless Codec wie MagicYUV, UTVideo oder Lagarith zu speichern und diese Datei dann mit dem SSM und MeGUI zu verarbeiten.

    Der einzige Unterschied zum Frameserver besteht jetzt darin das du das Video in deiner NLE Lossless abspeichern tust und somit viel Speicherplatz eventuell brauchst als mit nem Frameserver die Frames direkt von der NLE nach MeGUI zu schicken.

    Ansonsten ist es das gleiche Prinzip.

    VFW Encoder kannste in NLEs verwenden wenn du es in ein AVI Container berechnen lässt. Da wirste dann auch auf die VFW Codecs zugreifen und dir dann den entsprechenden Lossless Codec auswählen können.
  • Was bedeuten all diese Dinge? :O Und werden dadurch meine Dateien wesentlich größer als jetzt? Ich hab die Einstellungen von DeMoN auf Youtube soweit ich mich erinnern kann, da hat er gesagt das wäre so gut.
  • Ach ja stimmt... dann kann man auch den x264vfw Export nutzen xDDD

    B-Frames: Sind zusammen mit den P-Frames, Frames welche sich auf andere Frames beziehen und nur Veränderungen zu den anderen Frames anzeigen. Damit reduziert sich die Dateigröße ohne an Qualität zu verlieren. B-Frames können sich sowohl auf vorherige als auch auf nachfolgende Frames beziehen. Am besten sollte man 3-5 B-Frames nutzen.

    GOB: Group of Pictures, gibt an wie das Video von den Frames aufgebaut ist. Im unkomprimierten Video sind nur I-Frames (also normale Vollbilder) vorhanden. Bei H.264 wird dann immer eine GOB gesetzt z.B. (I-P-B-B-B-P) Man beginnt mit einem I-Frame und danach folgen Ref-Frames (P und B) welche die Veränderung in den nachfolgenden Bilder anzeigen. Mit einem neuen I-Frame ist die GOB abgeschlossen. Max.GOB gibt an, wann der Encoder maximal einen neuen I-Frame setzten soll. Da nimmt man meistens das 3-fache der FPS Rate, weil die I-Frames ja die meiste Dateigröße verbrauchen. (Man kann auch die Max. Gob auf unendlich setzten, dann braucht der Videoplayer aber länger um den Film abzuspielen, wenn du irgendwo hinspulst ;) )

    Slice sind für Blue-Ray Kompatibilität notwendig.

    Und der Target Quality Mode gibt dem Encoder mehr Spielraum die unterschiedlichen Quantizerfaktoren zu verteilen, da er dann die QPs für die I- , P- und B-Frames dann als Durchschnitt definiert und nicht konstant auf jeden Frame anwendet.

    All diese Einstellungen sollten deine Datei kleiner machen bei gleicher Qualität :D Aber x264vfw ist natürlich besser
    ~ Let's plays, Animes, Cinematics, Zeichnungen ~ :D

    Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von GrandFiredust ()

  • GrandFiredust schrieb:

    Ach ja stimmt... dann kann man auch den x264vfw Export nutzen xDDD


    Jein. Wir brauchen jetzt eine 1:1 Datei aus der NLE. Frameserver gibt es ja nicht bei Magix. Und er möchte das mit dem Motion Blur und dann mit MeGUI encodieren probieren.

    Also brauchen wa eine Lossless Datei aus der NLE heraus ^^

    DerDecane schrieb:

    Was bedeuten all diese Dinge? :O Und werden dadurch meine Dateien wesentlich größer als jetzt? Ich hab die Einstellungen von DeMoN auf Youtube soweit ich mich erinnern kann, da hat er gesagt das wäre so gut.


    Du brauchst aber für dein jetziges Vorhaben wenn du den SSM + MeGUI verwenden möchtest das Rohzustandsvideo aus deiner Magix NLE. Da du kein Frameserver nutzen kannst, bleibt dir nix anderes übrig als es Lossless als Datei ausgeben zu lassen.

    Also mit einem VFW Encoder wie MagicYUV, UTVideo oder Lagarith das Video aus Magix abspeichern und das abgespeicherte Video in den SSM laden und das Skript dazu erstellen mit dem Motion Blur etc. Und das Skript kommt dann in MeGUI und kann dort mit x264cli encodiert werden. Sogar in 10Bit dann.