Warum MeGUI?

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Anzeige
    Hoi!

    Ich benutze zur Codierung meiner Videos seit geraumer Zeit die Premiere-Frameserver-MeGUI-Pipeline. Diesen Workflow habe ich aus diesem Forum bzw. dem Tutorial von "De-M-oN" entnommen. (Vielen Dank dafür! ;) )
    Nun wurde ich schon häufiger gefragt, warum man nicht einfach direkt aus Premiere mit dem 264-Codec exportiert. Und ich finde, das ist eine gute Frage. =)

    Dazu meine konkreten Gedanken:
    • Inwiefern ist MeGUI besser als der Export direkt aus Premiere? Welche Vorteile bietet es?
    • Ist der Debugmode Frameserver wirklich ein Bottleneck und bremst die Leistung beim Codieren massiv aus bzw. erhöht deutlich die Renderzeit?

    Eine andere Sache, die mich noch interessiert:
    Da ich primär "Dark Souls"-Videos produziere (Channel), wüsste ich gern, ob es für diese Art Spiel bevorzugte Settings in MeGUI gibt, um die teilweise sehr hektischen Bewegungen nicht allzu unscharf werden zu lassen.

    Für Antworten und Tipps jeder Art bin ich dankbar! =)

    Cheers,
    Gerold
  • Megui wird verwendet da der interne x264 Encoder um einiges effizienter ist als die in Premiere verbaute MainConcept Variante.

    Dein Schärfeproblem liegt wohl daran das du nicht auf über 1080p hochskalierst, 1152p41+fps würden dir da um einiges mehr Bitrate als 1080p30 bringen und somit auchum einiges mehr mehr Qualität

    Zu deinem Workflow, ich würde zwischen Frameserver und Megui noch den SSM stellen um dem amgesprochenen Punkt mit der Skalierung zu übernehmen, dazu gibt es von Demon auch ein sehr gutes Video-Tutorial

  • Rough Gerold schrieb:

    Inwiefern ist MeGUI besser als der Export direkt aus Premiere? Welche Vorteile bietet es?

    Schneller. Bei gleicher Dateigröße höhere Qualität, bzw. kleinere Dateien bei gleicher Qualität.
    Ein recht beliebtes Bild zur Veranschaulichung dürfte dieses sein, Premiere ist hier in Form von MainConcept vertreten.


    Rough Gerold schrieb:

    Ist der Debugmode Frameserver wirklich ein Bottleneck und bremst die Leistung beim Codieren massiv aus bzw. erhöht deutlich die Renderzeit?

    Jeder zusätzliche Zwischenschritt erhöht die Kodierzeit. Frage ist, ob der Zwischenschritt (welcher eigentlich ein alternativer Weg ist) sich trotzdem lohnt, was wiederum die erste Frage bereits beantwortet.

    Der schnellste und qualitativ beste Weg wäre, wenn du die NLE (Premiere) weglässt und nur mit SSM und MeGUI arbeitest. Würde ich nur empfehlen, wenn du deine Videos wenig bis gar nicht bearbeitest.

    Rough Gerold schrieb:

    bevorzugte Settings in MeGUI gibt, um die teilweise sehr hektischen Bewegungen nicht allzu unscharf werden zu lassen.

    Hektische Bewegungen brauchen hohe Bitrate. Wird es unscharf reichte die Bitrate nicht aus.
    Lösung hierfür: Bildmaterial auf 2048x1152 skalieren lassen. Ab 1152p gibt es auf YouTube wieder mehr Bitrate überhalb von 1080p.
    Weitere Optimierungsmöglichkeit wäre in mindestens 41FPS aufzunehmen und zu kodieren. Ab 41FPS kodiert YouTube in HFR (41-60FPS) und mit wiederum höherer Bitrate.
    Schöner Nebeneffekt: Höhere Aufnahme-FPS und Kodierung kommen nicht nur der Bitrate zugute sondern auch dem Video selbst da es flüssiger ist, was wiederum die Videoqualität selbst steigert.
    Einziger Nachteil: 1152p mit 41FPS+ gibt es nur wenn YouTube gütig ist und deine Videos mit dem VP9-Codec kodiert (Was auch die Qualität erhöht).
    Wessen Kanal winzig ist und/oder sehr wenige Aufrufe auf seinen Videos hat, bekommt möglicherweise keine VP9-Kodierung. Genaue Kriterien hierfür sind meines Wissens nach nicht bekannt(?). Brauchst du dir aber keine Gedanken drüber machen, deine Videos bekommen anscheinend durchgehend die VP9-Kodierung.

    Edit: Mal wieder zu langsam.
  • Vielen Dank für die Antwort!

    Von dem SSM habe ich schon häufiger gelesen, allerdings dachte ich bisher, es wäre nur eine Alternative zum dem AVS-Script-Creator-Tool von MeGUI. Dem ist ja offenbar nicht so. Dann werde ich mich mal damit beschäftigen! =)

    Cheers!
    Gerold

    Edit:
    Hey Kayten! Dir ebenfalls vielen Dank für die ausführliche Antwort! Ich werde mal sehen, ob ich mich da reindenken und meinen Workflow entsprechend anpassen kann.
    Was genau meinst du mit "wenig bis gar nicht bearbeiten"? Welche Bearbeitung ist gemeint und inwiefern würde das einen Unterschied machen?
  • Wenn du beispielsweise nur am Anfang und am Ende etwas wegschneidest und ein Intro davor setzt, ist Premiere aus meiner Sicht absolut überflüssig.
    Das kann der SSM auch und ohne Premiere samt Frameserver wird auch die Kodierung beschleunigt.

    Rough Gerold schrieb:

    Von dem SSM habe ich schon häufiger gelesen, allerdings dachte ich bisher, es wäre nur eine Alternative zum dem AVS-Script-Creator-Tool von MeGUI.

    Die Vorteile vom SSM dürften recht deutlich werden, wenn du dir das Tutorial von @De-M-oN dazu anschaust.
  • NLEs sind nur eine Bequemlichkeitsgeschichte. Qualitativ besser ist es mit Avisynth alleine (keine NLE davor), schneller ist es so ebenfalls und alles was an bearbeitung mit NLE möglich ist, geht auch mit Avisynth. NLEs sind halt nur eine Bequemlichkeitssache und eine visuelle Unterstützung für den Menschen.

    edit: Achja und was allein schon gegen Premiere's Encoder spricht sind diese ~3 Einstellungen für den Encoder, wo du zudem nur bitratefixed encodieren kannst. Da ist ja nichtmal quantizerbasiertes Encoding vorhanden und musst somit den Bauch mit der Bitrate befragen und da bitrate encodes immer 2pass gecodet werden sollten aus effizienzgründen, haste damit auch noch doppelten zeitaufwand.
    Aktuelle Projekte/Videos




    Seit etlichen Monaten komplett veraltete Signatur, wie ihr sicherlich schon bemerkt habt. Habe mittlerweile mehr als 4 Projekte, weshalb die Signatur leider momentan gesprengt ist xD
    Notdürftig die Liste was aktuell läuft: Unreal | Complex DooM (LPT) | DooM 2016 | Need For Speed III: Hot Pursuit | Dirt Rally | Dirt 4 | WRC 7

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von De-M-oN ()

  • NLE = Nonlinear Editor.

    Damit sind halt all diese Timeline Programme wie Premiere, Vegas, und co gemeint.
    Aktuelle Projekte/Videos




    Seit etlichen Monaten komplett veraltete Signatur, wie ihr sicherlich schon bemerkt habt. Habe mittlerweile mehr als 4 Projekte, weshalb die Signatur leider momentan gesprengt ist xD
    Notdürftig die Liste was aktuell läuft: Unreal | Complex DooM (LPT) | DooM 2016 | Need For Speed III: Hot Pursuit | Dirt Rally | Dirt 4 | WRC 7
  • Ja. Wobei das wesentlich leichter ist als C++ oder so :D :D :D

    Also programmieren musste dafür jetzt nicht lernen, keine Sorge ;D

    Einige Filter hat auch SSM schon drin.
    Aktuelle Projekte/Videos




    Seit etlichen Monaten komplett veraltete Signatur, wie ihr sicherlich schon bemerkt habt. Habe mittlerweile mehr als 4 Projekte, weshalb die Signatur leider momentan gesprengt ist xD
    Notdürftig die Liste was aktuell läuft: Unreal | Complex DooM (LPT) | DooM 2016 | Need For Speed III: Hot Pursuit | Dirt Rally | Dirt 4 | WRC 7
  • Das beruhigt mich schon mal, ... =)

    Aber mal ein praktisches Beispiel:

    Wenn ich nicht 100 mal bei einem Boss verrecke, sieht die Bearbeitung meiner Dark Souls LPs so aus:
    (Capturing mit DXTory (Video+Audio) + Lagarith (Ich las schon, dass ich wohl auf UT oder Magic wechseln sollte ...)

    1) Intro vor das Video kleben
    2) Audiospuren pegeln (InGame leiser / MIC lauter)
    3) Outro am Ende einfügen

    Intro und Outro ggf. mit einer weichen Blende.

    Wenn es Längen in der Aufnahme gibt, erhöhe ich die Geschwindigkeit des Abschnittes auf 150% - das gibt dann den lustigen Chipmunk-Effekt.

    Ist so eine Verarbeitung ohne großen Aufwand via Avisynth möglich?
  • Audio kannste im Audioprogramm bearbeiten (Audacity, Audition etc)
    Die Videos kommen einfach in SSM reingeklatscht.
    Fade und Übergangseffekte hat SSM in GUI gefasst da.

    Speedanpassungen für's ganze Video wäre in GUI möglich. Stellenweise müsstest du aber dann selber Hand anlegen im Script. Trim und AssumeFPS sind die benötigten Filter dafür. Wahlweise mit oder ohne Pitchveränderung.
    Aktuelle Projekte/Videos




    Seit etlichen Monaten komplett veraltete Signatur, wie ihr sicherlich schon bemerkt habt. Habe mittlerweile mehr als 4 Projekte, weshalb die Signatur leider momentan gesprengt ist xD
    Notdürftig die Liste was aktuell läuft: Unreal | Complex DooM (LPT) | DooM 2016 | Need For Speed III: Hot Pursuit | Dirt Rally | Dirt 4 | WRC 7
  • De-M-oN schrieb:

    und alles was an bearbeitung mit NLE möglich ist, geht auch mit Avisynth. NLEs sind halt nur eine Bequemlichkeitssache und eine visuelle Unterstützung für den Menschen.


    Nur ist diese Bequemlichkeit nicht mal ansatzweise so vernachlässigbar wie du immer implizierst (vielleicht tue ich dir gerade Unrecht, dann tut es mir leid) ;) So Videobearbeitung wie ich und viele Andere sie hier machen mit Avisynth zu erstellen (Schnitt, Endcards, Greenscreen, Pngs, plötzliche Camveränderung, sich in bestimmter Weise bewegende Elemente uswusf.) Alter Schwede, natürlich will ich da sehen was ich mache. Das würde die Zeit die ich beim Encoden spare einfach mal so krass sprengen (die Zeit in der ich mir das "Programmieren" anlerne gar nicht mal mitgerechnet). Man kann tausende Argumente bringen warum Avisynth+MeGUI besser ist für X, für Y und Z, aber das funktioniert eben alles nur bedingt bei bestimmten Videoformaten....
    jebaited
  • @Sev
    Wart mal ab...
    Ich bin momentan dabei mich in Avisynth weiter zu bilden.
    Wenn man in Avisynth erstmal den Befehl hat womit was geht ist das nur noch ein Witz an Aufwand.
    Man muss halt erstmal etwas umdenken und es verstehen.

    Edit:
    Kannst ja mal eine Liste anfertigen wo alles drin steht was du machst.
    Dann kann ich etwas genauer auf Wissensuche gehen.
  • @Sev
    Die meisten LPer wollten bisher einfach nur das Video klein kriegen und höchstens noch ein Intro o.ä. vornedran hängen. Dafür braucht man wirklich kein großes Videoverarbeitungsprogramm - zumal die für gewöhnlich was kosten.

    Wenn mehr am Video rumgeschnippelt und sonstwelche Effekte angewendet werden, wird keiner auf eine NLE verzichten, auch Demon nicht, wie er selbst schon erzählt hat.

    Die gefühlte Obsession erzeugt nur immer wieder krasse Gegenpositionen und schreckt unnötig ab. Habe auch schon viele technisch unerfahrene in wenigen Minuten angeleitet und dann haben sie immer nur noch MeGUI genutzt (bzw. inzwischen meist mit SSM zusätzlich).


    Die Alternativen werden auch immer erwähnt. TMPGEnc 5+6 nutzen den x264 Encoder - kosten dafür ein paar dutzend Euro.
    Der Frameserver nutzt MeGUI, ohne dass man auf Sony Vegas oder anderes verzichten muss.
    Und x264vfw hat zwar nicht das tolle, neue 10-Bit Encoding, aber außer Demon wird das niemand wirklich stören. Dann kann man direkt aus zB. Sony Vegas encodieren.


    Die bockigen Meinungen, die nur auf den eigenen Standpunkt beharren, habe ich in den letzten Jahren schon zu oft lesen müssen. Und ja, Demon provoziert es mit seiner Art auch gerne. Aber das war früher viel schlimmer, als es im Forum noch ständig Verwarnungen gab.^^
  • Lass es mich mal so sagen @Sev, AVISynth kann all das was ein Videoschnittprogramm auch kann. Dafür gibt es jedemenge Plugins. AVISynth ist aber KEIN Grafikprogramm wie Blender oder After Effects. Das darf man jetzt nicht durcheinander wirbeln.

    Auch der Zeitaufwand für solche Skripte ist länger, aber dafür auch sehr genau. Das was deine NLE nebenbei mal erledigt wie Farbraumkonvertierung oder nur ein Skalierertyp zu verwenden den NLEs oft nur haben, ist es wie als würde man Achterbahn fahren was Schnittprogramme einem Video antuhen.

    AVISynth hingegen ist aber ein Frameserver und die Aufgabe eines Frameservers ist nun mal das schleusen bzw. pipen von Videos von A nach B. Und genau das geschieht bei AVISynth so gut, das weder der Farbraum, noch sonstirgendwelche Effekte darauf wirken müssen oder können. Sprich 1:1 zum Encodieren.

    Um aber dich zu beruhigen: Ich selbst ersehe es auch als Lästig, wenn ich tausende Schnitte machen müsste oder wirklich mal aus Bildern mir ein Video zusammenbauen möchte. Kann ich mit AVISynth zwars auch, wäre mit aber zu Mühselig irgendwann und auch sehr Zeitraubend.

    Aber dafür gibt es ja den Kompromiss: NLE + DebugMode Frameserver -> SSM (AVISynth Skriptersteller) -> MeGUI

    Damit kommt das Video zum einen 1:1 in ein AVISynth Skript rein, was dann auch 1:1 dann an den x264cli Encoder gehen kann, der wiederum dann 10Bit Encoding beherrscht.

    Somit haste alle Fliegen mit einer Klappe geschlagen.

    Und seit neuster SSM Version kannst du auch sämtliche Videos die es gibt und von FFMpeg, L-Smash oder deinem eigenen DirectShow System unterstützt werden laden und sie via SSM auch mit AVFS als AVI frameserven lassen. Damit man z.B. ein Bink oder Smacker Video was Spiele oft nutzen 1:1 in eine NLE laden kann.

    Der SSM dient somit als Verbindungsstück. Du brauchst dich also nicht mal um das Skripten mehr kümmern, kannst aber AVISynth darüber problemlos nutzen für beide Seiten halt. Halt um Qualität zu optimieren.

    Verlangt keiner das man sich mit AVISynth sich jetzt abquälen muss. Kann man machen, muss man aber nicht. Jeder wie er mag. Was meinste warum ich den SSM gebaut habe. Gewiss damit Leute wie ihr nicht mit Skripten in Berührung kommen müssen ;D

    Sev schrieb:

    Man kann tausende Argumente bringen warum Avisynth+MeGUI besser ist für X, für Y und Z, aber das funktioniert eben alles nur bedingt bei bestimmten Videoformaten....

    Grundsätzlich wird AVISynth genutzt wenn man Qualität haben will. Denn nix ist genauer für Videos als dieser Frameserver der so unzähliges kann. Und von wegen bestimmten Videoformaten xD Das ich nicht Lache xD Deine NLE kann nicht mal Ansatzweise das laden was AVISynth kann. AVISynth kann sogar mit dem FFMS2 Plugin Videos von VFR in CFR wandeln, damit Videos synchron bleiben.
    Es gibt sogar ein Plugin für AVISynth, damit kann man z.B. Capture Karten oder Webcams direkt frameserven lassen zu einem Encoder. Das ist richtig Trekkie xD

    Also was Decoder angeht, ist AVISynth in Zusammenhang mit einigen Plugins dafür deiner NLE Haushoch überlegen. Auch was Skalierer angeht oder auch Farbmatrizen oder oder oder...

    Wärend deine NLE hingegen gewiss andere Sachen besser kann.

    Aber warum sollte man nicht beides kombinieren? Ist doch möglich? Also wer sich gegen sowas streuben sollte, da weiß ich dann auch nicht mehr weiter ^^ Die Vorteile von beiden Sachen zu nutzen wären eigentlich optimal in jeder Hinsicht ;D