Vorstellung meines geplanten Workflows + Fragen

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Vorstellung meines geplanten Workflows + Fragen

    Anzeige
    Moin!

    Bevor ich mit meinem ersten Thread hier loslege, erst mal ein großes Lob an dieses Forum. Soviel geballtes Wissen, alles wird im Detail beleuchtet. Klasse!

    Ich habe bereits Stunden mit dem Lesen hier im Forum verbracht und bin schon um einiges schlauer als am Anfang. Aber wie es nun mal so ist: Je mehr man weiß, umso mehr neue Fragen tauchen auf ;)

    Ich will euch hier mal meinen geplanten Workflow zur Erstellung ansehnlicher Youtube-Videos vorstellen. (Für die meisten hier wird das aber nichts bahnbrechend Neues sein)

    Rechner-Specs:
    • [lexicon]CPU[/lexicon]: Core2 Quad Q9550 2,83 Ghz
    • Festplatten:
      Seagate SATA 500GB, 7200 rpm, (Systemplatte)
      externe Samsung 1 TB 7200 rpm SATA in Sharkoon Quickport Pro Dockingstation (seqRead 73 MB/s, seqWrite 67 MB/s) (Arbeitsplatte)
    • GraKa: Club3D 4870 HD OE
    • Speicher: 8 GB
    • [lexicon]Headset[/lexicon]: Sennheiser PC 330 Game

    1. Capture
      Software: [lexicon]MSI Afterburner[/lexicon], ([lexicon]DXtory[/lexicon])

      Nachdem ich [lexicon]OBS[/lexicon] (On the fly Encoding mag mein Rechner nicht) und PlayClaw5 (brachte [lexicon]Minecraft[/lexicon] zum Absturz) getestet hatte, hab ich mich nach weiteren Tests auf [lexicon]Afterburner[/lexicon] festgelegt. [lexicon]DXtory[/lexicon] klingt interessant, habe ich aber noch nicht getestet. Mir gefällt die "Extract Audio" Funktion im Kontext Menü, aber dafür alleine lohnt sich natürlich nicht der Kauf ;)

      Eingestellt habe ich [lexicon]Afterburner[/lexicon] nach den Vorgaben im kürzlich von Demon erstellten (und zukünftig von Gelber Drache erweiterten) Tutorial.

      Das Capture selber geht flüssig über die Bühne. Wenn ich mir das Ergebnis im [lexicon]MPC[/lexicon] ansehe, sieht auch alles gut aus. Nur der Ton meiner Headsetaufnahme ist in Mono. Ich hör den also nur aus der rechten Ohrmuschel. Das möchte ich im fertigen YT-Video natürlich nicht so haben.

      Bei den [lexicon]FPS[/lexicon] habe ich 41 eingestellt. cojahn sagt zwar in seinem Video-Tut zu [lexicon]DXtory[/lexicon]-[lexicon]SSM[/lexicon]-[lexicon]MeGUI[/lexicon], dass es keinen Sinn macht mit mehr als 30 [lexicon]FPS[/lexicon] aufzunehmen. Ich habe allerdings hier im Forum irgendwo gelesen, dass man besser mit mehr [lexicon]FPS[/lexicon] captured - mindestens mit 41 [lexicon]FPS[/lexicon]. Ich finde aber leider den Thread nicht mehr und hab auch vergessen, was der Grund war :whistling:

      Meine Fragen in diesem Bereich:
      1. Warum sollte man mit mehr als 30 [lexicon]FPS[/lexicon] aufnehmen? Und woher kommt der Wert 41 [lexicon]FPS[/lexicon]?
      2. Audio nur Mono: Habe ich in [lexicon]Afterburner[/lexicon] was falsch eingestellt oder ist das normal und man konvertiert das später in [lexicon]Audacity[/lexicon] zu Stereo?

    2. Videobearbeitung
      Software: Sony Movie Studio (Vegas ist mir zu teuer)

      Videobearbeitung würde ich gerne in einer [lexicon]NLE[/lexicon] machen. Hauptgrund: Ich bin ein sehr visuell orientierter Mensch. Ich muss direkt sehen können, was ich mache und was passiert. Ich kann mir das schlecht in Zahlen und Befehlen vorstellen.

      Ich lese hier immer wieder, dass man Videobearbeitung auch mit [lexicon]SSM[/lexicon] und [lexicon]MeGUI[/lexicon] machen könne. Ich habe aber bisher kein Tut gefunden, wo jemand tatsächlich ein Video kreativ(!) mit diesen Tools bearbeitet, also mit Vorspann, Abspann, Texteinblendungen, Zeitraffer, Überblendeffekte etc. Daher kann ich mir zur Zeit schwer vorstellen, wie sowas in der Praxis abläuft. Da man ja aber in seinen Videos, nicht tausend Effekte nutzt, sondern sich meist auf ein paar wenige einschießt, wäre die Videobearbeitung mit [lexicon]SSM[/lexicon] und [lexicon]MeGUI[/lexicon] für mich grundsätzlich schon eine Option. Der Aufwand muss sich aber in gewissen Grenzen halten.

      Dazu kommt, dass ich nicht selber skripten kann. Vorgefertigte Skripte anpassen: ja - aber mehr auch nicht. Vorgefertigte "Kreativ"-Skripte, die bestimmte aus NLEs bekannte Effekte umsetzen, konnte ich leider bisher nicht finden.

      Was micht an NLEs stört ist, das sie oft das [lexicon]Rohmaterial[/lexicon] beim Import verändern. Sony Movie soll z.B. immer alles in RGB wandeln.

      Optimal wäre wohl aus meiner Sicht ein [lexicon]NLE[/lexicon] mit avs-Export. Dann würde man im [lexicon]NLE[/lexicon] praktisch nur die Regieanweisung für [lexicon]MeGUI[/lexicon] zusammenklicken. Das [lexicon]Rohmaterial[/lexicon] bliebe dann im Originalzustand (oder?)

      Meine Fragen zu diesem Bereich:
      1. Ist mein [lexicon]NLE[/lexicon] eine gute Wahl (mal abgesehen von der Tatsache, das NLEs nie eine gute Wahl sind ;) )?
      2. Gibt es noch andere NLEs mit [lexicon]Frameserver[/lexicon]-Unterstützung ([lexicon]Adobe[/lexicon], Pinnacle, [lexicon]Magix[/lexicon] etc)
      3. Gibt es NLEs mit avs Export?
      4. Mit welcher Software macht ihr Vor- und Abspann für eure YT-Videos?
      5. Gibt es Tutorials für kreative Videobearbeitung mit [lexicon]SSM[/lexicon] und [lexicon]MeGUI[/lexicon]?
      6. Wo kann ich vorgefertigte Skripte finden, die [lexicon]NLE[/lexicon]-typische Effekte nachbilden?

    3. Encoding
      Software: Debug Framserver, [lexicon]SSM[/lexicon], [lexicon]MEGUI[/lexicon], MKmerge usw.

      Das Encoding möchte ich gerne über den [lexicon]Frameserver[/lexicon] auslagern und mit den erwähnten Tools umsetzen. Das kann ich auch erstmal kurz abhandeln, denn zur korrekten Verwendung dieser Tools gibt es viele gute Tuts hier. Fragen werden bei mir wohl erst bei Problemen während der praktischen Verwendung aufkommen.

      Daher gibts in diesem Bereich (erst mal) keine Frage-Sektion ;)

    4. Audio
      Software: [lexicon]Audacity[/lexicon]

      Auch hier ist mir zur Zeit alles soweit klar. Mit [lexicon]Audacity[/lexicon] will ich halt mein Audio aufbessern. Daher gibts auch hier von meiner Seite zunächst keine Fragen, bis auf vielleicht:

      1. Wie wandel ich mein Mono-Sound vom [lexicon]Headset[/lexicon] aus [lexicon]Afterburner[/lexicon] in Stereo um bzw sollte ich diesen Weg überhaupt wählen?

    Sorry, ist etwas lang geworden. Aber ich hoffe, ich hab es einigermaßen übersichtlich aufbereitet ;)

    Gruß
    Naachoo
  • Hallo erstmal und willkommen im Forum :D

    Grundsätzlich fallen mir schon mal 2 Sachen auf:
    1. Der Prozessor... ich denke der könnte später Probleme bereiten.
    2. Genauso wie die Festplatte. Eine gute Aufnahmeplatte sollte mehr als 100 MB/s

    Beides kann späte dazu führen, dass der Encode langsam ist und die Aufnahme ruckelt.
    Dazu musst du dich entscheiden, was dir besonderes wichtig ist: Die Qualität, die Kompression (wie groß wird das Video bei einer gleichen Qualität) und einem möglichst geringen Zeitaufwand.
    Zwei von den Sachen darfst du wählen ;)
    Ich gehe mal davon aus, dass du Qualität haben willst. Kompression ist bei einer schwachen Internetleitung wichtig, der Zeitaufwand bei einem schwachen Prozessor.
    Ich versuch mal alles nacheinander zu beantworten ;)

    Naachoo schrieb:

    1. Warum sollte man mit mehr als 30 FPS aufnehmen? Und woher kommt der Wert 41 FPS?


    1. Je höher der FPS Wert, desto flüssiger das Video :)
    2. Jetzt wird es etwa komplizierter.

    Egal wie qualitativ gut du dein Video machst, Youtube macht dir immer einen Strich durch die Rechnung.
    YT encodiert das Video nochmal neu und setzt für jede Stufe eine maximale Bitrate. Bei 1080p wäre das (glaub ich) 8000 kbit/s. Auf jeden Fall so wenig, dass dein Video verpixelt, insbesondere komplexeres Material (The Witcher, ARMA3, ...)
    Ab 41 FPS schaltet YT aber den HFR (High Frame Rate) Encode frei und die maximale Bitrate wird stark erhöht = bessere Qualität.
    Bei 41 FPS hat man sogar die beste Qualität bei einer Auflösung. Denn je höher die FPS, desto mehr Bitrate muss YT wieder verteilen. Dennoch erhöht sich mit den FPS auch die Flüssigkeit.

    50 FPS ist dabei ein guter Kompromiss. Jedoch muss du die FPS immer mit deinem System abstimmen. Wenn das keine >30 FPS verträgt und ruckelt, dann lieber bei 30 FPS bleiben; ruckelfrei ;)
    Man kann den FPS Wert dann später mit SSM künstlich erhöhen um den HFR Encode zu bekommen.

    Naachoo schrieb:

    Audio nur Mono: Habe ich in Afterburner was falsch eingestellt oder ist das normal und man konvertiert das später in Audacity zu Stereo?


    Einmal ein Bild von dem Reiter "Videoaufnahme" beim Afterbruner. Deine Soundkarte/ -chip muss natürlich auf Stereo gestellt werden.

    Naachoo schrieb:

    Dazu kommt, dass ich nicht selber skripten kann. Vorgefertigte Skripte anpassen: ja - aber mehr auch nicht. Vorgefertigte "Kreativ"-Skripte, die bestimmte aus NLEs bekannte Effekte umsetzen, konnte ich leider bisher nicht finden.


    Gibt es nicht, da diese Art von Bearbeitung auf jedes Video neu angewendet werden muss. AVISynth weiß ja nicht wo es jetzt genau was hinsetzten soll, wenn du es ihm nicht jedes mal neu sagst ;)

    Naachoo schrieb:

    1. Ist mein NLE eine gute Wahl (mal abgesehen von der Tatsache, das NLEs nie eine gute Wahl sind )?


    Auch wenn ich weiß, dass es technisch gesehen eine schlechte Wahl ist, würde ich eine gute NLE immer empfehlen :D Videobearbeitung muss auch meiner Meinung nach Spaß machen und wenn man den Encode auslagert, dann hat man nur noch die Decoder Probleme und die Farbraumkonvertierung als kleineres Übel übrig. Die reine Bearbeitung ist bei NLEs natürlich viel besser. Allein schon wegen der Timeline und dem Player, dazu kommen die vorgefertigten Filter und Effekte.

    Naachoo schrieb:

    2. Gibt es noch andere NLEs mit Frameserver-Unterstützung (Adobe, Pinnacle, Magix etc)


    Adobe und Sony Produkte und Blender (auch wenn es keine NLE im eigentlichen Sinne ist ;) ) kommen noch:
    Ulead MediaStudio Pro - tested with MSP 7.0
    Ulead VideoStudio - tested with VideoStudio 8.0
    Pure Motion EditStudio - tested with EditStudio 6.0
    DebugMode Wax - works with Wax 2.0e and above​


    Naachoo schrieb:

    3. Gibt es NLEs mit avs Export?


    Nein da der Non-lineare Videoschnitt mit dem linearen Videoschnitt von AVISynth inkompatibel ist. :/

    Naachoo schrieb:

    4. Mit welcher Software macht ihr Vor- und Abspann für eure YT-Videos?


    Intro mit Blender (3D-Bearbeitung) und Outro mit GIMP + Magix (als NLE)

    Naachoo schrieb:

    5. Gibt es Tutorials für kreative Videobearbeitung mit SSM und MeGUI?


    Wahrscheinlich.... die Frage ist ob du dir das antun möchtest.
    Von Kreativität bleibt da nämlich nicht mehr viel übrig. Du musst halt beachten wo für AVISynth programmiert wurde. Das ist ja nichts weiter als ein Frameserver, der hauptsächlich für professionelle Nachbearbeitung, Restaurierung etc... entwickelt wurde.
    Klar, damit kannst du theoretisch alles machen wie mit einer NLE. Nur kannst du hier alles schön selber in Skripen schreiben. Für ein Effektefeuerwerk sind NLEs eher gedacht. Oder denkst du die meisten Filmeproduzenten setzen sich an AViSynth und schreiben für alles ein Skript xD
    Hier spielen sich halt die Vorteile der NLEs dar. Auch der Non-lineare Videoschnitt kommt hier zum Vorscheinen.
    Spoiler anzeigen

    Zum Beispiel ein Musikstück in die Timeline legen von 30min
    Das Video drüberlegen von 5 min.
    Das Video immer verschieben und hören was am besten passt.
    Audiospur zurechtschneiden
    Bild hinzufügen
    Bild im Player skalieren und an die richtige Position schieben.
    Einblenden und Ausblenden in der Timeline einstellen.
    2 Sekunden von Video rausschneiden, Zeitlupeneffekt drauflegen, Videospur anpassen.

    Versuch das mal mit AVISynth in der gleichen Zeit zu schaffen xD​


    Naachoo schrieb:

    Wo kann ich vorgefertigte Skripte finden, die NLE-typische Effekte nachbilden?


    avisynth.nl/index.php/Internal_filters
    avisynth.nl/index.php/External_filters

    Viel Spaß beim suchen :)

    Naachoo schrieb:

    Software: Debug Framserver, SSM, MEGUI, MKmerge usw.


    Bzw, MP4Box, falls dir MP4 als Container eher zusagt xD

    Naachoo schrieb:

    1. Wie wandel ich mein Mono-Sound vom Headset aus Afterburner in Stereo um bzw sollte ich diesen Weg überhaupt wählen?


    youtube.com/watch?v=HLiQItUcXt4

    Ist eigentlich egal, obwohl manche Mono bevorzugen.

    Ich hoffe ich konnte dir weiterhelfen ^^
    ~ Let's plays, Animes, Cinematics, Zeichnungen ~ :D
  • Naachoo schrieb:

    2. Gibt es noch andere NLEs mit Frameserver-Unterstützung (Adobe, Pinnacle, Magix etc)


    Den DebugMode Frameserver: debugmode.com/frameserver/
    Sony Vegas Pro - tested with Vegas 13.0 and Vegas 13.0+
    Adobe Premiere Pro - tested with CS6 and Elements 9.0
    Ulead MediaStudio Pro - tested with MSP 7.0
    Ulead VideoStudio - tested with VideoStudio 8.0
    Pure Motion EditStudio - tested with EditStudio 6.0
    DebugMode Wax - works with Wax 2.0e and above


    Den Advanced Frameserver: sourceforge.net/projects/advancedfs/
    Adobe Premiere CS5.x

    based on DebugMode FrameServer


    Für VirtualDub selbst den Virtual Dub Frameserver: virtualdub.sourceforge.net/
    Ist in VirtualDub integriert und muss ledeglich nur aktiviert werden.
    Der Frameserver kann dann ausschließlich in VirtualDub angewendet werden.

    Blender Frameserver: blender.org/download/
    Der Blender Frameserver ist ausschließlich in Blender nutzbar und auch ausschließlich mit Linux Systemen richtig anwendbar.
    Hierbei werden die Frames auf eine Server Adresse geleitet wo sie als durchnummerierte Einzel Bilder/Frames darliegen.
    Mit einer Linux Command Batch lassen sich diese Bilder vom Server zu einem Encoder schicken wie FFMpeg z.B.

    AVISynth: avisynth.nl/index.php/Main_Page
    AVISynth ist ebenfalls ein Frameserver, der aber nicht auf VFW Basis basiert. Sprich keine NLE kann AVISynth ohne weiteres verwenden. Die Aufgabe von AVISynth ist eher eine Direkte Verbindung von Quellmaterial und Zielencoder zu gewährleisten.
    Sprich ein für Encoder ungeeignetes Material lesbar zu machen.
    Da AVISynth auch für Restaurationen vorgesehen war und ist, gibt es natürlich auch massig Grafische Sachen um Videos zu ändern oder komplett neu zu erstellen.
    Sprich in erster Linie ist es ein Frameserver, in zweiter ein Bearbeitungstool.

    Das sind erst mal alle mir bekannten.
    Sollte eine NLE kein Frameserver verwenden können, so sollten Videos im Idealfall Lossless im RGB Farbraum ausgegeben werden, sollte eine Verwendung eines externen Encoders geschehen der nicht auf VFW basiert. z.B. der in MeGUI befindliche x264cli Encoder.
    Dies wäre dann Zeitaufwändiger, würde aber den gleichen Effekt erziehlen.

    Naachoo schrieb:

    3. Gibt es NLEs mit avs Export?


    Jein.
    Ja im Falle von gut programmierten Tools. Sprich eine NLE auf Basis von AVISynth zu machen wäre gar nicht so abwegig zu gestalten. An sich würde ich aber ein Node Programm eher vorziehen dafür ^^ Halt so wie bei Blender auch ^^ Würde dann so wie die Filter in AVISynth aufgebaut sind sich auch sehr gut machen damit ^^

    Node Programm Beispiel anhand von Blender:


    Eine 0850 GUI wäre der SSM der eine AVS Ausgabe erzeugt.
    Ein guter Editor der auch beim SSM mit beiliegt wäre der AVSPmod Editor.

    Der AVSPmod Editor ist extra für AVISynth entwickelt worden und verfügt über interne Vorschau und Externe Vorschau, sowie Hervorhebung von Skripttexten.
    Mit Pearl lassen sich sogar eigene kleine Makros schreiben.
    Der AVSPmod ist unverzichtbar wenn man eigene Skripte schreiben will. Vor allem eigene Effekte zusammenbastelt.
    Der AVSPmod hat selbstverständlich ebenfalls eine AVS Ausgabe.

    Nein im Sinne von das AVISynth ein Frameserver ist der bestehende Quellen benötigt und somit ungeeignet ist es mit NLEs wie Vegas direkt zu verknüpfen.

    Frameserver wie der DebugMode Frameserver und der Advanced Frameserver sind Anwendungen die die berechneten (gerenderten) Bilder/Frames von der NLE bekommen und warten bis es ein anderes Tool es anfordert.

    AVISynth hingegen macht dies auch, aber das macht es indem das Medium unabhängig aufgerufen wird.
    Beim DebugMode Frameserver und Advanced Frameserver ist es abhängig das der Frameserver mit der NLE weiter läuft.

    Daher ist AVISynth ein unabhängiger Frameserver. Er kann jeder Zeit überall verwendet werden. Und es ist auch egal wieviele Skripte gleichzeitig encodiert werden.

    Naachoo schrieb:

    6. Wo kann ich vorgefertigte Skripte finden, die NLE-typische Effekte nachbilden?

    Naachoo schrieb:

    5. Gibt es Tutorials für kreative Videobearbeitung mit SSM und MeGUI?


    Selber ausdenken. Klingt schwierig jetzt für einen Anfänger vllt. Aber das ist wirklich so das man sich Effekte selber zusammenbasteln muss und auch ne sehr gute Vorstellungskraft haben muss.

    Beim SSM wenn du eine Vollinstalation machst sind auch Skriptbeispiele mit dabei. Unter anderem wie Effekte eingearbeitet sind mit Vorschau über den AVSPmod zu begutachten dann.

    Beispiele auf YT vom SSM:
    youtube.com/watch?v=k3GeLih9SO8
    youtube.com/watch?v=UPONbBj3-LM
    youtube.com/watch?v=2wxRbdvMjTo
    youtube.com/watch?v=SSPCRAOU46o
    youtube.com/watch?v=YD2EPb1USBs
    youtube.com/watch?v=a-O3GbNz1Jg
    youtube.com/watch?v=gyOveEONlp4
    youtube.com/watch?v=1pLxuhbjySc
    youtube.com/watch?v=PeBupOtMs8g

    Wie das alles mit AVISynth und AVSPmod geht musste dir entweder
    1. selbst beibringen
      [lexicon]avisynth[/lexicon].nl/index.php/Internal_filters
      [lexicon]avisynth[/lexicon].nl/index.php/External_filters
      Im Tutorial Bereich hier im Forum ist noch irgendwo ein angefangenes [lexicon]AVISynth[/lexicon] Tutorial von mir, das du dir anschauen könntest.
    2. von jemandem beibringen lassen
      Würde dir da gewiss bei helfen.
      Aber... und das sag ich dir gleich... Geduld, gutes Vorstellungsvermögen und viel Verständnis gehören dazu ;D
      Wenn du den [lexicon]SSM[/lexicon] komplett installierst, hast du schon mal einiges zur Hand was man sich sonst aus dem Netz mühselig hätte runterladen müssen ^^

    Kostenlos Kreativ weiter kann man gehen mit Blender. Blender wäre dann sozusagen das kostenlose After Effects.
    Für Blender gibt es zig gute Tutorials auf YT und auch schriftlich im Netz zu finden mit Bildern und Co.

    Ein Beispiel von mir was ich mit Blender mal gemacht habe:
    youtube.com/watch?v=HeOdHH57jWc
    youtube.com/watch?v=WA-8m3c4OzQ (Das Intro nur)
    youtube.com/watch?v=uDNDerhyFCM (Mischung aus Blender, AVISynth und Aegisub)


    Naachoo schrieb:

    1. Wie wandel ich mein Mono-Sound vom Headset aus Afterburner in Stereo um bzw sollte ich diesen Weg überhaupt wählen?

    Brauchst du nicht umwandeln. Höstens wenn es ein Problem mit der Balance gibt. Sprich das du diese Spur nur noch rechts hörst oder nur links. An sich wird sonst diese Monospur in deine NLE geladen samt der Gamesoundspur und dann halt alles in Stereo zusammengemischt. Dabei sollte die Monospur in der Regel auf Rechts und Links zu hören sein dann. Sprich das macht deine NLE von ganz alleine dann. ^^

    Auch Audacity würde das ebenfalls so machen, wenn du es dort mischen lassen würdest. Dafür reicht es beide Tonspuren (Mikro mit Mono und Gamesound mit Stereo) in Audacity zu laden und sie dann als PCM WAV 44100Hz, 16bit, Stereo exportieren zu lassen.

    Audacity ändert dann die Spuren von ganz alleine und macht aus dem Monokanal automatisch eine Stereospur so das Mikrofon auf links und rechts aufgeteilt werden.

    Naachoo schrieb:

    1. Warum sollte man mit mehr als 30 FPS aufnehmen? Und woher kommt der Wert 41 FPS?


    Mehr als 30 FPS um den HFR Encode von Youtube zu bekommen.
    Diese high frame rates sehen nicht nur besser aus, sondern bekommen von Youtube aus mehr Bitrate zur Verfügung. Ab 41 wird der glaub ich freigeschaltet erst, wenn ich mich jetzt nicht irre.

    Du musst nicht mehr als 30 FPS aufnehmen. Du kannst. Es ist kein Zwang dahinter.
    Ich habe hier z.B. Spiele wie Diablo 1 und 2 die machen nicht mehr als 25 FPS und Desperados macht sogar nur 22 FPS Ingame. Also warum mit mehr FPS aufnehmen? ^^ Lieber die Festplatte dann etwas schonen ^^

    Wenn du mit niedriegeren FPS aufnimmst. Sagen wir mal einfach 30 FPS, dann kann man diese in 41+ FPS bis 60 FPS hochrechnen lassen. Dabei werden dann Frames kopiert.

    Sehen würde man zwars immer noch die Grund FPS mit 30, aber von YT bekommst du dann den HFR Encode da das tatsächliche Video mehr FPS hat. Und somit bekommt das Video mehr Bitrate und damit auch mehr Qualität, da an sich ja nur Frame Kopien vorliegen ^^

    Halt YT ein wenig verarschen sozusagen ^^

    Naachoo schrieb:

    2. Audio nur Mono: Habe ich in Afterburner was falsch eingestellt oder ist das normal und man konvertiert das später in Audacity zu Stereo?


    Afterburner nimmst die Einstellungen vom Gerätetreiber. Diese müsstest du umstellen, wenn Afterburner so aufnehmen soll.

    Ideal:
    Spur1: Systemsound: 44100Hz, 16Bit, stereo
    Spur2: Mikrofon: 44100Hz, 16Bit, mono

    Gut:
    Spur1: Systemsound: 44100Hz, 16Bit, stereo
    Spur2: Mikrofon: 44100Hz, 16Bit, stereo

    Übertrieben und Sinnlos:
    Spur1: Systemsound: 192000Hz, 32Bit, 5.1
    Spur2: Mikrofon: 48000Hz, 32Bit Float, Stereo


    xD

    Untertrieben und auch Sinnbefreit:
    Spur1: Systemsound: 22050Hz, 16Bit, stereo
    Spur2: Mikrofon: 22050Hz, 8Bit, mono


    Also... am besten ich streich gleich die letzten beiden Einstellungen ;D
  • Wow! Ich danke artig für eure unglaublich detailierten Antworten :D

    Die meisten meiner Fragen habt ihr damit schon beantwortet.

    GrandFiredust schrieb:

    1. Der Prozessor... ich denke der könnte später Probleme bereiten.
    2. Genauso wie die Festplatte. Eine gute Aufnahmeplatte sollte mehr als 100 MB/s

    Beides kann späte dazu führen, dass der Encode langsam ist und die Aufnahme ruckelt.

    Ich dachte, das die Festplattengeschwindigkeit in erster Linie beim Capture wichtig ist, da dabei ja meist riesige Datenmengen auf die Platte geschaufelt werden. Beim Encoden selber dann auch? Hier hätte ich gedacht, das mein Pozessor eher der Flaschenhals ist. Zumindest die 41 FPS Aufnahme mit Afterburner hat gut geklappt. Das waren aber zugegebenermaßen auch recht kurze Clips.


    GrandFiredust schrieb:

    Ich gehe mal davon aus, dass du Qualität haben willst. Kompression ist bei einer schwachen Internetleitung wichtig, der Zeitaufwand bei einem schwachen Prozessor.

    Ja, Quali hat Priorität. Die Wahl fällt schwer, denn ich hab ne schwache Internetleitung und ne schwache CPU. :whistling: Ich hab eine 6000er Leitung mit theoretischem Upload von 576 kbit/s. Zur Zeit habe ich zudem noch ein Problem mit meiner Upload-Geschwindigkeit, die liegt aktuell bei mageren 120 kbit/s. Muss wahrscheinlich mal den Provider anhauen.
    Daher würde ich im Moment sagen: Lieber länger encoden für möglichst kleine Dateien.


    GrandFiredust schrieb:

    50 FPS ist dabei ein guter Kompromiss. Jedoch muss du die FPS immer mit deinem System abstimmen.

    Also Minecraft hat bei mir recht stabile 70 FPS, die aber natürlich während der Aufnahme noch etwas einbrechen (Ich weiß jetzt gerade den Wert nicht). 41 FPS scheint aber zu funktionieren.


    GrandFiredust schrieb:

    Man kann den FPS Wert dann später mit SSM künstlich erhöhen um den HFR Encode zu bekommen.


    Sagaras schrieb:

    Wenn du mit niedriegeren FPS aufnimmst. Sagen wir mal einfach 30 FPS, dann kann man diese in 41+ FPS bis 60 FPS hochrechnen lassen. Dabei werden dann Frames kopiert.

    Würde sich durch diese Neuberechnung die Zeit fürs encoden stark verlängern? In dem Fall würde ich nämlich lieber gleich mit der nötigen FPS aufnehmen. Wobei die kleinere Datenmenge bei niedrigeren FPS auch nicht zu verachten ist.


    GrandFiredust schrieb:

    Einmal ein Bild von dem Reiter "Videoaufnahme" beim Afterbruner. Deine Soundkarte/ -chip muss natürlich auf Stereo gestellt werden.

    Hier das Bild mit den Audioeinstellungen in Afterburner:



    Sagaras schrieb:

    Afterburner nimmst die Einstellungen vom Gerätetreiber. Diese müsstest du umstellen, wenn Afterburner so aufnehmen soll.

    Ideal:
    Spur1: Systemsound: 44100Hz, 16Bit, stereo
    Spur2: Mikrofon: 44100Hz, 16Bit, mono

    Upps, hier stand noch alles auf Studioqualität (24 bit, 48000 Hz)
    Ich kann aber gar kein Mono einstellen. Alle Vorgaben sind mit "2 Kanal" bezeichnet. Wundert mich daher, warum Afterburner in Mono aufnimmt. Oder bedeutet "2 Kanal" gar nicht "Stereo"?


    Sagaras schrieb:

    Den DebugMode Frameserver: debugmode.com/frameserver/

    Sony Vegas Pro - tested with Vegas 13.0 and Vegas 13.0+

    Hier steht jetzt nur Sony Vegas. Mit dem abgespeckten Sony Movie Studie geht es aber auch, oder?


    Sagaras schrieb:

    Ja im Falle von gut programmierten Tools. Sprich eine NLE auf Basis von AVISynth zu machen wäre gar nicht so abwegig zu gestalten. An sich würde ich aber ein Node Programm eher vorziehen dafür Halt so wie bei Blender auch Würde dann so wie die Filter in AVISynth aufgebaut sind sich auch sehr gut machen damit

    Komisch, dass noch keiner auf die Idee gekommen ist sowas umzusetzen. Also wenn ich die Motivation für ein Startup hätte ... ;)

    Danke übrigens, Sagaras, für deine vielen Infos zum Thema "kreative Videobearbeitung mitt SSM und MeGUI" und für dein Angebot mich beim Einarbeiten zu unterstützen. Ich glaube aber, da muss ich aus Zeitgründen passen. Hab ich mir echt zu einfach vorgestellt.

    Apropos: Ich kann dir ja mal beschreiben wie ich mir die Videobearbeitung laienhaft vorgestellt habe, als ich das erste mal von deinem Scriptmaker gelesen habe (aber bitte nicht zu laut lachen ;) ) :
    Mal angenommen ich habe 2 Videoclips mit kurzen LetsPlay-Szenen, die zu einem Video werden sollen, wobei Clip 1 mit Effekt XY zu Clip 2 übergeblendet werden soll. Also voll motiviert ans Werk: SSM starten, Clip 1 und Clip 2 reinziehen, dann die unglaublich gut sortierte Skript-Bibliothek öffnen und das Skript "Überblendeffekt XY" zwischen Clip1 und Clip2 droppen, doppelklick auf Skript, im sich öffnenden Dialog alle Skriptparameter per Regler einstellen (inklusive Vorschau natürlich), bestätigen, Skript aus SSM exportieren, in MeGUI rein, encoden, FERTIG! (voll stolz).

    Inzwischen kann ich erahnen, das sowas technisch wohl nicht mal ansatzweise umzusetzen ist. Aber so denkt man erstmal als Laie. :D (Würde es tatsächlich so ähnlich funzen, könnte ich mir Videobearbeitung mit SSM und MeGui vorstellen ;) )


    Sagaras schrieb:

    Kostenlos Kreativ weiter kann man gehen mit Blender. Blender wäre dann sozusagen das kostenlose After Effects.
    Für Blender gibt es zig gute Tutorials auf YT und auch schriftlich im Netz zu finden mit Bildern und Co.

    Kann man denn mit Blender auch reine 2D-Intros/Outros machen? Oder ist Blender wirklich komplett auf 3D ausgelegt? 3D brauch ich nicht unbedingt (Obwohl deine Intros schon klasse aussehen!)

    So dann bin ich erstmal durch.

    Nebenbei bemerkt: Diese Zitateverwaltung hier im Forum ist echt plusquam-perfekt! Beim Antworten wirklich sehr hilfreich :D Habe ich in anderen Forum noch nie so gesehen.

    Gruß
    Naachoo

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Naachoo ()

  • Anzeige

    Naachoo schrieb:

    Danke übrigens, Sagaras, für deine vielen Infos zum Thema "kreative Videobearbeitung mitt SSM und MeGUI" und für dein Angebot mich beim Einarbeiten zu unterstützen. Ich glaube aber, da muss ich aus Zeitgründen passen. Hab ich mir echt zu einfach vorgestellt.

    Apropos: Ich kann dir ja mal beschreiben wie ich mir die Videobearbeitung laienhaft vorgestellt habe, als ich das erste mal von deinem Scriptmaker gelesen habe (aber bitte nicht zu laut lachen ) :
    Mal angenommen ich habe 2 Videoclips mit kurzen LetsPlay-Szenen, die zu einem Video werden sollen, wobei Clip 1 mit Effekt XY zu Clip 2 übergeblendet werden soll. Also voll motiviert ans Werk: SSM starten, Clip 1 und Clip 2 reinziehen, dann die unglaublich gut sortierte Skript-Bibliothek öffnen und das Skript "Überblendeffekt XY" zwischen Clip1 und Clip2 droppen, doppelklick auf Skript, im sich öffnenden Dialog alle Skriptparameter per Regler einstellen (inklusive Vorschau natürlich), bestätigen, Skript aus SSM exportieren, in MeGUI rein, encoden, FERTIG! (voll stolz).

    Inzwischen kann ich erahnen, das sowas technisch wohl nicht mal ansatzweise umzusetzen ist. Aber so denkt man erstmal als Laie. (Würde es tatsächlich so ähnlich funzen, könnte ich mir Videobearbeitung mit SSM und MeGui vorstellen )


    Kann dir ja mal ein Skriptbeispiel zeigen, wo ich ein Zoomeffekt erarbeitet habe wo sich 2 Displays Auflösungsmäßig sich tauschen. Das Video war sogar schon von mir oben gezeigt ^^

    Das Video: youtube.com/watch?v=k3GeLih9SO8

    Das Skript dazu:
    Spoiler anzeigen

    Quellcode

    1. #Aufnahme vom NDS mit zwei Displays
    2. #RGB24 oder YV24 ist wichtig, da nur diese Farbräume sowohl von der Höhe als auch von der Breite Mod 1 fähig sind. Wird benötigt um den Bildwechsel zu Animieren
    3. #Für Testzwecke in diesem Beispiel, wird statt eines Videos ein Bild genommen.
    4. #Video = AVISource("NDS.avi").AssumeFPS(30, 1).ConvertToYV24()
    5. Video = ImageReader(".\Bilder\NDS Aufnahmebild.png", 0, 1000, 30, true).ConvertToYV24()
    6. #Aufnahme in Oberen und Unteren Bildschirm aufteilen und global setzen
    7. global Oben = Video.Crop(2, 0, -2, -288)
    8. global Unten = Video.Crop(2, 288, -2, -0)
    9. #Hintergrund mit einer eindeutigen Farbe
    10. #Back = BlankClip(Video.framecount, 1920, 1080, "RGB24", Video.framerate, Video.frameratedenominator, color=$000000).KillAudio()
    11. #Hintergrund mit einem Bild
    12. Back = ImageReader("..\Backgrounds\Background_04.jpg", 0, Video.Framecount, 30, true).Spline16Resize(1920, 1080)
    13. #Größenangaben bei kleinen und großen Fenstern vordifinieren und global setzen
    14. global wmin = int(Oben.width*1.5)
    15. global hmin = int(Oben.height*1.5)
    16. global wmax = int(Oben.width * 3.4)
    17. global hmax = int(Oben.height * 3.4)
    18. global wmit = int(Oben.width * 2.45)
    19. global hmit = int(Oben.height * 2.45)
    20. #Die Funktionen Gleich und Tausch bestehen aus folgenden 4 Argumenten:
    21. # 1 - Die Fläche auf der gezeichnet werden soll
    22. # 2 - Der Startframe
    23. # 3 - Der Endframe
    24. # 4 - Bildverhalten (Siehe entsprechende Funktion für Einstellung)
    25. #Startwert
    26. Gleich(Back, 0, 100, 1)
    27. #Änderungswerte innerhalb des Videoverlaufes
    28. Tausch(101, 200, 0)
    29. Gleich(201, 300, 0)
    30. Tausch(301, 400, 1)
    31. Gleich(401, 500, 1)
    32. Tausch(501, 600, 2)
    33. Gleich(601, 700, 2)
    34. Tausch(701, 800, 5)
    35. Gleich(801, 900, 0)
    36. #Video die Audiospur wieder geben. Fertiges Video!!!
    37. #AudioDub(last, Video).ConvertToYV12()
    38. #Funktionen
    39. #Gleichbleibendes Display in entsprechender Größe
    40. #r = 0 - linkes Display klein, rechtes Display groß
    41. #r = 1 - linkes Display groß, rechtes Display klein
    42. #r = 2 - linkes Display + rechtes Display bleiben gleich groß (mitte)
    43. Function Gleich(clip draw, int fstart, int fend, int r) {
    44. clip1= (r == 0) ? Kleingleich(draw, Oben, fstart, fend, 0) : (r == 1) ? Grossgleich(draw, Oben, fstart, fend, 0) : (r == 2) ? Mittegleich(draw, Oben, fstart, fend, 0) : Mittegleich(draw, Oben, fstart, fend, 0)
    45. return (r == 0) ? Grossgleich(clip1, Unten, fstart, fend, 1) : (r == 1) ? Kleingleich(clip1, Unten, fstart, fend, 1) : (r == 2) ? Mittegleich(clip1, Unten, fstart, fend, 1) : Mittegleich(clip1, Unten, fstart, fend, 1)
    46. }
    47. #Tausch der Größe zwischen den Displays.
    48. #r = 0 - Linkes Display wird klein, rechtes Display wird groß,
    49. #r = 1 - Linkes Display wird groß, rechtes Display wird klein
    50. #r = 2 - Linkes Display wird von groß auf mitte, rechtes Display wird von klein auf mitte
    51. #r = 3 - Linkes Display wird von klein auf mitte, rechtes Display wird von groß auf mitte
    52. #r = 4 - Linkes Display wird von mitte auf groß, rechtes Display wird mitte auf klein
    53. #r = 5 - Linkes Display wird von mitte auf klein, rechtes Display wird von mitte auf groß
    54. Function Tausch(clip draw, int fstart, int fend, int r) {
    55. clip1 = (r == 0) ? Klein(draw, Oben, fstart, fend, 0) : (r == 1) ? Gross(draw, Oben, fstart, fend, 0) : (r == 2) ? Grossmitte(draw, Oben, fstart, fend, 0) : (r == 3) ? Kleinmitte(draw, Oben, fstart, fend, 0) : (r ==4) ? Mittegross(draw, Oben, fstart, fend, 0) : (r == 5) ? Mitteklein(draw, Oben, fstart, fend, 0) : Mitteklein(draw, Oben, fstart, fend, 0)
    56. return (r == 0) ? Gross(clip1, Unten, fstart, fend, 1) : (r == 1) ? Klein(clip1, Unten, fstart, fend, 1) : (r == 2) ? Kleinmitte(clip1, Unten, fstart, fend, 1) : (r == 3) ? Grossmitte(clip1, Unten, fstart, fend, 1) : (r == 4) ? Mitteklein(clip1, Unten, fstart, fend, 1) : (r == 5) ? Mittegross(clip1, Unten, fstart, fend, 1) : Mittegross(clip1, Unten, fstart, fend, 1)
    57. }
    58. #Größe bleibt gleich auf max
    59. Function Grossgleich(clip draw, clip clip0, int fstart, int fend, int l) {
    60. return ApplyRange(draw, fstart, fend, "Size", clip0, wmax, hmax, l)
    61. }
    62. #Größe bleibt gleich auf min
    63. Function Kleingleich(clip draw, clip clip0, int fstart, int fend, int l) {
    64. return ApplyRange(draw, fstart, fend, "Size", clip0, wmin, hmin, l)
    65. }
    66. #Größe bleibt gleich auf mitte
    67. Function Mittegleich(clip draw, clip clip0, int fstart, int fend, int l) {
    68. return ApplyRange(draw, fstart, fend, "Size", clip0, wmit, hmit, l)
    69. }
    70. #Größe ändert sich von min auf max
    71. Function Gross(clip draw, clip clip0, int fstart, int fend, int l) {
    72. return ApplyRange(draw, fstart, fend, "Animate", fstart, fend, "Size", clip0, wmin, hmin, l, clip0, wmax, hmax, l)
    73. }
    74. #Größe ändert sich von max auf min
    75. Function Klein(clip draw, clip clip0, int fstart, int fend, int l) {
    76. return ApplyRange(draw, fstart, fend, "Animate", fstart, fend, "Size", clip0, wmax, hmax, l, clip0, wmin, hmin, l)
    77. }
    78. #Größe ändert sich von min auf mitte
    79. Function KleinMitte(clip draw, clip0, int fstart, int fend, int l) {
    80. return ApplyRange(draw, fstart, fend, "Animate", fstart, fend, "Size", clip0, wmin, hmin, l, clip0, wmit, hmit, l)
    81. }
    82. #Größe ändert sich von groß auf mitte
    83. Function GrossMitte(clip draw, clip clip0, int fstart, int fend, int l) {
    84. return ApplyRange(draw, fstart, fend, "Animate", fstart, fend, "Size", clip0, wmax, hmax, l, clip0, wmit, hmit, l)
    85. }
    86. #Größe ändert sich von mitte auf min
    87. Function MitteKlein(clip draw, clip0, int fstart, int fend, int l) {
    88. return ApplyRange(draw, fstart, fend, "Animate", fstart, fend, "Size", clip0, wmit, hmit, l, clip0, wmin, hmin, l)
    89. }
    90. #Größe ändert sich von mitte auf max
    91. Function MitteGross(clip draw, clip clip0, int fstart, int fend, int l) {
    92. return ApplyRange(draw, fstart, fend, "Animate", fstart, fend, "Size", clip0, wmit, hmit, l, clip0, wmax, hmax, l)
    93. }
    94. #Resizen und zusammenfügen und das ganze zum Mainprozess wieder übergeben
    95. #Positionsangabe auf dem Gesamtbild
    96. Function Size(clip draw, clip clip0, int fw, int fh, int l) {
    97. clip0 = clip0.Spline16Resize(fw, fh)
    98. return (l == 0) ? Overlay(draw, clip0, 20, (draw.height - clip0.height) / 2) : Overlay(draw, clip0, draw.width - clip0.width - 20, (draw.height - clip0.height) / 2)
    99. }
    Alles anzeigen


    Wie du siehst ist so ein schier einfacher Effekt eine ziemliche Herausforderung, wenn man ihn sich selbst ausdenken muss.

    Allerdings muss ich gestehen das ich bereits von anderen Skriptmäßig mir ein paar kleine Ideen gekrallt habe und sie dann weiter und effektiver ausgebaut habe.

    Von der Idee zur Umsetzung sitzt ich meist sehr lange, wenn es was neues ist.

    z.B. habe ich für einen Blendeffekt, sprich zum Ein- und Ausblenden von Bildern oder Videos eine Funktion geschrieben an der ich fast 8 Stunden drangesessen habe wie es zu lösen ist. Später kamen dann kleinere Bugfixes zu diesen Effekten hinzu.

    Funktion dieses Blendeffekts sieht dann halt so aus:
    Spoiler anzeigen

    Quellcode

    1. # ===============
    2. # Blendfunktionen
    3. # ===============
    4. # clip0 - Das Bild auf das gezeichnet wird
    5. # clip1 - Das Bild was gezeichnet werden soll
    6. # mask - Die Maske für Clip1 -> Default = White clip1 Blankclip in RGB24
    7. # sframe - Der Startframe wo das ganze anfangen soll -> Default = 0
    8. # eframe - Der Endframe wo das ganze aufhören soll -> Default = 40
    9. # fadeinframe - Die Framelänge die das Fadein benötigt -> Default = 1
    10. # fadeoutframe - Die Framelänge die das Fadeout benötigt -> Default = 1
    11. # x - Der x Wert für Clip1 in Overlay an welcher Breitenposition positioniert werden soll -> Default = 0
    12. # y - Der y Wert für Clip1 in Overlay an welcher Höhenposition positioniert werden soll -> Default = 0
    13. # opa - Transparentmaximum max=1.0 min=0.0 -> Default = 1.0
    14. Function Blende (clip clip0, clip clip1, clip "mask", int "sframe", int "eframe", int "fadeinframe", int "fadeoutframe", int "x", int "y", float "opa") {
    15. mask = (IsClip(mask) == true) ? mask : BlankClip(0, clip1.width, clip1.height, "RGB24", clip1.frameratenumerator, clip1.frameratedenominator, color = $FFFFFF).KillAudio()
    16. sframe = Default(sframe, 0)
    17. eframe = Default(eframe, 40)
    18. fadeinframe = Default(fadeinframe, 10)
    19. fadeoutframe = Default(fadeoutframe, 10)
    20. x = Default(x, 0)
    21. y = Default(y, 0)
    22. opa = Default(opa, 1.0)
    23. clip0 = ApplyRange(clip0, sframe, eframe-fadeoutframe-1, "Animate", sframe, sframe+fadeinframe, "Overlay", clip1, x, y, mask, 0.0, clip1, x, y, mask, opa)
    24. return ApplyRange(clip0, eframe-fadeoutframe, eframe, "Animate", eframe-fadeoutframe, eframe, "Overlay", clip1, x, y, mask, opa, clip1, x, y, mask, 0.0)
    25. }
    Alles anzeigen


    Dieser Effekt ist bei NLEs eigentlich sehr typisch. Aber in AVISynth muss man sich das erst zusammenbasteln.

    Naachoo schrieb:

    Kann man denn mit Blender auch reine 2D-Intros/Outros machen? Oder ist Blender wirklich komplett auf 3D ausgelegt? 3D brauch ich nicht unbedingt (Obwohl deine Intros schon klasse aussehen!)


    2D, 3D ... Kannste dir aussuchen. Ist beides möglich damit.
    Aber genauso wie AVISynth auch... schwer zu erlernen. Du musst halt viel Zeit und Übung dareinstecken.

    Dafür sind beide Programme aber völlig Kostenlos.

    2D Blender Intros:
    Von mir was ich oben schon gezeigt
    hatte: youtube.com/watch?v=HeOdHH57jWc
    youtube.com/watch?v=uDNDerhyFCM

    Andere:
    youtube.com/watch?v=InGrXllEywI
    youtube.com/watch?v=oP-RF3vW_3k
    youtube.com/watch?v=rL7oZZjOndk
    usw...

    Du wirst auf YT einiges an Tutorials oder aber auch Templates finden können für Blender.

    Blender ist eigentlich sehr nice, wenn man weiß wie es geht ^^ Und zusammen mit AVISynth ergänzen sie sich dann auch sehr schön.

    Naachoo schrieb:

    Würde sich durch diese Neuberechnung die Zeit fürs encoden stark verlängern? In dem Fall würde ich nämlich lieber gleich mit der nötigen FPS aufnehmen. Wobei die kleinere Datenmenge bei niedrigeren FPS auch nicht zu verachten ist.

    Ein wenig verlängern, ja. Aber nicht massiv. Nicht das du jetzt denks bei 30 FPS encodiert das Video 2h und bei 60 FPS 4h xD
    Nee... Wird nur ein wenig angehoben. Je nach CPU Power und Komprimierbarkeit.




    PS:
    An sich ist eine NLE gar nicht mal so schlecht. Es kommt auf den Verwendungszweck und der Übersicht an.
    Bist du jemand der massig Effekte reinballern will oder zig tausende Cuts für ein Video macht, dann ist eine NLE anzuraten.
    Bist du jemand der nur einige wenige Effekte einfügen will und vllt nur sehr wenige Cuts macht, dann wäre eine NLE eventuell schon zuviel.

    Weil... man sollte sich überlegen in welchen Umfang man die NLE ausnutzt? Will ich nur schneiden und Encodieren oder mal ein total belanglosen Übergangseffekt reinmachen im Video, brauch ich keine NLE. Da wäre mir das Geld dann zu Schade für.

    Und gerade LPs brauchen an sich keine NLEs. Für was denn? ^^
    Selbst wenn ich Guides erstellen wollte, würde ich AVISynth nutzen.

    Nur wenn ich User mit Effekten zumüllen wollte wie LeFloid in seinen Videos des öfteren macht, dann würde ich zu einer NLE raten. Für LPs ist das aber nicht von Bedeutung.

    Gibt hier viele User im Forum die auch ohne NLE ihre LPs machen ^^

    Natürlich können, sofern das wieder andere lesen, uns streiten ob NLE jetzt Sinnvoll ist oder nicht. Im Endeffekt muss das jeder für sich entscheiden. ;D

    Weil ich finde NLEs ebenfalls sehr Übersichtlich. Von der Bedienung her will ich jetzt mal nix zu sagen. Da hab ich schon Sachen gesehen die... naja... nicht logisch erschienen ^^

    NLEs sind in meinen Augen halt sehr einfach zu Handhaben was das Schneiden an sich angeht. Und das ist ja oftmals das was viele wollen.

    Was mich an NLEs einfach stört ist dieser Filterzwang. Weiß ich welche Filter auf mein Video wirken wenn ich es reinlade? Nö, weiß ich nicht.

    Videos werden meist immer in RGB gewandelt.
    Camtasia z.B. deinterlaced Videomaterial wenn sie eingelesen werden und macht sogar einige Effekte über die Audiospuren rüber. Alles automatisch, ohne das man es sofort sieht oder hört. Halt keine Benachrichtigung dafür.

    Andere NLEs richten sich nach der Projektframerate und fangen an Videos die nicht dieser Framerate entsprechen zu konvertieren so das ein unbeliebtes Ghostingeffekt dann drin ist.

    Und auch das NLEs mit nahezu mitteralterlichen Formaten nicht mal mehr umgehen können ist fast schon zum heulen.

    Bzw. was dann auch den H264 Support angeht oft sind diese Formate dann sehr stark Beschränkt beim Einlesen. Somit sind H264 Profile wie High4:2:2 oder High4:4:4 gar nicht ladbar.

    High 4:4:4 hat man z.B. wenn man versucht mit x264 lossless auszugeben. Sprich bei OBS z.B. Lossless aufzeichnen. Kann in keine NLE geladen werden, weil der Flaschenhals das Profil ist ^^

    Und AVISynth und zur Not auch FFmpeg können schier fast alles De- und Encoden was es gibt. Die Möglichkeiten sind dort halt enorm groß.

    Ich bin mit AVISynth halt auch nicht unbedingt an RGB gebunden, sondern kann YV12 Quellen einfach in ein anderen Container in YV12 Encoden lassen. Dann habe ich kein Farbraumverlust. Bei NLEs ist dieser dann bei selbiger Quelle dann doch schon vorhanden.

    Ein kleines Beispiel:
    Aufgenommen wurde in 320x200 (16:10) in RGB
    Hochskaliert wurde das Video mit HQ4x und Nachjustiert mit Spline100 auf eine 4:3 Auflösung von 1440x1080

    Die Quelle war eine Anamorphe Quelle, daher auch von 16:10 (Pixeloriginal) -> 4:3 (Gameoriginal)

    youtube.com/watch?v=6uYKM5qW2nc

    Hätte ich keine RGB Aufnahme gemacht, sondern in YV12 aufgenommen, hätte ich auf 1440x1080 bei gleichem Skalierungsweg totalen Matschsalat. Da würdest du gar nix mehr erkennen können. So aber das es RGB war ist das Bild gestochen scharf geblieben ;D

    Die Vorteile einer RGB Aufnahme oder generell eine 4:4:4 Aufnahme ist Unübertrefflich und hinterlässt halt auch auf YT dann seinen qualitativen Eindruck ^^

    Bei der Aufnahme habe ich kaum Ressourcen gebraucht, da ja nur 320x200 die Auflösung war ^^
  • Naachoo schrieb:

    Ich dachte, das die Festplattengeschwindigkeit in erster Linie beim Capture wichtig ist, da dabei ja meist riesige Datenmengen auf die Platte geschaufelt werden. Beim Encoden selber dann auch?


    Ne, ich meinte das Aufnehmen, nicht das Encodieren :D Aber wie schon gesagt hier ist die Platte etwas langsam.

    Naachoo schrieb:

    Lieber länger encoden für möglichst kleine Dateien.


    Hm, ok. Dann solltest du bei MeGUI ungefähr CRF 23, 10 bit Encode, Preset Slow, B-Frames: 5, Partitions: all, min keyint: 1, keyint: infinite auswählen :)

    Naachoo schrieb:

    warum Afterburner in Mono aufnimmt.


    Ist nur dein Micro oder auch der normale Spiel-Sound in Mono?

    Naachoo schrieb:

    Mit dem abgespeckten Sony Movie Studie geht es aber auch, oder?


    Jep.
    ~ Let's plays, Animes, Cinematics, Zeichnungen ~ :D
  • GrandFiredust schrieb:

    Bei 1080p wäre das (glaub ich) 8000 kbit/s


    4000 kbit @ Standard Framerate
    5000 kbit @ High Framerate
    8000 kbit - du hast träume^^ - höheres gibts erst mit 2048x1152.

    GrandFiredust schrieb:

    Nein da der Non-lineare Videoschnitt mit dem linearen Videoschnitt von AVISynth inkompatibel ist.

    TMPGEnc 5 kann avisynth Scripte einlesen. TMPGEnc 6 nicht mehr. Versteh ich nicht, warum das bei 6 rausgenommen wurde..

    @Sagaras : Du solltest vllt aber auch mal erwähnen das es durchaus vorgefertigte Effekte gibt mit transall zb welches du ja sogar in SSM drin hast. Du schreibst jetzt so, als gäbe es bei Avisynth rein nur via Selbstscripten die Möglichkeit Übergangseffekte zu haben. Und das ist ja nunmal definitiv nicht so.
    Aktuelle Projekte/Videos


  • De-M-oN schrieb:

    @Sagaras : Du solltest vllt aber auch mal erwähnen das es durchaus vorgefertigte Effekte gibt mit transall zb welches du ja sogar in SSM drin hast. Du schreibst jetzt so, als gäbe es bei Avisynth rein nur via Selbstscripten die Möglichkeit Übergangseffekte zu haben. Und das ist ja nunmal definitiv nicht so.

    Die Masse musst du dir aber wirklich ausdenken erst. Übergangseffekte ist nur ein kleiner Teil der schon fertig ist.

    Im Gleitz Forum hat auch mal jemand nach einem Drehtüreffekt nachgefragt und ob es nicht mit AVISynth zu lösen geht.
    Ihm wurde Vorgeschlagen ein mit Transall ähnlichen Effekt zu nutzen.

    Daraufhin hab ich mich selbst daran probiert und fand das man ein Drehtüreffekt mittels Transall nicht effektiv nutzen kann. Also hab ich mir selbst einen Drehtüreffekt geschrieben mit dem Plugin Reform.dll
    Spoiler anzeigen

    Quellcode

    1. # ==============
    2. # Drehtuereffekt
    3. # ==============
    4. # clip1 - Das erste Video
    5. # clip2 - Das zweite Video
    6. # dtime1 - Zeit in Frames wie lange das erste Video rausgedreht werden soll -> Default = 30
    7. # dtime2 - Zeit in Frames wie lange das zweite Video reingedreht werden soll -> Default = 30
    8. # deph1 - Die max. Tiefe der hinteren Eckpunkte -> Default = 700
    9. # deph2 - Die max. Tiefe der vorderen Eckpunkte -> Default = 150
    10. # Bilddatei - Hintergrundbild -> Default "" = Schwarz
    11. Function Drehtuer(clip clip1, clip clip2, int "dtime1", int "dtime2", int "deph1", int "deph2", string "Bilddatei") {
    12. dtime1 = Default(dtime1, 30)
    13. dtime2 = Default(dtime2, 30)
    14. deph1 = Default(deph1, 700)
    15. deph2 = Default(deph2, 150)
    16. Bilddatei = Default(Bilddatei, "")
    17. # Video1 und Video2 zerlegen + Übergangsdauer festlegen
    18. c1s = clip1.Trim(0, clip1.framecount - dtime1 - 1)
    19. c2e = clip2.Trim(dtime2 + 1, clip2.framecount)
    20. clip1 = clip1.Trim(clip1.framecount - dtime1, clip1.framecount)
    21. clip2 = clip2.Trim(0, dtime2)
    22. clip2 = clip1 ++ clip2
    23. # Leeren Clip erstellen auf Eigenschaften von clip2
    24. Leer = (clip2.IsYV12() == true) ? "YV12" : (clip2.IsYUY2() == true) ? "YUY2" : (clip2.IsRGB24() == true) ? "RGB24" : "RGB32"
    25. Leer = (Bilddatei == "") ? BlankClip(clip2.framecount+1, clip2.width, clip2.height, Leer, clip2.frameratenumerator, clip2.frameratedenominator).KillAudio() : ImageSource(Bilddatei, 1, clip2.framecount+1, clip2.framerate).ChangeFPS(clip2.frameratenumerator, clip2.frameratedenominator).KillAudio().Spline16Resize(Clip2.width, Clip2.height)
    26. # Drehtüreffekt erzeugen mit Animate und Skew (Aus Reform Plugin)
    27. rotate1 = Animate(clip2, 0, dtime1, "Skew", Leer, "lanczos", 0, 0, 0, clip2.height, clip2.width, 0, clip2.width, clip2.height, Leer, "lanczos", clip2.width / 2, deph2, clip2.width / 2, clip2.height - deph2, clip2.width / 2, -deph1, clip2.width / 2, clip2.height+deph1)
    28. rotate2 = Animate(clip2, dtime1 + 1, dtime1 + dtime2 - 1, "Skew", rotate1, "lanczos", clip2.width / 2, -deph1, clip2.width / 2, clip2.height + deph1, clip2.width / 2, deph2, clip2.width / 2, clip2.height-deph2, rotate1, "lanczos", 0, 0, 0, clip2.height, clip2.width, 0, clip2.width, clip2.height)
    29. # Alles wieder zusammensetzen und zurückgeben
    30. all = c1s ++ rotate2 ++ c2e
    31. return all
    32. }
    Alles anzeigen


    Viel effektiver, da man nun die Möglichkeit hat ein eigenen Hintergrund zu bestimmen.

    Du hast ja recht das es halt ein paar fertige Sachen gibt. Aber oft die Grundlegensten Effekte muss man sich erst selbst zusammenbasteln. Und ich hab auch nur einige die ich dann im SSM mit beigefügt habe. Und die sind alle in der Blend.avsi beim SSM drin. Die waren ja nicht da, sondern musste die erst mal erstellen. ^^
  • GrandFiredust schrieb:

    Ist nur dein Micro oder auch der normale Spiel-Sound in Mono?


    Ich muss mich korrigieren. Der Mikro-Sound wird doch in Stereo aufgenommen, ist aber nicht "mittig" sondern ist auf dem rechten Kanal lauter als links. Da ich meine Kopfhörer immer recht leise eingestellt habe, habe ich den Sound von links erst überhört.
    Die Frage ist nur, warum der Sound so nach rechts verschoben ist. Anhand der Soundeinstellungen kann ich das nicht nachvollziehen. Die Balance-Regler sind alle mittig.
  • Naachoo schrieb:

    GrandFiredust schrieb:

    Ist nur dein Micro oder auch der normale Spiel-Sound in Mono?


    Ich muss mich korrigieren. Der Mikro-Sound wird doch in Stereo aufgenommen, ist aber nicht "mittig" sondern ist auf dem rechten Kanal lauter als links. Da ich meine Kopfhörer immer recht leise eingestellt habe, habe ich den Sound von links erst überhört.
    Die Frage ist nur, warum der Sound so nach rechts verschoben ist. Anhand der Soundeinstellungen kann ich das nicht nachvollziehen. Die Balance-Regler sind alle mittig.



    Versuch mal dein Mikro in Mono aufzunehmen.
    Aus dem Bild oben entnehme ich, dass du kein Audiointerface dazwischen hast mit zwei Eingängen. Mikros an sich sind meist Mono. Mono bedeutet gleiches Signal auf beiden Seiten. Durch Stereo hast du halt zwei unterschiedliche Kanäle, die du aber bei einem Mikro nicht wirklich willst...


    Aktuelle Projekte
    Mass Effect 2 | The Legend of Zelda: Skyward Sword