Cam Aufnehmen und rein schneiden.

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Cam Aufnehmen und rein schneiden.

    Anzeige
    Huhu Leute, ich suche folgendes:

    Ein Programm womit ich problemlos meine Full HD Cam aufnehmen kann + ein Programm womit ich das dann zusammen schneiden kann, am besten Freeware.

    Das Programm zum zusammenschneiden sollte wirklich jediglich die Cam in das Bild einfügen wo ich sie dann hin und her ziehen kann bis sie mir gefällt und nicht rendern.

    Rendern tue ich über MeGui :)


    MfG
    John
    OHJAA GOIL, Let's Player mit den gewissen Touch.
  • Such doch einfach mal nach Sagaras Beiträgen, der hat schon jede Menge Schritt-für-Schritt-Anleitungen hier gepostet. Ansonsten wartest du halt, bis er hier reinschaut, oder du erwähnst ihn oder schreibst ihm eine Nachricht oder zündest ein Feuer an und beschwörst seinen Geist... Irgendwas wird dir schon einfallen, wenn du dich mal ein bisschen anstrengst.
  • HD Aufnahme einer Webcam die nachher eh in irgendeiner Ecke gequetscht wird ist... etwas daneben.

    Hier mal die Anleitung für Virtual Dub:
    1. Mit File -> Capture AVI kommt man in den Aufnahmebereich in VDub
    2. Unter Device kann man seine Webcam auswählen
    3. Unter Audio sollte man dann zu seiner Webcam das [lexicon]Mikrofon[/lexicon] wählen als Quelle.
    4. Unter Video -> Compression kann man sich einen [lexicon]Lossless[/lexicon] [lexicon]Codec[/lexicon] wählen. Wie z.B. [lexicon]Lagarith[/lexicon], UT Video, etc. pp.
    5. Dann sollteste unter Video entsprechend zu deiner Cam folgende Menüpunkte haben:
      • Capture pin - Hier sollte man die Aufnahme FPS der Cam einstellen + Farbraum + [lexicon]Auflösung[/lexicon]
        Tipp um es nachher in ein Spiel einzufügen: Nicht mehr als 30 FPS nehmen, Farbraum: YUY2 oder RGB24 nehmen. RGB24 nur dann verwenden wenn man z.B. Color Keying betreiben will entsprechend Greenscreen oder Bluescreen. [lexicon]Auflösung[/lexicon] nicht mehr als 600p.
        Gameaufnahme 1440p - 1800p -> Cam 600p bei 4:3 / 720p bei 16:9
        Gameaufnahme 720p - 1080p -> Cam 360p oder 480p bei 4:3 / 360p bei 16:9
        Alles darunter reicht schon eine Aufnahme mit 240p

        Es bringt nix mehr aufzunehmen um es dann wieder runterzuskalieren. Das ist aufwendige Rechenarbeit, Speicherplatzverschwendung und hätte kein Sinn. ^^
      • Capture [lexicon]Filter[/lexicon] - Hier sollte man Sachen zur Cam einstellen. Sachen wie LeistungsFrequenz der Cam, Schärfe, Sättigung, Gamma, Fokus, Neigung etc. pp.
        Die Sachen unterscheiden sich von Cam zu Cam welche auswählbar sind und welche nicht. Entsprechend der Cam können auch immer unterschiedliche Fenster erscheinen, da der WDM Treiber genutzt wird.
    6. Dann findeste ganz unten in der Statusbar von VDub von rechts nach links:
      • ein riesiges Infofeld
      • Soundeinstellung -> Draufklicken und auf 44100Hz, 16Bit, mono einstellen.
      • FPS Angabe -> Draufklicken und auf eine Integral bzw NTSC FPS einstellen die die Cam darstellen kann.
      • FPS Angabe der angezeigten Cam in der Preview
    7. Unter Video findeste dann die Sachen wie Overlay und Preview. Sollte es strikte Probleme geben bei der Aufnahme, dann stellste die Vorschau ab indem du das ganze auf none stellst. Dadurch wird kein [lexicon]Filter[/lexicon] genutzt um die Cam darzustellen und wird direkt angezapft.
    8. Unter Capture -> timing... findeste alles was du brauchst um Verzögerungen zwischen Audio und Video zu korrigieren, sollten welche auftreten.
      Da meldeste dich erst, sollte es Probleme geben.
    9. Unter File -> Capture file setzt du den Aufnahme Ort fest und kannst nun unter Capture -> Capture Video (F5/F6) die Cam aufnehmen und mit Stop capture (ESC) beenden.

    GANZ WICHTIG: Zu Beachten sollte sein das der Farbraum mit dem du die Cam eingestellt hast der gleiche Farbraum ist mit dem du aufnimmst.
    z.B. du lässt die Cam in YUY2 anzeigen, dann musst du ebenfalls bei Lagarith oder UT-Video entsprechend YUY2 wählen, sonst gibt es einen Fehler seitens des Aufnahmecodecs.

    Mit FFDShow kann man die Darstellung der Cam auch noch bestimmen lassen. Dies ist nur dann interessant sollte man eine Vorschau haben wollen.
    Dafür geht man bei FFDShow in den FFDShow Video Decoder (Configuration) und geht bei Codecs nach ganz unten in die Liste im Punkt RAW Video und probiert dort aus: All supportet (Alle Unterstützt) oder disabled (deaktiviert)


    Das wars auch schon.

    Die Camaufnahme kann man dann mit AVISynth auf sein Spiel kleben und so mit MeGUI encoden.
    Da es dazu ein Beispiel im SSM gibt, und du den SSM auch hast mit samt AvsPmod + den Skriptbeispielen, lass ich dir das selbst austüfteln.

    Die Beispiele heißen dann auch entsprechend: Facecambeispiel 1 und 2. Da trägst du eingentlich nur die Werte ein die deinen beiden Aufnahmen entsprechen. Kontrollieren kannste die Positionen mit x und y Angabe im Overlay Filter.
    Dabei entspricht:
    Gameaufnahme.width - Facecamaufnahme.width die rechte Seite
    Gameaufnahme.height - Gameaufnahme.height die untere Seite
    Für die linke und obere Seite sind 0,0 vorgegeben. Der Ursprung.

    Damit kannste das dynamisch gestalten etwas. Kannst aber auch Fixwerte nehmen.
    Die Größe der Cam zum Video bestimmst du über einen Skalierer dann. Sollte dort auch zu finden sein im Skript.


    Bei dem Skript ist zu beachten das die Webcamaufnahme länger ist als die Gameaufnahme.
    Im Skript selbst findeste dann entsprechend auch eine Linksverschiebung der Cam zur Gameaufnahme. Damit kannste dann Synchronisieren.

    Probier es selbst aus. Wenn alles fertig ist, sollte das Skript Audio entsprechend mischen und kann somit auch direkt in MeGUI encodiert werden. Fertig ist das ganze.
  • ok vielen vielen dank für deine hilfe, das Tutorial war einfach nur spitze.
    Ich hätte jedoch noch ein paar Fragen.

    ​Dann findeste ganz unten in der Statusbar von VDub von rechts nach links:
    ein riesiges Infofeld

    Soundeinstellung -> Draufklicken und auf 44100Hz, 16Bit, mono einstellen.

    FPS Angabe -> Draufklicken und auf eine Integral bzw NTSC FPS einstellen die die Cam darstellen kann.

    FPS Angabe der angezeigten Cam in der Preview



    Bei mir ist bei diesem Programm ganz unten gar nichts ^^.

    ​GANZ WICHTIG: Zu Beachten sollte sein das der Farbraum mit dem du die Cam eingestellt hast der gleiche Farbraum ist mit dem du aufnimmst.z.B. du lässt die Cam in YUY2 anzeigen, dann musst du ebenfalls bei Lagarith oder UT-Video entsprechend YUY2 wählen, sonst gibt es einen Fehler seitens des Aufnahmecodecs.


    Meine Cam nimmt mit YUY2 auf, sprich ich muss dann beim Scriptmaker die Farbe ebenfalls auf YUY2 umstellen?
    Führt dies zu Qualitätsverlust?


    Mal eine andere Frage, bei DxTory benutze ich den Dxtory Video Codec, da ich einen sehr starken PC habe.
    Wenn ich nun in den Codec optionen YUV420 zu YUV24 umstelle, also von Medium Quality zu Hoher, verändert sich da sonderlich viel?
    OHJAA GOIL, Let's Player mit den gewissen Touch.
  • JohnysBlogTV schrieb:

    Bei mir ist bei diesem Programm ganz unten gar nichts ^^.


    Sollte aber. Sieht so aus:


    JohnysBlogTV schrieb:

    Meine Cam nimmt mit YUY2 auf, sprich ich muss dann beim Scriptmaker die Farbe ebenfalls auf YUY2 umstellen?
    Führt dies zu Qualitätsverlust?

    Nein, da nimmste YV12 wieder. Es ist nun mal so: YV12 haben die meisten Cams nicht, sondern einen ähnlichen Planar wie i420. Kann aber von Lagarith und UTVideo nicht aufgenommen werden, da YV12 das nicht schafft.
    Daher wird in YUY2 oder RGB24 aufgenommen.
    Im Skript später und in MeGUI wird daraus wieder YV12 gemacht.
    Das ist einfach eine Aufnahmesache warum YUY2 oder RGB24 genommen wird. Sollte deine Cam YV12 direkt unterstützen, kannst du auch YV12 nehmen. Nur i420 wird definitiv nicht von Lagarith oder UT Video erkannt, da es nicht direkt YV12 entspricht.


    JohnysBlogTV schrieb:

    Mal eine andere Frage, bei DxTory benutze ich den Dxtory Video Codec, da ich einen sehr starken PC habe.
    Wenn ich nun in den Codec optionen YUV420 zu YUV24 umstelle, also von Medium Quality zu Hoher, verändert sich da sonderlich viel?


    YUV420 ist ebenfalls ein YV12 Planar und hat eine Abtastrate von 4:2:0
    Wärend YUV24 bzw. YV24 eine Abtastrate von 4:4:4 hat.

    Die erste Zahl bildet den Luma Wert (Y) wärend die anderen beiden Zahlen den Chromawert (UV) repräsentieren.

    Bei YV24 hat man so nicht nur im Schwarz Weiß Berich sondern auch alle Grautöne gestochen scharfe Farben. Der Luma Wert gibt sozusagen den Helligkeitswert an.
    Als Beispiel für Luma muss man sich ein Farbkreis vorstellen dessen Mitte absolut Weiß darstellt. Im Zentrum ist also 0,0,0. Der Luma kann nun den kompletten Farbkreis verdunkeln oder verhellen und man kommt so auf jede Farbe die es gibt. So kann 0,0,0 auf 255,255,255 darstellen.

    Beim Chroma bewegt man sich aus der Mitte weg aus dem Farbenring und kann so z.B. nach Grün gehen.
    Was bei Chroma jedoch in YV12 sich unterscheidet hingegen zu YV24 ist das sich die Farben verlaufen etwas.

    Stell dir ein 4er Pixel Block vor
    Das wäre YV24 mit 4:4:4
    Weiß = Luma (Y)
    Hell und Dunkelgrau = Chroma (UV)



    Das wäre YV12 mit 4:2:0



    Und das wäre YUY2 mit 4:2:2




    YV24 ist also gestochen scharf hinsichtlich allen Farben im Farbschema.
    YUY2 ist nur von der Höhe gestochen Scharf in Luma und Chroma. Nicht aber in der Breite. In der Breite verschmiert das ganze. YUY2 ist ledeglich nur in den Grautönen von Schwarz bis Weiß (Luma) gestochen scharf.
    YV12 verschmiert in allen Richtungen den Chroma (Farbanteil). Nur Luma ist wieder gestochen scharf.

    So kann man das auch einstufen:
    RGB32, RGB24, YV24 = gestochen scharfes Bild, entspricht Spiele wie sie auch dargestellt werden. PC Spiele = RGB32

    YUY2 ist die nächst bessere Bildqualität

    Und zum Schluss YV12 als sparsamster Farbraum für Aufnahmen.

    Gibt aber auch z.B. Y8. Das ist nur Luma. Also ein komplettes Grauton Bild erzeugt durch Helligkeit. Dieser Farbraum enthält kein Chroma mehr.


    Youtube benutzt YV12. YV12 als gängister Video Farbraum.

    Eine bessere Qualität kann man erziehlen indem man RGB32, RGB24, YV24 und YUY2 hochskalieren lässt und dann erst in YV12 konvertiert.

    Größter Speicherfresser ist RGB32 mit seinem Alphakanal, dann kommt RGB24, dann würde YV24 kommen.

    Als nächster Speicherfresser kommt YUY2 und schließlich YV12.

    Da es auf YT eh wieder YV12 wird, macht es nur relativ wenig Sinn einen anderen Farbraum hochzuladen.
    Bei der Aufnahme und der Bearbeitung entsprechend einer Skalierung kann aber durch solch höheren Farbabtastungen bessere Ergebnisse erziehlt werden.

    Die Frage ist ledeglich nur: Inwiefern kann das die Festplatte ab und inwiefern kann das der Speicher ab die Datenmengen der höheren Abtastungen zu schreiben.
  • Das lernt man eigentlich durchs lesen und probieren. Da braucht man kein Studium für. ^^

    Wer das sieht und selbst probiert hat, kann das auch erklären soweit man es selbst verstanden hat.
    Das Problem bei den meisten hier im Forum ist... sich damit richtig auseinander zu setzen. Sich damit zu beschäftigen. Ich meine... ich selbst mache auch Fehler oder sag mal was falsches, weil ich das noch nicht ganz verstanden habe. Aber ein wenig leichte Lektüre schadet auch niemanden ;D
  • Vielen vielen dank sagaras für deine ganze Hilfe, du bist echt Top :)

    Kann ich irgendwo für dich als Dankeschön voten ? ^^


    Nur noch eine kleine Sache und du hörst von mir die nächsten 2std. nichts mehr :D

    Ingame Aufnahme + Sound = erledigt
    Cam + Mikrofon Aufnahme = erledigt
    Rendern + zusammenfügen = erledigt

    Nun müsste ich nur noch wissen wie ich meine Cam auf mein Video kriege.
    Habe bei Google / Youtube gesucht, aber habe nichts passendes gefunden.
    Man braucht halt einen AviSynth Code und den finde ich nirgendswo zum platzieren eines Videos.

    Wäre wirklich super wenn du mir das noch geben könntest :).
    OHJAA GOIL, Let's Player mit den gewissen Touch.
  • Es ist ein Beispielskript beim SSM dabei, sofern du komplett installiert hast.

    Du wirst beim SSM dann im Verzeichnis selbst einen Ordner finden mit dem Namen "AVS Examples"

    Dort findeste halt ein Beispielskript für Webcams in Video einfügen.

    Das ganze kannste mit AvsPmod (ebenfalls bei der SSM Install dabei) anschauen.

    Die Skripte sind so ausgelegt das du diese zuerst mit Rechtklick anwählst und sagst Öffnen mit... und wählst dann den AvsPmod Editor aus.

    Dort haste dann eine Farbliche Strukturierung des Skriptes + eine Vorschau zu dem Skript.

    Sollte dann kein Problem sein das ganze dann deinen Werten anzupassen.
  • Tut mir wirklich Leid Sagaras.
    Das Tutorial und alles drum und dran war vllt super, aber was genau ich wo bei dem Code einsetzen muss weiß ich trotzdem nach mehrmaligen Lesen nicht.

    Kann sein das es für euch aus dem FF ist, aber für jemanden wie mich ,der sich grade erst wieder rein ließt sind manche Sachen doch etwas schwerer zu durchschauen.



    Also Step by Step:

    Video + Cam aufnahme in den Scriptmaker rein gezogen.

    Nun dein Beispiel geöffnet:

    Spoiler anzeigen
    ​#Settings für den Nutzer
    Game = "GB+GBC Display for AVS\Capture\GB Bios.avi"
    Facecam = "GB+GBC Display for AVS\Capture\GBC Bios.avi"
    Anfangs_frame=10 #Sagt an um wieviel Frames die Facecamaufnahme nach links verschoben wird
    Game_Lautstaerke=0.3 #0.5 = Normal, 0.0 = Stumm, 1.0 = laut
    Facecam_Lautstaerke=0.5
    Facecam_Transparenz = 0.7

    #Ladesequenz
    Game = AVISource(Game, true).ChangeFPS(30).Spline64Resize(1200, 1080).StereoChannel().SSRC(44100).ConvertAudioTo16bit()
    Facecam = AVISource(Facecam, true).ChangeFPS(30).Spline64Resize(266, 240).StereoChannel().SSRC(44100).ConvertAudioTo16bit().Trim(Anfangs_frame, Game.framecount)

    #Prozess
    Overlay(Game.KillAudio, Facecam.KillAudio, x = Game.width - Facecam.width - 50, y = 50, opacity = Facecam_Transparenz)
    AudioDub(MixAudio(Game, Facecam, Game_Lautstaerke, Facecam_Lautstaerke))

    #Funktionen
    Function StereoChannel(clip audio) {
    Try { return audio.GetChannel(1,2) }
    Catch (Error_2) { Return audio.GetChannel(1,1) }
    }


    So nun heißt mein Video beispielsweise:

    Video.avi

    und die Cam

    Cam.avi.


    Nun einfach oben in den Lila Namen die 2 Sachen einsetzen, das ganze kopieren, in den Scriptmaker bei AVS einfügen und fertig oder wie?
    OHJAA GOIL, Let's Player mit den gewissen Touch.
  • Der Skriptmaker hat mit den Beispielen erst mal nix am Hut. Es sind sozusagen nur Templates für Spezialfälle wie deine Verbindung von Webcam und Spiel.

    Ich erkläre dir das Skript mal:

    Quellcode

    1. #Settings für den Nutzer
    2. Game = "GB+GBC Display for AVS\Capture\GB Bios.avi"
    3. Facecam = "GB+GBC Display for AVS\Capture\GBC Bios.avi"
    4. Anfangs_frame=10 #Sagt an um wieviel Frames die Facecamaufnahme nach links verschoben wird
    5. Game_Lautstaerke=0.3 #0.5 = Normal, 0.0 = Stumm, 1.0 = laut
    6. Facecam_Lautstaerke=0.5
    7. Facecam_Transparenz = 0.7
    8. #Ladesequenz
    9. Game = AVISource(Game, true).ChangeFPS(30).Spline64Resize(1200, 1080).StereoChannel().SSRC(44100).ConvertAudioTo16bit()
    10. Facecam = AVISource(Facecam, true).ChangeFPS(30).Spline64Resize(266, 240).StereoChannel().SSRC(44100).ConvertAudioTo16bit().Trim(Anfangs_frame, Game.framecount)
    11. #Prozess
    12. Overlay(Game.KillAudio, Facecam.KillAudio, x = Game.width - Facecam.width - 50, y = 50, opacity = Facecam_Transparenz)
    13. AudioDub(MixAudio(Game, Facecam, Game_Lautstaerke, Facecam_Lautstaerke))
    14. #Funktionen
    15. Function StereoChannel(clip audio) {
    16. Try { return audio.GetChannel(1,2) }
    17. Catch (Error_2) { Return audio.GetChannel(1,1) }
    18. }
    Alles anzeigen


    Also... Zeile 1 bis 7 sind deine spezifischen Einstellungen.
    In Zeile 2 gibst du den Pfad + Dateinamen deiner Gameaufnahme an
    In Zeile 3 gibst du den Pfad + Dateinamen deiner Facecamaufnahme an

    Zeile 4 verschiebt die Kamera auf der Gameaufnahme nach links. Daher sollte die Facecamaufnahme immer vorher starten als die Gameaufnahme und natürlich auch zuletzt beendet werden.
    Sprich in Zeile 4 sorgst du dafür wieviele Frames die Cam auf der Gameaufnahme nach Links sich bewegen soll Zeitlich. Sprich Synchronisation. In einer Timeline würdeste die Cam so nach rechts oder links schieben.

    Zeile 5 und 6 gibt die Lautstärke an für die Cam und für das Spiel. Entsprechende Einstellungen stehen rechts als Kommentar daneben.

    Zeile 7 ist der Transparentgrad für die Facecam zur Gameaufnahme. Damit kannste die Facecam z.B. durchsichtig machen und das Spiel im Hintergrund durchscheinen lassen noch. Dabei ist 1.0 absolut sichtbar und 0.0 absolut unsichtbar. 0.5 würde 50% bedeuten der Sichtbarkeit.

    Dann geht es in Zeile 10 und 11 los mit der Ladesequenz. Voreingestellt sind 30 FPS bei ChangeFPS. Daher ist es egal wie deine Aufnahmen vorher waren, sie werden nun auf 30 FPS geändert. Kannst es aber auch umstellen dort auf z.B. 25 FPS. Gefolgt wird das ganze von einem Resizer. Die Gameaufnahme bekommt mit Spline64Resize die Endauflösung, wärend die Cam nur einen sehr kleinen Teil des Gesamtbildes ausmacht dann.
    Danach wird mit der Funktion ganz unten und ein paar anderen Filtern beide Sounddatein in den jeweiligen Aufnahmen auf 44100Hz, 16Bit Stereo gebracht. Die Cam hat dann noch ein Trim Befehl ganz hinten, den du aber schon in Zeile 4 bereits abgearbeitet hast.

    In Zeile 14 kommt dann die Verbindung von Gameaufnahme und Camaufnahme auf x und y Position die du dann auch selbst bestimmen kannst.

    Und in Zeile 15 wird das ganze mit der neuen Soundmischung auf das Video gedubt.
  • ok habe ich alles getan :)

    Spoiler anzeigen
    ​#Settings für den Nutzer
    Game = "E:\Benutzer\Patrick\Desktop\Lets Plays\Bioshock Infinite\Camaufnahmen\test.avi"
    Facecam = "E:\Benutzer\Patrick\Desktop\Lets Plays\Bioshock Infinite\Camaufnahmen\Camaufnahme test.avi"
    Anfangs_frame=10 #Sagt an um wieviel Frames die Facecamaufnahme nach links verschoben wird
    Game_Lautstaerke=0.3 #0.5 = Normal, 0.0 = Stumm, 1.0 = laut
    Facecam_Lautstaerke=0.5
    Facecam_Transparenz = 0.7

    #Ladesequenz
    Game = AVISource(Game, true).ChangeFPS(30).Spline64Resize(1200, 1080).StereoChannel().SSRC(44100).ConvertAudioTo16bit()
    Facecam = AVISource(Facecam, true).ChangeFPS(30).Spline64Resize(266, 240).StereoChannel().SSRC(44100).ConvertAudioTo16bit().Trim(Anfangs_frame, Game.framecount)

    #Prozess
    Overlay(Game.KillAudio, Facecam.KillAudio, x = Game.width - Facecam.width - 25, y = 25, opacity = Facecam_Transparenz)
    AudioDub(MixAudio(Game, Facecam, Game_Lautstaerke, Facecam_Lautstaerke))

    #Funktionen
    Function StereoChannel(clip audio) {
    Try { return audio.GetChannel(1,2) }
    Catch (Error_2) { Return audio.GetChannel(1,1) }
    }


    Wenn ich nun dies in den Scriptmaker einfüge, dann erstellt er mir ne avs datei, die ich jedoch nicht bei megui reinziehen kann, kommt eine Fehlermeldung von wegen Line 8 stimmt was nicht ^^.

    Kann ich eigt in den Optionen hier, die Camgröße noch einstellen, also wie groß das Bild oben rechts sein soll?
    OHJAA GOIL, Let's Player mit den gewissen Touch.
  • aaaach nun verstehe ich langsam meine Probleme, ich habe glaube ein Reihenfolge problem.


    Ich dachte es läuft so ab:

    1.) Ich nehme das Material auf.
    2.) Ich nehme das unverarbeitete Material und schiebe es in Scriptmaker rein
    3.) Und zu Megui ziehen.


    Wie muss ich das nun machen.

    Also ich habe die Rohdateien, durch dein Script ziehe ich die nun zu 1 zusammen.
    Wenn ich sie aber nun Render, dann wirken doch die Scriptmaker Optionen, die ich dort eingestellt habe gar nicht mehr.
    Sprich die 1800p usw.
    OHJAA GOIL, Let's Player mit den gewissen Touch.
  • Richtig, die Wirken dann nicht mehr. Weil das ein Spezialfall ist was du vorhast.

    Das einzige was du machen könntest wäre:

    In Zeile 10 deines Skriptes den Spline64 komplett zu entfernen.
    Sprich da steht nur noch:

    Quellcode

    1. Game = AVISource(Game, true).ChangeFPS(30).StereoChannel().SSRC(44100).ConvertAudioTo16bit()


    Die FPS angabe machst du entsprechend zu deiner Gameaufnahme bei Game und Cam in ChangeFPS.

    Dann schaust du inwieweit die Cam Skalierung zu deinem Video passt. Denn hier darf der Skalierer nicht weg. Du kannst aber Spline64 mit Spline16 etc austauschen wenn du das möchtest.

    Wenn du das hast, so kannste diesen Skript in den Skriptmaker laden und dann dort die Endskalierung machen + andere Settings nutzen. Sollte das Video nach dem Encode flackern, dann nimmst du Multithreading raus und encodierst noch mal.

    Ganz kurz noch mal:
    Facecam.avs -> SSM -> Fertig.avs -> MeGUI

    Das würde gehen. Nutze aber die 5.1 r1 Version vom SSM. Da dort ein Fehler seitens des Imports von AVS Datein gefixt worden ist.

    Der SSM hat nur ein vorgefertigten Skript der mit den Settings die dort vorgegeben sind etwas individuell einstellbar ist. Das mit der Facecam ist aber ein Spezialfall und muss seperat gelöst werden.