Facecam Video Bild in Bild genaue Anleitung Megui?

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Facecam Video Bild in Bild genaue Anleitung Megui?

    Anzeige
    Guten Tag, seit mehreren Stunden benutze ich hier die sufu und versuche eine "für" mich einfache Anleitung zu finden, wie ich mit Megui, das am anfang und am ende ca. 5 Sekunden längeres Facecam Video, was richtig mit VirtualDub mit richtiger Config. aufgezeichnet wurde (Lagerith, 640x480, +Mikro Sound Mono...) oben Rechts vom Video (Game Video) mit DxTory aufgenommen hinzuzufügen...

    Ich habe Sagaras Tipps und Infos (bzw. Zusammenfassungen) nicht verstanden.

    Wie z.B.

    Quellcode

    1. #Settings für den Nutzer
    2. Game = "game.avi"
    3. Facecam = "facecam.avi"
    4. Anfangs_frame=1800 #Sagt an um wieviel Frames die Facecamaufnahme nach links verschoben wird
    5. Game_Lautstaerke=0.1 #0.5 = Normal, 0.0 = Stumm, 1.0 = laut
    6. Facecam_Lautstaerke=0.5
    7. #Ladesequenz
    8. Game = AVISource(Game, true).ChangeFPS(30).Spline64Resize(1440, 1080).StereoChannel().SSRC(44100).ConvertAudioTo16bit()
    9. Facecam
    10. = AVISource(Facecam, true).ChangeFPS(30).Spline64Resize(320,
    11. 240).StereoChannel().SSRC(44100).ConvertAudioTo16bit().Trim(Anfangs_frame,
    12. Game.framecount)
    13. #Prozess
    14. Overlay(Game.KillAudio, Facecam.KillAudio, x = Game.width - Facecam.width - 50, y = 50, opacity = 1.0)
    15. AudioDub(MixAudio(Game, Facecam, Game_Lautstaerke, Facecam_Lautstaerke))
    16. #Funktionen
    17. Function StereoChannel(clip audio) {
    18. Try { return audio.GetChannel(1,2) }
    19. Catch (Error_2) { Return audio.GetChannel(1,1) }
    20. }
    Alles anzeigen
  • Das ganze ist recht einfach eigentlich zu verstehen ^^

    Quellcode

    1. #Settings für den Nutzer
    2. Game = "game.avi"
    3. Facecam = "facecam.avi"
    4. Anfangs_frame=10 #Sagt an um wieviel Frames die Facecamaufnahme nach links verschoben wird
    5. Game_Lautstaerke=0.3 #0.5 = Normal, 0.0 = Stumm, 1.0 = laut
    6. Facecam_Lautstaerke=0.5
    7. Facecam_Transparenz = 0.7
    8. #Ladesequenz
    9. Game = AVISource(Game, true).ChangeFPS(30).Spline64Resize(1200, 1080).StereoChannel().SSRC(44100).ConvertAudioTo16bit()
    10. Facecam = AVISource(Facecam, true).ChangeFPS(30).Spline64Resize(266, 240).StereoChannel().SSRC(44100).ConvertAudioTo16bit().Trim(Anfangs_frame, Game.framecount)
    11. #Prozess
    12. Overlay(Game.KillAudio, Facecam.KillAudio, x = Game.width - Facecam.width - 50, y = 50, opacity = Facecam_Transparenz)
    13. AudioDub(MixAudio(Game, Facecam, Game_Lautstaerke, Facecam_Lautstaerke))
    14. #Funktionen
    15. Function StereoChannel(clip audio) {
    16. Try { return audio.GetChannel(1,2) }
    17. Catch (Error_2) { Return audio.GetChannel(1,1) }
    18. }
    Alles anzeigen


    Zeile 1 - 7 sind Variablenvereinbarungen. Sprich Vorgaben.

    In Zeile 2 - 3 werden die Datein vereinbart als Variable. Wie z.B. die Pfade und Dateinamen der Videos.
    Zeile 4 ist wichtig. Hier wird eine Variable vereinbart die das Facecam Video später um x Frames nach links verschiebt. Bedeutet das es Zeitlich gesehen zur Gameaufnahme eher anfängt. Daher soll auch die Facecamaufnahme immer eher anfangen, damit man später es auch richten kann. Das machste hier in Zeile 4.

    Zeile 5 - 6 sind Variablen zur Lautstärke. Dabei entspricht 1.0 sehr laut und 0.0 stumm. Bedeutet das du hier die Lautstärke anpassen kannst für die einzelnen Videos.

    Zeile 7 ist der Transparentgrad für die Facecam später zum Gamevideo. Auch hier ist 1.0 absolut Sichtbar und 0.0 Unsichtbar. Alle Zwischenwerte sind Transparentwerte.

    Zeile 9 - 11 ist die Ladesequenz.
    In der Ladesequenz kommt die Funktion zum Einsatz die du in Zeile 17 - 21 siehst. Die Funktion StereoChannel soll einfach dafür sorgen das es später egal bei welcher Aufnahme alles in Stereo ist. Sprich es darf kein Mono und kein Multichannel sein mit mehr als 2 Audiokanälen. Am Ende haben Facecam und Game eine Stereospur dadurch. Da Youtube eh nicht mehr bietet, ist diese Funktion also sehr Nützlich. Gerade deshalb da alles Identisch sein muss wenn du beide Videos kombinieren willst ;D

    Zeile 9 läd mit AVISource das Video was du als Variable in Zeile 2 festgelegt hast mit samt Audiospur. Danach wird auf 30 FPS geändert (Das kannste beliebig ändern. Nur sollte die FPS des Games und der Facecam gleich sein). Die Gameaufnahme wird nach den 30 FPS Wechsel mit Spline16 auf die Endauflösung die du haben willst gebracht. z.B. willst du auf YT 1440p haben, dann schreibst du deine 4:3 oder 16:9 oder 16:10 oder Whateverauflösung dort hinein.
    1440p bei 16:9 sind 2560x1440. Also bei 16:9 in 1440p kommt bei Spline16 für die Gameaufnahme rein: Spline16(2560, 1440).
    Danach kommt die Funktion StereoChannel, SSRC und ein ConvertTo16Bit. Bedeutet nix anderes als das dein Sound bei der Gameaufnahme auf Stereo, 44100Hz und 16Bit konvertiert wird.

    Die Facecam in Zeile 10 wird genauso geladen, nur mit 2 kleinen Unterschieden. Der erste Unterschied besteht darin das hier in Spline16 bei der Skalierung des Bildes eine niedriege Auflösung genommen wird als die Gameaufnahme. Man will ja die Facecam in der Spielaufnahme haben ;D Eventuell das du die Stelle sogar rauslässt, da deine Facecam ja schon 640x480 hat und deutlich schon sehr klein ist gegenüber 1440p des Gameresize. Sollte es dennoch zu Groß sein oder zu klein, kannste es mit Spline16 deinen Wünschen anpassen.
    Der zweite Unterschied ist das am Ende geschnitten wird. Und zwars ist das der Teil der die Facecam nach links verschiebt (siehe Zeile 4). Hier wird von der Variable geschnitten die du oben angegeben hast bis hin zu dem Punkt wo das Game aufhört.

    Jetzt fehlt nur noch die Bild in Bild Funktion und das mischen des Sounds. Da du aber nun alles da hast wie du es brauchst, ist der Rest ein Kinderspiel ^^
    In Zeile 14 wird nun die Facecam auf die Gameaufnahme gelegt. Ohne Audio. Denn Audio muss extra gemischt werden und kommt erst in Zeile 15. In Zeile 14 wird die Position der Facecam auf dem Gamevideo festgelegt durch x und y. Opacity ist der Transparentgrad und wird mit der Variable aus Zeile 7 gefüttert.
    Jetzt sollte die Facecam auf dem Gamevideo sein.

    Zeile 15 mischt Gamesound und Facecamsound miteinander. Zuerst wird gemischt und zwars mit dem Lautstärkeverhältnis wie in Zeile 5 und 6 vordifiniert. Und dann wird das ganze mit dem neu entstandenen Clip aus Zeile 14 gedubt.

    Und schon ist das ganze Fertig.

    In MeGUI kannste dann das ganze weiter schneiden. Der Verschiebung der Facecam soll nur zur Synchronisation beitragen. Für eine Vorschau mit diesem Skript würde sich entweder MPC, MPC-HC oder VirtualDub anbieten. Dann siehste auch ob du die Facecam weiter nach links verschieben müsstest.

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Sagaras ()

  • Das ist ein AVISynth Skript. Das kannst du mit nem stink normalen Editor erzeugen wie Notepad oder Notepad++.

    Die Dateiendung dafür muss dann AVS sein.

    Oder du verwendest den AvsPmod Editor dazu, da haste auch gleich eine Vorschau dafür.

    Lädste das Skript in MeGUI, wird MeGUI das ebenfalls laden.

    Was du nur zu tun hast, sind die Pfade auszutauschen zu deinen Videos.


    Am besten du ziehst dir den SSM runter und installierst alles was dabei ist. Mit enthalten wäre dann AVISynth 2.6 MT + AvsPmod Editor + Skriptbeispiele wie das was ich dir hier eingefügt habe. Diese Skriptbeispiele beim SSM sind alle lauffähig und können sowohl mit MeGUI, als auch mit AvsPmod betrachtet werden.

    Es ist quasi alles dabei was du brauchst dafür. Und mit etwas Beschäftigung kannst du mit AVISynth sogar noch viel mehr machen.