Videoqualität / 60 FPS @ RAID / Aufnahmeprogramm/Aufnahmehardware

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Videoqualität / 60 FPS @ RAID / Aufnahmeprogramm/Aufnahmehardware

    Anzeige
    Guten Tag,

    von diesen Threads gibt es hier wohl einige, aber ich brauche einfach mein eigenen, weil keiner so wirklich das erklärt, was ich brauche.
    Es geht darum, dass ich an mich selber einen enorm hohen Anspruch habe, was die Videoqualität angeht, dies hindert mich derzeit daran, wieder richtig mit YouTube anzufangen, weil ich einfach nicht zufrieden bin, mit dem, was ich da abliefern würde. Hierbei geht es aber nur ums Auge, nicht meine Kommentar-Fähigkeiten!

    Vorweg
    Ich habe schon etwas viel Zeit neben der Arbeit, sodass ich mir solche Spielereien doch erlauben kann. Dazu habe ich auch die technischen Mittel, um solch qualitativ hochwertige Videos abzuliefern. Erfahrung in Sachen Hardware, Software, Programmierung sind auch vorhanden.
    Meine derzeitigen Vorstellungen sind: 1080p @ 60p, die auch wirklich aussehen wie 60 FPS, ohne auch nur ein kleinen Ruckler (like this).
    Jedes Video wird von mir in Adobe Premiere CC bearbeitet und gerendert.
    Verwendeter Codec, sofern einstellbar: Lagarith Lossless Video Codec​.

    Videoqualität
    Hierbei geht es um dieses Video. Wie man ab Sekunde 0:30 sieht, ist das Gameplay wirklich sehr scharf, hell und flüssig! Da stellt sich mir vorweg die Frage, wie ist es aufgenommen? Mit einem normalen Aufnahmeprogramm, wie Fraps oder DxTory? Oder doch mit einer Capture Card? Ich habe schon vieles probiert, um auf diese Qualität zu kommen. Verschiedene Aufnahmeprogramme, Bearbeitung im Renderprogramm, rendern mit immer wieder anderen Rendereinstellungen. Mit wirklich nichts war ich wirklich zufrieden.
    Wie bekommt man solch eine Qualität zustande?

    Aufnahmeprogramm
    Dieses leidige Thema. Ich habe auch hier schon einiges versucht. Ich habe mir Fraps, DxTory und Action! gekauft. Fraps habe ich schon seit ein paar Jahren, das war bei mir damals mal aktuell, als mir meine Qualität total egal war. Dies fällt hier schonmal direkt raus.
    DxTory und Action! haben bei mir das selbe Problem. 1080p30FPS laufen wirklich super, nur sobald ich auf 1080p@60FPS gehe, läuft zwar das Spiel bei der Aufnahme weiterhin flüssig, nur ruckelt die Aufnahme extrem. Ich habe mich mit einigen Leuten hingesetzt und habe mich an die Einstellungen von DxTory und Action! gesetzt. Nichts half so wirklich.
    Ich habe die Vermutung, dass es an meinen Festplatten liegt, auf die ich aufnehme. In meinem Rechner sind drei SSD's, eine für das OS und zwei im RAID 1 für Spiele. Dazu zwei HDD's. Derzeit im System 2x 2 TB Seagate-Festplatten. Diese haben schon so ihre Jahre auf dem Buckel und leisten schon länger täglich mehrere Stunden ihren Dienst. Da ist meine Vermutung, dass diese Festplatten einfach zu langsam schreiben, um 1080p@60FPS aufzunehmen. Meine Idee war dort, dass ich diese beiden HDD's einfach in ein RAID 0 packe. Davon verspreche ich mir eine höhere Schreibgeschwindigkeit. Meint ihr, dies wird etwas bringen? Da ich nicht darauf stehe, mir ständig neue SSD's zu kaufen, werde ich nicht auf die SSD's aufnehmen.

    Eine weitere Idee war dort eine Capture Card. Ich bekomme bald eine interne Capture Card von einem Kollegen geliehen, damit ich mich da mal rantasten kann. Hier hätte ich aber eine Frage: Ich habe drei Monitore, dies sind drei 120 Hz Monitore, die über DVI-D bzw. Displayport an meinen Rechner angeschlossen sind. Einer ist noch mit meinem zweiten PC per HDMI angeschlossen. Soweit ich weiß, haben Capture Cards (AVerMedia, Elgato, etc.) nur HDMI In/Out. Wie mache ich das? Ich bekomme per HDMI keine 120 Hz auf meine Bildschirme und dies ist mir doch recht wichtig. Wie gehe ich da vor?
    Wie bereits erwähnt habe ich noch einen zweiten Rechner, dieser ist aber eigentlich nur als Streaming-PC da.
    Leistungsblatt des Streaming-PCs
    • [lexicon]Prozessor[/lexicon]: i7 4770 @ 3,30 GHz
    • [lexicon]Grafikkarte[/lexicon]: GTX 780
    • [lexicon]SSD[/lexicon]: 128 GB Samsung Pro [lexicon]SSD[/lexicon]
    • [lexicon]Mainboard[/lexicon]: MSI Z97M Gaming
    • Arbeitsspeicher: 16 GB

    Ich habe dort schon probiert, per OBS mein Spiel aufzunehmen, allerdings habe ich auch dort wieder dieses Problem, dass die Aufnahme ruckelt. Ist es mir möglich, die Capture Card, die ich bald geliehen bekomme, dort zwischen zu schalten?
    Und dann gäbe es ja noch die For-Free-Programme; MSI Afterburner und NVIDIA Shadowplay. Ich muss sagen, ich habe derzeit mit Shadowplay von allen Programmen die besten Ergebnisse erziehen können. Ich habe auf meinem Trash-Kanal, damit ein paar Videos hochgeladen, die alle mit Shadowplay gemacht wurden. Jedoch habe ich auch dort das Problem, dass es keine 60 FPS sind, die ich da aufnehme. Hier mal ein Beispiel: Oh, hi! - Dieses Video ist in 1080p60FPS aufgenommen, bearbeitet und gerendert worden! Jedoch sieht es auf YouTube dann nicht aus wie 60FPS, von der Qualität auf 1080p ganz zu schweigen.

    Rendereinstellungen / YouTube-Verarbeitung
    Eine Diskussion war ja auch, die Videos auf 1080p60FPS aufzunehmen, dieses Video dann in 4K60FPS raus rendern und dann hochzuladen. YouTube soll bei 4K Videos ja auch 1080p mehr Bitrate zuweißen. Auch dazu habe ich mal ein Test gemacht und auf YouTube hochgeladen. Man kann mir nicht erzählen, dass dies 1080p60FPS sind - Tomb Raider [4K] (Shadowplay auf 1080p60FPS aufgenommen, 4K gerendert, usw.).
    Ist ab der Theorie "4K gibt 1080p mehr Bitrate" überhaupt soviel dran, wie es behauptet wird?

    Ich bin noch bis Sonntag bei meiner Freundin und werde gegen Sonntagabend dann alle Einstellungen, die ich bei Adobe, DxTory, etc. pp. getroffen habe, dann nachreichen.

    Ich hoffe jetzt einfach mal, ich habe nicht soviel Mist geschrieben. Was haltet ihr davon? Sollte ich meine Ansprüche lieber runterschrauben? Auch wenn ich es vielleicht nicht nötig für die Zuschauer ist, so muss auch ich mit meinen Videos zufrieden sein. Und ich bin einfach nicht zufrieden, wenn es nicht genauso ist, wie ich es will. Es hat beim Streamen schon ewig gedauert, bis ich zufrieden war.

    Der Kerl spinnt doch!
    Dazu werden viele glauben, ich hätte ein an der Waffel, wieso ich denn soviel Geld in "so gesehen" nichts investiere. Ich habe echt ein an der Waffel, aber Gaming ist einfach mein größtes Hobby, sowie auch ein Teil meines Berufes. Ich investiere gerne viel, auch wenn es nicht gebraucht wird. Viele geben das doppelte für ein Auto aus, wieso sollte ich also nicht mein Hobby bereichern. Ich bin eben ein Nerd durch und durch und dies bleibt auch so!

    - Thema durch -


    Liebe Grüße,
    Nico
    Intel i7 5960X | Asus Rampage V Extreme | 32GB Corsair Dominator Platinum DDR-4 | 2x GTX 980 | Asus Xonar Phoebus
    Dota Content on YouTube
  • Lossless Codecs der Reihe nach von sehr gut nach gut:
    MagicYUV, UT Video, Lagarith

    Hier geht es um CPU Leistung oder Kompressionsstärke. Probiere da selbst aus was dir am besten zusagt.

    RaZiiandStuff schrieb:

    Hierbei geht es um dieses Video. Wie man ab Sekunde 0:30 sieht, ist das Gameplay wirklich sehr scharf, hell und flüssig! Da stellt sich mir vorweg die Frage, wie ist es aufgenommen? Mit einem normalen Aufnahmeprogramm, wie Fraps oder DxTory? Oder doch mit einer Capture Card? Ich habe schon vieles probiert, um auf diese Qualität zu kommen. Verschiedene Aufnahmeprogramme, Bearbeitung im Renderprogramm, rendern mit immer wieder anderen Rendereinstellungen. Mit wirklich nichts war ich wirklich zufrieden.
    Wie bekommt man solch eine Qualität zustande?

    x264, Stichwort: CRF Encoding

    Premiere -> Debug Mode Frameserver -> AVISynth -> avs4x264mod -> x264cli_10Bit_x64

    oder

    Premiere -> VFW -> x264vfw_8Bit

    oder

    AVISynth -> avs4x264mod -> x264cli_10Bit_x64

    oder

    Virtual Dub -> VFW -> x264vfw_8Bit


    Wie du das machst ist einerlei. Das wären für dich und deinem Premiere kostenlose Methoden.
    Wichtig ist vor allem der CRF (Constant Rate Factor) bei diesem Encoder.

    Für Premiere gibt es aber auch einen Einstellungsmäßig eingeschränkten x264 Encoder von Premiere selbst für lächerliche ca. 230€.

    Wie gesagt: Was du nimmst ist dein Ding. Das ist aber auf jedenfall der Encoder den du für deine Finalvideos benötigst um Qualitativ sehr gut zu fahren.

    RaZiiandStuff schrieb:

    Dieses leidige Thema. Ich habe auch hier schon einiges versucht. Ich habe mir Fraps, DxTory und Action! gekauft.

    Es ist nicht schlecht Alternative Aufnahmeprogramme nebenbei zu besitzen, falls mal ein Spiel mit dem Hauptaufnahmeprogramm sich nicht aufnehmen lassen will.
    Bewährt und kostenlos und auch um einiges besser als das eingeschränkte einstellbare Fraps oder das in Lossy aufnehmende Action ist der MSI Afterburner. Kostenlos, Lossless Codecs auswählbar, freie FPS Wahl, 2 seperate Tonspuren für Ingame und Mikro. Alles was man braucht.

    RaZiiandStuff schrieb:

    Da ich nicht darauf stehe, mir ständig neue SSD's zu kaufen, werde ich nicht auf die SSD's aufnehmen

    Sollst du auch nicht. Normale HDDs zu einen Raid 0 reicht locker.

    Du solltest vllt. mal erwähnen oder besser sogar mit Crystal Disk Mark ein Bild davon posten wie deine Schreibgeschwindigkeiten der Festplatten sind.

    Antivirensoftware die die Festplatten durchforsten, könnten den Schreibprozess für die Aufnahmedatei ebenfalls in den Keller reißen. Wenn du sowas haben solltest.

    RaZiiandStuff schrieb:

    Soweit ich weiß, haben Capture Cards (AVerMedia, Elgato, etc.) nur HDMI In/Out. Wie mache ich das? Ich bekomme per HDMI keine 120 Hz auf meine Bildschirme und dies ist mir doch recht wichtig. Wie gehe ich da vor?

    DVI = HDMI ohne Ton

    Nur weil DVI anders aussieht als HDMI, heißt das ja nicht das beide nach nicht auch die gleichen nativen Bilder senden können. ;D
    HDMI ist nur eine entsprechende Weiterung des DVI, nur das HDMI halt auch Ton mit übertragen kann.

    Wenn du über DVI also schon 120Hz schaffst, macht das eine HDMI Verbindung ebenfalls.
    Abhängig ist sowas immer von den Spezifikationen der Endgeräte und der Grafikkarte.

    Du kannst also alles einstellen was du auch über DVI einstellen kannst. Auch die Frequenz der Bildwiederholung des Monitors.

    RaZiiandStuff schrieb:

    Ich habe dort schon probiert, per OBS mein Spiel aufzunehmen,

    OBS wäre eine gute Wahl wenn du z.B. auf Twitch streamen willst. Also Live Übertragungen machen willst.

    Ansonsten nimmt dir der OBS allein durch die x264 Aufnahme enorm an CPU Leistung weg.
    (OBS x264 Lossless Aufnahme geht über die Commanderweiterung: qp=0 und ist in der OBS Einstellung zu ergänzen. Sonst werden alle Aufnahmen Lossy Aufnahmen die keine gute Qualitätsbasis bieten.)

    RaZiiandStuff schrieb:

    ich habe derzeit mit Shadowplay von allen Programmen die besten Ergebnisse erziehen können

    Shadowplay... ja, darüber können dir sicher viele ein Klagelied zu singen.

    Shadowplay nimmt immer in VFR auf. Daraus resultiert eine sehr sehr hohe Wahrscheinlichkeit das Videoaufnahmen nach gut 15 Minuten so langsam Asynchron werden.
    Grund: CFR Programme wie Premiere, Vegas, Schrottasia, etc. können mit VFR nix weiter anfangen als sie als CFR Material zu behandeln. Daraus resultiert dann die Asynchronität.

    Shadowplay nimmt lossy auf. Solange das Teil noch Lossy aufnimmt ist es schon mal keine gute Basis für nochmalige 2 Encodes seitens Premiere und Youtube. (Matsch ist damit schon so gut wie vorprogrammiert)

    RaZiiandStuff schrieb:

    Man kann mir nicht erzählen, dass dies 1080p60FPS sind - Tomb Raider [4K] (Shadowplay auf 1080p60FPS aufgenommen, 4K gerendert, usw.).

    Wie sich die Antworten von vorhin hier wiederholen grad ;D
    Shadowplay ist keine gute Basis vom Quellmaterial her.




    1 Tipp:
    Die Nutzung eines Lossless Codecs macht noch lange nicht die Aufnahme Lossless.
    Die Bitrate wird bei Lossless auf ein Maximum passend zum jeweiligen Frame der Aufnahme gesetzt.
    Bedeutet: Maximale Qualität

    Aber... Eine Aufnahme in YUV420, YUV422 oder YUV444 sind keine nativen Aufnahmen.
    Eine Native Aufnahme wäre wenn man mit RGB24 aufnehmen würde. Weil die Spiele nun mal alle im RGB Farbraum operieren.

    Eine RGB24 Aufnahme ist qualitativ zu 100% Lossless und somit 1:1 dem Originalbild.

    Ebenfalls profitieren Skalierer von der Farbunterabtastung 4:4:4.
    Somit sind RGBA, RGB24 und YUV444 die Farbräume mit denen man die meiste Qualität rausholen kann. Wir nennen es die hohe Qualitätsstufe.

    YUY2, YV16 sind YUV422 Farbraummodelle die der mitteleren Qualität entspricht

    Und YUV420 wo YV12 zugehört bildet die niedrige Qualität dar.


    2 Tipp:
    Skalierertypen.
    Du solltest wissen mit welchen Skalierer du dein Material hochskalieren tust. Sind es schon Faktoren oder sind es minimale Skalierungen?
    Ein PointResize bietet sich an wenn ein Video in Faktoren skaliert werden soll. z.B. 720p zu 1440p mit Faktor 2

    Spline100 oder Spline16 sind neutrale Skalierer die minimales Ringing und Aliasing haben die dann für kleinere Skalierungen gedacht wären.
    z.B.: 1080p auf 1800p (1800p ist auf YT die 4K Marke)

    Die 1800p reichen als Maximum komplett aus. Dadurch erhält das Game auch mehr Bitrate durch den YT Encode.


    3 Tipp:
    Spiele können Komplex und Unkomplex sein vom Frameaufbau. Um das Video auf YT aber nicht absichtlich in ein Matschfeld zu verwandeln, sollte vor dem Encode des Quellmaterials dafür gesorgt sein das die Aufnahme oder das Spiel im Allgemeinen Bluring Elemente besitzt bei komplexeren Frames.

    z.B. sieht ein Arma 3 Video auf YT besser mit Motion Blur aus als ein Matschsalat wenn es kein Motion Blur besitzt.

    Durch ein Motion Blur bekommt das Spiel an Bewegungsframes mehr Bitrate zugeschrieben, da ja das verschwommene bewegte Bild weniger darstellen muss.

    Inkomplexe Games die weder groß an Texturdetails haben oder sich durch höhere Standbilder auszeichnen wie RPGs ala Final Fantasy 1 bis 6 z.B. brauchen kein Bluring, da sie sich ihre Bitrate durch die Standbilder erkaufen.


    4 Tipp:
    Weniger Banding bekommt das Video auf YT wenn das hochgeladene Quellmaterial eine 10Bit Encodierung hinter sich hatte. Der Standard Encode für NLEs ist leider üblicherweise der 8Bit Encode. (Siehe Methodenliste zur Encodierung der Videos weiter oben)



    Es gibt noch jede Menge mehr zu beachten. Aber das sind so ziemlich die Standardklischees. Wenn du das einhalten tust, kommt auch was brauchbares raus.

    Ein Idealfall wäre für max Qualität:
    RGB24 Aufnahme in 1800p60 -> AVISynth (Hinzufügen von Motion Blur + das übertragen des Materials an den Encoder) -> x264_x86_10Bit (Encode zu YUV444 mit RGB-Matrix)

    Das hochgeladene encodierte Video freut sich dann ;D

    Etwas geringer und noch mehr Qualität würde sich ergeben durch:
    RGB24 Aufnahme in 900p60 -> AVISynth (Hinzufügen von Motion Blur + PointResize Faktor 2 zu 1800p60 + das übertragen des Materials an den Encoder) -> x264_x86_10Bit (Encode zu YUV444 mit RGB-Matrix)

    Dadurch das das Quell Material kleiner war und in 1800p hochskaliert wurde, wurde mit PointResize die Pixel in x und y verdoppelt und bilden nun ein 2*2 Pixel Block.

    Das kann natürlich besser komprimiert werden und auch die Bitrate für diese Frames würde auf YT zunehmen, da die Frames inkomplexer sind.


    PS: Bei YUV420 und YUV422 Aufnahmen am besten niemals den PointResizer nutzen. Da empfiehlt sich dann doch eher Spline16 oder Spline100.


    Ein sehr schöner aber auch langsamer Resizer wäre der nnedi3_rpow2. Kategorie: Downsampling und Antialiasing der Aufnahme.


    Das meist genannte kannst du beim Programm SSM finden (Auf das Wort mal klicken dann).

    Die x264cli bekommste kostenlos und in allen Formen und Farben vom Programm MeGUI.

    Den x264vfw Encoder musste mal ergoogeln auf Sourceforge. Ist ebenfalls Kostenlos.


    Wenn du noch mehr Fragen hast, nur zu ;D
  • Danke, @sam.

    Sagaras schrieb:

    Lossless Codecs der Reihe nach von sehr gut nach gut:
    MagicYUV, UT Video, Lagarith

    Hier geht es um CPU Leistung oder Kompressionsstärke. Probiere da selbst aus was dir am besten zusagt.

    Nachdem ich jetzt mal alle Codecs ausprobiert habe, habe ich mich für den MagicYUV entschieden. Da ich auch nun endlich mein Problem mit DxTory in den Griff bekommen

    habe, nehme ich damit auf. 1080p @ 60 FPS. Hier nochmal bildlich dargestellt:

    Danke also für den Tipp!

    Sagaras schrieb:

    x264,

    Stichwort: CRF Encoding

    Premiere -> Debug Mode Frameserver -> AVISynth -> avs4x264mod -> x264cli_10Bit_x64

    oder

    Premiere -> VFW -> x264vfw_8Bit

    oder

    AVISynth -> avs4x264mod -> x264cli_10Bit_x64

    oder

    Virtual Dub -> VFW -> x264vfw_8Bit

    Wie du das machst ist einerlei. Das wären für dich und deinem Premiere kostenlose Methoden.
    Wichtig ist vor allem der CRF (Constant Rate Factor) bei diesem Encoder.

    Für Premiere gibt es aber auch einen Einstellungsmäßig eingeschränkten x264 Encoder von Premiere selbst für lächerliche ca. 230€.

    Wie gesagt: Was du nimmst ist dein Ding. Das ist aber auf jedenfall der Encoder den du für deine Finalvideos benötigst um Qualitativ sehr gut zu fahren.

    Hier beginnt es nun. Meine Antwort kommt ja echt etwas spät, aber ich habe die ganze Zeit versucht, damit klar zu kommen. Bevor ich jetzt damit angefangen habe,

    hatte ich gedacht, ich hätte wenigstens ein bisschen Ahnung von sowas, aber da hab ich mich extrem getäuscht. Ich habe mir zahlreiche Videos auf YouTube angesehen,

    darunter auch das Video von @DerET, aber keines hatte mir so wirklich geholfen. Ich habe zwar etwas begriffen, aber das wichtigste, eben das mit dem "AVISynth ->

    avs4x264mod -> x264cli_10Bit_x64"- Teil eben nicht... Da bräuchte ich ganz dringend nochmal eine komplett Erklärung, wenn es diese hier schon gibt, reicht eine einfache Verlinkung. Ich habe über die Suchfunktion leider nichts wirkliches gefunden. :/

    Sagaras schrieb:

    Es ist

    nicht schlecht Alternative Aufnahmeprogramme nebenbei zu besitzen, falls mal ein Spiel mit dem Hauptaufnahmeprogramm sich nicht aufnehmen lassen will.
    Bewährt und kostenlos und auch um einiges besser als das eingeschränkte einstellbare Fraps oder das in Lossy aufnehmende Action ist der MSI Afterburner. Kostenlos,

    Lossless Codecs auswählbar, freie FPS Wahl, 2 seperate Tonspuren für Ingame und Mikro. Alles was man braucht.
    Wie gesagt, ich habe mich jetzt endlich mit DxTory angefreundet und ich bin wirklich begeistert. Es klappt alles wie ich will und sieht auch soweit gut aus. Was jetzt das Problem war, will ich nicht sagen, da es mir doch schon ein wenig peinlich ist, weil es eine so offensichtliche Kleinigkeit war.

    Sagaras schrieb:

    Sollst

    du auch nicht. Normale HDDs zu einen Raid 0 reicht locker.

    Du solltest vllt. mal erwähnen oder besser sogar mit Crystal Disk Mark ein Bild davon posten wie deine Schreibgeschwindigkeiten der Festplatten sind.

    Antivirensoftware die die Festplatten durchforsten, könnten den Schreibprozess für die Aufnahmedatei ebenfalls in den Keller reißen. Wenn du sowas haben solltest.

    Hier ist das Ergebnis (OHNE RAID):

    Sagaras schrieb:

    OBS

    wäre eine gute Wahl wenn du z.B. auf Twitch streamen willst. Also Live Übertragungen machen willst.
    Weiß ich ja, gemeint war, das ich auf dem anderen PC, also meinem Streaming-PC aufnehme.

    Sagaras schrieb:

    Shadowplay... ja, darüber können dir sicher viele ein Klagelied zu singen.
    Habs gemerkt. Grade bei der wichtigen Aufnahme, die schnell entstanden ist, weil DxTory nicht läuft, ist es extrem Asynchron. Nehme es nur noch für Sekunden-Aufnahmen.

    Sagaras schrieb:

    Tipp:
    Weniger Banding bekommt das Video auf YT wenn das hochgeladene Quellmaterial eine 10Bit Encodierung hinter sich hatte. Der Standard Encode für NLEs ist leider

    üblicherweise der 8Bit Encode. (Siehe Methodenliste zur Encodierung der Videos weiter oben)

    Es gibt noch jede Menge mehr zu beachten. Aber das sind so ziemlich die Standardklischees. Wenn du das einhalten tust, kommt auch was brauchbares raus.

    Ein Idealfall wäre für max Qualität:
    RGB24 Aufnahme in 1800p60 -> AVISynth (Hinzufügen von Motion Blur + das übertragen des Materials an den Encoder) -> x264_x86_10Bit (Encode zu YUV444 mit RGB-Matrix)

    Das hochgeladene encodierte Video freut sich dann ;D

    Etwas geringer und noch mehr Qualität würde sich ergeben durch:
    RGB24 Aufnahme in 900p60 -> AVISynth (Hinzufügen von Motion Blur + PointResize Faktor 2 zu 1800p60 + das übertragen des Materials an den Encoder) -> x264_x86_10Bit

    (Encode zu YUV444 mit RGB-Matrix)
    Auch hier wieder, wie bereits gesagt, ich blicke nicht durch..

    Sagaras schrieb:

    Wenn du noch mehr Fragen hast, nur zu ;D
    Da, bitteschön! :D
    Intel i7 5960X | Asus Rampage V Extreme | 32GB Corsair Dominator Platinum DDR-4 | 2x GTX 980 | Asus Xonar Phoebus
    Dota Content on YouTube
  • Anzeige

    RaZiiandStuff schrieb:

    ch habe zwar etwas begriffen, aber das wichtigste, eben das mit dem "AVISynth -> avs4x264mod -> x264cli_10Bit_x64"- Teil eben nicht... Da bräuchte ich ganz dringend nochmal eine komplett Erklärung

    Diese Kombination von Programmen setzt dir MeGUI zusammen. Das heißt das die bei MeGUI alle im Hintergrund nacheinander abgearbeitet werden.

    MeGUIs Vorgang Videos zu encodieren für:

    8Bit und 10Bit Encode 32Bit
    Input -> AVISynth 32Bit -> x264cli_x86 -> Output

    8Bit und 10Bit Encode 64Bit
    Input -> AVISynth 32Bit -> avs4x264mod -> x264cli_x64 -> Output

    Bei dem 64Bit Encoder schaltet sich automatisch eine Pipeline dazwischen um AVISynth 32Bit mit den x264 64Bit lauffähg zu bekommen.

    Das macht aber MeGUI alles im Hintergrund. Was du machst ist ledeglich die Frameserverdatei von deiner NLE ODER gleich dein Aufnahme Video in MeGUIs Script Creator zu ziehen und es mit AVISource zu laden.

    ODER du verwendest für die AVISynth Skript Erstellung den SSM.

    Beide Varianten würden dir ein Skript erstellen was MeGUI akzeptieren kann und danach auch encodieren kann.

    RaZiiandStuff schrieb:

    Auch hier wieder, wie bereits gesagt, ich blicke nicht durch..

    Spezifiziere mal bitte genauer was dir noch unklar ist und was du bereits verstanden hast. Dann könnte man vllt. da ansetzen was du nicht verstehst.

    Ansonsten:
    Farbräume haben Qualitätsstufen und sind entscheident dafür wenn man z.B. hochskalieren will.
    Daher kann man die Farbräume eigentlich eingliedern für die Aufnahme:
    RGB24/32 und YV24 mit der Farbunterabtastung 4:4:4 sind gestochen Scharfe Bilder. (Hohe Qualität)
    YUY2 und YV16 mit der Farbunterabtastung 4:2:2 sind Vertikal gestochen Scharf und Horizontal Farbverschmierte Bilder (Mittlere Qualität)
    YV12 mit der Farbunterabtastung 4:2:0 sind in allen Ausrichtungen Farbverschmierte Bilder (Niedriege Qualität)

    Der Farbraum sollte bei der Aufnahme beachtet werden, bei der Durchschleusung durch NLE, Frameserver, Pipeline und auch Encoder.

    Genaueres kannst du hier nachlesen: Ab diesen Beitrag und alle danachfolgende: SagaraS Scriptmaker (GUI)

    Da hatte mich nämlich ein User schon mal nach gefragt.
  • Sagaras schrieb:

    Spezifiziere mal bitte genauer was dir noch unklar ist und was du bereits verstanden hast. Dann könnte man vllt. da ansetzen was du nicht verstehst.
    Kommt es dreist, wenn ich sage, ich hätte gerne eine komplette Anleitung, die ich dann hinterfragen kann? Von Anfang bis ende? Ab dem Zeitpunkt wo es zu MeGUI geht...
    Intel i7 5960X | Asus Rampage V Extreme | 32GB Corsair Dominator Platinum DDR-4 | 2x GTX 980 | Asus Xonar Phoebus
    Dota Content on YouTube
  • Also...

    MeGUI ist nur eine GUI die verschiedene Freeware Programme nutzt. Dazu gehören Sachen wie Plugins, Encoder, Muxer/Demuxer, Indexer und Bearbeitung.

    Bedeutet MeGUI an sich ist völlig irrelevant, da man sämtliche Tools auch ohne MeGUI bekommen würde. Jedoch ist das beste an MeGUI: Sehr vereinfachte Bedienung und Nutzung dieser Tools. Auch die Tatsache das man Joblisten erzeugen kann macht es wirklich total Easy damit zu arbeiten.

    Jetzt willst du natürlich deine Videos darüber encodieren lassen. Du arbeitest zwars mit MeGUI, aber in Wirklichkeit arbeitest du mit den Tools die MeGUI für dich steuert.

    Und das sind in der Regel bei einer AVI Aufnahme immer AVISynth als Bearbeitungstool und Frameserver, avs4x264mod als Pipeline für den x264_64Bit Encoder und den x264 Encoder an sich der dann die Videos encodieren tut.
    Für Audio das gleiche Verfahren. Erst AVISynth, dann ein entsprechender Audioencoder der in der Regel die AVS immer über eine Pipeline anspricht.
    Zum Schluss können beide Encodierten Streams gemuxt werden in einen neuen Container. Wie z.B. MP4 oder MKV.

    Schematik mal was MeGUI halt macht:


    So läuft das halt ab. Das siehst man bei MeGUI halt nicht alles. Nur in der LOG mitzuverfolgen.

    ALSO:
    Das Video kommt erst in ein AVISynth Skript bei MeGUI. Das Skript erstellst du entweder durch MeGUIs eigenen Script Creator unter Tools ODER du verwendest den SSM dazu, der dir dann das Skript erzeugt was du in MeGUI nur noch reinzuziehen brauchst.

    Der Farbraum der Aufnahme entscheidet am Ende wie gut Skalierungen werden und auch wie gut das Material für den späteren Encode ist. Je höher der Farbraum, desto besser das Bild.

    Wie auch immer. Hast du ein Skript wie gesagt fertig kommt es in MeGUI in den Video Part oben rein. Audio entsprechend in den unteren Part.

    Hast du Video und Audio drin, kannst du über den AutoEncode encodieren.
    Wenn du den Settings von MeGUI die 64Bit Version nutzt von x264, dann erfolgt automatisch die Nutzung der Pipeline avs4x264mod.

    Die unterliegt aber besonderen Bedingungen. Die Pipeline kann halt ledeglich YV24, YV16 und YV12 durchschleusen. Bedeutet das zwars alle Farbunterabtastungsvarianten gegeben sind, aber dir halt auch bestimmte Farbraumtypen fehlen.

    z.B. passiert wenn du YUY2 durchschickst was ja 4:2:2 ist das die Pipeline automatisch YV12 4:2:0 daraus macht. Der Encoder danach bekommt also als Input ledeglich 4:2:0 ala YV12 und kein YUY2. Daher sollte das wie gesagt beachtet werden.

    Hmm... vllt erklär ich das noch einfacher:
    Du siehst doch oben die Grafik.
    Der Video Input hat ja einen Farbraum. Den mit dem du aufgenommen hast. Den leitest du weiter nach AVISynth. AVISynth erkennt den Farbraum, kann ihn aber auch abändern. Danach leitet AVISynth den Farbraum entweder direkt an den Encoder oder an die Pipeline. Je nachdem ob nun der 32Bit oder der 64Bit Encoder genommen wird.
    Der 32Bit Encoder kann alle Farbräume schlucken die von AVISynth kommen. Aber die Pipeline nicht. Die ist halt begrenzt auf YV24, YV16 und YV12.
    Die Pipeline bekommt also von AVISynth den Farbraum zugesendet und schleust, sofern es einer der genannten ist, richtig an den Encoder durch. Wenn nicht wird der Farbraum auf YV12 runtergebrochen.

    Beide Encoder bekommen nun also den jeweiligen Farbraum als Input. Der Encoder aber selbst kann diesen Farbraum auch beibehalten, indem man ihm mit einen bestimmten Parameter erweitert den man ihm in der Config geben kann.

    Ist der Input am Encoder z.B. YV24, dann gibt man dem Encoder am besten den entsprechenden Farbraumoutput an mit --output-csp i444

    Das zu den Farbräumen.

    Zurück zu MeGUIs Allgemeinen Teil wieder. Wenn du das Skript zum Video drin hast und die entsprechende Audiodatei zum Video oder noch besser zum Skript drin hast, kannst du mit AutoEncode encodieren. Wichtige Option beim AutoEncode sind "No Target Size" und der MKV Container. Oder halt MP4. MKV ist halt besser, weil es Erweiterbar ist.

    Danach landet dein Video in der Jobliste und wird (wenn du nix weiter eingestellt hast) gleich encodiert. Ansonsten gibt es im Queue Tab den Start Button zu.

    Und dann kommt halt dein fertiges Video raus.

    Das wars halt.

    Das mit dem Farbraumen sollte man halt wissen bei MeGUI. Vor allem dann wenn man in höheren Farbräumen aufnimmt. Bei YV12 Aufnahmen brauchste dir keine Gedanken mit sowas machen, da alles in MeGUI auf YV12 geeicht ist.

    Fehler kann man aber begehen, sofern man ein höheren Farbraum encoden möchte, der Weitaus mehr Qualität dann auch liefert.
  • Also als erstes würd ich auf jeden Fall Premiere weglassen. Das Teil encodet eher ineffizient (wie so gut wie alle NLEs)

    RAID 0 bringt natürlich enorm. Doppelte Schreibgeschwindigkeit der HDD quasi. RAID 1 dürfte aufgrund der Spiegelung sogar ziemlich bremsend sein.

    Ja RGB24 Aufnahme wäre natürlich das extremste, aber es belastet die HDD & CPU schon merklich.

    Ich persönlich gebe mich mit YUV 4:2:2 zufrieden. Das verbraucht bei weitem weniger Leistung und Speicher als RGB24.
    Wichtig ist halt, das du mit verlustfreien Codecs aufnimmst. Sprich MagicYUV ist schonmal super Wahl.

    Für etwas CPU Entlastung kannste predict left, statt dynamic bei MagicYUV einstellen. Die Threads auf 3 reichen aus und das Spiel hat mehr CPU für sich.
    DXTory empfehl ich ungern für High FPS und bei OpenGL Spielen ist das Teil quasi eine Schnecke im Schleichtempo.
    Afterburner kann ich da also eher empfehlen.


    Für weiche 60fps würde sich anbieten bei Afterburner in RTSS ein FPS Limiter von 120 reinzusetzen, oder aber Vsync zu verwenden. Dann muss das Aufnahmeprogramm nur jeden 2. Frame nehmen, was natürlich für ein besonders weiches Bild sorgt im vergleich zu einer stark variierenden Framerate. Vsync wäre ja mit deinem 120hz Gerät gut machbar. Vsync 60hz würd ich nämlich nicht empfehlen, weil es ja nie konstant bleibt und zb mal auf 59, 58, 60, 59 fps etc hin und her schwankt. Würde also immer so 1 bis 2 frames fehlen. Daher ist eine 120fps begrenzung schon angenehmer.


    Bei youtube musst du aber eins bedenken:

    Entweder du entscheidest dich für viel FPS und hast nur bis 1080p. Oder du machst 3200x1800 und hast 1440 und 4k von denen, welche signifikant mehr bitrate haben als ihr 1080p encode.

    Ihr 1080p encode mit 60fps hat allerdings immerhin bis zu 6000 kbit bitrate, während die 30fps variante nur bis zu 4000 kbit bitrate hat.
    Die Bitrate wird durch höher aufgelöster Quelle nicht höher, aber innerhalb der bitraten pro qualistufe bleibt halt mehr qualität über.


    Nach der Aufnahme käme das Video dann in SSM.

    Wenn du zb in YUV 4:2:2 aufgenommen hast und willst das beim x264 beibehalten, stellst du beim SSM "YUY2 ohne konvertierung" für die farbe ein.
    Multithreading auf jeden Fall nutzen für mehr speed. Sourcen : Mode 3, Threads 4, Trim : Mode 2 (der rest läuft dann mit mode 2 weiter)

    Audio kannste mitm Noten button exportieren und kann in einem Audioprogramm bearbeitet werden. Export sollte in WAV geschehen.

    Script kann mit Diskette gespeichert werden.

    Zu MeGUI:

    Audio Encoder : FLAC und in dessen config stellste höchste kompression ein - es isn lossless audio codec.
    Zu video:

    x264 config: 10bit encoding anhaken! und show advanced anhaken

    Dann zu custom commandline und

    --output-csp i422

    eintragen (wenn wir weiterhin davon ausgehen das du YUV 4:2:2 farbraum behalten willst)

    Bei YV12 (YUV 4:2:0) kann das leer bleiben.

    Quality stellt die framequalität ein. Nach Uploadspeed anpassen. Gute Werte beginnen ab 21. Niedriger = bessere Qualität, größere Datei.

    Wenn du die Jobs in die Jobliste tust, wird megui fragen ob eine YV12 konvertierung rein soll, wenn das avisynth script es nicht drin hat (was es ja nicht hat, wenn du YUV 4:2:2 machen möchtest) Wenn du also YUV422 machen möchtest, musste da no sagen.


    Ansonsten bleibt nur zu hoffen, das youtube endlich auch für 1440 und 4k die 60fps freischaltet.

    Und ansonsten gibts eig. nicht mehr viel zu sagen^^
    Aktuelle Projekte/Videos