Adobe Premier Pro CS 5.5 für Let's Plays

    • Text-Tutorial

      Adobe Premier Pro CS 5.5 für Let's Plays

      Dieser Workshop wird bei neueren Erkenntnissen stetig aktualisiert!

      Wie wird ein aufgenommenes "Let's Play" überhaupt passend für YouTube erstellt?
      Man kann natürlich viele Programme benutzen, z.B. Sony Vegas, Camtasia Studio oder eben Adobe Premiere. Ich habe mich nach mehreren Probierphasen eindeutig für die Lösung von Adobe entschieden. Damit Ihr nicht auch so viel Zeit zum Ausprobieren verschwendet, habe ich einen kleinen Workshop vorbereitet.

      Denn am Anfang habe ich mir viele Fragen gestellt, wie resized/cropped/schneidet man das aufgenommene Material? Wie legt man überhaupt ein neues Projekt richtig an? Wie und wo legt man die Ausgabeparameter für das fertige Material fest? Und das alles soll auch noch gut aussehen und relativ wenig Platz verbrauchen...

      Meine damalige Ausgangssituation war nicht sehr Vorteilhaft, darauf komme ich aber später nochmal zurück, denn mir lag Video-Material (1680x1050 | RAW | 16:10 | 30FPS | inkl. Audio) mit einer separaten Tonspur (WAV | 16Bit PCM) vor. Das Ziel war, das Material für YouTube in ein entsprechendes Zielformat (1280x720 | 3Mbit/s h.264 |16:9 | 30FPS | 160Kbit/s ACC) zu encoden.

      Nach erfolgreicher Umsetzung möchte ich mit folgendem Workshop anderen Usern den Umgang mit Adobe Premiere erleichtern. Einige Veränderungen und Verbesserungen sind nachträglich hinzugekommen. Diese sind unter dem Video erläutert.

      Verwendet wurde: Adobe Premiere Pro CS 5.5 (inkl. Adobe Media Encoder CS 5.5)

      Video:
      http://img.youtube.com/vi/899rY8XAHTQ/maxresdefault.jpg


      Für maximale Performance sorgen.
      Während des Rendervorgangs sollten keine großen Datensätze zusätzlich auf die Festplatte geschrieben werden. Am besten man deaktiviert noch den Virenscanner, da dieser zusätzlich für CPU-Auslastung sorgt, weil z.B. jede Datei die beim Rendervorgang erstellt wird, zusätzlich kontrolliert wird. Der Windows Indizierungsdienst ist ebenfalls zu deaktivieren, da dieser für viele Lesezugriffe auf der Festplatte sorgt. Alle weiteren Programme, die nicht unbedingt benötigt werden, sollten ebenfalls geschlossen werden. Für maximale Performance beim Rendern empfehle ich bei Betriebssystemen die Windows Aero unterstützen, die entsprechende Funktion vorübergehend zu deaktivieren.

      Feldreihenfolge? Vollbild (progressive) oder Halbbild (interlaced)?
      Die Bildverarbeitung bei heutigen Monitoren und allen Flachbildfernsehern ist vorwiegend mit der progressiven Bildverarbeitung realisiert. Die Bildverarbeitung durch Halbbilder wird, wenn dann nur noch ausschließlich im Fernseh- oder Videobereich angewendet. Der extreme Nachteil von interlaced produzierten Aufnahmen ist, dass es zwischen den Halbbildern zu optischen Bewegungen kommen kann und dadurch ein Zeilenflimmern zu sehen ist. Dies lässt sich z.B. durch ein deinterlaced Encodieren beheben. Ein Let’s Player braucht sich darum also keine Sorgen machen, da die Bildschirmaufnahmen allesamt als Vollbild erfolgen. Möchte man allerdings z.B. ein Bild-In-Bild (PIP) einer externen Digitalkamera in seine Aufnahme mit einfügen, sollte man vorher prüfen, ob das Material vorher noch separat deinterlaced gerendert werden muss. Dabei muss vorher ausgewählt werden, ob das interlaced Material mit dem oberen Halbbild oder dem unteren Halbbild beginnt. Beim Encodieren von aufgenommenen Let's Plays für YouTube ist also stets eine progressive Feldreihenfolge zu wählen.

      Pixel, Pixelgröße, Seitenlängen, wichtig?
      Die Anzahl von Pixeln bei zwei Bildern mit derselben Auflösung muss nicht zwingend gleich sein. Je nach Datenformat und Anwendung besteht die Möglichkeit, dass ein Pixel für eine bessere Verifizierung des Bildes z.B. ein Seitenverhältnis von 16:9, 4:3 oder andere aufweist. Jetzt stellt sich die Frage, welches Seitenverhältnis sollte man beim Encoden auf das Ziel-Material anwenden? Da ein Pixel zu einem bestimmten Zeitpunkt nur eine Farbe annehmen kann, erhält man die größte Pixeldichte bei einem Seitenverhältnis von 1:1, wenn dieser zusätzlich die kleinste darstellbare Seitenlänge aufweist. Auch die Datengröße des Bildes nimmt mit der Anzahl der Pixel zu. Ein Bild mit einem Pixelseitenverhältnis von 16:9 verbraucht also weniger Speicherplatz als, als wenn dieses ein Pixelseitenverhältnis von 1:1 hätte. Wenn ein Bild in einem größeren Verhältnis skaliert wird, ist demnach die Bildqualität bei einem Seitenverhältnis von 1:1 weitaus besser als z.B. 16:9. Liegt das Quell-Material nicht mit einem Pixelseitenverhältnis von 1:1 vor, ist es unsinnig zu versuchen es in dieses zu encodieren. Die Datengröße steigt, aber es entsteht keine bessere Bildqualität, da nicht mehr Farbinformationen gewonnen werden können. Es ist beim Encoden also generell zu empfehlen, dasselbe Pixelseitenverhältnis wie im Quell-Material zu verwenden, außer man möchte die Datengröße verringern und damit die Bildqualität verschlechtern.

      Die richtige Bitratecodierung wählen!
      Warum sollte man überwiegend in CBR (Constant-Bitrate) und nicht in VBR (Variable-Bitrate) rendern, obwohl die Qualität schlechter sein kann? Die Antwort ist ganz einfach, denn der YouTube User muss das Video als Stream laden. Dabei ist es relativ ungünstig, wenn die Datenrate von einer Sekunde auf die andere stark schwankt und dadurch das Video stockt. Man kann also nicht bei allen YouTube-Usern eine passend schnelle Internetverbindung voraussetzen und sollte dementsprechend seine Videos in CBR (Constant-Bitrate) rendern. Ein weiterer Punkt der für CBR (Constant-Bitrate) spricht ist, dass der Rendervorgang weniger Zeit in anspruch nimmt als bei VBR (Variable-Bitrate).

      Um das Thema resizen und schnippeln nochmal genauer anzusprechen sei Folgendes gesagt:
      Es ist immer besser gleich im 16:9 Format Videos aufzunehmen, da beim Umwandeln vom Format 16:10 zum Format 16:9 eine Bildverzerrung stattfindet. Es ist also z.B. günstiger Videos mit einer Auflösung von 1600x900 aufzunehmen als mit 1680x1050. Ein schöner Nebeneffekt ist, dass Ihr bei den meisten Spielen ein größeres "Field of View" habt und trotzdem weniger Daten bei der Aufnahme anfallen, da bei einem Format von 16:10 mehr Pixel anfallen als bei einem 16:9 Format. Ein negativer Effekt ist, dass z.B. ein Bildschirm, der für 16:10 Formate konzipiert ist, das Bild im Format 16:9 nicht komplett ausgefüllt darstellen kann.
      Lösung: Nach einigen Tests habe ich festgestellt, dass z.B. bei AMD-Grafikkarten im Catalyst-Control-Center eine Funktion namens GPU-Scaling existiert. Damit ist es möglich z.B. direkt mit einer 16:9 Auflösung aufzunehmen und zu spielen, wobei das Bild auf einem 16:10 Bildschirm automatisch auf Fullscreen gestretcht wird.

      Adobe Media Encoder CS 5.5

      Die Benutzung des Adobe Media Encoders CS 5.5 gestaltet sich für mehrere Rendervorgänge sehr komfortabel. Ärgerlich ist die fehlende Möglichkeit den PC, nach der Abarbeitung aller Renderaufträge, in den Ruhezustand zu versetzen oder diesen komplett herunterfahren zu können. Abhilfe wird im folgenden Video ausführlich erklärt und dargelegt.

      Video:
      http://img.youtube.com/vi/ttcaEkXevsE/maxresdefault.jpg


      Link zum Quellcode: Adobe Media Encoder Shutdown-Script

      Rendersettings
      Um in einer noch angebrachten Zeit Medien mit einigermaßen Qualität in HD 720p zu rendern und die entstehenden Dateigrößen für den upload zu YouTube minimal zu halten, empfehle ich folgende Video-Rendersettings, wobei die Encodierungszeit stark von der Farbtiefe des Ausgangsmaterials abhängig ist:

      --------------------Profil-Low-----------------
      Format: h.264
      Fernsehnorm: PAL
      Framebreite: 1280 Pixel
      Framehöhe: 720Pixel
      Framerate: 30FPS (je nach Quelle bis min. 24FPS)
      Feldreihenfolge: ohne (Progressive)
      Pixel-Seitenverhältnis: Quadratpixel
      Profil: Hoch
      Pegel: 3,2
      Rendern mit maximaler Farbtiefe: JA
      Bitratecodierung: Constant-Bitrate
      Bitrate: 3Mbit/s
      Geschätzte-Dateigröße: 392MByte/15min
      Renderzeit: ca. 45min (mit 8GByte RAM & 3GHz Quadcore)
      -------------------------------------------------

      ------------------Profil-Medium------------
      Format: h.264
      Fernsehnorm: PAL
      Framebreite: 1280 Pixel
      Framehöhe: 720Pixel
      Framerate: 30FPS (je nach Quelle bis min. 24FPS)
      Feldreihenfolge: ohne (Progressive)
      Pixel-Seitenverhältnis: Quadratpixel
      Profil: Hoch
      Pegel: 3,2
      Rendern mit maximaler Farbtiefe: JA
      Bitratecodierung: Constant-Bitrate
      Bitrate: 6Mbit/s
      Geschätzte-Dateigröße: 660MByte/15min
      Renderzeit: ca. 55min (mit 8GByte RAM & 3GHz Quadcore)
      -------------------------------------------------

      -------------------Profil-High---------------
      Format: h.264
      Fernsehnorm: PAL
      Framebreite: 1280 Pixel
      Framehöhe: 720Pixel
      Framerate: 30FPS (je nach Quelle bis min. 24FPS)
      Feldreihenfolge: ohne (Progressive)
      Pixel-Seitenverhältnis: Quadratpixel
      Profil: Hoch
      Pegel: 3,2
      Rendern mit maximaler Farbtiefe: JA
      Bitratecodierung: Variable-Bitrate 2-Pass
      Ziel-Bitrate: 8Mbit/s
      Maximale-Bitrate: 10Mbit/s
      Geschätzte-Dateigröße: 875MByte/15min
      Renderzeit: ca. 100min (mit 8GByte RAM & 3GHz Quadcore)
      -------------------------------------------------

      Die Ziel-Audiolautstärke sollte beim sprechen zwischen -1dB und -9dB liegen. Leise Hintergrundgeräusche aus dem Spiel können auch unterhalb der -12dB Marke liegen, laute Geräusche oder Stimmen von NPC's sollten aber ebenfalls die -1dB nicht überschreiten. Für die Ausgabe-Qualität der gemischten Audiospuren sollten folgende Settings völlig ausreichen:

      ------------------Profil-Audio---------------
      Audioformat: ACC
      Codec: ACC
      Ausgabekanäle: Stereo
      Frequenz: 44,1Khz
      Audioqualität: Hoch
      Bitrate: 160Kbit/s
      Priorität: Bitrate
      -------------------------------------------------

      Hoffe ich konnte helfen und Euch gefällt das Tutorial. Bei Fragen stehe ich natürlich gern zur Verfügung =)

      LG CyrixDX

      Dieser Beitrag wurde bereits 10 mal editiert, zuletzt von „CyrixDX“ ()

      CyrixDX schrieb:

      Warum sollte man überwiegend in CBR (Constant-Bitrate) und nicht in VBR (Variable-Bitrate) rendern, obwohl die Qualität schlechter sein kann? Die Antwort ist ganz einfach, denn der YouTube User muss das Video als Stream laden. Dabei ist es relativ ungünstig, wenn die Datenrate von einer Sekunde auf die andere stark schwankt und dadurch das Video stockt. Man kann also nicht bei allen YouTube-Usern eine passend schnelle Internetverbindung voraussetzen und sollte dementsprechend seine Videos in CBR (Constant-Bitrate) rendern. Ein weiterer Punkt der für CBR (Constant-Bitrate) spricht ist, dass der Rendervorgang weniger Zeit in anspruch nimmt als bei VBR (Variable-Bitrate).


      YouTube encodiert Hochgeladenes Material wieder um. Und zwar mit VBR. Es spielt also keine rolle für den User, was du wählst.
      VBR führt wie von dir erwähnt, allerdings schon zu erhöhter Qualität, und sollte den Encodingaufwand wert sein.
      Sehr schön ausführlich und kompetent geschrieben (soweit ich gelesen hab), aber das ändert leider nichts daran, dass Premiere für Let's Plays nicht unbedingt optimal ist, da es keine wirklich gute Möglichkeit gibt, x264 einzubinden. ;) Und mal ehrlich - für den Preis von Premiere Pro CS5.5 kann man sich so einige Programme kaufen, die sehr viel geeigneter sind.
      http://abload.de/img/wirzocken5pjrg.png
      Hey.

      Ich beschäftige mich derzeit auch mit Premiere Pro CS5.5 + Fraps + Youtube Videos.
      In deinem Tutorial ist ja die Rede davon, dass das Bild ein wenig gequetscht wird weil man es ja von 16:10 auf 16:9 drückt. Mein Monitor hat "leider" auch eine Auflösung von 1680 x 1050.

      Würde es was bringen die Auflösung für die Aufnahme auf 1600x900 zustellen? Das Bild wird, dann zwar unscharf dargestellt aber 1. spiel ich noch auf meinem 40"LCD und 2. scheint Fraps das ganze doch scharf aufzunehmen.

      Immerhin hab ich dann von Anfang an ein 16:9 Video. Man hat halt wärend der Aufnahme ein unscharfes Bild. Aber naja... wie gesagt, in meinem Fall spiel ich ja über den Fernseher.
      Danke für die flotte Antwort.

      Mir ging es halt darum, dass ich nicht weiß/wusste inwieweit die Aufnahme beeinflusst wird, wenn ich eine Auflösung einstelle die zumindest am Monitor selber unscharf dargestellt wird.
      Aber hab jetzt noch ein wenig rumprobiert und anscheinend betrifft diese Unschärfe wirklich nur die Darstellung des Monitors.
      Weil TFTs interpolieren müssen, wenn nicht die native Auflösung verwendet wird.

      Der Monitor hat ja nix mit der Aufnahme zu tun.


      Naja Premiere hat nur den MainConcept Encoder.

      Encodiervorgang sollte mit x264 geschehen. Mehr Effizienz in Kompression als auch CPU.


      Außerdem find ich den Preis reichlich übertrieben, dafür das man nur LPs macht und letztendlich eh nicht optimal damit encodieren kann..
      Hallo Leute,
      ich besitze ein kleines Problem mit dem resizen. Ich nehme Gameplaymaterial von der PS3 mit der Hauppauge HD PVR auf. Diese untertützt eine Auflösung von 1080i, jedoch habe ich hier 720p Material von twisted Metal. Nun will ich dies so rendern. dass es die netten Balken ringsherum verliert. Das ganze bearbeiten mache ich mit Adobe Premiere Pro CS 5.5, wähle als "Projekt" AVCHD 720P mit 59,97 Bildern, da es genau dem Format des aufgenommen Video entspricht und encode das dann über den DebugMode Frameserver mit meGui, also eig. ohne Qualiverlust. Nun habe ich mir zu megui das hier gepostete Tut angeschaut und wollte das Ganze im AVS Script Creator resizen. Gesagt, getan. Alles eingestellt, Pixel von 1280*720 auf 1920*1080 geändert. Jedoch keine Veränderung, noch immer die netten Balken. Auch durch direktes Encoden in CS5, durch verschiedene andere Projektformate (wie direkt AVCHD 1080i anwählen) usw. habe ich nicht die passende Einstellung gefunden und es bekommt nie die richtige Auflösung. Es tut mir leid, falls ich irgendwo einen Fehler mache, aber ich bitte euch, dass ihr mir vlt. aufzeigen könnt was ich falsch mache bzw. das Ganze richtig einstelle, damit es "Full HD" ist. Ich weiß das nur reingezoomt wird und die Quali etw. leidet, aber ich habe auf youtube auch schon Lets Plays zu diesem Spiel gesehen, in welchem keine Balken vorhanden sind und deswegen muss es ja gehen. :P Vlt. könnt ihr mir ja helfen. Ich wäre euch sehr verbunden:)

      Ps: Ich bin noch komplett neu in den Lets Plays und hab deswegen auch so wenig Ahnung:P

      Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von „Paradoxic“ ()

      Paradoxic schrieb:

      Pixel von 1280*720 auf 1920*1080 geändert. Jedoch keine Veränderung, noch immer die netten Balken.

      Genau :) Ist ja eigentlich auch Logisch.
      Wenn du vorher Balken hast, werden die Bein Resizen ebenfalls mit Hochskaliert :D.
      Was du suchst ist Cropping. (Geht auch Mit Avisynth.)
      Du Croppst das Video zuerst genau so das Deine schwarzen Balken weg gehen : avisynth.org/oldwiki/index.php?page=Crop+Deutsch
      Und skalierst du das Material Hoch.
      (Die Croppingzeile also über die Resize Zeile setzten.)
      Kannst ja duch die MeGUI video Preview, gucken, was die Richtigen werte fürs Cropping sind :)

      Wenn du noch fragen hast, melde dich einfach nochmal.

      Singularity02 schrieb:

      Hey.

      Ich beschäftige mich derzeit auch mit Premiere Pro CS5.5 + Fraps + Youtube Videos.
      In deinem Tutorial ist ja die Rede davon, dass das Bild ein wenig gequetscht wird weil man es ja von 16:10 auf 16:9 drückt. Mein Monitor hat "leider" auch eine Auflösung von 1680 x 1050.

      Würde es was bringen die Auflösung für die Aufnahme auf 1600x900 zustellen? Das Bild wird, dann zwar unscharf dargestellt aber 1. spiel ich noch auf meinem 40"LCD und 2. scheint Fraps das ganze doch scharf aufzunehmen.

      Immerhin hab ich dann von Anfang an ein 16:9 Video. Man hat halt wärend der Aufnahme ein unscharfes Bild. Aber naja... wie gesagt, in meinem Fall spiel ich ja über den Fernseher.


      Es ist besser du nimmst direkt mit 720p auf, anstatt in 1600x900. Denn durch das Resizen auf 720p ensteht wieder ein gewissel Qualitätsverlust. Wenn du das Bild allerdings auf 1080p hochskalieren möchtest, wäre 1600x900 die besser wahl.

      LG CyrixDX
      Zudem würde ich (wenn man denn Premiere wegen Bearbeitung oder so nutzen will) mit Frameserver arbeiten und den encode mit x264 tätigen, wie schonmal in dem Thread gesagt.

      Deutlich besserer Encoder und qualitätsbasiertes Encodingverfahren. Ergo bräuchtest du dich so gar nicht mehr mit der Bitrate rumschlagen. Bitratenfixiertes Encoding ist eh suboptimal.