Camtasia Studio rendert lange

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Camtasia Studio rendert lange

    Anzeige
    Hi :)

    Ich rendere gerade ein LP, des Video ist ca. 15 Minuten lang, es rendert aber schon fast 2,5 Stunden und ist erst bei 67%
    Ich rendere es auf 720p,. Kann man den Vorgang irgendwie beschleunigen? Mit dem Windows Movie Maker braucht das zum Beispiel "nur" eine stunde.

    MfG
    Dave
    Let's Plays? Na hier!
    Aktuelle Projekte:
    The Legend of Zelda Ocarina of Time (pausiert)
    Life is Strange
    Taimumari (Wir nähern uns dem Finale!)
    Minecraft Masterbuilders (immer wieder zwischendurch)
  • Die beste Optimierung wäre vllt umzusteigen ^^

    Aber sonst hätte ich geraten die Projekte von Camtasia Roh noch mal auszugeben. (AVI, True Color 24Bit und als Codec den Lagarith mit YUV12 Mode und einen Haken bei Use Multithreading)

    Und Audio als WAV 44100Hz, 16 Bit Stereo.

    Von mir aus auch alles gleich zusammen in die AVI dann rein.

    Und dann kann man das fertige Projekt ohne viel nachdenken zu müssen in MeGUI oder TMPGenc oder was weiß ich wo man den x264 Encoder verwenden möchte und lässt es dort effizienter codieren.

    Weil Camtasia und schnelleren Encode? Da gibs sicherlich wenn das gehen sollte auch das entsprechende Ergebnis (Matsch xD)
  • Eigentlich benutze ich Camtasia nur, weil es für das aufnehmen von Flashgames nur noch Bandicam habe, mit dem kann ich nur 10 Minuten aufnehmen, und er verträgt sich mit Windows MovieMaker nicht. Ich hätte noch Sony Vegas zum rendern, allerdings müsste ich Flashgames weiterhin mit Bandicam machen.
    Let's Plays? Na hier!
    Aktuelle Projekte:
    The Legend of Zelda Ocarina of Time (pausiert)
    Life is Strange
    Taimumari (Wir nähern uns dem Finale!)
    Minecraft Masterbuilders (immer wieder zwischendurch)
  • meGUI kann ich ebenfalls empfehlen. Nutze es zusammen mit dem Frameserver.

    Übrigens kommt es auch darauf an, was für eine CPU Leistung du hast. Je stärker deine CPU umso schneller auch der Encode, ich brauche für 15 Minuten Material knapp 30 Minuten Encodezeit bei einer Hochskalierung auf 2080x1170.

    Wäre also auch gut zu wissen was du für eine CPU nutzt :)
  • Ich würde das auch vorher nochmals verkleinern. Ich empfehle hier klar XMediaRecode. Nutze ich für jedes von meinen Videos und daher kann ich sagen: Das Programm ist einfach spitze! ^^ Sehr sehr wenig Qualitätsverlust bei einem stark verkleinerten Video (30GB Videos werden zu 700MB Dateien).
    Abonnieren für den Weltfrieden! xD ---> youtube.com/channel/UCv1vmMACa…7qODHw?sub_confirmation=1
  • XMediaRecode hab ich auch. Nutze ich aber nicht für Encodes, da das Teil sagen wir mal nicht so der Hit ist. Ich nutze es wenn ich beispielsweise bestimmte Videos demuxen will, damit ich alle Bestandteile habe. Oder wenn ich schnell mal was in WAV speichern will. Ansonsten... es gibt halt kein x264 und somit auch kein CRF. Nur Baseline und Mainconcept. Hmm... Kann man nehmen, würde ich persönlich aber nicht empfehlen für Videoencoding das was werden soll (Besonders wenn man auf Qualität aus ist noch.)
    Und meine persönliche Meinung zu diesem Programm: Ja, es ist brauchbar und ja, man kann es in der Tat verwenden. Aber saubere Arbeit damit? Dann kann ich schon fast wieder Sony Vegas ohne Frameserver empfehlen :D
    Nein, ohne scheiß. XMediaRecode nutzt keinen effizienten H264 Codec wie MeGUI, TMPGenc oder FFMPEG es nutzen z.B. Besonders den x264 Encoder hat XMediaRecode einfach nicht. Also hockt man quasi wieder nur auf das rum was NLEs auch nur anbieten Standardmäßig. Ist leider so.

    Larur LP schrieb:

    (30GB Videos werden zu 700MB Dateien)

    Sowas bitte immer nur schätzen, wenn man sowas schreibt.
    30GB Quellvideo <- Frage dazu wäre mit welchen Codec aufgenommen wurde, Farbraum, Auflösung, Komplexität der gesamten Frames. Weil das sind Faktoren die dann auch den Encode beeinflussen.
    30GB Standbild würde ich z.B. schon fast auf 20MB runterbekommen in 720p ^^
    30GB Komplexes Arma3 könnte schon mit 720p auf gute 2GB kommen ^^ Halt weil es schlecht komprimierbar ist. ^^

    Zockerherz schrieb:

    Übrigens kommt es auch darauf an, was für eine CPU Leistung du hast. Je stärker deine CPU umso schneller auch der Encode, ich brauche für 15 Minuten Material knapp 30 Minuten Encodezeit bei einer Hochskalierung auf 2080x1170.

    Wäre also auch gut zu wissen was du für eine CPU nutzt

    Er hat Camtasia Studio genutzt ^^ Das Teil ist an sich schon langsam. Vor allem dann wenn man hohe Einstellungen zum Encoding genommen hat. Das Teil ist ein einziger Fehler xD Mich würde es nicht wundern wenn jemand 3 mal mehr CPU Leistung hat als ich und genauso schnell die Videos verarbeitet mit Schrottasia wie mein Rechner :D
    Also ich bin froh das ich das nicht mehr nutzen muss ^^
  • @Larur LP: Warum willst du mit der kleineren Datei nochmal encoden, die größe des Ausgangsmaterials hat überhaupt KEINEN einfluss aufs endergebnis, außer das du bei 2 encodes schlechterer Quali gibt...
    Es wäre langsam mal wieder Zeit diese Signatur zu überarbeiten, ich bin aber wie immer zu faul. Deshalb gibt´s jetzt wieder diesen Platzhaltertext.
    Ihr könntet solange doch mal auf meinem Kanal vorbeischauen: [url]www.youtube.com/Dir3ct0rLP[/url]

  • Also du encodierst einmal vor dem Rendern, sind doch 2 mal, ich glaube dir ist nicht klar das rendern und encodieren praktisch das gleiche ist...
    Es wäre langsam mal wieder Zeit diese Signatur zu überarbeiten, ich bin aber wie immer zu faul. Deshalb gibt´s jetzt wieder diesen Platzhaltertext.
    Ihr könntet solange doch mal auf meinem Kanal vorbeischauen: [url]www.youtube.com/Dir3ct0rLP[/url]

  • Um es evtl noch einmal klarer zu sagen, man Encodiert nur einmal.. und das ist die Rohaufnahme, am besten Verlustfrei.
    je öfter man Eine datei Encodiert, desto mehr Bildinformationen gehen verloren.
    das bezieht auch das vorherige "verkleinern" der Datein mit ein.

    EDIT: Für das Menschliche Auge scheint es vielleicht keinen oder nur einen Geringen Verlust der Qualität zu geben, jedoch für Maschinen, bzw Software die nur auf Daten zugreift, ist es besser wenn diese mit so viel Informationen bestückt sind wie es nur geht, deswegen die Rohaufnahme.

    Youtube Encodiert nach dem Upload noch einmal, hier gehen jede Menge Informationen verloren, da YT sehr schlecht Encodiert, also sollten wir schon aus dem Grund den ich etwas weiter oben genannt habe, ihnen soviel Informationen geben wie es nur geht.
    Alle Aktuelle & Beendete Projekte von mir sind in meinem Profil zu finden


    Website: In Planung ...|... Youtube: CruelDaemonLP ...|... Steam: CruelDaemonLP

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von CruelDaemon ()

  • CruelDaemon schrieb:

    Um es evtl noch einmal klarer zu sagen, man Encodiert nur einmal.. und das ist die Rohaufnahme, am besten Verlustfrei.
    je öfter man Eine datei Encodiert, desto mehr Bildinformationen gehen verloren.
    das bezieht auch das vorherige "verkleinern" der Datein mit ein.


    Genau so ist es :)
    Es wäre langsam mal wieder Zeit diese Signatur zu überarbeiten, ich bin aber wie immer zu faul. Deshalb gibt´s jetzt wieder diesen Platzhaltertext.
    Ihr könntet solange doch mal auf meinem Kanal vorbeischauen: [url]www.youtube.com/Dir3ct0rLP[/url]

  • Larur LP schrieb:

    @ DirectorLP Hä? Das war doch echt klar formuliert warum verstehst du genau das Gegenteil von dem was ich meinte? xD Natürlich macht das keinen Sinn. Nur 1 mal codieren. Und zwar vor dem rendern. Nicht danach. Nicht 2 mal. Nur 1 mal.

    Wenn du vorm Rendern mit XMediaRecode oder einem anderen Programm verkleinerst, kodierst du zum 1. mal verlustbehaftet. Die Schaltfläche "Rendern" führt bei den meisten Programmen eigentlich mehrere Prozesse aus - das Rendern ansich, also das Berechnen von dem Frame. Der ist relativ groß und will wieder gepackt werden, das ist der 2. Prozess der ausgeführt wird - das Encoding. Ich zähle also 2 Kodiervorgänge, wovon ich mir den 1. sparen würde.
    Videoempfehlungen:
    ShimmyMC
    NuRap
    ShimmyMC
    Napoleon Bonaparte
  • Und schon sieht man wieder wie das Wort "Rendern" und "Encodieren" in einen Topf geworfen werden, obwohl es zwei unterschiedliche Sachen sind ^^

    (Ich weiß das dies wieder ein Roman wird, aber für diejenigen denen es interessiert mal eine kleine Aufklärung)

    Rendern (Berechnen) kann man so viel wie man will. Da gibt es für kein Video Grenzen.

    Encodieren sollte wie CruelDaemon schon sagte nur einmal gemacht werden. Und wirklich nur einmal.

    Rein von der Theorie her müsste man die Rohaufnahme auf YT hochladen. Praktisch so wie man es aufgenommen hat, da bereits YT encodiert.

    Der x264 Encoder heißt Encoder, weil er mit sicherheit encodiert und nicht berechnet. Das gehört zur Verschlüsselungstechnologie. Deshalb brauch man immer einen Decodierer um es zu entschlüsseln. Gespeichert wird dann mit dem Encoder nach ein bestimmten Verschlüsslungsverfahren anhand der Informationen die gegeben ist für den Schlüssel. Der Schlüssel für den x264 Encoder bei MeGUI z.B. bildet um es Sichtbar auszudrücken die Settings dar die man einstellt dafür.

    Der entsprechende Decodierer (Entschlüsslung) tritt meist bei der Ausgabe des Materials in Kraft. Immer dann, wenn das Bild angezeigt werden soll. Ob das nun ein Player ist oder Videobearbeitungsprogramme oder sonst was.

    Encoder und Decoder bilden dann den sogenannten Codec.

    Und Rendern (Berechnen) tritt dann in Kraft wenn zusätzliche Filter auf das Video wirken. Bedeutet wenn das Bild komplett neu erstellt wird. Bedeutet ein Frame muss aufgrund des Filters neu erstellt werden. Das sind z.B. schon Resizers, Künstliches Motion Blur, Bild in Bild und jede Art von Effekten. Halt alles was man dem Video zusätzlich geben kann.

    Das Rendern bei Videos ist ähnlich dem Rendern bei Grafikprogrammen wie Blender oder Cinema oder Poser etc. pp. Man spricht dann auch von einer Bildsynthese. Subber würden sagen das Einbrennen von Material.

    Ein Video zu Schneiden z.B. gehört zu keinem von beiden. Denn hier wird das Video nur begrenzt auf den Anteil der angezeigt werden soll. Es muss also nix neu berechnet werden. Hier gilt es wie die Frames gespeichert sind. Sprich GOP Länge. Aber jedes vernünftige Videobearbeitungsprogramm ist dazu ausgelegt normalerweise das Video als Rohdatei zu behandeln wenn man es reinladen tut. Daher kann man auch Framegenau schneiden.

    Bei MeGUI übernimmt die Berechnung z.B. AVISynth. Immer. Und die Encodierung x264.exe
    Die Vorschau in MeGUI ist eine AVISynth Vorschau und brauch auch einen Decodierer. Bei AVISource ist das meist der Windows eigene DirectShow

    Bei XMediaRecode übernimmt die Berechnung Windows anhand der dazugehörigen Datein. Die Encodierung und Decodierung dort übernehmen die internen Filter von Windows. Sprich die, die installiert worden sind. Die Vorschau in XMediaRecode wird auch wieder mit DirectShow ausgegeben.

    Ohne Encoder könnten wir alle nicht aufnehmen und ohne Decodierer nicht öffnen.

    Das häufigste was von vielen gemacht wird ist das Transkodieren. Das Speichern von Audio und Video in ein anderes Format.

    Die sogenannte Recodierung tritt meist ein wenn wir z.B. unsere h264 MKV/MP4 Datein auf YT hochladen. Hier ändern sich nur die Eigenschaften des Videos. Das Format bleibt das gleiche.

    Es handelt sich trotzdem in beiden Fällen um eine Encodierung.

    Ich hoffe damit das das jetzt etwas klarer ist für manche. Man kann auch ohne Berechnung (Rendern) das Video nur auf Basis des Encodings in ein MP4/MKV Container mit h264 ausgeben lassen. Das ist meist sogar noch schneller, als das Video durch irgendwelche Filter zu jagen.
    Sprich:

    RohVideo (Lagarith z.B.) -> Encoder (x264 z.B.) -> fertiges Video (AVC h264)

    Anders als wie bei einem Renderprozess davor (Als Beispiel mal):
    RohVideo (Lagarith z.B.) -> Renderer (Filter xyz) -> Encoder (XVID z.B.) -> fertiges Video (XVID AVI)

    Letzteres Verfahren wird immer von NLEs angewandt ob man will oder nicht. Da bereits die Ladefunktion von NLEs drauf ausgelegt ist meist Interlaced Videos richtig umzuwandeln. Und das macht ein Filter schon. Geschweige sogar das die Auflösung meist schon automatisch festgelegt wird. Und gibt man dem Video eine neue Auflösung, ist automatisch ein Filter am Werk der berechnet. Sprich das Bild neu erstellt durch diesen Filter.
    _____________

    Ich konnte das bis jetzt noch nie ausprobieren, weil ich die Software nicht dazu habe um das mal zu testen. Aber rein theoretisch müsste der ganze Encodierungsprozess schneller gehen bei den Sony Vegas und Premiere Nutzern die über den DebugMode Frameserver ihre Videos direkt an den x264 Encoder schicken, anstatt erst über AVISynth ^^ Weil ich denke einfach da das ganze Bearbeiten schon mit der NLE ausgeführt wird, brauch man kein AVISynth mehr, sondern einfach nur noch das ganze direkt an den Encoder schicken via CLI. Spart man sich halt den Part die Videos noch mit MeGUI durch AVISynth laufen zu lassen. ^^

    Ist halt nur so ein Gedanke der mir hin und wieder mal kommt ^^

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Sagaras ()