Rendern mit GPU-Unterstützung, aber wie und mit welchem Programm?

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Rendern mit GPU-Unterstützung, aber wie und mit welchem Programm?

    Anzeige
    Hallöchen,
    ich habe neulich gehört, dass man ja mit GPU-Unterstützung rendern kann, was für mich (trotz meiner relativ starken CPU) vorteilhaft wäre, da ich somit schneller und besser rendern könnte (das ich ja einen misarablen Upload habe) und da kam mir die Frage, wie stellt man das überhaupt ein und mit welchem Programm mach ich das am besten?

    ICh habe die ATI Radeon HD7970


    Vielen Dank,
    MT4004
  • MT4004 schrieb:

    Ich meine die GPU errechnet doch auch die Spielegrafik!?!?

    Ich kenne mich nicht damit aus. Aber ich denke, dass das Rendern (Grafik) hat nichts mit der Encodierung (Video) zu tun.
    Durch Daten und Befehle werden Bilder gerendert(Spielgrafik).
    Bei der Encodierung wird ein Film nach einem Verfahren nur komprimiert.

    Die GPU hat glaubig einen schlechten Encoder, der irgendwie schlampig programmiert ist. keine Ahnung warum

    CPU kann übrigens auch Grafik rendern ist aber nur sehr langsam. Dafür ist es hochkompatible.
    Sinkrate

    Dieser Beitrag wurde bereits 3 mal editiert, zuletzt von Tyerell ()

  • MT4004 schrieb:

    Und wieso ist das schlecht? Ich meine die GPU errechnet doch auch die Spielegrafik!?!?

    Ja, aber das ist was anderes als das Kodieren. Die Technik dahinter ist einfach anders und die art der Berechnung ebenfalls. CPU und GPU arbeiten unterschiedlich.
    Eine GPU zb ist ein Streamingprozessor. dh Daten rein, direkt weg und gone. CPU geht da etwas anders. Genauere Details per Google
  • Jaha! Die GPU rendert perfekt, denn dafür wurde sie geschaffen. Toll, jetzt kann sie beim encoden das Vorschaubild anzeigen! Super! Was sie aber gaaaaanz schlecht kann ist die gerenderten Bilder komprimiert mit einer Tonspur versehen in einen Container packen. Also vergiss es einfach. Keine GPU bis heute ist in der lage so wie ein Prozessor zu encoden. Du zerstörst dir damit nur die Hardware und deine Videos. Rendern != Encoden.
    Grüße, GLaDOS

    "Do you know who I am? I'm the man whose gonna burn your house down - with the lemons! I'm gonna get my engineers to invent a combustible lemon that'll burn your house down!" - Cave Johnson, CEO of Aperture Science

    YouTube: Max Play

    Rechtschreibung und Grammatik sind eine Tugend, aber jeder macht mal Fehler...
  • Die Hardware zerstört das in tausend Jahre nicht und die GPU rechnet auch nicht so sonderlich anders als eine CPU. Der Aufbau entspricht nur einfach dem Zweck - die CPU arbeitet wenige Threads mit relativ hohem Tempo ab, während eine GPU tausende parallele Berechnungen durchführen kann, aber diese relativ langsam sind. Deswegen bringt es auch bei Software, die sich schwer in so viele parallele Aufgaben zerteilen lässt nichts, mit einer GPU zu encoden.
  • DerET schrieb:

    Die Hardware zerstört das in tausend Jahre nicht und die GPU rechnet auch nicht so sonderlich anders als eine CPU. Der Aufbau entspricht nur einfach dem Zweck - die CPU arbeitet wenige Threads mit relativ hohem Tempo ab, während eine GPU tausende parallele Berechnungen durchführen kann, aber diese relativ langsam sind. Deswegen bringt es auch bei Software, die sich schwer in so viele parallele Aufgaben zerteilen lässt nichts, mit einer GPU zu encoden.


    Die Programme, die Encoding betreiben stellen an die GPU die gleichen Anfragen wie an den Prozessor. Aber die GPU ist nicht auf diese Anfragen ausgelegt. Klar, sie wird nicht von jetzt auf gleich kaputt gehen, aber das ist einfach eine falsche Nutzung der Hardware, die sie falsch belastet.
    Grüße, GLaDOS

    "Do you know who I am? I'm the man whose gonna burn your house down - with the lemons! I'm gonna get my engineers to invent a combustible lemon that'll burn your house down!" - Cave Johnson, CEO of Aperture Science

    YouTube: Max Play

    Rechtschreibung und Grammatik sind eine Tugend, aber jeder macht mal Fehler...
  • Ich sag es nochmal:
    Die Belastung einer Grafikkarte, bestimmt nicht deren Laufzeit. Mir ist bisher einmal eine Grafikkarte zusammen mit einem Mainboard abgeraucht und einmal ein Lüfter. Grafikkarte gehen definitiv nicht durch Last (alleine) kaputt und erst recht nicht, wenn sie zur Berechnung "entfremdet" werden, das ist der Grafikkarte vollkommen egal.
    Es geht einfach nur drum, dass man keinerlei Vorteile dadurch hat. Gerade, wenn man eine langsame Leitung hat, ist das einfach nur ein Schritt in die falsche Richtung.
  • Naja, die ganze Bildverarbeitung (allein schon DCT) könnte man theoretisch schon der GPU überlassen, die ist bei sowas einfach schneller, das Problem ist nur, dass unser guter alter x264-Encoder das nicht kann. Und ob das nun wirklich einen Geschwindigkeitsvorteil bringen würde, weiß ich auch nicht, der Overhead bzw. die Latenzen sind bei der Kommunikation mit der GPU nicht zu vernachlässigen.