4K Livestream auf Youtube

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • 4K Livestream auf Youtube

    Anzeige
    Hallo Leute,

    ich möchte mir demnächst neue PC-Hardware kaufen. Mein Notebook ist zu laut beim streamen. Ich kann es leider nicht weit weg vom Mikro stellen. Deshalb möchte ich mir ein leises System zusammen bauen. Jedoch möchte ich auf kommende 4K-Streaming-Hardware und den 4K-Konsolen(Xbox One X o.PS5) vorbereitet sein.
    Elgato werkelt wohl gerade an einer 4K-Capture Card. Und da ich deshalb noch nicht weiß, was für 4K-Streaming-Hardware erscheinen wird, habe ich 2 Bedenken.
    Kommt die Hardware für den PCI-Express-Steckplatz raus oder reicht die Thunderbolt 3-Schnittstelle?

    Deshalb habe ich 2 Möglichleiten:
    Konfiguration 1: miniITX-Mainboard mit Thunderbolt 3-Schnittstelle wo ich externe Hardware anschliessen kann.
    oder
    Konfiguration 2: microATX/ATX-Mainboard zum Anschluß der 4K-Hardware über PCI-Express-Steckplatz.
    Ein miniITX-System ist natürlich platzsparender, aber da kann ich keine PCI-Express-Karten nachrüsten.

    Meine derzeitige Konfiguration ist:
    PS4
    Elgato Game Capture HD60S (dies ist die Streamingversion der HD60 und besitzt keinen Hardwareencoder, der Grafikchip des PCs rechnet alles)
    Notebook
    Ich möchte gernerell nur Konsolengames streamen.

    Meine Fragen jetzt an euch:
    1.Glaubt ihr das es überhaupt Sinn macht, mit 4K zu streamen bzw. 4K-Streaming speziell für YT gefragt ist?
    Irgendwie möchte man sich ja auch mit besserer Qaualität von den anderen absetzen.

    2.Haltet ihr es für möglich, dass die 4K-Hardware auch für die Thunderbolt 3-Schnittstelle raus kommt und in der Lage ist die 4K-Datenmenge zu verarbeiten?


    Schreibt mir gerne eure Meinungen zu diesem Thema..

    Vielen Dank
    Gruß Katastrophenmann
  • Naja 'ne 4k Karte gibts ja schon länger.
    Die Datapath VisionSC-DP2 kann sogar 8k.
    Oder 4k60 oder 1440p @ 144hz.

    Wenn man bereit ist Geld auszugeben, würd ich auch sowieso eher zu Datapath gehen als zu Avermedia und co.
    Zudem ist FPS und Auflösung bei Datapath stets komplett benutzerdefiniert möglich.

    4k ist mit Youtube lediglich dein Upload gefragt, denn bei Youtube kann man ja auch die kleineren Stufen wählen ohne gleich partner sein zu müssen.
    Aktuelle Projekte/Videos


  • Deine Fragen resultieren ja daraus, dass keiner so richtig weiß, welche Bahnen das Ganze einschlagen wird. Wenn du nicht zu den Top Youtubern gehörst, die immer in solchen Sachen schnell sein müssen, um den Anschluß nicht zu verpassen, würde ich mir mit dem Thema 4K oder eher UHD Zeit lassen.
    Momentan verschlingt es noch sehr viel Geld und ist nur halber Kram. Besser abwarten und dann zu normalen Preisen einkaufen. Es sei denn du hast zu viel Geld, dann vergiss was ich gesagt habe.
    Das Jahr kennt seinen letzten Tag, der Mensch nicht.
    Martin Luther
  • Anzeige
    Ist die Datapath VisionSC-DP2 überhaupt für Streaming gedacht? Bisher sehe ich nur etwas von Capturing und mit nur 2 Eingängen macht das auch Sinn. Die Karte würde auch 8 PCIe-Lanes der Grafikkarte abzwacken, weswegen so eine teure Capture-Card nur Sinn bei einem System mit S2066 ab dem 7820x oder den älteren S2011 mit dem 6800k macht (wenn man auf dem PC zocken möchte).

    Abseits davon, um in UHD zu streamen braucht man enorm viel Rechenleistung, was ein sehr großes vierstelliges Loch in die Hosentasche brennt. Dann ist es irgendwie auch schon mit dem Hobby vorbei und der Nutzer sieht es als semiprofessionell oder professionell an und sollte damit schon ordentlich Geld verdienen um dieses Betriebsmittel zu refinanzieren.
  • Katastrophenmann schrieb:

    Jedoch möchte ich auf kommende 4K-Streaming-Hardware und den 4K-Konsolen(Xbox One X o.PS5) vorbereitet sein.
    Die Frage stellt sich eher an deinen Upload, für die 4k solltest ja mindest nen 20ger Upstream haben und das sind nur die ~80% deinens Ups. Sprich etwa 35-36 Up sollte es schon sein für die empfohlene Mindest-Bitrate bei 2.160/60.
  • Ich würde es nicht tun. Mal davon abgesehen das 4k Streaming an dich sehr hohe Anforderungen stellt, stellt es ebenso sehr hohe Anforderungen an den der es gucken soll.
    Schau dir mal auf YT ein 4k 60FPS Video an und schau nebenbei auf deine CPU auslastung. Bei meinem i7 4790k @4,5Ghz sinds gerne mal 50% Last bei einem 30fps Video (+/- 10%, je nach Video auch mal mehr).
    Ich nehme mal an das du nicht vor hast 4k mit 3,5Mbit/s zu streamen, also braucht der Zuschauer auch noch eine schnelle Leitung, hat nicht jeder, eigentlich haben nicht mal viele ne schnelle Leitung.
    Denken wir jetzt noch daran das ~50% auf Smartphones gucken und ~20% auf Tablets kannst du dir vorstellen wie wenige sich einen 4k Stream wirklich angucken können.
  • Wenn du nicht gerade ein Rechenzentrum als Nachbarn hast wo du die Gigabit angreifen kannst :) Sieht es für die große Masse, tatsächlich so aus das diese auf die üblicheren Werte von 1080/60 springen oder gar 1080/30. Bei vielen gibt die Infrastruktur halt wirklich nicht das Optimum her.
  • G3rmanL0ngplays schrieb:

    Ist die Datapath VisionSC-DP2 überhaupt für Streaming gedacht?
    Du kannst natürlich auch mit ihr streamen. Weshalb sollte einem das verwehrt sein?

    G3rmanL0ngplays schrieb:

    Die Karte würde auch 8 PCIe-Lanes der Grafikkarte abzwacken
    Naja nur wenn du noch so'n alten Chipsatz wie ich hast, wo das so ist. Bei aktuelleren Boards haste doppelt x16 möglich. Gar kein Problem.
    Ich selber hab die DP2 ja. Und ich habn vorher nachher Unigine Superposition benchmark gemacht.
    Damit wurde mir vom Benchmark bestätigt was mehrere Websites schon schrieben:
    Wenn die Grafikkarte auf PCI-E 8x läuft (vorausgesetzt 3.0) ist die leistung IDENTISCH zu x16. Bei manchen Situationen war 8x sogar 3fps schneller. Jedenfalls NIE langsamer. Selbst bei 4k nicht. Und ich rede von einer GTX 1080.

    Dragobertel schrieb:

    Schau dir mal auf YT ein 4k 60FPS Video an und schau nebenbei auf deine CPU auslastung. Bei meinem i7 4790k @4,5Ghz sinds gerne mal 50% Last bei einem 30fps Video (+/- 10%, je nach Video auch mal mehr).
    Wenn du Windows 10 hast und Google Chrome wird der VP9 Decoder der Grafikkarte genutzt (Hardware Decoder).
    Ich selber habe aber auch noch Windows 7, da mir 10 bisher auch zu inkompatibel und zu viele Mängel hat bisher. Da jedoch ist noch CPU Decoding angesagt.


    IronballzZ schrieb:

    Wenn du nicht gerade ein Rechenzentrum als Nachbarn hast wo du die Gigabit angreifen kannst :) Sieht es für die große Masse, tatsächlich so aus das diese auf die üblicheren Werte von 1080/60 springen oder gar 1080/30. Bei vielen gibt die Infrastruktur halt wirklich nicht das Optimum her.
    Es dürfte sich eig. identisch zu den Videos verhalten, da Youtube den Zuschauern eh ihre Transcodes sendet und nicht das rohe was der Streamer hochlädt. Twitch zeigt dem Zuschauer exakt das, was derjenige hochlädt (auf Source), jedoch benutzt Youtube höhere bitraten, als Twitch in der Regel nur zulässt, daher ist man mit Youtube trotzdem qualitätsmäßig deutlich besser dran als bei twitch.
    In beiden Fällen wird die Bandbreite die der Zuschauer mitbringen muss aber entweder vom Streamer oder eben vom Transcode der Plattform begrenzt, weshalb ein DSL 16000 eig. (sofern kein Telekom Knoten im Routing) damit problemlos zurechtkommen sollte. Zudem wird beim Stream H.264 statt VP9 gezeigt im Falle Youtube, welche auch leichter zu decodieren sind natürlich. VP9 wäre für ein Livestream zu langsam.
    Aktuelle Projekte/Videos


    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von De-M-oN ()

  • De-M-oN schrieb:

    G3rmanL0ngplays schrieb:

    Die Karte würde auch 8 PCIe-Lanes der Grafikkarte abzwacken
    Naja nur wenn du noch so'n alten Chipsatz wie ich hast, wo das so ist. Bei aktuelleren Boards haste doppelt x16 möglich. Gar kein Problem.Ich selber hab die DP2 ja. Und ich habn vorher nachher Unigine Superposition benchmark gemacht.
    Damit wurde mir vom Benchmark bestätigt was mehrere Websites schon schrieben:
    Wenn die Grafikkarte auf PCI-E 8x läuft (vorausgesetzt 3.0) ist die leistung IDENTISCH zu x16. Bei manchen Situationen war 8x sogar 3fps schneller. Jedenfalls NIE langsamer. Selbst bei 4k nicht. Und ich rede von einer GTX 1080.

    Dir bringt nur ein Board mit 2x16 nichts, wenn die CPU gesamt nur 16 Lanes für Die Grafikkarten-Slots anbietet, was nun einmal darin resultiert, dass die Karten nur mit je 8x angebunden werden können. Einzigst außen vor sind S2011/2066 und die kommenden Threadripper.
    PCIe 8x vs 16x resultiert teilweise in höheren Fps zu Gunsten der 16x-Anbindung. Voraussetzung dafür ist aber eine Grafikkarte oder sogar mehrere mit einer entsprechenden Geschwindigkeit. Und in den nächsten Jahren wird sich das immer weiter heraus kristallisieren.
  • G3rmanL0ngplays schrieb:

    PCIe 8x vs 16x resultiert teilweise in höheren Fps zu Gunsten der 16x-Anbindung. Voraussetzung dafür ist aber eine Grafikkarte oder sogar mehrere mit einer entsprechenden Geschwindigkeit. Und in den nächsten Jahren wird sich das immer weiter heraus kristallisieren.
    Bei der GTX 1080 nicht. Also wird das wohl noch in ferner Zukunft liegen bis x16 wirklich benötigt wird. Bei der 1080 jedenfalls nicht. Benchmark und verschiedene Spiele in 4k mit der GTX 1080 und die fps ergebnisse waren komplett identisch.
    Aktuelle Projekte/Videos