Reicht H.264 nicht einfach aus

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Reicht H.264 nicht einfach aus

    Anzeige
    Tach zusammen.

    Um nicht ständig bei dem User mit der aftereffects Fehlermeldung zu Schreiben eröffne ich hier mal ein neues Thema zur diskusion

    ob H.264 nicht einfach ausreicht. Muss es x.264 unbedingt sein.
    Und ob die marktführenden Programme wie Premiere pro und ähnliche nicht mit den kostenlosen Programmen mithalten könne.

    Ich mein die Entwickler bieten nicht umsonst kein x.264 an....

    Alte Diskussion After Effects Fehler: Überlauf Verhältnisnenner werden konvertiert

    Letzter Eintrag:
    YouTube Codiert das Video sowieso nochmal um also warum sollen wir es in x264 codieren??? YouTube ist es egal wie dein Video aussehen. Die interessiert nur der Profit den die dabei rausschlagen. Ob kackende Katzen in hd oder in 260p angezeigt werden interessiert die nicht Hauptsache das Video wir oft geklickt.

    Also warum der ganze scheiss um H.264 und x.264 im Endeffekt interessiert es eh keinen.

    Zu dem kann man sich es viel einfacher machen wenn man sich ein Standard Programm kauft und alles damit macht als die Videos durch zich konverter und haste nicht gesehen schicken????

    Nur weil es Kostenlos ist???? Ich bitte euch wir machen lets Plays kein blockbuster die irgendwo im Kino laLaufen

    Meiner Meinung nach ist es viel einfacher ein Video aufzunehmen, egal womit und lädt das dann in egal was für eein Programm. Ich lade 2 Stunden Videos in Premiere bearbeite sie schneide sie in 15 min Parts lad die alle in den Mediaencoder und lasse dann 8 Parts über Nacht rendern. Dann brauche ich nicht jedes Video einzeln rendern und bearbeiten.

    Und ich hab Geld für die Creative Cloud ausgegeben weil ich fast alle Programme nutze privat sowie geschäftlich

    Ausserdem habe ich gelsen das Filme im Kino in JPEG2000 codiert werden
  • Also...
    H.264 ist ein Standard, welcher zur Videokompression eingesetzt wird. Damit wird ermöglicht gute Qualität bei niedriger Bitrate zur erreichen, was bei den heutigen Anforderungen (4K, 60FPS, ...) mehr als Notwendig ist. Man könnte sich h.264 als Sprache vorstellen. Man braucht nur jemanden der ein Text in dieser Sprache verfasst.
    Das macht der Codec: Ein Programm, welches Codieren und Decodieren kann. MainConcept ist der Encoder, welcher von Videoschnittprogrammen wie Camtasia, Sony Vegas, Adobe Premiere und Magix Video Deluxe angeboten wird. x264 könnte man als rein technischen Nachfolger bezeichnen. So jetzt arbeiten Encoder, wie jemand der einen Text verfasst: Einer brauch mehr Platz beim schreiben, einer weniger, einer schafft das schneller, ein anderer brauch länger. Sowohl in Schnelligkeit, Funktionsumfang und Effizienz ist x264 schneller:

    Wie man sieht befindet sich MainConcept knapp hinter x264. ABER: Die Grafik basiert auf den idealen Einstellungen in allen Codecs. Die meisten NLEs lassen aber ideale Einstellungen gar nicht zu. So kann kein Codec richtig arbeiten, wenn man nicht das AVC-Profil, B-Frames, GOP-Struktur, Level, Codierungsart, Ref-Frames, etc.... auswählen kann. Und bei all diesen Einstellungen vermasseln es einfach die Videoschnittprogramme, so dass die reale Effizienz meistens im Bereich von XviD liegt. (Für alle CUDA Fans - guckt mal nach ganz rechts ;) ) Wie gut man MainConcept einstellen kann und sollte, könnt ihr bei Magix Video Deluxe 2014 sehen = damit lässt sich arbeiten.

    So was bringt mir jetzt die Effizienz: Ganz einfach Let's player haben 2 Nachteile.
    1. Man muss das Video hochladen! Die meisten Videoschnittprogramme sind für den normalen Heimgebrauch gedacht, nicht fürs hochladen. Klar, wenn meine Aufnahme für den Fernseher ist, dann knall ich ordentlich Bitrate drauf, brenn das auf Blu-Ray und fertig ist!
    So ein Video kann ich aber nicht hochladen, da das länger als ~3 Tage dauern würde. Und da Deutschland nicht für sein super ausgebautes Internet bekannt ist, werden viele das Problem haben. Deshalb kommen auch oft welche und fragen: "Wie schaffe ich es, dass mein Video gut aussieht, und trotzdem in einer angemessenen Zeit hochzuladen ist?" Die Lösung: x264

    2. Youtube encodiert das Video noch einmal in ihren eigenen Standard (ich glaub das war vp9). Dabei würde dann die Bitrate runtergenommen, die euer MainConcept Video qualitätstechnisch am Leben gehalten hat. Kompressionsartefakte lassen grüßen. Außerdem verwendet selbst Youtube nicht Verfahren wie konstante/variable Bitrate sondern nutzt Quantizerfaktoren.

    Würde man mit dem MainConcept-Encoder etwas mehr beschäftigen, würde man z.B. feststellen, dass dieser auch Quantizer benutzen kann. Aber nein stattdessen nimmt man lieber die Bitrate. x264 ist noch weiter und nutzt CRF.

    Zusammengefasst ist x264 einfach der beste H.264/AVC Codec und behebt alle Probleme, welche man als Let's player mit Dateigröße und Qualität beim Encode haben könnte :)
    ~ Let's plays, Animes, Cinematics, Zeichnungen ~ :D

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von GrandFiredust ()

  • duck-LP schrieb:

    Wenn ich ein 15 min Part in 1080p rendern hat meine Datei eine Größe von 800mb.

    Geht man mal davon aus, dass du eine Standard Variable Bitrate genommen hast, so dass hinterher ca. 800 MB herauskommen. So jetzt hat der Encoder zwar einen leichten Spielraum um die Bitrate zu verteilen. Du weißt aber nicht ob 800 MB ausreichen um (oder überhaupt nötig sind) für dein Spiel. Also könnte z.B. bei ArmA deine Qualität leiden, bei Minecraft hast du Bitrate verschwendet.
    Würdest du jetzt aber einen Schritt weiter gehen und Quantizer benutzen (z.B. 21-21-21) dann würde jeder Frame eine bestimmte Qualität bekommen welche 21 entspricht. Das ist effizienter, weil der Codec keine Bitrate vorbestimmt bekommt und an der Komplexität der Frames entscheidet wie groß die Datei wird. So viel kannst du noch mit MainConcept schaffen.
    Geht man noch einen Schritt weiter und nimmt CRF (auch 21). Dann kann der Encoder auch noch frei auswählen welcher Quantizer Faktor für welchen Frame gewählt wir um eine bestimmte Zielqualität zu erreichen.

    Dazu kommt noch das du dein Video theoretisch noch kleiner bekommen kannst in dem man die B-Frames und die Ref-Frames erhöht oder die GOB anpasst, weil viele Videoschnittprogramme hier nur Blödsinn einstellen.

    duck-LP schrieb:

    dann rendert man einfach in 720p und gut ist

    Dann hast du noch weniger Qualität, weil Youtube noch weniger an Bitrate anbietet. Desshalb resizen viele ihre Videos hier auf 2K oder 4K um auf unteren Stufen mehr Bitrate zu bekommen. Warum dann nicht einfach mit 2 Klicks mehr Aufwand x264vfw nutzen anstatt nachzugeben und die Auflösung zu verringern?

    duck-LP schrieb:

    4k ist auch schon übertrieben wer zum Teufel kauft sich jetzt schon nen 4K tv oder Monitor
    Fast niemand, aber man sieht in welche Richtung sich die Technik entwickeln wird. Und wo sich die Hardware weiterentwickelt muss die Software nachziehen. Bei immer größeren Auflösungen, Frameraten und Qualität muss man immer Effizientere Standards und Codecs entwickeln. Mit HD und Blue-Ray ist MPEG-2 und XVid ja auch von der Leinwand verschwunden und von Nachfolgern ersetzt worden. H.265 steht als neuer Standard auch schon in den Startlöchern und x265 ist auch schon in Arbeit.
    ~ Let's plays, Animes, Cinematics, Zeichnungen ~ :D
  • Anzeige

    duck-LP schrieb:

    YouTube Codiert das Video sowieso nochmal um also warum sollen wir es in x264 codieren???

    Damit mehr Qualität auf youtube über bleibt? Vllt mal an diese Logik gedacht?

    duck-LP schrieb:

    YouTube ist es egal wie dein Video aussehen

    Ne das ist einem Encoder nicht egal.

    De-M-oN schrieb:

    Lossy Quellen können nicht so effizient encodiert werden.

    Der Encoder sieht die Verluste. Der Encoder sieht die Quantisierungsverluste. Der Encoder sieht auch die DCT Blöcke. Verlustfreies Material ist nicht in DCT Blöcke unterteilt. Die Übergänge sind also ohne Verluste und akkurat fließend. Sowas ist wichtig für effiziente spätere Lossy Kompression. Nur so kann gescheit b und p-frames angelegt werden, bezugframes angelegt werden. b und p frames sind nur frames die nur änderungsinfos enthalten innerhalb der GOP. Es werden also innerhalb der GOP alle b und p frames später decodiert so das du ein zusammengesetztes Bild erhältst. Der Encoder versucht also so lange wie möglich auf vollframes zu verzichten. Umso unsauberer aber die frames sind, desto mehr unterscheiden sich die frames auch an den stellen die sonst für b-frames/p-frames nutzbar gewesen wären.
    Hinzu kommt das es auch allen anderen lossy techniken stört, wie den bewegungsvektoren usw. Du verschenkst effizienz beim späteren weiteren encode, wenn du schon mit vorkomprimiertem video ankommst. Auch Audio wie zb MP3s soll man bekanntlich nicht mehrfach codieren. Aus den gleichen Gründen.
    Und wenn youtube dann den dritten lossy encode macht, na geil. Ich mein youtube encodiert eh schon scheiße, da musses ja nicht noch schlimmer ausarten ^^


    duck-LP schrieb:

    Also warum der ganze scheiss um H.264 und x.264 im Endeffekt interessiert es eh keinen.

    Na doch für den zuschauer isses doch angenehmer wenns etwas weniger blöcke gibt..

    duck-LP schrieb:

    Zu dem kann man sich es viel einfacher machen wenn man sich ein Standard Programm kauft und alles damit macht als die Videos durch zich konverter und haste nicht gesehen schicken????

    Ja und? Nimmste halt nur MeGUI^^

    Ich selber weiß wie lange der upload dauert dann rendert man einfach in 720p und gut ist.


    Weil 720p ja auch so toll ist? Und youtubes 720p kann man ja keinem zumuten, da stapeln sich die blöcke dann ja schon.

    4k ist auch schon übertrieben wer zum Teufel kauft sich jetzt schon nen 4K tv oder Monitor


    Ich brauch keinen 4k monitor um eine bessere framequalität zu sehen. Und darum geht es doch. Auf größeren Auflösungen gibts von youtube bessere Videoqualität. Wieso versteht das niemand? Das sollte euch doch schon zwischen 720 und 1080 auffallen das youtube so tickt.
    Wobei 720p auch lokal nicht so geile qualität ist.

    Ich mein die Entwickler bieten nicht umsonst kein x.264 an....


    Ja dann nenn mir doch mal den Grund. Das würde mich brennend interessieren warum.
    Aktuelle Projekte/Videos


  • Auf YouTube ist die Qualität sehr wichtig! 1080P sollten schon drin sein, 4K ist im übrigen sehr gut zum Zocken und sieht einfach gut aus (hab ich bei nem Kumpel gesehen). Aber um auf das Hauptsächliche zu kommen, am besten wäre wohl in VP9 zu rändern, weil YouTube noch kein H 265 unterstützt. VP9 macht die Videos um einiges kleiner als H 264, selber habe ich das noch nicht probiert, aber wird heute noch nachgeholt.
  • Somoro schrieb:

    weil YouTube noch kein H 265 unterstützt.

    Wollte ich auch gerade schreiben... die Diskussion geht nämlich erst so richtig los wenn h265 raus ist und h264 ablösen wird... der Codec braucht noch mehr Zeit zur komprimierung, holt noch mehr Qualität bei gleicher Bitrate wie h264 raus und klingt vorab wie das NonPlusUltra der Codecs... quasi 4k auf ner Diskette.
    ——YouTube————————————————————————————————————————————
    — Endlos-Projekte: Minecraft (SinglePlayer), Craft The World, Banished, Besiege, Sims4
    — ..Abgeschlossen: Leisure Suit Larry 6+7, Dishonored, Surface 2+3, Mirrors Edge, uvm
    — . Kurz- Projekte: The Tower, Fighting Is Magic, Euro Truck Simulator 2, uvm
    — ......Retro-Ecke: Day Of The Tentacle, Flight Of The Amazon Queen, NFS: HP2, uvm
    ————————————————————————————————————————————TbMzockt.de—
  • Aufnahme
    Fangen wir erstmal von vorn an mit der Aufnahme, da bereits hier viel Falsch gemacht werden kann...

    Es gibt Programme wie Shadowplay... die bereits Verlustbehaftet Aufnehmen, das heißt es geht bereits Qualität verloren.
    Wenn wir uns jetzt dadran setzen diese Videos zu bearbeiten, damit sie kleiner werden, größer von der Auflösung, Schnitt usw... geht immer etwas Qualität verloren. Was dann zu einem immer schlechteren Ergebnis führt.
    Am Schluss kommt dann jetzt noch mal Youtube was dem ganzen dann den Gnadenstoß gibt, das heißt wie haben ganz viel Blöcke und keiner möchte sich das angucken.
    Man kann sich das so Vorstellen...
    Das was du aufem Pc siehst ist ein Bild...
    Durch ein Verlustbehaftet aufnehmen wird auf dieses Bild ein Rauschen gelegt, durch das Bearbeiten wird ein weiteres Rauschen auf das Bild gelegt und Youtube setzt dann noch mal ein weiteres.
    Deswegen sollte man sich wenigstens das erste Rauschen sparen, was kein Mehraufwand ist, aber eine deutlich besser Qualität bringt.

    Dafür gibt es dann sehr gute, sogar kostenlose Programme.
    Dazu gehört auf jeden Fall der MSI Afterburner...
    Zwei Audiospuren, freie Codecwahl, gut in der Performance und noch weiter Kleinigkeiten...

    Als nächstes könnte man jetzt noch über die Codecwahl bei der Aufnahme sprechen, was hier eher nebensächlich ist.
    Weil solange sie Verlustfrei sind sich nicht an der Qualität ändert.


    Bearbeitung
    Kommen wir dann jetzt mal zu Bearbeitung...
    Hier kann jetzt zum Beispiel Programme wie Sony Vegas... und wie sie alles heißen nutzen...
    Also Profiprogramme die einiges kosten. (gut gibt es auch teils in keine Varianten für kleines Geld)
    Diese haben natürlich ihr Vor- und Nachteile...
    Ein großer Vorteil ist das man eine Timeline hat wo man sehr gut Video bearbeiten kann und das man sehr viel Filter und Effekte zu Verfügung hat.
    Wenn man gerade Videos macht wo sehr viel geschnitten wird wie Vlogs, Trailer und sowas sind solcher Programme sehr gut.

    Aber sie haben auch ihre Nachteile...
    Angefangen das niedrige Farbräume wie YV12 und Co erst immer auf RGB hochskaliert werden, was wieder Verlust in der Qualität bedeutet.
    Das hängt damit zusammen, weil ansonsten die Filter und Effekte nicht richtig funktionieren würden.
    Aber jetzt fragst du doch erstmal bestimmt was RGB und so ist...
    Der RGB Farbraum ist im Prinzip genau das was du auf dem Monitor siehst.
    Nimmt man jetzt zum Beispiel in YV12 auf, sieht es nicht mehr ganz genau so aus, da die Bits pro Pixel reduziert werden,
    Was dazu führt das ein leichtes Verschwimmen zwischen denn Pixel ensteht, was aber im großen und ganzen nicht viel ausmacht die Youtube auch auf YV12 runter gehen würde um einfach Platz zu sparen.

    Da wir aber im Let's Play bereich sind wo eigentlich eher weniger gemacht wird bis auf in Parts schneiden und denn Sound anpassen.
    Kann man hier sehr gut auf solche Programme verzichten, da reichen schon Programme wie MeGui und Audacity für.

    Aber warum werden in Profiprogrammen kein x264 angeboten?
    Weil sie es nicht brauchen.
    Jemand der mit Sony Vegas arbeitet ist im großen und ganzen die Dateigröße egal.
    Solche Programme die mehrere hunderte Euro kosten werden beim Film und Fernsehr genutzt um die Sendungen, Filme und und und zu erstellen.
    Vor allem sind solche Programme aber nicht auf Spieleaufnahmen ausgelegt.

    Aber was unterscheidet Kameraaufnahmen von Spielaufnahmen?
    Ganz einfach bewege deinen Kopf schnell hin und her, du wirst feststellen das alles verschwimmt... das nennt sich Motion Blur...
    Das erzeugt uns Gehirn von alleine und Kameras nehmen das auch standardmäßig auf.
    Dadurch wird das Bildmaterial schon ganz anderes, von der Komplexität, von dem Videos verhalten bezüglich Ruckeln usw...
    Genau so wird bei der Kameraaufnahme auch genau auf die Kameraführung geachtet, damit es nicht solche Probleme wie ruckeldende Videos geben wird.
    Kein Kameramann würde sich Bewegungen Aufnehmen die wir beim Zocken machen.

    x264 und Avysinth
    Aber warum nutzen wir jetzt x264?
    Als erstes mal, es ist nicht nur x264, sondern auch Avysinth.
    Diese beiden machen uns das Leben auf Youtube etwas angenehmer und lasse das eine oder andere grau Harr sogar wieder verschwinden.

    So fangen wir erstmal mit x264 an.
    Durch MeGui kann man diesen Codec sehr einfach und unheimlich gut Einstellen.
    Das heißt wir können genau festlegen wie gut die Qualität werden soll, wie schnell er arbeiten soll, und wie groß Die Dateien werden sollen...

    Anfangen tuen wir hier mit dem CRF (Constant Rate Factor)
    Diese Faktor bestimmt im großen und ganzen die Dateigröße und die Qualität des Videos.
    Umso niedriger dieser Wert ist umso geringer ist die Kompression des Videos, das heißt die Qualität wird besser, aber dafür wird die Datei größer.

    Als nächstes haben wir das Preset.
    Hier wird vor allem die Geschwindigkeit des Encodes geregelt, aber auch die Dateigröße und die Qualität.
    Umso niedriger dieser Wert eingestellt wird, umso genau arbeitet der x264, das heißt die Qualität wird besser, die Datei wird kleiner, aber die Zeit die gebraucht wird steigt immer weiter an.

    So kommen wir jetzt zu Avysinth und zugleich zu Youtube.
    Avysinth wird dazu genutzt um das Bild neu zu berechnen (Rendern).
    Das heißt über Avisynth wird das hochskalieren, Motion Blur, Übergänge und und und erzeugt...

    Aber warum sind wir eigentlich so blöd und skalieren das Video in der Auflösung hoch?
    Das hängt damit zusammen das Youtube scheiße ist!
    Wenn wir uns noch mal zurück erinnern... macht Youtube auch noch mal einen encode von unserem Video (auch mit x264) nur sind bei diesem encode die Einstellungen so bescheiden das selbst bei 1080p Pixelmatsch heraus kommt.

    Aber warum obwohl x264 genutzt wird?
    Das hängt damit zusammen das Youtube beim x264 einen CRF eingestellt hat, aber in denn meisten Fällen die Maximale Bitrate greift.
    Und wenn die Maximal Bitrate überschritten wird fängt das Video an diese dämlichen Blöcke zu bekommen.

    Deswegen sind wir soweit gegangen das wir die Aflösung erhöhen, aber nur bis zum Minimum wie dir nächste Stufe frei gegeben wird, weil wir dann eine höher Bitrate erhalten.
    Deswegen hat die Auflösung nicht mit dem Monitor zu tun, da selbst die niedrigeren Stufen davon profitieren.
    Und selbst wenn man auf einem 1080p Monitor die 2160p Stufe guckt, hast das denn Vorteil das hier das Dowensamplig greift, was nochmal zu einer bessere Qualität führt. (Nvidea hat es nicht ohne Grund endlich mit im Treiber)

    1080p = 4.000 Kbi/s
    1440p = 6.000 Kbit/s (bräuchten wir eigentlich bei 1080p) | Minimum Auflösung: 2080x1170
    2160p = 20.000 Kbit/s mit Spitzen von bis zu 25.000 Kbit/s | Minimum Auflösung 3200x1800

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von GelberDrache92 ()

  • GrandFiredust schrieb:

    Die Grafik basiert auf den idealen Einstellungen in allen Codecs

    Außerdem gehts drum welche Encoder wieviel bitrate benötigen für identische Qualität. CRF insbesondere mit max GOP infinite kann da gerne mehr sparen.

    GrandFiredust schrieb:

    Youtube encodiert das Video noch einmal in ihren eigenen Standard (ich glaub das war vp9)

    x264 und vp9, wobei die vp9 encodes im jdownloader 2 sehr selten auftauchen, also entweder jd2 findet die ständig nicht, oder youtube würfelt wann er sie encodet und wann nicht.

    GelberDrache92 schrieb:

    Durch ein Verlustbehaftet aufnehmen wird auf dieses Bild ein Rauschen gelegt, durch das Bearbeiten wird ein weiteres Rauschen auf das Bild gelegt und Youtube setzt dann noch mal ein weiteres.
    Deswegen sollte man sich wenigstens das erste Rauschen sparen, was kein Mehraufwand ist, aber eine deutlich besser Qualität bringt.

    wobei Rauschen (noise) eig. wieder was anderes wäre^^

    GelberDrache92 schrieb:

    Aber warum werden in Profiprogrammen kein x264 angeboten?
    Weil sie es nicht brauchen.
    Jemand der mit Sony Vegas arbeitet ist im großen und ganzen die Dateigröße egal.

    Naja aber irgendwo auch keine Entschuldigung ineffizienteren Encoder zu nehmen oder :D Wenn x264 jetzt arschlangsam wäre, wäres ja noch verständlich, aber ist ja nichtmal so, im gegenteil. Die schlechte einlesbarkeit von Formaten und die wenigen einstellungsmöglichkeiten am encoder find ich für eine professionelle software auch sehr flau. Wenn die software professionell sein will, warum ist dann das encoding einer laiensoftware entsprechend? Das versteh ich immer nicht.

    GelberDrache92 schrieb:

    Ganz einfach bewege deinen Kopf schnell hin und her, du wirst feststellen das alles verschwimmt... das nennt sich Motion Blur...

    Naja motion blur ist etwas künstliches. Biologisch ist das kein Motion Blur, geschweige denn arbeitet ein auge mit fps. Klar man weiß was du damit sagen willst, ist aber einfach was anderes.

    GelberDrache92 schrieb:

    Das erzeugt uns Gehirn von alleine und Kameras nehmen das auch standardmäßig auf.

    Auch Kameras unterliegen der physikalischen grenzen und Kameras sind da bei weitem weniger "schnell" als das Auge. Aber auch das ist kein Motion Blur und das ist auch kein "standardmäßig" das kannste nicht mal eben einfach ausschalten.
    Bei einer Kameralinse passiert das gleiche wie mitm Auge. Nur das die Kamera noch bei weitem eher verschwimmt als es das Auge tut.

    GelberDrache92 schrieb:

    Umso niedriger dieser Wert eingestellt wird, umso genau arbeitet der x264, das heißt die Qualität wird besser, die Datei wird kleiner, aber die Zeit die gebraucht wird steigt immer weiter an.

    Du meinst, desto langsameres preset man nimmt. Niedriger kommt jetzt so rüber, das du sagen willst du meinst ein schnelles preset macht bessere qualität.

    GelberDrache92 schrieb:

    Das hängt damit zusammen das Youtube beim x264 einen CRF eingestellt hat, aber in denn meisten Fällen die Maximale Bitrate greift.

    Ja ein CRF von ungefähr 30. und bei den chaotischen encodingsettings von yt muss selbst da wie du schon sagst der CRF 30 noch gebremst werden von ihrer niedrigen bitrate.

    GelberDrache92 schrieb:

    Und wenn die Maximal Bitrate überschritten wird fängt das Video an diese dämlichen Blöcke zu bekommen.

    Die bleiben bei CRF30 auch nicht unbedingt aus. 1080p zwar noch minimal, aber 720p dann schon wieder deutlich. Ist halt auflösungsabhängig. Größer aufgelöstere Videos kommen mit höheren Quantizern besser von weg als kleiner aufgelöst. 720p mit CRF30 ist schon etwas fahrlässig xD
    Lediglich 4k kommt in etwa auf 25er quantizer.

    GelberDrache92 schrieb:

    Und selbst wenn man auf einem 1080p Monitor die 2160p Stufe guckt, hast das denn Vorteil das hier das Dowensamplig greift, was nochmal zu einer bessere Qualität führt. (Nvidea hat es nicht ohne Grund endlich mit im Treiber)


    Da greift höchstens der Auflösungsskalierer des Players. Via youtube player also wahrscheinlich bloße nachbarpixelskalierung.

    Wenn du ein Video in abweichender als monitornativauflösung in vollbild ansiehst, bleibt dein monitor ja in seiner nativen auflösung, also geschieht auch kein downsampling, sondern das video wird vom videoplayer skaliert auf deine monitorauflösung.

    edit: Übersehen:

    GrandFiredust schrieb:

    Dann hast du noch weniger Qualität, weil Youtube noch weniger an Bitrate anbietet. Desshalb resizen viele ihre Videos hier auf 2K oder 4K um auf unteren Stufen mehr Bitrate zu bekommen.


    Nein du bekommst auf zb 1080p dann natürlich nach wie vor 4000 kbit. Nur bleibt eben etwas mehr innerhalb dieser übrig wie gesagt. Und die höheren Stufen von Youtube haben dann entsprechend mehr.
    Aktuelle Projekte/Videos


    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von De-M-oN ()