VSync Input Lag reduzierbar // Capture Card dazu bewegen nicht zu tearen ohne Vsync?

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • VSync Input Lag reduzierbar // Capture Card dazu bewegen nicht zu tearen ohne Vsync?

    Anzeige
    Ja ich wollts mal mit 'ner Capture Card probieren um vom Hooking Performance Einbruch weg zu kommen. Klappt auch alles total zum Lieb haben geil <3

    Nur leider ist Tearing in der aufgenommenen Videodatei angesagt, sofern kein VSync aktiviert ist :(

    Vsync hat aber so derbe heftigen Input Lag, das ist ja EKELIG <X

    Kann man das vllt wenigstens bisschen reduzieren irgendwie??


    Ich hätt ja kein Problem mit dem Tearingvideo, aber erschwert garantiert die Komprimierbarkeit und das Video würde somit auf Youtube schlechter aussehen. Und ein Tearing Video werden sicher auch einige nicht so schön finden.


    Schön wäre ja, wenn nur die Capture Karte gesynct werden würde, aber der Monitor nicht :D

    Allerdings muss ich ja sogar die Capture Karte als Primärgerät einrichten (und dann klonen), weils sonst auch mit Vsync zum Tearing kommt.


    Aber jetzt mal ehrlich: Manche benutzen ja wegen Tearing freiwillig Vsync unter normalen Umständen und da wundert mich ja wirklich, das denen der Input Lag nicht verrückt macht? - naja ich würd bei dem Input Lag echt verzweifeln, und daher hoff ich das es vllt eine bessere Lösung für die Capture Karte gibt :(
    Aktuelle Projekte/Videos


  • Nachdem du die Capture Card ziemlich sicher lossless aufnimmst, darf ich fragen wie du das machst? Ich bekomm das nämlich nicht gebacken, warum auch immer.

    Welche Card benutzt du im Zusammenhang mit welchem Programm? Sowie dann ggf. die Einstellungen?

    Sorry, dass ich dir zu deinem eigentlichen Problem jetzt eher weniger bis gar nichts beitragen kann, außer dass es bei mir aufgrund von VSync zu keinem Lag kommt, allerdings fliegst du auflösungstechnisch in anderen Sphären und wahrscheinlich auch deine VSync- Daten, Hz-Zahl etc.
    Hier geht es zu meinem kleinen/feinen Kanal:

  • Naja ich hab nicht eine dieser gewöhnlichen Karten, da die mich einfach zu sehr einschränken ala aufgezwungene Eigensoftware (wo ein Support bei Drittanbieter Software nicht garantiert wird), können nur 16:9 Auflösungen und custom Auflösungen schonmal gar nicht. 2560x1600 @ 60fps ist somit mit keiner der gängigen drin. Von daher musst ich mich anderweitig umschauen und bin auf Datapath DVI-DL gestoßen. Die werden eig. nur an Firmen ausgeliefert, sind also gewiss keine Mainstream Consumer Karten. Und eben auch extrem teuer. Aber das ist der einzige Weg, um diese ganzen dämlichen Einschränkungen der Consumerkarten los zu werden.

    Hier kann ich frei die Auflösung, FPS etc wählen. Programm ist lediglich ein Testprogramm bei dir nur das Bild darstellt um dir zu zeigen das die Karte ihren Job macht. Man wird ermutigt Software wie Virtualdub und co zu nutzen, da sie integrierten WDM Support hat und der Hersteller Support für Virtualdub und co somit garantiert.

    Die Karte kann nur unkomprimiert. Codec wählst dann in Aufnahmesoftware den gewünschten. Von daher kann man das schön selber bestimmen. Muss dann natürlich die eigene CPU dann encoden, aber der FPS Drop bei Spieleaufnahmen entsteht ja auch weniger durchs coden, sondern viel mehr durch den Eingriff in dem asynchronen Framerendering der Grafik API (Direct3D / OpenGL), was somit ja wegfällt. Sie empfehlen sogar als Codec UTVideo :D Naja passt ja, den benutz ich ja eh schon xD

    Ich benutze Virtualdub 64bit mit diesen Settings:

    abload.de/img/unbenannt280o8sni.png
    abload.de/img/unbenannt281j0s6n.png
    abload.de/img/unbenannt282h3sj9.png

    Bei Aufnahme sollte in jedem Fall bei "Video" auf "No Display" gestellt werden. Denn das gleichzeitige Rendern, statt nur aufnehmen (sprich die Vorschau) belastet die Karte zusätzlich und sie würde bei 2560x1600 @ 60 nur 37fps schaffen. Macht man die Vorschau weg, haste Vollgas (60 von 60fps)


    Wo genau hängtn bei dir das Problem? Ich vermute mal deine Karte benutzt schon intern H.264 Kompression?



    Den Input Lag müsstest du in jedem Fall auch haben. Es sei denn du machst irgendwas anders mit Vsync, was ja meine Frage hier u.a. ist, ob man das vllt wenigstens reduzieren kann :S Triple Buffering hab ich bei Nvidia natürlich bereits an.
    Der Input Lag ist halt enorm. Vllt merkst du ihn bloß nicht? Ka.
    Aktuelle Projekte/Videos


  • De-M-oN schrieb:

    Naja ich hab nicht eine dieser gewöhnlichen Karten, da die mich einfach zu sehr einschränken ala aufgezwungene Eigensoftware (wo ein Support bei Drittanbieter Software nicht garantiert wird), können nur 16:9 Auflösungen und custom Auflösungen schonmal gar nicht. 2560x1600 @ 60fps ist somit mit keiner der gängigen drin. Von daher musst ich mich anderweitig umschauen und bin auf Datapath DVI-DL gestoßen. Die werden eig. nur an Firmen ausgeliefert, sind also gewiss keine Mainstream Consumer Karten. Und eben auch extrem teuer. Aber das ist der einzige Weg, um diese ganzen dämlichen Einschränkungen der Consumerkarten los zu werden.

    Hier kann ich frei die Auflösung, FPS etc wählen. Programm ist lediglich ein Testprogramm bei dir nur das Bild darstellt um dir zu zeigen das die Karte ihren Job macht. Man wird ermutigt Software wie Virtualdub und co zu nutzen, da sie integrierten WDM Support hat und der Hersteller Support für Virtualdub und co somit garantiert.

    Die Karte kann nur unkomprimiert. Codec wählst dann in Aufnahmesoftware den gewünschten. Von daher kann man das schön selber bestimmen. Muss dann natürlich die eigene CPU dann encoden, aber der FPS Drop bei Spieleaufnahmen entsteht ja auch weniger durchs coden, sondern viel mehr durch den Eingriff in dem asynchronen Framerendering der Grafik API (Direct3D / OpenGL), was somit ja wegfällt. Sie empfehlen sogar als Codec UTVideo :D Naja passt ja, den benutz ich ja eh schon xD

    Ich benutze Virtualdub 64bit mit diesen Settings:

    abload.de/img/unbenannt280o8sni.png
    abload.de/img/unbenannt281j0s6n.png
    abload.de/img/unbenannt282h3sj9.png

    Bei Aufnahme sollte in jedem Fall bei "Video" auf "No Display" gestellt werden. Denn das gleichzeitige Rendern, statt nur aufnehmen (sprich die Vorschau) belastet die Karte zusätzlich und sie würde bei 2560x1600 @ 60 nur 37fps schaffen. Macht man die Vorschau weg, haste Vollgas (60 von 60fps)


    Wo genau hängtn bei dir das Problem? Ich vermute mal deine Karte benutzt schon intern H.264 Kompression?



    Den Input Lag müsstest du in jedem Fall auch haben. Es sei denn du machst irgendwas anders mit Vsync, was ja meine Frage hier u.a. ist, ob man das vllt wenigstens reduzieren kann :S Triple Buffering hab ich bei Nvidia natürlich bereits an.
    Der Input Lag ist halt enorm. Vllt merkst du ihn bloß nicht? Ka.


    Erstmal vielen Dank für deine Antwort Demon!
    Wow, die Karte hört sich richtig stark an, Glückwunsch dazu (obwohl die Glückwünsche immer fraglich sind, dein Konto wird, wie du ja auch sagst, ziemlich gelitten haben xD)

    Ich habe mir vor ner Woche die AverMedia Live Gamer Extreme geholt. Die Soll per USB 3.0 ein unkomprimiertes Signal durchschleifen können. Die Software dazu kann aber natürlich nur 60 Mbps, also muss ich auf was anderes umsteigen.

    Die Bildquali als solches ist wirklich super dank des unkomprimierten Signals (wobei du völlig rechts hast, die AverMedia macht auch bei 1920x1080 Schluss), allerdings schaffe ich es im Rahmen meiner Möglichkeiten im Moment nicht, eine gescheite Aufnahme zu bekommen. (Durch USB 3.0 könnte man rein theoretisch auch mit ner Verzögerung von knappen 0,05 mit der Aufnahmesoftware zocken)

    Da werden richtig viele Frames gedropped, das Video/Soundverhältnis íst total asynchron (Sound zu schnell, zu langsam, wird nicht richtig aufgenommen) und VirtualDub tut sich ab und an schwer wenn ich in ein Vollbildspiel wechsle und VirtualDub vorher schon läuft. Ich hab echt keine Ahnung was ich da so total verhaue :D

    Also wegen dem Vsync kann ich von meiner Seite sagen, dass ich die seit Langem eigentlich komplett deaktiviert habe (Meist um den FPS Anschlag für die Aufnahme zu erhöhen) Bei der Aufnahme selbst sehe ich dann auch mal ab und an Tearing, was aber bei mir bis dato nie auf der Aufnahme gelandet ist. Wird denn das Tearing durch höhere Auflösungen verstärkt? Eigentlich schon oder?

    Du benutzt bestimmt einen SLI-Verbund oder?

    LG
    Hier geht es zu meinem kleinen/feinen Kanal:

    Dieser Beitrag wurde bereits 1 mal editiert, zuletzt von Toppa ()

  • Anzeige
    Die Karte hat einen RAM-Bereich in den sie kontinuierlich das dargestellte Bild schreibt, ein weiterer Teil der Karte greift parallel auf diesen Bereich zu und liesst ihn aus, schiebt die Daten über die CPU dann an dein Capture-Programm.

    Problem: Der eine Teil der Hardware weiß nicht wann ein Frame komplett geschrieben wurde weil der andere Hardware-Teil einfach nur den Framebuffer der Karte füllt und wohl keine Infos hergibt wann ein Frame komplett geschrieben wurde ohne aktivierten VSync.

    Letzteres würde wiederum (das warten und benachrichtigen) in Hardware gegossen enorm Performance kosten und die Karte wäre nicht mehr in der Lage "extrem" hohe Auflösungen und FPS in den RAM zu schieben.

    Zudem kann es immer vorkommen das die Grafikkarte ohne VSync schon ein neues Bild liefert obwohl das alte noch gar nicht komplett übertragen wurde.

    Nehme an du hast weder Double- noch Tripple-Buffering aktiviert da du auch der Meinung bist das die 12-33ms so einen "heftigen" Input-Lag erzeugt das Spiele unspielbar werden. Denn dies würde die Grafikkarte dazu bringen ein oder zwei Bilder im Vorraus zu zeichnen und erst dann umzuschalten, das beugt auch ohne VSync das Tearing etwas vor...
    ——YouTube————————————————————————————————————————————
    — Endlos-Projekte: Minecraft (SinglePlayer), Craft The World, Banished, Besiege, Sims4
    — ..Abgeschlossen: Leisure Suit Larry 6+7, Dishonored, Surface 2+3, Mirrors Edge, uvm
    — . Kurz- Projekte: The Tower, Fighting Is Magic, Euro Truck Simulator 2, uvm
    — ......Retro-Ecke: Day Of The Tentacle, Flight Of The Amazon Queen, NFS: HP2, uvm
    ————————————————————————————————————————————TbMzockt.de—
  • Toppa schrieb:

    Da werden richtig viele Frames gedropped, das Video/Soundverhältnis íst total asynchron (Sound zu schnell, zu langsam, wird nicht richtig aufgenommen) und VirtualDub tut sich ab und an schwer wenn ich in ein Vollbildspiel wechsle und VirtualDub vorher schon läuft. Ich hab echt keine Ahnung was ich da so total verhaue


    Klingt danach als hättest du da die Vorschau noch aktiv gehabt in Virtualdub. Nur mit der Vorschau kann es Probleme geben mit Wechsel in Spielen. Ich hab die Vorschau zwar von vorn herein nie genutzt, aber Sagaras hatte das mal erklärt. Anyway - die Vorschau sollte bei Aufnahme eh aus sein aus Leistungsgründen von PC und vor allem Capture Karte. Wie sich das Timing verhalten soll, kannste ja einstellen, siehe meine Bilder. Aber die Situation sollte ohne Vorschau eig. eh erheblich besser werden.
    Naja bei meiner Karte stand jedenfalls beim Framedrop Counter ungelogen noch nie etwas anderes als eine 0 :D

    Toppa schrieb:

    Also wegen dem Vsync kann ich von meiner Seite sagen, dass ich die seit Langem eigentlich komplett deaktiviert habe (Meist um den FPS Anschlag für die Aufnahme zu erhöhen) Bei der Aufnahme selbst sehe ich dann auch mal ab und an Tearing, was aber bei mir bis dato nie auf der Aufnahme gelandet ist. Wird denn das Tearing durch höhere Auflösungen verstärkt? Eigentlich schon oder?


    Höhere Auflösungen - gute Frage - vornehmlich sind aber FPS Differenzen und Tearing deutlich sichtbarer je größer der Monitor wird. Ich hab haltn 30" Monitor und da seh ich Tearing oder 30 vs 60fps recht leicht XD Umso schöner sind die 60fps aber dann auch entsprechend anzusehen, wenn sie gegeben sind :) :)

    Aber interessant das bei dir ohne Vsync kein Tearing ins Video gelangt. Was du wohl anders machst? XD

    Toppa schrieb:

    Du benutzt bestimmt einen SLI-Verbund oder?


    Nope. Würde das Mainboard auch nicht mehr verkraften bei einer 3-Slot Grafikkarte, Capturekarte und Soundkarte, da geht der Platz aus. Ist eine einzelne übertaktete GTX 680 von Asus drin.

    TbMzockt schrieb:

    Nehme an du hast weder Double- noch Tripple-Buffering aktiviert da du auch der Meinung bist das die 12-33ms so einen "heftigen" Input-Lag erzeugt das Spiele unspielbar werden. Denn dies würde die Grafikkarte dazu bringen ein oder zwei Bilder im Vorraus zu zeichnen und erst dann umzuschalten, das beugt auch ohne VSync das Tearing etwas vor...


    Naja Double Buffering lässt sich ja in Nvidia nich bestimmen, Dreifach Puffer ist bei Nvidia an. GZDoom nutzt ebenso Triple Buffering und läuft via OpenGL.

    Naja es ist nicht unspielbar, das wäre übertrieben. Aber wenn ich in Brutal Doom: Project Brutality zb meine Designated Marksman Rifle via Iron Sight anvisiere und dann Gegner anvisieren möchte, ist das absolut merkbar, dass da echt ein Delay drin ist verglichen zu ohne vsync. Es ist nicht mehr so smooth, es wirkt so'n bissl träge, einfach halt wie ein Delay. Man merkt den Input Lag halt einfach deutlich. Wahrscheinlich auch begünstigt durch 125hz Polling Rate an der Maus. Wobei bei Project Brutality, wo ich neuste GZDoom 2 dev build nehmen muss und das Dingen scheinbar keine Probleme mehr mit 1000hz Polling Rate hat, könnte man das ja auch nochmal versuchen.

    TbMzockt schrieb:

    Denn dies würde die Grafikkarte dazu bringen ein oder zwei Bilder im Vorraus zu zeichnen und erst dann umzuschalten, das beugt auch ohne VSync das Tearing etwas vor...


    Und normalerweise konnte man doch die Menge der vorauszurechnenden Frames bestimmen oder bin ich doof? Ich finde die Einstellung in Nvidia Systemsteuerung einfach nicht mehr wieder o.o
    Denn wenn ich mich recht entsinne, kann man damit ja den Input Lag reduzieren. Und von mir aus kanns auch 4 frames oder so vorausrechnen, hauptsache der input lag wird geringer.


    Ich frage mich gerade, ob nicht auch ein simpler Framelimiter das Problem lösen könnte? Wäre auch mal ein Versuch wert. So das man zb das Spiel auf 59 fps limitiert, so kanns ja eig. auch nicht mehr zum Tearing kommen.., aber müsste dann ja den Input Lag nicht bekommen.
    Aktuelle Projekte/Videos


  • Aaaaalso :D

    pre-render frames hab ich nun doch bei nvidia gefunden. Das auf 1 zu machen hat immer noch nicht viel gebracht, aber bisschen.

    Aaaaber :D

    VSync + Framelimiter auf 58 - woah ! XD

    Reduziert den Input Lag enorm ! :D


    Was ich bei dem Preis der Karte bissl enttäuschend finde, ist ja die Feststellung das sie wie bei pre 1.2 MagicYUV Versionen keine Chroma Interpolation hat :/
    Also MUSS ich mit RGB24 aufnehmen, wenn ich vernünftigen Chroma will. Dummerweise geht via PCI-E nur 2560x1600 @ 51 fps bei RGB24. Bei YUY2 würde 60 gehen. Naja wollte eig das sie 2560x1600 @ 60 schafft. Schafft sie halt mit YUY2, aber das mitm Chroma ist natürlich ärgerlich :/

    Vllt gibts ja auch eine nachträgliche Interpolation? Falls das dann überhaupt noch die gleiche Qualität wäre. Aber selbst wenn nicht. Wäre ja verschmerzbar. Doof ist lediglich, wenn jeder 2. Pixel eben halt farblos ist (keine Interpolation)..
    Gut 2560x1600 @ 50 reicht mir ja auch - Allerdings hätt ich die 60 fps gern in der Hinterhand gehabt, aber nuja.

    Das Vsync nötig ist, stört mich natürlich auch ziemlich, aber zumindest kann ich jetzt durch Wegfall des hooks ansonsten eben alles mit unverminderter performance spielen, so als wenn ich nicht aufnehmen würde. Rise of the Triad freut sich des lebens.
    Aktuelle Projekte/Videos