Räumlicher Klang bei Together-Projekten - Gut für den Zuschauer?

Diese Seite verwendet Cookies. Durch die Nutzung unserer Seite erklären Sie sich damit einverstanden, dass wir Cookies setzen. Weitere Informationen

  • Räumlicher Klang bei Together-Projekten - Gut für den Zuschauer?

    Anzeige
    Hallo Leute,

    Ich habe heute mal für ein Together-Projekt ein wenig mit Audition experimentiert, und dachte mir dann, dass der Klang beider Sprecher ja direkt aus einer Richtung kommt, was in einem realen Szenario aber komplett ausgeschlossen ist. Bisher habe ich lediglich die Audiospuren der Sprecher nach der Bearbeitung kombiniert und den Gamesound angepasst, aber dann habe ich die Winkeleintellung entdeckt und war begeistert, wie viel größer meine Aufmerksamkeit und vorallem das Verständnis des Gesagten war.

    Ich denke das menschliche Gehör kommt besser damit zurecht und ist ja in einer realen Sprechsituation darauf getrimmt Informationen aus mehreren Richtungen zu filtern. Es scheint effizienter zu sein, als einfach nur die Spuren zu kombinieren.

    So sieht das im Moment aus:



    Vom räumlichen Klang kommt es nun so an, dass die Personen jeweils 30° zum Zuhörer geneigt sind, während zentral der Spielesound ertönt. Damit überschneidet sich der Klang nicht direkt (Wo ich mich sowieso frage, ob destruktive Wellenphänomene bei reiner Kombination von Spuren nicht die Sprache noch unverständlicher machen würden)

    Ihr könnt das ja gerne mal testen. Gerade im Audio-Bereich ist ja vieles subjektiv und kommt von Vorstellungen. Allerdings könnte dieses Modell wohl ein Projekt, wo es mehrere Sprecher gibt, recht sinnvoll aufwerten.
    Ich finde das jedenfalls äußerst interessant und mich würde mal eure Meinung dazu interessieren.
  • Gut, ich kenne das Plugin nicht, aber auch ich habe mir da schoneinmal Gedanken drüber gemacht und testweise die Stimmen etwas nach links und rechts gepant.
    Das Ergebniss war dann, dass ich es sofort verworfen habe.
    Ich kann es überhaupt nicht ab, wenn mir Siund im Kopfhörer nicht in der Mitte liegt.(Natürlich nur bei Stimme - ein gut gemischter Stereotrack kann unglaublich voluminoes klingen.
  • Ich hatte damit auch bereits experimentiert.
    Eine zu starke Trennung empfand ich persönlich fast unerträglich. Richtig gut fand ich hingegen ein ganz leichtes verschieben der Sprecher!
    Wenn auch bewusst kaum noch ein Unterschied besteht, fand ich es deutlich einfacher und angenehmer die Stimmen und damit die Charaktere auf dem Bildschirm zu trennen. Erst recht bei Stimmen die sich recht ähnlich sind und gleichzeitig für mich noch nicht vertraut.
    Besucht mich auf YouTube!
    http://www.youtube.com/user/dayliebanana
  • Anzeige
    Ja, wenn der Winkel zu stark eingestellt ist, fühlt man sich leichter gestört.
    Ich schätze, man kann sich einfach herleiten, woher das kommt:

    Stellt euch vor, ihr steht zwischen einem Gespräch von genau zwei Personen - da fühlt man sich leichter unwohl, gerade wenn man sowieso nicht mit eigebunden ist.
    Überlegt auch mal, wann es im Alltag zu solchen Situationen kommt - eigentlich nie, bestenfalls in Streitsituationen.

    Ich denke die Position eines Sprechers wirkt sich mehr auf unser Unterbewusstsein aus. Bis ca. 45° würden wir ja sehr direkt angesprochen werden, alles andere würde in einer realen Situation bedeuten, dass ich zumindest meinen Blickwinkel umherschweifen lassen muss. Natürlich ist der Sinn des Sehens gar nicht bei der Sprachübertragung gegeben - aber in unserer Psyche verankert.

    Ich halte im Moment ca 30° für sehr optimal.
  • Naja... YT = Stereo ^^

    Da kann man halt kaum was machen außer 3 Perspektiven. Rechts, Zentral und Links. Dabei wäre Zentral ein Monochannel.

    Spiele haben aber auch Stereo die von Rechts und Links kommen können.

    Die Idee ist ja schon mal nicht schlecht sag ich mal. Aber wäre es nicht besser einen echten 7.1 Kanal zu erzeugen den man kontrolliert auf Stereo hinunterdownmixt auf 2 Channels? Das wäre für den Räumlichen Klang wesentlich effektiver. ^^

    Einen künstlicher Raumklang zu erzeugen kann man via AVISynth auch machen. Man nehme zwei Mono Spuren von Mikrofonen + 1 Stereo Spur des Spieles.

    Man hat 4 Channels dann. Also 2 zuviel für YT noch.

    Um aber die eine Monospur mehr auf die Linke Seite zu packen und recht niedrig auf der rechten Seite noch hören zu lassen, gibt man (so nach deinen Schreiben) einen Winkel an. Das ist nix weiter als eine Verschiebung der Gesamtlautstärke Prozentual zum jeweiligen Channel zu geben.

    Theorie:

    1 Monospur Räumlich nach Links als Stereo:
    Monospurkopie m1 wird um 80% nach Links verschoben. Bedeutet: 80% der Gesamtlautstärke der Monospur fließt auf den ersten Channel. die restlichen 20% auf den Channel m2. m1 und m2 ergeben dann die Stereospur. Resultat ist ein künstlicher Raumklang von gut 10° bis 15° Neigung zum Zuschauer. 50% auf beiden gleichmäßig verteilt wäre Zentral und somit 90°

    Somit könnte man Theoretisch so wie du das auch meintest gut 10 Personen innerhalb von jeweil einen Abstand von 10% sprechen lassen so das diese Raumklangmäßig woanders sind, obwohl alles mit Monospuren aufgenommen wurde.

    Das wäre nur bei Mono zu Stereo der Fall.

    Wichtig ist wirklich das Lautstärkeverhältnis zu Links und Rechts. Mehr ist das nicht.

    In AVISynth würde das so aussehen:

    Quellcode

    1. #Raumklangerzeugung einer Monospur in einer Stereospur
    2. #Position kann von Rechts nach Links angegeben werden,
    3. #indem ein Prozentuales Mischverhältnis erzeugt wird
    4. #Monospur laden
    5. Audio=WAVSource("a1.wav")
    6. #Stummspur erstellen
    7. Mute=Tone(Audio.audiolengthf, 0, 44100, 1, "silence")
    8. #Erzeugung zweier Stereospuren
    9. #m2 = Rechts, m1 = Links
    10. #Unterteilung für die spätere Lautstärkereglung
    11. m1 = MergeChannels(Audio, Mute)
    12. m2 = MergeChannels(Mute, Audio)
    13. #0.5 = Normal
    14. #Stereo Raumklang von Links. Nur sehr schwach von Rechts.
    15. #MixAudio(m1, m2, 0.4, 0.1)
    16. #Stereo Raumklang von Rechts. Nur sehr schwach von Links.
    17. #MixAudio(m1, m2, 0.1, 0.4)
    18. #Stereo Raumklang von der Mitte
    19. #MixAudio(m1, m2, 0.5, 0.5)
    20. #Stereo Raumklang von ganz Links, ohne Rechts
    21. #MixAudio(m1, m2, 0.5, 0)
    22. #Stereo Raumklang von einen weit entfernten Links.
    23. MixAudio(m1, m2, 0.02, 0.01)
    Alles anzeigen


    Je nach Lautstärke und Richtgabe habe ich einen künstlichen Stereoraumklang erzeugt. Das geht aber wirklich nur mit Stereo bei diesem Muster.
    7.1 Sound mit 8 Channels wo man eine Rundum Aufnahme seiner Stimme hat, sollte niemals mit Standard Sachen gedownsampelt werden.
    Lieber das ganze selbst anpassen. AVISynth kann das wunderbar.

    Der Skript von eben passt auf die Zeichnung von dir (Bild). Ich hab ledeglich eine Monospur in Stereo umgewandelt in den man hätte auch noch Spielsound hineinmixen hätte können.

    Aber um dem Bild gerecht zu werden das du da gezeigt hast, könnte ich das auch so gestalten, damit es noch korrekter ist:

    Quellcode

    1. #Monospur laden
    2. Sprecher1_Mono = WAVSource("Voice1.wav")
    3. Sprecher2_Mono = WAVSource("Voice2.wav")
    4. #Stereospur laden
    5. Game_Stereo = WAVSource("Game.wav")
    6. #Stummspur erstellen für Sprecher
    7. Mute1_Mono = Tone(Sprecher1.audiolengthf, 0, 44100, 1, "silence")
    8. Mute2_Mono = Tone(Sprecher2.audiolengthf, 0, 44100, 1, "silence")
    9. #Stereospurerzeugung für Links und Rechts
    10. #Unterteilung für die spätere Lautstärkereglung
    11. Sprecher1_Links_Stereo = MergeChannels(Sprecher1_Mono, Mute1_Mono)
    12. Sprecher1_Rechts_Stereo = MergeChannels(Mute1_Mono, Sprecher1_Mono)
    13. Sprecher2_Links_Stereo = MergeChannels(Sprecher2_Mono, Mute2_Mono)
    14. Sprecher2_Rechts_Stereo = MergeChannels(Mute2_Mono, Sprecher2_Mono)
    15. #Sprecher1 hat Stereo Raumklang von Links, also:
    16. Sprecher1_Stereo = MixAudio(Sprecher1_Links_Stereo, Sprecher1_Rechts_Stereo, 0.4, 0.1)
    17. #Sprecher2 hat Stereo Raumklang von Rechts, also:
    18. Sprecher2_Stereo = MixAudio(Sprecher2_Links_Stereo, Sprecher2_Rechts_Stereo, 0.1, 0.4)
    19. #Sprecher1 und Sprecher2 werden zusammengemixt auf eine Stereospur wobei Sprecher1 von links erzählt und Sprecher2 von Rechts
    20. AlleSprecher_Stereo = MixAudio(Sprecher1_Stereo, Sprecher2_Stereo)
    21. #Hinzu kommt der Sound des Spieles der ja schon üblich als Stereo meist vorliegt
    22. MixAudio(Game, AlleSprecher_Stereo)
    Alles anzeigen


    Das wäre das Bild von dir. Der Winkel ist in meinen Skript angegeben durch 0.4 und 0.1 für Links und 0.1 und 0.4 für Rechts. 2 Werte für die Winkelberechnung ^^ Oder besser gesagt für die Richtzuweisung.

    Das ganze darf auch nicht in Extremwerten ausatmen. Sonst hat man das Gefühl nicht gehört zu werden oder es als Störend zu empfinden da sich das ganze ja nur aus einer Richtung jeweils ertönt. Audacity kann das auch. Ist halt nur eine Frage der richtigen Mischung.
  • kepu94 schrieb:


    Diese Art und Weise würde ich auch als störend empfinden. Ich meine, hat irgendwer mal eine Kommentierung eines Sportereignisses auf diese Art und Weise gehört?


    Nun, wenn eine Sportschau mal nicht von nur einer Person moderiert wird, wird das meines Wissens nach durchaus genutzt. Bei Sky benutzt man teils z. B. eine 5.1 Übertragung, bei der die Mikrofone wohl entsprechend vernetzt sind. Wahrscheinlich wirkt es nur so natürlich, dass es dir gar nicht aufgefallen ist.

    @Sagaras: Sehr schöner Post, auch die AviSynth-Lösung gefällt mir ziemlich gut. Das mit den Extremwerten hast du auf jeden Fall richtig erfasst, denn wenn man übertreibt endet das in einer gestörten Lokalisation für den Zuhörer und damit mit einem unterbewussten Unwohlsein. Mittlerweile habe ich noch einen interessanten Artikel gelesen, wo es heißt, dass man bei der Stereo-Lokalisation tatsächlich nicht mit mehr wie 30° arbeiten sollte.

    Übrigens wäre das Abmischen mit Winkeln im Stereo-Bereich, der Versuch, eine binaurale Tonaufnahme zu virtualisieren. Wenn meine Studien stimmen, dann müsste sich das tatsächlich positiv auf die Psyche der Zuhörer ausüben. Ich werde das auf jeden Fall überprüfen und weiter testen.

    Genial wäre es natürlich, wenn Youtube tatsächlich mit mehr Kanälen zurecht kommen würde, aber das bleibt wohl Wunschdenken. Mehr Raumklang ginge dann ja kaum mehr. 5.1 Einstellungen habe ich auch schon getestet und das Ergebnis ist natürlich besser. Bei Stereo hat man eigentlich fast nur bei Kopfhöreren einen Vorteil bei der Wiedergabe.
  • Es gibt ja den ein oder anderen Youtuber, der das macht oder einige videos, bei denen der Uploader gar nicht wusste, wie man das richtig einstellt und einfach die einzige Stimme, die es gibt mehr auf dem einen Kanal liegt.
    Mich stört das dann so sehr, dass ich nach panen muss.
    Ich finde es so nervig und es kommt ja auch ab und zu mal vor, dass eine Person eine Minute durchspricht und ich finde es echt unerträglich.
  • Also mein Receiver dekodiert auch bei YouTube (wenn ich das auf dem TV anschaue) die Dolby-Surround-Informationen die in normalen Stereo-Kanälen "versteckt" sind, sprich das wirkt dann enorm komisch wenn der Spielton dann plötzlich auch "von hinten" kommt, der Sprecher aber weiterhin nur vorne zu hören ist...

    Ich hätte jedoch was dagegen wenn der Sprecher plötzlich auch hinter mir ertönt, ein leichtes nach links/rechts verschieben ist in Ordnung solange mehr als eine Person "anwesend" sind, aber komplett NUR links/rechts jeweils eine Stimme geht nicht.

    Wie oben schon steht komme ich mir dann vor als würde jemand neben mir stehen und mir ins Ohr rufen, auch wenn wir "nur" Stereo hören so bastelt das Gehirn doch passende identische Toninformationen zu einem Mono-Ton zusammen der dann "im Kopf" zu hören ist und nicht links/rechts daneben.

    Wobei die Ohren auch vorn/hinten unterscheiden können, aufgrund von Echos die später wahrgenommen werden bastelt auch hieraus das Gehirn passend eine Räumliche variante des Tons, aber dank Stereo-Kopfhörern braucht man sich darum nicht kümmern, ist zwar möglich aber glaub Dolby hat da Patente drauf.
    ——YouTube————————————————————————————————————————————
    — Endlos-Projekte: Minecraft (SinglePlayer), Craft The World, Banished, Besiege, Sims4
    — ..Abgeschlossen: Leisure Suit Larry 6+7, Dishonored, Surface 2+3, Mirrors Edge, uvm
    — . Kurz- Projekte: The Tower, Fighting Is Magic, Euro Truck Simulator 2, uvm
    — ......Retro-Ecke: Day Of The Tentacle, Flight Of The Amazon Queen, NFS: HP2, uvm
    ————————————————————————————————————————————TbMzockt.de—
  • it eine nette spielerei wenn man 3 audio spuren hat und auch sicher recht sinnvoll nur haben nicht alle das programm dazu und auch die aufnahme metode müsste man ändern und zwar von, über skype auf zusammen in einem raum oder die Audio datei mis geschickt werden wobei die ja dann auch auf der Spielaufnahme sein müsste da es zum windowes sound gehört.
    "Wenn wir die Wahrheit sagen, dann sind wir schlecht, irgendwo zwischen hart und ungerecht."
    Wir Sind Keine Engel

    ->Liste aller Projekte<-

    Zum Kanal des Todesengels
  • Chrisblue schrieb:

    Genial wäre es natürlich, wenn Youtube tatsächlich mit mehr Kanälen zurecht kommen würde, aber das bleibt wohl Wunschdenken. Mehr Raumklang ginge dann ja kaum mehr. 5.1 Einstellungen habe ich auch schon getestet und das Ergebnis ist natürlich besser. Bei Stereo hat man eigentlich fast nur bei Kopfhöreren einen Vorteil bei der Wiedergabe.

    Soetwas kannst du Prozentual nur downsamplen lassen. Hier wäre mal ein Post wie das mit AVISynth gehen würde: forum.gleitz.info/showthread.p…ndeln&p=441149#post441152

    Die richtige Wichtung der Kanäle bei einen Downsampling sind entscheident um den Raumklang effektiv umzusetzen. Mit AVISynth könnte ich jeden Kanal in seine einzelnen Bestandteile spalten, Isolieren und neu gewichten für Stereo z.B. Es ist aber ne Affen arbeit, aber machbar.
  • Raumklang ist auch bei Stereo möglich.

    Nennt sich HRTF und variiert entsprechend mit Tonhöhen und Tonlautstärken entsprechend der Position der Soundquelle, so das sich Geräusche trotzdem exakt orten lassen auch wenn die Lautsprecher direkt vor einem stehen. Da macht der Kopf den ganzen Rest. Wer schonmal den Virtual Barber Shop auf YouTube gesehen bzw. eher gehört hat, weiß wohl was gemeint ist.

    Der Mensch hört auch nur Stereo. Wenn jemand neben uns steht hört sich der Ton halt auch anders an, als wenn jemand vor uns steht und können deswegen sagen, dass jemand neben uns ist. HRTF macht da nichts anderes und wird eigentlich seit Jahren schon von jedem Videospiel im Stereo- bzw. vor allem Kopfhörermodus unterstützt.

    Also statt einfach nur den Ton auf Linker oder Rechter Tonspur zu legen, ist da schon durchaus mehr nötig um da ein angenehmes Gefühl zu erstellen. Da muss man wie gesagt viel mit Tonhöhen, Lautstärken etc. rumfummeln.

    Fände es beispielsweise eher angenehmer statt mitten zwischen beiden im Gespräch zu sein, als wenn die beiden Personen gefühlt ein bisschen hinter mir sprechen und mir quasi über die Schulter gucken :).
    Bei mir gibt es die Spiele aus den unbekannten Weiten des Alls
    Zum Kanal

    Momentan im Anflug:
    Holiday GigaLems 2015

    Dieser Beitrag wurde bereits 4 mal editiert, zuletzt von Deepstar ()

  • Deepstar schrieb:

    Raumklang ist auch bei Stereo möglich.

    Nennt sich HRTF

    Eigentlich reden wir ja die ganze Zeit darüber ^^ Habs ja bereits angewendet oben im Skript als Beispiel. Nur dort wurde Mono Künstlich in eine Raumklang Spur umgewandelt mit entsprechender Links-Rechts Gewichtung.

    Bei einem 7.1 oder 5.1 Sound würde die Gewichtung anders verlaufen. Auf YT gibt es dazu wunderschöne Beispiele wie sich das dann anhört ^^
    Beispiel: youtube.com/watch?v=IUDTlvagjJA

    Sowas kann man ganz einfach eigentlich erstellen wenn man 5.1 Sound oder halt noch besser 7.1 Sound hat. Bedeutet wenn 8 Mikros um einen herum stehen, kann man sowas aufnehmen und explizit auf Stereo runtersamplen mit der jeweils korrekten Gewichtung der einzelnen Positionen. Dadurch kommt sowas wie im Beispiel Video herraus ^^
  • Das Virtual-Barber Shop Beispiel hat schon eine beeindruckende Wirkung, aber dort erfolgte auch die Aufnahme direkt Binaural, was natürlich die Idealvorraussetzung ist.
    Unser Ansatz war schon gar nicht schlecht, lässt aber nur begrenzten Raumklang zu. Die reine Winkeleinstellung, bringt nämlich noch lange kein realistisches Echo mit sich, das aber für das Gehirn eine entscheidende Rolle spielt. Ich habe mich dann noch weiter in die Thematik reingelesen (Auch wenn es wirklich verdammt wenig Informationen gibt, die brauchbar sind).

    Mein aktueller Ansatz für das Virtualisieren von Binauralen Klang, funktioniert aber schon recht gut.

    Im Sinne eines Let's Plays, ist es dass sinnvollste, zunächst eine Sourround-Anlage zu simulieren. Hierfür habe ich den Spielesound zunächst in Links- und Rechts getrennt und anschließend die Spuren, mit einer Dezibel-Anpassung in die passenden 4 Kanäle einsortiert. Anschließend habe ich die beiden Sprecher, räumlich so platziert, dass das Gefühl entsteht, sie würden gerade hinter dem Zuschauer sitzen und darüber erzählen. Eine Kanalabmischung aus diesen 6 Kanälen wird nun anschließend mit einem Hall-Effekt bearbeitet, der exakt auf die Hörerposition gelegt wird. Das sorgt für das Gefühl, tatsächlich in einem Aufnahmeraum zu sitzen.
    Schlussendlich fehlt aber noch der LFE-Kanal, der für tiefe Frequenzen verwendet wird. Hierfür wird die Mischung aus den nun 7 Kanälen als Stereo exportiert und mit einem 300Hz-Lowpass Filter wieder importiert und hinzugefügt. Damit sollte die Sound-Abmischung stimmen. Optimieren lässt sich das Ganze noch, wenn schlussendlich die Master-Ausgabe noch einen gewissen Hall-Anteil bekommt.

    Der Aufwand ist relativ groß, ebenso wie die Rechenzeit, aber das Ergebnis ist ausgezeichnet. Hier noch ein Screenshot aus Audition:



    Inwiefern man hier noch mit Avisynth nachkommt ist natürlich so eine Sache. Allerdings würde mich natürlich so ein Ansatz auch interessieren, da ich dann noch den Automatisierungsvorteil habe.
    Vielleicht gibt es ja Plugins, die ähnliche Funktionen mitbringen. :)
  • Das ist auch alles möglich mit AVISynth. Selbst Audacity kann das ja schon. Die Frage ist wieviel Aufwand man für das ganze betreiben will?

    Ich meine es ist ne sehr schöne Angelegenheit das ganze, aber die meisten hier im Forum kommen ja nicht mal mit den simpelsten Sachen klar und nur wenige Leute interessieren sich für einen Raumklang in Let's Play's, wo doch YT sowieso Stereo nur hat. Viele werden den Sinn dafür nicht verstehen ^^

    Wie gesagt: es ist für viele zusätzliche Arbeit die kaum einer machen will. Geht ja schon los das viele echt stinkend faul sind und alles automatisiert haben wollen. Am besten das wenn man die Aufnahme beendet automatisch alles fertig encodiert wird und automatisch auf YT hochgeladen wird, sodass man gar nix mehr machen muss :wacko:

    Manche fragen sogar nach warum das Video auf YT links und rechts einen Rand hat? xD Ich meine... solchen Leuten noch zusätzlich mit Raumklang belangen übersteigt bei den meisten schon das Know-how.

    Wenn du dafür aber ein Tutorial machst und es so einfach wie nur möglich erklärst, sodass gar der letzte Unwissende es verstehen kann, denk ich das es sich der ein oder andere mal durchschauen wird.
    Aber ich bin mir ziemlich sicher das es kaum einer machen wird für LPs. Einfach weil es mehr Arbeitsaufwand ist für viele ^^
  • Tja, mir kann es gar nicht genug Aufwand sein. Je mehr ich herausholen kann, desto besser.
    Wobei ich mir eingestehen muss, dass ich Avisynth fast nur zur Videobearbeitung benutze und weniger zur Audiobearbeitung, aber Audition ist Qualitätsbezogen auch kein Nachteil im Gegensatz zu Programmen wie Premiere. Da bleibt halt alles schön verlustfrei. ^^

    Ich könnte mal ein Tutorial machen, ja das wäre eine gute Idee. Es gibt hier ja doch auch einige Leute, die den entsprechenden Anspruch mit sich bringen um wirklich alles herauszuholen.
    Eigentlich müsste ich sowieso mal meine ganzen Batch-Skripte der Öffentlichkeit zugänglich machen... Da sind so manche Zeitsparer dabei, die man wirklich einfach bedienen kann.