Latenzkompensation von DAWs

  • Noch ne Anmerkung, da du das Gerät auch als Audiointerface nutzen willst.
    Diese L12 bis L20 Teile sind mit Latenzen von mindestens 13ms bis 30ms zum Aufnehmen völlig ungeeignet.

    (abgesehen vom wirklich schlechten Klang der Wandler)

    don´t panic

  • Diese L12 bis L20 Teile sind mit Latenzen von mindestens 13ms bis 30ms zum Aufnehmen völlig ungeeignet.

    Für reines Recording ist das doch unerheblich. Oder übersehe ich da etwas?

    Naja, wenn du alle Spuren gleichzeitig aufnimmst stimmt deine Theorie

    Spielst du aber zu Spuren die bereits in der DAW sind, kann das eine Herausforderung werden

  • Diese L12 bis L20 Teile sind mit Latenzen von mindestens 13ms bis 30ms zum Aufnehmen völlig ungeeignet.

    Für reines Recording ist das doch unerheblich. Oder übersehe ich da etwas?

    Naja, wenn du alle Spuren gleichzeitig aufnimmst stimmt deine Theorie

    Spielst du aber zu Spuren die bereits in der DAW sind, kann das eine Herausforderung werden

    Die Funktion als Interface habe ich bisher nicht einmal testweise genutzt und habe es auch nicht vor. Aufgenommen habe ich immer auf SD-Karte und die rohen Spuren dann nachträglich, quasi manuell, in die DAW gezogen. Das ging immer ohme Probleme zu meiner vollsten Zufriedenheit. Von daher nutze ich sicher nicht den vollen Funktionsumfang der Zooms.

    Fragen und Beiträge zu E-Drums können zu heftigen Reaktionen und Nebenwirkungen führen.

  • Diese L12 bis L20 Teile sind mit Latenzen von mindestens 13ms bis 30ms zum Aufnehmen völlig ungeeignet.

    Für reines Recording ist das doch unerheblich. Oder übersehe ich da etwas?

    Naja, wenn du alle Spuren gleichzeitig aufnimmst stimmt deine Theorie

    Spielst du aber zu Spuren die bereits in der DAW sind, kann das eine Herausforderung werden.

    Inwiefern? Einen zeitlichen Versatz der neu eingespielten Spuren zu den bereits vorhandenen hat man in so einem Fall ja mit jedem Interface, mal grösser mal kleiner. Der muss durch verschieben der Spuren ausgeglichen werden.

    Was für mich - in kleinerem Setup - dann gut funktioniert ist das Re-Recording der aus der DAW abgespielten Spuren. Dann ist zeitlich alles korrekt.

    In Bezug auf die im Startpost genannten Anforderungen spielt das jedoch keine Rolle.

    Blaukraut bleibt Blaukraut & Brautkleid breibt Blaubtkreid

  • Einen zeitlichen Versatz der neu eingespielten Spuren zu den bereits vorhandenen hat man in so einem Fall ja mit jedem Interface, mal grösser mal kleiner

    Ein zeitlicher Versatz im unteren einstelligen Millisekundenbereich ist durchaus ok und nicht wahrnehmbar.
    Bei 30ms ist es halt doof, wenn du auf dem Keyboard eine Taste drückst und der Ton erst einen halben Tackt später erklingt.
    Oder du beim eintrommeln 30ms früher spielen musst als die bereits aufgenommenen Spuren. :)

    don´t panic

  • Ich verstehe nicht warum du nur einen Teil meines Posts zitierst und darauf antwortest als hätte ich den Rest nicht geschrieben.

    Ich empfinde das als unnötig provokant. Oder hast du mich missverstanden?

    Blaukraut bleibt Blaukraut & Brautkleid breibt Blaubtkreid

  • Soweit ich weiß rechnen moderne DAWs die Latenz beim Recording automatisch raus. Eingangs- und Ausgangslatenzen werden also direkt bei der Aufnahme kompensiert. Und zwar die tatsächliche Latenz, die die Latenz der Puffergröße (je nach genutzter Hardware) immer übersteigt. In meinem Fall sind das 4+4ms. Nehme ich den Klick von der DAW, wäre ich ja sonst automatisch immer 8ms hinter dem Klick - bei größerem Puffer entsprechend mehr. Und bei mehreren Overdubs würde sich das entsprechend weiter aufsummieren.


    Problematisch wird es nur, wenn man das Monitoring durch die DAW schleift oder MIDI-Instrumente über die DAW laufen lässt. Dafür braucht man sehr niedrige Latenzen. Unabhängig davon würde ich aber auch zusehen, dass das benutzte Equipment keine zu hohen Latenzen mit sich bringt. Früher war da auch USB schon problematisch, weshalb Firewire dafür populär war. Heutzutage nicht mehr (die Treiber brauchen halt entsprechend mehr CPU-Power).

  • Ich weiß nicht ob ich dich missverstanden habe. Ich denke nicht.
    Auch war es nicht meine Absicht zu provozieren, wenn du es so empfindest.
    Der erste Teil war mir wichtig, weil man halt mit hohen 2stelligen Latenzen nicht aufnehmen kann.


    Ich gehe aber gerne auch auf den zweiten Teil ein:
    Re-recording aller bereits vorhandenen Spuren? -Was ist ein kleineres Setup?
    Bei kleinen bis mittleren Projekten mit nur 20-50 Spuren benötigt man ein Interface mit entsprechend vielen Eingängen.
    Audiokonverter mit so vielen Eingängen sind in der Regel per se mit guten Treibern und DACs ausgestattet, das Latenz da keine Rolle spielt.

    Das hier thematisierte Zoom mit max 20 Eingängen würde da eh nicht reichen.


    Abgesehen davon, wie bekommt man die bereits aufgenommenen Spuren aus der DAW an die analogen Eingänge?
    Wenn man es denn schafft, die bereits aufgenommenen Tracks zu re-recorden, dann wird bei jedem neu zugespielten Take 2x gewandelt.

    Nimt man Bass, dann drums, danach 2 Gitarren, nochmal Gitarre gedoppelt, dann Keys, 2xVocals und backing Vocals auf,
    dann muss der Bass hier zb 18x gewandelt werden (AD und DA), wärend die backing Vocals nur 1x durch den AD Wandler mussten.
    Ich mag mir gar nicht vorstellen wie das ganze dann noch klingt. Vor allem bei so einem Zoom mit diskret aufgebauten Kanälen.
    Da wird das Rauschen wohl den Pegel des Nutzsignals überschreiten.


    Ich bin neugierig wie und mit welchem Interface du das umsetzt. Vielleicht ein paar kleine Eckdaten zu deinem Setup und was du mit kleineren Setup meinst.

    don´t panic

  • Naja, wenn du alle Spuren gleichzeitig aufnimmst stimmt deine Theorie

    Spielst du aber zu Spuren die bereits in der DAW sind, kann das eine Herausforderung werden.

    Inwiefern? Einen zeitlichen Versatz der neu eingespielten Spuren zu den bereits vorhandenen hat man in so einem Fall ja mit jedem Interface, mal grösser mal kleiner. Der muss durch verschieben der Spuren ausgeglichen werden.

    Wie ich bereits geschrieben habe, ist das ein Irrglaube. DAWs kompensieren die Latenzen automatisch beim Recording. Und zwar nicht nur die theoretisch minimalen Latenzen, die sich aus der Puffergröße errechnen, sondern die tatsächlichen praktischen Latenzen, die sich aus der genutzten Hardware ergeben. Da bin ich mir ziemlich sicher.


    DAWs sind auch bei der Nachbearbeitung dazu in der Lage, die unterschiedlichen Latenzen von zig VSTs entsprechend zu kompensieren, damit alle Spuren unabhängig von den benutzten VSTs gleichzeitig laufen. Da sollte die Kompensation der Latenzen beim Aufnehmen pillepalle sein.

  • Bei den Zoom LiveTracks kann man im Konfigurationsmenue eine Latenzkompensation ein- und ausschalten. Aber auch damit habe ich mich noch nicht weiter befasst....


    Zitat aus dem Manual des L-12 Seite 84:

    "...Bei der Aufnahme von Overdubs lässt sich der Zeitversatz, der durch die Analog- Digital-Wandlung, die

    Signalverarbeitung und die Digital-Analog-Wandlung verursacht wird, kompensieren.

    1. Wählen Sie MENU > REC / PLAY > LATENCY ADJUST. ..."

    Fragen und Beiträge zu E-Drums können zu heftigen Reaktionen und Nebenwirkungen führen.

    Einmal editiert, zuletzt von Mai-Carsten ()

  • Vielen Dank für deine ausführliche Antwort. Wir reden wohl etwas aneinander vorbei.

    Ich beziehe mich auf die im Startpost genannten Anforderungen. 2x Gitarre, ein Bass & ein Schlagzeug. Proben/Jams festhalten, Aufnahmen für Demos und Konzerte mischen.

    Und ich nehme an, dass die von dir genannten Latenzen des Zooms nur auf dessen Eigenschaften als Audiointerface zutreffen.

    Wird die Band gemeinsam aufgenommen, die DAW erfüllt hier lediglich die Funktion einer Bandmaschine, ist die Latenz dabei irrelevant.

    (Anders sieht es natürlich aus, wenn die DAW auch als Effektloop oder Mixer genutzt würde.)


    Nähme man zu bereits in der DAW vorhandenen Spuren etwas weiteres auf, entsteht ein zeitlicher Versatz, da sind wir uns einig. Die von mtree genannte Latenzkompensation lasse ich mal aussen vor, da ich nicht weiss, ob diese tatsächlich alle Latenzen berücksichtigen kann.

    Diesen Versatz der neu aufgenommenen Spur(en) entferne ich durch verschieben dieser Spuren in der DAW. Sozusagen eine manuelle Latenzkompensation die sich an der Position der vorhandenen Spuren orientiert. Ich nehme an, die Vorgehensweise ist dir bekannt, du scheinst dich ja mit der Gesamtthematik sehr gut auszukennen und über viel Erfahrung zu verfügen.

    Damit ist aus meiner Sicht das eigentliche Problem bereits gelöst.


    Das Verschieben der Spuren kann allerdings etwas knifflig werden. Ich zB kann da ziemlich kleinlich sein (mehr als nötig) und mein Timing am Schlagzeug ist sehr verbesserungsfähig. Da die richtige Zeitposition festzulegen, also wo schiebe ich die Spur hin, ist nicht immer einfach.

    Ich löse das indem ich das was ich beim einspielen höre, was aus der DAW kommt, wieder mit aufnehme.

    Bei dem kleinen Setup was ich nannte, war ich gedanklich bei einem Playalong zu dem ich spiele und was ich dann gemeinsam mit meinen Drums hören möchte. Vier Mics vom Schlagzeug plus zwei Kanäle Playalong sind dann mein kleines Setup. Dann erspare ich mir auch das verschieben und lösche einfach die gehörte Spur aus der DAW. Offen gesagt, kommt sie meist eh von einem externen Player.

    Bei grösseren Projekten mit vielen Einzelspuren in der DAW, egal ob zehn oder fünfzig, höre ich beim einspielen der neuen Spur(en) dann auch „nur“ deren Summe, die dann als Pilotspur wieder mit aufgenommen wird. Die Notwendigkeit alle Einzelspuren zu re-recorden besteht nicht. Das mach mE keinen Sinn.

    Die Pilotspur (mit dem selben zeitlichen Versatz wie die neuen Aufnahmen) dient dann lediglich als Hilfsmittel für das exakte Verschieben der neu dazugekommenen Spuren.

    Hier kann es hilfreich sein, die Wellenform der Pilotspur als Summe ist für mich visuell nicht immer ganz einfach bzw eindeutig zu entziffern (zB wenn derb verzerrte Gitarren dabei sind), eine weitere Spur aus der DAW (zB eine Klickspur) mit visuell prägnanter Wellenform auszugeben und wieder mit aufzunehmen. Dabei ist es nicht notwendig selbige zu hören, nur der Signalweg muss der gleiche sein damit der Versatz stimmt.


    Auf diese Art und Weise kann ich die Latenzen des Signalweges manuell samplegenau ausgleichen. Unabhängig von der Grösse des Versatzes, der Latenzen.


    Sorry für den Off-Topic-Roman an dieser Stelle. Ich glaube, dass es für Leute die ganz am Anfang dieser Thematik stehen, hilfreich ist solche Debatten bzw. teils nur scheinbar unterschiedlichen Sichtweisen etwas genauer zu erörtern.

    Grosse Latenzen sind blöd, da hat Beeble schon recht, doch sind sie nicht in jedem Fall von Relevanz.

    Als Anfänger*in ist man schnell mal verunsichert wenn man sich im Forum informieren will und dann über solche Diskussionen stolpert, die zwar sehr informativ sein können, aber auch teils widersprüchlich wirken wenn man noch nicht über das Hintergrundwissen verfügt um diese scheinbaren Widersprüche einordnen zu können.

    Ich erlebe das gerade selber in einem anderen Forum welches ich seit kurzem häufiger als Wissens- und Erfahrungsquelle besuche. Da suche ich Infos und nach einer Stunde raucht mir der Kopf und ich bin völlig verunsichert was das nun alles bedeutet. Bogenschiessen kann mMn eine noch krassere Nerderei werden als Schlagzeugspielen und Recorden. 😀

    Blaukraut bleibt Blaukraut & Brautkleid breibt Blaubtkreid

  • Nähme man zu bereits in der DAW vorhandenen Spuren etwas weiteres auf, entsteht ein zeitlicher Versatz, da sind wir uns einig. Die von mtree genannte Latenzkompensation lasse ich mal aussen vor, da ich nicht weiss, ob diese tatsächlich alle Latenzen berücksichtigen kann.

    Diesen Versatz der neu aufgenommenen Spur(en) entferne ich durch verschieben dieser Spuren in der DAW. Sozusagen eine manuelle Latenzkompensation die sich an der Position der vorhandenen Spuren orientiert. Ich nehme an, die Vorgehensweise ist dir bekannt, du scheinst dich ja mit der Gesamtthematik sehr gut auszukennen und über viel Erfahrung zu verfügen.

    Ich werde dazu nachher mal ein paar Tests mit unterschiedlichen Puffergrößen machen, weil mich das jetzt selbst interessiert. Ich bin mir aber sehr sicher, dass DAWs die Latenzen unmittelbar nach der Aufnahme sehr effektiv kompensieren. Dass man für Overdubs eine manuelle Latenzkompensation durchführen müsste / sollte, ist mir neu.

    Die Spuren werden am Ende genau so im Projekt abgespeichert, wie man sie mit Latenz-freiem Monitoring zum Playback einspielt oder einsingt bzw. hört.


    Ansonsten käme man ja mit Aufnahmen im Overdub-Verfahren mit längeren Latenzen schnell an einen Punkt, an dem das alles auseinanderfällt. Da wäre man dies bzgl. mit jedem Multitrack-Tonband besser bedient. Das bezweifel ich sehr stark! Aber wie gesagt - ich werde dazu nachher noch ein paar Tests machen.


    Üblich ist heutzutage eine Vielzahl an Overdubs. Beispiel: Guidetracks -> Drums -> Rhythmusgitarren (4x / jeweils Strophe + Refrain gedoppelt) -> Bass -> 4x Keys / Synths -> 2x Lead Vocals (Strophe / Refrain) -> 4x Backing Vocals -> Solo-Gitarre ... das sind dann schon 18 Stufen, oft werden es sogar noch mehr. Mir ist beim Recording da nie ein sich aufkumulierender zeitlicher Versatz aufgefallen und ich bezweifel, dass die fremden Multitracks, die ich so gemischt habe, irgendwo manuell Latenz-kompensiert wurden.

  • Den Test kannst du dir sparen. Mir ist keine DAW ohne Latenzkompensation bekannt.
    Vielleicht einige Multitracker. Zb. Audacity hat so etwas nicht. Dort kann man aber den Versatz berechnen und manuel "automatisieren" lassen.

    Kritisch bis unbenutzbar wird das ja auch nur beim Monitoring während der Aufnahme und beim Reamping, dem Einspielen von VSTi mittels Keyboards, edrums usw.
    Kritisch sind auch zb. Asio4all Treiber auf leistungsschwachen Systemen über den Onboardsound.


    Jeder, der selbst mit geringsten Ansprüchen Multitrackaufnahmen machen will, sollte bereit sein, mindestens 50 Euro zu investieren, die so ein benutzbares Audiinterface mit Direkter Mithörmöglichkeit etwa kostet. Arbeitet man mit Midi und VSTi, dann kommt man nicht umhin seine Hardware gründlicher auszuwählen.

    Leider kommt man als Drummer mit einem einfachen 2 Kanal Gerät nicht weit, deswegen möchte ich noch einen Absatz nachschieben:



    Man sollte überlegen, ob heutzutage die Anschaffung eines Zoom Lx bei den fallenden Preisen von Digitalkonsolen einen Sinn ergibt.
    Vielleicht ist es Unwissenheit in Verbindung mit reisserischem Marketing?
    Ein Plastikgehäuse mit umständlicher Bedienung, ohne Channelstrip, analogem Kanalaufbau, mit stark beschränkter Klangformung (Ein Knopf Kompressor, nur regalbare Mitten im EQ, vorgegebene Effektsetting) Das ganze dann für 900 Euro.
    Dagegen für 1200Euro ein Mixer mit 32 Kanälen, schneller intuitiver Bedienung, 16 Busse, 8 Effektbusse. Motorfader und ein 32Kanal I/O Interface. Vollem Channelstrip für alle Kanäle und Busse, über 100 Emulationen bekannter Effektgeräte. Dazu klanglich einem Zoom überlegen. Absolut tauglich gerade auch Live.


    Man könnte das Thema auch gerne mal auslagern in einem eigenen Thread um darüber zu diskutieren und um verschiedene Anwendungen mit den unterschiedlichen Geräten zu vergleichen. Ich habe in meinem Umfeld leider sehr viele Musiker und besonders Bands, die aus Unwissenheit die falschen Entscheidungen aufgrund von Marketing und/oder schlechter Beratung getroffen haben, was immer in Frust, Ernüchterung und meist in Neuanschaffung endet.

  • Den Test kannst du dir sparen. Mir ist keine DAW ohne Latenzkompensation bekannt.

    Schon zu spät - das hatte ich gestern Nachmittag im Recording-Studio sowieso noch gemacht. Hat mich sowieso interessiert, wie das in der Praxis genau aussieht.

    Außerdem scheint das hier nicht allen Leuten klar zu sein (Stichwort manuelle Latenzkompensation) - deshalb wollte ich schon einen extra Thread dafür machen.


    Für den Test habe ich ein Scarlett 18i20 2nd Gen (gekoppelt über ADAT mit einem ADA8200) und REAPER benutzt. Ich habe einen Klicktrack angelegt und einen der Line-Outs des Scarletts direkt in einen Line-In des ADA8200 geführt. Das habe ich dann mit 64, 256 und 1024 Samples @ 44,1 kHz aufgenommen. Die praktischen Latenzen waren jeweils mehr als doppelt so groß wie die minimal theoretischen der Puffergrößen - ich habe die Tracks in den Screenshots entsprechend benannt. Die Markierung im letzten Screenshot entspricht 14 Samples. Man erkennt, dass die Kompensation nicht aufs Sample genau funktioniert - wohl genau deshalb, weil die tatsächliche praktische Latenz ausgeglichen wird. Wo die Verzögerung herkommt, weiß ich nicht. Aber 14 Samples entsprechen bei 44,1 kHz etwa 0,3 ms, was wiederum ca. 10cm Weg der Schallgeschwindigkeit entspricht. Da hat man z.T. größere Latenzen durch entsprechende Abstände von Mikrofonen.


  • Wo die Verzögerung herkommt, weiß ich nicht

    Ich vermute es könnte einfach nur der Rundungsfehler sein, und/oder die Darstellung wird gerundet.
    44.1 kHz lassen sich ja nicht ganzzahlig durch die Samplepakete teilen. Bei 48kHz müsste man entsprechend andere Abweichungen sehen.
    Außerdem handelt es sich um ein Rechtecksignal welches analog im Wandler je nach Abtastgeschwindigkeit ganz sicher unterschiedliche Flankensteilheit mit sich bringt,

    was dann die grafische (gerundete) Darstellung erklären könnte.

    Auch müsste man den Test mit anderen DAWs durchführen und die Ergebnisse vergleichen.
    Dann weiss man immer noch nicht wie da intern gerechnet wird. :)


    Aber ich denke dein Test zeigt deutlich das die Kompensation funktioniert

    don´t panic

    2 Mal editiert, zuletzt von Beeble ()

  • Außerdem handelt es sich um ein Rechtecksignal welches analog im Wandler je nach Abtastgeschwindigkeit ganz sicher unterschiedliche Flankensteilheit mit sich bringt,

    was dann die grafische (gerundete) Darstellung erklären könnte.

    Die Wellenform des Klicktracks ist da wohl irreführend, weil ich als Klicksound eine Dreieckschwingung eingestellt habe, welche sich ja auch so in den Wellenformen der Aufnahmen zeigt. Möglicherweise gibts gar keine Verzögerung, weil das Signal nicht punktgenau auf dem Raster (sondern eben um ein paar Samples verzögert) beginnt. Müsste ich noch mal mit einer anderen Quelle testen.

    Aber ich denke dein Test zeigt deutlich das die Kompensation funktioniert

    Jepp! So eine DAW ist schon was Feines. :)

  • Diese L12 bis L20 Teile sind mit Latenzen von mindestens 13ms bis 30ms zum Aufnehmen völlig ungeeignet.

    Wo kommen diese Latenzen her? Ich nehme an um den Audiobuffer geht es hier nicht?

    Blaukraut bleibt Blaukraut & Brautkleid breibt Blaubtkreid

  • Wo kommen diese Latenzen her? Ich nehme an um den Audiobuffer geht es hier nicht?

    Leider doch. Ich habe diese Info aus einem Forum wo die Latenz des L20 diskutiert wurde.

    Gemessen mit Cubase wurden bei 48kHz:

    - 64 samples - 12,875ms
    - 96 samples - 14,208ms
    - 128 samples - 15,542ms
    - 256 samples -20,875ms
    - 512 samples - 31,542ms
    - 1024 samples - 52,875ms

    das ganze mit eingeschaltetem compliant mode und den Zoom Treibern. -Stand März 23

    Wir nehmen .. auf die SD Karte auf. .. Ein "Latenzproblem" gibt es nicht,

    natürlich nicht, wenn man auf die interne Karte schreibt.


    Angeblich, laut einiger Nutzer die das gemessen haben, hat das L20 bereits eine interne Latenz von ca 3ms. Zum Vergleich, ein X32 hat rund 0,8ms MIT Channelstrip.
    Selbst mit Nutzung aufwändiger Effektplugins bleibt man weit unter 3ms.


    Vorsicht Falle: Konsolen wie die preiswerten Behringer, Yamahas, Presonus usw. haben keine Latenzkompensation. Das findet man eher bei den Profigeräten.

    Das bedeutet, das bei Parrallelbearbeitung (man schickt das Signal gleichzeitig direkt auf den Masterout und in einen Effektbus) die Laufzeiten abhängig der Plugins unterschiedlich lang sind. Das ist nicht schlimm wenn man weiß wie man es umgehen kann. Ansonsten wundert man sich über unschöne Kammfiltereffekte.

    don´t panic

Jetzt mitmachen!

Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!