Hab auch das Problem, dass die App „nichts mehr hört“ bzw. nicht mehr auf Töne reagiert.
Aber schon seit ca einem Jahr.
Hab auch das Problem, dass die App „nichts mehr hört“ bzw. nicht mehr auf Töne reagiert.
Aber schon seit ca einem Jahr.
Moin
ich würde keine ganze Seite auf einmal durchnehmen. Zumindest nicht am Anfang, wenn die Figuren noch nicht wirklich sitzen.
Das wäre mir bzw. meinem Hirn zuviel Input.
Irgendwann dann mal die ganze Seite, dann aber nicht jede Zeile 20x.
Auf mich hatte es so gewirkt, dass du nicht so recht weißt was du tust, weil du eine manuelle Latenzkompensation in der DAW machst. Dass dir also der Umstand nicht bewusst ist, wie effektiv DAWs die Latenz ausgleichen.
Wenn ich sehe, dass die Spuren zeitlich nicht ganz passen, dann schiebe ich. Ganz unkompliziert.
Die DAW war dann wohl nicht effizient genug. Wie das DAW intern umgesetzt wird, welche Informationen der externen Hardware dort ankommen ist ja geräteabhängig. Deine Beispiele mit dem 18i20 zeigen ja, dass es gut funktionieren kann. Und auch tut.
Und es gibt Geräte deren Design in dieser Hinsicht weniger gut ist. Wie anscheinend das L20 auch.
Vielleicht ist ja jemand unter uns der oder die so ein Gerät hat. Dann wäre ein Testaufbau wie von @mtree beschrieben damit möglich. Klicktrack aus der DAW durchs L20 und wieder rein in die DAW. Dauert keine fünf Minuten. Ob und wieviel da an Versatz bleibt, fände ich nach der ganzen Debatte noch sehr interessant.
Hast du einen Link zu der von dir genannten Diskussion über diese Gerät. Mich interessiert, wie der Messaufbau realisiert wurde, bzw. welche Software zum Einsatz kam.
Ich hatte hier vor einiger Zeit mal einen Thread erstellt, der ein paar Grundlagen zum Thema "Digitale Audiosignalverarbeitung" beleuchtet. Weil z.B. bei der Samplingrate und Oversampling, aber auch der Bittiefe, immer wieder Mythen und Missverständnisse kursieren.
Das ist eine schöne Zusammenfassung. Sie hat mit dem worüber wir reden aber nichts zu tun. Und auch wenns nichts zur Sache tut, eine Ungenauigkeit fiel mir beim überfliegen auf:
ZitatDie Abtastrate muss mindestens doppelt so hoch sein wie die maximale Frequenz eines Signals (Nyquist-Shannon-Abtasttheorem).
Das Nyquist-Shannon-Abtasttheorem besagt, dass die Abtastrate mindestens grösser als doppelt so hoch wie die maximale abzutastende Frequenz sein muss.
Es ist zwar schon über 20 Jahre her, aber an diesen Teil meiner Ausbildung kann ich mich noch erinnern, obwohl es nie von wirklicher Relevanz für meinen Weg war. Schon kurios, dass manche Sachen hängenbleiben obwohl man sie nicht nutzt.
Aus den Screenshots lässt sich ableiten, dass die gesamte Latenz kompensiert wird.
Eben nicht. Sonst wäre da ja kein Versatz mehr vorhanden.
Du bestätigst es ja schon selbst:
Ich habe dann mal das Gerät gewechselt und statt vom ADA8200 einen Kanal vom 18i20 genutzt. Und siehe da - so waren es nur noch 5 Samples.
Offenbar geschieht die Signalverarbeitung des 18i20 schneller als die des ADA8200. Den Unterschied siehst du nur, weil Reaper diesen Anteil an der Gesamtlatenz nicht kennt und demzufolge auch nicht kompensieren kann.
In der Grössenordnung muss man auch nichts verschieben, finde ich. Da bin ich mit dir einig.
Wenn ein Gerät, wie es das L20 anscheinend tut aber weitaus grössere Verzögerungen mitbringt, die man dann nicht mehr vernachlässigen möchte, kann mein Vorschlag der "manuellen Latenzkompensation" ein möglicher Weg zur Abhilfe sein.
Ich verstehe nicht warum du das anscheinend unbedingt negieren willst.
Dieser veranschaulicht doch klar und deutlich, dass die DAW die gesamte, tatsächliche / praktische Latenz ausgleicht. REAPER zeigt diese praktische Latenz auch an.
Aus den Screenshots lässt sich ableiten, dass die Latenzen, verursacht von der Grösse des Buffers (64, 256 & 1024 Samples) kompensiert werden.
Diese sind ja wesentlich grösser als der Rest von +- 0.3ms. Die sich interessanterweise unterscheiden.
14Spls@64, 12Spls@256 und 15Spls@1024. Dieser Unterschied von drei Samples (ca 0.068 ms) könnte tatsächlich auf die von Beeble genannten Gründe zurückzuführen sein. Das tönt für mich plausibel.
Der selbe Messaufbau und dessen Ergebnisse ohne Latenzkompensation der DAW (kann man die abschalten?) als Vergleichsmessung wäre etwas aussagekräftiger. Dann könnte man vom Ergebnis die Puffergrössen abziehen und den Rest dieser Messung mit dem Rest der Messung mit Latenzkompensation vergleichen.
Ist dieser grösser, wäre das ein Indiz dafür, dass weitere Latenzen neben der Puffergrösse ausgeglichen werden.
PS
Vielleicht könnte diese interessante Debatte ausgelagert werden…
Ums Thema gehts ja nicht mehr.
Wo kommen diese Latenzen her? Ich nehme an um den Audiobuffer geht es hier nicht?
Leider doch. Ich habe diese Info aus einem Forum wo die Latenz des L20 diskutiert wurde.
Gemessen mit Cubase wurden bei 48kHz:
- 64 samples - 12,875ms
- 96 samples - 14,208ms
- 128 samples - 15,542ms
- 256 samples -20,875ms
- 512 samples - 31,542ms
- 1024 samples - 52,875msdas ganze mit eingeschaltetem compliant mode und den Zoom Treibern. -Stand März 23.
So wie ich das bisher verstanden habe, gleicht die Latenzkompensation einer DAW die durch die eingestellte Buffergrösse entstehende Verzögerung aus. Und eben nur diese. Man möge mich verbessern, wenn ich hier auf dem Holzweg bin.
Diese Latenz ist der DAW ja bekannt. Bei 1024 Samples @48kHz wären das 21,33 ms.
Was ist mit den zusätzlichen ~31,5ms des L20?
„Weiss“ die DAW davon und kann diese bei der Latenzkompensation berücksichtigen, oder bleibt diese Information „pultintern“?
Diese L12 bis L20 Teile sind mit Latenzen von mindestens 13ms bis 30ms zum Aufnehmen völlig ungeeignet.
Wo kommen diese Latenzen her? Ich nehme an um den Audiobuffer geht es hier nicht?
Alles anzeigenWir haben das Behringer X18 durch das Zoom L20 ersetzt. Das Zoom kann mehr und klingt besser. Auch für Aufnahmen sehr gut geeignet. Leicht zu handhaben. 9 Speicherplätze, 6 Monitorwege, usw …. Für kleine Hobbybands mit wenig Budget ein tolles Gerät. Einfach mal einlesen.
Das kann man so nicht stehen lassen
Beide Pulte verfolgen ein unterschiedliches Konzept
Geht es ums Livespielen sehe ich die Vorteile beim XR18 (viel umfangreicherer Chanelstrip) Monitorausgänge auf XLR, RTA und und und
Im Proberaum spielt der L20 seine Vorteile aus, Fader und REC Möglichkeit (wobei das der XR18 über USB auch kann)
Bleibt dann noch der gewaltige Preisunterschied (zugunsten des Behringers)
Geht es hier um das X18 oder das XR18?
Das sind zwei ganz unterschiedliche Geräte.
Alles anzeigenIch weiß nicht ob ich dich missverstanden habe. Ich denke nicht.
Auch war es nicht meine Absicht zu provozieren, wenn du es so empfindest.
Der erste Teil war mir wichtig, weil man halt mit hohen 2stelligen Latenzen nicht aufnehmen kann.
Ich gehe aber gerne auch auf den zweiten Teil ein:
Re-recording aller bereits vorhandenen Spuren? -Was ist ein kleineres Setup?
Bei kleinen bis mittleren Projekten mit nur 20-50 Spuren benötigt man ein Interface mit entsprechend vielen Eingängen.
Audiokonverter mit so vielen Eingängen sind in der Regel per se mit guten Treibern und DACs ausgestattet, das Latenz da keine Rolle spielt.Das hier thematisierte Zoom mit max 20 Eingängen würde da eh nicht reichen.
Abgesehen davon, wie bekommt man die bereits aufgenommenen Spuren aus der DAW an die analogen Eingänge?
Wenn man es denn schafft, die bereits aufgenommenen Tracks zu re-recorden, dann wird bei jedem neu zugespielten Take 2x gewandelt.Nimt man Bass, dann drums, danach 2 Gitarren, nochmal Gitarre gedoppelt, dann Keys, 2xVocals und backing Vocals auf,
dann muss der Bass hier zb 18x gewandelt werden (AD und DA), wärend die backing Vocals nur 1x durch den AD Wandler mussten.
Ich mag mir gar nicht vorstellen wie das ganze dann noch klingt. Vor allem bei so einem Zoom mit diskret aufgebauten Kanälen.
Da wird das Rauschen wohl den Pegel des Nutzsignals überschreiten.
Ich bin neugierig wie und mit welchem Interface du das umsetzt. Vielleicht ein paar kleine Eckdaten zu deinem Setup und was du mit kleineren Setup meinst.
Vielen Dank für deine ausführliche Antwort. Wir reden wohl etwas aneinander vorbei.
Ich beziehe mich auf die im Startpost genannten Anforderungen. 2x Gitarre, ein Bass & ein Schlagzeug. Proben/Jams festhalten, Aufnahmen für Demos und Konzerte mischen.
Und ich nehme an, dass die von dir genannten Latenzen des Zooms nur auf dessen Eigenschaften als Audiointerface zutreffen.
Wird die Band gemeinsam aufgenommen, die DAW erfüllt hier lediglich die Funktion einer Bandmaschine, ist die Latenz dabei irrelevant.
(Anders sieht es natürlich aus, wenn die DAW auch als Effektloop oder Mixer genutzt würde.)
Nähme man zu bereits in der DAW vorhandenen Spuren etwas weiteres auf, entsteht ein zeitlicher Versatz, da sind wir uns einig. Die von mtree genannte Latenzkompensation lasse ich mal aussen vor, da ich nicht weiss, ob diese tatsächlich alle Latenzen berücksichtigen kann.
Diesen Versatz der neu aufgenommenen Spur(en) entferne ich durch verschieben dieser Spuren in der DAW. Sozusagen eine manuelle Latenzkompensation die sich an der Position der vorhandenen Spuren orientiert. Ich nehme an, die Vorgehensweise ist dir bekannt, du scheinst dich ja mit der Gesamtthematik sehr gut auszukennen und über viel Erfahrung zu verfügen.
Damit ist aus meiner Sicht das eigentliche Problem bereits gelöst.
Das Verschieben der Spuren kann allerdings etwas knifflig werden. Ich zB kann da ziemlich kleinlich sein (mehr als nötig) und mein Timing am Schlagzeug ist sehr verbesserungsfähig. Da die richtige Zeitposition festzulegen, also wo schiebe ich die Spur hin, ist nicht immer einfach.
Ich löse das indem ich das was ich beim einspielen höre, was aus der DAW kommt, wieder mit aufnehme.
Bei dem kleinen Setup was ich nannte, war ich gedanklich bei einem Playalong zu dem ich spiele und was ich dann gemeinsam mit meinen Drums hören möchte. Vier Mics vom Schlagzeug plus zwei Kanäle Playalong sind dann mein kleines Setup. Dann erspare ich mir auch das verschieben und lösche einfach die gehörte Spur aus der DAW. Offen gesagt, kommt sie meist eh von einem externen Player.
Bei grösseren Projekten mit vielen Einzelspuren in der DAW, egal ob zehn oder fünfzig, höre ich beim einspielen der neuen Spur(en) dann auch „nur“ deren Summe, die dann als Pilotspur wieder mit aufgenommen wird. Die Notwendigkeit alle Einzelspuren zu re-recorden besteht nicht. Das mach mE keinen Sinn.
Die Pilotspur (mit dem selben zeitlichen Versatz wie die neuen Aufnahmen) dient dann lediglich als Hilfsmittel für das exakte Verschieben der neu dazugekommenen Spuren.
Hier kann es hilfreich sein, die Wellenform der Pilotspur als Summe ist für mich visuell nicht immer ganz einfach bzw eindeutig zu entziffern (zB wenn derb verzerrte Gitarren dabei sind), eine weitere Spur aus der DAW (zB eine Klickspur) mit visuell prägnanter Wellenform auszugeben und wieder mit aufzunehmen. Dabei ist es nicht notwendig selbige zu hören, nur der Signalweg muss der gleiche sein damit der Versatz stimmt.
Auf diese Art und Weise kann ich die Latenzen des Signalweges manuell samplegenau ausgleichen. Unabhängig von der Grösse des Versatzes, der Latenzen.
Sorry für den Off-Topic-Roman an dieser Stelle. Ich glaube, dass es für Leute die ganz am Anfang dieser Thematik stehen, hilfreich ist solche Debatten bzw. teils nur scheinbar unterschiedlichen Sichtweisen etwas genauer zu erörtern.
Grosse Latenzen sind blöd, da hat Beeble schon recht, doch sind sie nicht in jedem Fall von Relevanz.
Als Anfänger*in ist man schnell mal verunsichert wenn man sich im Forum informieren will und dann über solche Diskussionen stolpert, die zwar sehr informativ sein können, aber auch teils widersprüchlich wirken wenn man noch nicht über das Hintergrundwissen verfügt um diese scheinbaren Widersprüche einordnen zu können.
Ich erlebe das gerade selber in einem anderen Forum welches ich seit kurzem häufiger als Wissens- und Erfahrungsquelle besuche. Da suche ich Infos und nach einer Stunde raucht mir der Kopf und ich bin völlig verunsichert was das nun alles bedeutet. Bogenschiessen kann mMn eine noch krassere Nerderei werden als Schlagzeugspielen und Recorden. 😀
Ich verstehe nicht warum du nur einen Teil meines Posts zitierst und darauf antwortest als hätte ich den Rest nicht geschrieben.
Ich empfinde das als unnötig provokant. Oder hast du mich missverstanden?
Diese L12 bis L20 Teile sind mit Latenzen von mindestens 13ms bis 30ms zum Aufnehmen völlig ungeeignet.
Für reines Recording ist das doch unerheblich. Oder übersehe ich da etwas?
Naja, wenn du alle Spuren gleichzeitig aufnimmst stimmt deine Theorie
Spielst du aber zu Spuren die bereits in der DAW sind, kann das eine Herausforderung werden.
Inwiefern? Einen zeitlichen Versatz der neu eingespielten Spuren zu den bereits vorhandenen hat man in so einem Fall ja mit jedem Interface, mal grösser mal kleiner. Der muss durch verschieben der Spuren ausgeglichen werden.
Was für mich - in kleinerem Setup - dann gut funktioniert ist das Re-Recording der aus der DAW abgespielten Spuren. Dann ist zeitlich alles korrekt.
In Bezug auf die im Startpost genannten Anforderungen spielt das jedoch keine Rolle.
Diese L12 bis L20 Teile sind mit Latenzen von mindestens 13ms bis 30ms zum Aufnehmen völlig ungeeignet.
Für reines Recording ist das doch unerheblich. Oder übersehe ich da etwas?
Ich bin da voll bei Beeble
Für die genannten Anforderungen scheint mir ein kompaktes Digitalpult sehr geeignet. Eine gute Effektsektion um Konzerte zu mischen, Recording von Einzeltracks für Post Production (Demos) und Summe (Kontrollmitschnitte), die Möglichkeit verschiedene Setups zu speichern und schnell wieder aufzurufen (Wechsel zwischen Proberaum und Konzertsetups) und nicht zuletzt die Grösse (Transport, Platzbedarf auf der Bühne) sprechen mE dafür.
Echte Fader, für jede Funktion einen Regler/Button, keine Untermenüs durch die man sich wurschteln muss, finde ich super. Aber das hat seinen Preis.
Für das oben beschriebene bin ich mit einem XR18 sehr glücklich.
In jedem Fall muss man Kompromisse eingehen.
Und ja, die Bedienung per Tablet ist nicht so schön wie an einem kompletten Pult, am PC mit Maus etwas besser, zur Not gehts auch mit nem Handy. Alternativ könnte man auch einen MIDI-Kontroller einbinden (noch nicht probiert).
Ich würde nicht mehr zurückwollen.
Moin
Ich würde mal anstelle des Edrums eine andere Quelle ranhängen. CD-Player oder so.
Wie tönt es dann?
Ja ich kapiere es auch nicht , selbst an Weihnachten ist man nicht sicher vor Betrug und chauvinistischen Plattitüden.
🙂
Mal abgesehen davon, dass die Musik wirklich wunderbar ist, muss ich feststellen
Ihr seid sooo stylisch.😍
Der Raum, omg, ich würde sofort einziehen. 😄
Kein Scherz. Dafür jetzt in Echtzeit. 😄
Zitatwith the SAS Attenuating Floor Tom Leg™ you can dial in the sustain of your toms in real time.
Ich würde mich so abgrundtief schämen, müsste ich derartige Aussagen in die Öffentlichkeit tragen.
Älter bedeutet nicht zwingend schlechter. Wenn der Zustand gut ist, also keine Beschädigungen und so, sehe ich keinen Grund ein „über zehn Jahre“ altes Starclassic zu verschmähen.
Gute Trommeln sind, wenn ordentlich behandelt, auch nach Jahrzehnten noch gut.
Es wundert mich, dass hier nicht schon 20 Leute in Grossbuchstaben „Nimm das Starclassic!“ geschrieben haben.
Die durchforsten wohl gerade das Internet nach diesem potentiellen Schnapper. 😅
Starclassic (Made in JApan) heißt erstmal nix
Hmm, sonst wird das Starclassic hier im Forum doch ausschliesslich hochgelobt. Ich kann mich nicht erinnern, hier jemals etwas negatives gelesen zu haben.