Beiträge von dani808

    imho: ich weiss nett wirklich ob man stereo bei ugs. Trommeln wirklich braucht, und wenn Wo bei welcher Anwendung bzw. Darbietung. :/

    Kommt darauf an was für ein Bühnenbild man akustisch darstellen will.

    Wie nah sitzen die Hörenden vor der Band? Oder gar mittendrin?

    Ich zB freue mich sehr über solche Feinheiten, sie sind Teil des Hörerlebnisses.

    Und dann gibt es noch Stücke/Stilistiken die bewusst auf realistische Raumdarstellung verzichten und abgefahrene Spaces darstellen. Durch den Raum wandernde Hihats, Tomläufe über die gesamte Stereobreite und darüber hinaus.

    So einen Mono-Horizont hätte ich dir gar nicht zugetraut. 😄 (scnr)


    Irgendwie werden hier mehr als ein Thema besprochen. 😀

    Ich finde keineswegs, dass es nervt. Vielmehr schätze ich diese „Nerderei“ sehr. Es ist technisch total unnötig, aufwändig und ineffizient. Liebe an der Sache. Eine Facette des Mensch-Sein. Wunderbar. 😍

    Oh ja, die Spielereien mit Schriftfarben. Das machen ja so einige. Wer sich angesprochen fühlt, wechsle mal zum Dark Mode, oder umgekehrt, und versuche seine Beiträge zu lesen.

    😀

    Es ist die Art und Weise, zumindest empfinde ich das so. Selbstgefällig und aggressiv finde ich.

    Also ich habe mich in meinem Thread hier größtenteils als informativ und auch nett (zu DrumBee z.B.) wahrgenommen. Auf Beleidigungen und komische Vorwürfe habe ich insgesamt durchaus gelassen reagiert, bzw. sie geschluckt. Kannst du mir vielleicht die selbstgefälligen und aggressiven Stellen von mir in diesem Thread zeigen? Würde mir helfen zu kapieren, was genau man mir hier vorwirft.

    Müsste ich jetzt alles nochmal lesen, mag ich gerade nicht.

    Ich bezog mich diesmal auch mehr auf DRUMK

    Ich finde, bei dir hat sich das in der Vergangenheit etwas, oder auch etwas mehr gelegt. Und das teils reisserische „das ist der echte Shit“ verbuche ich für mich als grosse Begeisterung.

    Bitte, es darf nicht nur eine Meinung gelten und Meinungen und Ansichten, muss man Aushalten!

    Da hast du recht.

    Es ist die Art und Weise, zumindest empfinde ich das so. Selbstgefällig und aggressiv finde ich. Muss nicht sein. Bei mir löst das trotz aller Sachkompetenz grosses Unbehagen aus.

    Zitat

    Onkel Zahnlos und Renfield

    Das übrigens auch. Ich empfinde das als respektlos und provozierend. Zur Deeskalation trägt es eher nicht bei.

    Auf mich hatte es so gewirkt, dass du nicht so recht weißt was du tust, weil du eine manuelle Latenzkompensation in der DAW machst. Dass dir also der Umstand nicht bewusst ist, wie effektiv DAWs die Latenz ausgleichen.

    Wenn ich sehe, dass die Spuren zeitlich nicht ganz passen, dann schiebe ich. Ganz unkompliziert.

    Die DAW war dann wohl nicht effizient genug. Wie das DAW intern umgesetzt wird, welche Informationen der externen Hardware dort ankommen ist ja geräteabhängig. Deine Beispiele mit dem 18i20 zeigen ja, dass es gut funktionieren kann. Und auch tut.

    Und es gibt Geräte deren Design in dieser Hinsicht weniger gut ist. Wie anscheinend das L20 auch.

    Vielleicht ist ja jemand unter uns der oder die so ein Gerät hat. Dann wäre ein Testaufbau wie von @mtree beschrieben damit möglich. Klicktrack aus der DAW durchs L20 und wieder rein in die DAW. Dauert keine fünf Minuten. Ob und wieviel da an Versatz bleibt, fände ich nach der ganzen Debatte noch sehr interessant.

    Beeble

    Hast du einen Link zu der von dir genannten Diskussion über diese Gerät. Mich interessiert, wie der Messaufbau realisiert wurde, bzw. welche Software zum Einsatz kam.

    Ich hatte hier vor einiger Zeit mal einen Thread erstellt, der ein paar Grundlagen zum Thema "Digitale Audiosignalverarbeitung" beleuchtet. Weil z.B. bei der Samplingrate und Oversampling, aber auch der Bittiefe, immer wieder Mythen und Missverständnisse kursieren.

    Das ist eine schöne Zusammenfassung. Sie hat mit dem worüber wir reden aber nichts zu tun. Und auch wenns nichts zur Sache tut, eine Ungenauigkeit fiel mir beim überfliegen auf:

    Zitat

    Die Abtastrate muss mindestens doppelt so hoch sein wie die maximale Frequenz eines Signals (Nyquist-Shannon-Abtasttheorem).

    Das Nyquist-Shannon-Abtasttheorem besagt, dass die Abtastrate mindestens grösser als doppelt so hoch wie die maximale abzutastende Frequenz sein muss.

    Es ist zwar schon über 20 Jahre her, aber an diesen Teil meiner Ausbildung kann ich mich noch erinnern, obwohl es nie von wirklicher Relevanz für meinen Weg war. Schon kurios, dass manche Sachen hängenbleiben obwohl man sie nicht nutzt. :D


    Aus den Screenshots lässt sich ableiten, dass die gesamte Latenz kompensiert wird.

    Eben nicht. Sonst wäre da ja kein Versatz mehr vorhanden.

    Du bestätigst es ja schon selbst:

    Ich habe dann mal das Gerät gewechselt und statt vom ADA8200 einen Kanal vom 18i20 genutzt. Und siehe da - so waren es nur noch 5 Samples.

    Offenbar geschieht die Signalverarbeitung des 18i20 schneller als die des ADA8200. Den Unterschied siehst du nur, weil Reaper diesen Anteil an der Gesamtlatenz nicht kennt und demzufolge auch nicht kompensieren kann.

    In der Grössenordnung muss man auch nichts verschieben, finde ich. Da bin ich mit dir einig.

    Wenn ein Gerät, wie es das L20 anscheinend tut aber weitaus grössere Verzögerungen mitbringt, die man dann nicht mehr vernachlässigen möchte, kann mein Vorschlag der "manuellen Latenzkompensation" ein möglicher Weg zur Abhilfe sein.

    Ich verstehe nicht warum du das anscheinend unbedingt negieren willst.

    Dieser veranschaulicht doch klar und deutlich, dass die DAW die gesamte, tatsächliche / praktische Latenz ausgleicht. REAPER zeigt diese praktische Latenz auch an.

    Aus den Screenshots lässt sich ableiten, dass die Latenzen, verursacht von der Grösse des Buffers (64, 256 & 1024 Samples) kompensiert werden.

    Diese sind ja wesentlich grösser als der Rest von +- 0.3ms. Die sich interessanterweise unterscheiden.

    14Spls@64, 12Spls@256 und 15Spls@1024. Dieser Unterschied von drei Samples (ca 0.068 ms) könnte tatsächlich auf die von Beeble genannten Gründe zurückzuführen sein. Das tönt für mich plausibel.


    Der selbe Messaufbau und dessen Ergebnisse ohne Latenzkompensation der DAW (kann man die abschalten?) als Vergleichsmessung wäre etwas aussagekräftiger. Dann könnte man vom Ergebnis die Puffergrössen abziehen und den Rest dieser Messung mit dem Rest der Messung mit Latenzkompensation vergleichen.

    Ist dieser grösser, wäre das ein Indiz dafür, dass weitere Latenzen neben der Puffergrösse ausgeglichen werden.


    PS

    Vielleicht könnte diese interessante Debatte ausgelagert werden…

    Ums Thema gehts ja nicht mehr.

    Wo kommen diese Latenzen her? Ich nehme an um den Audiobuffer geht es hier nicht?

    Leider doch. Ich habe diese Info aus einem Forum wo die Latenz des L20 diskutiert wurde.

    Gemessen mit Cubase wurden bei 48kHz:

    - 64 samples - 12,875ms
    - 96 samples - 14,208ms
    - 128 samples - 15,542ms
    - 256 samples -20,875ms
    - 512 samples - 31,542ms
    - 1024 samples - 52,875ms

    das ganze mit eingeschaltetem compliant mode und den Zoom Treibern. -Stand März 23.

    So wie ich das bisher verstanden habe, gleicht die Latenzkompensation einer DAW die durch die eingestellte Buffergrösse entstehende Verzögerung aus. Und eben nur diese. Man möge mich verbessern, wenn ich hier auf dem Holzweg bin.

    Diese Latenz ist der DAW ja bekannt. Bei 1024 Samples @48kHz wären das 21,33 ms.

    Was ist mit den zusätzlichen ~31,5ms des L20?

    „Weiss“ die DAW davon und kann diese bei der Latenzkompensation berücksichtigen, oder bleibt diese Information „pultintern“?