Beiträge von Beeble

    Auch in "analogen" Studios wird digital aufgezeichnet. Kein Mensch der damit seine Brötchen verdient kann es sich finanziell und zeitlich leisten mit Bandmaschinen zu hantieren.

    Und 1000 Plugins kann man zwar haben und gerade Anfänger haben die auch, da sammelt man halt noch alles was einem vor die Flinte kommt, aber spätestens wenn man weiss was man tut, reduziert sich das recht schnell wieder aufs nötigste. Wie Marius schon sagte, man kann auch digital nahezu so arbeiten wie damals gearbeitet wurde.
    Das mehr an Möglichkeiten heute, hätten die damals vor 40 Jahren auch gerne gehabt.


    Die Beatleszeiten, wo man Wochenlang im Studio rumlungerte und experimentierte sind vorbei.

    1. weil man heute schneller und besser produzieren kann und

    2. weil man schon alles weiß, was in den 50er bis 90er noch mühsam improvisiert, experimentiert und entwickelt werden musste.


    Produktionen wie das oben verlinkte DeWolf Dingen oder zb. die Volto Incitare, wo sogar alte Geräte extra für die Produktion zusammengetragen und restauriert wurden,

    kann man sich nur Leisten wenn man als Musiker und Produzent schon genug verdient hat um sowas aus Spass an der Sache umzusetzen.
    Geld kann man so heute nicht mehr verdienen.

    oder man letztlich nehmen muss, was das tool dann ausspuckt ?

    natürlich nicht, Spectral Layers ist eine Profisoftware und bietet sehr genaue Bearbeitung.
    Kommt vom Umfang etwa dem RX11Standard vom iZotope nah, ist aber preiswerter.

    Teste doch mal kostenlos.

    Ist auch nicht mit Moises zu vergleichen.

    Moises ist ja eher so Consumer Werkzeug fürs Grobe, quick&dirty halt.

    Dass wegen der Einfachheit, Kostengünstigkeit und Schnelligkeit der Digitaltechnik eben auch sehr viel mehr Müll als früher produziert wird - dafür kann die Digitaltechnik aber nichts! Es ist wie mit allen anderen technischen Errungenschaften auch - es kommt einfach darauf an, wer das wie zu welchem Zweck benutzt.

    ein sehr richtiger und wichtiger Satz!

    die DDrum Pro Snare Trgger haben auch Rimtrigger und funktionieren hervorragend.
    Ob die fast baugleichen von Triggerhead genausogut gut funktionieren müsste man mal testen.
    Da gibts den ganzen 5teiligen Satz für 100 Euro.


    Innentrigger bzw Schienensysteme funktionieren nur mit Meshfellen.

    Gas-Heizstrahler wäre tatsächlich vom Veranstalter nicht erlaubt gewesen (wegen Weihnachtsdeko auf der Bühne)...

    dann wäre das für mich der falsche Veranstalter. Dem seine Deko wichtiger ist als das wohlbefinden seiner Musiker, oder dem eine Brandwache zu teuer ist.

    An dem Video vom SAE mit direkter Bandaufnahme vs raw digital stört mich, das es kein Vergleich ist, sondern lediglich den Unterschied zwischen reinem unbearbeitetem Audiosignal und einer Bandsättigung abbildet.
    Würde man das ganze wissenschaftlich angehen, müsste man in der der DAW natürlich auch eine Bandsättigung einsetzen, im besten Fall mit dem Pendant der verwendeten Studer. Im Video sagt er sogar noch das er ordentlich in die Sättigung fährt, so das das Signal natürlich nicht mehr dem Original entspricht.

    Während in der DAW das Signal nahezu unverfälscht aufgenommen wurde.


    In einer Mixsession verwendet man sehr wohl auch Nachbildungen analoger Vorbilder, die sich exakt so verhalten wie ihr Hardware Pendant.
    Heutzutage wird oftmal hybrid gearbeitet. Man verwendet sowohl Plugins als auch analoge Hardware.
    Das recorden in eine DAW hat keine Nachteile und bietet wesentliche Vorteile gegenüber Bandmaschinen, wie unbegrenzte Spuren, editing welches so anlog unmöglich ist.
    Vor allem ist es schneller, preiswerter und Soundtechnisch überlegen.

    Das analog subjektiv "besser" klingt, ist Sache des Geschmacks und vor allem wie man digital produziert.
    Andrew Sheps ist schon vor Jahren weg von analoger Produktion, weil es keinen Unterschied macht ob man analoges Outgear oder deren 100% modelierte Plugin Pentants benutzt.

    Der Grund, weswegen in Studios noch Hardware zu finden ist, ist überwiegend der Tatsache geschuldet, das man die Geräte kennt, haptisches Arbeiten damit schneller und einfacher ist und weil es einfach tolle Geräte sind mit denen man schon seit Jahrzehnten vertraut ist.


    Eine Schallplatte ist technisch einer CD weit unterlegen. Sie klingt auf Grund ihrer physikalischen Beschränkungen anders, aber nicht "besser"
    Eine CD kann man so produzieren, das sie klingt wie eine Schallplatte. Wird aber sicher nicht oft vorkommen, da man sich die Möglicheiten die man hat auch eher zu Nutzen macht, Wie höhere Dynamik, keine Beschränkungen der Frequenzverteilung im Panorama, sehr hoher Rauschabstand und vieles mehr.

    Im Proberaum hatten wir aber eigentlich nie Probleme mit dem eingebauten WLAN.

    mit wie vielen Geräten greift ihr denn auf den Router zu?
    Bei 4 Musikern, die mit ihren Geräten aufs Wlan zugreifen hat es noch nie funktioniert, bei diversen X18, XR18 ebensowenig wie auch beim Xr12.
    Bereits ab 2 Geräten fliegt immer einer raus.

    Beim Aufnehmen habe ich da bisher meist nicht so auf die Phasenlage geachtet

    das bezog sich auf nach der Aufnahme, das ich die Snare dann gegebenenfalls noch nach den OH ausrichte. Zumindest war das bisher immer so. Aber ich gehe jetzt auch mal andere Wege, siehe unten.

    Hast Du da auch einen Favoriten beim Beispiel 2? Was hörst du an Unterschied?

    nein, abgesehen das die verschobene 1-2dB lauter ist, klingen die beide anders gut. Ich habe da keinen Favoriten, weil mir das so marginal wenig ist, das ich den Aufwand nicht betreiben würde.

    Allerdings produziere ich Genrebedingt meine Kapellen auch sehr hart und nutze fast immer noch zusätzlich Samples. So das am Ende die OH nur für die Becken zuständig sind und Bleeding keine oder kaum eine Rolle spielt.
    Die Samples werden allerdings genau auf den jeweiligen Kessel ausgerichtet und nur zum anfetten zugemischt.

    Ich tue mich nur etwas schwer mit hohen Becken was dem Sound sicher besser bekommen würde.
    Ich habe den Luxus eines 200m² und 3,6m hohen Raumes mit leichter Dämpfung und kämpfe weiterhin mit Mikropositionen.

    Und mit dem HH/Snare Bleed kämpfe ich schon immer.


    Langsam komme ich auch davon weg, die OH nach der Snare zu positionieren und sie dort zu stellen, wo die Becken gut eingefangen werden.

    Aber meinen Weg habe ich da noch nicht gefunden.

    Interessante Philosophie mit einigen Fragen.

    So wie du das handhabst habe ich das noch nie betrachtet, klingt interessant.


    Wo ist bei einem Schlagzeug eine Stereomitte? ;)

    Zumindest habe ich ein gutes Dutzend Monosignale und lege im Mix mein Panorama fest.

    Üblicherweise aus technischen Gründen die BD in die Mitte, Die Sanre meistens auch (warum eigentlich?)

    Bei den OHs wenn A/B abgenommen, handhabe ich es sicher wie du und achte auf gleiche Laufzeiten zur Snare.

    Dabei achte ich wie du meist auf Phasentreue zu den OHs (aber nur beim top)


    Wenn du jetzt aber jedes Tom und vielleicht die HH versuchst in Phase zu bringen, mit dem OH welches am nächsten ist, dann verbiegst du doch zwangsläufig auch die Positionen!? Und wie würdest du es zb. bei X/Y handhaben?


    In deinen Beispielen ist die Version 1A und 2B jeweils phasenkorigiert?
    In Beispiel 1 mit nur Toms höre ich kaum einen Unterschied. Zumindest kein besser oder schlechter.

    In Beispiel 2 hört man es an der Snare und auch an der BD.

    • Nein, die Latenzkompensation lässt sich nicht abschalten, in keiner DAW. Das ist der Grund weswegen man die Asioschnittstelle erfunden hat.
    • Nicht verwechseln mit "Latenzausgleich einschränken" oder ähnlicher Begriffe. Das betrifft nur VSTs und VSTi , da immer das langsamste Plugin die gesamte Verzögerung bestimmt.
    • Aus den Screenshots lässt sich nicht zwingend der tatsächiche Vorgang abbilden. Es handelt sich lediglich um eine Darstellung deren Algorithmen zur Berechnung und Darstellung wir nicht kennen. Um objektive zuverlässige Werte zu erhalten, müßte man die Signale zb. mit einem Oszilloskop messen, um den tatsächlichen Versatz zu bestimmen.
    • es spielt keine Rolle ob der Signalweg zur DAW 1ms oder 1000ms beträgt. Die Synchronität bleibt gewahrt.
    • Latenz spielt hier ausschliesslich eine Rolle beim direkten mithören über die DAW (Monitormix)
      - beim einspielen und direktem Mithören von Midizuspielern.

    Wo kommen diese Latenzen her? Ich nehme an um den Audiobuffer geht es hier nicht?

    Leider doch. Ich habe diese Info aus einem Forum wo die Latenz des L20 diskutiert wurde.

    Gemessen mit Cubase wurden bei 48kHz:

    - 64 samples - 12,875ms
    - 96 samples - 14,208ms
    - 128 samples - 15,542ms
    - 256 samples -20,875ms
    - 512 samples - 31,542ms
    - 1024 samples - 52,875ms

    das ganze mit eingeschaltetem compliant mode und den Zoom Treibern. -Stand März 23

    Wir nehmen .. auf die SD Karte auf. .. Ein "Latenzproblem" gibt es nicht,

    natürlich nicht, wenn man auf die interne Karte schreibt.


    Angeblich, laut einiger Nutzer die das gemessen haben, hat das L20 bereits eine interne Latenz von ca 3ms. Zum Vergleich, ein X32 hat rund 0,8ms MIT Channelstrip.
    Selbst mit Nutzung aufwändiger Effektplugins bleibt man weit unter 3ms.


    Vorsicht Falle: Konsolen wie die preiswerten Behringer, Yamahas, Presonus usw. haben keine Latenzkompensation. Das findet man eher bei den Profigeräten.

    Das bedeutet, das bei Parrallelbearbeitung (man schickt das Signal gleichzeitig direkt auf den Masterout und in einen Effektbus) die Laufzeiten abhängig der Plugins unterschiedlich lang sind. Das ist nicht schlimm wenn man weiß wie man es umgehen kann. Ansonsten wundert man sich über unschöne Kammfiltereffekte.

    Wo die Verzögerung herkommt, weiß ich nicht

    Ich vermute es könnte einfach nur der Rundungsfehler sein, und/oder die Darstellung wird gerundet.
    44.1 kHz lassen sich ja nicht ganzzahlig durch die Samplepakete teilen. Bei 48kHz müsste man entsprechend andere Abweichungen sehen.
    Außerdem handelt es sich um ein Rechtecksignal welches analog im Wandler je nach Abtastgeschwindigkeit ganz sicher unterschiedliche Flankensteilheit mit sich bringt,

    was dann die grafische (gerundete) Darstellung erklären könnte.

    Auch müsste man den Test mit anderen DAWs durchführen und die Ergebnisse vergleichen.
    Dann weiss man immer noch nicht wie da intern gerechnet wird. :)


    Aber ich denke dein Test zeigt deutlich das die Kompensation funktioniert

    Den Test kannst du dir sparen. Mir ist keine DAW ohne Latenzkompensation bekannt.
    Vielleicht einige Multitracker. Zb. Audacity hat so etwas nicht. Dort kann man aber den Versatz berechnen und manuel "automatisieren" lassen.

    Kritisch bis unbenutzbar wird das ja auch nur beim Monitoring während der Aufnahme und beim Reamping, dem Einspielen von VSTi mittels Keyboards, edrums usw.
    Kritisch sind auch zb. Asio4all Treiber auf leistungsschwachen Systemen über den Onboardsound.


    Jeder, der selbst mit geringsten Ansprüchen Multitrackaufnahmen machen will, sollte bereit sein, mindestens 50 Euro zu investieren, die so ein benutzbares Audiinterface mit Direkter Mithörmöglichkeit etwa kostet. Arbeitet man mit Midi und VSTi, dann kommt man nicht umhin seine Hardware gründlicher auszuwählen.

    Leider kommt man als Drummer mit einem einfachen 2 Kanal Gerät nicht weit, deswegen möchte ich noch einen Absatz nachschieben:



    Man sollte überlegen, ob heutzutage die Anschaffung eines Zoom Lx bei den fallenden Preisen von Digitalkonsolen einen Sinn ergibt.
    Vielleicht ist es Unwissenheit in Verbindung mit reisserischem Marketing?
    Ein Plastikgehäuse mit umständlicher Bedienung, ohne Channelstrip, analogem Kanalaufbau, mit stark beschränkter Klangformung (Ein Knopf Kompressor, nur regalbare Mitten im EQ, vorgegebene Effektsetting) Das ganze dann für 900 Euro.
    Dagegen für 1200Euro ein Mixer mit 32 Kanälen, schneller intuitiver Bedienung, 16 Busse, 8 Effektbusse. Motorfader und ein 32Kanal I/O Interface. Vollem Channelstrip für alle Kanäle und Busse, über 100 Emulationen bekannter Effektgeräte. Dazu klanglich einem Zoom überlegen. Absolut tauglich gerade auch Live.


    Man könnte das Thema auch gerne mal auslagern in einem eigenen Thread um darüber zu diskutieren und um verschiedene Anwendungen mit den unterschiedlichen Geräten zu vergleichen. Ich habe in meinem Umfeld leider sehr viele Musiker und besonders Bands, die aus Unwissenheit die falschen Entscheidungen aufgrund von Marketing und/oder schlechter Beratung getroffen haben, was immer in Frust, Ernüchterung und meist in Neuanschaffung endet.

    Ich weiß nicht ob ich dich missverstanden habe. Ich denke nicht.
    Auch war es nicht meine Absicht zu provozieren, wenn du es so empfindest.
    Der erste Teil war mir wichtig, weil man halt mit hohen 2stelligen Latenzen nicht aufnehmen kann.


    Ich gehe aber gerne auch auf den zweiten Teil ein:
    Re-recording aller bereits vorhandenen Spuren? -Was ist ein kleineres Setup?
    Bei kleinen bis mittleren Projekten mit nur 20-50 Spuren benötigt man ein Interface mit entsprechend vielen Eingängen.
    Audiokonverter mit so vielen Eingängen sind in der Regel per se mit guten Treibern und DACs ausgestattet, das Latenz da keine Rolle spielt.

    Das hier thematisierte Zoom mit max 20 Eingängen würde da eh nicht reichen.


    Abgesehen davon, wie bekommt man die bereits aufgenommenen Spuren aus der DAW an die analogen Eingänge?
    Wenn man es denn schafft, die bereits aufgenommenen Tracks zu re-recorden, dann wird bei jedem neu zugespielten Take 2x gewandelt.

    Nimt man Bass, dann drums, danach 2 Gitarren, nochmal Gitarre gedoppelt, dann Keys, 2xVocals und backing Vocals auf,
    dann muss der Bass hier zb 18x gewandelt werden (AD und DA), wärend die backing Vocals nur 1x durch den AD Wandler mussten.
    Ich mag mir gar nicht vorstellen wie das ganze dann noch klingt. Vor allem bei so einem Zoom mit diskret aufgebauten Kanälen.
    Da wird das Rauschen wohl den Pegel des Nutzsignals überschreiten.


    Ich bin neugierig wie und mit welchem Interface du das umsetzt. Vielleicht ein paar kleine Eckdaten zu deinem Setup und was du mit kleineren Setup meinst.

    Einen zeitlichen Versatz der neu eingespielten Spuren zu den bereits vorhandenen hat man in so einem Fall ja mit jedem Interface, mal grösser mal kleiner

    Ein zeitlicher Versatz im unteren einstelligen Millisekundenbereich ist durchaus ok und nicht wahrnehmbar.
    Bei 30ms ist es halt doof, wenn du auf dem Keyboard eine Taste drückst und der Ton erst einen halben Tackt später erklingt.
    Oder du beim eintrommeln 30ms früher spielen musst als die bereits aufgenommenen Spuren. :)

    Noch ne Anmerkung, da du das Gerät auch als Audiointerface nutzen willst.
    Diese L12 bis L20 Teile sind mit Latenzen von mindestens 13ms bis 30ms zum Aufnehmen völlig ungeeignet.

    (abgesehen vom wirklich schlechten Klang der Wandler)

    Was ist mit Zoom Livetrack?

    für 900 Euro bekommt man zu wenig fürs Geld. Auch ist es nur sehr beschränkt nutzbar.
    nur 4 digitale Ausgänge, kein EQ, kein Kompressor, kein Gate, keine brauchbaren Effekte.
    Keine Motorfader, keine Speichermöglichkeiten für ein 100% Recall.


    Ein Compact kostet knapp 300 mehr. Hat aber 32 Ein/Ausgänge,
    32Kanäle mit channelstrip, Effektbusse, Monitor-und subgruppen.

    Viele sehr gute Effektgeräte.

    Und vor allem Motorfader und es ist komplett mit der Audiowelt zu verbinden.

    Außerdem klingt das Zoom12 was ich mal nutzen musste echt nicht gut und zum recorden taugt das nicht.
    Das Zoom 20 wird baugleich sein.