Beiträge von m_tree

    Aus den Screenshots lässt sich ableiten, dass die Latenzen, verursacht von der Grösse des Buffers (64, 256 & 1024 Samples) kompensiert werden.

    Diese sind ja wesentlich grösser als der Rest von +- 0.3ms. Die sich interessanterweise unterscheiden.

    14Spls@64, 12Spls@256 und 15Spls@1024. Dieser Unterschied von drei Samples (ca 0.068 ms) könnte tatsächlich auf die von Beeble genannten Gründe zurückzuführen sein. Das tönt für mich plausibel.

    Aus den Screenshots lässt sich ableiten, dass die gesamte Latenz kompensiert wird. Bei 256 Samples @ 44,1 kHz ist die theoretisch minimale Latenz ca. 5,8 ms. Die tatsächliche und auch von REAPER angezeigte Latenz beträgt aber ca. 12 ms mit dem 18i20 2nd Gen. Weil ich nun einen Klick von der DAW aufgenommen habe, entsteht so eine Gesamtlatenz von etwa 24 ms (Output + Input) bei 256 Samples. Und diese wird von REAPER komplett ausgeglichen.


    Ich hatte gestern einen weiteren Test mit einer anderen Quelle gemacht (ein Attackreicher Snare-Schlag). Bei 256 Samples betrug die verbleibende Latenz im Projekt 10 Samples. Ich habe dann mal das Gerät gewechselt und statt vom ADA8200 einen Kanal vom 18i20 genutzt. Und siehe da - so waren es nur noch 5 Samples.

    Das ist alles vernachlässigbar und bedeutet sowieso schon einen sehr hohen "Komfort", weil die DAW eben die gesamte praktische Latenz ausgleicht - nicht nur die theoretisch minimale der Puffergröße!


    Die manuelle Kompensation der Latenzen kannst du dir also sparen, wenn du mit professioneller Hard- und Software arbeitest. ;)


    Ich hatte hier vor einiger Zeit mal einen Thread erstellt, der ein paar Grundlagen zum Thema "Digitale Audiosignalverarbeitung" beleuchtet. Weil z.B. bei der Samplingrate und Oversampling, aber auch der Bittiefe, immer wieder Mythen und Missverständnisse kursieren.


    So wie ich das bisher verstanden habe, gleicht die Latenzkompensation einer DAW die durch die eingestellte Buffergrösse entstehende Verzögerung aus. Und eben nur diese. Man möge mich verbessern, wenn ich hier auf dem Holzweg bin.

    Diese Latenz ist der DAW ja bekannt. Bei 1024 Samples @48kHz wären das 21,33 ms.

    Was ist mit den zusätzlichen ~31,5ms des L20?

    „Weiss“ die DAW davon und kann diese bei der Latenzkompensation berücksichtigen, oder bleibt diese Information „pultintern“?

    Nein, da irrst du dich und deine manuelle Latenzkompensation war auch der Grund für meinen Test. Dieser veranschaulicht doch klar und deutlich, dass die DAW die gesamte, tatsächliche / praktische Latenz ausgleicht. REAPER zeigt diese praktische Latenz auch an.


    Also wenn man mit brauchbaren Audio-Interfaces und einer richtigen DAW aufnimmt braucht man sich über sowas keine Gedanken zu machen.

    Latenzkompensation von Aufnahmen im Projekt und Latenzfreies Monitoring sind aber zwei verschiedene Dinge. Letzteres geht nur ohne DAW. Die einschlägigen Audio-Interfaces haben dafür eigene (interne) Signalwege bzw. DSPs, die über eine Software steuerbar sind.


    Frohes Neues! :)

    Außerdem handelt es sich um ein Rechtecksignal welches analog im Wandler je nach Abtastgeschwindigkeit ganz sicher unterschiedliche Flankensteilheit mit sich bringt,

    was dann die grafische (gerundete) Darstellung erklären könnte.

    Die Wellenform des Klicktracks ist da wohl irreführend, weil ich als Klicksound eine Dreieckschwingung eingestellt habe, welche sich ja auch so in den Wellenformen der Aufnahmen zeigt. Möglicherweise gibts gar keine Verzögerung, weil das Signal nicht punktgenau auf dem Raster (sondern eben um ein paar Samples verzögert) beginnt. Müsste ich noch mal mit einer anderen Quelle testen.

    Aber ich denke dein Test zeigt deutlich das die Kompensation funktioniert

    Jepp! So eine DAW ist schon was Feines. :)

    Den Test kannst du dir sparen. Mir ist keine DAW ohne Latenzkompensation bekannt.

    Schon zu spät - das hatte ich gestern Nachmittag im Recording-Studio sowieso noch gemacht. Hat mich sowieso interessiert, wie das in der Praxis genau aussieht.

    Außerdem scheint das hier nicht allen Leuten klar zu sein (Stichwort manuelle Latenzkompensation) - deshalb wollte ich schon einen extra Thread dafür machen.


    Für den Test habe ich ein Scarlett 18i20 2nd Gen (gekoppelt über ADAT mit einem ADA8200) und REAPER benutzt. Ich habe einen Klicktrack angelegt und einen der Line-Outs des Scarletts direkt in einen Line-In des ADA8200 geführt. Das habe ich dann mit 64, 256 und 1024 Samples @ 44,1 kHz aufgenommen. Die praktischen Latenzen waren jeweils mehr als doppelt so groß wie die minimal theoretischen der Puffergrößen - ich habe die Tracks in den Screenshots entsprechend benannt. Die Markierung im letzten Screenshot entspricht 14 Samples. Man erkennt, dass die Kompensation nicht aufs Sample genau funktioniert - wohl genau deshalb, weil die tatsächliche praktische Latenz ausgeglichen wird. Wo die Verzögerung herkommt, weiß ich nicht. Aber 14 Samples entsprechen bei 44,1 kHz etwa 0,3 ms, was wiederum ca. 10cm Weg der Schallgeschwindigkeit entspricht. Da hat man z.T. größere Latenzen durch entsprechende Abstände von Mikrofonen.


    Nähme man zu bereits in der DAW vorhandenen Spuren etwas weiteres auf, entsteht ein zeitlicher Versatz, da sind wir uns einig. Die von mtree genannte Latenzkompensation lasse ich mal aussen vor, da ich nicht weiss, ob diese tatsächlich alle Latenzen berücksichtigen kann.

    Diesen Versatz der neu aufgenommenen Spur(en) entferne ich durch verschieben dieser Spuren in der DAW. Sozusagen eine manuelle Latenzkompensation die sich an der Position der vorhandenen Spuren orientiert. Ich nehme an, die Vorgehensweise ist dir bekannt, du scheinst dich ja mit der Gesamtthematik sehr gut auszukennen und über viel Erfahrung zu verfügen.

    Ich werde dazu nachher mal ein paar Tests mit unterschiedlichen Puffergrößen machen, weil mich das jetzt selbst interessiert. Ich bin mir aber sehr sicher, dass DAWs die Latenzen unmittelbar nach der Aufnahme sehr effektiv kompensieren. Dass man für Overdubs eine manuelle Latenzkompensation durchführen müsste / sollte, ist mir neu.

    Die Spuren werden am Ende genau so im Projekt abgespeichert, wie man sie mit Latenz-freiem Monitoring zum Playback einspielt oder einsingt bzw. hört.


    Ansonsten käme man ja mit Aufnahmen im Overdub-Verfahren mit längeren Latenzen schnell an einen Punkt, an dem das alles auseinanderfällt. Da wäre man dies bzgl. mit jedem Multitrack-Tonband besser bedient. Das bezweifel ich sehr stark! Aber wie gesagt - ich werde dazu nachher noch ein paar Tests machen.


    Üblich ist heutzutage eine Vielzahl an Overdubs. Beispiel: Guidetracks -> Drums -> Rhythmusgitarren (4x / jeweils Strophe + Refrain gedoppelt) -> Bass -> 4x Keys / Synths -> 2x Lead Vocals (Strophe / Refrain) -> 4x Backing Vocals -> Solo-Gitarre ... das sind dann schon 18 Stufen, oft werden es sogar noch mehr. Mir ist beim Recording da nie ein sich aufkumulierender zeitlicher Versatz aufgefallen und ich bezweifel, dass die fremden Multitracks, die ich so gemischt habe, irgendwo manuell Latenz-kompensiert wurden.

    Naja, wenn du alle Spuren gleichzeitig aufnimmst stimmt deine Theorie

    Spielst du aber zu Spuren die bereits in der DAW sind, kann das eine Herausforderung werden.

    Inwiefern? Einen zeitlichen Versatz der neu eingespielten Spuren zu den bereits vorhandenen hat man in so einem Fall ja mit jedem Interface, mal grösser mal kleiner. Der muss durch verschieben der Spuren ausgeglichen werden.

    Wie ich bereits geschrieben habe, ist das ein Irrglaube. DAWs kompensieren die Latenzen automatisch beim Recording. Und zwar nicht nur die theoretisch minimalen Latenzen, die sich aus der Puffergröße errechnen, sondern die tatsächlichen praktischen Latenzen, die sich aus der genutzten Hardware ergeben. Da bin ich mir ziemlich sicher.


    DAWs sind auch bei der Nachbearbeitung dazu in der Lage, die unterschiedlichen Latenzen von zig VSTs entsprechend zu kompensieren, damit alle Spuren unabhängig von den benutzten VSTs gleichzeitig laufen. Da sollte die Kompensation der Latenzen beim Aufnehmen pillepalle sein.

    Soweit ich weiß rechnen moderne DAWs die Latenz beim Recording automatisch raus. Eingangs- und Ausgangslatenzen werden also direkt bei der Aufnahme kompensiert. Und zwar die tatsächliche Latenz, die die Latenz der Puffergröße (je nach genutzter Hardware) immer übersteigt. In meinem Fall sind das 4+4ms. Nehme ich den Klick von der DAW, wäre ich ja sonst automatisch immer 8ms hinter dem Klick - bei größerem Puffer entsprechend mehr. Und bei mehreren Overdubs würde sich das entsprechend weiter aufsummieren.


    Problematisch wird es nur, wenn man das Monitoring durch die DAW schleift oder MIDI-Instrumente über die DAW laufen lässt. Dafür braucht man sehr niedrige Latenzen. Unabhängig davon würde ich aber auch zusehen, dass das benutzte Equipment keine zu hohen Latenzen mit sich bringt. Früher war da auch USB schon problematisch, weshalb Firewire dafür populär war. Heutzutage nicht mehr (die Treiber brauchen halt entsprechend mehr CPU-Power).

    Hab eben mal den Flugmodus vom Smartphone aktiviert und dann Moises gestartet. Es kommt zwar eine Warnung "Verbindungsfehler. Bitte check deine Internetverbindung.", ich kann die Tracks aber ansonsten ganz normal abspielen und regeln.


    Anders verhält's sich am PC. Ohne Internet erscheint da gar nichts in der App, mit Internet ist dann alles da. Für mich aber auch kein Problem, weil ich bspw. Audiodateien aus der App runterlade, auf einen Stick ziehe und dann offline in der DAW auf dem Recording-PC im Proberaum nutze.


    Logischerweise ist die Nutzung der App ohne Internet eingeschränkt bzw. kann man ohne Internet ja nicht mal Tracks hochladen und separieren lassen. Und dass auf dem PC hochgeladene Tracks automatisch auch in der App auf dem Smartphone verfügbar sind geht auch nur über die Moises-Server.

    Was mich mehr interessiert: arbeit jemand hier im Forum mit KI für Musikzwecke und wie wird sie konkret (kreativ, arbeitserleichternd, …) eingesetzt?

    Ja, mit Moises. Wie schon weiter vorn geschrieben. Nutze ich für Covervideos und fürs Unterrichten, aber z.B. auch für die kommende Challenge hier. Es geht für mich dabei nur um die Trennung von Gesang und Instrumenten und das Generieren eines Klicktracks. Und auch das finde ich schon grenzwertig. Aber immer noch kein Vergleich mit von KI generierter Musik.

    Ich habe ebenfalls das Premium-Abo. Zahle aber nur 38 Euro pro Jahr. Also 3,17 Euro im Monat.

    Hängt das mit Beginn des Abos zusammen? Ich habe es im Juni 2022 abgeschlossen.

    Ja, scheint mit dem Beginn des Abos zusammenzuhängen. Hätte wohl auch lieber ein Jahresabo nehmen sollen.


    Naja. Ich wollte schon am Schlagzeug sitzen und zu einem Playalong spielen. Aber eben eines was auf einem Instrument gespielt wird welches eher untypisch ist für das besagte Stück.

    Ach so. Evtl. später mal. Es gibt ja noch viele "normale" Sachen, die ausstehen und für die man auch einfacher Material findet. ;)

    Was Bekanntes mal mit anderen Instrumenten begleiten. Also nicht mit den üblichen Verdächtigen. z.B. ein Hardrock-Stück mit Geige Querflöte oder was auch immer als Playalong.

    Das wäre sowieso schon speziell, aber weil wir hier ja auf drummerforum.de. sind, dann auch ziemlich abwegig. Und auch nicht vergleichbar.


    Generell finde ich 2 besser als 3. Kann Vor- und Nachteile haben: bei 3 könnten je Challenge weniger Teilnehmer sein, bei 2 kann’s sein, dass manche genau dann keine Zeit haben…

    Ich probier's nächstes Jahr auf jeden Fall mit drei. Dafür spricht für mich, dass das Format hier gut ankommt, dass wir verschiedene Genres auf unterschiedlichen Spielniveaus bedienen wollen und dass ich aktuell nicht weiß, wie lang ich die Challenges noch weitermache. Momentan passt's.


    Mehr als drei pro Jahr finde ich aber auch zu viel.

    Das klingt für mich doch etwas zu abwertend.

    Das war einfach nur bewusst überspitzt und auf den Punkt formuliert. So arrogant sehe ich es nicht. Wobei ich Dummheit (in Kombination mit zu viel Selbstbewusstsein) und Egoismus schon als die Grundprobleme der Menschheit ansehe. Und in Anbetracht von einer sich aktuell schamlos ausbreitenden Argumentation und Politik aus immer mehr dreisten Lügen, Fake-News und Manipulationen halte ich nichts von einer KI, die bestimmte Stimmen täuschend echt nachahmt und Musik kreiert, von der keiner mehr weiß ob diese Person das tatsächlich gesungen hat oder nicht.


    Mir fällt zu diesen ganzen Entwicklungen an vielen Stellen einfach nur noch "Bullshit" ein.

    Ich muss hier immer kurz inne halten und überlegen, in welchem Forum ich bin.. Scheinbar sind Drummer wohl doch Denkertypen (anders als Bassisten) :) Find ich cool..!

    Nach meiner Erfahrung sind Schlagzeuger oft eher die ruhigen introvertierten Typen, die sich schriftlich gut ausdrücken können. Und stille Wasser sind bekanntlich tief. ;)

    Ich wiederhole nochmal meine Frage (eine Art Turing-Test): was ist wenn dich Musik emotional erreicht aber der niemals jemand sagen kann ob sie von einer KI stammt oder von einem Menschen? Magst du sie dann nicht mehr, lehnst du sie ab, wenn die Herkunft nicht bekannt ist?

    Ich meine das nicht böse - ich frage mich das ja auch für mich selbst.

    Diese Frage braucht man erst zu stellen, wenn dieser Fall eintritt. Und das bezweifel ich.


    Man darf einen weiteren Faktor dabei nämlich nicht vergessen:

    KI ist auf "echten" menschlichen Input angewiesen und büßt deutlich an Qualität ein, wenn sie mit KI-generiertem Input gefüttert wird. Es gibt bei der ganzen Sache also sowieso natürliche Grenzen.

    Es gibt viele Dinge, die Computer besser als Menschen können und sogar Dinge, die Menschen gar nicht können, Computer aber schon.

    Letztendlich veranschaulicht schon ein Taschenrechner die Intelligenz des Menschen. Der Mensch ist also in der Lage dazu, Maschinen zu entwickeln, die ihm die Arbeit erleichtern oder komplett abnehmen. Und seit der Industrialisierung und Nutzung fossiler Brennstoffe hat das alles erheblich an Fahrt aufgenommen ...


    Auf der anderen Seite gibts aber auch viele Dinge, die Menschen können, aber Maschinen nicht. Insbesondere bei Sachen, auf die "dynamisch" ohne vorher festgelegte Abläufe auf verschiedene Gegebenheiten reagiert werden muss. Z.B. sind KI-Roboter immer noch nicht dazu in der Lage, einen Geschirrspüler einzuräumen. Und das wären ja wirklich noch sinnvolle Tätigkeiten, wo Maschinen den Mensch ersetzen.


    M.E. sollte man das ganze auch philosophisch betrachten. Und dabei halte ich es für sinnvoll, dass Maschinen den Menschen "niedere" Arbeiten abnehmen oder überhaupt erst ermöglichen. Das ist ja auch schon lang im Gange.

    Wenn es aber darum geht, dass Maschinen spezielle menschliche Fähigkeiten "nachahmen" sollen, bin ich skeptisch. Musikmachen ist da ein gutes Beispiel. Das ist als eine künstlerische Aktivität nämlich ur-menschlich (Tiere sind da nicht so hochentwickelt) und macht doch auch Spaß (bzw. sollte es das). Warum sollten Maschinen uns das abnehmen? Um die Produktionskosten für "Massenware" für den "gemeinen Pöbel", den das alles sowieso nicht interessiert, zu senken? Meiner Meinung nach sehr fragwürdig. Und KI wird so oder so emotionslos bleiben. Aber auch wenn nicht, werden die Emotionen nicht "echt" sein.

    Von mir aus kann ich die Challenge auch schon Mitte Januar (z.B. am 15.) starten. Meinungen dazu?


    Funktioniert das mit dem Moises (Bezahl-)Abo gut? Also die einzelnen Stems sind synchron zueinander? Hatte das mal bei der freien Version, dass die nach dem Export nicht mehr zusammengepasst haben...

    Ich exportiere Spuren aus Moises grundsätzlich nur als WAV. Das war ursprünglich auch der Grund für mein Kauf-Abo. Und das funktioniert prima. Manchmal liegt evtl. der ebenfalls durch die KI generierte Klick hier und da leicht daneben. Der große Vorteil ist aber, dass der generierte Klick auch mit Temposchwankungen mitgeht. Bei Sachen, die ohne Klick eingespielt wurden, ist das top.


    Parallel nutze ich auch die App auf dem Smartphone, aber nur zum Unterrichten an einer Musikschule. Praktisch ist auch, dass die Apps auf dem PC und Android gekoppelt sind. Ich kann also Tracks auf dem PC in die App laden und hab sie dann automatisch auch auf dem Smartphone.


    Ich zahle fürs Premium-Abo auch immer noch 4,49€ - nicht 6,99€. Das ist schon ganz cool. Ich würde aber nie im Leben 29€ pro Monat für das Pro-Abo zahlen.

    Dafür taugen mir manche Sachen auch nicht mehr so richtig. Seit ein paar Monaten (könnte auch schon länger sein) wird unabhängig von den ausgewählten Tonspuren immer noch eine Spur "other" ausgegeben, die meistens vor allem Anteile von Drums und Bass und ein paar anderen Instrumenten beinhaltet. Und das, obwohl Moises das eigentlich alles gut erkennt und trennt.

    "Roadstar" von Musicfox ist nun gesetzt für die nächste Challenge. :thumbup:


    Ich habe schon Spuren aus Moises extrahiert und in einem Projekt aufbereitet. Dafür nutze ich mein vorhandenes Moises-Abo (ist noch ein "altes" günstigeres) und ziehe da nicht nur den Klick zusätzlich raus, sondern auch Lead- und Rhythmusgitarren und Keys einzeln. Für die Challenge will ich dann die Stems als WAVs in einer ZIP-Datei und einen Mix von mir bereitstellen. In diesem Mix passe ich die Lautstärken so an, wie ich sie auch für mich zum Einspielen anpasse. Am Schlagzeug braucht man Lead-Instrumente und Gesang oft einfach nicht so laut wie z.B. den Bass und vor allem den Klick. Die fertigen Masters fürs Voting mach ich dann natürlich wieder mit normalen Lautstärkeverhältnissen.


    Hier mal ein Beispielmix zum Einspielen (ohne Einzähler):


    https://mariusbaumdrums.de/wp-content/uploads/2024/12/Roadstar_Cut1_Testmix.mp3


    Rausgekürzt sind da jetzt nur die 8 Takte Intro, in denen sowieso kaum was passiert. Ansonsten bin ich mir unsicher. Weitere Kürzungen taugen mir hier irgendwie nicht (z.B. ab Mitte der 1. Strophe oder ab 2. Refrain). Wir könnten es dieses mal ja einfach mit dem 3-minütigen Playalong probieren und wissen dann, ob das cool oder wirklich zu lang ist. :/


    Olli war so freundlich und hat mir extrahierte Spuren aus SpectraLayers zukommen lassen. Mit Moises habe ich aber nicht nur mehr Möglichkeiten, sondern m.E. klingt das auch besser.

    Der KI "Kreativität" abzusprechen halte ich für wenig sinnvoll. Vor allem nicht mit dem Argument, dass sie nur auf menschengemachte Inhalte zurückgreifen, und diese neu Verknüpfen kann. Denn so funktioniert auch menschliche Kreativität zu großen Teilen.

    Dass ein KI-System eigenständig Neues erfinden kann, das vorher nie dagewesen ist, ist seit 2016 etabliert. Denn damals fand eine Software eine neue Taktik um einen Go-Grossmeister zu besiegen, auf die in Jahrtausenden kein Mensch vorher gekommen ist.

    Kreativität würde ich KI auch nicht per se absprechen. Vielleicht "traut" sich KI ja sogar wieder mehr, neue / eigene Wege zu gehen und so dem Einheitsbrei was entgegen zu setzen. Ich sehe KI auch nicht völlig dystopisch.


    Aber eines kann KI nicht leisten, was in (guter) Kunst und Musik eben oft eine tragende Rolle spielt. Denn KI ist und bleibt emotionslos.

    Bestimmte Musik habe ich oft auch genossen, weil sie so gut die Emotion des Künstlers transportieren kann und mir selbst aus der Seele gesprochen hat. Weil ich wusste, dass es Menschen gibt, die diese Musik erschaffen haben, weil sie wirklich etwas damit ausdrücken wollten.


    Das mag irgendwie "romantisch" klingen, aber ist für mich die wahre Essenz von Kunst und Musik. Und wie ja schon angesprochen wurde, befinden wir uns hier sowieso in einer Bubble. Ich halte es daher für ganz logisch, das ganze hier auch aus einer künstlerischen Perspektive zu sehen.


    Ich selbst bin zwar kein Songwriter, weiß aber, dass man Songwriting genau so üben muss wie das Spielen eines Instruments. Die ersten geschriebenen Songs sind also meistens noch eher "Versuche". Und für Alben werden oft auch weit mehr Songs geschrieben, geprobt und sogar komplett aufgenommen, als dann tatsächlich veröffentlicht werden. Menschen erzeugen hier also durchaus auch "Ausschuss", der im Trash landet. Das ist ganz normal.


    Aber KI-Musik kann noch so gut werden ... echte Emotionen werden da nie im Spiel sein. Genau so wie echte Livemusik nie ersetzbar sein wird. Insbesondere, wenn der Künstler bzw. die Band sich aufs Publikum einlässt und (nonverbal) mit dem Publikum kommuniziert.


    Es gäbe doch so viel sinnvollere Sachen, die KI leisten kann. Z.B. Steuererklärungen machen. :D

    Ich muss mal was los werden zu meiner Punkteverteilung; ich habe ja nur 10, 8 und 1 Punkt vergeben. Im Nachhinein sieht es wirklich etwas merkwürdig aus, stelle ich fest. Aber ich bin mit so einer weiten Range echt überfordert. Ich würde mich einfacher tun mit einer Range von 1 bis 5 oder so.

    Daher hab ich die für mich "richtig guten" Sachen mit 10 bewertet, die guten mit 8 und alles andere mit 1 Punkt. Mich selber hätte auch am liebsten sogar gar nicht bewertet, aber das ging ja nicht.

    Eine Range von 1 bis 5 gab's bei der 1. Challenge in diesem Jahr. Einigen Leuten war das zu wenig. Die 10er-Skala muss man ja generell nicht voll ausnutzen. Man kann 10 und 1 Punkte vergeben, aber z.B. 7 und 3 Punkte nicht. Oder man kann die 10er Skala trotzdem wie eine 5er nutzen, indem man nur die geraden oder ungeraden Punktzahlen vergibt. Die 10er Skala will ich auf jeden Fall so beibehalten, weil sie am meisten Flexibilität bietet und alle Bedürfnisse abdeckt.


    Ich fände es auch sinnvoller, wenn der eigene Beitrag nicht oder mit einer vorgegebenen Punktzahl bewertet wird. Das macht die Organisation aber aufwändiger, denn so müssten alle Teilnehmer abstimmen. Wenn der eigene Beitrag dann gar nicht bewertet wird, kann das Voting-Formular nicht sicherstellen, dass ansonsten alle Beiträge bewertet werden.


    Es geht also nur mit Kompromissen. Ich finde die aktuelle Lösung aber OK so. ;)

    ... damit bezog ich mich tatsächlich auch ein bisschen auf mich selbst, weil ich schon geahnt hab, dass bei mir zu viel/ laute Becken drin sein würden. Crashes leise anzuspielen irritiert mich immer irgendwie, wenn ich es mal tun sollte -hab es für den Beitrag auch probiert aber es fühlte sich so extrem ungewohnt an, also dachte ich, ich mach dann mal meine Note und meinen Wohlfühlgeschmack da rein.

    Tatsächlich ist es eine spielerische Qualität, die Becken gegenüber den Trommeln nicht zu laut werden zu lassen bzw. die innere Dynamik in der Hinsicht kontrollieren zu können. Ich bin mir aber sicher, dass in deinem Fall die Aufnahme auch eine Rolle spielt. Mit Mehrfachmikrofonierung und entsprechender Nachbearbeitung hätte man das so zurechtmixen können, dass die Crashes nicht zu laut sind. ;)