Beiträge von m_tree

    Mit der Aussage meinte ich aber nur die Verhältnisse von Schlag- und Resonanzfell. Ich hatte ja noch weiter geschrieben:

    Genauer nehme ich es dann beim absoluten Grundton, wofür man ja sowieso eins der beiden Felle wieder höher oder tiefer stimmen muss.

    Zumindest bei Toms mache ich das so, weil hier halt die Intervalle auch eine Rolle spielen. Am Ende sind dem ganzen natürlich auch Grenzen gesetzt, weil der entstehende Grundton auch abhängig von der Anschlagstärke ist und die Trommeln sich ja durchs Bespielen mit der Zeit auch runterstimmen.

    Aber wenn ich mit einer Oktave zwischen dem 10er und 16er anfange, will ich da eben auch erstmal genau eine Oktave haben. ;)


    Ansonsten sehe ich das aber ähnlich wie du. Schlagzeug ist und bleibt in erster Linie ein Geräusch-Instrument.

    Manche Leute gehen ja sogar so weit und stimmen die Trommeln für Aufnahmen passend zur Tonart des jeweiligen Songs. Das geht m.E. aber zu weit. Vielmehr sollte der Klangcharakter grundsätzlich zur Musik (und auch einfach zum eigenen Geschmack) passen - wozu ja auch die absoluten Tonhöhen, die Resonanz der Stimmung, Felle, Dämpfung, Mikrofonierung uvm. zählen.


    Ja - sorry an Dustin fürs Kapern. Vielleicht kann ein Mod das ja hier bereinigen.

    Ich glaube, wir reden aneinander vorbei bzw. gebrauchen unterschiedliche Vokabeln: Du meinst sicher, dass Du die Tonhöhe des Fells über den Ton ermittelst, der entsteht, wenn Du das andere Fell abdämpfst. Das ist jedoch nicht der Grundton des Fells (jedenfalls dann nicht, wenn die Definition für Grundton „der tiefste Ton des freischwingenden Fells“ ist).

    Ja, dieser Ton entspricht nicht dem Grundton, der bei einem freischwingenden Fell entsteht - wie bei Trommeln ohne Resonanzfell (Concert Toms, Roto Toms, Timbales, ...). Ohne Resonanzfell vereinfacht sich das ganze ja deutlich.


    Das Szenario mit gegenüberliegend abgedämpftem Fell kann man damit vergleichen, dass man die offene Seite einer Trommel ohne Resonenzfell luftdicht verschließt.


    Mit gegenüberliegend abgedämpftem Fell entspricht der Grundton (den ich hier nur so bezeichne, weil es in diesem Fall der tiefste Ton des Frequenzgemischs ist) der "Lug Frequency", die wiederum am Rand ohne gegenüberliegend abgedämpftem Fell erklingt.

    Der Grundton ist der tiefste Ton, der bei freiem Schwingen entsteht (und dieser ist für Reso und Schlagfell immer gleich). Wenn Du das gegenüberliegende Fell abdämpfst, entsteht dieser nicht mehr, sondern die erste Oberschwingung des nicht gedämpften Fells, die deutlich höher ist. Nur über diese erste Oberschwingung kann man bei einer zweifelligen Trommel die Tonhöhe des jeweiligen Fells einzeln bestimmen - darauf basiert das ganze Prinzip von Tunebot und Co.

    Wenn Du das gegenüberliegende Fell abgedämpft hast, dürfte es keinen Unterschied von der Frequenz machen, ob Du mittig oder am Rand anschlägst.

    Das ist mir schon klar. Deswegen schrieb ich ja auch, dass ich den Grundton des einzelnen Fells durch Anschlagen in der Mitte mit gegenüberliegend abgedämpftem Fell ermittle, statt am Rand. Wie schon gesagt:

    Die "Lug Frequency" als Referenz für den gesamten Grundton des Fells herzunehmen erscheint mir immer noch unlogisch. Mit gegenüberliegend abgedämpftem Fell (in der Mitte angeschlagen) kommt das selbe raus und geht viel genauer. ;)


    Und auch ein Fell in Stimmung mit sich selbst zu bringen - wofür man ja am Fellrand bei den Spannschrauben abklopft - geht definitiv genauer, wenn das gegenüberliegende Fell abgedämpft ist.


    Unabhängig von mathematischen Formeln und Tabellen ist es meiner Meinung nach nicht notwendig, Reso- und Schlagfell auf Komma-genaue Frequenzen zu stimmen (sofern das mit der Messtechnik überhaupt möglich ist). Vielmehr nehme ich das als Anhaltspunkte, als grobe Richtwerte für die Stimmungsverhältnisse. Genauer nehme ich es dann beim absoluten Grundton, wofür man ja sowieso eins der beiden Felle wieder höher oder tiefer stimmen muss.


    Ich war zeitweise nur überrascht, weil die Angaben in der App zumindest bei einem Tom mal sehr genau gestimmt haben, als ich die Felle mal genau auf diesen Frequenzen hatte.

    Die "Lug Frequency" als Referenz für den gesamten Grundton des Fells herzunehmen erscheint mir immer noch unlogisch. Mit gegenüberliegend abgedämpftem Fell (in der Mitte angeschlagen) kommt das selbe raus und geht viel genauer. ;)

    Es ist schon richtig, dass der Grundton, der aus der Interaktion von beiden frei schwingenden Fellen entsteht, deutlich tiefer ist als die einzelnen Grundtöne der Felle. Bei letzterem beziehe ich mich darauf, dass das jeweils gegenüberliegende Fell abgedämpft ist und schlage dafür in die Mitte des Fells. Ich nutze für genaueres Stimmen ja seit einiger Zeit die App "Drumtune Pro 2.0", schlage zur Analyse der Grundtöne aber nie am Fellrand an. Am Fellrand schlage ich nur an, um die Felle rein nach Gehör in Stimmung mit sich selbst zu bringen (das kriege ich auch ohne Hilfsmittel hin).


    Ich hatte mich erst kürzlich wieder intensiv mit dem Thema beschäftigt, weil ich meine Toms neu gestimmt habe. Die Intervalle (Oktave zwischen 10er und 16er, dazwischen drei große Terzen) habe ich zwar gleich gelassen, aber ich habe die kleineren Toms resonanter (geringerer tonaler Abstand von Schlagfell und Reso) und die großen Toms weniger resonant gestimmt.


    Dazu habe ich noch mal die Tabellen in der App zu Rate gezogen und mir drei verschiedene Stimmungsverhältnisse der Felle für meine angepeilten Grundtöne der verschiedenen Toms rausgeschrieben (Schlagfell / Reso gleich hoch, große Terz, Quinte).


    Für ein 12er Tom auf A#2 / 116,5 Hz wären das z.B.:


    201,5 / 201,5 Hz (Prime)

    179 / 224 Hz (große Terz)

    161,5 / 242 Hz (Quinte)


    Und ich habe bei allen Toms jedes Mal festgestellt, dass das wirklich so hinhaut! Wie gesagt muss das gegenüberliegende Fell dafür abgedämpft sein. Nur so kann man übrigens auch einzelne Felle wirklich korrekt stimmen, weil ja sonst immer das gegenüberliegende Fell mitschwingt.

    Ja, der Thread ist ein bisschen abgedriftet. Bin gerade selbst etwas überrascht, dass deine Ursprungsfrage eigentlich nur folgendes war:

    Gibt es eine Möglichkeit ein WAV file in Cubase manuell in minimalst kleine Schritte zu verschieben bzw. wie macht man das ?

    Ich benutze Cubase zwar nicht, aber jede DAW sollte eine Möglichkeit bieten die Audiodateien auf Samples genau zu verschieben. In REAPER geht das jedenfalls.

    Es müssen halt Sachen wie "Snap" (Audiodateien kleben am Grid / Klickraster) und "Lock" (Audiodateien lassen sich gar nicht verschieben) deaktiviert sein.

    Wir reden hier um den heißen Brei, weil nicht mal klar ist welche Dateien du dafür benutzt. Natürlich geht das, wenn auf der Summe keine Dynamikbearbeitung stattgefunden hat. Habe ich doch erklärt.

    Ich hatte (ohne drüber nachzudenken) unterstellt, dass man das mastert und dann für die drumlessvariante einfach, ohne weiter Hand anzulegen, die drums muted.

    Auch wenn die Effektketten des Masterings bzw. aller Bearbeitungsschritte auf der Summe gleich bleiben wird das nicht funktionieren. Denn wie schon gesagt packt ein Summenkompressor mit ein- oder ausgeschaltetem Schlagzeug ganz anders zu.


    Dein hier beschriebenes Szenario funktioniert nur, wenn auf der Summe gar keine oder nur statische Effekte zum Einsatz kommen. Nicht mal Limiting. Hat daher nicht viel mit der Realität zu tun.

    Ich hab mir die Stems in Reaper gezogen. Den "Other" Stem kann man problemlos rauslassen, einzeln klingt die Spur nach gesammeltem Phasenschmutz. Die Idee mit dem lauteren Klick werde ich auch so umsetzen. Mal sehen, wie die Aufnahme wird.

    Moises gibt seit einiger Zeit immer eine "other"-Spur aus, unabhängig davon welche Elemente man für die Spurentrennung auswählt und ob das alles abdeckt. Finde ich auch nicht so cool.

    Hier sind da halt vor allem Reste vom Originalschlagzeug, Bass, Keys und ein bisschen Akustikgitarre drauf. Ich lass das der Vollständigkeit halber einfach mitlaufen.


    Die Stems habe ich schon vor dem Export in den Lautstärkeverhältnissen angepasst. Z.B. ist der Klick da schon lauter und die Leadgitarre leiser. Haben grundsätzlich die selben Lautstärkeverhältnisse wie mein Mix. Und ich kann da auch genau so optimal drauf einspielen.


    Den Klick hatte ich auch noch angepasst: für den Einzähler und die Lautstärke (+3dB bei laufendem Playalong).

    Habe gestern meinen ersten Jam aufgenommen. Macht ziemlich Spaß, aber den Song finde ich eigenartig. Er wirkt ein bisschen wie wahllos aneinandergereihte 4- bzw. 8-Takter. Die Herausforderung ist definitiv, das Ganze interessant zu halten!

    Mir macht das Playalong auch Spaß. Und wenn hier noch Gesang dazu käme, wäre das ja schon fast ein "normaler" Song, nur ohne C-Part.

    Bzw. wären viele Songs ohne Gesang auch nur eine wahllose Aneinanderreihung von Song-Teilen. :D


    Weitere Kürzungen erschienen mir hier trotz der Wiederholungen unmusikalisch.

    Aber, wenn Du ein Playalong hast und willst nun eben die Drumspur qualitativ möglichst hochwertig extrahieren (lassen wir mal dahingestellt zu welchem praktischem Zweck), dann erscheint es doch erst mal schlüssig zu sagen (sofern das non-drum backing gleich abgemischt(komprimiert etc. wurde) : Ich extrahiere nicht durch eine smarte KI den komplexen Mix sondern nutze eben die Differenzinformation von 2 Files (in diesem zugegeben speziellen Fall) und darf dann auch guter Hoffnung sein, dass das Ergebnis von (deutlich) besserer Qualität ist

    Ich wage zu behaupten, dass in tontechnischer Hinischt nicht ordentlich / gewissenhaft / vernünftig gearbeitet wurde, wenn das so einfach machbar ist.


    Man nehme als Beispiel die Playalong-Challenges, die ich hier veranstalte. Oft mische ich den drumless Track zum Einspielen etwas anders als die fertigen Masters (ganz unabhängig vom Schlagzeug). In meinem finalen Mastering-Projekt, wo ich die verschiedenen Beiträge zum Playalong mische und angleiche, habe ich das Playalong und die Drums i.d.R. zwar schon als Stems (Effekte wie Chorus, Hall und andere nicht statische Effekte sind also kein Problem). Aber ich mache da eben auch ein Mastering und das heißt, dass ich das Playalong und die Drums gemeinsam bearbeite. Allein die Kompression führt dann schon dazu, dass das Schlagzeug nachträglich nicht sauber extrahierbar ist. Weil ein Summenkompressor eben ganz anders zupackt, wenn ein für gewöhnlich Transienten-reiches Schlagzeug im Mix ein- oder ausgeschaltet ist.


    Ein bisschen Summenbearbeitung bzw. ein Mastering lohnt sich immer!


    Dass ich die fertigen Masters in 256 oder 320 kbps MP3 bereitstelle dürfte da das geringere Problem sein. Je höher die Bitrate bei verlustbehafteten Codecs, desto weniger Informationen fehlen. Mit 128 kbps könnte's schon schwieriger werden.

    Ich habe eben meinen Test mit einem regulären Mix gemacht. Und meine Erwartungen wurden bestätigt:


    Eine einfache Umwandlung in MP3 (hier 256 kbps) macht keinen hörbaren Unterschied! Ich kann Beeble s Einwände hier auch nicht nachvollziehen. Ich bin auch kein Freund von verlustbehafteten Codecs und eine professionelle Arbeitsweise setzt m.E. immer lossless Formate voraus. Aber wie gesagt macht eine einfache Umwandlung hier keinen hörbaren Unterschied.


    Meine Erwartungen wurden aber auch in anderer Hinsicht erfüllt:


    Das mit dem Phasendreher funktioniert nämlich nur dann, wenn auf der Stereosumme keine weitere Bearbeitung stattfindet. Was selten bis nie der Fall ist. Sogar dann meistens nicht, wenn eine Mischung zum Mastering-Studio übermittelt wird - ein bisschen Summenkompression gehört i.d.R. immer noch zum Mix dazu.


    Es geht aber noch weiter!

    In meinem ausgewählten Mix habe ich einen Chorus auf dem Bass. Und der arbeitet nun mal nicht konstant - der Bass wird beim Phasendreher fast komplett mit extrahiert. Auch auf anderen Instrumenten habe ich oft Effekte, die immer mal leicht unterschiedlich arbeiten - auch digital ... z.B. Hall-Plugins oder Tape-Simulationen.


    Mich bringt das noch einmal mehr zu dem Schluss, dass das besprochene Beispiel hier kaum etwas mit der Realität zu tun hat. Eine einfache Umwandlung in einen verlustbehafteten Codec mit einer vernünftigen Bitrate stellt für eine einmalige Anwendung allerdings gar kein Problem dar. Hier muss ich Beeble auch klar widersprechen.

    Generell finde ich interessant, dass die Qualität von Moises Extraktionen hier akzeptiert wird, die viel besseren Ergebnisse aus datenreduzierten Files wie MP3 und AAC durch invertieren einer der beiden Dateien jedoch als „nicht möglich“ dargestellt werden, obwohl sie zumindest mit meinem Material hier doch sehr real sind…? Woran liegt das?

    Mir geht's da nicht um die Qualität, sondern um die praktische Anwendung. Musik liegt annähernd zu 100% in fertigen Mischungen vor. Man hat praktisch also nie die Möglichkeit, ein Instrument mittels Phasendreher aus zwei Dateien zu extrahieren.

    Wenn ein Song mit und ohne das Element, das man extrahieren will, vorliegt, funktioniert der Phasendreher natürlich.

    jain, nicht bei zb. MP3.

    Da ist das das Signal eben nicht einfach nur Song minus Drums und wenn man die drums wieder dazurechnet entspricht das nicht mehr der Quelldatei.

    Zumal es nicht möglich ist aus einem mp3 etwas zu extrahieren. Das Signal wird zumindest intern in der Anwendung gewandelt, berechnet und wieder zusammengequetscht.

    Ich hatte extra noch meinen Grammatikfehler korrigiert und jetzt zitierst du das wieder mit dem Fehler aus Ollis Beitrag raus. :D


    Wie auch immer. Bei vernünftigen Bitraten wie 256 oder 320 kbps MP3 sollte das schon auch gehen, nur eben mit ein paar Artefakten. Ich mach dazu später noch einen Test.


    Wobei der konkrete Anwendungsfall m.E. halt sowieso fragwürdig ist.

    Wenn ein Song mit und ohne dem Element, das man extrahieren will, vorliegt, funktioniert der Phasendreher natürlich. Und mit verlustbehafteten Codecs geht das natürlich auch, nur nicht ganz so genau wie mit PCM.


    Der konkrete Anwendungsfall bleibt trotzdem fragwürdig, weil annähernd 100% der Musik nur in einem einzigen Gesamtmix vorliegt - egal ob remastered oder nicht.


    EDIT

    Grammatikfehler korrigiert.

    Verstehe. ;)


    Die Existenz von Moises und SpectraLayers veranschaulicht ja schon, dass es mit normalen tontechnischen Mitteln sehr schwierig bis unmöglich ist, Instrumente und Gesang in fertigen Mischungen nachträglich voneinander zu trennen.


    Beebles Vergleich mit dem Kuchen finde ich da auch passend. Durch einen Mix entsteht ein Frequenzgemisch - alle Elemente darin beeinflussen sich gegenseitig. Es entstehen Frequenzverdeckungen, denen man mit einer guten Frequenzverteilung bzw. EQing entgegenwirken kann uvm.


    Und MP3s sind für dein Vorhaben ungeeignet, das hast du ja schon selbst rausgefunden. Nur mit PCM hat man immer gleich bleibende Ergebnisse, wo auch Phasendreher im Nachhinein funktionieren.

    Trotz der etwas längeren Spieldauer finde ich den Track aber insgesamt einfacher als den von der letzten Challenge, obwohl er nur 4 bpm langsamer ist.

    Werde trotzdem noch eine Session machen, weil ich für mein Youtube-Video halt die größt mögliche Perfektion anstrebe. Davon abgesehen sollte bei den Challenges der Spaß- und Übungsfaktor im Vordergrund stehen, denke ich.


    Nun kristallisiert sich auf jeden Fall raus, dass 3 Min. zu lang sind und 2 Min. wohl die optimale Länge für diese Challenges hier ist. Auch fürs Voting.