Beiträge von Beeble

    BILD : Bubingapolizei gelingt bundesweiter Schlag gegen kriminelle Schlagwerker


    Berlin: Der Taskforce "Bubinga" des LKA Berlin gelang in einer lange vorbereiteten Aktion
    ein gezielter Schlag gegen Bandmäßig organisierte Schlagwerker. Durch rücksichtslosen
    Einsatz von mit illegalem Tropenholz beschichteten sogenannten "Trommeln" haben
    Jahrzentelang kriminelle Musiker die Ausbeutung des Regenwalds mitorganisiert.
    Bei den Razzien in Proberäumen und kleinen Liveclubs konnten unzählige Trommeln
    sichergestellt werden. Etliche Bandenmitglieder die sich selbst als "Drummer" bezeichnen
    sitzen zur Zeit in Untersuchungshaft.
    Als besonders dreist nannte ein Sprecher der Musikerpolizei den Versuch eines Mannes, sich durch
    folieren der Trommeln einer Starfverfolgung zu entziehen.
    Noch ist nicht klar wer die Hintermänner sind. Es wird vermutet das eine Organisation die sich
    selbst "Sonor" nennt, den weltweiten Handel kontrolliert.

    Die AFD verspricht für ihrem Wahlsieg: ".. nur deutsche Eiche für deutsche Trommeln"






    Beeble, vielleicht ist dein Beitrag einfach missverständlich formuliert oder wir reden aneinander vorbei.

    wahrscheinlich beides ^^


    Ok. Ich versuche mal: 10 Finger auf dem Keyboard greifen in die Tasten, ein Midiwort wird erstellt und auf die Reise geschickt. Nicht gleichzeitig sondern schön der Reihe nach wie bei serieller Übertragung üblich.
    dieses ganze Signal ist ist etwa 10ms lang, je nachdem was noch an Daten mitgeschickt wird auch länger. Ohne Verzögerung kommt das Signal am USB Port an. Blöderweise wird aber nur alle 1-5 Millisekunden der Port abgefragt.
    (normalerweise einmal pro ms, ich habe aber gelesen das die Hersteller gerne auch 5ms nehmen um auf Nummer sicher zu gehen. Wusste ich bisher auch nicht)
    Im schlimmsten Fall kommen die Daten erst nach 5ms in den Rechner. da stehen sie dann aber sofort zum Weiterverarbeiten zur Verfügung.


    Die Reiseroute des Midisignals sieht dann so aus:
    -Vom drücken der Tasten bis zur Ankunft des Signals am USB Eingang vergehen etwa 32 Microsekuden, hier reden wir mal nicht von Latenz, das läuft noch unter Echtzeit.
    Den Job erledigt ein UART Chip, dieser ist diskret, also kein Prozessor und hat Null Latenz.
    - Jetzt gibts dann die erste Verzögerung auf die wir keinen Einfluss haben, nämlich den Datenstau am USB Port, der mindestens 1-5ms beträgt.
    - die Software die jetzt mit den Daten macht was sie soll unterliegt dem Prozessortakt und auch da findet alles im nano- und microsekundenbereich statt.
    also entweder werden die Daten einfach nur gespeichert oder auch von einem VSTi wie in unserem Fall verarbeitet. Zwischengespeichert bzw. gebuffert wird da nix, da es sich hier um Echtzeitanwendung handelt.
    Vom drücken der Klaviatur bis zum Auftauchen in der DAW vergehen also bis zu 5ms.


    Nun zum VSTi:
    Die Daten müssen in Echtzeit verarbeitet werden, wenn das nicht klappt wird nicht gewartet sondern schlimmstenfalls gehen Daten verloren. Meistens läuft aber die Software dann gar nicht oder lässt sich auf entstprechend schwachen System nicht instalieren oder betreiben oder läuft einfach nicht zufriedenstellend.
    Nun kommt der nächte Teil der Kette auf den wir keinen Einfluss haben und der auch wieder eine Verzögerung mit sich bring, die D/A Wandlung über das Audiointerface.
    Die Performance ist abhängig von der Hardware des Geräts und der Hardware des Rechners sowie der dazugehörigen Software(Treiber)
    Ähnlich wie beim USB Port werden hier die Signale zwischengespeichert. Das ist die Samplerate. Das bedeutet die Signale werden Portionsweise gewandelt. Je kleiner die Portionen(Samplerate) desto schneller werden sie ausgegeben und die Latenz wird kleiner. Je größer der Buffer desto größer wird die Latenz. Man könnte meinen das man einfach immer die kleinstmögliche Samplerate einstellt um so die kleinstmögliche Latenz zu bekommen.


    Der Haken ist , das alles in Echtzeit rausgeht, egal ob die Hardware mit dem Umwandeln fertig ist oder nicht, alles muss raus, auch wenns nicht fertig geworden ist. Man hört Knackser und Aussetzer im schlimmsten Fall gibts Mecker und Abstürze, der Rechner ist überfordert. Wählt man eine hohe Samplerate, dauert es länger bis das Paket rausgeht, aber es ist auch genügend Zeit sauber zu rechnen. Das Resultat ist ein sauberes Signal aber eine höhere Latenz.
    Der Datenstrom ist dabei immer gleich. Ob wenig, dafür aber schnell hintereinander, oder viel und dafür langsam.

    Trotzdem der Vollständigkeit halber: Ein Note on/off ist 3 Bytes lang und die Übertragung über ein Midi-Kabel dauert 0,96ms.

    Kann man sich vorstellen wie ein Zug der das Keyboard verlässt. Die Lok ist schon im Bahnhof(USB Port)angekommen während der letze Wagon noch im Keyboard steckt.
    Der Bahnhof hat aber nur alle paar ms mal geöfnet und im schlimmsten Fall schaft es nicht der ganze Zug vor Schliessung einzufahren ^^
    Dann käme hier noch mal Latenz hinzu!? Also im schlimmsten Fall ein vielfaches von 5ms je nach länge des Midiworts.


    Rechnen wir mal zusammen:


    in <1ms ist das Signal am USB Port des Rechners, je nach Länge dauert es nochmal 10ms bis alles drin ist.
    Danach wird flux gerechnet im für uns nicht relevanten "Echtzeitbereich" von einigen Nanosekunden.
    Schnell raus mit den Daten ans Interface zum wandel..ups..dh. ja wieder über USB raus und wieder warten.. nochmal 5ms im schlimmsten Fall.
    Das flotte Interface braucht vielleicht 6ms, bis endlich ein Audiosignal zum Lautspecher geht.


    sind zusammen 1ms+10ms+10ms+6ms
    Also haben wir eine Latenz von ca.27ms die wir einkalkulieren müssen.
    Ach ja, beim Drummodul kommen wirklich noch einige ms Latezn hinzu, da intern noch gerechnet wird.
    Roundabout sollte man als eDrummer eine Latenz von 30ms einplanen


    Habe ich noch was vergessen?

    Robo, lies mal bitte genau was ich geschrieben habe.
    Es geht nicht um die Gesamtlatenz, auch nicht über die Latenz des Audiointerface. Es geht um die Latenz dieses Midi over USB Kabels.
    Dort gibt es keine Latenz. Latenz entsteht erst wenn die Mididaten verarbeitet werden und natürlich bei der analogen Ausgabe des Sounds eines VSTi über das Audiointerface.
    Eine einfacher 2 Byte langer Midibefehl aus Note on/off hat eine Länge von etwa 800 Microsekunden, der kommt auch am Rechner an wenn er losgeschickt wird, ohne Latenz.
    Das sind Zeiten die du sicher nicht einmal messen könntest.
    Ein USB 1.02 kann ein Byte jede Microsekunde ( ein tausendstel einer Millisekunde) übertragen.
    Der einzige Nachteil von dem ach so schnellen USB ist die Tatsache das dieser vom Prozessor verwaltet wird und im Gegensatz zu einer mit eigenem Bus verwalteten RS232 Schnittstelle nicht so oft abgefragt wird.
    Bei USB 1 war das etwa eine Abfrage alle 1 ms. Ich weiss nicht ob sich das verbessert hat.
    Aber ganz sicher dauert es keine 5ms bis ein Midisignal den USB Bus durchlaufen hat.


    wenn du das was ich da ziemlich viel durcheinander gebracht habe noch richtig stellst wäre es sicher hilfreicher als es nur zu schreiben.

    Beeble: Danke für den kleinen, verständlichen Exkurs.
    Dieses oft missverstandene Thema wurde selten so auf den Punkt erklärt!

    es ist auch schwierig das alles zusammnezufassen ohne das es zu technisch ins Detail geht.
    Wenn man alle die Informationen haben und verstehen möchte, liest man sich wochen- oder jahrelang nen Wolf.
    Aber irgendwie will man ja auch einfach nur drummen. ^^

    SO ganz falsch scheint es mit dem Interface jedenfalls nicht zu sein. Die Hersteller nennen ihre Geräte durchweg Interface und nicht Adapter.

    ja die nennen das wohl Interface weils besser klingt und weil da noch ein diskretes Bauteil drin steckt welches sich dem USB Port als Midigerät vorstellt.
    Verarbeitet, also gerechnet werden muss da nix. Jedenfalls nichts was unsere Latenz beeinflusst.
    Midi ist so unendlich langsam und sparsam im Datenstrom das der Rechner davon kaum etwas merkt.
    Midi macht 32000Baud und ist somit ca. 150.000 mal langsamenr als USB3 Full Speed.


    Viel schlimmer für die Latenz ist ja die Tatsache das Midi seriell, also schön ein Event nach dem anderen verschickt.
    Wenn ein Keyboarder zb mit 10 Fingern und Pedalen und Modwheel spielt, kommen die 10 Noten und die restlichen Daten schön der Reihe nach an, da vergehen dann schon mal 30ms bis alles im Kasten ist.


    Aber Midi ist schon 35 Jahre alt und von Roland entwickelt (damals war Roland noch inovativ), leider nicht mehr zeitgemäß aber immer noch ausreichend.

    Und es funktioniert, obwohl ich keine Ahnung von der Technik habe (evtl Dank Mac :-))

    genau, Aplle hat da schlau "core audio" das entspricht grob dem ASIO auf den Windows Rechnern.
    Auf einem Windows Rechner ist ein spielen mit VSTi auch mit ASIO4all nicht möglich. Jeder der das Gegenteil behauptet lügt ;)

    Na hier wird einiges durcheinander geworfen ^^


    Also mal ganz langsam:


    Midi ist nur ein serielles Protokoll, dazu noch ausgesprochen langsam und sehr sparsam was die zu übermittelnden Daten betrifft. Damals vor fast 40 Jahren als sich einige schlaue Köpfe das ausgedacht haben waren die Rechner zu der Zeit gerade mal schnell genug diese Daten zu verarbeiten.
    Seriell ist auch unser beliebtes USB, dh. Midi und USB sind sich sehr ähnlich, weswegen man heute auch meist nur einen USB Anschluss an den Modulen findet. Der Rechner hat damit keine Arbeit und langweiligt sich mit Midi. Deswegen kann so ein USB Anschluss auch hunderte Midigeräte gleichzeitig verarbeiten ohne Probleme. Latenz gibt es keine, also 0, in Worten auch Null! wenn Midisignale vom Rechner weiterverarbeitet werden.
    Damit hat ein Midigerät an einem Rechner angeschlossen NUll Latenz!
    Was hier fälschlicherweise als "Interface" interpretiert wird ist ein Adapter(Kabel) zwischen Modul/Keyboard/sonstigem Midigerät und dem USB Port Das ist nix dolles und hat auch keine Latenz. (Kabel haben auch keine Latenz)


    Wunderbar bis hierher, wir können spielen, Mididaten erzeugen und das ganze latenzfrei im rechner "recorden" ..aber hören tun wir noch nix.
    Wenn wir jetzt ein Softwareinstrument wie EZdrummer mit diesen Mididaten füttern hat der Rechner zum ersten mal ein bisschen Arbeit und rechnet einen schönen Sound.
    Leider rechnet der nur und wirft digitale Daten raus die ja noch irgendwie in hörbare analoge Signale gewandelt werden müssen damit wir das ganze auch hören können.
    Dieses umwandeln erledigen Digital- nach Analogwandler, D/A Wandler genannt. Diese befinden sich in einem Audiointerface das wir zb. extern anschliessen oder auch intern als PCI-Karte.
    Diese digitalen Signalprozessoren(DSP) haben mächtig viel zu tun und kommen richtig ans schwitzen, da sie möglichst schnell und präzise sein sollen, also richtig schnell.


    Die Qualität und die Treiber für dieses Audiointerface sind entscheidend für die Zeit die es braucht um möglichst schnell den Datenstrom den der Rechner schickt umzuwandeln.
    Dieses Verfahren nennt sich ASIO (Audio Stream In/Out) denn meistens macht so ein Interface das in beide Richtungen, also auch zb vom Mikrofon das Signal in digitale Daten zu wandeln.
    Hier entsteht die Latenz, da diese Wandlung Zeit benötigt.
    Ein normaler Onboardsoundwandler der nur einige Cent kostet kommt da leider an seine Grenzen. Der Datenstrom der kontinuierlich vom Rechner geschickt wird kann nicht schnell genug verarbeitet werden und es wird eine große Samplerate notwendig.
    (außerdem arbeitet so eine einfache Soundkarte nur mit 16Bit und 44kHz was uns mal gar nicht reicht)
    Das bedeutet der Datenstrom muss zwischengespeichert werden, was ja wieder Zeit kostet.
    Je größer dieses Zwischenspeichern (die Samplerate) ist, desto größer die Latenz.
    Ein gutes schnelles Interface kann mit sehr kleinen Sampleraten arbeiten und so schneller die Daten zu wandeln und rausschicken.


    Zusammengefasst bedeutet das:
    Nur Midi aufnehmen und/oder Midi wieder raus zu schicken zb. in das Drummodul stellt keine Anforderungen an die Hardware, das geht mit jedem Rechner der nicht älter als 30 Jahre ist.
    Wenn aber ein VSTi ins Spiel kommt, muss der Rechner Leistungsfähig genug sein den ganzen Kram möglichst in Echtzeit zu rechnen UND ein Audiointerface in der Lage sein den Datenstrom auch möglichst in Echtzeit in analoge Signale zu wandeln.
    Wenns da schwächelt bekommen wir eine große Latenz.

    Dort würde dann eine inter PCI bzw PCI Express Soundkarte Sinn machen ?

    ich sag mal Jain. Sicher sind die etwas schneller, aber wie schon von gecka88 angemerkt auch nicht so praktisch wie ein externes USB Gerät. Ich würde mir wegen der 2ms keine PCI Karte mehr einbauen.
    Das ist alles gar nicht so schlimm wie man drüber streitet. Wie gesagt der Bassist der 4m im Proberaum von einem weg steht hat mehr Latenz als so ein Interface.
    Ein externes hat den Vorteil das man es überall nutzen kann und auch mal ein Mikrofon und Kopfhörer einstecken kann.


    Ich persönlich finde Laptops für Audio ausgesprochen unpraktisch, da sie bei vergleichbarer Ausstattung das doppelte kosten wie ein Desktoprechner, sich schwer umrüsten und erweitern lassen und mir das ganze viel zu fummelig ist.
    Mein Rechner steht im Proberaum und wenn ich den mal mitnehme ist das mit Tragegriff auch nicht schlimmer als einen Laptop zu schleppen.

    Ich habe gelesen das die Latenz auch bei guten PC's bei um die 6ms liegt.

    das lässt sich nicht pauschalisieren. Die Latenz ist weniger von der CPU als vom verwendeten Audiointerface abhängig.
    Auf einem i7 mit onboardsound wirst du Latenzen um die 20ms aufwärts haben, damit unspielbar.
    Mein 10 Jahre alter Athlon Xp mit PCI Jul@ als Interface hat da schon mal nur 3ms.
    Wenn du nur mit einem VSti (gleichzeitig) arbeiten willst reicht im Prinzip jeder Rechner mit 4GB auf dem Win7 läuft.
    Wenns denn unbedingt ein Laptop sein muss bist du auf ein externes USB Interface angewiesen, die sind leider etwas langsamer aber zum echtzeitspielen noch ausreichend.
    Empfehlen kann ich dir das Steinberg UR12 bestes Interface für das Geld.


    Auch wenn etwas anderes behauptet wird, Latenzen unter 6ms sind nicht wahrnehmbar und bis 12ms ist das noch alles im Rahmen.

    kann ich bestätigen. mein Interface mach 32 Kanäle bei 24Bit/48kHz rein und raus an USB 2.


    Firewire400 ist langsamer als USB 2, dafür aber full duplex.
    USB 3 ist es auch full duplex dafür aber 10 bis 20 fach schneller als Firewire.


    Firewire ist veraltet und zu Zeiten von USB 1 entstanden und wird auch nicht mehr unterstützt.
    Einige Hersteller bauen das aber immer noch in ihre Audiogeräte ein.

    Kurz meine Erfahrungen zu Gehörschutz und gutem Klang. (mit freundlicher Unterstützung durch pbu)


    Gehörschutz nutze ich zum arbeiten wenn ich möglichst nichts hören will und es egal es ist wie der Rest klingt der noch durchkommt.
    Ich habe einiges an Gehörschutz ausprobiert, auch die vermeintlich linearen verfälschen so dermaßen als das was noch durchkommt akzeptabel klingt.


    Als Schlagzeuger hört man sich selbst ja nicht vernünftig und was man hört hat sicher so einen hohen Schallpegel das es das Gehör schädigt.
    Ich möchte möglichst den Klang den ich auf die Ohren bekomme selbst bestimmen und mich gleichzeitig vor meinem eigenen Krach und dem der Gitarren schützen.
    Meine Lösung heisst Monitoring über KH. Ich benutze auch den von pbu empfohlenen DT770M, da sie gut dämpfen und noch (sehr) akzeptabel klingen.
    Zusätzlich habe ich noch die StageDiver SD-2 Inears. Das sind universell passende Inears die recht komfortabel zu tragen sind, kosten aber auch mehr als das doppelte der Kopfhörer.
    Klingen subjektiv noch etwas besser.
    Der Nachteil dabei: Alle Musiker müssen mit KH/Inears spielen. Erfahrungsgemäß ist bei beratungsresistenten schon gehörgeschädigten Gitaristen da sehr viel Überzeugungsarbeit nötig, gerade wenn sie
    mit (was ich nie verstehen werde und sich jeder Logik entzieht) Röhrenendstufen spielen.
    Desweiteren muss das gesante Schlagzeug voll mikrofoniert sein. Ein Digitalpult oder eine entsprechende Wandler/DAW Kombination mit ausreichend Bussen, sowie je Musiker einen eigenen KH Kanal.
    Das klingt erstmal teuer, ist es auch. Aber:
    Der Vorteil ist allerdings enorm: Mit entsprechendem Equipment, Know How und Geduld klingt es wie von Schallplatte. Jeder hat den Sound den er haben will, man hört jedes Detail was bei lauten Proben oder live mit Bühnenmonitoren gar nicht möglich ist. Kein klingeln mehr auf den Ohren, genaueres kontrolliertes Spiel. Den Bühnesoundcheck spart man sich auch, da man mit dem selben monitoring dann auch live spielt.
    Ich nutze das ausschließlich, auch wenn ich alleine spiele.

    Bei einigen Sparkle-Lackierungen ist der Klarlack so dick, um eine ebene Oberfläche zu bekommen


    Dann liefert Sonor da aber ziemlichen Pfusch!
    Es ist durchaus möglich mit den richtigen Lacken und dem richtigen Aufbau desselben dicke Schichten zu bekommen ohne die Gefahr das es reißt.
    Sicher wurde bei Sonor bewusst so gearbeitet um Kosten zu sparen.


    Wenn das da oben wirlich Lack sein sollte, ist eine Reparatur nicht möglich. Der Kessel muss komplett neu geflaked und lackiert werden.
    Je nach Größe der Flakes und verwendeter Auftragsechnik sind da schon mal 4-6 Lackschichten notwendig. Ein neuer Kessel wird da günstiger sein.

    ok, anders: die Midinoten sollten erstmal alle den selben zb. in deinem Fall Lautstärkewert haben.
    Dazu gehst du, wenn du die markiet hast, oben im Menü auf: MIDI/Funktionen/Feste Anschlagstärke
    jetzt haben alle die selbe Lautstärke und jetzt kannst du oben den Wert der gelb dargestellt wird global für alle ändern.
    (Die Werte werden dort immer für alle ausgewählten Midievents im selben Verhältniss geändert)