Zitat von trommeltotti
Also: Für mich wird Linux erst dann interessant, wenn es das VST-Protokoll vollständig unterstützen sollte und damit in der Lage wäre, gängige VST PlugIns zu laden.
Leider glaub ich wird da nicht so schnell was passieren, da die Hersteller der VSTs selber auf die Idee kommen müßten.
VST ist leider vor allem Windows vorbehalten(sieht man ja schon an der Endung der VSTs ".dll")
Zitat von trommeltotti
Die intelligente Steuerung der Samples in Echtzeit macht die Würze. Von den immensen virtuellen Mixer Möglichkeiten der ausgewachsenen VST Drum-PlugIns einmal ganz abgesehen.
Ich behaupte mal, dass da nicht soviel intelligente Steuerung stattfindet.
Das womit die kommerziellen Sampler punkten können ist vor allem die Sample-Menge, bei gleichzeitig überragender Qualität.
Das in Software zusammenzumischen ist nicht die große Arbeit, die findet nämlich m.E. eher im Studio statt, bzw. nachher beim Sample zurechtschneiden/rauspicken...
Auch Sachen wie Bleeding, Kompressor, Eq, ist alles keine Hexenarbeit in Software...
Klar wenn man noch mehr erreichen möchte, als die Möglichkeiten, die z.B. Superior Drummer derzeit bietet(ich spreche da vor allem die Hihat an), kann das sehr wohl, sehr schnell ziemlich komplex werden.
Alleine die verschiedenen Stufen der Hihat so überzublenden, dass man da nichts mehr hört, stell ich mir sehr schwer vor...
Zitat
Bei diesen sensationellen Werten würde ich glatt danach rufen wollen, dass große etablierte Software Hersteller nunmehr für das ALSA Protokoll eine größere Gewichtung zukommen lassen sollten.
Das liegt in erster Linie glaub ich nicht mal direkt an ALSA, sondern eher an der Echtzeitfähigkeit des Kernels, welcher gleichzeitig so gut mit der Soundkarte zusammenarbeitet. Die Treiber sind ja schon im Kernel eingebaut, welchen ich genau auf mein System optimiert kompiliert habe...
Und natürlich, die Software, welche die Sounds reichen muss. Da ist das Programm von jeffg schon ein sehr gutes Beispiel für.
Aber ich muss sagen ich war selbst sehr überrascht, was da möglich ist(der Entwickler im Übrigen auch).
Zitat von buff
Die Messung stimmt schon so. Bei der Snare-Schaltung werden die negativen Wellen ja nicht "hochgeklappt" wie in der anderen Schaltung, sondern bleiben so. Der A/D-Wandler vom TD-12 kann aber offenbar keine negativen Spannungen messen, also wird der Nullpunkt einfach auf ca. 1.65V hoch geschoben (das passiert in der zweiten Hälfte der Snare-Schaltung ab dem "Continue", simulier den Teil vielleicht einfach mal, wenn es nicht klar ist). So passt dann ein komplettes Wechselsignal in den Bereich von 0-3,3V, den der Wandler digitalisieren kann.
Alles klar das ergibt Sinn.
Zitat von buff
...(was ich noch schlimmer finde) weil jemand sein Wissen nicht weitergeben möchte....
Das Problem was ich dabei sehe, ist, je mehr wir in den technischen Bereich gehen, desto leichter/größer ist die potenzielle Kopiermöglichkeit, daher, kann dann einfach jemand mit den Erkenntnissen eine neue "Geschäftsdidee" darauf gründen. Das klingt jetzt zwar was hochgesetzt, aber es gibt nicht umsonst Patente, die eben sowas verhindern sollen...
Ich bin generell auch eher für offen verfügbares Wissen, nur ist das Ganze in der heutigen Zeit ein wertvolles Gut, das man in bestimmten Fällen schützen muss...
Gerade in diesem Bereich, sehe ich eine Marktlücke, die wenn man es geschickt umsetzt selbst Roland gefährlich werden könnte(man muss schneller als Roland handeln).
Zitat von buff
Linux mit Realtime-Kernel hat auf jeden Fall viel Potential, ich hatte selber auch mal vor einiger Zeit damit rumprobiert und kam bei Tests auf einem Atom-Board (lüfterlos) mit Onboard-Soundkarte auf (nachgemessene) 1,3ms Latenz zwischen Eingang des Midi-Signals und der Soundausgabe.
Sehr schön noch ein Linuxer, die Welt ist ja doch nicht so klein . Schön was du schon mit dem Atom-Board erreicht hast, da werde ich ja noch zuversichtlicher mit meinem Vorhaben das mal mit einem Odroid X2 zu probieren.
Da man ja auch noch einen Quadcore bei dem Odroid x2 hat, und dadurch theoretisch einen kompletten Kern für die Soundausgabe nutzen kann, sollte latenztechnisch vielleicht noch mehr drinnen sein.
Aber ich glaube das, dass Programm von jeffg, welches ich heute getestet habe schon mehr als ausreicht(2%CPU Last, bei 1 Sample Framesize und 96khz, ich kanns immer noch nicht ganz glauben...).
Vielleicht willst du es mal damit versuchen. Das Salamander Kit klingt schon recht ordentlich, Qualität vergleichbar mit EzDrummer, nur sehr trockener Sound(die Snare ist der Knüller ).
Das Ziel was jeffg erreichen möchte, ist ein einfach bedienbarer extrem schneller/effizienter/ressourcensparender Echtzeit-Drumsampler, also eigentlich genau das was wir unter anderem suchen.
Mein Traum/Ziel ist es ja irgendwie, etwas in Richtung Raspberry Pi/Odroid X2 zum Laufen zu bringen, welches mit einer ADC(Multiplexer)-Leiste die Triggereingänge in entsprechende Informationen verarbeitet, diese dann in Echtzeit entsprechende Samples aus dem RAM picken, und ausgeben. Dazu noch einfach bedienbare Möglichkeiten wie Bleeding oder Effekte(EQ/Kompressor), ähnlich wie in Superior Drummer.
Und fertig ist der Roland-E-Drum-Modul-Killer.
Hat jemand Lust in dem Bereich Karriere zu machen?
Wie schon oben mal angedeutet, versuche ich mal in den Semesterferien mein Set mit Samples abzunehmen, selbst wenn ich dabei lange nicht auf die Qualität des Superior Drummer komme, ist das Ganze wie du ja schon meintest, ein guter Erkentnisgewinn. Auch auf das Recording an sich bezogen, da ich, wie ich zugeben muss noch keine Erfahrung in dem Bereich habe...
Außerdem: Wer kann schon auf seinem E-drum Set sein eigenes akkustisches Set spielen .
Gruß
Philipp