Archiv verlassen und diese Seite im Standarddesign anzeigen : Wird der Computer eines Tages ganze Orchester ersetzen können?
Eines vorweg, in diesem Thread geht es nicht darum einfach fertige Audio CDs abzuspielen, sondern diese zu erstellen.
Nun aber zum Thema.
Heutzutage braucht man ganze Orchester um Audioaufnahmen für Filme und Audio-CDs erstellen zu können, aber theoretisch könnte man auch diese Audioaufnahmen von einem Computer erstellen lassen.
Technisch gesehen reicht dafür der für nahezu perfekte Instrumente notwendige RAM Bedarf heute noch nicht aus, aber das könnte demnächst durchaus möglich sein.
Wie muß man sich das vorstellen?
Nun, mithilfe der Midi Schnittstelle ist es möglich einen Computer mit den richtigen Eingabedaten zu füttern, prinzipiell reicht dafür ein Keyboard, Midi Editor und die Noten für das gespielte Stück aus.
Aber die Soundsamples sind dafür heutzutage noch in unzureichender Qualität oder benötigen pro Instrument einfach zu viel Speicherplatz wenn die Qualität der eines richtigen Instruments entsprechen sollte.
Zwar gibt es durchaus brauchbare Soundsamples von diversen Instrumenten,
aber für ein Orchester und um echte Instrumente zu ersetzen genügen die noch nicht oder diejenigen, die genügen brauchen zu viel Platz.
Von was für Soundsamples reden wir?
Im Prinzip sind ideale Soundsamples die überhaupt in Frage kommen um ein gutes richtiges Musikinstrument zu ersetzen solche, die mit einer Abtastfrequenz von 96 KHz@32 Bit aufgezeichnet wurden, mindestens im Stereoformat vorliegen und dabei von jedem Ton in allen Stimmlage mit verschiedener Anschlagdynamik und Tonlänge mehrere große Sampleaufnahmen vorliegen.
Alle diese Soundsamples werden nun zu einem Soundfont zusammengefaßt
und wenn der Soundfont noch mehrere Instrumente beinhalten soll, dann kommen noch weitere Soundsamples dazu.
Ein einziges solches Soundfont das ein echtes Instrument ersetzen kann
gehört zur Klasse des Gigasampler Format und diese nehmen heutzutage Dateigrößen von 1000 MB ein und diese 1000 MB entsprechend dabei nur einem Instrument.
Das ist der Grund, warum bisherige Soundfonts, wie man sie als kleine Dateien von 4-8 MB Größe kennt oder bestenfalls auch mal 100-200 MB, nicht genügen.
Bei denen wird nämlich getrickst, die Abtastfrequenz ist z.B. zu niedrig oder es gibt nur von jedem 12. Ton ein Sample mit nur einer Anschlagdynamik, bei dem dann die anderen Töne und Anschlagdynamiken künstlich durch eine Änderung der Abspielgeschwindigkeit usw. simuliert und erzeugt werden.
Und diese schlechten Soundfonts beinhalten dann auch noch oft gleich mehrere Instrumente und brauchen dann oft nicht mehr als 8-100 MB.
Ein richtiges modernes Orchester aber besteht aus 40 Instrumentenarten und
von jeder Instrumentenart gibt es dann noch 1-16 weitere Instrumente.
siehe auch:
http://en.wikipedia.org/wiki/Orchestra
D.h. um jedes Instrument in einem modernen Orchester wiederzugeben bräuchte man mindestens 40 GB an Arbeitsspeicher, wenn die Soundsamples eines Instruments etwa genau 1 GB groß wären.
Also eine RAMgröße, an der momentan jeder Durchschnittsrechner noch scheitert, es sei denn, man verwendet einen Rechner pro Instrument, was aber schwierig ist, da man in Echtzeit diese auf genau eine Zeit synchronisieren müßte, damit sie nicht aus dem Takt laufen.
So etwas ist leider auch via Ethernet nicht trivial.
Aber das ist noch nicht alles, denn man müßte ja nicht nur 40 Instrumente spielen, sondern genau 110 und haben einige gleich noch mehr Stimmen.
Ein Klavier oder Streichinstrument kann gleichzeitig z.B. mehr Stimmen wiedergeben als eine Trommel.
D.h. also man hätte 110 Instrumente mit vielleicht geschätzt 500-700 Stimmen und bräuchte eine Arbeitsspeicherkapazität von 40 GB.
Das alles kann ein heutiger Rechner noch nicht, aber wir stehen kurz davor das das in wenigen Jahren möglich sein könnte.
Geht man also davon aus, daß man nur den Komponist benötigt, der den Computer füttert und nimmt man an, daß es für jedes notwendige Instrument ein 1 GB großes Soundfont gibt dann wäre damit ein ganzes menschliche Orchester zumindest für die Audio-CD und Filmaunahme ersetzbar.
Lediglich bei Live Vorführungen wie Konzerten könnte das anders aussehen, denn die Zuhöhrer wollen in diesen Fällen ja auch das spielende Orchester sehen.
Bei einer Audio CD ist das aber nicht von belang.
Also, was meint ihr?
Wäre ein oder mehrere Computer bald in der Lage ein ganzes Orchester zu ersetzen?
urpils
2009-05-27, 06:54:59
ich will nicht sagen, dass man mit Computern keine ausreichend gute Imitation eines Orchesters hinbekommt (gibt da ja relativ gute Beispiele, wo es nicht direkt auffällt), aber (und das ist das wichtige) - das ist keine Zahlenspielerei und Mathematik.
Das tolle an Musikern ist, dass sie Gefühle, eigenes Talent, verschiedene Instrumente und - ja, das ist auch wichtig) kleine Fehler einbauen. All dies kann man am Computer nicht kopieren und dies macht Musik (wenn sie gut ist) zu etwas besonderem.
Bei nem Livekonzert geht es auch nicht darum, das Orchester zu sehen, sondern den Klang zu erleben - es ist einfach nciht möglich das mit Lautsprechern zu imitieren.
also:
ausreichend gute Imitationen gibts heute schon, aber es wird niemals Orchester ersetzen können, weil das nicht nur Notenabspielroboter sind, sondern (wenn sie gut sind) viel mehr hineinlegen, als es ein Programm je könnte.
Bei nem Livekonzert geht es auch nicht darum, das Orchester zu sehen, sondern den Klang zu erleben - es ist einfach nciht möglich das mit Lautsprechern zu imitieren.
Wenn man für jedes Instrument eine Klangquelle, also ein oder 2 Lautsprecher vorsieht, dann sollte es aber durchaus möglich sein.
Lediglich wenn man alle Klänge zusammenschaltet und auf sagen wir mal 7 Lautsprechern ausgiebt, mag das anders aussehen.
also:
ausreichend gute Imitationen gibts heute schon, aber es wird niemals Orchester ersetzen können, weil das nicht nur Notenabspielroboter sind, sondern (wenn sie gut sind) viel mehr hineinlegen, als es ein Programm je könnte.
Aber ist das nicht nur eine Frage wie gut man den Computer mit Daten füttert?
Auch mit Musiksoftware kann man leichte Abweichungen in die Musik reinbauen.
Kann er heute schon, siehe
Vienna Symphonic Library (http://vsl.co.at/de/)
http://www.sueddeutsche.de/wirtschaft/742/343583/text/
PROJECT SAM Symphobia (http://www.projectsam.com/Products/Symphobia/)
Roland hat aktuell das V-Piano herausgebracht, was eine Revolution darstellt, da es nicht, wie herkömmlich, mit Samples, sondern mit einer Simulation per Prozessoren, arbeitet. Diverse Emulationen und Simulationen gibt es mittlerweile auch für Blechblasinstrumente, was bisher als sehr schwierig galt.
Fazit, der Computer kann es bereits heute, und wird vielfach in Produktionen für TV, Film und Werbung bereits so eingesetzt (Kostenersparnis). In großen Filmproduktionen werden heute noch richtige Orchester eingesetzt, deren Einsatzgebiet ist jedoch deutlich in diesem Bereich start eingeschrumpft. Nur ist es nicht ein Computer, sondern richtig potente Server und Serverfarmen mit zig Terabytes-Plattenspeicher, viel Ram und Multicore-Prozessoren. Mittlerweile gibt es zig Programme, die ohne Schwierigkeiten per Gigabit-Ethernet verteilt ihre Sounds abspielen können (bzw. das verteilte System stellt lediglich Prozessoren, Platte und Ram zur Verfügung), abgespielt wird auf dem Hostsystem (z.B. Vienna Ensemble 3 und Vienna Suite (http://vsl.co.at/de/211/497/90.vsl) ). Ist schon seit mehreren Jahren ein alter Hut (siehe FX Teleport (http://de.wikipedia.org/wiki/FX_Teleport)). Durch geschicktes Streaming und Verteilen sind heute sehr viel Stimmen möglich, zudem gibt es dann immer auch die Möglichkeit, eine Spur zu freezen (so heißt es in Cubase), spricht das Instrument wird dann fertig als Audiodatei abgelegt, und nicht mehr in Echtzeit erzeugt.
Aber die Samples werden mittlerweile mehr und mehr durch Emulationen und Simulationen abgelöst, da die Prozessoren mittlerweile leistungsfähig genug sind.
Das tolle an Musikern ist, dass sie Gefühle, eigenes Talent, verschiedene Instrumente und - ja, das ist auch wichtig) kleine Fehler einbauen. All dies kann man am Computer nicht kopieren und dies macht Musik (wenn sie gut ist) zu etwas besonderem.
:
also:
ausreichend gute Imitationen gibts heute schon, aber es wird niemals Orchester ersetzen können, weil das nicht nur Notenabspielroboter sind, sondern (wenn sie gut sind) viel mehr hineinlegen, als es ein Programm je könnte.
Falsch, Du bist definitiv nicht auf dem aktuellsten Stand. In jedem Sequenzer gibt es sogenannte Groove-Funktionen, die genau das simulieren, was Du bemängelst. Du als Laie wirst definitiv keinen Unterschied mehr heraushören. Diese Groove-Funktionen (jeder Hersteller nennt sie anders) könnten, je nach Einstellungen und Parameter, den Ton bzw. Takt versetzen, und sogar leichte Verspieler reinbringen.
NameLessLameNess
2009-05-27, 13:09:00
Falsch, Du bist definitiv nicht auf dem aktuellsten Stand. In jedem Sequenzer gibt es sogenannte Groove-Funktionen, die genau das simulieren, was Du bemängelst. Du als Laie wirst definitiv keinen Unterschied mehr heraushören. Diese Groove-Funktionen (jeder Hersteller nennt sie anders) könnten, je nach Einstellungen und Parameter, den Ton bzw. Takt versetzen, und sogar leichte Verspieler reinbringen.
Und wer stellt diese Unregelmässigkeiten im Sequenzer ein? Ich glaube darauf wollte er hinaus.
urpils
2009-05-27, 13:13:17
Wenn man für jedes Instrument eine Klangquelle, also ein oder 2 Lautsprecher vorsieht, dann sollte es aber durchaus möglich sein.
Lediglich wenn man alle Klänge zusammenschaltet und auf sagen wir mal 7 Lautsprechern ausgiebt, mag das anders aussehen.
nein - Lautsprecher können rein aus physikalischen Gesetzen heraus nur eingeschränkt Schall wiedergeben. Bei teuren sind Fehler und Probleme vielleicht reduziert - aber es ist unmöglich einen perfekten Lautsprecher zu bauen.
Also kann ein Instrument per Lautsprecher nie so klingen wie ein echtes Instrument.. und selbst WENN es nur Nuancen sind - Liebhaber/Audiophile/... werden es merken und dementsprechend kann ein Orchester nicht ersetzt werden.
und zum darauf folgenden Post:
ich sagte ja, dass man das heute schon relativ ordentlich kann. (im ersten Moment fällt es auch nciht auf - aber den Vergleich mit nem richtigen (guten ) Orchester hält es dann doch nicht stand.
Nun aber zum Thema.
Heutzutage braucht man ganze Orchester um Audioaufnahmen für Filme und Audio-CDs erstellen zu können, aber theoretisch könnte man auch diese Audioaufnahmen von einem Computer erstellen lassen.
Technisch gesehen reicht dafür der für nahezu perfekte Instrumente notwendige RAM Bedarf heute noch nicht aus, aber das könnte demnächst durchaus möglich sein.
Das wird heute durchaus schon gemacht, wie man in diversen making-ofs sieht.
Die sounds können ja offline gerendert werden, weshalb die benötigten ressourcen keine so wahnsinnig große rolle spielen.
RaumKraehe
2009-05-27, 13:30:15
Also der Computer hat schon vor 10 Jahren ganze Orchester ersetzt. Ich verstehe die Frage irgend überhaupt nicht.
Das ist doch alles schon ein sehr sehr alter Hut.
Argo Zero
2009-05-27, 13:32:41
Der Computer wird es nie schaffen :)
Der Klang eines Orchester, der einzelnen Instrumente müsste man simulieren.
Dann spielt der Faktor Raum eine Rolle nicht zu sprechen von den einzelnen Instrumenten und ihr Alter. Dann spielt jeder Mensch anders..
Ich meine, wenn man einen Computer hat mit Zufallsgenerator, Raummesser, Temperaturfühler usw.. dann vielleicht irgendwann ;)
NameLessLameNess
2009-05-27, 13:33:49
Versteh ichs falsch oder gehts ihm auch ums komponieren ansich?
RaumKraehe
2009-05-27, 13:47:22
Versteh ichs falsch oder gehts ihm auch ums komponieren ansich?
Wenn es um das Komponieren gehen würde dann frage ich mich was das Wort Orchester dann hier zu suchen hat denn das hat mit dem Komponieren von Musik ja rein gar nichts zu tun.
RaumKraehe
2009-05-27, 13:52:25
Der Computer wird es nie schaffen :)
Der Klang eines Orchester, der einzelnen Instrumente müsste man simulieren.
Dann spielt der Faktor Raum eine Rolle nicht zu sprechen von den einzelnen Instrumenten und ihr Alter. Dann spielt jeder Mensch anders..
Ich meine, wenn man einen Computer hat mit Zufallsgenerator, Raummesser, Temperaturfühler usw.. dann vielleicht irgendwann ;)
Dann frage ich mich wie dann der Ton auf meine billig-Klassik-CDs gekommen ist auf denen auch expliziet steht das alles aus dem Computer kommt.
Und natürlich hört sich das anders an als wenn richtige Menschen spielen würden. Raumakustiken können Problemlos simuliert werden. Da sehe ich nicht das Problem.
Aber selbst das sich durch Computer generierte Musik eben seelenlos anhört stört ja scheinbar die wenigsten Menschen auf dieser Welt. Naja, kein wunder das solcher Schrott wie Lady Gaga populär ist. :(
Also, um es mal zusammzufassen: Der Computer wird nie wie das Londoner Symphonieorchester spielen, aber er spielt schon seit Jahren Musik in Orchesterbesetzung für Film und Fernsehen oder Games ein. Alles kein Problem.
sun-man
2009-05-27, 14:26:43
Also so irre selten sind 40Gig Arbeitsspeicher nun auch nicht gerade. Zu Hause vielleicht, aber sonst doch eher Alltag bei mir. Egal ob ne T2000 oder ne olle Sun Fire 15K Domain - nur gehen da vermutlich keine Soundkarten.
rtroot@server[/] # prtdiag -v
System Configuration: Sun Microsystems sun4u Sun Fire 15K
System clock frequency: 150 MHz
Memory size: 81920 Megabytes
========================= Memory Configuration =========================
Logical Logical Logical
Port Bank Bank Bank DIMM Interleave Interleave
Slot ID ID Number Size Status Size Factor Segment
----------- ---- ------- ------- -------- ------ ---------- ----------
/SB00/P0/B0 0 0 1024MB okay 512MB 16-way 0
/SB00/P0/B1 0 1 1024MB okay 512MB 16-way 0
/SB00/P0/B0 0 2 1024MB okay 512MB 16-way 0
.
.
.
.
wird hier nur alles aufgezählt, hab ich gecutet.
Davon hab ich hier 30 oder 40 Kisten rumstehen.
NameLessLameNess
2009-05-27, 15:03:59
Wenn es um das Komponieren gehen würde dann frage ich mich was das Wort Orchester dann hier zu suchen hat denn das hat mit dem Komponieren von Musik ja rein gar nichts zu tun.
Ich denk schon das dies eher die Herausforderung ist, als das simulieren der "analogen" Instrumente und Spieler. Das ist ja eh nur ne Sache der Akustik. Und wie alt ein bestimmtes Instrument ist und welche Klangfarbenänderungen sich dadurch ergeben kann man auch festhalten und damit ne Datenbank füttern.
Gibt ja schon nen Roboter, der wohl exakt so das Klavier nachspielt wie es vorher nen realer Klavierspieler vorgespielt hat. Fehlt nur noch die KI die nach der Harmonielehre mal selbst was komponiert. Nen Ballermann-Chartbreaker kann man ja heut schon automatisieren und auswürfeln lassen auf einen Knopfdruck.
_Gast
2009-05-27, 15:23:08
Aber selbst das sich durch Computer generierte Musik eben seelenlos anhört stört ja scheinbar die wenigsten Menschen auf dieser Welt.In Zeiten, in denen die allermeisten Menschen MP3s und Youtube-Klänge für das höchste der Gefühle halten und eine CD als das Optimum betrachten, klingen auch künstliche Orchester wunderbar.
Echte Orchester werden vermutlich, wie bisher auch, nur einen kleinen interessierten Kreis von Zuhörern erreichen.
Und wer stellt diese Unregelmässigkeiten im Sequenzer ein? Ich glaube darauf wollte er hinaus.
Na ja, mit entsprechender neuronaler Logik sollte das wohl bald auch kein Thema sein, daß die Dinger das auch selbst gut können.
Es gab doch vor Jahren auch mal eine Computersoftware, die selbst komponierte, ich finde dazu aber gerade nichts im Netz.
Aber selbst das sich durch Computer generierte Musik eben seelenlos anhört stört ja scheinbar die wenigsten Menschen auf dieser Welt.
Was soll da auch für ein großer unterschied bei leistbaren Boxen bzw. Kopfhörern sein?
Klar macht es einen unterschied wenn man ein solches orchester live sieht bzw. anhört, genauso wie es einen unterschied macht ob man musik am ipod oder auf einem konzert hört, aber wenn das ganze eh für den heimgebrauch auf CD/DVD gepresst wird ist es doch letztendlich egal ob die quelle ein echtes instrument oder computergeneriert ist.
Argo Zero
2009-05-27, 19:22:20
Gute Kopfhörer kosten nun wirklich nicht die Welt.
Und wer stellt diese Unregelmässigkeiten im Sequenzer ein? Ich glaube darauf wollte er hinaus.
Die Software natürlich.
Man wählt ein Instrument aus und gibt ihm über die Zeit verteilt ein paar Groove Abweichungen und fertig ist der menschliche Musiker der aber nur Virtuel ist.
Versteh ichs falsch oder gehts ihm auch ums komponieren ansich?
Wenn du meinst daß es hier ums komponieren geht, dann hast du die Frage natürlich falsch verstanden.
Komponieren ist immer noch eine Schöpferische Tätigkeit und die kann ein Computer nicht.
Die fertige Komposition abzuspielen, darum geht es.
Dann frage ich mich wie dann der Ton auf meine billig-Klassik-CDs gekommen ist auf denen auch expliziet steht das alles aus dem Computer kommt.
Und natürlich hört sich das anders an als wenn richtige Menschen spielen würden.
Apfel Birnen Vergleich.
Allein die Audio CD hat schon qualitative Mängel.
Mit der Abtastfrequenz von nur 44 KHz @ 16 Bit und nur Stereo fängt es schon an.
Eine DVD-Audio hat hier 96 KHz @ 24 Bit und das in 7.1 Surround womit auch ein ganzes Orchester ins Wohnzimmer gebracht werden kann.
Und dann wäre da ja noch die Frage wie alt deine Audio CD ist.
Das man früher versucht hat Orchester mit dem Computer zu simulieren ist ja bekannt, aber vor wenigen Jahren waren die Samples auch noch deutlich kleiner und somit viel schlechter.
Früher waren das vielleicht 100 MB, heute sind es 40 GB an Sampledaten.
Da liegen Welten dazwischen.
Die Beispielmusik von obigem Viennamusik klingt schon sehr ordentlich.
(Tipp: Die wav Datei downloaden und diese abspielen!)
Aber selbst das sich durch Computer generierte Musik eben seelenlos anhört stört ja scheinbar die wenigsten Menschen auf dieser Welt. Naja, kein wunder das solcher Schrott wie Lady Gaga populär ist. :(
Eigentlich will man, daß menschliche Orchester fehlerfrei und somit perfekt spielen.
Der Computer kann genau das.
Und der Holodoc aus Star Trek Voyager ist schon heute überholt, man braucht ihn nicht von der Voyager entführen nur weil man künstlich vom Computer generierte Musik hören möchte.
Also, um es mal zusammzufassen: Der Computer wird nie wie das Londoner Symphonieorchester spielen,
Der Computer ersetzt heute schon ganze 3d Landschaften und die Orchester wird er auch ersetzen können.
Es ist doch nur eine Frage des Rechenaufwands und der mathematischen Algorithmen und ihrer Lösbarkeit bei gegebener Rechenleistung.
lumines
2009-05-27, 21:37:56
Eine DVD-Audio hat hier 96 KHz @ 24 Bit und das in 7.1 Surround womit auch ein ganzes Orchester ins Wohnzimmer gebracht werden kann.
sagt dir raumakustik etwas?
könnte man mit KHs und binuralen aufnahmen umgehen, aber auch da hört man die unterschiede noch recht deutlich.
sagt dir raumakustik etwas?
könnte man mit KHs und binuralen aufnahmen umgehen, aber auch da hört man die unterschiede noch recht deutlich.
Raumakustik kann auch mit dem Computer simuliert werden, schon im Spielebereich ist das möglich nur würde es für professionelle Musik noch viel besser gehen.
Alles was man dann zum Schluß noch braucht ist ein guter Kopfhörer und die kosten heute auch nicht mehr viel.
Gute Kopfhörer kosten nun wirklich nicht die Welt.
Und trotzdem ist es egal, ob die musik nun aus dem computer oder aus einem instrument stammt, das instrument hörst du nämlich in beiden fällen nicht, die musik macht immer dein kopfhörer.
RaumKraehe
2009-05-27, 22:53:01
Apfel Birnen Vergleich. ....
Also wenn mann sich nen bissl mit dem Musik machen mit Computern beschäftigt dann stolpert man recht schnell über recht heftiges Equipment, was aber im Kern nichts weiter ist als nen Rechner mit spezialisierter Hardware. (voll digitale Mischpulte mit Samplern und 32 Track Recorder. usw.)
Früher, damals? Ich hatte schon 98-99 zugriff auf Sampelbanken von Steinberg-Pianos die mal eben 512MB-1GB groß waren. Das ist 10 Jahre her. Und wer sich mal mit Programmen wie Cubase oder Logic beschäftigt hat das weiß das die gemasterte und finale Version nicht in "Echtzeit" gemischt werden muss sondern quasi "Audio-Gerendert" wird. Wenn die Leistung des Rechners nicht ausreicht kann man halt partiell Spuren bearbeiten. Das Prinzip erlaubte auch schon vor 10 Jahren Orchester Besetzungen durch Computer spielen zu lassen. Hey, kein Filmmusiker wird heute ohne Rechner arbeiten.
Und wenn das noch alles in Echtzeit passieren soll dann nimmt man halt genug Sampler gesteuert durch einen Zentralrechner.
Und ich denke nicht das man von menschlichen Musikern erwartet das sie "perfekt spielen". Nein. Die sollen mal schön mit Gefühl spielen. Das ist viel interessanter und wichtiger.
Früher, damals? Ich hatte schon 98-99 zugriff auf Sampelbanken von Steinberg-Pianos die mal eben 512MB-1GB groß waren. Das ist 10 Jahre her.
Meine Soundkarte konnte damals gar keine so große Sampledatenbanken laden.
Bis 64 MB waren theoretisch möglich, aber nur wenn man das RAM von 2 auf 64 MB nachrüstete und meine Audigy kann heute unter einem 32 Bit OS auch mit ca. maximal 350 MB Soundfonts umgehen.
Mehr geht erst ab 64 Bit und das auch nur unter Windows weil
der Datenweg der Audigy 2 nur 31 Bit Breit ist und der Linuxkernel keine Möglichkeit bietet innerhalb der ersten 2 GByte die Soundfonts abzulegen.
Und wer sich mal mit Programmen wie Cubase oder Logic beschäftigt hat das weiß das die gemasterte und finale Version nicht in "Echtzeit" gemischt werden muss sondern quasi "Audio-Gerendert" wird.
Ich spreche nicht von dieser billigen Art wie man Popmusik zusammenfügt, bei der man einfach mehrere fertige Samples (die auch mehr als nur einen ton beinhalten) addiert und fertig.
Ich spreche von der Ansteuerung einzelner Tonsamples mithilfe von Midisteuersignalen und ein paar propritären Erweiterungen um dann letzten endes aus mehreren Samples die jeweils einen eigenen Ton wiedergeben ein ganzes Stück zu erstellen.
Und so etwas gab es vor 10 Jahren noch nicht weil selbst wenn man die Soundsamples auf CD angeboten hat, die meisten damit eh nichts anfangen konnten weil ihnen der passende Desktoprechner dafür fehlte.
Hey, kein Filmmusiker wird heute ohne Rechner arbeiten.
John Williams macht das bestimmt.
Denn ich glaube nicht das er sich mit Computern besonders gut auskennt.
Fatal!ty Str!ke
2009-05-27, 23:25:54
Alles was man in einem Orchester hört ist Schall. Ein Reiz auf das Menschliche Gehirn. Diese Reize kann man mit Computern nachbilden (Man kann jede beliebige Fequenz und jeden Ton erstellen). Und sehr teure Lautsprecher können Schall und somit diese Reize auf das Gehirn auch perfekt reproduzieren - ohne Einbußen.
Wenn man es so betrachtet, scheint es nur logisch zu sein, dass es mit Computern möglich ist, ein Orchester zu ersetzen.
Also, Computer - kann jeden beliebigen Ton ausgeben - diese Töne können 1:1 auf das Ohr/Gehirn übertragen werden. Allein diese Tatsache stellt klar, dass es theoretisch möglich ist ein Orchester mit dem Computer zu ersetzen.
Schall und Instrumente sind alles nur Physik und die lässt sich berechnen. Und ein Computer kann nun mal gut rechnen. ;)
Und zur Not berechnet man (in 50 Jahren vielleicht) einfach alle Atome des Instruments und der Luft darum Physikalisch korrekt am PC. Dann simuliert man einfach die Luftströme durch das instrument, berechnet die erzeugten Luftwellen und somit den Schall - der Ton kommt automatisch.
Aber die Samples werden mittlerweile mehr und mehr durch Emulationen und Simulationen abgelöst, da die Prozessoren mittlerweile leistungsfähig genug sind.
Sind die inzwischen wirklich schon so gut?
Ich muß noch an die FM Synthese mit dem unsägbaren OPL2 oder OPL3 Chip denken und das war wirklich grauenhaft.
Auch mein uraltes Midi Keyboard hatte einen OPL2 Chip.
Was war ich froh, als ich endlich eine Soundkarte mit Soundfonts und ein 88 Tasten Keyboard mit Hammeranschlag von Studiologic hatte.
Sind die inzwischen wirklich schon so gut?
Die sind sogar saugut. Es ist ein Wahnsinn, was heute Plugins emulieren und simulieren können. Natürlich muß man zu gewissen Teilen Abstriche machen, aber die Möglichkeiten sind enorm. Z.B. kann man beim V-Piano die Saiten, Material der Hammer etc. modifizieren bzw. ändern, so daß ein vollkommen neuer Klang entsteht. Hier liegt ganz klar ein Vorteil in diesen Verfahren, weil sie, im Gegensatz zum Samplingkonzept, viel flexibler und erweiterbarer sind.
Ich muß noch an die FM Synthese mit dem unsägbaren OPL2 oder OPL3 Chip denken und das war wirklich grauenhaft.
Auch mein uraltes Midi Keyboard hatte einen OPL2 Chip.
Was war ich froh, als ich endlich eine Soundkarte mit Soundfonts und ein 88 Tasten Keyboard mit Hammeranschlag von Studiologic hatte.
Tja, dann schau mal in die aktuellen Keys/Keyboards/Sound und Recording etc. rein, Du wirst staunen, was sich da mittlerweile alles getan hat. Gerade die V-Serien von Roland arbeitet so, und es wird weiter gehen. Mittlerweile verwende ich für die Gitarre auch kein Stack/Amp mehr, sondern verwende nur noch Plugins wie ein GuitarRig, Amplitube, Gearbox/Pod Farm etc. Man kann zig Effekte, Amps, Speaker, die Microabnahme, das Micro selbst usw. beliebig austauschen und verwenden. Für Puristen ist das natürlich nichts, aber für Gelegenheitsdudler wie meinereiner ist es schon geil, per Software sehr viele Amps, Boxen und Effekte einfach mal zu verwenden zu können.
Komponieren ist immer noch eine Schöpferische Tätigkeit und die kann ein Computer nicht.
Stimmt nicht, es gibt mittlerweile sehr wohl Computerprogramme, die im Rahmen gewisser Parameter und Vorgaben komponieren können. Gewisse Musikrichtungen haben diverse Regeln, die sich durchaus algorithmisch erfassen lassen.
NameLessLameNess
2009-05-28, 15:00:01
Stimmt nicht, es gibt mittlerweile sehr wohl Computerprogramme, die im Rahmen gewisser Parameter und Vorgaben komponieren können. Gewisse Musikrichtungen haben diverse Regeln, die sich durchaus algorithmisch erfassen lassen.
Ich hatte ja schonmal erwähnt das diese gewissen Parameter (Harmonielehre etc.) nur eine Richtlinie sind. Jemand muss diese Parameter aber erstmal programmieren und da kann dieser jemand auch gleich zum Instrument greifen, was der Rechner ja zwangsläufig ist und auch bleiben sollte.
Worauf der Gast hinauswill ist auch klar, nämlich das kein Programm die Lebenserfahrung und derzeitige Stimmung eines Musikers mit in die Musik einfliessen lassen kann.
Ich hatte ja schonmal erwähnt das diese gewissen Parameter (Harmonielehre etc.) nur eine Richtlinie sind. Jemand muss diese Parameter aber erstmal programmieren und da kann dieser jemand auch gleich zum Instrument greifen, was der Rechner ja zwangsläufig ist und auch bleiben sollte.
Worauf der Gast hinauswill ist auch klar, nämlich das kein Programm die Lebenserfahrung und derzeitige Stimmung eines Musikers mit in die Musik einfliessen lassen kann.
Na ja, ich nehme schon mal an, daß man irgendwann gewisse Lieder analysieren kann, und das ein KI-System ein ähnliches Lied erstellen und komponieren kann. Bei guten Hallsimulationen (Faltungshall) geht man heute ja auch andere Wege, ie Impulsantwort für die Hallerzeugung aus und schafft realistischere Ergebnisse als jedes bisher durch Algorithmen erstellte Hall. Vielleicht kann irgendwann von Musikstücken eine Art Signatur ableiten, welche dann als Kompositionsgrundlage dient.
Aber Du hast natürlich recht, ein Mensch bringt ja viel mehr in die Musik rein als reine Hamonie- und Kompositionslehre.
Meine Soundkarte konnte damals gar keine so große Sampledatenbanken laden.
Bis 64 MB waren theoretisch möglich, aber nur wenn man das RAM von 2 auf 64 MB nachrüstete und meine Audigy kann heute unter einem 32 Bit OS auch mit ca. maximal 350 MB Soundfonts umgehen.
Na ja, das ist ja auch nicht für Musikproduktion gedacht, und hacke ich mal als Spielzeug ab. ;
Ich spreche nicht von dieser billigen Art wie man Popmusik zusammenfügt, bei der man einfach mehrere fertige Samples (die auch mehr als nur einen ton beinhalten) addiert und fertig.
Ich spreche von der Ansteuerung einzelner Tonsamples mithilfe von Midisteuersignalen und ein paar propritären Erweiterungen um dann letzten endes aus mehreren Samples die jeweils einen eigenen Ton wiedergeben ein ganzes Stück zu erstellen.
Was Du beschreibst, ist doch genau das, was diverse Hersteller wie Yamaha, Roland, Alesis, Korg durch Additive Synthese, Articulative Phrase-Synthese, Elastic Audio Synthes usw. schon lange machen (z.B. V-Serie von Roland, OASYS von Korg). Jeder nennt es etwas anderes. Hier haben aber auch schon die Software-Plugins den Hardware-Synthesizern mittlerweile den Rang abgelaufen, weil die Bearbeitung am Computer mittlerweile viel mächtiger und flexibler ist.
Und so etwas gab es vor 10 Jahren noch nicht weil selbst wenn man die Soundsamples auf CD angeboten hat, die meisten damit eh nichts anfangen konnten weil ihnen der passende Desktoprechner dafür fehlte.
In den letzten 10 Jahren ist hier auch eine Menge passiert.
whetstone
2009-05-29, 20:52:42
Heutzutage kann man mit (Physical Modelling) Synths oder Samples sehr viel machen. Zb. entstehen Sountracks für Filme ziemlich oft am Rechner. Der 0815 Hörer würde den Unterschied nicht erkennen. Es gehört natürlich auch viel Arbeit dazu sowas nachzubilden.
http://www.youtube.com/watch?v=1pEAQSVXIMM&feature=related
Trozdem denke ich nicht das es die Ausdrucksstärke und Authenzität eines richtigen Orchestras jemals ersetzen kann. Einige haben vllt sowas mal live gesehn und wissen was da rüberkommt wenn 80+ Leute zusammen musizieren :)
Aja übrigens arbeiten grosse Samplelibaries (Sampler) heute mit Diskstreaming, somit braucht man keine 40Gb RAM .
laurens
2009-05-30, 18:49:45
Trozdem denke ich nicht das es die Ausdrucksstärke und Authenzität eines richtigen Orchestras jemals ersetzen kann. Einige haben vllt sowas mal live gesehn und wissen was da rüberkommt wenn 80+ Leute zusammen musizieren
Richtig. Und dann kommt noch hinzu, dass jedes Orchester, jeder Solist (ich denke hier vor allem an Klassik und Jazz, weil es mir wichtig ist) ein Musikstück live niemals gleich spielt. Sie haben zwar meist ihre eigenen Charakteristiken der Interpretation, trotzdem ist es immer anders.
Dazu noch die Live-Stimmung und Umgebung.. ist in meinen Ohren und Augen unverzichtbarer Genuss.
Muso12
2009-10-04, 23:24:49
Na ja, das ist ja auch nicht für Musikproduktion gedacht, und hacke ich mal als Spielzeug ab. ;
Was Du beschreibst, ist doch genau das, was diverse Hersteller wie Yamaha, Roland, Alesis, Korg durch Additive Synthese, Articulative Phrase-Synthese, Elastic Audio Synthes usw. schon lange machen (z.B. V-Serie von Roland, OASYS von Korg). Jeder nennt es etwas anderes. Hier haben aber auch schon die Software-Plugins den Hardware-Synthesizern mittlerweile den Rang abgelaufen, weil die Bearbeitung am Computer mittlerweile viel mächtiger und flexibler ist.
In den letzten 10 Jahren ist hier auch eine Menge passiert.
VST-Plugins bieten mir nicht den Fun und Inspiration wie richtige Instrumente.
Was stimmt, das Midisequencing und Audiorecording am PC schneller und Komfortabler geht. 50 Gbyte sample Libralys brauche allerdings ich nicht da ich davon eh nur ein Bruchteil verwenden würde. Was Sound und Inspiration
angeht bevorzuge ich nachwievor Spezialisierte Geräte. Wer sich mal eine
Korg Oasys oder den Spectralis II angehört hat weiß was ich meine.
RaumKraehe
2009-10-05, 00:11:39
Meine Soundkarte konnte damals gar keine so große Sampledatenbanken laden.
Bis 64 MB waren theoretisch möglich, aber nur wenn man das RAM von 2 auf 64 MB nachrüstete und meine Audigy kann heute unter einem 32 Bit OS auch mit ca. maximal 350 MB Soundfonts umgehen.
Mehr geht erst ab 64 Bit und das auch nur unter Windows weil
der Datenweg der Audigy 2 nur 31 Bit Breit ist und der Linuxkernel keine Möglichkeit bietet innerhalb der ersten 2 GByte die Soundfonts abzulegen.
Ich spreche nicht von dieser billigen Art wie man Popmusik zusammenfügt, bei der man einfach mehrere fertige Samples (die auch mehr als nur einen ton beinhalten) addiert und fertig.
Ich spreche von der Ansteuerung einzelner Tonsamples mithilfe von Midisteuersignalen und ein paar propritären Erweiterungen um dann letzten endes aus mehreren Samples die jeweils einen eigenen Ton wiedergeben ein ganzes Stück zu erstellen.
Und so etwas gab es vor 10 Jahren noch nicht weil selbst wenn man die Soundsamples auf CD angeboten hat, die meisten damit eh nichts anfangen konnten weil ihnen der passende Desktoprechner dafür fehlte.
John Williams macht das bestimmt.
Denn ich glaube nicht das er sich mit Computern besonders gut auskennt.
Mann muss, um Musik mit einem Computer zu machen sich gar nicht mit Computern auskennen. Das du Cubase und Logci als Sampel-Baukästen ansiehst zeigt mir dein thematische Wissen auf. Und das scheint gleich null zu sein.
Genau dein Ansteuern per Midispuren war vor 10 Jahren kein Problem. Und Desktoprechner brauchte man dafür schlicht nicht wirklich weil es didzierte Hardware dafür solche Sample CDs gab und auch heute noch gibt.
Und kommt bitte nicht mit Soundblaster und Co. Das ist keine Hardware zum Musik machen. ;)
Auch die 96khz Samplingrate der DVDs ist doch voll für den Arsch. Ich will mal deine Boxen und deine Analage sehen die in der Lage ist 96/2= 48khz Töne von sich zu geben. :rolleyes:
Ich will mal deine Boxen und deine Analage sehen die in der Lage ist 96/2= 48khz Töne von sich zu geben. :rolleyes:
Und ich will mal (menschliche) Ohren sehen die das hören können ;)
HeldImZelt
2009-10-06, 03:56:49
Darum geht es dabei eigentlich auch nicht. Man erhöht lediglich die Abtastrate, um die höheren (hörbaren) Frequenzen sauberer abzutasten, um Verfälschungen der Pulse Code Modulation zu minimieren. Die Abtastauflösung pro Amplitude ist anti-proportional zur Frequenz (Tonhöhe). Bei 44.1kHz wird eine 100Hz Amplitude mit 441 Samples und 14kHz mit nur noch 3.15 Samples abgetastet. Je nachdem wo man die Welle bei solch niedrigen Abtastraten trifft, treten entsprechende Abweichungen (Jitter) auf. Theoretisch käme beim samplen eines Tons von 22.05kHz und einer Phasenverschiebung von 90° nur Stille raus, weil nicht an Hoch- und Tiefpunkt, sondern genau jeweils am Nullpunkt gesampled würde. Das Erhöhen auf 96kHz kommt demnach auch den hörbaren Frequenzen zugute.
http://www.abload.de/img/samplerate1fhms.png http://www.abload.de/img/samplerate2vdq4.png
Dass das Programm bei 22.05kHz eine Sinuskurve zeigt ist an sich falsch. Streng genommen müsste es ein Sägezahn sein. Interpolation und Oversampling, die Ausgangsamplituden rekonstruieren sollen, verlaufen in der Praxis nicht so optimal wie in diesem synthetischen Beispiel.
@HeldImZelt :up: Genau und so und nicht anders. Und so macht es auch Sinn, bei Aufnahmen 24 Bit oder mehr zu verwenden ( Cubase arbeitet intern mit 32 Bit), um schlichtweg mehr Headroom zu haben und um Clipping zu vermeiden, wenn beim Mix viele Instrumente sich verstärken.
RaumKraehe
2009-10-06, 16:27:51
Da die meisten Menschen nicht mal Töne über 12-13 Khz höhren können ist das zwar ein nettes Feature das in Messreihen sicher tolle Ergebnisse leifert aber in der Praxis beim Endverbraucher nicht ankommt bzw schon gar nicht gehört wird. :(
HeldImZelt
2009-10-06, 17:17:56
Da die meisten Menschen nicht mal Töne über 12-13 Khz höhren können ist das zwar ein nettes Feature das in Messreihen sicher tolle Ergebnisse leifert aber in der Praxis beim Endverbraucher nicht ankommt bzw schon gar nicht gehört wird. :(
Du hast es nicht verstanden. Die zwangsläufige Erhöhung des hörbaren Frequenzspektrums ist nur ein irrelevanter Nebeneffekt.
@HeldImZelt :up: Genau und so und nicht anders. Und so macht es auch Sinn, bei Aufnahmen 24 Bit oder mehr zu verwenden ( Cubase arbeitet intern mit 32 Bit), um schlichtweg mehr Headroom zu haben und um Clipping zu vermeiden, wenn beim Mix viele Instrumente sich verstärken.
Klar ist es Sinnvoll während der Bearbeitung höhere Genauigkeiten zu verwenden, für das Endprodukt aber nicht.
RaumKraehe
2009-10-07, 02:21:56
Du hast es nicht verstanden. Die zwangsläufige Erhöhung des hörbaren Frequenzspektrums ist nur ein irrelevanter Nebeneffekt.
Doch habe ich sehr wohl. Was nutzt mit eine "jitter" und "clipping" Reduzierung wenn sie in Bereichen stattfindet die ich rein physich nicht hören kann? Ich habe sehr lange selber Musik mit dem PC gemacht und ja, in der internen Verarbeitung habe ich auch immer auf die höchste mögliche Freuquenz gesetzt. Das ist ja auch ok.
Ich frage ja nur welche Verbesserung in dem sinne Sound einer DVD bringen soll der dort mit 96khz vorliegt? In meine Augen schlicht keinen.
Wolfram
2009-10-07, 02:45:12
Wäre ein oder mehrere Computer bald in der Lage ein ganzes Orchester zu ersetzen?
Weder jetzt, noch irgendwann. Das ist unmöglich. Weil Computer keine Menschen sind.
Du wirst natürlich irgendwann den Sound eines akustischen Instruments ununterscheidbar nachbilden können. Du wirst auch ein entsprechendes Eingabegerät bauen können. Aber Du kannst prinzipiell nicht den Musiker nachbilden oder ersetzen. Weil die Art, wie er Musik spielt, durch Gefühle bestimmt wird, und Computer können Gefühle nicht nachbilden.
Das menschliche Gehirn ist die komplexeste Strukur im Universum, wir verstehen es nicht annähernd, geschweige denn, daß wir Gehirnfunktionen adäquat nachbilden könnten. Maschinen, die das leisten könnten, müßten selbst denken und fühlen können. Und wären damit keine Maschinen mehr.
Und wer Orchestermusik fern steht, der möge mir doch mal eine Simulation eines x-beliebigen Motörhead-Songs liefern...:rolleyes:
Fetza
2009-10-07, 07:08:48
Weder jetzt, noch irgendwann. Das ist unmöglich. Weil Computer keine Menschen sind.
Du wirst natürlich irgendwann den Sound eines akustischen Instruments ununterscheidbar nachbilden können. Du wirst auch ein entsprechendes Eingabegerät bauen können. Aber Du kannst prinzipiell nicht den Musiker nachbilden oder ersetzen. Weil die Art, wie er Musik spielt, durch Gefühle bestimmt wird, und Computer können Gefühle nicht nachbilden.
Das menschliche Gehirn ist die komplexeste Strukur im Universum, wir verstehen es nicht annähernd, geschweige denn, daß wir Gehirnfunktionen adäquat nachbilden könnten. Maschinen, die das leisten könnten, müßten selbst denken und fühlen können. Und wären damit keine Maschinen mehr.
Und wer Orchestermusik fern steht, der möge mir doch mal eine Simulation eines x-beliebigen Motörhead-Songs liefern...:rolleyes:
Bin da ganz deiner meinung, technisch ist es doch heutzutage schon kein problem mehr, ein symphonieorchester am computer nachzubilden. Aber der musik "seele" zu geben, vermag nur der mensch.
Weder jetzt, noch irgendwann. Das ist unmöglich. Weil Computer keine Menschen sind.
Ach und Menschen sind die einzigen die Musik machen können?
Ganz schön eingebildet findest du nicht?
Das menschliche Gehirn ist die komplexeste Strukur im Universum,
Wirklich? Wo warst du denn schon überall im Universum um das behaupten zu können?
Maschinen, die das leisten könnten, müßten selbst denken und fühlen können. Und wären damit keine Maschinen mehr.
Sind Menschen doch eigentlich nichts anderes als biologische Maschinen?
RaumKraehe
2009-10-07, 12:42:34
Weder jetzt, noch irgendwann. Das ist unmöglich. Weil Computer keine Menschen sind.
Du wirst natürlich irgendwann den Sound eines akustischen Instruments ununterscheidbar nachbilden können. Du wirst auch ein entsprechendes Eingabegerät bauen können. Aber Du kannst prinzipiell nicht den Musiker nachbilden oder ersetzen. Weil die Art, wie er Musik spielt, durch Gefühle bestimmt wird, und Computer können Gefühle nicht nachbilden.
Das menschliche Gehirn ist die komplexeste Strukur im Universum, wir verstehen es nicht annähernd, geschweige denn, daß wir Gehirnfunktionen adäquat nachbilden könnten. Maschinen, die das leisten könnten, müßten selbst denken und fühlen können. Und wären damit keine Maschinen mehr.
Und wer Orchestermusik fern steht, der möge mir doch mal eine Simulation eines x-beliebigen Motörhead-Songs liefern...:rolleyes:
Das ist natürlich großer Quatsch.
Wo ist denn der Unterschied ob ein Mensch von einem Notenblatt abspielt oder es ein Computer macht?
Klar der Computer ist genauer in der Intonation und im Timing. ;) Ob das mehr "Gefühl" bedeutet ist eine ander Frage. Doch darauf kommt es eigentlich bei der Frage die gestellt wurde nicht an.
95% aller Filmusiken kommen z.B. komplett aus Computern. Auch wenn ein Orchester zu höhren ist. Also warum meinten immer noch Menschen das es sowas nicht geben kann?
Wolfram
2009-10-07, 13:42:03
Das ist natürlich großer Quatsch.
Wo ist denn der Unterschied ob ein Mensch von einem Notenblatt abspielt oder es ein Computer macht?
Liefer mir doch mal das nachgespielte Motörhead-Stück, dann reden wir weiter.
Klar der Computer ist genauer in der Intonation und im Timing. ;) Ob das mehr "Gefühl" bedeutet ist eine ander Frage. Doch darauf kommt es eigentlich bei der Frage die gestellt wurde nicht an.
Doch, genau das. Im Eingangsposting schreibt der Threadstarter:
Geht man also davon aus, daß man nur den Komponist benötigt, der den Computer füttert und nimmt man an, daß es für jedes notwendige Instrument ein 1 GB großes Soundfont gibt dann wäre damit ein ganzes menschliche Orchester zumindest für die Audio-CD und Filmaunahme ersetzbar.
Das ignoriert einfach komplett, daß jeder einzelne Orchestermusiker jede Note nicht simpel vom Blatt spielt, sondern interpretiert. Wenn das ein mechanischer Vorgang ist, wozu braucht man da einen Dirigenten? Wozu gibt es 30 verschiedene Interpretationen einer bestimmten Sinfonie auf Platte, wenn der Interpret doch eh egal ist?
95% aller Filmusiken kommen z.B. komplett aus Computern. Auch wenn ein Orchester zu höhren ist. Also warum meinten immer noch Menschen das es sowas nicht geben kann?
Orchester aus dem Computer gibt es nur aus einem Grund: Weil das Budget nicht für Musiker reicht. Der Computer ist ein wundervolles Hilfmittel für Komponisten, die so die Interpretation ihrer Musik simulieren und Wirkungen von Arrangements usw. testen, schon einmal einen Grundeindruck bekommen können. Das gilt natürlich um so mehr, je weniger versiert der Komponist ist.
Das kling aber nun mal stumpf und generisch und kann aber kein Ersatz für die Einspielung durch Menschen sein. Es gibt auch Gitarren-VSTis, können die etwa John Frusciante ersetzen?
|-Sh0r7y-|
2009-10-07, 14:19:12
Ich denke schon das es möglich ist ein Orchester zu Produzieren das sich aus Lautsprecher genau so anhört wie eine Aufnahme von einem Orchester, aber ein unterschied zwischen Live Orchester und Lautsprecher Wiedergabe gibt es denke ich schon.
Spielt man jedes Instrument mit dem Keyboard dan hat man ja auch seine noten und auch dort können gewollte fehler gemacht werden.
Später jedes Instrument mit Effekten anpassen und Mastern.
Ich denke die Accustic kann mit guten Programmen schon sehr gut Simuliert werden.
Siegfried
2009-10-07, 14:19:32
am pc ansich koennte man musik erzeugen die realistischer als live-aufnahmen ist
die programmierer sind aber noch nicht so weit
und die jetzige technik (soundfonts etc) ist auch der falsche weg
RaumKraehe
2009-10-07, 14:22:36
Liefer mir doch mal das nachgespielte Motörhead-Stück, dann reden wir weiter.
Doch, genau das. Im Eingangsposting schreibt der Threadstarter:
Das ignoriert einfach komplett, daß jeder einzelne Orchestermusiker jede Note nicht simpel vom Blatt spielt, sondern interpretiert. Wenn das ein mechanischer Vorgang ist, wozu braucht man da einen Dirigenten? Wozu gibt es 30 verschiedene Interpretationen einer bestimmten Sinfonie auf Platte, wenn der Interpret doch eh egal ist?
Orchester aus dem Computer gibt es nur aus einem Grund: Weil das Budget nicht für Musiker reicht. Der Computer ist ein wundervolles Hilfmittel für Komponisten, die so die Interpretation ihrer Musik simulieren und Wirkungen von Arrangements usw. testen, schon einmal einen Grundeindruck bekommen können. Das gilt natürlich um so mehr, je weniger versiert der Komponist ist.
Das kling aber nun mal stumpf und generisch und kann aber kein Ersatz für die Einspielung durch Menschen sein. Es gibt auch Gitarren-VSTis, können die etwa John Frusciante ersetzen?
Schau dir mal das Midi-Protokoll an. Damit sollten alle Fragen beantwortet sein.
Der Dirigent ist in der Regel dafür da um das Zusammenspiel alles Musiker sicher zu stellen.
Dicker Igel
2009-10-07, 15:39:06
In Cubase oder Logic (o.ä.) wurden ja extra Funktionen geschaffen, mit denen man "menschliche Eigenheiten" "nachbauen" kann ... daher ist es sehr wohl möglich,
das ein einziger Mensch ein ganzes Orchester am PC simulieren kann. Natürlich nur dann, wenn er das Programm sehr gut beherrscht.
Kurz gesagt: Man kann sich seinen Track halt so machen, das er nicht "perfekt" ist, denn gerade das macht ja gewisse Musik einzigartig ;O)
Wolfram
2009-10-07, 17:06:08
Der Dirigent ist in der Regel dafür da um das Zusammenspiel alles Musiker sicher zu stellen.
Nein.
In Cubase oder Logic (o.ä.) wurden ja extra Funktionen geschaffen, mit denen man "menschliche Eigenheiten" "nachbauen" kann ... daher ist es sehr wohl möglich,
das ein einziger Mensch ein ganzes Orchester am PC simulieren kann. Natürlich nur dann, wenn er das Programm sehr gut beherrscht.
Kurz gesagt: Man kann sich seinen Track halt so machen, das er nicht "perfekt" ist, denn gerade das macht ja gewisse Musik einzigartig ;O)
Wenn ich jedes Detail einer bestimmten Spielweise am Computer nachbilden würde, wäre das so aufwendig, daß ich es gleich direkt einspielen könnte. Denn dann müßte ich ja wissen, was ein Musiker an einer bestimmten Stelle macht, was sein Spiel so klingen läßt, wie es klingt.
Und selbst wenn ich das simulieren würde, könnte ich mir vielleicht einen "John-Frusciante-Simulator" bauen, aber keinen, der gleichzeitig auch Al Di Meola simuliert. Jeder Musiker ist individuell und spielt anders. Die Groove-Funktionen aktueller Sequencer-Software sollen erst mal nur erreichen, daß es etwas weniger nach Dose und etwas mehr nach Mensch klingt. Das ist äußerst begrenzt.
RaumKraehe
2009-10-07, 20:40:07
Nein.
Aha,
Funktion:
Er erarbeitet mit dem Orchester das Werk und bringt es zur Aufführung. Der Dirigent hat dabei insbesondere zwei Aufgaben bzw. Funktionen:
* die technische Koordination der mitwirkenden Musiker. Mit dem Schlagen des Taktes (siehe Schlagfigur) markiert er das für alle verbindliche Tempo.
* die interpretatorische Gestaltungshoheit. Nach dem Konzept des Dirigenten soll das Werk erarbeitet und aufgeführt werden (siehe Interpretation).
http://de.wikipedia.org/wiki/Dirigent
Dicker Igel
2009-10-07, 20:59:04
Das ist äußerst begrenzt.
Kommt drauf an ... ist imho stilabhängig.
Ich spiel bpsw. lieber selber 'ne Gitarre oder Drums, grade inner Metal/Punk Richtung (spiel auch selber), aber wenn ich die ganzen Instrumente vernüftig im Sampler habe, kann man damit durchaus was anfangen.
Man muss es eben selber alles einspielen, dann fragt man sich nur nach dem Sinn des Ganzen, denn ich spiel lieber inner Combo, statts alles alleine innen PC zu spielen, mal grob ausgedrückt.
Aber ich denke schon, das man es machen kann, wenn man es richtig angeht, bzw. die/das richtige HW + Wissen/Gefühl hat.
RaumKraehe
2009-10-07, 22:37:10
Es geht hier nicht in erster Linie um Punk oder Hardrock. Ich weiß selber das gesampelte Gittaren eher bescheiden klingen. Obwohl ich nicht weiß wie gut heutige Synthetische Gittarensimulationen sind.
Hier geht es um Orchester!
Dicker Igel
2009-10-07, 23:59:29
War ja nur 'n Beispiel :freak:
Das kann man dann natürlich auch auf das Orchester anwenden ... :D
Ich weiß selber das gesampelte Gittaren eher bescheiden klingen
Ich habe nicht behauptet, das es shice klingt, sondern das es aufwendig ist es professionell zu samplen.
Wolfram
2009-10-08, 03:05:09
Aha,
Funktion:
Er erarbeitet mit dem Orchester das Werk und bringt es zur Aufführung. Der Dirigent hat dabei insbesondere zwei Aufgaben bzw. Funktionen:
* die technische Koordination der mitwirkenden Musiker. Mit dem Schlagen des Taktes (siehe Schlagfigur) markiert er das für alle verbindliche Tempo.
* die interpretatorische Gestaltungshoheit. Nach dem Konzept des Dirigenten soll das Werk erarbeitet und aufgeführt werden (siehe Interpretation).
http://de.wikipedia.org/wiki/Dirigent
Ganz genau. Die Interpretation ist entscheidend. Jedes halbwegs brauchbare Orchester spielt Dir Standard-Repertoire-Stücke auch ohne Dirigenten. Damit aus der heruntergespielten Version eine bis dato nie gehörte Fassung eines tausendfach gehörten Stückes wird, dafür brauchst Du einen Dirigenten mit einer künstlerischen Vision. Und ein Orchester, das das umsetzen kann. Und das hat nichts, aber auch gar nichts mit "den Takt schlagen" zu tun. Das ist bei einem Schulorchester vielleicht so. Sobald wir aber auch nur entfernt von Kunst reden, nicht mehr.
Es geht hier nicht in erster Linie um Punk oder Hardrock. Ich weiß selber das gesampelte Gittaren eher bescheiden klingen. Obwohl ich nicht weiß wie gut heutige Synthetische Gittarensimulationen sind.
Hier geht es um Orchester!
Und gesampelte Posaunen oder selbst Streicher klingen eben auch Scheiße, und zwar auf genau dieselbe Weise. Nur ist ein Orchester mit hundert Musikern und entsprechendem Recording-Aufwand eben viel teurer als eine Rockband. Und genau deswegen gibt es die Computer-Krücke, die aber auch nur eingesetzt wird, wenn eh niemand genau hinhört. Oder glaubst Du ernsthaft, man würde für die Main Title-Musik eines Blockbusters jemanden die Dose spielen lassen?
Damit aus der heruntergespielten Version eine bis dato nie gehörte Fassung eines tausendfach gehörten Stückes wird, dafür brauchst Du einen Dirigenten mit einer künstlerischen Vision.
Es geht nicht darum die Kreativität zu ersetzen, das kann ein Computer zumindest noch nicht, sondern darum die Technik zu ersetzen, also das Anschlagen der Klaviertasten, Streichen der Saiten etc.
Oder glaubst Du ernsthaft, man würde für die Main Title-Musik eines Blockbusters jemanden die Dose spielen lassen?
Natürlich wird das gemacht, noch nie ein Making-Of angesehen?
Der große Vorteil liegt auch darin, dass der für den Score verantwortliche Musiker seine eigene Vision umsetzen kann ohne zig Instrumente spielen zu können.
Das ersetzt natürlich nicht die Kreativität des Musikers, umgekehrt sie macht die Umsetzung erst möglich.
Pennywise
2009-10-08, 11:18:42
Musik aus dem Computer, wenn ich das immer höre. Die Musik kommt zu 99% noch immer vom Musiker, einzig die Instrumente kommen aus dem Computer. Der Musiker spielt jedes Instrument live ein und nimmt das am PC per Midi (wenn wir bei reiner Computermusik bleiben) auf. Viele Dinge werden direkt am Keyboard eingespielt, was zwar ganz gut funktioniert, aber viele Eigenheiten der Instrumente nicht berücksichtigt. Dabei geht es weniger um die Sounds die man ganz gut hinbekommt, eher um das wie ein Instrument reagiert.
Z.B eine Gitarre hat Seiten, die werden ganz anders gespielt und angeschlagen wie eine Taste. Bei einer Rhythmus-Gitarre, ist bei jeden Auf- und Abschlag die Dynamik und das Timing des Anschlags anders. Bekommt man live eingespielt auf dem Keyboard nicht hin. Gibt aber Tools die das nachstellen. Andere Instrumente ähnlich.
Aber in Summe klingen die Stücke schon recht gut und auch ein Motörhead-Song ist per Midi und guten Spezialsoftwarelösungen für Gitarre etc reproduzierbar. Es gibt ja auch Guitar2Midi Converter die das Livespiel midifizieren.
Das hier z.B. ist rein Midi plus Softwaresynth http://www.midi.de/shop/data/files/demomp3/PR4653.MP3 und das ist noch lange nicht perfekt. Da kann man noch viel mehr machen.
HeldImZelt
2009-10-08, 11:26:05
Ein anderer Ansatz. Wobei man da ruhig mal ein hochwertigeres Midistück hätte wählen können. Das Schlagzeug klingt schon arg billig.
http://www.youtube.com/watch?v=0Fn8oH_s7J8
Das hier z.B. ist rein Midi plus Softwaresynth http://www.midi.de/shop/data/files/demomp3/PR4653.MP3 und das ist noch lange nicht perfekt. Da kann man noch viel mehr machen.
Ich weiss nicht wie das bei euch ist, aber wenn ich sowas höre kann ich direkt (ja, innerhalb den ersten 2 sek) sagen das es sich um Midi handelt.
Das Problem ist halt das es sich alles recht sauber anhört, wie früher auf einem alten Kinder Keyboard (hatte bestimmt jeder mal ^^). Man kann Töne spielen und Addieren, aber es hört sich immer künstlich an.
Bei den Gitarren merkt man es halt extrem. Normalerweise hört man das umgreifen, wie der Ton plötzlich abgedämpft wird und sich dann ein neuer aufbaut. Bei den Midi Tönen "ist er einfach da". Das ist imho noch das größte Problem. Oder bspw bei einem Klavier, dort klingt bei angeschlagenen Seiten ein Ton ganz anders als ein einzelton. Afaik müsste man dann (wenn es realistisch klingen sollte) genau diesen Übergang oder diese Kombinationen und abfolgen von verschiedenen Tabs, Griffen und Schwingungsfaktoren einzeln berechnen. Bis man das wirklich raus hat, da dauerts bestimmt noch ein wenig.
Edit: Im Schlager Song bereich hört man Midi Kompositionen recht häufig, würde fast sagen das jedes 2te (wenn nicht noch mehr) direkt mit dem Computer generiert wurde.
Pennywise
2009-10-08, 12:26:29
Das meinte ich ja. Es geht nicht um das Reproduzieren der Noten, das geht heute schon, wird einfach aufgenommen und wiedergegeben. Es geht um das Reproduzieren des Instruments in allen Facetten. Das geht nicht so ohne weiteres.
Das man das im Schlagerbereich so gut raushört liegt m.E. eher an der schlechten Studioarbeit. Hart quantisiert und einfache Instrumentierung, dazu noch schnell schnell abgemischt. Gerade heute gibt es sehr geile Studiotechnik, muss man aber auch nutzen können.
Eine live eingespielte Gitarre wird wohl aber nie perfekt imitiert werden können, dafür bietet das Instrument zu viele Facetten. Ein Piano wird ja "nur" durch das Filz angeschlagen, mal mehr mal weniger. Auch Drums gehen recht gut. Blasinstrumente bedingt gut, kann man auch simulieren. Streichinstrumente schon schwieriger, aber eine Gitarrenseite, gerade eine Akkustikgitarre, wird gezupft, angeschlagen und gezogen, mit und ohne Plektron, dazu der Körper der Gitarre der mitschwingt oder eben auch direkt als Instrument genutzt werden kann. Sehr kompliziert nachzubilden.
Asaraki
2009-10-08, 14:32:54
@Pennywise : Ob Gitarre, Drums oder Klavier macht noch nichtmal einen so grossen Unterschied. Ich gebe dir Recht, dass die Gitarre aufgrund ihrer Bauweise einige Finessen [Bundaufbau statt eine Seite/Note beim Klavier] aufweist, welche sehr schwer zu simulieren ist. Dies gilt aber im fast gleichen Ausmass auch für Schlagzeug und Klavier. (Am schlechteste simuliert werden übrigens bisher Blechblasinstrumente imho… noch keine Konserve gehört die auch nur halbwegs überzeugt).
Dass das gefühlt etwas anders sein kann sehe ich ein, denn gerade Klavier und Schlagzeug werden heute nicht mehr so gespielt wie früher. Drums werden in fast allen gängigen Musikrichtungen totkomprimiert, Klavier kennt man fast nur noch gespielt von irgendwelchen Bandmembers wo es halt "begleitet" mit relativ gleichmässigen Anschlagsstärken, sehr wenig Sustinato und vorallem auch da wieder in Tracks die aufgebohrt sind bis zur 0db Grenze. Dass man da vom originalen Klang eines Steinways nicht mehr viel hört ist klar.
Simulier mir mal bitte einen Brad Mehldau auf Elegiac Cycle (Piano) auch nur im geringsten per MIDI. Oder spiel einen Art Blakey, Brian Blade, Jorge Russo als MIDI-Drummer.
Bloss weil bei heutiger Populärmusik diese Instrumente auf etwas reduziert werden, was jedem klassischen Instrumentalisten das Herz zerbrechen lässt, werden die Instrumente _ansich_ nicht besser simuliert als fast alles andere.
Worauf ich rauswill… es gibt Gitarristen, die kann man simulieren ;-) Das kommt immernoch sehr auf das Talent und vorallem den Stil an ob und wie weit sowas möglich ist. Und grundsätzlich gilt immer, dass Soloinstrumente schwerer sind als Ensembles.
Es fällt mir btw viel leichter ein Trompetenensemble zu simulieren als eine einzelne Solotrompete. Denn im Orchester wird es auch maschineller, präziser, gleichförmirger und daher eher reproduzierbar, ohne dass der Aufwand ins unermessliche steigt.
Pennywise
2009-10-08, 16:03:56
Dass das gefühlt etwas anders sein kann sehe ich ein, denn gerade Klavier und Schlagzeug werden heute nicht mehr so gespielt wie früher. Drums werden in fast allen gängigen Musikrichtungen totkomprimiert, Klavier kennt man fast nur noch gespielt von irgendwelchen Bandmembers wo es halt "begleitet" mit relativ gleichmässigen Anschlagsstärken, sehr wenig Sustinato und vorallem auch da wieder in Tracks die aufgebohrt sind bis zur 0db Grenze. Dass man da vom originalen Klang eines Steinways nicht mehr viel hört ist klar.
Es fällt mir btw viel leichter ein Trompetenensemble zu simulieren als eine einzelne Solotrompete. Denn im Orchester wird es auch maschineller, präziser, gleichförmirger und daher eher reproduzierbar, ohne dass der Aufwand ins unermessliche steigt.
Je mehr in einem Stück drin ist, desto weniger kann man das wirklich raushören, das ist korrekt. Auch wird ein Original Instrument immer besser klingen, da auch die Facetten eines Instruments nur digital nachgebildet werden können. Irgendwas fehlt halt immer, es geht aber schon viel. Am schlechtesten sind aber noch die Gitarren.
Ich finde aber wir sind schon recht weit. Wenn ich mir die Kontakt 4 Demos anhöre, kommt das schon gut.
http://www.native-instruments.com/#/en/products/producer/kontakt-4/?content=936
Man darf aber bei Midi auch nicht vergessen, daß die meisten Controllerdaten im Bereich von 0-127 arbeiten, das ist eine an sich sehr grobe Einteil. Jedes natürlich gespielte Instrument bietet eine deutlich höhere Auflösung! Wenn man die Daten feinfühliger erfassen und wiedergeben könnte, würde das Gefühl, daß ein Mensch spielt, viel besser sein.
Ich behaupte mal, daß mit einer Art Impulsantwort, wie bei heute verwendeten Faltungshall, eine Art Stimmung für ein Musikstück wiedergegeben werden kann. Das sollte in einigen Jahren technisch machbar sein. Im Prinzip ist die Musikwiedergabe auch nur ein spezialisierter Anwendungsfall, was durchaus durch ein Expertensystem gelöst werden kann. Wenn man sich heute anschaut, wie unsichtbar Expertensystem mit diversen KI-Algorithmen und Fuzzy-Logik schon unser Leben fest im Griff haben, kann man schon glauben, daß so was auch bestimmt irgendwann einmal Musik täuschend echt simulieren kann. Früher hätte sich doch auch kein Mensch vorstellen können, daß diverse ABS-, ESP- und diverse andere Lenk- und Fahrkontrollen dem Menschen bei der täglichen Autofahrt viele Entscheidungen abnehmen.
Wolfram
2009-10-08, 20:25:15
Worauf ich rauswill… es gibt Gitarristen, die kann man simulieren ;-)
:biggrin:
Ich finde aber wir sind schon recht weit. Wenn ich mir die Kontakt 4 Demos anhöre, kommt das schon gut.
http://www.native-instruments.com/#/en/products/producer/kontakt-4/?content=936
Da hört man aber andererseits auch genau die Schwächen. Es klingt halt ziemlich generisch. Es klingt ja gut, aber es klingt nirgendwo wie ein echtes Instrument, auch wenn man immer erkennt, welches Instrument es sein soll. Je voller das Arrangement, je mehr Hall drauf ist und je weiter ein Instrument im Hintergrund steht, desto eher kann man es glauben. Aber es kann nun mal nie alles im Hintergrund stehen.
Niemand will behaupten, daß programmierte Musik nicht interessant und gut klingen könnte, aber sie klingt eben: Programmiert. Und da finde ich es auch gar nicht interessant, akustische Instrumente nachzubilden. Dub Step, IDM, Minimal oder Drum'n'Bass leben ja auch nicht davon, daß man versucht, etwas nachzubilden, sondern davon, daß man die Stärken der Dose als Dose nutzt.
Im Prinzip ist die Musikwiedergabe auch nur ein spezialisierter Anwendungsfall, was durchaus durch ein Expertensystem gelöst werden kann. Wenn man sich heute anschaut, wie unsichtbar Expertensystem mit diversen KI-Algorithmen und Fuzzy-Logik schon unser Leben fest im Griff haben, kann man schon glauben, daß so was auch bestimmt irgendwann einmal Musik täuschend echt simulieren kann. Früher hätte sich doch auch kein Mensch vorstellen können, daß diverse ABS-, ESP- und diverse andere Lenk- und Fahrkontrollen dem Menschen bei der täglichen Autofahrt viele Entscheidungen abnehmen.
Letzteres sind aber alles mechanische Funktionen, bei denen es ein "richtig" oder "falsch" gibt. Das ist bei Musik anders.
Asaraki
2009-10-09, 12:31:32
Je mehr in einem Stück drin ist, desto weniger kann man das wirklich raushören, das ist korrekt. Auch wird ein Original Instrument immer besser klingen, da auch die Facetten eines Instruments nur digital nachgebildet werden können. Irgendwas fehlt halt immer, es geht aber schon viel. Am schlechtesten sind aber noch die Gitarren.
Imho gibts da eben auch zwei Seiten zu... je besser die Simulation wird und ergo öfters verwendet, desto mehr prägt sich ein bestimmter Klang ein. Wenn man sich anschaut wieviele junge Drummer diesen und jenen Sound von Platte XY in echt haben wollen und man denen sagen muss, dass es das _in der Realität_ garnicht gibt (!) dann merkt man eben, dass nicht nur die Qualität der Simulation relevant ist, sondern auch wo die Erwartungen des Hörers liegen.
Gitarre ist halt ein absolutes Kultinstrument zur Zeit und entsprechend wissen die Leute auch wie es klingen soll. Wäre das nicht so, könnte man viel einfacher entsprechend akzeptable Simulationen davon machen.
Ich denke der Punkt "wie gut" etwas simuliert werden kann ist extrem subjektiv. Kein Pianist wird dir jemals eine Simulation gut finden, so wie ich als Drummer nie eine Simulation gut finde. Aber ich sehe auch, dass die Simulation von Drums (siehe HipHop) der Musik Facetten bringt die wertvoll und gut sind - ganz egal wie unrealistisch das klingt mit 3layered Snares und Subkicks.
Ich kann jedem nur empfehlen sich z.B. mal JoJo Mayers Nerve anzuhören. Da wurde das ganze mal umgedreht und eine original elektronische Musik nachgespielt in echt.
http://www.dailymotion.com/video/x1icx6_jojo-mayer-nerve-jabon_music
[mal davon abgesehen dass es der beste d'n'b drummer der welt ist und erst noch ein schweizer :D *proud*]
P.S. : Als Quintessenz könnte man rausnehmen, dass sich elektronisch und akkustisch nie ersetzen werden sondern immer parallel laufen werden. Es gibt keinen Bedarf dass aller DnB live gespielt werden kann, es gibt keinen Bedarf, dass HipHop einen echten Drummer braucht [wobei da ein klarer Trend zu Drummern bei der Tour ist] etc etc etc.... es ist eben beides künstlerisch wertvoll und derart verschieden, dass ein Ersetzen immer mit einem Verlust an Variation verbunden wäre. Und das wäre doch schade für diese schöne Welt :-)
whetstone
2009-10-14, 02:16:45
Ich kann jedem nur empfehlen sich z.B. mal JoJo Mayers Nerve anzuhören. Da wurde das ganze mal umgedreht und eine original elektronische Musik nachgespielt in echt.
http://www.dailymotion.com/video/x1icx6_jojo-mayer-nerve-jabon_music
[mal davon abgesehen dass es der beste d'n'b drummer der welt ist und erst noch ein schweizer :D *proud*]
jojo mayers is ziemlich cool , hier denk ich immer "wtf dude ?":
http://www.youtube.com/watch?v=xh4iK8ZOgDM
....aber du weisst schon das 90% der dnb drums gepitchte und gefrickelte funk/jazz/wasweisich breaks (gesamplete loops) sind ? Also umgedreht würde ich das nicht nennen, nur andere patterns die schneller gespielt sind :p
Die diskussion ist generell schon okay aber der mainstream kunde hört einfach keinen unterschied zwischen der gut gespielten e-gitarre mit samples/synth oder ner echten. Das ist nunmal Fakt, da kann man jetzt ins detail gehen und klar viele nuauncen gerade von saiten instrumenten sind sehr schwer nachzubilden, dennoch gibt es leute die kriegen das hin aber, ob sich der zeitaufwand lohnt daraus dann ein ganzes lied zumachen ist eine andere frage. Man kann mit samples xfades/switches eignetlich alles machen, man brauch nur die samples, die kommen dann wiederum von echten instrumenten. Wiegesagt heute geht ziemlich viel, ein orchester, in dem sinne, kann man trozdem nicht ersetzen.
Wiegesagt heute geht ziemlich viel, ein orchester, in dem sinne, kann man trozdem nicht ersetzen.
Stand heute! Wer weiß, wie es morgen aussieht. ;) Wer mir vor ein paar Jahren erzählt hätte, daß ein GuitarRig, Amplitube und Pod einen Röhrenverstärker ersetzen kann, hätte ich ausgelacht. Fakt ist, es geht. Die Rechenleistung steigt mehr und mehr, und wie gesagt, mit einer Art Signatur/Impulsantwort (ich weiß nicht, wie ich es nennen soll), bezogen auf einen bestimmten Spieler, kann man das bestimmt bald nachsimulieren. Mittlerweile kann man ja auch Klavier ohne Samples simulieren. Natürlich hört man das als Experte, aber das Teil von Roland klingt schon verdammt gut.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.