Archiv verlassen und diese Seite im Standarddesign anzeigen : Terratec -- DD Encoding
Argo Zero
2004-12-02, 15:01:38
http://www.theinquirer.net/?article=19914
Das könnte ja mal äußerst interessant werden.
Wenn die Wandler gleich hochwertig bleiben und der Treiber etwas an Umfang spendiert bekommt, wird das meine nächste Soundkarte werden :)
StefanV
2004-12-02, 15:12:16
'n neuer Treiber für die Aureon hätts ev. auch getan :-/
Argo Zero
2004-12-02, 15:50:04
'n neuer Treiber für die Aureon hätts ev. auch getan :-/
Was missfällt dir an den aktuellen denn?
Außer dem Speaker-Problem durch Sensaura kenne ich keine Bugs und ich nutze so ziemlich alle Anschlüsse und Funkionen :)
Wenn du Probleme mit Sensaura hast, darfst du Creative eine Mail schicken.
MechWOLLIer
2004-12-02, 17:59:32
Aha, das könnte ja mal wirklich interessant werden und wäre für mich als Receiver über Digitaleingang Usder mal wirklich sinnvoll.
Falls die Terratec Karte diesbezüglich hält was sie versprich, wäre es meine nächste Soundkarte.
Also die Karte könnte dann quasi das selbe wie der SS?
Argo Zero
2004-12-02, 18:17:45
Wenn man der Quelle glauben schenken darf, ja.
StefanV
2004-12-02, 19:58:50
Was missfällt dir an den aktuellen denn?
Nix, aber das ganze wäre ev. auch mit der Aureon möglich ;)
Gab letztens in den News (k/a wo) die Meldung, das es neue Treiber für den Envy24 gibt, der DD Encoding ermöglicht...
Allerdings war auch die Rede von einem Hardware Modul...
winter
2004-12-02, 20:27:47
Wir reden hier ja auch nicht von irgendeinem DD Encoding, sondern von Echtzeitencoding, was für seinen eigentlichen Zweck, nähmlich die Live Beschallung bei Spielen oder anderer rechenintensiver Software, auf jeden Fall noch immer von eigens dafür entwickelter Hardware übernommen werden muss. Ich glaube kaum, dass der Envy24 dazu ohne weiteres bei geringer Treiber/Prozessorbelastung in der Lage ist.
PatkIllA
2004-12-06, 00:42:21
AC3 Encoding kann man auch akzeptabel per CPU only machen. Siehe AC3Filter.
Die ganzen 3D Berechnungen werden ja bei fast allen Karten auch dort gemacht.
Intels DolbyDigital Live und die CMedia Lösung codieren AFAIK auch in Software.
Avalox
2004-12-06, 13:29:50
Es gibt keine Intel eigene Lösung.
HD Audio Codecs werden zur Zeit von C-Media und von Realtec geliefert.
Beide nutzen C-Medias Soft DD Encoder.
Und mich dünkt es, das Terratec da auch das Rad nicht neu erfinden wird und auf einen C-Media Soundcontroller setzt, welcher dann auch mit C-Media Encoder Software zu bekommen ist. So wie es diese Karten auch von anderen Herstellern gibt.
Ach ja. USB Adapter mit DD Encoder Software sind auch von C-Media vorgesehen.
Liszca
2004-12-15, 05:29:15
Was missfällt dir an den aktuellen denn?
Außer dem Speaker-Problem durch Sensaura kenne ich keine Bugs und ich nutze so ziemlich alle Anschlüsse und Funkionen :)
Wenn du Probleme mit Sensaura hast, darfst du Creative eine Mail schicken.
Könntest du mal den fehler genauer beschreiben?
robbitop
2004-12-15, 11:50:49
warum zieht ihr eigentlich Terratek Karten mit Envy24 DSPs vor?
Der EMU10k2 auf jeder Audigy ist doch viel mächtiger. Und dank kX Treibern muss man den Creative Treibermüll nicht ertragen.
(ich wills einfach nur wissen, um dazuzulernen)
winter
2004-12-15, 14:04:27
robbitop: Programmier mir den EMU10k2 auf AC3 oder DTS Encoding um, dann kauf ich den sofort!
Dieses Feature ist nämlich genau der Grund für mein Interesse an solchen Lösungen. Wobei mir DTS dabei noch lieber wäre (alleine wegen der höheren Bitrate...)
€: Tschuldigung, meine natürlich Echtzeitencoding von jeder Mehrkanalsoundquelle, die unterstützt wird.
PatkIllA
2004-12-15, 14:06:31
Die Leistungsfähigkeit bringt ohne EAX HD Lizenz ja eh nicht soviel.
Immerhin kann der VIA bitgenaue Ausgabe. Das können die Creativekarten AFAIK immer noch nicht.
robbitop
2004-12-15, 15:58:31
die Anbindung über den PCI Bus ist insuffizient.
Für HW DD Encoding wäre HTr oder PEG notwendig.
Avalox
2004-12-15, 16:39:31
Oder ein bischen Speicher auf einer ISA Soundkarte.
robbitop
2004-12-15, 16:45:34
wie darf ich das verstehen?
Ist nicht eine direkte Verbindung CPU - APU zum DD Encoding notwendig?
Speicher ist doch sowieso auf Soundkarten verbaut.
Das ist richtig, mich wundert es dass die Soundkarten noch kein Onboard RAM haben, eigentlich ne Frechheit...
Avalox
2004-12-15, 17:04:31
Na Soundkarten hatten mal eigenen Speicher. Jedenfalls so lange, bis ein genügend schneller Bus bereit stand. Das war PCI. Heute limitiert der PCI Bus wieder.
@robbitop
Jede Garantie hat nVidia wieder den Bock zu Gärtner gemacht.
Sicherlich braucht der Soundstorm eine schnelle Anbindung zwischen Speicher und Soundcontroller um DD zu encoden.
Das aber sicherlich doch nur, weil nVidia zu geizig war und dem SS DIE ein paar KB Pufferspeicher zu verpassen.
Ist halt eine Onboard Lösung und soll möglichst preiswert sein.
Ich wüsste keinen Grund warum ein DD Encoding auch nur einen Tick aufwendiger sein soll als z.B. ein MP3 Encoding. Ganz im Gegenteil, der Soundstorm encodet ja mit ziemlichen Kompromissen.
ShadowXX
2004-12-15, 17:18:50
Na Soundkarten hatten mal eigenen Speicher. Jedenfalls so lange, bis ein genügend schneller Bus bereit stand. Das war PCI. Heute limitiert der PCI Bus wieder.
@robbitop
Jede Garantie hat nVidia wieder den Bock zu Gärtner gemacht.
Sicherlich braucht der Soundstorm eine schnelle Anbindung zwischen Speicher und Soundcontroller um DD zu encoden.
Das aber sicherlich doch nur, weil nVidia zu geizig war und dem SS DIE ein paar KB Pufferspeicher zu verpassen.
Ist halt eine Onboard Lösung und soll möglichst preiswert sein.
Ich wüsste keinen Grund warum ein DD Encoding auch nur einen Tick aufwendiger sein soll als z.B. ein MP3 Encoding. Ganz im Gegenteil, der Soundstorm encodet ja mit ziemlichen Kompromissen.
Laut dem nV Dokument "rendert" der Soundstorm im "Main Memory" des Systems...anders gesagt im normalen Ram.
Wishnu
2004-12-15, 17:27:36
Na Soundkarten hatten mal eigenen Speicher. Jedenfalls so lange, bis ein genügend schneller Bus bereit stand. Das war PCI. Heute limitiert der PCI Bus wieder.
In meinem Musikrechner steckt u.a. noch eine Terratec 64XL mit 64MB Edo-Ram... *nostalgischdreinblick*
Avalox
2004-12-15, 17:53:23
:up:
1993 hatte eine AWE32 schon bis zu 28MB(32MB) RAM. Weiss nicht was Grafikkarten zu der Zeit hatten. 1MB? 2MB?
Aber auch die LPAC1(MT32) hat 1988 ja schon Samples zum anspielen genutzt. Zwar grösstenteils aus einem ROM. Aber das ist ja auch Speicher.
Erst ein Jahr später kam die erste Soundblaster 8Bit Karte. An der hat man gespart und ihr "nur" einen FM Soundchip spendiert. Ein Rückschritt hin zur alten Adlip.
Ohne Speicher versteht sich, war dann billiger und wurde gekauft und gekauft.
Interessanterweise sind heutige Codec only-Lösungen gar nicht so entfernt von diesen ersten Soundblaster Karten von 1988. Nur hat man heute selbst den FM Synth weggelassen.
@shadowXX
Das konnte ich mir schon lange denken, nur lesen konnte ich es bisher nirgendwo. Das ist der Grund warum der Soundstorm nicht ohne schnelle Anbindung an einen Speicher funktioniert.
Wishnu
2004-12-15, 18:24:30
Erst ein Jahr später kam die erste Soundblaster 8Bit Karte. An der hat man gespart und ihr "nur" einen FM Soundchip spendiert. Ein Rückschritt hin zur alten Adlip.
Ohne Speicher versteht sich, war dann billiger und wurde gekauft und gekauft.
Interessanterweise sind heutige Codec only-Lösungen gar nicht so entfernt von diesen ersten Soundblaster Karten von 1988. Nur hat man heute selbst den FM Synth weggelassen.
Man verzeihe mir noch ein wenig weiteres OT... ;)
Wenn ich mich nicht irre, kann auch der Emu10K2 noch FM-Synthese in Hardware. Auf jeden Fall bieten die Chips immer noch einen 64stimmigen Hardware-Sampler.
Avalox
2004-12-15, 18:28:21
Aber keine FM Synthese. Der Sound wird mittels Samples erzeugt. Ein Wavetable Synth.
zeckensack
2004-12-15, 18:34:39
die Anbindung über den PCI Bus ist insuffizient.Inwiefern?
Eine 44,1kHz/16Bit PCM-Quelle ("CD-Qualität") braucht, und nun halte dich bitte fest, 176kB pro Sekunde an Bandbreite ... stereo, versteht sich. Für "positional audio" reicht aber auch eine Mono-Quelle, dann darfst du hier nochmals halbieren. Kannst dir ja ausrechnen, wieviele Stimmen hier in Echtzeit auf die Karte gesogen werden können, bevor PCI zum Problem wird.
Für HW DD Encoding wäre HTr oder PEG notwendig.Inwiefern?
DD Encoding erzeugt aus einem ~6-Kanal-Downmix (der auf der Karte lokal erzeugt wird, also nicht erst dahin transportiert werden muss) eine komprimierte Version. Gib mir genug lokalen Speicher für 6 mal 30ms-Frames in deiner gewünschten Samplingrate, und fertig ist die Hütte. Das hat mit dem Bus noch viel weniger zu tun als das Mischen, nämlich garnichts.
PatkIllA
2004-12-15, 19:09:24
die Anbindung über den PCI Bus ist insuffizient.
Für HW DD Encoding wäre HTr oder PEG notwendig.
Die paar Kilobyte kriegt man auch nur über den ISA Bus geschoben.
Wishnu
2004-12-15, 19:14:32
Aber keine FM Synthese. Der Sound wird mittels Samples erzeugt. Ein Wavetable Synth.
Klaro, das trifft auf den 64stimmigen Sampler zu.
Ich bilde mir jedoch ein, dass man per Midi auch noch die gute alte FM-Synthese anteuern könnte.
Ließe sich ja auch leicht per DSP-Programm realisieren.
Hm, ich muss das Ding mal ausbauen und schauen, ob da nicht doch noch wo ein OPL3-Chip versteckt ist... ;)
Avalox
2004-12-15, 19:22:38
Die AWE32 hatte zum EMU8000 noch einen OPL3 (FM Synth) an Board.
Deshalb vielleicht?
Endorphine
2004-12-15, 19:27:36
Die Creative SoundBlaster Zenith für PCIe soll Gerüchten nach Echtzeit AC3-Hardwareencoding haben. Das wäre aus meiner Sicht auch das einzig sinnvolle Feature in nächster Zeit, damit sich diskrete Consumersoundkarten überhaupt noch von AC97 2.0 aka Intel HD Audio (http://www.intel.com/design/chipsets/hdaudio.htm) abheben. Wenn man ohnehin S/P-DIF nutzt kann einem die Qualität der D/A-Wandlung des Onboardsounds ja weitgehend egal sein.
PCIe bringt übrigens durch isochrone Transfers, stark ggü. PCI-c verringerte Latenzzeiten und full-duplex auch für Tonverarbeitung Vorteile. Durch das geschaltete Netzwerk der Punkt zu Punkt Verbindungen kann Creative dann auch ohne Nachteile weiterhin Controller bauen, die so gebaut sind, als stünde ihnen die Hohheit über PCI-Ressourcen zu jeder Zeit zu.
Avalox
2004-12-15, 19:46:13
Es ist doch wohl jeden hier klar, dass ein Soundcontroller I/O massiv über die Entgegennahme von Streams hinaus geht.
Wenn auch ein Monostream bei 16Bit/44,1kHz eine Bandbreite von nur ca. 86kB/s benötigt, ist mit diesen im Bezug auf das rendern von 3DSound überhaupt nichts erreicht. Was soll der Soundcontroller dann mit dem Stream anfangen, um sich von von einer Codec Only Lösung abzuheben?
Zeckensacks Beispiel habe ich auf das Thema DD Encoding bezogen gesehen. Nicht auf den grundsätzlichen I/O eines komplexen Soundcontrollers. Für den Soundcontroller ist es schlicht absolut erforderlich mit höherer Bandbreite auf das System zuzugreifen, um sich von jetzigen 3DSound Lösungen deutlich abzusetzen.
EAX 5 wird mit der Zenith eingeführt. Das gibt es sogar offiziel von CL.
Entgegen dem DD Live Encoder, was bisher nur ein Gerücht ist und mir spontan viele Sachen einfallen, welche ich für sinnvoller halten würde.
robbitop
2004-12-15, 21:52:20
Inwiefern?
Eine 44,1kHz/16Bit PCM-Quelle ("CD-Qualität") braucht, und nun halte dich bitte fest, 176kB pro Sekunde an Bandbreite ... stereo, versteht sich. Für "positional audio" reicht aber auch eine Mono-Quelle, dann darfst du hier nochmals halbieren. Kannst dir ja ausrechnen, wieviele Stimmen hier in Echtzeit auf die Karte gesogen werden können, bevor PCI zum Problem wird.
Inwiefern?
DD Encoding erzeugt aus einem ~6-Kanal-Downmix (der auf der Karte lokal erzeugt wird, also nicht erst dahin transportiert werden muss) eine komprimierte Version. Gib mir genug lokalen Speicher für 6 mal 30ms-Frames in deiner gewünschten Samplingrate, und fertig ist die Hütte. Das hat mit dem Bus noch viel weniger zu tun als das Mischen, nämlich garnichts.
Tut mir leid, auf dem Gebiet bietet sich bei mir leider nur Halbwissen an.
Warum wurde so oft in news blurbs davon gesprochen, dass HTr DD Encoding auf dem SS erst möglich macht? Warum hat damals die SB Live! den PCI Bus dermaßen stark belastet (VIA 686B hatte damit sehr starke Probleme)?
Warum bietet CL erst ab einer PCIE Soundkarte DD Encoding?
Ich wüsste keine andere Erklärung außer insuffiziente Bandbreite.
zeckensack
2004-12-15, 22:05:34
Es ist doch wohl jeden hier klar, dass ein Soundcontroller I/O massiv über die Entgegennahme von Streams hinaus geht.
Wenn auch ein Monostream bei 16Bit/44,1kHz eine Bandbreite von nur ca. 86kB/s benötigt, ist mit diesen im Bezug auf das rendern von 3DSound überhaupt nichts erreicht. Was soll der Soundcontroller dann mit dem Stream anfangen, um sich von von einer Codec Only Lösung abzuheben?"Effekte" auflegen. Dumpf machen, Hall basteln, etc. Und zusammenmischen natürlich.
Ich weiß nicht, was daran so IO-intensiv sein soll. In der Tat halte ich die Streams selbst für die größten Bandbreitenverbraucher.
Die "Effekte" und die Position einer Quelle lassen sich in klitzekleinen Parameterbündeln beschreiben, vielleicht ein- bis zweihundert Byte, und diese gelten dann für diesen Stream, bis sie wieder geändert werden. Aufgrund gewisser Eigenschaften des Gehörs reicht es bei "gleitenden" Akustikumgebungen sogar aus, Änderungen nur alle 20~30ms vorzunehmen.
Das ganze führt natürlich dann zu potentiell gewaltiger Rechenarbeit. Aber eben nicht zu I/O.
PCIe bringt übrigens durch isochrone Transfers, stark ggü. PCI-c verringerte Latenzzeiten und full-duplex auch für Tonverarbeitung Vorteile.Nur insofern als dass die Konstruktion der Karten billiger wird, weil On-Chip-Puffer kleiner werden können.
Fakten, Fakten, Fakten:
PCI reicht selbst bei grottiger Implementierung für >=500 Stimmen höchster Güte (45MB/s, 88kB/s pro Quelle).
Eine sinnvolle Transporteinheit für maximale PCI-Bandbreitennutzung sind 128 Buszyklen, aka 512 Byte, aka 256 Samples aka 5ms Lärm. In 5ms gibt's satte 165000 Buszyklen. Zieh großzügig 20% für Latenzproblemchen ab, zieh weitere 50% für miese Implementation und/oder andere hungrige Verbraucher ab, und es reicht immer noch dicke. Du bekommst garantiert innerhalb von 5ms das nächste Paket rein, um den Strom fortsetzen zu können. Wenn du willst, passen dazwischen noch ein paar hundert andere, auch ohne dass dein RAID-Controller oder was auch immer verhungern muss.
So langsam frage ich mich aber auch, wo all die Streams denn überhaupt herkommen sollen. Unreal II zB erlaubt mir maximal 32 Mixer-Stimmen einzustellen. Das gleiche Bild bei Painkiller, Thief 3, und wohl noch mehr Spielen mit leidlicher 3D-Sound-Unterstützung. Garkein Bild bei Doom 3 :ugly:
(dh ich kann die Option nicht finden)
Argo Zero
2004-12-15, 22:11:23
Könntest du mal den fehler genauer beschreiben?
Mit der aktuellen Sensaura Build bleiben die Speaker ab und an bei Stereo hängen.
warum zieht ihr eigentlich Terratek Karten mit Envy24 DSPs vor?
Der EMU10k2 auf jeder Audigy ist doch viel mächtiger. Und dank kX Treibern muss man den Creative Treibermüll nicht ertragen.
(ich wills einfach nur wissen, um dazuzulernen)
Wandler sind "scheiße" auf der Audigy für meine Ansprüche. Ansonsten eine gute Karte.
StefanV
2004-12-15, 22:18:03
Warum hat damals die SB Live! den PCI Bus dermaßen stark belastet (VIA 686B hatte damit sehr starke Probleme)?
Weil CL scheiße gebaut hat...
Man könnte ja auch den PCI Bus freigeben, wenn die Karte nix zu tun hat, theoretisch...
Aber das wäre natürlich zu einfach...
Warum bietet CL erst ab einer PCIE Soundkarte DD Encoding?
Ich wüsste keine andere Erklärung außer insuffiziente Bandbreite.
Warum sollten sie das für aktuelle Karten anbieten?!
Dann würde ja keiner mehr den eigenen Mist kaufen!!
Ich wüsste keine andere Erklärung als wirtschaftliche Interessen...
Berni
2004-12-15, 23:53:04
Also das DD-Encoding kann gar nicht an der Bandbreite scheitern. schaut euch doch mal die Soundkarten an: Über Analogausgänge gibts den 5.1-Sound ja schon auf der Karte und diese Signale stehen selbstverständlich auch in digitaler Form auf der Karte zur Verfügung. Theoretisch würde nun ein Hardware-DolbyDigital-Encoder-Chip (mit ein klein bisschen Speicher) ja schon reichen, der einfach diese Kanäle komprimiert und dann über den S/PDIF ausgibt. Damit könnte man wohl jeden aktuellen Soundchip DD-fähig machen (gibt ja auch externe Hardwareencoder aber dann hat man wieder unnötige Verluste und die Dinger sind teuer)...und kosten würde das dann kein einziges Byte über den PCI-Bus.
Es hängt halt eher daran, dass für jede Soundkarte dann an die DolbyLabs eine Lizenzgebühr gezahlt werden muss und die Firmen wohl denken, dass sich dies angesichts der Nutzerzahlen nicht rentiert. Obs stimmt kann ich nicht beurteilen aber zumindest hier im Forum sind scheinbar genug Interessierte...
PatkIllA
2004-12-15, 23:55:38
IMO kann es nicht an den Lizenzkosten scheitern, wenn CL Karten für 200€+ anbietet, man ein nForce2 board aber für deutlich unter 100€ bekommt.
Berni
2004-12-16, 00:29:53
Tja da kennst du unsere BWLer aber nicht ;) (bin selber keiner aber muss das im Rahmen des Studiums größtenteils trotzdem mithören...) Da wird ne Gewinnfunktion aufgestellt und anhand irgendwelcher Marketingforschungsdaten bzgl. Nachfrage halt dann geschaut, welche der zwei Alternativen sich mehr rentiert. Schon klar, dass CL mit jeder Karte wohl locker 100€ oder mehr Gewinn macht bei den Premiumkarten; nur wenn der Gewinn mit DD dann halt nur 95€ ist und die Stückzahl sich nur geringfügig (z.B. um 1%) erhöht, dann ist es halt rentabler, DD wegzulassen und auf die paar zus. Käufer zu verzichten.
Eine Preiserhöhung um genau diese 5€ lässt sich ebenso durchrechnen und wenn hier dann nicht ne höhere Nachfrage als vorher besteht, dann bringts das halt auch nicht.
Ahcja und Kosten für Entwicklung etc. muss man natürlich auch noch auf die Lizenzgebühren draufschlagen...
Liszca
2004-12-16, 01:01:58
Mit der aktuellen Sensaura Build bleiben die Speaker ab und an bei Stereo hängen.
könntest du mir sagen mit welchem build ich das problem nicht haben "sollte"?
Avalox
2004-12-16, 12:03:55
...
Die "Effekte" und die Position einer Quelle lassen sich in klitzekleinen Parameterbündeln beschreiben, vielleicht ein- bis zweihundert Byte, und diese gelten dann für diesen Stream, bis sie wieder geändert werden. ....
Mit übergeben tut man z.B. auch die Tonhöhe. Dieses ist für die Synthese in der Musik sehr wichtig, allerdings auch für eine Spiele Engine.
Viele Effekte führen gar automatisch zu einer Tonhöhenänderung. Ein Dopplereffekt z.B.
Wird der Ton um nur eine Oktave nach oben transponiert, muss das Sample natürlich mit doppelter Geschwindigkeit abgespielt werden. Die Daten müssen, dann natürlich dementsprechend auch schneller ankommen.
Das ganze führt natürlich dann zu potentiell gewaltiger Rechenarbeit. Aber eben nicht zu I/O.
Nur insofern als dass die Konstruktion der Karten billiger wird, weil On-Chip-Puffer kleiner werden können.
Dem EMU10k1/2 stehen zwar Puffer bereit und trotzdem führen Effekt DSP Anwendungen zu einer Buslast.
Fakten, Fakten, Fakten:
PCI reicht selbst bei grottiger Implementierung für >=500 Stimmen höchster Güte (45MB/s, 88kB/s pro Quelle).
Die "höchste" Güte ist allerdings noch unter dem, was ein EMU10k1/2 überhaupt verarbeiten kann. ;)
Wenn auch nicht unbedingt heute durchgängig vorhanden, allerdings werden morgen Soundcontroller mit 24Bit /96kHz Samples durchaus was anfangen können.
So langsam frage ich mich aber auch, wo all die Streams denn überhaupt herkommen sollen. Unreal II zB erlaubt mir maximal 32 Mixer-Stimmen einzustellen. Das gleiche Bild bei Painkiller, Thief 3, und wohl noch mehr Spielen mit leidlicher 3D-Sound-Unterstützung. Garkein Bild bei Doom 3 :ugly:
Das Stichwort für die Notwendigkeit einer hohen Anzahl von Stimmen ist Wavetracing.
Es ist ein wenig spekulativ, allerdings sind entsprechende Features grade erst in EAX HD eingeflossen.
Sollte EAX5 den EAX HD Wavetracing Gedanken weiter folgen, wird man um eine deutlich angehobene Anzahl von Stimmen überhaupt nicht drum rum kommen.
Das bedarf natürlich zum einen, einen leistungsfähigen Soundcontroller, allerdings steigt damit auch die Buslast (wenn die Karten ähnlich aufgebaut sind wie heute)
Doom3 überhaupt zu erwähnen... :ucoffee:
Berni
2004-12-16, 14:19:41
Schön und gut Avalon, aber hier gehts eigtl. um DD und nicht darum, was man an neuen Effekten in die Chips bauen kann und wieviel Bandbreite die brauchen ;) Für DD-Encoding braucht man jedenfalls nicht wirklich zusätzliche Bandbreite.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.