Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: TSMCs 3nm-Fertigung wird (erneut) keine Perf.-Verdopplung ermöglichen
Leonidas
2020-08-26, 18:14:39
Link zur News:
https://www.3dcenter.org/news/tsmcs-3nm-fertigung-wird-erneut-keine-performance-verdopplung-ermoeglichen
Berniyh
2020-08-26, 18:28:23
In der Tabelle hat sich ein Fehler eingeschlichen. Bei N5 sollte bei Stromverbrauch wohl eher "-30%" statt "+30%" stehen.
Die Luft wird immer dünner, jetzt muss die Software die vorhandene Leistung endlich ausreizen.
Geldmann3
2020-08-26, 18:40:17
Aus der News:
Jene soll gegenüber der standardmäßigen 5nm-Fertigung eine Flächenreduktion um -42%, eine Taktraten-Verbesserung um +10-15% sowie eine Stromverbrauchsersparnis von -25-30% bringen.
Meines Wissen sind es eine Taktraten-Verbesserung um +10-15% oder eine Stromverbrauchsersparnis von -25-30%.
Complicated
2020-08-26, 18:47:59
Gerade aber weil die Ampere-Generation nunmehr wohl die 300-Watt-Grenze reißt, sind noch höhere Wattagen für zukünftige Grafikkarten um so unwahrscheinlicher – weil dann nur 20% mehr Stromverbrauch schnell zur 400-Watt-Grenze führen, dies irgendwann nicht mehr vermittelbar und (in großen Stückzahlen) verkaufbar ist.Ich denke es war so gemeint :)
"nVidias Gaming-Ampere ist dafür sicherlich ein Anfang, dieser Auftrag (für Samsungs 8LPP-Fertigung) wurde seitens nVidia allerdings eher aus Kostenerwägungen heraus erteilt, und nicht wegen einer besseren Fertigungstechnologie bei Samsung."
Quelle ? Wenn nicht vorhanden bitte deutlich als Meinung des Author kennzeichnen.
Eldoran
2020-08-26, 19:36:56
Ja die Zukunft in der Halbleiterindustrie ist nicht mehr vergleichbar mit den Erfahrungen der letzten Jahrzehnte. TSMC geht bei den Innovationen eher vorsichtig vor und setzt neue Verfahren spät ein. Schon bei 7nm hat man verglichen mit intel 10nm ein paar Unbekannte vermieden. Kein Kobalt - ide Verarbeitung war da noch nicht wirklich unter Kontrolle. Kein Quad Patterning beim BEOL. Da war intel nur ein paar Prozent feiner, aber das war dann eben über dem Limit für Dualpatterning mit DUV. In Zukunft kommt da noch die Verwendung neuer Materialien auf uns zu und die derzeit noch hochgradig experimentellen GAA Verfahren, also ein Ersatz für die Fins.
Wir haben die letzten Jahre bei intel bewundern können, wie unwägbar diese völlig neuen Verfahren die Entwicklung beeinflussen.
Samsung wäre gewissermassen auch aufzuführen - die 7nm Fertigung ist da auch noch immer nicht wirklich einsatzbereit wir man an den nvidia Karten sieht, obwohl die angeblich seit 2018 in HVM produzieren...
https://www.anandtech.com/show/13496/samsung-starts-mass-production-of-chips-using-its-7nm-euv-process-tech
Besonders deutlich ist dies anhand der Stromverbrauchs-Reduktion abzulesen, welche mit minus 25-30% nicht in der Lage sein wird, einen Chip mit doppelter Transistorenmenge im selben Stromverbrauchs-Budget zu halten. Dafür wäre nominell eine Stromverbrauchs-Reduktion von -50% vonnöten, wovon der von TSMC angegebene Wert überaus klar abweicht
Das war niemals der Fall, auch nicht zu Hochzeiten von Moores Law.
Doppelte Transistoren gingen immer mit einem gestiegenen Energieverbrauch einher. Auch in den 2000er Jahren als es noch ständig neue Nodes mit quasi perfekter Verdoppelung der Integration gab, ist der Verbrauch mit jeder Generation angestiegen sowohl bei CPUs als auch bei Grafikkarten.
Das hat sich nur in Zeiten geändert in denen ein Hersteller haushoch überlegen war, und insbesondere Intel eigentlich seit Nehalem/Sandy Bridge nur mehr homöopathische Dosen an Performancesteigerungen gebracht hat und fast den gesamten Fortschritt in den verbesserten Verbrauch gesteckt hat.
Bei Nvidia war es mit Maxwell und Pascal ähnlich, man musste nicht das letzte Stück an Performance aufbieten und konnte deshalb vergleichsweise gute Verbrauchswerte liefern.
Complicated
2020-08-26, 20:10:21
Die Schwierigkeiten sind einfach die Yields und die Outputzahlen der EUV-Layer. Hier hat TSMC mit seinem Dry-Cleaning-Verfahren auf die empfindlichen pellicle verzichten können und sich einen gravierenden Kosten- und Output-Vorteil verschafft.
https://www.tsmc.com/csr/en/update/greenManufacturing/caseStudy/36/index.html
iamthebear
2020-08-26, 22:29:10
Man darf auch nicht vergessen: Das sind alles Herstellerangaben. Ob das nun in der Praxis bei echten Chips (vor allem bei High Power CPU/GPUs auch so sein wird, das muss sich erst zeigen).
Beste Gelegenheit, endlich zu begreifen, dass es kein Limit von ~250W für Grafikkarten gibt und auch nie gegeben hat. Ist ja nicht allein Leo, der einfach nicht verstehen kann/will/whatever.
Aber vielleicht macht der neue PEG-Stecker die Sache klar.
So lange man die Kühlung in den Griff und entsprechende Performance bekommt, darf der Stromverbrauch steigen.
Dass die angegebenen Strukturbreiten Marketing sind, wissen wir doch. Warum also so auf 'Full-Node' und den mit dem Begriff verbundenen aber schon lange nicht mehr erfüllbaren Erwartungen rumreiten?
Ich rede aber wohl nicht nur bei diesen Punkten mal wieder gegen eine Wand. Zwecklos? Scheint so.
Leonidas
2020-08-27, 04:48:58
In der Tabelle hat sich ein Fehler eingeschlichen. Bei N5 sollte bei Stromverbrauch wohl eher "-30%" statt "+30%" stehen.
Gefixt.
Meines Wissen sind es eine Taktraten-Verbesserung um +10-15% oder eine Stromverbrauchsersparnis von -25-30%.
Natürlich. Habe ich nicht genau genug geschrieben. Gefixt.
Ich denke es war so gemeint :)
Nein. Noch höhere Wattagen werden um so unwahrscheinlicher, je höher wir heute bereits dastehen.
Quelle ? Wenn nicht vorhanden bitte deutlich als Meinung des Author kennzeichnen.
Vollkommen korrekte Anmerkung. Text wurde ausgebessert.
Beste Gelegenheit, endlich zu begreifen, dass es kein Limit von ~250W für Grafikkarten gibt und auch nie gegeben hat.
Das klang doch aber auch im Artikel an, dass dies ein Selbst-Limit war.
Aber: Willst Du es wirklich weiter steigern? Rechne das mal durch ... nur +25% mehr Stromverbrauch pro Generation. Wie schnell sind wir dann bei 1000W nur für die Grafikkarte? Der Limit entsteht eher dadurch, was man dem breiten Markt maximal zumuten kann.
Berniyh
2020-08-27, 08:22:22
Der Stromverbrauch ist gar nicht so sehr das Problem. Eine Mikrowelle (oder andere Haushaltsgeräte) zieht ja auch 1 kW Leistung.
Beim PC ist vielmehr das Problem, dass mit steigender Grafikkartenleistung dann auch die Abwärme signifikant steigt und da rennt man irgendwann in ein Problem, denn die meisten Gehäuse sind dafür nicht oder nur schlecht ausgelegt.
bzw. die Systeme werden dann irgendwann auch arg laut, wenn man nicht auf absolute High-End Kühlungen setzt, welche aber dann auch noch mal gut und gerne 200-300€ kosten können.
Legendenkiller
2020-08-27, 09:06:14
Der Stromverbrauch ist gar nicht so sehr das Problem. Eine Mikrowelle (oder andere Haushaltsgeräte) zieht ja auch 1 kW Leistung.
Beim PC ist vielmehr das Problem, dass mit steigender Grafikkartenleistung dann auch die Abwärme signifikant steigt und da rennt man irgendwann in ein Problem, denn die meisten Gehäuse sind dafür nicht oder nur schlecht ausgelegt.
bzw. die Systeme werden dann irgendwann auch arg laut, wenn man nicht auf absolute High-End Kühlungen setzt, welche aber dann auch noch mal gut und gerne 200-300€ kosten können.
Eine Microwelle läuft 10min am Tag, ein Staubsauger 30min in der Woche.
Wenn ein PC auch nur 10min am Tag läuft, wären sicher auch 1kW kein Problem.
Mein PC mit 300W Maximalverbrauch, also alles zusammen mit Monitor, ist aktuell für 20% meines gesammten Stromverbrauchs verantwortlich.
PS: warum kommt eine Handy mit 5W aus oder eine Notebook mit 15W und kann auch das was 90% der Anwender reicht ?
300W+ für eine PC komonente ist einfach nur eine techische Machbarkeitsstudie.
Berniyh
2020-08-27, 09:10:56
Der PC läuft ja auch nicht mit 1000W 24/7, zumindest bei dem wesentlichen Großteil der Menschen. Ein paar Verrückte gibt es immer, das ist schon klar. ;)
Ben Carter
2020-08-27, 09:32:48
Stromverbrauchsmäßig ist meiner Meinung nach vor allem interessant im Verhältnis zum Flächenvorteil.
Also wenn ich z.B. einen 600mm² Chip bauen kann in einem Node und der 300W benötigt und einen 600mm² Chip im kleineren Node und der auch 300W benötigt, aber entsprechend 30-40% mehr leistet, dann passt soweit ja alles zusammen. Natürlich wären bessere Werte schön, aber solange das zusammenpasst sollte es auch kühlbar bleiben.
Aroas
2020-08-27, 09:43:37
Der PC läuft ja auch nicht mit 1000W 24/7, zumindest bei dem wesentlichen Großteil der Menschen. Ein paar Verrückte gibt es immer, das ist schon klar. ;)
Vielleicht nicht 24/7, aber dennoch bedeutend länger als die Mikrowelle.
Schmeiß ich bei mir ein Spiel an, dann zock ich auch durchaus ein paar Stunden am Stück.
Würde da allein die GPU 1kW ziehen, wäre der Stromverbrauch enorm.
Nein, irgendwann ist einfach die Grenze des Zumutbaren für den Endanwender erreicht.
Außerdem muss das Alles ja auch gekühlt werden. Die RTX 3090 wird ja offenbar schon ein riesiges Trumm, allein wegen des Kühlers.
Man stelle sich vor, man müsste 1kW kühlen.
Mit Luft wäre da nichts mehr zu machen.
Berniyh
2020-08-27, 10:09:44
Würde da allein die GPU 1kW ziehen, wäre der Stromverbrauch enorm.
Ja, aber es wäre noch machbar. Die Hausleitungen geben das problemlos her.
Und auch beim Zocken hat man ja nicht permanent Peak-Leistung anliegen.
btw, mein FFB Lenkrad zieht im Peak (natürlich auch nicht durchgängig) bis zu 1.3 kW. Wobei es real schon deutlich weniger sind, denn auch da liegt nicht permanent Spitzenlast an.
Man stelle sich vor, man müsste 1kW kühlen.
Mit Luft wäre da nichts mehr zu machen.
Eben darauf wollte ich doch hinaus. Kühlung ist das größere Problem.
Stromverbrauch ist ein persönliches (ob man es sich leisten will/kann/soll etc.), aber Kühlung ist ein signifikantes technisches Problem. Nicht unlösbar, aber halt mit ordentlich Aufwand verbunden.
Complicated
2020-08-27, 10:24:00
Nein. Noch höhere Wattagen werden um so unwahrscheinlicher, je höher wir heute bereits dastehen.
Sorry, doch das entspricht nicht den Erfahrungswerten und den Entwicklungen der Plattformen. PCIe hat mal ohne Stromstecker angefangen. Aus 6-Pin wird 8-Pin wird 2x8-Pin und jetzt 12-Pin (2x12 Pin nehmen soviel Platz weg wie 2x8-Pin und liefern so viel Strom wie 4x8-Pin) um mehr Strom effizienter an die GPU liefern zu können. Der eindeutig weiter steigende Leistungshunger und die kleiner werdenden Effizienzsprünge lassen nur eine Möglichkeit zu auf Dauer. Zumal Netzteile noch Luft nach oben haben und auch die Kühlungen mehr ab können. Das gefällt den Silent-Fans vielleicht nicht, doch Wenn Leistung gefordert ist, ist Silent nicht der Primäre Kaufgrund.
Bei der GTX 490 (Fermi) hat sich Nvidia auch nicht zurück gehalten mit einer TDP von 365W mit 2x8-Pin.
Nvidia sagt nicht ohne Grund "Neue Performanceklasse" - das hört sich nach dem langfristigen etablieren von Produkten an, die auf diese Wattagen zugreifen dürfen.
Leonidas
2020-08-27, 10:46:32
Darf ich diese Erfahrungswerte wirklich bis in die Endendlichkeit fortschreiben? Ähnlich des Jesus-Pfennig?
Ich denke nicht. Schon 400W wird verkaufslimitierend.
hardtech
2020-08-27, 10:59:56
um das thema "steigender verbrauch" aufzugreifen...
ich selbst schaue bereits seit jahren nach hardware, die möglichst effizient ist.
meine gtx1070 palit gamerock undervolte ich auf 0,800v bei last. >> effekt: im spiel verbraucht die karte statt 135w nur noch 100w. gleichzeitig sinkt die lüftergeschw. und die lautstärke.
ich würde eine neue karte nur dann kaufen, wenn diese bis 150w verbrauch merklich schneller ist als die jetzige.
karten über 250w tdp und noch höherem praxisverbrauch interessieren mich null >> hauptsächlich wegen hitzeerzeugung (pc steht im kleinen raum, im sommer ist es dort warm) und wegen potenziell höherer lärmbelästigung.
es gibt leute, denen das egal ist. fakt ist jedoch: es gibt physikalische grenzen.
>> auch durch ausreizen neuer materialien bekommt man eine karte mit hohem verbrauch (bspw. 500w oder 1000w) nicht mehr gekühlt. >> das will keiner bzw. eine verschwindend kleine gruppe.
letztlich sind solche karten ähnlich wie hyperautos: machbarkeitsstudien. für die masse nett anzusehen aber bedeutungslos.
Complicated
2020-08-27, 11:13:23
Das wohl nicht, doch ist jetzt sicherlich nicht der Zeitpunkt wo das Limit erreicht ist. Die Luft weiter hoch ist vorhanden und wird unter dem Gesichtspunkt der kleineren Nodesprünge das Limit auch bis auf 500W noch testen, sobald das die letzte Option ist um ein paar Punkte vor dem Wettbewerber zu landen. Die Server-GPUs werden es vormachen und der Sprung in den Enthusiasten-Bereich ist immer verlockend bei Systemen, die 1200W Netzteile verbauen. Die gibt es auch heute schon ausreichend.
Ich prognostiziere mal eine 3nm-GPU wird schon die 400W oder darüber verbrauchen. PCIe5+Speicher und große Chips mit Nvidia und AMD sehr nahe beieinander in der Leistung. Diese Faktoren werden IMHO dafür sorgen.
Gast-LAZA
2020-08-27, 11:58:45
GPUs:
Man sollte auch nicht vergessen, daß mit steigender Hitze die Elektronen auch nicht mehr so wollen, wie sie sollen...
AMPD CPU Cores:
Warum sollte AMD in den nächsten Jahren CPUs mit mehr Kernen releasen?
Ich denke, Sie werden vorrangig die Basetaktraten erhöhen bei gleicher Leistung und/oder das TDP senken. Rechenzentren sind froh, wenn eine CPU 10 Watt weniger in Abwärme verwandelt - spart doppelt.
Bsp. EPYC 7662 verbessert: 64 Cores/128 Threads mit 2.5 GHz Base, 3.5 AllCore, 200 W
Berniyh
2020-08-27, 12:10:37
Darf ich diese Erfahrungswerte wirklich bis in die Endendlichkeit fortschreiben? Ähnlich des Jesus-Pfennig?
Ich denke nicht. Schon 400W wird verkaufslimitierend.
Viel mehr als 400W wird es wohl eher nicht geben.
Neben den schon genannten Argumenten gibt sich ja auch noch das Problem, dass man mehr Fläche auf dem PCB für die Spannungsversorgung braucht bzw. diese generell komplizierter wird.
Dadurch werden die Karten generell größer und passen wieder nicht in die Gehäuse bzw. nur in manche Gehäuse.
400W ist schon ein Wort, viel mehr wird es wohl eher nicht geben.
Ich denke nicht. Schon 400W wird verkaufslimitierend.
Der Preis der neuen 90er Klasse sicherlich auch. Ich glaube aber nicht, dass dadurch der Verkauf über alle Klassen von Nvidia limitiert wird.
Leonidas
2020-08-27, 12:28:56
Naja .... 400W bei Spitzen-Grafikkarten bedeutet ja, das die anderen Segmente mitgezogen werden. 250W im Midrange-Segment und 150W bei Einsteiger-Lösungen - wer will das dann sehen?
Naja .... 400W bei Spitzen-Grafikkarten bedeutet ja, das die anderen Segmente mitgezogen werden. 250W im Midrange-Segment und 150W bei Einsteiger-Lösungen - wer will das dann sehen?
Das müssen wir erstmal abwarten. Man hat imo die 90 auch gewählt um klarzumachen, dass es ein neues Segment obendrüber ist.
Berniyh
2020-08-27, 15:30:45
Das müssen wir erstmal abwarten. Man hat imo die 90 auch gewählt um klarzumachen, dass es ein neues Segment obendrüber ist.
Immerhin verstehen wir jetzt alle, warum Nvidia diese Generation ausgerechnet dem Physiker Ampère gewidmet hat. :D
Complicated
2020-08-27, 15:33:59
Naja .... 400W bei Spitzen-Grafikkarten bedeutet ja, das die anderen Segmente mitgezogen werden. 250W im Midrange-Segment und 150W bei Einsteiger-Lösungen - wer will das dann sehen?
Die selben Leute die auch heute nicht 250W als Limit sehen. Schau dich doch mal hier im Forum um, wer 300W auf seiner GPU verbrät. Warum sollten jetzt plötzlich die 300W als Limit halten wenn es die 250W zuvor auch nicht konnten?
Ich persönlich kaufe mir keine GPUs über 200W TDP -aber ich lese doch hier mit und akzeptiere die Realität die mir begegnet.
Daredevil
2020-08-27, 15:35:26
Ich wäre echt daran interessiert, mal abzuwarten, was Apple dieses Jahr macht.
AMD ist bei 300w Leistungsaufnahme bei 7nm.
Nvidia ist bei 300w Leistungsaufnahme bei 12/8nm.
AMD/Intel haben Prozessoren die bis 200w+ hoch gehen. 7nm/14nm+++++++++
Apple startet nun mit 5nm SOCs im Mobile und auch Desktop Bereicht bei ... wenigen zweistelligen Watt Leistungsaufnahme?
Bin echt sehr sehr gespannt, was diese Dinger leisten sollen, weil Effizienz hat Apple ja dort quasi als Alleinstellungsmerkmal genannt und wenn, wie stark sie sich vergleichen lassen mit dem jetzigen Status Quo.
Ich könnte mir gut vorstellen, meinen Desktop Rechner als Gaming Station zu betreiben und die 90% von allem anderen auf einem Apple Silicon Gerät zu erledigen, welches einen Bruchteil meines Desktops verbraucht. ( ~60w Idle ).
Immerhin verstehen wir jetzt alle, warum Nvidia diese Generation ausgerechnet dem Physiker Ampère gewidmet hat. :D
Und Volta lief mit Hochspannung? ;)
Mich wundert es immer noch sehr, dass Consumer und Server Hardware den gleichen Codenamen haben. Hätte ich ehrlich nicht erwartet.
Berniyh
2020-08-27, 15:49:36
Und Volta lief mit Hochspannung? ;)
Muss ja nicht immer genau passen. Aber bei Turing gab es ja auch Vermutungen, dass der Name nicht ganz ohne Hintergrund gewählt wurde (da der Fokus mehr auf Datacenter / AI war als bei den vorherigen Generationen).
Leonidas
2020-08-27, 15:57:20
Immerhin verstehen wir jetzt alle, warum Nvidia diese Generation ausgerechnet dem Physiker Ampère gewidmet hat. :D
Interessant wird es dann, wenn "James Watt" ansteht ...
Berniyh
2020-08-27, 16:45:56
Interessant wird es dann, wenn "James Watt" ansteht ...
Der war Ingenieur, evtl. qualifiziert das nicht für eine solche Verwendung. :P
(ok, jetzt mach ich mir Feinde unter den Ingenieuren hier. :D)
Bei den Leistungsaufnahmen hängt es nicht nur mehr an der technischen Machbarkeit sondern auch an der ergonomischen Machbarkeit.
Gerade bei Grafikkarten die ja üblicherweise bei Last am Powerlimit hängen und dieses nicht nur in kurzen Spitzen verbrauchen.
Vor allem im Sommer merkt man die 400-500W die ein modernes Gaming-System braucht schon sehr deutlich in der Raumtemperatur.
Wenn das jetzt nur die Grafikkarte alleine braucht wird das nochmals mehr. In den USA wo ein großer Teil der Privathaushalte mit Klimaanlagen ausgestattet ist kann man das eventuell noch verkaufen, aber in Europa sind diese immer eher noch Mangelware, da wird es dann schwer werden.
Die Kühlung selbst ist nicht das große Problem, selbst wenn es mit Luft zu laut wird kann man immer noch auf Wasser gehen, das ist jetzt auch nicht so aufwändig, kaum einer beklagt sich schließlich dass wir seit Jahrzehnten unsere Automotoren mit Wasser kühlen.
Aber: Willst Du es wirklich weiter steigern? Rechne das mal durch ... nur +25% mehr Stromverbrauch pro Generation. Wie schnell sind wir dann bei 1000W nur für die Grafikkarte? Der Limit entsteht eher dadurch, was man dem breiten Markt maximal zumuten kann.
Ja, will ich. Und das ist längst geschehen. Sogar ohne Quad-SLI/XF: R9 295 X2
Titan und Dual/Multi-GPU (in aktueller Auslegung) ist nicht er breite Markt. Und auch der kann noch reichlich Watt vertragen.
Nochmal: Der Nvidia-Stecker zeigt eindeutig auf, wohin es geht.
Leonidas
2020-08-28, 14:29:42
Wie gut verkaufte sich die 295X2? IMO reden wir hier über Nische.
Lehdro
2020-08-28, 14:51:29
Nochmal: Der Nvidia-Stecker zeigt eindeutig auf, wohin es geht.
Nur ist der Stecker elektrisch gesehen schon nahe an seiner Grenze angelangt, ganz im Gegensatz zum 8 Pol PCIe Stecker - der hat massive Sicherheitsmargen nach oben (12P = 540W @ 30°C, 1x8P = 384W @ 30°C). Mit zwei davon wären selbst 700W technisch kein Problem. Der Stecker kommt mir eher wie ein Gimmick (=weniger Platzbedarf, keine andere technische Notwendigkeit) vor, richtig durchdacht ist der nicht. Wenn man wollte, hätte man den gleich richtig spezifizieren können, dann aber mit ordentlicher Reserve von >100%, so wie es halt bei den PCIe Steckern ist.
Wie gut verkaufte sich die 295X2? IMO reden wir hier über Nische.
Muss ich jetzt auf Gewalt weitere Beispiele suchen? Die 295X2 ist schlicht das beste. 7990 war auch weit drüber. GTX690 nicht viel besser. OCs wie RTX 2080 Ti K|NGP|N.
Wenn man wirklich mit 250W hin kommen würde, bräuchte man keinen 2. 8-Pin. Und den haben 'ein paar' mehr.
Natürlich ist das Nische. Das is eine 2080Ti mit 2,5% Verkaufsanteil (laut Mindfactory) auch. Angesichts der kolportierten Preise wird eine 3090 noch viel mehr Nische werden.
Nur ist der Stecker elektrisch gesehen schon nahe an seiner Grenze angelangt, ganz im Gegensatz zum 8 Pol PCIe Stecker
Das ist wohl korrekt. Ich habe mich nicht ohne Grund gewundert.
Bei der Prognose, dass es so weiter gehen wird, bezog ich mich darauf, was die Verbindung liefern können soll.
Warum jetzt ein Adapter mit zwei 8-Pin für den 12-Pin mit angeblich bis 600W reichen soll, ist dann mal ne andere Frage. Ich habe mangels anderer einfacher Option in einem Office-PC SATA2PEG im Einsatz gehabt. Nicht i.O., aber funktionierte.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.