Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie lange können die Strukturbreiten der Prozessoren noch verkleinert werden?
mboeller
2024-08-08, 13:47:06
War das hier schon Gegenstand einer Diskussion?
https://www.science.org/doi/abs/10.1126/science.ado6038
Reiserischer auf deutsch:
TP - Dünner als je zuvor: Wissenschaftler in China entwickeln revolutionäres Halbleitermaterial (https://www.telepolis.de/features/Duenner-als-je-zuvor-Wissenschaftler-in-China-entwickeln-revolutionaeres-Halbleitermaterial-9810287.html)
Danke!
es geht also doch weiter mit MoS2. Davon habe ich schon lange nichts mehr gehört. War schon vor 10(?) Jahren "die Zukunft" und dann wurde es still.
Platos
2024-08-08, 17:29:15
Hört sich aber so nach "in 10 Jahren dann" an. Nicht, dass es nicht gut wäre, aber trotzdem.
Eigentlich wäre es ja in Chinas Interesse, das unter Verschluss zu halten, so dass sie an TSMC und co irgendwann vorbei-/gleichziehen könnten.
Badesalz
2024-08-12, 22:29:49
Hätt ich das eher gefunden, hätt ich mich nach dem Link hier auch komplett raushalten können :rolleyes:
Zhang in ausreichend grob für alle Allgemeininteressierten.
"Present and Future"
https://www.youtube.com/watch?v=D9cBvoBFGuk
demklon
2024-11-30, 04:09:08
Hey Forum,
die Frage ist leider noch nicht beantwortet worden, wie lange wird das technisch noch kleiner gehen, ohne das irgwelche Spezial Lösungen einzug halten werden?
Ich meine, die neuen AMDs sind in der aktuellen Generation doch wieder einen Schritt kleiner geworden.
Ich meine, wie lange kann das noch weitergehen, weil die Wand kommt unerbittlich.
:eek:, dann geht da nichts mehr mit noch kleiner werden.
Grüße
klon
reaperrr
2024-11-30, 05:40:03
die Frage ist leider noch nicht beantwortet worden, wie lange wird das technisch noch kleiner gehen, ohne das irgwelche Spezial Lösungen einzug halten werden?
Kommt drauf an, was für dich schon "Speziallösungen" sind und was nicht.
Im Prinzip sind wir doch schon längst bei "Speziallösungen", nur dass das immer mehr werden.
Fing mit FinFET an, dann immer mehr Multi-Patterning, dann EUV, Chiplets, Stacking, EUV kombiniert mit Double-Patterning, GAA/RibbonFET, BacksideVias, HighNA-EUV usw...
Irgendwas neues wird sich wahrscheinlich immer weiter finden, jedenfalls noch ne lange Zeit.
Auf deine Frage kann keiner seriös mit "noch 5 Jahre" antworten, dafür passiert trotz aller Herausforderungen noch zu viel im Bereich R&D.
Das Problem ist sowieso eher, dass die Kosten für Design, Masken, Wafer usw. für Konsumenten-Produkte irgendwann zu hoch werden und deshalb aus Kostengründen die Fortschritte für Desktop und Mobile (inkl. Smartphones) immer kleiner, langsamer vom Abstand und teurer werden.
Weil irgendwann der Punkt kommt, wo der nächstbessere Prozess zwar kleiner und elektrisch besser wäre, aber eben so viel teurer, dass es das finanziell kleinere Übel ist, im älteren Prozess mehr in die Breite und auf den Sweet-Spot zu gehen.
Die Frage ist für mich daher eher, ob es Nvidia gelingt, den KI-Durchbruch so zu schaffen, dass herkömmliche Raster/RT-basierte Gaming-GPUs und CPUs in dieser Form wieder deutlich an Bedeutung verlieren, weil für den Spieler quasi nur noch KI-Bilder direkt im Spiel generiert werden und echte 3D-Berechnung in der Form gar nicht mehr stattfindet, und auch die CPU nur noch bedingt helfen muss, weil alles auf der AIPU* berechnet wird.
*Irgendsowas lässt sich NV doch bestimmt einfallen.
Tobalt
2024-11-30, 07:42:41
Ehh genau diese Antworten gab es doch schon zu Beginn des Threads:
a) passiert fortlaufend und wird immer teurer
b) Software!!
Damit der Thread endlich zu gemacht werden kann, braucht es aber eine Jahreszahl:
@demklon: Es sind noch 7 Jahre.
demklon
2024-11-30, 14:52:32
Ehh genau diese Antworten gab es doch schon zu Beginn des Threads:
a) passiert fortlaufend und wird immer teurer
b) Software!!
Damit der Thread endlich zu gemacht werden kann, braucht es aber eine Jahreszahl:
@demklon: Es sind noch 7 Jahre.
Einfach, um das Miniaturisieren der Strukturbreite zu umgehen, und am Ende einfach mehr Leistung zu erfahren.
@Tobalt, ;D genau auf solch eine Antwort habe ich gewartet.
iamthebear
2024-11-30, 15:21:35
Die Transistordichte wurde immer als Benchmark für die technische Weiterentwicklung verwendet aber eigentlich ist es für die meisten Chips vollkommen irrelevant wie groß diese nun sind.
Um was es schlussendlich geht ist:
.) Kosten/Transistor
.) Performance
.) Verlustleistung
Die wichtigste Metrik hierbei sind Kosten/Transistor. Diese ist bereits seit einigen Generationen nicht mehr nennenswert gefallen:
.) Bis 7nm hat noch alles wunderbar skaliert
.) 5nm: Ist knapp 50% teurer bei 70% Logik Density. Das macht schon nur mehr auf Grund der Performance/Verlustleistung Sinn
.) 3nm: Ist noch einmal knapp 50% teurer bei vielleicht 30-40% Density. Das ist bereits etwas teurer und Performance/Verlustleistung ist auch nicht so viel besser. Das ist schon fraglich.
.) 2nm: Noch einmal 40% teurer bei <20% mehr Logik Density. Das ist schon nur mehr in Nischenprozess für Datacenter und fraglich ob wir das jemals in einem Gaming Rechner sehen werden.
Je nachdem welches Gerät wir nun betrachten ist Moores Law schon zu Ende bzw. endet bald. Man kann hier keine Jahreszahl festmachen.
An irgendeinem Punkt wird wohl die Forschung komplett eingestellt werden aber faktisch ist es für viele Produkte bereits jetzt zu Ende.
demklon
2024-11-30, 16:10:37
@Tobalt,
7,342, oder doch mehr ? ;D
demklon
2024-11-30, 16:12:32
muahahahaha yeah man, damit bin ich zufrieden *FG* :tongue: :D
Warum zumachen? Stand sehr sehr viel richtiges, und mir natürlich unverständliches im Fred.
Hier sind paar richtige crax am werke. :eek:
Skysnake
2024-11-30, 16:34:13
Wir sind doch schon am Ende. Was willst du mehr machen als einzelne Atome zu bewegen?
Das kann halt nur keiner bezahlen.
Es ist also kein technologisches Ende das uns treffen wird sondern ein ökonomisches.
demklon
2024-11-30, 16:41:23
:D Ganz einfach, wie wärs mit Atome Spalten .... ;D
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.