Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum kommen wir nicht von den 3 GHz weg?
][immy
2018-04-23, 08:46:14
Ich weiß die CPUs gehen inzwischen bis >4GHz im Turbo-Modus, allerdings dümpeln wir seit über einem Jahrzehnt bei dieser scheinbaren 3GHz Schwelle herum und jede neue Architektur startet erst mal dort und geht da nur sehr gemächlich drüber.
Schon der Pentium 4 sollte ja sehr viel weiter gehen, was dann aber nicht so richtig funktionierte, weil die Verlustleistung einfach viel zu groß wurde.
Stattdessen geht ja auch alles in die Breite und die Steigerung der Effizienz, was erst mal auch nicht verkehrt ist, da es aktuell mehr bringt als die Frequenzen immer höher zu treiben, aber warum gibt es da keinen merklicheren Fortschritt im Frequenzbereich?
Vor 20 Jahren hätte man an sich erwartet das wir heute schon die 10GHz Mauer durchbrochen hätten aber wir knabbern ja grad mal so im Turbo und guten Kühlungen an den 5GHz.
SKYNET
2018-04-23, 09:49:41
[immy;11678621']Ich weiß die CPUs gehen inzwischen bis >4GHz im Turbo-Modus, allerdings dümpeln wir seit über einem Jahrzehnt bei dieser scheinbaren 3GHz Schwelle herum und jede neue Architektur startet erst mal dort und geht da nur sehr gemächlich drüber.
Schon der Pentium 4 sollte ja sehr viel weiter gehen, was dann aber nicht so richtig funktionierte, weil die Verlustleistung einfach viel zu groß wurde.
Stattdessen geht ja auch alles in die Breite und die Steigerung der Effizienz, was erst mal auch nicht verkehrt ist, da es aktuell mehr bringt als die Frequenzen immer höher zu treiben, aber warum gibt es da keinen merklicheren Fortschritt im Frequenzbereich?
Vor 20 Jahren hätte man an sich erwartet das wir heute schon die 10GHz Mauer durchbrochen hätten aber wir knabbern ja grad mal so im Turbo und guten Kühlungen an den 5GHz.
kommt einfach auf die architektur an, du kannst speed über effizienz oder über takt rausholen... ersteres hat sich aber als rohrkrepierer rausgestellt(northwood, bulldozer...) da die verlustleistung höher ausfällt bei gleicher leistung wie eine CPU die auf effezienz getrimmt ist.
Ganon
2018-04-23, 12:07:06
[immy;11678621']Vor 20 Jahren hätte man an sich erwartet das wir heute schon die 10GHz Mauer durchbrochen hätten aber wir knabbern ja grad mal so im Turbo und guten Kühlungen an den 5GHz.
Um es mal doof zu sagen: Da hat die Physik einfach der BWL einen Strich durch die Rechnung gemacht. Man hatte damals einfach die anfänglichen Erfolge durch Strukturverbesserungen ins beliebige hochgerechnet und gesagt "in X Jahren haben wir 10Ghz CPUs".
Man kann halt Transistoren nicht beliebig lange verkleinern und sie dazu noch beliebig hoch takten. Es treten halt irgendwann verstärkt Seiteneffekte wie Leckströme (älterer Artikel) (https://www.elektronik-kompendium.de/sites/grd/1011011.htm) ein.
Dazu kommt sicherlich auch noch der mangelnde Bedarf schnell eine Lösung für solche Probleme zu finden. Aktuell fährt man momentan ziemlich gut, einfach in die Breite zu gehen. Es ist einfacher Strom zu sparen durch vollständige Abschaltung einzelner Kerne und man hat auch ein paar mehr Freiheiten im Design.
Zudem ist es vermutlich auch wirtschaftlich Riskant jetzt plötzlich wieder auf den Ghz-Wahn aufzuspringen, wenn die HPC Welt gerade in Richtung GPUs wandert. Auch eine potentielle 10Ghz CPU kann es nicht unbedingt mit einer jetzigen GPU aufnehmen, wenn die Aufgabe passt.
Du kannst bei den derzeitige Die-Größen rund 100Watt vernünftig kühlen. Bei Größeren Dice (Threadripper, Skylake-X) gehen auch 180W. Das gilt für Desktop-Consumer.
IBM hat mit seinen Power-CPUs auch 5GHZ- Maschinen, das ist aber arschteuer und eine spezielle Architektur.
basix
2018-04-23, 12:41:51
Das Problem ist sehr komplex und betrifft mehrere Aspekte.
Latenzen und Synchronisation der einzelnen Schaltwerke innerhalb der Mikrochips. Man kann nicht beliebig den Takt aufdrehen, bis einem irgendwo Zeit für die Synchronisation fehlt, das extrem komplexe Konstrukt aus dem Tritt gerät und voilà, das System wird instabil. Dann hilft dann auch mehr Spannung nicht. Bestes Beispiel ist aktuell Ryzen mit einer sehr harten Takt-Wall.
Taktbarkeit des Transistors sowie Verbindungsmaterialien. Das Material an sich hat gewisse Grenzen. Das Problem sind oft parasitäre Kapazitäten und Widerstände. Dadurch wird die Taktbarkeit automatisch begrenzt. Umso höher die Kapazität, desto höher muss der Strom sein um die Frequenz zu erhöhen (grössere Ladung muss umgeladen werden). Desto höher der Strom, desto höher Verluste an Widerständen. Mehr Strom kann durch mehr Spannung erreicht werden. Desto höher die Spannung, desto eher erreicht man das Energie-Budget-Limit da die Spannung quadratisch die Leistungsaufnahme erhöht. Deswegen möchte man die Spannung eben nicht erhöhen sondern verringern. Deswegen sind die effizientesten Designs auch <1.0V unterwegs (Stichwort: Near Threshold Operation). Deshalb macht Multi-Core auch so viel Sinn, man kann nämlich die Schaltwerke bei niedrigeren Spannungen betreiben. Das erhöht im Endeffekt die Effizienz.
Frequenzabhängigkeiten der Materialien. Umso höher die Frequenz, desto stärker fallen dir beispielsweise die Induktivität sowie der Skin Effekt zur Last. Induktivität für zu internen Spannungsspitzen, welche z.B. die Isolationsschichten aushalten müssen. Der Skin Effekt führt zu einem erhöhten Widerstand vom Leitungen.
Paradoxerweise nimmt mit geringeren Strukturgrössen der Materialwiderstand überproportional zu. Dadurch steigt die Verlustleistung. Deswegen werden z.B. bei 7nm (TSMC, GloFo) / 10nm (Intel) Kobalt-Interconnects benutzt, welche hier ein deutlich besseres Verhalten als Kupfer zeigen. Im Nanometer Bereich werden ganz andere Effekte aktiv, welche bei makroskopischen Grössen (z.B. Mikrometer) noch gar keine Rolle gespielt haben. Beispiel sind quantenmechanische Effekte wie der Tunneleffekt. Ausserdem verhalten sich alle Materialien einiges anders, wie dass zum Beispiel immer mehr die Oberfläche von Materialien entscheidend für das Verhalten sind und nicht mehr z.B. das Volumen oder die Masse. Das ganze quantenmechanische Zeugs hat ca. ab <90nm angefangen einen relevanten Effekt auszumachen.
Verlustleistungsdeckel: Mehr als heute geht nicht mehr sinnvoll in einem PC. Früher waren CPUs noch passiv gekühlt. Wenn man die Erhöhung der Verlustleistung seit Anfang der 90er Jahre miteinbezieht, sieht es mit dem Performance-Gewinn deutlich bescheidener aus. Den Verlustleistungsdeckel hat man ca. 2005 rum erreicht. Seitdem stagnieren der Verbrauch von Computerchips. Deswegen geht es da auch langsamer vorwärts. Da man eben in dieser Power-Wall gefangen war und noch ist, musste man irgendwie anders die Effizienz erhöhen. Die Lösung war Multi-Core, weil eben dadurch die Effizienz gesteigert werden konnte (geringerer Takt und deswegen geringere Spannungen) und somit die Rechenleistung bei selbem Stromverbrauch.
usw.
Wie du siehst, gibt es etliche physikalische Gesetzmässigkeiten, welche sich gegen eine Erhöhung der Frequenz sträuben. Per Design kann man einiges an Takt rausholen (wie meine Vorredner schon gesagt haben) aber das bedeutet nicht, dass es am Schluss schneller ist (siehe Bulldozer vs. Core Architektur). Eine höhe IPC verlangt eben nach hohen Anforderungen bezüglich Latenz und Synchronisation. Deswegen lassen sich Designs mit hoher IPC typischerweise nicht so hoch takten. Ein weiteres Beispiel ist hier P4 vs. Core Architektur. An Schluss dreht sich alles um Performance / Watt. Da hier die "Watt" mehr oder minder nicht mehr erhöht werden können, muss zwingend die Effizienz steigen. Und das geht deutlich einfacher mit mehr Kernen und dafür weniger Takt. Die GHz sind zudem für Server Betreiber nicht das Hauptkriterium. Meistens ist es eben auch Energieeffizienz. Deswegen haben z.B. Intel und AMD gar nicht das unmittelbare Interesse auf biegen und brechen den Takt zu erhöhen. Natürlich hilft Takt bezüglich Performance, aber die Aufwände sind irgendwann zu hoch.
Tobalt
2018-04-23, 12:42:21
ich vermute, dass das Problem in der Verdrahtung liegt wo sich im bereich einiger GHz dann einfach hohe impedanzrn ergeben aufgrund von parasitären Induktivitäten und Kapazitäten.
einzelne transistrn lassen sich glaub schon deutlich höher takten. aber wrnn man sie dicht packt eben nicht mehr.
Tesseract
2018-04-23, 16:15:45
auf 5GHz legt selbst das licht im vakuum nur ~6cm zurück. wollte man die chips deutlich höher takten müssten sie weniger komplex sein und das will man natürlich nicht da sie sonst auch deutlich weniger IPC hätten.
warum komplexität sinnvoller als takt ist ist dann ein sehr facettenreiches thema wo alles mögliche von caching (locality of reference usw.) bis zu leckströmen relevant ist.
Botcruscher
2018-04-23, 17:28:22
Die 6cm sollten aber auch in Relation zur Transistorgröße gesehen werden. Da ist es schon verdammt weit...
Skysnake
2018-04-23, 19:34:17
Naja wenn du nen Infiniband Adapter hast, dann läuft der mit bis zu 12,5 GHZ. Also das geht schon, selbst aus nem Chip raus.
Die Schaltungen die derartige Taktraten mit machen muss man aber schon ziemlich treten. Das wird einfach verdammt ineffizient.
Im Prinzip kannste mal nach gm/Id Methode Googeln. Da wird dann klar das Transistoren eben ab einer gewissen Geschwindigkeit ineffizient werden.
Und früher konnte man die Kapazität die getrieben wird praktisch mit der Kapazität der Transistoren gleichsetzen. Heute ist die Leitungskapazität aber etwa so groß oder sogar größer als die der Transistoren. Und die interconnects skalieren halt deutlich schlechter als die Transistoren. Daher sehen wir unter anderem halt nicht mehr die Taktateigerungen.
Von so banalen Sachen wie der endlichen Ausbreitungsgeschwindigkeit des Signals mal ganz zu schweigen. Wobei das auch NUR für Transmission lines eine gute Näherung ist. Für nen einfachen Inverter hast du um die 10ps Delay minimum, wenn ich es richtig im Kopf habe. Nach 10 Invertern wärst du also nur noch bei 10Ghz. Jetzt rate mal wieviel Schaltungen in nem Chip sind die komplexer sind.
Da killt die einfach die Physik.
Leonidas
2018-04-23, 21:09:29
... und dies in einem Maßstab, den wir uns vorher nicht hätten vorstellen können. Womöglich braucht es für 1 GHz mehr zukünfig mehrere Dekaden.
PS:
Ich hab noch die Nehalem-Gerüchte im Kopf, als Nehalem noch als Pentium-4-Weiterführung mit Taktraten von bis zu 9.6 GHz (in Ausbaustufen) geplant war. Irgendwo hier im Forum steht das noch so.
Daredevil
2018-04-23, 21:14:11
Schnall dir ne Wakü drauf und leg die Voltkeule an, dann kannst du auch ordentlich Ghz fahren.
Effizienz bringt dir die Industrie, um den Takt und um die Verlustleistung musst du dich halt selber kümmern.
Meinen X5670 prügel ich auf 4.7Ghz und ein Ryzen 2600x lässt ihn locker 30-40% hinter sich.
Warum also umsonst das Zimmer beheizen. :D
IceKillFX57
2018-04-23, 23:01:56
Ich verstehe das nicht..gibt doch genug CPUs die auch ohne Turbo mind. 4GHz fahren....
Thoro
2018-04-23, 23:39:40
Ich verstehe das nicht..gibt doch genug CPUs die auch ohne Turbo mind. 4GHz fahren....
Die 3 GHz im Titel sind vl etwas niedrig angesetzt, aber dass die Taktraten die letzten 8-10 Jahre kaum gestiegen sind ist nicht von der Hand zu weisen.
][immy
2018-04-24, 00:04:48
Ich verstehe das nicht..gibt doch genug CPUs die auch ohne Turbo mind. 4GHz fahren....
Es geht ja darum das wir eigentlich seit dem p4 (3ghz im jahre 2002) rein vom takt her die gleichen taktraten haben. Z.b. Auch der raten jetzt wieder der in dem bereich rumdümpelt.
Das mit der Lichtgeschwindigkeit hatte ich noch gar nicht bedacht, wie langsam die doch plötzlich erscheinen kann.
Mal so nebenbei gefragt und aus spass, hat mal jemand ausgerechnet wie die Bezeichnung eines ryzens lauten müsste wenn man das athlon xp rating nutzen würde
5CH4CHT3L
2018-04-24, 00:19:23
[immy;11679291']Mal so nebenbei gefragt und aus spass, hat mal jemand ausgerechnet wie die Bezeichnung eines ryzens lauten müsste wenn man das athlon xp rating nutzen würde
Hab gerade Spaß:
Hab auf die schnelle nur PassMark gefunden:
https://www.cpubenchmark.net/cpu.php?cpu=AMD+Athlon+XP+3200%2B&id=233&full
https://www.cpubenchmark.net/cpu.php?cpu=AMD+Ryzen+7+2700X&id=3238
17.160/433=39,63
3200x39,63=127.000
Ryzen 7 2700X: 17.160
Athlon XP 3200+: 433
Athlon XP 127000+ wär doch eigentlich ein schöner Name oder?
Langlay
2018-04-24, 00:22:32
[immy;11679291']
Mal so nebenbei gefragt und aus spass, hat mal jemand ausgerechnet wie die Bezeichnung eines ryzens lauten müsste wenn man das athlon xp rating nutzen würde
Das kann niemand, da es kein Einheitliches Rating ist. Das Ration von Barton Chips z.b. basiert auf einem leicht anderen System als T-Bred Chips z.b.
Benutzername
2018-04-24, 00:25:58
... und dies in einem Maßstab, den wir uns vorher nicht hätten vorstellen können. Womöglich braucht es für 1 GHz mehr zukünfig mehrere Dekaden.
Sättigungskurve. Zu Anfang löst sich der zucker im Tee auf bevor er den Boden der Tasse erreicht. Jede weitere Steigerung wird immer schwieriger und schwieriger je näher man dem Grenzwert kommt und der Aufwand immer größer mehr Zucker zu lösen bis praktisch nichts sich mehr löst. Ähnlich ist es mit den Taktraten. Früher hatte man extrem schnelle Steigerung der Taktraten innerhalb nur eines Jahres. Heute muss man wegen der "Schallmauer" in Form der Ausbreitungsgeschwindigkeit der Signale, Materialeigenschaften etc. um jedes bisschen kämpfen und bekommt doch nicht so richtig mehr bei raus und stößt an die Grenzen, die einem die Naturgetze geben.
Deswegen geht man ja auch "in die Breite" und packt immer mehr CPU cores ins Gehäuse um mehr Rechenleistung zu haben durch Parallelisierung, weil ein einzelner Rechenkern eigentlich kaum noch schneller zu bauen geht. Außer Optimierungen wird da glaube Ich mit dotiertem Silizium als Chip-Material und Transistor-Bauweise nicht mehr viel kommen an Geschwindgkeitsgewinnen. Das einfache Takt hochdrehen geht nicht mehr.
Vielleicht findet ja jemand bessere Schalter als Transistoren, die schneller können?
edit: vor Jahren habe Ich mal was über chips mit asynchroner Taktung gelesen, also daß nicht überall das gleiche Taktsignal anliegt. Keine Ahnung, wie die das dann am Ende wieder koordiniert haben zum Rechenergebnis, aber es würde die Probleme alles synchron zu halten natürlich eliminieren, wenn man das denn für CPUs verwenden könnte.
PS:
Ich hab noch die Nehalem-Gerüchte im Kopf, als Nehalem noch als Pentium-4-Weiterführung mit Taktraten von bis zu 9.6 GHz (in Ausbaustufen) geplant war. Irgendwo hier im Forum steht das noch so.
Fand Ich damals schon sehr zweifelhaft und mehr zusammenhalluzinierte Wunschträume der Leute, die sich an NetBurst klammerten und unbedingt AMD und alles andere schlecht reden mussten. Vielleicht auch Propaganda der Intel Vermarktungsabteilung um AMD zu untergraben.
Komisch, daß nie jemand Rambus verteidigt hat. ;D
Benutzername
2018-04-24, 00:36:03
Die 6cm sollten aber auch in Relation zur Transistorgröße gesehen werden. Da ist es schon verdammt weit...
Lege mal alle Leiterbahnen hintereinander. Da kommt ganz schön was zusammen in dem Irrgarten auf kleiner Fläche.
Fusion_Power
2018-04-24, 01:44:29
Also ich persönlich mag gern stromsparende, kühle Prozessoren und da sind natürlich Grenzen bei den taktraten gesetzt. mehr als 65W TDP würde ich mir nicht mehr antun im Desktop PC, bei Notebooks find ich schon 45W prozessoren arg übertrieben. Lieber mehr kerne als mehr Gigaherz, denkt doch auch mal an eure Stromrechnung. ;)
basix
2018-04-24, 07:29:39
Das mit der Lichtgeschwindigkeit ist wirklich noch ein guter Punkt. Weil wenn die Wellenlänge im Verhältnis zur Leiterlänge gross ist (so in Richtung 1/4) gilt es als HF. Deswegen ist aus elektrischer Sicht eine CPU noch gar nicht im HF Bereich unterwegs. Ja klingt paradox, aber bei typischen Gate zu Gate Abständen im Mikrometer / maximal Millimeter Bereich ist das so. Dort will man aber sicher nict hin, dann wird es dann wiklich hässlich mit Chipdesign. Anders sieht es bei Off-Chip Vebindungen aus.
Stellt euch die L1 Latenz von 1ns vor. Dann darf der Weg von der Zelle hin und zurück maximal 20-30cm sein. 30cm eigentlich eher nicht, in Chips ist die Wellenausbreitunggeschwindigkeit niedriger als im Vakuum. 20cm klingt immer noch nach viel, mit allen Gates die dazwischen liegen wird die Distanz aber wesentlich geringer sein. Und über alle Umwege und Kontrolllogiken wird auch der Weg deutlich länger sein als nur von Speicherzelle zur ALU. Dann führt jede Leitungskapazität zu einem zusätzlichen Delay usw.
Deswegen: Die Lichtgeschwindigkeit zusammen mit den geometrischen Abmessungen begrenzen den Takt. Weil das führt irgendwo mal zu einer Latenz- und Synchronisatins-Wall. Und da seit ca. 90nm das Scaling ein wenig anders verläuft (Strukturgrössen werden eben nicht so viel kleiner wie es die Nanometer Angaben suggerieren) führt das zu einer automatischen Verlangsamung. Mit Pipelining kann man vielleich noch was an Takt rausholen (siehe P4) aber ob es dann schneller ist? ;)
Daredevil
2018-04-24, 08:58:06
Aber mal so grundsätzlich, wieso ziehen wir bei einer Grafikkarte eine Grenze bei 200-300w TPD und muten unseren CPUs höchstens nur ~100w zu?
Man kann ja locker mit 150-200w einen Coffee Lake über 5 Ghz betreiben, wenn man einen ebenfalls dicken Kühler wie eben bei GPUs auch draufschnallt.
Fertig ist das 5Ghz Experiment aka Bulldozer. :D Nur muss da dann halt auch was dahinter sein.
Aber dann braucht man auch zu jedem 150w+ Prozessor einen Kühler für nen Fuffi-Hunni, sonst bekommt man das Teil nicht ruhig. Die Grafikkarten Hersteller verbauen den Kollegen ja schon vorab. ( Grüße gehen raus an die 3 Slot Karten. :D )
Dann kämen wir auf jeden Fall von den 3 Ghz weg. Ist nur die Frage, ob man das nicht lieber optional halten möchte mit dem Weg des Overclockings.
Elite_Warrior
2018-04-24, 09:30:34
Man kann ja locker mit 150-200w einen Coffee Lake über 5 Ghz betreiben[...]
Würde Intel nicht ihre alberne Paste drauf schmieren wäre es wohl einfacher. :D
Daredevil
2018-04-24, 09:33:58
Das ist korrekt. :D
Ich bin aber immer noch fest der Annahme, dass Intel das absichtlich macht bei Consumer CPUs, damit die eben nicht bis zum erbrechen übertaktet werden, weil die OC Modelle dann die nächsten Generationen obsolet machen können. ( Grüße an Ivy und Sandy Bridge )
AMD macht das ja auch.... zwar nicht über die Thermik, aber über ihre "OC Wall".
Ob nun absichtlich oder ungeplant akzeptiert ist... ist ja auch egal.
Was bringt mir ne verlötete AMD Cpu, wenn ich sie eh nur ~5% mehr takten kann. :D
Ganon
2018-04-24, 09:35:32
Wie kommst du auf "höchstens 100W"? Intels >20Kern CPUs haben gut und gerne eine TDP von ~200W. Auch AMDs Epyc Prozessoren bewegen sich in dem Bereich. Hoher Stromverbrauch aufgrund großer Breite ist halt relativ simpel.
Stabil 5Ghz zu halten, auf langem Zeitraum, ist halt was anderes. Willst ja auch nicht, dass deine CPU nach 3 Jahren den Geist aufgibt, weil "ausgebrannt".
Daredevil
2018-04-24, 09:46:14
Ich meinte damit ja auch nicht die HEDT/Server Plattformen, sondern die Consumer Produkte.
Ein Threadripper/Epyc bringt den meisten Gamern ja kaum/keinen Vorteil. Wenn man auf viele Threads steht, kann man sich heute ja schon etliche Kerne in Dual Socket Systemen für relativ schmales Geld zusammen schustern, das ist ja nichts neues.
Es geht hier ja um die MHz und nicht um die Manycore Systeme.
Würde Threadripper bis 5Ghz boosten auf 1-2 Kernen, wäre der bestimmt hier öfter vertreten. ;)
Ganon
2018-04-24, 09:54:32
Der hohe Stromverbrauch kommt halt aufgrund der Breite. Bei GPUs ja auch. Die takten ja auch nicht auf 5Ghz, damit sie solche Verlustraten aufweisen.
Der Stromverbrauch ist nicht das Problem für hohen Takt. Der hohe Takt ist das Problem für hohen Takt. Sie einfach die restlichen Erklärungen im Thread ;)
Ben Carter
2018-04-24, 09:57:44
Aber mal so grundsätzlich, wieso ziehen wir bei einer Grafikkarte eine Grenze bei 200-300w TPD und muten unseren CPUs höchstens nur ~100w zu?
Das Stichwort hier ist W/mm². Das spielt sich im High-End Bereich so um die 0,5 bis 0,6 W/mm² ab. Egal ob CPU oder GPU.
lg Ben
Der_Korken
2018-04-24, 09:59:05
Was soll es bringen kleine Chips wie Ryzen (der Die ist kleiner als der einer RX480!) mit der Spannungskeule auf 200W hochzuprügeln? Statt 4Ghz bei 100W schafft er dann 4,3Ghz bei 200W, ja Wahnsinn. Oder 4,5Ghz bei 300W. Mit 1,6V und 1,5 Jahren Lebensdauer, bis sich der Chip von innen auflöst. Kühlung wird dann selbst mit Wakü schwer.
Das einzige, was hier was bringen könnte, wäre die Packdichte massiv zu verringern. Aber für 10-20% mehr Takt würde kein CPU-Hersteller auf 50% Cores verzichten, salopp gesagt.
Daredevil
2018-04-24, 10:29:15
Der hohe Stromverbrauch kommt halt aufgrund der Breite. Bei GPUs ja auch. Die takten ja auch nicht auf 5Ghz, damit sie solche Verlustraten aufweisen.
Naja... zumindest zwischen Pascal und Vega gibt es da aktuell eine große Performance Kluft, wenn man Vega im Sweet Spot betreiben will.
Aber ja, 5 Ghz sinds wohl wahr nicht.
Das Stichwort hier ist W/mm². Das spielt sich im High-End Bereich so um die 0,5 bis 0,6 W/mm² ab. Egal ob CPU oder GPU.
lg Ben
Ja, verstehe ich. Ich sehe das ja auch an meinen WaKü Temps.
Nichtsdestotrotz liefern Intel mit seinen Boxed Kühlern keine Champions aus, wenn eine CPU ja so schwer zu kühlen ist..
Was soll es bringen kleine Chips wie Ryzen (der Die ist kleiner als der einer RX480!) mit der Spannungskeule auf 200W hochzuprügeln? Statt 4Ghz bei 100W schafft er dann 4,3Ghz bei 200W, ja Wahnsinn. Oder 4,5Ghz bei 300W. Mit 1,6V und 1,5 Jahren Lebensdauer, bis sich der Chip von innen auflöst. Kühlung wird dann selbst mit Wakü schwer.
Das einzige, was hier was bringen könnte, wäre die Packdichte massiv zu verringern. Aber für 10-20% mehr Takt würde kein CPU-Hersteller auf 50% Cores verzichten, salopp gesagt.
Was es bringen soll? Performance. :D
Wenn du die nicht brauchst, ist das ja okay für dich.
Stell dir vor, deine jetzige CPU ist sogar noch effizienter, wenn du sie runtertaktest und weiter undervoltest. Tust du das, um prozentual mehr Strom zu sparen als Performance zu verlieren, weil es Sinn macht? Nö.
Eine Vega ist lt. meinen Tests auch bei ~1.1Ghz@0.8v im Sweet Spot, aber dann ist sie kaum schneller als eine gute OC RX580, die aber dann natürlich mehr Saft zieht.
Sweet Spots betreiben ist wahrlich schön, aber auch nur dann, wenn man weitere Performance nicht benötigt.
Deine Watt Abgaben und die Sterberate sind aber auch nur aus den Fingern gezogen...
Ben Carter
2018-04-24, 14:01:27
Ja, verstehe ich. Ich sehe das ja auch an meinen WaKü Temps. Nichtsdestotrotz liefern Intel mit seinen Boxed Kühlern keine Champions aus, wenn eine CPU ja so schwer zu kühlen ist..
Irgendwo wird aber der Punkt sein, an dem es nicht mehr einfach so möglich ist, mit einem herkömmlichen Wasser- bzw. Luftkühler, der nur auf der Oberfläche aufliegt, ausreichend Wärmeenergie abzuführen, egal wie gut der Kühler selbst ist. Wie nahe man an dem Punkt mit 0,6W/mm² ist, kann ich nicht beurteilen.
Wenn man allerdings einen Skylake-X mit 4,6GHz & ~700W und Luftkühlung betreiben kann, ist das Limit aber eher höher als niedriger. Aber es gibt bestimmt auch gewisse Reserven einzuhalten.
lg Ben
basix
2018-04-24, 21:16:29
700W sind wohl ein wenig übertrieben, wenn 5.7 GHz 7980X 1kW zieht (siehe der8auer). Mein 5960X zieht mit 3.6GHz 100W, mit 4.4GHz 200W und mit 4.6GHz will ich es gar nicht wissen :D
Ich habe mit meinem 5820K und 5960X mal die Verbrauch-Skalierung getestet. Bei beiden gleich (ok ist selbe Technologie). Für +10% Takt kommen ca. +40% Verbrauch oben drauf (f*U^2). Dass das eigentlich keinen Sinn macht ist wohl jedem klar. Das hat solange Sinn gemacht, solange die Spannung mit jedem Node niedriger wurde. Seit Dennard's Scaling ca. 2005 nicht mehr weiter ging, bedeutet höhere Takt meistens auch höhere Spannung. Und Spannung ist Gift für die Energieeffizienz. Da wir uns in der Powerwall befinden (keine Verbrauch Erhöhung sinnvoll), muss eben die Effizienz steigen. Also nicht mehr Spannung, sondern wenig. Deshalb Takt nicht wesentlich erhöherbar usw.
Ben Carter
2018-04-24, 21:49:26
https://www.computerbase.de/2017-09/intel-core-i9-7980xe-7960x-cpu-test/5/#abschnitt_uebertakten_bis_die_sicherung_kommt
basix
2018-04-24, 22:21:39
Gesamtsystem != CPU. Auch bei den 450W zusätzlich kannst du locker nochmal 25% abziehen wegen Netzteil und Wandlerverlusten. Für die CPU selber wirst du also vielleicht bei 450W landen wenn das System fast 700W verbrät.
Tyson
2018-04-24, 23:50:44
Hallo,
die Lichtgeschwindigkeit im Vakuum kann auf elektrische Leiter nicht direkt angewendet werden, ist aber in der Formel enthalten...
v=c0/sqrt(er*e0) oder halt v=1/sqrt(L'*C')...
Ich muss den Vorrednern aber zustimmen, die Leitungslänge zwischen den Gatern wird soweit unter lambda/4 liegen das sich hier eine impedanzgeführte Leitung bilden wird. Ändert aber trotzdem nichts an der Ausbreitungsgeschwindigkeit:
Als Faustformel für Kupfer bleiben von der Lichtgeschwindigkeit noch ca 2/3 übrig.
Noch was zur Verlustleistung und damit sich ergebenen Maximaltemperatur: Transistoren werden mit höherer Temperatur langsamer weil mehr freie Ladungsträger durch die Gegend sausen.
Und eine einfache! ALU schnell zu kriegen ist an sich nicht schwer, Transitfrequenzen von 300 GHz sind heute machbar. Um die aber zu bekommen muss da halt auch Strom fließen (Transistoren werden schneller wenn weit weg vom Threshold betrieben werden, weil die Elektronenmobilität zunimmt). Wir haben diverse Schaltkreise im Labor die > 20 GHz können. Das sind aber keine wirklich programmierbaren Rechenwerke... Kann halt genau eine Sache, die dafür schnell.
Lief nicht irgendein Teil der CPU auch mal mit doppelten Basistakt?!
Gruß Tyson
gravitationsfeld
2018-04-25, 00:21:57
Intel hat im Pentium 4 double pumped ALUs in verschiedenen Ausfuehrungen gehabt, ja.
Ich glaube es gab sowohl einfach verdoppelte Logik und dann interleaving als auch wirklich Modelle wo die mit 6Ghz liefen.
DrumDub
2018-04-25, 10:17:03
https://www.computerbase.de/2017-09/intel-core-i9-7980xe-7960x-cpu-test/5/#abschnitt_uebertakten_bis_die_sicherung_kommt :eek: krasse nummer. von 250w auf 700w verberauch durch overclocking aller kerne. :D
Rooter
2018-04-28, 19:07:23
Mit Pipelining kann man vielleich noch was an Takt rausholen (siehe P4) aber ob es dann schneller ist? ;)Damit ist man seit Netburst ja weggegangen weil man eine lange Pipeline nicht mal mit HT effizient gefüllt bekommt.
MfG
Rooter
SKYNET
2018-04-28, 20:22:28
Gesamtsystem != CPU. Auch bei den 450W zusätzlich kannst du locker nochmal 25% abziehen wegen Netzteil und Wandlerverlusten. Für die CPU selber wirst du also vielleicht bei 450W landen wenn das System fast 700W verbrät.
nö, chipsatz und speicher werden weiterhin gleichviel verbrauchen...
das NT sollte wenns ein gutes ist sogar besser in sweetspot arbeiten wenn es höher ausgelastet ist, einzig die spannungversorgung vom mobo könnte evtl. erhöhte verluste aufweisen, die
l aber wohl durch die bessere effizienz vom NT ausgebügelt werden sollten.
also kannst von eher 550W für die CPU ausgehen :freak: aber bei 18 kernen auch kein wunder.
basix
2018-04-28, 21:13:43
700W * 0.9 * 0.8 = 500W. Und dann kannst du noch 50W für Chipsatz, Lüfter, HDD, Speicher etc. abziehen und man landet auf 450W ;)
0.9 = Netzteil-Effizienz, 0.8 = VRM-Effizienz.
Fattyman
2018-04-29, 00:57:47
Hab gerade Spaß:
Hab auf die schnelle nur PassMark gefunden:
https://www.cpubenchmark.net/cpu.php?cpu=AMD+Athlon+XP+3200%2B&id=233&full
https://www.cpubenchmark.net/cpu.php?cpu=AMD+Ryzen+7+2700X&id=3238
17.160/433=39,63
3200x39,63=127.000
Ryzen 7 2700X: 17.160
Athlon XP 3200+: 433
Athlon XP 127000+ wär doch eigentlich ein schöner Name oder?
Der Wert ist für einen Prozessor, der 16 virtuelle Kerne hat und mit knapp 3,7 GHz betaktet wird, erstaunlich gering. Der 1-Kern-Athlon XP 3200+ wurde nur mit 2200 MHz betaktet. Da kommt eigentlich nur eine Effizienzsteigerung von 50 % IPC-Leistung pro Kern heraus.
StefanV
2018-04-29, 01:20:34
Damit ist man seit Netburst ja weggegangen weil man eine lange Pipeline nicht mal mit HT effizient gefüllt bekommt.
War nicht nur der Grund dafür.
Such mal nach "Netburst Replay".
Das Teil hatte einfach einige total bescheuerte Ansätze...
SKYNET
2018-04-29, 01:28:21
Der Wert ist für einen Prozessor, der 16 virtuelle Kerne hat und mit knapp 3,7 GHz betaktet wird, erstaunlich gering. Der 1-Kern-Athlon XP 3200+ wurde nur mit 2200 MHz betaktet. Da kommt eigentlich nur eine Effizienzsteigerung von 50 % IPC-Leistung pro Kern heraus.
irgendwas stimmt da aber nicht, weil nen sempron 3600+(2.2GHz) sogar weniger hat: https://www.cpubenchmark.net/cpu.php?cpu=Mobile+AMD+Sempron+3600%2B&id=1357
und nen A64 2.2GHz wiederrum ein wenig mehr: https://www.cpubenchmark.net/cpu.php?cpu=AMD+Athlon+64+3200%2B&id=67
evtl. hängt das mit unterschiedlichen passmark versionen zusammen?
bbott
2018-04-29, 13:20:18
Das Problem liegt wohl darin, dass der Strom auch eigene Zeit benötigt bis genügend Elektronen fließen bzw. nicht mehr fließen, also bis der Zustand eins oder null eindeutig wird und eine gewisse Zeit zur Messung benötigt wird.
Also um den Takt deutlich zu erhöhen müssten die Elektoren Überlichtgeschwindigkeit erreichen, oder die Messung deutlich verkürzen. Es müssen physikalische Gesetzte umgangen oder überwunden werden um noch deutlich viel mehr Takt zu ermöglichen.
Ich hatte dazu eine Interessante Reportage gesehen, leider habe diese nicht mehr gefunden.
Ich hatte die letzten Jahre auf eine Art DDR verfahren gehofft, dass nicht mehr der Zusand sondern die Änderung für eine null oder eins steht. Aber das Leistungspotenzial scheint die technischen Probleme welche zu lösen sind nicht zu rechtfertigen.
Skysnake
2018-04-29, 20:15:15
Naja, jetzt nach Schaltung hast du das heute schon. Ganz simple Latsches wird keiner mehr verbauen. Das reduziert dir aber nur den clk Takt.
Wobei man auch sagen muss bei CPUS wir wohl zwischen 25 und 30 % der Verlustleistung nur für dir clk benötigt
=Floi=
2018-04-29, 20:29:45
irgendwas stimmt da aber nicht, weil nen sempron 3600+(2.2GHz) sogar weniger hat: https://www.cpubenchmark.net/cpu.php?cpu=Mobile+AMD+Sempron+3600%2B&id=1357
und nen A64 2.2GHz wiederrum ein wenig mehr: https://www.cpubenchmark.net/cpu.php?cpu=AMD+Athlon+64+3200%2B&id=67
evtl. hängt das mit unterschiedlichen passmark versionen zusammen?
das liegt am unterschiedlichen cache!
Da wird alles mit reingerechnet. Auf das rating kann man sich verlassen.
paul.muad.dib
2018-05-05, 22:45:04
Der Wert ist für einen Prozessor, der 16 virtuelle Kerne hat und mit knapp 3,7 GHz betaktet wird, erstaunlich gering. Der 1-Kern-Athlon XP 3200+ wurde nur mit 2200 MHz betaktet. Da kommt eigentlich nur eine Effizienzsteigerung von 50 % IPC-Leistung pro Kern heraus.
Pro Kern ist der Ryzen taktnormiert 3x so schnell, was ich trotz allem überraschend hoch finde. Nur wenn du virtuelle SMT Kerne hinzuziehst, liegt der Vorsprung beim Faktor 1,5, was immer noch durchaus beeindruckend ist. Klar würde es dem Athlon XP helfen, wenn er mit RAM auf 2,4 Ghz betrieben werden könnte (oder besser 2,2 Ghz wie die CPU selbst). Andererseits wird kein Benchmark linear mit steigender Anzahl Kernen skallieren. Bei einem Vergleich der Single Core Performance dürfte der Ryzen also eher in Richtung 3,5-4.0 gehen.
edit: Heute wäre es ein Riesenerfolg, wenn man 10% mehr IPC erreicht und würde dafür wahrscheinlich auch 50% mehr Transistorcount in Kauf nehmen (bei Wechsel auf kleinere Fertigung.)
Leonidas
2018-05-14, 10:53:57
Fand Ich damals schon sehr zweifelhaft und mehr zusammenhalluzinierte Wunschträume der Leute, die sich an NetBurst klammerten und unbedingt AMD und alles andere schlecht reden mussten. Vielleicht auch Propaganda der Intel Vermarktungsabteilung um AMD zu untergraben.
Die Pläne hat es wohl gegeben. Das war zu Zeiten, wo bestmöglich im Sattel lag und man vor allem in Richtung Taktkrieg mit AMD dachte. Sicherlich war Nehalem mit 9.6 GHz nur eine Planung und die wurde auch nur herausgebracht, um Analysten zu begeistern. Aber in diese Richtung gedacht hat man seinerzeit sicherlich. Man hat ja auch den P4 ziemlich hochgetrieben - aber noch vor diese Grenzen, wo es kritisch wurde. Man konnte die heutigen Probleme seinerzeit wohl einfach noch nicht sehen.
Semmel
2018-05-14, 11:29:13
Es wäre wirklich interessant gewesen, wie Netburst heute aussehen würde, wenn man es weiterentwickelt hätte. Auch wenn die Erwartungen an die Taktraten damals nicht erfüllbar waren, so hätte die Architektur heute dennoch sicher deutlich höhere Taktraten.
Am letzten 65nm Pentium 4 konnte man erahnen, was möglich war. Der hielt auch lange den OC-Rekord mit afaik 8,3 GHz.
Breegalad
2018-05-14, 19:52:22
..., um Analysten zu begeistern. ..
Gedankenspiel meinerseits:
möglicherweise sah sich AMD dadurch gezwungen, den gleichen Weg einzuschlagen, mit den bekannten Folgen.
Das Risiko, abgehängt zu werden, falls auch nur die Hälfte der Prognose eintritt, wäre zu groß gewesen.
Ein Bluff, der AMD für Jahre ins Abseits gestellt haben könnte
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.