PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Wie viel Netburst steckt in aktuellen Sandy-/Ivy Bridge E und Haswell CPUs?


Osmoses
2013-09-15, 00:13:29
Mich würde interessieren welche Features der Netburst-Ära, neben Hyper-Threading, noch in den aktuellen Generation von Intel CPUs integriert sind.

:)

y33H@
2013-09-15, 00:30:25
Unter anderem die Idee des Trace Cache, der dekodierte µOps speichert und es so dem Frontend erlaubt, sich "schlafen" zu legen.

Knuddelbearli
2013-09-15, 01:19:22
gabs so einen Thread hier nicht schon zu Sandy?

StefanV
2013-09-15, 01:50:19
1. Die Implementation vom P4 HT wird ganz sicher nicht genutzt. Das ist was anderes, heißt nur gleich. Generell ist das nur ein Marketingsprech für SMT.

2. Kann mans nicht pauschal sagen, da die ganzen Ideen vermischt wurden und man viele Ideen vom P4 auch übernommen haben wird. Nur die Implementation wird wieder ganz anders sein...

Letztendlich hat der P4 aber relativ wenig mit aktuellen Intel Architekturen gemein. Nur weil einige Ideen verwendet wurde, gibts da nicht wirklich viele Gemeinsamkeiten.

Wuge
2013-09-15, 13:22:27
Gemeinsamkeiten auf Gatter-Ebene wirds wohl nicht so viele geben... Ideen ist das Stichwort. Der Trace Cache ist mir auch als erstes eingefallen. Was HT angeht: es ist ja SMT und verwirklicht die Idee, shared ressources effizienter zu Nutzen. Das Argument beim P4 war damals pipeline stalls - weiß nicht ob das heute auch noch die überwiegende Relevanz hat oder schlicht die Breite der Architektur genutzt wird.

Interessant wäre ja auch: was hatte Netburst, was Core nicht hatte (im Sinne von Ideen / Technologien):
- Trace Cache
- Rapid execution engine (FAST ALUs)
- HT
- Replay

was gabs da noch?

Coda
2013-09-15, 13:42:44
Das Physical-Register-File kam erst mit Sandy Bridge wieder.

Das heißt in die Pipeline-Stages werden nicht die tatsächlichen Werte kopiert sondern nur ein Index auf die Position im Register-File. Hilft Strom zu sparen, weil das nur ein 7-10 Bits sind (keine Ahnung wieviel Register sie wirklich derzeit haben) anstatt den vollen 32-256 bit. AVX wäre sonst wohl gar nicht möglich gewesen.

Die Idee war beim P4 relativ neu, heute haben das aber die ganzen modernen Prozessoren. Intel halt nach Netburst wieder ihre alten P6-Linie aufgegriffen, die das nicht hatte, deshalb kam das erst vor kurzem wieder rein. Dürfte ein ziemlicher Aufwand gewesen sein das umzubauen.

S940
2013-09-15, 15:17:57
Die Idee war beim P4 relativ neu,
Jo "relativ", das waren 4-5 Jahre nach dem DEC 21264.

Osmoses
2013-09-15, 16:50:38
Jo "relativ", das waren 4-5 Jahre nach dem DEC 21264.

Wobei Intel da wohl erst ab 1997 frühestens randurfte.

Beziehe mich auf folgendes Zitat:
"Daher wird die Alpha-Technik auslaufen bzw. durch HP mit Intels Itanium zusammengeführt; die gesamte Alpha-Prozessor-Produktion wurde einschließlich der Entwicklerabteilung und vieler von DEC gehaltener Patente im Bereich der Halbleiterfertigung 1997 komplett von Intel übernommen." Quelle: http://de.wikipedia.org/wiki/Alpha-Prozessor - abgerufen am 15. September 2013 - 16:41.

Die ersten Netburst CPUs kamen schon November 2000 auf den Markt.
Beziehe mich auf folgendes Zitat:
"Die ersten Pentium 4 mit dem Codenamen Willamette liefen mit Taktfrequenzen von 1,4 und 1,5 GHz und kamen im November 2000 auf den Markt." Quelle: http://de.wikipedia.org/wiki/Intel_Pentium_4- abgerufen am 15. September 2013 - 16:44.

Also drei Jahre vom Zugriff über die Implementierung bis dahin ein fertiges Produkt verkaufen zu können!
Die reine Entwicklungszeit war sicher geringer - wenn man die Testphasen einberechnet und der Termin der Vorstellung bewusst gewählt wurde (und man nicht einfach nach dem Ende der Arbeit die CPU vorstellte).

S940
2013-09-15, 16:55:54
Naja, keine Ahnung, wer die Idee als erstes hatte. DEC hats aber auf alle Fälle als erster implementiert. Oder kennt wer noch nen Prozessor davor?

Ob Intel das nun "nur" übernommen hat .. kA. Ich trau es ihnen auch zu, selbst entwickelt zu haben. Die Theorie war ja bekannt, Implementieren schaffen die Intel-Entwickler dann schon selbst :)

DEC hat am 21264 sicherlich auch schon früher gearbeitet, wahrscheinlich ungefähr zeitgleich mit Intels PentiumPro Team.

Coda
2013-09-15, 17:14:53
Jo "relativ", das waren 4-5 Jahre nach dem DEC 21264.
Bist du dir sicher, dass der schon ein PRF hatte? Ich hab auf Anhieb nichts gefunden.

Falls das so ist, ist es komisch, dass AMD beim K7 darauf verzichtet hat.

Osmoses
2013-09-15, 18:52:45
DEC hat am 21264 sicherlich auch schon früher gearbeitet, wahrscheinlich ungefähr zeitgleich mit Intels PentiumPro Team.

"Mit der Entwicklung der so genannten P6-Architektur wurde bereits im Jahr 1991 begonnen." Quelle: http://de.wikipedia.org/wiki/Intel_P6- abgerufen am 15. September 2013 - 18:47. http://de.wikipedia.org/wiki/Intel_P6

Ich denke, dies ist vor dem Beginn der Arbeit am ALPHA 21264.
Pentium Pro kam 1995 raus und der ALPHA 21264 EV6 1998.

Quellen:
http://de.wikipedia.org/wiki/Intel_Pentium_Pro- abgerufen am 15. September 2013 - 18:50.
&
http://de.wikipedia.org/wiki/Alpha-Prozessor- abgerufen am 15. September 2013 - 18:51.

S940
2013-09-15, 19:39:22
Bist du dir sicher, dass der schon ein PRF hatte? Ich hab auf Anhieb nichts gefunden.
Verlass mich da auf den Realwordtech-Author, in seinem BD-Artikel schrieb er:

In microarchitectures using a physical register file (such as Bulldozer, IBM’s Power4, Power5 and Power7, DEC’s 21264 and the Pentium 4), http://www.realworldtech.com/bulldozer/6/

Falls das so ist, ist es komisch, dass AMD beim K7 darauf verzichtet hat.Stimmt .. guter Einwand, er K7 war schließlich recht DEC21264-ähnlich, aber eventuell gabs im Falle der Registerfiles nen großen architektonischen Unterschied wg. x86.
Nachdem ich mich aber im Datum geirrt hatte, und der 264 erst 1998 kam, könnte es auch einfach so sein, dass der K7 zu früh kam. Merkwürdig wär dann nur, wieso AMD dann nicht wenigstens beim K8 gewechselt hat, Zeit wäre ja genug gewesen. Aber eventuell hatten sie da mit der TFP (das Ding das dann mal SSE5 werden sollte), dem Austausch gegen SSE2 und überhaupt AMD64 genug zu tun.

Edit:
Noch ein Treffer in Uni-Vorlesungsmaterial:

Alpha 21264: Renaming
Separate INT and FP

Replaces “architectural registers” with “physical
registers”
– 80 integer physical registers
– 72 FP physical registers
– Eliminates WAW and WAR hazardshttp://cseweb.ucsd.edu/classes/wi10/cse240a/Slides/14_21264.pdf

"Mit der Entwicklung der so genannten P6-Architektur wurde bereits im Jahr 1991 begonnen." Quelle: http://de.wikipedia.org/wiki/Intel_P6- abgerufen am 15. September 2013 - 18:47. http://de.wikipedia.org/wiki/Intel_P6

Ich denke, dies ist vor dem Beginn der Arbeit am ALPHA 21264.
Pentium Pro kam 1995 raus und der ALPHA 21264 EV6 1998.

Quellen:
http://de.wikipedia.org/wiki/Intel_Pentium_Pro- abgerufen am 15. September 2013 - 18:50.
&
http://de.wikipedia.org/wiki/Alpha-Prozessor- abgerufen am 15. September 2013 - 18:51.
Stimmt .. hatte bei meiner Recherche irgendwo 1994 gelesen, war wohl falsch ^^ Danke fürs Aufpassen.

Wuge
2013-09-15, 20:00:10
Dass Netburst ein PRF hatte wusste ich auch noch nicht.

Was steckte da noch drin? Finde das Thema interessant!

Schreibe übrigens gerade auf einer Maschine mit nem 4.5 Ghz Pentium 965 XE - das Ding hat 8 GB RAM und ne 80 GB Postville SSD und ist für die üblichen Surf-/Office-Aufgaben gefühlt genauso schnell wie mein > 4 Ghz Westmere bzw. deutlich performanter als ein System mit aktueller CPU und HDD. Beachtlich wie lange man mit so einer CPU hinkommt wenn der Rest passt. Achja, die alte Wakü kühlt natürlich, sonst wäre der Krach nicht auszuhalten ;)

Coda
2013-09-15, 20:08:13
Netburst war technisch eigentlich ziemlich beeindruckend (Trace-Cache, PRF, Hyperthreading).

Vor allem Prescott. 10 mehr Pipeline-Stages als Northwood und praktisch gleiche IPC. Und dann noch die ALUs mit handoptimierten Schaltkreisen die mit 7 GHz lief. Der Validierungsaufwand muss immens gewesen sein.

Conroe muss ein Spaziergang dagegen gewesen sein ;)

S940
2013-09-15, 20:44:22
Netburst war technisch eigentlich ziemlich beeindruckend (Trace-Cache, PRF, Hyperthreading).
Naja, würde da eher Deinen 2. Punkt darunter als beeindruckend sehen. 7-8 Ghz damals war schon ne Sache. Daran, dass der Chip trotzdem so langsam war, sieht man aber, wie sch..lecht der Rest war :freak:
PRF und Hyperthreading kamen dagegen von DEC, bei HT sicher, bei PRF nicht ganz. Trace-Cache war auch ne gute Idee - nur hätte man den L1I dafür nicht komplett opfern sollen ^^

Coda
2013-09-15, 20:57:47
An Netburst war nichts an sich schlecht. Die Auslegung hat sich einfach als falsch herausgestellt. Prescott war auf >5 Ghz Basistakt ausgelegt. Da kamen dann halt die Leckströme dazwischen, das war halt nicht abzusehen.

Wenn die Physik nicht dazwischen gefunkt hätte wäre das ein richtig schneller Chip gewesen.

Duplex
2013-09-15, 21:06:52
Leider hat die schwache IPC das Design alt aussehen lassen, bei BD ist es ähnlich.

Wie hoch würde Netburst heute in 22nm takten können?

Osmoses
2013-09-15, 22:20:48
Dass Netburst ein PRF hatte wusste ich auch noch nicht.

Was steckte da noch drin? Finde das Thema interessant!

Schreibe übrigens gerade auf einer Maschine mit nem 4.5 Ghz Pentium 965 XE - das Ding hat 8 GB RAM und ne 80 GB Postville SSD und ist für die üblichen Surf-/Office-Aufgaben gefühlt genauso schnell wie mein > 4 Ghz Westmere bzw. deutlich performanter als ein System mit aktueller CPU und HDD. Beachtlich wie lange man mit so einer CPU hinkommt wenn der Rest passt. Achja, die alte Wakü kühlt natürlich, sonst wäre der Krach nicht auszuhalten ;)

Habe einen Pentium D 940 auch noch immer in Betrieb, wobei die Leistung im Vergleich zu einem Pentium E 2140 mit halben Takt gleich ist, meiner Meinung nach.

Netburst war technisch eigentlich ziemlich beeindruckend (Trace-Cache, PRF, Hyperthreading).

Vor allem Prescott. 10 mehr Pipeline-Stages als Northwood und praktisch gleiche IPC. Und dann noch die ALUs mit handoptimierten Schaltkreisen die mit 7 GHz lief. Der Validierungsaufwand muss immens gewesen sein.

Conroe muss ein Spaziergang dagegen gewesen sein ;)

Conroe hatte ja die Entwicklungsabteilung von Intel in Haifa, Israel quasi schon mit Dothan und Banias über Yonah gemacht.
Man konnte da schon wichtige Erfahrungen bzgl. des Netburst Pin-kompatiblen Layouts machen; Conroe war also in meinen Augen wirklich nur ein Spaziergang.

An Netburst war nichts an sich schlecht. Die Auslegung hat sich einfach als falsch herausgestellt. Prescott war auf >5 Ghz Basistakt ausgelegt. Da kamen dann halt die Leckströme dazwischen, das war halt nicht abzusehen.

Wenn die Physik nicht dazwischen gefunkt hätte wäre das ein richtig schneller Chip gewesen.

Sehe ich auch so; die Fertigung war einfach noch nicht so weit.
Womit ich auch beim letzten Zitat bin

Leider hat die schwache IPC das Design alt aussehen lassen, bei BD ist es ähnlich.

Wie hoch würde Netburst heute in 22nm takten können?

und ich somit an einer Wiederauferstehung von Netburst in den nächsten 2 - 3 Jahren glaube.
Analog zur Resurektion der P6 Mikroarchitektur nach Netburst.

von Nehalem bis hin zu Haswell kam keine wirkliche Leistungssteigerung zustande, meiner Meinung nach.
Meinen i7 920 konnte ich auch auf 3,875 GHz pushen. Das Leistungsplus zum i7 3930k ist da minimal denke ich - der Stromverbrauch ging runter.
Da gabe es die größten Fortschritte in den letzten Jahren und genau der Teil war ja das Problem bei Netburst! ;-)

Also, wieso diese Fortschritte nicht nutzen und bei Bedarf eine neue Netburst-CPU jenseits von 6 GHz rausbringen? Integrierte Northbridge inklusive!

Nur mal so zum Nachdenken ...

Duplex
2013-09-15, 22:34:00
Also, wieso diese Fortschritte nicht nutzen und bei Bedarf eine neue Netburst-CPU jenseits von 6 GHz rausbringen? Integrierte Northbridge inklusive!

Nur mal so zum Nachdenken ...
Was willst du mit so einem Schrott? :rolleyes:
Ich kann mein Sandy auf 5,6Ghz takten, der hat 100% mehr Leistung pro Takt als Netburst, SMT skaliert mit Core auch besser als Netburst.
Netburst ist Vergangenheit, kannste für immer abhaken!

Botcruscher
2013-09-15, 22:37:56
Vor allem limitiert heute schon die Temperatur. 22nm hat dem Takt auch nicht gut getan. Hochtaktdesigns sind einfach murks.

Osmoses
2013-09-15, 22:57:25
Was willst du mit so einem Schrott? :rolleyes:
Ich kann mein Sandy auf 5,6Ghz takten, der hat 100% mehr Leistung pro Takt als Netburst, SMT skaliert mit Core auch besser als Netburst.
Netburst ist Vergangenheit, kannste für immer abhaken!

Wenn man sich Netburst mit aktueller Fertigung, entsprechend größeren Caches und den Optimierungen vorstellt, dann denke ich dass hier mehr Luft nach oben im GHz Bereich langfristig besteht.
Vor allem die integrierte Northbridge dürfte hier noch einen ordentlichen Schub geben.

Auf wieviel GHz wird man Haswell und dessen Nachfolger bringen: 4GHz? 5GHz? Vielleicht 6GHz?
Netburst sollte 10GHz locker packen und damit inklusive der Optimierungen Haswell & Nachfolger überholen.

Denkt mal nach wie lange wir jetzt schon auf 3,2 - 3,8 GHz herumstehen: Seit 2005/2007.

7 Jahre.

Denkt mal welche Fortschritte die CPU-Leistung in ähnlicher Zeit gemacht hat!
Die Fertigungstechnik hat da ihr Veto eingelegt ...

Dies war ja auch im Endeffekt wieso man die P6 Architektur wieder ausgegraben hat: Mehr Leistung als Netburst bei den Taktraten, wobei die Taktraten eben entsprechend limitiert sind.

Coda
2013-09-15, 23:12:42
Es wird garantiert kein Netburst mehr geben. Replay ist Gift für jegliche Energieeffizienz.

BlackBirdSR
2013-09-15, 23:13:08
[...] Hochtaktdesigns sind einfach murks.

Würde ich pauschal nicht so sagen.
Vielleicht kommt in ein paar Jahren eine Zeit, da lachen wir über die aktuelle 3-4Ghz Stagnation.

Osmoses
2013-09-15, 23:16:37
Es wird garantiert kein Netburst mehr geben. Replay ist Gift für jegliche Energieeffizienz.

Hat man dies nicht auch mal über die PIII Architektur gesagt ... ? :wink:
Klar, dass man es nicht Netburst nennen wird!

Würde ich pauschal nicht so sagen.
Vielleicht kommt in ein paar Jahren eine Zeit, da lachen wir über die aktuelle 3-4Ghz Stagnation.

Sehe ich auch so ;-)

Duplex
2013-09-15, 23:21:30
Vielleicht kommt in ein paar Jahren eine Zeit, da lachen wir über die aktuelle 3-4Ghz Stagnation.
Selbst in 5nm würde ich nicht mehr als 5Ghz erwarten.
Was soll den kommen? Man wird die Anzahl der Kerne erhöhen.
Erst nach 5nm muss was neues kommen, aber was?

Osmoses
2013-09-15, 23:24:14
Selbst in 5nm würde ich nicht mehr als 5Ghz erwarten.
Was soll den kommen? Man wird die Anzahl der Kerne erhöhen.
Erst nach 5nm muss was neues kommen, aber was?

Entweder "Netburst reloaded" oder ARM.

BlackBirdSR
2013-09-15, 23:36:25
Entweder "Netburst reloaded" oder ARM.

Vergiss Netburst Reloaded. Es gibt Sachen, die hat sich jemand eingebildet und mit viel Kraft durchgesetzt, die kommen einfach nicht wieder.
Das ist bei HTCs super Idee mit der Kamera ebenso. Ich bin mir sicher, das hat einer durchgeboxt und in Zukunft wird dies "so" keiner mehr machen.

PowerPC ist auch nicht Netburst und schafft weit mehr als 4GHz.

Osmoses
2013-09-15, 23:43:57
Vergiss Netburst Reloaded. Es gibt Sachen, die hat sich jemand eingebildet und mit viel Kraft durchgesetzt, die kommen einfach nicht wieder.
Das ist bei HTCs super Idee mit der Kamera ebenso. Ich bin mir sicher, das hat einer durchgeboxt und in Zukunft wird dies "so" keiner mehr machen.

PowerPC ist auch nicht Netburst und schafft weit mehr als 4GHz.

PowerPC ist effizienter als Netburst? :confused:

Coda
2013-09-15, 23:56:45
Hat man dies nicht auch mal über die PIII Architektur gesagt ... ? :wink:
Nein, hat man nicht. Hier, hast nen Fisch:

<°||=><

Und jetzt troll dich

Tesseract
2013-09-15, 23:58:53
Sehe ich auch so; die Fertigung war einfach noch nicht so weit.
die fertigung war nicht "noch nicht" sondern "nicht mehr" so weit. die probleme mit denen netburst zu kämpfen hatte werden immer größer statt geringer.

realistisch gesehen fährt man mit so einem design eher deutlich unter 10GHz gegen eine wand und bekommt im schnitt nichtmal die performance der letzten generation zusammen. von der energieeffizienz garnicht erst zu reden.
netburst funktioniert in unserem universum einfach nicht.

Osmoses
2013-09-16, 00:35:30
Nein, hat man nicht. Hier, hast nen Fisch:

<°||=><

Und jetzt troll dich

Wooowooowooow!
Was ist denn das für ein Ton?! :freak:

Wenn du keine Lust hast zu diskutieren, dann solltest du es eventuell bleiben lassen und nicht gleich mit einer "Troll"-Meldung jegliches Interesse meinerseits dieses Thema mit dir weiter zu erörtern auflösen!

StefanV
2013-09-16, 00:41:57
Wenn man sich Netburst mit aktueller Fertigung, entsprechend größeren Caches und den Optimierungen vorstellt, dann denke ich dass hier mehr Luft nach oben im GHz Bereich langfristig besteht.
Vor allem die integrierte Northbridge dürfte hier noch einen ordentlichen Schub geben.
Ja, dann wären wir jetzt wohl offiziell bei 5-6GHz, nur wär die Leistung unterm Strich auch nicht besser...


Auf wieviel GHz wird man Haswell und dessen Nachfolger bringen: 4GHz? 5GHz? Vielleicht 6GHz?
Eher so um 4GHz rum, wie aktuell auch.


Netburst sollte 10GHz locker packen und damit inklusive der Optimierungen Haswell & Nachfolger überholen.
Denkt mal nach wie lange wir jetzt schon auf 3,2 - 3,8 GHz herumstehen: Seit 2005/2007.
7 Jahre.
Und jetzt überlege mal bitte, warum das der Fall ist!

Eine logische Schlussfolgerung wäre, dass man einfach nicht zuverlässig mehr als 4,5GHz liefern kann, mit aktuellen Fertigungen.
Denn wenn mans wirklich machen könnte, würde man es tun!!
Gut, IBM hat das mit 'nem Power irgendwo mal gemacht, kannst ja mal schauen.
Nur hast bei hochtakt Desings auch ein enormes Problem: Die Lichtgeschwindigkeit...

Schau dir doch den ersten (mehr oder minder) offiziellen 5GHz (Turbo) Prozessor an: AMD FX9590.
Und jetzt schau mal bitte, wie hoch die TDP von dem Schätzchen ist: 220W.
Beim nächst kleineren (dem FX8350), der offiziell mit 4GHz taktet, sind es 'nur' 125W.



Denkt mal welche Fortschritte die CPU-Leistung in ähnlicher Zeit gemacht hat!
Die Fertigungstechnik hat da ihr Veto eingelegt ...
Genau, deswegen war Netburst eigentlich auch gar keine so schlechte Idee - wenn man sowas in der Art in 0,35µ gefertigt hätte, wär der sicher ganz brauchbar gewesen, denn bei solch groben Masken sind Leckströme noch nicht soo kriegsentscheidend - heute


Dies war ja auch im Endeffekt wieso man die P6 Architektur wieder ausgegraben hat: Mehr Leistung als Netburst bei den Taktraten, wobei die Taktraten eben entsprechend limitiert sind.
War die Core Architektur eine recycelte P6 Architektur oder war es vielmehr eine neuinterpretation? Ich würde eher sagen, dass es eine modernere Interpretation einer 'Standardarchitektur' (=eher kurze Pipelines, OoOE usw)...

StefanV
2013-09-16, 00:42:40
Wooowooowooow!
Was ist denn das für ein Ton?! :freak:

Wenn du keine Lust hast zu diskutieren, dann solltest du es eventuell bleiben lassen und nicht gleich mit einer "Troll"-Meldung jegliches Interesse meinerseits dieses Thema mit dir weiter zu erörtern auflösen!
Ich denke mal, dass Coda darauf hinaus wollte, dass die Core Architektur weniger mit dem P6 zu tun hat als du glaubst.

Coda
2013-09-16, 01:08:56
Nein, ich will darauf hinaus, dass er nicht versteht wovon er redet.

Osmoses
2013-09-16, 11:56:25
Nein, ich will darauf hinaus, dass er nicht versteht wovon er redet.

Verzeihung - offensichtlich habe ich nicht verstanden mit welchen Profis und Meistern ich hier diskutiere :umassa:

Sofern du noch etwas Sinnvolles hierzu beisteuern kannst: DANKE!
:ulove3:

Thunder99
2013-09-16, 12:36:05
An der ganzen Core Architektur sieht man unabhängig der Fertigung das diese nur bis 4GHz vernünftig für die Massenproduktion eignet. Für weit mehr steigt die Leistungsaufnahme genau so wie man es derzeit bei den FXlern von AMD sieht. Leckströme kommen auch noch hinzu.

Und die Aussichten der kommenden Fertigung sieht auch nicht so rosig aus das da hier der Takt enorm gesteigert werden kann.

Netburst war damals ein richtiger Schritt die Performance zu steigern bis sie halt die Grenze erreicht hatten (3,6GHz). Danach musste man einfach auf ein anderes Konzept gehen zu mehr IPC. AMD macht das halt mit mehr Cores und etwas weniger IPC was bis jetzt nicht so hin gehauen hat

Coda
2013-09-16, 12:49:02
Verzeihung - offensichtlich habe ich nicht verstanden mit welchen Profis und Meistern ich hier diskutiere :umassa:

Sofern du noch etwas Sinnvolles hierzu beisteuern kannst: DANKE!
:ulove3:
Wenn du es so gut verstanden hast, dann erörtere doch bitte mal, was Replay bei Netburst macht und warum man es gebraucht hat?

Entschuldige, aber du bist hier in einem Technik-Forum. Da sollte man in Diskussionen schon auf technischer Ebene argumentieren können, wenn man solche Behauptungen wie "Netburst kommt zurück" aufstellt.

Osmoses
2013-09-16, 13:13:08
Wenn du es so gut verstanden hast, dann erörtere doch bitte mal, was Replay bei Netburst macht und warum man es gebraucht hat?

Entschuldige, aber du bist hier in einem Technik-Forum. Da sollte man in Diskussionen schon auf technischer Ebene argumentieren können, wenn man solche Behauptungen wie "Netburst kommt zurück" aufstellt.

Zum Thema Technik:
Ich habe Physik studiert, lange genug in der IT gearbeitet und schreibe atm meine Masterthesis für ein IT-affines Studium.

Kann es sein, dass du Lehrender bist?
Oder wieso fragst du mich soetwas?
Ich antworte hiermit nicht dir - ich verweigere DIR die Antwort, da ich dich seit deiner Troll-Meldung nicht mehr respektiere.

Trotzdem will ich hier nicht durch deine These des Fachwissensmangel als Unwissend dastehen und antworte daher den ForenteilnehmerInnen (exklusive dir):

"Replay" dient im Prinzip dazu, irrtümlich in die Pipeline gesandte Befehle heraus zufiltern und diese extra "zu behalten", bis die Bedingungen für deren Ausführung erfüllt sind.
Gerade in einer langen Pipeline (wie beim Prescott mit 31-stufiger Pipeline) ist es blöd wenn ein Befehl eingeordnet wurde dessen Abarbeitung aber eines Ergebnisses in derselben Pipeline bedarf ...

Wuge
2013-09-16, 14:52:29
Ist Replay (wir hatten ja in einem alten Thread mal darüber philosophiert) eigentlich zwingend erforderlich wenn man aus einer so langen Pipeline eine brauchbare IPC generieren will?

Was macht "Netburst" eigentlich aus? Im wesentlichen die längere Pipeline - die restlichen Innovationen (Replay, Tracecache etc.) waren ja mehr oder weniger dazu da, die Nachteile dieses Konzepts aufzufangen. Einiges davon steckt ja nun auch in derzeit aktuellen Architekturen.

Also etwas anders formuliert: ist es denkbar, dass man künftige Architekturen (sofern man wieder eine deutlich höhere Singlethread-Leistung anstreben würde) auf höhere Taktraten ausgelegt werden ohne die Nachteile v. Netburst in Kauf zu nehmen? Inzwischen hat man ja die Caches, Sprungvorhersage, TLBs etc. auch weiterentwickelt, was die Nachteile einer längeren Pipeline besser kompensieren kann als dies früher der Fall war.

Btw. da hier immer von Hochtakt ist Murks gesprochen wird: die einzelnen Transistoren schalten doch eh schneller, nicht? Es ist nur eine Frage der Auslegung kompletter Schaltungen (Gatter?) die in einem Takt durchschalten müssen die den maximalen Takt des Gesamtwerks limitiert. Daher kann man das so pauschal nicht sagen. Entscheidend wäre dann ehr die Frage, wie viele Transistoren benötigt man um eine Funktion so zu realisieren, dass man schneller takten kann. Vermutlich mehr Transistoren. Mehr Transistoren -> mehr Energie geht flöten, right? Oder korrigieren please...

Coda
2013-09-16, 14:56:43
"Replay" dient im Prinzip dazu, irrtümlich in die Pipeline gesandte Befehle heraus zufiltern und diese extra "zu behalten", bis die Bedingungen für deren Ausführung erfüllt sind.
Sie werden spekulativ ausgeführt ohne das man weiß, dass der Wert im Cache auch korrekt war, den sie als Operanden lesen.

Wenn du dann auf einen last level Miss hast, kann es sein, dass der Prozessor für Milisekunden die gleiche Operation wieder und wieder mit vollem Takt ausführt. Das füllt auch die Pipeline unnötigen Berechnungen, was auch zu komischen Performance-Effekten geführt hat. Es gibt nämlich eben keinen Buffer dafür der sie aufbewahren würde, sie werden einfach wieder und wieder geissued bis sie korrekt abgearbeitet wurden.

Dass das heutzutage irgendwie scheiße wäre wenn man maximales Clock-Gating haben muss um überhaupt noch mit der Energie-Dichte halbwegs brauchbare Prozessoren zu designen dürfte sich von selbst erklären.

Und entschuldige, aber wer wirklich meint man bräuchte wieder Netburst ist für mich ein Troll.

Ist Replay (wir hatten ja in einem alten Thread mal darüber philosophiert) eigentlich zwingend erforderlich wenn man aus einer so langen Pipeline eine brauchbare IPC generieren will?
Man braucht es, wenn man das Instruction-Issue in einer anderen Pipeline-Stufe haben will als das überprüfen der Operanden.

Osmoses
2013-09-16, 15:16:23
Ist Replay (wir hatten ja in einem alten Thread mal darüber philosophiert) eigentlich zwingend erforderlich wenn man aus einer so langen Pipeline eine brauchbare IPC generieren will?

Was macht "Netburst" eigentlich aus? Im wesentlichen die längere Pipeline - die restlichen Innovationen (Replay, Tracecache etc.) waren ja mehr oder weniger dazu da, die Nachteile dieses Konzepts aufzufangen. Einiges davon steckt ja nun auch in derzeit aktuellen Architekturen.

Also etwas anders formuliert: ist es denkbar, dass man künftige Architekturen (sofern man wieder eine deutlich höhere Singlethread-Leistung anstreben würde) auf höhere Taktraten ausgelegt werden ohne die Nachteile v. Netburst in Kauf zu nehmen? Inzwischen hat man ja die Caches, Sprungvorhersage, TLBs etc. auch weiterentwickelt, was die Nachteile einer längeren Pipeline besser kompensieren kann als dies früher der Fall war.

Btw. da hier immer von Hochtakt ist Murks gesprochen wird: die einzelnen Transistoren schalten doch eh schneller, nicht? Es ist nur eine Frage der Auslegung kompletter Schaltungen (Gatter?) die in einem Takt durchschalten müssen die den maximalen Takt des Gesamtwerks limitiert. Daher kann man das so pauschal nicht sagen. Entscheidend wäre dann ehr die Frage, wie viele Transistoren benötigt man um eine Funktion so zu realisieren, dass man schneller takten kann. Vermutlich mehr Transistoren. Mehr Transistoren -> mehr Energie geht flöten, right? Oder korrigieren please...

Dies ist auch mein Ansatz, denn irgendwann sind die Grenzen der Multicore-Idee auch erreicht und dann sollte man wieder den Takt anheben.

Es wäre sicherlich auch falsch Netburst eine 1:1 Resurektion angedeihen zu lassen.
Aber den Ansatz im Prinzip zu verwenden wäre eine Möglichkeit.

Eine weitere Idee wäre eine Abkehr von x86/EMT64 hin zu ARM oder eventuell neue Möglichkeiten durch Einsatz von Graphen.

Coda
2013-09-16, 15:25:00
Dies ist auch mein Ansatz, denn irgendwann sind die Grenzen der Multicore-Idee auch erreicht und dann sollte man wieder den Takt anheben.
Sorry, aber ich hab lieber 16 energieeffiziente Kerne als ein 500W-Netburst-Monster mit 10 Ghz.

Wenn natürlich Schaltkreise erfunden werden die kaum Energie beim Schalten verbrauchen (reversible Logic) dann könnte sich der Optimierungspunkt wieder in Richtung sowas wie Netburst verschieben, aber bei CMOS-Logik sehe ich da nichts am Horizont.

Skysnake
2013-09-16, 17:07:47
/sign

Wir sind heutzutage voll powerlimited. Man kann sich sowas einfach überhaupt nicht mehr erlauben

CosmiChaos
2013-09-22, 03:16:53
Das Gequassel von diesem Kerl der sich im Gigahertzwahn die Rennessaice seines heiß-geliebten P4 wünscht ist kaum erträglich. Und das schlimme ist, der spekuliert ohne eine Ahnung zu haben ohne es auch nur ein bischen über den Daumen zu peilen und was man ihm auch sagt er weiß es dann doch stets besser und phantasiert weiter. Irgendwie auch witzig.

Also machen wir doch mal eine Milchmädchenrechnung:

CPU-Queen:
Pentium EE 955 HT (dual core) @ 3,466 Ghz = ~7485 pts = ~1,079 pts per megahertz/core.
Core i5-650 HT (dual core) @ 3,2 Ghz = ~21434 = ~3,349 pts per megahertz/core.

Noch vernichtender wirds nournoch wenn man Leistungsaufnahme berücksichtigt:

TDP-Vergleich (CPU-Queen):
Pentium EE 955 = 130W = 57,57 pts per Watt.
Core i5-650 HT = 73W = 293,62 pts per Watt

Nun kann man auch noch berücksichtigen, dass der EE 955 in 65nm gefertigt wurde und der i5 in 35nm, aber selbst bereinigt ist Core dann immernoch ca 3x effizienter als Netburst.
Der Drops ist sowas von gelutscht und wer den Fortschritt an genau diesem Punkt nicht mitbekommen hat oder ignoriert der muss nich mehr ganz frisch sein.

Von der Abwärme die solch ein Bolide mit +4 Kernen auch trotz kleinerem Fertigungsverfahren erzeugen würde mal abgesehn steigt der Aufwand die Leckströme zu kontrollieren exponentiell bei steigendem Takt UND kleiner werdender Fertigung und weiterhin ... synchronisier mal zig Kerne in der NB die intern nochmal weit höher taktet. . . per handoptimierung... auf 7-8Ghz ... das ging vielleicht noch mit 2en in 65nm... und glaub mir dafür wurde bei Intel damals einige Nächte durchgearbeitet, aber sowas bei +6 Kernen und 22nm - no way :D

Nicht in tausend Jahren.
Wenn sich Netburst in irgendeiner Art und Weise für die Zukunft gelohnt hätte dann wäre das Design in einer Nische und seis im Kellerverlies weiterntwickelt, was nicht der Fall ist.

Man packt nich einfach ein paar Jahre später (von heute aus gesehen) aus Jux und Dollerei ein uraltes Design aus wenn es dafür nicht einen triftigen Grund gäbe und der besteht nunmal nur aus einem hohem Konkurrenzdruck und einer miesen Ist-Strategie. Intel ist weder vom ersten noch vom zweiten befangen. Selbst wenne s so wäre und sie unter enormen Zugzwang kämen, können die schlecht wieder eine Architektur auskramen mit der man schon vormals gescheitert ist . . . logischerweise nimmt man einen neuen vielversprechenden Ansatz. . . genau wie eben damals mit der Core. . . Core ist ja auch kein Alt-Gescheitertes Produkt, sondern eine völlig neue Architektur.

Genau so ein Typ war bei Intel erst überhaupt dafür verantwortlich gewesen. Genau wie aktuell bei AMD.... mehr mehr Ghz... Ziel erreichen, koste es SinglThread-Leistung wie es wolle, bloß nich das Hirn zwischendurch anmachen, entscheidend ist nunmal sprichwörtlich für die Arbeit nur wieviel bis Feierabend hinten rausgekommen ist und nicht wie schnell die Mitarbeiter theoretisch rennen können.

Netburat war ist und bleibt auf ewig SAU ineffizient, nicht weil die Zeit irgendwie noch nicht reif war, so ein Humbug. Nur mit höherer Effizienz also weniger Leistungsaufnahme pro Netto-Leistung kommt man in der Zukunft noch maßgeblich weiter.

Wuge
2013-09-22, 12:55:14
Der Post ist aber auch nicht viel besser ;)

Es geht nicht darum, eine alte Architektur 1:1 wiederzubeleben sondern um einzelne Technologien / Konzepte die darin umgesetzt wurden.

Und wenn schon synthetische Benchmarks, dann bitte ne ganze Palette ;)

Wie wärs sonst damit, CPU Hash:
Pentium 965 XE (65nm) @ 4.5 Ghz, 150W: 1065 MB/s
Core i5-650 HT (32nm) @ 3.2 Ghz: 968 MB/s

Und schon sieht die welt für den 8 Jahre alten Prozessor nicht ganz so düster aus ;)

Naitsabes
2013-09-22, 13:13:26
Und die static leakage sollte man auch berücksichtigen - mit immer kleiner werdenden Fertigungen nimmt diese (oftmals) einen wichtigeren Stellenwert bei der Leistungsaufnahme ein.

Eventuell ist es daher bei bestimmten (!) Fertigungsprozessen effizienter, wenn man eine weniger breite Architektur mit weniger Transistoren und höheren Takt hat als ein vergleichbar schnelles Design mit weniger Takt.

CosmiChaos
2013-09-22, 14:34:25
lol @ CPU Hash, hallo: ~45% mehr Takt... kaum bessere Leistung. Ahnst du was? Effizienz!?

Was nützt ein Hochtakt-Design wenn es TDP-bereinigt nicht mehr Leistet als das Niedrigtaktdesign... außer dass man mit viel mehr Problemen zu kämpfen hat. Es nützt garnichts einfach nur ne hohe Taktzahl da stehen zu haben.

Im Gegenteil, eine leistungsstärkere niedriger getaktete Architektur ist immer vorzuziehen... denn die kann man halt in Zukunft noch höher takten, wo die andere schon schmilzt.

Haste jetzt krampfhaft was gesucht wo der nich so erbärmlich vernichtet wird... das macht allerdings keinen Unterschied. CPU Hash ist nicht wirklich Aussagekräftig. Ich könnt jetzt auch AES nehmen, schätz mal das der Core Netburst da zersägt, aber das ist ja auch nicht verwunderlich. In der großen Summe zieht Core Netburst einfach gnadenlos davon.

Takt ist einfach nur eine Zahl... sie bedeuted nichts außer im direkten Vergleich. Sie gibt höchstens ein wenig Aufschluss darüber wieviel da durch Verkleinerung der Fertigung und Reduzierung der Leistungsaufnahme noch rauszuholen ist. Bei gleicher Leistung ist die Architektur mit 3ghz deutlich zukunftsfähiger als die mit 5ghz.

Ein CPU der mit 4,5 Ghz in selektierten Disziplinen das gleiche schafft wie ein CPU mit 3,2 Ghz und sonst fast alles haushoch vergeigt zeugt doch nicht gerade von einem cleveren skalierbarem Architekturdesign.

Naitsabes
2013-09-22, 15:17:37
Selbst ein kleiner Via schlägt bei AES den Core - ist der Nano also besser als Core?

CosmiChaos
2013-09-22, 15:20:49
Du kannst es nicht lassen an einzelnen Dingen alles über einen Kamm zu scheren. Ich sagte bereits, dass dies nicht weiter verwunderlich wäre.

Wenn VIA die Mittel hätten für Desktop zu produzieren und sich mit dem blauen Giganten anlegen würden, dann würde es wenigstens wieder mehr Druck zu Innovationen geben.

Ich empfehle den Phantasten mal folgenden ausführlichen bebilderten Artikel.

Queue Magazine - Multiprocessors Queue Homepage archive
Volume 3 Issue 7, September 2005
http://queue.acm.org/detail.cfm?id=1095418

With the exhaustion of essentially all performance gains that can be achieved for “free” with technologies such as superscalar dispatch and pipelining, we are now entering an era where programmers must switch to more parallel programming models in order to exploit multiprocessors effectively, if they desire improved single-program performance. This is because there are only three real “dimensions” to processor performance increases beyond Moore’s law: clock frequency, superscalar instruction issue, and multiprocessing. We have pushed the first two to their logical limits and must now embrace multiprocessing, even if it means that programmers will be forced to change to a parallel programming model to achieve the highest possible performance.

Der Nano ist deutlich besser als der Core. Rechne seine architekturelle Leistung doch mal auf 22nm - 6 Kerne und 130 Watt hoch.

Das Problem ist nur, dass er eben nicht so fein gefertigt wird und eben nicht so viele Kerne hat und eben nicht so relativ hohe Taktfrequenz, VIA ist top innovativ, sie haben nur nicht die enorme Kohle für neue Fabs alle paar Jahre flüssig so wie Intel.

Wenn wir von der ARCHITEKTUR auf dem Papier sprechen ist Via allen haushoch überlegen, denn die kümmern sich absolut streng fokussiert um das Problem... Leistung/Stromverbrauch und genau dafür hauen die ein Patent nach dem anderen raus.

In diesem Zusammenhang doch einfach nochmal ne Milchmädchenrechnung:

CPU-Queen:
Nano X2 L4350 (dual core) @ 1,6 Ghz = 5452 pts = 1,704 pts per megahertz/core
Pentium EE 955 HT (dual core) @ 3,466 Ghz = 7485 pts = 1,079 pts per megahertz/core.


TDP-Vergleich (CPU-Queen):
Pentium EE 955 (65nm) = 130 W = 57,57 pts per Watt.
Nano X2 L4350 (40nm) = 27,5 W = 198,25 pts per Watt.

Nehmen wir an den Nano wäre auch in 65nm gebaut (andersrum wäre physikalisch kaum machbar), dann würd der 44,7 Watt verbrauchen und immernoch 122 pts per Watt schaffen, was doppelte Effizienz bedeuted.

Nun bringen mir rein hyphotetisch aber auch mal nen Nano rechnerisch auf 3,466 Ghz Takt (Faktor 2,16625), dann leistet der schon bis zu 11800 pts, bei einem Stromverbrauch von gerade mal 96,8 Watt. Und natürlich ist Core aktuell im Vergleich zum VIA dual-core wegen SMT schneller, aber nicht destro trotz ist der VIA Kern einzeln sau-effizient, mit einer effizienteren Kern-Parallelisierung wäre da viel mehr drin.

Ergo: Bei gleichen Vorraussetzungen stinkt die Netburst-Architektur mit mehr Stromverbrauch bei weniger Netto-Leistung total gegen aktuelle Architekturen ab.

Warum CPU Queen? Weil es relativ aussagekräftig ist und nicht so speziell.
http://aida64.helpmax.net/en/benchmark-guide/cpu-queen/

Skysnake
2013-09-22, 15:31:41
Bei kleinen Chips, die relativ wenig Power haben ist es aber auch viel viel einfacher diese Effizienter zu bauen. ;)

Naitsabes
2013-09-22, 17:51:47
Und jetzt erkläre mir mal bitte wie du den Takt des nanos verdoppelst ohne dafür an Effizienz einzubüßen (ohne dass die ipc sinkt oder die Leistungsausnahme überproportional steigt).



edit.
Wenn VIA die Mittel hätten für Desktop zu produzieren und sich mit dem blauen Giganten anlegen würden, dann würde es wenigstens wieder mehr Druck zu Innovationen geben.
[...]
sie haben nur nicht die enorme Kohle für neue Fabs alle paar Jahre flüssig so wie Intel.

Wenn der Mutterkonzern wollen würde, dann hätte Via die Mittel.
Eigene Fabs besitzen sie auch nicht, sondern sie lassen fertigen (Isaiah z.B. bei Fujitsu und TSMC in 65nm und 40nm).
Und weil sie so "top innovativ" sind klatschen sie wie INTEL bei Core 2 2 dualcores per FSB zusammen?

Achja, ein Bobcat erreicht bei Queen mehr Punkte als ein Isaiah bei geringerem Stromvebrauch bei gleichem Node ;)


Nichts gegen Via, ich würde es auch toll finden, wenn sich ein großer dritter im CPU-Markt etabliert, aber Via hat da derzeit keine Chancen.

Dimon
2013-09-22, 22:26:55
Sorry, aber ich hab lieber 16 energieeffiziente Kerne als ein 500W-Netburst-Monster mit 10 Ghz.

Wenn natürlich Schaltkreise erfunden werden die kaum Energie beim Schalten verbrauchen (reversible Logic) dann könnte sich der Optimierungspunkt wieder in Richtung sowas wie Netburst verschieben, aber bei CMOS-Logik sehe ich da nichts am Horizont.

Das meint er auch nicht imo, da aber die idee mit den kernen irgendwann ausgereizt ist wie der takt des Netbursts, muss man eben an der Taktschraube drehen um weiter zu kommen ....

Oder willst du einen Prozzi mit 100 oder mehr kernen die absolut keinen nutzen bringen da die Parallelität irgendwann auch nix mehr bringt... :freak:

mfg

Skysnake
2013-09-23, 00:43:38
Doch genau das "willst" du, weil die Alternative einfach Stillstand wäre...

Wenn du damit nichts anfangen kannst, haste halt einfach Pech gehabt.

Thunder99
2013-09-23, 11:29:08
Das meint er auch nicht imo, da aber die idee mit den kernen irgendwann ausgereizt ist wie der takt des Netbursts, muss man eben an der Taktschraube drehen um weiter zu kommen ....

Oder willst du einen Prozzi mit 100 oder mehr kernen die absolut keinen nutzen bringen da die Parallelität irgendwann auch nix mehr bringt... :freak:

mfg
Wenn ich mir da die GPU´s anschaue mit ihren 2xxx Cores da sag ich mal ist es möglich auch auf CPU´s das zu händeln. Xeon-Pi ;)

Osmoses
2013-09-23, 13:27:00
Das Gequassel von diesem Kerl der sich im Gigahertzwahn die Rennessaice seines heiß-geliebten P4 wünscht ist kaum erträglich. Und das schlimme ist, der spekuliert ohne eine Ahnung zu haben ohne es auch nur ein bischen über den Daumen zu peilen und was man ihm auch sagt er weiß es dann doch stets besser und phantasiert weiter. Irgendwie auch witzig.


Genau wegen solcher - in meinen Augen - persönlicher Kommentare gegen meine Person (welche in einer sachlichen Diskussion nichts verloren haben!), habe ich mich aus dieser Diskussion verabschiedet.

Es tut mir leid liebe Leute, aber ich habe soetwas echt nicht nötig! :mad:

Wünsche euch noch eine anregende, sachliche Diskussion!

Wuge
2013-09-23, 18:05:55
lol @ CPU Hash, hallo: ~45% mehr Takt... kaum bessere Leistung. Ahnst du was? Effizienz!?
...
Ein CPU der mit 4,5 Ghz in selektierten Disziplinen das gleiche schafft wie ein CPU mit 3,2 Ghz und sonst fast alles haushoch vergeigt zeugt doch nicht gerade von einem cleveren skalierbarem Architekturdesign.

Es ging mir doch nur darum zu zeigen, dass ein einzelner Synthetischer Benchmark wenig Aussagekraft hat. CPU-Hash liegt eben dem 965 XE verhältnismäßig gut (dass er dennoch weniger effizient ist liegt in dem Fall an den 2 Prozess-Nodes differenz). Der Benchmark ist genauso selektiert wie Dein CPU-Queen.

Und nochmal: es dürfte jedem hier klar sein, dass Netburst nicht mit aktuellen Designs mithalten kann. Darum geht es in der Diskussion garnicht. Etwas abstrahieren bitte.

CosmiChaos
2013-09-23, 19:05:31
Und weil sie so "top innovativ" sind klatschen sie wie INTEL bei Core 2 2 dualcores per FSB zusammen?
... weil VIA halt keine Größe ist was Parallelisierung angeht. Die haben keine grossartigen Patente diesbezüglich so wie Intel.... und die bekommen die auch nicht so billig bzw. überhaupt lizensiert. Das ist ja gerade das traurige jeder hat was dass der andere braucht, und jeder kocht sein Süppchen von dem was er maximal kann. Das Patentsystem behindert rein technologisch den Fortschritt. Hätten die Chipgiganten eine Lizensierungspflicht gegenüber Mitbewerbern wären wir shcon längst viel weiter.

Aber zurück zum Thema:
Es ging mir doch nur darum zu zeigen, dass ein einzelner Synthetischer Benchmark wenig Aussagekraft hat.

Schau dir einfach mal an was CPU Queen misst und was CPU Hash misst... danke vielmals! Hab es doch extra für dich verlinkt.

Zitat zu CPU-Queen:
This simple integer benchmark focuses on the branch prediction capabilities and the misprediction penalties of the CPU.

Zitat zu CPU-Hash:
This integer benchmark measures CPU performance using the SHA1 hashing algorithm

Vielleicht erkennst du warum dass eine hier für die genannten Technologien interessante Werte liefert und das andere einfach nur an den Haaren herbeigezogen ist. Kleiner Tip: Das eine ist ziemlich generell, das andere eher speziell. Dieser Benchmark (CPU Queen) hat bezüglich der Technologien in diesem Forumthread ne ganze Menge Aussagekraft!

Die Grenzen der Parallelisierung sind noch lange nicht erreicht. Sicher werden Single-Thread-Anwendungen irgendwann nicht mehr beschleunigbar sein, aber da sind dann halt die Anwendungsentwickler gefragt. Und wie gesagt kann man auch noch ordentlich Leistung über den Stromverbrauch rausholen, da nunmal die Temeperatur aktuell die Leistungsfähigkeit limitiert... nicht die Anzahl der Kerne, nicht die nominelle Taktfrequenz... schlicht die Temepratur bzw. die Leistungsaufnahme.

Und nochmal: es dürfte jedem hier klar sein, dass Netburst nicht mit aktuellen Designs mithalten kann. Darum geht es in der Diskussion garnicht. Etwas abstrahieren bitte.

Worum geht es dann? Darüber zu schwadronieren, was genau jetzt an den Netburst-Neuerugen Mist war und was irgendwo heute noch verwendung findet. Das ist doch unbedeutend und interessiert keinen. Der Mensch ist ja auch kein Urzeitfisch, nur weil so das komplexere Leben mal angefangen hat.

Netburst taktet hoch... bekommt aber nichtmal standard-integer Allerweltsberechnungen halbwegs passabel effizient geleistet. Da nützt es eben genau nichts wenn er in speziellen synthetischen Benchmarks vereinzelt auch mal gut weg kommt. Die 20-stufige Sprungvorhersage ist fürn Popo. Das ist die Essenz.

Und die findet sich übrigens auch ausführlich hier: http://de.wikipedia.org/wiki/Intel-NetBurst-Mikroarchitektur

Im Prinzip ist jeder x86 eh ein sich stetig fortpflanzender Krüppel. Ich sag nur A20-Gate! :D
Wikipedia:
Durch das A20-Gate kann ein 286 (und größerer) Prozessor mit mehr als 20 Adressleitungen einen älteren 8086er mit nur 20 Adressleitungen (A0 bis A19) emulieren.

*hust*

PS:
Genau wegen solcher - in meinen Augen - persönlicher Kommentare gegen meine Person (welche in einer sachlichen Diskussion nichts verloren haben!), habe ich mich aus dieser Diskussion verabschiedet.

Interessant wie du das alles auf dich beziehst nur vom Kontext her. Fakt ist doch das du kaum sachliche Argumente gebracht hast, du hast noch nichtmal die fundierten Argumente der anderen anerkannt und ich bezweifle dass du es jetzt tust. Ich wollte dich nicht persönlich angreifen... ich hab nur meine Impressionen aus diesem Thread geschildert. Danke für deine Selberkenntniss, aber das war wirklich nichtmal persönlich gemeint, sondern war einfach nur ein zugegeben etwas argwöhnlicher Seitenhieb auf die Binsenweisheit "mehr ghz = mehr leistung".

Naitsabes
2013-09-23, 20:09:18
... weil VIA halt keine Größe ist was Parallelisierung angeht. Die haben keine grossartigen Patente diesbezüglich so wie Intel.... und die bekommen die auch nicht so billig bzw. überhaupt lizensiert. Das ist ja gerade das traurige jeder hat was dass der andere braucht, und jeder kocht sein Süppchen von dem was er maximal kann. Das Patentsystem behindert rein technologisch den Fortschritt. Hätten die Chipgiganten eine Lizensierungspflicht gegenüber Mitbewerbern wären wir shcon längst viel weiter.


http://de.wikipedia.org/wiki/Hypertransport


Worum geht es dann? Darüber zu schwadronieren, was genau jetzt an den Netburst-Neuerugen Mist war und was irgendwo heute noch verwendung findet. Das ist doch unbedeutend und interessiert keinen.

Antwort befindet sich im ersten Post:
Mich würde interessieren welche Features der Netburst-Ära, neben Hyper-Threading, noch in den aktuellen Generation von Intel CPUs integriert sind.

:)

CosmiChaos
2013-09-23, 21:09:46
Glaub kaum das man die Zeit des NetBurst als Ära bezeichnen kann, es war doch eher ein Schattendasein und allgemeinhin hätte diese "Ära" nach Intels WUnsch nicht kurz genug sein können.

Richtungsweisend war dann doch eher Core. Das hat schon eher als P6-Rennaissance den Namen Ära verdient, solange wie das konkurrenzlos den Markt dominiert... so wie aktuell.

Intel hat PRF wieder mit Sandy eingeführt, dass war bei Core und Nehalem noch anders.

Und außerdem was soll der HInweis auf die BUS-Technology Hyper-Transport... deutlicher daneben gehts garnicht mehr, das hat überhaupt nichts mit Kern-Parallelisierung zu tun, dabei gehts um Geräteanbindung an den Prozessor,also Interoperabilität, natürlich ist sowas open, sonst wär die ganze Branche schon am Ende. Aber Core-Kerne müssen nicht mit Bulldozer oder Nano-kompatibel sein xD. Die Technik die du scheinbar meinst heißt ein bischen anders:

http://de.wikipedia.org/wiki/Hyper-Threading

Und die Technology ist urheberrechtlich geschützt.

VIA hat eben kein so tolles SMT-Konzept und die haben noch überhaupt keinen Plan von Multi-Core-Designs. Natürlich ist das im Vergleich als Multi-Core mit Intel nicht konkurrenzfähig, was haste erwartet. Natürlich wird Intel auch den Teufel tun und der Konkurrenz Ihre SMT-Patente günstig oder für lau bzw. halt ÜBERHAUPT lizensieren lassen. Aber das ist ja auch nur HyperThreading, solange genügend echte Kerne da sind profitiert da eh nix. Es geht da hauptsächlich um die Erfahrung und das Wissen Intels wie man mehrere Kerne effizient zusammenpappt... ein bishcen Klebstoff und ne Lötbrücke reichen da nicht. Die gesamte Architektur muss dahergehend optimiert werden, da gibt es sicherlich ZIG Intel-Patente, die ich grad noch nicht recherchiert habe. Da kann VIA garnicht mit Intel mithalten und das hat garnichts damit zu tun dass die nicht wollen würden.

Um nur mal ein knackiges Beispiel zu nennen:
http://www.google.de/patents/US7966511
Power management coordination in multi-core processors

Na klar, jeder hat die Freiheit sich seine eigene Idee einfallen zu lassen ;)

Ich bin auch raus aus dieser Diskussion... ist mir zu doof gegen Leute zu argumentieren, die einfach keinen blassen Schimmer haben und lieber was falsches sagen als garnichts.

Aber vielleicht noch eine kleine Anregund: zur Zeit der P6-Architektur damals hatte der Hersteller Cyrix ein eigenes 486er Design vorgestellt, wenn es auch auf Reverse-Engineering von Intels Arbeit basierte. Das interessante ist, dass Cyrix damals Intel verklagt hat und man sich dann auf einen Patentaustausch geeinigt hat um die Sache aus der Welt zu schaffen.

Es ging damals hauptsächlich um 2 Patente:
http://www.google.com/patents/US5630143 - Microprocessor with externally controllable power management
http://www.google.com/patents/US5630149 - Pipelined processor with register renaming hardware to accommodate multiple size registers

Viel interessanter als die Frage "Wieviel Netburst steckt in Core" ist doch "wieviel Cyrix steckt noch immer in Core". :)

Wuge
2013-09-24, 11:10:26
Schau dir einfach mal an was CPU Queen misst und was CPU Hash misst... danke vielmals! Hab es doch extra für dich verlinkt.

Zitat zu CPU-Queen:
This simple integer benchmark focuses on the branch prediction capabilities and the misprediction penalties of the CPU.

Zitat zu CPU-Hash:
This integer benchmark measures CPU performance using the SHA1 hashing algorithm


Also nochmal: beides synthetische Spezialfälle. Einmal worst-case und einmal best-case für Netburst.

Den Rest lasse ich mal unkommentiert. Es wäre toll, wenn wir zum Ursprungsthema zurück kommen.

Naitsabes
2013-09-24, 14:23:21
Und außerdem was soll der HInweis auf die BUS-Technology Hyper-Transport... deutlicher daneben gehts garnicht mehr, [...]

Nö, HTT meine ich nicht. Es ging mir schon darum, dass Via noch den alten FSB nutzt um 2 Dualcores aneinander zu packen, obwohl sie dafür auch das deutlich besser geeignete HT nutzen könnten.
Und extra für dich: SMP ist ebenfalls eine Art der Parallelisierung (Leistungsmäßig sogar die beste).



Jetzt aber wirklich btt.