PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: News des 21. November 2007


Leonidas
2007-11-22, 10:31:30
Link ins News-Archiv:
http://www.3dcenter.org/news/2007/woche47.php#2007-11-21


Ich bitte um Entschuldigung für den Ausfall der News des 20. November.

[NbF]Eagle
2007-11-22, 10:45:14
Im ersten Teil der news ist ein Fehler. Legionhardware hat die 3850 256Mb mit der 8600 GTS 256MB verglichen und nicht mit der 8800GTS wie ihr geschrieben habt!!!

St@N
2007-11-22, 10:51:08
im zweiten Abschnitt auch nochmal...

Mainstream-Beschleunigern in Form von Radeon HD 2600 XT und GeForce 8600 GTS maßlos davonrennt.

Mmmmh
2007-11-22, 11:42:13
Fehler!

Der "Prescott", welcher so heiß wurde, wurde im 90nm-Prozeß gefertigt. Die 65nm-Variante hieß "Cedar Mill" und lief wesentlich kühler, aber da war das Kind schon in den Brunnen gefallen.

Gast
2007-11-22, 11:50:46
nächster fehler:

Womöglich stellt der 65nm-Prozeß die Prozessorenbauer ja auch vor ganz spezielle Anforderungen, auch Intel hatte seinerzeit einige Probleme mit den ersten eigenen 65nm-Modelle (Pentium 4 Precott, wurde sehr heiß und deswegen auch als "Preshott" verschrieen).

der prescott wurde in 90nm gefertigt, der 65nm-nachfolger war sogar wieder recht genügsam beim stromverbrauch, da allerdings die core-technologie in den startlöchern stand konnte er das nie in form von höheren taktraten offiziell ausspielen.

der hohe stromverbrauch war auch ein reines prescott-problem und keines der 90nm-fertigung, der erste dothan-core (90nm /100MHz FSB) war sogar der sparsamsten aller pentium-m-modelle.

Gast
2007-11-22, 12:08:00
Zitat:
-----
Pentium 4 Precott, wurde sehr heiß und deswegen auch als "Preshott" verschrieen
-----

Das Wort schreibt man mit einem e -->"verschrien".

Scream
2007-11-22, 12:37:48
Offensichtlich hat die Studie hier einfach nur blind hochgerechnet, was wir 2010 für Bandbreitenanforderungen haben werden und dem die jetzige Netzkapazität gegenübergestellt. Dies geht dann einfach davon aus, daß bis 2010 die Internet Service Provider und Backbone-Betreiber faktisch überhaupt nichts mehr in ihre Netze investieren - was so ziemlich die unwahrscheinlichste aller Annahmen ist. Gerade in Europa und Nordamerika, wo also demnächst (durch bezahlbare mobile Breitbandtarife) ein Handyinternet-Boom zu erwarten ist bzw. dieser schon anläuft, kann sich kein Internet Service Provider erlauben, einfach nichts zu tun und kassieren. Die Verbraucher haben hier (zumeist) Wahlfreiheit und würden halt sofort den Provider wechseln, falls dessen Leistung mit der Zeit immer weniger werden würde. Insofern sind die Internet Service Provider ganz automatisch zu den entsprechenden Investitionen gezwungen, dafür braucht es keine den Teufel an die Wand malende Studie und auch keinerlei Aufgabe der Netzneutralität.

genauso ist es
das backbone innerhalb deutschland wird ständig höhere bandbreiten liefern
zwischen frankfurt und stuttgart ist derzeit 800 GBit/sec geschaltet
neue techniken und multiplexer sind auch schon bereit, sodass alleine innerhalb des nächsten jahres die kapazität mehr als verdoppelt wird, bis 2010 ver-x-facht wird.....

Deinorius
2007-11-22, 14:16:18
Ich frage mich echt, wie manche Seiten den Strom messen.

Computerbase hat mit einem übertakteten C2D, n680i Board (was ja mehr Strom frisst als X38) und höher getakteter 3870 einen niedrigeren Idle-Verbrauch rausbekommen als Legion Hardware. Da hat die 3870 sogar weniger verbraucht als die 8500 GT (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_3870/31/#abschnitt_leistungsaufnahme).
Und bei Legion Hardware liegt der Verbrauch um einiges höher bei genügsamerer CPU, X38 Board und 3850 (was ja doch wenigstens etwas weniger verbrauchen sollte als die 3870).

Verflucht, was machen die anders/verkehrt/falsch?! Ist eigentlich an alle Seiten gerichtet.

Selbst mein PC verbraucht nur ca. 100 W (und sogar teilweise etwas weniger), obwohl ich ein P965 Board und ne X1950 Pro (verbraucht ja etwas mehr als ne 3870) habe, meine E4300 verbraucht zwar weniger, aber die paar W weniger machen das ganze ja nicht wett.

Tigerchen
2007-11-22, 15:07:03
Es ist nicht so wichtig daß der Phenom real schwächer ist als erwartet. Im Moment zählt der Reiz des Neuen. Darum wird er sich wohl gut verkaufen und der Preis bleibt zunächst hoch. IPhone + Folgekosten sind ja auch maßlos überzogen. Da beschwert sich aber keiner. Ist Apple, die dürfen dass. Wirre Welt.:cool:

BlackBirdSR
2007-11-22, 15:17:29
Ergo muß AMD endlich einmal diese Reserven, welche der 65nm-Prozeß eigentlich hat, auschöpfen. Wenn man mit dem Athlon 64 X2 Design in 90nm schon auf 3.2 GHz kommen kann, dann müssten auf 65nm durchaus 4 GHz erreichbar sein - wenn es nicht so ist, dann passt in der 65nm-Produktion von AMD irgendwas noch nicht. Womöglich stellt der 65nm-Prozeß die Prozessorenbauer ja auch vor ganz spezielle Anforderungen, auch Intel hatte seinerzeit einige Probleme mit den ersten eigenen 65nm-Modelle (Pentium 4 Precott, wurde sehr heiß und deswegen auch als "Preshott" verschrieen). Zumindest kann man es als gesichert ansehen, daß AMD noch wirklich reichlich Reserven bei den Taktfrequenzen hat, wenn man denn die Möglichkeiten des 65nm-Prozeß endlich einmal ausschöpfen würde. Hier ist sicherlich AMDs Hauptaufgabe in den kommenden Wochen und Monaten zu sehen.


Ich würde sagen, das ist so nicht haltbar Leo.
Nicht alleine der Prozess bestimmt die erreichbaren Taktraten. Der K8 kam damals mit 1.4 GHz aus den FABs, ausgelegt wurde er zu Lebzeiten vielleicht für 2.4-3 GHz. Der heutige K8 X2 ist in Hinsicht der Pipeline und kritischen Pfade noch immer die gleiche CPU. Fast alle Limitierungen müssten auch hier noch gelten.

Daher ist es unmöglich zu sagen, ob die CPU 4 GHz überhaupt wirtschaftlich erreichen kann. Egal wie gut der Prozess. Der 65nm K8 muss also lange nicht auf 4GHz kommen. Ich schätze das wird er wohl auch niemals. Es ist richtig dass der Prozess reifen muss und dass es dauert. Aber dass AMD hier ungenutzte Reserven im K8 hat, halte ich für sehr unwahrscheinlich.


Prescott ist dagegen ein ganz anderes Thema:
Du weißt, dass der 65nm Prozess nicht direkt der Schuldige ist bei Prescott. Sondern die Anzahl an Transistoren, die Komplexität und der Takt. Das ist auch bei AMD das Problem mit Phenom.
PM und Core2 haben die Probleme ja nicht so gehabt.

Gast
2007-11-22, 15:34:25
Ich würde sagen, das ist so nicht haltbar Leo.
Nicht alleine der Prozess bestimmt die erreichbaren Taktraten. Der K8 kam damals mit 1.4 GHz aus den FABs, ausgelegt wurde er zu Lebzeiten vielleicht für 2.4-3 GHz. Der heutige K8 X2 ist in Hinsicht der Pipeline und kritischen Pfade noch immer die gleiche CPU. Fast alle Limitierungen müssten auch hier noch gelten.

Daher ist es unmöglich zu sagen, ob die CPU 4 GHz überhaupt wirtschaftlich erreichen kann. Egal wie gut der Prozess. Der 65nm K8 muss also lange nicht auf 4GHz kommen. Ich schätze das wird er wohl auch niemals. Es ist richtig dass der Prozess reifen muss und dass es dauert. Aber dass AMD hier ungenutzte Reserven im K8 hat, halte ich für sehr unwahrscheinlich.


Trotzdem ist es allemal verwunderlich, dass es AMD bis heute nicht schafft, mit dem 65nm K8 die Taktraten der 90nm Kollegen auch nur annähernd zu erreichen. So jung ist der Prozess wahrlich nicht mehr, nächstes Jahr sollen schon die 45nm Chips kommen.

reunion

Gast
2007-11-22, 15:52:39
Nicht alleine der Prozess bestimmt die erreichbaren Taktraten.

Erstens dies und zweitens kann man keine unterschiedlichen 65nm Prozesse miteinander vergleichen. 65nm Intel != 65nm TSMC != 65nm AMD.
Die Strukturgrösse ist nur einer von vielen Parametern eines Fertigungsprozesses.

Leonidas
2007-11-22, 17:35:41
2x Fehler.

Die 8800 sollte natürlich eine 8600 sein, Schreibfehler.

Der P4 Prescott ist natürlich 90nm, Gedankenfehler.

StefanV
2007-11-22, 18:13:39
Trotzdem ist es allemal verwunderlich, dass es AMD bis heute nicht schafft, mit dem 65nm K8 die Taktraten der 90nm Kollegen auch nur annähernd zu erreichen. So jung ist der Prozess wahrlich nicht mehr, nächstes Jahr sollen schon die 45nm Chips kommen.
übertaktet sind die G1 besser als die F2, F3 lassen sich gut übertakten, die neuen G2 scheinen aber auch richtig gut zu sein.

Heißt so ganz stimmt die Aussage nicht, der Punkt ist, man hat keine 2x1MiB exemplare in 65nm...

BlackBirdSR
2007-11-22, 22:59:07
2x Fehler.

Die 8800 sollte natürlich eine 8600 sein, Schreibfehler.

Der P4 Prescott ist natürlich 90nm, Gedankenfehler.

Eigentlich nur ein Fehler im Sinne der Namensgebung. Die µArch ist ja die gleiche. Also schon richtig. Ich denke man versteht auch was gemeint war ;)

kahlchen
2007-11-23, 07:34:49
der Punkt ist, man hat keine 2x1MiB exemplare in 65nm...

Heisst das wenn ich einen größeren Cache hab kann ich besser übertakten oder wie? :confused:
Sonst wären eigentlich 2x512KiB völlig ausreichend, da ja der Speichercontroller sowieso intern ist.

BlackBirdSR
2007-11-23, 08:59:55
Heisst das wenn ich einen größeren Cache hab kann ich besser übertakten oder wie? :confused:
Sonst wären eigentlich 2x512KiB völlig ausreichend, da ja der Speichercontroller sowieso intern ist.

Nein heißt es nicht. Wäre ja auch irgendwie unlogisch.
Ansonsten frage ich mich, warum sich die Meinugn festgesetzt hat, dass durch de Speichercontroller keine großen oder schnellen Caches nötig sind.
Das wäre ja, als habe ich eine Autobahn mit Gefälle, und brauche deswegen keine Motorleistung mehr ;)

kahlchen
2007-11-23, 09:13:28
Nein heißt es nicht. Wäre ja auch irgendwie unlogisch.
Ansonsten frage ich mich, warum sich die Meinugn festgesetzt hat, dass durch de Speichercontroller keine großen oder schnellen Caches nötig sind.
Das wäre ja, als habe ich eine Autobahn mit Gefälle, und brauche deswegen keine Motorleistung mehr ;)

Kam mir irgendwie auch unlogisch vor ;)
Aber eigentlich sollte es zwischen nem 65nm K8 mit 2x512 & 2x1024 KiB so gut wie keinen Performance unterschied geben oder?
Der Chache ist doch nur dazu da, die Daten vom RAM zu Puffern. Da die Daten nicht den Umweg über die Northbridge gehen müssen (sondern direkt über integrierten Speicherkontroller in CPU), muss der Cache demnzufolge nicht so groß sein, oder?!? (Kannst ja mal kurz erklären, warum der Cache trotzdem groß sein sollte)
Schnell muss er natürlich trotzdem sein, hab ja auch nichts gegenteiliges geschrieben.

BlackBirdSR
2007-11-23, 10:06:36
Kam mir irgendwie auch unlogisch vor ;)
Aber eigentlich sollte es zwischen nem 65nm K8 mit 2x512 & 2x1024 KiB so gut wie keinen Performance unterschied geben oder?
Der Chache ist doch nur dazu da, die Daten vom RAM zu Puffern. Da die Daten nicht den Umweg über die Northbridge gehen müssen (sondern direkt über integrierten Speicherkontroller in CPU), muss der Cache demnzufolge nicht so groß sein, oder?!? (Kannst ja mal kurz erklären, warum der Cache trotzdem groß sein sollte)
Schnell muss er natürlich trotzdem sein, hab ja auch nichts gegenteiliges geschrieben.

Mit einem Umweg über die Northbridge hat das nichts zu tun. Die Daten werden gepuffert, damit sie nicht aus dem RAM gelesen werden müssen, was fürchterlich langsam ist.
Optimalerweise liegen die benötigten Daten also schon im l2-Cache. Was der K8/10 aber gerade nicht braucht und nicht mehr in die 64KB L1D-Cache passt, fliegt in den L2-Cache aus. Es teilen sich also momentan nicht nötig aber vielleicht dann wieder gebrauchte Daten den Cache mit den spekulativ oder auf Anfrage geladenen Daten aus dem RAM. (sorry für den Satz).

Je größer der L2-Cache, desto weniger Daten müssen endgültig entfernt werden, desto weniger erfolglose Suchaktionen im Cache. Und ein Speicherzugriff ist immer eine Performance-Katastrophe, integrierter Speichercontroller hin oder her. K8 und K7 reagieren vielleicht nicht so extrem auf kleine und große L2-Caches. Aber es ist immernoch eine gute Möglichkeit Performance zu erziehlen. Unnötig sind größere Caches nicht geworden.

Wie es beim K10 aussieht ist mir noch etwas unklar. Da wird nur in den L1D-Cache geladen, L2 und L3 sind nur für nicht benötigten Überlauf zuständig. Es macht sicher weniger Sinn den L2-Cache größer als den L3-Cache auszulegen.

kahlchen
2007-11-23, 11:02:49
(sorry für den Satz)
das hab ich mir auch gerade gedacht ;)
Ich hab das schon so ungefähr verstanden... aber macht nicht gerade der integrierte Speicherkontroller den K8 "unempfindlicher" im Bezug auf Speicherzugriffe?!? Kann da mal jemand den Zusammenhang erklären, bitte :)

Bei Intel brachte ein größerer Cache ja schon immer mehr und das hängt doch eben mit dem nicht integrierten Speicherkontroller zusammen oder?
Bitte um Aufklärung :confused: :)

StefanV
2007-11-23, 11:06:33
Heisst das wenn ich einen größeren Cache hab kann ich besser übertakten oder wie? :confused:

Nein, das heißt das man bei größeren Caches für die gleiche Leistung weniger Takt braucht, aus dem Grunde sind die Brisbanes auch mit 'krummen' Takten ausgestattet, die die 2x1MiB Kollegen ablösten.

Der 'alte' 4400+ z.B. hatte 2,2GHz bei 2x1MiB, der neue, 65nm Brisbane hat 2x 512MiB und 2,3GHz Takt.
Dazu kommt noch, das der Cache bei dem 65nm Exemplar aus irgendwelchen Gründen deutlich langsamer ist, was auch auf die Performance auswirkungen hat...

Hat AMD bei gleichem Rating sogar 200MHz Differenz zwischen 512KiB und 1MiB L2 Cache gehabt...

Sonst wären eigentlich 2x512KiB völlig ausreichend, da ja der Speichercontroller sowieso intern ist.
Das eine hat mit dem anderen wenig zu tun, schau dir Benchmarks zwischen 2x512k und 2x1MiB K8 an, der 2x1MiB K8 ist vielleicht nicht so viel schneller, er ist aber schneller, mal mehr, mal weniger.

BlackBirdSR
2007-11-23, 11:15:30
das hab ich mir auch gerade gedacht ;)
Ich hab das schon so ungefähr verstanden... aber macht nicht gerade der integrierte Speicherkontroller den K8 "unempfindlicher" im Bezug auf Speicherzugriffe?!? Kann da mal jemand den Zusammenhang erklären, bitte :)

Bei Intel brachte ein größerer Cache ja schon immer mehr und das hängt doch eben mit dem nicht integrierten Speicherkontroller zusammen oder?
Bitte um Aufklärung :confused: :)

Enempfindlicher gegenüber einem theoretischen K8 ohne IMC natürlich. Allerdings nicht unempfindlicher per se. Ein Speicherzugriff ist auch beim K8/10 ein limitierender Faktor, den es eigentlich immer zu vermeiden gilt.
Bei 3+12 Takten für einen L2-Cache-Zugriff gegenüber z.B 120 Takten für den RAM ist das ja auch kein Wunder. Ja der Speichercontroller ist mit verantwortlich, dass K8 so gut zulegen konnte (ggü. K7), aber er ist nicht unbedingt der heilige Gral ohne den nichts mehr geht.

Core2 macht das mit ausgezeichneten Prefetchern. Bei echten Anwendungen kann Core2 hier also auch sehr gut abschneiden. Die Latenzmesseungen sind gegenüber K7/P4 wirklich ausgezeichnet. Durch Bandbreite und Prefetching versteckt man die Latenz einfach sehr effektiv.
Dazu kommt, dass sein Cachesystem anders arbeitet. Er ist schneller, teil-inklusiv und hat extrem kuze Zugriffszeiten. Zudem laden viele Intel CPUs ihre Befehle/Daten teilweise direkt aus dem L2-Cache.

Ich würde nicht sagen, dass Core2 mehr Cache braucht, sondern dass er mehr Nutzen aus mehr Cache ziehen kann. Es ist also nichts Negatives.
Ich würde mir auch nicht zutrauen das bessere Konzept an sich zu erkennen. Aber Es war schon immer seit dem Coppermine so, dass Intel das stärkere Cache-Konzept hatte.

Dass Core2 mit kleineren Caches plötzlich viel Leistung verliert, liegt gar nicht
so an der Größe, sondern weiterer Beschneidungen. Die kleineren Modelle verlieren automatisch auch Effizienz durch die Beschneidung. AMD Modelle arbeiten hier z.B auch bei halbem Cache noch mit gleicher "Assoziatitvität".
Da entsteht oft der Trugschluss, dass die Intel Modelle stark mit mehr Cache skalieren. Richtige Vergleiche kann es aber wegen der Beschneidung so nicht geben. Core2 profitiert von viel Cache vergleichen mit 1MB Core2 Modellen ist also nicht ganz richtig.

kahlchen
2007-11-23, 13:01:13
Ich würde nicht sagen, dass Core2 mehr Cache braucht, sondern dass er mehr Nutzen aus mehr Cache ziehen kann. Es ist also nichts Negatives.
Ich würde mir auch nicht zutrauen das bessere Konzept an sich zu erkennen. Aber Es war schon immer seit dem Coppermine so, dass Intel das stärkere Cache-Konzept hatte.

Aber es ist doch sicherlich schlauer den Speicherkontroller intern einzubinden um dann mit einem Dual-Core "auszukommen" der weniger Cache benötigt um auf eine identische Performance wie ein Dual-Core + IMC + viel Cache zu kommen. Schließlich macht Intel das ja dann mit dem Nahelem auch.

AMD Modelle arbeiten hier z.B auch bei halbem Cache noch mit gleicher "Assoziatitvität".
:eek: das wusste ich gar nicht, dachte die Anbindungen würden in einer Art "Cluster" automatisch mit wegfallen...