PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel: 20 Prozent Performancevorsprung dank Conroe und Merom


Seiten : [1] 2

Atma
2006-02-18, 13:29:19
Mit den neuen Prozessorgenerationen Conroe und Merom erreiche Intel einen Performancevorsprung von 20 Prozent gegenüber Konkurrent AMD. Das sagte Mooly Eden, Vizepräsident und Chef der Mobile Platforms Group bei Intel, gegenüber dem Newsdienst CNet. Er sei sich sicher, dass AMD bis zu zwei Jahre brauchen werde, um auf Intel wieder aufschließen zu können.
Anzeige
Adblock

Der Intel-Mobilprozessor mit dem Codenamen Merom soll ebenso wie der Desktop-Prozessor Conroe vermutlich Mitte 2006 erscheinen und mit einer deutlich überarbeiten Prozessorarchitektur aufwarten, die effizienter als das Netburst-Design des Pentium 4 und Xeon arbeiten soll. Dabei handelt sich um eine neue, vierfach skalare Out-of-Order-Architektur mit 14 Pipeline-Stufen (Pentium 4 Prescott: dreifach skalar mit 31 Stufen). AMD plant für 2006 bisher keine größeren Änderungen an der Prozessorarchitektur, will aber Gerüchten zufolge anlässlich der taiwanischen Computermesse Computex seinen Athlon 64 mit DDR2-Interface vorstellen. (boi/c't)

Quelle:http://www.heise.de/newsticker/meldung/69795


Da würde ich mal sagen falls es stimmen sollte hat intel seine Hausaufgaben gemacht und AMD muss jetzt wieder aufholen.

Erstmal abwarten wie sich der A64 auf dem M2 sockel mit DDR2 schlägt :)

Black-Scorpion
2006-02-18, 13:32:50
Naja, das übliche Marketinggeblubber. ;)
Was soll er auch sonst sagen.

Gast
2006-02-18, 13:49:58
ich würd nicht sagen das die schneller als AMD werden sondern so gerade gleichziehen können :D

Gast
2006-02-18, 13:52:54
ich würd nicht sagen das die schneller als AMD werden sondern so gerade gleichziehen können :D

Tja, das wissen wir eben nicht. Ich denke, das der Typ, der das gesagt hat, die Leistung sicher besser einschätzen kann als wir.

Die 20% werden aber wohl nicht zutreffen, eher weniger - das war bisher bei allen Marketingaussagen so. ;)

Aber Vorsprung bleibt Vorsprung und nur das dürfte für Intel erstmal von belang sein.

Wenn ich mir einen Core Duo auf Yonah Basis mit 3,33 GHz vorstelle, dann wäre diese Aussage wohl mehr als zutreffend. ;-)

Botcruscher
2006-02-18, 13:59:18
Blub blub blub, ich will ZAHLEN.

BlackBirdSR
2006-02-18, 14:00:52
Muss sich nur um SpecInt handeln, und schon stimmt die Aussage.
Und SpecInt wird ja als "Industry standard benchmarks" angesehen ;)

dildo4u
2006-02-18, 14:03:48
Muss sich nur um SpecInt handeln, und schon stimmt die Aussage.
Und SpecInt wird ja als "Industry standard benchmarks" angesehen ;)
Ebend da nimmt man ebend ein Paar mher Progs die Intel liegen und dafür ein Paar Games weniger und schon hat mann seine 20%. ;)

Gast
2006-02-18, 14:07:08
Ebend da nimmt man ebend ein Paar mher Progs die Intel liegen und dafür ein Paar Games weniger und schon hat mann seine 20%. ;)

Also ehrlich gesagt finde ich diese Game-Benchmarks ziemlich sinnlos.

Bei heutigen Games zählt in vielen Fällen die Grafikkarte wesentlich mehr, als die eingesetzte CPU. Wenn ich mir die ganzen Benchmarks so angucke, sehe ich größtenteils Werte im 50, 100er Bereich, egal ob Pentium oder Athlon. Der Unterschied von 20-30% CPU-Leistung kommt da überhaupt nicht zum tragen.

Sogesehen ist _mir_ die leistung in allen anderen Anwendungen wesentlich wichtiger...

Android
2006-02-18, 14:09:53
Bin ich ja mal gespannt. Wenn Intel aber weiterhin so en Müll verzapft (Core-Duo ohne 64-Bit Erweiterung :confused: ) glaub ich an gar nichts mehr.
Und so nem Marketingtypen glaub ich eh nicht; Fakten, Fakten und nochmals Fakten will ich sehen.

Und mehr Ahnung als wir hat der garantiert nicht. Denn wenn der AMD einschätzen könnte, müsste AMD das Gleiche tun können. Und wenn AMD meint sie müssten 2006 nichts mehr verändern, dann hat das schon seinen Grund ;)
Bin kein AMD-Fanboy oder sowas; ehrlich gesagt kann ich solche Leute nicht leiden. Aber was Intel in letzter Zeit auf den Markt wirft ist echt daneben.

By the way: Hier glaubt doch nicht ernsthaft einer, dass AMD keine neue Architektur auf Lager hat ? Die haben schon die 2008er Generation in ihrer Schublade, die nur noch auf die kleinere Fertigungstechnik wartet.
AMD hat momentan einfach keinen Grund alle Ideen zu verpulvern, deshalb kein Wechsel 2006. Die jetzige Architektur ist derart gut, dass man sich gemütlich zurücklehnen kann.

reunion
2006-02-18, 14:14:47
Naja, wenn selbst Intel nur von 20% Performancevorsprung spricht, sieht das ja schonmal nicht besonders rosig aus. Diese zwanzig Prozent könnte man vermutlich auch schon mit Presler erreichen, wenn man die richtigen Benchmarks wählt.

Mir kommt ohnehin schon länger seltsam vor, warum Presler sich bei vielen Übertaktungstests auf weit über 4Ghz prügeln lässt (mit diesen Taktraten könnte man sogar das erste Mal wieder mit AMD mithalten), aber Intel den Chip trotzdem nur mit etwas über 3Ghz taktet. Warum wohl? - Vielleicht, um Conroe später nicht zu blamieren? Erinnert irgendwie an Tualatin. ;)
Dann wäre da das Gerücht um eine aberwitzig hoch getaktete Extreme-Edition des Conroe, was ja auch eher auf eine Verzweiflungstat, als auf einen überlegenen Sieg hindeutet.

Alles in allem, scheint Conroe jedenfalls bei weitem nicht so überlegen, wie hier viele schon seit Wochen im Forum herumposaunen. Ich bin gespannt. ;)

Gast
2006-02-18, 14:17:19
Wenn Intel aber weiterhin so en Müll verzapft (Core-Duo ohne 64-Bit Erweiterung :confused: ) glaub ich an gar nichts mehr.

Im Mobile-Sektor sind 64 bit derzeit ziemlich sinnlos, da dort hauptsächlich gearbeitet wird (z.B. Office).

Und mehr Ahnung als wir hat der garantiert nicht. Denn wenn der AMD einschätzen könnte, müsste AMD das Gleiche tun können. Und wenn AMD meint sie müssten 2006 nichts mehr verändern, dann hat das schon seinen Grund ;)

Der hat schon mehr Ahnung als wir, da bin ich mir ziemlich sicher.
Du musst bedenken, das AMD _nicht_ die Leistung der Conroe CPUs kennt, wie denn auch? Ohne Spion in der Firma geht das nicht und ich bin mir sicher, das Intel die Ergebnisse einer in der Entwicklung befindlichen neuen Architektur nur unter großter Geheimhaltung veröffentlicht.

Bei AMD ist bis dato nichts wirklich neues zu erwarten, was einen deutlichen Performanceboost verspricht.

Android
2006-02-18, 14:25:49
Im Mobile-Sektor sind 64 bit derzeit ziemlich sinnlos, da dort hauptsächlich gearbeitet wird (z.B. Office).



Der hat schon mehr Ahnung als wir, da bin ich mir ziemlich sicher.
Du musst bedenken, das AMD _nicht_ die Leistung der Conroe CPUs kennt, wie denn auch? Ohne Spion in der Firma geht das nicht und ich bin mir sicher, das Intel die Ergebnisse einer in der Entwicklung befindlichen neuen Architektur nur unter großter Geheimhaltung veröffentlicht.

Bei AMD ist bis dato nichts wirklich neues zu erwarten, was einen deutlichen Performanceboost verspricht.

1.
Wie oft sollen sich die Leute denn ein neues Notebook holen ? Alle sechs Monate ? Also bis Windows Vista ist es echt nicht mehr weit.
Und: Wenn jemand nur mit Office arbeitet braucht er auch kein Dual-Core Prozessor. Du merkst, es passt einfach nicht zusammen ;)

2.
Du brauchst keinen Spion bei einer Firma um sie einschätzen zu können. Gerade dann nicht, wenn du in der gleichen Branche arbeitest.
Es gibt Sachen, die sind technisch machbar und andere sind es nicht.
Selbst bei der Architektur von Prozessoren gibt es gewisse inoffizielle Richtlinien. Das Rad wird also nicht aufs Neue erfunden.

Gast
2006-02-18, 14:35:39
Wie oft sollen sich die Leute denn ein neues Notebook holen ?

So oft wie sie es brauchen.

Alle sechs Monate ? Also bis Windows Vista ist es echt nicht mehr weit.

Was spielt Windows Vista für eine Rolle? Das läuft auch auf 32 bit-Systemen und es nicht abzusehen, das sich bis 2008+ daran etwas ändern wird. Bis dahin wird auch im Mobile-Markt 64 bit einzug halten...

Und: Wenn jemand nur mit Office arbeitet braucht er auch kein Dual-Core Prozessor. Du merkst, es passt einfach nicht zusammen ;)

Es passt zusammen. Nur weil für Office keine DualCore CPU benötigt wird, heißt das nicht, das DualCore CPUs im Mobile-Bereich überflüssig sind.
Du musst bedenken: DualCore CPUs sind kaum teurer als ihre SingleCore Varianten (liefern aber erheblich mehr Leistung) und benötigen zumindest beim
Core Duo kaum mehr Strom als ihre SingleCore-Varianten.
Würde man absichtlich auf _deutlich_ mehr Leistung, für einen _sehr geringen Aufpreis_ verzichten, wäre man ziemlich doof. ;)
Im übrigen hat das schon seinen Sinn: je mehr DualCore CPUs im Umlauf sind, desto schneller gibts die passenden Anwendungen dafür. Intel denkt einen Schritt vorraus...

Du brauchst keinen Spion bei einer Firma um sie einschätzen zu können. Gerade dann nicht, wenn du in der gleichen Branche arbeitest.

Dann erklär mir mal, wie du an die Leistungsdaten einer CPU kommen willst, die noch nicht mal am Markt ist, geschweige denn vorgestellt wurde.
AMD kennt die technischen Details des Conroe nicht, höchstens Bruchstücke davon.

Coda
2006-02-18, 14:38:56
Ich empfinde diese Aussage als sehr glaubhaft. AMD wird sich aber im Serverbereich durch ihre bessere SMP-Skalierung einen Vorteil verschaffen können und da fließt der Rubel...

Android
2006-02-18, 14:43:52
@Gast:

Warten wirs ab. Unsere Meinungen gehen derart auseinander, dass sich eine Diskussion darüber nicht lohnen würde. ;)

Gast
2006-02-18, 15:19:58
Vergleicht Intel da vielleicht fx-62 mit seinem 3,33 GHz conroe?
Der Taktunterschied beträgt nämlich ziemlich genau 20% von 2,8 Ghz zu 3,33 GHz???

Gast
2006-02-18, 15:25:21
Vergleicht Intel da vielleicht fx-62 mit seinem 3,33 GHz conroe?
Der Taktunterschied beträgt nämlich ziemlich genau 20% von 2,8 Ghz zu 3,33 GHz???

Wir wissen es nicht, denn das ist alles noch "geheim".

Selbst wenn, dann hoffe ich doch, das man den normalen 2,67 GHz Conroe durch overclocking auf mindestens 3,33 GHz beschleunigen kann, wenn die Architektur diese Taktraten schon standardmäßig hergibt. :)

Spasstiger
2006-02-18, 17:40:29
Da ich nicht glaube, dass der Conroe die Effizienz eines Toldeo (AMD Athlon 64 X2) erreicht, werde ich bei solchen Aussagen erstmal abwarten. Zumal 20% kein weltbewegender Vorsprung wäre, auf den AMD nicht innerhalb weniger Wochen reagieren könnte. Ein Athlon 64 FX-64 (3 GHz, 2*1MB L2 Cache) wäre imo sogar jetzt schon machbar und sollte mit einem Conroe @ 3,33 GHz mithalten können.
Es hängt ja auch davon ab, in welchen Benchmarks die 20% Vorsprung erreicht werden. Gibt ja genug Anwendungen, wo Intel auch jetzt mit 20% vorne liegt.

Und ich sehe diese Meldung auch in gewisser Weise als Eingeständnis, dass AMD derzeit die Nase vorne hat.

Falls Intel Ende des Jahres aber klar vor AMD liegen und auch das P/L-Verhältnis stimmen sollte, wird mein nächster Rechner wohl wieder eine CPU von Intel unter der Haube haben.

dildo4u
2006-02-18, 18:29:56
Da ich nicht glaube, dass der Conroe die Effizienz eines Toldeo (AMD Athlon 64 X2) erreicht, werde ich bei solchen Aussagen erstmal abwarten. Zumal 20% kein weltbewegender Vorsprung wäre, auf den AMD nicht innerhalb weniger Wochen reagieren könnte.
AMD hat vor 2007 keine65nm Prozzis das ist der Nachteil da können sie nicht Kontern und ein FX60 läuft heute schon am Limit und läßt sich ohne extreme strake Kühlung kaum oc.Und ein nur leicht oc X2 ist eine Stromvernichtungmaschine vom feinsten hab ich selber schon gemessen.

Gast
2006-02-18, 18:44:40
Zumal 20% kein weltbewegender Vorsprung wäre, auf den AMD nicht innerhalb weniger Wochen reagieren könnte. Ein Athlon 64 FX-64 (3 GHz, 2*1MB L2 Cache) wäre imo sogar jetzt schon machbar und sollte mit einem Conroe @ 3,33 GHz mithalten können.

Du musst bedenken, das die Aussage "20% schneller als AMD" hieß, das würde bedeuten, falls es zutrifft, das die derzeitigen Netburst-Prozessoren um 30-50% übertreffen werden sollen - was ein gigantischer Leistungssprung wäre.

Ich denke nicht, das AMD einfach einen 3 GHz FX bringen könnte, denn schon bei diversen Tests wurden diese 3 GHz nicht erreicht (THG + computerbase), sondern erst mit deutlich erhöhter VCore und Wasserkühlung möglich.

Nur dann wäre die Stromaufnahme auch bei AMD ziemlich hoch, denn bei 3 GHz macht es schon einen Unterschied, ob die CPU bei 1,35V oder 1,45V läuft.

Mal angenommen, Intel hat nicht geblufft und bezog diese Aussage auf den 2,6 GHz FX, dann wäre damit gemeint, das der Conroe so schnell wäre, wie ein 3,12 GHz FX.
Um wieder zurückzuschlagen bräuchte es dann einen 3,2 GHz FX von AMD und der wird so schnell nicht kommen... ;-)

Gast
2006-02-18, 18:46:48
* Zumal die Fertigung solcher hochgetakten Prozessoren sicher sehr teuer wäre, denn es ist mitnichten so, das alle am Markt erhältlichen X2 und Dual Opterons die 3 GHz locker erreichen.
Das wäre wohl nur mit Selektion möglich...

reunion
2006-02-18, 19:00:30
AMD hat vor 2007 keine65nm Prozzis das ist der Nachteil da können sie nicht Kontern


Das kann man auch anders sehen. Was macht Intel, wenn AMD auch 65nm hat? Offensichtlich hat man ja schon Probleme, trotz 65nm mitzuhalten.


Ich empfinde diese Aussage als sehr glaubhaft.


Warum sollte ein Intel Vizepräsident vor irgendeinem Newsdienst die Hose runter lassen? Das war nichts als Werbung, und für das waren die Performanceschätzungen verdammt bescheiden.

Gast
2006-02-18, 19:19:17
Das kann man auch anders sehen. Was macht Intel, wenn AMD auch 65nm hat? Offensichtlich hat man ja schon Probleme, trotz 65nm mitzuhalten.

Das trifft bisher nur auf Netburst zu. Netburst ist mit dem Conroe allerdings Geschichte und Intel will bereits 2007 auf 45nm umsteigen, wie hier (http://www.computerbase.de/news/allgemein/forschung/2006/januar/intel_45-nm-chips/) nachzulesen.

Das Spielchen scheint so weiter zu gehen, möglich das Intel die aktuelle Fertigungstechnologie nicht voll ausreizt, aber dafür wechseln sie früher auf kleinere Strukturen - was ebenfalls eine Methode ist, die Konkurrenz unter Druck zu setzen.

Undertaker
2006-02-18, 22:30:26
Mal angenommen, Intel hat nicht geblufft und bezog diese Aussage auf den 2,6 GHz FX, dann wäre damit gemeint, das der Conroe so schnell wäre, wie ein 3,12 GHz FX.
Um wieder zurückzuschlagen bräuchte es dann einen 3,2 GHz FX von AMD und der wird so schnell nicht kommen... ;-)

wenn wir einmal vorsichtig schätzen, dass dual-ddr2-800 und weitere interne verbesserungen (sprungvorhersage etc) nur ~10% für den a64 bringt, wäre man schon mit 2,8ghz wieder nahezu gleichauf... und 2,8ghz sind schon jetzt kein problem...

ach ja: wie vorsichtig die von mir geschätzten 10% sind, siehst du hier:

http://www.3dcenter.org/artikel/2005/10-20_c.php

20% sind schon fast realistischer...

Avalox
2006-02-18, 22:45:24
In der aktuellen c't 5/06 stehen aber schon mal Preise.


Conroe 3. Quartal 2006
E4200 1,60 GHz 2 MByte 800 ?
E6300 1,86 GHz 2 MByte 1066 209 US-$
E6400 2,13 GHz 2 MByte 1066 241 US-$
E6600 2,40 GHz 4 MByte 1066 316 US-$
E6700 2,67 GHz 4 MByte 1066 530 US-$

Merom 4. Quartal 2006
T5600 1,83 GHz 2 MByte 667 241 US-$
T7200 2,00 GHz 4 MByte 667 294 US-$
T7400 2,17 GHz 4 MByte 667 423 US-$
T7600 2,33 GHz 4 MByte 667 637 US-$

Woodcrest 3. Quartal 2006
5110 1,66 GHz 4 MByte 1066 209 US-$
5120 1,83 GHz 4 MByte 1066 256 US-$
5130 2,00 GHz 4 MByte 1333 316 US-$
5140 2,33 GHz 4 MByte 1333 455 US-$
5150 2,67 GHz 4 MByte 1333 690 US-$
5160 3,00 GHz 4 MByte 1333 851 US-$

*vorläufiger 1000-Stück-OEM-Preis

Aus http://www.heise.de/ct/06/05/022/

Sehr interessant auch folgender Artikel

http://www.heise.de/ct/06/05/018/

"Intel will mit dem Dual-Core-Chip Tulsa die Leistung der Server-Prozessoren weiter vorantreiben, aber gleichzeitig den Stromverbrauch begrenzen. Beide Kerne des Prozessors verfügen über Hyper-Threading und Virtualisierungstechnik Vanderpool. Jeder hat seinen eigenen L2-Cache von 1 MByte, darüber hinaus ist in Tulsa noch ein gemeinsamer L3-Cache von 16 MByte implementiert, der mit der Cache-Schutztechnik Pellston versehen ist. Diese sorgt unter anderen dafür, dass eine Cache-Line, bei der gehäuft Fehler auftreten, einfach im laufenden Betrieb abgeschaltet und aus der Verwaltung herausgenommen wird.

Um den Energiebedarf des Cache zu begrenzen, hat Intel für ihn eine eigene Spannungsversorgung vorgesehen. Im aktiven Zustand wird beim Cache-Zugriff jeweils nur knapp ein Prozent des L3-Array mit Strom versorgt. Im passiven Zustand lässt sich der L3-Cache in einen Schlafmodus versetzen, was 0,75 Watt pro MByte an Leckleistung sparen soll. Das Abschalten einer Cachehälfte spart demnach drei Watt. Insgesamt schluckt der gesamte Cache-Speicher maximal zwölf Watt, wovon rund 90 Prozent auf Leckströme entfallen, erläuterte Nimish Modi von Intels Enterprise Group. Die erstmals eingesetzten NMOS-Schlaftransistoren im Cache von Serverprozessoren reduzieren zwar dessen Performance um rund zehn Prozent, halbieren aber die Verlustleistung.

Tulsa wird in einem 65-Nanometer-Prozess hergestellt und soll mit bis zu 3,4 GHz Taktfrequenz laufen. Für eine Kernspannung von 1,25 Volt gibt Intel einen maximalen Verbrauch (TDP) von 165 Watt an, im typischen Betrieb seien es 110 Watt. Der mit über 1,3 Milliarden Transistoren bisher aufwendigste x86-Prozessor soll ab der zweiten Jahreshälfte vom Band laufen"


Toll auch der Artikel

Compiler-Technologie für rekonfigurierbare parallele Hardware , aber leider nicht Online zu lesen.

Gast
2006-02-18, 22:53:13
wenn wir einmal vorsichtig schätzen, dass dual-ddr2-800 und weitere interne verbesserungen (sprungvorhersage etc) nur ~10% für den a64 bringt, wäre man schon mit 2,8ghz wieder nahezu gleichauf...

Naja, mal abwarten wie die sich Latenzen auswirken...

Mit DDR500+ hat man jetzt schon recht viel Bandbreite und das bei recht moderaten Timings von 3-3-3-8.

In diesem Test (http://www.xbitlabs.com/articles/memory/display/patriot-ddr700_9.html) gehts hoch bis DDR700, wobei DDR466 (2-2-2-10-1T) teilweise sogar mehr Leistung liefert, als DDR622 (3-4-4-10-1T).

DDR2-667 Module stehen im moment bei bezahlbaren 3-3-3-10, DDR2-800 bei 4-4-4-12.

So viel scheint das mehr an Bandbreite gar nicht zu bringen, wenn man es sich mit deutlich schlechteren Timings erkauft.

Der Normaluser kann DDR2 locker überspringen, denn DDR500+ samt OCed DualCore @ 2,8-3 GHz sollte bis 2007+ locker reichen.

Gast
2006-02-18, 22:56:17
Woodcrest 3. Quartal 2006
5130 2,00 GHz 4 MByte 1333 316 US-$
5140 2,33 GHz 4 MByte 1333 455 US-$
5150 2,67 GHz 4 MByte 1333 690 US-$
5160 3,00 GHz 4 MByte 1333 851 US-$

Das finde ich besonders ärgerlich. Wieso werden dem Gamer-Markt die besten CPUs vorenthalten?
Laufen die Prozessoren in den gleichen Boards?

VooDoo7mx
2006-02-18, 23:11:08
Mir kommt ohnehin schon länger seltsam vor, warum Presler sich bei vielen Übertaktungstests auf weit über 4Ghz prügeln lässt (mit diesen Taktraten könnte man sogar das erste Mal wieder mit AMD mithalten),

Das kann man auch anders sehen. Was macht Intel, wenn AMD auch 65nm hat? Offensichtlich hat man ja schon Probleme, trotz 65nm mitzuhalten.

:|

Probleme hat Intel garantiert nicht. 3,33GHz Conroe XE 95W gegen Athlon FX 2,8GHz 125W sprechen ja schon mal Bände.

Mann kann es drehen wie man will, aber AMD ist mit seinen 90nm und dem 125W FX62 so ziemlich am Ende dieser Fertigungsera angelangt.
Taktsteigerungen wird es erst wieder Q1 2007 mit 65nm geben.

Intel hingegen wird den Takt deutlich schneller steigern können. Bspw: Q4 2006 mit nen 2,93GHz Conroe der dann gegen einen 2,6GHz Windsor antreten wird.

Im März 2007 launcht dann auch schon die 4. Centrino Generation mit einer 45nm CPU. In diesem Zeitrum wird man schon auch die anderen CPUs umgestellt haben.

Jetzt fragt man sich: was wird AMD machen? genau das was sie vor dem K8 getan haben.
Sie müssen ihre Preise wieder derart senken, dass sie deutlich unter Intel sind.
AMD ist ja gerade in letzter zeit mit seiner Preisgestaltung ziemlich frech gewurden. (nicht böse nehmen, AMD hat ja zur Zeit auch das bessere Produkt)

Natürlich blubbert dieser Intel Futzi nur rum.
Aber überlegt mal: wann hat irgendein Intel offizieller das letzte Mal so lautstark gemotzt? Die letzten 2 Jahre der Prescott-Era waren die nämlich ganz still... (und haben sich somit indirekt das schlechtere Produkt eingestanden)
Jetzt kommen sie aus ihren dunklen Höhlen wieder raus...
Das werden sie sicher nicht grundlos tuen.

Ab Juli gehört 2006 Intel die Performancekrone wieder. Da sind sich fast alle Insider einig.

VooDoo7mx
2006-02-18, 23:15:55
Das finde ich besonders ärgerlich. Wieso werden dem Gamer-Markt die besten CPUs vorenthalten?
Laufen die Prozessoren in den gleichen Boards?

Der Gamer Markt bekommt den Conroe XE mit 3,33Ghz und den E6800 mit 2,93GHz im Q4.

Für Server Prozessoren hat Intel im übrigen immer Extra Sockel, also werden die nicht im Desktop Board laufen.

Gast
2006-02-18, 23:19:05
Der Gamer Markt bekommt den Conroe XE mit 3,33Ghz

Zu teuer. :)

und den E6800 mit 2,93GHz im Q4.

Noch länger warten...

5130 2,00 GHz 4 MByte 1333 316 US-$
5140 2,33 GHz 4 MByte 1333 455 US-$
5150 2,67 GHz 4 MByte 1333 690 US-$
5160 3,00 GHz 4 MByte 1333 851 US-$

Die ersten beiden sind ziemlich interessant. Kosten 1/3 bzw. 1/2 einer Extreme Edition, haben den gleichen FSB und sollten durch übertakten die Leistung der XE übertreffen (FSB und nutzbare Speicherbandbreite steigt mit).

BlackBirdSR
2006-02-19, 00:47:12
Zu teuer. :)





Natürlich.
Aber du weißt ja wie es läuft:

Der Hersteller mit der besten Hardware, egal wie teuer, steht bei den Balken immer ganz oben.
Und es ist auch immer diese CPU, die sich die meisten Leute wünschen würden. Ist das nun Intel, so gilt Intel als der Gesamtgewinner hinischtlich Performance.
Das wirkt sich direkt auch darauf aus, wie die anderen CPUs wahr genommen werden. Die ganze Marke Intel gilt wieder als besserer Hersteller für CPUs in Sachen Spiele, und schon verschiebt sich Käuferschaft in Richtung Intel.

Läuft auch bei ATI und Nvidia nicht anders.

Spasstiger
2006-02-19, 00:47:31
Der Gamer Markt bekommt den Conroe XE mit 3,33Ghz und den E6800 mit 2,93GHz im Q4.

Damit ist auch endlich ein sinnvoller Performancevorteil bei der "Extreme Edition" gewährleistet, vor allem wenn der XE noch vor dem E6800 kommt und somit mit die Nachfolge des 2,66 GHz "langsamen" E6700 darstellt.
Denn gleicher oder gar weniger Takt und nur mehr Cache als bei der schnellsten normalen Variante loht sich einfach nicht wie man beim P4 gesehen hat.

Als interessantes Modell für den Einstieg bei den neuen Intels erscheint mir folgende CPU:
E6600 2,40 GHz 4 MByte 1066 316 US-$
Dürfte auch ein Kopf-an-Kopf-Rennen mit dem Athlon 64 X2 4800+ geben. Und AMD wird definitiv die Preise für die Dual-Cores senken müssen.

VooDoo7mx
2006-02-19, 00:48:41
@Gast

Dafür musst du dann aber wieder teure Server- oder Workstationboards mit den anderen Sockel kaufen. Die Preiserparnis ist da nicht wirklich da.

Ich persönlich finde den E6600 am interessantesten. (Auch wenn ich nie wieder Bedarf an solch einer CPU haben sollte)

Der sollte sich recht einfach auf FSB 333 (1333 effektiv) bringen lassen und dürfte dann mit runden 3GHz recht performant sein.

Die Frage ist dann, ob nur die teuren i985X Bretter dem FSB 1333 können oder auch die günstigen i965P.

Coda
2006-02-19, 02:28:21
Warum sollte ein Intel Vizepräsident von irgendeinem Newsdienst die Hose runter lassen? Das war nichts als Werbung, und für das waren die Performanceschätzungen verdammt bescheiden.Das ändert alles nichts daran, dass ich diese Aussage als für mich als glaubhaft einstufe. Fertig aus.

BlackBirdSR
2006-02-19, 02:56:26
Das ändert alles nichts daran, dass ich diese Aussage als für mich als glaubhaft einstufe. Fertig aus.

Sind wir schon zwei.
Wenn die Performance doch weit näher an AMDs Aufgebot liegt, soll mir das nur recht sein.
Allerdings traue ich Intel zu, eine neue CPU-Generation leistungsstark auszulegen.

Gast
2006-02-19, 03:06:17
:|

Probleme hat Intel garantiert nicht. 3,33GHz Conroe XE 95W gegen Athlon FX 2,8GHz 125W sprechen ja schon mal Bände.Wer interessiert sich schon dafür sein Geld für FX/XE zu verschwenden...

Das der Conroe XE mit 3,33 GHz rauskommt ist sowieso nichts weiter als ein Gerücht, und dazu ein absolut unglaubwürdiges.
Der E6700 ist der höchstegetaktete Conroe mit gerade einmal 2,67 GHz.
25% Taktpotential werden niemals ausschließlich nur für überteuerte Extremausführungen verschwendet, die nur im geringsten Unfang verkauft werden!

turboschlumpf
2006-02-19, 03:29:43
Mal Vorweg: Laut der Aussage Mooly Edens erreiche Intel ab Erscheinen des Conroe einen Performancevorsprung von 20 % auf AMD. Also nichts von wegen das gleicht AMD mit den bis dahin erschienenen CPUs wieder aus. Die sind in der Aussage schon berücksichtigt. Inwiefern die 20 % Performancevorsprung zutreffen, wir werden es sehen. Ich persönlich halte sie aber für durchaus nicht unrealistisch.

[...] Und wenn AMD meint sie müssten 2006 nichts mehr verändern, dann hat das schon seinen Grund [...]

By the way: Hier glaubt doch nicht ernsthaft einer, dass AMD keine neue Architektur auf Lager hat ? Die haben schon die 2008er Generation in ihrer Schublade, die nur noch auf die kleinere Fertigungstechnik wartet.
AMD hat momentan einfach keinen Grund alle Ideen zu verpulvern, deshalb kein Wechsel 2006. Die jetzige Architektur ist derart gut, dass man sich gemütlich zurücklehnen kann.Bei einer halbwegs differenzierten Betrachtungsweise sieht AMDs aktuelle Lage in etwa so aus: Der 90-nm-Fertigungsprozess ist praktisch ausgereizt. Nennenswerte Taktsteigerungen sind erst wieder mit der 65-nm-Fertigung zu erwarten, welche sich allerdings auf frühestens Anfang 2007 verschoben hat. Die Prozessoren für den Sockel AM2 stellen praktisch nur einen Aufguss der schon seit Monaten erhältlichen Prozessoren dar, einzige wirkliche Neuerung ist die Unterstützung von bis zu DDR2-800-Speicher. Wie viel Performance dieser wirklich bringt muss sich zeigen. Von Zurücklehnen kann also in Anbetracht der neuen CPU-Architektur von Intel keine Rede sein, zumal eine neue Architektur seitens AMD erstmal nicht in Sicht ist.

Das kann man auch anders sehen. Was macht Intel, wenn AMD auch 65nm hat? Offensichtlich hat man ja schon Probleme, trotz 65nm mitzuhalten.Sieh es mal so: Aufgrund der besseren Fertigungstechnologie hat Intel selbst das NetBurst-Desaster halbwegs unbeschadet überstanden. AMD darf sich so etwas schlichtweg nicht erlauben, sonst kommen sie in arge Schwierigkeiten. Und mit Intels neuer Prozessorarchitektur - aus ihren Fehlern haben sie sicherlich sehr viel gelernt - bekommt AMD den eigenen Rückstand bei der Fertigungstechnologie sicher wieder deutlich zu spüren.

Jetzt fragt man sich: was wird AMD machen? genau das was sie vor dem K8 getan haben.
Sie müssen ihre Preise wieder derart senken, dass sie deutlich unter Intel sind. [...]Schlecht für AMD, denn wir wissen ja wie leicht AMD in die roten Zahlen abrutscht.

Gast
2006-02-19, 03:37:50
Mal Vorweg: Laut der Aussage Mooly Edens erreiche Intel ab Erscheinen des Conroe einen Performancevorsprung von 20 % auf AMD.Jo! Und ich bin besser als du es bist. Und du glaubst es mir, richtig?

turboschlumpf
2006-02-19, 04:06:33
Typisches Gast-Posting. :rolleyes:

Hast du den entsprechenden Absatz meines obigen Postings nicht richtig gelesen, nicht verstanden, oder absichtlich mit dem illegitim aus dem Zusammenhang gerissenen Zitat dessen Aussage verfälscht?

Es geht schlichtweg nur darum, dass wenn über die Aussage von Mooly Eden diskutiert wird, auch über dessen eigentliche Aussage diskutiert wird. Er behauptet, dass Intel bei erscheinen des Conroe 20 % schneller ist als AMD, und nicht 20 % schneller als AMD es jetzt ist.

Und dass diese Aussage selbstverständlich mit Vorsicht zu genießen ist habe ich auch schon oben erwähnt.

Denniss
2006-02-19, 04:54:21
Ist ja schon interessant wieviele Leute mithilfe Ihrer Kristallkugel einen noch nicht existierenden Conroe mit 3.33GHz mit einem existierenden 2.8GHz FX vergleichen ......
Erstmal abwarten ob es den überhaupt gibt und wenn es ihn gibt was AMD dann dagegensetzt.
Und so ein paar Inteljünger haben immer noch nicht begriffen was die TDP bei AMD bedeutet.

Undertaker
2006-02-19, 10:08:36
Naja, mal abwarten wie die sich Latenzen auswirken...

Mit DDR500+ hat man jetzt schon recht viel Bandbreite und das bei recht moderaten Timings von 3-3-3-8.

In diesem Test (http://www.xbitlabs.com/articles/memory/display/patriot-ddr700_9.html) gehts hoch bis DDR700, wobei DDR466 (2-2-2-10-1T) teilweise sogar mehr Leistung liefert, als DDR622 (3-4-4-10-1T).

DDR2-667 Module stehen im moment bei bezahlbaren 3-3-3-10, DDR2-800 bei 4-4-4-12.

So viel scheint das mehr an Bandbreite gar nicht zu bringen, wenn man es sich mit deutlich schlechteren Timings erkauft.

Der Normaluser kann DDR2 locker überspringen, denn DDR500+ samt OCed DualCore @ 2,8-3 GHz sollte bis 2007+ locker reichen.


jetzt aber erstmal halt ;)

wir reden hier von der default-performance, und da heißt es schnellster offiziell erhältlicher ddr400 (afaik 1,5-2-2-5) gegen schnellsten ddr2-800 (4-3-3-8)

bis auf die relativ unwichtige cl hat der ddr2 durchgängig bessere timings (absolut gesehen) und dazu noch die doppelte bandbreite...

-> hier sollten min. 10% vorsprung möglich sein (eher 20%)

auch mit oc schaut es nicht viel anders aus... 275mhz bei 2-2-2-5 ist wohl das schnellste was man aktuell erreichen kann - bei ddr2 liegt man bei gut 500mhz 4-4-4-8 (evntl auch noch mehr, allerdings kann man auf den aktuellen intel platformen ddr2 kaum ausreizen) hier sind die timings von ddr1 wohl minimal besser, aber man wieder nur gut die halbe bandbreite

spätestens aber bei den 1gb modulen fällt ddr1 zurück - hier kann man weder sehr gute timings (max. 2-3-2-5)) noch sehr hohe taktraten (mit uccc ~270mhz, die nicht mehr käuflichen crucial max 300mhz) erreichen

das man mit einem guten dc und 2gb-ddr1 ram 2006 noch gut spielen kann, ist ein anderes thema, da gebe ich dir sehr wohl recht

reunion
2006-02-19, 10:42:42
Probleme hat Intel garantiert nicht. 3,33GHz Conroe XE 95W gegen Athlon FX 2,8GHz 125W sprechen ja schon mal Bände.


Das hat man bei Prescott auch geglaubt. Und die TDP zu vergleichen, ist mehr als unpassend.


Mann kann es drehen wie man will, aber AMD ist mit seinen 90nm und dem 125W FX62 so ziemlich am Ende dieser Fertigungsera angelangt.
Taktsteigerungen wird es erst wieder Q1 2007 mit 65nm geben.


Richtig. Allerdings wird dieser FX62 einen deutlichen Performanceschub bringen. Neben kleineren Verbesserungen im Kern, und einem DDR2-Interfance, wird der Chip vermutlich auch 4MB L3-Chache aufwarten können.


Intel hingegen wird den Takt deutlich schneller steigern können. Bspw: Q4 2006 mit nen 2,93GHz Conroe der dann gegen einen 2,6GHz Windsor antreten wird.


Das nennst du Takt steigern?
Ich dachte, ein 3.33Ghz-Modell soll schon von Anfang an verfügbar sein?


Im März 2007 launcht dann auch schon die 4. Centrino Generation mit einer 45nm CPU. In diesem Zeitrum wird man schon auch die anderen CPUs umgestellt haben.


Ich würde jetzt schon jede Wette eingehen, dass man März 2007 noch keine 45nm Prozessoren kaufen wird können.


Jetzt fragt man sich: was wird AMD machen? genau das was sie vor dem K8 getan haben.
Sie müssen ihre Preise wieder derart senken, dass sie deutlich unter Intel sind.
AMD ist ja gerade in letzter zeit mit seiner Preisgestaltung ziemlich frech gewurden. (nicht böse nehmen, AMD hat ja zur Zeit auch das bessere Produkt)


Natürlich wird AMD im Falle einer Niederlage die Preise deutlich senke müssen. Das ist eben der Nachteil der Underdogs, man muss aus P/L-Sicht immer konkurrenzfähig bleiben. Intel kann selbst unterlegene CPUs für überhöhte Preise an den Mann bringen.


Ab Juli gehört 2006 Intel die Performancekrone wieder. Da sind sich fast alle Insider einig.

Diese sog. Insider wissen höchstwahrscheinlich kein Stück mehr, als wir alle hier.

Gast
2006-02-19, 10:58:51
wir reden hier von der default-performance, und da heißt es schnellster offiziell erhältlicher ddr400 (afaik 1,5-2-2-5) gegen schnellsten ddr2-800 (4-3-3-8)

Nur ist die Default-Performance, für Leute in diesem Forum größtenteils uninteressant. Ich halte mich nie an Standards. ;)
Außerdem wird sicher der ein oder andere Homeuser in seinem Rechner statt DDR400 einen DDR500 oder gar DDR600 Riegel werkeln haben - denn schließlich ist das kein Aufwand -> Modul rein, BIOS-Einstellungen anpassen (wenn überhaupt), fertig. Wieso an Standards halten (die ein Homeuser sowieso nicht kennt), wenn es schneller geht?

auch mit oc schaut es nicht viel anders aus... 275mhz bei 2-2-2-5 ist wohl das schnellste was man aktuell erreichen kann - bei ddr2 liegt man bei gut 500mhz 4-4-4-8 (evntl auch noch mehr, allerdings kann man auf den aktuellen intel platformen ddr2 kaum ausreizen) hier sind die timings von ddr1 wohl minimal besser, aber man wieder nur gut die halbe bandbreite

500 MHz bei 4-4-4-8 sind unrealistisch, vorallem bei den "großen" Modulen mit 1 GB.
Die brauchen schon 5-5-5-15 um auf DDR2-1000 laufen zu können.

Hier (http://www.xbitlabs.com/articles/memory/display/kingston-hyperx_6.html) im Artikel schaffen es selbst zwei 512 MB Module gerade mal auf DDR2-964 bei 4-4-4-12, das ist bereits die absolute Grenze. Bei 3-3-3-10 sind maximal DDR2-733 drin - und das alles mit teuren Overclocking-Modulen.

spätestens aber bei den 1gb modulen fällt ddr1 zurück - hier kann man weder sehr gute timings (max. 2-3-2-5)) noch sehr hohe taktraten (mit uccc ~270mhz, die nicht mehr käuflichen crucial max 300mhz) erreichen

Selbst das reicht aus. Zwei 1 Gigabyte große Module von OCZ/Crucial sollten die 270-280 MHz bei 3-3-3-8 schaffen und das ist gegenüber DDR400 schon eine gewaltige Steigerung.
DDR400 -> max. 6,4 GB/s (1,5-2-2-5)
DDR550 -> max. 8,6 GB/s (3-3-3-8)
DDR2-800 -> max. 12,8 GB/s (4-4-4-10)

Das Bandbreite nicht alles ist, zeigt in den Tests beispielweise WinRAR.

http://www.xbitlabs.com/images/memory/patriot-ddr700/winrar.png

Ich gehe, wenn überhaupt, von einer maximalen Leistungssteigerung von 10% aus. Einzig und allein die gesenkte Betriebsspannung ist interessant (obwohl die OC-Module bei 2-2,3V liegen), aber wenn es nur darauf ankommt, dann kann man auch gleich auf DDR3 mit 1,5V und Taktraten jenseites von 500 MHz warten. :)

Undertaker
2006-02-19, 12:44:03
Nur ist die Default-Performance, für Leute in diesem Forum größtenteils uninteressant. Ich halte mich nie an Standards. ;)

bitte nocheinmal über threadtitel und inhalt informieren, danke

ich glaube kaum das sich intel auf oc-werte bezieht...


Außerdem wird sicher der ein oder andere Homeuser in seinem Rechner statt DDR400 einen DDR500 oder gar DDR600 Riegel werkeln haben - denn schließlich ist das kein Aufwand -> Modul rein, BIOS-Einstellungen anpassen (wenn überhaupt), fertig. Wieso an Standards halten (die ein Homeuser sowieso nicht kennt), wenn es schneller geht?

siehe oben... außerdem müsstest du dann auch mit oc-ddr2 vergleichen



500 MHz bei 4-4-4-8 sind unrealistisch, vorallem bei den "großen" Modulen mit 1 GB.
Die brauchen schon 5-5-5-15 um auf DDR2-1000 laufen zu können.

ähm du weist, dass es bei ddr1 nicht einmal bei 200mhz 1gb module mit 2-2-2-5 gibt?


Hier (http://www.xbitlabs.com/articles/memory/display/kingston-hyperx_6.html) im Artikel schaffen es selbst zwei 512 MB Module gerade mal auf DDR2-964 bei 4-4-4-12, das ist bereits die absolute Grenze. Bei 3-3-3-10 sind maximal DDR2-733 drin - und das alles mit teuren Overclocking-Modulen.

nur weil die kingston nicht mehr schaffen, soll dies das maximum sein?

http://www.geizhals.at/deutschland/a157827.html ddr2-1066 @ 5-4-4-9, und das @ default - wer weis, was hier noch mit oc geht?

Selbst das reicht aus. Zwei 1 Gigabyte große Module von OCZ/Crucial sollten die 270-280 MHz bei 3-3-3-8 schaffen und das ist gegenüber DDR400 schon eine gewaltige Steigerung.
DDR400 -> max. 6,4 GB/s (1,5-2-2-5)
DDR550 -> max. 8,6 GB/s (3-3-3-8)
DDR2-800 -> max. 12,8 GB/s (4-4-4-10)

die crucial gibt es nicht mehr zu kaufen, und ocz werden nie 270-280 mhz 3-3-3-8 schaffen, eher 270mhz 3-4-4-8, da es zur zeit nix besseres als uccc gibt, und die schaffen nunmal nicht mehr

außerdem: wenn du bei ddr1-400 schon von 1,5-2-2-5 schreibst, dann bei ddr2-800 bitte auch von 4-3-3-8 ;)


Das Bandbreite nicht alles ist, zeigt in den Tests beispielweise WinRAR.


mich interessieren spiele mehr (bei winrar kann ich auch 2-3min länger warten), und da sieht es ganz anders aus:

http://www.3dcenter.org/artikel/2005/10-20_a.php


Ich gehe, wenn überhaupt, von einer maximalen Leistungssteigerung von 10% aus. Einzig und allein die gesenkte Betriebsspannung ist interessant (obwohl die OC-Module bei 2-2,3V liegen), aber wenn es nur darauf ankommt, dann kann man auch gleich auf DDR3 mit 1,5V und Taktraten jenseites von 500 MHz warten. :)

warum nicht gleich auf ddr6 mit 3ghz warten? ;)

mal im ernst, es interessiert nur, was es hier und jetzt gibt, und da ist ddr2 nuneinmal haushoch überlegen, was preis und leistung angeht. und um nun wieder den bogen zum eigentlichen thema des threads zu bekommen: zusammen mit den interen verbesserungen der neuen a64 für m2 sollten 10-20%+ (je nahc anwendung) in der pro/mhz leistung zu den aktuellen a64 s939 durchaus möglich sein, damit wäre der conroe für amd erreichbar (selbst wenn dieser die wohl sehr optimistischen leistungsvorstellungen der intel-funktionäre erreicht)

Gast
2006-02-19, 13:16:34
ich glaube kaum das sich intel auf oc-werte bezieht...

Ich rede nicht von Intel, sondern von AMD. Der Umstieg auf DDR2 wird zwar immer so angepriesen, aber für Leute, die jetzt DDR500+ im Rechner haben, bringt er nicht allzu viel zusätzliche Performance.

siehe oben... außerdem müsstest du dann auch mit oc-ddr2 vergleichen

Ich habe mit OC-DDR2-Modulen verglichen... ~DDR2-1050 stellt moment das höchste der Gefühle dar und diese Module kosten bei miesen Timings (CL5) 460-700 € im 2 GB-Pack.

ähm du weist, dass es bei ddr1 nicht einmal bei 200mhz 1gb module mit 2-2-2-5 gibt?

Crucial Ballistix DDR500 schaffen das (laut einem Hardware-Review).
Nur macht das Betreiben bei diesen Timings keinen Sinn, wenn man einen höheren Takt haben kann, der mehr bringt...

nur weil die kingston nicht mehr schaffen, soll dies das maximum sein?

Wer redet von Kingston? Schau mal genauer in die maximale OC-Tabelle!
Weder Corsair, Kingston, Crucial, Patriot noch Mushkin schaffen das.
Wird außerdem vom letzten THG-Test nochmal bestätigt.

Im übrigen arbeiten die 2 DDR2-1000 Module von GEIL mit 2,3V Betriebsspannung bei dieser Taktrate. Das sind 0,5V über Standard!

http://www.geizhals.at/deutschland/a157827.html ddr2-1066 @ 5-4-4-9, und das @ default - wer weis, was hier noch mit oc geht?

Schau mal auf den Preis.
289 € für 2x512 MB. Daher ziemlich uninteressant, denn 2GB DDR2-800 mit CL4 gibts schon für 300 €.
Außerdem verlieren 512 MB Module immer mehr an Bedeutung, da hierfür 4 Module nötig wären, um auf 2 GB zu kommen.

die crucial gibt es nicht mehr zu kaufen, und ocz werden nie 270-280 mhz 3-3-3-8 schaffen, eher 270mhz 3-4-4-8, da es zur zeit nix besseres als uccc gibt, und die schaffen nunmal nicht mehr.

Die Crucial gibt es noch zu kaufen. (http://www.overclockers.co.uk/acatalog/Ballistix_Kits.html)
Die OCZ schaffen durchaus 270-280 MHz, da sie für DDR500 spezifiziert sind (3-3-2-8/DDR500 bei der teuren bzw. 3-4-3-8/DDR500 bei der billigeren Version)

außerdem: wenn du bei ddr1-400 schon von 1,5-2-2-5 schreibst, dann bei ddr2-800 bitte auch von 4-3-3-8 ;)

Gibts nicht. Ich rede von _2x1GB_ Modulen. Zeig mir mal welche mit diesen Timings!
Ansonsten könnte ich ja auch DDR600 mit CL2,5 als Vergleich anführen, aber diese Module gibts eben auch nur in 512 MB-Packs.

mich interessieren spiele mehr (bei winrar kann ich auch 2-3min länger warten), und da sieht es ganz anders aus:

Falsch. Bei Spielen bringt die Bandbreite noch weniger.

Hier (http://www.xbitlabs.com/articles/memory/display/patriot-ddr700_9.html) wurde mit einem Athlon FX-57 getestet. Da sind Module mit höherer Taktrate und schlechteren Timings sogar langsamer.

Gast
2006-02-19, 13:21:02
Laut diesem Test (http://www.insanetek.com/review.php?id=19&page=3) läuft das 2 GB-Kit auf 2-2-2-5.

Coda
2006-02-19, 13:37:05
Und so ein paar Inteljünger haben immer noch nicht begriffen was die TDP bei AMD bedeutet.Sie wollen es gar nicht begreifen.

Undertaker
2006-02-19, 13:54:37
Ich rede nicht von Intel, sondern von AMD. Der Umstieg auf DDR2 wird zwar immer so angepriesen, aber für Leute, die jetzt DDR500+ im Rechner haben, bringt er nicht allzu viel zusätzliche Performance.



Ich habe mit OC-DDR2-Modulen verglichen... ~DDR2-1050 stellt moment das höchste der Gefühle dar und diese Module kosten bei miesen Timings (CL5) 460-700 € im 2 GB-Pack.



Crucial Ballistix DDR500 schaffen das (laut einem Hardware-Review).
Nur macht das Betreiben bei diesen Timings keinen Sinn, wenn man einen höheren Takt haben kann, der mehr bringt...



Wer redet von Kingston? Schau mal genauer in die maximale OC-Tabelle!
Weder Corsair, Kingston, Crucial, Patriot noch Mushkin schaffen das.
Wird außerdem vom letzten THG-Test nochmal bestätigt.

Im übrigen arbeiten die 2 DDR2-1000 Module von GEIL mit 2,3V Betriebsspannung bei dieser Taktrate. Das sind 0,5V über Standard!



Schau mal auf den Preis.
289 € für 2x512 MB. Daher ziemlich uninteressant, denn 2GB DDR2-800 mit CL4 gibts schon für 300 €.
Außerdem verlieren 512 MB Module immer mehr an Bedeutung, da hierfür 4 Module nötig wären, um auf 2 GB zu kommen.



Die Crucial gibt es noch zu kaufen. (http://www.overclockers.co.uk/acatalog/Ballistix_Kits.html)
Die OCZ schaffen durchaus 270-280 MHz, da sie für DDR500 spezifiziert sind (3-3-2-8/DDR500 bei der teuren bzw. 3-4-3-8/DDR500 bei der billigeren Version)



Gibts nicht. Ich rede von _2x1GB_ Modulen. Zeig mir mal welche mit diesen Timings!
Ansonsten könnte ich ja auch DDR600 mit CL2,5 als Vergleich anführen, aber diese Module gibts eben auch nur in 512 MB-Packs.



Falsch. Bei Spielen bringt die Bandbreite noch weniger.

Hier (http://www.xbitlabs.com/articles/memory/display/patriot-ddr700_9.html) wurde mit einem Athlon FX-57 getestet. Da sind Module mit höherer Taktrate und schlechteren Timings sogar langsamer.



ohne jetzt nocheinmal auf alles eingehen zu müssen:

1. die crucial gibt es nicht mehr - alle ergebnisse mit diesen kannst du aus deiner begründung streichen

2. ddr2 667 zb von mdt läuft knapp 400mhz 4-4-4-8 und ist billiger und schneller als jeder ddr1-ram

3. du kritisierst 2,3v beim geil, während jeder ddr1 mit >2,6v läuft? ist doch egal, geil gibt garantie!

ich will dir noch mal eine kleine übersicht ddr1 vs. ddr2 zusammenstellen:

512mb-module:

sehr günstig (dennoch marke):

ddr1
http://www.geizhals.at/deutschland/a143668.html

ddr2
http://www.geizhals.at/deutschland/a143691.html

-> ddr2 günstiger, @default gleichschnell, aber deutlich mehr oc-potenzial

bis 100€/stk:

ddr1
http://www.geizhals.at/deutschland/a125677.html

ddr2
http://www.geizhals.at/deutschland/a159463.html

-> ddr2 deutlich günstiger, @default schneller, ähnliches oc-potenzial (~300mhz 2,5-4-3-7 vs. ~400mhz 4-4-4-8)

no limit:

ddr1
http://www.geizhals.at/deutschland/a171941.html

ddr2
http://www.geizhals.at/deutschland/a148643.html

-> gleicher preis, ddr2 @default deutlich schneller, mehr oc-potenzial (~300mhz 2,5-3-3-7 vs ~350mhz 4-2-2-8 oder ~400mhz 4-3-3-8)

1024mb-module:

sehr günstig (aber dennoch marke):

ddr1
http://www.geizhals.at/deutschland/a143684.html

ddr2
http://www.geizhals.at/deutschland/a143690.html

-> ddr2 günstiger, @default schneller, mehr oc-potenzial

bis 150€/stk

ddr1
http://www.geizhals.at/deutschland/a172236.html

ddr2
http://www.geizhals.at/deutschland/a147260.html

-> ddr2 günstiger, @default shcneller, mehr oc-potenzial

no limit:

ddr1
http://www.geizhals.at/deutschland/a173198.html

ddr2
http://www.geizhals.at/deutschland/a166577.html

-> ähnlicher preis, ddr2 @default schneller, mehr oc-potenzial

du siehst, in keinem marktbereich ist ddr1 ddr2 überlegen, außerdem verbraucht er mehr strom und es gibt keine bezahlbaren module >1gb

die bandbreite von ddr2 nahezu immer größer als von ddr1, die timings meist gleichwertig, manchmal sogar besser:

512mb:

ddr1-400 1,5-2-2-5 ~=~ ddr2-800 4-4-4-8
ddr1-550 2-2-2-5 < ddr2-667 4-2-2-8

1024mb:

ddr1-400 2-3-2-5 ~=~ ddr2-667 4-4-4-8
ddr1-550 3-3-3-8 ~=~ ddr2-733 4-4-4-12

Gast
2006-02-19, 14:35:12
die crucial gibt es nicht mehr - alle ergebnisse mit diesen kannst du aus deiner begründung streichen

Ich habe extra einen Link gepostet, wo sie _sofort Lieferbar_ sind.
Willst du Fakten wegdiskutieren?

ddr2 667 zb von mdt läuft knapp 400mhz 4-4-4-8 und ist billiger und schneller als jeder ddr1-ram

Wobei ich bezweifel, das jeder dieser RAMs die 400 MHz bei diesen Timings mitmacht...
Verfügbare Bandbreite und dadurch gewonnene Leistung sind zwei paar Schuhe, wie DDR500/550/600 gezeigt haben.

du kritisierst 2,3v beim geil, während jeder ddr1 mit >2,6v läuft? ist doch egal, geil gibt garantie!

Ich kritisiere gar nichts, du hast dir das aus den Fingern gesaugt, denn nirgendwo steht geschrieben, das ich etwas dagegen habe.

Außerdem ist es immer noch ein Unterschied ob 2,5V -> 2,8V oder 1,8V und 2,3V.
Viel mehr Spielraum gibts bei DDR2 nicht mehr, da man jetzt schon 0,5V über dem Standard liegt, nur das wollte ich damit sagen.

ddr1
http://www.geizhals.at/deutschland/a143668.html
ddr2
http://www.geizhals.at/deutschland/a143691.html

-> ddr2 günstiger, @default gleichschnell, aber deutlich mehr oc-potenzia


Du vergleichst da auch Äpfel mit Birnen, DDR2-533 sind absolute Lowcost Module, die ich höchstens mit DDR333 vergleichen würde.
DDR2-667 sollte schon das minimum sein, was du aufführst, zumal auch die Intel Plattformen mit diesen Modulen in der Regel arbeiten.
Die (inoffizielle) Ankündigung auf bis zu DDR2-800 zu setzen, sagt eigentlich schon alles.

Im übrigens gibts nicht wenige DDR400 Module, die sich auf DDR500+ übertakten lassen. (http://www.computerbase.de/artikel/hardware/arbeitsspeicher/2004/test_das_ddr400_round-up/3/#abschnitt_die_probanden)

ddr1
http://www.geizhals.at/deutschland/a171941.html
ddr2
http://www.geizhals.at/deutschland/a148643.html

-> gleicher preis, ddr2 @default deutlich schneller, mehr oc-potenzial (~300mhz 2,5-3-3-7 vs ~350mhz 4-2-2-8 oder ~400mhz 4-3-3-8)

Das ich mal wieder so ein typischer Fake-Vergleich.

CL1,5 bringt so gut wie gar nichts. Du kannst da genauso gut deutlich günstigere DDR1-Module mit 2-3-2-5 nehmen und schon sieht das ganz anders aus. Zumal hohe Taktraten allein nicht für gute Ergebnisse sorgen.

ddr1
http://www.geizhals.at/deutschland/a173198.html
ddr2
http://www.geizhals.at/deutschland/a166577.html

-> ähnlicher preis, ddr2 @default schneller, mehr oc-potenzial

Die DDR2-Module werden sicherlich nicht viel OC-Potential haben, da schon die Standardtimings sehr mies sind für diese Taktrate.
Wenn überhaupt, dann sollten es schon Crucial Ballistix (http://www.cyberport.de/item/4918/1347/0/64466/2048-mb-2x1024-crucial-ballistix-kit-ddr2800-cl4-44412-ram.html) sein!

du siehst, in keinem marktbereich ist ddr1 ddr2 überlegen, außerdem verbraucht er mehr strom und es gibt keine bezahlbaren module >1gb

Wenn ich deine "Vergleiche", mal fair durchführe, dann sehe ich nur, das es zwischen DDR1 und DDR2 kaum Unterschiede gibt.

Außerdem wurde nicht berücksichtigt, das die Speicherpreise einer starken Schwankung unterliegen, und sich die preisliche Situation für DDR2 in naher Zukunft deutlich verschlechtern (http://www.heise.de/newsticker/meldung/69252) könnte.

DDR2 ist keinesfalls ein Produkt, das man umbedingt haben muss, da ein gut ausgestattes System mit DDR1 noch locker bis 2007 durchhalten wird und da steht dann schon der Umstieg auf DDR3 (http://www.xbitlabs.com/news/memory/display/20060127105848.html) an.

Gast
2006-02-19, 17:41:16
Zum Glück bin ich hier nicht registriert.
Wieviel "scheinkluge" und "scheininformierte" laufen denn hier bitte rum ?

turboschlumpf
2006-02-19, 17:59:46
und um nun wieder den bogen zum eigentlichen thema des threads zu bekommen: zusammen mit den interen verbesserungen der neuen a64 für m2 sollten 10-20%+ (je nahc anwendung) in der pro/mhz leistung zu den aktuellen a64 s939 durchaus möglich sein, damit wäre der conroe für amd erreichbar (selbst wenn dieser die wohl sehr optimistischen leistungsvorstellungen der intel-funktionäre erreicht)Mooly Eden behauptet nicht, dass Intel bei Erscheinen des Conroe 20 % schneller ist als AMD jetzt, sondern er behauptet dass Intel bei Erscheinen des Conroe 20 % schneller ist als AMD!

Spasstiger
2006-02-19, 18:25:44
Also ehrlich gesagt finde ich diese Game-Benchmarks ziemlich sinnlos.

Bei heutigen Games zählt in vielen Fällen die Grafikkarte wesentlich mehr, als die eingesetzte CPU. Wenn ich mir die ganzen Benchmarks so angucke, sehe ich größtenteils Werte im 50, 100er Bereich, egal ob Pentium oder Athlon. Der Unterschied von 20-30% CPU-Leistung kommt da überhaupt nicht zum tragen.

Sogesehen ist _mir_ die leistung in allen anderen Anwendungen wesentlich wichtiger...

Gerade bei Spielen merkt man aber die schnellere CPU. Vor allem bei Onlinespielern, die möglichst konstant 60 fps möchten, kann der Wechsel von Intel zu AMD das i-Tüpfelchen bei der Leistung bringen. Bei Videoencoding kann man auch einfach 10 Minuten länger warten.
Ich kann auf jeden Fall sagen, dass mein P4 2,53 GHz für Spiele inzwischen oftmals zu langsam ist. Ich habe teilweise Einbrüche auf unter 20 fps unabhängig von den Grafikeinstellungen. Das ist auf die CPU zurückzuführen, wie ich mir auch selbst schon durch Tests mit einem Athlon 64 bewiesen habe (doppelte fps auf einem 3000+ in diesen kritischen Situationen).

Botcruscher
2006-02-19, 18:34:57
Mooly Eden behauptet nicht, dass Intel bei Erscheinen des Conroe 20 % schneller ist als AMD jetzt, sondern er behauptet dass Intel bei Erscheinen des Conroe 20 % schneller ist als AMD!


Solange wie es keine Zahlen giebt kann der Hoax erzählen wie er will.
Als ob ein Intel wüste wie schnell AMD im Juli ist. :ucrazy:

Ich will Benches sehen und keine heiße Luft.

Spasstiger
2006-02-19, 18:42:26
Als ob ein Intel wüste wie schnell AMD im Juli ist. :ucrazy:


Nicht viel schneller als jetzt jedenfalls. Ich gehe mal davon aus, dass der Athlon 64 X2 5000+ (2,66 GHz) mit DDR2-667-Ram keine 10% schneller sein wird als der Athlon 64 FX-60.

Undertaker
2006-02-19, 19:04:04
Ich habe extra einen Link gepostet, wo sie _sofort Lieferbar_ sind.
Willst du Fakten wegdiskutieren?

also ich lebe in deutschland und nicht in großbritannien...


Wobei ich bezweifel, das jeder dieser RAMs die 400 MHz bei diesen Timings mitmacht...

du darfst gerne zweifeln, ist aber so


Verfügbare Bandbreite und dadurch gewonnene Leistung sind zwei paar Schuhe, wie DDR500/550/600 gezeigt haben.

ach ja? dann lass uns mal ddr500 vs 550 vs. 600 bei identischen absoluten timings testen - klar gewinnt man in entsprechend cpu-limitierenden szenarios leistung, speziell bei games (siehe 3dc-test)


Ich kritisiere gar nichts, du hast dir das aus den Fingern gesaugt, denn nirgendwo steht geschrieben, das ich etwas dagegen habe.

Außerdem ist es immer noch ein Unterschied ob 2,5V -> 2,8V oder 1,8V und 2,3V.
Viel mehr Spielraum gibts bei DDR2 nicht mehr, da man jetzt schon 0,5V über dem Standard liegt, nur das wollte ich damit sagen.

ddr1, mit 2,6v spezifiziert, läuft bei manchen auch auf >3,6v, warum sollte das bei einigen ddr2 chips nicht auch möglich sein?



Du vergleichst da auch Äpfel mit Birnen, DDR2-533 sind absolute Lowcost Module, die ich höchstens mit DDR333 vergleichen würde.
DDR2-667 sollte schon das minimum sein, was du aufführst, zumal auch die Intel Plattformen mit diesen Modulen in der Regel arbeiten.
Die (inoffizielle) Ankündigung auf bis zu DDR2-800 zu setzen, sagt eigentlich schon alles.

ich habe preis und leistungsmäßig ähnliche produkte verglichen, und da ist ddr2-533 nunmal so schnell wie ddr1-400


Im übrigens gibts nicht wenige DDR400 Module, die sich auf DDR500+ übertakten lassen. (http://www.computerbase.de/artikel/hardware/arbeitsspeicher/2004/test_das_ddr400_round-up/3/#abschnitt_die_probanden)

was für ein sinnloser link - das sind keine "normalen" ddr400 module, sondern oc-hardware mit besseren timings und höherem preis - klar lassen die sich besser übertakten, bei günstigen ddr400-modulen wirst du bei weitem nicht so weit kommen


Das ich mal wieder so ein typischer Fake-Vergleich.

CL1,5 bringt so gut wie gar nichts. Du kannst da genauso gut deutlich günstigere DDR1-Module mit 2-3-2-5 nehmen und schon sieht das ganz anders aus. Zumal hohe Taktraten allein nicht für gute Ergebnisse sorgen.

dann kann ich auch günstigeren ddr2-800 mit 5-5-5-10 nehmen, das entspricht immerhin 2,5-2,5-2,5-5 ddr1, was durchaus flott ist, dazu noch doppelte bandbreite


Die DDR2-Module werden sicherlich nicht viel OC-Potential haben, da schon die Standardtimings sehr mies sind für diese Taktrate.
Wenn überhaupt, dann sollten es schon Crucial Ballistix (http://www.cyberport.de/item/4918/1347/0/64466/2048-mb-2x1024-crucial-ballistix-kit-ddr2800-cl4-44412-ram.html) sein!

schön, dass du noch einen besseren ddr2-ram für diesen preis gefunden hast :)

micron wird auf den meisten high-end modulen verbaut, was sehr gute übertaktbarkeit und nochmals einen größeren vorteil für ddr2 bedeutet :)

Wenn ich deine "Vergleiche", mal fair durchführe, dann sehe ich nur, das es zwischen DDR1 und DDR2 kaum Unterschiede gibt.


Außerdem wurde nicht berücksichtigt, das die Speicherpreise einer starken Schwankung unterliegen, und sich die preisliche Situation für DDR2 in naher Zukunft deutlich verschlechtern (http://www.heise.de/newsticker/meldung/69252) könnte.

bitte richtig lesen: in deinem link stehen 2 dinge: einmal das viele hersteller von ddr1 auf ddr2 umsteigen und außerdem, das ram allgemein teurer wird...


DDR2 ist keinesfalls ein Produkt, das man umbedingt haben muss, da ein gut ausgestattes System mit DDR1 noch locker bis 2007 durchhalten wird und da steht dann schon der Umstieg auf DDR3 (http://www.xbitlabs.com/news/memory/display/20060127105848.html) an.

das habe ich oben schoneinmal bestätigt, ddr2 ist kein muss; dass es aber schneller und p/l maäßig besser ist sollte man dennoch zugestehen...

Undertaker
2006-02-19, 19:06:52
Nicht viel schneller als jetzt jedenfalls. Ich gehe mal davon aus, dass der Athlon 64 X2 5000+ (2,66 GHz) mit DDR2-667-Ram keine 10% schneller sein wird als der Athlon 64 FX-60.

woher hast du, das der x2 5000+ 2,66ghz haben soll? wenn der htt bei 200mhz bleibt, ist so eine taktrate doch nicht möglich? außerdem will man doch mit ddr2 800 beginnen?

Gast
2006-02-19, 19:34:28
also ich lebe in deutschland und nicht in großbritannien...

Was ist denn das für eine Aussage? Kaufst du auch keine Hardware, die in den USA hergestellt wird? ;)
Die liefern nach Deutschland...

du darfst gerne zweifeln, ist aber so

Wieso verkauft der Hersteller die Module dann als DDR2-533/667, wenn alle locker DDR2-800 bei CL4 mitmachen würden? Er wäre schließlich dumm, wenn er seine Module unter Wert verkauft...
OC-Garantie gibt es freilich nicht.

ach ja? dann lass uns mal ddr500 vs 550 vs. 600 bei identischen absoluten timings testen - klar gewinnt man in entsprechend cpu-limitierenden szenarios leistung, speziell bei games (siehe 3dc-test)

Ich frag mich, was dieses Argument mit den Games soll. Gerade da wird man die Mehrleistung am wenigsten merken, weil vorher andere Komponenten limitieren.
In den Tests sieht man es schon sehr deutlich: Selbst Quake 3 legt nur geringfügig zu, trotz erheblich höherer Bandbreite, dabei ist dieses Spiel eines von denen, das am meisten von höherer Bandbreite profitiert.
DDR400 (6,4 GB/s) 2-2-2-10 -> 547,6fps
DDR510 (ca. 8 GB/s) 2,5-3-3-10 -> 558,3fps

25% höhere Bandbreite, aber nur ca. 2% mehr Performance.
Was soll DDR2-800 mit seinen 12,6 GB/s nun bringen?
Rechnerisch 100% höhere Bandbreite und 8% mehr Performance gegenüber DDR400. Timings sind dabei noch nicht berücksichtigt, die können durchaus das Mehr an Leistung wieder kaputt machen, wie WinRAR gezeigt hat.

Bei Games wie beispielweise Farcry sieht das wieder anders aus:
DDR400 -> 129,02fps
DDR510 -> 130,29fps

Es braucht keine Glaskugel, um darauf zu kommen, das DDR2 hier nichts bringen wird. Ebenso bei UT, Doom 3, HL2, auch beim MPEG4-Encoding nicht.

ddr1, mit 2,6v spezifiziert, läuft bei manchen auch auf >3,6v, warum sollte das bei einigen ddr2 chips nicht auch möglich sein?

Diese Spannungen sind aber nicht von der Garantie abgedeckt, und man weiß nie, wann das Modul seinen Geist aufgibt.
Zudem steigt der Stromverbrauch ins unermessliche - gut für die, die ihre Rechnungen nicht selbst zahlen müssen...

das sind keine "normalen" ddr400 module, sondern oc-hardware mit besseren timings und höherem preis - klar lassen die sich besser übertakten, bei günstigen ddr400-modulen wirst du bei weitem nicht so weit kommen

Die Module sind deutlich günstiger, als die von dir aufgeführten, liefern aber identische Performance. Nur darauf kommt es an, teuer ist nicht immer gut.

Klar, wenn ich 300 Euro Module gegen DDR2 stelle, dann fällt es mir leicht, dort gute OC-Module zu finden. Jedoch siehts in der der niedrigeren Preisklasse komplett anders aus.

Spasstiger
2006-02-19, 19:46:23
woher hast du, das der x2 5000+ 2,66ghz haben soll? wenn der htt bei 200mhz bleibt, ist so eine taktrate doch nicht möglich? außerdem will man doch mit ddr2 800 beginnen?

Darüber hatten wir hier schon ausführliche Diskussionen. ;)
Fakt ist: Der Speichertakt hängt über einen Teiler direkt mit dem CPU-Takt zusammen und der Speichertakt wird bei AMD in Zukunft 333 MHz betragen und nicht 400 MHz (das ist imo nur eine Option für Overclocker).
Damit kommen also Taktfrequenzen für die CPU von 2,33 oder 2,66 GHz in Frage (oder gibt es auch krumme Speicherteiler?). 2,33 GHz sind für ein 5000+-Rating zu wenig, bleiben also nur die 2,66 GHz.
Als Referenztakt kommen aber auch nur Teiler von 2,66 GHz in Frage, z.B. 333 MHz oder 166 MHz. Dass AMD den Referenztakt senkt, denke ich nicht, also dürfte es auf einen Ref.-Takt von 333 MHz hinauslaufen. Der Hypertransport-Link könnte trotzdem weiterhin mit 1 GHz takten, nämlich 333 MHz * 3.

Undertaker
2006-02-19, 19:55:49
Was ist denn das für eine Aussage? Kaufst du auch keine Hardware, die in den USA hergestellt wird? ;)
Die liefern nach Deutschland...

klasse, dass sind noch die letzten lagerbestände, ich wette in kürzester zeit, spätestens wenn es den m2 gibt und man die wahl zwischen s939 + ddr1 und m2 + ddr2 hat,wird man dort nix mehr bekommen, da der ram schon längere zeit nicht mehr produziert wird


Wieso verkauft der Hersteller die Module dann als DDR2-533/667, wenn alle locker DDR2-800 bei CL4 mitmachen würden? Er wäre schließlich dumm, wenn er seine Module unter Wert verkauft...
OC-Garantie gibt es freilich nicht.

warum gibt es von intel keinen 4ghz p4, obwohl man den ohne probleme anbieten könnte? du stellst fragen... außerdem gilt das gleiche für ddr1...


Ich frag mich, was dieses Argument mit den Games soll. Gerade da wird man die Mehrleistung am wenigsten merken, weil vorher andere Komponenten limitieren.
In den Tests sieht man es schon sehr deutlich: Selbst Quake 3 legt nur geringfügig zu, trotz erheblich höherer Bandbreite, dabei ist dieses Spiel eines von denen, das am meisten von höherer Bandbreite profitiert.
DDR400 (6,4 GB/s) 2-2-2-10 -> 547,6fps
DDR510 (ca. 8 GB/s) 2,5-3-3-10 -> 558,3fps

25% höhere Bandbreite, aber nur ca. 2% mehr Performance.
Was soll DDR2-800 mit seinen 12,6 GB/s nun bringen?
Rechnerisch 100% höhere Bandbreite und 8% mehr Performance gegenüber DDR400. Timings sind dabei noch nicht berücksichtigt, die können durchaus das Mehr an Leistung wieder kaputt machen, wie WinRAR gezeigt hat.

Bei Games wie beispielweise Farcry sieht das wieder anders aus:
DDR400 -> 129,02fps
DDR510 -> 130,29fps

Es braucht keine Glaskugel, um darauf zu kommen, das DDR2 hier nichts bringen wird. Ebenso bei UT, Doom 3, HL2, auch beim MPEG4-Encoding nicht.


wie oft soll ich den link den noch posten???

http://www.3dcenter.org/artikel/2005/10-20_b.php

180->225mhz, 69fps->76fps bei gtr... das sind 10% performance bei 25% mehrtakt

im schnitt:

http://www.3dcenter.org/artikel/2005/10-20_c.php

33% mehrtakt für 10% mehrleistung in games...


Diese Spannungen sind aber nicht von der Garantie abgedeckt, und man weiß nie, wann das Modul seinen Geist aufgibt.
Zudem steigt der Stromverbrauch ins unermessliche - gut für die, die ihre Rechnungen nicht selbst zahlen müssen...

geil gibt aber garantie auf die 2,3v... und der hinweis auf den stromverbrauch ist ein witz, schon ddr1 mit 2,6v braucht mehr als der geil mit 2,3v... außerdem sind diese werte in zeiten einer x1900xtx mit ~125w mehr als unerheblich, und für einen stromsparenden officerechner reicht aud ddr2 mit 1,8v



Die Module sind deutlich günstiger, als die von dir aufgeführten, liefern aber identische Performance. Nur darauf kommt es an, teuer ist nicht immer gut.

Klar, wenn ich 300 Euro Module gegen DDR2 stelle, dann fällt es mir leicht, dort gute OC-Module zu finden. Jedoch siehts in der der niedrigeren Preisklasse komplett anders aus.

ganz wie du willst:

zeig mir einen ddr1 ram, welcher dem

http://www.geizhals.at/deutschland/a159463.html

gleichwertig ist, was preis und leistung angeht... da gibt es keinen...

Gast
2006-02-19, 21:08:03
klasse, dass sind noch die letzten lagerbestände, ich wette in kürzester zeit, spätestens wenn es den m2 gibt und man die wahl zwischen s939 + ddr1 und m2 + ddr2 hat,wird man dort nix mehr bekommen, da der ram schon längere zeit nicht mehr produziert wird

Viele Hardwarekomponenten werden schon lange nicht mehr produziert, sind aber trotzdem noch Jahre später erhältlich. Dem Kunden kann es egal sein, ob die noch produziert werden oder nicht, der Bestand in den Shops zählt.

Im übrigen liegt die schlechte Verfügbarkeit an den Herstellern/Shops, als an der Produktionsmenge. Corsair, Crucial, Mushkin, Patriot sind hier nicht sehr verbreitet.

warum gibt es von intel keinen 4ghz p4, obwohl man den ohne probleme anbieten könnte?

Ganz einfach, weil es nicht möglich ist, alle produzierten CPUs auf 4 GHz zu takten. Du brauchst dich nur mal hier im Forum umschauen, es schafft nicht jede CPU die 4 GHz. Genau das gleiche gilt für diese Speichermodule, sonst hätten sie ein anderes Label.

180->225mhz, 69fps->76fps bei gtr... das sind 10% performance bei 25% mehrtakt

Was im Endeffekt total irrelevant ist, da hier in 1024x768 ohne AA und AF gebencht wurde. Stell mal 4xAA und 16AF ein und schon bleibt von den 10% mehr Performance, im besten Fall 2% übrig...
Bei Benchmarks die mit Settings gefahren werden, die hauptsächlich die CPU belasten, sieht man natürlich einen Unterschied zwischen den Speichertakten, nur wer spielt in solchen Auflösungen??? Fast keiner, daher vollkommen uninteressant.
Wenn es danach ginge: Zwischen DDR400 und DDR500 können gut und gerne mal 50fps liegen (in 640x480), bei 1280x1024 4xAA/16xAF bleiben davon aber vielleicht 2fps übrig. Wo ist nun die Mehrleistung!?
Denkt doch mal >>> Praxisbezogen <<<<!

außerdem sind diese werte in zeiten einer x1900xtx mit ~125w mehr als unerheblich, und für einen stromsparenden officerechner reicht aud ddr2 mit 1,8v

Nur weil eine Komponente viel Strom braucht, müssen es die anderen nicht auch noch tun. Wenn das Argument sich durchsetzen würde, hätte bald jeder eine 200W CPU, einen 150W Bildschirm, eine 500W Grafikkarte und ein Kernkraftwerk im Rechner.
So läuft das nunmal nicht, da DDR2 für höhere Taktraten bei niedriger Spannung konzipiert wurde.

turboschlumpf
2006-02-19, 21:22:59
Mooly Eden behauptet nicht, dass Intel bei Erscheinen des Conroe 20 % schneller ist als AMD jetzt, sondern er behauptet dass Intel bei Erscheinen des Conroe 20 % schneller ist als AMD!Solange wie es keine Zahlen giebt kann der Hoax erzählen wie er will.
Als ob ein Intel wüste wie schnell AMD im Juli ist. :ucrazy:Hättest du meine Postings aufmerksam gelesen wäre dir aufgefallen, dass es mir um etwas ganz anderes geht: Wenn über die Aussage von Mooly Eden diskutiert wird, dann sollte auch über die eigentliche Aussage von Mooly Eden diskutiert werden. Aber anscheinend hapert es hier im Forum inzwischen schon am Verständnis einfachster Aussagen (von Rechtschreibung, Satzbau, Grammatik und Zeichensetzung ganz zu schweigen).

Undertaker
2006-02-19, 21:26:53
Viele Hardwarekomponenten werden schon lange nicht mehr produziert, sind aber trotzdem noch Jahre später erhältlich. Dem Kunden kann es egal sein, ob die noch produziert werden oder nicht, der Bestand in den Shops zählt.

Im übrigen liegt die schlechte Verfügbarkeit an den Herstellern/Shops, als an der Produktionsmenge. Corsair, Crucial, Mushkin, Patriot sind hier nicht sehr verbreitet.

der crucial war bis vor kurzem noch überall in D erhältlich... jetzt nicht mehr, und zwar weil die lagerbestände zu ende sind; der händler in gb mag noch ein paar sets haben, aber die wird es nicht mehr lange dort geben


Ganz einfach, weil es nicht möglich ist, alle produzierten CPUs auf 4 GHz zu takten. Du brauchst dich nur mal hier im Forum umschauen, es schafft nicht jede CPU die 4 GHz. Genau das gleiche gilt für diese Speichermodule, sonst hätten sie ein anderes Label.

lol... es schafft auch nicht jeder p4 3,6ghz - mit selektion könnte man aber auch ein 4,4ghz modell bringen...


Was im Endeffekt total irrelevant ist, da hier in 1024x768 ohne AA und AF gebencht wurde. Stell mal 4xAA und 16AF ein und schon bleibt von den 10% mehr Performance, im besten Fall 2% übrig...
Bei Benchmarks die mit Settings gefahren werden, die hauptsächlich die CPU belasten, sieht man natürlich einen Unterschied zwischen den Speichertakten, nur wer spielt in solchen Auflösungen??? Fast keiner, daher vollkommen uninteressant.
Wenn es danach ginge: Zwischen DDR400 und DDR500 können gut und gerne mal 50fps liegen (in 640x480), bei 1280x1024 4xAA/16xAF bleiben davon aber vielleicht 2fps übrig. Wo ist nun die Mehrleistung!?
Denkt doch mal >>> Praxisbezogen <<<<!

FALSCH

die wichtigen min-fps können in einer situation mit zb. viel physik-berechnungen sehr tief fallen, und schon haben auch in 1600x1200 4aa 16af KEINE gpu-limitierung mehr - hier kann man jedes mhz cpu-power/ram-leistung nutzen

benchen lässt sich soetwas am besten, in dem man gleich ein nicht-gpu limitierendes szenario wählt, was aber nicht heißt, dass mit höheren auflösungen/mehr aa keine fps-steigerung mehr hat

langsam nerft es, dass man das jedes mal gebetsmühlenartig wiederholen muss...


Nur weil eine Komponente viel Strom braucht, müssen es die anderen nicht auch noch tun. Wenn das Argument sich durchsetzen würde, hätte bald jeder eine 200W CPU, einen 150W Bildschirm, eine 500W Grafikkarte und ein Kernkraftwerk im Rechner.
So läuft das nunmal nicht, da DDR2 für höhere Taktraten bei niedriger Spannung konzipiert wurde.

wenn du es so genau siehst, müsstest du doch sofort auf ddr2 umsteigen, oder? ddr1 ist mit vielleicht 10w/modul ja so ein gigantischer stromfresser...

Gast
2006-02-19, 21:51:35
benchen lässt sich soetwas am besten, in dem man gleich ein nicht-gpu limitierendes szenario wählt, was aber nicht heißt, dass mit höheren auflösungen/mehr aa keine fps-steigerung mehr hat

Ich halte von solchen Benchmarks überhaupt nichts. Man sollte bedenken, das die meisten Benchmarks einen Durchschnittswert über die gesamte Benchdauer liefern. In den Endwerten werden dauerhaft starke Abweichungen (fps-drop) stark auffallen, weil sie den Durchschnitt nach unten ziehen.

Nur sehe ich bei den ganzen hier geposteten Links keine solchen Fälle, sondern immer nur Werte im weit spielbaren Bereich (wem reichen 60 oder 500fps nicht aus?)

Übrigens, hier (http://www.3dcenter.org/artikel/2005/10-20_c.php) wird behauptet, das zwischen 200 MHz und 267 MHz Speichertakt 9,5% Performanceunterschied liegen.
In sinnlosen Benchmarkszenarios wie Hier (http://www.computerbase.de/artikel/hardware/arbeitsspeicher/2004/test_ddr500_round-up/7/#abschnitt_quake_3_arena) mag das noch zutreffen (50fps zwischen DDR400 und DDR550), aber in den Praxisrelevanten Tests sehe ich plötzlich überhaupt keinen Unterschied mehr... wo ist nun die versprochene Mehrleistung? ...

http://www.xbitlabs.com/images/memory/patriot-ddr700/q3.png

(del)
2006-02-19, 23:05:35
AMD wird nicht langsamer oder "20%" hinter Intel liegen und die Firma ist weg vom HomePC. So einfach ist das. Das weiß AMD sehr gut und da wird sich auch nichts ändern. Macht euch keine Gedanken.

BlackBirdSR
2006-02-19, 23:20:07
aber in den Praxisrelevanten Tests sehe ich plötzlich überhaupt keinen Unterschied mehr... wo ist nun die versprochene Mehrleistung? ...

http://www.xbitlabs.com/images/memory/patriot-ddr700/q3.png

Vielleicht wäre es hier besser, die min fps zu vergleichen.
Und dann auch keinefalls ein Timedemo zu nutzen.

Tybalt
2006-02-19, 23:50:47
Wie stellst du dir das ohne Timedemo vor? Es ist schwer vor allem in dynamischen Spielen ähnliche Situationen herbeizuführen. Am besten eignet sie da wohl noch ein Rennspiel, da beim Start wohl die "höchsten" min fps vorkommen sollten und da jedesmal einliche Situationen entstehen.

Palpatin
2006-02-20, 01:38:00
Die neuen AMD CPUs werden gut rocken das Launch Datum 6.6.6 wurd sicher net nur zum spass gewählt da wird die Hölle auf Intel herreinbrechen.
*gg* bitte nicht zu ernst nehmen den post.

MarcWessels
2006-02-20, 04:04:20
Also Bei heutigen Games zählt in vielen Fällen die Grafikkarte wesentlich mehr, als die eingesetzte CPU. Wenn ich mir die ganzen Benchmarks so angucke, sehe ich größtenteils Werte im 50, 100er Bereich, egal ob Pentium oder Athlon. Der Unterschied von 20-30% CPU-Leistung kommt da überhaupt nicht zum tragen.Schon mal was von CPU-lastigen Szenen oder gar ganzen Spielen gehört?

Außerdem ist eine durchschnittliche Framerate von 50fps nun wirklich alles andere als flüssig. Hinzu kommt noch, dass, bedingt durch DoubleBuffer, ein Spiel, dass theoretisch bis auf 50fps min auf einem AMD-Prozessor abfiele, mit 30fps laufen würde, während ein 20% schnellerer Prozessor dort hübsch seine 60fps hätte, so dass er in einem solchen Szenario in der Praxis doppelt so schnell wäre.

Sehe ich mir die Performance meines Dothans auf einem stinknormalen SingleChannel-Board an, so muss ich sagen, dass ich einen Performancevorsprung von 20% auf Seiten von Intel (selbst und besonders in Spielen) durchaus als glaubwürdig erachte.

Coda
2006-02-20, 07:07:34
Wie stellst du dir das ohne Timedemo vor?Ein Netdemo. Ein Doom 3 timedemo ist für Benchmarks ungeeignet weil keine Gamelogik sondern nur Renderaufrufe aufgenommen werden.

Kosh
2006-02-20, 07:34:34
Bin wohl im falschen Thread gelandet.Dachte das wäre der 20% Performancethread und nicht ein Speichervergleichsthread.

Naja, zum Thema, auf was beziehen sich die 20%?

Bei einem Intelfreundlichen Benchmark??
Bei Spielen wie FEAR??
Oder bei AMD Freundlichen Benchmarks?

Die 20% sagen doch mal gar nichts aus.

Coda
2006-02-20, 07:38:09
Conroe wird wohl eher eine gemäßigte Architektur werden die nicht mehr so anwendungsabhängig Leistung bringt wie Netburst.

Gast
2006-02-20, 12:29:44
Vielleicht wäre es hier besser, die min fps zu vergleichen.
Und dann auch keinefalls ein Timedemo zu nutzen.

Wenn die Durchschnittswerte beinahe identisch sind, dann kann es keine große Abweichungen gegeben haben, da sonst die Endwerte anders ausgefallen wären. Starke Abweichungen ziehen den Durchschnitt bekanntlich runter.
Da hier aber keine großen Abweichungen in den Endergebnissen zu sehen sind, kann es höchstens zu zehntel/hundertelssekunden langen Einbrüchen gekommen sein - das merkt man beim normalen spielen so gut wie gar nicht.

Da sind selbst die "Nachladeruckler", wie sie bei zu wenig RAM entstehen, deutlich störender.

Schon mal was von CPU-lastigen Szenen oder gar ganzen Spielen gehört?

Klar, nur habe ich bis jetzt kein Spiel gesehen, das mit einem P4 3 GHz nicht flüssig lief...

Außerdem ist eine durchschnittliche Framerate von 50fps nun wirklich alles andere als flüssig.

Das kann man so nicht sagen. Bei Spielen wie z.B. Sims, Age of Empires und dergleichen sind hohe fps alles andere als wichtig. Da reichen selbst 30fps locker aus, so lange sie konstant da sind... und das schaffen derzeit fast alle aktuellen Systeme.

Blutmaul
2006-02-20, 15:17:05
Hm, artet das in so einen Schattenkrieg aus, wei bei ATI und Nvidia, das noch garnicht offiziell vorgestellte Produkte mittels Hochrechnung und Spekulation verglichen und gut-/schlechtgeredet werden?

Ich will echte, unabhängig gemessene Werte sehen!

Undertaker
2006-02-20, 16:37:05
Wenn die Durchschnittswerte beinahe identisch sind, dann kann es keine große Abweichungen gegeben haben, da sonst die Endwerte anders ausgefallen wären. Starke Abweichungen ziehen den Durchschnitt bekanntlich runter.
Da hier aber keine großen Abweichungen in den Endergebnissen zu sehen sind, kann es höchstens zu zehntel/hundertelssekunden langen Einbrüchen gekommen sein - das merkt man beim normalen spielen so gut wie gar nicht.

Da sind selbst die "Nachladeruckler", wie sie bei zu wenig RAM entstehen, deutlich störender.


wenn in einer 1min langen timedemo nur 10s lang eine cpu-limitierung vorherscht und man in diesen 10s 20% mehr fps hat, sind davon im durchschnitt nur noch gut 3% übrig...


Klar, nur habe ich bis jetzt kein Spiel gesehen, das mit einem P4 3 GHz nicht flüssig lief...

css, c&c generals, schlacht um mittelerde, gtr, battlefield 2,... to be continued...


Das kann man so nicht sagen. Bei Spielen wie z.B. Sims, Age of Empires und dergleichen sind hohe fps alles andere als wichtig. Da reichen selbst 30fps locker aus, so lange sie konstant da sind... und das schaffen derzeit fast alle aktuellen Systeme.

es gibt auch spiele in denen 1ghz reicht, was soll dieses fadenscheinige argument? :|

in css sind mir <40fps als min-fps schont zu wenig, dh average müssen ~100fps drin sein

Gast
2006-02-20, 17:30:46
css, c&c generals, schlacht um mittelerde, gtr, battlefield 2,... to be continued....

Scheinst wohl einen defekten Rechner zu haben. CSS, Generals laufen bei mir ohne Probleme und absolut flüssig.

Wuge
2006-02-20, 17:44:21
Hm, mein Vater spielt C&C generals auf nem 2 GHz P4 und es läuft fast immer flüssig.

Undertaker
2006-02-20, 17:47:46
macht mal ein 8-spieler match, oder 6 spieler mit vielen einheiten, das zwingt jede cpu in die knie... wer will, kann von mir auch gerne ein replay mit <10fps min-fps garantie bekommen :D

css mit >10bots und einer map wie port ist ebenfalls von den min fps deutlich unter 30...

Gast
2006-02-20, 18:16:45
in css sind mir <40fps als min-fps schont zu wenig, dh average müssen ~100fps drin sein

Dachte das Auge nimmt nur 25-30 wahr, warum sollen dann 40 zuwenig sein?

Undertaker
2006-02-20, 18:22:31
hmm... ka ahnung warum - aber wird dir jeder zocker bestätigen können

andererGast
2006-02-20, 18:45:00
Nö, das ist imho Schwachsinn und wohl auf einen Placebo-Effekt zurückzuführen. 40 fps reichen dicke, solange das die minimalen FPS sind.

Iwan
2006-02-20, 18:45:43
macht mal ein 8-spieler match, oder 6 spieler mit vielen einheiten, das zwingt jede cpu in die knie... wer will, kann von mir auch gerne ein replay mit <10fps min-fps garantie bekommen :D


dito kann ich bestätigen. liegt aber in erster linie an der mangelnden wegfindungs-ki. da sammln sich schon mal massen an einheiten an schluchten weil die ki nicht fähig genug ist die einheiten eben "außenrum" zu führen. und sobald man so eine ansammlung an einheiten in so einer sackgasse hat geht garnix mehr.

Coda
2006-02-20, 18:51:05
40 fps reichen dicke, solange das die minimalen FPS sind.40 min fps is ok ja, denk ich auch. Aber so 60 normal wären auch ganz nett.

Palpatin
2006-02-20, 19:13:10
NFS - MW ist bei mir mit 30frames alles andere als flüssig unter 60 ruckelt es einfach fakt. andere spiele wie eq2 kann man aber auch mit 20 frames gut spielen (mehr geht eh nur wenn man starke optische abstriche macht extrem cpu limitierend das game. Da hilft auch kein quad sli um mit den höchsten settings perma über 20 frames zu bleiben.)

Undertaker
2006-02-20, 19:17:03
Nö, das ist imho Schwachsinn und wohl auf einen Placebo-Effekt zurückzuführen. 40 fps reichen dicke, solange das die minimalen FPS sind.

nein, bei manchen spielen ist mir das definitiv zu wenig - setz doch mal in einem schnellen ego-shooter den frame-limiter auf 40fps, dass ist nicht perfekt...

aber darum geht es ja eigentlich auch nicht, selbst mit high-end hardware gibt es in vielen spielen slowdowns von deutlich <30fps oder noch weniger...

dito kann ich bestätigen. liegt aber in erster linie an der mangelnden wegfindungs-ki. da sammln sich schon mal massen an einheiten an schluchten weil die ki nicht fähig genug ist die einheiten eben "außenrum" zu führen. und sobald man so eine ansammlung an einheiten in so einer sackgasse hat geht garnix mehr.

da hat man echt geschlampt... schade das das auch nie durch einen patch gefixt wurde - andere (strategie-)spiele kommen auch mit so vielen einheiten zurecht (ohne das die einheiten "dümmer" wären)

MarcWessels
2006-02-20, 23:08:55
Klar, nur habe ich bis jetzt kein Spiel gesehen, das mit einem P4 3 GHz nicht flüssig lief... :confused: :confused: :confused: Häh? Ach ja? Ich komischerweise jede Menge. Nuja, habe ich mir die Ruckelreien auf dem P4@3,54GHz wohl eingebildet, ebsno wie den Flüssigkeitsboost mit meinem Pentium M @2.8GHz. :rolleyes:


Das kann man so nicht sagen. Bei Spielen wie z.B. Sims, Age of Empires und dergleichen sind hohe fps alles andere als wichtig. Da reichen selbst 30fps locker aus, so lange sie konstant da sind... und das schaffen derzeit fast alle aktuellen Systeme.Konstante 30fps gibt es auf dem PC nicht.


Dachte das Auge nimmt nur 25-30 wahr, warum sollen dann 40 zuwenig sein?Hilfe, NEIN! Nicht schon wieder dieses Märchen!!!!! :frown:

Bitte, bitte, bitte nutz die Suchfunktion des Forums und mach Dich erstmal schlau, wie das menschliche Auge funktioniert! :| Außerdem noch über Themen wie VSync, "Wie funktioniert ein CRT/TFT?" usw. und sofort. Bitte...

sklave_gottes
2006-02-20, 23:53:56
Hilfe, NEIN! Nicht schon wieder dieses Märchen!!!!!

ist leider kein märchen

MarcWessels
2006-02-21, 00:29:56
Erklärung... Meinst Du die erste Hälfte oder die zweite Hälfte des Satzes?

Gast
2006-02-21, 13:29:33
Ab 25 Bilder pro Sekunde wird für das menschliche Auge etwas beweglich,das heisst nicht das da Schluß ist.

SKYNET
2006-02-21, 13:38:48
Nicht viel schneller als jetzt jedenfalls. Ich gehe mal davon aus, dass der Athlon 64 X2 5000+ (2,66 GHz) mit DDR2-667-Ram keine 10% schneller sein wird als der Athlon 64 FX-60.


du vergisst, das der 5000+ unter dem FX angesiedelt ist, heißt im klartext, das der FX zu dem zeitpunkt entweder mit 8.5*333.33 ~ 2.83GHz oder mit 9*333.33 ~ 3GHz takten wird! =)

so leicht, lässt sich AMD die butter nicht mehr vom brot nehmen! ;)

SKYNET
2006-02-21, 13:41:03
Vielleicht wäre es hier besser, die min fps zu vergleichen.
Und dann auch keinefalls ein Timedemo zu nutzen.


und evtl. ne auflösung die nur die CPU beansprucht... empfehle da ja immer 640*480.

SKYNET
2006-02-21, 13:42:35
Ab 25 Bilder pro Sekunde wird für das menschliche Auge etwas beweglich,das heisst nicht das da Schluß ist.


ab 12 bildern pro sekunde, sieht das menschliche auge etwas als "flüssige" bewegung! =)

BlackBirdSR
2006-02-21, 13:47:39
und evtl. ne auflösung die nur die CPU beansprucht... empfehle da ja immer 640*480.

Das wäre dann aber nicht mehr Praxisrelevant.
Aber interessant, um die Architektur näher zu untersuchen.

Coda
2006-02-21, 13:54:37
Ich finde das Praxisrelevant, weil dann eben möglichst nur die CPU-Leistung gemessen wird und nicht die GPU. Was interessiert mich ein GPU-Limit denn bei einem CPU-Benchmark? Das hab ich noch nie verstanden.

reunion
2006-02-21, 13:54:40
du vergisst, das der 5000+ unter dem FX angesiedelt ist, heißt im klartext, das der FX zu dem zeitpunkt entweder mit 8.5*333.33 ~ 2.83GHz oder mit 9*333.33 ~ 3GHz takten wird! =)

so leicht, lässt sich AMD die butter nicht mehr vom brot nehmen! ;)


Mit 333.33Mhz Referenztakt wird schonmal keine CPU takten. Das macht aus vielerlei Hinsicht keinen Sinn, und wäre mittels HT ohne komplizierte Teiler auch gar nicht möglich.

Undertaker
2006-02-21, 13:57:26
dann eben eine höhere auflösung, aber in einer szene mit extrem vielen einheiten, physik- und partikeleffekten...

wie man die cpu-limitierung erreicht ist ja wurst... deswegen finde ich auch, dass der vorschlag 640x480 von SKYNET die einfachste möglichkeit ist...

Gast
2006-02-21, 13:57:42
Ich finde das Praxisrelevant, weil dann eben möglichst nur die CPU-Leistung gemessen wird und nicht die GPU. Was interessiert mich ein GPU-Limit denn bei einem CPU-Benchmark? Das hab ich noch nie verstanden.

Was interessieren mich Ergebnisse, die so in der Praxis nie auftreten werden?

Schön, das man zeigen kann, das eine CPU bei 640x480 schneller ist, nur wer viel Geld für viel Leistung bezahlt, wird nicht 640x480 nutzen ...

SKYNET
2006-02-21, 13:59:52
welchen komplizierten HT teiler?

3*333.33 = 1000MHz HT

Gast
2006-02-21, 14:03:20
Was interessieren mich Ergebnisse, die so in der Praxis nie auftreten werden?

Schön, das man zeigen kann, das eine CPU bei 640x480 schneller ist, nur wer viel Geld für viel Leistung bezahlt, wird nicht 640x480 nutzen ...Sowas zeigt aber ganz gut inwieweit die CPU in Zukunft mithalten kann. Der gleiche Grund, warum man auch Mainstream-Grakas in Auflösungen >1600 bencht.

Gast
2006-02-21, 14:04:54
welchen komplizierten HT teiler?

3*333.33 = 1000MHz HT[x] Ich sollte mich informieren warum alle Hypertransport-Devices auch mit 200Mhz kommunizieren müssen.

reunion
2006-02-21, 14:09:23
welchen komplizierten HT teiler?

3*333.33 = 1000MHz HT

Hypertransport gibt es nur in Geschwindigkeiten von 200Mhz und einem Vielfachen davon. So ist das spezifiziert und so wurden die Geräte ausgelegt.

Wenn du jetzt einen Referenztakt von 333Mhz willst, müsstest du bei jedem Gerät einen Teiler einbauen, welcher diese 333Mhz in 200Mhz umwandelt, um einen fehlerfreien Betrieb zu gewährleisten.

Coda
2006-02-21, 14:15:07
Was interessieren mich Ergebnisse, die so in der Praxis nie auftreten werden?Es interessiert welche CPU schneller ist und die Abstände sind sehr viel sichtbarer wenn man in niedriger Auflösung vergleicht.

Was will man denn bitte anderes wissen?

BlackBirdSR
2006-02-21, 14:19:09
Es interessiert welche CPU schneller ist und die Abstände sind sehr viel sichtbarer wenn man in niedriger Auflösung vergleicht.

Was will man denn bitte anderes wissen?

Muss man halt dann unterscheiden.
zwischen Praxisbezogenem Test und CPU Test alleine.

Ersterer macht eigentlich immer Sinn.
Letzterer nur, wenn man weiß was man tut ;)

Gast
2006-02-21, 14:22:07
Es interessiert welche CPU schneller ist

Das sieht man eben nicht, weil eine CPU die in 640x480 schneller ist, nicht auch in 1600x1200 schneller sein muß, da andere Komponenten limitieren.
Wenn ich nur in 1600x1200 spiele und weiß, das ich hauptsächlich Spiele betreibe und die Benchmarks einen Gleichstand zwischen einem 1000 Euro teuren und 250 Euro teuren Prozessor hervorbringen, dann wäre ich doch dämlich, wenn ich den 4fachen Geldbetrag für null Mehrleistung ausgeben würde.

In meinem Fall träfe das voll zu, da die Leistung in allgemeinen Anwendungen (Office, Windows allgemein) mir völlig ausreichend ist, da nützt mir eine 20% schnellere CPU gar nichts.

Coda
2006-02-21, 14:23:25
Das sieht man eben nicht, weil eine CPU die in 640x480 schneller ist, nicht auch in 1600x1200 schneller sein muß, da andere Komponenten limitieren.Man will CPU-Leistung vergleichen und nicht feststellen ob derzeitige CPUs GPUs ausbremsen. Das ist ein völlig falscher Gedanke.

Was nützt einem ein CPU-Benchmark bei dem alle CPUs mehr oder weniger die gleichen Resultate bringen weil nur die GPU limitiert? Das ist doch sinnlos.

Natürlich gehören auch Tests bei normaler Auflösung dazu um Leute zu zeigen ob sie die CPU überhaupt brauchen, aber um einen reinen Leistungsvergleich anzustellen halte ich das nicht für sinnvoll.

Gast
2006-02-21, 14:24:38
Man will CPU-Leistung vergleichen und nicht feststellen ob derzeitige CPUs GPUs ausbremsen. Das ist ein völlig falscher Gedanke.

Der Gedanke ist nicht falsch, sondern >Praxisbezogen<. Wieso solle ich für etwas bezahlen, was ich überhaupt nicht brauche?

Coda
2006-02-21, 14:25:28
Weil du die CPU evtl. kaufst um sie in Zukunft auch noch zu benützen?

Sorry, aber ich empfinde das "praxisrelevante" Benchmarken irgendwie als Bevormundung. Dann schreibt man halt noch ein paar Sätze ala "Wir benchen jetzt reine CPU-Leistung, bitte bedenkt dass das nicht unbedingt in Rohleistung umschlägt weil es auch noch das GPU-Limit gibt".

Gast
2006-02-21, 14:27:05
Weil du die CPU evtl. kaufst um sie in Zukunft auch noch zu benützen?

Was ich in Zukunft brauche oder nicht brauche, interessiert mich jetzt herzlich wenig... [zumal dann sowieso alle aktuellen CPUs veraltet sind].

Coda
2006-02-21, 14:27:51
Wenn das so wäre dürfte es das GPU-Limit ja gar nicht geben. Im Umkehrschluss heißt dass nämlich das in 1600 es sowieso auch eine ältere CPU tut.

Und mit deiner Fettschreiberei wirste bei mir auch nix bewirken :tongue:

Zumal dieses pseudo-praxisrelevante Gebenche in 1024 (wer spielt bitte in 1024 mit ner High-End-GPU?) sowieso schon idiotisch genug ist. Wenn dann bitte konsequent.

Gast
2006-02-21, 14:35:04
Das sieht man eben nicht, weil eine CPU die in 640x480 schneller ist, nicht auch in 1600x1200 schneller sein muß, da andere Komponenten limitieren.
Wenn ich nur in 1600x1200 spiele und weiß, das ich hauptsächlich Spiele betreibe und die Benchmarks einen Gleichstand zwischen einem 1000 Euro teuren und 250 Euro teuren Prozessor hervorbringen, dann wäre ich doch dämlich, wenn ich den 4fachen Geldbetrag für null Mehrleistung ausgeben würde.

In meinem Fall träfe das voll zu, da die Leistung in allgemeinen Anwendungen (Office, Windows allgemein) mir völlig ausreichend ist, da nützt mir eine 20% schnellere CPU gar nichts.

Äh wieso sollte eine CPU die bei 640*480 schneller,als der Konkurrent,ist,bei 1600*1200 langsamer sein,als der Konkurrent?

Coda
2006-02-21, 14:36:40
Ja ist Unfug. Wenn dann ist in 1600 alles innerhalb der Messungenauigkeit und es werden dann Pseudo-Performancevortiele aufgezeigt, aber ansonsten ist es nicht möglich dass das GPU-Limit eine CPU auf einmal langsamer macht als eine andere.

Naja, es kann sein, dass der Treiber eine andere CPU bevorzugt als das Spiel selber, dann kann es evtl. zu kleineren Unterschieden kommen. Aber wirklich relevant ist das wohl kaum.

Gast
2006-02-21, 14:39:17
Im Umkehrschluss heißt dass nämlich das in 1600 es sowieso auch eine ältere CPU tut.

Das stimmt ja auch, zumindest in meinem Fall.

Vielleicht sollte ich es so ausdrücken, damit es jeder versteht:

Wenn ich weiß, das ich hauptsächlich Rohpower brauche, um z.B. Audio/Videodateien zu bearbeiten oder Seti laufen lassen will, dann hole ich mir eine schnelle CPU.

Wenn ich aber weiß, das mir eine schnelle CPU in Spielen gar nichts bringt, weil sie auch so flüssig genug laufen oder vorher andere Komponenten limitieren, dann nützen mir solche Benchmarks herzlich wenig und sind daher wenig Praxisrelevant.
Ich habe hier beispielweise noch einen Rechner mit einer CPU von 2002 herumstehen und damit läuft selbst AoE3, NfS MW, Generals, CSS mit allen Details bei >1024x768 immer noch absolut flüssig. Was würde mir eine schnellere CPU hier bringen? Sie muss doch auf >meine< Ansprüche passen und nicht die >schnellste CPU< am Markt sein. Verstanden?

Gast
2006-02-21, 14:40:29
Äh wieso sollte eine CPU die bei 640*480 schneller,als der Konkurrent,ist,bei 1600*1200 langsamer sein,als der Konkurrent?

Weil andere Komponenten je nach Anwendungsgebiet vorher limitieren!!!

Bei Games (wohl das Haupteinsatzgebiet für viele PC-User), ist die CPU Leistung allein nicht ausschlagend.

Coda
2006-02-21, 14:41:11
Ja stimm ich dir ja bei allem halbwegs zu, aber ich finde nicht dass man in den Benchmarks den Leser da bevormunden sollte (wie ich oben schon geschrieben habe) und ihm dadurch mögliche Einsicht entzieht welche CPU denn nun schneller ist.

Das GPU-Limit gehört ausgeklammert und seperat erwähnt. Pseudo-Gebenche in 1024 ist einfach sinnlos, da inkonsequent (hab ich auch schon erwähnt).

Weil andere Komponenten je nach Anwendungsgebiet vorher limitieren!!!Dadurch wird eine CPU aber auch nicht auf einmal mit der gleichen Grafikkarte im Vergleich langsamer...

Gast
2006-02-21, 14:43:07
Ich kann euch auch gerne ein Beispiel dafür liefern, das die schnellste CPU bei anderen Einsatzgebieten (die kennt bekanntlich NUR der User, daher sind solche Benches ziemlich sinnlos) langsamer sein kann, als die Konkurrenz:

http://www.3dchips.net/review.php?id=91&page=29

Coda
2006-02-21, 14:43:58
Das ist doch ein völlig anderes Thema :|

Gast
2006-02-21, 14:49:13
Das ist doch ein völlig anderes Thema :|

Nein ist es nicht, denn die vermeintlich viel schnellere CPU A ist plötzlich deutlich langsamer als CPU B, wenn sie mit anderen Aufgaben betraut wird.

Beispielweise kann CPU A in Games und "einfachen" Multitasking viel schneller sein, wobei es bei "komplexeren" Multitasking ganz anders aussehen kann.

Der Benchmark hätte mir gezeigt, das CPU A die "schnellere" sei, obwohl dies in >meinem Anwendungsbereich< überhaupt nicht zugetroffen wäre.

Ich weiß ja nicht, wie ihr das seht, aber mich interessieren nur _meine_ Anwendungsbereiche und nicht die von _anderen Usern_.

Coda
2006-02-21, 14:50:39
Nein ist es nicht, denn die vermeintlich viel schnellere CPU A ist plötzlich deutlich langsamer als CPU B, wenn sie mit anderen Aufgaben betraut wird.Es ging um die gleiche Applikation in einer anderen Auflösung. Das ist ein anderes Thema. Das es Apps gibt die z.B. einen P4 bevorzugen ist mir schon klar X-D

Darf ich dir noch ein paar Unterstriche schenken: ___________ :)

Gast
2006-02-21, 14:52:14
Es ging um die gleiche Applikation in einer anderen Auflösung. Das ist ein anderes Thema.

Die Applikation ist die gleiche, deswegen sage ich das doch die ganze Zeit. Vielleicht versteht mich auch einfach keiner...

Das es Apps gibt die einen P4 bevorzugen ist mir schon klar X-D

Genau darum ging es mir nicht.

Undertaker
2006-02-21, 14:52:28
Das stimmt ja auch, zumindest in meinem Fall.

Vielleicht sollte ich es so ausdrücken, damit es jeder versteht:

Wenn ich weiß, das ich hauptsächlich Rohpower brauche, um z.B. Audio/Videodateien zu bearbeiten oder Seti laufen lassen will, dann hole ich mir eine schnelle CPU.

Wenn ich aber weiß, das mir eine schnelle CPU in Spielen gar nichts bringt, weil sie auch so flüssig genug laufen oder vorher andere Komponenten limitieren, dann nützen mir solche Benchmarks herzlich wenig und sind daher wenig Praxisrelevant.
Ich habe hier beispielweise noch einen Rechner mit einer CPU von 2002 herumstehen und damit läuft selbst AoE3, NfS MW, Generals, CSS mit allen Details bei >1024x768 immer noch absolut flüssig. Was würde mir eine schnellere CPU hier bringen? Sie muss doch auf >meine< Ansprüche passen und nicht die >schnellste CPU< am Markt sein. Verstanden?


ich bin mal so frei mich selbst aus einem anderen thread zu zitieren:


du darfst die situaution nicht so allgemein betrachten und nur nach der average-framerate gehen, ich versuche es dir mal so zu erklären

nehmen wir den fall 1600x1200 4aa 16af und eine aktuelle grafikkarte wie die 7800gtx - hier wirst du keinen unterschied zwischen einem 2ghz sc und einem 2ghz dc spüren (ein 3ghz sc/dc wäre aber auch nicht schneller - klare gpu-limitierung)

nun kommen wir aber an eine stelle, wo viele gegner umherlaufen, die ki muss für jeden ausführlich berechnet werden, zusätzlich schießt der spieler zb noch in einen hohen kistenstapel -> hui, wir haben eine extreme cpu-limitierung; während eine sc cpu zb auf 20fps abfällt, bleibt das game auf einem gleichgetakteten dc mit über 30fps deutlich flüssiger (diesen vorteil kann ich dir garantieren, da wir in 800x600 gesehen haben, was ohne gpu-limit möglich ist)

wenn man die gesammte szene bencht, kommt man vielleicht nur auf ~15% vorsprung des dc, den vorsprung bei den min-fps erkennt der unerfahrene betrachter nicht...

das bezieht sich zwar auf dc, lässt sich aber auch wunderbar 1:1 auf einen schnelleren sc übertragen...

nochmal zusammengefasst: auch wenn laut benches zb. ein a64 4000+ in manchen games nur 1% schneller ist als ein 3000+, können es bei den min fps auch >20% sein, obwohl der average-wert auf eine gpu-limitierung deutet

ach ja: generals ist mit ordentlich einheiten auf keiner derzeit käuflich cpu wirklich flüssig, genausowenig wie css auf bestimmten maps wie zb de_port mit bots

Coda
2006-02-21, 14:54:44
Die Applikation ist die gleiche, deswegen sage ich das doch die ganze Zeit. Vielleicht versteht mich auch einfach keiner...Es wurde nicht die Auflösung geändert, sondern es wurden andere Apps im Hintergrund ausgeführt. Das sind ganz andere Vorraussetzungen.

Ein Auflösungswechsel kann das relative Kräfteverhältnis von CPUs nicht beeinflussen.

Gast
2006-02-21, 15:05:23
Es wurde nicht die Auflösung geändert, sondern es wurden andere Apps im Hintergrund ausgeführt. Das sind ganz andere Vorraussetzungen.

Auflösung ist nur ein Faktor, für Limitierungen an andereren Stellen.

Ich sehe da übrigens nur zwei Anwendungen, die _nicht_ verändert wurden, es wurde lediglich die Priorität geändert (2. und 3. Diagramm), dennoch liefern sie unterschiedliche Ergebnisse.

@Undertaker

Wenn ich selbst mit dieser CPU von 2002 überhaupt !!!KEINE!!! Einbrüche in der Performance habe, was bringt mir dann die schnellere CPU??? Nichts, außer einer leeren Brieftasche!

Eventuelle Konstellationen die in >meinem< Anwendungsbereich nie aufreten, interessieren mich herzlich wenig...

Coda
2006-02-21, 15:06:44
Auflösung ist nur ein Faktor, für Limitierungen an andereren Stellen.Solang es ein linear ablaufendes Programm ist wird ein Bottleneck das Kräfteverhältnis nicht ändern. Was du da gezeigt hast ist ein parallel laufendes Programm mit unterschiedlichen Threadprioritäten. Das kannst du nicht vergleichen.

Aber bitte bring noch mehr obskure Behauptungen, es macht so langsam Spaß ;)

Undertaker
2006-02-21, 15:08:14
@Undertaker

Wenn ich selbst mit dieser CPU von 2002 überhaupt !!!KEINE!!! Einbrüche in der Performance habe, was bringt mir dann die schnellere CPU??? Nichts, außer einer leeren Brieftasche!

Eventuelle Konstellationen die in >meinem< Anwendungsbereich nie aufreten, interessieren mich herzlich wenig...

hmm, dann scheinst du ein relativ anspruchsloser anwender zu sein, aber deine brieftasche wirds dir danken ;)

mir ist eigentlich öfters meine cpu zu langsam als meine x800xl (99% meiner games laufen wunderbar 1280x1024, zu 80% auch mit 4aa 16af)

Gast
2006-02-21, 15:10:21
Ich brauche hier überhaupt nichts behaupten, ich weiß ja, das es (in meinem Fall) Fakten sind!

Ein CPU-Benchmark in 640x480 ist zwar eine nette Spielerei, doch bleibt er absolut Anwendungsunrelevant, sofern er nicht genau die Tätigkeiten des Users berücksichtigt.

Undertaker
2006-02-21, 15:13:47
Ich brauche hier überhaupt nichts behaupten, ich weiß ja, das es (in meinem Fall) Fakten sind!

Ein CPU-Benchmark in 640x480 ist zwar eine nette Spielerei, doch bleibt er absolut Anwendungsunrelevant, sofern er nicht genau die Tätigkeiten des Users berücksichtigt.

das ist schlicht falsch; in 640x480 kann man performanceunterschiede messen, welche in einem anderen game auch noch bei 1280x1024 4aa 16af auftreten, sich dort aber schlecht messen lassen (zb generals lässt sich nicht sonderlich gut benchen)

was hast du eigentlich für eine cpu?

Gast
2006-02-21, 15:15:53
Ich weiß zwar nicht, was das hier soll, aber du meinst behaupten zu können, das _mir_ meine aktuelle CPU nicht ausreicht, weil das irgendein Benchmark behauptet?

Sorry, aber darüber kann ich nur lachen. Ich kaufe das was ich brauche, nicht das was mir ein Benchmark suggerieren will. :)

Undertaker
2006-02-21, 15:18:32
Ich weiß zwar nicht, was das hier soll, aber du meinst behaupten zu können, das _mir_ meine aktuelle CPU nicht ausreicht, weil das irgendein Benchmark behauptet?

Sorry, aber darüber kann ich nur lachen. Ich kaufe das was ich brauche, nicht das was mir ein Benchmark suggerieren will. :)

das habe ich nie gesagt... ich will dir nur erläutern, warum generell gesehen das benchen von cpu's in 640x480 sinn macht

aber: ich kaufe dir nicht ab, das du mit einer cpu von 2002 in css mit bots oder generals mit 6-8 spielern und vielen einheiten noch spielbare fps erreichst

...wenn du allerdings meinst, das 20fps in css oder 10fps in generals "^^ausreichen", weis ich nicht was ich dazu sagen soll ;)

Gast
2006-02-21, 15:40:41
Am besten gar nichts. ;)

Denn Ruckeln tat es noch nie, denn wie ich schon sagte: Die CPU ist nur eine von vielen Komponenten.

Achja: THG hat eine AM2-CPU samt DDR2-667 @ 3-2-2-8 getestet, Leistungsunterschied gleich null. Wo ist die versprochene Mehrleistung?

sklave_gottes
2006-02-21, 15:43:46
Ein CPU-Benchmark in 640x480 ist zwar eine nette Spielerei, doch bleibt er absolut Anwendungsunrelevant, sofern er nicht genau die Tätigkeiten des Users berücksichtigt.

CPU benschs sollten nur in 640x480 gemacht werden.Nur da kann man richtig erkennen wie schnell/langsam eine cpu in dem spiel ist, b.z.w. welche cpu schneller ist.
Wenn cpu a in 640x480 schneller ist als b
wir sie es auch in 1600x1200 sein!

Gast
2006-02-21, 15:45:08
Am besten gar nichts. ;)

Denn Ruckeln tat es noch nie, denn wie ich schon sagte: Die CPU ist nur eine von vielen Komponenten.

Achja: THG hat eine AM2-CPU samt DDR2-667 @ 3-2-2-8 getestet, Leistungsunterschied gleich null. Wo ist die versprochene Mehrleistung?

Was hat THG denn getestet?
Wohl kaum eine App die von der grösseren Bandbreite des DDR2 Speichers proftiert.
Ich hoffe du kommst jetzt nicht mit FEAR @ 1600*1200 4AA 16 AF mit ner x1600. :D

Gast
2006-02-21, 15:47:22
Schau in den anderen Thread zum AMD-Prozessor hier in diesem Unterforum...

Teilweise gar noch weniger Leistung, als ein DDR400 System. Wie ich es erwartet hatte, Bandbreite ist eben nicht alles. :)

Gast
2006-02-21, 15:55:16
Einige Fehler sind immer drin, aber selbst dann und mit einer gewissen Optimierung sollten keine Leistungswunder erwartet werden.

Außerdem frage ich mich, ob AMD das versprechen halten wird, das selbst QuadCore Prozessoren "ohne größere Veränderungen" genutzt werden kann. Tja, aber nur wenn die Mainboardhersteller mitspielen (wieso sollten die freiwillig auf Profit verzichten)?

BlackBirdSR
2006-02-21, 15:56:51
Was hat THG denn getestet?
Wohl kaum eine App die von der grösseren Bandbreite des DDR2 Speichers proftiert.
Ich hoffe du kommst jetzt nicht mit FEAR @ 1600*1200 4AA 16 AF mit ner x1600. :D

Der Gast hat den Text leider nicht gelesen. Sonst wären ihm die Umstände besser bekannt.
THG versteckt das auch so blöde im Text.

Es gibt keine größere Bandbreite in diesem test, und die Timings waren auch nur 4-4-4-12.
Irgendwas ist schief gelaufen.

Gast
2006-02-21, 15:59:52
Der Gast hat den Text leider nicht gelesen. Sonst wären ihm die Umstände besser bekannt.
THG versteckt das auch so blöde im Text.

Es gibt keine größere Bandbreite in diesem test, und die Timings waren auch nur 4-4-4-12.
Irgendwas ist schief gelaufen.

Hätte mich auch gewundert,wenn THG mal was richtig gemacht hätte.

Was wurde denn dann getestet,wenn nicht die Auswirkungen des DDR2 Speichers?

reunion
2006-02-21, 16:01:57
Hätte mich auch gewundert,wenn THG mal was richtig gemacht hätte.

Was wurde denn dann getestet,wenn nicht die Auswirkungen des DDR2 Speichers?


Offensichtlich hat die CPU noch einen Bug im Speichercontroller, jedenfalls zeigte selbst Sandra eine Bandbreite auf DDR1-Niveau.

Gast
2006-02-21, 16:02:01
THG versteckt das auch so blöde im Text.

Eigentlich ist das recht gut lesbar...

"However, while we could select DDR2-800 speed in the BIOS of the engineering test motherboard, it obviously did not set the memory faster than 667. As already mentioned, the memory is suspected to suffer from a performance bug, which may be true or simple a matter of the early product stage. The upcoming processor (revision F) will fix any of this; the dual core version is being shipped to motherboard partners starting this week, with single cores to follow in the middle of May."


Es gibt keine größere Bandbreite in diesem test, und die Timings waren auch nur 4-4-4-12.

Bringt im Endeffekt eh nicht viel im Vergleich zu DDR500+. Aber das ist nur meine Meinung. :)

Madkiller
2006-02-21, 16:35:52
Wenn die Durchschnittswerte beinahe identisch sind, dann kann es keine große Abweichungen gegeben haben, da sonst die Endwerte anders ausgefallen wären. Starke Abweichungen ziehen den Durchschnitt bekanntlich runter.
Da hier aber keine großen Abweichungen in den Endergebnissen zu sehen sind, kann es höchstens zu zehntel/hundertelssekunden langen Einbrüchen gekommen sein - das merkt man beim normalen spielen so gut wie gar nicht.
http://www.3dcenter.org/artikel/average_fps/index7.php
Siehe letzte Grafik.
Ähnliche Werte lassen sich auch ganz einfach erreichen, wenn eine Timedemo zu 90% aus einem "FlyBy" besteht. Und das sind leider mehrere, als man denkt.


Klar, nur habe ich bis jetzt kein Spiel gesehen, das mit einem P4 3 GHz nicht flüssig lief...

AoE3, GT:Legends, X³, etc
(schafft übrigens meine CPU auch nicht immer)

Gast
2006-02-21, 16:43:29
AoE3

Nicht schon wieder, ich hab das Spiel schon durch und mehrmals Multiplayer gespielt, ohne Probleme. Dabei werkelt hier kein AMD...

Undertaker
2006-02-21, 16:45:22
dann bist du was fps angeht nicht besonders empfindlich oder hast nie ne ordentliche massenschlacht gemacht...

Gast
2006-02-21, 16:47:38
dann bist du was fps angeht nicht besonders empfindlich oder hast nie ne ordentliche massenschlacht gemacht...

Doch habe ich, dennoch, keine Probleme.
Ich kann dir auch gerne noch ein Hardwarehungrigeres Spiel nennen: Stronghold 2. :)

Undertaker
2006-02-21, 16:49:45
das läuft noch schlimmer, da hast du recht ;)

aber dennoch: ich kenne aoe3 von meinem cousin mit einem p4c 2,8ghz @ 3,2ghz, dass ist selbst mit minimalsten grakadetails und einer seeehr niedrigen auflösung (er hat eine 9800 @ 440/370) nicht überall komplett flüssig zu bekommen

Madkiller
2006-02-21, 16:52:21
Nicht schon wieder, ich hab das Spiel schon durch und mehrmals Multiplayer gespielt, ohne Probleme. Dabei werkelt hier kein AMD...
http://www.3dcenter.org/artikel/timedemos/savegame_aoe3.php
Mit 7 Computergegnern (4vs4) nur 14fps, mit max Details natürlich.
(Wurde an mehreren PCs verrifiziert)

MarcWessels
2006-02-21, 21:57:51
Das sieht man eben nicht, weil eine CPU die in 640x480 schneller ist, nicht auch in 1600x1200 schneller sein muß, da andere Komponenten limitieren.
Wenn ich nur in 1600x1200 spiele und weiß, das ich hauptsächlich Spiele betreibe und die Benchmarks einen Gleichstand zwischen einem 1000 Euro teuren und 250 Euro teuren Prozessor hervorbringen, dann wäre ich doch dämlich, wenn ich den 4fachen Geldbetrag für null Mehrleistung ausgeben würde.

In meinem Fall träfe das voll zu, da die Leistung in allgemeinen Anwendungen (Office, Windows allgemein) mir völlig ausreichend ist, da nützt mir eine 20% schnellere CPU gar nichts.Oh Mann.

Wenn ich in 640x480 benche, habe ich ein genaues Bild von dem, was die CPU in den CPU-limitierten Situationen leistet! Bench ich dagegen in 1024x768 (oder noch bekloppter in 1600x1200) verwischt das komplette Bild und gibt ein inkorrektes Ergebnis wieder, was CPU A gegen CPU B zu reißen imstande ist. :rolleyes:

Umgekehrt vergleiche ich die GPU-Leistung am Besten, indem ich möglichst hohe Auflösungen mit extrem hohen AF und AA-Einstellungen verwende (selbst wenn dort natürlich unspielbare fps-Raten bei heraus kommen), denn auch da habe ich erst das wahre Verhältnis zwischen zwei gegeneinander antretenden Grafikkarten.


Zumal dieses pseudo-praxisrelevante Gebenche in 1024 (wer spielt bitte in 1024 mit ner High-End-GPU?) sowieso schon idiotisch genug ist. Wenn dann bitte konsequent.Ich, als ich noch HighEnd-Grakas hatte, da ich Wert auf eine vernünftig hohe Framerate lege.

Coda
2006-02-21, 22:01:04
Ja, das versuch ich auch schon die ganze Zeit zu erklären X-D

MarcWessels
2006-02-21, 22:02:52
Ja, das versuch ich auch schon die ganze Zeit zu erklären X-DUnd trotzdem hab' ich Dir jetzt grad eben im Edit noch a bisserl widersprochen. ;)


Ich habe hier beispielweise noch einen Rechner mit einer CPU von 2002 herumstehen und damit läuft selbst AoE3, NfS MW, Generals, CSS mit allen Details bei >1024x768 immer noch absolut flüssig. (...) Wenn ich selbst mit dieser CPU von 2002 überhaupt !!!KEINE!!! Einbrüche in der Performance habe, ;D Das halte ich für ein Gerücht. :biggrin:

Zur einer beispielhaften Erklärung->

Du spielst NFS:MW, was neben seiner GPU-Abhängigkeit auch sehr allergisch auf schwache CPUs reagiert (und Deine CPU ist schwach!). Es wir bei Dir folglich ruckeln wie die Pest.

NFS:MW benutzt eine etwas weiterentwicklet eEnginne von NFS:U(2). Ich besaß einen P4 2600/800 aus dem Mai des Jahres 2003, den ich mit 3540MHz betrieb und kaufte mir im Februar 2004 NFS:U . Nun, es war zwar nicht richtig unspielbar, aber weit entfernt von einer flüssigen Grafik (1024x768, 4xAF). Im August 2004 kaufte ich die 6800GT und betrieb sie mit UE-Takt, doch die Geschwindigkeit von NFS:U blieb exakt gleich wie zuvor; nur dass ich jetzt auf 16xAF hochschalten konnte.

Im Dezember 2004 kaufte ich meinen Pentium M (zuerst einen mit 2,6GHz oc, dann mit 2,8GHz) und.. tatatataaaa... NFS:U lief vollkommen flüssig! und, egal was ich tat, stets mit 60fps (VSync) und war schon mit dem 2,6er Pentium M mehr als doppelt so schnell.

Und jetzt kommst Du daher und willst uns hier erzählen, dass Deine 2002er CPU aktuelle Spiele flüssig bei Dir auf den Schirm bringen würde *lol* - sorry, aber das ist lachhaft.

SKYNET
2006-02-21, 22:11:40
CPU benschs sollten nur in 640x480 gemacht werden.Nur da kann man richtig erkennen wie schnell/langsam eine cpu in dem spiel ist, b.z.w. welche cpu schneller ist.
Wenn cpu a in 640x480 schneller ist als b
wir sie es auch in 1600x1200 sein!


dem ist nix mehr hinzuzufügen!

SKYNET
2006-02-21, 22:13:12
Und trotzdem hab' ich Dir jetzt grad eben im Edit noch a bisserl widersprochen. ;)


;D Das halte ich für ein Gerücht. :biggrin:


wann kam die GF4 serie? :biggrin:

Gast
2006-02-21, 22:14:57
Dann kauft euch doch alle 3 Monate eine 1000 Euro CPU, wenn sie in dem Benchmark vorne liegt...

Scheinbar sind hier viele Leute nur noch Benchmark-fixiert und sehen daher den Wald vor lauter Bäumen nicht mehr.

@MarcWessels

Es funktioniert hier, alles andere interessiert mich nicht.

MarcWessels
2006-02-21, 22:20:08
Dann kauft euch doch alle 3 Monate eine 1000 Euro CPU, wenn sie in dem Benchmark vorne liegt...

Scheinbar sind hier viele Leute nur noch Benchmark-fixiert und sehen daher den Wald vor lauter Bäumen nicht mehr.

@MarcWessels

Es funktioniert hier, alles andere interessiert mich nicht.Lies, was ich editiert habe. :tongue:

P.S.: Und meine 2.8er Dothan-CPU hat mich nur 220 € gekostet.


@SKYNET
Bäääh! ;) Nope, ich hab' auch 2004 mit der 6800GT@UE mit 1024x768 gespielt.

Raff
2006-02-21, 22:26:24
Ohne den sauschnellen Pentium-M schlechtmachen zu wollen: Ist ein Athlon XP Tbred nicht auch von 2002? Dann kann ich dem Gast Recht geben. Mein AXP da unten packt auch noch praktisch alles. :naughty: Natürlich nicht mit dem Standardtakt. Es ist aber schon krass, was man mit 2-3 Jahre alten CPUs heute noch alles reißen kann. 2006 wird wohl das erste Jahr der Dual-Cores, dann geht's den Singles an den Kragen ... ;(

MfG,
Raff

MarcWessels
2006-02-21, 22:32:46
Nö, der Athlon XP wurde schon von meinem Northi in die Tasche gesteckt und ist allerspätestens seit Sommer 2004 tot.

SKYNET
2006-02-21, 22:40:12
naja, nen 3GHz barton sollte noch fürs meiste langen... auch, wenn nen 4000+ ihn nackt macht!

Raff
2006-02-21, 22:44:36
Nö, der Athlon XP wurde schon von meinem Northi in die Tasche gesteckt und ist allerspätestens seit Sommer 2004 tot.

Bei selbst getätigten Benchmarks mit Age III und NFS: Most Wanted kam ich mit meinem AXP auf Min-Fps im Bereich 25 bzw. 35 Fps. Langsam? Nein, nur eben nicht 60 Fps konstant – aber ausreichend. :D

Ein P-M mit gleichem Takt packt übrigens 35 respektive 55 Fps.

MfG,
Raff

Gast
2006-02-22, 12:59:14
Und jetzt kommst Du daher und willst uns hier erzählen, dass Deine 2002er CPU aktuelle Spiele flüssig bei Dir auf den Schirm bringen würde *lol* - sorry, aber das ist lachhaft.

Das einzig lachhafte ist dieser Kommentar.

Bei mir läuft es flüssig, schließe habe ich Age of Empires 3 und Need for Speed MW ohne Probleme durchgespielt. Von Performanceinbrüchen keine Spur.

Einige Leute wissen scheinbar nicht, wie sie mit ihrem System umzugehen haben, sonst würden solche Kommentar hier gar nicht erst stehen.

Im übrigen bedeutet ein Einbruch in den fps nicht, das dieses sich schlimm auswirkt, schließlich hängt es davon ab, wie hoch die min-fps sind. Das scheinen einige Leute bei solchen Benchmarks nämlich gänzlich zu vergessen.

Zephyroth
2006-02-22, 13:09:03
Es kommt auf's Individum an, was man unter flüssig versteht. Ich für meinen Teil verstehe darunter min fps > 24. Damit kann ich NFSMW flüssig und allen Details zocken. Wer natürlich auf mindestens 40 fps besteht, reizt die heutige Hardware halt ganz aus. Wobei eine X1900XT auch nur 30% schneller wäre als meine X850XT. Damit wären mit vollen Details auch keine 40fps drinnen. Die dynamischen Schatten fressen viel CPU Leistung bei NFSMW, dennoch komme ich mit meinem Venice 3200+ sehr gut aus, wobei dieser aus Sicht einiger Freaks ja schon sooooo veraltet, schwach und überhaupt ausmusterungswert ist.

Übrigens: Es hat auf einem Bildschirm wenig Wert, mehr fps als die Bildwiederholrate darstellen kann zu haben.... Das ist nur für pupertäre Sch.....vergleiche.....
Sowas setze ich dann lieber in mehr Darstellungsqualität um um wieder auf meine gewohnten 24-30fps zu kommen (ok, Max Payne 2 läuft mit 60)

Grüße,
Zeph

MarcWessels
2006-02-22, 21:51:09
Das einzig lachhafte ist dieser Kommentar.

Bei mir läuft es flüssig, schließe habe ich Age of Empires 3 und Need for Speed MW ohne Probleme durchgespielt. Von Performanceinbrüchen keine Spur.

Einige Leute wissen scheinbar nicht, wie sie mit ihrem System umzugehen haben, sonst würden solche Kommentar hier gar nicht erst stehen.

Im übrigen bedeutet ein Einbruch in den fps nicht, das dieses sich schlimm auswirkt, schließlich hängt es davon ab, wie hoch die min-fps sind. Das scheinen einige Leute bei solchen Benchmarks nämlich gänzlich zu vergessen.Informier Du Dich erstmal - bist doch wohl derselbe "Gast", der meint, dass man mehr als 25fps ohnehin nicht sehen könnte, stimmt's? :rolleyes:

Mehr poste ich zu solch inkompetentem Kram nicht mehr.

Gast
2006-02-22, 22:51:05
Informier Du Dich erstmal

Ich brauche mich nicht informieren (ich arbeite übrigens in der Branche), weil ich es hier _sehe_. Ich weiß überhaupt nicht, was es darüber zu diskutieren gibt, es funktioniert und das ist das für mich alles entscheidende. Ein Ruckeln habe ich noch nie wahrgenommen, bin ich deshalb uninformiert? :rolleyes:

- bist doch wohl derselbe "Gast", der meint, dass man mehr als 25fps ohnehin nicht sehen könnte, stimmt's? :rolleyes:

Mit den Kommentaren habe ich absolut _nichts_ zu tun.

Mehr poste ich zu solch inkompetentem Kram nicht mehr.

Mir scheint, das da jemand nicht akzeptieren kann, das ich mit meiner CPU absolut zufrieden bin, obwohl sie nicht schnellste im Benchmark ist.

Avalox
2006-02-28, 15:20:12
Zu den 20% von Intel, sagt AMD nun etwas beleidigt,

"Das sagen die(Intel) nur, weil sie nicht über ihre aktuellen Produkte sprechen wollen, da jeder weiß, dass die nicht gerade gut sind."

http://news.zdnet.com/2100-9584_22-6041120.html?tag=nl

Muh-sagt-die-Kuh
2006-02-28, 15:43:58
Für CPU Benchmarks wäre ein konfigurierbarer "Null-Render-Modus" im Grafiktreiber nett. Also z.B. "mache garnichts", "führe alle API-Calls aus, verwerfe aber die Daten bevor sie an die Grafikkarte geschickt werden" oder "schicke die Daten an die Karte, jage sie durch die Geometriepipeline aber render sie nicht". So könnte man auch noch schön den Overhead der einzelnen Verarbeitungsstufen im Treiber messen ;)

Wuge
2006-02-28, 17:17:26
Dann kann ma auch gleich sinnlose Numbercrunching- oder Streaming-Tests laufen lassen die keinen Praxisbezug haben.

Avalox
2006-02-28, 17:29:14
Dann kann ma auch gleich sinnlose Numbercrunching- oder Streaming-Tests laufen lassen die keinen Praxisbezug haben.

Das ist doch Quatsch. Natürlich hat es einen Praxisbezug. Der Leistungsunterschied tritt nur differenzierter zum Vorschein. Lässt man das Grafikrendering auf der Grafikkarte mitlaufen, so hat man automatisch dessen Rendering Leistung mit im Benchmark. Am Zahlenwert, lässt sich aber nicht erkennen, welche Verzögerung nun durch eine CPU gebundene Aktion erfolgt ist und welche durch eine Grafikkartenverzögerung erfolgte.

Das Ausschalten des Grafikrenderings ist die einzige Möglichkeit objektive Ergebnisse zu erhalten.
Ohne Grafikausgabeverlangsamung durch den 3D "Beschleuniger".
Im Benchmark schaltet man doch auch andere Einflussgrössen ab. Eine ordentliche Soundbearbeitung z.B.. Warum lässt man also die Grafik eingeschaltet?

Eine umfassende Praxis Relevanz ist ein nicht erfüllbarer Anspruch. Nach einem Benchmark weißt du nur eines ganz genau, dass eben der Benchmark in einer Zeit X ausgeführt wurde. Der Rest ist Interpretation und dafür ist das Ausschalten von Störgrößen interessant. Z.Z. kommen mehrmals im Jahr schnellere Grafikkarten Generationen auf den Markt. Limitierungen werden weiter verschoben. Damit müsste man immer wieder aufs neue testen um eine CPU Leistung zu bestimmen. Völlig aussichtslos.

Ein Test ohne Grafikkarten Einfluss ist mehr als überfällig und sehr sinnvoll.

Gast
2006-02-28, 18:09:52
Für CPU Benchmarks wäre ein konfigurierbarer "Null-Render-Modus" im Grafiktreiber nett. Also z.B. "mache garnichts", "führe alle API-Calls aus, verwerfe aber die Daten bevor sie an die Grafikkarte geschickt werden" oder "schicke die Daten an die Karte, jage sie durch die Geometriepipeline aber render sie nicht". So könnte man auch noch schön den Overhead der einzelnen Verarbeitungsstufen im Treiber messen ;)

das kannst du mit DXTweaker und afiak auch mit 3danalyze machen.

Coda
2006-02-28, 18:29:52
Für CPU Benchmarks wäre ein konfigurierbarer "Null-Render-Modus" im Grafiktreiber nett. Also z.B. "mache garnichts", "führe alle API-Calls aus, verwerfe aber die Daten bevor sie an die Grafikkarte geschickt werden" oder "schicke die Daten an die Karte, jage sie durch die Geometriepipeline aber render sie nicht". So könnte man auch noch schön den Overhead der einzelnen Verarbeitungsstufen im Treiber messen ;)Dafür gibts schon Tools ;)

Wuge
2006-03-01, 21:13:53
Das ist doch Quatsch. Natürlich hat es einen Praxisbezug. Der Leistungsunterschied tritt nur differenzierter zum Vorschein. Lässt man das Grafikrendering auf der Grafikkarte mitlaufen, so hat man automatisch dessen Rendering Leistung mit im Benchmark. Am Zahlenwert, lässt sich aber nicht erkennen, welche Verzögerung nun durch eine CPU gebundene Aktion erfolgt ist und welche durch eine Grafikkartenverzögerung erfolgte.

Das Ausschalten des Grafikrenderings ist die einzige Möglichkeit objektive Ergebnisse zu erhalten.
Ohne Grafikausgabeverlangsamung durch den 3D "Beschleuniger".
Im Benchmark schaltet man doch auch andere Einflussgrössen ab. Eine ordentliche Soundbearbeitung z.B.. Warum lässt man also die Grafik eingeschaltet?

Eine umfassende Praxis Relevanz ist ein nicht erfüllbarer Anspruch. Nach einem Benchmark weißt du nur eines ganz genau, dass eben der Benchmark in einer Zeit X ausgeführt wurde. Der Rest ist Interpretation und dafür ist das Ausschalten von Störgrößen interessant. Z.Z. kommen mehrmals im Jahr schnellere Grafikkarten Generationen auf den Markt. Limitierungen werden weiter verschoben. Damit müsste man immer wieder aufs neue testen um eine CPU Leistung zu bestimmen. Völlig aussichtslos.

Ein Test ohne Grafikkarten Einfluss ist mehr als überfällig und sehr sinnvoll.

Nur was soll uns das Ergebnis dann sagen? Wie schnell die CPU in einem Einsatzgebiet ist, in dem sie nie benutzt wird?

Man könnte auch bewußt Benchmakrs schreiben die nur im Cache laufen um Einfluss des Hauptspeichers zu umgehen. Oder ein eigenes, besonders hardwarenahes Benchmark-OS.

Im Ergebnis weiß man dann genau wie schnell die getesteten CPUs theoretisch sind. In der Praxis kanns dann ganz anders aussehen.

sklave_gottes
2006-03-02, 01:20:40
Im Ergebnis weiß man dann genau wie schnell die getesteten CPUs theoretisch sind. In der Praxis kanns dann ganz anders aussehen.

Nee Tommy nicht wenn man im spieletest nur die auflösung ändert.
Wenn ein cpu bei 800x600 schneller ist.
Wird er es auch bei 1280x1024 sein!
Nur sieht man es bei 800x600 besser b.z.w. überhaupt.Weil die graka in der auflösung meistens nicht limitiert und dadurch das ergäbnis nicht verfälscht.

Avalox
2006-03-02, 01:23:01
Nur was soll uns das Ergebnis dann sagen? Wie schnell die CPU in einem Einsatzgebiet ist, in dem sie nie benutzt wird?
Man könnte auch bewußt Benchmakrs schreiben die nur im Cache laufen um Einfluss des Hauptspeichers zu umgehen.


In jedem Benchmark müssen Ergebnisse interpretiert werden. Niemand hat ein identisches System wie das getestete und vor allen arbeitet/spielt niemand Benchmarks. Auch ein Spielebenchmark ist letztendlich synthetisch.
Nur weil eine virtuelle Grafikkarte angenommen wird, die weniger stark bremst als üblich, ist der Test nicht ein anderes Einsatzgebiet. Das Ergebnis lässt konkrete Schlüsse zu.
Und natürlich gibt es Benchmarks, welche bestimmte Aspekte der CPU testen.


Im Ergebnis weiß man dann genau wie schnell die getesteten CPUs theoretisch sind. In der Praxis kanns dann ganz anders aussehen.

Wenn es dann anders aussieht, liegt es aber nicht an der CPU und vor allen einen Tag später kann dann die Praxis mit weniger stark bremsenden Grafikkarten auch wieder ganz anders aussehen.
Ein CPU Test ist ein CPU Test. Eine Grafikkarte ist immer eine starke Bremse. In einen CPU Test hat diese deshalb nichts verloren.

In einem System Test kann man diese mit testen. Dann natürlich bitte aber auch alle anderen Einflussgrößen. Vielleicht kommt dann raus, dass keine momentan verfügbare Grafikkarte in der Lage ist, die Vorteile einer neuen CPU umzusetzen. Aber dass ist dann mal wenigstens eine Erkenntnis und kein blindes umher gestocher, wie es heute oftmals getan wird.

BlackBirdSR
2006-03-03, 10:35:56
INQ spricht von 2800 Specint und 2500 Specfp für Conroe (wohl 2.67GHz)

Zum Vergleich: Ein 2.8GHz Opteron erreicht ca 2000 SpecInt und 2500 SpecFP
http://www.theinquirer.net/?article=30038

reunion
2006-03-03, 11:09:45
INQ spricht von Woodcrest, nicht von Conroe, daher wohl eher der 5160 mit 3Ghz und 1333 MHz FSB.

Im übrigen profitieren solchen Programme AFAIK sehr stark von großen Caches (siehe Itanium), wodurch Woodcrest hier einen starken Vorteil hat mit 4MB L2-Cache, der zB bei Spielen in dieser Form nicht vorhanden sein wird.

GloomY
2006-03-03, 13:54:45
INQ spricht von 2800 Specint und 2500 Specfp für Conroe (wohl 2.67GHz)

Zum Vergleich: Ein 2.8GHz Opteron erreicht ca 2000 SpecInt und 2500 SpecFP
http://www.theinquirer.net/?article=30038Holy Shit! Das wäre sehr beeindrucked, wenn das stimmen sollte. :)
INQ spricht von Woodcrest, nicht von Conroe, daher wohl eher der 5160 mit 3Ghz und 1333 MHz FSB.

Im übrigen profitieren solchen Programme AFAIK sehr stark von großen Caches (siehe Itanium), wodurch Woodcrest hier einen starken Vorteil hat mit 4MB L2-Cache, der zB bei Spielen in dieser Form nicht vorhanden sein wird.SpecInt profitiert eher weniger von viel Cache. Da ist der Itanium auch nicht sehr stark (Madison 9MiB, 1600 MHz: 1590 Punkte (http://www.aceshardware.com/SPECmine/index.jsp?b=0&s=1&v=4&if=0&a=0&a=1&a=2&a=3&a=4&a=5&ncf=1&nct=256&cpcf=1&cpct=4&mf=250&mt=3800&o=0&o=1&o=2)).

reunion
2006-03-03, 15:40:30
SpecInt profitiert eher weniger von viel Cache. Da ist der Itanium auch nicht sehr stark (Madison 9MiB, 1600 MHz: 1590 Punkte (http://www.aceshardware.com/SPECmine/index.jsp?b=0&s=1&v=4&if=0&a=0&a=1&a=2&a=3&a=4&a=5&ncf=1&nct=256&cpcf=1&cpct=4&mf=250&mt=3800&o=0&o=1&o=2)).

Okay, mein Fehler, das war dann wohl SpecFP. Und wie stark profitiert dieses Programm von Dual-Core-CPUs? Denn der dort getestete 2.8Ghz Opteron ist ja im Gegensatz zum Woodcrest nur eine Single-Core-CPU.

BlackBirdSR
2006-03-03, 15:51:03
Okay, mein Fehler, das war dann wohl SpecFP. Und wie stark profitiert dieses Programm von Dual-Core-CPUs? Denn der dort getestete 2.8Ghz Opteron ist ja im Gegensatz zum Woodcrest nur eine Single-Core-CPU.

Dafür gibt es SpecRate.
SpecInt und SpecFP nutzen nur einen Thread.

reunion
2006-03-03, 15:52:16
Okay, dann ist das Ergebnis sofern es stimmt wirklich beeindruckend.

BlackBirdSR
2006-03-03, 15:53:42
Okay, dann ist das Ergebnis sofern er stimmt wirklich beeindruckend.

Solange der 2. Core deaktiviert ist, und Intel mit dem ICC9.1 keine Tricks verwendet. Den 2. Core z.B spekulative Aufgaben erledigen lässt etc.

Selbst mit diesen Werten wissen wir ers dann wirklich mehr, wenn alles offen liegt.

GloomY
2006-03-03, 15:56:57
Okay, mein Fehler, das war dann wohl SpecFP. Und wie stark profitiert dieses Programm von Dual-Core-CPUs? Denn der dort getestete 2.8Ghz Opteron ist ja im Gegensatz zum Woodcrest nur eine Single-Core-CPU.In dem Benchmark (SPEC_int2000) gar nicht, weil dieser nicht multithreaded programmiert ist. Dafür gibt es aber Spec_int_rate2000, bei dem mehrere Instanzen von SPEC_int2000 laufen (siehe z.B. hier (http://www.aceshardware.com/SPECmine/index.jsp?b=1&s=1&v=4&if=0&a=0&a=1&a=2&a=3&a=4&a=5&ncf=1&nct=4&cpcf=1&cpct=4&mf=250&mt=3800&o=0&o=1&o=2).)

Übrigends ist das eine Benchmark-Suite, d.h. eine Sammlung von verschiedenen Programmen wie gcc, perl, gzip uvm.

reunion
2006-03-07, 22:20:50
Hier gibts jedemenge neues zu Conroe, und sogar erste Benchmarks von Intel:
http://www.anandtech.com/tradeshows/showdoc.aspx?i=2712
http://www.dailytech.com/article.aspx?newsid=1146

Die ersten Quad-Core-CPUs wurden ebenfalls gezeigt, auch wenn es sich im Grunde nur um zwei Dual-Core-Chips auf einem Package handelt.

Coda
2006-03-07, 22:26:38
Wenn das alles stimmt dann hat sich Intel wirklich zusammengerafft und endlich das getan was sie tun können. Sehr gut, endlich die fähigen Leute nicht an eine Marketing-Architektur verschwendet.

Die Leute hatten sicherlich endlich mal wieder Spaß bei der Arbeit anstatt an Crapburst zu basteln.

reunion
2006-03-07, 22:30:17
Jap, schön langsam bin ich auch davon überzeugt, dass Conroe eine Bombe wird. Immerhin waren das live-Benchmarks. Und so angriffslustig und von sich selbst überzeugt habe ich Intel auch schon lange nicht mehr gesehen.

chrisihamm
2006-03-07, 22:45:59
http://www.anandtech.com/tradeshows/showdoc.aspx?i=2713

Gast
2006-03-07, 22:46:38
Warum ist auf diesem Bild der Balken des Pentium-D bei Single-Thread-Anwendungen so viel größer als beim P4? Da wurde doch quasi nichts verändert, oder?

http://images.anandtech.com/reviews/tradeshows/2006/IDF/Keynote2/OOOperformance.jpg

VooDoo7mx
2006-03-07, 22:57:21
http://www.anandtech.com/tradeshows/showdoc.aspx?i=2713

Heilige scheise...

Der 2,66GHz Conroe rockt den auf 2,8GHz übertakteten FX-60 ja sowas von weg. Der Conroe hatte im übrigen DDR-II 667 @ 4-4-4-12
Nen 3,33GHz Conroe XE dürfte für AMD mindestens bis Mitte 2007 nicht zu schlagen sein.

Ich denke AMD sollte jetzt schonmal kräfzige Preissenkungen einplanen.

Aber very, very impressive Intel.

Hut ab.

Coda
2006-03-07, 22:59:16
Naja sind Benchmarks von Intel. So ganz extrem wird es in der Praxis wohl dann doch nicht aussehen denk ich mal.

Eigentlich sollte ich mal Patente durchstöbern die Intel in "letzter Zeit" eingereicht hat. Irgendwas muss die brachiale Integer-Leistung ja verursachen - das ist eigentlich unmöglich X-D

boxleitnerb
2006-03-07, 23:04:09
Selbst wenn die Benchmarks von Intel ausgesucht sind - ein derartiger Vorsprung...dabei wurde nichtmal der schnellste Speicher, geschweige denn der schnellste Conroe gebencht.
Sagen wir es so: Ich kann es mir langsam wieder vorstellen, einen Intel im Rechner zu haben. Könnte einen schönen Schub auf meinen alten 3500 Newcastle geben, besonders bei den richtigen Anwendungen.

MuLuNGuS
2006-03-07, 23:05:47
http://www.anandtech.com/tradeshows/showdoc.aspx?i=2713

definitiv ein heisses eisen im feuer!!!

Coda
2006-03-07, 23:05:48
Wie gesagt, fragt sich nur woher sie den Vorsprung beziehen. Das noch soviel ILP in x86-Code rauszufischen ist ausgehend vom K8 ist wirklich erstaunlich.

Ich bin noch ein wenig misstrauisch, verzeiht es mir bitte.

Gast
2006-03-07, 23:06:41
Naja...

Es sind weiterhin nichts weiter als Intel-Benchmarks von einem Produkt was noch für lange Zeit nicht zu kaufen geben wird.

Wenn im Handel erhältliche Prozessoren getestet werden können werden wir sehen wie es dann wirklich aussieht.

boxleitnerb
2006-03-07, 23:07:48
Mann, da kann man richtig anfangen zu schwärmen. Man stelle sich einen Conroe mit DDRII800 mit anständigen Timings auf 3,5+ Ghz vor :biggrin:

VooDoo7mx
2006-03-07, 23:09:59
Naja sind Benchmarks von Intel. So ganz extrem wird es in der Praxis wohl dann doch nicht aussehen denk ich mal.


Damit hast du nur teilweise Recht.

F.E.A.R. gets its own page for a couple of reasons:

1) It's the only gaming benchmark that we're using that doesn't use an Intel provided demo. This is the same demo we use in our tests.

2) The integrated test tool reports Min, Avg and Max results, and three graphs take up more room than one.


We ran with all of the effects settings at Maximum and the graphics settings at Highest defaults.

weiter:


If you had any doubts about the results on the previous page, this one should convince you. Even when running a non-Intel created demo, Conroe offers a 41% performance advantage over the 2.8GHz Athlon 64 X2.

41% Schneller in einer nicht von Intel ausgewählten Demo...das ist fast schon zu gut um war zu sein...

Selbst wenn ein 2,66GHz Conroe nur 5-10% schneller als ein 2,8GHz Dual Core K8 wäre, wär das schon sehr beeindruckend.

Aber diese Ergebnisse sind schier unglaublich...

boxleitnerb
2006-03-07, 23:23:49
Auf was wartet Intel eigentlich wenn der Conroe jetzt schon so gut ist?
Klar muss die Plattform stehen, evtl. optimiert werden, Ausbeute yada yada yada. Aber das gibt AMD doch nur Zeit selber was auf die Beine zu stellen, wobei man da mitnichten Wunder erwarten sollte.
Ist schon gemein so ein feines Stück Silizium zu sehen und dann auf die 3,3Ghz Version voraussichtlich bis 1Q 2007 warten zu müssen.

BlackBirdSR
2006-03-07, 23:29:48
Ich bin gespannt, wie man das gemacht hat.
Nur durch zusätzliche Macro/Micro Fusion wird das nicht klappen.
Auch zusätzliche ALUs bringen nicht eben mal 40% mehr Performance.

Zwei der großen Knackpunkte sind immernoch Cache/Speicherzugriffe und Load/Store.
Da gibt es viel zu holen. Bin gespannt auf Details.

Gandharva
2006-03-07, 23:30:55
As far as we could tell, there was nothing fishy going on with the benchmarks or the install. Both systems were clean and used the latest versions of all of the drivers (the ATI graphics driver was modified to recognize the Conroe CPU but that driver was loaded on both AMD and Intel systems).Alter Schwede! Das ist wirklich eindrucksvoll!

- a new 128-bit SSE optimization that will allow all SSE instructions to be completed in a single cycle

- macro-ops fusion takes multiple high level instructions, and combines them into a single instruction. For example a “compare” and “jump” instruction can be combined into a single operation

- shared L2 cache

fizzo
2006-03-07, 23:30:59
Ist schon gemein so ein feines Stück Silizium zu sehen und dann auf die 3,3Ghz Version voraussichtlich bis 1Q 2007 warten zu müssen.

muss nicht unbedingt sein:

http://pics.computerbase.de/news/13053/1.gif

das performance 2 segment muss ja auch besetzt werden :D

chrisihamm
2006-03-07, 23:32:43
Also an die Benches glaube ich nicht,da ich mit meinem Opti bei 2,8GHz und einer single X1900xt schon ziemlich nahe bei der min und avg frames komme!


mfg

http://www.picdrive.de/picture.php?action=view&id=VW5iZW5hbm50LkpQRzExNDE3NzA4NjQ=

VooDoo7mx
2006-03-07, 23:38:03
Was kann denn AMD noch großartig auf die Beine stellen?

AMD launcht sein K8 Stepping F mit dem Sockel AM2 im Juni. Der Conroe kommt im Juli.

AMD ist mit seiner 90nm Fertigung so ziemlich am Ende angelangt. Nicht umsonst bekommt der FX62 mit 2,8GHz ne TDP von 125W.
Abhilfe wird erst die 65nm Fertigung bringen, die aber erst Anfang 2007 startet. Außerdem steht dann immer noch offen, ob AMD den Takt schnell genug erhöhen kann, um mit Intel mitzuhalten.

Intel kann sich quasi zurücklehnen, noch nen paar Presler verkaufen, den Conroe mit nen guten Stepping zur Marktreife bringen, eine teure Werbekampagne dazu austüfteln und zum Launch im Juli mit vielen verfügbaren Prozessoren aufwarten.

Hamster
2006-03-07, 23:39:49
ach du heilige f**ensch**ße!! das ding ist ja mal der hammer.


und das beste:

E6700 2,67 GHz 4 MB 1066 MHz $529

vs.

AMD Athlon 64 FX-60 ~1010euro

dh: amd muß sein (jetziges) topmodell bis zum spätsommer um rund 60% senken, um konkurrenzfähig zu bleiben.


wahnsinn.....

dildo4u
2006-03-07, 23:41:21
Intel kann sich quasi zurücklehnen, noch nen paar Presler verkaufen, den Conroe mit nen guten Stepping zur Marktreife bringen, eine teure Werbekampagne dazu austüfteln und zum Launch im Juli mit vielen verfügbaren Prozessoren aufwarten.
Dank AMD müssen sie ja ein großteil der Kunden nicht mal mher überzeugen das Mhz nicht alles ist. :devil:

Avalox
2006-03-07, 23:41:35
Ist was bekannt von einer Dualcore Optimierung seitens ATIs CrossFire Treiber?

knallebumm
2006-03-07, 23:42:32
Ich dachte FEAR wäre extrem Graka limitiert????

boxleitnerb
2006-03-07, 23:42:35
Ja selbst wenn AMD noch etwas aufholt oder die Benchmarks frisiert wären - das gibt einen schönen Preiskampf, der seit Jahren nötig ist. Was AMD mit seinen Preisen abzieht ist nicht mehr schön. Ich finde es schon pervers 1000 Euro für eine CPU zu zahlen, bei 500 liegt meine Schmerzgrenze.

BlackBirdSR
2006-03-07, 23:43:33
Was kann denn AMD noch großartig auf die Beine stellen?



Mal ehrlich: Wenn Intel es auch in diesem Anlauf nicht gesachfft hätte, den K8 zu überflügeln, wäre das extrem peinlich gewesen.
Immerhin ist der jetzt auch schon ein paar Jahe alt. Die zugrunde liegende Architektur hat noch ein paar zusätzlich.
Das weiß auch AMD. Wohl deshalb hat man sich stark auf den Serverbereich konzentriert. Ich glaube nicht, dass Woodcrest dem Opteron dort ebenfalls so fatal zusetzen kann.

Von AMD erwartet man jetzt einen Gegenzug. Wird wohl noch eine Weile dauern.
Intels Vorteil liegt immernoch in der Masse der Teams und Gelder.
Neben der "Core"-Architektur läuft angeblich immernoch "Nehalem" im Hintegrund. Der eigentliche P4 Nachfolger.

reunion
2006-03-07, 23:44:30
Naja, Intel spricht selbst nur von 20% Performancevorteil im Vergleich zu AMD, und es sollte logisch sein, dass man hier eher zu viel denn zu wenig angibt. Dass der Conroe mit 2.67Ghz AMDs zukünftiges Topmodell derart wegbläst, glaube ich wirklich nicht. Immerhin sind die Benchs gezieht von Intel ausgewählt. Und auch die Rechner stammen von Intel. Aber die gezeigten Benchs sind natürlich mehr als beeindruckend.

dildo4u
2006-03-07, 23:44:59
Ich dachte FEAR wäre extrem Graka limitiert????
Mit zwei 1900XT und ohne AA und AF nicht ;)

Ganon
2006-03-07, 23:46:45
Hmm. Jetzt wundert es mich nicht mehr das Apple zu Intel gewechselt ist... :D

Aber die Benches sind schon fett.

Gandharva
2006-03-07, 23:49:55
Ist was bekannt von einer Dualcore Optimierung seitens ATIs CrossFire Treiber?Ja, angeblich hat diese (oder der Treiber allgemein) sogar einen Bug der die CPU Leistung schmälern soll mit gewissen Chipsätzen. Hab ich kürzlich bei Driverheaven aufgeschnappt.

Avalox
2006-03-07, 23:51:08
Was ich wirklich erstaunlich finde ist die Wahl auf eine X1900 XTs Crossfire Konfiguration für Intels Testumgebung.

Schön die Karten sind fix. Allerdings sind die Karten doch recht neu und bisher war Crossfire nicht so der Überflieger. Scheint nun behoben zu sein. Hat ATI vor sich hin gebastelt, oder haben sie mit Intel zusammen an eine Mehrkern optimierte Version gebastelt. Als Gegengewicht zu nVidias Treiber. Ein nVidia, welches ja historisch gute Kontakte zu AMD hat.

Tarkin
2006-03-07, 23:51:17
ich muss sagen ich bin hin und weg!

Hätte ich NIE gedacht, dass die neue Architektur so gut wird.

Die Leistungsunterschiede sind ja geradezu unglaublich - SENSATIONELL! (und das bei geringerem Takt und weniger Verlustleistung!).

Ich denke damit wird Intel die nächsten paar Jahre klar dominieren.

VooDoo7mx
2006-03-07, 23:51:25
Von AMD erwartet man jetzt einen Gegenzug. Wird wohl noch eine Weile dauern.
Intels Vorteil liegt immernoch in der Masse der Teams und Gelder.
Neben der "Core"-Architektur läuft angeblich immernoch "Nehalem" im Hintegrund. Der eigentliche P4 Nachfolger.

Wo hast du denn das wieder ausgegraben?

Nach steinalten pseudo-Roadmaps ist der Nehalem der Tejas Nachfolger, der auf Netburst basiert, irgendendwie IA-64 kann, Single Core ist und mit über 10GHz an den Start geht?

Ich persönlich glaube nicht, dass so eine CPU noch irgendwo existiert...

Was ich wirklich erstaunlich finde ist die Wahl auf eine X1900 XTs Crossfire Konfiguration für Intels Testumgebung.

Schön die Karten sind fix. Allerdings sind die Karten doch recht neu und bisher war Crossfire nicht so der Überflieger. Scheint nun behoben zu sein. Hat ATI vor sich hin gebastelt, oder haben sie mit Intel zusammen an eine Mehrkern optimierte Version gebastelt. Als Gegengewicht zu nVidias Treiber. Ein nVidia, welches ja historisch gute Kontakte zu AMD hat.

Ich galube das leigt zum Teil auch daran, dass der 975X auf dem der Conroe lief, nur für Crossfire frei gegeben ist. NV stellt sich in der Sicht ja quer.

reunion
2006-03-07, 23:53:23
Was ich wirklich erstaunlich finde ist die Wahl auf eine X1900 XTs Crossfire Konfiguration für Intels Testumgebung.

Schön die Karten sind fix. Allerdings sind die Karten doch recht neu und bisher war Crossfire nicht so der Überflieger. Scheint nun behoben zu sein. Hat ATI vor sich hin gebastelt, oder haben sie mit Intel zusammen an eine Mehrkern optimierte Version gebastelt. Als Gegengewicht zu nVidias Treiber. Ein nVidia, welches ja historisch gute Kontakte zu AMD hat.


ATis Dual-Core-Treiber profitieren wesentlich mehr von einem zweiten Kern als die von nV. nV hat da noch irgendwo einen Bug zu beheben. Aber das hatte in diesen Zusammenhang vermutlich wenig Einfluss auf die Wahl. Hier lautet die Devise wohl wer am meisten zahlt gewinnt. ;)

Gast
2006-03-07, 23:53:58
http://www.anandtech.com/tradeshows/showdoc.aspx?i=2713


wie kann der vorsprung in fear zustande kommen, das teil ist ja fast 100% grakalimitiert?

Gandharva
2006-03-07, 23:55:44
wie kann der vorsprung in fear zustande kommen, das teil ist ja fast 100% grakalimitiert?Bei 1280x1024 ohne AA & AF liegt das Bottleneck eindeutig auf Seite der CPU.

dildo4u
2006-03-07, 23:55:56
Naja, Intel spricht selbst nur von 20% Performancevorteil im Vergleich zu AMD, und es sollte logisch sein, dass man hier eher zu viel denn zu wenig angibt. Dass der Conroe mit 2.67Ghz AMDs zukünftiges Topmodell derart wegbläst, glaube ich wirklich nicht. Immerhin sind die Benchs gezieht von Intel ausgewählt. Und auch die Rechner stammen von Intel. Aber die gezeigten Benchs sind natürlich mehr als beeindruckend.
Naja 20% sind schon Glaubwürdig wenn man überlegt das der Conroe dank Smart Cache auf 4MB zurückgreifen kann auch wenn nur 1 Core Belastet wird bei AMD sinds ja nur 1MB Pro Core der 2MB wird gar nicht genutzt wenn ein Game nur auf einem Core Läuft FEAR ist so ein Fall.

chrisihamm
2006-03-07, 23:57:41
Die Benches sind Müll,daran glaube ich nicht.Ich komme ja mit meiner single Karte und dem Opti 2800 fast an die minimum und average frames.Da stimmt doch was nicht bei dem Test.Unabhängig ist immer beser!!!!!


mfg

reunion
2006-03-07, 23:59:55
Naja 20% sind schon Glaubwürdig wenn man überlegt das der Conroe dank Smart Cache auf 4MB zurückgreifen kann auch wenn nur 1 Core Belastet wird bei AMD sinds ja nur 1MB Pro Core der 2MB wird gar nicht genutzt wenn ein Game nur auf einem Core Läuft FEAR ist so ein Fall.


Die 20% könnte natürlich stimmen, aber diese Benchmarks zeigen nur geziehlt von Intel ausgewählte Extremsituationen auf. AMD könnte vermutlich ebenfalls Werte präsentieren, die genau das Gegenteil "beweisen".

Im übrigen sieht es so aus, dass der Vorsprung von Intel bei Verwendung von SMP sinkt. Hier scheint sich der halbierte Cache auszuwirken.

Die Benches sind Müll,daran glaube ich nicht.Ich komme ja mit meiner single Karte und dem Opti 2800 fast an die minimum und average frames.Da stimmt doch was nicht bei dem Test.Unabhängig ist immer beser!!!!!


mfg


Das kommt noch dazu, niemand weiß, ob Intel den AMD-Rechner wirklich fair behandelt hat.

Gandharva
2006-03-08, 00:04:21
Die 20% könnte ev. stimmen, aber diese Benchmarks zeigen nur geziehlt von Intel ausgewählte Extremsituationen auf.Der FEAR Bench war nicht von Intel ausgewählt und zeigt 40% Gewinn. Zudem wurde noch nicht einmal die XE Version getestet, welche Voraussichtlich um 3GHz + höheren FSB haben wird.

BlackBirdSR
2006-03-08, 00:04:38
Wo hast du denn das wieder ausgegraben?

Nach steinalten pseudo-Roadmaps ist der Nehalem der Tejas Nachfolger, der auf Netburst basiert, irgendendwie IA-64 kann, Single Core ist und mit über 10GHz an den Start geht?

Ich persönlich glaube nicht, dass so eine CPU noch irgendwo existiert...


Nehalem wurde als 8x86 gehandelt. Also direkter Nachfolger der Netburst-Architektur.
Es dürfte klar sein, dass Nehalem heute nicht mehr das ist, was Nehalem zur Zeit von Northwood war. Aber das spielt keine große Rolle.
Es gab ein Designteam, welches an einer Nexgen-CPU arbeitete, die nun verschoben wurde. Stattdessen hat man Israel daran gesetzt den P4 zu beerben.
Ich glaube nicht, dass dieses Designteam ohne Arbeit bleibt. Man wird sich eben zu Beginn der Designphase von "Core" Gedanken gemacht haben, wie man diesen beerben kann. Und auf das könnte Nehalem hinauslaufen.

Der springende Punkt ist: Intel hat wahrscheinlich schon den Nachfolger von "Core" im Auge. Bei AMD bin ich mir nach den letzten Gerüchten über K9 und K10 nicht so sicher,.

dildo4u
2006-03-08, 00:04:43
Die Benches sind Müll,daran glaube ich nicht.Ich komme ja mit meiner single Karte und dem Opti 2800 fast an die minimum und average frames.Da stimmt doch was nicht bei dem Test.Unabhängig ist immer beser!!!!!


mfg
Guck lieber nochmal nach ob du auch wirklich in 1280*1024 gebencht hast bei den Meisten auch auf einem 19 TFT mit Maximal Auflösung 1280*1024 bietet Fear nur 1280*960 an.

Gast
2006-03-08, 00:07:57
Guck lieber nochmal nach ob du auch wirklich in 1280*1024 gebencht hast bei den Meisten auch auf einem 19 TFT mit Maximal Auflösung 1280*1024 bietet Fear nur 1280*960 an.Man kann ohne Probleme 1280x1024 fahren, wenn man weiß wie...

reunion
2006-03-08, 00:08:42
Mal ehrlich: Wenn Intel es auch in diesem Anlauf nicht gesachfft hätte, den K8 zu überflügeln, wäre das extrem peinlich gewesen.
Immerhin ist der jetzt auch schon ein paar Jahe alt. Die zugrunde liegende Architektur hat noch ein paar zusätzlich.


ACK, Conroe dürfte es locker auf die doppelte Transistorenanzahl im Vergleich zum K8 bringen. Hinzu kommen noch die weiteren Vorteile durch die 65nm-Fertigung, sowie die brachialen Ressourcen, welche Intel zur Verfügung hat. Alles andere wäre extrem peinlich.

BlackBirdSR
2006-03-08, 00:10:16
ACK, Conroe dürfte es locker auf die doppelte Transistorenanzahl im Vergleich zum K8 bringen. Hinzu kommen noch die weiteren Vorteile durch die 65nm-Fertigung, sowie die brachialen Ressourcen, welche Intel zur Verfügung hat. Alles andere wäre extrem peinlich.

Bin auf die Anzhal der Transistoren der Kerne selbst gespannt.
Wäre interessant, ob Intel den K8 auch dort unterbieten könnte.
Hängt wohl davon ab, wieviel vom PM übernommen wurde.

dildo4u
2006-03-08, 00:13:12
ACK, Conroe dürfte es locker auf die doppelte Transistorenanzahl im Vergleich zum K8 bringen. Hinzu kommen noch die weiteren Vorteile durch die 65nm-Fertigung, sowie die brachialen Ressourcen, welche Intel zur Verfügung hat. Alles andere wäre extrem peinlich.
Ebend viel spannender als die Frage wie viel schneller Intel sein wird ist doch wie lange sie den Takt mit dieser Architekur steigern können also ob sie wirklich auch für die nästen 5-6 Jahre ausgelegt ist oder ob man nur endlich etwas bringen wollte um AMD Kurzfristig zu übertrumpfen.

chrisihamm
2006-03-08, 00:13:25
Also ich weiß schon wie ich 1280x1024 einstelle und diese Auflösung war definitiv eingestellt,kann ja auch mit 1280x960 benchen ,nur dann werden es noch mehr minimum und average frames und das zeigt,das bei den Benches irgendetwas nicht hinhaut.


mfg

dildo4u
2006-03-08, 00:18:06
Also ich weiß schon wie ich 1280x1024 einstelle und diese Auflösung war definitiv eingestellt,kann ja auch mit 1280x960 benchen ,nur dann werden es noch mehr minimum und average frames und das zeigt,das bei den Benches irgendetwas nicht hinhaut.


mfg
Also 132FPS bei 1280*1024 sind alles andere als zu niedrig ich nemhe dir nicht wirklich ab das du mit einer Singel karte über 100fps hast mit allen Details also auch Soft Shadows.

Gandharva
2006-03-08, 00:19:32
Sieht schick aus:
http://img52.imageshack.us/img52/4414/conroedie9ay.jpg

reunion
2006-03-08, 00:23:03
Unglaublich, wie eng Intel 4MB Cache packen kann. Allerdings scheint auch die Logik im Vergleich zu Yonah deutlich zugenommen zu haben.

Hier mal Yonah als Vergleich:

http://www.golem.de/0506/38490-yonah-die.jpg

Wenn Intel die Packungsdichte des Caches beim Conroe nicht erhöht hat, kann man am Cache die Propotionen schön erkennen, wobei Yonah freilich nur einen halb so großen Cache wie Conroe besitzt.

reunion
2006-03-08, 00:30:46
Was kann denn AMD noch großartig auf die Beine stellen?

AMD launcht sein K8 Stepping F mit dem Sockel AM2 im Juni. Der Conroe kommt im Juli.

AMD ist mit seiner 90nm Fertigung so ziemlich am Ende angelangt. Nicht umsonst bekommt der FX62 mit 2,8GHz ne TDP von 125W.
Abhilfe wird erst die 65nm Fertigung bringen, die aber erst Anfang 2007 startet. Außerdem steht dann immer noch offen, ob AMD den Takt schnell genug erhöhen kann, um mit Intel mitzuhalten.

Intel kann sich quasi zurücklehnen, noch nen paar Presler verkaufen, den Conroe mit nen guten Stepping zur Marktreife bringen, eine teure Werbekampagne dazu austüfteln und zum Launch im Juli mit vielen verfügbaren Prozessoren aufwarten.

Und das Monopol geht weiter...

chrisihamm
2006-03-08, 00:39:12
Also 132FPS bei 1280*1024 sind alles andere als zu niedrig ich nemhe dir nicht wirklich ab das du mit einer Singel karte über 100fps hast mit allen Details also auch Soft Shadows.



Mit SoftShadows würde es wieder Grafiklimitierend sein,wenn man keine Ahnung hat einfach mal den Schnabel halten. ;D

mfg

turboschlumpf
2006-03-08, 03:04:27
Im übrigen sieht es so aus, dass der Vorsprung von Intel bei Verwendung von SMP sinkt. Hier scheint sich der halbierte Cache auszuwirken.Falsch formuliert. Die CPU verliert bei aktiviertem SMP durch den Smart Cache nicht an Performance, sondern gewinnt bei deaktiviertem SMP durch den Smart Cache Performance hinzu.

up¦²
2006-03-08, 05:24:02
http://www.hardspell.com/pic/2006/3/8/3d804fa2-67d2-4375-96fb-52aaeead4ede.jpg

http://www.hardspell.com/pic/2006/3/8/81ed96c2-94db-4e2a-99c9-8d05da8ddce9.jpg

http://www.hardspell.com/pic/2006/3/8/aa42d70f-e6b3-4531-97c8-8d00b7c214234501200.jpg

http://www.hardspell.com/pic/2006/3/8/7351f25c-1e72-4192-97da-cc2b2abf25bc4501200.jpg

http://www.hardspell.com/pic/2006/3/8/1c42f05e-42f6-492b-b425-957a73c4b9354501200.jpg

http://www.hardspell.com/pic/2006/3/8/5935953a-6090-4e4d-aab4-9d1994cced9f4501200.jpg

AMD平台:

Athlon 64 FX-60超频至2.8GHz
DFI RD480
1GB DDR400,时序: 2-2-2/1T
Intel平台:

Conroe 频率:2.66GHz (1067MHz FSB)
Intel 975X 主板
DDR2-667 时序:4-4-4
两套系统都使用Radeon X1900 XT

http://www.hardspell.com/pic/2006/3/8/6e6d7811-039e-4927-8919-813c9a9e92c74501200.jpg

http://www.hardspell.com/pic/2006/3/8/92554e86-a6a6-4b32-89e4-dfa8dec390114501200.jpg

mehr hier:
http://www.hardspell.com/news/showcont.asp?news_id=22861&pageid=7278

Gast
2006-03-08, 05:50:38
Warum ist der Pentium-D auf dem ersten Bild bei Single-Threaded-Anwendungen so viel schneller als der Pentium 4? Leuchtet mir irgendwie nicht ein.

BlackBirdSR
2006-03-08, 09:19:42
Warum ist der Pentium-D auf dem ersten Bild bei Single-Threaded-Anwendungen so viel schneller als der Pentium 4? Leuchtet mir irgendwie nicht ein.

Weil der Pentium-4 bei inführung nur 1,3GHz hatte, der P-D aber 2.8GHz (+neuere Compiler)

@Hardspell: Sie haben nur die Bilder von Anandtech kopiert.

Undertaker
2006-03-08, 10:55:37
Bei 1280x1024 ohne AA & AF liegt das Bottleneck eindeutig auf Seite der CPU.

falsch

http://www.computerbase.de/artikel/hardware/grafikkarten/2006/test_ati_radeon_x1900_xtx_x1900_cf-edition/20/#abschnitt_fear

Gandharva
2006-03-08, 11:32:58
http://img78.imageshack.us/img78/3599/conroe3kd.jpg

BlackBirdSR
2006-03-08, 11:39:23
Ebend viel spannender als die Frage wie viel schneller Intel sein wird ist doch wie lange sie den Takt mit dieser Architekur steigern können also ob sie wirklich auch für die nästen 5-6 Jahre ausgelegt ist oder ob man nur endlich etwas bringen wollte um AMD Kurzfristig zu übertrumpfen.

Viel mehr als 4GHz würde ich jetzt nicht wirklich erwarten. Wenn überhaupt.
Dann schon eher in Richtung quad/octa-Core.

Ich glaube mit traditionellen Materialien und Fertigungsschritten wird es beim takt erstmal keine größeren Sprünge mehr geben.
Kann schon gut sein, dass wir uns dann plötzlich irgendwann wieder steil in Richtung 10GHz+ wieder finden.
Dann mag eine Netburst ähnliche Architektur wieder Sinn machen.

BlackBirdSR
2006-03-08, 11:42:24
http://img78.imageshack.us/img78/3599/conroe3kd.jpg

Ich würde noch nicht viel auf das Diagramm geben.
Über Nacht wurde das PDF verändert, und eine der 3 ALUs entfernt.
Momentan ist das Dokument dazu nicht erreichbar.
Also schön abwarten, heute Abend gibt es mehr dazu.

Gandharva
2006-03-08, 11:45:53
Ich würde noch nicht viel auf das Diagramm geben.
Über Nacht wurde das PDF verändert, und eine der 3 ALUs entfernt.
Momentan ist das Dokument dazu nicht erreichbar.
Also schön abwarten, heute Abend gibt es mehr dazu.Gut zu wissen. :) Habs hier nur mal reingestellt weil es im Forum noch nirgends verlinkt war.

chrisihamm
2006-03-08, 11:51:58
Die Benches sind trotzdem sehr merkwürdig für den FX-60 bei 2,8GHZ,habe selbst jetzt mal Half Life Lost Cost bei 1280x1024 gebencht und komme bei 2,8Ghz auf 151fps!Ich glaube denen nicht ,was die dort gebencht haben!!!! :eek:



http://www.picdrive.de/picture.php?action=view&id=QXVmbPZzdW5nLkpQRzExNDE4MTUxMjE=


http://www.picdrive.de/picture.php?action=view&id=RXJnZWJuaXMuSlBHMTE0MTgxNTE5NQ==

mfg

reunion
2006-03-08, 12:02:51
Die Benches sind trotzdem sehr merkwürdig für den FX-60 bei 2,8GHZ,habe selbst jetzt mal Half Life Lost Cost bei 1280x1024 gebencht und komme bei 2,8Ghz auf 151fps!Ich glaube denen nicht ,was die dort gebencht haben!!!! :eek:



http://www.picdrive.de/picture.php?action=view&id=QXVmbPZzdW5nLkpQRzExNDE4MTUxMjE=


http://www.picdrive.de/picture.php?action=view&id=RXJnZWJuaXMuSlBHMTE0MTgxNTE5NQ==

mfg

Abwarten und Tee drinken. Es gab in der Vergangenheit schon unzählige, von einem Hersteller initiierte Vorabbenchmarks, welche sich im nachhinein als falsch erwiesen haben. Wer weiß, was Intel da gedreht hat, wer brauchbare Ergebnisse will, muss auf unabhängige Benchmarks warten.

Allerdings wurden bei dem Test - sofern ich diesen richtig aufgefasst habe - Demos von Intel gewählt, du kannst deine Ergebnisse also nicht direkt mit denen Vergleichen.

DiGiTaL
2006-03-08, 12:32:45
Die Benches sind trotzdem sehr merkwürdig für den FX-60 bei 2,8GHZ,habe selbst jetzt mal Half Life Lost Cost bei 1280x1024 gebencht und komme bei 2,8Ghz auf 151fps!Ich glaube denen nicht ,was die dort gebencht haben!!!! :eek:



http://www.picdrive.de/picture.php?action=view&id=QXVmbPZzdW5nLkpQRzExNDE4MTUxMjE=


http://www.picdrive.de/picture.php?action=view&id=RXJnZWJuaXMuSlBHMTE0MTgxNTE5NQ==

mfg

Bei was für einem System?

chrisihamm
2006-03-08, 13:52:17
Bei was für einem System?


Opteron 170 2,8GHZ ,ATI X1900XTX original Takt, 2GB RAM DDR 400 CL2-2-2-5!


mfg

Undertaker
2006-03-08, 13:54:20
nur mal rein interessehalber, 2x1024mb oder 4x512mb? falls ersteres, welcher ram ist das?

Merkor
2006-03-08, 14:00:03
Die haben bei Anandtech mit X1900XT Crossfire getestet. Könnte es nicht sein, dass die Stellen dann CPU-limitiert sind?

Ich traue dem Frieden nicht so ganz. Wäre ja zu schön um wahr zu sein. Selbst die Jungs von Anandtech haben auf den ersten Blick keine Pferdefüße an den Testsystemen gefunden...

Gast
2006-03-08, 14:13:29
Die haben bei Anandtech mit X1900XT Crossfire getestet. Könnte es nicht sein, dass die Stellen dann CPU-limitiert sind?

Ich traue dem Frieden nicht so ganz. Wäre ja zu schön um wahr zu sein. Selbst die Jungs von Anandtech haben auf den ersten Blick keine Pferdefüße an den Testsystemen gefunden...

Vielleicht ist CF bei der Geschichte der Knackpunkt. Die hätten besser eine XTX gebenched.

Pappy
2006-03-08, 15:29:46
Ich weiß nicht was ich von den Benches halten soll. Aber es lag auf der Hand, dass Intel sich nicht über ein halbes Jahrzehent von AMD vorführen lässt. "The Empire strikes back" und wen wundert es wirklich. Wobei mich dieser riesige Performanceschritt wundert. Wirklich Ausschlaggebend ist allerdings wieviel Geld AMD im Serverbereich verdienen kann. Dort rollt der Rubel mit dem die Ressourcen für die Weiterentwicklung verdient werden. Es würde niemanden stören, wenn nun Intel über einen absehbaren Zeitraum im Desktopbereich wieder vorne ist. Die Frage ist nur: Womit wird AMD bei seiner NextGen- Architektur kontern? Die Kohlen des K7 sind verfeuert. Der K8 war nie etwas anderes als ein optimierter K7 mit integriertem Speicherinterface und frisiertem Fertigungsprozess. Dass man nichts bzw. kaum Gutes über den K9 hört, finde ich besorgniseregender.

up¦²
2006-03-08, 15:56:26
Justin Rattner: 5 neue 'features'

Intel Wide Dynamic Execution
Intel Advanced Digital Media Boost
Intel Advanced Smart Cache
Intel Smart Memory Access
Intel Intelligent Power Capability

http://www.hardspell.com/pic/2006/3/8/5d20ed7c-2c10-4de2-b84e-9a501c83dc0a4501200.jpg

http://www.hardspell.com/pic/2006/3/8/7ebf6ebc-6751-48e1-a3f3-e75ac1070d394501200.jpg

Intel advanced digital media boost! 128bit :eek:

http://www.hardspell.com/pic/2006/3/8/42d82d8a-654f-4744-a6b3-395f0d959d3c4501200.jpg

http://www.hardspell.com/pic/2006/3/8/7f6f794a-dece-4777-86f0-97a45d14171a4501200.jpg


==> Pulldown page 1-5 :wink:
http://www.hardspell.com/news/showcont.asp?news_id=22867&pageid=7279

up¦²
2006-03-08, 16:04:47
Nebenbei:
Merom/Santa Rosa mobile 1H 07 :eek:

http://www.hardspell.com/pic/2006/3/8/045c0076-4871-4f0f-a226-4d6d3714a5974501200.jpg

http://www.hardspell.com/pic/2006/3/8/e5c6ad39-0554-49ea-8508-0ce5f9190ea04501200.jpg

http://www.hardspell.com/pic/2006/3/8/618ab861-195d-4814-8be4-a6f1f2cb94694501200.jpg

http://www.hardspell.com/news/showcont.asp?news_id=22877

Gast
2006-03-08, 16:08:48
Entschuldigt bitte falls das schon jemand gefragt hat aber sind das jetzt reine 32 BIT CPUS oder 32/64 BIT HYBRIDE wie der Athlon 64 und die neuesten Pentium 4 cpus?

Gandharva
2006-03-08, 16:08:55
Und jetzt bitte noch alle Bilder von Woodcrest, da wir alle nicht in der Lage sind auf bereits gepostete Links zu klicken. ;)

BlackBirdSR
2006-03-08, 16:19:43
Entschuldigt bitte falls das schon jemand gefragt hat aber sind das jetzt reine 32 BIT CPUS oder 32/64 BIT HYBRIDE wie der Athlon 64 und die neuesten Pentium 4 cpus?

Das sind reine 64Bit CPUs, die in einen 32Bit und 32Bit Compatibilitätsmodus schalten können.

Coda
2006-03-08, 16:24:16
Was BlackBirdSR damit sagen will: Auch der A64 ist eine "reine" 64bit CPU.

up¦²
2006-03-08, 16:44:29
http://www.hkepc.com/bbs/attachments_dir/ext_jpg/4core_oCezrK6zmTB9.jpg

http://www.hkepc.com/bbs/attachments_dir/ext_jpg/manycore_eK8FwRU5MYcu.jpg

"The next leap is our focus" Gigascale Interration :wink:

BlackBirdSR
2006-03-08, 16:50:59
Was BlackBirdSR damit sagen will: Auch der A64 ist eine "reine" 64bit CPU.

Danke :smile:
Hab mal wieder zu wenig nachgedacht.