Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD 2800+ und nForce2 Review !!
Unregistered
2002-10-01, 15:42:04
http://www.tech-report.com/reviews/2002q4/athlonxp-2800/index.x?pg=1
ziemlich gut gelungen. Was mir aber völlig missfällt ist die Verfügbarkeit der neuen AMD-CPU's :(
Unregistered
2002-10-01, 15:49:06
http://www.aceshardware.com/read.jsp?id=50000304
too...
Richthofen
2002-10-01, 17:32:41
www.hardocp.com
www.amdmb.com
www.anandtech.com
www.tomshardware.de
usw.. :)
Birdman
2002-10-01, 19:16:08
ui, die VIA Fraktion wird stellenweise ja brutals vernichtet ;)
http://www.hardocp.com/images/articles/1033441653IhlYJefJEj_3_3.gif
Jetzt weiss ich warum ich auf den nForce2 gewartet hab ;)
um bei 640x480 zu Spielen ?
Muh-sagt-die-Kuh
2002-10-01, 19:38:53
Wobei die Frage bleibt, ob die retail NForce2 Boards genausoschnell sind wie der ziemlich instabile Prototyp bei Ace´s Hardware ;)
Der Speicherkontroller von dem Chipsatz ist dem des KT333 auf jeden Fall überlegen.
Unregistered
2002-10-01, 19:50:40
viele Tester hatten aber schon das Asus A7N8x
Richthofen
2002-10-01, 19:51:51
Und ja VIA wird vernichtet wie es sein muss.
Auf der Feature Seite hat VIA ohnehin nix zu bieten.
Ich hab ja schon ne nForce 1 der wunderbar FSB 166 abkann. VOn daher brauch ich nit zwingend umsteigen aber wer neu kauft, der sollte den NForce2 mit in die Überlegungen einbeziehen.
Originally posted by Unregistered
viele Tester hatten aber schon das Asus A7N8x
Das auch nicht Final war und auch instabilitäten zeigte.
So wie es jetzt aussieht sind KT333 und nforce von der Performance her fast gleich. Ich muss sagen der Netzwerkkontroller sieht auch gut aus.
Müssen die nur noch dafür sorgen, das ein stabiles MB zu nem annehmbaren Preis und compatible mit Radeon 9700 plus auf dem Markt kommt.
Und dann bitte nicht erst, wenn der XP 2800+ auf dem Markt kommt;D
Unregistered
2002-10-01, 21:10:30
hm also in den Tests die ich gelesen habe lag der nForce2 sowohl vorm KT400 als auch KT333.
wird nforce2 auch wieder teurer als VIA sein?
Originally posted by AV
um bei 640x480 zu Spielen ?
Ne um meinen in die Jahre gekommenen Via KT133 zu ersetzen.
Außerdem falls ich dich erinnern darf, sind immernoch viele games CPU limitiert. Ich denk da nur UT2k3, Commanche4...
Darfst dann aber noch ein bischen länger warten, da alle getesteten Boards noch schwer Beta waren.
Birdman
2002-10-01, 21:49:28
Originally posted by Pirx
wird nforce2 auch wieder teurer als VIA sein?
klar, aber dafür kriegste auch was für's Geld ;)
- Super OnboardSound (mit mittlerweile auch guten treibern)
- Super OnboardGrafik
- Vernünftige Netzwerkarte (bzw. unter windows sehr gut, aber leider sieht der native support für dieses ding sehr traurig aus...exotische Betriebssysteme und Programme kennen und unterstützen diesen NIC einfach nicht
Imho für home rechner excellent geeignet und hervorragend im preis.
Der NForce ist erwachsen geworden ;) ich muss sagen, ich bin beeindruckt :)
Das kann sich ur positiv auf AMD auswirken ;) schön dass NV diesen mutigen Schritt gegangen ist und der Konkurrenzkampf im Chipsatzmarkt wieder aufflammt :D
Muh-sagt-die-Kuh
2002-10-02, 02:28:28
Originally posted by Pirx
wird nforce2 auch wieder teurer als VIA sein? Interessant dürfte nur der Preisvergleich NForce2-S/ST gegen VIA werden, die anderen Varianten sind nicht unbedingt im gleichen Marktsegment wie VIA anzusiedeln.
Eusti
2002-10-02, 07:27:03
Originally posted by Birdman
klar, aber dafür kriegste auch was für's Geld ;)
- Super OnboardSound (mit mittlerweile auch guten treibern)
- Super OnboardGrafik
- Vernünftige Netzwerkarte (bzw. unter windows sehr gut, aber leider sieht der native support für dieses ding sehr traurig aus...exotische Betriebssysteme und Programme kennen und unterstützen diesen NIC einfach nicht
Imho für home rechner excellent geeignet und hervorragend im preis. Es gibt keine Super OnboardGrafik. Du bekommst mit dem NForce zwar die beste OnboardGrafik, aber diese ist trotzdem nur ausreichend bis mangelhaft.
Wer kauft sollte eine grafiklose Variante des Chips wählen und sich eine gescheite Grafikkarte einbauen (die kann man zudem alle 12 Monate wechseln).
(del676)
2002-10-02, 07:36:10
Originally posted by Birdman
klar, aber dafür kriegste auch was für's Geld ;)
- Super OnboardSound (mit mittlerweile auch guten treibern)
- Super OnboardGrafik
- Vernünftige Netzwerkarte (bzw. unter windows sehr gut, aber leider sieht der native support für dieses ding sehr traurig aus...exotische Betriebssysteme und Programme kennen und unterstützen diesen NIC einfach nicht
Imho für home rechner excellent geeignet und hervorragend im preis.
<- hab eine Audigy
<- hab eine TI4600
<- hab eine Intel Gigabit Karte
gibts wenigstens eine Version ohne onboard Grafik und Netzwerk? - wenn nicht ist das für mich schon gestorben
BlackBirdSR
2002-10-02, 08:46:37
Originally posted by Ulukay
<- hab eine Audigy
<- hab eine TI4600
<- hab eine Intel Gigabit Karte
gibts wenigstens eine Version ohne onboard Grafik und Netzwerk? - wenn nicht ist das für mich schon gestorben
das war jetzt wieder nötig ;)
Ich hätte ja beinahe deine Hardware vergessen *g*
Natürlich gibt es auch billigere Versionen des Nforce ohne Sound und Grafik, eventuell sogar Netzwerk.
Extra für die Leute die diese Sachen schon haben.
Ich frag mich nur was an weniger Features besser sein soll :D Der Preis bestimmt net bem NForce2 ;)
Richthofen
2002-10-02, 11:27:45
der wird dann halt billiger sein.
Damit eine große Marktdurchdringung erreicht wird hat Nvidia diesmal das System ja recht modular gestaltet.
Also 2 Norhtbridges und 3 mögliche Southbridges.
Also wenn mich mein Mathe nicht verlassen hat 2*3 Kombinationsmöglichkeiten.
Dementsprechend wirds auch unterschiedliche Preise geben, zumal diesmal noch ein 2. Faktor hinzu kommt.
Beim ersten nForce gabs nur 3 Hersteller + Leadtek die später hinzukamen.
Diesmal sind es mehr als Doppelt so viele und darunter auch typische Billiganbieter.
Allein das wird den Preis schon abstufen.
Will sagen, bei Epox wird man wahrscheinlich deutlich weniger zahlen als bei Asus.
Naja und letztlich den gleichen Preis wie VIA muss es ja auch nit haben.
Qualität hat seinen Preis und Aufpreis ist da schon gerechtfertigt.
Wir wollen ja hier nicht Nvidia mit ALI, VIA und SIS auf eine Stufe stellen :)
Intel kostet auch mehr als SIS.
Originally posted by Richthofen
Qualität hat seinen Preis und Aufpreis ist da schon gerechtfertigt.
Wir wollen ja hier nicht Nvidia mit ALI, VIA und SIS auf eine Stufe stellen :)
Dann muss das Teil auch stabil sein und den Aufpreis rechtfertigen.
Und bei mir stehen VIA nVidia ATi AMD und Intel auf einer Stufe :). Qualitatief scheint der KT333 zur Zeit doch ausgereifter als der nforce2 zu sein.
StefanV
2002-10-02, 14:02:46
Originally posted by AV
Dann muss das Teil auch stabil sein und den Aufpreis rechtfertigen.
Und bei mir stehen VIA nVidia ATi AMD und Intel auf einer Stufe :). Qualitatief scheint der KT333 zur Zeit doch ausgereifter als der nforce2 zu sein.
Dem kann ich nix hinzufügen :)
VIA hat ja auch 'nur' den an sich schon recht guten KT266 auch 'nur' immer weiter Verbessert...
wenn man es so sieht, dann ist der KT333 ein KT266B...
Auch die 8235 SB ist eine Weiterentwicklung der schon brauchbaren 8233 SB...
Madkiller
2002-10-02, 14:37:44
Originally posted by AV
Dann muss das Teil auch stabil sein und den Aufpreis rechtfertigen.
Und bei mir stehen VIA nVidia ATi AMD und Intel auf einer Stufe :). Qualitatief scheint der KT333 zur Zeit doch ausgereifter als der nforce2 zu sein.
Naja, ein Board mit nForce 2 Chipsatz ist ja auch noch nicht released worden... mal schauen wie gut das Board ist, wenn es auch erhältlich ist. Wenigstens wird es (wahrscheinlich) keine A -Version geben wie bei VIA.
StefanV
2002-10-02, 14:43:10
Originally posted by Madkiller
Naja, ein Board mit nForce 2 Chipsatz ist ja auch noch nicht released worden... mal schauen wie gut das Board ist, wenn es auch erhältlich ist. Wenigstens wird es (wahrscheinlich) keine A -Version geben wie bei VIA.
Nur sollte es solangsam bei jedem rumgesprochen haben, daß es eine A Variante geben könnte, oder?? :)
Madkiller
2002-10-02, 14:48:04
Langweilig? :)
Ich wollte damit nur sagen, daß nVidia wahrscheinlich keine A-Version haben wird, nicht das VIA eine haben wird...
Ich persönlich finde es halt besser, wenn die erste Version auch die Final ist.
StefanV
2002-10-02, 14:54:22
Originally posted by Madkiller
Langweilig? :)
Ich wollte damit nur sagen, daß nVidia wahrscheinlich keine A-Version haben wird, nicht das VIA eine haben wird...
Ich persönlich finde es halt besser, wenn die erste Version auch die Final ist.
Wo ist der unterschied??
Ich sehe auch den Vorteil nicht wirklich...
Wenn der KT400 ca. 3 Monate auf dem Markt ist, bevor sie durch den KT400A abgelöst ist, dann ist VIAs Rechnung auf gegangen...
Bei VIA ist auch die erste Version Final, nur wird die erste meist in kurzer zeit nochmal verbessert...
Meinereiner wartet lieber auf den KT400 und urteilt dann...
PS: wie ist die Performance vom KT400 eigentlich mit nur einem Riegel DDR333 RAM??
Besser oder schlechter als KT333??
Madkiller
2002-10-02, 15:02:33
Unterschied insofern, daß das nicht als direkte Anspielung auf VIA gemeint war. Egal...
AFAIK genausoschnell, aber das ASUS A7V8X soll sogar schneller wie das Epox mit KT 333 sein.
Richthofen
2002-10-02, 15:21:31
hehe ja das Asus A7N8x hat das beste KT333 Board zerrissen :)
Um die Qualität des nForce2 mach ich mir keine Sorgen.
Da flutschte der nForce1 schon prächtig. Da müsste Nvidia schon ne Menge vermurksen um auf VIA Niveau zu landen :)
Exxtreme
2002-10-02, 15:44:59
Originally posted by Richthofen
Da müsste Nvidia schon ne Menge vermurksen um auf VIA Niveau zu landen :)
Also ich weiss echt nicht was die Leute gegen VIA haben. Mein ASUS A7V133 flutscht immer noch sehr gut und läuft sehr stabil. Das Board wird bald 2 Jahre alt aber meine neue R9700 hat das Board ohne Probleme angenommen. Ein Board mit dem nForce2 werde ich mir wahrscheinlich als nächstes trotzdem holen. Der OnBoard-Sound soll nämlich im 3D-HW-Modus praktisch keine CPU-Leistung fressen. Bei meiner jetztigen SB Live! Player 5.1 brechen die Frameraten bei UT2003 um ca. 40% ein wenn ich 3D-HW-Sound aktiviere. Ob es an der Soundkarte oder am Soundkarten-Treiber liegt, weiss ich nicht. Auf jeden Fall nie wieder eine Creative-Soundkarte.
Ich hoffe nur, daß der nForce2 hält, was er verspricht.
Gruß
Alex
Salvee
2002-10-02, 16:46:13
Originally posted by Exxtreme
Der OnBoard-Sound soll nämlich im 3D-HW-Modus praktisch keine CPU-Leistung fressen. Bei meiner jetztigen SB Live! Player 5.1 brechen die Frameraten bei UT2003 um ca. 40% ein wenn ich 3D-HW-Sound aktiviere. Ob es an der Soundkarte oder am Sonkarten-Treiber liegt, weiss ich nicht. Auf jeden Fall nie wieder eine Creative-Soundkarte.
Zustimmung, meine Audigy ist nach all den Querelen wohl der grösste Fehlkauf aller Zeiten.
Dafür hätte ich ja fast schon ein nForce2-Board haben können, falls der OB-Sound wirklich hält, was er verspricht.
(hat mich 250 DM gekostet, der X$%*)
Originally posted by Exxtreme
Also ich weiss echt nicht was die Leute gegen VIA haben.
Du hast da was durcheinandergebracht, nicht "Leute" haben was gegen VIA sondern Richthofen hat was gegen VIA ;D
Möchte mal kurz das Thema wechseln. Hier noch mal ein kurzer Auszug aus den News von 3decenter zum Thema 166 FSB Athlon mit nf2: "... Somit ist der nForce2 am besten mit hochklassigen DDR266-Modulen zu bestücken. Denn diese kosten weniger als hochklassige DDR333-Module und hängen jene bezüglich der möglichen Speichertimings immer noch ab. Daß DDR266-Module weniger Speicherbandbreite bieten, spielt bei der DualChannel-Architektur des nForce2 keine Rolle, da die mit DDR266 entstehende Bandbreite von 4,0 GB/sec sowieso schon überdimensioniert für einen Athlon XP auf 166 MHz DDR FSB mit einem maximalen Bandbreiten-Bedarf von 2,5 GB/sec ist. DDR333-Speicher mit 5,0 GB/sec Bandbreite an einem DualChannel-Interface kann hier logischerweise nichts mehr ausrichten, aber die Timings werden schlechter und der Preis für gute DDR333-Module ist höher ..." Das bedeutet es werden DDR266-Module empfahlen. Dann läuft doch aber der Bus zwischen North-Bridge und Speicher nur mir 133Mhz aber der Bus zwischen Prozi und North-Bridge mit 166! Habe ich das richtig verstanden? Kann man die asyncron laufen lassen und trotdem ist die Performance so besser als mit DDR333-Modulen!?
zeckensack
2002-10-02, 18:42:57
Ich stimme in dem Punkt auch nicht so ganz mit Leonidas' Meinung überein ;)
Synchron ist immer besser, außerdem hat er IMO bei den Timings nicht richtig gerechnet.
2,5 Takte CAS-Latency @ 166MHz vs
2,0 Takte CAS-Latency @ 133MHz
ist kein relevanter Unterschied in der Latenzzeit, denn der höhere Basistakt muß mit einbezogen werden.
macht
2,5/166MHz=15ns vs
2,0/133MHz=15ns, ist also exakt das gleiche bei höherer Bandbreite.
Richthofen
2002-10-02, 19:10:20
"
Du hast da was durcheinandergebracht, nicht "Leute" haben was gegen VIA sondern Richthofen hat was gegen VIA
"
Ach dann wundert es mich aber wieso so viele immer noch auf ein Intel System setzen und wenn man dann nachfragt wieso (jetzt mal die Overclocker mit Northwood Core ausgenommen), dann fällt sofort ne negative Bemerkung über die Chipsätze bzw die Firmen die dahinterstehen. Und ich kann die Leute verstehen.
VIA kann wunderbar laufen aber man muss des öfteren mal rumtüfteln. Die Bude hat jahrelang nicht mit Qualität überzeugt und insofern, gehört schon ein bisschen mehr Konstanz dazu.
Außerdem sollten sich mal viele Fragen wieso VIA in Unternehmen gerne gemieden wird.
Wieso hat AMD nicht einen Business Deal mit VIA bekommen.
In den ganzen Jahren nicht.
Die Antwort kann sich jeder denken. Ich hab von ALI über AMD und VIA bis hin zur AMD/VIA Combo und nun auch nForce alles in den Händen gehabt und Nvidia übertrumpft sie alle ohne Probleme was Handling, Stability usw.. angeht.
Wenn AMD durchhält werden die AMD noch recht weit vorranbringen. Von VIA brauch man das nicht erwarten.
Die mehr als ein halbes Jahrzehnt Zeit und haben es nicht geschafft.
Und wenn mir einer erzählt VIA ist toll, dann sollte er sich mal fragen wieso die ständig voreilig halbfertige und verbuggte Chipsätze rausbringen - womit wir wieder beim Thema der A Versionen wären.
Richthofen
2002-10-02, 19:12:17
SIS hab ich vergessen, die hat ich ja nun auch schon in Form des K7S5A in den Händen. Begeistert war ich nicht gerade.
StefanV
2002-10-02, 20:00:05
Originally posted by Richthofen
SIS hab ich vergessen, die hat ich ja nun auch schon in Form des K7S5A in den Händen. Begeistert war ich nicht gerade.
Liegt wohl eher an ECS denn an SIS...
Die Frage bezüglich Businessdeals ist schnell geklärt.
Das ist genau der gleiche Grund wieso Windows 95/98/Me/NT4/2k/XP und Office in Betrieben benutzt wird.
Werbung
Intel und Microsoft schmeissen nicht umsonst zig Millionen in Werbekampanien. Diejenigen die nämlich darüber entscheiden, welcher Processor und welche Software benutzt wird haben in den meisten fällen kaum Ahnung und orientieren sich an dem was sie am meisten hören und sehen.
Und das sind Intels und Microsofts Werbe- poster, spots etc.
Muh-sagt-die-Kuh
2002-10-03, 01:13:47
Eine Pro- / Contra-Microsoft Diskussion ist hier etwas fehl am Platze ;)
ActionNews
2002-10-03, 13:16:32
Originally posted by Eusti
(...)
Ja, bei Intel spielt Werbung tatsächlich eine entscheidene Rolle. Aber die wirklich teueren Prozessoren verkaufen die in den Betrieben. Und dieses, weil mit dennen alles so toll funktioniert und nicht wegen der Werbung. Aber im Privatmarkt ist die Werbung ganz entscheident.
Momentan geht es AMD aber so schlecht, weil die nix richtig gutes im Angebot haben. Intel ist im Moment ca. 25% schneller (auch technisch, nicht nur in der Werbung).
(...)
Zum Thema AMD:
AMD ist mit dem 2800+ direkt an Intel dran :)! Schade, dass nur noch nicht zu haben ist!
Komisch auch, dass Dell schon länger darüber nachdenkt AMD-Prozessoren einzusetzen (gab da mal eine Umfrage auf der Dell-Page)! Und jetzt will Dell sogar offiziell im Server-Bereich auf die AMD Opteron-Prozessoren setzen :o ! Und das Obwohl Dell schon immer der treueste Partner Intels war! Warum, wenn die Intel Prozessoren so viel besser sind :eyes:!
Ich denke der Hammer wird AMD ganz schnell in die Gewinnzone schwemmen :)! Damit wird AMD ein großer Wurf gelingen :)!
Das der Umsatz jetzt zurück geht ist ja klar! Die Meisten warten doch jetzt auf den Hammer (so wie ich) und kaufen sich nicht noch kurz vorher einen AthlonXP!
CU ActionNews
zeckensack
2002-10-03, 13:35:10
*split*
Originally posted by Muh-sagt-die-Kuh
Eine Pro- / Contra-Microsoft Diskussion ist hier etwas fehl am Platze ;) Japp.
Deswegen habe ich sie hierhin (http://www.forum-3dcenter.net/vbulletin/showthread.php?threadid=34847) ausgelagert.
Eusti
2002-10-03, 13:35:23
Originally posted by ActionNews
AMD ist mit dem 2800+ direkt an Intel dran.AMD ist mit dem schnellsten lieferbaren Prozessor XP2200+ etwa 20% hinter Intel. Das ist leistungsmäßig weit weg. Kompatibilitätsmäßig und von der Hitzeentwicklung her liegen die ebenfalls deutlich hinter Intel. AMD bekommt seine Business-Deals nicht, weil Sie einfach zu schlechte Produkte haben. Ein PC im Büro muss 4 Jahre ohne Aufrüstung halten. An so einen Rechner geht keiner mehr ran (Lohnkosten). Und da drängen sich die 2,5-2,8GHZ Prozessoren von Intel einfach auf.
Originally posted by ActionNews
Komisch auch, dass Dell schon länger darüber nachdenkt AMD-Prozessoren einzusetzen (gab da mal eine Umfrage auf der Dell-Page)! Und jetzt will Dell sogar offiziell im Server-Bereich auf die AMD Opteron-Prozessoren setzen! Und das Obwohl Dell schon immer der treueste Partner Intels war! Warum, wenn die Intel Prozessoren so viel besser sind?Dell will seit 3 Jahren AMD-Prozessoren einsetzten (da gab es glaub ich die erste Umfrage dazu). Aber selbst in den Hochzeiten des Athlons hab ich da keine gesehen. Geredet von AMD haben die viel. Eingesetzt haben Sie nie einen. Vielleicht auch alles nur gerede, um bei Intel gute Rabatte zu erhalten? Wer weiss das schon (außer Dell).
Originally posted by ActionNews
Ich denke der Hammer wird AMD ganz schnell in die Gewinnzone schwemmen! Damit wird AMD ein großer Wurf gelingen!Vielleicht ja, vielleicht nein. In diesem Fall weiss das nicht mal AMD. Obwohl der Hammer bereits seit 6 Monaten in SOI gerfertigt werden sollte, sind von dem nicht einmal Testmuster für die Presse verfügbar. Wenn ich mir das Tempo bei AMD so ansehe, dann liefert Intel eher den Presscott, als AMD den Hammer.
Vielleicht überschätzen viele Leute AMD (oder wollen das). Auch mit dem Hammer, muss man die Umsätze erst einmal verdoppeln um keine Verluste mehr zu machen. Und man muss die Umsätze verdreifachen um richtig Gewinn zu machen. Bis zur Gewinnzone ist es also noch ein sehr weiter Weg. Und ich glaube nicht das Intel einfach zusieht, wie AMD den Umsatz verdreifacht.
Madkiller
2002-10-03, 13:46:24
Originally posted by Eusti
AMD ist mit dem schnellsten lieferbaren Prozessor XP2200+ etwa 20% hinter Intel. Das ist leistungsmäßig weit weg. Kompatibilitätsmäßig und von der Hitzeentwicklung her liegen die ebenfalls deutlich hinter Intel. AMD bekommt seine Business-Deals nicht, weil Sie einfach zu schlechte Produkte haben. Ein PC im Büro muss 4 Jahre ohne Aufrüstung halten. An so einen Rechner geht keiner mehr ran (Lohnkosten). Und da drängen sich die 2,5-2,8GHZ Prozessoren von Intel einfach auf.
Du dürftest doch auch wissen, das PC´s über 1Ghz für Bürorechner absoluter Overkill ist... und das wahrscheinlich auch noch in 4 Jahren.
Davon abgesehen sind AMD´s viel billiger.
Eins wollte ich dazu auch schon immer mal sagen:
Also, wenn ich meinen Rechner 360 Tage im Jahr nutze (saugen über DSL) und täglich im Schnitt 4 Stunden intensiv nutze (arbeiten, gamen, usw.) dann dürfte der Rechner 7.200 Stunden jährlich im Idle-Modus laufen (macht der automatisch). Wenn ein AthlonXP 2400 eine Verlustleistung von typisch 60 Watt (maximal 65 Watt) hat und ein P4 2400 eine Verlustleistung im Idle-Modus von 30 Watt (maximal 60 Watt) hat, dann spare ich mir 30 Watt pro Stunde.
Bei 7.200 Stunden und 30 Watt, spare ich mit dem Pentium4 in einem Jahr also ca. 216 Kilowattstunden. Bei einem Strompreis, inkl. Steuer von € 0,14 entspricht dieses € 30,24. Somit wäre es richtig, bei dem Vergleich zwischen Pentium4 und AthlonXP zusätzlich zu den höheren Kosten für Kühler, usw. (Pentiums4 kann ich auch mit Boxed-Kühlern übertakten) beim Athlon, auch nochmal € 30,- an höheren Stromkosten pro Jahr zu berücksichtigen.
Erstmal muss man ganz klar dazu sagen, daß das der Absolute Extremfall ist. Vielleicht jeder Zehnte Privatuser lässte seinen PC 24/7/365 laufen... Dann darfst du aber nicht vergessen, daß in dem Haus/Wohnung ca 8 Monate jedes Jahr geheizt werden muss. Da der Athlon mehr Strom verbraucht, spart man sich das auch wieder an Heizkosten. Bleibt also gleich. D.h. selbst in deinem Extremfall würde man nur 10 Euro sparen, und nicht 30.
ActionNews
2002-10-03, 13:54:06
Originally posted by Eusti
AMD ist mit dem schnellsten lieferbaren Prozessor XP2200+ etwa 20% hinter Intel. Das ist leistungsmäßig weit weg. Kompatibilitätsmäßig und von der Hitzeentwicklung her liegen die ebenfalls deutlich hinter Intel. AMD bekommt seine Business-Deals nicht, weil Sie einfach zu schlechte Produkte haben. Ein PC im Büro muss 4 Jahre ohne Aufrüstung halten. An so einen Rechner geht keiner mehr ran (Lohnkosten). Und da drängen sich die 2,5-2,8GHZ Prozessoren von Intel einfach auf.
Falsch! Laut Anandtech kommen der 2400+ und 2600+ jetzt in größeren Stückzahlen zu den Händlern!
KOMPATIBILITÄTSMÄßIG? Ich glaube ich hör (bzw lese) nicht richtig :o!
Das ist da wohl eine Frechheit! Welche Software läuft denn nicht auf AMD?
Hitzeentwicklung: Schau mal hier: http://www.anandtech.com/cpu/showdoc.html?i=1718&p=4 ! Da siehst du, dass AMD und Intel bei ihren Angaben gar nicht so weit auseinander liegen (um die 70 Watt)! Dabei muss man bedenken, daa Intel die angaben für einen Prozessor für DURCHNITTLICHE Prozessorbelasstung macht, während AMDs Angaben für MAXIMALE Prozesoreauslastung sind :o!
Dell will seit 3 Jahren AMD-Prozessoren einsetzten (da gab es glaub ich die erste Umfrage dazu). Aber selbst in den Hochzeiten des Athlons hab ich da keine gesehen. Geredet von AMD haben die viel. Eingesetzt haben Sie nie einen. Vielleicht auch alles nur gerede, um bei Intel gute Rabatte zu erhalten? Wer weiss das schon (außer Dell).
Naja trotzdem ein gutes Zeichen, dass Dell so offen über den Einsatz der Opteron Prozessoren nachdenkt! Das hat es vorher noch nich gegeben!
Vielleicht ja, vielleicht nein. In diesem Fall weiss das nicht mal AMD. Obwohl der Hammer bereits seit 6 Monaten in SOI gerfertigt werden sollte, sind von dem nicht einmal Testmuster für die Presse verfügbar. Wenn ich mir das Tempo bei AMD so ansehe, dann liefert Intel eher den Presscott, als AMD den Hammer.
Vielleicht überschätzen viele Leute AMD (oder wollen das). Auch mit dem Hammer, muss man die Umsätze erst einmal verdoppeln um keine Verluste mehr zu machen. Und man muss die Umsätze verdreifachen um richtig Gewinn zu machen. Bis zur Gewinnzone ist es also noch ein sehr weiter Weg. Und ich glaube nicht das Intel einfach zusieht, wie AMD den Umsatz verdreifacht.
??? AMD muss die Umsätze erst mal verdoppeln und verdreifachen? Da wären wir ja bei ca. 40 bzw. 60 % Marktanteil! Das glaube ich eher weniger! Wichtig wäre ein gesteigerter Umsatz bei Servern (Opteron und auch bei Desktop Prozessoren könnte der Hammer sicher ein gutes Umsatzplus bringen, aber das werden wir sehen!
Ich finde es jedenfalls schon beeindruckend, dass ein auf 800MHz getakteter Clawhammer (selbst mit nur 256KB L2-Cache und im 32bit-Modus) so schnell wie ein doppelt so hoch getakteter P4 (1600MHz) ist!
CU ActionNews
Madkiller
2002-10-03, 13:58:23
Originally posted by ActionNews
KOMPATIBILITÄTSMÄßIG? Ich glaube ich hör (bzw lese) nicht richtig :o!
Das ist da wohl eine Frechheit! Welche Software läuft denn nicht auf AMD?
Vielleicht meint er ja mit "Kompatibilitätsmäßig" die Kompatiblität zu P4 Boards :lol: [Joke]
Sonst würde ich auch gerne wissen was du meinst @Eusti
Eusti
2002-10-03, 14:07:59
Originally posted by Madkiller
Du dürftest doch auch wissen, das PC´s über 1Ghz für Bürorechner absoluter Overkill ist... und das wahrscheinlich auch noch in 4 Jahren. Davon abgesehen sind AMD´s viel billiger.Es gibt keine PC´s die man als Overkill bezeichen kann. In 4 Jahren kannst du mit einem 2,5GHZ Prozessor auch nicht mehr viel machen. Es wir dann in etwa einen 12-15GHZ Prozessor geben (Moore´s Law) und die Software wird darauf angepasst werden. Beispielsweise werden diese 15GHZ Prozessoren dann immer noch Probleme beim Verwalten von Dokumentenmanagementsystemen haben, usw. Der 2,5GHZ erfüllt dann nur noch Standardfunktionen.
Originally posted by Madkiller
Eins wollte ich dazu auch schon immer mal sagen:
Erstmal muss man ganz klar dazu sagen, daß das der Absolute Extremfall ist. Vielleicht jeder Zehnte Privatuser lässte seinen PC 24/7/365 laufen... Dann darfst du aber nicht vergessen, daß in dem Haus/Wohnung ca 8 Monate jedes Jahr geheizt werden muss. Da der Athlon mehr Strom verbraucht, spart man sich das auch wieder an Heizkosten. Bleibt also gleich. D.h. selbst in deinem Extremfall würde man nur 10 Euro sparen, und nicht 30. Hehe, Heizenergie? Sollte ich vielleicht mit einrechnen. Bei 6 Monaten heizen und dem uneffizenterem Energietransfer mit Strom würde sich die Rechnung aber auf maximal 20-25 Euro reduzieren. Naja, die Sig ist mittlerweile alt. Vielleicht lösch ich Sie demnächst mal.
Nochmal AMD: Alle von mir in der letzten Zeit für Freunde zusammengebauten Rechner waren von AMD. Ich bin also nicht ein entschiedener Gegner dieser Firma, oser so. Was mich aber extrem stört, ist diese dauerne ungerechte Berichterstattung zu AMD. AMD ist nicht toll, die liefern eindeutig schlechtere Produkte als Intel (müssen Sie geswegen ja auch zu 33% unter den eigenen Kosten verkaufen). Das gute an AMD ist, das Sie für Wettbewerb sorgen und den überteuerten Intel´s (hoffentlich) bald zeigen wo der Hammer hängt.
zeckensack
2002-10-03, 14:12:10
Originally posted by Eusti
AMD ist mit dem schnellsten lieferbaren Prozessor XP2200+ etwa 20% hinter Intel.Ist das relevant für's Image, oder relevant für den Kunden?
Wer kauft sich denn schon den schnellsten P4?
Du kannst mit Sicherheit davon ausgehen, daß wenn plötzlich alle Welt den P4 2,8GHz kaufen wollte, daß der dann auch nicht mehr lieferbar wäre.
Daß dem nicht so ist, dafür sorgt der exorbitant hohe Preis.
Das ist leistungsmäßig weit weg.S.o.
Als Firma ja, für den Kunden nein.
KompatibilitätsmäßigUnsinn.und von der Hitzeentwicklung her liegen die ebenfalls deutlich hinter Intel.Ebenfalls Unsinn.
http://www.sandpile.org/impl/k7.htm
http://www.sandpile.org/impl/p4.htm
AMD bekommt seine Business-Deals nicht, weil Sie einfach zu schlechte Produkte haben.Definiere schlecht ...
Bevor du damit kommst, der IHS zählt im Buisiness übrigens null, der Kühler wird einmal montiert und nie wieder angefaßt.
Ein PC im Büro muss 4 Jahre ohne Aufrüstung halten. An so einen Rechner geht keiner mehr ran (Lohnkosten). Und da drängen sich die 2,5-2,8GHZ Prozessoren von Intel einfach auf.Aha. Und in vier Jahren sind die die 15~20% mehr Takt, die bestenfalls zu 10% mehr Performance führen soo dermaßen wichtig, daß man nur das allerschnellste überhaupt kaufen darf?
Ganz zu schweigen vom höheren Systempreis einer solchen Kiste? Da kannst du mit 'nem 08/15 Gehäuse+NT+Belüftung nichts mehr reißen, das kostet dann zusätzlich zum Prozessorpreis nochmal extra. Hast du schonmal Mainstream Firmen-PCs gesehen?
Intel meist ja, brachial High-End dagegen eher nie. Letzteres gibt's im Spezialfall als 'Workstation' mit tonnenweise Schnickschnack und SCSI-Raid für den doppelten/dreifachen Preis, das stellt man dann in die CAD-Abteilung, aber nicht auf den Durchschnittsschreibtisch. Also bitte.
Eusti
2002-10-03, 14:13:16
Originally posted by Madkiller
Vielleicht meint er ja mit "Kompatibilitätsmäßig" die Kompatiblität zu P4 Boards :lol: [Joke] Sonst würde ich auch gerne wissen was du meinst @Eusti Z.B. das du in einen Intel-Rechner eine Netzwerkkarte einbauen kannst, ohne befürchten zu müssen, das du IRQ-Probleme bekommst.
Sicher, du must mit AMD keine bekommen, hast aber das potentielle Risiko. Da Firmen keinen Bock (eher keine Zeit = Geld) haben sich um sowas zu kümmern, kaufen die einfach eine Intel/Intel Kombination und alles läuft rund.
zeckensack
2002-10-03, 14:16:06
Originally posted by Eusti
Z.B. das du in einen Intel-Rechner eine Netzwerkkarte einbauen kannst, ohne befürchten zu müssen, das du IRQ-Probleme bekommst.
Sicher, du must mit AMD keine bekommen, hast aber das potentielle Risiko. Da Firmen keinen Bock (eher keine Zeit = Geld) haben sich um sowas zu kümmern, kaufen die einfach eine Intel/Intel Kombination und alles läuft rund. Chipsatzproblem, oder CPU-Problem?
Ich plädiere für ersteres, und dafür gibt's mittlerweile reichlich ausgereifte Lösungen. Sogar von VIA.
Madkiller
2002-10-03, 14:16:26
Originally posted by Eusti
Es gibt keine PC´s die man als Overkill bezeichen kann. In 4 Jahren kannst du mit einem 2,5GHZ Prozessor auch nicht mehr viel machen. Es wir dann in etwa einen 12-15GHZ Prozessor geben (Moore´s Law) und die Software wird darauf angepasst werden. Beispielsweise werden diese 15GHZ Prozessoren dann immer noch Probleme beim Verwalten von Dokumentenmanagementsystemen haben, usw. Der 2,5GHZ erfüllt dann nur noch Standardfunktionen.
Also IMO reichen Bürorechner locker ab nem PII 333 der einzige Nachteil sind dann die wenigen RAM (meistens 64, kann man aber problemlos aufrüsten) und die Festplatte (kann man auch aufrüsten).
Das man auch bei Bürorechner neuer Komponente braucht, sehe ich auch so. Aber Die CPU ist da ziemlich unwichtig.
Hehe, Heizenergie? Sollte ich vielleicht mit einrechnen. Bei 6 Monaten heizen und dem uneffizenterem Energietransfer mit Strom würde sich die Rechnung aber auf maximal 20-25 Euro reduzieren. Naja, die Sig ist mittlerweile alt. Vielleicht lösch ich Sie demnächst mal.
Ok, will ja deswegen kein Geflame anfangen... nur noch eins:
Nur 6 Monate heizen? dann wirst du aber gut frieren, wenn du erst im November zum heizen anfängst, und schon ende April aufhöre willst...
Uneffizenterem Energietransfer ist ja wohl, wenn dabei zu viel in Wärme verloren geht! Und das ist ja genau das auf was ich anspiele. D.h. das ein Athlon mit 70Watt genausoviel Wärme erzeugt wie ein Heizer mit 70 Watt (NUR beispiel)
Was mich aber extrem stört, ist diese dauerne ungerechte Berichterstattung zu AMD. AMD ist nicht toll, die liefern eindeutig schlechtere Produkte als Intel (müssen Sie geswegen ja auch zu 33% unter den eigenen Kosten verkaufen).
Ungerechte Berichterstattung?? Da möchte ich jetzt doch ein Bespiel hören...
Wie devinierst du schlechter ??? Langsamer ok... aber SCHLECHTER ???
[edit] mit ner zahl vertippt
Madkiller
2002-10-03, 14:17:43
:lol:
Zeckensack hat auch gesagt: Definiere schlecht!
Eusti
2002-10-03, 14:34:32
Originally posted by ActionNews
??? AMD muss die Umsätze erst mal verdoppeln und verdreifachen? Da wären wir ja bei ca. 40 bzw. 60 % Marktanteil! Das glaube ich eher weniger!Kannst du ruhig glauben, steht auf der Website von AMD (http://www.amd.com/us-en/Corporate/InvestorRelations/0,,51_306_643,00.html). Momentan liegt der Umsatz von AMD bei ca. 0,5 Mrd. Dollar, der von Intel beic ca. 6,3 Mrd. Dollar (jeweils je Quartal). Die Gewinnschwelle von AMD liegt bei AMD bei ca. 1,0 Mrd. Dollar je Quartal. Also müssen Sie den Umsatz verdoppeln, bevor wieder was verdient wird. Die von dir genannten 20% Martanteil hat AMD nur in dem Desktop Markt und da auch nur Stückzahlenmäßig. Umsatz machen die da kaum, weil die je Prozessor fast nix mehr bekommen. AMD XP1800 kostet inkl. Fracht, Montage, Mehrwertsteuer, Versicherung, Händlermarge, Grosshändlermagre, usw. nur 85,- Euro. Da bleibt für AMD unter dem Strich kaum noch Umsatz (geschweige denn Gewinn).
@Verfügbarkeit: Als ich die 85,- Euro gescheckt hab, hab ich mir auch die XP2400/2600 angesehen. Es kann noch nichtmal ein warscheinlicher Liefertermin genannt werden!
Originally posted by ActionNews Ich finde es jedenfalls schon beeindruckend, dass ein auf 800MHz getakteter Clawhammer (selbst mit nur 256KB L2-Cache und im 32bit-Modus) so schnell wie ein doppelt so hoch getakteter P4 (1600MHz) ist!Pressearbeit von AMD. Der Hammer wurde gegen einen alten P4 (256kB Cache) gebencht. Tatsächlich sieht die situation etwas anders aus:
Im Vergleich zu einem ebenfalls auf 800MHZ laufenden P4 (immer noch der alte) war der AMD nur noch ca. 60% schneller, da das Verhältnis Ram zu Takt dann bei beiden gleich war. Die 60% Vorteil werden im Vergleich zu einem neuen P4 auf ca. 50% zusammenschmilzen.
Bis zum erscheinen des Hammer werden Intel-Systeme mit Hyperthreading & 667MHZ Dual DDR-Ram geliefert, was den Vorteil nochmals schrumpfen lässt. Um die Leistung eines 2GHZ Hammer zu erreichen, muss ein Intel dann nur noch ca. 2,8GHZ schaffen. Diesen Vorsprung wird Intel wahrscheinlich halten können, speziell später mit dem Presscott.
Ich denke der Hammer wäre vor 1 Jahr tatsächlich ein Hammer gewesen. Aber je länger Intel Zeit von AMD bekommt, desto schlechter wird der Hammer (im Verhältnis). Also, überschätzt den Hammer nicht.
Eusti
2002-10-03, 14:36:04
Originally posted by zeckensack
Chipsatzproblem, oder CPU-Problem?Dem in Plattformen denkendem Anwender letztendlich egal.
Eusti
2002-10-03, 14:41:47
Originally posted by Madkiller
Wie devinierst du schlechter ??? Langsamer ok... aber SCHLECHTER ???Beispiel: Hitzeentwicklung und Störanfälligkeit deswegen. Ich kann dir mindestens 2 AMD´s in meinem Bekanntenkreis nennen, die mit einem Standard-kühler auf Standardtakt nicht absturzsicher laufen. Abwärme ist bei AMD ein echtes Problem.
Sowas würde ich (egal wie du das jetzt definierst) nicht als langsamer, sondern als schlecher definieren.
Madkiller
2002-10-03, 14:47:01
Originally posted by Eusti
Beispiel: Hitzeentwicklung und Störanfälligkeit deswegen. Ich kann dir mindestens 2 AMD´s in meinem Bekanntenkreis nennen, die mit einem Standard-kühler auf Standardtakt nicht absturzsicher laufen. Abwärme ist bei AMD ein echtes Problem.
Dann kümmern die sich wohl überhaupt nicht um ne Gehäuselüftung...
Wenn aber nen Hitzestau im Tower hast, wird´s mit dem P4 auch nicht viel besser ausschauen, da der nur unwesentlich weniger Strom frißt.
Wenn AMD seine CPU´s genauso ausbremsen würde wie es Intel mit seinen macht, wären die auch kühler... Natürlich im Bezug zur Taktfrequenz. Bei der Hitze pro Leistung sind sich AMD und Intel wieder ähnlich.
Eusti
2002-10-03, 14:56:38
Originally posted by Madkiller
Dann kümmern die sich wohl überhaupt nicht um ne Gehäuselüftung...Das isses ja, was ich als schlechter definiere. Wenn ich mir einen Athlon hole und dann feststellen muss, das mein GEHÄUSE damit nicht mehr funktioniert, ist das doch eine schlechte Eigenschaft des Prozessors...
Originally posted by Madkiller
Wenn aber nen Hitzestau im Tower hast, wird´s mit dem P4 auch nicht viel besser ausschauen, da der nur unwesentlich weniger Strom frißt.Der P4 würde nicht abstürtzen, sondern sich maximal selbstständig für kurze Zeit ein wenig langsamer stellen. Das ist dann das, was ich als besser definiere. Mal angenommen, beide Prozessoren sind für eine bestimmte Wärme nicht so toll geeignet, dann arbeitet der Intel bei der Hitze langsammer, der AMD gar nicht mehr.
Originally posted by Madkiller
Wenn AMD seine CPU´s genauso ausbremsen würde wie es Intel mit seinen macht, wären die auch kühler... Natürlich im Bezug zur Taktfrequenz. Bei der Hitze pro Leistung sind sich AMD und Intel wieder ähnlich. 1. bremmst Intel die CPU´s nicht aus, sonder setzt auf eine andere (momentan auch mit besserer Leistung zu belegende) Strategie, nämlich Leitung durch MHZ.
2. Keine gleiche Hitzeentwicklung: siehe dazu Sig
Madkiller
2002-10-03, 15:05:54
Originally posted by Eusti
Der P4 würde nicht abstürtzen, sondern sich maximal selbstständig für kurze Zeit ein wenig langsamer stellen. Das ist dann das, was ich als besser definiere. Mal angenommen, beide Prozessoren sind für eine bestimmte Wärme nicht so toll geeignet, dann arbeitet der Intel bei der Hitze langsammer, der AMD gar nicht mehr.
Naja, ok, wenn wir hier von Super-DAU´s reden, hast du recht.
1. bremmst Intel die CPU´s nicht aus, sonder setzt auf eine andere (momentan auch mit besserer Leistung zu belegende) Strategie, nämlich Leitung durch MHZ.
2. Keine gleiche Hitzeentwicklung: siehe dazu Sig
zu 1. Intel bremst die CPU aus. Das ist Fakt. Die begründung - in deinem Fall "setzt auf eine andere (momentan auch mit besserer Leistung zu belegende) Strategie, nämlich Leitung durch MHZ." ist in diesem Fall egal. Ausgebremst wird die CPU! Genaugenommen sind die Mhz bei Intel genausoviel wert (ich mein jetzt vom Prinzip was die Leistung angeht) wie das P-Rating vom Athlon. Der einzige Vorteil ist bei Intel evtl. daß das Verhältnis von Leistung und Mhz fast genau stimmt.
zu 2. Im Idle mod... hast du recht. Aber das kann man bei AMD durch software/bios inzwischen auch machen. Dazu wieder: Naja, ok, wenn wir hier von Super-DAU´s reden, hast du recht.
Ich sehe die Hitzeentwicklung in Idle auch nicht als wichtig an - außer zum Stromsparen - denn die ist sogar bei AMD ein gutes Stück unter Last. Und bei Last gibt es ja die Stabilitätsprobleme und nicht bei Idle...
Aber wenn man sich auch nur ein bisschen mit PC auskennt ist AMD einfach besser - weil billiger - (außer für extrem Übertakter die zuviel Geld haben).
Eusti
2002-10-03, 15:16:37
Originally posted by Madkiller
Naja, ok, wenn wir hier von Super-DAU´s reden, hast du recht. Aber wenn man sich mit PC auskennt ist AMD einfach besser - weil billiger - (außer für extrem Übertakter die zuviel Geld haben). Mit dem von mir leicht editiertem Quote ;) kann ich mich anfreunden, denn es braucht schon einiges an PC Verstand, um auf Probleme mit dem Gehäuse zu kommen, oder den Idle-Modus des Athlon zu aktivieren. Schlisslich waren ja auch alle in der letzten Zeit von mir gebauten PC´s Athlon´s (wegen Preis/Leistung).
GloomY
2002-10-03, 16:20:47
Originally posted by Eusti
Dem in Plattformen denkendem Anwender letztendlich egal. Dann differenzier aber mit deiner Kritik zwischen Prozessor- und Chipsatzhersteller.
Wenn du umbedingt so viel Wert auf IRQ-Leitungen legst, dann kannst du z.B. auch den ALI Magic Chipsatz nehmen, der hat imho auch mehr IRQ Leitungen. Da bist du Preis-leistungsmäßig immer noch gut im Rennen.
Originally posted by Eusti
Beispiel: Hitzeentwicklung und Störanfälligkeit deswegen. Ich kann dir mindestens 2 AMD´s in meinem Bekanntenkreis nennen, die mit einem Standard-kühler auf Standardtakt nicht absturzsicher laufen. Abwärme ist bei AMD ein echtes Problem.Hör doch einfach mal auf, auf der Abwärme rumzuhacken und nimm den FAKT zur Kentnis, daß ein P4 nicht weniger verbrät, wenn er unter Last läuft.
Originally posted by Eusti
2. Keine gleiche Hitzeentwicklung: siehe dazu Sig Wenn du surfst, saugst usw. dann ist das aber nicht idle.
Idle ist definiert als NICHTS tun, d.h. einzig und allein die Systemprozesse am laufen zu haben und sonst NICHTS.
So wird schließlich auch die Idle-Verlustleistung gemessen.
edit: Immerhin sprichst du selbst von "intensiver Nutzung beim arbeiten/gamen", während noch im gleichen Satz von dir behauptet wird, daß dein P4 dann idle sei und somit auch nur 30 Watt verbraten würde. Also widersprüchlicher geht's echt nicht...
Originally posted by Eusti
Mit dem von mir leicht editiertem Quote ;) kann ich mich anfreunden, denn es braucht schon einiges an PC Verstand, um auf Probleme mit dem Gehäuse zu kommen, oder den Idle-Modus des Athlon zu aktivieren. Schlisslich waren ja auch alle in der letzten Zeit von mir gebauten PC´s Athlon´s (wegen Preis/Leistung).
Jemand, der keinen Verstand von Computer hat sollte imho sich auch keinen selbst zusammenzubauen. Und wenn ein von einem Händler verkauftes System unstabil ist wegen Hitzeprobleme ist imho auch der Händler schuld und nicht der Chiphersteller.
Betreffend der Stellung, das ein P4 mit Standardkühler stabiler läuft als ein AMD möchte ich auch nur auf die Grösse des P4 Standardkühlers weisen - die ist um einiges grösser als ein standard AMD kühler.
Thowe
2002-10-03, 18:18:35
An dieser Stelle biete ich mal wieder jeden an seinen P4 gegen einen meiner AMD Systeme zu testen. Was Stabilität etc angeht. Kein Intel-System ist bei gleicher Grundvorraussetzung schneller, besser, schöner, kompatibler oder sonstwas im Vergleich zu einem AMD-System.
Exxtreme
2002-10-03, 18:50:17
Originally posted by Thowe
Kein Intel-System ist bei gleicher Grundvorraussetzung schneller, besser, schöner, kompatibler oder sonstwas im Vergleich zu einem AMD-System.
Nee stimmt nicht. Mein AMD ist viel stabiler als dein AMD.
;)
Gruß
Alex
Ich kann nicht verstehen wie man sich einen Intel-Rechner zusammenbauen kann.
Zum einen passen mir die Preise nicht (auch wen sie billiger werden), die Leistung Pro € ist für die meisten eigentlich interessanter als die absolute Leistung. Dass der AMD so extrem heiss wird ist vielleicht etwas Übertrieben. Er ist bei gleicher Taktfrequenz sicher wärmer als ein P4, dafür auch deutlich schneller. Gabs nich mal wen der seinen XP passiv kühlte hier?
Zweitens ist mir Intel derart unsympathisch, durch ihre Werbungen und das überissene Getue, dass ich auch wenn sie viel besser wären, die Intel Prozis (besser = mehr Leistung/Euro), nie einen solchen kaufen würde.
Übrigens, ich hatte erst 1 mal Stabilitätsprobleme, und das nicht wegen AMD oder VIA, sondern wegen einer kaputten Hercules 8500er (sie lief auch in keinem P4 System ;)).
mfg
Birdman
2002-10-03, 19:51:26
Originally posted by Thowe
An dieser Stelle biete ich mal wieder jeden an seinen P4 gegen einen meiner AMD Systeme zu testen. Was Stabilität etc angeht. Kein Intel-System ist bei gleicher Grundvorraussetzung schneller, besser, schöner, kompatibler oder sonstwas im Vergleich zu einem AMD-System.
klor, aber steck dann da mal eine gayforce, sblive und 3com netzwerkkarte rein....
es ist mir ziemlich egal ob ein Rechner mit all seinem onboard krempel vernünftig läuft, Ich will dass er das auch tut wenn ich meine Steckkarten drin habe. (und nein, ich bin keiner der sich die zusatzhardware anhand des vorhandenen CPU/Mobo's aussucht)
Madkiller
2002-10-03, 19:54:29
Ich habe Gayforce 3com und SBlive :)
Siehe sig und keine probs...
Muh-sagt-die-Kuh
2002-10-03, 20:03:16
Originally posted by Madkiller
Der einzige Vorteil ist bei Intel evtl. daß das Verhältnis von Leistung und Mhz fast genau stimmt.Wie soll man das bitte verstehen? Performance-Rating gibt es bei intel (noch) nicht.
Muh-sagt-die-Kuh
2002-10-03, 20:05:44
Originally posted by Birdman
klor, aber steck dann da mal eine gayforce, sblive und 3com netzwerkkarte rein....
es ist mir ziemlich egal ob ein Rechner mit all seinem onboard krempel vernünftig läuft, Ich will dass er das auch tut wenn ich meine Steckkarten drin habe. (und nein, ich bin keiner der sich die zusatzhardware anhand des vorhandenen CPU/Mobo's aussucht) Mit einer INT-Tabelle bekommt man auch solch eine Konfig mit 4-INT Leitungen hin. Eine INT Leitung für den AGP, eine für die SBLive und die 3Com lässt man mit den USB-Ports oder sonstwas sharen, das ist unkritisch.
Thowe
2002-10-03, 20:28:42
Originally posted by Birdman
klor, aber steck dann da mal eine gayforce, sblive und 3com netzwerkkarte rein....
es ist mir ziemlich egal ob ein Rechner mit all seinem onboard krempel vernünftig läuft, Ich will dass er das auch tut wenn ich meine Steckkarten drin habe. (und nein, ich bin keiner der sich die zusatzhardware anhand des vorhandenen CPU/Mobo's aussucht)
Im Gegensatz zu meinem P4 System mit dem ABIT TH7 Board, läuft sogar das Soltek KT333A Board was mom drin ist mit:
GeForce4TI4400/Radeon 9700
Netzwerkkarte DEC-Tulip
HPT 370 Steckkarte
SB Audigy
DVB-S Karte
RD2
ohne jegliche Probleme, auch eine 3Com würde keinerlei Probleme machen.
Mit einem MSI Mainboard, gerade aus der KT3 Ultra2 Serie würde ich für alles wetten. Dem Soltek traue ich nicht so ganz über den Weg.
Die einzige Karte die ich in letzter Zeit in der Hand hatte die überhaupt auf einem AMD System Ärger gemacht hat, war von ICP ein Raidcontroller der sein BIOS nicht entpacken konnte. Aber das Problem ist auch Prozessor und Chipsatz unabhängig.
Eusti
2002-10-03, 22:02:09
Originally posted by Muh-sagt-die-Kuh
Mit einer INT-Tabelle bekommt man auch solch eine Konfig mit 4-INT Leitungen hin...Wie ich und Madkiller bereits gesagt haben. Die schlechte AMD-Plattform kann man durch viel eigenem Wissen wieder ausgleichen. Aber die DAU´s laufen damit vor die Wand. Mit viel Fachwissen bekommt man die CPU´s von AMD unter Kontrolle. Aber Standardmäßig ersparst du dir eine Menge Probleme, wenn du ein Intel/Intel-System hast.
Und ja, die Hersteller leben von den DAU´s & Firmen. Die Poweruser & Fan´s machen nur einen Bruchteil der Einnahmen aus. Warscheinlich verkauft alleine Aldi mehr PC´s an DAU´s als AMD an alle Poweruser gemeinsam (und Intel bekommt da im Schnitt noch mehr als AMD mit seinen 70 Euro´s je CPU).
Thowe
2002-10-03, 22:26:47
Originally posted by Eusti
Wie ich und Madkiller bereits gesagt haben. Die schlechte AMD-Plattform kann man durch viel eigenem Wissen wieder ausgleichen. Aber die DAU´s laufen damit vor die Wand. Mit viel Fachwissen bekommt man die CPU´s von AMD unter Kontrolle. Aber Standardmäßig ersparst du dir eine Menge Probleme, wenn du ein Intel/Intel-System hast.
Das meinst du jetzt nicht ernst, oder?
Und ja, die Hersteller leben von den DAU´s & Firmen. Die Poweruser & Fan´s machen nur einen Bruchteil der Einnahmen aus. Warscheinlich verkauft alleine Aldi mehr PC´s an DAU´s als AMD an alle Poweruser gemeinsam (und Intel bekommt da im Schnitt noch mehr als AMD mit seinen 70 Euro´s je CPU).
Und du glaubst ernsthaft das Intel bei den Systemen satte Gewinne einfährt? Dem ist nicht so, im Gegenteil, sie bezahlen teilweise sogar drauf - Aber das macht sich gut in der Statistik, hast du dich schon mal gefragt warum Mediamarkt immer so nette Systeme mit Intel CPUs hat?
Eusti
2002-10-03, 22:38:18
Originally posted by Thowe
Und du glaubst ernsthaft das Intel bei den Systemen satte Gewinne einfährt? Dem ist nicht so, im Gegenteil, sie bezahlen teilweise sogar drauf.Keine Ahnung. Was die an welchem Geschäft verdienen wissen die nur selbst. Aber am Ende bleiben +10% Rendite für Intel und -35% für AMD. Und das obwohl Intel soviel GHeld für Werbung ausgibt...
Eusti
2002-10-03, 22:40:30
Originally posted by Thowe
Das meinst du jetzt nicht ernst, oder?[/SIZE]Doch, ich kenn mindesten 2 AMD-User die Ihr System alleine nicht in den Griff bekommen (und beides liegt an den Hitzeproblemen, OBWOHL ICH DARAUF NICHT MEHR RUMHACKEN SOLL).
Eusti
2002-10-03, 22:46:51
Originally posted by Muh-sagt-die-Kuh
Wie soll man das bitte verstehen? Performance-Rating gibt es bei intel (noch) nicht. Er meint damit, das man die Leistung eines Intel-Systems gut anhand der Taktfequenz ablesen kann.
Meiner Meinung nach ist das aber kein Argument. Bei Intel wirst du verwirrt durch den Sprung von P3 zu P4 und bei AMD erzählen Sie dir, das ein XP 1600 um 15% schneller ist als ein 1400er.
In meinen Augen kann man bei beiden die Leistung nicht 100% an der Taktfequenz ablesen (obwohl AMD mit seinen Sprungen da verwirrender ist -> XP2000 auf XP2200 aud XP 2400 -> mal die echten Sprünge ansehen).
Thowe
2002-10-03, 22:47:24
Originally posted by Eusti
Doch, ich kenn mindesten 2 AMD-User die Ihr System alleine nicht in den Griff bekommen (und beides liegt an den Hitzeproblemen, OBWOHL ICH DARAUF NICHT MEHR RUMHACKEN SOLL).
Tjo, seltsame Leute kennst du. =)
Ich kenn ein paar Hundert die ohne Problem ihr System zum laufen bekommen haben. Nur dadurch das sie sich Material besorgt haben das wirklich den Spezifikationen entsprechend war.
Naja, aber die ct hatte dazu ja schon mal einen netten und treffenden Artikel geschrieben.
Thowe
2002-10-03, 22:48:58
Originally posted by Eusti
Keine Ahnung. Was die an welchem Geschäft verdienen wissen die nur selbst. Aber am Ende bleiben +10% Rendite für Intel und -35% für AMD. Und das obwohl Intel soviel GHeld für Werbung ausgibt...
Gibt es auch Quellen zu den Zahlen die eindeutig das CPU-Geschäft widerspiegeln?
Eusti
2002-10-03, 22:51:47
Originally posted by KaoS
Zweitens ist mir Intel derart unsympathisch, durch ihre Werbungen und das überissene Getue, dass ich auch wenn sie viel besser wären, die Intel Prozis (besser = mehr Leistung/Euro), nie einen solchen kaufen würde.Ja, das ist so. Aber trotzdem bleibt Intel rein von der Leistung gesehen her vorne, da kommt kein (zu kaufendes) AMD-System auch nur annähernd mit.
Preis/Leistung ist wie gesagt bei beiden ähnlich.
Eusti
2002-10-03, 22:54:14
Originally posted by Thowe
Gibt es auch Quellen zu den Zahlen die eindeutig das CPU-Geschäft widerspiegeln? Mit hoher Warscheinlichkeit ja, da beide Firmen nach US-GAAP zur Segmentberichterstattung verpflichet sind. Hab aber keine Lust mich (mit dem ganzen Alkohol im Kopf) durch 2 x 120 Seiten Detailbericht zu wühlen. Sorry.
Thowe
2002-10-03, 22:58:18
Originally posted by Eusti
Mit hoher Warscheinlichkeit ja, da beide Firmen nach US-GAAP zur Segmentberichterstattung verpflichet sind. Hab aber keine Lust mich (mit dem ganzen Alkohol im Kopf) durch 2 x 120 Seiten Detailbericht zu wühlen. Sorry.
Läuft ja nicht weg, kannst ja Morgen machen. :)
GloomY
2002-10-03, 23:03:01
btw: Eusti, es wäre nett, wenn du die angesprochenen Mängel in deiner Sig korrigieren würdest.
Wir wollen doch immer bei der Wahrheit bleiben und nicht irgend ein falsches Bild vermitteln, gell? ;)
Eusti
2002-10-04, 04:53:09
Originally posted by Madkiller
:lol:
Zeckensack hat auch gesagt: Definiere schlecht! Ein anderes Beispiel wären die im Vergleich zum P4 für Beschädigungen anfälligeren Core´s. Sowas betrachte ich auch nicht als langsamer, sonder einfach nur als schlechter.
Eusti
2002-10-04, 05:05:18
Originally posted by zeckensack
Chipsatzproblem, oder CPU-Problem?
Ich plädiere für ersteres, und dafür gibt's mittlerweile reichlich ausgereifte Lösungen. Sogar von VIA. Sagen wir es dochmal so: AMD hat das Problem, das Sie für Ihren Prozessor keine schnellen und dabei fehlerfreien Chipsätze anbieten.
Für die Probleme von VIA kann AMD nix. Aber Sie können sehr wohl was dafür, das man eine CPU im Programm hat, für die man selber keine leistungsfähigen Chipsätze liefern kann (mit modernen Funktionen & eventuell intregierter Grafik).
Wenn AMD mit seiner CPU somit keine Deal´s bekommt, ist man dafür mit verantwortlich. Sowas wie den NForce2 hätte man selber schon vor 2 Jahren mit anbieten müssen. Intel schafft sowas z.B. mit dem I850 doch auch.
Madkiller
2002-10-04, 11:21:33
Originally posted by Eusti
Sagen wir es dochmal so: AMD hat das Problem, das Sie für Ihren Prozessor keine schnellen und dabei fehlerfreien Chipsätze anbieten.
Bleib doch bitte mal auf dem Boden der Tatsachen. Es gibt schnelle und fehlerfreie: Ab VIA KT 333 mit neuer Southbridge und den nForce1
[
Für die Probleme von VIA kann AMD nix. Aber Sie können sehr wohl was dafür, das man eine CPU im Programm hat, für die man selber keine leistungsfähigen Chipsätze liefern kann (mit modernen Funktionen & eventuell intregierter Grafik).
Sie können nichts dafür, weil AMD eben nicht so einflußreich ist wie Intel. Und sie haben Leistungsfähige Chipsätze siehe oben
Und das ist ja wohl der absolute Hammer: "modernen Funktionen & eventuell intregierter Grafik"
Natürlich... kein AMD Board hat das. ;D :D :lol:
Madkiller
2002-10-04, 11:27:52
Originally posted by Muh-sagt-die-Kuh
Wie soll man das bitte verstehen? Performance-Rating gibt es bei intel (noch) nicht.
Originally posted by Eusti
Er meint damit, das man die Leistung eines Intel-Systems gut anhand der Taktfequenz ablesen kann.
Meiner Meinung nach ist das aber kein Argument. Bei Intel wirst du verwirrt durch den Sprung von P3 zu P4 und bei AMD erzählen Sie dir, das ein XP 1600 um 15% schneller ist als ein 1400er.
In meinen Augen kann man bei beiden die Leistung nicht 100% an der Taktfequenz ablesen (obwohl AMD mit seinen Sprungen da verwirrender ist -> XP2000 auf XP2200 aud XP 2400 -> mal die echten Sprünge ansehen).
Genaugenommen wollte ich damit sagen, daß man auf die Mhz von Intel genausowenig geben kann wie auf das P-Rating von AMD.
Intel bremst seine CPU aus, um höhere Mhz zu erreichen ohne das die Pro Mhz Leistung z.B. gegenüber dem P3 steigt oder zumindest gleich bleibt. Also "blendet" Intel damit genauso wie AMD mit seinem P-Rating. Blos, und das muss man zur Verteidigung von AMD sagen, hat Intel damit angefangen und AMD hat "nur" reagiert...
Eusti
2002-10-04, 11:33:44
Originally posted by Madkiller
Und sie haben Leistungsfähige Chipsätze...Nochmal ganz langsam und ohne Wut im Bauch meinen Beitrag lesen! Da wirst du feststellen, was ich gemeint haben!
Madkiller
2002-10-04, 11:41:48
Ich habe keine Wut im Bauch. Hab mir dein Posting auch nochmal durchgelesen, aber du hast nur geschrieben, das AMD keine hat.
Und das stimmt nicht.
P.S. Woher willst du wissen, daß der Intel I850 (relativ gesehen) wirklich so schnell ist? Soweit ich weiß, ist SIS fast so schnell wie Intel, aber bei AMD ist SIS ein gutes Stück lansamer wie VIA/nVidia.
Es könnte doch gut sein, wenn VIA/nVidia für den P4 Chipsätze machen würden, daß die dann schneller wären wie der Intel I850.
[edit] rechtschreibung
Eusti
2002-10-04, 11:42:11
Originally posted by Madkiller
Blos, und das muss man zur Verteidigung von AMD sagen, hat Intel damit angefangen und AMD hat "nur" reagiert... Angefangen, womit? Intel hat einfach eine andere Strategie gewählt. Wenn es einfacher ist einen 3GHZ Prozessor mit 80% Leistung zu bauen, als einen 2,25GHZ mit 100%, dann ist es doch vernünftig, den höher taktbaren zu bauen. Das hat doch nix mit Verarschung zu tun.
Genau so sehe ich das mit AMD. Wenn sich die Prozessordesign´s seit langem mal wieder so deutlich unterscheiden wie heute, aber sich die Kunden an Preisvergleiche bei optisch gleichem Takt gewöhnt haben, dann ist die Einführung eines Raitung doch gut & vernünftig. Allerdings hätte man einen festen prozentualen Aufschlag für AMD CPU´s wählen sollen (z.B. immer Takt +25%) und nucht son Murks wie jetzt.
Grundsätzlich finde ich beide Verfahren richtig. Intel steigert die Leistung mit einem besser taktbarem Design & AMD macht die Kunden auf seine wahre Leistungsfähigkeit aufmerksam.
Eusti
2002-10-04, 11:45:34
Originally posted by Madkiller
Woher willst du wissen, daß der Intel I850 (relativ gesehen) wirklich so schnell ist?Ich wollte damit ausdrücken, das Intel regelmäßig Chipsätze für seine eigenen CPU´s liefert, die zumindest mit der Konkurrenz mithalten können. AMD hat zwar auch einen DDR-Chipsatz, dieser kommt aber leistungsmäßig nicht mit der Konkurrenz mit (seit dem 266A) und wird daher auch nicht verkauft.
Muh-sagt-die-Kuh
2002-10-04, 11:46:02
Originally posted by Madkiller
Genaugenommen wollte ich damit sagen, daß man auf die Mhz von Intel genausowenig geben kann wie auf das P-Rating von AMD.
Intel bremst seine CPU aus, um höhere Mhz zu erreichen ohne das die Pro Mhz Leistung z.B. gegenüber dem P3 steigt oder zumindest gleich bleibt. Also "blendet" Intel damit genauso wie AMD mit seinem P-Rating. Blos, und das muss man zur Verteidigung von AMD sagen, hat Intel damit angefangen und AMD hat "nur" reagiert... Mhz sagen sowieso nur innerhalb einer Baureihe (Core) etwas über die Geschwindigkeit aus.
Intel und AMD verwenden bei ihren aktuellen CPUs 2 völlig verschiedene Ansätze um zu Leistung zu kommen ("Speed Demon" vs "Brainiac", wenn dir die Begriffe was sagen ;) ), beide sind legitim....die Vergleichbarkeit anhand der mhz wird noch schlechter, aber die war auch bei TBird vs Cu-Mine schon nicht mehr besonders gut. Ein Rating System macht die Designunterschiede wieder halbwegs vergleichbar, aber kann nicht alle Aspekte erfassen.
Madkiller
2002-10-04, 11:48:35
Ist dir eigentlich bewusst, das der AMD bei gleichem Takt 30-50% schneller ist (wenn kein SSE2 genutzt wird, und die selben RAM bzw. wenn sie die selbe Bandbreite verbrauchen können). Und stell dir mal vor, wie der Athlon abgehen würde, wenn er 4.2GB sec auch verbraten könnte! Intel hat seine CPU nicht nur nicht verbessert (pro Mhz wie man es bis jetzt auch immer gemacht hatte) sondern auch noch immens ausgebremst. Der einzige Grund warum der P4 inzwischen fast mit dem P3 (wieder Pro Mhz leistung) mithalten kann ist, daß der P4 die 4 fache bandbreite nutzen kann.
Madkiller
2002-10-04, 11:52:57
Originally posted by Muh-sagt-die-Kuh
Mhz sagen sowieso nur innerhalb einer Baureihe (Core) etwas über die Geschwindigkeit aus.
Intel und AMD verwenden bei ihren aktuellen CPUs 2 völlig verschiedene Ansätze um zu Leistung zu kommen ("Speed Demon" vs "Brainiac", wenn dir die Begriffe was sagen ;) ), beide sind legitim....die Vergleichbarkeit anhand der mhz wird noch schlechter, aber die war auch bei TBird vs Cu-Mine schon nicht mehr besonders gut. Ein Rating System macht die Designunterschiede wieder halbwegs vergleichbar, aber kann nicht alle Aspekte erfassen.
Ist mir klar....
Naja, der Grund warum ich mich dadrüber blos immer wieder aufregen könnte ist wohl, daß Intel mit der Blenderei angefangen hat, und dann voll die Anit Werbe Kampagne gegen AMD und dem P-Rating geführt hat.
Wir kennen doch alle die dummen Sprüche von Media Markt und ko.... 2 echte Gigaherz...
Das ist der Grund warum Intel schon wirklich signifikant und auch preislich besser sein müsste, das ich mir wieder nen Intel kaufen würde.
Eusti
2002-10-04, 11:56:17
Originally posted by Madkiller
Ist dir eigentlich bewusst, das der AMD bei gleichem Takt 30-50% schneller ist (wenn kein SSE2 genutzt wird, und die selben RAM bzw. wenn sie die selbe Bandbreite verbrauchen können). Und stell dir mal vor, wie der Athlon abgehen würde, wenn er 4.2GB sec auch verbraten könnte! Intel hat seine CPU nicht nur nicht verbessert (pro Mhz wie man es bis jetzt auch immer gemacht hatte) sondern auch noch immens ausgebremst. Der einzige Grund warum der P4 inzwischen fast mit dem P3 (wieder Pro Mhz leistung) mithalten kann ist, daß der P4 die 4 fache bandbreite nutzen kann. Nee, ist mir nicht bewusst. Da AMD für seinen 2,25GHZ Prozessor ein Raitung XP2800 gewählt hat, dachte ich der wäre 25% schneller (oder Intel 20% langsamer). Korrekterweise müsste AMD ja dann auch sein XP2800 Raiting in XP3200 ändern.
Hätte der Athlon mehr Bandbreite, wäre er schneller. Hätt der Athlon mehr Cache, wäre er schneller. Würde der Atlohn höher takten, wäre er schneller. Würde der Athlon..... (du siehst was ich meine?).
Madkiller
2002-10-04, 12:04:29
Originally posted by Eusti
Nee, ist mir nicht bewusst. Da AMD für seinen 2,25GHZ Prozessor ein Raitung XP2800 gewählt hat, dachte ich der wäre 25% schneller (oder Intel 20% langsamer). Korrekterweise müsste AMD ja dann auch sein XP2800 Raiting in XP3200 ändern.
Hätte der Athlon mehr Bandbreite, wäre er schneller. Hätt der Athlon mehr Cache, wäre er schneller. Würde der Atlohn höher takten, wäre er schneller. Würde der Athlon..... (du siehst was ich meine?).
Klar weiß ich was du meinst. Das P-Rating ist ja auch nur so "niedrig"
weil er sich an nem Intel mit RD-Ram und 4.2 GB/s misst.
Die CPU an sich ist, 30 bis 50% schneller, nur das Mainboard ist bei P4 durch RD schneller. Aber das P-Rating zählt ja auch nur für die CPU und nicht aus CPU + Mainboard + RAM. Davon mal abgesehen werden eh fast nur P4-DDR Boards verkauft.
Den Rest habe ich schon im letzten Posting erklärt, und du dürftst auch wissen, was ich meine, ODER?
Klar, strenggenommen, ist dein Standpunkt unanfechtbar.
Aber wenn dann jemand den FSB beim Athlon auf 200 bläst, dann wirst du die 30-50% sehen. (Das werde ich in ca 4-8 Wochen machen :D )
Ich bin eingentlich nur für ausgleichende Gerechtigkeit.....
BlackBirdSR
2002-10-04, 12:12:51
Originally posted by Eusti
Hätte der Athlon mehr Bandbreite, wäre er schneller. Hätt der Athlon mehr Cache, wäre er schneller.
Wenn dann mal die sinnlosen Verbesserungen getätigt sind, könnte man dem Athlon viel niedrige Latenz zum Speicher verschaffen, was im Gegensatz zum den anderen "Verbesserungen" auch was bringen würde.
Der P4 ist in genau dieser Hinsicht nicht umsonst extrem überlegen, was in weit besserer Skalierung bei höherem Takt resultiert.
aber halt, ich hatte vergessen, AMD hat das Problem ja erkannt, und kümmert sich schon darum.
Von mehr theoretischer Bandbreite und mehr Cache sehe ich bei den Desktop CPUs dagegen nichts.. komisch.
Madkiller
2002-10-04, 12:17:51
Originally posted by BlackBirdSR
Der P4 ist in genau dieser Hinsicht nicht umsonst extrem überlegen, was in weit besserer Skalierung bei höherem Takt resultiert.
Das liegt ja wohl einzig und allein daran, daß er ne größere Bandbreite hat. Ist ja wohl klar, das eine CPU besser skaliert wenn sie doppelt so viel bandbreit verbraten kann....
BlackBirdSR
2002-10-04, 12:27:59
Originally posted by Madkiller
Das liegt ja wohl einzig und allein daran, daß er ne größere Bandbreite hat. Ist ja wohl klar, das eine CPU besser skaliert wenn sie doppelt so viel bandbreit verbraten kann....
a) Bandbreite ist ein theoretischer Wert, der so nicht erreicht wird
b) Bandbreite ist bei Streaming anwendungen hautpsächlich wichtig, nicht bei sonstiger Software die einen Mix nutzt.
c) der P4 verliert trotz DDR333 nicht so viel wie man meine könnte.
d) effektive Speicherbandbreite ergibt sich aus theoretischer Bandbreite und der Latenz.
Je früher ein Datum geliefert werden kann, desto besser.
e) der Athlon hat fürchterliche Latenz zum L2 Cache.. der P3 Tualatin und P4 nicht -> P3 Tualatin hält heute noch mit dem Athlon mit, und das trotz einiger stark hinderlicher Design Probleme.
P4 und Tualatin haben exzellentes Prefetching, das selbst dem P3 mit 1GB/s Speicherbandbreite mit dem Athlon mithalten lässt.
Der Palomino / Tbred scheint ein schwaches Prefetching zu haben.
Prefetching senkt die Latenz beim Speicherzugriff um einiges, zumindest bei P3/P4
Mir zumindest scheint die Story mit der Latenz einsichtlicher, wenn man mal den P3 / K8 betrachtet.
Natürlich ist auch bandbreite wichtig.. und der P4 frisst daran wie blöde, aber daraus ergibt sich keine ultimative Regel.
Es liegt alo NICHT einzig und alleine an der Bandbreite.
Eusti
2002-10-04, 12:30:36
Originally posted by Madkiller
Klar weiß ich was du meinst. Das P-Rating ist ja auch nur so "niedrig"
weil er sich an nem Intel mit RD-Ram und 4.2 GB/s misst.Nee, man orientiert sich mit dem XP2800 Raiting an einem Intel mit 333MHZ DDR-RAM. Ich hab dir hier mal einen Link (http://hardocp.com/article.html?art=MzY0LDM=) gepostet, in dm ein P4 2,8GHZ gegen einen AMD XP2800 getestet wurde. Beide sind exakt gleich schnell (3 zu 3 gewonnene Benchmarks, bei Einsatz von Dual-DDR beim Athlon)(4 zu 2 für Intel, wenn man den AMD auch nur mit Single-DDR testet.).
Originally posted by Madkiller
Die CPU an sich ist, 30 bis 50% schneller, nur das Mainboard ist bei P4 durch RD schneller. Aber das P-Rating zählt ja auch nur für die CPU und nicht aus CPU + Mainboard + RAM. Davon mal abgesehen werden eh fast nur P4-DDR Boards verkauft. Deswegen ja auch der Test oben, um darzulegen, das sich das XP-Raiting auf DDR-Ram bezieht und AMD bei gleichem Takt nur (oder immerhin) 25% schneller ist.
Originally posted by Madkiller
Aber wenn dann jemand den FSB beim Athlon auf 200 bläst, dann wirst du die 30-50% sehen. (Das werde ich in ca 4-8 Wochen machen). Ich bin eingentlich nur für ausgleichende Gerechtigkeit..... Wenn jemand den FSB auf 200blässt, braucht er Glück. Aber in 2 Monaten sollte es Dual-DDR-RAM als Standard für Intel geben. Dann geht der Test gegen den Athlon mit 5 zu 1 bis 6 zu 0 für Intel aus (und mit Standard-Komponenten.) Was glaubst du wo ein P4 2,26GHZ@3,00GHZ mit Dual-DDR hinkommt (706MHZ FSB, wenn du schon übertakten möchtest).
Madkiller
2002-10-04, 12:33:01
Hab mir schon fast gedacht, daß du "schlechter Latenz zum Speicher" den L2 Cache und nicht den Arbeitsspeicher gemeint hast.
Trotzdem glaube ich, daß die Skalierung in erster Linie am effektiven FSB hängt...
Und zu deinen P3/K7 vergleichen... Der Duron hat eine ziemlich änliche Pro Mhz leistung wie der P3. Der XP zieht um mindestens 10% weg... Klar ist der Unterschied nicht so deutlich wie zum P4 aber er ist doch da.
BlackBirdSR
2002-10-04, 12:35:29
Originally posted by Madkiller
Hab mir schon fast gedacht, daß du "schlechter Latenz zum Speicher" den L2 Cache und nicht den Arbeitsspeicher gemeint hast.
Trotzdem glaube ich, daß die Skalierung in erster Linie am effektiven FSB hängt...
Und zu deinen P3/K7 vergleichen... Der Duron hat eine ziemlich änliche Pro Mhz leistung wie der P3. Der XP zieht um mindestens 10% weg... Klar ist der Unterschied nicht so deutlich wie zum P4 aber er ist doch da.
hmm.. nein eigentlich meine ich Speicherlatenz im Generellen.
Dazu gehört nunmal das ganze Speichersubsystem, aus L1 L2 Caches und dem Hauptspeicher.
den FSB erhöhen bringt macnhmal mehr, weil dadurch die latenz um Speicher gesenkt wird.. aber auch nur wenn z.B Via nicht extra Wartezyklen einbaut *g*
schau dir einen P3 Tualatin (eventuell S) an, und dann probier mal den mit einem Duron zu vergleichen
Eusti
2002-10-04, 12:36:30
Originally posted by Madkiller
Ist dir eigentlich bewusst, das der AMD bei gleichem Takt 30-50% schneller ist (wenn kein SSE2 genutzt wird, und die selben RAM bzw. wenn sie die selbe Bandbreite verbrauchen können).Doch nochmal kurz was zum SSE2. Warum soll der Pentium das in Vergleichen eigendlich nicht benutzen dürfen, wenn er es doch kann? Das gleiche für die Bandbreite & den Cache: Warum sollte der P4 die nicht nutzen dürfen?
Klar, wenn ich dem Intel alle guten Sachen in Vergleichen verbiete, ist AMD fast gleich schnell, aber was bring so ein Vergleich. Es gibt bei Intel halt SSE2, mehr Cache & Bandbreite, weil die CPU so gut ist und das hat. Würde AMD seine Chips schneller bauen, wäre das schön, aber die machen es nicht.
Madkiller
2002-10-04, 12:42:19
Originally posted by Eusti
Nee, man orientiert sich mit dem XP2800 Raiting an einem Intel mit 333MHZ DDR-RAM. Ich hab dir hier mal einen Link (http://hardocp.com/article.html?art=MzY0LDM=) gepostet, in dm ein P4 2,8GHZ gegen einen AMD XP2800 getestet wurde. Beide sind exakt gleich schnell (3 zu 3 gewonnene Benchmarks, bei Einsatz von Dual-DDR beim Athlon)(4 zu 2 für Intel, wenn man den AMD auch nur mit Single-DDR testet.).
Deswegen ja auch der Test oben, um darzulegen, das sich das XP-Raiting auf DDR-Ram bezieht und AMD bei gleichem Takt nur (oder immerhin) 25% schneller ist.
Wenn jemand den FSB auf 200blässt, braucht er Glück. Aber in 2 Monaten sollte es Dual-DDR-RAM als Standard für Intel geben. Dann geht der Test gegen den Athlon mit 5 zu 1 bis 6 zu 0 für Intel aus (und mit Standard-Komponenten.) Was glaubst du wo ein P4 2,26GHZ@3,00GHZ mit Dual-DDR hinkommt (706MHZ FSB, wenn du schon übertakten möchtest).
Ich weiß das Intel mit DDR333 nur unwesentlich langsamer ist, wie mit RD Ram. Das liegt auch an der großen Latenz von RD-Ram (gruß an BlackBirdSR). Außerdem habe ich bei dem letzten Post auch schon gemeint, das die 30-50% bei gleicher effektiven Bandbreite wäre. Der Athlon kann auf "default" ja nur 266 davon nutzen.
Dual DDR wird (ist das selbe mit dem Hammer und Hypertreading und co...) aber ist noch nicht. Aber das wird sicherlich einiges für den P4 bringen. Aber bei Dual-DDR unübertaktet bestimmt auch nicht mehr wie 5% höchstens 10... Mir geht es auch nicht darum wie gut man die jeweiligen Prozessoren übertakten kann. Mir geht es doch nur ums prizip. BITTE sag mir, daß du das verstanden hast. Wenn wir nämlich alle pro´s und contra´s von Intel und AMD durchkauen wollen, dauert das noch 2 Tage.
Madkiller
2002-10-04, 12:46:05
Originally posted by BlackBirdSR
hmm.. nein eigentlich meine ich Speicherlatenz im Generellen.
Dazu gehört nunmal das ganze Speichersubsystem, aus L1 L2 Caches und dem Hauptspeicher.
den FSB erhöhen bringt macnhmal mehr, weil dadurch die latenz um Speicher gesenkt wird.. aber auch nur wenn z.B Via nicht extra Wartezyklen einbaut *g*
schau dir einen P3 Tualatin (eventuell S) an, und dann probier mal den mit einem Duron zu vergleichen
Naja, um ehrlich zu sein... mit den Genauen Strukturen von den P3 über 1GH kenn ich mich nicht so aus.
Aber das die Latenz beim Hauptspeicher zwischen AMD und Intel gleich ist, sind wir uns schon einig, oder?
P.S. Spielt der L2 beim Athlon nicht so ne Rolle durch den sehr grossen L1.
BlackBirdSR
2002-10-04, 12:59:02
Originally posted by Eusti
Doch nochmal kurz was zum SSE2. Warum soll der Pentium das in Vergleichen eigendlich nicht benutzen dürfen, wenn er es doch kann? Das gleiche für die Bandbreite & den Cache: Warum sollte der P4 die nicht nutzen dürfen?
Klar, wenn ich dem Intel alle guten Sachen in Vergleichen verbiete, ist AMD fast gleich schnell, aber was bring so ein Vergleich. Es gibt bei Intel halt SSE2, mehr Cache & Bandbreite, weil die CPU so gut ist und das hat. Würde AMD seine Chips schneller bauen, wäre das schön, aber die machen es nicht.
klar darf er SSE2 benutzen, eigentlich sollte er sogar, weil nur damit kann er seine L2 Cache Bandbreite voll nutzen.
Allerdings ist es sehr sehr schwer bei normalen Programmen Vektorcode zu erzeugen.
Deshalb kann der P4 auch SSE2 für seine normalen Skalaren Operationen nutzen, was einerseits volle L2 Cache Bandbreite ergibt, und auf der anderen Seite die FPU Probleme entwas enschärft, da die Latenzen im Skalaren SSE2 Modus geringer sind, und das Problem mit den nicht pipelined FMUL befehlen entschärft wird.
nur , wenn ich Benchmarks entwickle, die SSE2 nutzen, bzw meine CPU vergleiche mit SSE2 tests spicke, sollte ich mir bewusst sein dass SSE2 optimierte Software eben nur einen kleinen teil ausmacht, was man entweder erwähnen muss, oder das Hauptgewicht der Tests nicht auf SSE2 optimierte Software verlegen.
Es gibt sehr viele optimierungen für den P4, die wirklich was bringen, SSE2 ist das Vorzeigepferd da es ein coller Begriff ist und für die User da draussen eine greifbare Sache darstellt, aber bei weitem nicht der ultimative Weg zur Leistung des P4 ist, wie doch so gerne überall behauptet wird.
Es sei denn jemand schreibt endlich den meisten teil seiner Programme in Vektorcode.. viel spass dabei
Eusti
2002-10-04, 13:01:26
Originally posted by Madkiller
Außerdem habe ich bei dem letzten Post auch schon gemeint, das die 30-50% bei gleicher effektiven Bandbreite wäre. Der Athlon kann auf "default" ja nur 266 davon nutzen.Der im Test verwendete XP2800 läuft aber mit 333MHZ, so das er syncron läuft und die Bandbreite voll gebrauchen kann. Trotzdem nur 25% schneller (bei Single-DDR vielleicht 23%, aber bleiben wir mal bei 25%).
Eusti
2002-10-04, 13:03:20
Originally posted by Madkiller
Mir geht es auch nicht darum wie gut man die jeweiligen Prozessoren übertakten kann. Mir geht es doch nur ums prizip. BITTE sag mir, daß du das verstanden hast.Ich hab das schon verstanden. Ich glaub nur, das du falsch rechnest.
Originally posted by Madkiller
Wenn wir nämlich alle pro´s und contra´s von Intel und AMD durchkauen wollen, dauert das noch 2 Tage. Ich hab Urlaub ;).
BlackBirdSR
2002-10-04, 13:05:25
Originally posted by Madkiller
Naja, um ehrlich zu sein... mit den Genauen Strukturen von den P3 über 1GH kenn ich mich nicht so aus.
Aber das die Latenz beim Hauptspeicher zwischen AMD und Intel gleich ist, sind wir uns schon einig, oder?
P.S. Spielt der L2 beim Athlon nicht so ne Rolle durch den sehr grossen L1.
nein, da sind wir uns gar nicht einig.
Die Latenz wird vom Chipsatz bestimmt, vom Speichertyp der verwendet wird, und vom Prefetching.
Der P4 hat dort allen Anscheins nach große Vorteile.
Was den L2 Cache angeht, so mag das hinsichtlich des Faktor Größe gelten, aber nicht für die Latenz oder auch die Bandbreite.
Der L1 Cache ist groß, hat aber einen um 33% langsameren Zugriff als der des P4.
eine vergrößerung des L2 Caches oder die senkung der Latenzen alleine mag nicht extrem viel bringen, aber es ist ein Problem des Athlon, eines von vielen, die Zusammen ne ordentliche Stange Leistung einbringen können.
Madkiller
2002-10-04, 13:14:57
Originally posted by Eusti
Ich hab das schon verstanden. Ich glaub nur, das du falsch rechnest.
"Falsch" ist da ein bisschen übertrieben. Also bei deinem Beispiel sind es 25%. Bei den 3 Bereichen wo der XP gewinnt, gewinnt er aber relativ eindeutig. Also sind ja wohl die 30% zumindest nicht falsch.
Und Q3 und der 3DMark2001 konnten schon immer verhältnismäßig besser mit dem P4. Es gibt auch Bereiche wo der XP wieder besser ist. Und 30-50% sind ja nur ein "grober" Begriff... und mir ist in erster Linie die Performance bei spielen wichtig, und da stimmt das so "ungefähr". Ich will jetzt nicht wegen ein paar Prozent hier rumdiskutieren, da des eh nichts bringt.
Beide Firmen haben ihre Vor und Nachteile. Ich bin zumindest froh, daß das brisante Thema "INTEL vs AMD" ohne geflame ausgekommen ist. Es ist leider nicht oft so.
P.S. ok du hast mich teilweise überzeugt, ich korrigiere auf 25-45%!!!
Madkiller
2002-10-04, 13:17:53
Originally posted by BlackBirdSR
nein, da sind wir uns gar nicht einig.
Die Latenz wird vom Chipsatz bestimmt, vom Speichertyp der verwendet wird, und vom Prefetching.
Der P4 hat dort allen Anscheins nach große Vorteile.
Was den L2 Cache angeht, so mag das hinsichtlich des Faktor Größe gelten, aber nicht für die Latenz oder auch die Bandbreite.
Der L1 Cache ist groß, hat aber einen um 33% langsameren Zugriff als der des P4.
eine vergrößerung des L2 Caches oder die senkung der Latenzen alleine mag nicht extrem viel bringen, aber es ist ein Problem des Athlon, eines von vielen, die Zusammen ne ordentliche Stange Leistung einbringen können.
OK, *kapitulier*
Zumindest ist der NForce1, und geht der NForce2 Chipsatz in die richige Richtung.
Naja, der eine hat mehr L1 der andere schnelleren L1... jeder hat seine Vor- und Nachteile.
GloomY
2002-10-04, 13:27:32
Originally posted by Madkiller
Gigaherz...Hertz mit t bitte. :)
Originally posted by BlackBirdSR
e) der Athlon hat fürchterliche Latenz zum L2 Cache..Also so schlimm ist es nun auch wieder nicht.
11 Clockcycles (minus den drei für L1 Zugriff) sind effektive 8 Clocks für den L2. Ok, in bestimmten Situationen sind's auch 20 Clocks (minus drei = 17), also wenn die benötigten Daten gerade im Victem Buffer drin sind.
Aber die 8 Clocks sind alles andere als "fürchterlich schlecht". Außerdem wird dieser hohe Wert durch die hohe Assotiativität des L2 des Athlons erkauft, die wiederrum die Hitrate erhöht.
Originally posted by BlackBirdSR
der P3 Tualatin und P4 nicht -> P3 Tualatin hält heute noch mit dem Athlon mit, und das trotz einiger stark hinderlicher Design Probleme.
P4 und Tualatin haben exzellentes Prefetching, das selbst dem P3 mit 1GB/s Speicherbandbreite mit dem Athlon mithalten lässt.
Der Palomino / Tbred scheint ein schwaches Prefetching zu haben.
Prefetching senkt die Latenz beim Speicherzugriff um einiges, zumindest bei P3/P4Das ist wohl wahr.
Originally posted by BlackBirdSR
Es liegt alo NICHT einzig und alleine an der Bandbreite. Zustimmung.
Originally posted by BlackBirdSR
nein, da sind wir uns gar nicht einig.
Die Latenz wird vom Chipsatz bestimmt, vom Speichertyp der verwendet wird, und vom Prefetching.
Der P4 hat dort allen Anscheins nach große Vorteile.
Was den L2 Cache angeht, so mag das hinsichtlich des Faktor Größe gelten, aber nicht für die Latenz oder auch die Bandbreite.
Der L1 Cache ist groß, hat aber einen um 33% langsameren Zugriff als der des P4.
eine vergrößerung des L2 Caches oder die senkung der Latenzen alleine mag nicht extrem viel bringen, aber es ist ein Problem des Athlon, eines von vielen, die Zusammen ne ordentliche Stange Leistung einbringen können. Imho ist ein 16-fach assoziativer L2 Overkill.
Arstechnica (http://arstechnica.com/paedia/c/caching/caching-7.html) schreibt:
"In general, it turns out that when you factor in current technological conditions (i.e. the speed of tag RAM, the range of sizes that most caches fall into, etc.) some level of associativity less than or equal to eight-way turn out to be optimal for most caches. Any more than eight-way associativity and the cache's latency is increased so much that the decrease in miss rate isn't worth it. Any less than two-way associativity and the number of collisions often increase the miss rate to the point that the decrease in latency isn't worth it. There are some direct-mapped caches out there, though."
Man könnte die Assotiativität des L2 beim Athlon auf 8 oder 4-fach senken und damit dann die Latenz senken. Theoretisch bringt eine Halbierung (Viertelung) der Assotiativität eine Senkung der Latenz auf ein Halb (ein Viertel), da nun nur noch die Hälfte (ein Viertel) der Cache Lines durchsucht werden müssen (wenn man dafür eine konstante Zeit annimmt).
Also bei 8-fach Ass. eine Latenz von 4 Takten (plus 3 vom L1), das wäre dann genau die Latenz des Coppermines.
Oder bei 4-fach Ass. eine Latenz von 2 Takten (plus 3 vom L1), was schneller als alle anderen Architekturen wäre.
Muh-sagt-die-Kuh
2002-10-04, 13:40:23
Originally posted by GloomY
Imho ist ein 16-fach assoziativer L2 Overkill.
Arstechnica (http://arstechnica.com/paedia/c/caching/caching-7.html) schreibt:
"In general, it turns out that when you factor in current technological conditions (i.e. the speed of tag RAM, the range of sizes that most caches fall into, etc.) some level of associativity less than or equal to eight-way turn out to be optimal for most caches. Any more than eight-way associativity and the cache's latency is increased so much that the decrease in miss rate isn't worth it. Any less than two-way associativity and the number of collisions often increase the miss rate to the point that the decrease in latency isn't worth it. There are some direct-mapped caches out there, though."
Man könnte die Assotiativität des L2 beim Athlon auf 8 oder 4-fach senken und damit dann die Latenz senken. Theoretisch bringt eine Halbierung (Viertelung) der Assotiativität eine Senkung der Latenz auf ein Halb (ein Viertel), da nun nur noch die Hälfte (ein Viertel) der Cache Lines durchsucht werden müssen (wenn man dafür eine konstante Zeit annimmt).
Also bei 8-fach Ass. eine Latenz von 4 Takten (plus 3 vom L1), das wäre dann genau die Latenz des Coppermines.
Oder bei 4-fach Ass. eine Latenz von 2 Takten (plus 3 vom L1), was schneller als alle anderen Architekturen wäre. Hohe Assoziativität ist nicht gleichbedeutend mit hoher Latenz, es hängt auch davon ab, wie parallel die Suchlogik im Cache arbeitet. Bei gleicher Suchlogik steigert höhere Assoziativität die Latenz, das ist richtig, aber normalerweise passt man alles aneinander an bzw versucht den besten Kompromiss aus Latenz, Hit-Rate und Die-fläche zu finden.
Ansonsten volle Zustimmung.
Eusti
2002-10-04, 13:48:38
Originally posted by Madkiller
P.S. ok du hast mich teilweise überzeugt, ich korrigiere auf 25-45%!!! Damit wir mal klare Zahlen haben. Ich hab 18 Benchmarkergebnisse (Wiederholung des Link´s (http://hardocp.com/article.html?art=MzY0LDM=)) mal in Excel eingegeben. Dannach ergeben sich für AMD bei Verwendung des gleichen RAM´s (DDR333) die folgenden Vorteile:
Vorteil bei: Quake3 / 3D2001 / SS2 / JediK2 / Comanche4 / UT2003
Nvidia (Dual-DDR): +18% / +24% / +42% / 27% / 23% / 28% - > also von 18-42% (Schnitt 27%)
Via (Single-DDR): +7% / +20% / +28% / 16% / 17% / 28% - > also von 7-28% (Schnitt 19%)
Schnitt beider Chipsätze: +13% / +22% / +35% / 22% / 20% / 28% - > also von 13-35% (Schnitt 23%)
Wobei zu bemerken wäre, das es nur den Via-Chipsatz auch zu kaufen gibt. Bis zum erscheinen des NForce2 gibt es Dual-DDR auch bei Intel.
Grüße
Thomas
BlackBirdSR
2002-10-04, 14:55:05
Originally posted by GloomY
Hertz mit t bitte. :)
Also so schlimm ist es nun auch wieder nicht.
11 Clockcycles (minus den drei für L1 Zugriff) sind effektive 8 Clocks für den L2. Ok, in bestimmten Situationen sind's auch 20 Clocks (minus drei = 17), also wenn die benötigten Daten gerade im Victem Buffer drin sind.
Aber die 8 Clocks sind alles andere als "fürchterlich schlecht". Außerdem wird dieser hohe Wert durch die hohe Assotiativität des L2 des Athlons erkauft, die wiederrum die Hitrate erhöht.
ok, ich hab wieder maßlos übertrieben.
thx für Bemerkung :)
Muh-sagt-die-Kuh
2002-10-04, 17:58:54
Originally posted by GloomY
Also so schlimm ist es nun auch wieder nicht.
11 Clockcycles (minus den drei für L1 Zugriff) sind effektive 8 Clocks für den L2. Ok, in bestimmten Situationen sind's auch 20 Clocks (minus drei = 17), also wenn die benötigten Daten gerade im Victem Buffer drin sind.
Aber die 8 Clocks sind alles andere als "fürchterlich schlecht". Außerdem wird dieser hohe Wert durch die hohe Assotiativität des L2 des Athlons erkauft, die wiederrum die Hitrate erhöht.
Im Vergleich zu einem Cu-Mine P3 ist es schon relativ viel, der L2 Cache hat hier eine Gesamtlatenz von 7 (3 + 4), ein P4 Willamette (dürfte auch für einen Northwood gelten) hat eine L2 Gesamtlatenz von 9 (2 + 7), also kein allzugrosser Unterschied in Clockcycles.
Madkiller
2002-10-04, 21:12:50
Originally posted by Eusti
Der im Test verwendete XP2800 läuft aber mit 333MHZ, so das er syncron läuft und die Bandbreite voll gebrauchen kann. Trotzdem nur 25% schneller (bei Single-DDR vielleicht 23%, aber bleiben wir mal bei 25%).
Hallo Thomas =)
Jetzt weiß ich wo der Hund begraben war.....
Die 30-50% haben bei den Benchmarks gestimmt, wo der P4 noch mit nem 400FSB gelaufen ist... Dann stimmt nämlich auch.
Das heißt aber wiederrum, das es nicht 30-50% sondern eher 20-40% sind.
Ich hoffe damit kannst du dich anfreunden.
MfG Thomas =)
Thowe
2002-10-04, 21:18:58
Originally posted by Eusti
Ein anderes Beispiel wären die im Vergleich zum P4 für Beschädigungen anfälligeren Core´s. Sowas betrachte ich auch nicht als langsamer, sonder einfach nur als schlechter.
Es gibt leider zu viele die sich für fähig halten, aber das haben Frauen und AMD gemein - Brutale Männer die nicht mal das geringste beherrschen.
Thowe
2002-10-04, 21:20:21
Originally posted by Eusti
Wenn AMD mit seiner CPU somit keine Deal´s bekommt, ist man dafür mit verantwortlich. Sowas wie den NForce2 hätte man selber schon vor 2 Jahren mit anbieten müssen. Intel schafft sowas z.B. mit dem I850 doch auch.
Tjo, dann nimm mal ein i850 Board und stecke neben der AGP-Karte 2-3 PCI Grafikkarten rein.
Eusti
2002-10-04, 21:23:45
Originally posted by Madkiller
Ich hoffe damit kannst du dich anfreunden.Sicher, kein Problem. Übrigens gab es die 30-50% die du hattest tatsächlich mal. Und zwar zu Zeiten des alten P4 Willamette. Bei den kleinen P4 Northwood ist der Athlon auch noch ein bisschen weiter weg. Die von mir ausgerechneten 19% (mit Via-Chipsatz) würden bei echten 2,8GHZ des Athlon noch weiter schmelzen, da dieser leider mit hohen Multiplikatoren nur sehr schlecht skaliert. Das heißt ein mit 2,8GHZ laufender Athlon wäre nur noch knapp 15% schneller als ein Intel. Aber bei den aktuellen Tests kommen die 20-25% ungefähr hin.
Thowe
2002-10-04, 21:27:42
Originally posted by Eusti
Angefangen, womit? Intel hat einfach eine andere Strategie gewählt. Wenn es einfacher ist einen 3GHZ Prozessor mit 80% Leistung zu bauen, als einen 2,25GHZ mit 100%, dann ist es doch vernünftig, den höher taktbaren zu bauen. Das hat doch nix mit Verarschung zu tun.
Genau genommen versucht man beim Chip-Design etwas mit der höchsten Effizienz zu kreieren. Man kann selbstverständlich auf verschiedene Aspekte wie Takt, Geschwindigkeit, Verlustleistung usw. optimieren. Intel hat eine massive Optimierung auf den Takt vorgenommen, es gibt keinen Grund ausser einen Marketingtechnischen dies zu tun.
Genau so sehe ich das mit AMD. Wenn sich die Prozessordesign´s seit langem mal wieder so deutlich unterscheiden wie heute, aber sich die Kunden an Preisvergleiche bei optisch gleichem Takt gewöhnt haben, dann ist die Einführung eines Raitung doch gut & vernünftig. Allerdings hätte man einen festen prozentualen Aufschlag für AMD CPU´s wählen sollen (z.B. immer Takt +25%) und nucht son Murks wie jetzt.
Ich denke das dies durchaus in verschiedener Form am Runden Tisch diskutiert wurde, aber das Rating ist so durchaus treffend und im Detail richtig.
Grundsätzlich finde ich beide Verfahren richtig. Intel steigert die Leistung mit einem besser taktbarem Design & AMD macht die Kunden auf seine wahre Leistungsfähigkeit aufmerksam.
Kann man so sehen, jedoch würde ich einen echten Leitungsindex begrüssen, gerade wo mein Prozessor der Höllenmaschine so lügt. Dieser Takt-Vergleich ist einfach arm.
StefanV
2002-10-04, 21:33:03
Originally posted by Thowe
Es gibt leider zu viele die sich für fähig halten, aber das haben Frauen und AMD gemein - Brutale Männer die nicht mal das geringste beherrschen.
Richtig, ich hab mir weder ein Board noch eine CPU beim Montieren eines Kühlers geschrottet...
Allerdings hatte ich meist auch entsprechendes Werkzeug (großer Schraubendreher, ggf Spitzzange) und natürlich etwas Übung im Umgang mit Werkzeugen, was wohl den meisten fehlt, die eine CPU geschrottet haben...
Allerdings möchte ich klarstellen, daß ich nicht übervorsichtig an eine CPU rangehe!!
Eusti
2002-10-04, 21:36:34
Originally posted by Thowe
Tjo, dann nimm mal ein i850 Board und stecke neben der AGP-Karte 2-3 PCI Grafikkarten rein. Keine Ahnung was dann ist. Gibt´s da fette Probleme?
Zum Topic: XP2800 & Lieferfähigkeit: Mittlerweile haben "Merrill Lynch" (Investmentbank) und "Standard&Poors" (Raiting-Agentur) die ersten beiden Studien veröffentlicht, in denen von einer Insolvenz von AMD vor dem Start des Hammers gesprochen wird. Grund sind die nicht stattfindenden Massenlieferungen von High-End (=teuer) CPU´s.
Wenn Intel nicht langsam ein wenig Tempo rausnimmt, haben Sie Mitte nächsten Jahres ein Monopol. Ich halte es daher schon für möglich, das man vielleicht die Auslieferung der Dual-Chipsätze verzögern könnte (um nicht die gleichen Wettbewerbsprozesse wie MS angehängt zu bekommen). Wollen wir AMD mal viel Glück wunschen...
Madkiller
2002-10-04, 21:37:26
Ich habe mal eine Ecke abgebrochen
*schäm*
Hab meinen Alpha 6035 in meinem engen Gehäuse "versucht" zu montieren.
Jeder der den Kühler hat und nicht sehr viel Platz im Gehäuse hat, weiß das es schwierig ist.
Aber das wird mir sicher nie wieder passieren.
Trotzdem finde ich es ziemlich krass von dir Thowe, daß ich mich deshalb als Frauenverprügelder Pfuscher hinstellen lassen muss...
P.S. ich habe das auch auf meine Kappe genommen und nicht versucht auf Garantie oder einen auf "ein anderer ist schuld" zu machen....
Man kann sowas bestimmt nicht verallgemeinern. Genaugenommen kann man fast nichts verallgemeinern.
Eusti
2002-10-04, 21:45:17
Originally posted by Madkiller
P.S. ich habe das auch auf meine Kappe genommen und nicht versucht auf Garantie oder einen auf "ein anderer ist schuld" zu machen...Aber du hast Ihn doch sicherlich noch als "Defekt" bei eBay für 30,- Euro verkauft ;)? Oder?
Madkiller
2002-10-04, 21:47:11
nö, ich hatte glück... der ist zwar nicht mehr auf 133FSB stabil gelaufen und ich habe ihn nicht mehr übertakten können.
Aber auf Default Takt und 100FSB läuft er heute noch.
Nochmal Glück im Unglück...
Thowe
2002-10-04, 22:03:53
Originally posted by Eusti
Keine Ahnung was dann ist. Gibt´s da fette Probleme?
Yep
Zum Topic: XP2800 & Lieferfähigkeit: Mittlerweile haben "Merrill Lynch" (Investmentbank) und "Standard&Poors" (Raiting-Agentur) die ersten beiden Studien veröffentlicht, in denen von einer Insolvenz von AMD vor dem Start des Hammers gesprochen wird. Grund sind die nicht stattfindenden Massenlieferungen von High-End (=teuer) CPU´s.
Tjo, so schlecht steht es aber gar nicht um den Hammer, wäre ja nicht so das es noch keine funktionierenden TapeOuts gegeben hätte. Ich denke schon das die jetzt noch herrschenden Probleme bald in Griff zu bekommen sind.
BTW: Auf solche Studien würde ich nicht viel geben, es gab auch mal eine nette Studie die TelDaFax eine rosige Zukunft bescherrt hat.
Wenn Intel nicht langsam ein wenig Tempo rausnimmt, haben Sie Mitte nächsten Jahres ein Monopol. Ich halte es daher schon für möglich, das man vielleicht die Auslieferung der Dual-Chipsätze verzögern könnte (um nicht die gleichen Wettbewerbsprozesse wie MS angehängt zu bekommen). Wollen wir AMD mal viel Glück wunschen...
Intel wird ganz sicher nicht zuviel vorlegen, ist auch nicht gerade gern gesehen bei den Händlern. Schon mal gefragt warum alle kleinen Händler mitlerweile primär AMD verkaufen? Ein P4 2 Ghz der als Standard angesehen werden kann kostet einen normalen Händler z.Z. etwa 170,- Euro als Boxed-Version. Ein "grosser" Hersteller zahlt an Intel im besten Fall 60,- - 70,- Euro wenn er eine Aktion fährt, im besten Fall gar nichts. Das ermöglicht die Preise der heutigen Komplett-PCs, ein Grund das gerade die kleinen Händler immer mehr auf AMD setzen. Das AMD Systeme einen gewissen "schlechten" Ruf besitzen, liegt einzig daran das oftmals eben miese Komponenten gewählt werden. Da ein Komplett-PC nunmal billig sein muss.
Das Intel die Thermaldiode/Protection eingebaut hat liegt u.a. daran, das z.B. Fujitsu-Siemens ganze Rechnerserien ausgeliefert hat wo die ersten P3 Slot Prozessoren mit SECC2 Kühler bestückt wurden die Dank des berühmt berüchtigten Kondensators nicht richtig mit dem DIE abschlossen. Die Systeme sind natürlich bedingt durch die de facto nicht vorhandenen Kühlung ausgefallen.
Thowe
2002-10-04, 22:07:55
Originally posted by Madkiller
Trotzdem finde ich es ziemlich krass von dir Thowe, daß ich mich deshalb als Frauenverprügelder Pfuscher hinstellen lassen muss...
Tjo, bei der bescheidenen Klammer des 6035 weisst du das die Aktion dumm war die du tatest und nicht absichtlich brutal. =)
Eusti
2002-10-04, 22:19:05
Originally posted by Thowe
BTW: Auf solche Studien würde ich nicht viel geben, es gab auch mal eine nette Studie die TelDaFax eine rosige Zukunft bescherrt hat.Hehe, das stimmt. Die NeuerMarkt-Analysten hätte man alle verhaften müssen.
Aber ganz grob kann man das selber nachrechnen. AMD vernichtet aktuell etwa 3 Millionen Dollar täglich (mit täglich steigender Tendenz). Bei gleichbleibender Geldvernichtung und noch ca. 850 Millionen Dollar Bargeld, ist ca am 10. Juli 2003 das Geld alle. Ob bis dahin der Hammer monatlich in Millionen produziert wird, ist zumindest höchst zweifelhaft. Erst mal die Prozessoren in Massen bringen, dann noch die Chipsatzproduktion dazu koordinieren und dann auch noch kurzfristig soviele OEM für ein komplett neues System gewinnen ist ein Mamut-Project.
Thowe
2002-10-04, 22:31:02
Originally posted by Eusti
Aber ganz grob kann man das selber nachrechnen. AMD vernichtet aktuell etwa 3 Millionen Dollar täglich (mit täglich steigender Tendenz). Bei gleichbleibender Geldvernichtung und noch ca. 850 Millionen Dollar Bargeld, ist ca am 10. Juli 2003 das Geld alle. Ob bis dahin der Hammer monatlich in Millionen produziert wird, ist zumindest höchst zweifelhaft. Erst mal die Prozessoren in Massen bringen, dann noch die Chipsatzproduktion dazu koordinieren und dann auch noch kurzfristig soviele OEM für ein komplett neues System gewinnen ist ein Mamut-Project.
Tja, gerade das ist sehr schwer zu sagen. Der Hammer ist in jedem Fall Sexy, da bleibt die Frage, wann endlich echte Stückzahlen gefertigt werden. Ich kenne den jetzigen Status, genau wie es vor 3 Tagen aussah und auch die Bremsen. Wenn ich die Zuversicht von AMD teilen würde, dann würde ich sagen sieht es gut aus. Aber der Hammer ist z.Z. auf/in einen ähnlichen Status wie die NV30.
Muh-sagt-die-Kuh
2002-10-04, 22:32:57
Originally posted by Thowe
Tjo, dann nimm mal ein i850 Board und stecke neben der AGP-Karte 2-3 PCI Grafikkarten rein. Was passiert dann genau?
Thowe
2002-10-04, 22:38:53
Originally posted by Muh-sagt-die-Kuh
Was passiert dann genau?
Nix
Muh-sagt-die-Kuh
2002-10-04, 22:48:38
Originally posted by Thowe
Genau genommen versucht man beim Chip-Design etwas mit der höchsten Effizienz zu kreieren. Man kann selbstverständlich auf verschiedene Aspekte wie Takt, Geschwindigkeit, Verlustleistung usw. optimieren. Intel hat eine massive Optimierung auf den Takt vorgenommen, es gibt keinen Grund ausser einen Marketingtechnischen dies zu tun.
Das würde ich nicht sagen. Instruction-Level-Paralellism ist das Stichwort.
Es ist sehr schwer bei den Limitationen der x86 Architektur und dem gängigen Codemix 3 oder mehr Pipelines auf Dauer voll auszulasten, bestes Beispiel dafür ist die pipelined Athlon FPU, die die meiste Zeit mit Warten verbringt. Bei eher parallelen Architekturen sind signifikante Steigerungen nur durch niedrigere Latenzen und effektive Caches zu erreichen, so erreicht man effektiv eine bessere Auslastung der Funktionseinheiten....diesen Weg ist Sun mit dem integrierten Speichercontroller der UltraSPARC III schon gegangen und wird AMD auch mit dem Hammer gehen.
Intel hat meiner Meinung nach nicht aus Marketinggründen den anderen Weg gewählt, sondern weil ein solches Design mit einfacheren Mitteln (Taktsteigerung bis zum geht nicht mehr) über eine lange Zeit gut skalieren wird. Man setzt auf weniger Parallelität und somit einen geringen IPC Count, aber auf lange Pipelines mit schnellen Execution Units (double pumped ALUs) und die so erreichbaren hohen Taktfrequenzen. Trotzdem ist werden auch hier die Funktionseinheiten nicht vollständig ausgelasten....wo wir bei Hyper-Threading wären ;)
Nur von Marketingtechnischen Gründen zu reden halt ich für etwas oberflächlich
Muh-sagt-die-Kuh
2002-10-04, 22:49:31
Originally posted by Thowe
Nix Die Kiste springt einfach nicht an? Welche Gründe gibt es dafür und zeigen andere Chipsätze das gleiche Phänomen?
Thowe
2002-10-04, 22:55:29
Originally posted by Muh-sagt-die-Kuh
Die Kiste springt einfach nicht an? Welche Gründe gibt es dafür und zeigen andere Chipsätze das gleiche Phänomen?
Nein, auch nicht alle i850 Boards. Dell hat damals z.B. solchen Kunden die mehr als eine Grafikkarte benötigen Die Matrox MMS angeboten.
Update:
"NEWS
Intel previously delayed the release of its Pentium 4 from September 30 to October 20 due to a bug in the i850 chipset. The bug caused data corruption if certain PCI graphics cards were used to power a second monitor at the same time that an AGP graphics card is used. Intel never officially commented on the delay, but the news came from several PC makers.
Now CNet is reporting that the i850 problem is still in chipsets that shipped in Pentium 4 systems. Intel only delayed the Pentium 4 launch to "... study the extent and cause of the problem." Furthermore, CNet reports: "'Although the bug has yet to be fixed, the limited circumstances in which it can cause problems did not justify further delays,' said Howard High, an Intel spokesman."
"
"Techweb reports that, "Specifically, passing large amounts of data over the PCI bus can introduce latency -- or computing delays -- into the system." The CRN (Computer Reseller News, another CMP publication) Test Center ran into the problems while benchmarking a DVD decoder card in shipping Pentium 4 systems. The AC-3 sound data was badly broken up, but, interestingly, older Pentium 4 test systems did not display the defect.
The article also states, "When asked if streaming other high-bandwidth data types on the PCI bus, such as between SCSI cards, might also inspire system latency, Intel indicated that bus mastering devices would not be subject to the problem." Thus, the current understanding is that bus mastering PCI cards will not cause latency, but non-bus mastering PCI cards might."
hatte ich noch gerade auf geek.com gefunden. AFAIK wurde bei einigen Boards das System mit 1x PCI-Karte auch nur langsam, ist aber alles "lange" her.
GloomY
2002-10-05, 01:15:30
Originally posted by Muh-sagt-die-Kuh
Das würde ich nicht sagen. Instruction-Level-Paralellism ist das Stichwort.Aha, da kennt sich jemand aus ;)
Originally posted by Muh-sagt-die-Kuh
Es ist sehr schwer bei den Limitationen der x86 Architektur und dem gängigen Codemix 3 oder mehr Pipelines auf Dauer voll auszulasten, bestes Beispiel dafür ist die pipelined Athlon FPU, die die meiste Zeit mit Warten verbringt. Bei eher parallelen Architekturen sind signifikante Steigerungen nur durch niedrigere Latenzen und effektive Caches zu erreichen, so erreicht man effektiv eine bessere Auslastung der Funktionseinheiten....diesen Weg ist Sun mit dem integrierten Speichercontroller der UltraSPARC III schon gegangen und wird AMD auch mit dem Hammer gehen.Full ack.
Originally posted by Muh-sagt-die-Kuh
Intel hat meiner Meinung nach nicht aus Marketinggründen den anderen Weg gewählt, sondern weil ein solches Design mit einfacheren Mitteln (Taktsteigerung bis zum geht nicht mehr) über eine lange Zeit gut skalieren wird. Man setzt auf weniger Parallelität und somit einen geringen IPC Count, aber auf lange Pipelines mit schnellen Execution Units (double pumped ALUs) und die so erreichbaren hohen Taktfrequenzen. Trotzdem ist werden auch hier die Funktionseinheiten nicht vollständig ausgelasten....wo wir bei Hyper-Threading wären ;)Stichwort TLP (Thread Level Paralism) ;)
Allerdings werden wir mit dem Hammer sehen, in wie fern sich bei den x86er noch gutes ILP erreichen läßt, oder nicht. Ich bin dort jedenfalls relativ zuversichtlich.
Und für TLP hat AMD ja den Sledgehammer geplant, bei dem man mehrere Cores auf ein Die pflanzen kann.
zeckensack
2002-10-05, 03:58:18
Hyperthreading ist eine schöne Idee, ich habe aber so meine Bedenken, daß es bei der aktuellen P4-Architektur richtig funktioniert. Und zwar geht's da um die Größe der Caches, die beim P4 ja nicht allzu bombastisch ist (vor allem L1-D, aber auch Trace-Cache). Das wird bei einigen Apps dazu führen, daß sich die Threads gegenseitig die Daten aus dem Cache schmeißen. Den dadurch entstehenden Verlust kann der P4 mit seinem sehr guten L2-Cache wahrscheinlich klein halten, aber eben nicht verhindern.
Der Trace Cache ist ja sowieso mein bester Freund. Wenn zwei Threads sich erdreisten, diesen zu überfüllen, dann muß der P4 seinen x86-Decoder wieder anschmeißen. Und der ist nun wirklich im Vergleich zu den Funktionseinheiten unterdimensioniert.
Oder anders gesagt: Die Chance für Cache thrashing ist bei zwei Threads logischerweise höher als bei einem. Kommt selbstverständlich auf die Applikation(en) an. Ich warte gespannt auf umfassende (Desktop-App-)Benchmarks.
Arstechnica scheint das mit dem Cache auch so ähnlich zu sehen, da bin ich also in guter Gesellschaft. Ist übrigens wie üblich ein ganz feiner Artikel:
http://arstechnica.com/paedia/h/hyperthreading/hyperthreading-1.html
PS: Der Thread ist wirklich schön geworden. :)
BlackBirdSR
2002-10-05, 11:45:20
schön dass er dir gefällt ;)
solange jetzt kein MOD kommt und den Thread wegen Schwachsinn und Geschwafel über unverständliches Zeugs schließt *g*
Eusti
2002-10-05, 13:45:05
Originally posted by zeckensack
PS: Der Thread ist wirklich schön geworden. :) Ja, ich find Ihn auch rührend. Ich hab Ihn jetzt schon 5x gelesen und jedesmal wird er besser...
GloomY
2002-10-05, 18:42:53
doppelpost
GloomY
2002-10-05, 18:43:00
Originally posted by zeckensack
Hyperthreading ist eine schöne Idee, ich habe aber so meine Bedenken, daß es bei der aktuellen P4-Architektur richtig funktioniert. Und zwar geht's da um die Größe der Caches, die beim P4 ja nicht allzu bombastisch ist (vor allem L1-D, aber auch Trace-Cache). Das wird bei einigen Apps dazu führen, daß sich die Threads gegenseitig die Daten aus dem Cache schmeißen. Den dadurch entstehenden Verlust kann der P4 mit seinem sehr guten L2-Cache wahrscheinlich klein halten, aber eben nicht verhindern.
Der Trace Cache ist ja sowieso mein bester Freund. Wenn zwei Threads sich erdreisten, diesen zu überfüllen, dann muß der P4 seinen x86-Decoder wieder anschmeißen. Und der ist nun wirklich im Vergleich zu den Funktionseinheiten unterdimensioniert.
Oder anders gesagt: Die Chance für Cache thrashing ist bei zwei Threads logischerweise höher als bei einem. Kommt selbstverständlich auf die Applikation(en) an. Ich warte gespannt auf umfassende (Desktop-App-)Benchmarks.
Arstechnica scheint das mit dem Cache auch so ähnlich zu sehen, da bin ich also in guter Gesellschaft. Ist übrigens wie üblich ein ganz feiner Artikel:
http://arstechnica.com/paedia/h/hyperthreading/hyperthreading-1.html
PS: Der Thread ist wirklich schön geworden. :) Das mit den Caches kann bei HT sicher ein Problem werden. Dazu fällt mir noch eine Sache ein:
Ich bin mir nicht sicher, aber braucht nicht jeder Thread auch seinen eingenen TLB? D.h. daß es ein kann, daß es bei gleichzeitiger Bearbeitung mehrerer Threads auch zu Performanceproblemen durch die Übersetzung von virtueller zu realer Adresse kommt?
Bei TLP auf Prozessorebene (d.h. mit mehreren Prozessoren auf einem Die, so wie beim Sledgehammer) kann das nicht passieren, da dort jeder Prozessor seinen eigenen TLB hat. Insofern halte ich HT auch hier für zumindest fragwürdig.
edit: Ich habe gerade gelesen, daß - zumindest der Xeon - zwei Ausführungen der TLB hat, also daß es zumindest hier wahrscheinlich zu keinem Performanceproblem kommen wird.
Muh-sagt-die-Kuh
2002-10-05, 20:14:52
Originally posted by zeckensack
Hyperthreading ist eine schöne Idee, ich habe aber so meine Bedenken, daß es bei der aktuellen P4-Architektur richtig funktioniert. Und zwar geht's da um die Größe der Caches, die beim P4 ja nicht allzu bombastisch ist (vor allem L1-D, aber auch Trace-Cache). Das wird bei einigen Apps dazu führen, daß sich die Threads gegenseitig die Daten aus dem Cache schmeißen. Den dadurch entstehenden Verlust kann der P4 mit seinem sehr guten L2-Cache wahrscheinlich klein halten, aber eben nicht verhindern.
Der Trace Cache ist ja sowieso mein bester Freund. Wenn zwei Threads sich erdreisten, diesen zu überfüllen, dann muß der P4 seinen x86-Decoder wieder anschmeißen. Und der ist nun wirklich im Vergleich zu den Funktionseinheiten unterdimensioniert.
Oder anders gesagt: Die Chance für Cache thrashing ist bei zwei Threads logischerweise höher als bei einem. Kommt selbstverständlich auf die Applikation(en) an. Ich warte gespannt auf umfassende (Desktop-App-)Benchmarks.
Arstechnica scheint das mit dem Cache auch so ähnlich zu sehen, da bin ich also in guter Gesellschaft. Ist übrigens wie üblich ein ganz feiner Artikel:
http://arstechnica.com/paedia/h/hyperthreading/hyperthreading-1.html
PS: Der Thread ist wirklich schön geworden. :) Sagen wir es mal so: Es würde mich nicht wundern, wenn der Prescott einige Optimierungen haben wird, die gezielt auf die HT Problembehebung ausgerichtet sind.
Muh-sagt-die-Kuh
2002-10-05, 21:00:16
Originally posted by GloomY
Ich bin mir nicht sicher, aber braucht nicht jeder Thread auch seinen eingenen TLB? D.h. daß es ein kann, daß es bei gleichzeitiger Bearbeitung mehrerer Threads auch zu Performanceproblemen durch die Übersetzung von virtueller zu realer Adresse kommt?
Ja, braucht er prinzipiell schon.
Der TLB wird bei Threadwechsel grundsätzlich geflusht. Würde man dies nicht machen könnte z.B. folgendes passieren: Thread 2 wird geladen, der TLB bleibt der alte. Thread 2 will auf eine virtuelle Adresse x zugreifen, die Thread 1 noch kurz zuvor benutzt hat und es kommt zu einem TLB hit.....dumm ist nur, dass dann ein völlig falsches Datum geladen wird, weil Thread 1 für die gleiche virtuelle Adresse eine völlig verschiede Page in seiner Page-Table stehen hat als Thread 2 ;)
Mit nur einem TLB bei 2 simultanen Threads würde es Performanceprobleme geben, da der TLB lange nicht so effektiv wäre (er würde wahrscheinlich geflusht werden bevor er überhaupt voll wird).
GloomY
2002-10-05, 21:32:24
@Muh-die-Kuh:
Ja, mir war schon klar, was passiert, wenn der TLB net für den zweiten Thread aktualisiert wird (-> Chaos ;) ).
Aber ich will erstmal Benches sehen, bevor ich hier weiter spekuliere.
Vielleicht ist ja mit HT bei kleinem Code/Daten, die in den Trace/L1-D-Cache passen, doch noch was zu holen.
BlackBirdSR
2002-10-05, 22:00:12
Originally posted by GloomY
@Vielleicht ist ja mit HT bei kleinem Code/Daten, die in den Trace/L1-D-Cache passen, doch noch was zu holen.
Im L1 Cache sehe ich nicht das große Problem,
alle Daten für FPU Anwendungen werden so weit ich weiss direkt aus dem L2 Cache ausgelesen.
Muh-sagt-die-Kuh
2002-10-05, 22:00:36
Originally posted by GloomY
@Muh-die-Kuh:
Ja, mir war schon klar, was passiert, wenn der TLB net für den zweiten Thread aktualisiert wird (-> Chaos ;) ).
Aber ich will erstmal Benches sehen, bevor ich hier weiter spekuliere.
Vielleicht ist ja mit HT bei kleinem Code/Daten, die in den Trace/L1-D-Cache passen, doch noch was zu holen. OK, jetzt weiss ich dass du es auch weisst....gut :D
Ich schätze mal, der Northwood mit HT dürfte sich ähnlich zum aktuellen Xeons mit HT verhalten, die Cores sind schliesslich fast identisch.
An Xeon Benchmarks mit / ohne Hyperthreading hab ich auf die Schnelle nur diesen (http://www.anandtech.com/IT/showdoc.html?i=1606&p=1) Artikel gefunden, die Benchmarks sind allerdings nicht die üblichen Verdächtigen ;)
Ansonsten hoffe ich, dass Ace´s Hardware bei erscheinen des P4-3,06 einen sehr schönen Artikel zu dem Thema liefern wird :)
BlackBirdSR
2002-10-05, 22:13:37
Intel hat angeblich ein paar Bugs hinsichtlich HT mit dem neuen C1 Stepping beseitigt,
Diese Bugs dürften also auch die Xeons noch haben.
wir werden sehen wir die Northwoods mit HT zurechtkommen.
Derweilen steht Prescott mit Gerüchten um 4xThreading schon vor der Tür ;)
GloomY
2002-10-06, 02:10:49
Originally posted by BlackBirdSR
Im L1 Cache sehe ich nicht das große Problem,
alle Daten für FPU Anwendungen werden so weit ich weiss direkt aus dem L2 Cache ausgelesen. Wieso das? Der L2 ist doch deutlich langsamer als der L1.
BlackBirdSR
2002-10-06, 02:53:31
Originally posted by GloomY
Wieso das? Der L2 ist doch deutlich langsamer als der L1.
sicher?
ein 2GHZ P4 hat eine CacheBandbreite von ca 32GB/s für den L2 Cache.
Wenn SSE2 verwendet wird, sogar knapp 64GB/s.
Mehr schafft auch der L1 Cache nicht.
Allerdings ist dieser nur sehr klein.
FPU Code braucht oftmals mehrere Taktzyklen, ganz besonders beim P4.
Da fällt die höhere Latenz zum L2 Cache nicht auf.
Ein Schelm wer dabei böses, denkt und die schlechten Latenzzeiten der P4 FPU darauf zurückführt, dass eine schnellere CPU genau deswegen nichts gebracht hätte *g* (unwahrscheinlich)
Itanium macht es übrigens auch so, und nutzt den L2 Cache für FPU Angelegenheiten.
GloomY
2002-10-06, 03:16:15
Originally posted by BlackBirdSR
sicher?Nein, ganz und gar nicht. :D
Ist das dann ein direkter L2 Zugriff, d.h. nur die Latenz von L2 (und nicht die von L1+L2)?
Originally posted by BlackBirdSR
ein 2GHZ P4 hat eine CacheBandbreite von ca 32GB/s für den L2 Cache.
Wenn SSE2 verwendet wird, sogar knapp 64GB/s.
Mehr schafft auch der L1 Cache nicht.
Allerdings ist dieser nur sehr klein.
FPU Code braucht oftmals mehrere Taktzyklen, ganz besonders beim P4.
Da fällt die höhere Latenz zum L2 Cache nicht auf.Lange Ausführungszeit der FPU hin oder her, wenn ich viel Daten hin und herschiebe, dann machen sich zwangsläufig die Latenzen bemerkbar, auch wenn man durch die FPU den ein oder anderen Takt mehr Verschnaufpause hat.
Originally posted by BlackBirdSR
Ein Schelm wer dabei böses, denkt und die schlechten Latenzzeiten der P4 FPU darauf zurückführt, dass eine schnellere CPU genau deswegen nichts gebracht hätte *g* (unwahrscheinlich)Glaub' ich auch nicht.
Radeonator
2002-10-06, 04:44:39
Ist euch nicht aufgefallen das fast in allen Previews stand, das der nForce2 momentan sau instabil ist und viele es für zu früh halten, das Teil auf den Markt zu bringen. Zudem wird die Market Version eher langsamer als die Preview Version sein...
Richthofen
2002-10-06, 09:54:41
auf diesen Umstand hat Nvidia die Tester hingewiesen, da AMD die Vorserienboards hat verschicken lassen.
Laut Nvidia selber werden die Final Boards stabil sein. Natürlich wird das wie immer abhängig vom Hersteller sein. Eigentlich sollte das machbar sein, denn in diesem Punkt war der nForce1 bereits allen vorraus.
Ich werd wenn ich ihn kaufe wie immer Asus kaufen.
Werd wohl mein nForce1 für nen guten Betrag verkaufen können und dann habe ich wieder ne nette All in One Lösung mit möglichst wenig PCI Karten und vor allem bloß kein VIA, ALI oder SIS :)
BlackBirdSR
2002-10-06, 09:57:18
Originally posted by GloomY
Nein, ganz und gar nicht. :D
Ist das dann ein direkter L2 Zugriff, d.h. nur die Latenz von L2 (und nicht die von L1+L2)?
Lange Ausführungszeit der FPU hin oder her, wenn ich viel Daten hin und herschiebe, dann machen sich zwangsläufig die Latenzen bemerkbar, auch wenn man durch die FPU den ein oder anderen Takt mehr Verschnaufpause hat.
nur ein L2 Zugriff, also 6 Takte.
Ausserdem brauchen einige P4 Befehle 17 bis 34 Takte, da machen sich solche Latenzen nicht so stark bemerktbar wie es z.B beim K6 der Fall gewesen wäre.
Ganz genau kann ich es Mangel an Informationen nicht erklären, allerdings macht sich der P4 bei STreaming ganz gut, und für den restlichen Fall ist die FPU sowieso ne Frechheit *g*
GloomY
2002-10-06, 12:32:25
Originally posted by BlackBirdSR
nur ein L2 Zugriff, also 6 Takte.
Ausserdem brauchen einige P4 Befehle 17 bis 34 Takte,:O
Also wenn's um solche Größenordnungen geht, dann ist es natürlich klar, daß da die Latenz von 6 Takten verschmerzbar ist.
Originally posted by BlackBirdSR
da machen sich solche Latenzen nicht so stark bemerktbar wie es z.B beim K6 der Fall gewesen wäre.
Ganz genau kann ich es Mangel an Informationen nicht erklären, allerdings macht sich der P4 bei STreaming ganz gut, und für den restlichen Fall ist die FPU sowieso ne Frechheit *g* lol :D
Allerdings wenn man mal von der FPU absieht:
Was meinst du zu der von Zekcensack befürchteten These, daß bei mehreren Threads der L1 Instruction Cache zu klein sei und es passieren könnte, daß der P4 seinen x86 Decoder (ist doch nur einer, oder?) benutzen muß, weil der Trace Cache keine µOps für den betreffenden Thread bereit hält?
BlackBirdSR
2002-10-06, 13:38:18
Originally posted by GloomY
Was meinst du zu der von Zekcensack befürchteten These, daß bei mehreren Threads der L1 Instruction Cache zu klein sei und es passieren könnte, daß der P4 seinen x86 Decoder (ist doch nur einer, oder?) benutzen muß, weil der Trace Cache keine µOps für den betreffenden Thread bereit hält?
Ich weiss nicht genau wieviel Der Trace Cache nun wirklich speichern kann.
Eine Umrechnung auf klassische bytes ist finde ich nicht ganz korrekt, da im Trace Cache ja im Gegensatz zu einem echten L1-I Cache gleich Branches mit einbezogen werden.
Sollte der Trace Cache hier wirklich Probleme machen, kann SMT vielleicht immernoch genug Latenzen verstecken um die ca 8 extra Pipeline Stufen fürs Decoden verschmerzbar zu machen.
Ob dann allerdings der Datenfluss konstant bleibt?
Ich denke/hoffe der Trace Cache ist schon an SMT angepasst, schließlich wusste Intel genau was sie da tun als sie es in den P7 Core integrierten. Vielleicht hilft die Segmentbildung innerhalb des TC, für beide Threads Daten bereitzuhalten.
Ich denke aber man kann annehmen dass die 8KB L1-D Cache auch wenns nur Integer Code ist, herzlich wenig ist für eine SMT CPU.
Um bei 2 Threads gleichzeitige Zugriffe auf Cachepositionen zu verhindern muss man dazu noch best. bereiche sperren, schwer vorzustellen dass 8KB nicht als ganzen genutzt werden, ist ja eh schon wenig.
Man muss aber auch zugeben, dass Hyperthrading nicht dazu da ist eine 2te CPU zu ersetzen, und bis zu 90% mehr performance herauszuquetschen.
Ich denke die Grunde für viele neagtive Ergebnisse bei Hyperthrading or die minimalen Geschwindigkeitsvorteile in vielen Situationen entstammen soclhen Handicaps wie den Caches.
Man könnte jetzt spekulieren dass Prescott dahingegend Verbesserungen enthält, was sogar wahrscheinlich ist.
dessen Nachfolger Tejas soll angeblich (höchst spekulativ) gar keinen Trace Cache mehr haben, was ein Indiz sein könnte dass Intel vorhat die SMT Sache auszubauen. Irgendwann begrenz der TraceCache so wie er im P4 implementiert ist die Leistung, oder die Taktrate.
(läuft ja schon jetzt nur auf halbem Core Takt)
Ich halte die Geschichte ohne Trace Cache beim P7 Core aber für sehr weit hergeholt.
zeckensack
2002-10-06, 16:58:17
Originally posted by BlackBirdSR
Ich weiss nicht genau wieviel Der Trace Cache nun wirklich speichern kann.
Eine Umrechnung auf klassische bytes ist finde ich nicht ganz korrekt, da im Trace Cache ja im Gegensatz zu einem echten L1-I Cache gleich Branches mit einbezogen werden.
Wieso sollte man nicht umrechnen?
Bei anderen Architekturen machen die Hersteller das. Die 12000µops Angabe verschleiert IMO nur die Fakten.
Auch andere moderne L1-I-Caches speichern Zusatzdaten.
Der K7 speichert diverse Predecode-Bits, der L1-I ist auch physikalisch deutlich größer als 64KByte (auch wenn man ECC nicht berücksichtigt). Er speichert aber tatsächlich 64kByte x86-Code, deswegen stimmt die Angabe.
Wenn ich von durchschnittlich 3 Bytes pro x86-Befehl ausgehe (ziemlich genauer Wert), und von 1,5µops pro x86-Befehl (grobe Schätzung meinerseits), dann komme ich auf das Äquivalent von 12k/1,5*3Byte=24kByte. Ob der Trace-Cache außer Ops noch anderes speichert ist hier irrelevant, da Mama Intel explizit 12000 Ops angibt und die Zusatzbits nicht mitzählt. Insofern tut man dem P4 keinesfalls unrecht, indem man auf der Basis 'nur Ops' weiterrechnet.
Und noch ein kleiner Kommentar zu TracheCache vs x86-I-Cache:
Die einen nennen es nicht-dekordierten, wischi-waschi-x86-Krempel, die anderen nennen es ...
Transparente Code-Kompression
Begründung:
Ich kenne den neusten Stand nicht, aber bei klassischen RISC-Architekturen belegen Ops ja immer konstanten Speicherplatz, zB 64Bit pro Instruktion (reicht für ternär Reg, Reg, Reg, bzw ternär Mem, Reg, Reg bei 32Bit-Addressen).
Denkbar wären auch 32 Bit, dann kann man aber keine 32Bit-Immediates mehr mit der Op in eine Instruktion packen. Vielleicht sind's ja auch 48 Bit.
*Speku-Modus on*
Sei's drum, gehen wir mal von internen 48 Bit pro µOp aus, dann braucht der P4 physikalisch 12k*6Byte=72kByte+ECC, speichert also wenig Ops in einem großen Cache.
Im Vergleich zum K7 speichert der P4 bestenfalls halbsoviele Ops pro physikalischer Cache-Größe, und braucht dadurch doppelt soviel I-Cache-Bandbreite pro µOp. Im Gegenzug spart er oft den Decoder-Durchlauf.
Der K7 verarbeitet das 'komprimierte' Format direkt, was ihn zwei Pipeline-Stufen extra kostet.
So betrachtet, kann das direkte Verarbyten von x86-Code auch Vorteile haben, da es Cache (=Fläche) und Bandbreite (=wieder Fläche) spart.
Muh-sagt-die-Kuh
2002-10-06, 17:58:17
Originally posted by zeckensack
Und noch ein kleiner Kommentar zu TracheCache vs x86-I-Cache:
Die einen nennen es nicht-dekordierten, wischi-waschi-x86-Krempel, die anderen nennen es ...
Transparente Code-Kompression
Begründung:
Ich kenne den neusten Stand nicht, aber bei klassischen RISC-Architekturen belegen Ops ja immer konstanten Speicherplatz, zB 64Bit pro Instruktion (reicht für ternär Reg, Reg, Reg, bzw ternär Mem, Reg, Reg bei 32Bit-Addressen).
Denkbar wären auch 32 Bit, dann kann man aber keine 32Bit-Immediates mehr mit der Op in eine Instruktion packen. Vielleicht sind's ja auch 48 Bit.
*Speku-Modus on*
Sei's drum, gehen wir mal von internen 48 Bit pro µOp aus, dann braucht der P4 physikalisch 12k*6Byte=72kByte+ECC, speichert also wenig Ops in einem großen Cache.
Im Vergleich zum K7 speichert der P4 bestenfalls halbsoviele Ops pro physikalischer Cache-Größe, und braucht dadurch doppelt soviel I-Cache-Bandbreite pro µOp. Im Gegenzug spart er oft den Decoder-Durchlauf.
Der K7 verarbeitet das 'komprimierte' Format direkt, was ihn zwei Pipeline-Stufen extra kostet.
So betrachtet, kann das direkte Verarbyten von x86-Code auch Vorteile haben, da es Cache (=Fläche) und Bandbreite (=wieder Fläche) spart. Ich persönlich würde von 32 bit µops ausgehen, es macht ja kein Problem 32 bit immediates in 2x16 bit immediates aufzuspalten. Die Speicherersparnis durch die weniger breiten Befehle wäre wahrscheinlich größer als der durch die zusätzliche Anzahl an Instruktionen hervorgerufene Mehrbedarf.
Zum Platzbedarf des Trace-Cache auf dem Die:
Er kostet mehr Platz für weniger Instruktionen als ein x86-I-Cache, allerdings spart er auch Platz durch 2 x86-Decoder weniger. Jetzt müsste ich nur noch wissen, was mehr Platz wegnimmt ;)
zeckensack
2002-10-06, 18:20:42
Originally posted by Muh-sagt-die-Kuh
Ich persönlich würde von 32 bit µops ausgehen, es macht ja kein Problem 32 bit immediates in 2x16 bit immediates aufzuspalten. Die Speicherersparnis durch die weniger breiten Befehle wäre wahrscheinlich größer als der durch die zusätzliche Anzahl an Instruktionen hervorgerufene Mehrbedarf.Hört sich sinnvoll an :)
Zum Platzbedarf des Trace-Cache auf dem Die:
Er kostet mehr Platz für weniger Instruktionen als ein x86-I-Cache, allerdings spart er auch Platz durch 2 x86-Decoder weniger. Jetzt müsste ich nur noch wissen, was mehr Platz wegnimmt ;) IMO sollten 2 Dekoder doch deutlich mehr Platz fressen, als 32kByte SRAM.
Der K7 hat AFAIK nur einen Single-Ported I-Cache, aus dem er 16Byte liest und auf die drei Decoder aufsplittet. Der TraceCache ist dagegen quasi Triple-Ported, mit relativ schmalen Ports. Klingt IMO nicht gerade platzsparend.
Komisch ist halt, daß der P4 deutlich größer als der K7 ist. An den Funktionseinheiten kann's eigentlich nicht liegen. Der K7 einfach viel mehr davon. SSE2? Oder die ganzen Drive-Stages???
Oder ist der TraceCache doch so riesig?
Ich glaube bei Anand und/oder THG gab's mal markierte Floorplans zu sehen. Da sollte man das ablesen können.
BlackBirdSR
2002-10-06, 22:52:11
Originally posted by zeckensack
Der K7 hat AFAIK nur einen Single-Ported I-Cache, aus dem er 16Byte liest und auf die drei Decoder aufsplittet. Der TraceCache ist dagegen quasi Triple-Ported, mit relativ schmalen Ports. Klingt IMO nicht gerade platzsparend.
Komisch ist halt, daß der P4 deutlich größer als der K7 ist. An den Funktionseinheiten kann's eigentlich nicht liegen. Der K7 einfach viel mehr davon. SSE2? Oder die ganzen Drive-Stages???
Oder ist der TraceCache doch so riesig?
Ich glaube bei Anand und/oder THG gab's mal markierte Floorplans zu sehen. Da sollte man das ablesen können.
Der Trace Cache schluckt tatsächlich einiges an Fläche und Transistoren wenn man den Artikeln darüber glauben schenkt.
Es wird einiges an Logik benötigt und die Segmente zu bilden, zu ordnen und was sonst noch vor sich geht.
Sinn des Trace Caches ist es auch bestimmt nicht Platz zu sparen.
Durch den Trace Cache lassen sich Pipeline Stufen einsparen, Befehle schneller an an die Funktionseinheiten senden (ich weiss stimmt so nicht, mir ist nur gerade Scheduler nicht eingefallen,jetzt hab ichs aber ;) ) aber was rede ich da, das wissen wir inzwischen schon Alles.
Das ist aber auch nicht Alles, 3 fully pipelined Decoder wie der Athlon sie nutzt ,erzeugen große Mengen an Abwärme und verhindern dass die CPU hoch getaktet werden kann.
Das mag bis 3GHZ nicht kritisch sein, aber bei bis zu 10GHZ anscheind doch.
Keiner sagt der P7 wurde als Reaktion auf den Athlon entwickelt, Intel mag vorgehabt haben die CPU bis 10GHZ zu skalieren (deutet ja Alles im Core selber darauf hin.), dass man 2004 schon wieder eine neue CPU Generation braucht die übernimmt(Nehalem) war vielleicht nicht eingeplant.
AFIK hat der P4 nur 2 Drive Stages, und das sollte auch nicht so viel Platz weg nehmen.
Dass der P4 so groß ist würde ich ganz anders erklären.
Er (Williamette) hat nichtmal so viel mehr Transistoren als der K7.
SSE2 selbst belegt auch kaum Platz, sind doch Register und die FPU(s) für SSE2 schon im Core vorhanden.
AMD hat muss CPUs billig produzieren könnem, folglich wird versucht die versch. Komponenten der CPU so eng wie möglich anzuordnen.
Dass AMD es immer wieder schafft mit einem Umstellen der Möbel in der CPU, die Verlustleistung konstant zu halten selbst bei steigenden Taktfrequenzen (siehe Tbird->Palomino, Tbred A->B,)
deitet daraufhin dass man ständig an am optimieren ist.
Intel dagegen, hat Weltweit Fabs, und kann es sich wohl leisten die CPUs weniger dicht zu packen, was sehr Vorteilhaft für die Abwärme sein sollte. Besonders mit Hinsicht auf Hyperthreading dass die CPU noch mehr auslasten wird.
Dass Intel dabei mit einem Stepping einfach mal so, den Core um einiges verkleinert anscheinend ohne an dem Fertigungsprozess zu drehen lässt doch vermuten dass sehr viel Platz in der CPU selbst war.
Mag sein dass Williamette einfach kein redesign mehr bekam nachdem versch Sachen in letzter Minute aus dem Core geflogen sind, oder dass Intel einfach angst um die Yields bei dicht gepacktem Core hatte.
Ich würde also einfach sagen, dass AMD dichter packt, und mehr Abwärme in kauf nimmt, während Intel zuweilen recht verschwenderisch mit der DIE Fläche umgeht.
Beweisen kann ich das natürlich nicht...
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.