Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Sandy Bridge - 32nm, H2 2010, AVX, DX10.1-IGP
AnarchX
2009-07-05, 09:00:48
Sandy Bridge ist die Nachfolge-Architektur zu Nehalem, also der nächste Tock, nach Intels Tick-Tock-Schema.
http://img36.imageshack.us/img36/4927/ticktock.jpg (http://img36.imageshack.us/i/ticktock.jpg/)
Der Refresh steht schon mit Ivy Bridge fest.
Wichtigste technische Neuerungen sind die Advanced Vector Extensions (http://software.intel.com/en-us/avx/) für SSE.
Weiterhin soll der Turbo-Mode bei SNB auch deutlich verbessert werden:
http://img411.imageshack.us/img411/7572/kaigai412035572333og4.gif
http://pc.watch.impress.co.jp/docs/2008/0129/kaigai412.htm
Hier gibt es den ersten Die-Shot eines SNB-Quadcores mit integrierter GPU:
http://img32.imageshack.us/img32/6168/snb2496035366.jpg (http://img32.imageshack.us/i/snb2496035366.jpg/)
http://translate.google.ch/translate?u=http%3A%2F%2Fwww.canardpc.com%2Fnews-37333-canard_pc_vous_devoile_en_photo_le_futur_sandy_bridge_d___intel.html&sl=fr&tl=de&hl=de&ie=UTF-8
Der L2-Cache ist falsch eingezeichnet, zum vergleichen:
http://chip-architect.com/news/Shanghai_Nehalem.jpg
Dementsprechend sind es hier wie früher berichtet, wohl doch 512KiB pro Core, also eine Verdopplung gegenüber Nehalem.
Wohl weiterhin 256KiB pro Core: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7979596#post7979596
AnarchX
2009-07-05, 09:18:01
Beim IGP sind die auffälligen Strukturen im oberen Bereich auch sehr interessant.
Es scheinen wohl 12 EUs zu sein, die jeweils einen nicht unerheblichen Cache besitzen, was wiederrum für eine D3D11-Architektur mit ensprechenden GPGPU-Fähigkeiten spricht.
Wobei natürlich bei 34mm² @ 32nm man wohl keine Leistungswunder erwarten sollte.
Beim IGP sind die auffälligen Strukturen im oberen Bereich auch sehr interessant.
Es scheinen wohl 12 EUs zu sein, die jeweils einen nicht unerheblichen Cache besitzen, was wiederrum für eine D3D11-Architektur mit ensprechenden GPGPU-Fähigkeiten spricht.
Wobei natürlich bei 34mm² @ 32nm man wohl keine Leistungswunder erwarten sollte.
Ich komm auf ~40-44 mm². Umgerechnet auf 65mn wären das dann 42 x (65²/32²) = 170 mm²
Wenn es ein SGX-Kern wäre könnte man mit der IGP sogar was anfangen. 1,2GHz mit 5-10facher pro MHz Leistung eines SGX 545 aufgrund der 10fachen 65nm Vergleichsgröße wäre schon nicht schlecht. Zusammen genommen wäre die IGP also ca. 30-50x schneller als ein SGX 545.
Ich weiß natürlich das die Skalierung nicht so 100%ig funktioniert aber insgesamt sollte die IGP schon einiges an Leistung bringen können.
AnarchX
2009-07-05, 12:28:36
Ja, es scheinen wohl eher wirklich um die 40mm²+ zu sein.
Aber den SGX kann man wohl eher ausschließen, da es zum einen wohl noch keine lizensierbare DX11-IP von IMGTec gibt und auf der anderen Seite Intels Politik keine Fremd-Grafik-IP bei den Desktopchips sehen will.
Die Cache Latenzen sind auch interessant - oder einfach Unfug.
Ailuros
2009-07-05, 20:58:31
Ja, es scheinen wohl eher wirklich um die 40mm²+ zu sein.
Aber den SGX kann man wohl eher ausschließen, da es zum einen wohl noch keine lizensierbare DX11-IP von IMGTec gibt und auf der anderen Seite Intels Politik keine Fremd-Grafik-IP bei den Desktopchips sehen will.
Schon die eingeschaetzte Frequenz von 1.0-1.4GHz sieht mir nicht nach irgend etwas SGX aus. Aus den IMG whitepapers kann man entnehmen dass unter 65nm bis zu 200MHz moeglich sind und unter 45nm bis zu 400MHz. Selbst unter 32nm ist der Weg bis zu =/>1GHz ziemlich lang; wenn dann wohl eher bis zu 800MHz.
Waere der 545 theoretisch skalierbar wie SGX543MP wuerden locker 4 cores reinpassen mit 10.1 Komplianz und einem vollen OpenCL Profil fuer GPGPU. Die restliche die area die bis zu 40+mm2 uebrig bleibt koennte locker die restlichen X11 Vorraussetzungen unterbringen da jeglicher SGX schon von sich auch Tesselations-faehig ist.
Alles rein theoretisch; aber mickrig waere die Leistung in dem Fall keinesfalls. Mit einem SGX543-16MP@400MHz kann man stellenweise sogar einer 4850 die Zaehne zeigen.
Aber den SGX kann man wohl eher ausschließen [...] und auf der anderen Seite Intels Politik keine Fremd-Grafik-IP bei den Desktopchips sehen will.
Das ist aber ärgerlich. Wieso?
AffenJack
2009-07-06, 07:58:42
Wenn man SGX überall reinbringen wollte, müsste man sie aufkaufen, weil sonst das Risiko zu groß ist. Wieso das nicht gemacht wird ka, aber vll ist das Kartellrechtlich nicht möglich. Aber ansonsten kann man sowas vergessen, weil nen so großes Unternehmen wie Intel sich sicher nicht so stark von nem anderen Unternehmen abhängig macht. Schließlich müsste man die IGP-Abteilung schließen, wenn man keine Verwendung für hat und hätte kaum Alternativen. SGX könnte dann einfach mal die Preise diktieren.
Die nächste Sache ist dann auch noch, wozu überhaupt? Intel kommt mit ihrer aktuellen Politik prächtig über die Runden. Im Desktop wird SGX nicht gebraucht. Im Atom, wo man ihn bruacht wird er auch kommen.
Das Teil muss 200mm²+ sein. Auffällig ist, dass es sich nahezu exakt um die Nehalem-Architektur handelt, includiert eben das kleinere AVX, aber nicht das größere FMA (wie auch bei kaum veränderter FPU). Es ist also eher so, dass Intel die Nehalem-Architektur für 4 Generationen nahezu unverändert (sogar die Cache-Größen) beibehalten möchte. Das lässt für die Westmere-Generation allerdings auch vermuten, dass es auch hier keinen größeren L2 geben wird. Leistungsmäßig allein von der CPU her dürfte das Teil sich in der Praxis so gut wie garnicht von Westmere abheben. Dann wird aber auch sonnenklar, warum es keinen Westmere-Quad geben wird. Das ist im Prinzip der Westmere-Quad. Interessant wird allerdings ob die L3-Anbindung der GPU förderlich oder eher hinderlich für diese CPU sein wird - ich halte sowas ehrlichgesagt für großen Unfug. Großartig erwarten würd ich davon auch nix - es kann zwar für OpenCL Vorteile haben, eine latenzfreie Anbindung zu haben, aber gegen eine externe GPU mit eigenem RAM wird das dennoch kaum ankommen - nicht, dass hier Illusionen entstehen, dass ein IGP irgendwie sonderlich Leistungsfähig sein kann :D. Man darf bei Intel ja auch ein unkalkulierbares Risiko nicht vergessen: Der Treiber :D.
Intel versuchts witzigerweise wieder über den Takt an Leistung zu kommen. Nehalem ist ja heute schon recht stark. Ob das so fast vollständig unverändert von der Architektur her 4 Jahre reichen wird - es wird jedenfalls ein sehr spannendes 2011 :D.
mboeller
2009-07-06, 10:26:47
Das Teil muss 200mm²+ sein.
Steht doch dabei: 225mm² soll die CPU groß sein.
Im Desktop wird SGX nicht gebraucht. Im Atom, wo man ihn bruacht wird er auch kommen.
Und bei normalen Laptops?
BlackBirdSR
2009-07-06, 10:53:44
Interessant wird allerdings ob die L3-Anbindung der GPU förderlich oder eher hinderlich für diese CPU sein wird - ich halte sowas ehrlichgesagt für großen Unfug.
Zumal Nehalem IMO auch stark von seinem L3 lebt, anders als AMDs K10 z.B, der ihn ganz anders nutzt.
Sicher, dass bei AVX nicht schon FMA dabei ist? So oder so, die Umstellung auf AVX wird einiges an Modifikationen bedürfen.
Naja bei Callisto vs Regor wirkt sich der L3 schon ziemlich deutlich aus.
Ja wurde von Intel gestrichen, außer sie haben schon wieder die Spezifikationen geändert...
Bulldozer wirds haben.
reunion
2009-07-06, 11:45:16
Siehe: http://www.planet3dnow.de/vbulletin/showthread.php?t=362353
Haswell (2012) soll allerdings FMA mitbringen.
Kann man die intergrierte GPU auch für andere Dinge als zur Grafikausgabe nutzen?
Oder habe ich da ein großes teures Stück Silizium Müll auf meiner CPU, wenn ich eine dedizierte Grafikkarte verbaue?
reunion
2009-07-06, 11:49:54
Kann man die intergrierte GPU auch für andere Dinge als zur Grafikausgabe nutzen?
Oder habe ich da ein großes teures Stück Silizium Müll auf meiner CPU, wenn ich eine dedizierte Grafikkarte verbaue?
Natürlich kann man das auch für andere Dinge benutzen. Umsonst hat die GPU keine L3-Cache-Anbindung.
KonKorT
2009-07-06, 12:22:42
Kann mich mal einer aufklären, was PCU hier heißt?
Zumal Nehalem IMO auch stark von seinem L3 lebt, anders als AMDs K10 z.B, der ihn ganz anders nutzt.
Sicher, dass bei AVX nicht schon FMA dabei ist? So oder so, die Umstellung auf AVX wird einiges an Modifikationen bedürfen.
Glaube ich nichtmal. MMn ist die Nehalem FPU von Anfang an auf die AVX-Bedürfnisse zumindest zum Großteil schon vorbereitet, nur eben nicht auf den Umgang mit 3 oder 4 Operanden. Man hat sicherlich schon damals mit weitergehenden Planungen als SSE4 gerechnet beim Nehalem aber die finale Implementierung dann auf Sandy verschoben. FMA erfordert ja eine komplett neue Struktur der FPU, während AVX im Falle der Nehalem FPU eher kleine Modifikationen erfordern dürfte.
Ailuros
2009-07-06, 13:49:50
Wenn man SGX überall reinbringen wollte, müsste man sie aufkaufen, weil sonst das Risiko zu groß ist. Wieso das nicht gemacht wird ka, aber vll ist das Kartellrechtlich nicht möglich. Aber ansonsten kann man sowas vergessen, weil nen so großes Unternehmen wie Intel sich sicher nicht so stark von nem anderen Unternehmen abhängig macht. Schließlich müsste man die IGP-Abteilung schließen, wenn man keine Verwendung für hat und hätte kaum Alternativen. SGX könnte dann einfach mal die Preise diktieren.
Ich schaetze persoenlich auch dass Intel weiterhin ihre Chipset-Abteilung am Leben erhalten will, aber jegliche Strategie ist IMHLO eher mit dieser Tatsache verbunden als irgendwelches angebliches Risiko dass sogar mit den Preisen verbunden ist. Erstens verkauft IMG IP nicht nur an Intel sondern hat momentan eine aktive Zusammenarbeit mit insgesamt 10 aus den Top20 Semiconductor Hersteller (Intel inklusive); je hoeher das eingeschaetzte Volumen und je groesser die Anwendungsmaerkte pro Lizenz desto faellt sowohl der Preis der Lizenzierung als auch der royalties und keine IP Firma koennte einem Partner etwas bei N Euros und einem anderen bei N*2 Euros andrehen. Es kann nur eine Preispolitik fuer ALLE Partner geben sonst verliert man die Mehrzahl seiner anderen Partner aus purem Bloedsinn. NOKIA ist und bleibt Texas Instruments' groesster Kunde und das Volumen hier an verwendetem OMAP2 und 3 IP ist um zich Male hoeher als Intel mit ATOM je erreichen koennte. Nach Deiner Logik also koennte IMG TI jeglichen Preis andrehen was aber nicht der Fall ist denn IMG ist letztendes auch nicht alleine in diesem Markt.
Die nächste Sache ist dann auch noch, wozu überhaupt? Intel kommt mit ihrer aktuellen Politik prächtig über die Runden. Im Desktop wird SGX nicht gebraucht. Im Atom, wo man ihn bruacht wird er auch kommen.
Das wozu ist die leichteste Frage ueberhaupt; bei gleicher die area wie ein jeglicher IONx oder AMD's Chipsaetze waere Intel bei der Benutzung von IMG's IP sowohl im Bereich Stromverbrauch als auch 3D Leistung so konkurrenzfaehig wie nie.
Wieso wurde SGX nochmal im ATOM genau integriert?
Chrisch
2009-07-06, 15:46:39
Kann mich mal einer aufklären, was PCU hier heißt?
Power Control Unit, gibts auch schon im Nehalem.
AnarchX
2009-08-13, 09:23:32
Intel is scheduled to introduce its 32nm 'Sandy Bridge' microarchitecture, which will succeed Nehalem and Westmere, in the fourth quarter of 2010, according to sources at PC makers.
http://www.digitimes.com/news/a20090812PD225.html
Natürlich kann man das auch für andere Dinge benutzen. Umsonst hat die GPU keine L3-Cache-Anbindung.
Ist das nur deine Meinung, die du mit der L3-Anbindung begründest. Oder hast du das irgendwo aufgeschnappt?
Normale GPUs haben ja keinen Cache, insofern ist da vielleicht etwas dran. Könnte auch als Coprozessor fungieren. Wobei ich gespannt bin, welche Anwendungen das überhaupt unterstützen werden.
AnarchX
2009-09-18, 21:38:04
Socket R, der wohl größer ist als LGA1366 (http://www.xtremesystems.org/forums/showthread.php?t=234753)
AnarchX
2009-09-22, 19:09:17
Sandy Bridge beim aktuellen IDF:
[9:34] The high-end desktop is running Sandybridge! Very cool, we’re
http://blogs.intel.com/idf/2009/09/live_blog_idf_2009_opening_key.php
AnarchX
2009-09-22, 20:36:04
IDF 2009: Neue CPU-Architektur Sandy Bridge im Betrieb
Intel demonstriert auf dem Intel Developer Forum erstmals seine übernächste CPU-Generation „Sandy Bridge“ im Betrieb. Sandy Bridge erhält unter anderem die neue SSE-Generation AVX. Erste CPUs soll es noch 2010 geben.
http://img19.imageshack.us/img19/9418/ab98b70f1b77d95ff5e47a4.jpg
http://www.tecchannel.de/pc_mobile/news/2022341/idf_2009_neue_cpu_architektur_sandy_bridge_avx/
AnarchX
2009-09-24, 08:03:47
http://img27.imageshack.us/img27/3271/131vi.jpg
http://img62.imageshack.us/img62/1632/121y.jpg
http://pc.watch.impress.co.jp/docs/news/event/20090924_317343.html?ref=rss
AnarchX
2009-09-24, 13:54:13
http://www.4gamer.net/games/049/G004963/20090923003/
... im letzten Video demonstriert man offenbar Sandy Bridge und damit wohl auch Intels erste D3D11-GPU/IGP.
AnarchX
2009-09-24, 14:53:03
Momentan sind es A1 Stepping mit 2GHz:
http://www.abload.de/img/processorssandybridge3w4ad.jpg (http://www.abload.de/image.php?img=processorssandybridge3w4ad.jpg)
http://xtreview.com/addcomment-id-10069-view-Intel-sandy-bridge-32nm-demonstrated.html
AnarchX
2009-09-29, 11:08:55
Der Die-Shot von Canard scheint wohl korrekt zu sein, bei PC-Watch hat man nun auch einen der diesem sehr ähnlich ist, wenn auch etwas schlechter von der Qualität:
http://translate.google.ch/translate?u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2Fcolumn%2Fkaigai%2F20090 929_318033.html%3Fref%3Drss&sl=ja&tl=en&hl=de&ie=UTF-8
Gegenüber Westmere wachsen die Kerne wohl nur wenig.
AnarchX
2009-10-09, 09:25:23
http://img21.imageshack.us/img21/8569/003mh.jpg
http://www.4gamer.net/games/098/G009883/20091007054/
AnarchX
2009-11-12, 12:37:36
Man erzaehlte mir gerade dass in Sandy Bridge die GPU anscheinend doch ein Intel GenX Nachfolger ist und die Frequenz soll bei 1.6GHz liegen.
Das wäre gegenüber Ironlake@45nm mal eben 70% mehr Takt.
Da muss sich Intel wohl etwas mehr anstrengen, nachdem sie erfahren haben, dass in Llano offenbar ein 480SPs Evergreen sitzt. :D
Wobei die 40mm²@32nm wohl eher einen geshrinkten Ironlake andeuten:
12 EUs * 2 FLOPs(?) *1,6GHz = 38,4 GFLOPs
4 TMUs * 1,6 GHz = 6,4 GTex/s
Gegen einen Llano-IGP @ 500MHz mit 12 GTex/s und 480GFLOPs sähe dass dann trotzdem noch ziemlich bescheiden aus.
Ailuros
2009-11-12, 12:59:04
Intel ist wohl wie immer klassisch bloed zu glauben dass die zusaetzliche CPU Power auf Sandy Bridge den Unterschied decken wird.
intel ist wohl eher wie immer klassisch clever in der meinung, dass der opa im media markt schon zu sandy bridge greifen wird. er ist ja nicht blöd ...
Jop Intel setzt halt wieder auf ihre starke Marke und CPU, die GPU braucht doch eh keiner :D
Ich sehe nicht wirklich Sinn darin zusätzliche Fläche auf dem die für eine performantere igp zu opfern. Für den Haken in der featureliste reicht es, mehr zu bringen würde nur an der Marge nagen. Und AMD muss dem Endkunden erstmal klarmachen wofür die zusätzliche performance gut sein soll - ein undankbarer Job während man teure mm² "vergeudet" da das Angebot an gpgpu-fähiger Software noch weit davon entfernt ist eine Kaufentscheidung beim endkunden zu beeinflussen.
Ailuros
2009-11-13, 07:33:51
intel ist wohl eher wie immer klassisch clever in der meinung, dass der opa im media markt schon zu sandy bridge greifen wird. er ist ja nicht blöd ...
Mit welchen "legitimen" Methoden dieses Intel bis jetzt schaffte ist ja bekannt :rolleyes:
Ich sehe nicht wirklich Sinn darin zusätzliche Fläche auf dem die für eine performantere igp zu opfern. Für den Haken in der featureliste reicht es, mehr zu bringen würde nur an der Marge nagen. Und AMD muss dem Endkunden erstmal klarmachen wofür die zusätzliche performance gut sein soll - ein undankbarer Job während man teure mm² "vergeudet" da das Angebot an gpgpu-fähiger Software noch weit davon entfernt ist eine Kaufentscheidung beim endkunden zu beeinflussen.
Adobe ist der erste Name auf AMD's Liste.
robbitop
2009-11-13, 08:49:00
Ich frage mich aber noch heute, was hat eine IGP auf einem Enthusiast Prozessor zu suchen? Oder will man damit in Richtung CELL rennen?
reunion
2009-11-13, 08:51:53
Ich frage mich aber noch heute, was hat eine IGP auf einem Enthusiast Prozessor zu suchen? Oder will man damit in Richtung CELL rennen?
Natürlich. Die GPU ist nicht nur dafür da ein Bild zu erzeugen. Das Ding hat sogar direkten Zugriff auf den L3-Cache. Da geht es natürlich bei Intel wie bei AMD darum für massiv parallelen Code billigere Streamprozessoren zu verbauen anstatt die teuren OOO-Cores ewig weiter zu skalieren.
AnarchX
2009-11-13, 08:54:04
2011 ist ein Quad nicht unbedingt Enthusiast.
Für Enthusiast wird es hier wohl etwas >=6 Kerne geben, wohl ohne IGP.
Das Ding hat sogar direkten Zugriff auf den L3-Cache. Da geht es natürlich bei Intel wie bei AMD darum für massiv parallelen Code billigere Streamprozessoren zu verbauen anstatt die teuren OOO-Cores ewig weiter zu skalieren.
Ob Intel wirklich schon so weit geht? Co-Processing sah man bisher wohl erst bei Haswell.
reunion
2009-11-13, 08:57:26
2011 ist ein Quad nicht unbedingt Enthusiast.
Für Enthusiast wird es hier wohl etwas >=6 Kerne geben, wohl ohne IGP.
Ob Intel wirklich schon so weit geht? Co-Processing sah man bisher wohl erst bei Haswell.
Es ist jedenfalls das eindeutige Ziel. Das belegen zahlreiche Folien beider Hersteller. Wann man das das erste mal konsequent einsetzt muss man abwarten. Zu beginn natürlich nicht im Enthusiast-Segment, da man erstmal entsprechende Software benötigt.
AnarchX
2009-11-13, 09:03:06
Naja, wenn ich Intel wäre, würde ich so eine Neuerung doch etwas größer Ankündigen und nicht nur als "Integrated Graphics" bezeichnen.
Ausser man will AMD überraschen, aber bisher hatte man da ja nicht unbedingt Wert darauf gelegt und war sehr offen über kommende Architekturen.
Momentan würde ich bei Sandy Bridge maximal eine leicht aufgebesserte GMA-X-Architektur erwarten, die dann rudimentäres D3D11 mitbringt.
Mit welchen "legitimen" Methoden dieses Intel bis jetzt schaffte ist ja bekannt :rolleyes:
Adobe ist der erste Name auf AMD's Liste.
Bisher verkauft Intel seine IGPs aber auch trotz eigentlich lächerlicher Leistung. SandyBridge wird in den üblichen Zielanwendungen auch so einen Performanceschub bringen, da dort dann ein Quadcore auftaucht, wo bisher meist DC sind.
Finde ich zwar nicht gut, wird aber imho wahrschienlich wieder funktionieren.
reunion
2009-11-13, 09:13:01
Naja, wenn ich Intel wäre, würde ich so eine Neuerung doch etwas größer Ankündigen und nicht nur als "Integrated Graphics" bezeichnen.
Ausser man will AMD überraschen, aber bisher hatte man da ja nicht unbedingt Wert darauf gelegt und war sehr offen über kommende Architekturen.
Momentan würde ich bei Sandy Bridge maximal eine leicht aufgebesserte GMA-X-Architektur erwarten, die dann rudimentäres D3D11 mitbringt.
Ich habe ja gesagt das man abwarten muss wann das so weit ist. Aber das Intel das nicht an die große Glocke hängen wird mit ihren lächerlichen GPUs wundert mich nicht. Mag sein das erst Haswell das konsequent betreibt. Sandy-Bridge ist ja auch noch lange nicht offiziell. Möglicherweise bekommt Sandy-Bridge erstmal nur eine etwas bessere IPG. Jedenfalls bräuchte man die L3-Anbindung nicht wenn es nur darum ginge eine IPG bereit zu stellen. Da bräuchte man nichtmal ein Die sondern könnte es wie beim ersten Ansatz bei einem MCM belassen. AMD bringt ja auch erst 2011 einen solchen Fusion, aber noch mit alten K10-Kernen und ohne gemeinsamen Cache. Interessant wird es da auch erst 2012 mit Bulldozer-Cores.
Ailuros
2009-11-13, 09:25:24
Bisher verkauft Intel seine IGPs aber auch trotz eigentlich lächerlicher Leistung.
Mit zwielichtigen Verkaufsstrategien und fraglichen Herumpfuschereien in popularen Benchmarks vielleicht?
Die Abfindung von 1.25 Mrd $ bedeutet wohl nicht dass Intel bezahlt und weiterhin mit der gleichen Masche weitermachen kann. Der eigentliche Grund der Intel zur Abfindung getrieben hat ist die Tatsache dass sie gerichtlich nie gewonnen haetten obwohl sie es auch nirgends zugeben werden. Und leider hat AMD die Moneten auch absolut noetig, denn mit der Summe koennen sie theoretisch 1/3 ihrer Schulden abbezahlen.
SandyBridge wird in den üblichen Zielanwendungen auch so einen Performanceschub bringen, da dort dann ein Quadcore auftaucht, wo bisher meist DC sind.
Finde ich zwar nicht gut, wird aber imho wahrschienlich wieder funktionieren.
Die ganze Affaere haengt von den zukuenftigen Applikationen ab und wie gut GPGPU sich dort durchsetzen kann. Ich hab zwar keine besondere Hoffnung dass AMD hier ihren Hintern schnell genug bewegen wird, aber langfristig kann selbst Intel gegen solche Wendungen nichts anstellen. Im Gegensatz muessen sie genauso GPGPU langfristig unterstuetzen sonst entwerten sie Larabee noch mehr.
Ja natuerlich ist Intel so naiv und haelt von Grafik anscheinend nichts, obwohl man schon seit Jahren unendliche Resourcen ins Larabee Projekt steckt. Dass es zu einem FLOP zumindest am Anfang kommt ist Intel selber schuld (dank der fehlenden richtigen Kommunikation zwischen marketing und engineering). Wenn Intel nicht bis zur weniger vorhersehbaren Zukunft aufwacht und ihre Philosophie fuer Grafik aendert, werden sie sich frueher oder spaeter ueber die Schulter glotzen muessen. Und nein Geld kauft diese Philosophie nicht ein. Die Tuer etlichen Herren zu zeigen wie z.B. bei Gelsinger hilft dann schon eher.
***edit: http://blogs.amd.com/nigeldessau/2009/11/12/blog-77-a-time-for-peace/
http://www.brightsideofnews.com/news/2009/11/12/intel-capitulates2c-pays-125b-usd-to-amd.aspx
http://www.brightsideofnews.com/news/2009/11/12/amd-cfo-seifert-speaks-out-were-making-money!.aspx
Beyond 2010, they are counting on unique platforms, AMD Fusion, and 32nm transition which may take gross margins beyond 45 percent.
Dirk Meyer, CEO, added some thoughts. He agreed that they are changing the company and repeated the theme of the day, that AMD is Changing The Game, just as the inclusion of the forward pass in football changed that game. He cited three dimensions for ongoing success: compelling offerings which focus on usage; differentiating with GPU (graphic processing unit); and winning with AMD Fusion. "Fusion will bring the forward pass to the computer business.”
Meyer says they are "building deeper relationships, winning platforms, and a fair competitive environment." Meyer emphasized that AMD’s success in the market is hampered by anti-competitive behavior [read Intel]. Today’s news may be a good omen, at least the stock market thought so. AMD shares shot up by almost 22 percent to $6.48 [+21.8%], increasing the market cap of the company to 4.34 billion dollars, only 10 million dollar shy of a whole billion dollar mkt. cap gain [AMD closed yesterday valued at $3.35 billion].
Mit zwielichtigen Verkaufsstrategien und fraglichen Herumpfuschereien in popularen Benchmarks vielleicht?
Die Abfindung von 1.25 Mrd $ bedeutet wohl nicht dass Intel bezahlt und weiterhin mit der gleichen Masche weitermachen kann. Der eigentliche Grund der Intel zur Abfindung getrieben hat ist die Tatsache dass sie gerichtlich nie gewonnen haetten obwohl sie es auch nirgends zugeben werden. Und leider hat AMD die Moneten auch absolut noetig, denn mit der Summe koennen sie theoretisch 1/3 ihrer Schulden abbezahlen.
Die ganze Affaere haengt von den zukuenftigen Applikationen ab und wie gut GPGPU sich dort durchsetzen kann. Ich hab zwar keine besondere Hoffnung dass AMD hier ihren Hintern schnell genug bewegen wird, aber langfristig kann selbst Intel gegen solche Wendungen nichts anstellen. Im Gegensatz muessen sie genauso GPGPU langfristig unterstuetzen sonst entwerten sie Larabee noch mehr.
Ja natuerlich ist Intel so naiv und haelt von Grafik anscheinend nichts, obwohl man schon seit Jahren unendliche Resourcen ins Larabee Projekt steckt. Dass es zu einem FLOP zumindest am Anfang kommt ist Intel selber schuld (dank der fehlenden richtigen Kommunikation zwischen marketing und engineering). Wenn Intel nicht bis zur weniger vorhersehbaren Zukunft aufwacht und ihre Philosophie fuer Grafik aendert, werden sie sich frueher oder spaeter ueber die Schulter glotzen muessen. Und nein Geld kauft diese Philosophie nicht ein. Die Tuer etlichen Herren zu zeigen wie z.B. bei Gelsinger hilft dann schon eher.
Alles richtig, aber sie verkaufen ihre IGPs und sie würden kaum wesentlich weniger verkaufen, ohne ihre Tricks.Im schlimmsten Falle würde ihre CPUs eben in NV MBs landen.
Auch gerade im Hinblick auf Larabee sehe ich durchaus "Intel-Logik" für eine sehr rudimentäre in die CPU integrierte GPU. Man muss wenig entwicklen und kann den eingesprten Diesize entweder für eine stärke CPU Einheit oder für einen niedrigeren preis verbraten. Wer mehr GPGPU haben möchte, für den hat man sicher bald eine praktische LRB Karte im Angebot.
AMD bietet weit mehr, aber dafür opfert man auch mehr Diesize. Kann man dann aus GPGPU keinen Vorteil ziehen (warum auch immer, sei es wegen mangelnder Unterstützung oder auch weil dann bereits CPU Leistung im Überfluss für viele Anwendungen vorhanden ist) hat man einen Nachteil.
Aber im Endeffekt halte ich die geplante Technik für weniger entschiedent als die sonstigen Entscheidungen der IHVs. Wenn man an Fusion denkt, dann ist es für ATI eigentlich ne dumme Idee gegen NV und deren GPGPU-Wahn zu stänkern. Eigentlich wäre man clever CUDA gemeinsam zu nutzen und Intel auszuschließen. Oder Physix. Man stelle sich vor AMD/ATI und NV nutzen Physix und der Fusionkern bei AMD kann dann dafür genutzt werden, wenn man zusätzlich eine Graka von NV oder ATI im Rechner hat.
Aber wahrshceinlich kommt es so, dass AMD wieder die besser Hardware hat, die aber nicht richtig unterstützt bzw. ausgenutzt wird und man für GPGPU dann lieber die rudimentäre IGP in der Intel-CPU mit LRB oder NV GPUs kombiniert, als Fusion zu nutzten.
Shink
2009-11-13, 10:12:05
Mit zwielichtigen Verkaufsstrategien und fraglichen Herumpfuschereien in popularen Benchmarks vielleicht?
Ja, genau. Weil sich ja so viele Leute für Intel-IGPs ausschließlich wegen deren Leistung bei synthetischen Benchmarks entscheiden.
Ailuros
2009-11-13, 10:15:13
Ja, genau. Weil sich ja so viele Leute für Intel-IGPs ausschließlich wegen deren Leistung bei synthetischen Benchmarks entscheiden.
3dmark05 & 3dmark06 scores sind leider immer noch verdammt wichtig bei relevanten Vertraegen. Das hat nicht das geringste mit dem finalen Verbraucher zu tun.
Alles richtig, aber sie verkaufen ihre IGPs und sie würden kaum wesentlich weniger verkaufen, ohne ihre Tricks.Im schlimmsten Falle würde ihre CPUs eben in NV MBs landen.
SoC != IGP. Nebenbei werden sowohl AMD als auch Intel eigenstaendige CPUs fuer diverse Maerkte verkaufen, aber das hat wohl im gegebenen Fall nichts mit einem SoC zu tun.
Auch gerade im Hinblick auf Larabee sehe ich durchaus "Intel-Logik" für eine sehr rudimentäre in die CPU integrierte GPU. Man muss wenig entwicklen und kann den eingesprten Diesize entweder für eine stärke CPU Einheit oder für einen niedrigeren preis verbraten. Wer mehr GPGPU haben möchte, für den hat man sicher bald eine praktische LRB Karte im Angebot.
Tja hier muss ich aber leider wieder daran erinnern dass wir ueber SoCs in 2011 reden und nicht standalone GPUs. Und ob und wann Intel wirklich sinnvoll LRB in einem SoC integrieren koennen wird, steht noch in den Sternen egal was sich Intel's marketing Heinis erhoffen.
AMD bietet weit mehr, aber dafür opfert man auch mehr Diesize. Kann man dann aus GPGPU keinen Vorteil ziehen (warum auch immer, sei es wegen mangelnder Unterstützung oder auch weil dann bereits CPU Leistung im Überfluss für viele Anwendungen vorhanden ist) hat man einen Nachteil.
Ich hab noch nicht die geringste Ahnung wie gross Llano bzw. Sandy bridge sein wird, aber im Fall von Llano klingen mir knapp ueber 1Mrd. Transistoren nicht nach zu groesser die area. Jeglicher vergleichbare Stromverbrauch haengt u.a. von den Frequenzen der jeweiligen GPU Anteile ab. Bei Llano ist der GPU Anteil noch ein Fragezeichen; bei Sandy bridge soll der GPU Anteil auf 1.6GHz laufen.
Llano widmet anscheinenend mehr dem GPU als dem CPU Anteil und dass ist nach meiner bescheidenen Laienmeinung ein Schritt in die bessere Richtung und nicht umgekehrt.
Aber im Endeffekt halte ich die geplante Technik für weniger entschiedent als die sonstigen Entscheidungen der IHVs. Wenn man an Fusion denkt, dann ist es für ATI eigentlich ne dumme Idee gegen NV und deren GPGPU-Wahn zu stänkern. Eigentlich wäre man clever CUDA gemeinsam zu nutzen und Intel auszuschließen. Oder Physix. Man stelle sich vor AMD/ATI und NV nutzen Physix und der Fusionkern bei AMD kann dann dafür genutzt werden, wenn man zusätzlich eine Graka von NV oder ATI im Rechner hat.
IHV Strategien unabhaengig, jeder der GPGPU unterschaetzt ist IMHO zu kurzsichtig. NVIDIA spinnt garantiert nicht ohne Grund mit dem Zeug herum und es ist auch nicht ihre eigene Erfindung. OpenCL ist eine Apple Initiative und DX11 eine Initiative von Microsoft und allen beteiligten IHVs. Mir persoenlich ist es lieber dass bei jedem System die Resources (egal ob CPU oder GPU) besser ausgenutzt werden als dass die GPU ausserhalb von 3D nur dumm herumhockt und sich langweilt.
Es gibt zich Faelle in heutigen GP-Applikationen wo man eine gesunde Anzahl von Threads besser auf der GPU verfrachten kann, anstatt die CPU unnoetig in Kreisen drehen zu lassen bis eine Aufgabe prozessiert wird.
Intel wird ihr Ct haben fuer GPGPU.
Aber wahrshceinlich kommt es so, dass AMD wieder die besser Hardware hat, die aber nicht richtig unterstützt bzw. ausgenutzt wird und man für GPGPU dann lieber die rudimentäre IGP in der Intel-CPU mit LRB oder NV GPUs kombiniert, als Fusion zu nutzten.
Tja wenn Du mir auch sagen kannst wann LRB in einen SoC integriert werden soll, machen solche Einzelheiten auch viel mehr Sinn. Im Fall von Larabee hat es Vorrang dass man die Architektur erstmal auf konkurrenzfaehige Beine stellt, bevor man erstmal an jegliche Skalierung nach unten denken kann. AIBs schaetzen dass Larabee als standalone GPU in etwa 2 Jahren so weit sein koennte. Wieviel Zeit braucht ein erfahrener Grafik IHV vom high end auf low end zu skalieren? Dummer Zufall dass AMD's standalone X11 GPUs in 2009 und Llanno erst in 2011 erscheinen werden, oder dauert es tatsaechlich ein paar Jaehrchen bis es soweit kommt?
Und da vieles moeglich ist ohne Sinn zu machen, schoen ich spiele mit und schaetze dass Intel unter 22nm etwas von LRB in SoCs integrieren wird. Jetzt muessen wir aber trotz allem noch ueber DIE AREA und Stromverbrauch reden und wieso jegliche zukuenftige AMD APU dahingegen immer noch einen nennenswerten Vorteil fuer die 2 Faktoren haben wird. Auf reinem GPU Nivaeu steht ein 32 core LRB mit ca 2x mal so hoher die area und Stromverbrauch als ein Cypress da und dazu will ich hoffen dass das erste auch zumindest 5850 Leistung erreichen kann.
Adobe ist der erste Name auf AMD's Liste.
In dem Fall seh ich mich bestätigt, für den Endkunden wie ich ihn vor mir habe haben Anwendungen von Adobe nämlich genau 0 Relevanz (abgesehen von flash und .flv und dem lesen von pdfs). Das wirft die Frage auf ob der "gemeine" pc-benuzer kiloweise gflops via gpgpu braucht da er in seinem normalen nutzungsprofil zu 95% content nur konsumiert - was mit heutigen systemen (cpu+unterstützung durch die gpu beim decodieren von videos) mehr als abgedeckt ist. Wer Software für mehrere hundert Euro einkauft ist entweder Enthusiast oder arbeitet damit. Der erstere ist für den Gesamtmarkt irrelevant und der letztere wird sich eine dedizierte gpu anschaffen da die Systemkosten im Verhältnis zu den Lohnkosten vernachlässigbar sind.
Für den großen Rest an John Does ist gpgpu-performance frühestens dann ein Kaufargument wenn opencl- und dx11 fähige Hardware ihre kritische Masse an installierter hw erreicht haben.
Was ich damit sagen will: Auch wenn sich die Verteilung von cpu/gpgpu Ressourcen auf sandy bridge für dich aus der "engineering"-Perspektive wie Humbug darstellt muss das für andere lange nicht der Fall sein. Das Systemhersteller sehr vorsichtig dabei sind dem Endkunden Innovationen zuzumuten wissen wir ja spätestens seit den allseits beliebten 3gb-ram nur um die ungeliebten 64bit-os noch etwas weiter vor sich herschieben zu können und damit Problemen im support à la "mein 15 jahre alter cannon Drucker geht nicht mehr!" vorwegzugreifen.
Ailuros
2009-11-13, 14:14:05
In dem Fall seh ich mich bestätigt, für den Endkunden wie ich ihn vor mir habe haben Anwendungen von Adobe nämlich genau 0 Relevanz (abgesehen von flash und .flv und dem lesen von pdfs). Das wirft die Frage auf ob der "gemeine" pc-benuzer kiloweise gflops via gpgpu braucht da er in seinem normalen nutzungsprofil zu 95% content nur konsumiert - was mit heutigen systemen (cpu+unterstützung durch die gpu beim decodieren von videos) mehr als abgedeckt ist. Wer Software für mehrere hundert Euro einkauft ist entweder Enthusiast oder arbeitet damit. Der erstere ist für den Gesamtmarkt irrelevant und der letztere wird sich eine dedizierte gpu anschaffen da die Systemkosten im Verhältnis zu den Lohnkosten vernachlässigbar sind.
Für den großen Rest an John Does ist gpgpu-performance frühestens dann ein Kaufargument wenn opencl- und dx11 fähige Hardware ihre kritische Masse an installierter hw erreicht haben.
Und das ist eine ziemlich gute Entschuldigung fuer Intel erst dann einzusteigen, wenn der Rest der IHVs dafuer vorgesorgt haben?
Was ich damit sagen will: Auch wenn sich die Verteilung von cpu/gpgpu Ressourcen auf sandy bridge für dich aus der "engineering"-Perspektive wie Humbug darstellt muss das für andere lange nicht der Fall sein. Das Systemhersteller sehr vorsichtig dabei sind dem Endkunden Innovationen zuzumuten wissen wir ja spätestens seit den allseits beliebten 3gb-ram nur um die ungeliebten 64bit-os noch etwas weiter vor sich herschieben zu können und damit Problemen im support à la "mein 15 jahre alter cannon Drucker geht nicht mehr!" vorwegzugreifen.
Auch im Zusammenhang zum obrigen passt wohl Innovation und Intel was Grafik betrifft sowieso nicht in den gleichen Satz.
Intel und Grafikinnovation paßt sicher nicht. Aber ob sie mit ihrem Weg falsch liegen, davon bin ich noch nicht ganz überzeugt.
Die GPU der SoC muss erstmal eine Beschäftigung finden, die über Spiele hinausgeht, aber noch nicht den Einsatz einer GPGPU-fähigen Steckkarte rechtfertigt oder beim Einsatz einer GPGPU-Karte einen zusätzlichen spürbaren Mehrwert erzeugen.
Und das ist eine ziemlich gute Entschuldigung fuer Intel erst dann einzusteigen, wenn der Rest der IHVs dafuer vorgesorgt haben?
Der Markt bekommt was er verlangt, niemand hat etwas zu verschenken im Sinne von "gpupower to the people" ;) - natürlich ist es möglich das Intel sich mit der Einschätzung verzockt. Allerdings bleib ich dabei das ihr Konzept mit sandy besser erfolgreicher wird (dh. AMD wird keine Marktanteile hinzugewinnen) als AMDs gpulastigerer Konterpart.
Das gpgpu ist imho eben noch nicht general genug.
Wo hab ich denn bitte was von Intel und Grafikinnovation geschrieben? Ich bezog mich darauf das die Systemhersteller beim übernehmen neuer technologien äußerst zögerlich sind. Bsp.: Die umstellung auf 64bit-systeme zieht sich ewig da der 0815-Nutzer davon nur leidlich profitiert. LED-Backlights bei notebooks setzen sich dagegen vergleichsweise schnell durch da sie einen unbestreitbaren Mehrwert bieten. Das selbe wird es doch auch bei der gpgpu-Geschichte werden. Findet sich eine killerapp wird es deutlich schneller an Relevanz gewinnen. Imho ist die aber noch nicht in sicht. Es wird weiterhin so bleiben das der Homeuser schwierigkeiten hat seinen dualcore. bzw dann seinen quadcore auszulasten!
Ailuros
2009-11-14, 08:33:47
Der Markt bekommt was er verlangt, niemand hat etwas zu verschenken im Sinne von "gpupower to the people" ;) - natürlich ist es möglich das Intel sich mit der Einschätzung verzockt. Allerdings bleib ich dabei das ihr Konzept mit sandy besser erfolgreicher wird (dh. AMD wird keine Marktanteile hinzugewinnen) als AMDs gpulastigerer Konterpart.
Ich hab nichts dagegen dass das bessere insgesamt Teil in der Zukunft jeglichen generellen Wettbewerb gewinnt. Die Chance hatte AMD bisher eigentlich nicht. Und natuerlich liegt es dann auch am Verbraucher zu entscheiden wo und was genau im besser zusteht.
Das gpgpu ist imho eben noch nicht general genug.
Hardware kommt stets vor software. Fuer was genau sollten ISVs irgendwelche Aenderungen vornehmen wenn es keine relevante hw genau gibt?
Wo hab ich denn bitte was von Intel und Grafikinnovation geschrieben?
Nirgends und ich versuche auch keineswegs irgend etwas anzubinden dass Du offensichtlich auch nicht andeutest. Ich versuche lediglich meine eigene Perspektive zu erlaeutern.
Ich bezog mich darauf das die Systemhersteller beim übernehmen neuer technologien äußerst zögerlich sind. Bsp.: Die umstellung auf 64bit-systeme zieht sich ewig da der 0815-Nutzer davon nur leidlich profitiert. LED-Backlights bei notebooks setzen sich dagegen vergleichsweise schnell durch da sie einen unbestreitbaren Mehrwert bieten. Das selbe wird es doch auch bei der gpgpu-Geschichte werden. Findet sich eine killerapp wird es deutlich schneller an Relevanz gewinnen. Imho ist die aber noch nicht in sicht. Es wird weiterhin so bleiben das der Homeuser schwierigkeiten hat seinen dualcore. bzw dann seinen quadcore auszulasten!
Wie AnarchX schon sagte wird in =/>2011 eine quadcore CPU nicht mehr high end sein. Logischerweise muesste die Anzahl der threads mit der Zeit zunehmen bei gp computing, sonst wuerden selbst dual-core gegen single core CPUs heute keinen Unterschied machen. Da es aber heute eine gesunde Anzahl von quad-core CPUs gibt und die Zukunft auf noch mehr threads deutet, kann es wohl nicht sein dass Applikationen generell nur bei sagen wir mal dual-threading fuer immer bleiben sonst haben CPU IHVs generell und ueberhaupt Intel vieles falsch eingeschaetzt was ihre roadmaps betrifft.
Und es handelt sich genau um die gleiche hiearchy wie oben: hardware --> software. Eine Garantie wie genau die Zukunft aussehen wird weiss natuerlich keiner ueberhaupt bei so etwas wie GPGPU. Aber da GPGPU faehige GPUs stellenweise deutliche Vorteile vorzeigen koennen, liegt es wohl eher daran wie leicht der Umschwung fuer ISVs gemacht wird und wie gut man diesen unterstuetzt.
Es gibt jetzt schon fuer die sehr kleinen SoCs GPUs mit GPGPU Faehigkeiten (ja selbst fuer Handys) und man liegt schon in R&D fuer "einfache" Aufgaben wie image processing und auch fuer diesen Markt wird in absehbarer Zeit DX11 keine Uebertreibung sein. Warum sollte gerade der higher end Markt von low end PCs bzw. mainstream notebooks nicht auf aehnlichen Strecken liegen?
Intel und Grafikinnovation paßt sicher nicht. Aber ob sie mit ihrem Weg falsch liegen, davon bin ich noch nicht ganz überzeugt.
Dann liegen aber eine sehr grosse Anzahl an anderen IHVs, OEMs und ISVs auf dem falschen Pfad.
OpenCL is being created by the Khronos Group with the participation of many industry-leading companies and institutions including 3DLABS, Activision Blizzard, AMD, Apple, ARM, Broadcom, Codeplay, Electronic Arts, Ericsson, Freescale, Fujitsu, GE, Graphic Remedy, HI, IBM, Intel, Imagination Technologies, Los Alamos National Laboratory, Motorola, Movidia, Nokia, NVIDIA, Petapath, QNX, Qualcomm, RapidMind, Samsung, Seaweed, S3, ST Microelectronics, Takumi, Texas Instruments, Toshiba and Vivante.
Such Dir aus der Liste die ISVs aus, die OEMs und die Semis die sich eher auf Handy SoCs konzentrieren. Ich brauch nur diesbezueglich Texas Instruments als einziges Beispiel nehmen mit ihren OMAP SoCs und ich hab schon einen der groessten relevanten SoC Lieferanten geschnappt.
Kommt hier GPGPU schon heute oder in 2010 in gesunden Mengen? Eher nein. Aber sie arbeiten in eine sehr spezifische Richtung heutzutage um fuer morgen die richtigen Fundamente zu haben. Ganz nebenbei sowohl Ontario als auch Tegra3 (irgendwo in 2011 fuer beide) werden GPGPU faehig sein (obwohl T3 eher DX10).
Die GPU der SoC muss erstmal eine Beschäftigung finden, die über Spiele hinausgeht, aber noch nicht den Einsatz einer GPGPU-fähigen Steckkarte rechtfertigt oder beim Einsatz einer GPGPU-Karte einen zusätzlichen spürbaren Mehrwert erzeugen.
Fuer 3D hat erstmal ein IHV wie AMD die bestmoeglichen Fundamente dank besserer GPU Kraft. Diese Tatsache wuerde ich nicht so leicht als einfachen Nebeneffekt abschachteln. Als ich vor 7-8 Jahren ueber Spiele auf Handys blubberte wurde ich nur ausgelacht. Komischerweise sind die meistverkauften heutigen smartphones alle mit anstaendigen fuer diese Verhaeltnisse ausgestattet und wenn ich jetzt anfange aufzuzaehlen was fuer Grafik IP in all diesen steckt besteht die Gefahr dass der "fanboy" hier zu stark OT blubbert. Nimm ein iPhone 3GS zur Hand und obwohl ich nuechtern genug bin und weiterhin sage dass die Mehrzahl der Verbraucher das Ding als "cooles" smartphone kaufen, sind die Spiele in apple's application store die meistverkauften Applikationen (und ja die Wahrheit liegt eher beim ersten Teil). Die GPU des 3gs ist sogar zu faehig fuer die Spiele die auf dem Ding erhaeltlich sind und auch fuer seine Lebenszeit.
Aber der Punkt hier ist dass Apple die Initiative fuer OpenCL legte und es wohl doch kein Zufall ist dass sie die eizige GPGPU faehige IP im Markt fuer ihre i-bums Geraete waelte. Und jetzt weg von Handys und weiter hoch zu netbooks, notebooks und PCs von Apple in der Zukunft (egal woher die unterliegende Technologie herkommt). Die wichtigste Frage hier bleibt: Marketing oder Vision?
Ja, es scheinen wohl eher wirklich um die 40mm²+ zu sein.
Für mich passen auf dem Schaubild ungefähr 3 Cores in die Fläche der integrierten Grafik. Bei den Cores steht, dass einer eine Fläche von 20 mm² hat. Könnte die Fläche der integrierten Grafik dann nicht eher bei 60 mm² liegen? Gerade im Vergleich zu den Angaben der integrierten Grafik beim Clarkdale mit 114 mm² im 45 nm Prozess (habe ich aus dem Review Thread), müsste die Fläche im 32 nm Prozess doch größer als 40 mm² sein.
Laut fudzilla habe Intel einigen seiner Kunden mitgeteilt, dass die integrierte GPU in Sandy Bridge ungefähr doppelt so schnell sein werde, wie die GPU im Arrandale und Clarkdale.
Was meint ihr? Reicht dafür eine einfache Erhöhung der Taktfrequenz auf 1000 bis 1400 MHz und die Anbindung an den L3 Cache aus oder wird Intel dafür noch etwas am Grafikkern ändern müssen? Derzeitig läuft der Intel HD Graphics ja nur mit 533 bis 900 MHz und nachdem was ich bei Anandtech ( http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3724&p=4) gelesen habe, skaliert die GPU sehr gut bei einer Takterhöhung. Zumindest bei World of Warcraft erhöhte sich die Anzahl der Bilder pro Sekunde um über 50%, als sie den Takt der GPU von 733 MHz auf 1200 MHz erhöhten.
http://www.fudzilla.com/content/view/17536/1/
AnarchX
2010-02-09, 08:50:08
Sandy Bridge CPU to have up to 2 GPUs (http://www.fudzilla.com/content/view/17576/34/)
Aber dann hoffentlich nicht via AFR verbunden...
Sandy Bridge CPU to have up to 2 GPUs (http://www.fudzilla.com/content/view/17576/34/)
Aber dann hoffentlich nicht via AFR verbunden...
Nachdem es vorher schon die Meldung gab, dass die GPU doppelt so schnell würde, wird das ganz sicher nur heißen, dass sie halt doppelt soviele Shader verbauen.
Allerhöchstens wird das sowas wie bei den aktuellen ATI Bäumen sein, 2 Shadergruppen einer links, einer rechts ...
In dem Fall wärs komisch, dass intel das bereits bei der kleinen Baugröße so macht ... naja wie meinte mal ein ATi Entwickler, GPU Design ist schwieriger als CPUs zu basteln, sieht so aus als ob Intel deshalb einen eher simplen Ansatz verfolgt.
ciao
Alex
Ailuros
2010-02-09, 09:58:57
Sandy Bridge CPU to have up to 2 GPUs (http://www.fudzilla.com/content/view/17576/34/)
Aber dann hoffentlich nicht via AFR verbunden...
SGX543 2MP? SFR mit fast linearer Skalierung und 8 Vec4+1 ALUs oder nach anderer Rechenart 40SPs.
Undertaker
2010-02-09, 10:22:30
SGX543 2MP? SFR mit fast linearer Skalierung und 8 Vec4+1 ALUs oder nach anderer Rechenart 40SPs.
Wäre das denn genug für eine Verdoppelung im Vergleich zur aktuellen Clarkdale-IGP? Die erreicht ja aktuell bereits das Niveau eines 40SP RV620 (aka HD3200/4200 in 790GX/785G).
Ailuros
2010-02-09, 10:31:49
Wäre das denn genug für eine Verdoppelung im Vergleich zur aktuellen Clarkdale-IGP? Die erreicht ja aktuell bereits das Niveau eines 40SP RV620 (aka HD3200/4200 in 790GX/785G).
Ich haette meinen Beitrag weiter erlaeutern sollen da ich mich auf AnarchX's AFR Frage konzentriert habe. AFR auf einem SoC mit 2 GPU cores waere Bloedsinn; wenn es sich um GenX Quark handelt dann braucht Intel lediglich eine anstaendige hw tiling Implementierung (die bisher so gut wie nutzlos war).
Da die Bumsfallera Vertraege fuer diesen Markt hauptsaechlich immer noch leider mit Zeug wie 3dfart06 scores unterschrieben wird, wenn Du mir sagen kannst was ein Clarkdale landet koennte ich eventuell einschaetzen was ein 2MP Gespann unter =/>800MHz landen koennte.
Undertaker
2010-02-09, 10:33:57
Bei 900MHz (i5 661) knapp über 2000 Punkte.
Ailuros
2010-02-09, 10:40:16
Bei 900MHz (i5 661) knapp über 2000 Punkte.
Koennte schon hinhauen. Das einzige Problem ist dann ob sich Intel's itwasnotinventedhere Komplex durchsetzt oder ob sie doch endlich IMG in den PC Markt eindringen lassen. Die Moeglichkeiten sind allerdings gering.
Im Juli 2009 gab es folgenden Satz in ihrem damaligen jaehrlichen Report:
We are confident that we have the strategic relationships to be a major player in mobile computing and to even see some of our technologies in the desktop space.
Kann sein dass sie es schon auf Nehalem erwarteten.
gibt es eigentlich neue Fakten bezüglich Sandy Bridge? Ist es gesichert, dass es Am Ende 2010 raußkommen wird?
Undertaker
2010-02-28, 11:49:07
Fudzilla hatte neulich ein paar kleinere News, hauptsächlich zu den mobilen Ablegern:
http://www.fudzilla.com/content/view/17846/1/
http://www.fudzilla.com/content/view/17847/1/
http://www.fudzilla.com/content/view/17829/1/
Leonidas
2010-02-28, 11:56:57
gibt es eigentlich neue Fakten bezüglich Sandy Bridge? Ist es gesichert, dass es Am Ende 2010 raußkommen wird?
Hauptseite lesen und man ist informiert. Da stand in den letzten Tagen:
- erst 2011 (vermutlich Q1)
- PCI Express 3.0
- 20% mehr Performance laut Intel inkl. Takterhöhung - ergo vermutlich kein großer Sprung in der Pro/MHz-Leistung und nur ein kleiner Taktsprung
Hauptseite lesen und man ist informiert. Da stand in den letzten Tagen:
- erst 2011 (vermutlich Q1)
- PCI Express 3.0
- 20% mehr Performance laut Intel inkl. Takterhöhung - ergo vermutlich kein großer Sprung in der Pro/MHz-Leistung und nur ein kleiner Taktsprung
20% mehr Leistung wurden doch auch schon bei Penryn und Nahalem gesagt, oder?
wie sieht es mit speichercontroller aus, schon was bekannt? DDR3, oder schon 4er?
StefanV
2010-03-05, 11:07:41
Ist DDR-4 SDRAM denn schon spezifiziert?
Oder wurd irgend was angekündigt?
nichts das ich wüsste...aber in einem jahr kann viel passieren^^ habe nur irgendwo schon was von ddr4 gelesen^^
Mark3Dfx
2010-03-06, 18:20:58
Intel zum Jahresende mit neuem Prozessor-Sockel - Mainboardhersteller sind ungehalten
http://ht4u.net/news/21779_intel_zum_jahresende_mit_neuem_prozessor-sockel_-_mainboardhersteller_sind_ungehalten/
toll...dann gibts ja 4 Sockeln von Intel...
wie sieht es mit speichercontroller aus, schon was bekannt? DDR3, oder schon 4er?
Integrated Memory Controller with maximum 25.6 GB/s bandwidth, supports DDR3-1600 dual channel RAM
Release date is expected at Q1 2011
siehe:
http://en.wikipedia.org/wiki/Intel_Sandy_Bridge_%28microarchitecture%29
Spasstiger
2010-03-08, 15:00:34
Dass Intel für Sandybridge wieder einen neuen Sockel benötigt, dürfte das Todesurteil für den Sockel 1156 bedeuten. Für High-End (z.B. in Kürze den Sechskerner Gulftown) gibts den Sockel 1366 und für Mainstream den Sockel 775. Ein Sockel-1156-Käufer hat nur die Wahl zwischen Dual-Cores mit IGP oder Quad-Cores mit dedizierter Grafik. Wer heute einen Core i3 kauft und in Zukunft auf vier Kerne aufrüsten möchte, darf auch gleich eine dedizierte Graka einbauen.
Für was denn schon wieder einen neuen Sockel?
Vllt. ist das nicht so dramatisch. Kann ja sein, das Sandy trotzdem im 1156 funzt, er hat ja offenbar nur einen Pin weniger. Schlecht wäre es nur, wenn sich auch die Pinbelegung ändern würde, dann würde es den ganzen 1156-Brettern wie beim Sockel423 damals ergehen.
Spasstiger
2010-03-09, 11:28:45
Kann ja sein, das Sandy trotzdem im 1156 funzt, er hat ja offenbar nur einen Pin weniger.
Dann bräuchte man keinen neuen Sockel. Die Pinbelegung wird sich bei fast identischer Pinzahl sicherlich ändern, weil Sandybridge z.B. 24 statt 16 PCIe-Lanes besitzt.
Mal wieder ein paar Info Bröckchen:
http://www.computerbase.de/news/hardware/prozessoren/intel/2010/april/idf_offizielle_details_sandy_bridge_intel/
Hauptaugenmerk scheint beim SB auf Energieeffizienz zu liegen. IPC Verbesserungen werden zwar auch genannt, aber wieviel, steht nicht dabei.
ciao
Alex
Ronny145
2010-04-13, 18:18:42
Das hört sich alles nah einem feingetunten Nehalem an, was ja nicht schlecht sein muss. Hoffentlich bekommt der neue Chipsatz für Sandy Bridge gleich nativ Sata 3 und USB 3 spendiert.
Undertaker
2010-04-13, 18:30:47
So wie es aussieht leider nur SATA3. :( Gerade für Otto-Normal Nutzer ohne SSD wäre USB 3.0 allerdings sehr viel wichtiger gewesen...
aus nativen usb3 wird wohl nix: http://www.hartware.de/news_48947.html
USB 3.0 allerdings sehr viel wichtiger gewesen...
Es gibt Gerüchte/Vermutungen, dass Intel evtl. extra USB 3.0 wegen Light Peak verzögern könnte.
Vom Hocker haut mich USB 3.0 auch irgendwie nicht so wirklich. Wenn man mal vom Speed absieht, ist es scheinbar in einigen Punkten immer noch einem 10 Jahre alten Firewire-Stecker unterlegen (und Firewire gibt es auch schneller in höheren Aubaustufen).
Hoffentlich bekommt der neue Chipsatz für Sandy Bridge gleich nativ Sata 3 und USB 3 spendiert.
Wird angeblich von Intel verzögert, da sie 2012 was Neues auf Lichtwellenleiterbasis bringen wollen:
http://computer.t-online.de/usb-3-0-verzoegert-sich-intel-ist-schuld/id_41226778/index
KA ob was dran ist, aber wenn kein USB3 kommt, kommt keins.
AMD wirds auf alle Fälle mit der nächsten SB Generation für die Fusion Systeme unterstützen.
Undertaker
2010-04-13, 18:48:48
Es gibt Gerüchte/Vermutungen, dass Intel evtl. extra USB 3.0 wegen Light Peak verzögern könnte.
Vom Hocker haut mich USB 3.0 auch irgendwie nicht so wirklich. Wenn man mal vom Speed absieht, ist es scheinbar in einigen Punkten immer noch einem 10 Jahre alten Firewire-Stecker unterlegen (und Firewire gibt es auch schneller in höheren Aubaustufen).
Dennoch wird man wohl davon ausgehen können, dass sich USB auch in Version 3.0 wieder als Standard durchsetzt, allein schon durch die Abwärtskompatibilität - wenn Intel sich quer stellt, verbauen die Mainboardhersteller eben Zusatzchips.
durch die Abwärtskompatibilität
Das ist natürlich ein Argument.
Ist der Stecker an sich auch abwärtskomaptibel oder braucht es einen Adapter?
PCIe 3 gibbet offenbar genausowenig.
http://www.computerbase.de/news/hardware/prozessoren/intel/2010/april/gulftown-nachfolger_kernen/
Damit fällt eigentlich jeder Grund für einen neuen Sockel flach. Es wird zunehmend unverständlicher, da offenbar nun auch ein neue High-End-Sockel geplant ist (B2).
http://ht4u.net/news/21957_intels_sockel_1366_erhaelt_2011_einen_nachfolger/
Die VRM kann es eigentlich nicht sein, die Änderungen erfordert, da der Sandy offenbar im gleichen Fertigungsprozess gefertigt wird wie Westmere. Überhaupt sind wohl weitere Spannungsabsenkungen nicht zu erwarten und die 45nm-Varianten arbeiten mit ähnlichen Spannungen wie die 32nm-Varianten, das kann nicht als Grund herhalten, wenn doch, wirds langsam lächerlich.
Ergo wird das wohl wieder nur eine Masche sein, um Chipsätze mit absetzen zu können - die Konkurrenz in dem Bereich hat man ja erfolgreich entfernt.
puntarenas
2010-04-13, 18:53:11
Wird angeblich von Intel verzögert, da sie 2012 was Neues auf Lichtwellenleiterbasis bringen wollen:
http://computer.t-online.de/usb-3-0-verzoegert-sich-intel-ist-schuld/id_41226778/index
Hier nochmal:
ht4u.net - Intel: ein neuer Sockel, die neuen Chipsätze ohne USB 3.0 aber möglicherweise mit Light Peak (http://ht4u.net/news/21952_intel_ein_neuer_sockel_die_neuen_chipsaetze_ohne_usb_30_aber_moeglicherwei se_mit_light_peak/)
Da USB3.0 das Problem mit dem zusätzlichen Stromanschluss für externe Festplatten nicht behebt, kann mir der Bus eigentlich fast gestohlen bleiben, ich würde ihn höchstens noch für einen fixen USB-Stick verwenden. Light Peak soll aber leider auch keine potentere Stromversorgung mitbringen, am Ende wird die Stormversorgungsfrage für externe Geräte wohl nicht mehr gelöst sondern einfach ausgesessen. :freak:
Undertaker
2010-04-13, 18:55:09
Die VRM kann es eigentlich nicht sein, die Änderungen erfordert
Die VRM-Specs umfassen weitaus mehr Details, als du vielleicht vermuten magst. ;) Hier geht es auch um Spannungswelligkeiten, VDroop-Details, Wirkungsgradvorschriften usw.
Mal auf die schnelle eine sehr alte Vorschrift von 2002, Version 9.0:
http://www.intel.com/Assets/PDF/designguide/249205.pdf
Das ist natürlich ein Argument.
Ist der Stecker an sich auch abwärtskomaptibel oder braucht es einen Adapter?
Sind sie. USB 2.0 Geräte laufen an USB 3.0 Ports und umgekehrt, natürlich aber nur auf der jeweils langsamsten Geschwindigkeit beider Geräte.
Da USB3.0 das Problem mit dem zusätzlichen Stromanschluss für externe Festplatten nicht behebt, kann mir der Bus eigentlich fast gestohlen bleiben, ich würde ihn höchstens noch für einen fixen USB-Stick verwenden.
Firewire?
am Ende wird die Stormversorgungsfrage für externe Geräte wohl nicht mehr gelöst sondern einfach ausgesessen. :freak:
"Im Gegensatz zu USB mit maximal 5 V/0,5 A ist die Stromversorgung über FireWire mit 8 bis 33 V bei 1,5 A spezifiziert. 2,5″-Festplatten benötigen zum Anlaufen knapp über 1 A, weshalb vom sogenannten „bus-powered“-Betrieb von USB-Festplatten abgeraten wird. Bei FireWire ist es hingegen problemlos möglich, externe Festplatten ohne eigenes Netzteil an einem sechs- oder neunpoligen FireWire-Port zu betreiben."
http://de.wikipedia.org/wiki/FireWire
Und das sind noch die Uralt-Specs. Keine Ahnung wie es für Firewire S3200 aussieht - das aber vermutlich von Anfang an keine Chance haben wird :(
aylano
2010-04-13, 20:33:50
Mal wieder ein paar Info Bröckchen:
http://www.computerbase.de/news/hardware/prozessoren/intel/2010/april/idf_offizielle_details_sandy_bridge_intel/
Hauptaugenmerk scheint beim SB auf Energieeffizienz zu liegen. IPC Verbesserungen werden zwar auch genannt, aber wieviel, steht nicht dabei.
Ein paar Programme mit AVX ordentlich zu steigern und den Energie-Verbrauch praktisch gleichzu halten, ist ja auch eine Energie-effizienz- sowie IPC-Steigerung.
Sicher ist es beachtlich, wenn sie es mit Architektur-Verbesserungen real auch eintreten.
Aber bei Intel muss man halt nach dieser Geschichte kritisch sein.
45-nm-CPUs Penryn bieten über 40 Prozent mehr
http://www.tecchannel.de/test_technik/news/467577/idf_45_nm_cpus_penryn_bieten_ueber_40_prozent_mehr_performance/index3.html
Bei der Bildbearbeitung erreicht Yorkfield laut Intel zirka 15 Prozent mehr Performance. Die Rechenleistung beim Rendering soll um mindestens 25 Prozent steigen. Spiele liefern demnach zirka 40 Prozent höhere Frameraten.
Übriggeblieben sind dann paar Prozent (so 7%), die hauptsächlich auf den größeren L2-Cache zurückzuführen sind.
Black-Scorpion
2010-04-13, 20:43:59
Firewire?
Kostet Lizenzgebühren und wird auf fast keinem Mainboard verbaut.
Wird sich deshalb auch nicht als Alternative zu USB durchsetzen.
Firewire?
ist tot sogar apple entfernt sich davon
Undertaker
2010-04-13, 23:12:58
E
45-nm-CPUs Penryn bieten über 40 Prozent mehr
Selektive Zitate sind eine sehr unqualifizierte Basis. Die verglichenen CPUs besaßen 400MHz Taktunterschied sowie 1066MHz zu 1333MHz FSB. Der letzte Architektursprung, Core 2 zu Core i7, brachte bei gleichem Fertigungsprozess im Schnitt ~30% Mehrleistung, bei guter Parallelisierung und somit SMT-Ausnutzung auch noch deutlich mehr (40-50% in Fällen wie 3ds Max). Ähnliches ist von Sandy-Bridge zu Westmere zu erwarten: Allein 33% mehr Kerne (8 zu 6) werden dabei schon den Großteil beisteuern.
Black-Scorpion
2010-04-14, 19:14:22
ist tot sogar apple entfernt sich davon
Nö
Nur weil es der Apfel entfernt hat ist es nicht tot.
Gerade im Videobereich ist es die beste Lösung und bei Digicams afaik sogar die einzige um Videos der Kamera auf den PC zu bekommen.
Da ist der USB nur da um die Kamera als Webcam zu nutzen.
Apfel hat es nicht entfernt! :-)
Aber im Massenmarkt sehe ich auch keine Chance mehr. Auch wenn es nach wie vor eine tolle Schnittstelle ist (die es auch in höheren Ausbaustufen gibt).
aylano
2010-04-14, 22:24:12
Selektive Zitate sind eine sehr unqualifizierte Basis.
Das musst du ja wissen, daran bist du ja Meister.
Nachdem du den Text unabsichtlich vergessen hast, füge ich ihn nochmal ein.
http://www.tecchannel.de/test_technik/news/467577/idf_45_nm_cpus_penryn_bieten_ueber_40_prozent_mehr_performance/index3.html
Bei der Bildbearbeitung erreicht Yorkfield laut Intel zirka 15 Prozent mehr Performance. Die Rechenleistung beim Rendering soll um mindestens 25 Prozent steigen. Spiele liefern demnach zirka 40 Prozent höhere Frameraten.
Übrigens, der war nicht selektiert, sondern der war erste den ich in Google fand?
Die verglichenen CPUs besaßen 400MHz Taktunterschied sowie 1066MHz zu 1333MHz FSB
So zu deiner üblichen Theorie und jetzt zur Praxis
Erstens, es gab nie einen 3,33 Ghz-Penryn-Quad-Prozessor und schon gar nicht beim Penryn-Start.
Zum Penryn-Start kam "nur" ein 3,0 Ghz Prozessor alias QX9650.
Ja, Intel weiß wie man Leute täuschen kann.
Und von der versprochenen Performance-Steigerungen ist man auch weit entfernt.
Ich musste leider suchen/selektieren, damit ich einen Test fand, der bei Games auch eine GTX8800 hat.
http://www.tomshardware.de/QX9650-Penryn-Intel-Quadcore,testberichte-239853-18.html
Und die üblichen seiten die ich schauen.
http://ht4u.net/reviews/2007/intel_qx9650/index16.php
http://www.computerbase.de/artikel/prozessoren/2007/test_intel_core_2_extreme_qx9650/22/#abschnitt_performancerating
Oberer QX9650 vs. QX6850 , unterer QX6850 vs. QX6800
http://www.computerbase.de/artikel/prozessoren/2007/test_intel_core_2_extreme_qx9650/22/#abschnitt_performancerating
Einfach genial.
Sie zeigen eine CPU, die dann garnicht so schnell auf dem Markt kommt.
Ich sage nicht umsonst. Bei Intel-Aussagen muss man kristisch bleiben. Das gilt natürlich auch für Aussagen von AMD und Nvidia.
Da USB3.0 das Problem mit dem zusätzlichen Stromanschluss für externe Festplatten nicht behebt, kann mir der Bus eigentlich fast gestohlen bleiben, ich würde ihn höchstens noch für einen fixen USB-Stick verwenden.
Was denn für ein Problem? Mit 900mA reicht jetzt für gängie 2,5" HDDs.
Die Stromversorgung für 3,5" jetzt noch sicherzustellen fände ich etwas übertrieben. Das soll immerhin eine billige Schnittstelle sein.
puntarenas
2010-04-15, 06:25:03
Was denn für ein Problem? Mit 900mA reicht jetzt für gängie 2,5" HDDs.
Wird aber aufgrund der Anlaufströme nicht gerade wärmstens empfohlen und externe Platten gibt in 3,5" im Dutzend billiger, die sind allerdings noch weniger genügsam.
Die Stromversorgung für 3,5" jetzt noch sicherzustellen fände ich etwas übertrieben. Das soll immerhin eine billige Schnittstelle sein.
Ist ja okay, wenn du keinen Bedarf hast. Trotzdem ist es ein Kritikpunkt, den man häufiger hört, ein Bedarf scheint also sehr wohl zu existieren. Wenn es wenigstens eine standardisierte "Steckdose" gäbe, um ein oder zwei externe Geräte ans Gehäuse oder den Schlepptop zu stöpseln. Stattdessen werden wir warten müssen, bis Flashspeicher die letzte externe Festplatte ins Museum verbannt haben oder eben mit sperrigen Billignetzteilchen hantieren.
Schade, dass Firewire (immerhin 1,5 A, max. 48 W) faktisch keine Rolle im PC-Bereich spielt, schade dass im Zuge von eSATA die Stromversorgung auch nicht gelöst wurde und jetzt mit Marktmacht und Sandy Bridge womöglich schade, dass USB3.0 auch nicht gerade mit Nachdruck in den Markt gebracht wird, besonders die die Kamerabesitzer wird das vielleicht ärgern. Im Desktopbereich ist das momentan doch einfach nur Schrott, zwei blöde Buchsen per NEC-Chip an der Gehäuserückseite ist ziemlich unhandlich.
Naja, dann eben ab 2011 Light Peak, mir solls recht sein und wenn das Intels Wille ist, dann wird das Marketing das Ding schon beflügeln. Ob das aber was Kabel und Controller - besonders in den Endgeräten - angeht genauso billig sein wird wie USB darf man erst einmal bezweifeln. Egal und zurück zum thema. =)
Firewire?
Nicht zu vergessen, über FW kann man den RAM auslesen.
In Firmen wo vVerschlüsselung von z.B. Notebooks vorgeschrieben ist, ist FW für die NBs verboten.
Inzwischen geht man in solchen Firmen auch dazu über, FW ganz zu verbieten und eine einheiltiche Peripherie zu gewährleisten.
mfg
Undertaker
2010-04-18, 15:18:50
Das musst du ja wissen, daran bist du ja Meister.
Nachdem du den Text unabsichtlich vergessen hast, füge ich ihn nochmal ein.
http://www.tecchannel.de/test_technik/news/467577/idf_45_nm_cpus_penryn_bieten_ueber_40_prozent_mehr_performance/index3.html
Bei der Bildbearbeitung erreicht Yorkfield laut Intel zirka 15 Prozent mehr Performance. Die Rechenleistung beim Rendering soll um mindestens 25 Prozent steigen. Spiele liefern demnach zirka 40 Prozent höhere Frameraten.
Und das ist für einen 3,33GHz Yorkfield verglichen zu einem 2,93GHz Kentsfield durchaus korrekt, je nach Spiel. Was möchtest du kritisieren?
AnarchX
2010-04-18, 15:29:41
Diese 40% bei Spielen erreicht man in einem Cache-lastigen Half-Life 2 Benchmark.
HKEPC hatte damals im Preview 31% bei gleichem Takt gemessen:
http://img682.imageshack.us/img682/3509/wofdalehkepc.th.png (http://img682.imageshack.us/i/wofdalehkepc.png/)
Nö
Nur weil es der Apfel entfernt hat ist es nicht tot.
Gerade im Videobereich ist es die beste Lösung und bei Digicams afaik sogar die einzige um Videos der Kamera auf den PC zu bekommen.
Da ist der USB nur da um die Kamera als Webcam zu nutzen.
ja wie gesagt ist tot das ändert sich durch Nischen nicht. ist wohl ungefähr auf dem niveau vom itanium oder dem RS232. vl. wird es ja wiederbelebt wenn usb 3 weiter so rumkrebst.
Undertaker
2010-04-18, 17:44:48
Diese 40% bei Spielen erreicht man in einem Cache-lastigen Half-Life 2 Benchmark.
HKEPC hatte damals im Preview 31% bei gleichem Takt gemessen:
http://img682.imageshack.us/img682/3509/wofdalehkepc.th.png (http://img682.imageshack.us/i/wofdalehkepc.png/)
Und da ist der Takt- und FSB-Unterschied noch gar nicht dabei... In einem Speicherlastigen Fall wie HL2 dürfte das nocheinmal einen erheblichen Schub geben.
aylano
2010-04-18, 18:52:01
Und das ist für einen 3,33GHz Yorkfield verglichen zu einem 2,93GHz Kentsfield durchaus korrekt, je nach Spiel. Was möchtest du kritisieren?
Lass es einfach und geh nicht auf meine Posting ein, wenn du nicht diskutieren kannst sowie Texte verstehen (willst).
Ich brauche dein Pro-Intel pauschalisiertes Geschwafel nicht.
Was du da abgibts ist einfach erbärmlich für einen zukünftigen Dipl. Ing.
Undertaker
2010-04-18, 18:59:53
Ich würde diese Werte genauso für jeden anderen Hersteller werten, bitte diese AMD/Intel-Geschichten beseite lassen. Klar ist, dass jeder Hersteller vom Bestfall spricht, und wie du an den von AnarchX verlinkten Werten für HL2 siehst, werden die 40% dort inkl. Taktsteigerung und höheren FSB vermutlich sogar deutlich übertroffen. Also bitte, Diskussion auf einem gewissen Niveau, oder wir lassen das besser. ;)
aylano
2010-04-18, 19:43:30
Genau, und deshalb schrieb ich ja, man solle die +20% kritisch betrachten.
Ich bin ja nich derjenige, der laufend die +20% fast schon fast als Fakt wiederholt und diese nicht erklären kann;)
Klar ist, dass jeder Hersteller vom Bestfall spricht, und wie du an den von AnarchX verlinkten Werten für HL2 siehst, werden die 40% dort inkl. Taktsteigerung und höheren FSB vermutlich sogar deutlich übertroffen.
Man konnte nichteinmal einen Test finden, der 40% erreicht. Und das in einem Sonderfall, der in der Realität nicht gespielt wird. Vom Durchschnitt brauchen wir gar nicht reden.
Aber wem wunderst. Und schlimm war es damals nicht, da es nur ein Tick war.
Nightspider
2010-04-18, 19:50:12
Im Großen und Ganzen gab es seit Conroe (3-4 Jahre?) keine großen Fortschritte in der Architektur mehr...und Sandy Bridge wird die ProMHzLeistung auch nur wenig steigern...
Ist schon abzusehen wann es mal wieder einen größere Sprung geben wird? AMD setzt ja auf Bulldozer aber was bringt Intel ab 2012?
Mit Sandy Bridge wird die ProMhz Leistung 2011, seit rund 5 Jahren nicht stark gestiegen sein, wenn man SMT und den größeren Cache abzieht...
Undertaker
2010-04-18, 19:58:52
Man konnte nichteinmal einen Test finden, der 40% erreicht.
Du solltest dir glaube ich noch einmal anschauen, was dort (AnarchX' Link) genau gebencht wurde.
2,33GHz Conroe vs. 2,33GHz Wolfdale, beide 1333MHz FSB
-> ergibt 31% Leistungsdifferenz.
Die 40% beziehn sich auf:
2,93GHz Kentsfield vs. 3,33GHz Yorkfield, 1066MHz zu 1333MHz FSB
3,33GHz zu 2,93GHz ergibt zunächst einmal ~14% Taktunterschied. 14% und 31% resultieren in ~49% Mehrleistung. Bleibt noch der FSB, die Auswirkungen hier liegen bei etwa 5-10% (http://www.3dcenter.org/artikel/intel-core-2-allendale-vs-conroe-und-fsb266-vs-fsb333/gothic-3-und-gtr-2). Rechnen wir defensiv mit 5% - HL2 sollte durch seine Speicher- und Cachelastigkeit allerdings eher im oberen Rande liegen - ergeben sich rund 57% Mehrleistung.
Wenn ich einen Rechnenfehler gemacht haben sollte, bitte korrigieren. :)
Edit: Noch ein anderer guter Vergleich, statt eines 3,33GHz FSB 1333 Yorkfield nehmen wir einen 3,2GHz QX9770: http://www.hardware.fr/articles/778-1/comparatif-geant-146-processeurs-intel-amd.html
Crysis: 30% (Achtung, QX9770 evntl. schon GPU-limitiert)
AA2: 20%
GTA4: 34%
Anno: 39%
Da kommen wir den 40% teils auch schon ziemlich nahe. ;)
Nightspider
2010-04-18, 20:05:49
~30 % Unterschied? NIEMALS ! Nicht in Spielen!
E8200 vs E6750 2,66 vs 2,67 Ghz 3% in Crysis !
http://www.computerbase.de/artikel/prozessoren/2008/test_intel_core_2_duo_e8600_e0/21/#abschnitt_crysis
World in Conflict -1%
http://www.computerbase.de/artikel/prozessoren/2008/test_intel_core_2_duo_e8600_e0/20/#abschnitt_world_in_conflict
Fear: +1% !
http://www.computerbase.de/artikel/prozessoren/2008/test_intel_core_2_duo_e8600_e0/18/#abschnitt_fear
Wo sind da 30% ? In Half Life 2 vielleicht, denn der Woldfale besaß eine zusätzliche Einheit, die (glaube quadratische) Berechnungen in Half Life 2 extrem beschleunigte!
Zur Erinnerung: Conroe war 30% schneller als Pentium beim gleich Takt IN SPIELEN !
Undertaker
2010-04-18, 20:25:07
Achtung, aufpassen was da alles GPU-limitiert ist. ;) Btw, Pentium 4 zu Core 2 war teils über 100% in Spielen, gerade in neueren... Aber jetzt sind wir ziemlich weit OT.
Zur Erinnerung: Conroe war 30% schneller als Pentium beim gleich Takt IN SPIELEN !
In CPU-limitierten Situationen waren das eher >100%:
http://ht4u.net/reviews/2006/intel_conroe/index14.php damals
http://www.anandtech.com/bench/Product/93?vs=59 heute
Duplex
2010-04-18, 21:28:08
In CPU-limitierten Situationen waren das eher >100%:
http://ht4u.net/reviews/2006/intel_conroe/index14.php damals
vergleicht man im Link die min. FPS von dem K8 & Core 2 fällt auf das die fast gleichauf liegen
Ronny145
2010-04-18, 21:52:45
vergleicht man im Link die min. FPS von dem K8 & Core 2 fällt auf das die fast gleichauf liegen
Offensichtlich ist die 7900 GTX zu lahm und die Min FPS nur an der GPU hängend. Dann kann sich natürlich keine CPU absetzen.
mapel110
2010-04-18, 22:08:33
Wann kommt denn Sandy nun offiziell? Diese Woche?
Duplex
2010-04-18, 22:13:57
Wann kommt denn Sandy nun offiziell? Diese Woche?
nicht dein ernst oder? > Q4/2010
mapel110
2010-04-18, 22:19:26
nicht dein ernst oder? > Q4/2010
Hmokay, hab das wohl mit dem 6kerner von AMD verwechselt. Aber gut, nochmal ein Jahr Kohle gespart, was CPU angeht.
Hmokay, hab das wohl mit dem 6kerner von AMD verwechselt. Aber gut, nochmal ein Jahr Kohle gespart, was CPU angeht.Und auch noch die Kohle fürs Mainboard ^^
aylano
2010-04-19, 11:23:00
Du solltest dir glaube ich noch einmal anschauen, was dort (AnarchX' Link) genau gebencht wurde.
Du solltes mal verstehen, was der Durschnitt bedeutet.
Mit ach und krach findest ein Spiel.
Also, auf gut deutsch.
Penryn schafft 2 Jahre nach Einführung in Rosinen-Auslösungen in einem Spiel das, was sie als Durschnitt versprochen haben.
Also, Theoretisch, denn ein 3,33 Ghz-Penryn-Modell gab es nie.
Ich hoffe, das trifft nicht bei Sandy-Bridge zu, denn das wäre sehr mager.
Deshalb, bei den +20% kristisch bleiben, was ja meine Grundaussage war und du später auch festgestellt hast.
*lol*
Der Herr der CPU Bencht diese im GPU-Limit, super toll, damit schießt du den Vogel des Jahrhunderts ab.
Undertaker
2010-04-19, 11:34:50
Penryn schafft 2 Jahre nach Einführung in Rosinen-Auslösungen in einem Spiel das, was sie als Durschnitt versprochen haben.
Also, Theoretisch, denn ein 3,33 Ghz-Penryn-Modell gab es nie.
Nein, man schafft in einem Spiel deutlich mehr als die 40%. ;) Der QX9770 dürfte dank FSB1600 übrigens sehr ähnlich wie ein 3,33GHz Modell mit FSB1333 performen. ~40% sind ebenfalls in Anno und Serious Sam drin, um die 35% in GTA 4 und Crysis ohne GPU-Limit. Hätten wir mehr CPU-limitierte Messungen, könnte man diese Liste mit Werten zwischen 30-40% und einige darüber sicher noch ergänzen. ;)
AnarchX
2010-04-19, 11:38:02
3,33GHz gab es wirklich nur als Xeon-Quad, bei Core 2 war der QX9770 mit 3,2GHz das Maximum.
Aber auf die Intelangaben sollte man nicht soviel Wert legen, wie häufig sind das sehr selektierte Anwendungen und ob da das höhere Taktpotential einfließt wird auch nicht angegeben.
Bei SNB könnte der doppelt so große L2-Cache für Spiele interessant werden.
In dem Zusammenhang ist auch interessant, ob PCWatch mit den 6MiB L3 richtig liegt, den damit wäre der frei verfügbare L3-Cache gegenüber Lynnfield kleiner: 4MiB vs 7MiB.
Oder man geht den Weg von AMD und hält die L2-Inhalte nicht mehr im L3?
Undertaker
2010-04-19, 11:41:56
Ist der größere L2 bereits gesichert? Dann würde ich bei den Mainstream-Quads eher von einem nicht-inklusiven Design ausgehen. Bei 15-20MB L3 für den Gulftown-Nachfolger sähe das schon anders aus.
AnarchX
2010-04-19, 11:44:45
Ist der größere L2 bereits gesichert?.
Laut Die-Shot schon.
http://www.2cpu.com/article_images/03162010_westmere/03162010_westmere_die.png
http://img32.imageshack.us/img32/6168/snb2496035366.jpg
... die beiden L2-Blöcke im Bereich unten-links sind etwa doppelt so groß bei SNB.
aylano
2010-04-19, 11:49:58
Hätten wir mehr CPU-limitierte Messungen, könnte man diese Liste mit Werten zwischen 30-40% und einige darüber sicher noch ergänzen.
Die 30-40% lasse ich meinetwegen zwei jahre nach Einführung aktzepierten. Mir ist das nicht so wichtig. Nur spielt halt da keiner in der Auflösung. Ich hoffe nur, die 20% von Sandy-Bridge sehen wir auch nicht in 2 Jahren in Speziellen Auflösungen.
Und meine Grundaussage war, man solle die 20% jetzt nicht als Durschnitt beim Start als 100% sicher nehmen sondern man sollte es kristisch betrachten.
Wenn sie tatsächlich die 20% schaffen, wäre ich beeindruckt.
Wenn sie nach 2 Jahren in Speziallen Auflösungen diese 20% erreichen, die so schnell bzw. hoch getaktet nie am Markt kommen wird, ist es mager.
Du solltest mal das Gesammte betrachten und nicht immer nur Details. Das heißt eben, die Grundaussage nicht zu vergessen, wenn man davon teil-zitiert!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
Die 30-40% lasse ich meinetwegen zwei jahre nach Einführung aktzepierten. Mir ist das nicht so wichtig. Nur spielt halt da keiner in der Auflösung. Ich hoffe nur, die 20% von Sandy-Bridge sehen wir auch nicht in 2 Jahren in Speziellen Auflösungen.
Und meine Grundaussage war, man solle die 20% jetzt nicht als Durschnitt beim Start als 100% sicher nehmen sondern man sollte es kristisch betrachten.
Wenn sie tatsächlich die 20% schaffen, wäre ich beeindruckt.
Wenn sie nach 2 Jahren in Speziallen Auflösungen diese 20% erreichen, die so schnell nie am Markt kommen wird, ist es mager.
Du solltest mal das Gesammte betrachten und nicht immer nur Details. Das heißt eben, die Grundaussage nicht zu vergessen, wenn man davon zitiert;-)
Wenn SBs Mehrleistung nicht umgesetzt werden kann, weil die GPU limitiert so hat auch der BD dieses Problem ;) - bist du dan genauso kritisch?
Undertaker
2010-04-19, 11:56:02
Der Ausschluss jeglicher GPU-Limits ist für CPU-Leistungsbetrachtungen essentiell. Alles was wir ansonsten messen ist die Leistung der Grafikkarte im jeweiligen Testsetting...
@AnarchX: Ah, Thx für den Link.
Der Ausschluss jeglicher GPU-Limits ist für CPU-Leistungsbetrachtungen essentiell. Alles was wir ansonsten messen ist die Leistung der Grafikkarte im jeweiligen Testsetting...
@AnarchX: Ah, Thx für den Link.
Das Problem zu Penryn-Zeiten war, das AMD nicht ins GPU-Limit gerutscht ist :D
aylano
2010-04-19, 12:37:36
Wenn SBs Mehrleistung nicht umgesetzt werden kann, weil die GPU limitiert so hat auch der BD dieses Problem ;) - bist du dan genauso kritisch?
Natürlich, warum sollte ich das ignorieren?
PS:
Was manche nicht verstehen, ist der Unterschied zwischen Theorie und Praxis.
Intel hat was versprochen, was sie in der Praxis nicht einhalten können. (siehee 3,33 GHz Modell)
Man kann Aktiengesellschaften klagen, wenn sie falsches Versprochen bzw. Irregeführte hatten.
Das war vor der Krise nicht so überlich.
Gerade letzte Woche beschwerte ich mich über eine Internet-Security Firme, weil sie die Verträge nicht einhalten indem sie eine von 3 Firewalls deaktivieren.
Was die Telephone-Fuzzi damals noch nicht verstand, ist heute Realität. Ein Woche später gibts "zufällig" ein neuere Software-Version wo der "Fehler" in der letzten Version bereinigt wurde.
Laut Die-Shot schon.
http://www.2cpu.com/article_images/03162010_westmere/03162010_westmere_die.png
http://img32.imageshack.us/img32/6168/snb2496035366.jpg
... die beiden L2-Blöcke im Bereich unten-links sind etwa doppelt so groß bei SNB.Wo ist bei Dir "unten Links" ?
Hans de Vries meint der L2 ist gleich groß:
The two SRAM tiles of the L2 cache are below the "B" of Sandy Bridge.
They are longer but also less wide as in case of Westmere so the area
is about the same in both cases.
http://www.chip-architect.com/news/Llano_vs_SandyBridge_vs_Westmere.jpg
http://www.xtremesystems.org/forums/showpost.php?p=4340817&postcount=71
Um Widersprüche auszuschießen: Der L2 ist bei Westmere unter den Buchstaben "Westmer" und bei Sandy unter "y Brid".
Oder man geht den Weg von AMD und hält die L2-Inhalte nicht mehr im L3?Kann man eigentlich ausschließen, denn dann bräuchten sie für die MP Systeme auch wieder nen Snoop Filter wie AMD mit HT Assist. Wäre mMn ein zu tiefer Eingriff in die ganze Architektur. MESIF <> MOESI etc. pp.
ciao
Alex
Natürlich, warum sollte ich das ignorieren?
PS:
Was manche nicht verstehen, ist der Unterschied zwischen Theorie und Praxis.
Intel hat was versprochen, was sie in der Praxis nicht einhalten können. (siehee 3,33 GHz Modell)
Man kann Aktiengesellschaften klagen, wenn sie falsches Versprochen bzw. Irregeführte hatten.
Das war vor der Krise nicht so überlich.
Gerade letzte Woche beschwerte ich mich über eine Internet-Security Firme, weil sie die Verträge nicht einhalten indem sie eine von 3 Firewalls deaktivieren.
Was die Telephone-Fuzzi damals noch nicht verstand, ist heute Realität. Ein Woche später gibts "zufällig" ein neuere Software-Version wo der "Fehler" in der letzten Version bereinigt wurde.
Wenn ich als User das Szenario, bei dem ein Penryn um gesagte % schneller ist als ein Kentsfield, herbei rufen kann, dann hat Intel nicht gelogen. Das dies möglich ist, zeige Undertaker anhand eines Benches. Warum du damit ein Problem hast, ist mir unverständlich. AMD hat dem Phenom2 auch 30% (9950 vs. 940) mehr Power im Vergleich zum Phenom1 zugesichert. Wie oft findet man das in der Praxis?
AnarchX
2010-04-19, 15:18:38
Wo ist bei Dir "unten Links" ?
Hans de Vries meint der L2 ist gleich groß:
http://www.chip-architect.com/news/Llano_vs_SandyBridge_vs_Westmere.jpg
http://www.xtremesystems.org/forums/showpost.php?p=4340817&postcount=71
Auf diesen besseren Die-Shots sieht es in der Tat nach der gleichen Menge, bei etwas verändertem Flooplan aus. Was wohl abseits der Größe auf irgendeine Änderung hinweisen könnte.
aylano
2010-04-19, 18:23:21
Wenn ich als User das Szenario, bei dem ein Penryn um gesagte % schneller ist als ein Kentsfield, herbei rufen kann, dann hat Intel nicht gelogen. Das dies möglich ist, zeige Undertaker anhand eines Benches.
Erstmals muss man verstehen, dass es der Durchschnitt sein soll und nicht nur ein Test.
Zweitens, hatte Intel kein 3,33 Ghz Modell bringen können, und schongarnicht bei der Einführung.
Somit konnte ich es als Normal-User nie herbeirufen. Genau das ist der Grund, warum es eben so schwierig ist, das nachzuprüfen.
Und wenn Intel tatsächlich mit 600x800 oder sonst wie gebencht haben, dann müssen sie es dazuschreiben.
http://www.computerbase.de/bildstrecke/17774/6/
Und das dürften sie wahrscheinlich eben nicht gemacht haben und deshalb dürften sie eben irregeführt haben.
Warum du damit ein Problem hast, ist mir unverständlich. AMD hat dem Phenom2 auch 30% (9950 vs. 940) mehr Power im Vergleich zum Phenom1 zugesichert. Wie oft findet man das in der Praxis?
Keine Ahnung, vielleicht so wie Intel?
Deshalb sage ich auch, man muss solche Zahlen kritisch betrachten, vorallem wenn man sie überhaupt nicht erklären kann.
Ich bin auch nicht derjendige, der die +20% herumspammt und sie nicht dabei erkären kann.
AnarchX
2010-04-19, 18:42:49
Und wenn Intel tatsächlich mit 600x800 oder sonst wie gebencht haben, dann müssen sie es dazuschreiben.
http://www.computerbase.de/bildstrecke/17774/6/
Und das dürften sie wahrscheinlich eben nicht gemacht haben und deshalb dürften sie eben irregeführt haben.
Bei einem CPU-Test sollte doch das Ausschließen von GPU-Limits selbstverständlich sein.
Ich bin auch nicht derjendige, der die +20% herumspammt und sie nicht dabei erkären kann.
Wir wollen doch bei einem vernünftigen Niveau bleiben. ;)
Wo hat Undertaker 20% für SNB genannt?
Ich kann mich nur an diffuse 20% von Fudo im Bezug auf den Dual-Core erinnern: http://www.fudzilla.com/content/view/17713/1/
Das könnte erklärbar durch eine bessere Taktbarkeit und den besseren Latenze durch den IMC direkt auf dem Die erklärbar sein.
aylano
2010-04-19, 21:17:36
Wir wollen doch bei einem vernünftigen Niveau bleiben. ;)
Ein Wiederholen von Pauschaulisierungen und Nichteingehen von Details fördert auch keine Diskussion.
Auch, wenn man (Grund-)Aussagen teil-zitiert und falsch drauf eingeht/versteht.
In diesem Fall, stehen wird jetzt da, was meine Ursprung-Aussage war.
Man muss halt die Aussagen von Intel kritisch betrachten.
(Der Grund,weil sie nur in bestimmten Situationen gilt.)
Jetzt wissen wir, wie die Zahlen ungefähr damals gemeint waren.
Wo hat Undertaker 20% für SNB genannt?
Im Phenom II 6-Core-Thread.
Bei einem CPU-Test sollte doch das Ausschließen von GPU-Limits selbstverständlich sein.
Auflösungen von 1280x1024 ist gleich GPU-Limitiert?
http://www.tomshardware.de/QX9650-Penryn-Intel-Quadcore,testberichte-239853-18.html
http://www.tomshardware.de/QX9650-Penryn-Intel-Quadcore,testberichte-239853-22.html
AnarchX
2010-04-19, 21:32:09
Auflösungen von 1280x1024 ist gleich GPU-Limitiert?
http://www.tomshardware.de/QX9650-Penryn-Intel-Quadcore,testberichte-239853-18.html
http://www.tomshardware.de/QX9650-Penryn-Intel-Quadcore,testberichte-239853-22.html
Natürlich nicht, je nach Szenario kann sogar ein CPU-Limit bei Full-HD und höher vorliegen.
Aber was da THG macht, ist wieder eine andere Diskussion:
UT2004: http://www.tomshardware.de/QX9650-Penryn-Intel-Quadcore,testberichte-239853-23.html Q6600 vor Q6850
Q4: http://www.tomshardware.de/QX9650-Penryn-Intel-Quadcore,testberichte-239853-24.html 72% des Q9650 erreicht der QX6850. Hier sind es aber nur -5,6% http://www.tomshardware.de/QX9650-Penryn-Intel-Quadcore,testberichte-239853-18.html
:|
Undertaker
2010-04-19, 23:45:39
Im Phenom II 6-Core-Thread.
Jegliche Äußerungen bitte im genauen Wortlaut und Kontext betrachten und nicht einfach irgendwie an anderer Stelle wiederkäuen. Danke :)
Generell sind selbst 20%, die ja letztlich von Fudzilla nur für zwei Mobilmodelle unbekannter Taktrate und gleicher Kernzahl genannt wurden, eine eher geringe Zahl für eine neue Architektur - da sind wir aus der Vergangenheit mit deutlich größeren Werten verwöhnt wurden. Allein AVX verdoppelt die theoretische (und bei entsprechenden Szenarien vermutlich auch annähernd die praktische) Rechenleistung bereits, dies wurde in bisherige Schätzungen wohl also noch nichteinmal einbezogen - auch wenn entsprechende Software noch einige Zeit auf sich warten lassen könnte. Weiterhin kommt hinzu, das bisherige Taktspielräume bei stärkerem Druck seitens AMD recht schnell ausgeschöpft werden könnte - das wird davon Abhängen, wie sich die Konkurrenz weiter entwickelt. Letzter Punkt neben den mehr oder weniger selbstverständlichen IPC-Tweaks hier und da ist die Steigerung der Kernzahl, die zwangsläufig positive Effekte auf die Energieeffizienz und damit die bei gleicher TDP erreichbare Leistung hat. In Summation rechne ich mit einer ähnlichen Leistungssteigerung wie von Penryn auf Nehalem, für das Topmodell durch die gestiegene Kernzahl sogar mit deutlich mehr. Die Konkurrenz dürfte sich kaum weniger zulegen, insofern besteht Anlass die möglichen Reserven auszuschöpfen.
aylano
2010-04-20, 11:12:24
Natürlich nicht, je nach Szenario kann sogar ein CPU-Limit bei Full-HD und höher vorliegen.
Wenn 1024x1080 nicht GPU-Limitiert ist, dann sind auch diese Tests richtig und somit könnte der Grund auch woanders liegen, warum die 800x600-Werte höher ausfallen.
Aber was da THG macht, ist wieder eine andere Diskussion:
Genauso das ist das wieder nächste Problem.
Wenn ich nur einen Test finde, das zu meinen Ansichten passt, und die anderen vielen Tests nicht, dann kann ich womöglich auch falsch sein.
Und die THG Seite nahm ich deshalb, weil es der erste nach viele Tests war, der halbwegs große CPU-Steigerungen hatte.
Die beiden Antworten sollen jetzt keine Anregung zu einer neuen Diskussion sein, aber ich will nur anmerken, dass man immer kritisch sein soll.
Denn nach der 590SLI-Ära sah man gut, nur weil alle so testen, heißt es nicht, dass es richtig ist.
Ein Grund warum ich nie von Fakten spreche.
Wenn 1024x1080 nicht GPU-Limitiert ist, dann sind auch diese Tests richtig und somit könnte der Grund auch woanders liegen, warum die 800x600-Werte höher ausfallen.
Hast du dir mal die verwendete Graka angesehen?
Foxconn Nvidia GeForce 8800 GTX
GPU: 575 MHz
Shader: 1350 MHz
Speicher: 786 MB DDR4 (900 MHz, 384 Bit)
Das ist sicherlich GPU-Limitiert.
aylano
2010-04-20, 13:25:33
Hast du dir mal die verwendete Graka angesehen?
Ja, das war damals die schnellste GPU.
Während beim Test, wo Penryn ungefähr die von Intel angegebenen Performance-Steigerungen erst viel später erreichen konnte.
Eben, wegen der besseren Grafikkarte und höheren Takt.
Ich hoffe, SNB erreicht die 20% Plus nicht 1-2 Jahr nach Einführung mit einer neuen Grafikkarte.
Wobei AFAIK es diesmal der Vergleich im Notebook-Bereich auch mit höheren Taktraten gemacht wurden.
Das ist sicherlich GPU-Limitiert.
Na was jetzt, ist es jetzt oder nicht?
Gibts dazu auch Erklärungen oder wartest du jetzt noch auf.
"Nö, das ist noch nicht GPU-Limitiert"???
Ja, das war damals die schnellste GPU.
Während beim Test, wo Penryn ungefähr die von Intel angegebenen Performance-Steigerungen erst viel später erreichen konnte.
Eben, wegen der besseren Grafikkarte und höheren Takt.
Ich hoffe, SNB erreicht die 20% Plus nicht 1-2 Jahr nach Einführung mit einer neuen Grafikkarte.
?
Bei dir ist ein Porsche GT3 auch nicht schneller als ein VW Polo, weil beide in Österreich nicht schneller als 130 km/h fahren dürfen? :D
aylano
2010-04-20, 13:38:48
Falscher Vergleich.
Der Unterschied liegt zwischen können und dürfen;)
a) Es gab keine so schnelle GPU zum Start und b) nicht jeder kann übertakten.
Hingegen sind Autobahnen meistens für über 200km/h gebaut.;)
Mal sehen, vielleicht erreicht der Penryn genau jene +40%-Steigerung wenn man mit GTX480 oder Nachfolger bencht.
=Floi=
2010-04-20, 13:45:12
Bei dir ist ein Porsche GT3 auch nicht schneller als ein VW Polo, weil beide in Österreich nicht schneller als 130 km/h fahren dürfen? :D
bis 130kmh schon und das entspricht dann auch den min fps. (ebenso dürfte der porsche quasi überall diese 130kmh schaffen und beim polo muß man dann vom gas gehen, weil man sonst abfliegt.) was nützen mir 130fps, wenn die min. fps mit der alten cpu teilweise ins bodenlose fallen? das hat man auch sehr schon beim alten A64 X2 gesehen. am anfang war er noch konkurrenzfähig und später versagte er dann total. ich erinnere hier mal an supreme commander und andere games.
Falscher Vergleich.
Der Unterschied liegt zwischen können und dürfen;)
a) Es gab keine so schnelle GPU zum Start und b) nicht jeder kann übertakten.
Hingegen sind Autobahnen meistens für über 200km/h gebaut.;)
Mal sehen, vielleicht erreicht der Penryn genau jene +40%-Steigerung wenn man mit GTX480 oder Nachfolger bencht.
Warum müssen diese 40% unbedingt in +40% FPS resultieren? CPUs sind auch für andere Dinge gedacht!?
Chrisch
2010-04-21, 23:12:06
Bin mal gespannt was JCornell noch so für Screens bringt, er ist wie fast immer einer der Ersten der was von neuer Hardware zeigt :D
Yet another porn. :clap:
http://i245.photobucket.com/albums/gg66/JCorn3ll/Ibexpeak/xxx/SB_C0.jpg
http://i245.photobucket.com/albums/gg66/JCorn3ll/Ibexpeak/xxx/SB_C1.jpg
http://i245.photobucket.com/albums/gg66/JCorn3ll/Ibexpeak/xxx/SB.jpg
http://i245.photobucket.com/albums/gg66/JCorn3ll/Ibexpeak/xxx/SB1.jpg
:shrug:
http://www.xtremesystems.org/forums/showthread.php?t=250145
Sandy Bridge scheint nun mit 100MHz Referenztakt zu kommen, vorteil für uns denn es gibt dann noch größere Multis :D
Sandy Bridge scheint nun mit 100MHz Referenztakt zu kommen, vorteil für uns denn es gibt dann noch größere Multis :D
Ich glaub eher dass 133 nur einfach instabil waren, ist doch schließlich nur ein früher Prototyp. Taktraten interessieren da keinen, Hauptsache das Ding läuft irgendwie.
Genausogut könnte man sonst sagen "Sandy scheint nur mit 2,4 GHz zu takten". Ich glaube da sind wir uns einig, dass das nicht hinkommt ^^
Undertaker
2010-04-22, 00:22:05
Die 100MHz tauchten afair auch schon an anderer Stelle auf - und in der Vergangenheit kamen auch frühe Samples mit dem korrekten Systemtakt:
http://www.abload.de/img/attachmentcpgt.png (http://www.abload.de/image.php?img=attachmentcpgt.png)
Letztlich spricht ja auch nichts gegen eine Absenkung auf 100MHz. Auf die Performance hat es keinerlei Einfluss, womöglich werden dadurch aber Energie- oder Kosteneinsparungen auf Mainboardseite erreicht - also, warum nicht.
Chrisch
2010-04-22, 10:23:48
Ich glaub eher dass 133 nur einfach instabil waren, ist doch schließlich nur ein früher Prototyp. Taktraten interessieren da keinen, Hauptsache das Ding läuft irgendwie.
Genausogut könnte man sonst sagen "Sandy scheint nur mit 2,4 GHz zu takten". Ich glaube da sind wir uns einig, dass das nicht hinkommt ^^
So früh ist das Sample garnicht, immerhin schon das 2te Stepping (davor gibts noch 0 & 1). Und der Referenztakt hat nichts mit
der stabilität zu tun, ich denke eher das es so einfacher ist die gewünschten Taktraten zu erreichen (CPU, Uncore, GPU, PCIe).
Und ich glaube auch das es schon lange höher getaktete Samples gibt, war & ist beim Gulftown auch so der Fall. JC wird da bestimmt
demnächst noch mehr von zeigen :)
Und der Referenztakt hat nichts mit
der stabilität zu tun, ich denke eher das es so einfacher ist die gewünschten Taktraten zu erreichen (CPU, Uncore, GPU, PCIe).
Ist doch das gleiche:
"Einfacher" aufgrund mangelnder Stabilität bei vollen 133 ;-)
Referenzbretter laufen nie auf Anschlag, auch nicht mit A2. Ich würde auch alles mit "A" als "früh" einstufen. Solange da "A" steht sind das immer noch die allerersten Schaltkreise des Tape-Outs, das "2" bezieht sich nur auf Änderungen in den Metall-Zwischenebenen.
Hat mal letztens bei den nVidia Chips jemand erklärt. Ich nehme an dass gilt industrieweit. Falls Du andere Informationen über die Nummerierung bei Intel hast, bitte berichtigen.
Wie auch immer, mir ist es prinzipiell egal weshalb das Teil jetzt 100 Mhz hat. Mir gehts nur darum, dass man von nem einzelnen Prototypenbrett und dessen Taktraten nicht blind auf den allgemeinen Takt der Verkaufsprodukte schließen sollte.
ciao
Alex
Undertaker
2010-04-22, 10:45:47
Und ich glaube auch das es schon lange höher getaktete Samples gibt, war & ist beim Gulftown auch so der Fall. JC wird da bestimmt
demnächst noch mehr von zeigen :)
Und wann bekommst du die Finger an ein Sample? :D
Chrisch
2010-04-22, 11:09:58
@ S940
ich denke man kann fest davon ausgehen das die Retails auch bei 100MHz Referenztakt bleiben werden :)
Die ersten Bloomfield, Lynnfield, Clarkdale sowie Gufltown Samples hatten alle 133MHz als Referenztakt, es ist also wumpe wie "frisch" das Sample ist :)
@ undertaker
an nen sample der CPU zu kommen ist wesentlich einfacher als an ein passendes Board zu kommen :D
Ich denke die CPUs dürfte man bald schon bekommen können, die ersten Samples sind von Intel ja schon verschickt. Aber ohne Board bringt das ganze
ja leider nichts...
@ S940
ich denke man kann fest davon ausgehen das die Retails auch bei 100MHz Referenztakt bleiben werden :)
Die ersten Bloomfield, Lynnfield, Clarkdale sowie Gufltown Samples hatten alle 133MHz als Referenztakt, es ist also wumpe wie "frisch" das Sample ist
Warten wirs einfach mal ab ;-)
Ist alles eigentlich "wumpe" :D
Undertaker
2010-04-22, 11:30:45
an nen sample der CPU zu kommen ist wesentlich einfacher als an ein passendes Board zu kommen :D
Ich denke die CPUs dürfte man bald schon bekommen können, die ersten Samples sind von Intel ja schon verschickt. Aber ohne Board bringt das ganze
ja leider nichts...
Hmm, ich hätte jetzt spekuliert, dass Intel die CPUs direkt mit einer Art Referenzboard verschickt... Scheint wohl aber nicht so zu sein, dann eben weiter abwarten. ;)
robbitop
2010-04-22, 11:37:09
Mir ist der Sinn von Sample-CPUs ohne passende Sample-Boards irgendwie unklar. :|
Chrisch
2010-04-22, 12:16:30
Ja klar verschickt Intel Samples mit Boards, aber doch nicht an mich?! :D
Samples kommen ja recht einfach im Umlauf, aber Boards eben nicht :(
Hinterher die Review Samples die kommen auch wieder mit Board, aber die aktuellen sind ja nicht für irgendwelche Redakteure sondern für
div. Hersteller...
Mir ist der Sinn von Sample-CPUs ohne passende Sample-Boards irgendwie unklar. :|und boards ohne chips sind auch ohne Sinn.
Henne-Ei problem.
Schrotti
2010-04-26, 01:22:48
Die 100MHz tauchten afair auch schon an anderer Stelle auf - und in der Vergangenheit kamen auch frühe Samples mit dem korrekten Systemtakt:
http://www.abload.de/img/attachmentcpgt.png (http://www.abload.de/image.php?img=attachmentcpgt.png)
Letztlich spricht ja auch nichts gegen eine Absenkung auf 100MHz. Auf die Performance hat es keinerlei Einfluss, womöglich werden dadurch aber Energie- oder Kosteneinsparungen auf Mainboardseite erreicht - also, warum nicht.
So was als 8 Kerner (16 Threads) für den Sockel 1156 wäre cool.
Aber nö Intel hat ja nicht vor den Sockel 1156 weiter zu versorgen. Werde ich wohl mit meinem i7 860 ne Weile aushalten müssen.
Kommt für 1156 überhaupt noch was?
AnarchX
2010-06-01, 17:39:25
Laut CB soll Sandy Bridge 1,12 Mrd. (http://www.computerbase.de/news/hardware/prozessoren/intel/2010/juni/ein_happen_sandy_bridge_intel/) Transistoren besitzen.
Also wohl um die 400 Mio. Transitoren für den IGP.
Undertaker
2010-06-01, 18:11:06
So eine Größenordnung stand eigentlich bereits schon länger im Raum, Clarkdale hat 177M für GPU und IMC (deswegen würde ich bei SB eher von ~300-350M für die GPU allein ausgehen) - und für Sandy Bridge war eine Leistungsverdoppelung angekündigt wurden.
AnarchX
2010-06-01, 19:12:53
Das SI hatte ich auch nicht mit berechnet.
Insgesamt wohl in der Größenorndung eines G94 oder RV730, wenn auch wohl nicht von der Leistung.
dildo4u
2010-06-02, 18:37:53
Video Mass Effect 2 auf Sandy Bridge
http://www.engadget.com/2010/06/01/intel-briefly-demos-next-gen-sandy-bridge-laptop-platform-at-com/
Wär ja nicht schlecht wenn schon mal zumindest die Konsolenport's so gut laufen.
Botcruscher
2010-06-02, 19:42:32
Ohne Angabe von Auflösung und FPS absolut wertlos. Immerhin positiv wenn Spiele mit Intelgrafik inzwischen wenigstens starten.
AnarchX
2010-06-02, 19:44:10
Am FOV sieht man schon mal, das beide Systeme mit verschiedenen Auflösungen gelaufen sind.
Chrisch
2010-06-10, 13:16:08
Coolaler hat wohl nun nen 2.5GHz 4C/8T Sandy Bridge Sample in die Finger bekommen :)
Die Performance sieht schonmal nicht schlecht aus!
http://www.abload.de/thumb/1l8kn.png (http://www.abload.de/image.php?img=1l8kn.png) http://www.abload.de/thumb/2smds.png (http://www.abload.de/image.php?img=2smds.png) http://www.abload.de/thumb/3owvt.png (http://www.abload.de/image.php?img=3owvt.png) http://www.abload.de/thumb/4l847.png (http://www.abload.de/image.php?img=4l847.png)
http://www.abload.de/thumb/5vwv9.png (http://www.abload.de/image.php?img=5vwv9.png) http://www.abload.de/thumb/s7xw0o.png (http://www.abload.de/image.php?img=s7xw0o.png) http://www.abload.de/thumb/s80klx.png (http://www.abload.de/image.php?img=s80klx.png) http://www.abload.de/thumb/s987ua.png (http://www.abload.de/image.php?img=s987ua.png)
http://www.abload.de/thumb/s10jvys.png (http://www.abload.de/image.php?img=s10jvys.png) http://www.abload.de/thumb/s11kvlo.png (http://www.abload.de/image.php?img=s11kvlo.png) http://www.abload.de/thumb/s125wi7.png (http://www.abload.de/image.php?img=s125wi7.png) http://www.abload.de/thumb/s131jfc.png (http://www.abload.de/image.php?img=s131jfc.png)
http://www.abload.de/thumb/s14evms.png (http://www.abload.de/image.php?img=s14evms.png) http://www.abload.de/thumb/s152jgj.png (http://www.abload.de/image.php?img=s152jgj.png)
(Quelle: Coolaler (http://forum.coolaler.com/showthread.php?t=240578&page=1))
http://img59.imageshack.us/img59/9472/10070820217a90b68335ece.png (http://img59.imageshack.us/i/10070820217a90b68335ece.png/)
http://www.xfastest.com/cms/tid-46719/
Wobei die 8M-Cache beim i7-2600 etwas seltsam aussehen, nachdem hier laut Die-Shot wohl nur 6MB vorhanden sind.
Und die aktuellen Samples haben ja auch nur 6MB.
Triskaine
2010-07-09, 21:19:54
Auf dem Die sind 8 MB L3 vorhanden, von dem sich die GPU 2 MB abzwackt. Bei dem Core i7 2600 ist die GPU anscheinend deaktiviert. Jemand der den i7 2600 kauft, das Topmodell für den Sockel 1155, verwendet sowieso eine schnelle dezidierte Grafikkarte und kann den zusätzlichen Cache besser gebrauchen.
y33H@
2010-07-09, 21:23:16
Core i7-940XM vs. Mobile Sandy Bridge (http://www.pcgameshardware.de/aid,763618/)
Sieht grob nach +30% schneller aus - der Takt von Sandy ist aber unklar [i7-940XM = 2,13 GHz]. Die bisherigen ES laufen mit 2,5 GHz. Zumindest für Desktop ;D
Ronny145
2010-07-09, 21:26:17
3.1 Ghz Minimum zum Start der Mainstream Sandy Bridge Plattform wäre mehr als ich gedacht hätte. Das wäre bei der Taktfrequenz eine Steigerung von 433 Mhz (i5-750).
Auf dem Die sind 8 MB L3 vorhanden, von dem sich die GPU 2 MB abzwackt. Bei dem Core i7 2600 ist die GPU anscheinend deaktiviert. Jemand der den i7 2600 kauft, das Topmodell für den Sockel 1155, verwendet sowieso eine schnelle dezidierte Grafikkarte und kann den zusätzlichen Cache besser gebrauchen.
Das klingt logisch. Wäre natürlich besser, wenn man die GPU auch bei den anderen CPUs deaktivieren könnte um so den kompletten Cache zu nutzen.
Zudem bleibt die Frage was der IGP mit 2MiB L3-Cache will, wenn dann ist eine solche Größe wohl nur für GPGPU brauchbar.
john carmack
2010-07-13, 11:24:53
Also wird die Grafikeinheit auf jeder SandyBirdge CPU verbaut?
Jedenfalls auf den CPUs für S.1155. Bei den High-End und Server-Versionen wird es wohl keinen IGP geben.
Undertaker
2010-07-13, 11:34:06
Jedenfalls auf den CPUs für S.1155. Bei den High-End und Server-Versionen wird es wohl keinen IGP geben.
Afair verfügt LGA1356 gar nicht über das dazu notwendige FDI - hier wären also nie IGP-Modelle möglich. Theoretisch denkbar wären hingegen IGP-lose LGA1155 Versionen - imho allerdings extrem unwahrscheinlich, voraussichtlich gibt es hier nur zwei Dies (einen Dual und einen Quad), und die IGP deaktiviert sich bei Nicht-Nutzung so oder so.
john carmack
2010-07-13, 11:37:26
So richtig verstehe ich das leider nicht.
Warum macht Intel sowas?
Welche Vorteile brint die integrierte Grafikeinheit auf der CPU?
Auf den ersten Blick macht das für mich den Prozessor teurer und wärmer!
************************************
************************************
Es wird schon einen Performance Vorteil bringen denke ich; - Nicht umsonst
machen sich wahrscheinlich hunderte Intel Wissenschaftler über sowas gedanken...
So richtig verstehe ich das leider nicht.
Warum macht Intel sowas?
Welche Vorteile brint die integrierte Grafikeinheit auf der CPU?
Auf den ersten Blick macht das für mich den Prozessor teurer und wärmer!
Der Intel-IGP bringt eigentlich keine Vorteile, egal ob aufm Prozi oder MB. Miese Treiber, schlechte Leistung, usw. Ich frage mich auch, was der Sinn davon ist.
john carmack
2010-07-13, 11:52:20
Vielleicht sind die ja auch nur für NoteBooks und Low-End / Office PC´s gedacht.
Also Hoffentlich!
Ich meine aber irgendwann mal gelesen zu haben das die Grafikeinheit sozusagen auch als Co-Prozessor dienen soll. Fällt mir grad erst wieder ein. Da war was mit dem L3 Cache?!?!?
Vielleicht sind die ja auch nur für NoteBooks und Low-End / Office PC´s gedacht.
Also Hoffentlich!
Ich meine aber irgendwann mal gelesen zu haben das die Grafikeinheit sozusagen auch als Co-Prozessor dienen soll. Fällt mir grad erst wieder ein. Da war was mit dem L3 Cache?!?!?
:ugly2:
Bei der gebalten Expertise Intels, in diesem Bereich, kann ich mir das schwer vorstellen.
Undertaker
2010-07-13, 12:02:32
Der Intel-IGP bringt eigentlich keine Vorteile, egal ob aufm Prozi oder MB. Miese Treiber, schlechte Leistung, usw. Ich frage mich auch, was der Sinn davon ist.
Ähm. Die Grafikausgabe? Videobeschleunigung? Mehr braucht der übliche Office-PC nicht. Im Mobilbereich ergibt sich zusätzlich noch der Vorteil umschaltbarer dezidierter Grafiklösungen wie mit Optimus.
Ähm. Die Grafikausgabe? Videobeschleunigung? Mehr braucht der übliche Office-PC nicht. Im Mobilbereich ergibt sich zusätzlich noch der Vorteil umschaltbarer dezidierter Grafiklösungen wie mit Optimus.
Ich meinte mit Vorteil eben "Vorteil ggü anderen Lösungen" und nicht "Vorteil ggü einem System ohne GPU". :freak:
Undertaker
2010-07-13, 12:06:07
Was wären denn andere Lösungen? Eine dezidierte GPU? Die hat für den Großteil aller PCs (auf denen nicht gespielt wird) nur Nachteile - Mehrkosten und höhere Verlustleistung.
Was wären denn andere Lösungen? Eine dezidierte GPU? Die hat für den Großteil aller PCs (auf denen nicht gespielt wird) nur Nachteile - Mehrkosten und höhere Verlustleistung.
EIne IGP von AMD, oder ein ION.
EIne IGP von AMD, oder ein ION.
Wozu?!
Eine OnDIE IGP ist immer sparsamer. Die Leistung ist weit mehr als ausreichend. 3D-Spiele sind auch auf AMDs oder NV IGP-Board-Lösungen nicht brauchbbar. Also bräuchte man für so etwas wieder eine richtige GPU.
Undertaker
2010-07-13, 12:14:39
ION ist in aktueller Form nichts anderes als eine dezidierte GPU, Chipsätze für non-FSB Modelle gibt es nur von Intel selbst - weder von Nvidia noch von AMD. Und nochmal, welchen Vorteil hätten geschätzt ~80% aller PCs weltweit, auf denen nicht gespielt wird, von einer anderen, gfls. leistungsfähigeren IGP oder gar dezidierten GPU? Mir ist keiner bekannt.
Wozu?!
Eine OnDIE IGP ist immer sparsamer. Die Leistung ist weit mehr als ausreichend. 3D-Spiele sind auch auf AMDs oder NV IGP-Board-Lösungen nicht brauchbbar. Also bräuchte man für so etwas wieder eine richtige GPU.
Es geht nicht um Spiele, sondern um gute Treiber und gescheite Fähigkeiten. Wenn ich nur sehe wie Nutzer neuester Atoms keine GPU-Beschleunigung aufm Niveau eines "uralten" IONs bekommen, oder wie Intel "klugerweise" den Ausgang auf eine lächerliche Auflösung begrenzt hat, dann könnte ich druchdrehen.
Undertaker
2010-07-13, 12:19:44
Du siehst aber schon, dass es hier um Sandy Bridge geht? ;) Der allgemeine Intel-IGP Flame, wo erst im 3. Posting mangelnde Features des low-cost Atom zur Sprache kommen, ist also mehr als überflüssig.
Es geht nicht um Spiele, sondern um gute Treiber und gescheite Fähigkeiten. Wenn ich nur sehe wie Nutzer neuester Atoms keine GPU-Beschleunigung aufm Niveau eines "uralten" IONs bekommen, oder wie Intel "klugerweise" den Ausgang auf eine lächerliche Auflösung begrenzt hat, dann könnte ich druchdrehen.
Und was hat das mit Sandy zu tun?
Der Treiber für normale Notebooks funktioniert wunderbar (zumindest unter Win7).
Die Geschichte mit GPU-Beschleunigung ist (noch) ein Argument, aber kein Grund was mMn dagegen spricht!
Du siehst aber schon, dass es hier um Sandy Bridge geht? ;) Der allgemeine Intel-IGP Flame, wo erst im 3. Posting mangelnde Features des low-cost Atom zur Sprache kommen, ist also mehr als überflüssig.
Naja, es zeigt wie Intel in diesem Bereich "tickt". Es zeigt sehr gut was man ihnen zutrauen kann. Und man kann ihnen ruhigen Gewissens zutrauen, ein IGP-Produkt zu verbocken. IMO. :cool:
Naja, es zeigt wie Intel in diesem Bereich "tickt". Es zeigt sehr gut was man ihnen zutrauen kann. Und man kann ihnen ruhigen Gewissens zutrauen, ein IGP-Produkt zu verbocken. IMO. :cool:
Sag ist das dein einziges Argument? Schwach sowas!
Sag ist das dein einziges Argument? Schwach sowas!
Welches Argument erwartest du dir denn so? Immerhin hat Intel es in seiner langen Geschichte nicht ein mal geschafft, einen vernünftigen Grafikprozessor auf den Markt zu bringen. Und die Verbreitung ihrer bisherigen IGPs lassen sich nur durch die Qualität der CPUs und der Platform erklären. Wären die IGPs noch gescheit, sähe die Verbreitung noch besser aus.
Wieso sollte jemand, der bisher nichts auf die Reihe gebracht hat, auf einmal ein herausragendes Produkt liefern können?
Undertaker
2010-07-13, 12:32:24
Naja, es zeigt wie Intel in diesem Bereich "tickt". Es zeigt sehr gut was man ihnen zutrauen kann. Und man kann ihnen ruhigen Gewissens zutrauen, ein IGP-Produkt zu verbocken. IMO. :cool:
Das halte ich für eine wenig objektive Verallgemeinerung. Was gibt es dann an der aktuellen Officeplattform mit der Clarkdale-IGP auszusetzen? Höchst sparsam. Gute Videobeschleunigung. Das Thema Spiele ist hier völlig unbedeutend, verglichen zu den beiden vorhergehenden.
Das halte ich für eine wenig objektive Verallgemeinerung. Was gibt es dann an der aktuellen Officeplattform mit der Clarkdale-IGP auszusetzen? Höchst sparsam. Gute Videobeschleunigung. Das Thema Spiele ist hier völlig unbedeutend, verglichen zu den beiden vorhergehenden.
Ist das wirklich so? Vor allem bzgl Flash? Und wo ist ein vernünftiges Controlpanel? Unabhängig von der Leistung sollten alle Einstellungen (auch AA, AF) völlig funktionsfähig sein.
Welches Argument erwartest du dir denn so? Immerhin hat Intel es in seiner langen Geschichte nicht ein mal geschafft, einen vernünftigen Grafikprozessor auf den Markt zu bringen. Und die Verbreitung ihrer bisherigen IGPs lassen sich nur durch die Qualität der CPUs und der Platform erklären. Wären die IGPs noch gescheit, sähe die Verbreitung noch besser aus.
Wieso sollte jemand, der bisher nichts auf die Reihe gebracht hat, auf einmal ein herausragendes Produkt liefern können?
Hast du jemals mit einer aktuellen Intel-IGP Office-Arbeit verrichtet? Oder blubberst du nur den Scheiß was s.Pain un Co. verzapfen nach?
Falls ja bzw. nein, was stört dich an der aktuellen IGP [= nicht Atom, wir befinden uns im SandyBridge Thread] wirklich?
Ist das wirklich so? Vor allem bzgl Flash? Und wo ist ein vernünftiges Controlpanel? Unabhängig von der Leistung sollten alle Einstellungen (auch AA, AF) völlig funktionsfähig sein.
1. HD Video läuft problemlos auf nicht Atom-Notebooks!
2. Wozu AA AF, wenn ich kein 3D im Office brauche?
Hast du auch echte Argumente?
Wie wäre es damit: Die ATI-IGP ist Rotz, weil sie kein CUDA kann (= gleicher Schwachsinn!)
Hast du jemals mit einer aktuellen Intel-IGP Office-Arbeit verrichtet?
Mit den iX nicht.
Oder blubberst du nur den Scheiß was s.Pain un Co. verzapfen nach?Ne, was "blubbern" die den so?
Falls ja bzw. nein, was stört dich an der aktuellen IGP [= nicht Atom, wir befinden uns im SandyBridge Thread] wirklich?
Mich stört die Unprofessionalität Intels in diesem Bereich. Man sieht es an deren CPUs, das sie es viel besser können. Aber die IGPs werden stiefmutterlich behandelt. Man bringt Treiber nicht raus, die das volle Potential der IGP ausschöpfen, oder bringt es erst in 6 Monaten und verpasst der selben HW einen neuen Namen, dann die Geschichte mit der ganzen Unkonformität mit geltenden Standards. Dann die gefühlte Ewigkeit, bis man die IGPs AA/AF-fähig gemacht hat. Das alles kotzt mich an. Ich fühle mich als Kunde schlecht behandelt.
Shink
2010-07-13, 12:43:53
EIne IGP von AMD, oder ein ION.
Ich würde mal sagen rein theoretisch hat es seine Nachteile wenn der Speichercontroller auf der CPU sitzt und die IGP nicht.
Rein theoretisch ist die Sandy Bridge-IGP ja sogar leistungsfähiger als jede andere. Und sie können ja nunmal schlecht eine NVidia-Grafiklösung auf den Die bauen. Sie tun alles in ihrer Macht stehende um eine ordentliche IGP hinzubekommen. Dass das zu wenig ist ist eine andere Geschichte.:freak:
1. HD Video läuft problemlos auf nicht Atom-Notebooks!
2. Wozu AA AF, wenn ich kein 3D im Office brauche?
Hast du auch echte Argumente?
Wie wäre es damit: Die ATI-IGP ist Rotz, weil sie kein CUDA kann (= gleicher Schwachsinn!)
Das sind alles echte Argumente. Auch bei den Atoms gibt es wahrscheinlich keinen HW-seitigen Grund, die Beschleunigung nicht zu aktivieren, aber Intel will es eben nicht. So weit ich weiss kann die PowerVR-GPU das sehr wohl. Man ist aber als Atom-Nutzer der Gnade Intels ausgeliefert.
Undertaker
2010-07-13, 12:49:03
Ist das wirklich so? Vor allem bzgl Flash?
Lief die Flash-Videobeschleunigung auf Intel-IGPs nicht sogar eher fehlerfrei als bei ATI? Hervorzuheben ist hier im Regelfall nur Nvidia, auch wie beim kürzlich erschienen VLC-Player-Update, wo die Unterstützung für ATI und Intel erst mit einer kommenden Version und neueren Treibern folgt. Nvidia-IGPs werden aber in kürzester Zeit ausgestorben sein.
Nur die Z-Atoms haben einen PowerVR-IGP. N/D-Atoms, wenn nicht mit Ion kombiniert haben meist eben nur einen IGP auf GMA 950 Basis.
Ansonsten ist die GMA X4500/Graphics HD Basis recht vernünftig, wenn man Videos schauen und mal ein einfaches 3D-Spiel spielen will. Bei SNB wird sich zeigen müssen, ob Intel es schafft OpenCL/DirectCompute Unterstützung anzubieten. Bei wohl möglich >100 GFLOPs macht das schon Sinn.
john carmack
2010-07-13, 15:12:54
Hallo?
könnt ihr mal wieder auf das Thema SandyBridge zurückkommen?
john carmack
2010-07-18, 18:46:20
jemand ne ahnung wann intel zu einer komplett neuen architektur wechselt. sandybridge basiert ja auch noch auf dem core2
boxleitnerb
2010-07-18, 18:50:56
Und der basiert nur auf dem P3...die Frage kann man so mit "nie" beantworten :)
Komplett neu gibt es nicht.
john carmack
2010-07-18, 18:57:25
dann eben fast ganz neu.
so wie der sprung P4-core oder k8-bulldozer
boxleitnerb
2010-07-18, 19:04:01
Ich glaube, sowas sehen wir nicht so schnell wieder wegen der recht straffen Tick-Tock Geschichte. Es wird stetige Verbesserungen und mehr Kerne geben, aber eine Revolution sehe ich nicht am Horizont.
Nightspider
2010-07-18, 19:14:59
Die nächste neue Architektur kommt bei Intel erst 2013. Ob die wieder auf der Core Architektur aufbauen wird, weiß aber noch keiner. Also abwarten.
mit sicherheit wird die noch auf der Core Architektur basieren, die letzte neue Architektur von Intel war eine tot geburt, stichwort: P4 und wurde aufgegeben, aus dem P3 wurde Core2, Nehalem & Sandy Bridge basieren auch auf Core2, warum soll Intel eine neue Architektur bauen wenn es mit der alten auch geht? Die aktuelle Intel Core Architektur kommt nicht an ihre grenzen, eine sehr gute Architektur die seit P6 vom Jahr 1991 existiert.
bis 2013 hat die Core Architektur 50% mehr IPC als jetzt, wenn sich die Leistung so steigern lässt, wird Intel keine neue entwickeln wollen, der P4 hat Intel viel Geld gekostet und am ende hat man ihm komplett begraben.
also das mit neue Architektur schnell vom Gehirn löschen.
Im Nehalem steck vermutlich fast so viel Netburst wie P3 ;) Nur weil man die Linie nicht wie vorgesehen fortgesetzt hat, heißt das nicht, dass alles was mit Netburst kam weggeworfen wurde.
SavageX
2010-07-19, 19:28:16
Nur weil man die Linie nicht wie vorgesehen fortgesetzt hat, heißt das nicht, dass alles was mit Netburst kam weggeworfen wurde.
Abgesehen von den Befehlssatzerweiterungen sehe ich da aber nicht viel ;)
Die eine oder andere hübsche Idee des P4 sehen wir vielleicht in zukünftigen Architekturen wieder - einen Trace-Cache vielleicht.
dildo4u
2010-07-19, 19:33:50
Abgesehen von den Befehlssatzerweiterungen sehe ich da aber nicht viel ;)
SMT.
Die eine oder andere hübsche Idee des P4 sehen wir vielleicht in zukünftigen Architekturen wieder - einen Trace-Cache vielleicht.Gibts doch schon in Form des Loop-Buffers. Das ist nichts anderes. Einzige Unterschied ist die geringe Größe, aber dafür haben die Cores ja einen echten I$ Cache.
Bei Sandy wird das Teil gerüchteweise dann "nur" vergrößert und dann eventuell deshalb Trace Cache genannt.
Gibts doch schon in Form des Loop-Buffers. Das ist nichts anderes. Einzige Unterschied ist die geringe Größe, aber dafür haben die Cores ja einen echten I$ Cache.
Bei Sandy wird das Teil gerüchteweise dann "nur" vergrößert und dann eventuell deshalb Trace Cache genannt.
Und was würde so eine Änderung größenmäßig bringen?
Infos zum Übertakten bei Sandy Bridge: http://translate.google.de/translate?u=http%3A%2F%2Fwww.hkepc.com%2F5202&sl=zh-CN&tl=en&hl=&ie=UTF-8
Im Video gibt es ein paar Folien, die wohl von Intel kommen.
Konami
2010-07-30, 15:52:20
Infos zum Übertakten bei Sandy Bridge: http://translate.google.de/translate?u=http%3A%2F%2Fwww.hkepc.com%2F5202&sl=zh-CN&tl=en&hl=&ie=UTF-8
Im Video gibt es ein paar Folien, die wohl von Intel kommen.
Leonidas hat das Thema ja auch in den News angesprochen (http://www.3dcenter.org/news/2010-07-23)... Und im ganzen Forum findet sich weit und breit kein Wort der Empörung darüber? :ugly:
Ich für meinen Teil werde wohl definitiv wieder AMD kaufen, wenn das bei Sandy Bridge so kommt (und es keinen mainboardseitigen Workaround gibt).
Leonidas hat das Thema ja auch in den News angesprochen (http://www.3dcenter.org/news/2010-07-23)... Und im ganzen Forum findet sich weit und breit kein Wort der Empörung darüber? :ugly:
Ist doch noch nichts endgültig bekannt und wie es aussieht wird es nur die LowCost-Varianten treffen, oberhalb eines gewissen Preisniveaus wird Overclocking wohl weiterhin möglich sein und noch eine Preisklasse darüber kannst du auch in Zukunft den Stickstoff auspacken.
Klar, schade, keine 80€ Pentiums mehr in Leistungsregionen von 250€ Boliden. Ist auch gut für AMD, ist ja eher deren angestammtes Terrain da unten, da stellen sie sich Preis-/Leistungsmäßig dann insgesamt nochmal einen Tick besser.
Ich für meinen Teil werde wohl definitiv wieder AMD kaufen, wenn das bei Sandy Bridge so kommt (und es keinen mainboardseitigen Workaround gibt).
kthxbye!
san.salvador
2010-07-30, 16:21:35
Leonidas hat das Thema ja auch in den News angesprochen (http://www.3dcenter.org/news/2010-07-23)... Und im ganzen Forum findet sich weit und breit kein Wort der Empörung darüber? :ugly:
Ich für meinen Teil werde wohl definitiv wieder AMD kaufen, wenn das bei Sandy Bridge so kommt (und es keinen mainboardseitigen Workaround gibt).
Ich glaub diese News lesen nicht all zu viele.
Konami
2010-07-30, 16:47:59
Ist doch noch nichts endgültig bekannt und wie es aussieht wird es nur die LowCost-Varianten treffen, oberhalb eines gewissen Preisniveaus wird Overclocking wohl weiterhin möglich sein und noch eine Preisklasse darüber kannst du auch in Zukunft den Stickstoff auspacken.
Klar, schade, keine 80€ Pentiums mehr in Leistungsregionen von 250€ Boliden. Ist auch gut für AMD, ist ja eher deren angestammtes Terrain da unten, da stellen sie sich Preis-/Leistungsmäßig dann insgesamt nochmal einen Tick besser.
Quelle?
Für mich klingt das eher so, als würde Overclocking erstmal grundsätzlich ausgesperrt, und diese speziellen K-Modelle sind dann preislich irgendwo zwischen normalen CPUs und Extreme Editions angesiedelt – also außerhalb des Bereichs, den Otto Normalverbraucher für eine CPU zu zahlen bereit ist.
Ich bin kein Lowcost-Käufer, der Highend-Performance für 80€ erwartet – aber wenn ich schon ~200€ für eine CPU ausgebe, dann will ich auch ihr Potential ausschöpfen können, wenn es nötig wird, und nicht dank Intels Diktat nach kurzer Zeit zu einem teuren Upgrade verdammt sein, obwohl ich gerade 40% Mehrleistung ungenutzt lasse.
Das ist IMO einfach ein unsympathischer Zug, den User auf diese Art einzusperren und abhängig zu machen. "Apple-like", könnte man sagen...
Klar, kommerziell ist es nur logisch, aber eben unsympathisch.
BlackBirdSR
2010-07-30, 17:58:53
Gibts doch schon in Form des Loop-Buffers. Das ist nichts anderes. Einzige Unterschied ist die geringe Größe, aber dafür haben die Cores ja einen echten I$ Cache.
Bei Sandy wird das Teil gerüchteweise dann "nur" vergrößert und dann eventuell deshalb Trace Cache genannt.
So als Zusatzinfo für alle anderen.
In einem anderen Thread wurde schon versucht zu erklären, dass es eben nicht das gleiche ist wie ein Trace-Cache.
Undertaker
2010-07-30, 18:39:50
Klar, kommerziell ist es nur logisch, aber eben unsympathisch.
Ich kann es mir nicht erklären... Denn:
1. Die Masse übertaktet nicht
2. Die, die übertakten, sind für gewöhnlich mehr oder weniger gut informiert - und würden sich im Zweifelsfall auch einfach der Konkurrenz zuwenden
3. Der PR-GAU unter dieser Nutzergruppe wäre gigantisch
4. Die Zahl jener, die bei eingeschränktem OC wirklich deutlich mehr für schnellere oder spezielle "K"-Modelle ausgibt, dürfte minimal sein
5. Sehr unwahrscheinlich, dass ein Sandy Bridge ohne OC einen Nehalem/Lynnfield mit OC deutlich übertrifft. Warum sollte ein solcher Nutzer dann überhaupt noch upgraden, wenn es keine günstigen OC-Modelle gibt?
So als Zusatzinfo für alle anderen.
In einem anderen Thread wurde schon versucht zu erklären, dass es eben nicht das gleiche ist wie ein Trace-Cache.
Ahja, passt hier gut rein.
Aber die Frage, wie ein sehr, sehr großer Loop Buffer heißt, war noch offen oder ?
Da wirds mit dem Unterscheiden mMn ziemlich schwierig ... denn ich glaube kaum, dass man bei einem Fassungsvermögen von ~16kB (so die Gerüchteküche) nur µOps für Loops zwischenspeichert.
Falls Du eine Trennlienie ziehen kannst, bitte ich um Aufklärung :)
ciao
Alex
G A S T
2010-07-30, 23:30:04
Gibts doch schon in Form des Loop-Buffers. Das ist nichts anderes. Einzige Unterschied ist die geringe Größe, aber dafür haben die Cores ja einen echten I$ Cache.
Bei Sandy wird das Teil gerüchteweise dann "nur" vergrößert und dann eventuell deshalb Trace Cache genannt.
:eek: Naja, nicht wirklich.
Hier mal was nettes zum Thema Trace Cache:
http://www-ti.informatik.uni-tuebingen.de/~heim/lehre/seminar_ws0001/martin/tc_html/node6.html
@ Rest:
Im Übrigen ist der P4 im Rückblick alles andere als die "Totgeburt" für die ihn viele halten. Natürlich gab es mit den ersten Modellen Startschwierigkeiten, da die Leistung einfach zu gering war. Der P4 war aber durchaus eine sehr interessante Geschichte. Viele begreifen bis heute nicht, das der P4 mit seiner "langen Leitung" absichtlich auf eine fixe Takt/Mhz-Relation in der Leistungsbilanz abziehlte. Da die Leistung mit dem Takt linear skaliert funktioniert das Prinzip aber eben nur dann, wenn die Taktraten kontinuierlich gesteigert werden. Hier befand sich Intel - vor allem fertigungsbedingt - in einer Sackgasse.
Wozu ein Pentium 4 noch heute fähig ist, zeigt sich beispielsweise am Cedar Mill in 65nm aus dem Jahre 2006. Im D0-Stepping sogar mit einer für den P4 - beeindruckend niedrigen TDP. Hätte Intel vor 5 Jahren bereits die modernen Fertigungsstrukturen nutzen können, so wären die ursprünglich angepeilten Taktraten von jenseits der 5 GHz ja durchaus machbar gewesen.
Der P4 hat eine ganze Kaskade an Innovationen jenseits von SSE und SMT gebracht, ohne die der Erfolg der heutigen Core-Architektur defintiv nicht denkbar gewesen wäre.
Intel hat all die positiven wie negativen Erfahrungen beim Core verwertet.
ShadowXX
2010-07-30, 23:59:08
Quelle?
Für mich klingt das eher so, als würde Overclocking erstmal grundsätzlich ausgesperrt, und diese speziellen K-Modelle sind dann preislich irgendwo zwischen normalen CPUs und Extreme Editions angesiedelt – also außerhalb des Bereichs, den Otto Normalverbraucher für eine CPU zu zahlen bereit ist.
Naja....soviel teurer als die normalen Modelle sind die momentanen K-Modelle nun wirklich nicht.
Und eine Übertaktung per Multipilkator ist besser und sauberer als per FSB. Speicher kann man ja sowieso getrennt und "offiziell" übertakten bei Sandy Bridge.
Gibts doch schon in Form des Loop-Buffers. Das ist nichts anderes.
Das ist etwas völlig anderes. Das haben wir im Bulldozer-Thread schon durch.
Aber die Frage, wie ein sehr, sehr großer Loop Buffer heißt, war noch offen oder ?
Nein.
Da wirds mit dem Unterscheiden mMn ziemlich schwierig ... denn ich glaube kaum, dass man bei einem Fassungsvermögen von ~16kB (so die Gerüchteküche) nur µOps für Loops zwischenspeichert.
Da wird nichts schwierig. Es ist und bleibt ein Loop Buffer, sonst würde Intel einen anderen Namen dafür verwenden.
Der P4 hat eine ganze Kaskade an Innovationen jenseits von SSE und SMT gebracht, ohne die der Erfolg der heutigen Core-Architektur defintiv nicht denkbar gewesen wäre.Tippo? Du meinst bestimmt den Dohan.
Na klar hat Intel die negativen Erfahrungen mit P4 verwertet und das SSE vom P3 auch nach dem P4 weiter entwickelt. Man sollte das nur ausreichend differenziert betrachten ;)
Ob man jetzt ein Geburt die aus welchem Anlaß auch immer in einer Sackgasse endet nicht als eine Totgeburt nennen sollte, beweist für mich keine differenzierte Sichtweise :up:
Das ist etwas völlig anderes. Das haben wir im Bulldozer-Thread schon durch.Dann les da bitte nochmal nach, wir hatten uns darauf geeinigt, dass das "konzeptionell ähnlich ist" ...
Das ist was ganz anderes als "völlig anderes".
Nein.
Mir hatte Keiner meine Frage:
Ok, Unterschied ist dann klar. Wäre noch nett, wenn Du kurz Deine Meinung über einen großen LSD geben könntest. Wäre es eventuell möglich, dass der dann auch ganze Traces speichert ? Oder wird das wirklich nur ein sehr, sehr großer Schleifen Cache ? Frage mich halt im Moment, was Intel durch das starke vergrößern des LSD bezwecken will, für kleine Schleifen reichts jetzt doch auch schon, oder ?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8163665#post8163665
keiner beantwortet = offen.
Da wird nichts schwierig. Es ist und bleibt ein Loop Buffer, sonst würde Intel einen anderen Namen dafür verwenden.
Weiss man denn schon sicher, dass Intel es bei Sandy wieder Loop Buffer nennen wird ?
Dann les da bitte nochmal nach, wir hatten uns darauf geeinigt, dass das "konzeptionell ähnlich ist" ...
Du hattest dich offenbar da mit dir selber geeinigt. "Konzeptionell ähnlich" ist bei mir etwas anderes.
keiner beantwortet = offen.
Es ist nur ein Cache für die uOps der aktuellen Schleife.
Weiss man denn schon sicher, dass Intel es bei Sandy wieder Loop Buffer nennen wird ?
Nein, aber wenn sie einen Trace-Cache einbauen würden, dann hätte man das schon irgendwo gelesen.
Du unterschätzt offenbar immer noch den technischen Aufwand dieser Dinger.
dargo
2010-07-31, 08:47:06
Und eine Übertaktung per Multipilkator ist besser und sauberer als per FSB.
Vom FSB hat sich Intel schon länger verabschiedet.
Du hattest dich offenbar da mit dir selber geeinigt. "Konzeptionell ähnlich" ist bei mir etwas anderes.
Nö, mit BlackbirdSR:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8163069#post8163069
Nicht gesehen ?
Es ist nur ein Cache für die uOps der aktuellen Schleife.Ok, also eventuell 16kB exklusiv für die aktuelle Schleife ? Nicht ironisch gemeint, wenn Du ja sagst, ok. Dann haben wir das Thema durch. Mir kommt das nur etwas "viel" für eine einzelne Schleife vor.
Nein, aber wenn sie einen Trace-Cache einbauen würden, dann hätte man das schon irgendwo gelesen.
Spekulativ ...
Du unterschätzt offenbar immer noch den technischen Aufwand dieser Dinger.Wir reden von Intel .. wenn die das nicht schaffen würden, wer denn sonst ? :)
Falls der LSD wirklich so groß wird, dann würde ich auch ne größere Umbauaktion nicht ausschließen wollen, solange nichts gesichert ist.
Sandy is außerdem doch eh ein großer Tick/Tock Schritt, mit größeren Umbauaktion ist da zu rechnen.
ciao
Alex
Trace-Cache braucht sehr viel Platz und hat damit eine hohe Leakage. Es hatte schon seinen Grund, warum sie den nach dem P4-Desaster rausgeschmissen haben.
BlackBirdSR
2010-07-31, 16:24:42
Sag mal...
es hat schon einen Grund, warum ich nicht stundenlang Dokumentationen wälzen will, um das Thema zu erklären.
Du scheinst von deiner Meinung keinen Zentimeter abweichen zu wollen, da hat unser einer auch nahezu keine Lust das Thema ausführlich aufzuklären.
Reicht Dir nicht, dass ein Trace-Cache und ein LSD nach einem ganz anderen Prinzip arbeiten, ganz andere logische Abläufe tätigen und für die CPU selbst auch andere Auswirkungen haben?
Von der Ebene der Schaltungen gar nicht betrachtet.
Der Trace-Cache baut Traces von µOps auf, wobei hier ganz definiert zwischen der Art von µOps und der Laufzeit des Traces unterschieden wird. Ich bin mir nicht sicher, aber da kommen auch Performancecounter ins Spiel.
Der LSD registriert Schleifen und speichert einzelne µOps dieser Schleifen dann zwischen. Das ist auch eine Art Cache, und das ist ein "intelligenter" Cache als ein L1-Cache, aber es ist numal kein Trace-Cache, sondern ein µOps-Cache.
Ich bau dir wenn es sein muss auch einen Cache vor die FMul-Einheit und nenne es Trace-Cache, aber das ist genau so falsch. Ich sage auch zu den Reservation-Stations nicht Trace-Cache, die speichern auch µOps zwischen und geben sie weiter. Den Vector-Decoder mit seinem µOp-ROM nenne ich übriegens auch nicht Trace-Cache... obwohl vielleicht sollte ich das tun. Da sind genau abgestimmte Folgen an µOps gespeichert, die durch einen Trigger losgeschickt werden und verdammt groß ist der auch.... ;)
Trace-Cache braucht sehr viel Platz und hat damit eine hohe Leakage. Es hatte schon seinen Grund, warum sie den nach dem P4-Desaster rausgeschmissen haben.
Leakage is prozessabhängig und nicht ob die Transistoren nun für einen TraceCache oder einen L1I$ verbaut werden. Da verwechselst Du was ...
@BlackBirdSR:
Reicht Dir nicht, dass ein Trace-Cache und ein LSD nach einem ganz anderen Prinzip arbeiten, ganz andere logische Abläufe tätigen und für die CPU selbst auch andere Auswirkungen haben?
Von der Ebene der Schaltungen gar nicht betrachtet.Das hat mir bisher keiner gesagt ... im Gegenteil Du schriebst von "konzeptionell ählich" und jetzt beschwerst Du Dich ?
Schöner Witz.
Trotzdem Danke für die Erklärung.
Falls noch Zeit und Lust besteht:
Ein 16kB LSD wäre also durchaus denkbar ? Wie schon 20x geschrieben, kommt mir das für "Schleifen" etwas viel vor, aber wenn jemand sagt, dass das durchaus ok wäre, und nichts besonderes, dann nehm ich das gerne hin. Nur antwortet darauf ja niemand ...
BlackBirdSR
2010-07-31, 16:34:44
Leakage is prozessabhängig und nicht ob die Transistoren nun für einen TraceCache oder einen L1I$ verbaut werden. Da verwechselst Du was ...
Du machst es Dir viel zu einfach. Leckströme sind so ziemlich von 21 Dingen abhängig, die nicht nur auf den Prozess zurückzuführen sind.
@BlackBirdSR:
Das hat mir bisher keiner gesagt ... im Gegenteil Du schriebst von "konzeptionell ählich" und jetzt beschwerst Du Dich ?
Schöner Witz.
Trotzdem Danke für die Erklärung.
Hatte ich das nicht darauf eingegrenzt, dass ein L3-Cache auch konzeptionell ähnliich ist? ;) ich dachte der Sarkasmus fällt auf.
Ein Trace-Cache ist ein hartes Stück Logik, dass man nicht einfach so verbaut. Es beeinflusst die ganze CPU-Entwicklung. Einen LSD kann ich auch an einen K10 klatschen wenn ich will.
Hatte ich das nicht darauf eingegrenzt, dass ein L3-Cache auch konzeptionell ähnliich ist? ;) ich dachte der Sarkasmus fällt auf.Also ich fand dass ok, L1 cacht Daten, L3 cacht Daten .. konzeptionell ähnlich.
War das jetzt so gemeint, dass das nicht konzeptionell ähnlich ist :confused:
Dann versteh ichs wirklich nicht.
Ein Trace-Cache ist ein hartes Stück Logik, dass man nicht einfach so verbaut. Es beeinflusst die ganze CPU-Entwicklung. Einen LSD kann ich auch an einen K10 klatschen wenn ich will.Ok, also *falls* 16kB LSD im Sandy kämen, dann wirklich nur als LSD, interpretiere ich Deine Meinung damit richtig ?
Zusatzfrage dann: Wäre soviele kB für den LSD überhaupt sinnvoll, oder zweifelst Du somit die 16kB Größe ansich gleich mit an ? Kann ja gut falsch sein, hat zwar die c't in die Welt gesetzt, aber muss ja nichts heißen.
Danke
Alex
BlackBirdSR
2010-07-31, 16:59:31
Also wenn, dann sprechen wir hier nicht von Kilobyte. Das macht erstmal keinen Sinn. Nicht umsonst, wurde schon beim Trace-Cache von Einträgen gesprochen. Aus Gründen der x86-ISA, können µOps natürlich nicht direkt in kb umgerechnet werden.
Die 16kb kommen von Wikipedia, die CT schreibt von 1500 µOps.
Allerdings sage ich gleich: Es macht IMO keinen Sinn, 1500µOps Schleifenkommandos zu speichern.
Wenn Intel da mehr Logik drannhängt und wieder ganze Ausführungszüge speichert, dann ist es schon eher wie ein Trace-Cache, dann aber kein LSD mehr. Ist doch logisch oder?
Wenn Intel da mehr Logik drannhängt und wieder ganze Ausführungszüge speichert, dann ist es schon eher wie ein Trace-Cache, dann aber kein LSD mehr. Ist doch logisch oder?
Natürlich, darum gings mir ja die ganze Zeit, die Formulierung unterschreibe ich, ich hoffe es ist nicht wieder ironisch gemeint ;-).
Wenn man das so umbauen kann, nenn ich das deswegen "konzeptionell ähnlich", da beide Male µOps gespeichert werden.
Aber das hattest Du ja schon hier besprochen, dass das auch nicht passt:
Das Konzept ist nicht gleich. Es sei denn Du abstrahierst bis zum Umfallen. Etwas, das man lieber den Politikern überlassen sollte.
Nochmal:
Auch ein Hund ist konzeptionell ähnlich zu einem Menschen.
Ein Baum ist das auch.
Selbst ein Virus baut konzeptionell auf die gleichen Mechnismen.
Hier auf biegen und brechen "konzeptionell ähnlich" zu schreiben, halte ich persönlich für einen großen Fehler und würde ich für mich nie akzeptieren.
Wenn Intel Tausend und mehr µOps speichert, dafür noch Logik hinzugibt und ganze "Ausführungsschleifen" speichert, hast Du deinen Trace-Cache. Ansonsten ist es ein µOps-Cache. Konzeptionell ähnlich dahingehend, dass µOps gespeichert werden nach den Decodern. Konzeptionell nicht ähnlich, dahingehend, wie genau verfahren wird.
Also bitte schreib das nicht so, wenn das möglich ist. Hat für mich immer den bitten Beigeschmack, dass man unbedingt ein rotes Auto haben will, und wenn jeder sagt, es wäre weiß, dann hat man eben ein hellrotes.....
Deinem Vergleich zur überhöhten Abstraktion finde ich unpassend. Denn bei den CPUs gibts an Techniken, die µOps speichern nur Trace Cache und LSD, sonst nichts anderes. Deswegen sehe ich da eine Ähnlichkeit/Verwandschaft/"etwas andere Form" was weiss ich, wie ichs nennen soll.
Wenn Du jetzt mit der Ähnlichkeit von Bakterien und Viren zum Menschen kommst, dann hinkt der Vergleich um ca. ein paar Billonengrößenordnungen, was ich extrem übertrieben finde - das ist für mich Politikerrhetorik in Reinkultur, Übertreibung pur.
Nimm nen LSD, vergrößere den, papp noch Logik dazu und Du hast nen Trace Cache.
Nimm ne Bakterien DNA, vergrößer die, papp noch ein "bisschen was" dazu und Du hast ne menschliche DNA .. öhm ... nein :freak:.
Ich sehe LSD -> Trace Cache als einen Evolutionsschritt. Einen einzigen, nicht ein paar billionen Schritte auf einmal. Der Evolutionsvergleich hinkt insofern, als das es den Trace Cache schon mal früher im P4 gab, aber als Größenordnungsvergleich taugt es noch.
Wenn Du jetzt nen Baum anstatt Bakterium nimmst, passt das auch nicht, da der Stoffwechsel total anders ist (Sauerstofferzeugung (Photosynthese) dort, Sauerstoffverbrauch (Citratzyklus), hier), von der Fortpflanzung mal ganz zu schweigen.
Mit dem Hund wirds dann langsam interessant, da gibts in der Tat viele Gemeinsamkeiten, deswegen glaube ich auch kaum, dass ein Genetiker Probleme damit hätte die Genome als "ähnlich" einzustufen. Da gibts doch immer mal tolle Meldungen in der Presse, z.B. "Genom von Säugetier X sequenziert, sehr ähnlich zum Menschen". Das ist keine großes Ding, das ist normal, einfach weil es so ist.
Erbester Googletreffer, Pferd:
Mehr als die Hälfte der Pferdechromosomen zeigen menschenähnliche Anordnung
Die Ähnlichkeiten im Genom (http://www.biotechnologie.de/BIO/Navigation/DE/root,did=103960.html#) zwischen Mensch und Pferd sind frappierend. Das Erbgut des Pferdes ist nicht nur fast so groß wie das von Homo sapiens, sondern auch bemerkenswert ähnlich angeordnet. Mehr als die Hälfte der Pferdechromosomen haben eine mit dem menschlichen Genom (http://www.biotechnologie.de/BIO/Navigation/DE/root.html?did=67814&zknotenId=74462&zdid=103960) vergleichbare Reihenfolge der Gene, die Zahl der sogenannten Rearrangements, des Austauschs von Genen, sind gering. Damit ist das Pferd dem Menschen im Innersten ähnlicher als dessen bester Freund, der Hund. Immerhin rund 90 Erbkrankheiten, unter denen Pferde leiden können, sind mehr oder weniger mit menschlichen Erkrankungen vergleichbar.
http://www.biotechnologie.de/BIO/Navigation/DE/root,did=103960.html
Biologie ist im Vergleich zu E-Technik um einiges komplexer, von daher hätte ich absolut kein Problem im Trace$ / LSD Fall von "ähnlich" zu reden. Ist so .. genauso wie beim Pferd und Menschen :freak:
Aber um das Ganze nicht weiter auszutreten, werde ich in Zukunft die Formulierung von c't übernehmen ("der LSD wird zum Trace Cache aufgebohrt"), und verweise bei weiteren sprachlichen Empfindlichkeiten an A.Stiller ;-)
Der Vollständigkeit halber noch die Quellen:
In Sandy Bridge soll nach inoffiziellen Informationen auch ein Bestandteil des Pentium 4 wieder zu neuen Ehren kommen: der Execution Trace Cache – wenn auch in etwas anderer Form. Der bereits im Nehalem vorhandene kleine Loop-Cache für 28 Mikrooperationen wurde auf über 1500 µOps aufgebohrt, zusätzlich zum 32-KByte-L1-Instruktionscache für x86-Befehle. http://www.heise.de/ct/artikel/Prozessorgefluester-796627.html
...dass Sandy Brigde mit einer Art wiedergeborenem Trace-Cache aufwarten wird, in Form eines großen Loop-Buffers für bis zu 1500 Mikrooperationen.http://www.heise.de/ct/artikel/Prozessorgefluester-982836.html
ciao
Alex
AnarchX
2010-08-06, 10:54:25
http://img190.imageshack.us/img190/307/4863417081e137fc4m.png
http://citavia.blog.de/2010/08/05/more-sandy-bridge-performance-numbers-9128712/
Undertaker
2010-08-06, 10:59:35
Durch den Turbomodus hat der Vergleich bei 1,6GHz natürlich etwas von einer Farce... Dennoch aber scheint sich auch in non-AVX Software - diese wird wohl erst für die nächste oder übernächste Generation bedeutsam - einiges zu tun. Manche hatten ja schon gespöttelt, wir sähen hier eher einen "Tick" denn einen "Tock". ;)
AnarchX
2010-08-06, 11:04:14
Auch mit Multi-Threading, wo der Turbo wohl keine große Rolle spielt, ist SNB fast 60% schneller:
http://img29.imageshack.us/img29/2816/4863478a4aa2e84fem.png
Hier gibt es noch Infos zu eventuellen Preisen, die man aber mit Vorsicht genießen sollte:
http://www.news4it.it/cpu/299-prezzi-e-caratteristiche-delle-prime-cpu-intel-qsandy-bridgeq
3,4GHz Quad-Core für $280... :D
Ronny145
2010-08-06, 11:30:52
Wie hoch taktet der i7 720 mit Turbo? Beim Sandy Bridge weiß man das ja noch nicht. Das ist ein Stepping 2, Stepping 3 gibt es schon auf der BOINC Seite.
BlackBirdSR
2010-08-06, 13:13:34
Denn bei den CPUs gibts an Techniken, die µOps speichern nur Trace Cache und LSD, sonst nichts anderes. Deswegen sehe ich da eine Ähnlichkeit/Verwandschaft/"etwas andere Form" was weiss ich, wie ichs nennen soll.
Wenn Du jetzt mit der Ähnlichkeit von Bakterien und Viren zum Menschen kommst, dann hinkt der Vergleich um ca. ein paar Billonengrößenordnungen, was ich extrem übertrieben finde - das ist für mich Politikerrhetorik in Reinkultur, Übertreibung pur.
Wenn Du es so darstellst, erspare ich mir nach diesem Post jeder weitere Diksussion mit Dir. Du hast Dir deine Meinung offensichtlich schon gebildet und bist nicht offen für andere Darstellungen. Daher sehe ich auch keinen Lohn darin.
Jede Pipelinezwischenstufe speichert µOps. Jede InstructionQueue speichert µOps. Jedes MicrocodeRom speichert µOps. Die Reservation-Stations speichern µOps. Jede....
Da hast Dus.
Nimm nen LSD, vergrößere den, papp noch Logik dazu und Du hast nen Trace Cache.
Nimm ne Bakterien DNA, vergrößer die, papp noch ein "bisschen was" dazu und Du hast ne menschliche DNA .. öhm ... nein :freak:.
Lass es einfach sein ;)
Wenn Du das so sehen willst mit dem LSD-TraceCache werd ich es Dir natürlich nicht ausreden wollen.
Ich sehe LSD -> Trace Cache als einen Evolutionsschritt. Einen einzigen, nicht ein paar billionen Schritte auf einmal. Der Evolutionsvergleich hinkt insofern, als das es den Trace Cache schon mal früher im P4 gab, aber als Größenordnungsvergleich taugt es noch.
Wenn Du meinst.
Wenn Du jetzt nen Baum anstatt Bakterium nimmst, passt das auch nicht, da der Stoffwechsel total anders ist (Sauerstofferzeugung (Photosynthese) dort, Sauerstoffverbrauch (Citratzyklus), hier), von der Fortpflanzung mal ganz zu schweigen.
Genau das ist mein Argument bezüglich Trace-Cache und LSD.
Aber um das Ganze nicht weiter auszutreten, werde ich in Zukunft die Formulierung von c't übernehmen ("der LSD wird zum Trace Cache aufgebohrt"), und verweise bei weiteren sprachlichen Empfindlichkeiten an A.Stiller ;-)
Alex
Mach das! Ich sehe, Coda hat auch schon keine Lust mehr.
Er versteht ganz offensichtlich die Technik nicht und will sie sich auch nicht erklären lassen, was soll ich da viel diskutieren?
Tiamat
2010-08-06, 15:34:03
Wenn man die Anzahl der pufferbaren µops auf 1500 erhöht, müssten davon doch alle schleifenintensiven Anwendungen ( z.b Spiele) profitieren?
Gabs da eigentlich mal so ne Art Benchmark, was LSD momentan bringt?
Wenn Du es so darstellst, erspare ich mir nach diesem Post jeder weitere Diksussion mit Dir. Du hast Dir deine Meinung offensichtlich schon gebildet und bist nicht offen für andere Darstellungen. Daher sehe ich auch keinen Lohn darin.
Ich bin für Argumente nach wie vor offen, aber es kommen ja keine ...
Letztens hast Du den DNA Vergleich gebracht, da hab ich geantwortet, dass das mit dem Hund bzw. Pferd ok ist, die DNA ist "ähnlich". Für genauso ähnlich sehe ich LSD und Trace Cache.
Das läßt Du jetzt aber links liegen und antwortest stattdessen nur auf die Bakterien und Bäume:
Genau das ist mein Argument bezüglich Trace-Cache und LSD.Aber das Argument hab ich Dir oben schon zerlegt, das sind 2 total unterschiedliche Sachen (unten auch nochmal detaillierter). Wenn Du jetzt diskutieren willst, dann müßtest Du jetzt schreiben, was Dir an der Hund <> Mensch und LSD <> Trace Cache Analogie nicht paßt, und wieso Deiner Meinung nach das eher wie Mensch <> Baum wäre.
Tust Du aber nicht, lieber spielst Du beleidigte Leberwurst, "da hast Dus" :freak:.
Da kann ich nur sagen: Ja eine Diskussion ohne Argumente ist keine Diskussion, darauf kann ich ebenfalls gerne verzichten.
Jede Pipelinezwischenstufe speichert µOps. Jede InstructionQueue speichert µOps. Jedes MicrocodeRom speichert µOps. Die Reservation-Stations speichern µOps. Jede....Gute Güte, ja ich hab nen Fehler gemacht, das muss selbstverständlich ganz genau genommen "zusätzliches zwischenspeichern" im Sinne von cachen heißen. Die Pipelinepuffer sind natürlich uninteressant, da die jeweils nur für die eine Instruktion gelten, aber was erzähl ich Dir das, weisst Du eh. Sollte vom Kontext eigentlich klar gewesen sein, aber danke dass Du es erwähnst und es mir gibst. Ich rahme es ein und häng es an die Wand, merci ami :heart:
Lass es einfach sein ;)
Wenn Du das so sehen willst mit dem LSD-TraceCache werd ich es Dir natürlich nicht ausreden wollen.Du sollst nicht ausreden, sondern diskutieren ... fürs erste braucht man keine Argumente und muss nicht auf die Gegenseite eingehen ... fürs Zweite ...;)
Mach das! Ich sehe, Coda hat auch schon keine Lust mehr.Jo, der trägt leider auch nichts mehr Konstruktives mehr bei und spamt nur noch :freak:
(gezielte Provokation um Ihn zum reden zu brigen ;-))
Mal wieder ein neuer Diskussionversuch:
Der Trace-Cache baut Traces von µOps auf, wobei hier ganz definiert zwischen der Art von µOps und der Laufzeit des Traces unterschieden wird. Ich bin mir nicht sicher, aber da kommen auch Performancecounter ins Spiel.
Der LSD registriert Schleifen und speichert einzelne µOps dieser Schleifen dann zwischen. Das ist auch eine Art Cache, und das ist ein "intelligenter" Cache als ein L1-Cache, aber es ist numal kein Trace-Cache, sondern ein µOps-Cache.Passt, auch wenn ich das "einzelne µOps" bei den Schleifen nicht ganz koscher finde. Denn wenn, dann sind das alle µOps einer Schleife also mehrere, und die gehören dann zusammen. Das geht dann genau genommen schon wieder in die Richtung eines Traces, aber lassen wir das erstmal. Was ich aus den beiden Definitionen folgere:
Traces bestehen aus µOps + X.
Egal wie groß jetzt das X ist oder auch egal was es genau ist ... es bleibt für mich die Ähnlichkeit bestehen, da µOps im Spiel sind, die zum cachen (nein, keine Pipelinestufenpuffer und keine Decoderhilfe :)) benützt werden.
Was ist an der Sichtweise falsch ? Ein Trace Cache ist kein LSD, ja da gibts keine Diskussion, hab ich auch nie behauptet, ich finde es eben nur "ähnlich"... und Stiller redet von "aufgebohrt".
Der Vergleich mit Bäumen passt deshalb nicht, da wird kein Sauerstoff verbraucht, sondern erzeugt. Das genaue Gegenteil vom Menschen. Der Vergleich wäre passend, wenn beim Trace C. genau das Gegenteil als beim LSD passieren würde. Da müßten dann quasi µOps zerstört werden (oder was auch immer das passende Gegenteil zu cachen ist) ^^
Wieso soll also das eine jetzt ein Kreis und das andere ein Quadrat sein ? So stellt Ihr 2 das ja hin. Eigentlich dachte ich, man könnte sich jetzt auf den Mensch <> Hund Vergleich einigen .. ist auf den ersten Blick ja nicht wirklich "ähnlich", aber halt auf den zweiten aus Genetiksicht ... das böte Chancen für beide Sichtweisen .. aber nein .. paßt anscheinend ja auch wieder nicht :(
Wenn ihr weiter diskutieren wollt, dann haut mal in die Tasten und schreibt, bitte wieso.
Vielen Dank und schönes Wochenende
Alex
Undertaker
2010-08-06, 17:17:00
Wie hoch taktet der i7 720 mit Turbo? Beim Sandy Bridge weiß man das ja noch nicht. Das ist ein Stepping 2, Stepping 3 gibt es schon auf der BOINC Seite.
1,73GHz bei 3-4 Kernen, 2,4Ghz bei 2 Kernen und 2,8GHz bei einem Kern ist das theoretische Maximum. Bei Sandy ist ja die Frage, ob überhaupt schon ein Turbo bei dem Sample aktiv war.
|MatMan|
2010-08-06, 17:18:51
Würde es eigentlich Sinn machen mit dem vergrößerten LSD auch verschachtelte Schleifen zu cachen? Oder kann das der aktuelle LSD schon?
BlackBirdSR
2010-08-06, 18:18:26
Würde es eigentlich Sinn machen mit dem vergrößerten LSD auch verschachtelte Schleifen zu cachen? Oder kann das der aktuelle LSD schon?
Da wird es schon schwierig. Der Vorteil des LSD ist, dass er relativ simpel ist. Es wird kaum Logik benötigt, da die Voraussetzungen gut protokolliert werden können. Das sind z.B. Auflagen wie max 28µOps bei Nehalem.
Wenn jetzt eine verschachtelte Schleife dazukommt, wird es plötzlich ganz schnell viel komplizierter, zumal Logik nötig wird, dies auch zu erkennen.
Bisher wird ein Loop mit ca. mehr als 64 Iterationen und max. 4 Sprüngen erkannt und so oft ausgeführt, bis er abbricht. Das ist effizient und simpel zu gleich. Die Idee µOps ohne L1-Cache-Zugriff zu Streamen ist zwangsläufig ein Abfallprodukt der Forschungen um den TC damals.
Damit man nicht einfach blind µOps zwischenlagert, bedarf ein größerer µOps-Cache dann aber intensive Einbindung in die Branch-Prediction, den L1-Cache, das MicroCode-ROM und vor Allem Möglichkeiten einzelne Bereiche zu adressieren. Zum Vergleich: Aktuell speichert der LSD eine Schleife mit max. 28 µOps zwischen und schaufelt die durchweg zur Allocation/Rename-Stufe.
Der Trace-Cache beim P4 ist 8-fach Assoziativ und speichert 8x250 Trace-Lines mit jeweils 6µOps pro Line. (=12.000 µOps). Es wäre eine Katastrophe, diese 12.000 µOps hintereinander stur in die Pipeline zu füttern. Daher muss der Trace-Cache gezielt zwischen 2000 Traces auswählen können und diese dann weiterleiten. Nicht nur dass, diese 12.000 µOps und 2000 Traces wollen erstmal erzeugt werden. Dazu braucht man Logik zum erkennen, kategorisieren, übergehen (viele MicroCode-ROM µOps werden nicht im TC gelagert) und entfernen aus dem TC.
Diese ganze Logik erzeugt natürlich Wärme, verringert den möglichen Takt und reagiert ganz empfindlich auf Selbst-modifizierenden Code. Nicht umsonst laufen große Teile des Trace-Cache-Verbands im Pentium4 mit halbem Referenz-Takt, bzw. leiten 6µOps/2Takte weiter.
Wenn wir jetzt von 15.000-16.000 µOps reden, dann kannst Du dir vorstellen, was da alles passieren muss. Eine intensive Integration in die Pipeline wird nötig. Das entspricht dann weder dem Konzept eines LSDs, noch ist es ein LSD auf Steroiden, noch ist es ein aufgebohrter LSD. Es ist eine Trace-Engine mit µOps-Puffer, die gezielt Trace-Lines auswählen und an die Pipeline übergeben kann.
Twodee
2010-08-06, 20:38:49
Könnte einer der Mods den Teil mit dem LSD vs. TraceCache in einem extra Thread auslagern? Und anschließend weiter diskutiert werden. Finde das ziemlich interessant :)
BlackBirdSR
2010-08-06, 22:07:29
Könnte einer der Mods den Teil mit dem LSD vs. TraceCache in einem extra Thread auslagern? Und anschließend weiter diskutiert werden. Finde das ziemlich interessant :)
Glaub mir, dann liest und schreibt keiner mehr in dem Thread.
Hier hat das Thema noch am meisten Nährboden.
|MatMan|
2010-08-06, 22:28:55
@BlackBirdSR: vielen Dank für die Erläuterung! :)
Ich glaube ja kaum dass Intel den LSD nur für ein paar Spezialfälle so stark vergrößert hat (obwohl mir 28 µOps doch als etwas knapp erscheinen). Es ist also anzunehmen dass Intel diesen anscheinend relativ simplen Baustein eher in die Richtung weiterentwickelt, die du beschrieben hast.
Aber ob wir dieses komplexe Redesign der Pipeline wirklich schon mit Sandy Bridge sehen werden? Es bleibt echt spannend...
was hält ihr von einem Pentium 4 Refresh mit 100% mehr IPC, 6Ghz Taktraten, CMT statt SMT Cores und das alles in 22nm.
Das P4 Design könnte Intel bestimmt in 22nm shrinken, vielleicht wird die alte Schublade bald wieder geöffnet.
BlackBirdSR
2010-08-11, 12:36:18
was hält ihr von einem Pentium 4 Refresh mit 100% mehr IPC, 6Ghz Taktraten, CMT statt SMT Cores und das alles in 22nm.
Das P4 Design könnte Intel bestimmt in 22nm shrinken, vielleicht wird die alte Schublade bald wieder geöffnet.
Nix
Nix
AMD setzt 2011 auf einem hochtaktdesign.
Intel kann bei der Core Architektur nicht immer die IPC steigern, irgendwann kommt man an die grenzen, genau wie der K10.
Aber 100% IPC steigerungen sind bei dem P4 ohne harte eingriffe in der Architektur nicht möglich, dann ist es aber kein P4 mehr.
Undertaker
2010-08-11, 15:03:15
Computerbase hat viele neue Infos:
http://www.computerbase.de/news/hardware/prozessoren/intel/2010/august/komplettes_sandy_bridge-portfolio/
AffenJack
2010-08-11, 15:14:24
die namengebund geht ja ma gar nicht mehr, das "system" hat wohl nur den zweck Leute die sich nicht ewig damit beschäftigen wollen zu verwirren. Da hätte man eher das aktuelle etwas erweitert übernehmen sollen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.