Archiv verlassen und diese Seite im Standarddesign anzeigen : Die technologische Perspektive des AMD/ATI Zusammenschlusses
Kondensator
2006-07-24, 15:36:37
Durchaus interessant was da kommen könnte.
Es werden bereits erste strategische Entwicklungsrichtungen angekündigt:
http://img142.imageshack.us/img142/8618/techdj7.jpg (http://imageshack.us)
Wirklich interessant:
"AMD and ATI Promise Unified Development by 2008"
http://www.dailytech.com/article.aspx?newsid=3471
Furthermore, AMD President Dirk Meyer also confirmed that in addition to multi-processor platforms, that "as we look towards ever finer manufacturing geometries we see opportunity to integrate CPU and GPU onto the same [die]."
Monger
2006-07-24, 17:37:15
Gast[/POST]']Furthermore, AMD President Dirk Meyer also confirmed that in addition to multi-processor platforms, that "as we look towards ever finer manufacturing geometries we see opportunity to integrate CPU and GPU onto the same [die]."
Genau was ich mir gedacht habe. Integrierte Chipsätze für Handys, PDAs, Konsolen, Handhelds, vielleicht auch spezielle PCs wie Tablet PCs, Media Centers oder ähnliches...
ATI bringt ja mit der XBox360 schon etwas Erfahrung mit, wie so eine integrierte Lösung aussehen könnte.
Matrix316
2006-07-24, 17:39:06
Meine größte Befürchtung sind AMD Mainboards auf denen keine nvidia Karten mehr laufen....
StefanV
2006-07-24, 17:42:41
Matrix316[/POST]']Meine größte Befürchtung sind AMD Mainboards auf denen keine nvidia Karten mehr laufen....
So wie die nVidia Chipsätze, auf denen keine ATi Karte läuft? :|
Madkiller
2006-07-24, 17:55:48
Jap, damit würden denen ja sämtliche Kunden entgehen, die eine GraKa von nV nutzen wollten. Sehr unwahrscheinlich. :)
StefanV
2006-07-24, 18:08:20
Madkiller[/POST]']Jap, damit würden denen ja sämtliche Kunden entgehen, die eine GraKa von nV nutzen wollten. Sehr unwahrscheinlich. :)
Naja, das dürft auch übelste Haue von den Kartellbehörden geben, wenn die Hardware vom schärfsten Konkurenten nicht läuft ;)
Pusteblume
2006-07-24, 18:29:24
ATI GPUs werden auch in AMD-Fabs gefertigt werden: http://www.beyond3d.com/forum/showthread.php?t=32210
Naja DEN Vorteil werden sie sich auch kaum entgehen lassen ;)
SavageX
2006-07-24, 18:49:30
Hat jemand eine Ahnung, wieviel Silizium ATI so belichtet (im Vergleich zu AMD)?
Ist auf jeden Fall sowohl für AMD als auch für ATI von Vorteil, wenn ATI die AMD Fabs mitbenutzt:
- ATI bekommt leckere Prozesstechnologie zum guten Preis
- AMD kann sicherstellen, dass die eigenen Fabs ausgelastet bleiben. Wenns mal bei den CPUs klemmt, dann gehen halt weniger Fertigunsaufträge an Dritt-Fabs (die werden erstmal sicherlich mit von der Partie bleiben). Ältere Linien kann man auch super mit Chipsätzen auslasten, ohne gleich brutal umzurüsten oder das Licht auszuknipsen.
Matrix316
2006-07-24, 23:10:50
StefanV[/POST]']So wie die nVidia Chipsätze, auf denen keine ATi Karte läuft? :| Naja, was sich Monopolisten halt so ausdenken könnten im Eifer des Gefechts. Apple wollte sicher auch nicht, dass Windows auf ihren Intel Macs so einfach zu installieren geht...
Matrix316[/POST]']Apple wollte sicher auch nicht, dass Windows auf ihren Intel Macs so einfach zu installieren geht...Doch, sie haben es sogar aktiv gefördert.
BlackBirdSR
2006-07-24, 23:15:55
Etwas vermisse ich hier, und das habe ich auch kaum wo gelesen.
AMD nutzt ausschleißlich SOI Prozesse für ihre CPUs, während ATI nur bulk-CMOS gewohnt ist. Wie schon beim K8 würde es sehr lange dauern und sehr viel Kraft kosten, die Produkte auf SOI umzustellen. Und dann bleibt noch offen, wie eine solcher ASIC darauf reagiert.
Demirug
2006-07-24, 23:19:02
Die GPUs werden noch eine ganze Zeit lang nicht auf den AMDs Fab produziert. Die verfügbaren Kapazitäten sind schon völlig für die CPU produktion verplannt.
Ladyzhave
2006-07-24, 23:49:40
Habe ich das richtig verstanden, dass erste richtige Solutionen der Zusammenarbeit frühestens 2007(eher 2008) zu bewundern sind?
StefanV
2006-07-25, 00:08:08
Ladyzhave[/POST]']Habe ich das richtig verstanden, dass erste richtige Solutionen der Zusammenarbeit frühestens 2007(eher 2008) zu bewundern sind?
Jep...
Das ganze braucht (leider) etwas Zeit...
Bokill
2006-07-25, 00:48:33
Pusteblume[/POST]']ATI GPUs werden auch in AMD-Fabs gefertigt werden: http://www.beyond3d.com/forum/showthread.php?t=32210 Das ist von deiner Seite eine zu kurze und daher falsche Darstellung.
AMD selber rechnet nicht wirklich damit innerhalb der nächsten 2 Jahre Fabspace zur Verfügung zu stellen. Was nach 2 Jahren kommt, das ist schwer abzuschätzen.
Foundries
Tatsache ist, dass ATI gute Konatkte zu TSMC, UMC hat. AMD hat eine gute Verbindung zu Chartered.
Was schwer wiegt ist die bislang geringere Erfahrung von AMD als Foundry. TSMC, UMC, Chartered können sich traditionell viel schneller auf Fremddesigns einlassen.
SOI als Technologiegrenze schätze ich als nicht so kritisch ein. Immerhin können auch Fondries wie TSMC, UMC, Chartered das händeln. Mit dem SOI-Experten von AMD müsste es "fast" ein Klacks sein gegebenenfalls SOI für SOI GPU-Designs zu verwenden. SOI für ASICS wird seit ca. 1 Jahr als sinnvoll angesehen und auch gemacht. Ob aber ATI komplett auf SOI umsteigt wage ich aber auch zu bezweifeln, is ja auch eine Geld und Zeitfrage in der Fertigung.
MFG Bobo(2006)
Bokill[/POST]']Das ist von deiner Seite eine zu kurze und daher falsche Darstellung.
AMD selber rechnet nicht wirklich damit innerhalb der nächsten 2 Jahre Fabspace zur Verfügung zu stellen. Was nach 2 Jahren kommt, das ist schwer abzuschätzen.
Foundries
Tatsache ist, dass ATI gute Konatkte zu TSMC, UMC hat. AMD hat eine gute Verbindung zu Chartered.
Was schwer wiegt ist die bislang geringere Erfahrung von AMD als Foundry. TSMC, UMC, Chartered können sich traditionell viel schneller auf Fremddesigns einlassen.
SOI als Technologiegrenze schätze ich als nicht so kritisch ein. Immerhin können auch Fondries wie TSMC, UMC, Chartered das händeln. Mit dem SOI-Experten von AMD müsste es "fast" ein Klacks sein gegebenenfalls SOI für SOI GPU-Designs zu verwenden. SOI für ASICS wird seit ca. 1 Jahr als sinnvoll angesehen und auch gemacht. Ob aber ATI komplett auf SOI umsteigt wage ich aber auch zu bezweifeln, is ja auch eine Geld und Zeitrfrage in der Fertigung.
MFG Bobo(2006)
Was Blacky meinte ist aber eher, wie die ATI Designs darauf reagieren. Die neuen Radeons müssen alle auf SOI angepasst werden, alte GPUs (R580+) müssen jedoch noch traditionell be TSMC gebaut werden. Der R600 könnte sich aufgrund der SOI Entwicklung z.B. verzögern.
Bokill
2006-07-25, 11:29:30
TSMC beherrscht SOI (http://www.orthy.de/index.php?option=com_glossary&Itemid=55&func=view&id=58)* Technologie, da bedarf es keinen Partner AMD.
SOI ist keine Frage der Machbarkeit, sondern eine Frage der Ökonomie.
Sprich: Will ATI die (vermutlich) etwas teureren TSMC (http://www.orthy.de/index.php?option=com_glossary&Itemid=55&func=view&id=345)* SIO Chips haben, oder bleibt es bei klassischen SOI-freien Designs? Ein SOI-Redesign hat im schnelllebigen GPU-Markt zudem kaum ökonomischen Nutzen.
Eventuell könnte das AMD Management nun auch SOI als Basistechnologie bei ATI GPUs, Chipsätzen (Mainboards, Handys, PMPs ... ) forcieren, allerdings ist das auch immer eine Kosten-Nutzen Abwägung.
Die neuen Radeons müssen alle auf SOI angepasst werden, 1. Wer sagt das und 2. Warum?
Im Conference Call 2006 zur Vereinigung von AMD mit ATI wird davon gesprochen, dass die ATI Chips eben wie bisher auch, bei den klassischen Foundries (http://www.orthy.de/index.php?option=com_glossary&Itemid=55&func=view&id=149)* TSMC, UMC gefertigt werden. Da muss nichts angepasst werden, weil die Fabs identisch bleiben. Kurzfristig heisst dies bei ATI Chips bei Dresden: "NOPE, No Go".
alte GPUs (R580+) müssen jedoch noch traditionell be TSMC gebaut werden. Und werden weiterhin dort bei TSMC, UMC gebaut (höre Conference Call)..
Der R600 könnte sich aufgrund der SOI Entwicklung z.B. verzögern. Warum, wer sagt das (Quelle) ?
ATI bleibt die nächsten Jahre definitiv bei den bisherigen Foundries (siehe, höre Conference Call). Von daher kann es gar keine Verzögerung geben. Ich kenne auch keine Stimme/Behauptung aus dem ATI/AMD Umfeld, die besagen, dass der R600 nun auf SOI Fertigung umgestellt wird. Das ist mal wieder eine Annahme, welche von Internetforennutzern einfach so in den Raum gestellt wird.
MFG Bobo(2006)
* = Orthy.de
BlackBirdSR
2006-07-25, 12:07:04
Mal was Anderes:
Als Teil von AMD wird ATI vielleicht keine Prozessoren und Chipsätze von Intel vorab für Tests und Treiberentwicklung mehr bekommen.
Immerhin will man das Zeug ja nicht gerade AMD vor die Füße legen.
Der_Donnervogel
2006-07-25, 13:05:27
Matrix316[/POST]']Meine größte Befürchtung sind AMD Mainboards auf denen keine nvidia Karten mehr laufen....
Das nicht aber vermutlich werden die zukünftigen AMD/ATI-Chips besser aufeinander abgestimmt, sodaß dann vielleicht ein ATI Grafikchip auch wenn er an sich gleichwertig mit einem von nVidia wäre einfach wegen der besseren Integration ein paar Prozent zulegen kann.
Den Grafikchip statt über PCIe über Hypertransport direkt an die CPU koppeln, die Cachingstrategie der CPU mit der GPU abstimmen, der CPU ein paar Extrakommandos spendieren um den Datenaustauch mit der GPU zu beschleunigen, oder was auch immer, den Ingenieuren fällt sicher was ein.
Al-CAlifAX
2006-07-25, 13:08:17
Der_Donnervogel[/POST]']Das nicht aber vermutlich werden die zukünftigen AMD/ATI-Chips besser aufeinander abgestimmt, sodaß dann vielleicht ein ATI Grafikchip auch wenn er an sich gleichwertig mit einem von nVidia wäre einfach wegen der besseren Integration ein paar Prozent zulegen kann.
Den Grafikchip statt über PCIe über Hypertransport direkt an die CPU koppeln, die Cachingstrategie der CPU mit der GPU abstimmen, der CPU ein paar Extrakommandos spendieren um den Datenaustauch mit der GPU zu beschleunigen, oder was auch immer, den Ingenieuren fällt sicher was ein.
das wäre eher ein genickschuß. denn dann würde primär Ati nur im zusammenhang mit AMD sinn machen. und da viele aber vemehrt auf den conroe wechseln würde ATI damit unattraktiv werden. ergo des wird wohl eher net passieren. hier wirds mehr um komplettsysteme als um bastelsysteme gehen. und das in komplettsystemen optimiert wird ist nix neues und auch legitim.
BlackBirdSR
2006-07-25, 13:24:29
Nehmen wir mal an, Intel braut demnäscht höchst potente integrierte Grafiklösungen und integriert im Zuge von CSI auch Grafikchips in den Systemverbund. So könnte man auf einen Schlag einen großen Brocken der Kundschaft von ATI und Nvidia im low-end und unteren Mainstreamsegment gewinnen.
Warum eine X1600 oder ein vergleichbares Nvidia-Gegenstück kaufen, wenn der Inteleigene Chipsatz bereits die gleiche Leistung liefert (natürlich auf die Produkte in 3 Jahren hochskaliert.)
Nur vom High-End könnte ATI z.B nicht leben.
So hat man wenigstens noch die AMD Systeme. Aber das sind alles Spekulationen auf Jahre hin. Ich denke trotzdem nicht, dass die x86-Welt so starr bleibt wie die letzten Jahre.
Der_Donnervogel
2006-07-25, 13:31:18
Al-CAlifAX[/POST]']das wäre eher ein genickschuß. denn dann würde primär Ati nur im zusammenhang mit AMD sinn machen. und da viele aber vemehrt auf den conroe wechseln würde ATI damit unattraktiv werden. Ich hab damit nicht gemeint, daß die ATI Chips so optimiert werden sollen, daß sie nur auf AMD schnell laufen. Sondern, daß halt die Combo AMD/ATI das Maximale rausholen würde, da man da unter umständen sogar Sachen an offiziellen Standards vorbei machen könnte. Schließlich kommen ja CPU/Chipset/GPU aus einer Hand. Und wenn ich da an SLI/Crossfire denke, das auch kaum jemand verwendet, dann würde es sicher Leute geben, die auch etwas mehr Geld ausgeben um sich dann die neueste Combo zu kaufen, die dank "HyperFire" um xx% schneller läuft. Denn aufgrund der Vorlaufzeit für sowas wird Conroe bis dahin eh schon ein Auslaufmodell sein und AMD bereits eine neue CPU am Start haben und somit die Karten neu gemischt werden.
Al-CAlifAX[/POST]']ergo des wird wohl eher net passieren. hier wirds mehr um komplettsysteme als um bastelsysteme gehen. und das in komplettsystemen optimiert wird ist nix neues und auch legitim.
Vermute ich auch, daß Komplettsysteme/Plattformen der wichtigste Faktor sind.
RavenTS
2006-07-31, 19:37:46
Ich hab damit nicht gemeint, daß die ATI Chips so optimiert werden sollen, daß sie nur auf AMD schnell laufen. Sondern, daß halt die Combo AMD/ATI das Maximale rausholen würde, da man da unter umständen sogar Sachen an offiziellen Standards vorbei machen könnte. Schließlich kommen ja CPU/Chipset/GPU aus einer Hand. Und wenn ich da an SLI/Crossfire denke, das auch kaum jemand verwendet, dann würde es sicher Leute geben, die auch etwas mehr Geld ausgeben um sich dann die neueste Combo zu kaufen, die dank "HyperFire" um xx% schneller läuft. Denn aufgrund der Vorlaufzeit für sowas wird Conroe bis dahin eh schon ein Auslaufmodell sein und AMD bereits eine neue CPU am Start haben und somit die Karten neu gemischt werden.
Wäre für HighEnd sicherlich ne Idee (neben CF Und SLI als "Exklusives Performancewunder"), aber um diese Klientel zu locken muss dann auch AMD wieder die schnellste CPU anbieten und ob der K8L das wirklich wieder bewerkstelligen kann ist im Moment noch mehr als fraglich...
Bokill
2006-07-31, 22:05:00
... Ich denke trotzdem nicht, dass die x86-Welt so starr bleibt wie die letzten Jahre. Ja das denke ich auch ...
Eigentlich begann das Verhängnis mit ULi*, als sie auf Teufel kom raus wirklich für jeden Chipsatzinterconnect (PCI-Express passte prima zu Intel/ATI, HyperTransport zu AMD/NVIDIA) eigenständige Lösungen entwickelten ... und kulminierte vorläufig mit dem Aufkauf von ULi in die Hände von NVIDIA.
Spätestens seit diesem Moment ist manches mehr in Bewegung gekommen, wie man es als Endnutzer wirklich nur noch vermuten mag.
Der Aufkauf von ATI ist nun ein weiter Donnerschlag, der die Computerlandschaft für die nächsten Jahre einschneidend verändern wird.
ATI und NVDIA drängen auch in andere Märkte (Konsolen, Set-Top Boxes, Handys). Und damit müssen sich auch noch ganz andere Giganten wie z.B. Nokia, Texas Instruments, Infineon ... in der einen oder anderen Weise beschäftigen.
Man sollte bedenken, dass AMD seit der Mitbeteiligung an RMI** noch etwas mehr ist als eine x86 Klitsche. Nur eben deutlich anders struktriert.
Ob und wie die AMD Strategie gut und richtig war, das kann ich beim besten Willen nicht beurteilen. Tatsache ist, dass AMD teils sehr erfolgreich Fremddesigns in ihre Firma integrieren konnte (NextGen -> "K6").
Mit dem Alchemy mag ich das nicht so beurteilen, bei dem Geode war AMD für die Rechenpower (oder Schwäche) vergleichsweise erfolgreich. National hätte (meiner Meinung nach) mit einem PC im Stil des "PIC" keinen Erfolg gehabt. Aber war mit dem Geode auch genügend Dividende drin? Fragen, über Fragen ...
Microsoft scheint zum Label/Brand "AMD" recht hohes Vertrauen zu haben. Anders kann man den Transmetavertrieb von einem speziellen Low-End PC mit Microsoft Software für Dritte Weltländer durch die Vertriebshände von AMD kaum erklären.
MFG Bobo(2006)
* = Neuer (alter) Riese Uli? (Update) (http://www.orthy.de/index.php?option=com_content&task=view&id=938&Itemid=53) [orthy.de].
** = AMD verkauft die Alchemy-Prozessorsparte und wird Teilhaber an RMI (http://www.orthy.de/index.php?option=com_content&task=view&id=3805&Itemid=86).
Hakkerstiwwel
2006-08-01, 09:37:57
Ich hab damit nicht gemeint, daß die ATI Chips so optimiert werden sollen, daß sie nur auf AMD schnell laufen. Sondern, daß halt die Combo AMD/ATI das Maximale rausholen würde, da man da unter umständen sogar Sachen an offiziellen Standards vorbei machen könnte. Schließlich kommen ja CPU/Chipset/GPU aus einer Hand. Und wenn ich da an SLI/Crossfire denke, das auch kaum jemand verwendet, dann würde es sicher Leute geben, die auch etwas mehr Geld ausgeben um sich dann die neueste Combo zu kaufen, die dank "HyperFire" um xx% schneller läuft. Denn aufgrund der Vorlaufzeit für sowas wird Conroe bis dahin eh schon ein Auslaufmodell sein und AMD bereits eine neue CPU am Start haben und somit die Karten neu gemischt werden.
....
Mir spukt das Ganze so aehnlich auch im Kopf herum. Bedenkt man noch dass sich bei rechenintensiven Anwendungen oefter mal die GPU langweilt und dort massenhaft teurer und schneller Speicher so rumtroedelt, koennte man ueber HT eben diesen Speicher als riesigen L3 Cache nutzen, genauso wie die GPU die CPU in einigen Spezialbereichen unterstuetzen koennte. Durch QuadCore koennte das Ganze dann auch den andern Weg laufen.
Bokill
2006-08-01, 13:14:11
Mir spukt das Ganze so aehnlich auch im Kopf herum. Bedenkt man noch dass sich bei rechenintensiven Anwendungen oefter mal die GPU langweilt und dort massenhaft teurer und schneller Speicher so rumtroedelt, koennte man ueber HT eben diesen Speicher als riesigen L3 Cache nutzen, genauso wie die GPU die CPU in einigen Spezialbereichen unterstuetzen koennte. Durch QuadCore koennte das Ganze dann auch den andern Weg laufen. Speicher bleibt langsam, egal ob man nun Teile des Codes als Quasi L3 Cache in den Hauptspeicher auslagert.
L1 Cache hat eine Latenz von 2-4 Takten.
L2 Cache hat eine Latenz von 4-20 Takten.
L3 Cache ist etwas schlechter als L2 Cache.
Speicherzugriffe hingegen liegen immer noch im Bereich von 50-150 Takten, da nutzt der Umweg über den HyperTransport praktisch gar nichts.
Der Coroe (genauer der Core 2) zeigt ja, wie eine hochintelligente Hardware in der CPU selber richtige Speicherzugriffe errät und so letztenendlich Bandbreite schont.
MFG Bobo(2006)
Hakkerstiwwel
2006-08-01, 13:52:06
Speicher bleibt langsam, egal ob man nun Teile des Codes als Quasi L3 Cache in den Hauptspeicher auslagert.
L1 Cache hat eine Latenz von 2-4 Takten.
L2 Cache hat eine Latenz von 4-20 Takten.
L3 Cache ist etwas schlechter als L2 Cache.
Speicherzugriffe hingegen liegen immer noch im Bereich von 50-150 Takten, da nutzt der Umweg über den HyperTransport praktisch gar nichts.
Der Coroe (genauer der Core 2) zeigt ja, wie eine hochintelligente Hardware in der CPU selber richtige Speicherzugriffe errät und so letztenendlich Bandbreite schont.
MFG Bobo(2006)
Ich meinte damit den Grakaspeicher, welcher immerhin als kommender GDDR4 mit 1GHZ Realtakt eine fuer CPU Verhaeltnisse gigantische Bandbreite hat. Klar waeren die Latenzen hoeher als bei reinem Cache, gegenueber normalem DDR2 Hauptspeicher waere allerdings eine nicht zu vernachlaessigende Beschleunigung drin.
Ich meinte damit den Grakaspeicher, welcher immerhin als kommender GDDR4 mit 1GHZ Realtakt eine fuer CPU Verhaeltnisse gigantische Bandbreite hat. Klar waeren die Latenzen hoeher als bei reinem Cache, gegenueber normalem DDR2 Hauptspeicher waere allerdings eine nicht zu vernachlaessigende Beschleunigung drin.
Nur das bei GP CPUs die Bandbreite nicht so wichtig wie die Latenzen sind. Diese würden daurch eher Leistung verlieren da die Latenzen deutlich höher sind. Abesehen davon wäre GDDR4 in den benötigten Mengen zu teuer.
Hakkerstiwwel
2006-08-01, 15:11:12
Nur das bei GP CPUs die Bandbreite nicht so wichtig wie die Latenzen sind. Diese würden daurch eher Leistung verlieren da die Latenzen deutlich höher sind. Abesehen davon wäre GDDR4 in den benötigten Mengen zu teuer.
?Die Idee war folgende:
die Graka wird ueber HT statt PCI-E angebunden, wodurch die CPU direkt mit der Graka auf welcher sowieso GDDR4 vorhanden ist, kommunizieren kann. (die CPU waere halt ein zusaetlicher Client auf dem Ringbus). Der schnelle GDDR4 Speicher ersetzt weder L1 noch L2 Cache noch den DDR2 Hauptspeicher, sondern fungiert als schnelle Ergaenzung falls Bandbreite gebraucht wird. Warum dadurch die CPU langsamer werden sollte, oder weshalb das Ganze zu teuer waere erschließt sich mir nicht.
Bokill
2006-08-01, 15:53:31
Ich meinte damit den Grakaspeicher, welcher immerhin als kommender GDDR4 mit 1GHZ Realtakt eine fuer CPU Verhaeltnisse gigantische Bandbreite hat. Klar waeren die Latenzen hoeher als bei reinem Cache, gegenueber normalem DDR2 Hauptspeicher waere allerdings eine nicht zu vernachlaessigende Beschleunigung drin. Ich bezweifel, dass es um ECHTE 1 GHz handelt. Das sind die üblichen Spielechen mit dem Speicherratingsystem.
GDDR4 dürfte eine gewisse Ähnlichkeit zu DDR3 haben. 1 GHz für die Speicherzellen selbst sind Märchen und Fiktion. Es handelt sich bei derartigen Angaben wohl um den Speicherbustakt ... ;)
Womit wir dann auch wieder bei den Latenzen sind ... den miesen Latenzen von klassischen Hauptspeicher gegenüber echten Cachespeicher (oder embedded RAM).
Übrigens ist HyperTransport KEIN Ringbus, es ist im eigentlichen technischen Sinne nicht mal ein Bus, sondern ein Link (wie auch Rapid IO und PCI-Express Links sind, Rapid IO kann auch ein paralleler Bus sein).
MFG Bobo(2006)
hakkerstiwwel@home
2006-08-01, 16:42:39
.....
Übrigens ist HyperTransport KEIN Ringbus, es ist im eigentlichen technischen Sinne nicht mal ein Bus, sondern ein Link (wie auch Rapid IO und PCI-Express Links sind, Rapid IO kann auch ein paralleler Bus sein).
MFG Bobo(2006)
lies bitte ws ich geschrieben habe. Dass HT kein ringbus habe ich 1. nie gesagt, 2. bauche ich dich nicht um es zu wissen
Bokill
2006-08-01, 21:03:34
lies bitte ws ich geschrieben habe. Dass HT kein ringbus habe ich 1. nie gesagt, 2. bauche ich dich nicht um es zu wissen
Soo?
ldie Graka wird ueber HT statt PCI-E angebunden, wodurch die CPU direkt mit der Graka auf welcher sowieso GDDR4 vorhanden ist, kommunizieren kann. (die CPU waere halt ein zusaetzlicher Client auf dem Ringbus) ...
Um ausführlicher zu werden ...
Wir unterhalten uns ganz offensichtlich über die K8 Plattform. Sehe ich das richtig?
1. Darin ersetzt HyperTransport bisherige klasssiche Bussysteme und hat auch nichts mit einem Ringbus zu tun, wie es bei dem Cellprozessor drin ist um die dortige CPU mit Power PC-Kern dem PowerPC ProcessingElement und die neuartigen Synergistic Processing Elements (SPE) zu verbinden. Der moderne Ringbus im Cell nennt sich Internal Element Interconnect Bus (EIB), und zeigt, dass Bussysteme per se noch nicht veraltet sind.
2. Ja, richtig, die K8 AMD CPU ist dort der Host in einem K8 System.
3. Ja, auch das ist richtig, ein Coprozessor wäre so etwas wie ein Client. AMD verwendet aber die Begriffe a. Tunnel, b. Cave und noch weitere Begriffe.
4. In diesem Zusammenhang einen Satz zu schreiben: "die CPU waere halt ein zusaetzlicher Client auf dem Ringbus", passt einfach nicht.
MFG Bobo(2006)
haifisch1896
2006-08-01, 21:15:24
Ich bezweifel, dass es um ECHTE 1 GHz handelt. Das sind die üblichen Spielechen mit dem Speicherratingsystem.
GDDR4 dürfte eine gewisse Ähnlichkeit zu DDR3 haben. 1 GHz für die Speicherzellen selbst sind Märchen und Fiktion. Es handelt sich bei derartigen Angaben wohl um den Speicherbustakt ... ;)
Womit wir dann auch wieder bei den Latenzen sind ... den miesen Latenzen von klassischen Hauptspeicher gegenüber echten Cachespeicher (oder embedded RAM).
Übrigens ist HyperTransport KEIN Ringbus, es ist im eigentlichen technischen Sinne nicht mal ein Bus, sondern ein Link (wie auch Rapid IO und PCI-Express Links sind, Rapid IO kann auch ein paralleler Bus sein).
MFG Bobo(2006)
GDDR4 verhält sich zu GDDR3 wie GDDR3 zu GDDR2:
Technisch gesehen wie (Desktop-)DDR2, aber mit niedrigerem Stromhunger.
€: Zahlen getauscht
Bokill
2006-08-01, 21:18:57
GDDR4 verhält sich zu GDDR3 wie GDDR3 zu GDDR2:
Technisch gesehen wie (Desktop-)DDR2, aber mit niedrigerem Stromhunger.
€: Zahlen getauscht Und was bedeutet das für den Takt der Speicherzellen selber? ;)
Hakkerstiwwel
2006-08-02, 08:26:51
....4. In diesem Zusammenhang einen Satz zu schreiben: "die CPU waere halt ein zusaetzlicher Client auf dem Ringbus", passt einfach nicht.
MFG Bobo(2006)
Ich meinte dass die CPU als zusaetzlicher Client auf den Grakram ueber den Ringbus der X1x00 Grakas zurueckgreift, oder ist dir etwa das
http://www.beyond3d.com/reviews/ati/r520/index.php?p=05 kein Begriff?
//edit
ist es nicht so dass GDDR3(4) kuerzere Latenzen als DDR2 erlaubt?
Ich meinte dass die CPU als zusaetzlicher Client auf den Grakram ueber den Ringbus der X1x00 Grakas zurueckgreift, oder ist dir etwa das
http://www.beyond3d.com/reviews/ati/r520/index.php?p=05 kein Begriff?
//edit
ist es nicht so dass GDDR3(4) kuerzere Latenzen als DDR2 erlaubt?
Das wär zu aufwändig, da bräucht es einiges an Logik in der CPU um zu erkennen ob es sinnvoll ist den Grakaspeicher zu nutzen oder nicht,zudem gibt es nur wenige Spezialfälle wo eine GP-CPU mehr Bandbreite benötigt als sie derzeit mit DDR2 zur verfügung seht --->uninteressant (IMO)
Nein GDDR3/4 erlaubt AFAIR keine kürzeren Latenzzeiten als DDR1/2, dafür ist GDDR auch nicht entwickelt worden, GPUs sind die Latenzen relativ egal.
haifisch1896
2006-08-03, 00:28:25
Bokill[/POST]']Und was bedeutet das für den Takt der Speicherzellen selber? ;)
Hmm, erwartest Du jetzt eine ernste Antwort oder nicht?!
Schließlich weißt Du es ja selber.
Also, um auf die 1GHz zu gehen, die Hakkerstiwwel ins Spiel brachte, laufen die Zellen selber mit einer Frequenz von 250MHz, sind aber 4fach gepuffert.
www.wikipedia.org, vorletzte Woche erst drüber informiert:-)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.