PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum können Grafikchips nicht dieselben Mhz wie Prozzis ereichen?


egdusp
2003-04-09, 23:44:00
Warum können Grafikchips nicht dieselben Mhz wie Prozzis ereichen?

Mir ist klar, das ein Grafikchip ein massiv paralles Design ist, welches sehr viel mehr Hitze produziert und darauf abgestimmt ist, immer möglichst alle Funktionseinheiten auszulasten.

Ich wundere mich aber, wenn es Berichte gibt, das ein Chip trotz geringer Wärmeentwicklung (mit Spezialkühlung nur 30-40 Grad) sich nicht mehr weiter übertakten läßt.
Liegt das an der geringen Betriebsspannung = zu geringe Leistungsaufnahme?
Wäre eine Lösung möglich, mit der (unter Annahme der Beseitigung sämtlicher Hitzeprobleme) ein Grafikchip wie der R300 auf 800 Mhz zu bringen wäre, oder ist es nicht möglich soviel Power in den Chip zubringen, z.B. wegen zu wenig Pins?

mfg
egdusp

c.p.d.
2003-04-10, 00:22:14
Was nützt Dir eine super schnelle GPU (Füllrate), wenn die nötige Bandbreite fehlt.
Zudem sind heutige high-end GPU's deutlich komplexer (bis ~120 Mio Transitoren) als z.B. ein Pentium 4 (~60 Mio Transitoren).
Ein weiterer Grund dürfte die Kühlmöglichkeit sein.
Eine AGP(pro) konforme Kühlung dürfte nie und nimmer an die Kühlleistung eines fetten P4/athlon Kühlers herankommen.

GloomY
2003-04-10, 00:58:20
Letztendlich ist für den Takt entscheidend, wie schnell die elektrischen Schaltungen sind. Dabei ist die Komplexität einer Schaltung und die Signallaufzeit zwischen den einzelnen Gattern entscheidend.
Wenn ein Signal (übertrieben ausgedrückt) von der ganz linken Seite des Chips auf die rechte Seite muss, dann dauert es eben länger als wenn das Signal nur wenige µm weit wandern muss. Diese Verzögerung oder auch einfach die Zeit, die benötigt wird, bis ein Transisor schaltet (ist zwar im Pikosekunden-Bereich, bei mehreren tausend Transistoren in einem Gatter kann sich das aber auch schon mal zu einigen Nanosekunden addieren) sind die begrenzenden Faktoren.

Was jetzt bei Grafikkarten letztendlich anders ist im Gegensatz zu den CPUs ist mir auch nicht umbedingt klar. Ich vermute mal, dass man dort den räumlichen Aufbau des Chips auf Grund der unterschiedlichen Aufgabenerfüllung im Gegensatz zu einer CPU nicht so optimal gestalten kann. Vielleicht müssen dort öfters Signale über längere Strecken wandern, was die erreichbare Taktrate limitiert.

Endorphine
2003-04-10, 02:10:48
Es ist zwar schon sehr spät, aber aus meiner Sicht ist es auch ne Frage der Notwendigkeit. 3D-Beschleunigung lässt sich meines Wissens nach sehr gut parallelisieren, da kommt unter'm Strich mit einem hohen Grad an Parallelität mehr bei raus als eine GPU mit geringer interner Parallelität sehr hoch zu takten, so dass ein ähnlicher Durchsatz erreicht werden würde. Dann kommt noch dazu, dass ein hochkomplexer aber langsam getakteter Chip einfacher im Entwurf ist, dafür teurer in der Produktion (Chipfläche). Da die Entwicklung bei Grafikchips so extrem teuer ist wird da auch gern gespart?

Dann kommt noch die thermische Seite. 3D-Beschleuniger sind meines Wissens immer sehr gut Einheiten-ausgelastet wenn sie arbeiten. Ne 2 GHz GPU mit nur einer TMU und einem Vertexshader würde wohl deutlich mehr heizen als ne 500 MHz GPU mit 4 TMUs und 4 VS...

Bei ner herkömmlichen IA32 CPU ist die Verarbeitung sehr viel weniger einfach parallelisierbar, so dass sich mehr Takt deutlicher in mehr Durchsatz auszahlt als ne hohe interne Parallelisierung (nach der Umwandlung Makro- in µ-Ops).

Nur so ein paar Gedanken. Wenn ich wieder wach bin fallen mir bestimmt noch tausend andere Dinge ein und ich muss dieses Posting hier für Schwachsinn erklären (oder ihr übernehmt das zwischenzeitlich) ;)

egdusp
2003-04-10, 16:31:22
Das ist zwar alles richtig, löst aber nicht mein Problem.

Wodruch wird die Taktrate bestimmt?
AFAIK: Fertigungsprozess, Kühlung, Spannung (=Energiezufuhr)
Wenn man den gleichen Fertigungsprozess wie bei nem 2 Ghz Prozzi hat, genug Power in das Teil reinpumt und auch ne Stickstoffkühlung hat, wie hoch ließe sich dann ein grafikchip takten?
Genauso hoch wie ein Prozzi?

mfg
egdusp

zeckensack
2003-04-10, 16:53:16
egdusp,

Es hängt von der Komplexität der Ausführungseinheiten ab.
Eine CPU wird in der Regel so designt, daß sich die Taktrate nach der einfachsten Ausführungseinheit richtet.

Man nimmt also den ALU-Pfad für's Addieren (oder wahlweise gleich Logik-Ops wie XOR, OR, AND, etc), und schaut wie lange die Signallaufzeit ist. Das vergleicht man dann mit den Laufzeiten für die komplexeren Ops (MUL, DIV, etc).
Alles was länger dauert, wird dann auf mehrere Pipelinestufen aufgesplittet. Das ist deswegen sinnvoll, weil die 'einfachen' Operationen einen Großteil der Performance ausmachen.

Bei 'klassischen' Grafikchips sind die 'einfachsten zu erwartenden Operationen' gleich um einiges komplexer. Es macht keinen großen Sinn, den Schwerkpunkt auf Luschi-Ops wie bitweises OR zu legen.
Bsp NV25, die 'ALU' dieses Geräts ist der Register-Combiner. Dieser kann in einem Takt ein dot product, zwei Multiplikationen und ein paar Additionen/Subtraktionen gleichzeitig ausführen. Die Laufzeit dieses Aufbaus bestimmt sich durch seine komplexeste Operation, ich würde mal auf DOT3 tippen.

DOT3 besteht aus drei Multiplikatoren und zwei Addierern. Sowas ist einfach nicht genauso schnell zu machen wie eine einfache Addition. Ergo muß der Takt runter.

Im Ergebnis ist der Durchsatz einer solchen 'fetten' Pipeline immer gleich, egal welche Ops ausgeführt werden. Das ist für die konstante Auslastung aller Pipeline-Stufen sogar vorteilhaft.

Du mußt auch berücksichtigen, daß man sowieso von konstantem Durchsatz ausgehen will. Klassische Chips beherrschen keine conditional branches und dergleichen, der Fluß der vertices und infolgedessen Fragmente ist also mehr oder weniger vorhersehbar.

Ich erwarte eigentlich auch, daß in absehbarer Zukunft dieses Paradigma fallen wird. Bei PS2.0 zB macht es IMO wenig Sinn, eine Float-Addition mit der gleichen (extrem langen) Ausführungslatenz abzustrafen wie eine Division. Da kann man die Pipeline dann doch wieder sinnvoll strecken. Das geht dann auf Kosten von Verwaltungsoverhead, sollte sich aber irgendwann unterm Strich lohnen.

Demirug
2003-04-10, 17:07:58
Originally posted by egdusp
Das ist zwar alles richtig, löst aber nicht mein Problem.

Wodruch wird die Taktrate bestimmt?
AFAIK: Fertigungsprozess, Kühlung, Spannung (=Energiezufuhr)
Wenn man den gleichen Fertigungsprozess wie bei nem 2 Ghz Prozzi hat, genug Power in das Teil reinpumt und auch ne Stickstoffkühlung hat, wie hoch ließe sich dann ein grafikchip takten?
Genauso hoch wie ein Prozzi?

mfg
egdusp

Du hast etwas ganz wichtiges vergessen. Die Anzahl der in einer Stufe maximal zu durchlaufenden Transitoren.

Im Prinzip ist die maximale Taktrate ganz einfach zu berechnen. Man sucht den aufwendigsten Signalweg welcher innerhalb eines Taktes durchlaufen werden muss. Zum grössten Teil wird dieser Aufwand durch die Anzahl der Transitoren bestimmt. Mit zunehmender grösse des DIE werden aber auch die Länge der Signalbannen zwischen den Transitoren relevant.

Diese Stelle zu finden ist eine schöne aufwendige Arbeit weil sehr viele Signalvarianten durchgeprüft werden müssen und deshalb benutzt man dafür auch Computer. Aufgrund der Kenngrössen (z.b Schaltzeiten in abhängikeit der Corespannung) die man von der FAB bekommt kann man nun berechnen wie lange ein Schaltkreis braucht damit aus den am Anfang eines Taktes anliegenden Eingangssignalen stabile Ausgangssignale werden. Der Schaltkreis der nun dabei den grösste Zeitbedarf hat bestimmt die maximale Taktrate.

Will man höher Takten muss man die Signallaufzeit reduzieren. Das geht nur durch ein erhöhen der Corespannung oder durch ein Redesign des Schaltkreises welches einen kürzeren Signalweg benötigt.

Taktet man einen Chip nun zu hoch reicht die Zeit eines Taktes nicht mehr aus um den Signalweg komplett zu durchlaufen -> Fehler.

Es kann aber auch sein das es sehr lange mit der erhöten Taktung gut geht bis dann plötzlich ein Programm einen anderen Signalweg braucht. Wenn dieser länger als die bisher benutzten ist -> Fehler. Darum hängt die maximale Taktrate in gewisser Weisse auch von der Anwendung ab.

Der_Donnervogel
2003-04-12, 23:40:58
Ich würde sagen, es ist ganz einfach eine Designentscheidung, daß GPUs nicht so schnell takten, wie CPUs. Ich denke mal es ist in etwa das gleiche Problem wie seinerzeit bei der Diskussion CISC vs. RISC CPUs. Was ist schneller, ein Design, das komplexe Operationen in wenigen Takten erledigen kann, dafür aber nur niedrige Takte erreicht, oder ein Design, das zwar nur elementare Operationen beherrscht, das aber mit sehr hohen Takten ausgleicht.

Auch hier wurde erst auf CISC gesetzt und dann auf RISC gewechselt. Ich denke, daß auch die GPU-Hersteller diesen Weg (früher oder später) gehen werden. Der P9/P10 von 3D-Labs ist vielleicht schon der erste Schritt in diese Richtung. Weg vom "komplexen" Design hin zu einem "einfacher" strukturierten mit einfach einer Menge gleichartiger SIMD Einheiten. Man sieht ja bei den CPUs, daß SIMD Einheiten mit hohen Taktraten betrieben werden können. Es stellt sich bloß die Frage, wie viele solcher Einheiten bei welchem Takt benötigt würden um eine aktuelle Grafikkarte zu überbieten.

Im Grunde hat ja Intel beim Pentium 4 vorgezeigt, wie stark man mit Designänderungen an der Taktschraube drehen kann, wenn es denn gewollt ist.

Ikon
2003-04-13, 19:54:36
Originally posted by Der_Donnervogel
Im Grunde hat ja Intel beim Pentium 4 vorgezeigt, wie stark man mit Designänderungen an der Taktschraube drehen kann, wenn es denn gewollt ist.

:nono: man bedenke: CPU ungleich GPU

StefanV
2003-04-13, 22:21:05
Originally posted by Ikon
:nono: man bedenke: CPU ungleich GPU

...insbesondere da eine GPU meist recht stark ausgelastet ist -> drückt den Takt und erhöht die WÄrmeabgabe.

egdusp
2003-04-13, 22:41:04
Ich bin mittlerweile der Meinung nicht genug Grundverständniss von Chiparchitektur und solchen Sachen wie Signallkaufzeit etc. zu haben um zu verstehen was Demi, Zeckensack & Co. sagen.

Aber das was andere hier mit ihren naiven Kommentaren zu Hitzeentwicklung und CPU - GPU Verhältniss abgeben, das ist einfach nur peinlich. Es ist OK keine Ahnung über so ein spezielles Thema zu haben, aber warum dann trotzdem noch seinen Senf dazugeben.

Ich kann höchstens davon ausgehen, dass diese Leute mein Probelm:
a.) nicht verstanden haben
b.) nicht verstehen wollen
c.) es überhaupt nicht gelesen haben
:-(

mfg
egdusp

x-dragon
2003-04-13, 23:19:56
Originally posted by egdusp
... Ich wundere mich aber, wenn es Berichte gibt, das ein Chip trotz geringer Wärmeentwicklung (mit Spezialkühlung nur 30-40 Grad) sich nicht mehr weiter übertakten läßt.
... Ich kenne mich auf dem Gebiet bisher auch noch nicht so gut aus, aber ich denke mal das ein grundsätzlicher Unterschied zwischen CPU und GPU daraus besteht, in welcher Bandbreite sie genutzt werden. Ein normaler Prozessor ist z.B. für eine wesentlich größere Taktfrequenz-Bandbreite ausgelegt als eine GPU. Deshalb ist es auch möglich Grafikkarten viel gezielter mit Bauelementen ausstatten, die mit einer einer bestimmte Taktfrequenz und mit einer bestimmten Spannung arbeiten, und so möglichst günstig herzustellen sind. Also ich vermute mal das die Bauteile einfach nicht entsprechend ausgelegt sind über eine bestimmte Taktfrequenz/Spannung hinaus zu arbeiten und da spielt dann die Temperatur eigentlich keine große Rolle mehr.

micki
2003-04-14, 13:02:33
eigentlich ist das ein kampf zwischen marketing und den chip-entwickler!


als bestes beispiel kann man den vergleich zwischen AthlonXP und P4 oder dem R300 und NV30 sehen.
man mußte mit dem NV30 irgendwie prozen, konnte aber die leistung eines R300 nicht erreichen, also taktet man das ding auf 500MHz und lässt in dem chip den takt halbieren. So hat man wat tolles zu zeigen und trotzdem die kleine Leistung die die chip-entwickler geplannt haben.
beweisbar ist das daran, dass der NV30 mit einem vertexshader ziemlich die leistung des R300 hat, der mit 4 arbeitet. und die Pixelshader schaffen nur die hälfte der leistung (weil die hälfte der Pipes mit 250MHZ im vergleich zum R300 mit 300MHz)


soweit ich weiß haben neue GPUs/CPUs intern einige anders getaktete elemente, so soll der P4 module haben die mit dem dreifachem takt laufen, damit diese Elemente dann aber nicht überhitzen gibt es wiederum so wenig dekodiereinheiten, dass die "übertakteten" elemente nicht überhitzen, weil sie garnicht voll ausgelastet werden.


die cpus wie zeckensack schon sagte, taktet man deswegen gerne hoch weil die billigen operationen am häufigsten genutzt werden, und sie werden deswegen am häufigsten genutzt, weil sie die billigsten sind (billig im sinne von zeitaufwand im chip)


wenn man andere prozessoren codet, die das verhalten haben jede operation mit 1 oder 2takten zu durchlaufen, dann macht man keine billigen operationen mehr sondern die, die das meißte pro takt bewirken z.B. multiplikation und addition .

und manche chip-entwickler sparren sich auch einfach alle aufwendigen sachen, die muss man dann selber coden, z.B. die division beim gameboy advance.
die teile werden dann trotzdem niedrig getaktet weil sie dann sogut wie keinen ausschuss haben (vergleich: NV30 soll 70% ausschuss haben und P4 7%), was die kosten extrem senkt.


um wirklich zu wissen welche cpu technologisch besser ist, müßte man die schaltzeiten je eines gatters jeder cpu vergleichen, manchmal bringen die chipschmieden dafür paper raus. dann bekommt man auch den maximal takt raus.

MfG
micki


ps. bitte korrigiert meinen mißt ;)

StefanV
2003-04-14, 13:39:29
Originally posted by micki
eigentlich ist das ein kampf zwischen marketing und den chip-entwickler!


als bestes beispiel kann man den vergleich zwischen AthlonXP und P4 oder dem R300 und NV30 sehen.
man mußte mit dem NV30 irgendwie prozen, konnte aber die leistung eines R300 nicht erreichen, also taktet man das ding auf 500MHz und lässt in dem chip den takt halbieren. So hat man wat tolles zu zeigen und trotzdem die kleine Leistung die die chip-entwickler geplannt haben.

beweisbar ist das daran, dass der NV30 mit einem vertexshader ziemlich die leistung des R300 hat, der mit 4 arbeitet. und die Pixelshader schaffen nur die hälfte der leistung (weil die hälfte der Pipes mit 250MHZ im vergleich zum R300 mit 300MHz)

ps. bitte korrigiert meinen mißt ;)

1. Quatsch, der NV30 läuft wirklich mit den 500MHz, das einzige, was 'gelogen' ist ist, daß die NV30 keine 8 Pipes hat sondern nur 4.

2. siehe oben...
Daß die NV30 (bei gleichem Takt) genauso 'schnell' wie eine R300 mit 4 Pipes ist liegt daran, daß die NV30 nur 4 Pipes hat, ist ein 'klassisches' 4x2 Design, wie es NV bei den Topmodellen seit der GF2 verwendet.

3. hab ich gerade versucht :>

Demirug
2003-04-14, 14:22:41
Die Sache ist doch ganz einfach.

Bei Grafikchips lohnen sich höhere Taktraten im Moment einfach nicht.

Was ist die primären Operationen die eine Grafikchip heute ausführen muss? Texturesamples erzeugen.

Nun haben ein paar Jungs bei den Chiphersteller ausgerechnet das die Ausführungsgeschwindigkeit dieses Jobs wesentlich vom Memoryinterface bestimmt wird. Wenn man aus dem Speicher also nicht schnell genug Daten ranholen kann bringt es gar nichts die TMUs und damit den Chip schneller zu takten.

GloomY
2003-04-14, 18:43:38
Die Frage ist doch nicht, ob es sich lohnt, sondern ob es technisch möglich ist, einen Grafikchip so hoch zu takten wie eine CPU.

Und hier kommt einfach die unterschiedliche Aufgabenstellung ins Spiel. Man gucke sich nur mal den Aufwand an, den es benötigt, ein trilineares Texturesample zu erzeugen. Da müssen zwei Mal je vier Texelwerte linear interpoliert und das Ergebnis danach noch einmal linear interpoliert werden. Dies muss für alle drei Farbkanäle plus den Alphakanal gemacht werden, wobei eine lineare Interpolation mehrere Additionen und Multiplikationen bedeutet.
Das ist nunmal deutlich aufwändiger als ein paar Bit-Schiebe-Operationen oder eine einzelne Additionen bei einer ALU eines Prozessors.

Daraus resultiert dann eine unterschiedliche Komplexität der Schaltungen, die eine unterschiedliche Laufzeit mit sich bringen. Daher kommt dann auch der unterscheidliche Takt zu stande.

Ein Prozessor bräuchte (beim Softwarerendering) für obige Operation mehrere Takte, ein Grafikchip macht dies in ein oder maximal zwei Takten (bilinear heutzutage aber immer in einem).
Wie Donnervogel schon richtig sagte, ist das hier im Prinzip nichts anderes wie CISC vs. RISC. Der Prozessor zerlegt "die Operation" in viele kleine Grundberechnungen, braucht dafür aber mehrere Takte bis das Ergebnis fertig ist. Da die Schaltungszeit für jede (kleine) Operation deutlich kürzer als die der kompletten Operation (Trilinear) beim Grafikchip ist, kann man viel höhere Taktfrequenzen erreichen.
Der Grafikchip macht alles in einem Takt. Die Schaltzeit ist dementsprechend dann aber auch deutlich länger.

egdusp
2003-04-14, 18:54:04
@ Gloomy

Heißt das, dass der einzelne Transistor immer gleich schnell ist bei GPU und CPU?

Je mehr ich daüber nachdenke, desto seltsamer kommt es mir vor. Ich kann mir ja noch vorstellen, wie pro Takt ein Transisor angesprochen werden kann, aber wie soll eine bilineare Texeloperation in einem Takt funktionieren, sofern tausende (oder wieviele es auch sein mögen) Transistoren in einem Takt dies bewältigen können.

Stimmt meine Annahme von 1 Transistor (in einer Reihenschaltung) pro Takt, oder kann man durchaus mehrere pro Takt hintereinander ansprechen?

Beim Speicher ist es 1 Bit (DDR: 2) pro Takt und Leitung.

mfg und ziemlich verwirrt
egdusp

Demirug
2003-04-14, 18:58:48
GloomY, im Prinzip gebe ich dir recht nur deine Taktrechnung ist zu optimistisch.

Ein Takt reicht wahrscheinlich nicht für ein bilineares Sample. Die Vertexshader des NV25 brauchen zum Beispiel 3 Takte für jeden Befehl. Da die 2 Vertexshader aber an 6 Verticen gleichzeitig arbeiten können kommt man im Endeffekt auf 2 Vertexoperationen pro Takt (eine pro VS).

Bei den TMUs ist das ähnlich. Pro TMU kommt pro Takt ein Sample raus aber vom anfang der TMU bis zum Ende werden mehrer Takte gebraucht.

Demirug
2003-04-14, 19:06:51
Originally posted by egdusp
@ Gloomy

Heißt das, dass der einzelne Transistor immer gleich schnell ist bei GPU und CPU?

Je mehr ich daüber nachdenke, desto seltsamer kommt es mir vor. Ich kann mir ja noch vorstellen, wie pro Takt ein Transisor angesprochen werden kann, aber wie soll eine bilineare Texeloperation in einem Takt funktionieren, sofern tausende (oder wieviele es auch sein mögen) Transistoren in einem Takt dies bewältigen können.

Stimmt meine Annahme von 1 Transistor (in einer Reihenschaltung) pro Takt, oder kann man durchaus mehrere pro Takt hintereinander ansprechen?

Beim Speicher ist es 1 Bit (DDR: 2) pro Takt und Leitung.

mfg und ziemlich verwirrt
egdusp

Ja die Transitoren sind gleich schnell (gleicher Process und gleiche Spannung).

Pro Takt wird nicht ein Transitore angesprochen sondern eine Logikschaltung. Eine solche Schaltung besteht aus aus vielen Transistoren. Wobei dann auch der Ausgang eines Transitors den Eingang eines anderen Ansteuert.

Bei einer GPU sind diese Schaltungen grösser als bei CPUs. Aus diesem Grund dauert es auch länger bis aus den Eingangzustand der Ausgangszustand geworden ist. Und diese Zeit bestimmt den maximalen Takt.

GloomY
2003-04-14, 19:56:07
Originally posted by Demirug
GloomY, im Prinzip gebe ich dir recht nur deine Taktrechnung ist zu optimistisch.

Ein Takt reicht wahrscheinlich nicht für ein bilineares Sample. Die Vertexshader des NV25 brauchen zum Beispiel 3 Takte für jeden Befehl. Da die 2 Vertexshader aber an 6 Verticen gleichzeitig arbeiten können kommt man im Endeffekt auf 2 Vertexoperationen pro Takt (eine pro VS).

Bei den TMUs ist das ähnlich. Pro TMU kommt pro Takt ein Sample raus aber vom anfang der TMU bis zum Ende werden mehrer Takte gebraucht. Ok, bei Grafikchips fehlt mir dann doch ab und zu das Know-How ;)

Aber auch wenn die Grafikchips mehrere Takte für ein Sample benötigen, ist die absolute Schaltzeit pro Takt immer noch länger als bei einer CPU.

@egdusp: Demirug hat's ja schon erklärt. Die Anzahl der Transistoren, die ein Signal in einem Takt durchlaufen muss, ist einfach bei CPUs wesentlich kleiner und damit dann auch die Schaltzeit.

Demirug
2003-04-14, 20:07:00
Originally posted by GloomY
Ok, bei Grafikchips fehlt mir dann doch ab und zu das Know-How ;)

Aber auch wenn die Grafikchips mehrere Takte für ein Sample benötigen, ist die absolute Schaltzeit pro Takt immer noch länger als bei einer CPU.

@egdusp: Demirug hat's ja schon erklärt. Die Anzahl der Transistoren, die ein Signal in einem Takt durchlaufen muss, ist einfach bei CPUs wesentlich kleiner und damit dann auch die Schaltzeit.

Ich habe solche Zahlen zum Teil auch nur von Devsupport. Bei Grafikchip gehen die Hersteller nicht so sehr damit hausieren wie bei CPUs.

Schaltzeit pro Takt ist vielleicht etwass unglücklich fromuliert weil sich die Taktzeit ja direkt aus der Taktrate ergibt. Ich bvorzuge den Begriff Signallaufzeit pro Pipelinestuffe. Und da hat ein Grafikchip wie du schon sagst eine viel grössere als eine CPU.

Und weil jetzt sicher bald die Frage kommt warum man bei einer GPU nicht einfach auch die Signallaufzeit verkürzt in dem man mehr Pipelinestufe einbaut. Jede zusätzliche Stufe muss entkoppelt werden. Dazu ist pro Signal das von einer Stufe in die nächste übergehen soll ein Speicherregister notwendig und dafür braucht man Transitoren von denen man ja sowieso nie genügend hat..

Der_Donnervogel
2003-04-14, 22:13:28
Originally posted by Ikon


:nono: man bedenke: CPU ungleich GPU

Das ist vollkommen klar. Allerdings ist das bezogen auf meinen Vergleich vom P4 vollkommen irrelevant. Ich hätte meinen Gedankengang vielleicht noch um ein paar Zeilen ausführlicher gestalten sollen...

Ich wollte damit sagen, daß man durch (manchmal radikale) Änderungen im Design den Takt in sehr großem Maße bestimmen kann. Ein P4 schafft einen um ca. 40% bis 50% höheren Takt als ein Athlon XP (~3 GHZ gegen ~2 GHZ), einzig aufgrund eines anderen Designansatzes. Dabei ist es vollkommen unerheblich ob CPUs und GPUs miteinander vergleichbar sind, vielmehr soll es nur zeigen, daß durch gezielte Architekturveränderungen große Sprünge in der Taktrate erreichbar sind.

Allerdings ist es immer noch ein großer Unterschied zwischen dem was machbar und dem was sinnvoll ist! Scheinbar ist es bis jetzt ganz einfach noch nicht sinnvoll gewesen massiv an der Taktschraube zu drehen.

Demirug
2003-04-14, 22:21:37
Donnervogel, genau das ist der Punkt es ist derzeit einfach nicht sinnvoll. Mnn würde ständig nur auf den Speicher warten.

Und was man natürlich auch nicht vergessen darf ist die Hitzeentwicklung. Ein 2 GHz Grafikchip währe einfach nicht mehr kühlbar.

Der_Donnervogel
2003-04-14, 22:51:04
Originally posted by Demirug
Und weil jetzt sicher bald die Frage kommt warum man bei einer GPU nicht einfach auch die Signallaufzeit verkürzt in dem man mehr Pipelinestufe einbaut. Jede zusätzliche Stufe muss entkoppelt werden. Dazu ist pro Signal das von einer Stufe in die nächste übergehen soll ein Speicherregister notwendig und dafür braucht man Transitoren von denen man ja sowieso nie genügend hat..
Eigentlich gibt es ja schon Ideen von verschiedenen Firmen wie man dem begegnen kann ...

Man könnte zB die Anzahl der Pipelines reduzieren und nur die verbliebenen mit einem höheren Takt betreibt (so was in die Richtung hat doch Intel bei der P4-FPU gemacht wenn ich nicht irre). Außerdem könnte man versuchen Teile der Pipelines zu "sharen" um Transistoren zu sparen (von so was gibts doch bei S3). Das hätte zusätzlich den "positiven" Effekt, daß Teile der Pipeline regelmäßig blockiert werden und so kühler bleiben was wiederum höheren Taktraten zugute käme.

Ein ganz anderer Ansatz wäre vielleicht, einfach nur eine Reihe "Multifunktionseinheiten" einzubauen, die alle Aufgaben, vom Vertex- über den Pixelshader bis hin zur Textureinheit erledigen könnten (so was in die Richtung gibts doch bei 3dLabs mit dem P9/P10). Anschließend bräuchte man nur noch eine Art "Lastverteiler" der die Recheneinheiten, dem Bedarf entsprechend auslastet. Darurch könnte man viele "überflüssige" Transistoren sparen. Bei heute üblichen Spielen hat ja meist der halbe Chip nichts zu tun, und nur ein paar Einheiten arbeiten am Anschlag. Allerdings wird hier wohl die dynamische Lastverteilung problematisch sein, denke ich mir mal.

Das alles sind Möglichkeiten wie man dem Problem begegnen könnte. Ob sie was taugen, ist eine andere Frage.

Der_Donnervogel
2003-04-14, 22:59:39
Originally posted by Demirug
Donnervogel, genau das ist der Punkt es ist derzeit einfach nicht sinnvoll. Mnn würde ständig nur auf den Speicher warten.

Und was man natürlich auch nicht vergessen darf ist die Hitzeentwicklung. Ein 2 GHz Grafikchip währe einfach nicht mehr kühlbar.
Könnte man bei einem Takt der deutlich höher ist als der Speicher Takt, nicht einfach die Texturdaten auf dem Chip cachen und die zusätzlichen Takte beispielsweise in besseres Antialiasing investieren?

Daß ein 2 GHZ Grafikchip kaum zu kühlen sein dürfte ist natürlich schon wahr. Allerdings tut sich ja vielleicht was wenn der PCI Express als neue Grafikschnittstelle eingeführt wird. Vielleicht wird dann der Grafiksteckplatz neu angeordnet um stärkere Lüfter bzw. schwerere Kühler zu ermöglichen. Dann könnte man sicher noch ein paar MHZ herausquetschen.

Vedek Bareil
2003-04-15, 00:29:25
Originally posted by egdusp
Liegt das an der geringen Betriebsspannung = zu geringe Leistungsaufnahme?
Spannung (=Energiezufuhr)
es spielt zwar für das Thema dieses Threads wohl keine so große Rolle, aber der Korrektheit halber sollte es doch erwähnt werden ;)
Du verwendest hier Betriebsspannung und Leistungsaufnahme als Synonyme, was sie aber nicht sind.
Die Leistung ergibt sich nicht allein aus der Spannung, sondern aus dem Produkt aus Spannung und Stromstärke.
Nun ist es in einem Schaltkreis so, daß bei jeden Takt für einen kurzen Zeitraum - der i.a. deutlich kürzer ist als die Taktdauer, und, was besonders wichtig ist, von der Taktdauer weitgehend unabhängig ist - besonders viel Strom fließt (in irgendeiner Gatter-Art, von der ich allerdings nicht weiß, ob sie in modernen Schaltkreisen noch verwendet wird, sind dann kurzzeitig zwei Transistoren in Durchlaßrichtung geschaltet), also die Stromstärke besonders groß ist, und entsprechend besonders viel Leistung verbraten und in Abwärme verwandelt wird.

Dreht man jetzt den Takt rauf, so nimmt die Taktdauer ab, die Zeitdauer jedoch, in der kurzzeitig ein großer Strom fließt, bleibt pro Takt gleich. D.h. der Anteil dieser Zeitdauer an der gesamten Taktdauer nimmt mit der Taktfrequenz zu, und damit die mittlere Stromstärke und die mittlere Leistungsaufnahme. Und mit dieser entsprechend die Wärmeentwicklung.
Will sagen: die (über viele Taktdauern gemittelte) Leistungsaufnahme nimmt bei gleichbleibender Betriebsspannung mit dem Takt zu, und zwar linear (glaub ich).

Demirug
2003-04-15, 07:57:13
Originally posted by Der_Donnervogel

Könnte man bei einem Takt der deutlich höher ist als der Speicher Takt, nicht einfach die Texturdaten auf dem Chip cachen und die zusätzlichen Takte beispielsweise in besseres Antialiasing investieren?

Da gibt es ein paar Rechnungen dazu die sagen das in diesem Fall die benötigte Cachegrösse nicht linear zur Taktrate steigt sondern viel stärker. Mehr Cache = mehr transitoren. Da ich aber davon ausgehe das Grafikchips in Zukunft mehr rechnen und weniger texturdaten verwenden wird es langsam zu einer entkopplung des Speichertakts und des internen Chip takts kommen. Dabei bleibt dann nur noch die Frage ob wird dann Chips mit Bereichen sehen die mit geringere Taktrate laufen oder ob es eher in die Richtung der mehrfach nutzung geht.

Das AA hängt nach wie stark vom Speicherinterface ab. Was man natürlich tun könnte ist folgendes.

Wenn man (dank Kompression) in der lage währe pro Takt 8 AA-Sample pro Pixel zu speichern muss man diese AA-samples ja auch erzeugen. Dafür gibt es nun mehrer möglichkeiten (immer pro Pixelpipeline).

8 Einheiten mit Grundtakt
4 Einheiten mit Grundtakt*2
2 Einheiten mit Grundtakt*4
1 Einheiten mit Grundtakt*8

Dummerweise baut man sich damit Hotspots auf den Chip.

Daß ein 2 GHZ Grafikchip kaum zu kühlen sein dürfte ist natürlich schon wahr. Allerdings tut sich ja vielleicht was wenn der PCI Express als neue Grafikschnittstelle eingeführt wird. Vielleicht wird dann der Grafiksteckplatz neu angeordnet um stärkere Lüfter bzw. schwerere Kühler zu ermöglichen. Dann könnte man sicher noch ein paar MHZ herausquetschen.

AFAIK ist für PCI Express kein neues Boardlayout geplannt.

Thorti
2003-04-20, 03:55:16
Vielleicht wurde es schon angesprochen, aber ich glaube ihr habt ein Detail übersehen. Abgesehen von allen Rechenarten oder Bestimmungszweck-Unterschieden zwischen ner CPU und nem Grafikchip ist im Moment folgendes ausschlaggebend:

Bei CPU entwicklung wird mehr Geld reingesteckt - die "grossen" Sprünge zwischen den Technologien kommen schneller nacheinander als bei Grafikchips.
Mit CPUs ist mehr Geld zu machen. Jeder Rechner braucht ne CPU. Aber kein OEM Rechner braucht eine R300 (im Moment).

Ausschlaggebendes Detail der unterschiedlichen Taktung - die Grafikchips sind im Fertigungsprozess den CPUs immer 1-2 Schritte hinterher. Ich habe grade nicht alle Zahlen im Kopf aber soweit ich weiss wird der P4 im Moment oder bald im 0,09 Micron Prozess gefertigt, Die GF 4Ti z.B. ist noch auf 0,15 oder 0,13 hergestellt, ebenso die GF FX.

Zwar gab es in dieser Fertigungsgrösse auch CPUs mit höheren Taktfrequenzen als 500 Mhz, jedoch war bis zu Zeit des P4 2000 etc. auch noch von Zahlen zwischen 20 und 40 Millionen transistoren die Rede, nicht von 120 Millionen.

Ich gehe davon aus das das Silizium aus dem Grfik-DIEs gemacht werden nicht anders ist als das bei CPUs, von daher sollte - wenn man beiden Chips die gleiche anzahl an transistoren, gleiche fertigungsgrösse etc. verpasst auch bei beiden eine absolut gleiche Taktung möglich sein.

Jedoch wie schon anfangs erwähnt: CPUs sind von der Rohtechnik den grafikchips im Moment einfach noch 1-2 Schritte bzw. 12 Monate oder sogar länger vorraus.

Thorti
2003-04-20, 04:00:20
Ich vergass noch zu sagen - im Moment kann man das auch gut erkennen - die Chips sind technisch den CPUs hinterher, jedoch ist der Speicher auf neuen Grafikkarten im Moment in den meisten Fällen dem System-RAM im Datendurchsatz deutlich überlegen.

Es ist halt bei einer vielleicht 3-5jährigen Entwicklungszeit am Ende nichtmehr einfach das GPU Design zu ändern bzw. unmöglich. Schnelleren Speicher draufpappen kann man jedoch relativ "simpel".

Nun haben eben grafikchips diese längere entwicklung, und CPUs die etwas kürzere (momentaner Stand) - daher sind die CPUs im Moment von der Rohtechnik überlegen. Einen P4 auf 0.09 Micron auf 4 Ghz zu jagen ist möglich, würde man ihn auf 2 Jahre veralteten Fertigungsprozessen ehrstellen sicher nicht.

Ikon
2003-04-20, 08:28:20
Originally posted by Thorti
Bei CPU entwicklung wird mehr Geld reingesteckt - die "grossen" Sprünge zwischen den Technologien kommen schneller nacheinander als bei Grafikchips.

Jedoch wie schon anfangs erwähnt: CPUs sind von der Rohtechnik den grafikchips im Moment einfach noch 1-2 Schritte bzw. 12 Monate oder sogar länger vorraus.

Sorry, aber das kann ich nicht unterschreiben. Ist ne grobe Schätzung, aber der P4 dürfte so langsam auf 3 Jahre zugehen, der Athlon hat wohl schon über 4 auf dem Buckel -> schnellere Sprünge? Die Grafikchips haben in dieser Zeit mindestens 2 Generationen hinter sich gebracht.

Originally posted by Thorti
Ausschlaggebendes Detail der unterschiedlichen Taktung - die Grafikchips sind im Fertigungsprozess den CPUs immer 1-2 Schritte hinterher. Ich habe grade nicht alle Zahlen im Kopf aber soweit ich weiss wird der P4 im Moment oder bald im 0,09 Micron Prozess gefertigt, Die GF 4Ti z.B. ist noch auf 0,15 oder 0,13 hergestellt, ebenso die GF FX.

Zwar gab es in dieser Fertigungsgrösse auch CPUs mit höheren Taktfrequenzen als 500 Mhz, jedoch war bis zu Zeit des P4 2000 etc. auch noch von Zahlen zwischen 20 und 40 Millionen transistoren die Rede, nicht von 120 Millionen.


Dazu ein einfacher Vergleich:

Athlon XP (Palomino) - ca. 37,5Mio. Transistoren - 0,18µ - max. 1733MHz

Geforce4 MX (NV17) - ca. 35Mio. Transistoren - 0,15µ - max. 300MHz

-> So betrachtet sollte es für die GF4-MX kein Problem sein die 2GHz zu erreichen, was wohl nicht ganz der Realität entspricht.

Xmas
2003-04-20, 16:14:31
Originally posted by Thorti
Ich gehe davon aus das das Silizium aus dem Grfik-DIEs gemacht werden nicht anders ist als das bei CPUs, von daher sollte - wenn man beiden Chips die gleiche anzahl an transistoren, gleiche fertigungsgrösse etc. verpasst auch bei beiden eine absolut gleiche Taktung möglich sein.
Jetzt wurde schon einen halben Thread lang erklärt dass die geringere Taktbarkeit bei GPUs sehr stark vom Design abhängt...

Thorti
2003-04-20, 23:47:55
Ich sagte nicht das sich der Trend nicht grade am ändern ist, jedoch wenn man bedenkt wann das Wettrüsten bei CPUs angefangen hat und wann bei Grafikkarten dürfte klar sein das da ein gewisser Vorsprung vorhanden ist.

Und die Technologiesprünge kamen bisher schneller. Damit war der Fertigungsprozess gemeint. Den P4 gibts zwar schon seeehr lang, genauso den Athlon (wenn man beim Start-Modell mit 500Mhz anfängt. Jedoch wurde in dieser langen Zeit bei beiden Prozessoren auch ÖFTER der Fertigungsprozess geändert, sowie Retuschierungen am Cache und den SSE/SSE2 Einheiten vorgenommen.

ow
2003-04-21, 09:17:07
Originally posted by Thorti
Ich sagte nicht das sich der Trend nicht grade am ändern ist,


Das tut er auch nicht.


jedoch wenn man bedenkt wann das Wettrüsten bei CPUs angefangen hat und wann bei Grafikkarten dürfte klar sein das da ein gewisser Vorsprung vorhanden ist.


Grakas gibt´s es schon genausolange wie es CPUs gibt und damit das 'Wettrüsten' auch.

PhoenixFG
2003-04-21, 10:29:11
Hi!

Sagt mal größere Operationen die in einem Takt ausgeführt werden gibt es doch gar nicht wirklich oder?
Selbst für eine relativ simple Addition brauch ich doch schonmal mind. 2 Load-Befehle um die Werte in die Register zu übernehmen und 2 Store-Befehle um die Register wieder im RAM zu sichern. Da kein Befehl in 0,5 Takten ausgeführt werden kann, vergehen doch selbst für eine Addition schon eine ganze Menge Takte. Zumindest kenn ich das so vom Assembler-Programmieren eines 8086. Ich glaube, an dem Prinzip dürfte sich nichts geändert haben, oder?
Haben GPU`s eigentlich auch sowas wie Branch-Prediction oder TLBs? Oder lässt man sowas weg, weil die Programmierpfade weniger Sprünge enthalten?
Und wer behauptet hier eigentlich immer, CPU wären nicht dafür konzipiert die Pipelines unter Last zu halten? Beim P4 mag das ja noch stimmen. Dort sind glaube ich die Befehlsdecoder so ausgelegt, dass nicht alle ALUs unter dauernder Last stehen. Aber das Design das Athlon ist eigentlich auf mximalen Befehlsdurchsatz pro Zeiteinheit getrimmt. Wozu bräuchte man sonst eine so extrem aufwändige Sprungvorhersage? Mit dem entsprechenden Programm ist es ja auch ohne weiteres möglich die Pipelines eines Athlons dauernd zu füllen. Kaputt gegangen ist dabei ja noch keiner, also sind sie schon für diesen Einsatz konzipiert.

MfG

Demirug
2003-04-21, 10:57:44
PhoenixFG, ja bei CPUs sind die Laden und Speicherbefehle getrennt zu beachten und zählen auch jeweils als eine Operation. Aufgrund der Pipeline Architektur braucht ja jede Operation viele Takte aber dafür werden ja auch viele Dinge gleichzeitig durchgeführt.

Bei GPUs (oder jetzt auch VPUs) ist die Sachelage ja etwas anders. Da die Vertex und Pixelshader ja nur mit Register arbeiten und keinen Zugriff auf den Speicher haben entfallen Lade und Speicher Befehle vollständig. Aber selbst dann sind bestimmte Operationen immer noch zu komplex um sie in einem Takt durchzuführen. Die VS des NV25 sind so aufgebaut das die jeden Befehl in genau 3 Takten auf einer 3 Stufen Pipeline durchführen können. Dadurch ergibt sich da die Aussage das man pro VS-Operation einen Takt rechnen soll. Weil 3 Takte pro Befehl / 3 Operationen pro Takt = 1 Operation pro Takt. Das ganze dann noch mal 2 weil es 2 VS gibt.

Zum Thema Branch-Prediction oder TLBs muss man zuerst einmal sagen das es derzeit kaum Grafikchips gibt die überhaupt Verzweigungen unterstützen. Die NV3x können es auf jeden Fall und möglicherweise noch die P9/P10 Chips von 3dlabs. Und bevor jetzt einsprüche kommen der R300 kann es nicht wirklich. NVIDIA meinte zu dem Thema das es sich derzeit noch nicht lohnt eine Branch-Prediction einzubauen da die Pipelines noch recht kurz sind man aber in Zukunft möglicherweise darüber nachdenken muss.

Die CPU-Pipelines sind im Prinzip schon auf maximalen Durchsatz ausgelegt nur aufgrund der struktur von Programmen läst sich x86 Code nicht immer so dekodieren das man eine maximale Auslastung erreichen kann. Die Sprungvorhersage braucht man weil man ja sonst warten müsste bis das ergebniss am Ende der Pipeline vorliegt bevor man den Sprung ausführt. Bei der heutigen Pipelinelänge würde man da eine gane menge Takte verlieren.

Thorti
2003-04-22, 16:20:43
@ow: Jetzt mag ich wirklich nich kritisieren, aber dann hast Du was verpasst. Echte Grafikkarten bzw. solche die auch wirklich was tun und nicht nur Sachen a´la "mal den pixel in der und der Farbe da und dorthin" vom Prozessor an den Monitor weitergeben gibts noch nicht sooooo lang, zumindest nicht auf dem Consumer-Markt. Wenn Du genau nachdenkst gab es zu Zeiten des Pentium 60 etwa die erste Voodoo (mal als Beispiel für die erste Graka die "richtig" was gearbeitet hat). Spiele gabs aber auch schon viel früher. Man kann also getrost sagen das die Erfindung des 3D Beschleuniger bzw. der modernen Grafikkarte etliche Jahre nach dem Prozessor kam. ;)

Ich meine damit jetzt nur "echte" Grafikkarten, nicht diese Pseudo onboard Dinger die bis zum 486 und den ersten Pentiums onboard waren und quasi nichts getan haben ausser DOS-VESA Modes wiedergeben. Darum gehts ja auch in dem Thread.

ow
2003-04-22, 17:00:06
Originally posted by Thorti
@ow: Jetzt mag ich wirklich nich kritisieren, aber dann hast Du was verpasst. Echte Grafikkarten bzw. solche die auch wirklich was tun und nicht nur Sachen a´la "mal den pixel in der und der Farbe da und dorthin" vom Prozessor an den Monitor weitergeben gibts noch nicht sooooo lang, zumindest nicht auf dem Consumer-Markt. Wenn Du genau nachdenkst gab es zu Zeiten des Pentium 60 etwa die erste Voodoo (mal als Beispiel für die erste Graka die "richtig" was gearbeitet hat). Spiele gabs aber auch schon viel früher. Man kann also getrost sagen das die Erfindung des 3D Beschleuniger bzw. der modernen Grafikkarte etliche Jahre nach dem Prozessor kam. ;)

Ich meine damit jetzt nur "echte" Grafikkarten, nicht diese Pseudo onboard Dinger die bis zum 486 und den ersten Pentiums onboard waren und quasi nichts getan haben ausser DOS-VESA Modes wiedergeben. Darum gehts ja auch in dem Thread.



Ich verstehe nicht, was/wie du da argumentieren tust.
3D Beschleuniger gibt es seit etwa 1996 (S3Virge;)), zuvor hiessen die Karten 'Windows'-Beschleuniger und hatten schon jede Menge an 2D-Funktionalität (2d-Beschleuniger). Das hat nix mit VESA-Modi zu tun.
Reine VGA/VESA Karten gibt´s schon seit etwa 10 Jahren nicht mehr.


Wie würdest du denn jetzt eine 'richtige' CPU definieren, wenn du bei den Grafikkarten solche Unterscheidung triffst?
286er, 386er, Pentium,...??

Ich bleibe dabei: Grakas und CPUs gibt´s jeweils gleich lange und die Entwicklung lief parallel ab. 1997 kam der erste 3D-Beschleuniger und zeitgleich auch CPUs, die damit was anzufangen wussten (auf 486er wird die V1 imo auch nicht sooo viel reissen).

btw. war damals der Konkurrenzkampf unter den Grafikchipherstellern weitaus härter als unter CPU. Es gab (geschätzt) gut 2 Dutzend Grafikchiphersteller, die in Konkurrenz standen und vielleicht 0,5 Dtz. CPU-Hersteller.

Demirug
2003-04-22, 17:08:32
Der richtige Kampf der Hersteller hat eigentlich mit den S-VGA Karten angefangen. In erster Linie spielte damals die Speichermenge und die Anbindung eine Rolle. Die meisten Chips hat zwar auch irgendwelche Spezialfunktionen (z.b. Hardwaresprites) die aber aufgrund einer einheitlichen API kaum genutzt wurde.

Ikon
2003-04-22, 17:16:53
@Thorti
Sehe ich das richtig, ist die Zusammenfassung deines letzten Posts ist "Grafikchips erreichen nicht dieselben Taktraten wie CPUs, weil deren Entwicklung erst seit relativ kurzer Zeit läuft (im Gegensatz zu CPUs)"?

Ich glaube da machst du es dir etwas zu einfach. Ich gehe sogar soweit zu sagen, dass beiden Entwicklungszweigen in etwa dieselben Resourcen zur Verfügung stehen, denn die bloße Erfahrung mag im IT-Bereich aufgrund seiner schnellen Wandlungen relativ wenig wert sein. Demi's Erklärung bezüglich der längeren Signallaufzeit pro Pipe-Stufe klingt IMHO deutlich plausibler.

Demirug
2003-04-22, 17:22:07
Originally posted by Ikon
@Thorti
Sehe ich das richtig, ist die Summary deines letzten Posts "Grafikchips erreichen nicht dieselben Taktraten wie CPUs, weil deren Entwicklung erst seit relativ kurzer Zeit läuft (im Gegensatz zu CPUs)"?

Ich glaube da machst du es dir etwas zu einfach. Ich gehe sogar soweit zu sagen, dass beiden Entwicklungszweigen in etwa dieselben Resourcen zur Verfügung stehen, denn die bloße Erfahrung mag im IT-Bereich aufgrund seiner schnellen Wandlungen relativ wenig wert sein. Demi's Erklärung bezüglich der längeren Signallaufzeit pro Pipe-Stufe klingt IMHO deutlich plausibler.

Ikon, ich gehe sogar einen Schritt weiter. Ich behaupte die GPU entwicklung erfordert heute wesentlich mehr Resourcen als die CPU entwicklung. Ich denke da nur mal an den Rechner-Raum bei NVIDIA.

ow
2003-04-22, 17:26:20
Originally posted by Demirug
Der richtige Kampf der Hersteller hat eigentlich mit den S-VGA Karten angefangen. In erster Linie spielte damals die Speichermenge und die Anbindung eine Rolle. Die meisten Chips hat zwar auch irgendwelche Spezialfunktionen (z.b. Hardwaresprites) die aber aufgrund einer einheitlichen API kaum genutzt wurde.


So richtig 'ernst' im Konkurrenzkampf wurde es imo mit den Windowsbeschleunigern (für Win3.1 seinerzeit) zB. ala Diamond Stealth S24 (S3 86C805 Chip).
Gerade die Beschleunigung der 2D-Funktionen beim Hantieren mit Fenstern merkt man da deutlich.

Demirug
2003-04-22, 17:32:02
Originally posted by ow



So richtig 'ernst' im Konkurrenzkampf wurde es imo mit den Windowsbeschleunigern (für Win3.1 seinerzeit) zB. ala Diamond Stealth S24 (S3 86C805 Chip).
Gerade die Beschleunigung der 2D-Funktionen beim Hantieren mit Fenstern merkt man da deutlich.

Ja das vorher war eher nur ein vorgeplänkel weil es die Hersteller nicht gechafft haben die Features bei den Entwicklern richtig poplär zu machen. Ich sage ja schon immer Dev-Support macht viel aus :)

Ikon
2003-04-22, 17:33:21
Originally posted by Demirug
Ich sage ja schon immer Dev-Support macht viel aus :)

... sprach der Developer ;D