PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Keine "echte" Weiterentwicklung ... quo Vadis V/GPU?


Radeonator
2006-11-14, 09:58:03
Mich beschäftigt seit der GeForce FX Reihe folgendes Phänomen :

Die transistoren werden immer kleiner, die Leistung höher...soweit kann man klar von einer Entwicklung sprechen. Diese ist aber nur partiell als solche zu sehen (IMO), da die Grakas immer mehr Saft brauchen und um gebendigt zu werden, auf ein unglaubliches Größenmaß anwachsen. Ergo haben wir auf der einen Seite zwar eine weiter, auf der anderen Seite jedoch eine flasche bzw Rückentwicklung. Die neusten Sprosse von AMD-ATi und nVidia sind bei 27-30cm Platine und gigantischer Stromaufnahme angelangt. Es werden unglaubliche Temps erreicht, man braucht ein Netzteil, welches sonst den ganzen PC locker versorgt hat, inzwischen nur mehr für die Graka. Was läuft da falsch?

p.s.:IMO gehört zur Weiterentwicklung eine Verringerung von Stromaufnahme durch Veränderung der gesammten Struktur (Spannungswandler, Kondensatoren, Platinen Layout, Metrial Entwicklung etc. ) - statt dessen wird eindeutig nur einseitig entwickelt, weils "husch husch" gehen soll...

DrumDub
2006-11-14, 10:30:39
versteh das problem nicht... es gibt immer noch midrange karten die ein vielfaches der leistung eine geforce fx bringen und nicht mehr strom verbrauchen und gleichzeitig kann die aktuelle generation ein vielfaches an effekten in echtzeit darstellen.

ansonsten verweise ich einfach mal auf dieses postings von ailuros: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=4879478#post4879478

robbitop@work
2006-11-14, 10:42:10
Ich und andere haben sich zu diesem Thema zwar schon mehrfach geäußert, aber ich probiere es nochmal.

Schauen wir uns einmal den Vergleich an CPU - GPU:

1. CPU's wurden seit 2002 in etwa 2 - 2,5x so schnell.
(3,06 GHz P4 vs 2,86 GHz Core2Duo)
2. Die Leistungsaufnahme sank um etwa 50%
(~100 W TDP auf ~50 W TDP)
Entwicklung: Punch pro Watt: Faktor 4 - 5


1. GPU's wurden seit 2002 in etwa 8x so schnell
(NV30 -> G80)
2. Die Leistungsaufnahme stieg um 100%
(74 W -> 150 W)
Entwicklung: Punch pro Watt: Faktor 4

Kommt erstmal ungefähr auf ein ähnliches Ergebnis.

1. die Netburstarchitektur war selten ineffizient. Viele Transistoren, wenig Punch. -> da blieb viel Potenzial für die Besserung
2. NV30 ebenso X-D Bei R300 schaut's wieder anders aus.

Aber: GPUs mit CPUs zu vergleichen ist wie Apfel mit Birne. Nicht alles was hinkt ist ein Vergleich ;)

CPUs haben eine vergleichsweise geringe "Auslastung" der vorhandenen Transistoren. Bei nicht hochparallelen Prozessoren wie General Purpose CPUs ist das völlig normal. Nur wenige Transistoren schalten gleichzeitig. Der Verbrauch ist also relativ gering. Zusätzlich können Leckströme (also parasitäre Ströme die über Transistoren fließen die gerade nicht schalten) durch Verfahren wie SOI abgefangen werden.
GPUs sind hochparallel arbeitend. SOI würde hier wenig bringen, da eh ein Großteil der Transistoren gleichzeitig schaltet. Eine GPU besitzt eine vielfach höhere aritmetische Leistung als eine CPU. Sie ist skallierbar.

Und genau hier liegt der Clou. GPUs werden über eine vervielfachung der Recheneinheiten skalliert. Das kostet Logiktransistoren und zwar linear. (da das bei CPUs nicht funktioniert, wird hier nicht skalliert) Logiktransistoren kosten nunmal Leistungsaufnahme.

Merke: CPUs werden (pro Kern) anders skalliert als GPUs. (Dual/Quadcore gehen jedoch schon etwas in die Richtung der Skallierung und ziehen auch linear mehr Transistoren und Leistung!!)

Auf gleichem Prozess ist eine doppelt so "große" GPU auch doppelt so "stromhungrig". Aber bei gleicher Architektur auch doppelt schneller (wir vereinfachen hier einfach mal ein wenig). Die GPU Leistung steigt wesentlich schneller als die CPU Leistung. Der Tribut dessen und der linearen skallierung ist nunmal die Leistungsaufnahme.
Gegenmaßnahmen:
-effizientere Architektur (G7x vs R5xx)
-Shrink
-Version mit weniger Leistung nehmen

Allerdings ist irgendwo auch eine Schwelle erreicht, ab der sich nicht mehr Effizienz aus einer Architektur herausholen läßt. G80 ist zwar doppelt so schnell wie G71, jedoch auch doppelt so groß als auch doppelt so leistungshungrig. Ein Prozess-shrink wird hier im Refresh Abhilfe schaffen.

Man sieht, diese Vergleiche hinken. Viele beschweren sich, dass die Leistungsaufnahme bei GPU steigt. Nehmen die Leistungsverdopplung bei gleichem Prozess aber gerne hin. Was erwartet ihr?

Vergleichen wir mal Äpfel mit Äpfel (also eine gerechte, nämlich gleiche Skallierung):

Nun schauen wir mal was eine genauso skallierte CPU heute verbrauchen würde (also statt 2-2,5x speed seit 2002 -> 8x). Dazu würden wir mal ins Über-übermorgen gehen, aber nur einen heutigen Prozess benutzen dürfen. Das wäre nämlich ein Octacore2Duo. Der würde mindestens 3-4x Leistungsaufnahme eines C2D haben (also jenseits der 200 W Marke).
Wer die Leistungsaufnahme der G80 nicht mag kann eine kleinere Variante nehmen. Ein G80 der nur eine Skallierung von 2-2,5x seit 2002 hätte, wäre deutlich inkomplexer. Vermutlich bei rund 150 - 200 Mio Transistoren @90nm. Das Teil wäre auch sehr sparsam.


Ich hoffe, diese Äpfel-Birnenvergleiche sind endlich mal am Ende.

Radeonator
2006-11-14, 11:33:44
@DrumDub : Verstehe nicht, was es da nicht zu kapieren gibt...

Ich rede hier nicht davon, das kleinvieh auch mist macht, sondern um die generlle Entwicklung im V/GPU Bereich (@Robbitop : Erm, wo stand was von CPU vs GPU Vergleich? ) .
Nehmen wir ein simples Beispiel zur Verdeutlichung dessen, was anscheinend etwas missverständlich rüber kam : Ein Auto soll immer Weniger schlucken und immer bessere Leistung bringen. Ein Flugzeug soll weniger verbrauchen und mehr Leistung bringen etc.

Eine Entwicklung is IMO eine Entwicklung des gesammten und nicht nur von einzelnen Komponenten. Klar, wenn man mit der selben Architektur und Skalierung Jahrelang fahren will, so kann es auf dauer nicht funktionieren. Deshalb muss das Ganze Konzept quasi überarbeitet werden. Geht ihr nur von einer logischen Variante aus, so kommt es zu einseitiger Entwicklung. Im Bereich der Entwicklung darf es aber keinen "Das ist so, das bleibt so" Faktor geben oder man stagniert.

Vertigo
2006-11-14, 11:47:53
@DrumDub : Verstehe nicht, was es da nicht zu kapieren gibt...

Ich rede hier nicht davon, das kleinvieh auch mist macht, sondern um die generlle Entwicklung im V/GPU Bereich (@Robbitop : Erm, wo stand was von CPU vs GPU Vergleich? ) .
Nehmen wir ein simples Beispiel zur Verdeutlichung dessen, was anscheinend etwas missverständlich rüber kam : Ein Auto soll immer Weniger schlucken und immer bessere Leistung bringen. Ein Flugzeug soll weniger verbrauchen und mehr Leistung bringen etc.

Eine Entwicklung is IMO eine Entwicklung des gesammten und nicht nur von einzelnen Komponenten. Klar, wenn man mit der selben Architektur und Skalierung Jahrelang fahren will, so kann es auf dauer nicht funktionieren. Deshalb muss das Ganze Konzept quasi überarbeitet werden. Geht ihr nur von einer logischen Variante aus, so kommt es zu einseitiger Entwicklung. Im Bereich der Entwicklung darf es aber keinen "Das ist so, das bleibt so" Faktor geben oder man stagniert.
Ich versteh Dein Problem wirklich nicht. Die Rechenleistung pro Verlustleistung ist doch in den letzten Jahren enorm gestiegen. Von Stagnation kann dabei doch keine Rede sein. Außerdem ist es auch nicht angebracht die Mikroelektronik mit dem Maschinenbau zu vergleichen, da hierbei grundverschiedene Problemfelder vorliegen.

DrumDub
2006-11-14, 12:38:37
@DrumDub : Verstehe nicht, was es da nicht zu kapieren gibt... kapiert habe ich dein posting schon. ich seh nur das problem nicht... habe auch erläutert warum. du pickst dir einen faktor raus, der deiner meinung nach am wichtigsten ist und machst daran eine fehlentwicklung fest. wenn man aber alle faktoren zusammen betrachtet, die das produkt ausmachen, kann ich keine fehlentwicklung sehen. gerade der "vergleich" mit den cpus, den robbitop da gepostet hat, sollte dies deutlich machen, auch wenn die architektur von cpus und gpus eben nicht vergleichen kann. die skalierbarkeit wegen der starken parallelität ist doch gerade das besondere der gpus.
und wenn ich die leistung des g80 mit weniger leistungsaufnahme haben will, dann warte ich bis der shrink auf 65nm erfolgt... letztendlich zeigt ja auch dei tabelle von ailuros, dass eben kein verbrauch des highend über 200w in den nächsten sieben jahren zu erwarten ist.

robbitop@work
2006-11-14, 13:42:36
Mal stark vereinfacht, für Leute die es immernoch nicht kapieren:

Die GPUs wachsen (Features und Performance) schneller als die Shrinks es ausgleichen können.
Man kann doch aber anhand der Modelle selbst entscheiden: Stromaufnahme <-> Performance

Diese Monster GPUs sind sozusagen "obendrauf". So wie die V5-6000. Nur dass sie in hohen Stückzahlen an den Mann gebracht werden.

Freut euch doch, dass die verfügbare Leistung so extrem stark wächst. Wer sie nicht braucht und wegen lächerlichen delta xx W meint die Umwelt zu schützen, der kann auch kleinere Karten kaufen. (solche Leute sollten anfangen, Bus/Bahn oder Rad zu fahren ...das würde um Faktor >100 die Umwelt schützen als eine GPU)

Zaubern können die GPU Manufakteure jedenfalls nicht.

Xmas
2006-11-14, 14:03:00
Nehmen wir ein simples Beispiel zur Verdeutlichung dessen, was anscheinend etwas missverständlich rüber kam : Ein Auto soll immer Weniger schlucken und immer bessere Leistung bringen. Ein Flugzeug soll weniger verbrauchen und mehr Leistung bringen etc.
Wenn du nur "High-End" betrachtest sind Flugzeuge mit der Zeit auch immer größer geworden, und das schnellste Flugzeug von heute verbraucht wahrscheinlich mehr als das schnellste Flugzeug vor 50 Jahren. Dennoch wirst du für viele alte Flugzeuge ein modernes Gegenstück finden das in praktisch jeder Hinsicht besser ist. Wenn du Grafikkarten suchst, die bei weniger Verbrauch mehr leisten als die Vorgängergeneration, musst du in den unteren Segmenten schauen. Dann darfst du natürlich nicht mit einer Leistungsverdopplung rechnen.

Gast
2006-11-14, 14:29:14
Zusätzlich können Leckströme [...] durch Verfahren wie SOI abgefangen werden.Sorry, aber hört sich nach gefährlichem Halbwissen an, weil es in Transistoren verschiedene Leckströhme gibt. Zum Einen gibt es da den Leckstrohm durch das Gate hindurch(L_Gate), dann durch den (eigentlich nicht leitenden) Kanal wenn der Transistor aus ist (sub-threshhold leakage, L_sub), und dann noch zwei Leckströhme von Drain ins Substrat (einmal unabhängig von der angelegten Spannung am Gate und einmal durch diese induziert).
http://img93.imageshack.us/img93/7136/leakagefa0.png

SOI kann nur bei den letzen beiden helfen, weil L_Gate und L_sub gar nichts mit dem Substrat zu tun haben, was bei SOI ja isoliert wird. Davon abgesehen ist der größte der vier Leckströhme immer noch L_sub! Die anderen spielen eher eine untergeordnete Rolle.
Deswegen kommt z.B. Intel auch (noch) ohne SOI aus. (Für deren Low-Power Prozess wäre es aber trotzdem eine gute Sache)
GPUs sind hochparallel arbeitend. SOI würde hier wenig bringen, da eh ein Großteil der Transistoren gleichzeitig schaltet.
SOI reduziert Leckströhme und damit statische Verlustleistung. Aktive Verlustleistung, die beim Umschalten der Transistoren verursacht wird, hat damit nichts zu tun. Da kann SOI überhaupt nichts helfen.
Für die Verlustleistung durch das Schalten sind vor Allem die Gate-Kapazität und die Versorgungsspannung ausschlaggebend (und natürlich die Anzahl der schaltenden Transistoren).

GloomY

robbitop@work
2006-11-14, 14:35:25
@gloomy
Ich habe es bewußt vereinfacht. ;)
SOI hilft nicht nicht bei GPUs. Aber längst nicht in dem Maße wie bei CPUs.

Gast
2006-11-14, 14:38:52
edit: Oder um es noch mal auf den Punkt zu bringen: SOI bringt deswegen vergleichsweise wenig, weil das Verhältnis von aktiver zu statischer Verlustleistung bei GPUs relativ hoch ist und SOI nur etwas an der statischen Verlustleistung ändern kann. Und dass die aktive Verlustleistung dominiert, liegt wie du richtig erwähnt hast daran, dass die Transistoren relativ viel hin- und herschalten.

Radeonator
2006-11-14, 15:06:10
Die GPUs wachsen (Features und Performance) schneller als die Shrinks es ausgleichen können.

Aber gerade da möchte ich doch theoretisch ansetzen. Gerade das ist der Punkt, wo ich von einseitiger Entwicklung spreche/schreibe!
Durch die verkürzten Entwicklungsschritte der V/GPUs wird somit eine komplette Weiterentwicklung in dem Sinne wie ich es denke verhindert. Um eine maximale Entwicklung zu erreichen, müsste ergo die Entwicklung parallel laufen. Somit würde man das Maximum aus dem vorhandenen rausholen, unter Einbindung der zur Verfügung stehenden Mittel. Das dies z.B. andere Platinen Materiallien, neue Halbleiter , Kondensatortechnik etc. beinhaltet, macht das ganze natürlich nicht einfacher. Als Bsp kann man sich mal in der Mobilen technologie umsehen, wo eben dies gemacht wird.


Man kann doch aber anhand der Modelle selbst entscheiden: Stromaufnahme <-> Performance

Diese Monster GPUs sind sozusagen "obendrauf". So wie die V5-6000. Nur dass sie in hohen Stückzahlen an den Mann gebracht werden.

Freut euch doch, dass die verfügbare Leistung so extrem stark wächst. Wer sie nicht braucht und wegen lächerlichen delta xx W meint die Umwelt zu schützen, der kann auch kleinere Karten kaufen. (solche Leute sollten anfangen, Bus/Bahn oder Rad zu fahren ...das würde um Faktor >100 die Umwelt schützen als eine GPU)

Zaubern können die GPU Manufakteure jedenfalls nicht.

Darum geht es mir ja nun auch nicht. Natürlich kann man auch einfach ne "kleine" Graka kaufen , die einen mit ihrer gebotenen Leistung begeistert (meine 7600GT hat mir Anfangs auch den Mund offen stehen lassen) und ich verstehe auch, das eben da die eigentliche Entwicklung zu sehen ist, jedoch denke ich auch und gerade an die "upper" Class und beziehe mich hier lediglich auf einen theoretischen Ansatz.Hochleistungsgrakas von damals waren auch ware Monster, die Nachfolge Generationen waren dagegen jedoch "Zwerge" und konnten ein vielfaches an Leistung erbringen.

p.s.: Warum nehmt ihr das eigentlich so persönlich und sprecht von "Wo ist dein Problem" ? Es geht mir hier um theoretische Ansätze: Um was besser zu machen, braucht man kreatives und innovatives Denken und ich erhoffe mir halt, das einige hier eben dieses Tun. Innovationen würden nie gemacht, wenn man alle Faktoren einfach als gegeben schluckt.

Monger
2006-11-14, 15:27:42
Aber gerade da möchte ich doch theoretisch ansetzen. Gerade das ist der Punkt, wo ich von einseitiger Entwicklung spreche/schreibe!
Durch die verkürzten Entwicklungsschritte der V/GPUs wird somit eine komplette Weiterentwicklung in dem Sinne wie ich es denke verhindert. Um eine maximale Entwicklung zu erreichen, müsste ergo die Entwicklung parallel laufen. Somit würde man das Maximum aus dem vorhandenen rausholen, unter Einbindung der zur Verfügung stehenden Mittel.

Die Entwicklung von Fertigungstechniken, Grundlagenforschung in der Halbleitersparte etc. wird doch nicht von ATI oder nVidia gemacht!

Die entwerfen ihre Chips auf dem Reissbrett, drücken TSMC oder IBM die Pläne in die Hand und sagen: "Jetzt macht mal."
Ganz so einfach ist es natürlich nicht, auch das Chipdesign muss richtig gemacht werden, um Hot Spots und Leckströme durch geschickten Aufbau zu reduzieren. An den derzeitigen prinzipiellen Schwächen in der Fertigungstechnik können ATI und nVidia trotzdem nichts ändern.


Wie schon gesagt: Grafikkarten können momentan noch durch Parallelisierung die Leistung erhöhen. Aber so langsam stoßen die an genau die selben physikalischen Grenzen unter der auch die CPU Entwicklung seit einigen Jahren leidet. Was sollen sie denn machen? Sich beschweren, dass Mutter Natur nur Silizium in rauen Mengen zur Verfügung stellt?

Es gibt ja wohl verschiedene Ansätze um da weiter zu kommen. Aber ich bin mir sicher: wenn man die aktuellen Grafikkarten mit deutlich geringerer Leistungsaufnahme zu einem akzeptablem Preis produzieren könnte, würden sich weder nVidia noch ATI dagegen wehren. Einen guten Kühlkörper für die Karten zu entwickeln, ist bestimmt auch keine ganz billige Investition.

robbitop@work
2006-11-14, 16:03:52
@Radeonator

mein "Problem" ist, dass so viele Leute einfach nicht verstehen (wollen) und man sich den Mund fusselig redet.
Praktisch alle IHVs und Manufakteure forschen, um Architekturen effizienter und Prozesse besser hinzubekommen. Das schöpfen sie auch sehr gut aus. Sonst wären heutige Performancezahlen, Transistorbudgets und Leistungsaufnahmen nicht möglich.
Nur kannst du bei jeder "Verbesserung" entscheiden, wie du sie nutzen willst:
Verbrauch/Marge oder Performance

NV/ATI setzen in den letzten Jahren ihre Gewinne der Shrinks und Effizienzverbesserungen in die Performance. Dadurch steigt die Performance ja so enorm. Sie hätten sich auch, wie du und Mikbach es fordern für besseren Verbrauch entscheiden können. Die Folge wäre: weniger Verbrauch aber auch weniger Performance. Got it? Beides hängt zusammen.

Man kann nicht das eine wollen wenn man das andere nicht mag. Zumindest ist es hier so. Das wird sich auch nicht ändern.

Und wenn ich mich noch 1000x wiederholen muss.
Bei gleichem Prozess entweder Leistung oder Sparsamkeit
In beide Richtungen gibt's Tradeoffs (ist ja nicht so dass es nur LowCost und High End gäbe)

Gast
2006-11-14, 21:31:04
Radeonator, Robbitop:
Was ihr bisher nicht bedenkt, ist, dass es bei GPUs nicht nur einen Leistungssprung gibt, sondern auch einen Programmierbarkeits- und Präzisionssprung. Das entfällt, wenn man rein die CPU-Sparte betrachtet, kostet auf GPU-Seite aber massiv Transistoren.


Q

robbitop@work
2006-11-15, 13:10:15
Radeonator, Robbitop:
Was ihr bisher nicht bedenkt, ist, dass es bei GPUs nicht nur einen Leistungssprung gibt, sondern auch einen Programmierbarkeits- und Präzisionssprung. Das entfällt, wenn man rein die CPU-Sparte betrachtet, kostet auf GPU-Seite aber massiv Transistoren.


Q

Die GPUs wachsen (Features und Performance) schneller als die Shrinks es ausgleichen können.
Ich habe es nicht vergessen. ;-)

Hauwech
2006-11-15, 14:39:53
Imho ist das doch ganz einfach: Wer sich nicht eine HighEnd Karte mit entsprechender Größe und Stromverbrauch dafür aber mit maximaler Leistung in den Rechner stecken möchte, der muss eben eine MidRange oder LowCost Karte wählen. Dafür bekommt er eben auch entsprechend weniger Leistung wobei die Leistung zumindest von MidRange locker für 90% der Anwender mehr als ausreichend ist. Wenn dann AA/AF noch Fremdwörter sind, sowieso.

Robbitop hat es auf den Punkt gebracht: Man kann nicht das eine wollen wenn man das andere nicht mag.

Da gibt es zuviele Faktoren: Wettbewerb, keine eigenen Fabriken, endliches Kapital, Aktionäre ;), OEMs, uvm.

Was man so liest, kostet ein Respin nicht gerade wenig. Sollte dadurch nicht insgesamt! eine erhebliche Einsparung resultieren, wird es nicht gemacht weil es sich einfach nicht lohnt. Ich bin überzeugt, man könnte auch heute schon Karten basteln die vielleicht insgesamt 10-20 Watt weniger ziehen, allerdings dürften die dann auch ordentlich mehr Geld kosten, alleine schon wegen dem "Mehrwert".... auch wenn die Komponenten vielleicht nur insgesamt 5$ mehr kosten.

Wer sich noch an die Signal"qualität" aus GF2 Zeiten erinnert (Matrox mal ausgenommen), der dürfte DVI schon als grössten Fortschritt überhaupt feiern. Fortschritt sollte nicht nur an Stromaufnahme und Platinengröße gemessen werden.

Gast
2006-11-15, 18:55:54
Ich habe es nicht vergessen. ;-)
Oh Verzeihung - du bis toll!


Q

StefanV
2006-11-15, 19:05:42
Naja, bei x86 CPUs tun die CPUs vom Prinzip her noch genau das gleiche wie vor 20 Jahren, als man 32bit einführte, nur schneller (hier und da hat man noch das ein oder andere hinzugefügt), ähnlich wirds auch bei GPUs laufen...

Da wird dann halt an dem bestehenden gedreht und die bestehenden Funktionen besser genutzt und es kommen Dinge hinzu, die man vorher nicht hatte, bei der Filterung bietet es sich an, diverse Dinge zu optimieren aber auch die Berechnung könnt man verbessern, ebenso die Ausgabe (der Schritt zu 64bit Farbtiefe ist solangsam echt mal überfällig ;) ;))

Matrix316
2006-11-15, 21:56:30
Wenn du nur "High-End" betrachtest sind Flugzeuge mit der Zeit auch immer größer geworden, und das schnellste Flugzeug von heute verbraucht wahrscheinlich mehr als das schnellste Flugzeug vor 50 Jahren. Dennoch wirst du für viele alte Flugzeuge ein modernes Gegenstück finden das in praktisch jeder Hinsicht besser ist. Wenn du Grafikkarten suchst, die bei weniger Verbrauch mehr leisten als die Vorgängergeneration, musst du in den unteren Segmenten schauen. Dann darfst du natürlich nicht mit einer Leistungsverdopplung rechnen.Das interessante ist ja, eines der schnellsten bzw. wahrscheinlich das schnellste "normale" Flugzeug (mal irgendwelche X-Prototypen außer Acht gelassen), das es aktuell gibt, ist schon über 40 Jahre alt: http://de.wikipedia.org/wiki/SR_71#Technische_Daten

Interessant ist ja, dass gerade als nvidia nach der GF3 plötzlich sehr lange Karten hatte, konnte ATI lange Zeit kleinere bringen, bis dann bei der X1xxxer es sehr große Karten wurden. Trotzdem waren die 9800er und X800er Karten sehr schnell.

haifisch1896
2006-11-16, 00:38:31
Naja, bei x86 CPUs tun die CPUs vom Prinzip her noch genau das gleiche wie vor 20 Jahren, als man 32bit einführte, nur schneller (hier und da hat man noch das ein oder andere hinzugefügt), ähnlich wirds auch bei GPUs laufen...

Da wird dann halt an dem bestehenden gedreht und die bestehenden Funktionen besser genutzt und es kommen Dinge hinzu, die man vorher nicht hatte, bei der Filterung bietet es sich an, diverse Dinge zu optimieren aber auch die Berechnung könnt man verbessern, ebenso die Ausgabe (der Schritt zu 64bit Farbtiefe ist solangsam echt mal überfällig ;) ;))

Soviele Farbnuancen kannst Du gar nicht wahrnehmen. Ansonsten stimm ich Dir zu.

StefanV
2006-11-16, 00:43:34
Richtig aber 32bit Fix Point haben wir schon seit etwas über 10 Jahren, da ist so langsam mal an der Zeit, das sich da was ändert und seis auch nur, das man auf auf ein FP32 Format übergeht...

Neomi
2006-11-16, 02:20:44
Richtig aber 32bit Fix Point haben wir schon seit etwas über 10 Jahren, da ist so langsam mal an der Zeit, das sich da was ändert und seis auch nur, das man auf auf ein FP32 Format übergeht...

Etwas neues einzuführen, weil die "etablierte" Technik alt ist, ist ein denkbar schlechter Grund. Auch wenn es True Color schon 50 Jahre gäbe, schlechter würde es dadurch nicht. Abgesehen davon reichen 8 Bit pro Komponente tatsächlich nicht.

Xmas
2006-11-16, 16:27:46
Das interessante ist ja, eines der schnellsten bzw. wahrscheinlich das schnellste "normale" Flugzeug (mal irgendwelche X-Prototypen außer Acht gelassen), das es aktuell gibt, ist schon über 40 Jahre alt: http://de.wikipedia.org/wiki/SR_71#Technische_Daten
Ich hatte da jetzt eigentlich eher Passagiermaschinen im Sinn. :) Dass die Entwicklung bei der Flugzeuggeschwindigkeit stagniert liegt ja hauptsächlich an physikalisch-ökonomischen Grenzen. Eine solche Grenze ist bei der Grafikkartenentwicklung anscheinend noch nicht erreicht.

Interessant ist ja, dass gerade als nvidia nach der GF3 plötzlich sehr lange Karten hatte, konnte ATI lange Zeit kleinere bringen, bis dann bei der X1xxxer es sehr große Karten wurden. Trotzdem waren die 9800er und X800er Karten sehr schnell.
Welche Schlüsse soll man daraus nun ziehen?

Tigerchen
2006-11-16, 19:21:45
Mich beschäftigt seit der GeForce FX Reihe folgendes Phänomen :

Die transistoren werden immer kleiner, die Leistung höher...soweit kann man klar von einer Entwicklung sprechen. Diese ist aber nur partiell als solche zu sehen (IMO), da die Grakas immer mehr Saft brauchen und um gebendigt zu werden, auf ein unglaubliches Größenmaß anwachsen. Ergo haben wir auf der einen Seite zwar eine weiter, auf der anderen Seite jedoch eine flasche bzw Rückentwicklung. Die neusten Sprosse von AMD-ATi und nVidia sind bei 27-30cm Platine und gigantischer Stromaufnahme angelangt. Es werden unglaubliche Temps erreicht, man braucht ein Netzteil, welches sonst den ganzen PC locker versorgt hat, inzwischen nur mehr für die Graka. Was läuft da falsch?

p.s.:IMO gehört zur Weiterentwicklung eine Verringerung von Stromaufnahme durch Veränderung der gesammten Struktur (Spannungswandler, Kondensatoren, Platinen Layout, Metrial Entwicklung etc. ) - statt dessen wird eindeutig nur einseitig entwickelt, weils "husch husch" gehen soll...

Steam hat gerade wieder eine Umfrage zur Hardwareausstattung gestartet. Da konnte man sehen daß diese High-Endaustattungen mit gigantischer Stromaufnahme eher die Ausnahme sind. In so einen Nerd-Forum gewinnt man vielleicht den Eindruck als ob wahnsinnig viele Spieler wahnsinnig viel Geld für solche Monsthardware ausgeben. Die Wirklichkeit sieht anders aus. Darum laß den Leuten die Spaß dran haben ihre Kohle ATI, Nvidia, Intel oder AMD in den Rachen zu werfen ihr Hobby. Ich nehm nur Mittelklassehardware und komm auch mit einem 400W Netzteil locker über die Runden. Für 200 €uro kriegst du Grafikkarten die völlig ausreichend sind.

aths
2006-11-16, 23:11:29
p.s.:IMO gehört zur Weiterentwicklung eine Verringerung von Stromaufnahme durch Veränderung der gesammten Struktur (Spannungswandler, Kondensatoren, Platinen Layout, Metrial Entwicklung etc. ) - statt dessen wird eindeutig nur einseitig entwickelt, weils "husch husch" gehen soll...Es wird in alle Richtungen weiterentwickelt. Zwar ziehen heutige Ultrahighend-Karten mehr Strom als früher, aber sie leisten mehr als sie mehr Strom ziehen.

Matrix316
2006-11-16, 23:30:35
Ich hatte da jetzt eigentlich eher Passagiermaschinen im Sinn. :) Dass die Entwicklung bei der Flugzeuggeschwindigkeit stagniert liegt ja hauptsächlich an physikalisch-ökonomischen Grenzen. Eine solche Grenze ist bei der Grafikkartenentwicklung anscheinend noch nicht erreicht.


Welche Schlüsse soll man daraus nun ziehen?

Dass ATI längere Zeit schnelle Karten auf kleineren Platinen gebaut hat (9xxxer ATI vs 5xxxer nVidia bzw. X8xx ATI vs 6xxx NVidia), dies aber seit der X1xxxer Klasse aber nicht mehr kann. Was haben die damals besser gemacht? Könnte das heute helfen? Warum hat nvidia ab der GF4 überlange Karten gehabt, während ATI das erst seit kurzem hat?

Palpatin
2006-11-17, 00:01:23
Die Frage die sich stellt ist irgendwann schluss und wann ist schluss. Wie weit wirds gehen. 200 Watt 300Watt 500Watt 1000 Watt? Ich mein wenn die magische Grenze erreicht ist gibts dann nur noch 20-30% mehr Perfromance pro Jahr?

Gast
2006-11-17, 09:22:29
Dass ATI längere Zeit schnelle Karten auf kleineren Platinen gebaut hat (9xxxer ATI vs 5xxxer nVidia bzw. X8xx ATI vs 6xxx NVidia),

Das stimmt ja nicht. 9xxx ist so schnell wie die 5xxx und die 8xxx so schnell wie die 6xxx. Abmessungen sind ebenfalls in etwa gleich.

robbitop@work
2006-11-17, 10:51:01
Es wird in alle Richtungen weiterentwickelt. Zwar ziehen heutige Ultrahighend-Karten mehr Strom als früher, aber sie leisten mehr als sie mehr Strom ziehen.
Hach! Sehr schön auf den Punkt gebracht! :up: Damit ist IMO der Thread und diese sinnfreie Überlegung hinfällig.

up¦²
2006-11-18, 17:51:59
Einen ziemlich spekulativen aber sehr interessanten Artikel hat Charlie Demerjian (aka Groo, nein nicht Fudo ... :wink: ) zur Generation nach dem R600 geschrieben: "Big GPUs are set to die - First R700 info, and it is cool" (http://uk.theinquirer.net/?article=35818)
Stichwort modular :wink:

Matrix316
2006-11-19, 12:31:17
Das stimmt ja nicht. 9xxx ist so schnell wie die 5xxx und die 8xxx so schnell wie die 6xxx. Abmessungen sind ebenfalls in etwa gleich.
Also die Nvidia Karten sind doch wesentlich länger als die ATI Pendants:

9800 PRO
http://geizhals.at/img/pix/54049.jpg
X800XT
http://geizhals.at/img/pix/128371.jpg
5950 Ultra
http://geizhals.at/img/pix/71165.jpg
6800 Ultra
http://geizhals.at/img/pix/97704.jpg

Gast
2006-11-19, 17:00:36
Nehmen wir ein simples Beispiel zur Verdeutlichung dessen, was anscheinend etwas missverständlich rüber kam : Ein Auto soll immer Weniger schlucken und immer bessere Leistung bringen.

nein, ein autos brauchen zwar immer weniger, fahren aber noch immer mit 50km/h durch die stadt.

ein auto das 4x so schnell fährt und dabei weniger braucht gibt es auch nicht.

RavenTS
2006-11-19, 19:09:38
nein, ein autos brauchen zwar immer weniger, fahren aber noch immer mit 50km/h durch die stadt.

ein auto das 4x so schnell fährt und dabei weniger braucht gibt es auch nicht.

Allein schon weil man bei Autos an Grenzen angekommen ist, wo mehr Geschwindigkeit einfach nur noch für eine sehr kleine Klientel von Bedeutung ist. Ab 200 wird der Mensch durch seine "Fehlerchen" einfach zur größten Gefahr, so daß Geschwindigkeiten darüber für 08/15 Fahrzeuge wenig interessant sind. Spritverbrauch ist aber für 100% der Autofahrer von Bedeutung.

Genauso ists bei GraKas. Der Preis ist bei allen von Bedeutung, die benötigte/gewollte Leistung variiert.

Wenn du nun keine echten Weiterentwicklungen siehst liegt das einfach daran, daß du nur den Highend-Markt betrachtest, der wirklich immer abstruser wird, was mit den Freaks und dem harten Konkurrenzkampf zu tun hat. Eine direkte Optimierung der jeweiligen Chipgenerationen ist einfach finanziell nicht möglich. Das geschieht finanziell wunderbar ausgeglichen über mehrere Refreshes...

RavenTS
2006-11-19, 19:13:19
Die Frage die sich stellt ist irgendwann schluss und wann ist schluss. Wie weit wirds gehen. 200 Watt 300Watt 500Watt 1000 Watt? Ich mein wenn die magische Grenze erreicht ist gibts dann nur noch 20-30% mehr Perfromance pro Jahr?

Wurde hier doch schon geschrieben. Über 200W wirds die kommenden Jahre nicht gehen. Das derzeitige Gehäuse- und Kartenkonzept ist für mehr Leistungsabgabe einfach nicht ausgelegt. Wie sich die Performance entwickelt kann man generell wohl nicht sagen. Die Feature-Palette wird sicherlich weiter steigen, so daß man GPUs von morgen eigentlich kaum noch mit GPUs von gestern vergleichen kann...

Gast
2006-11-19, 19:55:19
Die Feature-Palette wird sicherlich weiter steigen, so daß man GPUs von morgen eigentlich kaum noch mit GPUs von gestern vergleichen kann...

dem würde ich nicht unbedingt zustimmen, spätestens mit SM4 ist (fast) alles in der renderingpipeline frei programmierbar, da gibt es kaum mehr großartige features die hardwareseitig implementiert werden können, die neuen "grafikfeatures" müssten dann die softwarehersteller auf eben dieser hardware programmieren.

ich denke viel mehr dass sich verschiedene grafikkarten in zukunft in erster linie durch den speed unterscheiden werden, auf featureseite gibt es eigentlich nur mehr "kleinigkeiten" (z.b. antialiasing, filterung) die sich unterscheiden und auch verbessern können.