PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Transistorenmonster der Zukunft (GraKa)


Gast
2007-02-22, 12:59:12
Leute, kann mir mal jemand erklären warum Unternehmen wie ATI/AMD und nVidia ständig komplexere Grafikkarten bringen?

Also im Desktopmarkt meine ich ... wenn wir uns mal ansehen, das wir mittlerweile bei ~680-700 Mio Transistoren angelangt sind und die Vorgängergeneration nur knapp die Hälfte hatte, dann stelle ich mir doch glatt die Frage: Was bringt denn das? Die Anzahl neuer "Features" ist nun wahrlich gering.

Um die Leistung zu steigern war das nun wirklich nicht nötig... denn man hätte z.B. den Chiptakt der bisherigen Generation noch etwas anheben können (was dank besserer Fertigung natürlich möglich ist / werden wird)... und vorallem Speicherinterface und schnelleren GDDR4 (auch mal 1,4 GHz und bald bis zu 2 GHz) einsetzen können.
Das hätte schon enorm Leistung gebracht...

Aber stattdessen entschied man sich für was komplett neues, was leider mit einem argen Stromverbrauch ~150-270W verbunden ist.

Ok, die Unified Shader sind eine sinnvolle Entwicklung, um mehr Leistung und brachliegende Recheneinheiten zu vermeiden. Diese Generation hat also noch ihren Sinn.

Aber dennoch wird es damit nicht aufhören... In sagen wir mal 2 Jahren, wird der Chip noch komplexer werden, aber was wird er dann können, was er jetzt nicht kann? Es wird ja noch nicht mal die Technik von vor 2 Jahren völlig genutzt. Damit meine ich in Qualität umgemünzt.

Spiele erreichen beispielweise nur selten die Qualität wie in Oblivion z.B. und selbst da ist noch viel Spielraum für Verbesserungen sowohl bei der Leistung, als auch bei der Texturqualität - was diverse Fanmods bewiesen haben!

Wenn wir jetzt mal annehmen, das Chips wie der G80 in 5 Jahren immer noch am Markt wären, dann natürlich als 30 W Sparversion in in 25 nm und mit 4 GHz GDDR6 oder so ;), was könnte dieser dann nicht darstellen ?

Gouvernator
2007-02-22, 13:32:59
Es wird ja noch nicht mal die Technik von vor 2 Jahren völlig genutzt. Damit meine ich in Qualität umgemünzt.
Na, wenn du es nicht selbst ummünzt (was ein für wort...) wird es niemand für dich tun.
Ich zitiere mal aus aktuellem Cat. 7.2
Battlefield 2: Attempting to launch the game under Windows XP with the in-game display setting at 1920x1440 or 2048x1536 and AA set to 6x no longer results in the game failing to launch.
So siehst du wie Leute spielen? =) Und in 2 Jahren kann man in selben Einstellungen wieder neuere Spiele zocken.

Spasstiger
2007-02-22, 13:33:18
Um die Leistung zu steigern war das nun wirklich nicht nötig... denn man hätte z.B. den Chiptakt der bisherigen Generation noch etwas anheben können (was dank besserer Fertigung natürlich möglich ist / werden wird)... und vorallem Speicherinterface und schnelleren GDDR4 (auch mal 1,4 GHz und bald bis zu 2 GHz) einsetzen können.
Das hätte schon enorm Leistung gebracht...
Ein breiteres Speicherinterface braucht mehr Transistoren, schließlich sitzt der Speichercontroller in der GPU.
Und den Takt kann man auch nicht beliebig erhöhen, auch nicht bei Fertigung in kleineren Strukturgrößen. Außerdem gehen solche Wechsel der Fertigung mal nicht eben innerhalb von einem halben Jahr.

Durch die doppelte Zahl von Transistoren konnte NV die Performance in einigen Bereichen vervierfachen gegenüber der Vorgängergeneration.
Vergleiche mal die 7950 GX2 und die 8800 GTX, beide verwenden eine ähnliche Anzahl von Transistoren (560 Mio vs. 681 Mio.). Die 8800 GTX ist in einigen Fällen aber deutlich schneller (+100%, siehe z.B. hier (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gts_320mb/16/#abschnitt_oblivion)).

Gast
2007-02-22, 13:40:28
Vergleiche mal die 7950 GX2 und die 8800 GTX, beide verwenden eine ähnliche Anzahl von Transistoren. Die 8800 GTX ist in einigen Fällen aber deutlich schneller (+100%).

Ich habe doch gesagt, das die Unified Shader eine gute Sache sind.

Aber was folgt jetzt? Also was will man da noch großartig ändern / verbessern?

warum fühlt man sich immer dazu gezwungen, was neues einzubauen, anstatt ne kleinere Fertigung dazu zu verwenden, den Stromverbrauch zu senken:confused:
Das verstehe ich nicht!

Nehmen wir mal den G80. Wenn wir den in ein paar Jahren in 45, 32, 25.. nm herstellen, wäre er bedeutend billiger und sparsamer in der Herstellung.

Aber dies tut man nicht, stattdessen legt man einen neuen Chip mit wahrscheinlich mehr als eine Milliarden Transistoren nach. Aber wozu:confused:

Gast
2007-02-22, 13:42:53
Nunja das nennt sich halt Fortschritt und kommt in nahezu allen Lebensbereichen zu tragen. ;)

mapel110
2007-02-22, 13:43:32
Weils einfach ist, in die Breite zu skalieren. Man bastelt an der Pipe/USC ein wenig rum und vervielfacht dann das Ganze.
Wer dann ein Stromsparwunder will, kann sich doch die kleineren Modelle kaufen, muss dann aber auch mit weniger Leistung rechnen.
Es gibt doch 7600er, 1600er usw...

p.s. und die Anzahl neuer Features ist zumindest beim G80 nicht als gering zu bezeichnen. AF,AA, Geo-Prozzi, shader4.0, USC-Hardwareloadbalacing usw

The_Invisible
2007-02-22, 13:49:31
Ich habe doch gesagt, das die Unified Shader eine gute Sache sind.

Aber was folgt jetzt? Also was will man da noch großartig ändern / verbessern?

warum fühlt man sich immer dazu gezwungen, was neues einzubauen, anstatt ne kleinere Fertigung dazu zu verwenden, den Stromverbrauch zu senken:confused:
Das verstehe ich nicht!

Nehmen wir mal den G80. Wenn wir den in ein paar Jahren in 45, 32, 25.. nm herstellen, wäre er bedeutend billiger und sparsamer in der Herstellung.

Aber dies tut man nicht, stattdessen legt man einen neuen Chip mit wahrscheinlich mehr als eine Milliarden Transistoren nach. Aber wozu:confused:

weil mehr features eben mehr logik = mehr transistoren heißt, wer weiß was DX11 veraussetzt

ansonsten wird man jetzt mit dem g80 erstmals das versuchen was du dir "wünscht"

mfg

Gast
2007-02-22, 13:52:02
Nunja das nennt sich halt Fortschritt und kommt in nahezu allen Lebensbereichen zu tragen. ;)

Wo genau siehst du einen Fortschritt? Unified Shader lassen wir außen vor, das ist eine sinnvolle Erweiterung. Aber sonst?

Wer dann ein Stromsparwunder will, kann sich doch die kleineren Modelle kaufen, muss dann aber auch mit weniger Leistung rechnen.
Es gibt doch 7600er, 1600er usw...

Die sind aber dann auch um den Faktor 2-5 langsamer, was für einen vielgamer nicht ausreichend ist.

Also irgendwie ist das Segment: Viel Leistung + wenig Verbrauch momentan nicht besetzt, obwohl Nachfrage besteht.

Dazu stell ich mir die Frage: Warum versuchte man nicht von Anfang z.B. voll programmierbare Einheiten zu bauen? Wozu Shader 1.1, 2, 3,4... hätte es eine universelle Version nicht getan:confused:

Ich mein, auf einer CPU kann ich nach Lust und Laune die Software "bauen", die mir gefällt ... es läuft.

Bei der GraKa greife ich auf einen begrenzten Vorrat zurück und muss hoffen, das es in Zukunft unterstützung findet... paradox!

Gast
2007-02-22, 13:56:40
Wo genau siehst du einen Fortschritt? Unified Shader lassen wir außen vor, das ist eine sinnvolle Erweiterung. Aber sonst?


Ich glaube du solltest dich mal genauer mit dem Design des G80 auseinandersetzen, da ist mehr als die USA die ihm zu dem machen was er ist:
skalare ALUs, Bi-TMUs,...

Und zudem vielleicht auch nochmal mit D3D10 auseinandersetzen und seinen Möglichkeiten für den Entwickler und da ist auch nicht nur US entscheident. ;)

mapel110
2007-02-22, 13:57:03
Wo genau siehst du einen Fortschritt? Unified Shader lassen wir außen vor, das ist eine sinnvolle Erweiterung. Aber sonst?



Die sind aber dann auch um den Faktor 2-5 langsamer, was für einen vielgamer nicht ausreichend ist.

Also irgendwie ist das Segment: Viel Leistung + wenig Verbrauch momentan nicht besetzt, obwohl Nachfrage besteht.

Dazu stell ich mir die Frage: Warum versuchte man nicht von Anfang z.B. voll programmierbare Einheiten zu bauen? Wozu Shader 1.1, 2, 3,4... hätte es eine universelle Version nicht getan:confused:

Ich mein, auf einer CPU kann ich nach Lust und Laune die Software "bauen", die mir gefällt ... es läuft.

Bei der GraKa greife ich auf einen begrenzten Vorrat zurück und muss hoffen, das es in Zukunft unterstützung findet... paradox!
Die CPU muss ALLES rechnen können. Eine GPU ist dedizierte Hardware. d.h. sie ist spezialisiert auf bestimmte Befehle. Es ist bringt mehr Speed, "Befehle fest zu verdrahten". Wenn man eine Architektur auf ALLES auslegen muss (bei CPU), geht man zwangsläufig Kompromisse ein.
Schau dir mal die CPU-Tests vom 3DMark an(CPU berechnet ohne Hilfe der Graka), wie jämmerlich da die CPUs abschneiden und das bei schlechterer Grafikqualität gegenüber Grafikkarten.

Showtime
2007-02-22, 13:58:39
AMD und NV haben doch schon eine Abkehr von den Stromfressern für die nächste Generation angekündigt. Also wird man zumindest in der Richtung wohl beim G90/R700 etwas Positives erwarten dürfen.

Warum die aktuellen Karten dem Netzteil soviel abverlangen? Wahrscheinlich weil es nicht anders geht. Die Entwickler bei AMD und NV sind ja nicht dumm. Ich kann mir nicht vorstellen, dass sie da an einem Tisch sitzen und sich sagen "Ach.. ob der jetzt 50W mehr oder weniger verbraucht ist auch egal, drehen wir lieber den Shadertakt noch 100Mhz hoch".
Leistung muss halt irgendwoher kommen und benötigt wird sie definitiv schon jetzt und nicht erst in einem Jahr in 65nm. Guck dir Spiele wie R6:Vegas an, da kommt auch eine 8800GTX nicht mehr weit über grad so flüssiges Spielen hinaus, unter sehr hohen Settings.
Ob es unbedingt 2048*1536 in 8xAA und 16xAF sein muss kann natürlich jeder für sich entscheiden aber solange es Leute gibt, die bei solchen Settings spielen wollen, muss wohl zwangsläufig jetzt solch ein Transistorenmonster her... Ein Jahr warten hilft diesen Menschen nicht viel ;).

Gast
2007-02-22, 14:01:48
Und zudem vielleicht auch nochmal mit D3D10 auseinandersetzen und seinen Möglichkeiten für den Entwickler und da ist auch nicht nur US entscheident. ;)

Aber wozu dann DX11? Wieso hat man nicht an die Zukunft gedacht und irgendwelche sinnlosen Beschränkungen gleich ganz weggelassen? z.B. die maximal möglich Texturauflösung auf irgendwelche astronomischen Summen festgelegt.

Gast
2007-02-22, 14:04:28
Aber wozu dann DX11? Wieso hat man nicht an die Zukunft gedacht und irgendwelche sinnlosen Beschränkungen gleich ganz weggelassen? z.B. die maximal möglich Texturauflösung auf irgendwelche astronomischen Summen festgelegt.

Weil man eben keine Glaskugel hat... ;)
Die Forschung im Bezug auf Computergrafik geht doch immer weiter und wichtige Erkenntnise gehen dann halt in D3Dxx ein.

Spasstiger
2007-02-22, 14:04:57
Dazu stell ich mir die Frage: Warum versuchte man nicht von Anfang z.B. voll programmierbare Einheiten zu bauen? Wozu Shader 1.1, 2, 3,4... hätte es eine universelle Version nicht getan:confused:
Weil das mehr Transistoren kostet. :wink:

Gast
2007-02-22, 14:08:40
Weil man eben keine Glaskugel hat... ;)

Ich glaube nicht, das irgendwelche hochrangen Forscher eine Glaskugel brauchen um vorrauszusehen, das höhere Auflösungen die Zukunft sind... das wissen wir ja sogar. ;)

Henroldus
2007-02-22, 14:09:59
Nehmen wir mal den G80. Wenn wir den in ein paar Jahren in 45, 32, 25.. nm herstellen, wäre er bedeutend billiger und sparsamer in der Herstellung.

Aber dies tut man nicht, stattdessen legt man einen neuen Chip mit wahrscheinlich mehr als eine Milliarden Transistoren nach. Aber wozu:confused:
es wird sich keiner ne neue Grafikkarte kaufen, die die selbe 3Dleistung hat, aber nur halb soviel strom verbraucht!
der Markt(wir kunden) erfordert das einfach.

deekey777
2007-02-22, 14:11:28
Die Grafikchips werden immer größer:
http://img402.imageshack.us/img402/9715/monolith2001asp8.jpg

Ich würde heute kein Spiel spielen, das wie Unreal aussieht. Und je nach Spiel und Fähigkeiten der Spielentwickler (was meist durch das Budget limitiert wird) wird man leistungsfähigere Grafikkarten brauchen.

Gast
2007-02-22, 14:11:37
Weil das mehr Transistoren kostet. :wink:

Ja, logisch. Eine gewisse Basis muss schon da sein. Mit damaligen Fertigungsprozessen wäre das wohl gar nicht möglich.

Aber irgendwann müssen wir doch mal eine Schwelle erreichen an der es heißt: Wir können eine universell programmierere Grafikschnittstelle und die dazu passenden Recheneinheiten zur Verfügung stellen.

Henroldus
2007-02-22, 14:12:01
Aber wozu dann DX11? Wieso hat man nicht an die Zukunft gedacht und irgendwelche sinnlosen Beschränkungen gleich ganz weggelassen? z.B. die maximal möglich Texturauflösung auf irgendwelche astronomischen Summen festgelegt.
wieso baut VW kein 1 Literauto für 7 personen, das jeden Unfall heil übersteht?
Warum immer diese Beschränkungen? :D
Denk doch bitte mal realistisch Herr gast

Gast
2007-02-22, 14:14:25
es wird sich keiner ne neue Grafikkarte kaufen, die die selbe 3Dleistung hat, aber nur halb soviel strom verbraucht!

Wer redet denn von der selben Leistung?

Wenn wir die heutigen Chips in 5 Jahren erneut produzieren würden, so kämen wir sicherlich "etwas" höher beim Takt... trotz geringerem Stromverbrauch.

Außerdem entwickelt sich der Speicher ja auch mit. Wo heute noch 900-1,1 GHz gängig sind, werden es in ein paar jahren mehrere GHz sein.
Also gleichschnell würden solche Karten nicht bleiben.

Henroldus
2007-02-22, 14:17:49
Wer redet denn von der selben Leistung?

Wenn wir die heutigen Chips in 5 Jahren erneut produzieren würden, so kämen wir sicherlich "etwas" höher beim Takt... trotz geringerem Stromverbrauch.

Außerdem entwickelt sich der Speicher ja auch mit. Wo heute noch 900-1,1 GHz gängig sind, werden es in ein paar jahren mehrere GHz sein.
Also gleichschnell würden solche Karten nicht bleiben.
gibts doch alles:
heute bekommst du eine passiv gekühlt 7600GT die mehr leistung hat als eine ehemalige highend 6800ultra, aber:
Diese Leistung reicht einfach nicht mehr aus!!!
Diese architekturverbreiterung gibts doch auch bei CPUs:
durch zusätzliche befehlesätze/register (SSE3) kann man bestimmte operationen schneller rechnen als mit einer höher getakteten aber einfachereren CPU.

RaumKraehe
2007-02-22, 14:18:10
Leute, kann mir mal jemand erklären warum Unternehmen wie ATI/AMD und nVidia ständig komplexere Grafikkarten bringen?



Weil du da etwas falsch denkst geht das nicht. Die Performance von Grakas resultieren eher mehr auf der parralelität der Recheneinheiten. So kann man die Leistung der Grakas bei gleichem Takt deutlich steigern in dem man mehr Renderpiplines einbaut. Eine Takterhöhung bringt da deutlich weniger.

Mehr Piplines beudeuten automatisch mehr Transistoren und da selbst die High-End Grakas in 2 Jahren am Ende der Leistungskala stehen wird es auch wieder Chips mit immer mehr Transitoren geben.

Und das die Leistung niemand braucht ist ja nun mal der totale Quatsch. Jeder Gamer will die Leistung haben. ;)

Gast
2007-02-22, 14:19:06
wieso baut VW kein 1 Literauto für 7 personen, das jeden Unfall heil übersteht?

Das ist nicht vergleichbar. Denn du wirst schon Probleme haben, das passendende Material und die Sicherheitsvorkehrungen zu erschaffen. G Kräfte und so... die müssen irgendwo hin.

Aber bei Hardware und Software ist das ne andere Sache. Software ist ziemlich universell und nicht wirklich "begrenzt". Ebenso die passende Hardware ... nur wird halt nicht alles gebaut, was sinnvoll ist.

mapel110
2007-02-22, 14:21:57
... nur wird halt nicht alles gebaut, was sinnvoll ist.
doch. :P
Entweder das maximale Transistormögliche oder das maximale sinnvolle Stromsparwunder(bisschen mehr Leistung gegenüber alter Generation muss ja da sein + neue Features). Beides zusammen geht nicht.

btw das kann man vergleichen mit dem Okonomischen Prinzip.

Minimalprinzip -> ein bestimmtes Ziel mit möglichst geringen Mitteln erreichen
Maximalprinzip -> mit bestimmten Mitteln ein möglichst hohes Ziel zu erreichen

Minimaxprinzip -> gibts nicht

Henroldus
2007-02-22, 14:25:03
Das ist nicht vergleichbar. Denn du wirst schon Probleme haben, das passendende Material und die Sicherheitsvorkehrungen zu erschaffen. G Kräfte und so... die müssen irgendwo hin.

Aber bei Hardware und Software ist das ne andere Sache. Software ist ziemlich universell und nicht wirklich "begrenzt". Ebenso die passende Hardware ... nur wird halt nicht alles gebaut, was sinnvoll ist.
Software ist sehr wohl begrenzt

je komplexer sie wird um so weniger beherschbar wird sie->Fehler
zur Zeit beissen sich entwickler die Zähne an der parallelisierung von programmen aus

bei der Hardware

Die chipfertigung bewegt sich ständig an der grenze des physikalisch machbaren
es wird nicht alles gebaut, was sinnvoll ist weil es verdammt viel kostet, klar wollen alle 32nm aber das dauert halt
die korrekte Belichtung eines wafers ist wesentlich komplexer als 2 airbags mehr in ein auto zubauen

boxleitnerb
2007-02-22, 14:25:10
Henroldus hat schon Recht. Ich finde es auch etwas unglücklich im Moment. Aber überleg doch mal:
In 5 Jahren...wenn du von heute 5 Jahre zurückrechnest, würdest du mit einer Graka, die damals 2002 aktuell war, also zB eine 9700Pro Crysis spielen wollen? Wohl nicht. Selbst wenn sie "etwas" schneller wäre durch schnelleren Speicher und mehr Takt, sagen wir sogar doppelt so schnell.
Das reicht immer noch nicht. Dazu fehlen Features, mit denen du noch besser Bildqualität und schönere effizientere Effekte zu sehen bekommst. Im schlimmsten Fall starten neue Spiele gar nicht mehr.

Bis 2012 gibt es dann Karten, die so schnell wie der G80 sind und einen Bruchteil dessen verbrauchen. Ich sehe ehrlich gesagt dein Problem nicht. Alles auf einmal geht nicht. Wenn du nicht zufrieden bist, dann bleib halt bei deinem R300, den kannste auch passiv kühlen mit einer Heatpipe.

Gast
2007-02-22, 14:26:37
Beides zusammen geht nicht.

Der genaue Mittelweg...

Man kann ja ruhig die Leistung durch zusätzliche Recheneinheiten erhöhen. Aber warum z.B. immer gleich verdoppeln und so? 50 % mehr hätten es ebenso getan... für die Enthusiasten gäbe es dann halt weiterhin die teureren "Open End" Produkte...

Gast
2007-02-22, 14:29:40
In 5 Jahren...wenn du von heute 5 Jahre zurückrechnest, würdest du mit einer Graka, die damals 2002 aktuell war, also zB eine 9700Pro Crysis spielen wollen? Wohl nicht.

Wie schnell wäre denn eine hypothetische, mit 800 MHz GPU und 2 GHz GDDR4 "9700 Pro"? Ich glaub gar nicht mal so langsam, aber viele Transistoren hätte sie dann trotzdem nicht...

boxleitnerb
2007-02-22, 14:33:23
Krieg erst mal die GPU auf 800MHz...bei maximalem Ertrag wären sie 800/325, naja ca. zweieinhalb Mal so schnell. Das ist X800XT Niveau. Ich hab eine X800XT PE und die stinkt z.B. bei Oblivion ziemlich ab, wenn ich auch was schönes sehen will! Rainbow Six oder Splinter Cell oder... starten damit erst gar nicht.

Sei mir nicht böse, aber ich finde es arrogant und vermessen, zu denken, man hat mehr Ahnung als die Ingenieure, die jahrelange Ausbildung und jahrzehntelange Erfahrung in der Branche haben.

Gast
2007-02-22, 14:37:26
Krieg erst mal die GPU auf 800MHz...

Jetzt vielleicht noch problematisch, aber im neuem Prozess... ;)

Ich ging ja auch vom technischen maximum (heute) aus.

Ich mein, eigentlich könnte man sie einfach nur aufstocken. z.B. das Speicherinterface verdoppeln-vervierfachen, schnelleren Speicher, mehr Pipelines... und trotzdem sollte sie keine 700 mio Transistoren benötigen.

boxleitnerb
2007-02-22, 14:39:18
Und aus was besteht ein Speicherinterface, aus was bestehen Pipelines, aus was besteht Speicher? Alles Schaltelemente und die brauchen Saft. Was meinst du denn, was man die ganze Zeit gemacht hat? Vergleich doch mal den R300 und den G80 nach den reinen Specs her.
Fällt dir was auf?

Erst willst du nur Takt erhöhen und bessern Speicher dranklatschen, dann willst du die Einheiten aufstocken - du widersprichst dir doch selber! Irgendwie bekomme ich den Eindruck, dass du keine Ahnung hast.

Spasstiger
2007-02-22, 14:39:45
Wie schnell wäre denn eine hypothetische, mit 800 MHz GPU und 2 GHz GDDR4 "9700 Pro"? Ich glaub gar nicht mal so langsam, aber viele Transistoren hätte sie dann trotzdem nicht...
Die wäre etwa so schnell wie eine Radeon X850 XT PE. Reicht dir das für Crysis?

Gast
2007-02-22, 14:43:49
Und aus was besteht ein Speicherinterface, aus was bestehen Pipelines, aus was besteht Speicher? Alles Schaltelemente und die brauchen Saft.

Scheinbar verstehst du mich nicht. Sie bräuchten aber immer noch wesentlich weniger, als G80 oder R600 verbraten... eben weil auf den neuartigen firlefanz komplett verzichtet wurde.

Passt zwar nicht ganz hier rein, soll aber nur zur Verdeutlichung dienen: Northwood > Prescott. Zweiterer hat mehr Transistoren, braucht mehr Strom, ist dadurch aber nicht gleich schneller.

Gast
2007-02-22, 14:45:13
Die wäre etwa so schnell wie eine Radeon X850 XT PE. Reicht dir das für Crysis?

Keine Ahnung was ihr mit Crysis habt... ich hasse solche Spiele. ;)

Aber ich beschränkte mich ja auch nicht auf GPU und Speicher... auch Interface, Speichermenge, Recheneinheiten wären erhöht...

boxleitnerb
2007-02-22, 14:46:16
Passt wirklich nicht hier rein :)

Was ist deiner Meinung nach der neuartige Firlefanz? Glaubst du, es gibt DX10 zum Spass, neue AA Modi, besseres AF?

Bitte, das wird nur noch peinlich.

Edit: Wo sitzen bei dir die Recheneinheiten und das Speicherinterface? Im Äther?

Gast
2007-02-22, 14:48:20
neue AA Modi

... und das, obwohl noch nicht mal die bisherigen überall nutzbar sind.

Wieso hat man sich nicht erstmal darum gekümmert, die höchsten AA Modi überhaupt in den höchsten Consumerauflösungen performanter zu machen? Stattdessen kam halt wieder was neues, was nicht überall schnell genug ist...

VooDoo7mx
2007-02-22, 14:49:48
warum fühlt man sich immer dazu gezwungen, was neues einzubauen, anstatt ne kleinere Fertigung dazu zu verwenden, den Stromverbrauch zu senken:confused:
Das verstehe ich nicht!

Nehmen wir mal den G80. Wenn wir den in ein paar Jahren in 45, 32, 25.. nm herstellen, wäre er bedeutend billiger und sparsamer in der Herstellung.

Aber dies tut man nicht, stattdessen legt man einen neuen Chip mit wahrscheinlich mehr als eine Milliarden Transistoren nach. Aber wozu:confused:

Schon mal was von Mainstream/Performance Chips gehört?
Die bringen immer die Leistung der alten High End oder mehr bei weniger Stromverbrauch und neuen Features.

AMD und NV haben doch schon eine Abkehr von den Stromfressern für die nächste Generation angekündigt. Also wird man zumindest in der Richtung wohl beim G90/R700 etwas Positives erwarten dürfen.


Achja wo denn?

ATi/AMD und nVidia werden dann 3mal mit dem magischen Zauberstab wedeln und schon verbraucht die nächste High End Platine mit einen Chip, der fast eine Milliarde Transistoren Logik hat, nur noch 30 Watt Strom.

Der Zauberstab bricht quasi die Gesetze der Physik.
Ich will auch so ein Teil, damit kann man sicher durch Raum und Zeit reisen. :ugly:

boxleitnerb
2007-02-22, 14:50:22
I beg to differ. Alte Spiele profitieren sehr wohl davon. Und jemand, der in einer "Consumerauflösung" spielt, kauft sich auch keinen G80, sondern einen G82,84,86 oder sowas. Und der hat dann auch keine Probleme mit 150+ Watt.

mapel110
2007-02-22, 14:56:17
Der genaue Mittelweg...

Man kann ja ruhig die Leistung durch zusätzliche Recheneinheiten erhöhen. Aber warum z.B. immer gleich verdoppeln und so? 50 % mehr hätten es ebenso getan... für die Enthusiasten gäbe es dann halt weiterhin die teureren "Open End" Produkte...
Versteh nicht, was du willst. Das gibts doch.

Bestimmtes Ziel (gehobene MittelklasseGPU, die schneller als altes High End ist) mit möglichst geringen Mitteln erreichen. Mittel=günstiger Fertigungsprozess (entweder neu und deshalb mehr Chips pro Wafer oder ausgereift und weniger Ausschuss).

Gast
2007-02-22, 14:56:30
Alte Spiele profitieren sehr wohl davon.

Und für alte Spiele kaufe ich mir eine High End Karte der nächsten Generation?

Die höchste Consumerauflösung ist momentan 2560x1600 auf den 30" TFTs... das ist noch gut bezahlbar.

Aber wie bitte, will man mit einer Karte, die für diese Generation von Spiele (DX9) entwickelt wurde, dort sinnvoll 2560x1600 mind. 6xAA 16x AF nutzen? Da sind selbst zwei 1950er im CF Mode sehr wenig.

Und der hat dann auch keine Probleme mit 150+ Watt.

Ich bin High End Käufer, habe aber sehr wohl Probleme mit der Leistungsaufnahme. Pauschalisierungen sind hier nicht angebracht.

Spasstiger
2007-02-22, 15:01:29
Wieso hat man sich nicht erstmal darum gekümmert, die höchsten AA Modi überhaupt in den höchsten Consumerauflösungen performanter zu machen? Stattdessen kam halt wieder was neues, was nicht überall schnell genug ist...
Die AA-Performance wird ständig gesteigert, indem mehr Füllrate, mehr Bandbreite, bessere z-Kompression, bessere Samplemasken durch höheres Auflösungsvermögen des Triangle-Setup, etc. bereitgestellt werden.
Nur braucht das halt alles natürlich auch mehr Transistoren und mehr Leistungsaufnahme.

boxleitnerb
2007-02-22, 15:02:15
Dann steckst du halt zurück und spielst nicht auf deinem 30" Display mit diesen Einstellungen. Wie gesagt: Ich würde auch eine geringere Leistungsaufnahme begrüssen, aber wenn du Leistung willst, dann musst du die ja auch irgendwie erreichen. Zwangsläufig kommen dabei mehr Transistoren bei raus, das kannst du wenden und drehen wie du willst.

Natürlich kaufe ich mir keinen G80/R600, um GTA3 mit Wahnsinnsqualität zu fahren. Aber es ist ein netter Nebeneffekt. Warum also weglassen?
Und nur, weil etwas für DX9 entwickelt wurde, heisst es noch lange nicht, dass man ALLE DX9 Spiele mit Maximalsettings spielen kann. DX9 gibt dir ein Featureset und keine Grundgeschwindigkeit an. Die ist abhänging von vielen anderen Grössen, die es zu beeinflussen gilt.

Und wenn du Highendkäufer bist, warum dann vorhin das mit der getweakten 9700er? Viel Spass mit 1fps bei deinen 2560x1600...

Gast
2007-02-22, 15:07:13
Nur braucht das halt alles natürlich auch mehr Transistoren.

Das ist mehr als logisch, aber dennoch wird schon Jahre bevor das alte Verfahren ausgereizt ist, etwas neues eingeführt, was jedoch weitere Ressourcen in Anspruch nimmt.

Da könnte man glatt ne Umfrage starten: Wie lang wird es noch dauern, bis alle bisherigen DX9 Titel mit maximalen Settings flüssig spielbar sind?

Und wenn du Highendkäufer bist, warum dann vorhin das mit der getweakten 9700er?

Ich habe diese Karte nicht genannt, das war jemand anderes.
Außerdem diente es lediglich zur Veranschaulichung. Nicht alles für Bare Münze nehmen...

Spasstiger
2007-02-22, 15:12:32
Da könnte man glatt ne Umfrage starten: Wie lang wird es noch dauern, bis alle bisherigen DX9 Titel mit maximalen Settings flüssig spielbar sind?
Was sind maximale Settings für dich? Mit zwei 8800 GTX im SLI lässt sich in meinen Augen alles bei prächtiger Optik flüssig spielen, solange die CPU genug hergibt (und da brauchts halt manchmal nen Core 2 Duo @ 4 GHz).
Dass man in 2560x1600 mit 64xSLI-AA auch mit 8800 GTX SLI Probleme bekommen kann, sollte niemanden wundern. Ein Quake 3 würde in dieser Einstellung aber sicherlich noch flüssig laufen.

boxleitnerb
2007-02-22, 15:14:50
Sorry, aber bei dem, was du teilweise gesagt hast, kann ich Fantasie von "Wissen" nicht unterscheiden und muss dich deshalb beim Wort nehmen.

Entwicklung ist eben fliessend. Punkt. Es wäre schlimm, wenn dem nicht so wäre, denn dann könnte man auf grafisch hervorragende Spiele, die neue Techniken implementieren, lange warten. Dann hättest du kein Parallax Mapping, kein Displacement Mapping und und und, weil man sich auf ein Techlevel festreitet.
Nur wie gesagt: Das sagt nicht unbedingt was aus. Du kannst die Texturgrösse und Polygonzahl ununterbrochen erhöhen, dann steckst du fest. Denn dann kannst du NIE ein DX9 Spiel flüssig spielen.

Entwickler bekommen experimentelle Hardware, und bei denen laufen die Games anfangs auch teilweise im einstelligen Bereich. Aber sie haben neue Techniken, mit denen sie rumprobieren können. Beim Release hast du tolle Bildqualität bei oft mässiger Performance, ausser im absoluten High-End Segment, wo man SLI oder CF hat und masslos übertaktet. Ein Jahr später läufts dann schon viel besser.

Ich will nicht wissen, wann man Grafikpracht wie (ja, jetzt kommts wieder) Crysis bestaunen könnte, wenn man es so machen würde, wie du vorschlägst. 2020?

Gast
2007-02-22, 15:15:51
Aber wie bitte, will man mit einer Karte, die für diese Generation von Spiele (DX9) entwickelt wurde, dort sinnvoll 2560x1600 mind. 6xAA 16x AF nutzen? Da sind selbst zwei 1950er im CF Mode sehr wenig.


Wer dir doch erstmal klar, was du willst.
Willst du Leistung für heutige und zukünftige Spiele oder willst du Leistung, um alte Spiele besser aussehen zu lassen.
Ein r300 mit 800MHz wäre ca. so schnell wie eine 6800Ultra, jedoch nur mit dem SM2.0.

Gast_der_Dritte
2007-02-22, 15:50:04
Ich weiss gar nicht was du dir für Sorgen machst.
Der Stromverbrauch wird in den mächsten Jahren durch neue Bauelemente und Baustoffe sinken. Es wird in Zunkunft auch im Grafiksegment auf Mehrkerntechnik gesetzt, so dass in 2D-Umgebungen der Verbrauch in Richtung 20W tendieren wird. Die Kühlung wird durch Kohlenstoffnanoröhren wieder in vernünftige Bahnen gelenkt. Die Leistung wird solange steigen bis wir Realität und Illusion nicht mehr auseinanderhalten können. AA wird in immer niedrigeren Stufen gebraucht, da die Auflösung immer weiter steigt. Raytracing kommt.

Wenn du das alles nicht willst, ja dann hast du auch keine Lust auf Fortschritt. Nur dann solltest du dir ernsthafte Gedanken über ein Domizil weit weg der menschlichen Zivilisation machen. Habe gehört auf dem Mond soll es um die Jahreszeit recht kühl sein......Skifahren? ;-)

Gast
2007-02-22, 16:00:21
Es wird in Zunkunft auch im Grafiksegment auf Mehrkerntechnik gesetztGPUs bestehen eigentlich schon immer aus mehreren Pixelprozessoren. Ich sehe auch keinen Sinn darin diese auf mehrere Dice zu verteilen.

Anarchy-HWLUXX
2007-02-22, 16:37:35
warum fühlt man sich immer dazu gezwungen, was neues einzubauen, anstatt ne kleinere Fertigung dazu zu verwenden, den Stromverbrauch zu senken:confused:
Das verstehe ich nicht!


Weil du in der Falschen leistungsklasse suchst ... ne 7600GT hat bei viel geringerem Stromverbrauch die Power einer 6800 Ultra - da hast du deinen gesenkten Stromverbrauch.

Gast
2007-02-22, 16:42:42
ne 7600GT hat bei viel geringerem Stromverbrauch die Power einer 6800 Ultra - da hast du deinen gesenkten Stromverbrauch.

Die taugt aber nicht als richtige Gamerkarte für hohe Auflösung und AA.

Bleibt doch bitte mal beim Thema, wenn es geht. :)

MSABK
2007-02-22, 16:43:14
Wenn ich überleg das der G80 knapp 700 mio. Transistoren hat, dann müßte ja die G90 knapp 1,4 mrd. haben.:eek:

Gast
2007-02-22, 16:55:01
Wenn ich überleg das der G80 knapp 700 mio. Transistoren hat, dann müßte ja die G90 knapp 1,4 mrd. haben.:eek:

Da meinst du wohl eher den G100, G90 kommt höchstwahrscheinlich noch dieses Jahr und ist eher soetwas wie NV40->G70.

Showtime
2007-02-22, 17:26:46
ATi/AMD und nVidia werden dann 3mal mit dem magischen Zauberstab wedeln und schon verbraucht die nächste High End Platine mit einen Chip, der fast eine Milliarde Transistoren Logik hat, nur noch 30 Watt Strom.

Der Zauberstab bricht quasi die Gesetze der Physik.
Ich will auch so ein Teil, damit kann man sicher durch Raum und Zeit reisen. :ugly:

Weiß nicht mehr wo ich es gelesen habe, ist schon ein Weilchen her. Wenn du lieb fragst suche ich mal danach!

Und übertreib nicht so mit deinen Werten, so meinte ich das nicht und das weißt du ;).

BlueNinja
2007-02-24, 20:09:00
moin zusammen,

ich würde mal sagen, dass es einfach am Verhalten der Menschheit liegt :) ...wir wollen die besten Produkte...mit maximaler Leistung und zukunftssicheren Features bei möglichst geringem Verbrauch und Komplexität....doch wir sehen nicht ein, dass wir einfach noch nicht soweit sind. In 5 Jahren kann eine Low-End Karte mit 30Watt Verbrauch vllt. nen G80 abhängen ...und das vllt. sogar mit weniger Transistoren....aber bis dahin ist die Technik auch um längen weiter.
Es ist ja jedem selbst überlassen, ob er nun diese "State-of-the-Art" Grafikkarten kauft .... Man kann sich auch einfach eine Mid-Range Karte mit guter Leistung bei akzeptablen Verbrauch kaufen die die Leistung einer High-End Karte von vor 2 Jahren hat und die etwas älteren Games dann bei max. Qualität bzw. die heutigen Games bei ausreichender Qualität spielen.
Wenn die Grafikkartenhersteller immer nur an den Verbrauch und Komplexität denken würden, dann wäre ein Grafikchip vom Schlage G80 heutzutage undenkbar. ... Und um ehrlich zu sein glaube ich auch nicht, dass wir schon bereit sind für solche Monster...
Ein Grafikfetischist, dem der Verbrauch bzw. Preis egal ist, der kann sich diese "Zukunfts-Technik" schon heute holen ...wenn's ihm gefällt.

(Hoffentlich habe ich nun nicht zuviel wirres Zeug geschrieben)

MfG,
BlueNinja.

Gast
2007-02-24, 22:37:06
Hallo,

ist es nicht die Firma Apple, die für alle möglichen Beschleunigungen bei Bild-, Video- und auch Musikbearbeitung etc. direkt die Power der Grafikkarte mitbenutzt? So etwas finde ich durchaus interessant und auch angebracht! Nicht nur unsere 3d Spiele beschleunigen sondern auch alle anderen Programme die davon profitieren können... (natürlich inclusive der diversen "Desktop"-Effekte)...

Tigerchen
2007-02-25, 08:09:26
Weils einfach ist, in die Breite zu skalieren. Man bastelt an der Pipe/USC ein wenig rum und vervielfacht dann das Ganze.
Wer dann ein Stromsparwunder will, kann sich doch die kleineren Modelle kaufen, muss dann aber auch mit weniger Leistung rechnen.
Es gibt doch 7600er, 1600er usw...


Was ich auch tue. Ic hschau nur noch mitleidig auf Tombman&Co. die alle Nase lang richtig Geld für High-End ausgeben. Ich kauf mir nur noch die etwas besseren Mittelklassemodelle und komm auch gut klar.

noch ein Gast
2007-02-25, 11:29:17
Was heute als Transistorenmonster bezeichnet wird ist eigentlich lächerlich winzig und preiswert im Vergleich zu dem, was dabei herauskommen würde, wenn GPUs wirklich nur für maximale Leistung bei minimalem Stromverbrauch gemacht würden. Mehr Transistoren brauchen linear mehr Strom, mehr Takt auch. ABER mehr Takt brauch auch mehr Spannung, und hier steigt der Stromdurst quadratisch. Wollte man das gleiche Tempo wie heutiges Highend mit heutiger Technologie bei geringerem Stromdurst haben bräuchte man viel mehr Transistoren, um den geringeren Takt und so die geringere benötigte Spannung auszugleichen. Machbar? Klar, aber bei dem beschissenen Yield wären die Preise für solche Grakas astronomisch verglichen mit den heutigen. Die heutzutage angebotenen Kompromisse aus Leistung, Preis und Stromverbrauch sind vernünftiger als mancher denkt.

Gast
2007-02-25, 12:38:20
warum fühlt man sich immer dazu gezwungen, was neues einzubauen, anstatt ne kleinere Fertigung dazu zu verwenden, den Stromverbrauch zu senken:confused:

Ist dir schonmal aufgefallen, dass die Rechenleistung der Grafikchips verglichen mit CPUs wesentlich schneller gestiegen ist über die letzten Jahre? Woran liegt das wohl? Nun ganz einfach, während die CPU Hersteller relativ selten neue Architekturen herausbringen und zwischendurch lediglich Fertigungsprozess und Taktfrequenz (vielleicht noch Speicheranbindung und Cachegröße) ändern, überschlagen sich die GPU Hersteller in Sachen Design förmlich.
Schau dir einfach mal an, wie stark die Anzahl der Renderpipelines der Grafikchips gewachsen ist und weiter wächst. Dafür gehen Transistoren ohne Ende drauf und dadurch steigt die Leistungsfähigkeit neuer Grafikgenerationen gewaltig.

Wenn du dir wünschst, dass GPU Hersteller lediglich am Fertigungsprozess und der Speicheranbindung drehen, dann musst du gleichzeitig den eher gemächlichen Geschwindigkeitsfortschritt von CPUs hinnehmen. Vergleiche dazu mal die Rechenpower (sofern überhaupt sinnvoll vergleichbar) einer GPU und CPU von vor 5 Jahren mit heute gängigen GPUs und CPUs.

Sandratte
2007-02-25, 21:57:29
es gibt Heute schnellere / Stärkere Auto´s, die im durchnitt weniger Verbrauchen als die Auto´s 15 Jahre davor...und wenn Du dann "strom" sparen willst, kaufst Dir halt nen Kleinwagen mit TDI Motor!!
das ist der bessere "zum Auto" Vergleich ;)

Roi Danton
2007-02-26, 01:01:46
Das ist mehr als logisch, aber dennoch wird schon Jahre bevor das alte Verfahren ausgereizt ist, etwas neues eingeführt, was jedoch weitere Ressourcen in Anspruch nimmt.Ich finde es auch empörend, dass die Dampfmaschine von elektrischen Antrieben, Diesel- und Ottomotoren verdrängt wurde, obwohl das Verfahren der Dampfmaschine von material- und kontruktionstechnischer Seite noch lange nicht ausgereizt gewesen ist. :rolleyes:

Gast
2007-02-26, 01:46:07
Wir sind hier in einem Hardwareforum. Es wäre nicht schlecht, wenn ihr eure Beispiel auf Hardware beschränkt. Alles andere ist sinnlos, nicht vergleichbar und Spam.

=Floi=
2007-02-26, 03:55:18
das problem ist doch einfach dass ein ausreizen der technologie eher zu problemen führt als ein neues design

siehe R580 mit 650mhz, die 5800er von nv
P4/P D mit 3,8ghz, A64 X2 mit 3ghz

es scheitert ja eben auch weniger an der leistung sondern an den features!
pixel und vertex shader rücken immer mehr in den mittelpunkt
das sieht man auch aktuell am R580 (und G80) bei den neuen spielen...