PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : NV40 210 Mill. Transistoren - 16 Pipes?


Seiten : 1 [2]

Godmode
2004-02-29, 01:59:16
Es ist ja bis jetz noch nicht fix ob Ati wirklich keine PS 3.0 bieten wird, aber wie eben Demirug herausfand dass wenn er mit dem ATI-Tool "Ashly" eine IF-Anweisung drinnen hat und das R420 Profil verwendet, es nicht funktioniert (Compiler bricht ab). Und von der Bandbreite her können wir ja genau sowenig sagen wie von allen anderen Details. Wenn es bis zum NV40 wirklich noch länger dauert, könnte ich mir vorstellen das sie dann schon ne größere Menge GDDR3 800 MHz Ram haben den sie dann auf die Boards pflanzen!! Bei X-Bit gab es ja ne Meldung das GDDR3 800 MHz Ram in die Serien Fertigung ging. Es ist einfach noch fast alles Spekulation und auf jede neue News wird gleich losgehackt wie Bluthunde auf ihre Beute :). Das Problem dabei ist dann, dass man sich öfters auf Dinge festsetzt die eigentlich völlig falsch sind. Schön wärs ja für Nvidia wenn sie wirklich so nen tollen Chip mit 210 MIO Transistoren bringen würden, aber ob das dann wahr ist oder nicht werden wir wohl erst in einigen Wochen erfahren. Man hört ja von verschieden Leuten dass sie sich noch nie so sehr auf ein neues Nvidia Produkt gefreut haben als jetzt, von Leuten die was wissen könnten. Ich bin auch der Meinung das der NV40 wieder ein sehr gutes Produkt wird, da sich Nvidia nicht noch so einen Patzer wie mit dem NV30 leisten kann. Aber was letzten Endes rauskommt werden wir sicherlich bald erfahren.

aths
2004-02-29, 02:02:53
Original geschrieben von bans3i
Es ist ja bis jetz noch nicht fix ob Ati wirklich keine PS 3.0 bieten wird,Würde R420 PS_3_0 können, wüsste ich das.

MadManniMan
2004-02-29, 02:15:11
Original geschrieben von aths
Würde R420 PS_3_0 können, wüsste ich das.

...weil?

Godmode
2004-02-29, 02:17:24
Original geschrieben von aths
Würde R420 PS_3_0 können, wüsste ich das.

Ich möchte jetzt mal wissen von wo her ihr dass alles wisst? Was muss ich da machen um solche „Insider-Infos“ zu bekommen? Ok, ihr habt sicher alle ein NDA unterschreiben müssen, aber wie komme ich überhaupt dazu solche streng geheimen Daten zu erfahren? Vielleicht weil ihr die einzige Site im Deutschsprachigem Raum ist die sich wirklich gut mit 3D-Grafik auskennt? Und weil ihr Reviews schreibt die sich dann viele Leute durchlesen?

Tigerchen
2004-02-29, 05:28:19
Original geschrieben von aths
Würde R420 PS_3_0 können, wüsste ich das.
----------------------------------------------
Original geschrieben von bans3i
Ich möchte jetzt mal wissen von wo her ihr dass alles wisst? Was muss ich da machen um solche „Insider-Infos“ zu bekommen? Ok, ihr habt sicher alle ein NDA unterschreiben müssen, aber wie komme ich überhaupt dazu solche streng geheimen Daten zu erfahren? Vielleicht weil ihr die einzige Site im Deutschsprachigem Raum ist die sich wirklich gut mit 3D-Grafik auskennt? Und weil ihr Reviews schreibt die sich dann viele Leute durchlesen?


Aths weiß nichts. Er schießt nur ins Blaue. Darum liegt er ja auch so oft daneben. Bis vor kurzem meinte er nämlich noch daß der R420 Shader 3.0 haben müßte. Und 8 Pipelines waren ihm auch viel zu wenig für den R420.
Aber wir sind ja im Spekulationforum und da wird eben ordentlich spekuliert.=)

Sphinx
2004-02-29, 05:38:46
z.zt. wird spekuliert und benzin ins spekulationforum geworfen wie schon lange nicht mehr...

Vielen denken sie wissen was und alle wissen sie am ende wieder nichts...

Warten wir es ab dann wissen wir wer hier einige stichhaltige spekulationen abgegeben haben oder nicht...

Die besten Spekulationen der Teilnehmer sollte man mal als STICKY in einem Thread festhalten...

und nachdem der R420(AGP), R423(PCI-Express) und der NV40 + NV45... released worden sind können wir mal vergleichen was die ERWARTUNGEN + SPEKULATIONSMELDUNGEN mit der Wahrheit übereinstimmend war.

LovesuckZ
2004-02-29, 08:40:58
Original geschrieben von MadManniMan
BTW @LS: du beschwerst dich im Vornherein darüber, daß sich wohl darüber mukiert werden würde, wie unsinnig noch besseres AA, als das 6*SG vom R3X0 ist, sodenn nV eben als Qualisieger aus dem Wettkampf geht?

Bin ich der einzigste der sieht, dass viele hier im Forum nicht in der Lage sind, Posting von anderen richtig zu verstehen?

DU warst es, der sich mittels eines Chaser-Screenies (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=978396#post978396) über Sinn und Unsinn von 4*RG lustig machte. Bist doch nicht ganz so objektiv, wie du dich grad darstellst, gell? ;)


Nun, habe ich die Erkenntnis in Chaser auf andere Spiele übertragen? Was tut dies zur hier Sache?

/edit: Wenn ich mir mein Post angucke, hast du gerade voll daneben gegriffen. Dann trifft wohl das obere genau... :|

Demirug
2004-02-29, 09:15:53
Um mal wieder ein paar Denkanstösse zu geben. Da ich noch kaum was weiss kann ich das ja tun.

Könnte man alles was rechnen und Texture auslesen kann als Pipeline bezeichnen?

Macht es Sinn so viele ROPs zu haben das diese mehr Daten pro Takt produzieren können als Bandbreite zur Verfügung steht?

An welcher Stelle kann man früstens Z,Stencil und Farb Daten komprimieren?

Welchen Vorteil hat "breit und kurz" gegenüber "schmall und lang" unter besonderer Berücksichtigung von Shader 3.0 Fähigkeiten?

AlfredENeumann
2004-02-29, 09:50:37
Original geschrieben von Sphinx
Die besten Spekulationen der Teilnehmer sollte man mal als STICKY in einem Thread festhalten...

und nachdem der R420(AGP), R423(PCI-Express) und der NV40 + NV45... released worden sind können wir mal vergleichen was die ERWARTUNGEN + SPEKULATIONSMELDUNGEN mit der Wahrheit übereinstimmend war.

Wäre beim NV30 superlustig geworden

Ailuros
2004-02-29, 10:22:06
Original geschrieben von Sphinx
z.zt. wird spekuliert und benzin ins spekulationforum geworfen wie schon lange nicht mehr...

Vielen denken sie wissen was und alle wissen sie am ende wieder nichts...

Warten wir es ab dann wissen wir wer hier einige stichhaltige spekulationen abgegeben haben oder nicht...

Die besten Spekulationen der Teilnehmer sollte man mal als STICKY in einem Thread festhalten...

und nachdem der R420(AGP), R423(PCI-Express) und der NV40 + NV45... released worden sind können wir mal vergleichen was die ERWARTUNGEN + SPEKULATIONSMELDUNGEN mit der Wahrheit übereinstimmend war.

Keine schlechte Idee ;)

Evil Ash
2004-02-29, 10:42:38
//Original geschrieben von Evil Ash
//prozentrechnung ist auch nicht so deine stärke, oder ?

Original geschrieben von Xmas
Etwa deine?



hä, es ging darum, dass 600% nicht das 6x ist.
oder ist das bei dir etwa so ???

Godmode
2004-02-29, 10:52:31
Original geschrieben von Demirug

Welchen Vorteil hat "breit und kurz" gegenüber "schmall und lang" unter besonderer Berücksichtigung von Shader 3.0 Fähigkeiten?

Also daruber lässt sich sicher auch sicher streiten!! Wenn ich jetzt ne mächtig lange Pipeline habe, zb wie beim Prescott mit 30 Stufen dann habe ich ja den Vorteil das die einzelnen Aufgaben viel einfacher sind und dadurch schneller zu bewältigen sind. Also es sind mehr spezialsierte Einheiten am arbeiten die aber ihren Teil zb 20 mal schneller abarbeiten können als andere Einheiten. Aber das Problem ist nun mal wieder Branching, wenn ich jetzt zb mitten im Programm eine Entscheidung treffe dann kann es ja passieren das der ganze Inhalt der Pipeline verworfen werden muss, und bis die Pipeline dann wieder voll ist und hinten was rauskommt dauert wieder gewisse Takte. Deshalb wäre es hier von Vorteil eine sehr gute Sprung-Vorhersage zu implementieren, weil sonst das ganze Konzept mit vielen Pipelinestufen ineffizient ist, wenn die Pipeline die halbe Zeit leer ist!! Ich glaube bei irgendeinem AMD Prozessor ich glaube das war der K6 hat die Sprun-Vorhersage zu fast 100 % getroffen!! Also wenn das auf eine GPU übertragbar wäre würde ich schon sage das eine lange Pipe besser ist

Feuerteufel
2004-02-29, 11:17:47
Original geschrieben von Evil Ash
//Original geschrieben von Evil Ash
//prozentrechnung ist auch nicht so deine stärke, oder ?




hä, es ging darum, dass 600% nicht das 6x ist.
oder ist das bei dir etwa so ???

Bei mir schon.

reunion
2004-02-29, 11:22:10
Original geschrieben von Feuerteufel
Bei mir schon.

Bei mir auch. ;D

deekey777
2004-02-29, 11:32:03
Eine Steigerung um 600% ist die 6x Steigerung. Eine Steigerung auf 600 % (von 100% auf 600% ->um 500%) ist eine fünfache Erhöhung der Leistung.

Zum Thema: Egal wer es geschrieben hat, steht immer bis zu xxx-fache Leistung des Vorgängers in HL2. Das ist gar nicht so abwegig, wie es schon festgestellt wurde. Das gleiche auch bei Doom 3 ->bis zu 4fache Leistung des Vorgängers.

Gast
2004-02-29, 11:37:01
Original geschrieben von deekey777
Eine Steigerung um 600% ist die 6x Steigerung. Eine Steigerung auf 600 % (von 100% auf 600% ->um 500%) ist eine fünfache Erhöhung der Leistung.


Würde mal sagen, das ist genau umgekehrt:

Verdopplung = Erhöhung um 100% = Erhöhung auf 200%

deekey777
2004-02-29, 11:44:18
Original geschrieben von Gast
Würde mal sagen, das ist genau umgekehrt:

Verdopplung = Erhöhung um 100% = Erhöhung auf 200%

Steht doch bei mir genau das gleiche.

Gast
2004-02-29, 11:45:20
@ bans3i

Sorry das soll jetzt kein Flame werden.
Aber könntest du vieleicht in deinen geschriebenen Texten die sich über ein paar Zeilen hinstrecken ein paar Absätze oder sowas einbauen. Manchmal ist es echt schwer zu lesen.

Gast
2004-02-29, 12:08:19
Original geschrieben von deekey777
Steht doch bei mir genau das gleiche.

Du schriebst in deinem Posting sinngemäß:
Verfünffachung = Erhöhung um 500% = Erhöhung auf 600%

Richtig ist aber:
Versechsfachung = Erhöhung um 500% = Erhöhung auf 600%

b = a + a * 5 = a * 6

Demirug
2004-02-29, 12:25:36
Original geschrieben von bans3i
Also daruber lässt sich sicher auch sicher streiten!! Wenn ich jetzt ne mächtig lange Pipeline habe, zb wie beim Prescott mit 30 Stufen dann habe ich ja den Vorteil das die einzelnen Aufgaben viel einfacher sind und dadurch schneller zu bewältigen sind. Also es sind mehr spezialsierte Einheiten am arbeiten die aber ihren Teil zb 20 mal schneller abarbeiten können als andere Einheiten. Aber das Problem ist nun mal wieder Branching, wenn ich jetzt zb mitten im Programm eine Entscheidung treffe dann kann es ja passieren das der ganze Inhalt der Pipeline verworfen werden muss, und bis die Pipeline dann wieder voll ist und hinten was rauskommt dauert wieder gewisse Takte. Deshalb wäre es hier von Vorteil eine sehr gute Sprung-Vorhersage zu implementieren, weil sonst das ganze Konzept mit vielen Pipelinestufen ineffizient ist, wenn die Pipeline die halbe Zeit leer ist!! Ich glaube bei irgendeinem AMD Prozessor ich glaube das war der K6 hat die Sprun-Vorhersage zu fast 100 % getroffen!! Also wenn das auf eine GPU übertragbar wäre würde ich schon sage das eine lange Pipe besser ist

Die Sprungvorhersage stellt für eine GPU kein Problem dar weil sie nichts vorhersagen muss. GPUs arbeiten massiv multithreaded aus diesem Grund liegen zu dem Zeitpunkt bei dem der Sprung ausgewertet werden muss alle Grunddaten dafür vor.

Desweiteren muss man bei einer GPU auch davon ausgehen das die Pipeline nicht nur aus einer Funktionseinheit besteht sondern viele hintereinader gekettet sein.

z.B. NV3X Shadercore->TMUs(2)->Shader Backend->Combiner1->Combiner2

Eine solche Pipeline wird immer am Stück komplett durchlaufen. Ein einziger Befehl steuert dabei alle Teilfunktionen. Ein Pipelinebefehl entspricht daher leicht bis zu 4 einzelnen Shaderoperationen. Ein Sprung kann nur auf der Ebene der Pipelinebefehle durch geführt werden.

Deswegen also nochmal die Frage. Eine lange Pipeline oder viele kurze Pipelines. Was ist besser?

LovesuckZ
2004-02-29, 12:27:45
Original geschrieben von Demirug
Deswegen also nochmal die Frage. Eine lange Pipeline oder viele kurze Pipelines. Was ist besser?

bedeutet "viele kurze Pipelines", dass an meheren Stellen gleichzeitig gearbeit werden und man diese besser füllen koenne (also keine Blasen)?

Godmode
2004-02-29, 12:29:39
Original geschrieben von Gast
@ bans3i

Sorry das soll jetzt kein Flame werden.
Aber könntest du vieleicht in deinen geschriebenen Texten die sich über ein paar Zeilen hinstrecken ein paar Absätze oder sowas einbauen. Manchmal ist es echt schwer zu lesen.

Ja ok kann ich machen, danke für den guten Tip

Xmas
2004-02-29, 12:31:22
Original geschrieben von Evil Ash
hä, es ging darum, dass 600% nicht das 6x ist.
oder ist das bei dir etwa so ???

Originaltext:
Spezielle Berechnungen bei Half-Life 2 soll die neue Geforce (Codename NV40) bis zu 600 Prozent schneller...

Text vom Gast:
sind wohl nicht 600mal sonder 600%.
das entspricht 6 mal schneller.

Passt doch: 600 % schneller = 6x schneller = Steigerung auf 700%

Demirug
2004-02-29, 12:35:15
Original geschrieben von LovesuckZ
bedeutet "viele kurze Pipelines", dass an meheren Stellen gleichzeitig gearbeit werden und man diese besser füllen koenne (also keine Blasen)?

Gearbeitet wird immer an allen Stellen. Das Blasenproblem bei den NV3X kommt ja daher das der Speicher nicht reicht.

wenn man nun aus einer 256 Stufen Pipeline 4 64 Stufen Pipelines macht ändert das nichts an diesem Problem. Die Speichermenge die benötigt wird bleibt gleich.

Die 4 fache Anzahl von Pipelines bedeutet as pro Takt auch die 4 fache Anzahl von Pixel in die Pipe ein und ausgeschleust werden kann.

Ich könnte die Frage auch so stellen:

Ist es besser bei 16 Pixel einen Shaderbefehl pro takt abzuarbeiten oder bei 4 Pixel jeweils 4 Befehle?

Godmode
2004-02-29, 12:47:35
Original geschrieben von Demirug

Ist es besser bei 16 Pixel einen Shaderbefehl pro takt abzuarbeiten oder bei 4 Pixel jeweils 4 Befehle?

Ist dass dann nicht das gleiche?

Xmas
2004-02-29, 12:58:40
Nein, wegen der Granularität.

robbitop
2004-02-29, 13:10:38
Granularität = Struktur???

tut mir leid, dieses Wort ist leider nicht in meinem Wortschatz enthalten. Was bedeutet es?

nächster Gast
2004-02-29, 13:16:15
Original geschrieben von Xmas
Originaltext:
Spezielle Berechnungen bei Half-Life 2 soll die neue Geforce (Codename NV40) bis zu 600 Prozent schneller...

Text vom Gast:
sind wohl nicht 600mal sonder 600%.
das entspricht 6 mal schneller.

Passt doch: 600 % schneller = 6x schneller = Steigerung auf 700%
Das klingt ein wenig schief für mich. Etwas kann 600% Leistung oder Gewicht von etwas haben - aber 600% schneller? Eher sechs mal schneller.
Schneller heißt doch weniger Zeit für die selbe Arbeit, mehr Prozent von etwas sind aber auch mehr.
Und die sechsfache Leistung ist nicht eine Steigerung auf 700%.
Sondern halt nur auf 600% der ursprünglichen Leistung.
6*1=6 und nicht sieben. trotzdem ist sechs das Sechsfache von eins. Also sechs mal so schnell ist gleich 600% Leistung.
Jemand eine andere Theorie? ;)

Salvee
2004-02-29, 13:25:36
Original geschrieben von robbitop
Granularität = Struktur???

tut mir leid, dieses Wort ist leider nicht in meinem Wortschatz enthalten. Was bedeutet es?

Struktur im Sinne von Einteilung des Ganzen in kleinere Einheiten zwecks besserer Auslastung.

Beispiel: Ein CBMC mit 8x32Bit/4x64Bit ist oftmals besser auszulasten (weniger Verschnitt) als ein 256Bit Interface (wie beim Parhelia).

Gibt bestimmt auch ein 'deutsches' Wort dafür, aber :ratlos:

robbitop
2004-02-29, 13:28:46
danke die Erklärung war wirklich gut :)
"deutsch" Verschnitt ??

mrdigital
2004-02-29, 13:32:49
Original geschrieben von robbitop
Granularität = Struktur???

tut mir leid, dieses Wort ist leider nicht in meinem Wortschatz enthalten. Was bedeutet es?
Granulartität sagt, wie fein etwas aufgelöst oder unterteilt ist. Beispiel Dateisystem und Clustergrösse - du hast i.d.R einen Verschnitt bei jeder Datei von Clustergrösse / 2. Das ist ist nicht schlimm, wenn du deine Festplatte mit 20 4GiB Files vollmachst, der Verschnitt ist dann (prozentual) winzig. Wenn du aber 100000000 5K Dateien auf der Platte hast und deine Clustergrösse ist bei 32k, dann hast du 27k Verschnitt pro Datei, da ist deine Platte nur mit Verschnitt voll. Deshalb ist es günstig, Blockgrössen zu wählen die 1-2 KiB gross sind. Das selbe kannste nun auf Verabeitungseinheiten übertragen, wenn du nur Riesenjobs hast ist es wurscht ob man nun eine lange Pipe oder 4 kleine Pipes nimmt aber wenn du mit vielen kleinen Tasks (Shadern) kommst, dann wird das 4 kleine Pipes Steup besser da stehen.

Feuerteufel
2004-02-29, 13:43:09
Original geschrieben von nächster Gast
Das klingt ein wenig schief für mich. Etwas kann 600% Leistung oder Gewicht von etwas haben - aber 600% schneller? Eher sechs mal schneller.
Schneller heißt doch weniger Zeit für die selbe Arbeit, mehr Prozent von etwas sind aber auch mehr.
Und die sechsfache Leistung ist nicht eine Steigerung auf 700%.
Sondern halt nur auf 600% der ursprünglichen Leistung.
6*1=6 und nicht sieben. trotzdem ist sechs das Sechsfache von eins. Also sechs mal so schnell ist gleich 600% Leistung.
Jemand eine andere Theorie? ;)

sechs mal schneller bedeutet aber auch 6 x soviel frames, somit stimmt die Rechnung mit mehr Prozent gleich höherer Wert.

Godmode
2004-02-29, 13:46:29
Also das klingt logisch!!

Evil Ash
2004-02-29, 13:55:32
Original geschrieben von Xmas
Originaltext:
Spezielle Berechnungen bei Half-Life 2 soll die neue Geforce (Codename NV40) bis zu 600 Prozent schneller...

Text vom Gast:
sind wohl nicht 600mal sonder 600%.
das entspricht 6 mal schneller.

Passt doch: 600 % schneller = 6x schneller = Steigerung auf 700%


ich will mich ja nicht streiten, aber :


100% schneller = 2x so schnell
200% schneller = 3x so schnell
.
.
600% schneller = 7x so schnell

robbitop
2004-02-29, 13:57:59
können wir das OT bitte in einen anderen Thread oder in die Grundschule verlegen bitte?

MadManniMan
2004-02-29, 13:58:07
Granulat, anyone? :| Begrifflichkeit aus Chemie, Tierfutterherstellung usw. ... nicht fein Zerstäubtes kram, aber doch recht klein in der Grundstruktur.

Xmas
2004-02-29, 18:22:45
Granularität hat mrdigital ja schon gut erklärt, es beschreibt generell die kleinstmögliche Unterteilung von etwas. Verschnitt ist das, was durch große Granularität entsteht.

Zu den Prozentzahlen:
"x ist 10% schneller als y" <—> x = y + 0.1 * y = 1.1 * y
"x ist 600% schneller als y" <—> x = y + 6 * y = 7 * y
"x ist 6x so schnell wie y" <—> x = 6 * y
"x ist 6x schneller als y" <—> x = y + 6 * y = 7 * y

Der Unterschied zwischen wie und als sollte bekannt sein. Damit ist für mich aber auch EOD.

nächster Gast
2004-02-29, 21:50:37
Original geschrieben von Xmas
... Zu den Prozentzahlen:
"x ist 10% schneller als y" <—> x = y + 0.1 * y = 1.1 * y
"x ist 600% schneller als y" <—> x = y + 6 * y = 7 * y
"x ist 6x so schnell wie y" <—> x = 6 * y
"x ist 6x schneller als y" <—> x = y + 6 * y = 7 * y

Der Unterschied zwischen wie und als sollte bekannt sein. Damit ist für mich aber auch EOD.
Ich glaube Du irrst. :)
Der Fehler liegt bei dem Unterschied zwischen "so schnell wie", "schneller als" und Prozent. Bei den zwei ersten kommt das selbe raus.
Beispiel: Eine Grafikkarte "y" errechnet 100 FPS, eine zweite Karte "x" ist sechs mal so schnell wie "y", also x=y*6=600 FPS - richtig?
Genauso verhält es sich mit Deinem zweiten Beispiel: Sechs mal schneller heißt sechsfache Leistung von "y", also wieder 600 FPS.
Original geschrieben von Xmas
"x ist 6x schneller als y" <—> x = y + 6 * y = 7 * y
Wo holst Du denn bei Deiner Gleichung das zweite "y" her?
Der Denkfehler liegt in der Bezeichnung "Prozent".
Prozent heißt nichts anderes als "Anteil von".
Man kann also 600% mehr Leistung, Gewicht, Alter... haben, also feste Einheiten mit denen man rechnen kann. Aber "schneller" ist keine Einheit, also kann ich auch keinen sechsfachen Anteil mehr davon haben. Oder es wäre eine Beschleunigung der Beschleunigung, dann sähe die Formel aber etwa so aus:
"z hat 600% mehr 'schneller' von x" <—> z = (x = (y + 6)*6)
Dann wäre die kommende nVidia-Karte allerdings sehr schnell. :D

Evil Ash
2004-02-29, 21:59:40
Original geschrieben von Xmas
Granularität hat mrdigital ja schon gut erklärt, es beschreibt generell die kleinstmögliche Unterteilung von etwas. Verschnitt ist das, was durch große Granularität entsteht.

Zu den Prozentzahlen:
"x ist 10% schneller als y" <—> x = y + 0.1 * y = 1.1 * y
"x ist 600% schneller als y" <—> x = y + 6 * y = 7 * y
"x ist 6x so schnell wie y" <—> x = 6 * y
"x ist 6x schneller als y" <—> x = y + 6 * y = 7 * y

Der Unterschied zwischen wie und als sollte bekannt sein. Damit ist für mich aber auch EOD.

irgendwie versteh ich deine "logik" nicht so ganz, aber ok.

ow
2004-02-29, 22:21:51
.

Quasar
2004-02-29, 22:30:59
Umgangsprachlich unterscheidet man "6x schneller als" und "6x schneller" aber nicht.

robbitop
2004-02-29, 22:40:59
hallo?
warum könnt ihr den OT Kram nicht woanders regeln?

ow
2004-02-29, 22:52:27
.

zeckensack
2004-02-29, 23:23:37
Original geschrieben von Quasar
Umgangsprachlich unterscheidet man "6x schneller als" und "6x schneller" aber nicht. Dafür gibt's ja auch den Begriff "6x so schnell", den leider kaum noch jemand zu kennen scheint :|

MadManniMan
2004-02-29, 23:30:01
Also richtig kompliziert wirds erst bei 600% mal so schneller :freak:

Gast
2004-03-01, 09:32:07
Ist in der aktuellen Ausgabe der Gamestar die Demo Version zu Colin McRae Rally 4 drin?

Tyler_Durden
2004-03-01, 10:32:36
Wayne? Falsches Topic würd ich mal sagen!

Hauwech
2004-03-01, 11:40:41
Wenn die Wurst doppelt so dick sein darf wie das Brot dann darf das Brot so dick sein wie es will!!

Mein Opa hatte immer eine Rolle Klopapier und eine Fleischwurst unterm Sitz...

Och Leute, zurueck zum eigentlichen Topic: In ein paar Wochen wissen wir wie schnell der NV40 und der R420 sein werden. :D

Gast
2004-03-01, 12:08:21
FUAD hat gesprochen:

http://theinquirer.net/?article=14433

CrazyIvan
2004-03-01, 12:24:43
Na toll.

Inquirer unterschreibt kein NDA und kriegt keine Infos. Der Rest kriegt Infos und darf sie nicht mitteilen. Die große Preisfrage lautet also: Auf wann ist das NDA datiert?

LovesuckZ
2004-03-01, 12:26:22
1.April ;D

MadManniMan
2004-03-01, 12:32:38
Original geschrieben von LovesuckZ
1.April ;D

Nee, kann nich sein. Der 1.04. isn Donnerstag, da kommt die Series5!

Ailuros
2004-03-01, 12:48:12
Original geschrieben von MadManniMan
Nee, kann nich sein. Der 1.04. isn Donnerstag, da kommt die Series5!

That's too specific to an unannounced product(tm)

aths
2004-03-01, 13:25:59
Original geschrieben von CrazyIvan
Na toll.

Inquirer unterschreibt kein NDA und kriegt keine Infos. Der Rest kriegt Infos und darf sie nicht mitteilen. Die große Preisfrage lautet also: Auf wann ist das NDA datiert? Die, die das NDA nicht kennen, wissen es nicht. Jene, die es kennen sollten, werden das nicht sagen dürfen, da sowas eigentlich immer Bestandteil des NDAs ist. Die, die es wissen aber nicht selbst unter NDA stehen, würden die Klappe halten (Quellenschutz.)

Was durch das Netz geistert, kann genauso gut richtig wie falsch sein. Man denke an NV40s Pipeline-Konfig: 8x2 -> 6x2 -> 16x?.

nggalai
2004-03-01, 13:59:30
Original geschrieben von CrazyIvan
Na toll.

Inquirer unterschreibt kein NDA und kriegt keine Infos. Der Rest kriegt Infos und darf sie nicht mitteilen. Die große Preisfrage lautet also: Auf wann ist das NDA datiert? Wie aths schon sagte, Daten sind hier Teil der NDA. Mit etwas Blick auf anstehende Veranstaltungen (Konferenzen, Aktionärsversammlungen, Messen und so) kann man aber meist gut abschätzen, wann eine NDA stirbt. Allerdings heisst das noch lange nicht, dass keine neue NDA nachgeliefert wird, für weitere Infos ... kurz gesagt: Auch das Datum wird dir keinen Aufschluss drüber geben, wann denn ein Produkt schlussendlich kommen wird.

Weiter kommt dazu, dass nix NVIDIA daran hindert, vor Ablauf der NDA selbst eine öffentliche Pressekonferenz abzuhalten oder eine Medienmeldung rauszulassen. Eine NDA ist immer einseitig, i.e. nicht "die unterzeichnenden Parteien willigen ein dass" sondern "der Unterzeichner willigt ein dass". Mein Zeitunterschiedsrekord liegt bei 3 Jahren: NDA 2002 unterzeichnet, expiry date 2005, die Firma hat dann schon 2003 die Sache rausgelassen. Und ich darf noch immer ned sagen, um welches Produkt es geht. :freak:

93,
-Sascha.rb

Gast
2004-03-01, 14:09:24
Hm, wenn die Meldung vom INq stimmen sollte. WAs könnten wir daraus für Schlüsse ziehen?
1. Dass ATi genau weiss was sie tun und ebenfalls wissen was Nvidia zu bieten hat und deshalb den R420 doch noch hinauszögern?
2. Sie haben Angst dass ihr Chip schon im Vorfeld schlechtgeredet wird und drum gibts keine neuen Infos??

Zwei Theorien und zu jeder gibts ne Meinung :)

PS: Dritte Theorie: FUAD halt ;)

Godmode
2004-03-01, 15:00:44
Original geschrieben von Gast
Hm, wenn die Meldung vom INq stimmen sollte. WAs könnten wir daraus für Schlüsse ziehen?
1. Dass ATi genau weiss was sie tun und ebenfalls wissen was Nvidia zu bieten hat und deshalb den R420 doch noch hinauszögern?
2. Sie haben Angst dass ihr Chip schon im Vorfeld schlechtgeredet wird und drum gibts keine neuen Infos??

Zwei Theorien und zu jeder gibts ne Meinung :)

PS: Dritte Theorie: FUAD halt ;)

1. Wenn sie wüssten, das ihr Produkt sicher viel schneller ist als dass von der Konkurenz, wüsste ich nicht warum man es auf der CeBit nicht zeigen sollte?

2. Das ist sicher ein gutes Argument, denn wenn der NV40 erst im Mai kommt, hat Nvidia und die Fachpresse genug Zeit um Mängel des R420 festzustellen und diese an den Prager zu hängen.

Meine Theorie:
Es könnte sein das sie wieder am gleichen Tag ihre Produkte vorstellen, und ATI muss noch auf Nvidia warten, weil die noch nicht ganz fertig sind. Man kann da wirklich nur spekulieren was die damit bezwecken wollen,würde ich mal sagen.

Godmode
2004-03-01, 15:12:45
"The R420 card -- powered with GDDR 3 and not DDR 2 as we previously said, even though GDDR3 is the same memory just clocked higher than 1000MHz"

Wie hoch werden sie den RAM takten:

meine Theorie:

ATI: 500-700 MHz -> vielleicht bin ich hier etwas zu konservativ, aber ATI hat beim RAM schon immer etwas gespart!!

NV: 700-800 MHz -> weil Nvidia immer den schnellsten und teuersten RAM verwendet den es gibt und ich könnte mir vorstellen das sie für die eher sowiso rare Ultra-Version 700-800 MHz Ram verbauen. Ich beziehe mich hier noch immer auf die X-Bit Meldung, dass GDDR 800MHz Ram in die Serienfertigung ging!

Demirug
2004-03-01, 15:30:08
Mal sehen wie lange es dauert bis auch Inq merkt das GDDR2 und GDDR3 sich doch noch etwas stärker unterscheidet.

Godmode
2004-03-01, 16:08:58
Original geschrieben von Demirug
Mal sehen wie lange es dauert bis auch Inq merkt das GDDR2 und GDDR3 sich doch noch etwas stärker unterscheidet.

Meinst hier diese Punkte:

GDDR3(GDDR2): 400Mhz x 4 x 32bit = 6,4 Milliarden Bytes pro Sekunde pro Chip.
@ 8 Chips = 51,2 GB/sec.

niedriegere Spannung -> weniger Verlustleistung -> geringere Abwärme -> einfacher zu kühlen

oder könnte Nvidia schon eine 512 Bit Anbindung an den Speicher bringen, dazu müssten sie dann 16 Chips verlöten oder? Ist zwar Schweine teuer (Oh Gott wenn ich mir da das PCB vorstelle, wieviel Layer da verwendet werden müsste), aber man weiss ja nie was die da so machen könnten!!

ice cool69
2004-03-02, 00:14:12
Die Diskussion über den NV40 erinnert mich irgendwie an die Diskussion R300 VS NV30.

Damals hat nvidia auch mit überlegenen technischen Daten und überlegenen (da weiterentwickelten) Shadern geprotzt und die nvidia-Fanboys haben sich schon nach der Megakarte die Hände geleckt die den R300 in den Boden Stampft (Dank Bruteforce und überlegener Technik). Was ist damals davon übrig geblieben?
Achja, AF 16x beherrschte schon der R200, absolut genial dass nvidia das jetzt auch einbaut, ich bin beeindruckt.

nvidia sind einfach die größten wenns um vollmundige Versprechungen geht.

1.) Was nützt eine höhere Ziffer bei den Shadern wenn diese was die Performance angeht nicht mit ATI mithalten können? (Siehe aktuelle Situation).
2.) Bisher stehts bei AA zugunsten ATI und bei AF gibts einen Gleichstand, hier glaube ich schon gar nicht dass nvidia plötzlich das Ultimative aus dem Ärmel zaubert. Da wirds wohl wieder viele lange Gesichter geben.
3.) Je größer die Erwartungen vom nv40, desto enttäuschter werden alle sein wenn nvidia wieder einmal nicht die versprochene Revolution aus dem Sack lässt.
Ich werde da jedenfalls nicht mitmachen und gehe nach wie vor davon aus dass es einen ziemlichen Gleichstand geben wird und das ist auch gut so, denn
4.) Was nützt es uns wenn nvidia in seinen High-End-Karten GDDR3 800 MHz einbauen wenn die Karte dann 900€ kosten wird?

Also mal langsam mit den jungen Pferden, bisher war der Geschwindigkeitsunterschied zwischen 2 Generationen immer ähnlich groß und auch diesmal wird Karte X2 nicht 3x so schnell sein wie Karte X.

Ich lese hier viel zu viele Posts wo mal wieder der Wunsch Vater des Gedanken ist, man sollte versuchen nüchtern zu bleiben, nur so lässt sich sachlich diskutieren.

edit: Es freut mich aber trotzdem dass wieder eine solche Diskussion entbrannt ist, habs schon vermisst. Nichts geht über spekulieren ;)

Winter[Raven]
2004-03-02, 01:32:05
Noch ein verblendeter Fani

@ ice cool69

Sorry, aber zu deinem Posting nkann man mehr als den Smilie nicht verwenden: :lolaway::lolaway::lolaway:

Achja, AF 16x beherrschte schon der R200, absolut genial dass nvidia das jetzt auch einbaut, ich bin beeindruckt.

du meinst die "Pseudo" 16x Filter ? ... Leider sehn diese nicht besser aus als das 2x AF @ NV.

Damals hat nvidia auch mit überlegenen technischen Daten und überlegenen (da weiterentwickelten) Shadern geprotzt und die nvidia-Fanboys haben sich schon nach der Megakarte die Hände geleckt die den R300 in den Boden Stampft (Dank Bruteforce und überlegener Technik). Was ist damals davon übrig geblieben?


Sorry aber Nvidia PROTZT nicht rum, oder hast du irgend eine OFFIZIELLE infos gesehn, gelesen ?
Wer derzeit rumprotzt ist eindeitig ATI mit ihrem R420.

von dem NV40, weiss man NICHTS ... man kann nur Spekulieren ...

2.) Bisher stehts bei AA zugunsten ATI und bei AF gibts einen Gleichstand, hier glaube ich schon gar nicht dass nvidia plötzlich das Ultimative aus dem Ärmel zaubert. Da wirds wohl wieder viele lange Gesichter geben.

Sorry aber sogar ein ATI Fan wie MAPEL hat eingesehn dass, das AF auf einer 5200 besser aussieht als auf ATI ... da brauchen wir von "gleichstand" nicht reden.

3.) Je größer die Erwartungen vom nv40, desto enttäuschter werden alle sein wenn nvidia wieder einmal nicht die versprochene Revolution aus dem Sack lässt.


Welche Revolution ? ... du meinst sicherlich die Evolution auf den NV3x aber sonst ?

Und was heißt hier versprochen ? ... hat NV was versprochen ? ... :kratz:

4.) Was nützt es uns wenn nvidia in seinen High-End-Karten GDDR3 800 MHz einbauen wenn die Karte dann 900€ kosten wird?

Junge, junge ... du hast Fantasien ... hast ne glasskugel für deine Preisangabe ?

Was nützt eine höhere Ziffer bei den Shadern wenn diese was die Performance angeht nicht mit ATI mithalten können? (Siehe aktuelle Situation).

nur weil Nv derzeit nicht bei den Shadern mithalten kann, heißt es nicht gleich sie werden es beim NV40 auch nicht können ...

Ich lese hier viel zu viele Posts wo mal wieder der Wunsch Vater des Gedanken ist, man sollte versuchen nüchtern zu bleiben, nur so lässt sich sachlich diskutieren.

Sorry aber von dem Spruch solltest du dir doch eine Scheibe abschneiden, und deine Rosa rote Brille bitte abnehmen ...

THX ...

betasilie
2004-03-02, 01:50:50
Original geschrieben von Winter[Raven]
Noch ein verblendeter Fani

@ ice cool69

Sorry, aber zu deinem Posting nkann man mehr als den Smilie nicht verwenden: :lolaway::lolaway::lolaway:



du meinst die "Pseudo" 16x Filter ? ... Leider sehn diese nicht besser aus als das 2x AF @ NV.



Sorry aber Nvidia PROTZT nicht rum, oder hast du irgend eine OFFIZIELLE infos gesehn, gelesen ?
Wer derzeit rumprotzt ist eindeitig ATI mit ihrem R420.

von dem NV40, weiss man NICHTS ... man kann nur Spekulieren ...



Sorry aber sogar ein ATI Fan wie MAPEL hat eingesehn dass, das AF auf einer 5200 besser aussieht als auf ATI ... da brauchen wir von "gleichstand" nicht reden.



Welche Revolution ? ... du meinst sicherlich die Evolution auf den NV3x aber sonst ?

Und was heißt hier versprochen ? ... hat NV was versprochen ? ... :kratz:



Junge, junge ... du hast Fantasien ... hast ne glasskugel für deine Preisangabe ?



nur weil Nv derzeit nicht bei den Shadern mithalten kann, heißt es nicht gleich sie werden es beim NV40 auch nicht können ...



Sorry aber von dem Spruch solltest du dir doch eine Scheibe abschneiden, und deine Rosa rote Brille bitte abnehmen ...

THX ...
Hör doch bitte auf mit diesen Fanboayanfeindungen! Das ist echt zum kotzen. :down:

Bis auf die Aussage, dass ATI und NV beim der AF-IQ Gleichstand haben, kann man das Posting von icecool69 unkommentiert als seine Meinung stehen lassen. Da muss nicht gleich so ein idotischer Fanboykommentar folgen.

Gast
2004-03-02, 02:23:03
Original geschrieben von Winter[Raven]
du meinst die "Pseudo" 16x Filter ? ... Leider sehn diese nicht besser aus als das 2x AF @ NV.



Radeon 8500 16xAF (http://www.ixbt.com/video/images/r8500/r8500-ss-anis16.jpg)
GF3 8xAF (http://www.ixbt.com/video/images/r8500/ti500-ss-anis8.jpg)

Radeon 8500 16xAF (http://www.ixbt.com/video/images/r8500/r8500-payne-anis.jpg)
GF3 8xAF (http://www.ixbt.com/video/images/palit-gf3/payne-anis8.jpg)

Winter[Raven]
2004-03-02, 02:31:50
@ Gast

Guckst du hier: http://80.237.203.42/vbulletin/showthread.php?s=&threadid=126786&perpage=20&pagenumber=4

Ailuros
2004-03-02, 08:28:44
Original geschrieben von Winter[Raven]
@ Gast

Guckst du hier: http://80.237.203.42/vbulletin/showthread.php?s=&threadid=126786&perpage=20&pagenumber=4

Schoen dass Du gerade auf die Debatte gelinkt hast. Falls es Dir entgangen ist, sind beide Algorithmen adaptiv. Das Problem bei ATI's Algorithmus ist dass die Winkel-Abhaengige Adaptivitaet bei ATI Texturen in den unguestigen Winkeln "unterfiltert" und in den guenstigen Winkeln "ueberfiltert".

Nicht alle Texturen brauchen und bekommen auch nicht 8xAF (bei eingesetztem 8xAF) bei NV; der Unterschied hier ist, dass Texturen je nach "steepness" behandelt werden ergo wenn eine Textur nur 2xAF braucht dann bekommt sie auch nur soviel. Im Gegenteil bei ATI bekommen Texturen in Winkeln A und B stehts nur bis zu 2xAF und in Winkeln C und B bis zu 16xAF, egal was der wahre Bedarf der Texturen eigentlich ist; deshalb auch das "unter-/ueber-Filterung" Zeug....

LovesuckZ
2004-03-02, 09:07:38
Original geschrieben von Ailuros
Nicht alle Texturen brauchen und bekommen auch nicht 8xAF (bei eingesetztem 8xAF) bei NV;der Unterschied hier ist, dass Texturen je nach "steepness" behandelt werden ergo wenn eine Textur nur 2xAF braucht dann bekommt sie auch nur soviel.

Verstehe ich das richtig, dass Nvidia abhaengig von dem "Bedürfniss" der Texturen das AF einstellen kann?!

Demirug
2004-03-02, 09:13:13
Original geschrieben von LovesuckZ
Verstehe ich das richtig, dass Nvidia abhaengig von dem "Bedürfniss" der Texturen das AF einstellen kann?!

Nein, das hat nichts mit der Textur direkt zu tun. Das adaptive bezieht sich darauf das Abhängig vom DX/DY Verhältniss des entsprechenden Pixels (wird aber immer für 4 benachbarte Pixel gerechnet) der entsprechenden AF Grad gewählt wird. Für das DX/DY Verhältniss sind die Texturkoordinaten zuständig.

Quasar
2004-03-02, 09:15:58
Original geschrieben von betareverse
Hör doch bitte auf mit diesen Fanboayanfeindungen! Das ist echt zum kotzen. :down:

Bis auf die Aussage, dass ATI und NV beim der AF-IQ Gleichstand haben, kann man das Posting von icecool69 unkommentiert als seine Meinung stehen lassen. Da muss nicht gleich so ein idotischer Fanboykommentar folgen.

Merkst' was?

Und da laut Moderation die Bezeichnung "nVidiot" nunmehr als "persönliche Ebene" gilt, ....

seahawk
2004-03-02, 09:27:58
Und was hat das alles mit dem NV40 zu tun ??

HajottV
2004-03-02, 10:46:10
Original geschrieben von ice cool69
Die Diskussion über den NV40 erinnert mich irgendwie an die Diskussion R300 VS NV30.

[...]


Bis auf den AF Gleichstand (hier denke ich doch, daß man von einer - wegen brilinear auch geringen - Überlegenheit der nVidia-Chips sprechen muß), eines der ausgewogensten Postings in diesem Thread.

Ich habe mir jetzt übergangsweise eine 9800pro geholt... im Winter kommt dann ein nv40 oder r420 rein... je nachdem, was für meine Ansprüche die bessere Gesamtleistung bietet.

Wo Du wohl recht behalten wirst: Die Karten werden dem Hype nicht gerecht werden.

Gruß

Jörg

EL_Mariachi
2004-03-02, 11:18:46
Ich habe mir jetzt übergangsweise eine 9800pro geholt... im Winter kommt dann ein nv40 oder r420 rein...


übergangsweise ... rofl

das hört sich echt so an als ob die 9800 Pro der letzte Schund ist und du eigentlich nur auf ne Nv4x oder R4xx wartest ???

Nimmst es halt in Kauf, dass du jetzt halt noch übergangsweise ( mal knapp ein Jahr ) mit so mittel bis unterdurschnittlicher Spieleperformance leben musst ...

mein Beileid ... armer Irrer :D

HajottV
2004-03-02, 12:02:42
Original geschrieben von EL_Mariachi
übergangsweise ... rofl

das hört sich echt so an als ob die 9800 Pro der letzte Schund ist und du eigentlich nur auf ne Nv4x oder R4xx wartest ???



Hehe, der letzte Schund ganz sicher nicht... bis vor vier Wochen hatte ich eine G400 Marvel (die ich heiß und innig geliebt habe, Gollum Gollum, mein Schatz! Einigen Features [saugeiler TV Out z.B.] trauere ich echt nach.) im Rechner, insofern bin ich schon hellauf begeistert.

Der Unterschied bei Spielen ist natürlich :O :O :O :O .

Eigentlich sollte es ja eine nVidia Karte (5900XT) werden, weil ich die zum Entwickeln für besser geeignet halte, aber irgendwie... die sind kaum günstiger, bieten aber weniger (imho).

Übergangsweise ist aber insofern richtig als daß ich mir bald einen TFT hole... und bei 1600x1200 mit Eye Candy wird die Luft für aktuelle Karten dünn.

Gruß

Jörg

aths
2004-03-02, 12:14:50
Original geschrieben von LovesuckZ
Verstehe ich das richtig, dass Nvidia abhaengig von dem "Bedürfniss" der Texturen das AF einstellen kann?! Seit längerem, funzt(e?) auch mit GeForce4 Ti.

aths
2004-03-02, 12:18:25
Original geschrieben von ice cool69
Achja, AF 16x beherrschte schon der R200, absolut genial dass nvidia das jetzt auch einbaut, ich bin beeindruckt.Was R200 an "AF" abliefert, würde ich nur mit Bauchschmerzen als solches bezeichnen, wenn man mal auf einer GeForce 8x AF gesehen hat.

Original geschrieben von ice cool69
2.) Bisher stehts bei AA zugunsten ATI und bei AF gibts einen Gleichstand, hier glaube ich schon gar nicht dass nvidia plötzlich das Ultimative aus dem Ärmel zaubert. Da wirds wohl wieder viele lange Gesichter geben.ATIs FSAA ist Nvidias Lösung deutlich überlegen, ja. Beim AF sehe ich allerdings keinen Gleichstand, sondern Nvidias Texturfilterung klar im Vorteil.

aths
2004-03-02, 12:27:55
Original geschrieben von Winter[Raven]
Noch ein verblendeter FaniAuf die persönliche Ebene wollen wir uns aber nicht begeben.

Gast
2004-03-02, 12:35:16
Original geschrieben von aths
Auf die persönliche Ebene wollen wir uns aber nicht begeben.

Wieso?

Ich fand es drollig. Der Nvidia-Fanboy des Forums schlechthin macht andere [ATi]-Fanboys von der Seite an. Also ich fand das lustig. Normalerweise überlese ich ja seine Beiträge, aber der Beitrag war dann doch zu gut :D

LovesuckZ
2004-03-02, 12:38:20
Original geschrieben von Gast
Wieso?
Ich fand es drollig. Der Nvidia-Fanboy des Forums schlechthin macht andere [ATi]-Fanboys von der Seite an. Also ich fand das lustig. Normalerweise überlese ich ja seine Beiträge, aber der Beitrag war dann doch zu gut :D

Auf die persönliche Ebene wollen wir uns aber nicht begeben.
Quelle: aths

Das sollte man automatisieren.

Exxtreme
2004-03-02, 12:44:22
Original geschrieben von Gast
Wieso?

Ich fand es drollig. Der Nvidia-Fanboy des Forums schlechthin macht andere [ATi]-Fanboys von der Seite an. Also ich fand das lustig. Normalerweise überlese ich ja seine Beiträge, aber der Beitrag war dann doch zu gut :D
Ich hoffe, du hast gelesen, was aths da geschrieben hat, oder?

Godmode
2004-03-02, 12:45:55
@ icecool

Glaubst du nicht das Nvidia nicht daran gearbeitet hat, um nicht nochmal einen so schweren Rückschlag erleiden zu müssen?

ShadowXX
2004-03-02, 13:24:37
Original geschrieben von bans3i
@ icecool

Glaubst du nicht das Nvidia nicht daran gearbeitet hat, um nicht nochmal einen so schweren Rückschlag erleiden zu müssen?

nV wird an vielem gearbeitet haben...zum groessten Teil wohl aber an Ihrer "Shaderpower"....

Den die Leistungsfaehigkeit der Shader wird in Zukunft das mass aller Dinge sein...nicht ob 16x1, 8x1, 6x2, 3x3x3 oder auch 10x5 Pipes.

Die TMUs (woran wohl die meisten die "Anzahl" der Pipes festmachen) werden wohl in zukuenftigen Designs frei zuweisbar sein, so dass man dann ueberhaupt nicht mehr mit der klassischen Ansicht rangehen kann..(Und vieles andere wohl auch..siehe Demis Post (ROP Beispiel))

Man sollte z.B. nicht uebersehen, das auch die VS inzwischen TMUs haben....wer weiss wie dass ganze gezaehlt wird im Marketing.

Zum nV AA:
Ich glaube nicht das nV viel daran geaendert hat...vielleicht haben Sie aus dem 4xOG ein 4xRG gemacht...aber das wars dann schon...

Aber wie schon so oft gesagt...wir werden sehen...

J.S.Shadow

Exxtreme
2004-03-02, 13:31:16
Original geschrieben von ShadowXX

Zum nV AA:
Ich glaube nicht das nV viel daran geaendert hat...vielleicht haben Sie aus dem 4xOG ein 4xRG gemacht...aber das wars dann schon...

Der Sprung von OG auf RG bringt schon viel. :) Gamma-Korrektur wäre zwar auch wünschenswert aber sooo viel bringt das im Endeffekt auch nicht mehr.

Godmode
2004-03-02, 13:47:55
Original geschrieben von ShadowXX

Zum nV AA:
Ich glaube nicht das nV viel daran geaendert hat...vielleicht haben Sie aus dem 4xOG ein 4xRG gemacht...aber das wars dann schon...

Aber wie schon so oft gesagt...wir werden sehen...

J.S.Shadow

Also ich denke schon, dass sie hier was machen werden um die Qualität von ATI zu erreichen->toppen :)

Wozu hat man den 3DFX-Techniker, die hatten ja das beste AA was es auf dem PC je gegeben hat!!

aths
2004-03-02, 13:48:47
Original geschrieben von Exxtreme
Der Sprung von OG auf RG bringt schon viel. :) Gamma-Korrektur wäre zwar auch wünschenswert aber sooo viel bringt das im Endeffekt auch nicht mehr. Gamma-korrektes Downfiltering (bitte nicht mit allgemeiner Gamma-Korrektur verwechseln) bringt vor allem dann was, wenn berücksichtigt wird, welchen "wahren" Gamma-Wert das Display hat. ATI geht davon aus, dass das Display mit Gamma 2,2 eine lineare Wiedergabe böte. Das ist für CRTs, die normalerweise einen Wert zwischen 1,7 und 2,5 brauchen, eine gute Näherung. Bei TFTs, die schon ziemlich linear sind, wäre das jedoch kontraproduktiv.

Und ja, 4x RG wäre 4x OG in jedem Fall vorzuziehen. Für mich stellt 4x RG bei aktueller Hardware das Mindestlevel an "guter Kantenglättung" dar.

seahawk
2004-03-02, 13:53:56
Original geschrieben von ShadowXX
Zum nV AA:
Ich glaube nicht das nV viel daran geaendert hat...vielleicht haben Sie aus dem 4xOG ein 4xRG gemacht...aber das wars dann schon...

Aber wie schon so oft gesagt...wir werden sehen...

J.S.Shadow

Das würde mirreichen. 4xRG betrachte ich als momentan optimalen Kompromiss zwischen Bildqualität und Performce.

Anstatt noch einen AA-Level zu erhöhen, würde ich lieber die Auflösung hochsetzen. Bringt NV dazu wieder Lehrbuch AF und eine gute Shaderperformance, dann wäre die Karte imho sehr gut.

Wenn dann die Leistung im Bereich der R420 liegt, dann würde ich sie evtl. in Erwägung ziehen.

Hauwech
2004-03-02, 14:14:20
Stimme Seahawk da zu

ShadowXX
2004-03-02, 14:46:26
Original geschrieben von seahawk
Das würde mirreichen. 4xRG betrachte ich als momentan optimalen Kompromiss zwischen Bildqualität und Performce.

Anstatt noch einen AA-Level zu erhöhen, würde ich lieber die Auflösung hochsetzen. Bringt NV dazu wieder Lehrbuch AF und eine gute Shaderperformance, dann wäre die Karte imho sehr gut.

Wenn dann die Leistung im Bereich der R420 liegt, dann würde ich sie evtl. in Erwägung ziehen.

Das war absolut nicht negativ gemeint...mir wuerde ein 4xRG ebenfalls reichen...

J.S.Shadow

ice cool69
2004-03-02, 16:37:10
Ich hatte nicht die Absicht den NV40 selber schlecht zu reden, ich wollte darauf hinweisen dass nvidia in der Vergangenheit scho oft den Über-Chip angekündigt hat, einen echten Papiertiger halt und später dann die Gesichter ziemlich lang waren, ganz besonders beim NV30, welcher aber wohl eine Ausnahme war (da wurde nvidia überrascht mit dem R300).

Wenn der NV40 der geniale Chip ist den sich hier viele erträumen bin ich der erste der nvidia dazu gratuliert, trotzdem bleibe ich bei dem Thema sehr skeptisch, auch bei ATI sollte man den theoretischen Daten nicht über den Weg trauen, hier wird es genausowenig eine Revolution geben wie bei nvidia (die Megaperformance in PS/VS 2.0 glaube ich erst wenn ich sie sehe).

Ich gehe davon aus dass beide Chips eine sinnvolle Weiterentwicklung ihrer Vorgängerchips sein werden, aber garantiert keine Über-drüber-Mega-Bruteforce-Titanen mit GDDR3-800MHz, 512bit Speicheranbindung und 16x2 Pipelines.

Warum mein Post nur auf den NV40 abgezielt hat (ich nenne es auf den Boden der Tatsachen zurückholen) liegt daran dass das Thema sich auf diesen bezieht (siehe Threadtitel;)).

Um es zusammenzufassen: Ich sehe einen ziemlichen Gleichstand alles in allem und keine der beiden neuen Chips wird es dem anderen so richtig zeigen können.

edit: Was das AF angeht so bin ich der Meinung dass nvidia hier ganz schön nachgelassen hat dank des Brilinearen filterns. Meinetwegen ein leichter Vorteil für nvidia, so groß wie beim AA ist der Unterschied schon lange nicht mehr.

Demirug
2004-03-02, 16:43:37
ice cool69, nVidia hat offiziel bisher noch gar nichts angekündigt. Genau wie ATI auch.

Quasar
2004-03-02, 16:44:57
Original geschrieben von ice cool69
[...] ich wollte darauf hinweisen dass nvidia in der Vergangenheit scho oft den Über-Chip angekündigt hat,[...]

Ja, das haben sie. Aber es gibt einen ziemlichen Unterschied zur jetzigen Situation: Diesmal haben sie gar nichts angekündigt... zumindest AFAIK.

ice cool69
2004-03-02, 16:49:50
Es ist "aus versehen" etwas durchgesickert.
Ganz abwegig sind die bisherigen Angaben ja nicht, sonst würde sich hier keiner der sich gut auskennt über die technischen Daten unterhalten oder?

Quasar
2004-03-02, 16:55:48
Je nachdem wen du fragst, sind z.B. 210M Transistoren "völlig utopisch" oder 600MHz Coretakt "gar nicht machbar bei so einem Herstellungsprozess" bzw. "800MHz GDDR3 überhaupt nicht lieferbar".

Hier unterhalten sich mehr Leute mit weniger Ahnung als du denkst :) (me included).

betasilie
2004-03-02, 17:29:24
*trash*

ice cool69
2004-03-02, 17:42:44
Tja und ein ATI-Fan wird halt die Zukunft ATis besonders rosig sehen, ein nvidia-Fan nunmal die von nvidia.

Das führt dazu dass sich beide Seiten zu übertrumpfen versuchen und Grafikchips "prophezeihen" die es nicht geben wird.
Sieht man diesen Giganten-Chips etwas kritischer entgegen wird man als ATI bzw. nvidia-Fanboy beschimpft.

Es stimmt dass ich den ATI-Karten momentan positiver gegenüberstehe, das kann sich aber sehr schnell ändern, sobald nvidia das bessere Produkt abgeliefert hat.

Nichts hasse ich mehr als mehr Geld für weniger Leistung auszugeben, schon gar nicht wegen einer Marke, es gibt nichts uncooleres als Fan einer Grafikkartenmarke zu sein, wir reden hier ja nicht über Klamotten;).

Edit: Ich bin im übrigen trotzdem Verfechter eines Herstellers, solange ich der Meinung bin dass sich ein größerer Erfolg dieses Herstellers positiv auf die Gesamtsituation des Grafikkartenmarktes auswirkt, soll heißen ich ziehe es vor keine Produkte von Chipzilla oder Graphzilla zu kaufen.

Karümel
2004-03-02, 18:28:46
Gerade eben auf Golem.de gefunden
Falls das schon irgendwo gepostet wurde bitte löschen:

NV40 - Verspätet sich Nvidias GeForceFX-Nachfolger?


CeBIT-2004-Pressekonferenz abgesagt


Allem Anschein nach hat Nvidia die für die CeBIT 2004 geplante offizielle Vorstellung seines kommenden High-End-Grafikchips NV40 verschieben müssen. Eine für den Messe-Donnerstag geplante Pressekonferenz sagte der Grafikchip-Hersteller überraschend ab.

Zu den Hintergründen gibt es bisher keine Angaben seitens Nvidia. Dass die ursprünglich für den 18. März 2004 gelistete Pressekonferenz sich um den NV40 drehen sollte, wurde zwar nur vermutet, allerdings verdichteten sich die Anzeichen in den letzten Wochen dafür. Mit der nun abgesagten und auch auf den CeBIT-Presseseiten nicht mehr gelisteten Pressekonferenz wird sich die erwartete große NV40-Vorstellung nun wohl erst einmal verschieben. Vielleicht zeigt Nvidia den NV40 Händlern und Journalisten auf der CeBIT 2004 wenigstens hinter verschlossenen Türen und unter dem Mäntelchen der Verschwiegenheit.

Gerüchte ranken sich bereits seit 2003 um den DirectX-9- und Shader-3.0-fähigen NV40, wurden allerdings erst in den letzten Tagen und Wochen handfester. Gleiches gilt für den NV40-Konkurrenten R420 von ATI, der zwar "nur" die gebräuchlichen Shader 2.0 bietet, aber den Gerüchten zufolge schon fertig sein soll.

ShadowXX
2004-03-02, 18:48:45
Original geschrieben von Karümel
Gerade eben auf Golem.de gefunden
Falls das schon irgendwo gepostet wurde bitte löschen:

NV40 - Verspätet sich Nvidias GeForceFX-Nachfolger?


CeBIT-2004-Pressekonferenz abgesagt


Allem Anschein nach hat Nvidia die für die CeBIT 2004 geplante offizielle Vorstellung seines kommenden High-End-Grafikchips NV40 verschieben müssen. Eine für den Messe-Donnerstag geplante Pressekonferenz sagte der Grafikchip-Hersteller überraschend ab.

Zu den Hintergründen gibt es bisher keine Angaben seitens Nvidia. Dass die ursprünglich für den 18. März 2004 gelistete Pressekonferenz sich um den NV40 drehen sollte, wurde zwar nur vermutet, allerdings verdichteten sich die Anzeichen in den letzten Wochen dafür. Mit der nun abgesagten und auch auf den CeBIT-Presseseiten nicht mehr gelisteten Pressekonferenz wird sich die erwartete große NV40-Vorstellung nun wohl erst einmal verschieben. Vielleicht zeigt Nvidia den NV40 Händlern und Journalisten auf der CeBIT 2004 wenigstens hinter verschlossenen Türen und unter dem Mäntelchen der Verschwiegenheit.

Gerüchte ranken sich bereits seit 2003 um den DirectX-9- und Shader-3.0-fähigen NV40, wurden allerdings erst in den letzten Tagen und Wochen handfester. Gleiches gilt für den NV40-Konkurrenten R420 von ATI, der zwar "nur" die gebräuchlichen Shader 2.0 bietet, aber den Gerüchten zufolge schon fertig sein soll.

Doch noch Probleme?
....oder Sie haben einen r420 in die Finger bekommen...und was Sie gesehen haben, hat Ihnen nicht geschmeckt...

J.S.Shadow

Demirug
2004-03-02, 18:51:27
Wer als zweiter vorstellt kann seine Produktnamen auf die der Konkurrenz anpassen. ;)

deekey777
2004-03-02, 18:52:48
Original geschrieben von Demirug
Wer als zweiter vorstellt kann seine Produktnamen auf die der Konkurrenz anpassen. ;)

nVidia Radeon 6000FX?

r@e
2004-03-02, 18:54:00
Original geschrieben von ShadowXX
Doch noch Probleme?
....oder Sie haben einen r420 in die Finger bekommen...und was Sie gesehen haben, hat Ihnen nicht geschmeckt...

J.S.Shadow Würde eher darauf tippen, dass nVidia nunmehr keine 'Eile' mehr damit hat, ihr neues Flagschiff auf den Markt zu werfen, da sich ATI ja schon im Vorwege dazu entschlossen hat, ihren Neuankömmling ein wenig zu verzögern... so kann man halt (auf beiden Seiten) noch kräftig Prä-High-End-Karten unter die Leute bringen.

Ein weiterer Grund könnte auch sein, dass keiner von beiden die Hosen zuerst herunter lassen will...
:D

Razor

Ailuros
2004-03-02, 18:54:33
Original geschrieben von Demirug
Wer als zweiter vorstellt kann seine Produktnamen auf die der Konkurrenz anpassen. ;)

Nur den Produktnamen? Da waere ich aber sehr enttaeuscht :chainsaw:

StefanV
2004-03-02, 18:56:34
Original geschrieben von Ailuros
Nur den Produktnamen? Da waere ich aber sehr enttaeuscht :chainsaw:

Was meinst du genau?? :|

Ailuros
2004-03-02, 18:56:38
*haelt die Nase zu...*

Ein weiterer Grund könnte auch sein, dass keiner von beiden die Hosen zuerst herunter lassen will...

Eine Beschreibung des Inhalts koennen wir uns wohl sparen....(ahhhh endlich wird es mal gelassener in diesem Forum....weiter so ;) )

Ailuros
2004-03-02, 18:57:22
Original geschrieben von Stefan Payne
Was meinst du genau?? :|

Marketing-Geblubber was sonst?

r@e
2004-03-02, 18:58:00
Könnte auch 'ne Marketing-Geschichte sein...
Der eine könnte dem anderen die Show stehlen, wenn dieser zuerst an die Öffentlichkeit tritt. Der letzte Eindruck ist meist der, der dann auch bleibt.

Razor

Demirug
2004-03-02, 18:59:35
Original geschrieben von Ailuros
Nur den Produktnamen? Da waere ich aber sehr enttaeuscht :chainsaw:

Den Richtpreis notfalls auch.

Ailuros
2004-03-02, 19:01:38
Original geschrieben von r@e
Könnte auch 'ne Marketing-Geschichte sein...
Der eine könnte dem anderen die Show stehlen, wenn dieser zuerst an die Öffentlichkeit tritt. Der letzte Eindruck ist meist der, der dann auch bleibt.

Razor

Nicht unmoeglich. Aber das bessere Produkt wird sowieso die Eindruecke gewinnen, egal ob es jetzt ein paar Wochen frueher oder spaeter ankommt. Die Verbraucher wissen ja dass beide fuer den Zeitraum vorgesehen sind; dabei ist die Neugierde fuer beide wohl gleich gross; egal was man am Ende kauft.

r@e
2004-03-02, 19:04:44
Original geschrieben von Ailuros
Nicht unmoeglich. Aber das bessere Produkt wird sowieso die Eindruecke gewinnen, egal ob es jetzt ein paar Wochen frueher oder spaeter ankommt. Die Verbraucher wissen ja dass beide fuer den Zeitraum vorgesehen sind; dabei ist die Neugierde fuer beide wohl gleich gross; egal was man am Ende kauft. Kommt immer darauf an, ob und wenn, wer einen Trumpf im Ärmel hat. Die Niederlage des einen könnte umso vernichtender sein, wenn...

Razor

ShadowXX
2004-03-02, 19:07:58
Original geschrieben von r@e
Könnte auch 'ne Marketing-Geschichte sein...
Der eine könnte dem anderen die Show stehlen, wenn dieser zuerst an die Öffentlichkeit tritt. Der letzte Eindruck ist meist der, der dann auch bleibt.

Razor

Diesem und dem "Hose runter lassen" stimme ich zu....aber die Unsicherheit, die auf beiden Seiten bestehen zu scheint, deutet darauf hin, dass diesmal scheinbar keiner von beiden weiss, was der andere unter der Haube hat.....

Oder beide sind nicht wirklich mit Ihren Chips zufrieden...und jetzt hoffen beide, das der Konkurenz-Chip genauso "schlecht" ist...und warten und warten und warten...;D ;D ;D

J.S.Shadow

Ailuros
2004-03-02, 19:11:03
Original geschrieben von r@e
Kommt immer darauf an, ob und wenn, wer einen Trumpf im Ärmel hat. Die Niederlage des einen könnte umso vernichtender sein, wenn...

Razor

Klare Niederlagen oder klare Trumpfe sind schwerer geworden seit dem letztem 1.5 Jahr. Ehrlich gesagt ist es mir persoenlich auch lieber wenn es weiterhin so bleibt; ob jetzt ein kleiner Unterschied bei jeder Generation auf die eine oder andere Seite zu sehen ist, ist mir im Grunde egal. Je mehr Konkurrenz die zwei erstmal zwischen ihnen haben, desto mehr strengen sie sich auch an noch bessere Produkte zu liefern. Ich sehe dass ich gerade wieder mal das Offensichtliche poste....;)

r@e
2004-03-02, 19:28:25
Na ja... ich weiß nicht...
Was hatten wir denn in den letzten 1,5 Jahren ?
Ein R300 der immer weiter aufgebohrt und ein fehlgeleiteter NV30, der mit dem NV35 wieder gerade mal eben hingebogen wurde.

Also Innovation kann ich auf beiden Seiten nicht wirklich erkennen.

Habe ja die Hoffnung, dass einer von beiden jetzt mit 'nem Hammerprodukt kommt... und das zu einem halbwegs erschwinglichen Preis, um den anderen auszubooten.

Aber vermutlich wird es Hoffnung bleiben...
:-(

Razor

Godmode
2004-03-02, 19:40:45
Ich habe so die Befürchtung das der NV40 extrem teuer wird, so wie damals die Geforce2Ultra. Weil wenn das mit dem Transistorcount stimmt, dass sie 210 Mio verwenden und die Leistung des Chips auch sehr gut ist, was jetzt aber noch Spekulation ist :), dann wird es Nvidia sicher gerechtfertigt finden am Anfang viel Geld für diese Chips zu verlangen.

Zu der Absage auf der CeBit kann ich nur zwei Dinge sagen:

1. Extreme Probleme beim Design, wie beim NV30; 5%

2. Abwarten was ATI bringt; 30%

3. Noch nicht ganz fertig; 50%

3. Noch warten bis es vom GDDR3 RAM genug gibt mit 800MHz 15%

Das mit dem GDDR3 RAM mit 800 MHz geht mir einfach nicht aus dem Kopf, seit ich diese X-Bit News gelesen habe. Und da der NV45 vorgezogen wurde wäre es logisch auch schnelleres RAM zu verwenden.

Weiß jemand ob und wieviel es von diesen Bausteinen gibt geben wird?

Ich habe die Prozent dazugeschrieben was ich am ehesten glaube!!

ice cool69
2004-03-02, 19:40:52
Wieso muss denn einer klar überlegen sein? Beide sollen Hammerprodukte liefern die sich nichts nehmen, dann gäbs nen ordentlichen Preiskampf und wir kriegen Power für weniger Geld, so solls sein oder?

Godmode
2004-03-02, 19:42:52
Original geschrieben von ice cool69
Wieso muss denn einer klar überlegen sein? Beide sollen Hammerprodukte liefern die sich nichts nehmen, dann gäbs nen ordentlichen Preiskampf und wir kriegen Power für weniger Geld, so solls sein oder?

Ganz richtig!!! Und jeder Fanboy kann sich dann seine Lieblingskarte kaufen.

robbitop
2004-03-02, 19:44:21
durch die starke Konkurenz zu ATi kann man sich exorbitante Preise nicht leisten.
entweder sie warten oder sie haben noch nicht genug produziert oder sie mussten am Takt noch was tun.
Das mit den 210Mio will ich erstma sehen ;)

Aber ich denke NV wollte durch das Vorziehen von NV45 mit aller Macht wieder an den Tron...mal schauen was draus wird

ShadowXX
2004-03-02, 19:46:05
Original geschrieben von ice cool69
Wieso muss denn einer klar überlegen sein? Beide sollen Hammerprodukte liefern die sich nichts nehmen, dann gäbs nen ordentlichen Preiskampf und wir kriegen Power für weniger Geld, so solls sein oder?

Das waere die Idealloesung....und ich vermute, das es auch genau darauf hinauslaufen wird...

Wir sollten vielleicht alle mal unsere Erwartungen zurueckschrauben, sonst erleben wir sehr wahrscheinlich einen riesigen Aufschrei der Art: "Darauf haben wir 1,5 Jahre gewartet????"

J.S.Shadow

Hauwech
2004-03-02, 20:06:18
Wie im Betreff angegeben: Welche Verkaufsnamen wird eigentlich ATI waehlen? Die 9300, 9400 und 9900 sind noch verfuegbar. Oder was ganz anderes?

Bei nVidia duerfte es klar(?) sein: FX 6000 bis 6999.

Godmode
2004-03-02, 20:55:41
Original geschrieben von Hauwech
Wie im Betreff angegeben: Welche Verkaufsnamen wird eigentlich ATI waehlen? Die 9300, 9400 und 9900 sind noch verfuegbar. Oder was ganz anderes?

Bei nVidia duerfte es klar(?) sein: FX 6000 bis 6999.

Also es wäre schon gewagt wenn nochmal in nem Grakanamen "FX" vorkommt. Ich bin mir da nicht so sicher, ob sie sich doch nicht was neues einfallen lassen

Winter[Raven]
2004-03-02, 23:53:14
Ich wäre für ne neuen Namen, bei NV wie auch bei ATI. Nvidia soll die OMEN nennen ... :)

Habs ja vor NV30 Release Gerüchte Nv will GForce in Omen umändern.

robbitop
2004-03-03, 00:03:53
Omen klingt blöd

Xmas
2004-03-03, 00:10:19
Original geschrieben von bans3i
Also es wäre schon gewagt wenn nochmal in nem Grakanamen "FX" vorkommt. Ich bin mir da nicht so sicher, ob sie sich doch nicht was neues einfallen lassen
PCX ;)

Ailuros
2004-03-03, 01:15:11
Original geschrieben von Xmas
PCX ;)

Blasphemy!!! :stareup:

Ailuros
2004-03-03, 01:16:50
Original geschrieben von robbitop
Omen klingt blöd

Es wird wohl GeForce bleiben. Eclipse klang toll, im Gegensatz zu Omen.

egdusp
2004-03-03, 01:51:39
Ich find "Omen" toll.

@ Razor: was heißt eigentlich das e bei r@e?

Bezüglich der Vorstellung: ist zwar nicht genau der gleiche Fall ,aber es gab mal eine Untersuchung, dass bei Gerichtsverhandlungen dass erste Plädoyer (von der Staatsanwaltschaft) das Strafmaß in hohem Maße beeinflusst. Also wäre der Erstvorsteller evtl. sogar im Vorteil, da der Nachfolger ihn toppen müsste.

mfg
egdusp

P.s.: Schreibt niemals sbesoffen Posts, ihr müsst jedes 2. Wort korrigieren.

betasilie
2004-03-03, 02:20:07
Original geschrieben von egdusp
Ich find "Omen" toll.

Ich auch. ... Omen I, Omen II, Omen III ... ;D

Sphinx
2004-03-03, 02:22:09
Amen ,)

Ailuros
2004-03-03, 02:25:05
The Morgan Stanley Semiconductor and Systems Conference was held earlier today, and among the speakers was NVDIA’s CEO, Jen-Hsun Huang there to discuss NVIDIA’s business and its prospects. Very early on in the conference Jen-Hsun was asked if he’d like to talk about the NV4x generation of parts to which, in a possible reference to the performance of the NV3x generation, his quick response was "Nothing would give me more pleasure to talk about NV4x", and so he did.

Jen-Hsun noted that that NV4x series was a new architectural generation that has been designed to offer specific goals: give more programmability, more performance, take advantage of the PCI-Express platform, have higher yields and to be very scalable.

When looking at the performance element of NV4x, Jen-Hsun expects the performance increment from the previous generation to be dramatically higher than any previous architectural transition they have previously been through. Indeed, presumably speaking about NV40 specifically, NVIDIA’s CEO states that "if we’re not a lot more than 2 times faster I’m going to be very disappointed". Upon discussing where such performance increases could come from he made note that due to the programmable nature of the graphics pipeline and that now applications are making use of this, more and more elements cane be brought over from the CPU world to enhance the instruction execution performance, and its expected that NV4x will adopt a lot of these techniques.

In terms of scalability, as with previous generations, NV4x will span a top to bottom line of graphics processors for the PC market space, however there has been a greater emphasis in NV4x’s design to implement this goal. Its expected that by the end of the year there will be an entire family of NV4x processors spanning the very high end performance space, right down to the entry-level market; while this strategy sounds similar to their previous generations what marks it as different this time is the number of processors that may be available. In the NV1x and NV2x generation more or less one two distinct processors were introduced and produced at the same time, with the NV3x architecture this increased to 3 processors, however Jen-Hsun made note that potentially as many as 5 distinct NV4x graphics processors may be in production at any one time.

The NV4x generation is also designed to be fully PCI-Express compliant, and take full advantage of the benefits this bus architecture brings. The indication here is that the parts produced on the NV4x platform will be introduced with a native PCI-Express interface – rumours suggest that NV40 will be AGP compliant, but Jen-Hsun’s comments raises the possibility that NV40 may be a PCI-Express chip but the board may utilise their bridge chip to enable it to operate in an AGP system. It was noted that their strategy of not porting any of their current line over to PCI-Express does mean they will need to utilise their bridge chip for the low end initially as its they are not expecting to see the entry level NV4x part available until the end of Quarter 3 ’04.

Yields on the NV3x line of chips appears to have been a bugbear of NVIDIA over the past year, and that is something they are hoping to address with NV4x. Jen-Hsun spoke of "heavily patented technology" utilised in the design of NV4x in order to bring the yields up, but there was no expansion on just what this technology was. They noted that due to the fast cycling nature of the market they are not able to get the similar types of benefits as CPU vendors by refining a design to bring costs down – it was noted that for these reasons and due to the issues of yield which are not able to be resolved in the timescales available for one platform NVIDIA actually has the largest "scrap" (wasted die) of any semiconductor in the industry, which is probably a good reason for their margin performance over the past year. Jen-Hsun made note of his desire to see a "100% yield coming out of TSMC" – while NVIDIA talked up IBM last year, its clear that TSMC is rapidly becoming NVIDIA’s primary foundry partner in a more vocal sense, as the number of processors produced from IBM for NVIDIA are still likely to be dwarfed by those that have continued to be produced by TSMC.

Jen-Hsun commented that the rumours are suggesting the announcement of NV4x in "a couple of short months" and that these are "likely to be correct".

http://www.beyond3d.com/forum/viewtopic.php?p=231680#231680

betasilie
2004-03-03, 02:34:43
give more programmability, more performance, take give more programmability(1), more performance(1), take advantage of the PCI-Express platform(2), have higher yields(1) and to be very scalable(1).
(1) :up: good goals
(2) :lolaway:

Jen-Hsun expects the performance increment from the previous generation to be dramatically higher than any previous architectural transition they have previously been through.
He expects! ... Sonst haben sie das immer behauptet.

"if we’re not a lot more than 2 times faster I’m going to be very disappointed"
Aha. Sonst waren die AKrten immer 10xschneller. Jetzt ist 2* das Ziel? ... Die können ja auch mal ehrlich sein.

NV4x will span a top to bottom line of graphics processors for the PC market space
Aha, das würde aths´ These bestätigen, dass NV dieses Jahr PS3.0Hardware in allen Segmenten bringt.

The indication here is that the parts produced on the NV4x platform will be introduced with a native PCI-Express interface
Aha, das ist doch mal was neues. Man hat das zwar erwartet, aber sicher konnte man ja nicht sein, afaik.

NVIDIA actually has the largest "scrap" (wasted die) of any semiconductor in the industry, which is probably a good reason for their margin performance over the past year.
Gut, das sie das mitbekommen haben. :D


Jen-Hsun made note of his desire to see a "100% yield coming out of TSMC"
*hust*

while NVIDIA talked up IBM last year, its clear that TSMC is rapidly becoming NVIDIA’s primary foundry partner in a more vocal sense, as the number of processors produced from IBM for NVIDIA are still likely to be dwarfed by those that have continued to be produced by TSMC.
Nunja.

Jen-Hsun commented that the rumours are suggesting the announcement of NV4x in "a couple of short months" and that these are "likely to be correct".
Months? :o short months? :balla:

mapel110
2004-03-03, 02:52:42
a couple of short months

Wie übersetzt man das am besten?


5 unterschiedliche Chips?! :o Da bin ich ja mal gespannt, wie sie die preislich gliedern werden (sofern es denn von den 5 Chips auch noch unterschiedliche Varianten geben soll).

Das sie wieder "fom top to bottom" bieten werden, war doch klar. Der Erfolg mit der 5200er war einfach zu gross. Und dann gibts da ja auch noch die Roadmaps. ;)

Wie ein Chip 2xmal schneller werden kann, als eine Geforce 5950 hätte ich zu gern mal belegt durch Gamebenchmarks. Vielleicht haben sie ja 8xS mit dem neuen 8xRGMSAA verglichen :D

betasilie
2004-03-03, 02:55:53
Original geschrieben von mapel110
5 unterschiedliche Chips?! :o Da bin ich ja mal gespannt, wie sie die preislich gliedern werden (sofern es denn von den 5 Chips auch noch unterschiedliche Varianten geben soll).

Also die 5 Chips sind wohl die 5 Varianten des eigentlichen NV40.

Original geschrieben von mapel110
Das sie wieder "fom top to bottom" bieten werden, war doch klar. Der Erfolg mit der 5200er war einfach zu gross. Und dann gibts da ja auch noch die Roadmaps. ;)

Aber PS3.0!? :o Finde ich schon ziemlich heftig.

Original geschrieben von mapel110
Wie ein Chip 2xmal schneller werden kann, als eine Geforce 5950 hätte ich zu gern mal belegt durch Gamebenchmarks. Vielleicht haben sie ja 8xS mit dem neuen 8xRGMSAA verglichen :D
Also doppelt so schnell halte ich nicht für unmöglich in alltagspraktischen Einstellungen, je nach Applikation.

betasilie
2004-03-03, 02:58:13
btw: Jen-Hsun hätte mal ein bissl mehr über die vermeintlichen 16 Pipes sprechen können. :D

mapel110
2004-03-03, 03:10:22
Original geschrieben von betareverse
1.Also die 5 Chips sind wohl die 5 Varianten des eigentlichen NV40.

2.Also doppelt so schnell halte ich nicht für unmöglich in alltagspraktischen Einstellungen, je nach Applikation.

1. Du meinst, nur unterschiedliche Taktraten bei core und speicher? Nene, damit sind stark veränderte chips gemeint. Anzahl der TMUs, der Vertexshaderunits, etc etc

2.Bei den heutigen CPU-limitierten Games find ich das schon eine Herausforderung. Eben nur durch AA/AF zu erreichen imo.

betasilie
2004-03-03, 03:15:23
Original geschrieben von mapel110
1. Du meinst, nur unterschiedliche Taktraten bei core und speicher? Nene, damit sind stark veränderte chips gemeint. Anzahl der TMUs, der Vertexshaderunits, etc etc

2.Bei den heutigen CPU-limitierten Games find ich das schon eine Herausforderung. Eben nur durch AA/AF zu erreichen imo.
1)Ne, war ein Missverständniss. Ich meinte das so wie Du. Sorry. ;(

2)Klar, aber ohne AA und AF ist doch sowieso alltagsfremd.

Ailuros
2004-03-03, 03:33:53
...while NVIDIA talked up IBM last year, its clear that TSMC is rapidly becoming NVIDIA’s primary foundry partner in a more vocal sense, as the number of processors produced from IBM for NVIDIA are still likely to be dwarfed by those that have continued to be produced by TSMC.

Ich dachte IBM sei die Ueber/Master-Foundry.....

Gast
2004-03-03, 06:19:47
Original geschrieben von Ailuros
Ich dachte IBM sei die Ueber/Master-Foundry.....
quote:
...while NVIDIA talked up IBM last year, its clear that TSMC is rapidly becoming NVIDIA’s primary foundry partner in a more vocal sense, as the number of processors produced from IBM for NVIDIA are still likely to be dwarfed by those that have continued to be produced by TSMC.


Stellt sich die Frage: "the number of [distinct] processors" oder "the [total] number of [produced] processors".

Wenn IBM Mid-Rang UND High-End fertigen würde, wäre obige Behauptung immer noch korrekt, solange man die Anzahl der produzierten Stückzahlen rechnet.

Weiß da wer was?

;Q

LovesuckZ
2004-03-03, 08:49:37
Original geschrieben von mapel110
Wie ein Chip 2xmal schneller werden kann, als eine Geforce 5950 hätte ich zu gern mal belegt durch Gamebenchmarks. Vielleicht haben sie ja 8xS mit dem neuen 8xRGMSAA verglichen :D

Nun, bei diesem Vergleich waere die karte nicht wirklich schnell, verliert die 5950U doch einiges an Füllrate...
Unter PS2.0 Anwendungen werden sie wohl doppelt so schnell schaffen. Das waere aber dann nicht wirklich konkurenzfaehig.

robbitop
2004-03-03, 09:18:41
da IBM nur Enthusiast Chips von nVIDIA fertigen soll und der Marktanteil dieser Chips sehr klein ist, wundert mich diese Aussage kaum.

Ich frage mich nur was er für eine technologie meint, die die Yields verbessern soll...

Sphinx
2004-03-03, 10:53:53
Original geschrieben von LovesuckZ
Nun, bei diesem Vergleich waere die karte nicht wirklich schnell, verliert die 5950U doch einiges an Füllrate...
Unter PS2.0 Anwendungen werden sie wohl doppelt so schnell schaffen. Das waere aber dann nicht wirklich konkurenzfaehig.

Aber PS/VS 3.0 - warum sollte die Performance nur doppelt so schnell sein... das währe ein Schuss ins eigene Knie würde ich behaupten.

Gast
2004-03-03, 11:04:15
Original geschrieben von Ailuros
Indeed, presumably speaking about NV40 specifically, NVIDIA’s CEO states that "if we’re not a lot more than 2 times faster I’m going to be very disappointed".


Das deutet doch wohl eher auf 8x2 / 16x0 + mehr Megahertz hin als auf 16x1 / 32x0, oder?

Wenn sie dann auch noch die Probleme mit PS2.0 (größtenteils) überwinden können würde das imho schon so passen das man >= 2x Speed als gegeben ansehen kann.

Allerdings, Nvidia's CEO war noch nie dafür bekannt, das er es mit der Wahrheit so genau nimmt. Zudem hat er hier auf einer Konferenz gesprochen und muss deshalb natürlich die Werbetrommel entsprechend kräftig rühren.

robbitop
2004-03-03, 11:20:01
Xmas hat schonmal vorgerechnet dass 16x1 / 32x0 mindestens 1,6fachen Speichertakt braucht (Relation: Chiptakt), um nicht dauernd Bandbreitenlimitiert zu sein, und das schliesst MSAA noch nicht mit ein.

Ich glaube das hebt man sich noch für den NV50 auf ^^

ShadowXX
2004-03-03, 11:30:50
Original geschrieben von Gast
Das deutet doch wohl eher auf 8x2 / 16x0 + mehr Megahertz hin als auf 16x1 / 32x0, oder?

Wenn sie dann auch noch die Probleme mit PS2.0 (größtenteils) überwinden können würde das imho schon so passen das man >= 2x Speed als gegeben ansehen kann.

Allerdings, Nvidia's CEO war noch nie dafür bekannt, das er es mit der Wahrheit so genau nimmt. Zudem hat er hier auf einer Konferenz gesprochen und muss deshalb natürlich die Werbetrommel entsprechend kräftig rühren.

Dafuer war er aber sehr vorsichtig mit seinen Aussagen....normalerweise kommen von Ihm mehr die "10 times faster....will blow all others to dust" usw. Aussagen....

Ich glaube deshalb, das nV sehr stark auf Ihren Technologievorteil (PS/VS3.0) setzen wird bei der Vermarktung...den 2x schneller (gegenueber dem nv35) waere gegen die ATI (wenn ATIs Behauptungen stimmen) nicht wirklich der Reisser...

Und ja, ich gebe dir recht...das hoert sich nach hoechstens 8x2 an.....ich glaub langsam das Demis und Uttars (???) idee mit 6x2 + 2x2 ueber den VS doch hinkommen koennte...

J.S.Shadow

LovesuckZ
2004-03-03, 11:44:49
Original geschrieben von ShadowXX
Und ja, ich gebe dir recht...das hoert sich nach hoechstens 8x2 an.....

Solange die Singletexturingoptimierung enthalten ist, sei dies nicht wirklich negativ.

ich glaub langsam das Demis und Uttars (???) idee mit 6x2 + 2x2 ueber den VS doch hinkommen koennte...


Uttar meinte, dass die VS nicht dafür ausgelegt seien Texturen "zu verarbeiten".

Ailuros
2004-03-03, 11:46:49
Shadow,

Technologie-(pre-release)Praesentationen sind meistens so geschrieben dass man es selten leicht hat, klare und sichere Schlussvolgerungen zu ziehen. Man kann vielleicht versuchen die Raetsel zu entziffern, aber ob man den Nagel genau auf den Kopf trifft ist fraglich.

Ob jetzt 16*1, 8*2 oder weiss der Henker was immer ist im Grunde egal, denn wichtig ist was hinten bei so nem Ding herauskommt. Die einzige wichtige Frage ist eigentlich wie sich der Desing gegen ATI's neue Loesung stellen wird und was ATI genau angerichtet hat.

Wie sieht es bei Sony/PS2 genau aus? Nein es ist kein hint auf irgendetwas bestimmtes, nur dass Zahlen nicht allzu viel bedeuten, bis man die Effizienz einer Architektur sehen kann.

LovesuckZ
2004-03-03, 11:47:03
Original geschrieben von Sphinx
Aber PS/VS 3.0 - warum sollte die Performance nur doppelt so schnell sein... das währe ein Schuss ins eigene Knie würde ich behaupten.

PS/VS3.0 haengen am Speed der PS2.0. Ist dieser schon crap, kann man mit den 3.0 Varianten wohl kaum einen verdammt großen Speedvorteil sich "erarbeiten".

Demirug
2004-03-03, 11:47:31
Das mit den Pixel über die Vertexshader laufen lassen könnt ihr beim NV4X vergessen. Funktioniert nicht. Die Textur Fähigkeiten der Vertexshader sind dafür zu schwach.Zudem dürften den Vertexshader auch die Interpolatoren fehlen da man sie für das Vertexprocessing jetzt doch nicht braucht. Bei der Idee ging ich noch davon aus das die Vertexshader zur Implemetierung eines bestimmten Features ebenfalls Interpolatoren bekommen. Bezüglich dieses Features darf ich nicht ins Detail gehen.

Ich habe ja hier eininge Seiten zurück ein paar Fragen in die Diskussion geworfen. Das hatte durchaus einen bestimmten Hintergrund.

Was wir mal auf jeden Fall festhalten können. Es ist sehr einfach "Pipelines" so zu bauen das sie Wahlweise einen Farbwert+Z oder 2 Z-Werte erzeugen.

ow
2004-03-03, 11:47:40
.

LovesuckZ
2004-03-03, 11:50:39
Original geschrieben von ow
Dann irrt er, weil das für VS3.0 Pflicht ist.

Stimmt, es geht wohl nur mit Point Sampling (oder so).
Nunja, Demirug hat's ja schon ausgeführt.

ShadowXX
2004-03-03, 11:54:56
Original geschrieben von LovesuckZ
Solange die Singletexturingoptimierung enthalten ist, sei dies nicht wirklich negativ.



Uttar meinte, dass die VS nicht dafür ausgelegt seien Texturen "zu verarbeiten".

a.) das stimmt..aber ich gehe inzwischen mehr von 6x2 aus...

b.) AFAIK haben VS3.0 durchaus TMUs....aber ich werde gerne eines besseren belehrt...
/Edit: hat sich durch Demis und ows Posting erledigt

Und c.) die Anzahl der "Pipes" und TMUs wird nicht mehr das Mass aller Dinge sein...mehr die Shaderpower...
/Edit: als Tribut an AiL, ist aber auch meine Meinung

Mich irritiert speziell der Satz: "...in a couple of short month..."
Koennte es sein das Sie bei nV noch gar nicht so weit sind, wie wir alle denken??? Laesst sich ATI deshalb etwas Zeit??

Schade, den ich hatte auf eine veroeffentlichunbg kurz hinter der ATI gehofft, damit man beide vergleichen und dann die bessere nehmen kann...

J.S.Shadow

Ailuros
2004-03-03, 11:57:43
AFAIK haben VS3.0 durchaus TMUs....aber ich werde gerne eines besseren belehrt...

AFAIK wird nirgends vorrausgesetzt dass man VS3.0 spezifische TMUs einbaut; ist IMHO auch HW Verschwendung momentan, da die Dinger ja nur bloed herumhocken wuerden *hust*

***edit:

Mich irritiert speziell der Satz: "...in a couple of short month..."
Koennte es sein das Sie bei nV noch gar nicht so weit sind, wie wir alle denken??? Laesst sich ATI deshalb etwas Zeit??

Eine These die fuer beide Sinn machen koennte ist GDDR3 Verfuegbarkeit; wieso GDDR3 eine bessere Idee fuer solche Loesungen ist, wurde ja schon des oefteren gepostet.

Demirug
2004-03-03, 11:59:07
Um mal noch ein paar völlig aus der Luft gegriffene Sachen in die Diskusion zu werfen:

Je kürzer eine Shader-Pipeline ist desto besser läuft eine ordentliche PS 3.0 Hardware.

Die Grösse (in Bits) eines Pixels ist sehr Variable.

Aus der Anzahl der Pipelines ergibt sich nicht die Anzahl der Pixel/Takt. Eine Pipeline erzeugt nicht immer einen Pixel/Takt sie kann aber durchaus auch mehr als einen Pixel/Takt erzeugen.

Demirug
2004-03-03, 12:02:45
Original geschrieben von Ailuros
AFAIK wird nirgends vorrausgesetzt dass man VS3.0 spezifische TMUs einbaut; ist IMHO auch HW Verschwendung momentan, da die Dinger ja nur bloed herumhocken wuerden *hust*

Es wird nicht vorrausgesetzt. Aber die Spec erlaubt das die TMUs für die Vertexshader ein komplett anderes Featureset als die für die Pixelshader zur Verfügung stellen. Die einfachste denkbare TMU kann nur Pointsampling. Dafür braucht man keine Filter, keine Loopbacks usw. Das lässt sich sehr einfach realisieren.

Ailuros
2004-03-03, 12:04:27
Original geschrieben von Demirug
Es wird nicht vorrausgesetzt. Aber die Spec erlaubt das die TMUs für die Vertexshader ein komplett anderes Featureset als die für die Pixelshader zur Verfügung stellen. Die einfachste denkbare TMU kann nur Pointsampling. Dafür braucht man keine Filter, keine Loopbacks usw. Das lässt sich sehr einfach realisieren.

Kein Zweifel, aber wie oft werden diese TMUs im laufenden Jahr dann ueberhaupt benutzt?

Ailuros
2004-03-03, 12:09:12
Original geschrieben von Demirug
Um mal noch ein paar völlig aus der Luft gegriffene Sachen in die Diskusion zu werfen:

Je kürzer eine Shader-Pipeline ist desto besser läuft eine ordentliche PS 3.0 Hardware.

Die Grösse (in Bits) eines Pixels ist sehr Variable.

Aus der Anzahl der Pipelines ergibt sich nicht die Anzahl der Pixel/Takt. Eine Pipeline erzeugt nicht immer einen Pixel/Takt sie kann aber durchaus auch mehr als einen Pixel/Takt erzeugen.

Frage: gute Lektuere (ganz generell) oder nicht?

http://www.anandtech.com/cpu/showdoc.html?i=1956

ShadowXX
2004-03-03, 12:13:04
Original geschrieben von Demirug
Um mal noch ein paar völlig aus der Luft gegriffene Sachen in die Diskusion zu werfen:

Je kürzer eine Shader-Pipeline ist desto besser läuft eine ordentliche PS 3.0 Hardware.

Die Grösse (in Bits) eines Pixels ist sehr Variable.

Aus der Anzahl der Pipelines ergibt sich nicht die Anzahl der Pixel/Takt. Eine Pipeline erzeugt nicht immer einen Pixel/Takt sie kann aber durchaus auch mehr als einen Pixel/Takt erzeugen.

Wir sollten uns glaube ich endgueltig davon trennen Pipelines und TMUs als untrennbare Einheit zu sehen....

Es wird wohl in Zukunft PS und VS Pipelines geben und dazu gibt es dann TMUs die je nach bedarf "geschaltet" werden...und das wird wohl nicht bei TMUs halt machen, sondern auch fuer ROPs und anderes gelten...

J.S.Shadow

ShadowXX
2004-03-03, 12:15:51
Original geschrieben von Ailuros
Kein Zweifel, aber wie oft werden diese TMUs im laufenden Jahr dann ueberhaupt benutzt?

[Devils Advokade on]
Jeweils bei den Praesentationen der Marketingleute...*eg*
[Devils Advokade off]

Ailuros
2004-03-03, 12:17:04
Es wird wohl in Zukunft PS und VS Pipelines geben...

Ausser ich hab Dich falsch verstanden, der naechste Schritt geht eher genau in die andere Richtung; nahmlich unified grids.

Ailuros
2004-03-03, 12:19:14
Original geschrieben von ShadowXX
[Devils Advokade on]
Jeweils bei den Praesentationen der Marketingleute...*eg*
[Devils Advokade off]

In einem hypothetischen Fall wo PS und VS3.0 benutzt werden sollten, waere IMHO Latenz der wichtigste Gedanke fuer die VS texture fetches.

ShadowXX
2004-03-03, 12:24:00
Original geschrieben von Ailuros
Ausser ich hab Dich falsch verstanden, der naechste Schritt geht eher genau in die andere Richtung; nahmlich unified grids.

War bloed von mir Ausgedrueckt und der Begriff Pipelines wohl auch in diesem Zusammenhang falsch...ich meinte im Prinzip genau das, was du als unified grid bezeichnest...

J.S.Shadow

ShadowXX
2004-03-03, 12:27:01
Original geschrieben von Ailuros
In einem hypothetischen Fall wo PS und VS3.0 benutzt werden sollten, waere IMHO Latenz der wichtigste Gedanke fuer die VS texture fetches.

Das war eigentlich mehr ironisch gemeint...klar, waeren die Overkill...

Liesst sich aber ganz gut in den Tech-Specs...

J.S.Shadow

Winter[Raven]
2004-03-03, 12:27:24
Wie man soben nachlesen kann, hat Samsung damit angefangen die DDR3 | GDDR3 in massen zufertigen. Also können wir sicher sein das Nvidia diesen auch verwenden wird !

so wird XFX z.b. den DDR3 Speicher auch auf ihre GF FX 5700Ultras pflanzen ... :)

Demirug
2004-03-03, 12:29:07
Original geschrieben von Ailuros
Kein Zweifel, aber wie oft werden diese TMUs im laufenden Jahr dann ueberhaupt benutzt?

Wahrscheinlich nicht sehr oft. Aber eigene TMUs zu benutzten ist Designtechnisch ja einfacher.

Demirug
2004-03-03, 12:31:40
Selbst ein allgemeiner Shader wird noch eine Pipeline darstellen. Wobei es dann mehr eine Pipeline in dem Sinn wie man den Begriff auch bei CPU benutzt sein wird.

Demirug
2004-03-03, 12:36:03
Original geschrieben von Ailuros
Frage: gute Lektuere (ganz generell) oder nicht?

http://www.anandtech.com/cpu/showdoc.html?i=1956

Im Bezug auf welchen Themenkomplex?

Wenn es um die Grundsätzliche Technik geht würde ich eher zu Arstechnica raten.

Ailuros
2004-03-03, 12:37:23
Original geschrieben von Demirug
Wahrscheinlich nicht sehr oft. Aber eigene TMUs zu benutzten ist Designtechnisch ja einfacher.

Was mich aber hier wieder verwirrt ist bei einer 16 TMU These: 4 TMUs fuer 4 VS SIMDs, oder? Wie sieht dann der Rest des Aufbaus wiederrum aus?

Ailuros
2004-03-03, 12:38:54
Original geschrieben von Demirug
Im Bezug auf welchen Themenkomplex?

Wenn es um die Grundsätzliche Technik geht würde ich eher zu Arstechnica raten.

Im Bezug zu laengeren "Pipelines". Arstechnica ist ein bisschen schwerer zu verdauen fuer den Laien *hust*.

Winter[Raven]
2004-03-03, 12:42:44
Ahso ... vergessen, bei dem GDDR3 Speicher handelt es sich um das 800mhz Model ... :)

DrumDub
2004-03-03, 12:44:27
Original geschrieben von Winter[Raven]
Ahso ... vergessen, bei dem GDDR3 Speicher handelt es sich um das 800mhz Model ... :)

samsung macht auch schon kräftig werbung dafür:

http://img-cdn.mediaplex.com/ads/2095/18934/GDDR3_468x60.gif

Demirug
2004-03-03, 12:50:20
Original geschrieben von Ailuros
Was mich aber hier wieder verwirrt ist bei einer 16 TMU These: 4 TMUs fuer 4 VS SIMDs, oder? Wie sieht dann der Rest des Aufbaus wiederrum aus?

Keine Ahnung wie viele TMUs für die 4 Vertexshader benutzt werden. Vielleicht müssen sich auch alle 4 eine einzige Teilen.

Welcher rest? Die Pixelprozessoren sind ja ein ganz anderes Kapitel.

aths
2004-03-03, 12:53:28
Original geschrieben von Ailuros
Was mich aber hier wieder verwirrt ist bei einer 16 TMU These: 4 TMUs fuer 4 VS SIMDs, oder? Wie sieht dann der Rest des Aufbaus wiederrum aus? Ich habe doch schon auf das DX9SDK hingewiesen. Was muss eine Vertex-Shader-TMU alles können?

Demirug
2004-03-03, 12:54:21
Original geschrieben von Ailuros
Im Bezug zu laengeren "Pipelines". Arstechnica ist ein bisschen schwerer zu verdauen fuer den Laien *hust*.

Im Bezug auf GPU-Shader-Pipelines sollte man besser nichts über CPU-Pipelines lesen. Auch wenn ich oben schrieb das der Begriff in Zukunft eher wie bei den CPUs zu verstehen sein so meinte ich damit die Grundsätzliche vorgehensweise das Arbeit eben in kleine Schritte aufgeteilt wird.

Bei einer GPU-Shader-Pipeline ergeben sich aus technischer Sicht ganz andere Probleme wie bei einer CPU. Um der nächsten Frage vorzubeugen. AFAIK gibt es bisher zu dem Thema GPU-Shader-Pipelines keinen Artikel zum Nachlesen.