Archiv verlassen und diese Seite im Standarddesign anzeigen : Offizieller Speku-Thread R420 (war R420 12 Pipelines)
Seiten :
[
1]
2
3
4
5
6
7
8
9
10
11
12
http://www.theinquirer.net/?article=14739
Achtung: FUAD
egdusp
2004-03-15, 22:15:27
Sind das denn auch "Extreme" Pipelines? :D
FUAD :chainsaw:
mfg
egdusp
reunion
2004-03-15, 22:24:08
Original geschrieben von Gast
http://www.theinquirer.net/?article=14739
Achtung: FUAD
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1647129#post1647129
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1646457#post1646457
:naughty:
Exxtreme
2004-03-16, 09:57:04
Auch ich gehe von 12 Renderpipes aus ... nämlich 3x RV360. :) Das passt auch zu der Angabe von 6 Vertexshader-Units.
egdusp
2004-03-16, 10:22:23
Original geschrieben von Exxtreme
Auch ich gehe von 12 Renderpipes aus ... nämlich 3x RV360. :) Das passt auch zu der Angabe von 6 Renderpipelines.
Funktioniert denn dannn überhaupt HierZ?
Außerdem sind 3x RV360 ca. 200 mio Transistoren. Da kann man sicher noch etwas einsparen, aber ob das reicht.
mfg
egdusp
Exxtreme
2004-03-16, 10:26:46
Original geschrieben von egdusp
Funktioniert denn dannn überhaupt HierZ?
Außerdem sind 3x RV360 ca. 200 mio Transistoren. Da kann man sicher noch etwas einsparen, aber ob das reicht.
mfg
egdusp
Ich spreche ausschliesslich von den Pipes. Man kann schlecht die Transistor-Zahl anhand der Anzahl der Pipelines abschätzen.
Demirug
2004-03-16, 10:38:06
Exxtreme, was mir an den 12 (oder 3*4) Pipelines nicht so gut gefällt ist das sich 3 Quads schlecht in grösseren Quadraten (4*4, 8*8, ...) verteilen lassen. Dadurch würde das ganze Hir-Z viel aufwendiger.
Es könnte natürlich sein das Hir-Z mit 4 Quads arbeitetet und alle Quads welche die Prüfung überleben in einen FIFO schiebt und sich die Pipelines aus diesem FIFO einfach immer die nächsten X Quads herausholen und die Pipelines damit nicht mehr bestimmten Quadraten im Framebufer zugeordnet sind. Diese Lösung hätte zumindestens den Vorteil das man wenn Pixelprozessoren deaktiviert nicht auch Hir-Z mit deaktivieren muss.
Das ich 12 vollständige Pipelines bei einem 256 Bit Speicherinterface für Blödsinn halte habe ich aber schon gesagt, oder?
Exxtreme
2004-03-16, 11:02:52
Original geschrieben von Demirug
Das ich 12 vollständige Pipelines bei einem 256 Bit Speicherinterface für Blödsinn halte habe ich aber schon gesagt, oder?
Ja. Aber wenn man das Speicherinterface höher taktet als den Chip, dann geht die Rechnung wiederum auf. Und es kann sein, daß ATi sich was einfallen ließ um die Speicherlast zu senken.
Ailuros
2004-03-16, 12:41:53
Original geschrieben von Demirug
Exxtreme, was mir an den 12 (oder 3*4) Pipelines nicht so gut gefällt ist das sich 3 Quads schlecht in grösseren Quadraten (4*4, 8*8, ...) verteilen lassen. Dadurch würde das ganze Hir-Z viel aufwendiger.
Es könnte natürlich sein das Hir-Z mit 4 Quads arbeitetet und alle Quads welche die Prüfung überleben in einen FIFO schiebt und sich die Pipelines aus diesem FIFO einfach immer die nächsten X Quads herausholen und die Pipelines damit nicht mehr bestimmten Quadraten im Framebufer zugeordnet sind. Diese Lösung hätte zumindestens den Vorteil das man wenn Pixelprozessoren deaktiviert nicht auch Hir-Z mit deaktivieren muss.
Das ich 12 vollständige Pipelines bei einem 256 Bit Speicherinterface für Blödsinn halte habe ich aber schon gesagt, oder?
Mal abgesehen von dem Pipeline Quatsch und jetzt mal ganz auf die quads konzentriert, Wavey hat ein paar hints abgelassen was super-tiling und quads betrifft, nur leider kann ich nicht genau entziffern was der damit genau meinte und ich bin auch nicht in der Lage irgendetwas auszudenken mit so generellem Zeug.
Demirug
2004-03-16, 12:48:50
Original geschrieben von Exxtreme
Ja. Aber wenn man das Speicherinterface höher taktet als den Chip, dann geht die Rechnung wiederum auf. Und es kann sein, daß ATi sich was einfallen ließ um die Speicherlast zu senken.
Gehen wir mal von syncronen Takten aus ;)
Demirug
2004-03-16, 12:49:55
Original geschrieben von Ailuros
Mal abgesehen von dem Pipeline Quatsch und jetzt mal ganz auf die quads konzentriert, Wavey hat ein paar hints abgelassen was super-tiling und quads betrifft, nur leider kann ich nicht genau entziffern was der damit genau meinte und ich bin auch nicht in der Lage irgendetwas auszudenken mit so generellem Zeug.
Hir-Z arbeitet mit Super-Tiles und wenn ich Wavey richtig verstanden habe dann hat er was die 3 Quads angeht die gleichen bedenken wie ich geäussert.
Nvidia realisiert wohl auch ein 8x2 oder 16x1 Design. Warum sollte dann ein 12x1 Design beim r420 unrealistisch sein?
Original geschrieben von egdusp
Sind das denn auch "Extreme" Pipelines? :D
FUAD :chainsaw:
mfg
egdusp
Was sind extreme Pipelines?
LovesuckZ
2004-03-16, 15:18:57
Original geschrieben von R300
Was sind extreme Pipelines?
Tri-TMU mit 2FP Einheiten, hoffe so richtig :)
/edit: Laut dem, was man so über die ehemaligen extreme Pipelines" fand
Demirug
2004-03-16, 15:35:57
Original geschrieben von LovesuckZ
Tri-TMU mit 2FP Einheiten, hoffe so richtig :)
/edit: Laut dem, was man so über die ehemaligen extreme Pipelines" fand
Das war eine Interpretation. Was man sich genau darunter vorstellen soll wurde ja bisher nicht bekannt.
DrumDub
2004-03-16, 15:47:52
Original geschrieben von R300
Was sind extreme Pipelines?
das weiß bisher noch keiner so recht.
siehe: http://www.beyond3d.com/forum/viewtopic.php?t=10821&postdays=0&postorder=asc&start=60
egdusp
2004-03-16, 16:11:40
Original geschrieben von R300
Was sind extreme Pipelines?
Der Witz war, dass FUAD (AFAIR) ursprünglich von "extreme pipelines" beim R420 berichtet hat. Nun scheint er das wieder vergessen zu haben und redet nur von Pipelines.
mfg
egdusp
DrumDub
2004-03-16, 16:29:07
Original geschrieben von egdusp
Der Witz war, dass FUAD (AFAIR) ursprünglich von "extreme pipelines" beim R420 berichtet hat. Nun scheint er das wieder vergessen zu haben und redet nur von Pipelines.
mfg
egdusp
hmm... könnte auch ursprünglich vom ati-marketing kommen:
OT I think the "8 extreme pipes" rumor came from original R400 samples sent to devs, in which case R500 isn't too far.
http://www.beyond3d.com/forum/viewtopic.php?t=10821&postdays=0&postorder=asc&start=80
ShadowXX
2004-03-16, 19:49:44
Original geschrieben von DrumDub
hmm... könnte auch ursprünglich vom ati-marketing kommen:
OT I think the "8 extreme pipes" rumor came from original R400 samples sent to devs, in which case R500 isn't too far.
http://www.beyond3d.com/forum/viewtopic.php?t=10821&postdays=0&postorder=asc&start=80
Es gab lauffähige r400-Chips???
egdusp
2004-03-16, 22:28:37
Original geschrieben von DrumDub
quote:
OT I think the "8 extreme pipes" rumor came from original R400 samples sent to devs, in which case R500 isn't too far.
http://www.beyond3d.com/forum/viewtopic.php?t=10821&postdays=0&postorder=asc&start=80
Ist aber nicht von einer zuverlässigern Quelle. Username: vb. Kommt mir zwar irgendwie bekannt vor, aber hat nur ein paar posts bei B3d.
mfg
egdusp
Tyler_Durden
2004-03-16, 23:06:05
ich dachte der damalige r400 wäre technisch nicht im vorgegebenen Zeitrahmen machbar gewesen? wie sollen dann schon lauff. samples existiert haben?
ironMonkey
2004-03-16, 23:29:55
Es gibt wohl nicht viele die genau wissen wie es bei ATI Intern aussieht, sonst müßte man ja nicht Spekulieren, von daher kann dann wohl auch keiner genau sagen wie es wirklich mit dem R400 aussah.
Wenn einem Automobil Hersteller ein paar Sachen nicht gefallen( Ausstaung, sontiges) dann werden diese abgeändert für die Endgültige Serien Version, das heißt aber nicht das der Wagen nicht Fahrbereit währe aber keiner bekommt ihn vorgestellt und es heißt der Zeitraum ist zu klein und man muss die Präsäntation verschieben.
Gruß
Original geschrieben von ShadowXX
Es gab lauffähige r400-Chips???
Natürlich, was sollte sonst in den XBox2 - Dev-Kit's stecken (das sagen zumindest die Rumours, was davon stimmt, keine Ahnung)
LovesuckZ
2004-03-17, 09:47:21
Original geschrieben von Gast
Natürlich, was sollte sonst in den XBox2 - Dev-Kit's stecken (das sagen zumindest die Rumours, was davon stimmt, keine Ahnung)
r360 Karten. Gaebe es lauffaehige Karten, dann waere der r400 einfach nur langsam gewesen...
DrumDub
2004-03-17, 12:15:23
Original geschrieben von egdusp
http://www.beyond3d.com/forum/viewtopic.php?t=10821&postdays=0&postorder=asc&start=80
Ist aber nicht von einer zuverlässigern Quelle. Username: vb. Kommt mir zwar irgendwie bekannt vor, aber hat nur ein paar posts bei B3d.
mfg
egdusp
deshalb sagt ich ja auch "könnte". ;)
Kann auch einfach sein daß man aus nem Wafer nur ein paar mlauffähige Chips bekommen hat und die Ausbeute viel zu lein gewesen wäre.
Sphinx
2004-03-17, 19:36:22
Original geschrieben von LovesuckZ
r360 Karten. Gaebe es lauffaehige Karten, dann waere der r400 einfach nur langsam gewesen...
Quelle ? ,) *gg Ich sage mal zu schnell...
Gil-galad
2004-03-18, 20:15:46
"Zudem können wir nun bestätigen, dass der R420 mit insgesamt zwölf Pipelines ausgeliefert werden wird."
ComputerBase (http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/maerz/cebit_neues_nv40_r420/)
Da bin ich ja mal gespannt.
Karümel
2004-03-18, 20:26:22
Was genau kann
"insgesamt zwölf Pipelines " alles bedeuten ???
Winter[Raven]
2004-03-18, 21:58:16
Ob es am Ende 12 sind, muss man abwarten. Ich vertrau derzeit CB einfach nicht.
bzw. vertrau ich den nie, den INQ zu quoten ist nicht so dolle.
reunion
2004-03-18, 22:01:16
Original geschrieben von Winter[Raven]
Ob es am Ende 12 sind, muss man abwarten. Ich vertrau derzeit CB einfach nicht.
bzw. vertrau ich den nie, den INQ zu quoten ist nicht so dolle.
"Zudem können wir nun bestätigen, dass der R420 mit insgesamt zwölf Pipelines ausgeliefert werden wird"
Ziemlich eindeutig findest du nicht? ;)
Auch interessant:
Der nV40 aus dem Hause nVidia wird es derweil wohl nicht auf 16x1 oder 8x2 Pipelines bringen, besitzt aber einen integrierten Hardware-Decoder.
Selbe Quelle
anderer Gast
2004-03-18, 22:45:18
Aber insgesamt impliziert doch das man nicht von 12 Pipelines im klassichen Sinn ausgeht sondern das da meinetwegen 8 klassiche plus 4 Spezialpipelines oder sonstwas zusammengerechnet wurden. Heutzutage kann man zwar nicht mehr von klassichen Pipelines sprechen aber irgendwie klingt das eher nach Zusammenrechnen von Marketinggeblubber. Sorry aber es klingt so.
Dalai-lamer
2004-03-18, 22:54:54
Ich frage mich nur eins...
Wie kann man solche "Mammutprojekte so Geheimhalten ? besonders wenn sich jeder um diese Infos reisst ? Und da arbeiten bestimmt nciht nur 2-3 Leute dran...
BodyLove
2004-03-18, 23:29:30
dumme Frage aber was soll,Der nV40 aus dem Hause nVidia wird es derweil wohl nicht auf 16x1 oder 8x2 Pipelines bringen, besitzt aber einen integrierten Hardware-Decoder. wirklich bedeuten? Noch nicht mal ein 8x2 Layout?
Winter[Raven]
2004-03-18, 23:34:50
@ reunion
Ja, und wenn meine Oma Flügel hätte könnte sie auch vielleicht Fliegen. Sorry aber nur weil dort was von "wir nun bla bla bla" steht muss es bei weitem nicht stimmen.
Noch nicht mal ein 8x2 Layout?
Es bleibt abzuwarten, den CB macht keine Angabe um welche Architektur es sich beim NV40 handelt, entweder haben die sich was aus den Gerüchten zusammen geschüstert oder die haben einfach kein Plan.
Und wieso sollte Nvidia lange vor dem Lunch einer Webseite wie CB irgendwelche Infos geben, wo NV bis jetzt geschweigt hat ?
ironMonkey
2004-03-18, 23:45:06
Ist ja nicht umsonst im Speku Forum und angaben zum NV 40 wurden ja keine direkt gemacht nur zum R420.
@Dalai-Lamer, wenn du Poker spielst, zeigst du deinem Gegner dann auch deine Karten oder sagts irgendwelchen Leuten denen du nicht 100% vertauen kannst was du auf der Hand hast???
BodyLove
2004-03-18, 23:49:28
@Winter
CB ist eigentlich sehr vorsichtig mit solchen Meldungen. In diesem Fall scheinen sie sich derweil doch sehr sicher zu sein. Komisch ist es allemal. Was hat den Aths, Demi, Ex und Ail und weitere dazu zu sagen? Möglicherweise richtig? Möglicherweise falsch?
Ich bin eigentlich von einem 8x2Layout fest ausgegangen.mhh
Ailuros
2004-03-19, 00:30:18
Ich hab nicht mehr zu sagen als ich schon gesagt habe, nur kann ich es ein bisschen deutlicher machen:
es ist sch**ssegal wie X*Y aussieht, wenn man aus einem 256bit Bus nicht mehr als 2 quads (*edit: pro Takt) rausquetschen kann, ohne irgendwelchen verrueckten Bedingungen zu folgen.
ShadowXX
2004-03-19, 08:55:29
^^ vielleicht als ergaenzung zu AiL:
AFAIK hat Demi (& Dave Baumann) letztens gesagt, das 6x2 nicht gerade das gelbe vom Ei wäre...was überigens auch für echte "12x1" gilt.
Es kommt doch wohl sehr stark auf die kreative Zählweise des Marketing an....anders gesagt: was wird den gezählt und als dann als Pipeline verkauft??
Und dann sollte man auch nicht aus dem Hinterkopf verlieren, das Pipelines bei den neuen Designs nicht alles sind...Shaderpower heisst das Zauberwort...
Wir sollten uns lieber Fragen wieviele Pixelprozessoren die jeweiligen Chips haben und wieviele A/T-Ops diese bewältigen...
J.S.Shadow
Demirug
2004-03-19, 10:29:14
Ich habe nur mal gesagt das sich 6*2 schlecht auf Quads aufteilen lässt. Man müsste das in 3*2*2 aufteilen und die Quads im 2 Takt betrieb abarbeiten. Bei 12*1 gibt es das Problem nicht.
Bei ATI habe ich zu bedenken gegeben das eine 12 Pipeline struktur (3*4) sich nicht so ganz mit der derzeitigen Hir-Z verträgt aber ja auch gleich angegeben wie man es ändern müsste. Da im Zusammenhang mit dem R420 ja plötzlich auch von einer 16 Pipelines fähigkeit gesprochen wurde macht die von mir Angesproche änderung sogar Sinn. Soll heisen das HIR-Z schon auf 16 Pipeline (4*4) ausgelegt wurde. Hir-Z könnte also pro Takt bis zu 4 Quads ausgeben. Ein 12 Pipeline R420 aber nur maximal 3 pro Takt weiterverarbeiten. HIR-Z würde dann eben öfter mal blockiert werden.
ShadowXX
2004-03-19, 11:23:47
Original geschrieben von Demirug
Ich habe nur mal gesagt das sich 6*2 schlecht auf Quads aufteilen lässt. Man müsste das in 3*2*2 aufteilen und die Quads im 2 Takt betrieb abarbeiten. Bei 12*1 gibt es das Problem nicht.
Bei ATI habe ich zu bedenken gegeben das eine 12 Pipeline struktur (3*4) sich nicht so ganz mit der derzeitigen Hir-Z verträgt aber ja auch gleich angegeben wie man es ändern müsste. Da im Zusammenhang mit dem R420 ja plötzlich auch von einer 16 Pipelines fähigkeit gesprochen wurde macht die von mir Angesproche änderung sogar Sinn. Soll heisen das HIR-Z schon auf 16 Pipeline (4*4) ausgelegt wurde. Hir-Z könnte also pro Takt bis zu 4 Quads ausgeben. Ein 12 Pipeline R420 aber nur maximal 3 pro Takt weiterverarbeiten. HIR-Z würde dann eben öfter mal blockiert werden.
Ich wollte ja auch nicht sagen, das es unmöglich oder völliger quatsch ist, sondern eben nicht der Idealfall.
....hmmm....3x2x2 *hust* -> wäre doch eine (Grund-)Überlegung wert, oder??
J.S.Shadow
Demirug
2004-03-19, 11:28:02
Original geschrieben von ShadowXX
....hmmm....3x2x2 *hust* -> wäre doch eine (Grund-)Überlegung wert, oder??
J.S.Shadow
Sicher. Wenn ich allerdings 3 Pixelprozesoren bauen würde und dann 12 TMUs verteilen müsste würde ich eher 3*4*1 nehmen. Die bessere Granulariät bei der Befehlsabarbeitung sollte die mögliche Vorteile bei unterschiedlichen Branching Pfaden innerhalb eines Quads leicht schlagen.
LovesuckZ
2004-03-19, 11:59:26
Original geschrieben von BodyLove
@Winter
CB ist eigentlich sehr vorsichtig mit solchen Meldungen.
Nein, sie schreiben, wie fast auch jede andere Seite, vieles auch mal von inquirer ab, egal wie unsinnig es auch ist.
robbitop
2004-03-19, 12:08:09
@AiL
zwar gehen generell nicht wirklich mehr als 2 Quads in ein 256bit DDR Interface, aber es gibt genug Füllratenlimitierte Szenen oder PS limitierte Szenen die das ad absurdum führen würden oder?
Winter[Raven]
2004-03-19, 13:23:33
@Winter
CB ist eigentlich sehr vorsichtig mit solchen Meldungen.
Ja, das hat man sehr schön gesehn als sie mehrmals die Meldungen von INQ fast Wort zu Wort kopiert haben.
ATI's R420 will use a native PCI Express architecture, which executives have said will be intrinsically faster than the NV40's bridge chip. McCarron, however, said that the jury's still out. "I wouldn't necessarily dismiss their approach out of hand," he said.
Quelle:
http://www.extremetech.com/article2/0,3973,1550266,00.asp?kc=ETRSS02129TX1K0000532
Die Frage ist nur bezieht er sich auf das Interface, welches bei ATI (weil native) schneller sein soll oder generell den Chip.
ShadowXX
2004-03-19, 14:29:55
Original geschrieben von Gast
ATI's R420 will use a native PCI Express architecture, which executives have said will be intrinsically faster than the NV40's bridge chip. McCarron, however, said that the jury's still out. "I wouldn't necessarily dismiss their approach out of hand," he said.
Quelle:
http://www.extremetech.com/article2/0,3973,1550266,00.asp?kc=ETRSS02129TX1K0000532
Die Frage ist nur bezieht er sich auf das Interface, welches bei ATI (weil native) schneller sein soll oder generell den Chip.
Das bezieht sich nur auf das Interface...(den er bezieht sich ja nur auf den Bridge-Chip).
Original geschrieben von Gast
ATI's R420 will use a native PCI Express architecture, which executives have said will be intrinsically faster than the NV40's bridge chip. McCarron, however, said that the jury's still out. "I wouldn't necessarily dismiss their approach out of hand," he said.
Quelle:
http://www.extremetech.com/article2/0,3973,1550266,00.asp?kc=ETRSS02129TX1K0000532
Die Frage ist nur bezieht er sich auf das Interface, welches bei ATI (weil native) schneller sein soll oder generell den Chip.
Er bezieht sich nur auf das Interface bzw. die Vorteile des nativen Interfaces zu einem BridgeChip und der ist die Performance.
Herr McCarron vergisst allerdings, dass derzeit verfügbare Applikationen überhaupt nicht nach einem schnelleren Interface schreien. So ist zwar der theoretische Performancemehrwert vorhanden, dürfte aber in der Praxis förmlich eingehen. Bisherige Spiele sind eben nach den Anforderungen bzw. Möglichkeiten von AGP4x und zum Teil AGP8x entwickelt worden. An PCI-Express und mehr Bandbreite hat da keiner gedacht. Wozu auch. Bis das Interface im Massenmarkt sich durchgesetzt hat, haben wir 2005.
-error-
2004-03-19, 17:56:03
Während zu nVidias neuestem Pixelbeschleuniger bereits ein konkreter Veröffentlichungstermin bekannt ist, war es um ATis R420 bisher recht leise. Im Herzen Hannovers auf der CeBIT gibt es hinter verschlossenen Türen jedoch weit mehr zu sehen, als der Otto-Normal-Besucher zu Gesicht bekommt.
So sickerte aus verlässlicher Quelle durch, dass auch die Kanadier ihren neuesten Chip im April launchen - offensichtlich nahezu zeitgleich mit Erzkonkurrent nVidia, die den 14. April als Produktstart anvisiert haben. Mitte April scheint also die nächste Runde im Kampf um den schnellsten Grafikchip der Welt in eine neue Runde zu gehen.
Zudem können wir nun bestätigen, dass der R420 mit insgesamt zwölf Pipelines ausgeliefert werden wird. Der nV40 aus dem Hause nVidia wird es derweil wohl nicht auf 16x1 oder 8x2 Pipelines bringen, besitzt aber einen integrierten Hardware-Decoder. Zudem scheint sich bei beiden Firmen kein Paperlaunch abzuzeichnen. Uns gegenüber versicherten einige Hersteller aller Coleur, dass rechtzeitig zum Launch eine Vielzahl an Karten vieler Hersteller verfügbar sein wird. Mit ersten Samples ist schon in naher Zukunft zu rechnen.
So nun ist es amtlich, Quelle Computerbase.de
Gil-galad
2004-03-19, 18:11:05
Original geschrieben von Powerd by ATI
So nun ist es amtlich, Quelle Computerbase.de
Schau mal auf Seite 2 ;)
-error-
2004-03-19, 18:23:17
Naja kein Bock den ganzen Thread durchzulesen *gr*
Die letzte (also diese) Seite des Threads hätte da schon vollkommen gereicht... ;)
Razor
-error-
2004-03-19, 20:01:35
Ein Hinweis hätte auch gereicht:P
robbitop
2004-03-19, 21:06:49
ich glaubs erst wenn ichs sehe, mir sind "sichere Quellen" immer recht suspekt. Ich gehe da nicht genauer drauf ein...
ShadowXX
2004-03-19, 21:32:23
Naja...da nV scheinbar eine Heizung mit 6x2 gebaut hat (siehe anderer Thread -> http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=131902), traue ich es ATI durchaus zu ein 12x1 Design auf die Beine zu stellen...
J.S.Shadow
Original geschrieben von ShadowXX
Naja...da nV scheinbar eine Heizung mit 6x2 gebaut hat (siehe anderer Thread <snup>Ist doch schon läääääängst überholt !
:D
Derzeit ist 16x1 (NV) vs 12x1 (ATI) im Gespräch...
(wie ich das bewerte, sage ich lieber nicht ;-)
Razor
Winter[Raven]
2004-03-20, 12:15:23
Derzeit ist 16x1 (NV) vs 12x1 (ATI) im Gespräch...
joui, die Gerüchte verdichten sich wirklich auf 16x1 beim NV40 ...
Ich glaube ich mach schon mal ein Kredit bei der nächsten Bank klar.
Godmode
2004-03-20, 12:43:37
Ich warte lieber auf die ersten Benches zwischen R420 und NV40, und dann entscheide ich was ich kaufe.
Tendiere aber eher zum NV40 da ich mich schon auf PS/VS 3.0 freue, zum rumspielen :)
reunion
2004-03-20, 14:24:07
Original geschrieben von r@e
Ist doch schon läääääängst überholt !
:D
Derzeit ist 16x1 (NV) vs 12x1 (ATI) im Gespräch...
(wie ich das bewerte, sage ich lieber nicht ;-)
Razor
Naja, bei ATI wird nur von 12pipes gesprochen, könnte auch 12x1tri sein ;)
LovesuckZ
2004-03-20, 14:38:57
Original geschrieben von reunion
Naja, bei ATI wird nur von 12pipes gesprochen, könnte auch 12x1tri sein ;)
Nunja, da einige schon über den Bandbreitenbedarf bei 16x1 sich negativ aeußern, werde wohl 12x1 tri nicht ganz zu treffen :)
ShadowXX
2004-03-20, 14:40:41
Original geschrieben von Winter[Raven]
joui, die Gerüchte verdichten sich wirklich auf 16x1 beim NV40 ...
Ich glaube ich mach schon mal ein Kredit bei der nächsten Bank klar.
Ja...und er hat inzwischen auch den "Harry-Potter-Modus" integriert, der Ihm im 3DMark2001SE über 36000 Punkte beschert....(lol oder rolf reicht da eigentlich nicht mehr)....und von den Leuten ist auch das 16x1 Gerücht....
Du kannst dir dann ja denken, was ich davon halte...
Ich bleibe dabei, da ich an ein weiteres X*2 Design von nV glaube...welches im Besten fall 8*2 ist...
Zumindest glaube ich von den bisher aufgetauchten Werten keinen einzigen mehr....auch die über 7000MPixel sind eigentlich zu hoch...und die beiden haben sich inzwischen auch mehr als einmal verplappert....
J.S.Shadow
P.S.
momentan sehe ich beide Karten "floppen"...(relativ gesehen)
Demirug
2004-03-20, 15:13:14
Original geschrieben von ShadowXX
Ich bleibe dabei, da ich an ein weiteres X*2 Design von nV glaube...welches im Besten fall 8*2 ist...
Wetten wir?
ShadowXX
2004-03-20, 16:37:21
Original geschrieben von Demirug
Wetten wir?
Wetten wäre unfair, da du sicher bessere Infos hast.
Zumal ich seit den PR-Stunts von nV beim nv30 nicht mal nV glaube wenn sie sagen das es ein 16x1 ist....
Wenn du allerdings glaubst das ein 16x1 von nv möglich ist, muss ich mich wohl deinem Fachwissen beugen....
Zumindest ziehe ich es dann in betracht....
Spätenstens am 14.04. wissen wir, was nV meint was Ihre HW denn ist...
Naja..wenn es denn wirklich 16x1 mit mehr als 2 Pixelprozessoren wird und nV auch noch ihre angepeilten Taktraten packt, muss ATI sich warm anziehen....ausser SIe haben 12x1 Tri mit mindestens 3 Pixelprozzesoren...
J.S.Shadow
//edit: funktioniert Brilinear eigentlich auch mit X*1 Designs??
LovesuckZ
2004-03-20, 16:52:05
Original geschrieben von ShadowXX
//edit: funktioniert Brilinear eigentlich auch mit X*1 Designs??
funktioniert auch, wenn man X*1 tri verbaut :)
Original geschrieben von reunion
Naja, bei ATI wird nur von 12pipes gesprochen, könnte auch 12x1tri sein ;) 'Feuchte' Träume, ja ?
:D
Razor
Original geschrieben von ShadowXX
Naja..wenn es denn wirklich 16x1 mit mehr als 2 Pixelprozessoren wird und nV auch noch ihre angepeilten Taktraten packt, muss ATI sich warm anziehen....ausser SIe haben 12x1 Tri mit mindestens 3 Pixelprozzesoren...Willst Du damit sagen, dass die Anzahl (und nicht der Aufbau) von Pixelprozssoren in irgend einer Weise eine Rolle spielt ?
Und wenn ja, was bitte für eine ?
:???:
Razor
zeckensack
2004-03-20, 17:07:17
Original geschrieben von r@e
Willst Du damit sagen, dass die Anzahl (und nicht der Aufbau) von Pixelprozssoren in irgend einer Weise eine Rolle spielt ?
Und wenn ja, was bitte für eine ?
:???:
Razor Effizienz beim Branching.
ShadowXX
2004-03-20, 17:43:40
Original geschrieben von LovesuckZ
funktioniert auch, wenn man X*1 tri verbaut :)
Das wär dann aber Nonsens...hatte ich auch schon mal gefragt...
Wenn du schon HW Tri hast...wofür dann noch Brilinear??
ShadowXX
2004-03-20, 17:48:43
Original geschrieben von r@e
Willst Du damit sagen, dass die Anzahl (und nicht der Aufbau) von Pixelprozssoren in irgend einer Weise eine Rolle spielt ?
Und wenn ja, was bitte für eine ?
:???:
Razor
a.) siehe Zeckensacks posting
und
b.) Anzahl und Aufbau spielen eine Rolle....(wobei bei schlechten Aufbau, die Anzahl natürlich auch nix (bzw. nicht so viel) mehr bringt.
Damit will ich jetzt aber nicht sagen, das der/die nV40 Pixelprozessoren schlecht vom Aufbau sind....darüber kann man erst entscheiden, wenn man die fertige Karte in der Hand hat.
reunion
2004-03-20, 21:31:59
Original geschrieben von ShadowXX
Ja...und er hat inzwischen auch den "Harry-Potter-Modus" integriert, der Ihm im 3DMark2001SE über 36000 Punkte beschert....(lol oder rolf reicht da eigentlich nicht mehr)....und von den Leuten ist auch das 16x1 Gerücht....
Du kannst dir dann ja denken, was ich davon halte...
Ich bleibe dabei, da ich an ein weiteres X*2 Design von nV glaube...welches im Besten fall 8*2 ist...
Zumindest glaube ich von den bisher aufgetauchten Werten keinen einzigen mehr....auch die über 7000MPixel sind eigentlich zu hoch...und die beiden haben sich inzwischen auch mehr als einmal verplappert....
J.S.Shadow
P.S.
momentan sehe ich beide Karten "floppen"...(relativ gesehen)
ACK, das ganze errinert einfach zu stark an den NV30, damals wurde auch mit unglaubliche Daten und Benchmarkergebnisse die eine 9700pro bei weitem überflügelten geworben(die sich dann als Fake herraustellten), übergeblieben ist dann ein Chip mit enormer Leistungsaufnahme und FX-flow(:D).
Ich bin gespannt wie nV die 150W des nV40 abführen will...
mfg
reu
Exxtreme
2004-03-20, 21:34:08
Original geschrieben von reunion
Ich bin gespannt wie nV die 150W des nV40 abführen will...
mfg
reu
Ich auch. Das ist die Leistung von 5 Elektronik-Lötkolben. =)
Demirug
2004-03-20, 21:37:52
Ja, die Kühlung ist noch eines der wirklich grossen Geheimnisse.
Der NV40 wird am 13 April vorgestellt,nun ist ATI dran einen Termin zu nennen.
Was meint ihr ,ob man den NV40 im Mai kaufen kann ?
Winter[Raven]
2004-03-20, 22:13:54
der R420 soll nächste woche auf der GDC vorgestellt werden.
Nvidia's Jens Neuschäfer hat auf der Cebit fast geschoren dass der NV40 im Mai wirklich überall in den Läden stehen soll.
ShadowXX
2004-03-20, 22:28:16
Original geschrieben von Winter[Raven]
der R420 soll nächste woche auf der GDC vorgestellt werden.
na dann werden wir ja zumindest von einem Chip demnächst zuverlässige Paperspecs haben...;D
[sarkasmus on]
Oder wollen SIe ihn sogar öffentlich vorführen??
[sarkasmus off]
...ich weiss sowieso nicht, warum ATI/nV noch so kurz vor der Veröffentlichung so ein trara um ihre specs machen...ändern kann man jetzt sowieso nix mehr...
Nvidia's Jens Neuschäfer hat auf der Cebit fast geschoren dass der NV40 im Mai wirklich überall in den Läden stehen soll.
Das ist eine der wenigen Meldungen, die ich sogar glaube...zumindest das er die Info so bekommen hat ...wenns dann nicht so kommt, hat man dann ja einen Schuldigen...
christoph
2004-03-20, 22:40:33
Original geschrieben von ShadowXX
...ich weiss sowieso nicht, warum ATI/nV noch so kurz vor der Veröffentlichung so ein trara um ihre specs machen...ändern kann man jetzt sowieso nix mehr...
sonst hätten wir ja gar keinen spass ;)
robbitop
2004-03-20, 22:47:58
ATi wird dank low k und geringerer Transistoranzahl und vermeintlich geringeren Speichertaktes weniger Verlustleistung habem, jedoch wird auch der R420 diesbezüglich sicher kein sparsamer Chip sein.
Die 150W kommen ja nicht vom Chip selbst, wenn sie denn dann mal stimmen.
Ich kann mir bei 256MB GDDR3 gut vorstellen, dass da knapp 1/2 der Verlustleistung in die BGAs und vieleicht in ein paar Bauteile gehen.
Das Gehäuse wird sicher gut aufgeheizt werden aber den Chip selbst zu kühlen sollte doch machbar sein oder?
Demirug
2004-03-20, 22:56:57
robbitop, GDDR3 ist relative sparsam was die Leistungaufnahme angeht.
Im Normalbetrieb sollten die 8 Chip nicht mehr als 9,2-13W brauchen. Der maximalwert liegt dann bei etwa 12,3-16,5W.
Die grosse Spanne kommt aufgrund der unterschiedlichen Geschwindigkeiten 500 - 800 MHz zustanden.
robbitop
2004-03-20, 23:03:21
ich dachte die Änderungen zw GDDR2 und GDDR3 waren nicht so groß?
Und bei DDR2 der FX5800 haben allein 128MB schon 40W gefordert.
Naja dann kommt mir der Wert von 150W wirklich etwas hoch vor...man muss sehen ob das so stimmt. Denn von 130Mio Transistoren auf 175Mio gleich den ~2fachen Verbrauch..? naja
Original geschrieben von robbitop
Naja dann kommt mir der Wert von 150W wirklich etwas hoch vor...man muss sehen ob das so stimmt. Denn von 130Mio Transistoren auf 175Mio gleich den ~2fachen Verbrauch..? naja Dass kommt mir sowieso mehr als merkwürdig vor !
Demirug hat wohl dieses Gerückt in die Welt gesetzt...
Razor
ShadowXX
2004-03-20, 23:29:04
Das mit den 140-150 Watt und den 2 Molex würde ich mal eher in die Ecke der glaubhafteren Spekulationen packen....
Ich bin wirklich auf die Kühllösung von nV gespannt...die ist fast interesanter als der Rest.....
"DustBuster 2, hear the speed...." oder "Der neue FX-Flow 2, fühle dich bei Flugsimulationen als wenn du in der Turbine sitzt" ;D ;D ;D
J.S.Shadow
Naja...vielleicht finden Sie ja eine Lösung, die selbst europäischen Ohren gerecht wird...
Original geschrieben von ShadowXX
a.) siehe Zeckensacks postingDas mach Dir mal nicht so einfach.
Was genau will zeckensack damit zum Ausdruck gebracht haben ?
Original geschrieben von ShadowXX
b.) Anzahl und Aufbau spielen eine Rolle....(wobei bei schlechten Aufbau, die Anzahl natürlich auch nix (bzw. nicht so viel) mehr bringt.Womit wir beim Kern sind. Du hast behauptet, dass ATI schon 3 PP's bräuchte um mit (angenommenen) 2 PP's vom NV40 mithalten zu können. Du hast aber (wie ich im übrigen auch ;-) absolut KEINE Ahnung, wie auch nur EIN Prozessor der IHV's aufgebaut ist.
Was ich damit sagen will ?
Auch wenn ATI nur einen einzigen PP haben wird, kann dieser mehr als doppelt so leistungsfähig sein, als ein Prozessor auf der nVidia-Seite (oder umgekehrt).
Original geschrieben von ShadowXX
Damit will ich jetzt aber nicht sagen, das der/die nV40 Pixelprozessoren schlecht vom Aufbau sind....darüber kann man erst entscheiden, wenn man die fertige Karte in der Hand hat. Eben und deswegen würde ich mich (noch) mit solchen Aussgen zurück halten.
Razor
ShadowXX
2004-03-20, 23:31:14
Original geschrieben von r@e
Dass kommt mir sowieso mehr als merkwürdig vor !
Demirug hat wohl dieses Gerückt in die Welt gesetzt...
Razor
Das "Grundgerücht" stammt von Dave Baumann, der auf die irritierte Frage nach 120Watt mit "eher etwas mehr" Antwortete...
J.S.Shadow
Original geschrieben von ShadowXX
Das mit den 140-150 Watt und den 2 Molex würde ich mal eher in die Ecke der glaubhafteren Spekulationen packen....
Ich bin wirklich auf die Kühllösung von nV gespannt...die ist fast interesanter als der Rest.....Ich muss ganz ehrlich sagen, dass mich die Kühlung eigentlich am allerwenigsten interessiert.
Nur als Anmerkung: den NV30 habe ich deswegen nicht gekauft !
:D
Will sagen: die Kühlung wäre ein KO-Kriterium, mehr aber auch nicht.
Razor
Original geschrieben von ShadowXX
Das "Grundgerücht" stammt von Dave Baumann, der auf die irritierte Frage nach 120Watt mit "eher etwas mehr" Antwortete...Und warum dann gleich 25% mehr ?
Und wenn ATI auch eine GHraKa mit 175mio Trans und 256MB GDDR3 raus bringt... warum soll die dann weniger Leistungsaufnahme haben ?
Fragen über Fragen... und keine Antworten !
:D
Razor
Demirug
2004-03-20, 23:39:20
Original geschrieben von r@e
Dass kommt mir sowieso mehr als merkwürdig vor !
Demirug hat wohl dieses Gerückt in die Welt gesetzt...
Razor
Die waren voher schon mal im Umlauf. Möglicherweise war es eine Hochrechung von einem frühen Stepping und die Finale Karte braucht weniger.
ShadowXX
2004-03-20, 23:49:29
Original geschrieben von r@e
Das mach Dir mal nicht so einfach.
Was genau will zeckensack damit zum Ausdruck gebracht haben ?
Womit wir beim Kern sind. Du hast behauptet, dass ATI schon 3 PP's bräuchte um mit (angenommenen) 2 PP's vom NV40 mithalten zu können. Du hast aber (wie ich im übrigen auch ;-) absolut KEINE Ahnung, wie auch nur EIN Prozessor der IHV's aufgebaut ist.
Was ich damit sagen will ?
Auch wenn ATI nur einen einzigen PP haben wird, kann dieser mehr als doppelt so leistungsfähig sein, als ein Prozessor auf der nVidia-Seite (oder umgekehrt).
Eben und deswegen würde ich mich (noch) mit solchen Aussgen zurück halten.
Razor
Klar...da hast du recht...aber da ich von beiden keine Wunderdinge erwarte, geh ich davon aus, das beide nicht das Rad neu erfunden haben.
Anders gesagt...ich weiss nicht wieviele Pixelprozessoren nV oder ATI einbauen werden, aber gleichzeitig bin ich ziemlich sicher, das beide Ihre Design nicht so völlig umgekrempelt haben.
Und wie bekommt man am einfachsten mehr Speed rein...man vervielfacht vorhandene Einheiten.
Das ist einfacher, als etwas völlig neu zu Designen und wahrscheinlich auch billiger.
Bei ATI bin ich eigentlich nur dem 3xIrgendetwas Pfad gefolgt...da wären 3 Pixelprozessoren dann eine logische Schlussfolgerung...kann natürlich auch sein, das sie es bei 2 Belassen oder 5 einbauen.
Der Bezug auf Zeckensack Posting bezog sich tatsächlich darauf, das ich schon von ein zwei anderen gehört hatte, das mehr PP fürs Branching besser wäre...wobei ich durchaus zugebe, das ich nicht zu 100% weiss warum...
Ich will hier wirklich nicht den nv40 vor seinem Launch schlechtmachen...aber man wird doch mal seine Meinung äusseren können....
Die einen Spekulieren über Pipelines, ich über Pixelprozessoren...
Wenn ich über den r420 etwas hören würde, was mir nicht gefällt, würde ich darüber ebenfalls posten....
Ich könnte übrigens auch sagen: Warum sagst du 12x1 Tri bei ATI sind feuchte Träume aber bei nV sind 16x1 völlig normal und ohne jedes Problem machbar...
J.S.Shadow
Original geschrieben von Demirug
Die waren voher schon mal im Umlauf. Möglicherweise war es eine Hochrechung von einem frühen Stepping und die Finale Karte braucht weniger. Hier... meinte ich.
Sorry, Demi !
Hier wird nur so ein Bahai um die 150W gemacht, so dass man annehmen könnte, dass diese schon Fakt wären.
Razor
ShadowXX
2004-03-20, 23:52:48
Original geschrieben von r@e
Und warum dann gleich 25% mehr ?
Und wenn ATI auch eine GHraKa mit 175mio Trans und 256MB GDDR3 raus bringt... warum soll die dann weniger Leistungsaufnahme haben ?
Fragen über Fragen... und keine Antworten !
:D
Razor
Ich habe nie gesagt, das die ATI nicht so etwas bauchen wird...vielleicht ist es da sogar noch schlimmer...wer weiss..
Keiner der beide Karten steht bei mir momentan unter einem glücklichen Stern...
Original geschrieben von ShadowXX
Klar...da hast du recht...aber da ich von beiden keine Wunderdinge erwarte, geh ich davon aus, das beide nicht das Rad neu erfunden haben.
Anders gesagt...ich weiss nicht wieviele Pixelprozessoren nV oder ATI einbauen werden, aber gleichzeitig bin ich ziemlich sicher, das beide Ihre Design nicht so völlig umgekrempelt haben.
Und wie bekommt man am einfachsten mehr Speed rein...man vervielfacht vorhandene Einheiten.
Das ist einfacher, als etwas völlig neu zu Designen und wahrscheinlich auch billiger.Und genau da liegt IMO Dein Gedankenfehler...
Die "Pipelines" taugen irgendwie nicht mehr für die Leistungsbewertung, jetzt wird dann eben in Pixelprozessoren 'gerechnet'.
Ich persönlich glaube eher, dass die neuen GPU's (wie z.Bsp. auch schon der NV30+) wie eine CPU aufgebaut sind... und eben auf massive Parallelität. So wird es weiterhin nur eine Haupteinheit geben, der dann diverse Einheiten eingeflanscht sind, die aber modular aufgebaut und damit frei skalierbar sind.
Wenn Du so willst, könnte man also von Arithmetik- und Tex-Subprossoren, FP-Einheiten usw. sprechen, aber von völlig parallel arbeitenden Pixelprozessoren... das halte ich für zu gewagt.
Original geschrieben von ShadowXX
Bei ATI bin ich eigentlich nur dem 3xIrgendetwas Pfad gefolgt...da wären 3 Pixelprozessoren dann eine logische Schlussfolgerung...kann natürlich auch sein, das sie es bei 2 Belassen oder 5 einbauen.Du hast Dir gedacht:
"Hmmm... 12 statt 16 ? Also 3 statt 2, dann paßt's wieder !"
Und mehr auch nicht.
;-)
Original geschrieben von ShadowXX
Der Bezug auf Zeckensack Posting bezog sich tatsächlich darauf, das ich schon von ein zwei anderen gehört hatte, das mehr PP fürs Branching besser wäre...wobei ich durchaus zugebe, das ich nicht zu 100% weiss warum...
Ich will hier wirklich nicht den nv40 vor seinem Launch schlechtmachen...aber man wird doch mal seine Meinung äusseren können....
Die einen Spekulieren über Pipelines, ich über Pixelprozessoren...Deine Meinung in allen Ehren... aber auf welcher Basis ?
Hast Du Dir das nur ausgedacht, oder fußt dies doch auf realen Dingen ?
Original geschrieben von ShadowXX
Wenn ich über den r420 etwas hören würde, was mir nicht gefällt, würde ich darüber ebenfalls posten....Gut so... nur was hat das jetzt hiermit zu tun ?
:???:
Original geschrieben von ShadowXX
Ich könnte übrigens auch sagen: Warum sagst du 12x1 Tri bei ATI sind feuchte Träume aber bei nV sind 16x1 völlig normal und ohne jedes Problem machbar...Tjo, wenn Du mir jetzt noch sagst, wo ich solch einen Unsinn verzapft haben soll...
;-)
Razor
Demirug
2004-03-21, 00:02:48
Original geschrieben von r@e
Hier... meinte ich.
Sorry, Demi !
Hier wird nur so ein Bahai um die 150W gemacht, so dass man annehmen könnte, dass diese schon Fakt wären.
Razor
Du brauchst dich nicht zu entschuldigen. Ich habe die 150 Watt nur gebracht als mögliche Erklärung für die zwei Stromanschlüsse die man gesehen haben will. Solange da niemand unabhängies nachgemessen hat ist ja sowieso noch alles im Fluss.
Demirug
2004-03-21, 00:11:50
Razor, im Moment (DX9 Generation) passt der Begriff Pixelprozessor eigentlich ganz gut. Für die DX-Next Generation brauchen wir dann vielleicht wieder neue Begriffe.
Womit ich dir allerdings völlig recht gebe ist das man den Pixelprozessor selbst mit Angaben über seine Subkomponeten ausführlicher beschreiben muss. Die Anzahl der TMUs reicht da bei weitem nicht aus. Das wäre das gleiche wenn man bei einem Motor nur angibt wie viele Ventile er hat.
ShadowXX
2004-03-21, 00:12:57
Naja..wenn es denn wirklich 16x1 mit mehr als 2 Pixelprozessoren wird und nV auch noch ihre angepeilten Taktraten packt, muss ATI sich warm anziehen....ausser SIe haben 12x1 Tri mit mindestens 3 Pixelprozzesoren...
Das ging von vorherigen Spukus anderer aus...und wenn man es richtig liest, bemerkt man das auch:
Naja..wenn es denn wirklich 16x1 mit mehr als 2 Pixelprozessoren wird und nV auch noch ihre angepeilten Taktraten packt...
Und ich habe dann nur einen Vergleich zu einem möglichen ATI Modell gezogen....ich glaube nunmal nicht das ATI von Ihrem X*4x1 Modell abweichen wird. Und bis jetzt gehörte da immer ein Pixelprozessor zu.
Aber ehrlich gesagt sind IMHO beide Specs (nv40 u. r420) zu hoch angesetzt.
Beim nv40 glaube ich momentan gar nix (zumindest nichts, was man hier gerne hören würde, auch wenn es meiner Meinung nach am realistischten wäre...und glaube mir, das was ich vermute wären keine schlechten specs)...und bei ATI kommt mir 12x1 Bi zumindest nicht unrealistisch vor...
Und manchmal darf man auch nicht alles sagen was man so gehört hat....
J.S.Shadow
Original geschrieben von Demirug
Razor, im Moment (DX9 Generation) passt der Begriff Pixelprozessor eigentlich ganz gut. Für die DX-Next Generation brauchen wir dann vielleicht wieder neue Begriffe.Klar...
Original geschrieben von Demirug
Womit ich dir allerdings völlig recht gebe ist das man den Pixelprozessor selbst mit Angaben über seine Subkomponeten ausführlicher beschreiben muss. Die Anzahl der TMUs reicht da bei weitem nicht aus. Das wäre das gleiche wenn man bei einem Motor nur angibt wie viele Ventile er hat. Und genau darauf wollte ich hinaus !
Nur hast Du das wieder mal sehr viel konkreter und plastischer zum Ausdruck gebracht... ;)
Razor
Quasar
2004-03-21, 00:31:23
Original geschrieben von Winter[Raven]
Ja, das hat man sehr schön gesehn als sie mehrmals die Meldungen von INQ fast Wort zu Wort kopiert haben.
Darauf wurde, IIRC, auch explizit hingewiesen, wenn Meldungen vom Inquirer verarbeitet wurden.
"Wie die Kollegen vom (insertgoodnameforbadword) Inquirer berichten, bla."
Quasar
2004-03-21, 00:32:13
Original geschrieben von robbitop
ich glaubs erst wenn ichs sehe, mir sind "sichere Quellen" immer recht suspekt.
Mir auch.
ShadowXX
2004-03-21, 00:39:22
Original geschrieben von r@e
Und genau da liegt IMO Dein Gedankenfehler...
Die "Pipelines" taugen irgendwie nicht mehr für die Leistungsbewertung, jetzt wird dann eben in Pixelprozessoren 'gerechnet'.
Ich persönlich glaube eher, dass die neuen GPU's (wie z.Bsp. auch schon der NV30+) wie eine CPU aufgebaut sind... und eben auf massive Parallelität. So wird es weiterhin nur eine Haupteinheit geben, der dann diverse Einheiten eingeflanscht sind, die aber modular aufgebaut und damit frei skalierbar sind.
Wenn Du so willst, könnte man also von Arithmetik- und Tex-Subprossoren, FP-Einheiten usw. sprechen, aber von völlig parallel arbeitenden Pixelprozessoren... das halte ich für zu gewagt.
[/SIZE=1]
Da wiederum ist deine Meinung...wir haben also verschiedene Meinungen...
Und wenn dein GPUs sowieso schon massiv paralle Arbeiten, warum nicht mit 2 oder mehr Pixelprozessoren...
Es kommt aber natürlich auch darauf an was man unter Pixelprozessoren versteht, vielleicht meinst du da etwas ganz anderes als ich...
[SIZE=1]
Du hast Dir gedacht:
"Hmmm... 12 statt 16 ? Also 3 statt 2, dann paßt's wieder !"
Und mehr auch nicht.
;-)
weniger...der r3x0 ist ein 2x4x1 Design mit zwei PPs....den rest kannst du dir denken....
Deine Meinung in allen Ehren... aber auf welcher Basis ?
Hast Du Dir das nur ausgedacht, oder fußt dies doch auf realen Dingen ?
Wenn das ganze auf 100% realen dingen Basieren würde, dann wüsste ich mehr als alle anderen hier...natürlich basiert das auf Überlegungen, und Spekulationen (meinen und denen von anderen)...
Ich wüsste auch nicht das ich irgendwo geschrieben habe: "Das ist so..fakt...basta.."
Gut so... nur was hat das jetzt hiermit zu tun ?
:???:
Nix...und doch eine menge...
Tjo, wenn Du mir jetzt noch sagst, wo ich solch einen Unsinn verzapft haben soll...
;-)
Razor
Sorry, da muss ich etwas zurücknehmen....das mit den "feuchten Träumen" kommt zwar von dir, aber ich hatte ein paar Postings vorher übersehen, das auch du 16x1 beim nv40 scheinbar anzweifelst...
ShadowXX
2004-03-21, 00:44:13
Original geschrieben von r@e
Klar...
Und genau darauf wollte ich hinaus !
Nur hast Du das wieder mal sehr viel konkreter und plastischer zum Ausdruck gebracht... ;)
Razor
Und da machst es dir genauso einfach wie ich...
Original geschrieben von ShadowXX
Da wiederum ist deine Meinung...wir haben also verschiedene Meinungen...
Und wenn dein GPUs sowieso schon massiv paralle Arbeiten, warum nicht mit 2 oder mehr Pixelprozessoren...
Es kommt aber natürlich auch darauf an was man unter Pixelprozessoren versteht, vielleicht meinst du da etwas ganz anderes als ich...Demirug hat IMO sehr plastisch dargestellt, was man unter einem PP verstehen sollte... und wie man ihn beschreiben muss, um damit was anzufangen.
Original geschrieben von ShadowXX
weniger...der r3x0 ist ein 2x4x1 Design mit zwei PPs....Und unterschiedet sich massiv im Aufbau von z.Bsp. dem PP eines NV3x
Original geschrieben von ShadowXX
Wenn das ganze auf 100% realen dingen Basieren würde, dann wüsste ich mehr als alle anderen hier...natürlich basiert das auf Überlegungen, und Spekulationen (meinen und denen von anderen)...
Ich wüsste auch nicht das ich irgendwo geschrieben habe: "Das ist so..fakt...basta.."Das mit Deinen "3 zu 2" hat noch nicht einmal den Hauch einer Basis...
Original geschrieben von ShadowXX
Sorry, da muss ich etwas zurücknehmen....das mit den "feuchten Träumen" kommt zwar von dir, aber ich hatte ein paar Postings vorher übersehen, das auch du 16x1 beim nv40 scheinbar anzweifelst... Ich zweifen gar nichts an... allerdings 'glaube' ich auch nichts !
:D
Hier wird mit Begriffen um sich geworfen, wo man merkt, dass teilweise nicht einmal verstanden wurde, um was es dabei eigentlich geht.
Spekulation ist zwar schön und gut, aber derzeit könnte man auch behaupten, dass eine neue GPU mal eben 532 Pixelprozessoren besitzt, mit einem 24GBit-Interface daher kommt und dem Murks mit 25Mio Schnullern abspult...
Aber das wird IMO wohl noch 1-2 Wochen so weiter gehen...
Mal schaun', was hier noch für Unsinn verbreitet wird.
Razor
Original geschrieben von ShadowXX
Und da machst es dir genauso einfach wie ich... Keinesfalls...
Schließlich hat mir Demi in dem Punkt recht gegeben, dass man den Begriff "Pixelprozessor" alleine nicht benutzen kann, um damit Rückschlüsse auf die Performance zu ziehen... was Du aber zu tun scheinst.
Razor
Demirug
2004-03-21, 00:58:32
Razor & ShadowXX, schlag euch doch bitte nicht.
Ich glaube ShadowXX wollte nur drauf hinaus das ATI die 12 Pipelines beim R420 dadurch erreicht haben könnte das sie eben noch einen Pixelprozessor zu den schon zwei vorhandenen des R3XX dazu gesetzt haben. Die Leistung stand IMHO hier doch noch gar nicht zur debatte.
Ähnlich ist die Situation bei nVidia. Wenn man davon ausgeht das nVidia den Quads treu geblieben ist hätte man bei 16 Pipelines eben 4 Pixelprozessoren.
Wie diese Prozessoren nun im Detail aussehen können wir aufgrund der mässigen öffentlichen Informationsgrundlage hier ja nur vermuten. Bei ATI fällt das noch relative leicht da man hier schnell zu dem Schluss kommen könnte das man das beim R3XX erfolgreiche Model weiter benutzt. Beim NV40 wird es schon schwieriger das die Prozessoren auf jeden Fall anders aufgebaut sein müssen wenn man von einem 2 TMU auf ein 1 TMU Model umgestiegen ist.
ShadowXX
2004-03-21, 01:13:35
Original geschrieben von Demirug
Razor & ShadowXX, schlag euch doch bitte nicht.
Ich glaube ShadowXX wollte nur drauf hinaus das ATI die 12 Pipelines beim R420 dadurch erreicht haben könnte das sie eben noch einen Pixelprozessor zu den schon zwei vorhandenen des R3XX dazu gesetzt haben. Die Leistung stand IMHO hier doch noch gar nicht zur debatte.
Ähnlich ist die Situation bei nVidia. Wenn man davon ausgeht das nVidia den Quads treu geblieben ist hätte man bei 16 Pipelines eben 4 Pixelprozessoren.
Wie diese Prozessoren nun im Detail aussehen können wir aufgrund der mässigen öffentlichen Informationsgrundlage hier ja nur vermuten. Bei ATI fällt das noch relative leicht da man hier schnell zu dem Schluss kommen könnte das man das beim R3XX erfolgreiche Model weiter benutzt. Beim NV40 wird es schon schwieriger das die Prozessoren auf jeden Fall anders aufgebaut sein müssen wenn man von einem 2 TMU auf ein 1 TMU Model umgestiegen ist.
Jo genau das wollte ich ausdrücken...(und das waren auch die ganze Zeit meine Überlegungen)
Ich dachte das wäre auch so deutlich geworden....mag sein, das das ganze von mir nicht exakt akademisch ausgedrückt war...
Um den Speed ging es mir nie...mir ist es eigentlich völlig egal ob nV oder ATI schneller ist....(das kann zugegebenermassen durchaus teiweise in den falschen Hals gekommen sein...hab meine Postings noch mal durchgeguckt)
J.S.Shadow
Keine Panik, Demirug...
;-)
Und ja, Shadow, dann habe ich Dich tatsächlich falsch verstanden, da ich wohl der irrigen Meinung war, dass Du auf die Performance beider Chips hinaus wolltest.
Razor
Sphinx
2004-03-21, 05:09:21
Original geschrieben von Demirug
Ich glaube ShadowXX wollte nur drauf hinaus das ATI die 12 Pipelines beim R420 dadurch erreicht haben könnte das sie eben noch einen Pixelprozessor zu den schon zwei vorhandenen des R3XX dazu gesetzt haben.
Bei ATI fällt das noch relative leicht da man hier schnell zu dem Schluss kommen könnte das man das beim R3XX erfolgreiche Model weiter benutzt.
http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/maerz/ati_r420_radeon_x800/
"So sickerte uns gegenüber durch, dass ATi die Grafikkarten auf Basis des R420 wohl mit einem neuen Namen ausstatten wird. Und so wird diese wohl schon in kürze auf den Namen „ATi Radeon X800” hören. Betrachtet man die Situation einmal genauer, war dieser Schritt für den kanadischen Chipentwickler mehr als logisch, ist der neueste Chip doch eine komplette Neuentwicklung, die bekanntlich nicht mehr auf der alten R3xx-Serie basiert, die seit der Einführung der Radeon 9700 Pro ihren Dienst verrichtet."
zeckensack
2004-03-21, 06:33:20
Original geschrieben von r@e
Das mach Dir mal nicht so einfach.
Was genau will zeckensack damit zum Ausdruck gebracht haben ?Ganz einfach. Je mehr vollwertige Kontroll-Logik in einem Chip steckt (bei konstanter Anzahl von Ausführungseinheiten btw), desto weniger Verschnitt gibt es in diversen Situationen.
Angenommen, die Gerüchte stimmen, und wir haben es mit 12 Sätzen von Ausführungseinheiten zu tun. Wenn man diese alle zusammen mit einer einzelnen Kontroll-Logik antreibt ("Pixelprozessor"), kriegt man Probleme, wenn
a)weniger als 12 Pixel gleichzeitig erzeugt werden sollen (aka "sehr kleine Dreiecke")
b)Branching im weitesten Sinne (was auch "KIL" sein könnte) für die unterschiedlichen Pixel unterschiedliche Wege gehen muss
Und bestimmt noch ein paar Sachen, die mir im Moment nicht einfallen wollen.
"Optimal" wäre es, für jeden einzelne Pixelpipeline auch die komplette Kontroll-Logik zu haben. In dem Sinne, dass jeder Pixel seinen eigenen Weg gehen könnte, und die Ausführungseinheiten optimal ausgelastet werden.
Das ist wiederum sehr kostspielig in Sachen Transistor-Count, und verbietet sich eigentlich für ein massiv parallel arbeitendes Gerät, wie es ein Grafikchip nunmal ist.
Anstatt die kostbare Die-Fläche für 4 völlig voneinander unabhängige Pipelines zu verballern, kann man ebensogut 12 "dumme" Pipelines mit gemeinsamer Steuerung einbauen. Dann hat man mehr Verschnitt, aber den dreifachen Spitzendurchsatz, und mehr Platz braucht man dafür auch nicht unbedingt.
Es gilt nun einen vernünftigen Mittelweg zu finden. Beim R300 hat ATI bekanntermassen die Steuerungslogik doppelt ausgelegt (R300 bearbeitet zwei Quads, und nicht ein einzelnes Achter-Bündel).
Was genau "vernünftig" ist, hängt aber auch von den Anforderungen ab. Branching hat hier einen erheblichen Einfluss - kann der Chip das überhaupt? Dynamisch? Statisch? Wieviel Branching werden "gängige" Shader zur Lebzeit des Chips nutzen? Wie schnell muss das funktionieren, um konkurrenzfähig zu bleiben? Wieviel Spitzendurchsatz muss man opfern, um Branching effizienter zu machen? Etc.
Vergleiche das ganz einfach mit der Parhelia. Die höchste maximale "Texelfüllrate" aller Zeiten (pro Takt), aber nur bei Quad-Texturing wird das Teil überhaupt ausgelastet. An den praktischen Anforderungen völlig vorbeigeplant.
Demirug
2004-03-21, 07:06:45
Original geschrieben von Sphinx
http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/maerz/ati_r420_radeon_x800/
"So sickerte uns gegenüber durch, dass ATi die Grafikkarten auf Basis des R420 wohl mit einem neuen Namen ausstatten wird. Und so wird diese wohl schon in kürze auf den Namen „ATi Radeon X800” hören. Betrachtet man die Situation einmal genauer, war dieser Schritt für den kanadischen Chipentwickler mehr als logisch, ist der neueste Chip doch eine komplette Neuentwicklung, die bekanntlich nicht mehr auf der alten R3xx-Serie basiert, die seit der Einführung der Radeon 9700 Pro ihren Dienst verrichtet."
Jaja das Märchen von der "kompletten Neuentwicklung". Sorry, Sphinx aber auch du solltest inzwischen wissen das in jeder sogenannten Neuentwicklung Teile und Ideen aus alten Chip wiederverwendet werden. Anders könnte man das Tempo gar nicht halten.
Demirug
2004-03-21, 07:16:17
Zecki, das Branchinargument kannst du aber nur bringen wenn ein Chip wirklich dynamisches Branchen kann. Beim statischen gehen ja alle Pixel den gleichen Weg.
Ich sehe aber noch einen weiteren Punkt der grosse Pixelprozessoren ineffektiv macht. In der Regel ist die relative Lage jedes Pixels innerhalb des Pixelprozessor ja fest. Passt dieses Raster nicht ganu auf ein Dreieck bleben Pixelpositionen unbesetzt. Gerade am Rand gibt das Verschnitt. Dein Punkt a spricht dieses Problem ja an. Ich sehe es eben nicht nur bei kleinen Dreieken.
Quads werden uns IMHO noch lange erhalten bleiben. Selbst wenn man die Pixelprozessoren auf weniger Pixel pro Takt auslegt wird man beim Quad als Datenformat beibehalten. Man braucht den eben mehr als einen Takt um den Quad abzuarbeiten.
Ailuros
2004-03-21, 08:31:44
Original geschrieben von Demirug
Jaja das Märchen von der "kompletten Neuentwicklung". Sorry, Sphinx aber auch du solltest inzwischen wissen das in jeder sogenannten Neuentwicklung Teile und Ideen aus alten Chip wiederverwendet werden. Anders könnte man das Tempo gar nicht halten.
Wenn man die Masche zwischen R2xx/R3xx/R4xx/R5xx vom heutigen Standpunkt betrachtet, dann ist wohl der Sprung von R3xx zu R4xx der kleinste von allen. Grund IMHO die Resourcen die woanders untergebracht wurden.
Ich will wetten dass wenn man oeffentlich bei Eric genug Druck ausrichtet, dass er vielleicht teilweise dieses sogar eingestehen koennte.
Demirug
2004-03-21, 08:41:55
Original geschrieben von Ailuros
Wenn man die Masche zwischen R2xx/R3xx/R4xx/R5xx vom heutigen Standpunkt betrachtet, dann ist wohl der Sprung von R3xx zu R4xx der kleinste von allen. Grund IMHO die Resourcen die woanders untergebracht wurden.
Wir denken wohl beide an XBox-II, oder?
reunion
2004-03-21, 09:43:37
Original geschrieben von Ailuros
Wenn man die Masche zwischen R2xx/R3xx/R4xx/R5xx vom heutigen Standpunkt betrachtet, dann ist wohl der Sprung von R3xx zu R4xx der kleinste von allen. Grund IMHO die Resourcen die woanders untergebracht wurden.
Ich will wetten dass wenn man oeffentlich bei Eric genug Druck ausrichtet, dass er vielleicht teilweise dieses sogar eingestehen koennte.
ACK, im grunde ist ja der R420 nur ein aufgewärmter R300(3xRV350), bin gespannt wieviel der X-BOX II-Chip R500 dann wirklich leistet. :naughty:
reunion
2004-03-21, 09:52:04
Original geschrieben von Sphinx
http://www.computerbase.de/news/hardware/grafikkarten/ati/2004/maerz/ati_r420_radeon_x800/
"So sickerte uns gegenüber durch, dass ATi die Grafikkarten auf Basis des R420 wohl mit einem neuen Namen ausstatten wird. Und so wird diese wohl schon in kürze auf den Namen „ATi Radeon X800” hören.
Das hört sich für mich durchaus logisch an, da ja dass "X" für 10 stehen könnte (römisches Zahlensystem)...
Original geschrieben von reunion
Das hört sich für mich durchaus logisch an, da ja dass "X" für 10 stehen könnte (römisches Zahlensystem)... Jo, und damit hat ATI einfach nur von '9' auf 'X' (10) gewechselt, wie das so bei einem Generationen-Sprung (wie groß oder klein er auch sein mag) üblich ist und zudem noch die 4-stellige Logik retten konnte.
So läßt sich dann weiterhin vermuten, dass der R500 tatsächlich eine Neuentwicklung ist und dann auch einen ganz anderen Namen bekommt (nix mehr Radeon ?)... gleiches dürfte dann bei nVidia auch irgendwann anstehen, da der Begriff 'GeForce' zwar eingeführt, aber langsam auch irgendwie ausgelutscht ist.
Denn ein 'B' (aus dem hexadezimalen Zahlensystem) wäre dann doch ein wenig albern, oder ?
:D
Razor
Thx @ zeckensack !
Wenn das mal nicht eine ausführliche Erklärung war...
Und Thx natürlich @ Demirug !
Jetzt wird es doch mal ein wenig interessanter...
-
Über den tatsächlichen Aufbau der Chips zu sinnieren (oder Euch beim sinnieren zu lauschen ;-) ist doch viiiiiel interessanter, als Transitoren, Pipelines oder Prozessoren zu zählen und irrsinniger Weise auch noch zu vergleichen.
Thx an beide !
Razor
Ailuros
2004-03-21, 10:45:43
Original geschrieben von Demirug
Wir denken wohl beide an XBox-II, oder?
Oui Monsieur.
ironMonkey
2004-03-21, 10:49:39
Original geschrieben von Demirug
Jaja das Märchen von der "kompletten Neuentwicklung". Sorry, Sphinx aber auch du solltest inzwischen wissen das in jeder sogenannten Neuentwicklung Teile und Ideen aus alten Chip wiederverwendet werden. Anders könnte man das Tempo gar nicht halten.
Das ist in jedem Berreich so und verstehst du wohl völlig falsch. Natürlich nimmt man das aktuelle Modell als Basis und schaut wie man was verbesseren könnte, aber als ganzes betrachtet muss der Chip neu entwickelt werden da ja auch was dazu kommt.
Gruß
fizzo
2004-03-21, 10:52:39
Original geschrieben von Ailuros
Oui Monsieur.
und wie sieht es mit dem gamecube-II aus - der selbe chip?
Ailuros
2004-03-21, 10:54:35
Original geschrieben von fizzo
und wie sieht es mit dem gamecube-II aus - der selbe chip?
Bei XBox2 kann man wohl nicht von einem "chip" reden was ATI betrifft oder?
Original geschrieben von Ailuros
Bei XBox2 kann man wohl nicht von einem "chip" reden was ATI betrifft oder? Wieso ?
Sollte die Systembasis (i.e. das Mobo) nicht von SiS kommen ?
:???:
Razor
fizzo
2004-03-21, 10:58:23
Original geschrieben von Ailuros
Bei XBox2 kann man wohl nicht von einem "chip" reden was ATI betrifft oder?
was entwickelt dann ati fuer die xbox2 - mehr als nur die grafikeinheit? das geht aber schon sehr ot.....
Demirug
2004-03-21, 11:00:09
Original geschrieben von ironMonkey
Das ist in jedem Berreich so und verstehst du wohl völlig falsch. Natürlich nimmt man das aktuelle Modell als Basis und schaut wie man was verbesseren könnte, aber als ganzes betrachtet muss der Chip neu entwickelt werden da ja auch was dazu kommt.
Gruß
Ich störe mich nicht an der "Neuentwicklung" sondern nur an dem "kompletten". Hier wird ganz klar versucht dem Kunden etwas einzureden was einfach nicht stimmt. Das werfe ich aber allen IHVs vor. nVidia wird den NV40 sicherlich auch wieder als vollständige Neuentwicklung verkaufen.
Wenn das ILDP Gerücht beim NV50 stimmt bin ich bereit diesem Chip das Label "vollständige Neuentwicklung" zuzugestehen. Wenn ATI etwas ähnliches beim R500 macht gilt das dort natürlich auch.
Demirug
2004-03-21, 11:02:45
Razor&Fizzo: ATI wird wie beim Gamecube wohl nur ein Design liefern die Chips lässt dann MS selbst produzieren und ATI bekommt einen vertraglich geregelt Anteil. Es könnte sogar sein das ATI nicht nach XBox-II Einheiten sondern nach verkaufen Spielen bezahlt wird.
Jo, ist reichlich OT...
Aber vielleicht wollte AiL ja darauf hinaus, dass ATI schlußendlich (!) die Chips nicht fertigen (lassen) wird, sondern dies von M$ übernommen wird.
Nichts desto trotz werden sie (natürlich) ein komplettes, fertigungsfähiges Referenz-Modell entwickeln müssen (was sie höchstselbst Prototypen und Tape-Outen müssen). Wo das Ding dann gefertigt wird, ist dann ja (ziemlich) schnuppe...
Razor
Original geschrieben von Demirug
Es könnte sogar sein das ATI nicht nach XBox-II Einheiten sondern nach verkaufen Spielen bezahlt wird. DAS wäre doch für M$ der absolute Hammer, gell ?
Ein 'Traum' eines jeden "Consolen-Entwicklers"...
:D
Razor
P.S.: Und es ist noch immer OT...
Aber vielleicht hilft es ja, über die spekulativen Unzulänglichkeiten eines R420 hinweg zu sehen... ;)
Original geschrieben von Demirug
Wenn das ILDP Gerücht beim NV50 stimmt bin ich bereit diesem Chip das Label "vollständige Neuentwicklung" zuzugestehen. Wenn ATI etwas ähnliches beim R500 macht gilt das dort natürlich auch. "ILDP" ?
Jetzt wird's aber interessant !
Mal ein kleines Info-Bröckchen ?
:D
Razor
Demirug
2004-03-21, 11:13:09
Original geschrieben von r@e
DAS wäre doch für M$ der absolute Hammer, gell ?
Ein 'Traum' eines jeden "Consolen-Entwicklers"...
:D
Razor
P.S.: Und es ist noch immer OT...
Aber vielleicht hilft es ja, über die spekulativen Unzulänglichkeiten eines R420 hinweg zu sehen... ;)
Natürlich weil man die Kosten ja vollständig auf die Spiele umlegen kann. Sowas könnte sich allerdings auch für ATI lohnen.
Original geschrieben von Demirug
Natürlich weil man die Kosten ja vollständig auf die Spiele umlegen kann. Sowas könnte sich allerdings auch für ATI lohnen. Nur, wenn die XBox2 ein Erfolg werden würde...
(was dann wohl auch maßgeblich von der Kompatibilität zur XBox1 abhängen wird)
Ansonsten trägt das gesamte Risiko der Grafik-Chip-Entwicklung, wie auch entsprechende Vorleistungen (die M$ ja damals an nVidia zahlte), nun nicht mehr M$, sondern werden vollumfänglich von ATI getragen.´Klar, bei entsprechenden Verkaufszahlen würde sich das dann wieder lohnen, aber erst einmal ist es (ein sehr hohes) Risiko auf Seiten von ATI.
Ich glaube nicht, dass sich nVidia auf solch einen 'Deal' eingelassen hätte...
...denn einer - M$ - trägt bei der Geschichte das geringste Risiko.
So hat es M$ geschafft, den größten 'Störfaktor' bei der XBox1 los zu werden...
...zu lasten des Grafik-Chip-Entwicklers.
Wirklich hoch-spekulativ:
"...und das wird sich ATI sicher 'anderweitig' bezahlt haben lassen"
:D
Razor
ironMonkey
2004-03-21, 11:28:06
Könnte sich wirklich eher lohnen für ATi, eine Konsole ist ja nur die Basis, was man draus macht hängt von den Spielen ab, allerdings ist das wie eine Aktie, das Konsolen gekauft werden weiß man wie das bei den Spielen aussieht ist so ne Sache........und wenn man MS und Sony vergleicht sieht man klar das Leistung nicht alles ist.
Nochmal wegen dem neu entwickelt, das Rad kann man nicht neu erfinden, man kann es nur verbesseren und damit hat sich die Sache schon, sicher ist das viel Marketing aber sobald sich der neue Chip vom anderen unterscheidet und dazu in verschiedenen Sachen abgeändert wurde+ neuer schnik schnak dann ist das Teil neu entwickelt.
NV und ATI können bei R500 und NV 50 nichts komplett neues bringen, da es das Rad schon gibt!!!!!!!!
Gruß
Demirug
2004-03-21, 11:30:18
Original geschrieben von r@e
"ILDP" ?
Jetzt wird's aber interessant !
Mal ein kleines Info-Bröckchen ?
:D
Razor
ILDP = Instruction level distributed processors. Dabei geht es um das Design von massive Multithreaded Prozessoren.
Original geschrieben von Demirug
ILDP = Instruction level distributed processors. Dabei geht es um das Design von massive Multithreaded Prozessoren. *breitgrins*
:D
Und das in Verbindung mit DirectX 'Next' ?
Mjam...
Razor
Demirug
2004-03-21, 11:37:45
Original geschrieben von ironMonkey
Nochmal wegen dem neu entwickelt, das Rad kann man nicht neu erfinden, man kann es nur verbesseren und damit hat sich die Sache schon, sicher ist das viel Marketing aber sobald sich der neue Chip vom anderen unterscheidet und dazu in verschiedenen Sachen abgeändert wurde+ neuer schnik schnak dann ist das Teil neu entwickelt.
NV und ATI können bei R500 und NV 50 nichts komplett neues bringen, da es das Rad schon gibt!!!!!!!!
Gruß
Man kann ja nicht nur mit einem Rad von A nach B kommen. ;)
Bisher folgen ATI und nVidia ja mehr oder minder dem klasischen IMR Ansatz mit Loopbacks um die wichtigen Einheiten. Wenn jetzt ein Wechsel zu einem DR kommen würde könnte man das IMHO zurecht als komplette Neuentwicklung bezeichnen. Das dabei natürlich solche Komponenten wie eine TMU nicht auch komplett neu entwickelt werden ist klar. Ich hänge das "komplett" eben am übergeordneten Design auf.
Quasar
2004-03-21, 12:16:41
Original geschrieben von zeckensack
"Optimal" wäre es, für jeden einzelne Pixelpipeline auch die komplette Kontroll-Logik zu haben. In dem Sinne, dass jeder Pixel seinen eigenen Weg gehen könnte, und die Ausführungseinheiten optimal ausgelastet werden.
Das ist wiederum sehr kostspielig in Sachen Transistor-Count, und verbietet sich eigentlich für ein massiv parallel arbeitendes Gerät, wie es ein Grafikchip nunmal ist.
In der aktuellen c't (ab morgen) ist ein interssanter Report zum ES in Japan.
Die realen Anwendungen, die dort laufen, habe i.d.R. eine Effizienz von unter 30% - wo wir grad bei massiv parallelen Systemen sind. Dort wird ~1/3 Ausnutzung schon durchaus in Kauf genommen, weils schlicht nicht anders geht. ;D
Original geschrieben von r@e
Ich glaube nicht, dass sich nVidia auf solch einen 'Deal' eingelassen hätte...
...denn einer - M$ - trägt bei der Geschichte das geringste Risiko.
Razor
Das war bereits lange vor den Verhandlungen klar. Das Management bei Nvidia hat vor Analysten sehr deutlich gemacht, dass sie kein anderes Modell wollen als fertige Chip zu verkaufen.
Zu einer vergleichenden technischen Beurteilung der Entwürfe seitens ATI und Nvidia ist es dann gar nicht mehr gekommen, da M$'s Vorstellungen vom Business Modell mit denen von Nvidia nicht übereinstimmten und auch nicht in Übereinstimmung zu bringen waren.
M$ wollte das bisherige Modell nicht, weil sie klar das Risiko auf einen kleinen Partner abwälzen wollten und Nvidia wollte das Risiko nicht aufnehmen.
Somit waren die Karten recht früh gelegt.
Jo, dann wollen wir mal hoffen, dass ATI damit jetzt nicht 'baden' geht...
(das meine ich ernst !)
Razor
Original geschrieben von r@e
Jo, dann wollen wir mal hoffen, dass ATI damit jetzt nicht 'baden' geht...
(das meine ich ernst !)
Razor
Ne Schwimmen werden sie nicht gehen aber weniger Ressourcen für das Desktop Geschäft haben sie in jedem Fall.
Wird man ja dann wohl auch in weniger als 3 Wochen sehen, wenn du verstehst was ich meine.
Denn Innovationspreis wird man wohl nicht bekommen.
robbitop
2004-03-21, 17:54:19
kann man davon ausgehen, dass XBOX2 und Nintendo6 je einen R500 Ableger bekommen?
Falls das so ist, sollte dort nicht soo viel IP hinein fliessen oder? Der R500 muss so oder so entwickelt werden.
StefanV
2004-03-21, 18:11:42
Original geschrieben von robbitop
kann man davon ausgehen, dass XBOX2 und Nintendo6 je einen R500 Ableger bekommen?
Falls das so ist, sollte dort nicht soo viel IP hinein fliessen oder? Der R500 muss so oder so entwickelt werden.
Nein, es könnte sein, daß die Nintendokonsole 'something else' bekommt...
Achja: wird Nintendo Flipper TEchnik im R420 und R500 einsetzen??
Demirug
2004-03-21, 18:14:47
Original geschrieben von Stefan Payne
Achja: wird Nintendo Flipper TEchnik im R420 und R500 einsetzen??
Ich glaube nicht. Aufgrund meiner Flipper Kenntnisse ist das einzige "Feature" das der Fliiper einen R300 vorraus hat der 1T-Ram im Chip. Selbst der R200 ist technisch teilweise schon überlegen.
Original geschrieben von zeckensack
Angenommen, die Gerüchte stimmen, und wir haben es mit 12 Sätzen von Ausführungseinheiten zu tun. Wenn man diese alle zusammen mit einer einzelnen Kontroll-Logik antreibt ("Pixelprozessor"), kriegt man Probleme, wenn
a)weniger als 12 Pixel gleichzeitig erzeugt werden sollen (aka "sehr kleine Dreiecke")Wenn es 3 Quad-Pipes gibt, so können die doch hoffentlich an unterschiedlichen Dreiecken arbeiten.
StefanV
2004-03-21, 18:50:47
Original geschrieben von Demirug
Ich glaube nicht. Aufgrund meiner Flipper Kenntnisse ist das einzige "Feature" das der Fliiper einen R300 vorraus hat der 1T-Ram im Chip. Selbst der R200 ist technisch teilweise schon überlegen.
Ich dachte da an dieses Virtual Texturing (oder wie das heißt), was die Bandbreite besser ausnutzt.
Demirug
2004-03-21, 19:03:42
Original geschrieben von aths
Wenn es 3 Quad-Pipes gibt, so können die doch hoffentlich an unterschiedlichen Dreiecken arbeiten.
Ich glaube ich wiederhole mich. Selbst bei nur einem Pixelprozessor muss dieser in der Lage sein an mehr als einem Dreieck zu arbeiten weil man bei der Länge der Pipeline (Texturlatenz) sonst auf keinen grünnen Zweig kommen würde.
Demirug
2004-03-21, 19:04:30
Original geschrieben von Stefan Payne
Ich dachte da an dieses Virtual Texturing (oder wie das heißt), was die Bandbreite besser ausnutzt.
Das hängt ja indirekt auch mit dem 1T-RAM zusammen.
Original geschrieben von Demirug
Ich glaube ich wiederhole mich. Selbst bei nur einem Pixelprozessor muss dieser in der Lage sein an mehr als einem Dreieck zu arbeiten weil man bei der Länge der Pipeline (Texturlatenz) sonst auf keinen grünnen Zweig kommen würde. Das ist vollkommen richtig :)
Sry Demirug, auf der CeBit hat man mir die Ohren vollgequatscht. Gewisse Details zum richtigen Moment zu zücken, wäre wohl erst nach einer Woche Urlaub drin. Afaik kann eine NV35-Quadpipe an 8 Quads "gleichzeitig" arbeiten.
Demirug
2004-03-21, 19:24:29
8 Quads?. In der NV35 Pipeline sind über 200 Quads gleichzeitig unterwegs.
Original geschrieben von Demirug
8 Quads?. In der NV35 Pipeline sind über 200 Quads gleichzeitig unterwegs. Steht das in einem Patent, oder hast du das nachgemessen?
Demirug
2004-03-21, 19:30:20
Original geschrieben von aths
Steht das in einem Patent, oder hast du das nachgemessen?
Das kannst du nicht messen. Die Zahl kommt im Prinzip direkt von David Kirk.
Ailuros
2004-03-22, 09:08:47
Die Zahl kommt im Prinzip direkt von David Kirk.
:klick:
Demirug
2004-03-22, 09:54:18
Original geschrieben von Ailuros
:klick:
Verstehe ich jetzt nicht.
Ailuros
2004-03-22, 10:24:22
Original geschrieben von Demirug
Verstehe ich jetzt nicht.
Kirk (obwohl nicht der einzige um ehrlich zu sein) hat ein gewisses Talent mit "Zahlen", nach dem ich persoenlich nicht gerade verrueckt bin.
***edit: syntax....:-(
Original geschrieben von Ailuros
Kirk (obwohl nicht der einzige um ehrlich zu sein) hat ein gewisses Talent mit "Zahlen", ueber das ich persoenlich nicht gerade verrueckt bin. aths' Deutschstunde: Man kann verrückt nach etwas sein, nicht über etwas :)
Demirug, 200 Quads in der Pipe zu halten, hieße doch, über gewaltige Registerfiles verfügen zu müssen, oder nicht?
Demirug
2004-03-22, 10:40:54
Original geschrieben von Ailuros
Kirk (obwohl nicht der einzige um ehrlich zu sein) hat ein gewisses Talent mit "Zahlen", ueber das ich persoenlich nicht gerade verrueckt bin.
Ach so. Die Zahlen in diesem Bereich stehen aber im Einklang mit anderen messbaren Effekten und der Patentschrift. Deswegen passt das in diesem Fall wohl schon.
Ailuros
2004-03-22, 10:47:29
Original geschrieben von aths
aths' Deutschstunde: Man kann verrückt nach etwas sein, nicht über etwas :)
:banghead:
Danke!
Ach so. Die Zahlen in diesem Bereich stehen aber im Einklang mit anderen messbaren Effekten und der Patentschrift. Deswegen passt das in diesem Fall wohl schon.
In der Mehrheit von Faellen entsprechen alle Zahlen von Kirk der Realitaet, wenn auch oefters unter Vorraussetzungen.
StefanV
2004-03-22, 11:33:03
Original geschrieben von ow
:???:
Wurde nicht schon hunderte Male erklaert, dass genau hierin das Problem der NV3xe liegt??
Pipeline zu lang bzw. Registerfile fuer die Pipeline-Laenge zu klein.
Ich denke, daß aths in diesem Fall etwas anderes meint...
In diesem Fall war eher gemeint, was alles in der Pipeline sein kann, nicht was rein oder raus kommt.
Original geschrieben von Ailuros
In der Mehrheit von Faellen entsprechen alle Zahlen von Kirk der Realitaet, wenn auch oefters unter Vorraussetzungen. Das kann ich nur unterschreiben. Der Mann hat eine manchmal sehr kreative Auslegung von Begriff-Definitionen, so dass seine Zählweise hin und wieder nicht so recht nachvollziehbar ist. Jedenfalls nicht, ohne dass die Bedingungen unter denen die Zählweise gilt bekannt sind.
Original geschrieben von ow
:???:
Wurde nicht schon hunderte Male erklaert, dass genau hierin das Problem der NV3xe liegt??
Pipeline zu lang bzw. Registerfile fuer die Pipeline-Laenge zu klein. Angesichts der Pipelänge wäre das Tempfile insgesamt ja sehr groß. Ich weiß nicht, ob NV wirklich diesen Weg ging. Auch sehe ich nicht ganz den Vorteil davon, gleich 200 Quads in der Pipe zu haben.
Demirug
2004-03-22, 12:48:05
Original geschrieben von aths
Angesichts der Pipelänge wäre das Tempfile insgesamt ja sehr groß. Ich weiß nicht, ob NV wirklich diesen Weg ging. Auch sehe ich nicht ganz den Vorteil davon, gleich 200 Quads in der Pipe zu haben.
Dann sag mir bitte wie man die Latenz beim Texturieren sonst ausgleichen soll?
Und ja das Tempfile ist gross aber eben nicht gross genug.
ATI kann mit der XBox II garnet Baden gehen.
Sie entwickeln das R500 Design eh für ihren normalen Desktop Markt, sodass man den Vertrag mit M$ (vielleicht auch Nintendo) nur als Bonusprogramm ansehen kann, mit dem sich noch etwas dazuverdienen lässt.
Dieses Konzept ist für alle Beteiligten ein sinnvoller Kompromiss wenn M$ die Möglichkeiten hat die Chips in der gewünschten Form selber zu bauen.
Winter[Raven]
2004-03-22, 13:12:06
@ HOT
Der NV2a für die Xbox gleicht ja auch zum größtem Teil mit GF3+GF4. Und trotzdem gab es große Verspäung, das Ergebniss haben wir mit dem NV30 gesehen !
DrumDub
2004-03-22, 13:19:59
Original geschrieben von Winter[Raven]
@ HOT
Der NV2a für die Xbox gleicht ja auch zum größtem Teil mit GF3+GF4. Und trotzdem gab es große Verspäung, das Ergebniss haben wir mit dem NV30 gesehen !
das ist mir zu monokausal gedacht. nur wegen des nv2a hat sich der nv30 nicht verspätet. da gabs noch ne menge anderer gründe...
Original geschrieben von Demirug
Dann sag mir bitte wie man die Latenz beim Texturieren sonst ausgleichen soll?Bei 16x AF braucht man doch ohnehin bis zu 32 Zyklen in der TMU. Wie viele Takte die TMU Leerkreise dreht, um den Cache neu zu laden, weiß ich nicht.
Exxtreme
2004-03-22, 13:24:28
Original geschrieben von Winter[Raven]
@ HOT
Der NV2a für die Xbox gleicht ja auch zum größtem Teil mit GF3+GF4. Und trotzdem gab es große Verspäung, das Ergebniss haben wir mit dem NV30 gesehen !
Ich würde eher sagen, daß sich der NV30 eher wegen dem nicht ganz ausgereiften 0.13µm-Prozess verspätet hat. Ansonsten hat das Teil die Erwartungen voll erfüllt und war deutlich schneller als der Vorgänger beim AA + AF. Wäre der R300 nicht so heftig geworden, dann hääten die meisten den NV30 abgefeiert.
Winter[Raven]
2004-03-22, 13:30:29
Ist schon klar, es ist ja bekannt das TSMC Nvidia versprochen hat LowK bis Frühling 2003 im Grief zuhaben, was am Ende anders War. Ich meine durch den Vertrag mit M$, war Nvidia gezwungen sich um den NV2a mehr zukümmern.
Demirug
2004-03-22, 13:33:32
Original geschrieben von aths
Bei 16x AF braucht man doch ohnehin bis zu 32 Zyklen in der TMU. Wie viele Takte die TMU Leerkreise dreht, um den Cache neu zu laden, weiß ich nicht.
Bist du sicher das die TMU nicht selbst wiederum mehrer Pipelinestufen hat immerhin muss da ja einiges gerrechnet werden? Zudem versucht eine gute TMU anfragen so zu sortieren das sie eine möglichst hohe Hitrate beim Cache erreichen. Dann bekommt ja auch nicht immer sofort den Speicherkontroller den man gerade braucht. Kurzum: Je länger die Pipeline ist desto besser wird der Chip mit Latenzen fertig.
Von den über 200 Stufen sind es alleine etwa 175 in der TMU.
Original geschrieben von HOT
ATI kann mit der XBox II garnet Baden gehen.
Sie entwickeln das R500 Design eh für ihren normalen Desktop Markt, sodass man den Vertrag mit M$ (vielleicht auch Nintendo) nur als Bonusprogramm ansehen kann, mit dem sich noch etwas dazuverdienen lässt.
Dieses Konzept ist für alle Beteiligten ein sinnvoller Kompromiss wenn M$ die Möglichkeiten hat die Chips in der gewünschten Form selber zu bauen.
O-Ton Chris Hook auf der CeBIT:
"Design Team West [former artX] is doing everything related to our Radeon-Line of cards right now. Design Team East [former ATi] is doing XBox-II."
;Q
Original geschrieben von Gast
O-Ton Chris Hook auf der CeBIT:
"Design Team West [former artX] is doing everything related to our Radeon-Line of cards right now. Design Team East [former ATi] is doing XBox-II."
;Q
Marketing...
Natürlich MÜSSEN sie sagen dass sie jetzt SCHWER beschäftigt sind mit der XBoxII, da es sich hier ja um ein PrestigeProdukt handelt. Er hätte genauso statt XBoxII R500 sagen können. Ich glaube garnichtmal, dass ATI das so macht wie er das gesagt hat. Was intern wirklich gemacht wird verrät er nicht.
Es kann ja sogar sein, dass ATI generell zweigleisig fährt mit der Designentwicklung.
Der Verdacht drängt sich sogar auf, wenn man sich zu gemüte führt, dass der R400 Chip angeblich exisitieren soll. Also ein Team für Neuentewickeln und eins für Refreschen oder ähnlich.
Gaestle
2004-03-22, 13:48:53
Original geschrieben von Winter[Raven]
der R420 soll nächste woche auf der GDC vorgestellt werden.
....
Hallo,
nur davon steht HIER (http://www.ati.com/companyinfo/events/gdc/index.html) gar nix. Nicht mal andeutungsweise...
*OT*
Interessanterweise präsentiert CryTek unter dem Sponsorship von ATi seine Engine. Passiert das auch für NV?
Grüße
Original geschrieben von Demirug
Bist du sicher das die TMU nicht selbst wiederum mehrer Pipelinestufen hat immerhin muss da ja einiges gerrechnet werden? Zudem versucht eine gute TMU anfragen so zu sortieren das sie eine möglichst hohe Hitrate beim Cache erreichen. Dann bekommt ja auch nicht immer sofort den Speicherkontroller den man gerade braucht. Kurzum: Je länger die Pipeline ist desto besser wird der Chip mit Latenzen fertig.
Von den über 200 Stufen sind es alleine etwa 175 in der TMU. Beim R300 dann auch?
Demirug
2004-03-22, 14:00:23
Original geschrieben von aths
Beim R300 dann auch?
Ich gehe davon aus das sich der R300 in ähnlichen Dimensionen bewegt.
Original geschrieben von HOT
Marketing...
Natürlich MÜSSEN sie sagen dass sie jetzt SCHWER beschäftigt sind mit der XBoxII, da es sich hier ja um ein PrestigeProdukt handelt. Er hätte genauso statt XBoxII R500 sagen können. Ich glaube garnichtmal, dass ATI das so macht wie er das gesagt hat. Was intern wirklich gemacht wird verrät er nicht.
Es kann ja sogar sein, dass ATI generell zweigleisig fährt mit der Designentwicklung.
Der Verdacht drängt sich sogar auf, wenn man sich zu gemüte führt, dass der R400 Chip angeblich exisitieren soll. Also ein Team für Neuentewickeln und eins für Refreschen oder ähnlich.
Das mag so sein, aber wiederum auch nicht. Die Antwort war eigentlich nur ein Abfallprodukt auf meine Frage, was es mit den Design-Teams und der oftmals bestrittenen Existenz des ArtX-Teams als Design-Team West auf sich hat.
Es gibt ArtX also noch. =)
;Q
robbitop
2004-03-22, 19:10:24
einen R500 abkömmling für die XBOX2 zu modifizieren kostet mehr Zeit und Männer als man denkt.
Dazu kommt noch das GC Projekt. Sowas bremst eben.
ironMonkey
2004-03-23, 17:50:34
ATI stellt auch hin und wieder Leute ein.........
Gruß
Original geschrieben von robbitop
einen R500 abkömmling für die XBOX2 zu modifizieren kostet mehr Zeit und Männer als man denkt.
Dazu kommt noch das GC Projekt. Sowas bremst eben.
Warum sollte es? Es gibt ja mehrere Möglichkeiten:
1.) Der XBoxII Chips IST ein R500 -> keine Zusatzkosten für ATI
2.) ATI Entwickelt das Design (wie PowerVR) und M$ entwickelt den Chip und lässt den Produzieren (wohl populärste Variante immo) -> kaum Zusatzkosten für ATI, nur andere Vorgehensweise vielleicht.
3.) ATI Entwickelt einen eigentsändigen XBox Grafikchip -> könnte
a.) Entwicklung eines R500 Lowcostderivats vorwegnehmen, kostet Geld + Ressourcen im Vorfeld, aber eben nicht in der Summe
oder wird b.) ein komplett neuer Chip, dann stellt siach aber die Frage warum?? denn ATI braucht keine NB in den Chip zu integrieren wie NV damals.
Die Infrastruktur soll ja von SIS kommen.
Vom GC ist bisher ja nichts bekannt, darüber traue ich mich net zu spekulieren, könnte aber ähnlich sein.
robbitop
2004-03-23, 18:03:08
du scheinst das alles sehr genau zu wissen HOT..Quelle?
ironMonkey
2004-03-23, 18:17:39
Ein Vollwertiger R500 wie wir ihn kaufen werden können kommt sicher nicht in die XB2, wenn dann eine langsamere Varante die weniger Strom braucht, die XB ist derzeit die schnellste Konsole und schau dir mal den NV Chip an wo dort drin ist und was der leistet und dann schau dir mal nen R350 an und die Grafik der XB ist immer noch Top von daher könnte die nächste Konsole mit dem R500 nicht viel anfagen, da er viel Strom fressen wird und die Leistung wohl nicht anähernd ausgenutz werden kann.
Gruß
Original geschrieben von ironMonkey
Ein Vollwertiger R500 wie wir ihn kaufen werden können kommt sicher nicht in die XB2, wenn dann eine langsamere Varante die weniger Strom braucht, die XB ist derzeit die schnellste Konsole und schau dir mal den NV Chip an wo dort drin ist und was der leistet und dann schau dir mal nen R350 an und die Grafik der XB ist immer noch Top von daher könnte die nächste Konsole mit dem R500 nicht viel anfagen, da er viel Strom fressen wird und die Leistung wohl nicht anähernd ausgenutz werden kann.
Gruß
Hmm, woher weisst du wieviel Strom der r500 verbrauchen wird?
Das sind alles vage Vermutungen, vielleicht wird der r500 ja sogar extrem stromsparend, bis lang wurde in diese Richtung ja noch nicht viel entwickelt, da ist also noch ordentlich Potential.
Ich würde mir zumindest noch keine großen Gedanken zuzm Stromverbrauch machen, das werden die bei ATI bestimmt berücksichtigen und was am Ende bei rauskommt wird man dann sehen...
Quasar
2004-03-23, 19:23:34
HOT,
man (auch Leute hier im Forum, denen üblicherweise zu trauen ist) munkelt ja, daß M$ eben nicht diesen Weg gegangen ist, sondern nur fertige Chips bezahlen will, so daß das Risiko ganz beim Lieferanten liegt.
BodyLove
2004-03-23, 19:30:44
@Q
wer setzt eigentlich die finalen Taktraten fest. Sofern es so sein sollte, wie du es beschreibst, so hat Ati schon mitspracherecht. Und die wollen das Risiko so klein wie möglich halten. Also takt runter. M$ will natürlich das Gegenteil. Ein gewisser Konflinkt entsteht.
Quasar
2004-03-23, 19:33:51
Keine Ahnung, ich denke mal, daß man da ein Design-Ziel seitens MS hatte und der Lieferant sich drauf einlassen muss.
Wahrscheinlicher ist aber IMO, daß M$ eine bestimmte Leistungsaufnahme und eine bestimmte Grafikleistung spezifiziert hat, die dann ATi erreichen muss/soll.
Alles nur Spekulatius, allerdings.
BodyLove
2004-03-23, 19:54:54
Klar alles nur Speku. Nur weiss ich nicht, ob M$ sich so stark auf die Leistungaufnahme konzentriert. Ist zwar ein Punkt, worauf man achten sollte, aber viel eher steht dies im zweiten Rang. Was würde den gegen eine etwas höhere Leistungsaufnahme seitens M$ sprechen? Ein besseren Kühler? (Besseres Netzteil?!). Zwar kostet dies M$ mehr. Aber wir reden hier von M$. Am Geld mangelt es denen nicht. Sie brauchen mir Image und mehr Absatz. Dies erreicht man imho besser, wenn man die Leistung erhöht, anstatt sich auf die Leistungsaufnahme zu konzentrieren.
StefanV
2004-03-23, 21:11:39
Original geschrieben von Quasar
HOT,
man (auch Leute hier im Forum, denen üblicherweise zu trauen ist) munkelt ja, daß M$ eben nicht diesen Weg gegangen ist, sondern nur fertige Chips bezahlen will, so daß das Risiko ganz beim Lieferanten liegt.
Das zeigt doch eigentlich nur wie dämlich M$ ist und wie wenig sie vom Konsolengeschäft verstehen, IMO :|
Quasar
2004-03-23, 23:29:07
Original geschrieben von BodyLove
Klar alles nur Speku. Nur weiss ich nicht, ob M$ sich so stark auf die Leistungaufnahme konzentriert. Ist zwar ein Punkt, worauf man achten sollte, aber viel eher steht dies im zweiten Rang. Was würde den gegen eine etwas höhere Leistungsaufnahme seitens M$ sprechen? Ein besseren Kühler? (Besseres Netzteil?!). Zwar kostet dies M$ mehr. Aber wir reden hier von M$. Am Geld mangelt es denen nicht. Sie brauchen mir Image und mehr Absatz. Dies erreicht man imho besser, wenn man die Leistung erhöht, anstatt sich auf die Leistungsaufnahme zu konzentrieren.
Mag sein, aber eine LAUTE Konsole will niemand im Wohnzimmer stehen haben, insbesondere dann nicht, wenn sie auch als DVD-Player fungieren soll/kann. Da gab's ja früher schon Schelte bei einigen Produkten.
Andere Gerüchte besagen auch, daß ATi gar kein Geld direkt bekommt, sondern pro verkauftem Spiel bezahlt wird, was, im Falle der Wiederholung des XBox-"Erfolges" wohl eher unterhalb der Erwartungen liegen könnte (ausser, sie machen den GC absichtlich richtig schlecht. ;) ).
Demirug (IIRC) deutete mal an, daß ATi sich dieses Geschäft eventuell auf anderem Wege hat ausgleichen lassen.
Also sieht immo alles nach einem abgespeckten R500 aus. Jedenfalls wenn man diesem Forum immo folgt. Das würde ATI in der Tat Sonderressourcen kosten immo, die sich negati auf die R400 Entwicklung haben auswirken können. Dafür haben sie später schon eine Lowcost Variante zu Verfügung.
An eine komplette Eigenkreation für XBox oder GC glaub ich net, zumindest bei der XBox wäre es bei dem Vertrag, wie er zZ die Runde macht selbstmörderisch von ATI.
Demirug
2004-03-24, 11:12:46
So wie ATI über VS 3.0 auf der GDC redet sieht es danach aus das er es kann. Problematisch ist nur das selbst ATI wohl noch nicht so genau weiss wie man VS 3.0 mit PS 2.B verbindet.
zeckensack
2004-03-24, 11:17:07
Original geschrieben von Demirug
So wie ATI über VS 3.0 auf der GDC redet sieht es danach aus das er es kann. Problematisch ist nur das selbst ATI wohl noch nicht so genau weiss wie man VS 3.0 mit PS 2.B verbindet. Gibt's da ein Problem mit DXG? ?(
Ich habe sowas schon im Beyond3D-Forum gelesen, kann mir das aber schwer vorstellen. Geht's da um die Übergabe interpolierter Attribute?
edit:
http://www.beyond3d.com/forum/viewtopic.php?t=10838
Kann man nicht einfach Texturkoordinatensätze benutzen?
Demirug
2004-03-24, 11:27:38
Original geschrieben von zeckensack
Gibt's da ein Problem mit DXG? ?(
Ich habe sowas schon im Beyond3D-Forum gelesen, kann mir das aber schwer vorstellen. Geht's da um die Übergabe interpolierter Attribute?
edit:
http://www.beyond3d.com/forum/viewtopic.php?t=10838
Kann man nicht einfach Texturkoordinatensätze benutzen?
Genau, 3.0 Shader tauschen die Attribute auf eine neue Art aus. Die ist um einiges flexibler. Im Prinzip sollte es kein Problem sein die Daten aus einem 3.0 Vertexshader in einen 2.0/2.X Pixelshader zu bekommen wenn man bei den Ausgangsattribute eben nur Sachen benutzt die 2.0/2.X auch kennen.
Exxtreme
2004-03-24, 11:40:45
Original geschrieben von Demirug
So wie ATI über VS 3.0 auf der GDC redet sieht es danach aus das er es kann. Problematisch ist nur das selbst ATI wohl noch nicht so genau weiss wie man VS 3.0 mit PS 2.B verbindet.
Also der R420 mit VS3.0? Das wäre IMHO ziemlich gut. :up:
Demirug
2004-03-24, 11:43:26
Original geschrieben von Exxtreme
Also der R420 mit VS3.0? Das wäre IMHO ziemlich gut. :up:
Welchen Sinn würde es sonst machen das jemand von ATI (Jason Mitchell) in seinem Vortrag einen sehr grossen Teil für VS 3.0 opfert. Für PS 3.0 ist es gerade mal eine Seite.
StefanV
2004-03-24, 11:43:53
Original geschrieben von Quasar
Mag sein, aber eine LAUTE Konsole will niemand im Wohnzimmer stehen haben, insbesondere dann nicht, wenn sie auch als DVD-Player fungieren soll/kann. Da gab's ja früher schon Schelte bei einigen Produkten.
Da muss ich dir widersprechen!
Schließlich haben sehr viele eine Paystation2, die nicht gerade eine Silentkonsole ist...
Erst die neuen V9 und V10 Konsolen (SCHP 5000er) sollen leiser sein, dafür kann man die nicht mehr i.Linken...
reunion
2004-03-24, 14:03:29
Inoffizielle Roadmap zeigt zukünftiges Angebot von ATI Technologies:
In einem chinesischen Magazin ist gestern eine wohl vom Mainboard- und Grafikkartenhersteller Chaintech stammende Roadmap von ATI Technologies veröffentlicht worden. Diese verrät nicht nur das kommende Sortiment neuer ATI Grafikchips, sondern allein durch ihre Existenz auch, dass der bisher exklusive nVidia-Partner Chaintech künftig auch ATI Grafikkarten anbieten wird. Ansonsten würde der Hersteller kaum im Besitz dieser Pläne sein.
Die Roadmap selbst gibt erstmals Auskunft über die Bezeichnung der kommenden High-End Grafikkarten mit dem ATI R420 Chip. Die letzte AGP 8x Karte von ATI vor dem Wechsel zu PCI Express wird demnach ''Radeon 9900'' heißen.
Dieser Name würde die auf der CeBIT kreisenden Vermutungen bestärken, dass der R420 kein wirklich neuer Grafikchip, sondern eher eine Weiterentwicklung des R360 (Radeon 9800XT) ist. Wenn der R420 der Vorreiter einer neuen Serie wäre, müsste man sich auf Herstellerseite ja noch Platz lassen in der Numerierung nach unten, um die niedriger getakteten Modelle mit sinnvollen Namen belegen zu können. Unterhalb einer Radeon 9900 aber befindet sich ja das jetzt schon erhältliche Sortiment von ATI.
Die PCI Express Variante des R420 benennt die Roadmap wie vermutet als R423.
Nachfolger der Radeon 9600XT bzw. des RV360 ist nach diesen Plänen der RV380, der ja schon auf der CeBIT in zahlreichen Systemen zur Demonstration von PCI Express zu sehen war. Vom RV380 sollte man sich keine großen Leistungsgewinne gegenüber einer jetzigen Radeon 9600XT versprechen. Man geht derzeit davon aus, dass der RV380 lediglich die PCI-E Version des RV360 ist, mit möglicherweise den gleichen Taktraten.
Ein interessanter Grafikchip dürfte der RV370 im unteren Mainstream-Segment werden. Der Nachfolger der Radeon 8500/9000/9200 Serie kommt voraussichtlich in der zweiten Jahreshälfte auf den Markt und verspricht eine für diesen Bereich sehr gute Performance. Wie uns ein Hersteller auf der CeBIT verriet, wird der RV370 schon in 110nm Prozesstechnologie gefertigt und soll ganze vier Pipelines besitzen. Dies bestätigt die vor etwas mehr als einen Monat aufgetauchten Gerüchte über diesen Grafikchip.
Im Gegensatz zu den Vorgängermodellen auf Basis des Radeon 8500 (DX8.1 kompatibel) wird der RV370 die Features von DirectX9 unterstützen.
http://www.hartware.de/news_36012.html
mfg
reu
Winter[Raven]
2004-03-24, 14:15:17
Original geschrieben von Exxtreme
Also der R420 mit VS3.0? Das wäre IMHO ziemlich gut. :up:
Das zweifle ich mal an ... *eg*
Problematisch ist nur das selbst ATI wohl noch nicht so genau weiss wie man VS 3.0 mit PS 2.B verbindet.
mit anderen Worten ausgedrückt, dieser "mögliche" Support wird wohl genau so enden wie ATI's M Buffer im R300 ....:klick:
MadManniMan
2004-03-24, 14:27:07
Sicherlich wäre es besser, generell Shader 3.0 zu haben, aber was ist daran shice, wenn man anstelle von Shader 2.X zumindest VS 3.0 hat?
BTW meinst du gewiß was anderes als den M-Buffer, denn dieser ist der Nachfolger des T-Buffer der VSA-100 Reihe von 3dfx... ;)
DrumDub
2004-03-24, 14:31:21
Original geschrieben von MadManniMan
BTW meinst du gewiß was anderes als den M-Buffer, denn dieser ist der Nachfolger des T-Buffer der VSA-100 Reihe von 3dfx... ;)
er meint den f-buffer...
Winter[Raven]
2004-03-24, 14:33:53
Genau ... Wollte ich erst F-Buffer schreiben. War der F-Buffer nicht der Nachfolger von M-Buffer bei 3DFX ? bzw. ist der F-Buffer nicht eine Entwicklung von 3DFX ?
Ich kramm mal die alten PC Games Hardware raus, da hab ich doch was gelesen ... :kratz:
Exxtreme
2004-03-24, 14:37:41
Original geschrieben von Winter[Raven]
Genau ... Wollte ich erst F-Buffer schreiben. War der F-Buffer nicht der Nachfolger von M-Buffer bei 3DFX ? bzw. ist der F-Buffer nicht eine Entwicklung von 3DFX ?
Ich kramm mal die alten PC Games Hardware raus, da hab ich doch was gelesen ... :kratz:
Du verwechselst den F-Buffer mit dem T-Buffer. Der T-Buffer ist ein Multisample-Buffer und der F-Buffer dient dazu um längere Shader-Programme zu ermöglichen.
Demirug
2004-03-24, 14:38:10
Original geschrieben von Winter[Raven]
Genau ... Wollte ich erst F-Buffer schreiben. War der F-Buffer nicht der Nachfolger von M-Buffer bei 3DFX ? bzw. ist der F-Buffer nicht eine Entwicklung von 3DFX ?
Ich kramm mal die alten PC Games Hardware raus, da hab ich doch was gelesen ... :kratz:
Der F-Buffer sollte es möglich machen längere Shader mit einem R350 berechnen zu können.
Die 3dfx Buffer waren eher für spezielle Bildeffekte (z.B Motion Blur)die man aber heute alle anders realisiert.
EDIT: Exxtreme war etwas schneller
Original geschrieben von Winter[Raven]
Das zweifle ich mal an ... *eg*
Warum wohl vertrau ich in diesem Aspekt eher Demirug als einem Fan-Boy wie dir???
Original geschrieben von Winter[Raven]
mit anderen Worten ausgedrückt, dieser "mögliche" Support wird wohl genau so enden wie ATI's M Buffer im R300 ....:klick:
Bist du dir sicher, dass du verstanden hat was Demi und Zecki oben gesagt haben? Wenn nicht dann würde ich dazu kein Kommentar abgeben, schon gar nicht über die Leistungsfähigkeit und den Nutzen...
DrumDub
2004-03-24, 14:42:33
der m-buffer war afaik u.a. für die msaa unterstützung des 3dfx rampage geplant, der ja bekanntlich nie veröffentlicht wurde.
Winter[Raven]
2004-03-24, 14:55:58
Original geschrieben von burk23
Warum wohl vertrau ich in diesem Aspekt eher Demirug als einem Fan-Boy wie dir???
Bist du dir sicher, dass du verstanden hat was Demi und Zecki oben gesagt haben? Wenn nicht dann würde ich dazu kein Kommentar abgeben, schon gar nicht über die Leistungsfähigkeit und den Nutzen...
1. sehe ich keinen Posting von Demirug im Bezug auf R420 und VS ;) Nur eine Spekulation.
2. Siehst du dort ein Smilie ;) oder soll man in Zukunft die Smilies und Ironie Postings fett MAKIEREN ?
3. Sagte Demirug, dass Ati derzeit anscheihnend nicht weiß wie man die 2_b PS verbindet.
Leider gibt es genung Beispiele aus der Vergangenheit für Versprochene und am Ende doch nicht, egal auf Grund der Treiber oder Hardware.
Gil-galad
2004-03-24, 15:07:41
Original geschrieben von Winter[Raven]
Leider gibt es genung Beispiele aus der Vergangenheit für Versprochene und am Ende doch nicht, egal auf Grund der Treiber oder Hardware.
Ja und nicht nur bei ATi ;)
deekey777
2004-03-24, 15:18:35
Original geschrieben von Demirug
Der F-Buffer sollte es möglich machen längere Shader mit einem R350 berechnen zu können.
...
... aber nur unter OpenGl oder?
F-Büffer ermöglicht theoretisch gesehen unendlich lange Shader zu berechnen - nur die Grösse des Grafikkartenspeichers setzt hier eine Grenze. Ich weiss, es ist OT at its best, aber F-Buffer ist doch nur ein Papierfeature, oder hab ich Recht?
Original geschrieben von Winter[Raven]
1. sehe ich keinen Posting von Demirug im Bezug auf R420 und VS ;) Nur eine Spekulation.
2. Siehst du dort ein Smilie ;) oder soll man in Zukunft die Smilies und Ironie Postings fett MAKIEREN ?
3. Sagte Demirug, dass Ati derzeit anscheihnend nicht weiß wie man die 2_b PS verbindet.
Leider gibt es genung Beispiele aus der Vergangenheit für Versprochene und am Ende doch nicht, egal auf Grund der Treiber oder Hardware.
zu 1. Japps ich sehe auch nur eine Spekulation von Demirug. Von dir sehe ich aber auch nur eine wilde Spekulation. Der Unterschied? Seine basiert auf Fakten, deine ist Fanboy Gelabber.
zu 2. Der Smilie ist mir nicht bekannt als einer der Ironie ausdrücken soll. Ausserdem ist der Satz auch so geschrieben, dass er Ironie in keinem Fall vermuten lässt.
zu 3. Also Demi sagt selber, dass es möglich sei beides zu verbinden, von daher traue ich es ATI auch zu. Wie performant das am ende sein wird steht in den Sternen, da wage ich mich dezeitig aber nicht ein Urteil drüber abzugeben, da ich NICHT über gesicherte Fakten noch über ausreichendes Wissen verfüge...
Demirug
2004-03-24, 15:20:50
Original geschrieben von deekey777
... aber nur unter OpenGl oder?
F-Büffer ermöglicht theoretisch gesehen unendlich lange Shader zu berechnen - nur die Grösse des Grafikkartenspeichers setzt hier eine Grenze. Ich weiss, es ist OT at its best, aber F-Buffer ist doch nur ein Papierfeature, oder hab ich Recht?
Erst sollte es nur unter OpenGL gehen. Dann meinte jemand von ATI man könnte es wohl auch unter DX zu laufen bekommen wenn genügend Leute interesiert wären. Dann ging es wieder nur unter OpenGL. Lange rede kurzer Sinn bis heute geht überhaupt nichts.
Demirug
2004-03-24, 15:23:10
Original geschrieben von burk23
zu 3. Also Demi sagt selber, dass es möglich sei beides zu verbinden, von daher traue ich es ATI auch zu. Wie performant das am ende sein wird steht in den Sternen, da wage ich mich dezeitig aber nicht ein Urteil drüber abzugeben, da ich NICHT über gesicherte Fakten noch über ausreichendes Wissen verfüge...
Die Verbindung von VS 3.0 und PS 2.0(oder B) ist kein performance problem. Es hat damit zu tun das die DX-Spec davon ausgeht das eine Hardware die VS 3.0 kann auch PS 3.0 hat. Deswegen wurde einfach nicht definiert wie man VS 3.0 mit PS 2.0 nutzen kann. Mit einem neuen SDK sollte sich das aber nachholen lassen.
Original geschrieben von Demirug
Die Verbindung von VS 3.0 und PS 2.0(oder B) ist kein performance problem. Es hat damit zu tun das die DX-Spec davon ausgeht das eine Hardware die VS 3.0 kann auch PS 3.0 hat. Deswegen wurde einfach nicht definiert wie man VS 3.0 mit PS 2.0 nutzen kann. Mit einem neuen SDK sollte sich das aber nachholen lassen.
Aha, wusste ja nicht was man machen muss um diese Problem zu umgehen und welche Performanceprobleme mit diesem Umweg evtl. anfallen würden. Das mit dem SDK hört sich ja recht simple an.
P.S.: Wie hat das damals eigentlich Matrox bei der Parhelia gelöst. Die hat ja auch PS 1.1 und VS 2.0. Gibt´s da keine Probleme?
P.P.S.: PS 2.b sind die neuen "advanced" Pixelshader des r420?
Demirug
2004-03-24, 15:38:17
Original geschrieben von burk23
P.S.: Wie hat das damals eigentlich Matrox bei der Parhelia gelöst. Die hat ja auch PS 1.1 und VS 2.0. Gibt´s da keine Probleme?
VS 2.0 und PS 1.X können ohne Probleme miteinander. Auch VS 1.1 und PS 2.0 ist kein Problem. Ob Matrox wirklich VS 2.0 kann weiss ich gar nicht. Es gibt ja bis heute noch keinen Treiber.
P.P.S.: PS 2.b sind die neuen "advanced" Pixelshader des r420?
2.B ist das Compilerprofil für R420. So wie 2.A das für NV3X ist. Die Buchstaben sagen übrigens nichts über die mächtigkeit aus.
MadManniMan
2004-03-24, 16:49:05
Welchen praktischen Nutzen brächte alleiniges 3.0 bei den VS? Ich meine, das Branching bringt doch hauptsächlich bei PS Vorteile, oder nich?
Demirug
2004-03-24, 17:03:00
Original geschrieben von MadManniMan
Welchen praktischen Nutzen brächte alleiniges 3.0 bei den VS? Ich meine, das Branching bringt doch hauptsächlich bei PS Vorteile, oder nich?
Es bringt auch was bei den Vertexshader allerdings hat ATI da komische Andeutungen bezüglich der Performance gemacht.
Die fähigkeit Texturen auszulesen ist ebenfalls sehr praktisch weil man dadurch Physiksachen auf die Grafikkarte auslagern kann. Dafür müssen die Pixelshader aber FP32 beherschen sonst gibt es schnell Ärger.
Mal ne Frage: In ein paar anderen Thread wurde ja erwähnt, dass man VS 3.0 mit ein paar Modifikationen als PS 3.0 verwenden könnte. Wäre es denn theoretisch möglich, dass der r420 dadurch doch noch zu PS 3.0 kommt?
Ok, das wäre von der Performance wohl sehr bescheiden, weil die VS alleine ja nicht beides schnell genug berechnen können, aber das wäre dann sozusagen als Alibifeature...
P.S.: Ok klingt für mich zwar selber nicht sehr wahrscheinlich, da am r420 gegenüber zum r300 ja nicht viel verändert wurde, aber wäre es denn theoretisch möglich?
Demirug
2004-03-24, 18:06:06
Original geschrieben von burk23
Mal ne Frage: In ein paar anderen Thread wurde ja erwähnt, dass man VS 3.0 mit ein paar Modifikationen als PS 3.0 verwenden könnte. Wäre es denn theoretisch möglich, dass der r420 dadurch doch noch zu PS 3.0 kommt?
Ok, das wäre von der Performance wohl sehr bescheiden, weil die VS alleine ja nicht beides schnell genug berechnen können, aber das wäre dann sozusagen als Alibifeature...
P.S.: Ok klingt für mich zwar selber nicht sehr wahrscheinlich, da am r420 gegenüber zum r300 ja nicht viel verändert wurde, aber wäre es denn theoretisch möglich?
Im Prinzip ja. Aber dafür hätte man den Chip entsprechend modifizieren müssen und den Vertexshader TMUs geben die 16xAF beherschen. Nur für ein Alibifeature so viele Transistoren zu verschwenden ist eigentlich nicht ATIs Art.
Original geschrieben von Demirug
Im Prinzip ja. Aber dafür hätte man den Chip entsprechend modifizieren müssen und den Vertexshader TMUs geben die 16xAF beherschen. Nur für ein Alibifeature so viele Transistoren zu verschwenden ist eigentlich nicht ATIs Art. Hmm, die Leistung unter PS 2.0 würde dabei ja auch erhöht werden, also reine Verschwendung wäre es ja nicht...
Wieviel zusätzliche Transistoren würde es denn ungefähr kosten, bei 6 VS?
robbitop
2004-03-24, 18:56:07
wieso sollte ein VS 3 die Pixelshader beschleunigen?
Demirug
2004-03-24, 18:57:26
Original geschrieben von burk23
Hmm, die Leistung unter PS 2.0 würde dabei ja auch erhöht werden, also reine Verschwendung wäre es ja nicht...
Wieviel zusätzliche Transistoren würde es denn ungefähr kosten, bei 6 VS?
Frag mich was leichteres. Um zu bestimmen wie aufwendig die Sync werden würde keine ich bestimmte Teile des Chips nicht gut genug. Neben den Transitoren ist es aber auch eine ganz schöne fummelei das so hinzubekommen das es funktioniert. Bei einem "Schnellschuss" würde ich von sowas die Finger lasse.
Original geschrieben von robbitop
wieso sollte ein VS 3 die Pixelshader beschleunigen?
wenn neben den 12 PS noch 6 VS teilweise zur PS Berechnung verwendet werden könnten. Die Vertexleistung heutiger Chips ist doch eh zum größten Teil überdimensioniert, da ist bestimmt einiges an Kapazität frei...
Original geschrieben von Demirug
Frag mich was leichteres. Um zu bestimmen wie aufwendig die Sync werden würde keine ich bestimmte Teile des Chips nicht gut genug. Neben den Transitoren ist es aber auch eine ganz schöne fummelei das so hinzubekommen das es funktioniert. Bei einem "Schnellschuss" würde ich von sowas die Finger lasse.
Also theoretisch machbar, aber praktisch einfach nicht wirklich rentabel?
Naja hatte ich mir so gedacht^^
Demirug
2004-03-24, 19:02:27
Original geschrieben von burk23
Also theoretisch machbar, aber praktisch einfach nicht wirklich rentabel?
Naja hatte ich mir so gedacht^^
Wenn man einen Chip von Anfang an dafür auslegt kann es durchaus rentabel sein. Ich könnte mir sowas für DX-Next Chips durchaus vorstellen.
Sphinx
2004-03-24, 19:16:29
"I downloaded the DX9.0c SDK beta2 yesterday and found out that VS3.0/PS2.0 pairing is enabled in hardware vertex processing mode "
robbitop
2004-03-24, 19:28:52
wenn ein VS die PS Aufgaben übernehmen können soll dann muss es afaik mehr sein als nur VS 3 ;)
Sphinx
2004-03-24, 19:50:43
VS3.0 Daten werden mit PS2.x PixelShadern kombiniert damit man Detailreiche Objekte mit der Performance der PS2.x PixelShader kombiniert.
Und wenn es wirklich der Wahrheit entspricht das MS im DX9.0c diese Möglichkeit bietet beides miteinander laufen zu lassen. *
Klingt es hier nach einer || FP32 vs 24 Situation... "Sinngemäß"
Sphinx
2004-03-24, 21:46:02
MS + ? Ati ? - Sofware Development Environment
XNA - http://www.microsoft.com/xna/default.aspx
Zieht euch mal die Demos rein "psst. CAR"
Demirug
2004-03-24, 21:50:57
Original geschrieben von Sphinx
MS + ? Ati ? - Sofware Development Environment
XNA - http://www.microsoft.com/xna/default.aspx
Zieht euch mal die Demos rein "psst. CAR"
Alter Wein in neuen Schläuchen.
Man hat einfach alles was bei MS mit Games zu tun hat gebündelt.
Sphinx
2004-03-24, 21:53:28
Schau dir die Demo´s mal an ,)
Ich denk nicht das dies Alter Wein ist...
Und mit X-Box hat es genausoviel gemein...
Demirug
2004-03-24, 21:59:15
Original geschrieben von Sphinx
Schau dir die Demo´s mal an ,)
Ich denk nicht das dies Alter Wein ist...
Und mit X-Box hat es genausoviel gemein...
Hübsche demos gibt es doch immer mal wieder. Demnächst werden uns auch wieder ATI und nVidia damit beglücken.
Ist die XBox nicht die Spielkonsole von MS? Also gehört sie zum Games-Bereich.
Sphinx
2004-03-24, 22:13:44
Original geschrieben von Demirug
Hübsche demos gibt es doch immer mal wieder. Demnächst werden uns auch wieder ATI und nVidia damit beglücken.
Ist die XBox nicht die Spielkonsole von MS? Also gehört sie zum Games-Bereich.
Es sind R420 Demo... in Realtime.
Demirug
2004-03-24, 22:26:19
Original geschrieben von Sphinx
Es sind R420 Demo... in Realtime.
Sollte mich das jetzt beeindrucken? OK, ich bin vielleicht schon etwas abgestumpft was solche Sachen angeht.
Sphinx
2004-03-24, 22:26:23
Demo..."s"
Winter[Raven]
2004-03-24, 22:40:05
in Realtime
hmmm ... Was soll daran toll sein ? :|
Need For Speed Untergrounf mit bissel Shadern und Bumpmapping ... :zzz:
Sphinx
2004-03-24, 22:52:35
Original geschrieben von Winter[Raven]
hmmm ... Was soll daran toll sein ? :|
Need For Speed Untergrounf mit bissel Shadern und Bumpmapping ... :zzz:
:|
VooDoo7mx
2004-03-24, 22:54:15
Original geschrieben von Sphinx
Es sind R420 Demo... in Realtime.
Also da steht nirgendwas von R420. Oder bin ich blind?
Wenn es Demos zum R420 geben wird und die wird es definitiv geben, kann man sich diese dann auch bei ATi runterladen.
Aber auf der ATi site hab ich nichts entsprechendes gefunden.
Dieses XNA ist ein dev Kit für Games für Windows,X-Box und Windows Mobile.
Diese Videos sodenn sie wirklich von auch nur irgendeiner realen Hardware gecaptured wurden, könnte genauso gut auch vom NV40 kommen da XNA keineswegs auf den R420 beschrenkt ist.
nochmal ein klein bisschen OT:
Die Nvidia Techdemos bei den entsprechenden Generatioen waren bis jetzt imemr cooler als die von ATi. ;)
Winter[Raven]
2004-03-24, 22:59:17
Original geschrieben von Sphinx
:|
Ne sorry, aber Polierte Autos habe ich shcon in den Demos zum R300 gesehn, die Tierchen mit dem Fell, habe ich auch mit dem R300 gesehen ...
Was soll daran neu sein ?:grübel:
@ VooDoo7mx
Jep, die Nvidia Demos finden auch die meisten irgend wie schöner, spritziger und innovativreicher.
reunion
2004-03-24, 23:14:04
Original geschrieben von Sphinx
Es sind R420 Demo... in Realtime.
Woher kommt die Info?
Sphinx
2004-03-24, 23:15:46
Original geschrieben von reunion
Woher kommt die Info?
Die Quelle ist so sicher wie 3dCenter :"Wir können zweifelsfrei bestätigen, daß der ATi R420-Chip keinen Shader 3.0 Support bieten wird."
reunion
2004-03-24, 23:17:39
Original geschrieben von Sphinx
Die Quelle ist so sicher wie 3dCenter :"Wir können zweifelsfrei bestätigen, daß der ATi R420-Chip keinen Shader 3.0 Support bieten wird."
Hm, und was machen die Demos dann bei M$?
reunion
2004-03-24, 23:20:05
Original geschrieben von VooDoo7mx
Die Nvidia Techdemos bei den entsprechenden Generatioen waren bis jetzt imemr cooler als die von ATi. ;)
:wayne:
Was zählt sind die Karten...
Winter[Raven]
2004-03-24, 23:26:47
Original geschrieben von Sphinx
Die Quelle ist so sicher wie 3dCenter :"Wir können zweifelsfrei bestätigen, daß der ATi R420-Chip keinen Shader 3.0 Support bieten wird."
Soll das ironisch gemeint sein ?
Derzeit gibt es KEINE Anhaltspunkte dafür dass der R420 VS3.0 unterstützen wird.
ATI kann solange rumreden wie sie wollen, was zählt sind die Karten und das was sie können.
Original geschrieben von Winter[Raven]
ATI kann solange rumreden wie sie wollen, was zählt sind die Karten und das was sie können. Richtig.
Im Spekulationsforum sind aber auch Spekulationen erlaubt, die ATI in ein gutes Licht stellen.
Sphinx
2004-03-25, 00:23:00
Des R420er Halber - Schaut euch - Das Car Demo an... wer´s nicht gescheckt hat... als hint. (Bei 25/26 Sec. Auf Pause drücken...)
^^ Aber ,) Pseudo Interactive sitzt auch in Toronto ;)
Was daran spektakulär ist ? Gute Frage ich persöhnlich finde Die Physik des Crash ganz interressant...
Alles wohlbemerkt in Realtime...
Ailuros
2004-03-25, 00:26:58
Original geschrieben von Winter[Raven]
Soll das ironisch gemeint sein ?
Derzeit gibt es KEINE Anhaltspunkte dafür dass der R420 VS3.0 unterstützen wird.
ATI kann solange rumreden wie sie wollen, was zählt sind die Karten und das was sie können.
Das fettgedruckte hoert sich bekannt an; kling verdammt nach NV3x.
Naechster Generation ATI Karten koennen digitalen Kaffee kochen; noch ne Frage? ;D
Sphinx
2004-03-25, 00:35:12
Wieso ,) ? - Der NV40 - Der kocht schon ,) die Eier hart.
Ne im ernst - Diese ganze Spekulationsgeschichte wird Übertrieben ~ dermaßen das...
Der NV40 Chip DER Chip des Jahrhundert´s ist. Fehlt nur noch die Behauptung Doppelt so schnell als der R420...
und über den R420 wird jetzt schon hergezogen als der Lacher des Jahrhunderts "NUR PS2.x"...
Wenn beide Karten angekündigt sind und offiziell vorgestellt werden. Dann mach ich mir mal hier ein Review wer am besten lag mit seinen Spekulationen und wer eventuell zum Psychiater gehen sollte wegen des Realitätsverlust´s durch zuviel Forumbeiträgen...
Radeonator
2004-03-25, 00:42:46
Wer über ATi immer noch lacht, hat die letzten Monate verpennt, deshalb glaube ich das kaum. nV war nur mal wieder so schlau, PR technische Überlegenheit zu beweisen ;) Genau wie bei der GF FX klingt alles mehr als Hammer, nur dieses mal, wird die Karte wohl min. mit ATi s (derzeitigen) Boliden gleichziehen, [u]was PS Performance betrifft[/p] und an anderer Stelle deutlich überlegen sein.
ABER ATi wird sich bei der Architektur wohl was gedacht haben, genau wie bei der R300, muss man trotz theoretischer Unterlegenheit, mit einer Überraschung rechnen...
p.s.: nV schreibt nur 3x schneller als die FX Karten, also "aufpassen!" ;D
Winter[Raven]
2004-03-25, 00:48:56
Der NV40 Chip DER Chip des Jahrhundert´s ist. Fehlt nur noch die Behauptung Doppelt so schnell als der R420...
und über den R420 wird jetzt schon hergezogen als der Lacher des Jahrhunderts "NUR PS2.x"...
Ist da jemand extrem NEIDISCH auf Nvidia und ihren NV40 ? *eg*
@ Radeonator
Hmmm ......... also von Nvidia habe ich noch nichts offizielles an Infos:deal: gesehn, du etwa ?
Aber da du ja so fieß bist die PR Abteilung von Nvidia zubeshculdigen, dann spucke ich dir aber auch mal in die Suppe, wie war das nochmal bei CMR4 ? ... 2-3x schneller als heute Grafikkarten ?:crazy:
Aber jetzt Gute nacht @ all ^^.
Sphinx
2004-03-25, 00:56:03
Neid erm ? Meinst du Mich ?
erm ne wirklich nicht...
Ich kann mir gute Hardware leisten - der bessere bekommt halt mein Geld - aber erst will ich sehen was auf dem Markt ist und was sie zu bieten haben.
MadManniMan
2004-03-25, 01:24:04
Original geschrieben von Winter[Raven]
@ VooDoo7mx
Jep, die Nvidia Demos finden auch die meisten irgend wie schöner, spritziger und innovativreicher*.
* innovativer oder innovationsreicher
Nur als kleine Anekdote: auf einer der letzten größeren LANs hier bei uns gabs in den Pausen zwischen den Finals der Turniere per Beamer ein paar schöne Techdemos zu sehen - am meisten (begeisterte) Resonanz gabs bei ATIs R350-Chimp, dem HDR-Demo, Dawn nackt und Dusk Ultra. Irgendwie ziemlich gleich verteilt ;)
Sphinx
2004-03-25, 04:29:58
Original geschrieben von Demirug
Hübsche demos gibt es doch immer mal wieder. Demnächst werden uns auch wieder ATI und nVidia damit beglücken.
Ist die XBox nicht die Spielkonsole von MS? Also gehört sie zum Games-Bereich.
Für ungläubige die nicht denken das es sich um den R420 handelt.
http://www.microsoft.com/xna/gdc_keynote.aspx
Im etwas unteren Text ,) -
CHRIS DONAHUE: So all the demos today are going to be running on Windows XP with next generation ATI hardware. Some of the components of XNA that you'll see will be HLSL, XACT. We're also using the common controller interfaces and we're running controller S on Windows XP right now.
Und hier geht es zu den DemoVideo Vorführungen : http://www.microsoft.com/xna/
mapel110
2004-03-25, 05:15:28
Hm, ganz nett, aber wenn man sich die heutigen Games anschaut, dann fehlt da irgendwie doch der gewisse aha-effekt.
D.h. heutige Games sehen imo nur unwesentlich schlechter aus.
Na mal schaun, was da noch kommt.
MadManniMan
2004-03-25, 05:43:41
Original geschrieben von mapel110
D.h. heutige Games sehen imo nur unwesentlich schlechter aus.
:|
Ömm, find ich den Schalter für hohe Details bei aktuellen Spielen nich, oder hab ich wirklich noch nirgends derlei Ingame-Quali gesehen, wie die 3 Videos sie bieten?
betasilie
2004-03-25, 06:38:57
Original geschrieben von Sphinx
Und hier geht es zu den DemoVideo Vorführungen : http://www.microsoft.com/xna/
Sehr schöne Demos, künstlerisch, wie auch technisch.
Ich hoffe die Demos sind zum Release des R420 erhältlich für uns Endkunden.
Original geschrieben von Winter[Raven]
@ VooDoo7mx
Jep, die Nvidia Demos finden auch die meisten irgend wie schöner, spritziger und innovativreicher.
japp stimmt spiegelt gut das firmenprofil wieder, Ati ist sowieso so interessant wie nen alter socken ;)
nee nee mal im ernst...kommt ja nun wirklich nicht auf die demos an :D und ich glaube die meisten erwarten auch von den Chips zuviel...und werden dann wieder enttaeuscht werden
aber meiner meinung nach hat Ati nicht soviel im hinterhalt...deswegen gibts praktisch auch 0 infos... und die spekulationen (ob pipes oder anderes) wechseln fast taeglich...
Demirug
2004-03-25, 08:13:32
Original geschrieben von Sphinx
"I downloaded the DX9.0c SDK beta2 yesterday and found out that VS3.0/PS2.0 pairing is enabled in hardware vertex processing mode "
Ich habe es jetzt noch nicht ausprobiert aber MS scheint da selbst noch Zweifel zu haben ob sie das wollen.
Thomas hat bei b3d einen Link mit MS-PPTs von der GDC gepostet: http://www.beyond3d.com/forum/viewtopic.php?t=11022&start=100
http://www.gamedev.net/columns/events/gdc2004/downloads/dxdevdaypres.zip
In dem Zip gibt es eine HLSL.ppt. Dort findet man auf der Seite 13
VS/PS linkage in vs_3_0
Do NOT mix versions (???)
Auf Seite 30 findet man übrigens die (AFAIK) erste öffentliche bestätigung das PS 3.0 FP32 fordert. IMHO ein guter Schritt mit FP24 müsste man bei zu vielen Shader 3.0 Effekten einfach zu sehr aufpassen.
Im weiteren Verlauf findet man dann noch eine Menge Andeutungen das die Performance beim Branchen sich wohl von Chip zu Chip stark unterscheidet.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.