Archiv verlassen und diese Seite im Standarddesign anzeigen : Kyro3 GF4Ti4200-killer
Spake
2003-01-02, 22:39:37
hätte PowerVr die Kiro3 rechtzeitig released wäre die Karte bestimmt der renste nvidia GeForce 4 Ti 4200- killer gewesen.
Vielleicht hätte sich ja eine ähnliche situation wie damals bei der Kiro 2 vs.
GeForce 2 GTS(GeForce 2 Ultra) bilden können.
die ti4200 hat ja eine 4x2 architektur mit 250/250 GPU und Ram
die kiro 3 hat eine 4x1 mit 250/250 und außerdem mit tiled based deferred rendering
es hätte ja sein können das in Directx7 benchmarks die kiro mehr als nur ebenbürtig ist
MeLLe
2003-01-02, 22:52:48
Hätte - wäre - wenn -> Speku-Forum ;)
Gohan
2003-01-02, 22:53:07
Wäre sie eben nicht gewesen, da die Kyro 3 nur eine T&L Einheit aká DirectX7 gehabt hätte. Und damit hätte sich sich für zukünftige Spiele, die die Gf4Ti4200 durchaus nach darstellen wird können, disqualifiziert.
Warten wir lieber auf die Serie5 :)
Spake
2003-01-02, 23:45:25
ich hab ja auch DX7 geschrieben
die Kyro 2 konnte ja auch die GF2Ultra in wenigen benchmarks schlagen und war NICHT DX7 konform was ja alle damaligen GraKas waren
dennoch hat sie sich nicht disqualifiziert
und es wurde nie als manko gesehen dass sie eben kein T&L beherschte
spiele die T&L zwingend vorraussetzen
(Batllefield 1942) sind ja auch erst heute vorhanden
ich schätzte erst 2004 werden DX8 only spiele erscheinen nicht zuletzt wegen nvidia und der Geforce 4 MX gegen welche sich die Kyro 3 mehr als nur behaupten hätte können
Ailuros
2003-01-02, 23:46:58
Man sollte die Toten in Frieden lassen. ;)
Madox
2003-01-02, 23:50:29
@Ailuros
;D ;D ;D
Spake
2003-01-03, 01:31:37
dennoch ist es interessant zu sehen welche GraKa von PowerVr für diesen Preis verkauft werden sollte
für PowerVr muss dieser Chip also günstig herzustellen sein
diese mögliche Performance macht meine erwartungen für die PowerVr Series 5 aka Kyro4(oder auch 3 da Series 4 ja nie released wurde) noch größer diese wird DX8(9) darstellen können und vielleicht schon mit der R9700Pro mitspielen können
für unter 200 Euro
apollo
2003-01-03, 02:03:05
*grummel*
lernts endlich: es wird keine Karten mit dem Namen Kyro mehr geben.
Die Rechte daran hat STMicro, die nix mehr bauen. Punkt.
Wir sehen vielleicht/eventuell/hoffentlich Karten mit Chips basierend auf PowerVRs Series 5. Aber nix mit Kyro.
Ailuros
2003-01-03, 06:58:15
Originally posted by apollo
*grummel*
lernts endlich: es wird keine Karten mit dem Namen Kyro mehr geben.
Die Rechte daran hat STMicro, die nix mehr bauen. Punkt.
Wir sehen vielleicht/eventuell/hoffentlich Karten mit Chips basierend auf PowerVRs Series 5. Aber nix mit Kyro.
Zustimm :)
ActionNews
2003-01-03, 10:01:14
Originally posted by Spake
ich hab ja auch DX7 geschrieben
die Kyro 2 konnte ja auch die GF2Ultra in wenigen benchmarks schlagen und war NICHT DX7 konform was ja alle damaligen GraKas waren
dennoch hat sie sich nicht disqualifiziert
und es wurde nie als manko gesehen dass sie eben kein T&L beherschte
spiele die T&L zwingend vorraussetzen
(Batllefield 1942) sind ja auch erst heute vorhanden
ich schätzte erst 2004 werden DX8 only spiele erscheinen nicht zuletzt wegen nvidia und der Geforce 4 MX gegen welche sich die Kyro 3 mehr als nur behaupten hätte können
Hmm...also eigentlich ist der KyroII schon DX7-Konform, denn HW-T&L ist nur ein Zusatzfeature von DX7 aber nicht notwendig für das Label DX7-Grafikkarte :)!
Außerdem finde ich es schade, von vielen Firmen jetzt nur noch auf HW-T&L setzen :(! Viele Spiele die HW-T&L vorraussetzen lassen sich nur mit 3D Analyze zum laufen bringen, aber wenn sie dann laufen, dann bringt auch eine KyroII ausreichende Leistungen z.B. in SpiderMan oder NOLF2! BTW: Auch BF1942 läuft mit den neuesten Treibern auf einer KyroII und auch UT2003 (Sollte DAS HW-T&L Killerspiel werden) kann ich mit meiner KyroII zocken.
Was die Kyro3 angeht, nun ja es hätte nicht geschadet wenn sie noch erschienen wäre (Schade, dass STMicro ein fertiges Produkt einfach einstampft :()! Auch wenn sie nur DX7-Konform gewesen wäre, wäre sie IMO durchaus vom Speed her zwischen einer Radeon8500 und Ti4400 (250MHz+TBDR) gelegen und da DX8 Features auch jetzt noch und auch eine Zeitlang in 2003 nicht so die bedeutende Rolle spielen werden, hätte die Serie 4 durchaus ihre Chancen gehabt (Ich denke da an das FSAA der Serie 4)!
Zur Serie 5 kann ich nur sagen Abwarten! PowerVR hat noch keinen Lizenznehmer und um einen solchen zu gewinnen muss die Serie 5 schon einiges leisten können, um in solch schwierigen Zeiten für die Halbleiterbranche Beachtung zu finden. Aber selbst wenn sie keinen finden, können sie immernoch direkt bei TSMC oder UMC fertigen lassen, wenn es nötig ist. Und ich kann mir vorstellen, dass die PowerVR Jungs sich da durchaus die ein oder andere Überraschung haben einfallen lassen. Denn bei denen bleibt die Zeit/Entwicklung auch nicht stehen! Ich jedenfalls freue mich auf die Serie 5. Wie heißt es so schön im 2003 Prognose Artikel von within3d.net:
Den einzigen wirklichen „Joker“ sehen wir für 2003 in ImgTec/PowerVR: Sollte das Unternehmen wie angekündigt die PowerVR Series 5 pünktlich fertigstellen und auch auf den Markt bringen, könnte sich hier ein ähnliches Szenario wie schon beim Kyro II abspielen, was für zusätzliche Spannung sorgen sollte. ( http://www.within3d.net/index.php?show=articles&type=showarticle&id=40&page=1 )
CU ActionNews
nagus
2003-01-03, 10:22:27
WOW, Kyro III = DX7 karte >> :kotz::kotz::kotz:
geschwindigkeit wäre sicher super, aber mit DX7 ist heute wirklich kein blumentopf mehr zu gewinnen. wäre sicher der absolute flopp geworden ohne DX8 unterstützung
MeLLe
2003-01-03, 10:45:20
Originally posted by nagus
WOW, Kyro III = DX7 karte >> :kotz::kotz::kotz:
geschwindigkeit wäre sicher super, aber mit DX7 ist heute wirklich kein blumentopf mehr zu gewinnen. wäre sicher der absolute flopp geworden ohne DX8 unterstützung
Weil heute ja jeder ne DX8-Karte braucht, hat, kauft. Richtig?
Schau mal, wieviele Leute mit Gf2, Gf4MX, R7500, Kyro1/2 oder Voodoo3/4/5 unterwegs sind. Die können auch gut zocken.
Exxtreme
2003-01-03, 10:49:10
Originally posted by MeLLe
Weil heute ja jeder ne DX8-Karte braucht, hat, kauft. Richtig?
Schau mal, wieviele Leute mit Gf2, Gf4MX, R7500, Kyro1/2 oder Voodoo3/4/5 unterwegs sind. Die können auch gut zocken.
Ich glaube, nagus ging es um eine Neuanschaffung. Würdest du dir heutzutage eine Gf2, Gf4MX, R7500, Kyro1/2 oder Voodoo3/4/5 holen?
MeLLe
2003-01-03, 11:02:42
Originally posted by Exxtreme
Ich glaube, nagus ging es um eine Neuanschaffung. Würdest du dir heutzutage eine Gf2, Gf4MX, R7500, Kyro1/2 oder Voodoo3/4/5 holen?
Nunja, wenn das Budget net mehr hergibt - ja. Ansonsten gebe ich Dir aber Recht, klaro. DX7-Karten sind allein von Featureset her den DX8-Boards unterlegen. Damit wirds heutzutage manchmal kritisch, was Support von den Entwicklern angeht. Da verweigert schonmal das eine oder andere Spiel den Dienst, oder lässt sich nur mit Mühe überreden.
Originally posted by Exxtreme
Ich glaube, nagus ging es um eine Neuanschaffung. Würdest du dir heutzutage eine Gf2, Gf4MX, R7500, Kyro1/2 oder Voodoo3/4/5 holen?
'Heutzutage' ist auch nicht der richtige Zeitpunkt. Wäre der Kyro3 erschienen, dann zur Mitte letzten Jahres. Und da konnte man ruhig noch zu o.g Karten greifen (ausser den Voodoos vielleicht wegen des fehlenden Treibersupports).
wowbagger
2003-01-03, 12:58:08
die ersten genannten releasetermine fpr series 4 waren afaik weihnachten 2001. und da hätte die karte auch ohne dx8 noch was reissen können. ich war ja bis vor kurzem auch noch mit ner kyro2 unterwegs und konnte alles gamen! auch mitte 2002 hätt die karte noch was reisen können. heute natürlich netmehr!
ich bin auf series 5 gespannt. könnte je nach releasedatum meine nächste karte werden. die radeon8500 muss zwar noch minimum en jahr halten, aber danach kommt vielleicht series5 oder en refresh von der in mein sys...
ice cool69
2003-01-03, 14:23:14
also ich persönlich hätte garantiert zu einer kyro3 gegriffen, auch noch vor ein paar monaten da dx8 immer noch nicht wirklich vorraussetzung ist damit die aktuellen games geil aussehen.
käme auf die leistung an aber heute würde ich wohl eher zur r9000pro greifen oder gleich zu einer r9500pro. is halt alles ne preisfrage.
ice cool69
2003-01-03, 14:24:41
oh mann auf die series5 freue ich mich schon wie ein schneekönig. wenn die so günstig wird wie die kyro2 (100€ hab ich bezahlt) dann isse mein :D
StefanV
2003-01-03, 14:51:23
Kann man ein MOD den Thread Titel ändern??
Das tut einem ja in den Augen weh...
mapel110
2003-01-03, 15:31:06
Originally posted by ow
'Heutzutage' ist auch nicht der richtige Zeitpunkt. Wäre der Kyro3 erschienen, dann zur Mitte letzten Jahres. Und da konnte man ruhig noch zu o.g Karten greifen (ausser den Voodoos vielleicht wegen des fehlenden Treibersupports).
sehe ich definitiv nicht so. ich bin von kyro2 auf radeon 8500 gewechselt und einer der wichtigesten pluspunkte der radeon war dx8 kompliant.
die performance der kyro2 war zu dem zeitpunkt noch halbwegs okay. aber es häuften sich die spiele, wo ich die effekte nicht mehr geniessen geschweige denn, sehen konnte.
ohne dx8 wäre der kyro3 definitiv ein flopp geworden,
auch wenn mehr als die doppelte power von dem chip zu erwarten gewesen wäre im vergleich zur kyro2.
allerdings habe ich die vermutung, dass 4xAA auf dem chip sehr gut nutzbar gewesen wäre. :)
Unregistered
2003-01-03, 16:45:13
ich weiß gar nicht was ihr wollt seit wann ist dx8 ein must-have
UT2003 mit einer superben Grafik ist auch nur dx7
nvidia verkauft dx7(GeforceMx)Karten im mainstream und low-end und dass auch erfolgreich
es gibt eben kein spiel welches dx8 zwingend voraussetzt
wie oben zu lesen ist kann man NOLF2 und sonstige dx7"only" spiele on T&L spielen
dass ist ja genau so wie sich eine R9700 nur wegen dx9 zu kaufen
Ailuros
2003-01-03, 17:07:01
Originally posted by mapel110
sehe ich definitiv nicht so. ich bin von kyro2 auf radeon 8500 gewechselt und einer der wichtigesten pluspunkte der radeon war dx8 kompliant.
die performance der kyro2 war zu dem zeitpunkt noch halbwegs okay. aber es häuften sich die spiele, wo ich die effekte nicht mehr geniessen geschweige denn, sehen konnte.
ohne dx8 wäre der kyro3 definitiv ein flopp geworden,
auch wenn mehr als die doppelte power von dem chip zu erwarten gewesen wäre im vergleich zur kyro2.
allerdings habe ich die vermutung, dass 4xAA auf dem chip sehr gut nutzbar gewesen wäre. :)
Tja anscheinend wird den Toten kein Segen geleistet hehehe....
Was bei Deiner vorigen K2 fehlte war:
Fuellrate und Bandbreite
On board T&L
Cube map support
Erstens einmal gibt es tatsaechlich noch keine nennenswerte Spiele die wahre programmierte PS/VS einsetzen, sondern werden nur die PS/VS Einheiten eingesetzt im besten Fall (siehe z.B. UT2003 das auch ein wahres T&L optimiertes Spiel ist).
Zweitens wenn NV immer noch (selbst heute) NV17 und NV18 tonnenweise verkauft, (wobei durch das fehlende EMBM dx7 Komplianz sowieso fragwuerdig sein koennte), dann muss dass bei einem Konkurrenten nicht unbedingt auch ein Problem sein.
Drittens ist es nicht bekannt wie effizient der Geometrie Prozessor auf den K3's war, was wohl auch eine wichtige Rolle gespielt haette.
Zugegeben fehlt bei dx7 Karten die Flexibilitaet von dx8 Karten; aber ich bezweifle dass wenn es erstmal Zeit wird dass wahre dx8 Spiele auf den Markt kommen dass auch die ersten dx8 Karten dabei wegen allzu schwachen Spezifikationen nicht mehr so toll abschneiden werden.
Was AA betrifft, da war es eher in Richtung Multisampling. Bei NV25 und R300 ist MSAA Fuellraten frei; bei einem TBDR Fuellraten und Bandbreiten frei. Das heisst dann wohl dass die Wiedergabe in seiner Klasse in hohen Aufloesungen schwer zu erreichen war.
Uebrigens hat Deine 8500 ueber zweimal die rohen Spezifikationen einer mageren KYRO2. Daran liegt der Unterschied heute mehr als bei der Komplianz.
So und wer will jetzt Bitboys diskuttieren :D
Originally posted by mapel110
sehe ich definitiv nicht so. ich bin von kyro2 auf radeon 8500 gewechselt und einer der wichtigesten pluspunkte der radeon war dx8 kompliant.
die performance der kyro2 war zu dem zeitpunkt noch halbwegs okay. aber es häuften sich die spiele, wo ich die effekte nicht mehr geniessen geschweige denn, sehen konnte.
ohne dx8 wäre der kyro3 definitiv ein flopp geworden,
auch wenn mehr als die doppelte power von dem chip zu erwarten gewesen wäre im vergleich zur kyro2.
allerdings habe ich die vermutung, dass 4xAA auf dem chip sehr gut nutzbar gewesen wäre. :)
Da mus sich wohl wieder was verpasst haben, denn es gibt AFAIK so gut wie KEINE Games, die wirklich DX8 Funktionen zur optischen Aufpolierung nutzen.
loewe
2003-01-03, 19:39:51
Originally posted by Ailuros
Man sollte die Toten in Frieden lassen. ;)
1. Dank an den Mod, der den Titel geändert hat!!!
2. Ich stimme Ailuros 100%ig zu, die K3 ist nie erschienen, wird nie erscheinen und soweit ich ImgTec kenne, werden sie nie die exakten Spezifikationen frei geben. Ich habe bei allen Leuten und Stellen angefragt, kein Kommentar.
Also Schwamm drüber, K3 ist Schnee von Gestern.
Es lebe Serie5.
=)
Spake
2003-01-04, 00:24:51
na denn wenn niemand im spekulationsforum hirüber spekulieren will solls halt so sein
Originally posted by ow
Da mus sich wohl wieder was verpasst haben, denn es gibt AFAIK so gut wie KEINE Games, die wirklich DX8 Funktionen zur optischen Aufpolierung nutzen. Morrowind, afaik auch Comanche4.
ActionNews
2003-01-04, 09:21:00
Originally posted by aths
Morrowind, afaik auch Comanche4.
Vielleicht etwas Offtopic, aber ich finde das DX8-Wasser aus Morrowind passt irgendwie nicht! Naja so für sich gesehen als Effekt ist es toll, aber es passt IMHO einfach nicht zum Rest der Landschaftsgrafik! Da merkt man richtig, dass es nachträglich eingeflickt wurde! Naja...das Wasser aus UT2003 finde ich da eine ganze Ecke besser :)!
CU ActionNews
Originally posted by aths
Morrowind, afaik auch Comanche4.
Welch gewaltige Anzahl.;)
Und zumindest bei Comanche4 (Demo) konnte ich bislang aber kein optischen Unterschiede zwischen mit/ohne PS entdecken.
BlackBirdSR
2003-01-04, 13:32:01
Originally posted by ow
Welch gewaltige Anzahl.;)
Und zumindest bei Comanche4 (Demo) konnte ich bislang aber kein optischen Unterschiede zwischen mit/ohne PS entdecken.
sieht man in der Demo nur an den Spiegelungen an den Reifenfelgen beim Heep, und an den Spiegelungen des Tanklastern gegen dende des Demos
Bei der Vollversion werfen die Scheinwerfes der Comanche beim Landen noch ein schönes Licht auf den Boden (bump mapping)
Ansonsten hab ich auch nix auf der Platte was Pixelshading für schönere Effekte nutzen würde.
Aquamark wird nur schneller, und bei Hegemonia tut sich glaube ich auch nichts..
toll perspektiven ;)
Exxtreme
2003-01-04, 13:36:25
Originally posted by ActionNews
Vielleicht etwas Offtopic, aber ich finde das DX8-Wasser aus Morrowind passt irgendwie nicht! Naja so für sich gesehen als Effekt ist es toll, aber es passt IMHO einfach nicht zum Rest der Landschaftsgrafik! Da merkt man richtig, dass es nachträglich eingeflickt wurde!
CU ActionNews
Hehe, sehe ich auch so. Erstens sind die Spiegelungen nicht echt und es erscheinen oft nicht vorhandene Merkmale als Spiegelung. Und zweitens erinnert mich das "Wasser" eher an Quecksilber.
StefanV
2003-01-04, 15:08:38
Originally posted by aths
Morrowind, afaik auch Comanche4.
NWN, Aquanod hast du auch vergessen ;)
DIe Anzahl ist aber alles andere als Gewaltig und es wird auch meistens (MW, NWN) nur für Wasser benutzt...
Ailuros
2003-01-04, 17:28:24
Na ich rate Euch mal ein bisschen mit dem config file von Comanche4 rumzuspielen mit einer <dx8 komplianten Karte. ;)
DroneZ muesste auch noch dazukommen; aber jetzt mal ernsthaft: wer spielt diese doofen Spiele eigentlich ueberhaupt?
DroneZ (das ganze Spiel) blieb bei mir 15min im PC.....
DIe Anzahl ist aber alles andere als Gewaltig und es wird auch meistens (MW, NWN) nur für Wasser benutzt...
Nichts das bisher was jenige Reflektionen betrifft, nicht mit EMBM z.B. realisiert werden kann.
Spake
2003-01-04, 17:55:41
es ist irgendwie schon scheiße wenn man von allen dx8 features eigentlich nur die Shader für schöne wassereffekte ausnützt
dx7-kareten können dass wie bei UT2003 auch hierbei sind zwar keine korrekten Wasserspiegelungen vorhanden aber wenn dx8 nur auf diese weise genutzt wird hätte man es auch lassen können
vielleicht liegts ja auch an der umständlichen prog per assembler aber ich hoffe dank dx9 , opengl und deren progsprachen wird sich das blatt endlich zu gunsten von dx8 wenden
BlackBirdSR
2003-01-04, 18:01:16
wie haben wir damals alle frohlockt , T&L wurde nie richtig genutzt.. macht nix mit Shadern wird Alles besser.
naja, und jetzt?
Shader sind für Pfützen da, und T&L ist jetzt erst eines der wichtigsten Features geworden.
Ich seh euch in 2 Jahren wieder, wenn PixelShader 2.0 verwendet werden um Moos auf Bäumen zu rendern, irgendwie ist das Alles für was sie genutzt werden..
naja mit DX10 und den neuen Rendering Arrays wird Alles besser :D
Spake
2003-01-04, 18:12:48
durch die neuen hochsprachen ab dx9 könnte es aber sein dass die neuen features eine schnellere einführung erhalten
die entwickler wirds freuen da sie nicht mehr in assembler schreiben müssen
apollo
2003-01-04, 19:10:34
die Hochsprachen ändern aber nix an der Marktdurchdringung von Karten mit entsprechenden Features. Und da sind wir dann wieder beim Thema, dass keiner was entwickelt, was nur 5 oder 10 % der Endnutzer bestaunen können, weil der Rest keine passende Hardware hat.
Spake
2003-01-04, 19:15:42
denncoh kann Ati im mainstream und low-kost segment eine dx8 karte präsentieren welche bei guter programmierung auch nicht sonderlich langsam wäre
nebenbei:
jeder der in diesem segment kauft spielt doch sowieso nicht mit high details oder?!
und für 150 Euro gibts wenn das nett reicht eine Ti4200
Thowe
2003-01-04, 22:19:29
Die Kyro III wäre in der vermutenden Form durchaus ein guter Konkurent zur GF3 gewesen, zur TI4200 wohl nicht mehr und auch ansonsten hätte sie schneller erscheinen sollen als der zuletzt "anvisierte Termin". Aber all das ist letztendlich egal, sie ist Asche von gestern und welch Phoenix wohl aus ihr erwachen mag.
Spake
2003-01-04, 22:52:38
mit welchem geld PowerVR Series 5 finanziert frag ich mich
haben die einen sponsor, ein dickes sparbuch oder genug geld mit der Series 3 gemacht dass sie die Series 4 aka Kyro3 gar nicht gebraucht hätten
Thowe
2003-01-04, 22:53:41
MBX sonst nix
Spake
2003-01-04, 23:02:40
und vorher vielleicht mit krediten
mein gott wie soll dass nur weitergehen
die brauchen wirklich einen partner welcher fürs marketing sorgt und welcher ihre produkte pünktlich vorstellt
also nicht nvidia ;-D
Originally posted by Spake
nebenbei:
jeder der in diesem segment kauft spielt doch sowieso nicht mit high details oder?!
und für 150 Euro gibts wenn das nett reicht eine Ti4200 Nebenbei: "nett" heißt freudlich, höflich.
ActionNews
2003-01-05, 09:21:12
Originally posted by Spake
mit welchem geld PowerVR Series 5 finanziert frag ich mich
haben die einen sponsor, ein dickes sparbuch oder genug geld mit der Series 3 gemacht dass sie die Series 4 aka Kyro3 gar nicht gebraucht hätten
Tja, PowerVR stellt ja nicht nur Grafik-Chips für den PC her! Die Haben Verträge auch für Konsolen (seit Dreamcast leider nicht mehr, aber das kann sich wieder ändern) und Arcarde Geräte (Die Dinger die du in Spielhallen siehst; Früher war da SEGA der Partner, jetzt IGT der größte Arcarde Hersteller am Markt) und nicht zu vergessen der PowerVR MBX für Handhelds, Settop Boxen usw., der von Intel, STMicro (Obwohl sie aus dem PC-Geschäft ausgestiegen sind), ARM, Hitachi und einigen anderen Firmen lizensiert wurde und ordentlich Geld in die Kassen spült (bzw. noch wird wenn entsprechende Geräte dieses Jahr auf den Markt kommen)!
Deshalb wird PowerVR auch nicht einfach Pleite gehen wie 3Dfx :)!
CU ActionNews
ActionNews
2003-01-05, 09:24:46
Originally posted by Spake
und vorher vielleicht mit krediten
mein gott wie soll dass nur weitergehen
die brauchen wirklich einen partner welcher fürs marketing sorgt und welcher ihre produkte pünktlich vorstellt
also nicht nvidia ;-D
Das Problem ist, dass der Lizenznehmer sich um die Vermarktung (und damit Marketing) kümmert! STMicro war in dieser Hinsicht nie sonderlich aktiv und wenig Interesse an diesem Markt! Für die war die PC-Grafiksparte immer nur was halt so nebenbei her läuft!
CU ActionNews
Ailuros
2003-01-05, 09:46:21
Die finanzielle Lage bei ImgTec war nicht gerade rosig was das vorige Jahr betrifft. Natuerlich hilft es dass Ensigma/Metagence/PowerVR IP staendig lizensiert wird, aber das heisst auch wieder nicht dass sie die Krise nicht auch mitfuehlen wie die meisten Firmen.
3dfx war fast ausschliesslich auf retail fixiert und war auch keine Firma die IP verkauft. Die haben auch damals den Sega/Dreamcast Vertrag an PVR verloren, weil keiner an 16bit/256x256 Texturen interessiert war, ueberhaupt wenn eine Konsole mehr Lebenszeit haben muss als eine PC Karte.
MBX wird gerade erst vollkommen fertiggestellt, denn fuer hoehere Taktraten und noch kleinerem Stromverbrauch war .13um eine absolute Notwendigkeit. MBX wurde erst lizensiert von grossen Firmen als es letztes Jahr praesentiert wurde. Bei der heutigen Krise, lizensieren gross Firmen nicht mehr mit Powerpoint-Praesentationen.
Gigapixel verlor den Xbox Deal mit Microsoft, nur weil sie keine fertigen Prototypen hatten zur Zeit der Verhandlungen, wobei aber NVIDIA hingegen etwas zu zeigen hatte.
Obwohl ich mir dabei nicht 100% sicher bin, denke ich dass MBX eine mehr oder weniger Hauseigene Entwicklung von ImgTec war/ist.
ActionNews
2003-01-05, 11:21:18
Na sicher wird PowerVR/ImgTec den Ausfall der Serie 4 spüren, keine Frage! Aber ich denke es ist nicht der Weltuntergang für PowerVR/ImgTec.
Ensigma/Metagence (gehören wie PowerVR zu ImgTec) habe ich vorhin ganz vergessen! Die stellen ja auch noch DSP Prozesoren und ähnliches für Multimedia/Kommunikation her :)!
CU ActionNews
Thowe
2003-01-05, 11:53:18
Ich für meinen Teil sehe es eher auch so, das ImgTec durchaus eine Durststrecke hat, aber dennoch treu den Sprichwort: "Wenn dir das Wasser bis zum Hals steht, dann lass ja nicht den Kopf hängen" handelt. Aber das trifft z.Z. auf viele Firmen zu, wie z.B. auch auf AMD. Sicherlich kann man bei großen Firmen einen Teil des Personals entlassen, aber je kleiner die Firma wird, desto schwieriger wird dies. Wenn man aber dann schon das Personal hat, dann wäre es auch unsinnig diese nicht entwickeln zu lassen, nicht zuletzt damit sie es nicht verlernen. Also werden sie schwimmen bis sie endlich Land erreichen oder, was wir nicht hoffen wollen, eben untergehen. ImgTec hat mit MBX zumindestens ein Zugpferd das "die Investoren" beruhigen mag, da dieser auf einen Markt plaziert ist, der ganz sicher in Zukunft interessant wird.
Mich würde auch mal interessieren, ob das Nokia nGage vielleicht einen MBX sein eigen nennt ... Glaube aber nicht (leider).
ActionNews
2003-01-05, 19:08:47
Apropos MBX und Chips für mobile Geräte.... Wie sieht es da eigentlich bei ATi und Nvidia aus? Soweit ich weiß hat auch ATi Chips für Mobile Geräte/Handhelds im Angebot, aber die können kein 3D soweit ich weiß und von Nvidia ist mir in diesem Bereich gar nix bekannt. Gibt es da Pläne von ATi oder Nvidia auch 3D Chips anzubieten? Ansonsten müsste PowerVR den Markt mit dem MBX für sich alleine haben, oder bietet irgendeine andere Firma 3D Chips in diesem Marktsegment an, von denen ich nur nix mitbekommen habe?
CU ActionNews
Demirug
2003-01-05, 19:18:40
Im mobilen Bereich sind nur IP-Lösungen gefragt weil man dort nicht den Platz hat um dort ein ganze rudel einzelner Chips zu verbauen. Deswegen kauft man sich da lieber die einzelnen sachen als IP ein und macht einen Chip daraus.
NVIDIA hat wohl keine Ambitionen in diese Richtung aber so sicher kann man sich da nie sein.
ATI hat was in dem Bereich aber den genauen leistungsumfang kenne ich jetzt nicht.
Bitboys versuchen sich im Moment auch auf dem gebiet von 3d Chips für Handys und co.
EDIT: ATI hat zwei Lösungen
IMAGEON 100: 2D + MPEG 640*480*16
IMAGEON™ 3200: 2D + MPEG Auflösung ???
In beiden fällen scheint es sich um Chip zu handeln
Spake
2003-01-05, 19:22:59
vielleicht rede ich jetzt völligen schwachsinn aber ist es nicht auch möglich für die kleinen mobilen CPUs auch spiele oder ähnliches zu berechnen
ich meine jeder hat doch bestimmt schon mal von Tomb raider auf PDAs gehört
und z.B VS können auch von einer CPU emuliert werden
Demirug
2003-01-05, 19:26:34
Natürlich kann man auf Handheld auch software renderer benutzen. Für den GBA gibt es zum Beispiel einen Softwarerenderer der gar nicht mal so schlechte Ergebnisse bringt. Echte 3D Hardware hat aber nun mal den Vorteil das man mehr und/oder bessere Pixel bekomme kann.
Thowe
2003-01-05, 19:39:25
Also mit dem MBX wäre Tomb Raider sicher kein Problem mehr und er kann "optional" einen VertexShader in Hardware haben.
Spake
2003-01-05, 20:04:13
ich hoffe dass man ziemlich bald MBX finden wird
ich denke da intel auch MBX lizensiert hat
wird man bestimmt nett die technologie einfach so versauern lassen sondern möglichst schnell ein produkt daraus machen
die finanz. mittel wären ja verfügbar
hat irgendjemand eine idee in welchen produkten von intel so ein Chip vorhanden sein könnte
ActionNews
2003-01-05, 20:48:55
Originally posted by Demirug
(...)
Bitboys versuchen sich im Moment auch auf dem gebiet von 3d Chips für Handys und co.
(...)
Siehste ! Die Bitboys hab ich glatt vergessen!
Stimmt ja! Da habe ich erst was gelesen, dass die ihre Desktopchips erst mal auf Eis legen wollen und sich einen Auftrag für einen 3D-Chip für Handys an Land gezogen haben :)!
CU ActionNews
Spake
2003-01-05, 20:52:02
wär schön wenn sie uns bei einem erfolgreichem chip mit einem gut Desktop-produkt beglücken
ActionNews
2003-01-05, 20:52:42
Originally posted by Spake
vielleicht rede ich jetzt völligen schwachsinn aber ist es nicht auch möglich für die kleinen mobilen CPUs auch spiele oder ähnliches zu berechnen
ich meine jeder hat doch bestimmt schon mal von Tomb raider auf PDAs gehört
und z.B VS können auch von einer CPU emuliert werden
Auf der CeBIT 2002 hat PowerVR sogar einen mit nur auf 14MHz getakteten MBX-Prototypen gezeigt auf dem Tomb Raider flüssig gelaufen sein soll :)! Wenn man bedenkt, dass der MBX bis zu 10 mal so schnell getaktet werden soll (140MHz), dann wäre eine Art GameboyAdvance mit MBX sicher verdammt interessant :)!
CU ActionNews
Spake
2003-01-05, 21:02:49
ja wenn der n-gage einen MBX hätte könnte Nintendo einpacken
Sicher nicht. Nintendo ist in diesem Markt unangefochten an der Spitze, schon viele haben es mit besserer Hardware versucht, sie anzugreifen - ohne Erfolg.
Spake
2003-01-05, 21:28:40
sie waren auch mal im konsolen-geschäft an der spitze
es fehlt nokia nur an den richtigen spielen
final-fantasy lol
hatt damals auch nintendo zu fall gebracht
außerdem glaub ich sowieso nicht dass der n-gage den MBX hat
Definiert mal bessere Hardware.. klar waren Gamegear usw technisch besser, aber zu welchem Preis? Ich zumindest hab kein Bock alle 2std ne ganze Ladung Batterien zu wechseln.. Außerdem war das Display verschwommen und die Knöpfe scheisse ;)
Und vergleich mal die spiele.. fürn Gameboy gibts tausende geiler Games..
Wenn man den Gameboy /pocket, color, advanced) mitrechnet ist Nintendo immernoch meilenweit Marktführer...
Und das wird sich so schnell auch net ändern.
Cleric
2003-01-06, 00:51:55
...wenn man sich das alles vor Augen hält.
Ati hat relativ normales design normale kühlung.
für die top NV karten muss der hersteller einiges an aufwand treiben... und auch der nutzer.
die kühlung und der chip kosten unmengen an strom.. reichen da normale 300W netzteile aus?
sollte ati langsamer sein setzen sie die preise einfach runter. nv kann dies wegen der doch relativ aufwendigen produktion nicht so einfach machen, da auch der speicher nicht sehr günstig sein wird.
ati kann sich in ruhe auf einen die shrink konzentrieren und vielleicht eine radeon 9800 und 9900 mit 350/400 oder 400/450mhz takt herausbringen. alles noch ohne die selben kühlungsprobleme zu haben und vielleicht noch ein wenig an der architektur zu schrauben.
ati hatte bisher jedenfalls genug zeit alles für eine heisse überraschung vorzubereiten....
Richthofen
2003-01-06, 01:06:26
in Anbetracht der Tatsache, das auch Radeon9500pro Karten mit 128 MB allem Anschein nach 9700er sind, kann auch ATI nicht Preise senken wie sie wollen.
Können schon aber dann wird Nvidia mit senken.
Da ist also eher die Frage ob ATI bereit ist Verluste in Kauf zu nehmen.
Cleric
2003-01-06, 02:47:03
das ist eigentlich nur besser für ati da sie nur einen chip produzieren müssen.
den preis senken im gegensatz zu nv:
0,15 ausbeute ist unter garantie viel grösser als 0,13
weniger aufwendiges card design, geringere anforderungen (strombedarf..)
apollo
2003-01-06, 10:34:44
das ist eher schlechter für ATi, weil die 9500er auch das teurer zu produzierende 9700er PCB-Layout haben, aber bei weiten nicht so teuer verkauft werden kann ---> kleinere Gewinnspanne
Originally posted by Cleric
weniger aufwendiges card design
???
256 Datenleitungen zu verlegen sind also weniger aufwändig als 128 davon routen zu müssen?
seahawk
2003-01-06, 10:53:00
Originally posted by ow
???
256 Datenleitungen zu verlegen sind also weniger aufwändig als 128 davon routen zu müssen?
Klar ist ja ne ATI Karte ;-)
Spake
2003-01-06, 18:20:55
also ich bin eher verwundert wieso Ati für die R9500 kein neues design angelegt hat
hätten sich ca. 30-50 Mil. Transistoren sparen können
ich glaub die karte soll einfach nur ziemlich kurz auf dem markt sein und die Lücke bis zur RV350 füllen
außerdem können sie so die versuten Karten noch verkaufen
das gleiche macht intel ja auch bein celeron
Originally posted by Spake
also ich bin eher verwundert wieso Ati für die R9500 kein neues design angelegt hat
hätten sich ca. 30-50 Mil. Transistoren sparen können
ich glaub die karte soll einfach nur ziemlich kurz auf dem markt sein und die Lücke bis zur RV350 füllen
außerdem können sie so die versuten Karten noch verkaufen
das gleiche macht intel ja auch bein celeron
ATi will wohl nicht allzu viele von den 9500ern verkaufen, weil sie damit das schlechteste Geschäft unter allen R300ern machen. Also hat auch kein neues PCB gelohnt.
Der 9500Pro ist für die Masse gemacht, da lohnt ein neues und billigeres PCB.
Rampage 2
2003-01-06, 19:30:27
Originally posted by nagus
WOW, Kyro III = DX7 karte >> :kotz::kotz::kotz:
geschwindigkeit wäre sicher super, aber mit DX7 ist heute wirklich kein blumentopf mehr zu gewinnen. wäre sicher der absolute flopp geworden ohne DX8 unterstützung
Dann nenn' mir mal die Zahl der Games die DX8-Effekte haben! -
Vielleicht zehn oder zwanzig - und deswegen soll sich DX8 lohnen??
Originally posted by Rampage 2
Dann nenn' mir mal die Zahl der Games die DX8-Effekte haben! -
Vielleicht zehn oder zwanzig - und deswegen soll sich DX8 lohnen??
Und meistens sind diese DX8-Effekte auch noch 'Wasser', das sich nicht sonderlich gut in den Rest des Bildes einfügt.:D
mapel110
2003-01-06, 22:07:47
Originally posted by ow
Welch gewaltige Anzahl.;)
Und zumindest bei Comanche4 (Demo) konnte ich bislang aber kein optischen Unterschiede zwischen mit/ohne PS entdecken.
im gegensatz zu dem ganzen anderen "zeugs" das veröffentlicht wurde, mal grafisch was neues. und sowas zocke ich eher, als so ein quake3-engine "xxxxxxxxx 532432-teil" remake.
das wasser in morrowind sah einfach nur super aus. so einen effekt möchte ich in games sehen. einfach :O sowas gabs vorher nicht.
das ist für mich mehr "nutzen" einer graka, als die rohe power, die man in AA und AF stecken kann.
Richthofen
2003-01-06, 22:12:09
"
also ich bin eher verwundert wieso Ati für die R9500 kein neues design angelegt hat
hätten sich ca. 30-50 Mil. Transistoren sparen können
ich glaub die karte soll einfach nur ziemlich kurz auf dem markt sein und die Lücke bis zur RV350 füllen
außerdem können sie so die versuten Karten noch verkaufen
das gleiche macht intel ja auch bein celeron
"
Die Antwort ist ganz simple und einfach. ATI hatte nicht die Ressourcen dafür.
Die können auch nicht hexen. Auch Nvidia bringt nicht mit jedem Chip gezwungener Maßen gleich auch noch neue Mainstreamdesigns.
ATI braucht den RV350 und für den hat man auch Ressourcen gebraucht.
Da war neben den R300 kein Platz für ein eigenes R300 Low Cost Design.
ATI wird glaub ich lieber nicht zu viele 9500pros verkaufen. Da bleibt nüscht mehr übrig und die zahlen wahrscheinlich eher drauf.
Ailuros
2003-01-07, 06:45:10
Demirug,
Schon das neue pdf ueber MBX hier gelesen?
http://www.arm.com/armtech.nsf/html/MBX3D?OpenDocument
(das 1MB grosse). So ausfuehrlich war bis jetzt noch kein oeffentliches Dokument, ueber die Architektur.
Cleric
2003-01-07, 20:25:45
ganz einfach es ist VIEL teurer ein neues Design zu entwerfen und zu testen als eines für alles.
auch zeitlich gesehen....
und es ist einfacher 256 datenleitungen zu verlegen die mit 300mhz laufen müssen als 128 mit 500mhz..... die signalsync is viel aufwendiger und das board muss um längen störungsunanfälliger sein.... vielleicht braucht ati das einfach nicht :)
ausserdem sind die datenleitungen alle nebeneinander und es ist insofern egal ob man nun nen board mit 128 und 256 leitungen erstellt ausser das irgendwann anschlüsse am chipgehäuse fehlen... ;)
Demirug
2003-01-07, 20:49:53
Originally posted by Cleric
ganz einfach es ist VIEL teurer ein neues Design zu entwerfen und zu testen als eines für alles.
auch zeitlich gesehen....
Warum entwirft dann NVIDIA immer einen Highend und einen Lowend chip wenn ein Desgin viel günstiger ist?
Die Kosten für ein Produkt berechnen sich immer noch aus Produktionskosten pro Stück + (Fixkosten/Anzahl)
mit steigener Anzahl wird der Fixkostenanteil an einem Produkt immer günstiger. Es macht also nur dann Sinn auf ein Produkt mit günstigeren Produktionskosten zu verzichten wenn man gar nicht vor hat davon viel zu verkaufen.
und es ist einfacher 256 datenleitungen zu verlegen die mit 300mhz laufen müssen als 128 mit 500mhz..... die signalsync is viel aufwendiger und das board muss um längen störungsunanfälliger sein.... vielleicht braucht ati das einfach nicht :)
In beiden Fällen müssen die Leitungen gegeneinader und gegen anderer Leitungen geschirmt sein. Ich habe jetzt die Formel nicht im Kopf ab welcher Leitungslänge bei welcher Frequenz eine Antenne entsteht aber ein guter PCB-Router hat diese Dinge hinterlegt und deshalb dürfte diese Problem sekundär sein solange die RAM-Chips nicht zu weit von der GPU weg sind.
ausserdem sind die datenleitungen alle nebeneinander und es ist insofern egal ob man nun nen board mit 128 und 256 leitungen erstellt ausser das irgendwann anschlüsse am chipgehäuse fehlen... ;)
Toll, das erzähle ich mal unserem Elektroniker das er sich in Zukunft keine gedanken mehr über die Signalleitungen mehr zu machen braucht. Der feilscht wenn er eine feste PCB grösse vorgegeben bekommt um jede Leitung die er nicht braucht, weil er damit Layer einsparen kann was das PCB in der Produktion einfacher macht. Und die Pins am gehäuse kosten auch Geld um genau zu sein machen sie sogar den grössten Teil der Packing kosten aus.
Cleric
2003-01-07, 21:10:30
ich meinte auch zeitkosten..
und was kostet es einen chip zu testen...? frag mal intel ;)
zu den leitungen: ich denke mal das ganze wird eh berechnet von irgendeinem cad prog... genau wie die chips auch (nicht die piplines sondern deren platzierung...)
nvidia baut unterschiedliche chips???? erm wo wie was? hab ich was verpasst?
GF4 4200 4400 4600... Radeon 9500 /pro 9700/pro.... hmmmmmmmm
MX ... erm ja das is ein alter bekannter... also das kann man auch nicht als neuentwicklung bezeichnen.
Demirug
2003-01-07, 21:29:05
Cleric, natürlich wird das PCB Layout von einem entsprechenden Programm berechnet. Aber auch dort muss man teilweise noch ein bischen von Hand nachhelfen. Natürlich braucht man für 2 Produkte bzw Teilkomponeten dafür auch mehr Zeit. Aber was ATI jetzt gemacht hat zeigt IMO auch das sie derzeit wohl gar nicht die Manpower haben um einen 6 Monatszyklus durchzuhalten. Denn diese ein Basis-Produkt für alles Strategie kann nicht aufgehen. Gerade im wichtigen Low-Cost OEM markt braucht man was billig zu produzierendes um dort auch richtig kohle zu machen.
Die Testkosten eines Chips hängen von seiner komplexität ab. Aber im wesentlichen hängt das nur von der produzierten Stückzahl ab. Der Test gehört also zu den Produktionskosten. Was umgelegt werden muss sind die Entwicklungskosten und wenn ATI einen grossen Absatz an 9500er geplannt hätte würde sich ein eigenes PCB lohnen und selbst wenn man keines bauen möchte warum nimmt man für die 9500 nicht das 9500 Pro PCB dieses soll ja angeblich günstiger sein. Die Strategie mit dem 9500er Karten ist und bleibt unverständlich.
Und was die zwei Produktlinien bei NVIDIA angeht so dürfte bei der GF4 MX der Aufwand für die Weiterentwicklung in einem ähnlichen Bereich fallen wie der von der GF3 zur GF4TI. In der MX sind durchaus auch einige Dinge aus der GF3 eingebaut worden.
Cleric
2003-01-07, 21:53:30
also das mit der menpower... glaube ich nicht so recht da sie vor "kurzem" ein entwicklerteam gekauft haben (entwickler des gamecube chips) aber ich würde ehr sagen das ATI für den lowend bereich den shrinked 8500 (9000er) nutzen möchte ... das selbe macht NV ja eigentlich auch nur das es dort sogar ein "dx7" chip ist.
naja ich würd es halt so (oder ähnlich) setzen:
9000er<->GF4MX
9500/pro<-> GF4 4200
9700/pro<-> GF4 4600
ich bin nämlich der meinung das es für die GeForceFX eine 9900 oder ähnliches geben wird... aber wie dem auch sei ... ;)
Ailuros
2003-01-08, 06:33:11
Aber was ATI jetzt gemacht hat zeigt IMO auch das sie derzeit wohl gar nicht die Manpower haben um einen 6 Monatszyklus durchzuhalten.
Abgesehen von was jeder IHV faehig ist oder sein wird; mir ist es sowieso lieber wenn sich IHV's von fort an mehr an 12-monatige Produkt-Zyklen konzentrieren.
Es ist mir schon klar dass 6-monatige Refresh-Zyklen auch ihre Vorteile haben, aber der Verbraucher sowie auch OEM's koennen auch mit 12 Monaten auskommen.
Was ATI jetzt speziell betrifft: ich wuerde eher abwarten wie sich die Schlacht durch's ganze Jahr durchziehen wird. Obwohl NV die Vorhand mit 13um hat, heisst das nicht unbedingt dass ATI dadurch im Nachteil sein wird. Soweit ich weiss kamen NV31 und RV350 umso etwa zur gleichen Zeit zum tape out. Wenn ATI's chips keine besonderen Probleme vorzeigen, dann sieht's eher so aus als ob beide IHV's mit gleicher oder fast gleicher Frequenz Produkt veroeffentlichen werden.
Ailuros
2003-01-08, 06:39:24
Cleric,
Das Entwicklerteam dass Du meinst, ist wohl ArtX. Bei Aufkauf der Firma war der Flipper chip schon fast fertig, und das Team begann sich mit der Entwicklung von R300 zu beschaeftigen.
Das mit der 9000/8500 ist so etwa wie Demirug es mit 4MX/NV20 beschrieben hat. Dabei hat der 9000 schon ein paar Kleinigkeiten,was das triangle setup/loopback der 9-er Serie betrifft, abgeschnitten.
Spake
2003-01-08, 16:32:45
wenn Ati nicht viele von den 9500 verkaufen will scheint es so zu sein als ob sie bald den RV350 präsentieren
damit wären sie nvidia wieder eine dx generation voraus
:-)
Ailuros
2003-01-08, 16:37:56
Da tapeout zu etwa gleichen Zeit was NV31/RV350 betrifft, und es heisst dass NV ihren Teil im April veroeffentlichen wird, sieht es so aus als ob es bei ATI nicht anders aussieht. Das heisst natuerlich dass fuer beide IHV's alles fehlerfrei und wie nach Plan laufen sollte.
Beide sind uebrigens dx9.0 Kompliant soweit ich weiss, obwohl dx9 im mainstream sowieso nur zum vermarkten dient.
Originally posted by Spake
wenn Ati nicht viele von den 9500 verkaufen will scheint es so zu sein als ob sie bald den RV350 präsentieren
damit wären sie nvidia wieder eine dx generation voraus
:-)
??? was ist denn das für ein Unsinn mit der DX-Generation voraus?
Crushinator
2003-01-08, 19:26:00
Originally posted by ow ??? was ist denn das für ein Unsinn mit der DX-Generation voraus?
Es geht IMHO um Low-Cost:
R9000 -> DX8.1
GF4MX -> DX7
RV350 -> DX9
NV2x -> DX8.1
Alle Klarheiten beseitigt? ;)
Spake
2003-01-08, 23:34:59
crushinator hats drauf
er weiß genau was ich meine
Quasar
2003-01-08, 23:41:54
R9000 -> DX8.1
GF4Ti -> DX8.1
RV350 -> DX9
NV31 -> DX9+
gelle?
Spake
2003-01-09, 00:06:00
beruht ganz auf der perf
fraglich ist ja ob nvidia die ganze ti serie durch die nv31 ersetzt
außerdem ist fraglich welche GPUs die nv31 ersetz und welche die RV350
hab mal gehört die nv34 soll noch unter der nv31 liegen
Ailuros
2003-01-09, 06:52:00
hab mal gehört die nv34 soll noch unter der nv31 liegen
Komisch ist natuerlich dass Du zwar in die korrekte Richtung denken koenntest, aber irgendwo durch den Weg verwirrst Du Dich selber.
Spake
2003-01-09, 15:13:55
jetz wart mal was soll der mist
also im moment sieht es so aus:
G4Ti vs. R9500
G4Mx vs. R9000
so jetz hab ich gesagt es beruht ganz auf der performance-ausrichtung der RV350 und der nv31 und nv34
es könnte so aussehen:
nv30 vs. 9700
nv31(vorher G4Ti4400/4600) vs. 9500 Pro
G4Ti4200(dx8) vs. RV350(dx9)
G4Mx vs. R9000
wäre logisch weil Ati die R9500 non-pro durch etwas kostengünstigeres erstetzen will
oder so:
nv30 vs. 9700
nv31 vs. RV350
G4Ti4200 vs. 9500 non-pro
G4Mx vs. 9000
wäre schon komisch weil Ati so einen sehr teuren chip zu spottpreisen verkauft
nix anderes hab ich gesagt
zwar unverständlich aber wär nett wenn du vorher freagst bevor du kritisierst
StefanV
2003-01-09, 15:14:11
Originally posted by Quasar
R9000 -> DX8.1
GF4Ti -> DX8.1
RV350 -> DX9
NV31 -> DX9+
gelle?
Tja, 'dummerweise' ist die Konkurenz von der Radeon 9000 die GF4 MX und von der GF4 TI atm die R300 Serie...
NV hängt also sehr wohl eine Generation zurück (zumal die R8500 ja auch einen 'halben' PS2.0 hat ;))
Originally posted by Stefan Payne
Tja, 'dummerweise' ist die Konkurenz von der Radeon 9000 die GF4 MX und von der GF4 TI atm die R300 Serie...
Tja, 'dummerweise' liegt die Wahrheit irgendwo dazwischen...
seahawk
2003-01-09, 15:22:45
Naja nicht ganz. Preislich ist es
R9000 vs MX
9500-9700pro vs GF Ti 4X00
Zumindest im Moment.
Es erscheint fraglich ob NV vor Mai wieder aufholen kann.
Und selbst wenn ATI in diesem Zeitrahmen untätig wäre.
Spake
2003-01-09, 16:00:53
gegen wen stellt sich denn jetz die RV350
eigentlich müsste sie ja die R9500 ablösen
aber irgendwie hätte ich schon meh perf erwarted
Ailuros
2003-01-09, 17:02:59
Nein Quasar (steht aber frei zur Korrigierung). Alle moeglichen vorerwaehnten Produkte sind "nur" dx9.0 kompliant.
R300= partly 2.0 extended
NV30= 2.0 extended
wobei es in dx9.0 die folgenden gibt:
PS/VS 2.0
PS/VS 2.0 extended
PS/VS 3.0
edit:
http://www.beyond3d.com/forum/viewtopic.php?t=3661
Gings hier nicht um Kyro und GF statt ATI vs. GF? Naja. Ich denke, dass trotz bestimmter Vorteile die ATI anbieten kann, nVidia im großen und ganzen noch "solide" im Markt platziert.
Ich persönlich würde im Notfall z.B. eher eine GF"4" MX als Radeon9000 kaufen, da für mich FSAA wichtiger ist als PixelShader.
StefanV
2003-01-09, 18:56:13
Originally posted by aths
Ich persönlich würde im Notfall z.B. eher eine GF"4" MX als Radeon9000 kaufen, da für mich FSAA wichtiger ist als PixelShader.
Ich nicht, da mir diverse Multimedia Features und mindestens ein DVI AUsgang sowie mindestens ein zusätzlicher DSub Ausgang wichtiger sind als diverse 3D Features sind...
Ailuros
2003-01-09, 18:59:36
Gings hier nicht um Kyro und GF statt ATI vs. GF?
Tja hoffentlich wird im Laufe des Jahres der Name KYRO irgendwann mal begraben. ;)
Spake
2003-01-10, 12:14:28
die namensrechte an kyro besitz power Vr doch sowieso nicht oder doch?!
wenns nicht so wäre kommt vielleicht bald eine kyro 3/4(beides series 5 da series 4 ja ne released wurde) auf uns zu
vom jahr her würds passen und powerVR werden bestimmt nicht solche verzögerungen haben
Originally posted by Spake
die namensrechte an kyro besitz power Vr doch sowieso nicht oder doch?!
wenns nicht so wäre kommt vielleicht bald eine kyro 3/4(beides series 5 da series 4 ja ne released wurde) auf uns zu
vom jahr her würds passen und powerVR werden bestimmt nicht solche verzögerungen haben
Die Namensrechte liegen bei ST Micro, weswegen es keine Kyro 3/4 benannten Produkte geben wird.
apollo
2003-01-10, 13:01:06
Originally posted by Spake
die namensrechte an kyro besitz power Vr doch sowieso nicht oder doch?!
Das Thema haben wir schon ganz zu Beginn dieses Threads (8. Posting glaub ich) geklärt... :eyes:
Ailuros
2003-01-10, 14:19:28
New Face New Name :D
Spake
2003-01-17, 21:58:15
@ Xmas
ich denke auch das wir das am anfang des threads hatten aber ich hatte keine lust nachzuschauen
aber mal so nebenbei was soll STMicro mir kyro-namensrechten
wozu der name
wieso sollten sie diese nicht an PowerVR geben was sollen die damit anfangen
-auch einsteigen ins geschäft und Ati/nvidia karten mit dem kyro-namen verkaufen
wär besser für PowerVR wenn sie den namen besitzen da dieser sich ja irgendwie eingebürgert hat
nicht umsonst will nvidia nicht ihren namen geforce wegwerfen und einen neuen erfinden
Ailuros
2003-01-17, 23:43:27
wär besser für PowerVR wenn sie den namen besitzen da dieser sich ja irgendwie eingebürgert hat
nicht umsonst will nvidia nicht ihren namen geforce wegwerfen und einen neuen erfinden
Ganz im Gegenteil ist es der beste Grund dass sie den Namen KYRO voellig vergessen. Serie5 ist technisch gesehen nicht zwei sondern ganze drei Generation entfernt von KYRO. Dabei koennte sich leicht jemand denken dass KYRO 4 z.B. nur eine revampte wasimmer KYRO ist.
GeForce ist eine ganz andere Geschichte, da jede Generation von GeForces vom budget bis zum high end ging und nie eine Generation unter der 2Millionen Stuecken Verkaufsgrenze stecken blieb. GeForce war und ist im Gedanken des Kaeufers als hochpotenzienelle VGA eingepraegt.
Spake
2003-01-18, 14:24:13
" GeForce ist eine ganz andere Geschichte, da jede Generation von GeForces vom budget bis zum high end ging und nie eine Generation unter der 2Millionen Stuecken Verkaufsgrenze stecken blieb. GeForce war und ist im Gedanken des Kaeufers als hochpotenzienelle VGA eingepraegt."
Das argument versteh ich nicht ganz.
jeder der sich einen TBDR geholt hat hat diesen begriff doch fest mit kyro verbunden
" Ganz im Gegenteil ist es der beste Grund dass sie den Namen KYRO voellig vergessen. Serie5 ist technisch gesehen nicht zwei sondern ganze drei Generation entfernt von KYRO. Dabei koennte sich leicht jemand denken dass KYRO 4 z.B. nur eine revampte wasimmer KYRO ist."
kann ich auch nett nachvollziehen
nv30 ist auch eine neuentwicklung und heißt dennoch immernoch geforce
R300 ist auch eine neuentwicklung und heißt auch noch radeon
in dem segment wo die kyro verkauft wird kaufen sich eher sellten leute eine GraKa welche ahnung haben oder?
und die brauchen dann einen namen an dem sie sich orientieren können sprich kyro
Ailuros
2003-01-18, 14:51:20
Das argument versteh ich nicht ganz.
jeder der sich einen TBDR geholt hat hat diesen begriff doch fest mit kyro verbunden
KYRO= budget VGA, Feature-weise hinter der Konkurrenz.
kann ich auch nett nachvollziehen
nv30 ist auch eine neuentwicklung und heißt dennoch immernoch geforce
R300 ist auch eine neuentwicklung und heißt auch noch radeon
Dabei signifikierten beide Namen (Radeon und GeForce) nicht nur weitverbreitete Kaufserfolge, aber auch high end Produkte mit dem letzten Schrei an Features auf dem Markt.
in dem segment wo die kyro verkauft wird kaufen sich eher sellten leute eine GraKa welche ahnung haben oder?
und die brauchen dann einen namen an dem sie sich orientieren können sprich kyro
Unter der Vorraussetzung dass es sich bei zukuenftigen Produkten auch nur um budget Angebote handelt. Wenn es sich um high end Konfigurationen handelt, dann ist es fuer den ignoranten Kaeufer eher irrefuehrend wenn man bei einem solchen Teil den Namen KYRO benutzen wuerde. Es kann durchaus sogar sein dass die den Namen doch noch benutzen, aber es ist meiner Meinung nach, nach wie vor Schwachsinn.
Pussycat
2003-01-18, 18:56:18
Gegenfrage: Wie viele 'otto-notmalkäufer' kennen 'Kyro' überhaupt? Wenn's eh nut die idioten wie uns sind, wäre in anderer Name kein Problem. Und ich glaube nicht dass Leute der "Pentium ist böse auf Athlon, weil die besser sind und darum machen die den Pentium 6" (ja, das ist wirklich ein Quote. Auch die 6 stimmt!) den Kyro kennen.
Ailuros
2003-01-19, 11:35:08
Frage: ohne irgendwelche Details ueber die chip-Architektur zu wissen, wie wuerdest Du z.B. auf Cyrix reagieren? (kein gutes Beispiel, aber die Logik sollte helfen).
Pussycat
2003-01-19, 12:51:01
Wenn ich es noch kannte von früher: "boah die sind doch scheisse!", würde ich sagen.
Allerdings war die Kyro eine gute Karte. Sie schlug die GF2U zwar nicht überall :), aber es war wirklich die allebeste Wahl für fast alles User damals.
StefanV
2003-01-19, 13:27:38
Originally posted by Ailuros
Frage: ohne irgendwelche Details ueber die chip-Architektur zu wissen, wie wuerdest Du z.B. auf Cyrix reagieren? (kein gutes Beispiel, aber die Logik sollte helfen).
Die Erste Reaktion:
Oh gott, was soll ich mit dem Schrott denn.
Ailuros
2003-01-19, 13:59:36
Originally posted by Pussycat
Wenn ich es noch kannte von früher: "boah die sind doch scheisse!", würde ich sagen.
Allerdings war die Kyro eine gute Karte. Sie schlug die GF2U zwar nicht überall :), aber es war wirklich die allebeste Wahl für fast alles User damals.
Meine Logik beruht nur darauf, was der Durchschnitts-Verbraucher denken koennte. Brand recognition ist eine nettes Plus, aber in manchen Situationen kann es auch mehr negative als positive Impakte haben.
duckofdeath
2003-01-19, 14:24:30
falscher post...... sorry für den unnötigen spam...
Spake
2003-01-19, 17:59:19
so weit ich weiß hat PowerVr keine ambitionen ins high-end segment zu kommen
was auch schwachsinn wäre weil viele dieser chips dort meißt sehr teuer sind und wenig profit hergibt
wieso sollten sie auch nicht im mainstream-segment bleiben
dort gibt es hohen profit und der markt ist auch schön groß
PowerVR wird höchstwahrscheinlich mit einer mainstreamkarte kommen welche auch ab und zu im high-end liegt
und jetzt noch ein mal die frage:
ist es nicht so dass egal in welchem bereich man immer auf namen setzt welche dem 08/15-käufer bekannt sind
nur wenn eine firma einen vollständigen neuanfang wagt setzen sie auf einen neuen namen(z.B. radeon und athlon)
in anderen bereichen wird munter weiter der selbe name mit neuen zahlen und neuen buchstaben versehen
dass ist nun mal ein gesetz des marktes
die kyro2 wurde ja damals auch in komplettrechnern verkauft und diese käufer haben sellten genug know-how um sich für einen neuen namen begeistern zu lassen
nvidia könnte so etwas noch am ehesten machen aber nicht PowerVR da die wenigsten käufer überhaupt wissen wer die karte entwickelt hat
loewe
2003-01-19, 18:08:25
Originally posted by Spake
die kyro2 wurde ja damals auch in komplettrechnern verkauft und diese käufer haben sellten genug know-how um sich für einen neuen namen begeistern zu lassen
nvidia könnte so etwas noch am ehesten machen aber nicht PowerVR da die wenigsten käufer überhaupt wissen wer die karte entwickelt hat
Ist natürlich durchaus möglich den Namen KYRO zu behalten, wenn ich auch nicht daran glaube.
Aber bezüglich Serie5 gehe ich davon aus, dass es egal ist, es wird sich auf jeden Fall rumsprechen.
Spake
2003-01-19, 18:15:12
rumsprechen tut es sich aber meißtens nur bei leuten die es wirklich wissen
die anderen von denen man im mainstream segment abhängiger ist wissen es dann nett und haben keinen bock auf irgend so einen neuling und setzen eher auf namen wie radeon oder geforce
loewe
2003-01-19, 18:18:14
Originally posted by Spake
rumsprechen tut es sich aber meißtens nur bei leuten die es wirklich wissen
die anderen von denen man im mainstream segment abhängiger ist wissen es dann nett und haben keinen bock auf irgend so einen neuling und setzen eher auf namen wie radeon oder geforce
Den Preis zahlt PowerVR jetzt so oder so, wer fast zwei Jahre nichts mehr bringt und sowieso eher zu denen gehört, die nur in Insiderkreisen bekannt sind, darf sich darüber nicht wundern.
ActionNews
2003-01-19, 20:00:55
Originally posted by Spake
rumsprechen tut es sich aber meißtens nur bei leuten die es wirklich wissen
die anderen von denen man im mainstream segment abhängiger ist wissen es dann nett und haben keinen bock auf irgend so einen neuling und setzen eher auf namen wie radeon oder geforce
Wenn die ersten mit ihrer Serie5-Karte auf LAN-Partys die Nvidia und Ati-Karten abhängen *eg* ;), dann spricht sich sowas verdammt schnell rum :D!
Nein jetzt mal Scherz beiseite: Der Name Kyro gehört nun mal STMicro! Ich denke nicht, dass PowerVR Geld für diesen Namen ausgibt! PowerVR-Chips hatten schon immer unterschiedliche Namen (vorallen bei neuen Serien)! Erst PCX1/2 (Serie 1), dann Neon250 (Serie 2) und zuletzt KyroI/II (Serie 3). Wer sagt denn dass die Serie 4 wirklich den Namen KyroIII getragen hätte? Wenn ich mich Recht erinnere hieß es sogar, dass die Serie 4 auf keinen Fall KyroIII heißen soll!
CU ActionNews
Ailuros
2003-01-20, 02:14:11
so weit ich weiß hat PowerVr keine ambitionen ins high-end segment zu kommen
was auch schwachsinn wäre weil viele dieser chips dort meißt sehr teuer sind und wenig profit hergibt
wieso sollten sie auch nicht im mainstream-segment bleiben
dort gibt es hohen profit und der markt ist auch schön groß
PowerVR wird höchstwahrscheinlich mit einer mainstreamkarte kommen welche auch ab und zu im high-end liegt
Dann informieren Dich Leute "die es wirklich wissen" aeusserst schlecht.
Spake
2003-01-21, 18:31:35
@ Ailuros
gib mir doch einfach eine quelle die wasserdicht ist wo mir das gegenteil bewiesen wird bevor du so einen kack erzählst
und wenn du dass nicht kannst dann sag mir wieso PowerVr in den High-end markt will?!
ein paar gute argumente wären auch ganz gut
ActionNews
2003-01-21, 19:36:32
Wieso sollte PowerVR nicht in den Highendmarkt wollen? Jetzt wo sie keinen Lizensnehmer mehr haben, der auf Lowcost getrimmte Chips haben will und Highendprodukte auch das eigene Image aufpolieren.
Sich in der jetzigen Situation auf den Mainstrem/Lowcost-Markt zu beschränken wäre IMO Selbstmord! Schließlich wollen sie auch wieder Liznesnehmer für ihren Chip. Den bekommen sie nur, wenn sie auch mit Ati und Nvidia konkurieren können.
Aber ist natürlich meine Meinung. was PowerVR macht weiß ich auch nicht!
CU ActionNews
Ailuros
2003-01-22, 02:18:19
Originally posted by Spake
@ Ailuros
gib mir doch einfach eine quelle die wasserdicht ist wo mir das gegenteil bewiesen wird bevor du so einen kack erzählst
und wenn du dass nicht kannst dann sag mir wieso PowerVr in den High-end markt will?!
ein paar gute argumente wären auch ganz gut
Wenn Du so naiv bist und glaubst dass ich etwas beweisen wuerde, selbst wenn es mir zur Verfuegung steht oder sogar Namen nenne (was Leuten ernstliche Implikationen im Arbeitsbereich kosten kann), da kann ich Dir nicht weiterhelfen.
Gruende weil PowerVR in den high end Markt gehen kann:
Ein high end Design kann leichter, schneller und effektiver mehrere Maerkte anpeilen. Dabei koennen sie diesen nach belieben jeder Platform anpassen.
a)Ein gutes Beispiel waere der Konsolen-Markt. Als sie damals den Sega Dreamcast Deal 3dfx aus der Hand nahmen, hatten sie einen 32bittigen, 1024x1024, FSAA faehigen chip gegen 16bit, 256x256 chip gestellt. Wenn Du glaubst das man mit dx8 Komplianz heute noch einen Konsolen Deal gewinnen kann bin ich ganz Ohren. Konsolen Designs muessen nicht nur auesserst fortschrittlich sein, sondern auch sehr hohes Potenzial bieten, da diese eine umso einiges hoehere Lebenszeit haben als z.B. PC Produkte.
b) Die sind momentan aeusserst im Voraus was den PDA/mobile Markt betrifft, wobei MBX HR-S schon mit einem dx8.1 Vertex Shader/HW T&L bereitgestellt ist. Dieser Markt ist noch ein ziemlich freies Feld und um sich in diesem auch den Vorrang behalten zu koennen, muss auch weiterentwickelt werden. Dabei ist die beste Antwort solche Spezifikationen zu bieten die von der Konkurrenz nicht im gewissen Zeitraum uebertreffen werden koennen.
c) Aehnliches gilt fuer den Set top box und Arcade Markt (mit einem 50+% Marktanteil in manchen Regionen). In diesen Platformen hatten sie schon T&L bevor es im PC space verfuegbar war. Hochspezifierte und aeusserst potentielle Nachfolger sind hier auch erwuenscht.
d) Mit der momentanen Marktkrise schaetzen Analysatoren dass der Markt im Ganzen umso einiges re-strukturiert wird, wobei IP verkaufende Firmen nach Vorraussehungen mehr Boden gewinnen werden. Nach diesen soll der Aufschwung in den naechsten 5 Jahren bei etwa >20% liegen wenn nicht noch mehr. Uebersetzt heisst das, dass IP Firmen auf diesen Aufschwung schon jetzt investieren.
e) Ein high end Design ist ein besseres Feld, IP cores von anderen ImgTec Abteilungen dazuzufuegen. Dabei gab es schon mehrere Ankuendigungen was die Eingreifung von Metagence und Ensigma Technologie in PVR graphics cores betrifft. Wozu koennte man denn multithreading heutzutage gut gebrauchen hm?
f) Nach so vielen Jahren mit nur budget/mainstream Produkten ist es schon seit langem Zeit, dass die endlich mal beweisen was sie koennen. Und dabei handelt es sich nicht um einen kindischen Ego-trip der ungeraume Unkosten fuer nichts aufbringen wird, aber der einfachen Logik dass sich Tile based deferred rendering als rendering approach oder Architektur nie richtig bewiesen hat um auch einen wesentlichen Unterschied zu machen. Es gibt unendliche Mythen dass TBDR mit T&L nicht kombiniert werden kann, dass die Methode Probleme mit hoher Poly-Anzahl hat oder was immer auch. Entweder die versuchen irgendwann das Gegenteil in voller Pracht zu beweisen, oder die koennen lange von deren Effizienz blabbern wenn sie nur mit KYRO-artigen Produkten ankommen. Um groesseren Erfolg in jedem Markt zu haben muessen sie dem Durchschnittsverbraucher auch die gehypte Effizienz endlich mal beweisen.
Ausserdem ist es zwar so dass die Mehrheit budget und mainstream Karten kauft und nur ein kleiner Anteil (2-5%) high end Produkte, aber "mind share" ist ausschlagend fuer die Psychologie des Endverbrauchers, so doof wie es auch klingen mag.
g) High end heisst dann auch dass man den Design nicht nur nach oben druecken kann (siehe hoehere Taktraten) sondern Produkte auch nach unten fuer niedrigere Bereiche skalieren, was wohl hoehere Flexibilitaet in der Produktpalette bedeutet.
-----------------------
Zu guter letzt haengt deren Geschaeft und ob es Serie5 in den PC Raum voellig von dem zukuenftigen Partner(-n) ab. Es kann alles passieren, sogar dass wieder nichts auf Ladentische kommt und die sich auf alle anderen Maerkte wie zuvor konzentrieren. Ausserdem hat David Harold letztes Jahr offiziell gesagt, dass sie eventuell auch planen in den high end Markt zu kommen. Ob sie dass schaffen steht noch in den Sternen, bis etwas angekuendigt wird, wozu es momentan sowieso noch zu frueh ist.
ActionNews
2003-01-22, 09:41:41
Ein high end Design ist ein besseres Feld, IP cores von anderen ImgTec Abteilungen dazuzufuegen. Dabei gab es schon mehrere Ankuendigungen was die Eingreifung von Metagence und Ensigma Technologie in PVR graphics cores betrifft. Wozu koennte man denn multithreading heutzutage gut gebrauchen hm?
DAS klingt verdammt interessant :D! Wäre echt genial!
CU ActionNews
Ailuros
2003-01-22, 18:37:38
http://www.ensigma.com/Release.asp?ID=24
The UCC technology complements Imagination Technologies' multithreaded META processor and PowerVR graphics and video IP cores, which together offer the most comprehensive SoC-ready IP range for modern applications.
Nur ein Beispiel.
Spake
2003-01-22, 19:01:09
hehe Ailuros gut gebrüllt aber nunmal schafft man es eigentlich nie mit dem ersten anlauf im High-end markt fuß zu fassen
mal abgesehen davon dass man schön hohe kosten zur erhaltung dieser position hat
einige argumente finde ich dabei nett so ganz schlüssig:
a.) im Konsolenmarkt werden aber spiele immer an die jeweilige konsole angepasst und TBDR hatten deshalb ja nie eine sonderlich große akzeptanz
b.) was dass mit dem desktop high-end-segment zu tun hat versteh ich nett und dort wurde deren chip ja auch nur lizensiert und sie selber müssen nicht für produkte sorgen
c.etc.)ich hab doch nach dem high-end segment gefragt
e.) Pover Vr haben keinen Partner und werden deshalb wohl kaum einen Chip entwickeln in welche andere ideen einfließen welche der partner vielleicht nicht will(mal angenommen dieser wählt so einen rentablen weg wie STMicro)
f.)diese Effizienz haben sie doch schon mit dem kyro2 vs G2Ultra bewiesen aber es waren wohl die treiber welche nicht so gut waren und die games
übrigens bezweifel ich nicht dass powerVr einen dx9 chip bauen kann
nur wie erwähnt klappt der erste anlauf zu selten um es mit einem chip zu versuchen der weder marktpräsenz hatte und bei dem es vielleicht noch zu probs kommen könnte
g.) die frage ist ob man bei der Series5 nur den Core hochschrauben muss oder ob man wieder ein teures neues design braucht
sollte man so eins brauchen wären die mainstream-chips teurer als sonst
und außerdem brauchen sie einen partner der sich auf chipentwicklung versteht und überhaupt so einen chip bauen kann
Ailuros
2003-01-22, 19:52:48
im Konsolenmarkt werden aber spiele immer an die jeweilige konsole angepasst und TBDR hatten deshalb ja nie eine sonderlich große akzeptanz
Wenn ein Entwickler nicht unbedingt eine komische Art verwendet ein Spiel zu programmieren, reagieren IMR's und TBR's genauso heutzutage auf Software. Was gibt es da anzupassen bei einer Xbox zum Beispiel dass theoretisch nicht auf einem Tiler laufen koennte?
was dass mit dem desktop high-end-segment zu tun hat versteh ich nett und dort wurde deren chip ja auch nur lizensiert und sie selber müssen nicht für produkte sorgen
Weil der Design ein "all around" Paket bildet, der so viel wie moegliche Maerkte als Ziel haben kann. Man kann auch Produktionsreife chips lizenzieren, hilft das?
ich hab doch nach dem high-end segment gefragt
Imagination Technologies ist eine IP Firma mit vier Abteilungen, wobei alle Abteilungen nicht komplett unabhaengig sind (das heisst das in so manchen Projects zusammengearbeitet oder sogar Technologie kombiniert wird). Entweder versuchst Du zu verstehen dass das Konzept der Firma umso einiges verschieden ist als bei anderen Firmen, oder das ganze hat keinen Sinn.
Pover Vr haben keinen Partner und werden deshalb wohl kaum einen Chip entwickeln in welche andere ideen einfließen welche der partner vielleicht nicht will(mal angenommen dieser wählt so einen rentablen weg wie STMicro)
Na und? Taktrate oder Spezifikationen nach unten und der Kunde ist wieder zufrieden. Was passiert aber wenn man nur einen mainstream/budget chip entwickelt und der Kunde will trotz allem noch high end? Flexibilitaet im Design ist nie negativ, ganz im Gegenteil. ST Micro oder frueher NEC hatten mehr Verantwortungen als die zukuenftigen Partner von ImgTec.
diese Effizienz haben sie doch schon mit dem kyro2 vs G2Ultra bewiesen aber es waren wohl die treiber welche nicht so gut waren und die games
übrigens bezweifel ich nicht dass powerVr einen dx9 chip bauen kann
nur wie erwähnt klappt der erste anlauf zu selten um es mit einem chip zu versuchen der weder marktpräsenz hatte und bei dem es vielleicht noch zu probs kommen könnte
KYRO 2 war GF2MX Konkurrenz. Ob sie jetzt mal hier und da eine Ultra oder PRO in schlechtes Licht gestellt hat, heisst bei weitem nicht dass sie diese auch ueberrennt hat.
Was war schlecht mit den Treibern? Wenn Du 3dmark meinst, danke es handelt sich um eine dx8 Anwendung; wenn Du Probleme mit Spielen die nach cube maps oder T&L aufrufen meinst, danke aber da sollte wohl klar sein dass da die Hartware nicht mehr mitspielen kann.
Und die Probleme mit einem angenommenen dx9 chip waeren?
die frage ist ob man bei der Series5 nur den Core hochschrauben muss oder ob man wieder ein teures neues design braucht
sollte man so eins brauchen wären die mainstream-chips teurer als sonst
und außerdem brauchen sie einen partner der sich auf chipentwicklung versteht und überhaupt so einen chip bauen kann
Das komische ist dass viele Leute den Eindruck haben dass TBDR's so exotisch sind, dass sie meilenweite Unterschiede im Vergleich zu IMR's. Sollte, wollte, vielleicht, was soll das? Klaer mir erstmal auf was Du meinst, denn waage Schaetzungen aus dem Vakuum helfen hier nicht.
Dabei haben TBDR genausoviele Vorteile und Nachteile wie IMR's auch. Wenn man die ueber die Waage schiebt bezweifle ich dass einer der beiden klar gewinnen kann.
Was die Erfahrung der Silizium Entwicklung betrifft: die brauchen genauso viel Erfahrung wie bei vorigem Silizium oder beim letzteren MBX. Dreimal darfst Du raten wer den letzteren in's Labor geschickt hat.
Spake
2003-01-24, 19:59:57
passt nett ganz rein aber:
die ersten powerVr chips rauskamen hatten die entwickler den chip nett ganz akzeptiert(die gründe hierfür liegen auf der hand) ->ich mein nur dass das am anfang so war etc. beziehe es aber nett wirklich auf heute
- bei der dreamcast war die perf doch ganz ansehlich weil die spiele eben auf die graka angepasst werden mussten
ist ja genauso wie damals mit der kyro2 die eben bei anwendungen welcher ihr liegen viel besser ist
bei einer konsole kann man sich nun ja auf einen chip kozentrieren und alle feinheiten des chips besser ausnutzen und damit die perf besser machen
schließlich werden konsolenspiele ja immer schöner da man sie ja immer stärker auf die konsole abstimmt oder bei doom 3 haben die grakas mit eigenen renderpfaden und besseren features bessere perf als ihre gegnerchips mit weniger features(mal so am rande aber kann die kyro nicht auch so was wie pixelshader-games darstellen)
2.punkt
gings nicht um den MBX
das einzige was man mit dem im high-end segment anfangen kann ist doch seine technologie in einen besseren chip einbinden
ich steh vielleicht auf dem schlauch aber was hat der mit desktop zu tun
3.punkt
naja nehmen wir mal an sie müssten ein transistorenmonster bauen um im high-end-desktop-segment anzukommen wärs doch scheiße es im mainstreambereich zu verkaufen
ist einfacher so einen chip zu bauen als einen high-end
ich meine:
matrox wollte es schaffte es aber nicht(waren lang nett präsent aber können als beispiel dienen und der G400? war acuh nett so lange der sieger)
Ati schaffte es erst mit der R9700Pro richtig ins high-end segment
nvidia waren lange nicht absolute sieger dort und schafften es erst mit dem Geforce(2) zu 100%
high-end mag toll sein muss aber nett schließlich verkauft(e) nvidia massig OEMs ect. ohne wirklich ganz oben zu sein
4.punkt
aus den treibern hätte man wahrscheinlich mehr herausholen können aber was ich eigentlich meine ist die langsamheit beim beseitigen von bugs etc
"übrigens bezweifel ich nicht dass powerVr einen dx9 chip bauen kann "
""Und die Probleme mit einem angenommenen dx9 chip waeren? ""
wieso probs ich sag nie dass sie probs haben werden denn wenn sie dx8 benutzen können geth auch dx9
5.punkt
die frage bezieht sich eher auf das design denn nicht alle chips haben ein super design"hust_matrox"
was ist wenn das design nett für high-end ausreicht
das hat nix mit exotick sondern eher damit zu tun dass powerVr noch nie son einen chip entwickelt hat und dass schafft man nunmal nett im ersten anlauf oder doch?!
außerdem brauchen sie auch einen guten pertner oder machen alles selbst und zahlen nvidia-like 400 Mil für die chips
;-D
ActionNews
2003-01-24, 21:06:25
Originally posted by Spake
passt nett ganz rein aber:
die ersten powerVr chips rauskamen hatten die entwickler den chip nett ganz akzeptiert(die gründe hierfür liegen auf der hand) ->ich mein nur dass das am anfang so war etc. beziehe es aber nett wirklich auf heute
Wieso? Matrox verbaute den PCX2 ja auch auf seinen Karten. Technisch gesehen waren die Chips sehr gut! Problem für PowerVR war einfach, dass Glide viel einfacher zu handhaben als PowerSGL war. Also wurde hauptsächlich auf Voodoo und Glide optimiert. Klar, dass sich die Kunden dann Voodoo-Karten kaufen!
- bei der dreamcast war die perf doch ganz ansehlich weil die spiele eben auf die graka angepasst werden mussten
ist ja genauso wie damals mit der kyro2 die eben bei anwendungen welcher ihr liegen viel besser ist
bei einer konsole kann man sich nun ja auf einen chip kozentrieren und alle feinheiten des chips besser ausnutzen und damit die perf besser machen
schließlich werden konsolenspiele ja immer schöner da man sie ja immer stärker auf die konsole abstimmt
Stimmt! Und ein schönes Beispiel was man erreichen kann, wenn man nicht nur auf Nvidia optimiert und dann nur überprüft ob's auf anderen Karten läuft und wenn nicht, dann halt Pech gehabt! Naja so gut wie bei einer Konsole kann man's nie anpassen, aber zumindest fehlerfrei Laufen könnte es. oder bei doom 3 haben die grakas mit eigenen renderpfaden und besseren features bessere perf als ihre gegnerchips mit weniger features(mal so am rande aber kann die kyro nicht auch so was wie pixelshader-games darstellen)
Einige Pixel Shader Effekte lassen sich auch mit dem KyroI/II darstellen siehe z.B. die Techdemos "Kyrotoon", "Stilllife" und "Kyro Energie"! Die laufen aber glaube ich nur auf Kyro-Karten. Es gibt aber auch Videos, die Besitzern anderer Karten zeigen wie das aussieht. Siehe www.pvrdev.com !
2.punkt
gings nicht um den MBX
das einzige was man mit dem im high-end segment anfangen kann ist doch seine technologie in einen besseren chip einbinden
ich steh vielleicht auf dem schlauch aber was hat der mit desktop zu tun
Naja, das hat soweit was damit zu tun, dass man beim MBX (und auch bei anderen PowerVR Chips) Techniken sehen kann die sicher auch (in erweiterter/verbesserter Form) auch in der neuen Serie 5 zum Einsatz kommen könnten (z.B. FSAA4Free oder der VGP).
3.punkt
naja nehmen wir mal an sie müssten ein transistorenmonster bauen um im high-end-desktop-segment anzukommen wärs doch scheiße es im mainstreambereich zu verkaufen
ist einfacher so einen chip zu bauen als einen high-end
ich meine:
matrox wollte es schaffte es aber nicht(waren lang nett präsent aber können als beispiel dienen und der G400? war acuh nett so lange der sieger)
Ati schaffte es erst mit der R9700Pro richtig ins high-end segment
nvidia waren lange nicht absolute sieger dort und schafften es erst mit dem Geforce(2) zu 100%
PowerVR haben sehr viel Erfahrung in anderen Segmenten. z.B im Arcarde Sektor. Dort setzt PowerVR Hardware T&L schon einige Jahre länger ein als Nvidia bei ihrer Geforce! Die haben Knowhow, dass sie auf dem PC-Markt bisher nicht zeigen konnten. Du musst bedenken, dass alles vom Lizensnehmer abhängt! Wenn der keine Highendlösung haben will, dann entwicklet PowerVR auch keine. Jetzt im Moment haben wir aber die bisher einzigartige Situation, dass PowerVR keinen Lizensnehmer für den PC-Markt hat. Es muss erst ein neuer Partner gewonnen werden. Mit was geht das wohl besser? Mit einem Midrange Chip oder mit einem Highendprodukt das marketingtechnisch viel wertvoller ist und in abgespeckter Version auch in anderen Segmenten verkauft werden kann.(BTW: Die Serie 5 soll in dieser Hinsicht sehr flexibel sein, wie man dem EE Times INterview entnehmen kann)
high-end mag toll sein muss aber nett schließlich verkauft(e) nvidia massig OEMs ect. ohne wirklich ganz oben zu sein IMHO verkauft Nvidia aber nur so gut an OEMs WEIL sie Marktführer sind. Sieht man ja an ATi: Kaum ist die Radeon9700Pro die schnellste Karte, schon sieht man überall Komplett-PC und Laptops mit ATI Grafikkarten. Vorher war's immer Nvidia!
4.punkt
aus den treibern hätte man wahrscheinlich mehr herausholen können aber was ich eigentlich meine ist die langsamheit beim beseitigen von bugs etc
"übrigens bezweifel ich nicht dass powerVr einen dx9 chip bauen kann "
""Und die Probleme mit einem angenommenen dx9 chip waeren? ""
wieso probs ich sag nie dass sie probs haben werden denn wenn sie dx8 benutzen können geth auch dx9
Hmm...ich fand die Treiber immer ganz gut. Bugs wurden auch relativ flott gefixed (und es kommen wenigstens keine neuen Hinzu). Bei Nvidia-Treibern kann es vorkommen, dass neuere Spiele schneller laufen mit neuen Treibern, aber alte Games plötzlich nicht mehr richtig funktionieren (vielleicht auch eine Folge der zu starken Optimierung der Spielehersteller auf Nvidia Treiber). Und schließlich könnten auch Spielehersteller mit kleinen Regestry-Einträgen ihre Spiel locker fehlerfrei auf Kyro machen. Siehe viele EA-Games: MOHAA, NFS6 usw... Ein kleiner Regestryeintrag und das Ding läuft wie geschmiert! Die Probleme hängen also IMO nicht unbedingt an PowerVR (die Bügeln oft nur die Fehler der Entwickler aus bzw. werden bei einem Problem oft gar nicht vom Hersteller konsultiert um die Probleme bereits im Vorfeld zu beseitigen).
5.punkt
die frage bezieht sich eher auf das design denn nicht alle chips haben ein super design"hust_matrox"
was ist wenn das design nett für high-end ausreicht
das hat nix mit exotick sondern eher damit zu tun dass powerVr noch nie son einen chip entwickelt hat und dass schafft man nunmal nett im ersten anlauf oder doch?!
außerdem brauchen sie auch einen guten pertner oder machen alles selbst und zahlen nvidia-like 400 Mil für die chips
;-D
Also da sehe ich kein Problem! PowerVR hat schon oft bewiesen, dass sie aus niedigen Specs durchaus erstaunliche Leistungen herausholen können und auch mit T&L haben die große Erfahrung! Man muss sich nur mal den NAOMI II (SEGAs Arcade Maschine bei der ein PowerVR Grafikchip zum Einsatz kommt) anschauen. Dessen T&L Leistung war sogar einer Geforce3 oder Radeon8500 überlegen bezogen auf den Takt, denn bei 100MHz leistete der Chip 10 Millionen Dreiecke pro Sekunde. Bei 250MHz (zum bessern Vergleich zur Geforce3/Radeon8500) wären es ca. 30 Mio. und das bei SECHS Lichtern. Eine Geforce 3 kam da nur auf 18 Mio und eine Radeon8500 auf (die Daten für die Radeon8500 hab ich nicht mehr so genau im Kopf) 24? Mio Dreiecke bei nur EINEM Licht. Man bedenke der NAOMI-Chip kam 1999 auf den Markt und die Geforce3 bzw. Radeon8500 sind sehr viel höher getaktet!
Also ich denke man sieht, dass PowerVR nicht auf den Kopf gefallen ist! WENN sie mal richtig zeigen würden was sie können, dann sehe ich Schwierigkeiten auf Nvidia und ATI zukommen. Die Serie 5 wäre IMO (ohne Lizensnehmer auf den man Rücksicht nehmen müsste) die beste Gelegenheit!
CU ActionNews
Ailuros
2003-01-25, 02:55:05
Noch ne quote-Orgie *seufz* :D
Also mal los:
schließlich werden konsolenspiele ja immer schöner da man sie ja immer stärker auf die konsole abstimmt oder bei doom 3 haben die grakas mit eigenen renderpfaden und besseren features bessere perf als ihre gegnerchips mit weniger features(mal so am rande aber kann die kyro nicht auch so was wie pixelshader-games darstellen)
Doom3 muesste auf einem heutigen high end Tiler genauso gut laufen, selbst ohne bestimmte Renderpfade. Warum? Stencilops.
Was Konsolen betrifft, (was auch fuer den PC nicht anders ist):
Hoehere Programmierbarkeit= hoehere Flexibilitaet= mehr Optionen fuer schoenere und schnellere Effekte. Was spricht also gegen einen dx9 desing was PVR betrifft?
2.punkt
gings nicht um den MBX
das einzige was man mit dem im high-end segment anfangen kann ist doch seine technologie in einen besseren chip einbinden
ich steh vielleicht auf dem schlauch aber was hat der mit desktop zu tun
Bitte dann erstmal Fuss vom Schlauch weg :D
IHV entwickeln einen Design der fuer alle Maerkte die sie anpeilen geeignet sein muss. Dabei nimmt ATI und NV auch ihre Hauptdesigns und schlachtet z.B. chips fuer laptops aus. MBX ist eine eingeschrunkene KYRO im minimal-Format, wobei ein paar Kleinigkeiten fehlen (zB nur 2-layer MT) oder auch ein paar Kleinigkeiten von Serie4 dazubekommen hat. Im guten Ganzen gehoert MBX jedoch zu Serie3.
Heisst der chip der Serie5 nun vielleicht Bubble (*grins*), dann wird der Nachfolger von MBX eine eingeschrunkene Bubble sein. Eine logische Weiterentwicklung von MBX (mit teilweiser dx8.1 Komplianz) ist dann was wohl? Nein die Unkosten fuer R&D die im letzten Jahr hochgeschossen sind und die Leute die noch extra eingestellt wurden sind nur da um Serie5 noch PS1.1 zu garantieren pffffffffff.....
3.punkt
naja nehmen wir mal an sie müssten ein transistorenmonster bauen um im high-end-desktop-segment anzukommen wärs doch scheiße es im mainstreambereich zu verkaufen
ist einfacher so einen chip zu bauen als einen high-end
Was soll der Quatsch? Ein high end chip wird einen high end Preis haben und ein mainstream chip einen genauso analogen Preis. Dabei werden fuer die mainstream Variante meistens bei allen IHV's Spezifikationen reduziert (kleinere Busbreite, niedrigerer Takt, weniger onboard ram, langsamerer Speicher usw usw.)
Angenommen NV30 hat zwei Varianten dann koennte es so aussehen:
GF FX 5800@ 400/800MHz- 128mb ram = 300$
GF FX 5800 Ultra@ 500/1000MHz- 256mb ram = 450$
Dabei wird die NV31 mit 4*1 und wahrscheinlich >350/700MHz immer noch weniger kosten.
4.punkt
aus den treibern hätte man wahrscheinlich mehr herausholen können aber was ich eigentlich meine ist die langsamheit beim beseitigen von bugs etc
Ja Xabre-Texturen Qualitaet waere ein nettes Plus gewesen, denn man kann es ja nie schneller haben hm? Das mit der Langsamheit der Treiberupdates ist so ne Geschichte fuer sich; KYRO ging wahrscheinlich auf "low level support" sobald ST M die Graphik-sparte dicht machte.
Was bugs betrifft sind sie zugegeben nicht die schnellsten aber in Sachen "response time" liegen sie immer noch dicht hinter ATI/NV was die restliche Konkurrenz betrifft. Huepf mal rueber zu Anand's erstem UPT shootout und les mal durch welche Treiber problemlos mit einem noch nicht veroeffentlichten Spiel liefen und welche nicht.
5.punkt
die frage bezieht sich eher auf das design denn nicht alle chips haben ein super design"hust_matrox"
was ist wenn das design nett für high-end ausreicht
das hat nix mit exotick sondern eher damit zu tun dass powerVr noch nie son einen chip entwickelt hat und dass schafft man nunmal nett im ersten anlauf oder doch?!
Eines der groessten Probleme von Parhelia ist dass sie ueber keine Bandbreiten-schonende Techniken verfuegt. Glaubst Du dass ein wahrer TBDR wirklich in dieser Abteilung mangelt? Ganz im Gegenteil.
Ob die das schaffen oder nicht bleibt abzusehen. Das einzige dass ich Dir sagen kann ist dass es so wie es zur Zeit von langweiligen Papierzahlen aussieht, das Potenzial da ist fuer so manche Ueberraschungen. Ob diese dann auch deren Gewicht auch entsprechen werden, kann wohl keiner vorraussagen sondern nur Leute die zeitlich Performance-Tests betreiben.
Hauptsache das Ding wird sein Geld wert sein; da wird sich schon so mancher Kopf mehr drehen als bei einem langweiligen Radeon9500 Konkurrenten.
außerdem brauchen sie auch einen guten pertner oder machen alles selbst und zahlen nvidia-like 400 Mil für die chips
;-D
Das sind 400M fuer die ganze NV3x Serie mein Freund. Wobei Kosten fuer alle Maerkte die NVIDIA bedient drinstecken und auch refresh-parts NV35 inbegriffen, selbst chipset Loesungen (Konsolen Nachfolger auch).
Macht es jetzt endlich vielleicht Sinn wenn ich sage dass Serie5 ein Projekt fuer mehrere Maerkte darstellt, wo je nach Markt-segment angepasst wird?
Dabei verkauft NV direkt an vendors; und nicht nur IP was auch die Kosten umso einiges erhoeht und natuerlich auch logischerweise das totale Einkommen.
Uebrigens hab ich mit NV genauso gute Beziehungen wie zu PVR.
Spake
2003-01-25, 17:39:30
spielen wir ohr abkauen :-D "seufz"
irgendwie reden wir aneinander vorbei?!
irgendwie scheinst du meine ganzen ideen nett zu verstehen oder zu überlesen(gillt wohl auch für mich -> an dieser stelle ein entschuldigung)
-so nja ein konsolenchip muss ja nicht high-end sein wenn man in den chip ordentlich anpassungsmöglichkeiten einbaut
immerhin kann doom3 auf der R200 dank PS 1.4 schneller sein als bei der G3
deshalb muss es ja nett so gewesen sein dass powerVr in die Dreamcast einen superchip eingebaut haben sondern einen an den man das spiel gut anpassen kann und dann superbe perf rausholen kann
schließlich ist die NV2A ja besser als der Flipper aber dennoch sehen die games noch ziemlich ähnlich aus weil noch nicht richtig optimiert wurde
und jaaa ich sag NICHTS gegen dx9 bei TBDR so zum letzten mal hoff ich
-joa aber irgendwie muss ich da was missverstehen:
ist der MBX nicht für handhelds und nicht für notebooks
so ein chip muss ja stromsparend sein kann kein transistorenmonster sein usw.
ja und wie du so schön sagst basiert der MBX auf desktopchips und hat somit keinen einfluss auf den high-end-desktop-markt weil er ja dort oder im mainstream-breich seine technik sucht
ich meine am anfang gings ja darum ob PowerVr in den high-end markt will und deshalb frag ich mich was der MBX damit zu tun hat
-so hier beziehe ich mich auf darauf das es scheiße wäre einen chip zu bauen welcher eigentlich high-end sein sollte und dann eben aufgrund der perf oder des partners im mainstream-bereich verkauft werden soll
dass wäre dann nicht mehr so toll
(R9500 im mainstream ist nett so rentabel)
-
- nja matrox hat nunmal alle wichtigen sachen des chpbauens vergessen
was wäre wenn die Series 5 1 Speicher-Controler kein LMA/HyperZ 4x4 hat und etc.
quasi eine parhelia als TBDR mit 80M transistoren
die parhelia dient nur als beispiel wie sehr man ein chipdesign versauen kann wenn man lang nicht so einen high-end chip gebaut hat
-"außerdem brauchen sie auch einen guten pertner oder machen alles selbst und zahlen nvidia-like 400 Mil für die chips
;-D"
für die chips hab ich geschrieben muss ich denn immer alles ausschreiben[anscheinend] und dort brauchen sie eben einen tollen partner welcher genug kapital und erfahrung hat um einen high-end chip zu machen etc.
loewe
2003-01-25, 20:37:01
Originally posted by Spake
spielen wir ohr abkauen :-D "seufz"
irgendwie reden wir aneinander vorbei?!
irgendwie scheinst du meine ganzen ideen nett zu verstehen oder zu überlesen(gillt wohl auch für mich -> an dieser stelle ein entschuldigung)
-so nja ein konsolenchip muss ja nicht high-end sein wenn man in den chip ordentlich anpassungsmöglichkeiten einbaut
immerhin kann doom3 auf der R200 dank PS 1.4 schneller sein als bei der G3
deshalb muss es ja nett so gewesen sein dass powerVr in die Dreamcast einen superchip eingebaut haben sondern einen an den man das spiel gut anpassen kann und dann superbe perf rausholen kann
Es hängt immer von der Console ab, aber auf jeden Fall ist der Markt lange nicht so schnelllebig. Ein Consolenchip muss auf jeden Fall für die nächsten fünf Jahre reichen und da sollte man recht gut überlegen was man tut.
PowerVR entwickelt Chips für alles was gebraucht wird, geht es um eine Console wird ein Chip entwickelt, der die Parameter bringt die dort gefordert werden.
Bezüglich Doom3, die Engine sollte auf TBDRs sehr gut laufen können. Im zweiten Pass ist zwar Overdraw kein Problem mehr und somit kann ein TBDR seinen Vorteil hier nicht ausspielen, aber schon der erste Pass sollte auf Grund des massiven Gebrauchs von Stencelops auf einem TBDR sehr schnell sein, hier haben solche Chips gewaltige Vorteile. Was aber nichts bezüglich KYRO bedeuten soll, ich denek zwar das Doom3 auf KYRO laufen wird, aber wie schnell dieser doch sehr stark füllratenlimitierte Chip dort sein wird, kann ich nicht beurteilen.
ist der MBX nicht für handhelds und nicht für notebooks
so ein chip muss ja stromsparend sein kann kein transistorenmonster sein usw.
ja und wie du so schön sagst basiert der MBX auf desktopchips und hat somit keinen einfluss auf den high-end-desktop-markt weil er ja dort oder im mainstream-breich seine technik sucht
ich meine am anfang gings ja darum ob PowerVr in den high-end markt will und deshalb frag ich mich was der MBX damit zu tun hat
-so hier beziehe ich mich auf darauf das es scheiße wäre einen chip zu bauen welcher eigentlich high-end sein sollte und dann eben aufgrund der perf oder des partners im mainstream-bereich verkauft werden soll
dass wäre dann nicht mehr so toll
(R9500 im mainstream ist nett so rentabel)
MBX hat nichts oder auch alles damit zu tun!
Niemand hier kann eindeutig sagen welchen Markt PowerVR mit Serie5 anpeilt, es gibt dort keine offiziellen Angaben, nur Gerüchte aber die aus durchaus zuverlässiger Quelle.
MBX ist eine konsequente Weiterentwicklung von Serie3 für einen ganz bestimmten Markt. Es sind dort Teile der alten Serie3 weggelassen worden, aber auch Dinge hinzu gefügt worden.
Es geschieht hier immer alles nach Bedarf, dort gibt es recht wenige Zufälle.
- nja matrox hat nunmal alle wichtigen sachen des chpbauens vergessen
was wäre wenn die Series 5 1 Speicher-Controler kein LMA/HyperZ 4x4 hat und etc.
quasi eine parhelia als TBDR mit 80M transistoren
die parhelia dient nur als beispiel wie sehr man ein chipdesign versauen kann wenn man lang nicht so einen high-end chip gebaut hat
Ich denke mal du verstehst PowerVR nicht, dort es wirklich kein LMA/HyperZ, es wird aber auch nicht gebraucht!
Die Effektivität der PowerVR Chips ist bisher von keinem anderen Chip erreicht worden, die Chips setzen gut und gerne 95% ihrer Füllrate unter allen Umständen in echte Füllrate um. Wenn die dazu gebauten VS und PS diese Leistung abarbeiten können, woran ich keine Zweifel habe, ist ein TBDR von PowerVR nur sehr selten langsamer als jeder gleichgetakteter IMR.
-"außerdem brauchen sie auch einen guten pertner oder machen alles selbst und zahlen nvidia-like 400 Mil für die chips
;-D"
für die chips hab ich geschrieben muss ich denn immer alles ausschreiben[anscheinend] und dort brauchen sie eben einen tollen partner welcher genug kapital und erfahrung hat um einen high-end chip zu machen etc.
PowerVR hat auch aus den alten Fehlern gelernt und btw, nicht alle Partner sind bisher bekannt.
ActionNews
2003-01-25, 21:25:30
Originally posted by Spake
(...)
-so nja ein konsolenchip muss ja nicht high-end sein wenn man in den chip ordentlich anpassungsmöglichkeiten einbaut
immerhin kann doom3 auf der R200 dank PS 1.4 schneller sein als bei der G3
deshalb muss es ja nett so gewesen sein dass powerVr in die Dreamcast einen superchip eingebaut haben sondern einen an den man das spiel gut anpassen kann und dann superbe perf rausholen kann
schließlich ist die NV2A ja besser als der Flipper aber dennoch sehen die games noch ziemlich ähnlich aus weil noch nicht richtig optimiert wurde
(...)
Hmm..wenn ich mir die Konsolenchips so ansehe, dann sehe ich z.B. bei der XBox, dass MS damals Nvidias Highendchip verbaut haben. Der hat DX8. Wenn man also einen solchen Markt anstrebt, dann braucht man einen Highendchip, denn damit muss man sich schließlich auch messen! Sonst kann man bei der Auftragsvergabe nicht mit Nvidia oder ATi konkurieren!
CU ActionNews
Ailuros
2003-01-26, 01:56:44
spielen wir ohr abkauen :-D "seufz"
irgendwie reden wir aneinander vorbei?!
Wie waere es wenn Du mal zur Abwechslung versuchen wuerdest nachzudenken?
so nja ein konsolenchip muss ja nicht high-end sein wenn man in den chip ordentlich anpassungsmöglichkeiten einbaut
immerhin kann doom3 auf der R200 dank PS 1.4 schneller sein als bei der G3
deshalb muss es ja nett so gewesen sein dass powerVr in die Dreamcast einen superchip eingebaut haben sondern einen an den man das spiel gut anpassen kann und dann superbe perf rausholen kann
schließlich ist die NV2A ja besser als der Flipper aber dennoch sehen die games noch ziemlich ähnlich aus weil noch nicht richtig optimiert wurde
Obwohl ich es auch schon gesagt habe, und Loewe es auch wiederholt hat: Konsolen muessen eine grosse Lebenszeit haben, 4 bis 5 Jahre minimal.
Zweitens wuerde ich an Deiner Stelle Carmacks Aussagen was R200/NV20/5 betrifft nochmal genauer durchlesen, da er genau das Gegenteil behauptet hat.
Drittens: Dreamcast kam zu Zeiten der Voodoo2 raus und konkurrierte um den Vertrag mit 3Dfx. Nochmal (so langsam wird's langweilig):
32bit gegen 16bit bei 3Dfx
1024x1024 gegen 256x256 Texturen
bi-/trilinear/anisotropic gegen bilinear
soll ich weitermachen? Oder willst Du mir weissmachen dass 3dfx schon zu V2 Zeiten FSAA hatte? Dreamcast hatte es; ob Du es nun einsehen willst oder nicht der chip war fortschrittlich seiner Zeit und das um eine groessere Lebenszeit zu garantieren.
Hast Du ueberhaupt die leiseste Ahnung wann Dreamcast vorgestellt wurde? Jahre danach ist es wohl normal dass die Xbox mit dx8.1 Komplianz vorgestellt wird oder?
joa aber irgendwie muss ich da was missverstehen:
ist der MBX nicht für handhelds und nicht für notebooks
so ein chip muss ja stromsparend sein kann kein transistorenmonster sein usw.
Ja und gehoert zur Serie3 + Vertex Prozessor. Stromverbrauch 50mW. Na wunder Dich mal wie auf so ein klitzekleines Ding ein VS draufpasst der mehr Instruktionen unterstuetzt als ein NV25 und trotzdem noch bis zu 480M FLOPS faehig ist.
ja und wie du so schön sagst basiert der MBX auf desktopchips und hat somit keinen einfluss auf den high-end-desktop-markt weil er ja dort oder im mainstream-breich seine technik sucht
Und da sie schon auf dx8.1 laufen, wird wohl der naechste MBX auf dx7 zurueckgehen?
-so hier beziehe ich mich auf darauf das es scheiße wäre einen chip zu bauen welcher eigentlich high-end sein sollte und dann eben aufgrund der perf oder des partners im mainstream-bereich verkauft werden soll
dass wäre dann nicht mehr so toll
(R9500 im mainstream ist nett so rentabel)
Hattest sicher nie ne Eins in Logik hm?
Der erste chip der von Serie5 rauskommt wird fuer den high end Markt sein, wobei billigere mainstream Varianten folgen werden. Und nein es muss nicht wie beim 9500 sein, da es das erste Mal ist dass ein IHV eine so unrentable Methode anwendet. Klingt's besser jetzt?
- nja matrox hat nunmal alle wichtigen sachen des chpbauens vergessen
was wäre wenn die Series 5 1 Speicher-Controler kein LMA/HyperZ 4x4 hat und etc.
quasi eine parhelia als TBDR mit 80M transistoren
die parhelia dient nur als beispiel wie sehr man ein chipdesign versauen kann wenn man lang nicht so einen high-end chip gebaut hat
www.pvrdev.com
Dringend ein paar whitepapers und Dokumente durchlesen, der Unterschied zwischen immediate mode und display list renderer als Anfang wuerde helfen.
80M Tranistoren? Ja fuer mainstream hoechstwahrscheinlich.
Ich wiederhole es zum letztem Mal Serie5 ist ein Design-Paket, genauso wie bei NV z.B. die NV3x Serie, wobei der Ur-Design fuer jeden Markt angepasst wird.
Ja nach den Anspruechen von jedem Markt wird der Design dann auch dementsprechend angepasst.
MBX Pro = 3D, 2D and video acceleration for high performance standard definition television (SDTV) or high definition television (HDTV) set-top boxes and consumer applications for very-high performance high-end 3D.
MBX = 3D, 2D and video acceleration for performance mobile and entry level digital set-top boxes
MBX Lite = 3D, 2D and video acceleration for power-critical, cost-sensitive, entry level mobile applications.
M24VA = MPEG-4/WMV/H264 video decode assist
M2VX = MPEG-2 video decode
PDP = Flexible pixel display pipeline for set-top box, car information system or handheld applications
2D Pro = High-performance dedicated 2D and video acceleration engine
2D CIS = 2D with car information specific capabilities
TVE = Digital TV encoder for the PAL and NTSC TV standards
PMX (high-end/mid-range) = PC graphics cores for standalone designs
CSX = PC graphics cores for chipset designs
ARX = Arcade targeted graphics cores
Spake
2003-01-26, 13:48:30
nochmal wir reden aneinander vorbei da du irgendwie meine posts nett ganz durchliest
-die R200 kann gewisse operationen schneller als die nv20 durchführen bzw. besser
so jetzt mal scharf nachdenken was hat die R200 mit PowerVr zu tun -> nix, gar nix
soll nur aufzeigen dass man im konsolenmarkt nicht einen chip mit reiner rohleistung braucht sondern einen an welchen man ein spiel stark anpassen kann und je besser man ein game an so einen chip anpasst desto besser siehts aus blablabla
und es ist mir schnuppe mit wem powerVr konkuriert hat da es nur darum geht das man im konsolenmarkt nicht den high-end-chip verbauen muss sondern eher dass man dort auch einen low-cost chip verbauen kann an welchen man ein spiel erst richtig anpassen muss
schließlich konnte die grafik auch mit der der PS2 konkurieren
-MBX hat ja wie du sagst nix mit high-end zu tun und ich kaue nur drauf rum weil du es in den anderen posts so ausgedrückt hattest als ob der MBX irgendwas mit high-end-desktop zu tun hat
-versuch mal meine übergänge überhaupt überhaupt zu raffen:
der R9500 hat 107M und muss so billig verbaut werden weil sie dort sonst nix anzubieten haben-> was könnte das mit powerVr zu tun haben?:
nehmen wir an sie müssen ein Tmonster bauen damit sie im high-end segment ankommen können von der leistung und dieses müssen sie dann auch im mainstreambereich verkaufen
so du logikass sag mir nun ob das rentabel ist?!
-so damit dus raffst ich benutze die ganze weit und immer wenn ich etwas schreibe beweise um meine theorien zu erklären
was die parhelia damit zu tun hat-> so kann man einen chip mit T vollpumpen ohne das eine superbe leistung herauskommt
was könnte das wohl mit powerVr zu tun haben
was ist wenn sie "vergessen" haben wie man einen tollen chip baut und ihn total vollpumpen und ihn dann aufgrund der leistung unrentabel verkaufen zu müssen
so du könntest dir meinen satz
"irgendwie reden wir aneinander vorbei?!" mal zu hertzen nehmen und bevor du stumpfsinnige kommentare schreibst mal drübernachdenken was ich meine und auf was ich mich beziehe
dann gäbs vielleicht auch keine quote-Orgie wie die ganze zeit über
ActionNews
dafür hat Ati in der dreamcast einen "billig"chip verbaut und kommen dennoch gut an und können auch mit der Xbox konkurieren zu einem weit niedrigeren preis und außerdem benutz sowieso keiner PS/VS beziehungsweise kann man dass auch ohne dx8
SuperMarioSunshine oder UT2003 haben auch ne geile grafik inklusive der meißtens benutzten "Wassereffekte"
loewe
matrox dient nur als beispiel wie man ein chipdesign versauen kann z.B mit 4x4 und dass PowerVr es genauso versauen kann
dass mit dem LMA/hyperZ war da vielleicht missverständlich eingebaut
ActionNews
2003-01-26, 15:36:50
Originally posted by Spake
(...)ActionNews
dafür hat Ati in der dreamcast einen "billig"chip verbaut und kommen dennoch gut an und können auch mit der Xbox konkurieren zu einem weit niedrigeren preis und außerdem benutz sowieso keiner PS/VS beziehungsweise kann man dass auch ohne dx8
SuperMarioSunshine oder UT2003 haben auch ne geile grafik inklusive der meißtens benutzten "Wassereffekte"
(...)
Im DreamCast steckt ein PowerVR Chip! Aber ich glaube du meinst den GameCube von Nintendo. Du willst mir aber doch nicht weiß machen, dass der Flipper-Chip von ArtX/Ati KEIN Highendchip ist, oder? Nur weil er keine Pixel Shader hat ist er kein Midrange Chip. Der hat dafür ganz andere Highend-Features!
CU ActionNews
Ailuros
2003-01-26, 15:59:41
nochmal wir reden aneinander vorbei da du irgendwie meine posts nett ganz durchliest
Obwohl Paragraphen erwuenscht waeren, verpass ich kaum einen Satz da auf fast alles ge-quotet und beantworted wird bis jetzt.
die R200 kann gewisse operationen schneller als die nv20 durchführen bzw. besser
so jetzt mal scharf nachdenken was hat die R200 mit PowerVr zu tun -> nix, gar nix
soll nur aufzeigen dass man im konsolenmarkt nicht einen chip mit reiner rohleistung braucht sondern einen an welchen man ein spiel stark anpassen kann und je besser man ein game an so einen chip anpasst desto besser siehts aus blablabla
Ich deute nochmal auf Carmack's Aussagen was die Unterschiede zwischen R200 und NV20/5 betrifft (siehe single pass vs multipass) und ja das ist irrelevant zu PVR.
Zukuenftige Konsolen werden minimal dx9 Kompliant sein, wenn sie gegen den Rest des Markts konkurrieren moechten.
und es ist mir schnuppe mit wem powerVr konkuriert hat da es nur darum geht das man im konsolenmarkt nicht den high-end-chip verbauen muss sondern eher dass man dort auch einen low-cost chip verbauen kann an welchen man ein spiel erst richtig anpassen muss
Selbstverstaendlich da der Unterschied zwischen dem damaligen 3dfx und PVR Angebot in Spezifikationen Deinen Argumenten wenig hilft.
16bit und nur 256x256 grosse Texturen waren zu wenig fuer 1998. Wenn Du die parallele nicht verstehen kannst, dann hat es sowieso keinen Sinn.
Das Zeug mit den sogenannten "Anpassungen" moechte ich bitter erstmal erklaert haben. Ein chip egal fuer welche Platform kann nur das was er kann.
schließlich konnte die grafik auch mit der der PS2 konkurieren
Wann wurde Dreamcast und wann PS2 veroeffentlicht? Liegt dieser selbe Satz nicht allzu nahe an der Logik dass man hohe Spezifikationen fuer Konsolen braucht um deren Lebenszeit auch effektiver zu machen? Mit 3dfx waere dabei Sega im Eimer gewesen (siehe nochmal oben).
MBX hat ja wie du sagst nix mit high-end zu tun und ich kaue nur drauf rum weil du es in den anderen posts so ausgedrückt hattest als ob der MBX irgendwas mit high-end-desktop zu tun hat
MBX HR-S ist ein high end PDA/mobile chip fuer heutige Massnahmen, mit fast 40% mehr Fuellrate als die KYRO II selber. Der Nachfolger jedoch ist relevant zu den zukuenftigen Forderungen dieses Markts. Hierbei nochmal MBX= Serie3 + ein paar Kleinigkeiten von Serie4.
versuch mal meine übergänge überhaupt überhaupt zu raffen:
der R9500 hat 107M und muss so billig verbaut werden weil sie dort sonst nix anzubieten haben-> was könnte das mit powerVr zu tun haben?:
nehmen wir an sie müssen ein Tmonster bauen damit sie im high-end segment ankommen können von der leistung und dieses müssen sie dann auch im mainstreambereich verkaufen
so du logikass sag mir nun ob das rentabel ist?!
Wo zum Teufel hab ich behauptet dass ATI's R300 Methode rentabel ist? Weiterhin bist nur Du dabei steckengeblieben dass wenn es ATI so macht, kann es bei den anderen gar nicht so sein.
Dabei hast Du mit Absicht uebersehen dass NVIDIA nicht die gleiche Politik benutzt, und dass es auch dass erste Mal dass ein IHV mit so einer Loesung ankommt. Deshalb braucht ATI auch RV350 auf jeden Preis.
Nochmal:
NVIDIA wird fuer mainstream keine NV30 chips benutzen.
NV30=
FX 5800 Ultra= 500/1000MHz - 8*1 (120M trans)
FX 5800 = 400/800MHz - 8*1 (120M trans)
NV31=
>350/700MHz - 4*1 (~80M trans)
Was gibt es hier nicht zu verstehen?
R300 = 9500/9500PRO/9700/9700PRO (wobei bald anstatt 9500= RV350)
NV30 = 5800/5800U
NV31 = (was immer auch)
-so damit dus raffst ich benutze die ganze weit und immer wenn ich etwas schreibe beweise um meine theorien zu erklären
was die parhelia damit zu tun hat-> so kann man einen chip mit T vollpumpen ohne das eine superbe leistung herauskommt
was könnte das wohl mit powerVr zu tun haben
was ist wenn sie "vergessen" haben wie man einen tollen chip baut und ihn total vollpumpen und ihn dann aufgrund der leistung unrentabel verkaufen zu müssen
Was trotzdem ein verpatztes Beispiel ist. Parhelia ist ein veralteter 4*4 Design, bis zu 4-layer MT ausgesetzt und hat keine Bandbreiten schonende Techniken.
TBDR's kommen (mit Ausnahme vielleicht >dx9) normalerweise genauso gut mit 1TMU/pipe aus, koennen theoretisch sehr viele Texturen per pass auflegen ohne dass Bandbreite eine so wichtige Rolle spielt und sind von Grund auf dank der Architektuer zum schonen von Bandbreite ausgelegt und dass schon seit 1996.
so du könntest dir meinen satz
"irgendwie reden wir aneinander vorbei?!" mal zu hertzen nehmen und bevor du stumpfsinnige kommentare schreibst mal drübernachdenken was ich meine und auf was ich mich beziehe
dann gäbs vielleicht auch keine quote-Orgie wie die ganze zeit über
Du kannst gerne was ich aufgefuehrt habe (chip codenamen mitinbegriffen) Deinen "Quellen" weiterleiten und fragen wie unkorrekt diese sind.
Dabei kannst Du noch dazufuegen dass ich behaupte dass die Karte ueber einen digitalen TV/video playback SoC verfuegen wird, der bis zu vier hardware tasks zur gleichen Zeit durchfuehren kann.
Spake
2003-01-26, 19:08:58
"" nochmal wir reden aneinander vorbei da du irgendwie meine posts nett ganz durchliest
"
Obwohl Paragraphen erwuenscht waeren, verpass ich kaum einen Satz da auf fast alles ge-quotet und beantworted wird bis jetzt.""
joa beantworten tust du alles nur falsch oder sagen wir es mal so du redest von sachen die irrelevant für mein beispiel sind
"" quote:die R200 kann gewisse operationen schneller als die nv20 durchführen bzw. besser
so jetzt mal scharf nachdenken was hat die R200 mit PowerVr zu tun -> nix, gar nix
soll nur aufzeigen dass man im konsolenmarkt nicht einen chip mit reiner rohleistung braucht sondern einen an welchen man ein spiel stark anpassen kann und je besser man ein game an so einen chip anpasst desto besser siehts aus blablabla "
Ich deute nochmal auf Carmack's Aussagen was die Unterschiede zwischen R200 und NV20/5 betrifft (siehe single pass vs multipass) und ja das ist irrelevant zu PVR.
Zukuenftige Konsolen werden minimal dx9 Kompliant sein, wenn sie gegen den Rest des Markts konkurrieren moechten. "
so krempeln wirs mal auf "gewisse operationen können schneller...besser ausgeführt werden"
wieso dass weil man ein spiel an eine GraKa anpasst(Stalker mit nv30 sieht auch besser aus)
es ist irrelevant für PowerVr?! zum einen ja weil es nur ein BEISPIEL ist
zum anderen ist es relevant weil man sieht was durch anpassung möglich ist
z.B. Ps-effekte bei der kyro sind mit anpassung möglich -> mit anpassung
"" und es ist mir schnuppe mit wem powerVr konkuriert hat da es nur darum geht das man im konsolenmarkt nicht den high-end-chip verbauen muss sondern eher dass man dort auch einen low-cost chip verbauen kann an welchen man ein spiel erst richtig anpassen muss
"
Selbstverstaendlich da der Unterschied zwischen dem damaligen 3dfx und PVR Angebot in Spezifikationen Deinen Argumenten wenig hilft.
16bit und nur 256x256 grosse Texturen waren zu wenig fuer 1998. Wenn Du die parallele nicht verstehen kannst, dann hat es sowieso keinen Sinn.
Das Zeug mit den sogenannten "Anpassungen" moechte ich bitter erstmal erklaert haben. Ein chip egal fuer welche Platform kann nur das was er kann. ""
3Dfx hat nix damit zu tun es geht hier um powerVr und dass die voodoo 2 so scheiße war ist doch schnuppe weil wir hier nicht über die frage was besser für die Dreamcast gewesen wäre streiten sondern darum dass man keinen high-end chip braucht in einer konsole um tolle und schnelle grafik zu zaubern wenn man Anpassungen vornimmt
z.B. benutz man dann bei einem spiel keine effekte welche zu viel leistung verbraten sondern eben effekte welche der chip schneller ausführen kann oder effekte welche andere konsolenchips nicht darstellen können
was mit den anderen effekten gemeint ist wird schnell klar wenn man sich die heutige konsolensituation anschaut:
die dx8 effekte werden nicht richtig genutz oder nicht stark genug weil diese eben nicht bei den anderen konsolen vorhanden sind und ein spiel erst an die Xbox angepasst werden muss
"" schließlich konnte die grafik auch mit der der PS2 konkurieren
"
Wann wurde Dreamcast und wann PS2 veroeffentlicht? Liegt dieser selbe Satz nicht allzu nahe an der Logik dass man hohe Spezifikationen fuer Konsolen braucht um deren Lebenszeit auch effektiver zu machen? Mit 3dfx waere dabei Sega im Eimer gewesen (siehe nochmal oben). ""
im konsolenmarkt kann auch eine ältere konsole mit einer neueren konkurieren wenn man eben die eigenheiten des chips ausnutzt(bei der Xbox eben dx8)
"" MBX hat ja wie du sagst nix mit high-end zu tun und ich kaue nur drauf rum weil du es in den anderen posts so ausgedrückt hattest als ob der MBX irgendwas mit high-end-desktop zu tun hat"
MBX HR-S ist ein high end PDA/mobile chip fuer heutige Massnahmen, mit fast 40% mehr Fuellrate als die KYRO II selber. Der Nachfolger jedoch ist relevant zu den zukuenftigen Forderungen dieses Markts. Hierbei nochmal MBX= Serie3 + ein paar Kleinigkeiten von Serie4. ""
PDA chip mit keinem einfluß auf den desktopmarkt weil er dort nur seine technologie herholt
"" versuch mal meine übergänge überhaupt überhaupt zu raffen:
der R9500 hat 107M und muss so billig verbaut werden weil sie dort sonst nix anzubieten haben-> was könnte das mit powerVr zu tun haben?:
nehmen wir an sie müssen ein Tmonster bauen damit sie im high-end segment ankommen können von der leistung und dieses müssen sie dann auch im mainstreambereich verkaufen
so du logikass sag mir nun ob das rentabel ist?! "
Wo zum Teufel hab ich behauptet dass ATI's R300 Methode rentabel ist? Weiterhin bist nur Du dabei steckengeblieben dass wenn es ATI so macht, kann es bei den anderen gar nicht so sein.
Dabei hast Du mit Absicht uebersehen dass NVIDIA nicht die gleiche Politik benutzt, und dass es auch dass erste Mal dass ein IHV mit so einer Loesung ankommt. Deshalb braucht ATI auch RV350 auf jeden Preis."
wenn powerVr so ein Tmonster bauen müsste und dies im mainstream segment anbieten müsste(sollten sie keine ressourcen haben...) dann wäre es nett rentabel für sie
für so etwas unrentables ist die R9500 ein gutes beispiel
ich bin mir über die marksituation bewusst und verdammt noch mal willst du einfach nciht verstehen dass du beispiele nicht extra kommentieren musst sondern dass sie eben nur beispiele sind welche verdeutlichen sollen was ich meine
"" -so damit dus raffst ich benutze die ganze weit und immer wenn ich etwas schreibe beweise um meine theorien zu erklären
was die parhelia damit zu tun hat-> so kann man einen chip mit T vollpumpen ohne das eine superbe leistung herauskommt
was könnte das wohl mit powerVr zu tun haben
was ist wenn sie "vergessen" haben wie man einen tollen chip baut und ihn total vollpumpen und ihn dann aufgrund der leistung unrentabel verkaufen zu müssen "
Was trotzdem ein verpatztes Beispiel ist. Parhelia ist ein veralteter 4*4 Design, bis zu 4-layer MT ausgesetzt und hat keine Bandbreiten schonende Techniken.
TBDR's kommen (mit Ausnahme vielleicht >dx9) normalerweise genauso gut mit 1TMU/pipe aus, koennen theoretisch sehr viele Texturen per pass auflegen ohne dass Bandbreite eine so wichtige Rolle spielt und sind von Grund auf dank der Architektuer zum schonen von Bandbreite ausgelegt und dass schon seit 1996. ""
du gehst schon wieder auf das beispiel ein und nett auf den hintergedanken
wir sind im Spekuforum und deshalb spekuliere ich dass powerVr genauso wie matrox ihren high-endchip verpatzen können
matrox ist doch nur ein beispiel auf dass du NICHT eingehen sollst
so bitte, bitte, bitte nimm dir diesen post mal an und lese ihn 3 mal durch
seit anfang dieses gespräches reden wir aneinander vorbei
du musst doch nett die beispiele kommentieren sondern den hintergedanken
wenn ich schreibe dass matrox einen scheißchip gebaut hat welcher nett punkten kann und dass das powerVr auch passieren kann dann sollst du nett mir sagen was die parhelia für eine architektur hat
das weis ich auch so
sondern dass was ich damit aussagen will:
powerVr kann ihren chip auch in den sand setzen
Ailuros
2003-01-27, 03:27:54
Gott da krieg ich ja Kopfschmerzen die Quotes heraussuchen zu muessen.
joa beantworten tust du alles nur falsch oder sagen wir es mal so du redest von sachen die irrelevant für mein beispiel sind
Nein ich finde das Katz und Maus Spiel hier sowieso amuesant. Da kannst Du Dir selber lange einbilden dass Deine Beispiele auch Sinn machen ;)
so krempeln wirs mal auf "gewisse operationen können schneller...besser ausgeführt werden"
Wobei Du aber total unfaehig bist, voerwaehnte Operationen erstmal zu definieren und auch ein paar Details aufzuweisen. R200 ist nur schneller als NV20 mit bilinearem Aniso. Die sechs Texturen pro pass im PS gegen nur vier im NV20 bringen der R200 bis jetzt gar nichts.
Was fuer "Operationen"? Blinddarm-Operationen?
wieso dass weil man ein spiel an eine GraKa anpasst(Stalker mit nv30 sieht auch besser aus)
Hearsay; da ich guten Grund habe zu bezweifeln dass Du schon ne FX hast.
es ist irrelevant für PowerVr?! zum einen ja weil es nur ein BEISPIEL ist
zum anderen ist es relevant weil man sieht was durch anpassung möglich ist
z.B. Ps-effekte bei der kyro sind mit anpassung möglich -> mit anpassung
Wenn Du mit PS pixel shader meinen solltest, dann waere ein software Fallback fuer EMBM z.B. eine Loesung, sonst werden PS nicht "angepasst" oder "emuliert", ausser man hat unmenschliche Geduld (oder auch FPM=frames per minute).
3Dfx hat nix damit zu tun es geht hier um powerVr und dass die voodoo 2 so scheiße war ist doch schnuppe weil wir hier nicht über die frage was besser für die Dreamcast gewesen wäre streiten sondern darum dass man keinen high-end chip braucht in einer konsole um tolle und schnelle grafik zu zaubern wenn man Anpassungen vornimmt
Erstmal war die Voodoo2, ueberhaupt zwei boards in SLI fuer ihre Zeit eine kleine Revolution in 3D Leistung, falls Du schon damals was mit der Szene zu tun hattest.
Zweitens: definier mal "Anpassungen".
Drittens: Konsolen brauchen hohe Spezifikationen um laengere Lebenszeit zu garantieren. Es war schon immer so und es wird auch so bleiben.
z.B. benutz man dann bei einem spiel keine effekte welche zu viel leistung verbraten sondern eben effekte welche der chip schneller ausführen kann oder effekte welche andere konsolenchips nicht darstellen können
Dabei liegt der Xbox chip zwischen NV20 und NV25, mit dx8.1 Komplianz und wurde vor zwei Jahren vorgefuehrt. Gib mir einen guten Grund warum zukuenftige Konsolen gleiche oder sogar niedrigere Spezifikationen haben sollten.
was mit den anderen effekten gemeint ist wird schnell klar wenn man sich die heutige konsolensituation anschaut:
die dx8 effekte werden nicht richtig genutz oder nicht stark genug weil diese eben nicht bei den anderen konsolen vorhanden sind und ein spiel erst an die Xbox angepasst werden muss
Und was ist da verschieden im Vergleich zum PC desktop Markt? Haelt das IHV's davon ab schon dx9.0 Hartware auf dem Markt zu haben? Gibt es schon ein volles dx8 Spiel fuer den PC? Ja ein paar Reflektionen hier und da fuer Pfuetzen zaehlen nicht.
Denkst Du vielleicht dass die zwei Vertex Shader Einheiten auf der Xbox nur dahocken und sich langweilen? Der UT2003 Port fuer Xbox wird von diesen um vieles profitieren, da je mehr Geometrie desto besser. Gleiches gilt fuer Multisampling, wobei es nur seit dx8 fuer Konsolen und PC's verfuegbar gemacht wurde.
Konsolen waren stets ungefaehr parallel in Spezifikationen mit dem PC space, mit wenigen selbstverstaendlichen Unterschieden. Nicht nur fuer die notwendige Langlebigkeit einer Konsole, sondern auch fuer die zahlreichen Spiele-Ports vom PC auf Konsolen, ueberhaupt fuer die eher anspruchsvollen Spiele. Unter der Voraussetzung dass die Xbox auch volle 5 Jahre ausleben kann, wird die Konsole sehr wohl auch volle dx8 Spiele rennen muessen, was auch das Ziel jedes IHV's im gegebenen Fall ist.
Dx9 geht dann um so einiges weiter; da kann man nicht via Software dx9 MRT's mit FP32 "anpassen". Wenn ein heutiger chip mehr als 10 komplexe Blend-Operationen ausfuehren muss und dazu noch zahllose shader Instruktionen, ist die Genauigkeit schnell im Eimer; nicht zu sprechen was Bandbreite oder Leistung betrifft.
DX9 mag momentan nur ein weiter Traum fuer Spiele darstellen und fuer den End-Verbraucher so gut wie gleichgueltig; die erhoehten Fuell-/Taktraten, Bandbreite, Geometry-Throughput, Flexibilitaet etc etc. dann eher nicht. Ausser jemand glaubt dass die 19+GB/sec Bandbreite auf einer R300 total nutzlos sind fuer heute, und der Meinung ist dass High resolution AA + anisotropic nicht ideal ist, bei spielen.
Was gibt's noch schoenes in DX9 dass zwar Zeit brauchen wird bis implementiert, kann aber fuer tolle Effekte sorgen und zur gleichen Zeit eine Unmenge von Bandbreite ersparen? Hardware Displacement Mapping via on-chip adaptive Tesselation. Alles was man dazu braucht ist eine komplizierte Landschaft mit hunderten Tausenden von Polygonen. Ein chip der dann ueber HW DM verfuegt kann Geometrie generieren, so etwa wie Texturen behandeln, komprieren mit einer sehr hoehen Rate usw usw. "Single digit fps Anpassungen" waeren hier wohl auch ideal hm?
PDA chip mit keinem einfluß auf den desktopmarkt weil er dort nur seine technologie herholt
Ein Grund mehr dass der Nachfolger von MBX unbedingt zumindest dx9 braucht.
ich bin mir über die marksituation bewusst und verdammt noch mal willst du einfach nciht verstehen dass du beispiele nicht extra kommentieren musst sondern dass sie eben nur beispiele sind welche verdeutlichen sollen was ich meine
Ich mach es mal klarer: ich hab auesserst gute Beziehungen zu PowerVR und hab es auch nie versteckt. Daraus kannst Du Deine Schlussvolgerungen selber ziehen, aber ich kann Dir garantieren dass ich auf etwas nur bestehe wenn ich absolut sicher bin.
Da brauchst Du Dich nicht wundern dass Deine Beispiele so stark daneben sind, wenn Du zweimal mit dem gleichen oeden Argument ankommst, und dabei auch fast die gleiche Antwort bekommst. Aufregen brauchst Du Dich auch nicht darueber.
Falls es Serie5 auf die Ladentische zeitig schaffen sollte, kannst Du ja immer in der Zukunft auf das Thema zurueckkommen und dann sehen wir wer Recht hatte und wer nicht.
du gehst schon wieder auf das beispiel ein und nett auf den hintergedanken
wir sind im Spekuforum und deshalb spekuliere ich dass powerVr genauso wie matrox ihren high-endchip verpatzen können
matrox ist doch nur ein beispiel auf dass du NICHT eingehen sollst
Parhelia ist ein high-end chip? (Ok boeser Witz hehehe)
Wenn meine Oma Raeder haette, waere sie vielleicht ein Fahrrad. Klingt genauso logisch. :D
Spass beiseite: Parhelia war zu lange in Entwicklung und haette nie in dieser Form und so spaet auf den Markt kommen sollen. Der Punkt wo ich drauf bestehe dass das Beispiel genauso daneben ist: Parhelia fehlt genau dass was TBDR's schon seit vielen Jahren fundamental in ihrer Architektur mitinbegriffen haben.
Die Vor- und Nachteile eines heutigen TBDR haben wir schon hier in einem anderen Thread besprochen. Viel falsch machen koennen die da wirklich nicht; uebrigens wird die Zeitspanne zwischen Serie3 und 5 so gross sein, dass sie alle Zeit in der Welt haben alle moeglichen negativen Aspekte auszuarbeiten.
so bitte, bitte, bitte nimm dir diesen post mal an und lese ihn 3 mal durch
seit anfang dieses gespräches reden wir aneinander vorbei
du musst doch nett die beispiele kommentieren sondern den hintergedanken
Es klingt fast schon so als ob ich ein Kommunikations-Problem haben wuerde. Zugegeben mein Deutsch ist nicht in bester Form, aber es ist auch nicht unbedingt das schlimmste dass ich oft hier sehe.
wenn ich schreibe dass matrox einen scheißchip gebaut hat welcher nett punkten kann und dass das powerVr auch passieren kann dann sollst du nett mir sagen was die parhelia für eine architektur hat
Warum sehen Aepfel nicht wie Orangen aus? (fragt der Dichter :D )
sondern dass was ich damit aussagen will:
powerVr kann ihren chip auch in den sand setzen
Beruhigungspillen zweiter Schrank rechts ;)
Die Ironie der Sache ist, dass Du den Thread selber begonnen hast und zwar mit dem folgenden Post:
hätte PowerVr die Kiro3 rechtzeitig released wäre die Karte bestimmt der renste nvidia GeForce 4 Ti 4200- killer gewesen.
Vielleicht hätte sich ja eine ähnliche situation wie damals bei der Kiro 2 vs.
GeForce 2 GTS(GeForce 2 Ultra) bilden können.
die ti4200 hat ja eine 4x2 architektur mit 250/250 GPU und Ram
die kiro 3 hat eine 4x1 mit 250/250 und außerdem mit tiled based deferred rendering
es hätte ja sein können das in Directx7 benchmarks die kiro mehr als nur ebenbürtig ist
Klingt mir persoenlich nicht nach totaler Gleichgueltigkeit.
Have a nice day.
Spake
2003-01-27, 21:27:02
Originally posted by Ailuros
Nein ich finde das Katz und Maus Spiel hier sowieso amuesant. Da kannst Du Dir selber lange einbilden dass Deine Beispiele auch Sinn machen ;)
hmm besser als sich an keinen beispieln anzulehen ;-)
Spaß bei Seite:
dies ist kann kein Katz und Maus Spiel sein da ich dich versuche dich die ganze Zeit davon abringenzubringen meine beispiele zu kommentieren und antstatt dessen die ideen zu kommentieren aber schön dass du bestätigst dass du sie erkennen kannst =D
Originally posted by Ailuros
Wobei Du aber total unfaehig bist, voerwaehnte Operationen erstmal zu definieren und auch ein paar Details aufzuweisen. R200 ist nur schneller als NV20 mit bilinearem Aniso. Die sechs Texturen pro pass im PS gegen nur vier im NV20 bringen der R200 bis jetzt gar nichts.
Was fuer "Operationen"? Blinddarm-Operationen?
tjoa so was mein ich :
"e natürlicher ein Objekt wirken soll, desto höher sollte die Anzahl der angewendeten Texturen sein. Bis zu 6 kann der Radeon-Nachfolger gleichzeitig (Single Rendering Pass) verarbeiten, ansonsten sind mehrere Rendering Passes (Durchläufe) erforderlich. Mit dem Vertex-Teil des Smartshaders lässt sich die Anzahl der Rendering Passes wirkungsvoll reduzieren.
Durch Bump Mapping lassen sich die Darstellungsqualität von Oberflächen verbessern. Mit Pixel Shader von ATi kann man sogar verschiedene Bump Maps überlagern. Im Beispiel überlagern sich die radialen Wellen in der Mitte des Sees mit den Längswellen, die durch Wind entstehen. Das zugrunde liegende geometrische Modell besteht jedoch nur aus 4 Dreiecken - eine enorme Einsparung an Rechenpower.
Truform
Wie wir bereits im vorherigen Abschnitt beschrieben, übernimmt der neue ATi-Chip selbständig die Anwendung der N-Patches. Von der Spielesoftware kommen nur die drei Eckpunkte eines Dreiecks. Der Chip generiert pro Seite eines Dreiecks zwei neue Control Points (3 Seiten mal 2 Control Points ergibt 6) sowie einen in der Mitte. Pro Dreieck entstehen also 10 Control Points (3 Eckpunkte, 6 Punkte an den Seiten, 1 in der Mitte). Aus dem "klobigen" Dreieck entstehen demnach 9 Teildreiecke.
"
jeder chip besitz eigenheiten oder besondere merkmale an welche man bei konsolen ein spiel immer anpassen kann um damit die performance oder die bildqualität zu steigern
bei der R200 eben z.B. PS1.4 und Truform
bei der Kyro gibts es eben ein paar befehle mit der man dx8-like effekte darstellen kann
mit ?cube?-mapping kann man auch dx8-like effekte auf dx7 karten darstellen und zwar durch anpassen
denk mal scharf nach könnte dass zu besserer qualität oder leistung verhelfen?!
kommt dies oft im desktop-markt vor?
kommt es nicht sehr oft und viel öfter im konsolenmarkt vor?
Hearsay; da ich guten Grund habe zu bezweifeln dass Du schon ne FX hast.
Originally posted by Ailuros
Zweitens: definier mal "Anpassungen".
oben gemacht
Originally posted by Ailuros
Drittens: Konsolen brauchen hohe Spezifikationen um laengere Lebenszeit zu garantieren. Es war schon immer so und es wird auch so bleiben.
hmm der gamecube ist schön billig in der herstellung oder?
sind seine spezi hoch bzw weit über der alten PS2 ?
ist er dx7?
könnte es sein dass obwohl er schön billig ist trotzdem eine gute perf hat?
haben konsolen wirklich eine so lange lebenszeit?
2005 werden doch schon die nachfolger vorgestellt oder?
konsolen leben im gegensatz z.B. zu der R200 lange aber mittlerweile werden die produktionszyklen immer kürzer
Originally posted by Ailuros
Dabei liegt der Xbox chip zwischen NV20 und NV25, mit dx8.1 Komplianz und wurde vor zwei Jahren vorgefuehrt. Gib mir einen guten Grund warum zukuenftige Konsolen gleiche oder sogar niedrigere Spezifikationen haben sollten.
niedrigere spezi wahrscheinlich nicht aber es könnte wieder sein dass der nächste nintendo aufgrund des preises dx mäßig wieder unter microsoft liegen wird und sony scheint sowieos nix von dx oder opengl zu halten
microsoft wird sich hüten müssen damit sie bei einem preiskampf nicht wieder eine so teure konsole verkaufen müssen
Originally posted by Ailuros
Und was ist da verschieden im Vergleich zum PC desktop Markt? Haelt das IHV's davon ab schon dx9.0 Hartware auf dem Markt zu haben? Gibt es schon ein volles dx8 Spiel fuer den PC? Ja ein paar Reflektionen hier und da fuer Pfuetzen zaehlen nicht.
hmm wie wärs damit dass die hersteller auch gerne billige chips verbauen welche nicht alle features haben(könnte es sein dass die geforce 4 nur dx 7 hat?!)
aber eigentlich würde ich z.B. dx9 viel lieber in konsolen sehen als im desktop markt da bei konsolen diese features schneller benutzt werden
Originally posted by Ailuros
Denkst Du vielleicht dass die zwei Vertex Shader Einheiten auf der Xbox nur dahocken und sich langweilen? Der UT2003 Port fuer Xbox wird von diesen um vieles profitieren, da je mehr Geometrie desto besser. Gleiches gilt fuer Multisampling, wobei es nur seit dx8 fuer Konsolen und PC's verfuegbar gemacht wurde.
UT2003 ist vielleicht doch nur dx7 oder?!
was könnten also die VS machen?!
richtig die können ja T&L emulieren!
aber wozu dienen die eigentlich?!
hmm...
veilleicht für dx8-effekte
wo werden die im moment von konsolenspielen benutzt?!
und jetzt mal so als frage:
was haben sie bis jetzt microsoft gebracht außer dass sie die konsole teuer machen
Originally posted by Ailuros
Konsolen waren stets ungefaehr parallel in Spezifikationen mit dem PC space, mit wenigen selbstverstaendlichen Unterschieden. Nicht nur fuer die notwendige Langlebigkeit einer Konsole, sondern auch fuer die zahlreichen Spiele-Ports vom PC auf Konsolen, ueberhaupt fuer die eher anspruchsvollen Spiele. Unter der Voraussetzung dass die Xbox auch volle 5 Jahre ausleben kann, wird die Konsole sehr wohl auch volle dx8 Spiele rennen muessen, was auch das Ziel jedes IHV's im gegebenen Fall ist.
irgendwann kommen dx8 spiele für die xbox dessen bin ich mir sicher nur sie haben dafür nur 3-4 Jahre Zeit!
die frage ist ob sie noch schnell genug sind um diese vorzustellen bevor jeder bereits seine konsole gewählt hat
Originally posted by Ailuros
Dx9 geht dann um so einiges weiter; da kann man nicht via Software dx9 MRT's mit FP32 "anpassen". Wenn ein heutiger chip mehr als 10 komplexe Blend-Operationen ausfuehren muss und dazu noch zahllose shader Instruktionen, ist die Genauigkeit schnell im Eimer; nicht zu sprechen was Bandbreite oder Leistung betrifft.
hmm joa aber es gibt eben gewisse chips welche mehr beiten als die spezi und an die kann man ein game dann noch extra anpassen
bei der Xbox Next könnte so ein fall auftreten
Originally posted by Ailuros
DX9 mag momentan nur ein weiter Traum fuer Spiele darstellen und fuer den End-Verbraucher so gut wie gleichgueltig; die erhoehten Fuell-/Taktraten, Bandbreite, Geometry-Throughput, Flexibilitaet etc etc. dann eher nicht. Ausser jemand glaubt dass die 19+GB/sec Bandbreite auf einer R300 total nutzlos sind fuer heute, und der Meinung ist dass High resolution AA + anisotropic nicht ideal ist, bei spielen.
schon komisch oder mit diesem argument sagst du dass dx9 doch bei den chips egal ist und nur die rohpower zehlt
womit wir wieder bei meiner idee sind dass dx8 bei der Xbox im moment ziemlich sinnlos ist bzw. auch bei der Xbox Next anfangs sinnlos sein wird
Originally posted by Ailuros
Ein Grund mehr dass der Nachfolger von MBX unbedingt zumindest dx9 braucht.
hmm
sehe kein spiel welches dx8 vom MBX ausnutzt
Originally posted by Ailuros
Da brauchst Du Dich nicht wundern dass Deine Beispiele so stark daneben sind, wenn Du zweimal mit dem gleichen oeden Argument ankommst, und dabei auch fast die gleiche Antwort bekommst. Aufregen brauchst Du Dich auch nicht darueber.
beispiel bitte
Originally posted by Ailuros
Falls es Serie5 auf die Ladentische zeitig schaffen sollte, kannst Du ja immer in der Zukunft auf das Thema zurueckkommen und dann sehen wir wer Recht hatte und wer nicht.
aber da wir hier im spekuforum sinds werde ich gerne immer ans gegenteil glauben
allein schon wegen der quote
Originally posted by Ailuros
Parhelia ist ein high-end chip? (Ok boeser Witz hehehe)
nö sollte aber einer werden und matrox habens versaut und genauso gut könnte powerVr es versauen
Originally posted by Ailuros
Spass beiseite: Parhelia war zu lange in Entwicklung und haette nie in dieser Form und so spaet auf den Markt kommen sollen. Der Punkt wo ich drauf bestehe dass das Beispiel genauso daneben ist: Parhelia fehlt genau dass was TBDR's schon seit vielen Jahren fundamental in ihrer Architektur mitinbegriffen haben.
und Series 5 könnte genau das fehlern welches wichtig für seine perf und akzeptanz am markt ist
Originally posted by Ailuros
Die Vor- und Nachteile eines heutigen TBDR haben wir schon hier in einem anderen Thread besprochen. Viel falsch machen koennen die da wirklich nicht; uebrigens wird die Zeitspanne zwischen Serie3 und 5 so gross sein, dass sie alle Zeit in der Welt haben alle moeglichen negativen Aspekte auszuarbeiten.
sie könntens auch vermasseln
Originally posted by Ailuros
Es klingt fast schon so als ob ich ein Kommunikations-Problem haben wuerde. Zugegeben mein Deutsch ist nicht in bester Form, aber es ist auch nicht unbedingt das schlimmste dass ich oft hier sehe.
ich habe es immer so geshen und dass liegt nicht an deinem deutsch welches für ein forum OK ist
tu mir einen gefallen und beantworte alle meine post damit die posts noch länger werden
Spake
2003-01-28, 18:11:45
das forum scheint a bissl hinterherzuhinken
mein post wird nett angezeigt
war wohl zu groß =D
aber mal im ernst wenn wir so weiter machen wird jeder post eine Seite lang min
also fix schreiben ;-)
Ailuros
2003-01-29, 05:01:03
jeder chip besitz eigenheiten oder besondere merkmale an welche man bei konsolen ein spiel immer anpassen kann um damit die performance oder die bildqualität zu steigern
bei der R200 eben z.B. PS1.4 und Truform
bei der Kyro gibts es eben ein paar befehle mit der man dx8-like effekte darstellen kann
mit ?cube?-mapping kann man auch dx8-like effekte auf dx7 karten darstellen und zwar durch anpassen
Ich bin mal sparsam und hab das ganze R200/copy/paste nicht nochmal gequotet.
a) PS1.4 wird durch fehlende Unterstuetzung von den anderen Karten hoechstwaherscheinlich ueberholt wo der Sprung wohl direkt von PS1.3 auf PS2.0 dann geht.
b) TruForm wird wohl das etwa gleiche Schicksal erleiden, und bisher wurden leider nicht TruForm optimierte Modelle benutzt, sondern auf schon existierenden Modellen einfach TruForm hinzugefuegt, wobei die Methode leider nicht ihre ganze Pracht zeigen konnte. Kann sein dass HOS eine gute Zukunft haben, aber dann eher mit on-chip adaptivem Displacement Mapping oder sogar eine Weiterentwicklung dieses.
c) R200 ist trotz seiner Faehigkeiten nicht schneller als die damals konkurrierenden NV20. Clock for clock waren die NV20/5 schneller, wobei sich jetzt natuerlich dass Blatt in Richtung ATI gedreht hat (R300 <-> NV30). Obwohl die R200 uber 6 Texturen pro pass faehig ist und sie auch schneller sein muesste mit 6-layer MT/single pass gegen einen 4-layer MT faehigen Konkurrenten der zu multipass mit 6 Texturen getrieben wird, ist es nicht der Fall.
d) "Befehle" bei der KYRO die dx8 Effekte rendern? So wie etwa:
"GoRenderDosePixelShadersYouDumbPOS=1"? LOL :D
Theoretisch kann KYRO durch multitexturing ein paar Effekte die zu dx8 zaehlen emulieren (z.B. motion blur via recursive texturing/alpha blending, oder Toon(Cel) shading), aber da muss jeder Entwickler auch erstmal auf diese Methode eingehen, wobei es zweifelhaft ist ob der Rest der Karten den Effekt dann auch so rendern koennen. Wobei KYRO hier natuerlich nur als Beispiel benutzt wird. Entwickler sehen zu dass deren Spiele/Applikationen auf der breitesten Mehrheit von Karten laufen kann. Dabei werden bei manchen Faellen software fallbacks benutzt (wenn es nicht zu viel Zeit kostet) oder Effekte einfach abgeschaltet. Wie auch immer es gibt sehr vieles in dx8 und weiterhin dx9 dass man leider nicht "anpassen" kann.
KYRO (als ein weiteres Beispiel) kann in UT2003 nur "normale" Texturen (ergo bis zu 1024x1024) rendern und cube maps werden total ausgeschlossen. Das fehlende T&L koennen Karten ohne T&L auch nicht "anpassen"; die sind dann eben uebermaessig CPU limitiert, da die engine ihre meiste Zeit in D3D verbringt mit Transformationen und Lighting.
e) Pixel shader koennen selten "angepasst" oder emuliert werden.
hmm der gamecube ist schön billig in der herstellung oder?
sind seine spezi hoch bzw weit über der alten PS2 ?
ist er dx7?
könnte es sein dass obwohl er schön billig ist trotzdem eine gute perf hat?
haben konsolen wirklich eine so lange lebenszeit?
2005 werden doch schon die nachfolger vorgestellt oder?
konsolen leben im gegensatz z.B. zu der R200 lange aber mittlerweile werden die produktionszyklen immer kürzer
Nach dem obrigen: 2001--->2005 = 4 Jahre.
Wann kommen hoechstwahrscheinlich die ersten wahren dx8 Spiele auf den Markt?
niedrigere spezi wahrscheinlich nicht aber es könnte wieder sein dass der nächste nintendo aufgrund des preises dx mäßig wieder unter microsoft liegen wird und sony scheint sowieos nix von dx oder opengl zu halten
microsoft wird sich hüten müssen damit sie bei einem preiskampf nicht wieder eine so teure konsole verkaufen müssen
Wir kommen ein klein bisschen naeher dran hm?
Serie4= dx7+ ging aber in den Eimer. Was macht ~1.5 Jahre spaeter von der damals geplanten Serie4 Vorstellung noch Sinn?
hmm wie wärs damit dass die hersteller auch gerne billige chips verbauen welche nicht alle features haben(könnte es sein dass die geforce 4 nur dx 7 hat?!)
aber eigentlich würde ich z.B. dx9 viel lieber in konsolen sehen als im desktop markt da bei konsolen diese features schneller benutzt werden
Wenn Du die GF4 MX meinst ja. Ein auesserst langweiliges Produkt uebrigens.
UT2003 ist vielleicht doch nur dx7 oder?!
was könnten also die VS machen?!
richtig die können ja T&L emulieren!
aber wozu dienen die eigentlich?!
hmm...
veilleicht für dx8-effekte
wo werden die im moment von konsolenspielen benutzt?!
und jetzt mal so als frage:
was haben sie bis jetzt microsoft gebracht außer dass sie die konsole teuer machen
Natuerlich ist UT2003 nur dx7 kompliant. Wie schnell sind aber damit wahre dx7 Karten der Vergangenheit? Kann es sein dass die hohen Fuellraten/Bandbreiten/Geometrie Faehigkeiten doch einen Nutzen haben bei einer dx8.1 Karte?
Was die zwei VS Einheiten machen?
2 VS= 2x mal so viel Geometrie
Angenommen ein IHV plant fuer dx-Z. Dabei will er XYZ Effekte miteingreifen und plant dass der chip so und so viel Faehigkeiten haben soll um wenigstens die meisten dieser Effekte mit befriedigender Leistung realisieren zu koennen.
DX8 Hartware ist heute um vieles staerker und flexibler als dx7 Hartware und genauso wird es mit dx9 Hartware sein im Vergleich zu dx8.
Eine R200 oder NV20 laeuft ziemlich lahm mit stencilops heute, wobei Karten wie R300 oder NV30 um vieles schneller damit sind. Dabei braucht DoomIII mit dessen Uebermenge an stencilops gar nicht mal ein reines dx8 Spiel sein.
irgendwann kommen dx8 spiele für die xbox dessen bin ich mir sicher nur sie haben dafür nur 3-4 Jahre Zeit!
die frage ist ob sie noch schnell genug sind um diese vorzustellen bevor jeder bereits seine konsole gewählt hat
Wenn nicht dieses Jahr dann 2004. Uebrigens gibts jetzt schon Entwickler die wenige dx9 Effekte schon in ihrer engine haben. EVE waere ein Beispiel.
hmm joa aber es gibt eben gewisse chips welche mehr beiten als die spezi und an die kann man ein game dann noch extra anpassen
bei der Xbox Next könnte so ein fall auftreten
Das moechte ich aber mal erklaert haben im Zusammenhang zu dem quote hier (auf den Du ja auch geantwortet hast):
Originally posted by Ailuros
Dx9 geht dann um so einiges weiter; da kann man nicht via Software dx9 MRT's mit FP32 "anpassen". Wenn ein heutiger chip mehr als 10 komplexe Blend-Operationen ausfuehren muss und dazu noch zahllose shader Instruktionen, ist die Genauigkeit schnell im Eimer; nicht zu sprechen was Bandbreite oder Leistung betrifft.
Auf der Hauptseite hier gibt es einen guten Artikel ueber 64bit (aka FP16; nichtmal FP32) Rendering. Bitte durchlesen.
schon komisch oder mit diesem argument sagst du dass dx9 doch bei den chips egal ist und nur die rohpower zehlt
womit wir wieder bei meiner idee sind dass dx8 bei der Xbox im moment ziemlich sinnlos ist bzw. auch bei der Xbox Next anfangs sinnlos sein wird
Jede einzige Kleinigkeit hat seine eigene Bedeutung; kommt ganz auf den Blickwinkel an. Die Xbox kann ihre Rendering-Power heute sehr gut einsetzen und kann auch laengere Lebenszeit durch ihre Komplianz garantieren.
Wenn ich das ganze verdrehe dann ist heute eine Radeon9700 auch sinnlos, ueberhaupt dass es viel zu lange dauern wird bis wir dx9 Spiele sehen, oder?
hmm
sehe kein spiel welches dx8 vom MBX ausnutzt
ROFL hast Du ueberhaupt ne Ahnung was fuer Spiele und in welcher Form auf MBX spielbar sein werden? Parallel zu den oberen Antworten: bis zu 480M FLOPS bei 120MHz, oder 3.5M (wahre) Dreiecke/sec.
aber da wir hier im spekuforum sinds werde ich gerne immer ans gegenteil glauben
allein schon wegen der quote
Demokratie ist eine schoene Sache. Du hast zur Debatte aufgerufen; alles was ich gesagt habe war das Deine "Quellen" Dich schlecht informiert haben, da Du auesserst sicher warst dass es auch so ist wie Du es "weisst".
nö sollte aber einer werden und matrox habens versaut und genauso gut könnte powerVr es versauen
Wann hat den Matrox einen wahre potentielle Spieler-Karte auf den Markt gehabt? Zugegeben PowerVR haben auch nie etwas extraordinaeres (>mainstream) soweit praesentiert, aber sie haben sich zumindest stets auf Produkte fuer Gamer konzentriert, wobei Matrox im Gegenteil mehr auf den professionellen/2D Markt fixiert war.
Natuerlich kann vieles passieren, aber soweit sieht die Entwicklung nicht danach aus. Uebrigens war es sowieso nur ein doofes Argument deinerseits. Man kann genauso einen high end, mainstream oder budget chip versauen, da sind die Spezifikationen egal.
und Series 5 könnte genau das fehlern welches wichtig für seine perf und akzeptanz am markt ist
Wobei Du KYRO III als Ti4200-"Killer" eingeschaetzt hast, aber nicht soweit denken kannst was wohl ein Tiler mit zumindest zweimal so hohen Spezifikationen anrichten koennte? Fehlen? Zumindest in Spezifikationen gar nichts.
Ich bin sowieso gegen die "Killer"-Terminologie. Jede Karte hat fuer mich (mit wenigen Ausnahmen) ihre eigene Individualitaet und Einzigartigkeit, wobei es immer positive und negative Seiten gibt und dabei ohne Ausnahmen. Wenn ein Produkt die meisten Ansprueche eines Verbrauchers decken kann, dann ist sie auch in Ordnung.
Ich kaufe gerne von allen IHV's, und ich bin mit meiner zeitlichen bescheidenen Leadtek A250TD immer noch zufrieden. Dass ich eine Bevorzugung fuer TBDR habe, ist eine ganz andere Geschichte. Wuerde NV oder ATI auch einen TBDR auf den Markt bringen, wuerde ich mir diese mit gleicher Freude ansehen.
tu mir einen gefallen und beantworte alle meine post damit die posts noch länger werden
Na sowas fuegt man normalerweise am Anfang eines solchen Posts zu. Beinahe haette ich das ganze so stehen lassen und die Sache aufgegeben....ts ts ts ;)
aber mal im ernst wenn wir so weiter machen wird jeder post eine Seite lang min
also fix schreiben ;-)
Wir koennen jederzeit Schluss machen wenn Du willst. Kein Problem.
Spake
2003-01-29, 19:49:47
Originally posted by Ailuros
a) PS1.4 wird durch fehlende Unterstuetzung von den anderen Karten hoechstwaherscheinlich ueberholt wo der Sprung wohl direkt von PS1.3 auf PS2.0 dann geht.
aber andererseits basieren PS 2.0 auf PS1.4 und wird nur übergangen weil nur Ati dieses feature unterstütz
und außerdem wird es wohl nie richtige dx8 spiele geben wird und ganz dx8 übergangen wird ;-)
Originally posted by Ailuros
b) TruForm wird wohl das etwa gleiche Schicksal erleiden, und bisher wurden leider nicht TruForm optimierte Modelle benutzt, sondern auf schon existierenden Modellen einfach TruForm hinzugefuegt, wobei die Methode leider nicht ihre ganze Pracht zeigen konnte. Kann sein dass HOS eine gute Zukunft haben, aber dann eher mit on-chip adaptivem Displacement Mapping oder sogar eine Weiterentwicklung dieses.
*zustimm*
denk ich auch der sinn von trufrom hätte wohl nur auf konsolen sinn gemacht wo ein ganzes spiel auf HOS basiuerend programmiert wird
deshalb hab ichs zu den features der R200 dazugefügt
aber mittlerweile hat selbst Ati das features gescipped wie man an der R9000 und am R300 sieht
aber die möglichkeiten von DM auf konsolen wären wohl enorm wenn die spiele wirklich darauf abgestimmt werden
Originally posted by Ailuros
c) R200 ist trotz seiner Faehigkeiten nicht schneller als die damals konkurrierenden NV20. Clock for clock waren die NV20/5 schneller, wobei sich jetzt natuerlich dass Blatt in Richtung ATI gedreht hat (R300 <-> NV30). Obwohl die R200 uber 6 Texturen pro pass faehig ist und sie auch schneller sein muesste mit 6-layer MT/single pass gegen einen 4-layer MT faehigen Konkurrenten der zu multipass mit 6 Texturen getrieben wird, ist es nicht der Fall.
hmm joa aber die 6-layer MT/single pass können doch nur benutz werden wenn man den PS 1.4 anwendet oder ?-|
egal hier gehts nett um die leistung sondern darum dass PS 1.4 wenn es so ist wie oben auf konsolen seinen sinn hätte
Originally posted by Ailuros
d) "Befehle" bei der KYRO die dx8 Effekte rendern? So wie etwa:
"GoRenderDosePixelShadersYouDumbPOS=1"? LOL :D
Theoretisch kann KYRO durch multitexturing ein paar Effekte die zu dx8 zaehlen emulieren (z.B. motion blur via recursive texturing/alpha blending, oder Toon(Cel) shading), aber da muss jeder Entwickler auch erstmal auf diese Methode eingehen, wobei es zweifelhaft ist ob der Rest der Karten den Effekt dann auch so rendern koennen. Wobei KYRO hier natuerlich nur als Beispiel benutzt wird. Entwickler sehen zu dass deren Spiele/Applikationen auf der breitesten Mehrheit von Karten laufen kann. Dabei werden bei manchen Faellen software fallbacks benutzt (wenn es nicht zu viel Zeit kostet) oder Effekte einfach abgeschaltet. Wie auch immer es gibt sehr vieles in dx8 und weiterhin dx9 dass man leider nicht "anpassen" kann.
KYRO (als ein weiteres Beispiel) kann in UT2003 nur "normale" Texturen (ergo bis zu 1024x1024) rendern und cube maps werden total ausgeschlossen. Das fehlende T&L koennen Karten ohne T&L auch nicht "anpassen"; die sind dann eben uebermaessig CPU limitiert, da die engine ihre meiste Zeit in D3D verbringt mit Transformationen und Lighting.
dass wär wieder ein konsolenbeispiel und dass eine kyro2 auf einer konsole mehr sinn machen würde
übrigens ich meine mit anpassen nicht dass anpassen der hardware an die software(was ja unmöglich ist) sondern dass anpassen der software an die hardware und zwar so:
die kyro kann ein paar effekte welche einzelnen effekten gleichen welche ein PS darstellen kann diese heißen dann etwa so:
stencil ops (kann auch ganz anders sein-> in einem anderen thread sind diese genau aufgeführt)
Originally posted by Ailuros
e) Pixel shader koennen selten "angepasst" oder emuliert werden.
joa wie oben erwähnt meine ich anpassungen der software an die hardware
Originally posted by Ailuros
Nach dem obrigen: 2001--->2005 = 4 Jahre.
Wann kommen hoechstwahrscheinlich die ersten wahren dx8 Spiele auf den Markt?
ne jetz wart mal die Xbox kam so eher anfang 2002 raus (im märz in D und im Dezember oder so in A)
das wären eher so 3 jahre von welchen schon ein jahr rum ist
bis jetzt wird ja immerhin dx8 bei der xbox noch nett wirklich benutzt und die kits für die entwickler sind schon länger draußen sind
ich wäre dann bei dx8 spielen für die xbox erst im letzten jahr(wenn überhaupt ;-) ) was ich etwas scheiße finde und was mich sehr aufregt ist dass derzeitige tempo welches ja damit langsamer als auf dem desktopmarkt wäre
und schließlich sehe ich bis jetzt keine ankündigungen von dx8 games für die xbox
Originally posted by Ailuros
Wir kommen ein klein bisschen naeher dran hm?
Serie4= dx7+ ging aber in den Eimer. Was macht ~1.5 Jahre spaeter von der damals geplanten Serie4 Vorstellung noch Sinn?
äh moment was soll dieses series 4 häh wenn du damit powerVr meinst macht dein koment keinen sinn
ich gehe eher davon aus dass die konsolenhersteller bis auf microsoft weg von dx und opengl gehen bzw. nur die wichtigsten features aufnehmen
microsoft wird als einziger bei dx bleiben um vor allen dingen hersteller zu bekommen(oder diese einfach kaufen ;-) )
Originally posted by Ailuros
Wenn Du die GF4 MX meinst ja. Ein auesserst langweiliges Produkt uebrigens.
seh ich auch so aber eben dieses beispiel beweist dass die neuste dx generation nicht immer schnell verbreitung finden kann wenn die graka hersteller nicht mitspielen und lieber billige produkte verkaufen
Originally posted by Ailuros
Natuerlich ist UT2003 nur dx7 kompliant. Wie schnell sind aber damit wahre dx7 Karten der Vergangenheit? Kann es sein dass die hohen Fuellraten/Bandbreiten/Geometrie Faehigkeiten doch einen Nutzen haben bei einer dx8.1 Karte?
hmm nutzen jaa aber dafür braucht man kein dx8.0
jeder chip welcher im original dx7 hatte kann heute kaum UT2003 spieln aber umm hohe perf zu haben braucht man nicht die neuste opengl/dx generation zu haben
Originally posted by Ailuros
Was die zwei VS Einheiten machen?
2 VS= 2x mal so viel Geometrie
2 T&L einheiten = 2x geometrie +weniger transistoren = höhere taktung
Originally posted by Ailuros
Angenommen ein IHV plant fuer dx-Z. Dabei will er XYZ Effekte miteingreifen und plant dass der chip so und so viel Faehigkeiten haben soll um wenigstens die meisten dieser Effekte mit befriedigender Leistung realisieren zu koennen.
und am ende kann die graka die games dafür sowieso nicht schnell darstellen (welche dx7 karte kann UT2003 schnell darstellen?!)
Originally posted by Ailuros
DX8 Hartware ist heute um vieles staerker und flexibler als dx7 Hartware und genauso wird es mit dx9 Hartware sein im Vergleich zu dx8.
hmm joa wird immer so sein ansonsten würde die neue technik ja keinen sinn machen
was mich stört ist die tatsache dass man die spiele mit der dafür gültigen graka nicht darstellen kann
es müsste so sein dass spielehersteller genauso schnell im einbauen von features wie benchmark hersteller * wunschtraum*
Originally posted by Ailuros
Eine R200 oder NV20 laeuft ziemlich lahm mit stencilops heute, wobei Karten wie R300 oder NV30 um vieles schneller damit sind. Dabei braucht DoomIII mit dessen Uebermenge an stencilops gar nicht mal ein reines dx8 Spiel sein.
aber R300 ist dx9 und doom3 noch nichtmal ein reines dx8 game
Originally posted by Ailuros
Wenn nicht dieses Jahr dann 2004. Uebrigens gibts jetzt schon Entwickler die wenige dx9 Effekte schon in ihrer engine haben. EVE waere ein Beispiel.
ich bin offen für infos aber was ist EVE bzw. ist dass für den PC
ich kennns nett und die einzigen die wirklich immer schnell genug mit dem einbauen von neuen features sind futuremark etc.
die konnten sich tatsächlich 2 jahre mit ein und dem selben benchmark aktuell ´halten und benutzen features welche immernoch nicht benutz werden
dass nerft doch schon oder?!
Originally posted by Ailuros
Das moechte ich aber mal erklaert haben im Zusammenhang zu dem quote hier (auf den Du ja auch geantwortet hast):
hmm die Xbox Next soll mindestens eine Nv30 haben und die hat ja VS 2.0+ und PS 2.0+ und dort kann man die extra features eben nutzen (nvidia hat ja bereits demos von stalker mit der nv30 gezeigt)
Originally posted by Ailuros
Auf der Hauptseite hier gibt es einen guten Artikel ueber 64bit (aka FP16; nichtmal FP32) Rendering. Bitte durchlesen.
tu ich gerne aber da ich irgendwie keinen nerv habe mir erst zu überlegen welchen artikel du meinst wärs ganz gut wenn du mir sagst wie der artikel heißt und was er hiermit zu tun hat
Originally posted by Ailuros
Jede einzige Kleinigkeit hat seine eigene Bedeutung; kommt ganz auf den Blickwinkel an. Die Xbox kann ihre Rendering-Power heute sehr gut einsetzen und kann auch laengere Lebenszeit durch ihre Komplianz garantieren.
hmm joa aber eben die lebenszeiten werdeen ja auch immer kürzer und die gamer schauen bei konsolen nicht immer auf die grafik (haben ja auch die PS1 gekauft und zwar wegen der games)
aber im großen und ganzen gebe ich dir recht dass die xbox noch reserven hat aber eben im moment nicht benutz werden
Wenn ich das ganze verdrehe dann ist heute eine Radeon9700 auch sinnlos, ueberhaupt dass es viel zu lange dauern wird bis wir dx9 Spiele sehen, oder?
[/SIZE][/QUOTE]
Originally posted by Ailuros
ROFL hast Du ueberhaupt ne Ahnung was fuer Spiele und in welcher Form auf MBX spielbar sein werden? Parallel zu den oberen Antworten: bis zu 480M FLOPS bei 120MHz, oder 3.5M (wahre) Dreiecke/sec.
ehrlich gesagt aufrgund von vorhanden beispielen(dazu gehören auch dx8 games) kann ich im moment nur auf Tomb raider auf dem prototypen ausweichen aber ich hab nix gegen aufklärung
Originally posted by Ailuros
Demokratie ist eine schoene Sache. Du hast zur Debatte aufgerufen; alles was ich gesagt habe war das Deine "Quellen" Dich schlecht informiert haben, da Du auesserst sicher warst dass es auch so ist wie Du es "weisst".
wie du so schön sagst ist demokratie sehr schön weil man auch kertwendungen machen kann aber dass HABE ICH NICHT
denn:
die Ti4200 ist kein high-end sondern eher so bissl über mainstream und außerdem schreibe ich auch nicht dass das bei allen games so sein wird sondern eben in ein paar fällen in dx7 anwendungen
also bitte lese dir erst meine posts durch wenn du dich schon auf den anfang eines threads beziehst
Originally posted by Ailuros
Wann hat den Matrox einen wahre potentielle Spieler-Karte auf den Markt gehabt? Zugegeben PowerVR haben auch nie etwas extraordinaeres (>mainstream) soweit praesentiert, aber sie haben sich zumindest stets auf Produkte fuer Gamer konzentriert, wobei Matrox im Gegenteil mehr auf den professionellen/2D Markt fixiert war.
hmm mal sehen...:
mit dem G400 welcher alles bis dato in den schatten gestellt hat
Originally posted by Ailuros
Natuerlich kann vieles passieren, aber soweit sieht die Entwicklung nicht danach aus. Uebrigens war es sowieso nur ein doofes Argument deinerseits. Man kann genauso einen high end, mainstream oder budget chip versauen, da sind die Spezifikationen egal.
wie oben erwähnt kann man einen geilen chip bauen und dann später dennoch alles versauen
mal so als frage wie lange hat es gedauert bis nvidia einen high-end chip hatte und falls dass noch nicht reicht :
wie lange hat Ati gebraucht
Chips werden zunehmend komplizierter und damit nicht einfacher zu bauen
sieh dir nvidia an die haben erfahrung konnten aber dennoch trotz brachialer rohpower Ati nicht stark überbieten
Originally posted by Ailuros
Wobei Du KYRO III als Ti4200-"Killer" eingeschaetzt hast, aber nicht soweit denken kannst was wohl ein Tiler mit zumindest zweimal so hohen Spezifikationen anrichten koennte? Fehlen? Zumindest in Spezifikationen gar nichts.
an den spezi nix aber die müssen nix heißen wie man bei Atis R200 gesehen hat denn schließlich konnte der auch nix gegen die G3Ti500 ausrichten
Originally posted by Ailuros
Ich bin sowieso gegen die "Killer"-Terminologie. Jede Karte hat fuer mich (mit wenigen Ausnahmen) ihre eigene Individualitaet und Einzigartigkeit, wobei es immer positive und negative Seiten gibt und dabei ohne Ausnahmen. Wenn ein Produkt die meisten Ansprueche eines Verbrauchers decken kann, dann ist sie auch in Ordnung.
Ich kaufe gerne von allen IHV's, und ich bin mit meiner zeitlichen bescheidenen Leadtek A250TD immer noch zufrieden. Dass ich eine Bevorzugung fuer TBDR habe, ist eine ganz andere Geschichte. Wuerde NV oder ATI auch einen TBDR auf den Markt bringen, wuerde ich mir diese mit gleicher Freude ansehen.
stimm ich dir in allem zu
ganz ehrlich
Originally posted by Ailuros
Na sowas fuegt man normalerweise am Anfang eines solchen Posts zu. Beinahe haette ich das ganze so stehen lassen und die Sache aufgegeben....ts ts ts ;)
es tut mir sooooooo leid ;-)
bitte alles bloß nicht die BroSis bestrafung
Originally posted by Ailuros
Wir koennen jederzeit Schluss machen wenn Du willst. Kein Problem.
hmm naja wär doch öde
außerdem vielleicht überzeugst du mich ja mal ;-)
außerdem ich zitiere:
"Nein ich finde das Katz und Maus Spiel hier sowieso amuesant."
langsam wird doch ganz spaßig
obwohl ich in etwa 30 min mindestens für die beantwortung eines posts brauche
wie stehts mit dir
Ailuros
2003-01-30, 11:16:18
Ich markier mal Deine quotes mit "check" wo wir endlich zustimmen:
aber andererseits basieren PS 2.0 auf PS1.4 und wird nur übergangen weil nur Ati dieses feature unterstütz
und außerdem wird es wohl nie richtige dx8 spiele geben wird und ganz dx8 übergangen wird ;-)
Check
(obwohl das mit den dx8 Spielen nicht ganz so ist, lassen wir es erstmal weg).
*zustimm*
denk ich auch der sinn von trufrom hätte wohl nur auf konsolen sinn gemacht wo ein ganzes spiel auf HOS basiuerend programmiert wird
deshalb hab ichs zu den features der R200 dazugefügt
aber mittlerweile hat selbst Ati das features gescipped wie man an der R9000 und am R300 sieht
aber die möglichkeiten von DM auf konsolen wären wohl enorm wenn die spiele wirklich darauf abgestimmt werden
Check
hmm joa aber die 6-layer MT/single pass können doch nur benutz werden wenn man den PS 1.4 anwendet oder ?-|
egal hier gehts nett um die leistung sondern darum dass PS 1.4 wenn es so ist wie oben auf konsolen seinen sinn hätte
Nein. Ist aber unwichtig.
dass wär wieder ein konsolenbeispiel und dass eine kyro2 auf einer konsole mehr sinn machen würde
übrigens ich meine mit anpassen nicht dass anpassen der hardware an die software(was ja unmöglich ist) sondern dass anpassen der software an die hardware und zwar so:
die kyro kann ein paar effekte welche einzelnen effekten gleichen welche ein PS darstellen kann diese heißen dann etwa so:
stencil ops (kann auch ganz anders sein-> in einem anderen thread sind diese genau aufgeführt)
Klingelt's vielleicht im Hinterkopf wenn ich Dir sage dass die Unterschiede zwischen Dreamcast und KYRO nicht so gross sind wie Du Dir vorstellst? (gleiches gilt uebrigens auch was Serie2 und 3 betrifft ausser ein paar Rafinessen die bei Serie3 dazukamen, sind die Features der beiden Generationen sehr nahe dran; siehe Neon250).
Na wenn Du auf Doom3 und KYRO schiessen willst, ich bezweifle dass KYRO D3 mit befriedigender Wiedergabe rennen kann, wobei stencilops irrelevant sind, da fehlt viel zu viel an rohen Spezifikationen an der Karte. Keine Ahnung wie Du stencilops ploetzlich mit dx9 oder sogar mit pixel shadern verbindest. Nur weil TBDR's ziemlich schnell sind mit stencilops heisst dass nicht dass es was mit dx9 zu tun hat.
K2 laeuft miserabel in UT2003; da moecht ich von D3 schon gar nichts mehr hoeren.
joa wie oben erwähnt meine ich anpassungen der software an die hardware
Die Antwort bleibt gleich: keine effektiven "workarounds" fuer Pixel Shader. Die Effekte werden meistens abgeschaltet.
ne jetz wart mal die Xbox kam so eher anfang 2002 raus (im märz in D und im Dezember oder so in A)
Spielen wir jetzt noch mit den Monaten rum? Natuerlich meine ich immer US release Daten, wobei der US/Canada Markt um etliche Male groesser ist als der gesamte europaeische Markt in Verkaufsvolumen. Also bitte......
äh moment was soll dieses series 4 häh wenn du damit powerVr meinst macht dein koment keinen sinn
ich gehe eher davon aus dass die konsolenhersteller bis auf microsoft weg von dx und opengl gehen bzw. nur die wichtigsten features aufnehmen
microsoft wird als einziger bei dx bleiben um vor allen dingen hersteller zu bekommen(oder diese einfach kaufen ;-) )
Ich zeig Dir mal in wie fern mein Kommentar Sinn macht:
Imagination Technologies Group plc, a developer of multimedia and graphics processor technology and cores available for license, has dropped development of its Series-4 generation of the Power-VR graphics acceleration architecture and is instead speeding up development of the Series-5 architecture, and planning for first implementations in 2003.
Serie4 = dx7 = alles was diese Generation betrifft wurde aufgegeben.
Series-5 architecture-based implementations will include additional features such as pixel shading and full programmability, according to John Metcalfe, vice president of business development at Imagination.
http://www.eetimes.com/semi/news/OEG20021003S0016
Hier kannst Du "full programmability" sehr schlecht mit nur dx8 interpretieren.
Metcalfe said that Series-5 architecture would be based on a primary processing pipeline and a series of hardware accelerators that can be optionally switched in and out to render graphics.
Wobei dieser Satz auch die vorerwaehnten Maerkte erklaert, und auch Ausschlachtungen fuer Kosten-effektivere Produkte.
Ich hab mit Absicht die Ankuendigung von Metcalfe bis jetzt von der Debatte rausgelassen....
seh ich auch so aber eben dieses beispiel beweist dass die neuste dx generation nicht immer schnell verbreitung finden kann wenn die graka hersteller nicht mitspielen und lieber billige produkte verkaufen
Siehe oben.
hmm nutzen jaa aber dafür braucht man kein dx8.0
jeder chip welcher im original dx7 hatte kann heute kaum UT2003 spieln aber umm hohe perf zu haben braucht man nicht die neuste opengl/dx generation zu haben
Kein Einwand zu dieser Perspektive. Man braucht aber die Rohe Leistung und Effizienz/Flexibilitaet von dx8 Karten (hoehere Bandbreiten + Bandbreiten schonende Techniken, effizientere pipelines, bessere und schnellere AA/aniso Algorithmen usw usw.).
Wie sieht FSAA Leistung auf R100/R200 im Vergleich zu R300 aus? Nur ein Beispiel.
2 T&L einheiten = 2x geometrie +weniger transistoren = höhere taktung
Die VS Einheiten werden als festgedrahtete T&L Einheiten benutzt. NV2x-wasimmer haben keine dx7/T&L Einheiten.
hmm joa wird immer so sein ansonsten würde die neue technik ja keinen sinn machen
was mich stört ist die tatsache dass man die spiele mit der dafür gültigen graka nicht darstellen kann
es müsste so sein dass spielehersteller genauso schnell im einbauen von features wie benchmark hersteller * wunschtraum*
Check.
Jedoch dx7 Spiele auf dx7 Karten zu langsam, genauso wie dx8 Spiele zu langsam auf dx8 Karten usw usw. Aber das liegt auch einer Vielfalt von anderen Faktoren.
aber R300 ist dx9 und doom3 noch nichtmal ein reines dx8 game
Sagte ich ja auch. Siehe nochmal oben.
hmm die Xbox Next soll mindestens eine Nv30 haben und die hat ja VS 2.0+ und PS 2.0+ und dort kann man die extra features eben nutzen (nvidia hat ja bereits demos von stalker mit der nv30 gezeigt)
Microsoft hat noch keinen Vertrag abgeschlossen und schaut sich immer noch nach Alternativen um. Wie dem auch sei (da NV sehr hohe Chancen hat wieder einen Vertrag zu gewinnen), braucht NV3x (das Konsolen-Angebot von NV liegt ein bisschen weiter vorne als NV30) keine Anpassungen was FP32 und dx9 MRT betrifft. Ich dachte Du meinst die original Xbox; mein Fehler.
tu ich gerne aber da ich irgendwie keinen nerv habe mir erst zu überlegen welchen artikel du meinst wärs ganz gut wenn du mir sagst wie der artikel heißt und was er hiermit zu tun hat
http://www.3dcenter.de/artikel/2001/07-26a.php
(nur zum Punkt dass man schlecht Rechengenauigkeit umgehen kann, wenn es zu kompliziert wird).
hmm joa aber eben die lebenszeiten werdeen ja auch immer kürzer und die gamer schauen bei konsolen nicht immer auf die grafik (haben ja auch die PS1 gekauft und zwar wegen der games)
aber im großen und ganzen gebe ich dir recht dass die xbox noch reserven hat aber eben im moment nicht benutz werden
Check.
ehrlich gesagt aufrgund von vorhanden beispielen(dazu gehören auch dx8 games) kann ich im moment nur auf Tomb raider auf dem prototypen ausweichen aber ich hab nix gegen aufklärung
Hehehe MBXLite hat die groesste Anfrage, was auch die kleinste Variante ist. Wie dem auch so Spiele auf MBX werden durch spezielles Software (MGL siehe Weiterentwicklung von SGL und OS) laufen und mit dafuer optimierten Spielen. Es waere zu krass wenn man ploetzlich UT2003 auf nem Handy z.B. spielen moechte.
Wie dem auch sei MBX braucht die VS im MBX PRO mehr aus dem Grund dass es hoehere Geometrie-Raten fuer die Zukunft garantieren kann und weil auch der Markt gewisse Base-Features verlangt. Ob diese benutzt werden oder nicht ist gleichgueltig (werden sie auch selten).
Trotzdem hat momentan nur ATI einen PDA chip der aber nur auf 2D limitiert ist. Wenn PowerVR nicht den MBX weiterentwickelt dann wird irgendein anderer Konkurrent mit einem dx9 (oder halbwegs dx9 chip - siehe nochmal Metcalfe's Kommentar ueber "in and out") ankommen und der dann hoechstwahrscheinlich bevorzugt, weil der Markt eben auf Spezifikationen setzt.
Die Leute die Entscheidungen bei solchem Firmen treffen setzen sich hin und denken nach in welchen Maerkten sie Produkte verkaufen und was da wohl in der Zukunft notwendig ist. Dabei wird versucht in einem einzigen Design so gut wie moeglich die Notwendigkeiten von jedem Markt mitinzubegreifen. Kein IHV entwickelt getrennt chips fuer PC's, laptops, PDA's, Konsolen oder was immer auch. Mehrere Designs= mehr Aufwand = mehr Personal = hoehere Kosten.
die Ti4200 ist kein high-end sondern eher so bissl über mainstream und außerdem schreibe ich auch nicht dass das bei allen games so sein wird sondern eben in ein paar fällen in dx7 anwendungen
Na und?
STG5500= 250/500MHz
STG5800= 300/600MHz (nach sechs Monaten)
Vorsicht mit den dx7 Anwendungen, ueberhaupt wenn wir uebereinstimmen in der Zwischenzeit dass es keine dx8 Spiele auf dem Markt gibt.
hmm mal sehen...:
mit dem G400 welcher alles bis dato in den schatten gestellt hat
Wundere mich was dass wohl fuer ein Schatten war :D
http://firingsquad.gamers.com/hardware/g400/default.asp
Matrox stand nie sehr gut mit openGL da; wie dem auch sei die GeForce256 kam kurz danach auf den Markt da war der Vergleich noch umso vieles schlechter.
mal so als frage wie lange hat es gedauert bis nvidia einen high-end chip hatte und falls dass noch nicht reicht :
wie lange hat Ati gebraucht
Seit TNT fuer NV; wobei ATI schon immer dick im OEM Markt verkauft hat. ATI hatte schon immer potenzielle Karten auf dem Markt, nur mussten sie irgendwann aggressiver einsteigen da NV denen von den OEM deals so manches abgeschnibbelt hat durch die Jahre und haben es auch geschafft momentan.
Wenn Du es so ansehen moechtest dann koennte ich es auch so parallelisieren:
KYROII = vergleichbar in Leistung mit R100 aka Radeon
KYROIII (vaporware) = vergleichbar in Leistung mit R200 aka Radeon8500
Weiterraetseln kannst Du selber wie es danach aussehen koennte, von Spezifikationen abgesehen.
Wie lange ist irrelevant. Die Frage ist was fuer Ziele und Moeglichkeiten jeder IHV fuer jede gegebene Zeitspanne fuer jeden Markt sieht. Im Falle von PVR ist es eher: jetzt oder nie, bevor die Konkurrenz doch noch letztenendes mit teilweisem oder vollem TBDR anmarschiert.
hmm naja wär doch öde
außerdem vielleicht überzeugst du mich ja mal ;-)
außerdem ich zitiere:
"Nein ich finde das Katz und Maus Spiel hier sowieso amuesant."
langsam wird doch ganz spaßig
obwohl ich in etwa 30 min mindestens für die beantwortung eines posts brauche
wie stehts mit dir
Ueberzeugen? *kicher*
Na irgendwann kriegen wir eins auf den Deckel von den Moderatoren hier, da viel zu viel Bandbreite verbrennt wird ueber gar nichts. So in der Art "hoert auf mit dem Quatsch"
:chainsaw:
edit: neue Seite......... :O
Was in diesem 3dc-Artikel zur Doom3-Engine steht, vergessen wir aber am besten gleich wieder :) Die ist ja nun "etwas" anders aufgebaut, als der Artikel nahelegt. Auch verspekulierte ich mich beim Framebuffer. Dass es 128-Bit-Rendering (NV30) mit nur 32-Bit-FB geben würde, ahnte ich nicht. Auch geht das Machwerk nur vom Integer-Format aus :(
edit: Hehe, allerdings sind Sätze wie "Vielleicht wird sogar eine Framebuffer-Komprimierung zum Einsatz kommen" und "Zudem waren die HighTech-Grafikkarten schon immer dafür gut, dem Endkunden sehr knappen (und damit teuren) Speicher anzudrehen. Möglicherweise setzen die Hersteller hier lieber weiterhin auf die teuersten Speicher-Bausteine anstatt auf intelligente Techniken" zumindest bezüglich des NV30 gar nicht mal sooo falsch :)
Ailuros
2003-01-30, 11:50:39
Es geht mir eher darum, einen Link zu haben um Zeit zu ersparen, anstatt zu erklaeren wieso hoehere interne Rechengenauigkeit notwendig ist in der Zukunft. Der Artikel hat mir damals auch geholfen so manches zu verstehen ;)
Dieser Artikel http://www.3dcenter.de/artikel/2002/01-04_a.php ist etwas konkreter :)
edit: - Und enthält einen Fehler. Werde Leo gleich mal bitten, das zu korrigieren :naughty:
edit2: Da gabs noch einen anderen Artikel. Den finde ich nicht mehr... ?!
Spake
2003-01-31, 20:55:45
Originally posted by Ailuros
Klingelt's vielleicht im Hinterkopf wenn ich Dir sage dass die Unterschiede zwischen Dreamcast und KYRO nicht so gross sind wie Du Dir vorstellst? (gleiches gilt uebrigens auch was Serie2 und 3 betrifft ausser ein paar Rafinessen die bei Serie3 dazukamen, sind die Features der beiden Generationen sehr nahe dran; siehe Neon250).
und genau auf diese Aussage wollte ich hinaus
denn die kyrochips haben viel mehr leistung von welcher im desktopmarkt kaum etwas genutz wird
aber im konsolenmarkt können fähige programmierer eben diese leistung ausschöpfen und somit trotz der im vergleich zur PS2 eher low-cost lösung kann die grafik dennoch mithalten
also mach ich hier auch mal ein check
Originally posted by Ailuros
Na wenn Du auf Doom3 und KYRO schiessen willst, ich bezweifle dass KYRO D3 mit befriedigender Wiedergabe rennen kann, wobei stencilops irrelevant sind, da fehlt viel zu viel an rohen Spezifikationen an der Karte. Keine Ahnung wie Du stencilops ploetzlich mit dx9 oder sogar mit pixel shadern verbindest. Nur weil TBDR's ziemlich schnell sind mit stencilops heisst dass nicht dass es was mit dx9 zu tun hat.
K2 laeuft miserabel in UT2003; da moecht ich von D3 schon gar nichts mehr hoeren.
husp da hab ich ein paar begriffe vertauscht
naja hab zu stencil ops nicht umsonst einen kommentar geschrieben
aber irgendwas in dieser richtung was mit PS 1.1> zu tun hat kann die kyro 1/2 aber ich weis nett genau was
also im prinzip ist dieser komment fehl am platze also vergessen wir dass mal =D
Originally posted by Ailuros
Spielen wir jetzt noch mit den Monaten rum? Natuerlich meine ich immer US release Daten, wobei der US/Canada Markt um etliche Male groesser ist als der gesamte europaeische Markt in Verkaufsvolumen. Also bitte......
neh aber mit jahren denn der unterschied zwischen 4 und 5 jahren ist doch schon a klein bisschen größer und dieses eine jahr könnte entscheiden ob richtige(und viele)dx8 games noch für die Xbox 1 kommen
Originally posted by Ailuros
Ich zeig Dir mal in wie fern mein Kommentar Sinn macht:
Serie4 = dx7 = alles was diese Generation betrifft wurde aufgegeben.
http://www.eetimes.com/semi/news/OEG20021003S0016
Hier kannst Du "full programmability" sehr schlecht mit nur dx8 interpretieren.
ich komm nett hinterher wenn du so schnell die richtung änderst
eigentlich hatte ich gesagt dass die konsolenhersteller weg von dx und opengl gehen
ist ja alles schön und gut aber powerVr hat nix damit zu tun zumal sie ja sowieso nicht im konsolenmarkt präsent sind
Originally posted by Ailuros
Ich hab mit Absicht die Ankuendigung von Metcalfe bis jetzt von der Debatte rausgelassen....
oha jetzt gehts ab
was zum geier soll Metcalfe damit zu tun haben
wobei solltest du mich "aufklären" wollen wärs doch ganz nett dass du mir lieber erzählst was Metcalfe sein soll(einige von uns lesen nicht immer jede news ;-) )
Originally posted by Ailuros
Kein Einwand zu dieser Perspektive. Man braucht aber die Rohe Leistung und Effizienz/Flexibilitaet von dx8 Karten (hoehere Bandbreiten + Bandbreiten schonende Techniken, effizientere pipelines, bessere und schnellere AA/aniso Algorithmen usw usw.).
Wie sieht FSAA Leistung auf R100/R200 im Vergleich zu R300 aus? Nur ein Beispiel.
öhm in dx8 spezis steht nie was von dieser chip muss x pipes haben oder dieser chip muss einen bus von 256 Bit haben etc.
die Leistung kann ein chip auch besitzen wenn er nett auf dem neuesten dx stand ist
Flexibilität ist ja eine tolle sache aber es gibt einfach kein spiel welches diese fähigkeiten im moment benutzt und trotzdem kostet diese flexibilität viele transistoren (stell dir mal vor sie hätten einen chip mit 16x1 pipes gemacht aber nur auf dx7 basierend - dass wär ein geiler chip gewesen und dieser wäre der reinste UT2003 killer gewesen =D mit ähnlcih viel transistoren wie die fx)
und äh was hat das AA der R300 mit dx9 zu tun nix
nach dieser logick würden dx6 karten ala voodoo5 dass beste SSAA besitzen und könnten nicht von dx9 karten übertroffen werden
Originally posted by Ailuros
Die VS Einheiten werden als festgedrahtete T&L Einheiten benutzt. NV2x-wasimmer haben keine dx7/T&L Einheiten.
´die VS emulieren T&L aber nehmen mehr transistoren ein als 2 T&L einheiten man hätte genausogut transistoren sparen können und einen dx7 chip bauen können welchen man dann höher takten kann#
was ich meine ist dass es einfach scheiße ist dass die VS nicht ihre wahre bestimmung(oh wie biblisch ;-) ) erfüllen können sondern sich eher mit veralteten befehlen langweilen
Originally posted by Ailuros
Jedoch dx7 Spiele auf dx7 Karten zu langsam, genauso wie dx8 Spiele zu langsam auf dx8 Karten usw usw. Aber das liegt auch einer Vielfalt von anderen Faktoren.
und genau hier liegt der punkt
das neueste dx wird im prinzip nur für die noobs integriert genau wie Agp 8x
wer kauft sich schon eine dx8 karte wenn es schon dx9 gibt jedoch werden wir dx9 spiele frühestens 2006 sehen bei der geschwindigkeit mit der sich dx8 verbreitet hat
Originally posted by Ailuros
Microsoft hat noch keinen Vertrag abgeschlossen und schaut sich immer noch nach Alternativen um. Wie dem auch sei (da NV sehr hohe Chancen hat wieder einen Vertrag zu gewinnen), braucht NV3x (das Konsolen-Angebot von NV liegt ein bisschen weiter vorne als NV30) keine Anpassungen was FP32 und dx9 MRT betrifft. Ich dachte Du meinst die original Xbox; mein Fehler.
jupp die Xbox Next meine ich
aber mit anpassungen meine ich anpassungen an die erweiterten schader der nv30 welche ja noch über dx9 niveau liegen
Originally posted by Ailuros
Die Leute die Entscheidungen bei solchem Firmen treffen setzen sich hin und denken nach in welchen Maerkten sie Produkte verkaufen und was da wohl in der Zukunft notwendig ist. Dabei wird versucht in einem einzigen Design so gut wie moeglich die Notwendigkeiten von jedem Markt mitinzubegreifen. Kein IHV entwickelt getrennt chips fuer PC's, laptops, PDA's, Konsolen oder was immer auch. Mehrere Designs= mehr Aufwand = mehr Personal = hoehere Kosten.
dass mit den designs ist klar ist ja auf dem desktopmarkt nett anders
was mir nur bei deiner antwort fehlt ´sind einige spielebeispiele und was noch besser wäre wäre ein preis eines PDAs mit dem "mainstream"MBX
Originally posted by Ailuros
Na und?
STG5500= 250/500MHz
STG5800= 300/600MHz (nach sechs Monaten)
du sagst ja immer dass du gut informierte quellen in diesem bereich hast also kannst du vielleicht auch ein datum nennen wann der chip kommen soll( schließlcih nähern wir uns beim nv35 wohl den 600 MhZ core) und bei diesem tempo wird es der kyro schwer haben mitzuhalten wenn er nciht bald kommt
Originally posted by Ailuros
Vorsicht mit den dx7 Anwendungen, ueberhaupt wenn wir uebereinstimmen in der Zwischenzeit dass es keine dx8 Spiele auf dem Markt gibt.
joa habe wohl zu wenig von meiner behauptung am anfang zitiert
ích meinte im original ja nciht jede dx7 anwendung sondern eben nur bestimmte welche dem kyro eben passen (solche anwendungen halt wie powerVr sie in ihren benchmarks immer wieder zeigt)
Originally posted by Ailuros
Wundere mich was dass wohl fuer ein Schatten war :D
http://firingsquad.gamers.com/hardware/g400/default.asp
Matrox stand nie sehr gut mit openGL da; wie dem auch sei die GeForce256 kam kurz danach auf den Markt da war der Vergleich noch umso vieles schlechter.
naja alles in den schatten stellen heißt ja nur dass man eine überlegene leistung hat welche der chip nunmal besaß
dabei ist die zeitspanne eher unwichtig
es kann so kommen wie im falle von Ati mit dem r300 oder eben so wie es matrox ergangen ist
Originally posted by Ailuros
Seit TNT fuer NV; wobei ATI schon immer dick im OEM Markt verkauft hat. ATI hatte schon immer potenzielle Karten auf dem Markt, nur mussten sie irgendwann aggressiver einsteigen da NV denen von den OEM deals so manches abgeschnibbelt hat durch die Jahre und haben es auch geschafft momentan.
hmm ich habs immer so gesehen dass nvidia zwar ein gutes produkt hatte aber immer im schatten von 3dfx stand bis der nv10 kam welcher sauschnell war
und Ati musste nachdem sie eigentlich mit dem R100 schon auftrumpfen wollten einige zeit auch im schatten von nvidia leben bis der R300 kam
Originally posted by Ailuros
Wenn Du es so ansehen moechtest dann koennte ich es auch so parallelisieren:
KYROII = vergleichbar in Leistung mit R100 aka Radeon
KYROIII (vaporware) = vergleichbar in Leistung mit R200 aka Radeon8500
Weiterraetseln kannst Du selber wie es danach aussehen koennte, von Spezifikationen abgesehen.
hmm wie unten erklärt sehe ich aber ien prob wenn der chip zu spät kommt und im zu spät kommen ist powerVr seit dem kyro2SE geübt
Originally posted by Ailuros
Wie lange ist irrelevant. Die Frage ist was fuer Ziele und Moeglichkeiten jeder IHV fuer jede gegebene Zeitspanne fuer jeden Markt sieht. Im Falle von PVR ist es eher: jetzt oder nie, bevor die Konkurrenz doch noch letztenendes mit teilweisem oder vollem TBDR anmarschiert.
hmm ich sehe ein problem falls powerVr zu spät kommt
dann ergibt sich eine situation ala nv30
sie haben ihren tollen(oder schlechten) chip gebracht und werden sofort überrundet von der konkurenz
aber ich finde auch dass es höchste zeit ist dass sie was tolles bringen und ich wünsche es ihnen auch wirklich
nur überzeugt bin ich von ihren fähigkeiten noch nicht
Originally posted by Ailuros
Ueberzeugen? *kicher*
Check
LOL
Originally posted by Ailuros
Na irgendwann kriegen wir eins auf den Deckel von den Moderatoren hier, da viel zu viel Bandbreite verbrennt wird ueber gar nichts. So in der Art "hoert auf mit dem Quatsch"
falls sowas kommt würde ich natürlich nie auf die idee kommen weiterzuposten =D
aber bis jetzt zeigt sich aths ja doch ganz bereit am debakel teilzunemen also auf in einen neue runde
Ailuros
2003-02-01, 03:36:14
und genau auf diese Aussage wollte ich hinaus
denn die kyrochips haben viel mehr leistung von welcher im desktopmarkt kaum etwas genutz wird
aber im konsolenmarkt können fähige programmierer eben diese leistung ausschöpfen und somit trotz der im vergleich zur PS2 eher low-cost lösung kann die grafik dennoch mithalten
KYRO ist schon einiger Zeit am Ende seiner Tage da wichtige Key-Features wie cube maps und T&L fehlen und obwohl ein TBDR 350MPps Fuellrate und 2.6GB/sec Bandbreite sind einfach viel zu wenig.
Uebrigens:
Dreamcast 98', KYRO 00', KYRO II 01'.
ich komm nett hinterher wenn du so schnell die richtung änderst
eigentlich hatte ich gesagt dass die konsolenhersteller weg von dx und opengl gehen
ist ja alles schön und gut aber powerVr hat nix damit zu tun zumal sie ja sowieso nicht im konsolenmarkt präsent sind
Irgendwo muss ich wohl schon Anhalt haben, um zu behaupten dass die am Konsolen-Markt interessiert sind, aus der Luft schnappe ich mir nichts. Die paar letzten ImgTec Interim Reporte erwaehnten es klipp und klar mehrere Male.
oha jetzt gehts ab
was zum geier soll Metcalfe damit zu tun haben
wobei solltest du mich "aufklären" wollen wärs doch ganz nett dass du mir lieber erzählst was Metcalfe sein soll(einige von uns lesen nicht immer jede news ;-) )
Und zu was hab ich den Link gepostet hm? Nochmal:
http://www.eetimes.com/semi/news/OEG20021003S0016
Hier wenn Du zum zweiten Mal nicht drauf klicken willst:
John Metcalfe, vice president of business development at Imagination.
öhm in dx8 spezis steht nie was von dieser chip muss x pipes haben oder dieser chip muss einen bus von 256 Bit haben etc.
die Leistung kann ein chip auch besitzen wenn er nett auf dem neuesten dx stand ist
Das setzt der Designer/Hersteller dann fest und versucht akzeptable niedrige Leistung bei einem chip erreichen zu koennen mit allen Features eingesetzt. Theoretisch hasst Du zwar nicht unrecht, aber es ist selten anders so wie der Markt heute aussieht, und unterspezifizierte Karten haben selten Erfolg, da der Markt und Verbraucher Wert auf Spezifikationen legen. Das dummste Beispiel waere momentan AGPx8; es nutzt zwar nichts aber hoeher klingt eben besser.
´die VS emulieren T&L aber nehmen mehr transistoren ein als 2 T&L einheiten man hätte genausogut transistoren sparen können und einen dx7 chip bauen können welchen man dann höher takten kann#
was ich meine ist dass es einfach scheiße ist dass die VS nicht ihre wahre bestimmung(oh wie biblisch ;-) ) erfüllen können sondern sich eher mit veralteten befehlen langweilen
Im Fall von UT2003 (wo das ganze auch abgeschlagen ist) wuerde ich die Antwort lieber z.b. Vogel hinterlassen. Auf jeden Fall kannst Du von mir aus eine GF2 Ultra mit einer GF4 Ti4200 mit gleicher Taktung im Spiel vergleichen, vielleicht koennen wir dann hier auch einen "check" benutzen.
und äh was hat das AA der R300 mit dx9 zu tun nix
nach dieser logick würden dx6 karten ala voodoo5 dass beste SSAA besitzen und könnten nicht von dx9 karten übertroffen werden
Was soll jetzt dieser Quatsch wieder?
VSA100= sparsely sampled Supersampling, im 4x mode brauchbar in allen Anwendungen in 800x600; hoeher war es dann eher zu langsam ausser speziellen CPU limitierten Faellen. Starker Fuellraten und Bandbreiten- Einbruch.
Heutzutage kannst Du froh sein wenn ein Spiel ohne FSAA noch standesgemaess in einer vernuenftigen Aufloesung auf ner V5 laeuft.
Spectre (vaporware/dx8.0 kompliant)/3dfx= sparsely sampled Multisampling (2x/4x); Kleinerer Fuellraten - Einbruch. (Plus 128-tap adaptives Anisotropic filtering).
R300= sparsely sampled Multisampling (2x/4x/6x) + Farbenkomprimierung was sehr viel an Fuellrate einspart, was nicht nur umso einiges an hoeheren Aufloesungen garantiert aber auch mit CPU Power skalieren kann. (Plus 128-tap adaptives Anisotropic filtering).
In Sachen EER (aths' Lieblings-Thema :D ):
V5
(800x4) x (600x4) = 3200 x 2400
R300
(1280x4) x (960x4) = 5120 x 3840
Wobei die letztere garantiert spielbar ist mit einer weiten Mehrheit von heutigen Spielen mit zumindest Level 8x Aniso.
und genau hier liegt der punkt
das neueste dx wird im prinzip nur für die noobs integriert genau wie Agp 8x
wer kauft sich schon eine dx8 karte wenn es schon dx9 gibt jedoch werden wir dx9 spiele frühestens 2006 sehen bei der geschwindigkeit mit der sich dx8 verbreitet hat
Komisch ist dass Du hier zustimmst, aber nicht einsehen willst dass wenn ImgTec Markt-Akzeptanz mit einer neuen Produkt-Serie maximalisieren will, dass sie dann auch den letzten Schrei anbieten muessen. Klaer mal das Oxymoron mit Dir selber auf.
du sagst ja immer dass du gut informierte quellen in diesem bereich hast also kannst du vielleicht auch ein datum nennen wann der chip kommen soll( schließlcih nähern wir uns beim nv35 wohl den 600 MhZ core) und bei diesem tempo wird es der kyro schwer haben mitzuhalten wenn er nciht bald kommt
Deine "Quellen" helfen hier nicht?
STGxxxx waren ST Microelectronics Codechipnamen als erstes. Zweitens ist Deine informierte Persona gerade ueber KYRO III aka Vaporware aka "wirwerdendiedingerniesehen" gestolpert.
Uebrigens oben nochmal auf den EEtimes Link druecken, da wird was von 0.13um erwaehnt.
joa habe wohl zu wenig von meiner behauptung am anfang zitiert
ích meinte im original ja nciht jede dx7 anwendung sondern eben nur bestimmte welche dem kyro eben passen (solche anwendungen halt wie powerVr sie in ihren benchmarks immer wieder zeigt)
Keiner hat sie bis jetzt eigentlich verwendet und wird es auch nicht tun, wenn es sich um unterspezifizierte chips handelt die eine klitzekleines Prozentual des Markts bestimmen. Da hilf die erste Million verkaufter Einheiten in 2001 auch nicht mehr viel. Im besten Fall hat sich die Nummer bis heute noch verdoppelt.
naja alles in den schatten stellen heißt ja nur dass man eine überlegene leistung hat welche der chip nunmal besaß
dabei ist die zeitspanne eher unwichtig
es kann so kommen wie im falle von Ati mit dem r300 oder eben so wie es matrox ergangen ist
Allergie gegen Links oder was? Nochmal:
http://firingsquad.gamers.com/hardware/g400/default.asp
Ich sehe da eher die G400 zwar potential zu haben, aber sie stand dann eher im Schatten von anderen Karten ueberhaupt der TNT Ultra. Von der GeForce die kurz danach folgte ganz zu schweigen, wie schon gesagt.
hmm wie unten erklärt sehe ich aber ien prob wenn der chip zu spät kommt und im zu spät kommen ist powerVr seit dem kyro2SE geübt
Schreibst Du Posts von unten nach oben? :D
Wenn er zu spaet kommen sollte, dann wird es eben ein mainstream chip sein im Vergleich zur Konkurrenz. Wuerden sie nur an einer mainstream Loesung arbeiten, dann koennen sie den dann im Falle einer Verspaetung nur noch als ultra low budget verkaufen.
hmm ich sehe ein problem falls powerVr zu spät kommt
dann ergibt sich eine situation ala nv30
sie haben ihren tollen(oder schlechten) chip gebracht und werden sofort überrundet von der konkurenz
aber ich finde auch dass es höchste zeit ist dass sie was tolles bringen und ich wünsche es ihnen auch wirklich
nur überzeugt bin ich von ihren fähigkeiten noch nicht
Du siehst in allen Richtungen "Probleme" ohne:
a) einen Schimmer zu haben was Spezifikationen betrifft
b) fuer wann er projektiert wird
Nur weil Du ueber mehrere Seiten nicht zugeben willst, dass Deine sogenannten Quellen eher imaginativ waren, als dass es handhabender Information entsprechen wuerde. Es kann sein dass ein Krieg in Grossbrittanien losbricht auf eigenem Boden, das denen der Himmel auf den Deckel faellt, dass der CEO die Bargeld Reserven einkassiert und in die Bermudas flieht oder was immer auch.
Im Ende wird eine high end Architektur entwickelt und nicht fuer heutige Standards, sondern fuer den Zeitpunkt wo das Produkt auch geplant fuer seine Vorstellung ist.
Spake
2003-02-01, 16:35:52
Originally posted by Ailuros
KYRO ist schon einiger Zeit am Ende seiner Tage da wichtige Key-Features wie cube maps und T&L fehlen und obwohl ein TBDR 350MPps Fuellrate und 2.6GB/sec Bandbreite sind einfach viel zu wenig.
Uebrigens:
Dreamcast 98', KYRO 00', KYRO II 01'.
jetzt hast du dich aber in eine sackgasse verlaufen
konsolen müssen nicht high-end chips sein
um dass zu begründen bezieh ich mich neben meiner verrosteten errinnerung auch gerne auf deine eigene aussage
"Klingelt's vielleicht im Hinterkopf wenn ich Dir sage dass die Unterschiede zwischen Dreamcast und KYRO nicht so gross sind wie Du Dir vorstellst? (gleiches gilt uebrigens auch was Serie2 und 3 betrifft ausser ein paar Rafinessen die bei Serie3 dazukamen, sind die Features der beiden Generationen sehr nahe dran; siehe Neon250)."
Originally posted by Ailuros
Irgendwo muss ich wohl schon Anhalt haben, um zu behaupten dass die am Konsolen-Markt interessiert sind, aus der Luft schnappe ich mir nichts. Die paar letzten ImgTec Interim Reporte erwaehnten es klipp und klar mehrere Male.
erwähnen und machen ist eine ganz andere sache
es gibt ja noch nichtmal richitge anzeichen für einen chip sondern eben nur raporte und die sprecher werden doch bezahlt dafür dass sie den eigenen chip superhoch loben
realität und wirklichkeit liegen im Graka markt weit außeinander
Originally posted by Ailuros
Und zu was hab ich den Link gepostet hm? Nochmal:
http://www.eetimes.com/semi/news/OEG20021003S0016
Hier wenn Du zum zweiten Mal nicht drauf klicken willst:
boah aber nunmal vertraue ich auf solche aussagen nie denn diese sind nie realitätsbezogen und nur weil der eine hannes
"As well as class-leading functionality, there will be some unique features enabled by tile-based rendering,” said Metcalfe. "
heißt dass nett dass die perf wirklich super sein wird
Originally posted by Ailuros
Das setzt der Designer/Hersteller dann fest und versucht akzeptable niedrige Leistung bei einem chip erreichen zu koennen mit allen Features eingesetzt. Theoretisch hasst Du zwar nicht unrecht, aber es ist selten anders so wie der Markt heute aussieht, und unterspezifizierte Karten haben selten Erfolg, da der Markt und Verbraucher Wert auf Spezifikationen legen. Das dummste Beispiel waere momentan AGPx8; es nutzt zwar nichts aber hoeher klingt eben besser.
check
Originally posted by Ailuros
Im Fall von UT2003 (wo das ganze auch abgeschlagen ist) wuerde ich die Antwort lieber z.b. Vogel hinterlassen. Auf jeden Fall kannst Du von mir aus eine GF2 Ultra mit einer GF4 Ti4200 mit gleicher Taktung im Spiel vergleichen, vielleicht koennen wir dann hier auch einen "check" benutzen.
aber du stimmst mir doch zu dass die T&L einheit der G2Ultra schwächer ist als die 2 shader der G4Ti 4200 oder?
aber die features davon werden nicht genutzt und dass regt mich wirklich auf
dx oder opengl hat nix mit der performance einer graka zu tun
darin stimmen wir doch überein oder?!
Originally posted by Ailuros
Was soll jetzt dieser Quatsch wieder?
VSA100= sparsely sampled Supersampling, im 4x mode brauchbar in allen Anwendungen in 800x600; hoeher war es dann eher zu langsam ausser speziellen CPU limitierten Faellen. Starker Fuellraten und Bandbreiten- Einbruch.
Heutzutage kannst Du froh sein wenn ein Spiel ohne FSAA noch standesgemaess in einer vernuenftigen Aufloesung auf ner V5 laeuft.
Spectre (vaporware/dx8.0 kompliant)/3dfx= sparsely sampled Multisampling (2x/4x); Kleinerer Fuellraten - Einbruch. (Plus 128-tap adaptives Anisotropic filtering).
R300= sparsely sampled Multisampling (2x/4x/6x) + Farbenkomprimierung was sehr viel an Fuellrate einspart, was nicht nur umso einiges an hoeheren Aufloesungen garantiert aber auch mit CPU Power skalieren kann. (Plus 128-tap adaptives Anisotropic filtering).
In Sachen EER (aths' Lieblings-Thema :D ):
V5
(800x4) x (600x4) = 3200 x 2400
R300
(1280x4) x (960x4) = 5120 x 3840
Wobei die letztere garantiert spielbar ist mit einer weiten Mehrheit von heutigen Spielen mit zumindest Level 8x Aniso.
ehrlich gesagt ist eher dein post auf den ich mich beziehe quatsch:
"Kein Einwand zu dieser Perspektive. Man braucht aber die Rohe Leistung und Effizienz/Flexibilitaet von dx8 Karten (hoehere Bandbreiten + Bandbreiten schonende Techniken, effizientere pipelines, bessere und schnellere AA/aniso Algorithmen usw usw.).
Wie sieht FSAA Leistung auf R100/R200 im Vergleich zu R300 aus? Nur ein Beispiel. "
dx hat überhaupt nix mit der schönheit oder der geschwindigkeit von AA oder AF zu tun oder?!
Originally posted by Ailuros
Komisch ist dass Du hier zustimmst, aber nicht einsehen willst dass wenn ImgTec Markt-Akzeptanz mit einer neuen Produkt-Serie maximalisieren will, dass sie dann auch den letzten Schrei anbieten muessen. Klaer mal das Oxymoron mit Dir selber auf.
ui super argumentation
den letzten schrei anbieten ist ja alles ganz schön und gut aber ich denke die packen dass nett im ersten anlauf
Originally posted by Ailuros
Deine "Quellen" helfen hier nicht?
STGxxxx waren ST Microelectronics Codechipnamen als erstes. Zweitens ist Deine informierte Persona gerade ueber KYRO III aka Vaporware aka "wirwerdendiedingerniesehen" gestolpert.
Uebrigens oben nochmal auf den EEtimes Link druecken, da wird was von 0.13um erwaehnt.
aha und selber beziehst du dich auf einen nicht erschienenen chip
ziemlich ironisch irgendwie
und bis jetz haben wir auch KEINEN einzigen chp gesehen
ich vergleiche es zwar nie mit der series4 aber wenn du schon maldabei bist:
es gibt bis jetzt keine karten und dass ist nn wirklich ein tolles zeichen für ein baldiges kommen oder?!
und mein gott wer sagt dass man 0.13 braucht um hoch zu takten bzw. dass man es sofort schafft
der Xabre 600 taktet nur auf 300 und die nv30 läuft mit einem riesen kühlaufwand auf 500 während die R300 mit dem gleichen kühlaufwand wie die fx auch auf 500 läuft und dass bei 0.15
Originally posted by Ailuros
Keiner hat sie bis jetzt eigentlich verwendet und wird es auch nicht tun, wenn es sich um unterspezifizierte chips handelt die eine klitzekleines Prozentual des Markts bestimmen. Da hilf die erste Million verkaufter Einheiten in 2001 auch nicht mehr viel. Im besten Fall hat sich die Nummer bis heute noch verdoppelt.
.... powerVr wird wohl auch mit der series 5 nur in ein paar benches schneller sein als dass ATI/nvidia pendant und in den anderen loosen
Originally posted by Ailuros
Allergie gegen Links oder was? Nochmal:
http://firingsquad.gamers.com/hardware/g400/default.asp
Ich sehe da eher die G400 zwar potential zu haben, aber sie stand dann eher im Schatten von anderen Karten ueberhaupt der TNT Ultra. Von der GeForce die kurz danach folgte ganz zu schweigen, wie schon gesagt.
"Well, what can we say? For a card that is not clocked incredibly high, the Millennium G400 performed excellently in the tests that we ran it through. We were very impressed by its performance, considering it was pitted against card clocked much faster than it. All the while, it maintained sharp image quality and vivid coloring. The Millennium is a card that has top-notch image quality, but maintains a performance aspect for gaming as well. Definitely an excellent choice."
also ehrlich gesagt dass reicht damit sie andere karten in den schatten stellt aber nunmal heißt dass dass matrox mal wusste wie sie karten welche höher getaktet sind schlagen aber es bei der parhelie nicht geschafft haben
powerVr ist auch kein graka gott und schafft es auf anhieb einen überflieger zu bauen
Originally posted by Ailuros
Wenn er zu spaet kommen sollte, dann wird es eben ein mainstream chip sein im Vergleich zur Konkurrenz. Wuerden sie nur an einer mainstream Loesung arbeiten, dann koennen sie den dann im Falle einer Verspaetung nur noch als ultra low budget verkaufen.
aha also ich mach hier mal ein
check
Originally posted by Ailuros
Du siehst in allen Richtungen "Probleme" ohne:
a) einen Schimmer zu haben was Spezifikationen betrifft
b) fuer wann er projektiert wird
Nur weil Du ueber mehrere Seiten nicht zugeben willst, dass Deine sogenannten Quellen eher imaginativ waren, als dass es handhabender Information entsprechen wuerde.
wieso sollte ich mich auf quellen beziehen(die du überliest du sowieso :D ) da wir hier im spekuforum sind und ich powerVr einfach nicht zutraue auf anhieb ein geschoss zu bauen
und spezi sind sowieso ziemlich unsicher (BEISPIEL: oder glaubst du wirklich dass S3 ihre spezi einhalten und einen chip mit 20 000 3dMarks bauen)
Originally posted by Ailuros
Im Ende wird eine high end Architektur entwickelt und nicht fuer heutige Standards, sondern fuer den Zeitpunkt wo das Produkt auch geplant fuer seine Vorstellung ist.
hätt ich nett erwartet dass sie so einen chip bauen wollen ;)
spaß beiseite :
wenn er nett bald kommt ist der Zug schon abgefahren und dass du diese einsicht mehr oder weniger teilst hast du mir in deinen posts bestätigt
also check :D
loewe
2003-02-01, 17:33:32
Originally posted by Spake
wenn er nett bald kommt ist der Zug schon abgefahren und dass du diese einsicht mehr oder weniger teilst hast du mir in deinen posts bestätigt
Ich weiß zwar nicht wie du bald definierst, ist halt ein recht relativer Begriff, aber ich denke mal du verstehst darunter "zeitlich sehr nah",
dann ist der Zug wohl abgefahren.
;D ;D ;D
Aber wie Ailuros schon sagte, wir wissen nicht von welchem Level wir hier sprechen und damit auch nicht wer die Gegner sein sollen.
Ailuros
2003-02-02, 02:49:08
jetzt hast du dich aber in eine sackgasse verlaufen
konsolen müssen nicht high-end chips sein
um dass zu begründen bezieh ich mich neben meiner verrosteten errinnerung auch gerne auf deine eigene aussage
Wirklich? Dreamcast Spezifikationen in 1998 waren high end, waeherend im Jahre 2000 low end.
Mach Dir endlich mal die Muehe und Vergleiche die Spezifikationen einer Voodoo2 mit Dreamcast oder Neon250, so langsam wird's langweilig den gleichen Mist zu wiederholen.
erwähnen und machen ist eine ganz andere sache
es gibt ja noch nichtmal richitge anzeichen für einen chip sondern eben nur raporte und die sprecher werden doch bezahlt dafür dass sie den eigenen chip superhoch loben
realität und wirklichkeit liegen im Graka markt weit außeinander
Immer noch besser als Deine Basis-losen Spekulationen.
boah aber nunmal vertraue ich auf solche aussagen nie denn diese sind nie realitätsbezogen und nur weil der eine hannes
"As well as class-leading functionality, there will be some unique features enabled by tile-based rendering,” said Metcalfe. "
heißt dass nett dass die perf wirklich super sein wird
Vize Praesident fuer Business Planung. Hilft Deiner Argumentation wohl nicht hm? Der Kommentar ist erstmal auf das Feature-set bezogen functionality != performance, und zweitens wie gesagt eine high end Architektur.
ehrlich gesagt ist eher dein post auf den ich mich beziehe quatsch:
"Kein Einwand zu dieser Perspektive. Man braucht aber die Rohe Leistung und Effizienz/Flexibilitaet von dx8 Karten (hoehere Bandbreiten + Bandbreiten schonende Techniken, effizientere pipelines, bessere und schnellere AA/aniso Algorithmen usw usw.).
Wie sieht FSAA Leistung auf R100/R200 im Vergleich zu R300 aus? Nur ein Beispiel. "
dx hat überhaupt nix mit der schönheit oder der geschwindigkeit von AA oder AF zu tun oder?!
Multisampling wurde damals fuer dx8 vorgeschlagen und zwar von 3dfx. Man kann Hartwaren Algorithmen nicht einfach in alle Karten einfach so zufuegen, ohne dass die Hartware dementsprechend modifiziert wird. Natuerlich gibt es heutzutage auch dx7/GF4MX's mit Multisampling, die kamen trotzdem spaeter als dx8 vorgestellt wurde.
Wenn die Fuellrate/Bandbreite auf einer DX7 Karte zu tief ist, dann hilft Multisampling auch nicht viel, denn Anisotropic wuerde es die Leistung dann auch wieder zu viel einbrechen.
Geschichtlich haben die ex-SGI engineers die bei 3dfx damals arbeiteten zuerst einen Accumulations-Buffer fuer Rampage entwickelt mit Multisampling (M-Buffer). Dieser erleidete unendliche re-Designs und Verspaetungen dass die in Richtung SLI dachten um den Avenger leicht zu modifizieren und FSAA hinzuzufuegen. Multisampling war nicht moeglich fuer Avenger ohne weitere Modifikationen, und Anisotropic filtering waere zu lahm auf dem chip gewesen. Da wurde der A-buffer fuer Supersampling von Gary Tarolli modifiziert (daher auch T-buffer) und so enstand der VSA-100.
Im guten Ganzen hat DX Runtime selber nicht viel damit zu tun, die Generationen der Karten die aber durch ihre Komplianz gewisse Leistung und Spezifikationen designieren schon.
ui super argumentation
den letzten schrei anbieten ist ja alles ganz schön und gut aber ich denke die packen dass nett im ersten anlauf
Denken kannst Du was Du willst. Die Inginieure bei ImgTec/PVR sind keine Gruppe von 20-jaehrigen Studenten die chips in Garagen entwerfen.
aha und selber beziehst du dich auf einen nicht erschienenen chip
ziemlich ironisch irgendwie
und bis jetz haben wir auch KEINEN einzigen chp gesehen
ich vergleiche es zwar nie mit der series4 aber wenn du schon maldabei bist:
es gibt bis jetzt keine karten und dass ist nn wirklich ein tolles zeichen für ein baldiges kommen oder?!
und mein gott wer sagt dass man 0.13 braucht um hoch zu takten bzw. dass man es sofort schafft
der Xabre 600 taktet nur auf 300 und die nv30 läuft mit einem riesen kühlaufwand auf 500 während die R300 mit dem gleichen kühlaufwand wie die fx auch auf 500 läuft und dass bei 0.15
ROFL :D
Hier ist Dein originaler Kommentar:
die Ti4200 ist kein high-end sondern eher so bissl über mainstream und außerdem schreibe ich auch nicht dass das bei allen games so sein wird sondern eben in ein paar fällen in dx7 anwendungen
Wobei:
Ti4200= 250/500MHz
Ti4400= 275/550MHz
Ti4600= 300/650MHz
Zu dem Teil hab ich die Takt-und Speicherraten der KYRO III Modelle erwaehnt. Verwirrend hm?
Zu .13um:
a) Du kannst ja frei hier spekulieren wie die Spezifikationen aussehen. Wenn Du Lust hast kann ich dann zu jedem Punkt ja oder nein sagen, so etwa wie ein 20 Q&A Spiel (was Serie5 betrifft).
b) Schon Vaporware/K3 war auf 13um. Unterschied ist dass der originale Design fuer Serie4 (in einem uralten roadmap bis zu 1999) 15um vorgesehen hat und mit einer Taktrate von =/>150MHz. Um hoehere Taktraten zu erreichen und die Kosten zu reduzieren wurde das Ganze auf 13um reduziert. Prototypen waren schon Anfang 2002 fertig, und das Ding kam nie auf den Markt weil ST Micro wie bekannt aus dem Markt ausgestiegen ist.
c) Wie hoch man einen chip fuer jeden Prozess takten kann haengt von der Komplexitaet/Transistor count des chips ab. Wie dem auch immer sei deren groesstes Problem mit 15um waere Platz gewesen und nicht Taktraten.
d) Wie gesagt der stornierte chip schaffte die 13um problemlos, wegen seiner eher beschraenkten Komplexitaet, und MBX@13um ist auch schon fertig seit einiger Zeit. Hier die detaillierte Praesentation des chips:
http://www.arm.com/techdocs/5ETJKM/$File/DTO0003B_MBX.pdf?OpenElement
.... powerVr wird wohl auch mit der series 5 nur in ein paar benches schneller sein als dass ATI/nvidia pendant und in den anderen loosen
Ich spekuliere nie ueber Leistung wenn ich nur Spezifikations-Nummern sehe. Vielleicht kannst Du mir aufklaeren woher Du zu einer solchen Schlussvolgerung kommst; mit welchen Spezifikationen und im Vergleich zu was?
also ehrlich gesagt dass reicht damit sie andere karten in den schatten stellt aber nunmal heißt dass dass matrox mal wusste wie sie karten welche höher getaktet sind schlagen aber es bei der parhelie nicht geschafft haben
In den Schatten stellen heisst bei mir dass eine Karte wenigstens um ein bisschen als die Konkurrenz schneller ist, was bei der G400 NIE der Fall war.
powerVr ist auch kein graka gott und schafft es auf anhieb einen überflieger zu bauen
Und das ist relevant zu Matrox in welchem Sinn? Wenn's aber schon sein muss seit der G400 gab's sowieso nichts von denen, nur ne G450, und die Wiedergabe von Parhelia ist so phaenomenal dass sich selbst gegen eine um 1/8-tel billigere K2 nicht in allen Faellen ueberzeugen kann.
wieso sollte ich mich auf quellen beziehen(die du überliest du sowieso ) da wir hier im spekuforum sind und ich powerVr einfach nicht zutraue auf anhieb ein geschoss zu bauen
Uebersetzung: ich hab keinen Schimmer, aber irgendwie muss ich meine Argumente auch verteidigen. Ob oder was Du denen zutraust ist irrelevant; entweder Du weisst was oder nicht.
hätt ich nett erwartet dass sie so einen chip bauen wollen
spaß beiseite :
wenn er nett bald kommt ist der Zug schon abgefahren und dass du diese einsicht mehr oder weniger teilst hast du mir in deinen posts bestätigt
also check
Zeig mir wo ich erwaehnt habe dass er "bald" herauskommen muss, oder mit welchem chip zur Konkurrenz angesetzt ist. Aber da Du schon so hartnaeckig drauf bestehst, kannst Du mir ja in der Zwischenzeit aufklaeren, wann es herauskommen soll und gegen was es konkurrieren soll.
Spake
2003-02-04, 20:45:15
Öhm mal so als reine frage-> du nimmst diese diskusion wirklich ernst oder?! Also in anbetracht der tatsache dass keiner von uns beiden den anderen jemals überzeugen willst nimmst du dass hier wirklich ernst =D
Originally posted by Ailuros
Wirklich? Dreamcast Spezifikationen in 1998 waren high end, waeherend im Jahre 2000 low end.
wenn du mir zustimmst dass konsolenchips nie high-end sein müssen dann beachte den nächsten teil nicht:
mein beispiel ist wohl doch nett ganz klar
xbox -> nv2A (nv20 war 2001)
gamecube -> flipper dx7
[playstation -> 32Bit gegen dass N64]
so gesehen muss man nicht immer high-end chips einsetzen für gute konsolen
Originally posted by Ailuros
Immer noch besser als Deine Basis-losen Spekulationen.
hmm also jetzt mal low
ich bin nie basis-los
du magst ja super quellen haben aber wenn du dich nicht 100% darauf beziehen kannst(wieso auch immer ->NDA?) bist du auch nett besser
zumindest fällt es mir auf dass du immer von quellen redest aber diese nicht nennst
Originally posted by Ailuros
Vize Praesident fuer Business Planung. Hilft Deiner Argumentation wohl nicht hm? Der Kommentar ist erstmal auf das Feature-set bezogen functionality != performance, und zweitens wie gesagt eine high end Architektur.
und? der muss ja auch nett 100%tig die wahrheit sagen ->immerhin buisiness planing (zu business planung heißt ja auch dass man gute verkaufszahlen haben muss)
und mal ganz neben bei hasst du meinen komment nett ganz durchgelesen
ich hab die perf kritisiert nicht die features und au0ßerdem gibt high-end ja nur den "angepeilten" markt an
Originally posted by Ailuros
Multisampling wurde damals fuer dx8 vorgeschlagen und zwar von 3dfx. Man kann Hartwaren Algorithmen nicht einfach in alle Karten einfach so zufuegen, ohne dass die Hartware dementsprechend modifiziert wird. Natuerlich gibt es heutzutage auch dx7/GF4MX's mit Multisampling, die kamen trotzdem spaeter als dx8 vorgestellt wurde.
Wenn die Fuellrate/Bandbreite auf einer DX7 Karte zu tief ist, dann hilft Multisampling auch nicht viel, denn Anisotropic wuerde es die Leistung dann auch wieder zu viel einbrechen.
Geschichtlich haben die ex-SGI engineers die bei 3dfx damals arbeiteten zuerst einen Accumulations-Buffer fuer Rampage entwickelt mit Multisampling (M-Buffer). Dieser erleidete unendliche re-Designs und Verspaetungen dass die in Richtung SLI dachten um den Avenger leicht zu modifizieren und FSAA hinzuzufuegen. Multisampling war nicht moeglich fuer Avenger ohne weitere Modifikationen, und Anisotropic filtering waere zu lahm auf dem chip gewesen. Da wurde der A-buffer fuer Supersampling von Gary Tarolli modifiziert (daher auch T-buffer) und so enstand der VSA-100.
Im guten Ganzen hat DX Runtime selber nicht viel damit zu tun, die Generationen der Karten die aber durch ihre Komplianz gewisse Leistung und Spezifikationen designieren schon.
hmm genau meine meinung
MS gibt es hauptsächlich nur bei dx8-karten ist aber sonst nett verknüpft mit dx8
also check
Originally posted by Ailuros
Denken kannst Du was Du willst. Die Inginieure bei ImgTec/PVR sind keine Gruppe von 20-jaehrigen Studenten die chips in Garagen entwerfen.
und? dass heist nicht dass sie es auch drauf haben
kennst ja meine meinung über PowerVr bei high-end =D
übrigens macht powerVr ja nicht die chips sondern ein partner und hier liegt mein 2.tes problem
Originally posted by Ailuros
b) Schon Vaporware/K3 war auf 13um. Unterschied ist dass der originale Design fuer Serie4 (in einem uralten roadmap bis zu 1999) 15um vorgesehen hat und mit einer Taktrate von =/>150MHz. Um hoehere Taktraten zu erreichen und die Kosten zu reduzieren wurde das Ganze auf 13um reduziert. Prototypen waren schon Anfang 2002 fertig, und das Ding kam nie auf den Markt weil ST Micro wie bekannt aus dem Markt ausgestiegen ist.
hmm und genau hier liegt ja mein 2.tes prob
mit 175 Core war doch die kyro2 getaktet
und der nachfolger ist auch nicht fähig höher zu takten sondern braucht dafür o.13um
Originally posted by Ailuros
c) Wie hoch man einen chip fuer jeden Prozess takten kann haengt von der Komplexitaet/Transistor count des chips ab. Wie dem auch immer sei deren groesstes Problem mit 15um waere Platz gewesen und nicht Taktraten.
und neben dem auch von den fähigkeiten der chipdesigner wie man immer wieder sieht
Originally posted by Ailuros
d) Wie gesagt der stornierte chip schaffte die 13um problemlos, wegen seiner eher beschraenkten Komplexitaet, und MBX@13um ist auch schon fertig seit einiger Zeit. Hier die detaillierte Praesentation des chips:
wie gesagt der xabre 600 schafft auch 300 Core aber die kyro sollte höher liegen und je später sie kommt desto schwieriger wirds
Originally posted by Ailuros
Ich spekuliere nie ueber Leistung wenn ich nur Spezifikations-Nummern sehe. Vielleicht kannst Du mir aufklaeren woher Du zu einer solchen Schlussvolgerung kommst; mit welchen Spezifikationen und im Vergleich zu was?
mit welchen spezi ?!
ich brauche keine weil ich sowieso daran zweifle dass die spezis auch richtig eingehalten werden etc.
und ähm wir sind hier doch im spekuforum oder?
Originally posted by Ailuros
In den Schatten stellen heisst bei mir dass eine Karte wenigstens um ein bisschen als die Konkurrenz schneller ist, was bei der G400 NIE der Fall war.
hmm ich fand sie gut aber dass ist ja wohl ansichtssache =D und dass in den schatten stellen war von der gamestar gaklaut was eigentlich immer falsch ist aber ich hatte halt diese erinnerung
ich geb ja zu dass das beispiel nicht super war
Originally posted by Ailuros
Und das ist relevant zu Matrox in welchem Sinn? Wenn's aber schon sein muss seit der G400 gab's sowieso nichts von denen, nur ne G450, und die Wiedergabe von Parhelia ist so phaenomenal dass sich selbst gegen eine um 1/8-tel billigere K2 nicht in allen Faellen ueberzeugen kann.
ich sag ja war ein schlechtes beispiel aber ist Ati da ein besseres beispiel für dich?!
high-end marktpräsent sind di auch erst seit der R300
Originally posted by Ailuros
Uebersetzung: ich hab keinen Schimmer, aber irgendwie muss ich meine Argumente auch verteidigen. Ob oder was Du denen zutraust ist irrelevant; entweder Du weisst was oder nicht.
also ich versuchs mal neutral zu sehen
wir beziehen uns beide selten auf reale quellen sondern spekulieren
und weiter sag ich nix sonst gibts wieder haue :D ...?!
Originally posted by Ailuros
Zeig mir wo ich erwaehnt habe dass er "bald" herauskommen muss, oder mit welchem chip zur Konkurrenz angesetzt ist. Aber da Du schon so hartnaeckig drauf bestehst, kannst Du mir ja in der Zwischenzeit aufklaeren, wann es herauskommen soll und gegen was es konkurrieren soll.
vertraust du mir nicht
also wenn ich ich recht entsinne meintest du sowas wie er sollte bald kommen etc. irgenwo auf dieser seite
also mal sehen high-end wäre in diesem jahr R350/nv30 oder nv35/R400 dann wären taktraten von bis zu 500 Core wohl ganz angebracht zumindest bei nicht riesig gesteigerter pro mhz leistung
um zu konkurieren brauchen sie also einen ordentlichen core(70% wahrscheinlichkeit) und auch ein ganz gutes chipdesign(40% wahrscheinlichkeit) + ein paar weitere möglichkeiten
ich freu mich für powerVr wenn sie es schaffen aber ich traus ihnen im moment noch nicht zu
LovesuckZ
2003-02-04, 21:39:28
Originally posted by Spake
mein beispiel ist wohl doch nett ganz klar
xbox -> nv2A (nv20 war 2001)
gamecube -> flipper dx7
[playstation -> 32Bit gegen dass N64]
so gesehen muss man nicht immer high-end chips einsetzen für gute konsolen
Bis auf dem gamecube (wobei, die Grafik im Vergleich zur Xbox nicht schlechter aussieht), waren Xbox, PS, Dreamcast Konsolen, die dank ihrer High End Grafikeinheit deutlich besser aussahen als PC Spiele.
zeckensack
2003-02-04, 22:48:22
Originally posted by Spake
Öhm mal so als reine frage-> du nimmst diese diskusion wirklich ernst oder?! Also in anbetracht der tatsache dass keiner von uns beiden den anderen jemals überzeugen willst nimmst du dass hier wirklich ernst =D
wenn du mir zustimmst dass konsolenchips nie high-end sein müssen dann beachte den nächsten teil nicht:
mein beispiel ist wohl doch nett ganz klar
xbox -> nv2A (nv20 war 2001)
gamecube -> flipper dx7
[playstation -> 32Bit gegen dass N64]Der NV2A ist leistungsfähiger als NV20. High-End.
Der Flipper ist ein High-End-Grafikchip. DirectX-Klassifizierung ist dort irrelevant. Sowohl Leistung als auch Features sind sehr hoch einzuordnen.
Das mit der Playstation meinst du jetzt nicht ernst, oder? Das Stichwort ist Grafik, und nicht 'Anzahl der Bits irgendwo im Gerät'.
Und dann überleg dir mal, was für Grafikkarten zu der Zeit im PC-Sektor üblich waren. Da ging's gerade mal los, und man durfte sich über Gurken wie Matrox Mystique und S3 Virge 'freuen'.
so gesehen muss man nicht immer high-end chips einsetzen für gute konsolenEben doch.
hmm und genau hier liegt ja mein 2.tes prob
mit 175 Core war doch die kyro2 getaktet
und der nachfolger ist auch nicht fähig höher zu takten sondern braucht dafür o.13umBegründung/Quellen?
wie gesagt der xabre 600 schafft auch 300 Core aber die kyro sollte höher liegen und je später sie kommt desto schwieriger wirdsXabre ist
1)Ein Low-End-Billigchip
2)Fürchterlich ineffizient
Was hat S5 mit dem Xabre zu tun?
mit welchen spezi ?!
ich brauche keine weil ich sowieso daran zweifle dass die spezis auch richtig eingehalten werden etc.
und ähm wir sind hier doch im spekuforum oder?Spezifikationen=Eckdaten einer Architektur, Performance und Features halt. Dann spekulier mal schön :)
also mal sehen high-end wäre in diesem jahr R350/nv30 oder nv35/R400 dann wären taktraten von bis zu 500 Core wohl ganz angebracht zumindest bei nicht riesig gesteigerter pro mhz leistungBITTE vergleiche mal die Taktfrequenzen und Leistungsdaten alter PowerVR-Implementationen mit IMRs der gleichen Generation, wie zB Geforce2.
Ailuros
2003-02-05, 03:54:24
hmm also jetzt mal low
ich bin nie basis-los
du magst ja super quellen haben aber wenn du dich nicht 100% darauf beziehen kannst(wieso auch immer ->NDA?) bist du auch nett besser
zumindest fällt es mir auf dass du immer von quellen redest aber diese nicht nennst
Guter Grund auf diesen normalerweise verstaendlichen Begrenzungen herumzutanzen, diese Schwaeche voll ausbeuten, nur um ein Argument zu gewinnen.
Ich hab mehrere Asse im Aermel als Du Dir vorstellen kannst, und ich nutze sie auch nie auf ersten Anhand aus:
http://www.pvrgenerations.co.uk/cgi-bin/viewarticle.cgi?page=/articles/2002/kristof1102&printer=0&pagenum=1
Weitere Erklaerungen gebe ich keine.
und? der muss ja auch nett 100%tig die wahrheit sagen ->immerhin buisiness planing (zu business planung heißt ja auch dass man gute verkaufszahlen haben muss)
und mal ganz neben bei hasst du meinen komment nett ganz durchgelesen
ich hab die perf kritisiert nicht die features und au0ßerdem gibt high-end ja nur den "angepeilten" markt an
Zeig mir einen Fall im Gegenteil wo ein Sprachsmann von ImgTec/PVR durch den Boden gelogen oder uebertrieben hat, in der Vergangenheit so wie heute. John Metcalfe gehoert zum hohen Management bei ImgTec, wobei fuer Public Relations normalerweise David Harold zustaendig ist.
Was Leistung betrifft, da bekommt bestimmt noch keiner insider infos; es wird zwar getestet aber vor Veroeffentlichung oder Ankuendigung wird da selten drueber gesprochen.
und? dass heist nicht dass sie es auch drauf haben
kennst ja meine meinung über PowerVr bei high-end =D
übrigens macht powerVr ja nicht die chips sondern ein partner und hier liegt mein 2.tes problem
Wie gesagt schlechte Quellen. Blaetter nochmal zum EEtimes Link zurueck. Metcalfe deutet auf zwei Optionen: entweder sie schicken es selber ins Labor oder ein Partner. Da momentan noch kein Partner angekuendigt ist was erscheint dann wahrscheinlicher? MBX wurde auch auf eigene PVR Initiative/Finanzierung ins Labor geschickt.
hmm und genau hier liegt ja mein 2.tes prob
mit 175 Core war doch die kyro2 getaktet
und der nachfolger ist auch nicht fähig höher zu takten sondern braucht dafür o.13um
KYRO II ist schon durch einen respin durchgegangen:
KYRO= 12M Transistoren/0.25um
KYRO II = 15M Transistoren/0.18um
Der ganze Design war fuer 25um anfangs ausgelegt, deshalb auch die Limitationen. Genauso war es mit KYRO III, die auf 0.15um ausgelegt war. Serie5 ist eine ganz andere Geschichte, da sie von Anfang an fuer 0.13um ausgelegt wurde.
und neben dem auch von den fähigkeiten der chipdesigner wie man immer wieder sieht
Dabei bist Du so gut informiert was diesen Bereich betrifft, dass Du mir sicher auch sagen kannst wieviele Inginieure es sind, wie lange sie schon bei der Firma arbeiten oder wo sie zuvor gearbeitet haben gell? ;)
wie gesagt der xabre 600 schafft auch 300 Core aber die kyro sollte höher liegen und je später sie kommt desto schwieriger wirds
Dabei ist der Xabre400 mit warem trilinear fast genauso schnell wie eine KYRO II, wobei man Supersampling erst gar nicht erwaehnen sollte. Der Verschmierfilter ist eine Beleidigung es 4xFSAA zu nennen.
http://www.xbitlabs.com/video/xabre400/index2.html
Gerade noch knappe 80fps in q3a 1024x768x32- trilinear.
mit welchen spezi ?!
ich brauche keine weil ich sowieso daran zweifle dass die spezis auch richtig eingehalten werden etc.
und ähm wir sind hier doch im spekuforum oder?
Ausreden. Entweder Du hast ne Ahnung oder nicht. Einfacher geht's gar nicht mehr.
ich sag ja war ein schlechtes beispiel aber ist Ati da ein besseres beispiel für dich?!
high-end marktpräsent sind di auch erst seit der R300
Schon mal was von ATI's Produkten vor der Radeon gehoert und deren Leistung oder ist dass alles wieder aus der Luft gegriffen, genauso wie mit der G400? Nichtdestominder bleiben wir mal in unmittelbarer Sichtgreife, Radeon sowie auch Radeon8500 waren high end Produkte fuer deren Zeit. Schau Dir nochmal die Spezifikationen und vorgeschlagenen MSRP fuer jedes Produkt zur Vorstellung an und was dahin gegen die Konkurrenz hatte.
Als ATI fett einkassiert vor Jahren, war NVIDIA nahe am Untergang mit den NV1 Flop damals. Der Retail Markt bringt die kleinsten Einkommen im Vergleich zum OEM Markt z.B., sich nur darauf zu konzentrieren hilft nicht.
vertraust du mir nicht
also wenn ich ich recht entsinne meintest du sowas wie er sollte bald kommen etc. irgenwo auf dieser seite
Kommt ganz drauf an ob ich "bald" wirklich verwendet habe, oder wie Du es interpretiert hast. Nicht vor Q3 2003, wenn alles nach Plan klappt.
also mal sehen high-end wäre in diesem jahr R350/nv30 oder nv35/R400 dann wären taktraten von bis zu 500 Core wohl ganz angebracht zumindest bei nicht riesig gesteigerter pro mhz leistung
um zu konkurieren brauchen sie also einen ordentlichen core(70% wahrscheinlichkeit) und auch ein ganz gutes chipdesign(40% wahrscheinlichkeit) + ein paar weitere möglichkeiten
Der Design ist so flexibel, dass so manche Zahlen wie wir sie heute kennen ihre Bedeutung verlieren. Allein der digitale TV/video playback chip hat schon so manches Interesse und gute Lizenzen eingebracht (noch nicht alle veroeffentlicht), wobei der chip fuer bis zu 4 simultanen tasks in Hartware faehig ist. Von da aus kannst Du weiterraten, das Interview oben gepostet genau durchlesen, und vielleicht kommst Du ein klein bisschen naeher dran.
Weiterhin kannst Du dann auch noch raten mit wem fuer eine Konsole schon seit einigen Monaten verhandelt wird :P
ActionNews
2003-02-05, 09:59:25
Originally posted by Ailuros
(...).
Weiterhin kannst Du dann auch noch raten mit wem fuer eine Konsole schon seit einigen Monaten verhandelt wird :P
Hmm...hat das was vielleicht damit zu tun: http://www.within3d.ch/index.php?show=news&type=shownews&id=593 ?
Naja ich hab mal wieder die entsprechende Stelle in deinem Interview nicht gefunden :(!
CU ActionNews
Ailuros
2003-02-05, 15:05:47
Keine klare Antwort auf Spekulationen ;)
PowerVR has a comprehensive set of visual IP cores for 2D/3D graphics that can address the requirements of many markets including laptops, notebooks and consoles. So far we have successfully addressed the market segments our customers desired. Our strategy is build around our highly scalable PowerVR Technology which will see us, over time, address a broad range of platforms.
Seite3 was das Interview betrifft.
ActionNews
2003-02-05, 16:38:54
Ach so! Danke! Ich dachte da stünde mehr konketes in deinem Interview, aber das ist ja auch eher wage. Naja dauert eh noch bis die neue Generation der Konsolen den Markt erreichen. Bis dahin kann man wunder schön spekulieren :D!
CU ActionNews
Ailuros
2003-02-06, 03:37:09
Wenn dann sowieso nicht frueher als Anfang 2004.
Spake
2003-02-11, 17:04:33
Originally posted by zeckensack
Der NV2A ist leistungsfähiger als NV20. High-End.
Der Flipper ist ein High-End-Grafikchip. DirectX-Klassifizierung ist dort irrelevant. Sowohl Leistung als auch Features sind sehr hoch einzuordnen.
Das mit der Playstation meinst du jetzt nicht ernst, oder? Das Stichwort ist Grafik, und nicht 'Anzahl der Bits irgendwo im Gerät'.
Und dann überleg dir mal, was für Grafikkarten zu der Zeit im PC-Sektor üblich waren. Da ging's gerade mal los, und man durfte sich über Gurken wie Matrox Mystique und S3 Virge 'freuen'.
hmm nv20 kam 2000 raus oder(weis nett mehr so genau)
und von der leistung liegt der chip mit einem core von 200 zwar über dem einer Geforce 3 aber auch nur so in geforce 3 Ti 500 regionen.
find ich halt nicht so toll und leistungsfähig für einen konsole welche high-end sein soll von der leistung
hmm der flipper taktet glaube ich mit 175 Core(bin mir nett sicher)
und ich glaube kaum dass Ati ein komplettes sehr teures redesign des R100 unternommen hat
allein schon wegen dx7 glaube ich dass der flipper auf dem R100 basiert deshalb mein post
und was das 32 Bit bei der playstation heißen soll wird schnell klar wenn man die grafik von N64 und PS vergleicht
die PS war nicht high-end hat sich aber sehr gut verkauft bis heute
und naja die grafik von konsolen ist immer sehr gut nur ist es schon nervtötend wenn features wie dx8 nicht benutzt werden
Originally posted by zeckensack
Begründung/Quellen?
hat mein sehr eifriger gesprächspartner erzählt
demzufolge nachzulesen in diesem thread
Originally posted by zeckensack
Xabre ist
1)Ein Low-End-Billigchip
2)Fürchterlich ineffizient
Was hat S5 mit dem Xabre zu tun?
ich sehe schon meine argument werden einfach nicht verstanden
der Xabre 600 wird in 0.13 um gefertigt und zwar nur bei 300 Mhz
und musste trotz seiner wenigen transistoren in einem kleineren prozeß gefertigt werden um diese taktfrequenz zu erreichen
S4 sollte auch in 0.13 gefertigt werden und auch bei einem takt von 300
wenn S5 also auf S4 aufbaut bzw. wenn die kunst der designer sich nicht verbessert wird der S5 kein high-end chip werden können schließlich werden die transistoren auch nicht weniger
Originally posted by zeckensack
BITTE vergleiche mal die Taktfrequenzen und Leistungsdaten alter PowerVR-Implementationen mit IMRs der gleichen Generation, wie zB Geforce2.
hmm kyro 2 auf 175 vs geforce 2 auf 200
wo liegt da das prob
so in meiner post oben hab ich 2 generationen von high-end chips genannt -> den nv 30 und den nv35
weil ich 2 gen genannt habe steht in meiner poost auch takt bis zu 500 Core damit er auch gegen einen mit 600 Mhz getakteten R400 ankommen wird(die taktrate ist zumindest beim nv35 wahrscheinlich)
ich versteht also nett wo das problem liegt denn die effizienz von IMR steigt auch immer weiter und Series 5 wird es bestimmt nicht einfacher haben je später sie kommt
ActionNews
2003-02-11, 17:29:13
Originally posted by Spake
(...)
hmm der flipper taktet glaube ich mit 175 Core(bin mir nett sicher)
und ich glaube kaum dass Ati ein komplettes sehr teures redesign des R100 unternommen hat
allein schon wegen dx7 glaube ich dass der flipper auf dem R100 basiert deshalb mein post
(...)
Das ist leider nicht Korrekt! Der Flipper ist von ArtX designt, welche Ati aufgekauft haben. Der Flipper ist eine völlige Neuentwicklung!
CU ActionNews
Ähm Spake:
Der Flipper wurde von ArtX Entwickelt, die waren bis um Gamecubelaunch noch selbstständig tätig. Nebenbei haben sie auch mal den Grafikcore für den ALi Alladin VII Chipsat hingebastelt, über Leistung etc. ist mir darüber allerdings nichts bekannt. Ich glaub der Chipsatz ist niemals auf dem Markt erschienen. Jedenfalls wurde ArtX NACH der Fertigstellung des Designs des Flipper aufgekauft. Dann hat ATI ArtX mit der Entwicklung des R300 beauftragt. Was dabei rausgekommen ist, sieht man ja.
Der Flipper an sich war seinerzeit in der Lage, die StarWars Todesstern-Scene aus Episode4 in Echtzeit mit ALLEN destails zu rendern. Das war damals ECHT fett :D
Es ist durchaus möglich, dass Nintendo und M$ auf ATIs ArtX zurückgreifen, wenn ATI ein entsprechendes Angebot macht. Jedoch können sie auch auf PowerVR zurückgreifen, da diese Technologie sich wegen ihrer Effizinz sehr gut für Konsolen eignet. NVidia wird M$ sicherlich nicht noch mal nehmen, jedenfalls nicht zu solchen Konditionen wie beim NV2A.
Übrigens ist beim NV2A die Renderingleistung nicht sonderlich hoch, braucht man ja auch net für eine Konsole. Der ur-NV20 hat mehr Renderleistung und Speicherbandbreite.
Der 2. Vertexshader ist der einzige Vorteil des NV2A gegenüber des NV20.
zeckensack
2003-02-11, 18:52:38
Originally posted by Spake
hmm nv20 kam 2000 raus oder(weis nett mehr so genau)
und von der leistung liegt der chip mit einem core von 200 zwar über dem einer Geforce 3 aber auch nur so in geforce 3 Ti 500 regionen.
find ich halt nicht so toll und leistungsfähig für einen konsole welche high-end sein soll von der leistungDie Geforce 3 (aka NV20) kam im Frühjahr 2001. Ti200/Ti500 im Spätherbst. Ergo -> als die XBox rauskam, war ihre Grafiklösung High-End.
hmm der flipper taktet glaube ich mit 175 Core(bin mir nett sicher)
und ich glaube kaum dass Ati ein komplettes sehr teures redesign des R100 unternommen hat
allein schon wegen dx7 glaube ich dass der flipper auf dem R100 basiert deshalb mein postDer Flipper hat mit der Radeon nüscht zu tun. Btw macht das Ding jede Gf4Ti nass. Jetzt überleg nochmal, wann der Cube rauskam. High End.
und was das 32 Bit bei der playstation heißen soll wird schnell klar wenn man die grafik von N64 und PS vergleicht
die PS war nicht high-end hat sich aber sehr gut verkauft bis heuteErstens war die Grafik sehr wohl High End (vergleiche damals aktuelle PC-Grakas), zweitens, obwohl der Vergleich mit dem N64 zu nix führt, die Playstation wahr früher am Markt. Und grafisch sooo derb abgeputzt hat das N64 die Playstation auch nicht gerade.
und naja die grafik von konsolen ist immer sehr gut nur ist es schon nervtötend wenn features wie dx8 nicht benutzt werdenAuf Konsolen gibt es kein DirectX. Ausnahme: die Konsole von Microsoft. Wen wundert's.
hat mein sehr eifriger gesprächspartner erzählt
demzufolge nachzulesen in diesem threadNö, hat er nicht. Ailuros hat nur geschrieben, was für Kyro I und Kyro II galt. Siehe K6. Kurze Pipeline. Kam selbst auf 0,18µ nie über 600MHz hinaus. Dürfen wir daraus schließen, daß AMD nie über 600MHz hinauskommt?
Nö, den ebenfalls in 0,18µ gefertigten Palomino haben sie bis 1733MHz gezogen. Das Design entscheidet.
ich sehe schon meine argument werden einfach nicht verstanden
der Xabre 600 wird in 0.13 um gefertigt und zwar nur bei 300 Mhz
und musste trotz seiner wenigen transistoren in einem kleineren prozeß gefertigt werden um diese taktfrequenz zu erreichenIch habe so das Gefühl, daß ich mich wiederhole :eyes:
Xabre=billig
Kleine Fertigung senkt die Kosten. Niedrig spezifizierte Taktraten senken die Kosten (weniger Ausschuß). Eine kurze Pipeline limitiert zwar die Taktraten, senkt aber die Kosten (weniger Transistoren).
S4 sollte auch in 0.13 gefertigt werden und auch bei einem takt von 300
wenn S5 also auf S4 aufbaut bzw. wenn die kunst der designer sich nicht verbessert wird der S5 kein high-end chip werden können schließlich werden die transistoren auch nicht wenigerSind 300MHz wenig? Was wäre denn für dich High-End? 600MHz? Und überhaupt, warum bewertest du Taktraten so stark? Siehe folgendes
hmm kyro 2 auf 175 vs geforce 2 auf 200
wo liegt da das probDas Prob liegt hier:
Kyro 2 hat gerade mal die Hälfte der Transistoren einer Geforce 2. Trotzdem ist die Performance +-0 identisch mit einer auf 240MHz getakteten Gf 2 Ultra. Kannst du überall nachlesen. Außerdem dran denken, daß die Kyro II nur ca ein Drittel der Bandbreite zur Verfügung hat (SDRAM@175MHz).
Jetzt stellen wir uns mal vor, die Kyro wäre intern verdoppelt worden (-> dann wäre Gleichstand bei der Transistorenanzahl), und hätte extern ein DDR-SDRAM-Interface bekommen.
so in meiner post oben hab ich 2 generationen von high-end chips genannt -> den nv 30 und den nv35
weil ich 2 gen genannt habe steht in meiner poost auch takt bis zu 500 Core damit er auch gegen einen mit 600 Mhz getakteten R400 ankommen wird(die taktrate ist zumindest beim nv35 wahrscheinlich)
ich versteht also nett wo das problem liegt denn die effizienz von IMR steigt auch immer weiter und Series 5 wird es bestimmt nicht einfacher haben je später sie kommt Die Effizienz von IMRs steigt nicht mehr. Und Taktraten sind schnulli, wenn man IMRs und TBDRs vergleichen will, dann bitte nicht anhand der Taktraten. Das wäre unfair für die IMRs.
Spake
2003-02-12, 15:33:41
Originally posted by zeckensack
Die Geforce 3 (aka NV20) kam im Frühjahr 2001. Ti200/Ti500 im Spätherbst. Ergo -> als die XBox rauskam, war ihre Grafiklösung High-End.
hat ich falsch in errinnerung sorry
deshalb ist mein piost auch sinnlos
Originally posted by zeckensack
Der Flipper hat mit der Radeon nüscht zu tun. Btw macht das Ding jede Gf4Ti nass. Jetzt überleg nochmal, wann der Cube rauskam. High End.
bin davon ausgegangen dass Ati für den flipper kein teures lange dauerndes redesgin gemacht hatte und was viel wichtiger ist:
die produktkosten des gamecubes liegen irgendwo so bei 150 Euro bzw. ziemlich unter denen von den anderen konsolen bei ähnlicher/gleichbleibender performance
deshalb nehme ich mal an dass Ati auch was verdienen will an ihrem deal und deshalb keinen chip mit hohen kosten baut
bin von einer situation ähnlich der bei der Xbox ausgegangen
Originally posted by zeckensack
Erstens war die Grafik sehr wohl High End (vergleiche damals aktuelle PC-Grakas), zweitens, obwohl der Vergleich mit dem N64 zu nix führt, die Playstation wahr früher am Markt. Und grafisch sooo derb abgeputzt hat das N64 die Playstation auch nicht gerade.
Auf Konsolen gibt es kein DirectX. Ausnahme: die Konsole von Microsoft. Wen wundert's.
hab mich in meinem vergleich auf den konsolenmarkt bezogen
und ich pers fand die grafik des N64 + Expansion ziemlich geil im verhältnis zu der PS
ich fainde einfach dass sony ihre spezi zu niedrig angesetzt haben
aber ich glaub ursprünglich gings darum dass man keine drecksteuren chips in konsolen bracuht um 1. gute grafik zu haben und 2. was zu verdienen
Originally posted by zeckensack
Nö, hat er nicht. Ailuros hat nur geschrieben, was für Kyro I und Kyro II galt. Siehe K6. Kurze Pipeline. Kam selbst auf 0,18µ nie über 600MHz hinaus. Dürfen wir daraus schließen, daß AMD nie über 600MHz hinauskommt?
Nö, den ebenfalls in 0,18µ gefertigten Palomino haben sie bis 1733MHz gezogen. Das Design entscheidet.
hmm er hat auf seite 7 oder 8 den takt der kyro 3 mit 300 genannt
(hab ein ziemlcih dreckiges gedächnis ;) )
irgendwann stands auch in den news derstartseite
und genau die fähigkeit von powerVr bzw. von seinen partnern den chip gut zu takten bezweifle ich denn auch erfahrene leute haben hier probleme
Originally posted by zeckensack
Ich habe so das Gefühl, daß ich mich wiederhole :eyes:
Xabre=billig
Kleine Fertigung senkt die Kosten. Niedrig spezifizierte Taktraten senken die Kosten (weniger Ausschuß). Eine kurze Pipeline limitiert zwar die Taktraten, senkt aber die Kosten (weniger Transistoren).
Sind 300MHz wenig? Was wäre denn für dich High-End? 600MHz? Und überhaupt, warum bewertest du Taktraten so stark? Siehe folgendes
Das Prob liegt hier:
Kyro 2 hat gerade mal die Hälfte der Transistoren einer Geforce 2. Trotzdem ist die Performance +-0 identisch mit einer auf 240MHz getakteten Gf 2 Ultra. Kannst du überall nachlesen. Außerdem dran denken, daß die Kyro II nur ca ein Drittel der Bandbreite zur Verfügung hat (SDRAM@175MHz).
Jetzt stellen wir uns mal vor, die Kyro wäre intern verdoppelt worden (-> dann wäre Gleichstand bei der Transistorenanzahl), und hätte extern ein DDR-SDRAM-Interface bekommen.
mein gott die xabre hat wenig transistoren genau wie S5(wahrscheinlich) und wird sehr niedrig getaktet(für 0.13um zumindest siehe einen nicht näher genannten großen hersteller -> ich hätte zumindest für einen chip der min gegen den R400 antritt gerne 450 gesehen)
taktraten bewerte ich stark weil es für powerVr nötig ihren gegner nicht nur in ein paar games zu schlagen sondern eben in den meisten
und die ultra war nicht wirklich in allen games der gegner der kyro 2
viel öfter wars die GTS oder die MX und die sehe ich nett als high-end
Originally posted by zeckensack
Die Effizienz von IMRs steigt nicht mehr. Und Taktraten sind schnulli, wenn man IMRs und TBDRs vergleichen will, dann bitte nicht anhand der Taktraten. Das wäre unfair für die IMRs.
die Effizienz steigt doch sehr wohl wenn man die R300 mit der nv30 vergleicht
ist nett wirklich ein argument
Ailuros
2003-02-13, 02:18:17
Gott ich dachte der Thread waere in der Zwischenzeit ausgestorben heh :D
hmm er hat auf seite 7 oder 8 den takt der kyro 3 mit 300 genannt
(hab ein ziemlcih dreckiges gedächnis )
irgendwann stands auch in den news derstartseite
und genau die fähigkeit von powerVr bzw. von seinen partnern den chip gut zu takten bezweifle ich denn auch erfahrene leute haben hier probleme
Probleme hatte NVIDIA nur wegen low-k electric, fuer was sie auch von TSMC im voraus gewarnt wurden. Natuerlich hab ich 300MHz maximal fuer NP2a angedeutet auf .13um was wohl eher heisst dass die Taktrate hoeher sein sollte als 300MHz. Wenn Du schon so weit gehst und sofort auf 500MHz ratest, dann frag Dich mal warum die 9700PRO mit nur 325MHz nur weniger schneller ist als die FX Ultra.
Effizienz in der Architektur was um vieles wichtiger ist als Taktrate allein.
mein gott die xabre hat wenig transistoren genau wie S5(wahrscheinlich) und wird sehr niedrig getaktet(für 0.13um zumindest siehe einen nicht näher genannten großen hersteller -> ich hätte zumindest für einen chip der min gegen den R400 antritt gerne 450 gesehen)
Ach ja? Und woher willst Du wissen wie viele Transistoren Serie5 hat? Ich behaupte im Gegenteil dass der Stromverbrauch etwa auf R300 Niveau liegen wird und der externe Floppy-Connector eine Notwendigkeit.
Die Anzahl von Transistoren in heutigen high end chips haengt von Shader Versionen und dessen Anzahl ab. Wenn z.B. heute eine IMR PS/VS X unterstuetzt und dass zu ABC Anzahl von Transistoren resultiert, dann wird die Transistoren-Anzahl auf einem TBDR etwa gleich sein.
Xabre kann immer noch kein richtiges trilinear bei default und ich moechte schon gar nichts von billig-chips hoeren die nicht mal ueber Anisotropic filtering verfuegen heutzutage. Texturen-Qualitaet ist mir aeusserst wichtig.
Spake
2003-02-22, 20:38:57
sorry dass ich deinen post net "beantwortet" habe aber ich glaube dass war ne ganz nette erholungskur für dich
Originally posted by Ailuros
Natuerlich hab ich 300MHz maximal fuer NP2a angedeutet auf .13um was wohl eher heisst dass die Taktrate hoeher sein sollte als 300MHz. Wenn Du schon so weit gehst und sofort auf 500MHz ratest, dann frag Dich mal warum die 9700PRO mit nur 325MHz nur weniger schneller ist als die FX Ultra.
dass mit dem vergleich zwischen R300 und nv30 steht in meinem post ganz unten
Originally posted by Ailuros
Ach ja? Und woher willst Du wissen wie viele Transistoren Serie5 hat? Ich behaupte im Gegenteil dass der Stromverbrauch etwa auf R300 Niveau liegen wird und der externe Floppy-Connector eine Notwendigkeit.
ich sehe schon die zeiten von powerFlow auf mich zukommen :D
Originally posted by Ailuros
Die Anzahl von Transistoren in heutigen high end chips haengt von Shader Versionen und dessen Anzahl ab. Wenn z.B. heute eine IMR PS/VS X unterstuetzt und dass zu ABC Anzahl von Transistoren resultiert, dann wird die Transistoren-Anzahl auf einem TBDR etwa gleich sein.
wobei ich hierbei von dir schon gerne wüsste ob du weißt ob powerVr die wege eines normalen IMR-herstellers bei den dx9 funktionen gehen wird oder sihc was anderes überlegt
Z.B. könnten sie DM über den VS realisieren oder den VS weglassen(wär schon blöd) oder nur 2 VS verbauen
aber irgendwie hätt ich bock den thread zu beenden :
wir werden uns erst beim release der Series 5 einigen und falls du dann recht hast werde ich mich für meine ungläubigkeit entschuldigen GEBIETER :D
Ailuros
2003-02-23, 01:45:02
wobei ich hierbei von dir schon gerne wüsste ob du weißt ob powerVr die wege eines normalen IMR-herstellers bei den dx9 funktionen gehen wird oder sihc was anderes überlegt
Z.B. könnten sie DM über den VS realisieren oder den VS weglassen(wär schon blöd) oder nur 2 VS verbauen
Nein Serie5 ist nach wie vor ein voller TBDR. Fuer Shader sieht es so aus dass:
a) Pixel Shader HSR voll benutzen koennen
b) Pixel Shader Einheiten sind komplett entkoppelt vom Vertex Shader.
c) Hardware Displacement Mapping (inclusive adaptive on chip tesselation) kann durch VS3.0 verwiklicht werden, da dieser Texturen hat.
d) Weiterhin was den VS betrifft, schon mal was von einem multi array gehoert? :D
aber irgendwie hätt ich bock den thread zu beenden :
wir werden uns erst beim release der Series 5 einigen und falls du dann recht hast werde ich mich für meine ungläubigkeit entschuldigen GEBIETER
Geduld bis zur ECTS2003 (falls alles nach Plan laeuft). Ja der thread kann gerne sterben; ich hab Dir sowieso mehr verraten in diesem einzigem Post als ich eigentlich duerfte.... ;)
ActionNews
2003-02-23, 11:58:26
@Ailuros:
:D! Das wäre ja echt genial *eg*!
CU ActionNews
Spake
2003-02-25, 14:22:21
"Weiterhin was den VS betrifft, schon mal was von einem multi array gehoert?"
schon aber was ich bis jetzt davon gesehen hab liegt die leistungsfähikeit im moment davon in grenzen und ich denke richtig viel leistungsfähiger wird das teil erst wenn ein VS array gewissermaßen mit einem PS array kombiniert wird
wie dem auch sei freu ich mich auf die vorstellung des chips(aber stand nicht vor kurzem mal dass der chip erst 2004 vorgestellt wird)
ActionNews
2003-02-25, 14:55:50
Im EE Times Interview hieß es vom PowerVR-Mitarbeiter John Metcalfe, die Serie 5 käme irgendwann 2003 :)! Die ETCS ist also nicht unwahrscheinlich.
Naja ich bin jedenfalls sehr gespannt auf die Serie 5 :)! Mein KyroII braucht endlich Ablösung :D! Am liebsten wieder mit TBDR-Chip :)!
CU ActionNews
Labberlippe
2003-02-25, 15:37:42
Originally posted by Spake
sorry dass ich deinen post net "beantwortet" habe aber ich glaube dass war ne ganz nette erholungskur für dich
dass mit dem vergleich zwischen R300 und nv30 steht in meinem post ganz unten
ich sehe schon die zeiten von powerFlow auf mich zukommen :D
wobei ich hierbei von dir schon gerne wüsste ob du weißt ob powerVr die wege eines normalen IMR-herstellers bei den dx9 funktionen gehen wird oder sihc was anderes überlegt
Z.B. könnten sie DM über den VS realisieren oder den VS weglassen(wär schon blöd) oder nur 2 VS verbauen
aber irgendwie hätt ich bock den thread zu beenden :
wir werden uns erst beim release der Series 5 einigen und falls du dann recht hast werde ich mich für meine ungläubigkeit entschuldigen GEBIETER :D
In diesen Bereich sehe ich bei TBR kein grosses Problem mehr.
Hier ein Thread, der hat mir auch einige Fragen beantwortet.
http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=53403
Gruss Labberlippe
Ailuros
2003-02-26, 01:49:04
Originally posted by Spake
"Weiterhin was den VS betrifft, schon mal was von einem multi array gehoert?"
schon aber was ich bis jetzt davon gesehen hab liegt die leistungsfähikeit im moment davon in grenzen und ich denke richtig viel leistungsfähiger wird das teil erst wenn ein VS array gewissermaßen mit einem PS array kombiniert wird
wie dem auch sei freu ich mich auf die vorstellung des chips(aber stand nicht vor kurzem mal dass der chip erst 2004 vorgestellt wird)
Noch ein kurzer Zusatz: da PS und VS total entkoppelt sind auf einem TBDR, ist es gleichgueltig ob es sich um X PS Einheiten handelt und einem multi array VS. Der naechste sinnvolle Schritt in der Zukunft waere dann wohl die Vereinigung von Shadern in Hartware und Shader-Sprachen.
Uebrigens mit multithreading kann man vieles meinen, wenn es zu arrays kommt.
Spake
2003-02-26, 16:37:10
was meintest du dann mit multi array
ich dachte du meinst so was im stile von der fx
ice cool69
2003-02-27, 01:01:36
@ zeckensack
was meinst du damit der flipper macht die gf4ti nass? also ich hab nen gamecube und finde den flipper für seinen preis absolut genial.
aber im gegensatz zu xbox und ps2 ist der gamecube von anfang an auf günstig entwickelt worden. soweit ich weiß kann er nicht mit ner gf4ti mithalten.
klar das eine oder andere gamecube-game sieht im vergleich zu top pc-games erstaunlich gut aus, aber der flipper braucht auch nicht in hohen auflösungen rechnen und benutzt soweit ich weiß in der praxis auch keine hohen AA- oder AF-stufen.
was mich am flipper beeindruckt hat ist das 1tsram welches im chip integriert ist, was dem flipper mit seinen ansonsten schwachen bruteforce einen ordentlichen geschwindigkeitsschub gibt.
ps: meine nächste grafikkarte wird wohl ne pvr-s5, sollte sie denn erscheinen (ich hoffe es!!!).
Ailuros
2003-02-27, 03:36:56
Originally posted by Spake
was meintest du dann mit multi array
ich dachte du meinst so was im stile von der fx
Weitere Erklaerungen kann ich Dir momentan sowieso nicht geben, wenn Du das obere nicht verstehen kannst.
IHV's implementieren weder Hartware noch Algorithmen auf die gleiche Art und Weise, wenn dann eher selten.
Spake
2003-03-02, 11:13:49
Originally posted by Ailuros
Uebrigens mit multithreading kann man vieles meinen, wenn es zu arrays kommt.
wenn du schon so einen satz sagst kannst du ihn auch gleich erklären
Spake
2003-03-02, 11:20:07
Originally posted by zeckensack
Der Flipper hat mit der Radeon nüscht zu tun. Btw macht das Ding jede Gf4Ti nass. Jetzt überleg nochmal, wann der Cube rauskam. High End.
Originally posted by ice cool69
was meinst du damit der flipper macht die gf4ti nass? also ich hab nen gamecube und finde den flipper für seinen preis absolut genial.
der flipper taktet doch mit "nur" 175(bitte korrigieren) wär schon ganz krass wenn er gleichauf mit der Ti4200 wär
--> an dieser stelle wärs ganz gut wenn mich jm über den flipper und seine theoretische/praktische leistungsfähigkeit aufklärt sollte ich unrecht haben
Demirug
2003-03-02, 11:53:23
Originally posted by Spake
der flipper taktet doch mit "nur" 175(bitte korrigieren) wär schon ganz krass wenn er gleichauf mit der Ti4200 wär
--> an dieser stelle wärs ganz gut wenn mich jm über den flipper und seine theoretische/praktische leistungsfähigkeit aufklärt sollte ich unrecht haben
Flipper läuft mit 162 MHz. Über sonstige Dinge kann man leider nicht viel sagen weil diese Informationen unter einer NDA stehen. Man vermutet das ein 4*2 Design benutzt wird sowie ein vertex System das irgendwo zwischen DX7 und DX8 liegt. Das Pixelsystem scheint dagegen gänzlich anders aufgebaut zu sein wie bei einem "normalen" PC-Chip und ohne das Gamecube-SDK kommt man da nicht wirklich weiter.
Spake
2003-03-02, 12:00:44
@ demirug
danksehr für die info
aber was meinst du mit pixelsystem ->die PS oder?
speziell dass waser sieht nämlich total goil aus zumindest bei starfox adventures
Demirug
2003-03-02, 12:48:44
Originally posted by Spake
@ demirug
danksehr für die info
aber was meinst du mit pixelsystem ->die PS oder?
speziell dass waser sieht nämlich total goil aus zumindest bei starfox adventures
Ja die PS im weitesten Sinn. Da es aber wie gesagt nicht so viel mit dem was man sich unter DX-PS vorstellt zu tun hat habe ich diesen Begrif vermieden.
Ailuros
2003-03-02, 14:26:51
Originally posted by Spake
wenn du schon so einen satz sagst kannst du ihn auch gleich erklären
IHV's implementieren weder Hartware noch Algorithmen auf die gleiche Art und Weise, wenn dann eher selten.
Was ist da so schwer dran zu verstehen?
loewe
2003-03-02, 19:48:53
Originally posted by Spake
@ demirug
danksehr für die info
aber was meinst du mit pixelsystem ->die PS oder?
speziell dass waser sieht nämlich total goil aus zumindest bei starfox adventures
Lies doch mal das hier: http://www.within3d.ch/index.php?show=articles&type=showarticle&id=6&page=1
IMHO einer der besten Artikel zum Gamecube.
loewe
2003-03-02, 19:51:06
Originally posted by Ailuros
Was ist da so schwer dran zu verstehen?
Nun ja, leicht zu verstehen ist es nicht gerade! :)
Aber du redest trotzdem etwas viel! =)
Demirug
2003-03-02, 20:15:03
Originally posted by loewe
Nun ja, leicht zu verstehen ist es nicht gerade! :)
Aber du redest trotzdem etwas viel! =)
Lass ihn doch. Wenn er deswegen irgendwann eine übergezogen bekommt wird er sich schon mässigen. Bisher sehe ich aber ehrlich gesagt noch nichts was man sich nicht sowieso selbst zusammenreimen kann.
Demirug
2003-03-02, 20:19:23
Originally posted by loewe
Lies doch mal das hier: http://www.within3d.ch/index.php?show=articles&type=showarticle&id=6&page=1
IMHO einer der besten Artikel zum Gamecube.
Ja der Artikel ist nicht schlecht und bestätigt was ich schon gesagt habe. Ohne eine NDA zu unterschreiben bekommt man fast keine Infos. Der einzige der sich mal eine Zeitlang regelmässig "verplappert" hat war Julian. Ob er immer noch so grosszügig mit Infos um sich wirft weiss ich gar nicht. Er hatte ja den Vorteil das er recht früh mit den Gamecube Technik rumspielen durfte da er (bzw. Faktor5) einer der Alpha und Beta-tester war.
zeckensack
2003-03-02, 20:49:47
Originally posted by Spake
der flipper taktet doch mit "nur" 175(bitte korrigieren) wär schon ganz krass wenn er gleichauf mit der Ti4200 wär
--> an dieser stelle wärs ganz gut wenn mich jm über den flipper und seine theoretische/praktische leistungsfähigkeit aufklärt sollte ich unrecht haben Jupp. Wieder nur über die Taktrate gedacht :|
Der Flipper hat eine geringere Füllrate, das ist wahr. In allen anderen Bereichen ist er aber deutlich überlegen (siehe Artikel).
10GB/s dedizierte Framebuffer-Bandbreite
10GB/s dedizierte Texturbandbreite (virtual texturing ala 3DLabs P10; 1MB lokal)
24 bit-Rendering (spart nochmals bis zu 25% Bandbreite ggü 32 bit)
8 Texturen single-pass, 16 Blend Stages. Das ist insgesamt sogar besser als Pixel Shader 1.4
Trilinear 'for free' (unklar, aber sehr wahrscheinlich)
~8 MTris/s worst case, ~40MTris/s peak. Bitte vor dem Vergleich mit NV-Marketingzahlen verdreifachen.
Early-Z hat's auch.
Wie gesagt, der einzige Nachteil ist die Füllrate, was in Anbetracht der begrenzten Fernseher-Auflösung aber relativ schnuppe ist. Das Feature-Set ist schlichtweg der Hammer.
Demirug
2003-03-02, 21:03:03
Originally posted by zeckensack
Jupp. Wieder nur über die Taktrate gedacht :|
Der Flipper hat eine geringere Füllrate, das ist wahr. In allen anderen Bereichen ist er aber deutlich überlegen (siehe Artikel).
10GB/s dedizierte Framebuffer-Bandbreite
10GB/s dedizierte Texturbandbreite (virtual texturing ala 3DLabs P10; 1MB lokal)
24 bit-Rendering (spart nochmals bis zu 25% Bandbreite ggü 32 bit)
8 Texturen single-pass, 16 Blend Stages. Das ist insgesamt sogar besser als Pixel Shader 1.4
Trilinear 'for free' (unklar, aber sehr wahrscheinlich)
~8 MTris/s worst case, ~40MTris/s peak. Bitte vor dem Vergleich mit NV-Marketingzahlen verdreifachen.
Early-Z hat's auch.
Wie gesagt, der einzige Nachteil ist die Füllrate, was in Anbetracht der begrenzten Fernseher-Auflösung aber relativ schnuppe ist. Das Feature-Set ist schlichtweg der Hammer.
die PS 1.4 sind doch noch minimal besser als die TEV des Flippers. Das hängt damit zusammen das es da bestimmte Beschränkungen bezüglich der Verwendung der 16 Stages gibt. Mit den 8 Texturen ist das so eine Sache. Die PS 1.4 können zwar nur 6 dafür aber aus jeder 2 mal sampeln. In Abhängigkeit des Effekts hat da mal der eine und mal der andere Ansatz Vorteile.
Die Speicheranbindung ist spitze aber so leider nur für einen Konsolen machbar.
Bei der Tri/s Leistung gehe ich aber nicht ganz konform mit deinen mal 3. Man rendert in der Regel eh stripes. Aber die NVIDIA Zahlen sind für Nackte Tris und die Gamecubezahlen für komplexere Dreiecke. Allerdings will niemand sagen in wie fern der Verzicht auf bestimmte Features beim T&L die Leistung erhöht. Bei einer noch relative fixed Pipeline ergebn sich da immer durchaus interesante Performancesverhältnisse.
Ailuros
2003-03-03, 00:51:31
Aber du redest trotzdem etwas viel!
:O :O :O
Lass ihn doch. Wenn er deswegen irgendwann eine übergezogen bekommt wird er sich schon mässigen. Bisher sehe ich aber ehrlich gesagt noch nichts was man sich nicht sowieso selbst zusammenreimen kann.
Da kann ich wohl beruhigt wieder einatmen ;)
Spake
2003-03-03, 16:04:21
danke für den link
@zeckensack
da der flipper scheint von der leistung sehr gut zu sein(wobei ich schon gerne ein paar AA zahlen gesehen hätte bzw. die leistungsfähigkeit und qualität des AAs)
aber:
die meißten Xbox spiele sehen immer noch besser aus als vergleichbare gamecube-spiele:
liegt dieser unterschied daran dass man für den gamecube eine extra programmiersprache(oder sonst was?) benutzen muss welche noch relativ unbekannt ist oder daran dass man wirklich jeden effekt extra für gamecube programmieren muss?????????????ß
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.