Archiv verlassen und diese Seite im Standarddesign anzeigen : Endlich: DeltaChrome S8 gelistet!! (Liefertermin: Juni)
stickedy
2004-05-13, 10:57:07
Da gibts nicht viel zu sagen: http://www2.alternate.de/html/nodes/009217000_prev.html#Club3D
139 Euro liegen in etwa auf dem Niveau der Radeon9600 Pro, sogar leicht drunter, die Leistung auch, paßt also...
Und auch noch bei Mix: http://www6.mix-computer.de/cgi-bin/go.pl?stop=1&main=show_info.pl&artnr=JAGU50&sessionID=MQKNAeT605ZYAAGlAMa8
für knapp 129 €...
robbitop
2004-05-13, 12:19:59
wann kommt eigentlich der Gammachrome?
der soll ja ein echter Refresh sein und neben hohen Taktraten noch Verbesserungen haben (XBAR??)
strickjackenscheitel
2004-05-13, 13:29:03
wuerde doch auch sicherlich zeit schon fuer das refresh. nv und ati haben ja alles andere als geschlafen!
robbitop
2004-05-13, 13:50:30
jap
zur CeBit gabs ja bereits lauffähige Modelle
stickedy
2004-05-13, 13:57:18
Hab grad ne email von Club 3D bekommen, dass die Karten ab nächster Woche lieferbar sein sollen!
Edit: Also DeltaChrome!
GammaChrome wird wohl erst kommen, wenn es PCI Express Chipsätze gibt, da GammaChrome native PCI Express unterstützt. Vor Intels Grantsdale wird sich da also auf keinen Fall was tun...
robbitop
2004-05-13, 14:15:04
das ist ja schade. Der könnte inkl mehr Takt sicher gut 30% schneller sein (speku) ^^
strickjackenscheitel
2004-05-13, 14:15:19
aber aendern an irgendwas wird der doch sicherlich nichts, oder? jetzt gibt es bald den nv 40 und den x800. da schaut doch alle welt drauf und freut sich ueber ungeahnte performence. was interessiert dann noch ein mittelklassemodell von einem unbekannteren hersteller, geht man von der breiten masse aus? da steht ja nicht GE FORRRRCE oder RADEON!
strickjackenscheitel
2004-05-13, 14:22:02
mehr takt ist immer gut! =)
den nv 30 will ich mir auch nicht vorstellen mit 250/250 mhz! =D
jaja fuellrate und bandbreite sind schon was schoenes
stickedy
2004-05-13, 14:24:08
Ach, Kyro war damals auch recht erfolgreich, obwohl es keinen dazugehörigen High-End-Chip gab...
Sicherlich ist es fürs Marketing nicht schlecht, aber der großteil der Grafikkarten wird als OEM-Ware in Komplett-PCs verbaut und den allermeisten ist es da völlig schnuppe was da drin ist. Wenn Club 3D bzw. PowerColor/TUL einige gute OEM-Geschäfte abschließen können, v.a. in Asien, dann wird der Chip sich schon verkaufen.
Und S3 ist immer noch ein Name in dem Business. Wenn VIA bzw. Formosa Plastics dann noch etwas die Beziehungen spielen lassen dann werden sich sicherlich einige OEM-Hersteller finden, die den Chip verbauen.
Außerdem ist ja noch nicht alles Tage Abend, bei S3 ist man ja auch net untätig... Das ist immerhin das Comeback nach fast 5 Jahren!
Ich hab heut jedenfalls auch meine bei MIX bestellt, bin mal gespannt, wann ich den Liefertermin bekomme...
robbitop
2004-05-13, 14:25:31
ajo
naja frag Xmas, er kennt die Änderungen.
Für mich ist die offensichtlicheste das Flipchip Package und das bringt gleich ordentlich mehr Takt.
S3 arbeitet schon Fieberhaft am Nachfolger.
stickedy
2004-05-13, 14:29:25
Meinst du? Damals beim Cyrix M2 hat es gar nichts gebracht... IBM 6x86MX mit FlipChip-Package konnten auch net höher getaktet werden als die "normalen" MII von Cyrix...
Zum Thema:
Der GammaChrome wird auf jeden Fall nen überarbeiten Speichercontroller bekommen... Von höherem Takt können wir sicherlich auch ausgehen. Ansonsten werden es wohl nur Feinheiten sein. Q3 ist denk ich anvisiert.
BTW: Nach der ganzen Verzögerung ist es durchaus möglich, dass ein neueres Stepping des DeltaChrome zum Einsatz kommt als bei den ganzen Tests Anfang dieses/Ende letzten Jahres. Evtl. ist der Chip ja noch ein bißchen schneller geworden... Aber das wird sich ja ganz bald zeigen! :) :)
robbitop
2004-05-13, 14:32:47
FlipChip Package bringt bei VPU's einiges.
Jüngster Fall: die NV31. Ohne Flipchip 350MHz.
Mit Flipchip: 400MHz und die liess sich über 450MHz Takten. Ohne Flipchip war kaum was drin.
Bei CPUs mags ja anders sein, aber hier liegt es eben an der Verdratung der VPU und durch FP werden die Signale an den Verdratungen deutlich klarer.
Mehr Takt und ein XBar wären schon einiges.
Denn der DC ist Bandbreitenlimitiert und den Verschnitt zu verringern könnte bei gleichem Takt schon Einiges bringen. Und dann das ganze 400+/400+ das wäre doch...reizvoll... ^^
stickedy
2004-05-13, 14:36:26
Nenns doch net XBar! Das ist ja wie wenn man "Uhu" zu Kleber sagt! ;)
Wobei die Frage ja ist, ob FlipChip der einzige Unterschied zwischen den NV31-Versionen sind. Wäre ja auch einfach ein neueres Stepping u.ä. möglich. Aber da will ich mich net streiten!
LovesuckZ
2004-05-13, 14:39:02
Original geschrieben von robbitop
Denn der DC ist Bandbreitenlimitiert und den Verschnitt zu verringern könnte bei gleichem Takt schon Einiges bringen. Und dann das ganze 400+/400+ das wäre doch...reizvoll... ^^
400+? Soll das nen High End Chip werden?
Ich denke 250MHz bei 8x1 Tri Tmus reicht doch.
robbitop
2004-05-13, 14:54:24
nö.
Der F1 hat schon 325MHz.
FlipChip bringt schon mind 50MHz idR.
Cpl. Dwayne Hicks
2004-05-13, 15:31:16
wird doch eh wieder ein flopp.....
powervr und s3 habens einfach nicht drauf.
Was ist eigentlich der Unichrome? Hab' letztens ne Werbeanzeige von Lidl oder Plus gesehen, die einen 600 Euro Rechner mit eben jener S3 Karte im Angebot hatten.
stickedy
2004-05-13, 16:06:07
Um genau zu sein müßte das der Grafikkern des AlphaChrome aka Savage XP sein: 2 Pipelines, DX7-Klasse. Ungefähr GF2 MX-Niveau wäre der standalone Chip geworden. Allerdings ist er nie in den Massenmarkt gekommen - war besser so.
MadManniMan
2004-05-13, 16:10:28
Odai ;( STFU :)
Zum Thema: S3 könnte mit dem Gammachrome ruhig nen 256bitter präsentieren - ein neuer Speichercontroller ist eh überfällig :)
robbitop
2004-05-13, 16:33:29
ich finde dafür hätte er widerum zuwenig power =)
MadManniMan
2004-05-13, 17:07:05
Original geschrieben von robbitop
ich finde dafür hätte er widerum zuwenig power =)
:| Tri-TMUs
strickjackenscheitel
2004-05-13, 17:07:12
wo kann man denn die angenommen, oder feststehenden infos ueber die neuen chips von non-intel-nv-ati, finden?
robbitop
2004-05-13, 17:13:12
@Manni
stimmt...ich vergaß =)
Windi
2004-05-13, 18:23:20
Und hier noch mal die Pressemeldung zum Gammachrome:
http://www.via-tech.de/pr/pr2004/040319.html
steht leider nicht viel drin:
Nur das er native PCI-E Unterstützung bietet.
programmierbare Chromotion 2.0 Video Engine (wird wohl so ein de/encoder sein)
Markteinführung drittes Quartal 2004
robbitop
2004-05-13, 18:37:26
hört sich mit Verlaub verdammt gut an.
Irgendwie wird mir S3 immer sympatischer =)
Endorphine
2004-05-13, 18:58:14
Original geschrieben von robbitop
hört sich mit Verlaub verdammt gut an.
Irgendwie wird mir S3 immer sympatischer =) Vor allem kann man mit einem DC im Rechner ganz erhaben über den Dingen stehen, wenn sich ATI- und NV-Besitz0r wieder mal mit irgendwelchen langweiligen Unterschiedsdiskussionen bashen :D
Und dank low-power Auslegung können sich DC-Besitzer auch entspannt zurücklehnen, wenn NV- und ATI-Besitzer über laute/teure Kühlung, thermische Schwierigkeiten etc. stöhnen ;)
robbitop
2004-05-13, 19:15:04
jaaaaa =)
an sich wäre 110nm was für S3.
Der Chip ist an sich recht inkomplex und soll günstig hergestellt werden. Dafür ist der 110nm Prozess gedacht.
Weniger Verbrauch, vieleicht 50MHz mehr und weniger Kosten für S3.
Zumindist ATi/NV wollens im LowCost Bereich so machen.
Ansonsten würde lowk dem DC gut zu Gesicht stehen.
just my 2 cents
strickjackenscheitel
2004-05-13, 19:34:45
ja aber das dritte quartal... mensch da gibts doch schon sicher die 40-variante der jetzigen nv30-generation.
auch ati wird sicherlich mit einigen low-end-karten zeigen wollen, dass sie auch sowas wie eine gf fx 5200 fertigen koennen.
so gut sich das auch anhoeren mag, sind 50mhz nicht gerade genug fuer das was da ankommt.
sicherlich wird eine neue mittelklasse-graka von nv so gut sein wie der nv38.
s3 muss derb viel leisten! das will ich damit sagen.
hat denn niemand irgendwelche informationen zu dem deltacrome?
robbitop
2004-05-13, 19:36:53
an den NV41 wird S3 nicht rankommen.
An die Abwärme aber auch nicht ;)
Aber an den R380 denk ich schon =).
Aber der tritt wohl nicht direkt gegen den NV41 an sondern gegen NV43. Da hätte DC ne chance.
Die X800SE wird sich wohl mit NV41 gesellen dürfen.
und Low Cost: NV44 vs RV370. Beide wohl in 110nm. (speku)
apollo
2004-05-15, 12:15:52
@stickedy
gib mal Bescheid, wenn Du was genaueres weisst bezüglich Liefertermin
es gab ja Anfang Mai sogar nen neuen Treiber, der allerdings noch "Proto"-Status hat (ich setz das mal mit "Beta" gleich):
http://www.s3graphics.com/drivers8e00.html
Desti
2004-05-15, 12:32:38
Von den angekündigten Linuxtreibern noch immer kein einziges Lebenszeichen. :(
strickjackenscheitel
2004-05-15, 13:18:45
na ok. linux ist jetzt nciht das so verbreitete system. man braucht auch sicher ebenso viele fachleute um einen linux-treiber, wie einen windows-treiber herzustellen.
daher finde ichs nicht falsch, wenn man sich erstmal auf windows beschraenkt und da ordentliche und bugfreie treiber fuer die produkte praesentiert, denn das ist z.b. fuer mich immernoch ein grund, weswegen ich mir wohlmoeglich eine nv-karte kaufen wuerde. (die phantastischen treiber von nv!)
stickedy
2004-05-15, 14:56:47
Die kommen schon noch! So lange es keine DeltaChrome-Karten zu kaufen gibt, braucht man auch keine Linux-Treiber...
VIA steht ja hinter Linux und es gibt für alle S3-Grafikchips entsprechende Treiber, wird also bestimmt bald was kommen...
robbitop
2004-05-15, 15:06:21
erstmal sollen sie brauchbare DC Treiber für windows schreiben.
Ich frage mich bis heute, was den DC um mehr als 1 Jahr verzögert hat.
Original geschrieben von robbitop
erstmal sollen sie brauchbare DC Treiber für windows schreiben.
Ich frage mich bis heute, was den DC um mehr als 1 Jahr verzögert hat.
Meiner Vermutung ist, dass sie ihn mehrere Male überarbeitet haben. Sie hatte ja vorher kein Team, das Desktop Chips herstellen soll, und ich finde ews besser, sie verzögern derart als irgend ne buggy scheisse rauszubringen ;)
Mit nem ordentlichen Speicherinterface lernt das Teil fliegen! Man überlege sich: Wenn das Ding auf 400MHz läuft (glaube ich aber nicht ;) das werden eher weniger) dann hat der exakt die trilineare Füllrate eines NV40 :D
Das macht die Pixelshader aber auch net schneller :) aber die Nachfolgergeneration lässt hoffen. Jedenfalls mehr als bei XGI.
Original geschrieben von Odai Hussein
wird doch eh wieder ein flopp.....
powervr und s3 habens einfach nicht drauf.
Du irrst dich gewaltig, es hat sich IMMER gezeigt, dass Aussenseiter eine gute Chance haben. Das war beim Savage4 so und das war auch beim KyroII so. Das waren zwar Mainstreamprodukte, aber sie waren sehr erfolgreich. Der Delta-/Gammacrome schickt sich ebenfalls an, ein solches nischenprodukt zu werden. Vor allem die geringe Wärmenetwicklung dürfte OEM sehr gut passen, vor allem für Presskopfsysteme :D
stickedy
2004-05-15, 18:19:58
Naja, als der Savage 4 rauskam war S3 glaub ich sogar noch Markführer! So wirklich vergleichbar ist das nicht...
Tigerchen
2004-05-15, 18:49:41
Als der Savage3D rauskam war S3 noch gut im Geschäft und kein Außenseiter. Erst die Savage2000 Katastrophe war das vorläufige Ende von S3. Kein Vergleich zu SIS. Die waren schon immer grottenschlecht bei Grafiklösungen.
Na ja, S3 war nur im OEM Bereich ne Zeit lang mit den Virge und Trio Chips vertreten. Mainstreamchips waren das aber zum Zeitpunkt des Savage3d schon lange nicht mehr und wurden schon lange von Riva128, TNT und Banshee Chips abgelöst. S3 war weg vom Fenster! Erst als der Savage4 kam, hatten die OEMs wieder einen sehr guten Grund S3 zu nehmen, nämlich wenig Hitze, billiger Chip und adäquate Leistung.
Danach kamen leider Spätfolgen der langen Durststrecke vorm S4 und schwere Managementfehler hinzu, wie z.B. den Kauf von DiamondMM, was dem eigentlichen chipgeschäft von S3 den Gnadenstoss versetzte und die Marke+Patente unter VIAs Kontrolle gestellt wurden.
Gut dass die technisch gute S3 Technologie (Savage war rein technisch immer Top) kein jähes Ende fand, im Gegensatz zu 3dfx ;)
robbitop
2004-05-16, 02:13:01
hm ich glaube kaum, dass da HW technisch groß was geändert worden ist. Zeitraum und Aufwand standen imo nicht im Zusammenhang mit dem Nutzen.
AFAIR waren es starke Treiberprobleme.
Der Gammachrome hat dann ja vieleicht schon einen Crossbar Memory Controller und etwas mehr Takt.
Inzwischen arbeitet S3 Fieberhaft am Nachfolger.
Mir gefällt das AF, die Tri TMUs und die geringe Verlustleistung.
P.S Leistung liegt daran, dass man eben nur eine FPU pro SMD hat und diese ist vermutlich noch recht einfach gestrickt.
Radeonator
2004-05-16, 03:25:55
SiS war nie grottenschlecht, nur eben vorher nie an anderen Märkten als Super Lowkost und integrierten Lösungen interessiert. Schau euch mal intel an, die Extreme Reihe ist ein Witz, doch trotzdeben DER OEM Rocker schlechthin!
S3´s DeltaChrome und seine Nachfolger, könnten mit guten Treibern echt eine Alternative werden!
XGI, hmmm, in ihrem eigenen Produktcyklus ist die Leistungssteigerung von Karte zu Karte schon sehr groß!
Von dieser 6xxx zur 315 war schon gigantisch, genauso von der 315 zur Xabre und letztlich von der Xabre zur Volari(XabreII) immer noch eine respektable Steigerung. Die kommen schon noch irgendwann in Fahrt ;)
Die Savage4pro,die Kyro-II und auch der Verite 2200 waren
nicht schlecht zu ihrer Zeit. Wobei der Kyro immer unter
mangelnder Kompatibilität litt. Der Savage4pro war eine Zeit
lang eine gute Low Budget Lösung. Dem Redition Chip hätte ich
eine Weiterentwicklung gewünscht,war er doch schon damals der
Bildqualität einer Voodoo 2 überlegen. Ein interessantes Teil.
Für S3 hoffe ich nur das die auf dem Papier gute Karte nicht
durch mangelhafte Treiber runtergezogen wird.
Ein Konkurrent im Mittelklasse- und Mainstream-Segment wird
sicherlich auch die Preisgestaltung wieder in Bewegung bringen. Zur Zeit halte ich 150 - 200€ für eine Mainstream-
karte einfach zu hoch.
Tigerchen
2004-05-16, 07:56:25
Original geschrieben von Radeonator
SiS war nie grottenschlecht, nur eben vorher nie an anderen Märkten als Super Lowkost und integrierten Lösungen interessiert. Schau euch mal intel an, die Extreme Reihe ist ein Witz, doch trotzdeben DER OEM Rocker schlechthin!
S3´s DeltaChrome und seine Nachfolger, könnten mit guten Treibern echt eine Alternative werden!
XGI, hmmm, in ihrem eigenen Produktcyklus ist die Leistungssteigerung von Karte zu Karte schon sehr groß!
Von dieser 6xxx zur 315 war schon gigantisch, genauso von der 315 zur Xabre und letztlich von der Xabre zur Volari(XabreII) immer noch eine respektable Steigerung. Die kommen schon noch irgendwann in Fahrt ;)
Na ja. So positiv kann ich SIS nicht sehen. Fakt ist einfach daß SIS Grafiklösungen immer schlecht aussehen im Vergleich zur Konkurrenz. Wann immer SIS auch losläuft die Konkurrenz ist schon lange da. Klar kannst du sagen daß die in ihrem eigenen Produktzyklus immer gut zulegen. Das kann man aber von einem Läufer der seine Zeit von 60 Sekunden auf 40 Sekunden im Hundertmeterlauf steigert auch sagen.
Vom Aufholen sehe ich auch nicht viel. Kein AA, kein AF, Treibercheats, miserable Performance bei Spielen wie Splinter Cell. Nein danke!
INTEL's Grafiksparte ist natürlich auch eher lächerlich. Dabei wollten sie groß rauskommen damit. Schon der Nachfolger des i740 sollte T&L besitzen. Die Situation bei Intel ist also nicht gewollt sondern durch die eigene Unfähigkeit erzwungen.
Das kann man seit XGI so denke ich nicht mehr sehen. Da steckt jetzt mehr Geld drin. Bisher waren die Sprünge, die SIS gemacht hat seit dem 315er wirklich ernst zu nehmen. Sicher waren sie nicht wirklich konkurrenzfähig, haben aber auch ihre Käufer gefunden. Die nächste oder übernächste Generation könnte in der Tat schon ein echter Konkurrent werden.
Beim erscheinen des S4 war S3 schon lange net mehr dick im Geschäft. Man hat vor dem S3D keinen Handlungsbedarf gesehen, weil sie mit sowas wie der Vodoo erst net gerechnet hat. Sie haben sich auf ihrer Markführerschaft ausgeruht, das war ein gewaltiger Fehler.
Erst der S4 brauchte wieder Wind in den Mainstream.
S4 war nicht nur Low End, sondern er war besser als die Banshee und auf dem Niveau des TNT. Der TNT2 war damals HighEnd.
stickedy
2004-05-16, 14:09:30
Woher weißt du, dass hinter XGI mehr Geld steht als seinerzeit als das ganze noch unter SiS lief?
robbitop
2004-05-16, 14:26:17
gab ne offizielle Aussage dazu soweit ich weiss.
400Mio $ wurden denen von UMC und SiS in die Hand gedrückt.
stickedy
2004-05-16, 14:47:05
Und gibt es irgendwelche Vergeeichzahlen, wieviel SiS vorher intern in die Grafiksparte gesteckt hat? afaik nein.
Also kein Vergleich möglich.
Das meiste von diesen 400 Mio. sind vermutlich für die Büroräume, Technik, den Kauf der Trident-Grafiksparte und für die neuen Geschäftspapiere draufgegangen.
mit Sicherheit weniger ;)
Vorher war es ja nur eine kleine Sparte von SIS. XGI hat sicher mehr budget als S3g.
stickedy
2004-05-16, 18:13:55
Nochmal: Woher willst du das wissen?
robbitop
2004-05-16, 18:37:06
die haben ja schon durch die Übername von Trident sehr viel mehr R&D Ressourcen als vorher. Und ausserdem werden sie jetzt nicht durch eine Mutterfirma gezwungen, die Kosten niedrig zu halten und dass der Chip auch als IGP funktionieren muss.
Volari war im Prinzip nur eun veränderter Xabre. Somit SiS Design. Ich denke mal, dass wir zumindist noch eine Weile warten sollten mit unserem Urteil.
an NV/ATi kommt eh niemand ran, da niemand das Geld und die R%D Ressourcen besitzt, so komplexe und konsequente Designs zu machen und das auch noch in 6 Monats Zyklen (Neue Generation-> Refresh -> Refresh -> Neue Generation -> ..).
Da bei PVR ziemlich viel von diesem Prozess entfällt und diese eigentlich nur eine dicke R&D Abteilung, ohne den ganzen Service und Vertriebskram, ist könnten sie mit einem entsprechendem Partner sicher ähnliches leisten (oder etwas weniger). Aber wer investiert schon sooo viel Zeit und Geld ständig?
Original geschrieben von stickedy
Nochmal: Woher willst du das wissen?
Weisst du wieviel 400mio sind? Das ist eine 4 mit 8 Nullen. Soviel wendet SIS nichtmal in ihrem Hauptgeschäft Chipsätze auf.
Original geschrieben von robbitop
die haben ja schon durch die Übername von Trident sehr viel mehr R&D Ressourcen als vorher. Und ausserdem werden sie jetzt nicht durch eine Mutterfirma gezwungen, die Kosten niedrig zu halten und dass der Chip auch als IGP funktionieren muss.
Volari war im Prinzip nur eun veränderter Xabre. Somit SiS Design. Ich denke mal, dass wir zumindist noch eine Weile warten sollten mit unserem Urteil.
an NV/ATi kommt eh niemand ran, da niemand das Geld und die R%D Ressourcen besitzt, so komplexe und konsequente Designs zu machen und das auch noch in 6 Monats Zyklen (Neue Generation-> Refresh -> Refresh -> Neue Generation -> ..).
Da bei PVR ziemlich viel von diesem Prozess entfällt und diese eigentlich nur eine dicke R&D Abteilung, ohne den ganzen Service und Vertriebskram, ist könnten sie mit einem entsprechendem Partner sicher ähnliches leisten (oder etwas weniger). Aber wer investiert schon sooo viel Zeit und Geld ständig?
Na ja, PowerVR nutzt einfach viel grössere Zeiträu8me als NV oder ATI. S3 wird es ähnlich machen.
robbitop
2004-05-16, 21:10:50
bei PVR käme es auf den Lizenznehmer an.
PVR hat den ganzen Ballast den die IHVs haben nicht.
Service, eine riiesen große Buchhaltung ect PP.
Letzendlich sind bei Firmen meist nur ~10% R&D. Bei PVR ist fast nur R&D. Man könnte wenn der Lizenznehmer das wollte und das Geld hätte sowas machen. Aber wie gesagt, will das keiner.
Na ja bei XGI ist es ja ähnlich. Das Joint Venture wird hauptsächlich von UMC und SIS finanziert, wobei UMC ja auch die Chips herstellt und SIS das Chip-Design entwickelt. XGI soll hauptsächlich Grafikdesigns entwickeln. S3g entwickelt genauso nur Grafikcores, die von VIA dann in Hardware realisiert werden. Ziel ist es, das Kerngeschäft auf die Chipherstellung (also Hardwarerealisierung) zu setzen und die Entwicklungsabteilungen auszulagern. VIA fährt dieses Prinzip schon lange (S3g, Centaur, Cyrix...), SIS erst seit kurzem. Es lassen sich so offensichtlich wohl Kosten sparen ;)
Mit Trident hat man XGI um ein weiteres Designteam erweitert und Patente gekauft. Die Marke wuird selbstredend eingestampft. SIS alleine ist nicht mehr ind er Lage allein Grafikcores zu entwickeln, weswegen an ja Joint Ventures eingeht. Eine firma wie SIS ist allein wohl kaum in der Lage 400Mio mal eben bereitzustellen. Wenn VIA das tut ist das eine Sache aber SIS wohl eher eine andere. Diese Firmen sind doch relaiv weit weg von den Unternehmensgrössen, wie sie NV, ATI, AMD oder ger Intel vorgeben.
Tigerchen
2004-05-17, 15:43:12
Original geschrieben von HOT
Das kann man seit XGI so denke ich nicht mehr sehen. Da steckt jetzt mehr Geld drin. Bisher waren die Sprünge, die SIS gemacht hat seit dem 315er wirklich ernst zu nehmen. Sicher waren sie nicht wirklich konkurrenzfähig, haben aber auch ihre Käufer gefunden. Die nächste oder übernächste Generation könnte in der Tat schon ein echter Konkurrent werden.
Beim erscheinen des S4 war S3 schon lange net mehr dick im Geschäft. Man hat vor dem S3D keinen Handlungsbedarf gesehen, weil sie mit sowas wie der Vodoo erst net gerechnet hat. Sie haben sich auf ihrer Markführerschaft ausgeruht, das war ein gewaltiger Fehler.
Erst der S4 brauchte wieder Wind in den Mainstream.
S4 war nicht nur Low End, sondern er war besser als die Banshee und auf dem Niveau des TNT. Der TNT2 war damals HighEnd.
Nochmal.
Um ein ernstahfter Konkurrent zu werden müßten sie bei allen Sprüngen effektiv näher an nV/ATI kommen. Das tun sie aber nicht. Der Abstand bleibt und wird aus meiner Sicht eher größer.
Original geschrieben von Tigerchen
Nochmal.
Um ein ernstahfter Konkurrent zu werden müßten sie bei allen Sprüngen effektiv näher an nV/ATI kommen. Das tun sie aber nicht. Der Abstand bleibt und wird aus meiner Sicht eher größer.
Die grössten Neuerungen, die sich NV und ATI geleistet haben, sind Verbesserungen in der Fertigung.
Das sind ja dolle Vorteile die man ggü. SIS/UMC und VIA/TSMC auspielen kann lol.
Ich sehe das ganz anders: Während NV und ATI versuchen mit immer absurderen Designs zu übertrumpfen, bauen VIA und S3 innovativere, kühle Lösungen, die für den OEM Markt und Mainstreammarkt optimal abgestimmt sind.
Es ist nunmal so, dass S3 bzw. XGI sich andere Ziele setzten können, weil die Mutterfirmen nicht die Grafiksparte als Kerngeschäft haben, sondern Prozessoren usw. auch fertigen.
Das Chipdesign ist nicht exklusiv, sondern inclusive der restlichen Chips die gefertigt werden müssen. Das schafft flexibilität.
Als weiteres haben wir in Taiwan schon immer kreative findige Köpfe gehabt, die schon für so manche Überraschung gut waren.
Wenn S3 und XGI von vornherein keine Chance hätten, würden sie diese Risiken nicht eingehen (und SIS ist ein verdammtes Risiko eingegangen).
stickedy
2004-05-17, 17:04:38
XGI baut innovative und kühlere Lösungen? Bitte, wo bzw. welche? Das ist ja wohl eher Wunschdenken...
robbitop
2004-05-17, 18:44:29
abwarten, bis XGI mal ihr erstes _eigenes_ Design draussen hat. Vorher würd ich nicht so voreilig sein.
Tigerchen
2004-05-17, 19:00:14
Original geschrieben von robbitop
abwarten, bis XGI mal ihr erstes _eigenes_ Design draussen hat. Vorher würd ich nicht so voreilig sein.
Dann warten wir mal. Auf den Rampage haben wir ja auch gewartet oder auf die BitBoys.....
Tigerchen
2004-05-17, 19:07:10
Original geschrieben von HOT
Die grössten Neuerungen, die sich NV und ATI geleistet haben, sind Verbesserungen in der Fertigung.
Das sind ja dolle Vorteile die man ggü. SIS/UMC und VIA/TSMC auspielen kann lol.
Ich sehe das ganz anders: Während NV und ATI versuchen mit immer absurderen Designs zu übertrumpfen, bauen VIA und S3 innovativere, kühle Lösungen, die für den OEM Markt und Mainstreammarkt optimal abgestimmt sind.
Es ist nunmal so, dass S3 bzw. XGI sich andere Ziele setzten können, weil die Mutterfirmen nicht die Grafiksparte als Kerngeschäft haben, sondern Prozessoren usw. auch fertigen.
Das Chipdesign ist nicht exklusiv, sondern inclusive der restlichen Chips die gefertigt werden müssen. Das schafft flexibilität.
Als weiteres haben wir in Taiwan schon immer kreative findige Köpfe gehabt, die schon für so manche Überraschung gut waren.
Wenn S3 und XGI von vornherein keine Chance hätten, würden sie diese Risiken nicht eingehen (und SIS ist ein verdammtes Risiko eingegangen).
Wo soll den da die Innovation bei XGI sein? Bei VIA siehts ja schon recht ordentlich aus. Aber XGI? Mag sein daß sie dachten sie hätten eine Chance. Haben ja auch ordentlich Marketing gemacht für die Volari Duo. Ändert aber nichts an der Tatsache daß sie als Löwe gestartet sind um als Bettvorleger zu landen.
robbitop
2004-05-17, 19:08:32
Original geschrieben von Tigerchen
Dann warten wir mal. Auf den Rampage haben wir ja auch gewartet oder auf die BitBoys.....
ach Tigerchen, das war unnötig.
XGI != 3dfx/bitboys
stickedy
2004-05-17, 19:14:31
Allerdings... 3dfx war wenigstens konkurrenzfähig!
Tigerchen
2004-05-17, 19:32:54
Original geschrieben von stickedy
Allerdings... 3dfx war wenigstens konkurrenzfähig!
Darum sind sie ja auch pleite gegangen.
Sphinx
2004-05-17, 19:38:26
Original geschrieben von Tigerchen
Darum sind sie ja auch pleite gegangen.
An diesem comment konnte ich micht nicht verkneifen ,)
*LoL
misterh
2004-05-17, 19:39:47
Original geschrieben von Tigerchen
Darum sind sie ja auch pleite gegangen.
Nur weil sie net an verschiedene Hersteller chip verkauft haben! wie zb asus oder vielen anderen.
Tigerchen
2004-05-17, 19:48:41
Original geschrieben von misterh
Nur weil sie net an verschiedene Hersteller chip verkauft haben! wie zb asus oder vielen anderen.
Du meinst dann wären die Verkaufszahlen der V5 nicht in den Keller gegangen?
stickedy
2004-05-17, 19:58:09
Ja, wären sie nicht. Das hätte dann einfach die Angebots-Masse gemacht. ATi wäre auch gnadenlos untergegangen wenn sie nicht begonnen hätten, ihre Chips an andere Karten-Hersteller zu verkaufen.
robbitop
2004-05-17, 20:04:17
3dfx war seit der Voodoo3 nicht mehr konkurrenzfähig.
stickedy
2004-05-17, 20:21:03
3dfx war jedenfalls mit dfer V5 konkurrenzfähiger als XGI/SiS es jemals war.
Und das FSAA von 3dfx war damals konkurrenzlos!
Das einzige, mit dem sich XGI/SiS hervortut sind die Treiber-Cheats, da sind sie allerdings mit Abstand "am besten"...
Nicht, dass ich 3dfx verteidigen will, ich hab die Firma nie gemocht, weil die Treiber bescheiden waren, aber wir sollten doch bei den Tatsachen bleiben!
robbitop
2004-05-17, 20:31:48
nein Stickedy, sie waren finanziell nicht mehr konkurrenzfähig.
Seit der V3 hat man dem Markt nicht mehr das gegeben, wonach er verlangt (32bit/T&L ...). Selbst schuld.
Sicher war das AA gut, aber es interessierte damals niemanden, so wie heute niemanden die AF Qualität interessiert. Man muss sich, um finanziell erfolgreich zu sein, bis zu einem gewissen Grad an den Markt anpassen.
Oder was meinst du warum die FX5200 die meistverkaufteste DX9 Karte war? Features die der Markt verlangt für wenig Geld. 3dfx bekam keine OEM Verträge und dann noch der Kauf von STB ...usw usf.
Oder die VSA. Man konnte sie nicht genügend verkaufen, da TSMC nicht genug Kapazität hatte. Man verschwendete R&D usw.
Tut mir leid, 3dfx war im Prinzip nach der V2 vorbei. Danach wars nur noch ein Trauerspiel.
Ich will nicht sagen, dass es XGI besser ergehen wird. Das muss sich noch herrausstellen. Bisher hatten sie noch kein echtes eigenes Produkt. -> abwarten
Tigerchen
2004-05-17, 20:42:04
Original geschrieben von stickedy
3dfx war jedenfalls mit dfer V5 konkurrenzfähiger als XGI/SiS es jemals war.
Und das FSAA von 3dfx war damals konkurrenzlos!
Das einzige, mit dem sich XGI/SiS hervortut sind die Treiber-Cheats, da sind sie allerdings mit Abstand "am besten"...
Nicht, dass ich 3dfx verteidigen will, ich hab die Firma nie gemocht, weil die Treiber bescheiden waren, aber wir sollten doch bei den Tatsachen bleiben!
Du meinst also wenn neben der 3dfx V5 noch eine von ASUS oder ELSA gestanden hätte dann hätten die Kunden vor lauter 3dfx-Produkten die Konkurrenz glatt übersehen?
Gewagte These. Und OEM's wollten die V5 auch nicht.
Also ehrlich. 3dfx ist pleite gegangen weil es ihnen nicht gelungen ist daß mit John Carmack zu V2 Zeiten ersonnene Rampage-Projekt in Silizium zu gießen. So einfach ist dass. V3, V4, V5 waren alles nur Lückenbüßer um die Zeit bis zum Rampage zu überbrücken.
Gast2k4
2004-05-17, 20:45:01
Nur so mal so ein Gedanke:
Wäre der Markt nicht schöner wenn es 4 Grafikhersteller geben würde, die alle beim High End und Midrange markt genauso so gut vertreten wären wie heute Nv und Ati es ist? Naja gut, S3 wird wohl keine richtigen High End Grafikkarten bauen, aber hoffentlich XGI! Das würde den Preisen und dem Konkurrenzmarkt nur Gutes tun!
Außerdem fällt mir da ein, seitdem über Grafikkarten Gedanken machen ~1997, gab es schon immer Matrox, die haben zwar schon damals nicht die Besseren Grafikkarten gebaut, doch irgendwie gibt es die immer noch ;)!
Gast2k4
2004-05-17, 20:46:25
"seitdem ich mir Gedanken über Grafikkarten für den PC mache" sollte es heißen, sorry!
robbitop
2004-05-17, 20:56:18
Rampage war so eine Sache und STB.
Ich denke der Kauf von GP widerum war gut.
Falsches Management macht die besten Firmen kapputt, so ist das einfach.
Original geschrieben von Tigerchen
Dann warten wir mal. Auf den Rampage haben wir ja auch gewartet oder auf die BitBoys.....
Im Gegensatz dazu hat XGI die Motivation, das Geld und die erforderliche Rückendeckung des Fertigers. Ich hasse es wenn irgendwer meint, er müsst unbedingt die "Hassfirma" schlechtreden. Man sollte sich FREUEN, dass noch ein Teilnehmer mehr am Markt ist, weil es auf JEDEN FALL dem Kunden zugute kommt. Von daher, ein bisschen Optimismus bitte ;) es steht recht gut um XGI, die Altlasten sind nicht von heute auf morgen loszuwerden. Was mir hier mehr Sorgen macht, ist, dass XGI keine skrupel haben wird, es NV und ATI gleichzutun und im Treiber rumzupfuschen.
Vergleiche zwischen XGI, Bitboys und 3dfx sind echt sowas von lächerlich, da sich alle 3 Firmen (und ihre Geschichten) derart unterscheiden, dass man wohl keine einzige Gemeinsamkeit finden wird.
robbitop
2004-05-17, 22:17:09
"Vergleiche zwischen XGI, Bitboys und 3dfx sind echt sowas von lächerlich, da sich alle 3 Firmen (und ihre Geschichten) derart unterscheiden, dass man wohl keine einzige Gemeinsamkeit finden wird."
full ack
ich denke wir sollten damit ne weile warten
Tesseract
2004-05-17, 22:34:42
Original geschrieben von HOT
Man sollte sich FREUEN, dass noch ein Teilnehmer mehr am Markt ist, weil es auf JEDEN FALL dem Kunden zugute kommt.
juhu, dann fangen nvidia und ati auch bald an mit der auflösung herum zu skalieren und beim AA zu bluren weil TF optimierung und AF winkelabhängigkeit nicht mehr genügt um benchmarks zu gewinnen wenn die konkurrenz intern mit einem bruchteil der auflösung arbeitet
:schlag:
strickjackenscheitel
2004-05-17, 23:34:29
wo bitte, kann man mal ein paar projekte o.ä. von xgi "einsehen"? wo kann man sich infos zu den kommenden chips holen? wo sind infos zu den momentanen grakas?
stickedy
2004-05-17, 23:50:50
http://www.xgitech.com/
Mehr findet man nicht wirklich...
Über die nächste Generation ist nicht wirklich viel bekannt, PS/VS 3.0 werden vemutet (naja, wurde bei ATI ja auch), aber das wars dann auch schon (es sei denn mir ist was entgangen).
Grafikkarten mit Volari-Chips gibts im Prinzip nur in Form der Volari V8 Duo von Club 3D und von einem Anbieter in China (der Name ist mir entfallen, die haben aber auch die normale V8). V8/Ultra und V5/Ultra sind afaik in Europa nicht zu kaufen...
Chaintech soll angeblich demnächst Volari-Karten anbieten, gesehen hat man noch keine... Andere waren/sind auch im Gespräch, aber konkret ist da nix.
Edit: Ach ja, http://www.volarigamers.com/ da findet sich natürlich einiges
strickjackenscheitel
2004-05-18, 00:05:17
he danke!
Radeonator
2004-05-18, 02:15:53
OT: Hatte mir ja einiges mehr von der V8 erhofft, inzwischen jedoch tun mir die gesponsorten Gamer leid...die armen Schweine müssen mit dem Schrott spielen ;D
Die Treiberprogger sind schlechter als die von *** in ihren schlehtesten Zeiten ;)
Hoffentlich wird das S3 final Produkt angenehm cremig! Bin schon gespannt wie gut die Karte mit OCing skaliert...mit etwas mehr Dampf müsste die Karte theoretisch abgehen wie ne Rakete, bei der pro MHz Leistung!
apollo
2004-05-18, 07:52:02
Ist ja schön wie ihr hier euch alle auslast, aber was hat das mit dem DeltaChrome zu tun?
robbitop
2004-05-18, 08:41:28
naja um einen PS3 zu realisieren, darf man den Pixelprozessor weitestgehend neu machen.
Mal schauen wie XGi sich hier macht =)
Original geschrieben von Radeonator
OT: Hatte mir ja einiges mehr von der V8 erhofft, inzwischen jedoch tun mir die gesponsorten Gamer leid...die armen Schweine müssen mit dem Schrott spielen ;D
Die Treiberprogger sind schlechter als die von *** in ihren schlehtesten Zeiten ;)
Hoffentlich wird das S3 final Produkt angenehm cremig! Bin schon gespannt wie gut die Karte mit OCing skaliert...mit etwas mehr Dampf müsste die Karte theoretisch abgehen wie ne Rakete, bei der pro MHz Leistung!
Man beachte die Geschichte des Volari: Der Chip an sich wurde noch von SIS allein entwickelt. Für deren Verhältnisse ist der Volari erstaunlich gut. Ein würdiger Xabre Nachfolger könnte man meinen :D
Ich denke, dass XGI die Geschichte jetzt etwas ernster angeht. Mal sehen, womit die uns noch überraschen ;)
Es kann sein, dass S3 zum grössten Konkurrenten für XGI wird. Das gibt wieder lustige Grabenkämpfe :D
Radeonator
2004-05-18, 14:09:14
Mich fasziniert und interessiert die Pro MHz Leistung der Deltachrome GPU. Schon erstaunlich das eine so "niedrig" getaktete Karte auf gleichen Level bzw besser da steht. Das auch noch mit damaligen beta Treibern!
9600 XT-------|-----DeltaChrome S8----|FX 5600 Ultra
0.13 micron---------0.13 micron---------0.13 micron
256-bit-------------256-bit-------------256-bit
75 million-----------60-80 million---------80 million
500MHz--------------300MHz---------------400MHz <---Core
300MHz--------------300MHz---------------400MHz <---MEM
LovesuckZ
2004-05-18, 14:20:03
Original geschrieben von Radeonator
Mich fasziniert und interessiert die Pro MHz Leistung der Deltachrome GPU. Schon erstaunlich das eine so "niedrig" getaktete Karte auf gleichen Level bzw besser da steht. Das auch noch mit damaligen beta Treibern!
8x1 Tri - TMUs gegen 4x1 Bi, die Pro - MHz - Leistung ist eigentlich eine katastrophe...
Das interessiert aber bei diesem Preis keinem, da die Karte zur der Preiskonkurenz auch leistungsmaeßig mithalten kann.
stickedy
2004-05-18, 14:24:41
Naja, DeltChrome S8 hat ja auch ne 8x1 Architekur, die anderen nur 4x1 (bzw. 2x2), so gesehen, ist die Leistung eher schlechter...
reunion
2004-05-18, 14:24:54
Original geschrieben von Radeonator
Mich fasziniert und interessiert die Pro MHz Leistung der Deltachrome GPU. Schon erstaunlich das eine so "niedrig" getaktete Karte auf gleichen Level bzw besser da steht. Das auch noch mit damaligen beta Treibern!
9600 XT-------|-----DeltaChrome S8----|FX 5600 Ultra
0.13 micron---------0.13 micron---------0.13 micron
256-bit-------------256-bit-------------256-bit
75 million-----------60-80 million---------80 million
500MHz--------------300MHz---------------400MHz <---Core
300MHz--------------300MHz---------------400MHz <---MEM
Der Deltacrome kann pro takt genausoviele tri-Samples erzeugen wie der NV40U oder der R420XT, angesichts dieser daten ist die Leistung die gerade eine 9600pro erreicht eigendlich vernichtend...
MadManniMan
2004-05-18, 15:10:31
Bei der fast lächerlichen Bandbreite müßte es AF 4 free geben ... :|
Das Ding ist nach der nun 2. Bri-Geschichte fast schon gekauft! :up:
robbitop
2004-05-18, 15:17:43
1. Füllrate ist nicht alles.
2. Das Ding ist ein Gefangener der Bandbreite
3. 70-80 Mio Transistoren...sollte klar sein dass mehrere Ressourcen geshared werden müssen, wenn man soviele Transistoren spart. Das kostet vermutlich Speed.
Das Ding hat nur 5W Verlustleistung und ist auch genau für Midstream konzipiert.
Ein Lupo ist eben kein Rennwagen. Wäre es nicht so, dann würde auch der DC sehr heiss werden und sicher ein paar Transistoren mehr wiegen.
Original geschrieben von MadManniMan
Bei der fast lächerlichen Bandbreite müßte es AF 4 free geben ... :|
Das Ding ist nach der nun 2. Bri-Geschichte fast schon gekauft! :up:
Gibt es ja. Und zwar Lehrbuch Version. Musst dir nur z.B. die xbit-labs Review angucken ;)
Der Chip ist vielleicht wenn überhaupt zur Hälfte nutzbar, die 4 Pipe Version sit sicher nciht viel langsamer (ausser mit AF), wegen dem beschissenen Speicherinterface. Man sollte das mal mit OC Tests nachprüfen ;)
Für 300MHz RAM-Takt mit GF2 Speicherinterface ist der DC schon recht fix unterwegs find ich.
@aths und Leo: Gibt es ne Delta-/GammaCrome Review irgendwann mal? Wär echt interessant.
Schade dass der DC kein besseres AA als 2x liefert ;)
Radeonator
2004-05-18, 15:22:30
Der Aufbau der Karte lässt allerdings darauf hoffen, das...
-Durch Treiber noch einiges an Leistung kommt
-Durch das PCB Layout V-Mods "relativ" einfach zu realisieren sind
-Durch wenig Verlustleistung einiges an OCing Potential drin ist!
reunion
2004-05-18, 15:24:38
Das größte problem ist imo der Speicherkontroller selbst, nichtsosehr die bandbreite, eine 9500pro mit noch weniger Speicherbandbreite erreicht immerhin mehr fps als des Deltacrome...
stickedy
2004-05-18, 15:26:47
Es gab auch mal Gerüchte im Web, das Early-Z nicht korrekt funktioniert hat und deswegen deaktiviert wurde. Falls das gefixt wurde, wäre einiges mehr möglich...
Original geschrieben von reunion
Das größte problem ist imo der Speicherkontroller selbst, nichtsosehr die bandbreite, eine 9500pro mit noch weniger Speicherbandbreite erreicht immerhin mehr fps als des Deltacrome...
Dem DC fehlen Bandbreite sparende Massnahmen, er hat nur Fast-Z-Clear (gibts überigens bei S3 schon seit dem Savage3D) und nicht funktionsfähiges Early-Z. Das Speicherinterface ist nicht unterteilt, sondern ein 128Bit Interface. Ich sag ja, auf Geforce2 Niveau (na ja, die G2 hatte nicht mal Fast-Z-Clear ;)).
Ich hoffe, dass der Gammacrome ein 256Bit Interface mit optimiertem Controller bietet, das würde dem DC Flügel verleihen :D
Radeonator
2004-05-18, 15:33:22
OMG! Nicht schon wieder Deja vû !!! Early-Z funzt net...ich erinnere an T&L bei Savage2000...hoffentlich net schon wieder so nen derber Design Bock!!!!
stickedy
2004-05-18, 15:40:17
Das ganze hat sich so weit verzögert, dass ich hoffe, falls es ein Hardware-problem war, dass ein neues Stepping das Problem gelöst hat bzw. ein neuer Treiber, falls Software-Sache.
afaik gibt es keine Tests mit einem neueren als 6.14.10.1632 (und 6.14.10.1645 gibt es schon seit über einem Monat) und das könnte auch einer der gründe sein, warum PowerColor so lange gewartet hat, vielleicht läuft jetzt alles wie es soll und das Teil hat noch etwas zugelegt...
Wir werden es ja bald sehn! ;)
robbitop
2004-05-18, 16:15:21
das würde erklären, warum DC so verzögert worden ist.
Da S3 keine echten HighEnd Chips brint, glaube ich kaum an 256bit DDR.
Im Gammachrome kann ich mir aber mehr Takt und einen brauchbaren Controller vorstellen.
Also in dem Chip steckt zweifelsohne Potential, wenn er denn rund liefe.
256bit DDR wäre wirklich ideal. Aber wirds denk ich nicht geben.
Tigerchen
2004-05-18, 16:36:11
Original geschrieben von HOT
Im Gegensatz dazu hat XGI die Motivation, das Geld und die erforderliche Rückendeckung des Fertigers. Ich hasse es wenn irgendwer meint, er müsst unbedingt die "Hassfirma" schlechtreden. Man sollte sich FREUEN, dass noch ein Teilnehmer mehr am Markt ist, weil es auf JEDEN FALL dem Kunden zugute kommt. Von daher, ein bisschen Optimismus bitte ;) es steht recht gut um XGI, die Altlasten sind nicht von heute auf morgen loszuwerden. Was mir hier mehr Sorgen macht, ist, dass XGI keine skrupel haben wird, es NV und ATI gleichzutun und im Treiber rumzupfuschen.
Vergleiche zwischen XGI, Bitboys und 3dfx sind echt sowas von lächerlich, da sich alle 3 Firmen (und ihre Geschichten) derart unterscheiden, dass man wohl keine einzige Gemeinsamkeit finden wird.
Nett wie du dir das Volari Debakel schönredest. Optimismus heißt die Löcher im Käse nicht sehen. Und bei XGI sind die Löcher größer als der Käse.:)
Solche Durchhalteparolen wie du sie abläßt kenn ich allerdings schon aus der Zeit als mir 3dfx-Jünger und BitBoys-Fans dasselbe erzählen wollten.
Original geschrieben von Tigerchen
Nett wie du dir das Volari Debakel schönredest. Optimismus heißt die Löcher im Käse nicht sehen. Und bei XGI sind die Löcher größer als der Käse.:)
Solche Durchhalteparolen wie du sie abläßt kenn ich allerdings schon aus der Zeit als mir 3dfx-Jünger und BitBoys-Fans dasselbe erzählen wollten.
Blödsinn ;)
Ich rede das nicht schön, aber Fakt ist, dass XGI lieferbare Hardware hat, die sogar in gewissem Rahmen nutzbar ist. Hör bidde endlich mit diesen blödsinnigen Vergleichen auf. Sowas wie mit XGI passiert zum ersten Mal in der Geschichte, dass ein Grafikchipdesigner mit Gewalt richtung Spitze prescht (überspitzt). Da sind Debakel erlaubt, vor allem beim ersten Design. Man sollte das Risiko honorieren und nicht alles missreden. Die Nachteile des Chips sind hinlänglich bekannt und ausreichend erörtert. Ich rechne damit dass erst die übernächste XGI Generation (oder noch später) wirklich Konkurrenzfähig im High End Bereich, die nächste aber könnte schon bei den Midrangekarten mitspielen. Der Volari war der allererste XGI Chip, ich denke, dafür war er ein guter Start.
Original geschrieben von robbitop
das würde erklären, warum DC so verzögert worden ist.
Da S3 keine echten HighEnd Chips brint, glaube ich kaum an 256bit DDR.
Im Gammachrome kann ich mir aber mehr Takt und einen brauchbaren Controller vorstellen.
Also in dem Chip steckt zweifelsohne Potential, wenn er denn rund liefe.
256bit DDR wäre wirklich ideal. Aber wirds denk ich nicht geben.
Warum nicht? das ist doch das Einzige wran er krankt (mutmasslich). Diese Chipfläche wäre eine Sinnvolle Investition. Man muss die 256Bit ja nicht verdraten, das reicht ja wenn mand as bei den F1 Versionen macht. Sie würden sich damit allemal Respekt verschaffen und hätten schon ein brauchbares Interface für dei nächste Generation, weil die braucht definitiv ein 256Bit Interface.
Radeonator
2004-05-18, 18:14:08
Original geschrieben von Tigerchen
Nett wie du dir das Volari Debakel schönredest. Optimismus heißt die Löcher im Käse nicht sehen. Und bei XGI sind die Löcher größer als der Käse.:)
Solche Durchhalteparolen wie du sie abläßt kenn ich allerdings schon aus der Zeit als mir 3dfx-Jünger und BitBoys-Fans dasselbe erzählen wollten.
Moment e mal, ich sehe gerade die Parallele nicht, die du hier zu ziehen versuchst. 3dFX´s Fehler sollten eigentlich hinlänglich bekannt sein, nichts davon findet sich bei SiS/XGI. Bitboys haben (im Desktop Segment) bis auf Papiertiger und Pre Alpha Samples gar nichts vorzuweisen. Du vergleichst hier Äpfel mit Birnen.
XGI ist in ihrem genannten Zeitrahmen geblieben und wird, IMO,in Zukunft zumindest einigermaßen Anschluß finden können, WENN vernünftige Treiber entwickelt werden.
Selbst die Volari könnte bedeutend besser sein (Bsp.:CS 100fps auch bei Rauch!), wenn das Wörtchen wenn nicht wäre bzw wenn vernünftige Treiber ...
Radeonator
2004-05-18, 18:18:44
Original geschrieben von HOT
Warum nicht? das ist doch das Einzige wran er krankt (mutmasslich). Diese Chipfläche wäre eine Sinnvolle Investition. Man muss die 256Bit ja nicht verdraten, das reicht ja wenn mand as bei den F1 Versionen macht. Sie würden sich damit allemal Respekt verschaffen und hätten schon ein brauchbares Interface für dei nächste Generation, weil die braucht definitiv ein 256Bit Interface.
Eben, zudem wäre und ist es unsinnig 256MB mit 128MBit anzubinden IMO!
Tigerchen
2004-05-18, 19:30:46
Original geschrieben von Radeonator
Moment e mal, ich sehe gerade die Parallele nicht, die du hier zu ziehen versuchst. 3dFX´s Fehler sollten eigentlich hinlänglich bekannt sein, nichts davon findet sich bei SiS/XGI. Bitboys haben (im Desktop Segment) bis auf Papiertiger und Pre Alpha Samples gar nichts vorzuweisen. Du vergleichst hier Äpfel mit Birnen.
XGI ist in ihrem genannten Zeitrahmen geblieben und wird, IMO,in Zukunft zumindest einigermaßen Anschluß finden können, WENN vernünftige Treiber entwickelt werden.
Selbst die Volari könnte bedeutend besser sein (Bsp.:CS 100fps auch bei Rauch!), wenn das Wörtchen wenn nicht wäre bzw wenn vernünftige Treiber ...
Die Paralelle besteht darin daß Hoffnungen auf eine strahlende Zukunft gemacht werden. Solche Hoffnungen kursierten ja schon im Vorfeld der Volari. Dann kam sie raus und dann kam die Ernüchterung. Jetzt dasselbe Spiel von vorn.
Genau wie bei 3dfx. V3,V4 und V5 erschienen und schon nach kurzer Zeit wollte keiner den Kram mehr kaufen. Also wurde Hoffnung verbreitet. "Rampage wird es euch allen zeigen". So tönt es mir noch heute in den Ohren. Und im Vorfeld der Cebit '99 (oder 2000,egal) . "Jetzt zur Cebit kommen die BitBoys!". Und was kam? Nix kam.
Euer ganzer Optimismus gründet sich also wie weiland bei den BitBoys/3dfx nur auf die Hoffnung.
XGI ist eben SIS und SIS ist NIX. Aber wenn ihr weiter hoffen wollt daß sich das jemals ändert habt ihr meinen Segen. Hoffen kann man ja immer. Kostet ja nichts.:)
Original geschrieben von Tigerchen
XGI ist eben SIS und SIS ist NIX. Aber wenn ihr weiter hoffen wollt daß sich das jemals ändert habt ihr meinen Segen. Hoffen kann man ja immer. Kostet ja nichts.:)
Zum 1 Teil: Immer noch Äpfel mit Birnen vergleich! Eigentlich wusste jeder was er von der XabreII aka Volari zu erwarten hatte. 3dFX hatte sehr viele Design Fehler, die V2000/3000 waren sogar wieder erwarten gar nicht mal so erfolglos, obwohl es "Forceware" war. Durch Fehldesigns ging 3dFX die Luft aus und Punkt.
Bitboys mit irgendetwas zu vergleichen ist, mit Verlaub, absoluter Schwachsinn!
Zum 2 Teil: SiS ist also nix...oh man. Schau mal an was SiS seit Ewigkeiten im Lowcost , Integratet und Mobo Segment "nicht" ist ;) Auch hier absolut kein Vergleich, da SiS Weltweit operiert und in z.B. Asien einen sehr guten Markt hat. Die Chipsätze sind zudem alles andere als nichts und sogar recht performant und erfolgreich! Schau dir mal den Umsatz an und schreib nichts, wovon du anscheinend keine Ahnung hast...
XGI hat theoretisch die Mittel, ihnen fehlt jedoch dezeit noch das KnowHow. Doch auch das wird früher oder später kommen, vor allem da jetzt auch die Leute von Trident mitwerkeln werden.
Bei S3 ist es anders, die haben theoretisch das KnowHow, jedoch bekommen Sie nicht die Mittel, da Sie nur eine Sparte von VIA sind. Was Sie dabei heraus gebracht haben, finde ich mehr als bemerkenswert!!!
reunion
2004-05-18, 20:37:46
Original geschrieben von Tigerchen
Genau wie bei 3dfx. V3,V4 und V5 erschienen und schon nach kurzer Zeit wollte keiner den Kram mehr kaufen. Also wurde Hoffnung verbreitet. "Rampage wird es euch allen zeigen". So tönt es mir noch heute in den Ohren.
Das lässt sich imo sehr schlecht vergleichen, 3dfx war lange zeit absolut unangefochten an der Leistungskrone und übertrumpfte die Konkurrenz nach belieben, doch leider schlachtete man die sehr erfolgreiche Voodoo1 bis zur zuletzt aus ohne wirklich etwas neues zu bieten, dann machte man noch den fehler nurmehr die Garka selbst zu produzieren und vergaß außerdem total auf den OEM-Markt und, und, und, ich könnte ewig so weitermachen. Doch 3dfx war auch der Erfinder von AA und ließ öfters deren genialität aufblitzen. Und ich bin nach wie vor der meinung das der rampage die G3 locker übertrumpft hätte. Es hatte bis zu 4x RGMSAA (das NV erst jetzt mit dem Nv40 anbietet) bis zu 16x AF, eine 4x1 Pipelinestruktur und PS/VS 1.0, außerdem sollte auch eine 2 Chip Version herauskommen. Und auch der nachfolger mit Gigapixeltechnologie wäre sicherlich nicht schlecht gewesen. Aber leider hatte man eben vorher zuviele Fehler gemacht sodass schlicht und einfach das Geld ausging. Und ich bin nach wie vor der meinung das uns mit 3dfx eine größartige Firma verlorengegengen ist. Denn was man jetzt sieht sind nur immer höhere AA und AF Modi sowie immer mehr Füllrate und Speicherbandbreite, 3dfx zeigte mit dem F-Buffer Inovationen wie Motion Blur oder SSAA...
stickedy
2004-05-18, 22:12:47
Original geschrieben von Gast
Zum 2 Teil: SiS ist also nix...oh man. Schau mal an was SiS seit Ewigkeiten im Lowcost , Integratet und Mobo Segment "nicht" ist ;) Auch hier absolut kein Vergleich, da SiS Weltweit operiert und in z.B. Asien einen sehr guten Markt hat. Die Chipsätze sind zudem alles andere als nichts und sogar recht performant und erfolgreich! Schau dir mal den Umsatz an und schreib nichts, wovon du anscheinend keine Ahnung hast...
SiS ist mitnichten sehr erfolgreich! Die Firma schreibt seit Jahren Verluste und hängt tief in den roten Zahlen und zwischenzeitlich am Finanztropf von UMC.
Aktuell SiS-Chipsätze für SocketA sind nicht vorhanden, bei der K8-Plattform siehts noch düsterer aus und im Intel-Sektor verliert man laufend an Boden.
Die einzigen Augenblicke als SiS aufleuchtete waren als VIA geschwächt wurde, dass war 1. nach dem ganzen Rummel um den angeblichen Southbridge-Bug und dem schwachen KT266 und dann 2. noch die Streitigkeiten mit Intel als kaum VIA P4-Chipsätze verbaut wurden. Beides ist vorbei und SiS kann so gut wie einpacken... Wobei es um die Firma sicherlich nicht schade wäre. Mir war schon immer unverständlich, wie diese Firma überhaupt so lange über die Runden kam, schon die 486er Chipsätze waren Schrott.
apollo
2004-05-18, 22:20:43
Kann ein Mod das ganze bitte mal splitten.
Danke.
Original geschrieben von stickedy
SiS ist mitnichten sehr erfolgreich! Die Firma schreibt seit Jahren Verluste und hängt tief in den roten Zahlen und zwischenzeitlich am Finanztropf von UMC.
Aktuell SiS-Chipsätze für SocketA sind nicht vorhanden, bei der K8-Plattform siehts noch düsterer aus und im Intel-Sektor verliert man laufend an Boden.
Die einzigen Augenblicke als SiS aufleuchtete waren als VIA geschwächt wurde, dass war 1. nach dem ganzen Rummel um den angeblichen Southbridge-Bug und dem schwachen KT266 und dann 2. noch die Streitigkeiten mit Intel als kaum VIA P4-Chipsätze verbaut wurden. Beides ist vorbei und SiS kann so gut wie einpacken... Wobei es um die Firma sicherlich nicht schade wäre. Mir war schon immer unverständlich, wie diese Firma überhaupt so lange über die Runden kam, schon die 486er Chipsätze waren Schrott.
SIS baut keinen Schrott, SIS verkauft nur zu billig ;)
ich denke, dass das Potenzial von SIS wesentlich grösser wäre, bei einer anderen Geschäftsstrategie. Weiss jemand genau wqie es um SIS steht? Hat jemand Links?
robbitop
2004-05-18, 23:04:40
ich glaube nicht, dass S3 ein 256bit DDR Interface bringt, weils nicht zur Firmenphilosophie passt. Die Karten sind eben günstig. Sprich max 200EUR. Da gibts sowas nich
stickedy
2004-05-18, 23:16:09
Warum ein 256 Bit Interface ausgesprochen teuer sein soll war mir schon immer ein Rätsel...
Das ist imho nur die Erfindung von ATI und NVidia um ihre High-End-Chips teuer zu verkaufen ("Unser High-End-Chip hat ja auch ein 256 Bit Interface, ist also nicht überteuert...").
Galub ich aber trotzdem nicht. Für das Midrange-Segment ist das nicht nötig, zumindest nicht für den DeltaChrome. Vielleicht kommt das ja mit dem GammaChrome, aber da werden wir wohl erstmal abwarten müssen, welchen Zielmarkt S3/VIA anpeilen. Falls es 200 - 300 Euro sein sollen, wird ein 256 Bit Interface evtl. nötig werden und dann wohl auch kommen...
robbitop
2004-05-18, 23:22:05
zur R9700 hat ein 256bit Interface im Gegensatz zum 128bit 100EUR drauf gekostet. Dank komplexerem PCB und mehr verdratung und der Chip braucht auch mehr Pins et cetera...
stickedy
2004-05-18, 23:29:20
Das kostet doch real keine 100 Euro! Vielleicht 5 Euro höchstens. Klar, dass die Hersteller zZ mehr draufschlagen (hab ich ja auch geschrieben), aber real existeren die Kosten nicht...
robbitop
2004-05-18, 23:36:13
naja bei Mirkoelektronik gehts um jeden cent.
Das durfte ich schmerzlich mit meiner FX5900 erfahren. Der 2. D/A Transducer ist für die Tonne mein 2. Monitor signal ist total matschig und das wegen einem Bauteil was nur ein paar cent mehr kostet...
Ich denk mal ein komplexeres PCB kostet schon bissl mehr als 5EUR. Ich denke S3 wird kein Interesse haben auf High End zu gehn, weil sie dann mit den High End Karten von NV/ATi verglichen werden und dort dann verlieren.
Aber 4x64bit DDRw würde dem DC sicher stehen..
Naja so haste eben 8x Tri AF fast 4free. Dann nutzt du die Füllrate gut aus. Und 2xRGSSAA kostet auch wieder gut Füllrate. Also ich denke bei 2x/8x bist du nicht mehr bandbreitenlimitiert. Da sollten selbst die tri TMUs gut genutzt sein.
Original geschrieben von stickedy
SiS ist mitnichten sehr erfolgreich! Die Firma schreibt seit Jahren Verluste und hängt tief in den roten Zahlen und zwischenzeitlich am Finanztropf von UMC.
Aktuell SiS-Chipsätze für SocketA sind nicht vorhanden, bei der K8-Plattform siehts noch düsterer aus und im Intel-Sektor verliert man laufend an Boden.
Die einzigen Augenblicke als SiS aufleuchtete waren als VIA geschwächt wurde, dass war 1. nach dem ganzen Rummel um den angeblichen Southbridge-Bug und dem schwachen KT266 und dann 2. noch die Streitigkeiten mit Intel als kaum VIA P4-Chipsätze verbaut wurden. Beides ist vorbei und SiS kann so gut wie einpacken... Wobei es um die Firma sicherlich nicht schade wäre. Mir war schon immer unverständlich, wie diese Firma überhaupt so lange über die Runden kam, schon die 486er Chipsätze waren Schrott.
Stimmt net.
Es sind sowohl als auch Chipsätze für fast alles vorhanden. Erkundige dich vielleicht erstmal bevor du etwas schreibst!
64 Bit Chipsätze 755/760 wurden bereits reviewed und als beste Plattform für AMD 64Bit Prozessoren bewertet!
OC-Workbench (http://www.ocworkbench.com/2004/gigabyte/K8S760M/K8S760M-1.htm)
Im P4 Bereich die 655er Reihe
SiS vs VIA (http://www.tomshardware.com/motherboard/20031215/sis655tx-12.html)
usw.
Ach ja 486er...zu solch "schlauen" Kommentaren fällt mir net mehr viel ein...fcs...
SiS Quartalszahlen sind äusserst wechselhaft, zudem wundert es mich, wie Sie es bei der von dir erwähnten Finanz Schwäche immer wieder gelingt, andere Firmen einzubinden , zu gründen etc.
stickedy
2004-05-18, 23:45:34
@Robbitop
Natürlich geht es um jeden Cent, aber:
Wieviel kostet denn ein PCB? Schau dir doch einfach mal ein aktuelles LowCost-Mainboard an, meinetwegen das Asrock K7VTA2 oder auch das ECS K7S5A: Ein riesiges PCB, 4 Layer-Technik, da lassen sich rein vor der Fläche her ca. 5 - 6 aktuelle Grafikkarten "rausschneiden".
So ein Mainboard wird für unter 30 Euro verkauft, da hat der Händler, der Zwischengändler, der Importeuer und der Hersteller noch was dran verdient. Zugegeben, nicht viel, aber mehr als 20 Euro kann das Mainboard in der Produktion nicht kosten. Wenn man jetzt noch den Chipsatz, AC97-Chip, Sockel, etc. abzieht, hat man für das PCB vielleicht kosten von 50 Cent (ist ne Schätzung, ich rechne eher mit weniger). So daraus ließen isch theoretisch 5 Grafikkarten machen -> Kostenpunkt ca. 10 Cent / PCB... Und ich möchte stark anzweifeln, dass ein PCB für 256 Bit Speicherinterface bei Grafikchips komplexer ist als bei einem aktuellen Chipsatz.
Soweit zum Thema, wieviel so ein PCB mehr kostet...
Das sind Peanuts und es gibt keinen Grund, warum S3 das nicht nutzen könnte...
robbitop
2004-05-18, 23:49:01
ein GrakaPCB ist von der verdratung viel Komplexer und man hat 8-10 Layer.
Ach ich weiss nicht...256bit passt nicht zu S3...ist so ein Gefühl nach dem ich die Chips und die Firmenausrichtung gesehen hab...nenn mich verrückt aber ich glaub nicht dran.
Es geht eben um Cents und S3 will kein echtes High End.
So sind meine Eindrücke..
stickedy
2004-05-18, 23:50:12
@Gast
Schön, dass die Chipsätze schnell sind. Und? Wenn sie niemand verbaut bzw. kauft bringt einem das gar nix! Und darauf kommt es an...
Im übrigen: http://www.sis.com/sisinfo/investor.htm?PHPSESSID=ed86effcc269f70b0dfc321bb7edf201
Seit September letzten Jahres geht es steil bergab.. "Rein zufällig" der Zeitpunkt seit VIA mit dem PT880 und PT890 wieder stark auf dem P4-Markt vertreten ist...
stickedy
2004-05-18, 23:55:13
@Robbitop
Trotzdem schießen sie Kosten nicht so exorbitant in die Höhe! Meine 5 Euro sind imho realistisch, wenn jemand andere Zahlen hat, lasse ich mich natürlich gerne belehren! Sind halt meine Überlegungen dazu... Leider findet man da nicht wirklich Infos drüber.
Klar, beim DeltaChrome auf keinen Fall! Das werden wir nicht erleben. Aber beim GammaChrome wäre es denkbar. Man spricht ja auch bei S3 von einem verbesserten Speichercontroller, das würde man imho nicht so an die große Glocke hängen, wenn es nicht was sehr signifikantes wäre...
Und man sollte bedenken: Auch DeltaChrome F1 war ursprünglich für High-End vorgesehen, wegen der Verzögerung und der niedrigen Speicherbandbreite ist das natürlich nicht mehr zu halten gewesen, deswegen hat man die Variante beerdigt. Falls man das beim GammaChrome wieder vorhaben sollte braucht man auf jeden Fall ein entsprechendes Interface, das weiß auch S3.
robbitop
2004-05-19, 00:07:24
ein Verbesserter Speichercontroller ist schon ein großer Fortschritt...glaub mir Stickedy ich würde es echt begrüßen..lohnen würde sich das ganze wirklich wenn man einen unterteilten Controller hätte.
Ich bin gespannt..aber nicht euphorisch
RyoHazuki
2004-05-19, 03:38:23
Hi,
also,
1. High end war/ist ein ziel von S3... aber nicht Ultra High end.
Begründung:
Bevor noch die ersten testsamples verschickt wurden, war die rede von,
Deltachrome F1 & F1 Nitro
Deltachrome S8 & S8 Nitro
Deltachrome S4 & S4 Nitro
komischer weise wurden plötzlich nur S8 und S8 Nitros verschickt, und vom F1 war gar keine rede mehr...
Um im Low End segment erfolgreich zu sein, braucht man ein prestige objekt... (Sihe Pentium4 Extreme) eine karte die es mit dem High end aufnehmen kann, auch wenn sie nicht in so großen stückzahlen vorhanden ist. Hauptsache das produkt ist irgondwo oben an der spitze!
2. Deltachrome F1 wäre für uns alle doch etwas interessanter.
3. ein treiber compiler, der noch nicht integriert ist, soll der Deltachrome reihe zu weiterer performance helfen, aber hauptsächlich der neuen Gammachrome reihe.
-----------------------------------------------------------------------------------
Anscheinend steht es den Board herstellern frei wie hoch sie takten.
Powercolor taktet 250/500
Club 3D taktet 300/600
Chaintech taktet 345/600
Man wird im Mainstream 256Bit BRAUCHEN um Konkurrenzfähig zu bleiben. Beim Gammacrome halte ich ein 256Bit Interface für sicher, allerdings wird nur die obere Mittelklasse damit auch vertratet. Soviel Chipfläche wird es nicht kosten und es wäre das sinnvollste für ein Refresch was man bringen kann.
robbitop
2004-05-19, 09:54:34
nein wird man imo nicht. Ich bin mir ziemlich sicher, dass auch dieses Jahr der Mainstream kein 256bit DDR bekommt.
Radeonator
2004-05-19, 11:43:22
Vor allem aber gab es anfangs Gerüchte, das es bei der Nitro F1 evtl. nur 15MHz mehr Takt auf Core und Mem geben sollte. Skaliert die Karte so gut mit dem Takt ???
robbitop
2004-05-19, 11:51:11
sie skalliert linear.
Und es waren 25MHz
Beim DC bäuchte man nur den Speichertakt erhöhen, ich bin sicher, dass sie schon damit fast linear skalieren würde.
robbitop
2004-05-19, 13:16:22
wenn man nicht gerad 8xAF und 2xSSAA anhat sollte das hinkommen ja.
Radeonator
2004-05-19, 13:25:28
Werde mir so ein Teil kaufen, nur um zu testen und als Übergang zum zweiten Rev. 6800GT (1 rev wird wie immer etwas buggy sein, da warte ich lieber, bis die Kinderkrankheiten ausgestanden sind ;) )
Ich will hier niemandem unbedingt in die Parade fahren, aber:
- wieviel bringt ein verbesserter Speichercontroller und warum soll er so viel bringen?
- wieso ist der Chip ein Gefangener der Bandbreite?
- wer hat bewiesen, dass die early-z unit nicht funktioniert?
- wieso werden aus 60-80 Mio Trans. jetzt plötzlich 70-80 Mio.?
robbitop
2004-05-19, 15:47:12
-naja der Deltachrome hat ja trilineare TMUs, sprich er kann pro Takt 8 Samples verarbeiten (bi TMU nur 4 Samples).
Und da Farbinformationen am Meisten in die Bandbreite hauen, ergibt sich hier ein Problem. 128bit DDR sind bei gleichem Takt wie der Chip und das bei einem unterteiltem Speichercontroller wäre genug für 4x1bi vieleicht sogar für 4x2bi/8x1bi...da wirds dann aber schon sehr knapp. Um also die 8 tri TMUs gut auszulasten bräuchte man mindestens ein 256bit DDR Interface. Und selbst da müsste dann der Speichertakt höher sein als der Chiptakt.
-Ein verbesserter Speichercontroller im Sinne von unterteilt. Aus 1x128bit DDR wird 4x32bit DDR oder aus 1x256 = 4x64bit. Wenn kleine Dreiecke zum Einsatz kommen kann es sein, dass pro Takt nur vieleicht 20 oder 40bit gebraucht werden statt 256bit (Bsp). Somit hätte man 216-236bit Verschnitt, also verpufft.
Und mit einem Unterteilten Controller wären 20-40 bit auf 32bit/64bit ja viel unwesendlicher vom Verschnitt.
-> effektiv nutzbare Bandbreite steigt.
Und je größer der Gesamtcontroller, desto schlimmer wird der Verschnitt. Bei 64bit/128bit DDR Interfaces geht es noch einigermaßen aber bei 256bit ist das eine Katastrophe (Siehe Parhelia512).
-Das Mit dem Z-Culling ist ein Gerücht...klingt aber plausibel
-60-80 waren es? gut dann ist mein Errinnerungsvermögen nicht mehr das beste...aber 8 SIMDs und 4 Vertexuntis, da werden es eher 80 als 60 sein. Ich denke mal 80 mit FIFO und Caches und 60 ohne.
Und klar wurde bei dem Design an Ressourcen gespart..aber für seinen Zweck, extrem effizient..
Tigerchen
2004-05-19, 15:50:32
Original geschrieben von Gast
Zum 1 Teil: Immer noch Äpfel mit Birnen vergleich! Eigentlich wusste jeder was er von der XabreII aka Volari zu erwarten hatte. 3dFX hatte sehr viele Design Fehler, die V2000/3000 waren sogar wieder erwarten gar nicht mal so erfolglos, obwohl es "Forceware" war. Durch Fehldesigns ging 3dFX die Luft aus und Punkt.
Bitboys mit irgendetwas zu vergleichen ist, mit Verlaub, absoluter Schwachsinn!
Zum 2 Teil: SiS ist also nix...oh man. Schau mal an was SiS seit Ewigkeiten im Lowcost , Integratet und Mobo Segment "nicht" ist ;) Auch hier absolut kein Vergleich, da SiS Weltweit operiert und in z.B. Asien einen sehr guten Markt hat. Die Chipsätze sind zudem alles andere als nichts und sogar recht performant und erfolgreich! Schau dir mal den Umsatz an und schreib nichts, wovon du anscheinend keine Ahnung hast...
XGI hat theoretisch die Mittel, ihnen fehlt jedoch dezeit noch das KnowHow. Doch auch das wird früher oder später kommen, vor allem da jetzt auch die Leute von Trident mitwerkeln werden.
Bei S3 ist es anders, die haben theoretisch das KnowHow, jedoch bekommen Sie nicht die Mittel, da Sie nur eine Sparte von VIA sind. Was Sie dabei heraus gebracht haben, finde ich mehr als bemerkenswert!!!
Anscheindend bist du wirklich nicht in der Lage die Paralelle zu erkennen. Kann man nix machen.
Jeder wußte also was er von der Volari zu halten hatte? Da hab ich mir die Threads voller Volari Begeisterter hier im Forum bestimmt nur eingebildet. Sogar Endorphine meinte ich solle der Volari eine Chance geben. Und wer hat Recht behalten?:)
Du kannst auch nicht die Mainboardsparte von SIS mit der Grafiksparte vergleichen. Das sind zwei völlig verschiedene Dinge. Da vergleichst du Äpfel mit Birnen. So aufregend sind SIS-Chipsätze meiner Meinung nach aber auch nicht. Aber zurück zur Grafik. Warum soll es denn durch die Leute von Trident besser werden? Die haben doch auch nur noch LowCost Lösungen zustande gekriegt. Ob grade die das nötige KnowHow haben darf getrost bezweifelt werden.
Gegen VIA's Deltachrome hab ich nie was gesagt. Den Ansatz finde ich auch viel interessanter. Wenn ich recht informiert bin haben die mit einem niedrigeren Budged wesentlich mehr erreicht.
Radeonator
2004-05-19, 16:11:43
Original geschrieben von Tigerchen
Anscheindend bist du wirklich nicht in der Lage die Paralelle zu erkennen. Kann man nix machen.
Jeder wußte also was er von der Volari zu halten hatte? Da hab ich mir die Threads voller Volari Begeisterter hier im Forum bestimmt nur eingebildet. Sogar Endorphine meinte ich solle der Volari eine Chance geben. Und wer hat Recht behalten?:)
Die einzige Paralele die man ziehen kann, sind falsche Erwartungen, es geht hier allerdings eher um Hardware und nicht um Vermutungen...3dFX hatten keine Rampage im Verkauf und Shitboys hatten gar nichts. Ansonsten könnte ich beliebige Parallelen mit beliebigen nicht erfüllten Ankündigungen und Erwartungen beliebiger Firmen ziehen, wäre auch quatsch oder ;)
Original geschrieben von Tigerchen
Gegen VIA's Deltachrome hab ich nie was gesagt. Den Ansatz finde ich auch viel interessanter. Wenn ich recht informiert bin haben die mit einem niedrigeren Budged wesentlich mehr erreicht.
Wurde bereits erwähnt, ACK
Desti
2004-05-19, 16:11:56
Original geschrieben von RyoHazuki
[...]
Anscheinend steht es den Board herstellern frei wie hoch sie takten.
Powercolor taktet 250/500
Club 3D taktet 300/600
Chaintech taktet 345/600
Wo hast du die Chaintech Zahlen her?
Bei Powercolor kann ich auch keine Zahlen finden.
http://www.powercolor.com.tw/page2/productlist.asp?page=1&prodid=153&id=1&sn=153&temp1=65
Tigerchen
2004-05-19, 16:18:29
Original geschrieben von reunion
Das lässt sich imo sehr schlecht vergleichen, 3dfx war lange zeit absolut unangefochten an der Leistungskrone und übertrumpfte die Konkurrenz nach belieben, doch leider schlachtete man die sehr erfolgreiche Voodoo1 bis zur zuletzt aus ohne wirklich etwas neues zu bieten, dann machte man noch den fehler nurmehr die Garka selbst zu produzieren und vergaß außerdem total auf den OEM-Markt und, und, und, ich könnte ewig so weitermachen. Doch 3dfx war auch der Erfinder von AA und ließ öfters deren genialität aufblitzen. Und ich bin nach wie vor der meinung das der rampage die G3 locker übertrumpft hätte. Es hatte bis zu 4x RGMSAA (das NV erst jetzt mit dem Nv40 anbietet) bis zu 16x AF, eine 4x1 Pipelinestruktur und PS/VS 1.0, außerdem sollte auch eine 2 Chip Version herauskommen. Und auch der nachfolger mit Gigapixeltechnologie wäre sicherlich nicht schlecht gewesen. Aber leider hatte man eben vorher zuviele Fehler gemacht sodass schlicht und einfach das Geld ausging. Und ich bin nach wie vor der meinung das uns mit 3dfx eine größartige Firma verlorengegengen ist. Denn was man jetzt sieht sind nur immer höhere AA und AF Modi sowie immer mehr Füllrate und Speicherbandbreite, 3dfx zeigte mit dem F-Buffer Inovationen wie Motion Blur oder SSAA...
Egal wie die Firma heißt, man muß immer innerhalb eines Zeitfensters fertig werden. Wenn man das nicht tut ist die Technik so wie sie zuerst erdacht und für genial befunden wurde schon wieder veraltet. Außer man hat das unverschämte Glück daß die Konkurrenz auch nicht aus dem Quark kommt.
Außerdem war Rampage Multichip. Das ist zwar bei Fans gewissermaßen der heilige Gral aber in der Praxis ein teures, problematisches Vergnügen. Viel Geld hätte 3dfx also nicht damit verdient.
Der F-Buffer hatte das Problem daß es 3dfx nicht gelungen ist diesen Microsoft für DirectX schmackhaft zu machen. Damit war der F-Buffer zum scheitern verurteilt.
Tigerchen
2004-05-19, 16:21:45
Original geschrieben von Radeonator
Die einzige Paralele die man ziehen kann, sind falsche Erwartungen, es geht hier allerdings eher um Hardware und nicht um Vermutungen...3dFX hatten keine Rampage im Verkauf und Shitboys hatten gar nichts. Ansonsten könnte ich beliebige Parallelen mit beliebigen nicht erfüllten Ankündigungen und Erwartungen beliebiger Firmen ziehen, wäre auch quatsch oder ;)
Falsche Erwartungen und die Unfähigkeit innerhalb eines Zeitrahmens Produkte fertig zu entwickeln und auf den Markt zu bringen die wirklich konkurrenzfähig sind.
DrumDub
2004-05-19, 16:25:39
Original geschrieben von Tigerchen
F-Buffer
f-buffer? ihr meint den t-buffer (t von gary tarolli), der mit dem vsa100 eingeführt wurde: http://www.3dconcept.ch/artikel/tbuffer/2.htm
der f-buffer war die (software)sache mit den längeren shadern für den r350.
Tigerchen
2004-05-19, 16:53:31
Original geschrieben von DrumDub
f-buffer? ihr meint den t-buffer (t von gary tarolli), der mit dem vsa100 eingeführt wurde: http://www.3dconcept.ch/artikel/tbuffer/2.htm
der f-buffer war die (software)sache mit den längeren shadern für den r350.
Da hast du natürlich 100%ig recht.
Original geschrieben von Tigerchen
Anscheindend bist du wirklich nicht in der Lage die Paralelle zu erkennen. Kann man nix machen.
Jeder wußte also was er von der Volari zu halten hatte? Da hab ich mir die Threads voller Volari Begeisterter hier im Forum bestimmt nur eingebildet. Sogar Endorphine meinte ich solle der Volari eine Chance geben. Und wer hat Recht behalten?:)
Du kannst auch nicht die Mainboardsparte von SIS mit der Grafiksparte vergleichen. Das sind zwei völlig verschiedene Dinge. Da vergleichst du Äpfel mit Birnen. So aufregend sind SIS-Chipsätze meiner Meinung nach aber auch nicht. Aber zurück zur Grafik. Warum soll es denn durch die Leute von Trident besser werden? Die haben doch auch nur noch LowCost Lösungen zustande gekriegt. Ob grade die das nötige KnowHow haben darf getrost bezweifelt werden.
Gegen VIA's Deltachrome hab ich nie was gesagt. Den Ansatz finde ich auch viel interessanter. Wenn ich recht informiert bin haben die mit einem niedrigeren Budged wesentlich mehr erreicht.
Na ja, für ein Erstlingswerk, bei der sämtliche Technologie im Hauruckverfahren entwickelt wurde, ist das Teil echt gut. Was will man von sowas aber auch erwarten??
Die müssen selbstverständlich noch an vielen Sachen arbeiten, aber sie haben es eben gaschafft einen SM2.0 Chip aus dem Nichts aus dem Boden zu stampfen, ohne Jahrelange Evolutionsentwicklung wie bei NV und ATI (oder S3).
SIS hat immer Billigchips ohne grossartige Funktionen gebaut, die zudem auchnoch ineffizient waren. Von der Seite aus gesehen war es schon ein gewalter Kraftakt. Wenn die das Tempo beibehalten, werden die wirklich bald Konkurrenzfähig.
Sie haben leider mit UMC nur nicht die überragenden Fertigungsmöglichkeiten, die sind einfach nicht so weit. Aber das kommt auch noch ;)
Die AMD/UMC Singapur FAB müsste ja bald lauffähig sein. Ich weiss garnet ob ATI da ausgestiegen ist oder noch mit drinhängt.
Blutgrätsche
2004-05-19, 17:53:16
Original geschrieben von robbitop
-naja der Deltachrome hat ja trilineare TMUs, sprich er kann pro Takt 8 Samples verarbeiten (bi TMU nur 4 Samples).
Und da Farbinformationen am Meisten in die Bandbreite hauen, ergibt sich hier ein Problem. 128bit DDR sind bei gleichem Takt wie der Chip und das bei einem unterteiltem Speichercontroller wäre genug für 4x1bi vieleicht sogar für 4x2bi/8x1bi...da wirds dann aber schon sehr knapp. Um also die 8 tri TMUs gut auszulasten bräuchte man mindestens ein 256bit DDR Interface. Und selbst da müsste dann der Speichertakt höher sein als der Chiptakt.
Gehört eigentlich alles ins Tech-Forum. Demirug hat mal den Faktor 1.5 für TRI gegenüber BI benutzt. Der scheint mir zu hoch. Auch 8 Pipes gegenüber 4 Pipes ändert an der Texturbandbreite - zumal komprimiert - nicht sehr viel. Das Problem ist der Color- und vielleicht der Z-Buffer. Bei längeren Shadern ist es dann aber auch egal.
Original geschrieben von robbitop
-Ein verbesserter Speichercontroller im Sinne von unterteilt. Aus 1x128bit DDR wird 4x32bit DDR oder aus 1x256 = 4x64bit. Wenn kleine Dreiecke zum Einsatz kommen kann es sein, dass pro Takt nur vieleicht 20 oder 40bit gebraucht werden statt 256bit (Bsp). Somit hätte man 216-236bit Verschnitt, also verpufft.
Und mit einem Unterteilten Controller wären 20-40 bit auf 32bit/64bit ja viel unwesendlicher vom Verschnitt.
-> effektiv nutzbare Bandbreite steigt.
Und je größer der Gesamtcontroller, desto schlimmer wird der Verschnitt. Bei 64bit/128bit DDR Interfaces geht es noch einigermaßen aber bei 256bit ist das eine Katastrophe (Siehe Parhelia512).
Meiner Erinnerung nach war der DC nur geringfügig weniger effizient als eine Radeon mit 128 Bit-Interface (was nicht unbedingt am Interface oder Speichercontroller liegen muss).
Ich verstehe eigentlich auch noch nicht den internen Crossbar-Speichercontroller. Das externe Interface ist 128 Bit und nicht 4x32. Wenn ich da falsch liege, wie funktioniert das dann mit den unterschiedlichen Adressen?
Ausserdem, wie kann es sein, dass man nur 20 oder 40 Bit braucht. Ein einziges Pixel braucht mindestens 32 Bit Color und evtl. 32 Bit Z. Bei 8 Pixeln sind das ggf. 256 Bit Color bzw. Z. Und längere Bursts sind ebenfalls ne gute Sache.
Original geschrieben von robbitop
-Das Mit dem Z-Culling ist ein Gerücht...klingt aber plausibel
Warum?
Original geschrieben von robbitop
-60-80 waren es? gut dann ist mein Errinnerungsvermögen nicht mehr das beste...aber 8 SIMDs und 4 Vertexuntis, da werden es eher 80 als 60 sein. Ich denke mal 80 mit FIFO und Caches und 60 ohne.
Und klar wurde bei dem Design an Ressourcen gespart..aber für seinen Zweck, extrem effizient..
Naja, bei 5 Watt Verbrauch würde ich bestenfalls auf 60 Mio. tippen. Auch mit der besten Technolgie kosten Trans. nun mal Strom. Auch ist mir dein Ressource-Sparen-Argument (im Sinne von Ressourcen-Sharing) nicht klar. Wo oder wie wird das gemacht?
Original geschrieben von Blutgrätsche
[...]
Naja, bei 5 Watt Verbrauch würde ich bestenfalls auf 60 Mio. tippen. Auch mit der besten Technolgie kosten Trans. nun mal Strom. Auch ist mir dein Ressource-Sparen-Argument (im Sinne von Ressourcen-Sharing) nicht klar. Wo oder wie wird das gemacht?
Erfunden hat das Trident. Ich bin mir aber nicht sicher ob S3g das überhaupt macht. Die Shader sind nicht allzustark, eine AA Logik dürfte nahezu komplett wegfallen. Desweiteren hat der DC nur 2 Vertexshader, die sich stren nach 2.0 Specs richten.
80 Mio ist schon ein guter Wert wenn man ihn mit anderen Chips vergleicht. Der Pahelia hat auch 4 Vertexshader der 2.0 Spec zusammen mit 4x4 (also 16TMUs) implementiert, allerdings nicht Float. 80 Mio kommt schon hin, ohne Sharing.
Ach ja, S3 hat damals im S2k 4 TriTMUs (die allerdings sehr unpräzise waren) + T&L + 128Bit Mem Controller + 2D Gedönse in 12Mio Transistoren gequetscht ;)
robbitop
2004-05-19, 20:35:01
hat er auch nich.
War 2x2bi
Hatte er mE doch, denn es war per S3 Tweak erzwingbar ;) Mit spürbarem Geschwindigkeitszuwachs. Aber es produzierte Grafikfehler, war also unbrauchbar.
Radeonator
2004-05-19, 23:24:03
Sehr interessant(wenn auch net neu) und eine teilweise Bestätigung meiner Spekulation :
...
, we have drivers under test which offers approximately 20% boost
...
Apart from the OpenGL game performance improvements which already represent over a 100% increase compared to our first review driver,
...
4) In OpenGL applications, weve noticed you dont currently support Anti-Aliasing. Is there an architectural reason for this? Will this feature be supported in future driver or product releases?
Nadeem: We support high quality, 4 sample (2x2), rotated grid, super-sampling under D3D which demonstrates the hardware is capable of this. We are in the process of reviewing customers' feedback on the need for this feature in OpenGL.
...
und mehr interessantes gibt es hier :
s3Interview (http://www.hothardware.com/viewarticle.cfm?articleid=468)
Original geschrieben von Radeonator
Sehr interessant(wenn auch net neu) und eine teilweise Bestätigung meiner Spekulation :
...
, we have drivers under test which offers approximately 20% boost
...
Apart from the OpenGL game performance improvements which already represent over a 100% increase compared to our first review driver,
...
4) In OpenGL applications, weve noticed you dont currently support Anti-Aliasing. Is there an architectural reason for this? Will this feature be supported in future driver or product releases?
Nadeem: We support high quality, 4 sample (2x2), rotated grid, super-sampling under D3D which demonstrates the hardware is capable of this. We are in the process of reviewing customers' feedback on the need for this feature in OpenGL.
...
und mehr interessantes gibt es hier :
s3Interview (http://www.hothardware.com/viewarticle.cfm?articleid=468)
RGMSAA?? :o Hab ich da war verpasst??
MadManniMan
2004-05-20, 01:28:09
Thema 256bit - am Preis wirds imho nicht wirklich liegen. nV bringt seit langer Zeit die 59XT im absoluten Mainstream und auch, wenn die gewinne niedriger sein sollten, als das in Relation dazu gewonnene Mindshare, so sehe ich dennoch alles unter 256bit zuküntig auch unterhalb jeder Mainstreamanstrenung.
Thema Tri-TMUs - der etwa zeitgleich herauskommende GF256 hatte tatsächlich 4*1 Tri, was jedoch darauf zurückzuführen war, daß das ursprünglich angedachte 4*2-Design (GF2 GTS ahoi!) einen Fehler besaß. IIRC ;)
Thema RMSS - nicht Multisampling HOT, Supersampling. Und das ganze 4 Sample Gedöhns ist reines Marketing. Man hat tatsächlich eine EER von 4 (= 2*2 ;) ), aber "nur" 2*RGSSAA.
Dennoch für mich ein dickes Argument für den DC - ein alter SS-Fan (schönes Wortspiel :freak: ) kann sich ein Jubeln im Herzerl beim Gedanken an sowas nicht verkneifen!
Original geschrieben von MadManniMan
Thema RMSS - nicht Multisampling HOT, Supersampling. Und das ganze 4 Sample Gedöhns ist reines Marketing. Man hat tatsächlich eine EER von 4 (= 2*2 ;) ), aber "nur" 2*RGSSAA.
Geil dann hätte ja ATi bis zu 144x AA ...
MadManniMan
2004-05-20, 02:25:36
Original geschrieben von Gast
Geil dann hätte ja ATi bis zu 144x AA ...
Aufm Standbild sehen die Kanten tatsächlich in etwa so aus, wie man es sich bei 12*12 OG vorstellen würde, korrekt :freak:
:lolaway:
Ailuros
2004-05-20, 02:40:55
Bei einer langweiligen Schicht hat man eventuell die Zeit, ganze 7 Seiten in einem solchen Thread durchzulesen. Erlaubt mir mal ein paar Punkte:
Wie gross sind die Chancen dass wir einen wahren dritten Konkurrenten im PC standalone graphics Markt sehen werden? Antwort: zwischen gering bis gar keine.
Der Grund ist einfach: wir sind nicht mehr beim Anfang von 3D (1995-1998) wo IHVs noch klein waren und die Moeglichkeiten quasi unbegrenzt waren. Mit zwei grossen IHVs wie ATI/NVIDIA fuer PC desktop und einem Giganten wie INTEL fuer integrated, sind die Chancen eines Erfolgs jeglichen Versuchs wohl eher begrenzt.
3dfx verkaufte Voodoos bis zur zweiten Generation wie verrueckt und mit dem Avenger waren die Verkaufszahlen immer noch anstaendig genug um konkurrenzfaehig zu sein. Dass man den OEM Markt so stark vernachlaessigt hat, war eines der groessten Fehler des Management und in dem Fall war ATI stets selbst damals eines der grossen IHVs und nicht irgend ein Firmchen dass ein paar Kaertchen verkauft. Es ist wahr dass man bei ATI wieder den high end PC Leistungs-Markt erst mit der Radeon wieder ernstnahm, aber das heisst nicht dass die Firma erst im Jahr 2000 bekannt wurde; ganz im Gegenteil es gab Zeiten wo man zwar hauptsaechlich Voodoos oder TNTs kaufte, aber der Umsatz und ingesamter Marktanteil von ATI war nicht zu uebersehen.
In der Mehrzahl der Faelle fehlt es einem IHV an Resourcen wenn die Designs als zu "langweilig" oder weniger konkurrenzfaehig erscheinen. Wenn nur eine handvoll von Ingieuren sich mit einem Design schlagen dann ist es klar dass Parhelia´s oder Voodoo5´s enstehen. Nochmal 3dfx kaufte Gigapixel hauptsaechlich weil sie die 40 erfahrenen Inginieurs unbedingt brauchten. Haette es nicht Idioten wie Ballard am Steuer gegeben, dann waere auch nicht die Mehrzahl der talentiertesten Inginieure in 1998/9 zu NVIDIA ruebergesiedelt. Im gegebenen Fall von 3dfx heisst das aber auf keinen Fall dass Unfaehigkeit der engineers der Grund war. Deren Faehigkeit oder Unfaehigkeit zeigt sich heutzutage da wo sie beschaeftigt sind und die dementsprechenden Resultate und davon erfaehrt das Publikum meistens nur das geringste. Es ist auch nicht notwendig.
Was jetzt all die "anderen" Kleinen betrifft, brauechte man eine Unmenge von Resourcen, Zeit und Versuchen um zum Erfolg zu kommen. In diesem Fall braucht man erstmal eine von "top to bottom" Produktlinie und das eine erfolgreiche Produkt nach dem anderen; hier muss nicht nur das Preis-/Leistungsverhaeltnis stimmen sondern es muessen auch die Produkte rechtzeitig auf die Regale kommen. Ein Produkt alle paar Jahre mal hier und da, oder mittelmaessige bis schlechte Produkte die mal im Notfall <1% des gesamten Verkaufsvolumens aufnehmen koennen, sagen wohl gar nichts und bringen im besten Fall ein sarkastisches Grinsen auf die Gesichter von ATI/NVIDIA.
Zu den einzelnen Faellen moechte ich mich jetzt nicht schon wieder auessern und mehr Oel ins Feuer schuetten, aber das obrige gilt im guten Ganzen fuer alle. Natuerlich kann man nicht alle in den gleichen Topf werfen, aber am Resultat der moeglichen Marktaufteilung aendert das gar nichts. Was ich nicht gerne sehe auf jeden Fall ist sinnlose Marketing/PR- Protzerei ohne besonderen Hintergrund. Einfach: PUT UP OR SHUT UP. Suendig waren in dem Fall genauso Gigapixel, Bitboys, XGi oder dergleichen. Irgendwann wurde einem die Luft sogar zu knapp von den vielen "MoechteGern-Marktfuehrern". Liefert mir lieber was das ich ohne Bedenken kaufen und unterstuetzen kann, oder haltet einfach die Klappe.
My 2 cents,
-AiL
Radeonator
2004-05-20, 03:16:24
Original geschrieben von Ailuros
Zu den einzelnen Faellen moechte ich mich jetzt nicht schon wieder auessern und mehr Oel ins Feuer schuetten, aber das obrige gilt im guten Ganzen fuer alle. Natuerlich kann man nicht alle in den gleichen Topf werfen, aber am Resultat der moeglichen Marktaufteilung aendert das gar nichts. Was ich nicht gerne sehe auf jeden Fall ist sinnlose Marketing/PR- Protzerei ohne besonderen Hintergrund. Einfach: PUT UP OR SHUT UP. Suendig waren in dem Fall genauso Gigapixel, Bitboys, XGi oder dergleichen. Irgendwann wurde einem die Luft sogar zu knapp von den vielen "MoechteGern-Marktfuehrern". Liefert mir lieber was das ich ohne Bedenken kaufen und unterstuetzen kann, oder haltet einfach die Klappe.[/list]
My 2 cents,
-AiL
Tjo, da erwartest du einfach zuviel Ehrlichkeit von den Machern und zuviel Vertrauen von den Käufern. Wird es leider nie geben :( Aber überraschen lass ich mich gerne ;)
Ailuros
2004-05-20, 03:39:15
Ich hab eher die Nase voll von Uebertreibungen und sinnlosen Hoffnungen ueber eine "Messiah-Loesung" die von einer handvoll von n00bs in einer Garage entwickelt wird und den Grafikmarkt mit einem Zug ueberwaeltigt.
Das obrige ist zwar eine Uebertreibung, aber es sollte eher als Realitaets-schock dienen fuer diejenigen die sich mit solchen Quatsch heutzutage immer noch indirekt reinlegen lassen.
Original geschrieben von MadManniMan
Aufm Standbild sehen die Kanten tatsächlich in etwa so aus, wie man es sich bei 12*12 OG vorstellen würde, korrekt :freak:
:lolaway:
Ob ATi beim 6x3T Modus ein 18x18 EER erreicht?
MadManniMan
2004-05-20, 04:36:45
Original geschrieben von Gast
Ob ATi beim 6x3T Modus ein 18x18 EER erreicht?
Wenn ich das richtig verstanden habe, nein.
Warum? Ganz einfach: das Subpixelgrid ist nur mit 12*12 aufgelöst.
Da die maximale EER von 12*12 schon mit 4*3T und 6*2T abgedeckt ist, konzentriert man sich wohl bei 6*3T darauf, die Verteilung über die 3 Varianten hinweg zu optimieren.
Ailuros
2004-05-20, 07:22:53
Sample pattern dithering in the temporal dimension under conditionals....*yawn*
Hmm... irgendwie ist mir hier was entgangen glaube ich ;)
Redeten wir nicht, was S3 anging, von Mainstreamlösungen?
Ail, warum sollte es kein Hersteller schaffen eine ordentliche Mainstreamlösung aufzufahren? Die Geschichte hat des Öfteren gezeigt, dass ein "Aussenseiter" immer mal ne Chance hat so etwas entgegenzusetzen.
Das man Firmen wie S3 oder XGI nicht im High End erwarten kann und diese Firmen immer einen Nachteil ggü. NV und ATI haben werden, halte ich für klar.
robbitop
2004-05-20, 12:10:48
@Blutgrätsche
zu deinen Fragen: das solltest du alles viel besser wissen als ich. Ich denke ich kratze da nur an der Oberfläche. Wenn ich mich mal irre, sag es einfach =)
@AiL
ein sehr schöner Post. :)
+full Ack
Ailuros
2004-05-20, 14:29:53
Original geschrieben von HOT
Hmm... irgendwie ist mir hier was entgangen glaube ich ;)
Redeten wir nicht, was S3 anging, von Mainstreamlösungen?
Ail, warum sollte es kein Hersteller schaffen eine ordentliche Mainstreamlösung aufzufahren? Die Geschichte hat des Öfteren gezeigt, dass ein "Aussenseiter" immer mal ne Chance hat so etwas entgegenzusetzen.
Das man Firmen wie S3 oder XGI nicht im High End erwarten kann und diese Firmen immer einen Nachteil ggü. NV und ATI haben werden, halte ich für klar.
Natuerlich ist DeltaChrome eine anstaendige Mainstream-Loesung nur fuer etwa ein Jahr frueher als heute. Merkst Du was? Ist in meinem vorigen Post zu finden. Wird die Loesung jetzt fuer notebooks benutzt oder nicht? Wenn nicht dann ist es eine wahre Schande.
Wo genau hat die Geschichte gezeigt dass jeglicher Aussenseiter mehr geschafft hat, als das was ich beschrieben habe? Es gibt stets einen Unterschied zwischen Eintagsfliegen und/oder mal 1 oder 2 Prozentchen vom Marktvolumen einzunehmen und einen wahren dritten Konkurrenten fuer PC desktop graphics zu sehen.
Ein wahrer dritter Konkurrent braucht auf jeden Fall eine komplette Produkt-linie von High end bis Value, konstante und ununterbrochene Veroeffentlichungen von Produkt-Generationen, konstanten und ununterbrochenen Developer und Treiber-Support usw usw. und natuerlich muessen diese Produkt-linien auch steigenden Erfolg haben mit der Zeit.
Aussenseiter mainstream Loesungen mal hier und da wirst Du schon finden, einen wahren dritten (eigentlich "vierten", denn INTEL hat ja den groessten Marktanteil) Konkurrenten in den letzten Jahren aber nicht.
Als OT Seitennotiz eine wahrer Konkurrent fuer INTEL's integrated Zeug, koennte ich theoretisch nur von AMD in der Zukunft vorstellen (obwohl es gar nicht in deren Plaene liegt oder sie wohl auch das KnowHow dafuer nicht haben). ATI/NV werden es wohl nie aus verstaendlichen Gruenden versuchen Intel zu stark auf den Zehen in diesem Markt zu treten.
Original geschrieben von Ailuros
Natuerlich ist DeltaChrome eine anstaendige Mainstream-Loesung nur fuer etwa ein Jahr frueher als heute. Merkst Du was? Ist in meinem vorigen Post zu finden. Wird die Loesung jetzt fuer notebooks benutzt oder nicht? Wenn nicht dann ist es eine wahre Schande.
Wo genau hat die Geschichte gezeigt dass jeglicher Aussenseiter mehr geschafft hat, als das was ich beschrieben habe? Es gibt stets einen Unterschied zwischen Eintagsfliegen und/oder mal 1 oder 2 Prozentchen vom Marktvolumen einzunehmen und einen wahren dritten Konkurrenten fuer PC desktop graphics zu sehen.
Ein wahrer dritter Konkurrent braucht auf jeden Fall eine komplette Produkt-linie von High end bis Value, konstante und ununterbrochene Veroeffentlichungen von Produkt-Generationen, konstanten und ununterbrochenen Developer und Treiber-Support usw usw. und natuerlich muessen diese Produkt-linien auch steigenden Erfolg haben mit der Zeit.
Aussenseiter mainstream Loesungen mal hier und da wirst Du schon finden, einen wahren dritten (eigentlich "vierten", denn INTEL hat ja den groessten Marktanteil) Konkurrenten in den letzten Jahren aber nicht.
Als OT Seitennotiz eine wahrer Konkurrent fuer INTEL's integrated Zeug, koennte ich theoretisch nur von AMD in der Zukunft vorstellen (obwohl es gar nicht in deren Plaene liegt oder sie wohl auch das KnowHow dafuer nicht haben). ATI/NV werden es wohl nie aus verstaendlichen Gruenden versuchen Intel zu stark auf den Zehen in diesem Markt zu treten.
Sorry, aber diese Mutmassung widersprechen total dem, was im Moment auf dem Markt passiert. Es geht ja schon lange nicht mehr um das Grafikchipdesign alleine!
VIA und SIS haben erkannt, dass sie auf diesem Markt konkurrenzfähig werden müssen, da sich der Markt in Richtung PCInfrastrukturintegration entwickelt. Die brauchen die Technologien, die NV und ATI zur Verfügung stehen, da solche Dinge in der unmittelbaren Umgebung der CPU immer weiter integriert werden. In einigen Jahren werden VIA, SIS, NV und ATI direkte Konkurrenten sein, die sich um die nächsten PC Standards streiten, weil dann Intel lange net mehr die Vorreiterrolle innehaben wird, wie bisher. NV und ATI haben ja schon lange angefangen Chipsätze anzubieten, deren Erfolg+Verbreitung direkt von ihrer Leistung im Grafikkartenbereich abhängt (auch wenn das nicht logisch ist, aber seitwann ist der Markt logisch?).
VIA hat diesen Trend schon vor Jahren erkannt und sich langsam in die Richtung entwickelt, SIS hat geschlafen und versucht es jetzt im HauRuck verfahren aufzuholen.
Die beiden Taiwaner benötigen auch die Reputation im Grafikchipbusiness um im Rest der Welt gegen ATI und NV bestehen zu können. Deshalb gibt es ja überhaupt Konkurrenten auf dem Markt und nicht nur NV oder ATI!!
Was hätte VIA sonst für einen Grund den Deltacrome überhaupt auf dem Markt anzubieten, wenn das Teil sowieso Chancelos ist? Oder SIS? Nein, ich denke, dass ATI und NV durch diverse andere Bemühungen (Chipsätze, Fehldesigns, Konsolenausflüge usw.) in der Entwicklung gebremst wurden und SIS und VIA überhaupt den Weg geebnet haben, um in diesem Segment Fuss zu fassen.Der Grund, warum NV und ATI überhaupt auch Chipsätze anbieten, ist, dass sie sich nicht so schnell weiterentwickeln können, wie sie wollen, da sie direkt von der Evolution der Fertigungstechnologie abhängig sind.
So wird es passieren (Glaskugel auspack), dass in 2-3 Jahren VIA, SIS, NV und ATI (und Intel) in etwa gleichauf liegen mit Chipsätzen, Grafik, Sound etc. Natürlich wird jeder seine Stärken und Schwächen haben ;)
AMD nimmt hier einen Sonderfall ein, weil sie sich komplett auf 2 Geschäftbereiche spezialisiert haben nämlich x86-CPUs und Flash Speicher. CPUs sind nunmal das Herz des PCs und Leistungsträger, somit ist das auch nicht schlimm für AMD und Flashspeicher haben direkt nichts mit diesem Markt zu tun. Das ist zudem auch der Grund warum AMD so rasant technologisch aufgeholt hat und meiner Meinung Intel in x86 überholt hat): die Konzentration auf diesen Geschäftsbereich. Zum Vergleich: Intel entwickelt an 2 x86 Designs, mindestens ein IA64 Design, Grafikcores, Chipsätze usw. Wobei sich ja sogar herausgestellt hat, dass ein X86 Design nicht mehr sonderlich Zukunftstauglich ist (und somit ein teures Abenteuer war).
AMD wird sich auch hüten, selber Infrastruktur zu entwicklen, da sie garnicht des Ressourcen dafür haben. Warum auch? AMD ist ein unabhängiger Hersteller, mit dem Infrastrukturhersteller wie NV, SIS und VIA eine Symbiose eingehen können. Die Hersteller profitieren von AMD und AMD von der Konkurrenz der Hersteller. Bei Intel sieht das wesentlich anders aus, da Intel selber ein grosser Konkurrent für NV, VIA und SIS ist/wäre.
Das wird jetzt langsam echt OT ;)
Noch ein Nachtreg zum grübeln:
Es gibt noch einen Hersteller, der Grafikcores baut und einen, der nur Infrastruktur baut ;)
Der Graficorehersteller ist Imagetech und der Infrastrukturhersteller ist ULi. ULi hat alles, was ein Infrastrukturhersteller braucht, um Konkurrenzfähig zu sein, bis auf Grafik ;)
Blutgrätsche
2004-05-20, 18:49:22
Original geschrieben von robbitop
@Blutgrätsche
zu deinen Fragen: das solltest du alles viel besser wissen als ich. Ich denke ich kratze da nur an der Oberfläche. Wenn ich mich mal irre, sag es einfach =)
Das war schon ein ernst gemeinter Beitrag. Mir ist wirklich nicht klar, was es mit dem Crossbar-Speicherkontroller auf sich hat. (Ein X-Bar ist erstmal ohnehin nur die einfachste oder einfallsloseste Lösung, die man sich vorstellen kann.)
Die Ressourcen-Sharing-Argumentation verstehe ich auch nicht wirklich. 3D-Chips sind auf eine bestimmte Performance hin designt und benutzten schon immer notwendigerweise Rechenwerke, Units, FIFOs usw. mehrfach. Hier plötzlich von Ressourcen-Sharing zu reden, macht wenig Sinn. Und wenn, dann würde ich gerne wissen, wo es exzessiv im Vergleich zu anderen Chips gemacht wird und warum. Deine Vermutung ist ja, dass aufgrund der geringeren Anzahl an Transistoren mehr Ressource-Sharing betrieben wird. Dass eine Architektur jedoch auch mit mehr Aufwand schlicht schlecht designt und ineffizient sein kann (siehe NV30), fällt bei dir unter den Tisch. (NV ist eine Hochburg ehemaliger SGI-Leute, die sich bei SGI nie sonderlich um kosteneffiziente Lösungen scheren mussten. Ausserdem sind gute Architekturen nicht nur Kopfgeburten, sondern basieren u.a. auf schlechte Erfahrungen und Experimenten.)
Ich weiss ebenfalls nicht, warum die Early-Z Unit kaputt sein soll. Webseiten schreiben viel und dabei ist zwangsläufig gelegentlich auch (sinnfreie) Spekulation dabei. (Im übrigen ist natürlich kein Chip fehlerfrei. Das verhält sich wie mit Software: je komplexer, desto mehr Bugs können sich einschleichen.)
robbitop
2004-05-20, 19:08:04
Ja ich habe das nicht erwähnt, dass es ineffizienter wird, da ich annahm, das wäre klar.
Eingführt hat Trident mit dem XP4 das ganze. Die Pipelines sharen irgendwelche Ressourcen um Transistoren zu sparen. Vieleicht kann Demi mit den Details helfen ;)
Radeonator
2004-05-20, 19:49:26
Ich bin schon auf erste Trident geprägte Integrated Lösungen gespannt. Tridents Philosophie ist mit weniger mehr zu erreichen, geklappt hats noch net so wirklich, aber abwarten.
Natürlich wird die Chrome Reihe integrated werden, aber eben auch Mainstream Desktop, WB S3 ;)
Blutgrätsche
2004-05-20, 21:09:34
Original geschrieben von robbitop
Ja ich habe das nicht erwähnt, dass es ineffizienter wird, da ich annahm, das wäre klar.
Eingführt hat Trident mit dem XP4 das ganze. Die Pipelines sharen irgendwelche Ressourcen um Transistoren zu sparen. Vieleicht kann Demi mit den Details helfen ;)
Was wird ineffizienter? Performance !=Effizienz! Trident hat auch nicht damit angefangen, das gabs eigentlich schon immer. Wenn jemand die (angeblich gewaltigen) X-Bar Vorteile bzw. Funktionsweise auf Interface-Seite erläutern will, nur zu. Richtig verstanden hab ich das damalige Webseiten-Geschreibe (NV hat damit geworben) eigentlich nie.
RyoHazuki
2004-05-21, 01:17:45
Original geschrieben von Desti
Wo hast du die Chaintech Zahlen her?
Bei Powercolor kann ich auch keine Zahlen finden.
http://www.powercolor.com.tw/page2/productlist.asp?page=1&prodid=153&id=1&sn=153&temp1=65
zu chaintech:
Klick Hier (http://www.deltachrome.com/modules.php?name=Forums&file=viewtopic&t=38)
zu powercolor:
KLICK HIER (http://www.xbitlabs.com/news/video/display/20040516030045.html)
;-)
robbitop
2004-05-21, 02:45:50
@Blutgrätsche
ja ich meinte Performance..habe mich falsch ausgedrückt.
Wegen der Erklärungen -> Techforum =)
Ich würde auch gern wissen, wie das _genau_ funktioniert
Desti
2004-05-21, 13:01:39
Hier ist noch eine mit 300 MHz http://www.hkepc.com/bbs/viewthread.php?tid=114449
Was mir aufgefallen ist, alle Testkarten haben Chips aus 52 03
Original geschrieben von robbitop
@Blutgrätsche
ja ich meinte Performance..habe mich falsch ausgedrückt.
Wegen der Erklärungen -> Techforum =)
Ich würde auch gern wissen, wie das _genau_ funktioniert
Das stimmt eigentlich. Alles hat damals brav die NV Marketingunterlagen abgeschrieben und zack wurde das zum essenziellen Bestandteil.
Mich würde auch mal interessieren, was es wirklich bringt.
Ailuros
2004-05-21, 19:27:50
Original geschrieben von HOT
Sorry, aber diese Mutmassung widersprechen total dem, was im Moment auf dem Markt passiert. Es geht ja schon lange nicht mehr um das Grafikchipdesign alleine!
Mutmassung in welchem Sinn? Du kannst mir ja gerne dokumentieren wie die Marktaufteilung was Grafik-cores betrifft momentan aussieht.
VIA und SIS haben erkannt, dass sie auf diesem Markt konkurrenzfähig werden müssen, da sich der Markt in Richtung PCInfrastrukturintegration entwickelt.
Ein einfaches Erkenntnis sagt mir gar nichts. Ich sehe bis jetzt keine nennenswerte Aenderungen was die Verkaufszahlen betrifft.
Die brauchen die Technologien, die NV und ATI zur Verfügung stehen, da solche Dinge in der unmittelbaren Umgebung der CPU immer weiter integriert werden.
Aendert die momentane und zukuenftige Situation auch nicht.
In einigen Jahren werden VIA, SIS, NV und ATI direkte Konkurrenten sein, die sich um die nächsten PC Standards streiten, weil dann Intel lange net mehr die Vorreiterrolle innehaben wird, wie bisher.
Gewagte Spekulation und basislose Uebertreibung.
NV und ATI haben ja schon lange angefangen Chipsätze anzubieten, deren Erfolg+Verbreitung direkt von ihrer Leistung im Grafikkartenbereich abhängt (auch wenn das nicht logisch ist, aber seitwann ist der Markt logisch?).
Stimmt schon; nur ist jeglicher Erfolg in dem Bereich dann eher weil ihre integrierte Loesungen auch um einiges schneller und kompatibler ist, als jegliche Loesungen von Intel.
VIA hat diesen Trend schon vor Jahren erkannt und sich langsam in die Richtung entwickelt, SIS hat geschlafen und versucht es jetzt im HauRuck verfahren aufzuholen.
Es sieht nicht besonders rosig bei VIA aus in letzter Zeit und ja das ist tatsaechlich OT. Was Grafik betrifft worueber es hier uebrigens geht sah ich bis jetzt nichts nennenswertes das zeitig auf die Regale kam. Warum Verspaetungen? Steht alles in meinen vorigen Posts drin: es gibt einen Unterschied wenn 40 Affen alles machen muessen (vom design/layout und support) und 400 Affen die sich nur auf design/layout konzentrieren und nochmal 100 Affen fuer support. Die Nummern sind nur freie Beispiele aber die Analogie gilt trotzdem.
Die beiden Taiwaner benötigen auch die Reputation im Grafikchipbusiness um im Rest der Welt gegen ATI und NV bestehen zu können. Deshalb gibt es ja überhaupt Konkurrenten auf dem Markt und nicht nur NV oder ATI!!
Was soll das? Wieviele Prozente hat nochmal jeder im Markt? Landete SiS vielleicht 1 oder sogar 2% mit der Xabre Linie? Du willst mir doch nicht allen Ernstes weissmachen dass dieses genug ist um einen IHV als dritten Konkurrenten zu betiteln oder?
Was hätte VIA sonst für einen Grund den Deltacrome überhaupt auf dem Markt anzubieten, wenn das Teil sowieso Chancelos ist?
Eindruecke und Erfahrung fuer zukuenftige Designs zu gewinnen; bis zum Erfolg ist der Weg noch sehr lang und die laenger als 1-jaehrige Verspaetung half hier gar nicht. Entweder man nimmt das Ganze ernst oder man sollte auch nicht viel erwarten.
Ich bin mir sicher dass DeltaChrome duzente von Millionen Einheiten verkaufen wird, ja?
Oder SIS?
Tolles Beispiel. Was soll mit denen sein?
Nein, ich denke, dass ATI und NV durch diverse andere Bemühungen (Chipsätze, Fehldesigns, Konsolenausflüge usw.) in der Entwicklung gebremst wurden und SIS und VIA überhaupt den Weg geebnet haben, um in diesem Segment Fuss zu fassen.
ATI hat schon ueber 2200 Angestellte; nun zaehl mal die Cores und IP Loesungen die unter Produktion stehen und diejenigen die parallel unter Entwicklung bei ATI/NV stehen und dann sehen wir erstmal weiter. Gebremst? Keine der anderen hat ueberhaupt die Faehigkeit so viel und so schnell zu entwickeln.
Der Grund, warum NV und ATI überhaupt auch Chipsätze anbieten, ist, dass sie sich nicht so schnell weiterentwickeln können, wie sie wollen, da sie direkt von der Evolution der Fertigungstechnologie abhängig sind.
Und Fertigungstechnologie ist fuer die anderen irrelevant oder was? Architekturen werden fuer andere Maerkte nach unten skaliert; Imageon fuer PDA/mobile von ATI ist im Grund nur eine Art Voodoo2 ohne multitexturing im Kleinformat.
Man braucht nicht pixel shader ueberall.
So wird es passieren (Glaskugel auspack), dass in 2-3 Jahren VIA, SIS, NV und ATI (und Intel) in etwa gleichauf liegen mit Chipsätzen, Grafik, Sound etc. Natürlich wird jeder seine Stärken und Schwächen haben ;)
Traeum weiter. Da kann ich genauso gut spekulieren dass SiS und VIA von anderen grossen Semis einfach aufgekauft werden wenn nicht alles so laeuft wie vorgesehen. Semis werden ja in den naechsten Jahren immer weniger werden und viele sind schon zu Vereinigung ihrer Kraefte gekommen (Beispiel: Mitsubishi + Hitachi).
AMD nimmt hier einen Sonderfall ein....
War nur ein "was waere wenn..." Beispiel; ich weiss genau auf welche Marktsegmente AMD fixiert ist.
robbitop
2004-05-21, 21:14:40
@AiL
Von ATi/NV sollten allerdings nur rund 10% reines R&D sein (oder irre ich??). Somit wäre es doch mehr als sinnvoll wenn zB VIA den Support/Vertrieb/reife/Fertigung übernimmt und eine reine IP Firma wie pvr das chalkboarddesign übernimmt. Wenn genug Gelder fliessen, wäre _theoretisch_ was drin, oder?
btw: wieviele Design Ingenieure haben ATi/NV/XGI/S3/PVR?
Ailuros
2004-05-22, 01:18:29
Von ATi/NV sollten allerdings nur rund 10% reines R & D sein (oder irre ich??).
Bei =/>2000 Angestellten, sehen 200 irgendwie mager aus oder? Kommt natuerlich auch darauf an was man genau mit Research & Development genau meint. Es koennte jemand leicht auch DevRel dazu zaehlen als Beispiel.
Somit wäre es doch mehr als sinnvoll wenn zB VIA den Support/Vertrieb/reife/Fertigung übernimmt und eine reine IP Firma wie pvr das chalkboarddesign übernimmt. Wenn genug Gelder fliessen, wäre _theoretisch_ was drin, oder?
Ein Alptraum. Mir ist es im Grunde lieber wenn die entwickelnde Firma auch den Support aufnimmt. VIA? Ach Du liebe Zeit....warum nicht gleich XGi?
wieviele Design Ingenieure haben ATi/NV/XGI/S3/PVR?
Keine Ahnung. Das S3 Team duerfte das kleinste sein und uebrigens hat S3 in der Vergangenheit einen guten Anteil an erfahrenen Talenten verloren (die Mehrheit ist bei ATI heute).
ATI/NV zaehlen heutzutage wer die meisten vorigen SGI engineers gesammelt hat LOL.
PowerVR keine Ahnung; IMG's Personal ist auf jeden Fall auf 294 gestiegen und davon >200 engineers nach den letzten interim Resultaten. Muessten eigentlich auch schon mehr sein denn es wird staendig neues Personal eingestellt, ein paar sind noch frei:
http://www.imgtec.com/Careers/Vacancies/Index.asp
ATI:
http://sh.webhire.com/Public/405/index.htm
Ich hab mal Toronto probiert und allein da werden 84 Arbeitsplaetze angeboten.
NVIDIA:
http://pljb2.rmx.scd.yahoo.com/pljb/global_jsp/applicant/SearchAgentMgr/SearchProcess.jsp?pljbHome=/nvidia/nvidiaemployment/applicant/index.jsp&searchaction=Search
146 Plaetze.
S3 hat ueberhaupt keine relevante Seite, oder ich hab was verpasst und XGi sucht nach der ueberwaeltigenden Zahl von einem Angestellten:
http://www.xgitech.com/about/about_hr_careers.asp?first=2&JobCategoryID=&Location=&btn.x=33&btn.y=9
;D
robbitop
2004-05-22, 12:13:02
super Analyse und eine echt brauchbare Antwort AiL! (wie immer)
Naja wer kann sich schon leisten 2000 Mitarbeiter immer am Laufen zu halten um bei dieser Materialschlacht mitzumachen. Nur ATi/NV. Sicher geht das auf Lizensierung langsamer von statten, aber man hätte ne Chance. PVR hat eben nicht denk Klotz des Support, Vermarktung ect am Bein und kann somit viel schneller arbeiten, als es allein möglich wäre.
Ailuros
2004-05-22, 12:36:31
Fuer einen PC Design alle ~2 Jahre haben sie schon die Kraft. Die heutige S5 liegt ja auch nicht so lange unter Entwicklung wie sich manche vorstellen und das Ding ist ziemlich kompliziert.
IP ist der falsche Weg momentan fuer PC Grafik. IMG wird nicht das Risiko eingehen sich in einen fabless Semi zu wandeln und deren eigentliches Ziel sollte sein Eindruecke fuer mehrere Maerkte und Lizenzen in der Zukunft zu gewinnen.
Die momentan 20 Partner werden wohl dieses Jahr auf ~25 steigen und das Ziel fuer die absehbare Zukunft sind 40+ Partner.
IMG ist eine ganz andere Geschichte wie jegliche andere Firma die sich mit Grafik beschaeftigt.
Eine spekulative Hypothese: Intel entwickelt ihren SM2.0 integrated Quark selber; wuerden sie sich jetzt in der etwas weiteren Zukunft daran interessieren einen integrierten Grafik core zu lizenzieren hat IMG natuerlich eine gute Chance diesen deal zu gewinnen. Das macht aber trotzdem dann nicht IMG zum dritten Konkurrenten, sondern staerkt eher Intel's Position.
Fuer solche zukuenftige Moeglichkeiten ist IMHO S5 eher gedacht und nicht um Millionen von Einheiten zu verkaufen; erwuenscht waere es aber ich sehe keinen Semi der das Risiko eingehen moechte. Uebrigens mussen IMG erstmal ueber ihre Faehigkeit high end zu entwickeln nochmal ueberzeugen.....
Da wir beide anscheinend nicht über genug Informationen zu verfügen scheinen und sich diese Diskussionen beidseitig auf zuviel Spekulationen stützt, würde ich sagen, kann man beide Standpunkte vertreten.
S3g wurde von VIA vor Jahren auf über 250 Mitarbeiter aufgestockt, Just for Info ;) Da hat man sich schon gefragt, wofür die alle sein sollen :D
Ailuros
2004-05-23, 11:22:34
Original geschrieben von HOT
Da wir beide anscheinend nicht über genug Informationen zu verfügen scheinen und sich diese Diskussionen beidseitig auf zuviel Spekulationen stützt, würde ich sagen, kann man beide Standpunkte vertreten.
S3g wurde von VIA vor Jahren auf über 250 Mitarbeiter aufgestockt, Just for Info ;) Da hat man sich schon gefragt, wofür die alle sein sollen :D
Hat durchaus geholfen anscheinend. Karten sind jetzt wohl endlich nahe an der Verfuegbarkeit, nach ~1.5 Jahr der Veroeffentlichung der Specs des DC. Wobei es so lange dauerte dass die neuen Generations-mainstream Karten der beiden Grossen direkt vor der Tuer stehen.
Definitiv der Zoff fuer einen wahren dritten "Konkurrenten" *kopfschuettel*.
Spekulation ist in diesem Fall wenn ich in jeglichen Hardware-Laden gehe und mir den vorhandenen Stock genau ansehe; genauso heutige Verkaufszahlen und die von der absehbaren Zukunft. Ebenso die etwa 8:1 Relation der Mitarbeiter und die um noch um einiges groessere Anzahl der verfuegbaren Loesungen und Varianten zwischen jeglichem Kleinen und ATI oder NVIDIA.
Derartige Debatten gab es schon seit einer Ewigkeit; man hoffte durch die Jahre auf Messias-Loesungen von Namen wie Gigapixel, Matrox, Bitboys, PowerVR, SiS/XGi usw usw. Die Frage ist wirklich wann man endlich aufwacht und der Realitaet ins Gesicht schaut.
Eine Kleinigkeit die viele nicht unbedingt wissen, ist dass Microsoft tatsaechlich mit S3 fuer XBox2 verhandelt hat. Irgend eine "Spekulation" warum es nicht geklappt hat?
Messiaslösungen :lol:
Eine brauchbare Mainstreamlösung.
Der Rest ist mir ja egal, nach dem ATI/NV BQ Debakel bin ich von HighEnd geheilt ;)
Ausserdem: Warum sollte sich S3 keine Zeit lassen? Das Teil läuft bei dem Stromverbrauch und der BQ eh ausser Konkurrenz. Es ist wohl besser, wenn sie VORHER die schlimmen Bugs raushaben um DANN ein gutes Produkt zu liefen, sonst wär der DC auch sowas wie der Volari geworden. VÌA war doch net darauf angewiesen den DC sofort auf den Markt zu werfen.
Wenn er jetzt auf den Markt kommt und relativ Bugfrei ist und nebenbei noch einen akzeptablen Treiber liefert, sind die Chancen für das Teil wesentlich besser als ein Schnellschuss mit üblen Konsequenzen.
Die sollen sich mal entwickeln, das geht net mit Gewalt aber innerhalb des Spielraums der Fertigungsmöglichkeiten passt das schon.
S3g wird wohl niemals eine HighEnd Lösung platzieren (wobei ich das natürlich nicht ausschliessen kann), sondern hoffentlich brauchbare Mainstreamkarten mit guter Qualität.
Wie auch imemr, ob man das jetzt optimistisch sieht oder pessimistisch, es sind und bleiben Spekus, wie sich S3g oder XGI in Zukunft entwickeln werden.
robbitop
2004-05-23, 14:36:54
mal schauen wie der Gammachrome wird. Das Potential für ein gutes Mainstreamprodukt ist ja da.
Und da man AF quasi 4free bekommt und das noch in guter Qualli...why not? und das bei wenig Geld und wenig Verbrauch. Und vieleicht ist ab und an mal 2xRGSS drin.
Radeonator
2004-05-24, 00:09:32
Unglaublich...entweder hat die Site ziemlich viel Geld bekommen, oder die XGI V8Ultra (nicht DUO, Single Chip!) ist ziemlich gut und besser als die S8...ich kanns irgendwie nicht glauben!!! Hat XGI vielleicht in ihrer SingelChip Variante alles das richtig gemacht, was Sie in der Duo Variante falsch gemacht haben ???
VTRs sehr positives Review -> ÜbersetztInsDeutsche (http://translate.google.com/translate?hl=de&sl=fr&u=http://www.vtr-hardware.com/articles/a4007_0.html&prev=/search%3Fq%3Dhttp://www.vtr-hardware.com/articles/a4007_0.html%26hl%3Dde%26lr%3D%26ie%3DUTF-8%26sa%3DG)
HexusVernichtendesReview (http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD03NTU=)
Ein Schelm wer böses dabei denkt!
p.s.: Das trübt meine Erwartungen KlickMich (http://babelfish.altavista.com/babelfish/trurl_pagecontent?url=http%3A%2F%2Foedocity.com%2Fvgacools%2Fozuma%2FdeltaS8.htm l&lp=ja_en) allerdings mal wieder...ich sollte doch vielleicht etwas pessimistischer an die Sache heran gehen?!
robbitop
2004-05-24, 00:54:58
naja das ist kein gutes Review. Der S8 ist hier 1. nur mit 250/250 getestet, die Frage ist ob die neusten Treiber schon drauf sind. Das Teil besitzt noch kein Shadercompiler der noch kommen soll. Und übertaktet wurde auch nicht.
Ich hab keine AF Tests gesehn. Das gute an der Karte ist, dass sie 16xTri AF in GF3 qualli fast ohne Performanceverlust bringt. Denn die TriTMUs haben eh zu wenig Bandbreite und AF lastet die so langsam aber sicher aus.
Ich denke vA der Deltachrome sollte im Mainstream gut mitspielen können.
-günstig
-höhere Takte als DC
-CBMC
-schon endlich mit Shadercompiler
-16x vernünftiges AF fast 4free
-RGSSAA
-nur ein paar W Verlustleistung
-leise Kühllösung
Beim DC war man imo sehr nachlässig. Zeit verplempert, kein CBMC, noch kein Shadercompiler ect.
Ich denke besonders die 4W und das sehr gute AF kann man markteingtechnisch sicher ausschlachten...wenn S3 das will.
strickjackenscheitel
2004-05-24, 01:17:30
na mensch... das ding mit taktraten von 300/300mhz sollte doch mgl sein, bei so wenig verlustleistung, oder?
nagut ich glaub ne ti 4200 wuerd ich mir trotzdem noch eher kaufen.
Ailuros
2004-05-24, 05:22:03
Original geschrieben von HOT
Messiaslösungen :lol:
Eine brauchbare Mainstreamlösung.
Der Rest ist mir ja egal, nach dem ATI/NV BQ Debakel bin ich von HighEnd geheilt ;)
*hust*
http://www.pricewatch.com/1/37/5307-1.htm
http://www.pricewatch.com/1/37/5587-1.htm
Ausserdem: Warum sollte sich S3 keine Zeit lassen? Das Teil läuft bei dem Stromverbrauch und der BQ eh ausser Konkurrenz. Es ist wohl besser, wenn sie VORHER die schlimmen Bugs raushaben um DANN ein gutes Produkt zu liefen, sonst wär der DC auch sowas wie der Volari geworden. VÌA war doch net darauf angewiesen den DC sofort auf den Markt zu werfen.
Weil Zeit=Geld mein Freund und ja der PC Grafik Markt wird nicht zufaellig als "cut throat" beschrieben. Der Grund der Verspaetung des DC ist eher dass sich S3 ueberschaetzt hat und uebrigens ist DC nicht gerade ein arithmetisches Wunder. Brauchbar ist in dem Sinn relativ.
Wenn er jetzt auf den Markt kommt und relativ Bugfrei ist und nebenbei noch einen akzeptablen Treiber liefert, sind die Chancen für das Teil wesentlich besser als ein Schnellschuss mit üblen Konsequenzen.
Das aendert nichts praktisch am Resultat. Die Loesung ist nur eine und naehmlich muss sich jeglicher dieser IHVs aufkrempeln nicht nur konkurrenzfaehige und ziemlich bug-freie Loesungen zu liefern, sondern diese auch zeitig liefern und da gibt es keine grosse aber.
Die sollen sich mal entwickeln, das geht net mit Gewalt aber innerhalb des Spielraums der Fertigungsmöglichkeiten passt das schon.
Staendig den anderen mit so grossem Abstand hinterherhinken hilft auf jeden Fall nicht.
S3g wird wohl niemals eine HighEnd Lösung platzieren (wobei ich das natürlich nicht ausschliessen kann), sondern hoffentlich brauchbare Mainstreamkarten mit guter Qualität.
Brauchbar schon nur nicht unbedingt besser als jegliche zeitige oder kommende Loesung der Konkurrenz und das nicht nur in einer Abteilung.
Ohne eine top to bottom Produktlinie = kein dritter Konkurrent.
Wie auch imemr, ob man das jetzt optimistisch sieht oder pessimistisch, es sind und bleiben Spekus, wie sich S3g oder XGI in Zukunft entwickeln werden.
Genau mein Problem; ich spekuliere viel zu viel und ich treffe stets falsche Vorhersagen. Wart mal ab wie der kommende Mainstream-bulk aussehen wird.
robbi,
Ein Shadercompiler hilft nicht mehr viel wenn die Anzahl der Einheiten zu klein ist.
Und AF ist bei weitem nicht frei.
http://www.xbitlabs.com/articles/video/display/s3-nitro_11.html
Ueberblick:
http://www.xbitlabs.com/articles/video/display/s3-nitro.html
robbitop
2004-05-24, 10:17:20
hm die damaligen Benches zeigten AF4free. Scheinbar war da was faul.
Aber AiL, das Ding verbraucht 4W und ist dennoch wirklich konkurrenzfähig. Und wenn im GC noch mehr Takt und ein CBMC dazukommt, glaube ich, dass man mithalten kann.
Die Anzahl der PS FPUs ist zu klein und dennoch bringt ein Compiler zuminidist Besserung.
Irgendwo musste man mit diesem SC auch Kompromisse machen.
Und bei keinem anderen Chip bekommst du so ein hübsches AF wie beim DC. Müssten die Konkurrenten im Midstream soviel Arbeit beim AF leisten sähe es sicher etwas anders aus.
Und man muss bedenken, dass ide Konkurrenz den Taktvorteil hat, ich hoffe, dass man da beim Gammachrome etwas zu legt. ->350-400MHz wären nett.
strickjackenscheitel
2004-05-24, 10:39:47
http://www.xbitlabs.com/articles/video/display/s3-nitro_11.html
die quelle hier zeigt auch, dass 4x und 16x sich zwar sicherlich in der bildqualli unterscheiden, aber nicht in sonderlich den fps.
af ist ja fabelhaft, ok. aber wie schauts mit aa aus?
s3 gehoert doch via. via laesst bei den neuen prozzi von ibm bauen. es kann doch durchaus sein, dass der gammachrome mit low-k und was weiss weiss ich, auch bei ibm gefertigt wird?! richtig? oder hab ich da was verpasst?
wenn man sich die fx 5700 ansieht, kann man schon spekulieren, dass ibm chips phantastisch fertigt, warum dann nicht den gc mit 450mhz?
Radeonator
2004-05-24, 11:28:22
Ist die XGI V8 Ultra Singlechip Variante wirklich so viel besser als die DUO Variante? Hat XGI wirklich alle Fehler (IQ etc. wird sogar besser als die einer 9600Pro beschrieben!!!) im Singlechip behoben ??? Jibbet doch gar nicht, oder?
robbitop
2004-05-24, 11:37:40
@Strickjackenscheitel
der DC wird bei TSMC gefertigt so weit ich weiss, somit wäre eine Fertigung mit lowk durchaus denkbar. Ist die Frage ob S3 das so geplant hat.
450MHz wären vieleicht möglich, aber dann ist die Verlustleistung nicht mehr das, was sie sein sollte.
Ich weiss leider nicht inwiefern der DC/GC mit dem Chiptakt skalliert. Kann sein, dass S3 beim GC nur den Speichertakt anhebt, weil der Chip nicht vernünftig mit dem Takt skalliert, da bandbreitenlimitiert. Das kostet nicht soviel Verlustleistung. Jedoch werden dann auch die RAM BGA's teurer. Vieleicht könnte man bis zum Q3 ja DDR3 nehmen, dann sinkt die Verlustleistung nochmals und man hätte 500MHz. Aber das widerspricht alles dem low cost Bestreben von S3. Sonst könnten sie ja den DC/GC auch mit 256bit DDR anbinden für eine High End Variante, aber ich denke die könnte sich mit NV/ATi nicht messen man wird also max Midrange bleiben.
Ich denke mal der GC wird sich zw 300 und 400MHz einpegeln, 128bit CBMC haben und eine brauchbare Midrangelösung.
AA ist nur 2x RGSS verfügbar. Es ist keine Multisamplinghardware an Board. Hier hat man gespart (irgendwo muss man das ja). Aber ich glaube nicht, dass die Karte bei vielen Settings mit 2xRGSS vernünftig läuft, kostet ja 50% Bandbreite und Füllrate.
Full Ack @ Robbi ;)
Wenn S3 es wirklich wollte könnten sie sicherlich mehr Leistung bringen. Ich denke, dass Ail S3 hier überschätzt. S3 will garnet mit Gewalt auf den Markt, sonst hätte das sicher anders ausgesehen, das geht langsamer von statten.
Die Sache ist nunmal die, dass sowohl NV als auch ATI massive Grenzen in der Fertigungstechnik gesetzt sind. Die Chips werden immer teurer (DIEs werde immer unwirtschaftlicher) und immer heisser. Ich persönlich finde einen Chip, der zwar schneller ist, aber BQ technisch und wirtschaftlich ziemlich katastrophal nicht als technologisch hochwertig an. So wie es aussieht, wird die nächste Generation wohl noch schlimmer werden, weil die beiden sich sicher nichts schenken werden. VIA ist dafür bekannt immer genau in solche Breschen zu springen. Der DC wurde von Anfang an auch auf Stromsparen ausgelegt und auf maximale wirtschaftlichkeit. Einen Chip, der zwar nur 1/2 bis 2/3 der Leistung der grossen bringt, dafür aber perfekte BQ, grosse AA/AF Flexibilität und kein weiterer erforderlicher Stromanschluss erforderlich ist, fände ich technisch wesentlich besser gelungen als eine schnelle Stromfressende Heizschleuder, die auchnoch harmlose BQ hat (soll jetzt auf die Nachfolgegeneration nach S3s revival bezogen sein).
.
strickjackenscheitel
2004-05-24, 15:27:36
danke hot!
aber was sagst du dann zur fx 5900 xt? die kann man phantastisch uebertakten, sie spart strom durch den 2d-extra-modus und ist bei 170 euronen noch nichtmal teuer!
das gleiche gilt fuer die 9800 pro.
fakt ist doch das man mit den stromfresser-high-end-modellen nur die aufmerksamkeit der kunden gewinnt, mit den anderen produkten aber die kunden.
der stromverbrauch der x800 xt ist im vgl. zur 9800 xt gleich geblieben!
robbitop
2004-05-24, 16:08:13
wer Stromsparen will kauft keinen HighEnd PC der darauf ausgelegt ist, FPS um jeden Preis zu bringen.
Wenn ich solche unsinnigen Debatten bei HighEnd Karten schon lese...
entweder oder.
Wenn man wirklich Stromsparen will kauft man sich einen VIA C3 und nimmt vieleicht noch einen DeltaChrome oder nicht mal das und einen TFT. Aber sobald man HighEnd Komponenten drin hat, ist die Ersparnis zw HighEnd Karten so gering, dass sie relativ nicht auffällt. Ich spare allein durch meinen neuen TFT schonwieder ~70W ...toll *rolleyes*
Ailuros
2004-05-24, 17:45:41
Original geschrieben von HOT
Full Ack @ Robbi ;)
Wenn S3 es wirklich wollte könnten sie sicherlich mehr Leistung bringen. Ich denke, dass Ail S3 hier überschätzt. S3 will garnet mit Gewalt auf den Markt, sonst hätte das sicher anders ausgesehen, das geht langsamer von statten.
Die Sache ist nunmal die, dass sowohl NV als auch ATI massive Grenzen in der Fertigungstechnik gesetzt sind. Die Chips werden immer teurer (DIEs werde immer unwirtschaftlicher) und immer heisser. Ich persönlich finde einen Chip, der zwar schneller ist, aber BQ technisch und wirtschaftlich ziemlich katastrophal nicht als technologisch hochwertig an. So wie es aussieht, wird die nächste Generation wohl noch schlimmer werden, weil die beiden sich sicher nichts schenken werden. VIA ist dafür bekannt immer genau in solche Breschen zu springen. Der DC wurde von Anfang an auch auf Stromsparen ausgelegt und auf maximale wirtschaftlichkeit. Einen Chip, der zwar nur 1/2 bis 2/3 der Leistung der grossen bringt, dafür aber perfekte BQ, grosse AA/AF Flexibilität und kein weiterer erforderlicher Stromanschluss erforderlich ist, fände ich technisch wesentlich besser gelungen als eine schnelle Stromfressende Heizschleuder, die auchnoch harmlose BQ hat (soll jetzt auf die Nachfolgegeneration nach S3s revival bezogen sein).
.
Ich unterschaetze S3 ueberhaupt nicht; im Gegenteil hab ich den DC seit seiner Vorfuerung applaudiert. Das aendert aber an den Resultaten gar nichts und ja DC waere ideal fuer etwa Mitte 2003 spaetestens gewesen und nicht Mitte 2004.
Die Wirtschaftlichkeit wird Dir gar nichts bringen wenn Du gezwungen bist shader-lastige Spiele wie FarCRy z.B. mit unspielbarer Leistung zu rennen und da kann von AA/AF schon erstmal ueberhaupt keine Rede sein.
Passt Dir das Beispiel nicht, dann waehle Dir jegliches andere Shader-lastige Spiel; es aendert sich nicht viel dran.
Du kannst Dich drehen oder wenden wie Du willst; S3 ist nicht nur ein Stueck sondern Lichtjahre von einem wahren Konkurrenten entfernt. Erstmal muessen sie einen Verkaufschlager landen und dafuer ist DC zu spaet dran.
Fuer laptops waere das Ding super-ideal und das muss man natuerlich anerkennen. Aber laptops sind auch sehr selten wirklich potentielle Gaming-Maschinen.
Ailuros
2004-05-24, 17:50:49
Original geschrieben von strickjackenscheitel
danke hot!
aber was sagst du dann zur fx 5900 xt? die kann man phantastisch uebertakten, sie spart strom durch den 2d-extra-modus und ist bei 170 euronen noch nichtmal teuer!
das gleiche gilt fuer die 9800 pro.
fakt ist doch das man mit den stromfresser-high-end-modellen nur die aufmerksamkeit der kunden gewinnt, mit den anderen produkten aber die kunden.
der stromverbrauch der x800 xt ist im vgl. zur 9800 xt gleich geblieben!
Wurde ja elegant ueberrant in meinem vorigen Post und dabei erwaehnte ich gar nicht die R4xx high end Modelle, sondern deren kommenden mainstream Varianten (gleiches gilt fuer NV4x mainstream). Aepfel gegen Aepfel; S3 hat keine high end Variante.
DC konkurriert noch halbwegs gut gegen RV360 und NV31, aber danach ist es aus damit und es geht hier nur noch um Monate fuer die Nachfolger und DC ist gerade dabei mit maessigen Quantitaeten auf Regalen zu erscheinen....
Original geschrieben von strickjackenscheitel
danke hot!
aber was sagst du dann zur fx 5900 xt? die kann man phantastisch uebertakten, sie spart strom durch den 2d-extra-modus und ist bei 170 euronen noch nichtmal teuer!
das gleiche gilt fuer die 9800 pro.
fakt ist doch das man mit den stromfresser-high-end-modellen nur die aufmerksamkeit der kunden gewinnt, mit den anderen produkten aber die kunden.
der stromverbrauch der x800 xt ist im vgl. zur 9800 xt gleich geblieben!
Tjo was sagt man dazu? Die werden aus dem Mainstream wieder verschinden und durch weniger performante x600 Lösungen auf ATI Seite (die IMMERNOCH RV3x0 sind) ersetzt. Bei NV ist sicher nichts anderes zu erwarten, da sich ein 130Mio Transistormonster garnet lohnen kann in dem Preissegment.
Radeon9800 und vor allem 5900XT waren ja für die Hersteller nur Reputationsprodukte an denen die nicht die IHV sicher nicht so viel verdient haben (ATI mehr als NV).
HighEnd von heute ist relativ irrelevant, da sie immernoch zu teuer sind für Mainstream. Hier kann man net beliebig grosse Chipgrössen verbauen, man braucht kleinere, effizientere Modelle, allein schon um die Produktionsmenge reinzubekommen.
Das ist genau das, was ich meine, wenn ich sage, dass NV und ATI durch die Fertigungstechnologie gebremst werden. Es wird einfach unrentabel und je weiter sie machen, desto unrentabler wirds. S3 hat hier im Gegensatz dazu nur viel Luft und nicht den Druck der "Beste" sein zu müssen. Das ermöglicht die Entwicklung von einer sinnvolleren Produktpalette mit einer verschobenen Zielgruppe, nämlich die, für die NV und ATI Karten zu unwirtschaftlich sind.
VooDoo7mx
2004-05-24, 20:04:49
Ich denke mal zumindestens bei Nvidia wir das neue Mainstream Gespann es locker mit einer 5900XT aufnehmen können.
Man nehme hier den NV40 (16Pipes=4 Quads) miot seiner recht leistungsfähigen Architektur und nimmt erst einmal 2 Quads raus. Jetzt hat man also nen 8 Pipe Chip der auch nur als dieser produziert wird, zusätzlich kommen noch weitere kleinere Einsparungen und der Tansistorcount könnte sich bei 100 bis 120Mio einpegeln. 128Bit Speicherinterface halte ich auch hier für noch sehr warscheinlich gepaart mit GDDR3.
Wenn man diesen neuen Mainstream Chip in Relation zur heutigen FX5700U und FX5900XT setzt könnte dieser mit mindestens 400/475 getaktet sein und würde mit diesen Taktraten einer FX5900XT ordentlich einheizen. Bei Shaderlastigen Anwendungen dürfte so ein Chip sogar eine FX5950U im Regen stehen lassen.
Stromverbrauch wüde ich hier auf maximal 70 watt schätzen. Chip ist komplett auf PCI-Express ausgelegt womit auch hier sogar der Stromstecker entfallen könnte.
Sind aber nur alles Spekulationen meinerseits.
Ailuros
2004-05-25, 05:12:13
Wenn man diesen neuen Mainstream Chip in Relation zur heutigen FX5700U und FX5900XT setzt könnte dieser mit mindestens 400/475 getaktet sein und würde mit diesen Taktraten einer FX5900XT ordentlich einheizen. Bei Shaderlastigen Anwendungen dürfte so ein Chip sogar eine FX5950U im Regen stehen lassen.
Taktrate ist kein Massstab fuer arithmetische Effizienz. DC kann einer 9700PRO in dem Fall keine Kerze reichen heutzutage, obwohl die letztere bei 325MHz liegt. Aehnliches gilt bei einem Vergleich einer NV40@400MHz vs R420@520MHz.
Die werden aus dem Mainstream wieder verschinden und durch weniger performante x600 Lösungen auf ATI Seite (die IMMERNOCH RV3x0 sind) ersetzt. Bei NV ist sicher nichts anderes zu erwarten, da sich ein 130Mio Transistormonster garnet lohnen kann in dem Preissegment.
Radeon9800 und vor allem 5900XT waren ja für die Hersteller nur Reputationsprodukte an denen die nicht die IHV sicher nicht so viel verdient haben (ATI mehr als NV).
Wenn's nur so einfach waere. Sagte man genauso fuer NV34 und trotzdem verkauften sich die Dinger wie verrueckt.
Nur zwei Stichworte: low-k 130nm und 110nm. Was jeder IHV verdient an seiner kompletten Produkt-linie kann man ja in jeglichen oeffentlichen Resultaten sehen.
HighEnd von heute ist relativ irrelevant, da sie immernoch zu teuer sind für Mainstream. Hier kann man net beliebig grosse Chipgrössen verbauen, man braucht kleinere, effizientere Modelle, allein schon um die Produktionsmenge reinzubekommen.
Je hoeher die Anfrage, desto hoeher die Ausbeute.
Das ist genau das, was ich meine, wenn ich sage, dass NV und ATI durch die Fertigungstechnologie gebremst werden. Es wird einfach unrentabel und je weiter sie machen, desto unrentabler wirds. S3 hat hier im Gegensatz dazu nur viel Luft und nicht den Druck der "Beste" sein zu müssen. Das ermöglicht die Entwicklung von einer sinnvolleren Produktpalette mit einer verschobenen Zielgruppe, nämlich die, für die NV und ATI Karten zu unwirtschaftlich sind.
S3's naechste wahre Generation kommt erst in 2005 und das ist nur der Plan und nicht eine garantierte Veroeffentlichungs-Zeit. Fuer diese ist der DC uebrigens total nutzlos; hier braucht man wirklich fundamentale Aenderungen um das geplante Ziel zu erreichen. Mit so wenig Transistoren kommt man hier auch nicht mehr davon und sparen bei ALUs oder interner Praezision wird man auch nicht mehr koennen und natuerlich auch nicht der Busbreite.
DC war wie bekannt mit 16xMSAA geplant; weder die Bandbreite noch der existierende Framebuffer haetten dafuer gereicht. Und natuerlich haette der Transistor-budget auch ganz anders ausgesehen. Rotated grid 2xSSAA ist zwar ein sehr positiver Trost, aber konkurrierende Loesungen haben bei gleicher Taktrate dafuer auch doppelt so viele verfuegbare Fuell-raten.
strickjackenscheitel
2004-05-25, 11:08:47
Original geschrieben von Ailuros
Wurde ja elegant ueberrant in meinem vorigen Post und dabei erwaehnte ich gar nicht die R4xx high end Modelle, sondern deren kommenden mainstream Varianten (gleiches gilt fuer NV4x mainstream). Aepfel gegen Aepfel; S3 hat keine high end Variante.
DC konkurriert noch halbwegs gut gegen RV360 und NV31, aber danach ist es aus damit und es geht hier nur noch um Monate fuer die Nachfolger und DC ist gerade dabei mit maessigen Quantitaeten auf Regalen zu erscheinen....
sag mal du kannst auch nur meckern, oder?
robbitop
2004-05-25, 11:16:13
er ist realistisch und steht zu seiner Meinung.
DC ist ein Nischenprodukt was mit dem GC ausbaufähig ist, aber einen finanziellen riesen Erfolg wird S3 damit nicht haben und langfristig hat niemand das Zeug, mit ATi/NV mithalten zu können.
Ein High End Produkt ist für einen Erfolg maßgebend.
Killa Tomacco
2004-05-25, 18:48:52
Original geschrieben von robbitop
Seit der V3 hat man dem Markt nicht mehr das gegeben, wonach er verlangt (32bit/T&L ...). Selbst schuld.
Nur hatte damals 32Bit eine so hohen Performanceeinbruch das es arschlamm wurde und damit unspielbar war.
Diese T&L war nur ein gehytes Marketing-Feature.
Original geschrieben von robbitop
Sicher war das AA gut, aber es interessierte damals niemanden, so wie heute niemanden die AF Qualität interessiert. Man muss sich, um finanziell erfolgreich zu sein, bis zu einem gewissen Grad an den Markt anpassen.
Da die Mehrheit leider performancegeil ist.
Original geschrieben von robbitop
Tut mir leid, 3dfx war im Prinzip nach der V2 vorbei. Danach wars nur noch ein Trauerspiel.
Ich sehe es so das die Entwicklung der Voodoos so ähnlich war wie jetzt die der R3X0-Reihe ist.
Ailuros
2004-05-25, 18:58:56
Original geschrieben von strickjackenscheitel
sag mal du kannst auch nur meckern, oder?
Ja und dabei mach ich keine Aussnahmen; nur diejenigen die mich wirklich kennen wissen das schon.
Wenn mir was nicht passt, bin ich knallhart. Mehrere Beweise dafuer "bald"....
Ich sehe es so das die Entwicklung der Voodoos so ähnlich war wie jetzt die der R3X0-Reihe ist.
Absolut nein. Und dass nur aus dem Grund weil dieser Ansichtspunkt das Thema zu begrenzt betrachtet.
3dfx war nach dem V2 ein OEM "Loser", wobei ATI schon damals bis heute auch noch zu den OEM "Koenigen" zaehlt. Wie man OEM Kunden ueberredet sollte wohl bekannt sein. Und ja ich erweitere mich nicht weiter ueber das Thema, weil es auch wieder OT ist und ich die schlechte Angewohnheit habe mich zu leicht in off topic Diskussionen lozen zu lassen.
robbitop
2004-05-25, 19:09:39
@KT
dir ist schon klar, dass ich das auf den Massenmarkt bezogen habe?
Sicher waren es nicht die sinnvollsten Features, aber wenn du Erfolg haben willst, musst du liefern, wonach der Markt verlangt. Selbst schuld sag ich nur..
Killa Tomacco
2004-05-25, 20:08:40
Original geschrieben von robbitop
@KT
dir ist schon klar, dass ich das auf den Massenmarkt bezogen habe?
Ist klar.
Original geschrieben von robbitop
Sicher waren es nicht die sinnvollsten Features, aber wenn du Erfolg haben willst, musst du liefern, wonach der Markt verlangt. Selbst schuld sag ich nur..
Was der Markt alles verlangt kann du nicht immmer so erfüllt wie er es hätte.
Original geschrieben von Ailuros
Absolut nein. Und dass nur aus dem Grund weil dieser Ansichtspunkt das Thema zu begrenzt betrachtet.
3dfx war nach dem V2 ein OEM "Loser", wobei ATI schon damals bis heute auch noch zu den OEM "Koenigen" zaehlt. Wie man OEM Kunden ueberredet sollte wohl bekannt sein.
Ich habe damit gemeint das die Weiterentwicklungen eines Chipdesigns bein den Beiden übereinstimmt. Der Unterschied ist nun halt das dies bei 3dFX schiefgegangen ist und bei ATI gelungen ist. Das ist doch Fakt nach meiner Meinung zumindest Ich gebe dir recht es ist nur begrenzt betrachtet.
Original geschrieben von Ailuros
Und ja ich erweitere mich nicht weiter ueber das Thema, weil es auch wieder OT ist und ich die schlechte Angewohnheit habe mich zu leicht in off topic Diskussionen lozen zu lassen.
Ich weiß kenne es ja aus dem Kyroworld-Forum.
robbitop
2004-05-25, 20:38:09
dann muss man eben Prioritäten setzen. Das hat man bei 3dfx nicht getan. Sie sind selbst schuld.
Killa Tomacco
2004-05-25, 20:38:45
Original geschrieben von Ailuros
Absolut nein. Und dass nur aus dem Grund weil dieser Ansichtspunkt das Thema zu begrenzt betrachtet.
3dfx war nach dem V2 ein OEM "Loser", wobei ATI schon damals bis heute auch noch zu den OEM "Koenigen" zaehlt. Wie man OEM Kunden ueberredet sollte wohl bekannt sein.
Ich habe damit gemeint das die Weiterentwicklungen eines Chipdesigns bein den Beiden übereinstimmt. Der Unterschied ist nun halt das dies bei 3dFX schiefgegangen ist und bei ATI gelungen ist. Das ist doch Fakt nach meiner Meinung zumindest Ich gebe dir recht es ist nur begrenzt betrachtet.
Original geschrieben von Ailuros
Und ja ich erweitere mich nicht weiter ueber das Thema, weil es auch wieder OT ist und ich die schlechte Angewohnheit habe mich zu leicht in off topic Diskussionen lozen zu lassen.
Ich weiß kenne es ja aus dem Kyroworld-Forum.
Killa Tomacco
2004-05-25, 20:43:00
Original geschrieben von robbitop
dann muss man eben Prioritäten setzen. Das hat man bei 3dfx nicht getan. Sie sind selbst schuld.
Hat doch 3dFX gemacht nur nicht die welche die Mehrheit gerne sehen wollte.
robbitop
2004-05-25, 21:08:14
das meinte ich aber mit Prioritäten setzen. Bevor man etwas besonderes neues bringt, sollte man ersteinmal das einbauen, was verlangt wird.
DanMan
2004-05-26, 03:17:20
Original geschrieben von robbitop
das meinte ich aber mit Prioritäten setzen. Bevor man etwas besonderes neues bringt, sollte man ersteinmal das einbauen, was verlangt wird.
Z.B. Schnelligkeit auf Kosten der Bildqualität? ;)
robbitop
2004-05-26, 07:32:12
heutzutage?
ja...leider. Aber das ist kaum was wo Ressourcen reinfliessen. SM3 wäre sowas zB und das kostet sehr viel Ressourcen.
RyoHazuki
2004-05-26, 11:39:04
Hi,
also ich denke, das S3 mit dem GammaChrome nicht nochmal so ein Fehler macht. Wobei der Deltachrome in der Preisregion von 50 - 80 € alles andere im regen dastehen lässt...
Ich behaupte sogar, das S3 immernoch gewinn macht bei solchen preisen. Der Deltachrome ist meines erachtens sehr günstig herzustellen. Sobald die Yield rate höher ist, glaube ich das der Deltachrome Preislich ins lowcost segment gestellt wird, wo er nicht nur PERFEKT platziert wäre (wegen der Fast Mid-Range performance) nein er wäre dann in diesem segment sogar noch der absolute KILLER.
Wenn jemand den Markt beherschen will, muss er von unten anfangen. Bis PCI-Express sich richtig durchgesetzt hat, hat man zeit den GammaChrome fortzuentwickeln, und wenn auch nur bei den Taktraten. Features hat er ausreichend genug...
S3 hat einfach den Vorteil, das der Chip so unglaublich günstig ist...
- max. 80 Mio. Transistoren
- 0,13 Micron
- eher unkomplexes design
Wenn man sich im Low End und Mid-Range Segment erstmal Etabiliert hat, und daran auch etwas geld verdient hat, dann kann man sich auf höhere Ziele konzentrieren.
S3 Braucht eigentlich nicht viel machen (ich sehe es als wenig an) jetzt wo das grunddesign steht.
Wenn dann wirklich ein richtig heftiges High End produkt gebraucht wird, dann muss zuerst der Compiler stehen und dann folgendes:
- Vertexshader von 2 auf 8 erhöhen
- auf Low-K Die-Elektric umstellen
- ein 256-Bit speicherinterface Integrieren
- 4-Fach unterteilten speichercontroller integr.
- takt synchron auf 400 MHZ Stellen
- evtl. noch an der Performance der PS arbeiten (20% reichen)
ich denke er ist dann irgendwo zwischen 130 Mio. und 160 Mio. Transistoren, dass müssten mir dann noch die leute wie z.B. Demirug sagen wo er ungefähr liegt.
robbitop
2004-05-26, 11:54:27
waren es nicht 4 VS?
Wozu brauchst du mehr VS Units?
So wie ich das sehe ist S3 eher scharf auf einen Nischenplatz, wo man eine reele Chance auf Erfolg hat.
S3 hätte zuwenig Ressourcen, um langfristig bei dieser Materialschlacht mitzumachen.
strickjackenscheitel
2004-05-26, 12:30:09
Original geschrieben von RyoHazuki
Hi,
also ich denke, das S3 mit dem GammaChrome nicht nochmal so ein Fehler macht. Wobei der Deltachrome in der Preisregion von 50 - 80 € alles andere im regen dastehen lässt...
Ich behaupte sogar, das S3 immernoch gewinn macht bei solchen preisen. Der Deltachrome ist meines erachtens sehr günstig herzustellen. Sobald die Yield rate höher ist, glaube ich das der Deltachrome Preislich ins lowcost segment gestellt wird, wo er nicht nur PERFEKT platziert wäre (wegen der Fast Mid-Range performance) nein er wäre dann in diesem segment sogar noch der absolute KILLER.
Wenn jemand den Markt beherschen will, muss er von unten anfangen. Bis PCI-Express sich richtig durchgesetzt hat, hat man zeit den GammaChrome fortzuentwickeln, und wenn auch nur bei den Taktraten. Features hat er ausreichend genug...
S3 hat einfach den Vorteil, das der Chip so unglaublich günstig ist...
- max. 80 Mio. Transistoren
- 0,13 Micron
- eher unkomplexes design
Wenn man sich im Low End und Mid-Range Segment erstmal Etabiliert hat, und daran auch etwas geld verdient hat, dann kann man sich auf höhere Ziele konzentrieren.
S3 Braucht eigentlich nicht viel machen (ich sehe es als wenig an) jetzt wo das grunddesign steht.
Wenn dann wirklich ein richtig heftiges High End produkt gebraucht wird, dann muss zuerst der Compiler stehen und dann folgendes:
- Vertexshader von 2 auf 8 erhöhen
- auf Low-K Die-Elektric umstellen
- ein 256-Bit speicherinterface Integrieren
- 4-Fach unterteilten speichercontroller integr.
- takt synchron auf 400 MHZ Stellen
- evtl. noch an der Performance der PS arbeiten (20% reichen)
ich denke er ist dann irgendwo zwischen 130 Mio. und 160 Mio. Transistoren, dass müssten mir dann noch die leute wie z.B. Demirug sagen wo er ungefähr liegt.
naja mit deinen zwar schoenen, aber etwas arg optimistischen vorstellungen ovn 160 mill trans. waere es ja kein low-end-chip mehr, sondern haette die gleiche anzahl an trans. wie der r420. =/
uebrigens sehe ich bei dem neuen artikel hier auf 3dcenter echt keinen grund zur aufregung. die kleine optimierung wuerde mir z.b. echt nichts abbrechen, wenn ich dafuer die aufloesung hoeher stellene kann.
das nur noch mal zum den auch hier angesprochenen qualitaetsverlust.
robbitop
2004-05-26, 12:38:30
naja Ryu macht es sich hier zu einfach.
Der DC ist für einen anderen Markt gedacht und sie hätten nicht die Kraft für einen HighEnd Chip, der konkurrenzfähig wäre. Aber ein sehr effizientes Design haben sie schonmal.
Killa Tomacco
2004-05-26, 13:06:47
Also mich begeistert die Architektur der DeltaChrome so wie mich auch schon die Architektur der Kyro 2 begeistert hat bwz noch immer begeistert.
RyoHazuki
2004-05-26, 13:41:31
Original geschrieben von robbitop
naja Ryu macht es sich hier zu einfach.
Der DC ist für einen anderen Markt gedacht und sie hätten nicht die Kraft für einen HighEnd Chip, der konkurrenzfähig wäre. Aber ein sehr effizientes Design haben sie schonmal.
ja ich mach es deshalb einfach, da ich fest dran glaube das es möglich ist.
RyoHazuki
2004-05-26, 13:43:46
Original geschrieben von strickjackenscheitel
naja mit deinen zwar schoenen, aber etwas arg optimistischen vorstellungen ovn 160 mill trans. waere es ja kein low-end-chip mehr, sondern haette die gleiche anzahl an trans. wie der r420. =/
uebrigens sehe ich bei dem neuen artikel hier auf 3dcenter echt keinen grund zur aufregung. die kleine optimierung wuerde mir z.b. echt nichts abbrechen, wenn ich dafuer die aufloesung hoeher stellene kann.
das nur noch mal zum den auch hier angesprochenen qualitaetsverlust.
ich sagte ja bereits, wenn es ein high end chip werden soll.
dann...
robbitop
2004-05-26, 14:33:04
und welche Erkenntnisse lassen dich das glauben Ryu?
Wie soll das mit 1/8 des R & D von ATi/NV gehen? Von Zauberhand??
strickjackenscheitel
2004-05-26, 16:07:26
da mna davon ausgehen kann, das der gammachrome eine aufgebohrte variante des dc ist, werden sicherlich aehnlich der nv x5 refreshs ein paar "goodies" hinzugefuegt und der takt erhoeht.
also ich denke auch das was an den shadern gemacht wird, da diese ja = zukunft sind. dann nochwas an dem speicherinterface, da die tri-tmus sicherlich "futter" brauchen.
ich haett auch gern ein high-end chip! =)
aber der wird sicherlich nicht kommen.
robbitop
2004-05-26, 17:07:32
an den Shadern kannst du nur eins machen: Anzahl der Ausführungseinheiten drastisch erhöhen.
Warum hat man das von Anfang an nicht getan??
Weil man Transistoren sparen musste.
Ich erwarte vor 2005/06 nichts großartiges.
Aber ins geheim hoffe ich dass sie in der Mittelklasse fußfassen können.
Tigerchen
2004-05-26, 17:28:25
Original geschrieben von robbitop
waren es nicht 4 VS?
Wozu brauchst du mehr VS Units?
So wie ich das sehe ist S3 eher scharf auf einen Nischenplatz, wo man eine reele Chance auf Erfolg hat.
S3 hätte zuwenig Ressourcen, um langfristig bei dieser Materialschlacht mitzumachen.
Na vor allem fällt brauchbare OnBoard Grafik für VIA dabei ab. Savage4 ist ja nun wirklich nicht mehr zeitgemäß. Ist wichtig im OnBoard Bereich am Ball zu bleiben da früher oder später die Grafik komplett in den Chipsatz wandert.
robbitop
2004-05-26, 18:10:56
wieso es gibt doch den Unichrome.
Ich weiss nicht ob vom DC tatsächlich so schnell was übernommen wird... die sind da immer recht lahm..aber irgendwann sicher..Die Chipsätze sind ja noch immer 150/180nm
stickedy
2004-05-26, 23:23:28
PM890 um KM890 sind für Q3 bzw. Q4 geplant. Beide werden einen DeltaChrome-Grafikkern haben, würde mal auf S4 tippen...
UniChrome ist doch Rotz, damit ist kein Blumentopf zu gewinnen...
robbitop
2004-05-26, 23:25:33
ja nur Chipsatzgrafik da interessiert niemanden die Performance. Die sollen mal lieber für vernünftige Wandler und ein paar Features sorgen
strickjackenscheitel
2004-05-27, 00:29:27
ok wuerde das ding angenehm viel peformence fuer spiele haben, wenn aa und af aus sind, wuerd ich mir echt ueberlegen son ding zu kaufen.
was mich z.b. interessiert, sind ordentliche treiber, hohe aufloesungen (klar bei nem 21'er) und die mgl. das ding irgendwie recht leise zu betreiben.
ich hab ein großes und leeres gehaeuse, was sicherlich seit dem nforce bei sehr vielen so sein sollte! da kann die graka total viel strom ziehen und wegen mir auch alle slots belegen!
Radeonator
2004-05-27, 00:43:01
Augen auf beim Eierkauf ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=144498
Ich werde mir auf jeden so ein Teil zulegen :)
RyoHazuki
2004-05-27, 01:37:40
Original geschrieben von Radeonator
Augen auf beim Eierkauf ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?threadid=144498
Ich werde mir auf jeden so ein Teil zulegen :)
ich sage euch, die wahre performance des Deltachrome haben wir noch nicht gesehen...
Sehr interresant ist die aussage das der Compiler ende Juli fertig integriert ist. Und das Advanced Defered Rendering vom Spiel/Application unterstützt werden muss um genutzt zu werden. Ich sag euch, da ist irgendwas dahinter, mit so einem schwachen produkt, wie es bisher ist, kann man nicht fuß fassen am markt.
@ robbi
entweder sie bauen einen high end chip und werden überleben, oder sie müssen wieder raus aus dem geschäfft!
aber es gibt noch eine dritte möglichkeit, der Deltachrome wird ende Juli eine ganze ecke schneller!
strickjackenscheitel
2004-05-27, 02:03:24
Original geschrieben von RyoHazuki
ich sage euch, die wahre performance des Deltachrome haben wir noch nicht gesehen...
Sehr interresant ist die aussage das der Compiler ende Juli fertig integriert ist. Und das Advanced Defered Rendering vom Spiel/Application unterstützt werden muss um genutzt zu werden. Ich sag euch, da ist irgendwas dahinter, mit so einem schwachen produkt, wie es bisher ist, kann man nicht fuß fassen am markt.
@ robbi
entweder sie bauen einen high end chip und werden überleben, oder sie müssen wieder raus aus dem geschäfft!
aber es gibt noch eine dritte möglichkeit, der Deltachrome wird ende Juli eine ganze ecke schneller!
ja mensch wenn der herr in dem hier verlinkten interview sagt, dass der neue chip keine hohen ansprueche an die spieleentwickler stellen wird, dann werden wir ihm das wohl glauben muessen! oder hab ich mich da vertan?
Ailuros
2004-05-27, 09:04:45
- Vertexshader von 2 auf 8 erhöhen
- auf Low-K Die-Elektric umstellen
- ein 256-Bit speicherinterface Integrieren
- 4-Fach unterteilten speichercontroller integr.
- takt synchron auf 400 MHZ Stellen
- evtl. noch an der Performance der PS arbeiten (20% reichen)
Das setzt so viel Aufwand voraus, dass es dann besser ist gleich eine neue Generation zu entwickeln. 8VS mit 8 SIMDs ist uebrigens Bloedsinn. Falls es hilft sah es bis jetzt in etwa so aus:
NV3x = 3-way multi-array VS mit 4 SIMDs
R3xx = 4 VS units mit 8 SIMDs
R4xx/NV4x = 6 VS units (MIMD array bei NV4x) mit 16 SIMDs
Fuer PS brauchen sie mehr FPUs pro SIMD, da koennen weder ein Treiber bzw. Compiler irgendwelche Zaubertricks liefern.
Ein respin mit ein paar mehr Transistoren (**edit: "ein paar" ist eine Unterschaetzung; etwa 15-20M mehr) und low-k 130nm mit 500/500MHz waere wohl die Beste Idee; ach ja und ein besseres OGL ICD noch.
Ailuros
2004-05-27, 09:20:58
Original geschrieben von strickjackenscheitel
ok wuerde das ding angenehm viel peformence fuer spiele haben, wenn aa und af aus sind, wuerd ich mir echt ueberlegen son ding zu kaufen.
was mich z.b. interessiert, sind ordentliche treiber, hohe aufloesungen (klar bei nem 21'er) und die mgl. das ding irgendwie recht leise zu betreiben.
ich hab ein großes und leeres gehaeuse, was sicherlich seit dem nforce bei sehr vielen so sein sollte! da kann die graka total viel strom ziehen und wegen mir auch alle slots belegen!
Uhmm da steht was drin dass DC User HL2 "komfortabel" spielen werden koennen. Ich kann selbst FarCry nicht "komfortabel" (ohne AA/AF) in >1024*768 mit einer R300 spielen, ausser ich schraube ziemlich an den settings rum. Und ich meine jetzt nicht unbedingt leere Szenen. Bei 1024*768 maxed settings laeuft alles noch ziemlich gut, aber bei hoeheren Aufloesungen ruckelt es wie verrueckt wenn intensive Ballerei vorkommt. Und ja auch ein 21" hier; 1024 sieht dann eher mittelmaessig aus.
robbitop
2004-05-27, 09:42:52
ach das Ding ist nicht dazu entwickelt, um brachiale Leistung zu bringen. Wieso sollte man das Teil jetzt dazu tunen? Es ist ein Nischenprodukt, ausgelegt auf niedrigen Verbrauch. Ist als wolle man einen Lupo tunen um mit einem Porsche mithalten zu können. Oder einen C3 übertakten. Das ist nicht Sinn der Sache.
Wie gesagt, es wird sich mit GC was ändern, aber nicht mit der Brechstangenmethode, man möchte schliesslich eine gute Verlustleistung haben.
Mal sehen wie es mit dem NAchfolgeprdoukt aussieht.
strickjackenscheitel
2004-05-27, 10:47:13
Original geschrieben von robbitop
ach das Ding ist nicht dazu entwickelt, um brachiale Leistung zu bringen. Wieso sollte man das Teil jetzt dazu tunen? Es ist ein Nischenprodukt, ausgelegt auf niedrigen Verbrauch. Ist als wolle man einen Lupo tunen um mit einem Porsche mithalten zu können. Oder einen C3 übertakten. Das ist nicht Sinn der Sache.
Wie gesagt, es wird sich mit GC was ändern, aber nicht mit der Brechstangenmethode, man möchte schliesslich eine gute Verlustleistung haben.
Mal sehen wie es mit dem NAchfolgeprdoukt aussieht.
jo. prima zusammengefasst. der dc ist sicherlich auch erstmal ein produkt um wieder sagen zu koennen:"ah wir sind wieder da!"
robbitop
2004-05-27, 10:54:46
wenn man die R & D nicht deutlich erhöt, wirds auf dem Level bleiben.
Endorphine
2004-05-27, 11:21:17
Original geschrieben von Ailuros
[...]
ach ja und ein besseres OGL ICD noch. War das jetzt auf die S3-Treiber bezogen? Da besteht aus meiner Sicht viel mehr Entwicklungsbedarf in der D3D-Ecke. Zumindest OpenGL-Spiele laufen erstaunlich gut nach meinen Erfahrungen. Und auch mit einer Bildqualität, die im D3D-Modus nicht erreicht wird.
p.s. Die Club3D DeltaChrome S8 wird mittlerweile schon für unter 130 EUR gelistet: http://www.geizhals.at/eu/a100557.html :)
robbitop
2004-05-27, 12:13:38
hat dafür auch nur 250/250 :-/
stickedy
2004-05-27, 12:35:18
Wie kommst du da drauf? Laut Club 3D Produktseite wird mit 300/300 getaktet
Original geschrieben von ow
Ist immer noch zuviel. Mehr als 99 Eur darf das Ding imo nicht kosten, wenn sie es in Stueckzahlen verkaufen wollen.
..vieleicht gibt es ja noch ne 128MB Version, die dann unter 100,- Euro zu haben ist. Wer brauch denn 256MB auf so einer Karte?!
cu
BUG
Popeljoe@work
2004-05-27, 13:52:48
Original geschrieben von BUG
..vieleicht gibt es ja noch ne 128MB Version, die dann unter 100,- Euro zu haben ist. Wer brauch denn 256MB auf so einer Karte?!
cu
BUG
Ja, hat mich auch gewundert, warum das Ding mit 256 MB befeuert wird...
Reine Marketingstrategie?!? Oder macht das irgendwie Sinn?
Vielleicht klärt mich mal ein GPU Guru auf.
Überlege ernsthaft, das Teil als 8500 Nachfolger einzusetzen.
Mal sehen, was die Tests so sagen.
Popeljoe
Radeonator
2004-05-27, 15:10:16
Original geschrieben von BUG
..vieleicht gibt es ja noch ne 128MB Version, die dann unter 100,- Euro zu haben ist. Wer brauch denn 256MB auf so einer Karte?!
cu
BUG
Warum? Die Karte bietet Sehr gute IQ, hat keine Treibercheatz, bietet in der Final genug Leistung um HL2 gut spielen zu können und hat sehr gute Video Features. Leistungsmäßig lag das Teil schon als Sample zwischen 5600 und 9600XT. ~129 Euro für eine solche Karte ist vollkommen legitim.
Original geschrieben von Radeonator
Warum? Die Karte bietet Sehr gute IQ, hat keine Treibercheatz, bietet in der Final genug Leistung um HL2 gut spielen zu können und hat sehr gute Video Features. Leistungsmäßig lag das Teil schon als Sample zwischen 5600 und 9600XT. ~129 Euro für eine solche Karte ist vollkommen legitim.
Ich will ja nicht den Spielverderber spielen, aber gibt es dafür handfeste Beweise? Abwarten heissts auch hier.
reunion
2004-05-27, 15:14:08
Original geschrieben von Radeonator
Warum? Die Karte bietet Sehr gute IQ, hat keine Treibercheatz, bietet in der Final genug Leistung um HL2 gut spielen zu können und hat sehr gute Video Features. Leistungsmäßig lag das Teil schon als Sample zwischen 5600 und 9600XT. ~129 Euro für eine solche Karte ist vollkommen legitim.
Seh ich nicht so. Um 130€ bekommt man bereits eine 9600XT, die dem DC AFAIK klar vorzuziehen ist.
Original geschrieben von reunion
Seh ich nicht so. Um 130€ bekommt man bereits eine 9600XT, die dem DC AFAIK klar vorzuziehen ist.
Wohl eher nicht ;) Man hat die Wahl zwischen AA(9600XT) und AF(DC). Ausserdem klann man alte Spiele auf dem DC mit RGSSAA spielen, was ein wirklich nettes Feature ist für alte 3D Games (kram ich z.B. sehr gerne aus ;)). Desweiteren weiss man noch nicht, was der DC Videotechnisch so für Features bietet, das könnte nämlich auch interessant sein. Und die Finale Performance ist noch nicht bekannt.
Desweiteren bekommst man wohl eher keine 256MB Version der 9600XT für den Preis. Der Vergleich passt nicht so ganz.
130€ sind für die 256MB Version mit 300/300 vollkommen ok, für die 128MB Version wären dann 20-30€ weniger super.
DrumDub
2004-05-27, 15:56:15
Testlabor Teil 3: Club3D DeltaChrome S8
27.05.2004 15:31 Uhr - Mit der DeltaChrome S8 von S3 Graphics kam gestern eine weitere Karte im Testlabor an. Die Grafikkarte stellt sich im Kampf um Platz Eins nicht zwischen Nvidia und ATI, sondern peilt eine Zielgruppe im Bereich der Radeon 9600 Pro und Geforce FX 5600 Ultra an. Mit 300 MHz Chip- und 300 MHz Speichertakt (DDR) und Pixel Shader 2.0+ liegt sie leistungsmäßig zwischen oben genannten Karten. Preislich liegt die Karte mit circa 139 Euro im Bereich der Radeon 9600 Pro.
(Sebastian Kmeth)
http://www.pcgames.de/?article_id=316061
bei der leistung ist der preis echt o.k.
strickjackenscheitel
2004-05-27, 16:03:10
ist ueberhaupt lustig, dass das ding so heisst wie das edle auto eines grossen deutschen automobilherstellers! =)
nagut ausser dem namen haben sie echt wenig gemeinsam.
beide sind aus metall ...
... aber lustig isses schon! =)
Original geschrieben von reunion
Seh ich nicht so. Um 130€ bekommt man bereits eine 9600XT, die dem DC AFAIK klar vorzuziehen ist.
Och nöööö, geh in nen ATi vs nV thread und lass da deine heisse Luft ab...bitte :kotz:
reunion
2004-05-27, 16:51:08
Original geschrieben von HOT
Wohl eher nicht ;) Man hat die Wahl zwischen AA(9600XT) und AF(DC). Ausserdem klann man alte Spiele auf dem DC mit RGSSAA spielen, was ein wirklich nettes Feature ist für alte 3D Games (kram ich z.B. sehr gerne aus ;)). Desweiteren weiss man noch nicht, was der DC Videotechnisch so für Features bietet, das könnte nämlich auch interessant sein. Und die Finale Performance ist noch nicht bekannt.
Desweiteren bekommst man wohl eher keine 256MB Version der 9600XT für den Preis. Der Vergleich passt nicht so ganz.
130€ sind für die 256MB Version mit 300/300 vollkommen ok, für die 128MB Version wären dann 20-30€ weniger super.
Naja, klar ist der DC keine schlechte Karte, allerdings finde ich das er doch zuviel mängel hat, die PS-Performace ist nach den von mir gelesene Tests erschreckend lahm, dadurch wird man auch vermutlich viele Probleme mit neueren Games bekommen, außerdem gibt es nur max. 2x SSAA, also auch nichtmehr konkurrenzfähig, und auch die allgemeine Performace liegt unter 9600pro Nivau. Einzig das gute AF spricht für den DC. Ganz anders sieht es natürlich im Low-End Bereich aus, gegen die 9200 oder die FX5200 ist der DC natürlich klar vorzuziehn...
reunion
2004-05-27, 16:58:50
Original geschrieben von Gast
Och nöööö, geh in nen ATi vs nV thread und lass da deine heisse Luft ab...bitte :kotz:
Ganz ruhig :smokin:
Original geschrieben von reunion
Naja, klar ist der DC keine schlechte Karte, allerdings finde ich das er doch zuviel mängel hat, die PS-Performace ist nach den von mir gelesene Tests erschreckend lahm, dadurch wird man auch vermutlich viele Probleme mit neueren Games bekommen, außerdem gibt es nur max. 2x SSAA, also auch nichtmehr konkurrenzfähig, und auch die allgemeine Performace liegt unter 9600pro Nivau. Einzig das gute AF spricht für den DC. Ganz anders sieht es natürlich im Low-End Bereich aus, gegen die 9200 oder die FX5200 ist der DC natürlich klar vorzuziehn...
Warten wir doch mal nen echten Test mit neuen Treibern ab. Vorher zu urteilen, oder aufgrund der PCGames ein Urteil zu fällen ist wohl etwas verfrüht und den xbit Test kannste ja wohl auch vergessen, weil da ja noch nichts funktionierte.
SSAA ist eine super Sache für ältere Games (falls es dir entgangen sein sollte brauchen ältere Games net so viel Leistung :P) und das AF ist viel besser als das der Radeon (dafür hat die Radeon AA, was ich aber nicht so wichtig finde in dem Preissegment). Der DC ist soweit vergleichbar mit einer Radeon9600 Pro (immer 256MB Versionen vergleichen), meiner Meinung nach sogar die gelungenere Lösung.
Shodan Veritas
2004-05-27, 19:45:09
1.:massa: HOT! Die besten Spiele aller Zeiten finden sich nicht wirklich in den schönen, großen Regalen mit den überzogenen Preisen und den lächerlichen DVD-Hüllen, sondern auf dem Grabbeltisch zum Budget-Preis, aber häufig noch in der guten, alten Pappschachtel mit reichlichst Inhalt. Man braucht kein aktuelles Multi-Kilo-Euro-PC-Monstrum, um sie auch heute schon in 4xSSAA 8xAF bei maximaler Auflösung zu zocken, das geht häufig schon mit einer GF3. Aller "Ist doch viel zu lahm!"-Argumente zum Trotz...
2. "Nadeem: our FSAA uses 4 samples (its a 2x2 rotated grid) upto 1024x768, speed depends on if the application is fill rate sensitive."
Also für mich hört sich das nach Voodoo5-RGSSAA an, jetzt noch die Maximalauflösung hochgeschraubt und eine "S8 Nitro Multichip 6000" hinterhergeschoben...
Was auch immer die Zukunft bringt, die GF3 wird bestimmt nicht einer Karte weichen, die eine schlechtere IQ als diese liefert. Ob der Chip von PowerVR oder S3 kommt ist da eher schnuppe. Ich will mehr IQ für meine vorhandene SW, nicht Shaderversion X.Y, mit der eventuell möglicherweise irgendwann die spezielle SW Z a bisserl schneller und/oder schöner wird. Wobei ich nichts gegen Shader X.Y habe. Wenn Shader X.Y hingegen so viele Transistoren frißt, daß es für vernünftiges AF (NV40...) oder gar vernünftige Grundfilter (Radeons...) nicht mehr reicht, ja dann würde ich mich lieber weiter mit VS/PS 1.1 begnügen und nur mehr Tempo und Speicher einkaufen. DC bringt VS/PS 2.0, der neue PowerVR wird noch Shader-3.0-konformer als der NV40. Hoffen wir, daß auch bei Letzterem nicht an der falschen Stelle mit den Transistoren gespart wurde.
Wie ging noch einmal des Chinesen tödlichster Fluch?
"Mögest Du interessante Zeiten erleben."
NV und ATI könnten SEHR interessante Zeiten bevorstehen...
Ailuros
2004-05-28, 01:30:34
Original geschrieben von HOT
Warten wir doch mal nen echten Test mit neuen Treibern ab. Vorher zu urteilen, oder aufgrund der PCGames ein Urteil zu fällen ist wohl etwas verfrüht und den xbit Test kannste ja wohl auch vergessen, weil da ja noch nichts funktionierte.
SSAA ist eine super Sache für ältere Games (falls es dir entgangen sein sollte brauchen ältere Games net so viel Leistung :P) und das AF ist viel besser als das der Radeon (dafür hat die Radeon AA, was ich aber nicht so wichtig finde in dem Preissegment). Der DC ist soweit vergleichbar mit einer Radeon9600 Pro (immer 256MB Versionen vergleichen), meiner Meinung nach sogar die gelungenere Lösung.
Ich wuenschte ich koennte aber Deinen Hoffnungen genauso folgen. Obwohl 2xRGSS ist die Begrenzung auf 1024*768 auch nicht gerade optimal.
Was aeltere Spiele betrifft: wenn diese nicht mit alphas vollgepumpt sind, dann kannst Du die geringere Leistungsanfrage auf einer RV360 in hoeheren Aufloesungen als 1024 mit 6x sparse MSAA und AF verbrutzeln. Aeltere Spiele sind sowieso ein lahmer Punkt; seit wann ruestet ein Verbraucher nur fuer diese auf?
Fuer die arithmetische Effizienz des DC ist die kleine Anzahl der FPUs verantwortlich und hier ist es zweifelhaft dass Compiler+Treiber Dir irgendwelche Wunder vorzaubern werden, ausser es kommt zu fraglichen Optimierungen.
DC ist eine sehr gelungene Mainstream-Loesung von S3 nach so langer Zeit; besser als die Konkurrenz definitiv nicht. Und wenn Du schon aeltere Spiele als Punkt bringen willst, dann zaehl doch bitte auch alle aelteren OpenGL Spiele mit.
robbitop
2004-05-28, 02:48:41
einige träumen einfach zu sehr
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.