Archiv verlassen und diese Seite im Standarddesign anzeigen : Wo bleiben die G3 Karten.....
Unregistered
2001-05-01, 14:59:45
Hmmm, jetzt sind schon 5 wochen seit der Cbit in land gegangen und noch immer keine Geforce3 Karten, fängt Nvidia jetzt genau wie dieverse andere Hardwarehersteller an zu verschieben ??? Erst den Mund wässrig machen und dann 1/2
jahr wartezeit ....oder hat jemand schon im Handel eine der Karten gesehen........
Gruss Kellwolf
Sollten die jetzt nicht erst Mitte Mai rauskommen?
Andre
2001-05-01, 15:45:37
Yo, die Auslieferung der Karten beginnt bei den meisten Herstellern in der nächsten Woche.
Bis die definitiv im Laden stehen, also noch gut 10 Tage schätze ich.
Thowe
2001-05-01, 16:35:03
die Karten bleiben momentan da wo sie hingehören ... auf der Müllhalde.
Hoffe das die nicht die fehlerhaften Karten doch noch unters Volk bringen.
Aber die Verzögerung spricht dafür das da dann doch fehlerbereinigte Hardware auftauchen wird.
Leonidas
2001-05-01, 16:45:08
Zeitgleich mit der KYRO II - sehr ungünstig für die GF3.
VanAsten
2001-05-01, 16:45:16
Naja lieber noch ein paar Tage warten und eine fehlerfreie Variante kaufen, als jetzt und sich dann ärgern. Solangs sich nicht um Verzögerungen von einem 1/2 jahr handelt ist OK.
mfg,
VanAsten
Andre
2001-05-01, 17:11:24
So ganz koscher ist mir das alles auch nicht, Nvidia liefert mittlerweile das A9-Stepping aus, ungewöhnlich ist, dass schon so viele Steppings gefertigt wurden.
Beim Kauf unbedingt drauf achten, dass man ein Stepping >A8 abbekommt, manche Hersteller haben schon das A5-Stepping verbaut und ausgeliefert.
Dummerweise ist das Stepping auf dem Cip, was heisst, dass man den Kühler abmontieren muss.
Oder einfach noch warten, bis nur noch A9-Steppings verkauft werden...
Originally posted by Andre
So ganz koscher ist mir das alles auch nicht, Nvidia liefert mittlerweile das A9-Stepping aus, ungewöhnlich ist, dass schon so viele Steppings gefertigt wurden.
Beim Kauf unbedingt drauf achten, dass man ein Stepping >A8 abbekommt, manche Hersteller haben schon das A5-Stepping verbaut und ausgeliefert.
Dummerweise ist das Stepping auf dem Cip, was heisst, dass man den Kühler abmontieren muss.
Oder einfach noch warten, bis nur noch A9-Steppings verkauft werden...
Wer erzählt denn solchen Unsinn??
Hier die Richtigstellung:
"According to IThome in Taiwan, not only has nVidia updated GeForce3's chipset stepping from A3 to A5, they have also updated its reference board stepping from A5 to A9, as well. I've yet to see any other news about this, so it should be classified as a rumour.."
Leonidas
2001-05-01, 21:39:57
Mmh @ ow. Die Richtigstellung sagt *nicht*, das nicht A5- oder gar A3-Steppings im Handel sind. Also A5´s sollen lt. meinen Infos massiv bei den Boardherstellern sein. Ob die nVidia nun alle zurückzieht?
Zitrone
2001-05-01, 21:42:21
Ich glaube das auch nicht - kauf mir eh keine GF3
Thowe
2001-05-01, 21:55:10
Denke auch das Warten die Beste Methode ist das Transistorenbiest ein wenig kennenzulernen, die letzte Karte die ich hatte die ein wenig zu schnell entwickelt/vermarktet wurde war die Savage2000. Sowas möchte ich ja nun nicht noch mal jemanden gönnen, aber eine GF3 werde ich wohl oder übel auch testen müssen und bin gespannt auf die netten Fehler die noch so auftauchen werden. Aber Nvidia wird die genau wie S3 dann wohl Treiberprobleme nennen und die dann versuchen per Software zu umgehen. Also lieber warten.
[UTFC]Slá¥èr
2001-05-02, 01:12:45
So, dann hab ich da zu ne Frage: Ich habe die GF3 schon vorbestellt, laufe ich nun Gefahr ein verbugtes Board zu bekommen , sprich A3-Stepping, und wenn ja, kann ich das beanstanden und bekomme dann das aktuelle(?) A9-Stepping-Board stattdessen ?
...Und weiss jmd , wo genau der Unterschied zwischen A5- und A9 Stepping liegt ,also das es ein fortgeschrittener Fertigungsprozess ist is mir klar aber ich möchte gern wissen was denn genau an der Fertigung verändert wurde zwischen A5- und A9-Stepping
schimmi
2001-05-02, 13:18:16
Yepp, die GF3 kommt Mitte Mai, passende Spiele in etwa 1,5 Jahren. Also genau die Zeit, in der die GF3 einem Preisverfall unterliegen wird, der sich gewaschen hat. Meine Meinung: erst muss ein DX8-Spiel rauskommen, welches die Hardware so arg strapaziert, daß sich überhaupt die Anschaffung lohnt. Ich kann mir wieder die Typen vorstellen, die sich jetzt eine GF3 holen, und dann 1,5 Jahre lang auf pasende DX8-Spiele warten. Sind diese dann endlich draußen, haben die Anderen dann den Kyro4 oder Radeon3 (womöglich für 1/2 des GF3-Preises) und gesellen sich zum Bund der Wartenden...
Andre
2001-05-02, 13:53:21
@ ow
Du hast recht, ich habe nicht zwischen Chip und Board-Stepping unterschieden.
Aktuell für den Chip scheint A5 und für das Board A9 zu sein.
Aber mittlerweile verhärten sich die Gerüchte, obwohl natürlich noch nichts belegt ist.
@ maXXman
Das ist so nicht ganz richtig.
Die ersten DX8-Spiele werden wir mit Sicherheit noch in diesem Jahr erleben, z.B. Aquanox, welches schon ziemlich weit ist.
Die Entwicklung von DX8-Spielen wird wesentlich schneller ablaufen, als die damalige Integration und Nutzung von T&L, da die Entwickler schon seit fast einem Jahr das DX8-Entwicklerkit zur Verfügung haben, also gut ein halbes Jahr vor dem offiziellen Nutzerrelease.
So gesehen kann sich ein Geforce 3 in diesem Jahr schon rentieren, ich gebe Dir aber recht, dass aus preislicher Sicht dazu keine Veranlassung besteht.
@ [UTFC]Slá¥èr
Den Unterscheid kenne ich auch nicht, den wird man wohl kaum rauskriegen, leider.
Frank
2001-05-02, 14:32:29
@Andre
Wenn du scharf auf DirectX8 Spiele bist, hast du doch sicher auch schon eine Radeon drin?? Oder?? Wir wissen ja alle, dass nochnichemal die Geforce 2 Ultra voll DX6 unterstützt. - voll der Lacher
schimmi
2001-05-02, 14:40:02
@Andre: ach mann, so meine ich das doch nicht. Ich meine Spiele, die wirklich mal die gebotenen Features VOLLENDS ausnutzen, und nicht so ein Beschiss (entschuldige das harte Wort) wie T&L. (Oder kennt ihr ORDENTLICHE T&L-Umsetzungen aktueller Spiele???? EVOLVA???? GIANTS????? 3DMARK???? HAHAHAHAHAHA...) Und eben darum geht es mir: Bitte keine halbherzigen Implementierungen, der Kunde hat ja schließlich den kompletten Chip mit allen enthaltenen Features gekauft. Und bei etwa 1000DM kann man schon verlangen, daß man am Markt ordentliche Spiele findet, die davon 100% Gebrauch machen. Aquanox ist da eher der Anfang. Aber gut, es kann nur besser werden (DOOM3, Unreal2, ...)
Andre
2001-05-02, 15:36:17
Du hast sicherlich recht, übersiehst aber die aktuelle Marktsituation bei den Grakas.
Ein Publisher bzw Programmierer wird heutzutage versuchen ein Spiel herzustellen, welches auf alten Systemen noch läuft, aber gleichzeitig auf modernen gewisse visuelle Schmankerl bietet.
Aus diesem Grund werden auch die nächsten Games nicht alle DX8-Features unterstützen, ansonsten würde die Spielbarkeit auf etwas älteren Maschinen erheblich in Gefahr geraten.
Bis alles auf DX8 läuft, oh oh, dass dauert noch verdammt lange...
StefanV
2001-05-02, 16:11:53
Das 'Problem' wäre sicher nicht so groß, wenn neue Grakas maximal 200DM kosten würden...
schimmi
2001-05-02, 16:25:37
@Stefan
GENAU DAS MEINE ICH!
--------------------
Aber irgendwie reden jetzt alle von Steppings. (C5, C8, C9) Sagt mal, der GF3 ist in der "Ur-Version" scheinbar ebenso "Buggy" wie dazumal der Savage2000. Nur S3 hatte damals keine Kohle mehr, die Bugs auszumerzen. NVidia schon, und jetzt werden fleißig nene Stteppings auf den Markt geworfen...GUT SO, NVIDIA! Nun habt ihr neben der Detonator-Rumeierei eine neue Undurchsichtigkeit: Die Chips selber! (Arme NVidia-User...)
Andre
2001-05-02, 17:03:19
Es ist vollkommen normal, dass neue Steppings im Laufe der Zeit verbaut werden, dass ist bei anderen nicht anders.
Auffällig ist nur die Anzahl der bisherigen Steppings, es gab selten so viele in so kurzem Zeitraum.
Aber da es bisher nur in den USA vereinzelt lieferbare Geforce 3 gibt, ist das Problem überschaubar.
@ maXXman
Detonator-Rumeierei ?
Ist doch jeder selber schuld, wenn er sich jeden Beta-Detonator runterzieht, dass ist nicht Nvidias Problem.
Ich habe das auch mal gemacht, aber irgendwann ist auch mal gut, ich habe jetzt die offiziellen Hercules 7.52 und keine Probleme.
Apropos Treiber Rumeierei :
Von jedem Hersteller gibts geleakte, gefakte Treiber, da steht Nvidia nicht alleine da.
Zum Thema Beat-Detonator sag ich nur:
Wer keine Probleme mit nem Treiber hat, der macht sich welche !!
Frank
2001-05-02, 18:27:59
@Andre
Das ist nicht dein Ernst!!? Das mit jeden Hersteller solltest du zurücknehmen!! Es gibt wohl bei ATI und anderen Firmen eine EIN-EIN-Deutige Treiberlinie. Und nicht viele Tausendsachen Querbeetein.
Schon mal ne andere Karte(normale) gehabt??
Also steht NVIDIA mit ihren TreiberDRECK doch alleine da!
Mal was anderes!!!
Bei steigender Versionsnummer (hab jetzt Detonator 3 (6.31 oder so was???) nimmt bei meiner TNT1 (2.Rechner) die Renderqualität ab. Tolle Sache. Wo man nur die Frames rauskitzelt?? Auf Kosten der Qualität??
Schmeiss mal deine DX5 Karte aus deinen Rechner Andre!
Also mir ist das eher WURSCHT ob ich jetzt 200 Märker auf meine GraKa drauflege. Immerhin upgrade ich von meiner GeForce DDR auf die GeForce 3 - da ist das nicht so schlimm, weil's gegenüber der GFDDR ja doch schon nen Performanceschub auch in aktuellen Spielen bringt.
Würde ich mir jetzt ne GF2 Ultra oder ne vergleichbare Karte holen, sollte mich auf der Stelle der Blitz treffen :) Da kann ich auch ne GF3 hernehmen - und die ist sogar noch ein klitzekleines bissken schneller als ne GF2U (oder vergleichbar).
Ob mir das jetzt was bringt, oder nicht ...
Es ist jetzt halt einfach so, das die neuen Features der GF3 eher als "nettes Dreingabe" angesehen werden sollten :D Damit auch mal DX8 Games zu zocken dürfte wohl eher im Bereich des weniger möglichen liegen.
Aber das wurde ja alles schon TAUSENDMAL durchgekaut.
Ich warte noch, bis sicher ist das aktuelle Steppings ausgeliefert werden ... wenn dann die nächsten zwei Monate rum sind, ist sie auch wieder ein paar Märker im Preis gerutscht und dann ist sie (falls nix besseres zu haben ist) mein.
Gruß,
-Kai
Frank
2001-05-02, 18:51:52
@Kai
Wenn du die Features als nette Dreingabe betrachtest, dann kannst du auch bei deiner Karte bleiben. Oder brauchst du statt 50Frames doch 100?????
Sinnlos.
Genauso sinnlos mit 1280er Auflösungen auf einen 17"er zu zocken.
Andre
2001-05-02, 20:50:22
Warum soll ich meine MX rausnehmen ?
Um sie mit ner noch langsameren G400 zu ersetzen ?
Wir haben diese Diskussion, dass alles von Nvidia sch*** ist schon 1000mal gehabt, jeder soll mit dem was er hat glücklich werden.
Ich bin zufrieden - nicht mehr und nicht weniger.
T&L ist übrigens ein Feature von DX7 und nicht von DX5, also die Karte ist zwar nicht der Brüller, für mich reicht sie alle mal.
Die Konfusion um die Detonatoren entsteht nur durch die ständigen Betas, wenn man die offiziellen nimmt, sehe ich da kein Problem, aber nun gut.
Sorry Killerwahn, ich mag einfach dieses Schubladendenken nicht, jede Karte hat nunmal seine Vor-und Nachtteile, es liegt bei jedem selbst, dass zu erkennen.
schimmi
2001-05-02, 21:10:58
@Kai
Ob mir das jetzt was bringt, oder nicht ...
^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
Sacht ma Leude, ihr habt alle zuviel Geld?!?
@Andre
Also, die MX rauszuhauen ist doch mal ein guter Anfang, nich?
Frank
2001-05-02, 21:24:41
T&L ist zwar ein Feature von DX7, deswegen hat die KArte trotzdem nicht alle DX6 Features. Also warum um DX8 streiten und das doch Features SO wichtig sind. Schau dir mal bei irgendeinen Kumpel RadeonsARK an oder sowas. Und da merkt man erst, was DX6 Features so bringen an Qualität, die in angeblichen DX7 Karten wie GF(2) noch fehlen. Neue Features sind schon eine tolle Sache, aber erst höchstens erst 1Jahr nach Einführung. Nenn mir bitte ein Grafikhighlight von Spiel, wo explizit T&L dafür gebraucht wird. (bitte ein graphisch ansprechendes Spiel)
Doch noch keins gefunden.
camel
2001-05-02, 21:48:48
mal wegen T&L. ich finde,das in dem game "sacrifice" das gantz nett UNTERstützt wird.die idee dahinter is auch nur ne unterstützung!!!
der GeForce 3 rechne ich auch keine grossen Chancen ein,obwohl endlich erkannt wurde, das immer schnellere speicherchips nich die lösung is (irgendwie hatt man schliesslich ab 2 ns ein preisliches problem *g*)
das hatt wohl st microelectronics am besten erkannt.nvidia zu spät,was noch fatal werden kann.
schimmi
2001-05-02, 21:50:32
Doch! Evolva!:asshole:
@ Killerwahn ... also bitte - Ich habe hier schon nen Haufen Games rumliegen die auf meiner GF DDR Mucken machen. Ok, Undying hängt recht stark von der CPU ab, da UT-Engine, aber wer den Unterschied von 50 fps zu 100 oder gar 150 nicht sieht, hat schlechte Augen ;) Die Quaker hier werden jetzt bestätigend mit dem Kopf nicken!
Ich spiele fast nur Egoshooter und da kämpfe ich um jedes FPS - ausserdem will ich endlich mal in 32 bit auf ner DICKEN Auflösung zocken ... bei meinem 19"er rentiert sich das jo auch.
Eventuell noch ein schönes Anti Aliasing dazu ... :>
@ maxxman
Jeder soll sich halt die Karte kaufen die auf SEINE Anforderungen abgestimmt ist - und da ist momentan die GeForce 3 meine erste Wahl - ob ich wie Du sagst "Geld zuviel" habe oder nicht spielt ÜBERHAUPT keine Rolle, denn wie Du siehst hab ich das Geld, sonst würde ich sicher nicht abwägen ob ich mir eine hole oder nicht.
Und Andre hat es bereits gesagt - die Hardwareschraube dreht sich ständig weiter, da ist nix dran zu rütteln und nix zu schütteln. Man wird sich IMMER ärgern das dieses oder jenes Produkt IRGENDWANN mal billiger zu haben sein wird. Aber ich will JETZT meine Anforderungen durchsetzen - und nicht erst in Zehn Monaten wo es Spiele geben wird, die auf der GF3 wieder nicht so toll laufen.
Ich kaufe mir nicht jede Grafikkarte die released wird ... ich mach das so, wie's ein halbwegs vernünftiger PC Hobbyist tut - ich überspringe ein oder zwei Generationen und greife dann zu! Und daher (oh Wunder *g*) hab ich auch das Geld ... weil ich mir nach der GeForce keine GeForce 2 Pro, Ultra, Kyro, Kyro 2 gekauft habe. Da gibt's ne Menge Leute die das nämlich getan haben und jetzt am wehklagen sind das die GeForce 3 wieder so derbe Teuer ist.
Für solche Fälle legt man sich halt was weg ...
Gruß,
-Kai
Andre
2001-05-02, 22:33:39
@ Killerwahn
Es geht hier doch nicht darum, ob eine Karte alle DX6-Features unterstützt, ich rede hier von der Zukunft und da werden sowohl von der Radeon als auch von der Geforce 3 so ziemlich alle Features geboten.
Im übrigen sind mir die Features, bis auf Enviromental Bump Mapping, nicht bekannt, die die Geforce 2 NICHT unterstützt und die von Games GENUTZT werden.
Aber da lasse ich mich gerne aufklären.
Zu T&L:
Natürlich werden durch T&L keine neuen Grafikfeatures geboten, T&L dient allein dazu, die CPU zu entlasten.
Und da kenn ich ne Menge Games, die davon Gebrauch machen.
Da wären so ziemlich ALLE OpenGL-Games, Giants, F1 RC, Sacrifice, die habe ich zumindest.
@ Kai
Ist genau meine Taktik und die funktioniert wunderbar, allerdings denke ich nicht, dass ich mir allzu schnell die Geforce 3 kaufen werde, aber mal abwarten...
Mal ne Frage Andre ... wie gut kommst Du noch mit deiner MX zurecht? Wo machst Du Abstriche, wo bist Du zufrieden? (eventuell auch ein paar Games die Du zockst benennen)
Würdest mir sehr helfen, ein Kumpel hat vor sich eine zu holen :)
Gruß,
-Kai
Andre
2001-05-03, 11:19:41
Also gernerell muss ich sagen, dass ich bei Performance Killern auf 16 Bit gehe, ansonsten habe ich schon ziemlich verloren.
Folgende Games laufen auf 32 Bit bei mir relative problemlos:
- Serious Sam (manuell verbesserte default quality)
- F1 Racing Championship
- Alice
- Giants (aber dann 800x600)
- NBA Live 2001
- Colin McRae Rally 2
- Q 3
Und folgende in 16 bit, da sie ansonsten einbrechen oder nur 16 Bit können:
- FIFA 2001
- Undying
- UT (Direct 3D)
- NOLF
- NFS Porsche
- Severance
Problemlos bedeutet bei mir, dass ich sie in 80 % der Fälle ohne Ruckler spielen kann.
Klar ruckelt es mal, wenn bei F1 RC am Start 22 Wagen per Telekamera gezeigt werden und jedes Modell aus 10.000 Polygonen besteht.
Aber im Rennen keine Probleme.
Man darf von der MX keine Wahnsinnsperformance verlangen, dafür kostet sie zur Zeit auch nur 249 DM.
Ich persönlich gebe lieber mal ein bischen mehr beim feiern aus, als alles für 150 FPS zu sparen.
Irgendwo sind eben auch Grenzen...
Hmm, danke ... das dürfte dicke für ihn ausreichen. Der spielt halt sowieso bloss einmal alle zwei Wochen :) Und ein Game durchgezockt hat der eh noch nie :)
Ging halt nur drum das ich ihm nicht was empfehle und er am Ende nur meckert. :|
Gruß,
-Kai
Frank
2001-05-03, 20:25:05
Sorry Leute,
ich glaub ihr versteht mich alle (Kai + Andre) falsch.
@Andre
Du beschwörst hier DirectX 8, wie die neue Grafikwunderwelt und wie schön das doch alles ist und alles sieht super aus, natürlich mit den entsprechenden Features, die die KArte auch supporten muss. (kommt zumindest so rüber) Was mich daran stört: Alle schwören dabei auf die GF3. Klar ist sie besser als eine Radeon, die bekomm ich aber schon ab 199,-DM. Irgendwie hängt da so eine gewisse Voreingenommenheit um dich drum. Sorry. Nicht falsch verstehen. Warum profitieren alle OpenGL Spiele so super von T&L?? Ich glaub ein besserer Prozessor hat da ein leichters, Spiele spürbar (>40%) zu beschleunigen. Zumal T&L noch deine 249DM Karte belastet bei der eh schon geringen Datenbreite. (wo hast du die 249DM her?? bissl teuer oder)
Ja ich spielte auf embm an. Netter Effekt, wo sich die Leute, dies mal gesehen haben (zB. RadeonsARK), dann immer fragen, warum nicht JEDES Spiel sowas nutzt. Ist einfach ein Grundlegender Effekt, so wie TrilinearFiltern,... .
@Kai
Dein Freund soll lieber eine Radeon SDR nehmen, die ist äquivalent schnell wie eine Geforce MX und lässt ihn in die GF3 Features Welt schon mal reinschnuppern. Ausserdem empfiehlt es sich sowieso schon eher, falls er einen größeren Monitor hat.
Was hast du für ein Prozessor?? Bei einer GF1 DDR solltest du noch nicht so viele Probleme haben. Eigentlich. Uneigentlich? 19" ist ordentlich und wenn du voll Leistung brauchst, dann brauchst du auch eine GF3. Klar. Aber zur Zeit empfiehlt sich eher ein Prozessorkauf als ne Graka. Zumal das mehr bringt. (zur Zeit) Ich stimm dir dabei zu, das man ein parr Generationen auslassen soll. Ich warte seit 2Jahren auf eine ordentliche KArte, die auch in Preis/Leistung überzeugt. Und soll ich die was sagen? Der Unterschied zwischen den Generationen ist noch zu klein. Wenn ich bei Andre die Liste lese wird mir anders. Meine (ja die KArte ist scheisse aus Sicht von nv fans) G400 sieht in UT oder Porsche keine 16 bit. Da wird mit 1024x768x32 durchgebügelt und das mit den Antiquariatprozi.
Ich bin Brillenträger (ja !! trotz G400) und sehe den Unterschied zwischen 50Frames und 100Frames nicht. Tut mir leid. Ich bin Besitzer zweier Standardaugen die leider nur 25 Bilder in der Sekunde unterscheiden können. Und solange 25 Frames auch im schlechtesten Fall nicht unterschritten werden, sehe ich da keine Probleme.
Meine Trident/IBM-CD1M 2,5MB Graka, deren Bild ich gerade genieße, reicht auch noch.
Ich mag euch alle
kw
Frank
2001-05-03, 20:31:41
@Kai
Lese gerade was du für Prozeesor hast. Ich hab leider auch so'n P3. Ist echt mist. Ich geb dir in Tip. Verkauf dein Zeug teuer bei eBay und hol dir was FPU starkes. Dank FPU der AMD Prozis wird dein teurer P3 in Gleitkommaintensiven Sachen auch noch von einen Billig Duron mit weniger MHZ überrannt. (ergo auch in Spielen)
Aber letztendlich bringts auch nichts. (<40%) Warum willst du überhaupt was ändern an deinen Kasten?
Andre
2001-05-03, 21:01:44
Jetzt verstehst Du mich falsch.
Ich habe lediglich gesagt, dass DX 8 Features erlaubt, die eine Menge an grafischen Leckerbissen zulassen - nicht mehr und nicht weniger.
Zur Zeit sehe ich eben keine andere Karte als die Geforce 3 (alle anderen sind noch nicht marktreif), die davon Gebrauch macht.
Ich bin aber sicher kein Nvidia-Fanatiker und DX 8-Verfechter, denn was gerade im Grafikkartenmarkt passiert sehe ich nicht gerade positiv - im Gegenteil.
Was ich nur nicht mag ist dieses generelle Anti-Nvidia-Gerede und die tollen Ratschläge á la "Schmeiss die Nvidia-Karte raus und kauf Dir was anderes", denn dann geht man nicht auf das Problem desjenigen ein.
Und meine Aufgabe als Mod ist es nunmal, ein wenig nach rechts und links zu schauen und das versuche ich so gut es geht und manchmal muss ich da auchmal ein paar positive Aspekte bei Nvidia nennen, denn nicht alles von denen ist so grottenschlecht, wie es gerne dargestellt wird.
Zu dem Thema T&L:
Klar geht ein bischen Bandbreite flöten, dennoch ist es so, dass es zumindest bei mir, den Unterschied zwischen unspielbar und spielbar ausmachen kann, je nach dem wieviel das Game davon Gebrauch macht.
Bei F1 RC macht das einen Höllenunterschied aus.
Und zu guter letzt das Thema "Ein schnellerer Prozessor beschleunigt mehr als ne schnelle Garfikkarte".
Stimmt nur eingeschränkt.
Bestes Beispiel: Die UT-Engine.
Sie ist prozessorabhängig wie keine andere, ein dicker Proz macht hier nen Riesenunterschied, richtig.
Bestes Gegenbeispiel: Quake 3
Wenn Di hier nen 1,2 GHZ Proz mit ner 2 MX gegen einen Athlon 750 mit ner Geforce 2 Pro antreten lässt, dann nützt Die hier der dickste Proz nichts, die Geforce 2 Pro wird mit Abstand gewinnen.
Wichtig ist nur, eine gesunde Mischung aus Proz-Leistung und Grafikpower zu finden.
Eine PII-400 hat von ner Geforce 2 Ultra gar nichts und ne MX von nem 1,2 GHZ auch nicht.
Es gilt also, die Flaschenhälse zu minimieren, erst dann bewegt man sich im effektiven Bereich.
Ein letztes Wort zu den FPS.
Auch ich bin Gegner der FPS-Hochschrauberei, wenn es allein darum geht.
150 FPS in Q3 - wofür ?
Der Preis ist mir dafür zu hoch.
Doch sollte mir die Karte sowohl hohe FPS-Zahlen bieten und neue Features auf Lager haben, dann ist das schon eine Überlegung wert.
Ob es dann eine Geforce 3, Radeon II oder die Kyro II ist, interessiert mich nur zweitrangig.
Wichtig ist, dass ich für mein Geld das krieg, was ich von der Karte will und das muss jeder selbst entscheiden.
PS.: Solange wir bei einer konstruktiven Diskussion sind, nehme ich grundsätzlich keinem was übel.
Deswegen gebe ich das mit dem lieb haben, gerne zurück ;-)
Frank
2001-05-03, 23:15:58
@Andre
Das mit dem "ich mag euch alle" war ernst. Ich finde es echt blöd, wenn in irgendeinen Forum 20 Leute sich freuen, die selbe Meinung haben und dort sich gegenseitig beweihräucheln....
Wegen den Prozessor: Mir ist schon klar, dass ich kein 1GHz mit 'ner "Ticket To Ride" (hach ich mag den Chip) betreiben kann und umgedreht einen K6-2 mit einer GF3. Aber man sollte doch schon meinen, wenn einer was mit GF DDR oder aufwärts hat, dann doch schon eher zum ProzessorUpgrade greifen soll, als gerade JETZT vielviel Geld für eine Grafikkarte auszugeben. Prozessorperformance kann man vielleicht auch noch in 3dmax oder FlashK gebrauchen. Gerade wenn man irgendwas mit CoppermineKern sein Eigen nennt, dann merkt man doch, wie schnell FPU Leistung knapp wird. Da hat ein Athlon ein ausgeglichneres Leistungsbild. (ich red hier von vielen Autos auf der Piste oder 15 Bots die alle auf einmal was von einem wollen)
zu T&L: Letztendlich hat sich bis jetzt nur ein "Advanced" Feature zum must-have entwickelt. Das ist S3TC. (Klar, gute Filtering Modes sind auch ganz nett) T&L bringt irgendwie noch nicht das, was einen damals eingebläut wurde. Irgendwie haben wohl alle vor 2 Jahren übertrieben und auch du hast spontan nur ein Spiel genannt.
zur Nvidia-Antipathie: die hat sich diese nette Firma selbst zu verdanken. Ausserdem bietet sie mir zum Beispiel nicht das, was ich erwarte von einer Karte. Zumal für den Lowcostmarkt zur Zeit eine Radeon SDR mit das Optimum darstellt (199DM) (Deine Meinung dazu vermisse ich noch!!). Niemand will Nvidia gleich ohne Argumente "schlechtquatschen". Bloß gibt es einfach zu viel zu sagen gegen diese Firma, so dass es bei manchen gleich kocht, wenn die dieses einfallslose Wort "Geforce" lesen.
"Ticket to Ride" - das nenn ich coolen Namen!!
Thowe
2001-05-03, 23:23:48
Denn hätte Nvidia die GF3 ruhig Yellow Submarine nennen sollen, dann kann er getrost untergehen.
Oder Lucy in the Sky with Diamonds wäre ja auch nicht so schlecht bei den Preisen der GF3.
Dragon
2001-05-03, 23:27:38
Im Laden von KKComputer hab ich GeForce3-Packungen rumstehen sehen... Ob da was drin ist, weiß ich nicht. Die Teile waren von Leadtek oder Winfast, aber auf der Webseite von denen steht davon noch nichts.
Thowe
2001-05-03, 23:36:55
Momentan alles Promo-Material ...
StefanV
2001-05-04, 09:41:14
Jetzt mal 'ne andere Frage:
Was hat NVidia außer performance gebracht?
Richtig, nichts!
Die ganzen Must have-Innovationen kommen doch alle woanders her!
Textur Kompression: S3
EMBM: Matrox
32bit Rendering: PowerVR, Matrox
FSAA: 3DFX
Was NVidia bisher gebracht hat ist T&L, das nur Performance bringt, und DOT3 BM, als gegenstück zu EMBM!
Andre
2001-05-04, 13:44:39
Performance ist aber auch ein ziemlich schlagkräftiges Argument, findest Du nicht ?
Im übrigen fidne ich es praktischer die Erungenschaften der anderen Hersteller auf einer Karte zu haben, ansonsten müsste ich Deiner Aufstellung zufolge 4 Grafikkarten parallel betreiben, dass funktioniert meines Wissens nicht.
Ich sag ja auch nicht, dass Nvidia der Innovationshersteller des Jahrtausends ist, aber sie vereinen die Features auf einer Karte und das ist durchaus komfortabel, da ich sie alle nutzen kann, während ich bei anderen auf Features verzichten muss.
StefanV
2001-05-04, 14:30:10
Nur sind wir solangsam an einem Punkt angelangt, wo Performance nicht mehr zählt, weil man davon genug hat!
Ich meinte damit ja, wer welches Feature eingeführt hat, also zum erstenmal benutzt...
Und die GF3 unterstützt EMBM doch auch nur, weil es von M$ für den PS verlangt wird...
Was ich vom VS halte dürftest du ja auch schon zu genüge wissen (kurz: Zu teuer, Sinn fraglich)...
Also die Brechstange, die NVidia bisher benutzt hat Funktioniert nicht mehr...
Also NVidia hat ein problem, da sie ja nunmal nicht die einfälltigsten sind...
Und mit der G550 Führt Matrox wieder neue sinvolle Features ein!
Daß sich Matrox aus dem Game Sektor heraushalten will ist auch noch nicht so sicher...
Ich hab letztens erst von Matrox eine Mail gekriegt (allgemeiner Newsletter), dadrin war von einem Matrox 3D Game Club die Rede...
Wie gesagt, Performance zählt so langsam nicht mehr...
Andre
2001-05-04, 15:00:26
Du gibst wohl die Hoffnung auf eine vernünftige Matrox-Gamekarte nicht auf, oder ?
Hoffentlich erlebst Du das noch mit Stefan, ansonsten kannst Du ja die Hoffnung an Deine Kinder weitergeben und die wieder an ihre Kinder usw. ;-)
StefanV
2001-05-04, 15:11:16
Eigentlich erwarte ich 'nur' noch die G550 mit 183-200Mhz Takt...
Also auf nivau der Radeon 64 Retail mit 5,5ns Ram (eher drunter)...
Und dann für lange Zeit nichts...
Andre
2001-05-04, 15:42:49
Na super, dass nenne ich Zukunftsfähigkeit !
Eine Karte rausbringen, die nicht schneller als andere ist und dann erstmal die Hände in den Schoß legen und wieder 1 Jahr nichts Neues rausbringen !?
kaasboer
2001-05-04, 16:36:49
Hi Andre,
du mußt mal auf www.matroxusers.com in den Foren stöbern, dann weisst du alles. ;-)
Aber selbst wenn man kein so beinharter Matrox-Fan ist, gibt es gute Gründe erstmal zu sehen, ob's von Matrox was neues gibt oder nicht. Ich zumindest sehe auf dem Markt keine Karte, für die ich jetzt meine G400Max ausbauen würde, irgendwas fehlt halt immer:
- Signalqualität
- vernünftiger Preis
- gute W2K Treiber
- gutes Dual-Head
- Support
- ...
Bevor ich mir also jetzt halbherzig etwas kaufe (z.B. eine Hercules 4500 oder Asus 7700), warte ich lieber noch eine kleine Weile. Wenn nichts gutes von Matrox kommt (ich habe keine Glaskugel wie Stefan ;-), kann ich immer noch einen Kompromiss eingehen.
cu,
kaasboer
(Millennium II, G200, G400 und G400Max)
Andre
2001-05-04, 16:38:30
Jedem das seine...
Frank
2001-05-04, 20:21:41
@Thowe
Wohl noch nie was von Number Nine gehört oder was. Die Karte hieß "Revolution" und der Chip "Ticket to Ride". Und der war damals ziemlich innovativ. - ja, auch ich bin Beatles Fan
@Andre
Nicht nur die Geforce 3 vereint alle Must-Have Features. Ich vermisse immer noch deine Meinung zur Radeon. Oder steht dein Kommentar dazu evtl. im anderen Forum?? Wer die Geforce3 mit all den "brauchbaren" Features haben will, bloß für ein paar (mehr) Hunderter weniger, der sich doch diese nette Karte holen, die immerhin etwas vorraus hat: Sie macht uns nicht zu Brillenträgern.
@Stefan
32bit Rendering hat wohl damals NumberNine mit ins Leben gerufen, da die den ersten (3d-gamer) Chip hatten, der explizit dafür gebaut wurde.
Dass Nvidia EMBM im GF3 hat, ist vollkommen logisch. EMBM versteht sich neben Dot3BM und nicht als Gegenstück dazu. Vielleicht hat Nvidia DOT3 damals anders positioniert, aber embm ist dummerweise (dumm für nv) viel zu einfach zu implementieren und die Effekte sind einfach genial im Vergleich zum Aufwand (RadeonsARK schon gesehen ??).
Frank
2001-05-04, 20:38:44
nochmal @Andre
Langsam reichts. Du plauderst hier von Links und Rechtsguggen und letztendlich bringt sich der Eindruck auf, daß bei dir nur einwas zählt: "meine Meinung".
Kein Grafikkartehersteller legt 1Jahr die Hände in den Schoß. Schon gar nicht Matrox. Also ich würde eine G450eTV in meinen Rechner bauen...
Der nächste Matroxchip wird wohl im Amiga sein, der im Sommer released wird.
Ich brauch keine 4 Grakas in meinen Rechner bauen, es reicht eine preiswerte Radeon SDR!
Thowe
2001-05-04, 20:55:25
@Killerwahn
Number Nine kenn ich persönlich seit Jahren (Seit S3 928 Zeiten), gut fand ich damals auch das die halt den Savage4 verarbeitet haben. Naja sind ja auch irgendwann an S3/Diamond gegangen.
Mein Spruch ging ja auch nicht gegen #9 sondern eigentlich gegen die GF3 Karten die ich momentan einfach wirklich für überflüssig halte.
@All
Denke das wir die Qualität der GF3 Karten in ca. in 5-10 Tagen genauer kennenlernen werden und dann ist der richtige Zeitpunkt gekommen ernsthaft über die Karten zu diskutieren. Vor allem welche Fehler noch auftauchen werden.
Frank
2001-05-04, 21:01:49
@Thowe
Ach ja, .. Number Nine .. Hatte auch eine S3 928 damals.
Ich kann die sagen was beim GF3 schon mal entäuschend ist: Die schlechte Signalqualität. MIESER als Radeon und im Vergleich zu Matrox einfach nur zum Brille tragen ...
Sind die zu blöd dafür sich darum mal zu kümmern??
Wie oft wurde dieses Thema jetzt schon durchgekaut? Ich weiß es, ich hab nachgezählt ... ungefähr 342352,25 mal ... und es wird nochmal so oft durchgemampft, weil einfach jeder hier seine Eigene Meinung hat.
Ich finde jeder soll sich das an Hardware (vor allem bei GraKa's) kaufen, was für ihn seiner Meinung nach genau das richtige ist.
Ich lege besonderen Wert auf Performance (und WARUM will ich jetzt NICHT diskutieren, es IST halt einfach mal so) ...
Mir persönlich ist es wurscht welch Innovationswellen Nvidia lostritt oder nicht lostritt ... Fakt ist, das die gängigsten Features auf der Karte vorhanden sind - ob die jetzt von Nvidia kommen oder nicht, das ist mir im Grunde genommen Jacke wie Hose.
Ich kaufe mir auch im Leben keine Matrox-Karte mehr. Dafür wurde mir von deren Seite (was meinen Hauptpunkt PERFORMANCE angeht) schon zuviel versprochen und nicht eingehalten.
WENN Stefan Nvidia-Fan ist, hält er sich meiner Meinung nach wesentlich besser zurück als "Fan's" von anderen Lagern (man nennt mal keine Namen *g*) ...
Und so hat jeder seine Meinung ... :D
Gruß,
-Kai
Thowe
2001-05-04, 21:19:27
@Killerwahn
Die Karten würden dann wahrscheinlich zu teuer werden ...
und mir seit Jahren ein Rätsel warum nur noch ATI und Matrox in der Lage sind sowas wie Signalqualität hinzukriegen.
Aber wer mal eine G450 in der Hand hatte und dann irgendeine Referenzdesign-Karte von Nvidia wird schon mit blosen Auge erkennnen das die Matrox besser verarbeitet ist, wirkt einfach viel hochwertiger.
Ich denke auch das Matrox bald eine UpToDate Karte bringen wird und zum Zeitpunkt wenn GeForce3 erforderlich wird halt passend die nächste Karte.
Das Nvidia es schafft die Spielehersteller dazu zu bringen die GeForce3 als must-have zu promoten ist auch nicht anzunehmen, die GF3 wird keinen hohen Marktanteil gewinnen. Das vereinzelnt irgenwelche Programmierer irgendwelcher Softwarehäuser über die GF3 schwärmen ist klar, aber die Verleger werden die schon auf den Teppich halten.
Frank
2001-05-04, 22:40:49
@Kai
Die Zahl, wie oft wir das Thema durchgekaut haben ist glaub ich ein Element der natürlichen Zahlenmenge und irgendwie zwischen 0 und der Anzahl der gesamten Postings von 3DCenter.
Matrox hat noch nie zuviel versprochen, was Performance angeht. (Was noch lange nicht heisst, dass die gut ist) Genauso wenig wie Matrox ständig den (evtl.) neuen Chip verschiebt, einfach weil er noch nie angekündigt wurde. Was sollte man also verschieben??
StefanV
2001-05-04, 22:44:29
Wenn ich bei meiner G400 richtig schätze, dann sind da mindestens 200 Bauteile drauf...
Wieso halten mich eigentlich manche für einen NVidia Hasser?
Seht mich doch einfach als Kritiker!
Jemand, der die Unternehmen seit Jahren Beobachtet...
Halt SEHR Kritisch...
Hört sich halt manchmal so an, als ob ich einige in den Himmel lobe, und andere niedermach...
@Killerwahn
Daß #9 die ersten Karten hatte, das wußte ich nicht...
(auch ich kann nicht alles wissen...)
Was ich weiß ist, daß die G200 die erste Karte war, danach kam die TNT, die den 32bit Modus anscheinend in letzter Minute verpaßt bekommen hat...
Siehe Benchmarks aus dieser Zeit...
Die TNT bricht ein, die G200 nicht sonderlich...
Warum ich so auf NVidia rumhacke?
Weil die einfach nicht gebacken kriegen, einige seit der TNT bekannten Bugs auszumerzen, ja sogar einige Bugs, die die NV3 hatt, finden sich noch in der TNT!
Weil einfach nur der Zeitplan eingehalten werden muß!
Soetwas nenne ich 'Brechstangentaktik'!
Iaaaa, da geb ich Dir diesmal Recht, Stefan! Vor allem der Kompressionsbug nervt ziemlich ab und das bekannte "Workaround" ist eher eine Verarschung als eine Lösung.
Gab's noch wichtigere Bugs?
Gruß,
-Kai
StefanV
2001-05-04, 23:09:38
Was mich erhlich gesagt richtig stutzig macht, ist die Tatsache, daß Matrox verlauten läßt, daß man sich aus dem Game Markt zurückziehen will, dann verschicken sie aber Mailst, in denen von eienem Matrox Gaming Club die Rede ist...
Irgendwie ist das ja unlogisch...
Genau, wie die Tatsache, daß Matrox auf der Seite das 'Enhanched Game of the week' vorstellt...
Außerdem sind mir 1,5Mio Game PC's ein bißchen wenig!
Auf welches Land beziehen sich 1,5Mio?
Sicher nicht Weltweit, und demgegenüber stehen 55Mio Büro PC's...
Sind in dieser Rechnung auch die billigen PC's mit Onboard Grafik enthalten?
Die Bürorechner werden wohl alle Kompakt PC's werden, was bleibt übrig?
Richtig:
Game
Professional (mit Game Chips möglich!)
Und Special.
Mit Special meine ich Spezialisierte Karten, wie z.B. die G200MMS.
Man kann auch noch Multimedia dazurechnen, z.B. die Radeon AIW...
Versteht ihr, was ich meine?
Am Ende bleiben nur die Gamer übrig!
Wann das ist weiß noch keiner...
StefanV
2001-05-04, 23:12:15
In Final Fantasy 7 und 8, häßliche 'Kästche' mit NV3 und TNT, jeweils in std...
Ali V, muß ich noch mehr sagen?
Mir scheint es, als hätten NVidia Chips geringere Toleranzen auf dem AGP...
Thowe
2001-05-04, 23:13:53
Der grösste Bug von Nvidia ist das die versuchen ihre Kunden zu melken. Irgendwann lässt sich das keiner mehr gefallen.
Die GF3 für umgerechnet 1.400,- wurde überall als zu teuer abgelehnt, warum senkt Nvidia dann erst die Preise und geht nicht gleich mit realistischen Preisen auf den Markt?
Warum macht Nvidia nicht gleich eine abgespekte Version der GF3?
Ich kann nur hoffen das die Karten in den Regalen liegenbleiben, so ist Nvidia halt gezwungen etwas über ihre Politik nachzudenken.
BTW: Ich halte die GF3 nicht für ein schlechtes Produkt und ich bin auch kein Nvidia hasser aber man muss die Konkurenz fördern ansonsten sind wir als Kunde diejenigen die in Zukunft dafür zahlen.
Frank
2001-05-04, 23:33:23
@Stefan
Der Ticket to Ride hat schon 1997 sowohl einen 128bit Chip als auch einen vollwertigen 128bit Speicherbus. Die Speicherchips waren WRams, die besser performten als SGRams. Man hatte schon erkannt wo der Flaschenhals von 32bit rendern ist. Kannst du auch in c't nachlesen (8/97 oder vom Ticket to Ride IV 18/98).
Frank
2001-05-04, 23:38:37
@Stefan
Der Ticket to Ride hat schon 1997 sowohl einen 128bit Chip als auch einen vollwertigen 128bit Speicherbus. Die Speicherchips waren WRams, die besser performten als SGRams. Man hatte schon erkannt wo der Flaschenhals von 32bit rendern ist. Kannst du auch in c't nachlesen (8/97 oder vom Ticket to Ride IV 18/98).
Ansonsten Stefan ein Tip. Glaub nichts was du über Matrox ließt. Das ist doch fasst alles nur Verarsche. Ich glabe erst was über die Specs, wenn ich die auf www.matrox.com lese. Und wenn ich die dort lese, weiss ich auch, dass 3 Tage später das Ding im Laden auf uns wartet. Warten wir auf den neuen Amiga.
Bei den Bugs vom TNT hast du ein was vergessen: Die Filterqualität ist unter aller Sau bei Steigender Detonator Zahl. Mit Det1 OK ... Bei Det3 einfach nur hässlich.
StefanV
2001-05-04, 23:47:24
Jetzt kann ich nochmal über den VS herziehen:
Der Vertex Shader wird fast überall in höchsten Tönen gelobt, nur hat jemand mal daran gedacht, wie groß er sein könnte?
Pi mal Daumen so ca. 50mm²
Ich denke, daß die GF3 so um die 150mm² groß sein wird!
Mit anderen Worten:
Vielzuviel Silizium, für zu wenig Nutzen!!!!
schimmi
2001-05-04, 23:54:27
@killer
jesch-jo, die ttr4 hat gerockt. damals war das eben noch was ECHTES: ein guter kompromiß aus leistung, qualität und preis.
das vermisse ich heutzutage. vor allem nervt mich, daß ein so grundlegendes thema (ja, bildqualität!!!) einfach so abgehandelt wird. mein augenarzt hat folgenden satz rausgehauen, als ich einen sehtest fürs auto brauchte: "achso, sie haben seit 19 Jahren keine Brille? dann brauchen sie jetzt auch keine mehr, obwohl ihre augenwerte nich normal sind. eine brille hilft da nicht mehr..."
nun.
danke.
verantwortlich dafür zeichne ich meine damals [beschissene] anordnung aus monitor und grafikkarte. der monitor wurde recht zeitig ersetzt, die grafikkarte aus kostengründen nicht. um so mehr freute ich mich auf meine [jahre später erworbene] RivaTNT. aber irgendwie bremste sich die freude aus: grafikqualität=obermies. Da war die Qualität besch***** als das Bild der alten S3. Scheiße. Ich dachte immer, mein monitor sei kaputt, aber war doch nur die graka.
erst ein umstieg auf eine andere karte brachte erfolg....
insgesamt kann ich sagen, daß aus meinem werdegang der grafikkarten:
c64blitter->amiga500[ecs]->amiga1200[aga]->s3trio32->s3virge->riva128->s3savage3d->rivatnt->vodoo banshee->s3savage4->rivatnt2vanta->ati rage fury maxx->geforce sdr->ati ragefurymaxx->matrox g400->geforce ddr->ati rage fury maxx->atirage6c
die karten von nvidia die bekloppteste signalqualität hatten (abgesehen vom c64) und das absolute highlight die matrox g400m war. aus diesem kühnen grunde habe ich auch meine geforce-karte (ALLE BEIDE) wieder verscherbelt.
naja, ich mag eben meine augen...
Ich kam neulich auch vom Augenarzt. Hab noch nie ne Brille gebraucht, jetzt hab ich eine - aber ob das auf die Signalqualität zurückzuführen ist ... ich weiss nicht ;)
So Jungens, ich hau mich in die Falle ... ich werd beim träumen die Geforce 3 mal antesten und euch Morgen früh bescheidposten wie sie läuft und was halt wirklich scheisse dran ist! :D
Gruß,
-Kai
schimmi
2001-05-05, 00:06:27
na dann träum schön vom alptraum...
Thowe
2001-05-05, 00:14:45
Hmmm ...
nur die blinden greifen zur Nvidia?
Die schlechteste Karte die ich je kenngelernt habe war die Speedstar A90, damals dachte ich echt das ich kurz vorm erblinden bin. Ich hatte die im Brenn-Rechner aber selbst für 5 min. am Tag war das Bild zu schlecht.
Frank
2001-05-05, 00:15:55
@maXXman
Ich find es immer wieder genial, wenn GF2 Leute verzweifelt an der Konvergenz ihres guten 19ner Trintrons rumstellen und trotzdem nichts rauskommt.
Hab ich bei Planetmatrox gelesen:
"Die 2D-Bildqualität der Gladiac 920 ist auch bei hohen Auflösungen von 1280x1024 und 1600x1200 unter Windows 9x noch recht gut. Mein subjektiver Eindruck auf einem (günstigen) 19"-Monitor war, dass die Gladiac 920 in dieser Disziplin geringfügig besser ist als die Hercules 3D Prophet II Ultra und geringfügig schlechter als die ATI Radeon 64MB ViVo. Eine kurze Gegenüberstellung von Gladiac 920 und Matrox G400 bei einer Auflösung von 1024x768 mit einem hochwertigen 17"-Monitor ließ die neue Karte allerdings alt aussehen. Die Buchstaben kommen eindeutig verwaschener daher als bei der Matrox G400. Hier hat sich bei NVIDIA bzw. den Kartenherstellern offenbar wenig getan. Allerdings ist das auch eine Frage der Gewöhnung, denn ein paar Tage mit der Gladiac 920 und man vergisst, wie gut die Qualität der G400 war... "
schimmi
2001-05-05, 00:28:19
@thowe
echt, so schlimm? was warn dir speedster a90 überhaupt??
@killer
naja, da gibt's ja noch die möglichkeit, den 19"er abzuschalten, dann sieht man nix mehr von bildqualität...
oder kabel durchhacken.
oder in badewanne schmeißen.
Frank
2001-05-05, 00:42:51
@maXXman
Konstruktiver können die Vorschläge an die nVidia Leute wohl nicht sein?? Wohl schon etwas spät jetzt??
Andre
2001-05-05, 00:49:17
@ Killerwahn
Das mit dem lange wird nichts von Matrox kommen stammt von Stefan nicht von mir, ich habe lediglich diese Aussage etwas zynisch kommentiert, ok, dass gebe ich gerne zu.
Und wenn Du meine anderen Posts gelesen hast, wirst Du entdecken, dass ich mehrfach die Radeon bzw. Radeon II im gleichen Atemzug wie die Geforce-Familie genannt habe.
Ergo: Ich sehe die Radeon auf dem Level der Geforce-Karten und das meine ich ohne Abstriche. Da ich aber Geforce-User bin, gehen meine Äußerungen nunmal in die entsprechende Richtung, da ich nicht wie viele andere versuche, etwas zu beurteilen, was ich selbst nicht in meinem PC stecken hatte.
Meine Posts in diesem Forum sind dadurch sicherlich entsprechend gefärbt, aber dafür gibt es andere Mods, die andere Auffassungen, aber vor allem Erfahrungen haben und von denen lasse ich mich gerne belehren und aufklären.
Um es deutlich zu sagen:
Wenn mir jemand aufgrund von persönlichen Erfahrungen Hintergründe oder Auskünfte gibt, die mir zeigen, dass andere Hersteller besseres leisten, dann sehe ich das und berücksichtige es auch logischerweise in meiner Meinung.
Wenn aber jemand über etwas urteilt, dass er weder selbst über ein gewisse Zeit genutzt hat oder was noch gar nicht auf dem Markt ist, dann frage ich mich, wie dieser das beurteilen kann und somit fehlt es dann an dem bischen Glaubwürdigkeit.
Ein Beispiel:
Wenn jemand in dieses Forum postet, dass er Probleme mit einer Matrox-Karte hat, dann halte ich mich meistens gepflegt zurück, anstatt solche Super-Ratschläge wie "Schmeiss die Sch***-Matrox Karte raus" zu geben.
Denn ich habe persönlich kaum Erfahrungen mit Matrox-Karten, sie beschränken sich auf Benchmarks, die ich regelmäßig lese.
Wenn aber jemand Problem mit seiner Nvidia-Karte hat, kann ich sehr wohl etwas dazu sagen, da ich persönliche Erfahrungen habe.
Das bedeutet aber nicht, dass ich ein Nvidia-Fan bin, sondern bedeutet nur, dass ich hier eine gewisse Hilfestellung geben kann.
Ich denke, dass ich jetzt einiges klargestellt habe und hoffe, dass wir dann über vernünftig reden können, wenn die Karten, von denen wir alle reden, endlich auf dem Markt sind.
schimmi
2001-05-05, 00:49:21
@ killer
ey, das sind SACHLICHE hinweise. immer noch besser, als den ramdac aus der geforce zu hacken und nen neuen einzusetzten. oder kondensatoren nachzulöten. oder weiß der kuckuck was noch alles.
StefanV
2001-05-05, 09:27:43
@Andre
Mit dem Unterschied das Matrox fas Plug&Play ist...
Selten Probleme...
Aber ich muß ehrlich sein:
ATI hat aus den Fehlern der vergangenheit gelernt!
NVidia wird von vielen Händlern gerne verkauft, da es auch billigst Karten gibt, und sie halt öfter mal mucken, und dadurch wieder Geld in die Kasse gespült wird...
Originally posted by Andre
Wenn aber jemand über etwas urteilt, dass er weder selbst über ein gewisse Zeit genutzt hat oder was noch gar nicht auf dem Markt ist, dann frage ich mich, wie dieser das beurteilen kann und somit fehlt es dann an dem bischen Glaubwürdigkeit.
... Du sprichst mir wiedermal aus der Seele! ...
Gruß,
-Kai
Frank
2001-05-05, 22:16:28
@Andre
Ich glaube ob von Matrox nun noch was kommt oder nicht, egal, darüber brauchen wir uns nicht streiten. Dein Kommentar dazu ... na ja. Ich wiederhole mich aber noch mal, würdest du das neueste Produkt von Matrox ablehnen?? (Marvel G450eTV) Glaub ich kaum. Also. Spätestens wenn der Amiga released wird, wissen wir mehr.
Im Zuge der Diskussion hatte ich dich nach deiner Meinung als Nvidia-Nutzer gefragt, was du nun von einer Radeon SDR hältst. Da sich nun alles um Features und DX8 drehte, welche bei der GF3 in den Himmel gelobt werden, aber bei der Radeon keine Beachtung finden. Toll diese Objektivität. Auch mit einer Radeon kann man diese tollen Bildchen auf den Monitor zaubern. Zumal die Karte 800DM billiger ist. Deine Objektivität zweifele ich mal stark an hier, auch glaube ich nicht, dass du schon RadeonsARK gesehen hast. Ausserdem vermisse ich immer noch ein Kommentar zu genau diesem Thema. Ich hab keine Lust hier alles durchzuwühlen im Forum.
Ich glaube auch du hattest noch keine GF3, um die es hier geht. Ebenso keine Radeon. Oder eine Ticket to Ride.... (letzte Scherz). Ich beziehe mich hier nur auf Tests im Internet. Der Kommentar oben von Planetmatrox ist kein Fake! Über was anderes meckere ich hier auch nicht rum. Um es auf den Punkt zu bringen. Alle loben doch ach so toll die Fähigkeiten der GF3 – Bei der Radeon werden Sie übersehen.
GENAU DAZU will ich DEINEN Kommentar!!!
Hab ich schon mal jemanden gesagt er soll seine Graka rausschmeissen, wegen Prob’s...??? Eigentlich nicht. Aber dazu eine Story:
Mein Kumpel holte sich annodazumal ein Athlon600 + Shuttle AI61 mit GF-DDR und 512MB Ram (ja, 300Watt). Lief aber nicht oder besser immer nur 2min. Er wechselte das Board: Epox 7KX oder so. Lief immer noch nicht. Dann hatte er das Asus K7V – nichts. Dann das A7V – nichts. Und dann kam die Zeit, wo der 6.50 Deto. rauskam. Und auf einmal lief alles. Nach 1Jahr hatte er ein funktionieren Rechner. Und nur weil die GF-DDR mit den 512MB Modul nicht wollte, was danach auf einmal ging. NACH 1JAHR. UND 3Mainboard. Und Unmengen Geld im Eimer. Warum?? Wegen nVidia. Was ich solchen Leuten nun empfehle?? Karte raus Andere rein. Richtig!! Der nette Mensch verbindet nVidia nur noch mit Gedanken wie: „wo war noch mal deren HQ?? Salpeter + Kohlenstoff ...“
Also ich warte jetzt auf die Antwort zu meiner Frage...
@Stefan
Fang nicht immer zu jedem Zeitpunkt mit Matrox an. Das lenkt ab und lässt Andre das Messer in der Tasche aufspringen. Mach doch lieber einen neuen Thread auf, wo wir uns über diese nette Firma etwas Honig um den Mund schmieren können. Ausserdem bist du nVidia Nutzer – genauso wie Andre und Kai. Aber bei lösst der Besitz deiner Elsa eher das Gegenteil aus.
@Kai
auch Stefan spricht mir oft aus der Seele...
@All
Welcher Depp ist bei nVidia für die Namensgebung zuständig?? Ich will in 10 Jahren keine Geh Furzen 12 im Laden sehen. (@Kai & Andre: überlest diesen Komment, is’n Scherz)
Thowe
2001-05-05, 22:41:54
Hmm, will ja kein Salz in Wunden streuen ...
Das Matrox Techdemo von der CD der G400 mit der Fee und den Brunnen usw. find ich auch klasse.
Die Nvidia ToySoldier Demo find ich auch wirlich nett.
Die RadeonArk Demo ist wirklich in jeder Beziehung klasse.
Das Temple Demo für die Kyro ist optisch genial, da verzichte ich gerne auf T&L.
heisst einfach das alle Karten irgendwelche Nettigkeiten hinbekommen, aber die Radeon ist meines Erachtens wirklich weit unterschätzt worden.
BTW: Habe ich momentan eine Kyro im Rechner, eine Radeon DDR im Zweitrechner, eine Savage4 im Drittrechner, eine GeForce2MX im Schrank. Den Rechner mit onBoard SIS300 zähle ich mal nicht mit.
Betrachte mich auch mal als @All, denke Nvidia hat nicht vor einen bekannten Markennamen durch etwas unbekanntes zu ersetzten, es sein denn das der irgendwann einen bitteren Beigeschmack entwickelt. ???
Wie wäre es die Diskusion endlich auf ein Nenner zu bringen oder wirklich zu warten bis echte GF3 Erlebnissberichte vorliegen.
@MaXXmen - Die Speedstar A90 war eine Savage4 Version mit 32Bit MemoryInterface ... ein echter Renner. LOL.
schimmi
2001-05-05, 22:49:37
@ thowe
autsch. echt so schlimm??? zähle die karte doch zur sis...
was die techdemos angeht: da gab es immer schon seitens der hersteller diese nett anzuschauenden demonstrationen nie dagewesener feature. in jeder hinsicht: im demo sah man die, in spielen sah man sie nicht. (z.B. EMBM - sieht echt geil aus, die meisten spiele unterstützen aber nur Pratzen dot3)
StefanV
2001-05-05, 22:53:32
Ich glaub, wenn ich 'ne Radeon hätte, dann würde ich auch teilweise darüber Meckern...
Wie war das nochmal mit diesem Lüfter???
Thowe
2001-05-05, 23:01:00
@Stefan - Der Lüfter ist eine Katastrophe ... ist ja eigentlich nicht laut aber klingt wie Kreide auf der Schultafel. Ist mir wirklich ein Rätsel wie ATI das hinbekommen hat ganau so einen Ton hinzubekommen. Aber es gibt ja Alternativen von Titan oder in meinen Fall hab ich da eine neuen Kühlkörper mit 5x5 Lüfter auf 7V drauf. Bei Bedarf geht auch ein 8x8 da er mit den Kühlkörpern auf den Speicher abschliesst.
@maXXMan - die SIS ist 1000x besser ... da kommt doch sowas wie Signalqualität raus.
Originally posted by Killerwahn
@All
Welcher Depp ist bei nVidia für die Namensgebung zuständig?? Ich will in 10 Jahren keine Geh Furzen 12 im Laden sehen. (@Kai & Andre: überlest diesen Komment, is’n Scherz)
Ohne Witz, ich geb Dir in dem Punkt aber hundertpro Recht! Als ich hörte, das der NV20 "GeForce 3" heissen wird, hab ich mir an den Kopf gepackt.
Warum nicht "GayForce" ? :D Nanana, wir wollen doch Oppositiv bleiben, ich kauf mir trotzdem eine ;D
Hähähä! Nieder mit der Inquisition! :)
Frank
2001-05-05, 23:22:25
Bei den Lüftern siehts bei nVidia auch nicht rosig aus. Ich denke da gerade an die Annihilator von Creative...
Es gibt auch Karten die haben keinen Lüfter... (MX,...)
Apropos.. wir können jetzt eigentlich auch mal über den Geforce 2 Go herziehen. (HMPF , schon wieder GeFo) Wer hat diesbezüglich Interesse?? Wer kann/will mitreden?? Hat Andre ein Notebook??
@Kai
"Gay Force"; Der ist verdammt gut. Merk ich mir.
Andre
2001-05-05, 23:36:37
Sag mal bin ich blöd oder lese nur ich mein Posting, wo ich gesagt habe, dass die Radeon ebenbürtig ist ?
Richtig, ich hatte keine Radeon und auch keine Matrox, bis dato habe ich dazu keinen Grund gesehen, da ich bis jetzt ganz zufrieden bin.
Mein Leben besteht noch aus anderen Dingen, also brauche ich nicht unbedingt High-End um glücklich zu sein.
Und wie ich sagte, urteile ich nur über Dinge, die ich selber gesehen und getestet habe.
Aber alles was ich von der Radeon gehört und gelesen habe, bringt mich genau zu der Meinung, die ich in meinem vorherigen Posting dargelegt habe.
Da bin ich einer Meinung mit Thowe.
Tu mir einen Gefallen und schiebe mich nicht in eine Schublade, wo ich weder reingehöre noch rein will.
Ich hab nur keine Lust, dass andere ständig ihre Matrox und Radeon über alles loben und noch viel weniger von ihrer Meinung abweichen als ich.
PS: Ein Notebook habe ich nicht, aber wenn es Dir Spaß macht, dann kannst Du von mir aus über die Geforce 2 Go herziehen, ich lebe mich anders aus.
Frank
2001-05-05, 23:58:12
@Andre
Schon wieder...
Die Radeon ist ebenbürtig wozu?? Egal. Ich habe dein Posting gelesen. Wo ist Radeon SDR High End?? Ich diskutiere gerade über Features, die beim ATI Chip alle übersehen, aber beim GF3 eine "Hammwolln" Welle auslöst. (Man wie oft sage ich das hier schon!!) Dazu brauchst du die Karte nicht im Rechner gehabt zu haben.
Ich schiebe dich in keine Schublade, da manövrierst du dich höchstens selber rein.
Und jetzt geh all meine parrund40 Postings durch und zeige mir wo ich meine Matrox gelobt habe. Sowas macht hier keiner. ? Man sagt höchstens: die Leistung ist OK, ich bin zufrieden,... Aber nicht sowas wie: Holt euch alle die Karte die ich auch habe.
Über den Geforce2Go brauch man nicht herziehen. Der Chip ist ein Witz (auf Notebookebene). Aber über eine Diskussion über Notebookchips würd ich mich mal freuen.
noch zum Schluß: Macht Spaß mit dir zu diskutieren. z.B. Stefan nimmt mir immer das Wort vom Munde.
schimmi
2001-05-06, 01:18:56
@killer
hmm, der gf2go is an sich nicht schlecht (leistungsmäßig, auf notebook-ebene, versteht sich) nur frißt der ZU_VIEL_STROM. Zwar wird beim Chip selbst 2,8W angegeben, jedoch ohne (!!!) Speicherchips. und die ziehen ja bekanntermaßen den meisten saft. hier ist der radeonmobility besser dran, er zieht mit 2,3W nicht nur weniger Strom, sondern hat auch schon die Grafikchips integriert. WAS HAT SICH NVidia NUR DABEI GEDACHT??? Ofen? Richtig! Leider zeigt sich, daß man mit einem großen Namen mehr erreichen kann, als mit einem besseren Produkt: Während Dell und Toshiba schon NVidia-Chips in ihre Notebooks bauen, haben ATI sowie Mitstreiter S3 Graphics (SuperSavage MX/IX) noch kleine Verträge. Wen wundert's.
Thowe
2001-05-06, 01:22:50
Obwohl ja gerade die S3 einfach genial für ein Notebook sind... Naja demnächst gibt es ja Brennstoffzellen für Notebooks dann erübrigt sich das ja eh.
schimmi
2001-05-06, 01:33:27
was leistung und verbrauch angeht, kannste den S3 aber kniggn. einfach nur schlecht.
Andre
2001-05-06, 01:38:38
@ Killerwahn
Wir drehen uns hier im Kreis und ich habe ehrlich gesagt wenig Lust, mich nochmal zu wiederholen.
Ich denke, jeder hat gesagt, was er sagen wollte und gut ist.
Wenn bei einer Diskussion die Essenz fehlt, sollte man aussteigen.
PS: Warum habe ich das Gefühl, dass das mit dem "Es macht Spaß mit Dir zu diskutieren" nicht wirklich ernst gemeint ist ??
Nu kommt schon, wenn wir hier weiter streiten, fängt der Thread noch Feuer :)
@ Killerwahn ... wir holen uns ja doch genau das, wovon wir denken das es letztenendes das richtige für uns ist, oder nicht? Ich hab's schonmal gesagt ... mir (und das erklärt auch, warum die features einer ati-karte keiner lobt) und vielen vielen anderen ist die Implementierung von Performance und den gängigen Protokollen wichtig! Und das hat bisher keiner geschafft, als Nvidia. Gut, 3Dfx ist raus aus dem Rennen, aber ich war eh nie wirklich 3Dfx-Fan.
Daher interessiert keine Sau, ob ATI jetzt dies oder das, oder Matrox EMBM erfunden haben - weil sich eben keiner diese Karten kaufen wollte, da der Speed (meiner Ansicht nach eines DER wichtigsten Argumente einen Beschleuniger zu kaufen) nicht ausreichte.
Beim Geforce2 go kann ich im übrigen nicht mitreden. Nur das ich wohl nicht auf die abgrundtief komische Idee käme mit meinem Notebook zu zocken ;)
Unregistered
2001-05-06, 11:55:23
Hey ich wollte keinen Glaubenskrieg auslösen, ich wollte nur
wissen wann man die Dinger kaufen kann sonst nix...Und an den Rest der Welt......Es wird immer zwei arten von Hardwaremenschen geben die einen die alles ausprobieren (zu dennen gehöre ich auch, gibt nix was länger als 1/2 Jahr im rechner ist) und die die immer nur schreien "JA ABER" aber so eigentlich selber gerne so ne karte hätten. Ich kann nur von meiner Seite sagen meine erste Voodoo kostete 600 ,-
meine Voodoo2 SLI lösung damals 1379,- DM meine G400 ca.500,- meine GTS2 wieder 700,- hmmm also wo ist die Geforce3 jetzt ?? 999,- also wo is das Prob.....
Mein erstes Auto kostete neu damals ca..25000 DM, hmmm Golfklasse...mein jetziges AUto 50000,- ok mittelklasse..
is nu mal lauf der welt das neue Dinge Teurer werden...
Also leute Arbeiten und nicht meckern....hehehe
LOL...;-))
MFG
Kellwolf
StefanV
2001-05-06, 11:59:59
@Kai
Das Problem ist doch, daß jeder Benchmark nur die Durchsnittlichen Were angibt, und nicht die Worst Case!
Dann würde die Radeon auch die GTS locker in die Tasche stecken!
Die Radeon ist nicht langsamer als eine vergleichbare GeForce, sie erreicht nur halt nicht diese schwachsinnigen 100fps...
Ist es nicht viel wichtiger, daß eine Karte eine Konstante Performance liefert?
Und genau an diesem Punkt ist die NVidia Konkurenz viel besser...
Kai, du beweist mal wieder, daß die Brechstange immer noch funzt...
Nein, nein, nein! Es gibt VIELE Fälle in denen sich 100 fps PLUS eindeutig als Vorteil erweisen.
Gut, das ewige rauf und runter bei den Benchmarks der nvidia-Karten nervt schon ziemlich, aber wie schon gesagt - auf meinen Spielertypus hin abgestimmt ist und bleibt die Brechstangenmethode angemessen!
Es gibt ne Menge Games in denen es einen Heidenunterschied darstellt, ob ich 50, 100 oder sogar 200 fps habe.
Davon abgesehen ... wer hat schon so ne schönere Brechstange als nvidia? :D
Unregistered
2001-05-06, 15:38:17
@ unregistered
Na toll. dir ist als latte, ob dein 50.000DM Auto nur 50KMH fahren würde, wenn du nur nach dem Preis gehst??? geh' lieber nach preis/leistung, da kannst du später mal sagen: ja, der kauf hat sich echt gelohnt.
Andre
2001-05-06, 18:36:06
Ich würde sagen, Kai ist alt genug, um das selber zu entscheiden, also lass ihm doch einfach seine Meinung, schließlich tut er was für die Markwirtschaft und erhält Arbeitsplätze ;-)
Thowe
2001-05-06, 18:47:10
Genau, ausserdem brauchen wir ja auch jemand im Forum der dann seine Erfahrungberichte postet.
Also Kai, ran an die Karte und testen bis die qualmt!
Zitrone
2001-05-06, 18:53:13
Ist auch für TIERVERSUCHE !!! Kai 4 Versuchskanickel !!!
-B@lu-
2001-05-06, 21:09:54
Kai nen mir die Spiele wo mehr als 80 Fps einen unterschied macht ????? unter 80 FPS tut es das nämlich sehr wohl... und wenn meine Geforce zwischen 40 und 150 rumschwankt während die Radeon oder Kyro 60 bis 100 liefert weiss ich GENAU welche karte ich nehme... nämlich die, die mich gerade DANN wenn ich sie am meisten brauche ( nämlich in Riesen Gefechten aller Tribes2 ) NICHT im Stich lässt...
mein Senf
:puke:
-B@lu-
@ Balu ...
Schonmal alle Games mit der Q3A Engine. Ich kann den Unterschied (auch wenn Du mich jetzt für bekloppt hältst) mit blossem Auge sehen. Wie schon gesagt, mein Kumpel und ich haben da immer Wetten gemacht - er hat die FPS auf eine bestimmte Zahl begrenzt und ich hab sie bis auf 10 genau erraten können - immer.
Also sei das Argument mal vollkommen ausgeräumt. Aber bleiben die Kyro's wirklich so konstant? Na, das will ich erstmal sehn ... das mein ich sogar ernst, ich müsste den Unterschied halt einfach mal sehn ... ich hab viel zu oft Dingen getraut von denen ich keine Ahnung hatte - am Ende stand ich dann mittem im Salat.
Ährem, was die Sache mit dem "Versuchskaninchen" angeht - ich bin hier sicherlich NICHT der erste mit ner Geforce3 ;) Dafür halt ich noch meine Hand ins Feuer, hehe ...
Heute war ich mal ein bisschen in der Tribes2 InGame Community unterwegs - da habe ich bereits einige Erfahrungsberichte mit der GF3 erlesen können. Man stelle sich vor, einer hat es doch tatsächlich fertiggebracht 450 $ für ne GF3 auszugeben und die in seinen P3 450 zu stecken :D Alle anderen haben wirklich (natürlich in erster Linie in Tribes2) einen gewaltigen Performanceschub bemerkt. Da ist 1024x768x32 + 2X AA kein Thema - mit 75 fps outdoor, 170 fps indoor.
Nicht das ihr mich falsch versteht, ich bin mir der Nachteile des GF3 ebenso bewusst wie der Vorteile, aber ich brauch halt jetzt langsam ne neue Grafikkarte. Viele Games kann ich mir "nur" noch in 16bit antun - und das nicht gerade bei ner tollen fps-Rate. Sicher warte ich noch etwas, bis der Preis etwas nachgibt (und die Sache mit den Steppings sicherer ist).
Im übrigen - alle die auf 2D-Qualität pochen, viele Ammis in der T2 Community berichteten, das die GF3 diesbezüglich wesentlich besser performen würde als ihre Vorgänger.
Gruß,
-Kai
Frank
2001-05-06, 22:49:05
@Andre
Das du immer so toll auf meine Postings eingehst (ironisch). Das mit den Spass mach war ernst( nicht ironisch)
@Thowe
Der S3 Mobile Savage ist nicht gerade der Hit fürs Notebook. Was ihm fehlt sind z.B. die Hochskalierung von niedrigen Auflösungen auf die Auflösung des TFTs. Dort werden wenndann externe Chips benötigt. Ausserdem ist der Multimonitorsupport im Vergleich zur ATI nich ganz so gut.
Thowe
2001-05-06, 23:33:45
@Killerwahn
Also die meisten werden bei ihren Notebook eh nur eine Auflösung nutzen und das nur auf den eingebauten TFT. Aber der SuperSavage taugt halt für die ganz kleinen Notebooks, die man dann wirklich den ganzen Tag spazieren tragen kann. Das Ultimative ist er vielleicht nicht, aber er hat einige Vorteile für den Hersteller des Notebooks und nicht zu vergessen der Preis. Der Verbrauch von 2W oder weniger gegenüber den 2.8W von Nvidia ist auch nicht zu unterschätzen, dazu kommt das es den IX halt mit on-package memory option gibt. Das macht höchstens den Radeon Mobility noch zum Konkurenten.
Aber vermutlich wird doch der GeForce2 Go 100 in fast jeden Notebook sinnlos Strom verbraten. ???
StefanV
2001-05-06, 23:41:55
@Kai
Die Kyro II schafft keine Hohen FPS, wie sie die Brute Force schaffen...
Dafür sieht es in 'worst Case' Szenerien besser aus...
Theoretisch jedenfalls...
Versuch mal eine Map, in der es nur zur sache geht...
Die Kyro hat ja nicht solche hohen Füllraten, wie es die anderen haben...
Alles wird halt aus der Architektur rausgeholt...
Frank
2001-05-07, 18:45:01
@Thowe
Du brauchst ab und zu schon mal eine niedrigere Auflösung bei Notebooks. Und wenn's dann gar nicht supportet wird... Der Savage impliziert ja schon, dass man evtl. spielen könnte, aber der packt flüssige Szenen eh nur in 640x480... und das dann bei einen 1024er Display - ist schon ganz schön klein. Sonst guter Ansatz - fehlt eben nur bissl was.
/me will mal ne Kyro in Action sehen! Vielleicht lass ich mir mal eine vorführen, oder bestell bei K&M eine und schick sie zurück :>
Originally posted by Kai
/me will mal ne Kyro in Action sehen!
Wollen wir das nicht alle ? ;D
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.