Archiv verlassen und diese Seite im Standarddesign anzeigen : Ruht sich nVidia aus...?
Ich frage mich, was nVidia eigentlich macht.
Sie hätten die Voodoo5 weiter bauen können. Das taten sie aber nicht.
Die hätten den Rampage bauen können. Das taten sie aber nicht.
Sie hätten verkünden können, der NV20-Nachfolger würde 3dfx-Technologie enthalten. Das taten sie aber nicht.
Sie hätten versprechen können, der GF3-Folgechip würde bis zu 7 mal schneller sein, als eben jener. Das taten sie aber nicht.
Sie hätten Gary Tarolli öffentlich seine Äusserungen zu T&L widerrufen lassen können. Das taten sie aber nicht.
Statt dessen gibts die GF3 jetzt mit unterschiedlichen Taktraten, wie aufregend, und die GF2 wird unter neuem Label verkauft.
Statt dessen sind die neuen Detos nicht eben jedermanns Sache, sondern eher buggy. Und mit den "neuen" TI-Features, die eh kein Spiel braucht, eher lächerlich gemacht.
Statt dessen lancieren sie nicht mal PDF-Dokumente aus der internen Schulung, um vor dem R8500 zu warnen, der ein Risiko für die Reputation darstellen könnte.
Ich hab das Gefühl, nVidia verschweigt uns was. Wie geht es euch?
Exxtreme
2001-10-14, 02:50:23
Hallo aths.
Ich denke, sie konzentrieren ihre Resourcen für den GeForce 4. Ich finde auch, daß die GeForce Ti xx-Serie irgendwo eine Nullnummer ist. Von Innovation IMHO keine Spur. Nur die Taktraten erhöht.
Andererseits was will man gerade jetzt verbessern? Die GF3-Features werden bis auf AquaNox von keinen Spiel benutzt. Wieso dann wieder neue Features einbringen? Sicherlich könnte man den besch****** Vertex-Shader der GF3 beschleunigen. Schliesslich scheint der V-Shader der R8500 2,5x schneller zu sein als der der GF3Ti 500. Die Frage ist aber, lohnt sich das?
Ich glaube die bereiten mit dem GF4 ein Comeback vor. Mit 3dfx- und GigaPixel Technik könnten sie die Konkurrenz das Fürchten lehren. Und das ist IMHO auch gut so.
Gruß
Alex
tikiman
2001-10-14, 07:29:19
Ist doch nix neues...auf die GeForce 256 kam die GeForce GTS, ebenfalls keine neuen Features. Jetzt von GeForce3 auf GeForce Ti500, dasselbe Spiel, 2x die im Prinzip selbe Karte, bloß unter anderem Label.
Die GeForce 4 wird schon früher kommen, als man sie brauchen wird, da hab ich keine Sorge.
nggalai
2001-10-14, 08:53:08
hi aths,
naja, mal abgesehen davon, dass nVidia auf einen 12monatigen product cycle umsteigen wollte (will), haben die in letzter Zeit ihre Resourcen schon dünn genug gesäht ...
- nForce,
- XGPU, und beides könnte fies als Teilprodukt der
- X-Box Grafik- und Hauptspreicherarchitektur
angeschaut werden. Dass da nicht mehr viel Platz für mehr als einen Produkterefresh bei den Grafikkarten drin liegt, ist wohl klar. nVidia ist nicht Siemens.
ta,
-Sascha.rb
Jep, NV macht den selben Fehler wie Intel: Sie verzetteln sich. IMHO ist das aber ein natürlicher Vorgang; so ist sichergestellt, dass im Business immer Konkurrenzdruck herrscht. Nur M$ ist es bis jetzt gelungen längerfristig Monopolist zu bleiben ;)
StefanV
2001-10-14, 12:40:17
nVidia und innovation??
Ist das Ernst gemeint??
Bisher hat nV doch nur Rohe Gewalt gezeigt...
Thowe
2001-10-14, 13:05:16
Me glaubt nicht das nVidia sich ausruht, im Gegenteil sie sparen nur ein wenig da die jetzige Konkurenz durchaus mit der GeForce3 im Zaun gehalten werden kann.
Die Radeon 8500 ist in Benchmarks vermutlich nicht viel schneller und teilweise langsamer als die grösste GF3. Da braucht nVidia nichts tun, solange potentielle Käufer rein nach Benchmarktabellen gehen ist nVidia nicht gezwungen irgendetwas zu tun. Vielmehr ist die Fan-Gemeinde gross genug das diese gegen jede Karte "stichhaltige" Argumente finden werden diese als schlechtere Wahl darstehen zu lassen.
Bleibt die BitBoys Karte, diese wird vermutlich wesentlich besser gegen die GF3-Serie aussehen, jedoch wird es hier andere Problematiken geben. Seien es die Treiber die hier limitieren und einfach der Unbekanntheitsgrad des Herstellers BitBoy, gegen letzteres könnte durchaus der Absatz über bekannte Firmen helfen.
Dann bleibt nur noch die "Kyro3" als ersthafte Konkurenz über, aber hier ist auch wieder nichts definitives bekannt mit welchen features und wann diese auf den Markt kommt. Eine LowCost Karte wird sie wohl nicht werden und somit durchaus eine Konkurenz zur GeForce3 Serie sein.
An die GeForce4 glaube ich nicht, ich würde es für sinnig halten wenn nVidia den Namen nicht weiter verwenden würde. Denke nicht das die GF4 noch was mit den bisherigen Karten gemein haben wird, sondern vielmehr ein wirklich komplett neues Design liefern wird. Vielleicht wird auch der Name GeForce bis zum erscheinen der GF4 schon einen "schlechten" Beigeschmack haben, wir weden es sehen.
Aber wie gehabt, mitlerweile ist das Thema Grafikarte kaum noch eine "Sinnigkeitsfrage" sondern geht gewaltig in die Richtung "Glaubensfrage". Anders ist es nicht zu erklären das hier soviele Personen aufeinander rumhacken ohne jegliche Argumentation und die einzige Motivation das "mein Glaube ist der richtige" darstellt.
Somit wird auch in Zukunft sich jemand der nur DVD schauen will eine GeForce2 Pro holen, nur aus den Grund weil ein Bekannter ihn dazu rät.
Wenn es "Tester" nicht lernen auch andere Kriterien als Benchmarktabellen anzubringen, dann wird sich so schnell auch nichts an der Marktsituation ändern. Wie soll denn jemand andere Kriterien berücksichtigen wenn er diese nicht mal kennt? Die Featureliste einer Karte liefert diese ganz sicher nicht, hier bedarf es Beispiele aus der Praxis und keine Screenshots von irgendwelche Techdemos und das blose abschreiben von Passagen aus den white papers.
Ich frage mich, was nVidia eigentlich macht.
Eigentlich genau das, was die Marktsituation zur Zeit zu erfordern scheint...
Sie hätten die Voodoo5 weiter bauen können. Das taten sie aber nicht.
Kein Bedarf. NVidia baut keine Karten. Und wieso sollten sie sich Konkurrenz im eigenen Hause machen? Zudem gab es noch einiges an Restposten.
Die hätten den Rampage bauen können. Das taten sie aber nicht.
Wenn sie den eigenen Chip praktisch schon fertig haben? Wir können nur spekulieren wie gut sich der Rampage im vergleich zum GF3 geschlagen hätte. Und, was viel wichtiger ist, ob er profitabler als der GF3 gewesen wäre.
Sie hätten verkünden können, der NV20-Nachfolger würde 3dfx-Technologie enthalten. Das taten sie aber nicht.
Sie hätten versprechen können, der GF3-Folgechip würde bis zu 7 mal schneller sein, als eben jener. Das taten sie aber nicht.
Das kann ja noch kommen. Solange noch kein echter GF3-Nachfolger offiziell angekündigt ist, wird NVidia bestimmt keine solchen Aussagen machen.
Sie hätten Gary Tarolli öffentlich seine Äusserungen zu T&L widerrufen lassen können. Das taten sie aber nicht.
Wen interessiert Gary Tarolli? Damit bringt man nur die Diskussion wíeder hoch.
Statt dessen gibts die GF3 jetzt mit unterschiedlichen Taktraten, wie aufregend, und die GF2 wird unter neuem Label verkauft.
Beide verkaufen sich sehr gut. Jetzt einen neuen Chip auf den Markt zu bringen wäre ökonomischer Schwachsinn.
Statt dessen sind die neuen Detos nicht eben jedermanns Sache, sondern eher buggy. Und mit den "neuen" TI-Features, die eh kein Spiel braucht, eher lächerlich gemacht.
Bugs kommen in neuer Software eben vor. Klar, NVidia hätte besser testen können. Aber was an den neuen Features lächerlich sein soll, verstehe ich nicht. Ohne Treiberunterstützung kann sie ja auch keiner nutzen. Also war es schlicht notwendig.
Statt dessen lancieren sie nicht mal PDF-Dokumente aus der internen Schulung, um vor dem R8500 zu warnen, der ein Risiko für die Reputation darstellen könnte.
Schlechte Erfahrungen vielleicht ;)
Ich hab das Gefühl, nVidia verschweigt uns was. Wie geht es euch?
Klar, NVidia hat bestimmt einige Geheimnisse... :D
Xmas: Von nVidia bin ich lautes Marketing-Tammtamm gewohnt. Wurde T&L nicht schon angepriesen, bevor die GF256 ausgeliefert wurde? War der NV20 nicht schon als Überchip im Gespräch, lange bevor er gelauncht wurde? Im Moment ist es mir enfach zu ruhig.
ATI hat sie überholt - und nVidia wehrt sich nicht richtig.
Mit Voodoo5 und Rampage hätten sie den 3dfx-treuen Kundenstamm bedienen können. Sie hätten sogar die Packung mit 3dfx-Label ausliefern können. Sie hätten mit einem Schlag eine breitere Produkt-Palette.
> Jetzt einen neuen Chip auf den Markt zu bringen wäre ökonomischer Schwachsinn.
Mich wundert, dass die diesen neuen Chip noch nicht ankündigen. Oder Vorträge zu irgendwelchen neuen Techniken halten, damit in der Gerüchteküche besprochen wird, ob diese etwa im neuen Chip Einzug funden.
> Bugs kommen in neuer Software eben vor. Klar, NVidia hätte besser testen können.
Na der Deto4 wird kaum von Grund auf neu geschrieben worden sein.
> Aber was an den neuen Features lächerlich sein soll, verstehe ich nicht.
nVidia gaukelt dem Kunden vor, diese Features gibts dank der "TI"-Serie und verschweigt, dass fast jeder GF3-Besitzer diese schon längst in HW hat.
> Klar, NVidia hat bestimmt einige Geheimnisse...
Ich denke, in 3-4 Monaten kann ATI problemlos eine R8600 auf den Markt bringen, die einfach höher getaktet ist. Mit entsprechenden Treibern sollten sie die GF3 deutlich schlagen. Um die Leute nun vom Kauf dieser Karte abzuhalten wäre es gewöhnlich, wenn nVidia ihren nächsten Chip rechtzeitig ankündigt.
Ich glaube mit den neuen Features ist es so dass sie es nicht rechtzeitig in den Detonator schafften, woraufhin sich NVidia entschied, die Features "aufzusparen" und später bei der Ti-Serie als neu anzupreisen. Sie wussen ja schließlich schon im Frühjahr, dass es diesen Herbst nur anders getaktete Chips gibt. Eine reine Marketing-Entscheidung also. (Spekulation)
Das Problem mit einem neuen Chip mit absolut neuen Features ist: den kann im Moment gar keiner gebrauchen. Ich glaube, dass ein solcher Chip von NVidia erst Mitte nächsten Jahres geplant ist. Jetzt geht es eher darum, einen DX8 (oder auch DX8.1) Chip zu bringen, der mehr Speed bringt, z.B. wie XGPU mit 2 VS. Genauso wie es mit GeForce 256/GeForce 2 war.
Man sollte auch nicht vergessen: Nach über einem halben Jahr bekommt der GF3 jetzt Konkurrenz. Aber immer noch ist er High-End. Immer noch machen sie die große Kohle woanders, nämlich mit TNT2 und GF2MX. NVidia wird jetzt sicher nicht mit allen Mitteln versuchen, schnell einen besseren Chip auf den Markt zu bringen, um die Performancekrone zu halten. Denn das würde mehr kosten als es bringt.
Wenn der Preis des Ti 200 bei uns auf US-Niveau sinkt, hat NVidia im Mid-Range-Segment eine Karte, die ich einer Radeon 7500 vorziehen würde. Und das bringt NVidia deutlich mehr.
Frank
2001-10-14, 21:01:36
Originally posted by aths
Ich frage mich, was nVidia eigentlich macht.
Die bauen Swimmingpool vor ihr Firmengebäude.
Ceiser Söze
2001-10-14, 22:23:44
Originally posted by Frank
Die bauen Swimmingpool vor ihr Firmengebäude.
Hmmm, eifern die etwa Matrox nach? :D :D
Legolas
2001-10-14, 23:24:23
Einen Pool? Mit nem großen Nvidia Schriftzug am Boden gefliest? :lol:
Ceiser Söze
2001-10-14, 23:45:30
Eben, wie Matrox halt:
http://www.matrox.com/mga/media/company_info/pool.jpg
:D
Leonidas
2001-10-15, 00:30:28
Ich denke, das ist ganz normale Geschäftssstrategie: Man bringt ein herausragendes Produkt (GF3 = herausragend in Bezug auf die technologische/performance-mäßige Stellung am Markt) und beim nächsten Produkt ruht man sich erst einmal auf diesen Lorbeeren aus.
Die Masse der Käufer würde erst in der Mehrheit zu anderen Anbietern umschwenken, wenn nVidia sowas zwei/drei-mal hintereinander macht. Aber einmal ist in diesem Fall keinmal, das kommt bei der Masse der Käufer gar nicht an.
So spart nVidia schlicht Ressourcen (man muss nicht immer wieder top-Chips bringen) und verschafft sich außerdem Luft, damit das nächste Release um so knalliger wird (20x bessere Performance blablabla). Einfach nur wirtschaftlich gedacht von nVidia.
Dies wäre natürlich nicht möglich, wenn die GF3 schon ein gleichwertiges Konkurrenzprodukt seinerzeit gehabt hätte und es wäre auch nicht möglich, wenn die 20 Boardhersteller weiter fleissig den nVidia-Karren ziehen. Aber so hat man doch alles im Griff - bis natürlich auf die gute Leistungen der R8500.
Aber hier setzt auch wieder die Trägheit des Marktes ein: Erst wenn die R300 ebenfalls sich die Speed-Krone holt, wird die Mehrheit des Marktes ATi stärker beachten. So was geht nunmal nicht über Nacht bei der Masse der Käufer und bei der Masse der (mächtigen) Print-Mags.
Leonidas
2001-10-15, 00:36:28
Nochwas zum GF3-Nachfolge-Chip:
GeForce5
prinzipiell gesehen ein GeForce3 Derivat
2 x Vertex Shader (also massig Silizium, Richtung 80 Mill. Transistoren)
mehr FSAA-Möglichkeiten, neue FSAA-Art: Quintex
Taktraten ???
Release: Q2/2002
Über den Takt kann ich wirklich nur spekulieren. Ich denke, Chiptakt wird eh kaum relevant sein. Der Speichertakt wird in Richtung 300-320 MHz DDR gehen, dafür sind 3 ns Module notwenig, die zu diesem Zeitpunkt verfügbar sein werden. Deswegen ist gemäß meiner Theorie der Speichertakt der Ti500 auch so zaghaft erhöht wurde: Um Platz zu haben für die GF5. Ist aber nur eine Theorie :-).
Allem Anschein nach wird es das letzte Release der GF-Serie, damit zieht man PC-technisch einfach mit der X-Box (2 x Vertex Shader) gleich. Danach sollte es theoretisch was neues geben, auch vom Namen her.
Allerdings ist oben genanntes natürlich recht dürftig, insofern wird man wohl einen Haufen neuer (auf Jahre hin ungenutzer) Features integrieren. Eventuell fällt ja auch was nutzvolles dabei ab.
Für den Chip danach (Ende 2002, Anfang 2003 ???) könnte man spekulieren, daß sich nVidia was ganz neues einfallen läßt. Eventuell TBR? Eventuell Teile des Rampage-Designs? Wer weiss ...
PS: Natürlich sind dies ungesicherte Informationen, was auch sonst. Also bitte nicht als 100%ig gegeben nehmen, sondern nur als derzeitigen Wissensstand nehmen, welcher sich jederzeit ändern kann.
Ceiser Söze
2001-10-15, 00:57:39
In diesem Falle kann sich nVidia (und ATI) auf eine böse Überraschung gefasst machen :D ;)
Aber doch nicht erst Q2/2002, oder???
Ceiser Söze
2001-10-15, 10:12:24
Nö, aber nehmen wir mal an, dass bereits dieses Jahr ein Produkt herauskommt, dass in Punkto Performance so ziemlich alles in den Schatten stellt und an dem auch die kommende Generation der Konkurrenz evt. so seine Zähne auszubeissen hat ;)
Thowe
2001-10-15, 10:49:11
Originally posted by Ceiser Söze
Nö, aber nehmen wir mal an, dass bereits dieses Jahr ein Produkt herauskommt, dass in Punkto Performance so ziemlich alles in den Schatten stellt und an dem auch die kommende Generation der Konkurrenz evt. so seine Zähne auszubeissen hat ;)
Monat 11 oder noch 10 ???
Andre
2001-10-15, 10:55:08
Originally posted by Stefan Payne
nVidia und innovation??
Ist das Ernst gemeint??
Bisher hat nV doch nur Rohe Gewalt gezeigt...
Das sagt grade jemand aus dem Matrox-Lager *lol*
Frank
2001-10-15, 11:20:07
EBEN
LOL @ Andre
Andre
2001-10-15, 11:26:58
Ich will ja nicht wieder ne NV vs. Matrox Diskussion vom Zaun brechen - aber wo war die wahnsinnige, von allen propagierte, unglaubliche, wegweisende, revolutionäre, speedmäßig alles in den Schatten stellende Innovation von Matrox beim Wechsel der G400 zur G550.
Was die das gezeigt haben, war mehr als LOL.
Dieses komische Mist-Skinning brauch kein Mensch !
Da hast du absolut recht, Andre.
Derzeit treibt keine andere Firma den Fortschritt so voran wie NVidia.
Frank
2001-10-15, 11:39:13
Man darf nicht in der Gegenwart suchen Andre. Revolutionäre Sachen kamen eher von Matrox - ohne die es deine 128bit MX Karte evtl. heute nicht geben würde. Denn da wäre zb: 64bit Grafikchiparchitektur, Dualbusarchtekur. Matrox hatte die erste Hardwarebeschleunigte 3d Grafik mit dem SM-640. Oder die erste IBM kompatible CGA Grafikkarte... .Dualhead, Quadhead, ...
Frank
2001-10-15, 11:42:02
Originally posted by ow
Da hast du absolut recht, Andre.
Derzeit treibt keine andere Firma den Fortschritt so voran wie NVidia.
Falsch verstanden ow. Es ging Stefan und Andre um Innovation - nicht um Fortschritt.
Denn den erreicht man auch ohne Innovation.
Andre
2001-10-15, 11:55:17
Originally posted by Frank
Man darf nicht in der Gegenwart suchen Andre. Revolutionäre Sachen kamen eher von Matrox - ohne die es deine 128bit MX Karte evtl. heute nicht geben würde. Denn da wäre zb: 64bit Grafikchiparchitektur, Dualbusarchtekur. Matrox hatte die erste Hardwarebeschleunigte 3d Grafik mit dem SM-640. Oder die erste IBM kompatible CGA Grafikkarte... .Dualhead, Quadhead, ...
Ok mag sein.
Aber wie Du weisst, bin ich kein Nostalgiker.
Nur weil eine Firma in der Vergangenheit Innovation gebracht hat, ist sie noch lange nicht zukunftssicher.
Das gilt für jede Firma - sie bestehen nur, wenn sie kontinuierlich weiterentwickeln, Innovationen auf den mrkt bringen. Und manche labern eben nur, ohne was auf den markt zu bringen - die G550 war das beste Beispiel für einen super Hype (und auch hier im Forum sind da echt viele drauf reingefallen, ne Stefan ? :D).
Und das komische Skinning der G550 ist wohl wirklich ein Griff ins Klo gewesen, dass muss ja wohl mal jeder sagen.
StefanV
2001-10-15, 12:43:18
Möglicherweise ist ja mit der G800 der Glaze gemeint gewesen *eg*...
PS: War klar, daß Mr. Andre zu meinem Posting was zu sagen hatte...
Originally posted by Frank
Falsch verstanden ow. Es ging Stefan und Andre um Innovation - nicht um Fortschritt.
Denn den erreicht man auch ohne Innovation.
..oder auch nicht, s. Matrox. Keine Innovation, kein Fortschritt.
nggalai
2001-10-15, 13:06:59
Matrox:
- EMBM
- displacement mapping.
Innovativ genug?
ta,
.rb
Originally posted by nggalai
Matrox:
- EMBM
- displacement mapping.
Innovativ genug?
ta,
.rb
Nein.
EMBM ist lediglich EIN Spezialfall des Pixel-Shadings, einen vollwertigen Pixelshader hat Matrox bis heute nicht vorzuweisen, NV und ATi schon.
Displacement Mapping?
Braucht IMHO keiner, wird sich deshalb auch nicht durchsetzen.
Ceiser Söze
2001-10-15, 13:24:11
EMBM kommt von Bitboys. Matrox hat die Technologie 'nur' lizenziert (worauf Microsoft nachzog, um EMBM auch in DX6 zu implementieren).
Übrigens auch einer der zahlreichen Hinweise darauf, dass eine Kooperation zwischen Matrox und Bitboys bei zukünftigen Produkten nicht unmöglich ist - die beiden Unternehmen 'kennen' sich nämlich bereits :)
StefanV
2001-10-15, 13:29:57
Könnte es nicht auch sein, daß Matrox den Bitboys einige Entwickler 'gespendet' hat??
Weil Nvidia ja fleißig bei Matrox eingekauft hat...
Ceiser Söze
2001-10-15, 13:34:15
Originally posted by ow
Displacement Mapping?
Braucht IMHO keiner, wird sich deshalb auch nicht durchsetzen.
Wieso? Weil deine Meinung auch immer gleich ein Faktum ist?
Displacement Mapping ist sowohl BumpMapping als auch Pixel Shading in der Disziplin "Darstellen von feinen Strukturen ohne direkte Erhöhung des Polygon Counts" klar überlegen. Zudem ist Pixel Shading wesentlich aufwendiger zu implementieren. Wieso sollte es sich also nicht durchsetzen?
PS: Ich bin mir ziemlich sicher, dass auch Displacement Mapping nicht direkt von Matrox kommt ;)
nggalai
2001-10-15, 13:39:03
Vielleicht sollte ich darauf hinweisen, dass "Innovation" nicht nur theoretisch sondern auch implementatorisch möglich ist, daher hab' ich EMBM bei Matrox drangehängt. Grundsätzlich hat Ceiser natürlich recht.
@ow
EMBM ist lediglich EIN Spezialfall des Pixel-Shadings, einen vollwertigen Pixelshader hat Matrox bis heute nicht vorzuweisen, NV und ATi schon.Aber der bei weitem "häufigste" Fall von Pixel Shading, der sich leider wegen fehlender GF2 Unterstützung in Zukunft wohl nicht mehr im Spielebereich ausbreiten wird. Matrox war mit der Technik rein zeit-mässig weit vor nVidia's PS Einheit aufm Markt, und ich schätze, dass ohne Matrox' EMBM Implementierung wohl "echte" Pixel Shader noch immer auf sich warten liessen. (Nachfragesog bei Spieleentwicklern und Endkunden.)
Displacement Mapping?
Braucht IMHO keiner, wird sich deshalb auch nicht durchsetzen.Displacement Mapping wird sich IMHO sehr wohl durchsetzen--als bandbreiten-schonende Technik ist DM nicht nur relativ einfach von Software-Seite zu implementieren, sondern auch äusserst mächtig und effektiv. Aber das wird jetzt zu OT, vielleicht kann XMas ja einen Technologie-Thread zu DM eröffnen (wäre wohl am qualifiziertesten hier) ... :)
ta,
-Sascha.rb
Ceiser Söze
2001-10-15, 13:42:48
Am besten liste ich mal (fast) alle Hinweise auf, welche auf eine BB/Matrox-Zusammenarbeit schliessen lassen:
-Matrox hat EMBM von BB lizenziert --> Die Unternehmen kennen sich, der Achtungserfolg von EMBM wird das Verhältnis zwischen ihnen sicher nicht negativ beeinflusst haben
-Matrox hat mehrmals angedeutet, dass dieses Jahr noch eine bzw. mehrere HighEnd-Karten auf den Markt gebracht werden.
-Matrox wollte das bereits im 4. Quartal des letzten Jahres tun, doch man verpasste den Termin. Die Bitboys wollten zufälligerweise zur gleichen Zeit den Glaze3D auf den Markt bringen, doch Probleme mit den Yields verhinderten das.
-Auf der Assembly 2001 wurden Bilder von Bitboys-GraKas gezeigt. Sie hatten 2 VGA-Anschlüsse (Dual Head?)
-Was Matrox bezüglich ihren HighEnd-Karten verlauten liess, lässt sich praktisch nur mit eDRAM realisieren.
-Bitboys und Matrox sind beides privat geführte Unternehmen - eine Partnerschaft muss also nicht offiziell angekündigt werden (wie auch viele andere Dinge nicht, die ich aber hier nicht erwähnen sollte).
-Auf der Assembly sprach Petri Nordlund auch von Dingen wie Videoschnitt/bearbeitung (mögliche Realisation: Der Pixelshader bearbeitet die Bilder in Echtzeit). Das ist eigentlich eher das Gebiet von Matrox.
Hab ich alles?
nggalai
2001-10-15, 13:51:18
Vergleich' al die VR Mitglieder ... hehehe ... ;)
ta,
.rb
Andre
2001-10-15, 13:54:33
Originally posted by Stefan Payne
Möglicherweise ist ja mit der G800 der Glaze gemeint gewesen *eg*...
PS: War klar, daß Mr. Andre zu meinem Posting was zu sagen hatte...
Ich sage etwas, wenn ich das will und nicht wann es Dir passt.
Und lass Deine herablassende Ausdrucksweise.
Frank
2001-10-15, 14:54:01
Originally posted by Andre
Ok mag sein.
Aber wie Du weisst, bin ich kein Nostalgiker.
Nur weil eine Firma in der Vergangenheit Innovation gebracht hat, ist sie noch lange nicht zukunftssicher.
Das gilt für jede Firma - sie bestehen nur, wenn sie kontinuierlich weiterentwickeln, Innovationen auf den mrkt bringen. Und manche labern eben nur, ohne was auf den markt zu bringen - die G550 war das beste Beispiel für einen super Hype (und auch hier im Forum sind da echt viele drauf reingefallen, ne Stefan ? :D).
Und das komische Skinning der G550 ist wohl wirklich ein Griff ins Klo gewesen, dass muss ja wohl mal jeder sagen.
Das bestreitet niemand Andre. Mir ging es bloß darum die Firma Matrox nicht als innovationslos dastehen zu lassen - wie anfänglich von deinen Eingangskommatar zur Innovation impliziert wurde.
Und Matrox war über die Gesamt gesehen dann doch schon SEHR innovativ. Darüber läst sich wohl kaum streiten. Das die grundlegenden Innvationen 199x geendet haben ... na ja.
Andre
2001-10-15, 14:58:12
Ok, Frank, wenn Du die Innovationen von Matrox in der Vergangenheit meinst - da bin ich Deiner Meinung.
Aber die Gegenwart und die Zukunft verlangen ein wenig mehr, als Internet-Features, die keine Socke braucht.
Und da sind NV, ATI und STM meilenweit voraus.
Frank
2001-10-15, 14:59:20
Originally posted by Andre
1. Ich sage etwas, wenn ich das will und nicht wann es Dir passt.
2. Und lass Deine herablassende Ausdrucksweise.
Vorsicht Andre!
Zu 1.
Das Recht streitet dir niemand ab! Auch nicht Stefan.
Zu 2.
Stefan ist sarkastisch geworden. Kann man so sehen - richtig. Aber nicht herablassend. Wenn du mal genau auf dich achtest Andre, wirst du merken, das du selber den Konflikt zwischen Dir und Stefan ins Forum trägst. Das merkt man nicht nur in diesem Thread.
Frank
2001-10-15, 15:04:38
Originally posted by Andre
Ok, Frank, wenn Du die Innovationen von Matrox in der Vergangenheit meinst - da bin ich Deiner Meinung.
Aber die Gegenwart und die Zukunft verlangen ein wenig mehr, als Internet-Features, die keine Socke braucht.
Und da sind NV, ATI und STM meilenweit voraus.
Geb ich dir recht. 3d mäßig ist Matrox seit anfang 2000 out. Wie du gemrkt hasst hab ich auch weder EMBM noch die rumlabernden Köpfe als Innovation genannt.
Thowe
2001-10-15, 15:38:54
:zzz:
Andre
2001-10-15, 15:41:20
Originally posted by Frank
Vorsicht Andre!
Oha, was kommt denn jetzt ?
[i]
Zu 2.
Stefan ist sarkastisch geworden. Kann man so sehen - richtig. Aber nicht herablassend. Wenn du mal genau auf dich achtest Andre, wirst du merken, das du selber den Konflikt zwischen Dir und Stefan ins Forum trägst. Das merkt man nicht nur in diesem Thread.
Dazu sage ich nichts mehr.
das Thema ist für mich Tot.
StefanV
2001-10-15, 16:02:13
Originally posted by Andre
Ich sage etwas, wenn ich das will und nicht wann es Dir passt.
Und lass Deine herablassende Ausdrucksweise.
Nur so langsam wird es teilweise lächerlich, was du sagst...
Ich möchte mal auf dein HT4U Posting verweisen...
Falls du es nicht gemerkt hast, aber deine sticheleien interessieren mich nicht im geringsten...
Wenn ich drauf eingehen würde wäre ich auch schön blöd...
thomasius
2001-10-15, 16:07:34
Originally posted by Andre
Dazu sage ich nichts mehr.
das Thema ist für mich Tot.
merkt man aber weder bei dir noch bei stefan, der irgendwo was ähnliches gesagt hat, aber ich amüsier mich dabei prächtig, liest sich gut das ganze, nur egal wer , bitte nicht persönlich werden.
zu nvidia, ich denke nur, dass da ein paar sehr clevere kapitalisten in der führungsriege sitzen, die viel geld verdienen wollen!!
die machen nicht viel mehr als nötig um ein haufen kohle zu verdienen ( 1000,- dm fürne geforce 3 ti500 naja), dabei haben se sicher schon die übernächste generation imtresor und entwickeln geforce 6 oder so zu ende
da hilft eigentlich nur ein ernstzunehmender konkurrent, ich warte auf die meldung nvidia kauft ati, vielleicht in 3 jahren oder so, so kann man sich nämlich auch unliebsame konkurrenten vom halse schaffen *3dfxnachwein*
p.s. clever die jungs
p.s. ich besitze selbst eine nvidia karte, aber so überagend wi sie hier von manchen dargestellt werden, sind se nicht
Frank
2001-10-15, 16:17:47
Originally posted by thomasius
da hilft eigentlich nur ein ernstzunehmender konkurrent, ich warte auf die meldung nvidia kauft ati, vielleicht in 3 jahren oder so, so kann man sich nämlich auch unliebsame konkurrenten vom halse schaffen *3dfxnachwein*
Eher kauft Trident Ati. Und VIA kauf nVidia. Intel kauft Matrox ...
Wer kauft mit? Ich kaufe NumberNine. Die wirds doch wohl langsam für eine Mark geben - oder? - nix mit Treuhandtypischen Angebot??
nggalai
2001-10-15, 17:01:54
... vielleicht gibt's von nVidia ja auch das hier?
http://www.nvmax.com/cgi-bin/bb/YaBB.pl?board=News_Comments&action=display&num=997703991
;)
"NfiniteFX 2
B.O.D.E. Body ,Object,Design,envioment .This tells the Gpu if it`s drawing a body ,a object ,designing,or a envioment.
'B.O.D.E.' Nvidia`s new B.O.D.E. .Is fully programmabil.
The developer chooses the pattern like a tree that will be used for the multi-sampling. B.O.D.E. reconizes that it`s a object and what type of object aka tree ,rock what have you.
Then programmer will tell it .That it will be drawn on a envioment like say sand and helps place it , draw it ."
LOOOL !!!
ta,
.rb
dagmundna
2001-10-15, 17:58:45
Originally posted by Leonidas
Ich denke, das ist ganz normale Geschäftssstrategie: Man bringt ein herausragendes Produkt (GF3 = herausragend in Bezug auf die technologische/performance-mäßige Stellung am Markt) und beim nächsten Produkt ruht man sich erst einmal auf diesen Lorbeeren aus.
Die Masse der Käufer würde erst in der Mehrheit zu anderen Anbietern umschwenken, wenn nVidia sowas zwei/drei-mal hintereinander macht. Aber einmal ist in diesem Fall keinmal, das kommt bei der Masse der Käufer gar nicht an.
So spart nVidia schlicht Ressourcen (man muss nicht immer wieder top-Chips bringen) und verschafft sich außerdem Luft, damit das nächste Release um so knalliger wird (20x bessere Performance blablabla). Einfach nur wirtschaftlich gedacht von nVidia.
Dies wäre natürlich nicht möglich, wenn die GF3 schon ein gleichwertiges Konkurrenzprodukt seinerzeit gehabt hätte und es wäre auch nicht möglich, wenn die 20 Boardhersteller weiter fleissig den nVidia-Karren ziehen. Aber so hat man doch alles im Griff - bis natürlich auf die gute Leistungen der R8500.
Aber hier setzt auch wieder die Trägheit des Marktes ein: Erst wenn die R300 ebenfalls sich die Speed-Krone holt, wird die Mehrheit des Marktes ATi stärker beachten. So was geht nunmal nicht über Nacht bei der Masse der Käufer und bei der Masse der (mächtigen) Print-Mags.
Und danach baut man sich nen Swimmingpool ;D
Razor
2001-10-15, 18:24:11
Generell fällt mir zum Thema diesen Threads folgendes ein:
nVidia hat zur Zeit eine Unzahl von Produkten am Markt. Blad wird es noch weitere geben (nForce/XBox). Ich könnte mir vorstellen, daß nVidia nun erst einmal konsolidiert und die Produkte-Linien 'vereinfacht'.
Alle TNT2/GF2/GF3 vom markt und nur noch die Titanium-Linie fahren. Der Grafiksektor würde dann zugunsten günstiger Produktionskosten etc.pp dann stark vereinfacht und man hätte dann nur noch
-Low-End: GF2 Ti
-Midrange: GF3 Ti200
-High-End: GF3 Ti500
am Markt und könnte sich dann auf die andern Produkte (nForce/XBox) und neue Grafik-Karten konzentrieren.
Dazu paßt dann auch die folgende Meldung auf 3DGPU:
Visiontek Xtasy 5632 GeForce2 Ti For $65 (http://www.newegg.com/app/ViewProduct.asp?submit=manufactory&catalog=48&manufactory=1180)
Jay Roberts sent me an email with word that Newegg are selling a Visiontek GeForce2 Ti card for an amazingly low $65. This is the cheapest I've seen it, as the next lowest price at Pricewatch is around $120. This one uses 32MB DDR memory, the one with 64MB is $138. Unfortunately, both seems to be out of stock, but keep your eyes peeled on the site, I imagine they'll be getting more in soon.
They also got a Visiontek GeForce3 Ti200 for $182, and Visiontek GeForce3 Ti500 for $319. Not bad at all, prices are falling already.
Was seitens nVidia eine Kampfansage in Sachen Preispolitik wäre...
und wir düfen gespannt sein, was do noch so kommt !
Ist Konkurrenz nicht was schönes ?
;-)
In diesem Sinne
Razor
NV hält zudem noch einige MX Varianten und die gute alte TNT M64 im Angebot :D
Die Geforce2 TI wird aber über kurz oder lang die MX ersetzen, da hast du wohl recht.
Dieser Thread nimmt ja mal einen komischen Verlauf...;)
Razor: Da stimme ich dir zu. NVidia senkt die Preise und reduziert gleichzeitig die Produktpalette. Und in jedem Bereich haben sie ein äußerst konkurrenzfähiges Produkt.
nggalai: Nett dass du mir so viel zutraust :D
DM ist ein Feature, dass ich mir schon lange in Hardware wünsche. Genauso wie HOS übrigens... es gibt natürlich ein paar Schwierigkeiten, insbesondere in Bezug auf LOD.
Hm, morgen vielleicht mehr... brauche Schlaf... :nighty:
PS: Hey, wieso ist eigentlich der Chainsaw-Smily nicht mehr animiert ??? :chainsaw:
Unregistered
2001-10-16, 08:03:21
Ich hoffe das die Bitboys es schaffen endlich mal ein Produkt raus zu bringen, das dem Nvidia Produkt ernsthaft zusetzt. Weil So wie es aus sieht schaft es ATI ja wieder
nicht trotz mitlerweile einem viertel Jahr längerer Entwicklungszeit und 50MHz core- bzw 90MHz mehr Memorytakt
den GF3 in DX7 Spielen klar zu schlagen.
3dfx Lives on!
Originally posted by Andre
Ok, Frank, wenn Du die Innovationen von Matrox in der Vergangenheit meinst - da bin ich Deiner Meinung.
Aber die Gegenwart und die Zukunft verlangen ein wenig mehr, als Internet-Features, die keine Socke braucht.
Und da sind NV, ATI und STM meilenweit voraus.
Zumal sich jenes Matrox-Feature auf allen modernen Karten darstellen laesst.
Nur der Name ist geschuetzt und 'innovativ' (head-casting).
Labberlippe
2001-10-16, 13:50:32
Wobei nVIDIA sicher nicht schläft.
Die haben noch genug Luft in Ihren Produkten.
Mal abwarten wie sich die R8500 schlagen wird.
Was die Bitboys betrifft, die reden seit Jahren, wäre aber eine feine Sache wenn Sie endlich Ihre Karte auf den Markt bringen würden.
Gruss Labberlippe
LordSkum
2001-10-16, 15:42:49
Also ich bin bei nvidia für evolution statt revolution!
Wozu braucht ein Baby 3 Arme wenn es noch nichtmal laufen kann? (lol)
Unregistered
2001-10-19, 13:48:32
sorry wenn ich mich nicht einlogge, aber es ist mir zu blöde mich zu registrieren.
muss nur sagen dass ich deine art ein bisschen sc****** finde... du bist nicht der beste und intelligenteste!!!
sorry, war nicht angreifend gemeint... aber musste mal sagen was ich schon ein paar mal dachte....
zur gf4 oder 5
ich denke mal nvidia wird von ganz vorne anfange, evnt noch ein chip mit 2 vs aber danach gibts was neues.... es geht nicht mehr weiter mit mehr mhz und wenig innovation... die innovation taten sie mit der gf 1 nachher war alles nur noch mehr kraft mehr gewalt... daher finde ich nvidia nicht sehr innovativ
der ganze tnl scheiss ist eh kacke, auf jeden fall bis die einheit programmierbar wurde, zum vergleich kann man ja mal die skalierbarkeit anschauen, eine voodoo 5 skaliert viel besser als ne gf2, wieso wohl? erraten, weil dieser scheiss von tnleinheit bei schnellen prozis das nachsehen hat..
Andre
2001-10-19, 14:04:26
Originally posted by Unregistered
sorry wenn ich mich nicht einlogge, aber es ist mir zu blöde mich zu registrieren.
muss nur sagen dass ich deine art ein bisschen sc****** finde... du bist nicht der beste und intelligenteste!!!
Wo hab ich das behauptet ?
Nur weil ich die einseitige Argumentation mancher kritisiere, heisst das noch lange nicht, dass ich mich für den besten halte.
Und wenn man mich mit Argumenten (und nicht mit "NV ist eh Scheisse, Du bist scheisse" usw.) überzeugt, dann ist das auc ok und ich habe schon oft genug meine Meinung korrigiert.
Aber dann muss man sich eben die Mühe machen Argumente zu bringen.
BTW: Hier sind verdammt viele Leute, die weitaus mehr Ahnung haben als sich und das finde ich gut so.
Andre
2001-10-19, 17:30:37
@ nggalai
Die beste Antwort auf die von Dir zitierte Spekulation, war dieser Post hier:
Mrsinister,
This is a bunch of crap indeed. I don't even know what people think of sometimes when they SPECULATE this bad. Let's see what we got..
FM tuner? Up my wide ass. There is no way nVidia will include that, and even if they did, no one would ever want to pay for it because it would only make it more expensive.
Name: Ultra Advanced? Doubtful. I don't think nVidia wants to create a brand with a long name like: geForce 3 Ultra Advanced. It is too long to write. Btw, if you wanna speculate, try speculating about anything but the name, which is all up to nVidia. Don't even call it speculations!! Ok, fine, I think it will be called nVidia Supreme Ultra Slayer Pro!
128 MB as a standard? Give me a damn break. Not only are game developers developing games for 16 MB graphics cards oftenly, 32 MB is often is the high-end. A very few games today can use 64 MB of RAM on a graphics card. Fine, Max Payne can etc, but I think it's pure bullsh*t that 128 MB would be available as standard. I doubt that 128 MB will be standard even on the geForce 4! RAM is expensive, and if we are gonna include 128 MB, count on a card that costs above $800.. Who'd buy that?
Higher RAMDAC 360 MHz.. Ohh gee, why do I think nVidia won't even bother on this one? It's been the same for a long time now! Guess why?? BECAUSE IT WORKS FINE IN 2048x1536 IN 32-BIT!!!
Did you guys know that the GeForce 3 has a 0.15 micron manufacturing process?? If they name a card GeForce 3 *SOMETHING*, then they obviously re-vamp the damn card. They put better RAM on, they clock it up, they do this and that. But hell no, they don't rebuild the whole architecture to 0.13 micron. That costs maaaaaaaaany million bucks. Too much! Waaaaay too much! Then it's a GeForce 4 instead. If nVidia wasted that much money on the GeForce 2 Ultra, they'd go bankrupt (ok, maybe not), because only a few people buy that card compared to the GTS and MX versions. So once again, why waste so much resources on rebuilding this?
And now to something I have never heard of, and if this is speculation or a rumour, then tell me: B.O.D.E.
Wtf is that? Body, Object, Design, Envioment? Do you honestly want me to laugh? It tells the GPU if it is a B, O, D or E? Tell me something, is this the first process in the GPU? Don't get me wrong but this sounds like a 13-year-old child made this up. And the guy who made this up, PLEASE think of something cooler than putting the word "design" in. We all know this is bullsh*t. Besides, it won't give anything.
Improved Color methods <-- What? What exactly does that mean? Explain please, since this is speculation or a rumour, then we gotta have an explanation or a shortcut of the new technology? Oh, I bet it's one of the B.O.D.E. stuff! ;)
"Rember these are alpha/beta and could change" <-- sounds like you've decided that it's already a fact and not speculation/rumours.. Decide please.
Improved AA(Quintex) Max AA of 10x <-- The Quincunx (please spell it correctly next time) method might be improved. I'd not be surprised. However, the AA at 10x is doubtful. I work with 3D applications from time to time (3D Studio Max) and I know the difference between 4, 8 and 10. 8x AA is ok, but I can tell you with confidence, that 10x is not a difference to the eye. Especially not in games!! You won't notice any difference in games between 8 and 12 either. Okay, maybe some sprites will get awfully blurry.. In other words, worse looking.
NfiniteFX 2 <-- I might be wrong about this as I am not really sure how this technology works, but I am quite sure that this is a programmable feature with no limitations. I don't think there are any extra things you can add to it. As I know it, the only thing that limits is the extensions of DirectX 8.. But as I said, I am not sure about this, and something tells me we won't see anything called nfiniteFX 2.
I probably forgot something I should have written, but I covered most of it up.
*lol*
Frank
2001-10-19, 22:21:54
och mensch
Immer der ganze viele Text...
...wer fasst zusammen?
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.