Archiv verlassen und diese Seite im Standarddesign anzeigen : Warum der NV30 ein NV35 sein wird...
Haarmann
2002-07-19, 17:03:36
Tja... der NV30 sollte ja 128 Bit DDR Interface haben - nur leider is mit sowas kein Blumentopf mehr zu gewinnen. Daher wird der NV30 schlichtweg eingestampft und statt dessen gibts nen NV35 als NV30 und zwar erst im November - inkl 256 Bit DDR.
Dunkeltier
2002-07-19, 17:10:36
Quelle? Oder hast du in eine Glaskugel geschaut?
StefanV
2002-07-19, 17:13:06
2002 oder 2003??
area2000
2002-07-19, 17:59:57
Da hat NVidia sich die Benchmarks bestimmt so angeschaut -->:O
Also wenn die das wirklich machen "sollten" dann kommt NVidias Gegenschlag auf keinen Fall mehr dieses Jahr!.
Irgendwie würde mich das freuen :D ;D
LovesuckZ
2002-07-19, 18:08:28
Originally posted by area2000
Da hat NVidia sich die Benchmarks bestimmt so angeschaut -->:O
Also wenn die das wirklich machen "sollten" dann kommt NVidias Gegenschlag auf keinen Fall mehr dieses Jahr!.
Irgendwie würde mich das freuen :D ;D
Ich freu mich schon, wenn mal ATI oben ist und die Preise bestimmt. Dann geht wahrscheinlich diese 'ich-bin-gegen-fast-Monopolisten' Gehabe von vorne los. Nur statt Nvidia steht dann ATi auf der Angriffsflaeche.
area2000
2002-07-19, 18:16:30
Originally posted by LovesuckZ
Ich freu mich schon, wenn mal ATI oben ist und die Preise bestimmt. Dann geht wahrscheinlich diese 'ich-bin-gegen-fast-Monopolisten' Gehabe von vorne los. Nur statt Nvidia steht dann ATi auf der Angriffsflaeche.
nächstes Jahr darf ja NVidia wieder :D
solange das einigermaßen ausgeglichen ist, können nur wir Endkunden
davon profitieren.
Ein Monopol wünscht sich wohl keiner!, weder von NVidia noch ATI oder sonst wem.
Fragman
2002-07-19, 19:31:47
ich wuerd da doch vorsichtiger sein. nv wird den nv30 doch wesentlich hoeher takten koennen als ati den r300. schon allein dadurch wird die karte verdammt schnell sein, wenn man als ausgangsleistung mal die g4 nimmt. vom nv30 erwarte ich einiges. freuen wirds den kunden, denn die preise werden sicher nicht gans so hoch sein, wenn der nv30 erstmal raus ist.
Eusti
2002-07-19, 19:59:36
Originally posted by Fragman
Freuen wirds den kunden, denn die preise werden sicher nicht ganz so hoch sein, wenn der NV30 erstmal raus ist.
Das wird man sehen, wenn der Chip raus ist. Bei gleicher Anzahl Pipelines und gleichem Speichertakt hatte Nvidia bislang immer deutlich die Nase vorn (Irgendwie kriegen die die Treiber besser hin).
Wenn Nvidia in den NV30 ebenfalls ein 256bit Interface & 8 Rendering Pipelins mit 2!!! Textureinheiten je Pipline einbaut, dann sieht die Sache schon wieder ganz anders aus. Zusammen mit hohen Taktraten bei Chip und Speicher könnte der NV30 dann eventuell doch noch um Längen schneller sein als der R300.
Und was Nvidia dann für so einen Top-Chip berechnet dürfte wieder bei den gewohnten 500-600 Euro liegen. Leider.
Aber zum Herbst hin darf man sich freuen. Wenn der R300 tatsächlich nur 400 Euro kostet und der RV250 nur 120-150 Euro kostet (hab da mal so eine Ankündigung gelesen), dann dürfte sich das allgemeine Preisniveau doch um 20-50 Euro nach unten bewegen.
Salvee
2002-07-19, 20:10:34
Falls nV vorhat, 2 TMUs pro Pipe zu integrieren, werden sie mit einem 256-Bit DDR-RAM-Interface aber nicht sonderlich weit kommen, bzw. im Vergleich zur resultierenden Performance in erste Linie nur Die-Fläche verschwenden.
Quelle: Tomshardware
At a clock of 325 MHz, the eight pipelines are able to supply a fill rate of 8 * 325 = 2,600 Mpixels/s. Each pixel rendering pipeline has one texture unit, so the multi texturing fill rate is the same as the single texturing fill rate above. It might look as if one texture unit per pipeline is very little, but if you calculate the memory bandwidth requirement of eight parallel pipes with one texture unit doing a trilinear 32- bit color texture lookup, you will understand why two texture units wouldn't have made an awful lot of sense: 32 bit * 8 (trilinear filtering requires 8 texels to be read) * 8 (eight pipelines) = 2048 bit. 2048 bit would have to be read per clock, but 'only' 512 bit per clock are provided by the 256 bit-wide DDR memory interface of Radeon 9700. Bilinear filtering mode would still require 1024 bit per clock. Two texture units per pipe could never be fed by the memory interface. This is why it wouldn't have made sense to add those units.
Falls das alles so stimmt, natürlich...
Demirug
2002-07-19, 20:19:12
@Salvee:
Die Rechnung ist schon richtig. Was aber dabei nicht berücksichtigt wird ist das alle modernen Grafikkarten über eine Texturcache verfügen. Und da die Fragmente in Blöcken gerendert werden kann ein Farbwert mehrfach benutzt werden. Ebenfalls nicht berücksichtigt wurde Texturkompresion. Alles in allem ist jede Rechnung die versucht die durch die TMUs wirklich benötigte Bandbreite auszurechnen falsch da dies sehr stark von der jeweiligen Situation abhängt.
Unregistered
2002-07-19, 20:21:41
Selbst ich als nicht unbedingt nvidia liebhaber muss doch schon sagen was hier teilweise geredet wird ist quatsch..
Der NV30 wir mindestens so schnell wie der R300 sein. Das ist eines was sicher ist und alles andere würde echt jeden überraschen....
zeckensack
2002-07-19, 20:27:31
Originally posted by Salvee
Quelle: Tomshardware
At a clock of 325 MHz, the eight pipelines are able to supply a fill rate of 8 * 325 = 2,600 Mpixels/s. Each pixel rendering pipeline has one texture unit, so the multi texturing fill rate is the same as the single texturing fill rate above. It might look as if one texture unit per pipeline is very little, but if you calculate the memory bandwidth requirement of eight parallel pipes with one texture unit doing a trilinear 32- bit color texture lookup, you will understand why two texture units wouldn't have made an awful lot of sense: 32 bit * 8 (trilinear filtering requires 8 texels to be read) * 8 (eight pipelines) = 2048 bit. 2048 bit would have to be read per clock, but 'only' 512 bit per clock are provided by the 256 bit-wide DDR memory interface of Radeon 9700. Bilinear filtering mode would still require 1024 bit per clock. Two texture units per pipe could never be fed by the memory interface. This is why it wouldn't have made sense to add those units.
:rofl:
Profis am Werk. :bonk:
Originally posted by zeckensack
:rofl:
Profis am Werk. :bonk:
Da kann ich mich nur anschliessen.
Zahlenspielerei vom feinsten.;)
zeckensack
2002-07-19, 21:53:37
Originally posted by ow
Da kann ich mich nur anschliessen.
Zahlenspielerei vom feinsten.;) Vor allem, da
1)Ein Graka-Reviewer doch ein paar Vergleichswerte herumfliegen haben sollte
2)Jemand, der eine These/Theorie aufstellt, diese möglichst untermauern sollte, zumindest mit Indizien.
Nach obiger Rechnung käme eine Radeon8500LE (250MHz DDR-RAM) nicht über 250M/s trilineare Texelfüllrate. Das kann ich so dermaßen einfach widerlegen, daß es einfach nur noch schmerzt ...
Birdman
2002-07-19, 21:58:14
Originally posted by zeckensack
Vor allem, da
1)Ein Graka-Reviewer doch ein paar Vergleichswerte herumfliegen haben sollte
2)Jemand, der eine These/Theorie aufstellt, diese möglichst untermauern sollte, zumindest mit Indizien.
Nach obiger Rechnung käme eine Radeon8500LE (250MHz DDR-RAM) nicht über 250M/s trilineare Texelfüllrate. Das kann ich so dermaßen einfach widerlegen, daß es einfach nur noch schmerzt ...
Jo, wenn man da bedenkt dass eine ati800 mit 4pipe und jeweils 2 TMU's ja nur 128bit RAM @250-275Mhz hat, dann würde das ja heissen, dass da auch sinnlos transis verschwendet worden wären. (und bei NV seit dem GF2)
Daher iss die Rechnung bei OnkelTom mal wieder recht ....na ja, man kriegt jedenfalls sicher keine 1 dafür :D
Beim R300 ist die FSAA-Performance mit Sicherheit das, was am meisten von der schnelleren Speicheranbindung profitiert, aber beim normalen Rendering sind die Vorteile nicht so gigantisch...
Auch beim Matrox Parhelia ist die FSAA Performance wesentlich besser als die Gesamtperformance, was die oben genannte Vermutung untermauert.
Eusti
2002-07-19, 22:15:06
Originally posted by Birdman
Jo, wenn man da bedenkt dass eine ati800 mit 4pipe und jeweils 2 TMU's ja nur 128bit RAM @250-275Mhz hat, dann würde das ja heissen, dass da auch sinnlos transis verschwendet worden wären. (und bei NV seit dem GF2)
Daher iss die Rechnung bei OnkelTom mal wieder recht ....na ja, man kriegt jedenfalls sicher keine 1 dafür :D
Er bekommt aber Punkte für´s reine rechnen ;). Das war nämlich korrekt.
Nur leider gibt´s für den Lösungsweg nix, da hat er offensichtlich ein paar Variablen vergessen ;D.
Haarmann
2002-07-19, 22:27:09
ow und zeckensack
Die Rechnung selber stimmt schon ;) Nur ist Bandbreite von RAM zu Chip direkt nicht der Bandbreite, die mit Cache usw vorhanden ist.
Was allerdings offenbar stimmt, ist die Tatsache, dass eine GF4 Ti Karte offensichtlich doch nicht alle ihre Texels in Real ausspucken kann... sonst wär se schneller. Denn in der Theorie, hat ne GF 4 Ti ja ca die glaiche Texelspuckrate... und ein GF2 Ultra by the way auch ned viel weniger ;).
zeckensack
2002-07-19, 22:39:03
Originally posted by Haarmann
ow und zeckensack
Die Rechnung selber stimmt schon ;) Nur ist Bandbreite von RAM zu Chip direkt nicht der Bandbreite, die mit Cache usw vorhanden ist.Si claro. Nur Onkel Tom (bzw der Review-Schreiberling) hat von dem Prinzip des Caches anscheinend noch nie was gehört, sonst wäre dieser Absatz nicht im Artikel gelandet.
(btw, steht das da wirklich so? Ich gehe seit über einem Jahr aus Prinzip nicht mehr auf THG, habe mein Gelübde nur einmal 'halb' gebrochen ...)
Was allerdings offenbar stimmt, ist die Tatsache, dass eine GF4 Ti Karte offensichtlich doch nicht alle ihre Texels in Real ausspucken kann... sonst wär se schneller. Denn in der Theorie, hat ne GF 4 Ti ja ca die glaiche Texelspuckrate... und ein GF2 Ultra by the way auch ned viel weniger ;). Das schiebe ich weniger auf den Bandbreitenbedarf der Textureinheiten, sondern eher auf die unverrückbare Tatsache, daß jeder Grafikchip (sogar ein TBR ala Kyro) pro Frame mindestens Auflösung*(Farbtiefe+Z-Tiefe) Bits in den Framebuffer schreiben muß. Theoretische Oberkante für eine Radeon8500LE in 1600x1200x32 wären (8GB/s)/(16MB/frame)=500fps.
Der Rest ist Overdraw, Z-Reads, RMW-Stalls wegen Blending, Z-Clears und gaaaanz weit hinten Texturzugriffe ;)
Demirug
2002-07-19, 22:43:26
Originally posted by zeckensack
Das schiebe ich weniger auf den Bandbreitenbedarf der Textureinheiten, sondern eher auf die unverrückbare Tatsache, daß jeder Grafikchip (sogar ein TBR ala Kyro) pro Frame mindestens Auflösung*(Farbtiefe+Z-Tiefe) Bits in den Framebuffer schreiben muß. Theoretische Oberkante für eine Radeon8500LE in 1600x1200x32 wären (8GB/s)/(16MB/frame)=500fps.
Einspruch.
1. Der Kyro schreibt keine ZWerte :D
2. Einige Chips komprimier den Z-Buffer.
3. Der R300 Komprimiert alles.
zeckensack
2002-07-19, 22:54:28
Originally posted by Demirug
1. Der Kyro schreibt keine ZWerte :D
2. Einige Chips komprimier den Z-Buffer.
3. Der R300 Komprimiert alles. Aaaargh! Will auch mal Recht haben ;(
Demirug
2002-07-19, 22:58:01
Originally posted by zeckensack
Aaaargh! Will auch mal Recht haben ;(
Einfach ein paar OpenGL Threads starten. Da kenn ich mich nicht so gut aus. :D
*bitte nicht böse sein*
Haarmann
2002-07-20, 00:47:37
Kann ja mal sonst Dr Tom rechnen helfen...
Bandbreite mal 6 = maximale Leserate bei aktivierter DXT1 ;). Aber ev wär das ja ne Überforderung für ihn... so grosse Zahlen.
bambo
2002-07-21, 01:42:27
Originally posted by LovesuckZ
Ich freu mich schon, wenn mal ATI oben ist und die Preise bestimmt. Dann geht wahrscheinlich diese 'ich-bin-gegen-fast-Monopolisten' Gehabe von vorne los. Nur statt Nvidia steht dann ATi auf der Angriffsflaeche.
ATI war schon mal fast-Monopolist (und im Mac-Bereich nicht nur "fast"), bis sie von Nvidia gestürzt wurden.
AlfredENeumann
2002-07-21, 02:01:40
Originally posted by bambo
ATI war schon mal fast-Monopolist (und im Mac-Bereich nicht nur "fast"), bis sie von Nvidia gestürzt wurden.
Naja. Ob da alle MAC-User mit der entscheidung seitens apple zufrieden waren möchte ich mal bezweifeln.
Birdman
2002-07-21, 03:31:33
Originally posted by AlfredENeumann
Naja. Ob da alle MAC-User mit der entscheidung seitens apple zufrieden waren möchte ich mal bezweifeln.
Glaubst du dass MAC User den Unterschied zwischen ATi und nVidia kennen? Die können afaik froh sein, wenn sie aufem Monitor einen Unterschied bemerken, zwischen eingebauter grafikkarte und nicht eingebauter grafikkarte.... :D
AlfredENeumann
2002-07-21, 11:08:11
Originally posted by Birdman
Glaubst du dass MAC User den Unterschied zwischen ATi und nVidia kennen? Die können afaik froh sein, wenn sie aufem Monitor einen Unterschied bemerken, zwischen eingebauter grafikkarte und nicht eingebauter grafikkarte.... :D
Glaub mir, die können das.
Razor
2002-07-21, 11:21:03
Der Grossteil kann es nicht !
(und will es auch nicht)
Die wollen nur, dass ihre Programme funzen und mehr auch nicht...
(schon mal in 'ner Firma gearbeitet, deren Mitarbeiter auch Mac's einsetzten ?)
In diesem Sinne
Razor
Haarmann
2002-07-21, 11:27:23
Birdman
Ich kenne viele Grafiker resp Layouter. Meistens nutzen diese klassischerweise Macs. Und ALLE davon haben auf die ATI Karten bestanden. Auf Deutsch NV Free Zone ;).
Razor
Leute die in der Druckvorstufe arbeiten können mit NV Karten nix anfangen, sagen se wenigstens, denn ich arbeite dort ja nicht ;). Aber ich muss es denen fast glauben. Allerdings liegt das ev auch nur an der zum Teil saumiesen SQ der NV Karten.
StefanV
2002-07-21, 14:00:21
Originally posted by Birdman
Glaubst du dass MAC User den Unterschied zwischen ATi und nVidia kennen? Die können afaik froh sein, wenn sie aufem Monitor einen Unterschied bemerken, zwischen eingebauter grafikkarte und nicht eingebauter grafikkarte.... :D
Ähm, laufen die NV Treiber eigentlich einigermaßen auf 'nem MAC oder sind sie immer noch Müll??
StefanV
2002-07-21, 14:01:58
Originally posted by bambo
ATI war schon mal fast-Monopolist (und im Mac-Bereich nicht nur "fast"), bis sie von Nvidia gestürzt wurden.
Ist NV denn schon Marktführer auf der Aplle Plattform??
Oder domniert immer noch ATI??
Ich denke, daß einige dennoch auf ATI bestehen werden, die Treiberqualität dürfte wohl auch ein Grund sein (ja, aufm MAC sollen die ATI Treiber besser sein als die NV)...
Originally posted by Stefan Payne
Ähm, laufen die NV Treiber eigentlich einigermaßen auf 'nem MAC oder sind sie immer noch Müll??
1. Was ist bei Dir eigentlich kein Müll?
2. Wieviele Macs hast'n zu Hause rumstehn?
3. Seit MacOS 10 kann ich mich jedenfalls mal nicht über die Treiberqualität von nVidia beschweren. Was vorher war, keine Ahnung.
Razor
2002-07-21, 15:03:44
Originally posted by Haarmann
Birdman
Ich kenne viele Grafiker resp Layouter. Meistens nutzen diese klassischerweise Macs. Und ALLE davon haben auf die ATI Karten bestanden. Auf Deutsch NV Free Zone ;).
Razor
Leute die in der Druckvorstufe arbeiten können mit NV Karten nix anfangen, sagen se wenigstens, denn ich arbeite dort ja nicht ;). Aber ich muss es denen fast glauben. Allerdings liegt das ev auch nur an der zum Teil saumiesen SQ der NV Karten.
Sorry, Haarmann...
Ich weiss zwar nicht, wo Du Deine Info's her hast, aber ich habe da sehr differente Erfahrungen gemacht.
Ich will hier nicht zu viel verraten, aber aufgrund der Ausrichtung unseres Unternehmens habe wir auch sehr viel mit Layouting zu tun. Nicht im Konstruktionsbereich, soviel kann ich schon verraten...
;-)
Wir haben eigene Belichtungssysteme und wohl so ziemlich alles an Drucksystemen (nicht so etwas, was die Zeitungen zur Produktion benutzen ;-), was es am Markt gibt, bis hin zu Endlos A1-Plottern, um entsprechend grossflächig zu fahren. In diesem ganzen Bereich werden eigentlich nur Mac's eingesetzt (warum wohl ;-) und was soll ich sagen ? Den Leutz ist es absolut (!) egal, was da in Ihren Rechnern werkelt. Es muss a) kompatibel zu sämtlichen externen Partnern sein (deswegen Mac) und b) schnell genug sein. Wenn's nicht mehr schnell genug ist, dann wird 'nen neuer Mac angeschafft. Und ist allen (!) neuen Mac's ist 'nVidia drin und bisher gab's auch keine Beschwerden darüber...
Kann ja sein, dass Du es mit Freaks zu tun hast, die sich tatsächlich noch weitergehend dafür interessieren, was in diesen Kisten werkelt, aber der Regelfall ist das sicher nicht... eher die absolute Ausnahme.
Just my 2 cents.
:D
Razor
P.S.: Der Versuch, mich vom Gegenteil zu überzeugen ist diesem einen Punkt absolut sinnlos, da hier Fakten sprechen...
Razor
2002-07-21, 15:07:08
Originally posted by Stefan Payne
Ähm, laufen die NV Treiber eigentlich einigermaßen auf 'nem MAC oder sind sie immer noch Müll??
Stefan,
bei Themen, wovon Du offensichlich nicht die Spur einer Ahnung hast, solltest Du Dich wirklich komplett heraus halten. Mir ist auch klar, dass Du gerne provozierst (mache ich auch gerne ;-), aber diese Fragestellung disqualifiziert Dich als absoluten Mac-DAU !
Sorry...
:D
Razor
Razor
2002-07-21, 15:12:43
Aber um mal auf das Thema zurück zu kommen...
Was genau soll jetzt beim NV30 dazu geführt haben, verworfen zu werden und nun den NV25 vorzuziehen ?
Und wo gibt es nachvollziehbare Info's darüber ?
???
Razor
also die ibooks und powerbooks werden immer noch mit den radeon mobility chips ausgeliefert
die g4 towers und imacs haben alle nur nvidia (bzw. bto ati)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.