PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce-100-Serie: GF8/9 unter neuem Namen + weitere nVidia-Umbenennungen


Seiten : 1 [2] 3

Spasstiger
2009-02-26, 17:08:04
(Zu schade, das Spasstiger uns nicht mit seiner Rechnung beglückt.)
Du wolltest es so:

http://www.abload.de/img/notebookgrakas6yfx.png

Zu den Taktraten:

Mobility Radeon HD 4870
Chiptakt: 550 MHz
Speichertakt: 888 MHz (3552 Mbps)

GeForce GTX 280M
Chiptakt: 585 MHz
Shadertakt: 1463 MHz
Speichertakt: 950 MHz (1900 Mbps)

Bei einer transparenten Namensgebung müsste die GeForce GTX 280M um 15-20% schneller als die Mobility Radeon HD 4870 MiB sein. Das entspräche dann gerade dem Vorteil der GeForce GTX 280 gegenüber der Radeon HD 4870 1024 MiB. Mit den derzeit bekannten Specs sieht es aber eher nach einem Gleichstand aus.
Die GeForce 9800M GTX+ wäre im obigen Diagramm übrigens gar nicht mehr enthalten, da sie langsamer ist als eine 9800 GT.

/EDIT: In der Grafik war ein Fehler, den ich nun korrigiert habe. Bei der GTX 280M habe ich versehentlich den G80-Chip verwendet.

LovesuckZ
2009-02-26, 22:53:08
Die Einteilung der GTX280M ist falsch, da sie 16% weniger Speicherbandbreite und 26% weniger Rechen- und Texturleistung besitzt. Sie muss daher schlechter sein als eine normale 9800gtx+ 1GB als in deinem Beispiel dargelegt.

Der Punkt ist das es ein völlig anderer Chip ist. Bei AMD werden nur die Taktraten gesenkt um den Stromverbrauch in Rahmen zu halten, bei NV sind die mobilen Chips trotz identischer Namen zum Desktop in keinster Weise vergleichbar.


Dann zähle doch mal die Unterschiede zwischen dem GT200 (65nm) und G92(b) auf. Gleichzeitig auch eine Auflistung der Eigenschaften und Features, die der GT200 gegenüber dem G92 mehr besitzt.

Spasstiger
2009-02-26, 23:36:21
Die Einteilung der GTX280M ist falsch, da sie 16% weniger Speicherbandbreite und 26% weniger Rechen- und Texturleistung besitzt. Sie muss daher schlechter sein als eine normale 9800gtx+ 1GB als in deinem Beispiel dargelegt.
Bei der 9800 GTX+ 1024 MiB habe ich nur 900 MHz statt 1100 MHz Speichertakt eingegeben, weil das die Durchschnittsvariante ist.
Aber mir ist tatsächlich ein Fehler aufgefallen, statt dem G92 habe ich den G80 als Grafikchip eingetippt habe. Das macht natürlich einen nicht zu verachtenden Unterschied. Die Korrektur folgt gleich.

KonKorT
2009-02-27, 00:40:43
Du kannst auch noch eine 9800 GTX+ mit 1 GiB und 1,1 GHz Speichertakt einbinden. Wird dann die GTS 250 1 GiB.
Und die GTS 240 wäre sicher auch interessant im Vergleich zu RV740 in der Liste.

Ailuros
2009-02-27, 08:04:30
vielleicht gehts bei der namensgebung weniger um irreführung und vergleichbarkeit mit den desktopmodellen, als viel mehr um das einhalten der hierarchie.
(..)

mfg
tobi

Im gewissen Sinn schon. Man haette aber trotzdem IMHLO etwas bescheidener sein koennen und das Ding M260 z.B. nennen.

Gast
2009-02-27, 08:42:06
Das "M" und das "Mobility" als Abgrenzung zu den Desktopchips findet ihr ausreichend - streitet euch aber gleichzeitig darüber, ob der Kunde nun "HD4870" bzw. "GTX280" erwarten darf und wieviel Prozent er davon bekommt?

Finde ich ehrlich gesagt ein wenig an den Haaren herbeigezogen. Zumal wir mMn erstmal abwarten sollten, mit welchen Taktraten die Dinger dann auch in echten Notebook-Designs eingesetzt werden. Meistens sind diese nämlich zu den "Empfehlungen" nochmal ein gutes Stückchen niedriger.

AnarchX
2009-02-27, 10:36:34
Du kannst auch noch eine 9800 GTX+ mit 1 GiB und 1,1 GHz Speichertakt einbinden. Wird dann die GTS 250 1 GiB.
Und die GTS 240 wäre sicher auch interessant im Vergleich zu RV740 in der Liste.

Ja eine Ergänzung um die "neuen" NV-Karten wäre durchaus interessant:
GTS 250 1GiB 738/1836/1100MHz
GTS 240 512MiB 675/1688/1100MHz (112SPs)
9800 GT Green 550/1375/900MHz (112SPs)

Gerade die Green Edition der 9800 GT ist imo doch eine interessante SKU, min. 91% 9800 GT Leistung bei einer TDP von unter 75W und einem deutlich gestutzten PCB:
http://vr-zone.com/articles/geforce-9800-gt-green--no-external-power-needed/6643.html?doc=6643

Aber auch die GTS 250 mit Preisen von $129/149 512/1024MiB und kürzeren Standard-PCBs (http://www.xbitlabs.com/news/video/display/20090225091941_Fourth_Encounter_With_Nvidia_s_G92_Is_Approaching_GeForce_GTS_250 _Due_in_Days.html) sind eine für den Kunden interessante Verbesserung gegenüber den 98GTX+.

Dass muss man NV lassen, sie wissen schon wie sie ihr Inventory attraktiv anbieten können.

reunion
2009-02-27, 11:13:15
Sie wissen vor allem wie sie den gleichen Schinken immer wieder neu aufwärmen können.

LovesuckZ
2009-02-27, 11:23:57
Sie wissen vor allem wie sie den gleichen Schinken immer wieder neu aufwärmen können.

Da die neuen Karten sich deutlich von den alten 9800gtx+ unterscheiden, sehe ich hier kein Problem. Aber als AMD Fan spricht ja nichts dagegen, einen rv740 als toll zu finden, der auch nur aufgewärmtes darstellt.

/edit: Vergessen wir nicht das Namenswirrwarr. So ist eine 4770 anscheinend schneller als eine 4830. Da werden die Kunden ziemlich gefoppt, die dann eine 4830 Kaufen und plötzlich mit weniger Leistung darstehen. So eine Firma :rolleyes:

Mr. Lolman
2009-02-27, 11:31:29
vielleicht gehts bei der namensgebung weniger um irreführung und vergleichbarkeit mit den desktopmodellen, als viel mehr um das einhalten der hierarchie.


(..)

mfg
tobi

Da könnte man zwar zustimmen, aber wer Nichtgeek weiss denn schon, dass zB die 9600m eigentlich eine 8600 ist. Da sind hinsichtlich der Leistung Welten dazwischen.

Gast
2009-02-27, 11:32:14
Sie wissen vor allem wie sie den gleichen Schinken immer wieder neu aufwärmen können.
AMD steht natürlich viel besser da. Dank dem verspäteten R600 ist AMDs Archtitektur 6 Monate später am Markt eingetroffen.

Ailuros
2009-02-27, 11:33:42
Sie wissen vor allem wie sie den gleichen Schinken immer wieder neu aufwärmen können.

Welcher IHV hat denn eine andere Strategie diesbezueglich und ueberhaupt im notebook Markt?

High end notebook Kaeufer werden mir wohl verzeihen muessen aber ich persoenlich halte es fuer enorme Geldverschwendung generell so hohe Preise fuer ein gaming Schlepptop hinzulegen, wenn man mit dem gleichen Geld ein PC zusammenstellen koennte dass jegliches relevante Laptop mit grossem Abstand im Schatten laesst. Ohne Stromanschluss kann man auf den Dingern sowieso nicht ernsthaft spielen und die Dinger sie unendlich stromhungrig und schwerer als stinknormale Schlepptops dass es nicht mehr schoen ist.

Ich persoenlich brauche unbedingt mein Schlepptop fuer die Arbeit; wenn ich jetzt anstatt 2.5kg ploetzlich 4.0 wenn nicht 4.5kg herumschleppen muesste wuerde ich das letztere schon aus dem Grund alleine dem Verkauefer der mir so ein Ding andrehen wuerde auf den Kopf knallen.

Mr. Lolman
2009-02-27, 11:35:32
Welcher IHV hat denn eine andere Strategie diesbezueglich und ueberhaupt im notebook Markt?

High end notebook Kaeufer werden mir wohl verzeihen muessen aber ich persoenlich halte es fuer enorme Geldverschwendung generell so hohe Preise fuer ein gaming Schlepptop hinzulegen,

Deswegen gibts auch Notebooks mit kleineren Grafikchips. Ich hätte ein schön schlankes mit ner 9600m zB schon im Auge gehabt, bis ich herausgefunden hab, dass da eigentlich eine höhergetaktete 8600 werkt. :mad:

LovesuckZ
2009-02-27, 11:38:16
Da könnte man zwar zustimmen, aber wer Nichtgeek weiss denn schon, dass zB die 9600m eigentlich eine 8600 ist. Da sind hinsichtlich der Leistung Welten dazwischen.

http://www.nvidia.com/object/geforce_m_series.html
Dort steht alles. Und dort kann man anhand der angegebenen Daten klar unterscheiden.

Gast
2009-02-27, 11:39:12
Ich hätte ein schön schlankes mit ner 9600m zB schon im Auge gehabt, bis ich herausgefunden hab, dass da eigentlich eine höhergetaktete 8600 werkt. :mad:
Es gibt 8600 mit G96? :eek:

Ailuros
2009-02-27, 11:42:30
Deswegen gibts auch Notebooks mit kleineren Grafikchips. Ich hätte ein schön schlankes mit ner 9600m zB schon im Auge gehabt, bis ich herausgefunden hab, dass da eigentlich eine höhergetaktete 8600 werkt. :mad:

Alles im 9600/36x0 Bereich ist durchaus genug fuer einen Schlepptop IMHLO. Die 9600 ist ja sowieso nur ein 32SP chip.

TobiWahnKenobi
2009-02-27, 12:03:52
korrekt.. PCIe2.0, 65nm, 32SPs, 8ROPs und ein 128bit SI.. idealerweise gepaart mit DDR3 RAM. klingt für frameratenfetischisten zwar nicht sonderlich spektakulär, ist aber erstaunlich gut "nutzbar". abseits der spiele auch für CUDA-beschleunigung von HD-content über coreAVC.

ich bin im grunde sehr zufrieden mit den gefühlten 70% der desktop-9600GT-leistung. mehr hatte ich nicht erwartet ich hatte weniger erwartet. die leistung passt gut zu WXGA-displays.

btw,
mein notebook läuft idR. mit 0,2 sone unter last ;-)

http://www.TobiWahnKenobi.de/PICTURES/G96MGPUz.jpg


(..)

mfg
tobi

Mr. Lolman
2009-02-27, 12:05:46
Alles im 9600/36x0 Bereich ist durchaus genug fuer einen Schlepptop IMHLO. Die 9600 ist ja sowieso nur ein 32SP chip.

Nichtsdestotrotz erwart ich eigentlich, dass sich die 9600m GT von der 8600m GT performancemässig so unterscheidet, wie die Desktop 9600GT von der 8600GT.


Tatsächlich siehts aber so aus:


Modell Monat/Jahr Typ ROPs SPs TMUs TAUs Chiptakt Shadertakt RAM(max) RAM-Takt

Geforce 8600M GT 05/2007 G84 8 32 16 16 475 950 512 700
Geforce 9600M GT 06/2008 G96 8 32 16 16 500 1250 1024 800






ich bin im grunde sehr zufrieden mit den gefühlten 70% der desktop-9600GT-leistung. mehr hatte ich nicht erwartet ich hatte weniger erwartet.

Hm, rechnerisch eher ~40% :|

Modell (GFlops) (MPixel/s) (MT/s) (GB/s)

Geforce 9600M GT 120 4000 8000 25,6
Geforce 9600 GT 312 10400 20800 57,6


Bei der 8600 vs. 8600m warens noch 80-90%!!!


Modell (GFlops) (MPixel/s) (MT/s) (GB/s)

Geforce 8600M GT 91,2 3800 7600 22,4
Geforce 8600 GT 113 4320 8640 22,4

TobiWahnKenobi
2009-02-27, 12:16:17
@Mr. Lolman

das habe ich derweil installiert und das läuft auch alles nativ und optisch ansprechend (ja, mitunter auch noch mit eyecandy). soll heissen: es ist nichts dabei, was ich auf niedrig oder mittel spielen müsste.

http://www.TobiWahnKenobi.de/PICTURES/zocking.jpg

einzig an crysis hat sich das book die zähne ausgebissen. das ist mit 20fps echt nicht brauchbar und deshalb wieder geflogen.

btw,
überlege grad, was ich noch in petto hätte.. ach ja, ca. 78fps im AM3 (http://www.tobiwahnkenobi.de/PICTURES/R560-Aura-AM3.jpg) und default 5.500 punkte im 06er schnullermark. letztere lassen sich mit etwas grafik-OC auf ca. 6.900 (http://www.tobiwahnkenobi.de/PICTURES/6864.jpg) punkte pushen. das ist völlig i.O. für ein notebook.


(..)

mfg
tobi

Mr. Lolman
2009-02-27, 12:21:56
@Mr. Lolman

das habe ich derweil installiert und das läuft auch alles nativ und optisch ansprechend (ja, mitunter auch noch mit eyecandy). soll heissen: es ist nichts dabei, was ich auf niedrig oder mittel spielen müsste.

http://www.TobiWahnKenobi.de/PICTURES/zocking.jpg

einzig an crysis hat sich das book die zähne ausgebissen. das ist mit 20fps echt nicht brauchbar und deshalb wieder geflogen.


(..)

mfg
tobi

Mag ja sein. Trotzdem ist die 9600M GT eigentlich eher auf der Augenhöhe mit ner Desktop 8600GT - und der tatsächliche Leistungssprung von 8600M GT auf 9600M GT ist ja wohl eher lächerlich (ganz im Ggs zu den Desktopvarianten). Deswegen bezeichne ich das Ding mittlerweile als Mogelpackung. Einfach weil ich weiss, was ne Desktop 9600GT im Stande ist zu leisten, und ich leider herausfinden musste, dass das quasi nix mit der Mobile Variante zu tun hat.

Crysis zB. kann man auch auf ner 9600GT mit hohen Details in 1280x800 wunderschön spielen.



EDIT: Ok, das LG P310 zB. ist immernoch recht interessant. Trotzdem war ich klarerweise etwas enttäuscht, als ich herausgefunden hab, dass ich mir Crysis damit abschminken kann.

TobiWahnKenobi
2009-02-27, 12:31:35
Crysis zB. kann man auch auf ner 9600GT mit hohen Details in 1280x800 wunderschön spielen.

ich weiss, das sehe ich ja an meinem desktop-PC. da habe ich (lt. fraps) bei 720p/hoch/2xMSAA im mittel 10fps mehr, als auf dem notebook (30 vs. 20). verglichen mit dem stationären klopper hat das book aber auch nur 2GHz/3mbyte L2 :rolleyes:

btw,
beim notebook muss man halt versuchen, die performance im verhältnis zu leistungsaufnahme und wärme- respektive geräuschentwicklung zu sehen. mit der 96M GT und einem C2D auf idle-verbräuche von 20W zu kommen, finde ich schon recht beachtlich. unter last steigt das zwar auf 50-70W an, bleibt aber trotzdem leise!!
oder anders: das komplette book verbraucht unter last weniger, als die 9600GT im desktop allein.


(..)

mfg
tobi

Hugo
2009-02-27, 12:36:27
hier die GTS250 Karten von Asus.

Link zu Computerbase
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2009/februar/asus_geforce_gts_250/

Ailuros
2009-02-27, 12:53:19
Nichtsdestotrotz erwart ich eigentlich, dass sich die 9600m GT von der 8600m GT performancemässig so unterscheidet, wie die Desktop 9600GT von der 8600GT.

Dann willst Du keine M9600 sondern eine M9800:

http://www.nvidia.com/object/geforce_m_series.html

Falls Dir die Tabelle unten etwas sagen sollte.

***edit: noch mehr OT....ich hab momentan ein Sony Vaio im Auge; das Ding ist lediglich 2kg schwer und haelt auch unter Normalverbrauch auf der Batterie locker ueber 3 Stunden aus; und nein die 3470M die das Ding hat und der 13,3" Bildschirm (1280*800) scheren mich kein bisschen. Nur der Preis ist verdammt pfiffig...

Gast
2009-02-27, 12:57:07
Du wolltest es so:

http://www.abload.de/img/notebookgrakas6yfx.png

Das macht 57% der GTX 280 Leistung. Ich habe mal so eben 65% anhand der Daten geschätzt.

Wobei ich davon ausgegangen bin, das die 4870M 512MiB besitzt.
Was mich an deiner Rechnung stört, ist der geringe Vorteil durch mehr VRAM auf der Geforce Seite.

Mr. Lolman
2009-02-27, 13:04:23
Dann willst Du keine M9600 sondern eine M9800:

http://www.nvidia.com/object/geforce_m_series.html

Falls Dir die Tabelle unten etwas sagen sollte.

Da gibts leider noch nix schlankes.


***edit: noch mehr OT....ich hab momentan ein Sony Vaio im Auge; das Ding ist lediglich 2kg schwer und haelt auch unter Normalverbrauch auf der Batterie locker ueber 3 Stunden aus; und nein die 3470M die das Ding hat und der 13,3" Bildschirm (1280*800) scheren mich kein bisschen. Nur der Preis ist verdammt pfiffig...

Warum kein LG P310? 1.6kg und 9600M GT

Ailuros
2009-02-27, 13:44:01
Da gibts leider noch nix schlankes.

Auf den Punkt wollte ich eben gerade hinaus. Lieber weniger GPU Leistung als taeglich einen Urlaubskoffer (uebliche Uebertreibung...) herumschleppen zu muessen.

Warum kein LG P310? 1.6kg und 9600M GT

LG P310-S CB11HS? Falls ja hat das Ding eine 2600mAh Batterie. Das Vaio hat hingegen eine 4800mAh Batterie:

http://vaio.sony.co.uk/view/ShowProduct.action?product=VGN-SR29VN/S

http://uk.insight.com/apps/productpresentation/index.php?product_id=SOOA061WZ#extendedspecs

Mr. Lolman
2009-02-27, 14:17:38
LG P310-S CB11HS? Falls ja hat das Ding eine 2600mAh Batterie. Das Vaio hat hingegen eine 4800mAh Batterie:

http://vaio.sony.co.uk/view/ShowProduct.action?product=VGN-SR29VN/S

http://uk.insight.com/apps/productpresentation/index.php?product_id=SOOA061WZ#extendedspecs

Laut LG ists:

Standard 6 Zellen Li-Ion (5200 mAh)

Gast
2009-02-27, 16:08:24
BTT please?

Carsten

LovesuckZ
2009-02-27, 19:03:22
Die GTX260M soll laut Fuad 7 Cluster, 550/1375/950MHz@1024mb besitzen. Demnach wird die Karte schneller als die 4850m sein, außer sie kommt mit den 550MHz der 4870m auf den Markt.

Und bei PCGH.de findet man ein Bild zu einer GTS250 von Gigabyte. Die Karte sieht so anders aus, dass eindeutig richtig ist, sie anders zu benennen. Nicht nur das Aussehen, sondern auch die Features sind unterschiedlich: Kein Hybrid-SLI (meine Spekulation) und kein Tri-SLI.

http://www.donanimhaber.com/images/image.aspx/haber/WTM_gigabyte_gts250_zalman_1_dh_fx572.jpg
http://www.donanimhaber.com/Gigabytein_Zalman_sogutuculu_GeForce_GTS_250_modeli_gorundu-13058.htm


Dass muss man NV lassen, sie wissen schon wie sie ihr Inventory attraktiv anbieten können.

Vorallen wirkt es sich nur positiv auf weitere Quartalszahlen aus, da die verursachten Kosten schon in den vorigen abgedeckt sind. Und da nVidia ihre Waferbestellungen stark eingeschränkt haben, haben sie einen ziemlichen Vorteil gegenüber AMD und dem rv740. Mit der GTS240 nimmt man einfach den Leistungsimpact vorweg für 99$ und hat wahrscheinlich einen ähnlichen Effekt pro Chip, da Produktions, Überprüfung und Lieferung komplett wegfallen. Das muss bei AMD erstmal bezahlt werden.
Und mit den GTS250 Karten wird man gleichzeitig den Druck auf AMD erhöhen. Ich schätze, dass AMD wie immer mit den Preisen schnell nachziehen, und der rv740 nicht mit 99$ in den Markt gelangen wird.

Sorkalm
2009-02-27, 20:23:13
Und bei PCGH.de findet man ein Bild zu einer GTS250 von Gigabyte. Die Karte sieht so anders aus, dass eindeutig richtig ist, sie anders zu benennen. Nicht nur das Aussehen, sondern auch die Features sind unterschiedlich: Kein Hybrid-SLI (meine Spekulation) und kein Tri-SLI. [/URL]

Jetzt ist es wohl sogar Dienst am Kunden, diese Karten wegen Featurebeschneidung anders zu benennen?
Ich sag dazu mal lieber nichts mehr. :rolleyes:

[QUOTE]Vorallen wirkt es sich nur positiv auf weitere Quartalszahlen aus, da die verursachten Kosten schon in den vorigen abgedeckt sind.

Äh, nein. Nur weil meine Ausgaben im alten Jahr liegen, heißt das nicht, dass der zu buchende Aufwand auch im alten Jahr liegt. Da muss man sich den konkreten Fall anschauen.

Allerdings verursacht die Produktion einer Chips auch keinen buchhalterischen Aufwand, denn jeder Euro den ich in den Chip investiere steigert den Wert des Chips. Erst beim Verkauf entsteht ein Gewinn oder Verlust (solange ich nichts aus dem Inventar abschreiben muss).

Und da nVidia ihre Waferbestellungen stark eingeschränkt haben, haben sie einen ziemlichen Vorteil gegenüber AMD und dem rv740. Mit der GTS240 nimmt man einfach den Leistungsimpact vorweg für 99$ und hat wahrscheinlich einen ähnlichen Effekt pro Chip, da Produktions, Überprüfung und Lieferung komplett wegfallen. Das muss bei AMD erstmal bezahlt werden.

Die Kosten dafür sind aber irgendwann schon mal angefallen.
Abgesehen davon, wieso kennst du dich so gut mit AMDs Lagerbeständen aus?

LovesuckZ
2009-02-27, 20:37:30
Und bei PCGH.de findet man ein Bild zu einer GTS250 von Gigabyte. Die Karte sieht so anders aus, dass eindeutig richtig ist, sie anders zu benennen. Nicht nur das Aussehen, sondern auch die Features sind unterschiedlich: Kein Hybrid-SLI (meine Spekulation) und kein Tri-SLI.

Jetzt ist es wohl sogar Dienst am Kunden, diese Karten wegen Featurebeschneidung anders zu benennen?
Ich sag dazu mal lieber nichts mehr. :rolleyes:

Ist besser, sonst stündest du ziemlich dumm da. :rolleyes:
Natürlich ist es besser, oder sollte der Kunde Roulette spielen beim Bestellen? Tri-SLI und Hybrid-Power sind Features, die bei der 9800gtx+ angepriesen wurden sind. Und schon heute gibt es Karten, die weder im Referenzdesign sind noch die Features unterstützen.
Ihr regt euch über jeden Mist auf, aber wenn der Kunde so richtig verarscht wird, ist es euch egal. Ihr seid son ein paar Typen, wirklich.


Allerdings verursacht die Produktion einer Chips auch keinen buchhalterischen Aufwand, denn jeder Euro den ich in den Chip investiere steigert den Wert des Chips. Erst beim Verkauf entsteht ein Gewinn oder Verlust (solange ich nichts aus dem Inventar abschreiben muss).

Der Unternehmenswert bleibt gleich, da die Chips in den Lager nicht verkauft wurden. Dagegen sehen jedoch Kosten, die durch die Produktions angefallen sind. Diese Kosten müssen irgendwo vermerkt werden. Ansonsten kann man ja nie Verlust machen, wenn sie erst beim Verkauf abgerechnet würden...


Abgesehen davon, wieso kennst du dich so gut mit AMDs Lagerbeständen aus?

Dort steht nirgend etwas von AMD's Lagerbeständen. Der r740 muss erst produziert werden, denmach fallen Kosten und Ertrag ins selbe Quartal. Das ist bei nVidia nicht gegeben.

Sorkalm
2009-02-27, 21:03:36
Der Unternehmenswert bleibt gleich, da die Chips in den Lager nicht verkauft wurden. Dagegen sehen jedoch Kosten, die durch die Produktions angefallen sind. Diese Kosten müssen irgendwo vermerkt werden. Ansonsten kann man ja nie Verlust machen, wenn sie erst beim Verkauf abgerechnet würden...

Die Kosten der Produktion werden im Wert der Chips vermerkt. Wenn ich 1 Euro an irgendeiner Stelle für Gut X ausgebe, steigert das den Wert von Gut X um 1 Euro.

Verlust entsteht natürlich auch, wenn mein Gut X einen höheren Wert hat, als der Marktpreis dafür ist. Dann muss ich halt wieder abschreiben.

Dort steht nirgend etwas von AMD's Lagerbeständen. Der r740 muss erst produziert werden, denmach fallen Kosten und Ertrag ins selbe Quartal. Das ist bei nVidia nicht gegeben.

Ich bezweifle, dass die Ausgaben für RV740 nur im zweiten Quartal stattfinden.

Nvidia hat jedoch auch wenn sie einen G92b aus 2008 jetzt verkaufen jetzt die Bestandsminderung der fertigen Erzeugnisse zu buchen (gegen die Erlöse natürlich). Daher jetzt entsteht ein Aufwand in Höhe des Wertes des Chips.

LovesuckZ
2009-02-27, 21:12:02
Die Kosten der Produktion werden im Wert der Chips vermerkt. Wenn ich 1 Euro an irgendeiner Stelle für Gut X ausgebe, steigert das den Wert von Gut X um 1 Euro.

Hier wird jedoch kein Gut gesteigert. Es wird investiert. Geld wird gegen etwas anderes eingetauscht. Das verändert nicht den zu diesen Zeitpunkt vorhandenen Unternehmenswert. Dagegen muss vermerkt werden, was an Geld ausgegeben wurde. Investition führt ja nicht zu einem sofortigen Ertrag. Demnach fehlt der entsprechende Betrag auf der Einnahmenseite.


Ich bezweifle, dass die Ausgaben für RV740 nur im zweiten Quartal stattfinden.

Ja, aber wir wissen nicht, wann nVidia mit dem entsprechenden Konkurrenzprodukt auf dem Markt erscheint. Und es wird erst dann für AMD positiv sein, wenn nVidia wieder verstärkt Wafer bestellen muss. Das ist im jetzigen Quartal nicht passiert.


Nvidia hat jedoch auch wenn sie einen G92b aus 2008 jetzt verkaufen jetzt die Bestandsminderung der fertigen Erzeugnisse zu buchen (gegen die Erlöse natürlich). Daher jetzt entsteht ein Aufwand in Höhe des Wertes des Chips.

Es gibt keine Bestandsminderung, außer man bilanziert die GPUs höher als sie eigentlich wären.

Sorkalm
2009-02-27, 21:22:57
Hier wird jedoch kein Gut gesteigert. Es wird investiert. Geld wird gegen etwas anderes eingetauscht. Das verändert nicht den zu diesen Zeitpunkt vorhandenen Unternehmenswert.

Du schreibst es vollkommen richtig. Damit verändert sich schonmal die Bilanzsumme nicht. Weil ich irgendwas für mein Geld bekomme. Das ist bei Investitionen immer so. ;)

Dagegen muss vermerkt werden, was an Geld ausgegeben wurde.

Auch richtig. Kauf ich mir von Geld auf meinem Bankkonto eine Maschine, buche ich das entsprechend ein (hier: Maschine an Bank).

Investition führt ja nicht zu einem sofortigen Ertrag. Demnach fehlt der entsprechende Betrag auf der Einnahmenseite.

Das einzige was sich hier (Beispiel siehe oben) verringert, ist der Zahlungsmittel- und Geldvermögensbestand. Das Reinvermögen bleibt gleich, und das findest du in der Bilanz sowie in der Gewinn-und-Verlustrechnung.
So gesehen führt die Investition schon zu einem sofortigen "Ertrag" (der neuen Maschine nämlich).

Bei der Produktion von Chips ist das exakt das selbe.

Ja, aber wir wissen nicht, wann nVidia mit dem entsprechenden Konkurrenzprodukt auf dem Markt erscheint. Und es wird erst dann für AMD positiv sein, wenn nVidia wieder verstärkt Wafer bestellen muss. Das ist im jetzigen Quartal nicht passiert.

AMD interessiert sich vmtl. nur für die eigenen Finanzen.

Es gibt keine Bestandsminderung, außer man bilanziert die GPUs höher als sie eigentlich wären.

Das darf man nicht. Abschreibungen entstehen daher immer bei den Korrekturbuchungen, wenn man bemerkt das die Herstellung zu teuer ist (deutlich öfter: zu teuer war). ;)

dildo4u
2009-03-01, 19:15:26
Asus zeigt neue Geforce GTS 250 und 9600 GT in Energiespar-Version

http://s3b.directupload.net/images/090301/4nl2deiz.jpg

http://www.pcgameshardware.de/aid,677513/Asus-zeigt-neue-Geforce-GTS-250-und-9600-GT-in-Energiespar-Version/Grafikkarte/News/

reunion
2009-03-01, 19:21:59
Und bei PCGH.de findet man ein Bild zu einer GTS250 von Gigabyte. Die Karte sieht so anders aus, dass eindeutig richtig ist, sie anders zu benennen. Nicht nur das Aussehen, sondern auch die Features sind unterschiedlich: Kein Hybrid-SLI (meine Spekulation) und kein Tri-SLI.

Vorallen wirkt es sich nur positiv auf weitere Quartalszahlen aus, da die verursachten Kosten schon in den vorigen abgedeckt sind. Und da nVidia ihre Waferbestellungen stark eingeschränkt haben, haben sie einen ziemlichen Vorteil gegenüber AMD und dem rv740. Mit der GTS240 nimmt man einfach den Leistungsimpact vorweg für 99$ und hat wahrscheinlich einen ähnlichen Effekt pro Chip, da Produktions, Überprüfung und Lieferung komplett wegfallen. Das muss bei AMD erstmal bezahlt werden.
Und mit den GTS250 Karten wird man gleichzeitig den Druck auf AMD erhöhen. Ich schätze, dass AMD wie immer mit den Preisen schnell nachziehen, und der rv740 nicht mit 99$ in den Markt gelangen wird.

Ja genial wie NV alten Schicken zum x-ten male neu aufwärmt. Warum überhaupt noch neue Chips entwickeln?

dildo4u
2009-03-01, 19:26:12
Ja genial wie NV alten Schicken zum x-ten male neu aufwärmt. Warum überhaupt noch neue Chips entwickeln?
Die Karte reicht halt locker gegen die 4850 und ist günstiger in der Herstellung.(Chip ist kleiner braucht weniger Strom)

AnarchX
2009-03-01, 19:31:14
@reunion
Aber wäre es besser wenn man die Karte nochmals als 9800 GTX+ verkauft, obwohl sich das Featureset doch geändert hat bzw. beschnitten wurde?

Im Endeffekt würde eine GT21x-basierende GTS 250 wohl eine keine wirklich andere Leistung als die nun G92 basierende liefern, im Endeffekt wären hier wohl nur paar interne Parameter anders, welche die meisten Kunden wohl kaum interessieren dürften.

Und es ist ja bei der GTS 250 auch nicht so, dass man über den Namen versucht dem Kunden mehr Geld für das gleiche Produkt abzuknöpfen, sondern hier werden Preise gesenkt($129/149, 512/1024MiB) und bei der GTS 250 1GiB gibt es die Vorgabe zu 1.1GHz Speicher.

Spasstiger
2009-03-01, 19:31:33
Die Karte reicht halt locker gegen die 4850 und ist günstiger in der Herstellung.(Chip ist kleiner braucht weniger Strom)
Der G92b ist aber leider etwas größer als der RV770. Ein Chip mit G92-Performance wäre in 40 nm deutlich kleiner als der G92b.

dildo4u
2009-03-01, 19:33:20
Der G92b ist aber leider etwas größer als der RV770.
G92b 231mm RV770 256mm.

"Die Oberflächengröße des G92 wird so von 324 mm² auf 231 mm² reduziert."

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juni/geforce_9800_gtx_g92b_55/

http://www.pcgameshardware.de/aid,643731/Chip-Groesse-des-RV770-bekannt/Grafikkarte/News/

LovesuckZ
2009-03-01, 19:37:04
Ja genial wie NV alten Schicken zum x-ten male neu aufwärmt. Warum überhaupt noch neue Chips entwickeln?

Yeah und rv740 und rv790 sind ja solche Neuentwicklungen. :rolleyes:
Und es ist nVidia's Glück, wenn der Konkurrent nunmal auf dem Stand von 2006 ist. Ich meine, man kann wohl nVidia nicht kritisieren, wenn AMD nichts besseres als den rv770 und Konsorten liefern kann.

/edit: Ausserdem kauft man keine Chips - man kauft Karten, die mit Features und Leistung beworben werden. Und die neuen Karte unterscheiden sich in vier deutlichen Dingen: Kein TRI-Sli (und Hybrid-Power), kein Referenzdesign mehr und standardmäßig mit 1024mb auf 1100MHz. Natürlich sollte nVidia einfach fast komplett andere Karten unter dem selben Namen verkaufen. Aber dann würdest du genauso meckern.

AnarchX
2009-03-01, 19:37:43
G92b 231mm RV770 256mm.

"Die Oberflächengröße des G92 wird so von 324 mm² auf 231 mm² reduziert."

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/juni/geforce_9800_gtx_g92b_55/

http://www.pcgameshardware.de/aid,643731/Chip-Groesse-des-RV770-bekannt/Grafikkarte/News/
Die Messung ist falsch. G92b ist ~265mm² (was auch andere Messungen zeigen) groß, 55nm ist zudem ein 90% linearer Shrink zu 65nm.

Der G92b ist aber leider etwas größer als der RV770. Ein Chip mit G92-Performance wäre in 40 nm deutlich kleiner als der G92b.
Aber wäre er auch wirtschaftlicher? Nvidia soll ja noch ein mächtiges Inventory an G9x-GPUs haben, die man mit der Einführung einer solche SKU wohl kaum noch verkaufen würde. Und dann bleibt noch die Frage wie die Preise für Wafer und das Yield bei 40nm gegenüber dem nun doch sicherlich erprobten, fast 1,5 Jahre alten 55nm Prozess stehen.

Mit RV740 könnte man natürlich hier ernsthaftere Probleme bekommen, wenn er wirklich nur knapp über 100mm² liegt und ATi hier noch Luft für >700MHz hat.
Aber bis Mai ist es ja noch etwas hin und dann dürfte NV wohl auch langsam mal etwas brauchbares unter 40nm in den Händen haben.

Spasstiger
2009-03-01, 19:44:09
Aber wäre er auch wirtschaftlicher? Nvidia soll ja noch ein mächtiges Inventory an G9x-GPUs haben, die man mit der Einführung einer solche SKU wohl kaum noch verkaufen würde.
Das ist natürlich ein Problempunkt. Wenn viele Chips auf Halde produziert wurden, dann muss man die erst loswerden.
Ansonst wäre sowas wie ein G92-Äquivalent in 40 nm mit einem 128-Bit-GDDR5-SI und weiterhin 16 ROPs sicherlich wirtschaftlicher als der G92b. Und man bekäme auch bessere Presse.
Aber mal abwarten, vielleicht kommt so ein Chip ja noch bis zum Sommer.

LovesuckZ
2009-03-01, 19:50:07
Mit RV740 könnte man natürlich hier ernsthaftere Probleme bekommen, wenn er wirklich nur knapp über 100mm² liegt und ATi hier noch Luft für >700MHz hat.
Aber bis Mai ist es ja noch etwas hin und dann dürfte NV wohl auch langsam mal etwas brauchbares unter 40nm in den Händen haben.

Dieses Problem betrifft doch anscheinend auch AMD. Sollte der rv790 wirklich nur ein Redesign sein mit >260mm^2 bzw gar nur ein rv770, dann zerstört auch den bis jetzt guten Eindruck. Man erreicht fast 4850 Niveau und wäre damit ca. 50% langsamer als eine 4890. Deutlich günstiger, nicht in dem selben Maße langsamer - da wird es auch für AMD eine Mammutaufgabe den Leuten den rv790 schmackhaft zu machen.

reunion
2009-03-01, 20:04:07
@reunion
Aber wäre es besser wenn man die Karte nochmals als 9800 GTX+ verkauft, obwohl sich das Featureset doch geändert hat bzw. beschnitten wurde?


Man hätte die Karte auch wieder 8800GTS nennen können, dann würde das Featureset wieder passen. :rolleyes:

Ne Spaß bei Seite. Nach der heftigen Kritik mit der 9800GT hat sich NV wohl dazu entschieden ein paar Alibiänderungen durchzuführen. Im Endeffekt erhält hier der selbe Chip mit minimalen Takt-/Speicheränderungen und Features die keiner braucht zum dritten male einen neuen Namen.

Gast
2009-03-01, 20:07:30
Und die neuen Karte unterscheiden sich in vier deutlichen Dingen: Kein TRI-Sli (und Hybrid-Power), kein Referenzdesign mehr und standardmäßig mit 1024mb auf 1100MHz.
Und bei all dem bist du dir ganz sicher?

Carsten

LovesuckZ
2009-03-01, 20:20:15
Selbst ohne Zugang zu NDA Informationen - ja.


Ne Spaß bei Seite. Nach der heftigen Kritik mit der 9800GT hat sich NV wohl dazu entschieden ein paar Alibiänderungen durchzuführen. Im Endeffekt erhält hier der selbe Chip mit minimalen Takt-/Speicheränderungen und Features die keiner braucht zum dritten male einen neuen Namen.

Man kauft keine Chips. :rolleyes:

reunion
2009-03-01, 20:22:49
Ansonst wäre sowas wie ein G92-Äquivalent in 40 nm mit einem 128-Bit-GDDR5-SI und weiterhin 16 ROPs sicherlich wirtschaftlicher als der G92b.

So etwas ist durch die Koppelung von ROPs mit den MCs nicht möglich.

Ailuros
2009-03-01, 20:26:04
Ne Spaß bei Seite. Nach der heftigen Kritik mit der 9800GT hat sich NV wohl dazu entschieden ein paar Alibiänderungen durchzuführen. Im Endeffekt erhält hier der selbe Chip mit minimalen Takt-/Speicheränderungen und Features die keiner braucht zum dritten male einen neuen Namen.

Was fuer features braucht denn genau ein sogenannter high end chip auf einem Schlepptopp (ausser einer gigantischen Batterie auf dem Buckel zum mitschleppen was eigentlich das erste waere dass Sinn machen wuerde)?

Von mir aus kann sowohl NV als auch AMD 10 mal in der Woche ihren Mist fuer Schlepptops umbenennen in meine Laptops kommt solch eine Geldverschwendung so oder so nicht rein.


Lolman,

Danke das aendert natuerlich gigantisch manche Aspekte wenn es stimmt.

reunion
2009-03-01, 20:26:19
Man kauft keine Chips. :rolleyes:

Aber man sollte Karten mit gleichen Chip zumindest halbwegs gleich Kennzeichnen. Die Unterschiede zwischen 8800GTS -> 9800GTX(+) -> GTS250 sind ja nicht gerade riesig und rechtfertigen sicherlich nicht zwei neue Generationen. Aber zumindest kann ich mich mit meiner mittlerweile schon ziemlich alten 8800GTS wohl weiter entspannt zurück lehnen.

LovesuckZ
2009-03-01, 20:46:38
Aber man sollte Karten mit gleichen Chip zumindest halbwegs gleich Kennzeichnen. Die Unterschiede zwischen 8800GTS -> 9800GTX(+) -> GTS250 sind ja nicht gerade riesig und rechtfertigen sicherlich nicht zwei neue Generationen. Aber zumindest kann ich mich mit meiner mittlerweile schon ziemlich alten 8800GTS wohl weiter entspannt zurück lehnen.

Man kauft keine Chips. Also ist die Bezeichnung von Karten komplett unabhängig von der Chipbezeichnung.

AnarchX
2009-03-01, 21:09:23
Aber trotzdem sollte die Bezeichnung der Verpackung doch Infos über den Inhalt geben. ;)

Und GeForce 200 wurde ja als 2nd Gen USA eingeführt mit einem bestimmten Versprechen:
2nd Generation NVIDIA® Unified Architecture
Second generation architecture delivers 50% more gaming performance over the first generation through enhanced processor cores that provide incredible shading horsepower.
... mal sehen ob man diesen Text am Dienstag auch bei der GTS 250 wieder hinkopieren wird.:D

Im Endeffekt verpackt man hier ein neues Cost-Down-Design und eine Preissenkung in einen Relaunch mit der Assoziation zur 2nd Gen USA.
Das ist natürlicher um einiges medienwirksamer als eine einfache Pressemeldung zu den beiden Veränderungen. Aber sicherlich auch teurer für NV als die PM.

Auf der anderen Seite muss man natürlich sehen, dass eine einfache Beschneidung der 9800GTX+ um bestimmte Fähigkeiten bei gleichzeitigen Erhalt des Namens auch nicht optimal ist.

Am konsequentesten wäre wohl ein Relaunch des kompletten Lineups als GeForce 100 oder eben man gibt zu dass GT200 doch nur ein G9x auf Steroiden ist und relauncht komplett als GeForce 200.

Im Endeffekt bleibt es natürlich dabei, dass der Kunde eben nicht allein nach dem Namen gehen kann, wenn er ein Produkt kaufen will, und das trifft ja nicht nur auf GPUs zu.

Gast
2009-03-01, 21:32:03
Aber man sollte Karten mit gleichen Chip zumindest halbwegs gleich Kennzeichnen. Die Unterschiede zwischen 8800GTS -> 9800GTX(+) -> GTS250 sind ja nicht gerade riesig und rechtfertigen sicherlich nicht zwei neue Generationen. Aber zumindest kann ich mich mit meiner mittlerweile schon ziemlich alten 8800GTS wohl weiter entspannt zurück lehnen.
Aber der Unterschied zwischen 2900 XT -> 3870 -> 4830 ist riesig. :rolleyes:
Ok, erstere ist zwar dank der VRAM Größe überlegen, egal.

AnarchX
2009-03-01, 21:40:16
Aber der Unterschied zwischen 2900 XT -> 3870 -> 4830 ist riesig. :rolleyes:
Ok, erstere ist zwar dank der VRAM Größe überlegen, egal.
2900 -> 3800: D3D10.1, Powerplay und eine bessere Pro-Watt-Leistung
3800 -> 4800: verbesserte GPGPU-Fähigkeiten(offenbar OpenCL erst ab HD4000 möglich), deutliche Leistungsteigerung

Da ist doch schon einiges mehr passiert, als bei 8800 GT zu GTS 250, wobei in einigen Punkten hier natürlich auf NV eher aufgeholt wurde.

Gast
2009-03-01, 21:46:46
Selbst ohne Zugang zu NDA Informationen - ja.

Das ist unabhängig von NDA-Infos - einfach nur vom Platinen-Anschauen kann man auf die richtige Idee kommen. :)

Es sei denn, Nvidia ist auf die glorreiche Idee gekommen, einen Ersatz-SLI-Anschluss zu verbauen.


Carsten

Gast
2009-03-01, 22:21:15
2900 -> 3800: weniger Bandbreite, weniger VRAM
3800 -> 4800: Powerplay wieder abgeschafft

Beides Mal keinerlei Leistungssteigerung, im Falle der 2900XT, 3870 und 4830. So wie 8800GT -> 9800GT.

Kann man eben hinbiegen wie man will.
reunion siehts halt so, das RV770 endlich knapp G80 Niveau erreicht hat, lässt aber die Frage offen auf welchem Niveau 3800 und 2900 sind.

AnarchX
2009-03-01, 22:34:25
2900 -> 3800: weniger Bandbreite, weniger VRAM
3800 -> 4800: Powerplay wieder abgeschafft

Beides Mal keinerlei Leistungssteigerung, im Falle der 2900XT, 3870 und 4830. So wie 8800GT -> 9800GT.

Eine 4830 ist gut 30% schneller als eine HD3870. Und der fairere Vergleich wäre ja hier 4870 vs 3870. ;)

VRAM hatten 2900XT und 3870 doch beide in der Referenzversion 512MiB, die 1GiB GDDR4 XT war ja eher eine sehr kurze Erscheinung am Markt.

Spasstiger
2009-03-01, 22:48:44
2900 -> 3800: weniger Bandbreite, weniger VRAM
Es gab HD-2900er-Karten mit 256 MiB, 512 MiB und 1024 MiB VRAM und genauso gab es HD-3800er-Karten mit 256 MiB, 512 MiB und 1024 MiB VRAM.

3800 -> 4800: Powerplay wieder abgeschafft
Powerplay funktioniert, sonst würden die HD 4800er im idle nicht den Takt und die Spannung absenken. Relativ gesehen sinkt die Leistungsaufnahme der HD-4800er-Karten im idle genauso stark wie die Leistungsaufnahme der HD-3800er-Karten. Und mit Bios-Mods kommt man sogar absolut auf den gleichen idle-Verbrauch.

Beides Mal keinerlei Leistungssteigerung, im Falle der 2900XT, 3870 und 4830. So wie 8800GT -> 9800GT.
Von der 2900 XT zur HD 3870 gabs mit aktivem AntiAliasing und mit den Custom-Filter-AA-Modi teilweise spürbare Leistungssteigerungen.
Von der HD 3870 zur HD 4830 ists sogar ein richtiger Sprung. Mit aktivem Edge-Detect-Filter verdoppelt sich die Performance, sonst immer noch ein Plus von 30%.
Von der 8800 GT zur 9800 GT gabs leistungstechnisch überhaupt keine Unterschiede. Auch eine Garantie auf sparsamere 55-nm-Chips hatte man bei der 9800 GT nicht.

So etwas ist durch die Koppelung von ROPs mit den MCs nicht möglich.
Man kann auch die ROP-SI-Partitionen überarbeiten, so dass pro 64-Bit-SI-Element 8 ROPs vorhanden sind. Die Ingenieure von NV halte ich für kompetent genug. Ich kann mir nicht vorstellen, dass NV GDDR5 einführt und dabei direkt mal die ROP-Leistung halbiert bei gleicher Speicherbandbreite.
Zur Veranschaulichung: Speicherbandbreite zu Pixelfüllrate

HD 4750: 4,9 Byte/Pixel
HD 4670: 5,3 Byte/Pixel
HD 3870 (GDDR4): 5,8 Byte/Pixel
HD 2900 XT: 8,9 Byte/Pixel
HD 4870: 9,6 Byte/Pixel

9600 GT: 5,5 Byte/Pixel
9800 GTX+: 6,0 Byte/Pixel
8800 GT: 6,0 Byte/Pixel
8800 GTX: 6,3 Byte/Pixel
GTX 260: 6,9 Byte/Pixel
GTX 280: 7,3 Byte/Pixel

Und jetzt die fiktiven Karten:
9800 GTX+ @ 128 Bit GDDR5 @ 8 ROPs: 11,9 Byte/Pixel
9800 GTX+ @ 128 Bit GDDR5 @ 16 ROPs: 6,0 Byte/Pixel

Zweiteres passt deutlich besser in die Leistungsklasse.

LovesuckZ
2009-03-01, 22:50:40
Eine 4830 ist gut 30% schneller als eine HD3870. Und der fairere Vergleich wäre ja hier 4870 vs 3870. ;)

Man sollte auch nicht 9800gt(x+) mit den GTS Karten vergleichen. Immerhin: Gegenüber AMD muss man nicht auf Leistung verzichten, wenn man von einer 9800gt(x+) auf eine GTS Karte wechselt - das ist bei AMD mit den 46x0 Karten ja nicht gegeben. ;)

reunion
2009-03-02, 08:24:53
Man sollte auch nicht 9800gt(x+) mit den GTS Karten vergleichen. Immerhin: Gegenüber AMD muss man nicht auf Leistung verzichten, wenn man von einer 9800gt(x+) auf eine GTS Karte wechselt - das ist bei AMD mit den 46x0 Karten ja nicht gegeben. ;)

Deine Vergleiche sind derart grotesk, lächerlich - ja geradezu obszön, das man sich schon fragen muss was in deinem Kopf vorgeht.

reunion
2009-03-02, 08:30:36
Aber der Unterschied zwischen 2900 XT -> 3870 -> 4830 ist riesig. :rolleyes:
Ok, erstere ist zwar dank der VRAM Größe überlegen, egal.

Zwischen den drei genannten Karten liegen Welten, die Leistung/Watt ist regelrecht explodiert, es handelt sind jeweils um andere Chips, teilweise sogar um neue Generationen (RV770). Auch wenn ich nicht verstehe wie du zu diesem Vergleich kommst. Richtig wäre wohl 2900XT -> 3870 (X2) -> 4870 (X2). NV verbaut vollkommen identische Chips, tw. sogar mit identischen Taktraten und verkauft das dann als drei verschiedene Generationen.

LovesuckZ
2009-03-02, 08:56:22
Deine Vergleiche sind derart grotesk, lächerlich - ja geradezu obszön, das man sich schon fragen muss was in deinem Kopf vorgeht.

Ach, du findest es also gut, wenn der AMD User vom vorigen High-End auf das neue Mid-Range wechselt und dann weniger Leistung und eventuell weniger Features erhält, aber im Gegenzug ist es bei nVidia schlecht, wenn das neue Mid-Range nicht langsamer ist?
Vielleicht solltest du erstmal in deinem Kopf nachgucken, ob da überhaupt ein Denkapparat vorhanden ist. :rolleyes:

NV verbaut vollkommen identische Chips, tw. sogar mit identischen Taktraten und verkauft das dann als drei verschiedene Generationen.

Seit wann sind G80, G92 und GT200 "vollkommen identische Chips"? :rolleyes: Und für den Kunden spielt es keine Rolle, ob der Chip rv670 oder rv730 heißt. Die sind für ihn genauso identisch.
Überhaupt, man kauft keine Chips. :rolleyes:

[fu]121Ah
2009-03-02, 14:34:22
Ach, du findest es also gut, wenn der AMD User vom vorigen High-End auf das neue Mid-Range wechselt und dann weniger Leistung und eventuell weniger Features erhält, aber im Gegenzug ist es bei nVidia schlecht, wenn das neue Mid-Range nicht langsamer ist?
Vielleicht solltest du erstmal in deinem Kopf nachgucken, ob da überhaupt ein Denkapparat vorhanden ist. :rolleyes:



Seit wann sind G80, G92 und GT200 "vollkommen identische Chips"? :rolleyes: Und für den Kunden spielt es keine Rolle, ob der Chip rv670 oder rv730 heißt. Die sind für ihn genauso identisch.
Überhaupt, man kauft keine Chips. :rolleyes:
du bist echt unglaublich...

g80 -> g92 > speicherinterface beschnitten
g92 -> gt200 > performance/mm2 ging zurück

gleiche argumentation wie du... es ist einfach unglaublich wie verblendet du bist. der gt200 ist ein guter chip, der g92b auch, aber das heisst nicht dass es ok ist, den kunden am laufmeter zu verarschen.

und nochwas, deine argumentation ist sogar falsch:

eine 4670 ist meistens schneller/gleich schnell wie eine 3870. in letzter zeit sucht man das bei nv vergebens... eine 9600gt ist nicht schneller wie eine 8800gt. nicht mal annähernd. also hör mal mit deinem subjektiven und offensichtlich verblendeten gedankendurchfall auf und sieh es wie es ist. rv770 und g92b nehmen sich nicht viel. der eine hat eine bessere pro-mhz leistung, der andere eine bessere pro-mm2 leistung.

LovesuckZ
2009-03-02, 14:58:56
121Ah;7139864']
gleiche argumentation wie du... es ist einfach unglaublich wie verblendet du bist. der gt200 ist ein guter chip, der g92b auch, aber das heisst nicht dass es ok ist, den kunden am laufmeter zu verarschen.

Und wo wird der Kunde verarscht?


eine 4670 ist meistens schneller/gleich schnell wie eine 3870.

Wo? In deiner Welt? Die zählt nicht. :P

in letzter zeit sucht man das bei nv vergebens... eine 9600gt ist nicht schneller wie eine 8800gt.

Hä? Der Vorsprung der 8800GT zur 9600GT ist gleich wie der der 3870 zur 4670.

also hör mal mit deinem subjektiven und offensichtlich verblendeten gedankendurchfall auf und sieh es wie es ist. rv770 und g92b nehmen sich nicht viel. der eine hat eine bessere pro-mhz leistung, der andere eine bessere pro-mm2 leistung.

Das ist ja das Problem: Ich sehe es, so wie es ist. Und da wird niemand verarscht. Wenn der Kunde etwas deutlich neueres haben will, muss er von seiner 9800 Karte auf die GTX Karten wechseln. Alle anderen bekommen deutlich mehr Leistung. Sieht genauso aus wie bei AMD.
Aber schon lustig, wie heftig einige reagieren, wenn jemand mal nicht die Mainstream-Unwahrheit erzählt. Da kommen wohl einige Weltbilder komplett durcheinander.

[fu]121Ah
2009-03-02, 15:20:41
Und wo wird der Kunde verarscht?

die ständige umbenennungsaktion und fadenscheiniges argumentieren, damit der kunde dasselbe produkt nochmals kauft, im glaube, es seie neu? das nennste keine verarsche?



Wo? In deiner Welt? Die zählt nicht. :P

gibst mal bei google 3870 vs. 4670 ein, ne warte, hier link:

http://www.google.de/search?hl=de&q=3870+vs+4670&btnG=Google-Suche&meta=

z.b. anand test:

http://www.anandtech.com/video/showdoc.aspx?i=3405&p=6

allerdings wird da mit 8.9 beta getestet, mit einem aktuellen treiber gewinnt die 4670.

übrigens habe ich beide karten, und die 4670 ist wirklich schneller - meistens; minimal, aber sie ist schneller.



Hä? Der Vorsprung der 8800GT zur 9600GT ist gleich wie der der 3870 zur 4670.

das möcht ich sehen, woher nimmst du diese gewissheit? link?


Das ist ja das Problem: Ich sehe es, so wie es ist. Und da wird niemand verarscht. Wenn der Kunde etwas deutlich neueres haben will, muss er von seiner 9800 Karte auf die GTX Karten wechseln. Alle anderen bekommen deutlich mehr Leistung. Sieht genauso aus wie bei AMD.
Aber schon lustig, wie heftig einige reagieren, wenn jemand mal nicht die Mainstream-Unwahrheit erzählt. Da kommen wohl einige Weltbilder komplett durcheinander.
ich versteh nicht was du meinst. ich versteh nichtmal dein argument. AMD hat nach einem jahr die ehemalige performancekarte 3870, welche mit einem 256bit MemIO und mit meistens 512mb ram kam, durch die 4670 ersetzt, ein günstigerer chip, nur 128bit interface, bis 1024mb ram, neue videofeatures, OpenCL unterstützung etc. und bietet fast dieselbe performance. NV nimmt denselben chip wie vor einem jahr, relabelt ihn zum 3ten oder 4ten mal und betreibt damit kundenverarsche. wenn ich mich nur an die paar kollegen erinnere, die mich in letzter zeit angefragt haben was denn die neuen GTS/GTX können (abgesehen von den 260, 260x2, 280, 285 und 295) - jedesmal musste ich 5min erklären, dass ihre alte 8800gt eigentlich dieselbe karte ist...

LovesuckZ
2009-03-02, 15:36:52
121Ah;7139995']die ständige umbenennungsaktion und fadenscheiniges argumentieren, damit der kunde dasselbe produkt nochmals kauft, im glaube, es seie neu? das nennste keine verarsche?

Und? Als ob ein Wechsel von einer 3870 auf eine 4670 besser ist als von einer 9800gt auf eine GTS240. :rolleyes:


das möcht ich sehen, woher nimmst du diese gewissheit? link?

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_285_sli/20/#abschnitt_performancerating_qualitaet


ich versteh nicht was du meinst. ich versteh nichtmal dein argument. AMD hat nach einem jahr die ehemalige performancekarte 3870, welche mit einem 256bit MemIO und mit meistens 512mb ram kam, durch die 4670 ersetzt, ein günstigerer chip, nur 128bit interface, bis 1024mb ram, neue videofeatures, OpenCL unterstützung etc. und bietet fast dieselbe performance.

Und nVidia kickt Hybrid-Power, lässt anscheinend nur noch Custom-Designs anfertigen und lässt den Herstellern die Freiheit, ob es Tri-Sli geben wird. Alles features, die klar gegen eine 9800gtx+ sprechen.

NV nimmt denselben chip wie vor einem jahr, relabelt ihn zum 3ten oder 4ten mal und betreibt damit kundenverarsche. wenn ich mich nur an die paar kollegen erinnere, die mich in letzter zeit angefragt haben was denn die neuen GTS/GTX können (abgesehen von den 260, 260x2, 280, 285 und 295) - jedesmal musste ich 5min erklären, dass ihre alte 8800gt eigentlich dieselbe karte ist...

Man kauft keine Chips.
Alles andere tritt auch bei jeder anderen Generation auf. Oder wussten deine Kollegen, wo der Unterschied zwischen einer 4670 und einer 3780 liegt? :rolleyes:

[fu]121Ah
2009-03-02, 15:44:49
Und? Als ob ein Wechsel von einer 3870 auf eine 4670 besser ist als von einer 9800gt auf eine GTS240. :rolleyes:

zumindest bedeutet die tiefere benamsung 4670, dass es sich um eine mainstream - top karte einer neuen generation handelt. wobei sich dann jeder selbst überlegen kann, ob die neue mainstream top karte die alte performance top karte schlägt oder nicht? und mit wieviel....


http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_285_sli/20/#abschnitt_performancerating_qualitaet

naja, wenn man mit max. settings testet, dürfte halt das memIO mehr limitieren. in anderen settings dürfte es dann weniger unterschied geben. ausserdem ist das wieder am ziel vorbei gebencht, schliesslich kauft niemand ne 4670 für 1680x1050 mit 8xaa und 16x AF - ausser bei oldschoolgames.



Und nVidia kickt Hybrid-Power, lässt anscheinend nur noch Custom-Designs anfertigen und lässt den Herstellern die Freiheit, ob es Tri-Sli geben wird. Alles features, die klar gegen eine 9800gtx+ sprechen.

hybrid power wäre positiv... also ein negativpunkt für die "neuen" karten
custom designs sind scheisse, günstiger dafür schlechtere quali
tri-SLI mit mainstreamkarten? siehe 3dc frontpage, bei NV mehr oder weniger sinnlos.



Man kauft keine Chips.
Alles andere tritt auch bei jeder anderen Generation auf. Oder wussten deine Kollegen, wo der Unterschied zwischen einer 4670 und einer 3780 liegt? :rolleyes:
jop, auf jeden fall war auch dem dümmsten davon klar, dass eine 4xxx neuer als eine 3xxx ist, gleichzeitig das x6xx impliziert, dass diese nicht zwingend schneller als eine x7xx ist.

doch, ich kaufe einen chip. ein pcb alleine reicht noch nichtmal für counterstrike.

LovesuckZ
2009-03-02, 15:54:17
121Ah;7140048']zumindest bedeutet die tiefere benamsung 4670, dass es sich um eine mainstream - top karte einer neuen generation handelt. wobei sich dann jeder selbst überlegen kann, ob die neue mainstream top karte die alte performance top karte schlägt oder nicht? und mit wieviel....

GTS2x0 zeigt nichts anderes. Und über den Unsinn 8800GT->9800gt brauchen wir ja nicht weiter reden. Das war dämlich.


naja, wenn man mit max. settings testet, dürfte halt das memIO mehr limitieren. in anderen settings dürfte es dann weniger unterschied geben. ausserdem ist das wieder am ziel vorbei gebencht, schliesslich kauft niemand ne 4670 für 1680x1050 mit 8xaa und 16x AF - ausser bei oldschoolgames.

Laut dem Test ist der Vorsprung ohne Qualitätssettings größer. ;)

hybrid power wäre positiv... also ein negativpunkt für die "neuen" karten
custom designs sind scheisse, günstiger dafür schlechtere quali
tri-SLI mit mainstreamkarten? siehe 3dc frontpage, bei NV mehr oder weniger sinnlos.

Also doch sinnig, die Karten umzubenennen. Wie gesagt: Die 9800gtx+ Karten sind heute auch nicht mehr, dass sie im August waren. Hier wird der Kunde doch wesentlich mehr verarscht, weil man gewisse Dinge erwartet, die nicht mehr geliefert werden.


jop, auf jeden fall war auch dem dümmsten davon klar, dass eine 4xxx neuer als eine 3xxx ist, gleichzeitig das x6xx impliziert, dass diese nicht zwingend schneller als eine x7xx ist.

Und was impliziert "neuer"? Schneller? Technologisch führender? Und GTS impliziert auch, dass man hier nicht GTX erwarten kann.


doch, ich kaufe einen chip. ein pcb alleine reicht noch nichtmal für counterstrike.

Und ein Chip ohne PCB? ;)

Gast
2009-03-02, 16:33:54
Was verteidigst du da gerade und vor allem warum? Bist du NVidias Werbeabteilung? Mit Neutralität, vor allem aber einer generell kritischen Einstellung der Hersteller gegenüber, hat dein Verhalten aber rein gar nichts zu tun.Dieses würde man aber einem normalen Forumsteilnehmer unterstellen wollen. Also warum verteidigst du einen solch offensichtlichen Schwachsinn, der ja schon dazu führt, dass über das Einreichen von Klagen nachgedacht wird?

Hunderte Beiträge in letzter Zeit und alle nur um eine Firma in das rechte Bild zu rücken. Der geneigte Leser fällt schon ein eindeutiges Urteil.

LovesuckZ
2009-03-02, 16:41:06
Was verteidigst du da gerade und vor allem warum? Bist du NVidias Werbeabteilung? Mit Neutralität, vor allem aber einer generell kritischen Einstellung der Hersteller gegenüber, hat dein Verhalten aber rein gar nichts zu tun.Dieses würde man aber einem normalen Forumsteilnehmer unterstellen wollen. Also warum verteidigst du einen solch offensichtlichen Schwachsinn, der ja schon dazu führt, dass über das Einreichen von Klagen nachgedacht wird?

Hunderte Beiträge in letzter Zeit und alle nur um eine Firma in das rechte Bild zu rücken. Der geneigte Leser fällt schon ein eindeutiges Urteil.

Der mündige Mensch ist in der Lage seine eigene Meinung zu bilden. Das die Masse manchmal nicht dazu in der Lage ist, ist nicht schuld des mündigen Menschen. Du glaubst garnicht wie neutral ich bin. Das führt eben auch mal dazu, dass Worte gesagt werden, die einem nicht passen.
Für dich scheint es ein Verteidigen zu sein, aber wenn es nunmal die Wahrheit darstellt, dann ist es nicht meine Schuld. ;)

Die gelbe Eule
2009-03-02, 16:57:36
Kommen denn die neuen GT100 nach der Cebit?

GeneralHanno
2009-03-02, 17:12:09
nun, einige G9x chips (imo nur 55nm) werden ja schon heute als GT1xx für Notebooks vermarktet. das könnte auch für den desktopsektor passieren ...

Sefegiru
2009-03-02, 17:23:17
Naja Fakt ist das es nicht schön ist was da passiert denn es suggeriert brandneue Technik, ist es aber nicht. Sicherlich wissen das Informierte, doch es ist ein Irrglaube das sich jeder vor dem Kauf derart informiert auch wenn man es sollte. Störend finde ich den Punkt das es nicht nur eine GTS250 gibt sondern gleich wieder drei von NV. Die 512er und zwei 1024er, eine mit 512er Taktraten und eine mit 1000Mhz RAM statt 1100. Nun heissen aber alle gleich.....zumindest ist das was mein Stand der Dinge sagt.

GeneralHanno
2009-03-02, 17:58:32
jup. und der launchplan sieht vor: erst kommen die 1,1GHz-1GB-GDDR3 boards um die guten benchs für die GT250 einzufahren und etwas später kommen dann die günstigen GT250 varianten in den markt um den unwissenden kunden zu schröpfen ...

edit: das ist zwar ein novum für den high-end markt, im low cost sektor aber schon lange gang und gebe: zuerst kommen die referenzboards mit leisem kühler und 512MiB GDDR3 und dann die "customs" unter gleichem namen mit schreilüfter und 128MB DDR2 ...

reunion
2009-03-02, 20:24:53
Fortsetzung folgt:

According to Hardware.fr, the following information details Nvidia's guidelines to boards partners regarding the GTS 250 launch:

March 3rd – Reviews go live of GTS 250 1GB fast boards (738/1100)

March 10th – GTS 250 1GB and 512MB fast boards (738/1100) available for sale.

March 17th – GTS 250 1GB slow boards (738/1000) available for sale.

NOTE: The older slow 1GB (1000MHz memory) boards should not go on sale till after March 17th. The only exceptions are if partners can overclock the memory on these to hit 1100MHz.

Simply put, Nvidia is sending out higher clocked GTS 250 cards to reviewers within the first week of launch, and is then sending out slower GTS 250 cards for the majority of sales from retailers like Newegg, NCIX, Micro Center, and other distributors.

Nvidia is suggesting that its board partners hide the existence of these higher clocked review cards by branding them as "overclocked" models to avoid market confusion. The note suggests that should partners wish to sell the slower cards with 1.0ns DDR3 modules (rated up to 1000MHz) prior to March 17th, the chips must be overclocked to at least 1100MHz, or the speed of the 0.8ns modules.

Moreover, it seems as if the company is concerned about its slower 9800GTX+ stock being rebranded to meet the specifications of the GTS 250. It needs to ensure it can fit cards with both fast and slow memory chips under one product name.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=12329&Itemid=1

LovesuckZ
2009-03-02, 20:27:59
Wenn man sich nurmal die amerikanischen Seiten ansieht, sollte den letzten auffallen, dass dort vermehrt übertaktete nVidia Karten verwendet wurden sind - 9800gt, 9800gtx+, GTX260 und GTX280.
Außerdem ist Fuad ziemlich spät dran mit der News...

GeneralHanno
2009-03-05, 19:26:43
nvidia treiber verrät GT120/30/40
http://www.heise.de/newsticker/Nachgelegt-Nvidia-Treiberauswahl-verraet-zukuenftige-Grafikkarten--/meldung/134079

damit geht das rebranding weiter ... :frown:

edit: link gefixed

TobiWahnKenobi
2009-03-05, 19:30:39
nvidia treiber verrät GT120/30/40
http://www.heise.de/newsticker/Nachgelegt-Nvidia-Treiberauswahl-verraet-
zukuenftige-Grafikkarten--/meldung/134079

damit geht das rebranding weiter ... :frown:

http://www.heise.de/newsticker/Nachgelegt-Nvidia-Treiberauswahl-verraet-zukuenftige-Grafikkarten--/meldung/134079


(..)

mfg
tobi

AnarchX
2009-03-05, 20:06:04
Bis auf die 140 sind sie doch schon alle bei NV gelistet:
http://www.nvidia.com/object/geforce_family.html

Die GT 130 ist übrigens keine 9600GSO/8800GS, sondern ein 48SP-G94 @192-Bit (aka 9600GS).

Die GT 140 dürfte wohl dann eine normale 9600GT sein oder vielleicht eine umbenannte 9600GSO+ (48SPs, 256-Bit).

Sind aber wohl alles eher nur OEM-SKUs:
Not available for individual purchase

Spasstiger
2009-03-05, 20:28:02
Die GT 130 ist übrigens keine 9600GSO/8800GS, sondern ein 48SP-G94 @192-Bit (aka 9600GS).
Ups, das ist ja dann die Extrem-Mogelpackung, nachdem überall von einem G92 berichtet wurde. Und dazu nur DDR2-Speicher. Da ist man ja fast auf dem Niveau der GeForce 9500 GT.

AnarchX
2009-03-05, 20:33:54
Ups, das ist ja dann die Extrem-Mogelpackung, nachdem überall von einem G92 berichtet wurde.
Weil überall halt keine Ahnung hatte, seit November war es ja schon "klar", dass es ein G94 ist:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6941443&postcount=1
Und wie schon gesagt, die 192-Bit 9600GS gab es auch schon länger.

Spasstiger
2009-03-05, 22:08:41
Hier mal wieder meine Abschätzung. Die aktuellen Neuerscheinungen von NV und AMD habe ich umrahmt:

http://img3.abload.de/img/dx10_05_03_09n489ih3j.png

/EDIT: Provisorisch korrigiert.

KonKorT
2009-03-05, 23:45:53
Das Guru3D-Modell (RV740) ist bei Dir hinter HD 4830, obwohl es im Test quasi ausnahmslos leicht in Front liegt.

Spasstiger
2009-03-05, 23:59:45
Das Guru3D-Modell (RV740) ist bei Dir hinter HD 4830, obwohl es im Test quasi ausnahmslos leicht in Front liegt.
Ich hab nochmal die eingetragenen Daten vom RV770 überprüft und da war tatsächlich ein Copy-Paste-Fehler drin. Statt 32 TMUs hab ich da 40 TMUs stehen (/EDIT: In der beschnittenen Variante meine ich). Mit einer Korrektur erreicht die Radeon HD 4830 nur 845% im Ranking (HD 4750 = 880%). Also danke fürs aufmerksam machen. Die Grafik oben werde ich bei Gelegenheit korrigieren.

Aber allgemein sehe ich das nicht so eng mit den Platzierungen im Ranking wie du. Alles was in einem Bereich von 10% Unterschied liegt, betrachte ich als gleichauf. Es handelt sich ja wie gesagt nur um eine Abschätzung und nicht um ein Ranking, das auf realen Messungen beruht. Die Gewichtungen der Einflussfaktoren habe ich übrigens anhand eurer Messungen bei verschiedenen Taktraten eingestellt.

Sorkalm
2009-03-06, 00:17:31
RV770 hat aber wirklich 40 TMUs, nur der beschnitte RV770 auf der HD 4830 kommt auf 32.

Spasstiger
2009-03-06, 00:25:18
RV770 hat aber wirklich 40 TMUs, nur der beschnitte RV770 auf der HD 4830 kommt auf 32.
Ja, ich hab mich missverständlich ausgedrückt. Ich meine natürlich, 32 statt 40 TMUs bei der beschnittenen Varianten. Ich lege für jede GPU eine Datei an, in der ich verschiedene Varianten der GPU mit den wichtigen Kenngrößen aufliste.
In einer anderen Datei stehen alle Grafikkarten mit den Taktraten, der Speicherausstattung und einem Verweis auf den GPU-Namen sowie die GPU-Variante.

Beim Erstellen von GPU-Varianten mache ich Copy-Paste und passe dann die abweichenden Kenngrößen an. Dabei ist mir halt ein Fehler unterlaufen und die 40 TMUs standen noch da.

/EDIT: Hab die Korrektur vorgenommen.
Interessant ist übrigens, dass die "Ich bin doch nicht blöd"-GT-130 mit 1536 MiB VRAM bei der gewählten VRAM-Last nichtmal 20% vor der 8600 GTS 512 MiB liegt. Damit rangiert die GT 130 schon am unteren Mainstream-Ende. Die Leute, die entsprechende PCs dafür gekauft haben, wofür sie beworben wurden, - nämlich zum Zocken aktueller Spiele - , können einem echt leid tun. Und wahrscheinlich hat man noch schnell den "tollen" TN-Panel-24-Zöller für 220€ dazugepackt, weil man ja jetzt eine so "leistungsstarke" Grafikkarte hat. Dabei macht jede 70€-Grafikkarte Hackfleisch aus der GT 130 1,5 GiB.

dildo4u
2009-03-10, 14:41:34
Weitere Nvidia-Grafikkarten im neuen Namensschema: Geforce GTS 150, GT 130, GT 120 und G 100

http://www.pcgameshardware.de/aid,678379/Weitere-Nvidia-Grafikkarten-im-neuen-Namensschema-Geforce-GTS-150-GT-130-GT-120-und-G-100/Grafikkarte/News/

Spasstiger
2009-03-10, 14:42:49
Weitere Nvidia-Grafikkarten im neuen Namensschema: Geforce GTS 150, GT 130, GT 120 und G 100

http://www.pcgameshardware.de/aid,678379/Weitere-Nvidia-Grafikkarten-im-neuen-Namensschema-Geforce-GTS-150-GT-130-GT-120-und-G-100/Grafikkarte/News/
Wirklich neu ist davon nur die GTS 150, den Rest gabs schon vorher auf die Homepage (siehe weiter oben im Thread).

/EDIT: Der einzige Unterschied zwischen der GTS 150 und der GTS 250 sind 100 MHz Speichertakt? Wer sich bei Nvidia die Namen ausdenkt, muss echt was an der Waffel haben. Das neue Namensschema wird so kein Stück transparenter.

AnarchX
2009-03-10, 14:49:40
Die GeForce 100 sind eben für den OEM-Markt. Ausserdem besitzt die GTS 150 wohl noch das 9800GTX+ Design.

Wird übrigens schon verkauft:
http://www.notebooksbilliger.de/pcsysteme/packard+bell+3691/packard+bell+ipower+x+9600ge+intel+core+i7+920?sid=eb9ed222bbccf9a52d454a6bb11c9 6ba

reunion
2009-03-10, 15:02:28
Die GeForce 100 sind eben für den OEM-Markt.

Die Dinger kommen mit Garantie auch für den Retail-Markt, oder glaubst du wirklich das nV die anderen Karten unter dem 9XXX-Label weiter laufen lässt? Man macht es wohl ganz langsam Stück für Stück um möglichst viel Aufmerksamkeit zu erhaschen.


Ausserdem besitzt die GTS 150 wohl noch das 9800GTX+ Design.


Die GT150 sind also nur umgelabelten 9800GTX+, die GT250 sind die tollen "neuen". :ugly:

AnarchX
2009-03-10, 15:27:10
Die Dinger kommen mit Garantie auch für den Retail-Markt, oder glaubst du wirklich das nV die anderen Karten unter dem 9XXX-Label weiter laufen lässt? Man macht es wohl ganz langsam Stück für Stück um möglichst viel Aufmerksamkeit zu erhaschen.

Wenn dann gleich als G 2x0 oder GT 2x0 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=11868&Itemid=1). :D

Gast
2009-03-10, 15:38:21
Das sind reine OEM Karten. Ist doch schoen das NV die mit aufnimmt, damit die Anwendern aktuelle Treiber verwenden können. Packard Bell hat seine glaub ich noch nicht aktualisiert.

Michael

Sorkalm
2009-03-11, 16:49:39
Heise:

Wie uns von einigen Boardpartnern heute bestätigt wurde, hat Nvidia nun den Plan, eine GeForce GTS 240 herausbringen zu wollen, eingestellt.

http://www.heise.de/newsticker/Grafik-Geruechte-GeForce-GTX-275-am-6-April-Update--/meldung/134350

AnarchX
2009-03-12, 16:46:06
Instead, NVIDIA is telling its customers to focus on three cards using the 9800 GT name. Besides the standard version, there is a reduced power version of the 9800 GT and the 9800 GT OC version.
http://www.dailytech.com/NVIDIA+Backs+Away+From+GTS+240+Rebrand+of+9800+GT/article14551.htm

reunion
2009-03-12, 16:53:29
Und der Grund:

The GPU firm has been under pressure from frustrated GPU board partners.


Aber jetzt ist es natürlich noch unübersichtlicher wo man die 9800GTX+ umbenannt hat und bei den anderen G92-Karten offensichtlich von den Boardpartner gehindert wird. Die 9800GT OC wird es wohl mit Rv740 aufnehmen müssen.

KonKorT
2009-03-12, 19:16:48
Die 9800 GT OC ist dabei aber voraussichtlich keine 9800 GTX, sondern die ursprünglich geplante GTS 240.

Quelle: Geforce GTS 240 vermutlich mit neuem Namen (http://www.hardware-infos.com/news.php?news=2805)

AnarchX
2009-03-12, 20:12:27
Vielleicht ist es ja auch ein Hinweis, dass eine echte GTS 240 doch näher ist, als es NV bis jetzt geschätzt hatte.;)

AnarchX
2009-03-17, 16:13:52
Nun ist die 9800 GT "Green" offiziell:

NVIDIA GeForce 9800GT graphics processor
Engine clock: 550 MHz
112 stream processors
Shader clock: 1375 MHz
512MB GDDR3 memory
Memory clock: 1800 MHz

http://img256.imageshack.us/img256/5086/zt98ges3gfslimage127527.jpg (http://img256.imageshack.us/my.php?image=zt98ges3gfslimage127527.jpg)

http://www.tweak.dk/nyheder2.php?id=19632

AnarchX
2009-07-25, 09:36:41
Für die OEMs gibt es nun doch noch die GTS 240:
GPU Engine Specs:
Processor Cores 112
Graphics Clock (MHz) 675 MHz
Processor Clock (MHz) 1620 MHz
Texture Fill Rate (billion/sec) 37.8
Memory Specs:
Memory Clock (MHz) 1100 MHz
Standard Memory Config 1 GB GDDR3
Memory Interface Width 256-bit
Memory Bandwidth (GB/sec) 70.4
http://www.nvidia.com/object/product_geforce_gts_240_us.html

JOjo*
2009-08-01, 13:34:20
Genau eine 9800 gt nur mit höhreren Tackraten GPU und Ram...

Gast
2009-08-01, 15:53:29
Nenn sie doch gleich 9600 GSO, nur mit mehr Einheiten, anderem Takt, mehr VRAM, Stromsparmodus anderen Kühler und anderem PCB. :rolleyes:

reunion
2009-08-01, 16:04:31
Nenn sie doch gleich 9600 GSO, nur mit mehr Einheiten, anderem Takt, mehr VRAM, Stromsparmodus anderen Kühler und anderem PCB. :rolleyes:

Es ist eine 8800GT ähm 9800GT mit mehr Takt. Mehr braucht man "sie" nicht nennen.

LovesuckZ
2009-08-01, 16:29:50
Falsch, es ist eine 8800GTS mit weniger Cluster und höhreren Takt.

Gast
2009-08-01, 16:46:03
GTS 250 mit ähnlichem Takt und weniger Einheiten triffst noch besser.

reunion
2009-08-01, 16:49:06
Es ist der gefühlt 3267823670 ste Aufleger des G92, welcher sich in dutzenden Varianten über mittlerweile drei Generationen erstreckt. Von der GF8-Serie, über die GF9-Serie, bis hin zur GT2-Serie. Es wird Zeit das die DX11 Chips kommen.

Gast
2009-08-01, 16:52:56
Ändert nichts an der Konkurrenzfähigkeit der Karte.
Damals war die 8800 GT konkurrenzfähig. Heute ist es die GTS 240, die lediglich an OEMs geliefert wird.

hardtech
2009-08-01, 17:19:16
wen interessieren schon diese schlaftabletten, wenn es leistung satt für rund 100 eur gibt?!

Gast
2009-08-01, 17:40:34
Yup, und zwar bei ATI.

Gast
2009-08-01, 23:37:02
Kann nicht sein, AMDs Leistung ist nur dank Filtercheats so gut, außerdem ist Nvidia P/L mäßig nicht schlechter.

Lawmachine79
2009-08-01, 23:57:26
außerdem ist Nvidia P/L mäßig nicht schlechter.
Naja, die Karten bis einschließlich GTS250 würde ich nicht mal mehr geschenkt nehmen, da nehme ich lieber eine 4850. Interessant sind die GTX260 und die GTX275, die GTX275 würde ich jeder ATI-Karte vorziehen.
Die Leistung der GTS250 war vor etwas mehr als einem Jahr interessant, vor dem Release von 4850/70.

Gast
2009-08-02, 10:50:28
Am Beispiel einer 4890:

Die billigste 4890 (samt alternativ Kühler) mit analogen Wandlern, die nach deiner Aussage ok sein sollen, kostet ~160€.
Die billigste GTX 275 (samt alternativ Kühler) kostet ~169€.

Ich seh da nicht wirklich das Problem, das hier jemand teurer sein soll, da sowohl Performance als auch Qualität oder sonstiges nicht identisch sind, ist es Korinthenkackerei da über Nvidia zu meckern.

Naja, die Karten bis einschließlich GTS250 würde ich nicht mal mehr geschenkt nehmen, da nehme ich lieber eine 4850.
Aus welchem Grund?
Die GTS 250 macht nichts schlechter als die 4850.

LovesuckZ
2009-08-02, 10:53:22
Die Leistung der GTS250 liegt genau auf 4850 Niveau...

reunion
2009-08-02, 11:00:17
Mit einem GB VRAM. Mit 512MB kackt die GF ziemlich ab.

LovesuckZ
2009-08-02, 11:03:04
Mit einem GB VRAM. Mit 512MB kackt die GF ziemlich ab.

Auch nicht - jedenfalls beim letzten Computerbase.de Test.

Gast
2009-08-02, 11:04:05
Mit einem GB VRAM. Mit 512MB kackt die GF ziemlich ab.
Nicht zwangsläufig. Außerdem hat die 4850 auch nur 512MiB, welten macht es nicht aus.

Dafür gibts auch noch genug andere Punkte, die bei einer Entscheidung von Belang sein können.

BQ-Einstellmöglichkeiten
Keine Sorgen wegen digitaler Wandler
Leistungsaufnahme
...

Nakai
2009-08-02, 11:14:29
Auch nicht - jedenfalls beim letzten Computerbase.de Test.

Naja mit AA und AF und Auflösungen jenseits von 1680*1050, werden die 512MB schon zum Flaschenhals.

Nehmen wir mal Cryostasis.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/10/#abschnitt_cryostasis

Sobald die Auflösung auf 1920*1080 geht, dann wird der Vorteil der Nvidia-Karten zunichte gemacht(Vergleich 9800GTX+ und HD4850).
Also für höhere AUflösungen sind bei Nvidia mehr als 512MB notwendig, bei ATI hingegen sind sie vorteilhaft.


mfg Nakai

LovesuckZ
2009-08-02, 11:16:15
Die Hälfte der Spiele 1920x1200 sind auf beiden Karten unspielbar. Deswegen diese Auflösung auch keine Rekevanz haben sollte.
Der GTS250 geht eher der Speicher aus - aber dann muss immer noch betrachtet werden, inwieweit die 4850 spielbar ist. 5 zu 10 oder 10 zu 15 FPS sind daher kaum als Argument für die 4850 zu werten.

Gast
2009-08-02, 11:28:45
Nehmen wir mal Cryostasis.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/10/#abschnitt_cryostasis
Lustiges Beispiel.
1280x1024, 4xMSAA, 16xLQ und kein TAA ist gerade noch spielbar.

Alles darüber zieht nicht.

Aber bitte, quäl dich doch durch 1920x1080 und erfreue dich der HD4850 Leistung. ;)
Eh nein, ups, die 9800 GTX+ ist dort sogar 50% schneller. :)

reunion
2009-08-02, 11:32:55
Auch nicht - jedenfalls beim letzten Computerbase.de Test.

Das geben die avg. Frames wohl kaum wieder. Ich habe eine 8800GTS/512. Also fast das gleiche. In 1680 x 1050 / 4xMSAA springen die fps nicht selten von gut spielbaren 30-40 fps auf um die 10fps in VRAM lastigen Szenarien und dann wieder zurück. Jüngstes Beispiel: Fallout 3.

Gast
2009-08-02, 11:35:50
Ist auch immer eine Frage des Brettes, also ob es ein PCIe 2.0 Brett ist.

Dann natürlich auch die Frage der Einstellungen. AMD Karten betreibt man ja bekanntermaßen mit AI-on. Bei Nvidia Karten muss eben irgendwo VRAM gespart werden.

LovesuckZ
2009-08-02, 11:39:56
Das geben die avg. Frames wohl kaum wieder. Ich habe eine 8800GTS/512. Also fast das gleiche. In 1680 x 1050 / 4xMSAA springen die fps nicht selten von gut spielbaren 30-40 fps auf um die 10fps in VRAM lastigen Szenarien und dann wieder zurück. Jüngstes Beispiel: Fallout 3.

http://www.hardocp.com/article/2009/07/27/xfx_radeon_hd_4770/6

Zieht ziemlich gleich aus.

Dazu auch:

If we dropped the GeForce GTS 250 also to 1680x1050 then we found 4X AA to be playable,

Lawmachine79
2009-08-02, 11:47:09
Also, warum ich eine 4850 einer 250GTS vorziehe:
1) Wird die ATI Karte mit höheren Settings tendenziell schneller als ihr Pendant. Und jetzt bitte keine Rosinen rauspicken, sondern das Gesamtbild betrachten.
2) Für den Preis einer 512MB 250GTS bekomme ich die 4850 mit 1024MB (sogar noch 9€ günstiger).
3) Für den Preis einer 1024MB 250GTS bekomme ich eine 4870.
4) Ergo kann sich die GTS250 512 nur mit der 4850 1024MB messen, von einer 4870 wird sie in der Pfeife geraucht, egal wieviel VRAM.
5) Die GTS250 ist in neueren Spielen zu langsam, um ihren Hybridmodivorteil auszuspielen. Beim Duell GTX275 vs. HD4890 ist das z.B. einer der Gründe, warum ich hier zum NVidia-Modell greifen würde.
Ach übrigens: es ist eine Wonne, wenn man sich nicht auf einen Hersteller festlegt - man hat eine Riesenauswahl und erst so profitiert man als Kunde vom Wettbewerb. So kann man auch sicher sein, daß man im jeweiligen Segment WIRKLICH zur besten Lösung greift, weil man sich nicht selbst bescheissen muss indem man solange Reviews und Benches raussucht, bis sie die bereits im Vorfeld feststehende Entscheidung untermauern. Wenn RV870 der absolute Oberhammer wird, hätte ich als NV-Fanboy ein echtes Problem, genauso andersherum, wenn der GT300 es wird...

Gast
2009-08-02, 11:49:50
5) Die GTS250 ist in neueren Spielen zu langsam, um ihren Hybridmodivorteil auszuspielen.
In alten nicht.
Für 16xHQAF hat sie immer genug Leistung, fast so viel wie eine GTX 280.

Nakai
2009-08-02, 11:50:36
Lustiges Beispiel.
1280x1024, 4xMSAA, 16xLQ und kein TAA ist gerade noch spielbar.

Alles darüber zieht nicht.

Aber bitte, quäl dich doch durch 1920x1080 und erfreue dich der HD4850 Leistung. ;)
Eh nein, ups, die 9800 GTX+ ist dort sogar 50% schneller. :)

Schön für dich. Dass die 9800GTX+ insgesamt im Test besser dasteht, habe sogar ich kapiert. Da du meine Intention des Beitrags nicht verstanden hast, empfehle ich dir mal den Test genauer zu analysieren. Es sollte hinreichend bekannt sein, dass die älteren Nvidia-Karten nicht so gut mit dem VRam umgehen können, wie die ATIs.
Noch ein Beispiel.

Crysis:
HD4850 4xAA/16xAF 1680x1050: 11,4
HD4850 4xAA/16xAF 1920x1080: 10,4

9800GTX+ 4xAA/16xAF 1680x1050: 11,9
9800GTX+ 4xAA/16xAF 1920x1080: 5,9


Die Hälfte der Spiele 1920x1200 sind auf beiden Karten unspielbar. Deswegen diese Auflösung auch keine Rekevanz haben sollte.
Der GTS250 geht eher der Speicher aus - aber dann muss immer noch betrachtet werden, inwieweit die 4850 spielbar ist. 5 zu 10 oder 10 zu 15 FPS sind daher kaum als Argument für die 4850 zu werten.

Ja, mir wäre hier ein Test, welcher die minimale Spielbare FPS anzeigen würde einmal lieber gewesen. Vor allem da diese Karten schon sehr lange da sind.



mfg Nakai

LovesuckZ
2009-08-02, 11:52:58
Es spielt keine Rolle, dass der GTS250 der Speicher ausgeht, wenn der Konkurrent ebenfalls unspielbar ist. Für Aussagen wie "mit 512mb kackt die Karte ab", muss also der Vergleichspartner in den Einstellungen, wo die Karte "abkackt", spielbar sein. Das ist die 4850 nicht. Es kann also sein, dass in spielbaren Einstellungen plötzlich die GTS250 mit 512mb schneller als die 4850 wäre. Aber sowas ist nur sehr schwer im Web zu finden - eben keine 08/15 Tests.

Gast
2009-08-02, 12:08:16
Schön für dich. Dass die 9800GTX+ insgesamt im Test besser dasteht, habe sogar ich kapiert.
Sowohl im spielbaren 1280, als auch im unspielbaren 1920 sinds 50%.

1280 sind knapp zu noch spielbar.


Noch ein Beispiel.

Crysis:
HD4850 4xAA/16xAF 1680x1050: 11,4
HD4850 4xAA/16xAF 1920x1080: 10,4

9800GTX+ 4xAA/16xAF 1680x1050: 11,9
9800GTX+ 4xAA/16xAF 1920x1080: 5,9
Das ist seltsam. Die 4850 scheint bei 11,4 FPS noch ordentlich CPU limitiert zu sein.
Oder wie erklärst du dir, das sie bei weitem nicht so stark einbüßt wie sie müsste, rein vom Rechenaufwand? ;)

Nakai
2009-08-02, 12:10:53
Es spielt keine Rolle, dass der GTS250 der Speicher ausgeht, wenn der Konkurrent ebenfalls unspielbar ist. Für Aussagen wie "mit 512mb kackt die Karte ab", muss also der Vergleichspartner in den Einstellungen, wo die Karte "abkackt", spielbar sein. Das ist die 4850 nicht. Es kann also sein, dass in spielbaren Einstellungen plötzlich die GTS250 mit 512mb schneller als die 4850 wäre. Aber sowas ist nur sehr schwer im Web zu finden - eben keine 08/15 Tests.

Dir sollte sehr wohl bewusst sein, dass es speicherintensive Anwendungen gibt, welche trotzdem keine hohe Performance benötigen. Und dieses Manko gab es schon beim HD4850-Release, wo die Geforce 9800GTX+ bei hoher Speicherbelastung einfach einbricht. Dieses Problem gibt es nicht seit kurzer Zeit, dass sollte man nicht vergessen.


mfg Nakai

€:

Das ist seltsam. Die 4850 scheint bei 11,4 FPS noch ordentlich CPU limitiert zu sein.
Oder wie erklärst du dir, das sie bei weitem nicht so stark einbüßt wie sie müsste, rein vom Rechenaufwand? ;)


;D;D;D

Test anschauen und verstehen...lol

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/11/#abschnitt_crysis_warhead

LovesuckZ
2009-08-02, 12:12:36
Dir sollte sehr wohl bewusst sein, dass es speicherintensive Anwendungen gibt, welche trotzdem keine hohe Performance benötigen. Und dieses Manko gab es schon beim HD4850-Release, wo die Geforce 9800GTX+ bei hoher Speicherbelastung einfach einbricht. Dieses Problem gibt es nicht seit kurzer Zeit, dass sollte man nicht vergessen.
mfg Nakai

Welche?
Soweit ich es sehe, muss man zum Großteil Einstellungen wählen, für die selbst ein 4850 nicht mehr ausreicht. Und das kann dann auch kein Pro-Argument mehr sein.

Gast
2009-08-02, 12:14:43
Dir sollte sehr wohl bewusst sein, dass es speicherintensive Anwendungen gibt, welche trotzdem keine hohe Performance benötigen. Und dieses Manko gab es schon beim HD4850-Release, wo die Geforce 9800GTX+ bei hoher Speicherbelastung einfach einbricht. Dieses Problem gibt es nicht seit kurzer Zeit, dass sollte man nicht vergessen.


mfg Nakai
Es gibt auch TEX limitierte Spiele.
Dieses Manko besteht seit 2900 XT.

Abhilfe der Filteroptimierungen greifen nicht immer, wie z.B. H.A.W.X. verdeutlicht. http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/12/#abschnitt_hawx

Gast
2009-08-02, 12:19:03
Test anschauen und verstehen...lol

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/11/#abschnitt_crysis_warhead
Du weichst aus.
Warum kostet die höhere Auflösung nicht so viel wie sie müsste?

Der Aufwand steigt um 30%, nicht um 10%.

Nakai
2009-08-02, 12:33:12
Welche?
Soweit ich es sehe, muss man zum Großteil Einstellungen wählen, für die selbst ein 4850 nicht mehr ausreicht. Und das kann dann auch kein Pro-Argument mehr sein.

RV770-Releasereview:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/19/#abschnitt_assassins_creed

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/18/#abschnitt_unreal_tournament_3

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/21/#abschnitt_call_of_juarez

Mir gehts nicht um die FPS und um unspielbare Settings.

Oder hier ein etwas älterer Test, welcher die Nachteile des G92 gegen G80 verdeutlicht.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/21/#abschnitt_performancerating_qualitaet

Wir wissen beide, dass dieses Problem schon länger vorliegt. Aber ob das Problem kritisch ist, ist was anderes, da wir uns hier oft in unspielbaren Bereichen aufhalten.

Du weichst aus.
Warum kostet die höhere Auflösung nicht so viel wie sie müsste?

Der Aufwand steigt um 30%, nicht um 10%.

Wie kann etwas CPU-Limitiert sein, wenn Karten dabei sind, welche deutlich schneller sind?
Der Aufwand von 1680*1050 auf 1920*1080 steigt um etwa 17,5% nict 30% ;D.

Wieso kostet dieser Anstieg bei der Geforce9800GTX+ über die doppelte Leistung? Wieso gibt es Karten die schneller sind, obwohl du gesagt hast, dass ein CPU-Limit vorliegt?
Du weichst aus...;D

Es gibt auch TEX limitierte Spiele.
Dieses Manko besteht seit 2900 XT.

Abhilfe der Filteroptimierungen greifen nicht immer, wie z.B. H.A.W.X. verdeutlicht. http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/12/#abschnitt_hawx


Mhh, das natürlich interessant.


mfg Nakai

dargo
2009-08-02, 12:36:42
Sowohl im spielbaren 1280, als auch im unspielbaren 1920 sinds 50%.

1280 sind knapp zu noch spielbar.


Das ist seltsam. Die 4850 scheint bei 11,4 FPS noch ordentlich CPU limitiert zu sein.
Oder wie erklärst du dir, das sie bei weitem nicht so stark einbüßt wie sie müsste, rein vom Rechenaufwand? ;)
Bei ~11fps limitiert schon lange nicht mehr die CPU sondern entweder die GPU oder der Arbeitsspeicher weil ausgelagert werden muss.

LovesuckZ
2009-08-02, 12:39:57
RV770-Releasereview:
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/19/#abschnitt_assassins_creed

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/18/#abschnitt_unreal_tournament_3

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4850_cf_hd_4870/21/#abschnitt_call_of_juarez

Mir gehts nicht um die FPS und um unspielbare Settings.

Oder hier ein etwas älterer Test, welcher die Nachteile des G92 gegen G80 verdeutlicht.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9800_gtx_sli/21/#abschnitt_performancerating_qualitaet

Wir wissen beide, dass dieses Problem schon länger vorliegt. Aber ob das Problem kritisch ist, ist was anderes, da wir uns hier oft in unspielbaren Bereichen aufhalten.


Bis auf AC sind die Einstellungen auf einer 4850 nicht spielbar. Und dort, wo es auf der 4850 spielbar ist, ist die 9800gtx+/GTS250 auf dem selben Niveau.

Gast
2009-08-02, 12:40:34
Wir wissen beide, dass dieses Problem schon länger vorliegt. Aber ob das Problem kritisch ist, ist was anderes, da wir uns hier oft in unspielbaren Bereichen aufhalten.

Die Frage lautet nicht, ob das Problem kritisch ist oder nicht, sondern ob es überhaupt ein nennenswertes Problem oder eine rein akademische Betrachtung ist. Häng das ganze mal eine Nummer tiefer, bei 5FPS vs 11FPS würde ich keinen schillernden Sieger küren.

Ich halte es für komplett irrelevant, anschauen kann man es sich natürlich. Ob der Speicher ausgeht oder ob es an Treiberoptimierungen für Bereiche fehlt, in denen sowieso keine Wurst mehr vom Brötchen gezogen wird, können wir nur mutmaßen. Ich vermute auch, dass der Speicher schlicht überläuft, aber ein Blick auf spielbare Bereiche zeigt, dass die 512MB der ursprünglichen G92-Karten durchaus vernünftig dimensioniert waren.

Nakai
2009-08-02, 12:46:55
Bis auf AC sind die Einstellungen auf einer 4850 nicht spielbar. Und dort, wo es auf der 4850 spielbar ist, ist die 9800gtx+/GTS250 auf dem selben Niveau.

Ja, deswegen schrieb ich, dass es mir nicht um FPS oder unspielbare Settings geht. Mir gehts allein darum, dass die 9800GTX+ bei hohen Einstellungen an Performance verliert. Und ja, da ist die HD4850 auch im Nachteil wegn miesen FPS. Die Karten liegen etwa auf dem gleichen Niveau mit Vorteilen für Nvidia.

Ich halte es für komplett irrelevant, anschauen kann man es sich natürlich. Ob der Speicher ausgeht oder ob es an Treiberoptimierungen für Bereiche fehlt, in denen sowieso keine Wurst mehr vom Brötchen gezogen wird, können wir nur mutmaßen. Ich vermute auch, dass der Speicher schlicht überläuft, aber ein Blick auf spielbare Bereiche zeigt, dass die 512MB der ursprünglichen G92-Karten durchaus vernünftig dimensioniert waren.

Die Karte ist schon lange keine niedere Highendkarte mehr, jedenfalls war sie für das Segment ja konzipiert. Performance oder hohes Midrange passen nun besser dazu. Für den Preis ist die Leistung ja passend.


mfg Nakai


€: Die Frage lautet nicht, ob das Problem kritisch ist oder nicht, sondern ob es überhaupt ein nennenswertes Problem oder eine rein akademische Betrachtung ist. Häng das ganze mal eine Nummer tiefer, bei 5FPS vs 11FPS würde ich keinen schillernden Sieger küren.


Wenn die FPS von spielbar ins unspielbare gehen, dann kann das Problem als nervend betrachtet werden. Dann muss man entweder AF runterstellen, die Texturauflösung senken oder AA runterstellen. Das Problem kann bekämpft werden, mit sogar sehr geringem Aufwand.

LovesuckZ
2009-08-02, 12:49:13
Ja, deswegen schrieb ich, dass es mir nicht um FPS oder unspielbare Settings geht. Mir gehts allein darum, dass die 9800GTX+ bei hohen Einstellungen an Performance verliert. Und ja, da ist die HD4850 auch im Nachteil wegn miesen FPS. Die Karten liegen etwa auf dem gleichen Niveau mit Vorteilen für Nvidia.


Die 4850 verliert auch Leistung bei erhöhten Einstellungen.

Gast
2009-08-02, 13:51:54
Bei ~11fps limitiert schon lange nicht mehr die CPU sondern entweder die GPU oder der Arbeitsspeicher weil ausgelagert werden muss.
Also der Arbeitsspeicher, die GPU limitiert scheinbar nur etwas.

Grestorn
2009-11-03, 15:35:12
Nvidas ständigen und dreistem Umbenennungsaktionen

Ich denke, das überbewertest Du. Der Anwender kauft Leistung und selektiert die Karte nach dem Namen, der Leistung impliziert. Da seit G80 bis G200 alle Chips auf dem technologisch gleichem Level sind, spielt die Generation einfach keine Rolle.

Es ist für den Kunden schlicht einfacher, mit einem Namensschema umzugehen, als G80, G9x und GTX Karten richtig einordnen zu müssen. Ich verstehe das Marketing, und ich denke auch, dass es in diesem Fall nicht zum Nachteil des Kunden ist.

AnarchX
2009-11-03, 15:51:33
Man kann hier Nvidia schon eine gewisse Inkonsistenz vorwerfen.

So wurde G200 mit der GTX 200 Serie als Second Generation USA vorgestellt, später wurde aus der 1 Gen. USA Karte 9800 GTX+ aka GTS 150, nach neuem USA Gen. Schema, plötzlich eine GTS 250.
Und jetzt mischen sich noch in die GeForce 200 Serie diverse GT21x-GPUs, die eine D3D10.1 Unterstützung besitzen.

Grestorn
2009-11-03, 15:59:13
Ja, und? Was ändert das an meiner Aussage?

Es ist schon schwer genug sich im Namenswirrwarr zurechtzufinden innerhalb eines Namensschemas. Wenn man dann auch noch alte Generationen dazu nimmt, wird es vollends undurchsichtig.

Und dass der Hersteller weiterhin billig zu produzierende Chips der Vorgängergeneration verkaufen will bzw. Restbestände abverkaufen will, kann man ihnen kaum vorwerfen.

aths
2009-11-03, 17:04:31
Ich denke, das überbewertest Du. Der Anwender kauft Leistung und selektiert die Karte nach dem Namen, der Leistung impliziert. Da seit G80 bis G200 alle Chips auf dem technologisch gleichem Level sind, spielt die Generation einfach keine Rolle.

Es ist für den Kunden schlicht einfacher, mit einem Namensschema umzugehen, als G80, G9x und GTX Karten richtig einordnen zu müssen. Ich verstehe das Marketing, und ich denke auch, dass es in diesem Fall nicht zum Nachteil des Kunden ist.Dass es die 8800 GTS in vier verschiedenen Ausführungen gab (inklusive eines Nicht-Nvidia-Referenzdesigns sogar fünf), ist zum Nachteil des Kundens: 8800 GTS-320 und 640-Version können in SLI laufen, aber nicht mit einer 512-er Version.

Die 9800 GT, welche eine 8800 GT ist: Welcher Vorteil, oder welcher Nicht-Nachteil besteht für den Kunden? Warum hieß die 8800 GT 8800 GT, wo sie schneller ist als eine 8800 GTS-640?

Die Vermarktung des G92 als 9800 GTX und GTX+, welche eine 8800 GTS-512 sind, wenn auch mit höheren Taktraten und 3-way SLI, und weniger Speicher als eine 8800 GTX hat, dürfte auch nicht zu Klarheit beigetragen haben: Auf einigen Feldern ist die 9800 GTX schlechter als die 8800 GTX.

Was bedeutet GeForce 9? Die 9600 GT ist doppelt so schnell wie die 8600 GT, die 9800 GTX ist etwa so schnell wie die 8800 GTX. Gibt es neue Features? Nein, nicht alle 9-er unterstützen Hybrid-Power.

Die 8800 GS gibt es auch unter der Bezeichnung 9600 GSO, wobei die 9600 GSO-512 dann wieder eine andere Karte ist. Was soll der Scheiß??

Die Umstellung auf GTX und GTS: Warum heißt die GTX 260 mit 216 Cores nicht GTX 265? Warum heißt die 9800 GTX+ plötzlich GTS 250? Warum bleibt es bei der GTX-295-Bezeichnung, obwohl mit der Single-PCB-Version der HDMI-Port weggefallen ist? Warum ist die GT 220 krass schneller als die GT 210, wo es doch nur einen Zehner Unterschied gibt? Warum hat die GTX 295 weniger Features als eine GT 210 (kein D3D 10.1, kein VP4)?

Ständig soll es mehr Klarheit geben. Betrachtet man nur die 9-er Bezeichnungen (und übersieht, dass es keinen vernünftigen Grund zwischen Trennung in 8-er und 9-er Serie gibt), besteht sogar Klarheit: 9400 GT (leider auch als 64-Bit-Version), 9500 GT (leider auch als DDR2-Version), 9600 GT und 9800 GT verdoppeln jeweils (ganz grob betrachtet) die Leistung, 9800 GTX und GTX+ bringen noch mehr Leistung und die 9800 GX2 setzt dem ganzen die Krone auf.

Anstatt bei der neuen Ordnung zu bleiben, geht es nun wieder rund: GTX 260 gibts in zwei Leistungsstufen. Während oft null Änderungen für einen neuen Namen reichen, reichen hier spürbare Änderungen nicht für einen neuen Namen. Die GTS 250 basiert auf einem alten Chip, ohne Möglichkeit, Rechnungen in 64-Bit-Genauigkeit auszuführen. GT, früher ein Kürzel für Performance, markiert jetzt den Low-End-Bereich.

Der Hammer sind natürlich die Bezeichnungen GTX 260M und GTX 280M. Dahinter verbirgt sich auch nur ein G92.

AnarchX
2009-11-03, 17:08:33
Warum ist die GT 220 krass schneller als die GT 210, wo es doch nur einen Zehner Unterschied gibt?
GeForce G 210 bzw. GeForce 210.

Interessant jedoch ist, was als GT 220M verkauft wird. :D

aths
2009-11-03, 17:15:03
GeForce G 210 bzw. GeForce 210.

Interessant jedoch ist, was als GT 220M verkauft wird. :DWas denn? (Die M-Modelle habe ich im Low-End-Bereich nicht so im Kopf.)

Grestorn
2009-11-03, 17:15:26
Dass es die 8800 GTS in vier verschiedenen Ausführungen gab (inklusive eines Nicht-Nvidia-Referenzdesigns sogar fünf), ist zum Nachteil des Kundens: 8800 GTS-320 und 640-Version können in SLI laufen, aber nicht mit einer 512-er Version.
Da hast Du natürlich recht.

Die 9800 GT, welche eine 8800 GT ist: Welcher Vorteil, oder welcher Nicht-Nachteil besteht für den Kunden? Warum hieß die 8800 GT 8800 GT, wo sie schneller ist als eine 8800 GTS-640?Ist das nicht ein Kartenname und wird somit vom Kartenanbieter festgelegt?

Was bedeutet GeForce 9? Die 9600 GT ist doppelt so schnell wie die 8600 GT, die 9800 GTX ist etwa so schnell wie die 8800 GTX. Gibt es neue Features? Nein, nicht alle 9-er unterstützen Hybrid-Power.
Eben. Deswegen sollte der Kunde nur innerhalb einer Generation vergleichen müssen, weil es praktisch unmöglich ist, über Generationsgrenzen hinweg zu vergleichen. Deswegen macht es Sinn, alle alten Chips in das Namensschema der aktuellen Generation einzubinden.

Die Umstellung auf GTX und GTS: Warum heißt die GTX 260 mit 216 Cores nicht GTX 265? Warum heißt die 9800 GTX+ plötzlich GTS 250? Warum bleibt es bei der GTX-295-Bezeichnung, obwohl mit der Single-PCB-Version der HDMI-Port weggefallen ist? Warum ist die GT 220 krass schneller als die GT 210, wo es doch nur einen Zehner Unterschied gibt? Warum hat die GTX 295 weniger Features als eine GT 210 (kein D3D 10.1, kein VP4)?Du machst daraus eine Wissenschaft... Hauptsache ist doch dass GT210 nicht schneller ist als GT220.

Dass neue Karten einer Generation oft mehr Features haben als alte Karten war übrigens schon immer so. Das ist nichts neues.

Anstatt bei der neuen Ordnung zu bleiben, geht es nun wieder rund: GTX 260 gibts in zwei Leistungsstufen. Die GTS 250 basiert auf einem alten Chip, ohne Möglichkeit, Rechnungen in 64-Bit-Genauigkeit auszuführen. GT, früher ein Kürzel für Performance, markiert jetzt den Low-End-Bereich.

Der Hammer sind natürlich die Bezeichnungen GTX 260M und GTX 280M. Dahinter verbirgt sich auch nur ein G92.
Warum sollte nV bei den alten Namen bleiben? Sie verkaufen sich schlecht, obwohl sie objektiv keinen Nachteil für den Kunden haben. Und welcher Normaluser soll nun bitte entscheiden, ob eine 9600 GT nun schneller oder langsamer ist, als eine GTX 250? Eben.

AnarchX
2009-11-03, 17:21:02
Was denn? (Die M-Modelle habe ich im Low-End-Bereich nicht so im Kopf.)
G96: http://www.notebookcheck.com/NVIDIA-GeForce-GT-220M.20053.0.html
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=458062&highlight=220M&page=4

G92 als GTX 200 sollte es wohl ursprünglich auch nicht geben, sondern GTX 180M und 170M:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6941443&postcount=1

reunion
2009-11-03, 17:24:17
Eben. Deswegen sollte der Kunde nur innerhalb einer Generation vergleichen müssen, weil es praktisch unmöglich ist, über Generationsgrenzen hinweg zu vergleichen. Deswegen macht es Sinn, alle alten Chips in das Namensschema der aktuellen Generation einzubinden.


Warum führt NV neue Namen ein welche eine neue Generation vortäuschen wenn sich an der Architektur nichts geändert hat? Die Argumentation mit der Vereinheitlichung des Namensschemas ist mehr als lächerlich wenn man vorher aus der GF8-Serie eine GF9-Serie macht wo sich null geändert hat.

Grestorn
2009-11-03, 17:29:03
Warum führt NV neue Namen ein welche eine neue Generation vortäuschen wenn sich an der Architektur nichts geändert hat? Die Argumentation mit der Vereinheitlichung des Namensschemas ist mehr als lächerlich wenn man vorher aus der GF8-Serie eine GF9-Serie macht wo sich null geändert hat.

Bei der GF9 einen Namenswechsel durchzuführen, obwohl er praktisch nur ein Refresh des GF8 war, war sicherlich überflüssig. Aber werfe den ersten Stein... Als ob ATI das nicht auch schon öfter durchgezogen hätte.

Black-Scorpion
2009-11-03, 17:56:31
Ja auch ATI hat schon Karten umbenannt.
Und? Willst du das mit dem vierten Aufguss bei Nvidia vergleichen?
Die könnten also deiner Meinung nach das Ding auch noch als G900 irgendwann 2040 auf den Markt bringen.
Ist ja nicht so schlimm das es dann der 240te Aufguss wäre.
Man passt ja nur laufend das Namensschema an. :confused:
Merkst du eigentlich selber wie lächerlich deine Argumente zur Verteidigung dieser Praktiken ist?

TobiWahnKenobi
2009-11-03, 18:04:14
was soll daran lächerlich sein.. ich gehe mit grestorns einstellung 100% konform und verstehe nicht, warum man sich über sowas überhaupt aufregen kann.. sind euch die ernsthaften themen ausgegangen..?


(..)

mfg
tobi

Grestorn
2009-11-03, 18:04:14
Ja auch ATI hat schon Karten umbenannt.
Und? Willst du das mit dem vierten Aufguss bei Nvidia vergleichen?

Das ist doch nur ein weiterer Beweis, wie stark die G80 Architektur war, dass ATI nun drei Generationen braucht, um etwas besseres zu bringen. In der Zeit konnte nV sich gemütlich zurücklehnen, ein paar Refreshes machen, den Aufkleber auf den Chips tauschen und in Ruhe am Fermi werkeln. Ich sehe da keinen Kritikpunkt.

Merkst du eigentlich selber wie lächerlich deine Argumente zur Verteidigung dieser Praktiken ist?Eigentlich nicht. Klär mich auf, was daran genau lächerlich ist.

Black-Scorpion
2009-11-03, 18:12:16
Mit dem Beitrag hast du echt bewiesen das dir kein Argumnet zu schade ist um allen Scheiß den Nvidia mit den Umbenennungen veranstaltet zu verteidigen.
Aber Hauptsache du glaubst daran was du erzählst.

=Floi=
2009-11-03, 18:26:36
das umbenennen war absolut sinnlos und unnötig. da kam ein riesiger haufen scheiße dabei raus.
wenn sich nv ausgeruht hätte, dann hätte man den g80 weiter produziert. (G91?) so hatte man eher keine guten argumente mehr und warf mit neuen namen um sich. du kannst nicht das umbenennen als gut hinstellen! das ist absurd und völlig daneben.

bmw bringt auch keinen neuen 3er indem man einfach den internen entwicklungscode ändert und das alte modell noch einmal bringt. ;D
so etwas geht einfach nicht!

Gast
2009-11-03, 19:00:00
Das ist doch nur ein weiterer Beweis, wie stark die G80 Architektur war, dass ATI nun drei Generationen braucht, um etwas besseres zu bringen. In der Zeit konnte nV sich gemütlich zurücklehnen, ein paar Refreshes machen, den Aufkleber auf den Chips tauschen und in Ruhe am Fermi werkeln. Ich sehe da keinen Kritikpunkt.
Man kann auch gleich fragen, warum AMD dreimal auufgiessen darf.
Immer ein paar Tropfen mehr und das ist in Ordnung?
Von HD2 nach HD3 keine Performanceänderung, von HD3 nach HD4 keine Eigenschaftsverbesserung.

Dem kann man nur entgegnen, eine 8800 GTS ist auch nicht gleich einer GTS 250. Absolut nicht.

Von 8800 GTS 640 nach 9800 GTX+ gabs ein enomes Performanceplus und ein andere Eigenschaften. Weit über 50%.
Von 9800 GTX+ nach GTS 250 gabs mehr VRAM und andere Eigenschaften. Außerdem ist das die Einordung ins neue Schema, vom absoluten High-End (x800 und GTX+) ist sie in die Mittelklasse gerutscht (x500 und GTS)

In etwa vergleichbar, wie wenn AMD eine 3870 zu einer 4670 weiterentwickelt hätte.

Gast
2009-11-03, 19:02:34
bmw bringt auch keinen neuen 3er indem man einfach den internen entwicklungscode ändert und das alte modell noch einmal bringt. ;D
so etwas geht einfach nicht!
Sowas willst du nicht vergleichen.

Dann wär neue 1er BMW quasi der alte 3er.
Irgendwann ist dann der 1er so groß wie der uralte 9er.

Mich würds freuen wenns das Topmodell aufeinmal zum Kleinwagenpreis gibt.

Palpatin
2009-11-03, 19:47:58
Sowas willst du nicht vergleichen.

Dann wär neue 1er BMW quasi der alte 3er.
Irgendwann ist dann der 1er so groß wie der uralte 9er.

Mich würds freuen wenns das Topmodell aufeinmal zum Kleinwagenpreis gibt.
Hehe verlgeich mal den E23 (1. 7er) mit dem X1, groß sind die unterschiede nicht :)

Gast
2009-11-03, 20:48:56
Hehe verlgeich mal den E23 (1. 7er) mit dem X1, groß sind die unterschiede nicht :)
Jo, ist praktisch das selbe.
Fängt beim Logo an, ...

Allerdings ist der X1 in dem Fall nicht gerade das, was ich als "klein" bezeichnen würde. Ich habe den normalen 1er gemeint.

Grestorn
2009-11-03, 21:43:52
Mit dem Beitrag hast du echt bewiesen das dir kein Argumnet zu schade ist um allen Scheiß den Nvidia mit den Umbenennungen veranstaltet zu verteidigen.
Aber Hauptsache du glaubst daran was du erzählst.

Wenigsten IST es ein Argument. Dein Beitrag enthält kein solches.

Letztlich sind mir die Umbenennungen reichlich egal, ob bei ATI oder bei nVidia. Mich nervt nur der Zinober der drum gemacht wird, und das obwohl letztlich beide Hersteller das selbe Spielchen spielen. Aber immer, wenn es der andere macht, wird darüber hergezogen.

Wie kindisch.

Gast
2009-11-03, 23:38:50
also ich finde Umbennenungen bei beiden Herstellern ganz großen Mist. Einfach weil man dann die Karten nicht mehr an der Leistung her unterscheiden kann. Man müsste sich ewig lang erkundigen, nicht dass man nach dem Aufrüsten eventuell die gleiche Karte wieder in den Rechner baut. Und wenn es was gibt, was der Mensch immer zu wenig hat, dann ist es Zeit. Viel eindeutiger wäre es, die Namen so zu lassen wie sie sind. Da kann jeder nachvollziehen, wie sich die eigene Karte schlägt, die Kunden müssen weniger vergleichen und keine Angst haben, die gleiche Karte erneut zu kaufen. Und wenn ich von mir ausgehe kan nich nur sagen, ich würde sonst häufiger aufrüsten, aber so wird das Geld eben für andere Dinge ausgegeben...

Grestorn
2009-11-04, 08:27:26
also ich finde Umbennenungen bei beiden Herstellern ganz großen Mist. Einfach weil man dann die Karten nicht mehr an der Leistung her unterscheiden kann.

Genau das Gegenteil ist der Fall. Nur durch die Umbenennung kann man (innerhalb eines Namensschemas) die relative Leistung einschätzen, ohne alle Benchmarks kennen zu müssen.

Gast
2009-11-04, 11:34:08
dann würde ich bei sowas aber auch denken, dass eine 9800 gt schneller als eine 8800 gt ist und würde prompt darafu reinfallen

Gast
2009-11-04, 12:43:25
dann würde ich bei sowas aber auch denken, dass eine 9800 gt schneller als eine 8800 gt ist und würde prompt darafu reinfallen
genau. mit der 100er reihe wirds noch schlimmer und eine 250er gts müsste dann rein theoretisch auch nahe an der gtx260 sein...

naja... ich bin nicht gegen umbenennungsaktionen, sondern gegen verschleierungstaktik und salamiargumentation - sorry, grestorm, in diesem falle müsstest auch du objektiver sein und feststellen, dass das umbenennen bei NV schon fast tradition hat - wenn man nicht bald etwas unternimmt wird das noch wie die AF falle bei ati.

StefanV
2009-11-04, 12:45:27
Ich mag hier mal an den nForce 560 SLI oder nForce 500 (SLI) erinnern, die ja bekanntlich nur AC97 Ton hatten...

Grestorn
2009-11-04, 12:48:10
naja... ich bin nicht gegen umbenennungsaktionen, sondern gegen verschleierungstaktik und salamiargumentation - sorry, grestorm, in diesem falle müsstest auch du objektiver sein und feststellen, dass das umbenennen bei NV schon fast tradition hat - wenn man nicht bald etwas unternimmt wird das noch wie die AF falle bei ati.

Ist denn die Einordnung der Chips in das neue Namensschema nicht korrekt? Wenn es korrekt ist, dann verstehe ich das Argument nicht.

StefanV
2009-11-04, 12:51:47
Nein, ists nicht, da keinerlei D3D11 Funktionalität, wenn die Geforce GTX300irgendwas das dann kann.

reunion
2009-11-04, 12:53:51
Bei der GF9 einen Namenswechsel durchzuführen, obwohl er praktisch nur ein Refresh des GF8 war, war sicherlich überflüssig. Aber werfe den ersten Stein... Als ob ATI das nicht auch schon öfter durchgezogen hätte.

So hat ATi das nie durchgezogen. Jede neue Generation hatte zumindest neue Chips, tw. neue Features, mehr Speed.

Gast
2009-11-04, 12:54:26
Ist denn die Einordnung der Chips in das neue Namensschema nicht korrekt? Wenn es korrekt ist, dann verstehe ich das Argument nicht.
die einordnung suggeriert einen höheren funktionsumfang, ein neues produkt, wird optimalerweise (ironie) gleichzeitig mit der fermi gelauncht und erzeugt dadurch bei noobs noch den eindruck dass sie aus derselben hardwarefamilie stammen.

die suggestion ist hier das problem, und dass man dies gewollt so umsetzt und diese suggestion füttert. dafür sollte man nv in den arsch treten, für nichts sonst. (ausser vielleicht die NF200 fehler die gerade mit den 07er treibern auftauchen ;))

Grestorn
2009-11-04, 13:00:23
Nein, ists nicht, da keinerlei D3D11 Funktionalität, wenn die Geforce GTX300irgendwas das dann kann.

Ich glaube nicht, dass man für die G300M Chips mit DX11 werben wird.

Aber Du hast grundsätzlich nicht unrecht, da der G300 eindeutig eine neuer Techlevel ist, hätte man diese Umbenennung besser bleiben lassen sollen. Vielleicht überlegt man sich das ja auch noch. Bislang ist es ja meines Wissens nur ein inoffizieller Treiber, der die Chips so benennt.

Gast
2009-11-04, 14:27:53
Ich glaube nicht, dass man für die G300M Chips mit DX11 werben wird.

Aber Du hast grundsätzlich nicht unrecht, da der G300 eindeutig eine neuer Techlevel ist, hätte man diese Umbenennung besser bleiben lassen sollen. Vielleicht überlegt man sich das ja auch noch. Bislang ist es ja meines Wissens nur ein inoffizieller Treiber, der die Chips so benennt.
eben - es geht ja konkret (zumindest für mich) darum, dass NV nicht dasselbe spielchen mit umbenennen anfängt wie ati mit dem AF - kundenverarsche. klar, beides gewinnorientierte unternehmen, trotzdem erwarte ich eine gewisse kultur.

TobiWahnKenobi
2009-11-04, 14:34:56
ich lese oft davon, dass der eine oder andere dies oder das "erwartet".. naja.. erwartungen.. wünsche.. hoffnungen.. sowas wird halt gern mal enttäuscht und manche dinge muss man einfach so nehmen wie sie sind..


(..)

mfg
tobi

StefanV
2009-11-04, 14:48:45
Ich glaube nicht, dass man für die G300M Chips mit DX11 werben wird.
Das machts kein Stück besser.
Der 'unbedarfte Anwender' wird denken, das die 300er Serie von Top to Buttom D3D11 wäre und 'blind das kaufen', siehe auch Geforce 4 MX.

Und denk mal an die Radeon 9000, 9100 und 9200, wie damals seitens der nV Fans rumgeflamt wurd...
Aber Du hast grundsätzlich nicht unrecht, da der G300 eindeutig eine neuer Techlevel ist, hätte man diese Umbenennung besser bleiben lassen sollen. Vielleicht überlegt man sich das ja auch noch. Bislang ist es ja meines Wissens nur ein inoffizieller Treiber, der die Chips so benennt.
Diese Umbenennung seitens nVidia ist einfach nur dummdreist und wird irgendwann dazu führen, das die unbedarften Anwender die Finger davon lassen, wenn sich rumgesprochen hat, das man hier 'bescheisst'...

Diese Umbenennung spricht doch auch nur für die Verzweiflung bei nVidia.
Man hat einfach nichts, was man AMD entgegensetzen könnte, dazu kommt, das die so langsam wirklich in fahrt kommen.

Undertaker
2009-11-04, 14:56:05
Was ist mit einer HD4200 im RS880, die intern auch nur ein RV620 ist? ;) Mein Gott, man muss sich halt informieren.

Gast
2009-11-04, 15:51:05
Was ist mit einer HD4200 im RS880, die intern auch nur ein RV620 ist? ;) Mein Gott, man muss sich halt informieren.
will nix gutreden, aber das wär ja trotzdem ein dx10.1 chip oder? rv610 war dx10 und rv620 dx10.1 oder? ansonsten bitte korrigieren...

AnarchX
2009-11-04, 15:59:04
Zudem hat RS880 auch UVD2, wie alle HD4000.

Natürlich gibt es bei AMD auch einige sonderbare namenspolitische Entscheidungen, wie die HD4770 oder die HD4730, die es auch als OEM-Version mit RV670-128-Bit und DDR2 gibt.
Aber bei Nvidia sind die Auswüchse der Namenspolitik keine Randerscheinungen mehr.

Und mit GeForce 300 Mobile mit GT21x-GPUs und Fermi als GeForce 300 Desktop, sieht es offenbar so aus, als ob man dies noch weiter fortsetzen möchte.

reunion
2009-11-04, 16:02:22
Aber bei Nvidia sind die Auswüchse der Namenspolitik keine Randerscheinungen mehr.


So ist es. Kleinere Auswüchse im Lowend gab es schon länger und das ist sicherlich auch nicht in Ordnung, aber bei NV kann man mittlerweile fast davon ausgehen das man jeden Chip unter zwei bis drei Generationen vermarktet. Man hat den Eindruck wenn die Nachfrage nachlässt werden die Karten umbenannt. Und das ist sicherlich auch nicht zum Vorteil des Kunden oder zur besseren Übersichtlichkeit, solche Ausreden sind in meinen Augen mehr als lächerlich.

aths
2009-11-04, 16:38:08
Man hat den Eindruck wenn die Nachfrage nachlässt werden die Karten umbenannt. Und das ist sicherlich auch nicht zum Vorteil des Kunden oder zur besseren Übersichtlichkeit, solche Ausreden sind in meinen Augen mehr als lächerlich.Da Nvidia sehr lange nichts am Techlevel gemacht hat, wäre es sicherlich ok, ein altes Produkt wenn es weiterhin verkauft wird, neu zu benennen damit sich eine für den Kunden übersichtliche neue Produktlinie ergibt.

Hierbei könnte Nvidia aber offenherziger in der Kommunikation sein, also öffentlich ankündigen welches Produkt welchen neuen Namen erhält. Ansonsten wäre zumindest zu erwarten, dass wenigstens eine der drei Takt-Domänen leicht anders getaktet wird, was dann das "neue" Produkt wieder irgendwie rechtfertigen würde.

Der G92 ist so gut, dass es nicht notwendig war, ständig neue Chips zu entwickeln. Den G92 kann man mit 96, 112 oder allen 128 aktiven SP und in unterschiedlichen Taktraten verkaufen und mit unterschiedlich getaktetem Speicher und unterschiedlich breiten Interfaces anbieten. Nur finde ich es nicht OK wenn der G92 mit in die neue GTX-GTS-Nomenklatur übernommen wird, da GT200 ein anderes SP-TMU-Verhältnis hat, effizienter pro Takt und SP arbeitet und für Cuda 64-Bit-Genauigkeit bietet.

Auf der anderen Seite gehört der G92 nicht in die Geforce-8-Serie. Es ist der G92. Die 8800 GT war wie die 8800 GS eine Fehlbezeichnung. 9800 GT und 9800 GS wären bessere Produktnamen gewesen. Die 9800 GTX hätte gleich mit 1 GiB Speicher kommen sollen, alles wäre in Butter.

Die 512-er Version der 9800 GTX hätte man mit leicht gesenkten Taktraten als 9800 GTS verkaufen können.

aths
2009-11-04, 16:45:23
Da hast Du natürlich recht.

Ist das nicht ein Kartenname und wird somit vom Kartenanbieter festgelegt?Nvidia verkauft die CPUs bzw. Kits für einen Kartennamen. Der Kartenhersteller kann sich da nicht einfach was ausdenken.

Eben. Deswegen sollte der Kunde nur innerhalb einer Generation vergleichen müssen, weil es praktisch unmöglich ist, über Generationsgrenzen hinweg zu vergleichen. Deswegen macht es Sinn, alle alten Chips in das Namensschema der aktuellen Generation einzubinden.Wie oft sollte das getan werden? G92 gibts als:

8800 GT
8800 GS
8800 GTS 512
9600 GSO (da gibts auch eine G94-basierende 9600 GSO 512. Warum heißen beide 9600 GSO? Ein mal 96, ein mal 48 SP.)
9800 GTX
9800 GT (das gleiche wie 8800 GT. Die 9800 GT gibts auch ohne Hybrid Power. Inwiefern wird die Vergleichbarkeit verbessert?)
9800 GTX+
9800 GTX+ (zweite Version mit nur einem Stromstecker und kürzerer Platine.)
GTS 250
GTS 250 (neue Version mit leicht gesenkten Taktraten, ich weiß nicht ob das schon Nvidia-offiziell ist)
GTX 260M
GTX 280M

Was wird vergleichbar gemacht wenn derselbe Chip von 8800-er, sogar 9600-er bishin GTX 280M bezeichnet wird?


Du machst daraus eine Wissenschaft... Hauptsache ist doch dass GT210 nicht schneller ist als GT220.

Dass neue Karten einer Generation oft mehr Features haben als alte Karten war übrigens schon immer so. Das ist nichts neues. Ich versetze mich in die Lage des Kundens, der eine neue Karte kaufen will. Viele wenden sich von Nvidia mit Entsetzen ab weil sie keine Lust haben, zwei Semester Nvidia-Nomenklatur zu belegen.

Nvidia versucht, den Kunden hinters Licht zu führen: Die erste Karte der 9-er Generation war die 9600 GT. Das war tatsächlich ein neuer Chip. Die Karte ist ca. doppelt so schnell wie die 8600 GTS (und mehr als doppelt so schnell wie die 8600 GT.) Gut, dann kommt die 9800 GTX. Jeder erwartet einen neuen Chip, immerhin gibt es eine neue GTX. Drin ist aber ein alter Chip, was ja noch OK wäre wenn die Performance deutlich höher wäre im Vergleich zur 8800 GTX. Das ist leider nicht der Fall. Es gibt sogar weniger Speicher. HALLO?

GTX, ehemals High-End, steht plötzlich für Mid-Range oder "Low-High-End". Die erwartete verdoppelte Leistung der "neuen" Generation (Geforce 9) gibts nur mit der GX2.

Warum sollte nV bei den alten Namen bleiben? Sie verkaufen sich schlecht, obwohl sie objektiv keinen Nachteil für den Kunden haben. Und welcher Normaluser soll nun bitte entscheiden, ob eine 9600 GT nun schneller oder langsamer ist, als eine GTX 250? Eben.GTX (nicht GTS) 250? Warum heißt die GTS 250 so und nicht mehr 9800-er? Dann wäre es im Vergleich zur 9600-er klar.

Nvidia simuliert ständig neue Produkte obwohl es oft reine Umbenennungs-Aktionen ohne jede Änderung des Feature-Sets oder der Leistung sind. Da reicht das Überkleben des Lüfter-Artworks und das Flashen eines neuen BIOS was nichts weiter tut als die Device-ID zu ändern. Benennungs-Wirrwarr gabs früher auch schon mit GeForce 2, 3 und 4. Eine reine Umbenennung kenne ich nur von der Geforce 6200 zu 7200.

Nvidia entwertet seit einiger Zeit wieder eingeführte Begriffe. GT steht neuerdings für Low-End.

Der eingeführten Begrifflichkeit zufolge würde – dem Namen nach – ein Wechsel von 8800 GTX auf 9800 GTX ein ordentliches Leistungsplus bringen. Dabei ist die neue Karte ingesamt nur so gut wie alte, in Extrem-Settings sogar langsamer. Hier wird für den kurzfristigen Profit langfristig das Vertrauen in die Ehrlichkeit der Produktbezeichnungen zerstört.

Ich habe nichts dagegen, einen Chip für verschiedene Produkte zu nutzen. Dass die 8800 GT dann 9800 GT heißt, die 9800 GTX+ (zweite Version) nun GTS 250 stiftet aber nur Verwirrung. Anhand des Namens kann der Kunde weder das genaue Techlevel (10.0 oder 10.1, Hybrid-Power oder nicht) unterscheiden, noch die Leistung im Vergleich zu bisher eingeführten und bekannten Produkten bewerten. Und wer einen Laptop mit einer GTX 280M erwirbt, rechnet möglicherweise mit irgendwelchen Abspeckungen, aber geht guten Glaubens davon aus, dass GT200-Technik in der GPU steckt.

PulsarS
2009-11-04, 17:05:32
Stimme aths hier zu 100% zu.

Was Nvidia da letztens mit den Namen der Karten macht, ist ja schon teilweise für erfahrene PC-Nutzer nicht mehr durchschaubar.

Für "Noobs" ist es eine Zumutung da noch den Durchblick zu behalten.

Und die Argumentation man soll sich doch informieren zieht nicht wirklich, denn da bracht man fast schon wirklich ein Nvidia-Nomenklatur-Studium.

Black-Scorpion
2009-11-04, 18:31:23
Genau das Gegenteil ist der Fall. Nur durch die Umbenennung kann man (innerhalb eines Namensschemas) die relative Leistung einschätzen, ohne alle Benchmarks kennen zu müssen.
Ich frag echt langsam ob du alle verarschen willst oder es wirklich nicht begreifst.
Da kann man echt nur noch mit dem Kopf schütteln.
Dir können hundert Leute mit Argumenten belegen wie beschissen die laufenden Namensänderungen sind und du hast nichts besseres zu bieten wie auf Durchgang zu schalten und den Schrott zu verteidigen.

Grestorn
2009-11-04, 18:43:31
Ich frag echt langsam ob du alle verarschen willst oder es wirklich nicht begreifst.
Da kann man echt nur noch mit dem Kopf schütteln.
Dir können hundert Leute mit Argumenten belegen wie beschissen die laufenden Namensänderungen sind und du hast nichts besseres zu bieten wie auf Durchgang zu schalten und den Schrott zu verteidigen.

Wie wär's wenn Du statt mit dem Kopf zu schütteln argumentieren würdest?

Ein Argument habe ich ja bereits akzeptiert: Eine Umbenennung in die G300 Generation hinein ist in der Tat völliger Blödsinn, da anderer Techlevel.

Black-Scorpion
2009-11-04, 18:54:31
Schau dir aths Beitrag an. (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7638616#post7638616)
Oder denkst du ich bete das nochmal runter?
Wäre so oder so Arbeit für nichts.
Weil du einfach nicht verstehen willst.
Und die ganzen Argumente Leier ich nicht für dich runter.

AnarchX
2009-11-04, 19:00:51
@ Black-Scorpion: Ich rate dir an, deinen Ton etwas zu mäßigen.

Das Argument der besseren Einordenbarkeit kann man imo nicht wirklich so halten, aus diesem Standpunkt hätten 9800/9600 GT Green, die nach der GTS 250 kamen eigentlich auch als GeForce 200 bezeichnet werden müssen.

Konsequent wäre wohl gewesen, alle erhältlichen GeForce in die 200er Serie zu überführen, wie es Intel und AMD teilweise schon bei ihren CPUs taten.
Die GT21x hätte man ja als GeForce 200.1 vermarkten können, wobei NV aber den D3D10.1-Support für die Öffentlichkeit eher nicht offensichtlich mag. :D

Grestorn
2009-11-04, 19:00:55
Ich habe aths Beitrag natürlich gelesen. Er hat gute Argumente, die ich aber nur zum Teil teile. Das ist mein gutes Recht, oder?

Du hast dagegen nur geflamet.

Grestorn
2009-11-04, 19:02:32
[MODTEXT]Konsequent wäre wohl gewesen, alle erhältlichen GeForce in die 200er Serie zu überführen, wie es Intel und AMD teilweise schon bei ihren CPUs taten.
Die GT21x hätte man ja als GeForce 200.1 vermarkten können, wobei NV aber den D3D10.1-Support für die Öffentlichkeit eher nicht offensichtlich mag. :D

So ist es. Richtig konsequent ist das ganze nicht. Marketing halt.

Ich will nicht sagen, dass es optimal ist was nV da macht. Aber es ist auch nicht so verdammenswert, wie es einige gerne darstellen. Es ist jedes Mittel recht um nV als das Böse schlechthin hinzustellen.

Mr. Lolman
2009-11-04, 19:14:44
So ist es. Richtig konsequent ist das ganze nicht. Marketing halt.

Ich will nicht sagen, dass es optimal ist was nV da macht. Aber es ist auch nicht so verdammenswert, wie es einige gerne darstellen. Es ist jedes Mittel recht um nV als das Böse schlechthin hinzustellen.

Von Verkäuferseite her ists optimal. Von der Käuferseite her nicht. Der durchschnittliche Kunde hat keinen Schimmer, dass ne 9800GTX im Zweifelsfall sogar langsamer sein kann, als ne 8800GTX. Trotzdem hätt der irgendwann seine 8800GTX gern aufgerüstet, und denkt sich er kann mit ner 1024MB GTS250 um 150€ eigentlich nix falsch machen, da ja seine 8800GTX Karte mittlerweile immerhin schon 3 Jahre alt ist, was für Computer-HW ja schon ne halbe Ewigkeit darstellt.

(zum Vergleich: ~3 Jahre lagen zwischen Voodoo1 und Voodoo5!)

Grestorn
2009-11-04, 19:22:25
Der durchschnittliche Kunde hat keinen Schimmer, dass ne 9800GTX im Zweifelsfall sogar langsamer sein kann, als ne 8800GTX.

Das ist doch eher ein Ausnahmefall. Im Regelfall ist die 9800GTX der 8800GTX mindestens ebenbürtig. Was bringt es, immer mit Grenzfällen zu argzumentieren? Das kann die Gegenseite doch auch immer, ich finde es nur kindisch. Allerdings fand ich die G92 auch sehr schwach, siehe unten.

Im besten Fall sind zum Zeitpunkt x nur Produkte einer Generation (von der Bezeichnung her) am Markt. Ist klar, dass das nicht realisitisch ist, aber wenn man davon ausgehen würde, hätte es nur Vorteile für den Kosnumenten, wenn alle Karten im Laden leicht vergleichbar sind.

Wie sich die Karten relativ zu der Karte in seinem Rechner verhält, war schon immer schwer einzuschätzen. Dass das Topmodell schneller sein sollte, als das Topmodell der alten Generation ist allerdings schon zu erwarten und genau der Grund, warum ich nie eine G92 besessen habe... :)

reunion
2009-11-04, 19:25:23
Das ist doch eher ein Ausnahmefall. Im Regelfall ist die 9800GTX der 8800GTX mindestens ebenbürtig. Was bringt es, immer mit Grenzfällen zu argzumentieren? Das kann die Gegenseite doch auch immer, ich finde es nur kindisch. Allerdings fand ich die G92 auch sehr schwach, siehe unten.


Es reicht eh wenn man sich um viel Geld eine neue Karte kauft mit gleicher Leistung obwohl man eine neue Generation erwartet. Oder man seine 8800GT durch eine absolut identische 9800GT ersetzt, etc. Da gab es selbst hier im Forum anfragen, da sind sicherlich einige auf die Schnauze gefallen.

Mr. Lolman
2009-11-04, 19:45:20
Das ist doch eher ein Ausnahmefall. Im Regelfall ist die 9800GTX der 8800GTX mindestens ebenbürtig. Was bringt es, immer mit Grenzfällen zu argzumentieren? Das kann die Gegenseite doch auch immer, ich finde es nur kindisch. Allerdings fand ich die G92 auch sehr schwach, siehe unten.

Besser erstmal informieren, bevor man persönlich wird: http://www.pcgameshardware.de/aid,638103/Geforce-im-FSAA-Shootout-9800-vs-8800-GTX/Grafikkarte/Test/bildergalerie/?iid=800269


Im besten Fall sind zum Zeitpunkt x nur Produkte einer Generation (von der Bezeichnung her) am Markt. Ist klar, dass das nicht realisitisch ist, aber wenn man davon ausgehen würde, hätte es nur Vorteile für den Kosnumenten, wenn alle Karten im Laden leicht vergleichbar sind.

Die G92-Version der 8800GTX sollte 9600GTX heissen. Und als Neuauflage meinetwegen GTX240, wenns des Angleichenswillen der Nomenklatur unbedingt notwendig sein sollte. Eine GTX260M hat mehr mit ner 8800GT gemeinsam, als mit ner GTX260. Kaufst du ein Notebook mit ner 9600GT hast du eigentlich eine 8600GT in den Händen. Und du meinst immernoch ernsthaft, dass es NV nicht möglich gewesen wäre, ihre Benennungen transparenter zu gestalten?


Wie sich die Karten relativ zu der Karte in seinem Rechner verhält, war schon immer schwer einzuschätzen. Dass das Topmodell schneller sein sollte, als das Topmodell der alten Generation ist allerdings schon zu erwarten und genau der Grund, warum ich nie eine G92 besessen habe... :)

So langs immernoch Leute gibt, die erwarten, dass mehr Grafik-RAM mit höherer Leistung gleichzusetzen ist, und solang immernoch Low-End-Karten mit unsinnig viel VRAM verscherbelt werden, ist die Diskussion eigentlich eh überflüssig. ;)

Coda
2009-11-04, 20:26:20
Besser erstmal informieren, bevor man persönlich wird: http://www.pcgameshardware.de/aid,638103/Geforce-im-FSAA-Shootout-9800-vs-8800-GTX/Grafikkarte/Test/bildergalerie/?iid=800269
Öh, da ist die eine 8800 GTX aber deutlich übertaktet. Was soll der Vergleich?

aths
2009-11-04, 20:38:04
Die G92-Version der 8800GTX sollte 9600GTX heissen. Nöpp. Mit 1024 MiB RAM halte ich die Bezeichnung 9800 GTX zumindest wenn der GTX+-Takt gewährleistet ist, für gerechtfertigt. Auch mit nur 512 MiB ist es sehr viel mehr als eine 6-er Karte. Übrigens heißen mit ß, bitte.


GeForce 8, 9 und 10 aths-approved:


8800 GTX und Ultra bleiben so, bei der GTS scheint der im Namen nicht deutliche Unterschied zwischen 320 und 640 MiB vom Kunden akzeptiert worden zu sein.

Die 8600-er Reihe hätte 8500-er heißen sollen, da die 6 bis dahin für eine halbierte Highend-Version stand. Die 8500-er hätte Nvidia 8300-er nennen sollen (in Anspielung auf durchaus brauchbare 7300-er Versionen) und die 8400-er als 8200-er bezeichnen, da 200 bei Nvidia für "Einstieg" steht.

Dann Launch des G92 mit der 9800 GT bei 112 aktiven SP (statt 8800 GT.) Dann endlich die 6-er in Form der 9600-er, möglicherweise mit 192-Bit-SI als 9600 GT und mit 256-Bit-SI als 9600 GTS.

Solange es entsprechend kaputte oder nur niedrig taktbare Chips gibt, die 9800 GS mit 96 SP und 192-Bit-SI. Den G94 mit nur 48 aktiven SP und mit 192-Bit-SI als 9600 GS.

Dann im Einsteiger-Bereich den G96 (32 SP) als 9500-er, mit DDR2-RAM als 9400-er, G98 (16 SP) als 9300-er in 128-Bit-Version, 9200-er in 64-Bit-Version.


Die G92-Version mit 128 SP und 1024 MiB RAM meinetwegen als 9800 GTX launchen. Eine 512-Version mit leicht geringerer Taktung möglicherweise 9800 GTS.

Die Geforce 9 wäre dann im Vergleich zum 8-er Modell immer ein wenig schneller. So wie es Nvidia gemacht hat, ist es Wirrwarr³: 9500 deutlich, deutlich besser als 8500-er, 9600-er viel viel besser als 8600-er, 9800 jedoch kaum besser als 8800-er.


Nun Launch vom GT200 mit GTX 260 und 280. Die 216-er Version hätte bei mir GTX 265 geheißen. Die GTX 295 hätte ich GX2 270 genannt (vom Chip her 280, vom Speicherinterface her 260 – macht dann 270.)

Später noch die Single-GPU-GTX 275 (nicht mehr 270, da höhere Taktraten) und GTX 285 (ebenfalls leicht höhere Taktraten als 280.)

Bis der GF100 mit seinen kleinen Ablegern marktreif ist, vielleicht noch eine GTX 250 für den preisbewussten Käufer nachschieben: GPU-mäßig eine GTX 260 aber mit einem 384-Bit-Speicherinterface damit das Platinenlayout möglichst einfach gehalten werden kann.

Wenn man unbedingt G92-Produkte mit in die Familie aufnehmen will, bitte als GT, GTS (und GTX) 1xx. Die 1 macht dann klar, dass die Produkte eine Technologiestufe weiter unten sind. Wozu denn die Zweihunderter-Bezeichnungen bei der GTX, wenn es nirgendwo die Einhunderter gibt?

Beispiel: 9800 GTX - GTX 180, 9800 GT: GT 180, 9600 GT: GT 160 und so weiter.

Gast
2009-11-04, 22:58:10
Die G92-Version der 8800GTX sollte 9600GTX heissen. Und als Neuauflage meinetwegen GTX240, wenns des Angleichenswillen der Nomenklatur unbedingt notwendig sein sollte.
Dann solltest du doch zufrieden sein, statt GTX 240 wurde es GTS 250.
Zudem ähneln sich 9800 GTX+ und GTS 250 nur, sie sind nichteinmal gleich.

So hat ATi das nie durchgezogen. Jede neue Generation hatte zumindest neue Chips, tw. neue Features, mehr Speed.
Du meinst die komplette HD2 Serie, die zur HD3 wurde?
Lediglich die Eigenschaften wurden etwas aufgemöbelt.

Kaum zu glauben das du das mit dem Wechsel einer High-End Karte zu einer Mittelklassekarte gleichstellts, bzw letzteres sogar als schlecht und erster als Lüge.

StefanV
2009-11-04, 23:30:42
Du meinst die komplette HD2 Serie, die zur HD3 wurde?
Lediglich die Eigenschaften wurden etwas aufgemöbelt.
Nö, das ist nicht vergleichbar.

Erstens gabs keine HD3900 sondern nur eine HD38x0 (vergl. HD2900), zweitens wurden die alle etwas verändert, die kleineren wurden AFAIR breiter und/oder bekamen mehr Takt, gemein ist allen, das sie auch D3D10.1 fähig waren, gegenüber D3D10 bei der HD2x Serie.
Hier geht der neue Name durchaus in Ordnung...

Coda
2009-11-04, 23:33:41
Ich glaube ja, dass bei R600 sowieso nur Bugs dafür verantwortlich waren, dass das Ding nicht gleich 10.1 konnte.

Aber so gesehen hast du recht.

Gast
2009-11-04, 23:34:30
Erstens gabs keine HD3900 sondern nur eine HD38x0 (vergl. HD2900),
Bei der HD3 gibts dafür keine XT und Pros mehr. :rolleyes:


zweitens wurden die alle etwas verändert, die kleineren wurden AFAIR breiter und/oder bekamen mehr TaktDa bist du falsch informiert.
Eigenschaften wurden verändert, D3D10.1 und etwas weniger Verlustleistung, das wars.

Dem gegenüber kritisierst du ernsthaft die GTS 250?

PulsarS
2009-11-04, 23:49:39
Zudem ähneln sich 9800 GTX+ und GTS 250 nur, sie sind nichteinmal gleich.

Inwiefern?
Für mich ist hauptsächlich die GPU für den Namen verantwortlich, wie siehst du das?

Du meinst die komplette HD2 Serie, die zur HD3 wurde?
Lediglich die Eigenschaften wurden etwas aufgemöbelt.
Da wurde sicherlich mehr geändert als von 8800GT zur 9800GT.
Beispiele gefällig? :naughty:

Coda
2009-11-04, 23:57:02
RV670 kann auch DP, R600 nicht.

Gast
2009-11-04, 23:58:32
Inwiefern?
Für mich ist hauptsächlich die GPU für den Namen verantwortlich, wie siehst du das?
Leistung, Features, Eigenschaften.
GPU ist vollkommen, aber sowas von vollkommen scheissegal.
Wenns nach außen passt kann AMD ruhig 20 RV810 koppeln und als als 5970 verkaufen. Oder einen RV870 auf eine 5350 schnallen, entsprechend beschnitten natürlich.

Erscheint eine neue Karte wird sie logischerweise ins neue System genommen (GTS 250) und nicht ins alte (9800GTX+) und stattdessen wird sie einige Stufen degradiert.


Da wurde sicherlich mehr geändert als von 8800GT zur 9800GT.
Beispiele gefällig?
Ein ganz böses Beispiel findet sich immer.
Gut, auch die sind nicht ganz gleich, aber lassen wir das wenn du dir AMDs HD3 schönreden musst, ich bin morgen wieder hier, dann können wir weitermachen.

PulsarS
2009-11-05, 00:21:09
Leistung, Features, Eigenschaften.
GPU ist vollkommen, aber sowas von vollkommen scheissegal.
Wenns nach außen passt kann AMD ruhig 20 RV810 koppeln und als als 5970 verkaufen. Oder einen RV870 auf eine 5350 schnallen, entsprechend beschnitten natürlich.
Was für eine schwachsinnige Aussage.
Wenn du meine Aussage nicht verstehst, dann brauchst du auch nicht zu antworten.... EOD.
Oder du erklärst mir, warum man mit der gleichen GPU einen neuen Namen braucht.
Sonst kannst du dir deine Scheinargumente sparen.
Oder wo rechtfertigt die 9800GT ihre Bezeichnung?
Und komme mir nicht wieder mit irgendeinem Scheinmüll....

Erscheint eine neue Karte wird sie logischerweise ins neue System genommen (GTS 250) und nicht ins alte (9800GTX+) und stattdessen wird sie einige Stufen degradiert.
Was ist daran logisch?
:confused:
Selten so ein zusammenhangloses Zeug gelesen.
Vielleicht solltest du dich mal anmelden, damit man mit dir wie mit einem Gleichwertigen reden kann.

Sonst ist es nur heiße Luft von dir.


Ein ganz böses Beispiel findet sich immer.
Gut, auch die sind nicht ganz gleich, aber lassen wir das wenn du dir AMDs HD3 schönreden musst, ich bin morgen wieder hier, dann können wir weitermachen.
Ich muss mir gar nichts schönreden.
Nur solltest du ein paar Argumente bringen, die nicht nur meinen Vater beeindrucken, sondern auch Leute, die sich damit auskennen.

reunion
2009-11-05, 07:03:18
Du meinst die komplette HD2 Serie, die zur HD3 wurde?
Lediglich die Eigenschaften wurden etwas aufgemöbelt.

Kaum zu glauben das du das mit dem Wechsel einer High-End Karte zu einer Mittelklassekarte gleichstellts, bzw letzteres sogar als schlecht und erster als Lüge.

Kein einzige Chip wurde umbenannt. Kein einziger. Jeder HD3-Chip war ein neuer Chip mit neuem Tapeout in einem neuen Prozess. Jeder Chip hatte neue Features mit D3D10.1, DP, UVD, PCIe 2.0. Es gab Optimierungen an der AA Geschwindigkeit trotz Halbierung des SIs. Nein, das ist in keinster Weise vergleichbar mit Spielchen wie 8800GT vs. 9800GT. Kaum zu glauben ist höchstens das du dich hier hinstellst - wohlwissend das du Blödsinn erzählst - und so tust als ob das schlimmer wäre als die Umbenennungsaktionen von NV. Das ist ja schon LovesuckZ-Niveau. Gratuliere.

V2.0
2009-11-05, 07:03:54
Du meinst 8800GT-9800GT-9800GTS-GT250-GT350 :D

Mr. Lolman
2009-11-05, 08:27:17
Öh, da ist die eine 8800 GTX aber deutlich übertaktet. Was soll der Vergleich?

Auch die unübertaktete Version ist in dem Vergleich vorhanden, und zT flotter...

AnarchX
2009-11-05, 08:33:18
Für die 9800 GTX hätte man einfach mehr als 250€ verlangen sollen und dafür gleich einen Takt in Richtung der GTX+ bringen sollen und die Karte mit 1GiB bestücken sollen.

=Floi=
2009-11-05, 09:05:28
die 1gb bringen es bei der karte auch nicht. der geht vorher schon die luft aus. bei der karte wurde an mehreren sachen gespart, damit der preis niedrig gehalten werden kann. Da müsste man an mehreren sachen drehen.

einziger pluspunkt der 250er ist der stromsparmodus.

AnarchX
2009-11-05, 09:23:55
Mit 1GiB behauptet sich eine GTS250/9800GTX+ doch ziemlich gut gegen die 8800 GTX:
http://www.pcgameshardware.de/aid,677473/Test-Geforce-GTS-250-Drei-neue-Grafikkarten-auf-dem-Pruefstand/Grafikkarte/Test/

Zwar wäre da wohl eher 8900 GTX gerechtfertigt.

Gast
2009-11-05, 10:07:36
Was für eine schwachsinnige Aussage.
Wenn du meine Aussage nicht verstehst, dann brauchst du auch nicht zu antworten.... EOD.
Oder du erklärst mir, warum man mit der gleichen GPU einen neuen Namen braucht.
Sonst kannst du dir deine Scheinargumente sparen.
Oder wo rechtfertigt die 9800GT ihre Bezeichnung?
Und komme mir nicht wieder mit irgendeinem Scheinmüll....

Wenn du den Unterschied zwischen Bauteil und vollständigen Produkt nicht kennst, brauchen wir nicht weiter machen.
Das Produkt zählt und sonst nichts. Schade wenn du das nicht verstehst.


Was ist daran logisch?

Selten so ein zusammenhangloses Zeug gelesen.
Vielleicht solltest du dich mal anmelden, damit man mit dir wie mit einem Gleichwertigen reden kann.

Sonst ist es nur heiße Luft von dir.
Ich verstehe nicht was dir an der Degradierung eines neuen Produktes missfällt.



Ich muss mir gar nichts schönreden.
Nur solltest du ein paar Argumente bringen, die nicht nur meinen Vater beeindrucken, sondern auch Leute, die sich damit auskennen.

Na dann fang doch mal an, was am kompletten HD2 nach HD3 Wechsel so super filmreif war, während die Degradierung der GTS 250 falsch ist.
Bitte, fang an.

Kein einzige Chip wurde umbenannt.
Richtig, ich kann mich ehrlich gesagt auch nicht an solche Aktionen erinnern, egal welcher IHV.


Jeder Chip hatte neue Features mit D3D10.1, DP, UVD, PCIe 2.0. Es gab Optimierungen an der AA Geschwindigkeit trotz Halbierung des SIs.Ich tu mal so, als ob du Produkt und nicht Chip geschrieben hättest.
Also, das erinnert mich an die 9800 GTX+. Keine Namensdegradierung, trotz ähnlicher Performance.

Aber ich wollte doch wissen, was mit der GTS 250 ist.
Verbesserte Eigenschaften und Namensdegradierung.

Nein, das ist in keinster Weise vergleichbar mit Spielchen wie 8800GT vs. 9800GT.Was mit der 8800 GT los ist habe ich schon geschrieben, aber bitte, wenn du nur darauf rumhacken willst, las ich dir die Freude.

Ich wollte über GTS 250 oder noch bösere GT 240 diskutieren.

Kaum zu glauben ist höchstens das du dich hier hinstellst - wohlwissend das du Blödsinn erzählst - und so tust als ob das schlimmer wäre als die Umbenennungsaktionen von NV. Das ist ja schon LovesuckZ-Niveau. Gratuliere.Selbst Lolman ist mit der GTS 250 zufrieden, wie er geschrieben hat.
Aber danke für die Beleidigung.

Gast
2009-11-05, 10:12:10
Du meinst 8800GT-9800GT-9800GTS-GT250-GT350 :D
Du willst nur den Flame anheizen, oder?

Ansonsten hättest du auch geschrieben was du meinst, gerade wenn du schon 2 nicht existente Produkte in eine Reihe stellst, deren Sinn ich nicht erkenne.

Mit 1GiB behauptet sich eine GTS250/9800GTX+ doch ziemlich gut gegen die 8800 GTX:
http://www.pcgameshardware.de/aid,677473/Test-Geforce-GTS-250-Drei-neue-Grafikkarten-auf-dem-Pruefstand/Grafikkarte/Test/

Zwar wäre da wohl eher 8900 GTX gerechtfertigt.
8900 GTX wäre vollkommen daneben.
Die Unterschiede sind viel zu deutlich, die GF8 ist viel zu voll, cya Übersicht und die GTS 250 ist alles andere als eine High-End Lösung.
In die HD2 hat man auch keine HD3 und HD4 gequetscht.

9700 GTX wäre angemessen gewesen, bzw notfalls 9700 GTS.
GTS 250 ist vollkommen in Ordnung.

PulsarS
2009-11-05, 22:02:55
Wenn du den Unterschied zwischen Bauteil und vollständigen Produkt nicht kennst, brauchen wir nicht weiter machen.
Das Produkt zählt und sonst nichts. Schade wenn du das nicht verstehst.
Seit wann benennt man eine Grafikkarte nach Kondensatoren, Wiederständen, Spulen usw?
Das ist ja wohl ein schlechter Witz von dir.
Selbst das (gesamte) Boardlayout rechtfertigt keinen neuen Namen, wenn die GPU bleibt.
Oder hast du noch nie was von Customdesign beim Layout gehört?
Und du willst mir unterstellen, dass ich nichts verstehe?
Echt lächerlich, geh woanders trollen.


Ich verstehe nicht was dir an der Degradierung eines neuen Produktes missfällt.

Na dann fang doch mal an, was am kompletten HD2 nach HD3 Wechsel so super filmreif war, während die Degradierung der GTS 250 falsch ist.
Bitte, fang an.

Verwirrt?
Die HD3000er ist eine ganz andere GPU als bei der HD2000er!!!
Und wie ich schon sagte, ist die GPU das wichtigste Bauteil auf einer Grafikkarte und wenn diese geändert wird, dann ist dies ein Grund für eine Namensändereung und nicht weil man die Spannungswandler geändert hat.
Es hat sich auch der Techlevel (DX10.1 geändert, falls du es nicht mitbekommen haben solltest!
Und auch das Speicherinterface!
Das ist eine komplett andere Grafikkarte, aber du scheinst das irgendwie nicht zu kapieren, warum auch immer...
Oder du willst einfach nur provozieren.

Und wenn du meinst, dass du so tolle Argumente hast, dan nehme bitte aths´ Beitrag auseinander:
Nvidia verkauft die CPUs bzw. Kits für einen Kartennamen. Der Kartenhersteller kann sich da nicht einfach was ausdenken.

Wie oft sollte das getan werden? G92 gibts als:

8800 GT
8800 GS
8800 GTS 512
9600 GSO (da gibts auch eine G94-basierende 9600 GSO 512. Warum heißen beide 9600 GSO? Ein mal 96, ein mal 48 SP.)
9800 GTX
9800 GT (das gleiche wie 8800 GT. Die 9800 GT gibts auch ohne Hybrid Power. Inwiefern wird die Vergleichbarkeit verbessert?)
9800 GTX+
9800 GTX+ (zweite Version mit nur einem Stromstecker und kürzerer Platine.)
GTS 250
GTS 250 (neue Version mit leicht gesenkten Taktraten, ich weiß nicht ob das schon Nvidia-offiziell ist)
GTX 260M
GTX 280M

Was wird vergleichbar gemacht wenn derselbe Chip von 8800-er, sogar 9600-er bishin GTX 280M bezeichnet wird?


Ich versetze mich in die Lage des Kundens, der eine neue Karte kaufen will. Viele wenden sich von Nvidia mit Entsetzen ab weil sie keine Lust haben, zwei Semester Nvidia-Nomenklatur zu belegen.

Nvidia versucht, den Kunden hinters Licht zu führen: Die erste Karte der 9-er Generation war die 9600 GT. Das war tatsächlich ein neuer Chip. Die Karte ist ca. doppelt so schnell wie die 8600 GTS (und mehr als doppelt so schnell wie die 8600 GT.) Gut, dann kommt die 9800 GTX. Jeder erwartet einen neuen Chip, immerhin gibt es eine neue GTX. Drin ist aber ein alter Chip, was ja noch OK wäre wenn die Performance deutlich höher wäre im Vergleich zur 8800 GTX. Das ist leider nicht der Fall. Es gibt sogar weniger Speicher. HALLO?

GTX, ehemals High-End, steht plötzlich für Mid-Range oder "Low-High-End". Die erwartete verdoppelte Leistung der "neuen" Generation (Geforce 9) gibts nur mit der GX2.

GTX (nicht GTS) 250? Warum heißt die GTS 250 so und nicht mehr 9800-er? Dann wäre es im Vergleich zur 9600-er klar.

Nvidia simuliert ständig neue Produkte obwohl es oft reine Umbenennungs-Aktionen ohne jede Änderung des Feature-Sets oder der Leistung sind. Da reicht das Überkleben des Lüfter-Artworks und das Flashen eines neuen BIOS was nichts weiter tut als die Device-ID zu ändern. Benennungs-Wirrwarr gabs früher auch schon mit GeForce 2, 3 und 4. Eine reine Umbenennung kenne ich nur von der Geforce 6200 zu 7200.

Nvidia entwertet seit einiger Zeit wieder eingeführte Begriffe. GT steht neuerdings für Low-End.

Der eingeführten Begrifflichkeit zufolge würde – dem Namen nach – ein Wechsel von 8800 GTX auf 9800 GTX ein ordentliches Leistungsplus bringen. Dabei ist die neue Karte ingesamt nur so gut wie alte, in Extrem-Settings sogar langsamer. Hier wird für den kurzfristigen Profit langfristig das Vertrauen in die Ehrlichkeit der Produktbezeichnungen zerstört.

Ich habe nichts dagegen, einen Chip für verschiedene Produkte zu nutzen. Dass die 8800 GT dann 9800 GT heißt, die 9800 GTX+ (zweite Version) nun GTS 250 stiftet aber nur Verwirrung. Anhand des Namens kann der Kunde weder das genaue Techlevel (10.0 oder 10.1, Hybrid-Power oder nicht) unterscheiden, noch die Leistung im Vergleich zu bisher eingeführten und bekannten Produkten bewerten. Und wer einen Laptop mit einer GTX 280M erwirbt, rechnet möglicherweise mit irgendwelchen Abspeckungen, aber geht guten Glaubens davon aus, dass GT200-Technik in der GPU steckt.

Ich stimme nämlich vollkommen mit seiner Meinung überein.
Den wahrscheinlichen Grund für die Umbenennung der Karten seitens NV habe ich in seinem Beitrag fett markiert.

So lange du nicht auf die Behauptungen von aths eingehst, ist eine Diskussion mit dir vollkommen sinnlos, weil dir anscheinend extrem viel Wissen fehlt, wie Grafikkartennamen in der Vergangenheit zustandekamen. (Bis inkl. der 8000er Serie von NV)

EOD
no mfg

Gast
2009-11-06, 12:41:32
[quote]Eine reine Umbenennung kenne ich nur von der Geforce 6200 zu 7200.
[\quote]Die 7200 basiert auf G72.

AnarchX
2009-11-06, 12:50:53
Die 7200 basiert auf G72.
Es war wohl die 7100GS mit NV44 gemeint.
Wobei durch diesen Umstand wohl die Freischaltung von TRAA für GeForce 6 passierte. :D

Gast
2009-11-06, 19:21:47
Seit wann benennt man eine Grafikkarte nach Kondensatoren, Wiederständen, Spulen usw?
Das ist ja wohl ein schlechter Witz von dir.
Selbst das (gesamte) Boardlayout rechtfertigt keinen neuen Namen, wenn die GPU bleibt.
Oder hast du noch nie was von Customdesign beim Layout gehört?
Und du willst mir unterstellen, dass ich nichts verstehe?
Echt lächerlich, geh woanders trollen.
Schade das du es immer noch nicht verstanden hast.
Du meinst doch auch nicht ernsthaft, das HD4830 und HD4870 X2 den selben Namen bekommen sollten?
Gut.

Dann kann ich es versuchen dir klar zu machen.
Eine GPU ist keine Eigenschaft. Mit Eigenschaften meine ich, Leistung, Verlustleistung, ...
Diese Eigenschaften sind bei HD4830 und HD4870 X2 nicht gleich. Deshalb haben sie unterschiedliche Namen.


Verwirrt?
Die HD3000er ist eine ganz andere GPU als bei der HD2000er!!!
Und wie ich schon sagte, ist die GPU das wichtigste Bauteil auf einer Grafikkarte und wenn diese geändert wird, dann ist dies ein Grund für eine Namensändereung und nicht weil man die Spannungswandler geändert hat.
Es hat sich auch der Techlevel (DX10.1 geändert, falls du es nicht mitbekommen haben solltest!
Und auch das Speicherinterface!
Das ist eine komplett andere Grafikkarte, aber du scheinst das irgendwie nicht zu kapieren, warum auch immer...
Oder du willst einfach nur provozieren.Schon wieder der Schnee mit der GPU.
Es geht um Eigenschaften.
Eine HD3 ist nicht schneller als eine HD2. Aber ihre Eigenschaften sind anders.

Eine 9800 GTX ist nicht schneller als eine 8800 GTX. Aber ihre Eigenschaften sind anders.

Jetzt zur GTS 250, das ist eine herbe Abstufung. Selbst bei exakt gleichen Eigenschaften und gleicher Leistung wäre der Name ok.
Aber die Eigenschaften und die Leistung wurden geändert.


Auf aths habe ich schon teilweise geantwortet. Mit den bisherigen Beiträgen.
Dazu zählt auch, das die 9800 GTX+ den Namen 9700 GTX+ bzw 9700 GTS besser vertragen hätte.
Mehr gibt es dazu nicht zu sagen. Ok, außer das HD3, alle Modelle ebenfalls eine Namensabwertung hätten erfahren müssen.
HD3870 Nachfolger HD4670 wurde auch nicht HD4870 genannt, nein er wurde abgewertet. Aber HD2900 XT Nachfolger wurde 3870 genannt.

Gast
2009-11-06, 19:23:36
So lange du nicht auf die Behauptungen von aths eingehst, ist eine Diskussion mit dir vollkommen sinnlos, weil dir anscheinend extrem viel Wissen fehlt, wie Grafikkartennamen in der Vergangenheit zustandekamen. (Bis inkl. der 8000er Serie von NV)
Sinnlos ist nur, das du nicht lesen willst.
Unterschiede zwischen AMDs und Nvidias Vorgehen habe ich offen gelegt.
Zwischen HD2 und 3 und GF8 und 9 sind sie nicht existent. Ausnahme 9600 GT, 8800 GTS 512 und 8800 GT.

PulsarS
2009-11-07, 09:20:06
Gut Gast,

dann kommen wir eben nicht auf einen Nenner... ist aber auch nicht weiter tragisch. :)
Und bevor wir anfangen uns dauernd im Kreis zu drehen, halten wir fest:
es gibt welche, die meine Meinung teilen (aths z.B.) und auch welche, die deine Meinung teilen (Grestorn z.B.).

Wäre auch irgendwie langweilig, wenn alle der gleichen Meinung wären ;)

Ich finde es einfach stark übertrieben, was NV mit dem Umbenennen in der letzten Zeit macht.
Würde mir nicht wirklich gefallen, wenn AMD den RV790 als 5870 verkaufen wollte, weil für mich die erste Zahl im Namen (bis zur 8000er Serie von NV) eine neue Generation angedeutet hat (DX-Techlevel oder zumindest eine stark geänderte GPU.)

Und da man seine Meinung nicht anderen aufzwingen sollte, belassen wir es erstmal dabei, dass es unterschiedliche Meinungen zu dieser Aktion seitens NV gibt. :)

Gast
2009-11-07, 14:02:24
Zumindest die Kernpunkte solltest du mal verstehen.

RV770 als 5870 wäre eine Sauerrei.
RV770 als 5670 wäre in Ordnung. Nur der Nutzen der Generationsunterscheidung würde dadurch leiden. Für den Punkt ist aber auch entscheidend, wie das Endprodukt aussieht.

Wie die GPU im Produkt heißt ist völlig egal.
Wichtig ist Leistung, Verlustleistung, Techlevel, Eigenschaften ...
Wenn in einer 9500 GT ein G92b statt G96 verbaut wird ist das völlig egal, sofern kein Unterschied besteht.

StefanV
2009-11-07, 14:37:03
RV770 als 5870 wäre eine Sauerrei.
RV770 als 5670 wäre in Ordnung. Nur der Nutzen der Generationsunterscheidung würde dadurch leiden. Für den Punkt ist aber auch entscheidend, wie das Endprodukt aussieht.
Nein, wärs nicht, weil die 5000er Serie immer D3D11 hat.

Gast
2009-11-07, 14:40:52
Habe ich geschrieben es würde leiden, aber es geht.
Ungefähr so wie wenn AMD auf 4670 einen RV670 verbaut.
Oder auf einer 3670 einen R600.
Das HD5 Beispiel ist etwas arg unglücklich gewählt.

PulsarS
2009-11-25, 19:20:12
Und weiter geht´s mit dem Umbenennen:
http://www.nvidia.de/object/product_geforce_310_de.html

Jetzt will Nvidia ihren Kunden eine 210er als 310er verkaufen...:rolleyes:
Rauchen die da (bei NV) zu starkes Zeug oder was soll dieser Unsinn? :freak:

Der_Korken
2009-11-25, 20:49:58
Eine HD3 ist nicht schneller als eine HD2. Aber ihre Eigenschaften sind anders.

Eine 9800 GTX ist nicht schneller als eine 8800 GTX. Aber ihre Eigenschaften sind anders.


Der springende Punkt an der Sache ist aber, dass der G92 zunächst als 8800 verkauft wurde und dann nochmal als 9800. Hätte man die Serie von Anfang an 9800 genannt, aber dafür nur GT/GTS statt GTX/Ultra dann hätte man damit leben können (wobei ich dafür immer noch 8900 preferieren würde). Zum anderen gibt es sehr viele Fälle, wo eine 9800GTX langsamer als eine 8800GTX ist, weil erstere nur 512MB VRAM hat - sowas ist imho einfach nur noch peinlich. Die Umbenennung in GTS250 ist OK, da man so sieht, in welcher Relation die Karte zur GTX260/280 steht.

Schlammsau
2009-11-25, 21:32:10
Und weiter geht´s mit dem Umbenennen:
http://www.nvidia.de/object/product_geforce_310_de.html

Jetzt will Nvidia ihren Kunden eine 210er als 310er verkaufen...:rolleyes:
Rauchen die da (bei NV) zu starkes Zeug oder was soll dieser Unsinn? :freak:

Den Laden sollte man verbieten! :mad:

Botcruscher
2009-11-25, 21:35:04
Wetten über die zukünftige Umbenennung von 2XX Karten werden jetzt entgegen genommen.

PulsarS
2009-11-25, 21:44:28
Den Laden sollte man verbieten! :mad:
Das ist Marketing "at it´s best".
Viele unwissende Käufer werden direkt eine neue Generation vermuten.
Wenn das aber bei den OEMs durchgeht, dann würden bei denen ja auch nur Vollpfosten für den Einkauf verantwortlich zu sein...

@Botcruscher
Da braucht man kaum zu wetten ;)
So wird es sein.
Oder warum sollte man eine 210 in eine 310 umbenennen und eine GTS250 nicht in eine GTS350? :freak:

Gast
2009-11-25, 22:09:49
Und weiter geht´s mit dem Umbenennen:
http://www.nvidia.de/object/product_geforce_310_de.html

Jetzt will Nvidia ihren Kunden eine 210er als 310er verkaufen...:rolleyes:
Rauchen die da (bei NV) zu starkes Zeug oder was soll dieser Unsinn? :freak:
Lese genau.

Die 310 ist die OEM Version der 210.
Beide werden nebeneinander existieren. Nichts umbenannt. 1. Retail 2. OEM.

Die 100 waren die OEM Versionen der 9000.

PulsarS
2009-11-25, 22:22:16
Lese genau.

Die 310 ist die OEM Version der 210.
Beide werden nebeneinander existieren. Nichts umbenannt. 1. Retail 2. OEM.

Die 100 waren die OEM Versionen der 9000.
Und was ändert das genau an meiner Intention, dass mann keine neuen Nummern bräuchte?
Warum ist der Name geändert, obwohl die Spezifikation auf die 210 schließen läßt?
Totaler Unfug.
Warum soll eine Karte für die OEMs anders heißen als für Retail?
Erkläre mir das mal, dann können wir ja weiter diskutieren...:rolleyes:

Botcruscher
2009-11-25, 22:22:29
Es ist vollkommen egal ob diese Verarsche nur OEM ist und es nebenbei noch ein paar "olle" retail gibt. Die Kröte wird bald in MM, Aldi und anderen Daurechnern stecken. Beworben wird dies dann mit den Vorteilen der G300 Generation.

reunion
2009-11-25, 22:23:24
Lese genau.

Die 310 ist die OEM Version der 210.
Beide werden nebeneinander existieren. Nichts umbenannt. 1. Retail 2. OEM.

Die 100 waren die OEM Versionen der 9000.

Steht wo? Die 210 wurde zuerst nur für den OEM-Markt vorgestellt, dann erst für retail. Somit ergibt das keinen Sinn.

Gast
2009-11-25, 22:29:11
Warum ist der Name geändert, obwohl die Spezifikation auf die 210 schließen läßt?
Der Name wurde eben nicht geändert.
Zumindest für die Retail.


Warum soll eine Karte für die OEMs anders heißen als für Retail?Ich bin kein Hellseher.
Jedenfalls deutet es darauf hin das Fermi unter Geforce 400 debütiert.
Die 300er bleibt wie die 100er für OEMs.
Ich persöhnlich kann es nur begrüssen, das das OEM Zeug klar gekennzeichnet wird.

reunion
2009-11-25, 22:30:33
Ich persöhnlich kann es nur begrüssen, das das OEM Zeug klar gekennzeichnet wird.

OEM-Zeug? :ugly:
Es ist eins zu eins die identische Karte.

Gast
2009-11-25, 22:31:54
Es ist vollkommen egal ob diese Verarsche nur OEM ist und es nebenbei noch ein paar "olle" retail gibt. Die Kröte wird bald in MM, Aldi und anderen Daurechnern stecken.
Eben, die neuen Produkte die zufälligerweise auch 40nm GPUs haben, sind in den OEM Bereich vorgedrungen.
Wird auch langsam Zeit.

Beworben wird dies dann mit den Vorteilen der G300 Generation.
Welche 300er Vorteile?
Neben der 310 kenne ich keine 300er. Ich nehme an es u.a. Featurse wie 10.1.

Gast
2009-11-25, 22:32:47
OEM-Zeug? :ugly:
Es ist eins zu eins die identische Karte.
Schon in der Hand gehalten?
Hoffentlich entsinnen sich die OEMs an deine Worte, wenn sie die Karte nach belieben verkrüppeln.

PulsarS
2009-11-25, 22:35:21
Welche 300er Vorteile?
Neben der 310 kenne ich keine 300er. Ich nehme an es u.a. Featurse wie 10.1.
Wir wissen das... ABER weiß es auch der Durchschnittsbürger und der DAU-Einkäufer bei den OEMs?

Wenn nicht, dann sieht es für mich nach Täuschung aus.
Das kann zwar eine Zeit gutgehen, aber mittelfristig wird man für so ein Vorgehen abgestrafft.

PulsarS
2009-11-25, 22:39:00
Schon in der Hand gehalten?
Hoffentlich entsinnen sich die OEMs an deine Worte, wenn sie die Karte nach belieben verkrüppeln.
Erspare dir solche Flames.
Als Gast ist es imo nicht die feine Art...
DU nehme ich an hast doch schon eine 310 in den Händen gehalten, wenn du solche Vorwürfe an reunion hast... oder?
Die 310 sieht genauso wie die 210 aus, also was soll der Quark von dir? :confused:

Gast
2009-11-25, 22:43:12
Wir wissen das... ABER weiß es auch der Durchschnittsbürger und der DAU-Einkäufer bei den OEMs?

Was soll der DAU wissen?

Konstruiere ruhig weiter, aber erkläre es auch.

PulsarS
2009-11-25, 22:43:56
Der Name wurde eben nicht geändert.
Zumindest für die Retail.
Lerne lesen.
Der Name wurde schon geändert.
Die 310 ist eine 210.
Sonst noch Fragen?

Ich bin kein Hellseher.
Jedenfalls deutet es darauf hin das Fermi unter Geforce 400 debütiert.
Wenn das so wäre, hätte NVidia aber das Maß überzogen.


Ich persöhnlich kann es nur begrüssen, das das OEM Zeug klar gekennzeichnet wird.
Ja klar, je mehr Nummern, desto einfacher zu merken... :hammer:

PulsarS
2009-11-25, 22:46:23
Was soll der DAU wissen?

Konstruiere ruhig weiter, aber erkläre es auch.
Wenn du es nicht weißt, dann darfst du dich auch anmelden und als vollwertiges Member des Forums nochmal nachfragen... :D

Black-Scorpion
2009-11-25, 23:03:26
Jetzt setzt nVidia schon Gäste zur Verteidigung ihres Umbennenungsaktion ein.
Es ist echt unglaublich wie man solche Aktionen auch noch verteidigen kann.
Und dafür ist kein Argument zu Schade und wenn es noch so dämlich ist.

Gast
2009-11-25, 23:09:48
Ja klar, je mehr Nummern, desto einfacher zu merken... :hammer:
Schade das du nicht lesen kannst.

Wer sagt was von "merken"? Ich schrieb "kennzeichnet". Man kann darum locker leicht einen Bogen machen.
Leichter als wenns OEM wäre und nichts dranstünde.

Wenn das so wäre, hätte NVidia aber das Maß überzogen.Wenn du meinst.
Mir ist es egal wie viele OEM Generationen es gibt.


Lerne lesen.
Der Name wurde schon geändert.
Die 310 ist eine 210.
Sonst noch Fragen?Lerne lesen.
Die 310 ist eine OEM. Die 210 nicht.

Wenn du es nicht weißt, dann darfst du dich auch anmelden und als vollwertiges Member des Forums nochmal nachfragen... :DAha und bis dahin kannst du jeden Stuss verbreiten ohne ihn zu belegen.

Jetzt setzt nVidia schon Gäste zur Verteidigung ihres Umbennenungsaktion ein.
Es ist echt unglaublich wie man solche Aktionen auch noch verteidigen kann.
Und dafür ist kein Argument zu Schade und wenn es noch so dämlich ist.Deine Stellung ist wohlbekannt.

Black-Scorpion
2009-11-25, 23:14:47
Und was ändert das an meiner Aussage?
Wer sich wie du als Verteidiger von dem Schwachsinn hinstellt sollte ganz sicher anderen nicht vorwerfen wie ihr Einstellung ist.
Es ergibt nämlich absolut keinen Sinn die Karten für OEMs umzubenennen.
Außer natürlich mit der Absicht die Käufer zu verarschen und abzuzocken.

Gast
2009-11-25, 23:16:31
Hör auf mit dem Quatsch. Nichts wurde verteidigt.
Im Gegensatz zu anderen gibt es noch einige, die beim Namen Nvidia nicht gleich in dem AMD ist besser als Nvidia Modus wechseln und ihre Flamekeule auspacken.

Black-Scorpion
2009-11-25, 23:26:27
Ach wurde nicht?
Keine Ahnung als was du deine eigenen Beiträge sonst bezeichnen willst.
Es ergibt keinen Sinn das Retail und OEM Karten verschieden Bezeichnungen haben.
Der Grund warum das sinnvoll sein soll kannst du aber ganz sicher erklären.
Vor allem weil nVidia gerade so sparsam mit Karten und Namen umgeht.

PulsarS
2009-11-25, 23:29:44
Schade das du nicht lesen kannst.
Und das wirft mir ein unwichtiger Gast vor... sehr seltsam :rolleyes:

Wer sagt was von "merken"? Ich schrieb "kennzeichnet". Man kann darum locker leicht einen Bogen machen.
Leichter als wenns OEM wäre und nichts dranstünde.
Warum sollte man für die OEMs eine andere Bezeichnung nehmen?
Logische Erklärung bitte.

Aha und bis dahin kannst du jeden Stuss verbreiten ohne ihn zu belegen.
Belege das Gegenteil, dann können wir ja weiterreden.
Als Gast mußt dir ein bißchen mehr Mühe geben. ;)

Deine Stellung ist wohlbekannt.
Zum wem oder was?

MadManniMan
2009-11-26, 06:28:22
OK, fassen wir zusammen: die 310 ist genauso reines Renaming wie die GTS 250 - jetzt mal die verringerte Leistungsaufnahme außen vor gelassen...

Ailuros
2009-11-26, 07:32:20
Dass es sich um eine Umbennenung handelt duerfte wohl klar sein.

Sonst wuerde ich alle bitten den Ton zu normalisieren. Keinen interesserien direkte oder indirekte persoenliche Angriffe die gefaelligst privat ausgebuegelt werden. Bitte so sachlich wie moeglich beim Thema bleiben.

nagus
2009-11-26, 07:51:39
ein wahnsinn was nvidia schon wieder veranstalten. meiner meinung nach gehören die verklagt für solche irreführenden geschäftspraktiken. :down:

Gast
2009-11-26, 08:00:18
Ja, aber wirklich.
Und AMD erst - kein Direct Compute für die HD-3000-Reihe, obwohl die das selbst in ihren Folien beworben haben...

V2.0
2009-11-26, 08:06:41
Oh bitte, ist euch der Kindergarten nicht langweilig?

Die können das Ding auch GeForce UltraSpargel Super 5000 nennen. Produktnahmen sind gerade im OEM Bereich nichts wert. Und keiner der zukünftigen Endkunden, die sich für einen PC mit dieser Karte interessieren werden, wird je etwas von Fermi gehört haben.

Es ist nicht schön, es ist nicht elegant und es ist nicht ehrlich, aber so ist es.

MadManniMan
2009-11-26, 08:15:31
Ja, schon klar ;) Was ich damit meinte: Renaming haben wir seit wie vielen Jahren? Wollen wir uns noch ernsthaft darüber aufregen? Konsistente Namensschemata haben wir schon wie lange nicht mehr?

Ailuros
2009-11-26, 08:22:01
Ja, schon klar ;) Was ich damit meinte: Renaming haben wir seit wie vielen Jahren? Wollen wir uns noch ernsthaft darüber aufregen? Konsistente Namensschemata haben wir schon wie lange nicht mehr?

Es laeuft schon ueber so viel Jahre her dass ich mich gar nicht mehr daran erinnern kann. Ich hab erst vorgestern eine tote GF4MX hier bei der Arbeit entsorgt ;) http://www.beyond3d.com/resources/board/85

MadManniMan
2009-11-26, 08:48:02
Ach ja, die gute MX4000 :D Klangvoller Name für so eine Scheiße, nicht wahr ;)

Versteht mich nicht falsch: ich finde es beschissen, dass man sich auf die Namen nicht verlassen kann - ABER es gibt ärgere Probleme, die angeprangert werden müssen und ebenso mit der Kommunikation vom Hersteller zum Kunden zu tun haben. Wenn AF auch wirklich mal so aussieht, wie es aussehen sollte und wenn nicht weiterhin Marketingaktionen als Artikel getarnt werden (siehe Treiberrelaeses...), dann sollten wir auch wieder gegen die Namensgebung protestieren.

Ailuros
2009-11-26, 09:00:46
Ach ja, die gute MX4000 :D Klangvoller Name für so eine Scheiße, nicht wahr ;)

Eine NV18 mit einem GF4 Namen; ergo ueberbrueckt der Name gleich zwei Produkt-Familien (von GF2 zu GF4), natuerlich aber mit MSAA u.a.

Versteht mich nicht falsch: ich finde es beschissen, dass man sich auf die Namen nicht verlassen kann - ABER es gibt ärgere Probleme, die angeprangert werden müssen und ebenso mit der Kommunikation vom Hersteller zum Kunden zu tun haben. Wenn AF auch wirklich mal so aussieht, wie es aussehen sollte und wenn nicht weiterhin Marketingaktionen als Artikel getarnt werden (siehe Treiberrelaeses...), dann sollten wir auch wieder gegen die Namensgebung protestieren.

Es ist ein Marketing-Phaenomen dass leider nicht nur GPUs betrifft. Und nein es sollte keinesfalls eine Gerechtfertigung fuer die Grafik-IHVs in dem Fall sein; es heisst nur dass das eigentliche Problem viel groesser generell ist und in manchen Faellen (wie z.B. im pharmazeutischen Markt) um einiges kritischer.

Nazar
2009-11-26, 09:21:51
Schade das du nicht lesen kannst.

Wer sagt was von "merken"? Ich schrieb "kennzeichnet". Man kann darum locker leicht einen Bogen machen.
Leichter als wenns OEM wäre und nichts dranstünde.

Wenn du meinst.
Mir ist es egal wie viele OEM Generationen es gibt.

Lerne lesen.
Die 310 ist eine OEM. Die 210 nicht.

Aha und bis dahin kannst du jeden Stuss verbreiten ohne ihn zu belegen.

Deine Stellung ist wohlbekannt.

Hmm.

Man braucht für den OEM Markt eine deutlichere Kennzeichnung, weil die vorherige, schon auf dem Markt bekannte Kennzeichnung, nicht mehr deutlich genug ist und legt sich dabei auf eine Kennzeichnung fest, die einer moderneren Grafikkarten Generation fast bis aufs Haar ähnelt, um den Unterschied besser zu kennzeichnen? :freak:

Und natürlich werden diese OEM Karten für den Kunden vom Verkäufer dann wieder auf ihre alte "irreführende" Kennzeichnung zurückgesetzt, damit der Käufer ja keinem Verwirrspiel unterliegt und der Kunde diese OEM Karten locker unterscheiden und umgehen kann.. natürlich.. alles damit ja keine Verwirrungen aufkommen :uhammer2:

Ähm... so ganz ausgeschlafen hast Du aber schon lange nicht mehr!? ;D

Gast
2009-11-26, 10:06:29
OK, fassen wir zusammen: die 310 ist genauso reines Renaming wie die GTS 250 - jetzt mal die verringerte Leistungsaufnahme außen vor gelassen...
Was meinst du mit der GTS 250?
Das ist ein neues Produkt, mit einer anderen Klassifizierung. Und kein OEM Zeug.

Gast
2009-11-26, 10:13:51
Man braucht für den OEM Markt eine deutlichere Kennzeichnung, weil die vorherige, schon auf dem Markt bekannte Kennzeichnung, nicht mehr deutlich genug ist und legt sich dabei auf eine Kennzeichnung fest, die einer moderneren Grafikkarten Generation fast bis aufs Haar ähnelt, um den Unterschied besser zu kennzeichnen? :freak:
Die 310 passt nicht ins 100er Schema. Bist du damit einverstanden?

Die 200 ist durch Retail blockiert.
Aus irgendwelchen Gründen braucht es für OEM eine andere Bezeichnung.

Welche neue Generation heisst 300? Na, sags uns. Ein Zugpferd gibt es nicht, die 310 steht alleine da, ohne jegliche andere Karten.


Und natürlich werden diese OEM Karten für den Kunden vom Verkäufer dann wieder auf ihre alte "irreführende" Kennzeichnung zurückgesetzt, damit der Käufer ja keinem Verwirrspiel unterliegt und der Kunde diese OEM Karten locker unterscheiden und umgehen kann.. natürlich.. alles damit ja keine Verwirrungen aufkommen Was meinst du?
Bleib auf dem Teppich, nichts wird zurückgesetzt.
In den OEM Rechner kommt die 310, der Hersteller hat Spielraum an der Karte zu pfuschen und niemand kann sie ausversehen mit der echten 210 verwechseln.
Im Regal steht die 210, der Kunde kann sich darauf verlassen was drin ist.

Dein Ton ist mir immer noch zu aggresiv und provokant. Wie waere es wenn Du Dich ausnahmsweise auf einen zivilisierteren Diskussions-teppich selber setzt?