Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - künstlich hervorgerufene Grafikkarten-Knappheit?
langer rede: http://www.semiaccurate.com/2009/10/06/nvidia-will-crater-gtx260-and-gtx275-prices-soon/ ... kurzer sinn: die überall postulierte (bzw. "kopierte") grafikkarten-knappheit ist vielleicht absicht.
quelle: Nvidia will crater GTX260 and GTX275 prices soon - Shortages are completely artificial: http://www.semiaccurate.com/2009/10/06/nvidia-will-crater-gtx260-and-gtx275-prices-soon/
mapel110
2009-10-06, 22:24:24
http://www.semiaccurate.com/2009/10/06/nvidia-kills-gtx285-gtx275-gtx260-abandons-mid-and-high-end-market/
Zeit für ein Update
Das liest sich beinahe so, als ob nvidia das GPU-Geschäft aufgibt. ^^
/edit
Typisches nvidia-Hass-Geschreibsel von Charlie. Ists nicht mal Wert zu lesen.
reunion
2009-10-06, 22:26:47
Graphics Cards Suppliers Accuse ATI, Nvidia of Creating Shortage on the GPU Market.
http://www.xbitlabs.com/news/video/display/20091005211032_Graphics_Cards_Suppliers_Accuse_ATI_Nvidia_of_Creating_Shortage_o n_the_GPU_Market.html
Naja, Nvidia könnte zudem schon ein Preisproblem haben, wenn GTX285 sich gegen HD5850 behaupten muss...
Es wird noch besser:
http://www.semiaccurate.com/2009/10/06/nvidia-kills-gtx285-gtx275-gtx260-abandons-mid-and-high-end-market/
Ja ne is klar. Da hat Charlie mal wieder bisschen arg tief ins Glas geschaut. Was ein geistiger Dünnschiss.
Der spinnt sich da seine Tagträume zusammen als würde ATI weiterhin den gleichen Perf/mm²-Vorteil halten können wie bei RV770 gegen GT200b wenn Fermi antanzt. Das glaubt ihm doch nichtmal seine Mutter.
Ein halber Fermi (256 SPs, 192 bit SI, komplett überarbeitete Architektur, also wohl sichtbar schneller als eine GTX 285) soll nicht mit Juniper (800 SPs und 128 bit SI) mithalten können :hammer:
LovesuckZ
2009-10-06, 23:03:13
nVidia hat eben von der Krise gelernt und wird kein Inventar mehr von 90 Tagen haben. Damit müssen sich auch die Partner anfreunden. Große Bestellungen wird es in Zukunft nicht mehr geben.
Ja ne is klar. Da hat Charlie mal wieder bisschen arg tief ins Glas geschaut. Was ein geistiger Dünnschiss.
(...)
Ein halber Fermi (256 SPs, 192 bit SI, komplett überarbeitete Architektur, also wohl sichtbar schneller als eine GTX 285) soll nicht mit Juniper (800 SPs und 128 bit SI) mithalten können :hammer:
Er mag ja kein nVidia Freund sein ... aaaaaber:
Wo ist denn Dein heilsbringender halber Fermi ? Gibts von dem überhaupt schon einen Plan oder meinst Du einen teildeaktivierten ~500mm² Chip :freak: ?
Ausser der nichtsagenden PCGH News, dass die Fermi Architektur "modular" aufgebaut sei (wie jeder Grafikchip der letzten paar Jahre auch), hab ich bezüglich dazu Null,0 gehört. Falls Du mehr Infos hat, bitte Link :)
Mann muss kein nVidia Hasser sein, um zu kapiern, dass es für nVidia eng wird, solange Fermi nicht im Laden steht und ATi keine Fertigungsprobleme hat.
Ob sich die 260/275/285 für ~100-150 Euro wirklich nicht rentieren weiss ich nicht, aber das 448/512bit Speicherinterface ist sicherlich nicht mit billigen PCBs möglich. Summa Summarum könnte der Teil somit also auch stimmen.
ciao
Alex
Dural
2009-10-06, 23:28:48
die alten High-End Modell laufen Naturgemäss langsam vor den neuen Modelle aus, logisch eigentlich... :rolleyes:
master_blaster
2009-10-06, 23:35:11
künstlich hervorgerufene Grafikkarten-Knappheit?
Klar, macht ja auch Sinn: Wenn ich meine Karten nicht auf dem Markt bringe, kann ich sie auch nicht absetzen. Das heißt also, es gibt keine Kohle. Und welcher Konzern auf diesem Planeten hätte nicht gern "keine Kohle", :uponder:!?
Aber macht ja nichts, :comfort:.
Botcruscher
2009-10-06, 23:36:44
Logik? Ziel?
Logik? Ziel?
Steht doch bei Charlie:
If you have 50 cards in stock, and the price drops by $50, the card maker will cut you a check for $2500, or more likely, give you $2500 off your next order. This tends to be VERY expensive, much more expensive than just devaluing the GPU chips themselves in inventory, and writing off the loss. Once they are are put on a board, you have to write down the whole thing. Chip makers hate to price protect more than just about anything else. They do it because they have to, the consequences of not doing it are worse.
So to minimize it, the chip makers balance the number of parts in the channel keeping them to a bare minimum around product or price transition times. It is an art, half black art, half luck with a sprinkle of science topped off with a bit of competitive intelligence.
Er mag ja kein nVidia Freund sein ... aaaaaber:
Wo ist denn Dein heilsbringender halber Fermi ?
Es ging nicht um dessen Existenz, sondern das der Typ wieder so klingt als wäre NVIDIA zu blöd zwei Transistoren zusammenzuschrauben und so ein Chip natürlich gerade so mit Juniper mithalten kann.
Und das obwohl Charlie der letzte ist der irgendwelche Performancezahlen von NVIDIA zu sehen bekommt. Das ist kein Journalismus, das ist Hetze.
Kann ja sein dass seine Freude aus jedem Satz des Artikels trieft aber die Fakten an sich hören sich plausibel an.
Der G200 ist einfach viel zu gross und teuer als dass er gewinnbringend auf Billigkarten verbaut werden könnte. Da hat nV ein echtes Problem und wenn sie das mit dem Flummi womöglich auch noch vermasseln und er sich deutlich verspätet evtl. sogar ein existenzbedrohendes...
5750/5770 für 119€/149€...
Juniper ist fast verfügbar und tritt für Monate gegen GT200b an. Da hat NV wirtschaftlich keine Chance. Ein Performance-Chip auf Fermibasis dürfte irgendwann 2010 kommen. Und da der große Fermi wohl kaum vor Ende Q1/2010 wirklich verfüpgbar ist, dürften die kleineren Brüder eher ins Q3/Q4 rutschen.
Ja ne is klar. Da hat Charlie mal wieder bisschen arg tief ins Glas geschaut. Was ein geistiger Dünnschiss.
Der spinnt sich da seine Tagträume zusammen als würde ATI weiterhin den gleichen Perf/mm²-Vorteil halten können wie bei RV770 gegen GT200b wenn Fermi antanzt. Das glaubt ihm doch nichtmal seine Mutter.
Ein halber Fermi (256 SPs, 192 bit SI, komplett überarbeitete Architektur, also wohl sichtbar schneller als eine GTX 285) soll nicht mit Juniper (800 SPs und 128 bit SI) mithalten können :hammer:
und woher willst du das besser wissen als er? :hammer: nur weil GLAUBST (oder glauben willst) lässt deine aussage mit sicherheit nicht besser dastehen als seine.
Es ging nicht um dessen Existenz, sondern das der Typ wieder so klingt als wäre NVIDIA zu blöd zwei Transistoren zusammenzuschrauben und so ein Chip natürlich gerade so mit Juniper mithalten kann.
1. gibts schon relativ schlüssige performance vorraussagen zu juniper
2. wenn vielleicht in 6 monaten mal ein annähernd vergleichbarer chip von nvidia kommt, dann können wir ja weiter reden.
Tarkin
2009-10-07, 08:14:07
Ja ne is klar. Da hat Charlie mal wieder bisschen arg tief ins Glas geschaut. Was ein geistiger Dünnschiss.
Der spinnt sich da seine Tagträume zusammen als würde ATI weiterhin den gleichen Perf/mm²-Vorteil halten können wie bei RV770 gegen GT200b wenn Fermi antanzt. Das glaubt ihm doch nichtmal seine Mutter.
Ein halber Fermi (256 SPs, 192 bit SI, komplett überarbeitete Architektur, also wohl sichtbar schneller als eine GTX 285) soll nicht mit Juniper (800 SPs und 128 bit SI) mithalten können :hammer:
Ähm.. LOL? Und wann soll der kommen?
Bis der mal irgendwann im Mai oder Juni antanzt, hat AMD schon einen 32/28nm "Testchip" am Markt der den Juniper beerbt.
IMO - alle die noch immer glauben, dass da irgendwas im Q4 kommt (oder kleine Fermis im Q1 ... sind Traumtänzer)
StefanV
2009-10-07, 08:28:19
Es ging nicht um dessen Existenz, sondern das der Typ wieder so klingt als wäre NVIDIA zu blöd zwei Transistoren zusammenzuschrauben und so ein Chip natürlich gerade so mit Juniper mithalten kann.
Und das obwohl Charlie der letzte ist der irgendwelche Performancezahlen von NVIDIA zu sehen bekommt. Das ist kein Journalismus, das ist Hetze.
Und was ist, wenn er doch nicht unrecht hat und der so hoch gelobte Fermi ein Schuss in den Ofen sein könnte?
puntarenas
2009-10-07, 08:29:54
Früher war meine Welt trist, ich kannte nur den Witzethread im OffTopic und Louis de Funès Filme als schwache Erinnerung aus meiner Kindheit. Seit ich SemiAccurate lese, bin ich ein neuer Mensch, die Leute sagen, ich sei fast schon sympathisch, wenn ich mit breitem Grinsen im Gesicht durch die Strassen gehe.
und woher willst du das besser wissen als er? :hammer: nur weil GLAUBST (oder glauben willst) lässt deine aussage mit sicherheit nicht besser dastehen als seine.
Codas Auftreten hier ist seriös, SemiAccurate ist offensichtlich Schund.
Es gibt eine gewisse Grenze, ab der man sich der Lächerichkeit preisgibt. Ist diese erstmal durchbrochen, kann man wirklich nicht mehr verlangen, dass man ernstgenommen wird, Äußerungen ernsthaft diskutiert oder Verweise auf diesen Quatsch als Quelle akzeptiert werden. Geh ein wenig im GT300-Thread zurück oder blättere direkt auf der Seite, das ist teilweise humoresk wertvoll, aber mehr auch nicht mehr.
Coda und die anderen User mit Fachverstand hier spekulieren dagegen auf Grundlage vorhandener Informationen und Aussagen, im Rahmen von Erfahrungen und technischen beziehungsweise wirtschaftlichen Grenzen. Es ist fast schon eine Frechheit, die beiden "Auftritte" gleichsetzen zu wollen. Dazu kommt dass Coda in einem Forum schreibt und der andere eine gut geölte Schlammschleuder betreibt, was die Sache für diesen Charlie IMHO nicht besser macht.
Und was ist, wenn er doch nicht unrecht hat und der so hoch gelobte Fermi ein Schuss in den Ofen sein könnte?
Dann hätte er zufällig einen Treffer gelandet, das kann schonmal passieren, wenn man wild drauflosholzt. Aber SemiAccurate als ernsthafte Diskussionsgrundlage?
Ailuros
2009-10-07, 09:32:33
Jeder kann akzeptieren was ihm am meisten Sinn macht. Ich nehme persoenlich xbitlab's newsblurb als Basis und ja eine solche Politik fuer beide IHVs macht durchaus Sinn bis sich einige (finanzielle) Probleme ausbuegeln.
Von dem Punkt ab hat BlackBirdSR hier: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7581037&postcount=3773
den Nagel voll auf den Kopf getroffen.
AMD kuendigt Anfang September Cypress an; stop. NVIDIA's erste Reaktion ist Unsinn hinter und vor den Kullissen zu verbreiten (PhysX, Schlusslichter etc); stop. NVIDIA kuendigt mit Absicht Fermi an obwohl sie sich ueber genauen Launchdaten selbst heute noch nicht genau sicher sind eben um AMD's Launch etwas zu versauen; stop. AMD reagiert direkt und indirekt und beschwert sich ueber angebliche Schmierereien seitens NV fuer ISVs und parallel werden Geschichten erzaehlt dass Fermi mehr Strom verbraten soll als Larabee selber und so weiter und so fort....
Wer generell PR/marketing nicht verstehen kann wird es nie schaffen die Logik dahinter fuer die eine oder andere Seite zu verstehen.
Wenn GF100 tatsaechlich power circuit Probleme aufweisst und nicht ueber die bisher 495/1100/1000 Frequenzen klettern kann ohne den Stromverbrauch zu sprengen, heisst es fuer NVIDIA als einziger Ausgang ein re-spin und wenn alles nach Plan laeuft ist man ~Februar fertig damit. Momentan weiss noch keiner ob diesem so ist und ich werde auch keine Schlussfolgerung darueber ziehen bis ich mir sicher darueber sein kann.
Von dem Punkt abgesehen wenn AMD wirklich so selbtsicher waere dass sie das ultimate Produkt mit 58x0 haben, haetten sie auch keinen besonderen Grund zum reagieren. Und ja natuerlich wissen sie dass GF100 kein FLOP ist ihre Angestellten geben es auch oeffentlich zu und ueberhaupt diejenigen die fuer die Schwarzgelder und Schlammschlachten als erste verantwortlich sind.
Nebenbei: http://www.brightsideofnews.com/news/2009/10/6/foldinghome-ati-radeon-hd-5870-is-as-slow-as-4870!.aspx
Hier hat der Author das richtige gemacht und sich an AMD gewendet. Eine ehrliche Antwort hat er auch bekommen. Nur sollte man sich im nachhinein nicht beschweren wenn das bis jetzt angekuendigte Fermi sowohl als sw als auch als hw Paket wie eine Bombe einschlaegt.
Nunja, wie ehrlich unterschiedliche Journalisten sind wissen sie nur selber. Das gleiche gilt natürlich auch für beliebige Forenmitglieder die man nicht persönlich kennt. Am besten ist es immer noch etwas Tee zu trinken und auf Tatsachen zu warten.
Charlie hat aber auch schon ab und zu mal recht gehabt, und seine Argumente sind ja auch nicht alle haltlos: ich denke das wir alle übereinstimmen das eine GTX260 schlecht mit einer HD57xx konkurieren kann - wenn dann nur mit Verlusten - aber wer will schon Verluste mit seinen Karten machen ? Besonders im wichtigen mittleren Marktsegement ? Das wäre Selbstmord.
Es ging nicht um dessen Existenz, sondern das der Typ wieder so klingt als wäre NVIDIA zu blöd zwei Transistoren zusammenzuschrauben und so ein Chip natürlich gerade so mit Juniper mithalten kann.
Und das obwohl Charlie der letzte ist der irgendwelche Performancezahlen von NVIDIA zu sehen bekommt. Das ist kein Journalismus, das ist Hetze.
Konkret gefragt, meinst Du den Absatz:
There are no half or quarter Fermi derivatives taped out yet, so at a bare minimum, Nvidia has nothing for 2 more quarters. To make matters worse, due to the obscene 530++mm^2 die size on TSMC's 40nm process, Fermi is almost twice the size of its competitor, Cypress/HD5870/HD5850. A cut down half version would cost less but still be barely competitive with Juniper. That chip would once again be vastly larger and more expensive than the ATI equivalents, and that is before board costs are examined. As the product stack waterfalls down, the ratios remain the same, Nvidia cannot be cost competitive for the Evergreen vs Fermi generation, period.
?
Mag ja reißerisch geschrieben sein, aber wie ich schon oben schrieb, man hat wirklich nichts vom halben Fermi gehört und der ganze Fermi wird anscheinend noch debuggt. Von daher kann man der Argumentation schon folgen. Kein Chip in Sicht -> Keine Konkurrenz -> Sieht schlecht aus für nV.
Ansonsten schreibt er, dass ein halber Fermi auch nicht tolle wäre, da das Die dann immernoch zu groß wäre um mit Juniper zu konkurrieren ... tja das ist dann hochspekulativ, im Moment weiss man nichtmal wie sich der "echte" Fermi bei Spielen schlägt. Ob z.B. wegen des fehlenden Tesselator die Leistung einbricht, oder nicht. Deswegen ist das sehr gewagt Aussagen über den halben Chip zu machen. Aber 100% ausschließen kann mans nicht - vor allem wenn man "konkurrenzfähig" nicht auf die pure Chipleistung bezieht, sondern es auf die Produktionskosten also quasi P/L Verhältnis erweitert. Das macht er auch, er schreibt ausdrücklich von "costs".
Zusammengefaßt: Der Ton mag unfreundlich sein und vor Schadenfreude strotzen, aber die Meldung hat ne gewisse Substanz und Logik.
ciao
Alex
Ailuros
2009-10-07, 11:09:28
Mag ja reißerisch geschrieben sein, aber wie ich schon oben schrieb, man hat wirklich nichts vom halben Fermi gehört und der ganze Fermi wird anscheinend noch debuggt. Von daher kann man der Argumentation schon folgen. Kein Chip in Sicht -> Keine Konkurrenz -> Sieht schlecht aus für nV.
Dass es schlecht aussieht fuer NV momentan brauch ich mir nicht von Charlie sagen lassen oder anders etliche Seiten an absolutem Bloedsinn lesen.
Ansonsten schreibt er, dass ein halber Fermi auch nicht tolle wäre, da das Die dann immernoch zu groß wäre um mit Juniper zu konkurrieren ... tja das ist dann hochspekulativ, im Moment weiss man nichtmal wie sich der "echte" Fermi bei Spielen schlägt. Ob z.B. wegen des fehlenden Tesselator die Leistung einbricht, oder nicht. Deswegen ist das sehr gewagt Aussagen über den halben Chip zu machen. Aber 100% ausschließen kann mans nicht - vor allem wenn man "konkurrenzfähig" nicht auf die pure Chipleistung bezieht, sondern es auf die Produktionskosten also quasi P/L Verhältnis erweitert. Das macht er auch, er schreibt ausdrücklich von "costs".
Was hat der fehlende ff Tesselator mit heutigen Spielen genau zu tun? Und ja natuerlich ist es lediglich ein Beispiel aber Charlie kann schlicht und einfach noch nicht wissen was ein ganzer GF100 leistet ganz zu schweigen ein halber. Und nein NV hat sich bis jetzt diesbezueglich noch nichts nach aussen sickern lassen und ausser NV weiss es keiner. Ausser Du willst mich ueberreden dass AMD's Spionage team in NV's Labor geheim eingedrungen ist.
Zusammengefaßt: Der Ton mag unfreundlich sein und vor Schadenfreude strotzen, aber die Meldung hat ne gewisse Substanz und Logik.
ciao
Alex
Wenn ich so gut bezahlt wuerde, wuerde ich Dir in jeden Artikel zwei mal so viel "Substanz & Logik" reinmeistern.
Menace
2009-10-07, 11:47:07
Und wieder werden die Nachrichten im Schneeballsystem einfach übernommen:
http://winfuture.de/news,50429.html
Dass nvidia ihre Karten vom Markt nehmen müssten, weil nvidia beim Verkauf dieser draufzahlen müsste halte ich für ein Gerücht. Ich denke eher, dass sie die Regale freiräumen. Vielleicht war das freiräumen etwas vorschnell und deshalb die Knappheit?
Ailuros
2009-10-07, 11:57:35
Und wieder werden die Nachrichten im Schneeballsystem einfach übernommen:
http://winfuture.de/news,50429.html
Dass nvidia ihre Karten vom Markt nehmen müssten, weil nvidia beim Verkauf dieser draufzahlen müsste halte ich für ein Gerücht. Ich denke eher, dass sie die Regale freiräumen. Vielleicht war das freiräumen etwas vorschnell und deshalb die Knappheit?
http://www.xbitlabs.com/news/video/display/20091005211032_Graphics_Cards_Suppliers_Accuse_ATI_Nvidia_of_Creating_Shortage_o n_the_GPU_Market.html
Botcruscher
2009-10-07, 12:29:50
Steht doch bei Charlie:
Nein das ist nicht logisch. Intel könnte so was machen aber nicht NV. Da steht gleich ATi auf der Matte.
http://www.xbitlabs.com/news/video/display/20091005211032_Graphics_Cards_Suppliers_Accuse_ATI_Nvidia_of_Creating_Shortage_o n_the_GPU_Market.html
Taiwan-based suppliers of graphics cards have accused ATI, graphics business unit of Advanced Micro Devices, and Nvidia Corp. of creating shortages on the market of discrete desktop graphics processing units (GPU). Meanwhile, both ATI and Nvidia have shifted their inventory policies, which does not allow their partners to receive huge discounts when buying graphics chips in large quantities on the last day of a quarter.
Klingt schon ganz anders.
Dass es schlecht aussieht fuer NV momentan brauch ich mir nicht von Charlie sagen lassen oder anders etliche Seiten an absolutem Bloedsinn lesen.Gute Güte, dann les es halt nicht ... wir leben in nem freien Land, kannst tun und lassen was Du willst ...
Was hat der fehlende ff Tesselator mit heutigen Spielen genau zu tun? Wer redet denn von "heutigen" Spielen ?
Und ja natuerlich ist es lediglich ein Beispiel aber Charlie kann schlicht und einfach noch nicht wissen was ein ganzer GF100 leistet ganz zu schweigen ein halber. Und nein NV hat sich bis jetzt diesbezueglich noch nichts nach aussen sickern lassen und ausser NV weiss es keiner. Ausser Du willst mich ueberreden dass AMD's Spionage team in NV's Labor geheim eingedrungen ist.Nein kann er nicht wissen, schrieb ich doch auch, er schätzt und gibt mehr oder minder an, wie er das macht. Davon kann jeder meinen was er mag.
Die Grobschätzung läuft so oder so genauso ab wie bei ATi, die 5870er wurde vor dem Start ca. als 4870 X2 erwartet, von Fermi weiss man jetzt die Shaderzahl, das sind wie bei ATi doppelt so viele bzw. etwas mehr -> Ergo irgendwas um 295GTX Leistung +/- Architekturverbesserungen als Unbekannte. Aber astronomisch werden sich die Verbesserungen auch nicht bemerkbar machen, sind ja eh eher auf der GPGPU Seite -> GTX295.
Mit der Hälfte wäre man dann wieder auf 5850 / 275 / 285 Niveau. Je nach Speicherbandbreite und Chip/Shadertakten. Wie sich die Junipers einsortieren wird man abwarten müssen, sollte aber ja bald bekannt sein.
Wenn ich so gut bezahlt wuerde, wuerde ich Dir in jeden Artikel zwei mal so viel "Substanz & Logik" reinmeistern.
Es hält Dich keiner auf das für umsonst hier zu machen ;D
Ansonsten ist es einfach jemanden wegen zuwenig Substanz und Logik zu kritisieren. Ich für meinen Teil bin froh darüber überhaupt sowas entdecken zu können, da gibts heutzutage genügend Käse, der keine Meldung wert ist, da eben überhaupt keine Substanz dahintersteckt.
@Botcruscher:
Ähh .. dann erklär mal bitte wieso nicht. Mit stichhaltigen Gründen lass ich mich gerne überzeugen.
ciao
Alex
Und wieder werden die Nachrichten im Schneeballsystem einfach übernommen:
http://winfuture.de/news,50429.html
Dass nvidia ihre Karten vom Markt nehmen müssten, weil nvidia beim Verkauf dieser draufzahlen müsste halte ich für ein Gerücht. Ich denke eher, dass sie die Regale freiräumen. Vielleicht war das freiräumen etwas vorschnell und deshalb die Knappheit?
freiräumen bevor überhaupt lauffähiger ersatz physikalisch existiert? :confused:
ich wundere mich sowieso schon die ganze zeit das ich beim GT300 vornehmlich von GPGPU computing lese und die sparte entertainment in form von spielen eher im hintergrund steht.....
ähnlich (wenn auch nicht so extrem) war es schon beim GT200...als der rauskam war es ein riesen brummer der nicht übermässig mehrleistung im spielesektor bot und sich nicht vom deutlich schlankeren design des RV770 absetzen (im kernsegment games als entertainment) konnte...so das ein höherer verkaufspreis gerechtfertigt werden konnte
nun sieht es doch faktisch so aus das ATI/AMD ihr zeug unter die leute bringt und nicht einmal etwas genaues über leistungsfähigkeit und ableger des GT300 für den performance sektor bekannt sind
nur in sofern das der GT300 selbst (und damit auch ableger) wieder monsterchips werden....
da fragt man sich wann und auch in wieweit wird da was miteinander konkurieren können...und letztendlich bleibt noch der preis bzw. der gewinn des ganzen....
Wenn ich so gut bezahlt wuerde, wuerde ich Dir in jeden Artikel zwei mal so viel "Substanz & Logik" reinmeistern.
Nur gut das nVidia das von dir umsonst bekommt.
D12U ist doch gar nicht das Problem. Auch wenn sie wohl gegenwärtig Probleme haben die angestrebten Taktraten ohne unanständig viel Spannung zu erreichen (was gar nicht Gut für Verbrauch und Lautstärke ist), so kann dies entweder hingenommen werden oder man macht einen weiteren Respin und leifert Feb 2010 oder später Karten.
Nur was ist mit D12P und den kleineren Chips. Keine Tape-Out-Gerüchte, nichts. Geht man davon aus, dass die noch im Q4/09 Tape.Out haben wird NV sicher auch dort einige Respins brauchen, so dass Q3/10 der beste Fall sein dürfte.
Cypress ist nett aber juniper ist ihr Problem. Ein problem so groß, dass man GT200b wohl eingestellt hat, weil er nicht konkurrieren kann. NV hat somit G92b + die kleinen GT21X.
Ailuros
2009-10-07, 13:28:05
Gute Güte, dann les es halt nicht ... wir leben in nem freien Land, kannst tun und lassen was Du willst ...
Wir leben Gott sei Dank nicht im gleichen Land aber es hat nichts mit dem Thema zu tun :P
Wer redet denn von "heutigen" Spielen ?
Ich will wetten dass Du genauso wenig Ahnung hast wie ich ob die fehlende ff Tesselations-Einheite ueberhaupt einen Unterschied machen wird. Pflichtmaessig fuer DX11 werden hull und domain shader calls in den ALUs unterstuetzt. Wenn Du erstmal eine Antwort dafuer finden kannst, koennen wir dann ueber die weniger vorhersehbare Zukunft gerne reden.
Nein kann er nicht wissen, schrieb ich doch auch, er schätzt und gibt mehr oder minder an, wie er das macht. Davon kann jeder meinen was er mag.
Wenn ich am einen Tag jemand live sehen kann was er sagt und am naechsten Tag erscheint ein newsblurb von einer anderen Person ist es nicht zu schwer zu erraten woher es kommt.
Die Grobschätzung läuft so oder so genauso ab wie bei ATi, die 5870er wurde vor dem Start ca. als 4870 X2 erwartet, von Fermi weiss man jetzt die Shaderzahl, das sind wie bei ATi doppelt so viele bzw. etwas mehr -> Ergo irgendwas um 295GTX Leistung +/- Architekturverbesserungen als Unbekannte. Aber astronomisch werden sich die Verbesserungen auch nicht bemerkbar machen, sind ja eh eher auf der GPGPU Seite -> GTX295.
Mit der Hälfte wäre man dann wieder auf 5850 / 275 / 285 Niveau. Je nach Speicherbandbreite und Chip/Shadertakten. Wie sich die Junipers einsortieren wird man abwarten müssen, sollte aber ja bald bekannt sein.
Er weiss genau wie Juniper aussieht und es handelt sich nicht um die Haelfte eines Cypress bei allen Faktoren.
Es hält Dich keiner auf das für umsonst hier zu machen ;D
Ansonsten ist es einfach jemanden wegen zuwenig Substanz und Logik zu kritisieren.
Und falls ich dafuer vom einen oder anderen IHV bezahlt wuerde waere meine Logik selbstverstaendlich objektiver oder was?
Ich für meinen Teil bin froh darüber überhaupt sowas entdecken zu können, da gibts heutzutage genügend Käse, der keine Meldung wert ist, da eben überhaupt keine Substanz dahintersteckt.
Wo steckt die "Entdeckung" gleich nochmal?
Botcruscher
2009-10-07, 13:35:30
Ähh .. dann erklär mal bitte wieso nicht. Mit stichhaltigen Gründen lass ich mich gerne überzeugen.
Wettbewerb. NV kann nicht einseitig das Angebot kürzen ohne direkt an ATi Kunden zu verlieren. So zu handeln wäre schlicht Selbstmord.
Wenn hingegen ATi und NV absprachen treffen und so gemeinsam die Preise manipulieren wollen ... dann ist es ein Fall für die Kartellwächter.
Ailuros
2009-10-07, 13:40:58
Nur gut das nVidia das von dir umsonst bekommt.
Ich notiere erstmal dass Du die angebliche Schmiererei seitens AMD nicht zu bestreiten versuchst; der laecherliche Versuch mich zu beleidigen ist so bedeutungslos wie Deine Indentitaet.
Ich notiere erstmal dass Du die angebliche Schmiererei seitens AMD nicht zu bestreiten versuchst; der laecherliche Versuch mich zu beleidigen ist so bedeutungslos wie Deine Indentitaet.
Und du bist von Bedeutung?
Was du dir in letzter an Löschaktionen geleistet hast, zeigt nur was man von dir zu halten hat.
Du spielst dich hier wie der Checker auf und blabberst auch nur das nach was dir irgeneiner Verät.
Allen anderen die Glaubwürdigkeit absprechen wollen und sich selber so darstellen als ob man den vollen Durchblick hat.
Und so wie du dich darstellst kann sich nVidia keinen besseren Marketingfuzzi wünschen.
Bin mal gespannt wie lange der Beitrag stehen bleibt.
Ailuros
2009-10-07, 14:02:21
Und du bist von Bedeutung?
Nein. Ich verstecke mich aber zumindest nicht hinter irgendwelcher Anonymitaet.
Was du dir in letzter an Löschaktionen geleistet hast, zeigt nur was man von dir zu halten hat.
Woher willst gerade Du wissen wer was und wann genau loescht?
Du spielst dich hier wie der Checker auf und blabberst auch nur das nach was dir irgeneiner Verät.
Natuerlich erfahre ich Einzelheiten von anderen. Der Rest der Dich stoert ist Dein Problem und nicht meins.
Allen anderen die Glaubwürdigkeit absprechen wollen und sich selber so darstellen als ob man den vollen Durchblick hat.
Waere ich der einzige der so ueber gewisse Personen denkt dann haettest Du vielleicht einen Punkt. Sonst ist dieser Post nichts anderes als ein laecherlicher anonymer Verschweiflungsakt.
Und so wie du dich darstellst kann sich nVidia keinen besseren Marketingfuzzi wünschen.
Ich kaschier mal gleich meinen check dann....;D
Bin mal gespannt wie lange der Beitrag stehen bleibt.
Sehr lange da ich ihn zitiert habe. Sonst noch was?
RoNsOn Xs
2009-10-07, 14:11:06
könnt ihr euren verbalen scheiß mal lassen? aber immer noch aus stolz antworten...
jetzt löscht den ganzen OT scheiß... :mad:
Zusammengefaßt: Der Ton mag unfreundlich sein und vor Schadenfreude strotzen, aber die Meldung hat ne gewisse Substanz und Logik.Nvidia hat schon ganz andere Sachen überlebt: Die Radeon 9700 vernichtet leistungsmäßig die Ti 4600, bietet AA vernünftiges bis 6x und hat noch DX9-Support. Die FX 5800 Ultra ist laut wie ein Fön und kann trotz dreisten 3DMark-Cheats durch neue Nvidia-Treiber nicht mithalten. Die anisotrope Filterung wird verschlechtert, das Upgrade zu DX 9.0c bringt ebenfalls kaum zusätzliche Performance – Nvidia setzt mit der FX 5900 nach, die trotzdem in DX9-Spielen schlechter performt als ATIs Radeon 9600 Pro.
Selbst der NV40 und der Refresh in Form von G70 und G71 erwiesen sich in vielen modernen Spielen als langsamer als das ATI-Gegenstück. Nvidia hat das nicht nur überlebt, sondern kräftig verdient.
Soundwave1983
2009-10-07, 14:28:52
Ich denke auch das die Weltuntergangsszenarien von Chappi äh Charlie dann doch etwas übertrieben sind.
@OT: Ich sehe das Problem nicht, deaktiviert doch einfach Gastkommentare und das Problem ist gelöst.
Dural
2009-10-07, 14:47:19
Typisch ATI Fans, die wünschen sich den Untergang von NV nur um den beweiss zu haben das sie Jahre lang recht hatten und ATI doch so toll ist ;)
NV ist mit DX11 etwas hinten, aber wie viel wissen wir ja noch nicht einmal! Wie so wissen wir alle aber ganz genau: Komplett überarbeitet Architektur, sehr Grosser Chip, NV geht ganz bewusste ein Risiko ein! Wenn Fermin in einigen Monaten aufschlägt und ATI ziemlich alt ausehen lassen würde, würde KEIN Mensch mehr davon reden das NV erst später mit DX11 an kam als eben AMD, weil dann eh nur noch jeder die Fermin Karte Kaufen möchte (wenn er sich den leisten kann, sonst wird die Karte natürlich schlecht gemacht...)
ATI ist für den RV870 überhaupt nicht zu beneiden, sie gingen damit den einfachsten weg im Gegensatz zu NV mit de Fermin und die Leistung vom RV870 kann ja auch alles andere als überzeugen, die R600 Architektur hat mit dem RV870 den Meister in sachen Ineffizient auf die reinen Technischen Daten / Leistung her gefunden... das ding hat immerhin ca. 6x mehr ALU Leistung...
Mir ist es sowieso ein Rätsel wie man einen Hersteller immer schlecht reden kann und den andern immer hoch jubelt, habt ihr eigentlich nichts besseres zutun? Ich kaufe immer die besste High-End Grafikkarte und dazu zähle ich sicher nicht nur die reine Leistung, für mich zählt die Technik/Treiber/Unterstützung/Zusatz Funtionen usw. alles auch dazu! Und ja deswegen hab ich meistens NV drin...
In einem System hab ich 3x GTX 280, im anderen eine GTX 285 die jetzt gegen die 5870 getauscht wird und sobald Fermi kommt und der nur etwas besser sein sollte und das müsste er ja auch fast sicher sein... fliegt die 5870 raus, ganz EINFACH ;)
Nvidia zieht sich vom Highend Grafikkartenmarkt zurück ? Ist das ein Fake oder nur um in der Presse zu bleiben ?Die Meldung klingt ja fast schon so, als würde sich NV endgültig aus dem High-End-Grafikmarkt ausklinken. Was ein himmelschreiender Unsinn. Quelle ist natürlich Charlie...;DAlso sowas bringt mich echt in zum Kochen. Mit solchen Meldungen kaufen sich doch nur noch mehr Leute AMD Karten.Was ganz im Sinne von Charlie und seinen Geldgebern liegen dürfte...ähnlich (wenn auch nicht so extrem) war es schon beim GT200...als der rauskam war es ein riesen brummer der nicht übermässig mehrleistung im spielesektor bot und sich nicht vom deutlich schlankeren design des RV770 absetzen (im kernsegment games als entertainment) konnte...so das ein höherer verkaufspreis gerechtfertigt werden konnteHmm, GT200 war schneller und bot überlegene Bildqualität. Zusammen mit anderen Eigenschaften von NV-Produkten im Vegleich mit ATI lässt ihn das fast schon außer Konkurrenz laufen, was übrigens für die komplette Produktpalette gilt. Was bringt mir eine billige und schnelle ATI-Karte, wenn sie unter anderen Betriebssystemen praktisch unbenutzbar ist und auch der Support unter Windows bei allem abseits der Mainstream-Top10-Spiele unter aller Sau ist? Da könnte ATI die 4870er verschenken und trotzdem würde ich eher Geld für eine LowEnd-Geforce ausgeben, damit ich unter Linux/Solaris/BSD wenigstens nutzbare Videobeschleunigung und einen brauchbaren Treiber habe. Auch für ausschließlich spielende Windows-only-Nutzer, die einen gewissen Anspruch haben, schließt sich der Kauf einer ATI-Karte aufgrund der mangelhaften Bildqualität leider aus.
Und daran finde ich sollte sich so schnell wie möglich etwas ändern. Mit großem Interesse schiele ich auf neue Features wie Eyefinity zum Anschließen von 3 DisplayPort-Bildschirmen. Leider sind diese für mich nur als Blendwerk zu betrachten, weil das Feature für mein OS erst gar nicht angeboten wird und die Karten aufgrund anderer Schwächen gar nicht erst in Frage kommen. Das macht mich mehr oder weniger abhängig von Nvidia, was mir ganz und gar nicht passt. Theoretisch könnten die auch unperformanten Crap für viel Geld bringen und mir (u. vielen anderen) bliebe mittelfristig nichts anderes übrig, als das auch noch zu kaufen, solange die Rahmenbedingungen sich nicht ändern. Solange es keine ernstzunehmenden Alternativen gibt, bin ich hier auf das Wohlwollen und die Fähigkeiten seitens NV angewiesen. Der Intel-Hoffnungsschimmer ist mittlerweile auch eher verfolgen. Und schuld an NVs Quasi-Monopol für anspruchsvolle Nutzer sind nicht sie selbst, sondern ATI, deren Firmenpolitik es irgendwie ausschließt brauchbare Produkte auszuliefern. Die Hardware selbst ist ja prinzipiell ganz vernünftig, der Rest aber ist einfach nicht konkurrenzfähig.
Menace
2009-10-07, 14:53:39
ATI ist für den RV870 überhaupt nicht zu beneiden, sie gingen damit den einfachsten weg im Gegensatz zu NV mit de Fermin und die Leistung vom RV870 kann ja auch alles andere als überzeugen, die R600 Architektur hat mit dem RV870 den Meister in sachen Ineffizient auf die reinen Technischen Daten / Leistung her gefunden... das ding hat immerhin ca. 6x mehr ALU Leistung...
Mir ist es sowieso ein Rätsel wie man einen Hersteller immer schlecht reden kann und den andern immer hoch jubelt, habt ihr eigentlich nichts besseres zutun? Ich kaufe immer die besste High-End Grafikkarte und dazu zähle ich sicher nicht nur die reine Leistung, für mich zählt die Technik/Treiber/Unterstützung/Zusatz Funtionen usw. alles auch dazu! Und ja deswegen hab ich meistens NV drin...
Äh, wie war das mit der eigenen Nase fassen? ;D
So schnell geht nv nicht unter: http://www.pcgameshardware.de/aid,696825/Supercomputer-mit-Fermi-FLOPS-10x-schneller-als-Roadrunner/Technologie/News/
Dural
2009-10-07, 15:03:19
Klar geht NV nicht unter, das ist ja nur ein Wunsch denken von so manchem User... ;)
Ich behaupte jetzt mal sogar das NV für die Zukunft besser aufgestellt ist als ATI/AMD!
Menace
2009-10-07, 15:12:47
Klar geht NV nicht unter, das ist ja nur ein Wunsch denken von so manchem User... ;)
Ich behaupte jetzt mal sogar das NV für die Zukunft besser aufgestellt ist als ATI/AMD!
Diese Aussage bezweifle ich auch mal. Momentan beginnt Nvidia und Ati sich den Kuchen friedlich zu teilen (das aber bestimmt nicht freiwillig). AMD (und somit Ati) schrammt meiner Meinung nach immer ziemlich am Abgrund entlang. Selbst wenn sie im hochpreisigen Segment mit nvidia konkurrieren möchte, ihnen fehlen schlicht die Ressourcen (wobei man sich Gipsel ruhig einkaufen könnte). Ati braucht erst mal wieder ein ordentliches Fundament, auf das sie aufbauen können.
Nvidia muss aber aufpassen, dass sie ihres nicht zerschießen.
Und nochmals: Das ziemlich reflektionsfreie Schlechtreden der gerade anderen Grafikkarte kauft niemand ab. Weder sind Ati-Karten schlecht, noch die nvidia-Karten. Also: etwas mehr kritischer Abstand. :rolleyes:
Menace
2009-10-07, 16:03:48
Laut PCGH: "Nvidia selbst verweigerte auf Nachfrage von PC Games jegliche Aussage."
Das klingt für mich wie ein Eingeständnis, dass Charlie zumindest nicht meilenweit daneben lag.
http://www.pcgameshardware.de/aid,696847/Nvidia-Lieferschwierigkeiten-fuer-Geforce-GTX-285-und-Co-bis-Jahresende/Grafikkarte/News/
Was will NV auch immer mit diesen Monsterchips.
Die sind flächenmässig größer und haben so auch öfter einen Fehler,
sie sind außerdem teurer und setzen wegen ihrer Komplexität mehr Energie um.
Außerdem sollten sie GPU-Computing nicht zu sehr in den Vordergrund stellen.
Bis dato ist die Software-Basis im Consumerbereich noch viel zu gering und eine Grafikkarte muß auch noch Bilder erzeugen können.
NV könnte sich diesmal wirklich verrennen.
LovesuckZ
2009-10-07, 16:12:40
Wie - das nVidia dicht macht und man versucht jemanden zu finden, der 50%+1 Anteil kauft?
Laut PCGH: "Nvidia selbst verweigerte auf Nachfrage von PC Games jegliche Aussage."
Das klingt für mich wie ein Eingeständnis, dass Charlie zumindest nicht meilenweit daneben lag.
http://www.pcgameshardware.de/aid,696847/Nvidia-Lieferschwierigkeiten-fuer-Geforce-GTX-285-und-Co-bis-Jahresende/Grafikkarte/News/
Ist "We don't comment on unannounced products" ebenfalls ein Eingeständnis dafür, dass es kein kommendes Produkt gibt? ;) Will sagen: Ich sehe da kein Eingeständnis, wenn die PR-Abteilung (noch) nichts von sich gibt.
MfG,
Raff
YfOrU
2009-10-07, 17:28:43
Ich behaupte jetzt mal sogar das NV für die Zukunft besser aufgestellt ist als ATI/AMD!
AMD bedient den Markt genauso wie Intel mit kompletten Plattformen. Es gibt zwar aktuell einen großen Hype um die Auslagerung von Rechenaufgaben auf die GPU, eine wirkliche Marktrelevanz kann sich aber nur einstellen wenn diese in allen Performancefeldern stattfindet.
Ein nicht unerheblicher Teil des Marktes wird aktuell ohne Nvidia unter Intel und AMD verteilt. Da dieser das größte Volumen hat wird es für Nvidia sehr schwierig langfristig eigene Standards abseits des professionellen Bereiches zu etablieren.
Deshalb wird händeringend nach neuen, zusätzlichen Geschäftsfeldern (wie SoCs) gesucht. Die Liste an Firmen die sich bei exorbitanten Entwicklungskosten hauptsächlich auf den professionellen Markt konzentriert haben ist in der IT Geschichte sehr lange und dabei wenig erfolgsversprechend.
Demgegenüber steht AMD mit frischen Kapital, besseren Fertigungskapazitäten und einer sehr vielversprechenden Verhandlungsposition gegenüber Intel da.
Intel ist übrigens das Stichwort. Früher oder später wird LRB oder eine entsprechende Neuentwicklung zumindest für den Server und Workstationmarkt kommen und der Vorteil der Fertigungstechnik bei Intel ist nicht unerheblich.
Langfristig bin ich mir auch nicht sicher ob Tegra (bzw. allgemein ARM) mit fortlaufender Strukturverkleinerung in allen spezifischen Bereichen gegenüber x86 SoC bestehen kann. Zusätzlich existiert gerade was ARM Lizenznehmer angeht eine große Anzahl an Konkurrenten.
Unproblematisch wie das letzte Jahrzehnt wird es mit Sicherheit nicht und die Strategie ist risikoreich.
Dann ist bei Nvidia das Weihnachtsgeschäft wohl gelaufen ;D
Seltsam das es keine News zum Produktionsstop bei AMD gab, als man RV770 nur noch von Halde verkauft hat, bzw. jetzt das Einstellen der Karten ab HD4850 begonnen hat......
Seltsam das es keine News zum Produktionsstop bei AMD gab, als man RV770 nur noch von Halde verkauft hat, bzw. jetzt das Einstellen der Karten ab HD4850 begonnen hat......
Amd hat schon ein Chip bzw. 2 neue Karten draussen und 2 weitere Chip folgen demnächst, somit steht das Lineup fast komplett.
Bei Nvidia hat der CEO ein "Dummy" (war nichtmal ein Desktopkarte) hoch gehalten, das ist ein gewaltiger unterschied.:D
ATI hatte den NAchfolger in den Startlöchern, NV hingegen hatte einen Techday. Habe ich erwähnt, dass Intel auch schon einen LRB techday hatte. Seit wann kann man LRB noch einmal kaufen?
PulsarS
2009-10-07, 18:07:40
Seltsam das es keine News zum Produktionsstop bei AMD gab, als man RV770 nur noch von Halde verkauft hat, bzw. jetzt das Einstellen der Karten ab HD4850 begonnen hat......
:confused:
ATI hat doch schon die Nachfolger parat, also alles in Butter.
Bei NV ist es halt sehr seltsam (wenn das Gerücht stimmt), dass es noch keine Nachfolger für GTX285 und Konsorten gibt, aber eben diese auslaufen lässt und ATI praktisch kampflos den Markt ab 100 € überläßt.
Und das kurz vor Weihnachten?
Hallo?
Da stimmt doch was nicht.
Und dass die GTX 285 immer schlechter verfügbar ist, kann man doch bei Geizhals & Co sehen.
Ailuros
2009-10-07, 18:17:51
PCGH im obrigen Link:
Vermutlich haben sich im Frühjahr und Sommer eher die Pessimisten bei Nvidia durchgesetzt, die eine konservative Planung befürworteten. Dafür spricht die anläßlich der Quartalszahlenbekanntgabe angekündigte Verringerung des Inventarbestands von rund 90 auf 30 Tage Vorratshaltung.
Laut xbit labs soll diese Verringerung des Inventarbestands beide IHVs betreffen.
Wozu der ganze Ramtamtam kann ich ernsthaft nicht verstehen. Wenn die Geschichte stimmt dass die Loehne des obrigen Management bei NVIDIA nur $1 fuer einen gewissen Zeitraum betragen werden, kann man solche Sparmassnahmen auch irgendwo verstehen.
Es gibt generell verfuegbare GPUs in der 285 Kategorie und es geht keinem die Welt unter wenn jemand statt dieser einfach eine 5850 oder 5870 kauft.
LovesuckZ
2009-10-07, 18:18:30
Amd hat schon ein Chip bzw. 2 neue Karten draussen und 2 weitere Chip folgen demnächst, somit steht das Lineup fast komplett.
Ja und gleichzeitig vergammeln die alten Karten.
Die GTX285 ist schon seit Wochen schlecht lieferbar. GTX260 und GTX275 sind dagegen wie Sand am Meer verfügbar.
Dural
2009-10-07, 18:24:10
AMD bedient den Markt genauso wie Intel mit kompletten Plattformen. Es gibt zwar aktuell einen großen Hype um die Auslagerung von Rechenaufgaben auf die GPU, eine wirkliche Marktrelevanz kann sich aber nur einstellen wenn diese in allen Performancefeldern stattfindet.
Ein nicht unerheblicher Teil des Marktes wird aktuell ohne Nvidia unter Intel und AMD verteilt. Da dieser das größte Volumen hat wird es für Nvidia sehr schwierig langfristig eigene Standards abseits des professionellen Bereiches zu etablieren.
Deshalb wird händeringend nach neuen, zusätzlichen Geschäftsfeldern (wie SoCs) gesucht. Die Liste an Firmen die sich bei exorbitanten Entwicklungskosten hauptsächlich auf den professionellen Markt konzentriert haben ist in der IT Geschichte sehr lange und dabei wenig erfolgsversprechend.
Demgegenüber steht AMD mit frischen Kapital, besseren Fertigungskapazitäten und einer sehr vielversprechenden Verhandlungsposition gegenüber Intel da.
Intel ist übrigens das Stichwort. Früher oder später wird LRB oder eine entsprechende Neuentwicklung zumindest für den Server und Workstationmarkt kommen und der Vorteil der Fertigungstechnik bei Intel ist nicht unerheblich.
Langfristig bin ich mir auch nicht sicher ob Tegra (bzw. allgemein ARM) mit fortlaufender Strukturverkleinerung in allen spezifischen Bereichen gegenüber x86 SoC bestehen kann. Zusätzlich existiert gerade was ARM Lizenznehmer angeht eine große Anzahl an Konkurrenten.
Unproblematisch wie das letzte Jahrzehnt wird es mit Sicherheit nicht und die Strategie ist risikoreich.
NV baut sich mit Tegra/Tesla aber gerade was auf! Ob das jemals richtig viel kohle bringt wissen wir noch nicht, aber es spricht ja eigentlich alles dafür!
und was hat AMD? Ja richtig sie haben alles, aber die Marktanteile sprechen eine deutliche Sprache das AMD im CPU Markt seit Jahren Marktanteile an Intel abgibt, also zieht das: "wir können alles Liefern" nicht, weil es der Markt schlicht nicht aufnimmt...
Ich habe diese Meinung eh schon immer für blödsinn gehalten, jedem end Kunden ist es egal ob in seinem PC jetzt alles von einem Hersteller drin verbaut wird, entscheident ist immer nur Leistung/Preis/Techlevel
Eine solche Strategie kann auch ganz schnell nach hinten los gehen, siehe zb. ATOM wo der Chipsatz so gut wie nichts taugt, obwohl das eigentlich Produkt nämlich die CPU gar nicht mal so schlecht ist!
@GT200
Könnte mir Vorstellen das die Produktion vieleicht schon eingestellt wurde... vieleicht hat da NV etwas hoch gepokert, aber immer noch besser als wenn man Fermin ausliefert und noch einen haufen G200 auf halde liegen hat wie damals G80-G92!
Ailuros
2009-10-07, 18:30:48
NV baut sich mit Tegra aber gerade was auf! Ob das jemals richtig viel kohle bringt wissen wir noch nicht, aber es spricht ja eigentlich alles dafür!
Momentan kommt nichts davon raus, aber die meisten Kosten duerften schon langfristig gedeckt werden. R&D wurde ja hauptsaechlich von der Nintendo IP Lizenz gedeckt.
Er hat aber schon recht dass NVIDIA hier direkt mit anderen Giganten konkurriert in der Liga von Intel, Texas Instruments, Samsung, Renesas usw. und bisher gingen die meisten Lizenzen an IMG. Der eingebettete Markt und dessen grosse Spieler sind hauptsaechlich auf IP getrimmt und nicht auf ganze SoCs weil die grossen Semi Hersteller eben lieber selber ihre SoCs bauen. Ob und wieviel NVIDIA selber daran was aendern kann bleibt abzusehen, aber momentan sieht es nicht viel mehr als eine Nischeneindrigung durch OEM deals aus.
Hier mal ein Interview das relevanter ist als der erste Blick sagen koennte:
http://www.electronicsweekly.com/Articles/2009/10/02/47098/stakes-of-the-chip-industry-have-never-been-higher-ief-2009.htm
heise.de - Nvidia räumt Lieferengpässe bei High-End-Chips ein (http://www.heise.de/newsticker/meldung/Nvidia-raeumt-Lieferengpaesse-bei-High-End-Chips-ein-816953.html)
...und dementiert die Produktionseinstellung gegenüber Heise.
Undertaker
2009-10-07, 18:46:46
Damit wäre mal wieder eine Unfugsmeldung von Charlie widerlegt... Wer kann den Menschen noch ernst nehmen? :rolleyes:
YfOrU
2009-10-07, 18:48:01
NV baut sich mit Tegra aber gerade was auf! Ob das jemals richtig viel kohle bringt wissen wir noch nicht, aber es spricht ja eigentlich alles dafür!
und was hat AMD? Ja richtig sie haben alles, aber die Marktanteile sprechen eine deutliche Sprache das AMD im CPU Markt seit Jahren Marktanteile an Intel abgibt, also zieht das: "wir können alles Liefern" weil es der Markt schlicht nicht aufnimmt...
Der eigentliche Bonus den Nvidia hat ist der Markenname und ein gutes Marketing (zu sehen daran wie durch die Bank in Smartphoneforen und Portalen der Tegra irrationaler Weise herbeigesehnt wird).
Das Rad kann Nvidia trotzdem nicht neu erfinden und im SoC Sektor sind einige Schwergewichte der IT Branche tätig. Es ist zwar mangels einer x86 Lizenz durchaus logisch einzusteigen, ob damit aber jemals große Umsätze erzielt werden steht auf einem anderen Blatt.
AMD wird auch wieder Marktanteile gewinnen. Nach den letzten turbulenten Jahren und Umstrukturierungen ist die Ausgangsposition vielversprechend und erstreckt sich immer noch über mehrere Geschäftsfelder.
Der Einstieg von ATIC, die Gründung von GF, Reduzierung der Personalkosten und der Ausgang des Kartellverfahrens ergeben meiner Meinung nach langfristig ein großes Potential. Gerade weil auch wieder mehr Kapital in die Entwicklung investiert werden kann.
Ailuros
2009-10-07, 18:48:54
Damit wäre mal wieder eine Unfugsmeldung von Charlie widerlegt... Wer kann den Menschen noch ernst nehmen? :rolleyes:
Ich. Ich hab ihm sogar eine offene Einladung fuer eine Woche Urlaub in der Wueste Sahara zugeschickt.
Leonidas
2009-10-07, 19:03:29
Nvidia hat schon ganz andere Sachen überlebt: Die Radeon 9700 vernichtet leistungsmäßig die Ti 4600, bietet AA vernünftiges bis 6x und hat noch DX9-Support. Die FX 5800 Ultra ist laut wie ein Fön und kann trotz dreisten 3DMark-Cheats durch neue Nvidia-Treiber nicht mithalten. Die anisotrope Filterung wird verschlechtert, das Upgrade zu DX 9.0c bringt ebenfalls kaum zusätzliche Performance – Nvidia setzt mit der FX 5900 nach, die trotzdem in DX9-Spielen schlechter performt als ATIs Radeon 9600 Pro.
Selbst der NV40 und der Refresh in Form von G70 und G71 erwiesen sich in vielen modernen Spielen als langsamer als das ATI-Gegenstück. Nvidia hat das nicht nur überlebt, sondern kräftig verdient.
Genau das meine ich auch. Zu 99,9% ist es Schwachsinn, eine unterlege Hardware vom Markt zu nehmen, wenn man eine Firma wie nVidia ist. Denn unter den eigenen Kunden sind genügend, die sowieso nVidia nehmen, die man teilweise sogar beliefern *muß*. Drei schwache Monate ändern viel in der Sicht der Presse und der Enthusiasten, aber wenig im dicken Business. Und etwas vom Markt nehmen richtet möglicherweise mehr Schaden an als es Nutzen bringt, weil man damit die eigenen festen Partner verärgern kann.
Hat Intel das eigene Geschäft eingestellt, als man nur den Pentium 4 gegen den Athlon 64 X2 hatte? Seinerzeit war Intel auf breiter Front unterlegen - und hat trotzdem zu hohem Preis verkauft und gut Gewinn gemacht, und das über Jahre. Es geht also, ein paar Monate sind gar nix. Die psychologische Niederlage, wenn man ein Produkt vom Markt zurückzieht, ist zudem weitaus größer als das bisschen weniger Gewinn, das man durch schwindende Marktanteile macht.
heise.de - Nvidia räumt Lieferengpässe bei High-End-Chips ein (http://www.heise.de/newsticker/meldung/Nvidia-raeumt-Lieferengpaesse-bei-High-End-Chips-ein-816953.html)
...und dementiert die Produktionseinstellung gegenüber Heise.
Was bedeutet schon ein Dementi, an den Taten werden wir sie messen :)
NV ist aber nicht Intel, die alleine durch ihre Marktdominanz im OEM Bereich unantastbar sind. ATI ist heute AMD/ATI und nicht die vergleichsweise kleine Firma, die damals mit dem R300 NV30 blamiert hat. AMD hat andere Zugänge zu OEM Deals, die Treiber sind weit besser als zu Radeon 8500er Zeiten. Das Image der Firma ist ein ganz anderes. AMD hat heute die Kraft NV schwer zu beschädigen.
Genau das meine ich auch. Zu 99,9% ist es Schwachsinn, eine unterlege Hardware vom Markt zu nehmen, wenn man eine Firma wie nVidia ist. Denn unter den eigenen Kunden sind genügend, die sowieso nVidia nehmen, die man teilweise sogar beliefern *muß*. Drei schwache Monate ändern viel in der Sicht der Presse und der Enthusiasten, aber wenig im dicken Business. Und etwas vom Markt nehmen richtet möglicherweise mehr Schaden an als es Nutzen bringt, weil man damit die eigenen festen Partner verärgern kann.
Das wird auch so sein.
Nur wissen wir nicht genau wie es ist.
Es kann durchaus sein, das Nvidia den GT200 nicht mehr produzieren lässt, weil es wirtschaftlich einfach nicht mehr lohnt und jetzt einen auf Lieferengpässe macht, obwohl man schon mehr GPUs auf Lager hat/haben könnte.
Jetzt braucht man sie nur noch dosiert in den Markt zu lassen und es entsteht der Eindruck von Lieferengpässen.
Das Wort Lieferengpässe hört sich doch viel besser an, als "wir produzieren nicht mehr, weil es für uns nicht wirtschaftlich ist und überlassen ATI damit erstmal das Feld ab 100€"... ;)
Nebenbei steigen die Preise für die GTX-Karten, wenn die Nachfrage das Angebot übersteigt.
Das dürfte Nvidia und die Boardpartner doch sehr freuen anstatt jetzt noch möglichst viele GTX-Karten zu Preisen nahe der Produktionskosten zu verkaufen.
Hat Intel das eigene Geschäft eingestellt, als man nur den Pentium 4 gegen den Athlon 64 X2 hatte? Seinerzeit war Intel auf breiter Front unterlegen - und hat trotzdem zu hohem Preis verkauft und gut Gewinn gemacht, und das über Jahre.
Damals Intel/AMD CPUs mit heute ATI/Nvidia GPUs zu vergleichen halte ich für ein wenig gewagt.
LovesuckZ
2009-10-07, 19:28:01
Das wird auch so sein.
Nur wissen wir nicht genau wie es ist.
Es kann durchaus sein, das Nvidia den GT200 nicht mehr produzieren lässt, weil es wirtschaftlich einfach nicht mehr lohnt und jetzt einen auf Lieferengpässe macht, obwohl man schon mehr GPUs auf Lager hat/haben könnte.
Jetzt braucht man sie nur noch dosiert in den Markt zu lassen und es entsteht der Eindruck von Lieferengpässen.
Das Wort Lieferengpässe hört sich doch viel besser an, als "wir produzieren nicht mehr, weil es für uns nicht wirtschaftlich ist und überlassen ATI damit erstmal das Feld ab 100€"... ;)
Nebenbei steigen die Preise für die GTX-Karten, wenn die Nachfrage das Angebot übersteigt.
Das dürfte Nvidia und die Boardpartner doch sehr freuen anstatt jetzt noch möglichst viele GTX-Karten zu Preisen nahe der Produktionskosten zu verkaufen.
Man produziert schon seit Krisenbeginn kaum noch. Das Inventar beträgt nur noch 30-45 Tage. Früher war es 60-90 Tage. Wenn die Nachfrage nun deutlicher ansteigt als geplant, entsteht ein Engpass. Aufgrund der negativen Erfahrungen am Jahresanfang ist es verständlich, dass man die Produktion zurückgefahren hat.
Das dürfte Nvidia und die Boardpartner doch sehr freuen anstatt jetzt noch möglichst viele GTX-Karten zu Preisen nahe der Produktionskosten zu verkaufen.
Super Plan, es gibt ja auch keine Fixkosten. :ugly:
Sogar unter Produktionskosten zu produzieren und wenigstens etwas Umsatz zu generieren ist weit billiger. Man kann es drehen wie man will, aus dem Schwachsinnsgerücht lässt sich nichts mehr herauspressen.
Hat Intel das eigene Geschäft eingestellt, als man nur den Pentium 4 gegen den Athlon 64 X2 hatte? Seinerzeit war Intel auf breiter Front unterlegen - und hat trotzdem zu hohem Preis verkauft und gut Gewinn gemacht, und das über Jahre. Es geht also, ein paar Monate sind gar nix. Die psychologische Niederlage, wenn man ein Produkt vom Markt zurückzieht, ist zudem weitaus größer als das bisschen weniger Gewinn, das man durch schwindende Marktanteile macht.
Reines Wunschdenken!
Die Kapitaldecke von nVidia ist eine andere als die von Intel. Intel war davor ein 90%-Monopol. Heute sind es auch noch gut 80%. --> Da hält man auch mal 2-3 Jahre mit hohen Kosten durch. Insbesondere wenn man entsprechende Lieferverträge aushandelt. Dann sogar wohl noch länger.
nVidia hatte mal 40%, mal 60%. Kurzzeitig sogar mal etwas mehr Marktanteile. Und hier rede ich nur vom Grafikkartengeschäft (also das was sich Hinz und Kunz EXTRA in den Rechner bauen) und nicht vom reinen Grafikchipgeschäft alleine. Denn in gesamten Grafikchipgeschäft ist Intel immer noch ein überlegener Marktführer.
--> Soetwas hält man insbesondere wenn die Kosten zu hoch sind maximal ein Jahr vielleicht auch 2 Jahre durch. Aber keinesfalls länger.
Dural
2009-10-07, 20:11:59
NV hatte 2007 anfang 2008 einen Markt anteil bei Grafikkarten (ohne IGP!!!) von über 80%
Noch ein mal, GF100 soll "zeitnah" erscheinen und somit ist es völlig normal das man die alte Produkte langsam auslaufen lässt! Was gibt es daran nicht zu verstehen??? Vieleicht hat sich NV etwas überschätzt und die nachfrage von GT200 GPUs ist grösser als angenommen, aber das ändert nichts an der tatsache das eine neue Generation vor der Türe steht!
NV hatte 2007 anfang 2008 einen Markt anteil bei Grafikkarten (ohne IGP!!!) von über 80%
Noch ein mal, GF100 soll "zeitnah" erscheinen und somit ist es völlig normal das man die alte Produkte langsam auslaufen lässt! Was gibt es daran nicht zu verstehen??? Vieleicht hat sich NV etwas überschätzt und die nachfrage von GT200 GPUs ist grösser als angenommen, aber das ändert nichts an der tatsache das eine neue Generation vor der Türe steht!
"Zeitnah" later 2010 ;D
Außerdem zu viele Satzzeichen :crazy2:
Dural
2009-10-07, 20:30:05
NV hat ja schon bestätigt das noch dieses Jahr Produkte ausgliefert werden... :rolleyes:
kannst du derzeit was anderes Beweisen?
NV hat ja schon bestätigt das noch dieses Jahr Produkte ausgliefert werden... :rolleyes:
kannst du derzeit was anderes Beweisen?
Du kannst auch nix beweisen :P
Klar die bestättigen alles mögliche, derweilen kannst du dir Käsefondue machen mit den drei Gtx280 Karten ;D
Leonidas
2009-10-07, 20:40:32
Ich halte das mit dem "nicht wirtschaftlich" beim GT200/b für nicht realistisch. Der GT200/b steht für zwischen 45 bis 90 Dollar in der Liste. Mit den 45 Dollar Chippreis baut man erfolgreich die GTX260, ergo ist es durchaus machbar, mit dem GT200/b Kartenpreise von 150 Euro zu realisieren.
Quelle der Preise:
http://www.3dcenter.org/artikel/herstellungspreise-aktueller-grafikkarten
basti333
2009-10-07, 20:45:38
Du kannst auch nix beweisen :P
Klar die bestättigen alles mögliche, derweilen kannst du dir Käsefondue machen mit den drei Gtx280 Karten ;D
Nur das nVidia die börsenaufsicht am hals hat, wenn sie so offen lügen würden:rolleyes:
Grestorn
2009-10-07, 21:10:06
Du kannst auch nix beweisen :P
Klar die bestättigen alles mögliche, derweilen kannst du dir Käsefondue machen mit den drei Gtx280 Karten ;D
Da spricht der pure Neid muss man wohl sagen.
Was wohl im Kopf eines Menschen vorgehen muss, der mit einer solchen Häme über eine nach einem guten Jahr immer noch zu den Topprodukten gehörende Karte redet, nur weil sie vom verhassten Hersteller stammt?
Schlammsau
2009-10-07, 21:12:58
Ich halte das mit dem "nicht wirtschaftlich" beim GT200/b für nicht realistisch. Der GT200/b steht für zwischen 45 bis 90 Dollar in der Liste. Mit den 45 Dollar Chippreis baut man erfolgreich die GTX260, ergo ist es durchaus machbar, mit dem GT200/b Kartenpreise von 150 Euro zu realisieren.
Quelle der Preise:
http://www.3dcenter.org/artikel/herstellungspreise-aktueller-grafikkarten
Das sind doch nur die Preise, die die einzelnen Hersteller von den "Assemblern" verlangen. Wie teuer eine GPU in der Herstellung wirklich ist, ist daraus doch gar nicht ersichtlich.
Ich kann mir beim besten willen nicht vorstellen, dass der GT200b einer GTX275 in der Herstellung genauso teuer ist wie ein RV790.
http://hardocp.com/news/2009/10/07/nvidia_abandons_market6363636363
"There is no truth to this. Charlie has become a sponsored site of his sole advertiser. It's no coincidence his website looks like an AMD ad."
StefanV
2009-10-07, 22:19:44
Ich halte das mit dem "nicht wirtschaftlich" beim GT200/b für nicht realistisch. Der GT200/b steht für zwischen 45 bis 90 Dollar in der Liste. Mit den 45 Dollar Chippreis baut man erfolgreich die GTX260, ergo ist es durchaus machbar, mit dem GT200/b Kartenpreise von 150 Euro zu realisieren.
Quelle der Preise:
http://www.3dcenter.org/artikel/herstellungspreise-aktueller-grafikkarten
Und was kostet der GT200 im Vergleich zum RV770, wenn er von TMSC kommt?!
Hälst du es nicht auch für extrem unwahrscheinlich, das die vergleichbar viel kosten könnten?!
So langsam hab ich das Gefühl, entwickelt sich 3dCenter zum Gegenpart von Charlie. Da kann ATI ein noch so gutes Produkt herausbringen, hier wird einfach nur gebasht. Das ist echt der Hammer!
Ich frage mich ernsthaft woher ihr alle wisst, dass es für nvidia lohnender ist wenige 285 abzusetzen, wie sie nicht mehr herzustellen und so somit in gewisser Zeit aus dem Sortiment zu nehmen?! Denn gerade wenn es um interne Zahlen geht, läßt sich doch kein Hersteller in die Karten schauen....
LovesuckZ
2009-10-07, 22:43:05
Das erzählt niemand. Der Engpass entsteht durch ein deutlich verkleinertes Inventar. Man kann nicht mehr so schnell auf eine erhöhte Nachfrage reagieren.
Gleichzeitig will man aber keine Tonnen von Leichen im Keller haben, die man alle komplett abschreiben muss, weil man sie nicht absetzen kann. nVidia produziert weiterhin natürlich GT200b Chips, nur wird die GTX285 wohl langsam auslaufen, weil man in 2-3 Monaten mit Fermi rechnet. Und dann hat man im Gegensatz zu AMD eben keine tausende von Restposten auf dem Markt, die unverkäuflich sind.
Und ohne drastische Preisreduzierung ist eine GTX285 auch nicht absetzbar.
gar nix haben die mehr im Keller, und das Inventar ist auch schon lange verkaufr :lol:
nicht des du Trotz hab ich gehört (und es ist ne gute Quelle) das die dicke Karte mit 6 gig Ram daher kommt....nur was wird sie kosten dürfen, das irgendwelche Verdrehte NV Boys das Ding auch noch kaufen und vorallem für was....
mictasm
2009-10-07, 22:56:02
Puh, das ist echt schlimm hier, Gäste haben die tollsten Quellen und wissen immer alles. Natürlich nur Sachen, die vor geschätzten 50 Seiten (im Nv Thread) bereits besprochen wurden...
Leonidas
2009-10-08, 00:24:13
So langsam hab ich das Gefühl, entwickelt sich 3dCenter zum Gegenpart von Charlie. Da kann ATI ein noch so gutes Produkt herausbringen, hier wird einfach nur gebasht. Das ist echt der Hammer!
.
Wow. Mal das gelesen, was Charlie geschrieben hat und das, was wir geschrieben haben? Speziell den Tonfall mitbekommen?
Ganz ehrlich, wer uns mit dem Geschreibsel von Charlie vergleicht, der hat heftige Tomaten auf den Augen.
Und was kostet der GT200 im Vergleich zum RV770, wenn er von TMSC kommt?!
Hälst du es nicht auch für extrem unwahrscheinlich, das die vergleichbar viel kosten könnten?!
Habe nie gesagt, daß der RV770 nicht billiger ist. Aber was muß das nVidia kümmern? Wichtig ist für die nur, daß der GT200b kostendeckend hergestellt wird. Und da sehe ich keine echten Probleme. Daß ein Chip im Laufe seines Lebenszyklus immer billiger abgegeben wird, ist vollkommen normal.
Labberlippe
2009-10-08, 01:09:43
Hi
Also ich sehe da nicht so ein Problem das nVIDIA die Stückzahlen im High End Bereich reduziert.
Wenn die 260er und die niedrigeren Serien noch in ausreichender Stückzahl Lieferbar sind, dann wird das für nVIDIA sicher kein Problem darstellen.
Die meisten Kunden sind eh nicht mehr gewillt mehr als 200 Eier für eine Graka auszugeben, einige vergessen hier, das die HighEnd Karten nicht so gefragt sind wie es einige "Experten" hier gerne hätten, vorallem wenn die neuen Midrange Karten locker das Niveau vom vorigen High End haben.
Es hätte wohl auch keinen Sinn eine GTX 285 anzubieten welche fast gleich "teuer" ist und mit der 5870 nicht mithalten kann.
Also Stückzahlen bremsen und dann in 1-2 Monaten den Leuten schon mal einen Vorgeschmack auf die neuen Karten zu geben um die Leute hinzuhalten.
Funktioniert ja jetzt schon ganz gut, so wie eingie hier nVIDIA loben.
Gruss Labberlippe
Ähm.. LOL? Und wann soll der kommen?
Ich habe doch geschrieben das es *nicht* um die Verfügbarkeit geht sondern um die bloße Aussage von ihm.
Wenn du nicht lesen kannst, dann lass die Antworten bleiben.
Bis der mal irgendwann im Mai oder Juni antanzt, hat AMD schon einen 32/28nm "Testchip" am Markt der den Juniper beerbt.
Erstens TSMC sollte erstmal kucken, dass sie überhaupt den Prozess fertig haben bis Mai. Und was Globalfoundries angeht gilt das gleiche.
Es ist enorm unrealistisch 32/28nm GPUs vor ganz spät 2010 zu erwarten. Das ist ein *full shrink*, das heißt man muss das komplette Chiplayout neu verifizieren mit den neuen Libraries, inkl. Simulationen, dazu vergeht einige Zeit bevor der Prozess gut genug ist bevor man so etwas wie GPUs darauf produzieren kann. Hinzu kommt, dass man für 32nm wohl schon double pattering braucht, was die Kosten für die Belichtungsmasken mal eben verdoppelt.
Zweitens wird NVIDIA - wenn wir annehmen das sie halbwegs im Zeitplan bleiben - auch ihr komplettes D3D11-Lineup bis Anfang Q2 2010 auf dem Markt haben. Nur weil der größte 40nm-Chip sich verspätet, heißt das noch lange nicht, dass das auch für die einfacher zu fertigenden Mainstream- und Low-End-Parts gilt.
Siegfried
2009-10-08, 03:16:09
waere schade wenn nvidia pleite geht
sind die einzigen die 120hz monitore pushen
Shakti
2009-10-08, 04:50:46
Hatte 3dfx voodoo's, matrox, nvidia's und ati's im Rechner, tendiere wegen dem ceo von nvidia eher zu ati, aber warum nvidia diesen Charlie nicht schon laengst 100 mal verklagt hat verstehe ich nicht.
Der Typ platzt ja bald vor Hass.
Ailuros
2009-10-08, 06:25:52
So langsam hab ich das Gefühl, entwickelt sich 3dCenter zum Gegenpart von Charlie. Da kann ATI ein noch so gutes Produkt herausbringen, hier wird einfach nur gebasht. Das ist echt der Hammer!
Wo steht seitens 3DCenter dass die Evergreen Familie wertlos ist oder dass sie in irgend einer Art "gebasht" wird?
Ich frage mich ernsthaft woher ihr alle wisst, dass es für nvidia lohnender ist wenige 285 abzusetzen, wie sie nicht mehr herzustellen und so somit in gewisser Zeit aus dem Sortiment zu nehmen?! Denn gerade wenn es um interne Zahlen geht, läßt sich doch kein Hersteller in die Karten schauen....
Das dumme ist eben dass wenn es keiner genau wissen kann, desto weniger weiss es dann auch jemand wie Charlie.
http://hardocp.com/news/2009/10/07/nvidia_abandons_market6363636363
"There is no truth to this. Charlie has become a sponsored site of his sole advertiser. It's no coincidence his website looks like an AMD ad."
Ich kann mir leicht vorstellen dass viele hier glauben dass ich relevanten Mist einfach erfinde. Hinter den Kulissen werden solche Andeutungen so oft wiederholt dass es nicht mehr schoen ist. Wenn bei einer live Besprechung jemand von AMD dabei ist und andere laestern nur in der Art "Ihr und Euer teuer bezahltes Flittchen" und es gibt keine einzige Reaktion, notiere ich zwar den Witz und die offensichtliche Uebertreibung aber auch die ernuechternde Stille.
Hatte 3dfx voodoo's, matrox, nvidia's und ati's im Rechner, tendiere wegen dem ceo von nvidia eher zu ati, aber warum nvidia diesen Charlie nicht schon laengst 100 mal verklagt hat verstehe ich nicht.
Der Typ platzt ja bald vor Hass.
Wieso? Weil objektiv gesehen NVIDIA komplett unschuldig ist in ihrer gesamten Geschichte was FUD generell betrifft? Am Ende wenn man es nuechtern betrachtet haben sie es sich auch wohl verdient und AMD schlaegt sie lediglich mit ihren eigentlichen Waffen.
Solche Typen kommen und gehen sowieso mit den Jahren. Wie hiess nochmal der Entwickler der endlos ueber den bloeden w-buffer laesterte? Ich hab ehrlich sogar seinen Namen vergessen :D
Habe nie gesagt, daß der RV770 nicht billiger ist. Aber was muß das nVidia kümmern? Wichtig ist für die nur, daß der GT200b kostendeckend hergestellt wird. Und da sehe ich keine echten Probleme. Daß ein Chip im Laufe seines Lebenszyklus immer billiger abgegeben wird, ist vollkommen normal.
Aber das komplexer PCB können Sie nicht soweit verbilligen. Gleichzeitig ist ihr Gegner nun nicht mehr RV770 sondern Juniper. Da kann man imho nur Verluste machen und wird dieses Marktsegment wohl für Monate aufgeben müssen.
reunion
2009-10-08, 08:16:30
Und dann hat man im Gegensatz zu AMD eben keine tausende von Restposten auf dem Markt, die unverkäuflich sind.
Das kann AMD scheißegal sein. Was verkauft ist ist verkauft. Wenn die Händler zu viel bestellt haben ist das AMDs Glück. Wobei die Lieferbarkeit von RV770-Karten auch täglich schlechter wird, die werden also auch schon lange nicht mehr ausgeliefert. Und die Karte welche diese preislich ersetzt ist ja auch noch nicht am Markt.
LovesuckZ
2009-10-08, 08:39:24
Das kann AMD scheißegal sein. Was verkauft ist ist verkauft. Wenn die Händler zu viel bestellt haben ist das AMDs Glück. Wobei die Lieferbarkeit von RV770-Karten auch täglich schlechter wird, die werden also auch schon lange nicht mehr ausgeliefert. Und die Karte welche diese preislich ersetzt ist ja auch noch nicht am Markt.
Stimmt - nichts ist besser als sich mit seinen Geschäftspartner zu verkrachen. :rolleyes:
reunion
2009-10-08, 08:40:23
Stimmt - nichts ist besser als sich mit seinen Geschäftspartner zu verkrachen. :rolleyes:
Ja natürlich, AMD hat ihnen Karten aufgezwungen welche sie gar nicht wollten. Also manchmal.
http://hardocp.com/news/2009/10/07/nvidia_abandons_market6363636363
"There is no truth to this. Charlie has become a sponsored site of his sole advertiser. It's no coincidence his website looks like an AMD ad."
Jo, und hardocp war die Seite die nen i7 mit 6 GB gegen nen Phenom2 mit 2 GB unter Vista gebencht hat. Von wem die Ihr Geld bekommen, weiss man somit auch ... wer im Glashaus sitzt ....
ciao
Alex
Undertaker
2009-10-08, 09:14:04
Wer Hardocp-Reviews verfolgt hat weiß, dass sie in allen Reviews das gleiche DDR2-Kit benutzt haben - und das hatte eben nur 2GB. :rolleyes: Bitte unterscheiden zwischen Unvermögen der Tester und gezieltem Bashing. :wink:
Ailuros
2009-10-08, 09:19:44
Ich glaube wir koennen so langsam zum eigentlichem Thema zurueckkommen denn die obrigen Abschweifung ist so langsam eine Sackgasse.
-------------------------------------------------------------------------------------------------
http://www.techreport.com/discussions.x/17717
Ken Brown ist zwar ein ziemlich netter Kerl, aber trotz allem ein PR Mann.
danko
2009-10-08, 10:07:37
Ich glaube das Nvidia in dem Bestreben immer wieder die Performancekrone zu halten die Wirtschaftlichkeit etwas zu sehr aus den Augen verliert. Das hat zur Folge das ATI (die nicht so verschwenderisch mit Transistoren um sich werfen) bei nur etwas geringerer Performance die deutlich preiswerteren Grafikkarten produziert. Das und das gänzliche Fehlen von konkurrenzfähigen Produkten im Low End und Mid Range Markt kann nicht gut für Nvidia sein. Ich befürchte ja das Nvidia dadurch genau so verkümmern wird wie seiner Zeit VIA.
NV stand einfach vor dem Problem, dass man LRB und RV870 mit einem Chip kontern mußte. Was man bisher über Fermi sagen kann ist, dass dies so schlecht wohl nicht gelungen ist.
svenw
2009-10-08, 10:41:08
Ich stimme mit danko überein. Nvidia fertigt das inovativere Produkt nur ob sich das gegenüber einem IMHO wirtschaftlicheren Produkt von ATI durchsetzen kann ist die Frage.
Die Frage ob Nvidia pleite geht ist unerheblich, da Nvidia im Schlimmsten Fall aufgekauft wird (z.B. von Intel falls sie sich mit den Kartellwächtern einigen können). Auch wäre es nicht begrüßenswert wenn einer der beiden GPU Fertiger Pleite geht, denn nur der beinhart Wettbewerb zwischen den beiden garantiert uns besser und billige Karten. Alles außerhalb von Nvidia und ATI ist der Erwähnung nicht wert (inklusive dem Intel Murks)
danko
2009-10-08, 10:42:01
NV stand einfach vor dem Problem, dass man LRB und RV870 mit einem Chip kontern mußte.
Ich glaube kaum das man im nächsten Jahr schon auf einen konkurrenzfähigen Larrabee reagieren muss. Es läuft sicher (wenn Nvidia nicht failed) auch in den nächsten zwei Jahren noch auf ATI vs Nvidia hinaus. Die frage ist ob Nvidia überhaupt noch Interesse am Consumermarkt hat oder ob der Fermi nicht die erste Stufe der Abkehr von selbigem bedeutet.
Die frage ist ob Nvidia überhaupt noch Interesse am Consumermarkt hat oder ob der Fermi nicht die erste Stufe der Abkehr von selbigem bedeutet.
Eine weitere Frage ist, ob im Zeitalter der Konsolen(-ports) überhaupt noch ein relevanter Consumermarkt für Grafikkarten existiert. Hast du eine, hast du im Prinzip für Jahre keinen Bedarf mehr.
Trotzdem finde ich es erstaunlich, nVidia hatte jahrelang Oberwasser und sobald AMD mal für einen Moment obenauf ist, kommen aus allen Löchern die FanATIker gekrochen und wollen das Ende aller Zeitrechnung gekommen sehen. Es gibt keine Ziellinie und GT300 kommt so sicher wie das Amen in der katholischen Kirche, kein Grund hier und allerorten endlos Threads mit Lach- und Sachgeschichten von Charlie zu eröffnen. :)
Ailuros
2009-10-08, 11:02:37
Ich glaube kaum das man im nächsten Jahr schon auf einen konkurrenzfähigen Larrabee reagieren muss. Es läuft sicher (wenn Nvidia nicht failed) auch in den nächsten zwei Jahren noch auf ATI vs Nvidia hinaus. Die frage ist ob Nvidia überhaupt noch Interesse am Consumermarkt hat oder ob der Fermi nicht die erste Stufe der Abkehr von selbigem bedeutet.
Wieso sollte NVIDIA eine Abkehr vom gaming Markt wollen? Ueberhaupt wenn Intel mit ihrem LRB nicht nur den HPC Markt sondern auch desktop mit dem Ding bedienen will. Fuer 3D braeuchte sich bei der ersten LRB Generation wohl AMD und NVIDIA wohl nicht besonders anstrengen, fuer HPC waren aber NVIDIA's gestetzte Fundamente vom GT200 viel zu schwach gegen LRB. Mit Fermi kommt das Ganze auf ein total anderes Niveau.
NVIDIA mag zwar momentan fast ein Monopol im HPC Markt zu haben aber der groesste Umsatz kommt nach wie vor von ihren desktop GPUs.
danko
2009-10-08, 11:21:16
Aber warum bemüht sich Nvidia dann nicht um bessere PR für ihre kommenden Consumerprudukte. Sie vierlieren im Moment massiv Kunden an ATI wegen ihrer Nichtinformationspolitik. Die "Vorstellung" des Fermi war ja nicht mehr als "den Massen einen kleinen Brocken vorwerfen".
Aber warum bemüht sich Nvidia dann nicht um bessere PR für ihre kommenden Consumerprudukte.
Die Produkte sind noch nicht vorgestellt.
Sie vierlieren im Moment massiv Kunden an ATI wegen ihrer Nichtinformationspolitik.
"Massiv" innerhalb von ein paar Wochen? Wohl kaum und nachhaltig auch nur, wenn GT300 und Derivate völlig in die Hose gehen sollte. Weihnachten könnte natürlich schmerzhaft werden, aber was hilft es, schlimmstenfalls verdient AMD mal für ein oder zwei Quartale ordentlich.
Ich stimme mit danko überein. Nvidia fertigt das inovativere Produkt nur ob sich das gegenüber einem IMHO wirtschaftlicheren Produkt von ATI durchsetzen kann ist die Frage.
inovativere produkt? na ich weiß nicht ich seh das die bisher beim techlevel des G80 für das Kerngebiet einer Grafikkarte stehen geblieben sind....
ich sehe eher das sie ihre produkte lieber generalisieren statt zu spezialisieren...was imho für so ein zwergunternehmen meistens schlecht endet
das kommt eher dahin das sie von allem ein bisschen machen aber nichts so richtig.....
Aber warum bemüht sich Nvidia dann nicht um bessere PR für ihre kommenden Consumerprudukte. Sie vierlieren im Moment massiv Kunden an ATI wegen ihrer Nichtinformationspolitik. Die "Vorstellung" des Fermi war ja nicht mehr als "den Massen einen kleinen Brocken vorwerfen".
Wer jetzt ne 5870 gekauft hat ist entweder ATI-Freak oder kauft auch ne Fermi-Karte, wenn sie nur schnell genug ist.
LovesuckZ
2009-10-08, 12:18:11
inovativere produkt? na ich weiß nicht ich seh das die bisher beim techlevel des G80 für das Kerngebiet einer Grafikkarte stehen geblieben sind....
Innovation ist nicht nur Hardware. Wenn man sich überlegt, dass OpenCL und DC als Minimalvorraussetzung einen G80 nehmen, dann war der G80 mit das innovativste, was wir in den letzten Jahren hatten.
svenw
2009-10-08, 13:18:10
Wer jetzt ne 5870 gekauft hat ist entweder ATI-Freak oder kauft auch ne Fermi-Karte, wenn sie nur schnell genug ist.
Wenn sie denn zu bekommen ist. Nvidia wird IMHO das Weihnachtsgeschäft nicht schaffen und ob die Fermi Architektur so gut skaliert das sie im Performance Bereich und darunter ATI Paroli bieten kann, muß sich erst zeigen. Schon der Preis für die 5870 ist die Schmerzgrenze für viele und Fermi wird sicher noch ein Stück darüber liegen. Gar nicht davon zu reden das mit dem großen Fermi wohl keine 2 Chip Karte vernünftig zu bauen ist, weil die Abwärme aus dem Ruder läuft und man ansonsten den Takt soweit runter drehen muß, das die Chips für die Leistung zu teuer werden. Schon ATI hat massive Probleme mit den Temperaturen bei der X2.
IMHO macht aTI es momentan richtig, wenn sie z.B. Probleme wie Mikroruckler mehr oder weniger ignorieren. Die Gruppe die es betrifft ist so klein, das sich da große Änderungen kaum lohnen. Denn die leute im 3D Forum sind sicher nicht respresentativ.
stillontop
2009-10-08, 13:46:04
Ich denke die Panikmache ist eher unberechtigt und soll über andere Tatsachen hinwegtäuschen. Wie schon einige Photoshopeffekte wird sich auch der bald erscheinende Adobe Flashplayer 10.1 effektiv mit nVidia GPU's beschleunigen lassen und ist für Developer bereits in CS5 inkludiert, der Verbreitungsgrad des Flashplayers von >95% auf Desktoprechnern sollte bekannt sein.
Wann damit Millionen von Leuten "for free" einen gewaltigen Performancesprung in Flash basierten Anwendungen erfahren ist nur noch eine Frage der Zeit. Hier sehe ich eine größere Gefahr für AMD.
Dementi: Nvidia zieht sich nicht aus dem High-End-Markt zurück (http://www.pcgameshardware.de/aid,696921/Dementi-Nvidia-zieht-sich-nicht-aus-dem-High-End-Markt-zurueck/Grafikkarte/News/)
Und jetzt hört bitte auf, hirnlose Hassprediger wie Charlie ernst zu nehmen.
MfG,
Raff
Tarkin
2009-10-08, 14:04:44
Irgendwie logisch dass die das sagen, oder? :tongue:
Dural
2009-10-08, 14:13:02
Ja ist logisch und der Fermi kommt wohl erst in 10Jahren auf den Markt, logisch!!!
Wir können jetzt nur noch ATI karten kaufen, ist logisch :freak:
Wisst ihr was ich würde mich rissig freuen wenn Fermi schon früher kommt als erwartet und ein schlägt wie ne Bombe, gewisse User würden sich dann noch das kleinste ding raus suchen wie zb. "meine 5870 braucht aber weniger (auch wenn es nur 20Watt sein sollten...) strom, Fermi ist nicht mehr zeit gemäss" das ist dann nur noch der purre neid lol
Sefegiru
2009-10-08, 14:21:03
Warum zeigt ihr nicht den Originalwortlaut? So wirkt es doch auch nur als die haben gesagt....
Dementi: Nvidia zieht sich nicht aus dem High-End-Markt zurück (http://www.pcgameshardware.de/aid,696921/Dementi-Nvidia-zieht-sich-nicht-aus-dem-High-End-Markt-zurueck/Grafikkarte/News/)
Und jetzt hört bitte auf, hirnlose Hassprediger wie Charlie ernst zu nehmen.
MfG,
Raff
Das gabs schon gestern bei Heise zu lesen...
Ailuros
2009-10-08, 14:57:32
Das gabs schon gestern bei Heise zu lesen...
.....und bei techreport usw und so fort.
YfOrU
2009-10-08, 15:06:32
Wer jetzt ne 5870 gekauft hat ist entweder ATI-Freak oder kauft auch ne Fermi-Karte, wenn sie nur schnell genug ist.
Problematisch für Nvidia sehe ich eher die 57XX. Das werden die typischen Multimediamarkt Karten und mit deren Checkliste lässt sich eine halbe Katalogseite bepflastern. Natürlich mit Win 7. Von diesen werden die OEMs zum Weihnachtsgeschäft so viele verbauen wie sie in die Finger bekommen können.
Problematisch für Nvidia sehe ich eher die 57XX. Das werden die typischen Multimediamarkt Karten und mit deren Checkliste lässt sich eine halbe Katalogseite bepflastern. Natürlich mit Win 7. Von diesen werden die OEMs zum Weihnachtsgeschäft so viele verbauen wie sie in die Finger bekommen können.
Volle Zustimmung.
Botcruscher
2009-10-08, 15:16:37
http://hardocp.com/news/2009/10/07/nvidia_abandons_market6363636363
"There is no truth to this. Charlie has become a sponsored site of his sole advertiser. It's no coincidence his website looks like an AMD ad."
Und nun erläutert mir jemand stichhaltig welche Vorteile AMD durch diese "News" hätte. Die OEMs beeindruckt der Quark schon mal gar nicht, die sitzen eh an der Quelle. Die Händler? Die Verkaufen eh was da ist... Die Kunden? Mit was? Die Spiele Entwickler... sicher...
AMD hat einfach keine Vorteile aus dem Müll. Also bleiben noch die Werbeeinnahmen einer gewissen Seite. Wenn es wenig News gibt muss halt etwas anderes her. Also flux eine tolle Story erfunden welche alle Fanboys so richtig fesselt. Alleine die Qualität der Antwort und das Gästegebrüll zeigt doch den durchschlagenden Erfolg.
Wer jetzt ne 5870 gekauft hat ist entweder ATI-Freak oder kauft auch ne Fermi-Karte, wenn sie nur schnell genug ist.
Wieso? Ohne Deppenaufschlag ist es eine schöne Karte zu einem ansprechenden Preis.
Problematisch für Nvidia sehe ich eher die 57XX. Das werden die typischen Multimediamarkt Karten und mit deren Checkliste lässt sich eine halbe Katalogseite bepflastern. Natürlich mit Win 7. Von diesen werden die OEMs zum Weihnachtsgeschäft so viele verbauen wie sie in die Finger bekommen können.
Zu dem Preis ganz sicher. AMD muss nur Liefern können.
Sefegiru
2009-10-08, 15:16:49
Ja da schreiben alle da sie es nicht tun aber keiner zeigt eine echte Pressemitteilung. Ich persönlich glaube ja auch nicht das sie es tun, wäre imho ihr Untergang aber ein eindeutiges Dementi sieht anders aus.
Botcruscher
2009-10-08, 15:25:39
Was hat das mit Glauben zu tun? NV ist gut aufgestellt und die Nachricht einfach nur Schwachsinn. Das bedauerliche daran sind eher die üblichen Grabenkämpfe der User.
Sie sollen eine *Pressemitteilung* rausgeben weil ein dahergelaufener gekaufter Charlie so einen Stuss zusammenschreibt? Nicht dein Ernst.
Ailuros
2009-10-08, 15:31:23
http://www.fudzilla.com/content/view/15882/1/
YfOrU
2009-10-08, 15:55:37
Wie schon einige Photoshopeffekte wird sich auch der bald erscheinende Adobe Flashplayer 10.1 effektiv mit nVidia GPU's beschleunigen lassen und ist für Developer bereits in CS5 inkludiert, der Verbreitungsgrad des Flashplayers von >95% auf Desktoprechnern sollte bekannt sein.
Wann damit Millionen von Leuten "for free" einen gewaltigen Performancesprung in Flash basierten Anwendungen erfahren ist nur noch eine Frage der Zeit. Hier sehe ich eine größere Gefahr für AMD.
http://www.tomshardware.com/news/amd-ati-flash-adobe-gpu,8800.html
Both Adobe and AMD worked with the DirectX 11 API's compute shader and ATI Stream technology to accelerate Flash performance with the GPU.
Bedenken hab ich eher bei den Intel IGPs. Gerade für die Netbooks wäre das ein wichtiger Schritt.
Was hat das mit Glauben zu tun? NV ist gut aufgestellt und die Nachricht einfach nur Schwachsinn. Das bedauerliche daran sind eher die üblichen Grabenkämpfe der User.
Naja so wirklich "toll" aufgestellt sind sie nun auch wieder nicht.
Die GT200-Karten verschwinden wegen dem nahenden Fermi, fertig.
Aber es wird jetzt erstmal eine Durststrecke für NVidia geben.
StefanV
2009-10-08, 19:45:54
Wer jetzt ne 5870 gekauft hat ist entweder ATI-Freak oder kauft auch ne Fermi-Karte, wenn sie nur schnell genug ist.
Wie kommst du zu dem Schluss?!
Und warum sollt man unbedingt 'ne nV Karte haben wollen??
Und warum sollt man unbedingt 'ne nV Karte haben wollen??
Gescheite Treiberprofile und Transparenz bei den Treibereinstellungen (Stichwort A.I.). Das vermiss ich auf meiner 4870 schon immer und ist für mich der Hauptgrund wieder eine NVIDIA zu wollen. Ich lass mich sehr ungern bevormunden.
Die Filterqualität ist offenbar nicht mehr so schlimm auf den ATIs, auch wenn ich es noch nicht live gesehen habe.
StefanV
2009-10-08, 19:56:26
So und jetzt sei mal jemand, der nicht den ganzen Tag irgendwelche 3D Anwendungen benutzt und/oder 'ne 9800GTX(+) im Rechner hat.
Bei ersterem kanns z.B. vorkommen, das bei bestimmten Treiberversionen das Bild von einem Video einfach stehen bleibt.
Bei letzterem wird der Lüfter zwar hoch geregelt, aber nicht wieder runter.
Und dann gibts wohl bei manchen GTXen das Problem, das 'auf einmal' auf den DVD/BD Takt zurückgetaktet wird und das bis zum Neustart so bleibt.
Warum möchtest du nochmal 'ne nV Karte haben? ;)
Warum möchtest du nochmal 'ne nV Karte haben? ;)
Weil ich solche Probleme nie hatte und sie auch nicht erwarte wenn ich eine Fermi-Karten kaufen würde.
danko
2009-10-08, 22:38:28
Also nüchtern betrachtet hat ATI/AMD mit den HD58XX Nvidia ganz kräftig ans Bein gepinkelt. Und auch nüchtern betrachtet hat Nvidia als Anwort darauf selbst optimistisch gesehen nur dürftige Infos zur neuen Serie geliefert. Keine Benchmarks als Konter ja eigentlich haben sie bisher nur davon geredet wie toll der Fermi für GPGPU geeignet ist. Das sind aber nicht die Infos die Spieler erwarten. Also genaugenommen kennen wir bisher nur die techn. Eckdaten. Ich könnte mir ja fast vorstellen das der vorgestellte Fermi viel weniger mit der noch folgenden Grafikkarte für Gamer gemein hat als bisher angenommen. Nvidia wird gerade auch von den Fanboys mit einer extremen Erwartungshaltung unter Druck gesetzt. Also nur etwas schneller als ATIs 5870 wird wohl den meisten nicht genügen und Nvidia kann sich auch kein zweites Mal einen so extremen Preiskampf leisten. Der "Neue" muss also für Nvidia zumindest ebenso wirtschaftlich sein wie für ATI der HD58xx.
LovesuckZ
2009-10-08, 22:43:16
Nvidia kann sich auch kein zweites Mal einen so extremen Preiskampf leisten. Der "Neue" muss also für Nvidia zumindest ebenso wirtschaftlich sein wie für ATI der HD58xx.
Interessant, hätte nVidia in 2Q.2008 und 2Q.2009 nicht wegen ihrer Fertigung Sonderausgaben durchführen müssen, hätten sie in 2 von 4 Quartalen Gewinn erwirtschaftet.
Bitte erstmal die Fakten aneignen, bevor du mit deinem Halbwissen Unwahrheiten schreibst.
1. Da haben die Jungs es sich auch schöngerechnet und auch normale Gehaltsbestandteile wie Aktienoptionen als "einmalige Zahlung" mit eingerechnet.
2. Nvidia hat mit Tesla/Quadro einen Geschäftsbestandteil der von der aktuellen Situation noch wenig betroffen ist. Da kann ein Chip gerne teuer in der Herstellung sein, die Margen sind trotzdem riesig. Zudem hilft "noch" das Chipsatzgeschäft ordentlich mit, das aber binnen weniger Monate den Bach runtergehen wird.
3. In den Quartalen konnten sie quersubventionieren und hatte noch den Highendbereich und auch die restlichen Preise bis G92 waren noch nicht so unter Wasser wie sie jetzt sind.
Damals stand noch rv7XX gegen G200 und G92
Jetzt steht rv8XX gegen G200 und G92 (die 40nm mini OEM Karten sehe ich nicht als relevant an)
Bis jetzt sind höchstens mini Stückzahlen eines extrem teuren G300 bis Jahresende zu erwarten. Der normale Highend und Midrangebereich wird die nächsten Monate vollständig ATI gehören.
Außerdem wollen wir mal sehen oder der super duper gpu compute chip von NV wirklich soviel schneller wird als eine 5870. Das man kurzfristig das Speicherinterface eingeschränkt hat, bedeutet ja nichts anderes als man das 512er nicht auslasten konnte und auch von einem 384er nicht ausgebremst wird, während die 5870 mit 256er am limit rennt -> so viel performance + wird bei NV nicht vorhanden sein, erst recht nicht genug um eine 5870X2 zu gefährden.
Außerdem wollen wir mal sehen oder der super duper gpu compute chip von NV wirklich soviel schneller wird als eine 5870.
Bis nV das Ding auf dem Markt hat tritt der gegen eine 5890 an, das ist mal sowas von sicher bei dem Taktpotential das der Cypress jetzt schon nachweist.
Wird schwer für nV sich da wirklich so weit abzusetzen dass der vermutete saftige Mehrpreis gerechtfertigt ist. Zweites "GT200 Desaster" Ahoi...
Sie sollen eine *Pressemitteilung* rausgeben weil ein dahergelaufener gekaufter Charlie so einen Stuss zusammenschreibt? Nicht dein Ernst.
Dementi: Nvidia zieht sich nicht aus dem High-End-Markt zurück (http://www.pcgameshardware.de/aid,696921/Dementi-Nvidia-zieht-sich-nicht-aus-dem-High-End-Markt-zurueck/Grafikkarte/News/)
Und jetzt hört bitte auf, hirnlose Hassprediger wie Charlie ernst zu nehmen.
MfG,
Raff
Soviel zu den Dementies von den ach so glaubwürdigen NV Gurus.
http://www.tweakpc.de/news/16955/geforce-gtx-285-ist-eol/
mapel110
2009-10-09, 08:22:16
Mit einem Shop-Link und angeblichen Nachfragen bei "diversen Shops" bestätige ich dir auch, dass die 5870 von ATI EOL ist. :|
danko
2009-10-09, 08:27:25
Bitte erstmal die Fakten aneignen, bevor du mit deinem Halbwissen Unwahrheiten schreibst.
Das kann ich gern zurückgeben.
Erst mit dem GT200b und dem Wechsel zum 55nm Prozess hatte Nvidia überhaupt die Chance in die Gewinnzone zu rutschen. Aber wie lange haben sie bis dahin mit dem GT200 Miese gemacht?
Das darf Nvidia nicht wieder passieren. Der Neue Chip muss von Anfang an wirtschaftlich herzustellen sein.
Grestorn
2009-10-09, 08:28:38
Das kann ich gern zurückgeben.
Erst mit dem GT200b und dem Wechsel zum 55nm Prozess hatte Nvidia überhaupt die Chance in die Gewinnzone zu rutschen. Aber wie lange haben sie bis dahin mit dem GT200 Miese gemacht?
Vertrauenswürdige(!) Quelle für diese Behauptung?
Wie kommst du zu dem Schluss?!
Und warum sollt man unbedingt 'ne nV Karte haben wollen??
Sage ich, dass iman ne NV Karte braucht? Aber wer den Early Adopter Aufschlag zahlt, ist meist jemand, der öfters Karten kauft. Und oft sind es eben auch Leistungsfreaks, die immer die schnellste Karte haben müssen.
Ich sehe übringes keinen guten Grund eine NV Karte zu kaufen.
Schlammsau
2009-10-09, 08:37:28
Schaut euch mal die verfügbarkeit der 285/1024MB an:
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=GTX+285&asd=on&v=k&pixonoff=on&bl1_id=100&xf=
Da sind in der Tat, die HD5000 besser lieferbar!
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=5870&asd=on&v=k&pixonoff=on&filter=+Liste+aktualisieren+&xf=
Ich denke mittlerweile schon, dass an dem Gerücht etwas wahres dran ist. Die GTX285 scheint wirklich EOL zu sein!
Wer soll auch noch ne 285 kaufen seit die 5870/5850 am MArkt sind?
Schlammsau
2009-10-09, 08:40:14
Wer soll auch noch ne 285 kaufen seit die 5870/5850 am MArkt sind?
nVidia Fanboys!?
Grestorn
2009-10-09, 08:42:43
nVidia Fanboys!?
Ach so. Dann haben also zu G80 Zeiten nur ATI Fanyboys noch die vielen ATI Karten gekauft. Mannomann.
Undertaker
2009-10-09, 08:43:20
Es wurde doch schon bestätigt, dass die aktuellen Engpässe der 55nm Karten sowohl bei ATI als auch NVidia andere Gründe haben...?
Schlammsau
2009-10-09, 08:47:00
Es wurde doch schon bestätigt, dass die aktuellen Engpässe der 55nm Karten sowohl bei ATI als auch NVidia andere Gründe haben...?
Und warum ist dann zB eine 4890 noch so gut lieferbar?
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=4890&asd=on&v=k&pixonoff=on&filter=+Liste+aktualisieren+&xf=
svenw
2009-10-09, 08:47:14
Das Nvidia die 285er Produktion einstellt ist extrem unwahrscheinlich. So ein Unternehmen muß einen gewissen Cash-Flow generieren um zu überleben, die können nicht einfach den Laden zumachen. Außerdem bedeutet selbst ein Minus nicht, das es sich nicht lohnt die Chips weiter zu produzieren, denn man muß immer einrechnen das Nvidia auch laufende Kosten hat die nicht mit der direkten Produktion zusammenhängen, die also selbst bei einem Stop weiterlaufen. Somit liefert selbst eine Karte die mit Minus verkauft wird einen Beitrag zur Kostendeckung.
Außerdem muß man daran denken, das solche Aktionen massive negative Auswirkungen auf die Board Partner haben, was sich dann meist auf die nächsten Einkaufspreise niederschlägt. Ich gehe mit Heise konform, das sich Nvidia schlicht beim Bedarf verkalkuliert hat. 3-4 Monate den Markt komplett der Konkurrenz zu überlassen kann sich kein Unternehmen leisten, denn vor Ende Januar/Anfang Februar wird der Fermi selbst im besten Fall nicht in Massen auf dem Markt sein können. Und aktuell bedeutet jeder eingenommene Dollar einen Dollar weniger Verlust.
Schlammsau
2009-10-09, 08:53:00
Ach so. Dann haben also zu G80 Zeiten nur ATI Fanyboys noch die vielen ATI Karten gekauft. Mannomann.
Als ob zu G80 Zeiten soooo viele Radeons gekauft wurden. :freak:
ATi war lange Zeit nVidia unterlegen, und konnte nur durch den Preis kontern! Und deswegen wurden überhaupt ATis gekauft, durch den Preis!
Grestorn
2009-10-09, 09:13:47
Als ob zu G80 Zeiten soooo viele Radeons gekauft wurden. :freak:
ATi war lange Zeit nVidia unterlegen, und konnte nur durch den Preis kontern! Und deswegen wurden überhaupt ATis gekauft, durch den Preis!
ATI hat vielleicht weniger verkauft, dennoch waren bei weitem nicht alle Kunden Fanboys. Das ist absoluter Quatsch. So viele Schlammsäue gibt's nicht.
Schlammsau
2009-10-09, 09:15:16
ATI hat vielleicht weniger verkauft, dennoch waren bei weitem nicht alle Kunden Fanboys. Das ist absoluter Quatsch. So viele Schlammsäue gibt's nicht.
Ich und ein Fanboy? Wer hatte vor kurzem noch eine GTX275 im Rechner????
Ich symphatisiere eher mit ATi als nVidia - das stimmt!
Grestorn
2009-10-09, 09:17:25
Ich und ein Fanboy? Wer hatte vor kurzem noch eine GTX275 im Rechner????
Ne, Du bist natürlich kein Fanboy. Wie kann man denn nur auf diesen absurden Gedanken kommen.
Mark3Dfx
2009-10-09, 09:17:41
Wer soll auch noch ne 285 kaufen seit die 5870/5850 am MArkt sind?
Zumal die 275 mit 1792MB für 200€ lieferbar ist.
http://geizhals.at/deutschland/a439721.html
Schlammsau
2009-10-09, 09:20:31
Ne, Du bist natürlich kein Fanboy. Wie kann man denn nur auf diesen absurden Gedanken kommen.
Denk doch was du willst! ;)
Undertaker
2009-10-09, 10:01:01
Und warum ist dann zB eine 4890 noch so gut lieferbar?
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=4890&asd=on&v=k&pixonoff=on&filter=+Liste+aktualisieren+&xf=
Die GTX260 und GTX275 doch auch? Selbst die GTX285 ist bei knapp 60 Händlern lieferbar, und besitzt als teuerste der aktuellen Single-GPUs (RV870 außen vor) mit Sicherheit die kleinsten Lagerbestände.
reunion
2009-10-09, 10:11:42
Die GTX260 und GTX275 doch auch? Selbst die GTX285 ist bei knapp 60 Händlern lieferbar, und besitzt als teuerste der aktuellen Single-GPUs (RV870 außen vor) mit Sicherheit die kleinsten Lagerbestände.
Also da muss man schon ganz schön aufrunden das man 60 Händler zuammenbringt: http://geizhals.at/deutschland/?cat=gra16_512&sort=artikel&bpmax=&asuch=&v=l&pixonoff=on&bl1_id=100&xf=891_GeForce+GTX+285
Die GTX285 2048MB ist ohnehin als reines Papierprodukt zu bezeichnen. Es ist offensichtlich das NV warum auch immer keine GTX285-Chips mehr ausliefert. Die Lieferbarkeit bei den Shops wird fast täglich schlechter.
Schlammsau
2009-10-09, 10:14:17
Die GTX260 und GTX275 doch auch? Selbst die GTX285 ist bei knapp 60 Händlern lieferbar, und besitzt als teuerste der aktuellen Single-GPUs (RV870 außen vor) mit Sicherheit die kleinsten Lagerbestände.
Wos?
http://geizhals.at/deutschland/?cat=gra16_512&sort=p&bpmax=&asuch=GTX+285&asd=on&v=k&pixonoff=on&bl1_id=100&xf=
http://www.abload.de/img/1212wmv9.jpg
Schau dir das man im Vergleich zur 4890 an:
http://www.abload.de/img/1212988p.jpg
Es wurde doch schon bestätigt, dass die aktuellen Engpässe der 55nm Karten sowohl bei ATI als auch NVidia andere Gründe haben...?
Was heisst da "bestätigt"? Es wurde behauptet. Ob man dem grünen Propagandaminister glaubt oder eigene Schlüsse zieht bleibt jedem selbst überlassen...
puntarenas
2009-10-09, 10:23:54
Ich kann mir nicht vorstellen, dass sich irgendwer mit Verstand für eine GTX285 zu mittlerweile aberwitzigen 300€ interessiert, es sei denn er bastelt ein verspätetes SLI-System und Geld spielt keine Rolle.
Die GTX275 ist in der 896MB und 1792MB Variante lieferbar (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=441326), die GTX285 dient mit ihrem Scherzpreis IMHO lediglich dazu, sie im hauseigenen Portfolio attraktiver erscheinen zu lassen. Nimmt man die Lieferschwierigkeiten mit rein, werden wohl auch nicht so schnell neue 285er nachkommen. Wenn die angeblich überraschend hohe Nachfrage (sehr relativ sowas) zutrifft, könnte es natürlich auch dort zu Engpässen kommen, wenn alle Welt zu AMD rennt oder abwartet, eher nicht.
Was war nochmal das Thema? Künstliche Knappheit um lieber nichts zu verkaufen, als zu geringen Margen im Wettstreit mit der günstigen HD5850? Quatsch! :smile:
Undertaker
2009-10-09, 10:27:18
http://geizhals.at/deutschland/?cat=gra16_512;v=k;sort=artikel&xf=891_GeForce+GTX+285
OK, es sind nicht 60 sondern 56, wenn ich mich nicht verzählt habe. ;) Und GTX260 und GTX275 sind wie erwähnt noch besser lieferbar.
Was heisst da "bestätigt"? Es wurde behauptet. Ob man dem grünen Propagandaminister glaubt oder eigene Schlüsse zieht bleibt jedem selbst überlassen...
Wenn Nvidia sagt, die Karten werden weiter produziert, dann wird das so sein. Was hat das mit Propaganda zu tun? Übrigens nicht nur Nvidia:
"Auch Boardpartner des Chipherstellers konnten ein Auslaufen der Produktion der genannten GeForce-Karten auf Nachfrage ebenfalls nicht bestätigen. Nvidia könne derzeit nicht ausreichend Grafikchips an die Boardpartner liefern, teilte Gigabyte mit. Grafikchips für die GeForce GTX 275 seien nach aktuellem Informationsstand lediglich bis Mitte November von einem Lieferengpass betroffen. Auch Gainward und Zotac wussten nichts vom vermeintlichen Ende der Produktion" (http://www.heise.de/newsticker/meldung/Nvidia-raeumt-Lieferengpaesse-bei-High-End-Chips-ein-816953.html)
AnarchX
2009-10-09, 10:34:22
http://geizhals.at/deutschland/?cat=gra16_512;v=k;sort=artikel&xf=891_GeForce+GTX+285
OK, es sind nicht 60 sondern 56
Wobei die Hälfte der lieferbaren Karte eine MSI mit vormontiertem WaKü ist.:D
Undertaker
2009-10-09, 10:39:06
Tjo, die GPU ist ja deswegen die Gleiche ;) Mit einem offiziellen Dementi von Nvidia und mehreren Boardpartnern, zudem der gleichen Problematik bei ATI (nur gibt es da anscheinend noch höhere Lagerbestände), kann man diese Theorie nun mittlerweile getrost abhaken.
reunion
2009-10-09, 10:44:08
http://geizhals.at/deutschland/?cat=gra16_512;v=k;sort=artikel&xf=891_GeForce+GTX+285
OK, es sind nicht 60 sondern 56, wenn ich mich nicht verzählt habe. ;) Und GTX260 und GTX275 sind wie erwähnt noch besser lieferbar.
Ja lol, eine MSI mit Wakü, die kaum jemand gebrauchen kann wird von 26 Shops als lagernd beim Distributor angegeben. Logisch das die dort (noch immer) lagert, kauft ja auch niemand. Ein einziger Shop hat sie übrigens wirklich auf Lager, um lächerlich 435,53€: http://geizhals.at/deutschland/?a=428799&t=alle&plz=&va=b&vl=de&v=l#filterform
An meine Aussage ändert das gar nichts, der Nachschub ist nicht vorhanden.
Schlammsau
2009-10-09, 10:46:13
Tjo, die GPU ist ja deswegen die Gleiche ;) Mit einem offiziellen Dementi von Nvidia und mehreren Boardpartnern, zudem der gleichen Problematik bei ATI (nur gibt es da anscheinend noch höhere Lagerbestände), kann man diese Theorie nun mittlerweile getrost abhaken.
Lol.....das liegt nur daran, dass sie aberwitzig teuer und deswegen nicht verkauft wird. Alle anderen Karten sind nur bei 1 oder 2 Shops lieferbar.
Sorry aber.....;D
Undertaker
2009-10-09, 10:46:56
Hört mal, wohin soll das jetzt führen? Eine Einstellung ist unabhängig von verschiedenen offiziellen Stellen dementiert worden. Die Ursache für die "Knappheit" - wenn man denn bei 56 Karten davon sprechen möchte -, ist bekannt, betrifft ATI genauso, kommt aber bei GTX260/275 und HD4870/4890 durch höhere Lagerbestände (noch) nicht zum tragen. Die Lage ist doch nun wirklich so klar, dass man diese Mist von Charlie endgültig ins Nirvana schicken kann.
reunion
2009-10-09, 10:52:38
Hört mal, wohin soll das jetzt führen? Eine Einstellung ist unabhängig von verschiedenen offiziellen Stellen dementiert worden. Die Ursache für die "Knappheit" - wenn man denn bei 56 Karten davon sprechen möchte -, ist bekannt, betrifft ATI genauso, kommt aber bei GTX260/275 und HD4870/4890 durch höhere Lagerbestände (noch) nicht zum tragen. Die Lage ist doch nun wirklich so klar, dass man diese Mist von Charlie endgültig ins Nirvana schicken kann.
Der Mist von Charly ist mir vollkommen egal. Das Problem ist das du wie ein trotziges Kind einfach Dinge ignorierst die dir nicht passen. Fakt ist das die GTX285 und nur die GTX285 kaum mehr zu bekommen ist und wenn dann zu völlig überhöhten Preisen. Da kannst du noch so oft mit deinen 56 Shops ankommen, das ist einfach Blödsinn. Da hilft es auch nicht sich dumm zu stellen. Da hat der Distributor vielleicht fünf Karten der schwer verkäuflichen MSI mit Wakü auf Lager und alle Shops schreiben lagernd bei Distributor. Nur ein Shop hat sie vor Ort. Und nein, das betrifft momentan weder GTX260/275 noch HD4870/4890.
Undertaker
2009-10-09, 10:58:15
In diesem Tonfall ist die Diskussion hiermit beendet. :wink: Akzeptiere, was offiziell bestätigt wurde, oder lass es bleiben und mal dir deine eigene, rote Welt.
reunion
2009-10-09, 11:02:36
In diesem Tonfall ist die Diskussion hiermit beendet. :wink: Akzeptiere, was offiziell bestätigt wurde, oder lass es bleiben und mal dir deine eigene, rote Welt.
Es gibt schon lange nichts mehr zu diskutieren, leider bist die Faktenresistent. Erbärmlich, mehr nicht. Aber du kannst ja gerne weiter von deinen 56 Shops in deiner grünen Welt träumen. Was offiziell bestätigt wurde habe ich nie bestritten.
LOL, noch müssen wir nV Behauptungen nicht einfach glauben sondern können das eigene Hirn benutzen und eigene Schlussfolgerungen ziehen...
Sefegiru
2009-10-09, 11:05:41
Ja ich bleibe dabei das wenn etwas im Internetdschungel für so viel Gerede sorgt man ein ordentliches Dementi rausgibt und nicht sagt: "hey wir haben mit denen gemailt und die sagen alles bubu was der böse charlie schreibt"
Sollen sich nicht so viel mit der blödsinnigen Batman AA Diskussion und Dummys schrauben befassen sondern einfach mal ein paar nette Zeilen veröffentlichen. Kann doch nicht so schwer sein wenn wirklich nichts dran ist.
Genauso wenig brauchen sie das über ihre bezahlten Schreiberlinge im Netz tun, sondern hochoffiziell. Wo ist das Problem? Meine Meinung ist die das man entweder sagt man kommentiert gar nichts offiziell, dann aber auch solche Batman AA Diskussionen, oder eben alles!
Das gilt übrigens für sämtliche IT Bastelstuben.
Undertaker
2009-10-09, 11:06:19
LOL, noch müssen wir nV Behauptungen nicht einfach glauben sondern können das eigene Hirn benutzen und eigene Schlussfolgerungen ziehen...
Lies mal die Heise Meldung, die Bestätigung erfolgte unabhängig von mehreren Boardpartnern. ;) Leider wollen das manche nicht einsehen.
Dural
2009-10-09, 11:24:32
wie kann man eigentlich fast 10 Seiten lang über so ein sinnloses Thema schreiben?
AnarchX
2009-10-09, 11:29:28
Wie schon erläutert wollte Nvidia zum geplanten Fermi-Launch nicht wieder auf unverkäuflichem Inventory sitzen, wie es bei G80 zum G92-Launch der Fall war.
Weswegen langfristig die Produktion in Richtung Q4 2009 heruntergefahren wurde.
Die GTX 285 ist wohl hier nun stärker betroffen, da man hier einen doch relativ guten 55nm Die benötigt um die Leistung bei 183W TDP zu liefern.
Bei einer GTX 275(215W TDP) und GTX 260(183W TDP) kann man sich mit schlechteren Dies begnügen und greift teils wohl auch noch auf vorhandenes 65nm Inventory zurück.
Das dies für Charlie reicht daraus eine Untergangsvision für High-End-GeForce zu stricken ist nicht verwunderlich, schon auf geringerer Basis hat er hat schon Schwarzmalerei für NV betrieben.
reunion
2009-10-09, 11:31:07
Wie schon erläutert wollte Nvidia zum geplanten Fermi-Launch nicht wieder auf unverkäuflichem Inventory sitzen, wie es bei G80 zum G92-Launch der Fall war.
Weswegen langfristig die Produktion in Richtung Q4 2009 heruntergefahren wurde.
Die GTX 285 ist wohl hier nun stärker betroffen, da man hier einen doch relativ guten 55nm Die benötigt um die Leistung bei 183W TDP zu liefern.
Bei einer GTX 275(215W TDP) und GTX 260(183W TDP) kann man sich mit schlechteren Dies begnügen und greift teils wohl auch noch auf vorhandenes 65nm Inventory zurück.
Das dies für Charlie reicht daraus eine Untergangsvision für High-End-GeForce zu stricken ist nicht verwunderlich, schon auf geringerer Basis hat er hat schon Schwarzmalerei für NV betrieben.
Amen. Das ist auch für mich der einzig plausible Grund.
RoNsOn Xs
2009-10-09, 11:45:45
Lies mal die Heise Meldung, die Bestätigung erfolgte unabhängig von mehreren Boardpartnern. ;) Leider wollen das manche nicht einsehen.
dagegen steht immer noch die andere anfrage
http://www.tweakpc.de/news/16955/geforce-gtx-285-ist-eol/
Tarkin
2009-10-09, 12:06:08
Wie schon erläutert wollte Nvidia zum geplanten Fermi-Launch nicht wieder auf unverkäuflichem Inventory sitzen, wie es bei G80 zum G92-Launch der Fall war.
Weswegen langfristig die Produktion in Richtung Q4 2009 heruntergefahren wurde.
Die GTX 285 ist wohl hier nun stärker betroffen, da man hier einen doch relativ guten 55nm Die benötigt um die Leistung bei 183W TDP zu liefern.
Bei einer GTX 275(215W TDP) und GTX 260(183W TDP) kann man sich mit schlechteren Dies begnügen und greift teils wohl auch noch auf vorhandenes 65nm Inventory zurück.
Das dies für Charlie reicht daraus eine Untergangsvision für High-End-GeForce zu stricken ist nicht verwunderlich, schon auf geringerer Basis hat er hat schon Schwarzmalerei für NV betrieben.
Die Frage ist, was passiert wenn Fermi sich weiter verspätet... das kann übel in die Hose gehen.
Zur Verteidigung von Charlie... http://www.theinquirer.net/inquirer/news/1021993/nvidia-chipsets-dead
geschrieben im Okt. 2008.
Charlies Schreibe mag etwas "scharf" sein... ganz unrecht hat er aber dann wohl doch nicht (auch bzgl. "Bump Gate" usw.).
Also sich hinzustellen und zu sagen "LOL, der schon wieder ... den braucht man eh nicht ernst nehmen... er ist sowieso ein Depp" - da wäre ich etwas vorsichtig.
AnarchX
2009-10-09, 12:15:22
Die Frage ist, was passiert wenn Fermi sich weiter verspätet... das kann übel in die Hose gehen.
Dann hat man wohl entsprechend wieder höhere Bestellungen bei TSMC abgegeben, wodurch die GTX 285 wieder in Zukunft besser verfügbar sein sollte.
Und das 2010/11er-Desktop/Netbook-Plattformen keine lebensfähige Umgebung für NV-Chipsätze darstellen, war schon länger klar.
Aber tot ist NVs Chipsatzsparte noch lange nicht, die Märkte verschieben sich nun eben (Ion1/2, Tegra) und dort wo der CPU-IGP nicht ausreicht, hat Nvidia eine Chance für ihre dedizierten GPUs, für die man nicht umsonst eine große Auswahl an Software schafft.
LovesuckZ
2009-10-09, 12:51:14
Und das 2010/11er-Desktop/Netbook-Plattformen keine lebensfähige Umgebung für NV-Chipsätze darstellen, war schon länger klar.
Aber tot ist NVs Chipsatzsparte noch lange nicht, die Märkte verschieben sich nun eben (Ion1/2, Tegra) und dort wo der CPU-IGP nicht ausreicht, hat Nvidia eine Chance für ihre dedizierten GPUs, für die man nicht umsonst eine große Auswahl an Software schafft.
Das ist richtig. Sie werden noch im ganzen Jahr 2010 massiv viel mit ION verdienen. Erst danach werden sie es zu spüren bekommen. Also hat Charlie über etwas geschrieben, dass erst drei Jahre später eintreffen wird. :freak:
Dann hat man wohl entsprechend wieder höhere Bestellungen bei TSMC abgegeben, wodurch die GTX 285 wieder in Zukunft besser verfügbar sein sollte.
Und wer soll die DX10 Karte für ~300 Euros kaufen ?
Da müssen sie mit den Preis runter, damit bliebe wg. den teuren 512bit Platinen aber nicht mehr viel Gewinn über ...
@LovesuckZ:
Schon mal was von mittel/langfristiger Planung gehört ?
Die paar ION chipsets sind keine neuen Chipsätze, das sind wiederverwertete FSB Alt-Designs. Neue HTr oder QPI chipsätze gibts nicht.
Bin da auf Tarkins Seite .. der Ton mag "un-nett" sein, aber das Thema ist nicht (total) an den Haaren herbeigeredet.
AnarchX
2009-10-09, 13:13:05
Und wer soll die DX10 Karte für ~300 Euros kaufen ?
Da müssen sie mit den Preis runter, damit bliebe wg. den teuren 512bit Platinen aber nicht mehr viel Gewinn über ...
Bei einer GTX 260 für 120-130€ ist da sicherlich noch ein bisschen Potential, natürlich kann sich Nvidia nicht auf einen endlosen Preiskampf mit AMDs Evergreen einlassen, aber verbliebene Kunden wird man wohl schon bedienen können.
Und Fermi in verringerter Form sollte ja auch nicht so fern sein, wenn Nvidia das GT212-Team schon 2008 abgezogen hat für ein neues Projekt.
@LovesuckZ:
Schon mal was von mittel/langfristiger Planung gehört ?
Die paar ION chipsets sind keine neuen Chipsätze, das sind wiederverwertete FSB Alt-Designs. Neue HTr oder QPI chipsätze gibts nicht.
Ion 2 ist kein wiederverwendetes Alt-Design. ;)
LovesuckZ
2009-10-09, 13:20:43
@LovesuckZ:
Schon mal was von mittel/langfristiger Planung gehört ?
Die paar ION chipsets sind keine neuen Chipsätze, das sind wiederverwertete FSB Alt-Designs. Neue HTr oder QPI chipsätze gibts nicht.
ION ist technologisch führend. Zeige doch mal einen heutigen besseren Chipsatz.
ION ist mittelfristig gewesen. Von AMD im Form der 8200 nach Intel als 9300/9400, ins Macbook und dann durch ION in Nettops und Netbooks.
Das jeder blinde es letztes Jahr absehen konnte, dass nVidia Probleme bekommt, wenn sie keine Intel Lizenz erhalten, sollte doch ersichtlich sein. Dafür braucht man Charlie nicht. Und ob sich eine alleinige Entwicklung für AMD lohnt, kann angezweifel werden. Denn AMD benötigt erstmal konkurrenzfähige CPUs in jedem Bereich.
Und ein paar Werte zu ION: Der Umsatz der Chipsatzsparte ist von Q2.2008 -> Q2.2009 um mehr als das doppelte gewachsen. Charlie's Vorherrsage wird also erst in frühsten einem Jahr wahr werden.
Ailuros
2009-10-09, 13:38:47
Die Frage ist, was passiert wenn Fermi sich weiter verspätet... das kann übel in die Hose gehen.
Zur Verteidigung von Charlie... http://www.theinquirer.net/inquirer/news/1021993/nvidia-chipsets-dead
geschrieben im Okt. 2008.
Charlies Schreibe mag etwas "scharf" sein... ganz unrecht hat er aber dann wohl doch nicht (auch bzgl. "Bump Gate" usw.).
Also sich hinzustellen und zu sagen "LOL, der schon wieder ... den braucht man eh nicht ernst nehmen... er ist sowieso ein Depp" - da wäre ich etwas vorsichtig.
Je aggressiver man in den Wald reinschreit desto aggressiver hallt es auch wieder raus.
Denn wenn Charlie persoenliche Probleme mit AMD haette und nicht mit NVIDIA, waere er fuer andere genauso lediglich "scharf" und fuer andere ein "Depp".
Gegenfrage: warum hackt er z.B. nicht auf Intel wegen Larabee so intensiv rum? Intel's Marketingmaschine ist im Grund genauso beschissen wie die von NVIDIA und wenn NV momentan ein Entwicklungsproblem mit GF100 hat, hat Intel zich Mal so viele.
Nvidia attackiert gerade in alle Richtungen.
Wen man sich das so ansieht:
-NV baut eigene Features in Spiele, die auf anderen Karten nicht funktionieren. Zudem werden Meldungen ausgegeben die auf den Falschkauf hinweisen.
-PhysX-Effekte werden durch das zutun von NV quantitativ auf ein derartiges Niveau gebracht, damit eine CPU nicht mitkommt. Auch wenn dieses wieder unrealistisch wirkt.
-NV baut im Fermi die Cuda-Qualitäten aus (um ATI voraus zu sein).... Zukünftige NV-optimierte Spiele
könnten mehr Power für PhysX anfordern als derzeit aktuelle NV-Karten zu leisten vermögen.
Bsp.: Spiel X hat ohne PhysX keine Partikel, Nebeleffekte oder sonstigen Spezialeffekete... nur Fermi kann diese anzeigen ohne das die Performance in unspielbare Bereiche wandert.
-NV baut keine neuen Chipsätze mehr, dadurch das sie die AM3-Plattform ignorieren werden SLI-Kunden nur auf Intel zurückgreifen.
Dadurch versucht man ATI das Wasser von hinten abzugraben.
-NV macht wie ATI bei Bullet-PhysX mit.
-NV deaktiviert PhysX über GPU und PPU falls eine Konkurenzkarte im Rechner das Bild rendert.
In meinen Augen ist der Ton den hier NVidia auflegt wieder deutlich agressiver geworden.
Bei einer GTX 260 für 120-130€ ist da sicherlich noch ein bisschen Potential, natürlich kann sich Nvidia nicht auf einen endlosen Preiskampf mit AMDs Evergreen einlassen, aber verbliebene Kunden wird man wohl schon bedienen können.
Wäre eine interessante Frage, bei der ich mich darüber wundere, woher die teildefekten GT200 Chips kommen sollen, wenn man keine 285er produziert.
Ok die 285er haben wohl ne strenge TDP Klasse ... aber rein von den Produktionskosten ist nicht viel Unterschied. Das PCB wiederum braucht auch noch 448bit ... viel billiger als 512bit ist das ebenfalls nicht.
Pi*Daumen Fazit: Da ist nicht viel Luft.
Und Fermi in verringerter Form sollte ja auch nicht so fern sein, wenn Nvidia das GT212-Team schon 2008 abgezogen hat für ein neues Projekt.
Naja, da hackte doch Charlie auf den noch nicht erfolgten TapeOut herum. Hast Du was gehört dass der Chip schon fertig ist ?, Falls nicht würde "nicht so fern" in absoluten Monaten mindestens 3 bedeutet (wenn man annimt dass das gerade passieren würde ^^). Dabei denke ich aber, dass sie mit dem TapeOut warten, bis Fermi 100% debuggt ist.
Ion 2 ist kein wiederverwendetes Alt-Design. ;)
Naja was wirds denn Großes sein ? Ion 1 @40nm mit ein paar mehr CUDA cores, vielleicht DX10.1, nachwievor mit FSB. Einigen wir uns von mir aus auf "Refresh", uralt Design ist es ja tatsächlich nicht, aber ich seh halt keinen riesen Evolutionssprung.
@LovesuckZ
ION ist technologisch führend
Hab ich was andres behauptet ?
Ich wollte nur klarstellen, dass sich Charlies 2008 Artikel über nVidias Chipsatz Ende nicht von heute auf morgen erfüllt, da dauert schon mal ein paar Jahre ... mittelfristige Planung eben. Für ION/ION2 gibts halt noch einen Platz, da es da noch aktuelle CPUs mit FSB gibt, aber der Rest wird schon jetzt nicht mehr weiterentwickelt.
Wenn Intel dann die integrierten Atom Chips rausbringt, läuft der Markt dann auch aus. Ob nVidia für die Dreieinhalb VIA CPUs extra Chipsätze bringen wird, glaub ich eher nicht.
ciao
Alex
LovesuckZ
2009-10-09, 15:28:51
Naja was wirds denn Großes sein ? Ion 1 @40nm mit ein paar mehr CUDA cores, vielleicht DX10.1, nachwievor mit FSB. Einigen wir uns von mir aus auf "Refresh", uralt Design ist es ja tatsächlich nicht, aber ich seh halt keinen riesen Evolutionssprung.
Der Evolutionssprung kam mit "ION". Zeige dochmal vergleichbares von Intel oder AMD.
@LovesuckZ
Hab ich was andres behauptet ?
Ich wollte nur klarstellen, dass sich Charlies 2008 Artikel über nVidias Chipsatz Ende nicht von heute auf morgen erfüllt, da dauert schon mal ein paar Jahre ... mittelfristige Planung eben. Für ION/ION2 gibts halt noch einen Platz, da es da noch aktuelle CPUs mit FSB gibt, aber der Rest wird schon jetzt nicht mehr weiterentwickelt.
Ach und das konnte nur Charlie sehen? :rolleyes:
Charlie beschreibt das Offensichtliche. Das ist keine Kunst, das ist Augenwischerei. Zum Glück gibt es noch Leute, die dies als hohe Kunst des Erratens ansehen.
Abgesehen davon:
Nvidia is desperately trying to deny it, but don't believe the spin, the division is deader than an Nvidia mobile GPU.
Stimmt das nicht. Er hatte also unrecht - wie so oft wohl in seinem Leben.
Wenn Intel dann die integrierten Atom Chips rausbringt, läuft der Markt dann auch aus. Ob nVidia für die Dreieinhalb VIA CPUs extra Chipsätze bringen wird, glaub ich eher nicht.
Und? Solange wie die GPU nicht auf nVidia-Niveau liegt, wird es immer einen Bedarf nach ION geben.
Der Evolutionssprung kam mit "ION".
Das war überhaupt kein Sprung, das ist nur ein relabeled 9400/9300 ...
LovesuckZ
2009-10-09, 15:35:17
Das war überhaupt kein Sprung, das ist nur ein relabeled 9400/9300 ...
Ich rede von ION in der kleinen Form. Diese Kompaktheit und Leistungfähigkeit ist zZ immer noch einmalig. Selbst AMD kommt nicht aus dem Potte. nVidia verdient seit fast 6 Monaten viel Geld mit 9400/ION. Sie decken Märkte ab, die von AMD überhaupt nicht erfasst sind.
Ich rede von ION in der kleinen Form. Diese Kompaktheit und Leistungfähigkeit ist zZ immer noch einmalig. Selbst AMD kommt nicht aus dem Potte. nVidia verdient seit fast 6 Monaten viel Geld mit 9400/ION. Sie decken Märkte ab, die von AMD überhaupt nicht erfasst sind.
ab 07.01 soll Arrandale vorgestellt werden. Danach wird Intel die FSB Prozessoren relatif zügig auslaufen lassen, und Ion2 ist ein gewesenes "Problem".
ab 07.01 soll Arrandale vorgestellt werden. Danach wird Intel die FSB Prozessoren relatif zügig auslaufen lassen, und Ion2 ist ein gewesenes "Problem".
Schön, dann nimmt die CPU Leistung zu (der Verbrauch auch) und die Grafikleistung sinkt in den Keller, zurück zu den Wurzeln des tollen Intel GMA.
Irgendwie sehe ich nicht, das Intel dort etwas besseres bietet, ich sehe lediglich das das alte unerreichte wieder in der Versenkung verschwinden soll.
Schade für den Kunden, schrott setzt sich durch, gute Ideen wie ION haben keine Zukunft.
Schön, dann nimmt die CPU Leistung zu (der Verbrauch auch) und die Grafikleistung sinkt in den Keller, zurück zu den Wurzeln des tollen Intel GMA.
Irgendwie sehe ich nicht, das Intel dort etwas besseres bietet, ich sehe lediglich das das alte unerreichte wieder in der Versenkung verschwinden soll.
Schade für den Kunden, schrott setzt sich durch, gute Ideen wie ION haben keine Zukunft.
Leider wahr, passt aber zu Intels "Wunschen" für Nettop & Co. Wer schnellere Grafik will soll gefälligst zu den teureren Plattformen greifen.
Undertaker
2009-10-09, 16:55:19
Ich rede von ION in der kleinen Form. Diese Kompaktheit und Leistungfähigkeit ist zZ immer noch einmalig. Selbst AMD kommt nicht aus dem Potte. nVidia verdient seit fast 6 Monaten viel Geld mit 9400/ION. Sie decken Märkte ab, die von AMD überhaupt nicht erfasst sind.
Interessant wirds, was bei Apple nach Ende der Core 2 Generation passiert. Eigentlich kann man es sich nicht leisten, die Nutzer einer bisherigen 9400 mit dem integrierten Grafikchip eines Arrendale zu "beglücken". Eine zusätzliche GPU scheint für Geräte wie z.B. das Macbook Air aber auch nicht sinnvoll...
AnarchX
2009-10-09, 17:02:35
Mit Switchable Graphics und einer GPU die ihren Speicher mit auf dem Package trägt (http://images.google.de/images?q=E4690%20AMD&oe=utf-8&rls=org.mozilla:de:official&client=firefox-a&um=1&ie=UTF-8&sa=N&hl=de&tab=wi) würde ich bei Geräten wie dem Air eigentlich keine Probleme sehen.
Ich rede von ION in der kleinen Form. Diese Kompaktheit und Leistungfähigkeit ist zZ immer noch einmalig. Selbst AMD kommt nicht aus dem Potte. nVidia verdient seit fast 6 Monaten viel Geld mit 9400/ION. Sie decken Märkte ab, die von AMD überhaupt nicht erfasst sind.
Lol, achso das Gehäuse ... na dann schreib das doch früher ... kann ja schlecht riechen das Du das mit "technologisch führend" meinst.
Und? Solange wie die GPU nicht auf nVidia-Niveau liegt, wird es immer einen Bedarf nach ION geben.
Gerüchte sagen, dass das Ding auf AMD 785/790 Niveau sein soll ... sollte reichen, solange auch die üblichen Codec Beschleunigungen dabei sind und die Treiber nicht grottig sind ^^.
nVidia verdient seit fast 6 Monaten viel Geld mit 9400/ION.
Gute Frage: Wieviel eigentlich .. hast Du genaue Zahlen ?
Ich behaupte mal ohne jeglichen Beweis, dass ATi hat in der letzten Woche mit den 5870 Lieferungen Größenordnungen mehr verdient hat ;-)
ciao
Alex
AnarchX
2009-10-09, 18:46:15
Gerüchte sagen, dass das Ding auf AMD 785/790 Niveau sein soll ... sollte reichen, solange auch die üblichen Codec Beschleunigungen dabei sind und die Treiber nicht grottig sind ^^.
Im Bezug auf Spiele hat Intel bis Januar wohl noch etwas zu tun: http://translate.googleusercontent.com/translate_c?hl=de&sl=zh-CN&tl=en&u=http://global.hkepc.com/3878/page/6&rurl=translate.google.ch&usg=ALkJrhi8_42pN_ftSyqrPFi8VTVtTxavzQ#view
LovesuckZ
2009-10-09, 18:50:58
Lol, achso das Gehäuse ... na dann schreib das doch früher ... kann ja schlecht riechen das Du das mit "technologisch führend" meinst.
Auch technisch ist er spitze. Oder was fehlt dir am 9400 Chipsatz?
Gute Frage: Wieviel eigentlich .. hast Du genaue Zahlen ?
Ich behaupte mal ohne jeglichen Beweis, dass ATi hat in der letzten Woche mit den 5870 Lieferungen Größenordnungen mehr verdient hat ;-)
ciao
Alex
Schau in den Quartalsbericht: 2Q.2009 (also aktuelle Zahlen) waren es ca. 240 Millionen $ Umsatz und einen Gewinn von 70 (oder 40) Millionen $.
Das will ich sehen, dass AMD mit dem rv870 mehr verdienen wird.
AnarchX
2009-10-09, 18:55:44
Ion mit seinen ~100mm² @ 55nm kostet wohl ~$10 in der Herstellung während man ihn für ~$30 weiterverkauft. Bei entsprechenden Stückzahlen kommt da wohl schon etwas zusammen.
Schlammsau
2009-10-09, 19:11:32
Schau in den Quartalsbericht: 2Q.2009 (also aktuelle Zahlen) waren es ca. 240 Millionen $ Umsatz und einen Gewinn von 70 (oder 40) Millionen $.
Das will ich sehen, dass AMD mit dem rv870 mehr verdienen wird.
Wie kommst du auf 240 Millionen?
http://www.pcgameshardware.de/aid,691946/Nvidia-Q2/2010-Trotz-Verlusten-bessere-Zahlen-als-erwartet/Grafikkarte/News/
PCGH schreibt was von 770 Mio Gesamtumsatz im 2. Quartal 2009 und einem Gesamtverlust von 105 Millionen.
Oder redest du nur vom ION?
@LovesuckZ:
Na doll, da ist aber nirgends aufgeschlüsselt, wieviele Deiner Millionen auf ION entfallen. Das ist das gesammte MCP Geschäft ...
Zum Chip:
Fehlen tut sich nichts, aber ist halt nich mehr als ein 9x00, wie schon gesagt.
@AnarchX:
Jo, kommt halt dann nur auf die Stückzahl drauf an ..
@Schlammsau:
Er redet von der kompletten Chipsatzsparte (MCP):
http://yahoo.brand.edgar-online.com/displayfilinginfo.aspx?FilingID=6765935-128074-131572&type=sect&dcn=0001045810-09-000024
ciao
Alex
Gute Frage: Wieviel eigentlich .. hast Du genaue Zahlen ?
Ich behaupte mal ohne jeglichen Beweis, dass ATi hat in der letzten Woche mit den 5870 Lieferungen Größenordnungen mehr verdient hat ;-)
Achso, AMD hat es also nicht nötig dieses Segment abzudecken.
Sie könnten zwar eine komplette Plattform inklusive CPU verkaufen, also noch mehr Gewinn machen, aber was solls.
Geldsorgen hat AMD ja nicht, da ists kein Wunder. Dann können sie berühigt weiter gegen i5 und Core2 ihre Preise weiter in den Keller treiben oder fast 300mm² GPUs mit 1GiB GDDR5 auf 130€ Karten stecken.
Ion mit seinen ~100mm² @ 55nm kostet wohl ~$10 in der Herstellung während man ihn für ~$30 weiterverkauft. Bei entsprechenden Stückzahlen kommt da wohl schon etwas zusammen.
AMD hat den Vorteil nicht auf den recht teuren Atom angewiesen zu sein.
Ergo zusätzlich drastische Gewinne durch eigene CPUs.
Naja drastisch würd ich den Absatz von Athlons aktuell nicht nennen *g
LovesuckZ
2009-10-10, 01:03:48
@LovesuckZ:
Na doll, da ist aber nirgends aufgeschlüsselt, wieviele Deiner Millionen auf ION entfallen. Das ist das gesammte MCP Geschäft ...
Jo und? So groß ist das Angebot bei nVidia nicht gerade an Chipsätze...
Zum Chip:
Fehlen tut sich nichts, aber ist halt nich mehr als ein 9x00, wie schon gesagt.
Und? Was fehlt dir am "9400"? Was bietet denn AMD und Intel bewegendes an?
Und? Was fehlt dir am "9400"? Was bietet denn AMD und Intel bewegendes an?
Der "9400" ist bisher unerreicht und ungeschlagen, obwohl er schon ca. 1 Jahr auf dem Markt ist. Zudem super für Linux geeignet, wo AMD völlig patzt, z.B. unter XBMC mit VPDAU.
Jo und? So groß ist das Angebot bei nVidia nicht gerade an Chipsätze...Ja klar *lach* die verkaufen nur noch ION Chipsätze ...
Les mal den aktuellen Bericht durch:
During the first half of fiscal year 2010, we saw signs of increased demand for our products designed for the mainstream AMD integrated desktop market as well as for our ION products and other products that are designed for the Intel-based integrated notebook market.
Such Dir was aus, oder besser gesagt: Man weiss nichts Genaues. Solange Du keine expliziten ION Zahlen präsentieren kannst: Abgelehnt :down:
Und? Was fehlt dir am "9400"? Was bietet denn AMD und Intel bewegendes an?LOl, nichts ... bin ja mal gespannt, wann Du das jetzt mal kapierst, dass ich bisher nur bemängelt habe, dass Du das ION Teil als superduper Wunderchip hypest, obwohls nur ein umbenannter 9x00 ist ;-)
Vorsichtshalber noch im Klartext: Es bedeutet nicht, dass der Chip schlecht ist ... ein E5200 ist/war auch ein solider, guter 45nm Penrynverschnitt, aber eben nichts besonderes.
Edit:
@Gast: Dann kauf Dir für Deine AMD CPU ein Brett mit nV Grafik ;-)
ciao
Alex
Gipsel
2009-10-10, 01:42:10
Der "9400" ist bisher unerreicht und ungeschlagen, obwohl er schon ca. 1 Jahr auf dem Markt ist.
Schonmal ein paar Benchmarks zur Grafikleistung im Vergleich zu 785G oder 790GX gesehen? ;)
Naja drastisch würd ich den Absatz von Athlons aktuell nicht nennen *g
Nicht aktuell sondern theoretisch.
AMD hätte es leichter als Nvidia, weil sie nicht an zu hohen Atom Preisen oder dem FSB Ende knabbern müssen.
AMD könnte ein komplett eigenes Paket schnürren und dabei eigene Athlons recht gewinnbringend einsetzen.
Doch warum tun sie es nicht? Weiter vorne wurde geschrieben weil sie es nicht nötig haben, das halte ich für Bullshit.
Schonmal ein paar Benchmarks zur Grafikleistung im Vergleich zu 785G oder 790GX gesehen? ;)Schonmal 785G oder 790GX in einem zu ION vergleichbaren Produkt von AMD gesehen?
http://www.tweakpc.de/news/16955/geforce-gtx-285-ist-eol/
also dann stimmt mein threadtitel eigentlich nicht... das ist nicht künstlich sondern ECHT und seitens nvidia ist das missmanagement und totalversagen.
seitens nvidia ist das missmanagement und totalversagen. Naja, sind wir höflich und nennen es "Schadensbegrenzung" ...
Ansonsten .. tja Charlie blubberte wohl Fakten ..
ciao
Alex
P.S: Danke für den Link
GTX 285 ist mies verfügbar, die Meldung könnte passen.
Aber was zur Hölle hat das mit GTX 260 und GTX 275 zu tun? Da wurde mal wieder bis zum erbrechen gelogen, die sind nachwie vor verfügbar, ebenso wie GTX 295.
Leicht unverständlich bleibt, warum ausgerechnet die GTX 285 verschwinden soll.
Das macht keinerlei Sinn, wenn zeitgleich die anderen GTX Modelle bleiben. Wo sollen die guten GT200 hin? Läuft der Quadro und Tesla Absatz gerade so heiß?
Oder gibts kurzfristig noch eine GTX 290?
svenw
2009-10-10, 09:52:01
IMHO hat sich Nvidia mit dem Erscheinungstermin des Fermi verschätzt und dann auch noch den Bedarf 285ern unterschätzt. Somit werden die Karten wirklich momentan nicht mehr produziert, aber das Nvidia das High-End und Performance Segment sang- und klanglos für Monate an ATI übergibt kann ich nicht glauben. Fehler: ja, Planung:extrem unwahrscheinlich. Selbst wenn Nvidia seine Chips mit vErlust verkaufen würde, gäbe es dennoch einen Deckungsbeitrag zu den laufenden Kosten.
Nvidia wird es in den nächsten Monaten schon schwer genug haben auch ohne das sie sich selber ins Bein schießen.
Naja, sind wir höflich und nennen es "Schadensbegrenzung" ...
Ansonsten .. tja Charlie blubberte wohl Fakten ..
ciao
Alex
P.S: Danke für den Link
bitte.
aber bevor man "schadensbegrenzung" macht, muss man erstmal versagen ... andernfalls braucht man nämlich keine schadensbegrenzung zu betreiben ;)
Ein Produktionstopp für GTX 285 (also nicht wie die Lügen verbreitet haben) würde bedeuten das auch keine GT200 mehr produziert werden.
Kaum vorstellbar bei der masse an anderen verfügbaren GTX 200.
Jedenfalls kann man es drehen wie man will, noch ist die GTX 285 für 280€ lieferbar.
Ich kann mir gut vorstellen, das es auch in 2 Monaten noch genügend GTX 285 für 300€ gibt.
mapel110
2009-10-10, 09:58:31
Bevor nvidia ein Problem bekommt, muss ATI erstmal liefern.
http://geizhals.at/deutschland/?cat=gra16_512;v=l;xf=891_Radeon%20HD%205870%7E132_1024%7E891_Radeon%20HD%205850&sort=p
Klickt euch doch mal durch die Shops. Da sind etliche mit Vorbestellfunktion und Fake-Ab-Lager-Meldungen.
Nächste Woche kommen neue AMD-Quartalszahlen. Da werden wir sehen, wer ein Problem hat.
P.S: Danke für den Link
Der Link wurde schon vor 5 Seiten gepostet.
Nächste Woche kommen neue AMD-Quartalszahlen. Da werden wir sehen, wer ein Problem hat.
Ich tippe auf leicht rote Zahlen.
Allerdings scheint es bei AMD weniger ein Problem zu sein. Einerseits gibt es Intel, die AMD brachen, andererseits gibt es die Investoren, die an die blühende Zukunft glauben.
Den Fanboys ist es recht, wenn Nvidia mal droht Verlust zu machen soll es gleich deren Ende sein.
Menace
2009-10-10, 10:06:29
Nächste Woche kommen neue AMD-Quartalszahlen. Da werden wir sehen, wer ein Problem hat.
;D Immer diese Krux mit der verdammten Logik. Dass beide ein Problem haben (AMD vor allem bzgl. CPU) ist natürlich nicht möglich. ;D Die Kausalzusammenhänge, die hier angestellt werden finde ich köstlich. ;)
reunion
2009-10-10, 10:11:32
Bevor nvidia ein Problem bekommt, muss ATI erstmal liefern.
http://geizhals.at/deutschland/?cat=gra16_512;v=l;xf=891_Radeon%20HD%205870%7E132_1024%7E891_Radeon%20HD%205850&sort=p
Klickt euch doch mal durch die Shops. Da sind etliche mit Vorbestellfunktion und Fake-Ab-Lager-Meldungen.
Das Problem ist wohl eher das Geizhals zu langsam aktualisiert und verfügbaren Karten welche unter 350€ liegen verdammt schnell wieder weg sind. Auf jeden Fall wird sich nV daran nicht ausruhen können, die Lieferbarkeit wird von Tag zu Tag besser und die Nachfrage ist nach dem Launch natürlich auch besonders stark.
Siehe: Hundreds of thousands HD 5870 cards sold
http://www.fudzilla.com/content/view/15882/1/
Dural
2009-10-10, 10:40:23
Schonmal ein paar Benchmarks zur Grafikleistung im Vergleich zu 785G oder 790GX gesehen? ;)
Der GF9400 ist die schnellste IGP, die 785G und 790GX sind nur dank seperaten Speicher schneller! Ohne Speicher sind sie meisten hinter dem GF9400!
Der Link wurde schon vor 5 Seiten gepostet.*Lach* na dann hab ich auch mal was übersehen sorry ;-):massa:
Umso mehr wundert mich dann die "Diskussion" auf den letzten 5 Seiten :freak:
reunion
2009-10-10, 10:45:46
Der GF9400 ist die schnellste IGP, die 785G und 790GX sind nur dank seperaten Speicher schneller!
Nein, die GF9400 sind ohne separaten Speicher nur deshalb schneller weil bei einem Core 2 der Memorycontroller noch direkt in der NB sitzt, während man bei einem 790GX ohne dezidierten Speicher den Umweg über die CPU gehen muss. Der dezidierte Speicher, der übrigens nur mit sehr bescheidenen 32bit angebunden ist, ist nur dazu da um diesen Nachteil etwas auszugleichen. Insgesamt sollten sich die jeweiligen Chips nicht viel nehmen, aber auch nur weil AMD noch immer alte RV620 Hardware verbaut. Ein RV7xx, der seine Leistung/mm² ausspielen könnte wäre natürlich deutlich im Vorteil.
AnarchX
2009-10-10, 10:46:54
AFAIK ist Sideport-Memory nur 16-Bit, wie eben ein normaler DRAM-Chip.
Dural
2009-10-10, 10:53:02
waren es nicht 32Bit?
ändert aber trotzdem an der tatsache nichts das der GF9400 die schnellste IGP, hier ein Test GF9300 gegen 790GX mit 128MB Sideport:
http://www.computerbase.de/artikel/hardware/mainboards/2008/test_nvidia_geforce_9300-chipsatz_mcp7a/8/#abschnitt_performancerating
und da ist schon der 9300 mit 34% vor dem 790GX
und bald soll der ION2 in 40nm mit 32SP kommen, der wird wohl dann restlos alle IGP regelrecht stehen lassen ;)
reunion
2009-10-10, 11:07:11
waren es nicht 32Bit?
ändert aber trotzdem an der tatsache nichts das der GF9400 die schnellste IGP, hier ein Test GF9300 gegen 790GX mit 128MB Sideport:
http://www.computerbase.de/artikel/hardware/mainboards/2008/test_nvidia_geforce_9300-chipsatz_mcp7a/8/#abschnitt_performancerating
und da ist schon der 9300 mit 34% vor dem 790GX
und bald soll der ION2 in 40nm mit 32SP kommen, der wird wohl dann restlos alle IGP regelrecht stehen lassen ;)
Der Vergleich ist ohnehin nicht fair, da völlig unterschiedliche Plattformen, CPUs. Ich habe es ja oben schon dargelegt, aber das scheinst du zu ignorieren. Und das ein Allendale einen alten K8 im Regen stehen lässt sollte auch kein Geheimnis sein. Aber bitte.
Dural
2009-10-10, 11:10:11
Der Vergleich ist ganz OK, da beide Systeme mit identischer Grafikkarte so gut wie gleich schnell sind! Siehe Benchmark mit GF8500 und die CPU Leistung ist bei so geringer GPU Leistung wohl komplett nebensächlich.
@Sideport-Memory bei THG steht das der Sideport-Memory sogar mit 64Bit angebunden ist.
Undertaker
2009-10-10, 11:13:11
Mit einer IGP ist in den gewählten Spielen und Settings so oder so kein CPU-Limit auszumachen. ;)
Ich kann mir gut vorstellen, das es auch in 2 Monaten noch genügend GTX 285 für 300€ gibt.
Natürlich wird es die geben. In jedem Media-Markt.
Oder gibts kurzfristig noch eine GTX 290?
Als Singlekarte, praktisch ein extrem übertakteter GT200 gegen die 5850?
Extrem unwahrscheinlich, falls nV sowas tatsächlich bringt könnten wir sicher sein dass Fermi vor Sommer '10 keinesfalls kommt.
Und wer sollte so eine 290 auch kaufen, hätte einen gigantischen Stromverbrauch im Vergleich und immer noch kein DX11.
Natürlich wird es die geben. In jedem Media-Markt.
Von 280€ auf 300€ ist kein großer Sprung.
Ich meinte Online Händler, viele bieten jetzt schon ab 300€ GTX 285 an.
Als Singlekarte, praktisch ein extrem übertakteter GT200 gegen die 5850?
Extrem unwahrscheinlich, falls nV sowas tatsächlich bringt könnten wir sicher sein dass Fermi vor Sommer '10 keinesfalls kommt.
Und wer sollte so eine 290 auch kaufen, hätte einen gigantischen Stromverbrauch im Vergleich und immer noch kein DX11.
Nicht extrem schneller als eine GTX 285. Übertaktet ist imho das falsche Wort.
5-10% Mehrtakt, bringt Nvidia jedenfalls wieder in frische Reviews. Fermi stört so ein kleiner Boost absolut nicht, der trammelt so oder so darüber hinweg.
Stromverbrauch ist so eine Sache, würde wohl leicht ansteigen. Ist nicht unbedingt schlimm, im Idle stehen sie noch gut da außerdem gabs auch früher genügend Leute, denen der Stromverbrauch nicht so wichtig war, etwas verschwenderische Karten haben sich immer verkauft.
Schlimm wärs nur, wenn Nvidia gar nichts unternehmen würde, nicht mal den kleinen Tropfen auf den heißen Stein.
D3D11, tja das haben sie fürwahr nicht. Sie müssen mit anderen Dingen locken, es ist nicht so das Nvidia nichts bieten könnte. Und seis die 5-10% schnellere GTX 290 als GTX 285 zu einem niedrigeren Preis.
Du wirst mir doch recht geben, das es Unsinn ist GTX 295, GTX 275, GTX 260, all die Quadros und Teslas weiterlaufen zu lassen, während die GTX 285 verschwindet.
Es könnte einzig und allein daran liegen, das bald alle GT200 Produkte verschwinden. Sieht nicht danach aus, die Karten gibts noch wie Sand am Meer. Kaum vorstellbar das sich die GTX 285 im Vergleich so viel besser verkauft haben soll, das sie jetzt knapper wird.
Es könnte auch daran liegen das eine neue Desktopkarte mit vollwertigem GT200 auftaucht. Entweder eine schnellere Dual oder eine schnellere Single.
Es könnte auch daran liegen das die Tesla und Quadros gerade alle vollwertigen GT200 wie verrückt fressen. Kaum vorstellbar, das gar nichts mehr übrig bleibt.
*Lach* na dann hab ich auch mal was übersehen sorry ;-):massa:
Umso mehr wundert mich dann die "Diskussion" auf den letzten 5 Seiten :freak:
Ähh nochmal darauf zurückkommend, dass das bereits vor 5 Seiten stand ... lesen die 3DC Redakteure hier nicht mit ?
Die Tweak Leute haben da schwarz auf weiss EOL stehen aber trotzdem wird so ne Nachricht verfasst, dass ja alles i.O. sei ..
Die auf SemiAccurate (http://www.semiaccurate.com/2009/10/06/nvidia-kills-gtx285-gtx275-gtx260-abandons-mid-and-high-end-market/) zurückgehende Meldung vom Mittwoch (http://www.3dcenter.org/news/2009-10-07), nVidia würde sich für die nächste Zeit aus dem Performance- und HighEnd-Markt zurückziehen, hat sich inzwischen als ziemlicher Unsinn erwiesen. Laut dem Heise Newsticker (http://www.heise.de/newsticker/meldung/Nvidia-raeumt-Lieferengpaesse-bei-High-End-Chips-ein-816953.html) hat nVidia zwar Lieferschwierigkeiten beim GT200/b-Chip eingeräumt, weist aber alle Gerüchte über einen Produktionsstop zurück. Damit dürfte diese Meldung vollkommen erledigt sein, denn End-of-Life-Notizen sind in aller Regel nichts, was man verheimlicht. Keine Ahnung, was SemiAccurate da getrieben hat, so etwas in die Welt zu setzen – aber es senkt natürlich den Wert dieser Quelle ganz erheblich. Abschließend sei nochmals festgestellt, daß nVidia seinen GT200/b-Chip nicht aus dem Markt nimmt, sondern ganz im Gegenteil derzeit mehr Bestellungen hat als man ausliefern könnte.http://www.3dcenter.org/news/2009-10-09
Nebenbei wird über Charlie im ähnlichen abwertenden Ton hergezogen, den viele bei Ihm bemängelt wenn er über nVidia schreibt ... auch nicht gerade niveauvoll ...
ciao
Alex
LovesuckZ
2009-10-10, 12:43:14
Das EoL der GTX285 konnte man schon seit mehr als einem Monat sehen. Dafür benötigt man keinen Charlie.
Leicht unverständlich bleibt, warum ausgerechnet die GTX 285 verschwinden soll.
Das macht keinerlei Sinn, wenn zeitgleich die anderen GTX Modelle bleiben. Wo sollen die guten GT200 hin? Läuft der Quadro und Tesla Absatz gerade so heiß?
Oder gibts kurzfristig noch eine GTX 290?
Extra PCB und extra selektierte Chips. GTX260 und GTX275 verwenden beide das selbe PCB. Da muss man nur die Chips entsprechend raufpacken. Außerdem wird keine weitere Selektierung von vollständigen GT200 Chips benötigt. Entweder reicht es für die GTX275 oder nicht. Spart alles kosten.
Und was wichtiger ist: Wenn nVidia Geforce Fermi präsentiert, hat man keine überflüssigen Lagerbestände mehr bei sich, bei den AIBs und bei den Händlern.
Bei Tweak steht GTX 285, wie wir wissen sind es weit mehr Karten mit GT200b bestückt.
Keine Ahnung warum man Charlie nicht kritisieren darf, wenn er sich mal wieder Dinge ausdenkt und diese Lügen 1zu1 auf sämtlichen "News" Seiten abgeschrieben werden.
Das EoL der GTX285 konnte man schon seit mehr als einem Monat sehen. Dafür benötigt man keinen Charlie.
Anscheinend doch, denn das nVidia Marketing erzählt:
Gegenüber heise online wies Nvidia die Gerüchte zurück und erklärte, dass die Nachfrage derzeit die in Krisenzeiten produzierten Bestände übersteige.
Das ist was anderes als EoL ...
ciao
Alex
LovesuckZ
2009-10-10, 12:50:30
Und warum sollten die Leute in Krisenzeiten ausgerechnet alle GTX285 Karten kaufen? Die Verfügbarkeit der GTX285 in Deutschland ist seit einem Monat deutlich geringer als bei GTX260/GTX275/GTX295.
Gipsel
2009-10-10, 12:50:59
Nein, die GF9400 sind ohne separaten Speicher nur deshalb schneller weil bei einem Core 2 der Memorycontroller noch direkt in der NB sitzt, während man bei einem 790GX ohne dezidierten Speicher den Umweg über die CPU gehen muss.
Die GF9400 sind überhaupt höchstens schneller, wenn da ein alter K8 im Board sitzt. Mit einem AthlonII oder prinzipiell allem K10 basierten ist ein 790GX schneller. Warum? Nun HT2.0 vs. HT3.0, sprich mehr nutzbare Bandbreite ;)
Mal ein paar Beispiele (THG war halt der erste Link):
http://media.bestofmicro.com/X/J/218935/original/785G%20Left4Dead%20Med.pnghttp://media.bestofmicro.com/Y/F/218967/original/785G%20HAWX%20DX10.pnghttp://media.bestofmicro.com/X/S/218944/original/785G%20World%20In%20Conflict%20Low.png
Extra PCB und extra selektierte Chips. GTX260 und GTX275 verwenden beide das selbe PCB. Da muss man nur die Chips entsprechend raufpacken. Außerdem wird keine weitere Selektion von vollständigen GT200 Chips benötigt.
Meinst du die Selektion ist derart teuer?
Für Quadros und Teslas muss wie gesagt eh selektiert werden.
Wenn zwischen GTX 275 und GTX 260 keinerlei Selektion stattfindet, so heißt es im Umkehrschluss das nur noch 240 SP und 80 TMU Chips überhaupt verbaut werden.
Sollte die Yield so gut sein, das dort kaum noch Ausschuss besteht, sondern nur noch im ROP Bereich?
Und was wichtiger ist: Wenn nVidia Geforce Fermi präsentiert, hat man keine überflüssigen Lagerbestände mehr bei sich, bei den AIBs und bei den Händlern.Macht schon Sinn, die Lager müssen geleert werden.
Billige Karten verkaufen sich schneller als teure, leeren entsprechend schneller die Lager.
Das wiederrum würde bedeuten das entweder die Bestände gigantisch sind oder Fermi bald kommt.
Schonmal ein paar Benchmarks zur Grafikleistung im Vergleich zu 785G oder 790GX gesehen? ;)Ja, hab ich. Unter Linux fallen ja selbst die großen AMD-Karten mit RV770 desöfteren auf das Niveau von Intel-IGPs zurück. Brauchbare Videobeschleunigung gibt es überhaupt nicht und gerade auf einem eher schwachen System ist es Aufgabe des IGP das sicherzustellen. Sowas ist einfach unbrauchbar.
-> lower is better
http://www.phoronix.com/data/img/results/amd_radeon_hd4890/10.pnghttp://www.phoronix.com/data/img/results/nvidia_ion_linux/9.png
...
StefanV
2009-10-12, 13:41:41
Die GF9400 sind überhaupt höchstens schneller, wenn da ein alter K8 im Board sitzt. Mit einem AthlonII oder prinzipiell allem K10 basierten ist ein 790GX schneller. Warum? Nun HT2.0 vs. HT3.0, sprich mehr nutzbare Bandbreite ;)
Hast du einen Tip zu einer Software, mit der ich das (ganz einfach) testen kann?
Hab hier ein nForce (MSI K9N2 und ASUS M3N78-VM) und 790GX Board (DFI Lanparty JR, allerdings AM3) und einen Phenom 955BE...
Neuigkeiten von Fuad:
http://www.fudzilla.com/content/view/15919/1/
... mach mir gerade Popcorn ...
LovesuckZ
2009-10-12, 14:08:41
Das geht wohl eher von nVidia -> Partner als Partner -> Händler.
In Deutschland gibt es noch haufenweise GTX260/GTX275 Karten im Handel. Und durch Juniper wird man wohl sobald auch keine Jubelstürme erleben.
Menace
2009-10-12, 14:28:44
Neuigkeiten von Fuad:
http://www.fudzilla.com/content/view/15919/1/
und diese Nachricht:
http://ht4u.net/news/21035_boardpartner_nehmen_nvidia_gtx_285_und_275_aus_dem_programm/
Dumme Frage: So verkehrt lag doch dieser Charlie (?) jetzt gar nicht, oder? :confused:
reunion
2009-10-12, 14:43:27
Ich frage mich wie sich NV das vorstellt. Erstens mal was passiert bis Fermi kommt? Und zweitens selbst wenn Fermi schon morgen in großen Stückzahlen kommen würde hätte man trotzdem ein gigantisches Loch von Fermi bis ins ~100€-Segment hinunter. Fermi wird man max. gegen die 5870 stellen können, aber wohl kaum gegen die 5850 oder gar 5770. Und selbst wenn man GT200 unter den Produktionskosten verkaufen müsste wäre das IMO immer noch besser als man überlässt der Konkurrenz den Markt.
LovesuckZ
2009-10-12, 14:48:22
Was nützt es nVidia, wenn sie Chips herstellen, die kaum verkauft werden? Es gibt jedenfalls in Deutschland noch genug Karten im Handel. Und das wird auch noch in 6 Monaten so sein, weil die Nachfrage ab morgen rapide sinken wird.
Und je niedriger man die Preise setzt, umso stärker belastet man die anderen Karten im Portfolio. Deswegen lässt man sie auslaufen. Da man zwischen GT215 und Fermi nichts hat, ist nVidia's schuld. Aber nun auf Teufel komm raus mit den Preisen runterzugehen, ist genauso unsinnig.
reunion
2009-10-12, 14:57:50
Was nützt es nVidia, wenn sie Chips herstellen, die kaum verkauft werden? Es gibt jedenfalls in Deutschland noch genug Karten im Handel. Und das wird auch noch in 6 Monaten so sein, weil die Nachfrage ab morgen rapide sinken wird.
Und je niedriger man die Preise setzt, umso stärker belastet man die anderen Karten im Portfolio. Deswegen lässt man sie auslaufen. Da man zwischen GT215 und Fermi nichts hat, ist nVidia's schuld. Aber nun auf Teufel komm raus mit den Preisen runterzugehen, ist genauso unsinnig.
Beides wäre in meinen Augen sinnvoller als das was jetzt passiert. Viele Leute kaufen Karten und haben wenig Ahnung. Da reicht oft schon der Name um ein Produkt zu verkaufen. Ein paar Karten würde man auch bei unveränderten Preis schon absetzten. Oder wenn man seine Marktanteile halten will muss man eben mit dem Preis runter. Jede verkaufte Karte bedeutet auch eine nicht verkaufte Karte der Konkurrenz und damit Marktmacht.
Ne, ich kann mir nicht vorstellen dass das beabsichtigt war. NV hat ja auch bestätigt das die Karten offiziell nicht eingestellt sind AFAIK. IMO hatte man durch die Krise haufenweise Karten auf Lager und hat die Produktion in Erwartung eines früher kommenden Fermi zu früh eingestellt. Die Nachfrage ging zudem wohl früher als erwartet wieder hoch. Und da zwischen einer georderten Wafer und der fertigen Karte am Markt einige Monate vergehen kann man jetzt halt nicht genug Karten liefern.
LovesuckZ
2009-10-12, 15:07:53
Beides wäre in meinen Augen sinnvoller als das was jetzt passiert. Viele Leute kaufen Karten und haben wenig Ahnung. Da reicht oft schon der Name um ein Produkt zu verkaufen. Ein paar Karten würde man auch bei unveränderten Preis schon absetzten. Oder wenn man seine Marktanteile halten will muss man eben mit dem Preis runter. Jede verkaufte Karte bedeutet auch eine nicht verkaufte Karte der Konkurrenz und damit Marktmacht.
Marktanteile kann man nur einmal gewinnen. Erkauft man sich diese anhand eines Verlustes, dann kann man die zukünftige Absätze nicht verteuern. AMD's Strategie zeigt, dass es unsinnig ist zu billig zu verkaufen.
Außerdem gibt es genug Karten im Handel. Jeder, der eine GT2xx Karte haben will, wird sie auch noch sehr lange bekommen.
Ne, ich kann mir nicht vorstellen dass das beabsichtigt war. NV hat ja auch bestätigt das die Karten offiziell nicht eingestellt sind AFAIK. IMO hatte man durch die Krise haufenweise Karten auf Lager und hat die Produktion in Erwartung eines früher kommenden Fermi zu früh eingestellt. Die Nachfrage ging zudem wohl früher als erwartet wieder hoch. Und da zwischen einer georderten Wafer und der fertigen Karte am Markt einige Monate vergehen kann man jetzt halt nicht genug Karten liefern.
Natürlich ist das beabsichtigt. Durch die Krise hat man das Inventar auf 30 tage reduziert und man selbst weiß, wann eigene Produkte und Produkte des Konkurrenten ungefähr auf den Markt kommen. Es ist unsinnig hier weiter GT200 Chips auf Halde zu produzieren, nur um sie dann ab morgen zu verramschen.
Und selbst wenn man GT200 unter den Produktionskosten verkaufen müsste wäre das IMO immer noch besser als man überlässt der Konkurrenz den Markt.
Ich glaube, das wäre illegal. Da geht denen die Börsenaufsicht an die Gurgel.
–Carsten
Tomahawk
2009-10-12, 15:34:32
Wieso sollte die Börsenaufsicht nVidia das verbieten? Die haben nichts mit dem unternehmerischen Handeln zu tun.
Bei Druckern, Konsolen etc. ist das doch üblich.
N0Thing
2009-10-12, 15:49:35
Wenn die Boardpartner keine neuen Karten mehr herstellen, weil sie keine Chips bekommen, hätte Nvidia die Chips doch offensichtlich verkaufen können. Aber wenn Nvidia nicht in Preisregionen verkaufen kann, in denen sich eine weitere Produktion noch lohnt, kann man es verstehen, auch wenn es meiner Meinung nach wirklich erstaunlich ist, wenn Nvidia zwischen der GTS 250 und den kommenden Fermi-Grafikkarten nichts anbieten könnte, sobald keine GT200(b) Karten mehr auf Lager sind.
Ich bin eher davon ausgegangen, daß sie die Produktion nun wieder angepaßt haben und die Verfügbarkeit in 1-2 Monaten wieder besser aussieht.
LovesuckZ
2009-10-12, 15:53:09
Wenn die Boardpartner keine neuen Karten mehr herstellen, weil sie keine Chips bekommen, hätte Nvidia die Chips doch offensichtlich verkaufen können.
Es ist doch klar, dass die Partner sich beschweren. Immerhin benötigen sie auch weitere Chips, um irgendwas zu erwirtschaften. Nur kann nVidia ihnen die GT200 nicht für ein Appel und Ei überlassen und die Preise von 2-3 Monaten kann nVidia genauso wenig verlangen. Ergo ergibt sich eine Situation, wo es genug Karten im Handel gibt und geben wird, aber keine neuen dazukommen. Als Endkunde wird es auch keine Probleme geben eine zu kaufen.
Hakkerstiwwel
2009-10-12, 16:44:44
Ich glaube, das wäre illegal. Da geht denen die Börsenaufsicht an die Gurgel.
–Carsten
Die Aufsicht überwacht nicht das Geschäftsmodell, sondern ob das Unternehmen sich an die Standards für das Reporting hält.
Crazy_Chris
2009-10-12, 21:21:30
Es ist doch klar, dass die Partner sich beschweren. Immerhin benötigen sie auch weitere Chips, um irgendwas zu erwirtschaften. Nur kann nVidia ihnen die GT200 nicht für ein Appel und Ei überlassen und die Preise von 2-3 Monaten kann nVidia genauso wenig verlangen. Ergo ergibt sich eine Situation, wo es genug Karten im Handel gibt und geben wird, aber keine neuen dazukommen.
Ein Blick bei Geizhals zeigt das zum Beispiel die Verfügbarkeit der GTX 285 schon jetzt sehr bescheiden ist. :rolleyes: Wie soll das erst in 2-3 Monaten aussehen wenn man vom Worst-Case ausgeht und Fermi sich doch auf 2010 verspätet?
Als Endkunde wird es auch keine Probleme geben eine zu kaufen.
Das Problem hat man jetzt schon. :freak: Außer man beeilt sich und ist bereit Preise zu zahlen die ja fast bei erscheinen der GTX 285 üblich waren.
Das Problem hat man jetzt schon. :freak: Außer man beeilt sich und ist bereit Preise zu zahlen die ja fast bei erscheinen der GTX 285 üblich waren.
Genau, am Besten mal im Media-Markt schauen, die haben sicher auch im März noch welche zu 529,- Euro. :D
Crazy_Chris
2009-10-12, 21:41:40
Also ich hab meine für 320€ im Frühjahr gekauft. :freak: Und die bezahlt man inzwischen fast wieder. ;D Die Karten lagen im Sommer ja mal bei 260€.
Was ist eigentlich mit Ati? Die HD 5850/70 Karten sind noch weniger verfügbar, das ist genauso ein Skandal. Nur zu überteuerten Preisen zu haben, da kann man gleich zur GTX295 greifen die schneller ist.
Crazy_Chris
2009-10-12, 21:53:32
Was ist eigentlich mit Ati? Die HD 5850/70 Karten sind noch weniger verfügbar, das ist genauso ein Skandal. Nur zu überteuerten Preisen zu haben, da kann man gleich zur GTX295 greifen die schneller ist.
Die Karte wurde gerade erst released. Also nichts mit Skandal sonder völlig normal bei der aktuellen Nachfrage. :rolleyes:
Spielt doch keine Rolle wann, sie sind nicht verfügbar und wenn zu überteuerten Preisen. GTX295 kriegt man.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.