Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI auf dem Vormarsch
Hallo zusammen,
http://www.gamestar.de/hardware/news/grafikkarten/2316622/grafikkarten.html
war doch zu erwarten, oder?
Nvidia war einfach viel zu spät auf den DX11-Zug aufgesprungen, vor allem im Volumenmarkt. Da hat immer noch nichts zu bieten und das rächt sich.
Für uns Kunden ist es aber auf jeden Fall von Vorteil.
Ideal wäre es, wenn mal der eine und mal der andere bei einer Generation vorn ist. Denn das spornt die gerade unterlegene Firma zu mehr Leistung an.
Wie findet ihr die Entwicklung als Gamer?
Seht ihr es auch so, dass es für uns ideal wäre, wenn mal Nvidia und mal AMD vorn wäre?
Schönen Tag noch :)
MiamiNice
2010-07-29, 10:49:54
Glaube keiner Statistik die Du nicht selber gefälscht hast :)
http://store.steampowered.com/hwsurvey/
Da sieht das aber völlig anders aus. NV 59% ATI 32%
Guten Morgen ^^
Die GTX 460 ist da und verkauft sich wie gayschnitten Brot. Für das dritte Quartal sehe ich eine Umkehrung des aktuellen Verhältnisses.
MfG,
Raff
Aber das ist nicht auf das 2. Quartal 2010 beschränkt. ;)
Die GTX 460 ist da und verkauft sich wie gayschnitten Brot. Für das dritte Quartal sehe ich eine Umkehrung des aktuellen Verhältnisses.
MfG,
Raff
Deshalb gab es ja auch eine Umsatzwarnung. LOL. Geld wird im Lowend verdient und dort steht NV seit langem mit herunter gelassener Hose da.
Glaube keiner Statistik die Du nicht selber gefälscht hast :)
http://store.steampowered.com/hwsurvey/
Da sieht das aber völlig anders aus. NV 59% ATI 32%
Guten Morgen ^^
Mercury Research umfasst den gesamten Markt, nicht nur Steam. Außerdem geht es ausschließlich im dieses Quartal, bei Steam werden einfach alle Karte aufgereit, aber auch dort sieht man das AMD konstant aufholt.
svenw
2010-07-29, 11:13:14
Die GTX 460 ist da und verkauft sich wie gayschnitten Brot. Für das dritte Quartal sehe ich eine Umkehrung des aktuellen Verhältnisses.
Die 460 ist eine gute Karte allerdings dürfte ATI Ober und unterhalb davon den MArkt mehr oder weniger alleine haben. Denn das sich die 480 so gut verkauft glaub ich nicht. Und momentan sind die Preise für die 5850 ins Rutschen gekommen, was die 460 wieder unter Druck setzt. Allerdings sitzt die 460 an einem Punkt wo ATI ein Loch im Portfolio hat. Aber ob NV mit der 460er viel Geld verdient ist eine andere Frage da der Chip größer ist als der Cypress bei einem wesentlich geringeren Preispunkt.
LovesuckZ
2010-07-29, 11:21:48
Natürlich verdient man an der GTX460 viel Geld. Erstmal hat man wieder Produkte im Sortiment in diese Bereich und zweitens ist der Absatz höher als bei $250 oder $350. Und nicht zu vergessen, handelt es sich hierbei auch um teildeaktivierte Chips, wodurch die Ausbeute erhöht und die Kosten gesenkt werden.
Müssen Gamestar Verlinkungen hier sein?
Gamestar hat sich als vollkommen unfähig in Bezug auf Hardware profiliert oder alternativ sind sie gekauft, sucht es euch aus.
Und? ATI hat Juniper ;P
GF104 macht Cypress Druck.
Was fehlt ist ein GF106 und GF108 um auch gegen die kleinen HD5 besser als mit GT2xx dazustehen.
Müssen Gamestar Verlinkungen hier sein?
Gamestar hat sich als vollkommen unfähig in Bezug auf Hardware profiliert oder alternativ sind sie gekauft, sucht es euch aus.
Ja die haben Mercury Research extra geschmiert für die News :upicard:
Müssen Gamestar Verlinkungen hier sein?
Gamestar hat sich als vollkommen unfähig in Bezug auf Hardware profiliert oder alternativ sind sie gekauft, sucht es euch aus.
Die Zahlen sind ja nicht von der Gamestar, sondern von Mercury Research.
Ob die jetzt von der Gamestar oder von der PCGH verlinkt werden, ist irrelevant.
Glaube keiner Statistik die Du nicht selber gefälscht hast :)
http://store.steampowered.com/hwsurvey/
Da sieht das aber völlig anders aus. NV 59% ATI 32%
Guten Morgen ^^
Morgen.
Selbst da hat AMD in den letzten paar Monaten um über 5% aufgeholt.
Wenn ATI nicht jetzt an NV vorbei kommt, wann dann?
Man hat ein komplettes DX11 Portofolio, NV hatte fast nichts. Warten wir mal Q4 ab.
Die Zahlen sind ja nicht von der Gamestar, sondern von Mercury Research.
Ob die jetzt von der Gamestar oder von der PCGH verlinkt werden, ist irrelevant.
Gegen einen PCGH Link hätte ich nichts. Oder einen Direktlink.
Schlammsau
2010-07-29, 12:02:30
Schon krass, hab gar net gewusst, dass Apple nVidia aus ihren Rechnern vebannt hat und auf ATi setzt.
http://www.computerbase.de/news/allgemein/studien/2010/juli/amd_nvidia_markt_grafik/
Die Umsatzwarnung kam zudem gerade passend, als Apple die Nvidia-Karten aus den neuen Mac Pro und iMacs verbannt hat
Wundert mich nicht. NV hat genau 1 Karte (die 460) im Desktop-Sortiment, die etwas taugt. Die anderen interessieren kaum jemanden, da man für die gleich noch ein neues Netzteil und Gehäuse braucht. AMD dagegen hat gleich 4 Karten, die attraktiv sind, verteilt über mehrere Segmente: 5870, 5850, 5770 und die kleine 5750. Letztere gibt's sogar passiv, obwohl sie absolut spieletauglich ist.
LovesuckZ
2010-07-29, 12:14:32
Weil es nicht daran liegt. Schaut doch mal die Zahlen an: nVidia verliert im overall Desktop deutlich und AMD profitiert davon nicht. Es sieht eher danach aus, dass China eine Blase für nVidia war, die jetzt geplatzt ist.
Im 8 Core Mac Pro gibt es nach wie vor nur: 1x/2x/3x/4x GT 120 oder 4870 512.
Ja echt der Wahnsinn, nur ich seh da jetzt nicht viel von HD5 oder von 400€ Grafikkarten ala 5870.
Apple ist an den kleinen Dinger interessiert, typischerweise lange nach Markteintritt. Nvidia fehlt hier klar etwas unter der GTX 460 um gegen AMD bestehen zu können.
Die 5870, (nebenbei bemerkt vollkommen uninteressant im Vergleich zu GTX 470, 5850 oder GTX 460 oder gar 5770) spielt keine Rolle.
Weil es nicht daran liegt. Schaut doch mal die Zahlen an: nVidia verliert im overall Desktop deutlich und AMD profitiert davon nicht. Es sieht eher danach aus, dass China eine Blase für nVidia war, die jetzt geplatzt ist.
Eine Blase für Nvidia. Das ist ja schon besser als jede Schmiereinkomödie.
AYAlf_2
2010-07-29, 13:12:59
Im 8 Core Mac Pro gibt es nach wie vor nur: 1x/2x/3x/4x GT 120 oder 4870 512.
Ja echt der Wahnsinn, nur ich seh da jetzt nicht viel von HD5 oder von 400€ Grafikkarten ala 5870.
Apple ist an den kleinen Dinger interessiert, typischerweise lange nach Markteintritt. Nvidia fehlt hier klar etwas unter der GTX 460 um gegen AMD bestehen zu können.
Die 5870, (nebenbei bemerkt vollkommen uninteressant im Vergleich zu GTX 470, 5850 oder GTX 460 oder gar 5770) spielt keine Rolle.
ich mag mac nicht .. aber ein mac sollte leise und gut gekuehlt sein, dass mit einer nvidia karte ist derzeit unmoeglich zu bewerkstelligen. die wissen was sie ihren kunden schuldig sind. highend (damit meine ich nicht highbench) bereich mit nvidia .. ist derzeit nicht zu machen!
Schrotti
2010-07-29, 13:16:10
nv kommt zurück nachdem die DX11 Karten da sind.
Man schaue sich nur mal an, wie die GTX 460 Karten weg gehen.
Nakai
2010-07-29, 13:20:59
AMD Portfolio war perfekt um früh auf den Markt zu kommen. Ebenso ist es perfekt um im unteren Bereich ziemlich Eindruck zu schinden. HD5770 und aufwärts sind nicht schlecht, aber gegen die NV-Konkurrenz sind sie noch zu teuer und zu unausgereift.
Die Nachteile in den höheren Segmenten trifft natürlich nicht in den unteren Segmenten zu.
Vor allem HD55xx und HD56xx sind hier sehr starke Mainstream und Lowcostkarten.
Während HD54xx eigentlich nur DX11 als Feature liefert und für alles eigentlich total ungeeignet ist, ist Redwood in dieser Hinsicht sehr stark.
Ernsthaft, NV wird sich schneller erholen, als den AMD-Fanbois lieb ist. ;)
Man schaue sich nur mal an, wie die GTX 460 Karten weg gehen.
Wie?
Gibt es schon Verkaufszahlen?
Link?
Sentionline
2010-07-29, 13:24:56
Das Problem von AMD kennen wir ja schon. Man muss sich nur hier im Forum umsehen. Nvidia hat seinen Stress mit dem Fermi durch und bietet eine solide Leistung. Die Treiber sind gut, Cuda wächst, PhysX wird nach wie vor häufig implementiert, SGSSAA findet in DX9-DX11 verwendung, Tesselationsleistung liegt über der Konkurrenz, 3DVision ist heftig, Treiberpatches bei Release von Spielen nicht nötig, GTX475 steht vor der Tür.
AMD hat nix mehr zu lachen, denn Nvidia wird mittlerweile auch mit Chips beliefert. Der Fermi wird optimiert und AMD mogelt wo es nur geht. Das fängt bei den Treibern an, an der umstrittenen BQ, mangelnde Zusammenarbeit mit den Entwicklern, zu wenig GPGPU Anwendungen für @Home...usw.
Der ATi kauf ist bereinigt, die müssen so langsam was an die treuen ATi Anhänger zurück geben, sonst wenden die sich ganz schnell wieder ab. Das kann in Form der offenen Physik Schnittstelle mit massiver implementierunterstützung seitens AMD geschehen, einer Reformierung der Treiber und der abschaffung der TreiberCheats geschehen. Sonst wird die HD6x im Regal stehen bleiben, da können sie noch so Die schrinken und den geringen Verbrauch eines Diesels propergieren...
mfg
ich mag mac nicht .. aber ein mac sollte leise und gut gekuehlt sein, dass mit einer nvidia karte ist derzeit unmoeglich zu bewerkstelligen. die wissen was sie ihren kunden schuldig sind. highend (damit meine ich nicht highbench) bereich mit nvidia .. ist derzeit nicht zu machen!
Hast du nur auf zititeren gedrückt und das lesen vergessen?
GT 120. Das ist keine Verschwenderisches Stück Hardware.
4870, das ist kein neues Stück Hardware und ebenfalls kein besonders teures.
Wie gesagt, es gibt keine GT 420, deshalb kann man sie nicht verbauen. Dazu musst du dir nicht irgendwas aus den Fingern saugen. Das ist ein Fakt. Gute oder böse Hardware ist doch Quatsch, es gibt keine GT 420, also kann man sie nicht verbauen. Gäbe es sie braucht Apple wiederrum einige Monate, um die eigene Sonderversion zu designen. Die kleinen HD5 machen deshalb das Rennen.
Kühlung ist bei Apple gut, deshalb gibts auch 2 Sixcore für 1000€ im Mac Pro. Leistung zählt, deshalb spricht nichts gegen eine GTX 480. Ich nehme jedoch an, das man schlicht die 5970 oder mehrere 5870 nimmt und im unteren Segment die kleinen HD5. Für Apple spart es Supportarbeit, ein Treiber für alle Linien. Das ist Apples Rezept, wenig verschiedene Hardware. Hätte Nvidia ein komplettes Portfolio hätte Apple zuschlagen können. Dein Argument des Vebrauchs ist an der Haaren herbei gezogen.
Sonst wird die HD6x im Regal stehen bleiben, da können sie noch so Die schrinken und den feringen Verbrauch eines Diesels propergieren...
mfg
Du hast mit einigen deiner Aussagen nicht Unrecht.
Bei dieser aber irrst du.
Wenn die Balken lang genug sind, dann werden die Karten gekauft. Und sollte die HD6000er überraschend gut werden, dann wird die wie blöde gekauft.
Schlecht ist, dass Nvidia da nicht kontern kann. Die sind mit dem GF100 am Limit des 40nm Prozesses, da ist keine Steigerung mehr möglich.
Eine GTX 480 erreicht beim Spielen deutlich über 200 Watt, eine 5870 ca. 130 Watt.
AMD hat also noch enorm Potenzial, Nvidia nicht.
Deswegen sehe ich bis zum 28nm Prozess AMD im Vorteil.
Aber mal sehen, vielleicht kann NV ja irgendwie "zaubern". :)
Sentionline
2010-07-29, 13:37:56
Ich denke doch sehr, das die GTX475 (http://www.pcgameshardware.de/aid,765691/GTX-475-Ersetzt-der-GF104-Vollausbau-die-Geforce-GTX-470/Grafikkarte/News/) mit 2GB den HighEnd Markt reformieren wird. So wie es der letzte GTX275 (1.8GB) getan hat. Es war der "bessere" GTX280/285.
Wenn einer Benchbalken kauft ist er selber schuld. Denn Ati betreibt so viel "Spielchen" mit den Treibern etc., das ist echt nicht mehr normal, was die Ihren Kunden so alles zumuten. Nvidia reicht Kartonweise Bonbons gratis ihren Karten bei. Wer das nicht sieht oder verkennt, ist selber schuld.
OT: Die größte "Praline" wird es für mich sein Grestorn wieder zu begrüßen und nHancer Reloaded zu sehen. Und dieses mal zücke ich meine PayPAL Karte.
mfg
Ich denke doch sehr, das die GTX475 (http://www.pcgameshardware.de/aid,765691/GTX-475-Ersetzt-der-GF104-Vollausbau-die-Geforce-GTX-470/Grafikkarte/News/) mit 2GB den HighEnd Markt reformieren wird. So wie es der letzte GTX275 (1.8GB) getan hat. Es war der "bessere" GTX280/285.
Dürfte gegen eine HD6000 kein Land sehen.
Fraglich, ob überhaupt eine 5870 geschlagen wird.
Wenn einer Benchbalken kauft ist er selber schuld. Denn Ati betreibt so viel "Spielchen" mit den Treibern etc., das ist echt nicht mehr normal, was die Ihren Kunden so alles zumuten. Nvidia reicht Kartonweise Bonbons gratis ihren Karten bei. Wer das nicht sieht oder verkennt, ist selber schuld.
Das Problem (oder auch nicht) ist doch, dass diese "Spielchen" nur sehr wenige sehen.
Viele Gamer können noch nicht mal genau sagen, was AA und AF überhaupt macht.
Für die meisten sind bei der BQ AMD und Nvidia gleichauf, weil sie eben keine Unterschiede sehen.
Sentionline
2010-07-29, 13:58:37
Aus diesem Grund werden Threads wie "warum geht XY nicht mit meiner Karte" weiterhin wachsen und gedeihen. ;)
Mich stört die aktuelle Marktlage nicht, da mir meine ATi/Nvidia Karten gute Dienste leisten. Ich beobachte den Markt aber sehr genau und weiss das AMD sich gerne zu weit aus dem Fenster lehnt um zu provozieren. Müssen sie nur aufpassen das sie nicht fallen. Im Mainstream bieten sie eine solide Leistung, wenn ich mir aber eine Karte für über 200€ kaufen würde, würd ich mich aber ganz genau umsehen. Das flüster ich jedem ins Ohr.
Freiwillig würd ich mir aber keine Karte mehr von ATi kaufen. Schon gar nicht im 200€ Bereich aufwärts, mögen sie noch so lange Balken haben. Denn manchmal gehts nicht nur um fps, Grafikkarten müssen vieles können. Ich finds ja schon lustig das alle Jubeln: "VLC wird GPU beschleunigt", im gleichen Atemzug: "Vorerst kein AA in SC II, Mafia 2 ohne Physik auf Ati, Spiel XY wird noch gehotfixed". Also irgendwann muss man auch als ATi Anhänger mal schauen, woran es hapert.
Ein Sonderfall war SGSSAA. Aber das hatte den faden beigeschmack des AI und des umstritten flimmer AFs. Bei Nvidia bekommt man nun beides auf maximum und trotzdem schaffen es einige sich die Nase über Nvidia zu rümpfen. Verstehe einer die Gamerwelt. EyeCandy adé?
mfg
Armaq
2010-07-29, 17:17:30
http://www.computerbase.de/news/allgemein/studien/2010/juli/amd_nvidia_markt_grafik/
Ist der Beitrag alt? Sieht so aus, als ob Nvidia wirklich Federn lassen musste.
dllfreak2001
2010-07-29, 18:06:57
Steam stellt doch nur die aktuelle Grafikkartenlage aller verbauten Chips dar, die Quartalszahlen berücksichtigen jedoch nur die aktuellen Verkäufe.
PingpiN
2010-07-29, 18:32:55
nv kommt zurück nachdem die DX11 Karten da sind.
Man schaue sich nur mal an, wie die GTX 460 Karten weg gehen.
Aber auch nur weil die 460 GTX so gehypt wird ohne grund.Die Karte erfüllt ihren zweck mehr nicht.Für 30 Euro mehr gibt es mit der 5850 ein qualitativ viel runderes produkt was überall high end ist!Die 460 GTX ist ein billiger mainstream chip wo überall gespart wird!
Hugo78
2010-07-29, 19:06:19
... 5850 ein qualitativ viel runderes produkt was überall high end ist!
Wenn die HD 5850 eine reine DX10 Karte wäre, dann hättest du Recht.
- http://www.tomshardware.de/geforce-gtx-460-gf104-fermi,testberichte-240596-3.html
Allerdings weist sogar noch die „gestutzte“ GF104-GPU AMDs Radeon HD 5850 deutlich in die Schranken, die ihrerseits offenbar mit einem Flaschenhals zu kämpfen hat
Bucklew
2010-07-29, 19:14:45
Für 30 Euro mehr gibt es mit der 5850 ein qualitativ viel runderes produkt was überall high end ist!Die 460 GTX ist ein billiger mainstream chip wo überall gespart wird!
Was kann die 5850 denn besser?
Dann erkläre doch bitte mal einem unbedarften Gast warum die HD5850 ein so viel runderes Produkt ist, warum die HD5850 High End ist und die GTX460 nur billiger Mainstream.
Ich den Reviews liest sich das anders als du es darstellst.
Die Standard HD5850 ist etwas schneller als eine GTX460 aber auch teurer.
Lautstärke der Standard GTX460 ist laut Reviews unter Last 7,5db niedriger als bei der Standard HD5850, Temperatur im Idle einer GTX460 1GB liegt laut Computerbase 11° unter der HD5850, unter Last ist die GTX460 1GB 17 Grad kühler als die HD5850.
Leistungaufnahme liegt 10W über der HD5850.
Für das Geld einer Standard HD5850 bekommt man eine übertaktete GTX460 1GB, die dann mindestens genauso schnell ist, in der Summe sogar schneller.
Dazu bietet die GTX460 PhysX, was für die Masse der potentiellen Käufer wohl nützlicher sein dürfte als Eyefinity und hat das etwas besser Anisotropische Filtering.
Was macht die HD5850 für dich jetzt zum wesentlich runderen Produkt, warum ist die HD5850 für dich überall High End und eine in der Leistung vergleichbare Karte nur billiges Mainstream?
OK, die GTX460 ist kein Vollausbau, aber was interessiert das den Konsumenten wenn er fürs gleiche Geld mit einer GTX460 OC die in der Summe etwas schnellere Karte bekommt.
Gehts es dir bei High End ausschliesslich um die Theorie, oder geht es dir um die Praxis, dass was für den Konsumenten zählt wenn er die Wahl hat zwischen einer GTX460 und einer HD5850?
dargo@work
2010-07-29, 19:20:25
Aber auch nur weil die 460 GTX so gehypt wird ohne grund.Die Karte erfüllt ihren zweck mehr nicht.Für 30 Euro mehr gibt es mit der 5850 ein qualitativ viel runderes produkt was überall high end ist!
Genau, vorallem bei Tesselation. ^^
Was kann die 5850 denn besser?
Alles.
Bucklew
2010-07-29, 19:29:28
Alles.
Tessellation schonmal nicht ;D
hq-hq
2010-07-29, 19:31:48
Aber auch nur weil die 460 GTX so gehypt wird ohne grund.Die Karte erfüllt ihren zweck mehr nicht.Für 30 Euro mehr gibt es mit der 5850 ein qualitativ viel runderes produkt was überall high end ist!Die 460 GTX ist ein billiger mainstream chip wo überall gespart wird!
pass lieber auf das sich die balken nicht so weit biegen dass dein dachstuhl einbricht :freak:
allerdings ist die gpu tatsächlich etwas kleiner als ein cypress, 2,15milliarden zu 1,95milliarden transistoren
Tessellation schonmal nicht ;D
Natürlich.
5850 hat einen beschnittenden Performance Chip. GTX 460 ebenfalls. -> Gleichstand
GTX 460 bietet High-End AF. 5850 nicht. -> Plus für GTX 460
GTX 460 hat eine ~dreifach so hohe Tesselationleistung. -> Plus für GTX 460
5850 ist teurer. -> Plus für 5850, weil was teurer ist besser. :lol:
Bucklew
2010-07-29, 19:39:36
Natürlich.
Nö.
http://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/15880-tes.html?start=14
nagus
2010-07-29, 19:46:53
Die GTX 460 ist da und verkauft sich wie gayschnitten Brot. Für das dritte Quartal sehe ich eine Umkehrung des aktuellen Verhältnisses.
MfG,
Raff
ACH. und sämtliche anderen DX11 AMD karten verkaufen sich nicht wie "GAYschnitten Brot"? du musst ja ziemlich drauf sein, wenn du glaubst, dass EINE garfikkarte, die sache wieder umkehrt. > "MEGALOL"
außerdem: bis nvidia wieder in fahrt kommt, steht bei amd schon wieder der generationswechsel vor der tür.
nagus
2010-07-29, 19:48:28
Tessellation schonmal nicht ;D
also mir würde das ja mit der zeit ziemlich fad werden, den ganzen tag um den drachen im "heaven" mark zu laufen. :freak:
außerdem: bis nvidia wieder in fahrt kommt, steht bei amd schon wieder der generationswechsel vor der tür.
AMD bleibt bei 40nm, da gibts keine Wunder.
Und solange Nvidia massenweise Wafer bekommt hat man einen schönen Kostenvorteil.
Problematisch ist einzig und allein, das die kleinsten Geforce 400 noch fehlen.
LovesuckZ
2010-07-29, 19:54:34
also mir würde das ja mit der zeit ziemlich fad werden, den ganzen tag um den drachen im "heaven" mark zu laufen. :freak:
Ein Glück, dann kann man ja die kleinen 10.1 Produkte von nVidia kaufen. :freak:
Black-Scorpion
2010-07-29, 19:56:31
Selten dämliche Kommentare die man hier lesen kann.
Was war an der D3D10.1 HD3 nochmal so toll?
Bucklew
2010-07-29, 20:05:33
also mir würde das ja mit der zeit ziemlich fad werden, den ganzen tag um den drachen im "heaven" mark zu laufen. :freak:
Naja, du wiederholst ja auch ständig denselben Müll, scheinbar hast du mit solchen Wiederholungen kein Problem? :biggrin:
Black-Scorpion
2010-07-29, 20:10:38
Wenigstens träumt er sich seine Wahrheit nicht zusammen so wie du.
Selbst im beliebten Beispiel hat die Karte nicht die dreifache Leistung bei Tessellation.
Bucklew
2010-07-29, 20:13:16
Wenigstens träumt er sich seine Wahrheit nicht zusammen so wie du.
Selbst im beliebten Beispiel hat die Karte nicht die dreifache Leistung bei Tessellation.
Wo hab ich denn was von dreifach geschrieben? Ich schrieb nur das sie schneller ist und das ist sie.
Black-Scorpion
2010-07-29, 20:19:38
Wo hab ich denn was von dreifach geschrieben? Ich schrieb nur das sie schneller ist und das ist sie.
Sorry, war der Gast der sich die dreifache Leistung erträumt hat.
Popeljoe
2010-07-29, 20:20:19
Also wenn man hier reinliest, ist das mittlerweile schlimmer, als das Powi!
Dort kann man wenigstens wahlweise Grün/Gelb/Orange/Rot oder Schwarz bashen.
Der ewig gleiche, nervige Austausch von Unfreundlichkeiten der hier herrscht, langweilt doch nur noch... ;(
Bucklew
2010-07-29, 20:23:05
Sorry, war der Gast der sich die dreifache Leistung erträumt hat.
Na, wer erträumt da seine Wahrheiten? ;D
(nur nen Scherz :freak: )
Sorry, war der Gast der sich die dreifache Leistung erträumt hat.
Mehr hast du nicht?
Schade, dann bleiben obige Argumente stehen, die 5850 kann nicht als eindeutig qualitativ besser hervorgehen, im Gegenteil sie kann nicht mithalten.
ACH. und sämtliche anderen DX11 AMD karten verkaufen sich nicht wie "GAYschnitten Brot"? du musst ja ziemlich drauf sein, wenn du glaubst, dass EINE garfikkarte, die sache wieder umkehrt. > "MEGALOL"
außerdem: bis nvidia wieder in fahrt kommt, steht bei amd schon wieder der generationswechsel vor der tür.
Und was bringt die neue Generation im Low-End? Wenn GF108 da ist, dann haben beide Featuregleichstand und fertigen im gleichen Prozess.
Sorry, aber ich halte es eher für einen Riesenplanungsfehler bei AMD, dass man nicht mehr Wafer gekauft hat und NV nicht auf 30% oder weniger gedrängt hat.
dargo@work
2010-07-29, 20:25:43
Sorry, war der Gast der sich die dreifache Leistung erträumt hat.
Ist es so schwer zu verstehen? Die Karte hat die 3 fache Tessellationsleistung. Dass die Karte nicht 3x so schnell im XYZ-Benchmark sein kann dürfte wohl jedem klar sein. Oder seit wann kommt in einem Benchmark nur der Tesselator zum Einsatz?
Black-Scorpion
2010-07-29, 20:26:28
Mehr hast du nicht?
Schade, dann bleiben obige Argumente stehen, die 5850 kann nicht als eindeutig qualitativ besser hervorgehen, im Gegenteil sie kann nicht mithalten.
Muss ich unbedingt auf jeden BS reagieren?
Zu deiner erträumten Leistung ist oben ein schöner Link. Lesen solltest du ja können.
'edit'
Ist es so schwer zu verstehen? Die Karte hat die 3 fache Tessellationsleistung. Dass die Karte nicht 3x so schnell im XYZ-Benchmark sein kann dürfte wohl jedem klar sein. Oder seit wann kommt in einem Benchmark nur der Tesselator zum Einsatz?
Du kennst den Unterschied zwischen theoretischer und praktischer Leistung?
Wenn jemand schreibt die Karte hat die dreifache Tess Leistung ist das Quatsch.
Sie hat die theoretisch dreifache Leistung.
Muss ich unbedingt auf jeden BS reagieren?
Zu deiner erträumten Leistung ist oben ein schöner Link. Lesen solltest du ja können.
Das Heaven nicht zu 100% an der Tessellationleistung hängt hast du nicht gecheckt?
Black-Scorpion
2010-07-29, 20:35:25
Das Heaven nicht zu 100% an der Tessellationleistung hängt hast du nicht gecheckt?
Ach jetzt auf einmal kann man den Lieblingsbeweis für die Tess Leistung nicht mehr als Paradebeispiel nutzen?
Bei der 480er und 470er sah das komischerweise noch ganz anders aus.
Aber da haben die Ergebnisse ja auch zu den Aussagen gepasst.
Jetzt passen de zahlen nicht zur beschriebenen dreifachen Leistung und schon ist der Bench nicht mehr das Maß aller Dinge.
Was ändert sich an der dreifachen Leistung, wenn irgendein Bench diese nicht benötigt?
Mit der GTX 480 hat das nichts zu tun, wo konnte die ihr achtfache Tessellationleistung 100% durchschlagen?
dargo@work
2010-07-29, 20:40:43
Ach jetzt auf einmal kann man den Lieblingsbeweis für die Tess Leistung nicht mehr als Paradebeispiel nutzen?
Bei der 480er und 470er sah das komischerweise noch ganz anders aus.
Aber da haben die Ergebnisse ja auch zu den Aussagen gepasst.
Jetzt passen de zahlen nicht zur beschriebenen dreifachen Leistung und schon ist der Bench nicht mehr das Maß aller Dinge.
*andenkopffass*
Manche haben echt Probleme einen Benchmark zu verstehen.
Heaven hat einzelne Szenen in denen eine hohe Tessellationsleistung gefordert wird, zb. beim Drachen. Wenn die Kamera gerade über die Wiese fliegt - wie soll in solcher Szene die Geometrieleistung einer ATI limitieren wenn keine gefordert ist?
hq-hq
2010-07-29, 20:50:46
*andenkopffass*
Manche haben echt Probleme einen Benchmark zu verstehen.
Heaven hat einzelne Szenen in denen eine hohe Tessellationsleistung gefordert wird, zb. beim Drachen. Wenn die Kamera gerade über die Wiese fliegt - wie soll in solcher Szene die Geometrieleistung einer ATI limitieren wenn keine gefordert ist?
keine ahnung was mit Black-Scorpion los ist :(
wahrscheinlich hat er grippe oder sowas
Was war an der D3D10.1 HD3 nochmal so toll?
Lautstärke und Leistungsaufnahme. Mehr nicht. Die HD 3870 wird in jedem aktuellen Spiel von der einst als "ähnlich schnell" betitelten 8800 GT/512 zersägt.
MfG,
Raff
Lautstärke und Leistungsaufnahme. Mehr nicht. Die HD 3870 wird in jedem aktuellen Spiel von der einst als "ähnlich schnell" betitelten 8800 GT/512 zersägt.
MfG,
Raff
interessehalber... link zu so einem Test?
y33H@
2010-07-29, 21:28:32
Selbst mit der 9600 GT bzw. GT 240 hat sie gerne ihre Probleme :usad:
EDIT
http://www.abload.de/thumb/metro2033-gpus-1680xgr1t.png (http://www.abload.de/image.php?img=metro2033-gpus-1680xgr1t.png) http://www.abload.de/thumb/bc2-gpus-16804oti.png (http://www.abload.de/image.php?img=bc2-gpus-16804oti.png)
Selbst mit der 9600 GT bzw. GT 240 hat sie gerne ihre Probleme :usad:
EDIT
http://www.abload.de/thumb/metro2033-gpus-1680xgr1t.png (http://www.abload.de/image.php?img=metro2033-gpus-1680xgr1t.png) http://www.abload.de/thumb/bc2-gpus-16804oti.png (http://www.abload.de/image.php?img=bc2-gpus-16804oti.png)
Sie war auch damals nur auf 9600GT Niveau, dazu gab es dutzende Tests. Was soll daran jetzt überraschend sein?
Sentionline
2010-07-29, 22:04:52
Ausserhalb von ermogelten Benchbalken bietet AMD nix! Aus den Treibern is nix zu holen, Steam ist zum erliegen gekommen, open Physik tut sich nix, Spiele und Entwicklersupport weiterhin mangelhaft...
Aber eine HD5850 ist High End, alles klar. ;)
Echtes HighEnd ist das bieten von echtem 3D, unumstrittene und maximale BQ in allen APIs, Pysik Bonbon, GPGPU Softwarelandschaft. Usw. Das ist "HighEnd". Sich über die Spielegrenzen hinaus zu wagen und mal was zuende zu bringen.
mfg
LovesuckZ
2010-07-29, 22:06:12
Eine 8800GT war von Startweg ca. 20% schneller. Mit neueren Spielen ist es bis auf 40% angewachsen. Die 3870 hatte 10.1 und den niederen IDLE-Verbrauch. Das war auch der Grund, warum AMD mit dem rv670 keine Marktanteile gewinnen konnte.
Exxtreme
2010-07-29, 22:13:54
Selbst mit der 9600 GT bzw. GT 240 hat sie gerne ihre Probleme :usad:
EDIT
http://www.abload.de/thumb/metro2033-gpus-1680xgr1t.png (http://www.abload.de/image.php?img=metro2033-gpus-1680xgr1t.png) http://www.abload.de/thumb/bc2-gpus-16804oti.png (http://www.abload.de/image.php?img=bc2-gpus-16804oti.png)
So lahm ist meine GraKa mittlerweile? :usad:
Aber das Ding war nie richtig schneller als die 9600 GT.
http://www.computerbase.de/artikel/grafikkarten/2008/vorschau_nvidia_geforce_gtx_285/#abschnitt_einleitung
y33H@
2010-07-29, 22:15:32
@ Gast
Die Differenz war "früher" geringer, d.h. die HD3870 näher an der 8800GT.
Bei CB etwa waren es beim Lauch der HD3870 in 16x12 mit 4x/16:1 nur +8% zugunsten der 88GT, im Artikel "Grafikkarten 2008" sind es bereits +41% und im Artikel " ATi Radeon HD 5870" sind es ausgehend von der praktisch gleich schnellen HD4670 gar +52%. Klar, der Parcours hat sich geändert, aber Spieler zocken ja auch neuere Titel.
SamLombardo
2010-07-30, 07:56:55
Du kennst den Unterschied zwischen theoretischer und praktischer Leistung?
Wenn jemand schreibt die Karte hat die dreifache Tess Leistung ist das Quatsch.
Sie hat die theoretisch dreifache Leistung.
Praktisch hat sie etwa die doppelte Tessellation Leistung wie man schön im Stone Giant Benchmark sehen kann. 3fach ist übertrieben, dennoch ist das Ergebnis mehr als eindeutig;)
Tigerchen
2010-07-30, 08:29:56
Glaube keiner Statistik die Du nicht selber gefälscht hast :)
http://store.steampowered.com/hwsurvey/
Da sieht das aber völlig anders aus. NV 59% ATI 32%
Guten Morgen ^^
Da werden selbst Grafiklösungen aus dem Museum mit einbezogen. Und ja. Bei technisch veralteten Beschleunigern liegt nV ganz vorn. :up:
Da mir gestern angekreidet wurde, hier Gamestarlinks zu posten, hier nochmal aus anderen Quellen:
http://ht4u.net/news/22447_amd_ueberholt_nvidia_bei_diskreter_grafik/
http://www.computerbase.de/news/allgemein/studien/2010/juli/amd_nvidia_markt_grafik/
BTW ihr seid hier mit der Tesselationdiskussion mächtig OT.
In dem Thread sollte diskutiert werden, warum Nvidia hinter AMD(ATI) zurückgefallen ist und ob ihr es als Gamer gut findet, dass mal wieder AMD vorne ist, weil es die Konkurrenz belebt.
Wenn ihr über Tesselation, AF oder sonstwas diskutieren wollt, dann macht es bitte in den entsprechenden Threads!
Danke!
Da werden selbst Grafiklösungen aus dem Museum mit einbezogen. Und ja. Bei technisch veralteten Beschleunigern liegt nV ganz vorn. :up:
4800 führt weiterhin, trotz leichtem Verlust.
5700 oder 5800 werden niemals auch nur in die Nähe der 4800 kommen.
Das alles nur wegen zu zögerlich bestellten Kapazitäten bei TSMC und den daraus resultierenden Konkurrenzfernen Preisen.
svenw
2010-07-30, 08:55:42
Hust, was muß ich denn hier lesen?
1. Klar liegt die 5850 in der Tesselation Leistung gegen die 460er zurück.... nur braucht aktuell kein Mensch Tesselation. Bei den Tesselation Referenztiteln verschlimmbessert Tesselation eher den Look und daran wird sich so schnell nichts ändern.
2. Die 5850 ist in den meisten Spielen schneller.
3. Wir vergleichen hier eine 9 Monate alte Karte mit einer aktuellen, das geht für die alte Karte meiste nicht so gut aus, und dafür hält sich die 5850 sehr gut. Warten wir mal ab was die nächste Generation von ATI bringt (egal ob sie nun SI oder NI heißt).
4. PhysX ist IMHO völlig unerheblich. Es ist ein tolles Feature, nur was nutzt mir der 500PS Ferrari wenn ich maximal über Feldweg holpern kann? Die PhysX Titel kann man an einer Hand abzählen und dort ist es nur implementiert weil NV dafür gezahlt hat. Traurig aber wahr.
5. TSMC ist dabei die neue Fab hochzufahren, also wird es in absehbarer Zukunft auch mehr Waferstarts geben, so daß beide bedient werden.
Momentan ist ATI auf der Überholspur. NV hat mit der 460 nach 9 Monaten Stillstand sicherlich aufgeholt, aber der Gegenschlag von ATI kommt in 2 Monaten, mal sehen wie der wird.
Da mir gestern angekreidet wurde, hier Gamestarlinks zu posten, hier nochmal aus anderen Quellen:
Ich bedanke mich. :)
Sieht für mich nicht weiter verwunderlich aus. Nvidia fehlt schlicht und ergreifend etwas unter der GTX 460 und selbst diese kann nicht von heute auf morgen gut machen, das sie erst seit kurzer Zeit zur Verfügung steht.
Steam ist schon alleine deswegen für die Gesamtbetrachtung unbrauchbar, weil 5700 und 5800 den Großteil der HD5 ausmachen sollen. Das halte ich für absoluten Quatsch, die kleinen bekommen viel zu wenig Beachtung.
Das Nvidias kleine Geforce 400 und AMDs kleine HD4 sich weiterhingut halten, das kann man sehr gut nachvollziehen. Womöglich der Grund das Nvidia noch so gut dasteht, da die D3D11 Liga weiterhin viel zu hochpreisig, gemessen an der parallel verkauften D3D10 Liga ist.
Hust, was muß ich denn hier lesen?
Hättest du am besten den ersten OT Post gelesen:
"Für 30 Euro mehr gibt es mit der 5850 ein qualitativ viel runderes produkt was überall high end ist!Die 460 GTX ist ein billiger mainstream chip wo überall gespart wird!"
Dann wüsstest du, worum es geht und das dies Quatsch ist. Gründe kannst du auf der letzten Seite nachlesen.
Es ging nicht um Performance oder dem Alter, es ging um Qualität, Billig und High-End vs Mainstream und gespart. Alles Schwachsinn, diese Argumente wurden wiederlegt.
Ich hoffe damit ist dieser OT Müll beendet.
Botcruscher
2010-07-30, 10:24:14
Die Diskussion ist doch eh müßig. Ati könnte die 5850 locker für 200€ verkaufen und hatte das langfristig auch geplant. Der große Sprung kommt hier mit der neuen Fabrik von TSMC und den daraus folgenden Mehrkapazitäten.
NV sollte sich für diese glücklichen Umstände Bedanken. Wenn Ati den Markt hätte fluten können, sehe es ganz anders aus.
Die Diskussion ist doch eh müßig. Ati könnte die 5850 locker für 200€ verkaufen und hatte das langfristig auch geplant. Der große Sprung kommt hier mit der neuen Fabrik von TSMC und den daraus folgenden Mehrkapazitäten.
NV sollte sich für diese glücklichen Umstände Bedanken. Wenn Ati den Markt hätte fluten können, sehe es ganz anders aus.
Mehr gibt es dazu nicht zu sagen. GF104 ist größer als Cypress, braucht mehr Strom. Nichts daran ist beeindruckend. NV hat nur das Glück das AMD mangels genügend Chips mit den Preisen nicht runter kann. Hätten sie den Markt die letzten 10 Monate fluten können würde NVs Umsatzwarnung wohl viel drastischer aussehen.
LovesuckZ
2010-07-30, 11:14:24
Die Karte ist deswegen so toll, weil sie eben für <200€ verkauft wird. Genauso wie die rv770 Karten. Die waren ja auch toll, weil sie so billig waren.
Die Karte ist deswegen so toll, weil sie eben für <200€ verkauft wird. Genauso wie die rv770 Karten. Die waren ja auch toll, weil sie so billig waren.
Der rv770 war aber doch kleiner, ergo auch billiger als die entsprechenden nvidia karten, oder täusche ich mich da?
Das ist das was mich an der 460 so wundert. Sie ist größer als Cypress, sollte also etwas teuerer zu bauen sein (die Yields sollten bei beiden modellen recht gut sein mittlerweile), wird allerdings billiger verkauft. Durch die hohe Stückzahl des GF104 wird dieser natürlich etwas billiger, aber sowohl AMD als auch Nvidia sind Großkunden bei TSMC also werden die Unterschiede im Preis nicht riesig sein.
Zur Zeit geht das alles noch auf. Nv verkauft viele Karten, mit ganz ok Gewinnen pro Karte, verdient also gut Geld. ATI auch, da sie obwohl sie wohl gerade weniger verkaufen die höheren Margen haben sollten. Was passiert aber wenn die Kapazitäten von TSMC steigen? ATI kann dann die Preise von Cypress senken(und damit die Gewinnspanne von NV wirklich drücken). Wenn dann auch noch die 6k Karten kommen, und diese in der Tessalation-Leistung mit NV gleichziehen oder wenigsten den Abstand verringern, und etwas effizienter als Cypress werden, hat Nvidia ein Problem.
Sentionline
2010-07-30, 13:12:50
Wenn dann auch noch die 6k Karten kommen, und diese in der Tessalation-Leistung mit NV gleichziehen oder wenigsten den Abstand verringern, und etwas effizienter als Cypress werden, hat Nvidia ein Problem.
Nvidia hat also "nur" mehr Tesselationsleistung aktuell zu bieten. Hab ich das richtig verstanden? :ucoffee:
svenw
2010-07-30, 13:20:50
Bis auf die etwas höhere Qualität der Filterung die etwas besseren Treiber gibt es keine Vorteile für NV.
Cuda nutzt praktisch kein Privatman bzw. das was es privat gibt (Viedeobearbeitung) bietet ATI auch. PhysX ist ein von NV künstlich am Leben gehaltens Schoßhündchen (leider), denn für die Firmen lohnt es sich nicht es massiv zu implementieren da sie damit alle ATI Kunden aussperren. Wenn schon AAA-Top Titel (SC2) ohne AA kommen und das von den Grakafirmen nachgerüstet werden muß kann man sich die Zukunft von PhysX auf Grakas ausrechnen. Traurig aber wahr.
y33H@
2010-07-30, 13:23:44
SGSSAA in allen APIs?
Sentionline
2010-07-30, 13:28:01
Keine "Hotfixes" bei Spielereleases? 3D? Weniger Mikroruckeln? PhysX AddOn Option mit kleiner Karte?
Das ein geschminkter Historikerchip mit etwas Diät und Fitnesstudio erfahrung inkl. mogelbrille im Treiber das "bessere" Angebot sein soll, wage ich mal zu bezweifeln.
mfg
Keine "Hotfixes" bei Spielereleases? 3D? Weniger Mikroruckeln? PhysX AddOn Option mit kleiner Karte?
Das ein geschminkter Historikerchip mit etwas Diät und Fitnesstudio erfahrung inkl. mogelbrille im Treiber das "bessere" Angebot sein soll, wage ich mal zu bezweifeln.
mfg
Wenn ich mir deine Asbach Uralt PCs so ansehe, hast Du nie einen HD 5XXX besessen. Daher wäre es angebracht, den Ball schön flach zu halten.
SamLombardo
2010-07-30, 13:35:57
@ swenw: Merkst Du denn nicht selber was Du da schreibst. Vor einer Woche war von Dir zu lesen:
NV ist dabei Tesselation selbst zu entwerten. der 104er bringt nicht mehr Tess Power mit als die 5870
Als man Dir das Gegenteil mit Hilfe von Benchmarks bewiesen hat auf einmal das:
Klar liegt die 5850 in der Tesselation Leistung gegen die 460er zurück.... nur braucht aktuell kein Mensch Tesselation. Bei den Tesselation Referenztiteln verschlimmbessert Tesselation eher den Look und daran wird sich so schnell nichts ändern.
Tessellation, Physx und alles was Deine Ati Karte sonst nicht kann ist auf einmal scheiße oder unwichtig:uroll:. Immer diese verblendeten Fanatiker "mache mir die Welt wie sie mir gefällt"
Sorry aber wenn ich sowas lese *Kopfschüttel* Nimmst Du Dich überhaupt selber ernst?
Sentionline
2010-07-30, 13:37:21
Mein Nachbar hat sich eine HD5x gegönnt. Ich schau mir das Spielchen ab und zu an. Brauche keine zu besitzen um diese zu beurteilen und schon gar nicht um hier mitreden zu können. Die "Fakten" sind Wordwide bekannt, und das nicht seid heute ;)
Warum ich welche PCs mit welchen Karten betreibe...geht dich...
mfg
4. PhysX ist IMHO völlig unerheblich.
Viel Spaß mit Mafia 2 @Konsolenoptik. megalol
Mein Nachbar hat sich eine HD5x gegönnt. Ich schau mir das Spielchen ab und zu an. Brauche keine zu besitzen um diese zu beurteilen und schon gar nicht um hier mitreden zu können. Die "Fakten" sind Wordwide bekannt, und das nicht seid heute ;)
Warum ich welche PCs mit welchen Karten betreibe...geht dich...
mfg
Ja klar. Mein Schaukelpferd wiehert sich gerade einen Ast ab. Get a life.
mufg
Keine "Hotfixes" bei Spielereleases?
Gab, gibt es und wird es auch bei NV (und auch ATI) geben.
Man kann nicht den gesamten SPielemarkt im Überblick behalten.
3D?
Bis das hoffähig ist, vergehen noch ein paar Jährechen.
AMD hat übrigens angekündigt, 3D Ende des Jahres, Anfang nächsten Jahres zu unterstützen.
Allerdings nur mit Fremdprodukten. Dürfte aber kein so großer Nachteil sein.
Weniger Mikroruckeln?
Ich weiß nicht genau, was du jetzt damit sagen willst... :|
Bei einer Karte (und das dürfte die meisten interessieren) gibt es keine Microruckler.
Wenn du mehrere Karten verwendest (wovon ich abraten würde), dann hast du die Problematik der Microruckler auch bei NV und das wird sich nicht ändern, da eine Grafikkarte (oder der Treiber) nicht hellsehen kann, um die Frameverteilung so hinzubekommen, dass keine Microruckler auftreten.
PhysX AddOn Option mit kleiner Karte?
Das geht doch auch mit einem bestimmten Treiber mit einer ATI als Hauptkarte.
Und bei der Unmenge an PhysX-Spielen (lol), ist dies nicht wirklich ein schwerwiegendes Argument pro Nvidia.
Das ein geschminkter Historikerchip mit etwas Diät und Fitnesstudio erfahrung inkl. mogelbrille im Treiber das "bessere" Angebot sein soll, wage ich mal zu bezweifeln.
mfg
Ob eine Herdplatte mit der Lautstärke eines abhebenden Flugzeugs das "bessere" Angebot sein soll, das wage ich mal zu bezweifeln. usw.
Aber lassen wir diese Polemik, bringt nicht unbedingt eine gute Diskussionskultur ans Licht. :)
Nvidia hat also "nur" mehr Tesselationsleistung aktuell zu bieten. Hab ich das richtig verstanden? :ucoffee:
Nö natürlich nicht. Das Feature Packet von Nvidia ist insgesamt besser, und ATI sollte da mal in einigen Punkten nachziehen(insbsondere AA-Modi und AF-Qualität). Ab nem gewissen Punkt(der sicher für jeden irgendwo anders liegt) werden diese Dinge allerdings zweitrangig.
Zur Zeit ist es so das Cypress in Form der 5850 irgendwas zwischen 10 und 20% mehr fps liefert in nicht Tesselation-Szenarien, und das bei kleinerem Die. Wenn SI oder NI(wie auch immer ATI die 6k nun nennt) da nachbessern und gute Tesselation-Leistung liefern, und dabei auch noch effizienter als Cypress werden, wird sich die ganze Sache noch weiter verschieben.
Nur mal angenommen SI wird etwas größer als Cypress, also ca. GF104 Niveau, liefert dabei allerdings ähnliche Tesselation Werte und wird nochmal 10%(was jez nich so viel ist) schneller als Cypress. Dann kann ATI zum gleichen Preis wie NV ne Karte anbieten die 20-30% schneller ist, für viele Käufer wird das der ausschlaggebende Punkt sein, trotz der Zusatzfeatures von NV.
Ich würde mir zur Zeit auch eher ne 460 kaufen als ne 5850 da der Aufpreis imo die paar mehr fps nicht wert ist. Und ich kann auch die Leute verstehen die Physix,Cuda,3DVision,DX10-11SGSSAA und HQ-AF toll finden, und sich daher NV kaufen. Ich finde es dennoch sehr eindrucksvoll welche Leistung ATI aus seinen Chips holt, und denke das könnte zu nem Problem für Nvidia werden.
Als man Dir das Gegenteil mit Hilfe von Benchmarks bewiesen hat auf einmal das:
Ach ja? Kein Mensch hat hier irgendwas bewiesen; Du lügst wie gedruckt.
Warum ist die 460 denn in allen Spielen mit eurem so innigst geliebten Tessellation Feature fast durchgehend hinter der 5850?
http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_460/16/#abschnitt_metro_2033
http://www.computerbase.de/artikel/grafikkarten/2010/test_nvidia_geforce_gtx_460/17/#abschnitt_stalker__call_of_pripyat
Ob eine Herdplatte mit der Lautstärke eines abhebenden Flugzeugs das "bessere" Angebot sein soll, das wage ich mal zu bezweifeln. usw.
Aber lassen wir diese Polemik, bringt nicht unbedingt eine gute Diskussionskultur ans Licht. :)
Im Vergleich mit einem aktuellen High-End-Chip wie dem GF100 gleicht eine moderne Herdplatte einem Trockeneis-Plättchen. ;) Die Hitze pro Quadratzentimeter auf einem Mikroprozessor ist einige Faktoren höher.
MfG,
Raff
SamLombardo
2010-07-30, 14:05:28
Ach ja? Kein Mensch hat hier irgendwas bewiesen; Du lügst wie gedruckt.
]
Nana lieber so genannter Gast:biggrin:
Du willst also ernsthaft behaupten dass ich lüge wenn ich sage die GTX460 hat eine höhere Tessellationleistung als alle Ati karten die es gibt (und erst recht als die 5850)? Wenn ja werden sich gerade nahezu alle User dieses Forums, auch die Ati Anhänger gerade totlachen über soviel Inkompetenz und Enstirnigkeit.
Tessellationbenchmark Stone Giant: GTX460 59fps, HD5850 31 fps. Musst Dir nur mal die Mühe machen im entsprechenden Unterforum nachzuschauen.
Ergo: Die GTX460 hat in Etwa die doppelte Tessellationleistung wie die 5850. Um nichts anderes ging es hier, nicht um allgemeine Spieleleistung sondern um DX11 Tessellation. Jetzt verstanden?
Die Gäste in diesem Forum sind echt klasse.;D
Sentionline
2010-07-30, 14:11:03
Gab, gibt es und wird es auch bei NV (und auch ATI) geben.
Bei 10 Spielereleases Patcht Nvidia villeicht 1 Spiel (wenn überhaupt) nach. Bei Ati sind das bei bedeutenden Titeln deutlich höher. Große Themen bei Release waren (jetzt aus dem Stehgreif): Batman, Saboteur, BioShock, GTA4 und jetzt demnächst muss SC II nachgepatcht werden. Ich finde das "nicht gut" und auch nicht im Sinne der Gamer sowie Kartenkäufer.
Bis das hoffähig ist, vergehen noch ein paar Jährechen.
Hab nix gegenteiliges behauptet. Erfahrung kann man aber nicht kaufen oder "nachpatchen".
Ich weiß nicht genau, was du jetzt damit sagen willst... :|
Bei einer Karte (und das dürfte die meisten interessieren) gibt es keine Microruckler.
Mich interessiert CF/SLI generell nicht. Aber MultiGPU Karten werden ins rollen kommen, wenn einheitlich alle ein 1080p Fernseher haben und 3D nutzen wollen. Nachweislich neigt der Nvidia Treiber weniger zum Mikroruckeln. Somit bin ich wieder bei dem Satz mit der "Erfahrung" (s.o.).
Das geht doch auch mit einem bestimmten Treiber mit einer ATI als Hauptkarte.
Und bei der Unmenge an PhysX-Spielen (lol), ist dies nicht wirklich ein schwerwiegendes Argument pro Nvidia.
Begrenzung auf bestimmte Treiber ist doch arg Sackgasse. Denn künftig wird Nvidia wahrscheinlich noch mehr unternehmen um da ein Riegel vor zu schieben. Zudem unterstützen ältere Treiber eher bescheiden neuere Karten, das wissen wir doch. Und die PhysX Palette (http://de.nzone.com/object/nzone_physxgames_home_de.html) ist recht breit wie ich finde. Da sind so Sachen wie Gothic 3, Metro 2033, UT3, GoW und demnächst Mafia 2. Ich finde es lohnt sich durchaus für manche Titel. Besser als "garnichts", was bei Ati im Angebot ist.
Ich komme aber mal zu meinen finalen Worten.
Mich hat die HD48x bei Release aus den Socken gehauen, recht schnell kam die ernüchterung. Der nächste wird mit sicherheit kein ATi. Also Ati rudert bei mir eher zurück, als das es vorprescht. Nvidia lernt wenigstens aus fehlern. Werden ja sehn wie AMD mit ihrer neuen Grafiktechnik "Northern Islands" einen Blitzstart hinlegt und wo es kränkeln wird, während Nvidia nur noch shrinken und hochtakten braucht. Vormarsch mit dem Launch von Fermi erstmal beendet und die Fahne wird man abgeben müssen.
mfg
Nana lieber so genannter Gast:biggrin:
Du willst also ernsthaft behaupten dass ich lüge wenn ich sage die GTX460 hat eine höhere Tessellationleistung als alle Ati karten die es gibt (und erst recht als die 5850)? Wenn ja werden sich gerade nahezu alle User dieses Forums, auch die Ati Anhänger gerade totlachen über soviel Inkompetenz und Enstirnigkeit.
Tessellationbenchmark Stone Giant: GTX460 59fps, HD5850 31 fps. Musst Dir nur mal die Mühe machen im entsprechenden Unterforum nachzuschauen.
Ergo: Die GTX460 hat in Etwa die doppelte Tessellationleistung wie die 5850. Um nichts anderes ging es hier, nicht um allgemeine Spieleleistung sondern um DX11 Tessellation. Jetzt verstanden?
Die Gäste in diesem Forum sind echt klasse.;D
Du bist hier auch nur ein Gast. Allerdings alles andere als klasse.
Ach so, der werte Herr bezieht sich auch irgendwelche Demos, anstatt auf waschechte Spiele. Ok. Im Farbrausch 043 gibt's einen Benchmark, bei dem eine HD 5770 eine GTX 285 um ca. Faktor 2 abzieht. Womit bewiesen wäre, dass eine HD 5770 immer und überall doppelt so schnell wie eine GTX 285 ist. Jetzt verstanden?
SamLombardo
2010-07-30, 14:14:34
Hehe. Irgendwie hab ich genau diese Antwort erwartet. Du hast offenstichtlich NICHTS verstanden. Alle anderen denke ich schon.;)
Mich hat die HD48x bei Release aus den Socken gehauen, recht schnell kam die ernüchterung.
Offenbar war die Ernüchterung ja nur klein.
Hehe. Irgendwie hab ich genau diese Antwort erwartet. Du hast offenstichtlich NICHTS verstanden. Alle anderen denke ich schon.;)
Genau.
dargo@work
2010-07-30, 14:17:58
Tessellationbenchmark Stone Giant: GTX460 59fps, HD5850 31 fps. Musst Dir nur mal die Mühe machen im entsprechenden Unterforum nachzuschauen.
Ergo: Die GTX460 hat in Etwa die doppelte Tessellationleistung wie die 5850. Um nichts anderes ging es hier, nicht um allgemeine Spieleleistung sondern um DX11 Tessellation. Jetzt verstanden?
Falsch. Die Tessellationsleistung einer GTX460 gegenüber einer ATI ist größer als Faktor 2. Was ist denn daran so schwer zu verstehen, dass selbst Stone Giant nicht ausschließlich Tessellationsleistung verlangt?
Sentionline
2010-07-30, 14:19:18
Ach so, der werte Herr bezieht sich auch irgendwelche Demos, anstatt auf waschechte Spiele.
Zukunft, denk ich mal. ;)
Ich finde es summiert sich: Cuda, PhysX, Tesselation, SGSSAA DX9-11, HQAF. Wenn diese Begriffe bei "HighEnd" Käufern noch nicht angekommen sind, dann weiss ich auch nicht...weiter.
mfg
SamLombardo
2010-07-30, 14:22:51
Falsch. Die Tessellationsleistung einer GTX460 gegenüber einer ATI ist größer als Faktor 2. Was ist denn daran so schwer zu verstehen, dass selbst Stone Giant nicht ausschließlich Tessellationsleistung verlangt?
Da hast Du sicher recht. Bestätigt doch aber nur was ich gesagt habe, nur dass der Vorsprung für NV noch größer ist. Mir ging es um die lächerliche Behauptung von swenw und des freundlichen Gastes, dass die Tessellationleistung der 460 und 5850 auf einem Level liegen würden. Völlig absurd und aberwitzig:rolleyes:
Bei 10 Spielereleases Patcht Nvidia villeicht 1 Spiel (wenn überhaupt) nach.
So schlecht sieht es ja noch nichtmal bei AMD aus. ;)
Weißt du überhaupt wie viele Spiele pro Jahr für den PC rauskommen?
Ich habe die genaue Zahl nicht, aber es sind sicherlich mehrere Hunderte oder gar mehr als Tausend.
Wenn jeder 10. Titel nicht funktionieren würde, dann wäre das schon disaströs.
Die Anzahl der Spiele, die out of the box bei NV oder AMD nicht korrekt funktionieren, dürfte unter 1% liegen, und das deutlich.
Mich interessiert CF/SLI generell nicht. Aber bei MultiGPU Karten werden ins rollen kommen, wenn einheitlich alle ein 1080p Fernseher haben und 3D nutzen wollen. Nachweislich neigt der Nvidia Treiber weniger zum Mikroruckeln. Somit bin ich wieder bei dem Satz mit der "Erfahrung".
Wie schons geschrieben, kann eine Grafikkarte nicht hellsehen.
Ob die jetzt von NV oder AMD kommt, ist irrelevant.
Wenn es so wäre, wie du es sagst, dann könnte man dies auch mittels Frameverteilung beweisen.
Habe davon aber noch nie was gelesen, was aber auch daran liegen könnte, dass in meinen Augen Multi-GPU eh crap ist und ich deswegen nicht auf dem neusten Stand bin.
Zum Rest sage ich mal nichts, da ich es teilweise wie du sehe.
Nur ein Frage noch:
Was soll mit Gothic 3 sein?
Läuft bei mir mit Nvidia und ATI einwandfrei.
Mir ging es um die lächerliche Behauptung von swenw und des freundlichen Gastes, dass die Tessellationleistung der 460 und 5850 auf einem Level liegen würden. Völlig absurd und aberwitzig:rolleyes:
Aberwitzig? In Spielen ist genau das der Fall. Und das wurde mehrfach bewiesen. Theoretische Werte oder irgendwelche Cherrypicking-Zahlen sind uninteressant.
Aber egal. Ich überlasse Euch NV Anbetern nun die Spielweise; ich muss noch Arbeiten.
Bucklew
2010-07-30, 14:27:20
Die Anzahl der Spiele, die out of the box bei NV oder AMD nicht korrekt funktionieren, dürfte unter 1% liegen, und das deutlich.
Blöd nur, wenn es dann die Topseller ala GTAIV sind. Oder auch jetzt SC2 (auch wenn das natürlich läuft, dennoch ist die Presse erstmal negativ).
Sentionline
2010-07-30, 14:31:14
Nur ein Frage noch:
Was soll mit Gothic 3 sein?
Läuft bei mir mit Nvidia und ATI einwandfrei.
Unterstützt PhysX. :)
Blöd nur, wenn es dann die Topseller ala GTAIV sind. Oder auch jetzt SC2 (auch wenn das natürlich läuft, dennoch ist die Presse erstmal negativ).
GTA IV war beim PC weit unterhalb von 1 Million verkaufter Exemplare. Topseller ja, aber nur bei den Konsolen. Entsprechend weiß man auch gleich noch, wie die Spielezukunft der nächsten 3-4 Jahre aussehen wird. Sieht man ja auch an DX11, welches genauso untergeht wie seinerzeit DX10, obwohl die Nutzerbasis viel größer ist.
Bucklew
2010-07-30, 14:35:43
GTA IV war beim PC weit unterhalb von 1 Million verkaufter Exemplare. Topseller ja, aber nur bei den Konsolen. Entsprechend weiß man auch gleich noch, wie die Spielezukunft der nächsten 3-4 Jahre aussehen wird. Sieht man ja auch an DX11, welches genauso untergeht wie seinerzeit DX10, obwohl die Nutzerbasis viel größer ist.
Laut Wikipedia erhielt GTA IV (zumindest für den PC) in Deutschland bei 200.000 verkauften Konsolenspielen ebenfalls den Preis für 100.000 verkaufte Spiele. Groß ist der Unterschied (hierzulande) zumindest nich. Von daher halte ich deine Zahl für Quatsch (bei inzwischen insgesamt 13 Millionen Verkäufen).
Unterstützt PhysX. :)
Über die CPU. Da ist die Grafikkarte genau völlig egal.
SamLombardo
2010-07-30, 14:38:43
Aberwitzig? In Spielen ist genau das der Fall. Und das wurde mehrfach bewiesen. Theoretische Werte oder irgendwelche Cherrypicking-Zahlen sind uninteressant.
Aber egal. Ich überlasse Euch NV Anbetern nun die Spielweise; ich muss noch Arbeiten.
Hier ging es aber nicht um die aktuelle allgemeine Spieleleistung sondern um die DX11 Tessellationleistung der beiden Karten. Zum gefühlten 100. Mal. Was ist denn daran nur so schwer zu verstehen?
Zukunft, denk ich mal. ;)
Ich finde es summiert sich: Cuda, PhysX, Tesselation, SGSSAA DX9-11, HQAF. Wenn diese Begriffe bei "HighEnd" Käufern noch nicht angekommen sind, dann weiss ich auch nicht...weiter.
mfg
Sorry, aber das ist Ansichtssache. Ich würde mich jetzt zwar nicht als ultra-highend-Käufer bezeichnen, aber für mich ist höchstens die Tesselations-Geschwindigkeit ein Argument. Cuda? Was habe ich davon beim Zocken? PhysX? Ich will einen offenen Physik-Standard. SGSSAA ist nice-to-have aber mir reicht normales AA, ebenso das "schreckliche" ATI-AF. Wenn es manchen in den Augen schmerzt beim Zocken, wenn sie diese Features nicht haben kann ich das ganze Thema ja verstehen, mir geht es allerdings nicht so.
Und mich würde es wundern wenn ich mit der Ansicht alleine dastehe ...
Wenn es manchen in den Augen schmerzt beim Zocken, wenn sie diese Features nicht haben kann ich das ganze Thema ja verstehen, mir geht es allerdings nicht so.
Respekt ist der erste und wichtigste Schritt. Den solten noch Anderere beschreiten, auch wenn ich es bezweifel das sie es tun, da es doch gegen ihren Arbeitgeber verstößt. Gut nicht jeder ist ein AMD Fanboy und von genau solchen Personen erwarte ich schlicht Respekt, es ist nicht nötig Dinge herunterzuspielen, die ihnen nicht schaden und sie nicht betreffen.
davidzo
2010-07-31, 08:51:39
Hehe. Irgendwie hab ich genau diese Antwort erwartet. Du hast offenstichtlich NICHTS verstanden. Alle anderen denke ich schon.;)
Da irrst du dich aber...
Falsch. Die Tessellationsleistung einer GTX460 gegenüber einer ATI ist größer als Faktor 2. Was ist denn daran so schwer zu verstehen, dass selbst Stone Giant nicht ausschließlich Tessellationsleistung verlangt?
Ja und was genau ist daran jetzt erheblich? DX11 Spiele werden ausgewogen programmiert un daher nie und nimmer mehr Tesselationsleistung verlangen als ein speziell dafür ausgerichteter Benchmark. Wenn deine angepriesene Theorieleistung nichtmal im Benchmark erreicht werden soll, wann dann?
Das ist ungefähr so als wenn ich die HD5830 gegen die GTX460 768mb antreten lasse in settings bei denen der GTX460 immer der Vram ausgeht. Ein großer Vorteil für die 5830, der sie ganz klar als eine highendkarte darstellt, da sie in 2560*1600 eben eindeutige Vorteile hat. -Bullshit
- Immerhin gibt es für diese Aussage beweiskräftige Benachmarks aus realen Spielen, während die Tesselationsdiskussion nun wirklich auf einer rein theoretischen Ebene abläuft und in DX11 spielen offensichtlich nicht zutage tritt.
Die 5850 ist 10-20% schneller und spielt damit ganz klar in einer anderen Liga, da kann auch physX, Cuda und der anisotrope Filter nichts dran ändern.
Wer sich im übrigen mal mit der Bildqualität beschäftigt hat wird merken, dass es enorm schwer fällt überhaupt schwächen beim rendering zu erkennen. Dass nun sowohl bei nvidia auf standardsettings als auch bei ATI ein flimmern in den texturen bei bewegung entsteht und dies lediglich bei nvidia durch den HQfilter reduziert werden kann, ist ein Unterschied der den meisten gar nicht auffällt. Ich will auch behaupten dass die wenigsten zocker mit HQ spielen, selbst der Anteil im 3Dcenter ist nicht die Mehrheit denke ich. Daher sollte die Filterdiskussion bei der evaluierung nicht überbewertet werden - für die meisten spielt die energieaufnahme oder lautstärke schon viel eher eine rolle.
Was "Treiberspielchen" angeht ist der Herr von dem das kam wirklich nicht ganz auf dem laufenden. ATI liefert monatlich WHQL geprüfte Treiber ab, welche DirectX11, OpenGL 3.3 & 4.0 (demnächst 4.1) und OpenCL mustergültig unterstützen. Nvidia mag hier etwas näher an den Usern sein und sinnvolle tools und funktionen anzubieten, aber in Hinsicht auf industriestandards und kompatibilität sind sie keinen deut besser, nein gerade bei der WHQL zertifizierung sind sie meist etwas später dran.
5850 > GTX460 soviel steht fest. derzeit muss man sich das aber gar nicht fragen, weil die 5850 noch teurer ist und daher gar nicht mit der GTX460 konkurriert :)
dargo
2010-07-31, 09:03:05
Ja und was genau ist daran jetzt erheblich? DX11 Spiele werden ausgewogen programmiert un daher nie und nimmer mehr Tesselationsleistung verlangen als ein speziell dafür ausgerichteter Benchmark.
Der nächste der einen Benchmark nicht versteht? Dir ist wohl in einer geometrielastigen Szene auch lieber wenn Grafikkarte X um 50% einbricht während Grafikkarte Y nur 5% (Achtung... fiktive Zahlen) lassen muss? Lass diesen Satz auch dich wirken bevor du antwortest.
PS: ich hätte nichts dagegen wenn die Geometrieleistung beim GF100 noch ein kleines Stück höher wäre. Dann wäre die Tessellation in Metro 2033 nämlich "for free".
5850 > GTX460 soviel steht fest. derzeit muss man sich das aber gar nicht fragen, weil die 5850 noch teurer ist und daher gar nicht mit der GTX460 konkurriert :)
Schneller in diesen seltsamen Tests ja, besser, das ist Ansichtssache.
Jedenfalls ging es dem Spassvogel darum, das die 5850 qualitativ hochwertiger sein soll.
Dies wurde ausreichend wiederlegt, z.B. dadurch:
Auf beiden Seiten ist ein Beschnittender Performancechip.
Die 460 bietet Qualitäts AF. (Erwähne ich weil er von Qualität schrieb)
Deutlich höhere Tessellationleistung ist nur ein Punkt, wo man sich fragt ob das wirklich als Schlecht und nicht eher als hochwertig angesehen werden kann.
Also, sein unsinniger OT Flame dürfte doch endlich mal genug sein.
Botcruscher
2010-07-31, 09:55:34
Der nächste der einen Benchmark nicht versteht? Dir ist wohl in einer geometrielastigen Szene auch lieber wenn Grafikkarte X um 50% einbricht während Grafikkarte Y nur 5% (Achtung... fiktive Zahlen) lassen muss?
Als ob der Dreiecksdurchsatz der 5850 außerhalb von Benchmarks groß limitieren würde. Für die Lebenszeit der beiden Karten ist das mal wieder ziemlich irrelevant. Ati hat mit TSMC immer noch ganz andere Probleme. Gleichzeitig wird die Karte in absehbarer Zeit eh bald ersetzt.
Der Kunde hat derweil die freie Wahl, mit dem Nachteil das so ziemlich alle Karten dank TSMC deutlich zu teuer sind. Der Drecksladen kommt ja nicht aus der Hüfte. Fast ein Jahr Stillstand ist schon extrem krass. Es ist echt eine blöde Zeit für eine neue Karte. Wer letzten September den ersten Schwung Karten erwischt hat gehört klar zu den Gewinnern.
SamLombardo
2010-07-31, 10:13:54
Als ob der Dreiecksdurchsatz der 5850 außerhalb von Benchmarks groß limitieren würde. Für die Lebenszeit der beiden Karten ist das mal wieder ziemlich irrelevant.
Wenn man absoluter Highendkäufer ist und sowieso jede Generation mitnimmt, dann mag das stimmen. Wenn man aber, wie ich und viele andere auch, seine Karte so um die zwei Jahre behalten möchte, ist es nicht mehr ganz so unerheblich. Würdest Du einem solchen Käufer zum heutigen Zeitpunkt denn objektiv wirklich eine HD5850 empfehlen? Kann ich mir nicht vorstellen, wenn man mal persönliche Vorlieben zu einer bestimmten Firma außen vor lässt.
Als ob der Dreiecksdurchsatz der 5850 außerhalb von Benchmarks groß limitieren würde.
Es ging zu keinem Zeitpunkt darum, es in einer 100% Limitierung endet.
Wenn man absoluter Highendkäufer ist und sowieso jede Generation mitnimmt, dann mag das stimmen. Wenn man aber, wie ich und viele andere auch, seine Karte so um die zwei Jahre behalten möchte, ist es nicht mehr ganz so unerheblich. Würdest Du einem solchen Käufer zum heutigen Zeitpunkt denn objektiv wirklich eine HD5850 empfehlen? Kann ich mir nicht vorstellen, wenn man mal persönliche Vorlieben zu einer bestimmten Firma außen vor lässt.
Das ist schon wieder so ein Scheinargument. Zukunftssicherheit bei PC-Hardware ist und bleibt Wunschträumerei. Wer sagt Dir denn, dass nicht plötzlich schiere Shaderpower (da rammt die 5850 eine 460 ungespitzt in den Boden) gefragt ist? Mike Shiva?
Aber stell' Dir vor: Man kann einzelne Details sogar runterschrauben. Arm ist letzten Endes nur derjenige, der immer alles auf voll laufen lassen muss, weil sein Ego keine Medium-Settings zulässt. Wer in 2 Jahren noch mit 5850/460 unterwegs ist, wird um das Erniedrigen von gewissen Details nicht herumkommen: Bei der ATI muss vielleicht die Geometrie auf mittel, bei der Geforce entsprechend halt die Shader.
Und ja, die 5850 ist nach wie vor eine äußerst attraktive Karte.
Botcruscher
2010-07-31, 10:55:03
Würdest Du einem solchen Käufer zum heutigen Zeitpunkt denn objektiv wirklich eine HD5850 empfehlen? Kann ich mir nicht vorstellen, wenn man mal persönliche Vorlieben zu einer bestimmten Firma außen vor lässt.
Beide Karten haben ihre Vorzüge und Nachteile. Eh ich mir eine OC Ausgabe kaufe kann man bei der HD5850 lieber ordentlich Hand anlegen da mehr Potential. Bei extremer Tesselation sprechen wir irgendwo von 17vs 24FPS. Beide Karten also zu lahm. Danach kommen irgendwo die Überzogenen Preise, neue Karten bei Ati in absehbarer Zeit und, das aller schlimmste, mangelnde neue PC-Spiele. Gerade letzteres ist ein gute Argument gegen eine neue Karte. Daher lautet die eigentlich Empfehlung auch warten. Wer nicht warten kann ist voll am Arsch(eigentlich seit Oktober letzten Jahres). Alternativ bleibt auch noch die 470 für inzwischen 269. Die hat wenigstens auch ordentlich OC Potential. Wenn es natürlich bei _unter_ 200€ bleiben soll steht die 460 ziemlich alleine da.
Das ist schon wieder so ein Scheinargument. Zukunftssicherheit bei PC-Hardware ist und bleibt Wunschträumerei. Wer sagt Dir denn, dass nicht plötzlich schiere Shaderpower (da rammt die 5850 eine 460 ungespitzt in den Boden) gefragt ist?
Absolut meine Meinung. Beide Karten nehmen sich nicht viel. Wer unbedingt muss greift nach seine Vorliebe zu.
Mancko
2010-07-31, 16:45:10
Das ist schon wieder so ein Scheinargument. Zukunftssicherheit bei PC-Hardware ist und bleibt Wunschträumerei. Wer sagt Dir denn, dass nicht plötzlich schiere Shaderpower (da rammt die 5850 eine 460 ungespitzt in den Boden) gefragt ist? Mike Shiva?
Aber stell' Dir vor: Man kann einzelne Details sogar runterschrauben. Arm ist letzten Endes nur derjenige, der immer alles auf voll laufen lassen muss, weil sein Ego keine Medium-Settings zulässt. Wer in 2 Jahren noch mit 5850/460 unterwegs ist, wird um das Erniedrigen von gewissen Details nicht herumkommen: Bei der ATI muss vielleicht die Geometrie auf mittel, bei der Geforce entsprechend halt die Shader.
Und ja, die 5850 ist nach wie vor eine äußerst attraktive Karte.
Sie ist aber nach wie vor ca 50 Euro teurer als ne 460GTX. Hab die Gigabyte GTX460 OC mit 1 GB für 198 Euro bei VV-Computer bekommen. Die günstigste GTX 470 liegt nur ca 20 Euro über der günstigsten 5850. Bei der aktuellen Preislage würde ich entweder die GTX460 kaufen und die 50 Euro sparen oder die GTX 470 und deutlich mehr Leistung und Potenzial haben. Die 5850 ist eine super Karte aber es gibt aktuell bessere Angebote - das muss man schon sagen.
dargo
2010-07-31, 17:58:44
Als ob der Dreiecksdurchsatz der 5850 außerhalb von Benchmarks groß limitieren würde.
Ja, das tut er. Und zwar in Metro 2033 wenn man entsprechende Option hinzuschaltet.
svenw
2010-07-31, 18:00:27
Wenn man absoluter Highendkäufer ist und sowieso jede Generation mitnimmt, dann mag das stimmen. Wenn man aber, wie ich und viele andere auch, seine Karte so um die zwei Jahre behalten möchte, ist es nicht mehr ganz so unerheblich. Würdest Du einem solchen Käufer zum heutigen Zeitpunkt denn objektiv wirklich eine HD5850 empfehlen? Kann ich mir nicht vorstellen, wenn man mal persönliche Vorlieben zu einer bestimmten Firma außen vor lässt.
Warum nicht? Tesselation wird solange keine Bedeutung haben wie Konsolen es nicht nutzen können und auch auf dem PC etliche Grakas noch nicht genügend Leistung haben. GEnau weil die Spieleentwickler die Käufer mitnehmen müssen die ca. 2 Jahre alte HW haben können sie Tesselation nicht so heftig einbauen das das die Karten reißt andererseits lohnt sich dann aber nicht der Aufwand mit Tesselation, weil man eh ausgefeilte Grafik erzeugen muß und das nicht alles bei der TEss-Einheit abladen kann. IMHO Tesselation frühestens Mitte-Ende 2012 ein wirklich entscheidendes Element werden. In 2011 wird man vielleicht ein paar Spiele sehen die Tesselation einsetzen aber mit hoher Wahrscheinlichkeit auch wieder nur so ein Gewürge wie bei Stalker oder Metro.
Und mit einer 5850 oder 460 wirst du 2012 auf Einsteigerniveau sein, da wird die Tesselationleistung dein kleinstes Problem sein.
Nur nebenbei: IMHO wird zuviel Hype um Tesselation gemacht. Wenn AIT die Tesselationpower erst mit der übernächsten Generation wesentlich anhebt, ist das immer noch früh genug. Für die nächsten 2 Jahre hat Tesselation keine Bedeutung!
Bei der aktuellen Preislage würde ich entweder die GTX460 kaufen und die 50 Euro sparen oder die GTX 470 und deutlich mehr Leistung und Potenzial haben. Die 5850 ist eine super Karte aber es gibt aktuell bessere Angebote - das muss man schon sagen.
Wenn man aufs SSAA oder Downsampling setzen will, ist eine 5850 sogar schneller als eine GTX 470.
Die 5850 kann es zwar nicht bei DX10/11 Spielen, da ist die 5850 und die GTX 470 aber eh meistens zu lahm.
Ja, das tut er. Und zwar in Metro 2033 wenn man entsprechende Option hinzuschaltet.
Nope. Only VRAM.
dargo
2010-07-31, 20:45:36
Nope. Only VRAM.
Nö.
Nö.
Es reicht jedenfalls für eine 5870/2GB eine GTX470 klar zu schlagen. Würde die Tesslation da limitieren würde das Ergebnis anders aussehen.
Es reicht jedenfalls für eine 5870/2GB eine GTX470 klar zu schlagen. Würde die Tesslation da limitieren würde das Ergebnis anders aussehen.
Das glaub ich nicht, zumindest nicht mit aktivierten DOF und Tesselation.
Auf einer 470 kann man bereits mit VeryHigh spielen und AAA, auf einer 5850 muss man auf High zurück und AA ausschalten, also kann auch eine 5870 bestenfalls Gleichstand erreichen wenn überhaupt.
http://hardocp.com/article/2010/05/10/galaxy_geforce_gtx_470_gc_sli_review/4
Botcruscher
2010-07-31, 21:01:52
Ja, das tut er. Und zwar in Metro 2033 wenn man entsprechende Option hinzuschaltet.
Metro hat sich gelohnt weil die Herstellungskosten so niedrig waren.[Aussage Entwickler!] Die überwiegen kleinen Räume laufen meist schlechter als so manches Open-World Spiel. Dabei ist die Grafik jetzt nicht so berauschend. Diesen Titel also als Referenz einer guten Implementation zu nehmen halte ich zumindest für zweifelhaft. Was das Spiel mit dem VRAM macht ist gleich die nächste Frage. Stalker und AVP sind ebenfalls aufgesetzt. Im Grunde hängen wir immer noch an DX9 mit angeflanschten Showeffekten. Dank der Konsolen wird sich daran auch nichts ändern. PS: Und Metro ist im übrigen Fermi Referenztitel. Da ist seitens NV viel Geld in die Optimierung geflossen.
Das glaub ich nicht, zumindest nicht mit aktivierten DOF und Tesselation.
Auf einer 470 kann man bereits mit VeryHigh spielen und AAA, auf einer 5850 muss man auf High zurück und AA ausschalten, also kann auch eine 5870 bestenfalls Gleichstand erreichen wenn überhaupt.
http://hardocp.com/article/2010/05/10/galaxy_geforce_gtx_470_gc_sli_review/4
Wie schon gesagt, 1GB sind zu wenig für Metro. Eine 5870 2Gb legt erheblich zu:
http://www.pcgameshardware.de/aid,745761/Sapphire-HD-5870-Toxic/2G-im-Hands-on-Test-Was-bringen-2048-MiB-VRAM/Grafikkarte/Test/
http://www.hardwareheaven.com/reviews/965/pg7/sapphire-radeon-hd-5870-2gb-toxic-review-metro-2033.html
Wie schon gesagt, 1GB sind zu wenig für Metro. Eine 5870 2Gb legt erheblich zu:
http://www.pcgameshardware.de/aid,745761/Sapphire-HD-5870-Toxic/2G-im-Hands-on-Test-Was-bringen-2048-MiB-VRAM/Grafikkarte/Test/
http://www.hardwareheaven.com/reviews/965/pg7/sapphire-radeon-hd-5870-2gb-toxic-review-metro-2033.html
Mit AA aber ohne bringen 2GB garnix.
Mancko
2010-07-31, 21:30:24
Wenn man aufs SSAA oder Downsampling setzen will, ist eine 5850 sogar schneller als eine GTX 470.
Die 5850 kann es zwar nicht bei DX10/11 Spielen, da ist die 5850 und die GTX 470 aber eh meistens zu lahm.
Aösp das halte ich eher für ein Gerücht. Das müssen schon spezielle Situationen sein damit das eintritt (zu hohe Auflösung etc.) Da dürfte die 5850 dann aber auch schon dermaßen abkacken das das Ergebnis eh keine Relevanz hat.
ALso die 470 ist schon ganz klar besser als die 5850. Das ist ansich auch kein Problem, da sie auch ursprünglich woanders preislich angesiedelt war.
Jetzt aber ist sie preislich nur 20 Euro über der 5850 und die 460 ist halt 50 Euro günstiger als die 5850 insofern hat Nvidia hier momentan einfach die besseren Angebote in der Preisklasse.
dargo
2010-07-31, 21:50:49
Es reicht jedenfalls für eine 5870/2GB eine GTX470 klar zu schlagen. Würde die Tesslation da limitieren würde das Ergebnis anders aussehen.
Blödsinn! Komm mir nicht mit irgendwelchen 08/15 Benchmarks wo eh alles über einen längeren Zeitraum geglättet wird. Ich habe hier beispielsweise eine Szene wo eine 700Mhz GTX470 mit eingeschalteter Tessellation auf 75% einbricht. Mit ausgeschalteter Tess. sinds 100%. Was glaubst du wie eine ATI in dieser Szene abschneidet?
Dabei ist die Grafik jetzt nicht so berauschend.
Genau, kaum kommt ein Spiel welches aktuelle High-End Grafikkarten an die Grenzen bringt ist es wieder mies programmiert, oder Grafik ist 08/15. Lasst euch was besseres einfallen. :rolleyes:
SamLombardo
2010-07-31, 22:03:59
Genau, kaum kommt ein Spiel welches aktuelle High-End Grafikkarten an die Grenzen bringt ist es wieder mies programmiert, oder Grafik ist 08/15. Lasst euch was besseres einfallen. :rolleyes:
Da muss ich zustimmen! Metro hat mich mal wieder staunen lassen. Und das war seit Crysis nicht mehr der Fall. (hatte es schon vermisst:)) Aber ehrlich, Metro@DX11@max brennt ein grafisches Feuerwerk ab das seinesgleichen sucht. Vielleicht ist das auch einer der Gründe dafür, dass es sich auf dem PC besser verkauft hat als auf Konsole. Ich glaube nicht dass das passiert wäre wenn es eine lieblose 1:1 Konsolenumsetzung gewesen wäre. Hoffentlich nehmen sich andere Entwickler daran ein Beispiel.
Ups, jetzt bin ich aber wirklich ganz schön OT;)
@swenw: Abwarten! Der Trend geht (zum Glück) dahin, dass PC Versionen von Multiplattform Spielen einen DX11 Pfad haben inkl. der entsprechenden Effekte, sowie einen DX9 Pfad der auf der Konsolenoptik basiert. Das ist eine schöne Entwicklung, die wir alle begrüßen sollten, egal ob Ati oder Nvidia Karte im Rechner. Das bedeutet aber im Gegenzug auch, dass die Bedeutung von DX11 deutlich schneller zunehmen könnte als es bei DX10 je der Fall war.
Spätestens wenn der Southern Islands Tessellaton gut können sollte wird kein Ati Fan mehr sagen es sei unwichtig. Wetten?
dargo
2010-07-31, 22:29:31
Da muss ich zustimmen! Metro hat mich mal wieder staunen lassen. Und das war seit Crysis nicht mehr der Fall.
Dito. 3 Jahre nach Crysis endlich wieder ein optisches Meisterwerk.
y33H@
2010-07-31, 23:50:31
Der Trend geht (zum Glück) dahin, dass PC Versionen von Multiplattform Spielen einen DX11 Pfad haben inkl. der entsprechenden Effekte, sowie einen DX9 Pfad der auf der Konsolenoptik basiert.Das war und ist kein Trend, leider.
Nur eine Handvoll Launch-Titel für Cypress und Fermi, damit ist es aber nun vorbei.
Schrotti
2010-08-01, 00:09:29
Bei der aktuellen Preislage würde ich entweder die GTX460 kaufen und die 50 Euro sparen oder die GTX 470 und deutlich mehr Leistung und Potenzial haben.
Dann gleich die 480 und nicht die 470 denn die hat richtig Rums und verballert dabei nur ~40W mehr.
Wenn dann richtig!
Aber nicht bei deutlich mehr als 100€ Aufpreis.
Palpatin
2010-08-01, 01:57:02
Ich geb immer so zwischen 300 und 400 aus. Stromverbrauch ist mir Latte, Lautstärke nicht, muss aber nicht super Silent sein.
Imo würd ich mich wohl für ne 5870 oder die Zotac 470 AMP entscheiden. Zwei Oced 460er im SLI hätten auch einen gewissen Reiz.
svenw
2010-08-01, 08:50:32
@swenw: Abwarten! Der Trend geht (zum Glück) dahin, dass PC Versionen von Multiplattform Spielen einen DX11 Pfad haben inkl. der entsprechenden Effekte, sowie einen DX9 Pfad der auf der Konsolenoptik basiert. Das ist eine schöne Entwicklung, die wir alle begrüßen sollten, egal ob Ati oder Nvidia Karte im Rechner. Das bedeutet aber im Gegenzug auch, dass die Bedeutung von DX11 deutlich schneller zunehmen könnte als es bei DX10 je der Fall war.
Spätestens wenn der Southern Islands Tessellaton gut können sollte wird kein Ati Fan mehr sagen es sei unwichtig. Wetten?
Kann sein, das die das sagen, nur stimmen wird es nicht (leider). Ich habe nichts gegen Tesselation und halte das für ein geniales Feature nur ist ein geniales Feature das nicht genutzt wird verschwendeter Platz auf dem Die.
Das Problem von Tesselation ist nicht, das dafür ein DX11 Pfad eingebaut werden muß sondern das für den maximalen Effekt die Geometrie des DX11 Pfades erheblich von der der anderen Pfade abweichen muß. Irgendjemand sagte mal, das die Grafik des Uengine Test ohne Tesselation extrem altbacken aussieht und er hat Recht! Genau diese simple Grundgrafik ist der Schlüssel für Tesselation aber genau das ist den Entwicklern zuviel Arbeit. Wenn die Konsolen das können, kann man ne Menge sparen wenn man mit einfacheren Geometrien arbeitet und sie dann per Tesselation aufbläst aber aktuell muß man eh für die Konsolen und die <DX11 Grakas eine detaillierte Geometrie erstellen und dann das ganze zusätzlich noch mal in einfach? Ich glaub nicht dran!
momentan sehen wir ein paar nette (oder nicht so nette) Showeffekte mit Tesselation aber eine wirklich sinnvolle Nutzung in Spielen sehe ich nicht.
Das Problem von Tesselation ist nicht, das dafür ein DX11 Pfad eingebaut werden muß sondern das für den maximalen Effekt die Geometrie des DX11 Pfades erheblich von der der anderen Pfade abweichen muß. Irgendjemand sagte mal, das die Grafik des Uengine Test ohne Tesselation extrem altbacken aussieht und er hat Recht! Genau diese simple Grundgrafik ist der Schlüssel für Tesselation aber genau das ist den Entwicklern zuviel Arbeit.
Da liegst du falsch. Zwar kann man ein einfaches Geometrie-Mesh als Basis nehmen, muss es aber nicht.
Kurz: Tessellation ist eine effiziente Geometriekompression, aber rein optional.
-carsten
dargo
2010-08-01, 12:08:22
Irgendjemand sagte mal, das die Grafik des Uengine Test ohne Tesselation extrem altbacken aussieht und er hat Recht!
Imho sieht Heaven auch mit Tessellation alles andere als bombig aus. Gerade wenn zb. das Schiff rangezoomt wird. Da finde ich Stone Giant um Welten besser. Auch wenn nicht wirklich vergleichbar da Indoor vs. Outdoor.
Schlammsau
2010-08-01, 12:42:14
Imho sieht Heaven auch mit Tessellation alles andere als bombig aus. Gerade wenn zb. das Schiff rangezoomt wird. Da finde ich Stone Giant um Welten besser. Auch wenn nicht wirklich vergleichbar da Indoor vs. Outdoor.
Find ich zB gar nicht, sehen beide mit Tesselation Top aus. Ohne Tess, übertrieben schlecht, wie Grafik von 2005.
y33H@
2010-08-01, 12:44:52
Die Texturen, vor allem die verzerrten, gehen mal gar nicht. Fail.
dargo
2010-08-01, 16:26:01
Find ich zB gar nicht, sehen beide mit Tesselation Top aus.
Was ist denn daran bitte top?
http://www4.pic-upload.de/thumb/01.08.10/majyjjfrbjls.jpg (http://www.pic-upload.de/view-6558045/Unigine-2010-08-01-16-17-23-52.jpg.html) http://www4.pic-upload.de/thumb/01.08.10/s63jr2d2lb9w.jpg (http://www.pic-upload.de/view-6558047/Unigine-2010-08-01-16-17-25-81.jpg.html) http://www4.pic-upload.de/thumb/01.08.10/zsyz5ydmiqcp.jpg (http://www.pic-upload.de/view-6558053/Unigine-2010-08-01-16-18-05-36.jpg.html) http://www4.pic-upload.de/thumb/01.08.10/e6bv2pg9o546.jpg (http://www.pic-upload.de/view-6558060/Unigine-2010-08-01-16-19-26-12.jpg.html)
Beim dritten Bild achte mal auf die Schatten im Hintergrund. X-D
svenw
2010-08-01, 18:31:44
Da liegst du falsch. Zwar kann man ein einfaches Geometrie-Mesh als Basis nehmen, muss es aber nicht.
Kurz: Tessellation ist eine effiziente Geometriekompression, aber rein optional.
-carstenJo, schon verstanden, nur warum sollte ich mir Tesselation antun wenn ich eh eine komplexe Geometrie habe? Ich wage zu bezweifeln, das irgendjemand nur damit der DX11 Pfad gut funktioniert alle Gegenstände im Spiel mit einer anderen Geometrie ausstattet.
Jo, schon verstanden, nur warum sollte ich mir Tesselation antun wenn ich eh eine komplexe Geometrie habe?
Weil du keine komplexe Geometrie hast.
Schon vergessen wie die Steine in Crysis aussehen? Eckig. Weit entfernt davon rund zu sein.
Jo, schon verstanden, nur warum sollte ich mir Tesselation antun wenn ich eh eine komplexe Geometrie habe? Ich wage zu bezweifeln, das irgendjemand nur damit der DX11 Pfad gut funktioniert alle Gegenstände im Spiel mit einer anderen Geometrie ausstattet.
Das braucht auch keiner. Du kannst, wenn du ein Spiel von vornherein auf Tessellation auslegst, natürlich viel geometrisches Detail sparen; dann sieht es natürlich mies auf Hardware aus, die keine Tessellation unterstützen.
Andererseits kannst du aber auch genau den Detailgrad, den du bsw. für deine Zielkonsole anpeilst, durch Tessellation auf dem PC erhöhen, ohne dass du großartig alles neu machen musst.
Ich sehe den großen Vorteil im ersten Anwendungsfall: Niedriges geometrisches Grunddetail, dazu Schieberegler im Spiel für Tessellationsfaktor und LoD. Damit kannst du von 1000 bis 6 Millionen Dreiecken nahezu beliebig skalieren.
-carsten
_DrillSarge]I[
2010-08-02, 04:10:17
Ich sehe den großen Vorteil im ersten Anwendungsfall: Niedriges geometrisches Grunddetail, dazu Schieberegler im Spiel für Tessellationsfaktor und LoD. Damit kannst du von 1000 bis 6 Millionen Dreiecken nahezu beliebig skalieren.
das funktioniert schlecht. man muss den content auch anpassen.
zB bei unigine mit der treppe (flache ebene ohne tess :lol:): mit tess sieht das auch nicht unbedingt besser aus, weil die texturenb einfach nur bis zur unkenntlichkeit verzerrt werden.
svenw
2010-08-02, 08:43:45
I[;8183024']das funktioniert schlecht. man muss den content auch anpassen.
zB bei unigine mit der treppe (flache ebene ohne tess :lol:): mit tess sieht das auch nicht unbedingt besser aus, weil die texturenb einfach nur bis zur unkenntlichkeit verzerrt werden.
Das ist aber ein lösbares Problem, denn dann kann man die Texturen vorher so "verzerren" das sie mit Tesselation gut aussehen.
@carsten:
Das braucht auch keiner. Du kannst, wenn du ein Spiel von vornherein auf Tessellation auslegst, natürlich viel geometrisches Detail sparen; dann sieht es natürlich mies auf Hardware aus, die keine Tessellation unterstützen.
Genau das ist der Knackpunkt: Momentan muß man für Konsolen und Grakas die DX11 noch nicht beherrschen (oder zuwenig Tesselation Wums haben) eh noch komplexe Geometrien entwerfen. Daher ist der aktuelle Gewinn von Tesselation minimal bis kontraproduktiv. Tesselation wird kommen, davon bin ich überzeugt, aber erst wenn es die Konsolen auch beherrschen und gleich von Anfang an entsprechend entwickelt wird. Wenn 2012 die neue Generation von Konsolen kommt wird es einen massiven Schub für Tesselation geben. Bis dahin sollte der Spiele-PC Markt auch zu mindestens 80% mit DX11 Hardware versorgt sein.
Schlammsau
2010-08-02, 09:14:48
Genau das ist der Knackpunkt: Momentan muß man für Konsolen und Grakas die DX11 noch nicht beherrschen (oder zuwenig Tesselation Wums haben) eh noch komplexe Geometrien entwerfen. Daher ist der aktuelle Gewinn von Tesselation minimal bis kontraproduktiv. Tesselation wird kommen, davon bin ich überzeugt, aber erst wenn es die Konsolen auch beherrschen und gleich von Anfang an entsprechend entwickelt wird. Wenn 2012 die neue Generation von Konsolen kommt wird es einen massiven Schub für Tesselation geben. Bis dahin sollte der Spiele-PC Markt auch zu mindestens 80% mit DX11 Hardware versorgt sein.
Genau so ist es und wird es auch sein!
Iceman346
2010-08-02, 09:16:49
Bei 10 Spielereleases Patcht Nvidia villeicht 1 Spiel (wenn überhaupt) nach. Bei Ati sind das bei bedeutenden Titeln deutlich höher. Große Themen bei Release waren (jetzt aus dem Stehgreif): Batman, Saboteur, BioShock, GTA4 und jetzt demnächst muss SC II nachgepatcht werden. Ich finde das "nicht gut" und auch nicht im Sinne der Gamer sowie Kartenkäufer.
Um das nochmal kurz aufzugreifen (bitte flamefrei :tongue:). Wie definierst du "nachpatchen"? Soweit ich das sehe geht es bei den meisten der von dir aufgeführten Titel lediglich darum ein AA Profil einzurichten welches automatisch AA bietet ohne das man die .exe umbenennen muss. Wenn du das bereits als "nachpatchen" bezeichnest kannst du auch Mass Effect 2 zur Liste hinzufügen, da kam nen Hotfixtreiber am Releasetag ;)
Ansonsten mal die Spiele durchgegangen:
- Batman: Über den Treiber forciertes AA funktionierte mit dem bei Release aktuellen Treiber. Das Buhei gabs lediglich um das angepasste Nvidia AA.
- Saboteur: Das Thema wurd ja eigentlich schon zur Genüge durchgekaut, wenn die letzte Version die ATi bekommen hat funktioniert, die Releaseversion aber nicht mehr ist der Fehler imo nicht auf ATis Seite zu suchen.
- BioShock: Was war denn dort das Problem? Hab nichts in Erinnerung was da zu Unmut geführt haben soll.
- GTA4: Hab ich keine Erfahrung mit, hab die 360 Version gespielt.
- SCII: Auch hier wurd nur der AA-Support nachgepatcht und das mit einem Hotfixtreiber wenige Tage nach Release, prinzipiell lief das Spiel ja ohne Probleme.
Ich gehe ja mit dir d'accord, dass ATi mehr Probleme bei der Kompatibilität mit Spielen hat als Nvidia, aber meistens ists "Kleinzeugs" wie fehlender AA Support, welcher sich auch häufig noch durch .exe Renaming beheben lässt. Das ist natürlich nichts was der Durchschnitssuser anwendet, aber der Durchschnittsuser mit einer Nvidia Karte wird auch keine AA-Profile mit dem nHancer zuweisen ;)
Jake Dunn
2010-08-02, 10:57:30
- BioShock: Was war denn dort das Problem? Hab nichts in Erinnerung was da zu Unmut geführt haben soll.
Bei Bioshock geht mit DX10 kein AA, nur unter DX9 ;)
Ansonsten gibt es hier und da mal ein Game was bei NV oder ATI mit AA geht oder nicht ^^
Beispiele:
-Dark Sector kein AA bei NV (nachm Release)
-STALKER SoC kein AA bei ATI
-Chrome4 Games (COJ BiB, Sniper) kein AA bei NV
Palpatin
2010-08-02, 11:07:13
Genau so ist es und wird es auch sein!
Nur das 2012 keine neue Konsolengeneration kommen wird.
svenw
2010-08-02, 12:16:25
Nur das 2012 keine neue Konsolengeneration kommen wird.
Wann denn? Schon ein heutiger Einsteiger PC dreht um die Konsolenhardware Kreise. Und wenn die früher kämen hätte man schon mehr gehört, aber da ist Schweigen im Walde. Ich geh mal davon aus, das Alle Hersteller wissen was der andere wann plant, dafür ist bei den Mengen einfach zuviel Vorlauf nötig und die Hersteller haben sicher auch irgendwo ihre Spezis sitzen, die was hören würden.
Palpatin
2010-08-02, 12:30:06
http://xbox360.gaming-universe.de/news/kommentare-3924.html und Sony meint das sie nicht vor Microsoft drann sein werden. Bleibt eigentlich nur Nintendo.......
N0Thing
2010-08-02, 12:55:50
Die PS2 hat auch noch lange neben der PS3 Platz gehabt. Weitere 5 Jahre ohne neue Konsolen von Microsoft und Sony sind eine arg lange Zeitspanne.
Das tut weh....Nvidia wohin gehst du???
http://jonpeddie.com/press-releases/details/jon-peddie-research-announces-2nd-quarter-pc-graphics-shipments/
Vendor.....This Quarter........ last Quarter.......... Growth Yr-Yr
..............Market share....... Market share
AMD........24.4%................21.4%.................32.6%
Intel........54.9%................49.7%..................7.6%
Nvidia......19.7%................28.0%.................-32.4
Die logische Folge des Produktportfolios.
Die logische Folge des Produktportfolios.
Richtig. Ich sehe die Zukunft von NV deswegen aber keinesfalls düster; vielmehr wird sich die Firma eben anderweitig umsehen, was sie zur Zeit ja auch schon macht (CUDA und all diese Sachen, GPS-Chips für Autonavigationssysteme etc.). Mit Gaming und "stinknormalen" GPUs werden sie keinesfalls durchkommen, zumal mit AMDs Fusion (auch Intel geht diesen weg) dezidierte Grafikkarten wohl zusätzlich massiv an Bedeutung verlieren werden. Der ganze Low- und Midend-Bereich dürfte mittelfristig wegfallen, aber genau da macht man das große Geld.
Tarkin
2010-08-02, 13:56:17
Meine Prognose - nächstes Jahr um diese Zeit kratzt nVidia an der 15% Marke (wenns nicht so schlimm kommt wie befürchtet).
das Chipsatz Business hat sich schon mal so gut wie in Luft ausgelöst. Der traurige Rest ist dann in 12 Monaten auch Geschichte. Denn wenn es erst mal Ontario, Liano und Sandy Bridge gibt, dann wird nvidia aus noch viel mehr Notebooks verschwinden (u.a. garantiert auch aus sämtlichen MacBooks). Der Market Share Verlust könnte sich dann sogar noch weiter beschleunigen.
Gegen Intels SB und erst recht nicht gegen Liano und Ontario wird nVidia nicht den Hauch einer Chance haben.
Und wenn AMD im Herbst mit SI etwas bringt wogegen nVidia sagen wir wieder min. 6 Monate nicht viel wird ausrichten können, dann sehen ich langsam aber sicher schwarz... es sei denn es stellen sich von heute auf morgen riesige Tegra-Gewinne ein wovon jedoch nicht auszugehen ist da Apple mit dem iPad sämmtliche Tablet-Konkurrenz plätten wird bevor die überhaupt auf den Markt kommen. Alles andere (KFZ, etc.) sind geradezu winzige Märkte, die das Kraut nicht fett machen.
Vielleicht wird man im Profi-Bereich noch etwas dagegen halten können... Mich würde es aber nicht wundern, wenn sich diese einzig noch verbliebene wirklich lukrative Sparte von nVidia AMD einverleibt (so in zwei, drei Jahren wenn nVidia es nicht schaffen sollte das Ruder herumzureißen - dafür wäre aber ein Über-Drüber Chip notwendig - wenn überhaupt. Denn ohne Chipsatz bzw. Notebook Business wirds für nVidia extrem schwierig)
Das eklatante Problem das nVidia neben der Chipsatz Misere haben wird ist, dass voraussichtlich bis Ende 2011 nichts besseres als 40nm bei TSMC zur Verfügung stehen wird. Angenommen SI ist 30% schneller als Cypress. Das bedeutet weitere 9 bis 12 Monate ATi Führung im High-End.
Meine Prognose - nächstes Jahr um diese Zeit kratzt nVidia an der 15% Marke (wenns nicht so schlimm kommt wie befürchtet).
Woher hast du das? :lol:
Das eklatante Problem das nVidia neben der Chipsatz Misere haben wird ist, dass voraussichtlich bis Ende 2011 nichts besseres als 40nm bei TSMC zur Verfügung stehen wird. Angenommen SI ist 30% schneller als Cypress. Das bedeutet weitere 9 bis 12 Monate ATi Führung im High-End.
Bei der Fertigung steht AMD nicht besser da.
Geringe Kapazitäten führen dazu das AMD keinen Preiskampf mitmachen kann.
Der Performancechip kann nicht nach belieben weiter nach belieben aufgebläht werden, sowohl Takt als auch Transistorenmäßig. 30% ist bereits der Wahnsinn, dazu wäre AMD bei weit jenseits der 3Mrd.
Undertaker
2010-08-02, 14:32:36
Mit Gaming und "stinknormalen" GPUs werden sie keinesfalls durchkommen, zumal mit AMDs Fusion (auch Intel geht diesen weg) dezidierte Grafikkarten wohl zusätzlich massiv an Bedeutung verlieren werden.
:confused: Fusion, wie aktuell spekuliert, spielt wohl irgendwo in der Leistungsklasse knapp unter einer HD5550-HD5570 (shared memory wird halt mehr oder weniger Performance kosten). Das ist aktuell die 60-70€ Preisklasse, im Jahr 2011 vielleicht der ~40€ Preisbereich. Viel stärker wird eine in die CPU integrierte GPU auch nie wirklich werden können, TDP und fehlender dezidierter Speicher setzen die Leistungslimits. Sandy Bridges IGP wird noch schwächer.
Wirklich viel sehe ich da also nicht wegfallen - auch Apple setzt ja nach wie vor in die MacBooks mit i5/i7 CPUs samt GMA HD eine zusätzliche Nvidia-GPU, das wird sich sicher auch in Zukunft nicht ändern. Die Marktanteile haben durch die lange Verzögerung der GF10x Reihe zwar gelitten, wie schnell man aber selbst nach mehreren schwachen Generationen wieder nach oben kommen kann, hat ja ATI erst kürzlich gezeigt.
Insofern: Einfach abwarten. Jeder Hersteller wird mal Probleme mit einer Generation haben und kurzfristig entsprechende Auswirkungen spüren. Im Jahr 2011 sind die Karten wieder neu gemischt, GF100B, SI - mal sehen. :)
Tarkin
2010-08-02, 14:49:30
Woher hast du das? :lol:
Meine Einschätzung aus oben angeführten Gründen.
Bei der Fertigung steht AMD nicht besser da.
Geringe Kapazitäten führen dazu das AMD keinen Preiskampf mitmachen kann.
Der Performancechip kann nicht nach belieben weiter nach belieben aufgebläht werden, sowohl Takt als auch Transistorenmäßig. 30% ist bereits der Wahnsinn, dazu wäre AMD bei weit jenseits der 3Mrd.
Keine Preiskampf mitmachen kann? Sehr lustig. Wohl eher keinen Preiskampf mitmachen WILL! (so ein Schwachsinn... man kann immer... ums wollen gehts!)
AMD muss Cypress nicht großartig aufblasen. Das ist mit einem leicht größeren Chip in Kombination mit div. Effizientsteigerungen und schnellerem Speicher hinzubekommen. Und ich schätze schon, dass AMD es gebacken bekommt im Herbst ein sagen wir ~2.4 bis max 2.6 Mio Transistoren 40nm Chip ohne gröbere Schwierigkeiten zu fertigen - schließlich hat man schon mehr als genug Erfahrung mit diesem Prozess! nVidia auf der anderen Seite kann noch nicht mal einen vollen Fermi produzieren. Und das ist auch das höchste der Gefühle womit nVidia im Herbst wird kontern können (wenn überhaupt). Für AMD ist die Luft noch nicht so dünn was Fertigung angeht!
LuXon
2010-08-02, 15:25:13
Vielleicht wird man im Profi-Bereich noch etwas dagegen halten können... Mich würde es aber nicht wundern, wenn sich diese einzig noch verbliebene wirklich lukrative Sparte von nVidia AMD einverleibt (so in zwei, drei Jahren wenn nVidia es nicht schaffen sollte das Ruder herumzureißen - dafür wäre aber ein Über-Drüber Chip notwendig - wenn überhaupt. Denn ohne Chipsatz bzw. Notebook Business wirds für nVidia extrem schwierig)
AMD kann in 2-3 Jahren nVidia nicht übernehmen. 1. Fehlendes Kapital und zweitens wäre Intel schneller^^
Das eklatante Problem das nVidia neben der Chipsatz Misere haben wird ist, dass voraussichtlich bis Ende 2011 nichts besseres als 40nm bei TSMC zur Verfügung stehen wird. Angenommen SI ist 30% schneller als Cypress. Das bedeutet weitere 9 bis 12 Monate ATi Führung im High-End.
Wenn SI 30% schneller ist als Cypress, dann kann nVidia immer noch eine GTX485 bringen, die ziemlich genau gleich schnell sind. Führung? nVidia hat jetzt schon wieder die Führung im SGPU-High end.
Keine Preiskampf mitmachen kann? Sehr lustig. Wohl eher keinen Preiskampf mitmachen WILL! (so ein Schwachsinn... man kann immer... ums wollen gehts!)
AMD hat kleinere Kapazitäten bei TSMC. Sie müssen zusehen, das sie pro verkaufte Einheit maximalen Gewinn machen.
Nvidia kann es sich aussuchen, ob sie ebenso verfahren oder über die Masse gehen.
Sobald AMD die Preise senkt verdienen sie weniger, weil sie nicht mehr absetzen. Sie setzen jetzt schon alles ab.
AMD muss Cypress nicht großartig aufblasen. Das ist mit einem leicht größeren Chip in Kombination mit div. Effizientsteigerungen und schnellerem Speicher hinzubekommen.
30% kommen nicht vom Himmel gefallen. Schau dir an was RV870 im Vergleich zu RV770 brachte. Doppelt so breit ist er, dennoch nicht doppelt so schnell.
30% breiter ist das Mindeste. Eventuell auch höherer Takt. Ohne Mehrtakt reichen 30% für 30% nicht aus. Es sei den es kommt der Geistesblitz für die Limitierung die man für fast lau beseitigt. Imho ein frommer Traum. Vielleicht spart man irgendwo, z.B. wieder an den TMUs Platz, das kann sein.
Sie werden mit 3Mrd Transistoren bei 40nm immernoch einen kleineren Chip haben.
Thermisch wird man sich nach oben bewegen müssen, ein Stillstand ist nicht zu erwarten. Beliebig viel Luft ist thermisch nach oben nicht.
Dazu noch die X2, die wird diesmal noch weiter beschnitten werden, um thermisch für den Massenmarkt realisierbar sein zu können.
Dazu kommt natürlich der VRAM, man wird den Schritt auf 2GiB machen.
Ich sehe absolut keine Welten und rosig einfach ist es für AMD auch nicht. Größere GPU, höhere Thermische Leistung.
Nvidia hingegen wird aus der GTX 480 knapp 10% quetschen können. Entweder finden sie den Fehler der 512SPs oder sie knallen den Takt hoch.
Selbst wenn nicht, 30% reichen nicht um deutlich in Führung zu gehen. Man wird knapp die eigene 5970 einholen.
Der Preis für diese knappe Führung ist ein teureres Produkt, aber gut im Grunde wird es eine bessere 5970 und was mit der X2 werden wird steht in den Sternen.
AMD hat kleinere Kapazitäten bei TSMC. Sie müssen zusehen, das sie pro verkaufte Einheit maximalen Gewinn machen.
Nvidia kann es sich aussuchen, ob sie ebenso verfahren oder über die Masse gehen.
Aussuchen kann sich das Nvidia nicht. GF100 ist nicht wirklich so der Verkaufshit. Und um nicht noch mehr Umsatzeinbußen hinnehmen zu müssen, müssen sie GF104 zu Kampfpreisen anbieten(die bestellten Wafer bei TSMC müssen ja auch weg). Sprich NV macht zur Zeit ok Geld mit vielen kleinen Gewinnen, ATI mit wenigen großen.
30% kommen nicht vom Himmel gefallen. Schau dir an was RV870 im Vergleich zu RV770 brachte. Doppelt so breit ist er, dennoch nicht doppelt so schnell.
Das ist nicht wirklich vergleichbar. Es sieht so aus als würde sich von Cypress zu SI(oder NI oder whatever) mehr ändern.
Nvidia hingegen wird aus der GTX 480 knapp 10% quetschen können. Entweder finden sie den Fehler der 512SPs oder sie knallen den Takt hoch.
Selbst wenn nicht, 30% reichen nicht um deutlich in Führung zu gehen.
Der "Fehler" des Vollausbaus der 480 ist einfach der Fertigungsprozess. Bisher ist es wohl nicht möglich genügend voll funktionstüchtige GF100 zu produzieren. Takt hochknallen ist keine echte Lösung(übertakten kann man jetzt auch schon, und wird auch schon gemacht).
Das Entscheidende ist aber das ATI gar nicht deutlich in Führung zu gehen braucht. Wenn sie es schaffen mit der größten 6k gleichauf zur 480 zu sein, und dies dann auch noch billiger (sprich Diesize um die größe von cypress oder gf104) erreichen ist das für NV ein echtes Problem.
Nvidia hat doch zur Zeit schon die ineffizienteren Chips. Sie haben allerdings durch die Engpässe bei TSMC für ATI noch etwas Verschnaufpause. Sollte ATI allerdings mehr Wafer bekommen, und wenn SI auch nur ein klein wenig besser als Cypress wird, wirds wirklich schwer für NV da gegenzuhalten.
Meine Prognose - nächstes Jahr um diese Zeit kratzt nVidia an der 15% Marke (wenns nicht so schlimm kommt wie befürchtet).
Die 15% könnten sogar stimmen, aber aus ganz anderen Gründen wie die, die du angeführt hast
Nvidia bildet mit nur noch 19,7 Prozent Marktanteil das Schlusslicht der großen Hersteller. Da der Markt für diskrete Desktop-Grafikkarten auf nur noch 21,4 Prozent des Gesamtmarktes zusammengeschrumpft ist, musste Nvidia Verluste von 26,6 Prozent gegenüber dem letzten Quartal und gar 32,4 Prozent gegenüber dem gleichen Quartal des Vorjahres hinnehmen.
Overall graphics chip shipments were up four percent from Q1’10, while desktop discrete GPUs fell 21.4% reflecting the tremendous growth in notebooks.
Links:
http://www.computerbase.de/news/allgemein/studien/2010/august/nvidia_notebook-grafik-markt/
http://jonpeddie.com/press-releases/details/jon-peddie-research-announces-2nd-quarter-pc-graphics-shipments/
Der Notebook-Markt hat massiv zugelegt und der Desktop-Bereich hat massiv verloren. Nvidia hat aber noch immer keine DX11-GPU für den Notebook-Markt! Und AMD hat ihren Vorteil genutzt und Nvidia aus den meisten Notebook-Verträgen rausgedrängt (siehe letzter Konferenz-call von AMD). Da Notebook-Verträge langfristig angelegt sind, wird Nvidia bzgl. des Marktanteils auch nicht so schnell zurück kommen können wie hier einige wegen der GTX460 glauben. Die GTX460 ist leider für den Notebook-Markt irrelevant.
AMD hat, wenn man ihren Ausführungen beim letzten Conference-Call glauben will strategisch gehandelt und lieber billige HD54xx GPUs an Notebook-Hersteller verkauft als teure HD58xx an den Endkunden. Jetzt wissen wir auch warum. Der Marktanteil von AMD wird deshalb wahrscheinlich noch wachsen, weil ja noch nicht einmal alle Notebooks mit den AMD GPUs auf dem Markt sind.
Deine Punkte, Llano, Ontario und SB kommen dann noch dazu. Vor allem die 35-45Watt Llano-Versionen und Ontario werden für AMD zur Trumpfkarte im Notebook-Martk werden.
svenw
2010-08-03, 08:30:14
Sorry, aber wer's glaubt wird selig.:tongue:
2015 wird eine integrierte Grafiklösung mehr Wums haben als Konsolenhardware. Konsolengrafik hängt jetzt schon weit hinter dem PC hinterher und die Konsolen pfeifen auf dem letzten Loch. Noch 5 Jahre mit der gleichen Grafik? Wenn Sony 1012 eine neue Generation bringt, dann braucht MS 2015 seine Konsole gar nicht mehr auf den Markt bringen.
Iceman346
2010-08-03, 09:27:35
Sorry, aber wer's glaubt wird selig.:tongue:
2015 wird eine integrierte Grafiklösung mehr Wums haben als Konsolenhardware. Konsolengrafik hängt jetzt schon weit hinter dem PC hinterher und die Konsolen pfeifen auf dem letzten Loch. Noch 5 Jahre mit der gleichen Grafik? Wenn Sony 1012 eine neue Generation bringt, dann braucht MS 2015 seine Konsole gar nicht mehr auf den Markt bringen.
Sowohl Sony als auch Microsoft bringen dieses Jahr erstmal ihre Fuchtelsteuerungen auf den Markt in der Hoffnung etwas vom Wii Kuchen abzubekommen. Beide Hersteller werden versuchen die Lebenszeit der aktuellen Generation so lang wie möglich zu machen, neue Hardware ist immer mit hohen Kosten verbunden, da diese erstmal subventioniert werden muss, man muss die Entwickler überzeugen Spiele dafür zu schreiben etc.
2012 ist das absolut frühste Jahr wo ich mit neuer Hardware von Sony/MS rechnen würde, 2014/15 halte ich aber für bedeutend wahrscheinlicher. Das sähe sicherlich anders aus, wenn die Wii nicht so einen riesigen Erfolg gehabt hätte.
Schlammsau
2010-08-03, 09:35:29
Das ist mal echt :eek:
http://www.computerbase.de/news/allgemein/studien/2010/august/nvidia_notebook-grafik-markt/
http://pics.computerbase.de/3/0/2/3/8/1_m.png
Nvidia bildet mit nur noch 19,7 Prozent Marktanteil das Schlusslicht der großen Hersteller. Da der Markt für diskrete Desktop-Grafikkarten auf nur noch 21,4 Prozent des Gesamtmarktes zusammengeschrumpft ist, musste Nvidia Verluste von 26,6 Prozent gegenüber dem letzten Quartal und gar 32,4 Prozent gegenüber dem gleichen Quartal des Vorjahres hinnehmen.
INDEX75
2010-08-03, 09:43:27
Das ist mal echt :eek:
http://www.computerbase.de/news/allgemein/studien/2010/august/nvidia_notebook-grafik-markt/
http://pics.computerbase.de/3/0/2/3/8/1_m.pngDer Rollentausch ging ziemlich schnell. Das Blatt kann sich jedoch genauso schnell wieder wenden.
Der Rollentausch ging ziemlich schnell. Das Blatt kann sich jedoch genauso schnell wieder wenden.
Nein, siehe oben. Der Markt für normale Grafikkarten ist massiv eingebrochen (langfristiger Trend in Richtung Notebooks) und deshalb ist der Anteil der normalen Grafikkarten am Gesamtmarkt nur noch bei 21,4% mit fallender Tendenz. 50% von 21,4% sind nur ~11%. Selbst wenn sie wieder auf 60% kommen sind 60% von 21,4% nur 12,8%. Und in den Notebook-Markt kommen sie nicht so schnell zurück, weil sie AMD hier rausgedrängt hat (wer zu spät kommt, den bestraft das Leben; der Spruch passt hier leider wirklich gut).
Das ist mal echt :eek:
was glaubst über was wir schon auf der gesamten Seite diskutieren? Siehe mein 2. Posting von oben. Da sind auch die Original Tabellen zu finden.
Winter[Raven]
2010-08-03, 11:06:37
Oh bitte.... jedes Jahr aufs neue....... wie oft wurde der Untergang Nvidias prophezeit??? Wäre ja peinlich wenn ATI die Zeit nicht ausgenutzt hätte......
Aussuchen kann sich das Nvidia nicht. GF100 ist nicht wirklich so der Verkaufshit. Und um nicht noch mehr Umsatzeinbußen hinnehmen zu müssen, müssen sie GF104 zu Kampfpreisen anbieten(die bestellten Wafer bei TSMC müssen ja auch weg). Sprich NV macht zur Zeit ok Geld mit vielen kleinen Gewinnen, ATI mit wenigen großen.
Mit GF104 macht man zwischen Cypress von ordentlich Druck.
GF106 kommt sicher bald.
Ansonsten hat Nvidia genug Platz für die kleinen GT2xx. AMD muss da schon mehr haushalten. Hast du weiter unten auch festgestellt.
Das ist nicht wirklich vergleichbar. Es sieht so aus als würde sich von Cypress zu SI(oder NI oder whatever) mehr ändern.Änderungen fallen nicht vom Himmel.
Es kostet alles Diesize.
Noch spart AMD am VRAM, indem sie einiges weniger verbauen. Wird SI standardmäßig ebenfalls mit 1GiB antreten?
Es sind viele Punkte die hineinspielen, ich wollte nur sagen das es nicht so einfach und rosig ist.
Exxtreme
2010-08-03, 12:05:12
Nein, siehe oben. Der Markt für normale Grafikkarten ist massiv eingebrochen (langfristiger Trend in Richtung Notebooks) und deshalb ist der Anteil der normalen Grafikkarten am Gesamtmarkt nur noch bei 21,4% mit fallender Tendenz. 50% von 21,4% sind nur ~11%. Selbst wenn sie wieder auf 60% kommen sind 60% von 21,4% nur 12,8%. Und in den Notebook-Markt kommen sie nicht so schnell zurück, weil sie AMD hier rausgedrängt hat (wer zu spät kommt, den bestraft das Leben; der Spruch passt hier leider wirklich gut).
Ich könnte mir vorstellen, dass sich der Markt für normale Grafikkarten wieder erholt wenn die ganzen Pads so richtig auf den Markt kommen.
Noch spart AMD am VRAM, indem sie einiges weniger verbauen. Wird SI standardmäßig ebenfalls mit 1GiB antreten?
Es sind viele Punkte die hineinspielen, ich wollte nur sagen das es nicht so einfach und rosig ist.
AMD braucht auch nicht so viel VRAM da sie andere Designentscheidungen getroffen haben.
AMD braucht auch nicht so viel VRAM da sie andere Designentscheidungen getroffen haben.
Das ist Quatsch. Die Designentscheidung hieß "es muss billig sein" mehr nicht. Nvidia musste unter anderem wegen dem SI auf 1,5GiB gehen. Dennoch könnte es so langsam sinnig sein, auf mehr umzurüsten, bringt bessere Testergebnisse.
Irgendwas muss man bieten, wenn man eine neue Generation zeigt. Der 4890 Refresh hatte Standardmäßig 1GiB, konnte somit mehr als nur 10% besser als die 4870 512 dastehen.
Ich könnte mir vorstellen, dass sich der Markt für normale Grafikkarten wieder erholt wenn die ganzen Pads so richtig auf den Markt kommen.
Wieso? Den Zusammenhang verstehe ich jetzt nicht. Oder bist du der Meinung, das sich Pad/Tablett-Benutzer eher einen Desktop-Rechner als ein Notebook als "Zweitgerät" zulegen werden?
Mit GF104 macht man zwischen Cypress von ordentlich Druck.
GF106 kommt sicher bald.
Zur Zeit wird sich GF104 sicher besser verkaufen als Cypress, das P/L Verhältnis ist einfach besser.
Aber Nvidia verkauft die 460 billiger als die 5850 obwohl beide wohl ca. das gleiche Kosten mit ggf. sogar leichten Vorteilen für die 5850. Das ganze geht zur Zeit gut, da ATI einfach nicht genug Chips liefern kann.
Aber ich sehe GF104 einfach nicht als den großen Wurf an als den viele den Chip sehen. Für mich sieht es so aus als hätte man es nach nem dreiviertel Jahr endlich geschafft nen Chip zu bauen der ein klein wenig teuerer ist als der der Konkurenz, allerdings auch ein klein wenig langsamer(ausser in Tessellation, was allerdigns zur zeit nur nice to have ist). Dazu kommen noch die Nvidia Pluspunkte (also HQ-AF,die AA-Modie,Phsyix...), insgesamt sieht das für mich nach nem Gleichstand zwischen beiden Chips aus.
Sollte sich an GF106 nichts großartiges ändern wirds dort ähnlich aussehen im Vergleich zu Juniper. Allerdings wird sich bei kleineren Chips die Feature Seite nicht so stark auswirken(wer braucht Tessellation bei den Dingern wirklich, SGSSAA ist auch nicht wirklich möglich).
Ansonsten hat Nvidia genug Platz für die kleinen GT2xx. AMD muss da schon mehr haushalten. Hast du weiter unten auch festgestellt.
Genug Platz für was? Die kleinen GT2xx? Was meinst du damit die Nachfolgegeneration von Fermi oder wie?
Änderungen fallen nicht vom Himmel.
Es kostet alles Diesize.
Kann man so pauschal nicht sagen. Sicher könnte ATI einfach die Diesize erhöhen und so nen schnellern Chip bauen. Allerdings soll es bei SI(das sind btw. alles noch Gerüchte von AMD hört man nicht viel), hauptsächlich um eine Effizienzsteigerung(und die Tessellation) gehen. Das heißt ja eben nicht größerer Chip und damit mehr Leistung, sondern gleich großer, bzw leicht größerer Chip und mehr bzw. deutlich mehr Leistung. Ob sie das wirklich schaffen wird man im Oktober sehen.
Noch spart AMD am VRAM, indem sie einiges weniger verbauen. Wird SI standardmäßig ebenfalls mit 1GiB antreten?
Es sind viele Punkte die hineinspielen, ich wollte nur sagen das es nicht so einfach und rosig ist.
Spart am VRAM ist auch übertrieben. Zur Zeit reichen 1GB für die meisten Fälle aus. Ausser für High-End User, da sind ggf. 2GB sinnvoll, und genau da bietet ATI diese auch an.
Das SI auf jedem Chip 2GB verbaut ist imo eher unwahrscheinlich. Es wäre einfach zu teuer das zu machen und würde wie gesagt nur in wenigen Ausnahmefällen wirklich was bringen. Das es allerdings Versionen mit 2GB geben wird ist denke ich auch sicher.
Exxtreme
2010-08-03, 15:53:31
Das ist Quatsch. Die Designentscheidung hieß "es muss billig sein" mehr nicht. Nvidia musste unter anderem wegen dem SI auf 1,5GiB gehen. Dennoch könnte es so langsam sinnig sein, auf mehr umzurüsten, bringt bessere Testergebnisse.
So viel ich weiss können die neueren Grafikchips von Nvidia den Arbeitsspeicher nicht als Grafikspeicher nutzen. Deshalb brechen sie sehr stark ein wenn der VRAM voll läuft da sie nicht benötigte Daten dann umkopieren müssen. Um das zu minimieren braucht's mehr VRAM.
Wieso? Den Zusammenhang verstehe ich jetzt nicht. Oder bist du der Meinung, das sich Pad/Tablett-Benutzer eher einen Desktop-Rechner als ein Notebook als "Zweitgerät" zulegen werden?
So ähnlich.
Ich gehe davon aus, dass für die meisten Notebook-Nutzer ein Pad völlig ausreichend ist und sie sich lieber dann ein Pad kaufen. Dann kann auch ein wesentlich günstigerer Desktop-Rechner her weil man keine Kompromisse mehr eingehen muss.
LuXon
2010-08-03, 16:49:54
So viel ich weiss können die neueren Grafikchips von Nvidia den Arbeitsspeicher nicht als Grafikspeicher nutzen. Deshalb brechen sie sehr stark ein wenn der VRAM voll läuft da sie nicht benötigte Daten dann umkopieren müssen. Um das zu minimieren braucht's mehr VRAM.
nVidia hat das mit dem Fermi behoben. Alle DX10 Karten (8xxx, 9xxx, 1xx, 2xx, 3xx) von nVidia können das hingegen nicht.
Ausserdem hat sich in diversen Tests gezeigt, dass die HD 5xxx Karten mit 1gb VRAM schneller wegbrechen als Fermi-Karten mit 1gb VRAM.
Ich finde die Tests aber gerade nirgends^^
svenw
2010-08-04, 09:08:52
Mehr als 1GB Ram braucht man aktuell kaum, da das eigentlich erst bei Auflösungen jenseits von HD (1020) aktuell wird. Entsprechende Monitore sind rar und teuer und daher die Menge der Leute die diese RAM-Menge wirklich brauchen überschaubar.
BTW: Insgesamt wuchs der Grafikkarten-Markt gegenüber dem ersten Quartal dieses Jahres um 4,3 Prozent, das gleiche Quartal des letzten Jahres lässt man mit einem Zuwachs von 38,6 Prozent deutlich hinter sich. Die Marktforscher erwarten, dass im Jahr 2010 insgesamt 525,1 Millionen Grafikeinheiten verkauft werden, was einem Wachstum von 28,6 Prozent gegenüber 2009 entspricht. ComputerBase (http://www.computerbase.de/news/allgemein/studien/2010/august/nvidia_notebook-grafik-markt/)Somit ist nur der relative Anteil von diskreten Grakas eingebrochen nicht aber der Gesamtmarkt. Absolut sind die Zahlen gestiegen.
Genug Platz für was? Die kleinen GT2xx? Was meinst du damit die Nachfolgegeneration von Fermi oder wie?
Nein, GT215, GT216 und GT218. Sind allesamt in 40nm. Sind zwar aus der D3D10.1 Generation, aber bislang Nvidias Konkurrenz zu den kleinen HD4 und HD5.
Für die HD4 hat AMD genug Platz auf den 55nm Wafern, für die kleinen HD5 eher nicht, der Platz ist begrenzt wie du selbst festgestellt hast.
GF106 oder GF108 wären zwar besser, aber bereits jetzt hat man den Vorteil der größeren Kapazitäten.
Ich meine das ist eine Wahnsinnsituation, die Konkurrenz bietet mit D3D11 etwas besseres, dennoch kann man niedrigere Preise fahren, dank Kapazitätsvorteil.
Wie man an GTX 460/470 sieht fährt Nvidia den Preiskampf, ihre einzige Möglichkeit.
Kann man so pauschal nicht sagen. Sicher könnte ATI einfach die Diesize erhöhen und so nen schnellern Chip bauen. Allerdings soll es bei SI(das sind btw. alles noch Gerüchte von AMD hört man nicht viel), hauptsächlich um eine Effizienzsteigerung(und die Tessellation) gehen. Das heißt ja eben nicht größerer Chip und damit mehr Leistung, sondern gleich großer, bzw leicht größerer Chip und mehr bzw. deutlich mehr Leistung. Ob sie das wirklich schaffen wird man im Oktober sehen.
Wo sollte die Effizienzsteigerung herkommen? Es kann sich nicht um gravierende Probleme handeln wenns so billig zu lösen ist.
Alleine für mehr Tessellationleistung fehlt es an Einheiten, nicht an der Effizienz selbiger. Ich persöhnlich bezweifel das man groß sich um Tessellation kümmern wird.
Spart am VRAM ist auch übertrieben. Zur Zeit reichen 1GB für die meisten Fälle aus. Ausser für High-End User, da sind ggf. 2GB sinnvoll, und genau da bietet ATI diese auch an.
Das SI auf jedem Chip 2GB verbaut ist imo eher unwahrscheinlich. Es wäre einfach zu teuer das zu machen und würde wie gesagt nur in wenigen Ausnahmefällen wirklich was bringen. Das es allerdings Versionen mit 2GB geben wird ist denke ich auch sicher.
Kommt drauf an wie man die Worte sieht.
Ich meinte schlicht, das 1GiB billiger kommt als 2GiB. Ganz einfach, AMD spart dadurch das sie weniger verbauen.
Undertaker
2010-08-04, 12:07:53
Stecken ATI und Nvidia nicht auch in einer ähnlichen Situation wie Intel und AMD im CPU-Bereich? Soll heißen: Beide beherrschen den Markt diskreter GPUs mit >50%. Hier darf eigentlich kein Hersteller riskieren, dass der andere völlig untergeht, um kartellrechtlichen Eingriffen vorzubeugen.
Exxtreme
2010-08-04, 12:12:32
Stecken ATI und Nvidia nicht auch in einer ähnlichen Situation wie Intel und AMD im CPU-Bereich? Soll heißen: Beide beherrschen den Markt diskreter GPUs mit >50%. Hier darf eigentlich kein Hersteller riskieren, dass der andere völlig untergeht, um kartellrechtlichen Eingriffen vorzubeugen.
Nein.
Der Punkt ist, Intel kann es sogar riskieren, dass AMD untergeht. Das ist nicht das Problem. Was Intel nicht riskieren darf, ist dass sie AMD mit ihrer Marktmacht plattmachen. Weil sie dann u.U. zerschlagen werden. Das ist ein Unterschied.
Nein, solange Intelmarktführer bleibt kann einer der beiden verschwinden.
Komisch das keine Mitleid mit Nvidia hat, den die sind am meisten bedroht, da keine CPU oder Flashsparte vorhanden ist.
Im CPU Bereich ist es scheinbarlegitim den schwächeren zu unterstüzten, AMD, hier darf man den Bedrohten, Nvidia, nicht unterstützten.
Nein, solange Intelmarktführer bleibt kann einer der beiden verschwinden.
Komisch das keine Mitleid mit Nvidia hat, den die sind am meisten bedroht, da keine CPU oder Flashsparte vorhanden ist.
Im CPU Bereich ist es scheinbarlegitim den schwächeren zu unterstüzten, AMD, hier darf man den Bedrohten, Nvidia, nicht unterstützten.
Wie soll man den NV unterstützen?
Dass INTEL IGP nichts tolles ist und man lieber einen von NV/AMD nimmt weiß doch eh schon jeder.
Exxtreme
2010-08-04, 12:42:47
Komisch das keine Mitleid mit Nvidia hat, den die sind am meisten bedroht, da keine CPU oder Flashsparte vorhanden ist.
Im CPU Bereich ist es scheinbarlegitim den schwächeren zu unterstüzten, AMD, hier darf man den Bedrohten, Nvidia, nicht unterstützten.
Tja, da muss man sagen, dass NV hier richtig gepennt hat. Sie hatten früher mehr Standbeine. Nur haben sie da Mist gebaut. Warum das Chipsatz-Geschäft so untergegangen ist, das frage ich mich bis heute.
Quaker
2010-08-04, 12:54:16
Nein, solange Intelmarktführer bleibt kann einer der beiden verschwinden.
Komisch das keine Mitleid mit Nvidia hat, den die sind am meisten bedroht, da keine CPU oder Flashsparte vorhanden ist.
Im CPU Bereich ist es scheinbarlegitim den schwächeren zu unterstüzten, AMD, hier darf man den Bedrohten, Nvidia, nicht unterstützten.
Naja, die haben mit ihrem proprietären Müll halt viele Symphatien verloren, selbst meine.
Ich habe dies schon früher bei 3DFX kritisiert, jetzt nach dem Aufkauf gehts auch mit nVidia bergab. Da haben die Leute von 3DFX wohl zuviel Einfluss...
Richard Huddy sagst eigentlich ziemlich treffend :
AMD’s Senior Manager of Developer Relations, Richard Huddy, sprach sich in diesem Zusammenhang dafür aus dass PhysX hoffentlich bald zusammen mit Glide und A3D im proprietären-API-Museum landet und von offenen Implementationen wie OpenCL und DirectCompute ersetzt wird
Der einzig richtige Weg, die Geschichte hats immer wieder gezeigt.
Undertaker
2010-08-04, 12:55:21
Nein, solange Intelmarktführer bleibt kann einer der beiden verschwinden.
Intel ist am Markt diskreter Grafikkarten nicht existent. Das man im Gesamtmarkt durch die Massen an IGPs führt würde die Wettbewerbshüter sicher kaum interessieren, wenn nur noch ein "echter" GPU-Hersteller leben sollte und seine Karten für 1000€+ in die Läden stellt - mal ganz wild gesponnen.
Der Punkt ist, Intel kann es sogar riskieren, dass AMD untergeht. Das ist nicht das Problem. Was Intel nicht riskieren darf, ist dass sie AMD mit ihrer Marktmacht plattmachen. Weil sie dann u.U. zerschlagen werden. Das ist ein Unterschied.
Das ließe sich im Falle das Falles wohl kaum trennen und ist den Kartellbehörden sicherlich auch egal. Als alleiniges marktbeherrschendes Unternehmen dürfte Intel sicherlich nicht weiterleben.
Richard Huddy sagst eigentlich ziemlich treffend :
[...]
Der einzig richtige Weg, die Geschichte hats immer wieder gezeigt.
Naja, die offene Grafikschnittstelle Open GL zeigt im Spielebereich zurzeit nicht gerade viel Präsenz. Es ist halt immer eine Wechselwirkung da zwischen vielen Köchen und einem gut/zeitig gerührten Brei. Bei einer Schnittstelle, die unter der Aufsicht eines Herstellers steht, ist einfach mehr "Zug" drin.
-carsten
N0Thing
2010-08-04, 13:12:55
Es macht aber auch einen Unterschied, ob eine Schnittstelle von einem Marktteilnehmer stammt, oder ob eine dritte Firma ohne eigene Produkte für die Schnittstelle verantwortlich ist.
Natürlich spielen viele Faktoren eine Rolle, für eine breite Akzeptanz ist ein neutraler Anbieter aber sicher hilfreich.
Exxtreme
2010-08-04, 13:19:37
Das ließe sich im Falle das Falles wohl kaum trennen und ist den Kartellbehörden sicherlich auch egal. Als alleiniges marktbeherrschendes Unternehmen dürfte Intel sicherlich nicht weiterleben.
Doch, das lässt sich durchaus trennen.
Und gegen Quasi-Monopole haben die Kartellbehörden nicht unbedingt was solange der Quasi-Monopolist die Marktmacht nicht ausnutzt. Dummerweise neigen Quasi-Monopolisten aber dazu und dann gibt es eins auf den Deckel.
Naja, die offene Grafikschnittstelle Open GL zeigt im Spielebereich zurzeit nicht gerade viel Präsenz. Es ist halt immer eine Wechselwirkung da zwischen vielen Köchen und einem gut/zeitig gerührten Brei. Bei einer Schnittstelle, die unter der Aufsicht eines Herstellers steht, ist einfach mehr "Zug" drin.
-carsten
Das kann man so nicht sagen.
OpenGL hatte nie den Fokus auf Spiele oder Multimedia. Deshalb wird nie verstärkt in diese Richtung entwickelt. Ein weiteres Problem von OpenGL sind die beteiligten Unternehmen. Die werden nie zuviel Innovation zulassen weil dann ihre Produkte u.U. nicht laufen.
svenw
2010-08-04, 13:20:12
AMD’s Senior Manager of Developer Relations, Richard Huddy, sprach sich in diesem Zusammenhang dafür aus dass PhysX hoffentlich bald zusammen mit Glide und A3D im proprietären-API-Museum landet und von offenen Implementationen wie OpenCL und DirectCompute ersetzt wird
Der einzig richtige Weg, die Geschichte hats immer wieder gezeigt.[/QUOTE]
Nicht unbedingt. PhysX hätte bei eine vernünftigen Preispolitik von NV DER Standard werden können. Leider hat NV das als proprietäres Feature vermarktet und das funktioniert eben nicht. Hätten sie es ATI zu einem vernünftigen Preis angeboten hätte ATI wahrscheinlich ja gesagt, PhysX ist eine etablierte Größe im Konsolenmarkt und sicherlich eine der Sachen mit denen man Grakas verkaufen kann, denn in dem Bereich haben CPUs nichts zu melden. Bei einer vernünftigen Implementierung können CPUs sicherlich einiges stemmen, aber gegen keine Kleine Karte nur als Physik-Beschleuniger sehen sie keine Sonne.
AMD als CPU Hersteller hat wenig Interesse an einer GPU beschleunigten Physik.
Exxtreme
2010-08-04, 14:53:45
Nicht unbedingt. PhysX hätte bei eine vernünftigen Preispolitik von NV DER Standard werden können. Leider hat NV das als proprietäres Feature vermarktet und das funktioniert eben nicht. Hätten sie es ATI zu einem vernünftigen Preis angeboten hätte ATI wahrscheinlich ja gesagt, PhysX ist eine etablierte Größe im Konsolenmarkt und sicherlich eine der Sachen mit denen man Grakas verkaufen kann, denn in dem Bereich haben CPUs nichts zu melden. Bei einer vernünftigen Implementierung können CPUs sicherlich einiges stemmen, aber gegen keine Kleine Karte nur als Physik-Beschleuniger sehen sie keine Sonne.
Ich glaube nicht, dass AMD sich jemals auf PhysX eingelassen hätte. Das Prinzip lautet "Teile und herrsche". Sprich, es ist besser für AMD einen eigenen Standard zu bringen, egal wie unbrauchbar der ist. Das sorgt nämlich dafür, dass die Spieleentwickler nicht auf PhysX aufspringen. Sonst wäre man vom Wohlwollen Nvidias abhängig.
Undertaker
2010-08-04, 15:01:01
Doch, das lässt sich durchaus trennen.
Wie? Ob ein Hersteller pleite geht oder nicht hängt nuneinmal weder nur von der Qualität der Produkte, noch nur von der Produktpolitik des anderen ab. Aktuelles Beispiel am GPU-Markt: Hätte AMD ausreichende Fertigungskapazitäten und würde die aktuelle Produktpalette zum Selbstkostenpreis verkaufen, hätte Nvidia mit seinen deutlich größeren Dies ein großes Problem. Falls daraus die Pleite des Unternehmens folgen würde, was möchtest du da trennen?
In so einem, ich wiederhole völlig hypothetischen, Fall hätte ATI auf einmal eine Monopolstellung auf dem Markt dezidierter GPUs und könnte Preise und Entwicklungstempo frei diktieren. Dies hätte definitiv Konsequenzen, bis hin zu einem worst case der Zerschlagung der Grafiksparte.
Aber genug der Spekulation, so weit wird es nicht kommen. ;)
AMD müsste dann mehr Geld an die Entwickler zahlen als es nVidia momentan macht. Zumindest wäre das die Schlussfolgerung aus einem Gespräch gestern, dass ich mit jemandem geführt hab der unter anderem an der Batman AA Entwicklung beteiligt war und meinte, so ziemlich jeder Entwickler fand PhysX richtig scheiße, in allen Aspekten.
PhysX is buggy, hard to implement, hard to balance and is counter-intuitive. It's worse than programming for the PS3
/falscher Thread. Besser im PhysX-Thread aufgehoben (wobei... egal, überall die gleichen Meinungen ^^)
mironicus
2010-08-04, 16:56:03
Genau das ist der Knackpunkt: Momentan muß man für Konsolen und Grakas die DX11 noch nicht beherrschen (oder zuwenig Tesselation Wums haben) eh noch komplexe Geometrien entwerfen. Daher ist der aktuelle Gewinn von Tesselation minimal bis kontraproduktiv. Tesselation wird kommen, davon bin ich überzeugt, aber erst wenn es die Konsolen auch beherrschen und gleich von Anfang an entsprechend entwickelt wird. Wenn 2012 die neue Generation von Konsolen kommt wird es einen massiven Schub für Tesselation geben. Bis dahin sollte der Spiele-PC Markt auch zu mindestens 80% mit DX11 Hardware versorgt sein.
Ich glaube eher, dass eine neue Xbox nicht mit DX11 daherkommt, sondern mit etwas "noch höherem". Es muss ja Features geben, die die Konsole über aktuelle PC-Technik hervorhebt. Das war bei der Xbox 360 schon damals der Fall. DX 11.1 oder höher und dann müssen wir uns ohnehin wieder eine neue Grafikkarte zulegen.
y33H@
2010-08-04, 17:13:06
Naja, im März 2006 kam die 360 nach Europa - und Ende 2006 kam schon die 8800 GTX :ugly:
Bucklew
2010-08-04, 17:39:13
Richard Huddy sagst eigentlich ziemlich treffend :
Der einzig richtige Weg, die Geschichte hats immer wieder gezeigt.
Was sollte Huddy denn anderes sagen außer PhysX schlecht reden?
BlackBirdSR
2010-08-04, 18:14:56
Was sollte Huddy denn anderes sagen außer PhysX schlecht reden?
Zumal diese Aussage an sich unglücklich ist. PhysX mag Nvidia gehören, aber es ist eine weitverbreitete Physikengine. Man hätte hier eher CUDA ansprechen müssen, und das wird so schnell nicht verschwinden.
AMD darf sowieso erst heulen, wenn sie selber irgendwas vorzuweisen haben.
Ihr Entwickler-Programm hängt immer noch Lichtjahre dem von NVIDIA hinterher, wie soll man da solche Aussagen ernst nehmen?
y33H@
2010-08-04, 18:27:18
Weil es Huddy gesagt hat und der lügt im Gegensatz zu NV nie ;D
deekey777
2010-08-04, 19:47:46
AMD müsste dann mehr Geld an die Entwickler zahlen als es nVidia momentan macht. Zumindest wäre das die Schlussfolgerung aus einem Gespräch gestern, dass ich mit jemandem geführt hab der unter anderem an der Batman AA Entwicklung beteiligt war und meinte, so ziemlich jeder Entwickler fand PhysX richtig scheiße, in allen Aspekten.
Die Nutzung von Bullet und DMM in Spielen (GTA4!) und einigen Filmen zeigt, dass solche Software auch ohne Geld eines IHV benutzt wird.
Dass AMD PhysX schlecht macht (und absichtlich nicht unterscheidet, was was ist, weil durch Nvidias Politik PhysX zum Synonym für GPU-PhysX geworden ist), ist die übliche Masche, die überall zu finden ist.
Ich glaube nicht, dass AMD sich jemals auf PhysX eingelassen hätte. Das Prinzip lautet "Teile und herrsche". Sprich, es ist besser für AMD einen eigenen Standard zu bringen, egal wie unbrauchbar der ist. Das sorgt nämlich dafür, dass die Spieleentwickler nicht auf PhysX aufspringen. Sonst wäre man vom Wohlwollen Nvidias abhängig.
Es sieht so aus, dass AMD mit der Openphysics-Innitiative versucht, ihre Workstation-Produkte zustärken. Es geht ihnen nicht darum, dass Spiele mit OP kommen, um mehr Radeons zu verkaufen, sondern ihre FirePro-Sparte attraktiver zu machen: AMD wird sehr wahrscheinlich Bullet/DMM2-Plug-ins anbieten, die nur mit ihren Produkten laufen.
Bucklew
2010-08-04, 20:04:53
Es sieht so aus, dass AMD mit der Openphysics-Innitiative versucht, ihre Workstation-Produkte zustärken. Es geht ihnen nicht darum, dass Spiele mit OP kommen, um mehr Radeons zu verkaufen, sondern ihre FirePro-Sparte attraktiver zu machen: AMD wird sehr wahrscheinlich Bullet/DMM2-Plug-ins anbieten, die nur mit ihren Produkten laufen.
Naja, erstmal abwarten. Bisher hat AMD nichts anderes gemacht als sich Bullet (eine von AMD vollkommen unabhängige Institution) auf irgendwelche Marketingpresos zu pappen. Und dabei haben dann die Bullet-Entwickler in Interviews selbst gesagt, dass sie mit Nvidia zusammenarbeiten und deren devSupport sehr gut ist ;D
Ist im Grunde nichts anderes als mit 3dVision. AMD nimmt irgendwas schon vorhandenes und tut so als wäre es ihre Innovation. Naja....
deekey777
2010-08-04, 20:09:42
Die Bullet-Devs nutzen seit Jahren Cuda, um einen Teil auf die GPUs auszulagern. Wenn sie Unterstützung bekommen, warum sollen sie das auch nicht positiv erwähnen? Also was soll der blöde Smiley?
Bucklew
2010-08-04, 20:33:37
Wenn sie Unterstützung bekommen, warum sollen sie das auch nicht positiv erwähnen? Also was soll der blöde Smiley?
Weil es lächerlich ist, dass das AMD als ihre "Antwort" auf PhysX bezeichnen. Es ist wenn schon Bullets Antwort, aber nicht die von AMD.
Stichwort: Schmücken mit fremden Federn.
Mr. Lolman
2010-08-04, 20:38:46
Weil es lächerlich ist, dass das AMD als ihre "Antwort" auf PhysX bezeichnen. Es ist wenn schon Bullets Antwort, aber nicht die von AMD.
Stichwort: Schmücken mit fremden Federn.
ATi ist ja bspw. auch keine Erfindung von AMD, also was soll die Korinthenkackerei?
Bucklew
2010-08-04, 21:51:09
ATi ist ja bspw. auch keine Erfindung von AMD, also was soll die Korinthenkackerei?
Du vergleichst gerade Äpfel mit Klosteinen.
Vento
2010-08-04, 21:55:06
AMD darf sowieso erst heulen, wenn sie selber irgendwas vorzuweisen haben.
Ihr Entwickler-Programm hängt immer noch Lichtjahre dem von NVIDIA hinterher, wie soll man da solche Aussagen ernst nehmen?
treffend formuliert
Die Nutzung von Bullet und DMM in Spielen (GTA4!) und einigen Filmen zeigt, dass solche Software auch ohne Geld eines IHV benutzt wird.
Äh PhysX (egal ob GPU oder CPU) wird von den meisten Spielen genutzt, alles andere so gut wie gar nicht.
Wie gesagt, falscher Thread. Mir ist es scheiß egal was AMD über PhysX sagt, ich habe meine eigene Meinung wie AMD/ATI es handhaben sollte und wie es generell darum aussieht.
N0Thing
2010-08-05, 00:49:17
Äh PhysX (egal ob GPU oder CPU) wird von den meisten Spielen genutzt, alles andere so gut wie gar nicht.
Wie gesagt, falscher Thread. Mir ist es scheiß egal was AMD über PhysX sagt, ich habe meine eigene Meinung wie AMD/ATI es handhaben sollte und wie es generell darum aussieht.
PhysX, Cuda, Physik@GPU sind interessante Themen, die in den entsprechenden Threads behandelt werden sollten. http://www.forum-3dcenter.org/vbulletin/images/3dc/smilies/im/(y).png:)
@Topic
Ich bin gespannt wie sich die Situation darstellt, wenn die Verkaufszahlen der GTX460 in die Analysen eingehen. ATI/AMD hat gut vorgelegt, die GTX480/470 scheinbar weniger Käufer gefunden als ich erwartet habe, die GTX 460 bedient aber ein ganz anderes Preissegment und hat gefühlt keine Nachteile.
Ich bin sehr gespannt, wie die Zahlen für das Q3 aussehen.
felfuw
2010-08-05, 01:42:54
Ich denk doch mal das die Zahlen für Nvidia in Q3 deutlich besser aussehen werden. Die GTX460 verkauft sich zu Recht sehr gut, und bietet zur Zeit einfach das beste P/L Verhältnis.
Richtig intressant wird allerdings imo erst Q4 wenn sich zeigen wird wie gut, oder schlecht die 6k Versionen werden, insbesondere auch von der Verfügbarkeit her.
es hat geheissen dass tmsc die 40nm kapatizäten bis ende des jahres verdoppelt, ist das rechtzeitig bis zum hd 6k launch der fall?
zusätzliche zur hd 6k serie kommt ja ende des jahres noch ontario, es ist ja jezt schon sehr knapp, mit aktuellen kapazitäten würde das ja nie und nimmer reichen.
@Topic
Ich bin gespannt wie sich die Situation darstellt, wenn die Verkaufszahlen der GTX460 in die Analysen eingehen. ATI/AMD hat gut vorgelegt, die GTX480/470 scheinbar weniger Käufer gefunden als ich erwartet habe, die GTX 460 bedient aber ein ganz anderes Preissegment und hat gefühlt keine Nachteile.
Ich bin sehr gespannt, wie die Zahlen für das Q3 aussehen.
Die GTX460 sind ohne Frage sehr gute Karten.
Aber, welche Zahlen sollen dann in Q3 besser aussehen? Der Umsatz? Der Gewinn? Oder der Marktanteil?
Beim Umsatz denke ich, das Nvidia wesentlich besser dastehen wird.
Beim Gewinn bin ich mir nicht sicher, da die Kosten für die GF104 GPU ziemlich hoch sind und alleine schon die seltsame Speicherkonfiguration mit 192bit/768MB zeigt mit welch heißer Nadel der Verkaufspreis der Basis-GTX460 gestrickt ist. Die Margen dürften auch für Nvidia selbst nicht hoch sein.
Der Marktanteil von Nvidia wird IMHO leider eher noch nach unten gehen da sie im Notebook-Bereich wahrscheinlich noch einige Kunden verlieren werden. Erst in Q4/2010 haben sie dann auch die Lowend-GPUs am Start und es kann wieder aufwärts gehen. Das hängt dann aber IMHO davon ab, wieviele (Notebook-)OEM's sie bis dahin noch halten können.
AMD/ATI auf dem Vormarsch
au ja. Bullet Physics Engine and Collision Detection on GPU (http://www.geeks3d.com/20100805/siggraph-2010-bullet-physics-engine-and-collision-detection-on-gpu/)
Bucklew
2010-08-05, 19:20:38
au ja. Bullet Physics Engine and Collision Detection on GPU (http://www.geeks3d.com/20100805/siggraph-2010-bullet-physics-engine-and-collision-detection-on-gpu/)
Bullet hat mit AMD nichts zu tun, die sind quasi neutral, auch wenn AMD es sich in ein paar Marketingpresos knallt.
aylano
2010-08-05, 20:20:04
AMD/ATI auf dem Vormarsch
So wie es aussieht schon.
AMD hat im 2Q mit 10 Mio. DX11 GPUs erstmals eine halbwegs vernünftige Menge an 40nm-Wafern bzw. 40nm-Kapazitäten zu Verfügung gehabt.
Und gerade in diesem Quartal konnte AMD rein zufällig die meisten Marktanteilen im Gesamten Grafikkarten-Markt erreichen
Und gerade in diesem Quartal musste Nvidia eine Umsatz-Einbruch bekanntgeben.
@Marktanteile
Im 2Q 2009 konnte AMD die meisten Marktanteilen bei Notebook-GPUs erreichen. Das war das erste Quartal, wo die 4000er-Mobile erstmals breitflächig zur Verfügung stand.
In den nächsten Quartalen hatte Nvidia den Vorteil von 40nm in Low-End & Mainstream, wodurch die mobilen-Marktanteile etwas zurückblieben, aber AFAIK AMD immer noch die meisten erreichte.
Im 2Q 2010 erreichte AMD erstmals die meisten Marktanteilen im Grafikkarten Markt. Just in dem Monat, wo sie recht viele DX11-GPUs liefern konnten.
Wenn die Fab14 schon im 3Q mehr und mehr 40nm-Wafer auswirft, dann ist die Chance sehr groß, dass der Trend (Marktanteil-Wachstum bei AMD) im 3Q weitergeht.
@Nvidia Chipsatz
Das ist ein doppeltes Problem für Nvidia. Einerseits bricht ein großer Umsatz & Gewinn-Bringer für Nvidia weg und andererseits wird Nvidia dadurch in den Gesamt-GPU-Marktanteilen wegen non-GPU-Einheit in Fusion oder Sandy-Bridge deutlich hinter AMD liegen, wodurch Nvidia leicht an der Marktmacht verlieren wird.
Chipsatz Umsatz & Gewinn - Höhepunkt soll laut Nvidia im 3Q 2010 liegen und danach gehts abwerts.
Und wenn dieser Gewinn wegfällt, dann kann man andere Markte bzw. Features nicht mehr so pushen.
@DX11 in Low-End & Mainstream
Das Prolbem ist, sie kommen recht spät. Auch wenn sie vor Back-to-School kommen mögen, werden sie in recht wenigen Notebooks verbaut werden, vorallem weil paar Monate später der große Fusion & Sandy-Bridge Umstieg kommt.
Absolut werden die DX11-Low-End & Mainstream besser als die vorgänger 40nm-DX10-GPUs, aber relativ könnte Nvidia trotzdem weiter Marktanteile verliefen, da die 40nm-DX10-GPUs die Vorteil der 40nm-Kapazitäten hatte (=keine 5000er-Flut) und selber wegen den nichterfolg von Tegra etwas mehr 40nm-Kapazitäten als für GPU geplant übrig hatte.
@Teildeaktivierte GPUs
Über die Wirtschaftlichkeit braucht man nicht wirklich reden, wenn man nichteinmal volle GPU (aus welchen Gründen auch immer) am Markt bringen kann.
Die Gründe dürften aber nicht so gering sein.
So wie es gewisse Persnon es sagen würden: "Nvidia verschenkt absichtlich Geld, weil sie die vollen GPUs zurückhalten."
Ich schätze, die vollen GPUs kommen dann spätestens bei South-Island, eher kurz davor.
@South-Island
Das könnte das nächste Problem für Nvidia werden.
Den dieser sollte mehr Effizienz durch Architektur-Verbesserungen sowie 40nm-Fertigung bekommen, dazu mehr Tesselation sowie Switchable-Grafik alias Optimus-Gegenpart.
Hingegen wird Nvidia voll GPUs wowie ein besseres GF100-B-Stepping (sowie davor GF106 & GF108)
Mit South-Island könnte der Optimus-Vorteil wegfallen und wenn Low-End & Mainstream rechtzeitig vor der Sandy-Bridge & Fusion Umstellung fertig wird, dann wird der Druck auf NV erhöht.
@OpenCL
Zwei Milensteine sind Fusion (Anfang 2011) sowie IMO OpenCL 2.0, was AFAIK Anfang 2012 kommen sollte.
Grußer Trumpf könnte Apple sein, die nicht nur OpenCL in OS 10.6 (Notebooks) und OS 4.0 (iPad & iPhone) integiert haben, sondern der größten Pusher von OpenCL sind.
Vorallem, mit Fusion-Prudukte könnten sie dann richtig Schwung in die Märkte reinbringen.
Und wir kenne ja, wie Apple die Märkte bisher in Schwung brachten, wenn sie wollen.
Apple & AMD wird sowieso interessant.
Denn Apple hat OpenCL gepusht und AMD ist nun mal der einzige Anbieter, der CPUs und Grafikkarten sowie Native-GPU&GPU-DX11-Produkte anbieten kann.
Vorallem, passen sie gut zusammen, da Apple über Intel & Nvidia auch nicht mehr so erfreut ist.
Apple ist in Optimus verliebt und wenn AMD einen guten Optimus-Konkurrenten anbieten kann, dann könnte eine verdammt gute Apple & AMD - Zusammenarbeit entstehen, wo wir ja schon die ersten Anzeichen sehen.
Und das bringt
AMD/ATI auf dem Vormarsch
Bucklew
2010-08-05, 21:04:08
@Marktanteile
Im 2Q 2009 konnte AMD die meisten Marktanteilen bei Notebook-GPUs erreichen. Das war das erste Quartal, wo die 4000er-Mobile erstmals breitflächig zur Verfügung stand.
In den nächsten Quartalen hatte Nvidia den Vorteil von 40nm in Low-End & Mainstream, wodurch die mobilen-Marktanteile etwas zurückblieben, aber AFAIK AMD immer noch die meisten erreichte.
Im 2Q 2010 erreichte AMD erstmals die meisten Marktanteilen im Grafikkarten Markt. Just in dem Monat, wo sie recht viele DX11-GPUs liefern konnten.
Wenn die Fab14 schon im 3Q mehr und mehr 40nm-Wafer auswirft, dann ist die Chance sehr groß, dass der Trend (Marktanteil-Wachstum bei AMD) im 3Q weitergeht.
Realistisch wird es so aussehen:
Nvidia launcht in den nächsten Wochen die Mid- und Low-End Produkte, ebenfalls Mobile. Dank Optimus werden die auch in Notebooks kommen, in denen man bisher mangels großer Akku davor zurückgeschreckt hat diskrete Grafikchips zu verbauen. Damit hat man die aktuellesten und neusten Notebookchips. Bis ATI in diesem Bereich nachlegen kann, wird es Frühjahr 2011. Man hat also ein gutes halbes Jahr einen Vorsprung, genau den, den ATI gerade hat mit den entsprechenden Zahlen, die man sieht. Vorteil ist: Man nimmt, wie schon zum diesjährigen Jahreswechsel, sowohl die Back-to-School als auch die Weihnachtsphase mit. Letztes Jahr mit GT21x, dieses Jahr mit GF10x. ATI dagegen ist mit Mid- und Low-End dafür zu spät. Wir werden für ein Jahr garantiert ein Auf und Ab sehen. Ende des Jahres wird Nvidia besser da stehen, Mitte nächsten Jahres ATI. Danach wird man sehen müssen.
Realistisch wird es so aussehen:
Nvidia launcht in den nächsten Wochen die Mid- und Low-End Produkte, ebenfalls Mobile. Dank Optimus werden die auch in Notebooks kommen, in denen man bisher mangels großer Akku davor zurückgeschreckt hat diskrete Grafikchips zu verbauen. Damit hat man die aktuellesten und neusten Notebookchips. Bis ATI in diesem Bereich nachlegen kann, wird es Frühjahr 2011. Man hat also ein gutes halbes Jahr einen Vorsprung, genau den, den ATI gerade hat mit den entsprechenden Zahlen, die man sieht. Vorteil ist: Man nimmt, wie schon zum diesjährigen Jahreswechsel, sowohl die Back-to-School als auch die Weihnachtsphase mit. Letztes Jahr mit GT21x, dieses Jahr mit GF10x. ATI dagegen ist mit Mid- und Low-End dafür zu spät. Wir werden für ein Jahr garantiert ein Auf und Ab sehen. Ende des Jahres wird Nvidia besser da stehen, Mitte nächsten Jahres ATI. Danach wird man sehen müssen.
Da sie bei den Energieeffizienz baden gehen wird die Sache wohl leicht anders laufen. ;)
Da sie bei den Energieeffizienz baden gehen wird die Sache wohl leicht anders laufen. ;)
Als ob das eine Rolle spielen würde...
icedealer
2010-08-05, 22:42:49
Als ob das eine Rolle spielen würde...
Bei Notebooks die Hauptrolle...
Bucklew
2010-08-05, 23:52:25
Da sie bei den Energieeffizienz baden gehen wird die Sache wohl leicht anders laufen. ;)
Optimus.
Da sie bei den Energieeffizienz baden gehen wird die Sache wohl leicht anders laufen. ;)
http://www.notebookcheck.com/Nvidia-Optimus.25430.0.html
Mr. Lolman
2010-08-06, 06:29:00
http://www.notebookcheck.com/Nvidia-Optimus.25430.0.html
Toll. Das heißt, dass NV künftig wissen wird, was ich für Apps gerade starte?
Bucklew
2010-08-06, 06:58:46
Toll. Das heißt, dass NV künftig wissen wird, was ich für Apps gerade starte?
Das wissen sie jetzt bereits. Und ATI auch. Und Microsoft auch. Und....
Realistisch wird es so aussehen:
Damit hat man die aktuellesten und neusten Notebookchips. Bis ATI in diesem Bereich nachlegen kann, wird es Frühjahr 2011. Man hat also ein gutes halbes Jahr einen Vorsprung,
WoW...das nenne ich selektive Wahrnehmung.
Hat dir eigentlich noch niemand gesagt, das AMD schon seit 7 Monaten DX11 Mainstream- und Lowend Notebook GPUs verkauft während Nvidia nur die alten GT2xx @ 40nm als GT3xx nochmal neu vermarktet hat. :freak:
Außerdem, die neuen GPUs von AMD (2. Generation mit DX11) kommt schon Mitte Oktober.
WoW...das nenne ich selektive Wahrnehmung.
Hat dir eigentlich noch niemand gesagt, das AMD schon seit 7 Monaten DX11 Mainstream- und Lowend Notebook GPUs verkauft während Nvidia nur die alten GT2xx @ 40nm als GT3xx nochmal neu vermarktet hat. :freak:
Außerdem, die neuen GPUs von AMD (2. Generation mit DX11) kommt schon Mitte Oktober.
Wieviel besser die werden weiss aber keiner. Fertigungstechnisch hängt AMD an den selben Grenzen wie Nvidia auch. Die so gelobte energetische Effizienz ist einfach nur ein Resultat von weniger Transistoren der aktuellen Generation. Wenn jemand allerdings weniger Transistoren verbraucht, dann hat er irgendwelche Funktionalitäten einfach nicht implementiert. Das sollte auch mal deutlich erwähnt werden - auch von den Medien. Da wird mir viel zu viel auf Stromverbrauch und bla herumgeritten und kaum darüber diskutiert was AMD da alles weggelassen hat inklusive der für heutige Zeit unwürdigen AF Qualität.
Deshalb wird die kommende Generation auch deutlich mehr Transistoren mitbringen müssen. Insofern erwarte ich performancetechnisch keine großen Sprünge. Jedenfalls keine, die Nvidia in große Probleme bringen.
Tarkin
2010-08-06, 08:46:16
So wie es aussieht schon.
...
Völlig richtig! Für nvidia ist der Zug bereits abgefahren. Eines wäre noch erwähnenswert... die 100+ Design Wins für AMDs Vision Plattform... die kommen alle erst so richtig im Q3 und Q4. Und "Vision" gibts eben nur mit AMD+ATi. Also was das Zurückgewinnen von Marktanteilen im Notebook-Segment angeht, da siehts für nvidia wirklich sehr düster aus! Der Markt ist mittelfristig IMO so gut wie dahin... mit an Sicherheit grenzender Wahrscheinlichkeit. Optimus hin oder her (hat man ja gesehen was es nVidia gebracht hat die letzten zwei Quartale...)
Mr. Lolman
2010-08-06, 09:13:12
Das wissen sie jetzt bereits. Und ATI auch. Und Microsoft auch. Und....
Nö.
Da wird mir viel zu viel auf Stromverbrauch und bla herumgeritten und kaum darüber diskutiert was AMD da alles weggelassen hat inklusive der für heutige Zeit unwürdigen AF Qualität.
AMD hat ein wenig beim AF gespart, NV dafür bei der SSAA-Performance.
Und das finde ich viel schlimmer.
Bei den ganzen Konsolenports ist SSAA eine sehr wilkommene Maßnahme, um die BQ deutlich zu verbessern. Dann ist das AF auch nicht mehr so wichtig.
Ich wollte mir ja zuerst eine GTX 460 holen, bei der schlechten SSAA-Performance habe ich jedoch nochmal recherchiert und mich für die 5850 entschieden. Die 50 Euro mehr sind wohl gut investiert.
Die GTX 460 ist einfach zu oft an der Spielbarkeitsgrenze und das bei DX9 Titeln.
Bei DX10/11 Titeln kann man die wohl ganz vergessen, wenn es ums SSAA geht.
svenw
2010-08-06, 09:35:56
Die so gelobte energetische Effizienz ist einfach nur ein Resultat von weniger Transistoren der aktuellen Generation. Wenn jemand allerdings weniger Transistoren verbraucht, dann hat er irgendwelche Funktionalitäten einfach nicht implementiert. Das sollte auch mal deutlich erwähnt werden - auch von den Medien.
Öh, und was fehlt den ATI Karten? der GF100 liefert wenn man es wohlwollend betrachtet 15% mehr Leistung bei ca. 50% mehr Die-Fläche und einem wesentlich höheren Stromverbrauch.
Der 104 hat mehr Fläche als der Cypress und liefert weniger Leistung (das ist KEINE Aussage über die Leistung/€ Endkundenpreis beim 104 die ist sehr gut)
Der GF100 ist IMHO ein Fail und der 104er fertigungstechnisch auch nicht das Gelbe vom Ei. Die aktuelle Architektur von NV ist ein Schuß in den Ofen! Technisch sind sie theoretisch weiter als ATI aber sie bekommen die Leistung nicht "auf die Straße".
Der 104 hat mehr Fläche als der Cypress und liefert weniger Leistung
Bisher gibt es noch keinen voll ausgebauten GF104 (384SPs), der eine TDP von 188W hat und den gleichen 0,4ns Speicher wie die 5870 verwendet.
Die aktuelle Architektur von NV ist ein Schuß in den Ofen! Technisch sind sie theoretisch weiter als ATI aber sie bekommen die Leistung nicht "auf die Straße".
Abgesehen von Geometrie- und Tesellationsleistung ist eher umgekehrt.AMD kann die deutlich höhere Rohleistung ihrer GPUs nicht ausspielen, während Nvidia den vollen Durchsatz schafft, der mit der Shaderdomain im Bezug auf den Stromverbrauch teuer erkauft wurde.
Tarkin
2010-08-06, 10:05:27
Realistisch wird es so aussehen:
Ende des Jahres wird Nvidia besser da stehen, Mitte nächsten Jahres ATI. Danach wird man sehen müssen.
Realistisch gesehen ist für nVidia Ende 2011 ziemlich der Ofen aus was Notebooks betrifft...
<spekulation>
Bei ungünstiger Entwicklung könnte es etwa so kommen:
Nächstes Jahr um diese Zeit werden sie bei ca. 500 bis 600 Mio Umsatz liegen (von jetzt 800 bis 900) und massive Verluste einfahren.
der Aktienkurs bricht ein auf ~3 USD und nVidia könnte 2012 ein Übernahmekanditat für AMD werden - ja richtig gelesen, A-M-D ;-) - für ~ 1.5MRD wäre das durchaus denkbar ... und würde strategisch ziemlich viel Sinn machen.
</spekulation>
AMD hat ein wenig beim AF gespart, NV dafür bei der SSAA-Performance.
Oh jetzt vergleichen wir Qualität mit Performance.
Man kann noch so viel Performance haben, wenn die Qualität nicht aktivierbar ist, kann man sich den Arsch damit abwischen.
A
Die GTX 460 ist einfach zu oft an der Spielbarkeitsgrenze und das bei DX9 Titeln.
Bei DX10/11 Titeln kann man die wohl ganz vergessen, wenn es ums SSAA geht.
Achso, statt langsames D3D10/11 SSAA nimmt man lieber gar kein SSAA unter der HD5.
Oder gar kein AA, weil der Titel mal wieder keins bietet und AMD nicht zuständig ist.
grobi
2010-08-06, 10:24:40
Realistisch gesehen ist für nVidia Ende 2011 ziemlich der Ofen aus was Notebooks betrifft...
<spekulation>
Bei ungünstiger Entwicklung könnte es etwa so kommen:
Nächstes Jahr um diese Zeit werden sie bei ca. 500 bis 600 Mio Umsatz liegen (von jetzt 800 bis 900) und massive Verluste einfahren.
der Aktienkurs bricht ein auf ~3 USD und nVidia könnte 2012 ein Übernahmekanditat für AMD werden - ja richtig gelesen, A-M-D ;-) - für ~ 1.5MRD wäre das durchaus denkbar ... und würde strategisch ziemlich viel Sinn machen.
</spekulation>
Wenn da nicht mal die Kartellbehörden alarm schlagen. Aber wer weiss.....
svenw
2010-08-06, 10:41:10
der Aktienkurs bricht ein auf ~3 USD und nVidia könnte 2012 ein Übernahmekanditat für AMD werden - ja richtig gelesen, A-M-D ;-) - für ~ 1.5MRD wäre das durchaus denkbar ... und würde strategisch ziemlich viel Sinn machen.
Das würden die Kartellbehörden nie mitmachen. Und nun die große Frage: welches IT Unternehmer verdient soviel Geld das sie einen Kauf von NV aus der Portokasse bezahlen könnten und hat sich in den letzten Jahren mit konstanter Regelmäßigkeit im Grafikbereich selber ins Knie geschossen? Ein solches Unternehmer wäre ein potentieller Käufer für NV, falls es denn so böse kommt wie von dir vermutet.
Die nächsten Quartale werden jedenfalls für NV bitter werden aber bei 28nm werden die Karten neu gemischt. Ob GF liefern kann was versprochen wird muß man sehen und TSMC hat sich mit dem 40nm Prozeß auch nicht gerade mit Ruhm bekleckert. Also abwarten und beten das es besser läuft, denn der Graka Markt braucht einen funktionierenden Wettbewerb.
Undertaker
2010-08-06, 10:54:08
Die nächsten Quartale sollten für NV eher deutlich besser werden: GF104 verkauft sich blendend, GF106 und GF108 bringen endlich aktuelle DX11 Produkte in die niedrigeren Preisklassen und sind was Perf/Watt und Perf/mm² angeht wohl sehr nahe an den HD5000-Modellen. Man hat den Vorteil der größeren Produktionskapazitäten und die bekannten Soft-Boni (wie PhysX). Durch die Verzögerung von 28nm werden beide Hersteller die nächste Zeit keine großen Sprünge machen können, insgesammt sollte das 2.H. 2010 also deutlich rosiger für NV aussehen, als noch zuletzt. Es ist überhaupt erstaunlich, dass die Marktanteile so lange stabil geblieben sind, wo man doch über Monate praktisch kein Angebot über der GTS250 hatte (GTX200 Karten überteuert und kaum lieferbar).
Die nächsten Quartale sollten für NV eher deutlich besser werden: GF104 verkauft sich blendend, GF106 und GF108 bringen endlich aktuelle DX11 Produkte in die niedrigeren Preisklassen und sind was Perf/Watt und Perf/mm² angeht wohl sehr nahe an den HD5000-Modellen. Man hat den Vorteil der größeren Produktionskapazitäten und die bekannten Soft-Boni (wie PhysX). Durch die Verzögerung von 28nm werden beide Hersteller die nächste Zeit keine großen Sprünge machen können, insgesammt sollte das 2.H. 2010 also deutlich rosiger für NV aussehen, als noch zuletzt. Es ist überhaupt erstaunlich, dass die Marktanteile so lange stabil geblieben sind, wo man doch über Monate praktisch kein Angebot über der GTS250 hatte (GTX200 Karten überteuert und kaum lieferbar).
Da ist halt doch viel Wunschdenken dabei. ;)
Perf/Watt und Perf/mm², gerade für den Notebookmarkt das Kriterium, ist man hoffnungslos abgeschlagen, das wird sich auch mit den kleinen Modellen nicht ändern. Wie auch? GF106 hat um die 250mm² und kann es vielleicht mit einer 5770 aufnehmen. Auch GF108 wird relativ groß, für das absolute Lowend hat man weiter nur DX10.1-Produkte.
Das mit den Produktkapazitäten entspannt sich jedes Quartal mehr, lange wird man davon nicht mehr profitieren können, aber gerade das hat NV verdammt lange den Arsch gerettet, sonst wären die letzte Quartale ein Desaster geworden.
Noch dazu kommt von NV jetzt wohl nichts mehr bis 28nm, AMD hat noch dieses Halbjahr ein komplett neues Lineup in der Pipeline, das spätestens im Q4 einschlagen wird.
N0Thing
2010-08-06, 11:21:05
Aber, welche Zahlen sollen dann in Q3 besser aussehen? Der Umsatz? Der Gewinn? Oder der Marktanteil?
Das weiß ich nicht, ebenso wenig ob die Zahlen besser oder schlechter sein werden. Mich interessiert einfach nur der Einfluß des GT106 auf die Zahlen, wie auch immer sie dann ausfallen werden. ;)
Undertaker
2010-08-06, 11:28:50
Von hoffnungslos abgeschlagen kann man imho beileibe nicht mehr sprechen: Der Mainstreamchip GF108 ist wohl ~130mm², was nur ~25mm² über einem RV830 mit ähnlicher Leistung liegt. Den Energieverbrauch weiß man hier noch nicht genau, da aber GF104 hier recht gut liegt - eine GTX460 etwa im Bereich einer HD5830-HD5850 - sehe ich die kleinen Modelle als durchaus konkurrenzfähig.
Die HD6000 Reihe im Herbst wird wohl in erster Linie Fläche und Leistung opfern müssen, um die Geometrie- und Tesselationleistung aufzubohren. Da man hier doch noch Spielraum bzgl. Diesize und Verbrauch hat sehe ich durchaus eine Leistungssteigerung, aber nicht unbedingt sprünge bzgl. Perf/Watt und Perf/mm². Das aber nur Spekulation, muss man abwarten. ;) Auch wann die Modelle überhaupt verfügbar werden, hat nicht kürzlich erst ein Boardpartner von Anfang 2011 gesprochen? Und im Notebook dauert es ja tendenziell noch ein paar Moante länger.
Oh jetzt vergleichen wir Qualität mit Performance.
Wenn du einfache kausale Zusammenhänge nicht verstehen kannst, dann kann ich dir auch nicht helfen.
Aber extra für dich.
Du brauchst erstmal brauchbare SSAA-Performance, um dadurch eine bessere Qualität zu erreichen, sonst darfst du weiter mit MSAA spielen und hast schlechtere Qualität als mit SSAA.
Jetzt einleuchtend?
Achso, statt langsames D3D10/11 SSAA nimmt man lieber gar kein SSAA unter der HD5.
Natürlich. Was bringt mir SSAA bei der GTX 460 in DX10/11 Titeln, wenn die Karte schon bei DX9 Titeln knapp an der Spielbarkeitsgrenze liegt?
Richtig, garnichts.
Ist nur ein Checklistenfeature, zumindest bei der GTX 460.
Bei einer GTX480 sieht die Sache schon ein wenig anders aus, obwohl eine 5870 unter SSAA auch leicht schneller ist, und das obwohl der Stromverbrauch noch im Rahmen bleibt. Anders als bei der GTX 480... :rolleyes:
Oder gar kein AA, weil der Titel mal wieder keins bietet und AMD nicht zuständig ist.
Weiss jetzt nicht, was du meinst.
Fürs AA sind die Spieleprogger zuständig und nicht die IHVs!
Wenn ein Titel kein AA anbietet, dann springen AMD und NV in die Bresche, siehe SC2.
Das sollte aber nicht so sein, weil man sonst die DX-Specs verletzt/verletzen könnte.
Den Energieverbrauch weiß man hier noch nicht genau, da aber GF104 hier recht gut liegt - eine GTX460 etwa im Bereich einer HD5830-HD5850
Eine GTX 460 liegt bei der Verlustleistung eher bei einer 5870, und die 5870 ist schon deutlich schneller.
So gut liegt die GTX 460 beim Stromverbrauch auch nicht.
Ist aber akzeptabel. Kein gravierender Minuspunkt, wie dies beim GF100 der Fall ist.
Du brauchst erstmal brauchbare SSAA-Performance, um dadurch eine bessere Qualität zu erreichen, sonst darfst du weiter mit MSAA spielen und hast schlechtere Qualität als mit SSAA.
Jetzt einleuchtend?Also ich spiele seit Jahren mit SSAA.
Meines Wissens ist es keine Geforce 400 oder HD5 die dies all die Jahre ermöglicht haben.
Da sind eher so Namen wie Geforce 8, 200 oder auch alte Teile wie Geforce FX, oder die Voodoos die dies ermöglicht haben.
Ist nur ein Checklistenfeature, zumindest bei der GTX 460.
Nein, es ist ein optionales Feature.
Etwas was man bei AMD ja nicht kennt, ob 80, 160, 320 TMUs, AMD lässt dem Nutzer nicht die Wahl ob er HQ AF möchte.
Ebenso bei AAA...
Weiss jetzt nicht, was du meinst.
Fürs AA sind die Spieleprogger zuständig und nicht die IHVs!
Wenn ein Titel kein AA anbietet, dann springen AMD und NV in die Bresche, siehe SC2.
Das sollte aber nicht so sein, weil man sonst die DX-Specs verletzt/verletzen könnte.
Entscheidend ist was hinten geboten wird, nicht was sein sollte und uns alle freuen würde.
Nvidia bietet nunmal öfter und schneller AA Support. Siehe SC2, siehe Gothic3, Bioshock, Batman.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.