Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI auf dem Vormarsch
Undertaker
2010-08-06, 12:05:22
Den Vergleich würde ich so gar nicht mal ziehen... Aber von vorn:
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_460_768mb_1024_mb/index18.php
Ich beziehe mich hier auf HT4U und deren Messung zum Verbrauch in einem realen Spiel (alles andere macht wenig Sinn). Eine HD5830 liegt bei min. ~105W, eine HD5850 bei min. ~110W. Die GTX460 bei min. ~120W, die HD5870 bei min. ~150W. Da erlaube ich mir einfach mal zu sagen, dass man GF104 knapp auf dem Niveau von HD5830/5850 sehen kann. Die HD5870 liegt deutlich darüber und ist zudem nicht teildeaktiviert, was bzgl. Effizienz kein fairer Vergleich wäre. Ich gehe davon aus, dass der volle GF104 ebenfalls bei ~150W landen wird, bei leicht geringerer Leistung als die HD5870.
Aber hast schon Recht: Bei GF100 war es wirklich bedeutsam - GF104 (und kleiner) machen ihre Sache deutlich besser.
Also ich spiele seit Jahren mit SSAA.
Meines Wissens ist es keine Geforce 400 oder HD5 die dies all die Jahre ermöglicht haben.
Da sind eher so Namen wie Geforce 8, 200 oder auch alte Teile wie Geforce FX, oder die Voodoos die dies ermöglicht haben.
Und?
Was hat das damit zu tun, dass eine GTX 460 einfach zu langsam fürs SSAA in DX10/11 Titeln ist? :|
Nein, es ist ein optionales Feature.
Etwas was man bei AMD ja nicht kennt, ...
:confused:
SSAA ist doch optional... du kannst auch MSAA nehmen...
also bietet AMD doch etwas optional an.
Entscheidend ist was hinten geboten wird, nicht was sein sollte und uns alle freuen würde.
Nein.
Es gibt bestimmte Gesetze und Richtlinien an die man sich halten sollte (oder auch muss), wie im anderen Bereichen des Lebens auch.
Wenn es bestimmte Spezifikationen gibt, dann sollte man diese nicht brechen. Es sei denn es geht um Leben und Tod, dann kann man auch eine Ausnahme machen.
Oder ist es für dich ok, wenn du bei rot über die Ampel fährst, weil du dann schneller zum Ziel kommst?
Nvidia bietet nunmal öfter und schneller AA Support. Siehe SC2, siehe Gothic3, Bioshock, Batman.
Ich habe bei Gothic3 und bei Bioshock mit ATI und Nvidia AA, die beiden anderen Games habe ich nicht.
Weiß nicht worauf du hinaus willst...
N0Thing
2010-08-06, 12:37:16
Nein.
Es gibt bestimmte Gesetze und Richtlinien an die man sich halten sollte (oder auch muss), wie im anderen Bereichen des Lebens auch.
Wenn es bestimmte Spezifikationen gibt, dann sollte man diese nicht brechen. Es sei denn es geht um Leben und Tod, dann kann man auch eine Ausnahme machen.
Oder ist es für dich ok, wenn du bei rot über die Ampel fährst, weil du dann schneller zum Ziel kommst?
Solange keine Todesfälle durch per Treiber forciertem AA bekannt geworden sind, sollte man sich solche abwegigen Vergleiche lieber sparen. :down:
Den Vergleich würde ich so gar nicht mal ziehen... Aber von vorn:
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_460_768mb_1024_mb/index18.php
Ich beziehe mich hier auf HT4U und deren Messung zum Verbrauch in einem realen Spiel (alles andere macht wenig Sinn). Eine HD5830 liegt bei min. ~105W, eine HD5850 bei min. ~110W. Die GTX460 bei min. ~120W, die HD5870 bei min. ~150W. Da erlaube ich mir einfach mal zu sagen, dass man GF104 knapp auf dem Niveau von HD5830/5850 sehen kann. Die HD5870 liegt deutlich darüber und ist zudem nicht teildeaktiviert, was bzgl. Effizienz kein fairer Vergleich wäre. Ich gehe davon aus, dass der volle GF104 ebenfalls bei ~150W landen wird, bei leicht geringerer Leistung als die HD5870.
Aber hast schon Recht: Bei GF100 war es wirklich bedeutsam - GF104 (und kleiner) machen ihre Sache deutlich besser.
Es hängt natürlich schon sehr von der Seite ab wie das Ergebnis dann im Detail aussieht. Was bleibt ist trotzdem das eine GTX460 mehr verbraucht als eine 5850 aber weniger Leistung bringt. Bei gleicher Leistung sind da durchaus noch 25% Perf/Watt Vorteil für AMD zu verbuchen, was nicht gerade wenig ist. Die 5830 ist auch bekannten Gründen ineffizient und deshalb für einen solchen Vergleich völlig unpassend.
Den Vergleich würde ich so gar nicht mal ziehen... Aber von vorn:
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_460_768mb_1024_mb/index18.php
Ich beziehe mich hier auf HT4U und deren Messung zum Verbrauch in einem realen Spiel (alles andere macht wenig Sinn). Eine HD5830 liegt bei min. ~105W, eine HD5850 bei min. ~110W. Die GTX460 bei min. ~120W, die HD5870 bei min. ~150W. Da erlaube ich mir einfach mal zu sagen, dass man GF104 knapp auf dem Niveau von HD5830/5850 sehen kann. Die HD5870 liegt deutlich darüber und ist zudem nicht teildeaktiviert, was bzgl. Effizienz kein fairer Vergleich wäre. Ich gehe davon aus, dass der volle GF104 ebenfalls bei ~150W landen wird, bei leicht geringerer Leistung als die HD5870.
Aber hast schon Recht: Bei GF100 war es wirklich bedeutsam - GF104 (und kleiner) machen ihre Sache deutlich besser.
Wenn man sich dazu noch das Performance-Rating ansieht erkennt man schön das die Perf/Watt der GTX460 ziemlich genau auf 5830-Niveau liegt. Und die Karten wurde bekanntlich für ihre Ineffizienz abgestraft.
svenw
2010-08-06, 13:04:02
Von hoffnungslos abgeschlagen kann man imho beileibe nicht mehr sprechen: Der Mainstreamchip GF108 ist wohl ~130mm², was nur ~25mm² über einem RV830 mit ähnlicher Leistung liegt.
25% mehr Die-Size bedeutet auch wesentlich höhere Produktionskosten. Performance-mäßig sind die 460er sehr gut, nur habe ich so meine Bedenken darüber was hinten bei NV von den Karten abfällt da sie einen Chips mit etwas mehr als Cypress Die-Größe für die Hälfte des Preises (Endkundenpreis) verkaufen.
ATI wird sicher nicht nur an der Tesselation-Schraube drehen, wenn es die neue Generation gibt, denn dafür ist Tesselation zu unwichtig. Momentan ist Tesselation einfach nur "nice-to-have". Somit erwarte ich ca. 10-15% mehr Leistung was der Tod für die 480 wäre. Cuda und PhysX sind IMHO auch keine Argumente während das bessere AF schon eins ist nur sehen IMHO 90% der Spieler kaum einen Unterschied.
Momentan hat ATI eigentlich nichts was gegen die 460 anstinken kann, aber das kann sich mit der neuen Generation ändern.
Solange keine Todesfälle durch per Treiber forciertem AA bekannt geworden sind, sollte man sich solche abwegigen Vergleiche lieber sparen. :down:
Gut, ich habe den Vergleich ein wenig drastisch gewählt, aber anders verstehen es einige einfach nicht, was Sache ist.
Hier jetzt NV und AMD zu loben, weil sie einen (nicht DX-konformen) Hack in ihren Treiber eingebaut haben, finde ich doch ein wenig vermessen.
Wenn man sich über fehlendes AA beschweren will, dann bitte auch an die Personen, die dafür zuständig sind -> Spieleentwickler.
Nicht bei den IHVs!
Undertaker
2010-08-06, 13:16:26
25% mehr Die-Size bedeutet auch wesentlich höhere Produktionskosten. Performance-mäßig sind die 460er sehr gut, nur habe ich so meine Bedenken darüber was hinten bei NV von den Karten abfällt da sie einen Chips mit etwas mehr als Cypress Die-Größe für die Hälfte des Preises (Endkundenpreis) verkaufen.
Ich sehe immer, dass selbst eine GTX260 für 150€ verkauft werden konnte - mit 500-600mm² Diesize (55/65nm). Da sehe ich die aktuellen Chipgrößen von GF104/6/8 eigentlich sehr gelassen. 30mm²+- laufen am Ende vielleicht auf gut 5€ mehr oder weniger Kosten für den Die hinaus - bei Kartenpreisen jenseits 100€ nicht viel. Zumal man an anderer Stelle durch einfachere PCBs oder billigere Speicherchips womöglich auch wieder Einsparungen hat.
Ich sehe immer, dass selbst eine GTX260 für 150€ verkauft werden konnte - mit 500-600mm² Diesize (55/65nm). Da sehe ich die aktuellen Chipgrößen von GF104/6/8 eigentlich sehr gelassen. 30mm²+- laufen am Ende vielleicht auf gut 5€ mehr oder weniger Kosten für den Die hinaus - bei Kartenpreisen jenseits 100€ nicht viel. Zumal man an anderer Stelle durch einfachere PCBs oder billigere Speicherchips womöglich auch wieder Einsparungen hat.
5€ nicht viel? Bring das mal einem Controller oder noch besser dem Vorstand bei. Zumindest für heute bist du mein Held.
Bucklew
2010-08-06, 13:56:20
WoW...das nenne ich selektive Wahrnehmung.
Hat dir eigentlich noch niemand gesagt, das AMD schon seit 7 Monaten DX11 Mainstream- und Lowend Notebook GPUs verkauft während Nvidia nur die alten GT2xx @ 40nm als GT3xx nochmal neu vermarktet hat. :freak:
Zwischen Vorstellung und wirklichen Verkauf lagen einige Monate, deshalb hatte Nvidia im 1. Quartal auch sehr gute Zahlen, da wurden nämlich die "alten" 40nm-Chips verkauft, während von ATI nur die "neuen" 55nm 4000er Serie lieferbar waren.
Außerdem, die neuen GPUs von AMD (2. Generation mit DX11) kommt schon Mitte Oktober.
Nur im Highend.
Nö.
Selbstverständlich aktiviert ATI (wie auch Nvidia) je nach startendem Spiel verschiedene Profile. Sie wissen genauso wenig (oder viel) wie Nvidia durch Optimus.
Realistisch gesehen ist für nVidia Ende 2011 ziemlich der Ofen aus was Notebooks betrifft...
Nö. Es gibt einen immer noch großen Markt für dezidierte Grafikchips auch im Notebook. Mit Optimus erweitert man diesen Bereich auch weiter nach unten, was die Leistungsklasse angeht, in denen man solche Chips verbaut.
Nächstes Jahr um diese Zeit werden sie bei ca. 500 bis 600 Mio Umsatz liegen (von jetzt 800 bis 900) und massive Verluste einfahren.
der Aktienkurs bricht ein auf ~3 USD und nVidia könnte 2012 ein Übernahmekanditat für AMD werden - ja richtig gelesen, A-M-D ;-) - für ~ 1.5MRD wäre das durchaus denkbar ... und würde strategisch ziemlich viel Sinn machen.
Die feuchten Träume eines Fanatiker ;D
Undertaker
2010-08-06, 14:19:20
5€ nicht viel? Bring das mal einem Controller oder noch besser dem Vorstand bei. Zumindest für heute bist du mein Held.
War mir klar das so ein Kommentar kommt. Nocheinmal: Vergleiche mit der GTX260, die mit 500-600mm²* für 150€ verkauft wurde. ATI hatte damals zu ähnlichen Preisen einen RV770 mit 240mm²*. Aktuell sind wir, die auslaufenden GTX465/470 außen vor, bei ~160€ (GTX460-768) für 360mm²*. ATI verkauft in der gleichen Preisklasse die HD5830 mit 330mm²*.
Unterschied damals: ~300mm²
Unterschied aktuell: ~30mm²
Und ja, da rede ich auch weiterhin von vernachlässigbar. :)
*Alle Die-Größen nur ungefähre Erinnerungswerte, die Größenordnung sollte passen.
Nur im Highend.
Da AMD nur im High-End leicht Nachholbedarf hat, machen sie es halt zuerst dort. Im Low-End und Midrange ist AMD gut aufgestellt.
Nö. Es gibt einen immer noch großen Markt für dezidierte Grafikchips auch im Notebook.
Wenn Fusion kommt, dann nicht mehr.
Diegröße ist nicht der einzige Punkt.
GTX 260 vs 4870 512:
GTX 260:
+ Billige 65nm Wafer
+ minderwertige GT200
4870:
+ einfacheres PCB
+ weniger VRAM
+ kleinerer Die
Geht natürlich noch weit komplexer.
Bei den 40nm Produkten kann man die höhere Kapazitäts auf Nvidias Seite einrechnen.
Die 5830 ist wiederrum ein Produkt mit Ausschuss Cypress, so wie die GTX 460 nicht die besten GF104 hat.
Die GTX 460 hat das billigere PCB.
Und schwups hat man mal wieder den Preis vergessen, wie so oft. 5830 wird billiger verkauft, so wie seinerzeit die 4870.
Bucklew
2010-08-06, 14:41:47
Da AMD nur im High-End leicht Nachholbedarf hat, machen sie es halt zuerst dort. Im Low-End und Midrange ist AMD gut aufgestellt.
Wenn Nvidia GF106/108 im Mobilsektor bringt nicht mehr. Nicht, weil die ATI Chips langsam wären, sondern einfach weil sie alt sind. War zum Jahreswechselt ja auch nichts anderes. Dazu kommt vorallem Optimus, dagegen hat ATI zur Zeit nichts.
Wenn Fusion kommt, dann nicht mehr.
Fusion ist keine Konkurrenz für dezidierte Grafikchips sondern nur für Chipsatzgrafik, speziell die von Intel.
Undertaker
2010-08-06, 14:42:03
Wenn Fusion kommt, dann nicht mehr.
~80% aller Notebooks haben eine Intel-CPU - selbst wenn die IGP von Sandy Bridge doppelt so stark wird wie die GMA HD in einem Arrandale, entspricht das bestenfalls einer aktuellen Einstiegslösung wie der G310M.
Fusion ist keine Konkurrenz für dezidierte Grafikchips sondern nur für Chipsatzgrafik, speziell die von Intel.
So siehst aus. Fusion ändert an dedizidierten Grafikchips gar nichts. Die Leistung eines solchen Produkts ist einfach zu schlecht. Und in dem Notebook Bereich wo es auf wenig Verbrauch ankommt, spielt AMD sowieso keine Rolle, hat es auch nie und wird es auch so schnell nicht, weil deren CPUs einfach zu schlecht sind. Da ist Intel absoluter Hausherr.
Fusion ist keine Konkurrenz für dezidierte Grafikchips sondern nur für Chipsatzgrafik, speziell die von Intel.
Natürlich ist es das, vor allem längerfristig.
Nakai
2010-08-06, 14:53:59
Im unteren Segment ist Leistung weniger wichtig. Featureset und Verbrauch ist entscheidend. Wenn die Leistung fürs allgemeine Benutzen reicht, dann wird AMD im unteren Segment sehr dominierend sein.
NV wird so schnell nicht verschwinden. Derzeit sieht es ja richtig mies aus.
NV muss versuchen in drei Kerngebieten weiterhin zu existieren.
Handheld(Tablets und Smartphones), Professionell und Diskret.
Tegra ist leider nicht so der Bringer gewesen. Lag hauptsächlich an der schlechten Grafikeinheit(welche ich persönlich weniger schlecht finde) und dem hohen Platzverbrauch.
NV sollte einen billigeren SOC entwickeln, mit modernerer Grafikeinheit und geringerer Größe.
Im Diskreten Bereich muss man einfach so weitermachen wie gehabt, nur ohne die ganzen Verzögerungen.
Im Professionellen Bereich sieht es verdammt gut aus.
Im Chipsatzbereich sollte man sich eher zurückziehen, da wird alles von Intel und AMD dominiert.
Hakkerstiwwel
2010-08-06, 14:56:11
Gut, ich habe den Vergleich ein wenig drastisch gewählt, aber anders verstehen es einige einfach nicht, was Sache ist.
Hier jetzt NV und AMD zu loben, weil sie einen (nicht DX-konformen) Hack in ihren Treiber eingebaut haben, finde ich doch ein wenig vermessen.
Wenn man sich über fehlendes AA beschweren will, dann bitte auch an die Personen, die dafür zuständig sind -> Spieleentwickler.
Nicht bei den IHVs!
Eigentlich sollten solche Hacks ja lobenswert sein, da sie dem User einen Mehrwert bringen. Das Problem ist nur dass beide sowohl AMD als auch nV zusammen mit MS die DX Specs absegnen. Das Anwenden von FSAA Hacks in DX10/11 kann man deshalb eigentlich schon als böswillig ansehen...
Bucklew
2010-08-06, 14:56:53
Natürlich ist es das, vor allem längerfristig.
Quatsch. Wie willst du eine Grafikeinheit in eine CPU integrieren, die mit Midrangegrafik (50-100W TDP) mithalten kann? Mehr als Lowend wird Fusion niemals sein.
Quatsch. Wie willst du eine Grafikeinheit in eine CPU integrieren, die mit Midrangegrafik (50-100W TDP) mithalten kann? Mehr als Lowend wird Fusion niemals sein.
Im Notebook ist ne tdp von 50-100 Watt enthusiast HW(SLI MHD5870...). Mit 480 cores wäre fusion im Notebook markt im moment im oberen performance(>MHD5770) sektor.
Im Notebook ist ne tdp von 50-100 Watt enthusiast HW(SLI MHD5870...). Mit 480 cores wäre fusion im Notebook markt im moment im oberen performance(>MHD5770) sektor.
Mit 128-Bit DDR3 für CPU und GPU wird man wohl kaum über eine Mobility HD 5500 hinauskommen. Und bis 2011 ist das wirklich nur noch Mainstream, auf der Seite der dedizierten GPUs wird man da wohl schon fast bei 28nm sein.
Iruwen
2010-08-06, 15:56:43
Eigentlich sollten solche Hacks ja lobenswert sein, da sie dem User einen Mehrwert bringen. Das Problem ist nur dass beide sowohl AMD als auch nV zusammen mit MS die DX Specs absegnen. Das Anwenden von FSAA Hacks in DX10/11 kann man deshalb eigentlich schon als böswillig ansehen...
Wäre jemand anders davon negativ betroffen ja, also wenn NV auf eigene Faust die Spec erweitern und Entwickler das implementieren würden so dass es woanders Probleme gibt. So wohl kaum. Außerdem baut NV die Option bestimmt nicht grundlos nicht direkt in den Treiber ein.
Tarkin
2010-08-06, 19:18:07
War mir klar das so ein Kommentar kommt. Nocheinmal: Vergleiche mit der GTX260, die mit 500-600mm²* für 150€ verkauft wurde. ATI hatte damals zu ähnlichen Preisen einen RV770 mit 240mm²*. Aktuell sind wir, die auslaufenden GTX465/470 außen vor, bei ~160€ (GTX460-768) für 360mm²*. ATI verkauft in der gleichen Preisklasse die HD5830 mit 330mm²*.
Unterschied damals: ~300mm²
Unterschied aktuell: ~30mm²
Und ja, da rede ich auch weiterhin von vernachlässigbar. :)
*Alle Die-Größen nur ungefähre Erinnerungswerte, die Größenordnung sollte passen.
Das ist doch bitte Blödsinn, sorry!
1. wurde die 260er GTX nie für 150 Euro vertickt (und schon gar nicht der 65nm Chip)
2. war damals (Mitte 2008) der Euro Kurs noch um ein Stück höher als jetzt
3. hat ein rv770 ca. 256mm^2, keine 240 (ja eine Kleinigkeit... trotzdem!)
4. wie es den G200 günstig gab, verkaufte AMD den rv770 auch schon für unter €100 (nämlich in Form der 4850er)
Außerdem sprechen die aktuellen Zahlen und die Gewinnwarnung wohl eine mehr als deutliche Sprache was die momentane Situation von nVidia angeht, oder nicht?. Da gehts z.B. nicht so sehr um dedizierte Desktop-Karten, sondern um das Notebook und Chipsatz Geschäft, welches ihnen zu schaffen macht! Damals (vor 1, 2 Jahren) sah die Sache in diesen Bereichen noch völlig anders aus. Zu der Zeit hatte nVidia 60% Market Share und AMD nur 30%. Und oben drein verkaufte man pro Notebook öfter sogar 2 Chips - Chipsatz UND GPU! Da konnte man es sich leisten einen großen Chip etwas günstiger zu verkaufen - auch angesichts der garantiert höheren Stückzahlen! Damals gabs nämlich keine Kapazitätsengpässe bei TSMC.
Also dein Vergleich hinkt von vorne bis hinten! So einfach wie du dir das ausmalst ist es bei weitem nicht! Das ist fast so naiv wie ein Posting das ich heute im Computerbase Forum gesehen habe von jemand der rät jetzt nvidia Aktien zu kaufen - da kann ich nur sagen O-M-F-G ...
Es ist alles völlig klar wenn man sich etwas damit beschäftigt, die (Quartals) Berichte und News verfolgt und man sich die Analysen von Jon Peddie und Mercury Research anschaut! (in Kombination mit gesundem Menschenverstand). Man muss schon ziemlich grünäugig sein wenn man wirklich glaubt die Situation würde sich innerhalb nur ein paar Monaten wieder bessern. Es ist übel und es wird mit Sandy Bridge und Fusion garantiert nicht besser.
Diese DIE Diskussion und der Vergleich damals/heute ist absolut idiotisch.
Quatsch. Wie willst du eine Grafikeinheit in eine CPU integrieren, die mit Midrangegrafik (50-100W TDP) mithalten kann? Mehr als Lowend wird Fusion niemals sein.
50-100W TDP in einem Notebook? Man bist du LOL. 99% der Notebooks haben einen Grafikchip mit <25W TDP.
War mir klar das so ein Kommentar kommt. Nocheinmal: Vergleiche mit der GTX260, die mit 500-600mm²* für 150€ verkauft wurde. ATI hatte damals zu ähnlichen Preisen einen RV770 mit 240mm²*. Aktuell sind wir, die auslaufenden GTX465/470 außen vor, bei ~160€ (GTX460-768) für 360mm²*. ATI verkauft in der gleichen Preisklasse die HD5830 mit 330mm²*.
Unterschied damals: ~300mm²
Unterschied aktuell: ~30mm²
Und ja, da rede ich auch weiterhin von vernachlässigbar. :)
*Alle Die-Größen nur ungefähre Erinnerungswerte, die Größenordnung sollte passen.
Ja, alles was schlecht für NV ist ist vernachlässigbar, das kennen wir ja schon von dir. Das ist jede Menge und ohne ihrer CashCow hätte NV ein verdammtes Problem mit diesen Dies. Das Desktopsegment schrieb zur damaligen Zeit nämlich Verluste. Das Die ist nunmal der Kostenfaktor bei einer Grafikkarte.
1. wurde die 260er GTX nie für 150 Euro vertickt (und schon gar nicht der 65nm Chip)
http://geizhals.at/deutschland/?phist=410632&age=365
119€ und bei der Synergie kam ein vereinfachtes PCB mit 192SPs 65nm GT200 zum Einsatz. Und auch die 55nm 216SPs Karten gab es 2009 lange um die 130€.
Bucklew
2010-08-06, 20:44:43
Im Notebook ist ne tdp von 50-100 Watt enthusiast HW(SLI MHD5870...). Mit 480 cores wäre fusion im Notebook markt im moment im oberen performance(>MHD5770) sektor.
Das will ich sehen, vorallem mit geshartem Speicherinterface ;D
Das will ich sehen, vorallem mit geshartem Speicherinterface ;D
Und wer sagt das es keinen Sideport gibt wie schon bei den Chipsätzen du Schlaumeier?
Bucklew
2010-08-06, 20:54:50
Und wer sagt das es keinen Sideport gibt wie schon bei den Chipsätzen du Schlaumeier?
Der auch so extrem oft genutzt wurde ;)
Der auch so extrem oft genutzt wurde ;)
Wen man keine Ahnung hat .... hat jedes 790GX/890GX-Mainboard.
Bucklew
2010-08-06, 21:32:30
Wen man keine Ahnung hat .... hat jedes 790GX/890GX-Mainboard.
Wo denn? (http://ht4u.net/reviews/2009/amd_790gx_mainboards_kurztest/index5.php)
Diese 4 lustigen Sockel sind nebenbei Arbeitsspeicher und nicht Sideport ;)
Wo denn? (http://ht4u.net/reviews/2009/amd_790gx_mainboards_kurztest/index5.php)
Diese 4 lustigen Sockel sind nebenbei Arbeitsspeicher und nicht Sideport ;)
Wenn du zu blöd bist dir die Specs anzusehen kann ich auch nichts dafür:
http://www.gigabyte.com/products/product-page.aspx?pID=2887#sp
Bucklew
2010-08-06, 21:38:09
Wenn du zu blöd bist dir die Specs anzusehen kann ich auch nichts dafür:
http://www.gigabyte.com/products/product-page.aspx?pID=2887#sp
Ah, ein MA790DP ist jetzt also gleich einem MA790GP.
Stellt sich die Frage wer hier zu blöd für was ist, offensichtlich du fürs LEsen ;D
Ah, ein MA790DP ist jetzt also gleich einem MA790GP.
Stellt sich die Frage wer hier zu blöd für was ist, offensichtlich du fürs LEsen ;D
Ja, da es ein DP überhaupt nicht gibt. Ist ein Tippfehler von HTU4, sieht man auch schön daran das sie es überall anders richtig bezeichnen. Aber dazu ist wohl ein IQ über deinem erforderlich. ;D
Sipeport-Memory ist Voraussetzung von AMD für 790GX/890GC und deshalb wirst du das auch überall finden.
Bucklew
2010-08-06, 21:58:06
Ja, da es ein DP überhaupt nicht gibt. Ist ein Tippfehler von HTU4, sieht man auch schön daran das sie es überall anders richtig bezeichnen. Aber dazu ist wohl ein IQ über deinem erforderlich. ;D
Überall? Steht so in der Überschrift, im Fazit, eigentlich überall, außer an der einen Stelle im Text. Ist also wohl eher im Text der Tippfehler.
Und Sideport war auch beim 790GX nur "erwartet".
Überall? Steht so in der Überschrift, im Fazit, eigentlich überall, außer an der einen Stelle im Text. Ist also wohl eher im Text der Tippfehler.
Und Sideport war auch beim 790GX nur "erwartet".
Nein, selbst bei den Eckdaten steht korrekt GP. Dazu kommen wohl noch ein paar C&P-Fehler. Jedenfalls gibt es kein DP, weder bei Geizhals, bei irgend einem Shop noch auf der Gigabyte-Homepage. Damit sollte die Sache klar sein.
Und nein, Sideport-Memory ist Pflicht, ich habe da mal selbst bei AMD nachgefragt. Also behaupte nicht einfach irgend einem Bullshit nur weil er dir in den Kram passt.
Was wiederum bedeutet, dass fusion im notebook bereich schon ab release wenigstens im unteren performance bereich anzusiedeln ist, wenn es (extremst wahrscheinlich, da bei chipsätzen schon pflicht) sideport ram support gibt.
1. wurde die 260er GTX nie für 150 Euro vertickt (und schon gar nicht der 65nm Chip)
2. war damals (Mitte 2008) der Euro Kurs noch um ein Stück höher als jetzt
3. hat ein rv770 ca. 256mm^2, keine 240 (ja eine Kleinigkeit... trotzdem!)
4. wie es den G200 günstig gab, verkaufte AMD den rv770 auch schon für unter €100 (nämlich in Form der 4850er)
Jetzt wirds albern.
4. Du vergleichst tatsächlich Äpfel mit Birnen und behauptest Äpfel wären besser.
Glückwunsch.
Falls es dir entgangen ist, 4850 und GTX 260 waren nicht die Konkurrenten.
4870 512, die billige 4870 war Anfangs AMDs Topmodell. Später gabs den faireren 1024 Gegner zur GTX 260 216.
4870 hatte den teuersten RV770, GTX 260 den billigsten GT200. Huch und schon sind die reinen Diegrößen wertlos.
Wenn man jetzt noch Waferpreise, oder PCB Kosten oder Verkaufspreise hineinnimmt ist die Rechnung, die eh schon falsch ist, noch grottiger.
Undertaker
2010-08-06, 22:44:27
Das ist doch bitte Blödsinn, sorry!
1. wurde die 260er GTX nie für 150 Euro vertickt (und schon gar nicht der 65nm Chip)
2. war damals (Mitte 2008) der Euro Kurs noch um ein Stück höher als jetzt
Stimmt, waren sogar 124€ für den 600mm² 65nm Die:
http://geizhals.at/deutschland/?phist=410632&age=2000
Da darfst du auch gerne noch den €-Kurs einberechnen, oder den noch günstiger abgegebenen RV770 in der HD4850: Die Diesize/Preisklasse Situation hat sich im Laufe der letzten 12 Monate bei Nvidia drastisch gebessert.
Wen man keine Ahnung hat .... hat jedes 790GX/890GX-Mainboard.
Das ist ein 16Bit Speicherchip mit einer Bandbreite um die 2-3GB/s. Das beseitigt den Speichernachteil einer jeden IGP keineswegs.
Bucklew
2010-08-06, 23:00:41
Und nein, Sideport-Memory ist Pflicht, ich habe da mal selbst bei AMD nachgefragt. Also behaupte nicht einfach irgend einem Bullshit nur weil er dir in den Kram passt.
Na, dann sag das noch Toms Hardware:
Alle 790GX-Motherboards verfügen über integrierte Radeon HD 3300-Grafik – eine Wahl hat der Kunde hier nicht. [...] Sofern die Side Port Memory-Option bei Ihrem Motherboard-Hersteller implementiert wurde verfügt das Board über zusätzlichen DDR2- oder DDR3-Speicher. Desweiteren kann die Grafikeinheit zum Speichern von Grafikdaten auf bis zu 512 MB Ihres DDR2-Hauptspeichers zugreifen.
Offensichtlich erzählt da einer Märchen oder AMD hat Quatsch erzählt.
edit: Ach ja, ZDNet sagt das Gleiche zum 890GX:
Zudem kann der 890GX wie sein Vorgänger 785G optional mit RAM-Bausteinen ausgestattet werden, die als Cache- und Grafikspeicher dienen (Sideport Memory).
http://www.zdnet.de/news/cebit_amd_stellt_chipsatz_890gx_mit_sata_3_unterstuetzung_vor_story-39002478-41528309-1.htm
Vorraussetzung bei 790/890GX? Nö.
Tarkin
2010-08-06, 23:10:41
Jetzt wirds albern.
4. Du vergleichst tatsächlich Äpfel mit Birnen und behauptest Äpfel wären besser.
Glückwunsch.
Falls es dir entgangen ist, 4850 und GTX 260 waren nicht die Konkurrenten.
4870 512, die billige 4870 war Anfangs AMDs Topmodell. Später gabs den faireren 1024 Gegner zur GTX 260 216.
4870 hatte den teuersten RV770, GTX 260 den billigsten GT200. Huch und schon sind die reinen Diegrößen wertlos.
Wenn man jetzt noch Waferpreise, oder PCB Kosten oder Verkaufspreise hineinnimmt ist die Rechnung, die eh schon falsch ist, noch grottiger.
Anscheinend habe ich mich nicht klar genug ausgedrückt... ich wollte nur zeigen, dass das von mir zitierte Posting schon diverse Unstimmigkeiten enthält welche eben dazu führen, dass Äpfel mit Birnen verglichen werden. Genau darum gehts ja. Solche Vergleiche sind völlig idiotisch weil andauernd igendwelche Vermutungen als Fakt dargestellt werden wo doch keiner hier die Fakten wirklich kennt.
Das einzige was wir wissen ist, dass - trotz des geringeren DIE-Flächen-Unterschiedes bei dieser Generation - sich die wirtschaftliche Lage von nVidia von Quartal zu Quartal verschlechtert... liegt natürlich auch daran, dass man zu spät dran war. Wohingegen bei ATi/AMD die Nachfrage das Angebot übersteigt. ... komisch, nicht? Und das obwohl Fermi und Cypress "näher" beieinander liegen, konnte ATi weiter Marktanteile gewinnen und wirtschaftet positiv(er) als noch vor zwei Jahren.
Und eine Komponente wird bei dieser Die-Flächen Diskussion auch immer vergessen. Die Ausbeute ... Und da denke ich kann man schon was dazu sagen: Bei nVidia läufts wohl nicht so rund, sonst würde man keine teildeaktivierten GF104 (relativ günstig) verkaufen.
Immerhin vertickt AMD Cypress im Schnitt zwischen 300 und 400 USD wohingegen nVidia seinen 360mm^2 Chip zwischen 200 und 230 verkauft. Das ist ein Umstand der für nVidia nicht sonderlich prima sein kann. Und wann dann auch noch schlechtere Yields als bei Cypress dazukommen ... und AMD mit neuen Chips und/oder einer Preissenkung daherkommt... tja, darum:
"ATi/AMD auf dem Vormarsch"
Das ist ein 16Bit Speicherchip mit einer Bandbreite um die 2-3GB/s. Das beseitigt den Speichernachteil einer jeden IGP keineswegs.
32bit. Mach bei Fusion 64 bit draus, dazu noch GDDR5 und schon hat man durchaus eine brauchbare Bandbreite in dem Leistungsbereich.
Na, dann sag das noch Toms Hardware:
Offensichtlich erzählt da einer Märchen oder AMD hat Quatsch erzählt.
edit: Ach ja, ZDNet sagt das Gleiche zum 890GX:
http://www.zdnet.de/news/cebit_amd_stellt_chipsatz_890gx_mit_sata_3_unterstuetzung_vor_story-39002478-41528309-1.htm
Vorraussetzung bei 790/890GX? Nö.
Zeige nur ein 790GX/890GX Board ohne Sideport-Speicher! Kannst du nicht? Alles klar. Optimal ist es bei 780G/880G.
Bucklew
2010-08-06, 23:17:38
Zeige nur ein 790GX/890GX Board ohne Sideport-Speicher! Kannst du nicht? Alles klar. Optimal ist es bei 780G/880G.
Doch, aber ist doch viel lustiger noch etwas zappeln zu lassen:
http://www.biostar.com.tw/app/en/t-series/content.php?S_ID=428
Da, bitte. Ende der Diskussion offensichtlich ;)
Undertaker
2010-08-07, 09:13:23
32bit. Mach bei Fusion 64 bit draus, dazu noch GDDR5 und schon hat man durchaus eine brauchbare Bandbreite in dem Leistungsbereich.
Alle mir bekannten Boards verfügen über einen 16Bit Sideport... Die Hersteller sparen halt wo sie können. GDDR5 wird der Speichercontroller von Fusion nicht beherrschen, für >32Bit brauchst du mehrere Speicherchips, für eine Einsteigslösung sicher ebenfalls nicht wahrscheinlich.
Wie gesagt: Über die Leistung einer Einstiegslösung wirst du mit einer CPU/GPU Kombination wohl nie kommen. Weder TDP noch Speicheranbindung spielen da mit.
Mehr ist allerdings auch gar nicht nötig: Fusion soll keine Spieler-Lösung sein, sondern:
a) Kosten senken
b) Langfristig gesehen die Rechenleistung der Streamprozessoren auch der CPU zur Seite stellen können
Das einzige was wir wissen ist, dass - trotz des geringeren DIE-Flächen-Unterschiedes bei dieser Generation - sich die wirtschaftliche Lage von nVidia von Quartal zu Quartal verschlechtert... liegt natürlich auch daran, dass man zu spät dran war. Wohingegen bei ATi/AMD die Nachfrage das Angebot übersteigt. ... komisch, nicht? Und das obwohl Fermi und Cypress "näher" beieinander liegen, konnte ATi weiter Marktanteile gewinnen und wirtschaftet positiv(er) als noch vor zwei Jahren.
Als ob es an der Diegröße liegt, das man weniger Umsatz hat.
Das liegt primär daran, das die D3D11 Linie noch nicht ganz steht und die Konkurrenz früher dran ist. Nicht mehr.
Und eine Komponente wird bei dieser Die-Flächen Diskussion auch immer vergessen. Die Ausbeute ... Und da denke ich kann man schon was dazu sagen: Bei nVidia läufts wohl nicht so rund, sonst würde man keine teildeaktivierten GF104 (relativ günstig) verkaufen.
Richtig, die Ausbeute kennen wir bei beiden nicht.
Bei Nvidia erwarte ich immer noch einen Fehler im Design, das man teildeaktviert fahren muss.
Immerhin vertickt AMD Cypress im Schnitt zwischen 300 und 400 USD wohingegen nVidia seinen 360mm^2 Chip zwischen 200 und 230 verkauft. Das ist ein Umstand der für nVidia nicht sonderlich prima sein kann. Und wann dann auch noch schlechtere Yields als bei Cypress dazukommen ... und AMD mit neuen Chips und/oder einer Preissenkung daherkommt... tja, darum:
Alles über 200$ ist toll für GTX 460. Ich erinnere mich da an die 100€ 8800 GT.
Damals hatte man die billigen 65nm Wafer, heute den Vorteil der höheren Kapazität.
8800 GT war für 100€ am Markt, 9600 GT afaik darunter. Jetzt ist alles weit jenseits der 100€, sowohl GF106 als auch GF104.
Sorry, ich sehe da überhaupt kein Problem.
Das gravierende Problem, daher der geringe Umsatz ist und bleibt das man erst durch Verkauf, sprich mit Produkten Umsatz macht.
Mancko
2010-08-07, 18:58:48
Immerhin vertickt AMD Cypress im Schnitt zwischen 300 und 400 USD wohingegen nVidia seinen 360mm^2 Chip zwischen 200 und 230 verkauft. Das ist ein Umstand der für nVidia nicht sonderlich prima sein kann. Und wann dann auch noch schlechtere Yields als bei Cypress dazukommen ... und AMD mit neuen Chips und/oder einer Preissenkung daherkommt... tja, darum:
"ATi/AMD auf dem Vormarsch"
Ehrlich gesagt Tarkin interessiert das hier niemanden, da wir hier nicht für Nvidia oder AMD arbeiten sondern günstige Karten mit guter Leistung und vor allem Bildqualität wollen und so leids mir tut aber bei den aktuellen Preisen kann man weder die 5850 noch die 5870 empfehlen. Die 5830 und Nvidia's 465 schon gleich gar nicht.
Die 460er Karten und 470er sind momentan das beste was es zu bieten gibt. Da ist massig Potenzial und die gibts für wenig Geld - also way to go und das wird AMD auch merken verlass dich darauf. Du vergisst nämlich genauso wie der Schwachkopf Charlie bei Deinen DIE Rechnungen gern, dass Nvidia in anderen Geschäftsfeldern in denen AMD überhaupt nicht existent ist das Geld hereinholt und dass Nvidia bis heute eine schuldenfreie Company ist. Die könnten auch mal wie AMD 5 Mrd. Dollar Schulden aufnehmen wenns sein müsste. Bis jetzt müssen die das aber nicht. Von daher kannst du mit den DIE Größen noch lange herumrechnen. So schnell geht Nvidia finanziell der Atem da nicht aus. Von daher bitte am besten mal ganz schnell daran gewöhnen, dass AMD von Nvidia jetzt per Preiskampf unter Druck gesetzt wird und das wird sehr bald noch viel heftiger werden, wenn GF106 und 108 kommen. Das letzte Quartal war eine Auswirkung der Verspätung. Wie werden da sehr bald die Kehrwende vor allem beim Umsatz sehen. Die Margen werden wohl erstmal sinken aber das dürfte Nvidia momentan ziemlich scheiss egal sein und wiegesagt anders als AMD müssen die auch keine Zinsen zahlen oder permanent für die Lücken bei GF aufkommen.
Für uns Käufer einfach optimal :)
Ehrlich gesagt Tarkin interessiert das hier niemanden, da wir hier nicht für Nvidia oder AMD arbeiten sondern günstige Karten mit guter Leistung und vor allem Bildqualität wollen und so leids mir tut aber bei den aktuellen Preisen kann man weder die 5850 noch die 5870 empfehlen. Die 5830 und Nvidia's 465 schon gleich gar nicht.
Die 460er Karten und 470er sind momentan das beste was es zu bieten gibt. Da ist massig Potenzial und die gibts für wenig Geld - also way to go und das wird AMD auch merken verlass dich darauf. Du vergisst nämlich genauso wie der Schwachkopf Charlie bei Deinen DIE Rechnungen gern, dass Nvidia in anderen Geschäftsfeldern in denen AMD überhaupt nicht existent ist das Geld hereinholt und dass Nvidia bis heute eine schuldenfreie Company ist. Die könnten auch mal wie AMD 5 Mrd. Dollar Schulden aufnehmen wenns sein müsste. Bis jetzt müssen die das aber nicht. Von daher kannst du mit den DIE Größen noch lange herumrechnen. So schnell geht Nvidia finanziell der Atem da nicht aus. Von daher bitte am besten mal ganz schnell daran gewöhnen, dass AMD von Nvidia jetzt per Preiskampf unter Druck gesetzt wird und das wird sehr bald noch viel heftiger werden, wenn GF106 und 108 kommen. Das letzte Quartal war eine Auswirkung der Verspätung. Wie werden da sehr bald die Kehrwende vor allem beim Umsatz sehen. Die Margen werden wohl erstmal sinken aber das dürfte Nvidia momentan ziemlich scheiss egal sein und wiegesagt anders als AMD müssen die auch keine Zinsen zahlen oder permanent für die Lücken bei GF aufkommen.
Für uns Käufer einfach optimal :)
nV ist im Vergleich zu AMD eine kleine Klitsche. Wenn die zu weit ins strauchen kommen, möchte ich mal sehen, wer denen paar Mrd. leihen will. Ne, die lassen die verrecken und fallen für kleines Geld über die verwertbaren Reste her. So wird´s laufen....
Iruwen
2010-08-08, 00:05:33
Bei 1,65 Milliarden vs 800 Millionen Umsatz ist "kleine Klitsche" wohl etwas übertrieben. Und das sieht auch nur so aus weil AMD gerade alle Erwartungen über- und Nvidia alle untertroffen hat.
svenw
2010-08-08, 09:32:26
Ehrlich gesagt Tarkin interessiert das hier niemanden, da wir hier nicht für Nvidia oder AMD arbeiten sondern günstige Karten mit guter Leistung und vor allem Bildqualität wollen und so leids mir tut aber bei den aktuellen Preisen kann man weder die 5850 noch die 5870 empfehlen.
Nein, das kann uns ganz und gar nicht scheißegal sein, denn ohne starke Konkurrenz stagniert der Markt. Auch Intel CPUs wären ohne AMD heute nicht halb so gut. Somit sind schlechte Zahlen für NV ein Grund zur Sorge.
Das man eine 5850 nicht empfehlen kann halte ich für übertrieben, auch wenn die 460 wirklich eine gute Karte ist. Eine 5870 würde ich jederzeit einer 470 vorziehen. 5830 ist eine Sch... Karte und sollte dank der 460 bald sterben genauso wie die 465.
Hugo78
2010-08-08, 09:50:52
Als vor 3 Jahren AMD mit der HD2k und den ersten Phenoms nicht mal im Ansatz konkurrenzfähig war, da haben nicht wenige Leute den Untergang von AMD vorausgesagt.
Jetzt hingt Nvidia mal 6 Monate im Endkundenmarkt hinterher und schon kommen die selben Schwarzseher und brabeln was von "Land unter".
Dabei ist Nvidia im HPC und Profibereich voll im Fahrplan, auch wenn der Fermi nicht ganz die erwartete Leistung erreicht, aber das ist ja nichts Neues, bei neuentwickelten Chips.
Was Nvidia auf lange Sicht schmerzlich treffen wird, ist der immer größere Grad an Integration von Grafik in die CPU.
Hier geht viel Umsatzvolumen verloren.
Aber berührt das den Gewinn? Meiner Meinung nach nicht.
Letztlich ist es doch egal, wieviel Umsatz du hast, wenn hintenraus noch immer Gewinn abfällt.
AMD hat zb. gut 3mal mehr Mitarbeiter im Vergleich zu Nvidia, aber der Jahresumsatz ist noch lange nicht 3mal größer,
und die Quartale mit Gewinn, der letzten 4 Jahre, kann man an einer Hand abzählen.
Für mich hat AMD die aktuelle Lage bitternötig, Nvidia dagegen wird einfach nur mal wieder geerdet, aber deswegen gehen sie nicht unter.
Zur Not verabschieden sie sich halt aus unrentablen Geschäftsfeldern.
Ich hoffe nur, dass das nicht irgendwann auch den Gamingbereich betreffen wird.
Der Hauptgegner für beide kleinen Firmen ist letztlich eh immer Intel.
54% Marktanteil im Grafikbereich und 81% bei CPUs ... also ich frag mich warum viele überhaupt so leidenschaftlich den Kleinkrieg Rot gegen Grün verfolgen. :ucrazy:
AMD's kommender Bulldozer wird hoffentlich nicht der negativ Implikation seines Namen alle Ehre machen und im Vergleich zur Sandy Bridge, arschlahm ausschauen.
Sonst haben wir wieder eine ähnliche Situation wie in 2007, und es wäre fraglich wie lange die Grafiksparte hier die Verluste im CPU Geschäft dann kompensieren kann.
[QUOTE=Hugo78;8194103AMD's kommender Bulldozer wird hoffentlich nicht der negativ Implikation seines Namen alle Ehre machen und im Vergleich zur Sandy Bridge, arschlahm ausschauen.
[/QUOTE]
Ein Bulldozer macht doch alles platt das weiß doch jeder. Genau wie ein Hammer. ;)
Malabolge
2010-08-08, 14:22:22
Wo denn? (http://ht4u.net/reviews/2009/amd_790gx_mainboards_kurztest/index5.php)
Diese 4 lustigen Sockel sind nebenbei Arbeitsspeicher und nicht Sideport ;)
Paar Seiten weiter : http://ht4u.net/reviews/2009/amd_790gx_mainboards_kurztest/index9.php
Selber Artikel :wink::wink:
Schauts euch die Bios einstellungen an : Sideport & Uma !
Das darf doch nicht sein ;):)
So viel zu deiner Wahrheitsliebe, und Selektiver Wahrnehmung :eek:
Quartalszahlen sind halt nur Fantasieprodukte, und haben überhaupt nix zu sagen.
Fakt ist nur eins, Nvidia wurde im Oktober 09 mit heruntergelassenen Hosen erwischt.
Diesem Schlag konnten sie bis ca. Juni 10 Nichts (sinnvolles) entgegensetzen.
Selbst ein Vollausgebaugter GF10x chipkann diesen Rücckstand nich volstandig wiederaufholen
,zumal schon Ende des Jahres AMD/AIT mit einem Refresh Gewehr bei Fuss steht.
Nvidia wird mindestens noch ein weiteres Jahr kleinere Brötchen backen müssen. IMHO sogar 2 Jahre.
Sehr viel hat man sich auch mit der "Laubsägearbeit" bei den Aktionären und Kunden verscherzt.
Damit versuchte man den über 6 Monatigen Rückstand zu vertuschen.
YfOrU
2010-08-08, 15:05:19
Was Nvidia auf lange Sicht schmerzlich treffen wird, ist der immer größere Grad an Integration von Grafik in die CPU.
Hier geht viel Umsatzvolumen verloren.
Aber berührt das den Gewinn? Meiner Meinung nach nicht.
Letztlich ist es doch egal, wieviel Umsatz du hast, wenn hintenraus noch immer Gewinn abfällt.
Gewinn/Verlust steht am Ende der Kalkulation. Je niedriger der Umsatz desto schwerer wird es die laufenden Kosten (bei gleichbleibendem Gewinn/Verlust) zu decken. Da es sich hierbei zu großen Teilen um Entwicklungsaufwendungen handelt muss dann dementsprechend der Rotstift angesetzt werden.
Wie negativ sich das auf die Zukunft auswirkt zeigt das Pardebeispiel AMD (CPU Sparte). Im Gegensatz zu AMD hat Nvidia aber kaum Tafelsilber zu verscherbeln und auch keine nennenswerten anderen Sparten um den Umsatz zu stützen. Die Folge ist das Nvidia es sich nicht leisten kann längerfristig Marktanteile zu verlieren.
Bei AMD werden die (GPU) Entwicklungskosten im Endeffekt auf eine viel größere Produktpallette umgelegt: IGP, SoC (APU), GPU und GPGPU. Indirekt kommt das damit auch wieder der CPU Sparte zu gute.
Hugo78
2010-08-08, 15:37:18
Dann wird Nvidia sich halt schrumpfen.
YfOrU
2010-08-08, 15:48:48
Dafür sehe ich bei der in diesem Segment vorhandenen Entwicklungsgeschwindigkeit und dem enormen Kostenaufwand nicht viel Spielraum.
Es hat eben durchaus seine Gründe warum von der großen Vielzahl an GPU Entwicklern nur zwei übrig geblieben sind.
Hugo78
2010-08-08, 16:10:58
Das wird dann die Zeit zeigen.
Ich hab keinen Einblick in die Entwicklungsabteilungen, weder von AMD noch NV, und weiß wer da wo entbehrlich ist.
Ich weiß aber, das Nvidia nach der NV1 Pleite anno 96', mit nur einem Bruchteil der Leute zurück gekommen ist, im Form des NV3.
YfOrU
2010-08-08, 16:37:44
Nach 14 Jahren Entwicklung und Chips mit 3 Mrd Transistoren ist das recht utopisch.
Die komplette Fehleinschätzung der Marktentwicklung zusammen mit der vorhandenen Monokultur im Produktportfolio ist eine denkbar schlechte Ausgangsposition.
Isoliert betrachet ist der GF100 und seine Ableger nicht das wirkliche Problem. Er wirkt aber sprichwörtlich als Beschleuniger. Es ist dabei durchaus davon auszugehen das sich die Marktanteile gegen Ende des Jahres noch einmal positiv für Nvidia entwickeln. Ab Mitte 2011 wird es dann langsam schwierig denn dann ist Nvidia komplett abseits von allen Chipsätzen und IGPs. Der Bedarf an dedizierten Low-End Lösungen wird zusätzlich deutlich geringer. Und das vor allem im Volumenbereich der Note- und Netbooks.
Hugo78
2010-08-08, 18:53:19
Ja, dann geht man ebend aus dem unrentablen Bereichen raus und bedient nur noch Bereiche die sich lohnen.
Das Nvidia im Mobilbereich ohne die Möglichkeit, einer eigenen CPU Plattform und mit steigender Leistung der intigrierten Lösungen von Intel und AMD,
hier auf kurz oder lang überflüssig wird und nur noch HighEnd und Profis bedienen kann, ist klar.
Ich sag ja, da geht Umsatzvolumen verloren, aber das ist kein Beinbruch für die Firma ansich.
Die Entwicklung war für Nvidia anscheinend auch klar, denn nicht umsonst hat man den Fermi mit Fokus auf HPC erstellt.
Dank dem vorläufigen Aus von Intels Larrabee, und AMD faktischer Abwesenheit im dem Sektor, hat man hier auch erstmal Ruhe.
Und im Gamingbereich lohnt sich eine Karte a la GTX 460 auch in den nächsten Jahren, Prestigeobjekte a la GTX 480 sind ja nun nichts für die Masse.
Kann man auch drauf verzichten.
Es ist nur doof für uns Endverbaucher, sollte sich für Nvidia auch der Gamingmarkt irgendwann nicht mehr lohnen.
Nvidia als Firma wird überleben, nur in welcher Größe und in welchem Markt ist die Frage.
Und sollte der Laden dochmal dicht machen, ... nun Intel kauf sicherlich gern das Knowhow auf und baut dann mit etwas Verzögerung später ihre eigenen "Geforces".
Larrabee hat ja gezeigt, dass auch Intel noch viel Knowhow gebrauchen kann.
YfOrU
2010-08-08, 20:15:53
Ja, dann geht man ebend aus dem unrentablen Bereichen raus und bedient nur noch Bereiche die sich lohnen.
Wir sprechen hier vom Kerngeschäft. Die Entwicklungskosten für eine Architektur werden dabei über alle Bereiche getragen. Eine Reduzierung führt somit nicht im gleichen Verhältnis zu niedrigeren Kosten.
Das Nvidia im Mobilbereich ohne die Möglichkeit, einer eigenen CPU Plattform und mit steigender Leistung der intigrierten Lösungen von Intel und AMD, hier auf kurz oder lang überflüssig wird und nur noch HighEnd und Profis bedienen kann, ist klar.
Ich sag ja, da geht Umsatzvolumen verloren, aber das ist kein Beinbruch für die Firma ansich.
Die Entwicklung war für Nvidia anscheinend auch klar, denn nicht umsonst hat man den Fermi mit Fokus auf HPC erstellt.
Dank dem vorläufigen Aus von Intels Larrabee, und AMD faktischer Abwesenheit im dem Sektor, hat man hier auch erstmal Ruhe.
Der Desktop Markt liegt vom Volumen seit geraumer Zeit hinter den mobilen Lösungen und der Trend hält weiter an. Je nach (NB) Hersteller wird es für Nvidia mittelfristig schwierig überhaupt im Programm zu bleiben wenn das eigene Produkt nicht deutlich besser ist. Ob für ein paar einzelne Gerätevarianten ein dritter Lieferant eingebunden werden soll überlegt man sich meist zweimal und alles andere gibt es bei Intel + AMD.
Bleibt also ein kleines Stück vom mobilen Markt und unterers Midrange bis Highend im Desktop.
Im professionellen Sektor gibt es zwar hohe Margen aber dafür ist das Volumen vergleichsweise gering. Dazu haben Intel und AMD beide ihre eigenen Workstation und Serverplattformen. Beide haben kein Interesse diese mit Nvidia zu teilen. Auf lange Sicht ist das kaum eine besser Option als bei den mobilen Lösungen.
Die Frage ist einfach ob damit noch genug Umsatz gemacht werden kann um in dieser Branche bestehen zu können.
Spasstiger
2010-08-08, 21:52:44
Die Entwicklung war für Nvidia anscheinend auch klar, denn nicht umsonst hat man den Fermi mit Fokus auf HPC erstellt.
Dank dem vorläufigen Aus von Intels Larrabee, und AMD faktischer Abwesenheit im dem Sektor, hat man hier auch erstmal Ruhe.
Faktische Abwesenheit? Ich wette, dass AMD im HPC-Segment ein Vielfaches von NV umsetzt.
Hugo78
2010-08-08, 21:53:24
@YfOrU
Wie gesagt, für uns als Endkunden wird das Angebot nicht besser, je mehr Intel und AMD jeden Aspekt des PC Markt abdecken und dabei kein Platz oder eine Nische überbleibt.
Faktische Abwesenheit? Ich wette, dass AMD im HPC-Segment ein Vielfaches von NV umsetzt.
Das ist eine Behauptung die du gerne untermauern darfst.
Spasstiger
2010-08-08, 21:59:08
http://www.top500.org/list/2010/06/100
NV ist mit drei Systemen in den Top100 gerade dabei, in diesem Segment Fuß zu fassen, während sich AMD schon seit Jahren etabliert hat.
Hugo78
2010-08-08, 22:12:01
Du solltest meinen Post nochmal lesen.
Es ging überhaupt nicht um Opterons ect..
Es ging um die Produktreihe a la Intel Larrabee und Nvidia Fermi.
Da fehlt AMD ein Produkt das sich als spezialisierter Coprozessor eigenet.
Oder zumindest eine ähnlich hohe Rechenpower hat.
Du solltest meinen Post nochmal lesen.
Es ging überhaupt nicht um Opterons ect..
Es ging um die Produktreihe a la Intel Larrabee und Nvidia Fermi.
Da fehlt AMD ein Produkt das sich als spezialisierter Coprozessor eigenet.
Oder zumindest eine ähnlich hohe Rechenpower hat.
Hat AMD also keine Grafikkarten?
Hugo78
2010-08-08, 22:30:12
AMD hat keine Grafikkarten die speziell für den HPC Bereich entwickelt wurden und auch keine Software hierfür, die so flexibel ist wie CUDA. Steam soll ja schneller sein, aber ebend auch komplizierter.
Man hat Chips die in der Theorie übelst viele Flops rechnen, doch bleibt davon in der Praxis nicht viel über, je komplexer die Anweisungen werden.
Was meiner Meinung nach an dem 1+4 Design liegt, und auch nicht durch irgendein "bald kommendes SDK" verbessert werden kann.
Aber ich lass mich überraschen...
AMD hat keine Grafikkarten die speziell für den HPC Bereich entwickelt wurden und auch keine Software hierfür, die so flexibel ist wie CUDA. Steam soll ja schneller sein, aber ebend auch komplizierter.
Man hat Chips die in der Theorie übelst viele Flops rechnen, doch bleibt davon in der Praxis nicht viel über, je komplexer die Anweisungen werden.
Was meiner Meinung nach an dem 1+4 Design liegt, und auch nicht durch irgendein "bald kommendes SDK" verbessert werden kann.
Aber ist lass mich überraschen...
Ist den Betreibern von Tianhe-1 wohl egal gewesen, die setzten auf 4870X2.
Im HPC Bereich sind graduelle Unterschiede in der Programmierbarkeit zwischen cuda und stream egal, die schreiben ihre Software sowieso selber.
AMD hat keine Grafikkarten die speziell für den HPC Bereich entwickelt wurden und auch keine Software hierfür, die so flexibel ist wie CUDA. Steam soll ja schneller sein, aber ebend auch komplizierter.
Man hat Chips die in der Theorie übelst viele Flops rechnen, doch bleibt davon in der Praxis nicht viel über, je komplexer die Anweisungen werden.
Was meiner Meinung nach an dem 1+4 Design liegt, und auch nicht durch irgendein "bald kommendes SDK" verbessert werden kann.
Aber ist lass mich überraschen...
Steam ist nur der Überbegriff für CAL und OpenCL.
Steam ist nicht schneller (wtf?), sondern die AMD Karten haben eine höhere Peakleistung.
Zum Rest schreibe ich Nichts, da ich nicht glaube, dass du verstehst, was du da schreibst.
Spasstiger
2010-08-08, 22:40:47
NV muss sich gegenüber AMD im HPC-Segment beweisen und nicht umgekehrt. AMD hat dort schon lange Marktanteile, die NV erst jetzt mit den Teslas erobern möchte. Ob AMD seine Stellung im HPC-Segment mit Opterons oder Radeons erreicht, ist prinzipiell egal (mit den Opterons macht man natürlich ein Vielfaches an Gewinn).
Dass AMD im HPC-Segment "faktisch abwesend" sei, ist schlicht Unsinn.
Hugo78
2010-08-08, 23:42:01
Sag mal, du willst wohl nicht verstehen, dass es mir in meinem Post um die Marktlücke ging die NV da grade besetzt im HPC Sektor.
Das HPC natürlich als Basis aus CPUs besteht ist klar, aber davon war auch garnicht die Rede.
Ich habe mich auf Larrabee und Fermi bezogen.
Der ursprüngliche Aufhänger hierfür war, die Ansage Nvidia hätte am Markt vorbei entwickelt, wobei doch eigentlich klar ist,
dass Fermi nicht primär für Gamer, sondern für HPC als spezieller Zusatzprozessor entworfen wurde.
Nvidia hat sich nicht ohne Grund für ein Design entschieden mit dem man "auch spielen kann". Wäre es nur primär auf Spiele ausgelegt, hätte man sich die komplexen Shader und den vielen Cache auch sparen können.
Der Schluss für mich ist daraus, dass Nvidia sich seiner Situation auf lange Sicht, durchaus bewust ist.
AMD hat dort schon lange Marktanteile, die NV erst jetzt mit den Teslas erobern möchte.
Spasstiger, ich kann dir versichern, dass das kompletter Blödsinn ist.
NVIDIA hat mit CUDA einen sehr großen Vorsprung auf diesem Gebiet erarbeitet (es gibt Teslas seit G80 mit komplettem Toolset), den AMD einzuholen hat. Allein die bereitgestellten Tools seitens AMD sind ein riesen Witz. AMD hat ja noch nichtmal Karten die HPC wirklich genügen (kein ECC und keine dedizierten Compute-Beschleuniger).
Oder meinst du AMDs CPU-Sparte, also Opterons?
YfOrU
2010-08-09, 01:35:27
Wie gesagt, für uns als Endkunden wird das Angebot nicht besser, je mehr Intel und AMD jeden Aspekt des PC Markt abdecken und dabei kein Platz oder eine Nische überbleibt.
Für den Zustand kann aber weder Intel noch AMD etwas. Die hohe Integrationsdichte ist eine logische Weiterentwicklung und im Vergleich zu anderen Architekturen kam diese recht spät.
Bei AMD ist man mit dem K7 und der ATI Übernahme nicht nur einige große Risiken eingegangen, es ging auch alles andere als spurlos am Unternehmen vorbei.
Im Gegensatz dazu hat sich Nvidia über viele Jahre in sehr ruhigen Gewässern bewegt und dabei gute Gewinne erzielt. Unter Umständen war diese Strategie in der schnelllebigen IT Branche zu konservativ und wenig weitsichtig.
N0Thing
2010-08-09, 07:04:26
Oder meinst du AMDs CPU-Sparte, also Opterons?
Davon redet er zumindest in seinen letzten Beiträgen. :wink:
Hugo78
2010-08-09, 08:11:49
Im Gegensatz dazu hat sich Nvidia über viele Jahre in sehr ruhigen Gewässern bewegt und dabei gute Gewinne erzielt. Unter Umständen war diese Strategie in der schnelllebigen IT Branche zu konservativ und wenig weitsichtig.
Ja nun, es ist ja nicht so, als ob man bei Intel eine x86 Lizenz erwerben könnte.
Selbst VIA hat ja nur noch bis 2013 einen Vertrag, so weit mir bekannt.
Ohne eine Chance überhaupt x86 CPUs bauen zudürfen, wie soll man hier zu einem eigenen Fusion kommen?!
Und bei der ARM Technik gibt es halt Leute die noch ein Stückchen weiter sind.
Man schätzt, zb. Apple hätte allein 1Mrd. USD in die Entwicklung ihres A4 ausgegeben.
Aber bei 16 Mrd. Umsatz im letzten Quartal, auch kein Thema.
Soviel hat NV und AMD zusammen nicht mal als Jahresumsatz.
N0Thing
2010-08-09, 08:31:08
Selbst VIA hat ja nur noch bis 2013 einen Vertrag, so weit mir bekannt.
Wenn ich das richtig mitbekommen habe, hat die US-Kartellbehörde Intel in einem Vergleich vor kurzem vorgeschrieben, daß sie die Lizenzen für AMD und Via ohne Bedingungen weiter verlängern müssen. (Edit: Und hier ein Link dazu: http://nachrichten.finanztreff.de/news_news,awert,nachrichten,dt,rdf,id,32454821,sektion,uebersicht.html )
Das würde Nvidia aber auch nur helfen, wenn sie an einer Übernahme von Via interessiert sind und sich diese Übernahme auch leisten können.
Hugo78
2010-08-09, 08:59:48
Na, das wäre dann zumindest eine Basis für eine Zusammenarbeit.
Wobei die Ausgangslage natürlich immernoch ungleich schwieriger ist.
Edit: da steht nur das VIAs Vertrag um 5 Jahre verlängert werden muss.
Also langfristig schaut für mich anders aus.
Bucklew
2010-08-09, 10:06:01
Ist den Betreibern von Tianhe-1 wohl egal gewesen, die setzten auf 4870X2.
Die um einiges billiger sind als Fermi-Teslas (die große liegt bei 2.500 US-$) und (wie man so in den entsprechenden Kreisen hört) von ATI wohl sogar quasi verschenkt wurden, damit sie genommen werden.
Die um einiges billiger sind als Fermi-Teslas (die große liegt bei 2.500 US-$) und (wie man so in den entsprechenden Kreisen hört) von ATI wohl sogar quasi verschenkt wurden, damit sie genommen werden.
NV verschenkt die Teslas auch um $100 Dollar das Stück wie man in den entsprechenden Kreisen hört. Man bist du LOL.
svenw
2010-08-09, 10:59:41
Bei HPC ist die Effizienz wichtig, ob das ne Karte mehr oder weniger drin steckt weil sie etwas weniger Leistung hat ist fast egal. Ein Großteil der Kosten wird da eh durch den Stromverbrauch bestimmt und der Anschaffungspreis ist da eher nebensächlich.
Es könnte sogar sein, das ATI in SI/NI ein Speicherinterface einbaut das ECC beherrscht, denn so viel Die Fläche dürfte das eigentlich nicht kosten.
Bei HPC ist die Effizienz wichtig, ob das ne Karte mehr oder weniger drin steckt weil sie etwas weniger Leistung hat ist fast egal. Ein Großteil der Kosten wird da eh durch den Stromverbrauch bestimmt und der Anschaffungspreis ist da eher nebensächlich.
Es könnte sogar sein, das ATI in SI/NI ein Speicherinterface einbaut das ECC beherrscht, denn so viel Die Fläche dürfte das eigentlich nicht kosten.
brauchen sie IMHO nicht.
Wenn AMD nicht alles falsch gemacht hat (wie zB. eine ausreichende Anzahl und Bandbreite für die HT3.0 Busse), dann wird HPC bei AMD vom Fusion (die Highend-Version des Llano) übernommen werden. Da ist, bei Verwendung eines Server-Boards ECC bereits mit dabei. Sie vermeiden damit auch die meisten Nachteile von GPGPU, wie zB. das Nadelöhr PCI-e.
Was ist eigentlich der Vorteil, wenn die GPU direkt neben der CPU auf dem gleichen Bauteil liegt, wie das eben bei "Fusion" der Fall ist? Vor allem gegenüber den bisherigen IGPs mancher Mainboards? Ich sehe da keine Verbesserung oder Vorteile für den Endanwender.
Bucklew
2010-08-09, 13:52:07
NV verschenkt die Teslas auch um $100 Dollar das Stück wie man in den entsprechenden Kreisen hört. Man bist du LOL.
Wenn man keine Ahnung hat :rolleyes:
Wenn AMD nicht alles falsch gemacht hat (wie zB. eine ausreichende Anzahl und Bandbreite für die HT3.0 Busse), dann wird HPC bei AMD vom Fusion (die Highend-Version des Llano) übernommen werden. Da ist, bei Verwendung eines Server-Boards ECC bereits mit dabei. Sie vermeiden damit auch die meisten Nachteile von GPGPU, wie zB. das Nadelöhr PCI-e.
Fusion wird niemals die Performance einer Add-on Karte erreichen können. Noch dazu würde man natürlich bei Verwendung des Servermemory einen riesigen Bottleneck kriegen, weil CPU und GPU den selben Bus sich teilen müssen. PCIe ist nicht entscheidend, man schiebt die Daten auf die Karte und lässt sie rechnen.
Was ist eigentlich der Vorteil, wenn die GPU direkt neben der CPU auf dem gleichen Bauteil liegt, wie das eben bei "Fusion" der Fall ist? Vor allem gegenüber den bisherigen IGPs mancher Mainboards? Ich sehe da keine Verbesserung oder Vorteile für den Endanwender.
Billiger für den Hersteller von CPU und Mainboard.
Gasti
2010-08-09, 14:25:55
Fusion wird niemals die Performance einer Add-on Karte erreichen können. Noch dazu würde man natürlich bei Verwendung des Servermemory einen riesigen Bottleneck kriegen, weil CPU und GPU den selben Bus sich teilen müssen. PCIe ist nicht entscheidend, man schiebt die Daten auf die Karte und lässt sie rechnen.
Natürlich ist das entscheidend.
Wie länger es dauert die Eingabedaten auf den Globalen Speicher der Grafikkarten zu bringen und wieder zu holen, destso länger muss der Hostprozess warten.
Wenn Das zu lange dauert, hätte man die Berechnung auch gleich auf der CPU ausführen können.
Dural
2010-08-09, 14:56:56
habt ihr nichts besseres zutun? ;)
GF100 war kein erfolg, das ist sicher! aber das lag doch auch nur an dem bescheidenen 40nm Prozess, die GPU war/ist schlicht zu gross für diesen Prozess!!! Die zeitlich verzögerung die es jetzt gab wirkt sich jetzt natürlich auch fatal aus, das war aber klar...
Strom Verbrauch ging durch die decke, war/ist nicht mehr schön... das es nicht an der Architektur liegt zeigt jetzt GF104 eindrucksvoll! Die GPU ist in jedem bereich im grünen ohne wenn und aber! GF100 braucht gut ca. 100% mehr Energie als GF104 bei nur ca. 50% mehr Transistoren, fatal! wenn man bedenkt das eine grosse GPU immer Effizienter sein sollte müsste der Energie Verbrauch + 50% und weniger sein... eigentlich...
NV konnte mit "Fermi" sogar aufholen was die Effizient/Fläche der DIEs betrifft, NV hat mit weniger Transistoren am ende mehr Leistung raus geholt gegenüber der Vorgänger Generation als es AMD geschaft hat, das sind alles Fakten!
Heute steht NV mit 360mm gegen 330mm so gut wie schon seit Jahren nicht mehr da, vergessen auch einige immer wider da man den GF104 sehr gut als direkten gegner des RV870 sehen könnte...
Ich finde der RV870 ist genüber seinem Vorgänger RV770/790 so wie so eine der schlechtesten GPUs die wir je gesehen haben, 125% mehr Transistoren bei lächerlichen 55% mehr Leistung WOW!
Der Vorteil für AMD war beim RV870 ganz klar: bekannte Architektur + DX11 + in die grösse gezogen UND das zum richtigen Zeit Punkt! Das hat den erfolg des RV870 nach meiner Meinung nach ausgemacht...
derguru
2010-08-09, 15:07:15
Ich finde der RV870 ist genüber seinem Vorgänger RV770/790 so wie so eine der schlechtesten GPUs die wir je gesehen haben, 125% mehr Transistoren bei lächerlichen 55% mehr Leistung WOW!
och ist das so,mach mal den transistor/performance-vergleich von der 285gtx zur 470gtx;)
Dural
2010-08-09, 15:11:37
geht nicht... GTX285 High End da müsste man schon einen vollen GF100 nehmen aka "GTX485" die es aber bis heute nicht gibt... ;)
man könnte der vergleich höstens zwischen GTX260 und eben der GTX470 ziehen ;)
derguru
2010-08-09, 15:12:15
ach so.:ulol:
Schlammsau
2010-08-09, 15:15:38
geht nicht... GTX285 High End da müsste man schon einen vollen GF100 nehmen aka "GTX485" die es aber bis heute nicht gibt... ;)
man könnte der vergleich höstens zwischen GTX260 und eben der GTX470 ziehen ;)
welch logik! :freak:
Bandit3644
2010-08-09, 15:16:25
ich auch :freak::freak::freak:
wenn mann zwischen hd4890 hd5870 und
gtx 285 und 480 unterscheidet sehe ich da keinen großen unterschied
Jake Dunn
2010-08-09, 15:18:48
Heute steht NV mit 360mm gegen 330mm so gut wie schon seit Jahren nicht mehr da, vergessen auch einige immer wider da man den GF104 sehr gut als direkten gegner des RV870 sehen könnte...
Klar! ;D
Bucklew
2010-08-09, 15:19:22
Natürlich ist das entscheidend.
Wie länger es dauert die Eingabedaten auf den Globalen Speicher der Grafikkarten zu bringen und wieder zu holen, destso länger muss der Hostprozess warten.
Wenn Das zu lange dauert, hätte man die Berechnung auch gleich auf der CPU ausführen können.
Na zum Glück geht es viel schneller, wenn die GPU in Fusion sämtliche Daten durch denselben Bus wie die CPU zu quetschen hat während der Berechnung ;)
Und natürlich nutzt man die GPUs so, dass die Transferzeit über den PCIe nur einen ganz geringen Bruchteil der Rechenzeit beträgt.
LovesuckZ
2010-08-09, 15:19:26
och ist das so,mach mal den transistor/performance-vergleich von der 285gtx zur 470gtx;)
:facepalm:
Vergleich mal die 5830 mit der 4890.
Dural
2010-08-09, 15:23:02
Klar! ;D
beide GPU sind so ziemlich exakt gleich schnell +/-, wenn du nicht fähig bist das zu errechnen (wie die anderen kidis wo ich gar nicht drauf eingehe...) ist das dein Problem und nicht meins ;) NV könnte mit einem vollen GF104 jederzeit ein gegenpart zur 5870 stellen, sie machen es aber natürlich nicht weil man so die eigenen GTX470/GF100 untergräbt...
Das dumme für NV ist nur das sie mit dem GF104 in erster linie sich selber kokurenz machen... dumm gelaufen!
YfOrU
2010-08-09, 15:24:59
Was ist eigentlich der Vorteil, wenn die GPU direkt neben der CPU auf dem gleichen Bauteil liegt, wie das eben bei "Fusion" der Fall ist? Vor allem gegenüber den bisherigen IGPs mancher Mainboards? Ich sehe da keine Verbesserung oder Vorteile für den Endanwender.
Früher war nicht nur die GPU im Chipsatz sondern auch der Speichercontroller. Die Verbindung zur CPU war der FSB. Dieser wurde mit steigendem Datendurchsatz immer mehr zum Flaschenhals.
Also wurde das Konzept geändert. Da sich der Speichercontroller jetzt in der CPU befindet besteht eine direkte Verbindung von der CPU zum Arbeitsspeicher. Weiter wurde damit ebenfalls die Latenz bei Speicherzugriffen reduziert.
Die Kommunikation zu verbleibenden Teilen des Chipsatzes inkl. IGP geht von der CPU über HT.
Ganz optimal ist das natürlich auch nicht denn der IGP ist nun relativ weit weg vom Speichercontroller und an diesen per HT angebunden. Weiter führt das dazu das diverse Energiesparmodi nur umständlich zu realisiern sind (HT Link, Speichercontroller und Teile der CPU müssen aktiv bleiben). Unter anderem deshalb gibt es bei AMD den Sideport Speicher (der IGP verfügt selbst zusätzlich über einen kleinen dedizierten Speicher+Controller).
Bei einer kompletten Integration der GPU liegt diese wieder direkt am Speichercontroller was natürlich der Bandbreite, Latenz und den Möglichkeiten zur Energieeinsparung zu gute kommt.
Das ganze weiter gedacht bringt dann auch die Möglichkeit früher oder später Teile des CPU Caches mit der GPU anzusprechen und diese zu einem echten, integrierten Coprozessor zu erheben.
Zur Bandbreite, ein mit DDR3 2000 angebundener Speicher schafft bis zu 32GB/s. Im Vergleich dazu hat eine Radeon 5450 12.8GB/s. Selbst ein Phenom II X6 lässt sich mit DDR2 800 bei niedrigen Timings noch gut betrieben. Das sind aber nur 12.8GB/s. Für die GPU wäre also sogar deutlich mehr Bandbreite nutzbar als bei typischen LowEnd Lösungen.
Jake Dunn
2010-08-09, 15:27:09
beide GPU sind so ziemlich exakt gleich schnell +/-, wenn du nicht fähig bist das zu errechnen (wie die anderen kidis wo ich gar nicht drauf eingehe...) ist das dein Problem und nicht meins ;)
Das dumme für NV ist nur das sie mit dem GF104 in erster linie selber kokurenz machen... dumm gelaufen!
Ich liebe Apfel/Birne-Vergeiche, dicht gefolgt von Kraut/Rüben :)
derguru
2010-08-09, 15:27:52
:facepalm:
Vergleich mal die 5830 mit der 4890.
ach aus dem hafturlaub befreit,das war nur eine antwort auf durals super transi-vergleich.ich hätte da noch eins auf lager,
465 mit der 285gtx:freak:
Dural
2010-08-09, 15:30:24
Ich hab nie eine Grafikkarte sondern GPUs miteinder verglichen mein HELD!
DU kammst mit dem komplett bescheuertem Vergleich GTX285 vs GTX470...
halt dich einfach still wenn du nichts dazu beitragen kannst...
LovesuckZ
2010-08-09, 15:31:07
ach aus dem hafturlaub befreit,das war nur eine antwort auf durals super transi-vergleich.ich hätte da noch eins auf lager,
465 mit der 285gtx:freak:
:facepalm:
Ich finde der RV870 ist genüber seinem Vorgänger RV770/790 so wie so eine der schlechtesten GPUs die wir je gesehen haben, 125% mehr Transistoren bei lächerlichen 55% mehr Leistung WOW!
Und was bekommt er als Antwort:
och ist das so,mach mal den transistor/performance-vergleich von der 285gtx zur 470gtx
Du siehst, du bist der jenige, der mit seiner Trollantwort einfach nur mist geschrieben hat.
Gasti
2010-08-09, 15:33:41
Na zum Glück geht es viel schneller, wenn die GPU in Fusion sämtliche Daten durch denselben Bus wie die CPU zu quetschen hat während der Berechnung ;)
Und natürlich nutzt man die GPUs so, dass die Transferzeit über den PCIe nur einen ganz geringen Bruchteil der Rechenzeit beträgt.
Die Latenz ist auf jeden Fall wesentlich besser.
Die Zeit, die vergeht bis die Daten im globalen Speicher der Grafikkarte wir auf jeden Fall drastisch minimiert, da es der selbe ist.
Zum 2.: Eher so: Man nutzt die GPU nur wenn die Datenmengen sehr groß sind und man versucht so viel wie möglich auf der GPU zu rechnen (auch wenn manche Berechnungsteile sehr unperformant sind) weil die Kommunikation und der Datenaustausch über den PCI-Express Bus extrem lange dauert.
Verbesserte Kommunikationswege könnten sowohl die Performance bisheriger Berechnungen steigern, als Es auch ermöglichen mehr Berechnungen überhaupt auf der GPU zu erledigen.
Allerdings ist dafür noch kein Produkt angekündigt. Llano und Ontario sind ganz sicher nicht dafür ausgelegt und werden afaik auch keine Server Cpu Ableger haben.
Bucklew
2010-08-09, 15:36:56
Allerdings ist dafür noch kein Produkt angekündigt. Llano und Ontario sind ganz sicher nicht dafür ausgelegt und werden afaik auch keine Server Cpu Ableger haben.
Was denn jetzt? Klang hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8196066&postcount=330) noch ganz anders.
derguru
2010-08-09, 15:38:09
@Dural
du kommst mit sowas an,
Ich finde der RV870 ist genüber seinem Vorgänger RV770/790 so wie so eine der schlechtesten GPUs die wir je gesehen haben, 125% mehr Transistoren bei lächerlichen 55% mehr Leistung WOW!
schalt mal deine gehirnlappen an,also ob der vergleich bei nv nicht fast identisch wäre und das sogar mit architekturwechsel.(und vorallem woher die %?)
Gasti
2010-08-09, 15:39:54
Was denn jetzt? Klang hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8196066&postcount=330) noch ganz anders.
?
Ich hab nicht umsonst den Gastnamen etwas variert;)
Dural
2010-08-09, 15:47:08
@Dural
du kommst mit sowas an,
schalt mal deine gehirnlappen an,also ob der vergleich bei nv nicht fast identisch wäre und das sogar mit architekturwechsel.(und vorallem woher die %?)
GF100 ist 110% grösser als GT200 und 70-80% (512SP version ca.) schneller als dieser
RV870 ist 125% grösser als RV790 und 60% schneller als dieser
(alles ca. werte hab nichts ausgerechnet!)
Also noch mal wo hab ich den unrecht mit meiner Aussage?
Aber auch alles egal, das einzige was ich damit aussagen will das NV mit dem GF104 ziemlich gut aufgestellt ist gegen die RV870 Serie, als es früher noch um RV7xx und GT200 GPUs ging doch einiges besser...
das viel wichtiger ist aber wie der GF104 gegen den RV970 abschneidet!!!
derguru
2010-08-09, 15:56:45
Aber auch alles egal, das einzige was ich damit aussagen will das NV mit dem GF104 ziemlich gut aufgestellt ist gegen die RV870 Serie, als es früher noch um RV7xx und GT200 GPUs ging doch einiges besser...
das viel wichtiger ist aber wie der GF104 gegen den RV970 abschneidet!!!
dann schreib es gleich so,dann hätte es auch keine seite spam gegeben.:rolleyes:
es gibt noch keine 512sp also kannst du dir solche vergleiche sparen.
...
das viel wichtiger ist aber wie der GF104 gegen den RV970 abschneidet!!!
Schätze, da muß man kein Prophet sein...:|
LovesuckZ
2010-08-09, 16:16:05
es gibt noch keine 512sp also kannst du dir solche vergleiche sparen.
:facepalm:
Wenn eine GTX480 sich so ähnlich verhalte wie eine 5870 zur Vorgängergeneration, wo wird sich dann wohl eine 6,6% schnellere Karte einordnen? :rolleyes:
derguru
2010-08-09, 16:23:55
kennst du die taktraten einer 512er?nur bei einer shadererhöhung wird es wohl kaum bleiben wenn das das gegenstück zum si sein soll.
vielleicht wird es diesmal andersrum laufen das nv eine multigpu gegenüber stellt mit 2*GF104.X-D
aha da sind die taktraten,wenn man vom teufel spricht.:devil:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8196527&postcount=281
kennst du die taktraten einer 512er?nur bei einer shadererhöhung wird es wohl kaum bleiben wenn das das gegenstück zum si sein soll.
vielleicht wird es diesmal andersrum laufen das nv eine multigpu gegenüber stellt mit 2*GF104.X-D
aha da sind die taktraten,wenn man vom teufel spricht.:devil:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8196527&postcount=281
Hä? Wieso säuft die 512er im Vergleich zur 480SP Variante so viel mehr Strom?
OgrEGT
2010-08-09, 21:20:31
Hä? Wieso säuft die 512er im Vergleich zur 480SP Variante so viel mehr Strom?
512 vs 480 SP
800/1600/950MHz vs 700/1400/925MHz
Sofern die Taktraten stimmen...
Black-Scorpion
2010-08-09, 21:25:35
512 vs 480 SP
800/1600/950MHz vs 700/1400/925MHz
Sofern die Taktraten stimmen...
Das sollte aber auf keinen Fall über 200W unter Last für das Sys ausmachen.
Wenn der Screenshot im anderen Thread stimmt.
Selbst mit 1,2 Volt säuft eine aktuelle GTX 480 nicht annähernd 200 Watt mehr als mit Norm-Einstellungen.
MfG,
Raff
OgrEGT
2010-08-09, 21:27:30
Hmm...
Man müsste mal den Stromverbrauch der 480SP bei 800/1600 dagegenhalten.
derguru
2010-08-09, 21:30:54
512 vs 480 SP
800/1600/950MHz vs 700/1400/925MHz
Sofern die Taktraten stimmen...
die taktrate sollen identisch gewesen sein,also 480er takt.den stromverbrauch sollte man wohl nicht ernst nehmen.
PulsarS
2010-08-09, 21:33:44
die taktrate sollen identisch gewesen sein,also 480er takt.der stromverbrauch sollte man wohl nicht ernst nehmen.
Richtig.
Wenn jemand glaubt, dass man mehr als 400 Watt per Luftkühlung abführen kann, dann ist er auf dem Holzweg.
Zumindest nicht auf so kleinem Raum.
y33H@
2010-08-09, 21:35:07
Das ist ein ES, ganz einfach =) Und es ist OT ;)
OgrEGT
2010-08-09, 21:38:41
die taktrate sollen identisch gewesen sein,also 480er takt.den stromverbrauch sollte man wohl nicht ernst nehmen.
Na dann, jedenfalls stand beim Screenshot 800/1600/950.
Der Stromverbrauch selbst bei diesen Taktraten erscheint jedenfalls sehr fragwürdig.
Hier ein paar Werte von Hardwareluxx:
Furmark 1.8, 700/1400/1850MHz 0,975v >> 450W
Furmark 1.8, 825/1650/1900MHz 1,038v >> 482W
Furmark 1.8, 875/1750/1900MHz 1,088v >> 502W
Hier ein paar Werte von Hardwareluxx:
Furmark 1.8, 700/1400/1850MHz 0,975v >> 450W
Furmark 1.8, 825/1650/1900MHz 1,038v >> 482W
Furmark 1.8, 875/1750/1900MHz 1,088v >> 502W
Die Werte ergeben aber auch keinen Sinn. Eine Taktsteigerung von fast 30% sollte mit einer >10%iger Spannungserhöhung weit mehr als bloß 50W zusätzlich verbrauchen.
LuXon
2010-08-09, 21:47:42
die Vcore ist natürlich auch ein bisschen höher.
Under full load the GPU voltage of reference GTX 480 was 1.0V, while 512SP edition was 1.056V. Surprisingly, the full spec’ed GTX 480 sucked 644W power, which was 204W higher than 480SP GTX 480!
Das macht sicher auch etwas aus.
Hugo78
2010-08-09, 21:49:59
@Gast
Der Takt selber hat nur minimal Einfluss auf den Verbauch.
Die Spannung entscheidet.
Eine 480 mit 0,9V würde auch nicht mehr verbauchen als ne 280er.
Damit könnten wohl alle leben, mehr oder weniger.
Edit: der "Test" verschleiert nicht umsonst die Revision des Chips.
Imo stinkt das alles sehr nach Vorserienkarte oder schlicht Fake.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.