PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - "Southern Islands" GPUs (wohl 40 nm, 2010) - Northern Islands


Seiten : 1 2 3 4 5 [6] 7 8 9 10 11 12 13 14 15 16 17

dllfreak2001
2010-09-16, 10:58:52
mach dir lieber keine hoffnung,die af-blume ist einwandfrei und das reicht der marketingabteilung.

Das muss ja nichts heißen.

Gast
2010-09-16, 11:08:57
Bessere Filterquallität gibt es wohl erst, wenn die Texture-Caches mehr Bandbreite haben, ansonsten hat man bei gleichwertiger Filterung zu Nvidia HQ wohl einen deutlichen Nachteil bei der praktischen Füllrate:
http://techreport.com/r.x/geforce-gtx-460/rm3d-aniso.gif
http://techreport.com/articles.x/19242/6

Insofern ist der Aufwand wohl momentan einfach zu groß für ein solches "Freak-Feature", vor allem da die meisten User mit der Qualität zufrieden sein werden. Gegenüber einem viel verbauten Intel GMA ist es ja immernoch ein Unterschied von Welten.
Es bleibt wohl nur die Hoffnung, dass ein paar entscheidungsbevollmächtigte Ingenieure bei AMD es versuchen hier eine Besserung herbeizuführen. So war es auch Eric Demers (R600-Projektleiter), der sich persönlich unzufrieden über den Rückschritt gegenüber R5xx zeigte.

Gast
2010-09-16, 13:12:45
Ich weiss die Antworten zu diesen Fragen zwar nicht selber, aber es "muss" in diesem Fall gar nichts. Unter dieser Logik "muesste" auch GF104 nur 32SPs/SM haben.

Bei der Fermi Architektur sind aber grundsätzlich 16 Shader an einem Sheduler gebunden. Je nachdem wieviel Tesselationleistung oda anderer Specialfunctionskram benötigt wird, macht man dann entweder ein kleineres Cluster mit 2 Shedulern und 32Shadern (GF100) oder ein größeres mit 3Shedulern (GF104), wobei beide cluster gleich viele SFU-Units haben.
Das ändert aber nichts an der Wavefrontsize.

20Shader pro Cluster würden eine Wavefrontsize von 80 bedeuten.
Ich halte die Folie eher für ein schlechtes Fake.
Im Treiber stand außerdem (laut einigen Posts hier) dass die t-Unit wegfällt, was nach der Folie eben jene 20er Cluster bedeuten würde.
Wenn man mich fragt alles völliger Schwachsinn aber machbar wäre es theoretisch

Ailuros
2010-09-16, 13:53:25
An einen fake wuerde ich auch gerne denken wenn ich nicht jemand in einem anderen Forum getroffen haette der darueber meckert dass jemand das NDA gebrochen hat und das Zeug nach aussen geleakt hat. Ich kenne ihn zwar nicht persoenlich aber ich weiss mit Sicherheit dass er bei einem Hersteller beschaeftigt ist.

V2.0
2010-09-16, 14:06:55
In der Gerüchteküche sind auch noch viel Infos von Southern Islands und Northern Islands vermischt. Der Entfall von 32nm und die lange Zeit bis 28nm ging auch an ATI nicht spurlos vorbei.

Ailuros
2010-09-16, 14:22:03
In der Gerüchteküche sind auch noch viel Infos von Southern Islands und Northern Islands vermischt. Der Entfall von 32nm und die lange Zeit bis 28nm ging auch an ATI nicht spurlos vorbei.

Mal die Anzahl an TMUs zur Seite, selbst mit 5D hat 68x0 durchaus gute Chancen irgendwo um die 25% schneller zu sein als Cypress.

V2.0
2010-09-16, 15:29:32
:deal: Ich habe nichts zur Performance gesagt.

Ailuros
2010-09-16, 16:20:21
:deal: Ich habe nichts zur Performance gesagt.

Schon. Nur ist es die wichtigste Einzelheit ueberhaupt rund um NI :P

Nakai
2010-09-16, 17:46:45
Also wenn die Folie stimmt, dann gibts nur zwei Möglichkeiten:

- 5D VLIW bei Barts.

- 20er SIMDs bei 4 VLIW-Einheiten, also 80 Threads Wavefrontsize.

Interessant ist die "Cypress-Dual-Engine-Architecture". Sieht für mich eher nach Cypress, mit deutlich wenigern Einheiten, aus. Also Cypress-light.
Komisch ist, dass man nicht auf ein verbessertes FrontEnd eingeht. Es steht nur da, dass man auf die Basis der "Cypress-Dual-Engine, Architecure" aufbaut.
Wäre das FrontEnd deutlich stärker, dann würde man das erwähnen, was deutlich gegen die derzeitigen Gerüchte geht.

Also wenn die Folie kein Fake ist, dann handelt es sich hier eher um einen Abklatsch mit 5D-VLIW-Einheiten mit leichten Verbesserungen.:rolleyes:


mfg

Black-Scorpion
2010-09-16, 17:53:57
Seit wann gibt es nur eine Folie? Nur weil es eine ist, heißt es noch lange nicht das es nur eine gibt. Immer unter der Vorrausetzung das es kein Fake ist.

Gast
2010-09-16, 19:04:10
http://www.sweclockers.com/nyhet/12713-fler-detaljer-om-radeon-hd-6850

Hier werden Barts Pro 1120 Shader attestiert.

Könnten auch dort wieder 4Slot oder 5Slot Shader sein.

Hugo78
2010-09-16, 19:22:46
http://www.sweclockers.com/nyhet/12713-fler-detaljer-om-radeon-hd-6850

Hier werden Barts Pro 1120 Shader attestiert.

In form einer 6850... das stimmt doch vorn und hinten nicht.

Gast
2010-09-16, 19:25:06
In form einer 6850... das stimmt doch vorn und hinten nicht.

naja gab ja ma, von ati forum verursacht, diese gerüchte, dass ati die umgelabelt hat; also hd 6700 zu 6800 und 6800 zu 6900.

Ich glaube daran ja eher nicht aber wenn dem so sein sollte, würde die Folie zumindest diesbezüglich Sinn machen

Sorkalm
2010-09-16, 19:38:15
http://www.sweclockers.com/nyhet/12713-fler-detaljer-om-radeon-hd-6850

Halte ich für realistischer, weil zunächst unlogischer, als die alte Folie über Barts...

Hugo78
2010-09-16, 20:00:56
naja gab ja ma, von ati forum verursacht, diese gerüchte, dass ati die umgelabelt hat; also hd 6700 zu 6800 und 6800 zu 6900.

Ich glaube daran ja eher nicht aber wenn dem so sein sollte, würde die Folie zumindest diesbezüglich Sinn machen

Also ich glaub ja, dass dieses umlabeln, eine gezielte Falschmeldung ist.
Das Ganze ist einfach sinnlos ...

Nur ein Beispiel.
Eine 5850 ist schneller als ne 460.
Würde die Meldung stimmen, dann wäre eine 6850 plötzlich grad mal so schnell, eventuell sogar langsamer als ne 460.
Das die Caymans dann als 6950 verkauft werden, rettet AMD dann auch nicht vor dem Tränenmeer der Leute die von Täuschung ect. jammern werden.

Sowas tut man sich doch nicht sehenden Auges an.

OgrEGT
2010-09-16, 20:13:03
Aus dem Beyond3D Forum http://forum.beyond3d.com/showthread.php?t=55313&page=78):

This italian site got hold of one HD68x0/Cayman for few minutes.. they are saying that in size it's really close to the 5870, they confirm the 8 GDDR5 module, the 8+6 pins and 4 display output (2 DP, 1 HDMI, 1 DVI)..

http://www.hwupgrade.it/news/skvideo...ani_33764.html

OgrEGT
2010-09-16, 20:23:46
http://forum.beyond3d.com/showpost.php?p=1472937&postcount=1949

Auch interessant...

Ups. Wurde schon gepostet :)

Sofern die 98.5% und 4D Spekulationen stimmen, käme eine Barts Pro immerhin auf ca 89% Shaderpower als Cypress 1600. Bei gleichem SI wäre die Bezeichnung 6850 durchaus angemessen, da auf 5870 Niveau (http://www.computerbase.de/artikel/grafikkarten/2010/test-nvidia-geforce-gtx-460/20/#abschnitt_performancerating_mit_aaaf).

Gipsel
2010-09-16, 21:01:14
Also wenn die Folie stimmt, dann gibts nur zwei Möglichkeiten:

- 5D VLIW bei Barts.

- 20er SIMDs bei 4 VLIW-Einheiten, also 80 Threads Wavefrontsize.
Nö. ATI könnte auch die Wavefrontgröße auf 32 verkleinern, also 8er SIMDs wie bei den ganz kleinen Karten verbauen (HD 4670 war bisher die größte mit diesem Aufbau). Dazu dann aber nur jeweils 2 TMUs pro SIMD (denen aber die volle L1-Bandbreite zur Verfügung steht, dann gibt es auch keinen Grund mehr für Sparfilter).

Wäre aber eine recht aufwendige Lösung (aber mit einer weiteren Effizienzsteigerung gegenüber 64er Wavefronts), so daß ich daran nicht so recht glaube.

800 SPs => 25 SIMDs mit je 8 Vierer-VLIWs
960 SPs => 30 SIMDs
1120 SPs => 35 SIMDs
1280 SPs => 40 SIMDs

Damit läßt sich also die volle Bandbreite aller bisherigen Gerüchte abdecken ;)
Interessant ist die "Cypress-Dual-Engine-Architecture".
Heißt wohl nur, daß man ebenfalls einen doppelten Rasterizer mit insgesamt 32 Pixel/Takt hat.

Coda
2010-09-16, 21:04:13
Dazu dann aber nur jeweils 2 TMUs pro SIMD
Sehr unwahrscheinlich. Quad TMUs sind eigentlich der Standard, weil man immer auf Quad-Basis rendert und auch so die Gradienten berechnet. Mit zwei TMUs müsste man loopen und die Latenz erhöhen.

Gast
2010-09-16, 21:05:31
Nö. ATI könnte auch die Wavefrontgröße auf 32 verkleinern, also 8er SIMDs wie bei den ganz kleinen Karten verbauen (HD 4670 war bisher die größte mit diesem Aufbau). Dazu dann aber nur jeweils 2 TMUs pro SIMD (denen aber die volle L1-Bandbreite zur Verfügung steht, dann gibt es auch keinen Grund mehr für Sparfilter).

Wäre aber eine recht aufwendige Lösung (aber mit einer weiteren Effizienzsteigerung gegenüber 64er Wavefronts), so daß ich daran nicht so recht glaube.

800 SPs => 25 SIMDs mit je 8 Vierer-VLIWs
960 SPs => 30 SIMDs
1120 SPs => 35 SIMDs
1280 SPs => 40 SIMDs

Damit läßt sich also die volle Bandbreite aller bisherigen Gerüchte abdecken ;)

Heißt wohl nur, daß man ebenfalls einen doppelten Rasterizer mit insgesamt 32 Pixel/Takt hat.

Auf der Folie steht aber eindeutig 960SPs bei 48 TMUs und 12 SIMDs. Eine SIMD also mit 4 TMUs / 80 ALUs.

Gast
2010-09-16, 21:07:40
Sehr unwahrscheinlich. Quad TMUs sind eigentlich der Standard, weil man immer auf Quad-Basis rendert und auch so die Gradienten berechnet. Mit zwei TMUs müsste man loopen und die Latenz erhöhen.

Hallo Coda, du hast weiter vorher gesagt das SIMDs mit 80SPs nicht möglich sind, sondern nur Zweierpotenzen. ALso kann die Folie nicht stimmen?

deekey777
2010-09-16, 21:34:17
Hallo Coda, du hast weiter vorher gesagt das SIMDs mit 80SPs nicht möglich sind, sondern nur Zweierpotenzen. ALso kann die Folie nicht stimmen?
Natürlich sind 80 SPs möglich, das ist doch seit dem R600 der Fall. 80/5 = 16 VLIW-Dings (= SIMD). Da die Wavefrontgröße 64 beträgt, wird eine Wavefront viermal durch ein SIMD gejagt.

Was aber nicht möglich ist: 80/4 = 20.

Gipsel
2010-09-16, 22:30:03
Quad TMUs sind eigentlich der Standard, weil man immer auf Quad-Basis rendert und auch so die Gradienten berechnet.Ich weiß.Mit zwei TMUs müsste man loopen und die Latenz erhöhen.
Nein, nicht wirklich.
Bisher (mit 64er Wavefronts) dauert das Filtern
Cache/Speicherzugriffslatenz (ganz grob ~200 Takte) + Gradientenberechnungs- / Filterlatenz (für ein einziges Quad) + 15 (da voll gepipelined und danach jeden Takt ein fertig gefiltertes Quad hinten rausfällt, zumndest bei bilinear, ab trilinear limitiert sowieso die Cachebandbreite)

Mit 32er Wavefronts aber nur 2 TMUs wäre es
Cache/Speicherzugriffslatenz (ganz grob ~200 Takte) + Gradientenberechnungs- / Filterlatenz (für ein halbes Quad) + 15 (da voll gepipelined und danach jeden Takt ein halbes fertig gefiltertes Quad hinten rausfällt.

Der zweite Fall unterscheidet sich also lediglich dadurch, daß bei Quad-TMUs die Gradientenberechnung jeden Takt (für jeweils ein neues Quad) durchgeführt wird, bei Dual-TMUs aber nur jeden zweiten Takt. Eine Wavefront rechnet ja erst weiter, wenn alle Quads darin von den TMUs beliefert wurden (SIMD!). Die Latenz bleibt also praktisch identisch, der Durchsatz pro Einheit übrigens auch. Der Transistor-Aufwand steigt natürlich, insbesondere wenn man die Cache-Bandbreie nicht halbiert, um schnelles und dabei schöneres Filtern zu ermöglichen (die paar zusätzlichen Interpolatoren fallen dagegen kaum ins Gewicht).

Außerdem verursachen kleinere SIMD-Engines natürlich auch mehr Aufwand im Scheduler. Insgesamt habe ich die Wahrscheinlichkeit nicht umsonst als nicht hoch eingeschätzt.

Gast
2010-09-16, 22:33:31
http://www.sweclockers.com/nyhet/12713-fler-detaljer-om-radeon-hd-6850

Hier werden Barts Pro 1120 Shader attestiert.

Könnten auch dort wieder 4Slot oder 5Slot Shader sein.
Der Link ist wohl mittlerweile tot. Ob das nun die Daten glaubwürdiger macht, ist eine andere Frage.

MR2
2010-09-16, 23:05:30
vrzone hats abgeschrieben:
http://vr-zone.com/articles/-rumour-radeon-hd-6850-on-october-18th-is-barts-pro-/9861.html

Gast
2010-09-16, 23:44:45
Was an der 960 Shader Meldung noch ganz interessant ist, ist der Hinweis auf Cypress-Dual-Engine-Architecture.
Barts hätte dann 2 Blöcke mit je 12 SIMDs, also auch 2 Rasterizer.
Cayman hätte dann sogar 4 solcher Blöcke. Wenn Ati es schafft, die 4 Rasterizer weitgehend unabhängig voneinander arbeiten zu lassen, sodass alle unabhaängig Dreiecke generieren können ( bei Cypress war das soweit ich das verstanden habe so nicht möglich oder nur bis zu einer bestimmten Größe), würde sich die Tesselationleistung im Vergleich zu Cypress vervierfachen, was ja schonmal was wäre.
Unter diesem Aspekt macht die Meldung also am meisten Sinn.

Gast
2010-09-16, 23:53:34
Wenn die Folie von gestern über die Barts-Abkömmlinge stimmt, stellt sich auch die Frage wie die Cayman-GPUs aufgebaut sein werden. Ist eine schlichte Verdopplung (bei gleichem SI) überhaupt realistisch? 64 ROPs? Zumindest brauchen die Karten laut dieser italienischen Quelle zumindest mal einen 6- und einen 8-Pin-Anschluss...

Gast
2010-09-16, 23:59:26
die HD6870 wird sowieso schneller & besser als eine GTX480

Ailuros
2010-09-17, 09:48:21
Wenn die Folie von gestern über die Barts-Abkömmlinge stimmt, stellt sich auch die Frage wie die Cayman-GPUs aufgebaut sein werden. Ist eine schlichte Verdopplung (bei gleichem SI) überhaupt realistisch? 64 ROPs? Zumindest brauchen die Karten laut dieser italienischen Quelle zumindest mal einen 6- und einen 8-Pin-Anschluss...

Es werden wohl auch bei Cayman 32 ROPs sein.

john carmack
2010-09-17, 14:40:04
Also ich glaub ja, dass dieses umlabeln, eine gezielte Falschmeldung ist.
Das Ganze ist einfach sinnlos ...

Nur ein Beispiel.
Eine 5850 ist schneller als ne 460.
Würde die Meldung stimmen, dann wäre eine 6850 plötzlich grad mal so schnell, eventuell sogar langsamer als ne 460.
Das die Caymans dann als 6950 verkauft werden, rettet AMD dann auch nicht vor dem Tränenmeer der Leute die von Täuschung ect. jammern werden.

Sowas tut man sich doch nicht sehenden Auges an.


Vielleicht bezieht sich das umlabeln auf des 256Bit SI des Barts...
Das ist aber auch das einzigste was ich mir vorstellen kann.

MR2
2010-09-17, 21:02:21
http://www.techradar.com/news/computing-components/graphics-cards/amd-to-release-next-gen-graphics-pre-christmas-717388

"Hoff was also happy to speak about it's upcoming new range of DirectX 11 graphics cards. "It's certainly more than changing a sticker," he said with a grin. "I wouldn't say it's an absolute, complete from the ground up new architecture .It's a nice, different architecture."

Nakai
2010-09-18, 15:09:50
Northern Islands shader is 98.5% as efficient per clock but they can fit 25% more in the same space.

Stand mal auf Anandtech.

Also bei der gleichen Anzahl an Shadern, wäre NI ungefähr noch 23% schneller als ein RV8xx-Derivat. Zusätzlich würde der NI-Chip bei 64 SPs in einem SIMD noch 25% mehr TMUs besitzen.

Bei 1920 SPs sind das ungefähr 50% mehr Leistung. Das macht Lust auf mehr. Wenn sich das bewahrheitet, dann war der RV870 ein Chip mit verdammt viel Renundanz. Gerüchte, dass ein RV970 nur etwas größer ist, unterstützen dies.


mfg

Gast
2010-09-18, 15:45:31
du meinst wohl nicht bei gleicher anzahl, sondern bei gleicher fläche, oder?

Gast
2010-09-18, 15:56:54
Also 50 prozent mehrleistung bei minimal hoherem stromverbrauch ware echt ne super gamerkarte. Hoffentlich kriegen sie den lufter im idle noch nen tick leiser und verbauen mal einen lufter der nach einem monat nicht anfangt zu klackern. Hoffe das problem ist bei ati/amd angekommen.

The_Silent_One
2010-09-18, 16:26:40
du meinst wohl nicht bei gleicher anzahl, sondern bei gleicher fläche, oder?
Es geht schon um die gleiche Anzahl. Damit ist der Umstieg von 5D auf 4D Einheiten gemeint. Die 4D-Einheiten sollen nur 1,5% langsamer sein als die 5D-Einheiten. Bei gleicher Gesamtzahl der Shader wie zuvor, hätte man mehr Leistung.

Gast
2010-09-18, 17:23:28
Abwarten was das Design auf die Straße bringt, wenn AMD wusste das 5D Einheiten mit 4D Einheiten ersetzt werden können bei 1,5% Verlust nur pro Einheit, warum hat man es dann nicht schon früher getan. Sicher gibt es da den ein oder anderen Hacken.

Psychopat
2010-09-18, 20:55:00
Ich glaube das ist mehr Evolution als das da ein Haken wäre. Das mit den "nur 1.5% langsamer" hängt vom code ab der darauf läuft. Als das 5D Design entworfen wurde, musste man vorhersagen was 3-4 Jahre später an code darauf laufen wird. Das man bei einer solchen Zeitspanne da dann auch mal daneben liegen kann ist wohl klar. Mittlerweile kennt man die Vorlieben der Programmierer und weiß nun, dass es 4D shader auch tun.

][immy
2010-09-18, 21:39:51
Ich glaube das ist mehr Evolution als das da ein Haken wäre. Das mit den "nur 1.5% langsamer" hängt vom code ab der darauf läuft. Als das 5D Design entworfen wurde, musste man vorhersagen was 3-4 Jahre später an code darauf laufen wird. Das man bei einer solchen Zeitspanne da dann auch mal daneben liegen kann ist wohl klar. Mittlerweile kennt man die Vorlieben der Programmierer und weiß nun, dass es 4D shader auch tun.

das könnte auch der grund seit, warum ati jede menge rechenkraft hat (theoretisch) diese aber nicht richtig ausgenutzt werden kann.
fragt sich nur in wie weit der stromverbrauch steigt, wenn die shader plötzlich tatsächlich ausgelastet sein sollten .. schließlich dürfte sich bei 5d shadern so wie sich das anhört eine einheit fast immer gelangweilt haben.

y33H@
2010-09-18, 23:22:22
*hust* Furmark-Throtteling*

Die HD4k und HD5k haben im Profi-Segment sicher nicht umsonst höhere TDPs, da hier die Auslastung wohl besser ist.

Gast
2010-09-19, 00:04:53
Nunja, ich will hier keine Mega-Diskussion vom Zaun brechen, aber FurMark ist nunmal wirklich nicht die Referenz und sowohl AMD als auch nVidia sprengen hier die TDP, die mit dem tatsächlichen Verbrauch ja eh nicht gemein haben, teilweise deutlich.
(Ja, sind ältere Modelle nur, aber bei aktuellen genauso der Fall)
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index14.php
GTX480:
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index15.php
Verbrauch: 318 Watt, TDP: 250 Watt

Ergo: Pustekuchen auf FurMark.

Gast
2010-09-19, 11:02:50
Nunja, ich will hier keine Mega-Diskussion vom Zaun brechen, aber FurMark ist nunmal wirklich nicht die Referenz und sowohl AMD als auch nVidia sprengen hier die TDP, die mit dem tatsächlichen Verbrauch ja eh nicht gemein haben, teilweise deutlich.
(Ja, sind ältere Modelle nur, aber bei aktuellen genauso der Fall)
http://ht4u.net/reviews/2009/leistungsaufnahme_graka/index14.php
GTX480:
http://ht4u.net/reviews/2010/nvidia_geforce_gtx_480/index15.php
Verbrauch: 318 Watt, TDP: 250 Watt

Ergo: Pustekuchen auf FurMark.

Nein! Die HD5870 werden beim Furmark gebremst:

http://www.xbitlabs.com/articles/video/display/radeon-hd5870_7.html

http://www.pcgameshardware.com/aid,695689/radeon-hd-5870-review-of-the-first-directx-11-graphics-card/reviews/?page=3

max. 186 Watt im Furmark

Schlammsau
2010-09-19, 11:08:15
Nein! Die HD5870 werden beim Furmark gebremst:

http://www.xbitlabs.com/articles/video/display/radeon-hd5870_7.html

http://www.pcgameshardware.com/aid,695689/radeon-hd-5870-review-of-the-first-directx-11-graphics-card/reviews/?page=3

max. 186 Watt im Furmark

Genauso wie die GTX400 Serie! ;)

Was aber scheiss egal ist, weil der reale Lastverbrauch, nicht mal in die nähe des Furmark Verbrauchs kommt.

Gast
2010-09-19, 11:35:47
*hust* Furmark-Throtteling*

Die HD4k und HD5k haben im Profi-Segment sicher nicht umsonst höhere TDPs, da hier die Auslastung wohl besser ist.

LOL; war so klar das der NV-Fanboy vom Dienst gleich wieder herum flamed. AMD gibt im Profi-Markt nur sehr ungenau <225W an. Zwischen den TDP-Angaben im Consumer-Markt und dem im Profi-Markt liegen bei NV hingegen Welten. ;)

Gipsel
2010-09-19, 12:09:42
Nein! Die HD5870 werden beim Furmark gebremst:

http://www.xbitlabs.com/articles/video/display/radeon-hd5870_7.html

http://www.pcgameshardware.com/aid,695689/radeon-hd-5870-review-of-the-first-directx-11-graphics-card/reviews/?page=3

max. 186 Watt im Furmark
In Deinen Links steht dummerweise kein einziges Wort davon, daß die HD5000er bei Furmark eingebremst werden und die gemessenen 161W bzw. 186W der HD5870 bei Furmark noch nicht das mit Hausmitteln erreichbare Maximum darstellen (in Spielen wird ja wohl eher nicht die Leistung zurückgefahren und da liegt der Verbrauch doch deutlich niedriger). Wenn Du einen Beweis für den von Dir behaupteten Fakt des Throttling findest, poste ihn bitte. Ich wäre daran sehr interessiert.

Schlammsau
2010-09-19, 12:16:00
LOL; war so klar das der NV-Fanboy vom Dienst gleich wieder herum flamed. AMD gibt im Profi-Markt nur sehr ungenau <225W an. Zwischen den TDP-Angaben im Consumer-Markt und dem im Profi-Markt liegen bei NV hingegen Welten. ;)

Ist doch bei den GeForces auch nicht anders oder?

In Deinen Links steht dummerweise kein einziges Wort davon, daß die HD5000er bei Furmark eingebremst werden und die gemessenen 161W bzw. 186W der HD5870 bei Furmark noch nicht das mit Hausmitteln erreichbare Maximum darstellen (in Spielen wird ja wohl eher nicht die Leistung zurückgefahren und da liegt der Verbrauch doch deutlich niedriger). Wenn Du einen Beweis für den von Dir behaupteten Fakt des Throttling findest, poste ihn bitte. Ich wäre daran sehr interessiert.
Es gibt keine "Beweise" und auch wenn es welche geben sollte.....vollkommen irrelevant!
Interessiert nicht die Bohne, weil die FURMarkwerte absolut fern jedweder Realität sind.
Dieses Gerücht hält sich schon seit Jahren hartnäckig und schon seit Jahren wird von bestimmten Personen der Finger erhoben.
"Was ist wenn, die Auslastung doch mal das Niveau erreicht." Seit Jahren die gleiche Leier, aber es ist nichts passiert.
Es gibt nach wie vor noch eine riesige Differenz zwischen dem Lastverbrauch von FURMark, und dem Verbrauch bei Spielen.
Bei meiner overvolteten 5850 sinds zB. über 100Watt. :freak:

Gast
2010-09-19, 13:19:13
In Deinen Links steht dummerweise kein einziges Wort davon, daß die HD5000er bei Furmark eingebremst werden ....... Ich wäre daran sehr interessiert.

Reicht dir das:

http://www.geeks3d.com/20090925/ati-cypress-radeon-hd-5870-cards-have-hardware-protection-against-power-virus-like-furmark-and-occt/

+

Vergleiche einmal die Furmark-Verbrauchswerte der HD4890 mit der HD5870 in dem PCGamesHardware-Link; jeweils im Vergleich zu ihren TDP-Werten.

Gast
2010-09-19, 13:21:16
Reicht dir das:
.

und das:

http://www.anandtech.com/show/2841/26

john carmack
2010-09-19, 15:46:37
Hallo,

kann mir mal jemand sagen (nur mal angenommen der 3D Mark Benchmark stimmt) um wieviel schneller die 6870 zur 480 sein wird?

boxleitnerb
2010-09-19, 16:03:32
Zwei Zahlen vergleichen wirst du doch wohl auch selbst können, oder? :rolleyes:

Abgesehen davon sagt das alleine nicht so arg viel aus. Sollte aber auch klar sein.

Gipsel
2010-09-19, 17:12:22
Reicht dir das:

http://www.geeks3d.com/20090925/ati-cypress-radeon-hd-5870-cards-have-hardware-protection-against-power-virus-like-furmark-and-occt/
und das:

http://www.anandtech.com/show/2841/26
Nein, das reicht nicht. Am besten liest Du Dir das mal selber durch!
Was stimmt, ist daß die HD5000er einen wirksamen Schutz gegen Überlast haben. Sobald die VRMs (die übrigens auf den Cypress-Karten erheblich besser als auf HD4800ern gekühlt werden) nicht genügend Strom liefern können (oder auch die GPU überhitzt), wird zuerst clock gating bzw. eine Reduzierung des Taktes eingesetzt. FurMark an sich wird laut Aussage von AMD für die HD5000er nicht gethrottelt. Auch Dein Anandtech-Link sagt:
As we stated in our look at Cypress’ power capabilities, OCCT is being actively throttled by AMD’s drivers on the 4000 and 3000 series hardware. So while this is the largest load we can generate on those cards, it’s not quite the largest load they could ever experience. For the 5000 series, any throttling would be done by the GPU’s own sensors, and only if the VRMs start to overload.
Aber werden die VRMs überhaupt überlastet? Wenn ja, müßte sich bei Änderung von Spannung bzw. der Kühlung ja andere Punkte ergeben, ab denen "abgeregelt" wird, sprich, die Geschwindigkeit einer Karte unter Furmark würde davon abhängen (bzw. es Unterschiede zwischen verschiedenen Karten geben). Tut es meines Wissens aber nicht. Ergo sind die VRMs der HD5800er großzügiger dimensioniert (und gekühlt), so daß dieser Schutzmechanismus im Normalfall gar nicht zum Tragen kommt.

Meine Frage nach Beweisen für so ein Throttling war ja durchaus ernst gemeint. Ich habe nämlich noch keine gesehen (habe mich dafür aber auch nur am Rande interessiert).

Vergleiche einmal die Furmark-Verbrauchswerte der HD4890 mit der HD5870 in dem PCGamesHardware-Link; jeweils im Vergleich zu ihren TDP-Werten.
Ja und? Für mich heißt das jetzt erstmal nur, daß AMD mit den HD5000ern versucht, die TDP-Werte zur Abwechslung mal einzuhalten und sie sich etwas mehr Mühe gegeben haben, den Stromverbrauch im Rahmen zu halten.

Gast
2010-09-20, 15:38:16
Gerüchte aus Asien:http://we.pcinlife.com/thread-1516392-1-1.html
HD 6970: eine GPU, 1,3x5870, ~$570
HD 6870: eine GPU, 0,9x5870, ~$300

Ailuros
2010-09-20, 15:51:21
Gerüchte aus Asien:http://we.pcinlife.com/thread-1516392-1-1.html
HD 6970: eine GPU, 1,3x5870, ~$570
HD 6870: eine GPU, 0,9x5870, ~$300

Ergo gar keine mGPU Variante? Interessant wenn's stimmt.

DrFreaK666
2010-09-20, 15:52:22
Wenn die 6870 wirklich langsamer ist wie die 5870, dann ist die Namensgebung (no)

Ailuros
2010-09-20, 15:58:18
Wenn die 6870 wirklich langsamer ist wie die 5870, dann ist die Namensgebung (no)

Stoert mich kein bisschen; wohl eher der Preis falls der stimmen sollte.

Nakai
2010-09-20, 16:06:03
HD 6970: eine GPU, 1,3x5870, ~$570
HD 6870: eine GPU, 0,9x5870, ~$300

Unten steht noch was von einer HD 6990 für 5000 Yuán, was um die 570€(742$) sind.

HD6970 -> 430€130%
HD6950 -> 340€ 110%

HD6870 -> 227€ 90%
HD6850 -> 192€ 70%

mfg

€: Also in Euro wirken die Preise schon etwas humaner.^^

Gast
2010-09-20, 16:09:37
Fragt sich nur mit oder ohne Steuern.

maximus_hertus
2010-09-20, 17:02:13
Das wäre ja noch schlechter als die pessimistischen Prognosen (meinerseits). +30% für 570$ bzw. rund 500+ Euro...

Kann ich so kaum glauben, auch dass die 6870 langsamer sein soll als die 5870. Das macht keinen Sinn, bzw. würde Marketing-technisch eher negativ denn positiv auffallen. Auf der anderen Seite ist es AMD, die Anti-Marketing-Firma. Dennoch, ich lege mich fest: Eine 6870 wird schneller sein als die 5870. Alles andere ist Selbstmord.

Leonidas
2010-09-20, 17:07:44
China hat 17% MwSt., ich gehe davon aus, daß die üblicherweise genannten Preise diese MwSt. immer mit enthalten - im Gegensatz zu den USA, wo die Preisnennung ohne MwSt. wegen der differierenden Sätze der einzelnen Bundesstaaten üblich ist.

Gast
2010-09-20, 17:14:05
Das wäre ja noch schlechter als die pessimistischen Prognosen (meinerseits). +30% für 570$ bzw. rund 500+ Euro...

Kann ich so kaum glauben, auch dass die 6870 langsamer sein soll als die 5870. Das macht keinen Sinn, bzw. würde Marketing-technisch eher negativ denn positiv auffallen. Auf der anderen Seite ist es AMD, die Anti-Marketing-Firma. Dennoch, ich lege mich fest: Eine 6870 wird schneller sein als die 5870. Alles andere ist Selbstmord.

Was ist daran bitte "Selbstmord"? Das gab es schon derart oft von beiden Herstellern, keine Ahnung was du hast. Wenn Cayman, also der Cypress-Nachfolger jetzt zur 6900 wird ist es nur logisch das die 6800 nicht so schnell wird wie die 5800.

Sorkalm
2010-09-20, 17:33:05
Bei den Performanceangaben da ist Barts anscheinend wirklich die HD 6800. Wer auch immer sich das ausgedacht hat.

mironicus
2010-09-20, 18:05:32
Abwarten, abwarten... :)

maximus_hertus
2010-09-20, 18:40:47
Was ist daran bitte "Selbstmord"? Das gab es schon derart oft von beiden Herstellern, keine Ahnung was du hast. Wenn Cayman, also der Cypress-Nachfolger jetzt zur 6900 wird ist es nur logisch das die 6800 nicht so schnell wird wie die 5800.

Wann war eine (x+1)800 langsamer als eine x800? 9800<x800<x1800<hd2900<3870<4870<5870>6870.... das passt nicht.

Selbstmord in dem Sinne, dass die 68er eher Retail-Karten sind und eine 68er, die gerade so eben die 470 schlägt (minus PhysX, 3D, "perfektes"-AF, twimtbp, ich selber sehe für mich noch kein muss bei den Features), wäre es wohl sehr schwer, dies als Erfolg zu vermarkten.

aylano
2010-09-20, 19:07:43
Wann war eine (x+1)800 langsamer als eine x800? 9800<x800<x1800<hd2900<3870<4870<5870>6870.... das passt nicht.

Das passt schön: Ein schöner 3/4-Takt
9800<x800<x1800<HD2900<3870<4870<5870<HD6970


Selbstmord wäre das nicht, aber einige wären nicht erfreut, wenn AMD das Nummern-Schema wieder ändert.
Man muss sich jetzt die Frage stellen, warum sollte AMD das Nummernschema bzw. Preis/Leistung in Kürze ändern alias HD 6970 statt HD 6870?

Gast
2010-09-20, 19:21:01
Der Grund liegt wahrscheinlich darin, dass sie Juniper gerne weiterhin nutzen möchten. Insgesamt scheint sich obiges Gerücht mit der geleakten Folie zu decken.

Nakai
2010-09-20, 19:27:47
Also ich spekulier mal auf die Daten und derzeitigen Gerüchte mal etwas rum.

HD69xx basiert auf Cayman:
HD6990(falls es die gibt?!) hat 480 4D-Einheiten(1920SPs) bei 850 MHz Coretakt.
Damit würde man ungefähre 50% schneller sein, eher etwas weniger, da die 4D-Einheiten nicht ganz an die 5D-Einheiten rankommen. Also eher um die 145% von einer HD5870.

HD6970 hat dann einen geringeren Takt von etwa 725MHz, aber immer noch Vollausbau.

HD6950 hat einen gleichen Takt wie die HD6970, aber weniger aktive Einheiten. Zwischen 1600 und 1728SPs wär da alles drin.

HD68xx basiert auf Barts:
320 4D-Einheiten, was 1280SPs macht. Da die 4D-Einheiten kaum langsamer als 5D-Einheiten sind, ist diese Annahme sogar ziemlich wahrscheinlich.

HD6870 hätte dann 80TMUs und 1280SPs bei 850MHz.

HD6850 könnte bei 725Mhz und 1152 SPs liegen.


Die auch erwähnte HD6770 wird wohl nur einen Cluster haben.
Also 640SPs(160 4D-Einheiten) und 40 TMUs haben. Damit kommt man ziemlich genau auf die 50% der HD5870.


Wenn man sich das mal auf sich wirken lässt, dann bin ich schon etwas enttäuscht. NV hat auf Basis des G104 schon deutlich bessere Karten.


mfg

horn 12
2010-09-20, 22:17:33
Nun, also eher enttäuschend die HD 6x00-er Serie würdest Du behaupten falls es der Wahrheit entspricht.

Hoffe dies ist nur Fehlinformation, ansonsten behalte ich meine HD5850 @850/1200 und bin sonit auch auf fast HD5870-er Niveau.

Fetza
2010-09-21, 02:20:22
Wenn man sich das mal auf sich wirken lässt, dann bin ich schon etwas enttäuscht. NV hat auf Basis des G104 schon deutlich bessere Karten.


mfg

Wenn barts so kommt, wie du es hier spekulierst, wäre ich damit sogar zufrieden. 90% der cypress leistung ist doch ein großer schritt für die performance klasse.

Gast
2010-09-21, 07:20:55
90 % der HD 5870-Performance ist ziemlich genau HD 5850-Niveau. Und das für 300 $ (wobei bei uns eben aus Dollar einfach Euro wird)? Glaube ich kaum.

Pirx
2010-09-21, 08:18:29
Das wäre ja echt ein Namensschema, das eine neue Glanzleistung in AMDs Marketinggeschichte markieren würde.:ulol:
Wenn man die 5770 am Markt lassen will, könnte man doch trotzdem eine 6770 einführen...
6870 langsamer als 5870 geht jedenfalls gar nicht. Und wenn dann doch mal eine Dual-Chip-Karte kommen sollte, wie heißt die dann? 61070? 6999?

V2.0
2010-09-21, 08:57:20
Es muss x % der Leistung von 5970 heißen.

Dural
2010-09-21, 10:03:47
vieleicht hat der RV970 so viel verlustleistung das gar keine mGPU Karte sinnvoll möglich ist... 1x 8-Pin und 1x 6-Pin deuten schon mal in die richtung...

vieleicht muss man auch Bart GPUs für die mGPU Karte her nehmen und somit hat man gar keinen grossen abstand zur RV970 / "6970" und deswegen sind die beide namentlich (6990) so nach...

Nakai
2010-09-21, 10:45:27
90 % der HD 5870-Performance ist ziemlich genau HD 5850-Niveau. Und das für 300 $ (wobei bei uns eben aus Dollar einfach Euro wird)? Glaube ich kaum.

HD5850 kostet umgerechnet etwa 300$. In Amerika kostet eine HD5850 etw 250$. IMO ist der Preis sogar gerechtfertigt und nicht überzogen. Toll ist es trotzdem nicht, das ist klar.

Wenn barts so kommt, wie du es hier spekulierst, wäre ich damit sogar zufrieden. 90% der cypress leistung ist doch ein großer schritt für die performance klasse.

Naja, wenn er so kommt...

Wenn ein Cluster 10 SIMDs hat, also 640SPs und 40 TMUs, und dieses Namensschema keine MGPU-Karte enthält. Dann ist es wahrscheinlicher, dass Barts stärker kommt als erwartet.
Das 256Bit-SI und die 2 6Pin-Anschlüsse sprechen auch dafür, dass Barts größer wird als angenommen.

vieleicht hat der RV970 so viel verlustleistung das gar keine mGPU Karte sinnvoll möglich ist... 1x 8-Pin und 1x 6-Pin deuten schon mal in die richtung...

Dann senkt man den Takt, die Einheitenzahl und die Spannung. Das sollte kein Problem sein.

mfg

Gast
2010-09-21, 10:49:38
Bei dem schwachen Front-End kann es sich AMD kaum leisten den Takt so deutlich zu senken und auch wenn der Tessellator bei NI stärker wird, wird er wohl immer noch deutlich am Takt hängen.
Dementsprechend müsste man wohl hier für eine <300W TDP deutlich Einheiten deaktivieren, wo man wohl dann fast auf die Einheiten-Zahl von Barts kommt.

Einzig gegen diese Theorie spricht, dass im Treiber Antilles eindeutig als Cayman-basierte Lösung gelistet ist.

Dural
2010-09-21, 10:50:49
Dann senkt man den Takt, die Einheitenzahl und die Spannung. Das sollte kein Problem sein.

mfg

sinnvoll hab ich geschriben!

und eine mGPU karte die nur um die 30% schneller ist ist sicher nicht sinnvoll!

da kann man auch gleich Bart GPUs hernehmen ;)

Gast
2010-09-21, 11:49:46
Can you say twice as fast from a 10-20% area increase?
http://semiaccurate.com/forums/showpost.php?p=69973&postcount=182

Ailuros
2010-09-21, 11:52:54
sinnvoll hab ich geschriben!

Mehr als 5870+30% braucht AMD fuer diese Runde wohl sowieso nicht.

und eine mGPU karte die nur um die 30% schneller ist ist sicher nicht sinnvoll!

da kann man auch gleich Bart GPUs hernehmen ;)

Wenn man von 6970= 130%-5870 ausgeht dann koennte eine davon reduzierte mGPU immer noch zumindest 160%-5870 erreichen welches dann ungefaehr 20% schneller als eine 5970 sein koennte. NV ist nicht der einzige IHV der seine Hosen runterziehen wuerde fuer die alberne "Leistungskrone". Wieso jetzt AMD immun zu dieser sein sollte versteh ich nicht.

http://semiaccurate.com/forums/showpost.php?p=69973&postcount=182

Wenn man den gesamten Post durchliest, sieht man schnell um was es sich fuer einen Quark handelt.

deekey777
2010-09-21, 11:55:40
AMD confirms new DirectX 11 GPUs by 2011 (http://www.techradar.com/news/computing-components/graphics-cards/amd-to-release-next-gen-graphics-pre-christmas-717388)

Hoff was also happy to speak about it's upcoming new range of DirectX 11 graphics cards. "It's certainly more than changing a sticker," he said with a grin. "I wouldn't say it's an absolute, complete from the ground up new architecture.It's a nice, different architecture."

ShadowXX
2010-09-21, 12:00:58
AMD confirms new DirectX 11 GPUs by 2011 (http://www.techradar.com/news/computing-components/graphics-cards/amd-to-release-next-gen-graphics-pre-christmas-717388)
Was 0,0 über die Leistungsfähigkeit aussagt......nv30 war auch eine "neue" Architektur.

deekey777
2010-09-21, 12:23:28
Was 0,0 über die Leistungsfähigkeit aussagt......nv30 war auch eine "neue" Architektur.
Was aber 100% bestätigt, dass Änderungen durchgeführt wurden.

Ailuros
2010-09-21, 13:13:19
Was aber 100% bestätigt, dass Änderungen durchgeführt wurden.

Und wenn's doch 5D ist und ein hypothetischer 384-bit bei high end dann ist es auch eine "Aenderung".

Gast
2010-09-21, 13:54:18
Und wenn's doch 5D ist und ein hypothetischer 384-bit bei high end dann ist es auch eine "Aenderung".

Eine solche Aussage zu bringen, ohne, dass es weitere Änderungen, als mehr Einheiten gibt, wäre doch schon ein Armutszeugnis.

Natürlich kommt was neues! AMD hat schon vor Ewigkeiten gesagt, dass die R800 Generation die letzte, auf der R600 basierende sein wird.

Schaut euch doch mal an, wie schlecht eine 5870 im Vergleich zur 4870 trotz mehr als doppelter Rechenleistung skaliert. Dank dem Umstieg von 55 auf 40nm und der dauraus resultierenden Vorteile war die HD 5800 trotzdem eine sehr gute Karte meiner Meinung nach. Aber 20 Shadercluster sind offenbar trotz der Unterteilung in 2*10er Blöcke zu viele für das Frontend.

Cayman braucht daher ein "anderes" Frontend; Barts könnte man, wenn er denn nur mit 14 Clöustern kommt, auf der bisherigen Architektur aufsetzen, da spielt dann aber auch eine Rolle, ob die Evergreen oder die Northern Islands Architektur billiger zu fertigen ist und auch die Tesselationleistung wäre für Barts nicht ganz unwichtig.

deekey777
2010-09-21, 14:04:31
Und wenn's doch 5D ist und ein hypothetischer 384-bit bei high end dann ist es auch eine "Aenderung".
Ich kenne keinen Grund, warum gerade Hoff hier übertreiben sollte. Vielleicht maximal um seinen früheren Arbeitgeber zu ärgern?

Ailuros
2010-09-21, 14:22:51
Ich kenne keinen Grund, warum gerade Hoff hier übertreiben sollte. Vielleicht maximal um seinen früheren Arbeitgeber zu ärgern?

So weit hab ich gar nicht gedacht; aber es ist eben kurz vor dem release gerade wieder "silly season" fuer AMD. Da ist jegliches alberne Geruecht auch durchaus erlaubt, ebenso wie tonnenweise fakes ;)

deekey777
2010-09-21, 15:11:17
Mir ist eigentlich alles egal, so lange AMD wenigstens einen Teil der ganzen Wehwehchen beseitigt, die die Evergreens eingebremst haben.
Vier oder fünf Slots, eine Super-TU oder zehn...

dildo4u
2010-09-21, 15:13:48
Ich denke nicht das die neue "ATI"Gen auf Performance ausgelegt ist eher Performance per Watt,damit man sie für die Fusion APU's übernehmen kann.

Coda
2010-09-21, 15:24:10
Das kommt so ziemlich auf's gleiche raus. Die Performance von GPUs wird stark von der Verlustleistung eingeschränkt.

Fetza
2010-09-21, 16:16:32
Mir ist eigentlich alles egal, so lange AMD wenigstens einen Teil der ganzen Wehwehchen beseitigt, die die Evergreens eingebremst haben.
Vier oder fünf Slots, eine Super-TU oder zehn...

Nen vernünftigen anisotropen filter zu bieten, wäre viel wichtiger, imoho.

DrFreaK666
2010-09-21, 16:24:09
Nen vernünftigen anisotropen filter zu bieten, wäre viel wichtiger, imoho.

Ich hätte lieber mehr AA-Möglichkeiten (MSAA+SGSSAA-Kombis) :biggrin:

aylano
2010-09-21, 16:25:18
Also ich spekulier mal auf die Daten und derzeitigen Gerüchte mal etwas rum.

HD69xx basiert auf Cayman:
HD6990(falls es die gibt?!) hat 480 4D-Einheiten(1920SPs) bei 850 MHz Coretakt.
Damit würde man ungefähre 50% schneller sein, eher etwas weniger, da die 4D-Einheiten nicht ganz an die 5D-Einheiten rankommen. Also eher um die 145% von einer HD5870.

Warum eigentlich "nur" 150%.
Einige Leute sagen ja, dass die Front-End limitiert und die Performance beim RV870 mit +100%-Shader & Co bzw. SIMDs nur um +75% stieg.

RV770 ... 100%-SIMD ... 100%-Performance
RV870 ... 200%-SIMD ... 175%-Performance
RV970 ... 300%-SIMD ... 262%-Performance (+50%) oder 300% (+71,5%)

Natürlich ist das inkl. 4D-Abzüge (=67%) nur der praktisch nicht realer Best-Case Fall.
Aber wenn wir von Effizienz durch 5D --> 4D sprechen, sollte man ja auch die Auslastung der SIMDs nicht vergessen und dass es eventuell zu einerFront-End-Verbesserungen/Vergrößerungen kommen könnte.

Oder ist RV870 schon 80/85 oder gar 90/95% schneller als RV770/RV840??

Nakai
2010-09-21, 17:23:03
Warum eigentlich "nur" 150%.

Natürlich wird das je nach Fall anders aussehen. IMO, wenn das FrontEnd sehr stark überarbeitet wurde, dann wird es wohl Fälle geben, wo RV9xx stärker vorne liegt. Aber selbst beim verkackten FE des RV8xx liegt man "meistens" kaum hinter der Konkurrenz, welche ja dieses Problem deutlich effektiver gelöst hat. Ergo sehe ich da, je nach Fall, maximal 10 bis 20% Mehrperformance durch das bessere Frontend.


mfg

Gast
2010-09-21, 17:34:32
Das Front-End ist nicht alles, die TMUs haben wohl auch zu wenig Bandbreite, weshalb man bei den Samples sparen muss um hier knapp über einem GF100 zu liegen.
Laut Jawed@B3D soll es aber wohl schon Patente von AMD geben, die eine darauf bezogene veränderte Architektur beschreiben.

Nakai
2010-09-21, 18:51:26
Bei Semiacc hat Charlie mal wieder geistigen Durchfall abgelassen. So dass die neue Generation deutlich schneller wird als geplant, vor allem bei Tesselation.
Genau deswegen kann sich Fermi selbst bei den meisten Spielen bzgl Tesselation auch so gut absetzen.;)

Maximal 50 bis 70% je nach Fall für einen vollen RV970 bei gleichem Takt wie die HD5870. Im Schnitt wird man wohl drunter liegen...


mfg

Black-Scorpion
2010-09-21, 19:36:12
Und was hat die aktuelle Situation mit der Aussage das die neue Generation bei Tesselation deutlich schneller sein wird zu tun?
Außerdem ist nur der GF100 so überlegen. Die anderen wurden auch gebremst.

davidzo
2010-09-21, 20:45:33
wenn man beim mainstream, also barts das frontend verdoppelt hat (dual engine cypress rasterizer), wie wärs dann mit einem vierfachen frontend für cayman? klingt doch logisch.
praktisch hat man bei cypress aber nur teile verdoppelt, man wird also diese "dual enine" deutlich überarbeitet haben um sie vervierfachen zu können. Also näher heran an einzelne engines, ähnlich nvidias strategie, mit dedizierten tesselatoren und rasterizern innerhalb eines zusammenhängenden polygonprozessors.
das sorgt beim frontend zwar lange nicht für die leistung der 15 polymorph engines eines fermi, aber fetter als eine einzelne polymorph engine und deutlich höher getaktet sollte eine solche ati engine schon sein. wenn rv770 nur geringfügig vom frontend limitiert wurde, so bringt der beinahe ähnlich große barts dort nun eine deutliche entlastung. Im Prinzip geht es ja auch nicht darum die Dreiecksleistung eines Fermi zu erreichen, sondern vielmehr die Dreieckslimitierung die Evergreen so auf den Magen schlägt weitestgehend aufzuheben. Der sinnvolle Bereich liegt also womöglicherweise noch deutlich unterhalb von dem was Fermi derzeit bietet.

wenn rv870 stärker vom frontend limitiert wurde, so löst cayman die beschränkung auf um eine effizienz mindestens wie rv770 zu erreichen.

Falls dann noch die 4D shader greifen, haben wir eine 100%tige frontend verbesserung und eine 50%tige shaderverbesserung. letztere sollte auch klar spürbar sein, da rv970 weniger vom frontent limitiert wird als beide generationen zuvor.

Gast
2010-09-21, 21:49:29
So schätze ich die derweilige Situation auch etwa ein.
Mit 4 Blöcken könnte man die Tesselationleistung gegenüber Cypress vervierfachen, dem seine 2 Rasterizer quasi nix gebracht haben.

Ein Block würde dann aus 6 statt aus, wie bisher, 10 Clustern bestehen.

Barts hätte dann immerhin die Dopplete Tesselationleistung wie Cypress

Spasstiger
2010-09-21, 22:47:16
So schätze ich die derweilige Situation auch etwa ein.
Mit 4 Blöcken könnte man die Tesselationleistung gegenüber Cypress vervierfachen, dem seine 2 Rasterizer quasi nix gebracht haben.
Die 2 Rasterizer braucht Cypress imo hauptsächlich, um 32 Pixel pro Takt durchzuschleusen und somit die SIMDs und die ROPs auszulasten. Die Geometrieleistung wollte man damit nicht steigern.

Btw.: Auch bei Cypress ist Tessellation günstiger als Parallax Occlusion Mapping: http://www.hardware.fr/articles/795-5/dossier-nvidia-geforce-gtx-460.html. AMD hatte ja bei der Entwicklung von Cypress keine Marke dafür, welche Geometrieleistung für Tessellation erforderlich ist. Wenn Tessellation günstiger ist als die POM, dann scheint ja ausreichend Geometrieleistung vorhanden zu sein. NV hat halt andere Ansichten zum Thema Tessellation, dort wollte man das neue Feature aus Performancesicht so günstig wie möglich machen, d.h. unter keinen Umständen ein Geometrie-Bottleneck.

Coda
2010-09-22, 00:37:45
Die 2 Rasterizer braucht Cypress imo hauptsächlich, um 32 Pixel pro Takt durchzuschleusen und somit die SIMDs und die ROPs auszulasten.
Die generieren nur in Ausnahmefällen 32 Pixel. Die aufeinanderfolgenden Dreiecke müssen in komplett disjunkten Tiles sein damit das funktioniert.

OgrEGT
2010-09-22, 19:36:57
Interssante Sichtweise hier:

http://forum.beyond3d.com/showpost.php?p=1474979&postcount=2087

AMD might have decided that instead of replacing Redwood with an another 40nm design, they could have just used Juniper.
Right now a cut-down version of Juniper is already sold as 5670. I don't see why a possible HD6670 couldn't use a full Juniper.. priced as a x6xx series it would be a great deal!
Turks and Caicos may be 28nm parts that will replace Juniper later on, let's say in 6-8 month ?
It would fit the schedule for a pipe-cleaner @28nm for next generation.

Gast
2010-09-22, 20:23:25
Und wann haben sie das entschieden? Vor 4 Monaten und backen nun das Design auf den Herstellungsprozess um, sicher nicht. Alles was 2011 auf den Markt kommt wurde 2009 in den Stein gemeiselt, denkt nur an das reduzierte Budget für AMD in der Grafikabteilung.

Gast
2010-09-22, 23:13:12
Und wann haben sie das entschieden? Vor 4 Monaten und backen nun das Design auf den Herstellungsprozess um, sicher nicht. Alles was 2011 auf den Markt kommt wurde 2009 in den Stein gemeiselt, denkt nur an das reduzierte Budget für AMD in der Grafikabteilung.

Naja man Entwickelt aber im Falle einer neuen Architektur diese fr eine gesammte eneration (R900) und bereitet verschiedene Masken mit unterschiedlicher Anzahl an einheiten vor. Je nach Marktsituation finalisiert man dann einige der Masken und macht das Tape Out. Bis die Graka dann auf dem Markt kommt vergehen dann nochmal mindestens 4 Monate.

Also alles in Allem ist nicht 2 jahre vorher völlig klar, welches Produkt mit wieviel einheiten auf dem Markt kommt. Lediglich die Architekturdetails sind wohl festgelegt.

svenw
2010-09-23, 09:51:55
Und was hat die aktuelle Situation mit der Aussage das die neue Generation bei Tesselation deutlich schneller sein wird zu tun?
Außerdem ist nur der GF100 so überlegen. Die anderen wurden auch gebremst.
Man muß NV PR Abteilung gratulieren: Alle reden über Tesselation. Sorry, aber Tess ist irrelevant egal ob ATI oder NV schneller sind. Das ist so als ob man sich darüber streite in welchem Auto der Aschenbecher größer ist. Ein großer Aschenbecher ist gut aber bringen tut er nicht viel.
Ohne neue Konsolen die Tess nutzen bleibt das Ganze eine teure Spielerei für den PC Bereich. Erst wenn Spiele von Grund auf in Bezug auf Tesselation ausgelegt werden, wird man die Leistung sinnvoll gebrauchen können und das sehe ich in den nächsten 2 Jahren nicht. Bis dahin werden wir maximal um den Drachen latschen und uns über immer höhere Framerates freuen. Und wenn man sie braucht werden sowohl RV-X oder GF100 längst Geschichte sein. Momentan sind Tess Einheiten nur verschenkter Die Platz und verschwendete Ing-Resourcen!

Gast
2010-09-23, 10:15:20
Barts: 800MHz ~ 5850, 1000MHz ~ 5870
http://translate.google.de/translate?u=http%3A%2F%2Fwe.pcinlife.com%2Fthread-1517922-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

Dural
2010-09-23, 10:15:51
der grosse vorteil von Tesselation ist ja das man es auf "knopfdruck" die last vergrössern oder eben verkleinern kann!

NV hat mit der Fermi Architektur schon den richtigen weg eingeschlagen und AMD zieht ja jetzt mit der 6xxx Serie auch etwas mit.

MadManniMan
2010-09-23, 10:53:55
svenw,

die alte leidige Diskussion um Henne und Ei - bisher hatte Nvidia eigentlich immer ein recht gutes Händchen dabei.
Ich stimme Dir zu, dass man die Tesselation eventuell zu schnell überbewertet, aber es IST ein weiterer Vorteil.

Black-Scorpion
2010-09-23, 11:17:39
Als ATI Trueform hatte hat es Nvidia einen Scheiß interessiert. Und jetzt haben sie ein gutes Händchen dafür? Aber stimmt ja, warum sollte nVidia auch jemals was von ATI übernehmen. Aber groß jammern warum keiner angerannt kommt und ihren proprietären Kram übernimmt. Seltsame Ansichten.

Gast
2010-09-23, 11:22:48
Truform hat soviel mit der DX11-Tessellation zu tun, wie ein Faustkeil mit einem Smartphone.
DX11-Tessellation ist alles andere als proprietär. Das einzige was man Nvidia vielleicht vorwerfen kann, dass sie Tessellation in der D3D-Spec wohl möglich verzögert haben, bis sie ihr Tessellation-Design fertig hatten. Ansonsten wäre Tessellation wohl möglich schon in D3D10 vorhanden gewesen.

LovesuckZ
2010-09-23, 11:25:49
Es gibt bis auf AMD kein weiteres DX10.x Design, dass über einen Tessellator verfügt.

Ansonsten ist es lustig, dass nur "Trueform" überlebt hat. nVidia bot ebenfalls "Tessellation" mit der GF3 an. Aber das wird wohl aufgrund des biased ignoriert.

Gast
2010-09-23, 11:27:22
Es gibt bis auf AMD kein weiteres DX10.x Design, dass über einen Tessellator verfügt.

SGX hat wohl auch noch einen Tessellator.

LovesuckZ
2010-09-23, 11:28:12
SGX hat wohl auch noch einen Tessellator.

Gibt es dazu Informationen?

aylano
2010-09-23, 11:42:21
Hmm, ich versuche mal zusammenzufassen.

5D --> 4D @ SIMD
Eine Umstellung von 5D auf 4D wird die Effizienz der Einheiten erhöhen.
In diesem Fall würde der Stromverbrauch pro 5D-Einheit gesenkt.

Front-End
Das Front-End könnte effizienter & größer gestaltet werden. Ersteres führt zu weniger Stromverbrauch zweiteres zu mehr. Gesamt, würde ich die Vergrößerung höher gewichtigen, was absolut zu höheren Stromverbrauch führen wird.

40nm-Fertigung
Die Verbesserungen in der Fertigung könnte/wird den Stromverbrauch reduzieren.

Mehr Tesselation
Die neue Tesselation wird wahrscheinlich effizienter & Größer ausfallen, wobei ich zweiteres wieder höher Gewichten würde.

Mehr SIMD-Einheiten
Führt klarerweise zu mehr Stromverbrauch

GPGPU-Funktionen
Das ist für mich der spannendste und ungewisseste Punkt und wie AMD das löst. Ob durch die Zugabe von GPGPU-Fähigkeiten der Stromverbrauch sowie die relative SIMD/mm²-Fläche relativ stark ansteigt (= kompenisert die Strom & Flächen-Einsparnis beim 5D--> 4D Umstieg komplett) oder nicht.


Zusammengefasst
Stromverbrauchsteigerung
- Mehr Tesselation
- Mehr GPGPU-Fähigkeiten
- größeres Front-End

Stromverbrauchs-Senkung
- verbesserte 40nm-Fertigung
- effizientere SIMD

Gast
2010-09-23, 11:49:00
Gibt es dazu Informationen?

Gute Morgen. Natürlich haben sämtliche SGX D3D10 Chips ebenfalls eine Tesslator. Es war nur NV die den Fortschritt behindert haben, auch wenn das dein biased wieder mal nicht verträgt. Intel kam so spät mit D3D10 das sie vermutlich genug Zeit hatte auf die neuen Specs zu reagieren.

Ailuros
2010-09-23, 12:08:32
Gibt es dazu Informationen?

OT aber Du findest das folgende Zeug in jeglichem oeffentlichem Intel-Dokument von GMA500 bis auf's heutige GMA600 (SGX535 und hier hat der Gast nicht recht, weil nur die SGX545 D3D10.1 ist; dass es auch fuer DX9 SGX Varianten erwaehnt wird zeigt dass es fuer alle cores gilt):

Procedural Geometry

* Allows generation of more primitives on output compared with input data
* Effective geometry compression
* High order surface support

http://www.mitrax.de/?cont=artikel&aid=36&page=2

Nativer low end OpenVG IP core der aber ein Ableger vom SGX ist:

http://www.imgtec.com/powervr/VGX150.asp

# Tile-based deferred rendering (TBDR) architecture with native support for Bézier curves
# Programmable geometry processor and blend unit

Und zu guter letzt:

http://v3.espacenet.com/publicationDetails/biblio?DB=EPODOC&adjacent=true&locale=en_EP&FT=D&date=20081106&CC=US&NR=2008273034A1&KC=A1

Natuerlich reicht das Ding nicht auf DX11 Nivaeu, aber stur fixed function ist das ganze auch nicht. Eben was sie vor Jahren fuer DX10 einschaetzten und man liess es genau stecken wie ATI auch. Entfernen kostet mehr und ist nicht der Rede wert. SGX hat eine Effizienz mit winzigen Dreiecken dass sich selbst manche heutige standalone GPUs den Kopf darueber wenden koennten.

-------------------------------------------------------------------------

So und jetzt zurueck zum Thema:

Cayman ist nach dem was ich von der ersten zuverlaessigen Quelle heute morgen bekam Cypress + 4 cluster und Barts = Juniper + 2 cluster.

Gast
2010-09-23, 12:15:59
Womit die Barts Folie wohl korrekt sein könnte?

Damit könnte wohl Barts etwa ~30% mehr Leistung pro FLOP liefern als Cypress.

Ailuros
2010-09-23, 12:20:44
Womit die Barts Folie wohl korrekt sein könnte?

Damit könnte wohl Barts etwa ~30% mehr Leistung pro FLOP liefern als Cypress.

Wen scheren theoretische Papier-FLOP-Tieger? Wenn's stimmt hat erstmal Barts 48 TMUs gegen 80 bei Cypress.

Gast
2010-09-23, 12:21:11
Womit die Barts Folie wohl korrekt sein könnte?

Damit könnte wohl Barts etwa ~30% mehr Leistung pro FLOP liefern als Cypress.

Ja, und das würde dann auch gleich die 1920SPs bei Cayman bestätigen.

N0Thing
2010-09-23, 12:21:24
GPGPU-Funktionen
Das ist für mich der spannendste und ungewisseste Punkt und wie AMD das löst. Ob durch die Zugabe von GPGPU-Fähigkeiten der Stromverbrauch sowie die relative SIMD/mm²-Fläche relativ stark ansteigt (= kompenisert die Strom & Flächen-Einsparnis beim 5D--> 4D Umstieg komplett) oder nicht.

Da dürfte es doch eher an einer komfortablen Software-Umgebung mangeln, als an GPGPU-Funktionen.




Cayman ist nach dem was ich von der ersten zuverlaessigen Quelle heute morgen bekam Cypress + 4 cluster und Barts = Juniper + 2 cluster.

Das hört sich nicht nach großen Veränderungen an, oder darfst du zum Rest nichts sagen?

Gast
2010-09-23, 12:22:45
Wen scheren theoretische Papier-FLOP-Tieger? Wenn's stimmt hat erstmal Barts 48 TMUs gegen 80 bei Cypress.

Wer sagt das TMU = TMU? NV kommt ja auch mit deutlich weniger TMUs aus.

Nakai
2010-09-23, 12:26:02
So und jetzt zurueck zum Thema:

Cayman ist nach dem was ich von der ersten zuverlaessigen Quelle heute morgen bekam Cypress + 4 cluster und Barts = Juniper + 2 cluster.

Wen scheren theoretische Papier-FLOP-Tieger? Wenn's stimmt hat erstmal Barts 48 TMUs gegen 80 bei Cypress.

Womit die Barts Folie wohl korrekt sein könnte?

Wenn die Folie korrekt ist, dann sind es entweder wieder 5D-VLIW oder wir haben 20er SIMDs, damit das SP:TMU-Verhältnis gleich bleibt.


mfg

Gast
2010-09-23, 12:26:55
Wer sagt das TMU = TMU? NV kommt ja auch mit deutlich weniger TMUs aus.
Genau, wenn Barts TMUs auf dem Niveau von Juniper arbeiten, entsprechen 48 davon fast 62 Cypress TMUs:
http://techreport.com/r.x/geforce-gtx-460/rm3d-aniso.gif
http://techreport.com/articles.x/19242/6

Bei direkter Messung der Shaderleistung hat man vielleicht Nachteile, aber Barts soll ja auch keine HPC-GPU sein.

Ailuros
2010-09-23, 12:30:50
Das hört sich nicht nach großen Veränderungen an, oder darfst du zum Rest nichts sagen?

Ein Stueck effizienter soll das Ding sein an mehreren Stellen aber ich wuerde nichts fundamentales erwarten ausserhalb der typischen refresh-Laufzeit. Wie schoen oefters kommuniziert, die kommende "Generation" ist ein Zwischenschritt zwischen Evergreen und Southern islands. Man sollte also offensichtlich die radikaleren Unterschiede erst bei SI erwarten.

Wer sagt das TMU = TMU? NV kommt ja auch mit deutlich weniger TMUs aus.

Barts hat erstmal mehr Bandbreite pro MPixel; von da ab haengst es davon ab wieviel Du wirklich erwarten willst. Ich bleibe auf meiner 25-30% Schaetzung fuer den groessten single chip NI im Vergleich zu einer 5870.

aylano
2010-09-23, 13:29:05
Da dürfte es doch eher an einer komfortablen Software-Umgebung mangeln, als an GPGPU-Funktionen.

Und warum sollten dann keine neuen GPGPU-Funktionen dazukommen?
Vorallem wenn OpenCL eh weiter entwickelt wird.

Ailuros
2010-09-23, 13:53:39
Was genau fuer GPGPU Funktionen soll AMD genau noch hinzufuegen da Radeons seit Evergreen schon DX11 sind?

aylano
2010-09-23, 13:59:22
C++ könnte theoretisch noch dazukommen.

Was es sonst noch gibt, weiß ich nicht, aber die letzten Generationen sind die GPGPU-Fähigkeiten in der Hardware erweitert worden.

Gast
2010-09-23, 13:59:32
So und jetzt zurueck zum Thema:

Cayman ist nach dem was ich von der ersten zuverlaessigen Quelle heute morgen bekam Cypress + 4 cluster und Barts = Juniper + 2 cluster.

Also 20 -> 24 und 10 -> 12

Beim Cayman wären das dann 96 TMUs und 1536 SPs (bei Vec4 anstelle von Vec5). Cool genau auf sowas hatte ich bisher spekuliert. :)

john carmack
2010-09-23, 14:23:41
hmmm...

bin ja nicht so ein Technik freak aber für mich hört sich das an wie der Sprung von
8800GTX -> zu -> 9800GTX.

eben nichts großartiges...

Ailuros
2010-09-23, 14:28:23
C++ könnte theoretisch noch dazukommen.

Was es sonst noch gibt, weiß ich nicht, aber die letzten Generationen sind die GPGPU-Fähigkeiten in der Hardware erweitert worden.

Bevor sie zusaetzlichen non-3D Schnickschnack hinzufuegen der hauptsaechlich fuer Profi-Maerkte von Interesse waere, waere es vielleicht besser wenn sie ihre Profi-GPUs anstaendiger unterstuetzen wuerden.

Gast
2010-09-23, 14:52:23
Das hört sich nicht nach großen Veränderungen an, oder darfst du zum Rest nichts sagen?

Naja also 4D Shader wären in jedem Fall noch möglich, ausgehend von der barts Folie mit 960SP würde das 20er Vluster und Wavefrontsize von 80 bedeuten.

Ich erinnere mich jetzt grob an einen Post, glaube er war von Gipsel, wo er anhand des Treibers sagen konnte, dass bei Northern Islands DEFINITIV die t-Unit der 5-Slot Shader wegfällt und wir somit die "4D" Shader bei NI hätten.

Kann das nochmal jemand bestätigen? Dann wären 4 Slot Shader nämlich sicher und ungewöhnliche 20 pro Cluster

Gast
2010-09-23, 15:00:39
hmmm...

bin ja nicht so ein Technik freak aber für mich hört sich das an wie der Sprung von
8800GTX -> zu -> 9800GTX.

eben nichts großartiges...
Deine Einschätzung ist total daneben.
8800GTX zu 9800GTX gab es kaum Unterschiede, diese sind nicht der Rede werrt.
Was AMD hier bringt, ist eine neue Architektur.
Kein Vergleich mit 8800<->9800

SamLombardo
2010-09-23, 15:03:08
Man muß NV PR Abteilung gratulieren: Alle reden über Tesselation. Sorry, aber Tess ist irrelevant egal ob ATI oder NV schneller sind. Das ist so als ob man sich darüber streite in welchem Auto der Aschenbecher größer ist. Ein großer Aschenbecher ist gut aber bringen tut er nicht viel. Erst wenn Spiele von Grund auf in Bezug auf Tesselation ausgelegt werden, wird man die Leistung sinnvoll gebrauchen können und das sehe ich in den nächsten 2 Jahren nicht. Bis dahin werden wir maximal um den Drachen latschen und uns über immer höhere Framerates freuen. Und wenn man sie braucht werden sowohl RV-X oder GF100 längst Geschichte sein. Momentan sind Tess Einheiten nur verschenkter Die Platz und verschwendete Ing-Resourcen!
Sorry, aber das ist ja wohl ehr Dein Wunschdenken. Nach dm Motto: Kann meine Karte nicht, da muss es einfach unwichtig sein. Die Realität sieht doch vielmehr so aus, dass ein DX11 Pfad für PC Spiele keine Ausnahme mehr ist. Oft gibt es eine DX9 Version die auf der Konsolenfassung beruht sowie eine DX11 Fassung für den PC - die Tessellation beinhaltet. Klar sind das im Moment ehr dezente Erweiterungen, dennoch werden die Top Games der nächsten Monate, von Crysis2 bis zu The Witcher 2 auf Tessellation setzen (ja im Falle vom Witcher2 sogar von angeblich erweiterten Tessellation Fähigkeiten der 6000er Serie gebrauch machen.) Da kannst Du kleinreden soviel Du willst. Die Richtung in die es geht ist mehr als deutlich.

deekey777
2010-09-23, 15:16:13
Deine Einschätzung ist total daneben.
8800GTX zu 9800GTX gab es kaum Unterschiede, diese sind nicht der Rede werrt.
Was AMD hier bringt, ist eine neue Architektur.
Kein Vergleich mit 8800<->9800
Der Wechsel vom G80 zum G92 ist schon der Rede wert. Es sei denn, man will die Ändeungen nicht sehen.

V2.0
2010-09-23, 15:51:19
Abgesehen davon bringt ATI eine neue Architektur, die gewaltig zulegen wird. Ich erwarte 5970+20% für den schnellsten Single-GPU.

Ailuros
2010-09-23, 15:56:50
Abgesehen davon bringt ATI eine neue Architektur, die gewaltig zulegen wird. Ich erwarte 5970+20% für den schnellsten Single-GPU.

Das waere irgendwo um die +60% gegenueber einer 5870 anders gesehen fuer Cayman. Nein.

Mit Tessellation - welches ausserhalb ein paar oeder techdemos noch keinen besonderen Durchbruch gesehen hat - wird es zwar effizienter sein aber einen ernsthafteren Schub wuerde ich vor der 28nm Generation nicht erwarten.

deekey777
2010-09-23, 15:57:13
Abgesehen davon bringt ATI eine neue Architektur, die gewaltig zulegen wird. Ich erwarte 5970+20% für den schnellsten Single-GPU.
Und wann genau bringt ATi diese neue Architektur?

Ailuros
2010-09-23, 15:58:25
Und wann genau bringt ATi diese neue Architektur?

Mitte 2011 :P

Coda
2010-09-23, 16:00:56
Was genau fuer GPGPU Funktionen soll AMD genau noch hinzufuegen da Radeons seit Evergreen schon DX11 sind?
Globale Pointer, Indirekte Jumps, Exception-Handling, virtueller Speicher, preemtives Multitasking, etc.

Die ersten drei deckt Fermi schon ab.

Ailuros
2010-09-23, 16:06:51
Globale Pointer, Indirekte Jumps, Exception-Handling, virtueller Speicher, preemtives Multitasking, etc.

Die ersten drei deckt Fermi schon ab.

Und der Rest kommt wohl mit NV's 28nm Generation.

deekey777
2010-09-23, 16:09:11
Mitte 2011 :P
Sind wir hier bei "Wünsch dir was" oder im SINI-Thread?

Coda
2010-09-23, 16:11:17
Und der Rest kommt wohl mit NV's 28nm Generation.
Ich hab noch ECC vergessen. Das ist für Großrechner und Industrieequipment eigentlich essentiell.

Ailuros
2010-09-23, 16:18:51
Sind wir hier bei "Wünsch dir was" oder im SINI-Thread?

Normal bei der ganzen NI/SI Verwirrung.

aylano
2010-09-23, 16:35:06
Bevor sie zusaetzlichen non-3D Schnickschnack hinzufuegen der hauptsaechlich fuer Profi-Maerkte von Interesse waere, waere es vielleicht besser wenn sie ihre Profi-GPUs anstaendiger unterstuetzen wuerden.
Nur weil AMD in letzter Zeit viel richtig gemacht haben, heißt es nicht, dass AMD in Zukunft keine kleinen Schritte zurückgeben kann.

Ich betonte ja nur, dass ich im North-Island eventuell mit zusätzlichen GPGPU-Fähigkeiten/Funktionen rechne, die sich dann negativ auf Performance-pro-Watt und Performance-pro-mm² in Spiele auswirken.

Auerdem investiert AMD jetzt mehr Geld in OpenCL.
Hinzu gibt AMD jedes Quartal einen neue SDK (also wo sie die Catalyst nur halt im Quartalsabstand) wo die Performance sowie die GPGPU-Fähigkeiten softwareseitig jedesmal gesteigert werden soll.
So wie es halt im SDK-Roadmap steht.
Nächste SDK (SDK 2.3) kommt Mitte Dez 2010.
Also, in der Zeit wo man eigentlich Cayman erwartet bzw. nach Barts.

Außerdem ist Fusion (Ontario , Llano) noch nicht erschienen und man erst dann eine ernsthafte Entwicklung erwarten kann

Coda
2010-09-23, 16:45:17
AMD behandelt Compute immer noch stiefmütterlich. Die Roadmap zeugt jetzt nicht gerade von extremen Investitionen in dieser Richtung. Da werden Sachen nach hinten geschoben die es bei CUDA seit Jahren gibt.

Nur mal als Beispiel was AMD noch so fehlt:
http://developer.nvidia.com/object/nsight.html

Ihr müsst bedenken, dass es weitaus teurer ist Menschen zu bezahlen als ein paar GPUs. Die Produktivität ist bei CUDA derzeit einfach besser.

V2.0
2010-09-23, 16:57:21
Und wann genau bringt ATi diese neue Architektur?

Mit 28nm. :D

aylano
2010-09-23, 17:58:04
AMD behandelt Compute immer noch stiefmütterlich.

Ja, so war es.
Im 2Q hat AMD extra mehr Geld (Paar Mio. $) ausgegeben um Zukunftsprojekte zu forcieren.
Es ist wahrscheinlich kein Zufall, dass man die Road-Map-Grafik dann kurz nach dem 2Q erstmals sah.

Die Frage ist, ob es mit der Zusätzlichen Anstrengung die OpenCL-Behandlung immer noch Stiefmütterlich ist.

Erste Ergebnisse erwarte ich mir erst mit Fusion ( Ontario / Llano)

Dass Nvidia Cuda forciert und leichter zu Bedienen ist, steht außer Frage.
Aber ich glaube, dass ist fast nur für den Quadro-Markt wichtig. Denn im HTC-Tesla-Markt geht es um andere Geldsummen.

Im Grund muss man mal Llano abwarten.

Und wenn AMD die GPGPU egal ist, ist dann eben die Chance viel größer, dass kaum/keine neuen GPGPU-Fähigkeiten beim HD 6000er kommen werden.
Um das ging es ja.
Also, entweder kommt was und beeinflusst eventuell Stromverbrauch und Performance-pro-mm² oder es kommt nichts und AMD setzte höchste Priorität in Spiele-Effizienz.

Bucklew
2010-09-23, 18:08:48
Globale Pointer, Indirekte Jumps, Exception-Handling, virtueller Speicher, preemtives Multitasking, etc.

Die ersten drei deckt Fermi schon ab.
Warum sollte AMD sich mit GPUs den schönen (und profitträchtigen) CPU-Markt für HPCs zerstören? AMD wird IMMER lieber 10 CPUs verkaufen als 100 GPUs.

Coda
2010-09-23, 18:11:37
Die CPUs wird man auch immer brauchen. Task parallel vs. data parallel und so.

Und überhaupt ist das eh Quatsch. Niemand hindert einen daran Teslas mit Opterons zu verbinden. Cray macht das ja sogar. Sie werden nicht verhindern können, dass viel im HPC-Bereich auf GPUs geht. Wenn sie sie nicht bauen, dann tun's andere.

Bucklew
2010-09-23, 18:28:20
Die CPUs wird man auch immer brauchen. Task parallel vs. data parallel und so.
Klar, aber je mehr CPUs desto besser.

Und überhaupt ist das eh Quatsch. Niemand hindert einen daran Teslas mit Opterons zu verbinden. Cray macht das ja sogar. Sie werden nicht verhindern können, dass viel im HPC-Bereich auf GPUs geht. Wenn sie sie nicht bauen, dann tun's andere.
Es ist für AMD aber dennoch lohnender (finaniziell) ne CPU zu verkaufen. Das wirkt sich natürlich auch auf die Produktentwicklung und natürlich den Verkauf aus.

Coda
2010-09-23, 19:01:22
Es ist für AMD aber dennoch lohnender (finaniziell) ne CPU zu verkaufen.
Nochmal zum mitschreiben: Ob sie jetzt GPGPU mit mehr Featuren oder weniger ausrüsten wird daran nicht viel ändern. Dann kaufen die Leute halt Teslas.

Bucklew
2010-09-23, 19:54:35
Nochmal zum mitschreiben: Ob sie jetzt GPGPU mit mehr Featuren oder weniger ausrüsten wird daran nicht viel ändern. Dann kaufen die Leute halt Teslas.
Das können sie mit entsprechenden Marketing auch ändern.

Es würde mich sehr stark wundern spezielle GPGPU-Features in der kommenden AMD-Generation vorzufinden.

Black-Scorpion
2010-09-23, 19:59:40
Mal eine ganz blöde Frage. Steht irgendwo was eine GPU für GPGPU haben muss?
Oder hat sich ATI neuerdings nach einem Nvidia Dokument zu richten.

Gast
2010-09-23, 20:03:50
Es würde mich sehr stark wundern spezielle GPGPU-Features in der kommenden AMD-Generation vorzufinden.

Was für ein Dünnschiss. Als ob aktuell Radeons keine GPGPU-Features hätte.

Gasti
2010-09-23, 20:19:41
Mal eine ganz blöde Frage. Steht irgendwo was eine GPU für GPGPU haben muss?
Oder hat sich ATI neuerdings nach einem Nvidia Dokument zu richten.

ECC und ein Bugfreie OCL-Implementierung sollten das aller Mindeste sein.

Gast
2010-09-23, 20:21:13
ECC und ein Bugfreie OCL-Implementierung sollten das aller Mindeste sein.

Bei Open CL steht AMD besser da als NV.

Gasti
2010-09-23, 20:23:19
Bei Open CL steht AMD besser da als NV.
NV hat vielleicht weniger Extensions, aber das was da ist funktioniert im Gegensatz zu dem traurigen aktuellen Stream SDK.

mrt
2010-09-23, 20:30:30
Der andere Gast hat recht, OpenCL auf Nvidia ist ein Graus. Wenn das stabil sein soll, dann gute Nacht.

aylano
2010-09-23, 20:48:11
Mal eine ganz blöde Frage. Steht irgendwo was eine GPU für GPGPU haben muss?
Oder hat sich ATI neuerdings nach einem Nvidia Dokument zu richten.
Müssen ist so eine Sachen.

Theoretisch nicht, aber um den Anschluss nicht zu verlieren höchstwahrscheinich ja.
Vorallem, da Intel ja auch mit Larrabee @ Server kommt.

Gast
2010-09-23, 20:55:11
Radeon HD 6000 launch in late October

We have heard from several sources that the next generation Radeon HD 6000 series, also known under the Northern Islands codename is about to launch in late October time.

All the reports indicate that the new generation is actually a tweaked up design of Radeon HD 5000 and as far as we know, ATI didn’t dramatically improve the tessellation performance. As you probably know by now tessellation is the only big advantage that Nvidia has over DirectX 11 Radeons. The whole generation is naturally faster than the Radeon HD 5000.

The main press event is supposed to take place in glorious Los Angeles in week 43, that starts October 18th, but this is something that we have yet to confirm.

http://www.fudzilla.com/graphics/graphics/graphics/radeon-hd-6000-launch-in-late-october

john carmack
2010-09-23, 21:24:53
http://www.gamestar.de/hardware/news/grafikkarten/2317677/amd_radeon_hd_6000.html

"...Bis zur Vorstellung der ersten Karten wird es nicht mehr lange dauern, bereits für den 12. Oktober plant AMD angeblich eine entsprechende Veranstaltung. Die ersten Modelle, vermutlich zunächst die Mittelklasse-Versionen der Radeon HD 6700-Reihe, sollen dann um den 25. Oktober im Handel zu finden sein..."

War nicht die Vorstellung nicht zwischen 25. und 29 Oktober geplant?

Mir solls recht sein.

john carmack
2010-09-23, 21:27:47
Ich finds im Moment richtig schön :o)
Die Leistung liegt laut Gerüchten zwischen +25% und +75% zur HD5870 :o)

Jedenfalls kann man gar nicht sooo entäuscht werden, da sehr vieles auf eine Leistungsteigerrung von ca +30% hindeutet!

PS. was mich schon die ganze Zeit interessiert. Sieht dieser 3D-Mark Benchmark der HD6000 gefaked aus? Oder wie seht ihr das? Fotomontage?

Aquaschaf
2010-09-23, 21:56:15
NV hat vielleicht weniger Extensions, aber das was da ist funktioniert im Gegensatz zu dem traurigen aktuellen Stream SDK.

Mit dem 3.0 und 3.1 Toolkit hatte ich mehr als genug Probleme mit OpenCL + Nvidia. Als stabil oder funktionierend würde ich das nicht bezeichnen. Beispiel für einen der harmloseren Fehler: es hat gereicht eine Variable vom Typ bool im shared memory (bzw. in OpenCL-Terminologie local memory) zu deklarieren um einen segfault beim kompilieren auszulösen.

aylano
2010-09-23, 23:04:07
Ich finds im Moment richtig schön :o)
Die Leistung liegt laut Gerüchten zwischen +25% und +75% zur HD5870 :o)

Performnace-mäßig passt ja diese Bandbreite.
Von Theoretisch +75% (+50% SIMD und +20% größeren Fronted-End) bis zu
25%, weil die 4D-Lösung erst mit 28nm (SI) kommt und dazwischen nur 20%-SIMD hinzufügt.

Die Spannende bzw. eigentlich fast schon die entscheindenste Frage ist aber, wie der Stromverbrauch aussieht.

Weil, wenn die +25% ohne Stromverbrauchsteigerung und die 75% mit +33% zusätzlichen Stromverbrauch erreicht wird, dann wäre die Effizienz-Steigerung bei beiden sehr ähnlich.

Also, eigentlich kann man sich ja nicht sicher sein.
Denn es ist doch interessant, dass gerade kurz vor einführung "bekannt" wird, dass SI nach NI und nicht SI vor NI kommt.

Da heißt es nur mehr abwarten.

Eigentlich wäre es ja noch möglich (wie es AFAIK manche Gerüchte sagten), wenn Cayman +50% mehr SIMD als Barts hätte und somit die +25% Bart (etwas hochgetaktet) wäre und +75% Caymann (wegen dem Stromverbrauch nicht ganz so hoher Takt).
Eben weil Barts zuerst kommt und manche Gerüchte nur Daten von Bart haben und mache Gerüchte sogar von Cayman hörten

Aber eigentlich viel zu schön um Wahr zu sein.
Theoretisch möglich, aber leider sieht oft die Praxis anders aus.

[Gedankensprung Ende]

Nighthawk13
2010-09-24, 08:53:33
Also ich kann mir nicht so recht vorstellen, dass die Wavefrontsize leichtfertig auf 80 verändert wird. Gerade im GPGPU-Bereich hängen einige Algorithmen von der Warp-/Wavefrontsize ab(Bsp: Parallele Reduktion).

Und ich sehe nicht, wo der Vorteil liegen sollte?
Wenn man 4D-Recheneinheiten verwenden wollte, könnte man auch einfach 30 Shadercluster verbauen, um auf 30*16*4D=1920 zu kommen. Warum gerade 24*20*4D?

Ailuros
2010-09-24, 10:15:22
Das können sie mit entsprechenden Marketing auch ändern.

Es würde mich sehr stark wundern spezielle GPGPU-Features in der kommenden AMD-Generation vorzufinden.

Was willst mit buntem marketing einem Profi andrehen wenn die sw-Unterstuetzung mittelmaessig ist?

Gast
2010-09-24, 10:19:38
Und ich sehe nicht, wo der Vorteil liegen sollte?
Wenn man 4D-Recheneinheiten verwenden wollte, könnte man auch einfach 30 Shadercluster verbauen, um auf 30*16*4D=1920 zu kommen. Warum gerade 24*20*4D?
Um nicht 120 TMUs und einen Cache je 64SPs verbauen zu müssen?

Ailuros
2010-09-24, 10:23:58
http://img14.imageshack.us/img14/8934/bartsakarv930xt.jpg

Bucklew
2010-09-24, 10:27:48
Was willst mit buntem marketing einem Profi andrehen wenn die sw-Unterstuetzung mittelmaessig ist?
Das ist der 2. Punkt. Und es schaut nicht danach aus, als ob AMD diesen kritischen Punkt langsam mal kapieren würde. Die Einstellung des Treibersupports für alle Karten vor HD2000 zeigt das genau Gegenteil.

Gast
2010-09-24, 10:37:59
http://img14.imageshack.us/img14/8934/bartsakarv930xt.jpg
Photoshop. Man sieht die Schnittkante wo beim ursprünglichen Cypress-Bild die SIMDs entfernt wurden.

Ailuros
2010-09-24, 10:41:43
Das ist der 2. Punkt. Und es schaut nicht danach aus, als ob AMD diesen kritischen Punkt langsam mal kapieren würde. Die Einstellung des Treibersupports für alle Karten vor HD2000 zeigt das genau Gegenteil.

Es gibt keinen anderen Ausweg fuer jeglichen IHV als dass sie sich ernsthafter mit GPGPU in der Zukunft beschaeftigen. Und sw Unterstuetzung ist generell der wichtigste Punkt ueberhaupt.

AffenJack
2010-09-24, 11:08:10
http://img14.imageshack.us/img14/8934/bartsakarv930xt.jpg

ähmm, wenns wenigstens nen Bild wäre von wem der schreiben kann, aber in der Überschrift nen rechtscheibfehler reinhauen, rofl

Gast
2010-09-24, 11:17:05
AMD to launch Radeon HD 6000 Series, "Southern Islands" on October 12, 2010

While nVidia was closing down the GPU Technology Conference, we learned that the company invited a ton of journalists to the event in Los Angeles, CA. The event is none other than the launch of Radeon HD 6000 Series, more known to the world under the codename "Southern Islands".

The event will take place on October 12th, 2010 and AMD is using Hollywood to introduce the continuation of their "Cinema 2.0" story, which got introduced with the Radeon HD 4000 Series.

http://www.brightsideofnews.com/news/2010/9/23/amd-to-launch-radeon-hd-6000-series2c-southern-islands-on-october-122c-2010.aspx

Ailuros
2010-09-24, 11:24:35
ähmm, wenns wenigstens nen Bild wäre von wem der schreiben kann, aber in der Überschrift nen rechtscheibfehler reinhauen, rofl

Selbst wenn es keinen Rechtschreibfehler haette, wuerde AMD wohl schwer so ein oedes font benutzen :wink: Es geht lediglich darum dass der original geleakte slide von Barts eben wohl doch stimmt.

Ergo: 2 blocks mit 2 raster und 1 Tessellation-Einheit; 6 cluster per block mit 48 TMUs und 32 ROPs.

Anders ein Cypress mit 4 clusters weniger per block oder Juniper + 2 cluster je nach Perspektive.

Der originale slide betont uebrigens lediglich dass Barts eine bessere perf/Watt hat. Vom Stromverbrauch abgesehen, sieht es nicht nach besonders grossen Unterschieden aus, ergo bleibt abzusehen wie der MSRP von Barts genau aussehen wird.

deekey777
2010-09-24, 11:38:58
Was willst mit buntem marketing einem Profi andrehen wenn die sw-Unterstuetzung mittelmaessig ist?
Software-Unterstützung von wem? Für was?

Vielleicht ist es noch nicht ganz angekommen, aber Brook+ ist tot.

Das ist der 2. Punkt. Und es schaut nicht danach aus, als ob AMD diesen kritischen Punkt langsam mal kapieren würde. Die Einstellung des Treibersupports für alle Karten vor HD2000 zeigt das genau Gegenteil.
Kannst du das weiter ausführen? Insbesondere unter dem Gesichtspunkt, was der Treibersupport für ältere Radeons damit zu tun hat.

Iruwen
2010-09-24, 11:39:18
ähmm, wenns wenigstens nen Bild wäre von wem der schreiben kann, aber in der Überschrift nen rechtscheibfehler reinhauen, rofl
Als ob jemand auf 'ner offiziellen Folie so einen Font benutzen würde ;)

/e: way too slow...

Gast
2010-09-24, 11:41:24
Performnace-mäßig passt ja diese Bandbreite.
Von Theoretisch +75% (+50% SIMD und +20% größeren Fronted-End) bis zu
25%, weil die 4D-Lösung erst mit 28nm (SI) kommt und dazwischen nur 20%-SIMD hinzufügt.



Wenn ich die Andeutungen von Carsten auf Beyond3D richtig verstanden habe, dann kommt 4D jetzt.

deekey777
2010-09-24, 11:50:41
Selbst wenn es keinen Rechtschreibfehler haette, wuerde AMD wohl schwer so ein oedes font benutzen :wink: Es geht lediglich darum dass der original geleakte slide von Barts eben wohl doch stimmt.

Ergo: 2 blocks mit 2 raster und 1 Tessellation-Einheit; 6 cluster per block mit 48 TMUs und 32 ROPs.

Anders ein Cypress mit 4 clusters weniger per block oder Juniper + 2 cluster je nach Perspektive.

Der originale slide betont uebrigens lediglich dass Barts eine bessere perf/Watt hat. Vom Stromverbrauch abgesehen, sieht es nicht nach besonders grossen Unterschieden aus, ergo bleibt abzusehen wie der MSRP von Barts genau aussehen wird.
Cypress hat zwei Dispatcher. Wer das nicht weiß, soll auch nicht Folien entwerfen. X-D

Ailuros
2010-09-24, 12:00:39
Software-Unterstützung von wem? Für was?

Vielleicht ist es noch nicht ganz angekommen, aber Brook+ ist tot.

Anders gefragt: kraenkelt bei FireGLs die hw oder die sw Unterstuetzung?

Gast
2010-09-24, 12:03:02
Hm, wenn Barts mit 960ALUs schon ein 256bit SI hat, was hat denn dann Cayman mit 1920ALUs? 512bit?

Gast
2010-09-24, 12:11:57
4,2Gbps vs ~6Gbps GDDR5 @ 256-Bit.

deekey777
2010-09-24, 12:13:31
Anders gefragt: kraenkelt bei FireGLs die hw oder die sw Unterstuetzung?
Gegenfrage: Wie bist du bei FireGL FirePro gelandet, wenn es bisher um GPGPU ging?

Ich bin da überfragt, aber so richtige Klagelieder habe ich nicht gehört. AMD scheint da aufgeholt zu haben.
Es würde mich sehr wundern, wenn es sehr schlecht aussieht, wenn zB TroubleMaker Studios Fire-Produkte seit Jahren nutzen.

Nakai
2010-09-24, 12:27:16
Selbst wenn es keinen Rechtschreibfehler haette, wuerde AMD wohl schwer so ein oedes font benutzen Es geht lediglich darum dass der original geleakte slide von Barts eben wohl doch stimmt.

Wenn ich die Andeutungen von Carsten auf Beyond3D richtig verstanden habe, dann kommt 4D jetzt.

Mhh, das glaube ich nicht Jim. So oder so, ich bin mir ziemlich sicher, dass wir wieder 5D-Einheiten bekommen werden. 20er SIMDs sind wirklich zu unwahrscheinlich, obwohl es bei der derzeitigen Informationslage nicht anders zu gehen scheint.

Achja, es sieht wohl so aus, dass AMD endlich auf den NV-Zug bzgl Kundenverwirrung aufspringt. Juniper und Redwood könnten sehr wohl ziemlich recycled werden. Ebenso könnte nur Barts noch 5D-Einheiten haben. Cayman könnte schon wieder anders aussehen.
Sieht aber eher so aus, als ob AMD alte Teile neu einsetzt.


mfg

Ailuros
2010-09-24, 12:34:30
Gegenfrage: Wie bist du bei FireGL FirePro gelandet, wenn es bisher um GPGPU ging?

Weil ich persoenlich einem echten Profi eher eine workstation GPU zutraue. Das insgesamte CUDA framework ist einfach umfangreicher. Bleibt abzusehen was der neue x86 C compiler fuer CUDA genau bringen wird oder besser was NV genau durch diesen erlauben wird.

Ich bin da überfragt, aber so richtige Klagelieder habe ich nicht gehört. AMD scheint da aufgeholt zu haben.
Es würde mich sehr wundern, wenn es sehr schlecht aussieht, wenn zB TroubleMaker Studios Fire-Produkte seit Jahren nutzen.

Ich wuerde auch erwarten dass AMD frueher oder spaeter aufholt generell, aber auf dem Nivaeu der Konkurrenz sind sie noch lange nicht. Ich suche mir auch die Kerle die sich mit solchen Loesungen auch nicht aus rechts und links im Netz. Die Mehrzahl scheint von den bisheringen workstation Loesungen eben nicht begeistert zu sein.

Wenn AMD endlich mal in diesem Bereich richtig loslegt werden sie es wohl auch schaffen koennen ihren Profi-GPU Marktanteil um sehr hohe Prozentuale wenden zu koennen. Bis jetzt erhaelt NV leider fast ein Monopol.

N0Thing
2010-09-24, 15:03:08
Wenn ich die Andeutungen von Carsten auf Beyond3D richtig verstanden habe, dann kommt 4D jetzt.

Das kann aber doch auch nur eine Vermutung seinerseits sein, oder wurden die HW-Redaktionen schon von AMD über die Details gebrieft?

Gast
2010-09-24, 16:24:21
Das kann aber doch auch nur eine Vermutung seinerseits sein, oder wurden die HW-Redaktionen schon von AMD über die Details gebrieft?

2 Sachen stehen fest!

1: Am Catalyst Treiber lässt sich definitiv erkennen, dass NI nur noch 4
4 Slot Shader hat ( die t-Unit fällt weg )

2: Die zuletzt gepostete Folie (mit dem grafischen DIE-Shot) , auf der die
Shader 5 Slots haben, ist ein Photoshop Fake.

Ich wüsste nicht, warum wir nochmal die "5D" Shader sehen sollten.

Nakai
2010-09-24, 16:32:03
Die Barts-Folie welche vor einiger Zeit geleakt ist, scheint ja ziemlich wahr zu sein(wobei ich selber nicht dran glaube).

Das Problem ist, dass hier 12 SIMDs mit 960 SPs assoziiert werden. Wenn 4D-Einheiten zutreffen, dann sind es kein SIMDs mit 16-Einheiten mehr. Das geht einfach nicht.

Also 20er SIMDs oder 5D-Einheiten für Barts(oder für alle Chips!?).


mfg

deekey777
2010-09-24, 17:19:26
Jetzt mal ehrlich: Interessiert es wirklich jemanden, ob es vier oder fünf Slots sind? Wenn man auf den Cypress schaut, fragen sich viele, warum er nicht schneller ist, wie man es von ihm eigentlich erwartet.
Wenn DAAMIT bei der kommenden Generation es schafft, mit gleicher Anzahl an Einheiten schneller zu sein (oder mit weniger gleich schnell oder mit weniger schneller), dann werden doch die meisten von uns glücklich, oder?

Gast
2010-09-24, 17:21:14
Die Barts-Folie welche vor einiger Zeit geleakt ist, scheint ja ziemlich wahr zu sein(wobei ich selber nicht dran glaube).

Das Problem ist, dass hier 12 SIMDs mit 960 SPs assoziiert werden. Wenn 4D-Einheiten zutreffen, dann sind es kein SIMDs mit 16-Einheiten mehr. Das geht einfach nicht.

Also 20er SIMDs oder 5D-Einheiten für Barts(oder für alle Chips!?).


mfg

20er SIMDs mit 80er Wavefrontsize im Falle von den "4D" Einheiten.
Klingt für mich nach ziemlichen Käse aber kann ja sein.
Ich denke, die beiden, mutmaßlich geleakten Folien sind beide nicht echt.

Mal davon abgesehen bringe ich doch keinen Chip mit 960SP und 4,1Gbs Speicherdurchsatz und einen mit 1920SP und 6,4Gbs Durchsatz, das sind doch nur 50% mehr bei doppelter rechenleistung, das hat Ati so noch nie gemacht.

Gast
2010-09-24, 17:23:45
Mal davon abgesehen bringe ich doch keinen Chip mit 960SP und 4,1Gbs Speicherdurchsatz und einen mit 1920SP und 6,4Gbs Durchsatz, das sind doch nur 50% mehr bei doppelter rechenleistung, das hat Ati so noch nie gemacht.

Laut Aussagen der Chinesen hat Cayman aber ein 384-bit SI, und das wären inkl. des höher taktenden Speicher locker die doppelte Bandbreite.

Gast
2010-09-24, 17:24:41
Mal davon abgesehen bringe ich doch keinen Chip mit 960SP und 4,1Gbs Speicherdurchsatz und einen mit 1920SP und 6,4Gbs Durchsatz, das sind doch nur 50% mehr bei doppelter rechenleistung, das hat Ati so noch nie gemacht.
Und was sollen sie sonst machen? Ein (zu) teueres 512-Bit SI verbauen?
Cypress hat trotz doppelter Rechenleistung auch nur gut 20% mehr Bandbreite als RV770.

Gast
2010-09-24, 17:25:25
Laut Aussagen der Chinesen hat Cayman aber ein 384-bit SI, und das wären inkl. des höher taktenden Speicher locker die doppelte Bandbreite.
Das war bevor man bei Chiphell ein Cayman-Sample mit nur 8 Speicherchips -> 256-Bit gezeigt hat.

Gast
2010-09-24, 18:12:41
Und was sollen sie sonst machen? Ein (zu) teueres 512-Bit SI verbauen?
Cypress hat trotz doppelter Rechenleistung auch nur gut 20% mehr Bandbreite als RV770.

Nein das wäre vermutlich zu teuer. Mir kommen die 4,1Gbs für Barts XT nur etwas zu überdimensioniert vor zumindest für 960SP. Ich kann mir einfach nicht vorstellen, dass man mit 960 5 Slot Shadern die selbe Leistung wie mit 1440 4 Slot Shadern (HD 5850 Pro) bei 125Mhz höherer Taktrate erreichen kann, auich wenn an das Frontend und die Effizienz verbessert hat.
Nicht nur deswegen betrachte ich die Folie auch als nicht echt

Bucklew
2010-09-24, 18:18:24
Kannst du das weiter ausführen? Insbesondere unter dem Gesichtspunkt, was der Treibersupport für ältere Radeons damit zu tun hat.
Natürlich geht zur Software auch der Treibersupport und die Radeons waren nur ein Beispiel. Für die FireGL sieht es nicht anders aus. Für die V7350, knapp 4 Jahre alt, gibt es bereits keine Win7-Treiber mehr, der letzte Treiber ist > 1 Jahr alt. Und die Karte hat mal über 1500€ gekostet.

Bei so einem Support kauft sich doch niemand solche Karten für ein Cluster, das 5 oder auch mehr Jahre laufen soll.

Schlammsau
2010-09-24, 18:38:07
Meines Wissens nach laufen doch die Vista Treiber problemlos unter Windows 7 oder nicht?

Leonidas
2010-09-24, 20:02:50
1: Am Catalyst Treiber lässt sich definitiv erkennen, dass NI nur noch 4
4 Slot Shader hat ( die t-Unit fällt weg )




Was aber eben NI betrifft. Und ob Cayman/Barts technologisch wirklich zu NI gehören, ist nicht zu 100% sicher. Natürlich ist es wahrscheinlicher, aber eben noch nicht sicher.




Laut Aussagen der Chinesen hat Cayman aber ein 384-bit SI, und das wären inkl. des höher taktenden Speicher locker die doppelte Bandbreite.


Die haben aber nur spekuliert. Und so wie man es jetzt hört, kommt ziemlich sicher kein größeres Interface bei Cayman.

Und wem das zu wenig Bandbreite ist: Die Anforderungen an die Bandbreite steigen sicherlich mit zunehmender Shader-Power. Aber: Sie steigen nicht so schnell wie die Shader-Power selber. Eine 5670 hat grob 1/2 Bandbreite der 5870, aber nur 1/4 deren Shader-Power.



Nein das wäre vermutlich zu teuer. Mir kommen die 4,1Gbs für Barts XT nur etwas zu überdimensioniert vor zumindest für 960SP. Ich kann mir einfach nicht vorstellen, dass man mit 960 5 Slot Shadern die selbe Leistung wie mit 1440 4 Slot Shadern (HD 5850 Pro) bei 125Mhz höherer Taktrate erreichen kann, auich wenn an das Frontend und die Effizienz verbessert hat.



Betrachten wir mal nicht die nur 98,5% Effizienz der 4-D Einheiten, sondern rechnen grob mit 100% Effizienz: Dann hat Barts verglichen mit Cypress nicht 960, sondern *vergleichsweise* 1200 Shader-Einheiten. Zusammen mit höheren Takt ist da sicher die Leistung der 1440 Shader-Einheiten der 5850 erreichbar.

clockwork
2010-09-24, 20:19:20
Falls es da eine ungefähre Leistungseinschätzung gibt, weil sich offensichtlich nicht so viel getan hat (40nm, "refresh?"), ist was zu den Mobile-Chips bekannt und wo stuft man die gegenüber einer M5870/5850 ein?

Gast
2010-09-24, 20:34:23
20-30% Mehrleistung über alle Produkte, wäre eine zurückhaltende Schätzung.

Gast
2010-09-24, 21:06:49
Was aber eben NI betrifft. Und ob Cayman/Barts technologisch wirklich zu NI gehören, ist nicht zu 100% sicher. Natürlich ist es wahrscheinlicher, aber eben noch nicht sicher.


Doch es ist sicher. Im Treiber sind die Karten alles als NI bezeichnet und genau diese haben 4D-Shader.

Gast
2010-09-24, 21:08:24
AMD's 6870 coming in November: Early silicon doing very well
http://www.semiaccurate.com/2010/09/24/amds-6870-coming-november/

y33H@
2010-09-24, 21:43:50
Hach, Charlie eben:
Unless you are an Nvidia stockholder, then it won't be nearly as fun.

Gast
2010-09-24, 21:52:13
Hach und da könnte man dich ebeso quoten :; und ja, dein NV-Pro-Gesülze nervt - und das gebe ich mal zu Wort mit 2x480_SLI inne!

BTW. hoffe ich, dass die Caymans und Co sich nur wenig von Cypress usw. unterscheiden (auch BQ-technisch) - denn sonst haut mich meine Frau :)...

AwesomeSauce
2010-09-24, 22:15:53
@y33H@
Solcher Hetz-"Journalismus" kommt bei vielen (Dummen) eben gut an. Einfach Charlie-Filter-Brille aufsetzen und sich über den geistigen Dünnschiss nicht aufregen;)

Gast
2010-09-24, 22:44:15
.... das mit dumm nehme ich aber mal persönlich

sklave_gottes
2010-09-24, 22:54:25
20er SIMDs mit 80er Wavefrontsize im Falle von den "4D" Einheiten.
Klingt für mich nach ziemlichen Käse aber kann ja sein.
Ich denke, die beiden, mutmaßlich geleakten Folien sind beide nicht echt.

Mal davon abgesehen bringe ich doch keinen Chip mit 960SP und 4,1Gbs Speicherdurchsatz und einen mit 1920SP und 6,4Gbs Durchsatz, das sind doch nur 50% mehr bei doppelter rechenleistung, das hat Ati so noch nie gemacht.

Vergleiche 5670 mit 5770

Beide fast die selbe Speicherbandbreite, aber letzterer hat doppelte shader power.

Man sollte auch die 32ROPs bei Barts nicht vergessen wenn sie stimmen. Denn gerade mit der hohen Speicherbandbreite und den 32ROPs sollte Barts mit aa trotz "nur" 960s mit viel Takt an eine 5850 locker heranreichen.

Ihr unterschätzt die ROPs, siehe 5830....

LovesuckZ
2010-09-25, 00:36:59
Hach, Charlie eben:

Der Typ hat soviel Ahnung von der finanziellen Seite wie von der DX11 Implementierung von GF100.
Er behauptete auch, dass nVidia's Quadro Business in Q3 einbrechen werde. Da bin ich ziemlich gespannt, wie es anhand solcher Zahlen (http://tech.icrontic.com/articles/reviews/the-nvidia-quadro-6000-its-even-faster-than-we-said/) dazu kommen sollte.

Gast
2010-09-25, 01:08:17
Hach, Charlie eben:

Charlie ist im gegensatz zu dir noch harmlos.

y33H@
2010-09-25, 01:16:19
Wie kann man seine Freizeit nur als anonymer Gast-Troll um kurz nach 1h verbringen? ;D

Gast
2010-09-25, 01:21:36
und sagt wenigstens die Wahrheit

y33H@
2010-09-25, 01:22:28
Absolut, laut Charlie berechnet ein GF100 Tessellation ja auch NUR via Shader ;D

Gast
2010-09-25, 01:24:07
Das mit Fermi ist zu 100% eingetroffen, heul doch

Leonidas
2010-09-25, 07:12:54
@ Gast: Muß das sein? Wenn Du grundsätzlich anderer Meinung bist als andere hier im Forum, so sei Dir das gelassen. Aber wem bringt es was, dann beleidigend zu werden? Und selbst wenn man meint, erst einmal selber beleidigt worden zu sein: Auch dann gilt - was bringt es, zurückzubeleidigen?

tombman
2010-09-25, 08:38:13
Charlie´s berichte ..
:facepalm:

Hier nochmal dein Liebling in voller Pracht:

http://www.abload.de/img/charlieual9.png (http://www.abload.de/image.php?img=charlieual9.png)

Wieso hab ich das Gefühl, daß so ein Mensch nicht ganz objektiv sein kann...hmm ;)

Hugo78
2010-09-25, 08:47:46
Erinnert ein wenig an den Harkonnen Baron Vladimir aus Dune. :D

john carmack
2010-09-25, 09:47:20
ist das Charlie ? - *FREAK*

Gast
2010-09-25, 09:47:26
Napoleon @ Chiphell zu Barts:
http://translate.google.de/translate?u=http%3A%2F%2Fwww.chiphell.com%2Fthread-125814-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

Referenzkarten im Oktober, Custom-Version im November
Barts Pro ~ GTX 460
Barts XT ~ HD 5850

derguru
2010-09-25, 10:26:19
das will ich sehen das 1 monat später die ersten custom-versionen kommen,würde mich ja freuen wenn es endlich mal zügig geht.mist,der cayman kommt wohl wirklich später wenn sogut wie immer nur die rede vom bart ist.

mironicus
2010-09-25, 10:49:01
@Foto

Das ist momentan der gefährlichste Mann der Welt.... für NVidia! :D

LovesuckZ
2010-09-25, 10:51:34
das will ich sehen das 1 monat später die ersten custom-versionen kommen,würde mich ja freuen wenn es endlich mal zügig geht.

Wenn sie wie nVidia nur Chips und Speicher verkaufen, dann sollte es keine Probleme geben.


mist,der cayman kommt wohl wirklich später wenn sogut wie immer nur die rede vom bart ist.

Cayman ist noch nicht bei OEMs. Deswegen hört man nichts.

Gast
2010-09-25, 10:58:20
Napoleon @ Chiphell zu Barts:
http://translate.google.de/translate?u=http%3A%2F%2Fwww.chiphell.com%2Fthread-125814-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8

Referenzkarten im Oktober, Custom-Version im November
Barts Pro ~ GTX 460
Barts XT ~ HD 5850

Also wenn ein Barts XT mit den durchgesickerten Specs tatsächlich schon 5850 Speed erreicht, dann wäre ein doppelt so breiter Cayman mindestens bei der 5970. Ich denke eher Barts minimal unter GTX460.

mironicus
2010-09-25, 11:11:27
Also wenn ein Barts XT mit den durchgesickerten Specs tatsächlich schon 5850 Speed erreicht

Das muss er auch, weil man die GTX 460 sonst nicht schlagen könnte. Kaum einer würde sich die Karte holen, wenn sie nur 2-5% schneller wäre und dabei gleichzeitig etwas teurer. Wenn die TDP schon zwischen 5850 und 5870 liegt, wird man wohl auch Leistung in diesem Bereich erwarten können.

Gast
2010-09-25, 11:15:38
Das muss er auch, weil man die GTX 460 sonst nicht schlagen könnte. Kaum einer würde sich die Karte holen, wenn sie nur 2-5% schneller wäre und dabei gleichzeitig etwas teurer.

Ist ja kein Naturgesetzt das man die GTX460 schlagen muss. Barts ist der Nachfolger der 5770, nicht vergessen. Und den zweiten Satz lass ich auch nicht gelten, man muss sie halt preislich attraktiv anbieten, nicht so wie die 5850, dann wird man auch Käufer finden. Natürlich wird man mehr als 2-5% schneller sein, aber auch 20-30% mehr Leistung sind zu wenig für die GTX460 von Juniper ausgehend.


Wenn die TDP schon zwischen 5850 und 5870 liegt, wird man wohl auch Leistung in diesem Bereich erwarten können.

AMD gibt nur >150W an, die 5850 hat irgendwas um die 180W AFAIK.

Nakai
2010-09-25, 11:19:40
In den meisten Fällen ist ne HD5850 kaum mehr als 50% schneller als ne HD5770.
Barts kann ein besseres Frontend, mehr Bandbreite(und mehr ROPs) und vll mehr Takt aufwarten.

Vor allem unter höheren Auflösungen und Qualitätssettings hat Juniper sehr oft einige Prozente an Cypress verloren.


mfg

mironicus
2010-09-25, 11:21:16
Real verbraucht eine 5850 weniger als eine GTX 460. Die 5850 hat dabei eine höhere TDP-Angabe als die GTX 460. Das sollte AMD mal lieber ändern, die geben ja praktisch einen Furmark-Wert an, während NVidia nur die TDP innerhalb von Spielen angibt.

Gast
2010-09-25, 11:31:17
Real verbraucht eine 5850 weniger als eine GTX 460. Die 5850 hat dabei eine höhere TDP-Angabe als die GTX 460. Das sollte AMD mal lieber ändern, die geben ja praktisch einen Furmark-Wert an, während NVidia nur die TDP innerhalb von Spielen angibt.

Ne, warum? Nur weil die Konkurrenz ernst zu nehmende Spezifikationen als Marketinginstrument missbraucht? NV macht sich mit ihren Angaben eh nur lächerlich.

mironicus
2010-09-25, 11:41:41
NV macht sich mit ihren Angaben eh nur lächerlich.

Klar ist AMD hier ehrlicher. Aber viele lassen sich von den falschen Angaben auch täuschen. Halt jeder der nicht in einem Forum wie diesem unterwegs ist und nicht aufmerksam die Presse liest, also +- 90% von allen.

davidzo
2010-09-25, 12:09:37
Klar ist AMD hier ehrlicher. Aber viele lassen sich von den falschen Angaben auch täuschen. Halt jeder der nicht in einem Forum wie diesem unterwegs ist und nicht aufmerksam die Presse liest, also +- 90% von allen.

von den +-90% richten sich aber 89% nicht nach der TDP sondern dem was auf der Packung steht. sprich mindestens 350Watt Netzteil mit 14A auf 12V2 oder sowas.

die TDPangabe verarscht im Grunde hauptsächlich die Boardpartner die einen customkühler draufsetzen. man könnte zum Beispiel meinen dass ein Accelero L2 pro draufpasst,d er früher bei der GTS250 ja auch reichte, für eine 5850 wohl etwas underpowered ist, aber für eine GTX460 dann laut TDP ausreichen müsste.
Da die Boardpartner aber selber die Verbrauchsdaten bis ins detail kennen und sogar einfluss darauf nehmen können, wird ein solcher fehler ziemlich siche nicht auftreten. Übrig bleibt bei den Boardpartnern und OEMs dann nur der fade nachgeschmack dass AMD irgendwie ehrlichere Angaben macht als nvidia. Und dieser Eindruck zählt ja weit mehr als der Eindruck bei 1% der Endkunden...

Gast
2010-09-25, 13:32:42
Wieso hab ich das Gefühl, daß so ein Mensch nicht ganz objektiv sein kann...hmm ;)

Wow bist du erbärmlich.

Sich über Äußerlichkeiten lustig zu machen wenn man offenbar keine anderen Argumente vorbringen kann ist echt tiefste Gosse.

Stell doch mal ein Foto von dir rein, dann könnte ich genau das selbe über dich sagen wenn man mal den ganzen Nvidia Fanboy Bullshit betrachtet den du hier den ganzen Tag von dir gibst.

Sry füt OT, aber sowas geht mir echt gegen den Strich.

SamLombardo
2010-09-25, 16:17:41
Wow bist du erbärmlich.

Sich über Äußerlichkeiten lustig zu machen wenn man offenbar keine anderen Argumente vorbringen kann ist echt tiefste Gosse.

Stell doch mal ein Foto von dir rein, dann könnte ich genau das selbe über dich sagen wenn man mal den ganzen Nvidia Fanboy Bullshit betrachtet den du hier den ganzen Tag von dir gibst.

Sry füt OT, aber sowas geht mir echt gegen den Strich.
Also mal ehrlich, der Typ hat die größten Lobgesänge auf den R600 verfasst, über den selbst die hardcore Ati Fans hier im Forum gern hinwegsehen. Besonders seine Aussage, dass der R600 die NV 8800er in DX 10 vernichten ("annihilate") würde, ist doch an Lächerlichkeit nicht zu überbieten. So jemand braucht sich nicht zu wundern wenn er nicht ernst genommen wird.

Gast
2010-09-25, 16:24:48
@ Gast: Muß das sein? Wenn Du grundsätzlich anderer Meinung bist als andere hier im Forum, so sei Dir das gelassen. Aber wem bringt es was, dann beleidigend zu werden? Und selbst wenn man meint, erst einmal selber beleidigt worden zu sein: Auch dann gilt - was bringt es, zurückzubeleidigen?


Ich sage was ich denke über diesen typen.
Er schiest in praktisch allen foren in so gut wie allen beiträgen gegen ATI und lobt Nvidia in den 7-Himmel.

Nvidia könnte eine langsamere karte als 8800Gt bringen die mehr als 500Watt verbraucht, trotzdem wäre es in seinen augen die offenbarung weils eben eine Nvidia ist. Würde er die negativen punkte anschreiben, im leben nicht !

Das ist doch krank.

AwesomeSauce
2010-09-25, 17:01:05
Er schiest in praktisch allen foren in so gut wie allen beiträgen gegen ATI und lobt Nvidia in den 7-Himmel.
Link? y33h@ zeigt die Fakten auf. Falls dir die Fakten nicht passen, heul dich im S|A-Forum aus...

Black-Scorpion
2010-09-25, 17:07:26
Link? y33h@ zeigt die Fakten auf. Falls dir die Fakten nicht passen, heul dich im S|A-Forum aus...
Seine Fakten meinst du wohl. Die meisten seiner Beiträge bestehen aus aus Zwei drei Worten und seinem Lieblingssmiley. Aber das ist hier eh OT.

Gast
2010-09-25, 17:15:30
Fakten, sollte das ironie sein ?

Die Fakten kommen von Charlie mein freund.
Er kannte die schwächen der Fermi (hat sie überhaupt stärken,lol) schon 6 Monaten vor release.

Dural
2010-09-25, 17:18:16
Das mit Fermi ist zu 100% eingetroffen, heul doch

Ja? hab gar nicht gewusst das der GF100 tessellation ja nur via shader hat.

oder der GF100 ist nicht herstellbar

oder vom GF100 gibt es max 10.000 stück und wird danach eingestellt da nicht herstellbar (ja was jetzt ist er jetzt herstellbar oder nicht...)

es gibt hunderte solcher beispiele!!!

ach ja wenn du so ein charli fan bist, wie so kannst du dich dann nicht voll und ganz hinter deiner aussage stehen und dich anmelden/reg?!? :freak:

Gast
2010-09-25, 17:19:01
Egal, ich habe mir selbst ein Bild von der Gtx470 und Hd5870 gemacht, nur das zählt.
Was andere behaupten kann mir am allerwertes... vorbeigehen, kenne die Wahrheit und verabschiede mich deswegen für immer und ewig aus dem forum hier.

Schönen Tag noch

Dural
2010-09-25, 17:24:01
hab selber eine GTX470 und eine 5870...

Welche Wahrheit... das GF100 zu viel strom verbraucht weis man, das hat NV nur 3 monate nach GF100 in form des GF104 deutlich verbessert, der GF104 hat sogar einen exelenten Idle verbrauch! (lustiger weisse war der Idle verbrauch damals bei der 3870 das nonplusultra und das wichtigste überhaupt, heute ist es bei den selben user der last verbrauch...)

und zu behaupten das Fermi keine stärken hat, macht dich in deinen aussagen gerade mal überhaupt nicht glaubwürdig, weil es schlicht falsch ist...

Gast
2010-09-25, 17:27:46
(lustiger weisse war der Idle verbrauch damals bei der 3870 das nonplusultra und das wichtigste überhaupt, heute ist es bei den selben user der last verbrauch...)

Der Problem ist das der Unterschied im idle nicht der Rede wert ist. Die 1-2W je nach Test sind lachhaft, das war mal ganz anders.

AwesomeSauce
2010-09-25, 17:32:06
Was andere behaupten kann mir am allerwertes.
Wie war das noch? "Ich hab mir meine Meinung gebildet, bitte verwirren Sie mich nicht mit Fakten." So eine Lachnummer von Troll habe ich noch selten gesehen. 3DC braucht dringenst eine Anmeldepflich!

Gast
2010-09-25, 17:44:14
"Was andere verblendete NVIDIA-Fanboys behaupten", musste mich noch kurz korrigieren,sry

Gtx470 ist ein epic fail.
In spielen wo leistung abgefragt wird versagt die Karte auf ganzer linie.
Minimum frames sind ein graus in spielen wie Just Cause 2, Necrovision, Crysis, Stalker Call of Pripyat uvm.

Insgesamt einandhalb Wochen getestet , sollte reichen.
Jetzt weiss ich wenigstens welchen magazinen ich vertrauen werde in zukunft;

http://www.benchmark.pl/testy_i_recenzje/Testy_Aliens_vs_Predator-2785/strona/8818.html

Bye

Dural
2010-09-25, 17:55:35
in den min. FPS ist in der regel NV besser, da die GF100 Karten auch mehr Speicher haben...

y33H@
2010-09-25, 17:57:38
Mal wieder die grandiose polnische Seite, die Crysis auf einer Radeon und einer Geforce vergleicht und dabei einmal mit "r_TexturesStreaming=0" (Radeon) und "r_TexturesStreaming=2" (Geforce) testet ... das ist genauso OT wie Charlies Schund über Fermi/GF100.

Gast
2010-09-25, 18:05:44
Beweis? Habs im Artikel nicht gefunden.

Gast
2010-09-25, 18:21:35
"Was andere verblendete NVIDIA-Fanboys behaupten", musste mich noch kurz korrigieren,sry

Gtx470 ist ein epic fail.
In spielen wo leistung abgefragt wird versagt die Karte auf ganzer linie.
Minimum frames sind ein graus in spielen wie Just Cause 2, Necrovision, Crysis, Stalker Call of Pripyat uvm.

Insgesamt einandhalb Wochen getestet , sollte reichen.
Jetzt weiss ich wenigstens welchen magazinen ich vertrauen werde in zukunft;

http://www.benchmark.pl/testy_i_recenzje/Testy_Aliens_vs_Predator-2785/strona/8818.html

Bye


Wie oft willst du dein Müll hier noch posten.
Zuerst war es Geflame über eine GTX460 die du angeblich besitzt, die du dann gegen eine HD5850 getauscht hast, die natürlich um Welten besser ist, dann gab es relativ zügig eine Sperre/Bann vom Mod.
Seit einer Weile spammst du hier als Gast weiter und erzählst uns das du jetzt eine GTX470 getestet hast und die Karte absolut erbärmlich ist, dazu immer wieder irgendwelche polnische Crap-Testseiten.
Du machst dich hier absolut lächerlich und merkst es noch nicht einmal.

SamLombardo
2010-09-25, 18:21:46
@"Gast" Du bist doch dieser kranke Typ, der die wüsten Beschimpfungen hier gestern losgelassen hat. Tu allen hier einen Gefallen und halt Dich wenigstens an Deine eigenen Ankündigungen.
....verabschiede mich deswegen für immer und ewig aus dem forum hier.

y33H@
2010-09-25, 18:30:25
Beweis? Habs im Artikel nicht gefunden. Einfach mal die Crysis-Demo verwenden. Jeder, der sich damit befasst hat, liefert dir den Beweis in Form von Screenshots. Aber weil ich so lieb bin:

http://www.abload.de/thumb/unbenannt0xw5z3.jpg (http://www.abload.de/image.php?img=unbenannt0xw5z3.jpg) http://www.abload.de/thumb/unbenannt2x3n53.jpg (http://www.abload.de/image.php?img=unbenannt2x3n53.jpg)

Gast
2010-09-25, 18:33:57
Bitte nicht mit anderen usern verwechseln, mid-range wie HD5850 bzw. low-end wie Gtx460 interessieren mich nicht.

Soll ich dir die Rechnung von PCspezialist und Alternate der GTX470 zusenden ?
Ich hatte die karte zwei mal bestellt da ich von einem defekt ausging bei der ersten (ASUS) , zweite war von Palit

Gast
2010-09-25, 18:40:38
Einfach mal die Crysis-Demo verwenden. Jeder, der sich damit befasst hat, liefert dir den Beweis in Form von Screenshots. Aber weil ich so lieb bin:

http://www.abload.de/thumb/unbenannt0xw5z3.jpg (http://www.abload.de/image.php?img=unbenannt0xw5z3.jpg) http://www.abload.de/thumb/unbenannt2x3n53.jpg (http://www.abload.de/image.php?img=unbenannt2x3n53.jpg)

Ich habe aber nach den Test gefragt

y33H@
2010-09-25, 18:41:51
Ich kann kein polnisch und die schreiben laut Google-Translate eh nichts zu ihren "Testmethoden".

Gast
2010-09-25, 18:42:45
poste doch mal bitte

Gast
2010-09-25, 19:10:26
Ich muss mich wohl mal reggen. Wie Mods an der IP erkennen dürften, auf yeehas post habe ich noch nicht geantwortet, da hat sich jemand meiner Identität bemächtigt ;)
Ich hab von Crysis keine Ahnung, aber wenn das so ist, dann sollte man benchmark.pl wohl meiden (wobei ich die seite vorher nicht kannte)

Gast
2010-09-25, 21:41:35
Guckt mal auf Wikipedia:

http://en.wikipedia.org/wiki/Comparison_of_AMD_graphics_processing_units#Radeon_R500_.28X1xxx.29_series

Weiß jemand, woher die Daten kommen oder hat die einfach irgendjemand als Spekulation reingestellt um sich wchtig zu machen ???

Cayman hat dort ein 512Bit breites Speicherinterface, was auch den zuletzt gezeigten Bildern nicht wiedersprechen würde.
Die Bandbreite hätte sich im Vergleich zur HD 5870 mehr als verdoppelt.

Ich finde das ziemlich unglaubwürdig, wobei das NI@32nm sein könnte, den AMD einfach in 40nm bringt

Gast
2010-09-25, 21:43:05
Guckt mal auf Wikipedia:

http://en.wikipedia.org/wiki/Comparison_of_AMD_graphics_processing_units#Radeon_R500_.28X1xxx.29_series

(zu Northern Islands runterscrollen)

Weiß jemand, woher die Daten kommen oder hat die einfach irgendjemand als Spekulation reingestellt um sich wchtig zu machen ???

Cayman hat dort ein 512Bit breites Speicherinterface, was auch den zuletzt gezeigten Bildern nicht wiedersprechen würde.
Die Bandbreite hätte sich im Vergleich zur HD 5870 mehr als verdoppelt.

Ich finde das ziemlich unglaubwürdig, wobei das NI@32nm sein könnte, den AMD einfach in 40nm bringt

Gast
2010-09-25, 21:51:11
Alles klar, steht im Wiki deswegen hat AMD sich auch schon öffentlich dazu bekannt oder was? Ein Haufen Spekumüll, sonst nichts.

mironicus
2010-09-26, 10:38:41
Hmm... die Angaben sind schon sehr konkret. 6850 und 6870 standardmäßig mit 2048 MB, verdoppelte Speicherbandbreite 512 Bit. Idle-TDP ist recht hoch (35 Watt), 3.1 Mrd Transistoren, TDP 200 Watt/225 Watt.

Was bringt ein so schnelles Speicherinterface konkret in Spielen? Eine hohe Performance beim Antialising?

Preisangaben (Wikipedia)
6750: 239 $ / GTX 460 (768 MB): 199 $
6770: 279 $ / GTX 460 (1024 MB): 229 $
6850: 499 $ / GTX 480: 499 $
6870: 599 $