Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - "Southern Islands" GPUs (wohl 40 nm, 2010) - Northern Islands
Seiten :
1
2
3
4
5
6
[
7]
8
9
10
11
12
13
14
15
16
17
Black-Scorpion
2010-09-26, 11:16:47
Du kannst davon ausgehen das die Daten ein Träumer rein gesetzt hat. Real siehst du mit Sicherheit kein 512bit SI.
mironicus
2010-09-26, 11:27:55
Mag ja sein, aber was würde jetzt konkret ein 512 Bit Speicherinterface bringen? Wieviel Leistung wird da theoretisch möglich? 2048 MB klingen zumindest plausibel, die Preise eigentlich auch. 6850 gegen GTX 480 und die 6870 als neue SingleGPU-Referenz.
Black-Scorpion
2010-09-26, 11:38:53
ATI nimmt den Speicher mit dem höchsten Takt. Auch die aktuellen Karten haben keine Problem mit der Speicherbandbreite. Was sollte man mit einer Verdopplung (jetzt 154 GB/sec) der Speicherbandbreite also erreichen wollen? Zumal ein 512bit SI auch noch teuer ist. Nicht nur das es Transistoren kostet, wird auch noch das PCB teuer.
tombman
2010-09-26, 11:40:49
Wow bist du erbärmlich.
Sich über Äußerlichkeiten lustig zu machen wenn man offenbar keine anderen Argumente vorbringen kann ist echt tiefste Gosse.
Stell doch mal ein Foto von dir rein, dann könnte ich genau das selbe über dich sagen wenn man mal den ganzen Nvidia Fanboy Bullshit betrachtet den du hier den ganzen Tag von dir gibst.
Sry füt OT, aber sowas geht mir echt gegen den Strich.
http://images.whatport80.com/images/thumb/c/cf/Trollface.jpg/400px-Trollface.jpg
===
Gibts denn jetzt schon glaubwürdige benchmarks von 68xx?
Zumal ein 512bit SI auch noch teuer ist. Nicht nur das es Transistoren kostet, wird auch noch das PCB teuer.
Angeblich kostet es eben nicht so viele Transistoren. Bei irgendeinen Test hat eine Hardwareseite mal angegeben, dass 256Bit etwa 50Mio Transistoren mehr als 128Bit ausmachen, und was wären von mir aus auch 80Mio bei über 3Mrd. Transistoren.
Das PCB dürfte auf jeden fall teurer werden, wobei 512Bit auch auf ein 10Lagen PCB (vlt sogar 8) gehen dürften.
Ati hat bisher immer schnelleren Speicher und dafür ein kleineres Interface verwendet. Folglich war diese Lösung bisher immer billiger.
In 32nm hätte ich mir ein 512Bit Interface eher vorstellen können. Sofern Cayman, der Cayman ist, der auch in 32nm produziert werden sollte, wären 512 Bit vlt nicht so unwahrscheinlich, auch, wenn vieles dagegen spricht
deekey777
2010-09-26, 15:49:16
Wenn man ein SI mit 512 bit haben will, welche Folgen hätte das? Doppelte Anzahl an ROPs bzw. RBEs? An Memory-Controllern? 64bit-MC?
Es würde mich nicht wundern, wenn auch Barts mit 32 ROPs kommt (bei 256bit-SI). 512bit-SI = 64 ROPs? Das Hauptproblem ist (was schon beim R600 der Fall war): Diese ROPs müssen mit sehr hohem Takt laufen können.
Hmm... die Angaben sind schon sehr konkret. 6850 und 6870 standardmäßig mit 2048 MB, verdoppelte Speicherbandbreite 512 Bit. Idle-TDP ist recht hoch (35 Watt), 3.1 Mrd Transistoren, TDP 200 Watt/225 Watt.
Was bringt ein so schnelles Speicherinterface konkret in Spielen? Eine hohe Performance beim Antialising?
Preisangaben (Wikipedia)
6750: 239 $ / GTX 460 (768 MB): 199 $
6770: 279 $ / GTX 460 (1024 MB): 229 $
6850: 499 $ / GTX 480: 499 $
6870: 599 $
Ich weiss nicht wie real die Preise sind weiss aber jetzt schon das man 6850 in ein paar wochen für unter 350.- Euro bei und bekommen wird , 6870 wird bei ca. 400 liegen
Wieviele PINs benötigt ein 512Bit SI, wie breit muss mindestens das GPU Die sein um alle jetzigen Pins + 50% des SI dazu.
Hugo78
2010-09-26, 16:56:53
Hmm... die Angaben sind schon sehr konkret.
Ich kann mir nicht vorstellen das AMD beim Cayman in 40nm, über 3 Mrd. Transistoren einsetzt.
Der Grakasektor muss ja schließlich auch ein paar Gewinne einfahren.
Kann sein das für 32nm wirklich 3,1Mrd. geplant waren, aber angesichts der wirtschaflichen Lage bei AMD, glaub ich nicht an einen Monsterchip in 40nm.
Leonidas
2010-09-26, 17:38:13
Hmm... die Angaben sind schon sehr konkret. 6850 und 6870 standardmäßig mit 2048 MB, verdoppelte Speicherbandbreite 512 Bit. Idle-TDP ist recht hoch (35 Watt), 3.1 Mrd Transistoren, TDP 200 Watt/225 Watt.
Was bringt ein so schnelles Speicherinterface konkret in Spielen? Eine hohe Performance beim Antialising?
Preisangaben (Wikipedia)
6750: 239 $ / GTX 460 (768 MB): 199 $
6770: 279 $ / GTX 460 (1024 MB): 229 $
6850: 499 $ / GTX 480: 499 $
6870: 599 $
All das, was da bei Wikipedia steht, ist wilde Spekualtion. Niemand hat derzeit so genaue Angaben zur 6000er Serie. Da verausgabt sich IMO jemand, der immer die allerneusten Foren-Spekulationen einträgt, ohne aber darauf zu achten, da die Hälfte (oder mehr) von diesen schlicht Erfindung oder klare Schätzungen sind.
http://tcq0hw.bay.livefilestore.com/y1p3v7Dky5oZG_oWYSOVWI0ryWYxddUPqxCqwcN9iFewUvKkzWHxT0EW_FwCepflQY9y3YJHivE7s_1D 0XEu1j0bjRdT34deGzV/%E6%8D%95%E8%8E%B7.JPG
http://we.pcinlife.com/thread-1520616-1-1.html
y33H@
2010-09-26, 18:12:58
Damit wäre 4D bestätigt.
Damit wäre 4D bestätigt.
Das ist schon lange durch den Treiber bestätigt, nur glauben das manche einfach nicht.
http://tcq0hw.bay.livefilestore.com/y1p3v7Dky5oZG_oWYSOVWI0ryWYxddUPqxCqwcN9iFewUvKkzWHxT0EW_FwCepflQY9y3YJHivE7s_1D 0XEu1j0bjRdT34deGzV/%E6%8D%95%E8%8E%B7.JPG
http://we.pcinlife.com/thread-1520616-1-1.html
Ich verweise mal auf den Beitrag dieses Gastes:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8230879#post8230879
Wurde von vielen als Wichtigtuerei und von Coda als unmöglich bezeichnet, stimmt aber bei Barts schonmal exakt.
y33H@
2010-09-26, 18:19:21
Ich kenne den Treiber-Eintrag. Aber eine offizielle AMD-Folie ist mir lieber ;)
Aber eine offizielle AMD-Folie ist mir lieber ;)
Ist sie denn wirklich offiziell? ;)
http://tcq0hw.bay.livefilestore.com/y1p3v7Dky5oZG_oWYSOVWI0ryWYxddUPqxCqwcN9iFewUvKkzWHxT0EW_FwCepflQY9y3YJHivE7s_1D 0XEu1j0bjRdT34deGzV/%E6%8D%95%E8%8E%B7.JPG
http://we.pcinlife.com/thread-1520616-1-1.html
Mit dem hohen Chiptakt von 900Mhz und dank der besseren Effizienz der 4D ALUs sollte das für >5850 Speed bei der 6770 reichen.
Wow, das sind ja mal beeindruckende Zahlen (sofern authentisch). Nur wie baut AMD dann Cayman auf? Nochmal verdoppeln wird bei 40nm ja nicht hinhauen, oder?
Dural
2010-09-26, 18:24:37
na da bestätig sich ja fast alles und das sogar mit etwas mehr takt als angenommen.
das wird aber wohl nur mit deutlich grösserem DIE und verbrauch im vergleich zur 5770 für AMD erreichbar sein...
ich glaube wir werden bald einen vollen GF104 sehen :D
deekey777
2010-09-26, 18:25:21
Mit dem hohen Chiptakt von 900Mhz und dank der besseren Effizienz der 4D ALUs sollte das für >5850 Speed bei der 6770 reichen.
Kannst du das mal erklären, wodurch diese Effizienz erreicht wird?
Nakai
2010-09-26, 18:25:32
80 SPs pro SIMD.
80er Wavefront ;).
mfg
€: Cayman 120 TMUs und 480 4D-Einheiten.
Kannst du das mal erklären, wodurch diese Effizienz erreicht wird?
Du weißt wie es gemeint war. Die 2,3TFLOPs sind bei 4D ALUs höher einzuschätzen als bei 5D ALUs.
€: Cayman 120 TMUs und 480 4D-Einheiten.
Nein, 96 TMUs. Barts hat 64. 16 SIMDs.
deekey777
2010-09-26, 18:29:03
Du weißt wie es gemeint war. Die 2,3TFLOPs sind bei 4D ALUs höher einzuschätzen als bei 5D ALUs.
Nein, sind sie nicht.
Nakai
2010-09-26, 18:30:14
Nein, 96 TMUs. Barts hat 64. 16 SIMDs.
Ah stimmt, ich hab wieder mit 16er SIMDs gerechnet...sind ja doch 20er, wenn die Folie stimmt.
mfg
Nein, sind sie nicht.
Doch sind sie.
"Twice the Horsepower", obwohl die einzige Verdopplung bei den ALUs statt fand? :|
Ah stimmt, ich hab wieder mit 16er SIMDs gerechnet...sind ja doch 20er, wenn die Folie stimmt.
mfg
Die Folie sieht sehr authentisch aus. Schriftbild, alles passt exakt zu anderen AMD Folien. Die ist definitiv korrekt im Gegensatz zum anderen Mist der bist jetzt gepostet wurde.
Gasti
2010-09-26, 18:36:11
"Twice the Horsepower", obwohl die einzige Verdopplung bei den ALUs statt fand? :|
256bit SI?
2xROP?
Das wird schon ungefähr hinkommen.
y33H@
2010-09-26, 18:37:44
Nein, sind sie nicht. Da ihr nur "Nein" - "Doch" hin und her werft: Erläutert es doch mal. Warum sollen 4D nicht besser auszulasten sein als 5D?
Da ihr nur "Nein" - "Doch" hin und her werft: Erläutert es doch mal. Warum sollen 4D nicht besser auszulasten sein als 5D?
Es ist völlig klar das 4D besser auszulasten ist, deekey777 ist offensichtlich ein Troll. Sie schaffen jetzt bei 5D ca. 3.5 im Schnitt, bei 4D schätzungsweise ~3.1. Ansonsten wäre der Schritt ja auch vollkommen unsinnig.
deekey777
2010-09-26, 18:47:44
Da ihr nur "Nein" - "Doch" hin und her werft: Erläutert es doch mal. Warum sollen 4D nicht besser auszulasten sein als 5D?
Auch wenn die eine Präsentation etwas älter ist, so ist die Auslastung bei Spielen 3,5 SPs. Wenn du ein SIMD mit 16 VLIW-Einheiten hast, ändert sich irgendwas, wenn von 4 bzw. 5 SPs weiterhin im Durchschnitt 3,5 SPs ausgelastet werden? Nein, oder, denn es bleibt bei 320x4 = 320x5. Nur wenn du (deutlich) mehr Vier-Slot-VLIW-Einheiten hast (400 zB), dann wäre die Auslastung von 3,5 wirklich mehr als 320x5.
So oder so: Das Ganze ist für den Arsch, wenn DAAMIT davor was überarbeitet hat.
Es ist völlig klar das 4D besser auszulasten ist, deekey777 ist offensichtlich ein Troll. Sie schaffen jetzt bei 5D ca. 3.5 im Schnitt, bei 4D schätzungsweise ~3.1. Ansonsten wäre der Schritt ja auch vollkommen unsinnig.
Ich bin mir so ziemlich, dass du ohne diesen Troll von 3,5 nichts gewußt hättest.
Kalmar
2010-09-26, 18:50:47
wie wäre denn die Leistung vom bart pro und bart xt einzuschätzen ? wenn ich mir das als Laie pi mal daumen angucke zwischen 5850 und 5870 ?
Dural
2010-09-26, 18:52:00
so ich neme schon mal schätztungen an wie gross die Bart DIE ist :freak:
[ ] 200mm2
[ ] 250mm2
[ ] 300mm2
[ ] 350mm2
;)
Ich verweise mal auf den Beitrag dieses Gastes:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8230879#post8230879
Wurde von vielen als Wichtigtuerei und von Coda als unmöglich bezeichnet, stimmt aber bei Barts schonmal exakt.
http://www.abload.de/img/applausqutn.gif (http://www.abload.de/image.php?img=applausqutn.gif)
Deshalb sollten Gastposts hier immer erlaubt sein.
Respekt @den Gast:wink:
... und auch@ ATI, scheinen ja tolle Karten zu werden. Mal sehen, wie die unglaublich wichtige Tesselations-Leistung zugelegt? hat.
Nur blöd, daß ich damit wieder in Versuchung komme, aufzurüsten.
so ich neme schon mal schätztungen an wie gross die Bart DIE ist :freak:
[ ] 200mm2
[x] 250mm2
[ ] 300mm2
[ ] 350mm2
;)
Tss; Barts ist in etwa so groß wie ein GF106...aber schneller als ein GF104 im Vollausbau....
deekey777
2010-09-26, 19:05:56
Der, der diese Folie erstallt hat, ist wirklich eine Null.
y33H@
2010-09-26, 19:07:23
Ein voller GF104 mit 800 MHz überholt eine HD5870, so einfach hat Barts XT es nun auch wieder nicht.
deekey777
2010-09-26, 19:09:44
Ein voller GF104 mit 800 MHz überholt eine HD5870, so einfach hat Barts XT es nun auch wieder nicht.
Es gibt einen vollen GF104? Und dazu mit 800 MHz? Habe ich was verpasst?
Ein voller GF104 mit 800 MHz überholt eine HD5870, so einfach hat Barts XT es nun auch wieder nicht.
uii...das will ich auch, muss gut sein ;)
Träum süß weiter.
y33H@
2010-09-26, 19:11:59
@ deekey777
[Noch] hast du nichts verpasst.
Was aber passt dir an der Folie nicht? Habe nicht alles im Detail angeschaut :usad:
@ Gast
Troll :P
Bitte Beweise bei solchen Behauptungen, sonst gibts wieder Stunk. Ist das denn soooo schwer?
Dural
2010-09-26, 19:12:35
naja ich tippe auch auf 250mm2 schwanke aber noch zu 300mm2
dürfte was dazwischen sein, die grosse frage ist wie viel platz amd zwischen 4D und 5D einsparen kann...
mironicus
2010-09-26, 19:13:32
Hmm... schön. Die 6770 wird ne interessante Karte. Die Performance wird man aber wohl kaum im Vorfeld einschätzen können wegen der neuen Architektur. Da wird es bestimmt einige Überraschungen geben.
@ Gast
Troll :P
Stimmt! Aber ein wenig Spaß muss sein. ;)
Black-Scorpion
2010-09-26, 19:14:37
Ein voller GF104 mit 800 MHz überholt eine HD5870, so einfach hat Barts XT es nun auch wieder nicht.
Deine Glaskugel muss schon was besonderes sein. :rolleyes:
deekey777
2010-09-26, 19:15:27
@ deekey777
[Noch] hast du nichts verpasst.
Was aber passt dir an der Folie nicht? Habe nicht alles im Detail angeschaut :usad:
P
Einfache Mathematik: Wie kommt man bei 320x4 MADDs und 900 MHz auf 2,304 TFLOPs?
Ein Overdrive-Schalter?
Hm, jetzt verstehe ich die Welt nicht: Wie konnte ich mich so verrechnen? Trotzdem Fake.
Dural
2010-09-26, 19:15:42
in den man es ausrechnet? es sind exakt 2,304
für das braucht man keine glaskugel sondern einen rechner + gtx460 werte...
y33H@
2010-09-26, 19:17:44
Milchmädchen sagt:
336 > 384 ALUs = +14%
675 > 800 MHz = +19
Zusammen +33%, linear wird das aber nicht skalieren, also sagen wir +25 bis +30%. In 1680 + 4x/16:1 reicht das für die HD5870 [+24% laut CB].
Deine Glaskugel muss schon was besonderes sein.Ich würde eher sagen, deine ist rot getrübt und daher erkennst du nichts :ulol:
mao5 der angeblich die richtigen Präsentationen hat hat nur eine Antwort zu der Folie:
FAKE
Schade.....
http://forum.beyond3d.com/showpost.php?p=1476203&postcount=2190
Black-Scorpion
2010-09-26, 19:18:00
Doch die braucht man. Es gibt keinen vollen GF104 und wenn einer kommt weiß keiner ob er mit 800MHz Takt kommt.
Einfache Mathematik: Wie kommt man bei 320x4 MADDs und 900 MHz auf 2,304 TFLOPs?
Ein Overdrive-Schalter?
Ganz einfach:
320 Proc * 4 Lanes = 1280
1280 * 2 (MAD = 2 FLOPS)= 2560 FLOPS/clk
2560 * 900 (MHz) = 2304000 MFLOPS
oder?
-carsten
Einfache Mathematik: Wie kommt man bei 320x4 MADDs und 900 MHz auf 2,304 TFLOPs?
Ein Overdrive-Schalter?
Hm, jetzt verstehe ich die Welt nicht: Wie konnte ich mich so verrechnen? Trotzdem Fake.
1280 x 2 x 0,9 = 2304
Einfache Mathematik: Wie kommt man bei 320x4 MADDs und 900 MHz auf 2,304 TFLOPs?
Ein Overdrive-Schalter?
Hm, jetzt verstehe ich die Welt nicht: Wie konnte ich mich so verrechnen? Trotzdem Fake.
Du hast dich eben nicht verrechnet, du hast nur bei B3D abgeschaut anstelle selbst zu rechnen. ;)
Einfache Mathematik: Wie kommt man bei 320x4 MADDs und 900 MHz auf 2,304 TFLOPs?
Ein Overdrive-Schalter?
Hm, jetzt verstehe ich die Welt nicht: Wie konnte ich mich so verrechnen? Trotzdem Fake.
800SP*4Slots*(MAD+MUL)*0,9Ghz= 2304 GFLOPs.
Wo is das Problem?
Dural
2010-09-26, 19:21:19
Doch die braucht man. Es gibt keinen vollen GF104 und wenn einer kommt weiß keiner ob er mit 800MHz Takt kommt.
er hat auch nie gesagt das es ein voller GF104 @ 800MHz geben wird, sondern nur das es damit für eine 5870 reicht und damit dürfte er recht haben...
deekey777
2010-09-26, 19:21:25
Ganz einfach:
320 Proc * 4 Lanes = 1280
1280 * 2 (MAD = 2 FLOPS)= 2560 FLOPS/clk
2560 * 900 (MHz) = 2304000 MFLOPS
oder?
-carsten
Jaaaaaaaaaaaaaaaaaa, ich hab mich verrechnet.
Milchmädchen sagt:
336 > 384 ALUs = +14%
675 > 800 MHz = +19
Zusammen +33%, linear wird das aber nicht skalieren, also sagen wir +25 bis +30%. In 1680 + 4x/16:1 reicht das für die HD5870 [+24% laut CB].
Ohne der entsprechende Steigerung bei der Speicherbandbreite wird das nicht mal annähernd 25-30% im Rating ergeben.
Jaaaaaaaaaaaaaaaaaa, ich hab mich verrechnet.
Eine glatte Lüge.
Nakai
2010-09-26, 19:25:23
Selbst, wenn die andere Folie stimmt, dann sind es 20er SIMDs, was viele Leute hier als vollkommenen Hirngschiss gesehen haben, sofern es 4D-VLIW-Einheiten sind.
mfg
€: Lol, ich finds toll, egal wie oft man hier 4D im Bezug auf alle Folien erwähnt(welche immer 80 Wavefronts angeben), kommt nix zurück. Entweder sind alle Folien bis jetzt falsch(wäre naheliegend), es sind doch noch 5D-Einheiten oder es kommt ganz anders. Naja wenn wir 20er SIMDs mit 80er Wavefronts bekommen, dann lache ich mir auf jeden Fall einen ab.
y33H@
2010-09-26, 19:27:30
@ Gast
+33% höhere Bandbreite durch 1.200er GDDR5 sollte drin sein. Aber das ist OT.
Black-Scorpion
2010-09-26, 19:32:08
Ich würde eher sagen, deine ist rot getrübt und daher erkennst du nichts :ulol:
Deine dämlichen Anspielungen kannst du dir sparen. Langsam aber sicher geht einem dein ewiges gebashe auf den Sack. Jeder der nicht deiner Ansicht ist, ist automatisch rot. Selbst du solltest wissen das es einen Unterschied zwischen Theorie und Praxis gibt. Da kannst du rechnen bis du schwarz wirst.
Leonidas
2010-09-26, 19:53:21
mao5 der angeblich die richtigen Präsentationen hat hat nur eine Antwort zu der Folie:
FAKE
Schade.....
http://forum.beyond3d.com/showpost.php?p=1476203&postcount=2190
Das kann ich nicht genau sagen. Ich kann nur sagen: Die frühere Folie zu Barts sagt eindeutig 960 SE und 48 TMUs, d.h. eine von beiden muß zwingend falsch sein. Und beide sehen nach "authentisch AMD" aus, d.h. mindestens eine von beiden ist eine hochwertige Fälschung. Kein beruhigender Gedanke.
Gestrandet
2010-09-26, 20:03:22
Wieso ist das kein beruhigender Gedanke? Galten AMD-Folien bisher als fälschungssicher und sind deshalb in zahlreichen industrialisierten Ländern der Erde als Zahlungsmittel anerkannt?
Das kann ich nicht genau sagen. Ich kann nur sagen: Die frühere Folie zu Barts sagt eindeutig 960 SE und 48 TMUs, d.h. eine von beiden muß zwingend falsch sein. Und beide sehen nach "authentisch AMD" aus, d.h. mindestens eine von beiden ist eine hochwertige Fälschung. Kein beruhigender Gedanke.
Vielleicht sind das sogar beide.
Immerhin setzen beide 20er SIMDs mit 80er Wavefrontsize vorraus.
Ich habe leider keine wirkliche Ahnung, wie sich Threads damit abwickeln lassen.
Vlt weiß kann hier ja einer grob sagen, ob das überhaupt geht.
nagus
2010-09-26, 21:46:20
Ein voller GF104 mit 800 MHz überholt eine HD5870, so einfach hat Barts XT es nun auch wieder nicht.
in sachen leistungsaufnahme hast du mit sicherheit recht.
nvidia hat trotzdem keine chance gegen die kommende AMD generation. und dafür brauche ich gar keine glaskugel.
deekey777
2010-09-27, 00:05:02
Wieso ist das kein beruhigender Gedanke? Galten AMD-Folien bisher als fälschungssicher und sind deshalb in zahlreichen industrialisierten Ländern der Erde als Zahlungsmittel anerkannt?
Die R650-Folie zB war echt.
Es reicht HD5870 mimimam zu übertkakten uns chon fegt sie GTX480 weg.
Jetzt auch noch HD6850 und 6870 , depri-phase kommt wieder auf nvidia zu.
So wie ich das sehe will sich HD6850 um GTX480 kümmern und HD6870 um gar kiene da für lange zeit konkurrenlos.
Ailuros
2010-09-27, 08:39:36
nvidia hat trotzdem keine chance gegen die kommende AMD generation. und dafür brauche ich gar keine glaskugel.
Die heutige Situation wird sich nicht fundamental aendern so wie es aussieht.
Grumbart
2010-09-27, 08:53:54
Die heutige Situation wird sich nicht fundamental aendern so wie es aussieht. nicht durch nVidia oder AMD/ATi.
Ich denke Sandy Bridge wird bis zu einem gewissen Preis/Anwendungsbereich den Markt aufrollen.
Ailuros
2010-09-27, 09:05:30
nicht durch nVidia oder AMD/ATi.
Ich denke Sandy Bridge wird bis zu einem gewissen Preis/Anwendungsbereich den Markt aufrollen.
Integriertes wasauchimmer hat wohl einen ziemlich grossen Abstand zu einer mainstream bis high end GPU. Ich kann mir persoenlich keinen fanatischen Gamer vorstellen der ueber sein Sandy Bridge Systemchen stolz sein wird, aber ich hab natuerlich auch nicht jedermans vibrante Phantasie :rolleyes:
Noch ein Spalten auf der vermeintlichen AMD-Folie:
http://img.pconline.com.cn/images/upload/upc/tx/itbbs/1009/27/c0/5329491_1285554321619_1024x1024.jpg
http://itbbs.pconline.com.cn/diy/11921416.html
Leonidas
2010-09-27, 09:48:30
Jetzt könnte man glatt spekulieren, daß die fehlenden Spalten bisher nicht gezeigt wurden, weil sie einen Fehler bei der TDP der 5850 enthalten: Die liegt bei 170W und nicht bei 151W.
Zudem sind die TDP-Angaben zu Barts unwahrscheinlich, weil viel zu niedrig für diese Hardware-Power.
in sachen leistungsaufnahme hast du mit sicherheit recht.
nvidia hat trotzdem keine chance gegen die kommende AMD generation. und dafür brauche ich gar keine glaskugel.
Sehe ich auch so. Das Topmodell der SI liegt bei 0,95x 5970.
Jetzt könnte man glatt spekulieren, daß die fehlenden Spalten bisher nicht gezeigt wurden, weil sie einen Fehler bei der TDP der 5850 enthalten: Die liegt bei 170W und nicht bei 151W.
Nein, die liegt offiziell bei 151W: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=465762
Die 170W gab es vor dem Launch und konnte dann noch gesenkt werden.
Ailuros
2010-09-27, 10:12:25
Jetzt könnte man glatt spekulieren, daß die fehlenden Spalten bisher nicht gezeigt wurden, weil sie einen Fehler bei der TDP der 5850 enthalten: Die liegt bei 170W und nicht bei 151W.
Zudem sind die TDP-Angaben zu Barts unwahrscheinlich, weil viel zu niedrig für diese Hardware-Power.
Moment Barts soll 16 cluster mit jeweils 20 SIMD haben?
Trotzdem wären 147W TDP bei 900MHz @ 40nm doch etwas überraschend gering. Wenn dann muss man hier noch einiges optimiert haben.
Leonidas
2010-09-27, 10:23:02
Ich habs fast geahnt. Ok, also doch 151 Watt.
Trotzdem wären 147W TDP bei 900MHz @ 40nm doch etwas überraschend gering. Wenn dann muss man hier noch einiges optimiert haben.
Oder sie haben jetzt ganz einfach eine "NV-approved" TDP. ;D
Marketing ist doch was schönes. :D
mironicus
2010-09-27, 10:37:34
Die 6750 wird dann wohl mit einem einzigen Stromanschluss auskommen... die Karte könnte besonders für Übertakter interessant werden.
infinity
2010-09-27, 10:48:38
Die 6750 wird dann wohl mit einem einzigen Stromanschluss auskommen... die Karte könnte besonders für Übertakter interessant werden.
wie soll sie gerade dann für Übertakter interessant sein, da ihr dann doch sofort beim übertakten der strom (die Leistung) des Mainboards+Netzteil ausgeht. Die TDP hat dann doch kaum reserven bei einem Stromanschluss.
Gasti
2010-09-27, 11:08:52
wie soll sie gerade dann für Übertakter interessant sein, da ihr dann doch sofort beim übertakten der strom (die Leistung) des Mainboards+Netzteil ausgeht. Die TDP hat dann doch kaum reserven bei einem Stromanschluss.
Das kommt auf das Netzteil an, nicht auf die Anzahl der Anschlüsse.
deekey777
2010-09-27, 12:05:13
Moment Barts soll 16 cluster mit jeweils 20 SIMD haben?
Muss man wirklich alles erklären?
Barts hat 320 SPs mit 5 SCs (Streamcores), aber kennt zwei unterschiedliche Bettriebsmodi: Spiele und GPGPU. Unter Spielen verhält sich Bart, alsob es eine 4-Slot-VLIW-Dings wäre, bei GPGPU wird der fünfte SC aktiviert, darum hat man auch 2304 GFLOPS an Compute-Power.
Jetzt stimmt die Folie.
Ailuros
2010-09-27, 12:11:24
Muss man wirklich alles erklären?
Fuer den Laien wie mich ja :P
Barts hat 320 SPs mit 5 SCs (Streamcores), aber kennt zwei unterschiedliche Bettriebsmodi: Spiele und GPGPU. Unter Spielen verhält sich Bart, alsob es eine 4-Slot-VLIW-Dings wäre, bei GPGPU wird der fünfte SC aktiviert, darum hat man auch 2304 GFLOPS an Compute-Power.
Jetzt stimmt die Folie.
Nur hat eben auf der "anderen" Folie Barts XT 48 und nicht 64 TMUs. Demzufolge hat Leo wohl schon recht und eine der beiden Folien ist ein fake, ausser das Zeug swapped TMUs zwischen 3D und GPGPU auch noch hin und her LOL :wink:
Muss man wirklich alles erklären?
Barts hat 320 SPs mit 5 SCs (Streamcores), aber kennt zwei unterschiedliche Bettriebsmodi: Spiele und GPGPU. Unter Spielen verhält sich Bart, alsob es eine 4-Slot-VLIW-Dings wäre, bei GPGPU wird der fünfte SC aktiviert, darum hat man auch 2304 GFLOPS an Compute-Power.
Jetzt stimmt die Folie.
Hm, du meinst also man kann flexibel bei jedem SIMD zwischen 20 x 4SP und 16 x 5SP umschalten?
deekey777
2010-09-27, 12:21:52
Hm, du meinst also man kann flexibel bei jedem SIMD zwischen 20 x 4SP und 16 x 5SP umschalten?
Wieso 20x4? 16x4 im 3D-Modus.
Wieso 20x4? 16x4 im 3D-Modus.
Naja, 1280SP bei 64 TMUs bedeutet 80ALUs pro Quad-TMU. ALso entweder 20x4 oder 16x5. Bei 16x4 würde man ja eine ALU einfach nicht verwenden, das wäre ja unsinnig.
deekey777
2010-09-27, 12:27:53
Naja, 1280SP bei 64 TMUs bedeutet 80ALUs pro Quad-TMU. ALso entweder 20x4 oder 16x5. Bei 16x4 würde man ja eine ALU einfach nicht verwenden, das wäre ja unsinnig.
3D-Modus: 16x4 (plus ggf. 16x1 als Dual-Issue), da man eh im Durchschnitt eine Auslastung von 3,5 erreicht.
GPGPU-Modus: 16x5.
Genau, die restlichen 16 SPs werden dann unter 3D zusammen mit den TMUs kombiniert. Die Technologie nennt sich Extreme TMU 2.0.
Leonidas
2010-09-27, 12:31:51
Muss man wirklich alles erklären?
Barts hat 320 SPs mit 5 SCs (Streamcores), aber kennt zwei unterschiedliche Bettriebsmodi: Spiele und GPGPU. Unter Spielen verhält sich Bart, alsob es eine 4-Slot-VLIW-Dings wäre, bei GPGPU wird der fünfte SC aktiviert, darum hat man auch 2304 GFLOPS an Compute-Power.
Jetzt stimmt die Folie.
Selbst wenn das Ding umschalten könnte: AMD wird natürlich immer die höhere Performance und die höheren HW-Daten angeben. Wieso sollten sie auch niedrigere Daten angeben? In der neueren Folie sind aber sowohl die Anzahl der Shader-Einheiten als auch die genannte Rechenleistung auf alleinig 4-D Einheiten ausgerichtet. Sofern die neuere Folie stimmt, ist da nix mehr mit 5-D.
deekey777
2010-09-27, 12:46:03
Du musst aber berücksichtigen, dass die aktuelle Stimmung folgende ist: 4 ist besser als 5.
Edith: Das heißt, es reicht zu überzeugen, dass 320x4 mehr ist als 320x5 (ist es auch, wenn die Rechnung aufgeht).
y33H@
2010-09-27, 12:52:05
320x4 sind aber 1280, das passt irgendwie nicht zu einer HD6770, die andere Folie spricht von 960 *hmpf*
EDIT
Sagte Leo ja schon ... 1280 bei über 150 TDP ist irgendwie zu viel.
Nakai
2010-09-27, 12:52:42
Barts hat 320 SPs mit 5 SCs (Streamcores), aber kennt zwei unterschiedliche Bettriebsmodi: Spiele und GPGPU. Unter Spielen verhält sich Bart, alsob es eine 4-Slot-VLIW-Dings wäre, bei GPGPU wird der fünfte SC aktiviert, darum hat man auch 2304 GFLOPS an Compute-Power.
Also 1600SPs bei 320 5D-Einheiten?
320 * 10(5D) * 0,9 = 3200*0,9 = 2880
320 * 8(4D) * 0,9 = 2560*0,9 = 2304
Naja, 1280SP bei 64 TMUs bedeutet 80ALUs pro Quad-TMU. ALso entweder 20x4 oder 16x5. Bei 16x4 würde man ja eine ALU einfach nicht verwenden, das wäre ja unsinnig.
Wie funktioniert eigentlich die Gigathread-Engine? Frühers wars ja so, dass 64 Threads(Wavefront) zusammengefasst werden und je einer SIMD übergeben werden. Nun werden immer 16 Threads auf die 16 5D-VLIW-Einheiten übergeben und ausgeführt, bis die Wavefront abgearbeitet wurde.
Normalerweise geschieht das in 4 Takten. Frühers hatte jeder Thread bis zu 5 Instruction-Slots. Nun wären bis zu 4 Instructions pro VLIW-Einheiten möglich. Die Anzahl der Instructions pro Wavefront hat sich nun eigentlich nicht verändert.
Aber eigentlich:
20er SIMDs sind schon ein Graus, wenn man bedenkt, dass der interne Cache deutlich besser auf 64er Wavefronts ausgelegt ist.
Jetzt stimmt die Folie.
Nur hat eben auf der "anderen" Folie Barts XT 48 und nicht 64 TMUs. Demzufolge hat Leo wohl schon recht und eine der beiden Folien ist ein fake, ausser das Zeug swapped TMUs zwischen 3D und GPGPU auch noch hin und her LOL
Ich geh mal davon aus, dass die 48TMU-Folie der Wahrheit entspricht. Vor allem wenn auf B3D spekuliert wird, dass die neue Gen ein ziemliches Durcheinander ist. Man könnte bei Barts noch 5D-Einheiten benutzt haben.
mfg
Das ATI-Forum bestätigt die Spezifikationen der Folie als "final":
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/1531-exklusiv-finale-spezifikationen-von-bart-xt-und-barts-pro
Gibt es nun ein Datum für die Karten?
Dural
2010-09-27, 13:18:49
12.10 angeblich
Leonidas
2010-09-27, 13:31:35
Das ATI-Forum bestätigt die Spezifikationen der Folie als "final":
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/1531-exklusiv-finale-spezifikationen-von-bart-xt-und-barts-pro
Ich denke nicht, daß man das ATI-Forum mit dem Begriff "bestätigen" in einem Satz zusammen bringen kann. Die sind eine Quelle, aber weit entfernt davon, eine sichere Quelle zu sein.
mironicus
2010-09-27, 13:43:29
Größere Seiten wie Engadget berichten auch schon darüber, die sind auch sehr euphorisch. Hoffentlich muss AMD nicht dementieren... :)
Wäre natürlich zu schön, wenn man diese Leistung für unter 200 Euro bekommen könnte... von der Leistung her wäre die 6770 eher ein Konkurrent für die GTX 470.
dildo4u
2010-09-27, 13:45:59
150Watt da bleiben ja nur 50W mehr fürs High End ich gehe ganz stark davon aus das ATI keine 250W Karte bringt.Jedenfalls hab ich kein Plan wie die 6870 die doppelte Performance der 6770 bringen soll das wären ja eigentlich sogar 300Watt.
150Watt da bleiben ja nur 50W mehr fürs High End ich gehe ganz stark davon aus das ATI keine 250W Karte bringt.Jedenfalls hab ich kein Plan wie die 6870 die doppelte Performance der 6770 bringen soll das wären ja eigentlich sogar 300Watt.
Dir ist schon klar das eine 6770 mit den Specs eine 5850 klar schlägt? Doppelte Leistung im High-End wäre Wahnsinn. Die 6870 wird 50% mehr Einheiten haben laut aktuellen Gerüchten, das sollte reichen für <225W.
mironicus
2010-09-27, 13:51:31
Die 6770 ist auch ziemlich hoch getaktet, der Abstand zur 6750 ist größer als erwartet. Die 6870 dürfte wohl eher die doppelte Leistung einer 6750 bieten.
Ich finde es gut, dass die Performance-Karten als erstes vorgestellt werden (die werden ja auch am meisten verkauft).
dildo4u
2010-09-27, 13:51:48
Also ist die Namesgebung schon wieder fürn Arsch?Der Abstand 5770 zu 5870 war so doppelte Leistung doppelter Verbrauch.
Also ist die Namesgebung schon wieder fürn Arsch?Der Abstand 5770 zu 5870 war so doppelte Leistung doppelter Verbrauch.
Willst du hier nur flamen oder auch ernsthaft diskutieren? Das ist ja kein Naturgesetz. Die 4770 war noch wesentlich näher an der 4870. Klar ist nur 6800 > 6700.
mironicus
2010-09-27, 13:56:50
Vielleicht wurde aufgrund des Erfolges der 460 die Spezifikationen der 6770 kurzfristig noch mal etwas verbessert (GPU-Takt). Die GTX 460 ist ja sehr attraktiv und da muss AMD schon etwas bieten, um auch die übertakteten 460 auf ihre Plätze verweisen zu können.
derguru
2010-09-27, 13:57:08
Also ist die Namesgebung schon wieder fürn Arsch?Der Abstand 5770 zu 5870 war so doppelte Leistung doppelter Verbrauch.
~70% verbrauch sind es und nicht doppelt.eine 6870 muss ja nicht den selben takt auffahren wie die 6770,ein bissel weniger und man ist unter 250W.
Wenn die Daten zu Barts XT stimmen, wird Cayman XT auch kein doppelter Barts seien können. Vielleicht will AMD diesmal einfach denn Abstand zwischen HD67xx und HD68xx wesentlich kleiner gestalten als noch bei der HD5k. Zwar wurden im Cat.10.8 3 verschiedene Versionen von Cayman genannt (LE,Pro,XT), aber es ist natürlich wirtschaftlich günstiger für AMD die GTX460 1GB/GTX470 und auch einen potenziellen vollen GF104 mit einen Barts XT Chip entgegenzutreten, als mit einen Cayman LE (HD6830). Deshalb macht ein deutlich stärker als erwarteter Barts XT gerade wirtschaftlich sehr viel Sinn und das gleiche hat NV mit GF104 ja auch gemacht. Eine GTX460 ist für NV mit Sicherheit ein sehr viel besseres Geschäft als eine GTX465.
deekey777
2010-09-27, 14:18:06
Ich denke nicht, daß man das ATI-Forum mit dem Begriff "bestätigen" in einem Satz zusammen bringen kann. Die sind eine Quelle, aber weit entfernt davon, eine sichere Quelle zu sein.
Wenn man den Text liest, dann geben sie nur das wieder, was auf der Folie abzulesen ist. Ich sehe da wirklich keinen Satz, in dem steht, dass die Daten richtig sind.
Eigentlich steht da nur Blablabla. Da ist mein Blabla überzeugender.
Ich bin auf den Stromverbrauch gespannt. Da es keine neue Fertigungstechnik oder neue Architektur ist wird der höher ausfallen. Ich hoffe nebenbei das irgendwas am AF verbessert wurde, sonst ist die Karte keine Alternative zu meiner nVidia. Falls die Filterqualität gut angehoben wird muss ich mal über einen Kauf nachdenken. Wie gesagt, bin ich mal gespannt:)
P.S.: Ich denke mal die 6870 liegt Leistungstechnisch leicht über 480 Niveau. nVidia scheint aber kontern zu können siehe PCGH;)
dildo4u
2010-09-27, 14:52:58
~70% verbrauch sind es und nicht doppelt..
Furmak 98(5770Rev 2) zu 199Watt.(5870 Neues muster Rev2 ?)
http://ht4u.net/reviews/2010/nvidia_geforce_gts_450_test_msi_cyclone_gigabyte_oc/index18.php
Jupp. ATI-Forum kann man in der Pfeife rauchen. Was die da immer als Quellen haben wollen und was bei denen immer "sicher" ist... ändert sich im Endeffekt doch noch 20x. Drum abwarten, bis es wirkliche Quellen gibt und sich dann ein Bild machen. Eigentlich schade, dass es immer so viele gibt, die auf so eine Seite (oder auch andere) reinfallen.
Laut Napoleon soll wohl Barts nun tatsächlich als HD 6800 vorgestellt werden:
http://translate.google.de/translate?u=http%3A%2F%2Fwww.chiphell.com%2Fthread-126342-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8
mironicus
2010-09-27, 15:17:48
Wie war das denn damals bei den 5000er-Karten? Da gab es doch bestimmt auch irgendwelche geleakten Folien die sich dann als richtig herausstellten? Und wie lange waren die vor dem eigentlichen Launch bekannt?
Den Mist gab es damals bei HD 5800:
http://www.brightsideofnews.com/news/2009/4/24/ati-radeon-5870-and-5870x2-specs-revealed.aspx
Öffentliche Fake-Folien AFAIR nicht.
Wobei man sagen muss, dass Napoleon schon im Frühjahr 2009 die 1600SPs nannte. Einzig mit der Dual-Engine sorgte er kurz vor dem Launch für etwas Verwirrung.
mironicus
2010-09-27, 15:36:01
Sind wohl alles nur Hobby-Analysten. Manche haben halt Glück und liegen mal richtig.
derguru
2010-09-27, 15:37:29
Furmak 98(5770Rev 2) zu 199Watt.(5870 Neues muster Rev2 ?)
http://ht4u.net/reviews/2010/nvidia_geforce_gts_450_test_msi_cyclone_gigabyte_oc/index18.php
jo stimmt,ich hatte die tdp-werte genommen gehabt.
Laut Napoleon soll wohl Barts nun tatsächlich als HD 6800 vorgestellt werden:
http://translate.google.de/translate?u=http%3A%2F%2Fwww.chiphell.com%2Fthread-126342-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8
liegt doch nah,wenn die 6870(6770) schneller als eine 5850 sein soll passt die namensgebung doch.vielleicht macht es für amd wirklich kein sinn eine multigpu vorzustellen weil der cayman erstmal reicht.
deekey777
2010-09-27, 15:40:38
Laut Napoleon soll wohl Barts nun tatsächlich als HD 6800 vorgestellt werden:
http://translate.google.de/translate?u=http%3A%2F%2Fwww.chiphell.com%2Fthread-126342-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8
Auch eine stehende Uhr zeigt zweimal am Tag richtige Zeit an.
Auch eine stehende Uhr zeigt zweimal am Tag richtige Zeit an.
Immerhin konnte er schon Caicos- und Cayman-Karten zeigen. ;)
infinity
2010-09-27, 15:49:26
jo stimmt,ich hatte die tdp-werte genommen gehabt.
liegt doch nah,wenn die 6870(6770) schneller als eine 5850 sein soll passt die namensgebung doch.vielleicht macht es für amd wirklich kein sinn eine multigpu vorzustellen weil der cayman erstmal reicht.
Was spricht denn dagegen es so zu betrachten, dass der Cayman schon eine MultiGPU ist? Nämlich 2xBarts. Auf diese Weise würde man bspw von der alten vermeintlichen originalen Folie die 960Shader x 2 = 1920 bekommen... nur als MultiGPU halt. Und naja... etwas weit gesponnen, aber könnte doch durchaus auch irgendwie sein...
Gasti
2010-09-27, 15:57:23
Nein?
Nein weil nein;)
Warum sollte man Das bitte machen?
Da hätte man sich die Generation gleich sparen können.
dildo4u
2010-09-27, 15:57:31
jo stimmt,ich hatte die tdp-werte genommen gehabt.
liegt doch nah,wenn die 6870 schneller als eine 5850 sein soll passt die namensgebung doch.
Da passt gar nix die 6870 ist langsamer als die 5870.
derguru
2010-09-27, 16:00:04
Was spricht denn dagegen es so zu betrachten, dass der Cayman schon eine MultiGPU ist? Nämlich 2xBarts. Auf diese Weise würde man bspw von der alten vermeintlichen originalen Folie die 960Shader x 2 = 1920 bekommen... nur als MultiGPU halt. Und naja... etwas weit gesponnen, aber könnte doch durchaus auch irgendwie sein...
eine 5970 spricht dagegen die kaum langsamer sein sollte.das wäre null fortschritt was die leistung angeht.(abgesehen von der tessleistung)
wenn es so kommen würde wäre das echt traurig ;(
Da passt gar nix die 6870 ist langsamer als die 5870.
aber nur gering und weiter?
mironicus
2010-09-27, 16:02:45
Wäre doch Schwachsinn. Der Nachfolger 6870 langsamer als eine 5870? Eher erreicht eine 6770 fast die Performance des Topmodels der Vorreihe. Wozu sollte AMD auch mit dieser Tradition brechen? Es sei denn sie machen einen auf NVidia... ;)
dildo4u
2010-09-27, 16:03:18
aber nur gering und weiter?
Das ist irreführend für den Dau Käufer.
aylano
2010-09-27, 16:07:16
Laut Napoleon soll wohl Barts nun tatsächlich als HD 6800 vorgestellt werden:
http://translate.google.de/translate?u=http%3A%2F%2Fwww.chiphell.com%2Fthread-126342-1-1.html&sl=zh-CN&tl=en&hl=&ie=UTF-8
Das könnte auch erklären, warum einige von gar nicht so großen Steigerung bzw. bis +25% beim HD 6870 erwähnen, was im Bezug auf Shaders & neu-Front-End genau hinpassen könnte.
Nur die Textur-Leistung sieht mir zu niedrig aus, aber da könnte auch was optimiert sein, bzw. falsch angegeben sein.
Der Stromverbrauch passen IMO auch in der Tabelle (falls sie stimmen sollte), da ich immer schon 15-25% Effizienz-Verbesserung in Sachen Performance-pro-Watt einschätzte.
Einen HD 6970 könnte IMO für Cayman XT auch möglich sein, falls die obige Grafik stimmen sollten.
(Schließlich wissen wir ja nicht, wie AMD die x8x0er bzw. x9x0er genau definiert hat.
Denn so mit 200W-Spiele / 225 Watt-Furmark mit dementsprechenden Preisen & Performance könnte das eben als Extrem-Gamer-Tauglich benennt werden. Während die HD 68x0er-Serie eher Massen-Gamer-Taglich im Bezug auch Stromverbrauch / Performance / Preis sein kann.
Wenn Cayman wirklich 200/225 Watt haben sollte, dann würde sich eh nur eine Dual-Karte als HD 6990 ausgehen, da die schon recht stark reduziert werden muss um die 300 W-TDP zu erreichen
vielleicht macht es für amd wirklich kein sinn eine multigpu vorzustellen weil der cayman erstmal reicht.
Warum sollte AMD dann nicht seine Macht demonstrieren. Vorallem, wird Nvidia auch versuchen, die Performance-Krone zurückzuholen.
Wenn Barts & Caymann mit 1,15 Volt kommen (wie 5000er-Serie) könnte, AMD bei der Dual-Karte diesesmal vielleicht auf 1,00 Volt @ (650-)700 Mhz non-Deaktiviert heruntergehen um die 300 W - TDP einzuhalten.
Vereinfacht: (1/1,15)*(700/900)*(2x225W) = 304 Watt - TDP
Gast123424
2010-09-27, 16:12:58
Das ist irreführend für den Dau Käufer.
Nicht mal das, da neu Generation und Namensgebung. Insgesamt ist es aber vollkommen sinnfrei, da dann die Namen für die Topmodelle fehlen. Damit hätte man nur Massiven Gegenwind und könnte gleichzeitig nicht mal ein paar DAUs verarschen. Ob 67XX oder 68XX ist dieser Gruppe doch egal solange es noch höhere Nummern gibt.
Wäre doch Schwachsinn. Der Nachfolger 6870 langsamer als eine 5870? Eher erreicht eine 6770 fast die Performance des Topmodels der Vorreihe. Wozu sollte AMD auch mit dieser Tradition brechen? Es sei denn sie machen einen auf NVidia... ;)
Kann ich mir nicht vorstellen. Der Name würde nicht passen. 6870 suggeriert mehr Leistung als 5870. Ich hoffe AMD fängt nicht mit dem Namenschaos ala NV an. Sollte es so sein, darf AMD gerne die Karte behalten;) Leid tun mir dann die Unwissenden Saturnkäufer.
Superheld
2010-09-27, 16:22:04
Noch ein Spalten auf der vermeintlichen AMD-Folie:
http://img.pconline.com.cn/images/upload/upc/tx/itbbs/1009/27/c0/5329491_1285554321619_1024x1024.jpg
http://itbbs.pconline.com.cn/diy/11921416.html
die fehlenden Spalten hat man noch schnell früh gemacht ?:tongue:
infinity
2010-09-27, 16:29:29
die fehlenden Spalten hat man noch schnell früh gemacht ?:tongue:
will ja nicht klugscheißern, aber hier muss es sein... : es sind fehlende zeilen, nicht spalten :P
oder verpeil ich hier irgendwas!?
Superheld
2010-09-27, 16:33:03
hast recht :)
http://www.google.de/imgres?imgurl=http://www.luk-korbmacher.de/Schule/Text/tabelle.gif&imgrefurl=http://www.luk-korbmacher.de/Schule/Text/din5008_11.htm&usg=__BK3_EcUeFUqVePrFjAaOLeOQjFY=&h=426&w=667&sz=9&hl=de&start=3&zoom=1&um=1&itbs=1&tbnid=Envj3ADvb5-f1M:&tbnh=88&tbnw=138&prev=/images%3Fq%3Dtabelle%2Bspalte%26um%3D1%26hl%3Dde%26client%3Dopera%26sa%3DN%26rls %3Dde%26tbs%3Disch:1
infinity
2010-09-27, 17:00:25
hast recht :)
http://www.google.de/imgres?imgurl=http://www.luk-korbmacher.de/Schule/Text/tabelle.gif&imgrefurl=http://www.luk-korbmacher.de/Schule/Text/din5008_11.htm&usg=__BK3_EcUeFUqVePrFjAaOLeOQjFY=&h=426&w=667&sz=9&hl=de&start=3&zoom=1&um=1&itbs=1&tbnid=Envj3ADvb5-f1M:&tbnh=88&tbnw=138&prev=/images%3Fq%3Dtabelle%2Bspalte%26um%3D1%26hl%3Dde%26client%3Dopera%26sa%3DN%26rls %3Dde%26tbs%3Disch:1
OT: Gut, damit wären ja alle rätsel um die neue Radeon 6xxx Serie gelöst ;D
Irgendwie scheint mir die folie persönlich wirklich zu sehr nach einer guten fälschung auszusehen. Das ganze ist etwas seltsam und ein wenig zu hoch gegriffen. Zumal es ja auch wieder diese komische diskrepanz gibt mit den Modellnummern... Auf der Folie steht 67xx und laut dem Post von einem Gast hier soll ja ein recht gut informierter Napoleon die Barts als 68xx bezeichnet haben. Das passt alles vorn und hinten nicht, sodass ich glaube, dass die alte folie mit den 960 Shadern richtig ist, zumal sie einfach realistischer und stimmiger ist.
Weiterhin ist es doch seeeehr seltsam warum jemand die zeilen einfach so vergisst....Hat man die weggelassen um es etwas spannender zu gestalten und einen Cliffhanger des Newsposts zu machen? Wer bitte macht sich die mühe und schneidet bei einer Folie ein paar zeilen weg, um sie dann ein paar stunden später zu veröffentlichen?... Ist einfach trittbrettfahrertum und blablubb gedöns das ganze...
deekey777
2010-09-27, 17:04:02
Ich bin mir nicht gaaaanz sicher, aber 64 TMUs und 320x4 würden gehen, wenn man den R600 als Grundlage nimmt.
Zuerst stellen wir uns zwei Blöcke wie beim Cypress vor (Dual-Engine). Jeder Block hat dann 8 TMU-Quads und 160 vierer-VLIWs bzw. 40 Quads bzw. 5 SIMDs a vier 4-Slot-VLIW-Quads.
Warum das nicht aufgeht: Ist DAAMIT bereit, die Latenz von 4 auf 2 zu senken? Na gut, Nvidia hat's getan.
Also wieder von horizontal auf vertikale SIMDs?
Dazu muss man die TMUs wohl wieder entkoppeln.
Also pro Engine eine TMU-SIMD (mit acht Quad-TMUs) und 5 ALU-SIMDs (mit je 128SPs).
Das würde auch zu Ailuros' Info mit zwei zusätzlichen SIMDs gegenüber Juniper passen, nur dass es eben keine EG-SIMDs mehr sind hätte hier gefehlt. ;)
Wenn es AMD entsprechend umgesetzt hat, könnten sie bei dieser Architektur auch die ALU-SIMDs deaktivieren, ohne TMUs zu deaktivieren.
Dazu muss man die TMUs wohl wieder entkoppeln.
Won't happen.
Won't happen.
Wäre aber wohl die einzige Möglichkeit die Wavefront-Größe von 64 und auch das ALU:Tex-Verhältnis im Bezug auf die Peak-Werte zu erhalten, wenn man auf 4D gehen will.
Wohl möglich günstiger als SIMDs mit 64SPs zu verbauen, welche bei einem 1920SPs Cayman 120 TMUs nach sich ziehen würden.
Entkoppelt kann man die TMUs vielleicht auch besser mit Bandbreite füttern, sodass der Durchsatz deutlich steigt.
Wäre aber wohl die einzige Möglichkeit die Wavefront-Größe von 64 und auch das ALU:Tex-Verhältnis im Bezug auf die Peak-Werte zu erhalten, wenn man auf 4D gehen will.
Wohl möglich günstiger als SIMDs mit 64SPs zu verbauen, welche bei einem 1920SPs Cayman 120 TMUs nach sich ziehen würden.
Es skaliert aber nicht, weil man eine riesige Crossbar bräuchte. Die Bandbreite 120 TMUs an die VLIWs anzubinden wäre viel zu hoch.
Das hatte schon einen sehr guten Grund, warum AMD von diesem Konzept mit dem RV770 abgekommen ist.
Beim aktuellen "Konzept" sind es ja auch keine 120 TMUs, sondern eben nur 96 TMUs.
Und eine gigantische Crossbar wäre es wohl auch nicht, sondern eben drei Crossbars mit geringerer Komplexität, die je 5 ALUs SIMDs (mit je 32 VLIW-ALUs) und eine TU-SIMD (mit 8 Quad-TMUs verbinden).
deekey777
2010-09-27, 18:25:44
Wenn mich nicht alles täuscht, hat Gipsel mal geschrieben, dass der damit zwangläufig verbundene Wechsel von 4-Takt-Latenz auf 2-Takt-Latenz einfach viel Aufwand bedeutet.
Beim aktuellen "Konzept" sind es ja auch keine 120 TMUs, sondern eben nur 96 TMUs.
Und eine gigantische Crossbar wäre es wohl auch nicht, sondern eben drei Crossbars mit geringerer Komplexität, die je 5 ALUs SIMDs (mit je 32 VLIW-ALUs) und eine TU-SIMD (mit 8 Quad-TMUs verbinden).
5 ist aber eine sonderbar krumme Zahl.
3 war aber auch krumm: http://www.computerbase.de/bildstrecke/18244/6/
deekey777
2010-09-27, 18:34:26
3 war aber auch krumm: http://www.computerbase.de/bildstrecke/18244/6/
Die Fünf ist krummer. Was soll die zusätzliche Shaderpower bringen?
Einerseits hat man eine "unnötige" Einheit gekillt, dafür aber ein weiteres Shader-SIMD drangehängt.
Die Fünf ist krummer. Was soll die zusätzliche Shaderpower bringen?
ALU:Tex bleibt doch im Bezug auf die Peakwerte gleich und real könnte es auch bei gleichen Niveau bleiben, wenn der TMU-Durchsatz steigt.
R600GT hatte ja auch ein TU-SIMD mit der Tiefe von 3 Quads, während es 4 ALU-SIMD waren.
Das ist irreführend für den Dau Käufer.
Aus Herstellersicht ist ja das schöne, dass ein Dau gar nichts von alledem merkt. Er ist einfach nur zufriden, weil es nun größere Zahlen sind. Trarug aber wahr, sieht man ja an der ganzen Umlabelgeschichte von Nvidia.
Aus Herstellersicht ist ja das schöne, dass ein Dau gar nichts von alledem merkt. Er ist einfach nur zufriden, weil es nun größere Zahlen sind. Trarug aber wahr, sieht man ja an der ganzen Umlabelgeschichte von Nvidia.
Ich weiß garnicht, was ihr alle habt!
Wenn Barts Pro die Performance der HD 5850 und Barts XT die Performance der HD 5870 erreicht, warum sollten sie dann nicht HD 6850 und HD 6870 heißen.
Die Rechtfertigung für die höhere Nummer sind dann einfach die hoffentlich vorhandenen neuen Features und bessere Tesselationleistung.
boxleitnerb
2010-09-27, 20:13:25
Das ist aber nicht die Regel und daher verwirrend.
y33H@
2010-09-27, 20:14:14
Was für Features sollen das sein? Gescheites AF? ;D Namen sind Schall und Rauch.
Nakai
2010-09-27, 20:16:12
Die 1280SP-Folie scheint nach Napoleon falsch zu sein, da Barts als HD68xx kommt. Und ja er merkte an, dass die Geometrieleistung stark gestiegen ist. Unter DX9 und DX10 sollte eine HD6870 nicht an die HD5870 oder HD5850 rankommen, aber bei DX11 ist ein großes Fragezeichen. Er hat den Raum für Verbesserungen ziemlich wage offen gelassen.
Naja wenn die andere Folie richtig ist, dann haben wir das gleiche Problem. 960SPs und 12 SIMDs bei 4D-VLIW-Einheiten...
Ergo nach einigen anderen Anmerkungen auf B3D("mixed bag") könnte Barts noch auf 5D-VLIW-Einheiten bauen, ergo nicht die ganze Produktlinie wird die neuen 4D-Einheiten haben.
mfg
Was für Features sollen das sein? Gescheites AF? ;D Namen sind Schall und Rauch.
Nee - leise und performante Karten mit akzeptablem Verbrauch!
RoNsOn Xs
2010-09-27, 20:58:45
Mit Verbrauch kannst du auch die Masse nicht überzeugen. Das ist auch nur für ein paar Freaks, wie hier im 3dc relevant.
davidzo
2010-09-27, 21:07:47
Mit Verbrauch kannst du auch die Masse nicht überzeugen. Das ist auch nur für ein paar Freaks, wie hier im 3dc relevant.
wo lebst du, auf dem mond?
verbrauch ist für die OEMs das a&o direkt neben dem preis. Da der mobilmakrt außerdem gut die hälfte ausmacht ist der verbrauch insbesondere der midrangechips, die ja dann das mobile highend darstellen, extrem wichtig.
LadyWhirlwind
2010-09-27, 21:11:31
Ich bin hier ja nur ab und zu hier im Thread und verfolge die GPU-Entwicklung auch nur aus der ferne, aber ich hab da so ne Theorie was hier passiert.
Die Chips die wir jetzt als Barts kennen, waren ursprünglich als Performance-Klasse der 6xxx-Reihe gedacht, allerdings könnte die 6000er Reihe zu einer Zeit konzipiert worden, sei man noch davon ausging, dass man im Jahr 2010 in 32nm Produzieren könne. ATI etwas auf dem kalten Fuss erwischt, entschied dann halt die Barts auf 40nm zu produzieren und die eigentlich geplanten Highend Chips zu streichen (bzw. als erstes in 28nm zu bringen), da diese mit 40nm nur sehr teuer zu produzieren gewesen wären.
Käme das in etwa hin?
Undergroundking
2010-09-27, 21:45:19
amd hält den sargnagel in der hand. natürlich nicht in bezug aufs überleben von nvidia, sondern in bezug auf dominanz und marktdurchdringung.
schon im moment hat ati über 50% marktanteil und barts ist der großangriff gegen die letzte quasi verkaufsfähige karte von nvidia, die GTX 460.
laut äusserungen von charlie, der ja nicht unbedingt oft falsch lag in seinen prognosen, stimmt die neue folie.
persönlich würd ich amd auch empfehlen die barts 68xx zu nennen, alleine der verdoppelung der speicherbandbreite schiebt barts eben in eine neue klasse. nvidia hats vorgemacht, nomen est omen, das ding will eben nen guten namen haben.
nvidia ist danach ziemlich im arsch, aktien würd ich verkaufen, die dominanz im gpu-markt ist geschichte, sie hecheln nur noch verzweifelt hinterher.
und da apple nun auf amd gpus setzt, wird eh open cl in zukunft standard.
und gpu physx wird auch nur aufgrund massiven sponsoring benutzt, wo ich da in zukunft auch eher schwarz sehe. die finanziellen mittel werden fehlen.
crux2005
2010-09-27, 21:58:41
zwar nichts interessantes, aber OBR prollt wieder:
http://img842.imageshack.us/img842/6559/slajd1l.png
http://img818.imageshack.us/img818/5612/slajd2.png
http://obrovsky.blogspot.com/2010/09/radeony-hd-6800-vime-vse.html
morgen soll was interessanteres auf PCTuning.cz erscheinen...
y33H@
2010-09-27, 23:00:08
Nee - leise und performante Karten mit akzeptablem Verbrauch! Zumindest bei Barts Pro/XT sollte das machbar sein.
Cayman Pro/XT wird zumindest in 3D wohl kaum leise werden, das waren die HD 58x0 ja schon nicht. But we'll see [hear ;D].
Sorkalm
2010-09-27, 23:11:15
zwar nichts interessantes, aber OBR prollt wieder:
Unten hat er in einem Satz vergessen (ob absichtlich oder versehentlich sei mal da hingestellt), die 3 Ziffern nach der HD 6 zu streichen. Dass da HD 6800 steht, deutet nun wirklich darauf hin, dass Barts als HD 6800 kommt. Und dann wären beide der bisher kursierenden Folien falsch...
Neue Folie bei Computerbase, die der HD 6700-Reihe eine höhere Leistung bescheinigt als bisher angenommen:
Bild zur Folie: http://www.computerbase.de/bildstrecke/30938/1/
Artikel: http://www.computerbase.de/news/hardware/grafikkarten/ati/2010/september/verwirrung-um-radeon-hd-6700-spezifikationen/
Zitat:
Die in der Abbildung aufgeführten vermeintlichen Spezifikationen der „HD 6700“-Serie deuten darauf hin, dass man gegenüber den Vorgängermodellen HD 5750 und HD 5770 mehr als deutlich an Leistung zulegen will. Die Vorgänger überflügelt man – zumindest auf dem Papier – offenbar mit Leichtigkeit und die HD 6770 dürfte sogar eine aktuelle HD 5850 überbieten.
Das wäre schon ein Hammer, wenn bereits die "HD 6770" sich zwischen HD 5850 und HD 5870 positionieren könnte.
puntarenas
2010-09-28, 09:46:49
Ich habe jede Menge OffTopic-Kram in den Thread Verkauft sich die 465, 470 und 480 (zurecht) zu schlecht (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=492559) abgespalten.
Thema hier: Southern Islands GPUs (wohl 40 nm, 2010)
AMD has recently postponed the launch schedule of its next-generation Radeon HD 6000 series GPUs (Southern Islands) from the original October 12 to November, according to sources from graphics card makers.
http://www.digitimes.com/news/a20100927PD228.html
Dural
2010-09-28, 10:24:04
amd hält den sargnagel in der hand. natürlich nicht in bezug aufs überleben von nvidia, sondern in bezug auf dominanz und marktdurchdringung.
schon im moment hat ati über 50% marktanteil und barts ist der großangriff gegen die letzte quasi verkaufsfähige karte von nvidia, die GTX 460.
laut äusserungen von charlie, der ja nicht unbedingt oft falsch lag in seinen prognosen, stimmt die neue folie.
persönlich würd ich amd auch empfehlen die barts 68xx zu nennen, alleine der verdoppelung der speicherbandbreite schiebt barts eben in eine neue klasse. nvidia hats vorgemacht, nomen est omen, das ding will eben nen guten namen haben.
nvidia ist danach ziemlich im arsch, aktien würd ich verkaufen, die dominanz im gpu-markt ist geschichte, sie hecheln nur noch verzweifelt hinterher.
und da apple nun auf amd gpus setzt, wird eh open cl in zukunft standard.
und gpu physx wird auch nur aufgrund massiven sponsoring benutzt, wo ich da in zukunft auch eher schwarz sehe. die finanziellen mittel werden fehlen.
ist eigentlich lächerlich darauf was zu sagen, aber die aussage das NV hinterher hinkt ist genial :freak: wer hat schon seit gut 4 jahren regelmässig die schnellste GPU? :P und derzeit nicht mal mit einer vollen GPU hahaha ;D
und wenn ich die DX11 Leistung anschauen, frag ich mich WER mit seiner ca. 3 Jahren alten Architektur die bis heute nie gross verändert wurde hinterher hinkt...
wenn die folien stimmen dürfte Bart so wie so in etwa ca. GF104 Leistung haben... also nix da von dominant höchtens gleich auf... man kann so wie so sagen das AMD mit dem Bart nur auf den GF104 reagiert hat, weil Cayman nicht mal doppelt so gross wie Bart ist und das gab es zuvor so noch nie... ähnlich wie GF100 zu GF104
Labberlippe
2010-09-28, 10:42:08
Hi
Meine Vorahnung.
Der Bart Pro wird Leistungsmässig bei 5770 liegen.
Der Bart XT wird Leistungsmässig unter 5850 liegen. (10-20%)
Das Flagschiff von AMD wird ca. 20-30%über der aktuellen 5870 liegen.
Beim AF wird sich nichts ändern dafür wird AMD den 3D Bereich erweitern.
Ausser AMD bringt tatsächlich den Bart mit einen 256er SI dann frage ich mich allerdings wie mit 40nm dann das Flagschiff aussehen soll.
So wie es aussieht bringen die den ja tatsächlich mit 256 Interface was mich ehrlich gesagt für einen MidRange Chip wundert.
Im stärksten Fall wäre der Bart XT dann bei 5850 Niveau oder knapp drüber mit vielleich verbesserten AF und einen 256er SI.
Was ich aber nicht glaube. (AF mässig halt.)
Gruss Labberlippe
Gast6789
2010-09-28, 10:42:55
ist eigentlich lächerlich darauf was zu sagen, aber die aussage das NV hinterher hinkt ist genial :freak: wer hat schon seit gut 4 jahren regelmässig die schnellste GPU? :P und derzeit nicht mal mit einer vollen GPU hahaha ;D
ATI beliefert seit geraumer Zeit das Highend nur noch mit Duallösungen. Das Rennen um den schnellsten Chip gibt es seit Jahren nicht mehr. Aber scheinbar verdrängen das einige sehr gut... Was Planung und Ausführung der Chip-Designs angeht ist NV inzwischen Lichtjahre hinterher. Seit G92 lief da nichts mehr nach Plan.
OnT.:
Eine Verschiebung bis November wäre unschön. Stellt sich natürlich die Frage ob nur Vorstelllug oder auch Auslieferung betroffen sind. Zum Auslieferungstermin war ja bis jetzt nichts bekannt.
Und mein Papa ist stärker als dein Papa! Bla, bla, bla... :rolleyes:
--
Eine Karte die sich gar nicht, beziehungsweise nur kaum von der 5870 absetzen kann, 6870 zu nennen ist einfach Unfug. Ich kann mir nicht vorstellen das A/A sowas macht. Speicherbandbreite hin oder her.
Ausser AMD bringt tatsächlich den Bart mit einen 256er SI dann frage ich mich allerdings wie mit 40nm dann das Flagschiff aussehen soll.
Es gab doch schon ein Barts Sample mit 256-Bit zu sehen. Und vom High-End grenzt man sich ab, indem bei Barts günstiger 0,5-0,4ns GDDR5 verwendet wird, während Cayman vielleicht differential signaling GDDR5 mit ~0,3ns verwendet.
Eine Verschiebung bis November wäre unschön. Stellt sich natürlich die Frage ob nur Vorstelllug oder auch Auslieferung betroffen sind. Zum Auslieferungstermin war ja bis jetzt nichts bekannt.
Neliz hatte eine einfache Antwort darauf: Bart wurde sogar vorgezogen. Quelle: Beyond3D forum
Eine Karte die sich gar nicht, beziehungsweise nur kaum von der 5870 absetzen kann, 6870 zu nennen ist einfach Unfug. Ich kann mir nicht vorstellen das A/A sowas macht. Speicherbandbreite hin oder her.
IMHO:
Machen sie auch nicht. Da hat nur irgendwer was in den falschen Hals bekommen.
Meine Interpretation:
1. Gerücht: Bart ist so gut, der ersetzt die HD5850
=> daraus wurde dann "Bart = 68xx" gemacht, obwohl ursprünglich nur gemeint war, dass Bart so schnell wird wie die alte Highend-Generation.
Die HD5770 ist ja auch so schnell wie die HD4870, trotzdem hat ATi sie nicht HD5870 genannt (und die HD5870 dann HD5970)
Mal wieder was Neues:
http://www.xtremesystems.org/forums/showpost.php?p=4567603&postcount=691
http://bbs.expreview.com/viewthread.php?tid=37063&from=recommend_f
mironicus
2010-09-28, 11:16:57
Liest sich wie die 5000er-Featureliste. Nix wirklich neues bis auf UVD3 und HDMI 1.4 mit BluRay3D-Support (keine Musthave-Features)
Dural
2010-09-28, 11:20:03
Seit G92 lief da nichts mehr nach Plan.
GF104 / GF106 / GF108 verliefen wohl schon nach Plan, alle drei sind mit dem A1 auf den Markt gekommen... nur so als bespiel...
keine grosse GPUs mehr von AMD? diesen blödsinn glauben manche User immer noch weil AMD dies zu zeiten des RV670 (kleiner Low-End Chip...) mal gesagt hat...
AMD hat seit dem RV670 regelmässig ihre GPU wider vergrössert und so wie es ausschaut ist Cayman wider etwas grösser als Cypress... Es ist nur noch eine Frage derzeit bis wir wider 400mm2+ von AMD sehen werden.
Selbst ein AMD Mensch hat gesagt: "wir können mittlerweilen wider grössere Chips bauen und werden uns jetzt stetig erhöhen"
Was soll da auch revolutionäres kommen. Ich denke man wird nun aber mit aller Macht und wirklich guter Unterstützung auf den 3D Zug aufspringen, auch wenn es viele wohl immer noch nicht interessieren wird. Außerdem soll es ja deutliche Verbesserungen bei Eyefinity geben um das Ganze weiter zu pushen.
Was ist das eigentlich?
AMD EyeSpeed visual acceleration3
o AMD Accelerated Parallel Processing (APP) technology
AMD EyeSpeed visual acceleration
o AMD Accelerated Parallel Processing (APP) technology
? :|
Ailuros
2010-09-28, 11:26:47
GF104 / GF106 / GF108 verliefen wohl schon nach Plan, alle drei sind mit dem A1 auf den Markt gekommen... nur so als bespiel...
Nachdem sich GF100 um etliche Monate verspaetet hat und die Ableger so oder so nach dessen Fertigstellung finalisiert wurden, verlief genau was nach Plan? Waere GF100 im Oktober 2009 angekommen, haetten wir GF104 vielleicht auch schon Februar 2010 gesehen.
AMD hat seit dem RV670 regelmässig ihre GPU wider vergrössert und so wie es ausschaut ist Cayman wider etwas grösser als Cypress... Es ist nur noch eine Frage derzeit bis wir wider 400mm2+ von AMD sehen werden.
Selbst ein AMD Mensch hat gesagt: "wir können mittlerweilen wider grössere Chips bauen"
Wenn Dein 349mm2 performance die nur um die 15% weniger im Durchschnitt leistet als der 550mm2 Bolide der Konkurrenz, dann hast Du noch geraumen Platz mehr Transistoren und mehr die area zu verplempern. Im zweiten Fall hat man den Luxus wohl nicht ausser man packt die Transistoren so dicht und wieder auf Knien liegt dass das Resultat bloss nicht den Stromverbrauch durch die Decke knallt.
Gasti
2010-09-28, 11:29:54
AMD EyeSpeed visual acceleration
o AMD Accelerated Parallel Processing (APP) technology
? :|
Kann mehrere Kernels gleichzeitig ausführen. (vermutlich)
LovesuckZ
2010-09-28, 11:30:03
AMD EyeSpeed visual acceleration
o AMD Accelerated Parallel Processing (APP) technology
? :|
Darunter schauen. Buzzword für GPGPU.
Darunter schauen. Buzzword für GPGPU.
Nein, das steht unter "Image quality enhancement technology".
Dural
2010-09-28, 11:42:46
Nachdem sich GF100 um etliche Monate verspaetet hat und die Ableger so oder so nach dessen Fertigstellung finalisiert wurden, verlief genau was nach Plan? Waere GF100 im Oktober 2009 angekommen, haetten wir GF104 vielleicht auch schon Februar 2010 gesehen.
Bestimmt nicht! GF104 wurde deutlich überarbeitet, diese GPU hätte man NIE im Febraur gesehen und gerade du solltest wissen das man die parallel Entwickelt hat, anders wäre ein GF104 nur 3 Monate nach GF100 auch gar nicht möglich gewessen!
Wenn Dein 349mm2 performance die nur um die 15% weniger im Durchschnitt leistet als der 550mm2 Bolide der Konkurrenz, dann hast Du noch geraumen Platz mehr Transistoren und mehr die area zu verplempern. Im zweiten Fall hat man den Luxus wohl nicht ausser man packt die Transistoren so dicht und wieder auf Knien liegt dass das Resultat bloss nicht den Stromverbrauch durch die Decke knallt.
Was kosten wohl so viele Transistoren im GF100... überleg mal nach... dann schau dir den GF104 im vergleich zum RV870 an, na klingelt es? und deine 15% sind wohl gemerkt nicht mal auf einen vollen GF100 bezogen...
Und wie viele % sind es bei DX11 und / oder plus Tess.....
Das ist wie wenn ich sagen würde ein Golf ist mit 100km/h auch gleich schnell wie ein Ferrari mit 100Km/h, der Ferrari hat aber andere "möglichkeiten" ;)
Duplex
2010-09-28, 11:51:19
HD5870 - 335mm² Chipfläche = 100% Leistung
GTX480 - 530mm² Chipfläche = 120% Leistung
Nvidia braucht 60% mehr Chipfläche für 20% mehr Leistung als 5870, dazu kommt noch ein teures Speicherinterface, teures Kühlsystem, 380 € kostet derzeit eine GTX480, wie kann man im Desktop Markt überhaupt Geld damit verdienen, bei AMD würde ein großer Chip 500-600 € kosten
@Northern Islands
also 320-4D Shader bei Barts & 640-4D Shader bei Cayman sind nicht unmöglich, ich schätze Barts wird 200-230mm² Chipfläche & Cayman wird 400-450mm² Chipfläche haben, mit 640-4D einheiten & 512 Bit SI wäre die 6870 50% schneller als eine GTX480 :) also eine größere Chipfläche bringt dann auch mehr leistung als bei Nvidia ;) und so eine Karte wäre auch 500-600 € ohne zweifel Wert
Dural
2010-09-28, 11:57:38
wie wenn man den GF100 mit einem RV870 vergleichen könnte... noch ein mal, Vergleicht Rv870 mit dem GF104 alles andere macht keinen sinn... da in den für GF100 vorgesehen entwicklungs ziele kreise um den RV870 zieht...
MadManniMan
2010-09-28, 11:58:07
Hui! Mehr oder minder offiziell bestätigt, dass mit den neuen Radeons der 3D-Vision-Konterpart kommt - sehr schön!
Damit werden Radeons für mich wieder kaufbar. Prinzipiell ... abwarten!
LovesuckZ
2010-09-28, 12:00:07
Hui! Mehr oder minder offiziell bestätigt, dass mit den neuen Radeons der 3D-Vision-Konterpart kommt - sehr schön!
Damit werden Radeons für mich wieder kaufbar. Prinzipiell ... abwarten!
Huch? Was ändert sich denn zu heute? 3D Stereo unterstützen sie doch schon heute.
Ailuros
2010-09-28, 12:04:55
Bestimmt nicht! GF104 wurde deutlich überarbeitet, diese GPU hätte man NIE im Febraur gesehen und gerade du solltest wissen das man die parallel Entwickelt hat, anders wäre ein GF104 nur 3 Monate nach GF100 auch gar nicht möglich gewessen!
Gut und wieso ging ein ~375mm2 die nicht frueher in die Produktion? Es gab seit Sommer 2009 unendliche Entschuldigungen seitens NV dass bei den miesen 40G yields keine Produktion sinnvoll moeglich gewesen waere und dazu mit heiklen Einzelheiten die alle zusammen auch voll Sinn gemacht haben aber wohl nur fuer einen 550mm2 grossen die und nicht um einen um >30% kleineren. Cypress ist nach den gleichen PCGH Messungen 349mm2 gross zur Erinnerung.
NVIDIA hat gar nichts parallel entwickelt oder besser nicht so parallel wie AMD dass mit Wochen-abstand diverse chips zur Produktion geschickt wurden.
Stell Dir mal ganz einfach vor wie die GF10x road-map irgendwo Anfang 2009 von NVIDIA genau ausgesehen hat.
Was kosten wohl so viele Transistoren im GF100... überleg mal nach... dann schau dir den GF104 im vergleich zum RV870 an, na klingelt es? und deine 15% sind wohl gemerkt nicht mal auf einen vollen GF100 bezogen...
Es GIBT keine 16 SM GF100 die erhaeltlich ist ergo ist es mir wurscht was sie jeweils deaktiviert haben. Im besten Fall haette bei gleicher heutigen Frequenz (was wohl ausserhalb jeglicher Garantie liegt wenn es zum Stromverbrauch kommt) haetten 16SMs wieviel Unterschied gemacht? Nochmal 5% und ergo ingesamt 20%?
Neben dem reinem technischen Verstaendnis warum GF100 ueber 3Mrd. Transistoren wiegt ist es mir als Verbraucher ziemlich wurscht wieso dieser so viel wiegt wenn ich zum Ladentisch gehe und mir eine mainstream GPU kaufe. Glaubst Du es interessiert den Otto-Normalverbraucher wohin NV ihre Transistoren verplempert wenn er sie nicht benutzen kann?
Und wenn ich mir schon GF104 ansehen soll dann frag NVIDIA dearest warum sie das Ding nicht von Anfang an fuer Herbst 2009 geplant haben und GF100 haette auf sich warten koennen und nebenbei auch "warum es nicht moeglich war". Sie wussten seit Anfang 2008 dass 40G mit hoher Chipkomplexitaet problematisch sein wird, und es ist auch nicht so dass Jensen sich selber oder sein engineering team in seinen neuesten Aussagen als total unschuldig praesentiert. Dass er den Anstand hat einige Fehler einzugestehen nehme ich ihm den Hut ab; nur dreht sich bei mir eben bei jeglichem bullshit seitens diverser fans einfach der Kopf.
wie wenn man den GF100 mit einem RV870 vergleichen könnte... noch ein mal, Vergleicht Rv870 mit dem GF104 alles andere macht keinen sinn... da in den für GF100 vorgesehen entwicklungs ziele kreise um den RV870 zieht...
Ich vergleiche gar nichts mit Cypress dass etliche Monate spaeter kam; unter der Logik kann ich dann auch Cayman gegen GF104 vergleichen weil Zeit eben keine Rolle spielt. Zum Zeitpunkt wo GF104 endlich erschien hatte AMD schon etliche Millionen an DX11 GPUs verkauft.
Duplex
2010-09-28, 12:07:52
@Dural
natürlich vergleiche ich Fermi gegen RV870, kennt ihr noch die Folien von Nvidia (Vorteile von Fermi gegenüber RV870), Fermi aka GTX480/70 war die Antwort auf die HD5870/5850
aus meiner Sicht
GTS450 = 5770 schneller
GTX460 = 5850 schneller
GTX470 = 5870 schneller
GTX480 = 5970 schneller
von einem Preiskrieg war leider nichts zu sehen
Die 5870 ist z.b. in der Produktion günstiger als eine GTX460 ;)
Zum Zeitpunkt wo GF104 endlich erschien hatte AMD schon etliche Millionen an DX11 GPUs verkauft.
so siehts aus
ShadowXX
2010-09-28, 12:11:54
Mal wieder was Neues:
http://www.xtremesystems.org/forums/showpost.php?p=4567603&postcount=691
http://bbs.expreview.com/viewthread.php?tid=37063&from=recommend_f
Liest sich wie die 5000er-Featureliste. Nix wirklich neues bis auf UVD3 und HDMI 1.4 mit BluRay3D-Support (keine Musthave-Features)
Und auch da wird wieder von 6850 & 6870 gesprochen.....ich glaube das Bart tatsächlich unter den 68xx-Label antreten wird.
Und ich gehe inzwischen auch davon aus das Cayman (dann als 69xx) wohl erst anfang nächstes Jahres kommt.
@Dural
natürlich vergleiche ich Fermi gegen RV870, kennt ihr noch die Folien von Nvidia (Vorteile von Fermi gegenüber RV870), Fermi aka GTX480/70 war die Antwort auf die HD5870/5850
aus meiner Sicht
GTS450 = 5770 schneller
GTX460 = 5850 schneller
GTX470 = 5870 schneller
GTX480 = 5970 schneller
von einem Preiskrieg war leider nichts zu sehen
Die 5870 ist z.b. in der Produktion günstiger als eine GTX460 ;)
so siehts aus
Die GTX460 steht gegen die 5830 und die GTX470 gegen die 5850....das war (und ist) vom Preis auch so.
deekey777
2010-09-28, 12:11:55
Nein, das steht unter "Image quality enhancement technology".
Er hat Recht.
Ist das Gleiche wie DPP vor fast fünf Jahren.
mapel110
2010-09-28, 12:12:53
von einem Preiskrieg war leider nichts zu sehen
Das soll an den knappen Fertigungskapazitäten bei TSMC liegen. Und die sollten sich jetzt mit der Fertigstellung der neuen Fab langsam lösen zum Jahresende.
LovesuckZ
2010-09-28, 12:15:25
Zum Zeitpunkt wo GF104 endlich erschien hatte AMD schon etliche Millionen an DX11 GPUs verkauft.
Und nVidia hat zu dem Zeitpunkt die Marktführerschaft über 40nm Produkte inne.
Und nVidia hat zu dem Zeitpunkt die Marktführerschaft über 40nm Produkte inne.
Was natürlich einzig und alleine daran lag das sie mehr Wafer bekamen und nur Lowend-Schrott verkauften da die DX11-Chips nicht mal annähernd fertig waren.
Ailuros
2010-09-28, 12:19:20
Und nVidia hat zu dem Zeitpunkt die Marktführerschaft über 40nm Produkte inne.
Wen zum Henker interessiert der ganze GT21x@40G Krampf genau? Nebenbei gehoert Tegra2 auch noch dazu.
Mancko
2010-09-28, 12:20:32
Was natürlich einzig und alleine daran lag das sie mehr Wafer bekamen und nur Lowend-Schrott verkauften da die DX11-Chips nicht mal annähernd fertig waren.
So what? Ist doch vollkommen egal. Sie haben AMDs Erfolg damit doch aber ganz gut eindämmen können und jetzt sind sie selber mit am Markt und betreiben einen netten Preiskrieg. Das wird sich recht bald in verkauften Einheiten niederschlagen. Es gab genug Leute die gewartet haben einschließlich mir. Durch die 460 ist mein Bedarf aber vorerst gedeckt. Meine Gigabyte GTX 460 OC ist endsgeil.
LovesuckZ
2010-09-28, 12:25:38
Was natürlich einzig und alleine daran lag das sie mehr Wafer bekamen und nur Lowend-Schrott verkauften da die DX11-Chips nicht mal annähernd fertig waren.
Tja, so ist das leben. Die Wahrheit tut weh. So wie AMD mehr DX11 Karten verkauft hat, hat nVidia mehr am 40nm Prozeß verdient. Es geht sogar Hand in Hand, da beide 40nm Generationen zeitnah erschienen sind.
Ailuros
2010-09-28, 12:27:39
Was natürlich einzig und alleine daran lag das sie mehr Wafer bekamen und nur Lowend-Schrott verkauften da die DX11-Chips nicht mal annähernd fertig waren.
Jeder IHV hat ein gewisses Prozentual an wafers fuer 40G vorbestellt. Nicht nur ist das Prozentual von NV diesbezueglich hoeher aber es hilft ihnen auch bei TSMC leicht bessere Herstellungs-preise in ihren Vertraegen zu erringen. Anstatt Lehrgang zu haben war die 40G Ausnutzung die so oder so fuer die gesamte GT21x Familie geplant war eigentlich normal. GT214 und GT212 haben sie wohl aus ihren eigenen Gruenden storniert; zu dem Zeitpunkt waren sie sich ja auch noch sicher dass sie es innerhalb 2009 mit GF100 immer noch schaffen werden.
Tja, so ist das leben. Die Wahrheit tut weh. So wie AMD mehr DX11 Karten verkauft hat, hat nVidia mehr am 40nm Prozeß verdient. Es geht sogar Hand in Hand, da beide 40nm Generationen zeitnah erschienen sind.
Dann pass aber bloss auf dass Du bei kommenden Generationen und ueberhaupt wenn Fusion erscheint nicht ueber Deine eigene Schulter glotzen musst. Denn Fusion wird eben genau die Maerkte hauptsaechlich bedienen wo jeglicher GT21x Mist das meisste verkauft hat.
diese Zeilen finde ich seltsam:
Accelerated video encoding, transcoding, and upscaling
o UVD 3 dedicated video playback accelerator
Eigentlich sollte doch der UVD3 für das encoding, transcoding etc.. zuständig sein. Zumindest laut dem AMD Fusion Blog (siehe Bobcat Thread). Wenn man aber die Reihenfolge hier sieht scheint es nicht so zu sein.
MadManniMan
2010-09-28, 12:38:07
Huch? Was ändert sich denn zu heute? 3D Stereo unterstützen sie doch schon heute.
Echt? Mit meiner 3850 musste ich 3rd-Party-Treiber benutzen - seit wann unterstützen welche Karten das denn von Haus aus?
aylano
2010-09-28, 12:38:24
Das wird sich recht bald in verkauften Einheiten niederschlagen.
Das blöde ist halt, die Low-End DX11-GPU von Nvidia ist fast doppelt so groß wie AMDs DX11-Low-End GPU.
Entweder die OEMs kaufen den zur Hälfte Teil-deaktiviert GF108 (teure Herstellungskosten für Low-End-Markt) oder sie kaufen GT218, der aber kein DX11 hat.
Mal sehen, wie das am Markt ankommt.
von einem Preiskrieg war leider nichts zu sehen
Was ja die problematische Lage von Nvidia zeigt, weil es AMD nicht nötig hatte zu reagieren.
Ich vermute aber, dass AMD das Gewicht verstärkt auf RV810- & RV830-Wafer legte und weniger auf RV840 & RV870-Wafer.
Denn damit könnten sie die Marktanteile steigern und ziehen sich etwas aus dem GF104 vs. RV870-Preis-Kampf bis zum North-Island (etwas) zurück.
Damit würden sie den Liefer-Engpass am meisten mildern.
Echt? Mit meiner 3850 musste ich 3rd-Party-Treiber benutzen - seit wann unterstützen welche Karten das denn von Haus aus?
Seit gut einem Jahr wird das von den AMD-Treibern unterstützt soweit ich weiß. Welche Karten? Keine Ahnung, vermutlich jede, dazu braucht es ja auch keine extra Hardware.
MadManniMan
2010-09-28, 12:44:13
Seit gut einem Jahr wird das von den AMD-Treibern unterstützt soweit ich weiß. Welche Karten? Keine Ahnung, vermutlich jede, dazu braucht es ja auch keine extra Hardware.
Also direkt im Catalyst? Ohne irgendwelche Herumdoktoreien?
Also direkt im Catalyst? Ohne irgendwelche Herumdoktoreien?
Keine Ahnung, ich verwende das nicht. Ich weiß nur das halt das irgendwann im Changelog stand.
deekey777
2010-09-28, 12:50:24
diese Zeilen finde ich seltsam:
Eigentlich sollte doch der UVD3 für das encoding, transcoding etc.. zuständig sein. Zumindest laut dem AMD Fusion Blog (siehe Bobcat Thread). Wenn man aber die Reihenfolge hier sieht scheint es nicht so zu sein.
Wenn die festverdrahtete Einheit wärehnd des Transcodings das Deocding übernimmt, ist sie auch für das Transcoding mitzuständig, den Rest machen die Shader.
Dass AMD wie Intel bei SB einen dedizierten "Mini-Encoder" einbaut, ist kaum zu erwarten.
IMO.
LovesuckZ
2010-09-28, 12:53:35
Echt? Mit meiner 3850 musste ich 3rd-Party-Treiber benutzen - seit wann unterstützen welche Karten das denn von Haus aus?
Also Evergreen unterstützt es. Siehe dazu auch die "Open3D" Folien vom letzten Jahr.
Ob es auch Software und Hardware (Brille) gibt, müssen dir andere beantworten.
Dass AMD wie Intel bei SB einen dedizierten "Mini-Encoder" einbaut, ist kaum zu erwarten.
IMO.
Bei einem UVD 3.1 speziell für die Fusion-APUs wäre es durchaus sinnvoll, um bei den mobilen Versionen den Energiebedarf zu senken.
Wenn die festverdrahtete Einheit wärehnd des Transcodings das Deocding übernimmt, ist sie auch für das Transcoding mitzuständig, den Rest machen die Shader.
Dass AMD wie Intel bei SB einen dedizierten "Mini-Encoder" einbaut, ist kaum zu erwarten.
IMO.
steht aber zumindest im Fusion Blog von AMD so drin:
“Very fast coding” refers to video transcoding, both encoding and decoding. “Ontario” and “Zacate” will contain a new version of the AMD Unified Video Decoder (UVD), allowing them to encode and transcode incredibly quickly, helping consumers prepare their videos to be played on virtually any device they want. Fast encoding, the process through which a video is prepared to be shown, is also exciting because it is the process by which video is wirelessly sent to displays.
Ontario/Zacate bzw. die neuen HD6xxx haben alle die UVD3 drin.
Bucklew
2010-09-28, 13:13:14
Ontario/Zacate bzw. die neuen HD6xxx haben alle die UVD3 drin.
Der Decoder in den kommenden AMD-CPUs wird sich aber sicherlich in den APUs befinden.
Wieder unser tschechischer Freund. Es bestätigt sich für mich immer mehr, dass Barts wohl tatsächlich als HD68xx erscheinen wird. Er sagt aber auch, dass sie angeblich die beiden HD68xx schon haben und das der Name der Leistung angemessen sei. Zudem sagt er, dass die HD5k (bzw. vielleicht nur einige Modelle) weiterhin im Portfolio bleiben.
http://obrovsky.blogspot.com/2010/09/radeons-hd-6800-facts.html
deekey777
2010-09-28, 13:34:26
Der Decoder in den kommenden AMD-CPUs wird sich aber sicherlich in den APUs befinden.
So wie bei SB?
LovesuckZ
2010-09-28, 13:46:57
Zudem sagt er, dass die HD5k (bzw. vielleicht nur einige Modelle) weiterhin im Portfolio bleiben.
Das macht null sinn. Entweder er holt sich seine Infos aus beyond3d.com, oder die neuen Karten sind nur leicht überarbeitete Cypress-GPUs. Vergleichbar mit dem rv790.
@LovesuckZ
Es sagt aber nicht wielange das so sein soll. Die LowEnd und Mainstream HD6k-Karten werden als letztes kommen. Das wird laut einiger Aussagen definitiv erst nächstes Jahr sein und wann dann genau steht auch noch nicht fest. Außerdem sind die aktuellen HD5k LowEnd und Mainstream-Karten bei den OEMs extrem beliebt, weil NV ja immer noch nicht diesen Bereich vollständig abdecken kann und somit nichts mit dem werbeträchtigen DX11 Sticker anbieten kann. Außerdem haben wir noch keine einzige Info zu Turks basierten Karten. Was Turks genau ist (vielleicht nur ein überarbeiteter HD5k-GPU) weiß nur AMD und dessen Partner.
Es kann ja durchaus sein, dass wir bei den HD6k-GPUs beides sehen werden, nämlich welche die schon komplett oder weitesgehend auf die neue Architektur setzen und welche die noch größtenteils Evergreen basierend sind.
Der Decoder in den kommenden AMD-CPUs wird sich aber sicherlich in den APUs befinden.
[x] Du hast nicht kapiert um was es sich beim Ontario/Zacate handelt
LovesuckZ
2010-09-28, 14:09:12
@LovesuckZ
Es sagt aber nicht wielange das so sein soll. Die LowEnd und Mainstream HD6k-Karten werden als letztes kommen. Das wird laut einiger Aussagen definitiv erst nächstes Jahr sein und wann dann genau steht auch noch nicht fest. Außerdem sind die aktuellen HD5k LowEnd und Mainstream-Karten bei den OEMs extrem beliebt, weil NV ja immer noch nicht diesen Bereich vollständig abdecken kann und somit nichts mit dem werbeträchtigen DX11 Sticker anbieten kann. Außerdem haben wir noch keine einzige Info zu Turks basierten Karten. Was Turks genau ist (vielleicht nur ein überarbeiteter HD5k-GPU) weiß nur AMD und dessen Partner.
Es kann ja durchaus sein, dass wir bei den HD6k-GPUs beides sehen werden, nämlich welche die schon komplett oder weitesgehend auf die neue Architektur setzen und welche die noch größtenteils Evergreen basierend sind.
Wo soll denn Cypress positioniert werden? Unter Barts? Über Barts? Als Low-End?
Es macht nur dann sinn, wenn die Unterschiede kaum der Rede wert sind. Und wenn es nur eine neue GPU gibt und der Rest umbenannt wird.
GTX465 gibt es auch nur, weil GF100 weiterhin über GTX460 verkauft wird. Ob die GTX465 aber noch gekauft wird, steht in den Sternen. Das selbe würde mit der kompletten Cypresspalette passieren...
Nochmal wer sagt dir denn, dass das auch Cypress betreffen soll. Ich habe da an die kleinen GPUs gedacht. Gerade bei Cypress ist das äußerst unwahrscheinlich, aber z.B Juniper könnte ich mir sehr gut als HD66xx vorstellen.
Iruwen
2010-09-28, 14:31:38
AMD to delay the launch of Radeon HD 6000 series (http://www.digitimes.com/news/a20100927PD228.html)
Ailuros
2010-09-28, 14:35:57
Ich sehe nichts in dem Zeug dass ich bisher lesen konnte dass AMD ihre uebliche Masche aendern wird und zumindest fuer mainstream/performance eine wilde Mischung aus Evergreen und SI praesentieren wird.
Wie dem auch sei es sieht danach aus dass AMD wieder gute Hausaufgaben geleistet hat.
AMD to delay the launch of Radeon HD 6000 series (http://www.digitimes.com/news/a20100927PD228.html)
Es gibt keinen besonderen Grund fuer AMD sich selber Feuer unter den Hintern zu legen. Es ist wohl doch besser dass sie jeglichen vorhandenen Evergreen stock voll ausverkaufen bevor es weitergeht. Von der Konkurrenz scheint es ja auch keinen besonderen Druck zu geben ausser der erwaehnten Preis-reduktion fuer GF104 welche auch stimmt.
milamber!
2010-09-28, 14:38:15
AMD to delay the launch of Radeon HD 6000 series (http://www.digitimes.com/news/a20100927PD228.html)
the launch will indeed go ahead as planned (http://fudzilla.com/graphics/item/20331-hd-6000-series-reportedly-pushed-back-to-november)
Iruwen
2010-09-28, 14:39:58
Ah, Paperlaunch.
Ailuros
2010-09-28, 14:42:37
Ah, Paperlaunch.
Oder auch Fermi-launch. Im besten Fall in mehr als nur einem Zug :D (Gott werden manche wieder rot sehen mit dem harmlosen Scherz....)
Iruwen
2010-09-28, 14:44:02
3... 2... 1... :D
Wie dem auch sei es sieht danach aus dass AMD wieder gute Hausaufgaben geleistet hat.
Kannst du das etwas genauer ausführen? :)
Nochmal wer sagt dir denn, dass das auch Cypress betreffen soll. Ich habe da an die kleinen GPUs gedacht. Gerade bei Cypress ist das äußerst unwahrscheinlich, aber z.B Juniper könnte ich mir sehr gut als HD66xx vorstellen.
So sieht es aus. Denn Juniper abwärts macht alles richtig. Da ist auch die Tesslationsleistung kein limitierender Faktor. Die Leistung/Watt/mm² ist zudem NV weit überlegen. Nur Cypress ist nicht so Effizienz und gehört überarbeitet. Dazu noch Barts gegen GF104 und man könnte sich kleinere Chips eigentlich sparen.
MadManniMan
2010-09-28, 15:13:32
Es gibt keinen besonderen Grund fuer AMD sich selber Feuer unter den Hintern zu legen. Es ist wohl doch besser dass sie jeglichen vorhandenen Evergreen stock voll ausverkaufen bevor es weitergeht. Von der Konkurrenz scheint es ja auch keinen besonderen Druck zu geben ausser der erwaehnten Preis-reduktion fuer GF104 welche auch stimmt.
Stehen die Zeichen auf eine 384er-GF104?
Ailuros
2010-09-28, 15:26:41
Kannst du das etwas genauer ausführen? :)
Ausser der vorerwaehnten Preis-reduktion steht keine andere "Reaktion" seitens NV im Vorbild. Nach Antilles kommt die 104/GX2, wobei diese wohl nicht Antilles schlagen wird und wenn immer sie mit dem GF100 Nachfolger fertig sind (gerade erst vor ein paar Wochen tape out) wird dieser dann als weiterer high end Abloeser nachgeladen. Wenn ich nach NV's neuester execution gehe werden sie es mit dem zweiten wohl nicht mehr dieses Jahr schaffen.
Hatte ich ja alles schon zugesteckt bekommen aber ich hab mich leider mit dem ganzen 640/768SP (ala GF104) Scheiss verwirren lassen.
AMD hat demzufolge mit Cayman eine sehr gute Zeitspanne freies Rudergebiet denn die 104/GX2 erwarte ich irgendwo zwischen Cayman und Antilles. Ausser sie gestalten den GX2 Preis so attraktiv dass sie fast nichts davon verdienen. Die Preisreduktion fuer GF104 ueberlaesst sowieso keine Gewinn-Chancen fuer NV.
Stehen die Zeichen auf eine 384er-GF104?
GF104 ist ein reiner 256bit Design; GF110 ist 384bit.
GF104 ist ein reiner 256bit Design; GF110 ist 384bit.
Manni meinte wohl eher eine 384-ALU-Version des GF104 – also Vollausbau.
MfG,
Raff
[...]und wenn immer sie mit dem GF100 Nachfolger fertig sind (gerade erst vor ein paar Wochen tape out)[...]
AMD hat demzufolge mit Cayman eine sehr gute Zeitspanne freies Rudergebiet denn die 104/GX2 erwarte ich irgendwo zwischen Cayman und Antilles. Ausser sie gestalten den GX2 Preis so attraktiv dass sie fast nichts davon verdienen. Die Preisreduktion fuer GF104 ueberlaesst sowieso keine Gewinn-Chancen fuer NV.
Hast du eine Quelle dafür, dass das Tape-Out vor paar Wochen war? Nur interessehalber.
Der GF110 soll ja dann angeblich 576SP haben und quasi GF104*1,5 sein.
Ich schätze aber mal grob, dass man mit dem Chip erst ab März 2011 rechnen kann. Einige Hardwareseiten behaupten ja schon wieder, Nvidia würde im November bis Dezember den GF110 schon als Konter bringen.
Bucklew
2010-09-28, 16:11:40
So wie bei SB?
Ist es da so? Hab mir SB nicht wirklich großartig angeschaut.
Aber wo sollte man diesen Chipteil sonst hinbauen, wenn nicht in den Grafikbereich?
Nochmal Barts=HD6870/6850 am 18. Oktober
Barts XT - knapp über HD5850
Barts Pro - HD5830 oder knapp darunter
http://www.nordichardware.se/testlabb/25-grafik/41250-amd-radeon-hd-6870-och-6850-lanseras-den-18-oktober.html
john carmack
2010-09-28, 16:15:18
Alles gerüchte... Nix offizielles von AMD!!!
Naitsabes
2010-09-28, 16:18:27
Aber wo sollte man diesen Chipteil sonst hinbauen, wenn nicht in den Grafikbereich?
Bei SB (http://www.pcgameshardware.de/aid,638219/Faszination-CPU-Wallpaper-Die-Shots-und-Wafer-von-Intel-CPUs-Update-Sandy-Bridge/Wallpaper/Download/bildergalerie/?iid=1435859)ist der Decoder oben rechts neben den Kernen im Uncorebereich, wohingegen die GPU links neben den Kernen liegt - sind also nicht zusammengehörig.
Bei den Fusions von AMD erwarte ich den UVD, wenn er denn einen Decoder erhält, aber weiterhin in der GPU beziehungsweise je nach dem, wie sehr die GPU nun integriert ist, im Uncore nahe der GPU.
Natürlich nichts offizielles und das wird es auch erst am Launch-Tag geben. Das hier ist eine Speku-Thread der besteht nun mal naturgemäß aus Gerüchten.
Stimmt es das auf november verschoben wurde ?
Ich hoffe nein, habe crysis schon installiert
LovesuckZ
2010-09-28, 16:35:32
Nochmal Barts=HD6870/6850 am 18. Oktober
Barts XT - knapp über HD5850
Barts Pro - HD5830 oder knapp darunter
http://www.nordichardware.se/testlabb/25-grafik/41250-amd-radeon-hd-6870-och-6850-lanseras-den-18-oktober.html
Sollten diese Werte stimmen, dann ist Barts nichts besonderes und die Bezeichnung genauso treffend wie 9800GTX...
Da würde man es auf AMD Seite doch ziemlich schwer haben gegen GF104. Und die > 150 Watt bei der XT stünde doch für eher verzweifelte Tat GF104 zu schlagen und den Namen irgendwie zu rechtfertigen.
Daher denke ich nicht, dass die Angaben stimmen.
Ausser der vorerwaehnten Preis-reduktion steht keine andere "Reaktion" seitens NV im Vorbild. Nach Antilles kommt die 104/GX2, wobei diese wohl nicht Antilles schlagen wird und wenn immer sie mit dem GF100 Nachfolger fertig sind (gerade erst vor ein paar Wochen tape out) wird dieser dann als weiterer high end Abloeser nachgeladen. Wenn ich nach NV's neuester execution gehe werden sie es mit dem zweiten wohl nicht mehr dieses Jahr schaffen.
Das hängt einzig und allein davon ab, ob sie einen Respin benötigen. GF104 kam innerhalb von 4 Monaten auf dem. AMD dagegen benötigte bei einem Zeitfenster von März/April -> Anfang November anscheinend einen neuen Spin. Das zeigt, dass nVidia's Ankündigung aus dem letzten Jahr fruchtet.
Leonidas
2010-09-28, 16:36:31
Nochmal Barts=HD6870/6850 am 18. Oktober
Barts XT - knapp über HD5850
Barts Pro - HD5830 oder knapp darunter
http://www.nordichardware.se/testlabb/25-grafik/41250-amd-radeon-hd-6870-och-6850-lanseras-den-18-oktober.html
Das mit der Umbenennung ist IMO sehr zweifelhaft.
1. Stimmt die ältere Barts-Folie, fehlt dafür die Leistung, denn dann kommt Barts XT gerade mal so auf die Performance einer 5850.
2. Stimmt die neuere Barts-Folie, ist der Grafikkartenname fest als 6750/6770 gesetzt.
Sollten diese Werte stimmen, dann ist Barts nichts besonderes und die Bezeichnung genauso treffend wie 9800GTX...
Da würde man es auf AMD Seite doch ziemlich schwer haben gegen GF104. Und die > 150 Watt bei der XT stünde doch für eher verzweifelte Tat GF104 zu schlagen und den Namen irgendwie zu rechtfertigen.
Daher denke ich nicht, dass die Angaben stimmen.
Was redest du schon wieder für einen Stuss zusammen? Nichts besonderes, LOL Barts ist und war nie High-End. Wenn er GF104 schlägt, und das sehr wahrscheinlich bei deutlich kleinerem Die und Verbrauch dann ist das ein voller Erfolg.
ShadowXX
2010-09-28, 16:44:34
Das mit der Umbenennung ist IMO sehr zweifelhaft.
1. Stimmt die ältere Barts-Folie, fehlt dafür die Leistung, denn dann kommt Barts XT gerade mal so auf die Performance einer 5850.
2. Stimmt die neuere Barts-Folie, ist der Grafikkartenname fest als 6750/6770 gesetzt.
So wie das aussieht berufen sich aber alle 3 Quellen von wo das kommt auf ein NDA-Dokument von AMD/ATI.
Was natürlich nicht heisst das AMD/ATI nicht vielleicht mit Absicht falsche NDA-Dokumente geleakt hat um Verwirrung zu stiften (oder die sind sogar von nV;)).
Was redest du schon wieder für einen Stuss zusammen? Nichts besonderes, LOL Barts ist und war nie High-End. Wenn er GF104 schlägt, und das sehr wahrscheinlich bei deutlich kleinerem Die und Verbrauch dann ist das ein voller Erfolg.
Naja...>150 Watt verbrauch beim BartXT sehe ich nicht als deutlichen kleineren Verbrauch. Und da beide in 40nm sehe ich auch nicht das der Bart so extrem kleiner als eine GTX460 sein wird.
Dazu kommt das nV immer noch die Möglichkeit hat eine 384-Shader GTX460 mit hohem Takt zu releasen.
deekey777
2010-09-28, 16:54:45
Das mit der Umbenennung ist IMO sehr zweifelhaft.
1. Stimmt die ältere Barts-Folie, fehlt dafür die Leistung, denn dann kommt Barts XT gerade mal so auf die Performance einer 5850.
2. Stimmt die neuere Barts-Folie, ist der Grafikkartenname fest als 6750/6770 gesetzt.
3. Haben wir was aus der R650-Folie gelernt?
(oder die sind sogar von nV;)).
Ergibt zwar keinen Sinn aber einen Zwinkersmiley hinten dran und man kann zumindest schlau tun nicht wahr. Das Problem ist die chinesische Abteilung von Asus, die sich einfach an kein NDA hält. Die Folien die aktuell geleakt wurden sind von AMD, aber sie sind alle falsch.
Naja...>150 Watt verbrauch beim BartXT sehe ich nicht als deutlichen kleineren Verbrauch. Und da beide in 40nm sehe ich auch nicht das der Bart so extrem kleiner als eine GTX460 sein wird.
Die Daten sind ohnehin nichts Wert, also vergiss sie. Nur als Tipp: Barts ist der Juniper-Nachfolger. Die <200mm².
Dazu kommt das nV immer noch die Möglichkeit hat eine 384-Shader GTX460 mit hohem Takt zu releasen.
Wie lange ich das schon höre. Dagegen kann man problemlos einen kleinen Cayman stellen.
Wahnsinn AMD ist wirklich King of the Hill wenn es darum geht komplette Verwirrung zu stiften. Ich meine es sind nur noch 2-3 Wochen (eher 2) bis zum Launch und es ist immer noch alles vollkommen offen und es gibt täglich sich wiedersprechende Infos.
Barts-XT wird aber sehr wahrscheinlich doch deutlich kleiner und damit für AMD auch günstiger als Cypress-Pro ausfallen. Wenn AMD mit einer deutlich kleineren GPU eine bessere Performance erreicht als die HD5850 und das bei ungefähr gleichem Stromverbrauch, so ist das alles andere als eine schlechte Leistung. Zumal dazu ja hoffentlich noch eine deutlich höhere Tess-Leistung und ein paar neue Features kommen könnten.
3. Haben wir was aus der R650-Folie gelernt?
Was war denn der Inhalt dieser?
3. Haben wir was aus der R650-Folie gelernt?
hihih :D
Nakai
2010-09-28, 17:04:29
Nordichardware?
Waren die es nicht, die 800SPs beim RV770 vorhergesagt haben?
Achtung, HD5870 ist selten 70% schneller als eine HD5770, von der HD5850 brauchen wir nicht reden.;)
Mit deutlich größerem SI, besserem(wahrscheinlich) Frontend und schnellerem Speicher.
Cypress fehlt es ja eher an einem gutem Frontend als an Rohleistung.
Der Vergleich zum RV790 zeigt auch, dass der RV840 eher an der Bandbreite hängt.
IMO sollte da schon die HD5850 schlagbar sein. Die Karte wird wohl auch Konkurrent zur GTX460 angesehn. Ein voller GF104 ist da aber wohl nicht erreichbar.
Ist zwar nicht so das was sich die ATI-Jünger vorgestellt haben, aba mei.;)
Und nun ist AILs Anmerkung, dass RV940 12 SIMDs hat und RV970 mit 24 SIMDs daherkommt, wohl doch wahr. Aber ob wir hier durchgängig 4D-VLIW-Einheiten sehen, ist fraglich, da man sonst 20er SIMDs für die angegebenen Einheiten bräuchte.
mfg
€: 3. Haben wir was aus der R650-Folie gelernt?
AMD hat wohl mehrere Folien rausgeschickt oder evtl intern veröffentlicht. Die internen Dinger kommen meistens sehr schnell ans Tageslicht.
Ergibt zwar keinen Sinn aber einen Zwinkersmiley hinten dran und man kann zumindest schlau tun nicht wahr. Das Problem ist die chinesische Abteilung von Asus, die sich einfach an kein NDA hält. Die Folien die aktuell geleakt wurden sind von AMD, aber sie sind alle falsch.
Die Daten sind ohnehin nichts Wert, also vergiss sie. Nur als Tipp: Barts ist der Juniper-Nachfolger. Die <200mm².
Wie lange ich das schon höre. Dagegen kann man problemlos einen kleinen Cayman stellen.
Achja und noch was: Seit dem 26. September hat AMD ausgewählte Launchpartner die korrekten Daten übermittelt, bin gespannt wie lange es dauert bis der erste leaked.
Warum sollte das nicht das sein was man erwarten konnte. Aufgrund der bisher eigentlich komplett fehlenden Infos zu Cayman scheinen viele diese GPU ständig zu vergessen. Barts ist kein HighEnd!
MadManniMan
2010-09-28, 17:16:12
Keine Ahnung, ich verwende das nicht. Ich weiß nur das halt das irgendwann im Changelog stand.
Hm, mit dem Catalyst 10.3 ist offiziell geworden, was vorher schon ging: man nutzt einfach iZ3D oder DDD. (http://www.xbitlabs.com/news/video/display/20100324235120_ATI_Radeon_Finally_Supports_Stereoscopic_3D_Output.html)
Manni meinte wohl eher eine 384-ALU-Version des GF104 – also Vollausbau.
Bingo! =) Und?
Fetter Fettsack
2010-09-28, 17:32:41
Nvidia sollte schon beim erscheinen der Hd5xxx insolvenz bekannt geben.
Was soll denn das? Sowas crasht doch nur die Diskussion. ;)
deekey777
2010-09-28, 17:48:46
Was war denn der Inhalt dieser?
Dass mit dem R650 alles besser wird, was beim R600 versaut wurde.
Das Wichtigste ist, dass sie von AMD verteilt wurde, um Leckstellen zu stopfen.
Gibt's die noch irgendwo? Würd ich gern mal sehen ;)
"Over 30% Performance Increase For R650 TMU's" ;D
Die 2te "AMD Folie" mit den 1280SP halte ich für realistischer.
AMD hat bisher den High-End Chip fast immer an Rohleistung verdoppelt und der Mainstreamchip darunter hatte immer in etwa die Rohleistung des vorherigen High-End Chips
Paar beispiele: RV670~RV730~0,5*RV770
RV770=RV840=0,5*RV870
NI wurde dann geplant und man ging davon aus, dass Fermi deutlich stärker sein wird, als er es jetzt sein wird. (höhere Taktraten, geringerer Stromverbrauch)
NI wurde für 32nm geplant. Der High-End Chip sollte von der Performance etwa so zulegen, wie RV770 auf RV870. Der Mainstream Chip darunter sollte etwa so schnell wie der RV870 sein und billiger herzustellen.
RV970 hätte demnach 4Blöcke mit zusammen 640 4D Shadern.
RV940 die Hälfte davon.
Nun stand 32nm aber nicht zur Verfügung und 640 Shader in 40nm hätten einen zu großen Chip ( wegen der Hersellungskosten) und eine zu hohe Leistungsaufnahme bedeutet.
Zudem war Fermi nun doch wohl ineffizienter als angenommen und ein Chip Namens GF104 mit erstaunlich vielen 384SPs sollte auf den GF100 folgen.
Die Reaktion auf die neuen Umstände war dann den RV970 aus obigen Gründen auf 3 Blöcke zu reduzieren für 40nm; den RV940 musste man nicht verändern, er sollte der zukünftige Gegenspieler zum GF104 werden und trotz 40nm billiger zu produzieren sein, als Cypress.
Folglich war das Tape-Out des RV940 dann bereits ein Paar Wochen vor den des RV970 (so um April 2010).
barts, wie wir ihn heute nennem kommt daher auch vor Cayman auf den markt.
Das ist nix ofizielles und eine Quelle für die teilweise zusammengereimten Schlussfolgerungen habe ich nicht.
Ich wollte auch nur, etwas weiter ausholend, erklären, warum ich Barts mit 1280SPs erwarte.
deekey777
2010-09-28, 18:45:39
Nordichardware?
Waren die es nicht, die 800SPs beim RV770 vorhergesagt haben?
...
mfg
t.
Ich glaube, sie haben auch geschrieben, dass RV700 mit 480 SPs kommt. Und 3D-ALUs. Usw.
Die sind definitiv keine gute Quelle, vielleicht etwas besser als HWI.
w0mbat
2010-09-28, 18:59:45
http://www.nordichardware.com/index.php?option=com_content&catid=112&lang=en&view=article&id=18948
1. Stimmt die ältere Barts-Folie, fehlt dafür die Leistung, denn dann kommt Barts XT gerade mal so auf die Performance einer 5850.
2. Stimmt die neuere Barts-Folie, ist der Grafikkartenname fest als 6750/6770 gesetzt.
Angeblich stimmen laut dem obrovsky Typen beide zusammen irgendwie:
- Some slides, that we've seen pop-up on the internet, even though photoshopped, show the whole picture, but you need to combine them and I'm not revealing which and what exactly
http://www.xtremesystems.org/forums/showpost.php?p=4567938&postcount=727
So und jetzt fröhliches kombinieren, wer liefert das beste Potpurri ? :freak:
Beide Folien sind Fakes imho. Einmal kräftig durchwürfeln jeder darf mal. Nur nicht zu Ernst nehmen und abwarten. Diese Modelle die jetzt im October vorgestellt werden, werden eh nicht in der Liga einer 5870, 470 oder gar 480 spielen. Das sage ich jetzt mal :D
OgrEGT
2010-09-28, 20:04:05
Die 2te "AMD Folie" mit den 1280SP halte ich für realistischer.
AMD hat bisher den High-End Chip fast immer an Rohleistung verdoppelt und der Mainstreamchip darunter hatte immer in etwa die Rohleistung des vorherigen High-End Chips
Paar beispiele: RV670~RV730~0,5*RV770
RV770=RV840=0,5*RV870
NI wurde dann geplant und man ging davon aus, dass Fermi deutlich stärker sein wird, als er es jetzt sein wird. (höhere Taktraten, geringerer Stromverbrauch)
NI wurde für 32nm geplant. Der High-End Chip sollte von der Performance etwa so zulegen, wie RV770 auf RV870. Der Mainstream Chip darunter sollte etwa so schnell wie der RV870 sein und billiger herzustellen.
RV970 hätte demnach 4Blöcke mit zusammen 640 4D Shadern.
RV940 die Hälfte davon.
Nun stand 32nm aber nicht zur Verfügung und 640 Shader in 40nm hätten einen zu großen Chip ( wegen der Hersellungskosten) und eine zu hohe Leistungsaufnahme bedeutet.
Zudem war Fermi nun doch wohl ineffizienter als angenommen und ein Chip Namens GF104 mit erstaunlich vielen 384SPs sollte auf den GF100 folgen.
Die Reaktion auf die neuen Umstände war dann den RV970 aus obigen Gründen auf 3 Blöcke zu reduzieren für 40nm; den RV940 musste man nicht verändern, er sollte der zukünftige Gegenspieler zum GF104 werden und trotz 40nm billiger zu produzieren sein, als Cypress.
Folglich war das Tape-Out des RV940 dann bereits ein Paar Wochen vor den des RV970 (so um April 2010).
barts, wie wir ihn heute nennem kommt daher auch vor Cayman auf den markt.
Das ist nix ofizielles und eine Quelle für die teilweise zusammengereimten Schlussfolgerungen habe ich nicht.
Ich wollte auch nur, etwas weiter ausholend, erklären, warum ich Barts mit 1280SPs erwarte.
Glaube ich auch.
Ich vermute nach wie vor für Cayman ebenfalls 1920 SP's in 3 Modulen zu je 10 SIMDs mit je 16 4D VLIWs.
oder die 640-4D Einheiten kommen doch zu einsatz, aber die DIE Größe wird über 500mm² groß ausfallen
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.