PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R8xx im Q4 2008, Multicore und 45/40 nm


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19 20 21 22 23

4 Vitamins
2009-08-30, 21:33:27
Zeig mir doch mal die Millionen User die drauf warten...


Warum warten?
Sie bekommen es von ATI geschenkt, man müsste ein Idiot sein um sich nicht über so einen geschenk zu freuen, die leute die sich drüber aufregen sind entweder fanboy grü"N" oder dumm.

gruss

Gast
2009-08-30, 21:35:19
Warum warten?
Sie bekommen es von ATI geschenkt, man müsste ein Idiot sein um sich nicht über so einen geschenk zu freuen, die leute die sich drüber aufregen sind entweder fanboy grü"N" oder dumm.

gruss

Seit wann gibt es Grafikkarten kostenlos? Geschenkt LOL

Gast
2009-08-30, 21:37:50
Was stört dich jetzt eigentlich daran das Ati sowas machen will?
Das so etwas exisitiert?
Ich mein.... wenn du es nicht nutzen will, lässt du es einfach und gut ist.


Dann hät ich schon längst TripleHead von Matrox...wie sicher die meisten Leute auch. Auch Ati erfindet das Rad nicht neu...

LovesuckZ
2009-08-30, 21:38:28
Es ist ein Feature, Features sind kaufgründe und davon kann man nie genug haben.
Ich sehe das mometan als Äquivalent zu Nvidias 3DBrille, brauch man auch nicht so wirklich, wenn man sich aber für interessiert ist das sehr sehr nett.


Das ist nichtmal annährend gleichwertig wie 3D Vision.

anddill
2009-08-30, 21:56:52
Das ist nichtmal annährend gleichwertig wie 3D Vision.

Das kann ja jeder für sich entscheiden.

Daredevil
2009-08-30, 21:58:42
Yo, weil mehr Leute Multimonitorsupport brauchen als das man sich ne 200€ Brille aufsetzt damit man mit nem speziellen 120hz Monitor spielen kann. ;)

Ganz ehrlich, hätte ich genug Geld, würd ich mir diese Brille holen, habe die auf der GC getestet, hat echt gefetzt.

Aber lass uns den Rot/Grün Streit erst beginnen wenn es Final erschienen ist.

LovesuckZ
2009-08-30, 22:25:31
Yo, weil mehr Leute Multimonitorsupport brauchen als das man sich ne 200€ Brille aufsetzt damit man mit nem speziellen 120hz Monitor spielen kann. ;)

Sie brauchen mehr als zwei Monitore? Selbst auf meiner Arbeit reicht der Platz für drei Monitore nicht aus - geschweige denn, dass man es noch überblicken könnte. Und hier werden nur 5:4 Monitore verwendet. Aber ich freue mich ehrlich auf die Bilder von User mit 3x20/22/24" 16:10 Monitroe auf dem Schreibtisch. Ich kann mir das kaum richtig vorstellen, wie man es sinnlich aufnehmen soll.
Für die Leute, die es mögen, die werden es lieben. Aber es ist komplett anders als Stereo3D und somit nicht gleichwertig. Die Kinobetreiber rüsten auch auf - warum? Weil 2D langsam an die Grenzen kommt.

StefanV
2009-08-30, 22:26:28
Dann hät ich schon längst TripleHead von Matrox...wie sicher die meisten Leute auch. Auch Ati erfindet das Rad nicht neu...
Wie bei den nVidia Karten bis Geforce 4 (ausnahme: GF2 MX) und den ATI Karten bis einschließlich der R100...

anddill
2009-08-30, 22:29:52
@ LovesuckZ:
http://images.google.de/images?hl=de&client=opera&rls=de&um=1&sa=1&q=flugsimulator+multimonitor&btnG=Bilder-Suche&aq=f&oq=

ShadowXX
2009-08-30, 22:39:19
@ LovesuckZ:
http://images.google.de/images?hl=de&client=opera&rls=de&um=1&sa=1&q=flugsimulator+multimonitor&btnG=Bilder-Suche&aq=f&oq=
Es hat keine gesagt das sowas überhaupt nicht genutzt wird....ich bezweifle allerdings das die %-Zahl der (Heim)User für Tripple-Monitor-Using größer ist als die derjenigen die SLI/Crossfire oder auch 3D-Vision benutzen.

Und das ist es, was hier in den Raum gestellt wurde.

Ehrlich gesagt wäre dieses Feature IHMO am sinnvollsten in Low-Performance Karten, da diese im Büro benutzt werden, wo ich am ehesten noch größerflächige Anwendungsbereiche sehe.
Nur hab ich irgendwie ein Bauchgefühl das mir sagt das gerade dort es nicht mehr vorhanden sein wird.

Das ganze ist allerdings mehr ein heftiger Schlag in Matrox Magengrube, nV wird sich dadurch nicht so stark beeindruckt fühlen (davon abgesehen das wir noch gar nicht Wissen ob sowas nicht auch von nV kommt).

Gast
2009-08-30, 22:40:56
ShadowXX gut erkannt Respekt!

Gast
2009-08-30, 22:43:26
baut doch einfach eine 2. oder sogar 3. grafikkarte ein... da könnt ihr jetzt schon 4-6 Monitore ohne Probleme anschliessen...

4 Vitamins
2009-08-30, 22:44:00
Seit wann gibt es Grafikkarten kostenlos? Geschenkt LOL

Ja,ja, wut blockiert den kopf,ne?:biggrin:

Wer sprach von grafikkarten?
Es ging um die Unterstützung von 3 Monitoren welches ati aus reine Nächstenliebe anbieten wird!:smile:
Ein Bonus, ein Geschenk, ein Sahnehäubchen !!!!!!!!!

DANKE ATI!!

gruss

Gast
2009-08-30, 22:54:18
Ein Bonus, ein Geschenk, ein Sahnehäubchen !!!!!!!!!


Für wen? Ich hab zwar 3 Monitore hier, käme aber nie auf die Idee diese gleichzeitig zu nutzen. Merkst du was?

reunion
2009-08-30, 23:03:55
Sie brauchen mehr als zwei Monitore?

Es gibt genug Leute die verwenden heute schon zwei Monitore. Warum? Weil man es mittlerweile problemlos kann. Nicht wenige werden zusätzlich noch einen Fernseher oder sonstiges haben oder zumindest schon mal mit dem Gedanken gespielt haben durch einen dritten Monitor durchaus noch einen Mehrwert zu erzielen. Nur waren die Hürden dazu bisher viel zu hoch indem man entweder eine zweite Karte benötigte, oder wenn man es auch in Spielen einsetzen wollte Matrox schweineteure Lösung nehmen musste. Jetzt bekommt man das quasi alles umsonst.

Aber es ist komplett anders als Stereo3D und somit nicht gleichwertig. Die Kinobetreiber rüsten auch auf - warum? Weil 2D langsam an die Grenzen kommt.

Es hat nichts das geringste mit Stereo 3D zu tun, deshalb ist der Vergleich müßig.

N0Thing
2009-08-30, 23:06:14
Für wen? Ich hab zwar 3 Monitore hier, käme aber nie auf die Idee diese gleichzeitig zu nutzen. Merkst du was?


Ja, daß du scheinbar keinen Bedarf für zwei Monitore hast und aus unerklärlichen Gründen dich darüber beschwerst, daß eine Firma etwas ohne Aufpreis in ihrem künftigen Produkt anbietet, was bisher von einer anderen Firma für ca. 250€ gekauft werden muß.

Ich sehe für das Feature im Spielesektor ehrlich gesagt für die nächsten Jahre keine große Zukunft, aber für Firmen ist das eine indirekte Goldgrube, denn wenn es auch mit Officegrafikkarten möglich sein wird drei Monitore gleichzeitig zu betreiben, hat ATI ein einzigartiges Produkt im Angebot, was die Firmen bei einer Neuanschaffung keine Extrakosten bereitet.

Gast
2009-08-30, 23:09:53
Ja, daß du scheinbar keinen Bedarf für zwei Monitore hast und aus unerklärlichen Gründen dich darüber beschwerst, daß eine Firma etwas ohne Aufpreis in ihrem künftigen Produkt anbietet, was bisher von einer anderen Firma für ca. 250€ gekauft werden muß.

Ich sehe für das Feature im Spielesektor ehrlich gesagt für die nächsten Jahre keine große Zukunft, aber für Firmen ist das eine indirekte Goldgrube, denn wenn es auch mit Officegrafikkarten möglich sein wird drei Monitore gleichzeitig zu betreiben, hat ATI ein einzigartiges Produkt im Angebot, was die Firmen bei einer Neuanschaffung keine Extrakosten bereitet.

Hier beschwert sich doch keiner, dass der der Support von mehreren Monitoren angeboten wird, es darf aber sehr stark bezweifelt werden, das, wie hier behauptet, die Anzahl der Benutzer die von SLI/CF übersteigt..

derguru
2009-08-30, 23:12:58
Hier beschwert sich doch keiner, dass der der Support von mehreren Monitoren angeboten wird, es darf aber sehr stark bezweifelt werden, das, wie hier behauptet, die Anzahl der Benutzer die von SLI/CF übersteigt..
wer behauptet das?

N0Thing
2009-08-30, 23:16:12
Hier beschwert sich doch keiner, dass der der Support von mehreren Monitoren angeboten wird, es darf aber sehr stark bezweifelt werden, das, wie hier behauptet, die Anzahl der Benutzer die von SLI/CF übersteigt..

Ich hab ehrlich gesagt keine Ahnung wieviele Leute SLI/Crossfire benutzen, ich kann mir aber ehrlich gesagt nicht vorstellen, daß es mehr sind, als Leute die an ihrem Arbeitsplatz drei Monitore einsetzen. Aber wie gesagt, ich hab keine Ahnung, es ist mir eigentlich auch egal, weil SLI/Crossfire nichts mit dem Feature zu tun haben.

nagus
2009-08-31, 07:47:52
Ich hab ehrlich gesagt keine Ahnung wieviele Leute SLI/Crossfire benutzen, ich kann mir aber ehrlich gesagt nicht vorstellen, daß es mehr sind, als Leute die an ihrem Arbeitsplatz drei Monitore einsetzen. Aber wie gesagt, ich hab keine Ahnung, es ist mir eigentlich auch egal, weil SLI/Crossfire nichts mit dem Feature zu tun haben.

ich hab 3 und ich kenne noch einige mehr die 3 monitore benutzen. ;)

PulsarS
2009-08-31, 08:27:42
Das ist nichtmal annährend gleichwertig wie 3D Vision.
So ein Quatsch. :eek:
Auf der Arbeit habe ich einen dritten TFT beantragt (inkl. zweiter Grafikkarte), weil es mich voll ankotzt, dass ich immer sehr oft den Inhalt des Bildschirms wechseln muss, wenn ich mit vielen Datenbanken gleichzeitig hantiere. :freak:
Und den werde ich auch bekommen. :P

3DVision von NV ist Geschmacksache, da manche davon schon nach kurzer Zeit Kopfschmerzen bekommen...

Ich denke auch, dass es deutlich mehr PC-Nutzer gibt, die 3 Monitore nutzen wollen als 3D-Vision, da man damit nicht nur bei Games einen Mehrwert hat. ;)

Ich kann auch nicht nachvollziehen, warum hier einige so tun, als ob man 3 Monitore nicht braucht... :confused:

Wenn ich mich an die 3 Monitore auf der Arbeit gewhnt habe, will ich (so wie ich mich kenne) sowas auch privat nutzen ;D

LovesuckZ
2009-08-31, 09:16:15
So ein Quatsch. :eek:


Du kannst mit 3D Vision auch 3D Bilder und Filme schauen. :)
Es sollte doch klar sein, dass es mir bei der Aussage nicht um den Office-Betrieb ging.

Aquaschaf
2009-08-31, 09:16:27
Ich kann auch nicht nachvollziehen, warum hier einige so tun, als ob man 3 Monitore nicht braucht... :confused:

99,8% aller Benutzer brauchen sowas doch wirklich nicht. Meistens reicht einer, für manche professionelle Anwendungen ist ein zweiter praktisch. Für drei hätte ich überhaupt keinen Platz auf meinem Schreibtisch.

StefanV
2009-08-31, 09:17:42
baut doch einfach eine 2. oder sogar 3. grafikkarte ein... da könnt ihr jetzt schon 4-6 Monitore ohne Probleme anschliessen...
Du bist ein Hecht...
Schon mal dran gedacht, das man den Platz auch haben müsste?
Und was ist, wenn ich 6 Schirme bräuchte, für eine Anwendung?!

Ach, halt, bei den neuen AMD GraKas bräucht ich ja nur noch 2, von 'den alten' bräuchts 3 GraKas -> 1 Slot gespart.

Aber hey, ist ja nur von AMD; das kann doch gar nix taugen und außerdem braucht man das ja eh nicht, weil und überhaupt...
99,8% aller Benutzer brauchen sowas doch wirklich nicht. Meistens reicht einer, für manche professionelle Anwendungen ist ein zweiter praktisch. Für drei hätte ich überhaupt keinen Platz auf meinem Schreibtisch.
Schön, für dich.

Nur warum um alles in der Welt, muss man jetzt den Zustand, das AMD sich entschieden hat, nach fast 10 Jahren 'nen 3. Display Controller zu verbauen, klein/weg reden?!
Weils von AMD ist?!

Sorry, aber das weggerede von (möglicherweise) sinnvollen Features kotzt mich gewaltig an, kann man nicht mal akzeptieren, das das einige Leute brauchen und das es eine recht gute Idee ist, das man 3 Schirme anschließen könnte?!
Mir würden da durchaus einige Dinge einfallen (2 Schirme + TV oder so)

Schlammsau
2009-08-31, 09:33:47
Also ohne das ich das wirklich brauche, aber die Unterstützung von 3 Bildausgabegeräten mit einer Grafikkarte, ist schon eine sehr feine Sache!
Wie oft hab ich mir schon überlegt, ein drittes Bildausgabegeräte anzuschliessen aber es scheiterte immer an der bisherigen Limitierung.
Ich nutze zB 2 Bildschirme (TFT & TV), aber jetzt wären zB ein TFT, TV und zusätzlich noch ein Beamer möglich. Wow......

nagus
2009-08-31, 09:36:03
3 bildschirme find ich persönlich nützlicher wie dieses 3D das sowieso NIE gscheit funktioniert und man augenkrebs davon bekommt. ein 3d bild auf einer 2d fläche anzeigen ist einfach nie wirklich 3d und weil das auge dauernd versucht zu fokusieren (was aber nicht geht weils nur so "halb" 3d is) wird einem schlecht davon und schwindlich.... wenn ich was 3d haben will geh ich raus ;) > die realität hat das beste 3D und außerdem schaut die grafik nicht so shice aus wie am rechner *LOL*

Gast
2009-08-31, 09:43:58
Du bist ein Hecht...
Schon mal dran gedacht, das man den Platz auch haben müsste?
Muss an deinem Brett leigen. Schön ein 70€ Brett genommen, 5€ zum Intelbrett gespart, dafür ist es nur µATX.

StefanV
2009-08-31, 09:54:10
Also ohne das ich das wirklich brauche, aber die Unterstützung von 3 Bildausgabegeräten mit einer Grafikkarte, ist schon eine sehr feine Sache!
Wie oft hab ich mir schon überlegt, ein drittes Bildausgabegeräte anzuschliessen aber es scheiterte immer an der bisherigen Limitierung.
Ich nutze zB 2 Bildschirme (TFT & TV), aber jetzt wären zB ein TFT, TV und zusätzlich noch ein Beamer möglich. Wow......
Ja, genau das ists ja.

Ist prinzipiell eine gute Idee und schon einige Jährchen überfällig, aber wenn niemand anfängt, wirds auch nicht gemacht werden...

Aquaschaf
2009-08-31, 09:56:28
Schön, für dich.

Nur warum um alles in der Welt, muss man jetzt den Zustand, das AMD sich entschieden hat, nach fast 10 Jahren 'nen 3. Display Controller zu verbauen, klein/weg reden?!
Weils von AMD ist?!

Über das Feature hab ich überhaupt kein Wort verloren und darum ging es gar nicht.

Hier kann man scheinbar echt nichts schreiben ohne dass eine der beiden "Seiten" das als persönlichen Angriff auffasst.

Tarkin
2009-08-31, 10:12:35
3D kommt von Nvidia, ist also schlecht.
3 Bildschirme gibts von AMD, ist also superdupa.

Logisch, dein Avatar spricht Bände. Mich wunderts eh, das das so hier im Forum durchgeht.

3D = unnötiges Gimmick
3 Bildschirme = ziemlich nützlich!

Verrate mir mal welches von den zwei Features man wohl länger verwendet?

Wo nützen mir 3 Monitore was und wo habe ich durch pseudo 3D eine bessere "Experience"? ...

Reaping_Ant
2009-08-31, 10:51:20
3D = unnötiges Gimmick
3 Bildschirme = ziemlich nützlich!



Jedem seine Meinung, aber ich hatte bis vor kurzem beides: drei Monitore (1x 30", 2x 22") und 3D Vision (einer von den 22ern ist ein 120 Hz Monitor). Der zweite 22er ist mittlerweile wieder vom Schreibtisch verschwunden, für meine Einsatzzwecke reicht auch die Bildfläche des 30ers aus. 3D Vision nutze ich dagegen regelmäßig und wähle oft sogar meine Spiele danach aus, wie gut sie die Technik unterstützen. Mir persönlich gefällt das Spielen in 3D sehr gut und ich kann es kaum erwarten, bis entsprechende Filme auf den Markt kommen.

Drei Bildschirme an einer Grafikkarte betreiben zu können wäre trotzdem ein tolles Feature, zwei Monitore sind gar nicht mal so selten und wenn dann noch ein Beamer (wie bei mir) oder ein Fernseher dazu kommt, muss man sonst schon wieder anfangen umzustecken.

Das Hinterhältige an solchen Features, die Zusatzhardware (sei es jetzt eine 3D Brille oder ein dritter Monitor) nutzen, ist, dass sie zu einer ziemlich starken Kundenbindung führen: Durch die Investition in die 3D Brille bin ich für die kommende Generation auf NVIDIA Karten festgelegt, da ATi keine entsprechende Lösung anbietet.
Wenn sich jemand in der nächsten Generation eine ATi Karte mit drei Monitoren kauft und NVIDIA mit diesem Feature nicht nachzieht, wird er sich in der übernächsten Generation auch wohl auch wieder eine ATi Karte kaufen.

V2.0
2009-08-31, 10:53:10
Wenn sie die drei Bildschirme auch bei den Officekarten unterstützen und entsprechende Anschlüsse auch verbaut werden, dann wäre das für viele OEM-Kunden sicher ein Argument für eine Bestückung mit ATI Karten.

BlackBirdSR
2009-08-31, 10:55:28
So nebenbei.. man muss ATI/AMD gratulieren. Da veröffentlicht man Stück für Stück neue Informationen, zugleich hält man das wirklich wichtige aber zurück. Man erreicht damit den Effekt, dass sich Forenuser sogar über nahezu belanglose Sachen über Seiten hinweg beschäftigen, der Name ATI und Radeon derweil wirklich überall im Netz zu finden ist.

Respekt an AMD/ATI, wie man hier das Internet benutzt

ShadowXX
2009-08-31, 10:58:46
3D = unnötiges Gimmick
3 Bildschirme = ziemlich nützlich!

Verrate mir mal welches von den zwei Features man wohl länger verwendet?

Wo nützen mir 3 Monitore was und wo habe ich durch pseudo 3D eine bessere "Experience"? ...
Das ist doch reine Geschmackssache/Empfindungssache....ich persönlich kann mit 3 Monitorausgängen überhaupt nichts anfangen (privat), auf der arbeit hingegen wäre es ganz nett.

Dagegen hab ich mit 3DVision durchaus mehr spass am spielen, auch wenn das andere wiederum nicht nachvollziehen können.

Daraus ergibt sich das ich 3DVision mehr und länger benutzen würde, alleine aus dem Grunde das ich nie 3 Monitore Zuhause an mein Rechner stöpseln würde (und nein, auch kein TV oder Beamer).

Niemand sagt das 3 Monitorausgänge schlecht sind, es geht einfach nur darum das es IMHO etwas überbewertet wird von einigen.
Es ist ein Nischenfeature, genauso wie SLI/Crossfire und 3DVision.

Wenn sie die drei Bildschirme auch bei den Officekarten unterstützen und entsprechende Anschlüsse auch verbaut werden, dann wäre das für viele OEM-Kunden sicher ein Argument für eine Bestückung mit ATI Karten.
Die Frage wird eher sein ob die Grafikkartenbauer das Feature auch auf den OEM-Karten / Low-COst-Karten anbieten werden, gerade bei solchen Low-Cost-Karten wird auf jeden Cent geachtet.....und so ein zusätzlicher Monitorausgang (und wohl auch aufwendigere Platine) kostet schon einige Cents....

N0Thing
2009-08-31, 11:02:48
So nebenbei.. man muss ATI/AMD gratulieren. Da veröffentlicht man Stück für Stück neue Informationen, zugleich hält man das wirklich wichtige aber zurück. Man erreicht damit den Effekt, dass sich Forenuser sogar über nahezu belanglose Sachen über Seiten hinweg beschäftigen, der Name ATI und Radeon derweil wirklich überall im Netz zu finden ist.

Respekt an AMD/ATI, wie man hier das Internet benutzt

Ich würde sagen da braucht man nicht ATI zu gratulieren, sondern besser den Menschen, die abstruse Vergleiche mit den Features von Nvidia aufstellen und eine Fanboy-Diskussion lostreten, in der persönliche Vorlieben als Argumente herhalten müssen "Drei Monitore brauche ich nciht" / "3D ist doch unnütz"

Ohne diese Diskussion wäre es doch nur ein "Coole Sache, ein nettes Feature für lau." geworden und letzten Endes vor allem von Firmen genutzt worden, die sich damit eine Grafikkarte im Einkauf sparen können.

nagus
2009-08-31, 11:05:45
Wenn sie die drei Bildschirme auch bei den Officekarten unterstützen und entsprechende Anschlüsse auch verbaut werden, dann wäre das für viele OEM-Kunden sicher ein Argument für eine Bestückung mit ATI Karten.

stichwort APPLE

N0Thing
2009-08-31, 11:07:22
Die Frage wird eher sein ob die Grafikkartenbauer das Feature auch auf den OEM-Karten / Low-COst-Karten anbieten werden, gerade bei solchen Low-Cost-Karten wird auf jeden Cent geachtet.....und so ein zusätzlicher Monitorausgang (und wohl auch aufwendigere Platine) kostet schon einige Cents....


Drei Ausgänge sind auch bei Low-Cost-Karten üblich, nur die gleichzeitige Nutzung von drei Geräten wäre neu. Aber mal abwarte was daraus wird, wenn es nur für spieletaugliche Grafikkarten kommen sollte, hätte ATI viel Potential verschenkt.

IVN
2009-08-31, 11:13:26
99,8% aller Benutzer brauchen sowas doch wirklich nicht. Meistens reicht einer, für manche professionelle Anwendungen ist ein zweiter praktisch. Für drei hätte ich überhaupt keinen Platz auf meinem Schreibtisch.
Hmmmm, wenn ich die Wahl zw. einen großen (und hochauflösenden) und 3 kleinen Monis hätte, würde ich mich natürlich für die 1. Alternative entscheiden.

reunion
2009-08-31, 11:18:51
Das Hinterhältige an solchen Features, die Zusatzhardware (sei es jetzt eine 3D Brille oder ein dritter Monitor) nutzen, ist, dass sie zu einer ziemlich starken Kundenbindung führen: Durch die Investition in die 3D Brille bin ich für die kommende Generation auf NVIDIA Karten festgelegt, da ATi keine entsprechende Lösung anbietet.
Wenn sich jemand in der nächsten Generation eine ATi Karte mit drei Monitoren kauft und NVIDIA mit diesem Feature nicht nachzieht, wird er sich in der übernächsten Generation auch wohl auch wieder eine ATi Karte kaufen.

Naja, das sehe ich eher als Nachteil. Die Hürden für 3DVision sind mit einer 200€ Brille und einem speziellen 120Hz Monitor nicht gerade gering. Mich würde soetwas durchaus reizen, aber dafür derartiges anschaffen wenn ich gar nicht weiß ob mir das den erhofften Mehrwert bringt? Das ist mir dann doch zu riskant. Wenn man sich erstmal dafür entschieden hat erreicht man natürlich eine starke Kundenbindung, keine Frage. Bei den drei Monitoren von ATi prinzipiell das gleiche, wobei man hier auch Leute anspricht welche womöglich schon drei Anzeigegeräte haben, aber diese aktuell nicht gleichzeitig verwenden können. Oder sich eben nur einen neuen Monitor kaufen müssen. Die Eintrittshürden sind hier also etwas geringer.

reunion
2009-08-31, 11:22:30
Drei Ausgänge sind auch bei Low-Cost-Karten üblich, nur die gleichzeitige Nutzung von drei Geräten wäre neu. Aber mal abwarte was daraus wird, wenn es nur für spieletaugliche Grafikkarten kommen sollte, hätte ATI viel Potential verschenkt.

Jede 30€ 4350 hat heute schon drei Ausgänge, man wird das wohl kaum mit der nächsten Generation ändern, wo man jetzt diese drei Ausgänge auch gleichzeitig ansteuern kann.

StefanV
2009-08-31, 11:26:10
Ich würde sagen da braucht man nicht ATI zu gratulieren, sondern besser den Menschen, die abstruse Vergleiche mit den Features von Nvidia aufstellen und eine Fanboy-Diskussion lostreten, in der persönliche Vorlieben als Argumente herhalten müssen "Drei Monitore brauche ich nciht" / "3D ist doch unnütz"

Ohne diese Diskussion wäre es doch nur ein "Coole Sache, ein nettes Feature für lau." geworden und letzten Endes vor allem von Firmen genutzt worden, die sich damit eine Grafikkarte im Einkauf sparen können.
Genau das ist doch der Punkt, nicht AMD/ATi muss man hier gratulieren sondern den Fanboys, die versuchen ein 'ganz nettes' Feature wegzureden, weil braucht man selbst ja nicht, entsprechend ist es auch für andere nicht soo toll.

Das es aber einfach nur ein ganz nettes Feature ist, eine Neuerung, wird hingegen kaum gesehen, AMD wird auch kaum gratuliert, das man nach fast 10 Jahren auf die Idee kam, mal einen weiteren Displaycontroller zu integrieren sondern es wird rumgehackt, rumgemotzt und rumgeflamt, aus welchen Gründen auch immer...

Verstehen muss man das nicht, das man dieses tolle Feature versucht weg-/kleinzureden...
Aber ist ja nix neues, das man nur seinen eigenen Standpunkt sieht und das als allgemeine, ultimative Wahrheit ansieht...

Gast
2009-08-31, 11:38:11
Wirklich unterhalsam wie hier rumgeflamet wird, weil es nun bald die Möglichkeit gibt einen 3. Monitor anzuschliessen. Ist doch super wenn mans braucht - wenn nicht ists doch auch egal. Ich hab nur einen Monitor aber die Option find ich gut.

Das mit den 3 Monitoren könnte besonders für Super-"Enthusiasten" mit zu viel Geld auf dem Konto interessant sein. Man stelle sich vor:
Drei 30" Monitore mit 2560x1600 Auflösung zum zocken - da lohnt sich dann das QuadFire erst richtig (Kann man damit Crysis spielen ?).

y33H@
2009-08-31, 11:53:05
da lohnt sich dann das QuadFire erst richtig (Kann man damit Crysis spielen ?)Nö, nicht mal auf einem 30er nativ (zumindest mit Very High/Enthusiast und MSAA). Und ich spreche von den reinen Fps, µRuckler und Input-Lag außen vor.

N0Thing
2009-08-31, 13:08:55
Jede 30€ 4350 hat heute schon drei Ausgänge, man wird das wohl kaum mit der nächsten Generation ändern, wo man jetzt diese drei Ausgänge auch gleichzeitig ansteuern kann.


Das nun nicht weniger Anschlüsse auf den Karten verbaut werden sollte klar sein, die Frage ist doch ob auch auf low-budget-Karten drei Anzeigegeräte gleichzeitig angesteuert werden können, oder ob das den teureren "Gamerkarten" vorbehalten bleibt. Steht aber auch schon so in dem Abschnitt den du zitiert hast. ;)

Gast
2009-08-31, 13:10:25
Genau das ist doch der Punkt, nicht AMD/ATi muss man hier gratulieren sondern den Fanboys, die versuchen ein 'ganz nettes' Feature wegzureden, weil braucht man selbst ja nicht, entsprechend ist es auch für andere nicht soo toll.
Vor allem gibt es erstmal die bekannten AMD Fanboys, die jedes noch so kleine Krümelchen huldigen.

Der Vergleich zu Features der Konkurrenz hat sich im Lauf der Diskussion ergeben, erstere genannte AMD Fanboys blockten es zwar ab, den dies ist ja unnütz.

Objektiv ist das ganz und gar nicht, aber was soll man bei den üblichen Verdächtigen und deren Avataren auch erwarten.

Tatsächlich liefert AMD hier eine nette Neuerung, die mich persöhnlich höchstwahrscheinlich auf Sicht der nächsten 2 Jahre nicht betrifft. Ein alleiniger Kaufgrund ist dies nicht, den man kann sich behelfen. Wenn mans braucht, kann es den Kauf erleichtern.
Sich hinzustellen und Features der Konkurrenz schlecht zu machen ist das allerletzte. Manch einen interessieren sogar die Features der Konkurrenz mehr, ein gegenseitiger Respekt fehlt den üblichen Verdächtigen.

Sorkalm
2009-08-31, 13:34:12
Das nun nicht weniger Anschlüsse auf den Karten verbaut werden sollte klar sein, die Frage ist doch ob auch auf low-budget-Karten drei Anzeigegeräte gleichzeitig angesteuert werden können, oder ob das den teureren "Gamerkarten" vorbehalten bleibt. Steht aber auch schon so in dem Abschnitt den du zitiert hast. ;)

Der Chip wirds wohl in jedem Fall können, da man dadurch ein weiteres Argument für Office-Karten hat. Welche SKUs das dann können, ist eine andere Frage, aber ich denke man wird das auch mit günstigeren Modellen anbieten. :)

Gast
2009-08-31, 14:02:41
1. NV 3D macht auf die dauer die Augen kaputt. Gibt diverse Berichte von Kopfschmerzen etc. zudem wird das gesamte Sehempfinden im Gehirn gestört.

2. Neben den Kosten für Brille und teurem 120 HZ Monitor sollte man nicht vergessen das es auch mal locker die Framerate halbiert. Insofern müsste man auch noch die zusätzlichen Kosten für einen Ausgleich der FPS dazurechnen. Nun sind wir dann aber schon im absoluten Highendbereich wo weniger mehr Leistung deutlich mehr Geld kostet.

Um also 3D mit der gleichen Framerate wie vorher 2D zu bekommen kommt man locker zu einem Paketpreis von 1000 Euro extra NUR für 3D und um sich damit dann die Augen versauen zu dürfen.

3. Hingegen kosten günstige Monitore mit 60HZ heutzutage nur noch ca. 200 Euro. Zwar verliert man durch die höhere Gesamtauflösung auch FPS aber dafür verschrottet man nicht seine Augen und hat einen Zusatznutzen bei normalen Office Anwendungen.

|MatMan|
2009-08-31, 14:52:37
Bitte eine Quelle angeben (diverse Berichte?), dass durch 3D Brillen "die Augen" kaputt gehen. Ich glaube ehrlich gesagt nicht, dass da etwas "kaputt" geht - eine Untersuchung dazu würde mich aber sehr interessieren.

Ailuros
2009-08-31, 14:56:48
Ihr werdet eine kleine Ablenkung von dem Brillenzeug entschuldigen:

http://www.fudzilla.com/content/view/15287/1/

We've heard that ATI's soon to lunch DirectX 11 performance card, something that we know as RV870 and something that AMD calls Evergreen, should be roughly 1.6 times faster than the RV770 chip.

RV770 is the chip behind ATI's Radeon HD 4870 card and it showed quite good performance, so this 1.6 times performance increase can give you a general idea that the new chip should be quite fast.

Of course 1.6 times is the best case scenario and it should be less than that in some cases, but overall this 40nm chip should be a good step forward for ATI.

mapel110
2009-08-31, 15:00:50
Schon wieder einer beim Mittagessen. LOL (lunch)

reunion
2009-08-31, 15:01:50
60% mehr Leistung als eine 4870 in "best case" wäre ja nicht gerade berauschend. Aber mal abwarten.

AnarchX
2009-08-31, 15:07:23
Selbst bei nur 1.1GHz Speichertakt wäre 60% in "best case" wirklich etwas zu wenig für einen 1600SPs-Chip.

Laut HKEPCs Quellen sollen 5870/5850 $399/$299 kosten:
http://global.hkepc.com/3955

ShadowXX
2009-08-31, 15:12:52
Drei Ausgänge sind auch bei Low-Cost-Karten üblich, nur die gleichzeitige Nutzung von drei Geräten wäre neu. Aber mal abwarte was daraus wird, wenn es nur für spieletaugliche Grafikkarten kommen sollte, hätte ATI viel Potential verschenkt.
Jede 30€ 4350 hat heute schon drei Ausgänge, man wird das wohl kaum mit der nächsten Generation ändern, wo man jetzt diese drei Ausgänge auch gleichzeitig ansteuern kann.
Also bei uns in der Firma hat jede OEM-Karte höchstens 2 Ausgänge (egal ob ATI oder nV).
Die meisten haben aber sogar nur einen Ausgang. Bei denen kann man dann nur mit einem speziellen Adapterkabel 2 Monitore anschliessen.

Und eine 4350 ist als Retail-Karte keine typische Bürokarten...."Bürokarten" werden im Komplettpaket des Rechners mit eingekauft (z.B. bei Dell) und unterscheiden sich von den Retail-Low-Cost-Karten.

Und bei diesen OEM-Karten wird wirklich jeder Cent 3x umgedreht.

Ich glaube zwar auch, das das 3 Monitorfeature bis in die kleinsten GPUs verfügbar sein wird, nur dieses dann umgesetzt wird ist ne andere Sache (davon abgesehen das ATI schön blöd wäre, wenn Sie sich das Feature bei den Low-Costs nicht extra bezahlen lassen würden, aka: ohne 3 Monitor kostet der Chip X, mit 3 Monitor-Feature kostet er 5$ mehr.)

60% mehr Leistung als eine 4870 in "best case" wäre ja nicht gerade berauschend. Aber mal abwarten.
Da hatte ich eigentlich auch etwas mehr erwartet, speziell da es auch noch "best case" sein soll.
Vielleicht haben Sie den Takt nicht so hoch bekommen wie Sie wollten oder das 256-Bit Speicherinterface ist doch ein größerer Bremser als angenommen.

X.Perry_Mental
2009-08-31, 15:14:20
Selbst bei nur 1.1GHz Speichertakt wäre 60% in "best case" wirklich etwas zu wenig für einen 1600SPs-Chip.
60% schneller als die 1,2 TFlops des RV770 auf 4870er-Karten ergeben keine 2 TFlos für den RV870...

Nakai
2009-08-31, 15:15:57
60% ist sehr wenig im besten Fall. Wohl doch nur 1280SPs?
Das sind bei mehr Takt etwa 60% Mehrperformance.

Ich glaube zwar auch, das das 3 Monitorfeature bis in die kleinsten GPUs verfügbar sein wird, nur dieses dann umgesetzt wird ist ne andere Sache (davon abgesehen das ATI schön blöd wäre, wenn Sie sich das Feature bei den Low-Costs nicht extra bezahlen lassen würden, aka: ohne 3 Monitor kostet der Chip X, mit 3 Monitor-Feature kostet er 5$ mehr.

Es heißt prinzipiell nur, dass die Karten eine deutlich höhere Auflösung unterstützen werden. Eigentlich nicht schlecht.


mfg Nakai

ShadowXX
2009-08-31, 15:17:49
60% schneller als die 1,2 TFlops des RV770 auf 4870er-Karten ergeben keine 2 TFlos für den RV870...
Nur weil die Karte jetzt über 2 TFlops haben soll, heisst das nicht das sich das unbedingt 1:1 in Spielen wiederspiegelt.

Das da noch andere Sachen mitspielen kann man ja auch an der jetzigen Gen sehen, wo ATI auf dem Papier viel mehr TFlop hat, aber nV mit wesentlich weniger mithalten kann (bzw. sogar die schnellste SingleGPU Karte stellt).

Eggcake
2009-08-31, 15:22:44
Du vergleichst aber zwischen zwei Herstellern, was nochmals was anderes ist.
Wobei du natürlich trotzdem Recht hast ;)

Wobei "max. 1.6x" wohl ziemlich sicher trotzdem mächtig untertrieben sein dürfte. Vielleicht "In schlechten Fällen 1.6x", aber wohl kaum das umgekehrte.

Ailuros
2009-08-31, 15:24:44
Nur weil die Karte jetzt über 2 TFlops haben soll, heisst das nicht das sich das unbedingt 1:1 in Spielen wiederspiegelt.

Das da noch andere Sachen mitspielen kann man ja auch an der jetzigen Gen sehen, wo ATI auf dem Papier viel mehr TFlop hat, aber nV mit wesentlich weniger mithalten kann (bzw. sogar die schnellste SingleGPU Karte stellt).

Fuer die >2 TFLOPs fuer Cypress hatte ich nie einen besonderen Zweifel. Ein guter Schub an zusaetzlichen Fuellraten und ein relativ kleiner Rueckzug dank fehlender Bandbreite...

X.Perry_Mental
2009-08-31, 15:27:21
Nur weil die Karte jetzt über 2 TFlops haben soll, heisst das nicht das sich das unbedingt 1:1 in Spielen wiederspiegelt.

Das da noch andere Sachen mitspielen kann man ja auch an der jetzigen Gen sehen, wo ATI auf dem Papier viel mehr TFlop hat, aber nV mit wesentlich weniger mithalten kann (bzw. sogar die schnellste SingleGPU Karte stellt).
Die Quelle (oder das Zitat der Quelle) sind aber auch wirklich unglaublich ungenau. Man vermischt hier mal wieder wunderbar die theoretische Mehrleistung des Chips (also RV870 ggü. RV770) und die Mehrleistung auf Karten-Ebene.
Wollen wir mal annehmen, dass die >2TF im schlimmsten Fall 2,1TF sind, dann wären das ungefähr 75% mehr (Roh-)Leistung als die 1,2TF des RV770 mit 750MHz auf 4870er-Karten. Durch andere limitierende Faktoren (256bit Speicher-Interface?) kann es ja durchaus sein, dass von den 75% mehr nur 60% in der Praxis übrig bleiben. Es bleibt spannend.

Coda
2009-08-31, 15:27:43
ALU-Rechenleistung muss sich auch nicht direkt in 3D-Leistung niederschlagen. Das sollte mal wieder raus aus den Köpfen.

Ailuros
2009-08-31, 15:35:44
Die Quelle (oder das Zitat der Quelle) sind aber auch wirklich unglaublich ungenau. Man vermischt hier mal wieder wunderbar die theoretische Mehrleistung des Chips (also RV870 ggü. RV770) und die Mehrleistung auf Karten-Ebene.
Wollen wir mal annehmen, dass die >2TF im schlimmsten Fall 2,1TF sind, dann wären das ungefähr 75% mehr (Roh-)Leistung als die 1,2TF des RV770 mit 750MHz auf 4870er-Karten. Durch andere limitierende Faktoren (256bit Speicher-Interface?) kann es ja durchaus sein, dass von den 75% mehr nur 60% in der Praxis übrig bleiben. Es bleibt spannend.

Das dumme ist dass ich zwar verstehe was Du meinst aber wenn ich Deinen vorigen und diesen Post lese hab ich das Gefuehl als dass bei jeglicher GPU die diversen Einheiten unabhaengig operieren was eben nicht der Fall ist.

So wie Du es formulierst muesste man nur shader-limitierte Faelle zur Referenz nehmen wo erstmal die TMUs herumhocken und Pullover stricken und auf keinen Fall etwas in der Richtung AA oder AF.

Aber wenn's schon sein muss: ich frage nochmal Juniper bei P9500 Vantage (ergo zwischen 4870 und 4850)?

derguru
2009-08-31, 15:36:36
fud mal wieder;D
gab ja schon lange keine infos mehr von denen zur ati karte,da mußte man gleich was abenteuerliches raushauen.

Ailuros
2009-08-31, 15:41:10
fud mal wieder;D
gab ja schon lange keine infos mehr von denen zur ati karte,da mußte man gleich was abenteuerliches raushauen.

Ich beobachte ihn schon seit einiger Zeit; er ist seit er unabhaengig geworden ist viel vorsichtiger mit seinen newsblurbs und bewegt sich auch selten mit absoluten Behauptungen im Vergleich zu mancher seiner Kollegen.

Er drueckt ziemlich diskret etwas ueber November fuer D12U rein, welches auch zufaelligerweise der letzte Schrei vom hintergruendlichen Gefluester ist.

Gast
2009-08-31, 15:44:02
Das wären lächerliche 50% zu einer 4890 im besten Fall. Näh, so langsam wäre nichtmal eine 1280SP Krücke.

X.Perry_Mental
2009-08-31, 15:51:01
Das dumme ist dass ich zwar verstehe was Du meinst aber wenn ich Deinen vorigen und diesen Post lese hab ich das Gefuehl als dass bei jeglicher GPU die diversen Einheiten unabhaengig operieren was eben nicht der Fall ist.

So wie Du es formulierst muesste man nur shader-limitierte Faelle zur Referenz nehmen wo erstmal die TMUs herumhocken und Pullover stricken und auf keinen Fall etwas in der Richtung AA oder AF.

Aber wenn's schon sein muss: ich frage nochmal Juniper bei P9500 Vantage (ergo zwischen 4870 und 4850)?
Ich verstehe es irgendwie nicht. Wenn ich die spekulierten Die-Größen des RV870, die vermuteten Transistoren usw. als mehr oder weniger treffend ansehe, dann fällt es mir schwer zu glauben, dass man mir einer 5870er-Karte im besten Fall 60% Mehrleistung (im besten Falle) ggü einer 4870 bekommt.

StefanV
2009-08-31, 16:00:24
hm, was für eine 4870 ist denn gemeint?
Doch nicht etwa die x2??

OK, eher unwahrscheinlich, aber nicht unmöglich...

V2.0
2009-08-31, 16:05:58
fud mal wieder;D
gab ja schon lange keine infos mehr von denen zur ati karte,da mußte man gleich was abenteuerliches raushauen.
Fuad, ist in letzter Zeit viel besser geworden. Weniger einseitig, oftmals nachvollziehbar wie er an die Infos kam.

Ailuros
2009-08-31, 16:07:41
Ich verstehe es irgendwie nicht. Wenn ich die spekulierten Die-Größen des RV870, die vermuteten Transistoren usw. als mehr oder weniger treffend ansehe, dann fällt es mir schwer zu glauben, dass man mir einer 5870er-Karte im besten Fall 60% Mehrleistung (im besten Falle) ggü einer 4870 bekommt.

Ich hab auch nirgends behauptet dass IMO Cypress nicht bis zu 2x Mal so schnell sein wird als RV770. Mir klingen einfach schon seit einiger Zeit die Zahlen die links und rechts fuer gewisse Einheiten herumschwirren als viel zu euphorisch das ist alles.

Selbst wenn ich es nur auf FLOP Basis nehmen wuerde:

1200 / 5 * 10 * 0.95 = 2.280
1280 / 5 * 10 * 0.90 = 2.304
1600 / 5 * 10 * 0.70 = 2.240

Im ersten Fall haette ich theoretisch vielleicht 48 TMUs, im zweiten 64 und im dritten 80TMUs. So und was jetzt?

derguru
2009-08-31, 16:11:10
Ich beobachte ihn schon seit einiger Zeit; er ist seit er unabhaengig geworden ist viel vorsichtiger mit seinen newsblurbs und bewegt sich auch selten mit absoluten Behauptungen im Vergleich zu mancher seiner Kollegen.

fud wird doch von den herstellern absichtlich für solche meldungen ausgenutzt,werbung freihaus(positive oder negative ist erstmal wurscht).:wink:
was dagegen spricht sind alle spekulierten werte,das würde nicht passen mit den leistungsdaten,der angebene preis wäre zu hoch,das gesabber von huddy wäre auch dann nichts wert wo er schrieb"wenn ihr die finalen spezifikationen seht,werdet ihr festellen,dass wir auch andere Teile der Hardware deutlich aufgepumpt haben.

Fuad, ist in letzter Zeit viel besser geworden. Weniger einseitig, oftmals nachvollziehbar wie er an die Infos kam.
das bedeutet trotzdem noch rein garnichts.

robbitop
2009-08-31, 16:12:07
Mit so einer Karte bräuchten sie gar nicht anzutanzen. Schon gar nicht zu diesem Preis. Der Abstand zur RV790 wäre zu gering. Bei der Kerngröße gehe ich fest von ca. Faktor 2 (ggü. RV770) aus.

Botcruscher
2009-08-31, 16:18:39
Richtig. Das wäre noch wesentlich schlechter als R600. Was will man mit einer Karte die keine 50% von G300 bringt? Selbst die Fixkosten für PCB und RAM wären da zuhoch. Das Ding wäre wirtschaftlich ein absoluter Fehlschlag.

Ailuros
2009-08-31, 16:21:23
fud wird doch von den herstellern absichtlich für solche meldungen ausgenutzt,werbung freihaus(positive oder negative ist erstmal wurscht).:wink:

Liefert er ja auch fuer AMD schon seit einiger Zeit fuer alles was Evergreen betrifft.

was dagegen spricht sind alle spekulierten werte,das würde nicht passen mit den leistungsdaten,der angebene preis wäre zu hoch

$299 sind zu viel fuer etwas dass nicht allzu weit von einer GTX295 liegen wird? Da wo es grau fuer Cypress aussieht ist wenn bei der 1GB Variante der Speicher und die Bandbreite ausgeht.

,das gesabber von huddy wäre auch dann nichts wert wo er schrieb"wenn ihr die finalen spezifikationen seht,werdet ihr festellen,dass wir auch andere Teile der Hardware deutlich aufgepumpt haben.

Was spricht bis jetzt dagegen? Und wenn's schon sein muss wer sagt dass AMD nicht auch etwas bunte Sosse (wie jeder IHV eigentlich) dazugeschmiert hat?

mboeller
2009-08-31, 16:44:45
Mit so einer Karte bräuchten sie gar nicht anzutanzen. Schon gar nicht zu diesem Preis. Der Abstand zur RV790 wäre zu gering. Bei der Kerngröße gehe ich fest von ca. Faktor 2 (ggü. RV770) aus.

Ich nehme an, es handelt sich bei der GPU um JuniperXT und nicht um eine Cypress GPU. 180mm² + höherer Takt + höherer Speichertakt + Verbesserungen im Design könnten im Vergleich zu einem RV740 zu 50-70% mehr Leistung führen. Und eine 4770 Karte ist fast so schnell wie eine normale 4850 Karte (+/- 5-10%)

Botcruscher
2009-08-31, 16:46:39
Das klingt zumindest logisch.

Ailuros
2009-08-31, 16:49:32
Ich nehme an, es handelt sich bei der GPU um JuniperXT und nicht um eine Cypress GPU. 180mm² + höherer Takt + höherer Speichertakt + Verbesserungen im Design könnten im Vergleich zu einem RV740 zu 50-70% mehr Leistung führen. Und eine 4770 Karte ist fast so schnell wie eine normale 4850 Karte (+/- 5-10%)

JuniperXT um 60% schneller als eine 4870? Na dann schuettel mal etliche Male Deinen Kopf. Dessen Leistung liegt nichtmal auf 4870 Nivaeu.

Botcruscher
2009-08-31, 17:01:20
Er meint einen RV740 nicht die HD4870. Das wäre "etwas" zu viel.:freak: Juniper ist schlicht 60% schneller als die 4770 - was auch gut klingt. Das mit Cypress und der HD4870 ist FUD. Da hat jemand was in den falschen Hals bekommen. Das würde sich auch mit den P-Werten decken die so rumgeistern.

derguru
2009-08-31, 17:12:22
$299 sind zu viel fuer etwas dass nicht allzu weit von einer GTX295 liegen wird? Da wo es grau fuer Cypress aussieht ist wenn bei der 1GB Variante der Speicher und die Bandbreite ausgeht.
amd sollte sich aber nicht an einer alten karte orientieren wie dem 295gtx sondern an den kommenden nv karten abgesehen davon wären 30% leistung immer noch sehr viel.
mit der leistung die von fud angegeben wurde würden nicht mal 2 gpus gegen eine einzelne gt300 ankommen.(vom spekulierten ausgegangen)

Was spricht bis jetzt dagegen? Und wenn's schon sein muss wer sagt dass AMD nicht auch etwas bunte Sosse (wie jeder IHV eigentlich) dazugeschmiert hat?
die leistung spricht dagegen,allein das ganze tamtam mit launch auf flugzeugträger bla,bla paßt einfach nicht für eine mickrigen performanceschub von ca.30% schneller als eine 4890 OC edtion.
oder kommt jetzt das was kommen muß,marketing trägt schon seine ersten früchte.:tongue:

naja werden es ja bald sehen,ich kann mir ehrlich gesagt sogar eher mehr performance vorstellen als das bisher angenommene.(jedenfalls eher als die 60% von fud)

MR2
2009-08-31, 17:26:50
Genau, das ist Blödsinn...

30% schneller als eine 1Ghz 4890..da hätte man den RV870 verschoben, den Takt versucht nach oben zu schrauben und noch versucht zu optimieren, nach dem gt300 veröffentlicht..

Für eine HD5850, also den RV870Pro mit 650Mhz könnte das ja hinkommen:

Now reports core lower @ 750mhz (probably 3 different speeds for 3 models 650/750/850)

rv870pro 1G: 249
rv870XT 1G: 299
rv870XT 2G: 399

3dmark vantage performance:
Cypress ~P16xxx - P17xxx - P18xxx

http://www.xtremesystems.org/forums/showpost.php?p=3967152&postcount=174


Mit meiner leicht übertakteten 4870 512MB komme ich auf 10000 Vantage Punkte.

ShadowXX
2009-08-31, 17:33:38
Genau, das ist Blödsinn...

30% schneller als eine 1Ghz 4890..da hätte man den RV870 verschoben..

Für eine HD5850, also den RV870Pro mit 650Mhz könnte das ja hinkommen:

Now reports core lower @ 750mhz (probably 3 different speeds for 3 models 650/750/850)

rv870pro 1G: 249
rv870XT 1G: 299
rv870XT 2G: 399

3dmark vantage performance:
Cypress ~P16xxx - P17xxx - P18xxx


Mit meiner leicht übertakteten 4870 512MB komme ich auf 10000 Vantage Punkte.
Und was kommt dann nicht hin mit den ~P16xxx?

Das sind ca. 60% mehr als deine 10.000.....

MR2
2009-08-31, 17:35:35
Na ich meine ja, für eine 5870xt wäre es viel zu wenig, für die genannte 5850 könnte es hinhauen. Kann ja auch sein die 5850 hat deaktivierte Hardwareeinheiten, ist aber gewissenermaßen auch ein RV870-pro..:-). Sorry, blöd ausgedrückt.

Und "bestmöglicher Fall" da passt wohl auch Vantage.

Gast
2009-08-31, 18:05:24
60% von RV770 zu RV870 klingen gar nicht mal so realitätsfehrn wie ich finde.

AnarchX
2009-08-31, 18:10:19
Als Durchschnittswert könnten diese 60% in der Tat stimmen, aber als Maximum wäre es doch etwas wenig für einen Chip mit wohl nahezu doppelter Transitorzahl und wohl auch Textur- und ALU-Rohleistung.

V2.0
2009-08-31, 18:15:59
Für einen Chip schon, für einen 2 kern GPU hingegen....

Gipsel
2009-08-31, 18:23:07
Das Problem an solchen Meldungen ist häufig, daß die keine Ahnung von korrekter Grammatik haben, man also nie weiß, was eigentlich gemeint ist.

Fuad schreibt, RV870 ist (in einem nicht genannten Spezialfall, also wahrscheinlich irgendein theoretischer Wert, es wird ausdrücklich vom "best case scenario" gesprochen) 1,6 mal schneller als RV770 ("1.6 times faster"), nicht 1,6 mal so schnell ("1.6 times as fast"). Wenn man das wörtlich nimmt, gibt es also eine Steigerung um 160% und nicht nur um 60%. Dies würde also ziemlich genau RV670->RV770 entsprechen.

Nehmen wir mal an, es bezieht sich auf die Flops (könnte aber auch irgendwas anderes sein), wäre das mit 1600SP@975MHz erfüllt. In meinen Augen nicht vollkommen ausgeschlossen für eine HD5870 "Black Edition". Wenn dann die Standard 5870 mit 750MHz oder so daherkommt, wären auch die knapp verdoppelten Vantage-Werte in Anbetracht der geringeren Steigerung der Speicherbandbreite im Rahmen des Möglichen.

Aber wie gesagt ist die Meldung eigentlich ziemlich inhaltsleer und lohnt das Spekulieren kaum.

Gast
2009-08-31, 18:30:10
Das Problem an solchen Meldungen ist häufig, daß die keine Ahnung von korrekter Grammatik haben, man also nie weiß, was eigentlich gemeint ist.

Warum,
"RV770 is the chip behind ATI's Radeon HD 4870 card and it showed quite good performance, so this 1.6 times performance increase can give you a general idea that the new chip should be quite fast."
ist doch wirklich ziemlich eindeutig.

Eine 160% Performancesteigerung bedeutet 260% der Ursprungsleistung. Ich verstehe gar nicht, wie man da auf 60% Steigerung schließen kann?

w0mbat
2009-08-31, 18:32:25
@Gipsel: Genau, da steht nichts von 60%, sonder etwas von 160%.

LovesuckZ
2009-08-31, 18:33:07
So wie er es schreibt, ist es eine 1,6 fache Steigerung - also 60%. Denn 0 gibt es nicht und 0,6 wären dann 80% weniger Leistung...

Gipsel
2009-08-31, 18:38:02
Warum,
"RV770 is the chip behind ATI's Radeon HD 4870 card and it showed quite good performance, so this 1.6 times performance increase can give you a general idea that the new chip should be quite fast."
ist doch wirklich ziemlich eindeutig.

Eine 160% Performancesteigerung bedeutet 260% der Ursprungsleistung. Ich verstehe gar nicht, wie man da auf 60% Steigerung schließen kann?
@Gipsel: Genau, da steht nichts von 60%, sonder etwas von 160%.
Ja, aber wie ich schon schrieb, haben im englischen Sprachraum die meisten Leute keine Ahnung von korrekter Grammatik bei solchen Sachen, insbesondere wenn es noch um Leute wie Fuad oder Theo geht ;)
Selbst Muttersprachler machen das sehr häufig falsch. Man muß sich ja nur mal die Diskussion bei B3D dazu anschauen (http://forum.beyond3d.com/showthread.php?p=1328122#post1328122) :rolleyes:

Gipsel
2009-08-31, 18:43:46
So wie er es schreibt, ist es eine 1,6 fache Steigerung - also 60%. Denn 0 gibt es nicht und 0,6 wären dann 80% weniger Leistung...
Nein.
Nochmal für Dich: 60% Steigerung wären "60% faster" oder "1.6 times as fast". "1.6 times faster" (vorausgesetzt Fuad kann korrektes Englisch ;)) bedeutet 160% schneller, also 2.6 mal so schnell.
60% = "0.6 times"
160% = "1.6 times"

Ich meinte ja nicht umsonst, daß bei solchen relationalen Angaben das viele Leute durcheinanderbringen. Der Bezug ist da ziemlich wichtig ("schneller als", oder "so schnell wie").

Gast
2009-08-31, 18:46:46
Nein.
vorausgesetzt Fuad kann korrektes Englisch ;))

"In this particular test it is at least 1.7 times faster than a single card"
http://www.fudzilla.com/content/view/10933/65/

deutet allerdings eher darauf hin, dass korrektes Englisch nicht unbedingt vorausgesetzt werden kann.

StefanV
2009-08-31, 18:48:15
60% schneller im besten Fall find ich auch etwas zu wenig für eine neue Generation...

OK; R600 war auch nicht 50% schneller als R580 :ugly:

Gipsel
2009-08-31, 18:51:11
"In this particular test it is at least 1.7 times faster than a single card"
http://www.fudzilla.com/content/view/10933/65/

deutet allerdings eher darauf hin, dass korrektes Englisch nicht unbedingt vorausgesetzt werden kann.
Weswegen mein allererster Satz zu dem Thema lautete:
Das Problem an solchen Meldungen ist häufig, daß die keine Ahnung von korrekter Grammatik haben, man also nie weiß, was eigentlich gemeint ist.
;)

Man weiß nie welchen Weg die Information gegangen ist, wenn das vom konkreten Benchmarkwert über mehrere Stationen zu Fuad gekommen ist, dürfte die Information im Grammatik-Kauderwelsch verschwunden sein :rolleyes:

mapel110
2009-08-31, 18:55:20
http://vr-zone.com/articles/-rumour-ati-evergreen-is-1.6x-faster-than-hd-4870-/7539.html
VR Zone macht daraus auch nur 60% Plus, wie sich das liest.

Wir wissen halt nicht, wie viele Transistoren DX11 verschlingt. Vielleicht ists doch nicht so wenig.

nagus
2009-08-31, 19:03:10
60% mehr Leistung als eine 4870 in "best case" wäre ja nicht gerade berauschend. Aber mal abwarten.

"nicht berauschend" ist eine untertreibung. ich glaub wir können davon ausgehen, dass das blödsinn ist. das wäre ja langsamer als eine 4850X2! bzw. kaum schneller als eine 4890 OC. > ergo ist diese news schwachsinnig und trifft sicher nicht auf die 5870er zu. evtl die 5850er gemeint.

oder wie w0mbat auf vrzone (http://vr-zone.com/comments/-rumour-ati-evergreen-is-1.6x-faster-than-hd-4870-/7539.html) schreibt: ""1.6 times faster than rv770" is 160% faster, 60% faster would be "1.6 times as fast as rv770"."

das trau ich dem chip eher zu als die 60% faster (so n'blödsinn)

w0mbat
2009-08-31, 19:04:14
60% schneller als RV770 wäre kaum schneller als RV790OC? Wo lebst du denn?

Blaire
2009-08-31, 19:05:47
Würde auch Sinn machen, da Ati diesmal verhältnismäßig schnell auch eine X2 Variante nachschieben wird um gegen GT300 gewappnet zu sein.

derguru
2009-08-31, 19:08:11
Würde auch Sinn machen, da Ati diesmal verhältnismäßig schnell auch eine X2 Variante nachschieben wird um gegen GT300 gewappnet zu sein.
macht kein sinn weil nicht mal eine x2 eine chance hätte gegen eine gt300.

V2.0
2009-08-31, 19:13:26
Nicht wenn GT300 auch nur 1.6x schneller ist als GT200.

nagus
2009-08-31, 19:13:35
@Gipsel: Genau, da steht nichts von 60%, sonder etwas von 160%.
;D

LovesuckZ
2009-08-31, 19:14:11
Nein.
Nochmal für Dich: 60% Steigerung wären "60% faster" oder "1.6 times as fast". "1.6 times faster" (vorausgesetzt Fuad kann korrektes Englisch ;)) bedeutet 160% schneller, also 2.6 mal so schnell.
60% = "0.6 times"
160% = "1.6 times"

Ich meinte ja nicht umsonst, daß bei solchen relationalen Angaben das viele Leute durcheinanderbringen. Der Bezug ist da ziemlich wichtig ("schneller als", oder "so schnell wie").

Fuad schreibt von schneller als. 1,6 mal schneller als 1 ist 60% und nicht 160%. Hätte Fuad 160% gemeint, hätte er 2,6 geschrieben.

dildo4u
2009-08-31, 19:14:58
60% passt siehe hier es gingen ja schon mal 18000 Punkte für RV870 um.

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/3/#abschnitt_3dmark_vantage

derguru
2009-08-31, 19:16:50
60% passt siehe hier es gingen ja schon mal 18000 Punkte für RV870 um.

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/3/#abschnitt_3dmark_vantage

das ist quak weil die cpu noch eine bedeutende rolle spielt,wenn die 5870 angeblich 18k packen würde dann sind das unter x wert minimum das doppelte und die gehen ja von max.60% aus.

Gipsel
2009-08-31, 19:17:17
Nicht wenn GT300 auch nur 1.6x schneller ist als GT200.
nv gibt die extra Taktdomain für die Shader auf und taktet den kompletten Chip auf 1GHz :rolleyes:
Aber selbst dann würde mehr als Faktor 1.6 rausspringen. Ich denke, solange nv nicht wirklich was verbockt hat, sollte GT300 locker 2x GT200 Niveau erreichen, bei entsprechendem Takt sogar Faktor 2.5, zumindest müßte das aus meiner Sicht das Ziel sein.

Gipsel
2009-08-31, 19:19:47
Fuad schreibt von schneller als. 1,6 mal schneller als 1 ist 60% und nicht 160%. Hätte Fuad 160% gemeint, hätte er 2,6 geschrieben.
Da denke nochmal drüber nach. Am besten fragst Du einen Deutschlehrer nach dem Unterschied zwischen "x schneller als" und "x mal so schnell wie" :rolleyes:

Oder anders: Karte x erreicht 10% mehr Framerate als Karte y, also hat Karte x 110% der Framerate wie Karte y. Und Karte z erreicht 100% mehr Framerate als x, ist also genau doppelt so schnell wie x.

nagus
2009-08-31, 19:19:57
60% schneller als RV770 wäre kaum schneller als RV790OC? Wo lebst du denn?

wenn ich die 1GH/1GHZ version hernehm und die mit einer normalen 750mhz version vergleiche... und noch das "best case" scenario beachte. wenn ich dann von den +60% ausgehe bleibt da nicht mehr besonders viel unterschied übrig.

... außedem was mir auch grad auffällt... diese news ist nicht unbedingt so geschrieben, als ob das ding langsam wäre. würde er +60% meinen würde er kaum schreiben "DirectX 11 40nm leap" und "...should be quite fast."

Blaire
2009-08-31, 19:20:40
das ist quak weil die cpu noch eine bedeutende rolle spielt,wenn die 5870 angeblich 18k packen würde dann sind das unter x wert minimum das doppelte.

Nicht zu den spekulierten Preisen...ergäbe keinen Sinn und man hätte sich die Option einer X2 länger offengelassen. ;)

nagus
2009-08-31, 19:21:50
60% passt siehe hier es gingen ja schon mal 18000 Punkte für RV870 um.

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_13_grafikkarten/3/#abschnitt_3dmark_vantage

wenn eine übertaktete rv770 schon 10000 stafft... wo passen dann bitte die +60% "best case" ?
außerdem passt der neue spekulierte preis auch nicht zu den +60%

Gast
2009-08-31, 19:24:50
Was ergibt wohl mehr Sinn

Game XY bei 1920x1200
4870 1024MB = 50fps
4890 1024MB = 55fps
4890OC 1024MB = 60fps
58xx 1024MB = 80fps +60%
58xx 1024MB = 130fps +160%

Ich denke eher an 60%, vielleicht auch mehr in Richtung +80%, aber doch nicht 160%...

Gast
2009-08-31, 19:27:55
Nun ja, wenn da sowas steht wie "of course" gelte diese Steigerung nur im "best case", dann geben +160% mehr Sinn.

nagus
2009-08-31, 19:28:28
Was ergibt wohl mehr Sinn

Game XY bei 1920x1200
4870 1024MB = 50fps
4890 1024MB = 55fps
4890OC 1024MB = 60fps
58xx 1024MB = 80fps +60%
58xx 1024MB = 130fps +160%

Ich denke eher an 60%, vielleicht auch mehr in Richtung +80%, aber doch nicht 160%...

"best case"! das können NIE UND NIMMER nur +60% BEST CASE sein! HALLOOOO das wäre geradezu LÄCHERLICH wenig. was wäre dann der durchschnitt??? +40%?!? *PPFFFF* ja klar. da hat ja eine R600 besser perfomed ;)

dildo4u
2009-08-31, 19:30:27
wenn eine übertaktete rv770 schon 10000 stafft... wo passen dann bitte die +60% "best case" ?
außerdem passt der neue spekulierte preis auch nicht zu den +60%
EU Preise mal Außen vor gelassen aber steht die 4870 mit 1GB offizell nicht bei 199$? die 5870 soll bei 299$ liegen was passt da nicht?

Preiscut März 09.

"and finally the Radeon 4870 1GB was expected to MSRP for $199.99."

http://www.firingsquad.com/news/newsarticle.asp?searchid=21398

Gast
2009-08-31, 19:31:54
Außerdem waren für den RV770 512 MB Standard, bei den 58xx werden es 1024 MB sein. Da kommt es dann schnell einmal zu enormen Sprüngen.

Gipsel
2009-08-31, 19:32:34
Ich denke eher an 60%, vielleicht auch mehr in Richtung +80%, aber doch nicht 160%...
Die rumorierten Vantage-Werte sagen schon mal +80% (wieviel auch immer da dran ist). Fuad sprach ausdrücklich von "bis zu" bzw. "best case scenario". Das kann also alles Mögliche sein, theoretische Flops, Z-Fillrate oder was auch immer. Daß davon in realen Spielen weniger rüberkommt hat er ja auch geschrieben. Wenn also irgendein theoretischer Benchmark-Wert jetzt 2.6mal so groß wie bei RV770 ist, spricht das noch lange nicht dagegen, daß die Karte im Schnitt 80% schneller ist.

Am wahrscheinlichsten ist sowieso, daß der Wert einfach ohne wirklichen Hintergrund in den Raum geworfen wurde ;)

Gast
2009-08-31, 19:34:10
+60% im best case ist unrealistisch. Bisher konnte man bei jedem Generationswechsel (HD2900XT zu HD3870 mal ausgenommen) wenigstens einen Test finden bei dem die neue Karte mind. 100% schneller war.

derguru
2009-08-31, 19:39:21
Nicht zu den spekulierten Preisen...ergäbe keinen Sinn und man hätte sich die Option einer X2 länger offengelassen. ;)

warum sollte amd die option offen lassen wenn man genau weiß das man mit einer"5870" nicht ein hauch einer chance haben wird?die x2 soll doch angeblich eh später kommen und zu den spekulierten preisen,warum nicht?2*4870 1gb karten kosten ca.230euro.

V2.0
2009-08-31, 19:43:43
nv gibt die extra Taktdomain für die Shader auf und taktet den kompletten Chip auf 1GHz :rolleyes:
Aber selbst dann würde mehr als Faktor 1.6 rausspringen. Ich denke, solange nv nicht wirklich was verbockt hat, sollte GT300 locker 2x GT200 Niveau erreichen, bei entsprechendem Takt sogar Faktor 2.5, zumindest müßte das aus meiner Sicht das Ziel sein.

Es ist relativ sinnlos Karten zu vergleichen, die nicht released wurden. Allerdings weiß jeder, dass die Realität gerne mal nicht den Erwartungen entspricht, bei beiden IHVs.

Wobei sich best case bei FUAD hier sicher nicht auf theoretische Benchmarks bezieht sondern er für typische Game-Benches gelten dürfte. Und da erscheinen mir 60% gegenüber der RV79OC völlig glaubwürdig.

warum sollte amd die option offen lassen wenn man genau weiß das man mit einer"5870" nicht ein hauch einer chance haben wird?die x2 soll doch angeblich eh später kommen und zu den spekulierten preisen,warum nicht?2*4870 1gb karten kosten ca.230euro.

kein DX11 Aufkleber auf der Packung

Gast
2009-08-31, 19:48:39
Es ist relativ sinnlos Karten zu vergleichen, die nicht released wurden. Allerdings weiß jeder, dass die Realität gerne mal nicht den Erwartungen entspricht, bei beiden IHVs.

Wobei sich best case bei FUAD hier sicher nicht auf theoretische Benchmarks bezieht sondern er für typische Game-Benches gelten dürfte. Und da erscheinen mir 60% gegenüber der RV79OC völlig glaubwürdig.



kein DX11 Aufkleber auf der Packung

Sehe ich genauso, DX11 kostet schon 50$ Aufpreis, wenn es stimmen sollte das ATI endlich die BQ verbessert hat, passt es noch besser, sowas kostet dann auch Leistung, die Treiber müsen dann erst mal angepasst werden, mit der Zeit wird es dann sicher mehr, aber bei ATI weiß man doch, das die Reiber am Anfang das Problem sind.

Botcruscher
2009-08-31, 19:55:07
kein DX11 Aufkleber auf der Packung

Das nützt recht wenig wenn G300 3 Monate später die Karte mit 50% Vorsprung pawnt. Sowas kann man maximal in Lowend abziehen, da zahlt aber keiner 50$ für DX11. Um 75% der Leistung von G300 müssen einfach drin sein, sonst funktioniert das nicht mit den günstigen Herstellungspreisen. Und besseres AF, woohoo wir wollen Balken sehen! Wenn das Teil unter geht redet keiner mehr über BQ.

V2.0
2009-08-31, 20:01:29
Dafür habe ich dann meine X2 und hoffe dass die anderen keine bauen können bevor 32nm bereit ist. Zu diesem Zeitpunkt ich dann selber mit einer neuen Generation oder einem starken Refresh starte.

Gast
2009-08-31, 20:09:31
60% schneller im besten Fall find ich auch etwas zu wenig für eine neue Generation...

OK; R600 war auch nicht 50% schneller als R580 :ugly:
RV670 hat nur -20 bis +20% im Vergleich zu R600 gebracht.

Gast
2009-08-31, 20:19:19
Die HD4870 X2 ist so gut wie abverkauft, denke es sind maximal 160% was uns Fudo sagen wollte, also zwischen ... BIS MAXIMAL 160% im Idelfall ---> und NUR DANN WENN alles mitspielt.
Horn12

dildo4u
2009-08-31, 20:27:18
Die HD4870 X2 ist so gut wie abverkauft, denke es sind maximal 160% was uns Fudo sagen wollte, also zwischen ... BIS MAXIMAL 160% im Idelfall ---> und NUR DANN WENN alles mitspielt.
Horn12
Die Karte kostet 300 und keine 500$.Was habt ihr eigentlich für Vorstellungen?

LovesuckZ
2009-08-31, 20:32:17
Der GT200 hat im Vergleich zum G80 gezeigt, dass mehr eben sich nicht immer in mehr Leistung äußert. Also einfach abwarten und sich überraschen lassen.

dildo4u
2009-08-31, 20:37:02
Der GT200 hat im Vergleich zum G80 gezeigt, dass mehr eben sich nicht immer in mehr Leistung äußert. Also einfach abwarten und sich überraschen lassen.
Sehe ich auch so der RV870 wird sich Performancemäßig ca vergleichbar(GT200 zu G80) zum RV770 verhalten.RV770 war die dritte DX10 Karte von ATI.Das ist die erste DX11 Karte da gibts wenig Erfahrung und bleibt whol noch viel Raum für Optemierungen am Design.

Schlammsau
2009-08-31, 20:47:30
Um mal wieder gegen alle zu schwimmen.....aber was habt ihr gegen 60% mehr Leistung?
Ich persönlich hab bei der Single-Core-Variante, mit noch weniger gerechnet! 60% mehr als eine 4870 bedeutet doch ungefähr 4870X2 Niveau oder?
Was will man mehr?

LovesuckZ
2009-08-31, 20:52:01
Eine Leistungsverdopplung sollte bei 40nm zur Vorgängergeneration das Minimum sein. Immerhin bekommt man fast doppelte soviele Transistoren auf dem selben Platz. 60% ist eine herbe Enttäuschung - genauso wie es auch beim GT200 ala GTX280 war.

Gast
2009-08-31, 20:53:44
meine Meinung 1xschneller kann ja nicht gleichschnell sein sondern doppelt so schnell also 1,6x so schnell 100 +100+60 =1,6oder 160% schneller

Schlammsau
2009-08-31, 21:00:13
Eine Leistungsverdopplung sollte bei 40nm zur Vorgängergeneration das Minimum sein. Immerhin bekommt man fast doppelte soviele Transistoren auf dem selben Platz. 60% ist eine herbe Enttäuschung - genauso wie es auch beim GT200 ala GTX280 war.

Nö finde ich eigentlich nicht, wer deutlich über 100% mehr Leistung haben möchte, wird mit der X2 Variante sicherlich gut bedient werden. Wahrscheinlich kostet DX11 und Hardware Physik mehr Platz als gedacht. Und wer weiss, vielleicht kommt ja wirklich noch eine Triple-GPU-Karte!? Bedenkt das sich die Speicherbandbreite nur um 30% erhöht haben soll!

Und ich bin mir sicher, der GT300 wird sich in einem ähnlichen Rahmen bewegen.

aylano
2009-08-31, 21:02:37
Eine 160% Seigerung im besten Fall hört sich für mich realistischer/wahrscheinlicher an, als eine 60% Steigerung.

Vorallem, wenn einer Schreibt, dass die GPU/Architektur in einem Bereich ("deutlich") mehr aufgepumpt wird als jetzt gedacht wird, dann wäre ja eine 160% Steigerung in bestimmten Fall ja nicht mehr so außergewöhliches.
Immerhin ist das eine neue Architektur und es wäre ja komisch, wenn sie in jeder Spiele-Einstellungen den selben Vorsprung wie die alte Architektur hätte..

160% in Best Case hört sich so wie 100-120% im Durchschnitt an.

Was interessant ist.
RV870 soll (bis zu) 350 mm² haben.
350mm² wäre im Vergleich zur RV770 eine ca. 35% Steigerung
GT300 soll (trotz DX11) mit 500mm² nur ca. 5% größer als eine GT200b sein und dabei soll die GT300 doppelt so schnell sein wie die GT200b.

Beide müssen DX11 integrieren und nutzen (im Vergleich zum Vorgänger) 40nm,was AFAIK die doppelten Transitor & Einheiten ermöglicht.

Also, naiv gesagt, entweder hat GT300 ihre Architektur in Sachen Einheiten pro mm² deutlich verbessert, oder der RV870 hat wirklich mindesten doppelt so viel Einheiten & Co (Grundsätzlich doppelt, aber in manchen Bereichen sogar Mehr (sowie z.B. OC-Übertaktungstransistoren? (10% von den 35%-Die-Mehrfläche))

Da erst letztes Jahr ATI mit der Packdichte (Einheiten pro mm²) überraschte, wird Nvidia wohl kaum drauf regiern könnten.
Eher traue ich Nvidia die Arbeit an MIMD oder ähnliches zu, was IMO eher zu Nvidia passt, und sie mit über 100%+ Mehrleistung als mit höhere Packdichte überraschen.

Auf alle fälle finde ich die angebliche um 35% gerößere Die des RV870s im Vergleich zum Vorgänger sehr interessant.
Mit dieser Die-Größer werden sie IMO überraschen. Entweder wird RV870 ÜBERSCHÄTZT (zu wenig Performance & Einheitenn pro doch nur 325mm²) oder UNTERCHÄTZT (doch mehr Performance & Einheiten pro 350mm als allgemein? gedacht.

nagus
2009-08-31, 21:08:41
Um mal wieder gegen alle zu schwimmen.....aber was habt ihr gegen 60% mehr Leistung?
Ich persönlich hab bei der Single-Core-Variante, mit noch weniger gerechnet! 60% mehr als eine 4870 bedeutet doch ungefähr 4870X2 Niveau oder?
Was will man mehr?

*ähm* "best case" ist doch ein bisschen wenig?! überleg mal was die rv770 gegenüber der rv670 "best case" hatte... oder alle anderen davor.

rv770 vs. rv670 war im durchschnitt schon + ~90% (http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_grafikkarten_2008/19/#abschnitt_performancerating_qualitaet)

Gast
2009-08-31, 21:12:29
Größe und Packdichte sagen rein garnichts über die Leistungsfähigkeit aus, denn beim G80 zu GT200 hat man gesehen, das JEDE GPU in ihren Einheiten aufeinander abgestimmt werden muss. Hätte man etwas besser Engineerd hätte der GT200 das 512Bit Interface garnicht gebraucht. Die DIE Größe sagt 0 über die Leistungsfähigkeit aus, das hatten wir n der Generation mit R520 vs R580 doch wohl zur genüge gesehen...
Ziemlich viel Müll was hier gepostet wurde.

reunion
2009-08-31, 21:13:47
Hm, 800SPs + 60% = 1280 SPs, also 12 Cluster.

Auf die "best case"-Leistung betrachtet ist das natürlich Blödsinn IMO. Selbst durchschnittlich wäre es relativ enttäuschend. Aber im Endeffekt ist es nur eine Zahl von Fuad, es wird Zeit das richtige Infos kommen, wenn schon so eine Zahl ganze Seiten füllt.

Gast
2009-08-31, 21:15:14
*ähm* "best case" ist doch ein bisschen wenig?! überleg mal was die rv770 gegenüber der rv670 "best case" hatte... oder alle anderen davor.
R600 zu RV670?
R600 zu R580+?

Erst R580 zu R520 zeigt eine gewisse Steigerung, R520 zu R420 noch etwas mehr.

nagus
2009-08-31, 21:21:51
R600 zu RV670?
R600 zu R580+?

Erst R580 zu R520 zeigt eine gewisse Steigerung, R520 zu R420 noch etwas mehr.

R600 war ein... na wir wollen mal nicht hoffen dass sowas mit dem rv870 passiert :D

und R600 zu RV670 war keine neue generation... nicht mal ein refresh. das war nur ein shrink und eigentlich leistungsmäßig sogar teilweise ein kleiner rückschritt auf kosten der "kosten" ;)

aber wenn ich mirs recht überleg... der rv770 war relativ stark. trotzdem. 160% best case hören sich realistischer an als +60%. selbst die 2900xt war im durchschnitt +40% (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet) schneller als der hochgezüchtete refresh der vorgängerversion (wenn man das "kaputte" FSAA der 2900xt serie ausklammert)

Schlammsau
2009-08-31, 21:21:52
Also ich empfinde >100% mehr RV770XT Leistung als ziemlichen Overkill. Wofür bräuchte man diese brachiale Leistung bei einer Single-GPU-Karte?? Es wird dann doch noch mindestens eine X2 Variante folgen. Hallo?????
Für diese Karten ist doch noch kein Markt vorhanden. Das haben wir doch den Konsolenports zu verdanken.

MR2
2009-08-31, 21:22:21
"..something that we know as RV870 and something that AMD calls Evergreen"

Schon das klingt seltsam :-)

_flx
2009-08-31, 21:24:25
Also ich empfinde >100% mehr RV770XT Leistung als ziemlichen Overkill. Wofür bräuchte man diese brachiale Leistung bei einer Single-GPU-Karte?? Es wird dann doch noch mindestens eine X2 Variante folgen. Hallo?????
Für diese Karten ist doch noch kein Markt vorhanden. Das haben wir doch den Konsolenports zu verdanken.
für Mehr als 2 Monitore?


scnr ;)

dildo4u
2009-08-31, 21:25:11
Also ich empfinde >100% mehr RV770XT Leistung als ziemlichen Overkill. Wofür bräuchte man diese brachiale Leistung bei einer Single-GPU-Karte?? Es wird dann doch noch mindestens eine X2 Variante folgen. Hallo?????
Für diese Karten ist doch noch kein Markt vorhanden. Das haben wir doch den Konsolenports zu verdanken.
ATI kann imo so eine Karte innerhalb der sinnvollen TDPs Specs gar nicht liefern.Der Preis der angeschlagen wird sollte jeden Fanboy eines besseren beleren,hätte man so eine Karte die 160% schneller ist braucht man A. keine X2 und B könnte locker 500$ für die Karte verlangen.Auch ATI hat nix zu verschenken.

derguru
2009-08-31, 21:29:36
Also ich empfinde >100% mehr RV770XT Leistung als ziemlichen Overkill. Wofür bräuchte man diese brachiale Leistung bei einer Single-GPU-Karte??

ich brauch die leistung,für stalker cs und das neue kommende addon,und wenn man ließt das risen auch nur miserabel läuft und das ohne AA dann auch dafür,eventuell mal wieder cyrsis aus packen und mit viel AA genießen.das reicht mir schon als grund und mehr gründe brauche ich auch nicht.kauf mir doch keine grafikkarte nur weil es dx11 kann,dafür sind die karten eh zu lahm. :O

doppelte leistung ist angebracht,gibt genug spiele die in 20-30fps rumgurken.klar in pokemonauflösungen ist das wurscht aber nicht ab hd.

nagus
2009-08-31, 21:30:57
irgendwie scheinen manche zu vergessen, dass es sich um "best case" angaben handelt. vielleicht ist ja auch das 1.6x blödsinn. stimmt ja wahrscheinlich gar nicht ;). 120% best case und alles ist super :)

dildo4u
2009-08-31, 21:32:03
Wurde hier nicht auch schon belegt das solche Zahlen unmöglich sind weil ATI wieder auf 256Bit setzt.Das heisst man kann gar nicht genug Bandbreite für 160% liefern nicht mal ansatzweise.

Schlammsau
2009-08-31, 21:32:33
Die Karte soll ein 256bit SI haben oder?
Der Speicher soll mit 1200-1300Mhz takten oder?
Was meint ihr, wieviel Leistung da rausspringt?
Da wären 60% ja schon zu viel!

Botcruscher
2009-08-31, 21:38:30
Wurde hier nicht auch schon belegt das solche Zahlen unmöglich sind weil ATI wieder auf 256Bit setzt.Das heisst man kann gar nicht genug Bandbreite für 160% liefern nicht mal ansatzweise.

Hier wurde auch schon belegt das die Karte damit zwischen 4850 und 4870 liegt. Was die Kosten angeht, so ändert sich quasi fast nur der Chip. Und eine 4870 wird für 140€ verscherbelt. Bei angepeilten 300$ ist da viel Platz.

Wenn NV 100% bringt muss Ati nachziehen. Sonst wird die Karte auch beim P/L gepawnt. Also abwarten...

boxleitnerb
2009-08-31, 21:40:12
Sorry, das kann ich mir jetzt nicht verkneifen:
Kaum ist das Gerücht da, dass der RV870 nicht soviel Mehrleistung bringen soll, wirds gleich wieder in Frage gestellt, dass man soviel Leistung überhaupt braucht. Wenn du sie nicht brauchst, kauf dir halt keine, so einfach ist das :)

Wetten, wenn RV870 2.5x so schnell wäre, würdest du was ganz anderes sagen? Das wirst du jetzt sicher gleich abstreiten wie ich dich kenne ;)

MR2
2009-08-31, 21:44:34
Sorry, aber hab ich im Forum hier noch nicht gelesen oder überlesen. Weis nicht ob das war ist oder hier schon steht:

"Here is an actual quote from an AMD employee about the scale of the R700 -> Evergreen transition in terms of underlying architecture:

"There isn't really a good example I can use for the transition from 7xx to Evergreen. It's somewhere in between the r5xx -> r6xx transition (which was big) and the r6xx -> r7xx transition (which was small). We do plan to build Evergreen 3D support on top of the existing 6xx/7xx 3D code, which is why getting that code solid remains a top priority."

"and the idle power consuming the hd 5000 will be much better than the 4870..."
"low means low... yes me to i buy an 4670 only becorse of the good energyefficiency.
an 5870 will have 30-40watt idle and thats the monster car with 1600 shader units. "
Source: bridgman on Phoronix forums, talking about the open-source Linux drivers for Radeon cards. "

Ich geb einen aus wenn das hier schon stand....


http://www.semiaccurate.com/forums/showthread.php?p=3370
Quelle: ergoogelt
MFG MR2

Botcruscher
2009-08-31, 21:46:35
Uff, damit sind wenigstens die 1200 und 1280SP vom Tisch.

Gipsel
2009-08-31, 21:47:15
Wurde hier nicht auch schon belegt das solche Zahlen unmöglich sind weil ATI wieder auf 256Bit setzt.Das heisst man kann gar nicht genug Bandbreite für 160% liefern nicht mal ansatzweise.
Wie schnell ist eine HD4770? Normalerweise wird die so etwa auf HD4850 Niveau eingeordnet. Jetzt laßt uns mal ganz hypothetisch die Bandbreiten vergleichen.
HD4850: 256bit @1000MHz GDDR3 (64GB/s)
HD4770: 128bit @800MHz GDDR5 (51,2GB/s)
HD5850: 256bit @1000MHz GDDR5 (128GB/s)
HD5870: 256bit @1250MHz GDDR5 (160GB/s)

160GB/s sind 250% der Bandbreite einer HD4850 und sogar 312% der Bandbreite einer HD4770. Jetzt kommst Du ;)

Achja, 1600SP einer HD58x0 sind übrigens auch 250% der 640SP einer HD4770.

Gast
2009-08-31, 21:51:20
und R600 zu RV670 war keine neue generation... nicht mal ein refresh. das war nur ein shrink und eigentlich leistungsmäßig sogar teilweise ein kleiner rückschritt auf kosten der "kosten" ;)
RV670 war eine neue Generation. Zumindest seine Produkte.
HD2 zu HD3.

So wie jetzt HD4 zu HD5.

Knuddelbearli
2009-08-31, 21:51:35
Um mal wieder gegen alle zu schwimmen.....aber was habt ihr gegen 60% mehr Leistung?
Ich persönlich hab bei der Single-Core-Variante, mit noch weniger gerechnet! 60% mehr als eine 4870 bedeutet doch ungefähr 4870X2 Niveau oder?
Was will man mehr?

1.) das bestcase also im schnitt wohl 30-40% also auf 1 level mit ner dick oct 4890
2.) steht das in keiner realtion zur diefläche

Schlammsau
2009-08-31, 21:53:07
Wie schnell ist eine HD4770? Normalerweise wird die so etwa auf HD4850 Niveau eingeordnet.

Nö sie wird zwischen 4830 und 4850 eingeordnet.

Gast
2009-08-31, 21:53:38
aber wenn ich mirs recht überleg... der rv770 war relativ stark. trotzdem. 160% best case hören sich realistischer an als +60%. selbst die 2900xt war im durchschnitt +40% (http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_ati_radeon_hd_2900_xt/32/#abschnitt_performancerating_qualitaet) schneller als der hochgezüchtete refresh der vorgängerversion (wenn man das "kaputte" FSAA der 2900xt serie ausklammert)
Dann klammer auch gleich das kaputte AF und die fehlende AAA Wählbarkeit mit aus.

Beides Punkte, die hoffentlich irgendwann wieder verbessert werden. Mal sehen was von dem versprochenen besseren Texturfilter am Ende rauskommt.

Schlammsau
2009-08-31, 21:54:33
Wie schnell ist eine HD4770? Normalerweise wird die so etwa auf HD4850 Niveau eingeordnet.

Nö sie wird zwischen 4830 und 4850 eingeordnet.

Also ich persönlich würde nicht mit mehr % rechnen, es sei denn der RV870 setzt doch noch auf ein 512bit SI! ;)

boxleitnerb
2009-08-31, 21:55:38
Was man auch gerne vergisst: Für viele ist die x2 (ebenso wie die entsprechenden NV-Karten) keine Option da stromhungrig, laut, heiss und mehr oder weniger MR, viel eher noch die Profilproblematik, gerade bei AMD.
Daher ist soviel Leistung wie möglich bei einer Single-GPU nie verkehrt. Wenn man sie dann noch schön in tolle BQ umsetzen könnte, wäre sie auch nicht "verschwendet", wenigstens bei etwas älteren Spielen.

Daredevil
2009-08-31, 21:59:49
60% wären deswegen enttäuschend weil eine 4890@1GHz 33% mehr Takt hat als eine 4870, dementsprechend wäre der Leistungsboost von einer 4890 aus gesehen ..... relativ klein.

Wenn es natürlich OC Versionen des R8xx gibt, sieht das wieder anders aus.

Gipsel
2009-08-31, 22:01:43
Nö sie wird zwischen 4830 und 4850 eingeordnet.
Na Du wirst doch wegen 5 Prozent (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4770/19/#abschnitt_performancerating) nicht kleinlich werden ;)
Sie ist auf jeden Fall deutlich näher an der HD4850 dran als an der HD4830. Außerdem ändert das gar nichts an meiner Argumentation. 250% der Shader-ALUs bei 312% der Speicherbandbreite sieht für mich ausgewogen aus. Auch wenn man die HD4850 als Basis nimmt, ist es dann eben eine Steigerung auf 200% der Shader-ALUs bei 250% so hoher Bandbreite. Kommt natürlich noch auf den Takt an, aber im Prinzip dürfte das schon einigermaßen passen, insbesondere, da es ja wohl auch etwas vergrößerte Caches gibt, die die Bandbreitenanforderungen an den Speicher senken ;)

Schlammsau
2009-08-31, 22:02:18
60% wären deswegen enttäuschend weil eine 4890@1GHz 33% mehr Takt hat als eine 4870, dementsprechend wäre der Leistungsboost von einer 4890 aus gesehen ..... relativ klein.

Wenn es natürlich OC Versionen des R8xx gibt, sieht das wieder anders aus.

Dadurch ist sie nicht gleichzeitig 33% schneller.

derguru
2009-08-31, 22:06:11
Dadurch ist sie nicht gleichzeitig 33% schneller.
natürlich ist sie ca. 30% schneller als eine 4870,du startest doch dauernd cb artikel,dann sollte man sowas wissen.
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/kurztest_sapphire_radeon_hd_4890_atomic/3/#abschnitt_benchmarks
und bei einer höheren auflösungen sollte man die 30% erreichen.

MR2
2009-08-31, 22:06:31
http://www.phoronix.com/forums/showthread.php?t=6585&page=86

http://www.phoronix.com/forums/showpost.php?p=88785&postcount=806

Palpatin
2009-08-31, 22:06:34
Die Karte soll ein 256bit SI haben oder?
Der Speicher soll mit 1200-1300Mhz takten oder?
Was meint ihr, wieviel Leistung da rausspringt?
Da wären 60% ja schon zu viel!
Naja das ist immerhin 3 mal soviel wie die 4770 hat, womit theoretisch 3 fache 4770 Leistung möglich wär, was wiederum 160% 4870 möglich machen würde, wobei mir das auch deutlich zu hochgegriffen erscheint. Mit im Schnitt 80% Schneller als 4870 könnt ich gut Leben wenn AF verbessert wurde, auf die 3 Monis bin ich sowiso Scharf. 60% Best Case wären schon entäuschend da würd ich auf jeden noch auf NV warten.

Schlammsau
2009-08-31, 22:14:13
natürlich ist sie ca. 30% schneller als eine 4870,du startest doch dauernd cb artikel,dann sollte man sowas wissen.

33% zwischen einer 4870/1024MB und 4890/1024? Soll ich zum lachen in den Keller gehen? ;D
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/22/#abschnitt_performancerating_qualitaet

y33H@
2009-08-31, 22:17:20
Rechnerisch geht da nur ~13% schneller. Die 512er ist halt freilich n Speicherkrüppel.

derguru
2009-08-31, 22:19:20
33% zwischen einer 4870/1024MB und 4890/1024? Soll ich zum lachen in den Keller gehen? ;D
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_ati_radeon_hd_4890_nvidia_geforce_gtx_275/22/#abschnitt_performancerating_qualitaet
anscheinend lebst du schon im keller,junge daredevil sprach von einer 4890 1ghz oc karte. :O
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/kurztest_sapphire_radeon_hd_4890_atomic/3/#abschnitt_benchmarks

Triskaine
2009-08-31, 22:26:35
Diese Meldung erinnert mich stark an eine sehr ähnliche Meldung die Fuad vor etwas mehr als einem Jahr kurz vor dem RV770 Launch brachte. In dieser hieß es das die 4870 so schnell wie 9800 GTX sein würde. In Wirklichkeit sah es dann ganz anders aus. Ich denke das diese Meldung bloß eine gezielt von ATi in die Welt gesetzte Falschinformation ist um kurz vor dem Launch noch mal ordentlich Stimmung zu erzeugen.

MR2
2009-08-31, 22:29:44
Vielleicht meint der DX11... Es soll ja vor Allem einen Geschwindigkeitsvorteil gegenüber DX10 bringen. Im gleichen Szenario allein durch DX11 im Bestmöglichsten Fall 60 % kann ich mir vorstellen. Die 60% gegenüber der 4870 sind Blödsinn....Jede Wette!

@triskaine So wird das auch sein. Einfach ne Zahl ins Netz geworfen, und es ist wieder die Hölle los :-) Herrlich! Und jedes Jahr das Gleiche*g*

y33H@
2009-08-31, 22:31:14
In dieser hieß es das die 4870 so schnell wie 9800 GTX sein würde. Erschreckender Weise gibts so ein, zwei krasse Fälle, wo das so ist bzw. war - zB CoD W@W.

Gast
2009-08-31, 22:45:11
Sorry, aber hab ich im Forum hier noch nicht gelesen oder überlesen. Weis nicht ob das war ist oder hier schon steht:

"Here is an actual quote from an AMD employee about the scale of the R700 -> Evergreen transition in terms of underlying architecture:

"There isn't really a good example I can use for the transition from 7xx to Evergreen. It's somewhere in between the r5xx -> r6xx transition (which was big) and the r6xx -> r7xx transition (which was small). We do plan to build Evergreen 3D support on top of the existing 6xx/7xx 3D code, which is why getting that code solid remains a top priority."

"and the idle power consuming the hd 5000 will be much better than the 4870..."
"low means low... yes me to i buy an 4670 only becorse of the good energyefficiency.
an 5870 will have 30-40watt idle and thats the monster car with 1600 shader units. "
Source: bridgman on Phoronix forums, talking about the open-source Linux drivers for Radeon cards. "

Ich geb einen aus wenn das hier schon stand....


http://www.semiaccurate.com/forums/showthread.php?p=3370
Quelle: ergoogelt
MFG MR2

Wenn die 1600 Shader stimmen, passen die +60% in best case wohl nicht. Aber 30-40 Watt in IDLE sind verdammt viel. In der Quelle steht aber auch "Also, itll idle at 30 watts, almost half the 4870 idle draw". Seit wann verbraucht die 4870 60 Watt im IDLE???

Gast
2009-08-31, 22:50:11
30-40is idle watt wären völlig ok für eine schnelle Zockerkarte. 10 Watt wie bei der 4670 wären zwar der Knaller, aber man soll ja nicht gierig sein.

Die 4870 verbraucht schon immer 60 Watt im Idle, wenn man nicht manuell nachhilft.

crux2005
2009-08-31, 22:53:32
Laut AMD verbraucht die HD 4870 1GiB - 90W und HD 4890 - 60W @ IDLE.
EDIT: und die HD 4850 laut AMD: 30W

MR2
2009-08-31, 22:54:48
Jo, die xbitlabs gaben bei der 4850 etwas über 40Watt an, da passt das für die 4870 wohl schon.

Gast
2009-08-31, 22:55:40
Laut AMD verbraucht die HD 4870 1GiB - 90W und HD 4890 - 60W @ IDLE.
Hast du hierzu eine Quelle - ev. auch mit HD4850 und HD4770?

crux2005
2009-08-31, 22:56:35
klar, schau edit...
bei der HD 4770 nennt AMD den IDLE Verbrauch nicht

MR2
2009-08-31, 22:56:51
http://www.3dcenter.org/artikel/die-sache-mit-der-grafikkarten-leistungsaufnahme

Sogar im eigenen Hause:-)

Gast
2009-08-31, 22:57:55
http://www.3dcenter.org/artikel/die-sache-mit-der-grafikkarten-leistungsaufnahme

Sogar im eigenen Hause:-)

Na das ist doch mal eine super Orientierungshilfe. Besten Dank.

MR2
2009-08-31, 22:58:53
So ne Google Toolbar im Firefox ist schon was feines;-)

Schlammsau
2009-09-01, 00:42:24
anscheinend lebst du schon im keller,junge daredevil sprach von einer 4890 1ghz oc karte. :O
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/kurztest_sapphire_radeon_hd_4890_atomic/3/#abschnitt_benchmarks

Irgendwie gefällt mir deine Art nicht!

Eine 4890 ist im Schnitt 12% schneller als eine 4870/1024MB.
Eine 4890 mit 1Ghz ist nochmal rund 12% schneller.
Also 12% + 12% sind also nach Adam Riese im Schnitt 24%, ergo keine 33 auch keine 30%! Also was soll der Mist?

Also nochmal zum mitschreiben, deutlich mehr als 60% mehr, würde ich nicht erwarten. Nicht bei 256bit und 1250Mhz Speichertakt.

Aber natürlich kann ich auch falsch liegen. Sind alles nur Spekulatius......

IVN
2009-09-01, 00:55:57
Irgendwie gefällt mir deine Art nicht!

Eine 4890 ist im Schnitt 12% schneller als eine 4870/1024MB.
Eine 4890 mit 1Ghz ist nochmal rund 12% schneller.
Also 12% + 12% sind also nach Adam Riese im Schnitt 24%, ergo keine 33 auch keine 30%! Also was soll der Mist?

Also nochmal zum mitschreiben, deutlich mehr als 60% mehr, würde ich nicht erwarten. Nicht bei 256bit und 1250Mhz Speichertakt.

Aber natürlich kann ich auch falsch liegen. Sind alles nur Spekulatius......
OMG!

4870-->4890=12%
4890-->4890oc=12%

Das bedeutet 4870-->4890oc = 1,12*1,12 (!!!) = 25,44%

Gast
2009-09-01, 01:35:11
Also 12% + 12% sind also nach Adam Riese im Schnitt 24%, ergo keine 33 auch keine 30%! Also was soll der Mist?

Eine HD 4870 (non OC) taktet mit 750 MHz. Siehe z.B. http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_radeon_hd_4870_cf_geforce_gtx_260_sli/2/#abschnitt_technische_daten

Eine 4890@1GHz taktet - wie unschwer zu erkennen ist - mit 1 GHz.

Wie ich schon in der Grundschule gelernt habe sind 12 Äpfel 20% mehr Äpfel als 10 Äpfel, anders ausgedrückt 12/10 = 1,2.

Damit errechne ich (1000/750 = 1,33...), dass die
4890@1GHz um
33,...% höher getaktet ist als eine 4870@Stock.

Das dieser Taktvorteil sich u.a. aufgrund der Infrastruktur nicht 1:1 auf die Framerate auswirkt, hat niemand bezweifelt.

derguru
2009-09-01, 01:50:55
Irgendwie gefällt mir deine Art nicht!

Eine 4890 ist im Schnitt 12% schneller als eine 4870/1024MB.
Eine 4890 mit 1Ghz ist nochmal rund 12% schneller.
Also 12% + 12% sind also nach Adam Riese im Schnitt 24%, ergo keine 33 auch keine 30%! Also was soll der Mist?

Also nochmal zum mitschreiben, deutlich mehr als 60% mehr, würde ich nicht erwarten. Nicht bei 256bit und 1250Mhz Speichertakt.

Aber natürlich kann ich auch falsch liegen. Sind alles nur Spekulatius......

das war nur auf die schnelle ein beispiel,ich hab auch nur gesagt das ca.30% machtbar sind.siehst du ja auch in far cry2 und paar anderen sind es 28%.
das ist nunmal der punkt,denn so wäre die"5870" nur noch ca. 30% schneller als die jetzige karte und das sogar nur im bestenfall.
eine 285gtx mit oc würde knapp hinter einer 5870 liegen.amd soll sich ja nicht an den jetzigen karten orientieren sondern an den kommenden oder meinst du die zaubern in 2-3 monaten neue grafikkracher.
kann ja gerne um eine sixpack bier wetten das es mehr sind als 60%,wenn nicht kriegst du gerne ein sixpack von mir.:wink:
dr.house wartet :anonym:

Ailuros
2009-09-01, 06:15:26
amd sollte sich aber nicht an einer alten karte orientieren wie dem 295gtx sondern an den kommenden nv karten abgesehen davon wären 30% leistung immer noch sehr viel.
mit der leistung die von fud angegeben wurde würden nicht mal 2 gpus gegen eine einzelne gt300 ankommen.(vom spekulierten ausgegangen)

Ich sag es nochmal dass IHVs typisch als Ziel haben bei jeder neuen Generation bis zu 2x Mal die Leistung ihres Vorgaengers zu erreichen und ich glaube auch nicht dass sie dieses verpasst haben. D12U ist nach wie vor ein Fragezeichen was die Leistung betrifft selbst fuer AMD; noch um einiges mehr als sie Evergreen auf die Kreidetafel kritzelten. Ein gewisses Risiko geht jeder IHV ein was die Leistung der Konkurrenz betrifft.


die leistung spricht dagegen,allein das ganze tamtam mit launch auf flugzeugträger bla,bla paßt einfach nicht für eine mickrigen performanceschub von ca.30% schneller als eine 4890 OC edtion.
oder kommt jetzt das was kommen muß,marketing trägt schon seine ersten früchte.:tongue:

naja werden es ja bald sehen,ich kann mir ehrlich gesagt sogar eher mehr performance vorstellen als das bisher angenommene.(jedenfalls eher als die 60% von fud)

Der ganze Tamtam kommt hauptsaechlich weil man NV erstmal im Bereich "execution" so blau geschlagen hat dass es nicht mehr schoen ist.

Ailuros
2009-09-01, 06:29:48
Wie schnell ist eine HD4770? Normalerweise wird die so etwa auf HD4850 Niveau eingeordnet. Jetzt laßt uns mal ganz hypothetisch die Bandbreiten vergleichen.
HD4850: 256bit @1000MHz GDDR3 (64GB/s)
HD4770: 128bit @800MHz GDDR5 (51,2GB/s)
HD5850: 256bit @1000MHz GDDR5 (128GB/s)
HD5870: 256bit @1250MHz GDDR5 (160GB/s)

160GB/s sind 250% der Bandbreite einer HD4850 und sogar 312% der Bandbreite einer HD4770. Jetzt kommst Du ;)

Achja, 1600SP einer HD58x0 sind übrigens auch 250% der 640SP einer HD4770.

Na wenn Ihr schon so rechnet, dann warum auch nicht gleich so:

http://forum.beyond3d.com/showpost.php?p=1328459&postcount=2153

Nebenbei ist und bleibt kein realer Vergleich zwischen mainstream und performance SKUs einer Generation.

Fudo hat uebrigens die FLOPs einer 5850 mit einer 4870 verglichen. Bon apetit ;)

reunion
2009-09-01, 07:25:08
Fudo hat uebrigens die FLOPs einer 5850 mit einer 4870 verglichen. Bon apetit ;)

Na das ist ja mal eine nette Info. :)

4870 1.2TFLOPs, ergo 5850 +60% = 1.92 TFLOPs.

1600SPs x 2 x 600Mhz = 1.92 TFLOPs.
1280SPs x 2 x 750Mhz = 1.92 TFLOPs.

Da 750Mhz für eine 5850 IMO doch relativ viel wären würde das wieder für 1600SPs sprechen.

Ailuros
2009-09-01, 07:27:11
Sei nicht so geizig und runde es auf.

reunion
2009-09-01, 07:33:16
Okay. Also 5850 2TFLOPs.

1600SPs x 2 x 625Mhz = 2TFLOPs.

Bei 1280 SPs bräuchte man dafür ca. 781Mhz. Damit dürften die 1600SPs wohl bestätigt sein. Denn ich glaube nicht das man die 5850 so "ungerade" und vorallem so hoch taktet.

MR2
2009-09-01, 07:34:26
Wie gesagt:

Für eine HD5850, also den RV870Pro mit 650Mhz könnte das ja hinkommen:

Now reports core lower @ 750mhz (probably 3 different speeds for 3 models 650/750/850)

rv870pro 1G: 249
rv870XT 1G: 299
rv870XT 2G: 399

3dmark vantage performance:
Cypress ~P16xxx - P17xxx - P18xxx


Das kommt schon so hin;-)

Gunslinger
2009-09-01, 08:19:49
Pricing and availability of Radeon HD 5800 and Link
Posted on 09/01/2009 @ 01:21 PM

Pricing of Radeon HD 5800 and availability

We have received some updates on the availiability of the RADeon HD 5800 series of graphics cards. This new series will launch pushed back to November. The pricing would be estimated to be :

Radeon HD5870 ~ USD399
Radenon HD5850 ~ USD299

http://my.ocworkbench.com/

http://forums.ocworkbench.com/showthread.php?p=451386#post451386

reunion
2009-09-01, 09:03:15
Hm, wäre natürlich bitter wenn das stimmt. Aber kann ich mir kaum vorstellen, nur 10 Tage vor dem großen Event auf der USS Hornet. Da müsste man ja alle wieder ausladen, wenn sich das ganze um zwei Monate verschiebt müsste man das schon früher gewusst haben.

nagus
2009-09-01, 09:34:31
http://my.ocworkbench.com/

http://forums.ocworkbench.com/showthread.php?p=451386#post451386

außerdem: da sich die review samples schon seit august bei den testern befinden ist diese meldung 10000%ig BS

X.Perry_Mental
2009-09-01, 09:44:03
Hm, wäre natürlich bitter wenn das stimmt. Aber kann ich mir kaum vorstellen, nur 10 Tage vor dem großen Event auf der USS Hornet. Da müsste man ja alle wieder ausladen, wenn sich das ganze um zwei Monate verschiebt müsste man das schon früher gewusst haben.
Vielleicht hat man auch (zu) hoch gepokert und die Produktion läuft doch nicht so berauschend. Vielleicht doch lieber volle Regale im November als einen Paperlaunch? Die Vorstellung auf der Hornet könnte ja trotzdem stattfinden.

Tarkin
2009-09-01, 09:54:36
http://my.ocworkbench.com/

http://forums.ocworkbench.com/showthread.php?p=451386#post451386

Alleine die Preisgestaltung (falls richtig) deutet darauf hin, dass die 5870 in etwa die Geschwindigkeit einer 295GTX erreicht...

vielleicht sogar schneller (und günstiger... das ist ATis Strategie. Annähernd gleiche Performance zu einem günstigeren Preis)

der 295 GTX Preis liegt glaube ich offiziell immer noch bei 499USD

X.Perry_Mental
2009-09-01, 10:12:54
Alleine die Preisgestaltung (falls richtig) deutet darauf hin, dass die 5870 in etwa die Geschwindigkeit einer 295GTX erreicht...

vielleicht sogar schneller (und günstiger... das ist ATis Strategie. Annähernd gleiche Performance zu einem günstigeren Preis)

der 295 GTX Preis liegt glaube ich offiziell immer noch bei 499USD
Ein offizieller Startpreis von 399$ für die 5870 läge auch deutlich über dem der 4870 beim Marktstart.

S940
2009-09-01, 10:14:39
Ein offizieller Startpreis von 399$ für die 5870 läge auch deutlich über dem der 4870 beim Marktstart.
Damals gabs aber halt schon GT200 Karten...

mboeller
2009-09-01, 10:21:10
http://forum.beyond3d.com/showpost.php?p=1328459&postcount=2153


ziemlich seltsam. IMHO besser:

320 / 137 [mm²] x 826 Mio Transistoren = 1930 Mio Transistoren. Ohne 40/55nm Hin und herrechnen. Basis ist einfach die RV740 GPU.

Pitman
2009-09-01, 11:05:22
....laut Gamestar bzw. Fudzilla soll der RV870 1,6 mal schneller sein als der RV770.

http://www.gamestar.de/hardware/news/grafikkarten/1958489/ati.html

Grüße
Pitman

StefanV
2009-09-01, 11:06:20
Das wissen wir schon.

Wir haben uns sogar drüber gestritten, ob der 1,6 mal so schnell ist oder 1,6 mal schneller.

LovesuckZ
2009-09-01, 11:22:46
/edit: Bitte löschen.

crux2005
2009-09-01, 12:04:00
http://my.ocworkbench.com/

http://forums.ocworkbench.com/showthread.php?p=451386#post451386

ich habe eine indirekte Bestätigung für das Obige :P

Gast
2009-09-01, 12:13:08
ergo launch im November?

MR2
2009-09-01, 12:21:15
Massenverfügbarkeit ja, das glaub ich gern.

Am 22. September soll das NDA auslaufen, dann soll es noch bis November dauern? Das glaub ich nicht Tim!

ShadowXX
2009-09-01, 12:28:04
ich habe eine indirekte Bestätigung für das Obige :P
Wenn Sie jetzt doch erst im November kommen war da einer bei ATI wohl doch zu optimistisch was es die Ausbeute an funktionalen DIEs betrifft.

nV könnte dann wohl tatsächlich mit einem Paperlaunch noch ATI in die Supper spucken (oder haben Sie ATI schon in die Suppe gespuckt mit der Ankündigung den GT300 demnächst vorzuführen und ATI deshalb sagt: na dann ist es auch egal wann wir mit der Karte kommen, im November können wir wenigsten Garantieren das jeder eine bekommt der eine haben möchte).

Massenverfügbarkeit ja, das glaub ich gern.

Am 22. September soll das NDA auslaufen, dann soll es noch bis November dauern? Das glaub ich nicht Tim!
Warum nicht? Früher war das gang und gebe das die Grafikkarten erst ein halbes Jahr nach Vorstellung verfügbar waren....da sind knapp 2 Monate ein Witz gegen.

X.Perry_Mental
2009-09-01, 12:57:03
ich habe eine indirekte Bestätigung für das Obige :P
Also ein Win7-Start ohne DX11-Hardware...
EDIT: oder kommen die Kleineren pünktlich und nur RV870 hat Verspätung?

LovesuckZ
2009-09-01, 12:58:02
Abwarten. "Indirekte Bestätigungen", komische Gerüchte - das ist alles normal vor einem Launch. Am Ende kommt es meisten doch sowieso komplett anders.

crux2005
2009-09-01, 13:31:48
indirekt aus dem Maul des Löwen

Tarkin
2009-09-01, 13:36:26
http://www.digitimes.com/news/a20090901PD204.html

Nvidia and AMD readying for DirectX 11
Monica Chen, Taipei; Joseph Tsai, DIGITIMES [Tuesday 1 September 2009]

Nvidia and AMD are preparing to launch their latest DirectX 11 supporting GPUs in the second half of 2009, according to sources at graphics card makers.

Nvidia is scheduled to complete engineering samples of its DirectX 11-based GT300 GPU at the end of September in order to start shipping in December at the earliest, the sources noted.

Meanwhile, AMD is prepared to launch its DirectX 11-based Radeon HD 5800 series (RV870) in late September and will start mass shipping in October. AMD will launch two models initially, the Radeon HD 5850 and 5870, the sources added.

AMD declined the opportunity to respond to this report saying it cannot comment on unannounced products. Nvidia was also contacted, but did not respond by the time of publication.

S940
2009-09-01, 13:49:04
Abwarten. "Indirekte Bestätigungen", komische Gerüchte - das ist alles normal vor einem Launch. Am Ende kommt es meisten doch sowieso komplett anders.
Jo, lauter eventuelle Wahrheiten ... was wirklich stimmt weiss man erst beim Win7 Start.

derguru
2009-09-01, 13:50:40
Jo, lauter eventuelle Wahrheiten ... was wirklich stimmt weiss man erst beim Win7 Start.
nö,am 10.(22) september.:D

MR2
2009-09-01, 15:52:57
"UPDATE:
Durch einen Übersetzungsfehler wurde zunächst nur von 60 % mehr Leistung geschrieben. Laut Originalquelle soll es aber tatsächlich bis zu 160 % mehr Performance geben."

Na da :-)

http://www.hartware.de/news_47536.html

Gast
2009-09-01, 16:04:24
Also ich glaube an 60% schneller.

Entweder sind Angaben prozentual oder als Faktor ausgedrückt.
Man schreibt also 60% schneller oder 1,6 mal so schnell.

Man schreibt normalerweise nicht x mal schneller.

ShadowXX
2009-09-01, 16:09:20
"UPDATE:
Durch einen Übersetzungsfehler wurde zunächst nur von 60 % mehr Leistung geschrieben. Laut Originalquelle soll es aber tatsächlich bis zu 160 % mehr Performance geben."

Na da :-)

http://www.hartware.de/news_47536.html
Zu 99% hat der Schreiber dieses Artikels in diesem Thread mitgelesen....was FUAD nun wirklich damit meinte weiß damit immer noch keiner.

LovesuckZ
2009-09-01, 16:11:09
Es ist auch genau so - selbst englische sprachige Menschen verwenden das "times faster" für eine Faktorangabe. Anders macht es auch keinen Sinn, da "1 time faster" in keiner Sprache exisitiert. Das es jetzt Verwirrungen gibt, liegt an einigen Usern, die weltweit das Gegenteil behaupten.

/edit: Abgesehen davon impliziert das "faster" eine Leistungssteigerung. Es gibt also garkeinen Faktor 0,x in diesem Sprachgebrauch. Oder wie kann etwas schneller sein, dass den Faktor 0,6 hat?

reunion
2009-09-01, 16:12:32
Der Punkt ist ohnehin das die 60% vermutlich irgend ein BS sind den Fuad irgendwo aufgesaugt hat. Sich darüber ewig lang zu streiten ist vollkommen überflüssig.

ShadowXX
2009-09-01, 16:18:47
Der Punkt ist ohnehin das die 60% vermutlich irgend ein BS sind den Fuad irgendwo aufgesaugt hat. Sich darüber ewig lang zu streiten ist vollkommen überflüssig.
Naja...wenn es wirklich wie AiL gesagt hat der Vergleich von 4870 vs. 5850 ist, kommen die 60% aber ganz gut hin mit den im I-Net herumgeisternden Futuremark-Werten für die 5850.

Aber im Prinzip hast du Recht....momentan können alles noch Nebelbomben sein bzw. Sachen die falsch verstanden wurden oder absichtlich falsch verstanden wurden.

In 9-10 Tagen wissen wir mehr.....ich hoffe mal das die 5870 wirklich ne 4870x2 schlägt und besseres AF hat, ich brauch mal wieder ne neue Karte (süchtel);)

w0mbat
2009-09-01, 16:21:39
Es ist auch genau so - selbst englische sprachige Menschen verwenden das "times faster" für eine Faktorangabe. Anders macht es auch keinen Sinn, da "1 time faster" in keiner Sprache exisitiert. Das es jetzt Verwirrungen gibt, liegt an einigen Usern, die weltweit das Gegenteil behaupten.

/edit: Abgesehen davon impliziert das "faster" eine Leistungssteigerung. Es gibt also garkeinen Faktor 0,x in diesem Sprachgebrauch. Oder wie kann etwas schneller sein, dass den Faktor 0,6 hat?

Im englischen heißt "1.6 times faster" wirklich 160% schneller, nicht alles ist gleich wie in de.

reunion
2009-09-01, 16:24:37
Naja...wenn es wirklich wie AiL gesagt hat der Vergleich von 4870 vs. 5850 ist, kommen die 60% aber ganz gut hin mit den im I-Net herumgeisternden Futuremark-Werten für die 5850.


Wenn, dann ist es nur zufällig ungefähr die Leistungssteigerung zur 5850. Ich denke Ail kann man vertrauen, wenn er sagt die 5850 hat 2TFLOPs dann kann man die 60% gleich mal fallen lassen. Das spricht eindeutig für 1600SPs bei 625Mhz. Und bei den Performance Futuremark-Werten sollte man nicht vergessen das hier die CPU eine sehr großen Einfluss hat. Eine derartige Steigerung im Performance Preset würde auf jeden Fall mindestens für doppelte Leistung sprechen, wenn man nicht gerade eine bis auf die Zähne übertaktete CPU verwendet hat.

LovesuckZ
2009-09-01, 16:25:06
Im englischen heißt "1.6 times faster" wirklich 160% schneller, nicht alles ist gleich wie in de.

Fachlich und umgangsprachlich. Fachlich bedeutet es das, umgangsprachlich wird es aber als einfacher Faktor im englischen aufgenommen. Und niemand außer Gipsel wird bei "1.6 times faster" sofort an 160% denken - sondern nur an 60%. Das liegt daran, dass 1.6 eben für viele ein Faktor darstellt und der Gebrauch von "1.0 time faster" nicht existiert.

Der_Korken
2009-09-01, 16:27:12
Wenn der RV870 in Sonderfällen tatsächlich 160% schneller ist als der RV770 dann muss das erstmal gar nichts heißen. Das ist eben wie beim R520 und R580: In extremen Fällen war letzterer auch locker doppelt so schnell, im Schnitt waren es aber nur noch ~30% (bei der damaligen Spielauswahl). Ich rechne mit einer knappen Verdopplung der Leistung, also etwa 80% mehr Leistung inklusive der besseren BQ.

w0mbat
2009-09-01, 16:31:22
Fachlich und umgangsprachlich. Fachlich bedeutet es das, umgangsprachlich wird es aber als einfacher Faktor im englischen aufgenommen. Und niemand außer Gipsel wird bei "1.6 times faster" sofort an 160% denken - sondern nur an 60%. Das liegt daran, dass 1.6 eben für viele ein Faktor darstellt und der Gebrauch von "1.0 time faster" nicht existiert.

Also ich habe jetzt schon 3 englisch sprachige Personen gefragt und alle bestätigten mir 160% und keiner von denen spricht fachlich.

Eggcake
2009-09-01, 16:41:06
Der lustige ist ja sowieso, dass es überhaupt nichts heisst. Völlig egal wie es nun aufgefasst wird. "In einigen Fällen" 160% sagt mir nichts und 60% ebensowenig. Von daher sollte man imho die Spekulationen über diese Spekulation beiseite schieben ;)

Armaq
2009-09-01, 16:44:34
"x times faster" heißt einfach mal 1.6 = 60 fps x 1.6 = 96.
ten times faster ist 10x schneller.

160% klingen geil, ergeben sich aber nicht aus dem Wortlaut.

derguru
2009-09-01, 16:47:27
Wenn der RV870 in Sonderfällen tatsächlich 160% schneller ist als der RV770 dann muss das erstmal gar nichts heißen. Das ist eben wie beim R520 und R580: In extremen Fällen war letzterer auch locker doppelt so schnell, im Schnitt waren es aber nur noch ~30% (bei der damaligen Spielauswahl). Ich rechne mit einer knappen Verdopplung der Leistung, also etwa 80% mehr Leistung inklusive der besseren BQ.

das stimmt das muß nichts besonderes heißen aber es würde reichen.:D
eine 4870 512mb ist auch bis zu 160% schneller als eine 3870.:tongue:

ShadowXX
2009-09-01, 16:50:58
Also ich habe jetzt schon 3 englisch sprachige Personen gefragt und alle bestätigten mir 160% und keiner von denen spricht fachlich.
Und ich hab unsere beiden US-Mitarbeiter vor Ort gefragt und die haben das was Armaq (x * 1.6 = y) bestätigt.

Und die beiden sprechen sowohl fachlich als auch umgangsprachlich......

Armaq
2009-09-01, 16:53:50
Und ich hab unsere beiden US-Mitarbeiter vor Ort gefragt und die haben das was Armaq (x * 1.6 = y) bestätigt.

Und die beiden sprechen sowohl fachlich als auch umgangsprachlich......
Ich sauge mir das auch nicht aus den Fingern. Ich habe im Studium eine komplette Sprachausbildung Englisch Law/Business belegt (mit 1,7 abgeschlossen) und ein solches Missverständnis darf ebend nicht passieren.

Grestorn
2009-09-01, 16:59:06
Ich sauge mir das auch nicht aus den Fingern. Ich habe im Studium eine komplette Sprachausbildung Englisch Law/Business belegt (mit 1,7 abgeschlossen) und ein solches Missverständnis darf ebend nicht passieren.

"3 times as fast" oder auch "3 times faster" ist absolut eindeutig ("3x so schnell", oder "eben 3x schneller", beides ist Faktor 3). Ich hab keine Ahnung, wie man da überhaupt diskutieren kann.

desert
2009-09-01, 17:01:46
Könnte sie denn überhaupt 160 % schneller sein? Das ist doch die frage.

Wir wissen nicht was dx11 kostet und so sagen uns die ganzen alu zahlen doch eigentlich herzlich wenig, genausowenig die flopzahlen.

Was wir doch einigermassen sicherwissen, ist die aluanzahl das speicherinterface. Und wenn uns doch eines gelehrt hat in der vergangenheit, dann das eine einheitenverdopplung mitnichten in 100 % Mehrleistung umschlägt, siehe sli/cf.

Und 1,6 times faster ist natürlich nur 60 % schneller. Also 10 fps mal 1,6 = 16 fps und nicht 26 fps, denn das wäre 2,6 times faster.

Wer was anderes daraus liest muss schon ein extremer fanboy sein.

Dural
2009-09-01, 17:01:49
Klar wird da 160% gemeint, aber 100% beziehen sich ja sicher auf den RV770! Somit bleiben logischerweise ein plus von 60% für den RV870 :wink:

Wenn man über das doppelte meinen würde, dann sagt man ja sicher zb. 2.6 mal so schnell.

die 1. oder eben 100% sind ja fix und stehen für den RV770.

S940
2009-09-01, 17:05:48
Bin mal gespannt, wann hier die Diskussion über Grammatik und Interpunktion anfängt ...

Armaq
2009-09-01, 17:06:57
Nur um etwas klar zu stellen: Ich bin für 160% mehr Performance! :D

Ich habe nur keine Ahnung, selbst mit der Ultra-BQ, wofür man zZ. 2.6xPerformance eines 4870 braucht. Exklusive PC-Titel sind rar und für SC2 wird wohl die 4870 gerade so ausreichen. ;)

DX11 ist schön, aber nicht implementiert. Battleforge wird es wohl haben, aber BF ist leider eine Todgeburt (mit d oder t?).

derguru
2009-09-01, 17:09:49
Nur um etwas klar zu stellen: Ich bin für 160% mehr Performance! :D

Ich habe nur keine Ahnung, selbst mit der Ultra-BQ, wofür man zZ. 2.6xPerformance eines 4870 braucht. Exklusive PC-Titel sind rar und für SC2 wird wohl die 4870 gerade so ausreichen. ;)

DX11 ist schön, aber nicht implementiert. Battleforge wird es wohl haben, aber BF ist leider eine Todgeburt (mit d oder t?).

och da gibt es soviele spiele abgesehen davon kann man ja noch BQ features inkl. edge+AAA einschalten.
ich könnt dir etliche spiele nennen wo man die performance braucht.:)

hier auf die schnelle mal mit einer 4890 1000/1100,:wink:
hui 8fps;D
http://www.abload.de/thumb/gothiciii-gtterdmmerunsihh.png (http://www.abload.de/image.php?img=gothiciii-gtterdmmerunsihh.png)

Zockerfrettchen
2009-09-01, 17:10:38
http://hartware.de/news_47536.html
Mfg Zockerfrettchen

reunion
2009-09-01, 17:13:36
DX11 ist schön, aber nicht implementiert. Battleforge wird es wohl haben, aber BF ist leider eine Todgeburt (mit d oder t?).

Es wird nicht nur BF geben mit DX11:
http://www.youtube.com/watch?v=zZAwniLT22U

w0mbat
2009-09-01, 17:17:04
Ich sauge mir das auch nicht aus den Fingern. Ich habe im Studium eine komplette Sprachausbildung Englisch Law/Business belegt (mit 1,7 abgeschlossen) und ein solches Missverständnis darf ebend nicht passieren.

"2 times faster" = "3 times as fast"

1,7 ist eben nicht 1,0 ;)

aylano
2009-09-01, 17:40:16
Interessant, wie viele sich 160% Zuwachs in Speziellen Einstellungen nicht vorstellen können.
Bei GT300 ist man ja auch der Meinung (keine Ahnung ob das jetzt noch so ist), dass dieser in speziellen Einstellungen einen 200% Zuwachs (als 3 Mal so schnell wie GT200) erwartet.

Und dabei wird der RV870 im Vergleich zum Vorgänger viel mehr größer als der GT300 zum Vorgänger.

Wenn der RV870 im besten Fall 60% bekommt, dann ist die GPU sowieso völlig uninteressant, weil die Performance & Watt pro mm² sowie Performance pro Watt im Arsch ist. Wahrscheinlich ist es dann sehr vergleichbar mit R600 (vs. G80)

Gast
2009-09-01, 17:43:29
Nur um etwas klar zu stellen: Ich bin für 160% mehr Performance! :D

Ich habe nur keine Ahnung, selbst mit der Ultra-BQ, wofür man zZ. 2.6xPerformance eines 4870 braucht. Exklusive PC-Titel sind rar und für SC2 wird wohl die 4870 gerade so ausreichen. ;)

DX11 ist schön, aber nicht implementiert. Battleforge wird es wohl haben, aber BF ist leider eine Todgeburt (mit d oder t?).

Wir brauchen nicht mehr als 80 MB Festplatten.
Wer braucht schon mehr als 16 MB Ram?
Wieso brauchen wir 64 bit?
...

Mehr Leistung ist immer sinnvoll. Wenn du mit weniger Leistung zufrieden bíst, nimm eine HD5850 oder HD5770.

Ich glaube es macht absolut keinen Sinn über zuviel Performance zu diskutieren.

Grestorn
2009-09-01, 18:01:13
"2 times faster" = "3 times as fast"

Logisch mag das korrekt sein, wird aber nicht so verwendet, auch nicht im Englischen.

Ähnlich wie der "kleinste gemeinsame Nenner" ("lowest common denominator"). Das ist in beiden Sprachen Quatsch (denn es gibt nur den "größten gemeinsamen Nenner" oder auch das "kleinste gemeinsame Vielfache").

Aber so ist die Sprache nunmal. Alles andere als logisch...

Tarkin
2009-09-01, 18:41:37
Der dem ganzen Gezanke bzgl. Grammatik wurde hier ganz übersehen, dass der 10.09. als Launchtermin praktisch bestätigt wurde :)

http://www.rage3d.com/board/showthread.php?p=1335999337#post1335999337

AMD's been cooking up some very cool stuff ... if you were at QuakeCon you might have already seen a sneak peek.

Not sure if this is the best place to post this, but here goes ...

On the evening of September 10th in San Francisco, AMD would like to invite fans to join us for the unveiling of a new visual PC experience. Basically, I can't say exactly what you're going to see there, but I can tell you that we’ll be holding a big party with food, drink and tunes, very cool demos of unreleased games, incredible hardware set-ups you have to see to believe and a lot more.

Interested in joining us?? Send me an e-mail at MonicaAMD@gmail.com with the following details:
Name:
Forum name:
Age:
City:
Blog/website (if you have one):

Eggcake
2009-09-01, 18:42:24
Das ist doch dasselbe wie im deutschen. Wenn ich sage "Die Karte ist 2x schneller" ist auch nich definitiv klar, was gemeint ist - zumindest umgangssprachlich kann da sowohl +200% aber auch *200% gemeint sein...

w0mbat
2009-09-01, 19:00:25
Logisch mag das korrekt sein, wird aber nicht so verwendet, auch nicht im Englischen.

[...]

Aber so ist die Sprache nunmal. Alles andere als logisch...

Es geht mir hier nicht um die Logik, sondern den Sprachgebrauch und da liegst du einfach falsch. Es wird im englischen so verwendet, auch wenn man es umgangssprachlich doppelt interpretieren kann.

Grestorn
2009-09-01, 19:02:59
Es geht mir hier nicht um die Logik, sondern den Sprachgebrauch und da liegst du einfach falsch. Es wird im englischen so verwendet, auch wenn man es umgangssprachlich doppelt interpretieren kann.

Es ist müßig darüber zu spekulieren. Man wird's ja sehen. Ich drück ATI jedenfalls die Daumen, dass sie ein möglichst starkes Produkt auf den Markt bringen werden!

w0mbat
2009-09-01, 19:09:57
Vor allem da wahrscheinlich nicht mal Fudo weiß was er damit gemeint hat :)

reunion
2009-09-01, 19:55:25
Taipei, Taiwan –September 1, 2009– TUL Corporation, a leading manufacturer of AMD graphics cards, announces the “Design and Choose the Best” online contest. Gamers and designers from around the globe can download design elements from the contest website and incorporate them into wallpaper, screensavers and IM chat icons. Artwork can be uploaded via the contest detail page and each category will be voted on by the public. Top vote getters from each category (3) will be some of the first to own a high end DirectX 11 next generation PowerColor graphics card!

Designers won’t be the only ones with a chance to win great prizes. Voters will have a chance to win 1 of 20 Go! Green HD4670’s. Voting will begin Sep. 21st and participates will automatically be entered into a random drawing for the video cards at the conclusion of the contest.

http://www.powercolor.com/Global/NewsInfo.asp?id=701

LovesuckZ
2009-09-01, 19:56:39
Hm, liest sich so als wenn es im September keine D3D11 Karten geben sollte.

AnarchX
2009-09-01, 19:57:53
Die aktuellsten Gerüchte sprechen ja auch von einer Verfügbarkeit erst im Oktober bzw. vielleicht auch erst im November.

reunion
2009-09-01, 20:03:10
Hm, liest sich so als wenn es im September keine D3D11 Karten geben sollte.

Das schließt du woraus? Zu beginn kommen alle Karten ohnehin im Referenzdesign.

Phase 1. Design Submission: Sep. 1 ~ Sep. 20th
Phase 2. Vote: Sep. 21st ~ Sep. 30th
Phase 3. Winners Announced: Oct. 5th
http://www.powercolor.com/event/wallpaper/index.htm

Gewinner sollen am 5. Oktober bekannt gegeben werden.

Gast
2009-09-01, 20:10:10
incredible hardware set-ups you have to see to believe
oh je, das klingt nicht gut, klingt nachwas was ne menge strom frisst und nix bringt außer viel MR. bestimmt irgend nen multi CF dreck :(
ich will keine unglaublich schwachsinnigen hardware setups, ich will unglaubliche hardware. ich krieg langsam das starke gefühl, demnächst wandert wieder nvidia bei mir rein :(
nterested in joining us?? Send me an e-mail at MonicaAMD@gmail.com
und das klingt sogar noch schlechter - kann sich AMD nicht mal mehr eigene E-Mailadressen leisten?!? *staun*

nagus
2009-09-01, 20:33:18
Die aktuellsten Gerüchte sprechen ja auch von einer Verfügbarkeit erst im Oktober bzw. vielleicht auch erst im November.

ich glaub diese gerüchte kann man getrost in die tonne treten

AnarchX
2009-09-01, 20:37:27
ich glaub diese gerüchte kann man getrost in die tonne treten
Digitimes als großes Branchenportal in Asien und OCW mit guten Verbindungen in Asien, sind jedenfalls doch um einiges glaubwürdiger als Fuad oder Charlie.
Nun ist die Frage, welche Quelle hier die aktuelleren Informationen hat.

Gast
2009-09-01, 20:44:19
Es ist ja auch egal, wann die Karten verfügbar sind. Erstmal möchte ich Reviews sehen, damit ich überhaupt weiß, ob sich die Warterei lohnt. Das NDA fällt also auch am 10. Sep.?

mapel110
2009-09-01, 20:50:04
Dafür, dass es wirklich am 10. September so weit ist, weiß man aber sehr wenig. Das war sonst irgendwie anders. Gibts irgendwie härtere Strafen seitens ATI für NDA-Brecher?! Drohen die mit Klagen?

4 Vitamins
2009-09-01, 20:58:48
Dafür, dass es wirklich am 10. September so weit ist, weiß man aber sehr wenig. Das war sonst irgendwie anders. Gibts irgendwie härtere Strafen seitens ATI für NDA-Brecher?! Drohen die mit Klagen?

Naja, wenn AMD paar? Millionen ausgibt um einen Flugzeugträger zu mieten und eine große show ankündigt, dann wäre es doch für den ***** wenn dann so ein Spinner die NDA bricht und denen zuvorkommt.

gruss

horn 12
2009-09-01, 21:07:27
Nun, am 10 ist Launch Event, die Presse sollte da wohl was durchsickern lassen, und am 22 Seo. ist für die breitere Masse der Launch mit ersten kaufbaren Karten, und erst im Oktober, vielleicht gar November breite Verfügbarkeit... Wenn dies nun echt so kommen sollte, dann sehe ich nicht sehr rosig für AMD-ATI, eher düster und schwarz.
Da wird Ihnen NV einen Steich, durch ihre anfangs doch recht pausible Strategie und Rechnung machen... Und die Specs der GTX380 breitreten um von einem Kauf der HD58x0-er abzuhalten..
Wenn aber die ATI Karten gut lieferbar sind und zu einem attraktiven Presi hat AMD - ATI schon gewaltig gewonnen,- denn nicht wenige werden auch als Neugier und Prestige diese Karte IHR Eigen nennen wollen.

Die Karten müssen ab Masse ab dem 22.ten September sofort lieferbar sein, ansonsten schneiden sie sich gewaltig ins eigene Fleisch.


PS:
Ist auch sehr suspekt dass man "bis Heute" immer noch keine Verpackung einer HD5870/50 er gesehen hat, (Asus, Sapphire, Powercolor waren da immer die Vorreiter),- dies war bei der HD4870/50 bei weitem nicht der Fall, der Launch ging daher auch gewaltig daneben, mit guter Verfügbarkleit 10-15 Tage zuvor.

ODER ABER SIE WOLLEN NVIDIA IN SICHERHEIT WIEGEN und die Bombe dann am 22.ten so richtig platzen lassen mit sehr breiter Verfügbarkeit der HD5870/ 5850-er Karte!

y33H@
2009-09-01, 21:12:29
Die müssen schlicht vor dem GT300 da sein - sonst kauf ich nämlich den, da der wohl schneller wird. Und wenn ich die RV870 nur 6 Wochen behalte ;D