PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - R8xx im Q4 2008, Multicore und 45/40 nm


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23

horn 12
2009-01-20, 22:23:21
Hui, Wirrwarr oder setzt das Treiberteam so enorm zu dass der RV790 gecancelt wird.. Nun ich bin echt am staunen was AMD-ATI hier schlussendlich bringen wird,- oder eben nicht mehr und somit wohl voll auf RV870 konzentriert..
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/252-amd-zur-cebit-doch-kein-rv790

w0mbat
2009-01-20, 22:28:59
Es gibt einen RV790 und der läuft schon.

aylano
2009-01-20, 23:28:04
Es steht nur drinnen, dass der RV790 bei der Cebit anscheinend doch nicht vorgestellt wird.

Vielleicht werden wir bzw. paar Auserwählte ein paar Grafikkarten mit RV790-Pickeln in einer Besenkammer sehen.

Außerdem hat es auch Vorteile nicht alle Produkte bei der Cebit zu veröffentlichen, wenn in dieser Phase Unmengen an Neuvorstellungen diverse Produkte untergehen.

Ein RV740 ist IMO eher für OEMs interessant, wo eine Neuvorstellung IMO eher bei Messen sinnvoll wäre, da dort nicht nur fast alle Firmen vertreten sind, sondern auch die Aufmerksamkeit generell von allen Firmen da ist.
Dazu berichten in der Zeit auch Massen-Medien davon, wodurch die konzentrierte Vorstellung von Massen- bzw. Mainstream-Produkten sicher sinnvoller wäre.

Meiner Meinung nach, würde ich den Performance bzw. High-End GPUs nicht bei Messen vorstellen. Da man zu dieser Zeit so viel News hat und dann kaum noch Zeit für Reviews hat, was für viele Gamer IMO nicht unwichtig ist.
Dazu ist die RV790 nicht so ein Massen-Produkt wie RV740.

LovesuckZ
2009-01-20, 23:29:33
Da wird wohl Wombat die "amdnahe Quelle" sein. :ugly:

Sorkalm
2009-01-20, 23:32:07
Es gibt einen RV790 und der läuft schon.

Aber nur Revision A11. Das da Vorstellung zur Cebit ist, kann ich mir nicht unbedingt vorstellen.

deekey777
2009-01-21, 01:13:21
Aber nur Revision A11. Das da Vorstellung zur Cebit ist, kann ich mir nicht unbedingt vorstellen.
Wenn diese gut ist, wird es kein A12 geben, siehe RV670.

Hübie
2009-01-21, 01:33:25
Ja, das ist wie das Supertiling bei ATI. Funktioniert auch praktisch nicht.

Wobei man das mal testen könnte. Es sollten mal Leute mit 4870 X2 Benchmarks mit deaktiviertem A.I. machen, denn dann wird die Karte dazu gezwungen. Die Mikroruckler wären dann naturgemäß auch weg.


Wenn A.I. deaktiviert ist geht Crossfire nicht mehr. Es rechnet nur eine GPU...

bye Hübie

Coda
2009-01-21, 01:46:43
Wenn A.I. deaktiviert ist geht Crossfire nicht mehr. Es rechnet nur eine GPU...
Reunion hat immer stocksteif behauptet, es würde Supertiling sein dann.

Hübie
2009-01-21, 02:22:09
Ich habs gerade getestet. Es arbeitet lediglich die erste GPU.
Reunion soll mir mal sagen womit er das feststellt ;)

Coda
2009-01-21, 02:27:24
Okay danke. Dann wäre das auch geklärt.

reunion
2009-01-21, 07:22:55
Wie jetzt? Du behauptest, dass es Spiele gibt die auf einer 4870X2 - egal wie - einfach nicht laufen?

Oder muss man dann Crossfire jedes Mal vorher deaktivieren?

Ich habe keine 4870 X2. Es ist jedenfalls nichts neues das manche Spiele besser und manche schlechter mit SLi/CF skalieren. Ich denke heutige Spiele werden schon so programmiert, dass AFR zumindest halbwegs funktioniert.

Reunion hat immer stocksteif behauptet, es würde Supertiling sein dann.

So war es auch bis zu irgend einem Treiber welcher dies änderte. Ich habe nicht zum Spaß geschrieben man sollte das vorher mal klären wie es heute ist.

Ich habs gerade getestet. Es arbeitet lediglich die erste GPU.
Reunion soll mir mal sagen womit er das feststellt ;)

Das braucht man nicht feststellen, dazu reicht es schon die Releasing-Notes zu lesen und bei der Vorstellung von CF aufgepasst zu haben. Lange Zeit war Supertiling das Standardprofil, welches verwendet wurde wenn kein Profil vorhanden war. Irgend ein Treiber änderte das mal, seit dem hat man nie wieder etwas über Supertiling gehört. Für mich hörte sich das damals so an als ob alles außer AFR tot sei.

nagus
2009-01-21, 08:02:32
zum thema grafikkartenvorstellungen auf der CeBit: Wann wurde zum letzten mal eine neue Karte auf der Cebit vorgestellt?? Es hieß zwar SEHR oft, dass R600, R520, R400 etc... auf der CeBit vorgestellt werden, aber im Endeffekt war dann immer "Tote Hose". Ich glaube wir werden auf der CeBit sehr viele RV790 sehen, weil sie schon vorher vorgestellt wurde, nämlich im Februar, oder gar keine.

w0mbat
2009-01-21, 12:13:32
Da wird wohl Wombat die "amdnahe Quelle" sein. :ugly:

Nein bin ich in diesem Fall nicht :smile:

KonKorT
2009-01-21, 12:24:49
zum thema grafikkartenvorstellungen auf der CeBit: Wann wurde zum letzten mal eine neue Karte auf der Cebit vorgestellt?? Es hieß zwar SEHR oft, dass R600, R520, R400 etc... auf der CeBit vorgestellt werden, aber im Endeffekt war dann immer "Tote Hose". Ich glaube wir werden auf der CeBit sehr viele RV790 sehen, weil sie schon vorher vorgestellt wurde, nämlich im Februar, oder gar keine.

Wer kommt eigentlich auf die Cebit-Geschichte immer? ATI-Forum hat eine News mit Verweis auf Hardware-Infos geschrieben und dabei einfach nur geschlammt, indem man Cebit in die Überschrift gepackt hat. Hätte man sich den Bericht auf Hardware-Infos, der Quelle, durchgelesen, so hätte man folgendes Zitat gefunden:

"Beide Chips, sowohl RV740 als auch RV790, sind für März angekündigt. Obwohl sich hier ein Launch im Rahmen der CeBIT aufdrängen würde, wollte man uns diesen Termin noch nicht bestätigen."

Hübie
2009-01-21, 20:50:16
Das braucht man nicht feststellen, dazu reicht es schon die Releasing-Notes zu lesen und bei der Vorstellung von CF aufgepasst zu haben. Lange Zeit war Supertiling das Standardprofil, welches verwendet wurde wenn kein Profil vorhanden war. Irgend ein Treiber änderte das mal, seit dem hat man nie wieder etwas über Supertiling gehört. Für mich hörte sich das damals so an als ob alles außer AFR tot sei.

Ich habe erst seit dem R580 Crossfire. Und da war AFR schon Standard. Afaik ging CF damals aber meist noch ohne A.I. Wirklich sicher bin ich mir aber nicht. Das Hirn spielt einem ja gern nen Streich ;)

Es muss doch aber eine Möglichkeit geben herauszufinden, welche Modus gerade benutzt wird.
Ich habe das Gefühl, dass es nur noch AFR gibt und sonst nix...

bye Hübie

horn 12
2009-01-24, 17:41:38
Wann gibt es ENDLICH mal wieder was zu lesen , und diesesmal Bitte mal was Offizielles, oder wurde der RV790 echt gecancelt, da die Treiberentwicklung dies rausreissen kann auf die Neuen NV Karten zu reagieren,-
und der RV870 kommt bereist Ende Q2 daher?

Ailuros
2009-01-24, 17:47:15
Wann gibt es ENDLICH mal wieder was zu lesen , und diesesmal Bitte mal was Offizielles, oder wurde der RV790 echt gecancelt, da die Treiberentwicklung dies rausreissen kann auf die Neuen NV Karten zu reagieren,-
und der RV870 kommt bereist Ende Q2 daher?

Der Threadtitel hatte nur eine Zahl falsch.

KonKorT
2009-01-24, 17:56:31
Zwei. ;)

Aus 2008 sollte auch noch 2009 werden und dass er in 40 Nanometer produziert wird, ist inzwischen auch schon so gut wie sicher?!

Sorkalm
2009-01-24, 18:43:16
Zwei. ;)

Eine weil Q4/2009. ;)

Gast
2009-02-17, 19:31:19
from CJ auf Beyond3d (R8xx-Thread)


Bump. A little birdy told me samples are expected in Q2... not sure if it's RV870 or RV830 (or whatever the other DX11 chips are called)... So it could be out in Q3... But there's also a DX11 chip due for partner validation for Q4. Supposedly all DX11 chips have True HD Audio support. Oh and someone mentioned a codename... Cypress.


also nur noch ~ 6 Monate

Ailuros
2009-03-18, 08:59:47
http://www.xbitlabs.com/news/video/display/20090317153802_ATI_to_Promote_DirectX_11_Usage_at_Game_Developer_Conference.html

reunion
2009-03-18, 09:01:33
Jap, scheint so als ob RV870 sehr gut liegen würde und man erwartet vor nV zu kommen mit D3D11.

Ailuros
2009-03-18, 09:06:55
Jap, scheint so als ob RV870 sehr gut liegen würde und man erwartet vor nV zu kommen mit D3D11.

Es wird wohl nicht nur eine relevante Praesentation bei der GDC geben oder?

reunion
2009-03-18, 09:16:06
Es wird wohl nicht nur eine relevante Praesentation bei der GDC geben oder?

Ailuros, du sprichst in Rätsel.

Ailuros
2009-03-18, 11:04:33
Ailuros, du sprichst in Rätsel.

Bei der GDC2009 wird es D3D11 Praesentationen von allen 3 IHVs geben. Ich dachte es ist ziemlich offensichtlich dass nicht nur AMD darueber plaudern wird.

Hübie
2009-03-18, 11:26:31
Die Frage die ich mir dabei stelle ist: Was wird nVidia machen? Wenn die in ihrem momentanen Chipdesign eine Tesselationunit hätten wären die Dimensionen ja noch immenser als ohnehin schon :eek: Ergo ein völliges redesign wird notwendig sein. Das wiederrum kostet sehr viel...

Was passiert wenn ich später DX11 installiere und mit meiner HD4xxx das nutzen will? Wird das funktionieren? Implementiert ist die Tesselationunit seit dem HD2xxx ja afaik schon, trotzdem sind es "nur" DX10.1-Karten.
Versteht ihr was ich meine? Irgendwie ist mir das nicht schlüssig :rolleyes:

bye Hübie

reunion
2009-03-18, 11:39:08
Bei der GDC2009 wird es D3D11 Praesentationen von allen 3 IHVs geben. Ich dachte es ist ziemlich offensichtlich dass nicht nur AMD darueber plaudern wird.

Xbitlabs schreibt aber etwas anderes:

It is noteworthy that the arch-rival of AMD’s ATI business unit, Nvidia Corp., will not specifically cover DirectX 11 at the Game Developers Conference this year, but will concentrate on some other technologies that are also likely to be points of interest for video game creators.

Aber abwarten.

Ailuros
2009-03-18, 11:54:45
Die Frage die ich mir dabei stelle ist: Was wird nVidia machen? Wenn die in ihrem momentanen Chipdesign eine Tesselationunit hätten wären die Dimensionen ja noch immenser als ohnehin schon :eek: Ergo ein völliges redesign wird notwendig sein. Das wiederrum kostet sehr viel...

Die Tesselation (die uebrigens vor D3D10 nicht so programmierbar war wie heute in D3D11) flog aus D3D10 raus weil die Mehrzahl der IHVs kreischten dass sie soviel nicht in einen Design reinklatschen koennten. Die einzigen IHVs die fuer Tesselation stimmten waren ATI und IMG.

Wieso jetzt ein voelliges re-design fuer eine Tesselations-Einheit notwendig sein sollte ist mir fremd. NV's GT3x0 ist zwar kein quasi evolutionaerer Design im Vergleich zu GT2x0 aber bei weitem nicht wegen jeglicher Tesselation.

Was passiert wenn ich später DX11 installiere und mit meiner HD4xxx das nutzen will? Wird das funktionieren? Implementiert ist die Tesselationunit seit dem HD2xxx ja afaik schon, trotzdem sind es "nur" DX10.1-Karten.
Versteht ihr was ich meine? Irgendwie ist mir das nicht schlüssig :rolleyes:

bye Hübie

Kommt drauf an was fuer Tesselation ein ISV in der Zukunft genau einlegen wird. Werden Hull und domain shader mitbenutzt, klingt es eher als no go fuer jegliches 4xxx und Vorreiter. Bis es soweit kommt will ich sowieso bezweifeln dass Du immer noch eine 4xxx im Rechner hast.

Aber abwarten.

Klingt mir aeusserst merkwuerdig falls es stimmen sollte. Es gab schon genug hints in ihren Praesentation bei der Siggraph 2008 fuer die Zukunft.

Nakai
2009-03-18, 12:51:10
Mhh, was ich mich frage, hat AMD einen kleinen Vorteil bei der Tesselation, weil diese schon Erfahrung mit den alten Designs gesammelt haben? Naja man glaube auch mit dem R600 DX10 in der Tasche zu haben...


mfg Nakai

Coda
2009-03-18, 12:57:19
Xbitlabs schreibt aber etwas anderes:



Aber abwarten.
Es gibt jetzt schon D3D11-Papers von NVIDIA.

Ailuros
2009-03-18, 13:04:38
Mhh, was ich mich frage, hat AMD einen kleinen Vorteil bei der Tesselation, weil diese schon Erfahrung mit den alten Designs gesammelt haben? Naja man glaube auch mit dem R600 DX10 in der Tasche zu haben...
mfg Nakai

Xenos = Pixel shader / Vertex Shader / Tesselation
R600/RV6x0/RV7x0 = Pixel shader / Vertex Shader / Geometry Shader / Tesselation

D3D11 = Pixel shader / Vertex Shader/ Geometry Shader / Hull Shader / Domain Shader / Tesselation

Wie xbit erwaehnt hat sich nur ein ISV fuer Xenos mit Tesselation beschaeftigt.

RLZ
2009-03-19, 12:52:17
Klingt mir aeusserst merkwuerdig falls es stimmen sollte. Es gab schon genug hints in ihren Praesentation bei der Siggraph 2008 fuer die Zukunft.
Ist ja jetzt kein Geheimnis welche Vorträge sie machen.

Der markierte Vertrag bezieht sich sicher auf DX11.
NVIDIA-sponsored sessions

NVIDIA APEX: From Mirror’s Edge to Pervasive Cinematic Destruction
12:00-1:00 pm, Room 3005 (West Hall), Wednesday, Mar 25
Speakers: Anders Caspersson, EA DICE, and Jean Pierre Bordes & Monier Maher, NVIDIA Corporation
In this talk, we discuss the process of integrating physics in Mirror’s Edge, highlight some of the challenges that occur when using traditional physics middleware to create eye-catching content, and introduce a new technology that empowers artists to quickly create pervasive cinematic quality destructible environments. [Official GDC Link]

The In and Out: Making Games Play Right with 3D Stereoscopic Technologies
4:00-5:00 pm, Room 3016 (West Hall), Thursday, Mar 25
Speakers: Samuel Gateau, NVIDIA Corporation
This session will present an overview of Stereoscopic graphic technology, and cover the common pitfalls and solutions a developer needs to be aware of to ensure that their content will create a compelling 3D experience. Topics to be covered include: achieving out of screen effects, displaying 3D video content, and how to design a 3D friendly user interface. With live demonstrations!! [Official GDC Link]

CUDA and Multi-Core Gaming: Lessons from the Trenches
4:00-5:00 pm, Room 3016 (West Hall), Thursday, Mar 26
Speakers: Dan Amerson (Emergent Game Technologies), Dermot Gallacher (Instinct Technology), and Avi Bleiweiss (NVIDIA Corporation),
This session will present real-world case studies of using GPU Computing to accelerate general game algorithms. Highlights will include prototyping a general computing system that leverages the GPU in Emergent’s Gamebryo engine, and leveraging GPU Computing to turbocharge AI algorithms.[Official GDC Link]

NVIDIA APEX: High-Definition Physics with Clothing and Vegetation
9:00-10:00 am, Room 2011 (West Hall), Friday, Mar 27
Speakers: Jean Pierre Bordes & Monier Maher, NVIDIA Corporation
In this talk, we introduce a new technology that empowers artists to quickly create fully interactive in-game clothing and vegetation. We show how you can dress your game characters with high-definition interactive simulated clothing using APEX tools, and provide a real world example in an MMOG engine. Next we show how you can breathe life into your SpeedTree's by creating physically interactive leaves, branches, trees, and forests using APEX [Official GDC Link]

Platform-independent Shader Development with mental mill: The Making of Dead Rising 2
12:00-1:00 pm, Room 2011 (West Hall), Friday, Mar 27
Speakers: Izmeth Siddeek, Blue Castle Games and Laura Scholl
Up until now shaders that describe complex and life-like looks have been left to those with computer science degrees and extensive programming experience. mental mill®, puts the artist in the driver’s seat. The artist has complete creative control to write and debug MetaSL™ shaders, build shader graphs and Phenomena™, preview render in mental ray® and export to 3D DCC applications and GPU shading languages. In this session we will demonstrate mental mill and discuss how it revolutionized the look development pipeline for the making of the game, Dead Rising 2.[Official GDC Link]

Other Sessions Featuring NVIDIAMath/Physics for Programmers
Monday (March 23) 10:00am - 6:00pm and Tuesday (March 24) 10:00am - 6:00pm, Room 3020, West Hall
NVIDIA Speaker: Jim Van Verth

As co-author of the book "Essential Mathematics for Games and Interactive Applications", Jim will present a portion of this two-day event focused on teaching students the fundamentals of math and physics for game development. Please see the following link for more details. [Official GDC Link]

Advanced Visual Effects with Direct3D for PC
Monday (March 23, 2009) 10:00am - 6:00pm, Room 3006, West Hall
NVIDIA Speakers: Cem Cebenoyan, Sarah Tariq, and Simon Green
This full-day session will highlight techniques for using the latest version of DirectX to create cutting-edge visuals for games. New features of the API, algorithms for lighting and shadowing, and performance optimization will be covered.[Official GDC Link]

Khronos Developer University
Tuesday (March 24, 2009) 10:00am - 7:00pm, Room 3002, West Hall
NVIDIA Speakers: Neil Trevett, Barthold Lichtenbelt
This full-day tutorial will focus on Khronos open standards for media and compute acceleration, including OpenGL, OpenCL, OpenGL ES and OpenKODE. [Official GDC Link][Official Khronos Link]

Morpheme & PhysX: A New Approach to Combining Character Animation and Simulation
4:00-5:00 pm, Room 3016 (West Hall), Thursday, Mar 26
NVIDIA Speaker To Be Announced
During the course of this session, an NVIDIA speaker will discuss how PhysX was used to enhance the character animation features found in NaturalMotion's morpheme 2.0.[Official GDC Link]

V2.0
2009-03-19, 13:23:14
NV konzentriert sich nicht aud D3D11, weil es keine Alleinstellungsmerkmal ist. Stereoscopic Gaming, Physix, CUDA ist mehr ihr Thema, denn da braucht man die Developer und kann ihn etwas "Besonders" bieten.

w0mbat
2009-03-19, 13:33:45
DX11 wird doch mit OpenCL CUDA ersetzen und PhysiX ist schon lange tot (mMn).

Ailuros
2009-03-19, 14:13:17
DX11 wird doch mit OpenCL CUDA ersetzen und PhysiX ist schon lange tot (mMn).

Wieso waere Microsoft so bloed und wuerde entweder OpenCL oder eventuell CUDA in irgend einer Art ersetzen?

Direct3D wird u.a. auch GPGPU ansprechen und somit will M$ eigentlich von etwas open source wie OpenCL erstmal nichts hoeren.

Was jetzt CUDA betrifft: NV wird wohl CUDA3.0 mit GT3x0 vorstellen. Das haelt sie keineswegs auf sowohl fuer D3D als auch fuer OpenCL zu optimieren.

IMHLO ist CUDA fuer NV lediglich das Fahrzeug so viel wie moeglich Durchbruch im GPGPU Markt zu gewinnen, bevor Intel bis 2010 etwas anderes als huebsche Papierfetzen ueber Larabee hat.

Als tot kann man vieles erklaeren wenn AMD ihren Hintern in dem Bereich ueberhaupt nicht bewegt. Und dann meckert man mal wieder in der Zukunft dass NV ihren Mist besser vermarktet ja?
---------------------------------------------------

Ich frage mich momentan was genau wir von D3D11 GPUs eigentlich erwarten sollten. Eine Idee waere die insgesamte Effizienz eines jeglichen chips pro FLOP zu verdoppeln und das kann von einfacheren Sachen wie z.B. triangle throughput anfangen.

Coda
2009-03-19, 14:22:21
DX11 wird doch mit OpenCL CUDA ersetzen und PhysiX ist schon lange tot (mMn).
Der Satz ergibt rein gar keinen Sinn. In keiner Hinsicht.

DirectX hat überhaupt nichts mit OpenCL zu tun, und mit PhysX auch nur indirekt.

Gast
2009-03-19, 15:01:24
PhysiX ist schon lange tot (mMn).

Ja klar deswegen hat Sony gerade PhysX lizensieren lassen, ist jetzt für alle PS3 Entwickler frei verfügbar...

Es ist ja jetzt schon die meist verwendete Engine, PhysX hat sich schon lange durchgesetz, aber einige werden das wohl nie erkennen...

Aquaschaf
2009-03-19, 15:04:22
PhysiX ist schon lange tot (mMn).

PhysX ist erstmal unabhängig von durch GPU beschleunigte Effektphysik eine extrem gute Physikengine. Tot ist daran überhaupt nichts.

deekey777
2009-03-19, 15:19:02
DX11 wird doch mit OpenCL CUDA ersetzen und PhysiX ist schon lange tot (mMn).
http://www.computerbase.de/news/hardware/grafikkarten/2009/februar/was_physx_dx11_opencl/

Auch wird CUDA weder durch DX11 CS noch durch OpenCL sterben, sondern einzig und allein durch eine Entscheidung von Nvidia.

Tzunamik
2009-03-19, 15:34:00
@ deekey

ich würde mir aber wünschen das Cuda durch nVidia verabschiedet wird und AMDs HD Reihen auch endlich was davon haben.
Weil ich denke, wenn Physx und Cuda und so späße auch auf den AMd Karten laufen würden, hätte AMD nen kleinen Vorteil durch die spürbar höhere FLOPS Leistung.
Bin echt gespannt auf das kleine rennen...

Aber nochmal ums zu verstehen...
Die Tesselation von AMD sollte ja DX11 tauglich sein, oder woran hängt das genau?
Kann mir das nochmal einer kurz erklären?

AnarchX
2009-03-19, 15:38:21
Aber nochmal ums zu verstehen...
Die Tesselation von AMD sollte ja DX11 tauglich sein, oder woran hängt das genau?
Kann mir das nochmal einer kurz erklären?
Was heißt DX11-tauglich. Die Tesselation die es seit Xenos gibt und auch in den HD-Karten verbaut wurde ist laut MS nur ein Subset (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6711583&postcount=170) der Tesselation in D3D11, denn es ist nur eine Stufe, Hull und Domain Shader fehlen:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=418276&highlight=DX11&page=4

Tzunamik
2009-03-19, 16:00:55
Ahh okay...

Das ist dann mehr oder weniger eine nicht ganz aktive Tesselation wie es bei D3D11 verlangt wird.

Also die "Mindestanforderungen" sind nicht erfüllt mit den "alten" Tesselations Einheiten...
Die Frage ist dann, warum wurden die je verbaut? Wenn es nicht Sinnvoll war/ist.

Hab ich das jetzt richtig verstanden?

AnarchX
2009-03-19, 16:03:02
Die Frage ist dann, warum wurden die je verbaut? Wenn es nicht Sinnvoll war/ist.

Weil ATi wohl zu denen gehörte, die Tesselation schon in D3D10 sehen wollten, wozu es aber nicht kam und entfernen konnte man diese wohl aus dem Design auch nicht mehr.

reunion
2009-03-19, 16:48:02
Der Tesslator wurde mit der HD4xxx allerdings nochmal aufgebohrt.

Gast
2009-03-19, 16:56:30
macht nicht wirklich viel Sinn die Tesslator Einheit in einem DX10 Chip zu überarbeiten wenn man doch weis das die gar nie gebraucht wird...

nur so schnell meine gedanken...

Nakai
2009-03-19, 17:43:50
Ja klar deswegen hat Sony gerade PhysX lizensieren lassen, ist jetzt für alle PS3 Entwickler frei verfügbar...

Es ist ja jetzt schon die meist verwendete Engine, PhysX hat sich schon lange durchgesetz, aber einige werden das wohl nie erkennen...

Es ist kein offener Standart. Ob es sich wirklich durchsetzen wird, wird sich erst mit DX11 zeigen. Mal schaun wie sich Compute-Shading für Physik und andere spielinterne Berechnungen benutzen lässt.

NV konzentriert sich nicht aud D3D11, weil es keine Alleinstellungsmerkmal ist. Stereoscopic Gaming, Physix, CUDA ist mehr ihr Thema, denn da braucht man die Developer und kann ihn etwas "Besonders" bieten.

Stereo-3D wird sich nie durchsetzen, zu teure Hardware und es verschlingt viel Rechenleistung. Was NV derzeit mit ihrem Stereo3D-Treiber für stereoskopische Methoden bereitstellt ist einfach nur schwach. Frühers wurden alle Facetten unterstützt, heutzutage gibts nur noch Anaglyph und die ganzen (teuren) Stereodisplays. DX11 bietet vieles Neues. Mal schaun was passieren wird.


mfg Nakai

Tzunamik
2009-03-19, 18:02:52
Es ist kein offener Standard.


Und ich bin echt gespannt auf die nächsten sagen wir 9 Monate wie lange nicht mehr bei Grafikkarten... das letzte mal mit dem G80....

LovesuckZ
2009-03-19, 18:22:46
Es ist kein offener Standart. Ob es sich wirklich durchsetzen wird, wird sich erst mit DX11 zeigen.

Welche Physik-Middleware ist denn bitte offen? :rolleyes:

Coda
2009-03-19, 19:13:50
Es ist kein offener Standard.
Middleware muss auch kein offener Standard sein.

Ich habe das Gefühl, dass viele hier noch im "DirectPhysics"-Denken sind, das so eh nie realistisch war. Physik ist nicht nur ein kleiner Layer über der Hardware wie DirectX.

Nakai
2009-03-19, 19:44:36
Welche Physik-Middleware ist denn bitte offen? :rolleyes:

Wer PhysX haben will der muss eine NV-Karte kaufen. Und komm bitte nicht damit, dass NV AMD PhysX bereitstellt. Deswegen lieber auf DX11 warten und schauen wie die Entwickler dieses Problem lösen. Evtl. wird PhysX mit DX11 deutlich freizügiger vermarktet, denn schlecht isses nicht.


mfg Nakai

Coda
2009-03-19, 20:10:09
Wer PhysX haben will der muss eine NV-Karte kaufen.
Wer Hardware-beschleunigtes PhysX haben will. Und das muss nicht so bleiben.

Ailuros
2009-03-20, 08:00:39
Ich lass mich gerne korrigieren, aber so wie ich es heute sehe haette programmierbare Tesselation nicht besonders viel genutzt auf heutigen GPUs selbst wenn es Pflicht in D3D10 gewesen waere und von allen IHVs adoptiert. Fuer mich braeuchte man um einiges hoehere Geometrie-Raten damit das Ganze erstmal Sinn macht.

IMG's SGX obwohl ein IP core fuer small form factor Geraete (und ergo ein ganz anderes Tier) ist der einzige existierende Design der heute naeher als alles andere an einem D3D11 Design liegen koennte. Ohne in langweilige Details zu gehen ist auf dem Ding die Effizienz pro FLOP und die Polygonraten pro mm2 oder auch pro FLOP (je nach Perspektive) um einiges hoeher als bei heutigen high end GPUs (und ja dieses hat nicht das geringste damit zu tun dass es sich um einen TBDR handelt).

Wenn man links und rechts Meinungen durchliest, koennte jemand denken dass arithmetische Leistung dass Alpha und Omega von allem zukuenftigen sein wird und dass alle andere Aspekte einfach nur nebenwichtig geworden sind und wir brauchen keine besondere Effizienz-Steigerungen was einfacheres Zeug wie tri-setup, Fuellraten, Bandbreite etc. betrifft. Ja natuerlich wird Arithmetik als auskepsalter Wert aggressiver steigen als alles andere aber es heisst bei weitem auch nicht dass der Rest keine radikalen Effizienz-Steigerungen brauchen wuerde.

Dieser ewig wiedergekaute Kaugummi dass RV7x0 ein sehr guter Design ist und RV870 sich auf der gleichen Schiene bewegen kann, klingt mir von Grund auf idiotisch. RV7x0 ist im Grund "R600 done right" oder anders ein sehr guter D3D10.1 Design und dabei ist die .1 gegenueber D3D11 vollkommen egal.

Fuer mich gibt es noch einige Stellen wo alle IHVs die Effizienz fuer zukuenftige GPUs steigern koennen, wenn sie ueberhaupt mit RV8x0 als Beispiel zumindest 2x Mal die Leistung eines RV7x0 erreichen wollen.

Wenn ich jetzt alle Maerkte von einer globaleren Perspektive betrachte hat zwar AMD den Vorteil dass sie problemlos low end GPUs in CPU-SoCs in der Zukunft integrieren koennen (ein Nachteil fuer NVIDIA der nicht so leicht klingt zu bewaeltigen), aber auch den Nachteil dass es nicht danach aussieht dass sie die Resourcen auflegen werden wie Intel und NVIDIA sowohl in Profi-Maerkten als auch fuer DevRel. Wenn Ihr so naiv sein wollt und denkt dass Inivitiaven wie GPU Ventures fuer kleine startup Firmen fuer GPGPU/CUDA die von NV finanziert werden, nur ein harmloser Furz ist und Intel nicht langfristig versuchen wird darauf zu reagieren, dann von mir aus.

OpenCL ist uebrigens eine Apple Initiative und obwohl sie es anfangs nur fuer sich selber patentieren wollten, wurde es als open source API freigegeben. Und hier hat Apple mehr Interesse das Zeug in small form factor Maerkten in Gang zu bringen als im high end GPU Markt von dem sie sowieso nicht viel zu gewinnen haben.

Ailuros
2009-03-20, 12:57:37
http://www.fudzilla.com/index.php?option=com_content&task=view&id=12729&Itemid=1

Coda
2009-03-20, 15:33:01
Alles okay, bis auf den Punkt, dass sie schon wieder Win 7 und D3D11 zwangsverbinden. Das wird auch auf Vista laufen.

AffenJack
2009-03-20, 15:41:42
Sie sagen nur, dass dx11 mit win 7 kommt und das man hofft das win7 die verkäufe ankurbelt. Die zwangsverbindung interpretierst du selber da rein. Dx11 wird denke ich nicht vor win7 gelauncht werden, daher denke ich habense mit der aussage recht. Q4 für beide dx11 parts entspricht auch den erwartungen, frage wird sein obse den termin halten können, oder ob noch was dazwischen kommt und die sich vll doch noch nach 2010 verschieben.

Ailuros
2009-03-20, 18:30:59
Q4 für beide dx11 parts entspricht auch den erwartungen, frage wird sein obse den termin halten können, oder ob noch was dazwischen kommt und die sich vll doch noch nach 2010 verschieben.

Solches Pech wuerde ich momentan AMD eher nicht zuschreiben.

Gast
2009-03-20, 20:44:34
Der Tesslator wurde mit der HD4xxx allerdings nochmal aufgebohrt.


wohl kaum, eher umgekehrt, aus RV7xx wurde so ziemlich alle "unnötigen" dinge entfernt um auf 800SPs bei der kleinen DIE-größe zu kommen, da hat man sicher nicht eine eh schon redundante einheit aufgebohrt.

dargo
2009-03-20, 21:15:44
Sie sagen nur, dass dx11 mit win 7 kommt und das man hofft das win7 die verkäufe ankurbelt. Die zwangsverbindung interpretierst du selber da rein. Dx11 wird denke ich nicht vor win7 gelauncht werden, daher denke ich habense mit der aussage recht.
DX11 gibts schon seit dem es die Beta von Win7 gibt. :)

AnarchX
2009-03-21, 10:05:00
RV870 schon im August? (http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/349-neue-informationen-zum-rv870)

Wobei die Erklärung sich etwas fragwürdig anhört:
Dies hängt davon ob sich die neuen GPU (RV740 in 40nm und RV790 in 55nm) bis dahin gut verkaufen

Eher werden hier Faktoren wie funktionierende GPUs und lauffähige Treiber für die veränderte Architektur wichtiger sein.

GeneralHanno
2009-03-21, 12:44:47
naja, vll tape out und erste samples an partner im august und hardlaunch in Q4 ;)

LovesuckZ
2009-03-21, 12:47:44
Sie sprechen von "AMD nahe stehenden Quellen" - also die selben Quellen, die auch Hardware-Infos hatten und deren Wahrheit sind in 11 von 10 Fällen nicht bewahrheitet.

AnarchX
2009-03-21, 12:57:06
naja, vll tape out und erste samples an partner im august und hardlaunch in Q4 ;)

Laut CJ soll es Samples schon im Q2 geben, was dann einen Launch etwas im Q4 nach sich ziehen sollte.

Gast
2009-03-21, 13:28:34
wohl kaum, eher umgekehrt, aus RV7xx wurde so ziemlich alle "unnötigen" dinge entfernt um auf 800SPs bei der kleinen DIE-größe zu kommen, da hat man sicher nicht eine eh schon redundante einheit aufgebohrt.

Was heißt hier wohl kaum, das ist keine Spekulation sondern offiziell.

Gast
2009-03-21, 13:37:11
Tessellation Unit Evolved:
http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_8.html

reunion
2009-03-22, 14:37:08
Bump. A little birdy told me samples are expected in Q2... not sure if it's RV870 or RV830 (or whatever the other DX11 chips are called)... So it could be out in Q3... But there's also a DX11 chip due for partner validation for Q4. Supposedly all DX11 chips have True HD Audio support. Oh and someone mentioned a codename... Cypress.

http://forum.beyond3d.com/showpost.php?p=1268379&postcount=309

Gast
2009-03-22, 18:24:05
Ist ja jetzt kein Geheimnis welche Vorträge sie machen.

Der markierte Vertrag bezieht sich sicher auf DX11.


Die APEX startet meines Wissens erst am Dienstag, 31.03. Bring ich hier was durcheinander?

Ailuros
2009-03-23, 10:29:39
Tessellation Unit Evolved:
http://www.xbitlabs.com/articles/video/display/ati-radeon-hd4850_8.html

Ja und? Wir reden hier von D3D11 GPUs.

Tarkin
2009-04-14, 17:37:11
http://www.xbitlabs.com/news/other/display/20090413224831_Globalfoundries_Set_to_Start_Making_Graphics_Processors_Using_32n m_28nm_Processes.html

"We intend on competing for AMD’s graphics business in the 32nm/28nm technology node,” said Tom Sonderman, vice president of manufacturing systems and technology at Globalfoundries, in an interview with X-bit labs"

interessant...

Ailuros
2009-04-15, 08:00:19
http://www.xbitlabs.com/news/other/display/20090413224831_Globalfoundries_Set_to_Start_Making_Graphics_Processors_Using_32n m_28nm_Processes.html

"We intend on competing for AMD’s graphics business in the 32nm/28nm technology node,” said Tom Sonderman, vice president of manufacturing systems and technology at Globalfoundries, in an interview with X-bit labs"

interessant...

Being a contract maker of chips, Globalfoundries will naturally be able to make products for many companies, including Microsoft, Nvidia and Qualcomm, just to name a few (Globalfoundries would not disclose names of customers) and the first clients may turn to the new company already this year.

*hust*

BlackBirdSR
2009-04-15, 09:02:21
Posten wir jetzt nur noch Zitate und darunter einzelne WÖrter?

Ganz ehrlich: Ich sehe darin weder etwas interessantes, noch verwunderliches oder überraschendes. Mag das mal jemand ausführen, was hier so "interesasnt, und hust" ist?

Tarkin
2009-04-15, 09:14:50
naja ... Ich finde den ganzen Artikel allgemein erwähnenswert. Allein der Umstand dass 32nm offenbar schon Anfang 2010 zur Verfügung steht und wohl die nächsten ATi Chips definitiv aus ex AMD-Fabriken kommen werden ist eine "interessante" Entwicklung.

Fertigungstechnisch scheinen die "Global Foundries" aufs Tempo zu drücken.

was "hust" sein soll verstehe ich jetzt auch nicht ;-)

Henroldus
2009-04-15, 10:24:01
interessant weil nur für AMD grafikkarten und "hust" weil es natürlich auch für die Konkurrenz zur Verfügung steht, sprich Nvidia denk ich verstanden zu haben.
Es lebe der Kaffeesatz

Gast
2009-04-15, 11:41:44
Das ist doch eh nur Marketinggeblubber. Was man will und was man kann sind immer noch zwei Paar Schuhe.

Ailuros
2009-04-16, 07:21:30
Erstens ist 32nm nicht frueher verfuegbar als bei anderen foundries und zweitens erhofft sich Global foundries Kunden wie NVIDIA u.a. schnappen zu koennen, was insgesamt keinen besonderen Vorteil fuer AMD und kleinere Herstellungsprozesse bedeutet.

Besser jetzt?

_DrillSarge]I[
2009-04-16, 07:58:02
doof nur, dass amd 50% der stimmrechte im aufsichtsrat besitzt ;)

Ailuros
2009-04-16, 09:07:13
I[;7238568']doof nur, dass amd 50% der stimmrechte im aufsichtsrat besitzt ;)

Welches was genau bedeuten soll?

reunion
2009-04-16, 09:19:31
Welches was genau bedeuten soll?

Das ich dort als nvidia nicht fertigen würde wenn mein Konkurrent das sagen hat.

BlackBirdSR
2009-04-16, 09:22:05
Erstens ist 32nm nicht frueher verfuegbar als bei anderen foundries und zweitens erhofft sich Global foundries Kunden wie NVIDIA u.a. schnappen zu koennen, was insgesamt keinen besonderen Vorteil fuer AMD und kleinere Herstellungsprozesse bedeutet.

Besser jetzt?

Ich bin sehr gespannt, wie gut GF den Umstieg verkraftet. Bisher hatte man immer nur 2-3 Prozesstechnologien zu betreuen, plötzlich werden es weitaus mehr sein. Ich würde als Neukunde ersteinmal langsam und kritisch an die Neue Firma rangehen. Zwar ist mir als potentieller Kunde bekannt, dass in diesen FABs Prozesse unter den Top3 der Industrie gefertigt wurden, aber gerade mit Hinsicht auf Verlässlichkeit, Kunden-Verhalten und Hilfestellung, ist das ein fast unbeschriebenes Blatt.

Gast
2009-04-16, 10:30:49
Das ich dort als nvidia nicht fertigen würde wenn mein Konkurrent das sagen hat.

Er hat aber nicht das Sagen, denn Global Foundries ist eine eigenständige Firma.

reunion
2009-04-16, 10:37:05
Er hat aber nicht das Sagen, denn Global Foundries ist eine eigenständige Firma.

AMD hält >1/3 der Firma und sitzt zu 50% im Aufsichtsrat. Unabhängigkeit sieht anders aus.

aylano
2009-04-16, 15:14:42
Das ich dort als nvidia nicht fertigen würde wenn mein Konkurrent das sagen hat.
Globalfoundries will ein Globaler großer AuftragsChipHersteller werden.

Ich denke, es könnte für diese Firme recht schädigen bzw. in der Expansion beschränken, wenn Nvdia bei Globalfoundries wegen AMD-Einfluss Probleme bekommen könnte.
Denn wenn diese Firma an Glaubwürdigkeit & Seriösität verliert, was gerade am Anfang bei so einer Firma sicher wichtig ist, dann könnten vielleicht auch viele andere Firmen abspringen und lieber bei etablierten Firmen wie TSMC weiterproduzieren lassen.

Deshalb halte ich es auch für möglich, dass Globalfoundris neutral zu allen Firmen (somit auch zu Nvidia) sein wird.

Denn die anderen 50% des Aufsichtsrat wollen sicher so schnell wie möglcih expandieren & Wachsen.

Dass AMD Ende 2009 schon erste Chips in 32nm fertigen könnte,müsste ja nichts neues. Die Entwicklung der 32nm-Fertigung sollte laut Analysten Day in Nov 2008 Anfang 4Q 2009 abgeschlossen werden.
Aber immerhin dürfte der Zeitplan noch nach Plan laufen.

Ich denke, die ersten (kleinen) 32nm-GPUs werden (frühestens) Ende 1Q 2010 kommen.
(3 Monate für Samples und 3 Monate für die Fertigung)

Gast
2009-04-16, 15:53:47
AMD hält >1/3 der Firma und sitzt zu 50% im Aufsichtsrat. Unabhängigkeit sieht anders aus.

Na und? Die Araber haben knapp 2/3 der Firma, denkst du die würden zu irgendetwas zustimmen, was der Firma schadet? GF muss versuchen soviele Neukunden wie möglich zu gewinnen, sonst sind die schneller pleite als ihre Gründung gedauert hat.

Tarkin
2009-04-17, 17:16:00
RV870 bereits im Juli/ August?

http://www.heise.de/newsticker/Grafik-Geruechte-DirectX-11-Chips-von-AMD-bereits-Ende-Juli--/meldung/136350

_flx
2009-04-17, 17:27:26
Hm ich fänds ja schon klasse.. Aber dran glauben tu ich ja irgendwie nicht.

Wobei, wenn man sich überlegt, dass seit Sommer '08 quasi nichts passiert ist, (ich kann mir nicht vorstellen das A/A viel Resourcen in den RV790 gesteckt hat) wäre es doch gut möglich dass das "Ding" früher kommt?

reunion
2009-04-17, 17:34:38
RV870 bereits im Juli/ August?

http://www.heise.de/newsticker/Grafik-Geruechte-DirectX-11-Chips-von-AMD-bereits-Ende-Juli--/meldung/136350

Ja, AMD scheint mit RV870 sehr früh dran zu sein wie schon mehrfach gehört. Mal sehen ob alles nach Plan läuft und der Termin hält.

Auch neu an dem Link ist übrigens der 28. April für die 4770. Bisher ging man immer von Mai aus.

Tarkin
2009-04-17, 17:36:18
Geplant war das Ding sowieso für Ende Q2, Anfang Q3 ... zumindest wurde dieser Zeitraum immer kolportiert.

Anscheinend liegt man bei ATi (nach diesen aktuellen Infos) noch voll im Plan. Und da es nur noch 3 bis 4 Monate sind.... vermute ich mal, dass der Chip schon "rund" läuft ;)

AnarchX
2009-04-17, 17:52:37
Da die Samples ab diesem Quartal an die Hersteller gehen, tauchen vielleicht bald auch wieder ein paar Bilder auf bzw. Einschätzungen wie nah der Release ist.

Ein größeres Problem könnte wohl noch der 40nm Prozess sein, wenn man auf diesen eine Leistungsverdopplung gegenüber RV770/790XT anzielt.

Der Release im Juli/August wäre eine interessante Sache, wenn auch sich AMD diesmal die Leistung wohl entsprechend bezahlen lassen würde.

mAxmUrdErEr
2009-04-17, 17:56:48
Das Ding soll also schon in 3-4 Monaten kommen... klärt mich doch mal auf, was weiß man inzwischen von R8xx, außer, dass er DX11 beherrschen wird?

=Floi=
2009-04-17, 18:52:44
es könnte aber für ati und für nv gleichermaßen profitabel sein. Beide würden von speziellen fertigungsprozessen profitieren und auch bei den takten dürften bei in zukunft näher zusammenrücken. Wenn ati ebenfalls noch die taktdomänen einführt, dann macht sich hier ein extra optimierter prozess bei beiden bemerkbar. Ich sehe da für beide vorteile und bisher haben sie ja auch bei der gleichen firma fertigen lassen.

mboeller_Gast
2009-04-17, 19:51:07
Wenn der RV870 schon so früh kommt, ähh... welchen Sinn hat der RV790 dann bitte? Bis Juli/August hätte der RV770 doch auch noch gereicht. Nvidia hat ja auch nichts neues.

w0mbat
2009-04-17, 19:56:19
RV870 wird wohl deutlich über den RV770 liegen, da braucht man schon einen Lückenfüller.

=Floi=
2009-04-17, 19:57:43
je größer die lücke zwischen der neuen generation, desto mehr geld kann man dafür verlangen.
bei nv gibt es ja auch nichts vergleichbares...

Undertaker
2009-04-17, 20:28:56
Ich kann mir nicht vorstellen, dass das so geplanet war. Entweder sollte der RV790 deutlich stärker werden, oder aber der RV870 kommt auch für AMD früher als erhofft. Ob sich das 10%+ Upgrade des RV770 wirtschaftlich wirklich gelohnt hat, bezweifle ich eher...

Sorkalm
2009-04-17, 22:16:41
Oder der RV790 kam später als geplant. ;)

Gast
2009-04-18, 10:21:12
RV870 wird wohl deutlich über den RV770 liegen, da braucht man schon einen Lückenfüller.


Mit 10% Mehrleistung füllt man keine Lücke, aber ich glaube auch nicht, daß der RV870 deutlich über dem RV790 liegt.

KonKorT
2009-04-18, 10:46:52
Da stellt sich die Frage, wie du deutlich definierst.

Gast
2009-04-18, 10:52:52
Mit 10% Mehrleistung füllt man keine Lücke
Doch.
Zeitlich passt RV790 perfekt, die Leute sind froh wenns neue Produkte gibt.
Die die sich gescheut haben 140€ für eine 4870 auszugeben, die rennen begeistert in die Läden und legen 230€ für eine 4890 hin.

Gast
2009-04-18, 11:10:11
Die die sich gescheut haben 140€ für eine 4870 auszugeben, die rennen begeistert in die Läden und legen 230€ für eine 4890 hin.
Ohne Verkaufszahlen ist das Kaffeesatzlesen und ich habe was Anderes im Tee. Die Leute haben gezögert, weil man sich von der HD4890 endlich einen ordentlichen 2D-/Idlemodus erwartet hat und sie unmittelbar vor der Tür stand. Unverständlicherweise hat AMD den Idle-Stromverbauch auch diesmal nicht in den Griff gekriegt, aber wer jetzt schon so lang gewartet hat kauft auch nur, wenn er muss, denn die Gerüchte zu R8xx bereits Ende Juli motivieren wieder nicht gerade zu einer Kaufentscheidung.

Gast
2009-04-18, 11:30:40
Die Verkaufszahlen sehen super aus: http://www.guru3d.com/news/ati-radeon-hd-4890-shipments-over-50000/

50000 4890 am ersten Tag, das ist mehr als es 8800 GT zum Start gab und diese haben einige Zeit gereicht, um den Andrang zu verkraften.


Das viele auf Powerplay gewartet haben bezweifel ich. Einerseits weil die Leistungsaufnahme scheinbar unwichtig geworden ist. Zu HD3 Zeiten war das anders, jetzt spricht keiner mehr davon.
Andererseits liesst man an jeder Ecke, wie man mit zweifelhaften Methoden Powerplay nachstellt. Oder man liesst wie toll Powerplay der 4890 funktionieren wird, das überschattet sogar die Testberichte.

Jedenfalls ist AMDs Taktik, vorm Release Karten unters Volk zu mischen der Wahnsinn, auf diese Weise wird der Eindruck viel positiver ausfallen, wer bemängelt schon sein teures Produkt.
Viele Käufer haben wohl nicht mal richtige Testberichte gelesen oder sie haben einfach den Inhalt nicht geglaubt.

The_Silent_One
2009-04-18, 14:01:38
das mit dem idle stromverbrauch liegt eher an der nutzung von gddr5. der wird (bei den 4870er zumindest) nicht gescheit runtergetaktet und die spannung wird womöglich auch nicht gesenkt. allein durch manuelles runtertakten des RAM spart man etwa 40W. warum die das nicht machen ist absolut unverständlich.

ich hoffe nur, dass sich das mit dem rv870 ändert.

Gast
2009-04-18, 17:34:34
Oder der RV790 kam später als geplant. ;)

Oder lässt sich so besser in 40nm fertigen...

Gast
2009-04-18, 17:45:49
Mit 10% Mehrleistung füllt man keine Lücke, aber ich glaube auch nicht, daß der RV870 deutlich über dem RV790 liegt.

Ziel ist bei einer neuen Gen wie üblich 2x RV770 Leistung.

Gast
2009-04-18, 19:54:42
Sagt wer? Irgendwelche Wünsche von Fanboys?
Das Ziel ist immer das wirtschaftlich noch machbare und das hängt von vielen Faktoren ab. Priorität hat jetzt DX11 und nicht irgendwelche Leistungswünsche.

BlackBirdSR
2009-04-18, 20:00:01
Sagt wer? Irgendwelche Wünsche von Fanboys?
Das Ziel ist immer das wirtschaftlich noch machbare und das hängt von vielen Faktoren ab. Priorität hat jetzt DX11 und nicht irgendwelche Leistungswünsche.

Aber du musst berücksichtigen, dass der Chip ja bereits vor einiger Zeit konzipiert wurde. Das beinhaltet zum einen die gestiegenen Performanceanforderungen, als auch die Fortschritte des Konkurrenten. Da man mit dem RV770 bereits hinter den Top-Modellen von Nvidia lag, muss man ordentlich nachlegen, um weiter im oberen Mainstream mitmischen zu können.
AUch wenn RV8xx nur ein Performance-Chip ist und nicht das High-Ende bedienen soll, kann man nicht in der Nähe der RV770 Performance bleiben.

Ich erwarte (aber erhoffe) keine Wunder. Spürbar mehr Leistung muss ATI allerdings liefern und das wissen die selbst auch.

Ailuros
2009-04-19, 02:27:50
Das ich dort als nvidia nicht fertigen würde wenn mein Konkurrent das sagen hat.

NV hat auch bis jetzt nie angegeben dass sie daran interessiert sind; lediglich laesst GF an die Presse leaken dass sie an solchen Kunden interessiert waeren. Und wenn Du schon Deine wilden Konspirations-thesen einen Schritt weiter tragen willst: GF ist wohl so wild auf manche deals um diese dann auch koeniglich abzukacken oder?

Falls Du irgendwelche Spionage-these im Hinterkopf haben solltest, dann solltest Du Dir mal genauer ansehen warum beide immer eine geraume Zeit vor der Veroeffentlichung wissen was die Konkurrenz anstellt und ja bei TSMC.

***edit: ich will uebrigens hoffen heise.de weiss Sachen wie finales tape out und Verfuegbarkeit zu unterscheiden.

Gast
2009-04-19, 10:23:41
AUch wenn RV8xx nur ein Performance-Chip ist und nicht das High-Ende bedienen soll, kann man nicht in der Nähe der RV770 Performance bleiben.




Zwischen "in der Nähe bleiben" und 100% mehr Leistung ist eine sehr große Spanne. 50% Mehrleistung würde ich einem RV870 realistisch zugestehen.

Ailuros
2009-04-19, 10:26:20
Zwischen "in der Nähe bleiben" und 100% mehr Leistung ist eine sehr große Spanne. 50% Mehrleistung würde ich einem RV870 realistisch zugestehen.

RV870 ist schon zumindest bis zu 2xMal so schnell als RV770.

Gast
2009-04-19, 11:49:25
RV870 ist schon zumindest bis zu 2xMal so schnell als RV770.
Also am Ende maximal 50% Mehrleistung.
Die doppelte Leistung gibts dann nur bei Dingen wie 16xAF.

w0mbat
2009-04-19, 11:54:56
16xAF ist doch Standard.

Gast
2009-04-19, 11:57:11
Vor allem kostet es trotz der Qualität noch ein gutes Stück mehr als 1xAF.
AMD muss die 16xAF Performance erhöhen, wenn sie gut in Benchmarks abschneiden wollen.

w0mbat
2009-04-19, 12:32:43
Und am besten die Qualität gleich dazu.

Ailuros
2009-04-20, 09:15:51
Also am Ende maximal 50% Mehrleistung.

Dieses bis zu gilt fuer jegliche neue Generation; je mehr Zeit vergeht und neue Spiele erscheinen desto groesser wird dann auch der Unterschied.

Die doppelte Leistung gibts dann nur bei Dingen wie 16xAF.

So lange sich keiner ueber die AF Optimierungen ueber die letzten 3 Jahre geschehrt hat, brauchen sie sich in dem Feld auch nicht besonders anstrengen. AF Algorithmen sind heutzutage adaptiv; es werden aeusserst selten ueber 8x samples angewendet.

KonKorT
2009-04-20, 10:59:55
HKEPC konkretisiert den RV870-Launchtermin auf 7. August - irritierenderweise ein Freitag.

Quelle: HKEPC (http://www.hkepc.com/2774)

reunion
2009-04-20, 11:05:50
Das einzige was fest steht ist das es heute sicher noch keinen Launtermin für RV870 gibt. Das ist wohl so ziemlich das letzte was man festlegt.

KonKorT
2009-04-20, 11:07:21
In der Tat, wollte es aber der vollständigkeitshalber genannt haben. Deckt sich relativ gut mit den letzten Angaben Ende Juli/Anfang August und HKEPC verzapft in der Regel wenig Mist.

igg
2009-04-20, 11:18:20
Ich kann mir ein Launch im August immer noch sehr schwer vorstellen. Wenn NV dann mit GT300 erst im Okt/Nov kommt, wäre ein GT212 nicht mal so dumm gewesen.

KonKorT
2009-04-20, 13:44:37
Dave Baumann hat sich von Guru3D interviewen lassen. Er spricht über RV790, CrossfireX, Physik, DirectX und vieles mehr...

Quelle: Guru3D (http://www.guru3d.com/article/interview-with-ati-dave-baumann/1)

Ailuros
2009-04-21, 18:01:22
Dave Baumann hat sich von Guru3D interviewen lassen. Er spricht über RV790, CrossfireX, Physik, DirectX und vieles mehr...

Quelle: Guru3D (http://www.guru3d.com/article/interview-with-ati-dave-baumann/1)

Ahhh er hat abgenommen *kicher* :biggrin:

reunion
2009-04-22, 12:22:09
Dirk Meyers:
"We’ll launch another product here soon and follow that up with I’ll say a wave of DX11 compatible products in the back half of the year on 40 nanometer."

http://seekingalpha.com/article/132172-advanced-micro-devices-inc-q1-2009-earnings-call-transcript?page=-1

Also auch noch Mainstream und Lowcost DX11 Chips in 2009 in 40nm.

Ailuros
2009-04-22, 13:28:06
Dirk Meyers:
"We’ll launch another product here soon and follow that up with I’ll say a wave of DX11 compatible products in the back half of the year on 40 nanometer."

http://seekingalpha.com/article/132172-advanced-micro-devices-inc-q1-2009-earnings-call-transcript?page=-1

Also auch noch Mainstream und Lowcost DX11 Chips in 2009 in 40nm.

Llano wird wohl erst in 2011 kommen, ergo kommt es natuerlich darauf an was man genau mit "low cost" meint.

Die einzige wirkliche Welle die ich aus dem Ganzen lesen kann sind die Bedenkungen der Analysten.

reunion
2009-04-22, 13:30:05
Llano wird wohl erst in 2011 kommen, ergo kommt es natuerlich darauf an was man genau mit "low cost" meint.


Llano ist auch ein Fusion-Chip, hier spricht er über diskrete GPUs.

Ailuros
2009-04-22, 13:40:36
Llano ist auch ein Fusion-Chip, hier spricht er über diskrete GPUs.

Ich persoenlich hab auch nie erwartet dass ein SoC sich je ausserhalb der IGP-Marge bewegen wird. Hingegen deutet AMD bisheriges Marketing-BS eher in die andere Richtung.

So oder so er wird etwas laenger dauern bis sie RV740 ersetzen werden, als Du aus dem Zeug herauslesen willst.

KonKorT
2009-04-22, 14:04:37
ATI-Forum schreibt von 1,9 Teraflops. Sofern sich das bewahrheiten würde, läge es unter den Erwartungen, wobei hier natürlich noch ungewiss ist, wie hoch die Performance pro Flop ist.

1,9 Teraflops ließen sich beispielsweise mit 1280 SPs bei 750 MHz erreichen.

Quelle: ATI-Forum (http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/398-rv870-mit-ueber-19-tflop-im-juli-09)

reunion
2009-04-22, 14:06:31
TFLOPs RV7xx != TFOPs RV8xx.

So oder so er wird etwas laenger dauern bis sie RV740 ersetzen werden, als Du aus dem Zeug herauslesen willst.

Wir werden sehen.

deekey777
2009-04-22, 15:48:34
TFLOPs RV7xx != TFOPs RV8xx
FLOPS sind FLOPS, es sei denn, es sind komische MUL-FLOPs dabei.

Ehrlich gesagt, würde es mich nicht wundern, wenn AMD beim VLIW-Design bleibt.
Ich persönlich glaube, dass die fetten SIMDs verschwinden und wir Cluster wie beim G80/GT200 sehen, in den mehrere kleinere "SIMDs" heimisch sind (so 2-3*8-VLIW-ALUs). Wobei mächtige G80-ALUs auch nicht schlecht wären.

Coda
2009-04-22, 15:54:47
Ehrlich gesagt, würde es mich nicht wundern, wenn AMD beim VLIW-Design bleibt.
Man hat dadurch auch weniger register pressure, weil man weniger Threads braucht um die Latenzen zu verstecken. Das ist ein guter Grund doch dabei zu bleiben.

Bei RV870 erwarte ich ehrlich gesagt eh keine größeren Änderungen an dieser Stelle.

BlackBirdSR
2009-04-22, 15:55:17
ATI-Forum schreibt von 1,9 Teraflops. Sofern sich das bewahrheiten würde, läge es unter den Erwartungen, wobei hier natürlich noch ungewiss ist, wie hoch die Performance pro Flop ist.


Das wäre, als erwartest du einen 4GHz Nehalem, bist dann über die 2.9GHz enttäuscht und interessierst dich gar nicht dafür, dass er bei dieser Taktrate den Core2 um 50% schlägt.

Coda
2009-04-22, 16:03:39
Ich persönlich glaube, dass die fetten SIMDs verschwinden und wir Cluster wie beim G80/GT200 sehen, in den mehrere kleinere "SIMDs" heimisch sind (so 2-3*8-VLIW-ALUs). Wobei mächtige G80-ALUs auch nicht schlecht wären.
Du meinst kleinere Warps? Wäre nicht verkehrt.

Vielleicht kümmern sie sich auch wie NVIDIA um das Branching-Problem.

KonKorT
2009-04-22, 16:21:22
Das wäre, als erwartest du einen 4GHz Nehalem, bist dann über die 2.9GHz enttäuscht und interessierst dich gar nicht dafür, dass er bei dieser Taktrate den Core2 um 50% schlägt.
Lange bevor ein Chip fertiggestellt wird, legt man bereits fest, in welche Regionen man ungefähr vordringen will. Stimmen die 1,9 Teraflops, läge man unter den Erwartungen. Mögliche Pro/Taktsteigerungen hin oder her. Es wäre zu wenig.

reunion
2009-04-22, 16:25:23
Man hat dadurch auch weniger register pressure, weil man weniger Threads braucht um die Latenzen zu verstecken. Das ist ein guter Grund doch dabei zu bleiben.

Bei RV870 erwarte ich ehrlich gesagt eh keine größeren Änderungen an dieser Stelle.

Da warst du vor kurzem noch anderer Meinung.

Coda
2009-04-22, 16:27:37
Was die Verlustleistung angeht bin ich das auch immer noch. NVIDIA braucht halt ein leicht größeres Registerfile. Das ist aber SRAM, lässt sich gut packen und verbraucht nicht viel Leistung.

reunion
2009-04-22, 16:28:38
Was die Verlustleistung angeht bin ich das auch immer noch. NVIDIA braucht halt ein leicht größeres Registerfile. Das ist aber SRAM, lässt sich gut packen und verbraucht nicht viel Leistung.

NV betreibt ihre Chips mit ~0.2V weniger Spannung, das ist eine menge Holz.

reunion
2009-04-22, 16:29:40
FLOPS sind FLOPS, es sei denn, es sind komische MUL-FLOPs dabei.


Ich wollte damit auf mögliche, skalare FLOPs anspielen.


Ehrlich gesagt, würde es mich nicht wundern, wenn AMD beim VLIW-Design bleibt.

Würde mich auch nicht wundern. Man scheint damit gut zu fahren. Warum ändern?

deekey777
2009-04-22, 16:39:29
Du meinst kleinere Warps? Wäre nicht verkehrt.

Vielleicht kümmern sie sich auch wie NVIDIA um das Branching-Problem.
Wavefronts, bitte. :biggrin:

Die Latenz ist wie bei Nvidia vier Takte, nur hat der RV770 eben 16 VLIW-Einheiten, was eigentlich einem 64-way-SIMD entspricht (64 Threads je Wavefront bzw. 8x8 als effiziente Wavefront). Mit zwei kleineren SIMDs je Cluster hätte man eine bessere Effizienz und somit eine höhere Performance bei gleicher Anzahl an Recheneinheiten.

Coda
2009-04-22, 16:49:08
NV betreibt ihre Chips mit ~0.2V weniger Spannung, das ist eine menge Holz.
Und warum brauchen sie die höhere Spannung? NVIDIA hätte mit 0,2V mehr auch wieder entsprechend mehr Leistung. Wo ändern sich da die Verhältnisse?

Würde mich auch nicht wundern. Man scheint damit gut zu fahren. Warum ändern?
Als ob du das beurteilen könntest.

Mit zwei kleineren SIMDs je Cluster hätte man eine bessere Effizienz und somit eine höhere Performance bei gleicher Anzahl an Recheneinheiten.
Jo, aber auch das doppelte an Kontrolllogik und die Effizienz verbessert sich auch nur wenn man viel springt.

reunion
2009-04-22, 16:58:11
Und warum brauchen sie die höhere Spannung?

Weil sie wohl auf hohen Takt optimiert haben, und vermutlich weniger auf möglichst geringen Verbrauch.


NVIDIA hätte mit 0,2V mehr auch wieder entsprechend mehr Leistung. Wo ändern sich da die Verhältnisse?

Sie würden nicht annähernd so viel Leistung gewinnen wie sie zusätzlichen Strom benötigen würden. Das ist einen Binsenweisheit.


Als ob du das beurteilen könntest.


Du scheinst das ja auch jede Woche anders zu sehen, Herr Experte! Und meine Meinung werde ich ja wohl noch kund tun dürfen. Als ich zuletzt sagte das AMD mit den Vec5-ALUs besser fahren würde kam von dir nur eine patzige Antwort das man mit DX11 sicherlich auch auf skalar wechseln würde.

Coda
2009-04-22, 17:00:07
Als ich zuletzt sagte das AMD mit den Vec5-ALUs besser fahren würde
Was ich nach wie vor bezweifel. Es ist einfach ineffizienter. Verschwendete Rechenleistung, man braucht mehr Programmspeicher, die Compiler sind komplizierter, es braucht potentiell mehr Strom. Außerdem ist sowas wie "dynamic warp formation" (also um Blasen zu füllen bei dyn. Branching) mit VLIW fast unmöglich, weil man dann pro Befehl bis zu 5 verschiedene Abhängigkeiten drin hat.

Du scheinst das ja auch jede Woche anders zu sehen, Herr Experte!
Ich sehe gar nichts anders. Ich habe nur einen einzigen Vorteil der VLIW-Architektur dargelegt. Auf der anderen Seite der Waage liegt aber erheblich mehr.

kam von dir nur eine patzige Antwort das man mit DX11 sicherlich auch auf skalar wechseln würde.
Es geht auch darum wieviel Resourcen sie haben. Sowas baut man nicht mal eben um. Vor allem braucht man auch völlig andere Compiler dafür.

reunion
2009-04-22, 17:31:41
Was ich nach wie vor bezweifel. Es ist einfach ineffizienter. Verschwendete Rechenleistung, man braucht mehr Programmspeicher, die Compiler sind komplizierter, es braucht potentiell mehr Strom. Außerdem ist sowas wie "dynamic warp formation" (also um Blasen zu füllen bei dyn. Branching) mit VLIW fast unmöglich, weil man dann pro Befehl bis zu 5 verschiedene Abhängigkeiten drin hat.


Ich sehe gar nichts anders. Ich habe nur einen einzigen Vorteil der VLIW-Architektur dargelegt. Auf der anderen Seite der Waage liegt aber erheblich mehr.

Das mag alles stimmen, nur steht man in der Praxis ggü. NV ja nicht so schlecht da, wodurch sich die Frage stellt wie stark das ins Gewicht fällt.


Es geht auch darum wieviel Resourcen sie haben. Sowas baut man nicht mal eben um. Vor allem braucht man auch völlig andere Compiler dafür.

Klar. Auch stellt sich die Frage wie viel Aufwand es überhaupt noch bedeutet einen RV7xx DX11 kompatibel zu machen. D3D10.1 plus einen Bestandteil des DX11-Tesslators hat man ja schon. ATi war schon immer dafür bekannt eher in kleinen und stetigen Schritten weiterzuentwickeln und weniger so wie NV die meisten Ressourcen in eine neue Gen zu investieren und dann weitgehend damit bis zur nächsten Generation auszuharren. Eine neue ALU-Organisation kann ja dann mit dem zweiten DX11-Schub folgen.

Coda
2009-04-22, 18:41:54
Das mag alles stimmen, nur steht man in der Praxis ggü. NV ja nicht so schlecht da, wodurch sich die Frage stellt wie stark das ins Gewicht fällt.



Klar. Auch stellt sich die Frage wie viel Aufwand es überhaupt noch bedeutet einen RV7xx DX11 kompatibel zu machen. D3D10.1 plus einen Bestandteil des DX11-Tesslators hat man ja schon. ATi war schon immer dafür bekannt eher in kleinen und stetigen Schritten weiterzuentwickeln und weniger so wie NV die meisten Ressourcen in eine neue Gen zu investieren und dann weitgehend damit bis zur nächsten Generation auszuharren. Eine neue ALU-Organisation kann ja dann mit dem zweiten DX11-Schub folgen.
Wenn beide ihr Design ungefähr gleich optimieren dann hat ATi mit VLIW def. einen Nachteil - und NV hat mehr in R&D investiert.

Der Tesselator ist ziemlich trivial. Das ist fixed function und vorgegeben. Die Domain- und Hull-Shader in die Pipeline zu integrieren ist das Problem. Das hat ATi genauso.

Überhaupt wird das erstmal stark nebensächlich sein. Die Grundleistung muss deutlich steigen ggü. RV770 wenn sie konkurrenzfähig sein wollen.

igg
2009-04-22, 22:00:55
Laut einem News-Update von 19:20 bei Computerbase (http://www.computerbase.de/news/hardware/grafikkarten/ati/2009/april/erste_directx-11-karten_ati_juli/) kommen die Karten tatsächlich im Juli. Das wäre natürlich heftig für Nvidia. Allerdings kann ich in der angegebenen Quelle nichts finden.

Im CB Artikel heißt es:soll die „ATi-Radeon-5000-Serie“ tatsächlich im Sommer auf den Markt kommen. Der RV870 soll eine Rechenleistung von 1,9 TFlops erreichen. Die X2-Variante bringt es laut den Gerüchten „mit einem leicht angehobenen Takt“ auf 4,0 TFlops.

Im Conference Call steht dagegen eher Q3/Q4:And we plan to lead the market with the X11 solutions coincident with Microsoft Windows 7 release in the back half of the year. So we feel very good about the GPU situation.

LovesuckZ
2009-04-22, 22:12:39
Ohne richtiges Zitat aus der CC ist es eine Falschmeldung. Und jede News oder Spekulations, die mit "aus Unternehmenskreisen" anfangen, sind sowieso fake.

y33H@
2009-04-22, 22:53:02
Das Gerücht stammt wohl mal wieder aus dem Ati-Forum (http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/398-rv870-mit-ueber-19-tflop-im-juli-09) ;DEin AMD-nahe Quelle hat uns interessante Neuigkeiten zur kommenden High-End GPU von AMD zugesteckt. So soll dieser bereits im Juli 2009 mit über 1,9 TFlop Rechenleistung aufwarten.Die kommende High-End GPU von AMD, welche in 40nm gefertigt wird, soll bereits im Juli diesen Jahres an den Start gehen. Das Rechenzentrum der neuen High-End Grafikkarten soll mit über 1,9 TFLop ihre Arbeit verrichten. Die X2-Variante soll sogar mit einem leicht angehobenen Takt die 4 TFlop-Marke knacken. Zudem soll, wie bereits schon beim RV790 stark optimiert, die Idle-Stromaufnahme weiter signifikant gesenkt werden. Der über DirectX 11 kompatible Chip wird höchst wahrscheinlich als ATi Radeon HD5850/5870 sowie X2 das Licht der Welt erblicken. Ob die Firmennahen Informationen sich bewahrheiten werden, wird sich bald zeigen! Das übliche Bla ...

LovesuckZ
2009-04-22, 23:21:11
"AMD-nahe Quelle". Guck an, guck an. Viel schlimmer, dass Seiten wie Computerbase.de das 1:1 übernehmen und es dann im Kontext mit der CC bringen.

y33H@
2009-04-22, 23:23:20
Blubbern kann man viel. Sich was halbwegs plausibles ausdenken und "Quelle ist Firmennah" ... Fud lebt davon ;D

Sorkalm
2009-04-22, 23:49:42
Blubbern kann man viel. Sich was halbwegs plausibles ausdenken und "Quelle ist Firmennah" ... Fud lebt davon ;D

Ja, aber wenn eine Seite wie Heise "Informationen aus Unternehmenskreisen" schreibt, glaub ich nicht, dass die sich was ausdenken...

y33H@
2009-04-22, 23:59:51
Ausnahmen bestätigen die Regel, klar.

deekey777
2009-04-23, 00:05:46
Es sind oft unternehmensnahe Quellen, die wiederum oft mit Falschinformationen gefüttert werden. Ich sag nur "RV790@40nm und 12 SIMDs": Diese Falschinfos haben gereicht, dass ein gewisser Hersteller sich genötigt fühlte, eine absolut unnötige GTX275 auf den Markt zu bringen.

Ergo können diese Infos direkt von AMD stammen (*hust* R650 *hust*).

=Floi=
2009-04-23, 00:25:53
GTX275 hat doch die 4890 im griff?!

die vec5 alus sind doc bei sehr großer länge und komplexität besser?!
Bei nv war das design doch eher auf maximalen durchsatz und maximale flexibilität ausgelegt.

reunion
2009-04-23, 07:50:36
Ja, aber wenn eine Seite wie Heise "Informationen aus Unternehmenskreisen" schreibt, glaub ich nicht, dass die sich was ausdenken...

Eben, Heise ist keine Seite die sich was aus dubiosen Quellen zusammen reimt. Ich glaube ihnen sofort dass sie das direkt von AMD haben. Allerdings weiß man halt nicht ob das nicht bewusst gestreuter BS ist.

robbitop@work
2009-04-23, 08:13:49
Es sind oft unternehmensnahe Quellen, die wiederum oft mit Falschinformationen gefüttert werden. Ich sag nur "RV790@40nm und 12 SIMDs": Diese Falschinfos haben gereicht, dass ein gewisser Hersteller sich genötigt fühlte, eine absolut unnötige GTX275 auf den Markt zu bringen.

Ergo können diese Infos direkt von AMD stammen (*hust* R650 *hust*).
Wieso unnötig? Der Preisverfall der 260er war nicht gut und die 275 ist mit dem GT200 wieder in profitable Regionen gekommen. Außerdem brauchte man so oder so ein Gegenprodukt zur 4890.

Gast
2009-04-23, 08:14:15
@deekey777: das sehe ich anders: wenn ein gewisser Herstellter tatsächlich von 12 SIMDs ausgegangen wäre hätte eine gtx 275 nicht gereich!, und diese wäre auch nicht erschienen. Also ist man imo immer von einem höher getakteten rv770 ausgegangen... oder wenn es tatsächlich anders gekommen wäre hätte man die gtx285 als Konkurenzprodukt dagegenhalten müssen.

ShadowXX
2009-04-23, 09:35:19
Eben, Heise ist keine Seite die sich was aus dubiosen Quellen zusammen reimt. Ich glaube ihnen sofort dass sie das direkt von AMD haben. Allerdings weiß man halt nicht ob das nicht bewusst gestreuter BS ist.
Bei Heise steht nichts davon das Sie die Infos von AMD haben, sondern: "wie heise online aus Unternehmenskreisen erfahren hat".

"Unternehmenskreise" kann alles sein. Angefangen von Boardpartnern über TSMC bis hin zu Zulieferern. Sogar der Bürobote kann damit gemeint sein.

Davon mal abgesehen hat Dirk Meyer itself ja folgendes gesagt:

And we plan to lead the market with the X11 solutions coincident with Microsoft Windows 7 release in the back half of the year.

quelle: http://seekingalpha.com/article/132172-advanced-micro-devices-inc-q1-2009-earnings-call-transcript?page=-1

D.h. er sagt das Sie die DX11-Lösungen zusammen mit Windows 7 auf den Markt bringen wollen.....Window 7 kommt aber sicher nicht im Sommer (zumindest nicht im Sommer 2009;)).

reunion
2009-04-23, 10:11:43
Bei Heise steht nichts davon das Sie die Infos von AMD haben, sondern: "wie heise online aus Unternehmenskreisen erfahren hat".

"Unternehmenskreise" kann alles sein. Angefangen von Boardpartnern über TSMC bis hin zu Zulieferern. Sogar der Bürobote kann damit gemeint sein.


Ich weiß. War vielleicht etwas blöd ausgedrückt. Bei einem Büroboten od. dgl. würde sich Heise aber IMO nicht zu einer solchen Schlagzeile hinreisen lassen.


Davon mal abgesehen hat Dirk Meyer itself ja folgendes gesagt:

quelle: http://seekingalpha.com/article/132172-advanced-micro-devices-inc-q1-2009-earnings-call-transcript?page=-1

D.h. er sagt das Sie die DX11-Lösungen zusammen mit Windows 7 auf den Markt bringen wollen.....Window 7 kommt aber sicher nicht im Sommer (zumindest nicht im Sommer 2009;)).

Dirk Meyer hat aber auch gesagt das sie im zweiten Halbjahr noch eine "Welle an DX11-Produkten" bringen wollen. Und die kommen sicherlich nicht alle zeitgleich an. Da kann man dann für RV870 wohl schon mit dem Q3 rechnen, Samples soll es ja schon im Q2 geben. Und wann Windows 7 jetzt wirklich kommt weiß wohl keiner so genau, würde mich jedenfalls nicht wundern wenn dies früher wäre als viele denken.

Ailuros
2009-04-23, 10:29:23
Es muesste ziemlich viel schief laufen damit AMD es nicht schafft die RV870 Projektionen einzuhalten. Das soll aber nicht heissen dass man in Realitaet nur Projektionen jeglichen Analysten verspricht, die gerade versuchen die AMD Kerle in die Ecke zu draengen.

Coda
2009-04-23, 13:26:41
die vec5 alus sind doc bei sehr großer länge und komplexität besser?!
Nein, das hat damit nichts zu tun.

Und wann Windows 7 jetzt wirklich kommt weiß wohl keiner so genau, würde mich jedenfalls nicht wundern wenn dies früher wäre als viele denken.
Ist auch komplett unnötig, DX11 läuft auch auf Vista.

Gast
2009-04-23, 17:47:21
Dirk Meyer hat aber auch gesagt das sie im zweiten Halbjahr noch eine "Welle an DX11-Produkten" bringen wollen. Und die kommen sicherlich nicht alle zeitgleich an. Da kann man dann für RV870 wohl schon mit dem Q3 rechnen, Samples soll es ja schon im Q2 geben. Und wann Windows 7 jetzt wirklich kommt weiß wohl keiner so genau, würde mich jedenfalls nicht wundern wenn dies früher wäre als viele denken.

Der erste Release Candidate von Windows 7 (RC 7100 oder so) ist schon an größere Firmen ausgeliefert. Windows 7 ist so gut wie fertig. Schätze mal Juli/August dürften wir uns auf DX11/Windows 7 mit AMD freuen.

Coda
2009-04-23, 20:19:40
Nochmal: Es wird kein Windows 7 dazu benötigt.

OBrian
2009-04-23, 21:37:13
Außerdem war es bisher meistens so, daß die Hardware bereits da war, wenn das dazu passende DX rauskam. Die Radeon 9700pro kam immerhin ein Vierteljahr vor DX9 auf den Markt; bei der 8800GTX und DX10 waren es nur wenige Wochen. Hängt wohl immer ein wenig von den Verzögerungen in letzter Minute zusammen, die bei Software und Hardware auftreten können, ich glaube aber nicht, daß die Firmen aufeinander warten, nur damit es schön paßt. Immerhin funktioniert die Karte auch mit dem alten DX.

Bzgl. Win7 und DX11 glaube ich eher, daß Microsoft versuchen wird, DX11 noch in Win7 reinzubekommen, dann wäre man als Programmierer immer sicher, DX11 vorzufinden, wenn man Win7 erkennt. So wie Win XP automatisch DX9 und Vista automatisch DX10 bedeutet.

Coda
2009-04-23, 22:09:35
Das deckt sich ja damit, dass man DX7 zuerst auf Vista deployed. Dann hat man es garantiert auch bei Win 7 dabei.

Win 7 geht ja auch einige Monate vorher Gold bevor es in den Läden ankommt, d.h. DX11 ist eh fertig.

dargo
2009-04-23, 22:10:28
Bzgl. Win7 und DX11 glaube ich eher, daß Microsoft versuchen wird, DX11 noch in Win7 reinzubekommen, dann wäre man als Programmierer immer sicher, DX11 vorzufinden, wenn man Win7 erkennt.
DX11 ist schon seit mehreren Wochen nutzbar. Zumindest aus Software-Sicht.

Coda
2009-04-23, 22:14:06
Öh also eine Release-Version gibt's noch nicht, nur ne Beta halt im March SDK.

dargo
2009-04-23, 22:39:51
Öh also eine Release-Version gibt's noch nicht, nur ne Beta halt im March SDK.
Ich bin jetzt davon ausgegangen, dass DX11 in der Windows 7 Beta bereits final ist.

Ailuros
2009-04-24, 07:47:07
Wieso eigentlich der Stress ueber die D3D11 API Veroeffentlichung? Relevante techdemos von den IHVs wird es wohl auch in video format geben.

KonKorT
2009-04-24, 16:02:28
ATI-Forum liegen offenbar die finalen RV870-Spezifikationen vor.

Quelle: ATI-Forum (http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/409-rv870-vorrausichtliche-spezifikationen-aufgetaucht)

Ich habe hier (http://www.hardware-infos.com/news.php?news=2908) die Zahlen mit Tabellen noch etwas aufbereitet.

Sorkalm
2009-04-24, 16:06:48
Naja, da wäre ich echt vorsichtig, mit diesen Daten ... klingt mir zu allgemein in den Baum spekuliert, irgendwie - sagt mir so mein Gefühl.

Gast
2009-04-24, 16:25:14
Irgendwas ausdenken, ganz viele Besucher bekommen, eine Schande, dass solche Seiten auch noch verlinkt werden. ATI-Forum? Das neue FudZilla ohne echte Quellen wie es mir scheint, um nicht ganz OT zu werden:
Wenn das die Specs sind, dann wird eine HD 5870 X2 aber sicher 2 8Pin Anschlüsse o.ä. benötigen - wo soll das Enden?

KonKorT
2009-04-24, 16:30:50
Irgendwas ausdenken, ganz viele Besucher bekommen, eine Schande, dass solche Seiten auch noch verlinkt werden. ATI-Forum? Das neue FudZilla ohne echte Quellen wie es mir scheint
Ich weiß, dass man hier nicht bloß blauen Dunst geschrieben hat.

Wenn das die Specs sind, dann wird eine HD 5870 X2 aber sicher 2 8Pin Anschlüsse o.ä. benötigen - wo soll das Enden?
Das muss nicht zwangsläufig der Fall sein. Aus der Meldung geht nicht hervor, welche Verbesserungen ATI hinsichtlich der Leistungsaufnahme erzielt.
Nicht zu verachten sollte man auch die Tatsache, dass er in 40 statt 55 Nanometer gefertigt wird.

igg
2009-04-24, 16:35:31
Also wenn die Zahlen stimmen und der Sprung 50-100 % sein soll (ähnlich dem RV760 -> RV770), dann ist das für mich ein Flop. Allerdings nehme ich an, dass viele der Verbesserungen und Features aus den Zahlen nicht ersichtlich sind.

KonKorT
2009-04-24, 17:29:51
Ein Flop keineswegs, wenn man nurmal ganz grob die theoretische Chipfläche überschlägt (vorausgesetzt, RV870 hat weiter so eine gute Packdichte wie RV770) :)

reunion
2009-04-24, 17:37:40
Wie willst du die Chipfläche überschlagen? Das Ding ist DX11 kompatibel.

=Floi=
2009-04-24, 17:41:55
der chip wäre viel zu klein und man würde völlig sinnlos die langsamere karte haben. Dafür hätte auch bei nv ein GT212 gereicht. Das kann nicht stimmen, denn ati wird sicherlich die leistung wesentlich stärker steigern. Dank 40nm hat man da sicherlich platz für ca. 2000 shadereinheiten. Dort wird man vor allem die leistun steigern und den DIE könnte man auch noch ein wenig größer machen.

X2 ist noch immer dreck und nicht wirklich eine ALTERNATIVE zu einem großen singlechip. Das ist eigentlich das hauptproblem an der sache. Ansonsten könnte man ja problemlos auf mgpu setzen und hier zwar innefizienter aber kostengünstig die leistung (erheblich) steigern.

vinacis_vivids
2009-04-24, 18:04:17
ATI-Forum liegen offenbar die finalen RV870-Spezifikationen vor.

Quelle: ATI-Forum (http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/409-rv870-vorrausichtliche-spezifikationen-aufgetaucht)

Ich habe hier (http://www.hardware-infos.com/news.php?news=2908) die Zahlen mit Tabellen noch etwas aufbereitet.

Klingt gut. Der Singelchip dürfte schneller als GTX285 sein.

[fu]121ah@home
2009-04-24, 20:36:28
Klingt gut. Der Singelchip dürfte schneller als GTX285 sein.
lol, sogar eine 4890 ist knapp an der gtx285 dran, mit den obigen 50-100% leistungssteigerung hat man die gtx285 um ne fette länge geschlagen.

Gast
2009-04-24, 21:17:37
121ah@home;7256087']lol, sogar eine 4890 ist knapp an der gtx285 dran, mit den obigen 50-100% leistungssteigerung hat man die gtx285 um ne fette länge geschlagen.
Dazu muss das 27% Plus an Texelfüllrate durch noch mehr Cheats kompensiert werden.

y33H@
2009-04-24, 21:25:36
hat man die gtx285 um ne fette länge geschlagenVon der Schwanz Balkenlänge, ja. Nun schau aufs AF und rechne aus, wie viele TMUs das spart, deren Transis man in die ALUs pumpen kann ;D

Bitte nie nur die Balken vergleichen!

reunion
2009-04-24, 21:36:39
Von der Schwanz Balkenlänge, ja. Nun schau aufs AF und rechne aus, wie viele TMUs das spart, deren Transis man in die ALUs pumpen kann ;D

Bitte nie nur die Balken vergleichen!

NVs Quality ist jetzt auch nicht so der Wahnsinn als ob das Lichtjahre an Leistung ausmachen würde ggü. AI_low.

MR2
2009-04-24, 21:47:34
1200 Shaderprozessoren? Das ist ne Ente, 100Pro!...1800 halte ich für realistisch.

MFG MR2

y33H@
2009-04-24, 21:51:51
NVs Quality ist jetzt auch nicht so der Wahnsinn als ob das Lichtjahre an Leistung ausmachen würde ggü. AI_low.Ich will nicht wissen, wie stark ne HD4890 wegknicken würde, wenn sie Q statt AI-def berechnen müsste ... von HQ mal ganz zu schweigen.

reunion
2009-04-24, 21:59:39
Ich will nicht wissen, wie stark ne HD4890 wegknicken würde, wenn sie Q statt AI-def berechnen müsste ... von HQ mal ganz zu schweigen.

10% max. Manche tun hier so als ob das Unmengen an Leistung bringen würde.

y33H@
2009-04-24, 22:02:57
Es gibt leider keine Option, das wirklich zu prüfen ... naja, vll Coda. Aber imo definitiv mehr als 10%.

=Floi=
2009-04-24, 22:07:15
das steht doch nicht zur debatte. atis design und entwicklung basiert auf dieser strategie und sobald mehr geld für bessere treiber vorhanden ist, wird man den teil der shaderreplacements und optimierungen noch drastisch ausbauen um hier kostengünstig performance zu generieren. Ein neuer treiber wirkt auf die komplette architektur und man kann eben auch am chip teure transistoren sparen. Immer mehr und komplexere spiele brauchen auch immer aufwändigere treiber und deswegen wird man hier sowieso eher aufstocken bei ati.

Gast
2009-04-24, 22:07:32
NVs Quality ist jetzt auch nicht so der WahnsinnDu bist klasse.
Du schaffst es tatsächlich an einem derartigen Pluspunkt, nvidias Filterung, etwas schlecht zu reden.
Gratulation.

In 6 Monaten ist Nvidias Filterung nachträglich schlechter als R5xx. :rolleyes:

Aber gut, du bist einer der ersten, die über G7x geschimpft haben, immerhin stehst du zu deinem Wort.

Gast
2009-04-24, 22:10:58
10% max. Manche tun hier so als ob das Unmengen an Leistung bringen würde.
Es gibt genug Tests, wo 16xAF zu 8xAF ein gutes Stück mehr kostet, im Schlimmsten Fall mehr als bei NV der Sprung von 1xAF auf 16x HQ AF.

Selbst wenn, Fakt ist, anhand der vorliegenden Daten muss AMD mehr sparen!
Optionale Mehr BQ wird es nicht geben, defaultmäßig muss die Filterung schlechter werden, sonst hat AMD keine Chance eine hohe FPS Steigerung zu erzielen!

reunion
2009-04-24, 22:11:47
Du bist klasse.
Du schaffst es tatsächlich an einem derartigen Pluspunkt, nvidias Filterung, etwas schlecht zu reden.
Gratulation.

In 6 Monaten ist Nvidias Filterung nachträglich schlechter als R5xx. :rolleyes:

Aber gut, du bist einer der ersten, die über G7x geschimpft haben, immerhin stehst du zu deinem Wort.

Ich rede überhaupt nichts schlecht. NVs "HighQuality" ist sehr gut und der Grund warum ich einen NV-Karte habe. Gebencht wird aber mit "Quality", und das ist eben auch nicht sonderlich besser als AI_def.

y33H@
2009-04-24, 22:25:36
Es sieht besser aus und kostet mehr. Und auf einer Radeon würde es mehr kosten als auf einer Radeon Geforce. Ergo ist eine Geforce bei gleicher BQ schneller.

samm
2009-04-24, 22:49:07
Und auf einer Radeon würde es mehr kosten als auf einer Radeon. Ergo ist eine Geforce bei gleicher BQ schneller.Ah, die Logik :uponder:

Ne, schon klar, was du sagen willst ;) Aber was nützen solche unbelegbaren Überlegungen? Wenn man ATI zu besserer Qualität zwingen will, muss man etwas in der Hand haben, und im Moment hat man nur die Belege des flimmernden AF, keine Performance-Vergleichswerte bei gleicher Qualität.

y33H@
2009-04-24, 22:57:27
Leider ;(

Der_Korken
2009-04-24, 23:39:46
1200 Shader klingt merkwürdig. Wenn man den Aufbau der Cluster unangetastet lässt, käme man auf 15 Cluster (mit jeweils 16x5 Shadern). Das ist schon ziemlich krumm und würde zudem auch nicht zu den 48TMUs passen. Wenn schon dann 60 TMUs. Es könnten von den TMUs ausgehend auch 12 Cluster sein, aber dann hätten wir 20x5 Shader pro Cluster (was wohl sehr ineffizient wäre, wie einige hier das erläutert mal hatten).

Also entweder sind die Specs BS (wohl am wahrscheinlichsten), oder ATI hat die Anordnung sehr stark verändert. Btw. wären 48TMUs sehr enttäuschend und gerade ATI hat ja bisher nicht gerade viele gehabt. 900 Mhz hören sich auch nach viel an, für ein komplexeren Chip als bisher.

Gipsel
2009-04-25, 07:11:39
@NV/ATI - skalar/VLIW
die Compiler sind komplizierter
Compiler ist Software, keine Hardware. Alles was von der Hardware in Software verlagert werden kann, ermöglicht die Ausführungseinheiten aufzubohren und damit die Performance zu steigern. Frage mal Intel nach dem Itanium *lol*
Okay, schlechtes Beispiel, der hat aber auch andere Ziele ;)
Außerdem ist sowas wie "dynamic warp formation" (also um Blasen zu füllen bei dyn. Branching) mit VLIW fast unmöglich, weil man dann pro Befehl bis zu 5 verschiedene Abhängigkeiten drin hat.
Na das kann man so nicht stehen lassen. Es gibt nur maximal einen Branch pro ALU-Clause (eigentlich sogar gar keinen ;)), d.h. auch nur einen pro VLIW-Einheit.
Außerdem ist im Moment ATI bei "branchy" code ziemlich fix dafür, daß sie mit doppelt so großen Vektoren (Wavefronts/Warps) arbeiten. Das liegt übrigens daran, daß das:
Die Latenz ist wie bei Nvidia vier Takte
so nicht stimmt. Daß ist nur so eine Art effektive Latenz, wenn genügend Warps/Wavefronts laufen (durch die vierfache Breite der Vektoren im Vergleich zur Architektur ist es dann effektiv nur noch 1 Takt). Bei ATI haben die Shader halbwegs sicher eine physische Latenz von 8 Takten, man benötigt also zwei Wavefronts pro SIMD um keine Blasen in der Pipeline zu bekommen (von anderweitigen Latenzen jetzt mal abgesehen). Bei nVidia geht das allerdings eher in Richtung 20 Takte, wenn man den verfügbaren Informationen glauben kann. Hört sich jetzt erstmal nach sehr viel an, man muß aber auch bedenken, daß das Designziel bei den Einheiten nicht die gleichen sind wie bei CPUs, so kann man sich nicht die gleichen leakigen Transistoren für die doch sehr viel mehr Einheiten erlauben und setzt eher auf eine hohe Packungsdichte denn auf Geschwindigkeit. Aber so große Latenzen können bei Branches dann doch schon ganz schön kosten (man benötigt viel mehr Warps als Wavefronts, um das irgendwie zu füllen).

nur hat der RV770 eben 16 VLIW-Einheiten, was eigentlich einem 64-way-SIMD entspricht (64 Threads je Wavefront bzw. 8x8 als effiziente Wavefront). Mit zwei kleineren SIMDs je Cluster hätte man eine bessere Effizienz und somit eine höhere Performance bei gleicher Anzahl an Recheneinheiten.
Nur könnte man mit dem gleichen Aufwand an Transistoren wahrscheinlich auch einen "RV795" mit mindestens 11 der bekannten SIMDs bauen und hätte mit dann 880 SP und 44TMUs, mithin 10% mehr und wahrscheinlich im Normalfall auch mehr Performance als mit 800 SP und 32 Thread Wavefronts.

Ist eigentlich irgendwo mal vermessen worden, daß die HD4650/4670 deutlich schneller als die HD3850/3870 ist? Die haben beide 320 SPs, der HD38x0 aber Wavefronts mit 64 Threads, der RV730 nur mit 32 Threads. Ist ein wenig Äpfel mit Birnen, weil sich noch deutlich mehr geändert hat (Hälfte der ROPs und des Speicherinterfaces, dafür doppelte Zahl an TMUs, die zudem nicht wirklich vergleichbar sind, insgesamt effizienteres Cache-Design für RV730). Aber so richtig was rausreißen können die kleineren Wavefronts offensichtlich nicht ;)
Wenn beide ihr Design ungefähr gleich optimieren dann hat ATi mit VLIW def. einen Nachteil
Für normale Spieleshader wird es im Schnitt auf's gleiche rauskommen (mit dem VLIW spart man doch einiges an der Verwaltung) und bei vektorisierten GPGPU-Code (liegt z.B. schon als SSE-Version vor) würde ich es glatt bestreiten und sagen VLIW hat einen Vorteil dank der dann fast perfekten Ausnutzung der Einheiten.

Gipsel
2009-04-25, 07:25:33
1200 Shader klingt merkwürdig. Wenn man den Aufbau der Cluster unangetastet lässt, käme man auf 15 Cluster (mit jeweils 16x5 Shadern). Das ist schon ziemlich krumm und würde zudem auch nicht zu den 48TMUs passen. Wenn schon dann 60 TMUs. Es könnten von den TMUs ausgehend auch 12 Cluster sein, aber dann hätten wir 20x5 Shader pro Cluster (was wohl sehr ineffizient wäre, wie einige hier das erläutert mal hatten).

Also entweder sind die Specs BS (wohl am wahrscheinlichsten), oder ATI hat die Anordnung sehr stark verändert. Btw. wären 48TMUs sehr enttäuschend und gerade ATI hat ja bisher nicht gerade viele gehabt. 900 Mhz hören sich auch nach viel an, für ein komplexeren Chip als bisher.
Also ich wäre ja für eine glatte Verdopplung, 32 ROPs, 80 TMUs und 1600 SP. Einfach 20 SIMDs rein und fertig ist der Lack.
Allerdings dürfte es dann ziemlich eng mit dem Stromverbrauch (und erst recht der Speicherbandbreite) werden, da die 40nm bisher noch nicht so sparsam sind, um sich das erlauben zu können. Also wird es wohl ein Kompromiß werden, 16 SIMDs (1280 SPs), 64 TMUs und mit den ROPs muß man mal sehen. Das ist momentan schon ab und zu ein Flaschenhals, so daß bei einer 60% Aufstockung der restlichen Resourcen 100% Aufschlag bei den ROPs schon irgendwas bringen könnte.
Was wollte man denn sonst machen? Takt hochprügeln, um die Pixelfüllrate anzuheben bringt ja nichts, da dann ja auch die Shader schneller takten. Halbwegs annehmbar wären wohl auch weiterhin 4 ROPs pro RBE und Speichercontroller, aber dann zur Abwechslung mal den nVidia-Weg einschlagen und einen 384Bit Speichercontroller (6 x 64Bit und damit 24 ROPs) einbauen? Da glaube ich nicht dran. Eher kommt aufgezwirbelter GDDR5 mit 1200MHz oder sogar noch mehr, um bei der Speicherbandbreite und weiterhin 256 Bit halbwegs mithalten zu können, dazu eventuell moderat vergrößerte Caches und dann muß das wohl reichen.

Gast
2009-04-25, 10:32:17
Es sieht besser aus und kostet mehr. Und auf einer Radeon würde es mehr kosten als auf einer Radeon Geforce. Ergo ist eine Geforce bei gleicher BQ schneller.
Bei R(V)6xx stimmt das, ebenso bei alten Spielen auch für RV7xx, aber nicht bei neueren, dass was der RV7xx bei der Texturierung verliert holt er bei der Shaderberechnung wieder raus (dh Tex hinter Arithmetik verstecken).
Die Architekturen sind zu Unterschiedlich als dass man einfach die Zahlen vergleichen könnte ;)

Coda
2009-04-25, 10:49:51
Ich rede überhaupt nichts schlecht. NVs "HighQuality" ist sehr gut und der Grund warum ich einen NV-Karte habe. Gebencht wird aber mit "Quality", und das ist eben auch nicht sonderlich besser als AI_def.
Spiel mal bitte HL2 im Direktvergleich an bestimmten Stellen. Diese Behauptung regt mich massiv auf da Ati deutlich mehr flimmert. Das ist keine leere Behauptung. Selbst 16x unterfiltert ohne (!) AI schon belegbar mehr als 8x. Wie du auf der Basis mit ruhigem Gewissen solchen Schwachsinn von dir geben kannst ist mir echt unerklärlich.

deekey777
2009-04-25, 11:02:46
@NV/ATI - skalar/VLIW

Compiler ist Software, keine Hardware. Alles was von der Hardware in Software verlagert werden kann, ermöglicht die Ausführungseinheiten aufzubohren und damit die Performance zu steigern. Frage mal Intel nach dem Itanium *lol*
Okay, schlechtes Beispiel, der hat aber auch andere Ziele ;)

Na das kann man so nicht stehen lassen. Es gibt nur maximal einen Branch pro ALU-Clause (eigentlich sogar gar keinen ;)), d.h. auch nur einen pro VLIW-Einheit.
Außerdem ist im Moment ATI bei "branchy" code ziemlich fix dafür, daß sie mit doppelt so großen Vektoren (Wavefronts/Warps) arbeiten. Das liegt übrigens daran, daß das:

so nicht stimmt. Daß ist nur so eine Art effektive Latenz, wenn genügend Warps/Wavefronts laufen (durch die vierfache Breite der Vektoren im Vergleich zur Architektur ist es dann effektiv nur noch 1 Takt). Bei ATI haben die Shader halbwegs sicher eine physische Latenz von 8 Takten, man benötigt also zwei Wavefronts pro SIMD um keine Blasen in der Pipeline zu bekommen (von anderweitigen Latenzen jetzt mal abgesehen). Bei nVidia geht das allerdings eher in Richtung 20 Takte, wenn man den verfügbaren Informationen glauben kann. Hört sich jetzt erstmal nach sehr viel an, man muß aber auch bedenken, daß das Designziel bei den Einheiten nicht die gleichen sind wie bei CPUs, so kann man sich nicht die gleichen leakigen Transistoren für die doch sehr viel mehr Einheiten erlauben und setzt eher auf eine hohe Packungsdichte denn auf Geschwindigkeit. Aber so große Latenzen können bei Branches dann doch schon ganz schön kosten (man benötigt viel mehr Warps als Wavefronts, um das irgendwie zu füllen).

...
....
Es sind vier Takte bis zum Instruction-Wechsel (das sagt der Programming-Guide). Gleiches sagt man bei Nvidia (http://www.realworldtech.com/page.cfm?ArticleID=RWT090808195242&p=9).
Aber das mit den 20 Takten, habe ich irgendwo gehört.
Es gibt leider keinen vernünftigen Test, höchstens das: http://ixbtlabs.com/articles3/video/rv730-part1-p6.html

reunion
2009-04-25, 11:05:45
D.h. er sagt das Sie die DX11-Lösungen zusammen mit Windows 7 auf den Markt bringen wollen.....Window 7 kommt aber sicher nicht im Sommer (zumindest nicht im Sommer 2009;)).

BTW, Windows 7 schon im Juli: http://derstandard.at/?id=1240549722141

Spiel mal bitte HL2 im Direktvergleich an bestimmten Stellen. Diese Behauptung regt mich massiv auf da Ati deutlich mehr flimmert. Das ist keine leere Behauptung. Selbst 16x unterfiltert ohne (!) AI schon belegbar mehr als 8x. Wie du auf der Basis mit ruhigem Gewissen solchen Schwachsinn von dir geben kannst ist mir echt unerklärlich.

Das mag sein, doch ist es bei weitem nicht überall so wie in HL2. In Crysis ist AI_low vs. Quality sehr gut vergleichbar. Dazu gab es ausgiebige Tests von Raff. Die Filterqualität scheint ohnehin je nach Spiel stark zu schwanken.

igg
2009-04-25, 12:01:20
Naja... Microsoft sagt, es kommt im Fiskaljahr 2010 (das ist nichts neues), das im Juli beginnt. Analysten denken, Juli-August wäre gut. Das sagt nichts darüber aus, wann es tatsächlich kommt und passt immer noch zur Prognose im Q4 für den Handel.

Erstmal kommt ein RC am 30. April.

Coda
2009-04-25, 13:15:02
Das mag sein, doch ist es bei weitem nicht überall so wie in HL2. In Crysis ist AI_low vs. Quality sehr gut vergleichbar. Dazu gab es ausgiebige Tests von Raff. Die Filterqualität scheint ohnehin je nach Spiel stark zu schwanken.
Nur weil es in Crysis durch Shaderflimmern und Geometrie verdeckt wird ist es noch lange nicht in Ordnung oder tragbarer. Es geht entschieden zu weit ATI noch Zugeständnisse jeglicher Art in diese Richtung zu machen.

Es ist schlicht eine Verarschung und Schweinerei was da abgezogen wird vor allem in Verbindung mit Interview-Aussagen wie "AI senkt die Bildqualität nicht".

Das gleiche gilt auch für NVIDIA. Ich hoffe bloß sie halten ihre Filterqualität mit GT300. Weil gerade so Leute wie du machen es ihnen sehr schmackhaft sich das sehr genau zu überlegen. Das was man beim AF effektiv sparen kann ist nämlich weitaus mehr als das was man am Ergebnis vermuten würde.

Gast
2009-04-25, 13:20:52
Es ist schlicht eine Verarschung und Schweinerei was da abgezogen wird vor allem in Verbindung mit Interview-Aussagen wie "AI senkt die Bildqualität nicht".

Naja, dafür haben sie ja lockere 46% potentielle Texturleistung eingespart - fast das, was ihnen zu GT200 an echten TMUs fehlt. Da wundert's dann auch nicht, dass sie eine fantastische "performance pro mm²" haben. Oder sollte ich lieber sagen "Fps pro mm²"? Immerhin hat Leistung ja was mit verrichteter Arbeit zu tun, die sich Ati spart und die die Fanboys so toll finden.

y33H@
2009-04-25, 13:22:32
In Crysis ist AI_low vs. Quality sehr gut vergleichbar. Dazu gab es ausgiebige Tests von Raff.Nein.AI-def flimmert weit mehr als Q ... sieht man hier sehr schön. Das Bild ist auf der Radeon stark unterfiltert und flimmert in Bewegung stärker:

http://www.abload.de/img/geforcegtx260_q58ph.png http://www.abload.de/img/radeonhd4870_ai-defm0fu.png

Comment von Raff hierzu: Die Algorithmen unterfiltern, sparen also Samples/Berechnungen ein. Unterfilterung ist gleichzusetzen mit Flimmern. Das mag auf Bildern toll aussehen (siehe Crysis auf der Radeon), flimmert in Bewegung jedoch stark.

pest
2009-04-25, 13:31:02
wenn ihr diese endlose Diskussionen schon aufrecht erhalten wollt, dann
verwendet bitte das Wort "Unterabtastung" - Unterfilterung ist anscheinend eine 3DCenter-Eigenkreation und spiegelt den Sachverhalt nicht wieder

Gipsel
2009-04-25, 13:50:06
Es sind vier Takte bis zum Instruction-Wechsel (das sagt der Programming-Guide). Gleiches sagt man bei Nvidia (http://www.realworldtech.com/page.cfm?ArticleID=RWT090808195242&p=9).
Aber das mit den 20 Takten, habe ich irgendwo gehört.
Das kenne ich alles. Allerdings sagt der Programming Guide auch, daß man 6 aktive Warps pro Einheit benötigt, um die ALU-Latenzen vollständig zu verstecken. In den CUDA-Foren hat man sich übrigens auf 22 Takte Latenz geeinigt ;)
Es gibt leider keinen vernünftigen Test, höchstens das: http://ixbtlabs.com/articles3/video/rv730-part1-p6.htmlDas sind leider zum größten Teil TMU-limitierte Shader. Und da hat die 4670 nunmal doppelt so viele von. Nur die letzten beiden (Mineral und Fire) sind wohl Compute bound. Und da liegt die HD4670 gerade mal 10% vor der 3870 (untertaktet auf die 750MHz der 4670).

samm
2009-04-25, 14:58:17
Es ist schlicht eine Verarschung und Schweinerei was da abgezogen wird vor allem in Verbindung mit Interview-Aussagen wie "AI senkt die Bildqualität nicht".

Das gleiche gilt auch für NVIDIA. Ich hoffe bloß sie halten ihre Filterqualität mit GT300. Weil gerade so Leute wie du machen es ihnen sehr schmackhaft sich das sehr genau zu überlegen.Der letzte Satz passt im Zusammenhang mit reunion doch gar nicht, denn er hat sich trotz der Tendenz, ATI zu verteidigen, wegen der Filterqualität eine nVidia geholt ;)

So, ich bin gespannt auf mehr Aussagen bezügl. R8xx statt nVidia vs. ATi... :cool:

Gast
2009-04-25, 17:34:56
Darf man die Community auf folgene Beitrag hinweisen:
http://www.heise.de/newsticker/Grafik-Geruechte-AMDs-DirectX-11-Chip-nur-verbesserter-RV770--/meldung/136782

Sorkalm
2009-04-25, 17:50:43
Im Gespräch mit Heise Online behauptete ein Brancheninsider mit Kontakten zu Entwicklern, dass das Tape-Out des RV870 längst vollzogen sei und AMD bereits über Testboards verfüge. Selbst in Europa sollen bereits zwei herumschwirren.

(Quelle: Link von Heise über mir)

Hmm, das ginge dann wirklich schnell...

KonKorT
2009-04-25, 18:31:15
Na klar hat der RV870 schon sein Tape-Out. Wie sollten sonst jetzt schon Taktfrequenzen durchgesickert sein und der Launch in wenigen Wochen stattfinden?

Ailuros
2009-04-26, 14:19:23
1200 Shader klingt merkwürdig. Wenn man den Aufbau der Cluster unangetastet lässt, käme man auf 15 Cluster (mit jeweils 16x5 Shadern). Das ist schon ziemlich krumm und würde zudem auch nicht zu den 48TMUs passen. Wenn schon dann 60 TMUs. Es könnten von den TMUs ausgehend auch 12 Cluster sein, aber dann hätten wir 20x5 Shader pro Cluster (was wohl sehr ineffizient wäre, wie einige hier das erläutert mal hatten).

60TMUs waeren sinnvoller wenn man die 32 ROPs in Betracht nimmt. Wieso eine so moderate Steigerung der Texelfuellrate und eine so enorme Steigerung der Pixelfuellrate?


Also entweder sind die Specs BS (wohl am wahrscheinlichsten), oder ATI hat die Anordnung sehr stark verändert. Btw. wären 48TMUs sehr enttäuschend und gerade ATI hat ja bisher nicht gerade viele gehabt. 900 Mhz hören sich auch nach viel an, für ein komplexeren Chip als bisher.

Zur Frequenz waere ich nicht so sicher, nach der RV790@55nm (sprich "ichhabmeinenTeigbreiterausgewaltzt"...) Erfahrung.

RV870 soll bis zu 2*RV770 Leistung erreichen. Die sterile Zahlenwaerkelei gilt auch hier wie auf GT3x0.

IC3M@N FX
2009-04-26, 14:33:40
Na klar hat der RV870 schon sein Tape-Out. Wie sollten sonst jetzt schon Taktfrequenzen durchgesickert sein und der Launch in wenigen Wochen stattfinden?


Wenn es wirklich so ist das RV870 eine sache von paar Wochen bzw. 1-2 Monate braucht bis zum Launch dann verstehe ich den sinn von HD4890 nicht das ist doch rausgeschmissenes Geld oder?

Gast
2009-04-26, 14:35:40
Wofür genau sind 16 Pixel pro Takt bei einer Taktrate von 750 MHz per se nicht ausreichend?

Immerhin füllt man damit selbst ein 4,096 MPix großes Bild über 2900 mal pro Sekunde. ;)


Carsten

Gast
2009-04-26, 14:39:19
Wenn es wirklich so ist das RV870 eine sache von paar Wochen bzw. 1-2 Monate braucht bis zum Launch dann verstehe ich den sinn von HD4890 nicht das ist doch rausgeschmissenes Geld oder?
Eine 4890 für 220€ wirft deutlich mehr Gewinn als eine 4870 für 130€ ab.

robbitop
2009-04-26, 15:08:17
Wofür genau sind 16 Pixel pro Takt bei einer Taktrate von 750 MHz per se nicht ausreichend?

Immerhin füllt man damit selbst ein 4,096 MPix großes Bild über 2900 mal pro Sekunde. ;)


Carsten
Es wird ja nicht nur einmal pro Bild in den Framebuffer geschrieben. Es wird etliche Male geschrieben und gelesen.

Gast
2009-04-26, 15:26:47
Darf man die Community auf folgene Beitrag hinweisen:
http://www.heise.de/newsticker/Grafik-Geruechte-AMDs-DirectX-11-Chip-nur-verbesserter-RV770--/meldung/136782

Das kann ich nicht glauben. Denn bei 48 TMUs, würde man auf 12 SIMDs kommen und jeder SIMD müsste dann über 20 !!! (5Vec)Alus kommen. Da aber 20 kein vielfaches von 4 ist und quads berechnet werden, kann das nicht hinhauen...

Gast
2009-04-26, 15:28:21
Edit : Es kann schon hinhauen, aber würde nix bringen und es kann Probleme geben. Wenn dann hat man 16 SIMD und 5 Vec 256 Shader

_flx
2009-04-26, 15:30:01
wieso ist 20 kein Vielfaches von 4 O_O

Gast
2009-04-26, 16:49:25
Es wird ja nicht nur einmal pro Bild in den Framebuffer geschrieben. Es wird etliche Male geschrieben und gelesen.
Ich weiß, daher auch das "per se".

Ailuros
2009-04-27, 08:43:19
Es wird ja nicht nur einmal pro Bild in den Framebuffer geschrieben. Es wird etliche Male geschrieben und gelesen.

Ich hab irgendwo etwas von einem angeblichen dual tri-setup gelesen; wenn ich mich nicht irre koennte in diesem Fall das Ganze vielleicht schon Sinn machen und es passt auch schoen zu meiner These dass viele die groessten Steigerungen fuer D3D11 nicht unbedingt nur in den ALUs erwarten sollten ;)

***edit:

hmmm....

http://forum.beyond3d.com/showpost.php?p=1289139&postcount=426

A side effect of 20-wide SIMDs is that the ROPs have to work for 25% longer to handle writeout for a batch.

Coda
2009-04-27, 12:50:08
Es gibt dafür aber auch weniger Batches. Nur weil die Granularität verändert wird gibt's nicht auf einmal mehr Quads.

Gast
2009-05-01, 09:26:48
Also das Spielchen wird sich wahrscheinlich wiederholen. Nvidia bringt ein Monsterchip, während Ati gleich zu Beginn eine X2 rausbringt. Dann merkt Nvidia, dass deren schnellste Karte nicht gegen die X2 ankommt und bringt ebenfalls eine Dual-GPU-Karte raus.

Die Frage ist, ob Nvidia aus der aktuellen Generation etwas gelernt hat und ob sie den GT300 schon in der Entwicklung so optimiert haben, dass damit auch "sinnvolle" Dual-GPU-Karten möglich sind. Da der GT300 aber nach wie vor 512-Bit-Speicheranbindung haben soll, wird das schwierig bleiben.

5-7GBit/s mit 512 Bit wäre eigentlich schon zu krass.

igg
2009-05-01, 09:41:17
Die Frage ist, ob Nvidia aus der aktuellen Generation etwas gelernt hat und ob sie den GT300 schon in der Entwicklung so optimiert haben, dass damit auch "sinnvolle" Dual-GPU-Karten möglich sind. Da der GT300 aber nach wie vor 512-Bit-Speicheranbindung haben soll, wird das schwierig bleiben.
Wieso istz die GTX295 nicht sinnvoll? Im idle hat sie weniger Abwärme als eine HD4850m ebenso unter Last (Quelle (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/23/#abschnitt_temperatur))

Unter Last verbraucht sie weniger Strom als eine X2, im Idle sogar weniger als eine 4870 (Quelle (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/24/#abschnitt_leistungsaufnahme)).

Und in der Performance lässt sie außer beim 8xAA die Konkurrent weit hinter sich (Quelle (http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/20/#abschnitt_performancerating)).

Seriöse Quellen zu den Produktionskosten/Margen sind mir leider nicht bekannt, ich vermute aber, dass die Gewinnspanne bei ATI größer ist.

@topic: Ich hatte eigentlich die Hoffnung, dass der RV870 ein ehrgeizigerer Chip ist als es der RV770 war. Ich hoffe mal, dass die aktuellen Gerüchte falsch sind.

mboeller
2009-05-01, 10:40:09
@topic: Ich hatte eigentlich die Hoffnung, dass der RV870 ein ehrgeizigerer Chip ist als es der RV770 war. Ich hoffe mal, dass die aktuellen Gerüchte falsch sind.

Wieso sollte AMD die Strategie ändern? Beim RV770 hat sie doch sehr gut funktioniert

reunion
2009-05-01, 11:05:56
Das Ding wird natürlich wieder ein Chip im Performancesegment mit einem target price von $299 für das Topmodell und $199 für den niedriger getakteten Chip. Diese Strategie haben geleakte AMD-Folien ja ganz klar gezeigt und das zeigt auch alleine schon der Codename RV870. Darüber kommt wieder eine X2.

Gast
2009-05-01, 11:09:03
... kommt wieder eine X2.

Mit verfeinerter Multi-GPU Technik (ex R700)?

AnarchX
2009-05-01, 11:16:35
Das Ding wird natürlich wieder ein Chip im Performancesegment mit einem target price von $299 für das Topmodell und $199 für den niedriger getakteten Chip. Diese Strategie haben geleakte AMD-Folien ja ganz klar gezeigt und das zeigt auch alleine schon der Codename RV870. Darüber kommt wieder eine X2.

Womit NV mit einem vernünftigeren GT300 wohl bessere Chancen haben sollte, diesen im High-End bis Ultra-High-End mit entsprechenden Preisen zu positionieren und dort zu halten.

Stellt sich die Frage, ob man zu RV770XT zu RV870XT wieder eine ähnliche Steigerung, wie bei RV670XT zu RV770XT erreicht.

Captain Future
2009-05-01, 11:26:58
Mit verfeinerter Multi-GPU Technik (ex R700)?
Vielleicht wieder mit Sideport, der ja im RV740 abgetrieben wurde?

reunion
2009-05-01, 11:27:25
Womit NV mit einem vernünftigeren GT300 wohl bessere Chancen haben sollte, diesen im High-End bis Ultra-High-End mit entsprechenden Preisen zu positionieren und dort zu halten.

Stellt sich die Frage, ob man zu RV770XT zu RV870XT wieder eine ähnliche Steigerung, wie bei RV670XT zu RV770XT erreicht.

Ja, ein großer Single-Chip ist zwei kleineren Chips in CF bei gleicher insgesamter Die-Größe theoretisch natürlich klar überlegen. Allerdings ist das theoretisch immer leicht gesagt. Wenn es so einfach wäre wurde AMD auch heute noch solche Monsterchips herstellen. Momentan sieht es so aus als ob AMD mit RV870 mindestens ein Quartal früher dran wäre und nV im Q4 mit GT300 dann gegen das gesamte DX11-Lineup von AMD antreten kann. Da wird man wohl Probleme in den unteren Preissegmenten bekommen.

Das unter der Voraussetzung das man bei nV eine ähnlich Performance/mm² wie AMD erreicht, sonst hat man wieder das gleiche Spiel wie diesmal. Mit Rv870 wieder eine solche Steigerung wie mit RV770 zu erreichen dürfte für AMD allerdings schwer werden, da DX11 doch einiges Transistoren fressen dürfte und man das Die ja nicht größer machen will. Also da müsste es schon in der Architektur deutliche Verbesserungen geben.

igg
2009-05-01, 11:27:34
Wieso sollte AMD die Strategie ändern? Beim RV770 hat sie doch sehr gut funktioniert
Hat, aber nach einer leichten Steigerung im Q408 muss AMD wieder Federn lassen: Grafikmarkt: Intel und Nvidia bauen Anteile aus (http://www.computerbase.de/news/allgemein/studien/2009/april/grafikmarkt_intel_nvidia_anteile/).

Ich bin mal gespannt wieviel der RV790 reißt, aber ich vermute nicht alzuviel, da dieses Marktsegment keinen so großen Einfluss auf das Gesamtvolumen hat.

Sorkalm
2009-05-01, 11:29:53
Hat, aber nach einer leichten Steigerung im Q408 muss AMD wieder Federn lassen: Grafikmarkt: Intel und Nvidia bauen Anteile aus (http://www.computerbase.de/news/allgemein/studien/2009/april/grafikmarkt_intel_nvidia_anteile/).

Wobei das der Gesamtmarkt ist. Man bräuchte man eine Übersicht nur sowohl diskreter GPUs zum einem, und dann diese am besten auch noch mal nach Marktsegmenten aufgeschlüsselt. ;)

horn 12
2009-05-01, 13:17:36
Denke die 58x0 X² mit VIEL VERBESSERTEN Multi GPU Lösung könnte NV als SingleChip Lösung das Leben arg schwer machen...
Zumal der RV870 weitaus günstiger zu haben sein wird,- und der Markt auch schon teil gesättigt von AMS-ATI DX11 Karten zum Release der NV Boliden.

Ob es eine NV X²-er Karte von NV geben wird wage ich zu bezweifeln bei so einem Monsterchip.
Da wird diesmal wohl NV über den Preis gehen müssen, falls die 58x0 X² voATI gar um einiges Flotter als die Single GPU Karte von Nvidia werden SOLLTE!

Psychopat
2009-05-01, 14:18:19
Ich denke am Markt wird sich durch die neue Generation wenig ändern. AMD hat die bessere Performancelösung (hier zählt vor allem der Preis), nVidia gehört das high end segment.

An verbessertes multi GPU bei ner X2 glaub ich erst wenn ich es sehe. Momentan traue ich da eher nVidia eine Lösung zu, bei denen werden muRuckler als Problem anerkannt und auch schon merklich dran gearbeitet (Treiber).

Gast
2009-05-01, 16:00:11
AMD hat die bessere Performancelösung (hier zählt vor allem der Preis), nVidia gehört das high end segment.
Welche Karten meinst du?

3450, 3470, 3650, 3850, 3870, 4350, 4550, 4650, 4670, 4770, 4830, 4850, 4870 oder 4890?

Auf den ersten Blick ist es schwer dahinterzukommen, welche du meinst, das sie besser dastehen würden.

Gast
2009-05-01, 16:19:22
Denke die 58x0 X² mit VIEL VERBESSERTEN Multi GPU Lösung
Ach herrlich, genau die selben Worte wurden schon zu 3870 X2, 4850 X2, 4870 X2 und 4890 X2 behauptet.
Am Ende gabs wie erwartet stinknormales CF, welch Überraschung.

Pass gut auf, am Ende kopiert ein fleissiger Newskopierer deine Worte und News "die 5870 X2 hat die ÜberMGPU Technik" schwirrt durchs Netz.


Ob es eine NV X²-er Karte von NV geben wird wage ich zu bezweifeln bei so einem Monsterchip. Wie die GTX 295 bezweifelt wurde?
Hm, warum sollte mit "Monsterchips" keine X2 geben? Abwärme wars nicht, Kosten auch nicht, was bleibt?



könnte NV als SingleChip Lösung das Leben arg schwer machen...
Zumal der RV870 weitaus günstiger zu haben sein wird,- und der Markt auch schon teil gesättigt von AMS-ATI DX11 Karten zum Release der NV Boliden.Keine Sorge, AMD war jahrelang deutlich hinter NV:

6800 Ultra vs X800 XT, 7800 GTX vs X1800 XT, 8800 GTX vs 2900 XT, (8800 Ultra vs 3870 X2, 4870 X2 vs GTX 280).


7800 GTX vs X850 XT PE, 8800 GTX vs X1950 XTX, 8800 Ultra vs 2900 XT, .... all dort war NV deutlich schneller aufgestellt.


Sorgen muss man sich nicht machen, Nvidia wird die GTX 285/295 noch ein Stück beschleunigen und damit einige Monate gut gegen 58xx antreten können.
AMD/ATis Vergangenheit lehrt uns, das dies kein Problem ist und das es ein kleines Performanceupdate seitens Nvidia geben wird.

Nakai
2009-05-01, 16:32:14
Das unter der Voraussetzung das man bei nV eine ähnlich Performance/mm² wie AMD erreicht, sonst hat man wieder das gleiche Spiel wie diesmal. Mit Rv870 wieder eine solche Steigerung wie mit RV770 zu erreichen dürfte für AMD allerdings schwer werden, da DX11 doch einiges Transistoren fressen dürfte und man das Die ja nicht größer machen will. Also da müsste es schon in der Architektur deutliche Verbesserungen geben.

Naja RV670 und RV770 waren schon in 55nm, natürlich ein anderer Prozess, aber dennoch nicht so weit auseinander. Nun haben wir 40nm, was eine deutliche Steigerung verspricht.

Ich gehe davon aus, dass der RV870 um die 300mm² hat.


mfg Nakai

Gast
2009-05-01, 18:30:48
300mm² auf teuren 40nm Wafern in Verbindung mit nicht der optimalsten Yield sorgt nicht gerade für einen Kostenvorteil.

reunion
2009-05-01, 18:33:08
300mm² auf teuren 40nm Wafern in Verbindung mit nicht der optimalsten Yield sorgt nicht gerade für einen Kostenvorteil.

Wenn der Konkurrent dasselbe mit 600mm² bringt sehrwohl.

=Floi=
2009-05-01, 18:58:26
300mm² sind doch absolut harmlos und in jeder hinsicht konkurrenzfähig. Darin könnte ati ca. 1,7mrd transistoren unterbringen und das sollte reichen um mit nvs mittelklasse sehr gut mithalten zu können.

Ailuros
2009-05-01, 22:43:17
Wenn der Konkurrent dasselbe mit 600mm² bringt sehrwohl.

...und was wenn der Unterschied in Realitaet etwas ueber 40% liegen sollte?

dargo
2009-05-01, 22:52:40
...und was wenn der Unterschied in Realitaet etwas ueber 40% liegen sollte?
Du meinst der GT300 soll bei nur ca. 420mm² liegen? Oder hat NV als Gegenstück für den RV870 außerhalb vom GT300 was in der Hinterhand?

Ailuros
2009-05-01, 22:56:03
Du meinst der GT300 soll bei nur ca. 420mm² liegen?

Ein Glas kann halbvoll oder halbleer sein. Wer garantiert Euch ueberhaupt momentan irgendwelchen die size? Weder 300 noch 600 stimmt fuer A oder B.

Fuer 2009 afaik wird es nur eine GT3x0 geben; high end SKU.

Captain Future
2009-05-01, 23:47:46
High-End as in Ultra-Enthusiast? ;)

Gast
2009-05-01, 23:55:41
Wenn der Konkurrent dasselbe mit 600mm² bringt sehrwohl.
Der Konkurrent steht später auf der Matte und bringt keine 600mm².
Das weißt du auch.
AMDs teurer 40nm Klotz muss erstmal gegen GT200b kämpfen.

Wenn Nvidia irgendwann ein 400-500mm² Gefährt startet, nur dann hat AMD einen Preisvorteil, den sie auch gleich nutzen müssen, weil sie einen Leistungsnachteil haben.

Ailuros
2009-05-02, 00:42:21
High-End as in Ultra-Enthusiast? ;)

Ultra Enthusiast ist IMHLO eher die GTX295 oder jeglicher dual-wasauchimmer Unsinn. Dass ich single core high end meinte sollte wohl klar sein.

Hugo
2009-05-02, 09:54:02
...und was wenn der Unterschied in Realitaet etwas ueber 40% liegen sollte?

@Ailuros
kennst du die genau Die-Size von RV870, GT300 und LRB?

Redneck
2009-05-02, 10:17:09
Du meinst der GT300 soll bei nur ca. 420mm² liegen? Oder hat NV als Gegenstück für den RV870 außerhalb vom GT300 was in der Hinterhand?

dann würde die Wahrscheinlichkeit eines großen Performance Leaps gegenüber AMD geringer ausfallen. NV koennte die Chips zwar verglichen zur jetzigen Generation günstiger auf den Markt schmeissen, allerdings mit dem Malus
dies erst 1 Quartal später zu koennen.
So oder so... beide Karten werden Ihre Käufer finden.
Für uns Konsumenten ist nur ärgerlich, das man nicht im Vorfeld weiß. was
beide Karten wirklich bringen und man sich so evtl. unnötige Wartezeit sparen kann (NV wird bei RV870 launch wieder reichlich Nebelkerzen zuenden (nicht negativ gemeint.. macht AMD ja genauso) um potentielle Käufer bei der Stange zu halten).
Für mich persönlich würde ein Leistungsschub von 50% im Vergleich zur aktuellen Generation bereits als Kaufanreiz ausreichen ( da ich noch eine 8800GT betreibe und mir wieder eine Karte im selben Preissegment holen
werde). Habe mich deshalb erst einmal auf die neue Radeon eingeschossen..
(1. erscheint früher,2. bingt ausreichend Potenz mit, 3. paßt zu dem Preis Budget, welches ich mit gesetzt habe).

Gruß

dargo
2009-05-02, 10:26:52
Ein Glas kann halbvoll oder halbleer sein. Wer garantiert Euch ueberhaupt momentan irgendwelchen die size? Weder 300 noch 600 stimmt fuer A oder B.

Immer dieses Rätselraten bei dir. :biggrin:
Ok, dann gehst du davon aus, dass der RV870 an ca. 400mm² kommt? Ich meine mich zu erinnern, dass du den GT300 auf ~575mm² einschätzst. ;)

AnarchX
2009-05-02, 10:44:52
300mm² wäre wohl für einen RV870 doch etwas groß unter der Vorraussetzung, dass AMD diesmal wirklich auf MCMs setzt und eben der $299 Bereich mit einer SKU mit einem MCM besetzt wird, während bei $499+ zwei MCMs zum Einsatz kommen.

Dazu würde wohl auch eher ein ~200mm² Chip mit der aktuell spekulierten eher moderaten Erhöhung auf ~48TMUs/1200SPs passen.
Zumal es auch zu AMDs Aussage passen würde, dass man bis zum Q4 ein komplettes D3D11-Lineup hat.
Eben RV870 von einem bis vier Chips von $99 bis $499+ und dann halt noch einen RV810/RV820 (<100mm²) für das Low-End.

Gast
2009-05-02, 10:54:46
Was soll AMD eigentlich in dieser Generation "retten"? Dass RV770 so gut angekommen ist, war doch nur der Verkettung glücklicher Umstände zu verdanken. Dieses Mal ist so etwas nicht in Sicht und AMD muss wieder aus eigener Kraft versuchen, dagegenzuhalten.

Advanced
2009-05-02, 10:56:23
AMDs teurer 40nm Klotz muss erstmal gegen GT200b kämpfen.

Weil es eine Zeit lang keine Konkurrenz in Form des GT300 gibt, oder wie meinst du das?
Leistungsmäßig kannst du es ja nicht gemeint haben. Der RV770/790 bzw der R700 sind ja bereits stark genug, um annähernd mitzuhalten.

Dass RV770 so gut angekommen ist, war doch nur der Verkettung glücklicher Umstände zu verdanken. Dieses Mal ist so etwas nicht in Sicht und AMD muss wieder aus eigener Kraft versuchen, dagegenzuhalten.

Die da wären?

AnarchX
2009-05-02, 11:06:42
Was soll AMD eigentlich in dieser Generation "retten"? Dass RV770 so gut angekommen ist, war doch nur der Verkettung glücklicher Umstände zu verdanken. Dieses Mal ist so etwas nicht in Sicht und AMD muss wieder aus eigener Kraft versuchen, dagegenzuhalten.
Tiefgreifende Architekturveränderungen oder vielleicht wirklich ein Multi-Chip-Module(MCM)-Design?

Mal von dem MCM ausgehend:

RV870-MCM:
-48 TMUs
-960SPs (höhere Effizienz?)
-128 bis 192-Bit GDDR5
-16 ROPs (128Z?)
-D3D11
-MCM-Logik
~ ein Die knapp unter bzw. um 200mm² @ 40nm ~ 1200M Transistoren

Gehen wir nun davon aus, dass durch das MCM-Konzept der Speicher gemeinsam verwendet wird und vielleicht einen Skalierung von 80% ohne AFR? erreicht wird.

Da würde ein RV870-MCM@ moderaten 750MHz schon etwas mehr als die doppelte GPU-Leistung einer HD4870 besitzen. Mit einer eher schlechten Crossfire-Skalierung von 60% zwischen den zwei MCM-Packages dann auf der $499+ SKU wäre man schon bei fast 3.5-facher HD4870-Leistung. Und mit höherem Takt und besseren Skalierungsfällen, wäre hier wohl ein Faktor 4 drin.

igg
2009-05-02, 11:14:18
Ich kann mir beim besten Willen nicht vorstellen, dass AMD ein brauchbares und zugleich überlegenes MCM realisiert. Allein schon wenn man schaut wie die ATI in R&D dezimiert haben.

AnarchX
2009-05-02, 11:20:09
Ich kann mir beim besten Willen nicht vorstellen, dass AMD ein brauchbares und zugleich überlegenes MCM realisiert. Allein schon wenn man schaut wie die ATI in R&D dezimiert haben.

Wenn man sich so manche Andeutungen und Gerüchte aus der Vergangenheit anhört, dann gab es doch schon einige Forschung bei AMD in diese Richtung.
Bleibt natürlich die Frage, wie groß der Umfang wirklich war und wie die Resultate aussahen.

Gast
2009-05-02, 11:42:13
Weil es eine Zeit lang keine Konkurrenz in Form des GT300 gibt, oder wie meinst du das?
Ja.

So wie es auch früher nicht gleichzeitig neue Chipgenerationen der IHVs released wurden.


Leistungsmäßig kannst du es ja nicht gemeint haben. Der RV770/790 bzw der R700 sind ja bereits stark genug, um annähernd mitzuhalten.
Teils schon.
Die GTX 295 wird weiterhin gut mithalten, ausgenommen der neuen X2, GTX 285 wird gegen kleinere RV870 Ableger antreten.

igg
2009-05-02, 11:53:11
Die GTX 295 wird weiterhin gut mithalten, ausgenommen der neuen X2, GTX 285 wird gegen kleinere RV870 Ableger antreten.
Das wäre an sich nicht so schlimm für Nvidia, da die größten Umsätze wohl nicht im Highend/Enthusiasten Segment erzielt werden. Allerdings stelle ich es mir für die GTX285 schwierig vor, in Kategorien wie P/L, Verbrauch und Produktionskosten mit kleinen RV870 Ablegnern konkurrieren zu können.

Im Moment hat Nvidia das Glück, dass (aus mir unbekannten Gründen) sehr viele PCs von der Stange auf 9800 GT & Co setzen anstatt die kleinen RV770 Ableger.