PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GT200 - Neues Highend von NV im Q3 2008? [Teil 3]


Seiten : 1 2 3 4 5 [6] 7 8

Nightspider
2008-05-27, 01:27:21
Hatten wir das schon ?

Natural Motion nutzt Nvidia PhysX für Football-Simulation Backbreaker

http://www.pcgameshardware.de/aid,644951/News/Natural_Motion_nutzt_Nvidia_PhysX_fuer_Football-Simulation_Backbreaker/

http://www.pcgameshardware.de/screenshots/medium/2008/05/PCGH_NaturalMotion_Backbreaker_Game_04.jpg

tombman
2008-05-27, 02:37:23
Bei all der ganzen Euphorie (;)) habe ich eher Bedenken, ob viele games diese Techniken einsetzen werden. Was nützt geilstes Cuda PHYS-X, wenns ATI nicht hat?
Kommt doch so nie in ein AAA game hinein.
Im Endeffekt heißts ja dann doch wieder "kleinster, gemeinsamer Nenner", also billigste Konsolenports...

dildo4u
2008-05-27, 03:43:45
GTA4 nutzt ja schon Euphoria mit 20-30 Passanten gleichzeitig und das Footballs Spiel ist auch ein Konsolenspiel.Soo aufwändig ist die Berechnung also eh nicht.Für den Rest Explosionen Partikel ect ist immer noch Havok 4.0 zuständig bei den meisten Titeln.

kruemelmonster
2008-05-27, 10:10:16
...
Was nützt geilstes Cuda PHYS-X, wenns ATI nicht hat?
...

Dann isses ATI's Schuld. NV gibt PhysX-over-CUDA explizit für andere IHVs frei, natürlich mit dem Hintergedanken mit ATI zusammen gegen die Multicore Armada von Intel samt ihrem Havok Marktanteile zu erreichen.
Man liest auf den Powerpoint Folien zur HD 48x0 Serie ja von Physikbeschleunigung, da halte ich einen Alleingang ATIs für unwahrscheinlich weil sinnfrei. Wenn der GPU Physikmarkt in PhysX-over-CUDA und PhysX-somehow-at-ATI splittern würde hätte Intel ein zu leichtes Spiel Havok durchzudrücken. Und das wollen weder NV noch AMD.

/edit:

Muchas Gracias @ deekey777 für den Link ins B3D Forum vor einigen Seiten. Sehr aufschlussreiche Diskussion.

Odal
2008-05-27, 10:58:09
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6433023&postcount=44

@Gast: Die Mail wird älter sein als die Infos vom Editor's Day.

na klar 23FPS 88GTS 512MB und 130FPS GT200....

da haben sie längst die implementierung verändert denn das ist technisch unmöglich...

Godmode
2008-05-27, 11:17:13
na klar 23FPS 88GTS 512MB und 130FPS GT200....

da haben sie längst die implementierung verändert denn das ist technisch unmöglich...

Es macht einfach keinen Sinn darüber zu urteilen, wenn man nicht genau weiß was ein einzelner SP kann (Ailurus TM).

Odal
2008-05-27, 11:23:20
ja klar sie haben natürlich den GT200 nicht nur breiter gemacht sondern die architektur komplett verändert...so das die ALUs pro stück plötzlich mindestens 3 mal so schnell rechnen (trotz geringerem takt versteht sich)

ihr glaubt wohl auch noch an den weihnachtsmann

bei dem encoding sind entweder die settings anders oder die implementierung ist anders...oder gar beides

Godmode
2008-05-27, 11:25:24
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/superpi_cuda_nvidia-gpu-tauglich/

Die Marketingmaschine läuft auf Hochturen! ;D

AnarchX
2008-05-27, 11:28:50
na klar 23FPS 88GTS 512MB und 130FPS GT200....

da haben sie längst die implementierung verändert denn das ist technisch unmöglich...

Bei der japanische Folie sind es keine FPS sondern Sekunden. ;)

Anarchy-HWLUXX
2008-05-27, 11:30:29
Ohne gescheites Marketing gehen heutzutage auch gute Produkte unter ... und mit richtigem Marketing wird auch Kacköööö Gold.

Ergo - Gut so nV :ucatch: Zeigt der Welt das GPUs alle draufhaben :D

Die_Allianz
2008-05-27, 11:45:53
Mensch tumbman, jetzt beruhig dich mal wieder. Inzwischen bejubelst du schon so nen folding client. Wenn es morgen heisst das ding kann auch SuperPi dann gehst du hoffentlich nicht durch die decke.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/superpi_cuda_nvidia-gpu-tauglich/

Die Marketingmaschine läuft auf Hochturen! ;D

SEHR GEIL ;D

Gast
2008-05-27, 11:48:01
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/superpi_cuda_nvidia-gpu-tauglich/

Die Marketingmaschine läuft auf Hochturen! ;D


Es ist soweit. Tombman, dein Einsatz bitte :)

Nightspider
2008-05-27, 11:48:14
SEHR GEIL ;D

Dacht ich mir auch gerade, ich war nur zu faul, das Zitat zu suchen ;D

AnarchX
2008-05-27, 12:24:08
New Nvidia GFX cards used to encode HD videos 2xReal Time (http://www.youtube.com/watch?v=8C_Pj1Ep4nw)

Gast
2008-05-27, 12:32:21
New Nvidia GFX cards used to encode HD videos 2xReal Time (http://www.youtube.com/watch?v=8C_Pj1Ep4nw)

machen die da auch eine angabe zur auflösung?

Adam D.
2008-05-27, 12:36:41
machen die da auch eine angabe zur auflösung?
720p?

Naja, das ist schon mehr als beeindruckend, muss ich sagen. Bin mal gespannt, was der Endkunde letztendlich wirklich davon hat.

AnarchX
2008-05-27, 12:41:47
Naja, das ist schon mehr als beeindruckend, muss ich sagen. Bin mal gespannt, was der Endkunde letztendlich wirklich davon hat.

Wird wohl bald den BadaBOOM Media Encoder für ~$50 zum Kauf geben bzw. kann ich mir auch vorstellen, dass NV es mit der Karten bundelt.

Moralelastix
2008-05-27, 12:53:37
720p nach IPhone, pff...

Was hat das IPhone 480x320??

dildo4u
2008-05-27, 12:55:07
Wie deekey schon mal schrieb erstmal abwarten wie die Qualität ist der GPU Encoder von ATI war auch recht flott aber die Qualität der encodeten Clips leidete stark.Hoffentlich bietet der Encoder da ein paar Einstellungen an wo man ein bissel länger encodet dafür aber keine Arktefate etc. hat.

Gast
2008-05-27, 12:56:51
also so beeindruckend find ich das jetzt auch nicht...
wird da in ein oder in zwei pass umgewandelt?
super schnell konnte das schon jede 1900er nur die quallie war halt unter aller sau

Moralelastix
2008-05-27, 13:02:04
Das zweite Video in Adobe Premiere da sprechen von 1080 h264 fast in realtime.

Und das es mit der Anzahl der Streamingeinheiten skaliert.

Leck mich fett!

dildo4u
2008-05-27, 13:03:42
Das zweite Video in Adobe Premiere da sprechen von 1080 h264 fast in realtime.
Nein fast 2mal Realtime 54fps sagt er im Video.Ist ein 1080i MPEG2 Clip mit 25Mbit Bittrate im Schnitt der in h264 umgewandelt wird.

Adam D.
2008-05-27, 13:05:25
Wird wohl bald den BadaBOOM Media Encoder für ~$50 zum Kauf geben bzw. kann ich mir auch vorstellen, dass NV es mit der Karten bundelt.
Das wär natürlich toll, obwohl ich mir das natürlich allein nie kaufen würde, dafür brauch ich das viel zu wenig. Aber wenn ich das als Bundle dabei hätte ...
Wenn die GTX280 auch noch außerhalb von CUDA überzeugen kann, dann steht der Karte ja nix mehr im Weg. Ich glaub aber, dass im Bereich GPGPU einfach am meisten getan wurde, weshalb das jetzt auch so massiv beworben wird.

Ailuros
2008-05-27, 13:07:46
Es macht einfach keinen Sinn darüber zu urteilen, wenn man nicht genau weiß was ein einzelner SP kann (Ailurus TM).

Wie schon erwaehnt es sind diesmal 3 echte FLOPs fuer general shading gegen 2.15 echte auf G8x/9x (3 auf Papier).

Moralelastix
2008-05-27, 13:14:44
Jap, HDV Video(keine Ahnung was das is) mit 25Mbit/s 30FPS mpeg2 file nach 1440 x 1080 h.264 encoding @ 64FPS mehr als 2x realtime :eek:

Scheiss auf Quadcore & Co.!

Wann und Wo bekomm ich die Software? Jetzt!

Gast
2008-05-27, 13:17:08
also das wär dann wirklich mehr als beeindruckend

AnarchX
2008-05-27, 13:23:25
Wie schon erwaehnt es sind diesmal 3 echte FLOPs fuer general shading gegen 2.15 echte auf G8x/9x (3 auf Papier).

Also hat man eine weitere MUL pro SP hinzugefügt oder womit werden nun die SF-Aufgaben ausgeführt?

Ailuros
2008-05-27, 13:28:44
Erstmal muss man sehen wie lange NV gegen die 40nm Chips von ATI bestehen kann. Im High-End wahrscheinlich aber darunter ?

Und was genau soll NVIDIA davon abhalten 40nm auch zu benutzen fuer alles ausser high end? Oder hast Du irgend eine roadmap in der Hand wo alles ausser GT200 (eben GT21x) mit 65 oder 55nm auftaucht?

Uebrigens etwas Vorsicht mit der Jubelei ueber 40nm denn gar nichts ist umsonst:

http://www.beyond3d.com/content/news/636

Ailuros
2008-05-27, 13:30:22
Also hat man eine weitere MUL pro SP hinzugefügt oder womit werden nun die SF-Aufgaben ausgeführt?

Ich sag mal nur fuer den Anfang dass NV den fehlenden MUL endlich gefunden hat. Wie es zu diesem kam, dann bitte nach dem Launch.

Gast
2008-05-27, 14:34:55
Das wär natürlich toll, obwohl ich mir das natürlich allein nie kaufen würde, dafür brauch ich das viel zu wenig.


wenn es gut funktioniert werden bestimmt auch freeware-encoder folgen.

soweit ich weiß ist für x264 ja auch schon eine GPU-version in planung.

Gast
2008-05-27, 14:35:30
Ich sag mal nur fuer den Anfang dass NV den fehlenden MUL endlich gefunden hat.


also ein hardware-defekt in G8x/9x?

gbm31
2008-05-27, 14:41:07
edit. nul

Ailuros
2008-05-27, 14:41:30
also ein hardware-defekt in G8x/9x?

Eine Effizienz-erhoehung gleicht nicht einem Defekt.

***edit: waere das Ganze SW-basiert wuerden auch G8x/9x dazulegen.

Odal
2008-05-27, 14:50:37
n the original performance piece we mentioned that the dual-issue MUL instruction issue capability that NVIDIA presented as being part of the shader processor makeup of G80 wasn't present. Rather we concluded that the 2nd 'missing' MUL was actually part of the special function and interpolation ALU, serial to SF/interpolation and thus the general shading ALUs in each cluster.

In short, during general shading on G80 in the beginning, you couldn't push more than 1 MUL per clock per SP through the hardware. However with recent driver builds and a dependant MUL instruction stream, it's possible to see about 1.15x MUL performance per expected SP (tested with HLSL only), indicating that the driver is opening up the use of the MUL unit to general shading, when interpolated attributes aren't needed or special function calculations need not be performed. We test using a full-screen quad (two triangles aligned to screen space) and just run our simple pixel shader code across those pixels.

???

Godmode
2008-05-27, 15:26:51
???

Was ist damit? Auf G8x/G9x kann das 2. MUL nur zu 15 % für General Shading genützt werden, mit GT200 ist es dann immer "anwesend".

=Floi=
2008-05-27, 16:16:54
Mensch tumbman, jetzt beruhig dich mal wieder. Inzwischen bejubelst du schon so nen folding client. Wenn es morgen heisst das ding kann auch SuperPi dann gehst du hoffentlich nicht durch die decke.

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/superpi_cuda_nvidia-gpu-tauglich/

Die Marketingmaschine läuft auf Hochturen! ;D

das ist echt das post des jahres :D das ist ja so geil :D

Odal
2008-05-27, 16:21:00
meine frage zielt erher darauf hinaus ob ein mul aus den special function alus in die streamprozessor ALUs wandert

und wenn ja ob das Mul in den special function alus überflüssig war bzw. jetzt ist

Godmode
2008-05-27, 16:46:08
meine frage zielt eher darauf hinaus ob ein mul aus den special function alus in die streamprozessor ALUs wandert

und wenn ja ob das Mul in den special function alus überflüssig war bzw. jetzt ist

Das ist eine Frage sich wohl erst nach dem Launch beantworten lässt. IMO wurden die SPs erweitert, also eine MUL Einheit hinzugefügt.

LovesuckZ
2008-05-27, 16:48:32
Das ist eine Frage sich wohl erst nach dem Launch beantworten lässt. IMO wurden die SPs erweitert, also eine MUL Einheit hinzugefügt.

Add. Eine MUL-Einheit soll ja schon exisitieren. ;)

Gast
2008-05-27, 16:50:19
also eine MUL Einheit hinzugefügt.

Dann hätte das teil ja 1,25 TFLOPS ?!?

crux2005
2008-05-27, 16:51:14
:confused: also MAD + MAD ? ehm, irgendwie ... ne

LovesuckZ
2008-05-27, 16:53:04
Dann hätte das teil ja 1,25 TFLOPS ?!?

Nö, es sind 240*3*1296= 0,933120 TFlops.

:confused: also MAD + MAD ? ehm, irgendwie ... ne

Stimmt, dann wären es ja vier Flops. Mein Fehler.

Gast
2008-05-27, 16:59:56
Eine MUL hinzugefügt bedeutet für mich:

MADD + MADD + MUL + MUL
4 x 1 x 240 x 1300 = 1,25T

LovesuckZ
2008-05-27, 17:02:16
Nein, man wird keine Mul hinzufügen. Bei 3 Flops muss wohl die jetzige Einheit verbessert wurden sein.

Odal
2008-05-27, 17:07:38
das mein ich doch.....das es mit in die stream prrozessoren wanderte und nun somit immer "theoretisch" verfügbar ist und nicht wie mit Mul in den spezial funktion ALUs nur manchmal

Godmode
2008-05-27, 17:12:47
Nein, man wird keine Mul hinzufügen. Bei 3 Flops muss wohl die jetzige Einheit verbessert wurden sein.

Ja so hab ich das gemeint.

dargo
2008-05-27, 17:43:20
Also, wenn ich es richtig verstanden habe hat die Geforce 280GTX praktisch die ~3,75 fache arithmetische Leistung einer Geforce 8800GTS 640. Die Geforce 260GTX immerhin noch die ~2,9 fache Leistung. Nicht schlecht, jetzt muss sich nur noch zeigen was davon in heutigen Games übrig bleibt.

Die gelbe Eule
2008-05-27, 17:45:39
Was ist eigentlich aus der Möglichkeit Virenprogramme schneller laufen zu lassen geworden, fällt das auch unter Cuda? Hier dürften sie die GTX doch sehr gut absetzen können.

frix
2008-05-27, 17:46:08
am meisten bin ich natürlich auf den crysis benchmark gespannt :)

Gast
2008-05-27, 18:28:00
Noch 2,5 Wochen warten :(

Snoopy69
2008-05-27, 19:03:12
720p nach IPhone, pff...

Was hat das IPhone 480x320??
Über TV-Out 720x576 bei 25fps soweit ich weiss. Also trotzdem noch niedriger als 720p


Das hier ist noch nicht mal Full-HD - sieht aber schon sehr geil aus (fast fotorealistisch).

http://www.forumdeluxx.de/forum/showpost.php?p=8802426&postcount=66

http://www.forumdeluxx.de/forum/showpost.php?p=8939040&postcount=1007 (auch geil - verschiedene Tageszeiten)

Ich hab es auch so "getweaked". Allerdings läuft es noch nicht so rund (nicht mal in 1680x1050).
Ich hoffe, mit dem GT200 wird das gehen :)

Godmode
2008-05-27, 20:56:29
Was mich ziemlich wundert ist, dass viele Leute glauben, dass die GTX 280 nur ein kleines bisschen schneller als die 4870XT wird. Also wenn man die deutschen Foren abklappert, kommt diese Meinung recht oft zu Tage.

Viele leiten daher jetzt ab, das Nvidia den GT200 verbockt hat, obwohl noch keine Leistungsdaten bekannt sind.

Adam D.
2008-05-27, 21:00:24
Es sind eigentlich alle Leistungsdaten bekannt, wenn man sich AiLs Aussagen dazu nimmt. Eine Sache ist klar: ganz egal, wie gut der HD4870 wird, gegen die GTX280 hat er nicht die geringste Chance. Wenn man mit dem Die nicht dieser Konkurrenz brutal in der Arsch tritt, muss man erst gar nicht dran denken, mit 'ner 550€-Karte an den Start zu gehen.

Edit: Die Aussage dient lediglich Performance-Zwecken, das Gesamtpaket ist damit nicht gemeint.

HarryHirsch
2008-05-27, 21:00:45
Was mich ziemlich wundert ist, dass viele Leute glauben, dass die GTX 280 nur ein kleines bisschen schneller als die 4870XT wird. Also wenn man die deutschen Foren abklappert, kommt diese Meinung recht oft zu Tage.

Viele leiten daher jetzt ab, das Nvidia den GT200 verbockt hat, obwohl noch keine Leistungsdaten bekannt sind.

ist mir auch schon aufgefallen. aber um so größer ist am ende das aahhh! geiles teil!

Hvoralek
2008-05-27, 21:01:28
Was mich ziemlich wundert ist, dass viele Leute glauben, dass die GTX 280 nur ein kleines bisschen schneller als die 4870XT wird. Also wenn man die deutschen Foren abklappert, kommt diese Meinung recht oft zu Tage.

Viele leiten daher jetzt ab, das Nvidia den GT200 verbockt hat, obwohl noch keine Leistungsdaten bekannt sind.Auf dem Papier sieht GT200 ja auch nicht wahnsinnig beeindruckend aus (Von den Eckdaten her höchstens 2x G92).

Gast
2008-05-27, 21:01:53
Naja, es sind ja nun doch schon diese Folien von THG aufgetaucht, die offensichtlich von AMD kommen. Vertraut man mal diesen Ergebnissen - immer im Hinterkopf, dass sie vom Hersteller selbst kommen und daher mit Sicherheit ein wenig beschönigt sind -, so sollte dennoch die Performance der GT200-Chips merklich höher liegen. Selbst die GTX 260 sollte mühelos mit der HD 4870 zurechtkommen.

Hardware-Infos hat das aus meiner Sicht gut zusammengefasst:
Radeon HD 4850/4870 keine High-End-Chips

http://www.hardware-infos.com/news.php?news=2099

Sorkalm
2008-05-27, 21:06:54
@bans3i: Selbst die GTX 260 wird die HD 4870 verkloppen, alles andere ist wohl unrealistisch...

Godmode
2008-05-27, 21:12:08
@bans3i: Selbst die GTX 260 wird die HD 4870 verkloppen, alles andere ist wohl unrealistisch...

Mir ist das schon klar, aber mir ist nicht klar warum das so vielen anderen Leuten im Netz unklar ist. Wenn ich nur sehe das wir 240 stat 128 ALUs haben und diese noch um 50 % effizienter arbeiten, dann noch die erhöhte Speicherbandbreite...

Im Computerbase Forum gehts teilweise zur Sache, das ist nicht mehr normal. Mich wundert, dass die Moderation hier nicht härter durchgreift. Wir sind ja auch schon fast auf diesem Niveau...:rolleyes:

pest
2008-05-27, 21:16:56
Wenn ich nur sehe das wir 240 stat 128 ALUs haben und diese noch um 50 % effizienter arbeiten, dann noch die erhöhte Speicherbandbreite...


wo steht das, das die Shader 50% per Clock effizienter sind?

AnarchX
2008-05-27, 21:17:25
Naja, die HD4870 hat durchaus nette Paperspecs:

- 480SPs vs 240SPs @GTX 280
- 1 TFLOP(?) vs 933GFLOPs @GTX 280
- 2GHz GDDR5, für auch über 100GB/s
- 1GiB

Das kann so manchen doch in die falsche Richtung führen mit der Leistungseinschätzung.

Godmode
2008-05-27, 21:22:12
Naja, die HD4870 hat durchaus nette Paperspecs:

- 480SPs vs 240SPs @GTX 280
- 1 TFLOP(?) vs 933GFLOPs @GTX 280
- 2GHz GDDR5, für auch über 100GB/s
- 1GiB

Das kann so manchen doch in die falsche Richtung führen mit der Leistungseinschätzung.

Damit hast du wohl recht. Man darf davon ausgehen, dass die meisten Anwender nicht soviel wissen, wie wir hier im 3DC. Ich bin schon auf den Architekturartikel gespannt, den es bei B3D hoffentlich wieder geben wird!

Sorkalm
2008-05-27, 21:24:11
- 480SPs vs 240SPs @GTX 280
- 1 TFLOP(?) vs 933GFLOPs @GTX 280
- 2GHz GDDR5, für auch über 100GB/s
- 1GiB

Scheint aber erstmal mit einer 512-MiB-Version loszugehen.

GeneralHanno
2008-05-27, 21:30:50
Im Computerbase Forum gehts teilweise zur Sache, das ist nicht mehr normal. Mich wundert, dass die Moderation hier nicht härter durchgreift. Wir sind ja auch schon fast auf diesem Niveau...:rolleyes:

srr, aber das CB forum ist wohl die größte fanboy- und kiddycommunity überhaupt. was da abgeht ist nicht mehr normal ... naja wir haben ja auch so unsere fanboys hier, aber es sollte klar sein, dass 250mm² diesize gegen 575mm² keine chance haben. zudem: 50% mehr SP/cluster und 50% mehr effizienz dank MUL@generalshading ...

Hvoralek
2008-05-27, 21:32:04
wo steht das, das die Shader 50% per Clock effizienter sind?Das ist eine Anspielung auf das zusätzliche MUL, das nun wohl endlich regelmäßig und nicht mehr alle Jubeljahre mal nutzbar ist. Die Arithmetikleistung steigt damit von ~ 2,15 FLOPs/ ALU- Takt auf 3 - Wenn man dieses MUL denn nutzen kann. Ich wäre erstaunt, wenn Shadercode allgemein so MUL- lastig ist, dass man davon allzu viel merkt.

HarryHirsch
2008-05-27, 21:37:58
Das ist eine Anspielung auf das zusätzliche MUL, das nun wohl endlich regelmäßig und nicht mehr alle Jubeljahre mal nutzbar ist. Die Arithmetikleistung steigt damit von ~ 2,15 FLOPs/ ALU- Takt auf 3 - Wenn man dieses MUL denn nutzen kann. Ich wäre erstaunt, wenn Shadercode allgemein so MUL- lastig ist, dass man davon allzu viel merkt.

also wird man in den meisten fällen eine die 2,15 fache steigerung leistung einer gtx haben?

Adam D.
2008-05-27, 21:40:49
also wird man in den meisten fällen eine die 2,15 fache steigerung einer gtx haben?
3/2,15=2,15? :D

Gast
2008-05-27, 21:41:21
(Von den Eckdaten her höchstens 2x G92).

2xG92 in einem chip wäre doch schon ganz schön, falls noch mehr kommt eine nette zugabe.

pest
2008-05-27, 21:42:09
Das ist eine Anspielung auf das zusätzliche MUL, das nun wohl endlich regelmäßig und nicht mehr alle Jubeljahre mal nutzbar ist. Die Arithmetikleistung steigt damit von ~ 2,15 FLOPs/ ALU- Takt auf 3 - Wenn man dieses MUL denn nutzen kann. Ich wäre erstaunt, wenn Shadercode allgemein so MUL- lastig ist, dass man davon allzu viel merkt.

ok, thx, das habe ich schon mitbekommen, ich dachte es bezieht sich auf
die veröffentlichten Specs mit "50% through 240sp"

Hvoralek
2008-05-27, 21:44:03
also wird man in den meisten fällen eine die 2,15 fache steigerung einer gtx haben?Die rechnerische Arithmetikleistung steigt auf das 1,4- fache pro ALU, auf das 2,6- fache pro Takt, insgesamt also auf etwa das Doppelte. Ich erwarte aber wie gesagt nicht, dass dieses MUL bei Shading wirklich allzu viel nützt.

Gast
2008-05-27, 21:51:39
Jetzt bin ich aber mal gespannt.


- 480SPs vs 240SPs @GTX 280

Vorher: 320 zu 128


- 1 TFLOP(?) vs 933 GFLOPs @GTX 280

Vorher: 495 zu 387


- 2GHz GDDR5, für auch über 100GB/s

Voher: 128 zu 103


- 1GiB

Vorher: 1024/512 zu 768


Insgesamt sieht es damit IMO nicht viel besser für AMD aus, als R600/670 vs. G80/Ultra

Gast
2008-05-27, 21:54:57
Die rechnerische Arithmetikleistung steigt auf das 1,4- fache pro ALU, auf das 2,6- fache pro Takt, insgesamt also auf etwa das Doppelte. Ich erwarte aber wie gesagt nicht, dass dieses MUL bei Shading wirklich allzu viel nützt.
Wenn es verfügbar ist, nützt es auch was - du kannst auch ein ADD damit machen und in zwei Takten eben ein MADD. Damit ist es nicht unpraktischer als ein MADD, nur schlimmstenfalls halb so schnell.

Captain Future
2008-05-27, 22:02:17
Jetzt bin ich aber mal gespannt.


Vorher: 320 zu 128


Vorher: 495 zu 387


Voher: 128 zu 103


Vorher: 1024/512 zu 768


Insgesamt sieht es damit IMO nicht viel besser für AMD aus, als R600/670 vs. G80/Ultra

Wenn es verfügbar ist, nützt es auch was - du kannst auch ein ADD damit machen und in zwei Takten eben ein MADD. Damit ist es nicht unpraktischer als ein MADD, nur schlimmstenfalls halb so schnell.


Ooops mein Kekse sind weg. Die beiden ^^ war ich.

HarryHirsch
2008-05-27, 22:05:19
Die rechnerische Arithmetikleistung steigt auf das 1,4- fache pro ALU, auf das 2,6- fache pro Takt, insgesamt also auf etwa das Doppelte. Ich erwarte aber wie gesagt nicht, dass dieses MUL bei Shading wirklich allzu viel nützt.

wenn es jetzt nur ums folden geht welche währe dann theoretisch schneller? die 4870 oder die 280er?
ich will damit jetzt keine fanboys aus ihren löchern locken...

crux2005
2008-05-27, 22:13:57
wahrscheinlich gleichstand
die SW würde es imho entscheiden ...

dildo4u
2008-05-27, 22:15:42
wenn es jetzt nur ums folden geht welche währe dann theoretisch schneller? die 4870 oder die 280er?

Laut den Benches von Nvidia ist die GT280 ja ca 3mal so schnell wie eine 3870.Also selbst wenn eine 4870 100% Mherleistung gegenüber der 3780 hätte,hätte sie noch deutlich das Nachsehen.Auch für diese Anwendung gilt das die Leistung "auf die Straße gebracht" werden muss.

http://www.pcgameshardware.de/aid,644648/News/Folding@Home_Client_fuer_Nvidia_GTX_280_soll_dreimal_schneller_falten_als_eine_H D3870/

AnarchX
2008-05-27, 22:17:39
wahrscheinlich gleichstand
Naja, laut Präsentation ist die GTX 280 2.8x so schnell wie eine HD3870.
Die HD4870 wird aber wohl nur doppelte so schnell wie letzere auf dem Papier sein.

Aber am besten warten wir ab, GPU-Client 2 soll ja auch noch Potential haben.

deekey777
2008-05-27, 22:18:36
Jetzt bin ich aber mal gespannt.


Vorher: 320 zu 128


Vorher: 495 zu 387


Voher: 128 zu 103


Vorher: 1024/512 zu 768


Insgesamt sieht es damit IMO nicht viel besser für AMD aus, als R600/670 vs. G80/Ultra

Da fehlt etwas: 16 vs. 32 (oder besser 64).

Gast
2008-05-27, 22:20:56
srr, aber das CB forum ist wohl die größte fanboy- und kiddycommunity überhaupt. was da abgeht ist nicht mehr normal ...


Du musst da grad was sagen, du bist doch auch dort aktiv :D

Godmode
2008-05-27, 22:42:07
Du musst da grad was sagen, du bist doch auch dort aktiv :D

Ich war/bin dort auch aktiv, es kommt halt drauf an was und wie man es sagt!

Ultra Pwonage ATI/Nvidia!!!!!!!!!!!!!!!!!111111333337 trägt halt nicht soviel zum Thread bei, genau wie diese Posting und genau so deines.:rolleyes:

Odal
2008-05-27, 22:47:13
Was mich ziemlich wundert ist, dass viele Leute glauben, dass die GTX 280 nur ein kleines bisschen schneller als die 4870XT wird. Also wenn man die deutschen Foren abklappert, kommt diese Meinung recht oft zu Tage.

Viele leiten daher jetzt ab, das Nvidia den GT200 verbockt hat, obwohl noch keine Leistungsdaten bekannt sind.

ich denke mal die lager spalten sich...

wir haben einmal

- absolut euphorische fanboys die jeden scheiß total übertrieben emporheben
- Leute die die Leistungsfähigkeit des GT200 erahnen es aber nicht als weltwunder hinstellen da es verglichen mit der vergangenheit ne normale steigerung ist
- Leute die erst das glauben was sie nachher sehen wenns soweit ist...da man ja auch beim G80 ziemlich lang im dunkeln tappte...
- Und sicher auch Leute die meinen der GT200 wird crap

Der GT200 wird sicherlich schneller als ein einzelner RV770 allerdings was einige da anhand der DIE grösse meinen zu wissen...da kann ich nur sagen das der G92 auch um einiges Größer als der RV670 war und jetzt keine welten dazwischenliegen.....

ich denke der GT200 wird ca. 70% schneller wie ein einzelner RV770
mal mehr mal weniger....

LovesuckZ
2008-05-27, 22:54:28
Man sollte realistischer sein. Sollte die 280 nur 70% schneller, wäre er ein Fehlschlag.
Alleine von den Zahlen muss da mindesten eine 2 vor dem x stehen.

Gast
2008-05-27, 23:04:12
Man sollte realistischer sein. Sollte die 280 nur 70% schneller, wäre er ein Fehlschlag.
Alleine von den Zahlen muss da mindesten eine 2 vor dem x stehen.

Ich hoffe du läßt dich dazu später beim Wort nehmen.

Ailuros
2008-05-27, 23:07:55
Auf dem Papier sieht GT200 ja auch nicht wahnsinnig beeindruckend aus (Von den Eckdaten her höchstens 2x G92).

Ich hab es schon so oft in diverse GT200/RV770 gesteckt dass es nicht mehr schoen ist: FLOP!=FLOP und dieses gilt sowohl im Vergleich zu G8x/9x und noch mehr im Vergleich zu RV770.

GT200 ist rundum effizienter als alles andere. Von dem abgesehen hat NV mit der GTX280 noch lange nicht ausgesungen fuer 2008 uhhhhmmm ooops....

Hvoralek
2008-05-27, 23:16:14
Insgesamt sieht es damit IMO nicht viel besser für AMD aus, als R600/670 vs. G80/UltraAllerdings sollte der Vorsprung von GT200 schon erheblich größer werden als der von G80.

Wenn es verfügbar ist, nützt es auch was - du kannst auch ein ADD damit machen und in zwei Takten eben ein MADD. Damit ist es nicht unpraktischer als ein MADD, nur schlimmstenfalls halb so schnell.Wieso soll man ein MUL einfach als ADD nutzen können? :|

wenn es jetzt nur ums folden geht welche währe dann theoretisch schneller? die 4870 oder die 280er?
ich will damit jetzt keine fanboys aus ihren löchern locken...Die theoretische Arithmetikelistung ist ähnlich. Im Endeffekt hängt es an der Effizienz der Hardeware (da hat ja schon G8x Vorteile) und der Software.

Gast
2008-05-27, 23:21:16
GT200 ist rundum effizienter als alles andere. Von dem abgesehen hat NV mit der GTX280 noch lange nicht ausgesungen fuer 2008 uhhhhmmm ooops....

Ultra300? :D

AffenJack
2008-05-27, 23:22:16
Von dem abgesehen hat NV mit der GTX280 noch lange nicht ausgesungen fuer 2008 uhhhhmmm ooops....

Da den Rest kaum jemand hier im forum bezweifeln würde, ist das auf jeden fall das interessanteste an deinem post;)
Die Frage ist dann nur ob noch was über der gtx280 kommt oder ne mögliche mainstream/performancegeneration auf g2xx basis ?

Ailuros
2008-05-27, 23:22:49
ich denke mal die lager spalten sich...

wir haben einmal

- absolut euphorische fanboys die jeden scheiß total übertrieben emporheben

Die gibt es auf beiden Seiten und bei den Eckdaten fuer RV770 ist die leichte Irrefuehrung auch normal.

- Leute die die Leistungsfähigkeit des GT200 erahnen es aber nicht als weltwunder hinstellen da es verglichen mit der vergangenheit ne normale steigerung ist

So in etwa wie G80 vs. G71. Ja die erste ist tatsaechlich bis zu 3x mal schneller in manchen Faellen.

- Leute die erst das glauben was sie nachher sehen wenns soweit ist...da man ja auch beim G80 ziemlich lang im dunkeln tappte...

Ich lag nur um einen einzigen Quadratmillimeter beim GT200 bis jetzt falsch.

- Und sicher auch Leute die meinen der GT200 wird crap

Wuerde es sich um die D3D11 Generation handeln koennte ich vielleicht irgendwelche Vorbehaltungen haben. Da wir aber beim GT200 eine sehr gute Basis-Architektur des G80 haben sind die Chancen mehr als gering fuer solch eine These.

Der GT200 wird sicherlich schneller als ein einzelner RV770 allerdings was einige da anhand der DIE grösse meinen zu wissen...da kann ich nur sagen das der G92 auch um einiges Größer als der RV670 war und jetzt keine welten dazwischenliegen.....

RV670 = 192mm^2@55nm
G92 = 323mm^2@65nm

RV770 = 256mm^2@55nm
GT200 = 576mm^2@65nm

Ich hab zwar noch keine Daten was die G92b die-Groesse betrifft aber ueber 240-250mm^2@55nm wuerde ich diesen nicht einschaetzen. Hier ist der Unterschied tatsaechlich nicht besonders gross im Vergleich zu RV670.

Wenn man im zweiten Fall aber die die-Groessen zum einen oder Herstellungsprozess anpasst, ist der Unterschied um einiges groesser. Einen rein hypothetischen RV770@65nm wuerde ich rund um die 350mm^2 einschaetzen. Hier sind es ueber 60% Unterschied im Vergleich zu den hypothetischen ~30% oben.

ich denke der GT200 wird ca. 70% schneller wie ein einzelner RV770
mal mehr mal weniger....

Nuechtern gesehen ist so ein Unterschied fuer die 4870 auch normal wenn man den ~$150 Preisunterschied bedenkt.

Ailuros
2008-05-27, 23:24:41
Da den Rest kaum jemand hier im forum bezweifeln würde, ist das auf jeden fall das interessanteste an deinem post;)
Die Frage ist dann nur ob noch was über der gtx280 kommt oder ne mögliche mainstream/performancegeneration auf g2xx basis ?

Obwohl der Gast schon ziemlich im warmen Bereich oben liegt...Frage: hatte NV die 8800Ultra damals wirklich noetig?

mictasm
2008-05-27, 23:25:33
GT200 ist rundum effizienter als alles andere. Von dem abgesehen hat NV mit der GTX280 noch lange nicht ausgesungen fuer 2008 uhhhhmmm ooops....

Danke! Also nicht sofort zuschlagen, wenn man ein paar Monate warten kann.

Hauwech
2008-05-27, 23:29:39
Das durch eine eventuelle Ultra die 280er großartig billiger wird, glaube ich nicht. Den "Erstkunden Preisaufschlag" kann man getrost abwarten (auch wenn es einen wurmen mag) aber warten kann man immer. :)

Edith sagte noch: Einen Shrink zur Weihnachtszeit jetzt mal nicht mitgezählt.

AffenJack
2008-05-27, 23:33:29
Obwohl der Gast schon ziemlich im warmen Bereich oben liegt...Frage: hatte NV die 8800Ultra damals wirklich noetig?

Nötig war sie auf keinen Fall, aber gut man konnte damit bei den paar verrückten die bereit waren sie zu kaufen noch etwas mehr geld abschöpfen.

Ne gt200ultra müsste aber auch in richtung 270-300watt tdp gehen und würde selbst da nicht allzuviel taktratenaufschlag vertragen vermute ich,weshalb ich erst dran gezweifelt hab.
Allerdings ist das den Leuten die sowas kaufen ja eh egal und so würdse trotzdem paar abnehmer finden

MikBach
2008-05-27, 23:38:14
Man sollte realistischer sein. Sollte die 280 nur 70% schneller, wäre er ein Fehlschlag.
Alleine von den Zahlen muss da mindesten eine 2 vor dem x stehen.
Warum Fehlschlag?
Wäre doch vollkommen ok.
Ich würde die Einschätzung von Odal durchaus unterschreiben.
Was mir beim GT200 Kopfzerbrechen bereitet ist der Stromverbrauch...

Und nicht nur immer auf die Zahlen schauen, da kann man ganz böse auf die Schnauze fallen.
Effizienz ist hier das Zauberwort. :)

Ailuros
2008-05-27, 23:40:17
Das mit dem Stromverbrauch ist so eine Angelegenheit fuer sich; ich wuerde erstmal die ersten unabhaengigen reviews abwarten die nur den GPU Verbrauch und auch richtig abmessen werden. Es soll nicht heissen dass GT200 nicht einen monstroesen Stromverbrauch haben wird, aber die diversen trash-tabloid Seiten melden meisten den groessten Bloedsinn ueber solches Zeug.

mictasm,

Die 8800Ultra war hoellisch teuer und hatte ein ziemlich beschissenes Preis-/Leistungsverhaeltnis im Vergleich zur GTX. Die Ultra Frequenzen kann man auf der Mehrzahl der GTX-en erreichen.

***edit:

ich krieg gleich Kopfschmerzen wenn ich den scheiss hier lese, Lovesucks und Ailuros schiessen den Vogel völlig ab euch ist nicht mehr zu helfen sry.

Beruhigungspillen zweite Schublade rechts. Tut mir leid wenn ich nicht das schreibe was Du gerade lesen willst. Sonst noch was?

Gast
2008-05-27, 23:54:28
Nötig war sie auf keinen Fall, aber gut man konnte damit bei den paar verrückten die bereit waren sie zu kaufen noch etwas mehr geld abschöpfen.

Ne gt200ultra müsste aber auch in richtung 270-300watt tdp gehen und würde selbst da nicht allzuviel taktratenaufschlag vertragen vermute ich,weshalb ich erst dran gezweifelt hab.
Allerdings ist das den Leuten die sowas kaufen ja eh egal und so würdse trotzdem paar abnehmer finden

MAX TDP eventuell, wird sie niemals erreichen, erinnert euch mal an das Geheule als der NV50 aer G80 vorgestellt wurde und die TDP bei über 220Watt lag in den ersten Artikeln. Am Ende warens 182? Watt max!
Abwarten einfach was die Xbit Labs da messen, denke mal so 200Watt unter Volllast könnten es sein, aber man wird die Spec nicht voll ausfahren. Man brauch diese Reserven einfach.

Ailuros
2008-05-27, 23:56:03
Fuer die 8800GTX hatte xbitlabs (wenn mich mein Gedaechtnis nicht teuscht) allen fuer die GPU ~135W gemessen.

MikBach
2008-05-27, 23:57:13
MAX TDP eventuell, wird sie niemals erreichen, erinnert euch mal an das Geheule als der NV50 aer G80 vorgestellt wurde und die TDP bei über 220Watt lag in den ersten Artikeln. Am Ende warens 182? Watt max!
Abwarten einfach was die Xbit Labs da messen, denke mal so 200Watt unter Volllast könnten es sein, aber man wird die Spec nicht voll ausfahren. Man brauch diese Reserven einfach.
200 Watt sind einfach zu viel. Selbst die TDP von 160 Watt beim RV770XT sind mir zu viel. Wird dann wohl bei der PRO-Variante bleiben.

Sorkalm
2008-05-27, 23:59:25
Naja, ein G200Ultra (wie das Ding auch immer heißen wird) lässt sich immer absetzen, wenn es die dato schnellste Grakfikkarte werden wird. :)

Fuer die 8800GTX hatte xbitlabs (wenn mich mein Gedaechtnis nicht teuscht) allen fuer die GPU ~135W gemessen.

Die TDP liegt doch bei 175 Watt für die G80GTX?

Godmode
2008-05-28, 00:06:39
Naja, ein G200Ultra (wie das Ding auch immer heißen wird) lässt sich immer absetzen, wenn es die dato schnellste Grakfikkarte werden wird. :)



Die TDP liegt doch bei 175 Watt für die G80GTX?

Das denke ich auch, Shadertakt hoch und vielleicht noch GDDR5 dazu, was dann eine wahnwitzige Bandbreite ergibt und fertig ist die Ultra. Ok das mit GDDR5 ist vielleicht etwas übertrieben. Vielleicht gibts die Ultra als Respin, damit der höhere Takt erreicht wird, bzw die Verlustleistung etwas reduziert werden kann.

Ailuros
2008-05-28, 00:16:38
Die TDP liegt doch bei 175 Watt für die G80GTX?

Ich rede doch gar nicht von TDP Werten; das Zeug ist sowieso nutzlos IMHLO.

http://www.xbitlabs.com/articles/video/display/gf8800gtx-roundup_6.html#sect0

131,5W nur fuer die GPU.

Sorkalm
2008-05-28, 00:23:04
Ich rede doch gar nicht von TDP Werten; das Zeug ist sowieso nutzlos IMHLO.

Naja, so kann man noch am ehesten ein Verhältnis zwischen den Grafikkarten erstellen, da ja meistens die TDPs von Karten geleakt werden.

AffenJack
2008-05-28, 00:23:39
Das mit dem Stromverbrauch ist so eine Angelegenheit fuer sich; ich wuerde erstmal die ersten unabhaengigen reviews abwarten die nur den GPU Verbrauch und auch richtig abmessen werden. Es soll nicht heissen dass GT200 nicht einen monstroesen Stromverbrauch haben wird, aber die diversen trash-tabloid Seiten melden meisten den groessten Bloedsinn ueber solches Zeug.


Klar sollte man das,die gx2 hat laut xbitlabs ja auch 180W Verbrauch bei 240W TDP.Für den GT200 erwarte ich daher auch etwas im Bereich 170-180Watt.
Aber wenn ich mir allein angucke, dass man von 88gt zu 88gts512 und von dieser zur 98gtx immer so 10% Verbrauchserhöhung für 5% Leistungserhöhung braucht und das mal aufn gt200 so übertragen würde, dann wäre ne gt200 ultra schon arg anner Grenze.

Angenommen der gt200 ultra würde wie damals die 88ultra 6,7% höher takten, dann wäre man wahrscheinlich schon bei etwa 200W realen Verbrauch,
Und das auch nur unter der annahme, dass sich bei einem so großen chip die taktrate mit dem in etwa gleichen Strom/Spieleleistung-Verhältnis erhöhen lassen würde, wie bei einem halb so großen chip, was ich etwas bezweifle.
Jenseits von 200W frag ich mich auch wie man das mit Luftkühlung ohne nen Fön zu benutzen kühlen will

Edit:
Bevor hier noch jemand groß meckert,dass ich bei meinen vergleich von 88gt zu 88gts512 zbd 98gtx zb den speichertakt ignoriert habe und nur mit Strom gegen Leistung grob überschlage wollt ich erwähnen,dass das schon so absichtlich ist;)

Ailuros
2008-05-28, 00:37:32
Tja dass GT200 neue Rekorde setzen wird was den Stromverbrauch betrifft war ja nie ein Geheimnis. Und ich kann auch jegliche Einwaende bis zu einem Punkt verstehen, jedoch ist es leider Tatsache dass man fuer so und so viel Leistung auch so und so viel Stromverbrauch tolerieren muss.

Oder man wartet eben etwa ein Jahr ab bis es zu den naechsten Performance-GPUs auf kleineren Herstellungsprozesson beider IHVs kommt. Eine andere Altenative wird es bis dann leider nicht geben,

=Floi=
2008-05-28, 00:38:40
die ultra war ja auch nur marginal schneller getaktet und dann doch ein ganzes stück schneller wie die GTX. nv weis schon wo die flaschenhälse sind und bohrt diese ggf. gezielt auf.

warum sollte nv nicht das 600€ segemt abschöpfen, wenn man auch einen unbeschnittenen chip für weniger bekommt?!


ailuros lass dich nicht von solchen leuten beleidigen, da die stammlerser ja wissen, dass deine daten stimmen und du gute insiderinformationen hast. ich bin froh so jemanden hier im forum zu haben.

edit
wenn nv selbst bei 300 watt noch eine leiste kühlung hinbekommen würde und einen richtigen 2d-modus (10-20watt) integrieren würde, wäre der lastverbrauch zweitrangig

Godmode
2008-05-28, 00:48:40
ailuros lass dich nicht von solchen leuten beleidigen, da die stammlerser ja wissen, dass deine daten stimmen und du gute insiderinformationen hast. ich bin froh jemanden hier im forum zu haben.


Ich genau so und schade dass schon so viele gute Leute abgesprungen sind.

Gast
2008-05-28, 01:25:35
Obwohl der Gast schon ziemlich im warmen Bereich oben liegt...Frage: hatte NV die 8800Ultra damals wirklich noetig?
+
Oder man wartet eben etwa ein Jahr ab bis es zu den naechsten Performance-GPUs auf kleineren Herstellungsprozesson beider IHVs kommt. Eine andere Altenative wird es bis dann leider nicht geben,

=

???

Nicht größeres (=Ultra), aber auch nichts Stromsparenderes mit ähnlicher Leistung. Die Performancekarten in kleinerem Prozess sollen auch erst in einem Jahr kommen. *verwirrt*

Also mal zusammengefasst es kommt dieses Jahr noch definitiv etwas raus was keine bessere, gleiche oder schlechtere Leistung bringt. ;D

Hvoralek
2008-05-28, 01:34:25
ailuros lass dich nicht von solchen leuten beleidigen, da die stammlerser ja wissen, dass deine daten stimmen und du gute insiderinformationen hast. ich bin froh jemanden hier im forum zu haben.Seine Reaktion vorhin klang nun nicht wirklich angefressen. Und wer ernsthaft Ailuros mit LovesuckZ in eine Kiste wirft, zeigt doch schon dadurch, dass man ihn nicht ernst nehmen kann. Zu dem inzwischen gelöschten Beitrag dieses Gastes (der glaube ich auch noch ein Zitat von gamingforce war :rolleyes:) muss ich wohl nichts mehr sagen.

Ich möchte allerdings zu Floi ergänzen, dass ich an Ailuros noch etwas sehr schätze: Er ist einer der relativ wenigen Leute hier mit einigem technischen Verständnis, die nach meinem Empfinden nicht erkennbar zu irgendeinem IHV tendieren (anders als etwa Lolman oder auch aths). Und seine Beiträge sind oft sehr unterhaltsam. Ich vermute z.B., die Idee mit dem Schokobesen wird noch das ein oder andere Mal hier auftauchen :D

=Floi=
2008-05-28, 04:34:25
nur mal rein rechtlich gesehen. ER verletzt sein NDA für uns und hat dadurch keinen vorteil, könnte aber mächtig ärger bekommen!

Bei lolman ist es eigentlich schade, dass er so tiefrot ist und seine volle energie aufwendet um gegen nv zu wettern. Lolman kommt teilweise mit echt krassen details und findet in stundenlanger suche wirklich auch sehr kleine details. Da steckt oft viel arbeit dahinter, aber die hundertprozentige objektivität geht ihm ab...

myopF
2008-05-28, 05:02:00
Naja weils grad passt wegen den TDPs etc: Ich hab hier noch ne Liste der c't mit Messungen der Sekundärseite (also direkt an der Graka).
2D/3D/Peak in W
2900 XT 58/152/208
8800 GTS 59/99/149
8800 GTX 74/139/213
8800 Ultra 80/159/236

Achso bevor sich jemand beschwert, die >225W Peak bei der Ultra fanden die Redakteure euch komisch, es handelt sich hier beim Peakwert auch, afair, nur um Sekundenbruchteile ;).
Müsste c't 17/07 gewesen sein falls das jemand nachprüfen möchte, hab jetzt weniger Lust im Keller zu danach zu suchen.

Snoopy69
2008-05-28, 05:20:25
Naja, die HD4870 hat durchaus nette Paperspecs:

- 480SPs vs 240SPs @GTX 280
- 1 TFLOP(?) vs 933GFLOPs @GTX 280
- 2GHz GDDR5, für auch über 100GB/s
- 1GiB

Das kann so manchen doch in die falsche Richtung führen mit der Leistungseinschätzung.
Hm - liest sich wirklich gut...
Mal abwarten wie die sich schlägt.

Wenn NV mal wieder ordentlich was auf die Ohren bekäme, wäre das auch nicht schlecht. In paar Sachen hinken sie ATI/AMD ja hinterher. Aber auch nur, weil sie es nicht nötig hatten. So käme wieder etwas Schwung in die Entwicklung...

Ich finde ATI/AMD hätte es mal wieder verdient oben zu sein. Aber egal - ich nehm die bessere Karte (egal welcher Marke).


@ myopF

So 150-160 für eine übertaktete GTX hab ich auch gemessen. Die Peakleistung ist nicht zu verachten. Besonders OCer und Bencher sollten bei der Quali am NT nicht sparen. Ein ordentlicher Peak reicht, dass der PC abkackt.


@ Freunde der wippenden Röckchen (u.a. Nightspider :D)

"MStar" beinhaltet verschiedene Charaktere - "Runway" und "QuizStar". Das Game soll mitte 2008 in Korea, Ende 2008 in China und nächstes Jahr in Nordamerika erscheinen. Bei uns k.A.

dargo
2008-05-28, 06:07:40
Von dem abgesehen hat NV mit der GTX280 noch lange nicht ausgesungen fuer 2008 uhhhhmmm ooops....
Du Lümmel, da kommt also doch noch eine Geforce 290GTX. :D
Naja, bissel Spielraum haben die ja noch bis 300W TDP. X-D

Ich rede doch gar nicht von TDP Werten; das Zeug ist sowieso nutzlos IMHLO.

http://www.xbitlabs.com/articles/video/display/gf8800gtx-roundup_6.html#sect0

131,5W nur fuer die GPU.
Das ist nicht die GPU sondern die gesamte Grafikkarte vor dem NT. Mit 131W alleine auf der GPU wäre der Kühler völlig überfordert. :)

Snoopy69
2008-05-28, 06:18:42
Du Lümmel, da kommt also doch noch eine Geforce 290GTX. :D
Naja, bissel Spielraum haben die ja noch bis 300W TDP. X-D


Das ist nicht die GPU sondern die gesamte Grafikkarte vor dem NT. Mit 131W alleine auf der GPU wäre der Kühler völlig überfordert. :)
Naja, der PCIe x6 ist schnell gegen x8 ausgetauscht. Wären dann 75W mehr Spielraum :D

Und was spricht dagegen die sonst leere Platinenrückseite für noch mehr Kühlerfläche zu nutzen? Die Karten stecken zu 95% sowieso in ersten Slot, also stört daneben eig. nix. Ich würde lieber 2x PCIe x6 sehen. 1x PCI x6 wäre im Mom. noch Wunschdenken.

Für mich sehe ich eine hohe TDP nicht so eng, da Wakü. Und meine 2 GTXen verbraten bei OC + Voltmod schon extrem viel.

dargo
2008-05-28, 06:21:43
Naja, der PCIe x6 ist schnell gegen x8 ausgetauscht. Wären dann 75W mehr Spielraum :D

So einfach ist das nicht, PCIe 2.0 hätte was dagegen.

Snoopy69
2008-05-28, 06:23:27
Wieso?

dargo
2008-05-28, 06:29:16
Weil es gewisse Normen gibt. Und PCIe 2.0 sieht einfach max. 300W vor.

Snoopy69
2008-05-28, 06:32:19
Und was spricht dagegen PCIe 2.1 oder 3.0 herauszubringen? Wege gibt es immer...
Mir wäre es natürlich lieber, wenn die Leistung nie über 2.0 hinausginge

tombman
2008-05-28, 06:33:18
Weil es gewisse Normen gibt. Und PCIe 2.0 sieht einfach max. 300W vor.
Das kann doch PCie 2.0 egal sein, woher die Karte EXTERN ihren Strom bekommt. Da sollte es, bei entsprechendem Kartendesign, auch kein Problem sein, da ein externes NT @ Steckdose dranzuhängen ;D;D

dargo
2008-05-28, 06:38:47
Und was spricht dagegen PCIe 2.1 oder 3.0 herauszubringen?
Nichts. :)

Irgendwann werden auch diese 300W nicht mehr reichen.

reunion@work
2008-05-28, 08:06:36
Weil es gewisse Normen gibt. Und PCIe 2.0 sieht einfach max. 300W vor.

Das ist doch im Ernstfall völlig egal. Die 8800GTX verletzt auch die PCIe-Specs, da PCIe1.1 nur einen externen 75W-Anschluss vorsieht.

Snoopy69
2008-05-28, 08:11:26
Hehe - stimmt.
Also steht 400W TDP nix im Wege :ulol:

GeneralHanno
2008-05-28, 08:37:03
naja, irgendwie müssen die teile ja auch noch kühlbar sein ...

Snoopy69
2008-05-28, 08:40:19
Die Highendkarten könnten mit Wakü daherkommen...
Aber wie ich das sehe wird immer für die Masse produziert. Schade eigentlich.
Eine Karte mit 500-600W TDP wäre für mich aktuell kein Problem :D

Daredevil
2008-05-28, 08:44:15
Dann noch SLI und du kannst deine Nudeln im Ausgleichsbehälter Kochen :)

Schlammsau
2008-05-28, 08:48:24
Dann noch SLI und du kannst deine Nudeln im Ausgleichsbehälter Kochen :)

;D .......und gleich noch ein eigenes Kraftwerk in den Garten stellen! :rolleyes:

Snoopy69
2008-05-28, 08:55:26
Dann noch SLI und du kannst deine Nudeln im Ausgleichsbehälter Kochen :)
Ganz so schlimm ist es nicht...
Ich schätze, dass ich mit dem Chiller im Sommer nicht über 25°C Wasser komme. Im Winter bis 15°C Wasser. Ok, lass es 5k mehr sein, aber höher mit Sicherheit nicht :wink:

Die GPU-Temp konnte ich mit Wakü bisher immer halbieren. Mit Chiller sogar auf 1/4 reduzieren...
Das hier war SLI. Die GPU-Temperaturen siehst du ja.

http://www.abload.de/thumb/hc_139x3f1.jpg (http://www.abload.de/image.php?img=hc_139x3f1.jpg)

crux2005
2008-05-28, 09:35:10
GT200 ist rundum effizienter als alles andere. Von dem abgesehen hat NV mit der GTX280 noch lange nicht ausgesungen fuer 2008 uhhhhmmm ooops....
Danke! Also nicht sofort zuschlagen, wenn man ein paar Monate warten kann.

von mir auch, habe aber so etwas mehr oder weniger erwartet
mit einer 8800GTS werde ich den Sommer noch überleben :biggrin:
aber wenn schon eine Ultra, dann bitte auch GDDR5 :P

Gast
2008-05-28, 09:45:04
Hehe - stimmt.
Also steht 400W TDP nix im Wege :ulol:

wenn es da angelangt ist, such ich mir ein anderes Hobby das ist jetzt schon ne frechheit dem Teil 250 Watt TDP zu verpassen, ATI geht in richtig Zukunft und NV zurück in die Steinzeit das kann ja wohl nicht sein.

Hvoralek
2008-05-28, 11:18:36
nur mal rein rechtlich gesehen. ER verletzt sein NDA für uns und hat dadurch keinen vorteil, könnte aber mächtig ärger bekommen!Soweit ich das mitbekommen habe, veröffentlicht er keine Informationen, die er selbst unter NDA erhalten hat. Das wäre zumindest riskant, weil da sicherlich ziemlich heftige Vertragsstrafen drauf stehen.

Du Lümmel, da kommt also doch noch eine Geforce 290GTX. :D
Naja, bissel Spielraum haben die ja noch bis 300W TDP. X-DWenn da noch ein höher getakteter GT200 kommt, wird das wohl wieder so ein Kandidat mit saftigem Energieverbrauchs- und Preisaufschlag für ein paar %% Leistung sein.

deekey777
2008-05-28, 11:25:48
Ailuros ist eine Plappertasche, niemand ist so verrückt und schließt mit ihm eine Verschwiegenheitsvereinbarung.

Nein, er steht unter "Gentlemen's Agreement": Man quatscht untereinader (zB Emails, PMs, ICQ uä) und bittet gleich, die Klappe zu halten. Diese Personen geben nur selten Infos preis (da Gefahr, dass beim nächsten Mal keine Info), dafür aber bestätigen sie oder widerlegen Gerüchte (wenn Ail eine News von Fudzilla verlinkt, dann könnte sie wahr sein).

Schlammsau
2008-05-28, 12:28:59
für alle die meinen der GT200 wird 3x schneller als eine GTX.
Ich glaube nicht, dass CB uns in 3 Wochen so eine Diagramm an die Birne knallt!
http://www.abload.de/img/1111111111111111kaa.bmp
Das erscheint mir reichlich unrealistisch!
Doppelt so schnell ist sehr viel realistischer!

PS: Das Bild hab ich auf die schnelle gemacht, und soll nur eine Einschätzung sein!

mapel110
2008-05-28, 12:31:07
Doppelt so schnell ist sehr viel realistischer!
Jo, wegen dem CPU-Limit bei 1600er mit 4xAA :biggrin:

Godmode
2008-05-28, 12:31:11
für alle die meinen der GT200 wird 3x schneller als eine GTX.
Ich glaube nicht, dass CB uns in 3 Wochen so eine Diagramm an die Birne knallt!
http://www.abload.de/img/1111111111111111kaa.bmp
Das erscheint mir reichlich unrealistisch!
Doppelt so schnell ist sehr viel realistischer!

Ich denke 2x reichen auch.

edit: ich richtigen Settings kann ich mir aber auch vorstellen, das G92 um Faktor 3 und mehr vernichtet wird.

Snoopy69
2008-05-28, 12:35:08
In Post #1 wird vielleicht von T-SLI mit 3x 8800GTX ausgegangen. Dann käme das schon hin.

dildo4u
2008-05-28, 12:35:38
Das erscheint mir reichlich unrealistisch!
Doppelt so schnell ist sehr viel realistischer!

Nvidia hat mit dem Sprung von GF7 auf GF8 schon mal fast 200% Mherleistung(3Fache GF7 Leistung) mit AA und AF geschafft und zwischen den GPUs lag etwas weniger Zeit als jetzt zwischen dem G80 und dem G200 also nix mit unrealistisch.Aber möglich das man für diese 300% eine höhere Auflösung fahren muss um den Unterschied zu sehen oder man betrachtet nur Games wie Crysis und Call of Juraz die jetzt immer noch mit den aktuellen Karte bei 20fps liegen.


http://s5.directupload.net/images/080526/o3eoob39.jpg

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/24/#abschnitt_performancerating_qualitaet

Anarchy-HWLUXX
2008-05-28, 12:38:45
Nvidia hat mit dem Sprung von GF7 auf GF8 schon mal fast 300% Mherleistung mit AA und AF geschafft und zwischen den GPUs lag etwas weniger Zeit als jetzt zwischen dem G80 und dem G200 also nix mit unrealistisch.


http://s5.directupload.net/images/080526/o3eoob39.jpg

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/24/#abschnitt_performancerating_qualitaet
Aber nur vom Launch her - nV hat soweit ich mitbekommen hab ca. 4 Jahre dran gesessen ...

Snoopy69
2008-05-28, 12:42:07
Jo, wegen dem CPU-Limit bei 1600er mit 4xAA :biggrin:
Naja, so arg limitiert die CPU da nicht mehr.
Bei 3DMark hab ich nicht gerne mitgemacht, da SLI nur ein bescheidenes Ergebnis aufwies.
Erst ab 1920x1200 + höchstem AA/AF wurde es interessant. Da skalierte SLI zu 80-90%. Bei default lediglich zu 30%.

Benches unter 1680x1050 und ohne AA/AF sehe ich mir erst garnicht an, da diese wenig über die wahre Power der Karte aussagen.

Siehe 9800GTX...
Ab 1680x1050 + AA/AF brechen sie derbe ein, weil zu wenig Ram. Da sind teilweise die alten 8800GTX/Ultra besser dran. Und hier so richtig...

http://www.abload.de/img/hc_244y64.jpg

Aber 1GB Videoram sollte erstmal ausreichen :)
Wenn wirklich nur 2-fache 8800GTX-Leistung hängen bleiben. Muss ich trotzdem Abstriche bei Crysis machen ;(

Godmode
2008-05-28, 12:43:43
Wenn wir jetzt nur die Shaderleistung betrachten, dann sehen wir im verlgeich zur 8800 GTX eine fast Verdreifachung der Leistung.

128 * 2 * 1,350 = 345,6 (G80 kann die 2. Mul nicht richtig nützen)
240 * 3 * 1,296 = 933,12 (GT200 löst das Problem, daher 3 Flops/Takt)

In Shaderlimitieren Szenen könnte das dann ordentlich durchschlagen.

frix
2008-05-28, 12:46:33
seh ich auch so. Eine highend karte ist sicher nicht für auflösungen von 1280x960 gedacht. Da tuns auch die billigeren mainstream modelle.
Ich glaube crysis ist recht shaderlimitiert? oder irre ich mich da.
Da könnte also einiges gehn.

Snoopy69
2008-05-28, 12:55:08
btw:

Was ist eig. aus Larabee geworden? Das soll doch auch 1TF knacken!?

Schlammsau
2008-05-28, 12:55:54
2x schneller, als eine 9800GTX!!! Punkt!
Ist noch deutlich schneller als eine eine 9800GX2 und lässt noch genug Spielraum für eine GTX260!
Eine 9800GTX wird auf absehbarer Zeit nicht deutlich unter 200€ fallen, das rechnen wir jetzt x3 und dann haben wir einen Preis von rund 600€! :eek:
Rechnen wir weil es absoluter High End ist, nochmal 100-200€ drauf, war ja bei der 8800 Ultra auch nicht anders, da ja keine Konkurrenz, sind wir schon bei 700-800€! :eek::eek:
Welchen Wechselkurs haben wir? Dann würden wir weit über die 1000$ kommen....
Wie hoch ist der spekulierte Preis? 500-600$?
3x schneller kann bei diesen spekulierten Preisen doch gar nicht hinhauen! Andernfalls müsste nach Release der GTX280 eine 9800GTX für rund 100€ den Besitzer wechseln!
Niemals! Bleibt realistisch!

Distroia
2008-05-28, 12:57:29
Nvidia hat mit dem Sprung von GF7 auf GF8 schon mal fast 300% Mherleistung mit AA und AF geschafft...

Also ich sehe in dem Diagramm 196% Mehrleistung zwischen der 7900 und der 8800 GTX. :rolleyes:

dildo4u
2008-05-28, 13:01:42
Also ich sehe in dem Diagramm 196% Mehrleistung zwischen der 7900 und der 8800 GTX. :rolleyes:
Dann guck noch mal.Ich hab extra den 100% Ausgangswert auf die 7900GTX gesetzt.Anders ausgedrückt ein G80 bringt die 3Fache GF7 Leistung.

Snoopy69
2008-05-28, 13:09:52
@ frix

Die Crytek-Engine bietet soviel Potential, dass sogar die GTX280 kotzen muss. Ich kenne derzeit KEINE HW für Normalsterbliche, die Crysis ausnutzen könnte.
Ich hatte 2007 mit der "Sandbox" herumgespielt. In bin mir jetzt nicht ganz sicher, ob das oben links der Videoram mit 984MB (und höher) war. Da hatte Crysis noch nicht mal einen Tweak bzw. war nicht mal mit DX10 :wink:

http://www.abload.de/thumb/hc_144hi7.jpg (http://www.abload.de/image.php?img=hc_144hi7.jpg) http://www.abload.de/thumb/hc_1430y9.jpg (http://www.abload.de/image.php?img=hc_1430y9.jpg) http://www.abload.de/thumb/hc_145x4h.jpg (http://www.abload.de/image.php?img=hc_145x4h.jpg)

@ Schlammsau

600€ ist ein normaler Preis, finde ich. Ich würde ihn auch lieber tiefer sehen. Mich würden aber auch 700€ zu Anfang nicht wundern. War alles schon mal da gewesen :D

GeneralHanno
2008-05-28, 13:13:39
naja bei G7x zu G8x war es ja auch eine KOMPLETT neue architektur (ein effizienzsprung der nur mit netburst -> core vergleichbar ist).

der sprung von G9x bedeutet, die weiterentwicklung/verbreiterung einer sehr effizienten architektur. da der GT200 aber anders als der G92 komplett neu designed wurde, wird er ein besseres balancing (oder auf mehr leistung/transistor) haben. vergleichen wir mal den G94 und den GT200 (beides chips mit einer vermutlich sehr hohen effizienz):

transistoren: 500M vs 1400M (x2,8)
Aritm.: 2* 1625*64 = 208000 vs 3*1300*240 = 936000 (x4,5)
Tex: 32*650 = 20800 vs 80*600 = 48000 (x2,3)
Z-fill: 8*16*650 = 83200 vs 8*32*600 = 153600 (x1,8)
bandbreite und speicher: 512MiB@256bit vs 1GiB@512bit (~ x2)

reunion@work
2008-05-28, 13:21:29
Nvidia hat mit dem Sprung von GF7 auf GF8 schon mal fast 200% Mherleistung(3Fache GF7 Leistung) mit AA und AF geschafft und zwischen den GPUs lag etwas weniger Zeit als jetzt zwischen dem G80 und dem G200 also nix mit unrealistisch.Aber möglich das man für diese 300% eine höhere Auflösung fahren muss um den Unterschied zu sehen oder man betrachtet nur Games wie Crysis und Call of Juraz die jetzt immer noch mit den aktuellen Karte bei 20fps liegen.


http://s5.directupload.net/images/080526/o3eoob39.jpg

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/24/#abschnitt_performancerating_qualitaet


Die GF7 war auch mieß, schon ein R580 legt da bei deinem Schaubild mal eben 75% oben drauf. Die GF8 ist eine neue Generation welche die Bottlecks der GF7-Serie endlich behob. GT200 wird nicht viel mehr als ein Refresh sein. In bestimmten Szenarien mag vielleicht Faktor 3 möglich sein, doch wenn es im Schnitt doppelte Leistung ist, wäre das schon sehr gut.

Schlammsau
2008-05-28, 13:23:18
naja bei G7x zu G8x war es ja auch eine KOMPLETT neue architektur (ein effizienzsprung der nur mit netburst -> core vergleichbar ist).

der sprung von G9x bedeutet, die weiterentwicklung/verbreiterung einer sehr effizienten architektur. da der GT200 aber anders als der G92 komplett neu designed wurde, wird er ein besseres balancing (oder auf mehr leistung/transistor) haben. vergleichen wir mal den G94 und den GT200 (beides chips mit einer vermutlich sehr hohen effizienz):

transistoren: 500M vs 1400M (x2,8)
Aritm.: 2* 1625*64 = 208000 vs 3*1300*240 = 936000 (x4,5)
Tex: 32*650 = 20800 vs 80*600 = 48000 (x2,3)
Z-fill: 8*16*650 = 83200 vs 8*32*600 = 153600 (x1,8)
bandbreite und speicher: 512MiB@256bit vs 1GiB@512bit (~ x2)

war nicht von nur annähernd 1 Milliarde Transistoren gesprochen worden?
aber wenn sie wirklich bis zu 3x schneller sein sollte ist ein Launchpreis von weit über 700€ (1000$) sehr wahrscheinlich!

Das kann ich nicht glauben!

dildo4u
2008-05-28, 13:27:05
war nicht von nur annähernd 1 Milliarde Transistoren gesprochen worden?

Damals gings nur um die Logik ohne Caches wenn man die Die Size jetzt hochrechnet kommt man auf 1.3-1.4 Milliarden Transistoren.

dildo4u
2008-05-28, 13:28:54
Die GF7 war auch mieß, schon ein R580 legt da bei deinem Schaubild mal eben 75% oben drauf. Die GF8 ist eine neue Generation welche die Bottlecks der GF7-Serie endlich behob. GT200 wird nicht viel mehr als ein Refresh sein. In bestimmten Szenarien mag vielleicht Faktor 3 möglich sein, doch wenn es im Schnitt doppelte Leistung ist, wäre das schon sehr gut.
G200 ist sicherlich effizenter pro Transistor als die G80(ca500Mio Transistoren) Generation da wäre Faktor 2 bei 1.4Millarden Transistoren ein Reinfall.

Gast
2008-05-28, 13:30:50
Was hat das Teil eigentlich für Ausgänge ? HDMI oder displayport bereits ?

Gast
2008-05-28, 13:32:36
G200 ist sicherlich effizenter pro Transistor als die G80(ca500Mio Transistoren) Generation da wäre Faktor 2 bei 1.4Millarden Transistoren ein Reinfall.

G80 hat 681mio Transistoren.

Snoopy69
2008-05-28, 13:33:50
Das in der Sandbox ist doch Desktop-Ram...
In Rivatuner hatte ich aber mal um die 750MB Videoram gesehen. Falls die Angabe dort stimmt. 512MB auf der Graka sind jedenfalls viel zu wenig.

@ Gast

Displayport ist zwar nett, aber ich wüsste jetzt kein Gerät das DP hat.

dildo4u
2008-05-28, 13:39:13
G80 hat 681mio Transistoren.
Stimmt ca das Doppelte aber wenn dann nur Faktor 2 rauskommen hätte man 18Monate kein Prozent Effizenz rausgeholt.Wie man am G94 sieht hat NV die aber schon innerhalb der ersten DX10 Generation gesteigert.

frix
2008-05-28, 13:42:22
woher stammt denn das gerücht, dass sie 3x schneller sein soll?
Habt ihr das alle aus den techn. daten ausgeknobelt?

san.salvador
2008-05-28, 13:44:59
woher stammt denn das gerücht, dass sie 3x schneller sein soll?
Habt ihr das alle aus den techn. daten ausgeknobelt?
Hast du den Thread gelesen?

Snoopy69
2008-05-28, 13:47:36
Release soll ja angeblich der 18.06. sein.
Meint ihr, dass sie überhaupt verfügbar sein wird in DE oder erst mehrere Monate später zu hohen "Haben-will-Preisen"?

mapel110
2008-05-28, 13:52:18
nvidia hat ja angeblich den Launchtermin sogar vorgezogen. Ein Paperlaunch wäre damit wohl mehr als peinlich. Sie haben ja keinen Druck derzeit.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/launch_geforce_gtx_280_260/

frix
2008-05-28, 13:56:17
Hast du den Thread gelesen?

nein ich hab nicht alle 3 teile à 70seiten gelesen.

Gast
2008-05-28, 14:01:03
brauchst du dauch nicht, keiner weiss so richtig was wie schnell er wird weiss einfach keiner also warten ;)

frix
2008-05-28, 14:04:22
jo, dachte mir vllt. hatte das nvidia schonmal behauptet.

Gast
2008-05-28, 14:04:27
Das die GTX280 3xschneller sein soll, als die Vorgängergeneration dichten sich hier einige zusammen.
Es gab eine Meldung, nachdem die neue GTX280 ein Quantensprung sein soll und der Abstand zur Vorgängergeneration grösser sei, als damals der Performancesprung von Gf7 auf Gf8.
Da die 8800GTX damals mit ordentlich AntiAliasing bis zu 3x so schnell war wie die Gf7, macht man da halt schnell 3fache Performance draus.

Das ist halt die Eigendynamik der Gerüchteküche.

Godmode
2008-05-28, 14:07:42
Nein diese 3x kamen eigentlich von Ailurus, der selber sagte er kann es nicht ganz glauben.

dildo4u
2008-05-28, 14:10:10
Ich beziehe mich auf diese Aussage von benchmarkreviews.com

NVIDIA Editor's Day 2008

Just wait until June 17th when the GTX 200 series of GPU's launch, and you'll start asking yourself when you last witnessed such a dramatic technology improvement. If you thought the GeForce 8 series blew the 7-series out of the water, this is going to leave you in shock. That's not my own marketing spin... Benchmark Reviews is presently testing the new GeForce video card.

http://benchmarkreviews.com/index.php?option=com_content&task=view&id=178&Itemid=1&limit=1&limitstart=0

Gast
2008-05-28, 14:11:00
nvidia hat ja angeblich den Launchtermin sogar vorgezogen. Ein Paperlaunch wäre damit wohl mehr als peinlich. Sie haben ja keinen Druck derzeit.
http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/launch_geforce_gtx_280_260/

Nach dem RV770-Launch haben sie aber Druck, und der kommt noch einen Tag früher.

Hvoralek
2008-05-28, 14:11:56
Stimmt ca das Doppelte aber wenn dann nur Faktor 2 rauskommen hätte man 18Monate kein Prozent Effizenz rausgeholt.Wie man am G94 sieht hat NV die aber schon innerhalb der ersten DX10 Generation gesteigert.G94 ist weniger komplex als G80 (etwa 1/4 weniger Transistoren), aber auch in ähnlichem Maße langsamer trotz höherer Taktraten. Wo siehst Du da eine Effizienzsteigerung?

Moralelastix
2008-05-28, 14:12:09
Ich glaub das der Vergleich mit der Effizienz der 9600 den besten Eindruck der möglichen Leistungsfähigkeit der G200 vermittelt.

AnarchX
2008-05-28, 14:12:12
Die 30 FPS Crysis VH 4xAA 2560/1920 SLI/Single entsprächen auch ca. 3-mal 8800 GTX. ;)

Spasstiger
2008-05-28, 14:15:25
Was hat das Teil eigentlich für Ausgänge ? HDMI oder displayport bereits ?
Ich vermute 2*DVI + HDMI-Adapter. So mancher Hersteller wird wohl auch einen Display-Port draufpacken wie es bei der 9600 GT von Xpertvision und von Gainward der Fall war.

Gosh
2008-05-28, 14:22:00
@ frix

Die Crytek-Engine bietet soviel Potential, dass sogar die GTX280 kotzen muss.

Du nennst es Potential,ich nenne es eine schlecht programmierte Engine.

deekey777
2008-05-28, 14:27:10
Du nennst es Potential,ich nenne es eine schlecht programmierte Engine.
Begründe deine Behauptung anhand von Beispielen des Shadercodes.

Distroia
2008-05-28, 14:32:57
Dann guck noch mal.Ich hab extra den 100% Ausgangswert auf die 7900GTX gesetzt.Anders ausgedrückt ein G80 bringt die 3Fache GF7 Leistung.

Nein. Wenn sie 300% schneller wäre, würde sie die vierfache Leistung bringen nicht die dreifache.

Hvoralek
2008-05-28, 14:33:44
Ich glaub das der Vergleich mit der Effizienz der 9600 den besten Eindruck der möglichen Leistungsfähigkeit der G200 vermittelt.Inwiefern unterscheidet sich denn die Effizenz (anhand von Chipkomplexität und Takt) des G94 von der des G80?

AnarchX
2008-05-28, 14:35:12
GTX 280 (D10U-30): X4098
GTX 260 (D10U-20): X3782
http://gathering.tweakers.net/forum/view_message/30144631

Da waren die 7.000 wohl eher ein GTX 280 SLI.

Hvoralek
2008-05-28, 14:39:36
http://gathering.tweakers.net/forum/view_message/30144631

Da waren die 7.000 wohl eher ein GTX 280 SLI.Wenn das stimmt, wäre es allerdings enttäuschend. Und 260 und 280 keine 10% auseinander :|

/edit: Er nennt nun nicht das genaue Testsystem, aber wenn man einen einigermaßen passenden Prozessor verwendet hat, liegt das nicht weit vor einer GX2.

Gast
2008-05-28, 14:40:22
http://gathering.tweakers.net/forum/view_message/30144631

Da waren die 7.000 wohl eher ein GTX 280 SLI.

Das ist ziemlich genau 8800GT-SLi-Niveau

Gast
2008-05-28, 14:42:03
/edit: Er nennt nun nicht das genaue Testsystem, aber wenn man einen einigermaßen passenden Prozessor verwendet hat, liegt das nicht weit vor einer GX2.

Unter X limitiert sowieso nur mehr die Garka, da ist der Prozessor faktisch egal.

AnarchX
2008-05-28, 14:43:53
Wenn das stimmt, wäre es allerdings enttäuschend. Und 260 und 280 keine 10% auseinander :|

/edit: Er nennt nun nicht das genaue Testsystem, aber wenn man einen einigermaßen passenden Prozessor verwendet hat, liegt das nicht weit vor einer GX2.

Nunja, CJ ist zwar eine gute Quelle, aber doch eindeutig gefärbt, also sollte man die Werte nicht 100%ig nehmen, auch der Unterschied zur GTX 260 ist in der Tat etwas gering. Also noch abwarten, wobei die 7k wohl doch etwas utoptisch waren.

crux2005
2008-05-28, 14:44:00
http://gathering.tweakers.net/forum/view_message/30144631

Da waren die 7.000 wohl eher ein GTX 280 SLI.

nur ~ 2x GeForce 8800 GTX performance :confused:

dildo4u
2008-05-28, 14:44:54
liegt das nicht weit vor einer GX2.
Vantage ist auch so ziehmlich die einzige 3D Anwendung wo SLI fast zu 100% skaliert.

Gast
2008-05-28, 14:46:37
nur ~ 2x GeForce 8800 GTX performance :confused:

Nein, 2x GT Performance:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6480731&postcount=214

Gast
2008-05-28, 14:47:20
nur ~ 2x GeForce 8800 GTX performance :confused:

2*8800gtx sind schneller,nur 2*8800gt passt besser ins gefüge:)

crux2005
2008-05-28, 14:48:14
GPUs waren mit 725/1.800/1.000 getaktet. :rolleyes:

eine 8800 GTX hat cca. X2000 3DMarks

dildo4u
2008-05-28, 14:48:23
Nein, 2x GT Performance:

Die GT's sind kräfig übertaktet.

AnarchX
2008-05-28, 14:48:27
Nein, 2x GT Performance:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=6480731&postcount=214
GPUs waren mit 725/1.800/1.000 getaktet.
...

reunion@work
2008-05-28, 14:48:36
Nunja, CJ ist zwar eine gute Quelle, aber doch eindeutig gefärbt, also sollte man die Werte nicht 100%ig nehmen, auch der Unterschied zur GTX 260 ist in der Tat etwas gering. Also noch abwarten, wobei die 7k wohl doch etwas utoptisch waren.

Na jetzt wirds ulkig, wo ist CJ bitte gefärbt? Seine Infos waren faktisch immer korrekt, solche Zahlen zieht es sich mit Sicherheit nicht aus der Nase.

Hvoralek
2008-05-28, 14:49:27
Vantage ist auch so ziehmlich die einzige 3D Anwendung wo SLI fast zu 100% skaliert.Anders formuliert: Ungefähr 2/3 über G80- Leistung. Auch nicht berauschend, wenn es stimmt.

crux2005
2008-05-28, 14:52:22
die performance im 3DM Vantage ist mir persönlich egal
könnte auch am schlechten Treiber liegen
ich will Spiele bench´s =)

Gast
2008-05-28, 14:52:54
ich weiß nicht was ihr nun habt.
http://www.computerbase.de/artikel/software/2008/bericht_3dmark_vantage_der_performance_report/6/#abschnitt_messungen_verschiedener_grafikkarten

die 4100pkte sind mit unfertigen treibern ca 2x8800GTX Niveau. Das entspricht exakt dem was alle vermuten. 2xG80...

dildo4u
2008-05-28, 14:54:08
Anders formuliert: Ungefähr 2/3 über G80- Leistung. Auch nicht berauschend, wenn es stimmt.
Hä eine 8800GTX kommt auf 2000 Punke unter Xtreme Settings die GTX280 auf 4000 das sind bei mir 100% Mherleistung und nich nur 75%.

Moralelastix
2008-05-28, 14:54:09
Na mit nur 64 SP war die 9600 doch überraschend stark im Vergleich zur G92.

10000 3DM 06 ohne Probleme

AnarchX
2008-05-28, 14:54:39
Na jetzt wirds ulkig, wo ist CJ bitte gefärbt? Seine Infos waren faktisch immer korrekt, solche Zahlen zieht es sich mit Sicherheit nicht aus der Nase.
Das "www.amd.com" als Avatar spricht doch eine deutlich Sprache. Ich möchte nicht sagen, dass die Werte aus der Nase gezogen sind, sondern dass sie eher von Quellen kommen, die näher zu AMD stehen.

dildo4u
2008-05-28, 14:59:26
Das "www.amd.com" als Avatar spricht doch eine deutlich Sprache. Ich möchte nicht sagen, dass die Werte aus der Nase gezogen sind, sondern dass sie eher von Quellen kommen, die näher zu AMD stehen.
Jup und gerade Vantage ist noch relativ Neu da kann sich in 3 Wochen auch noch was am dem Treiber tun der dann zum Launch bereit steht.

Hvoralek
2008-05-28, 15:10:24
Hä eine 8800GTX kommt auf 2000 Punke unter Xtreme Settings die GTX280 auf 4000 das sind bei mir 100% Mherleistung und nich nur 75%.Hä? Eine 8800 Ultra (--> auch ein G80) kommt auf über 2500 Punkte. 4100 sind bei mir nicht einmal 65% Mehrleistung, geschweige denn 75 oder gar 100.

Muss so ein Ton wirklich sein? :rolleyes:

Ach so, eine Quelle für die 2500: http://www.computerbase.de/artikel/software/2008/bericht_3dmark_vantage_der_performance_report/6/#abschnitt_overallscore

pest
2008-05-28, 15:13:18
hm war doch aber von anfang an klar das es nur leicht über 2xG80 oder 2xG92 liegen wird...

edit: und selbst wenn die HD4870 HD3870X2 Niveau erreicht, hat die GTX280 noch genug Luft

Schlammsau
2008-05-28, 15:17:03
hm war doch aber von anfang an klar das es nur leicht über 2xG80 oder 2xG92 liegen wird...

edit: und selbst wenn die HD4870 HD3870X2 Niveau erreicht, hat die GTX280 noch genug Luft

*kopfschüttel* .......die HD4870 war doch nie als Konkurrent der GTX280 gedacht. Oder meinst du eine 350$ Karte soll eine 600$ Karte schlagen?
Die 4870X2 soll die Konkurrenz sein!

Hvoralek
2008-05-28, 15:19:37
Na mit nur 64 SP war die 9600 doch überraschend stark im Vergleich zur G92.

10000 3DM 06 ohne ProblemeIch hoffe inständig, dass GT200 mit seinen Eckdaten gegenüber G80 auch zulegt. Es gibt doppelt so viele ROPs, knapp doppelt so viele Arithmetikeinheiten, kaum mehr TMUs und einen leicht niedrigeren Takt - Da sollte tunlichst noch einiges an Effizienzsteigerungen drin stecken.

G80 hat ggü. G94 doppelt so viele ALUs/ TMUs und 1/2 mehr ROPs/ Bandbreite und ist mit niedrigeren Taktraten um rund die Hälfte schneller. Dass es G92 an Bandbreite/ Füllrate/ Speicher mangelt und es sich deshalb nicht so weit von G94 absetzen kann, wie es die Marketingtechnisch tollen "SP"- und FLOPS- Angaben vermuten ließen, ist nun wahrlich nichts Neues. Vergleiche mal die Komplexität/ Größe der beiden Chips. Bezogen darauf ist selbst der Angezogene- Handbremse- Chip G92 nicht so viel weniger effizient als der tolle Effizienzknaller G94 (Der ist 1/3 kleiner und 1/4 langsamer).

Wenn man an der Transistoreffizienz nichts gebessert hat, ist GT200 vll. 2,5x so schnell wie eine 9600 GT (anhand von 500 ggü. 1400 Mio Transistoren und Taktdifferenz). Nur G94- Effizienz würde also eindeutig nicht für doppelte G80- Leistung reichen.

pest
2008-05-28, 15:19:54
*kopfschüttel* .......die HD4870 war doch nie als Konkurrent der GTX280 gedacht. Oder meinst du eine 350$ Karte soll eine 600$ Karte schlagen?
Die 4870X2 soll die Konkurrenz sein!

hab ich was davon geschrieben?
es könnte ja auch sein das sich z.b. die GTX260 unterhalb der 9800GX2 einordnet,
und die HD4870 stärker wird als erwartet, dann wird's langsam eng ;)

reunion@work
2008-05-28, 15:21:20
Ich hoffe inständig, dass GT200 mit seinen Eckdaten gegenüber G80 auch zulegt. Es gibt doppelt so viele ROPs, knapp doppelt so viele Arithmetikeinheiten, kaum mehr TMUs und einen leicht niedrigeren Takt - Da sollte tunlichst noch einiges an Effizienzsteigerungen drin stecken.

G80 hat ggü. G94 doppelt so viele ALUs/ TMUs und 1/2 mehr ROPs/ Bandbreite und ist mit niedrigeren Taktraten um rund die Hälfte schneller. Dass es G92 an Bandbreite/ Füllrate/ Speicher mangelt und es sich deshalb nicht so weit von G94 absetzen kann, wie es die Marketingtechnisch tollen "SP"- und FLOPS- Angaben vermuten ließen, ist nun wahrlich nichts Neues. Vergleiche mal die Komplexität/ Größe der beiden Chips. Bezogen darauf ist selbst der Angezogene- Handbremse- Chip G92 nicht so viel weniger effizient als der tolle Effizienzknaller G94 (Der ist 1/3 kleiner und 1/4 langsamer).

Wenn man an der Transistoreffizienz nichts gebessert hat, ist GT200 vll. 2,5x so schnell wie eine 9600 GT (anhand von 500 ggü. 1400 Mio Transistoren und Taktdifferenz). Nur G94- Effizienz würde also eindeutig nicht für doppelte G80- Leistung reichen.

G80 hat 6 ROP-Cluster/24ROPs.

Hvoralek
2008-05-28, 15:22:02
G80 hat 6 ROP-Cluster/24ROPs.Das sind doch 1/2 mehr als G94 :confused:

reunion@work
2008-05-28, 15:24:22
Das sind doch 1/2 mehr als G94 :confused:

Der erste Absatz.

Hvoralek
2008-05-28, 15:26:43
Der erste Absatz.Oh stimmt, mein Fehler. Dann steigt also nur die Arithmetikleistung auf gut das Doppelte ggü. G80 (30/16 Vec8, dazu repariertes MUL), alle übrigen Eckdaten liegen auf dem Papier weit darunter.

reunion@work
2008-05-28, 15:33:57
Oh stimmt, mein Fehler. Dann steigt also nur die Arithmetikleistung auf gut das Doppelte ggü. G80 (30/16 Vec8, dazu repariertes MUL), alle übrigen Eckdaten liegen auf dem Papier weit darunter.

Bleibt die Frage wofür man dann ~2x Transistoren benötigt. Normalerweise benötigt selbst ein doppelt so breiter Chip nur gut 2/3 mehr Transistoren. Außer DP, Verbesserungen am Tri-Setup, mögliche GPCPU-Optimierungen und dem Videoprozessor dürfte sich featuremäßig zwischen G80 und GT200 nicht viel getan haben.

dildo4u
2008-05-28, 15:34:58
Wenn man an der Transistoreffizienz nichts gebessert hat,
Was unwahrscheinlich ist NV spricht selber von einer 50% Steigerung der Effizienz pro SP.

Gast
2008-05-28, 15:36:05
Was unwahrscheinlich ist NV spricht selber von einer 50% Steigerung der Effizienz pro SP.

die ist auch bitter nötig um 240 shader in gang zu bringen:)

reunion@work
2008-05-28, 15:36:09
Was unwahrscheinlich ist NV spricht selber von einer 50% Steigerung der Effizienz pro SP.

Es sind auch 50% mehr Einheiten pro Cluster. 16 -> 24. Ich denke das war damit gemeint.

deekey777
2008-05-28, 15:38:23
Was unwahrscheinlich ist NV spricht selber von einer 50% Steigerung der Effizienz pro SP.

G80er SP: nur MADD (2 FLOP pro Takt)
G200er SP: MADD+MUL (3 FLOP pro Takt)

Eine Steigerung um 50 Prozent.

Anarchy-HWLUXX
2008-05-28, 15:38:44
Bleibt die Frage wofür man dann ~2x Transistoren benötigt.

Hab ich was verpasst oder seit wann sind 1.2+ mrd offiziell bestätigt ?

Hmm, nö - nix verpasst ud nur spekulazius.

dildo4u
2008-05-28, 15:38:47
Es sind auch 50% mehr Einheiten pro Cluster. 16 -> 24. Ich denke das war damit gemeint.
Nein es ging um die Effizenz pro SP.Also 128 vs 240 plus 50%.

Snoopy69
2008-05-28, 15:39:10
Die 30 FPS Crysis VH 4xAA 2560/1920 SLI/Single entsprächen auch ca. 3-mal 8800 GTX. ;)
Meinst du jetzt T-SLI mit 3 GTXen oder die summierte Leistung von 3 einzeln getesteten GTXen? Das ist ein grosser Unterschied.
Und dann würde mich interessieren, ob die 30fps nur avg sind (was ich jetzt auch hab). Bei avg kann es immerhin noch auf 15-20 fps runtergehen. Was dann nicht mehr schön zu spielen ist.

reunion@work
2008-05-28, 15:40:43
Hab ich was verpasst oder seit wann sind 1.2+ mrd offiziell bestätigt ?

Hmm, nö - nix verpasst ud nur spekulazius.

Die Die-Size ist praktisch bestätigt - das reicht.

Gast
2008-05-28, 15:47:43
Hä? Eine 8800 Ultra (--> auch ein G80) kommt auf über 2500 Punkte. 4100 sind bei mir nicht einmal 65% Mehrleistung, geschweige denn 75 oder gar 100.

Muss so ein Ton wirklich sein? :rolleyes:

Ach so, eine Quelle für die 2500: http://www.computerbase.de/artikel/software/2008/bericht_3dmark_vantage_der_performance_report/6/#abschnitt_overallscore


Passt ja auch exakt!

Vantage sollte vor allem Shader-Limited sein und die GTX280 hat ca. 60% mehr Shaderleistung als die G80-Ultra. Quelle: http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/finale_taktraten_geforce_gtx_280_gtx_260/

Bei Spielen sollte der Vorsprung allerdings geringer sein, da die GTX280 ja nur ca. 36% mehr Bandbreite hat und nur ca. 23% mehr Texelfüllrate.

dildo4u
2008-05-28, 15:48:54
Passt ja auch exakt!

Vantage sollte vor allem Shader-Limited sein und die GTX280 hat ca. 60% mehr Shaderleistung als die G80-Ultra. Quelle: http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/finale_taktraten_geforce_gtx_280_gtx_260/

Der G80 kann seine ca 600Gflops nicht komplett nutzen der G200 seine 960 hingegen schon.

*Die von uns angegebenen GFLOP-Zahlen der Nvidia-Grafikkarten entsprechen dem theoretisch maximalen Output, wenn alle ALUs auf die gesamte Kapazität der MADD- und MUL-Einheiten zurückgreifen können. Dies ist allerdings praktisch nie der Fall. Während das MADD komplett für „General Shading“ genutzt werden kann, hat das zweite MUL meistens andere Aufgaben und kümmert sich um die Perspektivenkorrektur oder arbeitet als Attributinterpolator oder Special-Function-Unit (SFU). Mit dem GeForce-Treiber kann das zweite MUL zwar auch für General Shading verwendet werden, anscheinend aber nicht vollständig, da weiterhin die „Sonderfunktionen“ ausgeführt werden müssen. Deswegen liegen die reellen GFLOP-Zahlen unter den theoretisch maximalen.

Gast
2008-05-28, 15:50:36
Bleibt die Frage wofür man dann ~2x Transistoren benötigt. Normalerweise benötigt selbst ein doppelt so breiter Chip nur gut 2/3 mehr Transistoren. Außer DP, Verbesserungen am Tri-Setup, mögliche GPCPU-Optimierungen und dem Videoprozessor dürfte sich featuremäßig zwischen G80 und GT200 nicht viel getan haben.


Viellleicht hat der GT200 ja richtige FP64 Einheiten? Deshalb war vielleicht auch die arithmetische Leistung bei der ersten Vorstellung soo hoch.

Hvoralek
2008-05-28, 15:51:25
Nein es ging um die Effizenz pro SP.Also 128 vs 240 plus 50%.Wie deekey schon sagte, meint man damit wohl die 50%ige Steigerung der theoretischen Rechenleistung durch das zweite MUL. Da wird aber wohl kaum eine 50%ige praktische Shadermehrleistung bei herauskommen.

Wenn sich an der GT200- Effizient wirklich etwas getan hat (Was ich wie gesagt dringend hoffe), muss es etwas sein, was man den Eckdaten nicht sofort entnehmen kann.

Nakai
2008-05-28, 15:57:10
Wie deekey schon sagte, meint man damit wohl die 50%ige Steigerung der theoretischen Rechenleistung durch das zweite MUL. Da wird aber wohl kaum eine 50%ige praktische Shadermehrleistung bei herauskommen.

Wenn sich an der GT200- Effizient wirklich etwas getan hat (Was ich wie gesagt dringend hoffe), muss es etwas sein, was man den Eckdaten nicht sofort entnehmen kann.

Naja es sind nun sogar 30 Vec8-Shader, also 30 MIMDs.
Der G80 hatte nur 16 solcher Vec8-Shader.
Bessere Granularität evtl.


mfg Nakai

dildo4u
2008-05-28, 15:57:59
Wie deekey schon sagte, meint man damit wohl die 50%ige Steigerung der theoretischen Rechenleistung durch das zweite MUL. Da wird aber wohl kaum eine 50%ige praktische Shadermehrleistung bei herauskommen.

Wenn sich an der GT200- Effizient wirklich etwas getan hat (Was ich wie gesagt dringend hoffe), muss es etwas sein, was man den Eckdaten nicht sofort entnehmen kann.
Laut den Folding@Home Ergebnissen ist die Effizienz sher hoch höher als beim G80 sonsts könnte man whol kaum die 3 fache 3870 Leistung erreichen obwhol die ATI Theoretisch 60% der Shaderleistung des G200 hat.

http://www.pcgameshardware.de/aid,644648/News/Folding@Home_Client_fuer_Nvidia_GTX_280_soll_dreimal_schneller_falten_als_eine_H D3870/

deekey777
2008-05-28, 15:59:37
Laut den Folding@Home Ergebnissen ist die Effizienz sher hoch höher als beim G80 sonsts könnte man whol kaum die 3 fache 3870 Leistung erreichen obwhol die ATI Theoretisch 60% der Shaderleistung des G200 hat.
Lasst doch endlich diese nichtsaussagende Folie aus dem Spiel.
Wenn der GPU2-Client den Beta-Status verlässt, dann reden wir über, was wo schneller ist.

dildo4u
2008-05-28, 16:01:53
Lasst doch endlich diese nichtsaussagende Folie aus dem Spiel.
Wenn der GPU2-Client den Beta-Status verlässt, dann reden wir über, was wo schneller ist.
Ist das einzig Handfeste was es zu Zeit gibt abseitz irgendwelcher Vantage Zahlen aus irgendwelchen Foren Posts sorry.

Snoopy69
2008-05-28, 16:04:13
Ich glaube nur an max. doppelte fps-Leistung...
Warum also etwas rausbringen, dass 3-fache Leistung hat? NV hat ja keinen Druck.

Je niedriger man die Erwartungen stellt, desto weniger wird man nachher enttäuscht bzw. je grösser die Freude :)

Hvoralek
2008-05-28, 16:04:35
Naja es sind nun sogar 30 Vec8-Shader, also 30 MIMDs.
Der G80 hatte nur 16 solcher Vec8-Shader.
Bessere Granularität evtl.Die breitere Architektur könnte eher zu einer schlechteren Granulität führen. Vll. nicht mehr Threads mit 32 Pixeln, sondern jetzt mit 48 (2*3*8 statt 2*2*8).

Laut den Folding@Home Ergebnissen ist die Effizienz sher hoch höher als beim G80 sonsts könnte man whol kaum die 3 fache 3870 Leistung erreichen obwhol die ATI Theoretisch 60% der Shaderleistung des G200 hat.

http://www.pcgameshardware.de/aid,644648/News/Folding@Home_Client_fuer_Nvidia_GTX_280_soll_dreimal_schneller_falten_als_eine_H D3870/Und das sagt was bitte für Shading aus?

Gast
2008-05-28, 16:04:45
Was unwahrscheinlich ist NV spricht selber von einer 50% Steigerung der Effizienz pro SP.

die "missing" mul des G80 ist jetzt also aufgetaucht.

Hvoralek
2008-05-28, 16:06:53
Ist das einzig Handfeste was es zu Zeit gibt abseitz irgendwelcher Vantage Zahlen aus irgendwelchen Foren Posts sorry.Vll. ist Dir aufgefallen, dass der Vorsprung der 280 ggü. der 3870 in beiden Fällen rund 180% beträgt (Bei Vantage 4100 ./. 1500).

Gast
2008-05-28, 16:08:33
Ich glaube nur an max. doppelte fps-Leistung...
Warum also etwas rausbringen, dass 3-fache Leistung hat? NV hat ja keinen Druck
und ob die druck haben sogar ganz gewaltigen,vorallem wenn die 4870x2 kommt.aber auch so schon man nehme 2x4870 und man ist schneller,billiger und 1000 anderen vorteilen.wer jetzt noch mit mikrorucklern kommt dem kann man nicht mehr helfen. in der performance kategorie wird man eine ganz,ganz lange zeit nicht bei 30-40 fps rumgurken.

dildo4u
2008-05-28, 16:09:21
Vll. ist Dir aufgefallen, dass der Vorsprung der 280 ggü. der 3870 in beiden Fällen rund 180% beträgt (Bei Vantage 4100 ./. 1500).
Vantage taugt nicht wirklich zum Vergleich mit ATI dort schneiden diese Karten im Vergleich mit NV zumindest mit dem 8.4Treiber(Noch keine Optemierung?) wesentlich schlechter ab als im Durchschnitt bei den aktuellen Games.

Snoopy69
2008-05-28, 16:09:35
Wo ist nochmal der Link mit den 4100? Oder wurde das hier nur gesagt?

Nakai
2008-05-28, 16:10:44
Die breitere Architektur könnte eher zu einer schlechteren Granulität führen. Vll. nicht mehr Threads mit 32 Pixeln, sondern jetzt mit 48 (2*3*8 statt 2*2*8).

So dumm würde ich NV nicht einschätzen.
Selbst der RV770 hat etwa mit 30% mehr Transistoren, einige Einheiten verdoppelt oder erhöht und sogar noch etwas verbessert.
NV hat mehr als 100% Transistoren für den GT200 aufgebracht.


mfg Nakai

Gast
2008-05-28, 16:10:52
Der G80 kann seine ca 600Gflops nicht komplett nutzen der G200 seine 960 hingegen schon.

Wirklich? Das steht da nämlich nicht. Da steht nur das beide GFLOPs-Werte theoretisch sind; bei den GT200 aber mit einem Fragezeichen versehen.

dargo
2008-05-28, 16:11:33
Das ist doch im Ernstfall völlig egal. Die 8800GTX verletzt auch die PCIe-Specs, da PCIe1.1 nur einen externen 75W-Anschluss vorsieht.
Stimmt, jetzt wo du es sagst....

wenn es da angelangt ist, such ich mir ein anderes Hobby das ist jetzt schon ne frechheit dem Teil 250 Watt TDP zu verpassen, ATI geht in richtig Zukunft und NV zurück in die Steinzeit das kann ja wohl nicht sein.
Wo geht ATI in die Zukunft? Die effizientere GPU liefert immer noch NV, auch wenn sie insgesamt mehr Verlustleistung produziert.

AnarchX
2008-05-28, 16:12:29
GT200 ist sehr gut


Im vergangenen Jahr hat die Design-und Silizium, dieshot es ist eine große Kreuzung

Second-Generation US-Rahmen, zur Verbesserung der Kontrolle der Faden, der neuen Einheit tex, starke Leistung

10TPC, 30TPA, die Größe groß, 512 Bit Corssbar MC insbesondere für lokale, ROP erhöht nicht nur die Nummer des Geschmacksmusters ist ebenfalls neu

Double-precision floating-point Hardware-Unterstützung, kann viele Dinge außerhalb von Grafiken, CUDA Pläne zur Expansion in

Vergleich der bedauern, dass der Prozess Einschränkungen unterliegt, Flops letztlich gescheitert zu brechen 1 T, und der anfängliche Rendite ist nicht hoch

Eigenschaften nicht gesagt, dass das Internet Mai Chuide ein bisschen übertrieben, aber ich kann garantieren, dass selbst die anspruchsvollsten Liebhaber, um zu sehen, die Ergebnisse dieser Karte wird auch schreien

http://img151.imageshack.us/img151/1268/fmnt9.jpg


http://we.pcinlife.com/thread-940503-1-1.html#zoom

Hoffentlich gibt es die Bilder auch bald noch größer...

Und was wohl das neue "Geschmacksmuster" der ROPs ist? :D (edit: Laut Übersetzung ins Englische, offenbar ein neues ROP-Design...)

GeneralHanno
2008-05-28, 16:13:05
wofür die transistoren genau draufgehen, nun dann muss man erstmal wissen, was beim G8x,9x wie viel "kostet".

R = 4 Rops / 64bit-MC
C = 16SP / 8 TMU / 8 TAU
S = sonstiges (Setup,VP, ...)

G84: 289M = 2R + 2C + S
G92: 754M = 4R + 8C + S
G94: 505M = 4R + 4C + S

laut den regeln der matritzdenrechnung ergibt das:

R = 45,75M
C = 62,25M
S = 73M

kleine probe (mit dem G96)
210M ?= 1R + 1C + S
210M ?= 45,75M + 62,25M + 73M
210M != 181M
ganz so einfach ist es wohl doch nicht, vermutlich ist S doch etwas größer und variiert ...

Godmode
2008-05-28, 16:13:43
Passt ja auch exakt!

Vantage sollte vor allem Shader-Limited sein und die GTX280 hat ca. 60% mehr Shaderleistung als die G80-Ultra. Quelle: http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2008/mai/finale_taktraten_geforce_gtx_280_gtx_260/

Bei Spielen sollte der Vorsprung allerdings geringer sein, da die GTX280 ja nur ca. 36% mehr Bandbreite hat und nur ca. 23% mehr Texelfüllrate.

Es sind eher 240 % der Leistung einer G80 Ultra.

128 * 2 * 1.512 = 387 GFlops
240 * 3 * 1296 = 933 GFlops

robbitop@work
2008-05-28, 16:14:33
Naja es sind nun sogar 30 Vec8-Shader, also 30 MIMDs.
Der G80 hatte nur 16 solcher Vec8-Shader.
Bessere Granularität evtl.


mfg Nakai
Nur weil die Kanäle anders angebunden sind, ist das noch lange kein MIMD.
Die 2x Vec8 Einheiten pro Cluster beim G8x/9x führen alle die gleiche Operation aus. Beim GT200 werden es vermutlich sogar 3x Vec8 die pro Cluster und Takt die gleiche Operation ausführen. SIMD - Single Instruction Multiple Data. Wäre also SIMD16 bzw SIMD24. :)

Hvoralek
2008-05-28, 16:15:28
Vantage taugt nicht wirklich zum Vergleich mit ATI dort schneiden diese Karten im Vergleich mit NV zumindest mit dem 8.4Treiber(Noch keine Optemierung?) wesentlich schlechter ab als im Durchschnitt bei den aktuellen Games.Und eine GPGPU- Anwendung mit einem Client im Betastadium soll sich besser eignen? :|

So dumm würde ich NV nicht einschätzen.
Selbst der RV770 hat etwa mit 30% mehr Transistoren, einige Einheiten verdoppelt oder erhöht und sogar noch etwas verbessert.
NV hat mehr als 100% Transistoren für den GT200 aufgebracht.Das wäre nicht "dumm", sondern schlicht die Fortsetzung der G8x- Granulität. Womit rechnest Du denn? 1*3*8?

Ich nehme übrigens an, dass AMD auch auf ihrer Schiene weiter fährt und RV770 mit einer Granulität von 96 Pixeln anrückt.

Gast
2008-05-28, 16:15:48
Ich glaube nur an max. doppelte fps-Leistung...
Warum also etwas rausbringen, dass 3-fache Leistung hat? NV hat ja keinen Druck.

Je niedriger man die Erwartungen stellt, desto weniger wird man nachher enttäuscht bzw. je grösser die Freude :)

Naja, wenn die spekulierten Preise von über 600 USDollar zutreffend sind, erwarten die Leute auch entprechende Performance, insbesondere in Europa, wo man eigentlich immer 1:1 abgemolken wird, trotz schwachen Dollars.
Wenn man am Ende eventuell dann doch nur 30-40% schneller ist, als ein RV770XT, wird man sich schwer tun, derartig saftige Preisvorstellungen durchzudrücken.

Sonyfreak
2008-05-28, 16:17:18
und ob die druck haben sogar ganz gewaltigen,vorallem wenn die 4870x2 kommt.aber auch so schon man nehme 2x4870 und man ist schneller,billiger und 1000 anderen vorteilen.wer jetzt noch mit mikrorucklern kommt dem kann man nicht mehr helfen. in der performance kategorie wird man eine ganz,ganz lange zeit nicht bei 30-40 fps rumgurken.Das heißt man tritt mit Quad-Mikroruckler und Quad-Eingabeverzögerung gegen eine Einzelkarte, die diese schwerwiegenden Nachteile nicht hat. Von der Treiberunterstützung und der Skalierung will ich erst gar nicht anfangen.

Also nichtmal doppelte G80-Leistung würde mich ehrlich gesagt schon ein bisschen enttäuschen. Bin schon sehr auf die ersten richtigen Tests gespannt. :)

mfg.

Sonyfreak

dildo4u
2008-05-28, 16:20:07
Und eine GPGPU- Anwendung mit einem Client im Betastadium soll sich besser eignen? :|


Beide Clients sind im Betastadium aber immerhin können ATI und NV hier nicht mit Filtertricks schummeln. *g*

Schlammsau
2008-05-28, 16:21:56
Naja, wenn die spekulierten Preise von über 600 USDollar zutreffend sind, erwarten die Leute auch entprechende Performance, insbesondere in Europa, wo man eigentlich immer 1:1 abgemolken wird, trotz schwachen Dollars.
Wenn man am Ende eventuell dann doch nur 30-40% schneller ist, als ein RV770XT, wird man sich schwer tun, derartig saftige Preisvorstellungen durchzudrücken.
wenn man jetzt von doppelter G80 Leistung ausgeht, die der GT200 vorraussichtlich hat, ist er trotzdem noch 60-70% schneller als eine einzelne HD4870 (RV770XT). Die 4870 soll für rund 350$, und die GTX280 für ungefähr 600$ in den Handel.
Würde soweit doch passen!? High End war schon immer überproportional teuer.

Gast
2008-05-28, 16:26:48
Meine einzige Hoffnung: Crysis in 1920, Very High, 4xAA mit 30 fps (auch in den Eisleveln).

Wenn sie das schafft ist gut.

Gast
2008-05-28, 16:29:06
Meine einzige Hoffnung: Crysis in 1920, Very High, 4xAA mit 30 fps (auch in den Eisleveln).

Wenn sie das schafft ist gut.

eine karte niemals,das wird nur im sli möglich sein.

Schlammsau
2008-05-28, 16:30:31
Meine einzige Hoffnung: Crysis in 1920, Very High, 4xAA mit 30 fps (auch in den Eisleveln).

Wenn sie das schafft ist gut.

Bei "nur" 2 facher G80 Leistung niemals. Sie hätte bei der Auflösung vielleicht 20fps.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/19/#abschnitt_crysis

Gast
2008-05-28, 16:37:15
Nvidia hat mit dem Sprung von GF7 auf GF8 schon mal fast 200% Mherleistung(3Fache GF7 Leistung) mit AA und AF geschafft und zwischen den GPUs lag etwas weniger Zeit als jetzt zwischen dem G80 und dem G200 also nix mit unrealistisch.Aber möglich das man für diese 300% eine höhere Auflösung fahren muss um den Unterschied zu sehen oder man betrachtet nur Games wie Crysis und Call of Juraz die jetzt immer noch mit den aktuellen Karte bei 20fps liegen.


http://s5.directupload.net/images/080526/o3eoob39.jpg

http://www.computerbase.de/artikel/hardware/grafikkarten/2007/test_nvidia_geforce_8800_gt_sli/24/#abschnitt_performancerating_qualitaet


Lol..das ist nicht dein ernst ? :rolleyes: den verkorksten G70 vs. G80 Vergleich, als basis für die Performance G80 vs. GT200 zu nehmen...

Gast
2008-05-28, 16:44:05
Bei "nur" 2 facher G80 Leistung niemals. Sie hätte bei der Auflösung vielleicht 20fps.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/19/#abschnitt_crysis

Dabei wird es aber nicht bleiben. Ich schätze das 2,5-2,8 fache einer 8800 Ultra

Gast
2008-05-28, 16:45:08
Bei "nur" 2 facher G80 Leistung niemals. Sie hätte bei der Auflösung vielleicht 20fps.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/19/#abschnitt_crysis
Dann sollte sie es wenigstens in 1x AA schaffen. Wenn sie das nicht schafft, ist der erhoffte "Knoten" nicht geplatzt - dann kann ich mir auch eine Value-Karte für 250EUR kaufen...

Schlammsau
2008-05-28, 16:48:23
Dabei wird es aber nicht bleiben. Ich schätze das 2,5-2,8 fache einer 8800 Ultra

Träum weiter.......

Dann sollte sie es wenigstens in 1x AA schaffen.

das könnte durchaus hinhauen!

Gast
2008-05-28, 16:48:51
Dabei wird es aber nicht bleiben. Ich schätze das 2,5-2,8 fache einer 8800 Ultra

bei 23% höherer Texelfüllrate und 36% höherer Bandbreite...träum weiter.

Gast
2008-05-28, 16:52:38
Träum weiter.......

Das ist kein Traum , warte die Zeit ab du wirst es sehen.

Gast
2008-05-28, 16:54:22
1920x1200 4xAA ist spielbar mit einer GTX280, 2560x1600 4xAA mit zwei GTX280 :-)

Schlammsau
2008-05-28, 16:55:03
Das ist kein Traum , warte die Zeit ab du wirst es sehen.

Gut, mach ich! Aber wehe das stimmt nicht, dann gibts nen Satz heisse Ohren!

Gast
2008-05-28, 16:55:41
Gut, mach ich! Aber wehe das stimmt nicht, dann gibts nen Satz heisse Ohren!

In Extremsituationen wo die CPU nicht limitiert versteht sich

Gast
2008-05-28, 17:07:10
Bei "nur" 2 facher G80 Leistung niemals. Sie hätte bei der Auflösung vielleicht 20fps.
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/19/#abschnitt_crysis

Der GX2 geht ebend der Speicher aus.

Dominator18.....

Gast
2008-05-28, 17:10:11
1920x1200 4xAA ist spielbar mit einer GTX280, 2560x1600 4xAA mit zwei GTX280 :-)

Lol :rolleyes: eine 8800GTX schafft in Very High 1680x1050 4xAA+16xAF grad mal 11FPS.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/19/#abschnitt_crysis

Gast
2008-05-28, 17:12:30
Lol :rolleyes: eine 8800GTX schafft in Very High 1680x1050 4xAA+16xAF grad mal 11FPS.

http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_9600_gso/19/#abschnitt_crysis

Siehst du ;)