PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Die erste GraKa mit 512MB... Die Leadtek 6800GT


Undertaker
2004-12-09, 16:00:01
hi

http://www.computerbase.de/news/hardware/grafikkarten/nvidia/2004/dezember/nvidia-karten_512_mb/

meine Meinung dazu: sinnvoll

warum?

es gibt genügend beispiele aus naher vergangenheit, die zeigen das ein (über)großer v-ram in der zukunft ordentliche vorteile haben kann

bsp1: die gf4-ti4200 mit 128mb sind heute in vielen spielen deutlich schneller und zb. in hl2 kann man mit höchsten textur-settings spielen - mit 64mb geht das nicht

bsp2: mein freund besitzt eine gf2-mx100 ;) mit 64mb und damit laufen viele spiele besser als mit meiner alten gf2-mx400, welche nur 32mb besitzt, aber die doppelte speicherbandbreite hat und auch ein ganzes stück teurer war

fazit: der preis wird entscheiden - wenn die mehrkosten allerdings 50€ überschreiten ist die karte in meinen augen nicht mehr sinnvoll

mfg undertaker

Gast
2004-12-09, 16:13:46
Meine Meinung dazu ist, dass 512 MB, erstmal nur für Workstation Karten verbaut werden ala Quadro, bis Desktop Karten mit 512 MB rauskommen wird sicher Sommer oder sogar noch später.

aim
2004-12-09, 16:19:08
aber aufhalten wird sie nichts mehr....

dildo4u
2004-12-09, 16:20:41
Für SLI also extremen auflösungen whol sher sinnvoll da bei sli nur der vram einer karte genutzt werden kann.

MechWOLLIer
2004-12-09, 17:21:16
Für SLI also extremen auflösungen whol sher sinnvoll da bei sli nur der vram einer karte genutzt werden kann.
Bei den 6800 Karten wohl auch schon ohne SLI, da ihnen aufgrund des Scanout bei Antialiasing auch schon bei 1600x1200 mit 4xAA der Speicher ausgeht.

Raff
2004-12-09, 17:25:19
Natürlich ist das sinnvoll -- allerdings nicht heutzutage. Die 256MB mehr dürften in keinster Weise den Mehrpreis rechtfertigen, auch nicht in 1600x1200x32 mit 4xAA/16xAF. In Zukunft werden 512MB-Karten allerdings mit großer Wahrscheinlichkeit Vorteile haben ... aber erst dann lohnen solche Karten auch preislich. ;)

MfG,
Raff

DaBrain
2004-12-09, 17:36:44
IMO sollte man lieber die Texturenkompression verbessern.

Ich kann nicht glauben, wieviele Spiele heutzutage noch viele unkompremierte maps(Texturen, Effekte u.s.w.) haben. Verstehen kann ich es schon: Die Qualität der Kompression ist zu schlecht.

Beste Lösung: Verlustfreie Kompremierung.

Duracellhäschen
2004-12-09, 17:37:45
bsp2: mein freund besitzt eine gf2-mx100 ;) mit 64mb und damit laufen viele spiele besser als mit meiner alten gf2-mx200, welche nur 32mb besitzt, aber die doppelte speicherbandbreite hat und auch ein ganzes stück teurer war

Ich glaub du meinst eine GeForce 2 MX 400, die hatte 64Mb, die hatte ich nämlich auch.
Nun zum Thema. Ich denke für die Ultra isses gut und für die GT auch, gerade bei den großen Texturen zukünftiger Spiele. Aber für alle anderen Modele wäre es Schwachsinn, da der Preis in keinem Verhältnis zur Leistung steht und für Low HighEnd und Mittelklasse Karten 256Mb nicht der FLaschenhals sind. Deswegen finde ich es bei den Ultras gut, da da der Preis eh eine untergeordnete Rolle spielt und gerade bei hohen AA und AF der Speicher gut mitspielt. Aber wer sich ne Ultra holt, will die nicht für 2 Jahre behalten oder ?

Raff
2004-12-09, 17:39:10
IMO sollte man lieber die Texturenkompression verbessern.

Ich kann nicht glauben, wieviele Spiele heutzutage noch viele unkompremierte maps(Texturen, Effekte u.s.w.) haben. Verstehen kann ich es schon: Die Qualität der Kompression ist zu schlecht.

Beste Lösung: Verlustfreie Kompremierung.

Full Ack!
Bestes Beispiel ist UT2004: Die extrem hochauflösenden Texturen liegen völlig unkomprimiert auf der Platte, fressen dadurch verdammt viel Speicher und lassen beim Zocken 128MB-Karten arg alt aussehen. Muss das sein? Verfahren wie S3TC erlauben doch Kompressionen von 1:8 (oder wars mehr/weniger? :|) ohne Verluste -- warum wird das nicht öfter genutzt?

MfG,
Raff

Undertaker
2004-12-09, 17:48:19
Ich glaub du meinst eine GeForce 2 MX 400, die hatte 64Mb, die hatte ich nämlich auch.
Nun zum Thema. Ich denke für die Ultra isses gut und für die GT auch, gerade bei den großen Texturen zukünftiger Spiele. Aber für alle anderen Modele wäre es Schwachsinn, da der Preis in keinem Verhältnis zur Leistung steht und für Low HighEnd und Mittelklasse Karten 256Mb nicht der FLaschenhals sind. Deswegen finde ich es bei den Ultras gut, da da der Preis eh eine untergeordnete Rolle spielt und gerade bei hohen AA und AF der Speicher gut mitspielt. Aber wer sich ne Ultra holt, will die nicht für 2 Jahre behalten oder ?


ups, da war wirklich ein fehler drinne, aber etwas anders: die 32mb-karte war ne mx-400, aber die mx-100 mit 64mb gab es wirklich

DaBrain
2004-12-09, 17:54:33
Full Ack!
Bestes Beispiel ist UT2004: Die extrem hochauflösenden Texturen liegen völlig unkomprimiert auf der Platte, fressen dadurch verdammt viel Speicher und lassen beim Zocken 128MB-Karten arg alt aussehen. Muss das sein? Verfahren wie S3TC erlauben doch Kompressionen von 1:8 (oder wars mehr/weniger? :|) ohne Verluste -- warum wird das nicht öfter genutzt?

MfG,
Raff

Hmm S3TC ist verlustfrei? Das wäre nicht schlecht.

DXT5 zieht schon arg an der Qualität, naja es geht, bei maps mit nur ein paar wenig differnzierten Grundfarben ist es ok. Bei körnigen maps (stein, sand) sowieso.
Das Größenverhältnis ist: 1:4
Bei DXT1: 1:8

Duracellhäschen
2004-12-09, 17:59:50
ups, da war wirklich ein fehler drinne, aber etwas anders: die 32mb-karte war ne mx-400, aber die mx-100 mit 64mb gab es wirklich

Also ich hatte ne Asus V7100Pro, die hatte 64 Mb und war klasse, is jetzt aber auch Haarspalterei und wühlen in längst vergangenen Zeiten :D

BeCreative
2004-12-09, 18:30:51
Meiner Meinung nach - nicht sinnvoll mit dem Chip.

Fruli-Tier
2004-12-09, 18:40:00
Aber wer sich ne Ultra holt, will die nicht für 2 Jahre behalten oder ?
Wenn ich für irgendeine Art von Hardware über 500€ hinlege, was diese Karten ja garantiert auch kosten, dann will ich das Ding am liebsten nicht mehr hergeben... Denk doch mal drüber nach, wieviel Geld 500€ sind und wieviel man dann in den Händen hält. Das hau ich doch nicht nach 1 oder 1 1/2 Jahren wieder raus, nur weil es nix taugt...
Um erst mal soviel Geld in den Händen zu halten darf man schon ordentlich arbeiten gehen.

FÜNFHUNDERT !!!

Dann noch Mehrkosten, weil ein begehrtes Gut, welches zudem selten ist, da es Fertigungsprobleme gibt, dazu dann noch die aufwendiger Speicherherstellung usw... Dat wird teuer!!!!!!!!!!!!!!

Unreal Freezer
2004-12-09, 19:13:40
Es sind nicht nur die 512 MB sondern auch die 512 Bit http://www.computerbase.de/news/hardware/arbeitsspeicher_chips/2004/dezember/512_mbit-gddr3/

Wishnu
2004-12-09, 19:15:06
Full Ack!
Bestes Beispiel ist UT2004: Die extrem hochauflösenden Texturen liegen völlig unkomprimiert auf der Platte, fressen dadurch verdammt viel Speicher und lassen beim Zocken 128MB-Karten arg alt aussehen. Muss das sein? Verfahren wie S3TC erlauben doch Kompressionen von 1:8 (oder wars mehr/weniger? :|) ohne Verluste -- warum wird das nicht öfter genutzt?

MfG,
Raff

Öh, dass S3TC verlustfrei sein soll, ist mir aber neu.

Gast
2004-12-09, 19:27:17
Was ist denn mit Spielen ala Doom3 und Everquest2 bei denen geht jeder heutigen Karte der Speicher in Ultra Highdetails aus, weil die Texturen komplett unkomprimiert (D3) genutzt werden und weil sehr viele verschiedene Texturen (EQ2) in Hi-Res verbaut werden.
Man schreibt ja nicht aus jucks bei diesen Detailstufen dazu das man 512MB VRAM Recommend. Klar gehts auch mit 256MB Karten, aber Laderuckler mag man ja nicht in kauf nehmen.
Leider kann man den NVPerfHud nicht in EQ2 nutzen, sonst hätte ich mal nachschauen können wieviel Texturespeicher da verbraten wird, oder gibts noch ein anderes Tool das auch die über AGP ausgelagerten Daten zählen (RAM) kann?

Kladderadatsch
2004-12-09, 19:47:29
Klar gehts auch mit 256MB Karten, aber

...auch mit 128.

512 mb jetzt zu kaufen ist so ziemlich die schlechteste geldanlage, die man zur zeit in einen pc investieren kann. schon bei den highend-modellen der bisherigen karten (bzw. generell) ist klar, dass man für das geld einer dieser karten wesentlich uneffizienter wegkommt, als sich für dieses geld jeweils eine mainstream-karte der dann aktuellen und der darauf folgenden generation zu kaufen. und jetzt noch 512 mb in eine karte zu stecken, die, bis 512 mb effizient genutzt werden, wieder wesentlich langsamer ist als gleichwertige karten zu dieser zeit kann entweder nur in einem unglaublich hohem preis ausarten, wohl auch zu roten zahlen seitens leadtek führen, aber am aller wahrscheinlichsten in beiden pleiten resultieren.

Savay
2004-12-09, 20:11:15
Full Ack!
Bestes Beispiel ist UT2004: Die extrem hochauflösenden Texturen liegen völlig unkomprimiert auf der Platte, fressen dadurch verdammt viel Speicher und lassen beim Zocken 128MB-Karten arg alt aussehen. Muss das sein? Verfahren wie S3TC erlauben doch Kompressionen von 1:8 (oder wars mehr/weniger? :|) ohne Verluste -- warum wird das nicht öfter genutzt?

MfG,
Raff

die texturen sind nicht komprimiert?!?!? wo haste denn das her?! also das wär mir total neu...das sind doch größtenteils DXT5 und ein teil ist in DXT1!!! nunja bis auf wenige ausnahmen die den alpha channel nutzen oder 8bit palletized...die müssten auch noch zu finden sein ;)

das 128MB karten so gearscht sind liegt einfach daran das die texturen selbst komprimiert ordentlich platz einnehmen durch ihre größe bzw so viele genutzt werden...
IMO ist die texturqualität/größe bei UT2003/4 sowieso immernoch DER maßstab den es momentan in spielen gibt :) kenne zumindest keins mit durchgehend schärferen texturen

Gast
2004-12-09, 20:40:51
Es sind nicht nur die 512 MB sondern auch die 512 Bit http://www.computerbase.de/news/hardware/arbeitsspeicher_chips/2004/dezember/512_mbit-gddr3/


Du siehste das Falsch, AFAIR sind 512 Mbit, 8Mbit = 1 MB ---> 512Mbit = 64 MB pro Speicherbaustein.
Bisherige GDDR3 gibt es nur Speicherbausteine mit 32 MB, daher sinds auch nur 8 Speicherbausteine bei ner 6800 mit 256 MB, bei FXen waren noch 128 Mbit, mit jeweilss 16 Mb pro Speicherbaustein ;)
hoffe das ist alles richtig so

Gast
2004-12-09, 20:44:22
Du siehste das Falsch, AFAIR sind 512 Mbit, 8Mbit = 1 MB ---> 512Mbit = 64 MB pro Speicherbaustein.
Bisherige GDDR3 gibt es nur Speicherbausteine mit 32 MB, daher sinds auch nur 8 Speicherbausteine bei ner 6800 mit 256 MB, bei FXen waren noch 128 Mbit, mit jeweilss 16 Mb pro Speicherbaustein ;)
hoffe das ist alles richtig so


Was ich nochhinzufügen will ist das so Rein Theoretisch 1 GB Speicher auf ner gf6 Graka möglich sind, der GF 6xxx kann ja meines wissens bis zu 2 GB adressieren. Und der Platz sollte ja auch kein Problem mehr sein durch diese Speicherbausteine.

Kane02
2004-12-09, 20:55:00
Also bevor der 6800GT der Speicher ausgeht ist die Karte doch eh wieder zu alt und zu langsam.

MechWOLLIer
2004-12-10, 15:32:51
Also bevor der 6800GT der Speicher ausgeht ist die Karte doch eh wieder zu alt und zu langsam.
Dann spiele mal z.B. UT2004 in 1600x1200 und 4xAA, dann geht der Karte der Speicher aus und zwar gewaltig.
Un dimoi sind solche ettings realistisch für solch eine Karte.
Ich sehe das so:
GEforce 6600 + 512MB = Unsinn
Geforce 6800 + 512MB = sinnvoll

Kane02
2004-12-10, 16:52:03
Dann spiele mal z.B. UT2004 in 1600x1200 und 4xAA, dann geht der Karte der Speicher aus und zwar gewaltig.
Un dimoi sind solche ettings realistisch für solch eine Karte.
Ich sehe das so:
GEforce 6600 + 512MB = Unsinn
Geforce 6800 + 512MB = sinnvoll


Schon klar, aber mal im Ernst, wer verwendet so was?

betasilie
2004-12-10, 16:53:54
Schon klar, aber mal im Ernst, wer verwendet so was?
Wie 1600*1200 mit 4*AA sind doch normal. :confused:

Dass da bei UT2004 allerdings 256MB nicht mehr ausreicht, glaube ich nicht. ;)

Kladderadatsch
2004-12-10, 16:57:37
Schon klar, aber mal im Ernst, wer verwendet so was?

mechwollier wohl.

imho aber wohl die wenigsten. wer will schon riskieren, zu erleben, wie seiner 500 euro karte die puste ausgeht;)

MechWOLLIer
2004-12-10, 17:51:14
mechwollier wohl.
imho aber wohl die wenigsten. wer will schon riskieren, zu erleben, wie seiner 500 euro karte die puste ausgeht;)
Nunja, warum kauft man sich denn so ein Geschoss, wenn nicht um in solchn Settings (falls möglich) zu spielen? Es ist zwar nicht immer flüssig möglich, aber schon des öfteren.
Somit ist, zumindest für mich, solche eine Auflösung relevant.
Und mir ist es auch egal, wenn meiner 500e Karte die Puste ausgeht.

In UT2004 reichen auch die 256MB aus, im Spiel hackts bei einer Nvidia Karte an einer anderen Stelle(AF).

Kladderadatsch
2004-12-10, 17:57:02
Nunja, warum kauft man sich denn so ein Geschoss, wenn nicht um in solchn Settings (falls möglich) zu spielen?

um immer fps im dreistelligen bereich zu haben. so war es jedenfalls bei mir damals mit meiner ti4600;)


aber um zum thema zurückzukommen- gibts denn durch das 512bit-interface nicht auch einen enormen performanceschub? das dürfte sich momentan doch spürbarer auswirken, als der große speicher?

gruntzmaker
2004-12-10, 18:01:40
512mb auf ner gf68gt sind unsinnig, weil man in spätestens nem halben Jahr neue Chips hat und man immer gucken muss welche Spiele (oder Benchmarks,w eil die meisten eh nicht spielen :lol:) rauskommen, und bislang sehe ich kein Spiel auf dem Markt das mir mit toller Grafik verklickern kann weshalb sich denn so ein Monster lohnen soll, meine Strategie sieht so aus: warten, damit ich es den Angebern so richtig reindrücken kann, dass ich ihr alt werdendes Monstergeschoss für ein Butterbrot gekauft habe, das ist für mich, was Hardware angeht, die größte Befriedigung auf Gottes Erde und so geil, das müsst ihr mal ausprobieren, mal sehen wann man mir ne Gforce Ultra an den Kopf wirft obwohl die immer noch spieletauglich wäre.

hmx
2004-12-10, 18:16:21
Dann spiele mal z.B. UT2004 in 1600x1200 und 4xAA, dann geht der Karte der Speicher aus und zwar gewaltig.
Un dimoi sind solche ettings realistisch für solch eine Karte.
Ich sehe das so:
GEforce 6600 + 512MB = Unsinn
Geforce 6800 + 512MB = sinnvoll

Naja das mit UT2004 kann ich nicht bestätigen. Hab bei dm_icetomb auch mal gedacht, dass dies so langsam läuft wegen dem AA als ich es mit 4xAA und 8xAF probiert hab. Musste dann aber feststellen, dass dies nicht am AA sondern am AF lag. Bin mir irgendwie net mehr so sicher, ob immer Filter@scanout gemacht wird...

MechWOLLIer
2004-12-10, 18:41:38
Naja das mit UT2004 kann ich nicht bestätigen. Hab bei dm_icetomb auch mal gedacht, dass dies so langsam läuft wegen dem AA als ich es mit 4xAA und 8xAF probiert hab. Musste dann aber feststellen, dass dies nicht am AA sondern am AF lag. Bin mir irgendwie net mehr so sicher, ob immer Filter@scanout gemacht wird...
Stimmt, ich habe mich diesbezüglich auch schon irgednwo korrigiert:)
Bei UT2004 haperts dem NV40 anscheinend zutiefst an Füllrate, zumindest brichti die Karte bei HQ und 8xAF teilweise auf unspielbare ein.
AA geht bei UT2004 dagegen problemlos.
Und bei jedem NV40 wird der Scanout erst so spät durchgeführt.

Thanatos
2004-12-12, 15:44:57
IMO ist die texturqualität/größe bei UT2003/4 sowieso immernoch DER maßstab den es momentan in spielen gibt :) kenne zumindest keins mit durchgehend schärferen texturen


obwohl painkiller auch nicht gerade "Unscharfe" texturen hat :)

gruntzmaker
2004-12-12, 22:34:07
obwohl painkiller auch nicht gerade "Unscharfe" texturen hat :)

UT 2k3 hat scharfe Texturen? Naja, die schärfsten hat Serious Sam 2, und das gilt meines Erachtens sogar noch immer.
Dass Quake 3 oder RTCW nicht genannt wurde ist aber durchaus vertretbar :D

r@h
2004-12-12, 22:40:24
Bestes Beispiel ist UT2004: Die extrem hochauflösenden Texturen liegen völlig unkomprimiert auf der Platte, fressen dadurch verdammt viel Speicher und lassen beim Zocken 128MB-Karten arg alt aussehen. Muss das sein? Verfahren wie S3TC erlauben doch Kompressionen von 1:8 (oder wars mehr/weniger? :|) ohne Verluste -- warum wird das nicht öfter genutzt?Also UT2k4 ist bei mir (mit 1024x768 ;-) vollkommen CPU-limitiert. Sogar noch schlimmer, als es UT2003 war und somit ohne/mit 4xAA.8°AF schlichtweg KEINEN Unterschied macht. Und erzähl mir nicht, dass das jetzt an den Texturen liegt...

Razor

Gast
2004-12-12, 22:42:43
Beste Lösung: Verlustfreie Kompremierung.

//klugscheiss//
..das wäre dann Reduktion. Ansonsten "Weißer Schimmel".

ShadowXX
2004-12-12, 22:54:12
//klugscheiss//
..das wäre dann Reduktion. Ansonsten "Weißer Schimmel".

Es gibt durchaus verlustfreie komprimierung....oder fehlen dir, wenn du etwas mit WinZip packst, später irgendwelche daten.....

Und ja...es gibt durchaus auch verlustbehaftete Komprimierung (das "normale" JPEG z.B.)

SODA-MAX
2004-12-12, 23:23:32
also ich sage s mal so. 512MB und 512mbit speicher sind schön und gut. aber derzeit sind die spiele noch nicht reif dafür. vielleicht wenn dann die unreal3 engine da ist, dann könnte mann sage: ja jetzt wäre es an der zeit mal so eine graka raus zu bringen. aber nein nvidia und ati wollen jetzt schon das geld der "dummen" user. mal im ernst. lohnt sich heute eine geforce 6800 ultra bzw 2x6800ultra im sli betrieb? und ein fx55 oder p4 EE mit 2GB ram? ich würde sagen nein.

aber die industrie will das ja richtig das wir dafür das geld aus geben. klar es ist geil zu sagen: "hey du ich hab bei 3dmark05 10000 punkte". aber was bringt es? wenn die spiele nicht dafür programmiert sind. bringt es doch nicht. viele spiele derzeit sind ja eher cpu limitiert. da bringt es doch nicht ne gefroce 6800 ultra mit 512MB rein zu stecken und dann nur ne cpu mit 3,4GHZ.

so lange wie die prozis nicht schneller werden lohnt sich auch nicht eine schnelle graka. oder sehe ich das falsch?

und auch wenn das dann alles draußen ist, wer kauft sich das alles? hier in europa die wenigsten. da es hier zu teuer ist. also gucken wir wieder in die "röhre". das ist doch auch nicht der sinn der sache oder?

das ist nur ein rausschmiss an geld, was am ende sowieso kein sinn hat.
klar ist es manchmal dumm wenn jmd ne geforce 6800GT hat und man selber nur ne geforce fx 5900 hat. aber hat der jenige auch dadurch vorteile? das schätze ich mal weniger.

oder leute wie denkt ihr über das ganze? ich finde die industrie nutzt nur uns aus. die wollen wie immer nur unser bestes. und geben tun die uns kaum was. oder?

MFG
MG

mike49
2004-12-12, 23:30:20
lohnt sich heute eine geforce 6800 ultra bzw 2x6800ultra im sli betrieb? und ein fx55 oder p4 EE mit 2GB ram? ich würde sagen nein.
Eine 6800Ultra bringst du in Far Cry schon mit relativ humanen Settings (1.280x1.024, 2xAA, 8xAF) an ihre Grenzen und selbst ein FX55 wird in manchen Szenen (@640x480) nicht viel mehr als 30fps ausspucken...

SODA-MAX
2004-12-12, 23:45:17
naja das meinte ich ja. die sollen mal lieber etwas zeit investieren und nicht aller viertel jahre ne neue graka raus bringen. so einmal im jahr reicht es ja. und aller 2-3 jahre vielleicht mal ne neue generation.

so wie ich das ja mit bekommen habe ist es offt so, das z.b. ne geforce 6xxx raus kommt schon gleich zeitig an der neuen gebasstelt wird. sowas kann doch net sein. oder das beste bsp. nforce 4 jetzt raus gekommen. alle jetzt juhu kaufe ich mir. und was ließt man 2 tage später. nvidia über nforce5. was verbessert wird. was soll das bitte schön? aber ich schätze mal da kann man sich aufregen wie man will. machen kann man sowieso nichts. auch wenns traurig ist.

MFG
MG

dargo
2004-12-13, 03:36:32
aber um zum thema zurückzukommen- gibts denn durch das 512bit-interface nicht auch einen enormen performanceschub? das dürfte sich momentan doch spürbarer auswirken, als der große speicher?

Wie kommst du auf ein 512bit Speicherinterface ?

Das hat doch nichts mit dem Speicherinterface zu tun. Wie schon der gast richtig gesagt hat geht es nur um ein 512Mbit Speicher - also 64MB pro Baustein.

Bis es ein 512bit Speicherinterface gibt dürfte noch einiges dauern.
Ich denke mal das kommt erst wenn die GPUs bei ca. 800-1000Mhz angelangt sind (reine Spekulation).
Denn das 256bit Speicherinterface mit momentan über 500Mhz (1000Mhz DDR) bittet erstmal genug Speicherbandbreite.

Ein 512bit Interface dürfte heute wenig bringen bei 500-550Mhz GPU-Takt.

Radeonator
2004-12-13, 08:56:19
Erstmal müssen sich 128 bzw 256 MB etablieren und als Standard durchsetzen. Vorher sind 512MB+512bit einfach richtig kewler Luxus :)

Raff
2004-12-13, 10:16:53
Wie kommst du auf ein 512bit Speicherinterface ?

Das hat doch nichts mit dem Speicherinterface zu tun. Wie schon der gast richtig gesagt hat geht es nur um ein 512Mbit Speicher - also 64MB pro Baustein.

Bis es ein 512bit Speicherinterface gibt dürfte noch einiges dauern.
Ich denke mal das kommt erst wenn die GPUs bei ca. 800-1000Mhz angelangt sind (reine Spekulation).
Denn das 256bit Speicherinterface mit momentan über 500Mhz (1000Mhz DDR) bittet erstmal genug Speicherbandbreite.

Ein 512bit Interface dürfte heute wenig bringen bei 500-550Mhz GPU-Takt.

Täusch dich da mal nicht. :)
Die heutigen High-End-Karten haben dank ihrer 16 Pipes enorm viel Füllrate im Vergleich zur Speicherbandbreite. Im Vergleich zur Vorgänger-Generation hat sich die GPU-Leistung mehr als verdoppelt, während die Speicherbandbreite bei ATi nur um etwa 50% gesteigert wurde, bei nVidia sogar noch weniger (ich habe die genauen Takte nicht im Kopf, grobe Angaben). Somit sind alle neueren Karten mehr oder weniger Bandbreiten-limitiert, 512Bit würde wohl gerade bei Nutzung von MSAA enorme Sprünge ermöglichen.

MfG,
Raff

r@w
2004-12-13, 10:26:28
Wo sind denn bitte heutige Karten mit 4x64Bit=256Bit CBMC und 500-600MHzDDR Bandbreiten-limitiert?
:confused:

Razor

Raff
2004-12-13, 10:33:04
Ich meinte ja nur, dass die Füllrate in Relation zu Speicherbandbreite deutlich größer geworden ist. Damit geht die Tendenz zur Bandbreiten-Limitierung ... 512Bit würde gerade mit AA mehr Speed bringen. Dass die Karten mit 256Bit "lahm" sind, wollte ich damit garnicht sagen ... sondern, dass eben noch mehr geht. Ein Sprung auf 24 oder 32 Pipes würde das noch deutlicher zeigen.

MfG,
Raff

r@w
2004-12-13, 10:43:31
Wo 'zeigt' es sich den heute?
:confused:

Sorry, aber hier wird maßgeblich doch wohl über eine 512MB-Karte von Leadtek gesprochen und nicht über eine Verbreiterung des Speicherinterfaces auf 512Bit.

Ich persönlich habe das Gefühl, dass auch aktuellste Karten noch immer am Füllraten-Limit hängen und deswegen ja auch heftigst in Richtung Filter 'optimiert' werden. Das wäre schlich nicht nötig, wenn die Bandbreite das Bottleneck wäre.

Das einzige, was heute in Sachen Speicher limitiert sind wohl absolut unsinnige extremst Auflösungen mit viiiiiiel AA und neueren Games. Und sollten die Games zukünftig noch fordernder - hinsichtlich dem exessiven Nutzen von Texturspeicher - werden, dann würden IMO 512MB tatsächlich Sinn machen... ein 512Bit (4x128Bit CBMC?) Interface aber deswegen noch lange nicht.

Razor

Raff
2004-12-13, 10:50:25
Ich bin ja nur auf dargos Kommentar eingegangen, welcher wiederum insame in the membrane korrigierte. ;)

Natürlich gehts um die 512MB, aber die "Bit" wurden damit auch angesprochen. Die Zahl 512 macht heutzutage nur in extremen Settings Sinn, das gilt sowohl für die Speichermenge als auch das Interface. Doch mit steigender GPU-Power wird die Lücke immer größer und es braucht mehr. Die Zukunft wird zeigen, wie die Karten performen, ist ja alles nur Spekulatius. ;)

MfG,
Raff

dargo
2004-12-13, 13:42:33
Täusch dich da mal nicht. :)
Die heutigen High-End-Karten haben dank ihrer 16 Pipes enorm viel Füllrate im Vergleich zur Speicherbandbreite. Im Vergleich zur Vorgänger-Generation hat sich die GPU-Leistung mehr als verdoppelt, während die Speicherbandbreite bei ATi nur um etwa 50% gesteigert wurde, bei nVidia sogar noch weniger (ich habe die genauen Takte nicht im Kopf, grobe Angaben). Somit sind alle neueren Karten mehr oder weniger Bandbreiten-limitiert, 512Bit würde wohl gerade bei Nutzung von MSAA enorme Sprünge ermöglichen.

MfG,
Raff

Ich bin jetzt von meinen Benches ausgegangen.
Im 3DMark03 z.b bringt es bei meiner G6800GT@Ultra mehr wenn ich die GPU z.b um 20Mhz übertakte als den Speicher.
Natürlich war das ganze nur in 1024x768 ohne AA.

Mit AA und hoher Auflösung wäre so ein 512bit Interface schon nicht schlecht. :rolleyes:

Bin richtig gespannt wie lange es noch dauert bis die ersten Grakas mit einem 512bit Speicherinterface kommen.
Vielleicht kommen aber demnächst Grakas mit 256bit und einem in der GPU intergrierten Speicher @Bitboys.
Das wäre auch was feines. :D

MechWOLLIer
2004-12-13, 16:20:21
Also UT2k4 ist bei mir (mit 1024x768 ;-) vollkommen CPU-limitiert. Sogar noch schlimmer, als es UT2003 war und somit ohne/mit 4xAA.8°AF schlichtweg KEINEN Unterschied macht. Und erzähl mir nicht, dass das jetzt an den Texturen liegt...
Razor
Ehm, du hast also kaum einen Verlust zwischen 1xAA/1xAF und 4xAA/16xAF?
Das mit dem Antialiasing stimmt zwar, baer mit dem AF nicht. Zumindest bricht bei mir das Spiel doch extrem ein, wenn ich 16xAF aktivere und wird in manchen Stellen gar nicht mehr gut spielbar.
Kann allerdings auch dran liegen, dass ich alle Optimierungen aus habe, das scheint dem Spiel nicht zu schmecken.

Ri*g*g*er
2004-12-13, 16:25:30
Öhm,

spiel mal den Onslaught Modus und teste da mal die Einstellungen.

Ich hab einen AMD 64 3.200 Clawhammer + 6800 GT
und ich spiele auf 1280 x 1024 alles auf Superhoch eingestellt.

Da kann ich noch nicht mal 2 AA und 2 AF einstellen, denn es kommt in den Gefechten zu starken Einbrüchen auf unter 10 FPS.

Mfg
Ri*g*g*er

gruntzmaker
2004-12-14, 11:18:01
Die 512MB Karten haben übrigens deswegen ein 512Bit Speicherinterface weil es ohne diesem laut einigen Mags und Websites nicht möglich ist mehr als 256 MB zu implementieren, ich halts dennoch für sinnfrei, sowas auffen Markt zu werfen, die Kosten werden dann schnell bei 600/700 € sein bei soner Karte und irgendwo hat der Spaß ein Loch.

Ich will mal wieder nen richtigen Wettstreit wie zwischen nV und 3dfx haben, da gabs Preise von denen wir heute nur träumen können und trotzdem war die Entwicklung nicht langsamer eher sogar schneller.
Berechnet doch mal spasseshalber die heutigen Preise in DM (zu aktuellem Kurs) und vergleicht dann nochmal allein die Geforce 3 war ein Musterbesipiel für hemmungslose Abzocke (ein halbes Jahr später ne ti300 für nicht mal die Hälfte).

MechWOLLIer
2004-12-14, 15:17:29
Die 512MB Karten haben übrigens deswegen ein 512Bit Speicherinterface weil es ohne diesem laut einigen Mags und Websites nicht möglich ist mehr als 256 MB zu implementieren, ich halts dennoch für sinnfrei, sowas auffen Markt zu werfen, die Kosten werden dann schnell bei 600/700 € sein bei soner Karte und irgendwo hat der Spaß ein Loch.

Ich glaube, dass du dich hier wolh verschrieben hast:)
Es ist gemeint, dass der Speicher eine Größte von 512Mbit hat und nicht direkt ein 512 bittriges Speicherinterface. Dieses werden wir wolh noch lange nicht sehen.

gruntzmaker
2004-12-15, 07:52:55
Ich glaube, dass du dich hier wolh verschrieben hast:)
Es ist gemeint, dass der Speicher eine Größte von 512Mbit hat und nicht direkt ein 512 bittriges Speicherinterface. Dieses werden wir wolh noch lange nicht sehen.

Hmm ok :(
War müde, gilt das als Ausrede? Damit wirkt das ganze auch etwas (leicht untertrieben !) unspektakulärerer, zumindest wisst ihr dank mir , wie sich Gerüchet verbreiten :D.

Bin off, muss zur Uni und euch ne schöne Vorweihnachtszeit :)

Mfg Gruntz