PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Grakaspeicher immer zu langsam???


Unregistered
2001-09-08, 10:30:26
Ich würde gerne wissen wieso Nvidia ihre Grakas immer mit so niedriegen Speicertakten ausliefert. So weit ich weiß sind doch die Speiherbausteine immer nach der Formel 10/Zugriffszeit in Nanosekunden *100 spezifiziert. Also z.B 5ns Ram bis 200 bzw. 400(DDR). Wieso lieferte Nvidia die GF2 Ultra nicht schon mit 500 MHz und die GF3 mit 526 MHz (3.8 ns) aus??? und sollte man z.B aufgrund dieser Spezifikation nicht die GF3 relativ Problemlos bis 600 MHz übertakten lassen??? Das wäre ja nur eine Übertaktung von ca. 15%. Ich hatte bei meiner GF2 Pro auch Glück von 400 auf 475 ohne Probleme???

Sebastian
2001-09-08, 10:43:43
Es gibt doch bereits Geforce 3 Boards mit 3,8ns.. und www.xbitlabs.com hat es auch geschafft eine Geforce ich glaube sogar bis 600 zu übertakten..

Razor
2001-09-08, 12:32:41
Allerdings nur mit Voltage-Mod...

Die meisten (wenn nicht alle) gf3's werden tatsächlich mit 3,8ns vertrieben... auch meine ELSA Gladiac 920.

Es ist defakto so, daß wohl alle gf3's mit 526MHzDDR laufen (entspricht dann gut 14% Steigerung) und meine auch bei 540MHzDDR (gut 17% Steigerung) stabil läuft. Wenn dann noch dieses unglückliche Wärmeleitpad auf der GPU gegen vernünftige Wärmeleitpaste getauscht wird (AS2 ;-), kann der problemlose GPU-Takt von 215MHz (7,5% Steigerung) sogar auf satte 245MHz (22,5% Steigerung) gehoben werden...

Also meine Karte läuft bei einem GPU/Speicher-Takt von 245/540 und einem AGP-Takt von 86MHz absolut stabil !
(könnte an dem absolutem Referenzdesign ELSA's liegen...)

Schöööön, gelle ?
;-)

Razor

Unregistered
2001-09-08, 17:19:06
Ich meine ja nur, dass die GF3 doch bei 526MHz absolut normal laufen müsste und sie dann laut Spezifikation garnicht übertaktet ist und 550 MHz wären dann eine Übertaktung von gerade mal knapp 5%. Das ist doch komisch. Wieso gehen die nicht höher???

Legolas
2001-09-08, 18:31:17
Naja, je kürzer die Zugriffszeiten werden, desto weniger kann man AFAIK die obigen Formel zur Bestimmung des max. theoretischen Taktes anwenden, weil dann andere physikalische Dinge, wie z.B Signallaufzeiten, usw. Einfluß auf die erreichbare Taktfrequenz gewinnen.

Zitrone
2001-09-08, 19:28:01
Meine Gainward geht auch bis etwa 550 MHz Speichertakt (3,8ns)...

Razor
2001-09-08, 19:45:50
Sekundenunterteilung:
milli = 1/1000
micro = 1/1000 milli oder 1/1000000
nano = 1/1000 micro oder 1/1000000 milli oder 1/1000000000

Takt in MHz meint eine Millionen Trigger pro Sekunde.
Was auch bedeutet, daß 263MHz (526MHzDDR) bedeutet, daß ein Speicherbaustein der dieses leisten soll (Spezifikation), eine Reaktionszeit von 3.8ns haben muß. Wenn also dieser Speicherbaustein alle 3.8ns angetriggert werden kann, bedeutet dies schlicht, daß er in einer Sekunde 263 Millionen mal ...

Verstanden ?

Die Formel 1000/<Takt in ns> löst lediglich den Unterschied zwischen MEGA (Millionen) und nano (Milliardstel) auf.

Somit sind die Angaben in 'MHz' und 'ns' austauschbar und sind NICHT abhängig von irgendwelchen Faktoren oder Einflüssen...

***

Wie dem auch sei...

Es dürfte schlicht marketing-technische Gründe haben, warum nVidia-Karten 'untertaktet' ausgeliefert werden. Auch ist es ja auch gerade bei High-End-Karten so, daß die Käufer mit ihrem teuren Stück noch herum speilen möchten, um noch mehr heraus zu holen. Schließlich werden ja auch extensive Versuche unternommen, die restliche Hardware auszureizen (Mobo/CPU/RAM)...

Auch ist die Qualität der noch sehr neuen 3.8ns Bausteine (Yields) noch nicht so optimal, so daß diese weit über ihren Spezifikationen betrieben werden können. Wenn man Glück hat, hat man sehr gute Bausteine bekommen, die sich besser übertakten lassen...

Aber was red' ich hier ?
Das Thema gehört eh' eher ins Forum 'Overclocking'...

Wenn ATI seine mit 3.6ns RAM bestückten Radeon8500 ausliefert, werden die Käufer auf jeden Fall kaum in den 'Genuß' des Herumspielens kommen, da diese ja laut den Spezifikationen bereits am theoretischen Maximum betrieben werden (275MHz/550MHzDDR).

Wie dem auch sei...

Razor