|
Community Links |
Interessengemeinschaften |
Benutzerliste |
Foren durchsuchen |
Stichwortsuche |
Erweiterte Suche |
Uns unterstützen |
Shoppen bei Amazon |
Spende per Patreon |
Spende per PayPal |
Spende per Steady |
alle Möglichkeiten |
Gehe zu... |
|
Themen-Optionen | Ansicht |
2002-12-14, 11:02:10 | #1 (im Thread / einzeln) |
Insane Member
Registriert: 2001-11-23
Ort: Hildesheim
Beiträge: 18.293
|
Was ist effektiver/leistungsstärker: Breite Ramanbindung oder hoher Takt?
Ati ist ja mit der R300 auf den 256bit- Bus für die Speichernanbindung aufgesprungen, NV meint nocht, dass die Zeit dafür noch nicht gekommen sei
Jetzt würde ich gerne mal flamefreie Aussagen hören: 1. Ist es richtig, dass die Effiziens des schmalen Busses besser ist, weil man weniger "Verschnitt" hat? 2. Wie schaut es mit den Latenzen aus? Muß NV hier Kompromisse wegen der hohen Taktzahlen des Speichers eingehen, so dass zwar die Bandbreite zunimmt, aber letztlich die Performance unter ungünstigen Latenzen wieder leidet? 3. Wie ist unter den ersten Gesichtspunkten der hohe Kühlaufwand zu bewerten? Notlösung, weil NV im Druck ist oder wohldurchdachtes Kalkül? 4. Kommt es vielleicht ganz anders als man denkt und NV räumt im März ab? Weil nämlich die Füllrate und die Shader mächtig Dampf machen?
Wenn es danach geht, sind zwei Drittel der User dieses Forums hochbegabte legasthenische Politikwissenschaftler mit umfangreichen informationstechnischen Kenntnissen, die zumindest gelegentlich einen Joint rauchen. (unbekannter Gast)
Fortschritt ist wie eine Herde Schweine. Sie hat eine Menge Vorteile, aber niemand darf sich wundern, dass alles voller Scheiße ist. (Zoltan Chivay) Geändert von Piffan (2002-12-14 um 11:03:03 Uhr) |
2002-12-14, 12:04:43 | #3 (im Thread / einzeln) |
Ultimate Member
Registriert: 2001-03-29
Beiträge: 61.756
|
Piffan, um den 'Verschnitt' bei breiteren RAM Controllern zu vermindern, hat eine schlaue Person irgendwann mal den Crossbar Memory Controller erfunden, deshalb ist der Verschnitt bei breiterem RAM nicht unbedingt höher
|
2002-12-14, 12:09:51 | #4 (im Thread / einzeln) |
CPU-Guru
Registriert: 2002-09-16
Beiträge: 6.301
|
Letzendlich zählen bei Speicher ja grob gesagt nur zwei Geschwindigkeitskomponenten: in der Praxis erreichbare (Burst-) Bandbreite und die Latenz.
Der Takt spielt da eigentlich nur indirekt rein. Wenn die Latenzen sonst wo sind, kann man den Takt auch raufschrauben bis auf 20 GHz, der Speicher wartet eben dann nur eben mehr Takte und ist keinen Deut schneller. DDR-II macht genau das: minimale Weiterentwicklungen (on-die Terminierung, posted CAS und Kleinkram), und dann werbewirksam Takt hochsetzen. Die Latenzen werden ebenfalls hochgesetzt, so dass der Speicher in der Praxis kaum wirklich schneller wird. Ausser bei längeren Bursts. Da nVidia aber die angeblich effizientere 32-Bit Segmentierung des Speicherbusses bevorzugt bleibt abzuwarten, wer denn in der Praxis wirklich die schnellere Speicheranbindung hat. Und bei Bandbreitenschonung war nVidia in der Vergangenheit ATI auch überlegen. DDR-II ist jedoch ein klein wenig eine Mogelpackung. Viel Rohtakt und höhere Latenzen. |
2002-12-14, 13:04:35 | #5 (im Thread / einzeln) |
Insane Member
Threadstarter Registriert: 2001-11-23
Ort: Hildesheim
Beiträge: 18.293
|
Diese "Mogelpackung" kommt vielleicht auch daher, dass viele Redakteure und Overclocker sich nunmal am Takt hochziehen und die Bandbreite als das Maß der Dinge hingestellt wird.....Prominentes Beispiel ist da KT 400: Eher nicht der Bringer, weil die Boardhersteller per Bios die Latenzen verschlechtern bei hoher Taktzahl.....
Was den Crossbar- Controller angeht: Da spielt doch eine Rolle, wie breit da die einzelnen simulierten Busse sind. Und da ist kleiner doch auch besser oder nicht? Wenn ich also den gleichen Controller auf einen schmaleren Bus ansetze, nimmt der Verschnitt auch ab.. Wenn ich das richtig peile, dann versucht NV die Latenzen mit entsprechenden "Hochspannungen" in den Griff zu kriegen, d.h. vielleicht der hohe Kühlaufwand.... Falls tatsächlich kaum Vorteile rauskommen gegenüber der 256bit- Lösung von NV, dann wird es sogar NVs Marktetingabteilung schwerfallen, die Fans von der Zweckmäßigkeit eines lauten Lüfters zu überzeugen... Wenn er nicht laut ist, dann ziehen sich immer noch genug an dem hohen Platzbedarf hoch.... edit: Im Prinzip finde ich eine Kühllösung, die die Wärme direkt vor Ort entsorgt und nicht den Rechner mit Abwärme belastet, zeitgemäß angesichts der dramatisch steigenden Leistungsfähigkeit der Grakas..allerdings nicht, wenn die Leistung im Verhältnis zum Kühlaufwand gar nicht so dolle steigt, sondern Designschwächen durch hohe Spannung, Taktraten und damit steigender Verlustwärme kompensiert werden sollen. Schlußendlich hängt es für mich von der puren Leistung ab, ob ich mir ne FX kaufen werde....
Wenn es danach geht, sind zwei Drittel der User dieses Forums hochbegabte legasthenische Politikwissenschaftler mit umfangreichen informationstechnischen Kenntnissen, die zumindest gelegentlich einen Joint rauchen. (unbekannter Gast)
Fortschritt ist wie eine Herde Schweine. Sie hat eine Menge Vorteile, aber niemand darf sich wundern, dass alles voller Scheiße ist. (Zoltan Chivay) Geändert von Piffan (2002-12-14 um 13:12:04 Uhr) |
2002-12-14, 13:44:20 | #6 (im Thread / einzeln) |
3DCenter Crew & 3D-Guru
|
Die Breite eines Memorykanals ist nur die halbe Wahrheit. Die wichtige Kenngrösse ist wie viele Daten während eines Transferzyklus eingelesen bzw. geschrieben werden müssen.
Beim NV30: 32 * 2 (DDR) * 4 (Burst bei DDR-II) = 512 Bit = 64 Byte Beim R300 gibt es 3 möglichkeiten: 1. 64 * 2 (DDR) * 2 (Burst) = 512 Bit = 64 Byte 2. 64 * 2 (DDR) * 4 (Burst) = 1024 Bit = 128 Byte 3. 64 * 2 (DDR) * 8 (Burst) = 2048 Bit = 256 Byte Mit welchem Burst ATI jetzt arbeitet ist schwer zu sagen. Für einen Burst von 2 spricht: 64 Tilegrösse * 6 AA Sample * 32 Bit/Sample / 24 max. Compression = 512 Bit Für einen Burst von 4 spricht: R300 ist laut ATI "ready for DDR-II" dort wird ein Burst von 4 vorgeschrieben Wird jedoch der Frame und Z Buffer ein Tile gemeinsam gepeichert ergibt sich die doppelte Datenmenge wie oben, also 1024 Bit. Persönlich tendiere ich eher zu 4 Takten Burst aber das ist nur ein Gefühl. Was nun die Latenzen angeht so ist das bei Grafikchips kein so grosses Problem wie man denkt. Wenn man die Latenzen des Speichers genau kennt kann man die Renderpipelines so auslegen das sie die Latenz kompensieren in dem man dort Wait-Stages einbaut. Dadurch wird die Pipeline nicht durch das Speicherinterface blockiert und kann weiterlaufen. Problematisch wird es nur wenn die Bandbreite als ganzen nicht reicht und/oder der Memory-Kontroller des entsprechende Kanals mal nicht zur Verfügung steht weil auch andere Einheiten des Chips Daten brauchen. |
2002-12-14, 14:17:48 | #7 (im Thread / einzeln) |
Ultimate Member
|
Ist eigentlich schon jemals jemand auf die Idee gekommen Rambus Speicher auf einer Grafikkarte zu verwenden? Für die ganz Highen High End Karten.
System: Intel Core i9 13900K - NZXT Kraken X63 - Asus Gaming TUF Z690 Plus - 32 GB RAM G.Skill Trident Z Neo 3600 CL16 - XFX 7900XTX 24GB - Samsung 980 PRO 2 TB M2 - Sabrent SB-RKT4P 2 TB M2 - diverse andere Platten insgesamt 10 TB - NZXT C1200 Gold ATX 3.1
|
2002-12-14, 14:22:34 | #8 (im Thread / einzeln) |
Insane Member
Registriert: 2001-08-19
Ort: Ein Aargauer via Niedersachsen und Thurgau in St.Gallen
Beiträge: 20.104
|
Passt hier IMO besser rein. *verschieb*
Zu RAMBUS: RAMBUS-Speicher verbraucht wohl zuviel Strom, als dass das praktikabel wäre. Ausserdem sind die Lizenzgebühren noch immer recht hoch. ta, -Sascha.rb |
2002-12-14, 14:23:46 | #9 (im Thread / einzeln) |
CPU-Guru
Registriert: 2002-09-16
Beiträge: 6.301
|
Ja, Cirrus Logic mit dem CL GD5464 "Laguna 3D". Das war AFAIR anno 1997.
Das praktische bei RDRAM ist ja sogar, dass jeder Chip allein die gesamte Bandbreite bereitstellen kann und der GPU-Designer dann über die vielen offenen Seiten nur sehr wenige Page Misses hätte, z.B. bei Texturzugriffen. Mit 4 oder gar 8 RDRAM-Devices und nem hohen Takt, der nicht auf Module, Leiterbahnlänge und ähnliches Rücksicht nehmen müsste, wären geradezu traumhafte Speichergeschwindigkeiten möglich. Edit: Kehrseite der Medaille wäre - wie schon erwähnt - ein höherer Strombedarf und eine zwingend notwendige Speicherkühlung. Rechner-Konfig | Server-Konfig | Lenovo Thinkpad X61 Tablet << mit X6 Tablet UltraBase Testbericht ViewSonic VP201s 20"-TFT Monitor Geändert von Endorphine (2002-12-14 um 14:27:24 Uhr) |
2002-12-14, 14:41:08 | #10 (im Thread / einzeln) |
CPU-Guru
Registriert: 2002-09-16
Beiträge: 6.301
|
Hab noch schnell ein Bild zusammengeschnippelt, zum glotzen
Damals war Kühlung scheinbar noch nicht notwendig. Und ja, wie uralt, es ist noch eine PCI-Grafikkarte Rechner-Konfig | Server-Konfig | Lenovo Thinkpad X61 Tablet << mit X6 Tablet UltraBase Testbericht ViewSonic VP201s 20"-TFT Monitor Geändert von Endorphine (2002-12-14 um 14:43:02 Uhr) |
2002-12-14, 17:58:58 | #12 (im Thread / einzeln) |
CPU-Guru
Registriert: 2002-09-16
Beiträge: 6.301
|
Ja richtig, "sollte". Der ist aber nie über Prototypenstatus hinausgekommen... Der Laguna 3D war dagegen real käuflich zu erwerben
Edit: Zum Nachfolger existieren sogar noch Spezifikationen: http://support.tangent.com/hardware/...rd/vga-001.htm http://www.2ka.mipt.ru/~alexp/docs/h...s/gd546xpb.pdf Ein etwas grösseres Bild einer Spezialkarte mit 5465. Die RDRAM-Devices kann man gut erkennen: Rechner-Konfig | Server-Konfig | Lenovo Thinkpad X61 Tablet << mit X6 Tablet UltraBase Testbericht ViewSonic VP201s 20"-TFT Monitor Geändert von Endorphine (2002-12-14 um 18:17:20 Uhr) |
2002-12-14, 20:20:09 | #13 (im Thread / einzeln) |
Ultimate Member
Registriert: 2001-03-29
Beiträge: 61.756
|
300MHz, 8bit, SDR...
Kaum Vorteil ggÜ den damals verbauten 64bit EDO-DRAM Interfaces. Das damalige RDRAM hat AFAIK nicht mehr viel mit dem heute verwendeten Direct RAMBUS zu tun... Geändert von StefanV (2002-12-14 um 20:20:39 Uhr) |
2002-12-14, 20:25:59 | #14 (im Thread / einzeln) |
Platinum Member
|
Wohl aber wenn beide Firmen ein 4x crossbar benutzen. Was auch so ist.
"mann mann mann, was Pussycat da wieder vom stapel lässt..." - Mad-Marty@work
"Was hast du geraucht? Oder gar getrunken?" - Zeckensack "And I'm just warming up, you clown! What you witnessed, was only the beginning of my power. If you had one of your stupid scouters here, you'd realize my true potential, and you'd run like the coward you really are!" http://members.home.nl/dominik/pussycat.jpg ICQ: 89373820 e-Mail: dominik (a) home.nl |
2002-12-16, 00:02:32 | #15 (im Thread / einzeln) |
3D-Guru
Registriert: 2001-08-06
Beiträge: 786
|
Hier mal was zum Thema R300 und Latenzen:
http://www.beyond3d.com/forum/viewto...hlight=latency Hmmm - I seem to remember from when geforcefx was announced that some ATI engineers said that the R300 was more limited by memory latency than bandwidth. If that is the case, you could get good scaling of performance with memory clock speed even if the memory bandwidth is totally overkill in the first place ... Thomas
Chief Editor - ToMMTi-Systems(http://www.tommti-systems.de)
|
Lesezeichen |
Ansicht |
Linear-Darstellung |
Zur Hybrid-Darstellung wechseln |
Zur Baum-Darstellung wechseln |
|
|