Archiv verlassen und diese Seite im Standarddesign anzeigen : Crossfire nur mit 1600x1200@60hz?
Knacki99
2005-09-16, 01:28:53
Es hat den Anschein als hätte ATI ins Fettnäpfchen getreten, als man sich um den signalleitenden Chip für die CrossFire MasterCards bemühte: laut einem Bericht (http://fileismissing.blogspot.com/) verwendet ATI einen Silicon Image SiL 1161 (http://www.siliconimage.com/products/product.aspx?id=12&ptid=1) chip mit single-link TMDS @ 165MHz.
Wenn das stimmt wäre 1600x1200@60Hz max.
deekey777
2005-09-16, 01:52:53
Daß der SiL 1161 auf der Master sitzt, ist schon seit dem Paper-Launch bekannt. Wenn dies wirklich so, wie es bei dir steht, der Fall wäre, so hätte man schon am "Launch-Tag" die Alarmglocken geläutet. Hat man aber nicht.
http://www.hardware.fr/articles/573-2/ati-crossfire-presentation.html
"D´autres éléments sont rendus nécessaires. Tout d´abord un récepteur DVI, similaire à celui qui se trouve dans les écrans TFT. Il réceptionne le signal DVI de la carte esclave et le transmet au Compositing Engine. Ensuite un RAMDAC externe. Etant donné que la technologie CrossFire est indépendante du GPU, il n´est pas possible d´utiliser un ou les RAMDAC de celui-ci pour afficher une image calculée par 2 GPU. Le RAMDAC externe se place donc derrière le Compositing Engine et permet d´en afficher le travail sur les CRT. Le RAMDAC choisit par ATI fonctionne à 240 MHz ce qui permet d´atteindre une résolution de 1920x1200 avec un taux de rafraîchissement de 75 Hz."
So wie ich es verstehe, nimmt der SiL 1161 das Signal der Sklaven-Karte auf und gibt es an die Compositing-Engine weiter. Für die Bildausgabe ist er also nicht zuständig, sondern das übernehmen wohl weitere Chips wie ADV7123 für die Ausgabe am CRT.
Man soll ich also keine Sorgen machen. :biggrin:
€: Aber ich bin mir nicht ganz sicher, wie es bei digitalen Bildschirmen gehabt wird, da diese das Signal von der CrossFire-Kabelpeitsche bekommen.
€2: Mit dem Chip wäre aber eine Limitierung schon denkbar*, doch wird er weiterhin verbaut, oder war es nur eine Schnellschußlösung für die Präsentation?
*Er nimmt ja das Signal von der Sklavenkarte auf, was aber nicht heißt, daß hier diese Limitierung einen Einfluß haben könnte. So viel Intelligenz traue ich ATi schon zu.
€3: Es gibt wohl doch keine Limitierung. :biggrin:
€4: Zumindest scheint die Limitierung des SiL-Chips keine Auswirkungen auf das zu haben, was auf dem Bildschirm ausgegeben wird, besser gesagt keinen Einfluß auf die Auflösung und Bildwiederholfrequenz, die bei DVI eh auf 1600x1200@60Hz begrenzt sein soll.
Es gibt keine Limitierung am DVI-D der Masterkarte, da dieser eh nur 1600x1200@60Hz unterstützt. Diese "Sensation" ist für den Arsch, aber sie zeigt eine Limitierung von CrossFire an sich, da die Sklaven-Radeon ihre Bilder leider über den DVI-D an die Masterkarte/Compositing Engine weitergibt und der Transmitter mit höchstens 165MHz arbeitet, wie es bei fast allen Grafikkarten der Fall ist!
Ich sehe gerade, daß sich diese "Neuigkeit" im Internet verbreitet wie ein Lauffeuer....
(del676)
2005-09-16, 11:11:25
http://www.theinquirer.net/?article=26198
but ATI officially said that for this generation of Crossfire, ATI wanted to focus on features that gamers use the most. ATI suggests that 99.9 per cent of gamers are not using 1600x1200 and believes it plays on lower resolutions.
das soll ja wohl ein schlechter scherz sein?
deekey777
2005-09-16, 11:18:14
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=248853
Dieser Chip nimmt nur die Infos/Bilder von der Sklaven-Radeon und leitet diese zum "Mixen" in die Composting Engine: Da diese Bilder über den digitalen Ausgang der Slave-Karte ausgegeben werden, gibt es gar keine höhere Auflösung+60Hz*. Doch mit der feritgen Bildausgabe hat es eh nichts zu tun. Auch sollen sich die CRT-Besitzer keine Sorgen machen, da auf der Master noch extra RAMDAC drauf ist, mit dem Auflösungen von 19200x1600@75 MHz möglich sind.
€: Diese Limitierung ist durch die Sklaven-Karte verschuldet, wenn es die überhaupt gibt. Diese "Limitierung" zeigt in aller Deutlichkeit, daß CrossFire doch ein Schnellschuß war.
*DVI-Grundlagen: Alles über Steckertypen, TDMS und Konformität (http://www.de.tomshardware.com/display/20050108/index.html)
PatkIllA
2005-09-16, 11:36:29
http://www.theinquirer.net/?article=26198
das soll ja wohl ein schlechter scherz sein?
Das wäre in der Tat ein Witz. Crossfire und SLI sind sicher nicht für den Durchschnittsgamer gemacht sondern für absolutes HighEnd. Wer 1000€ für zwei Grafikkarten ausgibt hat sicher auch überdurchschnittlich oft einen Monitor der mehr kann als 1600x1200.
1920x1200 geht aber auch noch mit Singlelink und da sind dann noch fast 10% der Bandbreite ungenutzt, wenn man das Blanking übelst runtersetzt.
deekey777
2005-09-16, 12:51:06
Das wäre in der Tat ein Witz. Crossfire und SLI sind sicher nicht für den Durchschnittsgamer gemacht sondern für absolutes HighEnd. Wer 1000€ für zwei Grafikkarten ausgibt hat sicher auch überdurchschnittlich oft einen Monitor der mehr kann als 1600x1200.
1920x1200 geht aber auch noch mit Singlelink und da sind dann noch fast 10% der Bandbreite ungenutzt, wenn man das Blanking übelst runtersetzt.
Interessanterweise kommt dieser Witz gerade vor dem Launch von CrossFire nächste Woche. Was für ein Zufall!
Annihilator
2005-09-16, 13:01:15
wenns wirklich so wäre, würde ich mich vor lachen in die ecke schmeißen...
aber wird wohl nur *so hoffe ich* ein treiber problem sein, würde R520 CF gerne mal im vergleich zu meinen beiden GTX haben. =)
Razor
2005-09-16, 19:17:12
Wenn ich das richtig verstanden habe, dann liegt das an dem verwendeten Composer-Chip der Master-Karte...
...hat also nichts mit der Slave-Karte zu tun und führt Crossfire schon fast ad absurdum.
Hier mal ein Link zu Rage3D... einer eher ATI-freundlichen Seite:
http://www.rage3d.com/index.php?cat=75#newsid33828812
Earlier today I was given information regarding ATI’s upcoming Crossfire technology that, at first, I passed off as so ridiculous it couldn’t possibly be true. However, after having the information verified from several very reputable sources I’ve decided it would be a disservice to keep this information private.
As many are aware by now, ATI’s Crossfire technology uses an external link to connect the Master and Slave cards together (it's sort of like a 3-headed dongle with DVI connectors at the ends). What’s not generally known is that the backbone for this setup is a Silicon Image SiL 1161 chip which is installed on the X8-series Master cards. The SiL 1161 is there to receive output passed over the external link from the Slave card in the Crossfire setup and pass it on to the Master card.
Sounds decent on paper and everything, but if you check out the specs for the 1161 on this page you will see that it is limited to single-link TMDS @ 165MHz. This means that the max 3D resolution for any X8-series Crossfire setup is 1600x1200 @ 60Hz. That means no high-res Crossfire gaming beyond 1600x1200, no 1600x1200 at a flicker free refresh rate, and no widescreen 1920x1200.
How can a technology so clearly aimed at enthusiast gamers have a limitation like this? High-resolution flicker free gaming is one of the primary benefits a multi-graphics setup like Crossfire should offer entusiasts but, somehow, ATI managed to mess that up completely.
Und so ist dem wirklich fast nichts mehr hinzu zu fügen.
Bleibt zu hoffen, dass ATI bald Karten mit einem besseren Composer-Chip bringt.
Obwohl ich mir gut vorstellen könnte, dass nur die wenigsten Leutz bereit wären... aber egal.
Ein bissel viel Limitierungen beim Crossfire, oder?
:confused:
Razor
PatkIllA
2005-09-16, 19:24:51
@Razor
Auf der Ausgangsseite der Slavekarte ist aber auch nur ein SingleLink-Transmitter mit 165MHz. Ein besserer Composerchip alleine bringt da also nichts. Oder haben jetzt alle ATI-Karten Duallink?
Warum wird eigentlich immer geschrieben, dass mit 165MHZ nur 1600x1200@60Hz gehen?
Wobei der SiliconImage Chip in meinem DVI-Splitter hat schon bei 150MHz Probleme bekommen.
deekey777
2005-09-16, 19:39:39
Wenn ich das richtig verstanden habe, dann liegt das an dem verwendeten Composer-Chip der Master-Karte...
...hat also nichts mit der Slave-Karte zu tun und führt Crossfire schon fast ad absurdum.
Hier mal ein Link zu Rage3D... einer eher ATI-freundlichen Seite:
http://www.rage3d.com/index.php?cat=75#newsid33828812
Und so ist dem wirklich fast nichts mehr hinzu zu fügen.
Bleibt zu hoffen, dass ATI bald Karten mit einem besseren Composer-Chip bringt.
Obwohl ich mir gut vorstellen könnte, dass nur die wenigsten Leutz bereit wären... aber egal.
Ein bissel viel Limitierungen beim Crossfire, oder?
:confused:
Razor
Genau das, was er schreibt, ist halbwahr. Denn es hat nichts mit dem SiL 1161 zu tun, sondern mit der Funktionsweise von CrossFire bzw. mit der Verbindung über den digitalen Ausgang der Slave-Radeon.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3107205#post3107205
Ich kann mich auch nicht an jedes meiner Postings erinnern. :biggrin:
Ich bin mir immer noch nicht ganz sicher, daß er auf diese Idee kam.
ATI's Crossfire Limitation- Mountains Out of Molehills (http://www.anandtech.com/news/shownews.aspx?i=24909)
Joshua Walrath over at Penstar Systems decided to post an editorial on ATI's Crossfire implitation after questions of limitations with the spec have come to light:
Rage3D really broke the news on the possible limitations of the Silicon Image Sil 1161 receiver that ATI's CrossFire utilized. The receiver can handle a max of 1600x1200 at 60 Hz (or essentially receive 60 1600x1200 frames per second), and runs at a maximum of 165 MHz. At first this limitation looks like a huge disaster waiting to happen to ATI with the release of CrossFire, and many are screaming that the engineers fell down on the job and should all be sacked. When I was first given this information, I originally thought that ATI had made a big blunder... but upon further investigation I believe that it really isn't that big of a limitation at all.
ATI's Crossfire Limitation- Mountains Out of Molehills - Josh (http://www.penstarsys.com/#xfire_sil)
Hehe, der hat alles von mir. War nur ein Scherz. :biggrin:
Razor
2005-09-16, 21:31:28
Hehe, der hat alles von mir. War nur ein Scherz. :biggrin:Hmmm...
Er ersinnt zwar eine Menge Ansätze, wie man - trotz Limitierung - zu 'mehr' kommen könnte...
...belegt dies aber keinesfalls mit Fakten, die er z.Bsp. von ATI hätte bestätigen lassen können.
Für mich ist dieser Composer-Chip nichts andseres, als er vorgibt, zu sein. Er kombiniert Bilder... nicht mehr und auch nicht weniger. Das im übrigen noch nicht einmal sonderlich 'intelligent', da er offenbar nur sehr wenige Modi dafür kennt. Da hilft auch nicht der Wunsch, dass ATI vielleicht den Transmitter-Chip hätte irgendwie tunen oder sonst irgendwie modifizieren können... weil es einfach nur ein Stohalm ist, an den sich da geklammert wird, um der Limitierung 'Herr' zu werden.
Da wird doch tatsächlich darüber sinniert, wie man Bandbreite oder dergleichen 'sparen' könnte, um doch mit dieser Limitierung (die ja gar keine ist ;-) klar zu kommen, verfehlt aber dabei wohl die faktische Grundlage, dass der Chip einfach 2 Bilder bekommt (vollständige Bilder, das eine durch diesen SiL 1161) und diese in bestimmter Weise kombiniert und damit eines generiert.
Wie dieser Composer-Chip es allerdings schaffen soll, aus gleichzeitig ankommenden Bildern 2 hintereinander folgende zu machen (um dem 60Hz-Limit zu entgehen), wird aber tunlichst verschwiegen... wie auch es möglich sein soll, aus zwei halben, sich auch noch überlagernden Bildern (nicht 2 komplette Bilder, die jeweils zur Hälfte 'gefüllt' sind!) ein komplettes zu machen (höhere Auflösung).
Aber all das nur am Rande.
Letztendlich werden wir es ja bei der Vorstellung von Crossfire erleben. Jetzt werden auf jeden Fall die 'redlichen' Reviewer darauf achten, ob die Performance jenseits der 1600x1200 nicht plötzlich massiv zusammen bricht. Auch, ob bei aktiviertem Crossfire dann mehr als 60Hz bei 1600x1200 möglich sein werden.
Ich hoffe es zwar nicht, aber ich könnte mir gut vorstellen, dass ATI hier einfach daneben gehauen hat...
...wir werden sehen, wir sind ja nicht blind!
...oder?
:D
Razor
deekey777
2005-09-16, 22:15:25
Es sollen immer Vollbilder der beiden Grafikkarten sein, die zu der Compositing Engine "transportiert" werden; Teile dieser Vollbilder, die durch die drei Rendermodi unnötig "weggeschnitten" werden, sind nur schwarz: Bei Super Tiling sind es schwarze* 32x32 große Quadrate, bei SFR wird ein bestimmter Bereich schwarz sein, bei AFR jedes zweite Bild schwarz (?). Bei SuperAA gibt es ja keine Ersparnisse in Schwarz.
Nur im SFR und dem SuperTiling - Modi gilt das! AFR bleibt davon verschon, es kommen wohl die Vollbilder nacheinander, aber immer mit Inhalt: Es ist die Aufgabe des Treibers, dies zu regeln.
Die Compositing Engine, die aus einem Chip und dem ROM besteht, legt also die Vollbilder so übereinander, daß die schwarzen Teile im Bild einer Grafikkarte mit entsprechenden Teilen der gerenderten Szene des Bildes der anderen "abgedeckt" werden. Am besten sieht man es in der Beschreibung des SuperTiling-Modus. Doch es sind immer einzelne Vollbilder, was in dem obengenannten Artikel nicht ganz deutlich wird.
Doch wie die einzelnen Grafikkarten erfahren, was sie genau zu rendern haben, ist wohl die Aufgabe des Treibers; ob tatsächlich eine "Kommunikation" zw. dem Meister und dem Sklaven stattfindet, bin ich mir nicht mehr sicher, da sie uU gar nicht nötig ist.
Hätte man bei ATi einen besseren Transmitter schon beim R420/R423 integriert, hätte man so vielleicht weniger Sorgenfalten. Doch woher hätte man in Kanada gewußt, daß SLI kommt und einschlägt, wie eine Bombe? Beim R5x0ern werden sie wohl an diese Kleinigkeit gedacht haben.
Ein 60Hz Limit ist eigentlich gar nicht vorhanden, da das fertige Bild, das auf dem Bildschirm landet, ist allein die Sache der Compositing Engine.
*Schwarz kann auch transparent sein, ist aber egal.
Hmmm...
....
Wie dieser Composer-Chip es allerdings schaffen soll, aus gleichzeitig ankommenden Bildern 2 hintereinander folgende zu machen (um dem 60Hz-Limit zu entgehen), wird aber tunlichst verschwiegen... wie auch es möglich sein soll, aus zwei halben, sich auch noch überlagernden Bildern (nicht 2 komplette Bilder, die jeweils zur Hälfte 'gefüllt' sind!) ein komplettes zu machen (höhere Auflösung).
:D
Razor
Die ankommenden Voll-Bilder werden doch aufeinander abgestimmt, bevor sie im Composer Chip landen, das hast du doch selbst geschrieben.
StefanV
2005-09-16, 22:25:42
Wenn ich das richtig verstanden habe, dann liegt das an dem verwendeten Composer-Chip der Master-Karte...
...hat also nichts mit der Slave-Karte zu tun und führt Crossfire schon fast ad absurdum.
Hier mal ein Link zu Rage3D... einer eher ATI-freundlichen Seite:
http://www.rage3d.com/index.php?cat=75#newsid33828812
FALSCH!
Es ist eine Limitierung eines Single Link DVI Ausgang.
Denn wie wir alle wissen, funzt Crossfire ja in dem man digitale Signale des DVI Ausgangs abgreift und un einem seperaten Chip mixt.
Wie du, und andere, sicher wissen, ist nicht mehr als 1600x1200 bei 60Hz möglich, was man über einen Single Link, 165MHz DVI Link schicken kann, für mehr bräuchts eines Dual Link Interfaces.
Ist doch eigentlich nicht soo schwer zu verstehen zumal das eigentlich vorher hätte klar sein müssen, theoretisch...
BvB123
2005-09-17, 12:15:11
Gibt schon ne Folie von Nvidia über Crossfire :D
http://www.techpowerup.com/reviews/NVIDIA/CrossfireTruth/
entspricht leider fas überall der Wahrheit :(
Annihilator
2005-09-17, 12:32:50
Gibt schon ne Folie von Nvidia über Crossfire :D
http://www.techpowerup.com/reviews/NVIDIA/CrossfireTruth/
entspricht leider fas überall der Wahrheit :(
:lol:
ja, da hat NV voll ins schwarze oder sollte ich besser sagen, ins rote getroffen?! ;)
ich bin ja mal gespannt, was das alles anfang oktober wird... :|
Winter[Raven]
2005-09-17, 12:41:53
Whihi, also wenn das kein Fake ist, dann GREAT JOB Nvidia, am besten finde ich ja immer noch die Folie:
http://www.techpowerup.com/reviews/NVIDIA/CrossfireTruth/images/CrossfireTruth-12.jpg
NO, NO, NO!!!
Razor
2005-09-17, 12:47:00
Ein 60Hz Limit ist eigentlich gar nicht vorhanden, da das fertige Bild, das auf dem Bildschirm landet, ist allein die Sache der Compositing Engine.Doch, ist es...
...bei 1600x1200 zumindest.
Liegt halt an der maximalen Beandbreite...
Die ankommenden Voll-Bilder werden doch aufeinander abgestimmt, bevor sie im Composer Chip landen, das hast du doch selbst geschrieben.Du sagst es... "Vollbilder"!
Insofern limitiert hier eindeutig die Verbindung zwischen den Karten, letztendlich der SiL 1161-Chip auf der X8-Master-Karte, welcher bei 60 Vollbildern unter 1600x1200 'dicht' macht.
Razor
BvB123
2005-09-17, 12:53:38
Oder bei 1920*1200 bei 52HZ...
Razor
2005-09-17, 12:55:59
Denn wie wir alle wissen, funzt Crossfire ja in dem man digitale Signale des DVI Ausgangs abgreift und un einem seperaten Chip mixt.Und?
Gibt ja schließlich Single- und Dual-Link DVI-Anschlüsse, oder?
:confused:
Es spricht nichts dagegen, Karten mit einem DualLink-DVI zu bauen... was gleichermaßen für Slave und Master gilt. Und wenn es tatsächlich nur X8'er-Karten mit SingleLink-DVI gibt, dann ist das per se schon ein "Schweinerei" bei HighEnd-Karten, findest Du nicht?
Es geht hier aber um etwas anderes... denn völlig unabhängig von den verwendeten DVI-Typen, sitzt auf der Master-Karte ein Transmitter-Chip (nein, nicht die Composing-Engine!), namentlich der SiL 1161, der eben auf 60 Vollbilder bei 1600x1200 limitiert, da seine Bandbreite auf 165MHz begrenzt ist. Sprich: es können überhaupt nicht mehr als 60 Vollbilder bei 1600x1200 bei dem Composer-Chip ankommen.
Nun wäre noch zu klären, wozu der Composer-Chip in der Lage ist, aber ich vermute, dass dieser nicht allzuviel 'kann', wenn man den bisherigen Spezifikationen von Crossfire glauben schenken mag... und damit verbieten sich dann Auflösungen jenseits der 1600x1200-Marke und höhere Frequenzen als 60Hz bei eben dieser Marke.
Razor
Razor
2005-09-17, 13:01:45
Oder bei 1920*1200 bei 52HZ...Und?
Soweit ich erinnere gibt es keine standartisierte Frequenz bei 52Hz in der DVI-Spezifikation.
Und selbst wenn... wie sollten dann daraus zumindest 60Hz an der Ausgabe-Einheit werden?
Sorry, aber...
Ist das eigentlich nur mein Eindruck, oder finden auch andere, dass hier offenbar versucht wird, Dinge schön zu reden, die keineswegs 'schön' sind? Warum hat ATI nicht den 'besseren' SiL 1171 verbaut, der eben 2048x1536 bei 60Hz 'kann'. Offenbar ist der Sparwut von ATI einfach nur wieder ein mächtiger Lapsus anheim geworden... nicht mehr und vor allem auch nicht weniger.
Eine offizielle Aussage seitens ATI würde mich hier brennend interessieren... und nicht irgendwelche an den Haaren herbei gezogene Erklärungsversuche, wie es dann doch nicht so schlim sein könnte.
Razor
BvB123
2005-09-17, 13:08:35
Ich will hier nix schön reden eher das Gegenteil ;)
Weil Somit der sinn von Crossfire eigentlich wieder sinnlos ist
Wollte nur sagen das die Auflösung auch noch möglich ist ;)
PatkIllA
2005-09-17, 13:09:31
1920x1200 geht auch problemlos mit 60Hz. Da sind sogar noch 10MHz frei und ist immer noch ne Menge Blanking drin.
PatkIllA
2005-09-17, 13:11:28
Warum hat ATI nicht den 'besseren' SiL 1171 verbaut, der eben 2048x1536 bei 60Hz 'kann'. Offenbar ist der Sparwut von ATI einfach nur wieder ein mächtiger Lapsus anheim geworden... nicht mehr und vor allem auch nicht weniger.
Weil dann die Slavekarte auch einen entsprechenden Ausgang haben müsste. Am besten wäre ja Duallink mit 225MHZ. Das würde dann wohl für jeden handelsüblichen Monitor reichen.
deekey777
2005-09-17, 14:26:19
Entweder arbeiten bei nVidia nur Trottel, die die Funktionsweise von CrossFire nicht kennen oder begreifen, oder es ist eine vergleichbare Folienpräsentation wie die eine zum Launch von CrossFire (ich glaube so ab Seite 20-23 im CrossFire-Thread).
deekey777
2005-09-17, 14:58:03
Doch, ist es...
...bei 1600x1200 zumindest.
Liegt halt an der maximalen Beandbreite...
Du sagst es... "Vollbilder"!
Insofern limitiert hier eindeutig die Verbindung zwischen den Karten, letztendlich der SiL 1161-Chip auf der X8-Master-Karte, welcher bei 60 Vollbildern unter 1600x1200 'dicht' macht.
Razor
Ich glaube, wir sollten unterscheiden zw. der tatsächlichen Refreshrate auf dem LCD/CRT und den gerendeten Frames.
Die "Limitierung" der gerenderten Frames kommt immer noch von der Slave und vielleicht auch in gleichem Maß die Masterkarte, wenn sie den gleichen integrierten 165 MHz Transmitter hätte, was aber sehr unlogisch ist, da die Compositing Engine schon einen hat und eigentlich auch mit einer einzelnen Grafikkarte funktinieren sollte*. Und ich glaube kaum, daß der SiL 1161 auch gerenderte Frames mit höhereren Auflösung als 1600x1200 abblockt.
Ach, keine Ahnung. Ich hoffe wirklich auf einen interessanten Artikel zu diesem Thema, aber nicht von einer DAU-Seite, die einiges verdreht und falsch auslegt.
OT: Ich glaube, der Name "Master-Karte" wird einfach überbewertet, denn diese ist nur eine "Slave-Karte" mit der Compositing Engine onboard. Ob jemand auf die Idee kommt, eine externe Compositing Engine zu bauen?
*http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3095576#post3095576
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3096014&postcount=258 :ulol:
€: Voll-Frames wären IMO richtiger.
iam.cool
2005-09-17, 15:06:32
oh oh....... 60Hz auf nem CRT da kriegt man echt Augenkrebz :rolleyes:
deekey777
2005-09-17, 15:12:07
oh oh....... 60Hz auf nem CRT da kriegt man echt Augenkrebz :rolleyes:
Laß mich raten: Du hast nur den Threadtitel gelesen und fandest ihn toll. :|
Wenn dein CRT mit 100Hz läuft, hast du auch immer 100 Frames/s? ;)
StefanV
2005-09-17, 15:22:07
Und?
Gibt ja schließlich Single- und Dual-Link DVI-Anschlüsse, oder?
:confused:
Tja, dann nenn mir doch mal 10 Chips, die 'nen Dual Link Interface haben...
UUps, geht ja garnicht, sowas aber auch...
Es spricht nichts dagegen, Karten mit einem DualLink-DVI zu bauen... was gleichermaßen für Slave und Master gilt. Und wenn es tatsächlich nur X8'er-Karten mit SingleLink-DVI gibt, dann ist das per se schon ein "Schweinerei" bei HighEnd-Karten, findest Du nicht?
Warum sollte man das machen, wenn mans nicht braucht?!
Dual Link Karten findest meist eher mit ADC Port...
Es geht hier aber um etwas anderes... denn völlig unabhängig von den verwendeten DVI-Typen, sitzt auf der Master-Karte ein Transmitter-Chip (nein, nicht die Composing-Engine!), namentlich der SiL 1161, der eben auf 60 Vollbilder bei 1600x1200 limitiert, da seine Bandbreite auf 165MHz begrenzt ist. Sprich: es können überhaupt nicht mehr als 60 Vollbilder bei 1600x1200 bei dem Composer-Chip ankommen.
Nee, echt?
Sag nicht sowas, soweit sind wir auch schon gekommen...
Siehe einfach, was ich schrieb -> Single Link TDMS Transmitter
Annihilator
2005-09-17, 15:44:17
Entweder arbeiten bei nVidia nur Trottel, die die Funktionsweise von CrossFire nicht kennen oder begreifen, oder es ist eine vergleichbare Folienpräsentation wie die eine zum Launch von CrossFire (ich glaube so ab Seite 20-23 im CrossFire-Thread).
wie gewählt du dich immer ausdrücken kannst, sehr erstaunlich.
und, die jungs bei NV wissen sicher sehr genau wie CF funktioniert b.z.w. wie dessen funktionsweise ist, genau so wie die jungs bei ATI wissen was mit SLI ist.
Ailuros
2005-09-17, 16:16:48
Entweder arbeiten bei nVidia nur Trottel, die die Funktionsweise von CrossFire nicht kennen oder begreifen, oder es ist eine vergleichbare Folienpräsentation wie die eine zum Launch von CrossFire (ich glaube so ab Seite 20-23 im CrossFire-Thread).
Mehr als 60Hz kommt aus dem Ding tatsaechlich nicht raus was erstmal CRT-User ausschliesst.
Ich koennte ja leicht sagen, ach ja was solls dann eben LCDs und aus damit. Multi-GPU configs greifen aber auch in den profi-Markt; NVIDIA hatte nicht nur ein paar "freaks" fuer den ultra high end PC Markt im Hinterkopf, sondern auch den Professionellen Markt, wobei multi-GPU (SLi) vs. multi-chip (Realizm/3DLabs). Es gibt nun mal immer noch eine gesunde Anzahl von Profis die immer noch CRTs bevorzugen und dementsprechend:
http://www.3dlabs.com/products/product.asp?prod=293&page=6
Tomcat70
2005-09-17, 16:31:24
Mehr als 60Hz kommt aus dem Ding tatsaechlich nicht raus was erstmal CRT-User ausschliesst.
sind das gesicherte infos?
ich hab mich zwar mit der thematik noch nicht näher befasst, sehe aber aufs erste keinen direkten zusammenhang (bezüglich bildwiederholfrequenz) zwischen den fähigkeiten des composing chips und dem was der ramdac der masterkarte endeffektiv an den bildschirm schickt.
wenn es wirklich so sein wird in der finalen crossfire-version, dann können sie es ja eh gleich einstampfen und neu machen.
wenn überhaupt, würde ich eher auf eine 60fps-limitierung (in abhängigkeit von den maximalen fähigkeiten des composer chips, kann ja auch mehr sein wenn sie in anders betreiben) in hohen auflösungen tippen, aber wer fragt mich schon :D
bezüglich dem pdf von nvidia noch: hehehe, aber man ist es ja schon gewohnt von nvidia, typisch nvidia-style halt ;D wie sagten schon die gallier so schön: "Die spinnen die Amis!"
deekey777
2005-09-17, 18:09:26
Mehr als 60Hz kommt aus dem Ding tatsaechlich nicht raus was erstmal CRT-User ausschliesst.
Ich koennte ja leicht sagen, ach ja was solls dann eben LCDs und aus damit. Multi-GPU configs greifen aber auch in den profi-Markt; NVIDIA hatte nicht nur ein paar "freaks" fuer den ultra high end PC Markt im Hinterkopf, sondern auch den Professionellen Markt, wobei multi-GPU (SLi) vs. multi-chip (Realizm/3DLabs). Es gibt nun mal immer noch eine gesunde Anzahl von Profis die immer noch CRTs bevorzugen und dementsprechend:
http://www.3dlabs.com/products/product.asp?prod=293&page=6
Und warum nicht? Hat das irgendwas mit dem SiL 1161 zu tun? Oder liegt es an der vermeintlichen Limitierung des DVI-Ausgangs der Sklavin, die nichts mit der Refreshrate des Videosignals am LCD selbst zu tun hat? Und wieviele Grafikkarten liefern am DVI-D überhaupt eine Refreshrate über 60Hz/höhere Auflösungen und ein sauberes Bild - mit einem TDSM Transmitter von 165MHz?
Ob der RAMDAC der Compositing Engine höchstens 240MHz schafft, weiß ich nicht, denn in einer News bei heise stand, daß dieser 400MHz schafft.
Ich bezweifle immernoch, daß diese Folienpräsentation tatsächlich von nVidia kommt, denn so viel Intelligenz traue ich ihnen schon zu. Daß diese "Sensation" aber weitere Fragen zu der Funktionsweise von CrossFire aufgeworfen hat, kann aber niemand abstreiten.
wie gewählt du dich immer ausdrücken kannst, sehr erstaunlich.
und, die jungs bei NV wissen sicher sehr genau wie CF funktioniert b.z.w. wie dessen funktionsweise ist, genau so wie die jungs bei ATI wissen was mit SLI ist.
Kennst du diese Präsentation:
http://www.nvnews.net/vbulletin/showpost.php?p=620462&postcount=9
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3106991#post3106991
Das ist der Grund, warum ich nicht glaube, daß die "neue" Folienpräsentation nicht echt ist.
deekey777
2005-09-17, 18:31:40
sind das gesicherte infos?
ich hab mich zwar mit der thematik noch nicht näher befasst, sehe aber aufs erste keinen direkten zusammenhang (bezüglich bildwiederholfrequenz) zwischen den fähigkeiten des composing chips und dem was der ramdac der masterkarte endeffektiv an den bildschirm schickt.
wenn es wirklich so sein wird in der finalen crossfire-version, dann können sie es ja eh gleich einstampfen und neu machen.
...
Die vermeintliche Limitierung ist allein durch die Sklavenkarte "verschuldet", besser gesagt, durch die Versionen mit nur einem digitalen Monitoranschluß, da diese nur einen (?) integrierten 165MHz TDSM Transmitter, der weder ungewöhnlich ist noch gegen irgendwelche Stadards verstößt. Durch diese "Einschränkung" ist bei einer Auflösung der gerenderten Frames von 1600x1200 höchstens 60 Frames an die Compositing Engine zu liefern. Mit der Refreshrate deines Bildshirms hat es nichts zu tun.
Etwas neumachen kann man da nicht, da die Limitierung durch die schon vorhandenen "Sklaven-Radeons" verschuldet ist. Bei der kommenden R520 und RV530 kann man "nur" am DVI-Ausgang drehen, zB einen Transmitter verbauen, der mehr als 165MHz verkraftet.
PatkIllA
2005-09-17, 18:36:28
Müsste das BIld nicht auch noch in der Composing Engine zwischengespeichert werden, wenn das Bild mit einer anderen Refreshrate am Monitor wiedergegeben wird?
Und wie synchronisieren die die beiden Karten? Oder stellt sich die Masterkarte nach dem Takt des DVI-Ausgangs der Slavekarte?
deekey777
2005-09-17, 19:02:16
Müsste das Bild nicht auch noch in der Composing Engine zwischengespeichert werden, wenn das Bild mit einer anderen Refreshrate am Monitor wiedergegeben wird?
Wie funktioniert das auf einer normalen Grafikkarte, wenn mehr/weniger Bilder gerendert wurden als die Refreshrate dieses zuläßt?
Und wie synchronisieren die die beiden Karten? Oder stellt sich die Masterkarte nach dem Takt des DVI-Ausgangs der Slavekarte?
Ich weiß nicht, ob überhaupt was synchronisiert werden muß. Vermutung: Es werden uU immer Voll-Bilder von beiden Grafikchips an die CE geschickt, diese Vollbilder enthalten aber "transparente" Abschnitte, die mit "nicht-transparenten" Abschnitten des anderen Bilds gedeckt werden. ATi hälte gerade den Super-Tiling Modus für den einzig wahren.
iam.cool
2005-09-17, 19:12:09
Laß mich raten: Du hast nur den Threadtitel gelesen und fandest ihn toll. :|
Wenn dein CRT mit 100Hz läuft, hast du auch immer 100 Frames/s? ;)
Was hat das eine jetzt mit dem anderen zu tun? Mit Hz gibt man die Refreshrate an und die hat nur indirekt was mit den Frames zu tun.
Mit meinem Posting wolte ich zum ausdruck bringen das 60Hz absolut unakzeptabel auf CRT's ist, bei nem TFT geht das noch klar. Bei nen CRT allerdings flimmerts dann so stark das es nicht nur scheiss aussieht sodern auch extrem ermmüdent aufs Auge wirkt :wink:
PatkIllA
2005-09-17, 19:15:20
Tja, dann nenn mir doch mal 10 Chips, die 'nen Dual Link Interface haben...
UUps, geht ja garnicht, sowas aber auch...
Kann aber vom Kartenhersteller bei so ziemlich jedem Grafikchip mit externen Transmitterbausteinen nachgerüstet werden.
Kommt leider nur fast ausschliesslich bei Profikarten zum Einsatz. Aber Sailor Moon hatte ja auch so ein paar gefunden, die sein 30" Cinemadisplay befeuern konnten.
deekey777
2005-09-17, 19:17:08
Was hat das eine jetzt mit dem anderen zu tun? Mit Hz gibt man die Refreshrate an und die hat nur indirekt was mit den Frames zu tun.
Mit meinem Posting wollte ich zum ausdruck bringen das 60Hz absolut unakzeptabel auf CRT's ist, bei nem TFT geht das noch klar. Bei nen CRT allerdings flimmerts dann so stark das es nicht nur scheiss aussieht sodern auch extrem ermmüdend aufs Auge wirkt :wink:
Und mit meinem Posting wollte ich sagen: Lies zuerst alles durch und wirst finden, daß die X800XT/X850XT CrossFire Edition bzw. die Compositing Engine für die CRTs einen RAMDAC hat, der mit mindestens 240MHz läuft und so 1900x1600@75 Hz unterstützt. Alle Klarheiten beseitigt?
PatkIllA
2005-09-17, 19:21:45
Wie funktioniert das auf einer normalen Grafikkarte, wenn mehr/weniger Bilder gerendert wurden als die Refreshrate dieses zuläßt?
Dafür gibt es ja den Framebuffer. Mindestens in doppelter Ausführung. Aus dem einen wird das Bild für den Monitor ausgelesen und in den anderen wird grade das neue berechnet.
Wenn das Bild fertig berechnet ist wird umgeschaltet. Also wird aus dem zweiten jetzt das Bild für den Monitor ausgelesen und in den ersten das neue Bild geschrieben.
Mit VSync und/oder Triplebuffer kann man dann noch verhindern, dass mittem bei der Ausgabe der Puffer gewechselt wird und so unterschieldiche BIlder zu sehen sind.
Ich weiß nicht, ob überhaupt was synchronisiert werden muß. Vermutung: Es werden uU immer Voll-Bilder von beiden Grafikchips an die CE geschickt, diese Vollbilder enthalten aber "transparente" Abschnitte, die mit "nicht-transparenten" Abschnitten des anderen Bilds gedeckt werden. ATi hälte gerade den Super-Tiling Modus für den einzig wahren.Selbst wenn zwei Grafikkarten mit der für sie absoluten gleichen Einstellung die BIlder auslesen laufen die nicht ansatzweise synchron bei der Pixelausgabe. Wenn der Composing Chip nichts zwischenspeichert und einfach nur Bildhälften zusammensetzt müssen die beiden Ausgänge synchronisiert werden.
iam.cool
2005-09-17, 19:31:32
Und mit meinem Posting wollte ich sagen: Lies zuerst alles durch und wirst finden, daß die X800XT/X850XT CrossFire Edition bzw. die Compositing Engine für die CRTs einen RAMDAC hat, der mit mindestens 240MHz läuft und so 1900x1600@75 Hz unterstützt. Alle Klarheiten beseitigt?
Und wie kommt man auf 240MHz wenn die Karten nur über nen Single 165MHz DVI Link verbunden sind? Eine Kette ist immer nur so stark wie ihr schwächstes
Glied :wink:
PatkIllA
2005-09-17, 19:35:41
Und wie kommt man auf 240MHz wenn die Karten nur über nen Single 165MHz DVI Link verbunden sind? Eine Kette ist immer nur so stark wie ihr schwächstes
Glied :wink:Wenn da noch ein Zwischenspeicher auf der Karte ist, dann kannst du den ja problemlos schneller auslesen. Mich würde nur mal interessieren wie das dann mit VSync machen, wenn von der zweiten Karte nur 60 Bilder in den Zwischenspeicher kommen?!?!?
deekey777
2005-09-17, 19:43:37
Dafür gibt es ja den Framebuffer. Mindestens in doppelter Ausführung. Aus dem einen wird das Bild für den Monitor ausgelesen und in den anderen wird grade das neue berechnet.
Wenn das Bild fertig berechnet ist wird umgeschaltet. Also wird aus dem zweiten jetzt das Bild für den Monitor ausgelesen und in den ersten das neue Bild geschrieben.
Mit VSync und/oder Triplebuffer kann man dann noch verhindern, dass mittem bei der Ausgabe der Puffer gewechselt wird und so unterschieldiche Bilder zu sehen sind.
Es wird wohl auch hier nicht anders verfahren, wenn ich das richtig verstanden habe; die Grafikkarten an sich haben ja nichts mit dem fertigen Bild zu tun.
Selbst wenn zwei Grafikkarten mit der für sie absoluten gleichen Einstellung die Bilder auslesen laufen die nicht ansatzweise synchron bei der Pixelausgabe. Wenn der Composing Chip nichts zwischenspeichert und einfach nur Bildhälften zusammensetzt müssen die beiden Ausgänge synchronisiert werden.
Warum ist das Verbindungskabel so kurz? :biggrin:
Du meinst, ob die Bilder der beiden Grafikkarten absolut gleichzeitig in der CE landen, da sonst eines der Bilder auf das passende warten müßte? Vielleicht werden die Bilder der Masterkarte (sie ist ja am nächsten zu der CE bzw. derm Composer Chip) im ROM des FPGA neben diesem zwischengespeichert.
PatkIllA
2005-09-17, 19:57:32
Du meinst, ob die Bilder der beiden Grafikkarten absolut gleichzeitig in der CE landen, da sonst eines der Bilder auf das passende warten müßte? Vielleicht werden die Bilder der Masterkarte (sie ist ja am nächsten zu der CE bzw. derm Composer Chip) im ROM des FPGA neben diesem zwischengespeichert.
Wenn die Karten synchron liefen, dann könnte der Chip ja einfach passend umschalten und je nach dem was grade dran ist.
Beispiel: Karte 1 berechnet die obere Hälfte, Karte 2 entsprechend die untere. Beide Karten geben aber jetzt ein Vollbild aus wo der nicht berechnete Teil einfach schwarz oder sonst was ist.
Wird jetzt die obere Hälfte an den Monitor ausgegeben, nimmt der CE die Daten von Karte 1, sonst von Karte 2.
Keine Ahnung, ob es wirklich so gemacht wird.
In den ROM wird wohl er nichts geschrieben ;) Gibt es denn schon Nahaufnahmen der Masterkarten, wo man sehen kann welche Chip zusätzlich auf der Karte sind?
Noch mal ne Verständnisfrage. Man kann ja durch Anpassung der Subpixelkoordinaten 2faches Supersampling für lau bekommen, wenn zwei Karten das gleiche Bild berechnen. Reichen zum Zusammensetzen des endgültigen Pixelwertes die beiden berechneten Werte, oder werden da auch noch umgebende Pixel mit einbezogen?
deekey777
2005-09-17, 20:44:06
Wenn die Karten synchron liefen, dann könnte der Chip ja einfach passend umschalten und je nach dem was grade dran ist.
Beispiel: Karte 1 berechnet die obere Hälfte, Karte 2 entsprechend die untere. Beide Karten geben aber jetzt ein Vollbild aus wo der nicht berechnete Teil einfach schwarz oder sonst was ist.
Wird jetzt die obere Hälfte an den Monitor ausgegeben, nimmt der CE die Daten von Karte 1, sonst von Karte 2.
Keine Ahnung, ob es wirklich so gemacht wird.
In den ROM wird wohl er nichts geschrieben ;) Gibt es denn schon Nahaufnahmen der Masterkarten, wo man sehen kann welche Chip zusätzlich auf der Karte sind?
Schaue mal in mein erstes Posting rein, da ist ein Link. ;)
Noch mal ne Verständnisfrage. Man kann ja durch Anpassung der Subpixelkoordinaten 2faches Supersampling für lau bekommen, wenn zwei Karten das gleiche Bild berechnen. Reichen zum Zusammensetzen des endgültigen Pixelwertes die beiden berechneten Werte, oder werden da auch noch umgebende Pixel mit einbezogen?
Meinst du jetzt das SuperAA?
Wenn ich mir die einzelnen Posting bei B3D anschaue, scheint die CE weder im Supertiling Modus noch im SuperAA Modus etwas zu tun, da beides über PCIe laufen soll und von der Master-GPU gehändled wird. Die CE kümmert sich nur um AFR/SFR.
deekey777
2005-09-17, 20:48:28
Und warum schafft ein CrossFire-System in HL2 bei 1600x1200@60Hz (da LCD) 136,7 fps (http://www.anandtech.com/video/showdoc.aspx?i=2477&p=6)?
Fragen über Fragen. :biggrin:
PatkIllA
2005-09-17, 20:59:33
Schaue mal in mein erstes Posting rein, da ist ein Link. ;)
ah Das französisch hatte mich abgehalten.
genau so ein Chip saß auch in meinem DVI-Splitter auch drin. Der hat übrigens 1600x1200 nicht sauber hinbekommen ;). Kann ja aber auch ein Montagsmodell gewesen sein.
@Mods
Kann mal jemand die beiden Threads mergen.
Einer reicht ja wohl
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3493038
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=248880
deekey777
2005-09-17, 21:34:06
Es ist etwas störend, in zwei Threads über das gleiche Thema zu schreiben.
Über das Bild wurde schon gelästert. :biggrin:
Danke, liebe Mods!!!
*Threads zusammengeführt*
Und warum schafft ein CrossFire-System in HL2 bei 1600x1200@60Hz (da LCD) 136,7 fps (http://www.anandtech.com/video/showdoc.aspx?i=2477&p=6)?
Fragen über Fragen. :biggrin:
Weil Refreshrate nichts mit fps zu tun hat, solange VSync aus ist.
Noch mal ne Verständnisfrage. Man kann ja durch Anpassung der Subpixelkoordinaten 2faches Supersampling für lau bekommen, wenn zwei Karten das gleiche Bild berechnen. Reichen zum Zusammensetzen des endgültigen Pixelwertes die beiden berechneten Werte, oder werden da auch noch umgebende Pixel mit einbezogen?
Man sollte nur die beiden Werte verwenden, ansonsten bekommt man Unschärfe á la Quincunx.
Wenn da noch ein Zwischenspeicher auf der Karte ist, dann kannst du den ja problemlos schneller auslesen. Mich würde nur mal interessieren wie das dann mit VSync machen, wenn von der zweiten Karte nur 60 Bilder in den Zwischenspeicher kommen?!?!?
Wenn, ja wenn... ist aber nicht.
Und wie kommt man auf 240MHz wenn die Karten nur über nen Single 165MHz DVI Link verbunden sind? Eine Kette ist immer nur so stark wie ihr schwächstes
Glied :wink:
Der 240MHz-RAMDAC ist möglicherweise auch für den normalen 2D-Betrieb gedacht. Denn ich könnte mir vorstellen dass es problematisch ist sowohl den internen 400MHz-RAMDAC als auch den externen für die Compositing Engine mit den Pins am Ausgang zu verbinden.
Selbst wenn zwei Grafikkarten mit der für sie absoluten gleichen Einstellung die BIlder auslesen laufen die nicht ansatzweise synchron bei der Pixelausgabe. Wenn der Composing Chip nichts zwischenspeichert und einfach nur Bildhälften zusammensetzt müssen die beiden Ausgänge synchronisiert werden.
Was auch gar kein Problem ist, da der Chip ja aus Sicht der Master-GPU als ein externer Ausgabechip wirkt und somit auch die Kontrolle über das Auslesen des Framebuffers hat.
deekey777
2005-09-17, 23:04:10
*Threads zusammengeführt*
Weil Refreshrate nichts mit fps zu tun hat, solange VSync aus ist.
Was "beweist", daß es mehr als 120 Frames/s bei 1600x1200 möglich sind.
Was ich aber bei der ganzem Diskussion nicht verstenden habe, ob eine größere Auflösung als 1600x1200 möglich ist. Oder ist es irrelevant*, da der Transmitter der Sklavin einfach weniger Bilder an die CE schickt, wenn die Auflösung über den "möglichen" 1600x1200 liegt.
*Wegen der Flexibilität des integrierten Transmitter auf der Sklavin.
deekey777
2005-09-18, 00:53:10
:lol:
ja, da hat NV voll ins schwarze oder sollte ich besser sagen, ins rote getroffen?! ;)
ich bin ja mal gespannt, was das alles anfang oktober wird... :|
Das einzige, was an dieser Präsentation stimmt, ist, daß noch keine CrossFire-Grafikkarten in den Läden sind. Die Geforce 7 lasse ich auch außen vor, da diese erst etwa 4 Wochen nach der "Präsentation" von CF gelaunched wurde.
http://www.techpowerup.com/reviews/NVIDIA/CrossfireTruth/images/CrossfireTruth-4.jpg
Erstens scheint SuperAA auch unter OpenGL zu funktionieren. Zweitens ist der 2xSS-Anteil umsonst. Drittens: Wann wurde SLI-AA angekündigt? Und die Tests mit SLI-AA waren nicht berauschend.
http://www.techpowerup.com/reviews/NVIDIA/CrossfireTruth/images/CrossfireTruth-5.jpg
OMG! Wo ist dier Sensation? :|
http://www.techpowerup.com/reviews/NVIDIA/CrossfireTruth/images/CrossfireTruth-7.jpg
Wo ist der Nachteil? Wer macht überhaupt das AI aus?
http://www.techpowerup.com/reviews/NVIDIA/CrossfireTruth/images/CrossfireTruth-8.jpg
Diese Tabelle ist out dated. Supertiling funktioniert auch unter OpenGL. Ob das SuperTiling immernoch nicht auf 12 piped Grafikkarten funktioniert, bleibt abzuwarten. Funktioniert SLI bei 6800+6800Ultra?
Das AFR wird von einem Gameprofil aktiviert? Nur ein Gameprofil für alles? We are doomed.
http://www.techpowerup.com/reviews/NVIDIA/CrossfireTruth/images/CrossfireTruth-9.jpg
Funktioniert SLI bei 6800+6800Ultra?
http://www.techpowerup.com/reviews/NVIDIA/CrossfireTruth/images/CrossfireTruth-10.jpg
Und? Alle Käufer einer 6600er oder 6800er oder 7800 zahlen für SLI - egal ob PCIe oder AGP.
http://www.techpowerup.com/reviews/NVIDIA/CrossfireTruth/images/CrossfireTruth-11.jpg
Nicht mehr lustig.
http://www.techpowerup.com/reviews/NVIDIA/CrossfireTruth/images/CrossfireTruth-12.jpg
Nicht mehr lustig
http://www.techpowerup.com/reviews/NVIDIA/CrossfireTruth/3
Das ist mir jetzt zu blöd.
Ich bezweifle immernoch, daß diese Folien von nVidia stammen.
mapel110
2005-09-18, 01:05:17
Ich bezweifle immernoch, daß diese Folien von nVidia stammen.
Zurecht. Das Layout ist viel zu simpel.
deekey777
2005-09-18, 01:08:56
Zurecht. Das Layout ist viel zu simpel.
Und warum ist da Luna so schlecht "eingefügt"?
http://www.techpowerup.com/reviews/NVIDIA/CrossfireTruth/images/CrossfireTruth-19.jpg
Am besten wäre es eh, wenn man in dieser Präsentation lustige Botschaften mit SLI-Problemen findet, wie es bei der letzten Anti-CrossFire Präsentation der Fall war. :biggrin:
Ailuros
2005-09-18, 01:31:04
sind das gesicherte infos?
ich hab mich zwar mit der thematik noch nicht näher befasst, sehe aber aufs erste keinen direkten zusammenhang (bezüglich bildwiederholfrequenz) zwischen den fähigkeiten des composing chips und dem was der ramdac der masterkarte endeffektiv an den bildschirm schickt.
wenn es wirklich so sein wird in der finalen crossfire-version, dann können sie es ja eh gleich einstampfen und neu machen.
wenn überhaupt, würde ich eher auf eine 60fps-limitierung (in abhängigkeit von den maximalen fähigkeiten des composer chips, kann ja auch mehr sein wenn sie in anders betreiben) in hohen auflösungen tippen, aber wer fragt mich schon :D
bezüglich dem pdf von nvidia noch: hehehe, aber man ist es ja schon gewohnt von nvidia, typisch nvidia-style halt ;D wie sagten schon die gallier so schön: "Die spinnen die Amis!"
Ich hab mich bei B3D "blau" gefragt bis ich es endlich schnallen konnte; ich bekam konstant irrefuehrendes Zeug bis mir endlich die Geduld ausging und ich darauf bestand wieviel Hz and Bildwiederholrate ich bei 1600 auf einem CRT bekomme. Dave's Antwort war 60Hz.
Framerate hat offensichtlich nichts damit zu tun solange man mit vsync off spielt (wie schon so oft wiederholt); aber das Flimmern mit 60Hz auf CRTs ist zum kotzen.
deekey777
2005-09-18, 01:38:36
Ich hab mich bei B3D "blau" gefragt bis ich es endlich schnallen konnte; ich bekam konstant irrefuehrendes Zeug bis mir endlich die Geduld ausging und ich darauf bestand wieviel Hz and Bildwiederholrate ich bei 1600 auf einem CRT bekomme. Dave's Antwort war 60Hz.
Framerate hat offensichtlich nichts damit zu tun solange man mit vsync off spielt (wie schon so oft wiederholt); aber das Flimmern mit 60Hz auf CRTs ist zum kotzen.
Meinst du das:
http://www.beyond3d.com/forum/showpost.php?p=568534&postcount=109
Ich hätte deine Frage so verstanden, daß du deinen CRT an den digitalen Ausgang anschliessen willst. :confused:
Gibt es bei nVidias SLI (endlich) V-Sync?
Ailuros
2005-09-18, 01:40:56
Und warum schafft ein CrossFire-System in HL2 bei 1600x1200@60Hz (da LCD) 136,7 fps (http://www.anandtech.com/video/showdoc.aspx?i=2477&p=6)?
Fragen über Fragen. :biggrin:
Als dieser review damals geschrieben wurde, wollte es uebrigens nicht mit einem CRT laufen.
Ailuros
2005-09-18, 01:46:30
Meinst du das:
http://www.beyond3d.com/forum/showpost.php?p=568534&postcount=109
Ich hätte deine Frage so verstanden, daß du deinen CRT an den digitalen Ausgang anschliessen willst. :confused:
Und so ist er auch momentan angeschlossen aber das war nicht meine Frage sondern eine irrelevante Erlaeuterung. Und damit es nicht zu weiteren Missverstaendnissen kommt, die GPU hat nur 2 DVI und keinen analogen Ausgang. CRT Kabel + DVI dongle ----> DVI = bis zu 2048*1536*32@75Hz, was wohl heisst dass das dongle keinen Einfluss auf die Wiederholrate hat. Irrelevant aber zum Thema.
Zurueck zum Thema:
Nimm das "M" aus "MHz" als Tippfehler und sag mir was mir Wavey geantwortet hat?
***edit: ich hab kein SLi System aber die maximale Bildwiederholrate soll jetzt bei 75Hz in 2048 sein. Frag lieber die Kerle die so ein Ding haben.
deekey777
2005-09-18, 01:51:56
Als dieses review damals geschrieben wurde, wollte es uebrigens nicht mit einem CRT laufen.
Wenn man es rotäugig wie ich auslegt, gab es da ein anderes Problem:
We had some trouble getting CrossFire set up and running due to a combination of factors. The first monitor that we tested doesn't work on the master card dongle with drivers installed. We weren't exactly sure in which slot the master card needed to be (we hear that it shouldn't make a difference when the final product is released), and we didn't know into which DVI port on the slave card to plug the dongle. After a bout of musical monitors, slots, and ports that finally resulted in a functional setup, we still needed to spend some time actually wrestling the driver into submission.
...
Not being able to use a good CRT monitor, we had to resort to our 1600x1200 LCD for testing, limiting our max resolution. Below 16x12, many games are not GPU limited under CrossFire.
DAUs testen CrossFire. :ulol:
Im Ernst: Vielleicht waren die Treiber noch nicht ganz ausgereift, und es gab gerade mit deren CRT ein Problem. Es hielt sie aber nichts davon ab, einen "kleineren" CRT mit max. 1600x1200 zu nehmen, da hätten sie wohl sofort die Alarmglocken geläutet, wenn beim aktivierten V-Sync höchstens 60Hz erlaubt wären.
Ist alles sehr rotäugig von mir.
Und so ist er auch momentan angeschlossen aber das war nicht meine Frage sondern eine irrelevante Erlaeuterung. Und damit es nicht zu weiteren Missverstaendnissen kommt, die GPU hat nur 2 DVI und keinen analogen Ausgang. CRT Kabel + DVI dongle ----> DVI = bis zu 2048*1536*32@75Hz, was wohl heisst dass das dongle keinen Einfluss auf die Wiederholrate hat. Irrelevant aber zum Thema.
Zurueck zum Thema:
Nimm das "M" aus "MHz" als Tippfehler und sag mir was mir Wavey geantwortet hat?
Er sagte: "Offensichtlich 60Hz."
Darum fragte ich, ob dein CRT am digitalen Anschluß hängt und nicht am analogen Teil des DVI-I. Dies hast du jetzt aber nicht eindeutig beantwortet.
Ailuros
2005-09-18, 02:01:39
Im Ernst: Vielleicht waren die Treiber noch nicht ganz ausgereift, und es gab gerade mit deren CRT ein Problem. Es hielt sie aber nichts davon ab, einen "kleineren" CRT mit max. 1600x1200 zu nehmen, da hätten sie wohl sofort die Alarmglocken geläutet, wenn beim aktivierten V-Sync höchstens 60Hz erlaubt wären.
Ist alles sehr rotäugig von mir.
Dann benutzt mal Augentropfen und sag mir warum ich nicht glauben soll dass dieses ein sehr "passender" Zufall war? :|
Treiber haben immer noch so manche "Wehwehchen" nur so nebenbei; zumindest hoere ich das von mehreren Seiten die momentan ihren Kopf zerbrechen mit dem Zeug. Ist aber total irrelevant zum Thema hier.
Reviewers schalten uebrigens aus aeusserst verstaendlichen Gruenden Vsync nicht ein ;)
deekey777
2005-09-18, 02:08:08
...
Reviewers schalten uebrigens aus aeusserst verstaendlichen Gruenden Vsync nicht ein ;)
Und darum soll es auch niemandem aufgefallen sein, daß kein VSync im SLI-Betrieb verfügbar ist? Oder stimmt das nicht?
Razor
2005-09-18, 02:08:28
Tja, dann nenn mir doch mal 10 Chips, die 'nen Dual Link Interface haben...
UUps, geht ja garnicht, sowas aber auch...Echt?
Wenn ich recht entsinne, dann ist das im Bereich der professionellen Workstation-Karten schon länger der Fall (sowohl bei ATI, als auch nVidia) und wenn ich nicht vollkommen daneben liege, dann gibt's sowohl 6800'er, wie auch 7800'er mit DualLink-DVI. Deswegen wunderte ich mich ja, dass dies bei ATI im Bereich der Consumer-Karten nicht so ist...
Siehe einfach, was ich schrieb -> Single Link TDMS TransmitterUnd ich schrieb: SingleLink Receiver... auf der Master-Karte.
Ergo: völlig egal, was auf der Slave verbaut ist...
@deekey
Durch Wiederholung Deiner Vermutung, wird sie auch nicht plausibler...
Razor
Razor
2005-09-18, 02:14:54
Vermutung: Es werden uU immer Voll-Bilder von beiden Grafikchips an die CE geschickt, diese Vollbilder enthalten aber "transparente" Abschnitte, die mit "nicht-transparenten" Abschnitten des anderen Bilds gedeckt werden.Es gibt keine "transparente" Abschnitte... insofern Vollbilder auch immer die volle Bandbreite benötigen.
Was genau willst Du uns eigentlich sagen?
:confused:
Was "beweist", daß es mehr als 120 Frames/s bei 1600x1200 möglich sind. Was nur leider nie die Frage war...
Razor
deekey777
2005-09-18, 02:20:38
Es gibt keine "transparente" Abschnitte... insofern Vollbilder auch immer die volle Bandbreite benötigen.
Was genau willst Du uns eigentlich sagen?
:confused:
Razor
...
Was nur leider nie die Frage war...
Razor
Habe ich eine Frage benantwortet?
Ahhhhhhhhhhh, was habe ich getan, ich habe mein Posting falsch editiert...........
Ailuros
2005-09-18, 02:25:06
Darum fragte ich, ob dein CRT am digitalen Anschluß hängt und nicht am analogen Teil des DVI-I. Dies hast du jetzt aber nicht eindeutig beantwortet.
http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/index2.php
Siehst Du die 2 DVI Anschluesse da? Ein DVI-dongle und ein analoges Kabel zum CRT; was genau hast Du nicht verstanden?
Und darum soll es auch niemandem aufgefallen sein, daß kein VSync im SLI-Betrieb verfügbar ist? Oder stimmt das nicht?
Sicher bin ich mir nicht, aber ich hab gerade nachgefragt und man sagte mir dass es geht. My guess is as good as yours ;)
Razor
2005-09-18, 02:25:59
Diese Abschnitte sind schwarz. Mit "transparent" meinte ich, daß dort keine gerenderten Informationen zu finden sind.Und?
Zum Rest sage ich lieber nichts... offenbar flüchtest Du Dich von einem Notnagel zum anderen.
Wäre hier wirklich langsam an konkreten Informationen interessiert... und ATI täte gut daran, diese bald zu liefern...
...oder aber zu versuchen, die Probleme totzuschweigen, damit der Crossfire-Launch nicht vollständig in die Hose geht.
Razor
Razor
2005-09-18, 02:27:00
Habe ich eine Frage benantwortet?Zumindest hast Du damit etwas "bewiesen" haben wollen...
...was auch immer.
Razor
deekey777
2005-09-18, 02:37:50
http://www.3dcenter.de/artikel/nvidia_g70_benchmarks/index2.php
Siehst Du die 2 DVI Anschluesse da? Ein DVI-dongle und ein analoges Kabel zum CRT; was genau hast Du nicht verstanden?
Dein CRT ist also analog angeschlossen? Und wenn du deinen Monitor über DVI-I* an die Mastercard anschließt, welches Bauteil ist dann für deinen CRT zuständig, 4 stehen zur Auswahl:
http://www.hardware.fr/articles/573-2/ati-crossfire-presentation.html?
Ich tippe auf den ADV7123. Und jetzt gib mir einen Grund, warum dein CRT dann mit 60Hz laufen soll? Du solltest vielleicht den Wavey fragen, ob er dich auch richtig verstanden hat, daß dein Monitor auch am analogen Anschluß hängt. Denn er war der erste, der auf diesen RAMDAC aufmerksam machte.
*Wie ein DVI-I so aufgebaut und was daran so alles angeschlossen werden kann, weiß wohl jeder.
Sicher bin ich mir nicht, aber ich hab gerade nachgefragt und man sagte mir dass es geht. My guess is as good as yours ;)
Dann lassen wir das mal im Raum so stehen: Es lebt! :biggrin:
Und?
Zum Rest sage ich lieber nichts... offenbar flüchtest Du Dich von einem Notnagel zum anderen.
....
Razor
Erklär es mir. Bitte. :love4:
Meinst du das:
http://www.beyond3d.com/forum/showpost.php?p=568534&postcount=109
Ich hätte deine Frage so verstanden, daß du deinen CRT an den digitalen Ausgang anschliessen willst. :confused:
Gibt es bei nVidias SLI (endlich) V-Sync?
NVIDIA hat anscheinend auf Crossfire reagiert, da gibt's ne ganze Menge mehr zukünftig ;)
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=249180
Ailuros
2005-09-18, 02:55:57
Dein CRT ist also analog angeschlossen? Und wenn du deinen Monitor über DVI-I* an die Mastercard anschließt, welches Bauteil ist dann für deinen CRT zuständig, 4 stehen zur Auswahl:
http://www.hardware.fr/articles/573-2/ati-crossfire-presentation.html?
Ich tippe auf den ADV7123. Und jetzt gib mir einen Grund, warum dein CRT dann mit 60Hz laufen soll? Du solltest vielleicht den Wavey fragen, ob er dich auch richtig verstanden hat, daß dein Monitor auch am analogen Anschluß hängt. Denn er war der erste, der auf diesen RAMDAC aufmerksam machte.
*Wie ein DVI-I so aufgebaut und was daran so alles angeschlossen werden kann, weiß wohl jeder.
Und hier nochmal die Antwort von einem der editors einer grossen Webseite bei direkter Anfrage in MSN gerade:
Crossfire can't drive the resolution higher than 1920x1200, at a refresh higher than 60Hz at 1600x1200 or 1920x1200
Glauben kannst Du was Du willst, aber ich verstehe Englisch gut genug um zu wissen was Wavey meinte.
***edit: und ja er hat ein CF System schon seit Tagen.
Und jetzt gib mir einen Grund, warum dein CRT dann mit 60Hz laufen soll?
Weil die Slave-Karte der Master-Karte per TMDS-Link die Bilder in dieser Auflösung digital mit 60Hz übermittelt. Um damit höhere Bildwiederholfrequenzen zu erreichen, müsste die Compositing Engine die Bilddaten zwischenspeichern. Nun hat sie dafür aber leider keinen Speicher.
deekey777
2005-09-18, 14:49:57
Weil die Slave-Karte der Master-Karte per TMDS-Link die Bilder in dieser Auflösung digital mit 60Hz übermittelt. Um damit höhere Bildwiederholfrequenzen zu erreichen, müsste die Compositing Engine die Bilddaten zwischenspeichern. Nun hat sie dafür aber leider keinen Speicher.
a) Gilt das auch für den Supertiling-Modus?
b) Könnte die Master-Karte dies nicht ausgleichen, da sie eigentlich über mehr Intelligenz verfügen müßte als die Slave-Karte, die denkt, sie wäre allein?
c) Hat ATi doch einen Dachschaden?
a) Gilt das auch für den Supertiling-Modus?
b) Könnte die Master-Karte dies nicht ausgleichen, da sie eigentlich über mehr Intelligenz verfügen müßte als die Slave-Karte, die denkt, sie wäre allein?
c) Hat ATi doch einen Dachschaden?
a) Das gilt für alle Modi, die über die CE laufen. Was ja z.B. bei SuperAA (bisher) nicht der Fall ist.
b) Der Haken ist die Übertragung, mehr Intelligenz hilft da nicht viel. Man kann die Bilder natürlich auch über PCIe übertragen und dann von der Master-GPU zusammensetzen lassen.
c) Nein, sie sind nur mit einer sehr ungünstigen technischen Limitierung konfrontiert.
deekey777
2005-09-18, 15:28:36
a) Das gilt für alle Modi, die über die CE laufen. Was ja z.B. bei SuperAA (bisher) nicht der Fall ist.
b) Der Haken ist die Übertragung, mehr Intelligenz hilft da nicht viel. Man kann die Bilder natürlich auch über PCIe übertragen und dann von der Master-GPU zusammensetzen lassen.
c) Nein, sie sind nur mit einer sehr ungünstigen technischen Limitierung konfrontiert.
a) Supertiling, nicht SupperAA?
http://www.beyond3d.com/forum/showpost.php?p=568408&postcount=99
"As for the compositing device - the graphics chips themselves can actually do the work. Current drivers for SuperTiling don't use the composite engine at all, the pass their data across the PCI Express bus and the master graphics chip does the compositing. This being the case, with their next generation boards they have the opportunity to remove the compositing device and go for an internal connection connecting both the graphics chips together - if they don't do this, and still have the compositing engine, then they must have some reasons for not doing doing it."
b) Alle Modi über PCIe laufen lassen?
c) Aber das ist unlogisch: Zwar hat der SiL 1161 mit dem Problem nichts zu tun, aber hätte man dies nicht erahnen müssen? Da ist ein RAMDAC für 1900x1200@75Hz, doch auf die Idee, zusätzlich einen Speicher für die CE zu verbrauen, damit diese Auflösung/Refreshrate augenschonend gewählrleistet werden kann, ist da wohl niemand gekommen.
Andererseits hängt das CE-Kabel am DVI-I der Sklavin: Wäre es nicht möglich beim Betrieb eines CRT bzw. analog die analogen Bilder zusammenzumixen, da diese von der Limitierung des Transmitters auf der Sklavin nicht betroffen sind? Oder wären starke Qualitätsteinbußen zu erwarten?
Ailuros
2005-09-18, 15:51:31
Ihr seit verdammt nahe zu entdecken warum die SuperAA Leistung wohl doch nicht so der Hammer ist.
Uebrigens bei SLi geht unter Umstaenden vsync tatsaechlich nicht; fuer die extra Neugierigen bei post-processing Faellen ;)
Sunrise
2005-09-20, 19:25:21
http://www.hexus.net/content/reviews/review.php?dXJsX3Jldmlld19JRD0xNjIyJnVybF9wYWdlPTc=
Crossfire limitations? Not so much with R5, really
Poke around the web recently and you'll get sniffs of X8-series Crossfire not doing anything over 60Hz at 1600x1200 on analogue outputs, or higher than 1920x1200 at all, because it feeds DVI output from the slave into the compositing engine on the master. That's pretty much correct.
Crossfire with R5-series GPUs suffers no such limitation given the dual-link outputs for DVI. Enough said.
Razor
2005-09-27, 19:32:44
Soll also heißen:
- Crossfire ist bei den R4 für's Arsch
- Crossfire bei den R5 ist wieder 'gut'
:confused:
Bin ja mal gespannt, wie sich die neuen von ATI verhalten werden, da "SLI" für die 400'er ja 'eh viel zu spät kommt und auch wirtschaftlich nicht wirklich sinnvoll ist.
Razor
deekey777
2005-09-27, 23:50:51
Soll also heißen:
- Crossfire ist bei den R4 fürn Arsch
- Crossfire bei den R5 ist wieder 'gut'
:confused:
...
Razor
Future Crossfire cards not limited to 1600x1200 @ 60 Hz (http://www.tomshardware.com/hardnews/20050927_121059.html)
So schlimm ist die Limitierung auch wieder nicht, wenn man keinen CRT hat.
StefanV
2005-09-28, 00:33:17
Future Crossfire cards not limited to 1600x1200 @ 60 Hz (http://www.tomshardware.com/hardnews/20050927_121059.html)
So schlimm ist die Limitierung auch wieder nicht, wenn man keinen CRT hat.
Und seöbst wenn man 'nen crt hat, kann man immer noch runter gehen und mehr FSAA nutzen...
Aber man muss sich ja immer Probleme machen, wenn man keine hat, gelle? ;)
Und seöbst wenn man 'nen crt hat, kann man immer noch runter gehen und mehr FSAA nutzen..
Sorry, aber das ist IMO mal wirklich ein recht blödsinniges Argument!
AA ist kein Ersatz für hohe Auflösungen.
Ailuros
2005-09-28, 01:20:50
Und seöbst wenn man 'nen crt hat, kann man immer noch runter gehen und mehr FSAA nutzen...
Aber man muss sich ja immer Probleme machen, wenn man keine hat, gelle? ;)
Siehe mbee's Antwort.
"Mehr FSAA" koennte natuerlich auch Super-AA heissen, nur heisst dass dann eben dass man siche auch momentan mit ca. 40 fps zufrieden stellen muss.
Keine Probleme ist relativ; sie fuchtelten an dem Ding eine Ewigkeit herum; ATI selber oder deren Fans moegen vielleicht Vorteile sehen, aber ich kann sie leider nicht sehen. Eben weil die 60Hz Limitierung KEIN Problem ist, gibt es diese Limitierung zufaellig nicht auf R520-CF.
mapel110
2005-09-28, 01:31:31
Eben weil die 60Hz Limitierung KEIN Problem ist, gibt es diese Limitierung zufaellig nicht auf R520-CF.
Wenn du das schon mit so aller Bestimmtheit sagen kannst, weißt du zufällig das neue Maximum beim R5xx? :)
deekey777
2005-09-28, 01:34:18
Wenn du das schon mit so aller Bestimmtheit sagen kannst, weißt du zufällig das neue Maximum beim R5xx? :)
Die theoretische Limitierung beim CF Nr. 2 ist das, was der Dual-Link DVI Transmitter der Slave schafft.
Ailuros
2005-09-28, 01:35:09
Die Datenbank wuerde Dir zeigen dass ich schon vor etlichen Monaten angedeutet habe, dass R520-CF ein paar wichtige Aenderungen hat.
AFAIK geht R520-CF bis zu 2048*1536*32@75Hz.
Ailuros
2005-09-28, 01:37:22
Die theoretische Limitierung beim CF Nr. 2 ist das, was der Dual-Link DVI Transmitter der Slave schafft.
Bei weitem nicht nur theoretisch; Du bekommst keine hoehere Wiederholrate als 60Hz auf einem CRT mit X8xx-CF; nach 4 Seiten hin und her und tonnenweise Reviews die dieses bestaetigen hat Realitaet die Theorie schon vor langem ersetzt.
Die gelbe Eule
2005-09-28, 01:55:15
So haben wir schon einen Flimmerbug bevor irgendein Sample überhaupt zu kaufen ist ;)
Ailuros
2005-09-28, 02:11:04
So haben wir schon einen Flimmerbug bevor irgendein Sample überhaupt zu kaufen ist ;)
Fuer LCD User ist es offensichtlich kein Problem.
Die gelbe Eule
2005-09-28, 02:36:43
Die müssten aber auch schon im guten 19er Bereich liegen, das sie solche Auflösungen fahren können, was ins Geld geht. Nichts geht über plane CRTs =)
Saugbär
2005-09-28, 02:49:44
Welches LCD-Display schaft denn 1600*1200 oder höher mit 8ms, der Monitor sollte doch Spieletauglich sein :| :| :| :|
Also bleibt im Moment doch wohl nur Röhre mit 60 Herz. :mad: :mad: :mad:
Das einzig sinnvolle wäre wohl ein Redisign. Zu Weihnachten könnte es dann fertig sein
Die gelbe Eule
2005-09-28, 02:52:40
Samsung SyncMaster 214T mit 8ms für schlappe 775€ =)
Ailuros
2005-09-28, 03:37:12
Die müssten aber auch schon im guten 19er Bereich liegen, das sie solche Auflösungen fahren können, was ins Geld geht. Nichts geht über plane CRTs =)
....und Du brauchst wiederrum zumindest einen 21" CRT um eine "echte" 1600*1200 Aufloesung erreichen zu koennen. Nachteile wird es immer geben; mein Schreibtisch ist eben gross genug dass der Platz den so ein Brummer einnimmt kein Problem ist.
Samsung SyncMaster 214T mit 8ms für schlappe 775€
Samsung's Preisempfehlung liegt eigentlich bei 999, was wohl heisst dass die 775 euros ein ausgezeichneter Preis sind. Kleiner Unterschied dass die Preisempfehlung fuer den 1100DF (CRT) bei 409 euros liegt. Fuer den Preisunterschied kann man sich locker auch einen groesseren Schreibtisch besorgen ;)
Tomcat70
2005-09-28, 06:47:29
Bei weitem nicht nur theoretisch; Du bekommst keine hoehere Wiederholrate als 60Hz auf einem CRT mit X8xx-CF; nach 4 Seiten hin und her und tonnenweise Reviews die dieses bestaetigen hat Realitaet die Theorie schon vor langem ersetzt.
er sprach aber von dem neuen crossfire.........
Welches LCD-Display schaft denn 1600*1200 oder höher mit 8ms, der Monitor sollte doch Spieletauglich sein :| :| :| :|
Also bleibt im Moment doch wohl nur Röhre mit 60 Herz. :mad: :mad: :mad:
Das einzig sinnvolle wäre wohl ein Redisign. Zu Weihnachten könnte es dann fertig sein
Das ist Schwachfug, genau so wie nach den ms-Angaben zu gehen. Mein TFT ist (meines Empfindens nach und nach den Reviewern von prad.de) z.B. voll spieletauglich.
Ailuros
2005-09-28, 09:18:06
er sprach aber von dem neuen crossfire.........
Ich sah tonnenweise reviews von R4xx-CrossFire und in dem Fall gibt es keine theoretische Limitierung. Die 60Hz Limitierung existiert da zweifellos.
sloth9
2005-09-28, 10:24:29
Soll also heißen:
- Crossfire ist bei den R4 für's Arsch
- Crossfire bei den R5 ist wieder 'gut'
:confused:
Bin ja mal gespannt, wie sich die neuen von ATI verhalten werden, da "SLI" für die 400'er ja 'eh viel zu spät kommt und auch wirtschaftlich nicht wirklich sinnvoll ist.
Razor
Habe ich schon vor Ewigkeiten gesagt (SuFu)... *SCNR*
Aber das es so schlecht wird!
Und seöbst wenn man 'nen crt hat, kann man immer noch runter gehen und mehr FSAA nutzen...
Aber man muss sich ja immer Probleme machen, wenn man keine hat, gelle? ;)Ja klar - ich kauf mir Crossfire damit ich in 1280x960 spielen kann. Oh mann...
Die müssten aber auch schon im guten 19er Bereich liegen, das sie solche Auflösungen fahren können, was ins Geld geht. Nichts geht über plane CRTs 20er. 19er mit 1600x1200 gibt's fast keine.
sloth9
2005-09-28, 10:30:30
Und seöbst wenn man 'nen crt hat, kann man immer noch runter gehen und mehr FSAA nutzen...
Aber man muss sich ja immer Probleme machen, wenn man keine hat, gelle? ;)
.. der sich lächerlich macht...
>800,- € für GraKas ausgeben und dann in sonner Kindergartenauflösung spielen wollen...
schlechte Tage für ATi-Fanboys :D
SKYNET
2005-09-28, 10:42:00
Ja klar - ich kauf mir Crossfire damit ich in 1280x960 spielen kann. Oh mann...
20er. 19er mit 1600x1200 gibt's fast keine.
traurig eigentlich, wenn man bedenkt das es handy displays mit 480*640er auflösung gibt, aber dann nicht mal 15" / 17" TFT mit 1600*1200 gibbet...
durch die hohe pixeldichte würde das bild deutlich besser aussehn als auf nem 19" oder 20" TFT mit 1600*1200. ;(
Och mir ist mein 20" eigentlich ganz recht :tongue:
SKYNET
2005-09-28, 10:55:28
Och mir ist mein 20" eigentlich ganz recht :tongue:
mir meine 17"(1280*960 @ 90Hz) und 19" CRT(1600*1200 @ 80Hz) sowie mein 17"(1280*1024) und 15.4"(1280*800) WXGA TFT auch. ;)
deekey777
2005-09-28, 12:24:35
Bei weitem nicht nur theoretisch; Du bekommst keine hoehere Wiederholrate als 60Hz auf einem CRT mit X8xx-CF; nach 4 Seiten hin und her und tonnenweise Reviews die dieses bestaetigen hat Realitaet die Theorie schon vor langem ersetzt.
Das brauchst du mir aber nicht (mehr) zu erklären. :biggrin:
Welches LCD-Display schaft denn 1600*1200 oder höher mit 8ms, der Monitor sollte doch Spieletauglich sein :| :| :| :|
Also bleibt im Moment doch wohl nur Röhre mit 60 Herz. :mad: :mad: :mad:
Das einzig sinnvolle wäre wohl ein Redisign. Zu Weihnachten könnte es dann fertig sein
Das einzig Sinnvolle wäre ein Redesign? Einfach mal den Thread durchlesen und nachdenken.
.. der sich lächerlich macht...
>800,- € für GraKas ausgeben und dann in sonner Kindergartenauflösung spielen wollen...
schlechte Tage für ATi-Fanboys :D
Zeig mir eine andere nachträglich entwickelte Dual-Grafikkartenlösung. Wenn man in Kanada CrossFire vom Anfang an entwickelt hätte, wie es zB bei nVidias SLI der Fall war, so hätte man diese Limitierung nicht. Auch CrossFire Nr. 2 ist weiterhin so eine Bastellösung wie CF Nr. 1, auch wenn die Limitierung durch den Dual-Link jetzt eigentlich nicht mehr vorhanden ist.
Ailuros
2005-09-28, 13:29:19
traurig eigentlich, wenn man bedenkt das es handy displays mit 480*640er auflösung gibt, aber dann nicht mal 15" / 17" TFT mit 1600*1200 gibbet...
durch die hohe pixeldichte würde das bild deutlich besser aussehn als auf nem 19" oder 20" TFT mit 1600*1200. ;(
Was fuer eine Pixeldichte haben denn ueberhaupt die PDA displays?
Mr. Lolman
2005-09-28, 13:44:00
Samsung's Preisempfehlung liegt eigentlich bei 999, was wohl heisst dass die 775 euros ein ausgezeichneter Preis sind. Kleiner Unterschied dass die Preisempfehlung fuer den 1100DF (CRT) bei 409 euros liegt. Fuer den Preisunterschied kann man sich locker auch einen groesseren Schreibtisch besorgen ;)
Den man für den CRT sowieso brauchen würde (0.5m Tiefe)...
BTW: Angenommen besagter CRT läuft pro Woche ~ 25 Std, dann wär das pro Jahr ein Mehrverbrauch von 104 kWh
(bei 40W vs 120W). Nutzt man den Monitor noch häufiger kommen da nach 5 Jahren bald 100€ an "Mehrverbrauch" zustande...
Die gelbe Eule
2005-09-28, 13:54:46
In 5 Jahren wird es aber dann wieder ein anderes Preisgefüge geben und CRTs laufen nur noch in Fabrikhallen, wenn überhaupt.
Ailuros
2005-09-28, 14:18:43
Den man für den CRT sowieso brauchen würde (0.5m Tiefe)...
BTW: Angenommen besagter CRT läuft pro Woche ~ 25 Std, dann wär das pro Jahr ein Mehrverbrauch von 104 kWh
(bei 40W vs 120W). Nutzt man den Monitor noch häufiger kommen da nach 5 Jahren bald 100€ an "Mehrverbrauch" zustande...
Bei gleichem Hersteller und (fast gleicher) Groesse (21" CRT = 20" viewable) sind es erstmal 65W:
http://monitor.samsung.de/article.asp?artid=984B05C4-154C-4931-94B6-B07E9AE7D46A&show=specs
...und zweitens ist dieser Punkt so albern wie es ueberhaupt geht denn der Stromverbrauch-Unterschied ist so laecherlich in einem normalen Haushalt dass es nicht der Rede wert ist. Bei grossen Firmen wo zahllose von Bildschirmen benutzt werden ist es selbstverstaendlich dass der Stromverbrauch ein Gedanke ist.
Dieser oede Kaugummi ist schon so ausgelatscht in zich Debatten dass es schon langweilig wird. Nach 5 Jahren hock ich hoechstwahrscheinlich vor einem SED oder was immer es nach 2-3 Jahren alternatives geben wird dass verdammt nahe an CRT-Technologie liegt. Fuer den laptop und Office-Gebrauch sind LCDs ausgezeichnet, sonst will ich persoenlich nichts von dem Zeug hoeren, weder fuer den PC noch fuer den Fernseher.
***edit: was den Schreibtisch betrifft, 200*100cm duerften wohl ausreichen oder?
SKYNET
2005-09-28, 16:14:38
Den man für den CRT sowieso brauchen würde (0.5m Tiefe)...
BTW: Angenommen besagter CRT läuft pro Woche ~ 25 Std, dann wär das pro Jahr ein Mehrverbrauch von 104 kWh
(bei 40W vs 120W). Nutzt man den Monitor noch häufiger kommen da nach 5 Jahren bald 100€ an "Mehrverbrauch" zustande...
uhhh, bei 20€ mehr strom im jahr muss man ja vorsichtig sein, das man sich nicht ruiniert... :rolleyes: :biggrin:
SKYNET
2005-09-28, 16:15:19
Was fuer eine Pixeldichte haben denn ueberhaupt die PDA displays?
k.a. sieht aber grundsätzlich schärfer und klarer aus das bild, als auf nem TFT moni! ;(
Mr. Lolman
2005-09-28, 17:02:26
uhhh, bei 20€ mehr strom im jahr muss man ja vorsichtig sein, das man sich nicht ruiniert... :rolleyes: :biggrin:
Wenn man den Monitor als langzeittaugliche Lösung in Betracht zieht, und keinen Bock auf einen neuen Schreibtisch hat, gibts plötzlich nicht mehr viel, was für einen CRT spricht...
Mr. Lolman
2005-09-28, 17:04:16
***edit: was den Schreibtisch betrifft, 200*100cm duerften wohl ausreichen oder?
Gerade so. Alles was kleiner wär, wär unbrauchbar. Außerdem kann man auch die Miete für die m² die der Monitor braucht auch in die Rechnung miteinfliessen lassen ;)
seahawk
2005-09-28, 18:44:13
Wenn man den Monitor als langzeittaugliche Lösung in Betracht zieht, und keinen Bock auf einen neuen Schreibtisch hat, gibts plötzlich nicht mehr viel, was für einen CRT spricht...
Wenn man Bildbearbeitung macht schon. Denn ein CRT ist wesentlich farbechter als jeder TFT: Ich persönlich bleibe deshalb solange wie möglich bei CRTs.
Ailuros
2005-09-28, 19:23:22
Wenn man den Monitor als langzeittaugliche Lösung in Betracht zieht, und keinen Bock auf einen neuen Schreibtisch hat, gibts plötzlich nicht mehr viel, was für einen CRT spricht...
Ausser der Platzverschwendung gibt es fuer mich eher weniger dass fuer einen LCD spricht. Jedem das seine.
Gerade so. Alles was kleiner wär, wär unbrauchbar. Außerdem kann man auch die Miete für die m² die der Monitor braucht auch in die Rechnung miteinfliessen lassen ;)
Es ist ja nett dass Du Dich um meine Finanzen sorgst, aber ich bezahle sowieso keine Miete. :P :biggrin:
Wenn man Bildbearbeitung macht schon. Denn ein CRT ist wesentlich farbechter als jeder TFT: Ich persönlich bleibe deshalb solange wie möglich bei CRTs.Blödsinn. Der Kontrast eines CRT ist besser, das war's dann schon.
Marc-
2005-09-29, 11:02:13
Blödsinn. Der Kontrast eines CRT ist besser, das war's dann schon.
Ich liebe diese allgemeingültigen aussagen.
Natürlich ist auch die farbintensitaet und farbechtheit bei einem CRT anders/besser als bei nem TFT. Zumindest dann wenn man wechselnde Lichtverhältnisse und nicht immer optimale blickwinkel auch in betracht zieht. Was im büro und arbeitsalltag nunmal häufiger der fall ist... zum beispiel wenn man mal zu zweit an einem moni arbeitet, dabei telefoniert oder sonswas macht.
Auch hochauflösende CAD proggies und Renderer sind bei nicht optimalen verhältnissen dauerhaft nicht wirklich angenehmer an tfts als an guten crts.
Es ist also sehr wohl im arbeitsalltag etwas mehr als "nur" der kontrast.
Hast du schonmal einen TFT in der Preisregion ~900€ gesehen?
Marc-
2005-09-29, 11:12:23
Hast du schonmal einen TFT in der Preisregion ~900€ gesehen?
Ja hab ich. einige.
Und ich glaube kaum das du mir jetzt sagen willst das diese aehnlich wenig winkelabhängig sind in der darstellung wie ein guter crt... dazu halt ich dich eigentlich für zu gescheit.
-error-
2005-09-29, 11:14:21
Blödsinn. Der Kontrast eines CRT ist besser, das war's dann schon.
Ja nee ist klar.
Schau dir den mal bei Mediamarkt an, dann müsstest du Kontrast neu diffinieren ;D
http://www.beareyes.com.cn/2/lib/200503/30/008/black.jpg
Die Hintergrundbeleuchtung ist konstant an bei einem TFT, das Bild kann deswegen nie ganz schwarz werden und deshalb ist der Kontrast immer geringer als bei einem CRT.
Ja hab ich. einige.Das glaub ich nicht, denn bei denen die wir bei der Arbeit haben (NEC 2080UX+) ist Winkelabhängikeit praktisch nicht vorhanden.
ShadowXX
2005-09-29, 12:06:07
Ja hab ich. einige.
Und ich glaube kaum das du mir jetzt sagen willst das diese aehnlich wenig winkelabhängig sind in der darstellung wie ein guter crt... dazu halt ich dich eigentlich für zu gescheit.
Du willst mir jetzt aber trotzdem nicht erzählen, das ernsthafte Grafiker und/oder CAD/Render-User zu zweit an einem Bildschirm arbeiten??
seahawk
2005-09-29, 12:25:56
Blödsinn. Der Kontrast eines CRT ist besser, das war's dann schon.
Bei aller Liebe nein. Ein TFT jeglicher Preisklasse ist wesentlich winkelabhängier und wenn man mit 2 Monitoren arbeitet, ist es immer ein ziemliche Fummelei beide exakt gleich zu stellen. Im Arbeitsalltag furchtbar nervig, da man eben nicht immer an der exakt gleichen Position sitzt.
Bei uns werden all TFTs bei CAD, Grafik und Internetdesign APs nach Ablauf der Leasingverträge wieder gegen CRTs getauscht.
Du willst mir jetzt aber trotzdem nicht erzählen, das ernsthafte Grafiker und/oder CAD/Render-User zu zweit an einem Bildschirm arbeiten??
Aber alleine an 2 oder mehr Bildschirmen.
-error-
2005-09-29, 12:51:00
Die Hintergrundbeleuchtung ist konstant an bei einem TFT, das Bild kann deswegen nie ganz schwarz werden und deshalb ist der Kontrast immer geringer als bei einem CRT.
Der Kontrast liegt bekanntlich bei xxxx : 1
Du hast Recht, das ein TFT nie das Schwarz eines CRT erreicht wird, aufgrund der Hintegrundbeleuchtung, die ein TFT nunmal brauht.
Aber dennoch ist der Kontrast höher als bei einem CRT, da die Spannweite zwischen Schwarz und Weiß einfach extrem ist.
Aber dennoch ist der Kontrast höher als bei einem CRT, da die Spannweite zwischen Schwarz und Weiß einfach extrem ist.Also fassen wir mal zusammen: Ein CRT kann praktisch perfektes schwarz darstellen und ein TFT ist auch nicht heller als ein CRT.
Wie soll dann der TFT einen höheren Kontrast haben. Versuch's mal mit Logik...
VoodooJack
2005-09-29, 15:46:56
Eine gute Nachricht. Für R520 Crossfire scheint es keine 60-Hz-Limitierung in höheren Auflösungen zu geben. Was Dave B. von B3D in seinem Crossfire-Artikel und andere bereits vermuteten, wird von Tomshardware bestätigt. Tomshardware hat bei ATI nachgefragt:
http://www.tomshardware.com/hardnews/20050927_121059.html
Die gute Nachricht findet ihr im letzten Absatz.
Wenn's stimmt, wird Crossfire R520 auch für meinen 21" CRT interessant.
Sunrise
2005-09-29, 17:15:39
Eine gute Nachricht. Für R520 Crossfire scheint es keine 60-Hz-Limitierung in höheren Auflösungen zu geben. Was Dave B. von B3D in seinem Crossfire-Artikel und andere bereits vermuteten, wird von Tomshardware bestätigt. Tomshardware hat bei ATI nachgefragt:
http://www.tomshardware.com/hardnews/20050927_121059.html
Die gute Nachricht findet ihr im letzten Absatz.
Wenn's stimmt, wird Crossfire R520 auch für meinen 21" CRT interessant.
Steht bereits alles mehrmals hier im Thread:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=3501468#post3501468
PS: Tomshardware *hust*
Tigershark
2005-09-30, 11:21:10
Also fassen wir mal zusammen: Ein CRT kann praktisch perfektes schwarz darstellen und ein TFT ist auch nicht heller als ein CRT.
Wie soll dann der TFT einen höheren Kontrast haben. Versuch's mal mit Logik...
oh, ein TFT ist deutlich heller als ein CRT...
http://de.wikipedia.org/wiki/Kontrastverh%C3%A4ltnis
Und erzähl mir bitte nicht irgend ein TFT könnte ein so tiefes schwarz wie ein TFT anzeigen.
Mr. Lolman
2005-09-30, 12:36:55
http://de.wikipedia.org/wiki/Kontrastverh%C3%A4ltnis
Und erzähl mir bitte nicht irgend ein TFT könnte ein so tiefes schwarz wie ein TFT anzeigen.
Andererseits: Wenn ich auf meinen CRTs die Helligkeit voll aufdreh wirkt alles ausgeblichen milchig. Wenn ich das bei den TFTs mach, erschlägt mich der Windowsdesktop mit seinem strahlenden Weiss - spätestens sobald ich ein Ordnerfenster öffne...
Andererseits: Wenn ich auf meinen CRTs die Helligkeit voll aufdreh wirkt alles ausgeblichen milchig. Wenn ich das bei den TFTs mach, erschlägt mich der Windowsdesktop mit seinem strahlenden Weiss - spätestens sobald ich ein Ordnerfenster öffne...Der CRT hat trotzdem einen höheren Kontrast. Ich hab übrigens selber einen TFT, aber das "schwarz" gefällt mir eben nicht so ganz.
Andererseits: Wenn ich auf meinen CRTs die Helligkeit voll aufdreh wirkt alles ausgeblichen milchig. Wenn ich das bei den TFTs mach, erschlägt mich der Windowsdesktop mit seinem strahlenden Weiss - spätestens sobald ich ein Ordnerfenster öffne...
Aber ich bezweifle, dass man dann noch einen homogenen Grauverlauf hat. Mein Beamer hat auch einen angegebenen Kontrast von 1200:1 aber farbkalibriert bleiben nur noch ca 700:1 übrig. Das wird bei TFT nicht großartig anders sein. Wenn die Farben richtig eingestellt sind und man eine Grautreppe Korrekt darstellen kann hat der CRT einen höheren Kontrast.
Mr. Lolman
2005-09-30, 17:56:13
Der CRT hat trotzdem einen höheren Kontrast. Ich hab übrigens selber einen TFT, aber das "schwarz" gefällt mir eben nicht so ganz.
Ich hab einen (mittlerweile schon etwas älteren) L19M mit MVA Panel. Klar sind die 25ms gerade bei schnellen Spielen (Q3a) ein gewisses Handicap, dafür überzeugt mich gerade die Schwarzdarstellung in Verbindung mit dem hohen Blickwinkel (170/170°).
Auch die vgl zum CRT deutlich höhere Schärfe weiss insgesamt zu gefallen (die tw. leider auch ein Nachteil ist - jpg Bilder dürfen bei weitem nicht so stark komprimiert werden. Man sieht sofort irgendwelche Artefakte ;))
Mr. Lolman
2005-09-30, 17:57:21
Aber ich bezweifle, dass man dann noch einen homogenen Grauverlauf hat. Mein Beamer hat auch einen angegebenen Kontrast von 1200:1 aber farbkalibriert bleiben nur noch ca 700:1 übrig. Das wird bei TFT nicht großartig anders sein. Wenn die Farben richtig eingestellt sind und man eine Grautreppe Korrekt darstellen kann hat der CRT einen höheren Kontrast.
Stimmt. Deswegen verzicht ich auf den homogenen Grauverlauf und gönn mir alle anderen Vorteile (von der hohen Schärfe hat man natürlich nix, wenn man sich alles wieder mit Quicunx und Cleartype kaputt macht ;))
mit dem kontrast und dem schwarz - das kann bei tft's bauart bedingt nie so sein wie bei einem crt
beim crt wird einfach bei schwarz die stelle dunkel gelassen - dunkel = kein licht = schwarz
beim tft ist eine weiße hintergrundbeleuchtung die von einem schwarzen pixel überdeckt wird - aber es ist halt lich da - an der stelle wo es schwarz sein müsste ;)
so deckend sind die flüssig kristalle nicht und bei schnellen panels sind meißt die flüssig kristall schichten noch dünner - also schlechterer kontrast
Sailor Moon
2005-10-03, 13:33:29
Tja, dann nenn mir doch mal 10 Chips, die 'nen Dual Link Interface haben...
UUps, geht ja garnicht, sowas aber auch...
12 Karten kann ich immerhin nennen:
GeForce 7800GTX
GeForce 7800GT*
DELL 6800 GTO
QuadroFX 3400/4000/4400/4500
QuadroFX 3000 (zumindest mit neuestem BIOS)
ATI FireGL X3-256/V5100/V7100
Parhelia DL256
Zumindest nVidia hat mich absolut (erfreulich) mit der 7800er Reihe überrascht. Immerhin ein DL DVI Port, außerdem ist selbst im SLI Betrieb (brauche ich allerdings nicht; verzichte bei neueren Games eben auf AA/AF, dann reicht auch die Leistung einer GTX) nun die Nutzung des DL Interfaces möglich. Zudem bietet nVidia ja seit Jahren sehr ausgereifte Interpolationseinstellungen im Treiber, was ich bei ATI (ebenfalls seit Jahren) vermisse.
Gruß
Denis
*Gehe davon aus, dass die GT auch ein DL DVI Interface hat. Die GTX auf jeden Fall; da hier nur interne TMDS Transmitter verwendet werden, also ein Feature der GPU - anders als bei der 6800er Reihe, bei der nur die DELL Karte und die ersten Samples DL DVI hatten (bei den anderen Karten wurde der zweite TMDS Transmitter auf der Rückseite wegrationalisiert)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.