Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia: Wahnsinn mit Methode?
Demirug
2004-02-04, 18:22:20
Erinnert sich noch jemand an die Geschichte mit dem Loch in der NV30-GPU? Jetzt gibt es die Fortsetzung. Das Loch im PCB.
Aber fangen wir von vorne an. Grafikkarten bauen nach nVidia in 9 einfachen Schritten.
1. Der GPU-DIE wird wird auf dem Substrat via Flipchip Technik montiert.
2. Das Substrat wird auf die Rückseite gedreht
3. Auf der Rückseite werden mehrer Speicher DIEs wieder via Flipchip montiert.
4. Das Substrat wird wieder gedreht.
5. Um die GPU herum werden die Kontaktballs angebracht.
6. In das PCB wird ein Loch an die Stelle gesägt an der sich später der GPU-DIE befindet. Das Loch wird etwas grösser als der DIE.
7. Die GPU wird auf dem PCB montiert. Der GPU-DIE befindet sich jetzt zwischen PCB und Substrat. Im PCH ist aber das Loch.
8. Auf dem Speicher wird ein Kühler montiert.
9. Durch das Loch wird ebenfalls ein Kühler geschoben der dann auf dem GPU-DIE aufliegt.
Ich habe mal ein Bild angehängt wie das ganze dann fertig aussieht.
PS: Das ganze ist kein Scherz. Die Idee auf diese Art und Weise eine Grafikkarte zu montieren stammt wirklich von nVidia und ist ernst gemeint. Das einzige was ich nicht weiss ob und wann sie darauf wirklich zurückgreifen werden.
ilPatrino
2004-02-04, 18:45:41
könnte man das als hinweis sehen, welche verlustleistungsorgie man sowohl beim speicher als auch beim core erwartet? und nebenbei die grenzenlose zufriedenheit mit dem nächsten formfaktor?
mal im ernst, eigentlich gar keine soooo doofe konstruktion (auch wenn man sie wahrscheinlich hätte besser machen können, wohl aber nicht zu dem preis): man hat speicher direkt am core, was probleme mit den signallaufzeiten vermindern sollte. nebenbei hat man standard-pcbs, auf die man dann unterschiedliche konstrukte pinnen kann (machen wir nen sockel draus, dann kann man den core aufrüsten, während man den low-tech rest behält)
interessanteste frage wird sein, ob man den gesamten speicher (wohl eher unscharweinlich) oder "2nd-level" cache auf die rückseite pappen will
Endorphine
2004-02-04, 19:26:00
Was ist daran so schlimm? Von den enormen Kosten mal abgesehen halte ich das für eine gute Idee.
Wer bei solchen Techniken mault sollte dann in dem Moment ganz mucksmäuschenstill sein, wenn wieder mal Grafikkarten vorgestellt werden, deren Kühler den Platz des benachbarten Slots mit in Anspruch nimmt (und idealerweise noch einen dritten, damit der Kühler optimal arbeiten kann). Irgendwie müssen Konzepte gefunden werden, die >100 Watt Verlustleistung abzuführen. Wenn dafür niemand den nun schon über 20 Jahre alten AT-Formfaktor verändern will bedarf es eben solcher Extremlösungen. Intel wird in diesem Fall nicht das Zepter in die Hand nehmen und die Formfaktoren weiterentwickeln. Das wäre eine Angelegenheit von nVidia und ATI.
Ich finde die Idee auch deshalb gut, weil sie durch die zweite Ebene kürzeste Signalwege zwischen GPU und Speicher ermöglicht. Das kommt dem elektrischen Verhalten des parallelen Speicherbusses sehr entgegen. Nachteil ist halt, dass diese Technik ausgesprochen kostspielig ist.
Wenn ATI und nVidia nicht dazu bereit sind, den Formfaktor für die Grafikkarte gemeinsam weiterzuentwickeln werden solche technischen Krücken eben langsam notwendig.
Edit: Demi, kannst du deine Quelle für die Informationen veröffentlichen? Ich wäre daran interessiert. Oder auch wieder "confidential"?
Demirug
2004-02-04, 19:35:12
Endorphine, mir gefällt die Idee auch. Aber ein Loch in das PCB zu sägen ist schon ein bischen verrückt, oder?
Das einzige was die Kosten hochtreiben düfte ist die doppelseitige Bestückung des Substrats seins.
Was die Quelle angeht so wird da in naher Zukunft ein Patent(antrag) auftauchen in dem das alles genau erklärt wird. Es ist aber noch nicht vollständig in der Datenbank erfasst. Sobald es komplett ist werde ich den Link posten.
Heißt das dann konkret, daß der Speicher sozusagen direkt auf (respektive in) dem Package des Graphikchips sitzt?
Die Idee ist IMO übrigens nicht schlecht, nur könnte sich das negativ auf die physikalischen Eigenschaften der Karte auswirken. So ein Loch dürfte das PCB ja nicht gerade stabiler machen...
-huha
Endorphine
2004-02-04, 20:18:10
Original geschrieben von Demirug
Endorphine, mir gefällt die Idee auch. Aber ein Loch in das PCB zu sägen ist schon ein bischen verrückt, oder? Verrückt finde ich die Idee nicht, eher kreativ. NVidia beschreitet neue Wege, um sich bestehenden Problemen anzunehmen. Mir gefällt das ausgesprochen gut.
Und wenn ich ehrlich bin sprechen mich nVidia Karten schon seit dem NV25 mehr an als die von ATI (nur die Karten). Ich brauche mir nur die Karten anzuschauen - NV38:
http://www.forum-hardtecs4u.com/3dcenter/images/2003/10-24_pic1.jpg (http://3dcenter.de/artikel/2003/10-24_pic1.php)
R360:
http://www.hardtecs4u.com/images/news/ati_r9800xt_board.jpg
Der NV38 begeistert mich schon mit der Kühlung: Lüfter und Kühler, die diesen Namen auch wirklich verdienen. Ein Radiallüfter von hoher Qualität (Delta), der mit der Abluft nicht den Rechner aufheizt sondern sie über das Slotblech nach aussen abführt. Der Kühler kann auch ernst genommen werden, er ist nicht auf Optik ausgelegt, sondern auf technische Funktion. Ja, sogar eine echte Kühlerfederklammer wie bei CPU-Sockelkühlern gibt's. Optischer Schnickschnack wie bei ATI ist nicht zu sehen. NVidia hielt es sogar nicht mal für nötig, dem Zulieferer vorzuschreiben, dass er einen anderen Aufkleber auf die Lüfternabe zu setzen habe, mit NV-Logo. Das begeistert mich.
NVidia scheint technisch deutlich mehr zu riskieren und wagt sich an die Grenzen, beschreitet neue Wege. Auch wenn sie damit auch schon mal einen Fehltritt begehen. Beispiele aus der jüngsten Vergangenheit: NV30, der in der Architektur seiner Zeit voraus ist, zu früh auf einen noch nicht ausgereiften 130 nm Prozess setzte und mit 500 MHz DDR-II SDRAM und FX-Flow die Grenzen dessen überschritt, was der Kunde akzeptieren wollte. Und das hat auch Tradition bei nVidia: der NV1 war mit Busmaster PCI-Audio, für damalige Verhältnisse extremer Integration (3D- und 2D-Beschleunigung auf einer Karte _und_ PCI-Audio) sowie voller Konzentration auf Micrsofts Direct3D seiner Zeit zu weit voraus, so dass er ggü. 3dfx' Voodoo scheiterte.
ATI dagegen geht auf Nummer sicher und baut mehr oder weniger technisch langweilige Lösungen. ATI schaut scheinbar deutlich mehr auf die Bedürfnisse der grossen Masse der Kunden: bunte Kühlerchen, die mehr Optik als Funktion bieten, schnelles AF nur für die wichtigsten Winkel und für gutes Abschneiden in Benchmarks, konkurrenzlos gutes MSAA (SSAA nur noch für Apple). Keine Rücksicht auf professionelle Anwender, kein technisches Design am Limit, keine ehrgeizigen Lösungen, die technisch begeistern aber im wirtschaftlichen Erfolg riskant sind. Das ist übrigens auch was, was mich an Intel teilweise so fasziniert: der Ehrgeiz bei der technischen Konstruktion. IA64 von Intel und AMD64 von AMD sind dafür wieder mal wundervolle Beispiele, ebenso das gescheiterte nicht minder ehrgeizige Projekt, mit RDRAM die Regeln der Speicherindustrie zu brechen, um die Speicherentwicklung endlich voranzutreiben.Original geschrieben von Demirug
Das einzige was die Kosten hochtreiben düfte ist die doppelseitige Bestückung des Substrats seins. Naja, ich denke schon, dass diese Konstruktion am Ende deutlich teurer sein wird als konventionelles Design. Bei einem konventionellen PCB wird einfach alles aufgelötet, der Kühler wird aufgesteckt und das Slotblech wird angeschraubt. Fertig. Diese Lösung hier bringt da schon einiges an zusätzlichen Arbeitsschritten hinein. Die absoluten Kosten dürften aus der Sicht des Endkunden gesehen nicht sehr hoch sein. Nur wirken sich ein paar Dollar pro Karte ja im Endeffekt doch wieder kräftig aus, da ja eine ganze Menge an Firmen mit Zwischenschritten bis zum Endprodukt ihr Geld verdienen. Nur mal grob gedacht, wie ich mir das vorstelle: {<TSMC/UMC> + <Speicherhersteller>} -> nVidia -> Boardhersteller -> Distributor/Grosshändler -> Einzelhändler. Jeder schlägt prozentual eine Gewinnspanne auf das Produkt auf, so dass am Ende doch eine beträchtliche Summe für den Kunden zusammenkommt. Ich denke schon, dass diese Technik die Karten um einiges verteuern könnte. Original geschrieben von Demirug
Was die Quelle angeht so wird da in naher Zukunft ein Patent(antrag) auftauchen in dem das alles genau erklärt wird. Es ist aber noch nicht vollständig in der Datenbank erfasst. Sobald es komplett ist werde ich den Link posten. Danke, prima. :)
Quasar
2004-02-04, 20:26:14
Original geschrieben von Endorphine
ATi [...] kein technisches Design am Limit, keine ehrgeizigen Lösungen, die technisch begeistern aber im wirtschaftlichen Erfolg riskant sind.
In weiten Teilen des Postings stimme ich dir ja zu, aber ~110M Transistoren, die zu großen Teilen aus Logik bestehen in 0,15µ mit mehr als 400MHz und nur einem Winz-Kühler so stabil zu betreiben, daß man das Produkt als markttauglich einstuft, finde ich schon eine herausragende technische Leistung.
Endorphine
2004-02-04, 20:34:59
Original geschrieben von Quasar
In weiten Teilen des Postings stimme ich dir ja zu, aber ~110M Transistoren, die zu großen Teilen aus Logik bestehen in 0,15µ mit mehr als 400MHz und nur einem Winz-Kühler so stabil zu betreiben, daß man das Produkt als markttauglich einstuft, finde ich schon eine herausragende technische Leistung. ATI hat aus bestehender als sicher eingestufter Technik das maximale herausgeholt: 150 nm, DDR1-SDRAM mit 256-Bit Anbindung, konventionelle GPU-Architektur (MS PS/VS 2.0). Und das PCB-Design ist so supersparsam konstruiert, dass es anfangs das Störwellenproblem auf dem VGA-Ausgang gab. Natürlich ist es auch eine Leistung von ATI, den sichersten Weg zu gehen und dann daraus das maximale herauszuholen. Keine Frage. Dennoch finde ich das ehrlich gesagt etwas - hmm - langweilig. :X
Mein technikverliebtes Herz erfreut sich ehrlich gesagt eher an gewagtem Pioniergeist à la nVidia und nicht an konventioneller Mainstreamtechnik, die feinfühlig versucht, jedes Bedürfnis der breiten Masse so gut wie möglich zu befriedigen.
mrdigital
2004-02-04, 20:41:44
Ich weiss nicht, ob diese Entwicklung die Grafikboardhersteller freuen wird, denn wer macht die GPU mit Huckepackspeicher Module? Wahrscheinlich nV selbst (bzw der Chipproduzent TSMC oder sonst wer). nV wird dann den Boardherstellern nur noch fertige Module anbieten und der GraKa Hersteller ist nun nur Platinenlochsäger und Drauflöter, er kann nicht mehr versuchen, sich vom Konkurrenten durch schnelleren Speicher / mehr Speicher oder sonstiger Specials ausser alberner Gamegutscheine absetzen. Technisch ist eine solche Entwicklung aber nur konsequent, mich wundert eigentlich wieso die den Speicher nicht gleich ins selbe Package platzieren und dann als Multi-Die-Single-Package anbieten (wird doch bei den Mobilchips schon gemacht, oder?)
Original geschrieben von mrdigital
Ich weiss nicht, ob diese Entwicklung die Grafikboardhersteller freuen wird, denn wer macht die GPU mit Huckepackspeicher Module? Wahrscheinlich nV selbst (bzw der Chipproduzent TSMC oder sonst wer). nV wird dann den Boardherstellern nur noch fertige Module anbieten und der GraKa Hersteller ist nun nur Platinenlochsäger und Drauflöter, er kann nicht mehr versuchen, sich vom Konkurrenten durch schnelleren Speicher / mehr Speicher oder sonstiger Specials ausser alberner Gamegutscheine absetzen. Technisch ist eine solche Entwicklung aber nur konsequent, mich wundert eigentlich wieso die den Speicher nicht gleich ins selbe Package platzieren und dann als Multi-Die-Single-Package anbieten (wird doch bei den Mobilchips schon gemacht, oder?)
Die Boardhersteller wirds natürlich nicht freuen aber wen interessierts?
Ich meine von denen gibts doch sowieso zu viele. Es könnten locker 50% weniger Boardhersteller im Markt sein und du würdest es nichtmal merken. Mal abgesehen davon, dass dadurch die Qualität direkt beeinflusst wird und steigt.
Man schaue sich doch nur mal die vielen Rückläufe von ATI Grakas an, die mit billigen Lüftern bestückt sind, die dann nur wenige Monate durchhalten und manchmal nicht mal das.
Es gibt viel zu viele Köche da in dem Markt und alle sparen wo sie nur können. Letztlich badet es der Kunde durch minderwertige Ware aus. Da zahl ich lieber 5 Euro mehr und hab dafür ne gescheite und qualitativ hochwertige Platine. Mich würde es absolut nicht stören, wenn die großen etablierten übrig bleiben, die es früher auch gab und die ganzen Kleinen wieder verschwinden.
Der Markt braucht einfach keine 50 bis 100 Grakaplatinenhersteller bzw. reseller.
Juerg
2004-02-04, 21:29:04
Ich finde diese Methode eignet sich vorzüglich für die Integration in beengten Räumen z.B Notebooks da die Bauhöhe besonders niedrig ausfallen kann. Ebenfalls kann von beiden Seiten Wärme abgeführt werden. Je länger ich diese Bild betrachte desto besser gefällt mir diese Methode...
mrdigital
2004-02-04, 21:45:03
für den Wärmeabtransport bietet diese Konstuktion per se keine Vorteile, ob ich den Kühlköper für den Speicher wie bisher auf die Speicherchips klebe oder auf so ein Multichippackage machts nicht besser oder schlechter. Für NBs ist dieses Packing eher ungeschickt, weil man von zwei seiten Külen muss, was in mehr Bauhöhe resultiert, da ist ein grosses Multichip Package besser, das man von einer Seite her kühlen kann.
reunion
2004-02-04, 21:49:12
Original geschrieben von Endorphine
ATI dagegen geht auf Nummer sicher und baut mehr oder weniger technisch langweilige Lösungen.
Nur ist ATI mit ihrer Taktik wohl um einiges besser gefahren...
ATI schaut scheinbar deutlich mehr auf die Bedürfnisse der grossen Masse der Kunden:
Und NV schaut nicht auf die Bedürfnisse der Masse??
bunte Kühlerchen,
Sorry, aber bis zum R360 gab es bei ATI immer nur winzigkleine Standartalukühler ohne irgendwelche Schnickschnack, wohingegen NV schon seit der G4 mit einem fetten NV schriftzug auf den Kühler kam...
die mehr Optik als Funktion bieten,
Auf dem von dir geposteten NV38 ist auf der Rückseite ein fetter Alublock mit herausgeschnittenen NV-Logo! Funktion oder Optik? ;)
schnelles AF nur für die wichtigsten Winkel und für gutes Abschneiden in Benchmarks,
Minderweriger pseude-tri filter für gutes abschneiden in Benchs.
kein technisches Design am Limit,
Einen 110Mio Transitoren mit 150nm-Prozess gefertigt und mit 412mhz getackteten Chip findest du nicht am Limit?
Also ich weiß ja nicht, aber das mit den Speicherchips lässt mich eher auf ein verfahren für Mobilchips schließen. 8 oder gar 16 Speicherchips aufs Substrat zu bringen kostet schon eine Menge Platz. Andererseits muss man dann natürlich weit weniger Pins nach außen führen.
StefanV
2004-02-04, 22:33:16
Original geschrieben von Xmas
Also ich weiß ja nicht, aber das mit den Speicherchips lässt mich eher auf ein verfahren für Mobilchips schließen. 8 oder gar 16 Speicherchips aufs Substrat zu bringen kostet schon eine Menge Platz. Andererseits muss man dann natürlich weit weniger Pins nach außen führen.
...und kann das PCB so deutlich vereinfachen, da die Speicherchips wegfallen...
haifisch1896
2004-02-04, 22:37:48
...und kann das PCB so deutlich vereinfachen, da die Speicherchips wegfallen...
...was natürlich auch wieder die Herstellungskosten senken dürfte.
Ich denke, die Preise würden weder nach oben noch nach unten ausbrechen, sondern sich (auf Grund des komplexeres Design auf dem Substrat) genauso teuer verkaufen lassen wie heute.
Sumpfmolch
2004-02-04, 22:41:47
Original geschrieben von reunion
Einen 110Mio Transitoren mit 150nm-Prozess gefertigt und mit 412mhz getackteten Chip findest du nicht am Limit?
ich dachte eigentlich auch, dass die optimale ausnutzung besser ist als mit kleinerem fertigungsprozess eine gpu mit mega kühlung hochzuprügeln :kratz:
...in diesem sinne...viva la prescott...nieder mit dem feigen A64
Macht Kühlung von beiden Seite möglich!
Das ist aber Alt(der Anfang)!
Die Signalwege sind extrem verkürzt!
Man kann 2 dies Kühlen vorder und Rückseite;)
Es wäre auch eine pletire Kühlung möglich
Es wird Leiser.
Durch die kürzeren Leitungen wird das pcb kleiner, braucht weniger layer. Daraus sollten weniger Stör Effekte auftreten und die Produktionskosten fallen was den entstehenden Kostenaufwand der durch das Loch entsteht wahrscheinlich egalisiert wird oder irrelevant ist.
betasilie
2004-02-05, 03:36:22
Also für mich sieht dieses Konzept vielversprechend aus. Ein :up: für nV.
Original geschrieben von Endorphine
Verrückt finde ich die Idee nicht, eher kreativ. NVidia beschreitet neue Wege, um sich bestehenden Problemen anzunehmen. Mir gefällt das ausgesprochen gut.
Und wenn ich ehrlich bin sprechen mich nVidia Karten schon seit dem NV25 mehr an als die von ATI (nur die Karten). Ich brauche mir nur die Karten anzuschauen - NV38:
http://www.forum-hardtecs4u.com/3dcenter/images/2003/10-24_pic1.jpg (http://3dcenter.de/artikel/2003/10-24_pic1.php)
R360:
http://www.hardtecs4u.com/images/news/ati_r9800xt_board.jpg
Der NV38 begeistert mich schon mit der Kühlung: Lüfter und Kühler, die diesen Namen auch wirklich verdienen. Ein Radiallüfter von hoher Qualität (Delta), der mit der Abluft nicht den Rechner aufheizt sondern sie über das Slotblech nach aussen abführt. Der Kühler kann auch ernst genommen werden, er ist nicht auf Optik ausgelegt, sondern auf technische Funktion. Ja, sogar eine echte Kühlerfederklammer wie bei CPU-Sockelkühlern gibt's. Optischer Schnickschnack wie bei ATI ist nicht zu sehen. NVidia hielt es sogar nicht mal für nötig, dem Zulieferer vorzuschreiben, dass er einen anderen Aufkleber auf die Lüfternabe zu setzen habe, mit NV-Logo. Das begeistert mich.
NVidia scheint technisch deutlich mehr zu riskieren und wagt sich an die Grenzen, beschreitet neue Wege. Auch wenn sie damit auch schon mal einen Fehltritt begehen. Beispiele aus der jüngsten Vergangenheit: NV30, der in der Architektur seiner Zeit voraus ist, zu früh auf einen noch nicht ausgereiften 130 nm Prozess setzte und mit 500 MHz DDR-II SDRAM und FX-Flow die Grenzen dessen überschritt, was der Kunde akzeptieren wollte. Und das hat auch Tradition bei nVidia: der NV1 war mit Busmaster PCI-Audio, für damalige Verhältnisse extremer Integration (3D- und 2D-Beschleunigung auf einer Karte _und_ PCI-Audio) sowie voller Konzentration auf Micrsofts Direct3D seiner Zeit zu weit voraus, so dass er ggü. 3dfx' Voodoo scheiterte.
ATI dagegen geht auf Nummer sicher und baut mehr oder weniger technisch langweilige Lösungen. ATI schaut scheinbar deutlich mehr auf die Bedürfnisse der grossen Masse der Kunden: bunte Kühlerchen, die mehr Optik als Funktion bieten, schnelles AF nur für die wichtigsten Winkel und für gutes Abschneiden in Benchmarks, konkurrenzlos gutes MSAA (SSAA nur noch für Apple). Keine Rücksicht auf professionelle Anwender, kein technisches Design am Limit, keine ehrgeizigen Lösungen, die technisch begeistern aber im wirtschaftlichen Erfolg riskant sind. Das ist übrigens auch was, was mich an Intel teilweise so fasziniert: der Ehrgeiz bei der technischen Konstruktion. IA64 von Intel und AMD64 von AMD sind dafür wieder mal wundervolle Beispiele, ebenso das gescheiterte nicht minder ehrgeizige Projekt, mit RDRAM die Regeln der Speicherindustrie zu brechen, um die Speicherentwicklung endlich voranzutreiben. Naja, ich denke schon, dass diese Konstruktion am Ende deutlich teurer sein wird als konventionelles Design. Bei einem konventionellen PCB wird einfach alles aufgelötet, der Kühler wird aufgesteckt und das Slotblech wird angeschraubt. Fertig. Diese Lösung hier bringt da schon einiges an zusätzlichen Arbeitsschritten hinein. Die absoluten Kosten dürften aus der Sicht des Endkunden gesehen nicht sehr hoch sein. Nur wirken sich ein paar Dollar pro Karte ja im Endeffekt doch wieder kräftig aus, da ja eine ganze Menge an Firmen mit Zwischenschritten bis zum Endprodukt ihr Geld verdienen. Nur mal grob gedacht, wie ich mir das vorstelle: {<TSMC/UMC> + <Speicherhersteller>} -> nVidia -> Boardhersteller -> Distributor/Grosshändler -> Einzelhändler. Jeder schlägt prozentual eine Gewinnspanne auf das Produkt auf, so dass am Ende doch eine beträchtliche Summe für den Kunden zusammenkommt. Ich denke schon, dass diese Technik die Karten um einiges verteuern könnte. Danke, prima. :)
...und wenn sie nicht gestoben sind, werkeln die Techniker von NVidia noch heute rum.
Sorry, aber deine Story, so gut sie sich auch anhört ist ein Fall für die Gebrüder Grimm:
Du schreibst:
Der NV38 begeistert mich schon mit der Kühlung...
Einen PCI-Slot weniger im System, aufgrund des Lüfters der ein bissel zu gross geraten ist! Danke NVidia! Wer braucht heute schon noch PCI für ERWEITERUNGSKARTEN???? *g*
Du schreibst:
ATI dagegen geht auf Nummer sicher und baut mehr oder weniger technisch langweilige Lösungen. ATI schaut scheinbar deutlich mehr auf die Bedürfnisse der grossen Masse der Kunden: bunte Kühlerchen, die mehr Optik als Funktion bieten, schnelles AF nur für die wichtigsten Winkel und für gutes Abschneiden in Benchmarks, konkurrenzlos gutes MSAA (SSAA nur noch für Apple). Keine Rücksicht auf professionelle Anwender, kein technisches Design am Limit, keine ehrgeizigen Lösungen, die technisch begeistern aber im wirtschaftlichen Erfolg riskant sind. Das ist übrigens auch was, was mich an Intel teilweise so fasziniert:
ATI vorzuwerfen sie gehen auf Nr. "Sicher" und NVIDIA gleichzeitig zu assestieren SIE SEIEN der Motor im technischen Vortschritt, ähnlich wie INTEl, ist "HAHNEBÜCHE"!
Beweis: PCI Express: NVidia bietet nur eine Bridgelösung an! ATI hingegen ein komplettes PCI-Design!
Du schreibst: ATI dagegen geht auf Nummer sicher und baut mehr oder weniger technisch langweilige Lösungen.
Du meintest wohl NVIDIA ! Denn eine PCI-Bridge auf einem AGP-PCB zu kleben ist mehr als LANGWEILIG!
Ahh, wieder die Gastflames...
nunja.
Ich kann Endorphine eigentlich nur zustimmen. Die Kühllösung der GF FX (FX-Flow) ist wirklich traumhaft, zumindest von technischer Seite gesehen!
Kupfer, soweit das Auge reicht, ein adäquater Gehäuseentlüftungskanal, Radiallüfter, Design!
Für mich wirkt die Graphikkarte wie ein Kunstwerk, einfach durch und durch konsequent und gut designt (von optischer Seite)
Die ATis dahingegen sind ja übelst langweilig. Einfach nen Lüfter auf den Kühlkörper klatschen und gut ist's.
Die neue Möglichkeit der Chipbefestigung könnte übrigens noch mehr weitergeführt werden:
Wenn die Kontakte auf der Seite des Die angebracht werden und man auf der Rückseite auf das Substrat verzichtet, wäre es zumindest theoretisch möglich, einen sehr schnellen Speicher (RDRAM?) direkt ins Package zu integrieren. Die Signalwege und -qualität wäre natürlich hervorragend, außerdem könnte der Speicher auch recht schnell angesprochen werden. Und da hinten ja noch genug Platz frei ist, wäre eine Kühlung des Speichers auch unproblematisch.
Ich könnte mir da so 16-64 MB auf diese Weise angebundenen Speicher vorstellen, der eben für besonders schnelle Operationen verwendet wird. Der restliche Speicher ist konventionell auf dem PCB untergebracht und fungiert wie heute auch schon.
-huha
@huha
Leider hat der Gast aber recht! Endos ansichten (aussagen) hauen nicht hin, den dann müßte er amd intel den Vorzug geben(Fertigung von cpus/flashspeicher).
Aber endo macht seit Jahren den Eindruck, einen Marktführer (oder besser Marketing König) anzuhimmeln. Und rein gar nichts geht über den großen Marktführer!
ShadowXX
2004-02-05, 09:44:42
Original geschrieben von huha
Ahh, wieder die Gastflames...
nunja.
Ich kann Endorphine eigentlich nur zustimmen. Die Kühllösung der GF FX (FX-Flow) ist wirklich traumhaft, zumindest von technischer Seite gesehen!
Kupfer, soweit das Auge reicht, ein adäquater Gehäuseentlüftungskanal, Radiallüfter, Design!
Für mich wirkt die Graphikkarte wie ein Kunstwerk, einfach durch und durch konsequent und gut designt (von optischer Seite)
Die ATis dahingegen sind ja übelst langweilig. Einfach nen Lüfter auf den Kühlkörper klatschen und gut ist's.
Die neue Möglichkeit der Chipbefestigung könnte übrigens noch mehr weitergeführt werden:
Wenn die Kontakte auf der Seite des Die angebracht werden und man auf der Rückseite auf das Substrat verzichtet, wäre es zumindest theoretisch möglich, einen sehr schnellen Speicher (RDRAM?) direkt ins Package zu integrieren. Die Signalwege und -qualität wäre natürlich hervorragend, außerdem könnte der Speicher auch recht schnell angesprochen werden. Und da hinten ja noch genug Platz frei ist, wäre eine Kühlung des Speichers auch unproblematisch.
Ich könnte mir da so 16-64 MB auf diese Weise angebundenen Speicher vorstellen, der eben für besonders schnelle Operationen verwendet wird. Der restliche Speicher ist konventionell auf dem PCB untergebracht und fungiert wie heute auch schon.
-huha
Könnte man auch andersherum sehen....der Chip von ATI ist so gut, das er eine so aufwendige Kühlung halt nicht braucht.....
Was ist denn da wohl die bessere Lösung...ein Chip der eine extrem Aufwendige Kühlung braucht, oder der der "nur" eine normale Kühlung braucht...
Klar...der mit der aufwendigen Kühlung sieht dank dieser "toller" aus, aber ich persönlich finde es eher toll, das der ATI diese Monsterlösung einfach nicht braucht...Der Originallüfter meiner 9800Pro ist (deutlich)kleiner als der meines Uralt P3-700 (welcher als Router dient)...das, finde ich wirklich technisch beeindrucked...
J.S.Shadow
P.S.
sonst sind hier doch lauter Silentliebhaber....??
Original geschrieben von Gast
@huha
Leider hat der Gast aber recht! Endos ansichten (aussagen) hauen nicht hin, den dann müßte er amd intel den Vorzug geben(Fertigung von cpus/flashspeicher).
Aber endo macht seit Jahren den Eindruck, einen Marktführer (oder besser Marketing König) anzuhimmeln. Und rein gar nichts geht über den großen Marktführer! Schon mal darüber nachgedacht, warum der Marktführer Marktführer ist? :) :kicher:
Original geschrieben von Gast
Beweis: PCI Express: NVidia bietet nur eine Bridgelösung an! ATI hingegen ein komplettes PCI-Design!
Du schreibst: ATI dagegen geht auf Nummer sicher und baut mehr oder weniger technisch langweilige Lösungen.
Du meintest wohl NVIDIA ! Denn eine PCI-Bridge auf einem AGP-PCB zu kleben ist mehr als LANGWEILIG!
Da würde ich aber gehörig aufpassen. Ich halte die Bridgelösung für sehr innovativ. So ist Nvidia in der Lage - für den Fall das PCI Express sich schnell entfaltet seine gesamte Produktpalette von der kleinen MX4000 Gurke bis zum HIgh End Produkt PCI Express kompatibel zu machen. ATI wird dazu nicht in der Lage sein, es sei denn sie wollen für jede GPU in der dann gültigen Roadmap ein neues Tapeout hinlegen und das Interface intern umdesignen.
Das ist sowieso nicht erforderlich. Die ganzen Mainstream und Low End Lösungen profitieren von PCI Express überhaupt nicht.
Ich bin sogar der Auffassung, dass selbst die dann aktuellen High End Produkte von PCI Express nur kaum profitieren werden können. Die Spiele sind dafür geometrisch nicht komplex genug und RAM für Texturen hat man auch immer mehr als genug an Board auf der Grakaplatine.
Und für die High End Karten wird es ja auch von Nvidia - den Gerüchten nach - eine native PCI Express Lösung geben ohne Bridge.
Also ich denke Nvidia war hier doch sehr innovativ und hat sich genau überlegt was denn nun wo gefordert wird.
Wenn PCI Express auf der Mainboardseite schneller adaptiert wird als im allg. angenommen, ist ATI beispielsweise angeschissen, es sei denn sie designen wirklich jeden Chip in der Roadmap um, was ich bezweifel.
Original geschrieben von aths
Schon mal darüber nachgedacht, warum der Marktführer Marktführer ist? :) :kicher: Meine Klammern gesehen ;)
Original geschrieben von ShadowXX
Könnte man auch andersherum sehen....der Chip von ATI ist so gut, das er eine so aufwendige Kühlung halt nicht braucht.....
Das sieht man ja an den recht hohen Rücklaufquoten von Grakas mit ATI Chips wegen kaputter Lüfter. Damit meine ich vor allem die Karten von Fremdherstellern. Bei Nvidia wird auch der kleinste Fremdhersteller gezwungen eine vernünftige Kühlung zu implementieren. Hier ist die Qualitätskontrolle von ATI wirklich nur mit mangelhaft zu bewerten.
Original geschrieben von aths
Schon mal darüber nachgedacht, warum der Marktführer Marktführer ist? :) :kicher:
ATi ist deshalb Marktführer weil sie die besseren Karten haben, und nicht weil ihre Kühllösungen besser/schlechter als die der Konkurrenz sind.
Hauwech
2004-02-05, 10:40:34
Mich wuerde mal der Verlauf der Signalleitungen vom PCI-E Slot zur GPU interessieren. Weiterhin frage ich mich, wie sich nVidia den Einbau so einer Loesung in ein Barebonesystem mit horizontaler Einbaulage gedacht hat. Ist das ein Entwurf von Anno Tuck oder ist auch schon der BTX-Formfaktor gedanklich mit 'da drin'? Wie wird das Substrat gekuehlt? Wenn ich mal von 16 Chips ausgehe die sagen wir mal jeweils 2Watt abgeben, koennte ich mir bei entsprechender Packungsdichte doch vorstellen, dass das Substrat doch ein wenig waermer wird. Die 'Stromleitungen' fuer die GPU selber und die Chips kommen ja auch noch dazu.
Technisch interessant sieht es auf jeden Fall aus. Naehere Infos waeren gut um es besser beurteilen zu koennen.
Gohan
2004-02-05, 10:52:09
Original geschrieben von huha
Ich kann Endorphine eigentlich nur zustimmen. Die Kühllösung der GF FX (FX-Flow) ist wirklich traumhaft, zumindest von technischer Seite gesehen!
Kupfer, soweit das Auge reicht, ein adäquater Gehäuseentlüftungskanal, Radiallüfter, Design!
Für mich wirkt die Graphikkarte wie ein Kunstwerk, einfach durch und durch konsequent und gut designt (von optischer Seite)
Die ATis dahingegen sind ja übelst langweilig. Einfach nen Lüfter auf den Kühlkörper klatschen und gut ist's.
Du meinst die Lösung der FX5800 Ultra? Die soll traumhaft sein? Also bitte... ne Kupferplatte mit zwei Mikroheatpipes und etwas gefaltetem Kupfer ist nicht wirklich was tolles.
Da hat Arctic-Cooling bessere Arbeit geleistet. Da wird das Gehäuse nämlich gleich mitentlüftet. Und wer hats zuerst gezeigt? Arctic!
Ich bin jetzt mal einfach so frech zu behaupten, das nVidia das ganz fies nachgebaut hat nach der CeBit.
Dafür lobe ich die Lüfter der FX5900/5700/5600 usw. wo man es endlich geschafft hat, den Lüfter nicht direkt über dem Hotspot zu montieren, so dass die Kühlrippen die Wärme aufnehmen können und der Lüfter von der Seite her die Wärme wegpustet.
ShadowXX
2004-02-05, 11:03:44
Original geschrieben von Gast
Das sieht man ja an den recht hohen Rücklaufquoten von Grakas mit ATI Chips wegen kaputter Lüfter. Damit meine ich vor allem die Karten von Fremdherstellern. Bei Nvidia wird auch der kleinste Fremdhersteller gezwungen eine vernünftige Kühlung zu implementieren. Hier ist die Qualitätskontrolle von ATI wirklich nur mit mangelhaft zu bewerten.
Was haben kaputte Kühler mit dem Grafikchip zu tun??
J.S.Shadow
Hauwech
2004-02-05, 11:22:26
Ich kenne die Ruecklaufzahlen von ATI-Karten wegen defekten Lueftern nicht, aber wenn es stimmen sollte dann wuerde ich mich schon aergern. Ich habe eine tolle Grafikkarte, keine Frage, aber ich kann sie fuer x Tage nicht nutzen. Eventuell den ganzen Comp nicht weil ich keine Ersatzgraka zur Verfuegung habe. Stell dir das mal vor wenn du eine Diplomarbeit schreibst oder den Comp auch geschaeftlich nutzt. Dann lieber 5 Euro mehr fuer einen besseren Kuehler/Luefter. Oder?
So sehe ich das zumindest. Ist auch kein Flame aber einfach etwas, womit das Userleben stressfreier ablaeuft.
StefanV
2004-02-05, 11:49:03
Original geschrieben von huha
Ich kann Endorphine eigentlich nur zustimmen. Die Kühllösung der GF FX (FX-Flow) ist wirklich traumhaft, zumindest von technischer Seite gesehen!
Kupfer, soweit das Auge reicht, ein adäquater Gehäuseentlüftungskanal, Radiallüfter, Design!
Für mich wirkt die Graphikkarte wie ein Kunstwerk, einfach durch und durch konsequent und gut designt (von optischer Seite)
Die ATis dahingegen sind ja übelst langweilig. Einfach nen Lüfter auf den Kühlkörper klatschen und gut ist's.
Öhm, sorry, aber die Flow FX ist 'ne Fehlkonstruktion...
Ein Luftkanal, der gekrümmt ist, ist immer blöde, weil er den Geräuschpegel u.U. erhöht, wie beim FlowFX z.B.
Auch ansonsten kann ich nichts wirklich tolles dadran finden (und ja, ich hab mir mal einen im RL angeschaut ;))
Auch die Kühlung der 'normalen' FX5800 und FX5900 find ich nicht wirklich besonders gut, u.A. weil sie mir 'etwas' zu laut sind, da ist der ATI Referenzlüfter samt Kühler auf der Radeon 9500/9700/9800 Serie angenehmer...
ATI hat früher mal richtig einstecken müssen, für ihre bescheuerten Lüfter, die damals überflüssig und unnötig laut waren (Rage 128 PRO, Radeon 256 Serie, erstere würde auch mit blankem Chip noch einigermaßen kühl laufen, bei letzterem hätte ein kleiner passiver Kühlkörper gelangt)...
Allerdings find ich die nV Referenzkühler auch nicht besonders toll, besonders die neueren (GF4 TI4600, FX5800+)
ShadowXX
2004-02-05, 12:00:07
Original geschrieben von Hauwech
Ich kenne die Ruecklaufzahlen von ATI-Karten wegen defekten Lueftern nicht, aber wenn es stimmen sollte dann wuerde ich mich schon aergern. Ich habe eine tolle Grafikkarte, keine Frage, aber ich kann sie fuer x Tage nicht nutzen. Eventuell den ganzen Comp nicht weil ich keine Ersatzgraka zur Verfuegung habe. Stell dir das mal vor wenn du eine Diplomarbeit schreibst oder den Comp auch geschaeftlich nutzt. Dann lieber 5 Euro mehr fuer einen besseren Kuehler/Luefter. Oder?
So sehe ich das zumindest. Ist auch kein Flame aber einfach etwas, womit das Userleben stressfreier ablaeuft.
Ich weiss schon was du meinst, aber für schlechte Lüfter von 3rd Partys kann ATI im Prinzip nix...
Allerdings stimme ich dir zu, das man dort von Seiten ATIs schon etwas mehr Vorschriften machen sollte...
J.S.Shadow
StefanV
2004-02-05, 12:42:12
Original geschrieben von ShadowXX
Ich weiss schon was du meinst, aber für schlechte Lüfter von 3rd Partys kann ATI im Prinzip nix...
Allerdings stimme ich dir zu, das man dort von Seiten ATIs schon etwas mehr Vorschriften machen sollte...
J.S.Shadow
Naja, ATI hätte den größtmöglichen Lüfter nehmen können, z.B. :)
Ist ein ungeschriebenes Gesetz, daß größere Lüfter besser sind und länger halten ;)
seahawk
2004-02-05, 12:53:28
Naj mit der Fx5950 hat NV aber die Konstruktion von FX Flow erheblich verbessert. Im 2D praktisch lautlos, in 3D auf einem Niveau mit der 9800XT.
Wobei mir persönlich ja die MSI Lösung am beste ngefällt, aber das sit keine Referenzlösung.
Hinsichtlich der Innovationsfreudigkeit. Heute sehe ich da kaum einen Unterschied zwischen NV und ATI.
AlfredENeumann
2004-02-05, 13:05:36
Original geschrieben von aths
Schon mal darüber nachgedacht, warum der Marktführer Marktführer ist? :) :kicher:
Da gibts verschiedne Möglichkeiten.
Die wahrscheinichste ist: Es war keine erstzunehmende Konkurenz da.
AlfredENeumann
2004-02-05, 13:07:39
Original geschrieben von Gast
Das sieht man ja an den recht hohen Rücklaufquoten von Grakas mit ATI Chips wegen kaputter Lüfter.
Die Zahlen möchte ich mal sehen.
Wir verkaufen über 100.000 Grafikkarten auf ATI Basis im Jahr und Laut unserer Retourenstatistik 2003 war keine einzige da die wegen einem defekten Lüfter Reklamiert wurde.
robbitop
2004-02-05, 13:16:05
das Gerücht, dass die neuen Kühllösungen von nVIDIA laut sind (siehe FlowFX) ist einfach nicht totzukriegen ;)
Der Standardkühlkörper meiner FX5900 war jedenfalls Silent und ähnliches kann ich von der Referenz Kühllösung des NV38 sagen.
Zur Verlustleistung:
Die R3xx Reihe sollte soziemlich ähnkliche Verlustleistungen Aufweisen wie die NV35/38.
Was das PCB und die Verlustleistung bei den FXen hochtreibt ist die hochgetaktete RAM.
was ich äußerst innovativ fand war die 2D/3D Taktseperation mit Lüftersteuerung.
Leider haben wohl einige meinen Eindruck zur Kühllösung mißverstanden: Der FlowFX ist natürlich objektiv betrachtet eine reine Katastrophe, vor allem wegen dem überragenden Geräuschpegel.
Ich finde aber die *TECHNIK*, die Hinter dem Kühler steckt, überragend. So aufwendig ist selbst mancher CPU-Kühler nicht. Außerdem sieht der FlowFX doch recht imposant aus - ich hab auch welche in RL gesehen (leider nicht gehört, also insofern... ;D)
Das mit dem von Arctic abkupfern halte ich für ein Gerücht. Sofern ich mich erinnern kann, wurde schon lange vor der Arctic-Lösung vom FlowFX gespochen. Außerdem glaube ich, daß Arctic cooling den VGA Silencer, wie er auf einer HIS-Karte verbaut war, zuerst mit Radiallüfter vorstellte, was eher dafür sprechen würde, daß von NVIDIA abgekupfert wurde -- das will ich aber nicht beschwören.
Schon allein von der Logik kommt man schnell darauf, daß extrem heiße Abluft möglichst weit weg von der Luftansaugung geleitet werden muß und die einfachste Methode ist, wenn man die Luft einfach aus dem Gehäuse rausbläst.
-huha
Original geschrieben von Stefan Payne
Naja, ATI hätte den größtmöglichen Lüfter nehmen können, z.B. :)
Ist ein ungeschriebenes Gesetz, daß größere Lüfter besser sind und länger halten ;) Ach so also wissen nur wir Freaks welche kühler gut sind Sorry aber das ist Blödsinn!
Wenn ATI wollte, würden sie nenn minimal kühler vorschreiben, wie es intel, amd und nv machen!
Und das glaube, wenn nicht jeder cent im lukrativen OEM Markt zählen würde, wären bessere lüfter von ati vorgeschrieben! Aber sie haben nunmal kein low cost Produkt, im Moment Nichtmahl ein mid Range produkt, das an nvs einkaufskonditionen drankommt! Was glaubt denn ihr, warum nvs Marktanteil noch so hoch ist? Es sind die 5200 und die 5900xts, die den großen brocken machen. Aber alles alte Kamelen weis jeder der es objektive betrachtet, da die Performance hier eine untergeordnete rolle spielt (bei objektiver Befrachtung oder aus der Sicht eines Unternehmens) oems nehme das wo sie am meisten Geld verdienen, und wen es nur 1 cent ist! Aldi läßt grüßen, so sind se groß geworden, aber nunja ich erwarte wohl zuviel!
LOCHFRASS
2004-02-05, 14:12:15
Original geschrieben von Stefan Payne
ATI hat früher mal richtig einstecken müssen, für ihre bescheuerten Lüfter, die damals überflüssig und unnötig laut waren (Rage 128 PRO, Radeon 256 Serie, erstere würde auch mit blankem Chip noch einigermaßen kühl laufen, bei letzterem hätte ein kleiner passiver Kühlkörper gelangt)...
Rage 128 Pro mit Lüfter? Wozu sollte das denn gut sein? Ich wusste gar nicht, dass es sowas gab. Meine ist jedenfalls von Werk aus passiv gekühlt, wird auch nur handwarm... :kratz2:
Winter[Raven]
2004-02-05, 14:20:25
Rage 128 Pro mit Lüfter? Wozu sollte das denn gut sein? Ich wusste gar nicht, dass es sowas gab. Meine ist jedenfalls von Werk aus passiv gekühlt, wird auch nur handwarm...
Joua, kann ich nur zustimmen, hab hier die All in Wounder rumliegen und die ist auch passive gekühlt und wird gerade mal handwarm :)
StefanV
2004-02-05, 14:55:55
Original geschrieben von LOCHFRASS
Rage 128 Pro mit Lüfter? Wozu sollte das denn gut sein? Ich wusste gar nicht, dass es sowas gab. Meine ist jedenfalls von Werk aus passiv gekühlt, wird auch nur handwarm... :kratz2:
Jap, Rage 128 PRO mit Lüfter gabs durchaus...
z.B. Rage Fury PRO (ViVo), Rage Fury MaXX, also die 'normalen' ATI End User Karten...
Kann aber auch sein, daß ATI das später geändert hat...
Wie dem auch sei:
Meine Rage 128 ULTRA (Low Profile, Sapphire) wurde nichtmal ohne Kühler wirklich warm...
PS: gleicher Müll ebenfalls bei der Radeon 256 und 7500 Serie.
Erstere wurde fast ausschließlich mit einem völlig bescheuertem Quirl ausgeliefert, welcher nichtmal wirklich was taugt, letztere wurden meist auch mit einem Lüfter ausgestattet, was auch nicht wirklich nötig war (gleiches übrigens auch bei der Kyro2, die Karten haben auch alle einen Lüfter, auch absolut unnötig)...
Aber das war damals der 'Lüfterhype'...
reunion
2004-02-05, 15:00:07
Original geschrieben von aths
Schon mal darüber nachgedacht, warum der Marktführer Marktführer ist? :) :kicher:
Tja, warum ist denn Intel Markführer?? :naughty:
DrumDub
2004-02-05, 15:01:20
Original geschrieben von reunion
Tja, warum ist denn Intel Markführer?? :naughty:
marketing? ;D
Original geschrieben von Gast
Was glaubt denn ihr, warum nvs Marktanteil noch so hoch ist?
Nunja, ATi's Marktanteil ist seit letzter Woche höher ;)
Original geschrieben von robbitop
das Gerücht, dass die neuen Kühllösungen von nVIDIA laut sind (siehe FlowFX) ist einfach nicht totzukriegen ;)
Der Standardkühlkörper meiner FX5900 war jedenfalls Silent und ähnliches kann ich von der Referenz Kühllösung des NV38 sagen.
Was du so unter Silent verstehtst scheint bei anderen Leuten böse aufzustossen; und nein ich meine nicht mich, sondern die c't. Die FX5950-U-Karten waren bei deren Test noch mit am Lautesten. Sie haben sich aber auch über die R9800XT's beklagt.
Die einzige Karte, die Gut - Sehr Gut abgeschnitten hat war eine R9800Pro mit Arctic-Cooling Kühler+Lüfter im Silent-Mode ( Die passiv gekühlte Sapphire-Karte zähle ich hier mal nicht ). Die AC-gekühlte Karte war mit 0,2 Sone flüsterleise, die lauteste Karte, eine FX5950-U hatte so um die 6 Sone (aus dem Gedächtnis). Das ist der 30-fache Lärm ! (bei Sone funktioniert es mit dem 6/0.2 = 30; im Gegensatz zu den dbA's)
StefanV
2004-02-05, 15:54:59
Original geschrieben von DrumDub
marketing? ;D
Office Rechner mit Intel CPU, ohne GraKa oder ev. sogar mit GraKa ;D
PS: ich persönlich find Onboard Grafik gut, so kann man wenigstens den Rechner weiternutzen, wenn die GraKa mal nach Jordan ging :>
The Dude
2004-02-05, 17:50:15
Betr. der Lüfterlösung ATI/NV muss ich mich einigen meiner Vorredner anschließen. Die ATI-Karten lassen sich mit herkömmlichen und „schlichten“ Lüftern kühlen, die NVs jedoch brauchen ein aufwendiges Lüfter-System.
Wenn wir nun Highend-Karten der beiden Hersteller vergleichen, dann werden wir wohl feststellen, dass die Leistung grob gesagt in etwa gleich ist.
Also macht ATI da doch grundsätzlich was besser? Deren Karten produzieren halt einfach nicht so viel Wärme, dass die Abluft aus dem Gehäuse geblasen werden muss.
Dennoch – die Idee, die warme Luft nicht erst ins Gehäuse blasen zu lassen, um sie dann von den Gehäuselüftern nach aussen befördern zu lassen sollte doch naheliegend sein.
Denn die Belüftung eines Standard-PCs (z.B. von meinem und den allermeisten Computer-Usern) ist doch ein Witz. Da bläßt der CPU- und Northbridgelüfter mit Vollgas gegen die gegenüberliegende Wandung, der GPU-Lüfter nach unten Richtung PCI-Slots und jetzt sollen die zwei an der Rückwand vorhandene Lüfter die ganze Luft nach aussen befördern.
Wo bitte ist denn da ein Luftkreislauf vorhanden? Nirgends.
Wenn ich Luft aus einem Kasten rausbefördern will, dann muß ich erst mal Luft reinbekommen. Und zwar die gleiche Menge wie raus geblasen werden soll. Aber die meisten PC-Gehäuse haben vorne ein paar kleine Luftschlitze (wenn überhaupt) und das wars. Die Luft wird somit zum Teil durch alle vorhandenen Schlitze im Gehäuse angesaugt.
Da kann doch der Wirkungsgrad des Wärmeaustauschs nicht besonders hoch sein.
Doch anstatt dass sich die Firmen darum kümmern eine gescheite Luftzirkulation in die Kisten zu bringen, macht man halt lieber immer größere und stromfressendere Lüfter drauf und fertig.
Somit finde ich die Lösung die NV anbietet beispielhaft: Die Luft wird von aussen angesaugt und nachdem sie sich erwärmt hat, wieder rausgepumpt.
Sicherlich wird es so was in absehbarer Zeit auch für die anderen wärmeerzeugenden Bauteile im PC geben müssen, schließlich geht irgendwann mal der Platz aus für immer noch größere Propeller. Eine standardmäßige Wasserkühlung wäre ja auch nicht schlecht (die PKW-Hersteller sind ja auch irgendwann mal auf die Idee gekommen, dass dies die beste Lösung ist.)
Demirug
2004-02-05, 18:26:24
Endo, http://l2.espacenet.com/espacenet/bnsviewer?CY=gb&LG=en&DB=EPD&PN=WO2004008817&ID=WO2004008817A2+I+
Quasar
2004-02-05, 18:34:17
Seh' ich das richtig? Auf den zwei Stien des PDF wird mit keinem Wort erwähnt, daß man Löcher in PCBs machen will.
Scheint mir eher die Patentierung, bzw. der Versuch selbiger, des Notebook-Standards für Grafik-Addons zu sein.
LovesuckZ
2004-02-05, 18:38:26
Original geschrieben von The Dude
Betr. der Lüfterlösung ATI/NV muss ich mich einigen meiner Vorredner anschließen. Die ATI-Karten lassen sich mit herkömmlichen und „schlichten“ Lüftern kühlen, die NVs jedoch brauchen ein aufwendiges Lüfter-System.
Nun, mit dem NV35 ist dies lange vorbei, setzen die Partner auf "billige" Lüfterkonstruktionen.
Aopen 5900XT (http://www.geizhals.at/img/pix/78497.jpg)
Leadtek 5900XT (http://www.geizhals.at/img/pix/77868.jpg)
Selbst der Block der Referenzkühlung der 5950 besteht aus Alu, kein Vergleich zum Küpferkühler der 9800XT.
Demirug
2004-02-05, 18:41:38
Original geschrieben von Quasar
Seh' ich das richtig? Auf den zwei Stien des PDF wird mit keinem Wort erwähnt, daß man Löcher in PCBs machen will.
Scheint mir eher die Patentierung, bzw. der Versuch selbiger, des Notebook-Standards für Grafik-Addons zu sein.
Schau mal auf Seite 31. Dürfte bekannt vorkommen.
Quasar
2004-02-05, 18:50:07
Original geschrieben von Gast
Was du so unter Silent verstehtst scheint bei anderen Leuten böse aufzustossen; und nein ich meine nicht mich, sondern die c't. Die FX5950-U-Karten waren bei deren Test noch mit am Lautesten. Sie haben sich aber auch über die R9800XT's beklagt.
Die einzige Karte, die Gut - Sehr Gut abgeschnitten hat war eine R9800Pro mit Arctic-Cooling Kühler+Lüfter im Silent-Mode ( Die passiv gekühlte Sapphire-Karte zähle ich hier mal nicht ). Die AC-gekühlte Karte war mit 0,2 Sone flüsterleise, die lauteste Karte, eine FX5950-U hatte so um die 6 Sone (aus dem Gedächtnis). Das ist der 30-fache Lärm ! (bei Sone funktioniert es mit dem 6/0.2 = 30; im Gegensatz zu den dbA's)
Laut und leise, dazu noch "gemoddete" Karten..... tststs.
Schau dir mal den Referenzlüfter an (verbaut auf der Hercules): 5,4 sone.
Die Asus 9800XT ebenfalls mit 5,4 sone und dann eben die HIS IceQ - 0,2-2,4 sone, aber auch "nur" eine 9800p, keine XT. OC war auch bei 2,4sone nichtmal auf XT-Niveau möglich.
Die leisteste 5950 war die H20-gekühlte von Gayhard und die MSI brachte auch "nur" 3,4 auf die Waage. Einzig die Leadtek war "richtig" laut - 1,1 sone mehr als die R9800XT.
Wer hat jetzt an was Schuld? Die armen Ingenieure, die den Chip herstellen, oder die Kartenhersteller, die die Lüfter für ihre Karten auswählen?
Quasar
2004-02-05, 18:52:48
Original geschrieben von Demirug
Schau mal auf Seite 31. Dürfte bekannt vorkommen.
Sorry, mein Fehler. Habe nur das PDF beachtet, was sich so unmanierlich in den Vordergrund drängte.
Endorphine
2004-02-05, 18:57:23
Danke Demi. :)
Irgendwie bringt das Dokument ausser dieser ominösen Zeichnung auf der letzten Seite gar nichts neues.
Diese Verpackungen sind bereits in der Praxis umgesetzt worden:
bei nVidia: http://www.anandtech.com/mobile/showdoc.html?i=1642&p=4
und auch bei ATI: http://www.anandtech.com/mobile/showdoc.html?i=1957&p=2
Insbesondere hervorheben möchte ich den MAP GeForce4 440 Go 64MB. Da sitzt die GPU auch in einem Loch auf der Unterseite und wird offensichtlich auch durch die Unterseite hindurch gekühlt. Der Speicher sitzt oben. Es kann täuschen, aber ich glaube, dass das genau das Prinzip ist, was die Skizze zeigt.
Zumindest habe ich den Eindruck, dass es wohl derzeit nur für die mobile Linie vorgesehen ist. Da ergibt es auch wirklich Sinn, für ein wenig gesparten Platz so einen immensen Aufwand zu treiben.
robbitop
2004-02-06, 00:19:07
@LS
ATis Kühlung ist afaik eine Alukonstruktion mit Kupferlack drauf (wie auch die MSI 5900).
Also da ich einen Wassergekühlten PC besitze und sogar meine Festplatten gedämmt sind und ich neben dem PC oftmals schlafe (bett neben PC) denke ich recht empfindlich auf den Ohren zu sein ;)
wenn ich sage SILENT meine ich SILENT :)
Dunkeltier
2004-02-07, 06:15:41
Original geschrieben von reunion
[...]
Es heißt übertakten (ohne "c"!) und Standard (d statt t!)... :kicher: Dies sei nur mal so am Rande bemerkt.
Dunkeltier
2004-02-07, 06:18:58
Original geschrieben von huha
Ahh, wieder die Gastflames...
nunja.
Ich kann Endorphine eigentlich nur zustimmen. Die Kühllösung der GF FX (FX-Flow) ist wirklich traumhaft, zumindest von technischer Seite gesehen!
[...]
Genauso traumhaft wie die Lautstärke der Geforce 5800 Ultra Kühllösung?! Oder wie meine extrem laute Leadtek A350 Ultra TDH MyViVo (Geforce FX 5900 Ultra) Grafikkarte damals? Nein danke, lieber leise und unauffällig statt solche Monstren die genauso (scheiße) klingen wie sie aussehen.
Quasar
2004-02-07, 08:48:44
Original geschrieben von Dunkeltier
Genauso traumhaft wie die Lautstärke der Geforce 5800 Ultra Kühllösung?!
Hm, wenn ich mein Ohr gaaanz dicht ranhalte, höre ich tatsächlich etwas, das wie das Rauschen eines Konvektionsluftstromes klingt. Aber das auch nur, wenn sonst absolute Stille herrscht.
Das ist die positive Seite der Medaille.
Rumbuddel
2004-02-07, 10:45:25
Ich krich ne Kriese ...
Also die Innovationsfreudigkeit eines Unternehmens für Grafikchips an der Kühllösung festzumachen ...
Und dann diese heroisierender Elegie auf das *Innovationsmonster* nVIDIA ... Endorphine, was haben sie dir denn ins Müsli gekippt?
Ich bin zu Tränen gerührt ... *schluchz*
Ich erinnere nur ungern daran, aber wie war das damals mit 3dfx? Oder dem Kyro? Wer stemmt sich denn mit Händen und Füßen gegen alles innovative, was nicht aus dem Hause nVIDIA kommt?
Und das ist auch ganz normal. Hier wollen Unternehmen in einem knallharten Markt Geld verdienen ... fertig. Und da wird genau soviel Innovation gezeigt, wie es nötig ist. Und nicht mehr. Denn noch nicht benötigte Innovation kostet Geld.
Das einzige was mich interessiert ist, eine Grafikkarte im PC zu haben, die die aktuellen Spiele flüssig und in voller Pracht darstellt und mir bei 2D keinen Augenkrebs verursacht. Und da mir selbst der kleinst Lüfter zu laut ist --- wird eh wassergekühlt.
Hört doch auf mit der Vergötterung irgendwelcher Firmen. Ist ja krank. Es geht nicht um Gut oder Böse, es geht um Kohle, Zaster, Kies, Mäuse etc. Und da ist sich jedes Unternehmen selbst das nächste.
Aber nVIDIA als die ultimative Innovationsschmiede darzustellen, das rührt mich echt zu Tränen.
so long
CrassusX
2004-02-07, 10:52:14
LOL
Also ich finds ja schon lustig, das manche nach Aussehen kaufen, bei Grafikkarten.....
Wo habt ihr denn euren Tower bitte stehen? auf dem Monitor??? Mit dem Window zu euch hin gedreht, das man von unten schauend die Grafikkarte über einem sehen kann?
P.S. eine laute Kühllösung ist eine Notlösung! Und wird sicherlich von keinem Ingenieur als Meisterleistung betrachtet. Sie kann dementsprechend auch nicht als technische Meisterleistung betrachtet werden, sondern eher als das Gegenteil davon.
Leider haben einige diesen Beitrag (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&postid=1544690#post1544690) übersehen... :eyes:
Da habe ich meine Position zum Kühler etwas weiter ausgeführt. Vom Aussehen her ist er gigantisch. Das geb' ich auch gerne zu, mir gefallen die Karten, was das Aussehen angeht.
-huha
Original geschrieben von huha
Leider haben wohl einige meinen Eindruck zur Kühllösung mißverstanden: Der FlowFX ist natürlich objektiv betrachtet eine reine Katastrophe, vor allem wegen dem überragenden Geräuschpegel.
Ich finde aber die *TECHNIK*, die Hinter dem Kühler steckt, überragend. So aufwendig ist selbst mancher CPU-Kühler nicht. Außerdem sieht der FlowFX doch recht imposant aus - ich hab auch welche in RL gesehen (leider nicht gehört, also insofern... ;D)
Das mit dem von Arctic abkupfern halte ich für ein Gerücht. Sofern ich mich erinnern kann, wurde schon lange vor der Arctic-Lösung vom FlowFX gespochen. Außerdem glaube ich, daß Arctic cooling den VGA Silencer, wie er auf einer HIS-Karte verbaut war, zuerst mit Radiallüfter vorstellte, was eher dafür sprechen würde, daß von NVIDIA abgekupfert wurde -- das will ich aber nicht beschwören.
Schon allein von der Logik kommt man schnell darauf, daß extrem heiße Abluft möglichst weit weg von der Luftansaugung geleitet werden muß und die einfachste Methode ist, wenn man die Luft einfach aus dem Gehäuse rausbläst.
-huha
Naja, Technik sollte ja auch sinnvoll sein. Technik der reinen Technik zuliebe ohne Rücksicht auf Sinn, Zweck und Ergonomie, ist auch keine gute Technik :)
Also finde ich dass der FX Flow auch *technisch* nicht so toll ist, weil er eben Fehler hat.
Aber ich gebe auch zu, beeindruckend ist das Ding schon, und darum ging's ja eigentlich. Langweilig ist der FX Flow sicher nicht :)
Blacksoul
2004-02-10, 14:04:41
Original geschrieben von Gohan
Du meinst die Lösung der FX5800 Ultra? Die soll traumhaft sein? Also bitte... ne Kupferplatte mit zwei Mikroheatpipes und etwas gefaltetem Kupfer ist nicht wirklich was tolles.
Da hat Arctic-Cooling bessere Arbeit geleistet. Da wird das Gehäuse nämlich gleich mitentlüftet. Und wer hats zuerst gezeigt? Arctic!
Ich bin jetzt mal einfach so frech zu behaupten, das nVidia das ganz fies nachgebaut hat nach der CeBit.
...
Ich denke das nVidia das Prinzip eher von Abit abgekupfert hat. Abit hatte ja schon voher das OTES System auf der GF4.
http://www.abit.com.tw/upload/products/FX5900-OTES-500.jpg(Ist eine FX 5900, aber vom Prinzip her das selbe ;) )
Die erste version des Silencers sah auf der CeBit noch etwas anders aus:
http://www.onlinekosten.de/news/bilder/cebithis2.jpg
Dunkeltier
2004-02-10, 20:34:25
Der Radiallüfter dürfte aber zu laut gewesen sein...oder hatte zu wenig 'Leistung'. Oder beide Faktoren kamen zusammen. Naja, auf jeden Fall scheint die Axial-Version doch die bessere weil letztlich sinnvollere Wahl gewesen zu sein.
Godmode
2004-02-11, 12:56:09
wie laut ist eigentlich die NV38 Referenzkarte von Nvidia?
Iruwen
2004-02-14, 03:45:33
Daran dass Grafikkarten in Zukunft noch mehr Verlustleistung entwickeln hat beim BTX-Design scheinbar auch keiner gedacht.
http://www.ixbt.com/news/hard/index.shtml?hard96095id
Das sieht aus als wäre die CPU für 200W+ ausgelegt und die Grafikkarte irgendwo an den Rand außerhalb des Luftstroms gequetscht oder seh ich das falsch.
apollo
2004-02-14, 11:17:30
Zieh Dir mal diesen (http://www.forum-3dcenter.org/vbulletin/showthread.php?s=&threadid=123055) Thread rein, dann weisst Du, dass Du ganz richtig liegst. ;)
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.