PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

Daredevil
2020-08-20, 22:20:21
Nochmal zu HBM, da wird es nicht an 50€ scheitern, die kann man auch so an den Kunden weiterreichen. Alleine durch das gigantisch große Interface hat man bei HBM automatisch eine größere Latenz, weil jedes einzelne Bit nach jedem Zyklus abgefragt wird. Da hilft dann mehr Takt oder die große Bandbreite nur bedingt.
Ist das so?
Meiner Erfahrung nach waren gerade HBM Karten die, die bei Speicherintensiven Anwendungen, wie z.B. Ethereum ( Bandbreite wichtig ) und Monero ( Cache performance wichtig ) jeden GDDR hinter sich gelassen haben.
Das hier dann eine größere Latenz herrschen soll, verstehe ich nicht wirklich, hast du mal mehr Infos zu?


Die 2080Ti ist kaum noch zu bändigen,
Huh?
Die 2080ti ist super easy zu kühlen aufgrund des riesigen DIEs. Da hat man selbst mit günstigen Versionen ( Palit Dual ) noch eine anständig leise Karte hinbekommen.
300-350w bekommt man mit ner ordentlichen Tri Slot Kühlung locker hin, allerdings nur wenn Ampere halt auch einen riesen DIE hat, wie eben Turing.

BlacKi
2020-08-20, 22:22:33
den Die zu kühlen ist schon lange kein problem mehr. vrm und ram sind schon länger ein problem, und 6x setzt da wohl noch ein krönchen drauf.

monstar-x
2020-08-20, 22:24:57
Ich seh das Problem einfach beim Endkunden. Die 2080Ti ist kaum noch zu bändigen

MEINE 2080 Ti ist nicht wärmer bei gleicher MHz wie die 1080 TI, auch die 980 TI die ich davor hatte bewegte sich bei 57-60° (selbe Lautstärke der Lüfter).

Daredevil
2020-08-20, 22:29:29
den Die zu kühlen ist schon lange kein problem mehr. vrm und ram sind schon länger ein problem, und 6x setzt da wohl noch ein krönchen drauf.
Wo sind die denn ein Problem?
Weil bei Nvidia kann das nicht der Fall sein, schließlich sieht man die Werte nicht. :D

Armaq
2020-08-20, 22:30:26
Ist das so?
Meiner Erfahrung nach waren gerade HBM Karten die, die bei Speicherintensiven Anwendungen, wie z.B. Ethereum ( Bandbreite wichtig ) und Monero ( Cache performance wichtig ) jeden GDDR hinter sich gelassen haben.
Das hier dann eine größere Latenz herrschen soll, verstehe ich nicht wirklich, hast du mal mehr Infos zu?



Huh?
Die 2080ti ist super easy zu kühlen aufgrund des riesigen DIEs. Da hat man selbst mit günstigen Versionen ( Palit Dual ) noch eine anständig leise Karte hinbekommen.
300-350w bekommt man mit ner ordentlichen Tri Slot Kühlung locker hin, allerdings nur wenn Ampere halt auch einen riesen DIE hat, wie eben Turing.
Deine Strix ist definitiv hörbar, meine Gigabyte ist es auch. Da reicht auch kein Tripple TriSlot mehr aus. Das ist alles am Ende das Endkundenproblem. Ich mein da hockt inzwischen auch ein 850Watt Netzteil, das 630 Watt Netzteil hat einfach nicht gereicht.

MEINE 2080 Ti ist nicht wärmer bei gleicher MHz wie die 1080 TI, auch die 980 TI die ich davor hatte bewegte sich bei 57-60° (selbe Lautstärke der Lüfter).
60°C kannst du deiner Oma erzählen, wenn du die nicht massiv im PT gesenkt oder unter Wasser gesetzt hast.

wolik
2020-08-20, 22:30:54
Leider ich verstehe nicht das ganze Problematik wegen Speicher und dessen Bandbreite. Jeder (mit 2080Ti) kann den Speicher Übertakten oder... Untertakten. Auf FPS das hat kaum Vorteil oder Nachteil. Und... die Karte (30X0) ist jetzt schon fertig. Und Nvidia hat mit 2080Ti FE genug schlechte Erfahrungen gesammelt, um halbgares Produkt auf Markt zu bringen.

Linmoum
2020-08-20, 22:37:27
Leider ich verstehe nicht das ganze Problematik wegen Speicher und dessen Bandbreite. Jeder (mit 2080Ti) kann den Speicher Übertakten oder... Untertakten. Auf FPS das hat kaum Vorteil oder Nachteil. Und... die Karte (30X0) ist jetzt schon fertig. Und Nvidia hat mit 2080Ti FE genug schlechte Erfahrungen gesammelt, um halbgares Produkt auf Markt zu bringen.Es sagt doch niemand, dass NV ein "halbgares Produkt" auf den Markt wirft. Das wäre bei +-350W ja auch ziemlich suboptimal, weil das selbst den "ich rattere meinen Standardkram runter"-Reviewern auffallen würde. Zumal halbgares dann eigentlich nur die Boardpartner auf den Markt werfen würden mit ihren Kuhllösungen. Und wenn die Performance bei 350W passt, ist da sowieso nichts halbgar.

Natürlich kann man untertakten, aber es hat seine Gründe, warum AMD/NV ein Produkt X in Zustand/mit Verbrauch Y auf den Markt bringen. Sie könnten es auch einfach mit 40W weniger tun, machen sie aber nicht.

Daredevil
2020-08-20, 22:41:41
Deine Strix ist definitiv hörbar, meine Gigabyte ist es auch. Da reicht auch kein Tripple TriSlot mehr aus. Das ist alles am Ende das Endkundenproblem. Ich mein da hockt inzwischen auch ein 850Watt Netzteil, das 630 Watt Netzteil hat einfach nicht gereicht.
Es gibt schon eine große Spanne zwischen "Die 2080Ti ist kaum noch zu bändigen" und "Deine Strix ist definitiv hörbar". :D
Wenn für dich "unbändigbar" bedeutet, dass man die Karte nicht lautlos betreiben kann mit Lukü, dann mag das wohl stimmen. Das ist aber nicht jedermanns Anspruch.

Ich bin von der MSI ( 330w @ 1980mhz @ 1500rpm ) auf die Asus gewechselt ( 300w @ 2070mhz @ 1900rpm ), weil mir FPS dann doch wichtiger sind in 4K als Silent Gaming. ^^

Troyan
2020-08-20, 22:41:48
Ach, sind die Karten schon veröffentlicht? Muss ich verpasst haben. Hast du ein Link?

Linmoum
2020-08-20, 22:44:52
Hast du zufällig gelesen, welches Forum das hier ist? Wohl nicht. Hint: Es ist nicht das Faktenforum.

Wie kann man sich nur so daran aufhängen, dass in einem Spekulationsforum auf Basis von Gerüchten und nicht von Fakten diskutiert wird. Mein Gott.

Zergra
2020-08-20, 22:57:35
Ist das so?
Meiner Erfahrung nach waren gerade HBM Karten die, die bei Speicherintensiven Anwendungen, wie z.B. Ethereum ( Bandbreite wichtig ) und Monero ( Cache performance wichtig ) jeden GDDR hinter sich gelassen haben.
Das hier dann eine größere Latenz herrschen soll, verstehe ich nicht wirklich, hast du mal mehr Infos zu?



Ich hatte dazu mal was im Studium gehabt. Bin gerade noch am suchen. Bin mir aber nicht mehr 100% sicher, irgendwie war da was.

Habe dazu aber noch was zu den Kosten gefunden... der Unterschied dürfte am Ende viel gravierender sein.

Der Speicher ist teurer, der Interposer kostet auch ein paar € mehr. Dazu kommt die Aufwendige und komplexe Verbindung des Interposers auf die Platine. Die Entwicklungkosten des Chips sind auch höher, da das komplette Design wesentlich komplexer ist.

-> HBM ist deutlich teurer, nicht nur durch den Speicher, sondern durch das teure PCB, und die höheren Entwicklungskosten.

https://semiengineering.com/gddr6-hbm2-tradeoffs/


Da wundern mich die Gerüchte über Vega nicht das AMD daraufgezahlt hat.

Linmoum
2020-08-20, 23:01:36
Igot hat unter dem Video übrigens gepostet, dass er wohl schon 'nen Wasserblock bei sich rumliegen hat.

So schnell ist ja eigentlich immer nur EKWB. Merkt man dann zwar auch immer an der Qualität, aber in dem Fall dürfte alles mit weitem Abstand besser als Luft sein. :D

unl34shed
2020-08-20, 23:25:34
Ich hatte dazu mal was im Studium gehabt. Bin gerade noch am suchen. Bin mir aber nicht mehr 100% sicher, irgendwie war da was.

Habe dazu aber noch was zu den Kosten gefunden... der Unterschied dürfte am Ende viel gravierender sein.

Der Speicher ist teurer, der Interposer kostet auch ein paar € mehr. Dazu kommt die Aufwendige und komplexe Verbindung des Interposers auf die Platine. Die Entwicklungkosten des Chips sind auch höher, da das komplette Design wesentlich komplexer ist.

-> HBM ist deutlich teurer...

https://semiengineering.com/gddr6-hbm2-tradeoffs/

Wieso sollte die Platine denn Komplexer werden? Durch den Interposer spart man sich das Komplette Memory Interface, du hast nur noch viele Power Pins, Display I/F und PCIe. Vermutlich kannst du sogar Layer einsparen deswegen.

Der Interposer wird ja auch nicht direkt aufs PCB gelötet, sonder da ist immernoch das Substrat dazwischen, aber das wird auch nicht komplexer, da du hier wie bisher nur ein Stück Silizium auflötest, sicher im gleichen Pitch wie bisher auch. Und auch hier sparst du dir das Memory Interface.

BlacKi
2020-08-20, 23:33:03
Wo sind die denn ein Problem?
siehe 1080 von evga? wo man die drehzahl anheben musste weil dram und vrm zu warm wurden? nicht wegen des chips sondern weil die baseplate nicht ausreichend gekühlt hat. damals sollten die keine 84 grad erreichen, jetzt sind 98grad erlaubt bevor die throttlen^^

MiamiNice
2020-08-20, 23:44:01
Igot hat unter dem Video übrigens gepostet, dass er wohl schon 'nen Wasserblock bei sich rumliegen hat.

So schnell ist ja eigentlich immer nur EKWB. Merkt man dann zwar auch immer an der Qualität, aber in dem Fall dürfte alles mit weitem Abstand besser als Luft sein. :D

Das klingt doch äusserst positiv :biggrin:
Wär natürlich eine Mordsgaudi wenn man beides direkt eintüten kann.
Dann muss man der Gerät nicht noch nen Monat auf Sparflamme betreiben.
Fehlt ja nur noch das freie Bios und ab geht die wilde Fahrt.

Ich mein da hockt inzwischen auch ein 850Watt Netzteil, das 630 Watt Netzteil hat einfach nicht gereicht.


:crazy:
Hast noch drölfzig HDDs verbaut und ebenso viele iPads zum laden am PC?!?
Wird Deine Monitor über das Netzteil mit Strom versorgt?
Oder lädst Du Deine Sexspielzeuge am USB Port? :ulove:
Ne 2080TI nimmt sich vielleicht 300Watt ... dat ist doch nix was ein 630 Watt Marken NT vor eine Herausforderung stellt. Da passt sogar noch ein max. OC 9900K in den Rechner.
Mit nem 850 Watt NT kannst 2080TI SLI fahren + den 9900K.

Zergra
2020-08-20, 23:52:42
Wieso sollte die Platine denn Komplexer werden? Durch den Interposer spart man sich das Komplette Memory Interface, du hast nur noch viele Power Pins, Display I/F und PCIe. Vermutlich kannst du sogar Layer einsparen deswegen.

Der Interposer wird ja auch nicht direkt aufs PCB gelötet, sonder da ist immernoch das Substrat dazwischen, aber das wird auch nicht komplexer, da du hier wie bisher nur ein Stück Silizium auflötest, sicher im gleichen Pitch wie bisher auch. Und auch hier sparst du dir das Memory Interface.

Weil die Verbindung mehrschichtig ist und aufwendiger zu realisieren. Schau dir mal das Video an, da sind ein paar Infos dazu drin.

unl34shed
2020-08-21, 00:20:20
Der hat ein Fehler in seiner Präsentation, auch bei GDDR sitzt die GPU auf einem Substrat. Es kommt nur der Interposer dazu, der das Routing zum Speicher beinhaltet. Dafür fällt dann dieses in den unteren Schichten (Substrat und PCB) weg.

monstar-x
2020-08-21, 00:47:30
Deine Strix ist definitiv hörbar, meine Gigabyte ist es auch. Da reicht auch kein Tripple TriSlot mehr aus. Das ist alles am Ende das Endkundenproblem. Ich mein da hockt inzwischen auch ein 850Watt Netzteil, das 630 Watt Netzteil hat einfach nicht gereicht.


60°C kannst du deiner Oma erzählen, wenn du die nicht massiv im PT gesenkt oder unter Wasser gesetzt hast.

Immer diese unglübigen.

Extra mal für dich eine Runde gespielt und das bei den Temperaturen von 27° draußen.

2080 TI
PT 100%
Core OC +100 MHz (in Game 1965-2025 MHz)
RAM OC +300MHz

Microsoft Flight Simulator (Ultra Maxed out)
https://abload.de/thumb/flightsimulator_2q1jx8sj9e.jpg (https://abload.de/image.php?img=flightsimulator_2q1jx8sj9e.jpg)


COD MW (Ultra Maxed out)
https://abload.de/thumb/modernwarfare_fc3uvyqc5kww.jpg (https://abload.de/image.php?img=modernwarfare_fc3uvyqc5kww.jpg)


Assassins Creed Odyssey (Ultra Maxed out)
https://abload.de/thumb/acodyssey_6ejem8mcmbweje4.jpg (https://abload.de/image.php?img=acodyssey_6ejem8mcmbweje4.jpg)

Armaq
2020-08-21, 00:54:42
Das klingt doch äusserst positiv :biggrin:
Wär natürlich eine Mordsgaudi wenn man beides direkt eintüten kann.
Dann muss man der Gerät nicht noch nen Monat auf Sparflamme betreiben.
Fehlt ja nur noch das freie Bios und ab geht die wilde Fahrt.



:crazy:
Hast noch drölfzig HDDs verbaut und ebenso viele iPads zum laden am PC?!?
Wird Deine Monitor über das Netzteil mit Strom versorgt?
Oder lädst Du Deine Sexspielzeuge am USB Port? :ulove:
Ne 2080TI nimmt sich vielleicht 300Watt ... dat ist doch nix was ein 630 Watt Marken NT vor eine Herausforderung stellt. Da passt sogar noch ein max. OC 9900K in den Rechner.
Mit nem 850 Watt NT kannst 2080TI SLI fahren + den 9900K.
Und das ist der Irrtum. Ich hab hier ein Seasonic Focus+ Platinum 630 Watt und das kann den PC hier nicht betreiben.

Die Lastwechsel haben den PC zu spontanen Shut-Offs bewogen und das ist auch der echte Test. Ich hab ein Corsair 850i dafür. Das Seasonic hab ich mit anderen Komponenten gestest und es war kein Problem. Ja, ich hab da auch noch einige Platten dran etc. ist halt auch so eine Semi-Workstation.

Für alle die sich wundern, der GDDRX ist notwendig für GPGPU-Anwendungen. Da die Karten eben keine reinen Gamer-Karten mehr sind, müssen sie auch für andere Workload herhalten und da ist Speicherbandbreite ein sehr interessantes Thema.

A100
Grafikprozessorspeicher 40 GB 40 GB
GPU-Speicherbandbreite 1,555 GB/s 1,555 GB/s

https://www.nvidia.com/de-de/data-center/a100/

Darum geht es bei den Karten. Feinster HBM2 mit Monster-Performance. So sieht EIN neues Supermicro-Blade aus:

Key Features
1.High Density 2U System with NVIDIA® HGX™ A100 4-GPU
2.Supports 4 A100 40GB SXM4 GPUs
3.Direct connect PCI-E Gen4 Platform
with NVIDIA® NVLink™
4.On board BMC supports integrated
IPMI 2.0 + KVM with dedicated 10G LAN
5.Dual AMD EPYC™ 7002 Series Processors
6.8TB Registered ECC DDR4 3200MHz SDRAM in 32 DIMMs
7.4 PCI-E Gen 4 x16 (LP), 1 PCI-E Gen 4 x8 (LP)
8.4 Hot-swap 2.5" drive bays
(SAS/SATA/NVMe Hybrid)
9.2x 2200W Titanium Level power supplies with Smart Power Redundancy
2x 3000W Titanium Level Redundant Power Supply option coming soon

Edit: Die 2 Epycs und der RAM sind nur dazu da, die 4 Karten unter Feuer zu halten. Da geht wirklich was ab.

Immer diese unglübigen.

Extra mal für dich eine Runde gespielt und das bei den Temperaturen von 27° draußen.

2080 TI
PT 100%
Core OC +100 MHz (in Game 1965-2025 MHz)
RAM OC +300MHz

Microsoft Flight Simulator (Ultra Maxed out)
https://abload.de/thumb/flightsimulator_2q1jx8sj9e.jpg (https://abload.de/image.php?img=flightsimulator_2q1jx8sj9e.jpg)


COD MW (Ultra Maxed out)
https://abload.de/thumb/modernwarfare_fc3uvyqc5kww.jpg (https://abload.de/image.php?img=modernwarfare_fc3uvyqc5kww.jpg)
Wie soll das gehen? Das wäre der beste je produzierte Chip? Ich finde im Netz nichts was annähernd so gut ist. Du hast ne Klima für 18°C innen? ;)

Der Takt ist btw. gar nicht so wichtig, das macht die Karte ja eh automatisch. Ich fahre mit 15% weniger PT auch besser als mit 100% (spart auch U/Min). Ansonsten Glückwunsch.

Wie ich bereits sagte, die 1080 war immer leise und immer performant. Ich empfand sie als die bessere Karte im Vergleich zur 2080Ti.

MiamiNice
2020-08-21, 01:12:22
Und das ist der Irrtum. Ich hab hier ein Seasonic Focus+ Platinum 630 Watt und das kann den PC hier nicht betreiben.

Das dürfte doch wohl am Netzteil liegen nicht an der bereitgestellten Wattage.

Daredevil
2020-08-21, 01:16:21
Für alle die sich wundern, der GDDRX ist notwendig für GPGPU-Anwendungen.

Was hat diese Aussage denn mit GDDRX zutun bzw. was meinst du damit?
Ich habe hier Zuhause im Server 96GB HBM2 die mit 0,8-1,2 TB/s angebunden sind und die sind für Compute Workloads mit viel Bandbreite konkurrenzlos ( Und dank dem arschschnellen HBM bleiben sie es auch.. )
In den neuesten Mining Workloads schlägt eine VII auch locker die 2080ti bei Perf/Watt, auch abseits von Speicherintensiven Workloads.

HBM ftw. ( Jetzt ist aber auch gut damit :D )
https://abload.de/img/unbenannt5rk5l.png
GDDR6 hat btw. scheiß Timings, weswegen die optimierte 1080ti nicht weit abgeschlagen ist.

@Kühlung
2200rpm sind recht hoch, da sind niedrige Temps schon drin.
Ne MSI Trio macht ca. 1300rpm @ 300w bei ~70-75°C. Dreh da die rpm auf und wir sehen auch die 6x°C.

Armaq
2020-08-21, 01:18:13
Was hat diese Aussage denn mit GDDRX zutun bzw. was meinst du damit?
Ich habe hier Zuhause im Server 96GB HBM2 die mit 0,8-1,2 TB/s angebunden sind und die sind für Compute Workloads mit viel Bandbreite konkurrenzlos.
In den neuesten Mining Workloads schlägt eine VII auch locker die 2080ti bei Perf/Watt, auch abseits von Speicherintensiven Workloads.

HBM ftw. ( Jetzt ist aber auch gut damit :D )
https://abload.de/img/unbenannt5rk5l.png
Nvidia muss Speicherbandbreite anbieten auf der 3080 und 3090 Karten, weil es nicht mehr nur um Spiele geht bei diesen Karten. Es kam doch die Frage auf, warum, ob nicht was anderes besser ist usw. Es ist für Compute eben unabingbar.

Edit: Dann kühlt die MSI viel besser als die Gigabyte. :)

Daredevil
2020-08-21, 01:25:48
Achso. Ja auf jeden Fall. Bandbreite und Cache Performance ist für manche sehr wichtig!
Gerade HBM/2 kann man da stark loben, da man dort immer noch gut das System nutzen konnte, während das Mining auf ner 1080ti/2080ti das System komplett zum erlahmen gebracht hat.

Wenn ich voll Karacho ETH Mining auf meiner 2080ti fahre, buffert Youtube bei 4k Videos vor sich hin, das passiert mit einer VII nicht. Scheint entweder was mit dem Speicher zutun zu haben, oder ist eben wegen der komplett anderen Architektur.

Ich meine mal, bei irgendeinem AMD Bring up wurde das mit Pro Software auch mal demonstriert, dass man mit deren Karten noch das System voll umfänglich nutzen kann, während Nvidias Karten eher blockierten. Aber das ist wiederum ein anderes Thema. ^^

rentex
2020-08-21, 09:16:08
Ich möchte jetzt hier mal Vorschläge für ne alternative Kühlung der Ampere Karten lesen...Forum voller Spezialisten und keiner spricht das Hauptproblem der Karte an... :-D

Daredevil
2020-08-21, 09:27:39
Na ne dünne Heatpipe auf der Rückseite, die zu dem Kühler+Lüfter am "Ende" der Grafikkarte führt.
Glaubt hier echt jemand, dass Nvidia ne 4 Slot Kühlung verbaut, zwei zu jeder Richtung? ^^
Das ist doch arg problematisch, wegen eben großen Luftkühlern.

Zudem gibt der RAM seine Abwärme stark über das PCB ab.
Je stärker also die Front der Karte gekühlt wird, desto kühler sind auch die Module auf der Rückseite.
Der Arctic Accelero macht es doch vor, der ( fette ) Passive Kühlkörper auf der Rückseite kühlt die Spannungswandler auf der Vorderseite, das geht auch in eine andere Richtung.

300-400w Verlustleistung sind ja jetzt nicht unbedingt ein ungelöstes Problem, nech. ( nur halt nicht ultra leise, wenn keine WaKü :> )

JVC
2020-08-21, 09:30:18
Ich möchte jetzt hier mal Vorschläge für ne alternative Kühlung der Ampere Karten lesen...Forum voller Spezialisten und keiner spricht das Hauptproblem der Karte an... :-D
Alternativ stellt man den PC in einen Anderen Raum
(im Optimalfall in den Keller oder einen andern klimatisierten Raum)
und lässt allen Lüftern "freien Auslauf" ;)

Somit sind Lärm und Abwärme "kein Problem" mehr :cool:

M.f.G. JVC

Armaq
2020-08-21, 09:37:13
Alternativ stellt man den PC in einen Anderen Raum
(im Optimalfall in den Keller oder einen andern klimatisierten Raum)
und lässt allen Lüftern "freien Auslauf" ;)

Somit sind Lärm und Abwärme "kein Problem" mehr :cool:

M.f.G. JVC
Ich bau gerade ein Haus, ich sag dem Architekten ich will einen Anbau neben dem Arbeitszimmer als Rechenzentrum ... NOT.

Ich finde es wirklich problematisch, dass die Wattage noch über 2080Ti Niveau steigt. Ich hab ein großes Case, 8x NFA-12 Lüfter und alles ist gut, aber nochmal 100Watt mehr sind schon übel.

ChaosTM
2020-08-21, 09:39:22
Sind eigentlich alle Ampere Karten "betroffen" oder nur der Fette mit 24GB ?

add.: problematisch wirds im Case nur, wenn zusätzlich noch eine Intel Heizung werkelt. :freak:

JVC
2020-08-21, 09:44:54
Ich bau gerade ein Haus, ich sag dem Architekten ich will einen Anbau neben dem Arbeitszimmer als Rechenzentrum ... NOT.

Jeder wie er will :)
Man kann ihn auch wie Tombman aufs WC verbannen ;)

Lüfter funktionieren nun mal am besten, wenn sie sich schneller drehen :biggrin:
Und mir fällt kein Grund ein, warum ich neben dem lärmenden/heizendem Ding sitzen sollte oder gar müsste.

M.f.G. JVC

monstar-x
2020-08-21, 09:46:08
@Kühlung
2200rpm sind recht hoch, da sind niedrige Temps schon drin.
Ne MSI Trio macht ca. 1300rpm @ 300w bei ~70-75°C. Dreh da die rpm auf und wir sehen auch die 6x°C.

Ich habe die Lüfter mal auf 40% gestellt, laufen die überhaupt? ;D
(sind 1400 rpm nahe zu Silent)

Der Unterschied in den Temps ist Maginal, statt 58-60° sind es jetzt 64-65°
(Außen Temperatur aktuell 29°)

https://abload.de/thumb/acodyssey_cgwi4yk5ab5sjk3.jpg (https://abload.de/image.php?img=acodyssey_cgwi4yk5ab5sjk3.jpg)

Die 2080 TI bleibrt ist anders als von Armaq behauptet, eine mit Luft sehr gut beherrschbare und "Kühle" Karte.
Wenn man sich die Billigste Karte mir einer miesen Kühlung kauft, kann es sein dass die 2080 TI heiß wird.

MiamiNice
2020-08-21, 10:05:27
Ich bau gerade ein Haus, ich sag dem Architekten ich will einen Anbau neben dem Arbeitszimmer als Rechenzentrum ... NOT.


Was Du möchtest ist Grundwasser, eine Leitung bis in Dein Arbeitszimmer und einen Wärmetauscher. Problem solved.

dargo
2020-08-21, 10:11:31
Ich habe die Lüfter mal auf 40% gestellt, laufen die überhaupt? ;D
(sind 1400 rpm nahe zu Silent)

Der Unterschied in den Temps ist Maginal, statt 58-60° sind es jetzt 64-65°
(Außen Temperatur aktuell 29°)

https://abload.de/thumb/acodyssey_cgwi4yk5ab5sjk3.jpg (https://abload.de/image.php?img=acodyssey_cgwi4yk5ab5sjk3.jpg)

Die 2080 TI bleibrt ist anders als von Armaq behauptet, eine mit Luft sehr gut beherrschbare und "Kühle" Karte.
Wenn man sich die Billigste Karte mir einer miesen Kühlung kauft, kann es sein dass die 2080 TI heiß wird.
Du bist da mit 94% GPU-Auslastung ziemlich stark im CPU-Limit. Da ist es dann kein Wunder, dass die GPU noch recht kühl bleibt. Wie sieht es aus wenn sie richtig gefordert wird?

Lawmachine79
2020-08-21, 10:12:21
Du bist da mit 94% GPU-Auslastung ziemlich stark im CPU-Limit. Da ist es dann kein Wunder, dass die GPU noch recht kühl bleibt. Wie sieht es aus wenn sie richtig gefordert wird?
Ja, gibt es OCCT und Furmark nicht mehr?

dargo
2020-08-21, 10:13:53
Ja, gibt es OCCT und Furmark nicht mehr?
Sollten schon Games sein, nur halt im vollständigen GPU-Limit. Die AC-Teile sind in vielen Szenen cpu-limitiert.

gedi
2020-08-21, 10:20:10
du weißt jetzt schon das Ampere ein Fail ist... das sagt mir das du 100% ein Fail bist.


Von einem Fail habe ich nicht gesprochen, denn das Ding wird ziemlich sicher sauschnell. Mir persönlich ist auch egal ob eine GraKa nun 300W oder 400W verbraucht. Eine 2080Ti konnte trotz 360W unter Wasser viel leichter gekühlt werden, als Navi bei ~240W.

Stichwort Navi: Oft ist es nicht die Temperatur der GPU, welche unter Luft Sorgen bereitet, sondern es ist viel mehr der Vram, welcher vor sich hinköchelt.

Und da bei Ampere die Bausteinchen ganz nah an die GPU gewandert sind, glaube ich hier an ein Temperaturproblem.

sChRaNzA
2020-08-21, 10:33:31
Ist doch egal, die Temperaturen wirst bei nVidia eh nicht zu Gesicht bekommen. ^^

monstar-x
2020-08-21, 10:50:10
Du bist da mit 94% GPU-Auslastung ziemlich stark im CPU-Limit. Da ist es dann kein Wunder, dass die GPU noch recht kühl bleibt. Wie sieht es aus wenn sie richtig gefordert wird?


In The Division 2
GPU 98-99% Auslastung und den i9 9900K auf 5 GHZ getaktet.
Sind es 69-70 Grad @ 1400rpm (nahezu unhörbar)

dargo
2020-08-21, 10:57:34
In The Division 2
GPU 98-99% Auslastung und den i9 9900K auf 5 GHZ getaktet.
Sind es 69-70 Grad @ 1400rpm (nahezu unhörbar)
Danke... das ist so in etwa was ich erwartet hätte. Leider misst Nvidia bei ihren GPUs keinen Hotspot. Aber auch das sollte noch recht weit unter 100°C bleiben.

Eine 2080Ti konnte trotz 360W unter Wasser viel leichter gekühlt werden, als Navi bei ~240W.

Ist auch irgendwo klar bei einer Fläche die um Faktor 3 größer ist.

Daredevil
2020-08-21, 11:04:27
Ich möchte jetzt hier mal Vorschläge für ne alternative Kühlung der Ampere Karten lesen...Forum voller Spezialisten und keiner spricht das Hauptproblem der Karte an... :-D
Na ne dünne Heatpipe auf der Rückseite, die zu dem Kühler+Lüfter am "Ende" der Grafikkarte führt.

Igor legt nach, warum er wohl das zum jetzigen Zeitpunkt macht? :D
kIz-tgSoqtc

BlacKi
2020-08-21, 11:08:14
( nur halt nicht ultra leise, wenn keine WaKü :> )
jetzt hat ers geschnallt, mein gott hast du lange gebraucht... den chip zwischen 70-80 grad mit luft zu kühlen ist ein leichtes. gddr6 mit 11gb zu kühlen geht scheinbar auch noch halbwegs leise. aber wir reden hier fast von einer verdreifachung der leistungsaufnahme des Vram?

Armaq
2020-08-21, 11:30:40
In The Division 2
GPU 98-99% Auslastung und den i9 9900K auf 5 GHZ getaktet.
Sind es 69-70 Grad @ 1400rpm (nahezu unhörbar)
Ok, du trollst hier mit irgendwelchen Werten die keine Last darstellen. Was ist eigentlich los? Ich will recht haben und biege mir die Welt wie sie mir gefällt? Das ist armseelig.

Gibt der Karte mal die Sporen und mach mal was aus der 2080Ti, meine Billigversion muss wenigstens für das Geld arbeiten ...
Wirklich das Niveau ist doch einfach bescheiden.

Wenn du der Karte richtig Zucker gibst, ist es vorbei mit 70°C (die erreiche ich btw auch mit FPS Lock, VSync und anderen tollen Ideen ...). ACO spiele ich aber mit 125% Auflösung und allem was geht. Da ächzt die Karte einfach mehr und wenn du selbst sehen willst, wann die Karte weint, dann gib ihr GPGPU-Futter deiner Wahl.

Danke @dargo für das aufmerksame Auge.

Edit: Mein Argument wird auch ganz einfach belegt, selbst die WaKü Hersteller Editionen nutzen oft noch einen Lüfter on top. Das ist nicht mehr "einfach" kühlbar.

Was Du möchtest ist Grundwasser, eine Leitung bis in Dein Arbeitszimmer und einen Wärmetauscher. Problem solved.
Eine perverse Idee hätte ich ja, ich lass mir sowieso ne Wärmepumpe mit Kühlung einbauen und frage mal, ob ich da bitte nen Auslass im Arbeitszimmer bekomme an den ich gängige Schläuche anbinden kann. Aber die ist natürlich sehr träge, ich hab aber die gesamte Fläche als Radiator. :D

Daredevil
2020-08-21, 11:57:19
wenn du selbst sehen willst, wann die Karte weint, dann gib ihr GPGPU-Futter deiner Wahl.


Geht doch, nur halt mit ner MSI.
https://abload.de/img/aftbrnrujqu.gif

Du musst dich aber jetzt auch mal entscheiden, was du haben möchtest.
Gaming Werte? GPGPU Werte? Silent Werte? 4K Werte?
Kann die MSI alles und ist leise dabei. Kann die Asus auch, ist halt hörbar dabei.

Die Nitro+ von Sapphire kann auch 350w bewegen bei ~1500-1600rpm.
Wie gesagt, muss halt ne gescheite Tri Slot Kühlung sein.

Jetzt erwarte die Werte aber nicht bei 40°C Außentemp, weil sonst bist du derjenige, der hier wild auf seine Meinung spekuliert. :D

Armaq
2020-08-21, 12:01:42
Geht doch, nur halt mit ner MSI.
https://abload.de/img/aftbrnrujqu.gif

Du musst dich aber jetzt auch mal entscheiden, was du haben möchtest.
Gaming Werte? GPGPU Werte? Silent Werte? 4K Werte?
Kann die MSI alles und ist leise dabei. Kann die Asus auch, ist halt hörbar dabei.

Die Nitro+ von Sapphire kann auch 350w bewegen bei ~1500-1600rpm.
Wie gesagt, muss halt ne gescheite Tri Slot Kühlung sein.
Willst du mich jetzt trollen?
https://images-na.ssl-images-amazon.com/images/I/61TXlP9L-mL._AC_SX466_.jpg

Die Karte im Bild hab ich und sie wird nicht soviel schlechter sein als die von euch genannten Karten ... Ich bekomme 1900 Mhz bei 72°C und einer Innentemperatur von 26°C (nicht außen).

Nochmal die 1080 war immer flüsterleise. Was ist daran so schwer zu verstehen? Eine 2080Ti und andere Karten sind einfach schwerer kühlbar. Wenn man nochmal 100 Watt dazu legt, dann wird es immer schwerer.

Das gleiche Problem hat man auch im Datacenter btw. Die Höheneinheiten können oft nicht mehr voll gemacht werden, weil einfach zuviel Saft anliegt (was direkt mit der Kühlleistung zu tun hat). Wenn man meinen Post aufmerksam liest, wird Supermicro bei den Blades noch zusätzlich ein 3000W Netzteil bringen on top des 2200W Netzteils.

Warum stellt ihr euch so bockbeinig? Die 2080Ti war so teuer, dass sie jetzt perfekt sein muss? Nein, ist sie nicht. Die Leistung ist teuer erkauft und die 300Watt PT Settings sind totaler Müll im Vgl. zu PT um 240Watt was die Leistung angeht.

Die 3090 mit noch einmal 100 Watt mehr ab Hersteller ist für ein PC-Gehäuse eine echte Herausforderung und ggf. für den Endkunden ein Ärgernis. Wenn Nvidia das durchzieht, dann muss AMD was gutes in der Tasche haben.

Screemer
2020-08-21, 12:04:02
Hat eigentlich godmode sein Kühlungsprojekt mit Anschluss an die Hauswasserleitung jemals beendet? Leider finde ich den Thread nicht mehr. Der hatte damals auch schon passende Platte-Wärmetauscher raus gesucht und auch schon Tests zum Durchfluss gemacht.

Das wäre in meinem Fall mit eigener Quelle, die auch noch genug Niveauunterschied hat um sie ohne Pumpe zu nutzen, gerade mit den neuen gpus wieder Thema.

Daredevil
2020-08-21, 12:09:30
Willst du mich jetzt trollen?
https://images-na.ssl-images-amazon.com/images/I/61TXlP9L-mL._AC_SX466_.jpg
Das ist eine Tri Slot Kühlung, aber keine gescheite Tri Slot Kühlung.
Eine HighEnd 2080ti ist ca. 30% schwerer als deine Gigabyte, investiert in PCB und Kühlung.

Die Karte im Bild hab ich und sie wird nicht soviel schlechter sein als die von euch genannten Karten
Die Gigabyte Gaming/Palit Dual/KFA EX ect. ist ein Spielzeug neben einer MSI Trio X/Z, sieht man schon an den Abmessungen.
Gigabyte: 286x114x50mm
Asus: 300x130x54mm
MSI: 327x140x56mm

Eine Palit Dual wiegt ~11xxg, die MSI ~15xxg, das ist ein riesen Unterschied. ( Und für 90% aller User nicht relevant, da eh nicht über 300w betrieben wird )

Leonidas
2020-08-21, 12:11:22
Wenn man GDDR6 "kaum unter Luft" kühlen kann, dann müsste die Rückseite im SLI ja quasi verglühen, weil gänzlich ungekühlt.


Dies deutet dann darauf hin, dass das Kühlproblem eigentlich vom Grafikchip und dessen Abwärme ausgeht. Und eventuell wird es bei GDDR6X verstärkt, weil die Chips wegen schwierigerem Signaltransport potentiell näher zur GPU sitzen.




Sind eigentlich alle Ampere Karten "betroffen" oder nur der Fette mit 24GB ?


Ich denke, diese Probleme sind eher GA102-spezifisch. Der Chip muß wohl zu sehr aufgedreht werden, um AMD bekämpfen zu können. Ab GA104 (GeForce RTX 3070) dürfte es ruhiger werden.

dildo4u
2020-08-21, 12:14:38
Da ist AMD mit HMB2 ja auf dem richtigen Weg Nvidia will aber seine Marge selbst bei über 1000€ absoluter Irrsinn.

horn 12
2020-08-21, 12:17:02
Nun. Navi XL soll wohl nur 12/ oder 14 GB erhalten, aber mit der RTX 3070 konkurrieren.
Von den Anderen gibt es zumindest 2 Flaggschiffe und das Topmodell mit AIO Kühlung als Aufschluss zur RTX 3090.

Wird Nvidia diesesmal Ganz und Gar nicht gefallen was AMD hier auftrumpft.
Aber dies passiert nun mal schlussendlich, wenn man den Hals nie voll genug bekommen kann.

Armaq
2020-08-21, 12:19:39
Das ist eine Tri Slot Kühlung, aber keine gescheite Tri Slot Kühlung.
Eine HighEnd 2080ti ist ca. 30% schwerer als deine Gigabyte, investiert in PCB und Kühlung.


Die Gigabyte Gaming/Palit Dual/KFA EX ect. ist ein Spielzeug neben einer MSI Trio X/Z, sieht man schon an den Abmessungen.
Gigabyte: 286x114x50mm
Asus: 300x130x54mm
MSI: 327x140x56mm
Shame on me for buying such shit :)

Und du denkst nochmal 350Watt im Standard, d.h. 400Watt auf Customs sind kein Problem?

rentex
2020-08-21, 12:22:55
Alternativ stellt man den PC in einen Anderen Raum
(im Optimalfall in den Keller oder einen andern klimatisierten Raum)
und lässt allen Lüftern "freien Auslauf" ;)

Somit sind Lärm und Abwärme "kein Problem" mehr :cool:

M.f.G. JVC

War jetzt richtig lustig :rolleyes:
Aber nicht jammern und maulen wenns mit Ampere als Custom oder unter Wasser nicht so dolle läuft...

Daredevil
2020-08-21, 12:27:32
Ich habe nicht gesagt, dass deine Karte Shit ist, bekomm dein Ego mal unter Kontrolle. Du kannst halt nicht Äpfel mit Birnen vergleichen, eine 1200g Karte hat halt eine andere Kühlleistung als eine 1500g Karte.

Shame on me for buying such shit :)

Und du denkst nochmal 350Watt im Standard, d.h. 400Watt auf Customs sind kein Problem?
Ne, ich habe gesagt.
300-350w bekommt man mit ner ordentlichen Tri Slot Kühlung locker hin, allerdings nur wenn Ampere halt auch einen riesen DIE hat, wie eben Turing.


Eine Sapphire Vega56/64 Nitro+ lebt das btw. vor.
Max. 375w Verbrauch bei angenehmer Geräuschkulisse, die Karte war aber selbst schwerer als die MSI 2080ti. ;)

Der_Korken
2020-08-21, 12:28:37
Gigabyte: 286x114x50mm
Asus: 300x130x54mm
MSI: 327x140x56mm

Eine Palit Dual wiegt ~11xxg, die MSI ~15xxg, das ist ein riesen Unterschied. ( Und für 90% aller User nicht relevant, da eh nicht über 300w betrieben wird )

Und eine 5700XT Nitro hat trotz 1150g eine leicht bessere Kühlung als die 1400g+ Boliden von MSI und Asus. Will heißen: Masse alleine macht einen Kühler nicht gut, du musst Wärme nachhaltig abführen können. Also genug Luftstrom (-> genug Lüfter) auf den Kühlblock und Wärmeabführung über die Gehäusebelüftung. Gerade letzteres wird imho zum Problem. Ich habe schon trotz 5 Gehäuselüfter Probleme, bei einer 200W-Graka die Lufttemperatur im Zaum zu halten. 40°C Lufttemp sind schnell erreicht im geschlossenen Gehäuse. Und das obwohl die Gehäuselüfter lauter laufen als die Graka-Lüfter. Wie das bei 350 oder 400W aussieht, will ich gar nicht wissen. Wer so ein Monster bei sich betreiben will, muss entweder das Gehäuse auflassen, alles unter Wasser setzen oder taub sein ;).

MiamiNice
2020-08-21, 12:29:37
Eine perverse Idee hätte ich ja, ich lass mir sowieso ne Wärmepumpe mit Kühlung einbauen und frage mal, ob ich da bitte nen Auslass im Arbeitszimmer bekomme an den ich gängige Schläuche anbinden kann. Aber die ist natürlich sehr träge, ich hab aber die gesamte Fläche als Radiator. :D

Also ohne Witz:

Bei einem Neubau würde ich mir ein Grundwasserloch bohren lassen (unter der Hand, ohne Uhr). Wenn Du Garten hast, direkt Brunnen bauen (schön mit Sitzbänken, Tisch drum, kleines Gartenhüttchen mit Kühlschrank, Gasgrill, Mucke etc.), falls nicht Keller.
Zu und Ableitung bis in Dein Arbeitszimmer und einen Wärmetauscher ans Ende setzen. Daran kannst Du dann normal Deine WaKü anschließen. Vorteil ist Du kannst komplett auf Radis und damit Lüfter verzichten. Nachteil ist Du hast eine Pumpe im Keller/Garten die rund um die Uhr läuft. Aber die muss nicht wirklich Durchsatz bringen, da gibt es auch welche die wenig Strom brauchen.

Das wäre zumindest mein Weg bei einem Neubau.

Und du denkst nochmal 350Watt im Standard, d.h. 400Watt auf Customs sind kein Problem?

Also zumindest ich mache mir da gar keinen Kopf drum. WaKü for Präsident ;)

N0rG
2020-08-21, 12:32:21
Dann haste ruck zuck Kondenswasser im Rechner wenn du mit 15 grad kühlem Grundwasser kühlst.

MiamiNice
2020-08-21, 12:33:04
Junge oder Alter^^, Wärmetauscher :wink:
Du willst doch auch kein Grundwasser in Deinem PC haben.

Daredevil
2020-08-21, 12:34:48
Und eine 5700XT Nitro hat trotz 1150g eine leicht bessere Kühlung als die 1400g+ Boliden von MSI und Asus.
Wie machst du das denn fest bei zwei völlig verschiedenen Chips? o0
Das ist mir ja völlig neu, deswegen vergleiche ist ja die Karten untereinander und bilde mir die Meinung.
Ich habe btw. folgende 2080ti gehabt
Palit Dual
Palit Gaming OC Pro
KFA Dual
Asus Strixx
MSI Trio X
Deswegen kann ich hier zumindest aus eigener Erfahrung sprechen und kann zwischen den Karten vergleichen.

Also Gewicht hat indirekt schon was damit zutun, wie Wärme abgeführt wird, weil die schweren Komponenten ( Lüfter, PCB, Kühlkörper ) damit zutun haben.
Wenn man natürlich Kontaktprobleme hat, ist das eine andere Geschichte.

Ich hatte btw. schon 1000w GPU Abluft im Gehäuse gehabt und habe das abgeführt bekommen, kommt halt auf das Gehäuse an.
Meine Nitro+ Crossfire Zeiten haben auch keinen negativen Einfluss hinterlassen. Habe halt die Seite belüftet.

dargo
2020-08-21, 12:36:59
Und du denkst nochmal 350Watt im Standard, d.h. 400Watt auf Customs sind kein Problem?
Nicht nur das. Ampere Top Dog wird auch 17% kleiner sein als TU102 sofern die 627mm² stimmen.

mironicus
2020-08-21, 12:37:30
Zumindest werden wohl die Custom Hersteller neue Kühllösungen entwickeln müssen. Die alten Kühler der 2080 Ti dürften dann aber durchaus noch bei der 3060 und 3070 verwendet werden. :D

Screemer
2020-08-21, 12:40:21
Junge oder Alter^^, Wärmetauscher :wink:
Du willst doch auch kein Grundwasser in Deinem PC haben.
Hast du godmodes Thread noch irgendwo?

Armaq
2020-08-21, 12:42:13
Also ohne Witz:

Bei einem Neubau würde ich mir ein Grundwasserloch bohren lassen (unter der Hand, ohne Uhr). Wenn Du Garten hast, direkt Brunnen bauen (schön mit Sitzbänken, Tisch drum, kleines Gartenhüttchen mit Kühlschrank, Gasgrill, Mucke etc.), falls nicht Keller.
Zu und Ableitung bis in Dein Arbeitszimmer und einen Wärmetauscher ans Ende setzen. Daran kannst Du dann normal Deine WaKü anschließen. Vorteil ist Du kannst komplett auf Radis und damit Lüfter verzichten. Nachteil ist Du hast eine Pumpe im Keller/Garten die rund um die Uhr läuft. Aber die muss nicht wirklich Durchsatz bringen, da gibt es auch welche die wenig Strom brauchen.

Das wäre zumindest mein Weg bei einem Neubau.
Ich frag den Gas/Wasser-Mann auf jeden Fall danach, ob ich den PC da reinklemmen könnte und er mir einen Ausgang macht. Das ist ja eine Wärmepumpe und der Lüfter von den Dingern ist anders. :D

Ich habe nicht gesagt, dass deine Karte Shit ist, bekomm dein Ego mal unter Kontrolle. Du kannst halt nicht Äpfel mit Birnen vergleichen, eine 1200g Karte hat halt eine andere Kühlleistung als eine 1500g Karte.


Ne, ich habe gesagt.


Eine Sapphire Vega56/64 Nitro+ lebt das btw. vor.
Max. 375w Verbrauch bei angenehmer Geräuschkulisse, die Karte war aber selbst schwerer als die MSI 2080ti. ;)
Mein Ego ist nicht das Problem, sondern diese Art zu diskutieren. Ich kann total damit leben, dass du 5-10°C bessere Temperaturen hast. Ich kann weniger gut mit dem Schrott leben den andere hier behaupten, eine 2080Ti läuft bei 60°C unter Luft in Volllast. Solchen Schwachsinn vertrage ich nicht so gut.

Für den Kunden (uns) ist das echt behämmert. Mit einer 2 KG Karte bekommst du 375 Watt in den Griff - Prima! Bitte erschüttere aber nichts um den PC herum mit mehr als 1N, weil dein Motherboard sonst instant zerbricht an der Grafikkartenlast. Alternativ kauf bitte die Titanium-Boards, da kannst du 150KG Zuglast ranhängen. Egal ob Klimmzug oder Grafikkarte, beides geht... :freak:

Mein Statement bleibt. Wenn die Gerüchte stimmen, ist die Top-Line von nvidia ein Problem beim Verbraucher. ICH (Achtung subjektive persönliche Einschätzung) wäre bereit mehr als 1200 € hinzulegen bei der richtigen Leistung, aber NICHT wenn das Gesamtpaket nicht besser ist als die Karte die ich bereits habe. Dazu zählt insbesondere Verbrauch und Geräuschkulisse. 400 Watt durch die Leitung jagen, wenn die Karte bei 250 Watt 92% der Leistung liefert, sehe ich nicht ein.

Wenn ich jetzt das Powertarget um 20 % reduziere, bricht der Takt in 95% der Fälle nicht ein. Das hätte man out of the box so lösen müssen. Ich als Verbraucher muss da jetzt wieder ran und selber machen. Die Verantwortung ein solides Produkt herzustellen liegt aber in meiner Welt beim Anbieter.

Damit es auch klar wird, ich hab ne Workstation und keinen reinen Spiele-PC. Da sitzt ein 3900X über der 2080Ti, da sind alle RAM-Bänke voll (macht btw. einen dramatischen Unterschied bei der Temperatur) und mit Luft ist das nicht mehr so gut kühlbar (es sind 8 Gehäuselüfter verbaut und ja sie ergeben einen sinnvollen Luftstrom).

Daredevil
2020-08-21, 12:46:48
Für den Kunden (uns) ist das echt behämmert. Mit einer 2 KG Karte bekommst du 375 Watt in den Griff - Prima! Bitte erschüttere aber nichts um den PC herum mit mehr als 1N, weil dein Motherboard sonst instant zerbricht an der Grafikkartenlast.
https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Fwww.hartware.de%2Fwp-content%2Fuploads%2F2017%2F12%2FSapphire-Nitro-Kartenhalterung-600x361.jpg&f=1&nofb=1

https://external-content.duckduckgo.com/iu/?u=https%3A%2F%2Fimages.offerup.com%2FjdNEIfh8OwP1QmZV0XwbCjCQL-o%3D%2F600x800%2F8be4%2F8be461bfe7a64300bb71d264019ff428.jpg&f=1&nofb=1

:(

Okay. :D

Armaq
2020-08-21, 12:48:04
:(

Okay. :D
Bisschen zielgerichtet darf die Diskussion noch bleiben? Das ist genau was ich meine. Kümmere dich dummer Kunde.

Linmoum
2020-08-21, 12:51:14
"Kümmern" ist relativ, die Dinger liegen schwere(re)n GPUs bei. Die Minute mehr bringt einen nicht um.

Der_Korken
2020-08-21, 12:53:06
Wie machst du das denn fest bei zwei völlig verschiedenen Chips? o0

[...]

Ich hatte btw. schon 1000w GPU Abluft im Gehäuse gehabt und habe das abgeführt bekommen, kommt halt auf das Gehäuse an.
Meine Nitro+ Crossfire Zeiten haben auch keinen negativen Einfluss hinterlassen. Habe halt die Seite belüftet.

Sorry, mit 1400g meinte ich natürlich auch entsprechende 5700XT-Karten.

Adam D.
2020-08-21, 12:55:55
Ich denke, diese Probleme sind eher GA102-spezifisch. Der Chip muß wohl zu sehr aufgedreht werden, um AMD bekämpfen zu können. Ab GA104 (GeForce RTX 3070) dürfte es ruhiger werden.
Ich muss ehrlich sein: ich kann mir immer noch nicht so wirklich vorstellen, dass das am Ende der Grund sein wird. Oder zumindest nicht so, wie du das formulierst. Big Navi müsste in der Praxis wirklich bei 2xNavi 10 rauskommen, um von Nvidia "bekämpft" werden zu müssen - das muss man erstmal schaffen.

Ja, Konkurrenz wird dieses mal ein Thema sein. Aber dass der Marktführer seinen Top Dog an die absolute Kotzgrenze bringt, um ein Konkurrenzprodukt zu schlagen, das es noch gar nicht gibt? Naja, vielleicht liefert AMD ja wirklich (bleibe skeptisch, der Hype ging bisher immer nach hinten los) und NV will kein Intel werden. Aber irgendwas passt für mich hier nicht zusammen.

Troyan
2020-08-21, 12:58:01
Cool, es gibt Probleme bei GPUs, die noch garnicht vorgestellt worden sind.

Ehrlich, merkt ihr noch, wie abstrus es ist? Wir haben keine Ahnung, was nVidia präsentieren wird. Aber wir wissen auf jedenfall schon, muss stromhungrig sein, muss Probleme haben, wird kaum schneller als die Konkurrenz.

Unglaublich. Achja, und der Konkurrent schafft alles ohne die selben massiven Probleme.

Armaq
2020-08-21, 13:00:22
Cool, es gibt Probleme bei GPUs, die noch garnicht vorgestellt worden sind.

Ehrlich, merkt ihr noch, wie abstrus es ist? Wir haben keine Ahnung, was nVidia präsentieren wird. Aber wir wissen auf jedenfall schon, muss stromhungrig sein, muss Probleme haben, wird kaum schneller als die Konkurrenz.

Unglaublich. Achja, und der Konkurrent schafft alles ohne die selben massiven Probleme.
Das ist der Spekulations-Thread und mit der Konkurrenz hat doch keiner angefangen? Es ist eine Vermutung, dass AMD konkurrenzfähig ist, gestärkt durch einen - wohl - kurzfristigen Wechsel der Strategie bei nvidia mehr Speicherplatz anzubieten auf den Karten. Das führt zu einem Wärmeproblem. Warum ist das so ein Problem für dich?

Daredevil
2020-08-21, 13:00:24
Du springst halt vom einen "Totschlagargument" aufs nächste.

Erst sagst du " Man kann eine 2080ti kaum kühlen", nur weil du so eine Karte nicht hast.
Ich wiederlege das ( unter anderem ) > Du akzeptierst das aber nicht

Du sagst "Dann zerbricht dir halt das Mainboard, weil die Karten so schwer sind"
Ich zeige dir das OVP, das die Karten hält > Die Diskussion ist nicht zielgerichtet
Kommt als nächstes, dass seltene Metalle abgebaut werden für den Kühler, den man sich sonst sparen könnte?

Ich betreibe meine 2080ti btw. zu 70% bei 150w @1540Mhz.
Es ging hier aber ja nicht um deine persönlichen Settings oder um meine, sondern du hast das "theoretisch machbare" in Frage gestellt.
Ich wiederhole dich gerne noch einmal:
Die 2080Ti ist kaum noch zu bändigen

Die 2080ti ist so krass unbändigbar, dass man sie bei 300w mit 1300rpm kühlen kann. ( Stock Werte )
GPGPU Anwendung:
https://abload.de/img/stockiwku8.gif

Aber Daredevil, die MSI ist viel zu groß und die kauft keiner

Hier Werte der Palit Dual @ Stock
https://abload.de/img/111fhj3i.gif

Die Karte ist einfach so stark zu bändigen, dass die Lüfter direkt so langsam drehen, dass man sie kaum hört, so schwer ist sie zu bändigen. :D

Aber gut. Ampere jetzt wieder.

aufkrawall
2020-08-21, 13:12:09
Wenn die Leute das auf ihr geschlossenes Backofen-Gehäuse bezogen meinen, haben sie ja nicht gänzlich unrecht. Die meisten "Normalos" dürften kein besonders gut belüftetes Gehäuse haben, das ist schon eine reale Limitierung.

Troyan
2020-08-21, 13:13:35
Das ist der Spekulations-Thread und mit der Konkurrenz hat doch keiner angefangen? Es ist eine Vermutung, dass AMD konkurrenzfähig ist, gestärkt durch einen - wohl - kurzfristigen Wechsel der Strategie bei nvidia mehr Speicherplatz anzubieten auf den Karten. Das führt zu einem Wärmeproblem. Warum ist das so ein Problem für dich?

Es ist keine Spekulation mehr. Wir sind schon soweit, wo von klaren Problemen gesprochen werden. Es werden Dinge als Fakten hingestellt, die nirgendwo auch nur annährend belegt sind.

Ich bin für alle Spekulationen, aber irgendwann ist das hier ins fanatische abgedriftet. Es gibt null Aussagen von nVidia. Jetzt weißt man jedoch schon, dass alles doof ist.

Bei AMD ist es dann umgedreht. Keine Probleme. Alles easy. Doppelte Effizienz, doppelte Leistung. Aber bei nVidia? Ne, undenkbar.

Armaq
2020-08-21, 13:15:30
Ich betreibe meine 2080ti btw. zu 70% bei 150w @1540Mhz.
Es ging hier aber ja nicht um deine persönlichen Settings oder um meine, sondern du hast das "theoretisch machbare" in Frage gestellt.
Ich wiederhole dich gerne noch einmal:
Also bist du doch butthurt, weil die 2080Ti in meinen Augen keine sehr gute Karte ist? Du betreibst sie ja selbst mit einem anderen Power-Target. Das füttert doch meine Argumentation noch. Das ist affig von dir, sorry. Ein 2 KG Kühler als total normal hinzustellen und zu sagen, die Karte ist doch handzahm zeugt auch nicht von Realitätssinn, weil du selbst das PT herunter stellst.

Was sind denn das für Diskussionsbeiträge? Ich stelle das PT herunter, aber die Karte ist total fresh... - das nervt mich wirklich. Du kannst doch nicht mit reduced PT 24/7 arbeiten und dann sagen die MSI ist supergeil. Wo sind wir denn?

Es ist keine Spekulation mehr. Wir sind schon soweit, wo von klaren Problemen gesprochen werden. Es werden Dinge als Fakten hingestellt, die nirgendwo auch nur annährend belegt sind.

Ich bin für alle Spekulationen, aber irgendwann ist das hier ins fanatische abgedriftet. Es gibt null Aussagen von nVidia. Jetzt weißt man jedoch schon, dass alles doof ist.

Bei AMD ist es dann umgedreht. Keine Probleme. Alles easy. Doppelte Effizienz, doppelte Leistung. Aber bei nVidia? Ne, undenkbar.
Bitte lass doch dein nvidia wird gebasht Problem sein. Jetzt kommen die roten Fanboys und der Thread ist dicht.

Du kannst ja mal andere Gründe nennen, warum es zu Verzögerungen kommt und ob ggf. nie mehr oder weniger Speicher geplant war etc. Die bisherige Faktenlage zeichnet das Bild als gut möglich.

Abwärme ist ein Problem. Nicht wird sondern ist.

Und mal generell: Ein bisschen Diskusssionskultur wäre doch echt angebracht. Hier werden Resultate maskiert (GPU Temp. bei geringer Last), eigene Settings werden verschwiegen (PT Reduzierung) nur um die Realität zu biegen. Ich finde das wenig spannend.

MiamiNice
2020-08-21, 13:22:39
Hast du godmodes Thread noch irgendwo?


Das ist der legendäre Thread:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=557708&highlight=w%E4rmetauscher

Dazu zählt insbesondere Verbrauch und Geräuschkulisse. 400 Watt durch die Leitung jagen, wenn die Karte bei 250 Watt 92% der Leistung liefert, sehe ich nicht ein.

Wenn ich jetzt das Powertarget um 20 % reduziere, bricht der Takt in 95% der Fälle nicht ein. Das hätte man out of the box so lösen müssen. Ich als Verbraucher muss da jetzt wieder ran und selber machen. Die Verantwortung ein solides Produkt herzustellen liegt aber in meiner Welt beim Anbieter.

Damit es auch klar wird, ich hab ne Workstation und keinen reinen Spiele-PC. Da sitzt ein 3900X über der 2080Ti, da sind alle RAM-Bänke voll (macht btw. einen dramatischen Unterschied bei der Temperatur) und mit Luft ist das nicht mehr so gut kühlbar (es sind 8 Gehäuselüfter verbaut und ja sie ergeben einen sinnvollen Luftstrom).

Du weißt doch noch gar nicht wie viel Mehrleistung die Karte hat und wie viel sie verbraucht. Auf der anderen Seite könnte ich argumentieren, das es mir gut in den Kram passt das NV scheinbar aufs Ganze geht. Imo war bei TOP HW auch schon immer ein wenig Eigeninitiative nötig. Ob es nun bessere Netzteile waren, bessere Gehäuse, mehr Lüfter, WaKü sei mal dahin gestellt. Im oberen Leistungsbereich wurde doch schon immer gerne gebastelt.

TheAntitheist
2020-08-21, 13:52:10
Von einem Fail habe ich nicht gesprochen, denn das Ding wird ziemlich sicher sauschnell. Mir persönlich ist auch egal ob eine GraKa nun 300W oder 400W verbraucht. Eine 2080Ti konnte trotz 360W unter Wasser viel leichter gekühlt werden, als Navi bei ~240W.

Stichwort Navi: Oft ist es nicht die Temperatur der GPU, welche unter Luft Sorgen bereitet, sondern es ist viel mehr der Vram, welcher vor sich hinköchelt.

Und da bei Ampere die Bausteinchen ganz nah an die GPU gewandert sind, glaube ich hier an ein Temperaturproblem.
sag mal willst du uns verarschen?

sagst du hast nicht von einem Fail gesprochen aber hier:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12397251&postcount=6241

DA HAST DU ES DOCH GENAU GESAGT

rentex
2020-08-21, 13:54:17
In diesem Forum wundert mich nichts mehr..,

wolik
2020-08-21, 14:05:45
Ach, sind die Karten schon veröffentlicht? Muss ich verpasst haben. Hast du ein Link?
Troyen wenn du mich meinst... Am 01.09 Präsentation. Was meinst du ist die Karte schon fertig? Oder Rätselt Huang noch welche Kühlung er nehmen soll?

Hast du zufällig gelesen, welches Forum das hier ist? Wohl nicht. Hint: Es ist nicht das Faktenforum.

Wie kann man sich nur so daran aufhängen, dass in einem Spekulationsforum auf Basis von Gerüchten und nicht von Fakten diskutiert wird. Mein Gott.
Ausser Gerüchte gibts noch der gesunde Menschenverstand. Und der sagt mir wenn am 01.09 (in 9 Tage) Präsentation statt findet, dann ist die Karte fertig. Und Igor hat die schon bestimmt die getestet. Letzte Satz ist reine Spekulatius. :biggrin:

Also ohne Witz:

Bei einem Neubau würde ich mir ein Grundwasserloch bohren lassen (unter der Hand, ohne Uhr). Wenn Du Garten hast, direkt Brunnen bauen (schön mit Sitzbänken, Tisch drum, kleines Gartenhüttchen mit Kühlschrank, Gasgrill, Mucke etc.), falls nicht Keller.
Zu und Ableitung bis in Dein Arbeitszimmer und einen Wärmetauscher ans Ende setzen. Daran kannst Du dann normal Deine WaKü anschließen. Vorteil ist Du kannst komplett auf Radis und damit Lüfter verzichten. Nachteil ist Du hast eine Pumpe im Keller/Garten die rund um die Uhr läuft. Aber die muss nicht wirklich Durchsatz bringen, da gibt es auch welche die wenig Strom brauchen.

Das wäre zumindest mein Weg bei einem Neubau.



Also zumindest ich mache mir da gar keinen Kopf drum. WaKü for Präsident ;)
Die Möglichkeit habe ich (außer Tiefbrunnen) und schon mal gedacht 1000 Liter Behälter draußen stehen lassen. Problematik bei Brunnen wird das ganze Kühlung ist sehr fein und Kühlüngswasser soll schon sehr sauber sein (ja klar es gibts Filter oder Wärmetauscher benutzen) nur ausser paar Sommer Monats Wärme Abgabe von PC ist sehr willkommen. Fenster auf oder in Herbst /Winter Heizung ist immer aus. Und mein Erste Grafikkarten Wasser Kühlung lief über Normale Umwälzpumpe in 100 Liter Gefäß (passive Kühlung)

Wie machst du das denn fest bei zwei völlig verschiedenen Chips? o0
Das ist mir ja völlig neu, deswegen vergleiche ist ja die Karten untereinander und bilde mir die Meinung.
Ich habe btw. folgende 2080ti gehabt
Palit Dual
Palit Gaming OC Pro
KFA Dual
Asus Strixx
MSI Trio X
Deswegen kann ich hier zumindest aus eigener Erfahrung sprechen und kann zwischen den Karten vergleichen.

Also Gewicht hat indirekt schon was damit zutun, wie Wärme abgeführt wird, weil die schweren Komponenten ( Lüfter, PCB, Kühlkörper ) damit zutun haben.
Wenn man natürlich Kontaktprobleme hat, ist das eine andere Geschichte.

Ich hatte btw. schon 1000w GPU Abluft im Gehäuse gehabt und habe das abgeführt bekommen, kommt halt auf das Gehäuse an.
Meine Nitro+ Crossfire Zeiten haben auch keinen negativen Einfluss hinterlassen. Habe halt die Seite belüftet.
Palit Dual arbeitet jetzt in PC
MSI Trio X mal angeschaut. Manche Vorschlaghammer wiegen weniger :biggrin: aber sie war nicht schneller als Palit Dual (glaube für 1050 Euro ich habe mal gekauft)
Wenn die Leute das auf ihr geschlossenes Backofen-Gehäuse bezogen meinen, haben sie ja nicht gänzlich unrecht. Die meisten "Normalos" dürften kein besonders gut belüftetes Gehäuse haben, das ist schon eine reale Limitierung.
Schaue mal bei Steam wieviel nutzen 2080Ti, "Normalos" interessiert das ganze nicht mal die Bohne.

Armaq
2020-08-21, 14:06:15
Das ist der legendäre Thread:
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=557708&highlight=w%E4rmetauscher



Du weißt doch noch gar nicht wie viel Mehrleistung die Karte hat und wie viel sie verbraucht. Auf der anderen Seite könnte ich argumentieren, das es mir gut in den Kram passt das NV scheinbar aufs Ganze geht. Imo war bei TOP HW auch schon immer ein wenig Eigeninitiative nötig. Ob es nun bessere Netzteile waren, bessere Gehäuse, mehr Lüfter, WaKü sei mal dahin gestellt. Im oberen Leistungsbereich wurde doch schon immer gerne gebastelt.
Ja, da geb ich dir ja recht. Es ist am Ende ein Paket. Aber bei 1500 Flocken oder mehr, hätte ich gerne ein sehr rundes Gesamtpaket. Ist ja keine vermessene Forderung.

Und es stimmt nicht, dass wir gar nicht wissen wie sie performt. Die A100 ist lange raus und gibt gute Ausblicke was möglich ist, aber das sind schon ziemliche Spezialfälle. Beim Gaming hat der Chip sicherlich andere Themen. Ich freu mich auf gut skalierende Engines in Tests, um das Rohleistungspotential zu sehen. Die 2080Ti alter ja auch sehr gut, zum Release war sie im Verhältnis schlechter als jetzt.

Edit: Die 2080Ti ist ja der TopDog in allen Disziplinen, wenn man das PT runter stellt. Die 300Watt sind echt hohl (vll. gibts Workloads die das wirklich nutzen, ich kenn keinen). Mit unter 250 Watt ist das eine wirklich gute Karte. Die 1080 und die 1080Ti waren vll. einfach zu stark.

rentex
2020-08-21, 15:14:20
Die A100 wird nicht viel mit Gaming Ampere zu tun haben. Dem A100 fehlen die RT Cores. Dazu noch ganz anderer Einsatzbereich. Wäre es anders, müsste man in sämtlichen HW Foren, keine seitenlangen Theorien aufstellen.

Edgecrusher86
2020-08-21, 15:25:19
Es wäre sicherlich auch nicht verkehrt, wenn man bei NV zum Beispiel auch eine Partnerschaft mit Alphacool oder EKWB machen würde - Fullcover AiO inkl. leiser Pumpe wie bein Eiswolf II [am Besten noch mit aktiver PB], aber dann mit 360er Radiator und leisen Lüftern - das Ganze dann bei 250-300 $/€ Aufpreis. Zumindest für den Strom hungrigen Top-Dog würde das durchaus Sinn ergeben. Gut, es mag sein, dass man den AIBs hier nicht das Wasser abgraben möchte. Deutlich wird aber in der Regel, dass solche Fertigmodelle mit AiO idR immer verdammt schlecht lieferbar sind und wenn, dann meistens Monate nach dem Launch in begrenzter Stückzahl. Das betrifft etwa eine Colorful iChill oder MSI Seahawk. Igor geht ja davon aus, dass zumindest 21 Gbps G6X so hitzt [von bis zu bis 98 Grad für das wärmste Modul bei Custom LüKü-Modellen ist die Rede], dass dann eine GPU only AiO unzureichend sein wird mit passiver Kühlung für das restliche PCB bei der RTX 3090 - dann muss man schwerere Geschütze auffahren.

Optisch ginge da sicher auch etwas - eine Gravur mit z.B. NV Claw und dem heutigen "must have" RGB zum Beispiel. ;D

Eine Fullcover Lösung mit aktiver PB im Sinne der Asus RTX 2080 Matrix Platinum mit integr. Radiator hätte sicherlich auch was - dann hängt nichts zusätzlich herum.

Auf jeden Fall denke ich schon, dass viele Kunden auch eine solche Premium-Version gerne ab Werk hätten - vor allem, wenn man liefern könnte.
Auch mit z.B. zwei Profilen ab Werk - Quiet und etwa 70 Grad auf der GPU und Performance bei 60-65°C. Ersteres bei knapp über 30 dB(A), und Letzeres mit z.B. 35-37 dB(A).

MiamiNice
2020-08-21, 15:45:22
Ich fände es generell cool wenn man die gewünschte Graka direkt mit WaKü Block kaufen könnte. AIOs können sich die Hersteller vor mir aus stecken, das ist was für RGB PC Kids aber nichts für Leuts die nach Leistung gieren.

hq-hq
2020-08-21, 15:52:39
ja das stimmt, gleich mit WaKü-Block und gut ist, das wäre ideal - von Gigabyte gibt es bestimmt wieder eine Waterforce - https://direktkauf.idealo.de/productpage/6392654?siteid=1&offerKey=e07accc82a9f6c3e3b8953428dcef6dd&osId=3339337223492345647&shopping=1&camp=google100s1&ref=google100s1&utm_medium=shopping&utm_source=google&utm_campaign=375894991&gclid=Cj0KCQjw4f35BRDBARIsAPePBHxShqooxFN5ptxUto7Z5lF1wY1UDyFtJXvClhJgNTFDSi1Jwi UqUFMaAg0MEALw_wcB

BlacKi
2020-08-21, 15:55:11
die brauchen aber 2-6 monate.

ich würde hier noch die kingmod anmerken von caseking. aber ich weiß nicht wie schnelle die die mod direkt nach dem release anbieten. dürfte aber schneller gehen als die von den herstellern.

Edgecrusher86
2020-08-21, 15:56:43
Wieviele PC-Gamer werden einen Custom Loop betreiben? 10-20%?

Aber ja, den Markt könnte man auch bedienen - keine Frage. Je teurer die HW, desto eher wird man auch Umbau willige User haben.
Entsprechende Karten wie EVGA Hydro Copper oder MSI Seahawk EK sind ja auch erst nach einiger Zeit verfügbar.
So etwas direkt von NV angeboten, wäre auch nicht schlecht.

Nun ja, EKWB z.B. hat doch für die FE innerhalb weniger Wochen erhältliche Modelle. Es gibt sicherlich bessere Blöcke [gerade im Bezug auf die SpaWas] -
etwa AquaComputer oder Watercool, aber da dauert es halt "ewig". Aus dem Grund hatte ich, wenn die Karten unter Wasser liefen, immer auf EKWB gesetzt.
Sehr zeitnah zum Launch lieferbar.

Man könnte natürlich den kompletten Markt abdecken:
FE unter Luft
FE mit einer ordentlichen Fullcover AiO
FE mit Fullcover-WaKü-Block und einer guten, massiven BP - alles vormontiert mit Garantie.

Wer das Ganze dann etwa kombiniert mit einem höheren PT erwerben möchte, kann ja auf entsprechende Modelle der AIBs warten. ;)

Emil_i_Lönneberga
2020-08-21, 16:00:43
Gab es auch schon bei der 1080Ti.

https://www.youtube.com/watch?v=sZNBkgTY4eQ

Eine 2080Ti Solo mit Alphacool Block gibt es seit Dezember 2018.

https://geizhals.de/inno3d-geforce-rtx-2080-ti-ichill-frostbite-c208tb-11d6x-1150fros-a1952181.html?hloc=at&hloc=de


Den King Mod bei Caseking gibt es auch schon ein paar Jahre. Sowohl die umgebaute Graka alleine, als auch als "AiO Edition" mit Fullcover:

https://www.caseking.de/pc-komponenten/grafikkarten/king-mod-grafikkarten


2080Ti - 380 Watts - 1200 RPM - Witcher 3 - 240mm Radiator - "AiO Edition"

https://www.igorslab.de/wp-content/uploads/2020/07/380-Watts-1200-RPM-Witcher-3.jpg

https://www.igorslab.de/alphacool-eiswolf-2-im-test-gegen-eine-nvidia-geforce-rtx-2080-ti-mit-300-und-380-watt-mit-etwas-eigeninitiative-eine-fast-perfekte-loesung/3/


Caseking wird das auch für Ampere wieder anbieten. Wenn man die Arbeit anderen überlässt, wird das Paket eben wie immer teurer.

rentex
2020-08-21, 16:01:24
Nur gut das anscheinend sämtliche AICs, Lukü und Wakü Block Hersteller, wegen Ampere grad am Rad drehen. Da wird man lange nichts sehen!

Zergra
2020-08-21, 16:02:48
2080Ti - 380 Watts - 1200 RPM - Witcher 3 - 240mm Radiator - "AiO Edition"

https://www.igorslab.de/wp-content/uploads/2020/07/380-Watts-1200-RPM-Witcher-3.jpg

https://www.igorslab.de/alphacool-eiswolf-2-im-test-gegen-eine-nvidia-geforce-rtx-2080-ti-mit-300-und-380-watt-mit-etwas-eigeninitiative-eine-fast-perfekte-loesung/3/

Nur war da die 2080TI schon EOL als die auf den Markt kam :rolleyes:

hq-hq
2020-08-21, 16:04:14
Nur gut das anscheinend sämtliche AICs, Lukü und Wakü Block Hersteller, wegen Ampere grad am Rad drehen. Da wird man lange nichts sehen!


wahrscheinlich wird es hässliche Heatpipelösungen geben die von hinten hoch in den WaKü-Block verlaufen :biggrin:
ahm ja also nicht nur bei den wassergekühlten sondern auch bei den lüftgekühlten Varianten, wenn der RAM auf der Rückseite wirklich so ein Knackpunkt ist...

Emil_i_Lönneberga
2020-08-21, 16:06:27
Nur war da die 2080TI schon EOL als die auf den Markt kam :rolleyes:

Guckst du King Mod von Caseking, sogar mit Backplate (in Bezug auf die 3090 mit 24GB GDDR6X, Teile davon auf der Rückseite), den gab es von Beginn an :rolleyes:

Lowkey
2020-08-21, 16:06:31
Custom Waterblock AIO kam schon mal von AMD, als es mit der Fury knapp wurde. Die Idee scheiterte an der Asetek Qualität. Ich bin mir sicher, dass die Idee nicht vom Tisch ist, denn das TDP/Hitzeproblem wird dadurch gelößt. Dann haben sie nach oben aber auch keinen Spielraum mehr und die AIO Karte kostet bestimmt 25-30% Aufpreis.

Linmoum
2020-08-21, 16:12:09
Custom Waterblock AIO kam schon mal von AMD, als es mit der Fury knapp wurde. Die Idee scheiterte an der Asetek Qualität.Die Idee scheiterte nicht, sonst hätte es Vega nicht ebenfalls auch mit einer AiO gegeben.

Bei potentiell 350W wäre es aber in der Tat klug seitens NV, auch eine Variante mit AiO anzubieten. Die FE ist schon jetzt nicht die beste und muss bei der 2080Ti deutlich weniger wegkühlen. Und ich denke nicht, dass NV plötzlich einen fetten Kühler wie MSI mit der Trio X auffährt.

mboeller
2020-08-21, 17:02:02
Junge oder Alter^^, Wärmetauscher :wink:
Du willst doch auch kein Grundwasser in Deinem PC haben.


er hat recht!

Wenn du die Luft im PC unter den Taupunkt abkühlst kondensiert die Luftfeuchtigkeit im PC Gehäuse... dann tropft es aus deinem PC raus.

Abhängig von der Luftfeuchtigkeit und der Lufttemp. ist der Taupunkt unterschiedlich. Bei 25°C + 60% Lf beträgt die Taupunkt-Temp. 16,7°C ... kühlst du stärker runter tropft dein PC ein wenig

Emil_i_Lönneberga
2020-08-21, 17:17:17
Nur gut das anscheinend sämtliche AICs, Lukü und Wakü Block Hersteller, wegen Ampere grad am Rad drehen. Da wird man lange nichts sehen!

Die sind total entspannt und warten nur darauf, dass Nvidia in die Puschen kommt.

https://www.hardwareluxx.de/community/threads/watercool-produktinfo.278904/page-249#post-27584716

Und für den Speicher auf der Rückseite gibt es seit der Maxwell Titan X auch eine Lösung.

https://forum.aquacomputer.de/wasserk-hlung/105874-neu-kryographics-titan-x-update-10-04-neue-varianten/

monstar-x
2020-08-21, 17:22:55
Ok, du trollst hier mit irgendwelchen Werten die keine Last darstellen. Was ist eigentlich los? Ich will recht haben und biege mir die Welt wie sie mir gefällt? Das ist armseelig.

Gibt der Karte mal die Sporen und mach mal was aus der 2080Ti, meine Billigversion muss wenigstens für das Geld arbeiten ...
Wirklich das Niveau ist doch einfach bescheiden.

Wenn du der Karte richtig Zucker gibst, ist es vorbei mit 70°C (die erreiche ich btw auch mit FPS Lock, VSync und anderen tollen Ideen ...). ACO spiele ich aber mit 125% Auflösung und allem was geht. Da ächzt die Karte einfach mehr und wenn du selbst sehen willst, wann die Karte weint, dann gib ihr GPGPU-Futter deiner Wahl.

Danke @dargo für das aufmerksame Auge.

Edit: Mein Argument wird auch ganz einfach belegt, selbst die WaKü Hersteller Editionen nutzen oft noch einen Lüfter on top. Das ist nicht mehr "einfach" kühlbar.


Eine perverse Idee hätte ich ja, ich lass mir sowieso ne Wärmepumpe mit Kühlung einbauen und frage mal, ob ich da bitte nen Auslass im Arbeitszimmer bekomme an den ich gängige Schläuche anbinden kann. Aber die ist natürlich sehr träge, ich hab aber die gesamte Fläche als Radiator. :D

Alter was bist du den so Agro...


Mein lieber, da muss ich dich leider Enttäuschen, ich habe einen ASUS 165 Hz GSync Monitor und somit ist überall VSYNC aus :-P

Zu deiner Info AC Odyssey lief sogar auf 140% Rendering und alles Max out.
Die 94% GPU Last stellen auch nur einen einzigen Frame da. Und sind somit nicht repräsentativ, aber das solltest du langjähriger 3DCenter User wissen

Weil drago wissen wollte, wie die Temperaturen im Silent Mode sind, habe ich extra für dargo ein Spiel genommen mit 99% Last und meinen Intel 9900 auf 5 GHz getaktet, da hatte die gerade mal 69 Grad und das bei Silent Lautstärke (1400rpm)


Bei 60% Lüfter, drehen sich diese mit 2100 rpm (ca 38db) (was nicht hörbar ist, wenn Kopfhörer auf sind), und dann sind es auch max kuschelige 60°

Ich weiß schon wieso ich den Aufpreis für ASUS Strix oder MSI Lightning bezahle.


Weil mir das jetzt zu Blöd ist, hier nochmal zwei Spiele mit 99/100% Load.

Witcher 3 @60° (10 Min Temp Line im Screenshot zu sehen)
https://abload.de/thumb/witcher3_nevuaatnwmxwkoz.jpg (https://abload.de/image.php?img=witcher3_nevuaatnwmxwkoz.jpg)

The Division 2 @60° (10 Min Temp Line im Screenshot zu sehen)
https://abload.de/thumb/thedivision2_brzmfv05lvk9w.jpg (https://abload.de/image.php?img=thedivision2_brzmfv05lvk9w.jpg)



Aber da man dich sicherlich nicht so leicht hinter das Licht führen kann, hier mal ein paar Reviews von anderen Trollen zur ASUS 2080TI Strix OC
Strix 2080TI immer die kühlste Karte (teils sogar >10 Grad), meistens auf 1080 TI niveau.
vielleicht das nächste Mal nicht die billigste Karte kaufen.


Guru3D (63°)
https://www.guru3d.com/articles-pages/asus-geforce-rtx-2080-ti-rog-strix-preview,8.html

Overclocker 3D (61°)
https://www.overclock3d.net/reviews/gpu_displays/asus_rog_strix_gaming_rtx_2080_and_rtx_2080_ti_review/26

legitreviews (59°)
https://www.legitreviews.com/asus-rog-strix-rtx-2080-ti-oc-edition-review_208596/11

kitguru (59°)
https://www.kitguru.net/components/graphic-cards/dominic-moass/asus-rog-rtx-2080-ti-strix-oc-o11g-review-1500-beast/all/1/

wccftec
https://wccftech.com/review/asus-rog-strix-geforce-rtx-2080-ti-and-rog-strix-geforce-rtx-2080-review/9/

Keine lust mehr weiter zu machen... Thema für mich beendet.









Ich betreibe meine 2080ti btw. zu 70% bei 150w @1540Mhz.
Es ging hier aber ja nicht um deine persönlichen Settings oder um meine, sondern du hast das "theoretisch machbare" in Frage gestellt.
Ich wiederhole dich gerne noch einmal:

Die 2080ti ist so krass unbändigbar, dass man sie bei 300w mit 1300rpm kühlen kann. ( Stock Werte )
GPGPU Anwendung:
https://abload.de/img/stockiwku8.gif



Ja die selben Temperaturen, wie heute morgen meine ASUS 2080Ti Strix OC mit 1400rpm hat.

Die 2080Ti ist mit den richtigen Kühlern auch unter Luft wunderbar und einfach zu kühlen.

gedi
2020-08-21, 17:50:21
sag mal willst du uns verarschen?

sagst du hast nicht von einem Fail gesprochen aber hier:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12397251&postcount=6241

DA HAST DU ES DOCH GENAU GESAGT

Ups, war eigentlich nicht so gemeint. Was ich meinte habe ich leider erst anschließend erklärt. Sorry

@MonstarX

Ich gebe dir in dem Punkt recht, dass ne 2080Ti relativ einfach zu kühlen ist, aber die Strixx bei 60% Lüfter-RPM und 38db? Meine Erfahrung war, dass selbst nen Düsenjet nix ist gegen diesen Lärm.

Linmoum
2020-08-21, 18:01:30
Die 2080Ti ist mit den richtigen Kühlern auch unter Luft wunderbar und einfach zu kühlen.Wie sehen denn die Speicher/VRM-Temps aus? Nur die GPU alleine bringt wenig, die ist immer am einfachsten zu kühlen. Auch dann noch, wenn die Lüfter langsam(er) drehen. Das sieht an anderer Stelle dann aber wiederum anders aus. Wobei deine rpm und die in den Reviews irgendwie :freak: sind. Das würde ich mir nicht mal freiwillig antun wollen.

Das ist ja aber auch das, was Igor jetzt für Ampere anspricht. Das Problem liegt weniger bei der GPU selbst, sondern in dem Fall beim Speicher.

Ja, die GPU kann man auch bei >300W mit Luft kühlen. Aber die ist nur die halbe Wahrheit.

woodsdog
2020-08-21, 18:03:46
Wieso muss ich hier seit 2 1/2 Seiten Gequatsche über TU102 ist gut kühlbar/nicht gut kühlbar im Ampere Speku thread lesen?
Der Richtige Thread ist https://www.forum-3dcenter.org/vbulletin/showthread.php?t=590648

rentex
2020-08-21, 18:28:09
Die sind total entspannt und warten nur darauf, dass Nvidia in die Puschen kommt.

https://www.hardwareluxx.de/community/threads/watercool-produktinfo.278904/page-249#post-27584716

Und für den Speicher auf der Rückseite gibt es seit der Maxwell Titan X auch eine Lösung.

https://forum.aquacomputer.de/wasserk-hlung/105874-neu-kryographics-titan-x-update-10-04-neue-varianten/

Klar sind die gegenüber ihren Kunden entspannt...

Ja genau. Vergleich ruhig die vorherigen GDDR Versionen mit der noch brandaktuellen Ausgabe...

MiamiNice
2020-08-21, 18:49:39
Ich glaube Du unterschätzt leicht die Power of water in einem PC.
Gestern gabs hier einen Post mit einem Igor Zitat das er schon einen Block @ home hat. Ich für meinen Teil kann mir nicht vorstellen das Ampere die Hersteller vor ein größeres Problem stellt. Dafür ist die allgemeine Wassergemeinde zu weit in der Entwicklung. Ich mein wir halten aktuelle Grafikkarten um 10° über Raumtemp mit relativ wenig Radifläche. Da ist noch so viel Luft äh Wasser :)

Linmoum
2020-08-21, 19:29:37
Ich für meinen Teil kann mir nicht vorstellen das Ampere die Hersteller vor ein größeres Problem stellt. Dafür ist die allgemeine Wassergemeinde zu weit in der Entwicklung. Ich mein wir halten aktuelle Grafikkarten um 10° über Raumtemp mit relativ wenig Radifläche. Da ist noch so viel Luft äh Wasser :)Klar wird das für Wakü kein Problem sein. Wird der Speicher halt 5-10°C wärmer als sonst, dann hast du immer noch massig Luft nach oben. Die GPU wird bei wohl >600mm² erst recht kein Problem.

Aber GPU nur 10° über Raumtemp? Dann musst du ein Wizard sein, Harry. Das schafft ja nicht einmal Igor mit seinem Chiller. :D

Adam D.
2020-08-21, 19:33:05
https://videocardz.com/newz/galax-teases-geforce-rtx-30-series

The teasing has begun :)

MiamiNice
2020-08-21, 19:37:28
Ich halte die 1080Ti at 2150 Mhz konstant unter 40 Grad so lange die Raumtemp OK ist. Hab nen Delta von 9 Grad, oder so. Müsste mal wieder schauen, schon ewig her das ich das eingerichtet habe. Hab nen 480er und nen 420er Radi drin von Ek, die dicken mit hohem FPI und Noctuas druff.

rentex
2020-08-21, 19:40:44
Ich glaube Du unterschätzt leicht die Power of water in einem PC.
Gestern gabs hier einen Post mit einem Igor Zitat das er schon einen Block @ home hat. Ich für meinen Teil kann mir nicht vorstellen das Ampere die Hersteller vor ein größeres Problem stellt. Dafür ist die allgemeine Wassergemeinde zu weit in der Entwicklung. Ich mein wir halten aktuelle Grafikkarten um 10° über Raumtemp mit relativ wenig Radifläche. Da ist noch so viel Luft äh Wasser :)

Wenn du dir den ganzen Artikel durchgelesen hättest, würdest du auch Igors bedenken kennen...

Linmoum
2020-08-21, 19:45:26
Ich halte die 1080Ti at 2150 Mhz konstant unter 40 Grad so lange die Raumtemp OK ist. Hab nen Delta von 9 Grad, oder so. Müsste mal wieder schauen, schon ewig her das ich das eingerichtet habe. Hab nen 480er und nen 420er Radi drin von Ek, die dicken mit hohem FPI und Noctuas druff.Sicher, dass du das Delta in Bezug auf Raumtemp und nicht Wasser meinst? :D Bei Wasser wären knapp 10K ja sogar nachvollziehbar. Aber gut, du hast ja noch Pascal, das war in der Hinsicht auch etwas einfacher, das Delta bei Turing Wasser/GPU liegt idR so bei +-15°C.

https://videocardz.com/newz/galax-teases-geforce-rtx-30-series

The teasing has begun :)Preis raten? Ist das jetzt gut, weil der Preis niedriger ausfällt als alle erwarten oder schlecht, weil er noch höher ausfällt als alle erwarten und so oder so alle weit weg sein werden? ;D

MiamiNice
2020-08-21, 20:04:06
Ich meine Delta Wasser - Raumtemp.

Slipknot79
2020-08-21, 20:12:14
Mein lieber, da muss ich dich leider Enttäuschen, ich habe einen ASUS 165 Hz GSync Monitor und somit ist überall VSYNC aus :-P


Dann ist auch GSync aus.

Emil_i_Lönneberga
2020-08-21, 20:29:53
Wenn du dir den ganzen Artikel durchgelesen hättest, würdest du auch Igors bedenken kennen...

Nvidia braucht für ihre kurze Platine im V-Design eine extra teure Wurst inform einer Vapor Chamber, weil sie mit der Founders Edition etwas ausgefallenes in die Kamera halten wollen und damit gleichzeitig auch noch irgendwie die 350W von der Platine wegbekommen.

Die Partner stellen fest, dass sie mit hier mit einer bekannten billigen Wurst aus Zeiten der 2080Ti ...

https://geizhals.de/zotac-gaming-geforce-rtx-2080-ti-twin-fan-zt-t20810g-10p-a1915280.html?hloc=at&hloc=de

... im Dual Slot Design ohne teure Vapor Chamber nicht weit kommen und werden nervös.

Was hat das mit der Leistungsfähigkeit eines Fullcover Waküblocks zu tun?



Ich hatte ja schon in einem anderen Artikel berichtet, dass man bei der doch recht exklusiv ausfallenden Founders Edition mit bis zu 150 USD für den Kühler rechnen müsse. Nun ja, ich lag da scheinbar ein wenig falsch, denn es sind angeblich sogar 155 USD. Rechnet man die Preise für eine solche Vapor Chamber (VC) mal hoch, landet man allein dafür bei ca. 50 bis 70 USD reine Herstellkosten für das ungewöhnliche Shaped Design, die aber nicht alles beinhalten. Denn eine Großserie bei Herstellern wie Auras beginnt bei ca. 1 Mio. Stück und alles, das darunter liegt. kostet noch einmal zusätzlich Aufpreis neben der Spanne, die sich der Hersteller ja sowieso noch genehmigt, um damit einen gewinn zu erwirtschaften.

Allerdings können sich Boardpartner solche exklusiven Spielchen nicht leisten. NVIDIAs sogenanntes “over hand feature”, also die sehr kurzen Platinen mit einem überstehenden Kühler, erzeugen auf einer recht geringen Fläche eine sehr hohe Wärmestromdichte, vor allem bei doppelseitiger Speicherbestückung. Das wird wirklich heiß, sehr heiß. Mit Dual-Slot Designs wird das aber ohne VC wohl eher nichts, denn die bis zu 350 Watt müssen wirklich fix wegtransportiert werden.

https://www.igorslab.de/nvidia-ampere-zeigt-seine-heissen-seiten-und-selbst-die-boardpartner-tappen-noch-im-dunkeln/


Außerdem sind zwei Platinen im Spiel: PG132 im kurzen V-Design und PG133 für die Boardpartner. Die Wakü Hersteller werden keine Blocke für zwei Platinen entwickeln.

Auch wenn es durchaus so geplant ist, dass die Boardpartner quasi zeitgleich mit eigenen Platinen an den Start gehen dürfen, die Referenzplatine PG132 für die Weitermontage mit einem eigenen Kühlsystem ist bisher (Stand heute) noch nirgendwo angekommen.

gedi
2020-08-21, 20:39:09
Das V-Design gilt nur für die non-Ti/3090.

Armaq
2020-08-21, 20:43:34
Ich glaube Du unterschätzt leicht die Power of water in einem PC.
Gestern gabs hier einen Post mit einem Igor Zitat das er schon einen Block @ home hat. Ich für meinen Teil kann mir nicht vorstellen das Ampere die Hersteller vor ein größeres Problem stellt. Dafür ist die allgemeine Wassergemeinde zu weit in der Entwicklung. Ich mein wir halten aktuelle Grafikkarten um 10° über Raumtemp mit relativ wenig Radifläche. Da ist noch so viel Luft äh Wasser :)
Natürlich geht das! Im Datacenter sind ja auch alle auf den Zug aufgesprungen. Da werden sogar die Rahmen mit Anschlüssen versehen usw.

Nochmal, ich (subjektiv) sehe für 400 Watt und Luft halt arge Probleme und bin auf Lösungen gespannt. Ne AiO kann ja ein Angebot sein.

gedi
2020-08-21, 20:45:57
400W per Luft abzuführen wäre ne Meisterleistung und würde auch ne AIO an die Grenzen bringen

Linmoum
2020-08-21, 20:53:33
Dreh die Lüfter auf 100%, dann brauchst du dafür nicht einmal einen fetten Kühler. :>

MiamiNice
2020-08-21, 20:59:46
400W per Luft abzuführen wäre ne Meisterleistung und würde auch ne AIO an die Grenzen bringen


Du solltest Dich einfach mal informieren 🙈

Daredevil
2020-08-21, 21:04:43
400W per Luft abzuführen wäre ne Meisterleistung und würde auch ne AIO an die Grenzen bringen
400w abführen != 400w abführen

400w von nem Ryzen 3600 abführen ? Unmöglich.
400w von ner 800mm² GPU abführen? Möglich.

Der Kollege hier kann 375w abführen, ohne die Geräuschkulisse einer Turbine zu gleichen und den gabs für 350€ bei Mindfactory.
https://cdn.sapphiretech.global/assets/consumer/11275_00_40G_NITRO_RX_VEGA_64/nitro_vega_64_productcenter_3.jpg

Und mit ner AiO ist das spielend gemacht, es braucht halt Radi Fläche, ja mei.

unl34shed
2020-08-21, 21:13:29
Ich hatte ja schon in einem anderen Artikel berichtet, dass man bei der doch recht exklusiv ausfallenden Founders Edition mit bis zu 150 USD für den Kühler rechnen müsse. Nun ja, ich lag da scheinbar ein wenig falsch, denn es sind angeblich sogar 155 USD. Rechnet man die Preise für eine solche Vapor Chamber (VC) mal hoch, landet man allein dafür bei ca. 50 bis 70 USD reine Herstellkosten für das ungewöhnliche Shaped Design, die aber nicht alles beinhalten. Denn eine Großserie bei Herstellern wie Auras beginnt bei ca. 1 Mio. Stück und alles, das darunter liegt. kostet noch einmal zusätzlich Aufpreis neben der Spanne, die sich der Hersteller ja sowieso noch genehmigt, um damit einen gewinn zu erwirtschaften.

Allerdings können sich Boardpartner solche exklusiven Spielchen nicht leisten. NVIDIAs sogenanntes “over hand feature”, also die sehr kurzen Platinen mit einem überstehenden Kühler, erzeugen auf einer recht geringen Fläche eine sehr hohe Wärmestromdichte, vor allem bei doppelseitiger Speicherbestückung. Das wird wirklich heiß, sehr heiß. Mit Dual-Slot Designs wird das aber ohne VC wohl eher nichts, denn die bis zu 350 Watt müssen wirklich fix wegtransportiert werden.
https://www.igorslab.de/nvidia-ampere-zeigt-seine-heissen-seiten-und-selbst-die-boardpartner-tappen-noch-im-dunkeln/


Irgendwie glaub ich da nicht so wirklich dran. Bei Alibaba gibts VCs bereits für 12.50$, vermutlich in der passenden Größe, ab 5000 Stück. Sicher, da müssen noch Kühlrippen dran, aber 155$ :confused:
Und die ungewöhnliche Form, sollte doch auch egal sein, die werden doch eh aus dem Blech gestanzt, da ist die Form doch fast egal.

https://german.alibaba.com/product-detail/high-power-cpu-server-cooling-vapor-chamber-heat-sink-62500409080.html?spm=a2700.galleryofferlist.0.0.2b1d2fbbmsSbHV

gedi
2020-08-21, 21:15:21
Dreh die Lüfter auf 100%, dann brauchst du dafür nicht einmal einen fetten Kühler. :>

Mit einem Industriekühler bei 200db, kein Problem

gedi
2020-08-21, 21:17:23
400w abführen != 400w abführen

400w von nem Ryzen 3600 abführen ? Unmöglich.
400w von ner 800mm² GPU abführen? Möglich.

Der Kollege hier kann 375w abführen, ohne die Geräuschkulisse einer Turbine zu gleichen und den gabs für 350€ bei Mindfactory.
https://cdn.sapphiretech.global/assets/consumer/11275_00_40G_NITRO_RX_VEGA_64/nitro_vega_64_productcenter_3.jpg

Und mit ner AiO ist das spielend gemacht, es braucht halt Radi Fläche, ja mei.

Ich wüßte nicht, dass irgend ne Vega 400W verbraucht hätte

BUG
2020-08-21, 21:20:42
Wenn man das PowerTarget aushebelt geht es schon stark Richtung 400W bei Vega, aber "gesund" ist das sicherlich nicht.

https://www.gamersnexus.net/guides/3382-rtx-2070-versus-power-modded-vega-56
https://www.gamersnexus.net/images/media/2018/gpus/vega56-vs-2070/vega-56-mod-power-aotse_all.png

Gruß
BUG

Zergra
2020-08-21, 21:24:53
Ich wüßte nicht, dass irgend ne Vega 400W verbraucht hätte

Aus dem CB Review vom Release.... Natürlich nicht Stock, da waren es eher 350 je nach Design.

"Maximiert man das Power Target, explodiert der Leistungsbedarf deutlich: Die Radeon RX Vega 56 genehmigt sich dann zusätzliche 109 Watt und erreicht im Schnitt 342 Watt. Die Radeon RX Vega 64 kommt auf Plus 106 Watt und knackt damit gar die 400-Watt-Schallmauer. Das ist ein Wert, den man selbst mit einer stark übertakteten GeForce GTX 1080 Ti nicht einmal im Ansatz erreicht. Partnerdesigns mit mehr Spielraum beim Verbrauch werden es nicht leicht haben, leise zu bleiben."

gedi
2020-08-21, 21:25:02
Wenn man das PowerTarget aushebelt geht es schon stark Richtung 400W bei Vega.

https://www.gamersnexus.net/guides/3382-rtx-2070-versus-power-modded-vega-56
https://www.gamersnexus.net/images/media/2018/gpus/vega56-vs-2070/vega-56-mod-power-aotse_all.png

Gruß
BUG

Stock sicher nicht! Und wenn du Vega so viel Völter gibst, dann taktet die Sapphire vielleicht mit 1.2G. Was ich meine, ohne Leistungsverlust!

gedi
2020-08-21, 21:28:19
Ich meine, ich habe den Krempel ja studiert und der Kühler der 3080 macht für mich wenig Sinn, allerdings lasse ich mich gerne eines Besseren belehren

Armaq
2020-08-21, 21:36:30
Einfach nur drauf dreschen ist ja nicht das Ziel. Bei sinnvoller Voltage und Performance to Heat Ratio, muss die Performance ja immer noch stimmen.

Wie gesagt, für Datacenter ist mir klar was geht und vor allem was nicht geht. Ich hab mit Nvidia direkt gesprochen und unseren Ingenieuren. Die neue Karte (A100) plus entsprechende Zufuhr sprengt für viele "gestandene" Datacenter einfach die Energiezufuhr. D.h. du belegst nur die Hälfte aller Höheneinheiten, einfach weil die scheiss Energie und vice versa Kühlung nicht reicht. Wir wollten das in einem besonderen Formfaktor haben und sind böse erwacht. (Gestanden meint btw. auch manchmal nur alt)

Deshalb finde ich Igors Argumentation auch schlüssig und kann das nachvollziehen. Irgendwer meinte auch, dass man vom A100 keine Rückschlusse auf die Prosumer-Karten ziehen kann, das ist auch Quark. Die Dinger sind schon richtig gut, daher erwarte ich auch kein Desaster wie manche Rotbäckchen hier. De facto ist der A100 ein größerer Sprung in seinem Gebiet als alles bisher im Vergleich, nur mal als Relation.

Daredevil
2020-08-21, 21:37:05
400W per Luft abzuführen wäre ne Meisterleistung und würde auch ne AIO an die Grenzen bringen

Der Kollege hier kann 375w abführen, ohne die Geräuschkulisse einer Turbine zu gleichen und den gabs für 350€ bei Mindfactory.

Stock sicher nicht!
Wer hat denn hier von Stock geredet?
Die richtige Antworte wäre gewesen "Oh krass, wusste gar nicht dass man so knapp unter 400w schon mit einer Luftkühlung abführen kann. Dann ist das mit einer AiO wohl doch spielend möglich und ich habe mich getäuscht. Danke für die Info."
Ist doch kein Thema, wenn man mal nicht ganz richtig liegt. Das muss man aber nicht unbedingt Posts lang strecken. Ist das schwierig heute und hier. :D

Ist aber Allgemein schon sehr interessant, das Nvidia anscheinend das Alleinstellungsmerkmal haben soll für heiße Karten, die man grundsätzlich nicht kühlen kann, während AMD dann doch den kühlen Ampere Killer raus bringt, wo es all diese Probleme nicht geben soll.
Die Vergangenheit sagt da nämlich erstmal Grundsätzlich was anderes. :>

Armaq
2020-08-21, 21:45:51
400w abführen != 400w abführen

400w von nem Ryzen 3600 abführen ? Unmöglich.
400w von ner 800mm² GPU abführen? Möglich.

Der Kollege hier kann 375w abführen, ohne die Geräuschkulisse einer Turbine zu gleichen und den gabs für 350€ bei Mindfactory.
https://cdn.sapphiretech.global/assets/consumer/11275_00_40G_NITRO_RX_VEGA_64/nitro_vega_64_productcenter_3.jpg

Und mit ner AiO ist das spielend gemacht, es braucht halt Radi Fläche, ja mei.
Ist das die VaporChamber Nummer? Ich hätte so gerne wieder ne Sapphire ... :/

Daredevil
2020-08-21, 21:52:43
Jap, die Limited hat die Vapor Chamber.
Und ja, +1, ich will auch wieder ne Sapphire. :D


https://abload.de/img/img_20181012_14335524kiu9.jpg
https://abload.de/img/img_20181107_1325240biwh.jpg

MiamiNice
2020-08-21, 21:53:11
Ich meine, ich habe den Krempel ja studiert und der Kühler der 3080 macht für mich wenig Sinn, allerdings lasse ich mich gerne eines Besseren belehren
400W per Luft abzuführen wäre ne Meisterleistung und würde auch ne AIO an die Grenzen bringen

Vielleicht hängst Du noch ein Semester dran ;)

gedi
2020-08-21, 21:57:16
Wer hat denn hier von Stock geredet?
Die richtige Antworte wäre gewesen "Oh krass, wusste gar nicht dass man so knapp unter 400w schon mit einer Luftkühlung abführen kann. Dann ist das mit einer AiO wohl doch spielend möglich und ich habe mich getäuscht. Danke für die Info."
Ist doch kein Thema, wenn man mal nicht ganz richtig liegt. Das muss man aber nicht unbedingt Posts lang strecken. Ist das schwierig heute und hier. :D

Ist aber Allgemein schon sehr interessant, das Nvidia anscheinend das Alleinstellungsmerkmal haben soll für heiße Karten, die man grundsätzlich nicht kühlen kann, während AMD dann doch den kühlen Ampere Killer raus bringt, wo es all diese Probleme nicht geben soll.
Die Vergangenheit sagt da nämlich erstmal Grundsätzlich was anderes. :>

Du verdrehst hier Tatsachen: Schließlich handelt es sich um ein Bosrdpartner-Design, welches 400W vielleicht für ein Bruchteil einer Sekunde abführen kann.

Aber wenn sich Ampere ähnlich verhält wie Turing und Pascal, dann benötigt es es einer Wakü und und keiner AIO um die volle Leistung anzurufen. Aus N10-Erfahrungen weiß ich allerdings, dass dies ein teures Unterfangen wird

gedi
2020-08-21, 22:09:31
Vielleicht hängst Du noch ein Semester dran ;)

Guter Witz, war anno 1996 Jahrgangsbester hier in D. Aber wie gesagt, ich lasse mich gerne eines Besseren belehren. Ich denke Jensen hat keine DAUs eingestellt

Troyan
2020-08-21, 22:21:14
https://cdn.videocardz.com/1/2020/08/NVIDIA-GeForce-RTX-3090-1-1.jpg
https://videocardz.com/newz/nvidia-geforce-rtx-3090-graphics-card-pictured

Stammt von hier: https://twitter.com/GarnetSunset/status/1296891307999338496?s=20
Ist laut Twitter RTX3090. Der Leak von vor 6 Wochen war 3080 und sah deutlich kleiner aus.

Armaq
2020-08-21, 22:24:05
https://cdn.videocardz.com/1/2020/08/NVIDIA-GeForce-RTX-3090-1-1.jpg
https://videocardz.com/newz/nvidia-geforce-rtx-3090-graphics-card-pictured

Stammt von hier: https://twitter.com/GarnetSunset/status/1296891307999338496?s=20
Ist laut Twitter RTX3090. Der Leak von vor 6 Wochen war 3080 und sah deutlich kleiner aus.
Geiles Gerät. Das Design ist komplett neu und riesig. Wirklich riesig. Schiebt das Luft durch die vielen kleinen Lamellen? Wohin, ins Gehäuse? Da sitzen Frontlüfter die das zurück schieben ...

Linmoum
2020-08-21, 22:24:29
Ja gut, für 260W wie bei der 2080Ti braucht man das fette Teil nicht. Triple statt Dual-Slot, joa.

Solange es vernünftig kühlt. Sieht trotzdem scheiße aus.

dargo
2020-08-21, 22:24:44
Was für ein Klotz. X-D Ok... also die 320-350W sind somit bestätigt. :freak:

btw.
Ist das ein 120mm Lüfter schon? Aber immerhin horizontal ausgerichtete Kühllamellen beim Lüfter. Da hat einer mitgedacht. ;)

MiamiNice
2020-08-21, 22:26:10
https://cdn.videocardz.com/1/2020/08/NVIDIA-GeForce-RTX-3090-1-1.jpg
https://videocardz.com/newz/nvidia-geforce-rtx-3090-graphics-card-pictured

Stammt von hier: https://twitter.com/GarnetSunset/status/1296891307999338496?s=20
Ist laut Twitter RTX3090. Der Leak von vor 6 Wochen war 3080 und sah deutlich kleiner aus.


Da habe ich nur ein Wort für: Bäääääääämmm!!!!11111einself

unl34shed
2020-08-21, 22:29:18
Ich komme auf 34cm Länge und 15,5cm Höhe

Linmoum
2020-08-21, 22:29:20
Da habe ich nur ein Wort für: Bäääääääämmm!!!!11111einselfSteigst du jetzt von Wakü auf das Teil um? :biggrin:

Armaq
2020-08-21, 22:30:14
Was für ein Klotz. X-D Ok... also die 320-350W sind somit bestätigt. :freak:

btw.
Ist das ein 120mm Lüfter schon? Aber immerhin horizontal ausgerichtete Kühllamellen beim Lüfter. Da hat einer mitgedacht. ;)
Sieht eher nach 90mm aus, wenn die 2080FE nen 80mm hat?

Troyan
2020-08-21, 22:30:36
Geiles Gerät. Das Design ist komplett neu und riesig. Wirklich riesig. Schiebt das Luft durch die vielen kleinen Lamellen? Wohin, ins Gehäuse? Da sitzen Frontlüfter die das zurück schieben ...

Wohl eher: Wohin mit dem Staub. ;D

Hier nochmal die 3080:
https://cdn.videocardz.com/1/2020/06/NVIDIA-GeForce-RTX-3080.jpg
https://videocardz.com/newz/nvidia-geforce-rtx-3080-heatsink-leaked

dargo
2020-08-21, 22:31:25
Sieht eher nach 90mm aus, wenn die 2080FE nen 80mm hat?
What? Ich dachte die 2080 TI FE hat 2x 95mm Lüfter. :confused: Hab das aber nicht genau verfolgt.

Edit:
Ok... das sind 85mm Lüfter.
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/

Dann wird das wohl 100mm bei der 3090 sein. Wirkt auf dem Bild irgendwie größer. :tongue:

Linmoum
2020-08-21, 22:32:31
Die 2080Ti FE hat 2x85mm Lüfter.

Armaq
2020-08-21, 22:36:00
Die 2080Ti FE hat 2x85mm Lüfter.
Ich hab per Google jetzt 90mm gefunden. Also müssen das wohl 100 oder vll sogar 120 sein.

BlacKi
2020-08-21, 22:36:56
direkt tripple slot XD ein glück ist das silber weg.

MiamiNice
2020-08-21, 22:38:32
Ich komme auf 34cm Länge und 15,5cm Höhe

Das hättest Du wohl gern ^^

Armaq
2020-08-21, 22:38:33
Aber da brennt doch der hintere Teil der Karte ab?

Linmoum
2020-08-21, 22:38:45
Ich hab per Google jetzt 90mm gefunden. Also müssen das wohl 100 oder vll sogar 120 sein.CB schreibt von 85mm.
Für die Frischluft sorgen zwei im Durchmesser 85 mm große Axial-Lüfter. https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/#abschnitt_2__founders_edition_und_3__custom_design_im_test

Aber unabhängig davon sieht das für 120mm dann doch etwas zu groß aus.

Thunderburne
2020-08-21, 22:42:59
https://wccftech.com/nvidia-geforce-rtx-3090-flagship-ampere-gaming-graphics-card-pictured-1400-us-price/
😮

gedi
2020-08-21, 22:44:28
Kann mir bitte einer erklären, wofür der hintere Lüfter gut sein soll? Um die VRMs des Mobos zu kühlen? Ich kann dem Konstrukt nicht wirklich folgen, außer < als 125Grad C sind für Ampere kein Problem

wolik
2020-08-21, 22:47:03
Wie geil werden diese Karten in SLI aussehen. :biggrin:

Daredevil
2020-08-21, 22:48:08
Hat sich die Lukü Diskussion ja doch gelohnt.
Geile Kiste! :)

Armaq
2020-08-21, 22:49:03
Wie geil werden diese Karten in SLI aussehen. :biggrin:
Was soll das für ein Board sein.

Aus der Kühlerkonstruktion werde ich nicht schlau, sieht nur total massiv auf mit 3 vollen Slots. Eigentlich kannst du jetzt mit externen Gehäusen anfangen.

dargo
2020-08-21, 22:49:15
Kann mir bitte einer erklären, wofür der hintere Lüfter gut sein soll? Um die VRMs des Mobos zu kühlen? Ich kann dem Konstrukt nicht wirklich folgen, außer < als 125Grad C sind für Ampere kein Problem
Ich verstehe die ganze Konstruktion auch noch nicht so ganz. Ich meine der hintere Lüfter wir ja dann die Abwärme vom CPU-Kühler ansaugen und diese weiter verteilen. :confused:

Hat sich die Lukü Diskussion ja doch gelohnt.
Geile Kiste! :)
Also mir macht das Ding eher Angst. X-D Sieht nach einem heißen Ampere aus.

BlacKi
2020-08-21, 22:49:31
Kann mir bitte einer erklären, wofür der hintere Lüfter gut sein soll? Um die VRMs des Mobos zu kühlen? Ich kann dem Konstrukt nicht wirklich folgen, außer < als 125Grad C sind für Ampere kein Problem
dort ist kein pcb. die karte ist sehr kurz, nur der kühler ist sehr lang.

Slipknot79
2020-08-21, 22:51:01
Kann mir bitte einer erklären, wofür der hintere Lüfter gut sein soll? Um die VRMs des Mobos zu kühlen? Ich kann dem Konstrukt nicht wirklich folgen, außer < als 125Grad C sind für Ampere kein Problem


Kauf die Shice und blockiere den Lüfter, dann weißt du wofür er da sein soll :redface:

Linmoum
2020-08-21, 22:52:40
Ob das Ding auch wieder so verklebt und verschraubt ist? Vielleicht braucht's ja diesmal dann 140 Schrauben. ;D

Daredevil
2020-08-21, 22:53:55
Ist ne Push pull konfig, steht doch im Artikel.
Der linke pustet Luft auf die GPU, der Rechte saugt die Luft an und befördert sie nach oben. So werden beide Seiten gekühlt und es entsteht kein Wärmestau, da warme Luft zur.... CPU gebracht wird. :D

Gerade für kleine Gehäuse ist das abführen der GPU Wärme wichtig, das weiterleiten der Wärme zum Gehäuse aber ebenso, damit die gpu nicht immer ihre gleich warme Luft ansaugt. Durch dieses Push pull, wie auch schon bei Sapphire ( Pulse ? ) Karten, entsteht halt weniger ein Hotspot.

mironicus
2020-08-21, 22:54:34
Die RTX 3090 paßt wohl nicht in mein Gehäuse... :D

BiZiNiZz
2020-08-21, 22:55:43
Ich komme auf 34cm Länge und 15,5cm Höhe

Wenn die Größe mit +- 10% Richtig ist, ist sie jetzt auch nicht unbedingt größer als andere High-End Karten. Gibt ja auch für die RX5700 und die nVidia High-End Modelle in der Größe.

Wie das Kühlkonzept funktioniert würde mich aber interessieren.

Thunderburne
2020-08-21, 22:58:46
https://wccftech.com/nvidia-geforce-rtx-3090-flagship-ampere-gaming-graphics-card-pictured-1400-us-price/
Weils so geil ist noch mal was ein Monster!

Troyan
2020-08-21, 22:59:07
Heatpipes gehen durch bis hinten:
https://cdn.videocardz.com/1/2020/06/NVIDIA-GeForce-RTX-3080-heatsink.jpg

Achill
2020-08-21, 22:59:10
Geiles Gerät. Das Design ist komplett neu und riesig. Wirklich riesig. Schiebt das Luft durch die vielen kleinen Lamellen? Wohin, ins Gehäuse? Da sitzen Frontlüfter die das zurück schieben ...

https://cdn.videocardz.com/1/2020/08/NVIDIA-GeForce-RTX-3090-1-1.jpg
Das sieht aus wie 2.5 - 3 Slot Design ...

Tippe auf eine Art Pull-Push-Prinzip. Der Lüfter in Richtung Boden drückt die Luft durch die Lamellen. Man erkennt auch, dass diese auch horizontal verlaufen. Der Lüft in Richtung Deckel zieht die Luft dann weiter Richtung Deckel.

Geht man davon aus, dass die meisten Tower im hinteren Bereich und Deckel Lüfter haben, scheint dies eine gute Möglichkeit zu sein, die Wärme aus den Gehäuse zu bekommen.

Btw. 2.5-3 Slots ... ich denke der Rahmen und das X in der Mitte ist nicht nur aus ästhetischen Gründen da. Tippe darauf, dass dies gut verschraubt ist mit der Slot-Blende und das Gewicht (1.5 bis +2kg ?) aufnimmt sowie das Verbiegen des PCB verhindern soll sowie Last vom PCIe Slot nehmen.

Daredevil
2020-08-21, 23:00:28
Die Kühlfläche bei den hinteren Lamellen ist echt riesig, da sehr feinmaschig.

nordic_pegasus
2020-08-21, 23:01:17
ich hätte nicht gedacht ein Referenz-Design zu sehen, welches höher ist als die PCI-Blende. Es gibt genug Gehäuse, bei welchen solche hohen Karten nicht passen. Wenn dann noch die Stromanschlüsse nach oben zeigen und/oder ein Wakü-Terminal dazukommt, muss man schon ein extra breites Gehäuse haben. Oder mit Vertical-Mounting arbeiten.

Blöd gefragt: könnte man bei Triple-Slot das eigentliche PCB auch in die Mitte der 3 "PCI-Slot-Ebenen" packen, sodass man Kühleraufbau auf beiden Seiten des PCBs realisieren kann?

Sunrise
2020-08-21, 23:02:10
Ob das Ding auch wieder so verklebt und verschraubt ist? Vielleicht braucht's ja diesmal dann 140 Schrauben. ;D
Falls da wirklich so ein relativ kompaktes und komplexes PCB benutzt wird, bei dem vermuteten Gewicht von dem Monster (das Teil hat sehr viele, feinmaschige Lamellen, dann noch die VC), wird da wohl einiges verschraubt werden müssen...

Daredevil
2020-08-21, 23:12:24
Der Leaker auf Twitter schreibt noch dazu ( Dollar, wa )
3060 400
3070 600
3080 800
3090 1400

Passt schon.

EPIC_FAIL
2020-08-21, 23:15:13
Für 800 Euro wird es dann aber bestimmt nur eine 3080 mit 10GB werden, falls es überhaupt direkt eine 20GB Version geben wird.

Sunrise
2020-08-21, 23:15:13
Der Leaker auf Twitter schreibt noch dazu
3060 400
3070 600
3080 800
3090 1400

Passt schon.
Bei den Preisen hat AMD genug Platz, sich da irgendwo dazwischen zu schieben, ohne das beide direkt konkurrieren.

Daredevil
2020-08-21, 23:26:59
Jap, ne 999$ BigNavi, ne 699$ Abspeck Version und das gleiche mit 499$ und 299$ und dann können beide koexistieren.

Nvidia schraubt einfach ihr Lineup eine Stelle nach unten + neue Speerspitze und AMD setzt sich auf das bestehende Turing Setup in günstiger drauf.

Aber ich glaube nicht, dass AMD ernsthaft dieses Monster da oben angreifen möchte. Jensen zeigt hier Eier, ich bin auf den 1. Sept stark gespannt. :)
Für 30% mehr Leistung machen die sicherlich nicht so einen Aufwand, da muss ich meine Erwartung wohl ( weit ) nach oben schrauben.

MiamiNice
2020-08-21, 23:38:07
Bei der Konstruktion mache ich mir gerade Gedanken ob ich einen Tag Urlaub nehmen muss um das Gerät von dem Luftkühler zu befreien und unter Wasser zu setzen. :freak:

Sunrise
2020-08-21, 23:40:47
Jap, ne 999$ BigNavi, ne 699$ Abspeck Version und das gleiche mit 499$ und 299$ und dann können beide koexistieren.

Nvidia schraubt einfach ihr Lineup eine Stelle nach unten + neue Speerspitze und AMD setzt sich auf das bestehende Turing Setup in günstiger drauf.

Aber ich glaube nicht, dass AMD ernsthaft dieses Monster da oben angreifen möchte. Jensen zeigt hier Eier, ich bin auf den 1. Sept stark gespannt. :)
Für 30% mehr Leistung machen die sicherlich nicht so einen Aufwand, da muss ich meine Erwartung wohl ( weit ) nach oben schrauben.
Ja, ich ging die ganze Zeit vorsichtig von $699 US bei AMD aus, aber das könnte dann in der Tat eine abgespeckte Variante sein, je nachdem, wieviel Leistung da aus N21 rauskommt, da er ja auch sehr gut taktbar sein soll. PCB und Kühler sollen ja noch nicht final sein, da kann AMD also evtl. noch feinabstimmen.

Jedenfalls, wenn NV solche Geschütze auffährt, ist da sicher ordentlich Power unter der Haube. Ich würde mal vorsichtig wetten, dass man fast alles einfach grob verdoppelt hat (Leistung 50 bis 75% besser durch die Bank, mit Optimierungen evtl. sogar mehr), da rein von den ALUs her kein großer Sprung erkennbar ist und da man ja von 12nm FFN auf 8nm LPP runtergeht, und trotzdem so einen fetten ~600mm² GA102 Die herausbekommen hat. Da höhere Taktraten so stark aufs Powerbudget schlagen und man ja Samsung gewählt hat, wird das wohl eher eine Stagnation. Also wieder ein Grund mehr, warum Ampere da ordentlich Power in den SMs haben muss.

Thunderburne
2020-08-21, 23:45:39
https://wccftech.com/nvidia-rtx-3000-series-rumored-pricing-rtx-3090-for-1399-rtx-3080-for-799-rtx-3070-for-599-and-rtx-3060-for-399/

Troyan
2020-08-21, 23:46:41
Fake. Wir sind 11 Tage vor der offiziellen Präsentation. Die offiziellen Preise gibt es erst dann.

Shaft
2020-08-21, 23:51:03
Verstehe die Anordnung der Lamellen nicht, gerade bei denen die am Lüfter sitzen, bekommen keine Luft zuvor ab.

Entweder die Perspektive macht hier einen Streich, oder ich zu Blöd es zu verstehen.

Es sieht nach sehr viel arbeit für den Kühler aus. Hoffe das neue Design sorgt für einen leisen Geräuschpegel.

Armaq
2020-08-21, 23:53:07
4 Heatpipes geben also einen guten Teil der Wärme hinten ab und werden von unten belüftet. Das PCB wird normal frontal mit Luft umweht, aber schieben die beiden sich dann die Luft nicht gegenseitig zu? Bei mir sitzen unter und über der 2080 je ein 120 mm Noctua, die alle Luft nach draußen schieben.

Gerade die 3070 hat einen enorm wichtigen Punkt. In meinem direkten Freundeskreis haben 4 diese Karte (also 2070) gekauft und es sind so 9-11 PC Zocker.

MiamiNice
2020-08-21, 23:56:42
Was ist den an dem Design unklar?

rentex
2020-08-22, 00:36:38
BFG - Big Fucking GPU

rentex
2020-08-22, 00:40:40
https://cdn.videocardz.com/1/2020/08/NVIDIA-GeForce-RTX-3090-1-1.jpg
Das sieht aus wie 2.5 - 3 Slot Design ...

Tippe auf eine Art Pull-Push-Prinzip. Der Lüfter in Richtung Boden drückt die Luft durch die Lamellen. Man erkennt auch, dass diese auch horizontal verlaufen. Der Lüft in Richtung Deckel zieht die Luft dann weiter Richtung Deckel.

Geht man davon aus, dass die meisten Tower im hinteren Bereich und Deckel Lüfter haben, scheint dies eine gute Möglichkeit zu sein, die Wärme aus den Gehäuse zu bekommen.

Btw. 2.5-3 Slots ... ich denke der Rahmen und das X in der Mitte ist nicht nur aus ästhetischen Gründen da. Tippe darauf, dass dies gut verschraubt ist mit der Slot-Blende und das Gewicht (1.5 bis +2kg ?) aufnimmt sowie das Verbiegen des PCB verhindern soll sowie Last vom PCIe Slot nehmen.

So wie ich es mir gedacht habe...

BlacKi
2020-08-22, 00:41:26
Verstehe die Anordnung der Lamellen nicht, gerade bei denen die am Lüfter sitzen, bekommen keine Luft zuvor ab.
zuerst ist es wohl optisch bedingt, das die lamellen mit der oberkante der lüfter abschließen, nebenbei sind sie verlängerungen der kühlfinnen und dienen auch als exhaust kühllamellen.

Birdman
2020-08-22, 00:55:10
Dieses Kühlerdesign (sah man ja schon vor ein paar Monaten als mögliche Lösung durch die Leak-Medien geistern) bestätigt zumindest die Gerüchte dass Turing die TDP nochmals ordentlich nach oben drückt
Ich sehe jedenfalls nicht wie man daran nun keine zweifeln kann.

Die Frage ist daher nur wie viel mehr Leistung die Turing Generation auch wirklich auf die Strasse bringt, wenn man mit aufgebohrten Desigg + besserer Fertigungsprozess + mehr Strom daherkommt.
Für nur 30-40% (wie vielerorts kolpotiert) scheinen mir die vielen + Zeichen im vorherigen Satz irgendwie nicht passend...

grobi
2020-08-22, 01:15:43
Ich kaufe mir die RTX 3090 wenn sie verfügbar ist. Sollte von einer RTX 2070 Super ein großer Sprung werden.

mfg grobi

rentex
2020-08-22, 01:22:05
Dieses Kühlerdesign (sah man ja schon vor ein paar Monaten als mögliche Lösung durch die Leak-Medien geistern) bestätigt zumindest die Gerüchte dass Turing die TDP nochmals ordentlich nach oben drückt
Ich sehe jedenfalls nicht wie man daran nun keine zweifeln kann.

Die Frage ist daher nur wie viel mehr Leistung die Turing Generation auch wirklich auf die Strasse bringt, wenn man mit aufgebohrten Desigg + besserer Fertigungsprozess + mehr Strom daherkommt.
Für nur 30-40% (wie vielerorts kolpotiert) scheinen mir die vielen + Zeichen im vorherigen Satz irgendwie nicht passend...

Ampere!

TurricanM3
2020-08-22, 01:33:23
Was ein Klopper die 90. Bin mal gespannt wie die Wasserkühler aussehen werden. Hoffentlich dauert das nicht so ewig wie bei Turing. Da hab ich über 4 Monate auf den AC Kühler warten müssen. :(

BlacKi
2020-08-22, 01:38:00
Für nur 30-40% (wie vielerorts kolpotiert) scheinen mir die vielen + Zeichen im vorherigen Satz irgendwie nicht passend...
es wären bei einer 3090 mit 12gb vram wohl nur 23% mehr power, aber der 8nm prozess wird ja ebenfalls nochmals power ggü. 12nm einsparen. deswegen sehe ich da konservativ gedacht +50% ggü.2080tife für passend. vermutlich wirds mehr als 50% geben.

[MK2]Mythos
2020-08-22, 01:44:41
Ich bin überrascht wie positiv ihr das alle aufnehmt. Klar - der Monsterkühler wurde nicht aus Spaß an der Freude entwickelt, aber ich bin alles andere als begeistert. Vor nicht so langer Zeit hätte jeder hier "FAIL!" gerufen, egal ob das Ding von AMD oder NV gekommen wäre, jetzt wird er abgefeiert. Falls die 3080 (und alle darunter) nicht deutlichst kleiner werden, ist diese NV Generation für mich schon mal raus und ich kann nur hoffen, dass AMD etwas bringt, was ich auch noch in mein Gehäuse pflanzen kann. Ganz egal ob ich das Teil auf WaKü umbaue, oder nicht.
Ich hoffe echt, dass diese SUV gewordene Grafikkartengröße floppt und nicht zum neuen Standard wird.

MiamiNice
2020-08-22, 02:17:39
Ich vermute da hast Du jetzt schon verloren. Das Design schreit ja quasi die Kompromisslosigkeit heraus. I like it hard.

Cubitus
2020-08-22, 02:30:45
Könnte knapp werden im mAtx Gehäuse :freak:
Länger als 31,5 cm sollte das Ding nicht sein...

Triple Slot ist da aber jetzt nicht das Problem...

Armaq
2020-08-22, 02:31:22
Könnte knapp werden im mAtx Gehäuse :freak:
Ich hoffe sie denken daran, dass es nicht nur kubische Gehäuse gibt.

Leonidas
2020-08-22, 04:47:03
Fake. Wir sind 11 Tage vor der offiziellen Präsentation. Die offiziellen Preise gibt es erst dann.


Logo. Die Preisangaben stammen womöglich von einem Boardpartner - der natürlich kalkulieren muß, sonst kann man keine Karten & Launches vorbereiten. Aber dennoch kann sich an diesen Preisen bis zum Launchtag noch etwas ändern. Nur eben nicht mehr im gravierenden Maßstab. NV kann den AIBs nicht sagen "designt mal eurer zeugs" und setzt am letzten Tag dann den Listenpreis auf 50% dessen an, was man vorher gesagt hat. Änderung ja, möglich - aber im Rahmen.

Rampage 2
2020-08-22, 05:12:58
Ich halte die 1080Ti at 2150 Mhz konstant unter 40 Grad so lange die Raumtemp OK ist.

Wow, dann bist du ja ein richtiger Glückspilz:eek::up:

Gab es schon welche, die 2.2 GHz mit einer 1080Ti/TXp hinbekommen haben? :naughty:

dort ist kein pcb. die karte ist sehr kurz, nur der kühler ist sehr lang.

An dieser Stelle muss ich folgende Frage stellen:

Werden auch die kleineren Ampere-Chips (GA104, 106) kurze Platinen haben? Eigentlich ist das nicht nötig, weil der Speicher dieser Chips vermutlich nicht so hoch getaktet sein wird, da diese nicht so viel Bandbreite brauchen wie GA102. Kann man 18Gbps GDDR6 (ohne X) auch auf einem normalen(-großen) PCB hinbekommen? Die 2080S schafft ja 18Gbps auch oftmals:wink:


So werden beide Seiten gekühlt und es entsteht kein Wärmestau, da warme Luft zur.... CPU gebracht wird. :D

Genau das ist der Wurm, der mir seit Wochen im Kopf schwirrt: sollte die enorme Abwärme tatsächlich erfolgreich abgeführt werden, dann wird sie aber zu anderen Temperatur-kritischen Bauteilen (CPU, RAM, VRMs, auch NVMe-SSD) geblasen - wie soll ich meinen B-Die DDR4-Speicher unter 40°C halten, wenn sie von einer 350W Ampere-GPU kräftig geföhnt wird? :redface:

Und wie soll man so eine GPU in einem Midi-Tower und/oder geschlossenen Gehäuse (Stichwort "Tempered Glass") betreiben, ohne dass diese sich rasch in einen Backofen verwandelt? :|


Ich würde mal vorsichtig wetten, dass man fast alles einfach grob verdoppelt hat (Leistung 50 bis 75% besser durch die Bank, mit Optimierungen evtl. sogar mehr), [...] Ampere da ordentlich Power in den SMs haben muss.

deswegen sehe ich da konservativ gedacht +50% ggü.2080tife für passend. vermutlich wirds mehr als 50% geben.

Und wie soll das gehen? - dazu müsste Ampere mindestens 20% IPC-Steigerung (bei gleicher Taktbarkeit wie Turing) aufbringen und selbst das wäre vermutlich nicht genug...

R2

Thunderburne
2020-08-22, 06:44:51
Könnte knapp werden im mAtx Gehäuse :freak:
Länger als 31,5 cm sollte das Ding nicht sein...

Triple Slot ist da aber jetzt nicht das Problem...
Ui das könnte knapp werden die 2080 Ti hat schon 27cm wen mich nicht alles täuscht!

fondness
2020-08-22, 07:38:03
Ja, ich ging die ganze Zeit vorsichtig von $699 US bei AMD aus, aber das könnte dann in der Tat eine abgespeckte Variante sein, je nachdem, wieviel Leistung da aus N21 rauskommt, da er ja auch sehr gut taktbar sein soll. PCB und Kühler sollen ja noch nicht final sein, da kann AMD also evtl. noch feinabstimmen.

Jedenfalls, wenn NV solche Geschütze auffährt, ist da sicher ordentlich Power unter der Haube. Ich würde mal vorsichtig wetten, dass man fast alles einfach grob verdoppelt hat (Leistung 50 bis 75% besser durch die Bank, mit Optimierungen evtl. sogar mehr), da rein von den ALUs her kein großer Sprung erkennbar ist und da man ja von 12nm FFN auf 8nm LPP runtergeht, und trotzdem so einen fetten ~600mm² GA102 Die herausbekommen hat. Da höhere Taktraten so stark aufs Powerbudget schlagen und man ja Samsung gewählt hat, wird das wohl eher eine Stagnation. Also wieder ein Grund mehr, warum Ampere da ordentlich Power in den SMs haben muss.

Bei so viel mehr an Leistungsaufnahme ist hoffentlich mehr drinnen. Immerhin gab es solche Sprünge in der Vergangenheit auch, ohne die tdp derart anzuheben. Und einen shrink gibt's ja auch.

BlacKi
2020-08-22, 08:27:46
Und wie soll das gehen? - dazu müsste Ampere mindestens 20% IPC-Steigerung (bei gleicher Taktbarkeit wie Turing) aufbringen und selbst das wäre vermutlich nicht genug...

R2
jetzt drehe ich die frage mal um: wie soll die leistungsaufnahme zustandekommen, wenn nicht durch mehr takt oder höherer ipc? gemunkelt wird die theoretische verdoppelung der fp32 per tensor cores. takt scheint ja schon geleakt. somthing like that: https://www.computerbase.de/2020-05/nvidia-ampere-a100-gpu/#abschnitt_nvidia_berechnet_fp32_schneller_ueber_tf32

unl34shed
2020-08-22, 08:33:30
Betrieb außerhalb des sweet Spot?

ChaosTM
2020-08-22, 08:33:33
Wenn man Speicher und vielleicht auch CPU außerhalb der Specs bewegt, wirds heiß.

Oder es versteckt sich ein Co-Prozessor auf der Rückseite ;)

Daredevil
2020-08-22, 08:35:04
Mythos;12398623']Ich bin überrascht wie positiv ihr das alle aufnehmt. Klar - der Monsterkühler wurde nicht aus Spaß an der Freude entwickelt, aber ich bin alles andere als begeistert. Vor nicht so langer Zeit hätte jeder hier "FAIL!" gerufen, egal ob das Ding von AMD oder NV gekommen wäre, jetzt wird er abgefeiert. Falls die 3080 (und alle darunter) nicht deutlichst kleiner werden, ist diese NV Generation für mich schon mal raus und ich kann nur hoffen, dass AMD etwas bringt, was ich auch noch in mein Gehäuse pflanzen kann. Ganz egal ob ich das Teil auf WaKü umbaue, oder nicht.
Ich hoffe echt, dass diese SUV gewordene Grafikkartengröße floppt und nicht zum neuen Standard wird.
Je größer die Abgabefläche der Kühllösung ist, desto uninteressanter wird ne WaKü, sieht man bei den großen ( Custom ) 1080ti und 2080ti Designs ja schon, weil man mit einer WaKü kaum mehr als 10% mehr Leistung bekommt wie die beste Lukü, sprich der Kühler limitiert nicht stark.
Das wird durch so einen Brocken weiter ausgebaut und das finde ich persönlich halt gut, weil niemand ne WaKü für gute Leistung benötigt.
Das Ding ist nichts anderes wie ein DH15 auf ner CPU, aber klar, dafür braucht man halt Platz.

*Design und Lautstärke bei ner WaKü ist zwar toll, bringt dir in 4K aber keine FPS

nordic_pegasus
2020-08-22, 08:37:22
Betrieb außerhalb des sweet Spot?

warum sollte sich Nvidia soweit weg vom Sweet Spot bewegen? Ist der Samsung Prozess schlechter als gedacht oder AMD laut Nvidias Spitzeln so gut, dass man Takt geben muss?

ChaosTM
2020-08-22, 08:42:07
3 Slots, 3+cm Überstand , 350+ Watts -> eine "männliche" Grafikkarte ;)

Würde/werde diese SUV-Card auch kaufen, falls sie die halbwegs leise hinbekommen..

Daredevil
2020-08-22, 09:00:42
Betrieb außerhalb des sweet Spot?

Was ist ein Sweet Spot?
Der energetische Sweet Spot ( Perf/Watt ) liegt bei der 2080ti bei ~1500Mhz bei 0.7v, was hilft Nvidia das, wenn man die Karte dort betreibt?
Bei der VII sind es 1220Mhz, bei der 1080ti 1650Mhz, bei Vega 1Ghz.

Hilft keinem weiter, wenn man 4K befeuern will. Ist aber immer eine Option Wert für Spiele, die nicht viel Leistung brauchen.
Wenn das hier 350w und +50% sind zur 2080ti, bekommt man locker 200w und 2080ti Leistung hin, da haste dann deinen Sweetspot. ^^

BlacKi
2020-08-22, 09:03:43
gegen rießige kühler kann man doch nichts haben, ausser zu wenig platz?^^

welche custom kühlungen sind denn die beliebtesten? na, die besten eben. das verspricht ein rießiger kühler eben. the bigger the better:biggrin: ich vermute hier will nv seinen FE kühler in konkurenz mit den besten kühllösungen auf dem markt stellen. das geht halt nicht mit 2 slot und 267mm.

mal eine anderes thema. haltet ihr es für möglich das nur die FE das höhere PT bekommt, neben den besten kühllösungen der anderen herstellern. damit meine ich, es könnte doch sein das es 2 slot karten geben wird, mit einem PT von 250w zum msrp preis.

Cubitus
2020-08-22, 09:09:39
Ui das könnte knapp werden die 2080 Ti hat schon 27cm wen mich nicht alles täuscht!

Jupp 26,7 cm, also bleiben 4,8 cm Spielraum übrig.. :frown:
Aus der Traum von kompakten Gehäuse, so gesehen ist das eigl schon ein Rückschritt ;( Hätte nicht gedacht das es sich in die Richtung entwickelt..

gegen rießige kühler kann man doch nichts haben, ausser zu wenig platz?^^


Das ist in der Tat ein Problem....

Adam D.
2020-08-22, 09:16:34
Jupp 26,7 cm, also bleiben 4,8 cm Spielraum übrig.. :frown:
Aus der Traum von kompakten Gehäuse, so gesehen ist das eigl schon ein Rückschritt ;( Hätte nicht gedacht das es sich in die Richtung entwickelt..



Das ist in der Tat ein Problem....
Warum ist das ein Problem? Willst du eine 1500€-Karte in eine mATX-Gehäuse packen? Dann kauft man halt die 3080...

Troyan
2020-08-22, 09:19:16
Jupp 26,7 cm, also bleiben 4,8 cm Spielraum übrig.. :frown:
Aus der Traum von kompakten Gehäuse, so gesehen ist das eigl schon ein Rückschritt ;( Hätte nicht gedacht das es sich in die Richtung entwickelt..



Das ist in der Tat ein Problem....

Was? Es entwickelt sich seit Jahren nur nach oben und wird einzig durch Temp-Limit künstlich am Leben erhalten.

BlacKi
2020-08-22, 09:23:07
Das ist in der Tat ein Problem....
es wird IMHO auch kleinere karten geben. warum nehmen die leute automatisch an, das jede karte rießig wird?

unl34shed
2020-08-22, 09:24:54
warum sollte sich Nvidia soweit weg vom Sweet Spot bewegen? Ist der Samsung Prozess schlechter als gedacht oder AMD laut Nvidias Spitzeln so gut, dass man Takt geben muss?

Gibt da leider so weit ich weiß keinen brauchbaren Vergleich der Prozesse.
Bei Apples A9 war Samsung deutlich schlechter, das war allerdings noch 16nm.

Aktuell sprechen die Gerüchte mMn. irgendwie dafür, dass irgendwas nicht passt.

Warum sollte man die 3080ti streichen?
Warum wird jetzt die 3080 auf GA102 gehoben?
Warum explodiert auf einmal der Verbrauch?

Troyan
2020-08-22, 09:30:04
es wird IMHO auch kleinere karten geben. warum nehmen die leute automatisch an, das jede karte rießig wird?

Der Kühler der 3080 ist zwei Slots groß. Wieso das keine Alternative sein sollte, verstehe ich nicht.

Linmoum
2020-08-22, 09:32:42
Ist halt eine andere Leistungsklasse.

OgrEGT
2020-08-22, 09:33:22
Versteh ich auch nicht. Wenn die Karte ins alte Gehäuse nicht reinpasst und es unbedingt die 3090 sein soll dann muss halt ein neues Gehäuse her... Umbauen macht doch gerade Spaß :)

Cubitus
2020-08-22, 09:38:17
Warum ist das ein Problem? Willst du eine 1500€-Karte in eine mATX-Gehäuse packen? Dann kauft man halt die 3080...

Ja also so war es mal angedacht, ich hab eigl mit Max einem klassischen Triple Fan Kühler bei der Founders gerechnet. Das wäre bei dem Case jetzt nicht das Problem.. Aber der Kühler ist im Vergleich zum 2080 Kühler riesig und das soll dann Referenz sein!? Das kann man ja wohl anzweifeln..

Zudem finde ich den neuen Kühler hässlich, das ist einfach nur ein schwarzer Heizblock :freak:

Der Kühler der 3080 ist zwei Slots groß. Wieso das keine Alternative sein sollte, verstehe ich nicht.

Die Slots sind auch gar nicht das Problem, es ist die Länge der Karte, aber wer weiß vielleicht ich das Teil ja auch "nur" 315 mm lang, dann passt es..

Ist halt eine andere Leistungsklasse.

Genau so ist es.

es wird IMHO auch kleinere karten geben. warum nehmen die leute automatisch an, das jede karte rießig wird?

Ja meinste, die Boardpartner kochen auch nur mit Wasser, die FE ist Referenz..

BlacKi
2020-08-22, 09:41:13
FE ist keine referenz mehr.



Zudem finde ich den neuen Kühler hässlich, das ist einfach nur ein schwarzer Heizblock :freak:
gerade das gefällt mir an dem kühler^^

Troyan
2020-08-22, 09:42:36
Die Slots sind auch gar nicht das Problem, es ist die Länge der Karte, aber wer weiß vielleicht ich das Teil ja auch "nur" 315 mm lang, dann passt es..


Glück für dich: Sind nur 310mm: https://twitter.com/usmanpirzada/status/1296960868987674624?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1296960 868987674624%7Ctwgr%5E&ref_url=https%3A%2F%2Fforums.anandtech.com%2Fthreads%2Fampere-next-gen-gaming-uarch-speculation-thread.2572510%2Fpage-94

;D

HarryHirsch
2020-08-22, 09:54:56
"2,75" Slot ist echt super dann passt in den 3. Slot noch ne 0,25 Slot Karte

Thunder99
2020-08-22, 09:56:57
Ich bleibe dabei, es ist irgendwas schief gelaufen im Design oder Planung. Wenn der RAM überproportional mehr Energie benötigt als geplant und der Chip auch, da das Energie-Ziel nicht erreicht worden ist mussten sie nun mit der Brechstange dran.

Wie gut, dass ich nicht die Geschwindigkeit brauche da ich noch viele "alte" Spiele habe die kein RT haben oder nur nice to have sind (TR). :)

Ich bin der Meinung es kann nicht und soll immer mehr Energie verbraucht werden. 250W war für mich ein guter Sweetpoint. 100W mehr ist da durchaus problematisch finde Ich...

Jupiter
2020-08-22, 09:57:53
Ich denke bei mir könnte eine Grafikkarte auch über 40 cm lang sein. Die RTX 3090 wird mir eher zu Preisintensiv. Mir gefielen die 8 nm nicht, aber wenn sie mehr als 12 GB Speichr haben, wird es wieder interssant.

Troyan
2020-08-22, 10:01:44
Ich bleibe dabei, es ist irgendwas schief gelaufen im Design oder Planung. Wenn der RAM überproportional mehr Energie benötigt als geplant und der Chip auch, da das Energie-Ziel nicht erreicht worden ist mussten sie nun mit der Brechstange dran.


Bandbreite benötigt immer mehr Energie. Vollkommen egal, ob schnellerer Speicher oder breiteres Interface.

nordic_pegasus
2020-08-22, 10:03:06
Zudem finde ich den neuen Kühler hässlich, das ist einfach nur ein schwarzer Heizblock :freak:


soll da lieber eine Plastik-Shroud drüber und viel RGB-BlingBling? Der Kühler ist halt funktional, was ich nicht negativ bewerte.

fondness
2020-08-22, 10:03:48
Ich bleibe dabei, es ist irgendwas schief gelaufen im Design oder Planung. Wenn der RAM überproportional mehr Energie benötigt als geplant und der Chip auch, da das Energie-Ziel nicht erreicht worden ist mussten sie nun mit der Brechstange dran.

Wie gut, dass ich nicht die Geschwindigkeit brauche da ich noch viele "alte" Spiele habe die kein RT haben oder nur nice to have sind (TR). :)

Ich bin der Meinung es kann nicht und soll immer mehr Energie verbraucht werden. 250W war für mich ein guter Sweetpoint. 100W mehr ist da durchaus problematisch finde Ich...

Abwarten. Wenn das Ding ordentlich mehr Leistung bringt ist nichts schief gelaufen. Wenn sie die 40% mehr Leistungsaufnahme aber benötigen, um den üblichen Leistungssprung zu erreichen, dann ist wohl schon etwas schief gelaufen.

Thunder99
2020-08-22, 10:03:59
Bandbreite benötigt immer mehr Energie. Vollkommen egal, ob schnellerer Speicher oder breiteres Interface.
Wird das durch die bessere/kleinere Fertigungstechnik nicht wieder aufgehoben bzw entgegen gewirkt? :confused:

unl34shed
2020-08-22, 10:04:11
Bandbreite benötigt immer mehr Energie. Vollkommen egal, ob schnellerer Speicher oder breiteres Interface.

*hust* HBM *hust* :tongue:

dildo4u
2020-08-22, 10:07:32
HBM2 wäre effektiver, Nvidia hat z.b die Bandbreite bei Volta Refresh 2019 noch mal erhöht ohne das TDP zu sprengen.


1.1TB bei 250 TDP.

https://blog.exxactcorp.com/exxact-tensorex-servers-now-available-with-nvidia-tesla-v100s-gpus-to-accelerate-hpc-and-ai-workloads/

Cubitus
2020-08-22, 10:08:15
Glück für dich: Sind nur 310mm: https://twitter.com/usmanpirzada/status/1296960868987674624?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1296960 868987674624%7Ctwgr%5E&ref_url=https%3A%2F%2Fforums.anandtech.com%2Fthreads%2Fampere-next-gen-gaming-uarch-speculation-thread.2572510%2Fpage-94

;D

Dafuq: ;D;D

Okay, das gibt mir Zeit auf den Wasserkühler zu warten..
Die Platine ist an sich ja kurz, und Platz für einen normalen 360er im Deckel hab ich..
Mittelfristig wird Ampere unter Wasser kommen, das macht bei der Karte und meinem Case am meisten Sinn..

ChaosTM
2020-08-22, 10:09:53
*hust* HBM *hust* :tongue:


Weniger Marge *hust


Dann lieber den Kunden leiden lassen ;)

Troyan
2020-08-22, 10:10:42
Wird das durch die bessere/kleinere Fertigungstechnik nicht wieder aufgehoben bzw entgegen gewirkt? :confused:

Beim Chip.
Aber bei 512bit vergeudest du zusätzlich mehr Transistoren für mehr Interfaces, die man entweder für andere Sachen verwenden oder einfach weglassen kann. Deswegen produziert nVidia auch keine 512bit Chips mehr seit GT200.

nordic_pegasus
2020-08-22, 10:14:23
spart man denn mit 384bit SI so viel ein im Vergleich zu 512bit SI? Ich dachte die Probleme kommen eher durch das Verteilen der Speicherchips auf dem PCB, wodurch kaum noch Platz für andere Leiterbahnen bleibt.

prinz_valium_2
2020-08-22, 10:25:24
Wenn die $399 für eine 3060 stimmen.

spart man denn mit 384bit SI so viel ein im Vergleich zu 512bit SI? Ich dachte die Probleme kommen eher durch das Verteilen der Speicherchips auf dem PCB, wodurch kaum noch Platz für andere Leiterbahnen bleibt.

Ja.
Das 320bit interface der Series X hat 11% der die Fläche von 360mm²


Also für ein 32bit channel so ca 3 bis 5mm²
Und bei einem riesen chip können die 20mm² mehr dann schon mal eine Menge ausmachen bei den yields ob sie noch akzeptabel sind, oder schlecht.
Wenn du 1TB/s mit 384 schaffst, warum auf 512 gehen?

Zergra
2020-08-22, 10:32:08
Weniger Marge *hust


Dann lieber den Kunden leiden lassen ;)
Wieso weniger Marge, wenn die 3090 mit HBM2 dann 1600-1700Dollar kostet wäre das Geschrei groß.

Selbst AMD wird in der nächsten Zeit kein HBM verbauen, auch wenn einige das hoffen. NV weiß genau warum sie kein HBM einbauen, und AMD hat es auch gelernt. Bester Beweiß ist die 5700 Serie.



Der Kühler ist echt fett, gefällt mir. Mir FC Wasserblock würde das eine kleine schnuckelige Karte ergeben.
Preislich will ich aber nicht mehr als 1000€ ausgeben, also wird es die 3080.

nordic_pegasus
2020-08-22, 10:35:23
https://youtu.be/CPuCkuFeC9A

Igors Senf zu den Bildern

Edit: wie muss ich den Link formatieren, damit das Youtube-Video eingebettet wird?

Zergra
2020-08-22, 10:40:33
https://youtu.be/CPuCkuFeC9A

Igors Senf zu den Bildern

Edit: wie muss ich den Link formatieren, damit das Youtube-Video eingebettet wird?
Nur CPuCkuFeC9A

CPuCkuFeC9A

dargo
2020-08-22, 10:43:10
https://youtu.be/CPuCkuFeC9A

Igors Senf zu den Bildern

Brandschutzanzug und Feuerlöscher hat er schon bereit für Ampere. ;D

Edit:
Ich hoffe echt AMD bringt nicht so einen Heizofen. Ansonsten wird das ein sehr langweiliges 2020/2021 für mich. ;(

Cubitus
2020-08-22, 10:43:29
Eher Black Fatty....:freak:

nordic_pegasus
2020-08-22, 10:46:29
Moore's Law hat sich auch zu dem Foto ausgelassen

AjRog2bc3Bw

Edit: ich bin echt zu blöd, die Videos einzubetten... geschafft ;-)

Edit2: Moore's Law sagt, dass die 3090 entweder mit drei 8-Pin Anschlüssen oder dem neuen 12-Pin Anschluss kommen wird. Wobei Nvidia einen Adapter von dreimal 8-Pin zu 12-Pin bei der FE beifügen wird. Wieviele 12Volt Leitungen werden in diesem neuen 12-Pin Anschluss verbaut sein? Ich hätte auf 6x 12V und 6x Masse getippt. Aber dann würden doch zwei 8-Pin Anschlüsse genügen (jeweils drei 12V-Leitungen).

[MK2]Mythos
2020-08-22, 10:53:27
Ihr tut ja so als ob das fette Dibg ein Geschenk NVIDIAs ist um eine leise und kühle Enthusiasten GPU unter den Mann zu bringen. Ich gehe jede Wette ein dass der Kühler absolut nötig ist um die Karte überhaupt irgendwie betreiben zu können. Und das geht dann doch eher Richtung Thermi 2.0.

Scose
2020-08-22, 10:53:36
Hmm, die dürfte bei mir dann nicht mehr passen. Schon die Strix benötigte eine spezielle Einbaureihenfolge :rolleyes:

https://abload.de/thumb/img_20200514_205559lpj9q.jpg (https://abload.de/image.php?img=img_20200514_205559lpj9q.jpg)

https://abload.de/thumb/img_20200514_20545929j0t.jpg (https://abload.de/image.php?img=img_20200514_20545929j0t.jpg)

https://abload.de/thumb/img_20200514_205543qwk77.jpg (https://abload.de/image.php?img=img_20200514_205543qwk77.jpg)

Zergra
2020-08-22, 10:56:56
Moore's Law hat sich auch zu dem Foto ausgelassen

https://youtu.be/AjRog2bc3Bw

Edit: ich bin echt zu blöd, die Videos einzubetten...

Du musst einfach nur die ID des Videos nehmen und dann auf Youtube Video gehen...
Ohne Leerzeichen da drin, quasi wie eine Url.
AjRog2bc3Bw

[MK2]Mythos
2020-08-22, 11:00:36
Je größer die Abgabefläche der Kühllösung ist, desto uninteressanter wird ne WaKü, sieht man bei den großen ( Custom ) 1080ti und 2080ti Designs ja schon, weil man mit einer WaKü kaum mehr als 10% mehr Leistung bekommt wie die beste Lukü, sprich der Kühler limitiert nicht stark.
Das wird durch so einen Brocken weiter ausgebaut und das finde ich persönlich halt gut, weil niemand ne WaKü für gute Leistung benötigt.
Das Ding ist nichts anderes wie ein DH15 auf ner CPU, aber klar, dafür braucht man halt Platz.

*Design und Lautstärke bei ner WaKü ist zwar toll, bringt dir in 4K aber keine FPS
1) Ist die Kühlfläche (m)einer WaKü um viele Dimensionen größer und
2) ist das feine an einer WaKü ja hauptsächlich, dass du die Wärme dediziert an einen Ort transportieren kannst, wo sie nicht stört und *leise* abtransportiert werden kann -> Außerhalb des Gehäuses. Dieses Ampere-SUV-Monster wird den Usern alle Komponenten im Gehäuse richtig grillen und dabei sicherlich auch nicht leise bleiben

rm-zocker
2020-08-22, 11:01:47
Eigentlich wollte ich mir eine 3080 kaufen aber 800 Euro finde ich schon heftig. Ich hab hier 200 Euro Mediamarkt Gutscheine gehortet aber nochmal 600 Euro draufzahlen das stört mich.

r3ptil3
2020-08-22, 11:02:24
Hmm, die dürfte bei mir dann nicht mehr passen. Schon die Strix benötigte eine spezielle Einbaureihenfolge :rolleyes:

https://abload.de/thumb/img_20200514_205559lpj9q.jpg (https://abload.de/image.php?img=img_20200514_205559lpj9q.jpg)

https://abload.de/thumb/img_20200514_20545929j0t.jpg (https://abload.de/image.php?img=img_20200514_20545929j0t.jpg)

https://abload.de/thumb/img_20200514_205543qwk77.jpg (https://abload.de/image.php?img=img_20200514_205543qwk77.jpg)


Eine Custom 3080 tut's doch auch.

Die grösse der 3090 ist wirklich abartig, aber irgendwie auch geil. Kompromisslose Leistung halt.

nordic_pegasus
2020-08-22, 11:03:29
Du musst einfach nur die ID des Videos nehmen und dann auf Youtube Video gehen...
Ohne Leerzeichen da drin, quasi wie eine Url.
AjRog2bc3Bw

wenn ich einen Beitrag mit Video zitiere, steht im Quelltext [URL]. Darum habe ich immer versucht die Dinger mit URL einzubetten. Den [YT] Code kannte ich nicht. Danke.

dargo
2020-08-22, 11:07:05
Die grösse der 3090 ist wirklich abartig, aber irgendwie auch geil. Kompromisslose Leistung halt.
Also für mich sieht das eher nach Verzweiflung aus. Man musste die TDP deutlich anheben damit Ampere sich überhaupt noch einigermaßen von Turing absetzen kann. Die Folge davon ist dann so ein fetter Klotz damit der Heizofen überhaupt noch überlebensfähig ist. Ich frage mich auch ob es hier nicht schlauer gewesen wäre das Ding mit ner AIO auszustatten. Für 155$ sollte da auch ne brauchbare AIO drin sein. Aber wahrscheinlich war hier das Problem die Kühlung der Rückseite.

mironicus
2020-08-22, 11:11:16
AMD dürfte imho nach der Vorstellung der 3090 keine Problem damit haben, die Effizienzkrone zurückzuerlangen. Damit verspielt NVidia meiner Meinung nach einen Bonus, den sie jahrelang hatten.

dildo4u
2020-08-22, 11:13:08
AMD dürfte imho nach der Vorstellung der 3090 keine Problem damit haben, die Effizienzkrone zurückzuerlangen. Damit verspielt NVidia meiner Meinung nach einen Bonus, den sie jahrelang hatten.
Die 3080 wird dort liegen bei vergleichbarem TDP.
AMD hat den Nachteil das sie mit 16GB kommen müssen damit es kein Rückschritt zu Vega 7 wird.

dargo
2020-08-22, 11:14:34
Erstmal abwarten welche Betriebspunkte AMD bei RDNA 2 wählt. Wenn der Top Dog tatsächlich in der Performanceregion einer 3090 mitspielt dann würde es mich nicht überraschen wenn irgendein Heini bei AMD wieder die falschen Entscheidungen trifft und RDNA 2 mal wieder hochprügelt womit die Effizienz dann wieder leidet. Und das ganze dann nur damit man 5% in Benchmarks vorne liegt. :uhammer2:

MiamiNice
2020-08-22, 11:16:57
Versteh ich auch nicht. Wenn die Karte ins alte Gehäuse nicht reinpasst und es unbedingt die 3090 sein soll dann muss halt ein neues Gehäuse her... Umbauen macht doch gerade Spaß :)


Der beste Post seit Seiten. Danke :up:

soll da lieber eine Plastik-Shroud drüber und viel RGB-BlingBling? Der Kühler ist halt funktional, was ich nicht negativ bewerte.

Sehe ich ähnlich.

wolik
2020-08-22, 11:19:11
...Kompromisslose Leistung halt.
Darüber wissen wir nichts. Alles, unter 50% (ohne RT) ,wird nur lächerlich (nach solche Aufwand) empfunden. Wir warten ab.

r3ptil3
2020-08-22, 11:19:54
@mironicus
Vermutlich wird sich AMD nicht mit einer 3090 messen können, sondern mit einer 3080 und wenn AMD einen sehr guten Job macht, sind sie mit einer 3080 vielleicht gleichauf was Effizienz angeht.

Bei der 3090 geht es vielleicht auch mehr darum zu zeigen was man kann - kompromisslos halt.

Kann natürlich auch anders aussehen, in dem vielleicht AMD doch in andere Sphären vordringt und vor einem Jahr eine 3090 in dieser Form noch gar nicht vorgesehen war, sondern eher etwas mit 20-30% weniger Leistung.

Wenn die 3090 über 50% Leistung bringt und man die letzten Jahre betrachtet, ist dies dann doch überproportional und hat vermutlich schon seine Gründe.

rentex
2020-08-22, 11:21:16
Der beste Post seit Seiten. Danke :up:

Man könnte natürlich auf die Costums warten und nicht gleich ein neues Gehäuse besorgen:rolleyes:

[MK2]Mythos
2020-08-22, 11:23:44
Sieht für mich immer mehr danach aus dass NV mitbekommen hat, wie effizient/skalierbar und damit schnell RDNA2 wird. Das Ergebnis aus NVs Leistungsprognose sehen wir jetzt in Form der 3090. Alles, um die Krone zu behalten.

Scose
2020-08-22, 11:24:39
Nur sind customs meist in allen Dimensionen grösser als die FE's....

mironicus
2020-08-22, 11:30:54
Schade das NVidia kein AIO-Wasserkühlungsmodell anbietet, denn die eigentliche Platine der Ampere-Grafikkarten sind ja sehr kurz (und passt dann besser in kleinere Gehäuse) und mit einem einzelnen 14 cm-Lüfter sicherlich gut kühlbar.

Lowkey
2020-08-22, 11:31:32
Eine FE Wakü Edition treibt die Kosten um + 200 Euro.

rentex
2020-08-22, 11:32:27
Nur sind customs meist in allen Dimensionen grösser als die FE's....

Du siehst, nicht alles ist für immer gleichbleibend...

[MK2]Mythos
2020-08-22, 11:34:07
Du siehst, nicht alles ist für immer gleichbleibend...
Dann denkst du, dass die Customs kleiner als die FE werden? I doubt it! :D

mironicus
2020-08-22, 11:36:31
Meint ihr, dass ein Custom-Hersteller die 3090 auch in diesen Größen anbieten kann?
https://geizhals.de/asus-dual-geforce-rtx-2080-ti-oc-90yv0c41-m0na00-90yv0c41-m0nm00-a1870829.html

Die sitzt in meinen System, wichtig ist vor allem die Länge von nicht mehr als 270 mm. Von mir aus kann die Karte auch über 3 Slots groß sein.

rentex
2020-08-22, 11:37:03
Mythos;12398889']Dann denkst du, dass die Customs kleiner als die FE werden? I doubt it! :D

Durchaus...warum nicht? Weil es immer schon so war?
Wenn man es nicht besser wüsste, könnte man meinen das es hier ein Forum für Kleingärtnerei ist.
Mit Tipps zum "bewässern" und so...;D

Fliwatut
2020-08-22, 11:39:41
Eine FE Wakü Edition treibt die Kosten um + 200 Euro.
Für die $155, die der Kühler auf der FE angeblich kosten soll, hätte man wohl auch eine AIO Wakü bekommen.

MiamiNice
2020-08-22, 11:40:37
Mythos;12398879']Sieht für mich immer mehr danach aus dass NV mitbekommen hat, wie effizient/skalierbar und damit schnell RDNA2 wird. Das Ergebnis aus NVs Leistungsprognose sehen wir jetzt in Form der 3090. Alles, um die Krone zu behalten.

Hört sich für mich nach einem Wunschtraum von jemanden mit roter Brille an.
Ich vermute BN kann sich gerade mal mit der 3070 anlegen so lange wir bei RTX off bleiben. Mit RTX on nicht mal mit der 3070.