Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3090 Review-Thread
Seiten :
1
[
2]
3
4
5
6
7
8
9
10
11
12
whtjimbo
2020-09-25, 11:22:22
Ich finds ja lustig, wie teilweise argumentiert wurde bei der 3080: da limitiert auf jeden Fall ne AMD CPU weil HighFPS Gaming auf 1080p, dass macht doch jeder. Release 3090: 8K ist der neue Standard ihr Trottel ... wie die Fähnchen im Wind.
ja die Macht des Marketings, deswegen will ja keiner Ingenieur werden sondern als "Content Creator" die Welt bereichern mit seiner fundierten Meinung
kunibätt
2020-09-25, 11:23:00
Ist der Betrieb von zwei Karten auf Mainboards ohne extra 6 PIN-Anschluss weiterhin möglich?
Rancor
2020-09-25, 11:24:20
Leute entspannt euch doch mal. Es wird auch noch 3080er 70iger Karten mit mehr VRAM geben.
Und wenn nicht dann überspring halt die Generation wenn euch 1,5k € zu viel sind.
Oder wartet eben auf RDNA2.
hlynska
2020-09-25, 11:24:32
Klingt plausibel und nach sinnlos gespitztem Rotstift, chapeau:
Was wirklich hinter den Abstürzen und Instabilitäten der GeForce RTX 3080 und RTX 3090 stecken könnte (https://www.igorslab.de/was-wirklich-hinter-den-abstuerzen-und-instabilitaeten-der-geforce-rtx-3080-und-rtx-3090-stecken-koennte-investigativ)
Daredevil
2020-09-25, 11:27:36
Leute entspannt euch doch mal. Es wird auch noch 3080er 70iger Karten mit mehr VRAM geben..
Und wann?
Si|encer
2020-09-25, 11:31:28
Doch, immer noch. :rolleyes:
Ist das so schwer zu verstehen? Der Name Titan wird wahrscheinlich auch gar nicht mehr auftauchen.
Linus Tech Tipps hat gestern orakelt, wenn eine Titan noch kommen würde, ob diese dann wohl 3000 Dollar kostet.
Denn es gibt wohl Benchmarks im 3D Anwendungsbereich da ist die 3090 langsamer als eine "alte" TitanRTX.
YjcxrfEVhc8 ca ab 09 Mins.
ChaosTM
2020-09-25, 11:34:45
Die 48GB Titan kommt bestimmt.
Das lässt sich NV nicht entgehen.
Der Markt ist vorhanden.
Dural
2020-09-25, 11:37:42
Nein ist nicht vorhanden, da der 48GB wie schon zu vor durch Quadro Karten abgedeckt wird. :rolleyes:
Lawmachine79
2020-09-25, 11:46:49
Man kann auch sagen: genauso gut ungeeignet wie die 3090.
Wo ist das Problem? 4k mausert sich gerade zum Standard, im Moment habt es noch ein paar Nachteile, die auch da neue HDMI nur teilweise ausräumen kann. Der nächste Schritt ist 8k. Nur - wann soll der Schritt denn anfangen? Wenn alle Grafikkarten da schon 144fps liefern? Irgendwann mit 780TI/980TI rückte 4k im Fokus und es war auch nicht sofort flüssig spielbar. Irgendeine Grafikkartengeneration muss aber mal den Fuß in die Tür stellen und das ist jetzt halt Ampere.
Und mal eine einfache Konrollüberlegung: 8k benötigt die 4-fache Performance von 4k. Erst jetzt wird für High-End-Karten der Bereich über 60fps in nahezu jedem Spiel erschlossen. Hat hier jemand jemals einen Perfomancesprung von 4-fach innerhalb eine Kartengeneration erlebt (Vielleicht tatsächlich, Voodoo 2-SLI könnte so ein Beispiel sein)?
Dural
2020-09-25, 12:10:24
Ist das der 8-Pin Stecker der die Gigabyte Karten haben?
Kann das jemand mit so einer Karte überprüfen?
https://www.molex.com/molex/products/part-detail/crimp_housings/2004561218
Mr.Smith
2020-09-25, 12:26:38
powertarget von 320W
oder wo liegt der sweetspot?
Lawmachine79
2020-09-25, 12:29:15
powertarget von 320W
oder wo liegt der sweetspot?
Mit diesem Mindset kauft man sich besser einen Diesel als eine Highendgrafikkarte.
Dural
2020-09-25, 12:31:19
Die 3090 hängt selbst in 4k im cpu limit, erst mit 8k schlägt die leistung voll durch. Ich will eine 3090, nur finde ich keine...
https://youtu.be/MnIJqGZE1jQ
Cubitus
2020-09-25, 12:31:45
Ich finds ja lustig, wie teilweise argumentiert wurde bei der 3080: da limitiert auf jeden Fall ne AMD CPU weil HighFPS Gaming auf 1080p, dass macht doch jeder. Release 3090: 8K ist der neue Standard ihr Trottel ... wie die Fähnchen im Wind.
Die 1080GTX wurde damals auch schon als zukünftiges 4K Gerät angepriesen, dann kam Turing mit der ging es dann schon etwas besser und die 30er Gen ist jetzt schon für 4K brauchbar...
8k ,sehen wir dann in der übernächsten GEN wirklich etabliert...
Bitte weiter gehen, hier gibt es nichts zu sehen...
+45% zur alten Gen. *gähn*....
Eigentlich ne echt geile "Tim Taylor Männer" Karte :freak:
Aber würde dafür maximal 999.- hinlegen :biggrin:
Nein, eigentlich nicht mal das. (dafür hätte sie unter 300Watt bleiben müssen :tongue:)
Abgesehen davon, das ich über 100°c auf dem "tollen" GDDR6X RAM echt nicht geil finde.
Tja, wäre eigentlich ne gute Möglichkeit für AMD was besseres zu zeigen ;)
M.f.G. JVC
Redneck
2020-09-25, 12:54:47
Mit diesem Mindset kauft man sich besser einen Diesel als eine Highendgrafikkarte.
Es spricht absolut nichts dagegen auch Highend optimiert zu betreiben !
Man muß ja keine Geldscheine verbrennen, wenns nicht nötig ist, auch wenn man es könnte.
Manch einer hat auch gerne grossen Hubraum und fährt den sparsam als einen 1 Liter Motor , der aus dem letzten Loch pfeift.
Platos
2020-09-25, 12:57:36
Ich finds ja lustig, wie teilweise argumentiert wurde bei der 3080: da limitiert auf jeden Fall ne AMD CPU weil HighFPS Gaming auf 1080p, dass macht doch jeder. Release 3090: 8K ist der neue Standard ihr Trottel ... wie die Fähnchen im Wind.
Also es stimmt zumindest, dass die beiden Karten bei 1080p/1440p ordentlich ins CPU-Limit geraten (bei jeder CPU).
Und für mich ist 8k schon lange das Ziel. Schon seit 2016, als ich per DSR anfing in "8k" zu spielen auf dem 4k TV.
Und die Leute, die sagen, man sehe keinen Unterschied... Kauft euch ne Brille ;)
Gerade bei Vegetation (Grass, Büsche, feine Blätter an Bäumen) ist 8k ein deutlicher Unterschied zu 4k.
Und spiel mal 4k per DSR auf einem 1080p Monitor und vergleiche es mit nativem 4k. Dann kannst du dir vlt. vorstellen, was natives 8k ist ;)
Aber ist klar, es gibt auch Leute, die behaupten, mehr als 1440p sieht man nicht ;D
Redneck
2020-09-25, 12:58:10
Ich finds ja lustig, wie teilweise argumentiert wurde bei der 3080: da limitiert auf jeden Fall ne AMD CPU weil HighFPS Gaming auf 1080p, dass macht doch jeder. Release 3090: 8K ist der neue Standard ihr Trottel ... wie die Fähnchen im Wind.
Laß sie doch... irgend jemand muß die handgelöteten 3090er ja kaufen :-)
Lawmachine79
2020-09-25, 13:04:33
Man muß ja keine Geldscheine verbrennen, wenns nicht nötig ist, auch wenn man es könnte.
Bei "Wenn es nicht nötig ist" stimme ich ja zu. Wenn ich eine Karte für stabilen Lauf nicht runtertakten muss, würde ich auch undervolten. Ich würde aber eher für 20% Mehrleistung auch 50% mehr Verbrauch hinnehmen und schon funktioniert das "wenns nicht nötig"-Schema ist nicht mehr, denn in dem Fall ist es nötig. Wir reden hier ja über lächerlich geringe Zahlen, über 50 Watt mehr oder weniger - ich habe 4 Durchlaucherhitzer im Haus, da lache ich mir über die paar Amperewatt doch den Arsch ab. Davon ab, ich spiele bestenfalls 1-2 Stunden am Tag, die will ich dann aber auch auf "absolut sorgenfrei und Erlebnis" spielen (deshalb auch VR-Zeug). Grundsätzlich verbrauchen PC-Komponenten zu wenig Strom als dass Effizienz wichtig wäre. Bei Durchlauferhitzern verstehe ich das ja, bei Autos, wo wir über ganz andere Monatskosten reden auch, aber bei High-End-PC-Komponenten? Echt jetzt?
whtjimbo
2020-09-25, 13:13:17
Und die Leute, die sagen, man sehe keinen Unterschied... Kauft euch ne Brille ;)
Gerade bei Vegetation (Grass, Büsche, feine Blätter an Bäumen) ist 8k ein deutlicher Unterschied zu 4k.
Und spiel mal 4k per DSR auf einem 1080p Monitor und vergleiche es mit nativem 4k. Dann kannst du dir vlt. vorstellen, was natives 8k ist ;)
Aber ist klar, es gibt auch Leute, die behaupten, mehr als 1440p sieht man nicht ;D
Also ich gucke beim Spielen manchmal aus dem Fenster heraus, da sieht die Vegetation doch irgendwie realistischer aus. Ob es schon bei der nächsten Generation so weit ist?
Schnoesel
2020-09-25, 13:16:08
Geht auch nicht um Kosten sondern um Abwärme. Ich will einen leisen PC und meine externe Custom Wakü ist ausreichend dimensioniert und dennoch werde ich für eine 3080er die Lüfter schon um eine Stufe höher stellen müssen und ehrlich gesagt, das nervt mich schon.
Immer mehr Leistung durch vorwiegend mehr Strom ist halt nicht smart. Ganz im Gegenteil. Hätte Nvidia mal lieber nicht geizen sollen und den Deal mit TSMC machen sollen anstatt zu pokern und bei Samsung fertigen zu lassen. Meine Meinung.
Redneck
2020-09-25, 13:20:53
Bei "Wenn es nicht nötig ist" stimme ich ja zu. Wenn ich eine Karte für stabilen Lauf nicht runtertakten muss, würde ich auch undervolten. Ich würde aber eher für 20% Mehrleistung auch 50% mehr Verbrauch hinnehmen und schon funktioniert das "wenns nicht nötig"-Schema ist nicht mehr, denn in dem Fall ist es nötig. Wir reden hier ja über lächerlich geringe Zahlen, über 50 Watt mehr oder weniger - ich habe 4 Durchlaucherhitzer im Haus, da lache ich mir über die paar Amperewatt doch den Arsch ab. Davon ab, ich spiele bestenfalls 1-2 Stunden am Tag, die will ich dann aber auch auf "absolut sorgenfrei und Erlebnis" spielen (deshalb auch VR-Zeug). Grundsätzlich verbrauchen PC-Komponenten zu wenig Strom als dass Effizienz wichtig wäre. Bei Durchlauferhitzern verstehe ich das ja, bei Autos, wo wir über ganz andere Monatskosten reden auch, aber bei High-End-PC-Komponenten? Echt jetzt?
Du bist halt ein anderer Typ von Mensch... ich versuche alles zu optimieren.
Law.. ganz ehrlich.. ich denke Du redest dir da etwas ein oder schön.
Wenn Du die Knete hast dir eine 3090 zu holen und anderen gegenüber ihr "mindset" ansprichst (was imho sehr überheblich rüberkommt) und auf der anderen Seite aber von deinen Durchlauferhitzern als Stromfresser im Haus sprichst, frage ich mich ob deine Prioritäten richtig gesetzt sind.
So wie das aussieht knallst du ja überall Energie raus und es scheint dir nicht wirklich etwas auszumachen... ich denke mit der Einstellung bist du eher in der Minderheit.
Lawmachine79
2020-09-25, 14:42:57
Du bist halt ein anderer Typ von Mensch... ich versuche alles zu optimieren.
Law.. ganz ehrlich.. ich denke Du redest dir da etwas ein oder schön.
Wenn Du die Knete hast dir eine 3090 zu holen und anderen gegenüber ihr "mindset" ansprichst (was imho sehr überheblich rüberkommt) und auf der anderen Seite aber von deinen Durchlauferhitzern als Stromfresser im Haus sprichst, frage ich mich ob deine Prioritäten richtig gesetzt sind.
So wie das aussieht knallst du ja überall Energie raus und es scheint dir nicht wirklich etwas auszumachen... ich denke mit der Einstellung bist du eher in der Minderheit.
Unter den 3090-Käufern - und das ist die Vergleichsgruppe - wäre ich mir nicht sicher, ob ich die Minderheit bin. Und wie gesagt, ich rede hier über Verbrauch, nicht über den Preis der Karte (über den reden wir in einem anderen Thread). Unter den Haushaltsgeräten ist der PC nicht der Energiefresser - Bottom Line: ich verstehe es (und würde es auch so machen), wenn jemand, wenn er damit die gleiche Wassertemperatur erhält, einen 40kw-DLH gegen einen 21KW-DLH tauscht; da reden wir über ganz andere Unterschiede auf der Stromrechnung und die "Leistung", die für einen DLH-Benutzer die erzeugbare Temperatur ist, ist gleich.
Bottom Line: wieso soll sich jemand, der sich eine 1500 Euro Grafikkarte kauft (und da gehe ich gerne runter bis zur 500 Euro Grafikkarte) für Energieeinsparungen im Promillebereich (bezogen auf die Jahresrechnung) interessieren? Das ist doch ein vorgeschobenes Argument der AMD-Markenbotschafter (lol, gerade die reden über Energieverbrauch).
Und was die Überheblichkeit angeht. Keine Sau auf der Welt braucht einen Gaming-PC. Ich bin hier nicht im Forum der Tafel Berlin Kreuzberg und erzähle, wie ich mir die Plauze mit Kaviar gefüllt habe. Ich bin hier unter Leuten, die sich über einen Luxusgegenstand unterhalten, worunter aus meiner Sicht JEDER Gaming-PC fällt. Von daher sehe ich nicht, wo hier - unter anderen Luxuskonsumenten - Raum für Überheblichkeit ist. Ich gönne hier jedem eine auch zehnmal dickere Grafikkarte als ich sie habe (ja, ist schwer ;) - aber ich hatte auch mal "kleine Hardware").
Dural
2020-09-25, 14:54:36
Ich glaube wenn sich einer eine Grafikkarte für 1500.- + kauft, dem ist der Strom Verbrauch in Sachen Kosten völlig egal :Freak:
Man könnte es eher in Sachen Grün bemängeln, dumm nur das Ampere klar die Effizienteste GPU ist, also kann dieser Punkt gar nicht zählen.
Redneck
2020-09-25, 15:04:33
Unter den 3090-Käufern - und das ist die Vergleichsgruppe - wäre ich mir nicht sicher, ob ich die Minderheit bin. Und wie gesagt, ich rede hier über Verbrauch, nicht über den Preis der Karte (über den reden wir in einem anderen Thread). Unter den Haushaltsgeräten ist der PC nicht der Energiefresser - Bottom Line: ich verstehe es (und würde es auch so machen), wenn jemand, wenn er damit die gleiche Wassertemperatur erhält, einen 40kw-DLH gegen einen 21KW-DLH tauscht; da reden wir über ganz andere Unterschiede auf der Stromrechnung und die "Leistung", die für einen DLH-Benutzer die erzeugbare Temperatur ist, ist gleich.
Bottom Line: wieso soll sich jemand, der sich eine 1500 Euro Grafikkarte kauft (und da gehe ich gerne runter bis zur 500 Euro Grafikkarte) für Energieeinsparungen im Promillebereich (bezogen auf die Jahresrechnung) interessieren? Das ist doch ein vorgeschobenes Argument der AMD-Markenbotschafter (lol, gerade die reden über Energieverbrauch).
Und was die Überheblichkeit angeht. Keine Sau auf der Welt braucht einen Gaming-PC. Ich bin hier nicht im Forum der Tafel Berlin Kreuzberg und erzähle, wie ich mir die Plauze mit Kaviar gefüllt habe. Ich bin hier unter Leuten, die sich über einen Luxusgegenstand unterhalten, worunter aus meiner Sicht JEDER Gaming-PC fällt. Von daher sehe ich nicht, wo hier - unter anderen Luxuskonsumenten - Raum für Überheblichkeit ist. Ich gönne hier jedem eine auch zehnmal dickere Grafikkarte als ich sie habe (ja, ist schwer ;) - aber ich hatte auch mal "kleine Hardware").
zu sehr OT
Unter den Leuten hier wird auch nicht immer die dickste Hardware verbaut..
und bestimmt nicht, weil die Leute es sich nicht leisten könnten. Im übrigen ist jemand, derr AMD gut findet (und dafür evtl. Gründe hat) noch lange kein "Markenbotschafter".. genausowenig wie Leute, die 3080/3090 kaufen Jensen Jünger sind. Diese Grabenkriege kenne ich noch aus 80/90er Atari/Commodore Zeiten und sind völlig daneben.
dargo
2020-09-25, 15:13:39
Man könnte es eher in Sachen Grün bemängeln, dumm nur das Ampere klar die Effizienteste GPU ist, also kann dieser Punkt gar nicht zählen.
Wieder deine üblichen Fake News? :freak:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12437936&postcount=65
Schon blöd wenn der "Navi10 fail" effizienter ist als Ampere der deutlich später erschienen ist. ;D
nairune
2020-09-25, 15:19:18
Bezüglich "grün" ist die Effizienz völlig Wurst, da zählt schließlich nur der absolute Nettoverbrauch. Ist der Umwelt bzw. dem Stromerzeuger doch egal mit wie viel FPS oder welcher Detailstufe du zockst.
Lawmachine79
2020-09-25, 15:19:25
zu sehr OT
Unter den Leuten hier wird auch nicht immer die dickste Hardware verbaut..
und bestimmt nicht, weil die Leute es sich nicht leisten könnten. Im übrigen ist jemand, derr AMD gut findet (und dafür evtl. Gründe hat) noch lange kein "Markenbotschafter".. genausowenig wie Leute, die 3080/3090 kaufen Jensen Jünger sind. Diese Grabenkriege kenne ich noch aus 80/90er Atari/Commodore Zeiten und sind völlig daneben.
Ich fand AMD auch gut und finde sie bei CPUs auch gut. Das ist aber kein Fußballverein, deshalb finde ich in diesem Bereich eben den gut, der Leistung bringt. AMD Karten sind objektiv messbar schlechtere (und auch schlechte) Produkte. Nvidia hat einen gewaltigen Performancesprung hingelegt, der für überschaubares Geld kaufbar ist (3080). Klar, es gibt immer mehrere Betrachtungswinkel. Eine 68GT konnte man schlecht finden, weil der Filter kacke war und "nur" die Performance gut. Aber die 3080 hat keine von diesen Schwächen, die ist einfach nicht mehr in dem Bereich, wo man es "objektive Anhaltspunkte fürs subjektive Scheißefinden" gibt. Ich bin zur Zeit NV-"Fan", klar, aber es vernebelt mir nicht dergestalt die Sinne, wie es hier beobachtbar ist - ich bin Ruckzuck "AMD-Fan", wenn sie einen Quantensprung produzieren wie mit der 98Pro, dem A64 oder Ryzen.
Was Amiga und Commodore angeht: kann ich nix zu sagen. PC Masterrace seit 1988 ("ich habe es eben schon immer gewusst") ;).
Wieder deine üblichen Fake News? :freak:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12437936&postcount=65
Schon blöd wenn der "Navi10 fail" effizienter ist als Ampere der deutlich später erschienen ist. ;D
Was hilft mir Effizienz wenn ich damit nur Sokoban und Larry spiellen kann? Mach' doch einen eigenen Testbericht, in dem Du nur Verbrauch misst und andere Nebensächlichkeiten wie Performance weglässt.
dargo
2020-09-25, 15:24:24
Was hilft mir Effizienz wenn ich damit nur Sokoban und Larry spiellen kann?
Ich finde deinen Trollmodus toll, werde mich aber nicht darauf einlassen. Die Gegenspieler zu Ampere erscheinen dieses Jahr noch. Dann wird verglichen, darauf kannst du dich verlassen.
Lawmachine79
2020-09-25, 15:34:21
Die Gegenspieler zu Ampere Turing erscheinen dieses Jahr noch. Dann wird verglichen, darauf kannst du dich verlassen.
Habe den kleinen redaktionellen Fehler mal ausgebessert.
Edit: kann mir jemand sage, mit welchem Code ich durchstreichen kann ;)?
Edit 2: Danke, hat schon geklappt ;).
Edit 3: Dargo, wenn RDNA2 ein großer Wurf wird: dann kaufe ich sie. Für Dich ist AMD gerade gut genug, für mich ist das Beste gerade gut genug.
FastAndy
2020-09-25, 15:49:15
Hat hier eigentlich irgendwo mal jemand mitbekommen, dass eine FE 3090 versendet wurde?
Ich finde deinen Trollmodus toll
Na das schreibt genau der richtige in seinem Kreuzzug voller hämischen Kommentare gegen die NV Fraktion. Dein ganzer Auftritt hier ist so lächerlich wie unnötig. Immer wenn ich kommentare von dir lese haben sie diesen polemischen Unterton. Völlig unnötig, aber scheinbar kannst du nicht anders.
Ich frag mich wirklich wie traurig der Alltag sein muss um so viel Energie mit den ganzen Posts in einem Internetforum zu verschwenden um andere zu "bekehren". :|
Redneck
2020-09-25, 15:52:47
Ich fand AMD auch gut und finde sie bei CPUs auch gut. Das ist aber kein Fußballverein, deshalb finde ich in diesem Bereich eben den gut, der Leistung bringt. AMD Karten sind objektiv messbar schlechtere (und auch schlechte) Produkte. Nvidia hat einen gewaltigen Performancesprung hingelegt, der für überschaubares Geld kaufbar ist (3080). Klar, es gibt immer mehrere Betrachtungswinkel. Eine 68GT konnte man schlecht finden, weil der Filter kacke war und "nur" die Performance gut. Aber die 3080 hat keine von diesen Schwächen, die ist einfach nicht mehr in dem Bereich, wo man es "objektive Anhaltspunkte fürs subjektive Scheißefinden" gibt. Ich bin zur Zeit NV-"Fan", klar, aber es vernebelt mir nicht dergestalt die Sinne, wie es hier beobachtbar ist - ich bin Ruckzuck "AMD-Fan", wenn sie einen Quantensprung produzieren wie mit der 98Pro, dem A64 oder Ryzen.
Was Amiga und Commodore angeht: kann ich nix zu sagen. PC Masterrace seit 1988 ("ich habe es eben schon immer gewusst") ;).
Was hilft mir Effizienz wenn ich damit nur Sokoban und Larry spiellen kann? Mach' doch einen eigenen Testbericht, in dem Du nur Verbrauch misst und andere Nebensächlichkeiten wie Performance weglässt.
Du scheinst auf einem Auge Blind zu sein, sonst hättest Du mitbekommen, das der Sprung, den Ampere hingelegt hat, evtl zu kurz gewesen sein wird.
Effizienz heißt mitnichten "Verzicht" . Das was Du dir erträumst mit einer 3090 zu spielen , werden die 3080er und NAVI2 auch spielen... die AMDler wahrscheinlich noch eher ohne Abstriche, da mehr Speicher.
Mein 1983 Atari 800xl war wahrscheinlich weiter als dein 1988 PC %-P
Platos
2020-09-25, 16:06:17
Immer mehr Leistung durch vorwiegend mehr Strom ist halt nicht smart. Ganz im Gegenteil. Hätte Nvidia mal lieber nicht geizen sollen und den Deal mit TSMC machen sollen anstatt zu pokern und bei Samsung fertigen zu lassen. Meine Meinung.
Also dass sie zu Samsung gehen können wir alle dankbar sein (auf lange Sicht). TSMC hat schon genug Marktmacht. Das macht nvidia schon richtig, wenn sie dafür sorgen, dass TSMC nicht zu einem (noch grösseren) "Monopol" wird.
Lawmachine79
2020-09-25, 16:10:22
Du scheinst auf einem Auge Blind zu sein, sonst hättest Du mitbekommen, das der Sprung, den Ampere hingelegt hat, evtl zu kurz gewesen sein wird.
Effizienz heißt mitnichten "Verzicht" . Das was Du dir erträumst mit einer 3090 zu spielen , werden die 3080er und NAVI2 auch spielen... die AMDler wahrscheinlich noch eher ohne Abstriche, da mehr Speicher.
Irgendwo ist immer der Breakpoint zwischen verschiedenen Spielbarkeitsstufen. Das kann sich auch im 10-20% Bereich abspielen. Da muss man manchmal vielleicht auch ein wenig Glück haben, niemand weiß, was während des "Überlebenshorizonts" der Karte passiert (ich tippe mal 3 Jahre; die 1080TI ist ja bis heute top, AMD hat immer noch nichts Schnelleres). Was RDNA2 angeht - sorry, da stirbt bei den AMD-Fans wohl die Hoffnung zuletzt. AMD ist eine Firma und will Geld verdienen; glaubst Du, die freuen sich, dass jetzt in der ganzen Euphorie die Leute ihre Kohle für eine Nvidia-Karte raushauen und dann erstmal wieder 2+ Jahre bedient sind? Wenn RDNA2 einen Stich machen würde, hätte AMD schon zugesehen, dass da aussagekräftige Benches leaken; zumindest wenn da auch nur ein wenig wirtschaftlicher Sachverstand zu finden ist. Ein genug Zweifel schüren, dass die Leute den RDNA2-Release abwarten. Stattdessen wird wahrscheinlich wieder nur der Rückstand von "unerträglich" auf "peinlich" verkürzt.
Mein 1983 Atari 800xl war wahrscheinlich weiter als dein 1988 PC %-P
Tja, und jetzt hast Du einen PC ;).
dargo
2020-09-25, 16:12:21
Also dass sie zu Samsung gehen können wir alle dankbar sein (auf lange Sicht). TSMC hat schon genug Marktmacht. Das macht nvidia schon richtig, wenn sie dafür sorgen, dass TSMC nicht zu einem (noch grösseren) "Monopol" wird.
Absolut... Konkurrenz kommt dem Konsumenten immer zu gute.
Lawmachine79
2020-09-25, 16:13:22
Absolut... Konkurrenz kommt dem Konsumenten immer gut.
Ja, die würde dem Grafikkartenmarkt auch gut tun, aber einer liefert ja absolut nicht.
Redneck
2020-09-25, 16:20:38
Irgendwo ist immer der Breakpoint zwischen verschiedenen Spielbarkeitsstufen. Das kann sich auch im 10-20% Bereich abspielen. Da muss man manchmal vielleicht auch ein wenig Glück haben, niemand weiß, was während des "Überlebenshorizonts" der Karte passiert (ich tippe mal 3 Jahre; die 1080TI ist ja bis heute top, AMD hat immer noch nichts Schnelleres). Was RDNA2 angeht - sorry, da stirbt bei den AMD-Fans wohl die Hoffnung zuletzt. AMD ist eine Firma und will Geld verdienen; glaubst Du, die freuen sich, dass jetzt in der ganzen Euphorie die Leute ihre Kohle für eine Nvidia-Karte raushauen und dann erstmal wieder 2+ Jahre bedient sind? Wenn RDNA2 einen Stich machen würde, hätte AMD schon zugesehen, dass da aussagekräftige Benches leaken; zumindest wenn da auch nur ein wenig wirtschaftlicher Sachverstand zu finden ist. Ein genug Zweifel schüren, dass die Leute den RDNA2-Release abwarten. Stattdessen wird wahrscheinlich wieder nur der Rückstand von "unerträglich" auf "peinlich" verkürzt.
Tja, und jetzt hast Du einen PC ;).
Es wird ja mitunter oft behauptet das NV besser wüßte als alle Insider , was AMD bringen wird. Genauso kann man dies anders herum stellen.. AMD wußte , das NV nicht den riesen Sprung hinlegen wird und dann lange Zeit nicht liefern kann (das wurde ja nun schon Wochen vorher von diversen Spatzen von den Dächern gepfiffen). Gibt also keinen Grund die Deckung zu verlassen und die Hosen runter zu lassen . Die können sich bequem zurücklehnen und weiter an Bios, Treiber und finalen Taktraten arbeiten.
Ich finde es gut, das sie Ihrer Linie treu bleiben und den veröffentlichten Zeitplan einhalten.
BlacKi
2020-09-25, 16:25:27
richtigerer fred
evga 3090 ftw3 ultra
https://www.hd-tecnologia.com/imagenes/articulos/2020/09/REVIEW-EVGA-GEFORCE-RTX-3090-FTW-ULTRA-21.jpg
https://www.hd-tecnologia.com/review-evga-geforce-rtx-3090-ftw3-ultra-24gb/2/
Lawmachine79
2020-09-25, 16:32:46
Es wird ja mitunter oft behauptet das NV besser wüßte als alle Insider , was AMD bringen wird. Genauso kann man dies anders herum stellen.. AMD wußte , das NV nicht den riesen Sprung hinlegen wird und dann lange Zeit nicht liefern kann (das wurde ja nun schon Wochen vorher von diversen Spatzen von den Dächern gepfiffen). Gibt also keinen Grund die Deckung zu verlassen und die Hosen runter zu lassen . Die können sich bequem zurücklehnen und weiter an Bios, Treiber und finalen Taktraten arbeiten.
Ich finde es gut, das sie Ihrer Linie treu bleiben und den veröffentlichten Zeitplan einhalten.
Die meisten Leute canceln ihre Bestellungen nicht. Deine Vermutung liest sich sehr konstruiert. Es gäbe einen Grund, die Hose runterzulassen: wenn man den längeren Schlong als NVidia in der Pipeline hat. Das hier: "Oh, die (NVidia) haben eine langsamere Karte als unseren Kanditaten rausgebracht, wir werden der neue Top-Dog. Dann warten wir doch mal am Besten ab, bis die Leute sich mit den NV-Karten eingedeckt haben und arbeiten in Ruhe am Treiber und am Bios, auch die Marketing-Leute, die mit Benchmarkleaks Unsicherheit schüren könnten" klingt einfach nicht lebensnah.
w0mbat
2020-09-25, 16:42:54
Zum MLCC vs POSCAP Thema: die gleichen Karten können unterschiedlich ausgestatten sein, ist aktuell wohl einfach Lotto.
ASUS 3090 Strix OC von TPU:
https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/images/back.jpg
ASUS 3090 Strix OC von benchlife:
https://benchlife.info/wp-content/uploads/2020/09/006-2.jpg
hardtech
2020-09-25, 16:47:18
also ich muss sagen, die rechtmaschine hat schon ordentlich argumente im rucksack.
dem nicknamen nach ist anzunehmen, dass begründungen im rechtlichen bereich zum berufsalltag gehören?!
@fastandy und dargo
trinkt ein bier zusammen. kriege sind nie gut und bringen am ende mehr leid als freude.
@topic
finds gut, dass nv die hosen runterglassen hat. warten wir bis ende oktober und betrachten die sache dann in ruhe und nüchtern. alles andere zu amd kontern ist sowieso spekulatius.
Hat hier eigentlich irgendwo mal jemand mitbekommen, dass eine FE 3090 versendet wurde?
In den letzten Jahren kamen die Karten immer vor den Versandbestätigungen beim Kunden an. Ist ja nun nicht das erste mal, das es so einen "Ansturm" gibt zum Release. Haben wir alles schon mal gehabt.
Lawmachine79
2020-09-25, 16:54:49
also ich muss sagen, die rechtmaschine hat schon ordentlich argumente im rucksack.
dem nicknamen nach ist anzunehmen, dass begründungen im rechtlichen bereich zum berufsalltag gehören?!
Ja, wäre dankbar, wenn mir ein so eindeutiger Fall mal im Beruf begegnen würde ;). Hier kommt man ja schon mit Common-Sense recht weit, auch wenn man offenbar nicht jeden erreicht ;).
Redneck
2020-09-25, 17:06:26
Die meisten Leute canceln ihre Bestellungen nicht. Deine Vermutung liest sich sehr konstruiert. Es gäbe einen Grund, die Hose runterzulassen: wenn man den längeren Schlong als NVidia in der Pipeline hat. Das hier: "Oh, die (NVidia) haben eine langsamere Karte als unseren Kanditaten rausgebracht, wir werden der neue Top-Dog. Dann warten wir doch mal am Besten ab, bis die Leute sich mit den NV-Karten eingedeckt haben und arbeiten in Ruhe am Treiber und am Bios, auch die Marketing-Leute, die mit Benchmarkleaks Unsicherheit schüren könnten" klingt einfach nicht lebensnah.
1) gibt es keine Leaks von BN.. nur Spekulationen .. nichts handfestes ausser den Spekus basierend auf den Konsolen Chips und Treiber Auszügen
2) gibt es keine Karten von NV.. der Markt kann nicht gedeckt werden. Bis NV und Partner Mengen liefern können ist AMD am Start.
3) ist AMD wesentlich seriöser geworden unter Lisa Su
Pläne sind dazu da eingehalten zu werden..Das ist ja schliessliche kein Bananen Händler .Selbst wenn man den schnelleren hätte.. wieso jetzt schon leaken wenn man jetzt noch nicht verkaufen kann und die Konkurrenz auch nicht. Wo ist der rationale Grund ? Was meinst Du wie schnell die Order gecancellt werden, wenn der Mitbewerber vorstellt und besser ist. Das kommt noch.. Jetzt braucht man noch nicht cancelln.. wozu auch. Was sollte man stattdessen bestellen.
dargo
2020-09-25, 17:08:07
Die meisten Leute canceln ihre Bestellungen nicht. Deine Vermutung liest sich sehr konstruiert. Es gäbe einen Grund, die Hose runterzulassen: wenn man den längeren Schlong als NVidia in der Pipeline hat. Das hier: "Oh, die (NVidia) haben eine langsamere Karte als unseren Kanditaten rausgebracht, wir werden der neue Top-Dog. Dann warten wir doch mal am Besten ab, bis die Leute sich mit den NV-Karten eingedeckt haben und arbeiten in Ruhe am Treiber und am Bios, auch die Marketing-Leute, die mit Benchmarkleaks Unsicherheit schüren könnten" klingt einfach nicht lebensnah.
Mit welchen Karten bitte eindecken? Es ist doch praktisch nichts da. :tongue:
@fastandy und dargo
trinkt ein bier zusammen. kriege sind nie gut und bringen am ende mehr leid als freude.
Ich bin völlig entspannt und genieße gerade den völlig überhasteten GA102 Release sowie die Brechstange dahinter. :tongue:
Zum MLCC vs POSCAP Thema: die gleichen Karten können unterschiedlich ausgestatten sein, ist aktuell wohl einfach Lotto.
ASUS 3090 Strix OC von TPU:
https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/images/back.jpg
ASUS 3090 Strix OC von benchlife:
https://benchlife.info/wp-content/uploads/2020/09/006-2.jpg
Geile Nummer... das wird Rückläufer geben. ;D
Lawmachine79
2020-09-25, 17:11:49
Mit welchen Karten bitte eindecken? Es ist doch praktisch nichts da. :tongue:
Anscheinend denkst Du, dass Du Deinen 2080TI-Konkurrenten schneller in der Hand hast als ich meine(n) Performance Leap(s). Davon ab - auf mich kommt es auch nicht an. Hier haben Leute doch Karten. Und klar, Dir als AMDler ist da fremd, aber gute Produkte erzeugen eben eine starke Nachfrage. Wenn die Nachfrage nach einem Produkt größer als das Angebot ist, spricht das prima facie für das Produkt.
1) gibt es keine Leaks von BN.. nur Spekulationen .. nichts handfestes ausser den Spekus basierend auf den Konsolen Chips und Treiber Auszügen
2) gibt es keine Karten von NV.. der Markt kann nicht gedeckt werden. Bis NV und Partner Mengen liefern können ist AMD am Start.
3) ist AMD wesentlich seriöser geworden unter Lisa Su
Pläne sind dazu da eingehalten zu werden..Das ist ja schliessliche kein Bananen Händler .Selbst wenn man den schnelleren hätte.. wieso jetzt schon leaken wenn man jetzt noch nicht verkaufen kann und die Konkurrenz auch nicht. Wo ist der rationale Grund ? Was meinst Du wie schnell die Order gecancellt werden, wenn der Mitbewerber vorstellt und besser ist. Das kommt noch.. Jetzt braucht man noch nicht cancelln.. wozu auch. Was sollte man stattdessen bestellen.
1) Ja, genau das ist das Problem. Wenn RDNA2 schneller wäre, gäbe es Leaks. Da würde in der Marketingabteilung auch der letzte Schwachkopf drauf kommen, dass man damit die Euphorie zu eigenen Gunsten dämpfen kann.
2) Was willst Du damit sagen. "Auf die paar Euros kommt es für AMD auch nicht an". Anscheinend weisst Du nicht, wie wirtschaftlicher Konkurrenzkampf funkioniert, zumal in einem Markt mit zur zwei nennenswerten Spielern.
3) Pläne?! Also erstens hoffe ich nicht, dass ein Unternehmen aus dem Digitalbereich sich strikt an Pläne hält. Der Grafikkartenmarkt hat eine etwas höhere Innovationsdichte und Schlagzahl als z.B. der Nudelholzmarkt. Und welcher Plan wird denn nicht eingehalten, wenn Benchmarks leaken? Ich habe nirgends davon geschrieben, dass released werden soll. Was ist denn Deine Definition von "seriös"? Langsam, behäbig und immer einen Schritt zu spät?
dargo
2020-09-25, 17:25:56
Anscheinend denkst Du, dass Du Deinen 2080TI-Konkurrenten schneller in der Hand hast als ich meine(n) Performance Leap(s). Davon ab - auf mich kommt es auch nicht an. Hier haben Leute doch Karten. Und klar, Dir als AMDler ist da fremd, aber gute Produkte erzeugen eben eine starke Nachfrage. Wenn die Nachfrage nach einem Produkt größer als das Angebot ist, spricht das prima facie für das Produkt.
Deine Scheuklappen sind echt bewunderswert.
https://geizhals.de/?cat=gra16_512&xf=9810_16+0035581+-+RTX+3090
https://geizhals.de/?cat=gra16_512&xf=9810_16+0029768+-+RTX+3080
Vielleicht sollte Lisa Su BigNavi in einer limitierten Auflage bringen, wie wärs mit 5.000 weltweit? Wird dann auch prima für das Produkt BigNavi sprechen. ;D
Dural
2020-09-25, 17:37:00
Schon mal auf die Idee gekommen das die Nachfrage sehr gross sein muss? :rolleyes:
Ist völlig normal das bei einem Grafikkarten Start die Läden nicht randvoll mit Karten sind. Erst recht wenn es um Karten von 700.- aufwärts handelt.
Das mit AMD zu vergleichen ist ja mal so was von Lächerlich, die Handvoll Karten die die im Vergleich zu NV verkaufen kann jede Hinterhof Firma produzieren :freak:
Blediator16
2020-09-25, 17:44:31
Wenn hier im Forum die meisten Stornos kassieren, dann ist es ein Paperlaunch.
r3ptil3
2020-09-25, 17:51:11
Zum MLCC vs POSCAP Thema: die gleichen Karten können unterschiedlich ausgestatten sein, ist aktuell wohl einfach Lotto.
ASUS 3090 Strix OC von TPU:
https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/images/back.jpg
ASUS 3090 Strix OC von benchlife:
https://benchlife.info/wp-content/uploads/2020/09/006-2.jpg
Ou man...
Hier eine 3080 Strix:
https://i0.wp.com/www.gadgetvoize.com/wp-content/uploads/2020/09/20200922_204841-1.jpg?resize=768%2C432&ssl=1
dargo
2020-09-25, 17:57:24
Schon mal auf die Idee gekommen das die Nachfrage sehr gross sein muss? :rolleyes:
Oh ja... besonders bei einem Produkt im Bereich 1.500+€ wird es Millionen Vorbestellungen geben. :facepalm: Die miese Verfügbarkeit hatte igor genau so vorhergesagt.
Lawmachine79
2020-09-25, 18:22:16
Deine Scheuklappen sind echt bewunderswert.
https://geizhals.de/?cat=gra16_512&xf=9810_16+0035581+-+RTX+3090
https://geizhals.de/?cat=gra16_512&xf=9810_16+0029768+-+RTX+3080
Vielleicht sollte Lisa Su BigNavi in einer limitierten Auflage bringen, wie wärs mit 5.000 weltweit? Wird dann auch prima für das Produkt BigNavi sprechen. ;D
Nein, Aldi packt ja auch nichts in so geringer Verfügbarkeit auf den Grabbeltisch. Außerdem braucht man für künstige Verknappung von Gütern auch eine entsprechende Nachfrage und dafür braucht man wiederum ein gutes Produkt ;).
Gouvernator
2020-09-25, 19:05:37
Die Chinesen haben doch von Anfang an die richtigen Preise angekündigt - ab 1750€ geht es auch hier los. Eine FE wird jetzt für immer nur noch ein Phantom bleiben - für 1499€. Ob nun eine 3080 20GB kommt, oder nicht - wird man am besten mit einer 3090 im Rechner abwarten. Es kann zwischenzeitlich noch alles passieren von einem weiteren Lockdown bis zum Bürgerkrieg in den USA oder alles zusammen. Man muss dieses ruhiges Zeitfenster nutzen um sich mit einer richtigen Grafikkarte einzudecken. Dann kann kommen was will. Ich hatte Woche zuvor schon Schwierigkeiten einen Galaxy Tab S7+ zügig anzuschaffen. Solche feine High-End Hardware kann in diesen Zeiten für Monate wieder verschwinden.
TurricanM3
2020-09-25, 19:21:14
Ob die Karten so verschieden überhaupt in Umlauf kommen und schlechter laufen muss man einfach abwarten. Toll fände ich das nicht, aber ist halt noch vieles Speku.
Geile Nummer... das wird Rückläufer geben. ;D
Wieso freut man sich über sowas? :confused:
Ernste Frage.
whtjimbo
2020-09-25, 19:22:15
Es kann zwischenzeitlich noch alles passieren von einem weiteren Lockdown bis zum Bürgerkrieg in den USA oder alles zusammen. Man muss dieses ruhiges Zeitfenster nutzen um sich mit einer richtigen Grafikkarte einzudecken. Dann kann kommen was will.
Hmmmmm:
Ein Bürgerkrieg in den USA mit folgenschweren weltweiten wirtschaftlichen und sozialen Verwerfungen, die wahrscheinlich auf uns alle kommen werden? Das wird dann die letzte Nvidia sein, die dann jemals vorgestellt wurde. In 50 Jahren nachdem das alles dann vielleicht vorbei ist, wird sie sicher bestimmt einen echten Sammlerwert haben. Kaufen aber nicht auspacken, das wird sie wertvoller machen ...
r3ptil3
2020-09-25, 19:29:06
Ob die Karten so verschieden überhaupt in Umlauf kommen und schlechter laufen muss man einfach abwarten. Toll fände ich das nicht, aber ist halt noch vieles Speku.
Wieso freut man sich über sowas? :confused:
Ernste Frage.
Egoproblem - alles was nicht von AMD ist, ist grundsätzlich minderwertig. Solche Fehler von Nvidia oder Intel, erfreuen sein Gemüt und damit rechtfertigt er gegenüber sich selber auch diese Haltung
schreiber
2020-09-25, 19:31:37
https://www.youtube.com/watch?v=cecyzKTEj78
Also für 8K und ordentlich VRAM-Auslastung ist die Karte wohl dann doch häufig zu schwach.
Ex3cut3r
2020-09-25, 19:32:20
Übertreibt mal nicht, ein bisschen Schadenfreude soll auch mal vergönnt sein. ^^
Ich finds ehrlich gesagt auch zum schmunzeln, das ist für Nvdia Verhältnisse schon ein sehr pomadiger Launch. Wann gab soetwas das Letze mal?
dargo
2020-09-25, 19:36:57
https://www.youtube.com/watch?v=cecyzKTEj78
Also für 8K und ordentlich VRAM-Auslastung ist die Karte wohl dann doch häufig zu schwach.
Was ist denn da mit den Frametimes bei einzelnen Games wieder los? X-D
Daredevil
2020-09-25, 20:02:15
Ich finds ehrlich gesagt auch zum schmunzeln, das ist für Nvdia Verhältnisse schon ein sehr pomadiger Launch. Wann gab soetwas das Letze mal?
Ehm?
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47531-auch-die-boardpartner-mit-lieferschwierigkeiten-bei-der-geforce-rtx-2080-ti.html
Lawmachine79
2020-09-25, 20:12:22
Egoproblem - alles was nicht von AMD ist, ist grundsätzlich minderwertig. Solche Fehler von Nvidia oder Intel, erfreuen sein Gemüt und damit rechtfertigt er gegenüber sich selber auch diese Haltung
Studien zeigen, dass Gaming mit reduzierten Teils und geringen Frameraten zu solchen Gemütsregungen führt. Diese Leute haben zuletzt Half Life 2 flüssig gespielt. Wenn sie ihren Kindern von der 9800 Pro berichten, haben sie das Feuer der Erinnerung in den Augen.
https://www.youtube.com/watch?v=cecyzKTEj78
Also für 8K und ordentlich VRAM-Auslastung ist die Karte wohl dann doch häufig zu schwach.
Ist sie absolut. Aber sie tritt die Tür zu 8k auf. Und wenn man ab und zu auch mal Sachen von 2018 und früher spielt (ich z.B.) kann man auch durch die Tür durchgehen.
Megamember
2020-09-25, 20:12:23
Was ist denn da mit den Frametimes bei einzelnen Games wieder los? X-D
Frametimes Frametimes Frametimes, hihihi, Frametimes.
dargo
2020-09-25, 20:46:49
Ich könnte auf Framespikes switschen wenns dir zu viel wird. :D
-=Popeye=-
2020-09-25, 20:54:52
CoD sieht wirklich böse aus, dagegen sind die in HZD ja schon fast glatt.
Ex3cut3r
2020-09-25, 21:32:28
Jo. Die Treiber für Ampere scheinen auch noch sehr pomadig.:biggrin:
Homeoffice ist halt einfach nicht das wahre für gute Arbeitsergebnisse. Ist/war bei uns auch so. ^^
r3ptil3
2020-09-25, 21:59:06
Jo. Die Treiber für Ampere scheinen auch noch sehr pomadig.:biggrin:
Trotzdem noch kein Vergleich zur AMD-Treiberqualität.
Wenn man einen grossen Wert auf funktionierende Treiber legt, führt an Nvidia kein weg vorbei - und auch mit Ampere ändert sich nichts dran.
Ex3cut3r
2020-09-25, 22:00:00
Trotzdem noch kein Vergleich zur AMD-Treiberqualität.
Wenn man einen grossen Wert auf funktionierende Treiber legt, führt an Nvidia kein weg vorbei - und auch mit Ampere ändert sich nichts dran.
Kann ich nix zu sagen, hatte seit der X100 Serie keine AMD mehr.
r3ptil3
2020-09-25, 22:04:02
Kann ich nix zu sagen, hatte seit der X100 Serie keine AMD mehr.
Ich erwähne es nur weil ich vor der 3080 eine 5700er hatte.
In 4 Jahren Geforce-Treiber (980, 1080, 1080 TI, 2080 TI) hatte ich nicht annähernd so viele Probleme, wie in 3 Monaten mit AMD-Grafiktreiber.
Zur Zeiten der FuryX war das aber noch nicht so.
w0mbat
2020-09-25, 22:17:15
Ich erwähne es nur weil ich vor der 3080 eine 5700er hatte.
In 4 Jahren Geforce-Treiber (980, 1080, 1080 TI, 2080 TI) hatte ich nicht annähernd so viele Probleme, wie in 3 Monaten mit AMD-Grafiktreiber.
Zur Zeiten der FuryX war das aber noch nicht so.
Was für Probleme hast du denn? Ich hab seit über nem Jahr ne 5700 XT und genau null Probleme. Vielleicht sitzt das Problem vor dem PC? :wink:
Ich erwähne es nur weil ich vor der 3080 eine 5700er hatte.
In 4 Jahren Geforce-Treiber (980, 1080, 1080 TI, 2080 TI) hatte ich nicht annähernd so viele Probleme, wie in 3 Monaten mit AMD-Grafiktreiber.
Zur Zeiten der FuryX war das aber noch nicht so.Ich habe Karten beider Hersteller - Mit der 5700XT bzw. Vega 64 LC hab ich keinerlei Probleme seit ich Afterburner u. MorePowertool runtergeschmissen hab. Mit der 1080Ti im alten Rechner hab ich allerdings auch keine Probleme.
r3ptil3
2020-09-25, 22:31:36
Was für Probleme hast du denn? Ich hab seit über nem Jahr ne 5700 XT und genau null Probleme. Vielleicht sitzt das Problem vor dem PC? :wink:
Wenn man als AMDler davon ausgeht, dass man von einem Jahr sechs Monate nur damit verbringt die Probleme selber irgendwie zu lösen oder zu umgehen, dann hast du Recht, das Problem sitzt vor dem PC.
Aber in der Realität hat man keine Wochen und Monate Zeit diese in eine fehlerhafte Treibersoftware zu investieren.
- Bluescreens in Verbindung mit Z490 Plattformen (gibt auch einen Thread bei AMD dazu, die Lösung mit dem PCIE-Stromsparsettings hatte es leider nicht ganz gelöst)
- für einen normalen Speichertakt über 75Hz+ Monitore muss man selber Hand anlegen, siehe 5700 XT Thread (sowas geht mal gar nicht, denn mit der 3080 war der Speichertakt auf Anhieb i.O.)
- Die Treibereinstellungen werden einfach mal zwischendurch zurückgesetzt
- der Treiber meldet bestimmt jede Woche mehrmals dass die Wattman-Einstellungen zurückgesetzt wurden
- in Spielen selber funktioniert die Karte aber immerhin sehr gut
- was ich aber auch zugeben muss ist, dass mit dem X570 Board vieles praktisch fehlerfrei war, mit Z490 System kamen erst die grossen Probleme
Und ja, sogar das Board wurde ausgetauscht... achja und der RAM, und die SSD auch.
BigNavi wäre wirklich interessant, aber bei einer solchen Treiberqualität, würde ich sogar die überteuerte 3090 vorziehen.
Platos
2020-09-25, 22:31:58
https://www.youtube.com/watch?v=cecyzKTEj78
Also für 8K und ordentlich VRAM-Auslastung ist die Karte wohl dann doch häufig zu schwach.
Wird ja ordentlich VRAM gebraucht. Ja, nur Doom, HZD, CoD, AC, Need for Speed, der Flugsimulator & RdR brauchen ~15GB oder mehr. Also eig. nur mehr als die Hälfte...
Und 8 von 12 Spiele brauchen mehr als 12GB und 4 Spiele 18GB aufwärts.
Die FPS sind noch niedrig. Für RPGs kann man aber auch stabile 30 FPS fahren und wenn es mal doch nicht reicht, kann man auch mal ein paar Regler nach links drehen...
BiG OnE
2020-09-25, 22:34:07
Was für Probleme hast du denn? Ich hab seit über nem Jahr ne 5700 XT und genau null Probleme. Vielleicht sitzt das Problem vor dem PC? :wink:
Vielleicht spielt Du einfach nur Spiele, die keine Probleme bereiten. Nicht einfach alles nur durch die eigene Brille sehen.
dargo
2020-09-25, 22:36:28
Kommt jetzt wieder die Märchenstunde Nvidia Treiber jut, AMD scheiße weil ein User mit seinem Intel-System Probleme hatte? :freak:
r3ptil3
2020-09-25, 22:40:27
Kommt jetzt wieder die Märchenstunde Nvidia Treiber jut, AMD scheiße weil ein User mit seinem Intel-System Probleme hatte? :freak:
Dargo schon wieder? Im Intel Thread hast du schon gespamt und ich habe es dir erklärt: Wenn du kein Intel-System hast, dann kannst du das nicht beurteilen oder hast du jetzt ein Z490 System?
Und bitte hör auf irgendwas zu unterstellen: AMD ist ganz und gar nicht scheisse, aber die AMD-Grafiktreiber sind nicht gut. ;)
dargo
2020-09-25, 22:43:34
Und bitte hör auf irgendwas zu unterstellen: AMD ist ganz und gar nicht scheisse, aber die AMD-Grafiktreiber sind nicht gut. ;)
Stimmt... deswegen läuft hier alles bestens und bei vielen anderen Usern ebenso. :facepalm:
ChaosTM
2020-09-25, 22:47:39
Die 3090er ist bei 8k ungefähr dort wo die 980er bei 4k war vor 6 Jahren.
Der Speicher reicht bisher aus. Könnte bei Next Gen aber auch schon wieder eng werden .. ;)
Blediator16
2020-09-25, 22:55:01
https://old.reddit.com/r/nvidia/comments/izqaq2/nvidia_store_is_leaking_personal_informations/
Man muss wohl den launch mit Humor nehmen :D
MiamiNice
2020-09-25, 23:05:43
Der Thread ist irgendwie total derailed -.-
Wenn Ihr den AMD Klon weniger qouten würdet, wäre das massiv hilfreich für den Lesefluss.
https://old.reddit.com/r/nvidia/comments/izqaq2/nvidia_store_is_leaking_personal_informations/
Man muss wohl den launch mit Humor nehmen :D
Das ist schon ziemlich hart. Da sind ne menge Peeps massiv angenervt weil sie keine Karte bekommen haben.
basix
2020-09-25, 23:07:40
Die 3090er ist bei 8k ungefähr dort wo die 980er bei 4k war vor 6 Jahren.
Der Speicher reicht bisher aus. Könnte bei Next Gen aber auch schon wieder eng werden .. ;)
Ich behaupte, dass die 24GByte sehr lange reichen, auch für 8K:
8K zu 4K der NextGen ist wie 4K zu 1080p der LastGen
4GB < 5.5GB
24GB > 13.5GB
Man hat also relativ gesehen mehr Speicher ;) Auf die 4GB Situation passen eher die 10GB der 3080.
Blediator16
2020-09-25, 23:09:14
Der Thread ist irgendwie total derailed -.-
Wenn Ihr den AMD Klon weniger qouten würdet, wäre das massiv hilfreich für den Lesefluss.
Das ist schon ziemlich hart. Da sind ne menge Peeps massiv angenervt weil sie keine Karte bekommen haben.
Ich denke sie sind eher angepisst, weil deren private Daten geleaked wurden, zumindest bis es gefixt wurde.
-=Popeye=-
2020-09-25, 23:27:55
Die 3090er ist bei 8k ungefähr dort wo die 980er bei 4k war vor 6 Jahren.
Der Speicher reicht bisher aus. Könnte bei Next Gen aber auch schon wieder eng werden .. ;)
Was ist das denn für dünnes, Next Gen muss erst einmal 4k 60 liefern und danach sehen die Specs nun nicht wirklich aus.
8k ist eh Dill.
Daredevil
2020-09-25, 23:53:44
Next Gen muss erst einmal 4k 60 liefern und danach sehen die Specs nun nicht wirklich aus.
.
Schaut doch gut aus, oder was genau meinst du?
https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/28.html
https://tpucdn.com/review/asus-geforce-rtx-3090-strix-oc/images/average-fps-3840-2160.png
Linmoum
2020-09-25, 23:55:51
Um zu wissen ob das gut ausschaut, braucht man mehr als nur relativ nichtssagende avg fps. Schafft TPU leider immer noch nicht, mehr als das zu benchen.
-=Popeye=-
2020-09-26, 00:01:04
Schaut doch gut aus, oder was genau meinst du?
https://www.techpowerup.com/review/asus-geforce-rtx-3090-strix-oc/28.html
https://tpucdn.com/review/asus-geforce-rtx-3090-strix-oc/images/average-fps-3840-2160.png
Ähm... mit Next Gen meinte er die Konsolen.
Daredevil
2020-09-26, 00:01:53
Sicherlich wahr, dennoch sind 116avg ein Indikator dafür, dass die MinFPS nicht oft unter 60fps sinken.
Wie hoch ist eigentlich so die Spanne zwischen Min und avg? 20-30%?
@-=Popeye=-
Achso, Next Gen Spiele! :D
Ja, okay. Muss man mal sehen. Wenn die aber viel RT inne haben, ist 4K sicherlich knapp bemessen.
w0mbat
2020-09-26, 00:05:43
- für einen normalen Speichertakt über 75Hz+ Monitore muss man selber Hand anlegen, siehe 5700 XT Thread (sowas geht mal gar nicht, denn mit der 3080 war der Speichertakt auf Anhieb i.O.)
Das liegt am Monitor bzw. dessen blanking time und ist bei AMD und Nvidia genau gleich. Solltest du eigentlich wissen.
Vielleicht spielt Du einfach nur Spiele, die keine Probleme bereiten. Nicht einfach alles nur durch die eigene Brille sehen.
Ich spiele sehr viele Spiele, vor allem hab ich mit der 5700 XT meinen "backlog" abgebaut, also war da wirklich fast jedes Topspiel der letzten fünf Jahre dabei.
aufkrawall
2020-09-26, 00:12:07
Das liegt am Monitor bzw. dessen blanking time und ist bei AMD und Nvidia genau gleich. Solltest du eigentlich wissen.
Ist es nicht. Ist nicht mal zwischen Polaris und Navi gleich bzw. ist mit Letzterem schlechter geworden.
Gouvernator
2020-09-26, 01:06:32
In Forza Horizon 3 schluckt die 3090 8xMSAA wie nix. Unter 8K versteht sich. Damit noch immer 40-60fps. Quantum Break mit upscaling geht mit 30fps auch noch in 8K.
w0mbat
2020-09-26, 01:24:43
Ist es nicht. Ist nicht mal zwischen Polaris und Navi gleich bzw. ist mit Letzterem schlechter geworden.
Das ist doch langsam echt ein bekannter Fakt, wieso wird da immer noch rum geredet? :freak:
wolik
2020-09-26, 06:43:38
Die 3090er ist bei 8k ungefähr dort wo die 980er bei 4k war vor 6 Jahren.
Der Speicher reicht bisher aus. Könnte bei Next Gen aber auch schon wieder eng werden .. ;)
Was gern vergessen wird 980 (oder Titan Ableger) konnten sehr gut mit SLI umgehen. Deswegen damals 4K lief (mit SLI) perfekt.
Jetzt. RDR2 läuft manchmal unter 40fps. Ob da 3090 / 3080 für 4K / 60fps reicht, werde ich am Montag sehen (Versandbestätigung von Nvidia ist raus)
Einzige Hoffnung dass das in Legion und Cyberpunk DLSS gut implementiert.
dildo4u
2020-09-26, 07:23:44
3090 auf Series X ;D
https://youtu.be/dmeWo7BLN9Y?t=195
Bandit3644
2020-09-26, 07:46:21
Was gern vergessen wird 980 (oder Titan Ableger) konnten sehr gut mit SLI umgehen. Deswegen damals 4K lief (mit SLI) perfekt.
Jetzt. RDR2 läuft manchmal unter 40fps. Ob da 3090 / 3080 für 4K / 60fps reicht, werde ich am Montag sehen (Versandbestätigung von Nvidia ist raus)
Einzige Hoffnung dass das in Legion und Cyberpunk DLSS gut implementiert.
Also RDR2 läuft mit der 3080
bei den vorgegebenen Ultra Einstellungen in 4K bei 60 FPS. Legion gibt es ja kostenlos dazu :)
woodsdog
2020-09-26, 08:58:44
Was gern vergessen wird 980 (oder Titan Ableger) konnten sehr gut mit SLI umgehen. Deswegen damals 4K lief (mit SLI) perfekt.
Jetzt. RDR2 läuft manchmal unter 40fps. Ob da 3090 / 3080 für 4K / 60fps reicht, werde ich am Montag sehen (Versandbestätigung von Nvidia ist raus)
Einzige Hoffnung dass das in Legion und Cyberpunk DLSS gut implementiert.
mit modernen SLI lief nie irgendwas "perfekt", da ist deine Erinnerung rosarot bzw grün gefärbt.
dargo
2020-09-26, 10:09:10
3090 auf Series X ;D
https://youtu.be/dmeWo7BLN9Y?t=195
:biggrin:
Wusste gar nicht, dass XBSX so klein ist. Auf den Bildern kam sie mir immer größer vor.
Gouvernator
2020-09-26, 10:09:46
Ich behaupte, dass die 24GByte sehr lange reichen, auch für 8K:
Ja das ist momentan die sinnvollste Karte. Ich habe in 8K schon über 16Gb vollgeknallt in "moderaten" Spielen. Das wäre aber schon der Tod für eine theoretische 16Gb Karte. Meine lustige Experimente am 8K TV zeigen, das eine 3090 gar nicht in die Knie geht, wenn man das altherkömmliche MSAA einschaltet. Man verliert bei 8xMSAA vielleicht 15 FPS. Das wars. Forza Horizon 3 ist super spielbar mit 8xMSAA@8K. Sonst hatte man all die Jahre das Problem entweder Auflösung oder MSAA. Jetzt geht beides.
Mass Effect Andromeda ist mit 8K auch noch bei 30 FPS. Serios Sam 4 sogar mit MSAAx4. Man könne meinen die 3090 macht quasi 8K/30 FPS konsolengaming am PC. Das hat zwar ihren Preis, aber so ein Ansatz ist weit und breit anderswo nicht zu sehen. Jeder da draußen ob Intel, AMD, MS, Sony ect. machen ausschließlich Low-Cost, Low-End Schrott für maximal 500€. Keiner will hingehen und riesige Chips mit Custom Speicher auflegen um riesige Grafikarten zu verkaufen. In diesem Zustand hat man Verbraucher schon seit ewigen Zeiten mariniert. Deswegen wird jede verfügbare Ampere NV aus den Händen gerissen. Man kann nach dem Kauf seine Spielbibliothek wieder neu entdecken weil eben ALLES in 8K laufen kann - ohne Kompromisse.
Gouvernator
2020-09-26, 10:35:30
Hier ungemoddet GTA5 alles maxxed out in 8K - knapp bei 23Gb Vram. Man muss NV zu Gute halten das wir endlich, endlich in diesen Bereich vorgestoßen sind.
https://abload.de/img/gta5_2020_09_26_10_20kckhy.jpg (https://abload.de/image.php?img=gta5_2020_09_26_10_20kckhy.jpg)
dargo
2020-09-26, 10:38:15
Alter... 17fps. X-D Spielst du auch oder schaust du dir nur Standbilder an? :freak: 8k Gaming und das Spiel ist 7 Jahre alt (PC Release später)! ;D ;D ;D
Blediator16
2020-09-26, 10:43:43
Aber geil sieht es aus.
woodsdog
2020-09-26, 10:57:44
Ja, vorallem auf dem auf FHD runter gerechneten Bild um 8K Quali zu zeigen... :facepalm:
Aber Gouvernator hat eh nicht viel mit Bildquali zu tun. Der freut sich ein Loch ins Knie ein 1440p Bild auf seinem 12" Samsung über WLAN gestreamt zu sehen und fantasiert anschließend was von 8k und 25fps avg sind gut spielbar.
Just sayin
Gouvernator
2020-09-26, 11:16:02
Alter... 17fps. X-D Spielst du auch oder schaust du dir nur Standbilder an? :freak: 8k Gaming und das Spiel ist 7 Jahre alt (PC Release später)! ;D ;D ;D
Von da an kannst ja beliebig runterskalieren.
4K/120Hz
https://abload.de/img/gta5_2020_09_26_11_09jsjwh.jpg (https://abload.de/image.php?img=gta5_2020_09_26_11_09jsjwh.jpg)
Oder eben konsolige 30 FPS/8K
https://abload.de/img/gta5_2020_09_26_11_14y5ju8.jpg (https://abload.de/image.php?img=gta5_2020_09_26_11_14y5ju8.jpg)
hq-hq
2020-09-26, 11:17:34
Ja das ist momentan die sinnvollste Karte. Ich habe in 8K schon über 16Gb vollgeknallt in "moderaten" Spielen. Das wäre aber schon der Tod für eine theoretische 16Gb Karte. Meine lustige Experimente am 8K TV zeigen, das eine 3090 gar nicht in die Knie geht, wenn man das altherkömmliche MSAA einschaltet. Man verliert bei 8xMSAA vielleicht 15 FPS. Das wars. Forza Horizon 3 ist super spielbar mit 8xMSAA@8K. Sonst hatte man all die Jahre das Problem entweder Auflösung oder MSAA. Jetzt geht beides.
Mass Effect Andromeda ist mit 8K auch noch bei 30 FPS. Serios Sam 4 sogar mit MSAAx4. Man könne meinen die 3090 macht quasi 8K/30 FPS konsolengaming am PC. Das hat zwar ihren Preis, aber so ein Ansatz ist weit und breit anderswo nicht zu sehen. Jeder da draußen ob Intel, AMD, MS, Sony ect. machen ausschließlich Low-Cost, Low-End Schrott für maximal 500€. Keiner will hingehen und riesige Chips mit Custom Speicher auflegen um riesige Grafikarten zu verkaufen. In diesem Zustand hat man Verbraucher schon seit ewigen Zeiten mariniert. Deswegen wird jede verfügbare Ampere NV aus den Händen gerissen. Man kann nach dem Kauf seine Spielbibliothek wieder neu entdecken weil eben ALLES in 8K laufen kann - ohne Kompromisse.
ist nur, bei 8k hat man ja für gewöhnlich ein noch größeres Gerät, mein Empfinden war immer je größer der Bildschirm desto deutlicher machen sich geringe FPS bemerkbar
ein 4k 32" >60Hz Monitor fehlt mir halt noch, das würde den Anreiz für eine 3090 stark erhöhen... seit sich die Curved-Geräte in das Angebot gefressen haben ist die Auswahl beschränkt wie zu Anfang
whtjimbo
2020-09-26, 11:20:38
ist ein schöner Vergleich, für 8K ist eine 3090 einfach nicht ausreichend, egal wieviel Speicher sie hat. Für 4K ist das Ergebnis spitze keine Frage. Ist Dein 4k Ergebnis mit 8xMSAA ?
Geldmann3
2020-09-26, 11:27:49
Also im letzten Jahr habe ich mit meiner 2080 Ti sehr viel in 8k gezockt.
GTA 3 @60FPS Lock
GTA Vice City @60FPS Lock
GTA San Andreas @60FPS Lock
GTA Liberty City Stories (PCSX2) @60FPS Lock
GTA Vice City Stories (PCSX2) @60FPS Lock
GTA IV @30FPS Lock.
The Witcher 3 habe ich in 6k@30FPS gezockt.
In GTA IV erreiche ich zu 90% der Zeit 60FPS, ich limitiere aber dennoch bei 30FPS, weil ich absolut stabile Frametimes bevorzuge. Nur in GTA V musste ich auf 6k heruntergehen, um einen 30FPS Lock zu erreichen. Das wird die 3090 wahrscheinlich fixen. In GTA IV werde ich aber wohl trotz der 3090 keinen 60er Lock erzielen, hier bin ich einfach CPU limitiert mit meinem 9900k.
Der Flight Simulator 2020 war das einzige Game im letzten Jahr, was ich mit der 2080 Ti ,,nur" in 4k gezockt habe. Er ist auch das einzige Spiel seit Jahren, in dem ich trotz instabiler Frametimes nicht auf 30FPS limitiere. Denn die Framerate ist so variabel, dass ich da in vielen Szenen viel nach oben hin verschenken würde, der Interne 30er Lock ist außerdem defekt, sodass man damit viel Performance verliert. Irgendwie kann ich den Flight Simulator aber auch mit 20FPS noch ganz gut bedienen...
Mein ultimatives Target ist 8k+SMAA@120FPS. Alternativ 8k+DLSS-Performance@120FPS (Nicht Ultra-Performance). Da bin ich dann an einen Punkt angelangt, an dem das Bild für mich ,,gut genug" aussieht. Auf 16k würde ich intern nur noch hoch gehen, wenn ich sonst überhaupt keine Idee hätte, was ich noch mit meiner Mehrperformance anstellen könnte. Es sieht durchaus noch etwas besser aus als 8k. (Ohne Spaß.) Hat aber einen gigantonomischen diminishing return.
Gouvernator
2020-09-26, 11:47:42
ist ein schöner Vergleich, für 8K ist eine 3090 einfach nicht ausreichend, egal wieviel Speicher sie hat. Für 4K ist das Ergebnis spitze keine Frage. Ist Dein 4k Ergebnis mit 8xMSAA ?
Nein die letzten Screenshots sind 2xMSAA. Von einer 8Gb GPU kommend ist das was man jetzt in 8K bekommt schon "gut". :conf:
Gouvernator
2020-09-26, 14:53:15
Habe Path of Exile maxxed out in 8K probiert. Es lief schwankend zwischen 40-70 FPS habe dann auf dynamic Resolution mit 60FPS Target umgeschwenkt. Das ist mal nützliche Sache. Jetzt habe zum Großteil umwerfend schöne 8K bei stabilen 60 FPS. Dynamic Resolution macht jetzt bei 8K wirklich Sinn, wenn man weiß das es nie zum VRAM Limit kommen kann.
woodsdog
2020-09-26, 14:57:38
Habe Path of Exile maxxed out in 8K probiert. Es lief schwankend zwischen 40-70 FPS habe dann auf dynamic Resolution mit 60FPS Target umgeschwenkt. Das ist mal nützliche Sache. Jetzt habe zum Großteil umwerfend schöne 8K bei stabilen 60 FPS. Dynamic Resolution macht jetzt bei 8K wirklich Sinn, wenn man weiß das es nie zum VRAM Limit kommen kann.
Dynamic Resolution ergibt mit jeder Auflösung Sinn wenn du ein FPS target halten willst aber nicht genug Rohpower hast.
Spielst du jetzt eigentlich mit der 350W 3090 wieder auf deinem TV oder lässt du dein "8K" wieder auf das WQHD Tablet streamen weil der Strom für den TV zu teuer ist?
Spasstiger
2020-09-26, 14:59:15
Gibt es Tests, die eine Intel- und eine AMD-Plattform in Verbindung mit der RTX 3090 vergleichen?
Oder anders gefragt: Welche Hardware gehört derzeit in den ultimativen Gaming-Rechner?
ChaosTM
2020-09-26, 15:08:17
Mein ultimatives Target ist 8k+SMAA@120FPS. Alternativ 8k+DLSS-Performance@120FPS (Nicht Ultra-Performance). Da bin ich dann an einen Punkt angelangt, an dem das Bild für mich ,,gut genug" aussieht. Auf 16k würde ich intern nur noch hoch gehen, wenn ich sonst überhaupt keine Idee hätte, was ich noch mit meiner Mehrperformance anstellen könnte. Es sieht durchaus noch etwas besser aus als 8k. (Ohne Spaß.) Hat aber einen gigantonomischen diminishing return.
8k/120 und HDR ist auch mein "Endziel". Der "letzte Monitor" :)
Jupiter
2020-09-26, 15:14:07
Dieser Auflösungswahn bringt aber für den Gesamteindruck nicht viel, wenn man am PC mit einer schlechten Tonanlage für wenige hundert Euro spielt. Für den Ton sollte man auch über 5000 Euro für gute Komponenten ausgeben, wenn man oberhalb der Mittelklasse spielen will.
Langlay
2020-09-26, 15:24:12
Gibt es Tests, die eine Intel- und eine AMD-Plattform in Verbindung mit der RTX 3090 vergleichen?
Oder anders gefragt: Welche Hardware gehört derzeit in den ultimativen Gaming-Rechner?
Wenn man nicht gerade 8k mit <30FPS spielt, ist aktuell wohl eine aktuelle Intelplattform leicht schneller als AMD. Und in allem <4K biste wohl auch CPU Limitiert. Allerdings würde ich vermuten das ZEN3 etwas schneller ist als die aktuellen Intels.
MiamiNice
2020-09-26, 15:24:58
Gibt es Tests, die eine Intel- und eine AMD-Plattform in Verbindung mit der RTX 3090 vergleichen?
Oder anders gefragt: Welche Hardware gehört derzeit in den ultimativen Gaming-Rechner?
Dafür braucht es keinen Test. Es kommt das in die Kiste mit der meisten Single Thread Power + ein Board welches auf Speicher OC optimiert ist + den schnellsten Speicher den Du für Geld kaufen kannst.
Linmoum
2020-09-26, 15:27:06
Oder anders gefragt: Welche Hardware gehört derzeit in den ultimativen Gaming-Rechner?Die Frage solltest du eher in wenigen Wochen noch mal stellen.
Daredevil
2020-09-26, 15:27:12
Gibt es Tests, die eine Intel- und eine AMD-Plattform in Verbindung mit der RTX 3090 vergleichen?
Oder anders gefragt: Welche Hardware gehört derzeit in den ultimativen Gaming-Rechner?
Man nimmt die schnellste Gaming GPU und die schnellste Gaming CPU, also Intel+Nvidia aktuell.
Langlay
2020-09-26, 15:29:29
Man nimmt die schnellste Gaming GPU und die schnellste Gaming CPU, also Intel+Nvidia aktuell.
Und in 4 Wochen rüstet man dann nochmal auf Zen3 um wenn der 5-10% schneller ist? :freak:
Im CPU Limit zu sein ist doch nicht wild, ballert man halt Grafik oder Auflösung hoch für mehr Grafikporn und irgendwann wirste schon GPU limitiert sein.
Daredevil
2020-09-26, 15:36:01
Wenn in 4 Wochen die gleiche Frage gestellt wird, könnte die Antwort halt eine andere sein.
Es ging ja um derzeit und nicht um "in 1-2 Monaten, wenn AMD ne große Steigerung haben könnte evnetuell vielleicht".
Ich hätte auch ne 3090 mit nem Ryzen 3600 verheiratet und wäre damit fein gewesen, aber das war ja nicht die Frage. ^^
Geldmann3
2020-09-26, 15:36:23
Dieser Auflösungswahn bringt aber für den Gesamteindruck nicht viel, wenn man am PC mit einer schlechten Tonanlage für wenige hundert Euro spielt. Für den Ton sollte man auch über 5000 Euro für gute Komponenten ausgeben, wenn man oberhalb der Mittelklasse spielen will.
Ich spiele mit den Beyerdynamic DT880 Pro (https://www.amazon.de/beyerdynamic-Over-Ear-Studiokopfh%C3%B6rer-schwarz-Halboffene-kabelgebunden/dp/B001B1QENY).
Ein Soundsystem habe ich mir leider noch nicht angeschafft, würde es auch nur verwenden, wenn Freunde bei mir sind, da ich die Nachbarn nicht mit der Lautstärke stören möchte.
5000€ sind schon eine Ansage um über der ,,Mittelklasse" zu spielen. ;D
Kannst Du eine Konfig empfehlen?
Langlay
2020-09-26, 15:37:07
Naja derzeit musste erstmal ne 3090 bekommen. Daran dürfte es schon scheitern.
Ich spiele mit den Beyerdynamic DT880 Pro (https://www.amazon.de/beyerdynamic-Over-Ear-Studiokopfh%C3%B6rer-schwarz-Halboffene-kabelgebunden/dp/B001B1QENY).
Hehe ich hab die DT 880 Edition. Sind schon sehr gute Kopfhörer.
Gibt es Tests, die eine Intel- und eine AMD-Plattform in Verbindung mit der RTX 3090 vergleichen?
Oder anders gefragt: Welche Hardware gehört derzeit in den ultimativen Gaming-Rechner?
Am Ende hast Du es doch selbst in der Hand.
Du zockst nur CS1.6, dann nimm zwei Kerne die 5,5Ghz stemmen und wenn Du Troy als Dein Lieblingsspiel auserkoren hast, dann halt einen 24 oder 32 Kern Threadripper. (Und ja, der zersägt die 5,3Ghz 10-Kerner wenn Ultra-Gras aktiviert ist).
Pauschale Antwort wie üblich: Nicht möglich^^
MadManniMan
2020-09-26, 16:39:31
Im CPU Limit zu sein ist doch nicht wild, ballert man halt Grafik oder Auflösung hoch für mehr Grafikporn und irgendwann wirste schon GPU limitiert sein.
Musste ich auch erst lernen: Besonders hohe GPU Last führt zu stärkerem Lag. Wenn man es irgendwie hinbekommt, optimiere man sein System auf dauerhaft unter 95 % GPU.
Langlay
2020-09-26, 16:42:29
Musste ich auch erst lernen: Besonders hohe GPU Last führt zu stärkerem Lag. Wenn man es irgendwie hinbekommt, optimiere man sein System auf dauerhaft unter 95 % GPU.
Ja ne is klar. Dort ist wohl eher bei deinem PC irgendwas schief gelaufen.
aufkrawall
2020-09-26, 17:18:22
Im CPU-Limit hat man halt kein CPU-Prerender. Ob man deshalb jetzt dauerhaft im CPU-Limit sein will...
crux2005
2020-09-26, 19:37:24
9JWqRjqqNko
NV und ihr Klebemittel. :D
Gouvernator
2020-09-27, 07:48:24
Ich denke ab wann kann eine 3090 eigentlich obsolet werden? Bei 8K und durchgehend 30 FPS was ich überall sehe, braucht es eine doppelt so schnelle GPU um spürbar besser zu sein. Also 70 Tflops oder 200% mehr Leistung als jetzt. Quasi ein GA100 mit 54Mrd. bei 826mm² in 7nm. Auf wieviel nm muss man runter gehen um diese unbezahlbare 826mm² halbwegs wirtschaftlich in Grafikkarte umzusetzen? Ich will damit die Nutzungszeit/Kosten pro Jahr ausrechnen. Um die 1750€ die ich bezahlt habe etwas "vernünftiger" erscheinen zu lassen.
dildo4u
2020-09-27, 08:17:50
Könnte schnell an Wert verlieren wenn Nvidia AMD wieder ernst nimmt, es sagt doch alles das ihre absoluter High-End Chip TSMC nutzt und die 3090 Samsung.
Es gibt jetzt auch Intel 10 Cores für 430€,2017 lagen die bei 1000€, hängt alles von den Konkurrenz ab.
2020
https://geizhals.de/intel-core-i9-10850k-bx8070110850k-a2341363.html
2017
https://www.anandtech.com/show/11550/the-intel-skylakex-review-core-i9-7900x-i7-7820x-and-i7-7800x-tested
Gouvernator
2020-09-27, 08:32:29
Ein High-End Chip von TSMC in 826mm² Größe wird ja von der Transistorzahl 200% Performance entsprechen. Mir geht es darum wann kann man realistische Grafikkarte mit 8k/60fps aus diesen 826mm² machen. Unter welcher nm Fertigung? Von da an kann man die Nutzungszeit der 3090 abschätzen.
Denn unter 8K/60 bzw. +200% macht es kein Sinn in etwas neueres zu investieren. Es geht rein um 8K. Denn mit 4K hat diese eh unbegrenzte Haltedauer.
dargo
2020-09-27, 09:27:11
Ein High-End Chip von TSMC in 826mm² Größe wird ja von der Transistorzahl 200% Performance entsprechen. Mir geht es darum wann kann man realistische Grafikkarte mit 8k/60fps aus diesen 826mm² machen. Unter welcher nm Fertigung?
Puh... da kannst du noch sehr viele Jahre dran hängen. Schließlich gibt es keine Stagnation in den nächsten Jahren bei den Spielen was GPU-Last angeht.
Aua Aua Aua Aua Aua
https://abload.de/img/stromgebrauchjqkdy.jpg (https://abload.de/image.php?img=stromgebrauchjqkdy.jpg)
BTW .. guter Release-Treiber für den Idle-Betrieb.
Vergleich Turing - Ampere (ich hoffe man sieht was ich zeigen möchte)
https://abload.de/img/nvidia_refresh_120syk1e.jpg (https://abload.de/image.php?img=nvidia_refresh_120syk1e.jpg) https://abload.de/img/nvidia_refresh_1441gjkd.jpg (https://abload.de/image.php?img=nvidia_refresh_1441gjkd.jpg)
https://abload.de/img/ampere_idleheki8.jpg (https://abload.de/image.php?img=ampere_idleheki8.jpg)
woodsdog
2020-09-27, 10:59:44
Aua Aua Aua Aua Aua
https://abload.de/img/stromgebrauchjqkdy.jpg (https://abload.de/image.php?img=stromgebrauchjqkdy.jpg)
"Kraft kommt ja bekanntlich von Kraftstoff." :biggrin:
MiamiNice
2020-09-27, 11:02:29
Aua Aua Aua Aua Aua
https://abload.de/img/stromgebrauchjqkdy.jpg (https://abload.de/image.php?img=stromgebrauchjqkdy.jpg)
Sehr nice XD
Mit solchen Bildern musst hier vorsichtig sein, wir haben „Öko Polizisten“ im Forum ;D
Aber mit AMD CPU drücken die sicher ein Auge zu.
Troyan
2020-09-27, 11:04:06
Wie sieht es bei Surfen im Browser aus, Hisn? Taktet die Karten auch wie wild in 4K dauernd nach oben?
M4xw0lf
2020-09-27, 11:29:42
Man kann sagen was man will, aber Ampere ist offenbar ein sehr treffender Name :uup:
dargo
2020-09-27, 11:36:29
Man kann sagen was man will, aber Ampere ist offenbar ein sehr treffender Name :uup:
Poor Volta war schon vergeben. X-D
Aua Aua Aua Aua Aua
https://abload.de/img/stromgebrauchjqkdy.jpg (https://abload.de/image.php?img=stromgebrauchjqkdy.jpg)
Pfff... das ist doch nichts. Neuerdings sind 900W alleine bei Ampere mit LN2 der neue Standard. ;)
wolik
2020-09-27, 12:09:40
Überraschende weise kam Gestern ASUS TUF 3090 :) Nice.
FS Ultra "nur" Platz 11 8
qiller
2020-09-27, 12:28:27
BTW .. guter Release-Treiber für den Idle-Betrieb.
Vergleich Turing - Ampere (ich hoffe man sieht was ich zeigen möchte)
...
Solang die Karte bei hochauflösenden Display nicht zu weit runtertaktet und es anfängt zu Ruckeln beim Scrollen in Broswern (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=602217).
Geächteter
2020-09-27, 14:03:01
Solang die Karte bei hochauflösenden Display nicht zu weit runtertaktet und es anfängt zu Ruckeln beim Scrollen in Broswern (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=602217).
Da der Speicher bei gleichem Takt jetzt doppelt so schnell ist, dürfte das keine Probleme machen. Die alten Karten haben ja bei größer 120 Hz immer auf 800 Mhz gewechselt, wenn man es nicht mit dem Inspektor unterbunden hat. Ab WQHD größer 120 Hz gibt es dann damit auf dem Desktop aber auch sporadisch ein kurzes "Blinzeln".
aufkrawall
2020-09-27, 14:06:16
Die alten Karten haben ja bei größer 120 Hz immer auf 800 Mhz gewechselt, wenn man es nicht mit dem Inspektor unterbunden hat.
Kann auch an zu niedrigen Blanking-Werten des Displays gelegen haben. Mit der 1070 ging es hier bei 1440p 144Hz komplett in die niedrigsten States runter. Außerdem ist 4k 60Hz nochmal was anderes.
Geächteter
2020-09-27, 14:11:24
Kann auch an zu niedrigen Blanking-Werten des Displays gelegen haben. Mit der 1070 ging es hier bei 1440p 144Hz komplett in die niedrigsten States runter. Außerdem ist 4k 60Hz nochmal was anderes.
Okay, bei meiner 2080 geht es mit 3 verschiedenen Displays getestet größer 120 Hz immer dauerhaft hoch. Größer 240 Hz gar der Speicher auf 1000 Mhz und der Chiptakt iirc über 645 Mhz alleine schon auf Desktop. Dann wird es stromhungrig.
Beim Scrollen in Firefox geht es dann über 1 Ghz Chiptakt.
Platos
2020-09-27, 14:12:29
Aua Aua Aua Aua Aua
Welches SPiel ist das nochmals?
Aber die CPU Last ist ja krass... War die auch schon so hoch, als du noch die RTX Titan hattest ?
Das ist Total War Troy, mir gings darum so viele Kerne wie möglich zu beschäftigen, ohne Fur + Prime nutzen zu müssen.
Also "normale" und keine "extremen" Umstände.
Und das Gras bei Troy kann 48 Threads beschäftigen. Und ja, das war mit der Titan auch schon so, nur nicht in der Auflösung^^
Jupiter
2020-09-27, 14:49:18
Ich spiele mit den Beyerdynamic DT880 Pro (https://www.amazon.de/beyerdynamic-Over-Ear-Studiokopfh%C3%B6rer-schwarz-Halboffene-kabelgebunden/dp/B001B1QENY).
Ein Soundsystem habe ich mir leider noch nicht angeschafft, würde es auch nur verwenden, wenn Freunde bei mir sind, da ich die Nachbarn nicht mit der Lautstärke stören möchte.
5000€ sind schon eine Ansage um über der ,,Mittelklasse" zu spielen. ;D
Kannst Du eine Konfig empfehlen?
Aktueller Denon oder Marantz HDMI 2.1-Verstärker mit UHD/120fps ~ 1000 Euro
Zwei SVS PB-2000 Subwoofer ~ 1600 Euro
Zwei Heco Celan Revolution 9 Lautsprecher ~ 2400 Euro
Mit der Zeit können noch weitere Lautsprecher gekauft werden. Der SVS PB-3000 ist noch einmal deutlich besser als der PB-2000er und reicht nahe an den 80 kg schweren SVS PB16-Ultra für 3500 Euro das Stück, würde aber pro Stück auch 1600 Euro kosten. Zwei Subwoofer sind besser als einer, der noch mächtiger ist.
Bei Lautsprechern kommt es aber auch darauf an, was man damit am meisten hört. Manche eignen sich besser für Klassik, andere für elektronische Musik usw.
Kopfhörer können sehr gut klingen, sind aber kein Ersatz für eine Anlage mit Tiefbass usw.
Fusion_Power
2020-09-27, 14:50:08
Sehr nice XD
Mit solchen Bildern musst hier vorsichtig sein, wir haben „Öko Polizisten“ im Forum ;D
Aber mit AMD CPU drücken die sicher ein Auge zu.
Ja, genau! Mehr als 75W TDP ist purer Terrorismus! :tongue: Da würde mein Mini-ITX Gehäuse ja regelrecht schmelzen bei solchen Werten. Meine GTX 1050Ti ist da gerade noch im Rahmen.
Aber gut, wer sich ne RTX 3090 leisten kann, für den sind Stromkosten und ne gute Hardware für die Kühlung eh ein Klacks. Kann man dann im Winter halt noch seine Bude mit heizen. Nur der Sommer könnte kritisch werden. :D
PV in Genehmigungsphase :-)
E-Auto^^
Seid nachsichtig mit mir bitte.
=Floi=
2020-09-27, 15:07:19
E-Auto^^
Seid nachsichtig mit mir bitte.
Das macht deine umweltbilanz sicher nicht besser :rolleyes:
Platos
2020-09-27, 15:13:46
Das ist Total War Troy, mir gings darum so viele Kerne wie möglich zu beschäftigen, ohne Fur + Prime nutzen zu müssen.
Also "normale" und keine "extremen" Umstände.
Und das Gras bei Troy kann 48 Threads beschäftigen. Und ja, das war mit der Titan auch schon so, nur nicht in der Auflösung^^
Krass. Aber ist das nicht etwas unnötig, das Gras von der CPU berechnen zu lassen :confused: Da wäre die GPU doch deutlich besser.
Denon oder Marantz HDMI 2.1 Verstärker mit UHD/120fps ~ 1000 Euro
Zwei SVS PB 2000 Subwoofer ~ 1600 Euro
Zwei Heco Celan Revolution 9 Lautsprecher ~ 2400 Euro
PC SUB. 2x 20cm Nahfelddipol im unteren teil der Rückenlehne des Couchsessels mit liege Funktion.
Wozi. Reckhorn 406 + 6x 20cm Nahfelddipol (pro Sitz 2x20cm)
Ohne Nahfelddipol, in dem ich drinnen sitze :freak:, geht bei mir nix mehr.
Bei Explosionen müssen "alle Sachen von der Couch fliegen". (inklusive mir :uexplode:)
M.f.G. JVC
Krass. Aber ist das nicht etwas unnötig, das Gras von der CPU berechnen zu lassen :confused: Da wäre die GPU doch deutlich besser.
Weiß nicht. Was ich weiß ist dass die Engine einen riesen Schritt gemacht hat von der letzten Version zu Troy, den vorher biste immer mit einem Thread am Renderer-Thread gescheitert. D.h. Du hattest 20 FPS, ein Thread war voll ausgelastet und alles andere hat auf diesen Thread gewartet. Und jetzt sind das 70 FPS im Graka-Limit. Hut Ab.
https://abload.de/thumb/warhammer_2017_02_14_ytubi.jpg (https://abload.de/image.php?img=warhammer_2017_02_14_ytubi.jpg) https://abload.de/thumb/attila_2016_05_03_20_grssj.jpg (https://abload.de/image.php?img=attila_2016_05_03_20_grssj.jpg)
aufkrawall
2020-09-27, 15:41:12
Dummerweise sabotiert/hasst der Entwickler Radeons, dafür war das Spiel geschenkt schon zu teuer.
Edgecrusher86
2020-09-27, 15:43:22
Aua Aua Aua Aua Aua
Änder mal die Beschriftung oben im OSD, hehe. :D
Naja - Winter is coming. Die normale Heizung darf also aus bleiben. Mit einem 7980XE-10980XE @ 4,7-5 GHz wäre es wohl dreistellig gewesen. :)
Ex3cut3r
2020-09-27, 16:00:34
Fermi reloaded. Wann bratet PCGH in Gefahr wieder ein Spiegelei auf die GPU pls?
k0nan
2020-09-27, 16:05:49
Gucke gerade das Hardware Unboxed Video .. 2,1kg für die FE. LOL. Da hätte ich echt Schiss, dass mir da auf Dauer der Slot verbiegt oder abbricht oder was weiss ich.
Der Performance Gain über der 3080 in Games ist selbst in 4K zu vernachlässigen. Wer dafür n Tausender mehr ausgibt, ist entweder Content Creator oder hat einen an der Pfanne. :D
https://abload.de/img/rtx3090lul75k44.png
(...)
3090 FE Versandbestätigung ✔️
Content Creator nur auf der Porzellanabteilung 💩✔️
Einen an der Pfanne ✔️
https://abload.de/img/3090_vs_2080tij3knb.png
Come at me bro :biggrin:
Spaß beiseite: Wie mit den Vorgängern (2080 Ti, 1080 Ti, Titan XM) werde ich mit der Graka wieder zwei Jahre alles so Zocken können, wie ich das will. Das muss nicht vernünftig sein, sondern nur Spaß machen :wink:
Ex3cut3r
2020-09-27, 16:11:10
Und? Die 3080 macht da 10-15% weniger (wenn der VRAM vorher nicht ausgeht) kostet aber mehr als 100% weniger. -> Ja, hast einen an der Pfanne. :biggrin: :wink:
Langlay
2020-09-27, 16:17:34
Und? Die 3080 macht da 10-15% weniger (wenn der VRAM vorher nicht ausgeht) kostet aber mehr als 100% weniger. -> Ja, hast einen an der Pfanne. :biggrin: :wink:
Ja, rational zu erklären ist das nicht. Aber mit ihren 10GB RAM ist die 3080 aber auch ziemlich unrund. 3080 20GB wäre sicherlich ne interessante Karte wenn man warten kann.
Erbsenkönig
2020-09-27, 17:02:49
Wann bratet
:freak: Das heißt immer noch "brät" in diesem Kontext.:wink:
Gouvernator
2020-09-27, 17:20:18
Content Creation soll man aber auch nicht unterschätzen. Jeder hier ist quasi ein Content Creator wenn man Screenshots macht. Ich meine 16k+4xMSAA in 10 FPS ist schon was feines. Sowas auch noch auf 8K nativ in 65"...
https://i.ibb.co/XJmf3F0/16k-ss3.jpg (https://ibb.co/XJmf3F0)
Digidi
2020-09-27, 18:28:49
lol Laut Igors Video ist Nvidia bis an die Kotzgrenze der Chips gegangen und anscheind sogar etwas drüber. Deshalb geht bei den Karten auch kein OC mehr so richtig. Was hat Nvidia da nur geritten so einen Chip zu releasen?
RlDC7u7GpR4
Langlay
2020-09-27, 18:43:53
Im besten Fall AMD. Also ich hätte nichts dagehen das Nvidia die Chips so pusht weil AMD auch stark ist. Das lässt dann wenigstens für die Zukunft hoffen.
jabboo
2020-09-27, 18:45:34
Im besten Fall AMD.
Das hoffe ich schwer für AMD!
dargo
2020-09-27, 18:49:25
Und? Die 3080 macht da 10-15% weniger (wenn der VRAM vorher nicht ausgeht) kostet aber mehr als 100% weniger. -> Ja, hast einen an der Pfanne. :biggrin: :wink:
Autsch... das tut beim lesen schon weh. :biggrin: Mehr als 100% weniger würde bedeuten, dass Jensen eine RTX 3080 10GB für lau raushaut und noch den einen oder anderen Hunni drauf legt. ;) Wir wollen mal mathematisch korrekt bleiben. Die 3080 kostet knapp über 53% weniger als die 3090 (UVPs rangezogen).
Gouvernator
2020-09-27, 18:49:50
lol Laut Igors Video ist Nvidia bis an die Kotzgrenze der Chips gegangen und anscheind sogar etwas drüber. Deshalb geht bei den Karten auch kein OC mehr so richtig. Was hat Nvidia da nur geritten so einen Chip zu releasen?
Ja und? Die haben uns damit beim OC viel Zeit gespart. Die Chips laufen an der Kotzgrenze und das auch noch ohne WaKü und ziemlich leise.
Sardaukar.nsn
2020-09-27, 19:50:40
Ja und? Die haben uns damit beim OC viel Zeit gespart. Die Chips laufen an der Kotzgrenze und das auch noch ohne WaKü und ziemlich leise.
Also ganz ähnlich wie Ryzen 3000.
Redneck
2020-09-27, 20:38:00
Also ganz ähnlich wie Ryzen 3000.
Welchen Ryzen kennst Du denn, der ein System zum Absturz bringt ?
Wird schwierig wa... laufen wohl alle stabil innerhalb ihrer vorgegebenen Parameter . War wohl doch kein so geiler Vergleich... schade
dargo
2020-09-27, 20:59:56
Also ganz ähnlich wie Ryzen 3000.
Etwas komischer Vergleich. Mein Ryzen 3000 läuft in Games mit ~35W @4,1Ghz und stürzt auch nicht ab. :tongue:
WedgeAntilles
2020-09-27, 21:01:22
Im besten Fall AMD. Also ich hätte nichts dagehen das Nvidia die Chips so pusht weil AMD auch stark ist. Das lässt dann wenigstens für die Zukunft hoffen.
Macht IMO keinen Sinn.
50 Watt runter, 5% weniger Leistung wäre der bessere Deal gewesen.
Wegen 5% Leistungsunterschied wechselt kein Käufer zu nem anderen Produkt, wenn der Verbrauch - und damit die Temperatur - dafür 15% niedriger ist.
Und den geringen Aufwand beim Kühler hätte man (teilweise) an den Kunden weitergeben können.
Und so die Karte noch mal günstiger anbieten.
Ne 3080 die bei 270W läuft, -5% Leistung hat und dafür noch mal 20 Euro weniger kostet.
Wie genau sollte das AMD Produkt aussehen, dass das nicht die bessere Wahl ist?
Wäre eine AMD Karte die 5% schneller ist, aber 15% mehr verbraucht besser? Nö, natürlich nicht.
Und falls AMD die Leistung der 3080 bei 270W hat: Ist eine AMD Karte mit 5% mehr Leistung für Nvidia eine schlimmere Konkurrenz, als eine AMD Karte mit gleicher Leistung, dafür 15% weniger Verbrauch?
Wer wegen 5% Leistungsunterschied bei der 3080 zu AMD greift, tut das erst recht wegen 15% geringerem Verbrauch.
Zumal die Anzahl der Leute die wegen 5% zu einem anderen Anbieter greifen sowieso lächerlich gering ist. Zumal wenn ja die 5% Unterschied durch andere Faktoren noch ausgeglichen werden.
Und wenn ich die Karte 20 Euro günstiger anbiete habe ich alleine dadurch ja schon den Großteil des Leistungsverlustes ausgeglichen.
Ne, die Wahl von Nvidia auf diese Verbräuche zu gehen ist - zumindest bei der 3080 - völliger Schwachsinn.
Bei der 3090 lasse ich es meinetwegen noch geltne, wenn man unbedingt die Performancekrone behalten will.
Und glaubt, dass AMD die Krone holt wenn man 5% weniger Leistung hat.
Aber bei der 3080? Riesiger Fehler von Nvidia.
Sardaukar.nsn
2020-09-27, 21:41:57
Etwas komischer Vergleich. Mein Ryzen 3000 läuft in Games mit ~35W @4,1Ghz und stürzt auch nicht ab. :tongue:
Wow, war eigentlich als Kompliment für Zen 2 gedacht. Persönlich finde ich es zwar schade das "overclocking" kein Thema mehr ist, aber es scheint das die Hersteller ab Werk schon fast das Maximum aus den Chips raus holen.
OHGOTTOHGOTTOHGOTT
CPU-Limit in 4K/UHD (nativ, ohne DLSS) voll aufgedreht in Death Stranding.
Ich seh schon wieder die User in Schnappatmung ausbrechen.
https://abload.de/img/ds_2020_09_27_22_30_5ipjcz.jpg (https://abload.de/image.php?img=ds_2020_09_27_22_30_5ipjcz.jpg)
Und da soll mal wieder jemand sagen, das moderne Games nicht verstehen mit vielen Kernen umzugehen.
Same in Control (wobei hier DLSS arbeitet, aber ohne gehts gleich abwärts in 40er Regionen^^, dann aber ausm CPU-Limit raus^^)
https://abload.de/img/control_dx12_2020_09_0ikm8.jpg (https://abload.de/image.php?img=control_dx12_2020_09_0ikm8.jpg)
crux2005
2020-09-27, 23:04:40
Death Stranding soll auch ein sehr guter PC Port sein. Also eher die Ausnahme.
Die CPU Auslastung würde ich lieber in FS2020 sehen. Hätte ich mehr von. :)
Troyan
2020-09-27, 23:06:41
Was war deine Karte hisn? 1980MHz ist schon heftig. Auch wenn die Karte nicht komplett ausgelastet ist, sind das 41,5 TFLOPs. :freak:
Ich hab ne Palit GamerPro OC.
Die boostet ohne das ich was mache (ohne Last und für kurze Zeit) auf 2055 Mhz. Im Control-Screen isses ja bei 2010 ohne Last.
Bin so gespannt wohin die Reise geht wenn der Wasserkühler ankommt.
Digidi
2020-09-28, 00:01:05
Was war deine Karte hisn? 1980MHz ist schon heftig. Auch wenn die Karte nicht komplett ausgelastet ist, sind das 41,5 TFLOPs. :freak:
Terra Flops sind nicht gleich Teraflops :facepalm:
https://youtu.be/thP02FeGbnU?t=811
Geächteter
2020-09-28, 00:03:04
Etwas komischer Vergleich. Mein Ryzen 3000 läuft in Games mit ~35W @4,1Ghz und stürzt auch nicht ab. :tongue:
Ist das schon der gesamte Verbrauch oder kommen da noch Cache und I/O hinzu?
Death Stranding soll auch ein sehr guter PC Port sein. Also eher die Ausnahme.
Aber hinblicklich der Anzahl der Kerne, des optisch Dargebotenen und der Framerate auch erschreckende Ineffizienz?!
Wahrscheinlich passiert da hinter den Bergen bei den 7 Zwergen versteckt noch die Simulation der restlichen Welt. :freak:
Oder fressen die fliegenden Gesteinsbrocken die Leistung?
Stretcher
2020-09-28, 00:08:55
CPU-Limit in 4K/UHD (nativ, ohne DLSS) voll aufgedreht in Death Stranding.
Wer spielt auch schon auf einem Ryzen Threadripper.:biggrin:
Troyan
2020-09-28, 00:13:53
Ich hab ne Palit GamerPro OC.
Die boostet ohne das ich was mache (ohne Last und für kurze Zeit) auf 2055 Mhz. Im Control-Screen isses ja bei 2010 ohne Last.
Bin so gespannt wohin die Reise geht wenn der Wasserkühler ankommt.
Beeindruckend. 130MHz mehr als meine 2080TI. Dort ist bei 1925MHz als Boost-Step schluss.
dargo
2020-09-28, 06:18:34
Ist das schon der gesamte Verbrauch oder kommen da noch Cache und I/O hinzu?
Gesamt... ist natürlich Undervolting und da Spiele noch lange keine 12 Threads voll auslasten halt auch Teillast.
Dural
2020-09-29, 09:09:45
Terra Flops sind nicht gleich Teraflops :facepalm:
https://youtu.be/thP02FeGbnU?t=811
TFlops sind IMMER gleich TFlops.
Die Frage ist eher ob der Rest vom Chip zu den TFlops passt und die Architektur alles ausfahren kann.
Si|encer
2020-09-29, 14:15:52
S-Kq7sMCncE
Sardaukar.nsn
2020-09-29, 15:13:08
Bisher die stärkste 3090
QBVpeK4FCiQ
Bisher die stärkste 3090
Interessant, dass die CTD u.U. wohl an Windows im Zusammenhang mit den Treibern liegt. Verwunderlich wäre es nicht aber schon traurig, dass hier ein Außenseiter OS scheinbar besser funzt :rolleyes:
TurricanM3
2020-09-29, 20:35:17
:smile:
https://abload.de/img/screenshot_20200929-291jxu.jpg (https://abload.de/image.php?img=screenshot_20200929-291jxu.jpg)
basix
2020-09-29, 20:55:50
https://youtu.be/S-Kq7sMCncE
Mein Gott, hat er denn keinen noch grösseren Lötkolben gehabt? :D Viel zu gross für solche Arbeiten, das Resultat sieht dann auch entsprechend aus. Aber er lötet damit wohl meistens eher 1kW Power Extender an GPUs als diese ca. 0603 grossen Kondensatoren ;D
seaFs
2020-09-29, 21:51:35
Mein Gott, hat er denn keinen noch grösseren Lötkolben gehabt? :D Viel zu gross für solche Arbeiten, das Resultat sieht dann auch entsprechend aus. Aber er lötet damit wohl meistens eher 1kW Power Extender an GPUs als diese ca. 0603 grossen Kondensatoren ;D
Der große Lötkolben mit viel gespeicherter Wärmemenge in der Lötspitze ist die richtige Wahl. Dadurch wird die Lötspitze beim Kontakt mit den kalten Bauteilen fast gar nicht abgekühlt, was einen schnellen Lötvorgang ermöglicht und die Platine möglichst wenig aufheizt. Besonders beim Auslöten von MOSFETs ist ein richtig fetter Lötkolben Pflicht. Ich sehe eher das Problem mit einem kleinen 15W oder 30W Lötkolben, welcher durch die kleine Masse der Lötspitze sehr schnell an seine Grenzen bei einer dicken Platine (welche im Betrieb auch nicht gerade wenig Wärme abführen wird) kommen würde und schnell unter die Schmelztemperatur des Lotes abgekühlt wird.
Benutzername
2020-09-29, 22:19:01
PV in Genehmigungsphase :-)
E-Auto^^
Seid nachsichtig mit mir bitte.
Dann kannst Du aber nur entweder Auto aufladen, oder den Rechner anwerfen. Beides geht nicht. :lol:
TurricanM3
2020-09-29, 22:33:01
https://youtu.be/S-Kq7sMCncE
Die Karte boostet plötzlich auf 2.1 als er 120 offset übernimmt. Weird, aber das läuft dann natürlich nicht mehr.
Was er bei 13:33 sagt, da können sich hier einige angesprochen fühlen. :wink:
BlacKi
2020-09-29, 23:15:08
Die Karte boostet plötzlich auf 2.1 als er 120 offset übernimmt. Weird, aber das läuft dann natürlich nicht mehr.
Was er bei 13:33 sagt, da können sich hier einige angesprochen fühlen. :wink:
die leute brauch garkeine gründe um die mistgabeln rauszuholen.
komischerweise blieben die mistgabeln bei vega stecken als die unterschiedlichen höhen des hbm auftraten.
aber bei NV gehört das schon zum guten ton.
die leute regen sich auf wenn das PT keine 400w hat wenn es 400w hat dann isses auch fail^^
Dural
2020-09-29, 23:24:55
Die firma mit der überlegenen technik ist immer ziel für so etwas. Das sah man die letzten jahre auch zb. bei tesla ganz gut.
Screemer
2020-09-29, 23:25:18
ich kann mich noch an das trara zum release der r480 erinnern. pcie-gate ist noch schön ausgedrückt. dabei war keine der karten instabil, wie in diesem fall mit den ampere-karten, oder irgendwer hat sich sein board damit abgefackelt. schon geil wie da jetzt einige nvidia in die opferrolle drücken wollen. ;D
Geldmann3
2020-09-29, 23:32:13
die leute regen sich auf wenn das PT keine 400w hat wenn es 400w hat dann isses auch fail^^
Interessanter Punkt. Bei der 2000er Serie haben viele kritisiert, dass Nvidia sie via Powerlimit künstlich in Zaum gehalten hätte. Nun beschweren sich die Leute, dass die 3000er Serie zu viel Strom zieht. Andererseits wäre eventuell ein Kompromiss gewesen, sie 5% niedriger zu takten und es den Übertaktern zu überlassen, ob sie das Powerlimit ausfahren möchten.
Doch dann hätte man wieder schlechter gegen Big-Navi in den Benchmarks dagestanden.
BlacKi
2020-09-30, 00:12:06
Andererseits wäre eventuell ein Kompromiss gewesen, sie 5% niedriger zu takten und es den Übertaktern zu überlassen, ob sie das Powerlimit ausfahren möchten.
ja, ich verstehe eh nicht warum man über 270w gegangen ist. die 4 prozent sinds dann halt auch nicht, die den braten fett machen.
4% als ob wenn big cute navi rauskommt das irgendeinen unterschied machen würde:freak:
ich muss an die leute denken, die meinen das nv weiß wie stark navi wird und deshalb 4% extra rausquetschen müssen um navi schlagen zu können:freak: amd wusste vermutlich selbst nicht wo ihrer karte landet zum zeitpunkt als nv 320/350w beschlossen hatte:freak:
aber die leute leiten daran ab das navi stark wird;D träumer sind das XD
Dschounz
2020-09-30, 07:26:28
ja, ich verstehe eh nicht warum man über 270w gegangen ist. die 4 prozent sinds dann halt auch nicht, die den braten fett machen.
4% als ob wenn big cute navi rauskommt das irgendeinen unterschied machen würde:freak:
ich muss an die leute denken, die meinen das nv weiß wie stark navi wird und deshalb 4% extra rausquetschen müssen um navi schlagen zu können:freak: amd wusste vermutlich selbst nicht wo ihrer karte landet zum zeitpunkt als nv 320/350w beschlossen hatte:freak:
aber die leute leiten daran ab das navi stark wird;D träumer sind das XD
Wenn man mal einen Schritt zurück tritt und sich die aktuelle Situation anguckt, z.B. den neuen Treiber von nV, der anscheinend die Boosttaktraten zumindest bei einigen Karten absenkt, muss man sich doch fragen:
Was reitet eine Firma, die zur Zeit unangefochten bei der Leistung und den Marktanteilen an der Spitze steht, sich freiwillig in eine solche Situation zu begeben, die zumindest keine überschwänglich gute PR produziert?? :rolleyes:
Hätte man das Powerlimit auf 270W gesetzt, wäre das alles runder gelaufen; die Founders-Edition Karten wären (noch) leiser gewesen und die Netzteil-Problematik wäre abgemildert worden.
Was, wenn nicht drohende Konkurrenz einer konkurrierenden Firma?? :P
Das man in einer Tech-Firma sitzt mit 25-jähriger Erfahrung und sagt:
"Wir haben mit 320/350W geplant, dann ziehen wir das jetzt durch, egal wie sinnlos!" ist doch zumindest unglaubwürdig.
Diese Diskussionen gab's bei Vega auch und bei Fiji gab's sogar mit der Nano ein Produkt. Der Grund dürfte überall der gleiche sein.
Ätznatron
2020-09-30, 08:34:09
komischerweise blieben die mistgabeln bei vega stecken als die unterschiedlichen höhen des hbm auftraten.
Was genau hat die Höhe eines Bauteils, das von einem 3rd-Party Wakü-Hersteller nur unzureichend vermessen wurde und dessen Produkt deswegen Probleme bereitet hat, mit unzureichender Kondensatorleistung ab Werk zu tun?
edit: Oder meinst du mit "Höhen" eventuell unterschiedlich hohe und nicht den Specs entsprechende Taktraten? ;)
Kaum ist Ampere da, gibt es auch einen Showcase - aber keinen, den man erwartet hätte. Shader-Monster-Slayer Sam ist wieder da: https://www.pcgameshardware.de/Serious-Sam-4-Spiel-32391/Specials/Release-Test-Review-CPU-GPU-Benchmark-1358330/2/#a3
Man beachte die Extrem-Tests unten. In der höchsten Auflösung rangiert die RTX 3090 FE um 58 Prozent vor einer werkseitig übertakteten RTX 2080 Ti (die 3080 OC um immerhin +37 %). Alle anderen GPUs sehen daneben einfach aus wie Crap. :ugly:
MfG
Raff
basix
2020-09-30, 11:30:06
Der große Lötkolben mit viel gespeicherter Wärmemenge in der Lötspitze ist die richtige Wahl. Dadurch wird die Lötspitze beim Kontakt mit den kalten Bauteilen fast gar nicht abgekühlt, was einen schnellen Lötvorgang ermöglicht und die Platine möglichst wenig aufheizt. Besonders beim Auslöten von MOSFETs ist ein richtig fetter Lötkolben Pflicht. Ich sehe eher das Problem mit einem kleinen 15W oder 30W Lötkolben, welcher durch die kleine Masse der Lötspitze sehr schnell an seine Grenzen bei einer dicken Platine (welche im Betrieb auch nicht gerade wenig Wärme abführen wird) kommen würde und schnell unter die Schmelztemperatur des Lotes abgekühlt wird.
Bei grösseren Bauteilen oder Bauteilen mit grossen Kontaktflächen und somit viel Wärmeabfuhr übers PCB gebe ich dir recht. Aber nicht bei so kleinen SMD-Kondensatoren ;)
BlacKi
2020-09-30, 11:33:24
Was genau hat die Höhe eines Bauteils, das von einem 3rd-Party Wakü-Hersteller nur unzureichend vermessen wurde und dessen Produkt deswegen Probleme bereitet hat, mit unzureichender Kondensatorleistung ab Werk zu tun?
edit: Oder meinst du mit "Höhen" eventuell unterschiedlich hohe und nicht den Specs entsprechende Taktraten? ;)
OT
https://www.igorslab.de/amd-vega-package-probleme-unterschiede/
Was, wenn nicht drohende Konkurrenz einer konkurrierenden Firma?? :P
ihr versucht alles was ihr nicht erklären könnt mit der konkurenz zu erklären obwohl es, wenn man logisch denkt, garnicht sein kann. und da widerspreche ich generell, ich halte diese grundeinstellung für falsch, gerade bei nv. bei amd könnte ich mir sogar das vorstellen, aber auch nur weil sie im hintertreffen sind.
ich glaube, das nv zwar im groben zwar die preise anpasst, aber ein 3/4 jahr vor dem release von big navi wird nv garantiert nicht gesagt haben oohh lasst uns mal die letzten 4% rausquetschen, wir haben angst, das amd schneller sein könnte:freak:
Sardaukar.nsn
2020-09-30, 11:56:07
Kaum ist Ampere da, gibt es auch einen Showcase - aber keinen, den man erwartet hätte. Shader-Monster-Slayer Sam ist wieder da: https://www.pcgameshardware.de/Serious-Sam-4-Spiel-32391/Specials/Release-Test-Review-CPU-GPU-Benchmark-1358330/2/#a3
Man beachte die Extrem-Tests unten. In der höchsten Auflösung rangiert die RTX 3090 FE um 58 Prozent vor einer werkseitig übertakteten RTX 2080 Ti (die 3080 OC um immerhin +37 %). Alle anderen GPUs sehen daneben einfach aus wie Crap. :ugly:
MfG
Raff
Danke für den spannenden Test. Schön das ihr auch die Ultrawide Auflösung hinzunehmt. :up:
Dschounz
2020-09-30, 12:00:27
OT
https://www.igorslab.de/amd-vega-package-probleme-unterschiede/
ihr versucht alles was ihr nicht erklären könnt mit der konkurenz zu erklären obwohl es, wenn man logisch denkt, garnicht sein kann. und da widerspreche ich generell, ich halte diese grundeinstellung für falsch, gerade bei nv. bei amd könnte ich mir sogar das vorstellen, aber auch nur weil sie im hintertreffen sind.
ich glaube, das nv zwar im groben zwar die preise anpasst, aber ein 3/4 jahr vor dem release von big navi wird nv garantiert nicht gesagt haben oohh lasst uns mal die letzten 4% rausquetschen, wir haben angst, das amd schneller sein könnte:freak:
Glaubst du wirklich, die endgültigen Taktraten wurden für Ampere vor 9 Monaten festgelegt....:rolleyes:
Man experimentiert mit dem Pre-Release-Silizium und legt die endgültigen Taktraten anhand der Güte (inkl. Binning) des Mass-Production-Siliziums fest. Und wenn man dann feststellt, nehmen wir mal an vor 1-2 Monaten, dass für eine Leistungsteigerung von 4% eine 18,5%tige Erhöhung der Leistung notwendig ist und man auch noch an der Stabilitätsgrenze kratzt, dass eine Firma sich ohne den genannten Grund dafür entscheidet??
Armaq
2020-09-30, 12:12:38
Kaum ist Ampere da, gibt es auch einen Showcase - aber keinen, den man erwartet hätte. Shader-Monster-Slayer Sam ist wieder da: https://www.pcgameshardware.de/Serious-Sam-4-Spiel-32391/Specials/Release-Test-Review-CPU-GPU-Benchmark-1358330/2/#a3
Man beachte die Extrem-Tests unten. In der höchsten Auflösung rangiert die RTX 3090 FE um 58 Prozent vor einer werkseitig übertakteten RTX 2080 Ti (die 3080 OC um immerhin +37 %). Alle anderen GPUs sehen daneben einfach aus wie Crap. :ugly:
MfG
Raff
Bei den Min FPS sind es 27%. Also kann man sehr sicher annehmen, dass der Abstand durchaus noch größer wird mit mehr CPU-Power.
Das einzige was ich mich frage ist, ob die 30x0 unter Wasser dann auch nochmal skalieren, oder ob das einfach schon ihr Limit ist.
BlacKi
2020-09-30, 12:53:17
Glaubst du wirklich, die endgültigen Taktraten wurden für Ampere vor 9 Monaten festgelegt....:rolleyes:
Man experimentiert mit dem Pre-Release-Silizium und legt die endgültigen Taktraten anhand der Güte (inkl. Binning) des Mass-Production-Siliziums fest. Und wenn man dann feststellt, nehmen wir mal an vor 1-2 Monaten, dass für eine Leistungsteigerung von 4% eine 18,5%tige Erhöhung der Leistung notwendig ist und man auch noch an der Stabilitätsgrenze kratzt, dass eine Firma sich ohne den genannten Grund dafür entscheidet??
die taktraten sind sowieso nicht fest.
aber das powerlimit musste vor 6-7monaten definitv feststehen. da navi später kommt, und vermutlich bis vor kurzem noch garkeine PT fixierung gab, konnte NV garnicht wissen wie schnell navi wird. höchstens grob und da sind die 4% durch 320/350w PT einfach nur lächerlich. das passt einfach nicht zusammen.
MiamiNice
2020-09-30, 12:55:33
Angeblich kommen die Asus Karten am 2.10 nach Deutschland.
Troyan
2020-09-30, 12:57:59
die taktraten sind sowieso nicht fest.
aber das powerlimit musste vor 6-7monaten definitv feststehen. da navi später kommt, und vermutlich bis vor kurzem noch garkeine PT fixierung gab, konnte NV garnicht wissen wie schnell navi wird. höchstens grob und da sind die 4% durch 320/350w PT einfach nur lächerlich. das passt einfach nicht zusammen.
Außerdem wird hier einfach ignoriert, dass der Speicher ebenfalls zum Verbrauch beiträgt. Eine Reduzierung bringt kaum was, da der fixe Anteil am Verbrauch weiterhin fix bleibt. Wenn ich bei meiner 3090 das Powerlimit reduziere, wird radikal die Taktrate gesenkt. Bei 50W müssen da ca 40W alleine von der GPU weggenommen werden.
4% weniger ist vielleicht bei der 3080 drin, aber eine 20% Reduzierung bei der 3090 mündet in ca. 15% weniger Leistung.
Ätznatron
2020-09-30, 13:03:28
OT
https://www.igorslab.de/amd-vega-package-probleme-unterschiede/
Danke für die Antwort.
Also komplett nicht vergleichbar mit der Ampere-Problematik.
BlacKi
2020-09-30, 13:21:10
der Speicher ebenfalls zum Verbrauch beiträgt.
ich verstehe nicht, wie diese frage immernoch nicht geklärt ist. hier wären die üblichen verdächtigen längst mal überfällig.
aber das werden wir spätestens mit der 3080 20gb sehen, das die ca. 4% langsamer wird als eine 3080 10gb.
Danke für die Antwort.
Also komplett nicht vergleichbar mit der Ampere-Problematik.
natürlich ist das ein issue. die 480 hatte auch ein anderes launch problem. keine ahnung worauf du hinauswillst.
TurricanM3
2020-09-30, 13:48:47
Angeblich kommen die Asus Karten am 2.10 nach Deutschland.
Woher hast das?
Langlay
2020-09-30, 13:54:30
4% weniger ist vielleicht bei der 3080 drin, aber eine 20% Reduzierung bei der 3090 mündet in ca. 15% weniger Leistung.
Das ist quatsch. Beim UV bleibt bei der 3090 der Verbrauch halt immernoch recht hoch. Aber du verlierst nicht massiv Leistung.
Mein 24/7 Setting 1800MHz @ 0.775V macht in Witcher 3 4K 280-300W Boardpower. Bei quasi gleicher Leistung.
Troyan
2020-09-30, 13:56:24
Nicht Undervolting, sondern Powerlimit mit den aktuellen Boost-Steps. Die sind ja so gewählt, um die entsprechende Ausbeute zu erreichen.
MiamiNice
2020-09-30, 15:46:52
Woher hast das?
Im AQ Forum treibt sich jemand rum der angeblich über diese Infos verfügt. Hier im Forum, im 3080 Thread, hat es jemand bestätigt mit einem Liefertermin für Freitag für die 3080. Könnte also was dran sein.
Dschounz
2020-09-30, 15:49:42
die taktraten sind sowieso nicht fest.
aber das powerlimit musste vor 6-7monaten definitv feststehen. da navi später kommt, und vermutlich bis vor kurzem noch garkeine PT fixierung gab, konnte NV garnicht wissen wie schnell navi wird. höchstens grob und da sind die 4% durch 320/350w PT einfach nur lächerlich. das passt einfach nicht zusammen.
Was die 3090 angeht, gebe ich dir (widerwillig ;D) recht, das passt.
Wenn man sich den 3080 FE Kühler im Verhältnis zum 3090 FE Kühler ansieht, bin ich im Bezug auf die 3080 nicht überzeugt :cool:
Bei der 3090 ist man aber auch aus der Comsumerecke raus und da zählen neben der schieren Leistung noch andere Dinge (z.B. gute Treiber für 3D Modelling; hier sieht AMD im Moment kein Land).
TurricanM3
2020-09-30, 15:51:55
Schön wäre das auch für die 3090. Sieht aber nicht danach aus. Manche behaupten Ende Oktober / Anfang November mit Verweis auf irgendwelche Großhändler.
Im Luxx ist wieder einer mit 750er NT und von Abschaltungen geplagt. Hat sich ein stärkeres zugelegt und nun läuft alles.
Hab mir zur Sicherheit mal noch ein neues NT geordert. 1200er BQ. Das bleibt dann hoffentlich auch permanent leise da Last kaum höher als 50%. Wird der dritte Netzteilumbau das Jahr. :freak:
Dural
2020-09-30, 16:13:57
Hole mir auch noch ein Seasonic 850 oder gar 1000W.
Liefertermin der 3090 sieht aber extrem schlecht aus, unter der Hand hört man von 2-3 Monaten :freak:
Ich vermute mal das hier noch Corona rein spielt, anders kann ich mir es nicht erklären.
Triniter
2020-09-30, 16:17:17
Tja schade, aber ich vermute mal man wird hier eh nie fundierte Aussagen bekommen. Von den Firmen nicht und sonst auch nicht, will sich ja keiner das Geschäft mit sowas vermiesen...
TurricanM3
2020-09-30, 16:19:14
Ich hatte ein 850er SP11 Plat. drin. Gehe da aber lieber auf Nummer sicher bevor sich dann Probleme aufkommen. Wirklich zufrieden war ich mit dem eh nicht, da es minimale Spulengeräusche hatte. Das 750er davor nicht. Evtl. bleibt das 1200er komplett leise.
Gouvernator
2020-09-30, 17:37:42
Liefertermin der 3090 sieht aber extrem schlecht aus, unter der Hand hört man von 2-3 Monaten :freak:
Ich vermute mal das hier noch Corona rein spielt, anders kann ich mir es nicht erklären.
Tja, da habe ich mich wohl nicht umsonst Punkt 15.00 Uhr auf Arbeits-WC begeben um auf NV Seite die Verfügbarkeit zu checken. Nach dem sie mich in eine Schleife geschickt haben habe ich gleich gedacht, es ist wieder was im Busch. Dann schnell auf Alternate Seite gegangen und da war eine TUF 3090 um 15.03 Uhr auf Lager. Habe einfach auf gut Glück "Selbstabholung" bestellt und nach 20 min. kam die Nachricht "die Ware liegt zum abholen bereit". Und so habe ich meine 3090 ca. 4 Stunden nach dem Launch eingebaut. Schlafzeit bis zur Arbeit - 30 min. Habe bis 05.30Uhr getestet. ;D
Lawmachine79
2020-09-30, 18:29:03
Tja, da habe ich mich wohl nicht umsonst Punkt 15.00 Uhr auf Arbeits-WC begeben um auf NV Seite die Verfügbarkeit zu checken. Nach dem sie mich in eine Schleife geschickt haben habe ich gleich gedacht, es ist wieder was im Busch. Dann schnell auf Alternate Seite gegangen und da war eine TUF 3090 um 15.03 Uhr auf Lager. Habe einfach auf gut Glück "Selbstabholung" bestellt und nach 20 min. kam die Nachricht "die Ware liegt zum abholen bereit". Und so habe ich meine 3090 ca. 4 Stunden nach dem Launch eingebaut. Schlafzeit bis zur Arbeit - 30 min. Habe bis 05.30Uhr getestet. ;D
Bei mir war es viel einfacher: habe 8 Shops im Browser geöffnet, wie wild hin und her geklickt, dann eine bestellt und keine bekommen :D.
Wo ist das Problem? 4k mausert sich gerade zum Standard, im Moment habt es noch ein paar Nachteile, die auch da neue HDMI nur teilweise ausräumen kann. Der nächste Schritt ist 8k. Nur - wann soll der Schritt denn anfangen? Wenn alle Grafikkarten da schon 144fps liefern? Irgendwann mit 780TI/980TI rückte 4k im Fokus und es war auch nicht sofort flüssig spielbar. Irgendeine Grafikkartengeneration muss aber mal den Fuß in die Tür stellen und das ist jetzt halt Ampere.
Und mal eine einfache Konrollüberlegung: 8k benötigt die 4-fache Performance von 4k. Erst jetzt wird für High-End-Karten der Bereich über 60fps in nahezu jedem Spiel erschlossen. Hat hier jemand jemals einen Perfomancesprung von 4-fach innerhalb eine Kartengeneration erlebt (Vielleicht tatsächlich, Voodoo 2-SLI könnte so ein Beispiel sein)?
4k@144Hz? Welche Karte stemmt das bitte? Für 8k musst du wohl noch 4 Jahre warten müssen. Und bitte komm jetzt nicht mit ner dämlichen Upscaling-Funktion!
Sardaukar.nsn
2020-09-30, 19:53:34
Angeblich kommen die Asus Karten am 2.10 nach Deutschland.
Ausführungen bei FB sind auch ganz zuversichtlich: https://www.facebook.com/ASUSROG.DE/posts/3124886990950794
dildo4u
2020-09-30, 20:42:59
Er betrachtet hier nicht nur Core Temp sondern auch VRM und GDDR6X, Custom Modelle können dort besser sein als FE.(Trotz leichterem Kühler)
3QbHJ3EzmE4
Digidi
2020-09-30, 20:45:43
delete, falsches forum gerutscht
horn 12
2020-09-30, 22:46:33
@Turrican welches BQ 1200 Netzteil
Das NEUE Dark Power PRO 12
k0nan
2020-09-30, 23:00:25
Ich hatte ein 850er SP11 Plat. drin. Gehe da aber lieber auf Nummer sicher bevor sich dann Probleme aufkommen. Wirklich zufrieden war ich mit dem eh nicht, da es minimale Spulengeräusche hatte. Das 750er davor nicht. Evtl. bleibt das 1200er komplett leise.
Gute Wahl, ich habe den Vorgäner (BQ DPP11 @ 1200W) und bin top zufrieden, damit läuft meine 3090 FE problemlos :up:
dargo
2020-10-01, 16:34:51
RTX 3090 SLI-Test.
y4fb_R5Ogw0
Am geilsten ist ja, dass die Envylink-Britsch aussieht wie eine Sanduhr. ;D
MfG
Raff
Platos
2020-10-01, 20:07:01
Die Perfomancegewinne unter SLI sind einfach ein Witz. Bei den Min-FPS sind die Gewinne marginal (abgesehen von der einen Ausnahme - und selbst da nicht mal 50%).
Aber dass er ständig Prozentzahlen der Avg.-Werte vergleicht, ist schon ziemlich daneben. Wie kann man bitte für die Bewertung immer noch Avg.-Werte nehmen :confused: Und dann auch noch bei SLI...Er testet zwar immer schön mit min. FPS, aber trotzdem liegt das Hauptaugenmerk bei ihm meistens bei Avg.-Werten...
Nazar
2020-10-01, 20:12:52
die leute brauch garkeine gründe um die mistgabeln rauszuholen.
komischerweise blieben die mistgabeln bei vega stecken als die unterschiedlichen höhen des hbm auftraten.
aber bei NV gehört das schon zum guten ton.
die leute regen sich auf wenn das PT keine 400w hat wenn es 400w hat dann isses auch fail^^
Also bitte.... :rolleyes:
Genau wegen Vega ging es bei den nVidianern ab wie sonst was.
Gerade diese "Fans" forderten, man solle doch ab sofort die Leistungsaufnahme bitte immer mittesten.
Vorher, bei "Föhn&Co", kein einziges Wort der nVidianer!
Und genau jetzt auch wieder schweigen im Walde und wie böse doch diejenigen sind, die genau diesen Punkt aufzeigen. Wie können die nur die selben Aussagen der nVidianer nutzen. :rolleyes: ;D
Ich kann vielen nur mal anraten in die alten Threads zu gehen und sich durchzulesen was dort für Aussagen getätigt worden und das mit den jetzigen abzugleichen.
Manch einer sollte sich wirklich schämen... obwohl... die bekannten Personen haben eh kein Schamgefühl mehr... Fanatiker halt. :freak:
Und wenn ich an all die "neutralen" Berichte und die plötzliche Konzentration auf die Leistungsaufnahme der GPUs ab Vega in den "Fachzeitschriften" zurückdenke, kommt mir eine solche Unterstellung, wie der Deinen, gerade wie purer Hohn vor.
"Die Geister die man selber rief.... da war doch was... gell? :wink:
Daredevil
2020-10-01, 20:30:17
Ich glaube der große Unterschied ist einfach, dass man den hohen Verbrauch nicht hört, deswegen gibt es auch kein Geschrei.
Bis zu den guten Customs ist bei Vega fast ein halbes Jahr vergangen, vorher wurde einem ne 2400rpm Lösung präsentiert und der Grund war nun mal der Verbrauch. ( Deswegen war UV sehr beliebt, weil es Arschlaut war, nicht wegen den Stromkosten )
Die VII hat an der Stelle den Vogel total abgeschossen. :D
Die 3080/3090 verbrauchen ebenfalls sehr viel Energie, sogar deutlich mehr als z.B. eine Vega/VII, nur diesen Verbrauch bemerkt man nicht großartig, da man ihn nicht hört.
( Es sei denn, mal holt sich die 3090 Blower Edition :< )
Lawmachine79
2020-10-01, 21:04:25
Die 3080/3090 verbrauchen ebenfalls sehr viel Energie, sogar deutlich mehr als z.B. eine Vega/VII, nur diesen Verbrauch bemerkt man nicht großartig, da man ihn nicht hört.
( Es sei denn, mal holt sich die 3090 Blower Edition :< )
Zusätzlich zur Lautstärke dürfte noch eine Rolle spielen, dass die 3080/3090 Leistung haben, die Vegakarten waren von Anfang an veraltet.
Daredevil
2020-10-01, 21:09:27
Das war zu der Zeit aber irrelevant, da Vega+Freesync fantastisch gut+günstig waren und GSync Monitore arschteuer.
Das ist btw. auch der Grund, wieso jetzt Leute mit einem GSync Monitor sicherlich nicht auf irgendeine AMD Karte warten können, weil GSync ist auf Gsync UND Freesync Monitoren möglich ist, Freesync aber nur auf Freesync Monitoren. Der ehemalige AMD Vorteil ist zu einem AMD Nachteil geworden.
Ich hatte für ne Woche noch ne VII im System und es ist grausam, da mein OLED nur GSync supportet bis dato. Nicht mal Rocket League wollte ich damit spielen.
Olliver
2020-10-01, 21:23:50
Das war zu der Zeit aber irrelevant, da Vega+Freesync fantastisch gut+günstig waren und GSync Monitore arschteuer.
Das ist btw. auch der Grund, wieso jetzt Leute mit einem GSync Monitor sicherlich nicht auf irgendeine AMD Karte warten können, weil GSync ist auf Gsync UND Freesync Monitoren möglich ist, Freesync aber nur auf Freesync Monitoren. Der ehemalige AMD Vorteil ist zu einem AMD Nachteil geworden.
Ich hatte für ne Woche noch ne VII im System und es ist grausam, da mein OLED nur GSync supportet bis dato. Nicht mal Rocket League wollte ich damit spielen.
Ich denke Nvidia GSync Karten beherrschen auch Freesync auf Freesync Monitoren, seit Nvidia das in die Treiber implementiert hat, aber GSyng ist es dann eben nicht, das geht nach wie vor nur auf Gsyncmonitoren.
Armaq
2020-10-01, 21:38:26
Ich denke Nvidia GSync Karten beherrschen auch Freesync auf Freesync Monitoren, seit Nvidia das in die Treiber implementiert hat, aber GSyng ist es dann eben nicht, das geht nach wie vor nur auf Gsyncmonitoren.
Stimmt glaube nicht, aber auch das von Devil nicht.
Ich hab nen Freesync UWide und der läuft perfekt mit der 2080Ti auf 120 Hz.
Olliver
2020-10-01, 21:44:45
Das es funktioniert ist klar.
Ich beziehe mich nur darauf, dass die Technik für GSync und Freesync verschieden ist.
Sardaukar.nsn
2020-10-01, 21:47:36
3090 @ SFF
https://i.imgur.com/9vcLCr8.jpeg
https://imgur.com/a/84rT8E1#9vcLCr8
qiller
2020-10-01, 22:44:25
Ich würd sagen, gut ausgemessen :D
Benutzername
2020-10-02, 00:49:56
Wenn da Löcher im Gehäuse sind damit der Kühler durchblasen kann, sollte die Kühlung soger ganz brauchbar sein. Ich frage mich wie lange daran herumgefummelt wurde bis die KArte drin saß?
edit: nochmal die Bilder genauer angesehen, Okay der Lüfter auf der Oberseite blöäast durch die gelochte Seitenwand, aber wo ziehen die die Luft her?
Hakim
2020-10-02, 01:01:52
Die bekommste da net mehr raus, kannst nur noch komplett verkaufen :)
BlacKi
2020-10-02, 01:47:27
wer sagt denn das er die karte mit 350w laufen lässt?
Rampage 2
2020-10-02, 06:46:56
Aua Aua Aua Aua Aua
https://abload.de/img/stromgebrauchjqkdy.jpg (https://abload.de/image.php?img=stromgebrauchjqkdy.jpg)
Wieviel Watt von diesen 887W gingen alleine für die CPU drauf? Und genau wieviel verbrauchte isoliert die Grafikkarte? Lief die 3090 in den Standardeinstellungen oder hast du sie manuell übertaktet? Welche Taktraten liegen maximal/durchschnittlich/minimal an?
R2
Hatten wir das hier schon?
Geforce RTX 3090: Custom-Designs in der Übersicht - Taktraten, Kühlung und Powerlimits [Update] (https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-Geforce-3090-Custom-Customdesigns-1358954/)
Da gibt's ein paar Modelle, die mehr als 400 Watt erlauben. Die Asus Strix ist mit 480 Watt Max-TGP ungeschlagen und nicht von dieser Welt. :ugly:
MfG
Raff
Lawmachine79
2020-10-02, 09:30:29
Hatten wir das hier schon?
Geforce RTX 3090: Custom-Designs in der Übersicht - Taktraten, Kühlung und Powerlimits [Update] (https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-Geforce-3090-Custom-Customdesigns-1358954/)
Da gibt's ein paar Modelle, die mehr als 400 Watt erlauben. Die Asus Strix ist mit 480 Watt Max-TGP ungeschlagen und nicht von dieser Welt. :ugly:
MfG
Raff
Cool, die kann ich an meinem 14 Jahren alten Tagan TG-480 U01 betreiben.
dargo
2020-10-02, 09:40:18
Hatten wir das hier schon?
Geforce RTX 3090: Custom-Designs in der Übersicht - Taktraten, Kühlung und Powerlimits [Update] (https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Specials/RTX-Geforce-3090-Custom-Customdesigns-1358954/)
Warum ist die Gaming X Trio in eurem Vergleich trotz +50Mhz und +20W minimal langsamer als die 3090FE? Und die ZOTAC Trinity erreicht echt nur ~1680MHz bei 350W? Verbauen die da nur die absoluten Gurkenchips? :freak:
Dural
2020-10-02, 09:50:17
Auf der asus.com Webseite stand für die strix oc aber auch nur 1770 wie bei der tuf, jedenfalls als ich vor wenigen tagen dort war.
1860MHz finde ich etwas sehr viel, laut neuem eintrag im oc modus sogar 1890MHz :eek:
https://www.asus.com/Graphics-Cards/ROG-STRIX-RTX3090-O24G-GAMING/specifications/
Wieviel Watt von diesen 887W gingen alleine für die CPU drauf? Und genau wieviel verbrauchte isoliert die Grafikkarte? Lief die 3090 in den Standardeinstellungen oder hast du sie manuell übertaktet? Welche Taktraten liegen maximal/durchschnittlich/minimal an?
R2
Ich kann das Daheim nicht "genau" messen. Und solange ich keinen Wasserkühler habe, kann ich Dir auch die genauen Takte nicht sagen. Das Gebrüll im Rechner nervt einfach nur. Die Graka nutzt ihr 365W-Korsett jedenfalls ständig aus, und taktet zurück, wenn sie es erreicht.
MiamiNice
2020-10-02, 19:26:44
1860MHz finde ich etwas sehr viel, laut neuem eintrag im oc modus sogar 1890MHz :eek:
Ich finde 1890 Mhz total mäßig und hoffe das meine Strix im Sandwich Kühler das um min 200Mhz überbieten kann.
Gouvernator
2020-10-02, 19:43:56
Alle diese hohen mhz Angaben sind eigentlich für den Popo. Ich habe mal Quake 2 in voller 8K Auflösung laufen lassen mit 9 Fps mit 17Gb VRAM Belegung und die 3090 hat teilweise auf 1470mhz "geboostet". Viel wichtiger als max. Takt ist die Karte einfach zu undervolten. Die wahnsinnigen 470W Power Target kommen on top auf schon "normal" wahnsinnige 370W. Das kann man diesen Karten echt nicht antun, schon gar nicht jetzt - wo sie quasi unersetzbar sind. Vom Preis ganz abgesehen.
Ich verstehe die Logik nicht. Kriegst du 500 Watt gekühlt, hält eine solche Karte ihre 1,8 GHz halt auch in 8K, während die 350-Watt-Version auf 1,5 GHz kachelt.
MfG
Raff
Gouvernator
2020-10-02, 19:57:24
Ich verstehe die Logik nicht. Kriegst du 500 Watt gekühlt, hält eine solche Karte ihre 1,8 GHz halt auch in 8K, während die 350-Watt-Version auf 1,5 GHz kachelt.
MfG
Raff
Ich habe damals eine ATI X850 XT anno 2004 mit Voltmod übertaktet. Und mir sind dabei gewisse Bauteile von der Karte gesprungen. Spulenfiepen Next Level sozusagen. Ab einer gewissen Watt-Grenze geht es gar nicht mehr um die GPU selber, sondern um alles drumherum. Zumal der OC an 3090 völlig überbewertet wird. Denn da wo man es braucht - 8K, kommt man mit bisschen OC höchstens auf 3 FPS mehr, von 30 auf 33. Um hier was zu reißen sind ganz neue Chips mit +200% auf die 3090 Leistung nötig.
MiamiNice
2020-10-02, 20:01:09
Deswegen kauft man eine Asus Strix. Da sind keine 08/15 Komponenten drauf wie auf allen anderen Karten oder der FE. Dazu hat man eine wenn nicht die beste Boardfertigung und das beste Layout zum kühlen. Dazu dann in 3 Wochen den Sandwich Kühler von Aqua Computer.
8k sind für mich völlig irrelevant, bei mir knallt die Peitsche mit VR und 500% Upsampling. Da muss die 3090 zeigen was sie kann.
Übertakten tut man btw. generell weil man es kann und will. Nicht weil es 5 Fps in irgendeinem Spiel bringt.
So rein aus Interesse: Welchen 8k Monitor nutzt Du?
Sardaukar.nsn
2020-10-02, 20:04:47
Das ASUS Bios lässt sich wohl auch auf nicht-Asus Karten flashen. Erhöht immerhin das Powerlimit, ansonsten bin ich ganz bei dir MiamiNice ;)
https://www.overclock.net/threads/official-nvidia-rtx-3090-owners-club.1753930/page-90#post-28642101
Gouvernator
2020-10-02, 20:05:37
Ich würde die Karte erst anfassen wenn der Nachfolger breit verfügbar ist. Es ist einfach zu viel Risiko. :freak:
MiamiNice
2020-10-02, 20:08:38
Ich würde die Karte erst anfassen wenn der Nachfolger breit verfügbar ist. Es ist einfach zu viel Risiko. :freak:
Ich hoffe das machst Du nicht mit Frauen :)
Spaß beiseite, das macht man direkt nach dem ersten Funktionstest. Was hat man sonst davon?
Asus würde die 480 Watt nicht freigeben, wenn da nicht mindestens drölftausend Phasen drauf wären. Sicher, Elektromigration (im Kern) ist mehr Thema denn je, aber bei wem hier muss die Kiste länger als zwei Jahre ran? ;)
MfG
Raff
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.