Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3090 Ti Review-Thread
Leonidas
2022-03-29, 15:57:44
GeForce RTX 3090 Ti
- GA102-350
- 84 SM @ 384 Bit (Vollausbau)
- 450W TDP
- $1999 / 2249€
Liste der Launch-Reviews:
3DCenter (https://www.3dcenter.org/news/launch-der-geforce-rtx-3090-ti-die-launchreviews-gehen-online)
VideoCardz (https://videocardz.com/126540/nvidia-geforce-rtx-3090-ti-review-roundup)
Troyan
2022-03-29, 16:05:53
Computerbase misst nur noch Doom Eternal. Die 3090 TI benötigt 23% mehr Strom als die XFX 6900XTH und liefert 17% mehr Leistung. Wenn man überlegt, dass die Karte 8GB mehr Speicher und die doppelte Bandbreite hat, ist das gar nicht schlecht.
Mit Raytracing sind es 73% in Doom. Macht die Karte 40% effizienter. :cool:
Geldmann3
2022-03-29, 16:13:20
Ja geil hier! :eek:
Für nur 2449€ zu haben das gute Stück! (https://www.caseking.de/evga-geforce-rtx-3090-ti-ftw3-ultra-24576-mb-gddr6x-gcev-471.html)
maximus_hertus
2022-03-29, 16:22:47
Autsch. Ein echtes Desaster für nVidia.
Mit nVidia verbindet man Hardware und Software-Exzellenz, einfach Top-Performer auf jedem Level.
Die Performance, ja, die ist Top. Alles andere? Am besten schweigen. 460+W für quasi nichts (Zusatzperformance)? Was ist das? Im März 2022 ein komplettes Desaster. Es gibt eine Zeitenwende und nVidia scheint sie komplett zu verpassen.
Wenn AMD da was gemacht hätte, um nVidia dazu zu zwingen, okay, man hätte wenigstens einen validen Punkt. Aber nV schlägt nV. Es gab keinen einzigen Grund so einen, sorry, Scheiß zu launchen. 5-10% mehr fps für fast 500W?! Was zur Hölle? Da hätte man wenigstens eine vernünftige Kühlung verbauen können. Selbst mit offenem Seitenfenster über unsagbar laut.
Wenn Enthusiast, dann macht es richtig. Dann kostet das Ding halt 3000 Euro. Spielt eh keine Rolle. Wr das BEste will, ist auch bereit zu zahlen. So wirkt die Karte, als ob sie von AMD kommen würde. Poor nVidia :/
aufkrawall
2022-03-29, 16:25:20
Es gibt eine Zeitenwende und nVidia scheint sie komplett zu verpassen.
Was man nicht alles aus unwichtigen Papier-Produkten einer bald veralteten Gen ableiten kann, der Untergang von Nvidia steht mal wieder unmittelbar bevor. ;D
Daredevil
2022-03-29, 16:27:57
Ist auf jeden Fall die "bessere" 3090, die kann ruhig mal 10-20% mehr kosten, mehr dann aber auch nicht. Sie ist offenbar deutlich leiser, minimal schneller trotz des viel zu hohen Verbrauchs.
Speicher auf beiden Seiten bei der 3090 war einfach ne blöde Idee gewesen, oder halt eine gute, damit man die 3090ti damit bewerben kann. Fanservice, mehr ist es dann doch nicht.
Mehr habe ich aber auch nicht erwartet. ^^
Ne 3090 mit nem WaKü Block bekleben löst das Problem aber am Ende halt auch.
y33H@
2022-03-29, 16:35:15
Leiser? Gibt's wo nen Test der FE?
Daredevil
2022-03-29, 16:42:31
Ich bezog mich hier auf Raffs Aussage zur Lautstärke der 3090, welche nur so laut ist, da der Speicher kocht.
https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Tests/Preis-UVP-Release-Benchmark-Specs-kaufen-1391700/3/
Daraus leite ich ab, Speicher Kühler, Karte leiser.
Obst dann natürlich mit 400-500-600w sein wird, ist natürlich fraglich, aber im Vergleich wird die Karte ( vermutlich ) leiser sein, da der Speicher halt nicht mehr kocht und der 3090 FE Kühler kann schon was auf der Vorderseite.
Sweepi
2022-03-29, 16:50:07
Powertarget Skalierung by Hardwareluxx:
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/58382-mehr-leistung-saufnahme-geht-aktuell-kaum-inno3d-geforce-rtx-3090-ti-im-test.html?start=23
https://www.hardwareluxx.de/images/cdn02/uploads/2022/Mar/free_server_mp/inno3d-geforcertx3090ti-x3oc-performance-scaling_1920px.png
r3ptil3
2022-03-29, 16:52:09
Die ASUS Strix LC wäre das einzige Modell, was ich mir geben würde, wenn ich jetzt unbedingt eine RTX 3090 Ti bräuchte.
12900KS + RTX 3090 Ti - reicht da ein 1000W Netzteil überhaupt noch?
Absoluter Witz das Ding, ebenso die kommende 6950. Da sich die Lager langsam füllen, sollten sowohl AMD als auch NV lieber die UVP um bis zu 30% senken! Stattdessen kommt ne Karte von KFA, welche theoretisch 1200w verblasen kann. Enthusiast-Level? Nö, purer Blödsinn
vinacis_vivids
2022-03-29, 18:12:06
Die billige 8nm Fertigung und die Ampere-uArch sind einfach am Ende.
][immy
2022-03-29, 18:21:15
Eigentlich ein absolut überflüssiges Produkt.
Von der 3080Ti zur 3090 tut sich schon nicht so viel (abgesehen vom Speicher). Aber die 3090Ti treibt es dann wohl noch auf die Spitze.
Da frage ich mich für wen die denn noch sein soll? Leute die sich vorher eine 3090 gekauft haben? Aber dann ist die 3090 und 3080Ti absolut überflüssig.
Der Verbrauch der Karte ist extrem. Aber vielleicht will man hier auch schon vorbereiten, das es mit der nächsten Gen dann im Ultra-High-End Bereich ebenfalls bei 450W liegen wird. Nicht das es diesen Bereich besonders stören würde.
Was ich allerdings wieder hier mit Sorge sehe, nach oben hin baut nvidia aus. Hier hat man quasi für jedes kleine Prozent ein neues Angebot. Aber im unteren Bereich ist so gut wie nichts vorhanden. Die RTX3050 ist zwar durchaus eine nette Karte (wenn man vorher nur eine GTX960 hatte) aber der Preis ... nunja, ist wohl eher seiner Zeit geschuldet.
Troyan
2022-03-29, 18:30:52
Die Karte ist für die, die ein offenes Powerlimit wollen. Mindesten 500W gibt es, bei AIBs auch noch mehr.
MD_Enigma
2022-03-29, 18:36:11
Ich glaube der Kommentar von Sweepi zeigt sehr deutlich, was dies für ein Produkt ist. Der Preis unterstreicht die Zielgruppe - zu der ich nicht gehöre.
fondness
2022-03-29, 18:37:49
Die Karte wirkt für mich als wolle man den Nachfolger möglichst gut aussehen zu lassen. Man kann damit zumindest mal Schlussfolgern, dass der Nachfolger sicher nicht unter 450W liegt.
Der Nachfolger wird wahrscheinlich eher 500 Watt+ verbrauchen und die 3090Ti wurde als Experiment rausgebracht. So konnten die AIBs Designs testen um mit dem hohen Powerlimits umzugehen ist.
maximus_hertus
2022-03-29, 19:01:47
Was man nicht alles aus unwichtigen Papier-Produkten einer bald veralteten Gen ableiten kann, der Untergang von Nvidia steht mal wieder unmittelbar bevor. ;D
Wo habe ich vom Untergang nVidias geschrieben?
Korvaun
2022-03-29, 19:03:31
Sieht für mich wie ein Testballon aus. Der Kunde testet 450W+ Karten und zahlt auch noch ordentlich dafür... und nV/Grakahersteller sehen wie die Karten so laufen, welche Probleme es gibt mit Kühlung in normalen Gehäusen, Netzteilen, etc.
Und im Herbst kommen dann die richtigen Boliden-4090 mit 600W und "normale" 4080 sind dann bei 400W schon fast wieder sparsam ;)
user77
2022-03-29, 19:13:58
Alter, aber Hauptsache mein Staubsauger darf nur 900W brauchen... die Entwicklung gefällt mir gar nicht.
Ex3cut3r
2022-03-29, 19:18:29
4080 - 400W? Eher 500W.
Ich finde es ok, wenn man das absolute beste momentan haben will. Die neue Gen wird nochmal 100W mehr ab eine 80er Karte saugen, von daher....wayne. Ich plane erstmal keinen neue GPU.
TobiWahnKenobi
2022-03-29, 19:25:16
produktpflege.. alles etwas moderner und irgendwie mit eckdaten der alten strix.. die hat 1.86GHz takt und 480W PL.
(..)
mfg
tobi
Mal lese Igors Review, dann versteht man, wofür das Ding ist. Reiner Probelauf in Massenproduktion für Lovelace. Die Platine und die Bauteile sind ein riesiger Sprung nach vorne ggü. den Vorprodukten. Da hat man als 3090Ti-Kunde natürlich nicht soviel von ;).
Megamember
2022-03-29, 19:43:54
Und in 6 Monaten.....
Nvidia: The 4070 will be faster than the 3090TI at just 499 :D
3090TI buyers: mkay :usad:
Und dabei "nur" 300W :eek:
00-Schneider
2022-03-29, 19:57:17
Alter, aber Hauptsache mein Staubsauger darf nur 900W brauchen... die Entwicklung gefällt mir gar nicht.
Entweder Gaming-Zeit begrenzen, und/oder fps auf max 60 cappen.
Machen jetzt 2-3h Gaming am Tag echt so viel aus?
Thunder99
2022-03-29, 20:03:11
Abgehoben das Produkt wie der Kunde der es kauft.
Aus technischer Sicht interessantes Produkt. Es ist eine Karte, bezogen auf die Asus von CB, wo erstmal bei einer High Ende Karte nicht das Power Limit bremst.
Einfach nur traurig welche Richtung es gerade geht. 100W mehr für paar Prozente...
BlacKi
2022-03-29, 20:14:10
das schlimmste ist eigentlich das es überhaupt ein tdp limit gibt. seit wann sind käfige denn populär? warum hat die karte nicht mindestens eine 600w tdp limit, wenn das pcb doch schon 4090 rdy sein soll?
nv verarscht seine kunden mit dem tdp limit. was hat nv davon die karte auf 450w zu limitieren? lasst doch die karte freidrehen, eingebremst durch temp limit.
jeder weiß doch, das man mit oc schon mit der 3090 besser ein 800w limit zur verfügung hätte. und die ti ist nochmal etwas größer.
das ist das spitzenmodell, was soll die 450w bremse?
Thunder99
2022-03-29, 20:20:36
Die Asus wurde NICHT von dem TDP Limit gebremst, lief ungebremst bei maximaler Einstellung.
wolik
2022-03-29, 20:33:20
Es ist nur ein Witz für 3090 Besitzer. Zumindest schon ausverkauft.
Geldmann3
2022-03-29, 20:36:36
Angenommen, die Gerüchte stimmen und wir bekommen eine Leistungsverdopplung. Dann wird selbst die RTX 4060 bei 250 Watt so schnell sein wie eine RTX 3080.
Finde ja, die Krone der Frechheit ist, dass man einen höheren Europreis verlangt als der Dollarpreis in den USA, dabei ist der Euro mehr wert und die Karte sehr weit über ihren Herstellungskosten.
Die Europäer zahlens ja.
Ganz an der Spitze die Deutschen.
maximus_hertus
2022-03-29, 21:01:11
Finde ja, die Krone der Frechheit ist, dass man einen höheren Europreis verlangt als der Dollarpreis in den USA,
Hö?
1999 USD MSRP in den USA und 1889,92 Euro UVP in Deutschland? Das ist schon ok so.
Ex3cut3r
2022-03-29, 21:05:40
Was ich auch merkwürdig finde, ist jetzt dieser neue Stromanschluss, denn auch die Customs komischweise übernehmen, anstatt 3x 8-Pin zu verbauen. Also auch die NT Industrie soll nochmal ordentlich Gewinnen. So ein Blödsinn. Da bin ich raus, bei aller Liebe.
Wenn ich irgendwann ein neues System baue, ok, neues NT mit dem komischen Stecker, aber sonst? Nein, sry.
Sardaukar.nsn
2022-03-29, 21:17:54
Als INNO Frostbite echt schön kompakt: https://videocardz.com/press-release/inno3d-introduces-geforce-rtx-3090-ti-x3-oc-and-frostbite-graphics-cards
https://cdn.videocardz.com/1/2022/03/INNO3D-GeForce-RTX-3090-Ti-24GB-iChill-Frostbite-2.jpg
https://cdn.videocardz.net/cache/ad20cb1c81a942d00cd4fdef91ec330f-1200x900.jpg
https://cdn.videocardz.net/cache/0081e2601523db1db5da84c74e9bbbce-1200x900.jpg
Lehdro
2022-03-29, 21:30:43
Meine zwei Hottakes:
1. Tolle Karte, wenn der hohe Verbrauch und der Preis nicht wären. :freak:
2. Der beste Konter von AMD dazu ist, die 6950XT einfach ersatzlos zu streichen und die 6900XT auf einen Preis zu senken der eher den Abstand zur 6800XT rechtfertigt. DAS wäre ein Konter.
VooDoo7mx
2022-03-29, 21:31:04
eu4swm7xbwY
Nettes Kärtchen. Mit vernünftig eingestellter Spannungskurve sicher auch nicht so extrem im Verbrauch. Würde mich mal interessieren wie viele MHZ so ne GPU auf 0,75V oder 0,8V schafft und wie die Verbräuche da aussehen.
Aber wie immer testet niemand so etwas...
Was mich wundert, dass trotz der verspäteten Vorstellung praktisch nichts lieferbar ist.
TobiWahnKenobi
2022-03-29, 21:35:53
wer weiss welche krise, welcher krieg, welche pandemie und welche verworrenen umstände nachm sommer verhindern, dass wir den nachfolger werden anfassen können. ergo: wenn geld und bedarf auf verfügbarkeit treffen -> kaufen, nutzen und dann in 3-6 monaten weitersehen.
(..)
mfg
tobi
dargo
2022-03-29, 21:45:01
Quiet-Bios = 52dB(A) bei der ASUS. :ulol:
Geldmann3
2022-03-29, 21:48:01
Hö?
1999 USD MSRP in den USA und 1889,92 Euro UVP in Deutschland? Das ist schon ok so.
Laut PCGH liegt die UVP bei 2.249 Euro. (https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Tests/Preis-UVP-Release-Benchmark-Specs-kaufen-1391700/)
Ex3cut3r
2022-03-29, 22:03:04
Oder einfach zufrieden sein, mit dem was man hat. Ich mein es kommen so viele Spiele raus, die an Shader Compile Ruckler leiden, oder erst Monate später richtig spielbar sind, da nutzt so eine fette GPU auch nichts, die Ruckler hat jeder.
Langlay
2022-03-29, 22:30:06
https://youtu.be/eu4swm7xbwY
Nettes Kärtchen. Mit vernünftig eingestellter Spannungskurve sicher auch nicht so extrem im Verbrauch. Würde mich mal interessieren wie viele MHZ so ne GPU auf 0,75V oder 0,8V schafft und wie die Verbräuche da aussehen.
Aber wie immer testet niemand so etwas...
Was mich wundert, dass trotz der verspäteten Vorstellung praktisch nichts lieferbar ist.
Meine alte 3090 macht mit 0.8V 1800 MHz und hat dabei 320W rausgehauen (Witcher 3 4K), nur so als Anhaltspunkt.
aufkrawall
2022-03-29, 22:32:34
Ist schon mal ein guter Anhaltspunkt. Allerdings ist W3 auch nicht der allerschlimmste Worst Case, Hitman 3 oder SW3 scheinen da wieder neue Anwärter drauf zu sein.
Mit 0,737 Volt @ 1.695 MHz hat meine alte RTX 3090 FE allerhöchstens auf 305 Watt gepeakt. Egal ob UE4 in 5K oder Witcher 3 in 6K. Mehr habe ich in 15 Monaten mit ihr nicht gesehen. Ampere wird nie wirklich effizient, aber es ist zu bändigen. Undervolting mit der Ti ist in Arbeit. :)
MfG
Raff
vinacis_vivids
2022-03-29, 22:55:40
Kann nicht nachvollziehen wieso Nvidia so lange an der Brute-Force Technik festhält, die schon seit der Brute-Force Vega uArch veraltet ist, also seit 2016, mindesten 6 Jahre.
Vega startete im Sommer 2017. Als Frontier Edition (https://www.pcgameshardware.de/Vega-Codename-265481/Tests/Benchmark-Preis-Release-AMD-Radeon-Frontier-Edition-1232684/) aka "Der Schlumpf". :D
MfG
Raff
Ex3cut3r
2022-03-29, 22:59:39
Kann nicht nachvollziehen wieso Nvidia so lange an der Brute-Force Technik festhält, die schon seit der Brute-Force Vega uArch veraltet ist, also seit 2016, mindesten 6 Jahre.
Komiker. ;D
Glatte 67% schneller in CP77 mit RT. Eine Gen unterschied, KA was da veraltet sein soll.
https://abload.de/img/neuesprojektp2k5w.png
iamthebear
2022-03-29, 23:01:16
Powertarget Skalierung by Hardwareluxx:
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/58382-mehr-leistung-saufnahme-geht-aktuell-kaum-inno3d-geforce-rtx-3090-ti-im-test.html?start=23
Wieso bricht die Performance unter 350W so extrem stark ein wenn es derselbe Chip nur mit höheren Taktraten ist? Bei der 3090 Ist der Knick erst bei ca. 240W (siehe gestrige News).
Hat irgendjemand schon eine Spannungskurve der 3090 Ti gesehen?
r3ptil3
2022-03-29, 23:01:46
Und in 6 Monaten.....
Nvidia: The 4070 will be faster than the 3090TI at just 499 :D
3090TI buyers: mkay :usad:
;D
Gefolgt von Panikverkäufen zu Spottpreisen, um dann später festzustellen, dass das Versprochene von Nvidia doch nicht eingehalten werden kann.
Geldmann3
2022-03-29, 23:04:14
Wieso bricht die Performance unter 350W so extrem stark ein wenn es derselbe Chip nur mit höheren Taktraten ist? Bei der 3090 Ist der Knick erst bei ca. 240W (siehe gestrige News).
Hat irgendjemand schon eine Spannungskurve der 3090 Ti gesehen?
Halte es für gut möglich, dass es daran liegt, dass ich im Heaven Benchmark getestet habe. Control verhält sich unter Umständen völlig anders. Würde mich allerdings auch interessieren.
Asaraki
2022-03-29, 23:34:36
Alter, aber Hauptsache mein Staubsauger darf nur 900W brauchen... die Entwicklung gefällt mir gar nicht.
Ändert sich sobald dein Staubsauger eine eigene 450W GPU für das "AI Pathfinding" braucht ^^
Könnte eine 3090Ti für ~1500USD bekommen, aber ganz ehrlich. Nein Danke :D Was für eine Karte... Sinnlos im Quadrat.
VooDoo7mx
2022-03-29, 23:43:19
Meine alte 3090 macht mit 0.8V 1800 MHz und hat dabei 320W rausgehauen (Witcher 3 4K), nur so als Anhaltspunkt.
Ich selber hab ja ne 3080Ti und habe ähnliche Ergebnisse also so um die 300W bei 0,8V 1,8GHz. Mich würde nur interessieren ob der neue Chip vielleicht mehr packt wegen vermeintlicher besserer Chipgüte. ;)
Mit 0,737 Volt @ 1.695 MHz hat meine alte RTX 3090 FE allerhöchstens auf 305 Watt gepeakt. Egal ob UE4 in 5K oder Witcher 3 in 6K. Mehr habe ich in 15 Monaten mit ihr nicht gesehen. Ampere wird nie wirklich effizient, aber es ist zu bändigen. Undervolting mit der Ti ist in Arbeit. :)
MfG
Raff
Deine "alte" 3090 FE? Schon auf die 3090TIí umgestiegen? :ulol:
Und doch, mit manuell eingestellter kurve erreicht man eine deutlich bessere Effizienz und vermeidet auch diese fiesen Lastspitzen.
Meine MSI 3080Ti Suprim X läuft zu 90% bei 0,75V 1715MHz und benötigt dafür je nach Spiel so 240-280W in UHD und ist dabei deutlich schneller als meine vorherige 2080Ti bei 300W+ Wenn ich sie einfach so laufen lassen würde, wäre ich praktisch immer bei den 400W.
Der 3060 in meinen Notebook läuft auch meist mit 0,7V 1470MHz. Verbrauch ist dann so um die 70W. Damit hat man sogar ein flüsterleises Gaming Notebook.(Lenovo Legion 5 Pro)
Inwieweit kann man das Powerlimit bei der MSI eigentlich noch hochdrehen?
Meine MSI 3080Ti soll ja von 400W auf 440W hochgehen. Kann ich auch im Afterburner einstellen, jedoch bleibt das Limit trotzdem immer bei 400W.
Wie verhält sich da die MSI Suprim 3090Ti?
Alle Details gibt's hier (auch, was mit meiner 3090 FE passiert ist - der Kollege hat den Kauf seines Lebens gemacht :D): https://extreme.pcgameshardware.de/threads/rtx-3090-fe-bei-0-737-volt-maximales-undervolting.617752/
Die MSI RTX 3090 Ti Suprim X ist übrigens bei 100 % = 480 Watt gedeckelt, man kann das Limit nur senken.
MfG
Raff
Leonidas
2022-03-30, 04:18:00
Laut PCGH liegt die UVP bei 2.249 Euro. (https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Tests/Preis-UVP-Release-Benchmark-Specs-kaufen-1391700/)
Stimmt. Aber da sind 19% MwSt. drin - im Gegensatz zum US-Preis, der immer ohne MwSt angegeben wird (da von Bundesstaat zu Bundesstaat verschieden). Sprich: Bereinigt um die MwSt. sieht es so aus:
US: $1999
DE: €1890 oder $2099
Wir bezahlen also etwas mehr, aber es sind keine 250 Ocken mehr, sondern (derzeit) 100 Dollar mehr.
Wieso bricht die Performance unter 350W so extrem stark ein wenn es derselbe Chip nur mit höheren Taktraten ist? Bei der 3090 Ist der Knick erst bei ca. 240W (siehe gestrige News).
Gänzlich anderer Benchmark mit anderer Skalierung. Bitte nicht direkt vergleichen.
Kriegsgeier
2022-03-30, 06:30:33
Eigentlich verdient die 3090 Ti die "Ti" in ihrem Namen kein bisschen!
3080 --> 3080Ti ja, aber hier?
Never...
Fast 100 Watt mehr für 8% mehr Leistung?
Ne, danke
GerryB
2022-03-30, 08:34:06
Die einzig sinnvolle Ti ist die 3060 ... und die 2060(s) 12GB.
(die Salvagechips sind immer nen Blick wert)
ne 3080Ti kommt natürlich über P/L auch net schlecht(x)
aber gemessen an ner 6900XTXH ... (z.Bsp. die OCF für 1289€)
mal nur high-Fps-Gaming angeschaut in Baller+Racing-Games
(x) Ampere bleibt ein Nischenprodukt für RT
maximus_hertus
2022-03-30, 08:38:45
Laut PCGH liegt die UVP bei 2.249 Euro. (https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Tests/Preis-UVP-Release-Benchmark-Specs-kaufen-1391700/)
Wie Leo schon geschrieben hat, in den USA sind alle Preise OHNE Mehrwertsteuer. Von daher muss man Netto mit Netto vergleichen.
Alternativ brutto gegen brutto, jedoch gibt es da das Problem, dass es in den USA keinen einheitlichen Mwst-Satz gibt.
Geldmann3
2022-03-30, 09:01:17
Interessant, wieder was gelernt.
Redneck
2022-03-30, 09:19:49
Laut PCGH liegt die UVP bei 2.249 Euro. (https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Tests/Preis-UVP-Release-Benchmark-Specs-kaufen-1391700/)
in den USA kommen aber imho noch die VAT drauf (die pro Bundestaat unterschiedlich ausfallen). Bei uns ist die MwSt inkludiert.
Ist doch sowieso egal.. in ein paar Monaten kommt die Nextgen.. wer sich jetzt
noch die currentgen kauft ist selber Schuld.
Redneck
2022-03-30, 09:21:50
Meine zwei Hottakes:
1. Tolle Karte, wenn der hohe Verbrauch und der Preis nicht wären. :freak:
2. Der beste Konter von AMD dazu ist, die 6950XT einfach ersatzlos zu streichen und die 6900XT auf einen Preis zu senken der eher den Abstand zur 6800XT rechtfertigt. DAS wäre ein Konter.
Ich würde noch hinzufügen :
3. FSR 2.0 auf den Markt schmeissen und dafür sorgen , das die aktuell 5 meistgespielten Titel das unterstützen
Troyan
2022-03-30, 11:25:59
Gerade bei PCGH gesehen: https://www.pcgameshardware.de/Ghostwire-Tokyo-Spiel-67695/Specials/Test-Release-Review-Benchmark-Raytracing-1391882/2/#a1
In Ghostwire ist die 3090TI bis zu 75% schneller als die 6800XT und benötigt dafür 50% mehr Strom. Wieder mal effizienter als die AMD Produkte. :eek:
OgrEGT
2022-03-30, 13:16:10
Gerade bei PCGH gesehen: https://www.pcgameshardware.de/Ghostwire-Tokyo-Spiel-67695/Specials/Test-Release-Review-Benchmark-Raytracing-1391882/2/#a1
In Ghostwire ist die 3090TI bis zu 75% schneller als die 6800XT und benötigt dafür 50% mehr Strom. Wieder mal effizienter als die AMD Produkte. :eek:
Wozu immer das Cherry Picking?
Wir wissen doch alle dass Nv BVH per ff Hardware unterstützt und AMD derzeit nicht... daher der große Unterschied...
Bei der 3090ti muss man doch eher auf die 3090 schauen bzgl wieviel Mehrleistung da rumkommt bei 100W Mehrverbrauch und zusätzlicher Hitze und Lautstärke...
Der_Korken
2022-03-30, 13:44:44
Quiet-Bios = 52dB(A) bei der ASUS. :ulol:
Da bin ich auch sofort drüber gestolpert. Allerdings scheint es weniger am GPU-Kühler zu liegen als viel mehr am Gehäuse:
https://www.computerbase.de/2022-03/nvidia-geforce-rtx-3090-ti-review-test/3/#abschnitt_kuehler_am_limit_oder_hitzestau_im_gehaeuse
Bei den 52dB war das Gehäuse geschlossen mit 2x140mm Intake und 1x140mm Outtake bei 900RPM. Verbaut man noch zwei zusätzliche 140er im Deckel als Outtake und lässt die Dinger mit 1200 RPM laufen (was bei 140ern schon laut ist), drückt man die Lautstärke auf 47dB. Mit offenem Gehäuse auf 42dB.
Der Kühler kann also schon was, aber das alles zeigt die Misere auf, die ich bei Reviews von solchen Wattmonstern schon oft angesprochen habe: Der Airflow in Gehäusen reicht nicht aus bzw. ist durch die ATX-Bauweise einfach schlecht. Die Grakas sind so groß wie das Mainboards, mit Kühler sperriger als ein CPU-Towerkühler, senkrecht zum Mainboard verbaut, sodass jeder Luftstrom von unten nach oben behindert wird und aufgrund der Bauform verwirbeln die Grakalüfter die heiße Luft in alle Richtungen und ziehen dadurch ihre eigene Abluft mehrfach durch den Kühler.
Was eine Graka-AiO dagegen leistet: https://www.computerbase.de/2021-04/radeon-rx-6800-xt-custom-asrock-asus-msi/2/#abschnitt_leistungsaufnahme
6800XT Strix LC@Quiet BIOS: 340W, 35dB, 63°C Edge-Temp
Vergleich (Merc319 S-BIOS): 330W, 35dB, 76°C (13°C heißer, trotz 10W weniger)
Sowas wird bei 400W oder mehr unumgänglich, sofern man sich nicht einen Big Tower hinstellen will mit 5 140er Fans an jeder Seite.
Linmoum
2022-03-30, 14:17:27
Wobei das mit offener Gehäusewand oder mehr Intakes ja nun auch keine Neuigkeit ist.
Nur ist zumindest ersteres komplett praxisfern und ich bezweifle auch, dass die meisten sich ihre Gehäuse mit Lüftern vollkleistern. So, wie CB testet, entspricht das IMO auch der Realität bei denjenigen, die Lukü nutzen.
Offener Benchtable und dazu dann irgendwelche Temperaturen sind im Prinzip komplett witzlos, weil 95% der User so ihre Hardware zuhause nicht in Benutzung haben. Ich will ja nicht irgendeinen best case haben, sondern wissen, wie sich das in (m)einem Gehäuse verhält.
aufkrawall
2022-03-30, 14:21:05
Nur ist zumindest ersteres komplett praxisfern
Ohne Kinder oder Katze ist das doch kein Problem. Ich hab gar keinen Gehäuselüfter (den hinteren zähle ich mal mit zur CPU) und meine Hardware friert. :redface:
Dr.Doom
2022-03-30, 14:23:18
Nicht verwunderlich, da deine Hardware auch quasi ohne Strom funktioniert. ;)
(Also dein PC verbraucht sicherlich nichtmal die Hälfte von dem, was die GraKa hier alleine nimmt.)
VooDoo7mx
2022-03-30, 14:23:35
Da bin ich auch sofort drüber gestolpert. Allerdings scheint es weniger am GPU-Kühler zu liegen als viel mehr am Gehäuse:
https://www.computerbase.de/2022-03/nvidia-geforce-rtx-3090-ti-review-test/3/#abschnitt_kuehler_am_limit_oder_hitzestau_im_gehaeuse
Bei den 52dB war das Gehäuse geschlossen mit 2x140mm Intake und 1x140mm Outtake bei 900RPM. Verbaut man noch zwei zusätzliche 140er im Deckel als Outtake und lässt die Dinger mit 1200 RPM laufen (was bei 140ern schon laut ist), drückt man die Lautstärke auf 47dB. Mit offenem Gehäuse auf 42dB.
Der Kühler kann also schon was, aber das alles zeigt die Misere auf, die ich bei Reviews von solchen Wattmonstern schon oft angesprochen habe: Der Airflow in Gehäusen reicht nicht aus bzw. ist durch die ATX-Bauweise einfach schlecht. Die Grakas sind so groß wie das Mainboards, mit Kühler sperriger als ein CPU-Towerkühler, senkrecht zum Mainboard verbaut, sodass jeder Luftstrom von unten nach oben behindert wird und aufgrund der Bauform verwirbeln die Grakalüfter die heiße Luft in alle Richtungen und ziehen dadurch ihre eigene Abluft mehrfach durch den Kühler.
Was eine Graka-AiO dagegen leistet: https://www.computerbase.de/2021-04/radeon-rx-6800-xt-custom-asrock-asus-msi/2/#abschnitt_leistungsaufnahme
6800XT Strix LC@Quiet BIOS: 340W, 35dB, 63°C Edge-Temp
Vergleich (Merc319 S-BIOS): 330W, 35dB, 76°C (13°C heißer, trotz 10W weniger)
Sowas wird bei 400W oder mehr unumgänglich, sofern man sich nicht einen Big Tower hinstellen will mit 5 140er Fans an jeder Seite.
Deswegen hab ich auch ein Lian Li Lancool II Mesh.
2x140 vorne, 1x120 hinten, 2x120 unten und 2x120 von der CPU AiO oben. Alle laufen immer mit 500-600rpm.
Grafikkarte MSI 3080Ti Suprim X mit quiet BIOS und eingestellter Spannungskurve, 12700K mit Standardtakt aber -125mV undervolt.
Selbst beim Spielen ist der PC leiser als das klicken der Maus. ;)
Die Frage ist wohl auch bei der Asus TUF ob die da einfach den selben Kühler verwendet haben wie bei der 3080/3080Ti/3090 und momentan sieht das echt so aus.
Finde ich ehrlich gesagt auch ein wenig frech noch so einen Kühler auf nen 2000€ Top Produkt zu packen.
Der kommt eben dann bei 450W an seine Grenze und es geht nicht mehr viel leiser.
Bei der MSI Suprim hat man den Kühler, der eh schon besser als der von der Asus TUF war, nochmal vergrößert und der Brocken ist 200g schwerer.
Ich denke damit sollten sich die 480W problemlos auch mit annehmbarer Lautstärke wegkühlen lassen.
BlacKi
2022-03-30, 14:23:38
man sollte die hw schon so betreiben wie sie gedacht ist. und mit 1x 900rpm am ausgang für 480w ist das sicher nicht so wie gedacht. kann mir keiner erzählen. der fe kühler bläst wenigstens mehr als die hälfte direkt über die slotblende raus, aber die anderen karten behalten die luft eben im gehäuse.
das kann man nur als unterschwelliges statement von CB werten.
Linmoum
2022-03-30, 14:27:43
Ohne Kinder oder Katze ist das doch kein Problem. Ich hab gar keinen Gehäuselüfter (den hinteren zähle ich mal mit zur CPU) und meine Hardware friert. :redface:
Offene Seitenwand lässt aber wieder potentielles Spulenfiepen/-rasseln stärker nach draußen dringen. :D
Ich hatte noch nie eine Lukü GPU mit >=450W, daher keine Ahnung, wie sich das verhält. Und es kommt natürlich auch auf das Gehäuse an, in einem 011D würde das Teil noch einmal deutlich mehr brutzeln und lauter werden.
aufkrawall
2022-03-30, 14:28:23
Nicht verwunderlich, da deine Hardware auch quasi ohne Strom funktioniert. ;)
Na ja, ich kann halt so auch jedes xbeliebige 3090 Custom Design reinstecken und es würde sich nichts ändern. Ich würd dann aber trotzdem ein anderes Gehäuse nehmen, damit der Luftstrom zur anderen Seite hin abstrahlt. Dürfte immer noch spottbillig in der Anschaffung sein im Vergleich zu zig Noctua-Lüftern, deren Luftverwirbelung man dann trotzdem im Gehäuse hört. Ist das so ein Ordnungs-Fimmel, dass ein Gehäuse unbedingt zu sein soll? Ich sehe quasi nur Nachteile, ein paar Edge Cases ausgenommen. :confused:
Edit: Spulenfiepen wird ja mit UV massiv leiser.
Der_Korken
2022-03-30, 14:32:34
man sollte die hw schon so betreiben wie sie gedacht ist. und mit 1x 900rpm am ausgang für 480w ist das sicher nicht so wie gedacht. kann mir keiner erzählen. der fe kühler bläst wenigstens mehr als die hälfte direkt über die slotblende raus, aber die anderen karten behalten die luft eben im gehäuse.
Auch mit 3x1200RPM outtake sieht es immer noch sehr durchwachsen aus. Erst ein offenes Gehäuse schafft Abhilfe. Und ja, ich denke dass die FE einen sehr großen Vorteil durch ihr DHE-Design hat. Den Triple-Fan-Kühler von Asus noch weiter aufzublähen bringt imho nur mäßig viel. Klar kann man mit Brute Force irgendwann jedes Problem erschlagen, aber es bleibt ein ineffizientes Kühldesign. Die Strix Liquid aus dem Link oben wird jedes Blower-Design deklassieren, auch die die 2kg auf die Waage bringen.
Dural
2022-03-30, 19:33:24
Ich weiß nicht was ihr habt, aber die 3090ti ist mit Abstand das rundeste Produkt das man aktuell kaufen kann! Speicher nur noch auf einer Seite, genug tdp für OC, mächtiger kühler, full GPU. Ein Traum!
Für mich unbegreiflich was an den 450w auszusetzen ist, die Hardware gegenüber der 3090 ist mehr oder weniger die selbe, da nehme ich gerne die 100watt mehr mit. Den runter regeln geht immer, rauf aber nicht unbedingt.
Das wirklich einzige was stört ist der Zeitraum, das Produkt hatte schon vor 1 Jahr auf den Markt kommen sollen.
r3ptil3
2022-03-30, 20:15:33
Ich weiß nicht was ihr habt, aber die 3090ti ist mit Abstand das rundeste Produkt das man aktuell kaufen kann! Speicher nur noch auf einer Seite, genug tdp für OC, mächtiger kühler, full GPU. Ein Traum!
Es ist mit Abstand das schlechteste Produkt der letzten Jahrzehnte.
Über 2200 Euro UVP, furchtbare Kühlung, minimal mehr Leistung als eine RTX 3080 (10GB!!!), welche bei einer UVP von 720 Euro liegt und annähernd ein Verbrauch von500W - absoluter Horror.
Die Grafikkarte verdient einfach die Bezeichnung als schlechtestes Produkt dieser Serie.
Wäre die RTX 3090 TI bei einer UVP von 1100-1300 Euro, hätte man zum heutigen Zeitpunkt (April 2022!) vom besten Produkt sprechen können.
Die Karte ist in Ultra HD und beim Raytracing um durchschnittlich 22 Prozent schneller als eine RTX 3080 10GB*. "Minimal" definiert jeder anders und auch das mit der Kühlung kann ich nicht unterschreiben. Das Ding ist komponentenmäßig höchst beeindruckend, so weit ich das zu bewerten vermöge. Angepasste Voltage/Frequency Curve und alles wird gut.
*267 Prozent mehr Bums im speicherfressenden Ausreißer Far Cry 6 in Ultra HD mit Raytracing und HD-Texturen. ;) In 5K werden übrigens 16 GiB auf einer Radeon auch eng.
MfG
Raff
00-Schneider
2022-03-30, 20:35:51
Die Karte ist in Ultra HD und beim Raytracing um durchschnittlich 22 Prozent schneller als eine RTX 3080 10GB. "Minimal" definiert jeder anders und auch das mit der Kühlung kann ich nicht unterschreiben. Das Ding ist komponentenmäßig höchst beeindruckend, so weit ich das zu bewerten vermöge. Angepasste Voltage/Frequency Curve und alles wird gut.
MfG
Raff
Also 22% schneller für ~100% höheren Preis? ;D
Bewerten wir jetzt das Produkt oder das Preis-Leistungs-Verhältnis? Das ist durchaus ein Unterschied. :) Dass die Karte obszön teuer ist, bestreitet wohl niemand.
MfG
Raff
user77
2022-03-30, 20:46:03
Ich finde die Leistung beeindruckend, aber den Trend nicht gut.
Was kommt dann mit der RTX 40xx Generation auf uns zu?`
Aber ist eh nicht mein Budget, kann oder will ich mir nicht leisten ;D
PS: alles was ich spiele läuft auf einer Quadro P2200 5GB auf High, 1080p und unter 75W, ohne zusätzlichen Strom :freak:
Ex3cut3r
2022-03-30, 20:47:48
Bei der 40er Serie darf man sich auf 250W bis 600W, wenn nicht gar 700W einstellen. Muss jeder selbst entscheiden. Und kommt auch drauf an, was man stand jetzt im PC schon stecken hat.
Linmoum
2022-03-30, 20:48:20
Ihr messt Lautstärke und Temps doch aber (auch) nicht in einem normalen Case mit Gehäuselüftern, sondern mittels Open Benchtable. Dass es dort deutlich luftiger ist und Temperaturen bzw. Lautstärke dementsrechend niedriger sind, ist ja nun keine Offenbarung.
Wenn man so ein >=450W Monstrum aber in (s)einen Rechner reinknallt, dann wird davon wenig(er) übrig bleiben. Und alles, was man an Tests in der Richtung so sieht, ist nicht vielversprechend. Im Gegenteil. Was mich aber nicht großartig wundert bei der völlig grotesken Bepreisung. Scheint die AiB auch nicht zu tangieren, die pappen ihre Standardkühler in bisschen größer drauf und fertig. Lohnt sich halt auch nicht mehr dafür. Zu spät, zu teuer, zu versoffen. Überflüssig zum aktuellen Zeitpunkt so zeitnah vor kommenden GPUs mit wohl massiv mehr Rechenleistung.
Ich vermute, dass das "Flow Through"-Design in Kombination mit einem entsprechend strömungsoptimierten Gehäuse die besten Ergebnisse erzielt – oder eben AiO-Lösungen wie die Strix LC, bei denen kaum Abwärme im Gehäuse landet. Dass sich die Karte bei einem vollgedämmten Passivgehäuse selbst entlötet, sollte klar sein. ;) Ist aber im Grunde schon seit Jahren ein Thema. Die ersten 300-Watt-Klötze erschienen ~2017 und dabei trennt sich schon die Spreu vom Weizen – ohne Durchzug im Case geht nix. Dass die ganze Hitze so und so in der Bude landet, ist im Winter verschmerzbar, aber im Sommer eine Qual.
MfG
Raff
MSABK
2022-03-30, 21:04:04
Ich vermute Nvidia wollte mit dem 450W einen fließenden Übergang zur neuen Generation haben ala seht her die neue RTX 4090 ist bei nur 20% Mehrverbrauch 50% schneller oder so ähnlich.
ChaosTM
2022-03-30, 21:19:36
Wer kauft sich ein paar Monate vor der nächsten, wohl bis zu 100% schnelleren Gen so ein überteuertes Ding mit einer fürchterlichen Brute Force "Effizienz". Um einen Tausender wärs ok, aber 2,2k is einfach nur
:facepalm:
Für Benchmarker, die immer den längsten wollen und/oder wo es der Chef zahlt, OK :D
Sardaukar.nsn
2022-03-30, 21:22:58
Ich vermute, dass das "Flow Through"-Design in Kombination mit einem entsprechend strömungsoptimierten Gehäuse die besten Ergebnisse erzielt
So in der Richtung...
1fOTZKVzyks
Wobei die Abwärme im Raum, gerade im Sommer natürlich ein immer größer werdendes Thema ist.
hq-hq
2022-03-30, 22:22:15
So in der Richtung...
https://youtu.be/1fOTZKVzyks
Wobei die Abwärme im Raum, gerade im Sommer natürlich ein immer größer werdendes Thema ist.
das Gehäuse würd mir auch gefallen, ich hatte im Sommer zeitweise die 3090 auf 250Watt gedrosselt, hat im Dachgeschoss sonst keinen Spaß mehr gemacht :biggrin:
Sardaukar.nsn
2022-03-30, 23:51:25
@hq-hq: Kann ich sehr gut nachvollziehen, ich hatte als Student eigentlich meine intensivste Zocker-Zeit. Aber halt auch in einer erschwinglichen Dachgeschoss WG.
Das Torrent finde ich aber sehr gelungen, würde ich absolut empfehlen wenn man auf high-end Luftkühlung geht. Dann hat da auch keine AiO was verloren. Ich war überrascht wie gut der große Lüftkühler auf der Suprim funktioinert hat, aber weil die Rahmenbedingungen es her geben wurde es bei mir die große Wasserkühlung.
rentex
2022-03-31, 05:30:08
Die billige 8nm Fertigung und die Ampere-uArch sind einfach am Ende.
Das war sie schon vor der Ti.
Asaraki
2022-03-31, 10:23:35
Ich vermute, dass das "Flow Through"-Design in Kombination mit einem entsprechend strömungsoptimierten Gehäuse die besten Ergebnisse erzielt – oder eben AiO-Lösungen wie die Strix LC, bei denen kaum Abwärme im Gehäuse landet. Dass sich die Karte bei einem vollgedämmten Passivgehäuse selbst entlötet, sollte klar sein. ;) Ist aber im Grunde schon seit Jahren ein Thema. Die ersten 300-Watt-Klötze erschienen ~2017 und dabei trennt sich schon die Spreu vom Weizen – ohne Durchzug im Case geht nix. Dass die ganze Hitze so und so in der Bude landet, ist im Winter verschmerzbar, aber im Sommer eine Qual.
MfG
Raff
Ist für "uns" natürlich kein Problem, aber ich war ja nett und liess meine Freundin ihr Gehäuse selbst aussuchen. So ein BeQuiet Dingsi... hab schon alles versucht aber ich brachte nicht genug Flow hin um die 3080Ti (FE!) langfristig zu kühlen. Da war einfach zu wenig Gehäuse und nicht genug Raum für Lüfter. So nach einer Stunde wurde es nur noch wärmer, sobald auch der letzte Teil des Gehäuses nur noch aus heisser Luft bestand.
(Hab ihr dann halt die 2080S eingebaut, die ist beeindruckend effizient gegenüber Ampere und bleibt leise :))
Will nur sagen es ist tricky 300W und mehr konstant und über einen längeren Zeitraum zu kühlen. In meinem riesigen Lian Li O11 überhaupt kein Problem, aber da arbeiten auch 7 Fans und ne AiO für die CPU, also 10 Fans insgesamt... 10!
Das mit dem Sommer... hier stehen grad drei Rechner in meinem Office zwecks Elden Ring Sessions und alter Verwalter wird das schnell warm... im Sommer ziehen wir damit ins Wohnzimmer :D
Rancor
2022-03-31, 11:31:36
Also ich werde mir auch sicherlich keine Karte mit 400 Watt oder mehr TDP in den Rechner schrauben.
ChaosTM
2022-03-31, 11:59:03
jjUHOU-ZoQA
500Watt aber selten Spikes über 600.. Progress
Das "witzige" dran ist, dass die karte zwar 2x so schnell ist wie meine 1080ti, aber auch 2x soviel säuft.
Effizienzgewinn - RT = 0 über 5 Jahre.
dargo
2022-03-31, 12:56:12
Das "witzige" dran ist, dass die karte zwar 2x so schnell ist wie meine 1080ti, aber auch 2x soviel säuft.
Effizienzgewinn - RT = 0 über 5 Jahre.
Du sagst es, extrem erschreckende Entwicklung.
BlacKi
2022-03-31, 12:56:41
technisch ist die karte 1a. ziemlich beeindruckend was man da auf die füße gestellt hat. da hätte ich nichtmal mein 600w passiv netzteil tauschen müssen^^
Troyan
2022-03-31, 13:01:58
https://youtu.be/jjUHOU-ZoQA
500Watt aber selten Spikes über 600.. Progress
Das "witzige" dran ist, dass die karte zwar 2x so schnell ist wie meine 1080ti, aber auch 2x soviel säuft.
Effizienzgewinn - RT = 0 über 5 Jahre.
So ein Schwachsinn. Die 3090TI ist knapp 3x schneller und somit 33% effizienter.
Slipknot79
2022-03-31, 13:08:06
Also ich werde mir auch sicherlich keine Karte mit 400 Watt oder mehr TDP in den Rechner schrauben.
Ist auch völlig in Ordnung. Für die Sparfüche hier wirds eben die 4050 RTX und die 7400 Radeon geben. (y)
In wenigen Generationen, also dann wenn die 200EUR Grakas 300W saufen, wirds immer noch für die Sparfüche des Forums iGPUs geben. (y)
Lambos für jene die sowas wollen und Dacias für jene die sowas wollen, für alle ist was dabei. (y)
Sweepi
2022-03-31, 13:15:50
Das "witzige" dran ist, dass die karte zwar 2x so schnell ist wie meine 1080ti, aber auch 2x soviel säuft.
Effizienzgewinn - RT = 0 über 5 Jahre.
Die 3080 ist in 4k 90% schneller (https://www.3dcenter.org/artikel/fullhd-ultrahd-performance-ueberblick-2012-bis-2022) als eine 1080 Ti bei bei 30% mehr Strombedarf.
Dural
2022-03-31, 14:25:24
Welcher Preis unterschied zu 3090? Die Ti kostet praktisch dasselbe im Verkauf wie eine vergleichbare 3090!
Dass die Karte mit 375Watt laut luxx praktisch keine Leistungseinbussen hat wird natürlich auch gekonnt verschwiegen :rolleyes:
Die 3090Ti müsste rein theoretisch sogar sparsamer sein als die 3090, mehr Einheiten und nur noch auf einer Seite Speicher müssten Stromsparen. Stellt mal beide Karten auf den gleichen Wert zb. 400watt und Speicher gleicher Takt, und ich Wette das die Ti mehr FPS abliefern wird, der unterschied wird aber extrem gering ausfallen, da dürfte Chipgüte wichtiger sein.
Ex3cut3r
2022-03-31, 14:26:01
Ist auch völlig in Ordnung. Für die Sparfüche hier wirds eben die 4050 RTX und die 7400 Radeon geben. (y)
In wenigen Generationen, also dann wenn die 200EUR Grakas 300W saufen, wirds immer noch für die Sparfüche des Forums iGPUs geben. (y)
Lambos für jene die sowas wollen und Dacias für jene die sowas wollen, für alle ist was dabei. (y)
;D
Dieser "Sparfuchs" hat bei der 20er Gen, aber noch eine 80er Karte gekauft. Also müssen sich alle, außer die Super Freaks total anpassen und nur noch 50er Karten kaufen? Das kann sicherlich nicht der Sinn sein, auch für Nvidia nicht. ^^
DrFreaK666
2022-03-31, 17:11:07
So ein Schwachsinn. Die 3090TI ist knapp 3x schneller und somit 33% effizienter.
Beim Test der 3090 war sie 2,08x schneller als die 1080Ti (Test auf CB).
Wo kommen plötzlich die 3x schneller her? Maximal 2,3x schneller.
ChaosTM
2022-03-31, 17:28:46
Weil gewisse Leute simple Fanbubis sind.
Bei meinen Spielen wars ziemlich genau 2x. Die 3080er war wegen Verstümmelung niemals eine echte Alternative. Bin mit meiner mobilen 3080er jetzt aber hoch zufrieden.
Slipknot79
2022-03-31, 21:53:27
;D
Dieser "Sparfuchs" hat bei der 20er Gen, aber noch eine 80er Karte gekauft. Also müssen sich alle, außer die Super Freaks total anpassen und nur noch 50er Karten kaufen? Das kann sicherlich nicht der Sinn sein, auch für Nvidia nicht. ^^
Du erkennst den Sinn meines Posts (y)
Aussage: Widerstand ist zwecklos.
Es werden hier konkrete Aussagen gemacht, was man als Maximalwatt noch akzeptieren wird.
Ich weiß jetzt schon, dass diese Aussagen nicht halten werden und nicht ernst zu nehmen sind.
Einmal Lambo, immer Lambo. Stundentisch rebellisches Verhalten aus einer Zeit, wo man wirklich Sparfuchs sein musste, bringt gar nix, es werden alle assimiliert, das lässt sich nicht vermeiden. (y)
Alternative: iGPU. Um sein Gesicht zu wahren? Weil man vor 7 Jahren gesagt hat "280W max"?
Genau, das schau ich mir an. ;)
Rampage 2
2022-04-01, 01:21:11
GeForce RTX 3090 Ti
- GA102-350
- 84 SM @ 384 Bit (Vollausbau)
- 450W TDP
- $1999 / 2249€
Ich hatte "wenigstens" mit 2000€ UVP gerechnet:mad::mad::mad:
Erst die Verarsche mit der 16GB 3070 Ti, weswegen ich doch noch meine 3080 Ti-Bestellung im Sommer 2021 storniert hatte, um weitere 6 Monate zu warten und dann nochmal (nach dem 16GB 3070 Ti-Cancel) knapp 4 Wochen auf die Bekanntgabe der 3090 Ti-UVP warten, in der Hoffnung dass es "nur" 2000€ sein werden - alles Makulatur!
In einer Zeitspanne von einem halben Jahr hat Nvidia es geschafft, mich gleich dreimal zu verarschen!
Und jetzt habe ich keinen Bock mehr auf weiteres Hin-und-Her; gute 3090Ti-Customs kosten 2300-2500€. Das ist mir zuviel des Guten.
Also habe ich mir gestern eine 3080 Ti bestellt - zum exakt gleichen Preis wie bei meiner Stornierung (https://www.computeruniverse.net/de/p/90833563?utm_channel=psm&utm_source=geizhals&utm_campaign=cpc&utm_medium=katalog&utm_content=artikel&agt=288)
über 7 Monate umsonst gewartet:mad::mad::mad:
R2
Edit: Das ist kein Aprilscherz!
Ex3cut3r
2022-04-01, 02:36:48
Von einer 2070 aus? Gutes Upgrade IMHO. Habe einen ähnlichen Upgrade Path hinter mir, 2080 non Super auf 3080 Ti (ASUS TUF)
Unterschied ist gewaltig. 70-80% in Raster Spielen. Und über 100% in RT Szenarien.
Wenigstens hast du nicht wie ich im Dezember für sage und schreibe 1800€ zugeschlagen. Aber gut.
Rampage 2
2022-04-01, 03:16:45
Von einer 2070 aus? Gutes Upgrade IMHO. Habe einen ähnlichen Upgrade Path hinter mir, 2080 non Super auf 3080 Ti (ASUS TUF)
Unterschied ist gewaltig. 70-80% in Raster Spielen. Und über 100% in RT Szenarien.
Wenigstens hast du nicht wie ich im Dezember für sage und schreibe 1800€ zugeschlagen. Aber gut.
Das Ärgerliche ist nicht nur der Preis, sondern:
- Ich hätte es mir im Sommer 2021 zum selben Preis kaufen können, habe aber meine Bestellung dann doch storniert (-> warten auf 3070 Ti 16GB oder 3090 Ti)
- 6 Monate umsonst gewartet (3070 Ti 16GB gecancelt)
- noch einen Monat umsonst gewartet (3090 Ti teurer als erwartet; zu teuer -> zurück zur 3080 Ti)
- 3080 Ti nicht billiger, sondern zum gleichen Preis wie damals gekauft, nur halt mit 7 Monaten Zeitvergeudung:facepalm:
Wenigstens konnte ich das von mir bestellte Modell halbwegs zur UVP (1460€) kaufen... "nur" 120€ darüber:):rolleyes:
Sollte morgen oder übermorgen ankommen...
R2
robbitop
2022-04-01, 07:19:06
Und dann auch noch ein paar Monate vor Release der nächsten Generation. Im August wirst du dir in den Arsch beißen, weil die Nextgen dieses Mal einen 2x Sprung hinlegen soll (weiß nicht, wann das das letzte Mal der Fall war).
Ich hab aus Ampere gelernt: zum Release kaufen und 2 Jahre Ruhe haben. Die Preise sinken eh kaum (bzw dank Pandemie war es das Gegenteil aber das ist langfristig nicht repräsentativ).
Als es 2021 nur zu Sinnlospreisen möglich war hab ich beschlossen: scheiß drauf - Generation überspringen. Bringt nichts mehr.
The_Invisible
2022-04-01, 08:03:50
Warten zahlt sich bei Hardware in den wenigsten Fällen aus, wenn dann gleich zu Release zuschlagen (früher gabs zwar die Early-Access Abzocken in den ersten Wochen nach Release aber jetzt ist eh schon egal)
Meine 3080 Ti ist jetzt auch schon ein 3/4 Jahr alt, eine 3090Ti würde ich jetzt so "kurz" vor neuer Gen auch nicht mehr kaufen wollen.
Jeder wie er will aber, finds auch super wenn jemand wie Raff sich die 3090Ti holt und dann damit angeben kann :D
Sonst wirklich keiner hier im Forum der sich eine 3090Ti holt? Wo sind die "letzten paar fps Jäger" den hin? :D
TobiWahnKenobi
2022-04-01, 08:14:41
ich setze aus weil mein 9900k nicht als unterbau für rekorde taugt und jetzt in krisenzeiten 4000 EUR für was komplett neues zu verbrennen erscheint mir dumm. ich glaube auch nicht an eine frames-verdopplung auf breiter front mit der nächsten gen. sicher 2-3x schneller in gestellten low-fps-szenarien, aber +100% passt nicht zur salamitaktik. selbst wenn das geht, bekommen wir +20-30%, falls überhaupt was ankommt beim endkunden; vllt. sitzen wir in 8-9 monaten auch am lagerfeuer..
(..)
mfg
tobi
Denniss
2022-04-01, 09:15:05
Der Stromanschluß der TI ist wohl nur ne Bastellösung und entspricht nicht dem Standard?
https://www.igorslab.de/nvidias-und-amds-forderungen-an-die-pci-sig-fuer-die-neuen-600-watt-karten-grenzen-erlaubte-ueberschreitung-und-lastspitzen-exklusiv/
Slipknot79
2022-04-01, 11:33:27
Das ärgerliche ist nicht nur der Preis, sondern:
- Ich hätte es mir im Sommer 2021 zum selben Preis kaufen können, habe aber meine Bestellung dann doch storniert (-> warten auf 3070 Ti 16GB oder 3090 Ti)
- 6 Monate umsonst gewartet (3070 Ti 16GB gecancelt)
- noch einen Monat umsonst gewartet (3090 Ti teurer als erwartet; zu teuer -> zurück zur 3080 Ti)
- 3080 Ti nicht billiger, sondern zum gleichen Preis wie damals gekauft, nur halt mit 7 Monaten Zeitvergeudung:facepalm:
Wenigstens konnte ich das von mir bestellte Modell halbwegs zur UVP (1460€) kaufen... "nur" 120€ darüber:):rolleyes:
Sollte morgen oder übermorgen ankommen...
R2
Ich hätte dann aber noch weitere 6 Monate gewartet zur nächsten Gen. Wer 6 Monate gewartet hat, der can auch weitere 6 Monate warten :redface:
Hast du keine "alten" Spiele am Start zum ballern? Man can die Zeit damit gut überbrücken, mache ich auch gerade so. (y)
Was zusätzlich hilft, ist es sich eine Performance-Plus-Umstiegsgrenze zu setzten. Also zB +100%. Aktuelle Graka 40fps, neue Graka +80fps -> neue Graka kaufen, weniger auf Preis und Effizienz achten. Jenachdem wo und wann dir einer abgeht. 40 auf 60 fps gähn? Dann eben 40 auf +80fps... etc, jenachdem was du willst.
Du canst dabei auch in einer Klasse bleiben, zB indem du 1070 auf 2070 auf 3070 auf 4070 vergleichst. Sobald +100% vorliegen, canst du zugrapschen. Oder du canst innerhalb von Preisranges Vergleiche ziehen.
Vielleicht liefert 2070 auf 4060 +100%. Warum nicht auch so?
Gibt Möglichkeiten um beim Kauf einer neuen Graka schwer abzugehen. (y)
Flyinglosi
2022-04-01, 11:36:45
Hast du keine "alten" Spiele am Start zum ballern? Man can die Zeit damit gut überbrücken, mache ich auch gerade so. (y)
Ob er sich jetzt ne Karte kauft, die er sich nicht leisten kann, oder in 6 Monaten ist dann auch schon egal.
Ist ja auch nicht so, als „bräuchte“ man ne 3080Ti um aktuelle Games zocken zu können.
gbm31
2022-04-01, 11:58:22
@ FlyingIosi: Ich wollt ja nix sagen... :-)
Sweepi
2022-04-01, 12:02:47
Würde atm auch max eine 3060 Ti kaufen (die ist natürlich ein Sidegrade + 10% von einer 2080) und dann bei Ada zuschlagen.
Allerdings wird bei Ada die Nachfrage aller Voraussichtlich nach das Angebot übersteigen, außer POS bei Etherium schlägt im Sommer voll ein und der Spieler-GPU Markt übersättigt sich bis Herbst an gebrauchten Mining-GPUs.
In einer Zeitspanne von einem halben Jahr hat Nvidia es geschafft, mich gleich dreimal zu verarschen!
Haben sie das? Oder hast du dich nicht eher selbst da rein manövriert, abgesehen von der Mining-Situation?
Rampage 2
2022-04-01, 13:53:07
Und dann auch noch ein paar Monate vor Release der nächsten Generation. Im August wirst du dir in den Arsch beißen, weil die Nextgen dieses Mal einen 2x Sprung hinlegen soll (weiß nicht, wann das das letzte Mal der Fall war).
Ich hab aus Ampere gelernt: zum Release kaufen und 2 Jahre Ruhe haben. Die Preise sinken eh kaum (bzw dank Pandemie war es das Gegenteil aber das ist langfristig nicht repräsentativ).
Als es 2021 nur zu Sinnlospreisen möglich war hab ich beschlossen: scheiß drauf - Generation überspringen. Bringt nichts mehr.
Ich hatte bereits zu lange (insgesamt über 1 Jahr) gewartet und jetzt nochmal 6 Monate warten übersteigt endgültig meine Erträglichkeitsgrenze.
Bei Release gibt es aber zumindest von den größeren Chips (GL102, GL103, GL104) nur Salvage-Parts. Hier im Forum sollte mittlerweile bekannt sein, dass ich FullChip-Fetischist bin...
In der Tat ist die 3080 Ti die ALLERERSTE Salvage-GPU, die ich mir in meiner gesamten GPU-Laufbahn zugelegt habe! (weil es keine besseren Alternativen zu einem akzeptablen Preis gibt:rolleyes:)
Warten zahlt sich bei Hardware in den wenigsten Fällen aus, wenn dann gleich zu Release zuschlagen (früher gabs zwar die Early-Access Abzocken in den ersten Wochen nach Release aber jetzt ist eh schon egal)
Ja, aber ist es denn richtig(er), sich HW zu massiv überteuerten Preisen zu kaufen, anstatt darauf zu warten, dass sie im Laufe der Zeit unterhalb ihres UVP fällt, wie es in der Vergangenheit (Maxwell, Pascal, Turing) der Fall war? :|
Zumal im Laufe der Zeit nicht nur die Preise sinken (sollten), sondern auch mit besserer Chipausbeute/Fertigungsreife vollständige* und etwas besser taktbare* Modelle auf den Markt kommen:)
* = Die damalige GTX 580 ist ein Paradebeispiel dafür: nicht nur Vollausbau, sondern auch noch besser taktbar und etwas sparsamer trotz gleichem Fertigungsprozess!
Meine 3080 Ti ist jetzt auch schon ein 3/4 Jahr alt, eine 3090Ti würde ich jetzt so "kurz" vor neuer Gen auch nicht mehr kaufen wollen.
Jeder wie er will aber, finds auch super wenn jemand wie Raff sich die 3090Ti holt und dann damit angeben kann :D
Sonst wirklich keiner hier im Forum der sich eine 3090Ti holt? Wo sind die "letzten paar fps Jäger" den hin? :D
Es gab/gibt nur 3 Gründe, warum ich mir eine 3090 Ti kaufen wollte: der Cancel der 16GB 3070 Ti, Vollausbau und vor allem 24GB Grafikspeicher. Und es gibt nur einen einzigen Grund, warum ich es dann doch nicht getan habe: der Preis...
Ansonsten ist die 3090 Ti eine geile Karte (Vollausbau, über 1TB/sek. Bandbreite) und der Stromverbrauch ist nur geringfügig höher als OC-Custom-Modelle der 3080 Ti/3090. (das von mir bestellte 3080 Ti-Modell hat ein maximales Powerlimit von 450W, welches ich auch voll ausreizen werde:cool:)
Ich hätte dann aber noch weitere 6 Monate gewartet zur nächsten Gen. Wer 6 Monate gewartet hat, der can auch weitere 6 Monate warten :redface:
Hast du keine "alten" Spiele am Start zum ballern? Man can die Zeit damit gut überbrücken, mache ich auch gerade so. (y)
Was zusätzlich hilft, ist es sich eine Performance-Plus-Umstiegsgrenze zu setzten. Also zB +100%. Aktuelle Graka 40fps, neue Graka +80fps -> neue Graka kaufen, weniger auf Preis und Effizienz achten. Jenachdem wo und wann dir einer abgeht. 40 auf 60 fps gähn? Dann eben 40 auf +80fps... etc, jenachdem was du willst.
Nein, kann ich nicht mehr, weil ich bereits viel zu lange gewartet habe und der Hauptgrund, der eine neue GPU erfordert, ist schon länger her: gegen Herbst 2020 bin ich von 1080p auf 1440p umgestiegen (neuer Monitor) und damit war nicht nur 75% höhere Leistung erforderlich (zumal die Leistung meiner vorigen GPU bereits in 1080p teilweise unausreichend war), sondern vor allem auch größerer Grafikspeicher - eine 16GB 3070 Ti hätte mir Beides liefern können, ohne eine 3080 Ti oder 3090 Ti zu einem höheren Preis erforderlich zu machen:redface:
ich setze aus weil mein 9900k nicht als unterbau für rekorde taugt und jetzt in krisenzeiten 4000 EUR für was komplett neues zu verbrennen erscheint mir dumm.
Was soll denn los sein mit deinem 9900K? Das Ding ist immer noch eine Top-CPU (hab' selber Selbige am werkeln=)), die noch für Jahre taugt! Übertakte das Ding und den DDR4-Speicher bis zur Kotzgrenze, und gut ist!
R2
Ex3cut3r
2022-04-01, 14:53:55
Ich glaube mit "Rekorde" meint er halt 3DMark und so. Wo dein Score halt stark von deiner Kernanzahl abhängt. Wäre mir aber persönlich ziemlich Wumpe, ich brauch doch keine Leaderboard Schwanz Vergeleiche. ;D
TobiWahnKenobi
2022-04-01, 15:46:49
genau das. ich bräuchte die karte für nix anderes.. :) die jetzige brauche ich schon nicht und ohne leaderboard ist die auch nicht irgendwo spürbar langsamer. hab doch schon ne 3090 mit 480W PL.
(..)
mfg
tobi
Snoopy69
2022-04-02, 04:42:15
Meine zweite 3090 FTW3 Ultra (aus dem Stepup-Programm) hat 1.928€ gekostet. Die Ti kostet 2.404€ - also rund 25% mehr, für nur paar Prozent Mehrleistung. Lohnt daher nicht...
Was ich jedoch mehrfach gelesen hab, dass die Spulen so gut wie garnicht mehr hörbar sein sollen
NV hat es mal wieder verkackt, die Position der Buchse, der Ti Founders zu versetzen. Die FE ist die schönste Luftkarte ever, dann sowas :rolleyes:
Bei der neuen FTW3 dagegen sieht das jetzt klasse aus :up:
@die mit TI...
Wieviel Watt zieht sie aus der Dose bei zb TimeSpy? (Wer es mit „Zange“ messen kann). Laut CB soll ihre TI im Test das PL nicht erreichen :confused:
Die normale 3090 kann je nach BIOS weit über 500W ziehen (wer es braucht)
OgrEGT
2022-04-02, 09:03:52
Ich poste das mal hier rein, weil das die 3090Ti ggf am meisten benötigt :D
https://videocardz.com/newz/copper-plate-mod-for-geforce-rtx-30-gpus-lowers-memory-temperature-by-20
The_Invisible
2022-04-02, 09:36:53
Hats hier nicht mal einen Artikel gegeben das dabei zu viel Druck auf die Memory Module ausgeübt werden könnte und so Lötstellen unterhalb brechen können?
Bei einseitig bestückten Karten soll die Temp eh nicht so das Problem sein.
TobiWahnKenobi
2022-04-02, 10:14:17
ich finde die FE optisch auch ansprechender als die plastikbomber der boardpartner, aber es geht ja nicht immer nach hübsch.. wenn ich eine karte mit 2x HDMI haben möchte, muss ich anus oder gigabunt kaufen.
blech zwischen kühler und zu kühlende komponenten zu klemmen gewöhnt man sich spätestens dann ab, wenn es mal in die hose geht.
egal ob elektrisch, mechanisch oder thermisch..
(..)
mfg
tobi
Auf solche Karten gehört eh ein Wasserblock da brauch man sich meiner Meinung nach nicht über Luftkühler Designs streiten.
Lachhaft was NVIDIA hier abliefert. Meine 3090 ist wahrscheinlich sogar schneller als die Luftgekühlte 3090Ti und über die Preise für tatsächlich lieferbare 3090Ti ( 2,3k€+ ) brauchen wir uns auch nicht unterhalten.
Wie hier schon vorher oft geschrieben wurde. Kommt eine neue Generation, einfach sofort eine Karte bestellen und wieder 2+ Jahre "Ruhe" (also ab dann wann der Wasserblock kommt :freak: ) in der Kiste haben.
Snoopy69
2022-04-02, 12:35:44
@Lu
Wobei auf die FE kein Block gehört, weil sie so endgeil aussieht...
Daher finde ich das mit dem Anschluss so schrecklich. Dieser gehört an die schmale Seite und so nah, wie möglich am MB
@Tobi
Sag ja nichts gegen meine Anus Wix :unono:
Things that matter: Geforce RTX 3090 Ti ausgereizt: 5K-Benchmarks mit 2,1 GHz und 1,1 TByte/s Transferrate (https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Tests/benchmarks-rtx-3090-ti-vs-rtx-3090-ROG-Strix-LC-1392255/) ;)
... so optimiert, dass sie am Ende weniger Energie als im Auslieferungszustand braucht. :naughty:
MfG
Raff
Denniss
2022-04-02, 23:37:51
Das einzig gute an der 3090Ti ist das neue PCB mit der vebesserten Stromversorgung sowie die weit genauere Verbrauchssteuerung die hohe Spikes durchaus unterbindet.
ChaosTM
2022-04-02, 23:41:19
Things that matter: Geforce RTX 3090 Ti ausgereizt: 5K-Benchmarks mit 2,1 GHz und 1,1 TByte/s Transferrate (https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Tests/benchmarks-rtx-3090-ti-vs-rtx-3090-ROG-Strix-LC-1392255/) ;)
... so optimiert, dass sie am Ende weniger Energie als im Auslieferungszustand braucht. :naughty:
MfG
Raff
Sehr nett, aber immer noch ein Dinosaurier nach modernen Maßstäben. Any 77/FS2020er Benchmarks ?
18 Monate später - 5-10% Mehrleistung. Wir nähern uns immer mehr der unüberwindlichen Hardware Wand.
Jetzt hilft nur mehr gscheiter werden (DLSS) etc). ;)
VooDoo7mx
2022-04-03, 00:40:32
Things that matter: Geforce RTX 3090 Ti ausgereizt: 5K-Benchmarks mit 2,1 GHz und 1,1 TByte/s Transferrate (https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Tests/benchmarks-rtx-3090-ti-vs-rtx-3090-ROG-Strix-LC-1392255/) ;)
... so optimiert, dass sie am Ende weniger Energie als im Auslieferungszustand braucht. :naughty:
MfG
Raff
Interessanter Test.
Welche 3090Ti verwendest du jetzt privat?
Also wenn der GA102-325 dieser 3090Ti stabil 2,1GHz in 5K bei 0,987V macht, dann ist die Chipgüte deutlich besser als bei bisherigen 3080/ti/90 Karten.
Die besten 3090 die ich so gesehen habe waren so 2,05GHz bei 1,025V+
Meine 3080Ti macht z.B. bei 0,95V 1965MHz und kratz damit schon an der 400W Marke in UHD.
Wahrscheinlich wird mit so einer 3090Ti schon locker die 2GHz stabil bei 0,95V und weniger knacken, was schon richtig nett ist.
Das beste zum Schluss. =)
Slipknot79
2022-04-03, 02:39:07
Ich hab schon geahnt, dass sowas kommt. oO
Wieder wird vergessen, dass youtuber und Redaktionen golden samples geliefert bekommen. Aus dem Grund kann man derartige "Tests" wegklicken.
=Floi=
2022-04-03, 07:59:14
Könnte auch an der stromversorgung liegen. Igor hat leider nichts zu den kondensatoren auf der oberseite gesagt, und wie viel diese mit dem glatteren verlauf der leistungsaufnahme zu tun haben.
Bei den MLCC Caps hat man schon gesehen, dass dort ein wichtiger punkt für die taktstabilität liegt.
Eventuell wurde der chip garnicht so viel besser, sondern es liegt einfach an der besseren spannungsversorgung.
Freestaler
2022-04-03, 08:47:43
Ihr redet gerade von "deutlich besser" wegen 2,5% bis 5% Prozent mehrtakt? Und dies noch bei einem Halo Sonderprodukt? Asus selektiert vermutlich ja auch nochmal. Das ist doch nichts wesentliches am Ende für den Chip selbst.
ChaosTM
2022-04-03, 08:58:46
für 1200 Euronen nehme ich sie eventuell, alles drüber ist Schwachsinn - 7% schneller als eine 18 Monate ältere 1500€ Karte damals - und die neue Generationn ist kein halbes Jahr away - > c`mon
Emil_i_Lönneberga
2022-04-03, 11:00:11
Der Probelauf für den Dual-Slot 500W Lovelace 240mm Radi Topdog ist geglückt.
https://www.techpowerup.com/review/asus-geforce-rtx-3090-ti-strix-lc/36.html
EVGA wird's wieder richten:
https://de.evga.com/articles/01457/evga-30-Series-watercooling/hybrid.asp
https://de.evga.com/products/product.aspx?pn=400-HY-1978-B1
https://de.evga.com/products/product.aspx?pn=24G-P5-3978-KR
https://www.rgbswap.com/wp-content/uploads/2022/01/IMG_8108-scaled.jpeg
TobiWahnKenobi
2022-04-03, 11:05:14
ich habs auch mal überflogen, verstehe aber die AIDA-werte nicht. lasse ich den GPGPU benchmark über mein system laufen, kommt augenscheinlich vergleichbares heraus. allerdings zeigt mir AIDA 2 GPUs an.
https://abload.de/img/aida_gpgpu-resultfajf5.jpg
schalte ich die iGP aus, sind die werte schlechter.. im read/write sogar deutlich.
https://abload.de/img/aida_gpgpu-result_ohnnyjf9.jpg
(..)
mfg
tobi
Cubitus
2022-04-03, 11:36:41
Die 3090TI kommt leider zu spät.
Klar es ist eine brachiale Karte, wer jetzt das MAX an Leistung (inklusive RTX) will bekommt diese.
Wenn die 40er Serie kommt ists aber vorbei mit der Herrlichkeit.
Schätze die Leistung einer 3090(TI) wird sich dann so auf die Leistung einer 4070 RTX einpendeln.. Wer damit leben kann und die 40er Serie auslassen möchte, der kann jetzt schon zugreifen und sich erfreuen. :)
Daredevil
2022-04-03, 12:15:28
Ist doch nett :D
https://abload.de/img/bildschirmfoto2022-04pnksm.png
Snoopy69
2022-04-03, 15:09:41
Das einzig gute an der 3090Ti ist das neue PCB mit der vebesserten Stromversorgung sowie die weit genauere Verbrauchssteuerung die hohe Spikes durchaus unterbindet.
Habe ich auch gelesen...
Frage an alle Elektronik-Experten...
Gibt es eine Möglichkeit, die hohen Spikes der normalen 3090 zu kompensieren? Ich habe hier noch ein 1.000W-Seasonic-NT, das seinerzeit 2019 das teuerste und beste 1.000W-NT von Seasonic war.
Unglücklicherweise ist die Schutzschaltung dieser Serie so empfindlich, dass es bei hohem OC der 3090 FTW3 Ultra, bei Benches mit leistungsstarken Szenen, den PC hart abschaltet
Die "Probleme" mit diesem NT soll bei der Serie bekannt sein.
Es handelt sich um das "Seasonic Prime Ultra Titanium - SSR-1000TR"
@Raff und alle mit der neuen Ti
Könnt ihr mal diese Settings benchen? Danke :up:
(Wakü, Fenster-Mod, Hard-Mod etc egal)
https://www.hardwareluxx.de/community/attachments/superposition-jpg.533252/
Der Probelauf für den Dual-Slot 500W Lovelace 240mm Radi Topdog ist geglückt.
https://www.techpowerup.com/review/asus-geforce-rtx-3090-ti-strix-lc/36.html
EVGA wird's wieder richten:
https://de.evga.com/articles/01457/evga-30-Series-watercooling/hybrid.asp
https://de.evga.com/products/product.aspx?pn=400-HY-1978-B1
https://de.evga.com/products/product.aspx?pn=24G-P5-3978-KR
https://www.rgbswap.com/wp-content/uploads/2022/01/IMG_8108-scaled.jpeg
Oder "Optimus Absolute"...
Aber bis der nach DE geliefert wurde, kostet er ca. 600€ ;(
https://www.hardwareluxx.de/community/attachments/24g-p5-4989-kr_lg_1-png.744775/
Interessanter Test.
Welche 3090Ti verwendest du jetzt privat?
Noch keine, ich haderte bis heute. :ugly: Aber seit den UV-Tests der Founders Edition (aus dem regulären Handel) werde ich das Modell wohl übernehmen.
Also wenn der GA102-325 dieser 3090Ti stabil 2,1GHz in 5K bei 0,987V macht, dann ist die Chipgüte deutlich besser als bei bisherigen 3080/ti/90 Karten.
Die besten 3090 die ich so gesehen habe waren so 2,05GHz bei 1,025V+
Meine 3080Ti macht z.B. bei 0,95V 1965MHz und kratz damit schon an der 400W Marke in UHD.
Wahrscheinlich wird mit so einer 3090Ti schon locker die 2GHz stabil bei 0,95V und weniger knacken, was schon richtig nett ist.
Das beste zum Schluss. =)
Ziemlich guter Guess! Ich habe die FE nach den Standardtests mal etwas härter zur Brust genommen und es scheint echt so, dass die Karte 2 GHz mit 925 Millivolt packt. :eek: Ziemlich perverser Abstand zu den Salvage-GPUs. Allerdings zieht das Ding selbst mit dieser Spannung in den richtigen Stresstests noch über 400 Watt (u. a. Cyberpunk 2077, Mexodus EE oder Kena).
MfG
Raff
r3ptil3
2022-04-04, 01:13:02
Also haben wir mit der 3090 Ti, doch wieder etwas ähnliches wie damals mit der 2080 Ti, was die Chipgüte angeht.
Wäre interessant zu sehen was da eine RTX 3080 12Gb macht, denn bei dem Modell habe ich nur subjektiv den Eindruck, dass da minderwertigere Chips drin sind.
@Raff
Wie viel Takt kriegst du mit 800mV hin?
Checke ich gerne morgen um diese Zeit. Dürfte ziemlich wenig sein. Ich hielt ja ja schon den Chip meiner 3090 FE für überdurchschnittlich gut (1.695 MHz mit 0,737-Volt-Minimalspannung), aber das Ding hier macht damit wohl noch 1,8 GHz, sofern's da nicht einen abrupten Sprung gibt. Der hohe Speichertakt könnte sich irgendwo bemerkbar machen, der Controller will schließlich auch gespeist werden. Mit 2.025 MHz bei 22 GT/s und nur 915 mV hat die Kiste gerade Schnelltests in The Witcher 3 mit 6K-DLDSR und Mexodus EE in UHD mit DLSS Q überlebt. Cyberpunk 2077 crasht dann aber - irgendwo hier liegt die Grenze, wobei 925 mV wohl passen.
MfG
Raff
Snoopy69
2022-04-04, 03:10:46
Und „Superposition-Settings“ aus Post #131 nicht vergessen :wink:
Jo, versprochen. Willst du nur das Gesamtergebnis, oder interessieren dich auch Power-Sensoren etc.?
MfG
Raff
Er will dass mein Rekord fällt :P
Nee, bin auch gespannt. Hätte gerade beinahe die Suprim bestellt aber da mein Galaxus-Gutschein nicht funktioniert hat bleib ich bei der 3090 FE...
Wo/was ist denn dein Rekord? :)
MfG
Raff
Snoopy69
2022-04-04, 13:48:25
Jo, versprochen. Willst du nur das Gesamtergebnis, oder interessieren dich auch Power-Sensoren etc.?
MfG
Raff
Das Gesamtergebnis reicht...
Alles, was du mehr zeigst (Temperaturen) interessiert vielleicht Andere noch :)
Er will dass mein Rekord fällt :P
Nee, bin auch gespannt. Hätte gerade beinahe die Suprim bestellt aber da mein Galaxus-Gutschein nicht funktioniert hat bleib ich bei der 3090 FE...
Möment mal - bist du X909? :freak:
Ich kann mal schauen, ob ich mit der Keule und offenem Fenster die Shice aus der FE kloppen kann ;), würde aber erst mal einen Wert mit 2 GHz und Minimalspannung anstreben. Das sollte ja reichen, um einer ordinären, ausgereizten 3090 Paroli zu bieten. :D Zumal die FE bei 450 Watt abgeriegelt ist (100 %, mehr geht nicht), was mich latent stört. 500 als Maximum wäre schön gewesen.
MfG
Raff
@Raff und alle mit der neuen Ti
Könnt ihr mal diese Settings benchen? Danke :up:
(Wakü, Fenster-Mod, Hard-Mod etc egal)
https://www.hardwareluxx.de/community/attachments/superposition-jpg.533252/
Zwei Schnellschüsse mit der Founders Edition, jeweils mit optimierter Spannung. Standard-Q-AF etc.
Einmal das Setting "Degen" mit ~2.010 MHz und 21 GT/s @ nur 910 mV. ~373 Watt TGP laut CapFrameX-Protokoll über den ganzen Test:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=78951&stc=1&d=1649110213
Und einmal das Setting "Keule" mit ~2.100 MHz und 23 GT/s @ 960 mV. Hierbei hängt die Kiste dauerhaft am 450-Watt-Limit und wankt:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=78952&stc=1&d=1649110213
4.000 Punkte und 30 Average-Fps sind mit Wasserkühlung oder offenem Winter-Fenster drin, mit 500 Watt und 2,2 GHz klappt das locker. Vermutlich ist das längst geknackt. Aber das ist eben nur eine "Luftnummer". :D
MfG
Raff
@Snoopy... Jap... ;)
4204 sinds glaube ich gewesen, mit einer 3090 FE, shunt mod, sandwich Wakü, Wassertemperatur knapp unter 0°C mit Vodka als Frostschutz und natürlich bis auf die letzte Taktstufe ans Limit getaktet.
Nicht, dass die Karte dauerhaft so läuft. Aber die Aktion musste einfach mal sein und ich schätze es gab bisher nirgends einen höheren Ampere-Score in dem Benchmark. Mit der 3090ti wird er wohl fallen...
@Raff: hast Du per Taktregler übertaktet oder an der Kurve gespielt? Für Rekorde musst Du das Powerlimit umgehen, Temperatur noch mal 40 Grad runter bringen und dann einfach per Taktregler hoch ziehen. Die GPU läuft dann quasi permanent bei 1.1V und Maximaltakt Richtung 2.4 Ghz - und zwar auch in echt, nicht nur scheinbar wie das oft passiert wenn man über die Kurve OCd.
Snoopy69
2022-04-05, 12:31:37
Bei mir sind´s "nur" 4.141 mit Wakü, aber ohne Shunt´s :freak:
Sollte mit einer Ti + Wakü locker zu schaffen sein
@Raff
Dir/euch ist sicher auch schon aufgefallen, dass die Ti eine "UV-unfreundliche" Schaltung hat
Mit UV von unter 0,9V halbiert sich der RAM-Takt schlagartig
Bestätige. Das ist oberkacke - hat schon jemand einen Workaround gefunden? Das hängt mit Gewissheit am Speicher-Controller, der auf Hochleistung getrimmt wurde.
Geil ist so ein Ultra-Spar-Setting mit 720 mV um 1.700/5.000 MHz aber trotzdem, dann säuft das Ding keine 200 Watt mehr. :)
@Raff: hast Du per Taktregler übertaktet oder an der Kurve gespielt? Für Rekorde musst Du das Powerlimit umgehen, Temperatur noch mal 40 Grad runter bringen und dann einfach per Taktregler hoch ziehen. Die GPU läuft dann quasi permanent bei 1.1V und Maximaltakt Richtung 2.4 Ghz - und zwar auch in echt, nicht nur scheinbar wie das oft passiert wenn man über die Kurve OCd.
Voltage/Frequency Curve, aber zunächst nur die "Bauern-Methode": Ich ziehe mit gedrückter Shift-Taste einen Spannungspunkt zum gewünschten Takt hoch und locke die Spannung dann via L-Taste. Erweist sich etwas als stabil, kann man die Folgepunkte immer noch feinfummeln. :)
MfG
Raff
r3ptil3
2022-04-05, 13:52:08
Geil ist so ein Ultra-Spar-Setting mit 720 mV um 1.700/5.000 MHz aber trotzdem, dann säuft das Ding keine 200 Watt mehr. :)
Das klingt nicht schlecht, vermutlich ist die Karte dann unhörbar oder?
Wie viel verlierst du etwa an Performance?
Snoopy69
2022-04-05, 13:59:13
Bestätige. Das ist oberkacke - hat schon jemand einen Workaround gefunden? Das hängt mit Gewissheit am Speicher-Controller, der auf Hochleistung getrimmt wurde.
Nee, liegt wahrscheinlich daran, dass die Ti nur noch eine einfach Stromversorgung hat
Ziehst du die Spannung unter 0,9V, geht wohl auch die Spannung im Verhältnis mit runter ;(
https://www.igorslab.de/msi-geforce-rtx-3090-ti-suprim-x-im-test-heisses-eisen-oder-nur-ein-testlauf-fuer-die-geforce-rtx-4090/3/
Das ist der Punkt, bei den alten Karten kannst Du NVVDD runter ziehen und MSVDD (Speichercontroller) bleibt über 0.9V. Wenn jetzt natürlich nur noch eine Rail da ist, fällt das weg und der Speichertakt muss reduziert werden.
Keine Ahnung wie die neuen Karten jetzt reagieren, wenn man an der V/F Curve rumspielt. Bei den 3090 skaliert der tatsächliche Chiptakt unter Umständen nicht so wie man es lt. V/F Curve erwarten würde (und wie es die Tools anzeigen). ThermView schafft Transparenz. Daher hat die OC-Methode per Offset-Slider Vorteile - nur die Widerrum funktioniert nur, wenn man auch die höchsten Taktstufen anfahren kann, also mit Monsterkühlung und ShuntMod. Hach, war schon ein Spaß Ampere-OC. Das wird nur noch durch Alder Lake getoppt - da sind die letzten 100 stabilen Mhz eine wissenschaftliche Arbeit wert.
Sweepi
2022-04-05, 14:36:29
Ziehst du die Spannung unter 0,9V, geht wohl auch die Spannung im Verhältnis mit runter ;(
Ist hier
Ziehst du die GPU Spannung unter 0,9V, geht wohl auch die Speicher Spannung im Verhältnis mit runter ;(
gemeint?
Edit: vermutlich ja:
Das ist der Punkt, bei den alten Karten kannst Du NVVDD runter ziehen und MSVDD (Speichercontroller) bleibt über 0.9V. Wenn jetzt natürlich nur noch eine Rail da ist, fällt das weg und der Speichertakt muss reduziert werden.
Snoopy69
2022-04-05, 14:56:03
Den genauen Aufbau der Schaltung kenne ich nicht, aber die RAM-Spannung der normalen 3090 bleibt bei UV wohl unberührt
Ansonsten mal Igor anschreiben...
Es geht auch nicht um die eigentliche RAM-Spannung, die liegt immer bei 1.35V (bzw. 1.4xx bei ner Strix). Der Chip selbst hat zwei voltage planes, die NVVDD (das ist die VCore die man sieht) und MSVDD. Korrespondieren beide aber können auch mal abweichen. Da wird wohl die Ursache liegen.
Das klingt nicht schlecht, vermutlich ist die Karte dann unhörbar oder?
Wie viel verlierst du etwa an Performance?
Ich habe nur eine Stichprobe mit nicht voll ausoptimierten Settings gemacht. Da sind's rund 25 Prozent (Mexodus EE in UHD mit RT Ultra und DLSS Q) bei <200 Watt und 800 RPM/30 % flat. :eek: :biggrin: :cool:
MfG
Raff
Neurosphere
2022-04-05, 21:51:01
Mal eine Frage am Rande, gibt es eigentlich schon ein kaufbares NT mit 12+4 Anschluss?
Slipknot79
2022-04-05, 23:27:52
Also haben wir mit der 3090 Ti, doch wieder etwas ähnliches wie damals mit der 2080 Ti, was die Chipgüte angeht.
Wäre interessant zu sehen was da eine RTX 3080 12Gb macht, denn bei dem Modell habe ich nur subjektiv den Eindruck, dass da minderwertigere Chips drin sind.
Das was du in deinem Modell hast, ist Durchschnitt und auch ok so.
Das was Hardware Redaktionen und youtuber erhalten sind golden samples.
Um eine statistisch relevante allgemeingültige Aussage treffen zu können muss man 30 Grakas im Handel kaufen und alle testen. Dann erst ist eine Tendenz erkennbar was die Chipgüte betrifft. (y)
r3ptil3
2022-04-05, 23:38:29
@Slipknot79
Für eine statistisch relevante allgemeingültige Aussage reichen auch 30 Karten nicht.
Raff hat seine RTX 3090 Ti von der Redaktion abgekauft, welche auch direkt aus dem Handel kam, sofern ich richtig gelesen habe.
Yep, ganz normale Retail-Ware. Detail am Rande: Noch ist das nicht offiziell meine. :)
MfG
Raff
Slipknot79
2022-04-06, 00:39:35
K retail e high 5, immerhin. Bleibt so hoffentlich auch in Zukunft. (y)
30 Karten reichen sicher aus, ist ja nicht so dass die Shice zwischen 1000 und 2200MHz streut. :redface:
Flyinglosi
2022-04-06, 10:04:28
30 Karten reichen sicher aus, ist ja nicht so dass die Shice zwischen 1000 und 2200MHz streut. :redface:
Da hat einer Statistik verstanden ;D
Geforce RTX 3090 Ti Founders Edition im Test: Nvidias 2-GHz-Referenzkarte punktet mit Effizienz (https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Tests/FE-Review-Founders-Edition-kaufen-Benchmarks-1392446/)
... im Vergleich mit den Custom-Designs (bevor wieder jemand meckert). Spannend is scho, die hat nämlich sonst niemand getestet. Checkt vor allem die Stromseite (https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Tests/FE-Review-Founders-Edition-kaufen-Benchmarks-1392446/3/). :) Aber es gibt auch Lautheitswerte.
MfG
Raff
Ich hatte insgesamt 4 3090 hier, zwei Founders, ne Zotac und ne EVGA. Die Streuung war nicht gigantisch wenn man alle Faktoren (Taktbarkeit, Energieverbrauch, Speichertakt) einbezieht. Wir reden da über 1-2% Performancestreuung. Meine aktuelle FE z.b. ist kein Undervolting-Wunder, skaliert aber gut bis 1.1V und kann viel beim Speicher. Die Zotac lief bei 2 Ghz mit 50mV weniger, heizte aber wie blöd und der Speicher lief mit 1500 Mbps weniger. Man sollte sich nicht verrückt machen... persönliches binning bzw. die Statistik ist für Enthusiasten interessant aber im Endergebnis nahezu irrelevant
Troyan
2022-04-06, 12:16:31
Also vergleicht man die Karte mit der 6900XT LC, ist das garnicht so übel. 31% mehr Strom für >15% mehr Leistung in 4K.
fondness
2022-04-06, 15:14:34
Geforce RTX 3090 Ti Founders Edition im Test: Nvidias 2-GHz-Referenzkarte punktet mit Effizienz (https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Tests/FE-Review-Founders-Edition-kaufen-Benchmarks-1392446/)
... im Vergleich mit den Custom-Designs (bevor wieder jemand meckert).
Bei einem solchen Titel darfst du dich nicht wundern, wenn jemand meckert. Eine Referenzkarte punktet IMMER mit Effizienz im Vergleich zu OC-Designs.
Also vergleicht man die Karte mit der 6900XT LC, ist das garnicht so übel. 31% mehr Strom für >15% mehr Leistung in 4K.
Wobei das 200-Watt-Setting fast das Spannendste ist, die geringe Probenmenge hin oder her. ~75 Prozent der Leistung bei ~45 Prozent des Verbrauchs ist schon geil. Wenn man noch an die Speicherspannung herankäme ...
MfG
Raff
Lehdro
2022-04-06, 15:27:15
Wenn man noch an die Speicherspannung herankäme ...
Apropos: Gibt es dann zur 6950XT bei euch auch mal einen Test wo beide am Limit gestetet werden? Also 6950XT @ max. Tuning (mit MPT) vs. 3090Ti mit max. UVOC/Curve?
So wie das damals mit der 7970 Toxic gegen die freilaufende GTX Titan war?
Leonidas
2022-04-06, 19:03:18
Geforce RTX 3090 Ti Founders Edition im Test: Nvidias 2-GHz-Referenzkarte punktet mit Effizienz (https://www.pcgameshardware.de/Geforce-RTX-3090-Ti-Grafikkarte-278115/Tests/FE-Review-Founders-Edition-kaufen-Benchmarks-1392446/)
Habe ich Tomaten auf den Augen - oder wo ist der Vergleich mit der auf simulierten Referenz-Takt laufenden Suprim X?
PS: Erstelle ich dann halt selber ...
hq-hq
2022-04-06, 23:31:53
Typisch Raff@PCGH
Mag sich einen NV-Krüppel schönreden! Dein NV-Gelaber ist echt für den Arsch! Nimm bitte eine eine 6900XT toxic extreme und bediene dich dem MPT! Somit ist deine schrottige TI Geschichte! Wenn schon Journalismus, dann doch bitte neutral
eine extrem übertaktete 6900xt vs eine extrem übertaktete 3090 (Ti) wär so zum Abschluss echt nicht falsch :freak:
kann mir nicht vorstellen, dass die 6900xt oberhalb von 1440p noch viel reissen kann gegen ne 450Watt mit Wasser gekühlte 3090Ti...
mit 0,925V hab ich auch 1995 oder 2010 in der curve, aber die GPU wird normal nur 42-44°C warm (also die alte 3090)
ChaosTM
2022-04-06, 23:36:12
eine extrem übertaktete 6900xt vs eine extrem übertaktete 3090 (Ti) wär so zum Abschluss echt nicht falsch :freak:
kann mir nicht vorstellen, dass die 6900xt oberhalb von 1440p noch viel reissen kann gegen ne 450Watt mit Wasser gekühlte 3090Ti...
mit 0,925V hab ich auch 1995 oder 2010 in der curve, aber die GPU wird normal nur 42-44°C warm
Mich würde eine extrem optimierte AMD vs NV top end Sache mehr interessieren.
meine mobile 3080er beeindruckt mich immer wieder, speziell bei nur knapp über 100Watt. Am 1200p Monitor bei den Eltern reicht das dicke
aufkrawall
2022-04-07, 01:00:40
Euch interessiert wirklich noch der ineffiziente Ampere GDDR6X-Gammel oder Steinzeit-RDNA2?
*gähn*
ChaosTM
2022-04-07, 01:06:23
RDNA2 kann nix mehr gewinnen, da sind wir uns einig, aber bei der reinen Effizienz ( - RT -DLSS) ist man nicht schlecht aufgestellt.
Ich hab grad 77 @ 2400p auf der mobilen 3080er (5900HQ) gebencht - 32fps (Ultra/max RT/Auto DLSS.
DAS ist Effizienz.
edit.: es blurred tw schon etwas, aber nicht wirklich schlimm-
- was natürlich auch am 1200p Monitor hier liegen kann
hq-hq
2022-04-07, 08:10:59
Euch interessiert wirklich noch der ineffiziente Ampere GDDR6X-Gammel oder Steinzeit-RDNA2?
*gähn*
Ja doch, eben als Abschluss. Wobei es mit den AMD Refreshes dann nochmal aufgewärmt werden kann. Danach geht natürlich aller Blick auf die neuen Generationen...
The_Invisible
2022-04-07, 08:57:22
Verstehe sowieso nicht wieso es keine Hersteller gibt die einen effizienten Modus von Haus aus anbieten, das wär ja mal ein Argument irgendwie. Also gibt ja schon Karten mit Schalter "Gaming" und "Silent", dazu einfach noch ein "efficient" dazu oder vielleicht nur afterburner profile oder so. Wäre sicher der Verkaufsschlager bei >500W Karten :D
=Floi=
2022-04-07, 09:15:04
Raff@PCGH ist von Nvidia teilfinanziert. Da sollte man keine Neutralität erwarten 😂
ja voll ;D
Und eine 3090ti ist kein krüppel! Wir wissen seinen preis nicht und er will eben die sehr guten chips haben. Durch die selektion sind diese chips dann auch entsprechend gut.
Und wer sich diese karte privat kauft ist auch egal. Mir ist jemand lieber, der auch privat spielt, wie jemand der nur seinen job macht und am WE nix mit dem pc macht.
---
den effizient-modus kannst du den kunden schwer verkaufen, weil man dadurch so viel leistung verliert, dass eine halb so teure karte dann gleich schnell wäre. NV skaliert (bei der selben gen) nur noch über die watt. Bei NV kauft man ein powerbudget und die entsprechende rechenleistung. Der rest könnte auch eine blackbox sein und es wäre egal.
Asaraki
2022-04-07, 10:13:46
Verstehe sowieso nicht wieso es keine Hersteller gibt die einen effizienten Modus von Haus aus anbieten, das wär ja mal ein Argument irgendwie. Also gibt ja schon Karten mit Schalter "Gaming" und "Silent", dazu einfach noch ein "efficient" dazu oder vielleicht nur afterburner profile oder so. Wäre sicher der Verkaufsschlager bei >500W Karten :D
Die Frage ist viel eher weshalb das bis heute nicht von Haus aus so kommt. Wieso muss ich frickelig eine UV Curve bauen, wenn man das relativ gut automatisch bestimmen könnte (sogar vor Auslieferung und dann gibt's pro Chip einfach ~20-30 Profile je Chipgüte die dein Treiber dann lädt und entsprechend verwendet) und viele Gamer vermutlich gut damit leben könnte, dass ein "Efficiency-Profile" ab und zu mal einen MinFPS Drop verursacht.
Kann man ja so bauen, dass es der Benutzer bewusst einschalten muss und dann hat das auch keine Bedeutung für Benchmarks. Stattdessen hätten vermutlich 80% der unbedarften User ein deutlich leiseres System.
Einfach nur dumm :D
So ganz verstehe ich das ehrlich gesagt auch nicht. Sie legen schon eine V/F curve ins BIOS nur entspricht die nicht dem tatsächlichen Verhalten der Chips. Vielleicht muss man einen Worst Case annehmen. Aber hätte man eine Kurve bei der die V/F Skalierung die des spezifischen Chips abbildet, wäre alles viel leichter. OC/UV dann einfach über den Offset slider und Power über die TDP-% einstellen - fertig.
Snoopy69
2022-04-07, 15:08:39
Stattdessen hätten vermutlich 80% der unbedarften User ein deutlich leiseres System.
Einfach nur dumm :D
Ganz einfach...
Es wird gekauft, wie blöd
Die Hersteller wissen, dass es genug User gibt, die UV betreiben. Diesen "Effizienz-Modus" ab Werk einzubauen kostet den Hersteller daher nur unnötig Geld.
Das sind rein gewinnorientierte Aktiengesellschaften, deren Invesoren hohe Erwartungen haben. Und das ist eben kein "Effizienz-Modus" - leider
OgrEGT
2022-04-07, 19:06:21
https://videocardz.com/newz/galax-rtx-3090-ti-hof-oc-lab-edition-pcb-with-28-phase-design-teased-by-duck-oc
The HOF OC Lab is equipped with 24+4 VRM design (NVIDIA reference board is 18+3). To make things even more interesting, this model comes with not one but two PCIe Gen5 16-pin power connectors, each delivering up to 600W of power. This means that with the custom “XOC” BIOS that overlookers often receive, this model more than ready for world record breaking.
Alter... 2x600W :uexplode:
Naja, wenn man 650W ziehen will reicht ein 600W Steckerchen eben nicht aus.
Das Ding bräuchte auch keine theoretischen 20KW VRM Power. Aber irgendwie muss sich eine HOF ja vom Referenzmodell unterscheiden.
Snoopy69
2022-04-08, 13:26:37
Die HoF ist die passende HW für mein NT :upara:
Naja, wenn man 650W ziehen will reicht ein 600W Steckerchen eben nicht aus.
Eigentlich schon. Die ATX-3.0-Spec sagt: 600 Watt aus dem neuen Kabel, maximal. Dazu kommt die Energie aus dem Slot, also 66 Watt ohne Sicherheitspuffer. Daher ergibt es ja so wenig Sinn, dass die RTX 3090 Ti FE via Firmware auf 450 Watt festhängt. 516 Watt, wie bei der Asus Strix LC möglich, sind das technisch-logische Limit, wenn man von einem 450-Watt-Strang ausgeht.
MfG
Raff
r3ptil3
2022-04-08, 14:51:59
Die Gigabyte Gaming sieht nicht schlecht aus.
https://i.ibb.co/SNsLkzj/giga.png
Die Temperaturen und Geräuschentwicklung sind fast schon eine Überraschung.
71° im Quiet-Mode bei 37dB.
https://www.guru3d.com/articles_pages/gigabyte_geforce_rtx_3090_ti_gaming_oc_review,1.html
Wird vielleicht auch das neue Kühlerdesign der neuen RTX 4080/4090 Modelle.
Eigentlich schon. Die ATX-3.0-Spec sagt: 600 Watt aus dem neuen Kabel, maximal. Dazu kommt die Energie aus dem Slot, also 66 Watt ohne Sicherheitspuffer. Daher ergibt es ja so wenig Sinn, dass die RTX 3090 Ti FE via Firmware auf 450 Watt festhängt. 516 Watt, wie bei der Asus Strix LC möglich, sind das technisch-logische Limit, wenn man von einem 450-Watt-Strang ausgeht.
MfG
Raff
Stimmt, ich meinte 675W ;DD
Symbolische Größe. Ich wollte ausdrücken - das Ding ist bewusst Overkill und nur weil zwei 600W Stecker dran sind, wird sie keine 1,2kw ziehen.
Snoopy69
2022-04-08, 15:38:35
@Wuge
Aber die Voraussetzung (Stromversorgung) zum Shunten sind schon mal da :freak:
Wieviel Watt zog deine FE @wall?
BlacKi
2022-04-11, 11:11:41
3090ti effizienter als 6800/6900xt bei gleichem bis niedrigerem verbrauch.
technisch ist die karte auf jedenfall interessant. nur preislich und zeitlich nicht.
und ganz ehrlich, ein hohes powerlimit ist nach wie vor kein nachteil.
PZ46znr9tNs
DrFreaK666
2022-04-11, 12:51:38
Optimierte Karte vs "ab Werk".
Welch ein fairer Vergleich :ugly:
Linmoum
2022-04-11, 13:06:37
Das sowieso.
Aber welch bahnbrechende Erkenntnis, dass GPUs (deutlich) effizienter werden, wenn man selbst Hand anlegt. Igor ist da etwas ganz heißem auf der Spur. Gerade bei Ampere, wo man das von unzähligen 3090-Besitzern schon weiß.
Denniss
2022-04-11, 14:21:28
Interessant wäre noch eine Begrenzung auf 300W ohne UV oder nur mit sehr konservativem UV auf etwa 350W.
Knackpunkt ist halt trotz 300W immer noch schneller als viele andere Karten auf dem Leistungsniveau. Nur halt massiv teurer als der Rest.
aufkrawall
2022-04-11, 14:40:45
UV sollte man aber immer vs. UV vergleichen. Meine 6800 lief mit UV auch nicht langsamer als @stock, trotz einer 180W ASIC-Power-Begrenzung.
WedgeAntilles
2022-04-11, 14:46:09
Das sowieso.
Aber welch bahnbrechende Erkenntnis, dass GPUs (deutlich) effizienter werden, wenn man selbst Hand anlegt. Igor ist da etwas ganz heißem auf der Spur. Gerade bei Ampere, wo man das von unzähligen 3090-Besitzern schon weiß.
Gilt für die 3080 ja auch - falls ich nicht völlig falsch liege hat er da doch sogar auch schon Videos drüber gemacht, oder?
Ein ziemlich schwaches Video von ihm IMO, das man auch mit dem Satz:
"Wie bei der 3080 und der 3090 gilt bei der 3090TI auch: Durch undervolten kann man viel Strom sparen ohne viel Leistung zu verlieren" zusammen fassen können.
Wie du sagst ein bereits bekannter Fakt, der wohl keinen überraschen wird.
So ist es ein 15? minütiges Video geworden.
Naja.
Snoopy69
2022-04-11, 15:14:21
Gilt für die 3080 ja auch - falls ich nicht völlig falsch liege hat er da doch sogar auch schon Videos drüber gemacht, oder?
Ein ziemlich schwaches Video von ihm IMO, das man auch mit dem Satz:
"Wie bei der 3080 und der 3090 gilt bei der 3090TI auch: Durch undervolten kann man viel Strom sparen ohne viel Leistung zu verlieren" zusammen fassen können.
Wie du sagst ein bereits bekannter Fakt, der wohl keinen überraschen wird.
So ist es ein 15? minütiges Video geworden.
Naja.
Bei der Ti aber nur im begrenztem Maß...
Unter 0,9V halbiert sich schlagartig der RAM-Takt. Sehr schade, da man noch bissl was rausquetschen könnte
VooDoo7mx
2022-04-11, 15:28:05
Bei der Ti aber nur im begrenztem Maß...
Unter 0,9V halbiert sich schlagartig der RAM-Takt. Sehr schade, da man noch bissl was rausquetschen könnte
Bist du dir sicher, dass das bei jeder 3090Ti so ist?
So wie ich das verstanden habe, könnte das bei einen custom Board anders sein.
Ansonsten finde ich 0,9V nicht wirklich sparsam. Da ist man in UHD locker immer schon im 350W+ Bereich.
Snoopy69
2022-04-11, 16:01:16
Bei Jeder, weiß ich nicht...
BlacKi
2022-04-12, 08:50:49
Optimierte Karte vs "ab Werk".
Welch ein fairer Vergleich :ugly:
ist die RTX A6000 eine optimierte karte? ist das surprime bios ein stock bios?
nein.
hier wurde eine stock GA102 bios voltage curve verwendet. vergleiche sind daher legitim. glaubt ihr echt, igor hätte max undervolting mit 300w limit gegen stock amd karten getestet? das macht doch keinen sinn.
bei gewissen kommentaren gabs wohl einen krieg zwischen buthurtness vs brain. buhurtness wins:freak:
DrFreaK666
2022-04-12, 18:46:36
...buthurtness wins:freak:
Deine sexuellem Vorlieben interessieren mich nicht :D
Dural
2022-04-13, 14:59:10
Kann mir mal einer sagen wieso es nur noch hässliche Grafikkarten abseits der Nvidia eigenen Modelle gibt?
Eine hässlicher als die andere, eine sinnlose zu texten mit aberwitzigen dämliche Marketing Wörter nach dem anderen.
Haben die das Gefühl das Karten im Preissegment wie die 3090Ti 10 jährige Kinder als Zielgruppe haben?!? Oder an was liegt diese kompletten Geschmacks Verschandelung der Karten???
Selbst wenn die Karten Kinder kaufen, mir kann doch keiner weiss machen dass das denen gefällt! Und ob Chinesen wirklich Wörter wie TUF, Suprem, Gaming Pro, Xy Cooling oder was weiss ich drauf haben wollen bezweifle ich doch auch stark.
Selbst wenn es unbedingt drauf sein muss, könnte man es ja auch neutral und dezent machen!
Heute packt man Grafikkarten für 1000-2000.- aus und hat dabei das Gefühl einen billigen Haufen Plastik mit bisschen Alu und Kupfer in den Händen zu halten. Wo bleibt die Qualitätsanmutung??? DAMIT bindet man KUNDEN, sicher nicht mit euren dämlichen billig wirkenden Logos auf einem Plastik Klotz! Hallo wir sind im Jahr 2022.
:mad::mad::mad:
(Habe gerade eine 3090TI ausgepackt)
TobiWahnKenobi
2022-04-13, 15:01:20
^^naja.. so ganz rationale bodenständigkeit würde ich den wenigsten unterstellen, die in unseren deutschen lieblingsforen ihren alltag verbringen.. *hust*
btw,
aber ja, die plastikbomber sind durch die bank hässlich wie die nacht.
(..)
mfg
tobi
Ex3cut3r
2022-04-13, 15:10:07
Kann mir mal einer sagen wieso es nur noch hässliche Grafikkarten abseits der Nvidia eigenen Modelle gibt?
Eine hässlicher als die andere, eine sinnlose zu texten mit aberwitzigen dämliche Marketing Wörter nach dem anderen.
Haben die das Gefühl das Karten im Preissegment wie die 3090Ti 10 jährige Kinder als Zielgruppe haben?!? Oder an was liegt diese kompletten Geschmacks Verschandelung der Karten???
Selbst wenn die Karten Kinder kaufen, mir kann doch keiner weiss machen dass das denen gefällt! Und ob Chinesen wirklich Wörter wie TUF, Suprem, Gaming Pro, Xy Cooling oder was weiss ich drauf haben wollen bezweifle ich doch auch stark.
Selbst wenn es unbedingt drauf sein muss, könnte man es ja auch neutral und dezent machen!
Heute packt man Grafikkarten für 1000-2000.- aus und hat dabei das Gefühl einen billigen Haufen Plastik mit bisschen Alu und Kupfer in den Händen zu halten. Wo bleibt die Qualitätsanmutung??? DAMIT bindet man KUNDEN, sicher nicht mit euren dämlichen billig wirkenden Logos auf einem Plastik Klotz! Hallo wir sind im Jahr 2022.
:mad::mad::mad:
(Habe gerade eine 3090TI ausgepackt)
Und welches Modell war es? Eine Palit? Kann nur von einer 3080 Ti TUF sprechen, da ist der Shroud Alu oder Metall.
Haha, kommt mir vor wie mit den Mainboards. Unendliche Auswahl und Abstufungen der Ausstattung und Qualität aber 2/3 der High End Modelle fallen wg. albernem Design durch. Ich schraub mir doch mit Ü30 keinen beleuchteten Drachen ins Case ;DDD
Dr.Doom
2022-04-13, 17:01:13
Naja, hab' bis heute nicht verstanden, weswegen Lüfter&Co. Lampen haben müssen. :freak:
DrFreaK666
2022-04-13, 18:17:12
Mir egal wie eine Grafikkarte aussieht, da mein Gehäuse keine Fenster hat.
Karte rein, Seitenteil drauf, fertig.
hq-hq
2022-04-13, 21:03:23
Kann mir mal einer sagen wieso es nur noch hässliche Grafikkarten abseits der Nvidia eigenen Modelle gibt?
Eine hässlicher als die andere, eine sinnlose zu texten mit aberwitzigen dämliche Marketing Wörter nach dem anderen.
Haben die das Gefühl das Karten im Preissegment wie die 3090Ti 10 jährige Kinder als Zielgruppe haben?!? Oder an was liegt diese kompletten Geschmacks Verschandelung der Karten???
Selbst wenn die Karten Kinder kaufen, mir kann doch keiner weiss machen dass das denen gefällt! Und ob Chinesen wirklich Wörter wie TUF, Suprem, Gaming Pro, Xy Cooling oder was weiss ich drauf haben wollen bezweifle ich doch auch stark.
Selbst wenn es unbedingt drauf sein muss, könnte man es ja auch neutral und dezent machen!
Heute packt man Grafikkarten für 1000-2000.- aus und hat dabei das Gefühl einen billigen Haufen Plastik mit bisschen Alu und Kupfer in den Händen zu halten. Wo bleibt die Qualitätsanmutung??? DAMIT bindet man KUNDEN, sicher nicht mit euren dämlichen billig wirkenden Logos auf einem Plastik Klotz! Hallo wir sind im Jahr 2022.
:mad::mad::mad:
(Habe gerade eine 3090TI ausgepackt)
Hm, welche hast du denn ausgepackt?
Die Asus TUF oder STRIX sowie die MSI Suprim und die FE sollten eigentlich wertig anmuten.
Die Gigabyte sieht dick und schlicht aus... PNY sieht auf den Bildern etwas billig aus, bei Gainward sieht aktuell alles irgendwie gruselig aus :biggrin:
Sardaukar.nsn
2022-04-13, 23:39:31
Bei diesen TDP- bzw. Leistungs- und Preisregionen ist doch eigentlich eh Wasserkühlung angesagt. Da gibt es für Ampere ganz ansehnliche und sehr hochwertige Kühlungslösungen.
Made in Germany: https://shop.watercool.de/media/image/product/2539/lg/heatkiller-v-for-rtx-3080-3090-evga-ftw3-acryl-ni-bl-argb_1.jpg
oder Made in the USA: https://www.reddit.com/r/pcmods/comments/tvz56v/3090_kingpin_optimus_waterblock/
Gynoug MD
2022-04-22, 16:06:55
Kann mir mal einer sagen wieso es nur noch hässliche Grafikkarten abseits der Nvidia eigenen Modelle gibt?
Eine hässlicher als die andere, eine sinnlose zu texten mit aberwitzigen dämliche Marketing Wörter nach dem anderen.
Haben die das Gefühl das Karten im Preissegment wie die 3090Ti 10 jährige Kinder als Zielgruppe haben?!? Oder an was liegt diese kompletten Geschmacks Verschandelung der Karten???
Selbst wenn die Karten Kinder kaufen, mir kann doch keiner weiss machen dass das denen gefällt! Und ob Chinesen wirklich Wörter wie TUF, Suprem, Gaming Pro, Xy Cooling oder was weiss ich drauf haben wollen bezweifle ich doch auch stark.
Selbst wenn es unbedingt drauf sein muss, könnte man es ja auch neutral und dezent machen!
Heute packt man Grafikkarten für 1000-2000.- aus und hat dabei das Gefühl einen billigen Haufen Plastik mit bisschen Alu und Kupfer in den Händen zu halten. Wo bleibt die Qualitätsanmutung??? DAMIT bindet man KUNDEN, sicher nicht mit euren dämlichen billig wirkenden Logos auf einem Plastik Klotz! Hallo wir sind im Jahr 2022.
:mad::mad::mad:
(Habe gerade eine 3090TI ausgepackt)
+1
Ausnahmen, FE (wie von dir erwähnt, mMn das Hochwertigste überhaupt, wenn kein Montagsmodell) und die Asus Strix-Dinger (in der Realität, nicht Marketing-Bling), sowie die Asus-Noctua-Kombi.
Aber wen interessiert das in der Gegenwart von hochkant montierten Hitzestau-GPUs und Twitch-/Yt-RGB-China-Kitsch..
HarryHirsch
2022-04-22, 23:50:44
Kann mir mal einer sagen wieso es nur noch hässliche Grafikkarten abseits der Nvidia eigenen Modelle gibt?
Eine hässlicher als die andere, eine sinnlose zu texten mit aberwitzigen dämliche Marketing Wörter nach dem anderen.
Haben die das Gefühl das Karten im Preissegment wie die 3090Ti 10 jährige Kinder als Zielgruppe haben?!? Oder an was liegt diese kompletten Geschmacks Verschandelung der Karten???
Selbst wenn die Karten Kinder kaufen, mir kann doch keiner weiss machen dass das denen gefällt! Und ob Chinesen wirklich Wörter wie TUF, Suprem, Gaming Pro, Xy Cooling oder was weiss ich drauf haben wollen bezweifle ich doch auch stark.
Selbst wenn es unbedingt drauf sein muss, könnte man es ja auch neutral und dezent machen!
Heute packt man Grafikkarten für 1000-2000.- aus und hat dabei das Gefühl einen billigen Haufen Plastik mit bisschen Alu und Kupfer in den Händen zu halten. Wo bleibt die Qualitätsanmutung??? DAMIT bindet man KUNDEN, sicher nicht mit euren dämlichen billig wirkenden Logos auf einem Plastik Klotz! Hallo wir sind im Jahr 2022.
:mad::mad::mad:
(Habe gerade eine 3090TI ausgepackt)
So lange "Menschen" wie Du solch eine Karte kaufen wird sich daran nichts ändern.
Viel geiler ist es aber, dass du dich darüber aufregst, du gehörst zu den Verursachern.
Kann mir mal einer sagen wieso es nur noch hässliche Grafikkarten abseits der Nvidia eigenen Modelle gibt?
Eine hässlicher als die andere, eine sinnlose zu texten mit aberwitzigen dämliche Marketing Wörter nach dem anderen.
Haben die das Gefühl das Karten im Preissegment wie die 3090Ti 10 jährige Kinder als Zielgruppe haben?!? Oder an was liegt diese kompletten Geschmacks Verschandelung der Karten???
Selbst wenn die Karten Kinder kaufen, mir kann doch keiner weiss machen dass das denen gefällt! Und ob Chinesen wirklich Wörter wie TUF, Suprem, Gaming Pro, Xy Cooling oder was weiss ich drauf haben wollen bezweifle ich doch auch stark.
Selbst wenn es unbedingt drauf sein muss, könnte man es ja auch neutral und dezent machen!
Heute packt man Grafikkarten für 1000-2000.- aus und hat dabei das Gefühl einen billigen Haufen Plastik mit bisschen Alu und Kupfer in den Händen zu halten. Wo bleibt die Qualitätsanmutung??? DAMIT bindet man KUNDEN, sicher nicht mit euren dämlichen billig wirkenden Logos auf einem Plastik Klotz! Hallo wir sind im Jahr 2022.
:mad::mad::mad:
(Habe gerade eine 3090TI ausgepackt)
What the heck? Habe hier die 3090 Ti Suprim X von MSI und finde sie in jeder Hinsicht edel, wertig und super schön anzusehen. Eine wirklich beeindruckende Grafikkarte.
r3ptil3
2022-04-23, 12:28:36
What the heck? Habe hier die 3090 Ti Suprim X von MSI und finde sie in jeder Hinsicht edel, wertig und super schön anzusehen. Eine wirklich beeindruckende Grafikkarte.
In was für einem Gehäuse hast du die Karte verbaut?
Würde zu gerne ein paar Bilder sehen. :love2:
What the heck? Habe hier die 3090 Ti Suprim X von MSI und finde sie in jeder Hinsicht edel, wertig und super schön anzusehen. Eine wirklich beeindruckende Grafikkarte.
Ich finde das Suprim-Design von den aktuellen Entwürfen auch am besten (zumal die verdammt gut kühlen), also direkt nach der Founders Edition, aber letztendlich ist das Geschmackssache. Ich kenne aber unzählige Leute, die irrational auf RGB-LEDs abfahren und die kiloweise Plastik drumherum nicht stört ...
MfG
Raff
ChaosTM
2022-04-23, 14:41:09
Die Suprim ist nett anzuschaun und sicher super-schnell, aber 500Watt und Preise jenseits der 2k sollte man einfach aus Prinzip nicht unterstützen.
Ok, um ehrlich zu sein vor 10 Jahren hätte ich das Monster wohl auch noch gekauft (samt neuer PSU).. :D
In was für einem Gehäuse hast du die Karte verbaut?
Würde zu gerne ein paar Bilder sehen. :love2:
Die Karte ist in einem Dark Base 900 Pro von Be Quiet verbaut. Hier auf die Schnelle ein Bild:
https://abload.de/thumb/suprim_01bqkau.jpg (https://abload.de/image.php?img=suprim_01bqkau.jpg)
Die Suprim ist nett anzuschaun und sicher super-schnell, aber 500Watt und Preise jenseits der 2k sollte man einfach aus Prinzip nicht unterstützen.
Stock genehmigt sie sich bis zu 480 Watt. Aktuell läuft sie mit einer Curve bei der maximal 0,910v anliegen und der Takt sich zwischen 1965-1980 MHz bewegt, je nach Spiel ist sie so zwischen 250-330 Watt. Dank des enormen Kühlers ist sie zudem wunderbar kühl. Die GPU ist bei 58-62°C, der VRAM ebenso. An solche VRAM-Temperaturen ist bei der non-Ti nicht im Traum zu denken, selbst mit getauschten Wärmeleitpads war der VRAM schnell bei 78-82°C
ChaosTM
2022-04-23, 15:17:58
Das ist sehr nett, ja. Bleibt halt noch der Preis.
add.: um 1500 herum würde ich anfangen zu überlegen.
Das ist sehr nett, ja. Bleibt halt noch der Preis.
add.: um 1500 herum würde ich anfangen zu überlegen.
Sehr teuer ist sie ohne Frage, mit einer rationalen Entscheidung hat das schon lange nichts mehr zu tun :D
Gekauft habe ich die Karte bei Mindfactory, als sie letztens im Mindstar war für 2.222 EUR.
Der Moment, wenn die neue 2.250-Euro-Grafikkarte komplett abstirbt ...
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=79154&stc=1&d=1651066987
... ist fast genauso schlimm wie die Radeon-Performance.
Die ganze Geschichte mit vielen weiteren Werten & Impressionen gibt's morgen früh. :naughty:
MfG
Raff
Snoopy69
2022-05-26, 00:32:06
Warum nicht gleich so...? :freak:
http://abload.de/img/hbnmnmbmjzn.png
dildo4u
2022-06-12, 09:28:48
Wasserkühlung mit Mora Radiator 40° bei 500 Watt.
x26tvBNhoSU
Das ist sehr nett, ja. Bleibt halt noch der Preis.
add.: um 1500 herum würde ich anfangen zu überlegen.
Ich habe für 1549 zugeschlagen. Ich konnte einfach nicht widerstehen. Die 3090 Ti Suprim X ist eine schöne, geile, unvernünftige Grafikkarte. ;-)
StefAlb
2022-07-25, 23:22:38
Ich habe für 1549 zugeschlagen. Ich konnte einfach nicht widerstehen. Die 3090 Ti Suprim X ist eine schöne, geile, unvernünftige Grafikkarte. ;-)
Dann hoffe ich für dich,dass du dich nicht ärgerst, falls die 4090 demnächst für den Preis vielleicht rauskommt und fast doppelt so schnell ist.
Das ist nämlich das aktuelle Risiko ,wenn man bei den aktuellen Preisen,die ja super aussehen im Vergleich zu vor ein paar Monaten , kauft.
DSD512
2022-07-25, 23:40:16
4090 ist doch irgendwie uninteressant, wenn nächstes Jahr die viel interessantere 4090 Ti bzw. N3X folgen wird.
Und unter 1800-2000.- Euro wird die am Anfang sowieso nicht zu haben sein.
Ich finde eh ja immer lustig, wenn sich manche einreden, die 4090 wird es für 1500 Euro geben. Ja, klar ...
StefAlb
2022-07-25, 23:50:50
4090 ist doch irgendwie uninteressant, wenn nächstes Jahr die viel interessantere 4090 Ti bzw. N3X folgen wird.
Vielleicht. Aber 3090ti zu 3090 haut mich zB absolut nicht vom Hocker.Dazu damals Megaaufpreis und kam 18 Monate nach der 3090.
Keine Ahnung wie lange eine 4090ti nach der 4090 kommt,aber fast 100% schneller, wie eine 4090 wird sie sicherlich nicht sein :D
Kommt immer darauf an, von welcher Plattform man wechselt. Dann kann der Sprung auf die 3090 Ti vernünftiger sein, als auf z.B. eine ähnlich teure 3090 zu setzen. Ja, die 3080 Ti/6900XT wäre sicherlich die bessere Wahl gewesen. :rolleyes:
Dann hoffe ich für dich,dass du dich nicht ärgerst, falls die 4090 demnächst für den Preis vielleicht rauskommt und fast doppelt so schnell ist.
Das ist nämlich das aktuelle Risiko ,wenn man bei den aktuellen Preisen,die ja super aussehen im Vergleich zu vor ein paar Monaten , kauft.
Über die Unvernunft für ein Hobby Geld auszugeben ist immer ein Risiko und hat oft nicht viel mit Rationalität und Vernunft zu tun. Die Nachfolgegeneration wird immer (gilt hoffentlich auch für die 40XX Karten) schneller als der Vorgänger sein. Immerhin ist die 3090 Ti bereits die Spielwiese (was Stromversorgung und Speicher angeht) der neuen Generation 40XX. Ist halt eine persönliche Entscheidung.
DSD512
2022-08-01, 19:16:43
Hab hier die Sapphire Nitro+ 6950 XT und MSI 3090 Ti Gaming X Trio.
Beide auf 300 Watt gesetzt.
Bei UWQHD sieht die 3090 Ti teilweise kein Land gegen die 6950XT.
Forza 4:
6950XT
Average FPS 245
3090Ti
Average FPS 205
Mit Standard PL 450 läuft das Spiel so gut wie kein FPS schneller. Mehhh.
LOL. Das Ergebnis bei F4 ist eine richtige Blamage für NV. Ganz klar.
SOTTR:
UWQHD
6950XT average FPS 141
3090Ti average FPS 130
Bei G5 ist die 3090Ti etwas schneller. Mehhh.
Kurzes Fazit:
Außer dem Treiberthema, DLSS und spezielle Anwendungen gibt es kein Grund nicht eine AMD-Karte zu kaufen.
Aber gut, der Hypetrain bei NV nun mal da.
Ganz übel sind die Temps. vom Backplate des Speichers. Ich habe mir beim anfassen den Finger angekokelt. 80-90 Grad.
Die 3090 Ti ging nach kurzer Testphase an den Verkäufer zurück.
M.M. ist die Karte völlig überbewertet und das Geld nicht wert.
Days Gone läuft nach kurzem Testlauf auf NV einfach runder. Lustigerweise läuft das Spiel mit DXVK-Async 1.10.2 noch schlechter als mit der 6950XT + DXVK-ASYNC. Auch interessant.
UE4-Games laufen auf AMD-Karten generell nur shitmäßig. Da können Sie noch soviel am Treiber rumschrauben, wie sie wollen.
Mal sehen, wie das bei den kommenden UE5 Games wird.
Gibt aber auch Games wie Ghostwire Tokyo (ständiges Mikroruckeln) die auf beide Karte nur schlecht laufen.
Da hilft weder eine AMD noch NV-Karte.
Ich bin gespannt wie sich RDNA3 gegen ADA schlagen wird.
Wie es so läuft wie bei der 6950XT und 3090 Ti ... und NV nicht die Gaming-Keule bei ADA auspackt, dann kann NV m. M. eigentlich einpacken.
Dann wird es so laufen wie bei den CPU's.
...
Ich finde eh ja immer lustig, wenn sich manche einreden, die 4090 wird es für 1500 Euro geben. Ja, klar ...Wie? ... die muss viel billiger werden. :devil:
Tomahawk
2022-09-06, 22:12:38
Kann man aus der Preissenkung der 3090 Ti auf 1.329 Euro auf den Preis der 4090 schließen? Günstiger als 1.329 Euro kann sie m.E. nicht werden.
ChaosTM
2022-09-06, 22:18:19
Nein, die alten Karten müssen raus. Ich erwarte Preise unter 1k in den nächsten 1-2 Monaten.
Tomahawk
2022-09-06, 22:43:52
Ich war beim Preis der 4090er.
ChaosTM
2022-09-06, 22:50:00
Bei den neuen Karten kann NV fast nicht unter 1500 gehen um sich nicht lächerlich zu machen. Zumindest nicht am Anfang.
dildo4u
2022-09-07, 06:56:04
Kommt doch komplett auf AMD an, Intel konnte irgendwann auch keine 1000€ HEDT-CPU mehr verkaufen weil AMD bessere Modelle für weniger hatte.
Man sollte annehmen das der Multi Die Ansatz dafür da ist das man mit 1000€, Nvidias Top Dog angreifen kann.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.