Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3090 Vorab-Tests
King_Of_Fortune
2020-09-18, 22:30:46
Es geht los :)
https://www.youtube.com/watch?v=rpR5Lp853RA
https://www.youtube.com/watch?v=Nbl54UzGJDg
https://www.youtube.com/watch?v=o_tSosCOpqw
Daredevil
2020-09-18, 22:50:08
Wo genau ist denn jetzt das Review?
King_Of_Fortune
2020-09-18, 23:20:05
Wo genau ist denn jetzt das Review?
Es tut mir leid, dass ich erste Eindrücke zum Thema Performance vermitteln wollte.....:rolleyes:
JaniC
2020-09-18, 23:52:02
Geht der Scheiss schon wieder los. ;D
Daredevil
2020-09-18, 23:53:41
Es tut mir leid, dass ich erste Eindrücke zum Thema Performance vermitteln wollte.....:rolleyes:
:>
Wie kannst du dir genau sicher sein, dass der Typ einfach keine 2080ti zeigt?
Der Ram Verbrauch sieht nämlich stark danach aus.
Ist ja echt nett gemeint, aber nicht jedes Scam Video auf YT ist ne 3090.
Werewolf
2020-09-19, 00:33:38
https://i.kym-cdn.com/photos/images/newsfeed/000/322/453/3a0.gif
King_Of_Fortune
2020-09-19, 01:14:55
:>
Wie kannst du dir genau sicher sein, dass der Typ einfach keine 2080ti zeigt?
Der Ram Verbrauch sieht nämlich stark danach aus.
Ist ja echt nett gemeint, aber nicht jedes Scam Video auf YT ist ne 3090.
Schau mal am Anfang beim Red Dead 2 Video wo er die Grafikeinstellungen macht, die Speicherbelegung 11GB / 24GB.
Wenn das Fake ist, dann entschuldige ich mich natürlich....dachte nur die Leute hätten evtl Interesse daran.
Edit: https://www.3dmark.com/spy/13917177
https://i.imgur.com/FgZDRPW.png
Lg
w0mbat
2020-09-19, 01:30:09
Bitte nicht wieder den gleichen Scheiß wie mit dem 3080 "Review-Thread".
iamthebear
2020-09-19, 01:45:44
Die Taktraten der RTX 3090 sind bekannt. Wer die Performance wissen will muss einfach nur bei der RTX 3080 20% drauf rechnen.
Digidi
2020-09-19, 13:58:33
Bei Videocardz wurde wieder gelenkt von der gleichen Seite wie beim letzten Mal die der 3080 30% voraus gesagt hat. Bei der 3090 kommt jetzt noch 8-10% drauf. Das ist dürftig.
https://videocardz.com/newz/nvidia-geforce-rtx-3090-gaming-performance-review-leaks-out
Fur 10% mehr 114% mehr bezahlen LOL....
DIe braucht ein PL von 500W und Wasser.
Digidi
2020-09-19, 14:14:20
DIe braucht ein PL von 500W und Wasser.
Hast du Dir mal den Kühler der 3090 angeschaut, der ist nochmal um einiges Fetter als der der 3080... Da hilft auch keine Wasserrkühlung mehr viel.
Hast du Dir mal den Kühler der 3090 angeschaut, der ist nochmal um einiges Fetter als der der 3080... Da hilft auch keine Wasserrkühlung mehr viel.
Wenn sie ein PL von 500w hätte schon :biggrin:
MiamiNice
2020-09-19, 14:34:53
Hast du Dir mal den Kühler der 3090 angeschaut, der ist nochmal um einiges Fetter als der der 3080... Da hilft auch keine Wasserrkühlung mehr viel.
Da hatte wohl noch nie einer Wasser in der Kiste.
Robot
2020-09-19, 23:22:18
Hier gibts noch etwas. Sieht jetzt gar nich mal so gut aus für 1500€
https://www.hardwaretimes.com/nvidia-rtx-3090-gaming-benchmarks-leaked-just-10-faster-than-the-rtx-3080/
Ich zweifle an den Leaks. Die 3090 hat ca. 20% mehr Shader und 23% mehr Bandbreite als die 3080. Wenn das für gerade mal 10% mehr Performance sorgt, wäre das äußerst dürftig.
Linmoum
2020-09-19, 23:36:39
...aber die 3090 hat ein nicht mal 10% höheres Powerbudget als die 3080.
wolik
2020-09-20, 00:34:50
Hier gibts noch etwas. Sieht jetzt gar nich mal so gut aus für 1500€
https://www.hardwaretimes.com/nvidia-rtx-3090-gaming-benchmarks-leaked-just-10-faster-than-the-rtx-3080/
Ich wurde sagen, erschreckend.
https://abload.de/img/bildschirmfoto2020-09eij81.png
BlacKi
2020-09-20, 00:38:39
ich hatte ja auf 15% getippt, aber entweder ziehen der doppelte vram mehr als gedacht, oder keine ahnung^^
hq-hq
2020-09-20, 00:41:42
Ich wurde sagen, erschreckend.
https://abload.de/img/bildschirmfoto2020-09eij81.png
wtf
die armen GPUs werden bestimmt böse vom Powerlimit abgewürgt und die selektierten 3090 Dies sind keine Raketen
auf den zweiten Blick sieht es so aus als sei der Unterschied 3090 zur 2080Ti kleiner als bei meiner 2080Ti zur meiner alten 1080Ti
mit ner EVGA 440Watt golden Sample GPU könnten trotzdem 50% drin sein
wolik
2020-09-20, 00:48:39
wtf
die armen GPUs werden bestimmt böse vom Powerlimit abgewürgt und die selektierten 3090 Dies sind keine Raketen
auf den zweiten Blick sieht es so aus als sei der Unterschied 3090 zur 2080Ti kleiner als bei meiner 2080Ti zur meiner alten 1080Ti
mit ner EVGA 440Watt golden Sample GPU könnten trotzdem 50% drin sein
Gibts auch andere Tests, wir warten ab.
https://st.overclockers.ru/legacy/blog/348133/202606_O.jpg
Übrigens mein FS Ultra test... vor wieviel Jahren ?;D Technische Vorschritt ?
https://abload.de/img/bildschirmfoto2020-09cojl2.png
hq-hq
2020-09-20, 00:53:13
TS Extreme
3090 vs 2080Ti
11186 vs 8104
138% vs 100%
2080Ti vs 1080Ti
8104 vs 5216
155% vs 100%
naja vielleicht können das die Treiber noch richten :smile:
Edit:
eine GTX 1080Ti hatte bei mir im FS Ultra Graphics Score 7921 erreicht
die RTX 2080Ti hatte letztes Jahr im FS Ultra Graphics Score 9548 gepackt
guter Vergleich jetzt, die 3090 hat hier 12717 weil das Powerlimit (oder Temp. Probleme) nicht so hart eingreift wie im TS Extreme
3090 vs 2080Ti
12717 vs 9548
133% vs 100%
2080Ti vs 1080Ti
9548 vs 7921
121% vs 100%
-> das sieht schon besser aus im FS Ultra, wenn das Powerlimit eine geringere Rolle spielt dreht die 3090 auf oder wenn die Hotspots nicht glühen läuft es rund
Geldmann3
2020-09-20, 01:26:06
Bei der 3090 wollte ich ja eigentlich sicher zuschlagen, wenn sie allerdings nicht mindestens 11% schneller sein sollte, als die 3080 10GB, schlage ich mir das wieder aus dem Kopf und warte auf die 3080 20GB, um meine 2080 Ti zu ersetzen.
Mist ich hätte so einen Bock auf eine neue Karte, doch unter diesen Umständen hätte Nvidia meine Erwartungen schlicht nicht erreicht.
Doch wer weiß, unabhängige Benchmarks sind durchaus noch eine Hoffnung.
Daredevil
2020-09-20, 01:27:37
Was willste machen.
Die Leute wollen einerseits Drölf TB Ram, wollen aber dann noch genug Power Limit, um die Karte hochzujagen. Es sind 30w mehr, da kann man keine 20% erwarten mit dem Speicher.
Aber dürftig ist es echt, das stimmt. Klingt aber ein wenig so wie ne Titan, die war ja auch nie bahnbrechend schneller, aber dafür halt ne Titan ( Mit arschviel Speicher )
r3ptil3
2020-09-20, 01:37:06
Kann den jemand etwas vorlegen wo 10Gb totale Bildrateneinbrüche verursachen?
Geldmann3
2020-09-20, 01:37:33
Wenn ich die Benchmarks oben mittle komme ich auf 8,825% mehr Performance als eine 3080 10GB. Ich hoffe, das verbessert sich bis zum Launch wenigstens noch einige Prozente nach oben. Ansonsten wäre die Karte für mich gestorben.
hq-hq
2020-09-20, 01:42:23
Wenn ich die Benchmarks oben mittle komme ich auf 8,825% mehr Performance als eine 3080 10GB. Ich hoffe, das verbessert sich bis zum Launch wenigstens noch einige Prozente nach oben. Ansonsten wäre die Karte für mich gestorben.
naja mindestens 11% oder knapp 9% ... wenn du schon >1500€ gedanklich abgeschrieben hattest bleib doch bitte dabei, wahrscheinlich ist die Powerlimitkeule unter Luft nicht ganz optimal, IMHO steckt in der 3090 noch viel unerschlossenes Potential
Geldmann3
2020-09-20, 01:42:45
Kann den jemand etwas vorlegen wo 10Gb totale Bildrateneinbrüche verursachen?
Ja, probiere den Flight Simulator 2020 bei mehr als 4k. Dann hast Du einen ,,totalen Bildrateneinbruch". Genauso bei Final Fantasy XV. Crysis Remastered fängt schon in 4k mit Nachladerucklern an, wenn es keine 11GB Vram hat und voll ausgefahren wird.
Und die Next-Gen Games kommen jetzt erst alle.
Versteh' mich nicht falsch, das sind in meinen Augen alles Nischensituationen. Du wirst mit 10GB Vram noch lange Deinen Spaß haben! Doch Du wirst schnell kleine Kompromisse eingehen müssen.
aufkrawall
2020-09-20, 01:45:46
Aber nur für WKler, das gab es so in der Form noch nie.
Aber auch mit WK heizt das den Raum übel auf. Imho unterschätzen das einige und werden sich noch wundern. :freak:
Geldmann3
2020-09-20, 01:47:43
naja mindestens 11% oder knapp 9% ... wenn du schon >1500€ gedanklich abgeschrieben hattest bleib doch bitte dabei, wahrscheinlich ist die Powerlimitkeule unter Luft nicht ganz optimal, IMHO steckt in der 3090 noch viel unerschlossenes Potential
Tatsächlich habe ich die 1,5k gedanklich schon abgeschrieben. Doch ich möchte auch nicht mehr als das doppelte für nicht mindestens 10% mehr Performance ausgeben. Und um das sicherzustellen, möchte ich im PCGH-Benchmark-Parcours mindestens 11% mehr im Schnitt sehen, oder 11% mehr im 3DC-Performance Index.
Auch mit gedanklich abgeschriebenen Geld kann man noch etwas kaufen, wenn man es noch hat. :wink:
Doch eventuell erreicht sie ja doch die 11% mehr, obwohl die Quelle mir schon recht solide für einen Leak vorkommt. Vielleicht gibt es ja sogar nochmal neue Treiber...
Bin übrigens glücklich ein 1000 Watt Netzteil verbaut zu haben und selbst das würde mit der 3090 OC ordentlich zu schaffen haben.
Sardaukar.nsn
2020-09-20, 08:46:35
Was willste machen.
Die Leute wollen einerseits Drölf TB Ram, wollen aber dann noch genug Power Limit, um die Karte hochzujagen. Es sind 30w mehr, da kann man keine 20% erwarten mit dem Speicher...
Sehe ich ganz ähnlich. Ich habe zu den Top Modellen noch nicht viel gefunden, aber immerhin hatte Gamer Nexus schon eine EVGA 3080 FTW3 mit 420 Watt Powerbudget die den Boost bei Last über 2ghz halten konnte.
https://i.imgur.com/AGD8sWG.jpg
Für Luftgekühlte Karten sind das ja schon ganz neue Dimensionen. Alleine die 10GB VRAM (MVDDC Power Draw) mit 95 (!) Watt.
Da möchte ich an die 3090 mit +140% Speicher gar nicht denken. Innerhalb des Powerbudget kann das nur zu Lasten der Performance bzw. des boost gehen.
Troyan
2020-09-20, 08:55:35
Der Speicher ist im Clamshell-Modus angebunden. Der Stromverbrauch ist daher nur minimal höher als bei der 3080.
woodsdog
2020-09-20, 09:13:22
Der Speicher ist im Clamshell-Modus angebunden. Der Stromverbrauch ist daher nur minimal höher als bei der 3080.
Das behauptest du wiederholt und es wiederspricht igors Aussage. Hast du dazu ne Quelle?
mironicus
2020-09-20, 09:39:41
Ich bin auf das Fazit der Tester gespannt. "Nicht kaufen, lieber eine 3080 mit 20 GB nehmen". :)
dildo4u
2020-09-20, 09:45:00
Paar 3090 4k Werte, 3080 ist z.b bei 75 FPS im Zero Dawn Bench gegenüber 86fps.
https://www.resetera.com/threads/nvidia-rtx-3070-499-3080-699-3090-1-499-announced-please-see-threadmarks.278621/page-365#post-46065068
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12430683#post12430683
Die Zero Dawn Werte passen auch zum Chnia Leak.
https://i.ibb.co/MR1T0nB/NVIDIA-RTX-3090-vs-RTX-3080-Horizon-Zero-Dawn.jpg (https://ibb.co/8jx3ZMY)
https://videocardz.com/newz/nvidia-geforce-rtx-3090-gaming-performance-review-leaks-out
Troyan
2020-09-20, 09:53:32
3080FE zu 3090FE sind wohl ~15% mehr Leistung. Oder eben weniger, wenn eine Karte OC mit erhöhten Powerlimit ist.
hq-hq
2020-09-20, 10:51:08
In Zero Dawn fällt der Unterschied sicher etwas größer aus da das Game eher wenig Strom durch die GPU zieht. In solchen Fällen wirds wahrscheinlich immer >10% für die 3090 ausgehen
Hm wobei... Time Spy Extrem sinds auch über 10% und der heizt phasweise extrem ein.
Troyan
2020-09-20, 10:55:06
Standard RTX3080FE erreicht knapp 74FPS im Horizon Benchmark: https://www.comptoir-hardware.com/articles/cartes-graphiques/42399-test-nvidia-geforce-rtx-3080.html?start=11
Sind 13,5% mehr für die 3090FE. Der China-Typ hat entweder die 3080FE übertaktet oder eine Custom-Karte verwendet.
Thunder99
2020-09-20, 11:06:12
Dennoch, der Name ist Programm. Ampere skaliert mit der Leistungsaufnahme aber säuft wie ein Loch ;D. Viele werden wohl schreien, da ihr Netzteil zu schwach ist ;D
Tatsächlich habe ich die 1,5k gedanklich schon abgeschrieben. Doch ich möchte auch nicht mehr als das doppelte für nicht mindestens 10% mehr Performance ausgeben. Und um das sicherzustellen, möchte ich im PCGH-Benchmark-Parcours mindestens 11% mehr im Schnitt sehen, oder 11% mehr im 3DC-Performance Index.
Auch mit gedanklich abgeschriebenen Geld kann man noch etwas kaufen, wenn man es noch hat. :wink:
Doch eventuell erreicht sie ja doch die 11% mehr, obwohl die Quelle mir schon recht solide für einen Leak vorkommt. Vielleicht gibt es ja sogar nochmal neue Treiber...
Bin übrigens glücklich ein 1000 Watt Netzteil verbaut zu haben und selbst das würde mit der 3090 OC ordentlich zu schaffen haben.
Hilft es dir vorab, wenn ich sage, dass die Karte ab/jenseits von UHD richtig Spaß macht? Dass es egal ist, mit man sie bewirft, es einfach läuft? Das hat man so ähnlich bei der Titan RTX. Hoffnung auf bessere Treiber würde ich, zumindest kurzfristig, abschreiben. Ich weiß nicht, was hier alle angesichts der gleichen Chip-Basis erwarten. Man muss sich einfach nur frühere AMD-GPUs vor Augen führen und verstehen, dass Ampere eine Architektur ist, die erst bei kommenden Workloads richtig brilliert - oder, wenn man ihr in der Gegenwart tonnenweise Pixel aufbürdet. Die RTX 3080 hat dabei ein Problem. RTX 3090 = 390X, reloaded. Die Zahlen passen einfach alle zu gut. :D
MfG
Raff
Daredevil
2020-09-20, 11:15:20
Das freut mich zu hören. :)
Die VII war ja auch eine, die in 4K ihre Hufen gezeigt hat, vorher wird sie halt abgezogen.
Dass Nvidia nun hier auch ein "Powerhorse" hat, was mächtig anpackt ( Auch abseits von "Spielen" ) ist schön.
Man muss halt auch wissen, wofür man sich diese Karte kauft, WQHD ist es sicherlich nicht, lol.
Legende
2020-09-20, 11:23:39
Paar 3090 4k Werte, 3080 ist z.b bei 75 FPS im Zero Dawn Bench gegenüber 86fps.
https://i.ibb.co/MR1T0nB/NVIDIA-RTX-3090-vs-RTX-3080-Horizon-Zero-Dawn.jpg (https://ibb.co/8jx3ZMY)
Fairerweise müsste man aber dazu sagen, dass da mit 2 unterschiedlichen Patchversionen und zwei unterschiedlichen Treiberversionen getestet wurde.
Was mich auch etwas wundert ist der max Wert der FPS. Bei der 3080 sind es 182 und bei der 3090 136.
Aber im Großen und Ganzen sieht das trotzdem echt mies aus. ;( Oh man eh...kann mir bitte einer die 3090 schön reden? Vielleicht kommt die Leistung ja noch durch bessere Treiber oder dann demnächst durch bessere CPUs?
dildo4u
2020-09-20, 11:27:24
Ich vermute mal die Karte kann wegen der Workstation Performance sinn machen, es gibt Programme wo Ampere komplett davon zieht und der größere Vram zusätzliche Unterschiede erzeugen könnte.
Hier gibts ein paar 3080 Werte + 60% zur 2080 Ti.
In GPU render engines like V-Ray, the RTX 3080 greatly out-performs the RTX 20-series cards, even beating the RTX 2080 Ti (which is significantly more expensive) by a large 60%. Unreal Engine also saw massive performance gains, averaging 60% higher performance over the RTX 2080 Ti.
https://www.pugetsystems.com/labs/articles/NVIDIA-GeForce-RTX-3080-10GB-Review-Roundup-1879/
wolik
2020-09-20, 11:27:33
Es gibts noch Hoffnung, aber bis jetzt 3090 entpupp sich zum ein Fail. Wenn es bei 10% + auf 3080 bleibt...
Was noch schlimmer. Mit Sicherheit wird irgendwann 3080 (Ti?) 20Gb kommen und 3080 für 600 Euro wird noch Abnehmer finden. (Verlust 100 Euro) Bis dahin alle Spiele welche auf Markt gibts kommen klar mit 10Gb. Legion und Cyberpunk entwickelt man mit Rücksicht noch auf "alte" Konsolen.
FE bis jetzt auch sieht nach ein Reinfall. Igor hat schon angemerkt das bei Custom Karten VRAM 20 Grad kühler ist...
Irgendwie jetzt ist auch klar, wieso bei Präsentation keine Bench mit 3090 gezeigt wurden...
OMG wie mies ist das...
https://abload.de/img/bildschirmfoto2020-09prj0c.png
dildo4u
2020-09-20, 11:35:33
Irgendwie jetzt ist auch klar, wieso bei Präsentation keine Bench mit 3090 gezeigt wurden...
Es gab Werte die man nachstellen könnte Forza ist vermutlich der Ingame Benchmark.
https://www.nvidia.com/de-de/geforce/news/geforce-rtx-3090-8k-hdr-gaming/#:~:text=Mit%20dem%20neuen%20Ultra%20Performance,Wiedergabe%20von%20YouTube%2DVi deos%20ist
Geldmann3
2020-09-20, 11:42:10
Hilft es dir vorab, wenn ich sage, dass die Karte ab/jenseits von UHD richtig Spaß macht? Dass es egal ist, mit man sie bewirft, es einfach läuft? Das hat man so ähnlich bei der Titan RTX. Hoffnung auf bessere Treiber würde ich, zumindest kurzfristig, abschreiben. Ich weiß nicht, was hier alle angesichts der gleichen Chip-Basis erwarten. Man muss sich einfach nur frühere AMD-GPUs vor Augen führen und verstehen, dass Ampere eine Architektur ist, die erst bei kommenden Workloads richtig brilliert - oder, wenn man ihr in der Gegenwart tonnenweise Pixel aufbürdet. Die RTX 3080 hat dabei ein Problem. RTX 3090 = 390X, reloaded. Die Zahlen passen einfach alle zu gut. :D
MfG
Raff
Aber Raff, das ist doch dann auch alles mit der RTX 3080 20GB der Fall, oder? Also mit meiner Radeon VII muss ich mich selbst in 8k schon richtig anstrengen, um Fälle zu finden, in denen die 16GB Vram voll werden. 20GB werden dann wohl für viele Jahre sorgenfrei sein. Wobei die Karte ja noch nicht offiziell bestätigt wurde. Würde eigentlich nicht zu Nvidia passen, so etwas Langlebiges auf den Markt zu werfen.
Im Moment spiele ich wirklich eher in internem 6k als in 4k mit der 2080 Ti, wo es eben geht und gerne würde ich in vielen Games sogar auf 8k hochgehen. Was bisher nur in Ausnahmen oder älteren Games möglich ist.
Der Flight Simulator 2020, den ich wegen dem Leistungshunger nur in 4k zocken kann, ist da eher ein Ausreißer.
Doch leider wird meist ja noch ,,nur" in 4k gebencht, daher hätte ich in höheren Auflösungen nicht genügend Benchmarks, um meine Kaufentscheidung darauf zu stützen und verlasse mich auf die in 4k. Die 4k Benchmarks sollten sich ja einigermaßen auf die in 8k übertragen lassen, solange der VRam nicht ausgeht. Was bei der 3080 10GB definitiv der Fall ist.
WedgeAntilles
2020-09-20, 11:44:26
Irgendwie jetzt ist auch klar, wieso bei Präsentation keine Bench mit 3090 gezeigt wurden...
Ja, die 3090 ist nicht das Faszinierende.
Aber außer ein paar "Freaks" interessiert die 2080TI, die 3090 und so weiter auch keinen.
Will sagen: Fast keiner ist bereit 1000 Euro+ für ne GraKa auszugeben.
Die Präsentation war für die bedeutend größere Gruppe ausgerichtet, die bisher 300-500 Euro für ne GraKa ausgegeben hat.
Und denen wurde gesagt: Hey, überlegt euch mal ein paar Euro mehr auszugeben.
Investiert 700 statt 500 und ihr bekommt sooooo nen langen Balken.
Die 3080 mit diesem Preis in den Fokus zu stellen ist verkaufstechnisch absolut richtig.
Denn sie ist in einem Preisbereich, der noch irgendwo realistisch ist.
Egal wie lang der Balken der 3090 wäre - 1400 Euro macht man dafür nicht locker. Da würde einen der lange Balken ziemlich egal sein. "Ist eh völlig außerhalb meiner Preisgrenze"
700 Euro? Will man für ne GraKa eigentlich nicht ausgeben. 500 Euro, so was in der Richtung.
Aber bei diesem Balken? Scheiß drauf, dann wird es halt mal 700 Euro für die GraKa.
Viele die bisher 500 Euro ausgegeben haben geben nach der Präsentation halt 700 Euro aus. Ist zwar mehr Geld, aber für massig mehr Leistung.
Was interessieren Nvidia die paar Enthusiasten die die 1400 Euro GraKa wollen?
Nvidia will Kohle verdienen.
Und Kohle macht Nvidia damit, dass sie es schaffen, dass Käufer FREIWILLIG ins höhere Regal greifen und 700 Euro statt 400 oder 500 Euro ausgeben.
Bessere Marge, höherer Gewinn - UND die Kunden sind zufrieden weil ein Griff ins höhere Regal nicht negativ besetzt ist (wie es der Fall wäre, wenn die 500 Euro GraKa jetzt 550 Euro kosten würde, es also Preiserhöhungen gibt.)
Das man durch den geringen Abstand 3080 vs 3090 wahrscheinlich ein paar 3090 Kunden an die 3080 verliert dürfte Nvidia bewusst sein - und durch die 3070 Käufer die halt jetzt zur 3080 greifen vermutlich deutlich überkompensiert werden.
wolik
2020-09-20, 11:53:33
Wedge, was du aus Acht nimmst , dass das 2080Ti Käufer immer gabs (ich weiss es nicht, 5%?) Und Titan RTX sogar für mich war zu teuer, noch schlimmer Leistungtechnisch nur ein Witz.
Aber auf solche Karten verdient auch Nvidia "nicht schlecht". "Technischdefekte" Chip in 3080 einbauen und gute Chip für gutes Geld verkaufen.
Schau mal nur um, wie viel Leute fahren mit 100K Auto rum, meinst du das ist kein Lukratives Geschäft? Deswegen will AMD auch da rein...
Es gab Werte die man nachstellen könnte Forza ist vermutlich der Ingame Benchmark.
https://www.nvidia.com/de-de/geforce/news/geforce-rtx-3090-8k-hdr-gaming/#:~:text=Mit%20dem%20neuen%20Ultra%20Performance,Wiedergabe%20von%20YouTube%2DVi deos%20ist
Und wie soll 3080 8K stemmen um das mit 3090 zu vergleichen?
dildo4u
2020-09-20, 11:59:51
Die Games müssen nicht zwangsweise die 10GB sprengen.
Mit DSR sollte man 8K auf einem 4k Display testen können.
Geldmann3
2020-09-20, 12:04:51
Die Games müssen nicht zwangsweise die 10GB sprengen.
Mit DSR sollte man 8K auf einem 4k Display testen können.
Mit der Radeon VII habe ich viele Games in 8k getestet, da sind 10GB Vram in modernen Games definitiv zu wenig. Wobei man auch sagen muss, dass die 16GB HBM2 so gut wie nie ansatzweise voll werden. Bei meiner 2080 Ti werden die 11GB Vram in 8k auf jeden Fall absolut ausgereizt und sorgen manchmal auch für extrem üble Frametimes. Doch auch hier limitiert die Rohleistung noch am ehesten.
Hmm, vielleicht hole ich mir auch einfach die 3090, einfach, weil ich Bock drauf habe und auch für AI Sachen durchaus Gebrauch von ihrem großen VRam machen könnte.
Andererseits, wo komme ich denn hin, wenn ich mir immer gleich eine neue GPU kaufe, wenn etwas 1% schnelleres auf den Markt kommt?
WedgeAntilles
2020-09-20, 12:36:41
Wedge, was du aus Acht nimmst , dass das 2080Ti Käufer immer gabs (ich weiss es nicht, 5%?) Und Titan RTX sogar für mich war zu teuer, noch schlimmer Leistungtechnisch nur ein Witz.
Aber auf solche Karten verdient auch Nvidia "nicht schlecht". "Technischdefekte" Chip in 3080 einbauen und gute Chip für gutes Geld verkaufen.
Schau mal nur um, wie viel Leute fahren mit 100K Auto rum, meinst du das ist kein Lukratives Geschäft? Deswegen will AMD auch da rein...
Und wie soll 3080 8K stemmen um das mit 3090 zu vergleichen?
Ja, Nvidia verdient gutes Geld mit dem Topmodell.
Ich hoffe das kam jetzt nicht so rüber, als dass die 1080TI, 2080TI, 3090 für Nvidia völlig uninteressant ist wirtschaftlich gesehen.
Der Luxusbereich ist überall sehr attraktiv, da gibt es überall (egal ob Autos, GraKas, Uhren oder sonstwas) die höchsten Margen.
Nvidia verdient verdammt gutes Geld mit den oben genannten Karten, da bin ich sicher. Und ganz sicher verdient Nvidia mit einer verkauften 2080TI mit Abstand am Meisten, deutlich mehr als mit einer verkauften 2070.
Aber dieser Bereich ist in meinen Augen Marketingtechnisch für Nvidia nicht ganz so wichtig wie der Bereich 400-800 Euro.
Denn die Enthusiasten kaufen ja "sowieso" die 3090.
Gerade bei 8k bleibt einem ja eh nix anderes übrig.
24GB Ram, höchste Leistung, was soll man da sonst kaufen?
Ich denke, dieser Bereich ist ziemlich erschlossen für Nvidia. Große Zuwächse? Schwierig, der Preis für diesen Bereich ist einfach verdammt hoch und für fast jeden Käufer schlicht nicht attraktiv und außerhalb jeder Vorstellung.
Die Käufer, die bereit sind soviel Geld auszugeben hat man bereits überzeugt und erschlossen - potentiell neue Kunden? Eher wenige vermute ich.
Natürlich gibt es die Gefahr, dass die 3080 für 699 eine 3090 für 1399 kannibalisiert.
Durch die nur 10GB Ram hält sich das aber IMO in Grenzen, da das den Enthusiasten schlicht zu wenig ist.
Eine andere Gefahr ist natürlich, dass die Leute sagen: Nö, das ist Leistungstechnisch zu wenig.
Keine Diskussion, das ist eine realistische Gefahr.
Da die 3090 aber schon merklich mehr Leistung als die 2080TI bringen wird, wird sie vermutlich auch gekauft werden.
Der geringe Leistungsabstand zur 3080 ist durch den Ram-Unterschied vermutlich beherrschbar.
Da hofft Nvidia vermutlich einfach, dass die Enthusiasten ihnen schon treu bleiben werden und die 3090 kaufen. So nach dem Motto: Diese Zielgruppe ist fest in unserer Hand, da gibt es nicht viele Änderungen. Also wenden wir uns dieses mal der Zielgruppe 3070 vs 3080 zu und versuchen, die Käufer davon zu überzeugen gleich die dickere Lösung 3080 zu kaufen. Potential jemanden der bisher 400-500 Euro ausgegeben hat dazu zu bringen diesmal 700 Euro auszugeben? Ist vorhanden.
Eine Präsentation konzentriert sich ja meist auf einen Punkt.
Und da ist dieses Mal die 3080 das attraktivere Produkt.
Einerseits weil der Leistungsunterschied 3090 vs 3080 viel zu klein ist, um die 3090 super attraktiv zu machen.
Andererseits weil die 3080 zu 699 einen viel größeren Markt hat und das Potential hat eine große Zahl Käufer in der Entscheidung zu beeinfluss halt doch die größere 3080 statt einer 3060 oder 3070 zu kaufen.
whtjimbo
2020-09-20, 12:38:31
Wedge, was du aus Acht nimmst , dass das 2080Ti Käufer immer gabs (ich weiss es nicht, 5%?) Und Titan RTX sogar für mich war zu teuer, noch schlimmer Leistungtechnisch nur ein Witz.
Aber auf solche Karten verdient auch Nvidia "nicht schlecht". "Technischdefekte" Chip in 3080 einbauen und gute Chip für gutes Geld verkaufen.
Schau mal nur um, wie viel Leute fahren mit 100K Auto rum, meinst du das ist kein Lukratives Geschäft? Deswegen will AMD auch da rein...
Und wie soll 3080 8K stemmen um das mit 3090 zu vergleichen?
ich seh's wie Wedge: das meiste ist Markenbildung (man kann auch Einbildung dazu sagen): "Nvidia hat die schnellsten Karten, also kaufe ich eine Nvidia"
Und bei dem Autobeispiel: Ein X6 verkauft sich viel schlechter als X1/X3.... Der X6 ist auffälliger, weil's seltener auf der Strasse, häufig nicht gekauft sondern nur geleast. Der normale Käufer möchte auch mal etwas ähnliches fahren. Da reicht dann auch gebrauchter X1. Das Feeling ist dann ähnlich. :)
Spasstiger
2020-09-20, 15:00:03
...aber die 3090 hat ein nicht mal 10% höheres Powerbudget als die 3080.
Mit 270 statt 320 Watt ist die RTX 3080 nur 4% langsamer laut Computerbase-Test:
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt
Linear skaliert auf die breitere RTX 3090 ist also mit 350 Watt durchaus auch Faktor 0,96 * 350 / 270 = 1,24 zur RTX 3080 drin. 20% halte ich für absolut realistisch mit dem 10% höhere Power Target.
Der Hauptvorteil wird sich wohl im wesentlich größeren Speicher ergeben.
Robot
2020-09-20, 15:00:03
Nvidia hat doch ein riesen Problem, die müssen die Leute in Richtung teure Karten schieben mit aller Macht, denn ansonsten gehen sie unter.
Die Butter und Brot Karten im Lowend sind verloren. Das wird auf Dauer durch APUs ersetzt und sich immer weiter hoch fressen. 1080p Gaming auf APUs ist doch in Reichweite für den 08/15 Gamer. Intel und AMD werden Nvidia da die Hosen ausziehen.
Es ist sogar anzunehmen das Nvidia fast komplett aus den Notebooks verschwinden wird, sobald Intel eine leistungsstärke GPU hat. Maximal in den 3 verkauften Highend Gaming Notebooks mit 2 externen Netzteilen steckt dann noch eine NVIDIA GPU.
Dann kommen dazu die neuen Konsolen, die ordentlich Leistung haben und auch noch mal was von der PC-Mittelklasse wegfressen.
Dazu AMD, die in der Mittelklasse preistechnisch einfach stark sind. Die 5600/5700 verkaufen sich doch wie Butter. Siehe https://www.3dcenter.org/artikel/mindfactory-grafikkarten-retail-verkaufsreport-q22020
Der Vorteil der ganzen Gamespartnerschaften ist für Nvidia auch dahin seit AMD in den Konsolen steckt.
Eigentlich steht Nvidia gerade mit dem Rücken zur Wand finde ich. Daher auch der Kauf von ARM.
RTX MUSS sich durchsetzen und die Leistung immer weiter hoch schrauben und Nvidia muss Monster-Preise nehmen, weil die Stückzahlen dann in dem Bereich viel zu gering sind.
Deswegen wird die 3080 auch schneller EOL gehen als man bis 3 zählen kann, denn die ist für Nvidia meiner Ansicht nach viel zu billig, das ist ein reines Marketingprodukt in meinen Augen um die Leute bei der Stange zu halten.
Die 3090 ist das eigentliche was Nvidia verkaufen will, daran werden sie massig verdienen. Ich bin gespannt ob die 3090 dann plötzlich deutlich besser lieferbar ist als die 3080 ;) man wird sehen.
Was die Leistung angeht kann ich mir auch nicht denken, dass die so viel schneller sein wird. Natürlich wird sie trotzdem wieder von allen Journalisten und Influenzern in den Himmel gelobt werden, egal ob die 10 oder 20 oder 30% schneller ist.
Wirklich spannend wird eigentlich die 3070 werden, denn dass ist die Karte die dann doch in größeren Mengen über den Tisch geht.
Zergra
2020-09-20, 15:07:56
APUs ? sorry, die Entwicklung war da in den letzten Jahren kaum vorhanden.
Im Grunde ist der Abstand da eher gewachsen.
Ja die 5700 verkaufen sich ganz gut, insgesamt hat AMD trotzdem im letzten Jahr eher an Marktanteil verloren.
Hakim
2020-09-20, 15:19:31
Also hab auch einige Tests (auch Youtube) gesehen wo die Leute schon den Verbrauch der Karte stark Kritisiert haben, daher denke ich das es auch genug Tester geben wird die, falls denn der Abstand von der 90er zu 80er gering sein wird, auch das bemängeln werden.
Robot
2020-09-20, 15:22:05
APUs ? sorry, die Entwicklung war da in den letzten Jahren kaum vorhanden.
Im Grunde ist der Abstand da eher gewachsen.
Ja die 5700 verkaufen sich ganz gut, insgesamt hat AMD trotzdem im letzten Jahr eher an Marktanteil verloren.
Der Abstand zwischen highend und den APUs ist gewachsen, korrekt .Aber das ist doch für den 08/15 Gamer, der mal hier und da ne runde spielt egal.
Und die Menge dieser Leute die aktuell noch nen PC mit Nvidia-Grafik kaufen würde ich nicht unterschätzen. Das wird in Zukunft aber immer weniger werden. Glaub ich jedenfalls.
Der Ryzen 7 Pro 4750G liegt fast auf dem Level einer GTX 1050 Ti, für die Fortnite Kids reicht das.
https://www.youtube.com/watch?v=C2XAqQd7ADE
Ich würde den Faktor nicht unterschätzen. Am Ende bleibt für Nvidia nur noch Highend und obere Mittelklasse.
Troyan
2020-09-20, 15:25:42
Jedes Jahr das selbe. Und jedes Jahr fährt nVidia neue Rekorde ein.
Die Leute wollen mehr Leistung und nicht die selbe. Denn für Fortnite haben die Leute schon GPUs. Der nächste Hit wird dann wieder anspruchsvoller und der Kreislauf beginnt von neuen.
Aber das hat mit der 3090 nichts zu tun.
Robot
2020-09-20, 15:27:17
Also hab auch einige Tests (auch Youtube) gesehen wo die Leute schon den Verbrauch der Karte stark Kritisiert haben, daher denke ich das es auch genug Tester geben wird die, falls denn der Abstand von der 90er zu 80er gering sein wird, auch das bemängeln werden.
:D klar und zwar wie folgt. Der Abstand zur 3080 ist gering und der Preis dafür zu hoch. Aber wenn man das geilste und beste haben will, musste man schon immer sehr tief in die Tasche greifen. In Sachen Performance ist die GeForce RTX 3080 das aktuelle non plusultra. Dazu kommt der deutlich höhere Speicher, der die Karte "zukunftssicherer" macht. (Zitatanfrage von Nvidia-PR Incoming).
https://www.google.com/search?q=geforce+2080+ti+test+%22tief+in+die+tasche+greifen%22&oq=geforce+2080+ti+test+%22tief+in+die+tasche+greifen%22&aqs=chrome..69i57j33.11580j0j15&sourceid=chrome&ie=UTF-8
;D
Gouvernator
2020-09-20, 15:30:45
Der Hauptvorteil wird sich wohl im wesentlich größeren Speicher ergeben.
Der größere Speicher nützt dir nichts wenn die Karte für 8K (wo es Sinn ergibt) generell zu schwach ist. Erst wenn 3080 Ampere durchgehend 100 FPS in 4K geliefert hätte, dann wäre noch Luft für 8K bei 3090 - wo der Speicher eine Rolle spielt. Da Ampere aber irgendwo bei 45-70 FPS herumdümpelt, spielt 8K und somit VRAM keine Rolle. Es sei denn man zockt wirklich alte Games oder Emulatoren, dann kann man wahrscheinlich bis hinauf zu 16k gehen. Unsexy ist zudem der abartige Stromverbrauch. Durch die lange Nutzungszeit solcher Karte entstehen erhebliche Stromkosten. Das ist wie wenn man ein SLI System angeschafft hat oder ein großes Zweit-TV nebenher laufen lässt. Der Stromverbrauch + unzulängliche 4K/8K Leistung + horrender Preis + ein 20Gb/7nm TSMC 3080 Nachfolger. Laut DF sind es nicht mal durchgehend 120FPS in 1440p drin mit einer 3080. Wo soll denn die Leistung für 8K herkommen?
Hilft es dir vorab, wenn ich sage, dass die Karte ab/jenseits von UHD richtig Spaß macht? Dass es egal ist, mit man sie bewirft, es einfach läuft? Das hat man so ähnlich bei der Titan RTX...
MfG
Raff
Och nöö... ich ahne Schlimmes ;(
Zergra
2020-09-20, 15:33:04
Der Ryzen 7 Pro 4750G liegt fast auf dem Level einer GTX 1050 Ti, für die Fortnite Kids reicht das.
https://www.youtube.com/watch?v=C2XAqQd7ADE
Ich würde den Faktor nicht unterschätzen. Am Ende bleibt für Nvidia nur noch Highend und obere Mittelklasse.
Fast gleich ? Das sind je nachdem bis zu 80% Unterschied. AMD lässt die APUs seit mehren Jahren schleifen. Selbst Intel hat sie jetzt überholt.
Robot
2020-09-20, 15:37:08
Zum Thema Speicher, hat eigentlich irgendjemand mal nen umfangreichen Test in die Vergangenheit gemacht, ob mehr Speicher wirklich was gebracht hat, dass man die Karten länger nutzen konnte?
Ich muss sagen, dass in meinen Erfahrungen irgendwie immer eher die Leistung ausging als der Speicher, es sei denn man will mit 30 FPS zocken. Die ganzen Low und Mittelklasse Karten mit viel Speicher waren jedenfalls immer ziemlich überflüssig.
Ich kann mir echt nicht vorstellen das man mehr als 12-16 GB braucht.
Eventuell später mal, wenn man einfach alle Texturen direkt vom M.2 Speicher in die VGA rein ballert oder so was. Wenn die Verbindung schnell genug ist, braucht man sie da aber auch eigentlich nicht vorhalten.
Fast gleich ? Das sind je nachdem bis zu 80% Unterschied. AMD lässt die APUs seit mehren Jahren schleifen. Selbst Intel hat sie jetzt überholt.
Du siehst das zu sehr aus der Sicht des Enthusiasten, die Kids die ich kenne, denen ist das total egal, ob da 60 fps oder 90 fps steht. hauptsache es ist halbwegs flüssig. Die PCs müssen da preislich mit den Konsolen konkurrieren.
Benutzername
2020-09-20, 16:03:16
Was willste machen.
Die Leute wollen einerseits Drölf TB Ram, wollen aber dann noch genug Power Limit, um die Karte hochzujagen. Es sind 30w mehr, da kann man keine 20% erwarten mit dem Speicher.
Aber dürftig ist es echt, das stimmt. Klingt aber ein wenig so wie ne Titan, die war ja auch nie bahnbrechend schneller, aber dafür halt ne Titan ( Mit arschviel Speicher )
Die 3090 wurde ja auch schon von Anfang an mit der Titan verglichen als beaknnt wurde was die 3090 so sein sollte von den Eckdaten her. Scheint wirklich der passende Vergleich bisher. Hätte nvidia auch gleich "RTX Titan 30" oder so nennen können.
Na damit ist es wohl amtlich ohne das NV Ampere geprügelt hätte würde Navi Ampere ziemlich prügeln. 3080 ist ausgequetscht bei der 3090 bleibt eigentlich "nur" der Mehrram.
Mr. Pink
2020-09-20, 16:58:26
Hilft es dir vorab, wenn ich sage, dass die Karte ab/jenseits von UHD richtig Spaß macht? Dass es egal ist, mit man sie bewirft, es einfach läuft? Das hat man so ähnlich bei der Titan RTX...
Klingt nach der perfekten Karte für hochauflösende VR Brillen. Werde auf jeden Fall die ganzen Tests nach dem Release abwarten, so eilig hab ich es auch nicht. ( trotz G2 in Sichtweite)
Matrix316
2020-09-20, 17:56:02
Kann es sein, dass man auch auf das CPU Limit aufpassen muss bei der 3090? Ein 10900K mit 3080 könnte ungefähr so schnell sein wie ein 3900X mit 3090 oder?
Einige Tester haben ja auf AMD umgestellt und Ich weiß nicht ob das so eine gute Idee ist für Grafikkarten.
Gerade bei niedrigeren Auflösungen sind die Unterschiede da schon im Bereich wie zwischen 3080 und 3090 selbst!
Ätznatron
2020-09-20, 18:27:11
Kann es sein, dass man auch auf das CPU Limit aufpassen muss bei der 3090? Ein 10900K mit 3080 könnte ungefähr so schnell sein wie ein 3900X mit 3090 oder?
Einige Tester haben ja auf AMD umgestellt und Ich weiß nicht ob das so eine gute Idee ist für Grafikkarten.
Gerade bei niedrigeren Auflösungen sind die Unterschiede da schon im Bereich wie zwischen 3080 und 3090 selbst!
Über was für einen Unterschied reden wir denn da eigentlich ? Den zwischen 200 und 210 FPS?
Wer sich eine 3090 zulegt, wird das wohl in den allermeisten Fällen nicht wegen des relativ geringen Performance-Plus im Vergleich zur 3080 machen (ob jetzt mit Intel oder AMD-CPU gemessen), sondern eher andere Gründe haben.
Geldmann3
2020-09-20, 18:29:53
Kann es sein, dass man auch auf das CPU Limit aufpassen muss bei der 3090? Ein 10900K mit 3080 könnte ungefähr so schnell sein wie ein 3900X mit 3090 oder?
Einige Tester haben ja auf AMD umgestellt und Ich weiß nicht ob das so eine gute Idee ist für Grafikkarten.
Gerade bei niedrigeren Auflösungen sind die Unterschiede da schon im Bereich wie zwischen 3080 und 3090 selbst!
Es kommt auf den Titel und die Einstellungen an, ob man im CPU-Limit landet. Für weniger als 4k sind die 3080 oder 3090 in meinen Augen z.b. nicht geschaffen und in 4k+ limitiert meist die GPU.
Die 3080 ist sogar genau für aktuelle 4k Titel geschaffen. Denn bei weniger als 4k kannst Du ihre Leistung nicht ausfahren und bei mehr als 4k geht ihr der VRam aus.
Doch keine Sorge, dank der 10GB Vram und der neuen Konsolen wird sie in den nächsten 2 Jahren schnell zu einer 350 Watt, 1440p Karte degradiert, welche ihre Leistung in keinem Szenario mit aktuellen Games mehr ausfahren kann.
10 Jahre alte Klassiker in 8k sind wahrscheinlich ein Super-Usecase für die Karte, denn die füllen trotz der hohen Auflösung nicht mehr als 10GB Vram, sondern brauchen nur Rohleistung.
Birdman
2020-09-20, 18:43:16
Na damit ist es wohl amtlich ohne das NV Ampere geprügelt hätte würde Navi Ampere ziemlich prügeln. 3080 ist ausgequetscht bei der 3090 bleibt eigentlich "nur" der Mehrram.
Ich halte andere Gründe für den Umstand verantwortlich, dass nVidia diese Keule rausgeholt hat und ein mögliches AMD Portfolio bei der Entscheidung keine Rolle spielte.
Linmoum
2020-09-20, 18:52:34
Welche Gründe sollen das sein? Mir fällt immer noch keiner ein, warum Nvidia mal eben so >=50W für 4-5% mehr Performance opfert und sich damit die Effizienz zerstört. Mehr von der Vorgängergeneration absetzen hätten sie in der Hinsicht auch mit Turing schon machen können, da wäre es wegen der Preise auch angebrachter gewesen. Kann man also ausschließen, ergibt bei dem mageren Performanceboost auch keinen Sinn.
Geldmann3
2020-09-20, 19:04:03
Ich hoffe jemand macht mal umfangreiche 8k Benchmarks mit der 3090 gegen die 2080 Ti. In 10 Games oder so.
MiamiNice
2020-09-20, 19:13:30
Welche Gründe sollen das sein?
Auf meine These das beide Hersteller genau wissen was der jeweils andere macht wurde ich quasi ausgelacht und angegiftet. Jetzt haut NV auf einmal den Hammer raus weil sie wissen was AMD bringen wird.
Wie war das?
2 x 3 macht 4
Widdewiddewitt
und Drei macht Neune !!
Ich mach' mir die Welt
Widdewidde wie sie mir gefällt ....
Zergra
2020-09-20, 19:14:47
Ich hoffe jemand macht mal umfangreiche 8k Benchmarks mit der 3090 gegen die 2080 Ti. In 10 Games oder so.
CB liefert bestimmt wieder interessante Anno 1800 Benchmarks in 1080,1440p... :rolleyes:
WedgeAntilles
2020-09-20, 19:55:55
Nvidia hat doch ein riesen Problem, die müssen die Leute in Richtung teure Karten schieben mit aller Macht, denn ansonsten gehen sie unter.
Äh dir ist schon bekannt, dass AMDs Marktanteil von 28% auf 20% eingebrochen ist?
Und der von Nvidia entsprechend um von über 70 auf fast 80% gestiegen ist?
Und die Umsatzrendite bei Nvidia von im Geschäftsjahr 2019 ein Allzeithoch hatte?
Kombiniert mit dem höchsten Umsatz (und damit natürlich Gewinn) der Firmengeschichte?
Ja, doch, das sind eindeutig die Kennzahlen einer Firma die kurz vor dem Untergang steht.
Da ist AMD natürlich weit besser aufgestellt.
Egal wie sehr man eine Firma nicht mag - ist das nicht peinlich so einen Mist zuverzapfen? :confused:
Welche Gründe sollen das sein? Mir fällt immer noch keiner ein, warum Nvidia mal eben so >=50W für 4-5% mehr Performance opfert und sich damit die Effizienz zerstört. Mehr von der Vorgängergeneration absetzen hätten sie in der Hinsicht auch mit Turing schon machen können, da wäre es wegen der Preise auch angebrachter gewesen. Kann man also ausschließen, ergibt bei dem mageren Performanceboost auch keinen Sinn.
Ich kann es bei der 3090 irgendwo mit Mühe noch halbwegs nachvollziehen, aber für die 3080 kapiere ich es überhaupt nicht.
Wieso nehm ich 320Watt wenn ich mit 270 Watt nur 5% verliere?
Macht für mich irgendwie gar keinen Sinn - völlig unabhängig sogar was BigNavi macht.
Unterstellen wir mal, dass BigNavi ca. 270 Watt braucht und exakt auf dem Niveau der 3080 ist.
Dann wäre eine 3080 mit ebenfalls 270 Watt halt 5% langsamer. Ganz ehrlich: Na und?
Die Performancekrone hätte man mit der 3090 trotzdem noch, wenn man die "Leistungskrone" als Heiligenschein braucht, der über allem leuchtet. (Weswegen man die absolute Spitzenkarte meinetwegen auch so prügeln kann, damit man da auf jeden Fall nicht hinter AMD liegt.)
Und Nvidia hat eine ziemlich große und treue Kaufgruppe - ich glaube nicht, dass jemand wegen 5% von Nvidia zu AMD wechselt.
Jetzt hat man vielleicht in diesem Beispiel die gleiche Performance - aber braucht irre viel mehr Strom. Und Strom bedeutet Hitze, bedeutet Lautstärke.
Wer wegen 5% Leistungsunterschied zu AMD wechselt, wechselt dann vermutlich auch zu AMD bei identischer Leistung, aber deutlich besserem Verbrauch bei AMD.
Unterstellen wir BigNavi braucht aucht 320 Watt - ist aber Leistungstechnisch z.B. 10% vor der 3080.
Dann machen 5% hin oder her jetzt den Kohl auch nicht fett, oder? Würde man dann nicht mit einer Karte die 15% dahinter ist, aber dafür selber nur 270 Watt braucht statt 320 Watt nicht besser dastehen?
So wären wir bei dem Beispiel ja trotzdem Performancetechnisch hinten dran.
Ob jetzt 10% hinten dran oder 15% hinten dran - kein riesiger Unterschied.
Wenn ich aber sage: Jaaaa, wir sind vielleicht 15% von der Perfromance hinten dran, brauchen aber dafür auch 17% weniger Strom, sind dadurch kühler und leiser - das ist doch ein durchaus nicht irrelevantes Argument?
Wem Performance über alles geht kauft die BigNavi, egal ob die jetzt 10% oder 15% vorne liegt.
Unterstellen wir BigNavi braucht auch 320 Watt - ist leistungstechnich aber etwas hinter der 3080, z.B. 5%.
Ja, dann kann Nvidia sagen: Wir sind 5% schneller.
Wow. 5%, who cares.
Wäre es da nicht besser wenn die 3080 gleich schnell wäre, aber nur 270 Watt bräuchte?
Dann ist der Balken gleich lang, aber Nvidia kann sagen: ok, gleich schnell - aber schaut euch mal den Verbrauch an!
Und nicht vergessen: Nvidia muss keine Käufer von AMD abziehen. Es genügt Nvidia, wenn die Käufer die bisher immer Nvidia gekauft haben wieder Nvidia kaufen.
In meinen Augen ist in allen 3 Beispielen 270 Watt mit -5% Leistung für die 3080 die bessere Wahl.
5% Leistung sind so irre wenig, dass mir kein plausibles Szenario für die 3080 einfällt, in der es besser ist 50 Watt mehr für 5% mehr Leistung zu verbrauchen.
Schon gar nicht für die komfortable Marktsituation, in der Nvidia ist.
(Und falls man die Beispiele mit extremen Zahlen machen will, z.B. BigNavi ist 30% vorne bei gleichem Stromverbrauch bzw. BigNavi ist 30% hinten bei gleichem Stromverbrauch, werden die 5% Performance immer irrelevanter. D.h. die 270W Variante wird eigentlich immer attraktiver.)
Ich begreife es einfach nicht. :confused:
Daredevil
2020-09-20, 19:59:08
Welche Gründe sollen das sein? Mir fällt immer noch keiner ein, warum Nvidia mal eben so >=50W für 4-5% mehr Performance opfert und sich damit die Effizienz zerstört. Mehr von der Vorgängergeneration absetzen hätten sie in der Hinsicht auch mit Turing schon machen können, da wäre es wegen der Preise auch angebrachter gewesen. Kann man also ausschließen, ergibt bei dem mageren Performanceboost auch keinen Sinn.
Kann ich dir sagen. Ampere ist ein völlig anderes Design als Turing.
Pascal/Turing war eher ein Design für Gaming, während Ampere durch die Menge an Einheiten auch sehr attraktiv für Workloads ist.
Teilweise ist die Karte hier doppelt so schnell als sein Vorgänger, DOPPELT.
Das legt sich zwar nicht in den Benchmarks nieder, aber trotzdem ist das potential hier sehr hoch.
Eine Ampere Karte ist das, was eine Radeon VII mit gescheitem Kühler gewesen wäre.
Schneller als Vega, effizienter im Gaming, im Compute ein Monster.
Ich habe hier stark das Gefühl, Nvidia geht auch den "Wir werfen eine Compute Karte auf den Markt und bedienen auch Gamer" Weg, die AMD mit Vega/VegaII.
Geldmann3
2020-09-21, 03:38:10
Interessanterweise performt die 3090 in diesen geleakten Benchmarks (https://www.youtube.com/watch?v=GOgFtE3CVIA) wesentlich mehr als 10% besser als die 3080.
Besteht also noch Hoffnung?
Wobei ich TechLab als Quelle als verlässlicher einstufen würde.
woodsdog
2020-09-21, 07:27:59
Interessanterweise performt die 3090 in diesen geleakten Benchmarks (https://www.youtube.com/watch?v=GOgFtE3CVIA) wesentlich mehr als 10% besser als die 3080.
Besteht also noch Hoffnung?
Wobei ich TechLab als Quelle als verlässlicher einstufen würde.
nochmal: wo soll es denn her kommen? Sie hat nur 20% mehr Hardware, wenn da 15% bei raus springen wäre es schon sau gut... am Ende schiebst du doch nur das CPU Limit weiter vor dir her und so erklären sich auch die 5-10% die geleakt wurden...
MiamiNice
2020-09-21, 07:35:21
Video Descripton lesen dann wird das klarer :)
jojo13
2020-09-21, 08:20:24
20% mehr Shader ist 20% Mehrleistung ... Ende Gelände...aber das ist ja zum Glück nicht alles was die Karten unterscheidet, wer 3080 kauft auf Grund das sie nur 20% weniger Leistung hat, kauft 2x ;D jede Wette nur schreiben wirds keiner.....
Matrix316
2020-09-21, 08:55:51
20% mehr Shader ist 20% Mehrleistung ... Ende Gelände...aber das ist ja zum Glück nicht alles was die Karten unterscheidet, wer 3080 kauft auf Grund das sie nur 20% weniger Leistung hat, kauft 2x ;D jede Wette nur schreiben wirds keiner.....
Hmmm, wenn die "2. Karte" kommt, dürfte aber auch die 3090 nicht mehr die Top Karte sein. Dann fährt man vielleicht günstiger vom P/L als wenn man jetzt eine 3080 holt und in 2 Jahren die 4080 (oder 5080?).
jojo13
2020-09-21, 09:04:47
Die 2. Karte wird die 3090 4 Wochen nach kauf der 3080 sein :D
https://www.youtube.com/watch?v=RUdyqJuJOAs
CB liefert bestimmt wieder interessante Anno 1800 Benchmarks in 1080,1440p... :rolleyes:
Ich finds super, zumal die meisten noch immer FHD nutzen so wie ich ;)
w0mbat
2020-09-21, 09:59:41
Kann es sein, dass man auch auf das CPU Limit aufpassen muss bei der 3090? Ein 10900K mit 3080 könnte ungefähr so schnell sein wie ein 3900X mit 3090 oder?
Einige Tester haben ja auf AMD umgestellt und Ich weiß nicht ob das so eine gute Idee ist für Grafikkarten.
Gerade bei niedrigeren Auflösungen sind die Unterschiede da schon im Bereich wie zwischen 3080 und 3090 selbst!
Ne, bei 4K gibt es absolut keinen Unterschied mehr und auch darunter nur sehr gering. zT ist der Ryzen auch schneller.
BlacKi
2020-09-21, 11:27:27
Video Descripton lesen dann wird das klarer :)
die beiden benchmarkwerte der 3090 hier im video laufen beide ohne PT bremse. dann könnte das so hinkommen.
MiamiNice
2020-09-21, 11:29:45
Wo? Alles was ich bisher gesehen habe, ist Intel schneller. Teils sogar über 10%.
Wenn man sich die Anno Benches im CPU Limit anschaut kann man auch erahnen wo die Peitsche knallt. Und das überträgt man dann auf die wichtigen min FPS im CPU Limit. Dann kann man mur auf Zen3 hoffen.
BlacKi
2020-09-21, 11:41:58
Wo? Alles was ich bisher gesehen habe, ist Intel schneller. Teils sogar über 10%.
Wenn man sich die Anno Benches im CPU Limit anschaut kann man auch erahnen wo die Peitsche knallt. Und das überträgt man dann auf die wichtigen min FPS im CPU Limit. Dann kann man mur auf Zen3 hoffen.
ich glaub er bezieht sich auf das gpu limit zusammen mit pcie4.0. das sind zum teil schon 1-6%.
Geldmann3
2020-09-21, 11:44:20
20% mehr Shader ist 20% Mehrleistung ... Ende Gelände...aber das ist ja zum Glück nicht alles was die Karten unterscheidet, wer 3080 kauft auf Grund das sie nur 20% weniger Leistung hat, kauft 2x ;D jede Wette nur schreiben wirds keiner.....
Quatsch, die 2080 Ti ist in 4k zum Beispiel 15% schneller in Games als die 2080 Super (https://www.3dcenter.org/artikel/grafikkarten-marktueberblick-maerz-2020), hat allerdings 42% mehr Shader Einheiten...
Shader skalieren in der Regel lange nicht linear mit der Performance.
Ich will nicht behaupten, dass es so wäre, das müssen Benchmarks noch zeigen, doch dem 2080 Ti und 2080 Beispiel oben zufolge, würde die 3090 im Schnitt nicht einmal 10% mehr Performance als die 3080 erreichen. Vielleicht 8-9%, was übrigens auch ungefähr den TechLab Benchmarks entspricht. Nochmal ich sage nicht, dass es so wäre und ich hoffe nicht, dass es so ist, doch den Shader Einheiten sowie der Taktrate zufolge wäre es naheliegend.
Quatsch, die 2080 Ti ist in 4k zum Beispiel 15% schneller in Games als die 2080 Super (https://www.3dcenter.org/artikel/grafikkarten-marktueberblick-maerz-2020), hat allerdings 42% mehr Shader Einheiten...
Shader skalieren in der Regel lange nicht linear mit der Performance.
Ich will nicht behaupten, dass es so wäre, das müssen Benchmarks noch zeigen, doch dem 2080 Ti und 2080 Beispiel oben zufolge würde die 3090 im Schnitt nicht einmal 10% mehr Performance als die 3080 erreichen. Vielleicht 8-9%, was übrigens auch ungefähr den TechLab Benchmarks entspricht. Nochmal ich sage nicht, dass es so wäre und ich hoffe, nicht dass es so ist, doch den Shader Einheiten sowie der Taktrate zufolge wäre es naheliegend.
Jo leider und deswegen werden die Leaks wohl auch wahr sein. Und nach Aussage von Raff indirekt auch... Dann lohnt die Karte wirklich nur bei > UHD/4k :(
WedgeAntilles
2020-09-21, 11:53:09
20% mehr Shader ist 20% Mehrleistung ... Ende Gelände...aber das ist ja zum Glück nicht alles was die Karten unterscheidet, wer 3080 kauft auf Grund das sie nur 20% weniger Leistung hat, kauft 2x ;D jede Wette nur schreiben wirds keiner.....
Wer jetzt nicht 4k oder gar 8k spielt kommt mit 10GB einige Zeit aus.
Vermutlich sogar bei 4k.
Und wenn man dann in 2-3 Jahren für wieder 700 Euro ne neue Karte kauft hast du dann das gleiche Geld ausgegeben und hast eine dann weit bessere Karte als wenn du jetzt eine 3090 kaufst.
Und vielleicht reicht dir die 3080 ja auch 4 Jahre.
Meine GTX 970 mit den ach so unspielbaren 3,5+0,5GB ist bei mir übrigens immer noch im Rechner, jetzt seit über 5 Jahren.
Aber hey, Nvidia bietet doch allen das an was sie wollen.
Tonnenweise Speicher mit der 3090.
Klasse Preis-Leistung bei der 3080, bei der eben der Speicher u.U. und je nach Anforderungsprofil knapp werden kann.
Und wem beide Varianten nicht gefallen, der wartet halt auf die 3080 mit 20GB.
Kapiere da jetzt einen Kommentar wie deinen nicht.
Hast du Panik, dass die Käufer der 3080 für ihre Bedürfnisse eine fast gleich gute Karte wie du bekommen, dafür aber nur die Hälfte bezahlen müssen?
Klingt für mich nach Neid und Missgunst.
Geldmann3
2020-09-21, 12:04:10
Wer jetzt nicht 4k oder gar 8k spielt kommt mit 10GB einige Zeit aus.
Vermutlich sogar bei 4k.
Dem stimme ich zu, leider liegt mein Auflösungs-Target weit über 4k. ;(
Doch selbst 8k ist in einigen aktuellen Titeln, wie Death Stranding, dank DLSS, kein Problem mit der 3080 10GB.
In Battlefield 5, Crysis Remastered und Final Fantasy XV hingegen nuckelt die 3080 10GB schon in 4k am VRam Limit und mikroruckelt auch entsprechend, wenn man die Settings nicht leicht zurückschraubt.
Daredevil
2020-09-21, 12:08:36
Quatsch, die 2080 Ti ist in 4k zum Beispiel 15% schneller in Games als die 2080 Super (https://www.3dcenter.org/artikel/grafikkarten-marktueberblick-maerz-2020), hat allerdings 42% mehr Shader Einheiten...
Shader skalieren in der Regel lange nicht linear mit der Performance.
Die Shader müssen halt auch genutzt werden, sonst verpufft das mehr an Einheiten im Nichts.
Hier schaut das z.B. schon deutlich anders aus, da profitiert ja z.B. auch die 3080 mit ihren Unmengen ein Einheiten deutlich besser.
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/2/#diagramm-doom-eternal-3840-2160
Ein 3950X wird auch erst glänzen, wenn 16 Threads mal Standard sind, vorher nicht.
Ähnlich verhält es sich, so meine Auffassung gerade, auch bei den Karten mit viel Einheiten. ( Vega, VII, Titan RTX, Titan V )
Die sind gerade bei Doom z.B. deutlich stärker, da Low Level und bessere Auslastung.
Da ist eine VII ja auch ~12% schneller als ne 5700XT.
Geldmann3
2020-09-21, 12:18:21
Nur, dass bei aktuellen Grafikkarten das Ausnutzen von mehr Threads viel weniger von der Programmierung der Software limitiert wird, sondern eher von Speicherbandbreite und sonstiger Hardware-Architektur.
Theoretisch könnten beim Rasterizing Millionen von Shader-Einheiten gleichzeitig benutzt werden, einer pro Pixel, dann darf es allerdings nirgends bottlenecken, was es immer tun wird.
Nightspider
2020-09-21, 13:08:23
Warum sind hier viele so entsetzt von den Benchmarks?
Wenn wir bei der 3080 schon für 4% mehr fps 50W mehr brauchen, ist fast klar das wir mit zusätzlichen 30W bei der 3090 und dem gleichen Silizium nicht viel weiter kommen.
Matrix316
2020-09-21, 13:15:07
Ich frage mich auch, warum die 3090 24 GB braucht und warum die so teuer sein muss. Hätte man auch gleich nur 20 geben können und dafür den Preis runter auf 1200 statt 1500.
BlacKi
2020-09-21, 13:16:48
Ich frage mich auch, warum die 3090 24 GB braucht und warum die so teuer sein muss. Hätte man auch gleich nur 20 geben können und dafür den Preis runter auf 1200 statt 1500.
und dann hätte man im nachhinein eine titan gebracht mit 24gb und hätte 1500€ verlangt:freak:;D
monstar-x
2020-09-21, 13:17:17
Ich frage mich auch, warum die 3090 24 GB braucht und warum die so teuer sein muss. Hätte man auch gleich nur 20 geben können und dafür den Preis runter auf 1200 statt 1500.
Weil es für einen der bereit ist 1200€ für eine Grafikkarte auszugeben, egal ist ob die 1200€ oder 1500€ kostet.
Daredevil
2020-09-21, 13:19:35
Ich frage mich auch, warum die 3090 24 GB braucht und warum die so teuer sein muss. Hätte man auch gleich nur 20 geben können und dafür den Preis runter auf 1200 statt 1500.
Weil man nicht nur 4GB mehr Speicher hat, sondern auch 23% mehr Speicherbandbreite und das schmeckt einer GPU in hohen Auflösungen sehr gut.
Wenn ich z.B. die Bandbreite meiner 2080ti von std 616GB/s auf 721GB/s erhöhe, was 17% entspricht, bekomme ich nur daraus ca. 7% mehr Leistung in 4K ( Suerpos 8K ).
Dazu berechnen muss man noch, dass der Speicher mehr verbrät und deswegen der Takt ein wenig sinkt, real sind es also noch ein paar Prozent mehr.
Mich würde nicht wundern, wenn die 3090 die meiste Leistung aus dem schnelleren Speicher bezieht, halt nicht in FullHD, sondern alles ab 4K.
TheAntitheist
2020-09-21, 13:20:23
Was willste machen.
Die Leute wollen einerseits Drölf TB Ram, wollen aber dann noch genug Power Limit, um die Karte hochzujagen. Es sind 30w mehr, da kann man keine 20% erwarten mit dem Speicher.
Aber dürftig ist es echt, das stimmt. Klingt aber ein wenig so wie ne Titan, die war ja auch nie bahnbrechend schneller, aber dafür halt ne Titan ( Mit arschviel Speicher )
Ich würde gerne mal wissen wie du auf 30 Watt mehrverbrauch kommst. Erst hießen die ersten leaks 60 Watt für 10GB, dann 60 Watt für 24 GB und jetzt sind es 30 Watt für 14GB+höherem takt.... ;D
Daredevil
2020-09-21, 13:23:38
Ich würde gerne mal wissen wie du auf 30 Watt mehrverbrauch kommst. Erst hießen die ersten leaks 60 Watt für 10GB, dann 60 Watt für 24 GB und jetzt sind es 30 Watt für 14GB+höherem takt.... ;D
Ich meinte das Power Limit.
Eine 3080 hat 320w
Eine 3090 hat 350w ( 30w mehr ) und muss mehr Einheiten bespaßen, den Takt dabei halten, doppelt so viele Speicher Chips bedienen, der deutlich schneller läuft.
Wenn die 3080 "ausgefahren" ist, läuft die 3090 mit Handbremse, weil 30w TDP für diese ""Verbesserungen" einfach arg knapp sind.
Matrix316
2020-09-21, 13:26:07
und dann hätte man im nachhinein eine titan gebracht mit 24gb und hätte 1500€ verlangt:freak:;D
Genau! :D Wobei eher 2500 €. ;) Der Name Titan kostet schon 1000 extra. ;)
Weil es für einen der bereit ist 1200€ für eine Grafikkarte auszugeben, egal ist ob die 1200€ oder 1500€ kostet.
Ist das so? Irgendwo ist auch mal ein Limit.
BlacKi
2020-09-21, 13:28:14
vl kann igor mit seiner 3090 mal testen wieviel die karte mehr braucht wenn man eine 3080 und 3090 auf 180w gpu power festsetzt. das dürfte dann der mehr verbrauch den speichers sein, naja und minimal etwas mehr vrm verbrauch.
dann wäre die sache endlich aufgelöst.
Warum sind hier viele so entsetzt von den Benchmarks?
Wenn wir bei der 3080 schon für 4% mehr fps 50W mehr brauchen, ist fast klar das wir mit zusätzlichen 30W bei der 3090 und dem gleichen Silizium nicht viel weiter kommen.
Setzen Sechs... es sind eben nicht nur die Watt sondern die 3090 hat auch bissl höhere Specs ;) Deshalb waren die Erwartungen größer :rolleyes:
Edgecrusher86
2020-09-21, 13:47:14
Wenn das PT nicht limitieren sollte, kann man bei den Specs der Karte grob 15-20% Mehrleistung auf die RTX 3080 10GB Stock 320W ingame in Highres erwarten - also dann mit 450-550W PT grob.
Der Portugiese mit der RTX 3090 Gaming OC hat in TSE per Shunt-Mod mit wohl 550W Peak auch nur +7% Score auf das Stock PT von 390W erreicht [+7% bei bis zu +41% Durst -> das klingt mächtig nach V64 an der Kotzgrenze betrieben]. :D
Nightspider
2020-09-21, 13:59:59
Setzen Sechs... es sind eben nicht nur die Watt sondern die 3090 hat auch bissl höhere Specs ;) Deshalb waren die Erwartungen größer :rolleyes:
Sag bloß.
Und abzüglich des Verbrauchs des zusätzlichen Speichers bleibt kaum etwas für die zusätzlichen Recheneinheiten übrig.
Deswegen taktet die 3090 auch geringer um ein µ näher am Sweetspot zu sein.
w0mbat
2020-09-21, 14:07:19
Ich glaube, dass die 3090 schon mehr als 10% auf die 3080 drauf legt. Klar, die TDP steigt nur um knapp 10% an (320W -> 350W), aber mit mehr Ausführungseinheiten sollte die 3090 effizienter sein. Dazu komm der mehr als doppelt so große Speicher, in einigen 4K+ Szenarien wird das alleine schon etwas bringen (wobei die Frage hier ist, wieviel der Speicher von der TDP auffrisst).
Ich denke wir sehen im Schnitt min. 15-20%. Sonst würde Nvidia den Preis nicht so hoch ansetzen. Die 2080 Ti hat sich ja auch nur so gut verkauft, weil der Abstand zur 2080(S) so groß war.
Edgecrusher86
2020-09-21, 14:10:55
Wobei sie den Preis als schnellste Karte - quasi einfach eine "richtige Ti", wenn man es genau nimmt [das Marketing verpackt es natürlich geschickt als "TITAN Class Performance"] - so hoch ansetzen können, wie sie lustig sind für die letzten paar Prozent an Mehrleistung. Enthusiasten, die nicht auf eine 3080 20GB warten wollen, oder einfach das "Dickste" holen möchten, greifen dann halt gleich zu.
Auch dann, wenn es Richtung 2000€ ginge - was wir mit guten Customs sehen werden. Ich tippe gar auf 2500€+ für eine Karte wie die HoF OC LAB mitsamt LN2 Pod und Fullcover Block + USB Stick mit offenen BIOS. Die Colorful iGame KUDAN wird wohl die $3000 Marke knacken (die 2080 Ti lag bei $2800). xD
Generell über 10% Differenz [mit PTs unterhalb 400W] werden es wohl dann erst oberhalb 4K sein - in 5K etwa. Dann sollte auch langsam die Bandbreite zum Tragen kommen.
Nun denn - ich werde einen anderen Weg gehen - das Maximum an Leistung heraus holen bei größt möglicher Effizienz. So verfahre ich seit der GTX 1080 non Ti.
Da wird einiges gehen. Orbmu2k schickte mir zwei Screenshots seiner 3080er in Superposition 8K optimized. Mit 250W hatte er 95% der Leistung des 320W Maximum PTs - das zeigt einfach, dass die Architektur hier weit oberhalb des Sweetspots läuft.
Beim fast Vollausbau wird hier wohl sogar im Verhältnis noch mehr gehen, denke ich, da die Effizienz Anzahl der Einheiten steigen wird, wenn man diese mit UV / wenig PT betreibt.
Ich setze lieber auf einen großen Chip mit entsprechend Leistungsreserven [und massig VRAM], als einen GA104 zu prügeln für Ähnliches. Wobei 16GB dort auch ok wären.
Will man dann mal in krasseren Settings spielen, dann wird die 3090 das durchaus ordentlich erledigen - eine Karte wie die RTX 3070 oder 3080 10GB [wenn der VRAM nicht mehr schickt] werden alle Viere von sich strecken oder brauchen halt mal Richtung 300W und mehr. :)
BlacKi
2020-09-21, 14:12:53
@wombat
wir wissen nicht was der extra speicher mehr verbraucht. es könnte sein, das eine 3090 gpu weniger verbrauchen darf als eine 3080. eigentlich gehe ich sogar davon aus, denn das breitere SI wird auch seinen teil verbrauchen. man könnte sagen das es ungefähr so aussehen wird 3080 200w gpu vs 3090(+20% shader)-10%PT.
w0mbat
2020-09-21, 14:16:06
Ja, das kann natürlich sein (deshalb die Anmerkung in der Klammer). 12GB GDDR6X verbrauchen bestimmt nicht wenig. Aber die 3090er werden bestimmt ein besseres binning haben und eben, weil breiter, bessere Takteffizienz.
Ich kann mir nur nicht vorstellen, dass die 3090 wirklich nur ca. 10% vor ner 3080 liegt, das sehen die meisten user als Gleichstand an. Wir werden sehen!
Ich hab was von +15,7% im schnitt irgendwo gelesen...
Klingt m.M.n. nicht unrealistisch.
M.f.G. JVC
dildo4u
2020-09-21, 14:23:57
Die Titan Karten lagen in dem Bereich nicht mehr und nicht weniger, ist genau das was versprochen wurde Titan Class Performance.
Edgecrusher86
2020-09-21, 14:30:39
@wombat
wir wissen nicht was der extra speicher mehr verbraucht. es könnte sein, das eine 3090 gpu weniger verbrauchen darf als eine 3080. eigentlich gehe ich sogar davon aus, denn das breitere SI wird auch seinen teil verbrauchen. man könnte sagen das es ungefähr so aussehen wird 3080 200w gpu vs 3090(+20% shader)-10%PT.
Das dürfte dann äquivalent wie bei GN und der EVGA 3080 iCX mit max OC sein -> grob 240W GPU only. Igor hatte damals ja ähnliches überschlagen für die 350W TGP.
Die Titan Karten lagen in dem Bereich nicht mehr und nicht weniger, ist genau das was versprochen wurde Titan Class Performance.
Man muss halt auch bedenken, dass sich die Karte deutlich höher abgesetzt hätte, wenn die 3080 mit maximal 60SM und GA103 gekommen wäre - bei ähnlichen Taktraten hätte man um die 30% Performanceplus gesehen [82SM zu 60SM -> +36,7%] -
also analog, was etwa die RTX 2080 Ti auf die RTX 2080 ermöglichte. AMD sei dank wohl. :wink:
Gipsel
2020-09-21, 15:28:14
Gleiches Spiel wie schon beim 3080er Review-Thread:
Macht einen Thread auf, wenn es (vernünftige) Tests nach Ablauf des NDA gibt! Vorher gibt es einen Spekulationsthread dazu und hier ist dicht.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.