Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3080 Review-Thread
Seiten :
[
1]
2
3
4
5
6
7
8
9
10
Leonidas
2020-09-16, 14:30:05
Launch der GeForce RTX 3080 "Founders Edition": 16. September 2020, 15:00
Launch der GeForce RTX 3080 AIB-Modelle: 17. September 2020, 15:00
gemeinsamer Verkaufsstart: 17. September 2020
GeForce RTX 3080
- GA102-Chip
- 68 SM @ 320 Bit
- 10 GB GDDR6X
- 320W TDP (GCP)
- $699 bzw. 699€
Liste der Launchreviews bei 3DCenter (https://www.3dcenter.org/news/launch-der-nvidia-geforce-rtx-3080-die-launchreviews-gehen-online) & Videocardz (https://videocardz.com/newz/nvidia-geforce-rtx-3080-founders-edition-review-roundup).
Hakim
2020-09-16, 14:41:03
Ist der Verkaufsstart, also Bestellbar, auch ab 15 Uhr morgen?
Leonidas
2020-09-16, 14:47:04
So wie es in Asien aussieht, kann man wohl ab Geschäftstag bestellen, sprich ab früh morgens. Vorbestellbar dürfte die 3080FE aber sicherlich ab heute 15 Uhr sein.
Flusher
2020-09-16, 14:55:24
So wie es in Asien aussieht, kann man wohl ab Geschäftstag bestellen, sprich ab früh morgens. Vorbestellbar dürfte die 3080FE aber sicherlich ab heute 15 Uhr sein.
Bei Nvidia steht aktuell auf der 3080 Produktseite
"Erhältlich ab 17/09/2020"
r3ptil3
2020-09-16, 14:56:05
Die Chinesen können es nicht abwarten :D erstes Review raus:
https://3c.3dmgame.com/show-16-13121-1.html
Leonidas
2020-09-16, 14:57:23
Bei Nvidia steht aktuell auf der 3080 Produktseite
"Erhältlich ab 17/09/2020"
Genau: Ausgeliefert morgen. Aber vorbestellbar womöglich schon in 3 Minuten. Geht ja bislang noch nicht.
BlacKi
2020-09-16, 14:58:25
Die Chinesen können es nicht abwarten :D erstes Review raus:
https://3c.3dmgame.com/show-16-13121-1.html
ist leider ziemlich nutzlus... überlastet und man erkennt leider nicht welche balken was sind^^
Linmoum
2020-09-16, 15:02:01
+31% zur 2080Ti in UHD bei CB bei gleichzeitig +19% Verbrauch. Meh.
MiamiNice
2020-09-16, 15:02:02
Igor ist online
https://www.igorslab.de/nvidia-geforce-rtx-3080-founders-edition-review-ein-grosser-schritt-nach-vorn-und-der-grabstein-fuer-turing/2
BlacKi
2020-09-16, 15:03:41
lol CB mit anno1800 scheinbar zu99% im cpu limit, kein wunder das die karte nicht scaled...
Adam D.
2020-09-16, 15:04:48
Perf/W enttäuschend, aber das war zu erwarten (kann Durals Rechtfertigungen kaum erwarten).
Ansonsten sehr gelungen, auf den ersten Blick! Verwunderlich ist erstmal, dass Raytracing-technisch der Sprung echt klein ausfällt, das muss ich erstmal genauer studieren.
Dural
2020-09-16, 15:05:55
In einen Jahr ist alles was man Aktuell kaufen kann komplett veraltet und langsam:
Den größten Sprung macht die GeForce RTX 3080 in Doom Eternal. Dort kann die Grafikkarte ein Plus von 41 Prozent gegenüber der GeForce RTX 2080 Ti und von 85 Prozent gegenüber der GeForce RTX 2080 Super für sich verbuchen.
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt
Wie so man für 4% mehr Leistung satte 50Watt mehr braucht, beziehungsweisse wie so NV das so gewählt hat kann ich auch nicht nachvollziehen :confused:
JaniC
2020-09-16, 15:06:56
Laut CB: in 1440p 52% über der 2080 FE - gib her das Ding! ;)
(später mal in Ruhe alles lesen (nein, nicht hier! Bin ja nicht deppert.))
r3ptil3
2020-09-16, 15:07:39
Ganz geil: Techpowerup vergleicht die 3080 mit einem 10900k und einem 3900XT - auf sowas habe ich gewartet.
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/
Und ja, die AMD CPU sieht natürlich kein Land - der Abstand ist teilweise gewaltig.
MiamiNice
2020-09-16, 15:10:20
PCGH testet mit nem Ryzen -> Next :freak:
Flusher
2020-09-16, 15:10:42
Hat jemand die Karte schon irgendwo zum vorbestellen und normaler Preislage gesichtet? Bei NVIDIA nach wie vor nicht (vor)bestellbar
Ravenhearth
2020-09-16, 15:11:05
Den größten Sprung macht die GeForce RTX 3080 in Doom Eternal. Dort kann die Grafikkarte ein Plus von 41 Prozent gegenüber der GeForce RTX 2080 Ti und von 85 Prozent gegenüber der GeForce RTX 2080 Super für sich verbuchen. Auch in Borderlands 3 fällt das Ergebnis ähnlich aus.
Das erklärt, wieso Digital Foundry in diesen beiden Spielen testen durfte ;) Da werden dann auch die von Nvidia versprochenen "up to 2x 2080" erreicht.
PCGH.de: Nvidia Geforce RTX 3080 im XXL-Test: Ampère, le trés légère Preisbrechèr (https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Tests/Test-Review-Founders-Edition-1357408/)
Besonders beachtenswert: Geforce RTX 3080 Spezialtests: Raytracing-Leistungsindex, Pro-Takt-Leistung, PCI-Express-Durchsatz (https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Tests/Raytracing-Vergleich-DLSS-Test-1357418/)
PCGH testet mit nem Ryzen -> Next :freak:
Echt jetzt. Was unterstehen die sich, die Karte bestmöglich auszufahren, diese Affen!
MfG
Raff
BlacKi
2020-09-16, 15:12:10
Perf/W enttäuschend, aber das war zu erwarten (kann Durals Rechtfertigungen kaum erwarten).
Ansonsten sehr gelungen, auf den ersten Blick! Verwunderlich ist erstmal, dass Raytracing-technisch der Sprung echt klein ausfällt, das muss ich erstmal genauer studieren.
4% langsamer -18% PT /@270w
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt
Ravenhearth
2020-09-16, 15:12:36
PCGH.de: Nvidia Geforce RTX 3080 im XXL-Test: Ampère, le trés légère Preisbrechèr (https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Tests/Test-Review-Founders-Edition-1357408/)
Der Titel ;D:up:
WIP-Spaßtitel ... der dann zu wenig Gegenwind in der Korrekturstufe bekommen hat und daher liveging. :biggrin:
MfG
Raff
BlacKi
2020-09-16, 15:14:44
Ganz geil: Techpowerup vergleicht die 3080 mit einem 10900k und einem 3900XT - auf sowas habe ich gewartet.
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/
Und ja, die AMD CPU sieht natürlich kein Land - der Abstand ist teilweise gewaltig.
ich hab ja die berfürchtung, das viele spiele auch bei CB einen nicht zu unterschätzenden anteil im cpu limit gebencht wird. echt traurig.
r3ptil3
2020-09-16, 15:14:51
Also mit einer AMD CPU muss man die 3080 wirklich nicht testen, verfälscht nur die Ergebnisse. Ab 9900k wird's interessant.
Wo ist Zen3 :freak: das bräuchte man jetzt!
spike.sp.
2020-09-16, 15:18:08
Also ich bin gespannt ob mein straight power 650w Netzteil mit der 3080 und den 8700k harmonieren wird.
MiamiNice
2020-09-16, 15:18:41
Echt jetzt. Was unterstehen die sich, die Karte bestmöglich auszufahren, diese Affen!
MfG
Raff
Wäre jetzt nicht mein Wortlaut.
Der Meinung mit dem Ryzen kann man sein, muss man aber nicht.
Wäre jetzt nicht mein Wortlaut.
Der Meinung mit dem Ryzen kann man sein, muss man aber nicht.
Das ist keine Meinung, das sind Fakten. :)
MfG
Raff
arcanum
2020-09-16, 15:20:22
Also mit einer AMD CPU muss man die 3080 wirklich nicht testen, verfälscht nur die Ergebnisse. Ab 9900k wird's interessant.
Wo ist Zen3 :freak: das bräuchte man jetzt!
außer in anno kann sich intel doch in keinem bench mehr als 2-3% mit einer 200 watt cpu absetzen (in 4k).
aufkrawall
2020-09-16, 15:22:33
+31% zur 2080Ti in UHD bei CB bei gleichzeitig +19% Verbrauch. Meh.
Samsung 8nm muss wirklich unfassbarer Schrott sein. ;D
MiamiNice
2020-09-16, 15:22:58
Das ist keine Meinung, das sind Fakten. :)
MfG
Raff
Dann schau Dir mal diesen Test an:
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/
Und da ist nicht mal Ram OC an Board.
Keine Ahnung was Dich reitet aber Deine Aussage ist nicht korrekt.
Adam D.
2020-09-16, 15:23:12
4% langsamer -18% PT /@270w
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt
Das ist in der Tat eine wirklich sehr merkwürdige Entscheidung. Da dürfte mit UV einiges gehen.
Troyan
2020-09-16, 15:25:32
In Control in 4K mit Raytracing und DLSS@Quality 45% schneller als die 2080TI und damit über 50FPS im Worst-Case. Das selbe fast auch in Deliver Us the Moon. :eek:
Da könnte man fast über einen Wechsel nachdenken.
r3ptil3
2020-09-16, 15:25:55
außer in anno kann sich intel doch in keinem bench mehr als 2-3% mit einer 200 watt cpu absetzen (in 4k).
Da fehlt noch einiges, klar.
Techpowerup testet aber leider mit nicht so tollem RAM bzw. miserablen Timings.
Verstehe nicht wieso man bei einem solch gewaltigen Aufwand, dann nicht einfach richtigen RAM zum testen holt.
Thermaltake TOUGHRAM, 16 GB DDR4
@ 3733 MHz 19-23-23-42
https://i.ibb.co/YR2sMZt/3080.png
dildo4u
2020-09-16, 15:27:17
Zero Dawn rennt gut auf dem AMD System der Rest wird vermutlich kaum PCI-E 3.0 auslasten.
https://i.ibb.co/s1jNVcQ/4K-2080.png (https://ibb.co/ZgdFMvK)
https://www.techspot.com/review/2099-geforce-rtx-3080/
arcanum
2020-09-16, 15:28:36
Da fehlt noch einiges, klar.
Techpowerup testet aber leider mit nicht so tollem RAM bzw. miserablen Timings.
Verstehe nicht wieso man bei einem solch gewaltigen Aufwand, dann nicht einfach richtigen RAM zum testen holt.
Thermaltake TOUGHRAM, 16 GB DDR4
@ 3733 MHz 19-23-23-42
https://i.ibb.co/YR2sMZt/3080.png
das zeigt einfach nur, dass man sich im gpu-limit befindet. ram-timings würden da auch nicht viel helfen. wenn die cpu mit 2k 200fps macht, dann wird sie bei 4k bestimmt nicht bei 100 limitieren. 2k/wqhd ist für mich und 98% der user in dieser leistungsklasse irrelevant.
Cadmus
2020-09-16, 15:29:46
Das ist keine Meinung, das sind Fakten. :)
MfG
Raff
Danke für den Test und das ausführliche Fazit, Raff. Ich stimme dem zu, die Leistung ist beeindruckend, aber die Zukunftssicherheit eingeschränkt durch den wenigen VRAM. Zumindest ist endlich aufgeklärt, als was NV die 3080 sieht: Als Nachfolger der 2080(Super), nicht der 2080Ti.
BlacKi
2020-09-16, 15:29:57
Das ist in der Tat eine wirklich sehr merkwürdige Entscheidung. Da dürfte mit UV einiges gehen.
but still
https://tpucdn.com/review/nvidia-geforce-rtx-3080-founders-edition/images/performance-per-watt_3840-2160.png
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-founders-edition/35.html
w0mbat
2020-09-16, 15:31:07
Gefällt mir gut, aber etwas schade, dass Nvidia die 320W so forciert hat. Mit z.B. 270W, wie bei CB, wäre es mMn das rundere Produkt gewesen.
Was auch nicht so super ist: nur 15% schneller als ne 2080 Ti OC. Deshalb hat Nvidia das mit den 320W auch durchgezogen.
Adam D.
2020-09-16, 15:32:36
but still
https://tpucdn.com/review/nvidia-geforce-rtx-3080-founders-edition/images/performance-per-watt_3840-2160.png
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-founders-edition/35.html
Es ist ok - aber ich muss ehrlich sagen, für einen Full-Node-Sprung ist das enttäuschend. Samsungs 8nm scheint wirklich nicht besonders gut zu sein.
DrFreaK666
2020-09-16, 15:32:47
Dann schau Dir mal diesen Test an:
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/
Und da ist nicht mal Ram OC an Board.
Keine Ahnung was Dich reitet aber Deine Aussage ist nicht korrekt.
98,1FPS vs 96,1FPS!!??
LOL?? :ugly:
"Here the difference between AMD and Intel blurs—with just 1% between AMD and Intel, I would call them "equal", no way you'd be able to subjectively notice any difference."
Du willst hoffentlich nicht sagen die 3080 wäre keine 4k-Karte...
Laut Hardware Unboxed ist der Unterschied 0FPhttps://youtu.be/csSmiaR3RVE
BlacKi
2020-09-16, 15:37:14
das zeigt einfach nur, dass man sich im gpu-limit befindet. ram-timings würden da auch nicht viel helfen. wenn die cpu mit 2k 200fps macht, dann wird sie bei 4k bestimmt nicht bei 100 limitieren.
im farcry new dawn benchmark limitiert selbst ein übertakteter 9900k in 4k und einer 2080ti in der anfangsszene, wenn dort 2-4 sekunden lang ein übles cpu limit herrscht, dann schadet das den schnellen karten mehr als den alten langsameren karten. noch dazu ist unbekannt ob sich mit knapp +35% mehr leistung sich neue cpu limits auftuen.
die performance summarys werden damit kaputtgemacht. fehlinformationen verbreitet. die benches sind echt, aber die schlussfolgerungen falsch. IMHO hat der bereitsteller dafür zu sorgen das es zu keinem cpu limit kommt. notfalls neue szenen nehmen wo man sicherstellen kann das es kein cpu limit gibt.
abere hey, CB hat anno1800 im gpu test drinn, schlimmer kann mans garnicht machen.
w0mbat
2020-09-16, 15:39:53
Also mit einer AMD CPU muss man die 3080 wirklich nicht testen, verfälscht nur die Ergebnisse. Ab 9900k wird's interessant.
Wo ist Zen3 :freak: das bräuchte man jetzt!
2% Unterschied in 4K und die 3080 ist ne 4K Karte. Dafür PCIe Gen4 Vorteile.
Also mit dem past-gen Intel würde ich ne 3080 sicherlich nicht betreiben wollen. 100W mehr Verbrauch für 2% :freak:
@BlacKi: Ja, die FarCry engine ist Softwareschrott, wissen alle. Da ist nen OC Intel wirklich ein gutes Stück schneller. Einfach nicht testen. In der 4K Aufläsung, worum es hier ja geht, hat TPU nen Unterschied von 2%, das ist innerhalb der Messungenauigkeit.
r3ptil3
2020-09-16, 15:40:24
98,1FPS vs 96,1FPS!!??
LOL?? :ugly:
"Here the difference between AMD and Intel blurs—with just 1% between AMD and Intel, I would call them "equal", no way you'd be able to subjectively notice any difference."
Du willst hoffentlich nicht sagen die 3080 wäre keine 4k-Karte...
Laut Hardware Unboxed ist der Unterschied 0FPhttps://youtu.be/csSmiaR3RVE
Er hat schon recht - in Games, welche die Kerne auch etwas besser nutzen können, hast du mit einem Intel schnell mal 5%+, siehe BFV.
Das ganze jetzt mit richtigem RAM und OC, würde das Ergebnis noch weiter rauftreiben, ja sogar in 4k.
Man muss nur mal die Latenzzeiten von dem wirklich miserablen RAM von Techpowerup anschauen, das geht rein von den Timings her bis zu 30% besser.
Auch Interessant: Bis fast 500 Watt :redface:
https://www.igorslab.de/wp-content/uploads/2020/09/04-Peak-Power.png
dildo4u
2020-09-16, 15:42:33
Die Karte macht in 1440p eh kein Sinn, daher kann man eine Intel Kombo auch vergessen.
Nvidia konnte "dank" Samsung den Takt nicht steigern und erst in 4k kann man die ganzen Cuda Cores halbwegs belasten.
Tarkin
2020-09-16, 15:42:37
650W min ... ab 750-800W ist man auf der sicheren Seite - Wahnsinn. gleich nochmal 200 Euro für ein ordentliches Netzteil ausgeben.
Die PSU-Hersteller lachen sich ins Fäustchen.
w0mbat
2020-09-16, 15:42:59
Da braucht man wirklich min. nen gutes 650W NT, wenn man mal 150W für das Restsystem einberechnet.
][immy
2020-09-16, 15:43:06
Jo, der Verbrauch ist schon ziemlich pervers. Das Ding dürfte die meisten Gehäuse gut aufwärmen.
Aber der Leistungssprung ist recht gut, wenn ich auch gern noch benches sehen würde die ein 300W Cap hätten.
Bin schon auf die RTX 3070 und 3060 gespannt.
aufkrawall
2020-09-16, 15:44:35
abere hey, CB hat anno1800 im gpu test drinn, schlimmer kann mans garnicht machen.
Krakehl nicht irgendwas von Fehlinformationen, wenn du nicht mal auf die Reihe bekommst, dass CB Anno auch in 1080p getestet hat und dort selbst die low fps doppelt so hoch sind wie in 4k. Oder der Sprung bei den avg fps von 5700 XT zu 3080 in 4k größer ist als in 1080p. :facepalm:
Lauter Experten hier, die selber nur Mist messen würden...
Aber offenkundig sind z.B. die low fps Werte in Anno 4k für die Vega 64 schlicht falsch, höher als avg. :freak:
Troyan
2020-09-16, 15:45:52
4% langsamer -18% PT /@270w
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt
Wegen 3070. Die wird bei 220W nur ca. 28% langsamer sein. Die 2080TI ist auch nur ca. 22% schneller als die 2080S.
MiamiNice
2020-09-16, 15:46:17
98,1FPS vs 96,1FPS!!??
LOL?? :ugly:
Je höher die Auflösung, desto weniger CPU Limit. Man sieht aber bei geringen Auflösungen gut wie sich der Intel teils 10% von AMD absetzen kann, und das schon mit standard Speicher. Damit dürfte der Intel bei den Min FPS wesentlich besser anfühlen. Aber wie dem auch sei - schneller ist schneller - die Ausage ist falsch.
Flusher
2020-09-16, 15:47:01
Auch Interessant: Bis fast 500 Watt :redface:
https://www.igorslab.de/wp-content/uploads/2020/09/04-Peak-Power.png
Wen interessiert das, wenn da für einen Bruchteil einer Milisekunde die Karte mal knapp 500W zieht? Da zuckt ein Netzteil doch nur mit den Achseln...
aufkrawall
2020-09-16, 15:48:38
Je höher die Auflösung, desto weniger CPU Limit. Man sieht aber bei geringen Auflösungen gut wie sich der Intel teils 10% von AMD absetzen kann, und das schon mit standard Speicher. Damit dürfte der Intel bei den Min FPS wesentlich besser anfühlen. Aber wie dem auch sei - schneller ist schneller - die Ausage ist falsch.
Ist nur Unfug, wenn min-fps im GPU-Limit sind und die CPUs @stock häufig gar nicht so unterschiedlich performen.
w0mbat
2020-09-16, 15:49:45
Je höher die Auflösung, desto weniger CPU Limit. Man sieht aber bei geringen Auflösungen gut wie sich der Intel teils 10% von AMD absetzen kann, und das schon mit standard Speicher. Damit dürfte der Intel bei den Min FPS wesentlich besser anfühlen. Aber wie dem auch sei - schneller ist schneller - die Ausage ist falsch.
1. Ist das nen GPU Test und die 3080 ne 4K Karte.
2. Ist der RAM kein Argument, da auch ein Ryzen mit DDR4-3800/1900IF und optimierten subtimings extrem viel dazu gewinnen kann, z.T. mehr als Intel.
3. Wird in 22 Tagen Zen3 vorgestellt.
Also, entspann dich einfach :smile:
4% langsamer -18% PT /@270w
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt
Golem hat noch mit 220W getestet und verliert da 11-12%.
Es wirkt als ob die Karte mit aller Gewalt über eine Mindestperformance gehoben wurde.
https://www.golem.de/news/geforce-rtx-3080-im-test-doppelte-leistung-zum-gleichen-preis-2009-150508-6.html
Ex3cut3r
2020-09-16, 15:50:30
Also von meiner 2080 aus. Gewinne ich laut PCGH in meiner SPielauflöösung (3440x1440) zwischen 40-80%, scheiße das lohnt sich. ^^
arcanum
2020-09-16, 15:52:52
zurück zur 3080: eine top-karte, die eindeutig über dem sweet spot läuft. wird morgen bestellt und dann mit <300w powerlimit betrieben. dann reicht auch das aktuelle 550w netzteil locker mit einer kommenden amd cpu.
Wen interessiert das, wenn da für einen Bruchteil einer Milisekunde die Karte mal knapp 500W zieht? Da zuckt ein Netzteil doch nur mit den Achseln...
Dann lies lieber mal Igors Test, bevor du so ein Unsinn verbreitest. :freak:
Du schreibst nur Netzteil ohne Watt Angabe, LMAO. :freak:
Cubitus
2020-09-16, 15:52:57
Also von meiner 2080 aus. Gewinne ich laut PCGH in meiner SPielauflöösung (3440x1440) zwischen 40-80%, scheiße das lohnt sich. ^^
Teilweise sogar für 2080ti Besitzer, wobei die 3090 da noch ein Tick interessanter wäre..
Ex3cut3r
2020-09-16, 15:54:54
Teilweise sogar für 2080ti Besitzer, wobei die 3090 da noch ein Tick interessanter wäre..
Ja. Genau. Allerdings ist mir die FE zu laut mit 3,3 Sone und mit 79 Grad auch zu heiß. Muss also wieder ein gutes Custom Design herhalten. Nur bis herausgefunden haben welches gut ist, wird bestimmt wieder etwas dauern.
Adam D.
2020-09-16, 15:56:23
Das Schaubilder verdeutlicht doch eine wirklich positive Entwicklung.
BlacKi
2020-09-16, 15:56:57
Krakehl nicht irgendwas von Fehlinformationen, wenn du nicht mal auf die Reihe bekommst, dass CB Anno auch in 1080p getestet hat und dort selbst die low fps doppelt so hoch sind wie in 4k. Oder der Sprung bei den avg fps von 5700 XT zu 3080 in 4k größer ist als in 1080p. :facepalm:
Lauter Experten hier, die selber nur Mist messen würden...
Aber offenkundig sind z.B. die low fps Werte in Anno 4k für die Vega 64 schlicht falsch, höher als avg. :freak:
steigerungen von geringen 1stelligen prozentualen unterschieden, wenns kein cpu limit ist, dann muss es trotzdem kein (echtes) gpu limit sein. keine ahnung was die da zusammengebenched haben.
die benchmark szene von TPU in anno zeigt dort gute sprünge, so wie man es erwarten darf.
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-founders-edition/7.html
Mega-Zord
2020-09-16, 15:57:13
Der Artikel von Raff bei PCGH: https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Tests/Test-Review-Founders-Edition-1357408/
Krass, wie die 2080 Ti einfach nirgends Land sieht gegen die 3080. Wenn die 3090 noch mal so viel drauf legt, ist die quasi gekauft.
Matrix316
2020-09-16, 15:57:15
Ja. Genau. Allerdings ist mir die FE zu laut mit 3,3 Sone und mit 79 Grad auch zu heiß. Muss also wieder ein gutes Custom Design herhalten. Nur bis herausgefunden haben welches gut ist, wird bestimmt wieder etwas dauern.
MSI Gaming X Trio
War die beste 2080TI laut diversen Tests und ich hoffe mal die haben die nicht schlechter gemacht. ;)
Joooo, so 70-80% schneller in 4K als eine 1080TI... geht schon. ;) Hab schon überlegt ob ich doch noch zu einem 10900K wechseln soll, aber in UHD macht das anscheinend keinen Unterschied. ;)
Nur beim Netzteil muss ich mal sehen ob das so reicht. Huiuiui... das ist ja fast im Radeon 4870X2 Land, oder?
rentex
2020-09-16, 15:57:36
Ich stelle fest, das bei PCGH keine Hardware Nerds oder Geeks arbeiten...wer verfasstbdann bitte die Reviews? BWLer?
woodsdog
2020-09-16, 15:58:14
Die Karte macht in 1440p eh kein Sinn, daher kann man eine Intel Kombo auch vergessen.
Nvidia konnte "dank" Samsung den Takt nicht steigern und erst in 4k kann man die ganzen Cuda Cores halbwegs belasten.
oh gott hör auf diesen Schwarz/Weißen Schwachsinn zu posten... "keinen Sinn für 1440p" weil hier und da ein kleines CPU limit herscht... sie plättet in 1440p immer noch alles weg.
Hakim
2020-09-16, 16:00:28
Denke ich senke die Spannung und den PT auf 85% und dürfte immer noch sehr nah am Stock sein bei deutlich weniger W, hoffe ich zumindest
Wen interessiert das, wenn da für einen Bruchteil einer Milisekunde die Karte mal knapp 500W zieht? Da zuckt ein Netzteil doch nur mit den Achseln...
Hier für dich, gern geschehen:
Spitzen mit Intervallen zwischen 1 bis 10 ms können bei sehr schnell reagierenden Schutzschaltungen (OPP, OCP) vor allem bei Multi-Rail-Netzteilen zu Abschaltungen führen, obwohl die durchschnittliche Leistungsaufnahme noch in der Norm liegt.
Quelle: https://www.igorslab.de/nvidia-geforce-rtx-3080-founders-edition-review-ein-grosser-schritt-nach-vorn-und-der-grabstein-fuer-turing/
Ex3cut3r
2020-09-16, 16:01:32
MSI Gaming X Trio
War die beste 2080TI laut diversen Tests und ich hoffe mal die haben die nicht schlechter gemacht. ;)
Joooo, so 70-80% schneller in 4K als eine 1080TI... geht schon. ;) Hab schon überlegt ob ich doch noch zu einem 10900K wechseln soll, aber in UHD macht das anscheinend keinen Unterschied. ;)
Nur beim Netzteil muss ich mal sehen ob das so reicht. Huiuiui... das ist ja fast im Radeon 4870X2 Land, oder?
Danke, passt aber mit der Zeit. Ich warte, (habe ich grade endgültig beschlossen) auf größere Speichermengen. 10GB mit RT reichen (mir) einfach nicht. Rohleistung ist aber Super. Klasse Nvidia.
anorakker
2020-09-16, 16:03:08
Der Artikel von Raff bei PCGH: https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Tests/Test-Review-Founders-Edition-1357408/
Seh ich das falsch oder wurd Control ohne RTX gebencht? Wenn ja, warum? das ist doch der einzige Titel bei dem RTX überhaupt ne sichtbare Bedeutung hat.
BlacKi
2020-09-16, 16:05:11
Golem hat noch mit 220W getestet und verliert da 11-12%.
Es wirkt als ob die Karte mit aller Gewalt über eine Mindestperformance gehoben wurde.
https://www.golem.de/news/geforce-rtx-3080-im-test-doppelte-leistung-zum-gleichen-preis-2009-150508-6.html
wow, sehr interessant ist das testen bei 60fps, dort verliert die 3080 fast ihren effizienzvorteil wieder.
das lässt darauf schließen, dass das takt scaling bei turing besser ist und bei ampere einfach mal richtig mieß ist...
arcanum
2020-09-16, 16:06:56
Hier für dich, gern geschehen:
Spitzen mit Intervallen zwischen 1 bis 10 ms können bei sehr schnell reagierenden Schutzschaltungen (OPP, OCP) vor allem bei Multi-Rail-Netzteilen zu Abschaltungen führen, obwohl die durchschnittliche Leistungsaufnahme noch in der Norm liegt.
Quelle: https://www.igorslab.de/nvidia-geforce-rtx-3080-founders-edition-review-ein-grosser-schritt-nach-vorn-und-der-grabstein-fuer-turing/
kann mich erinnern, dass zumindest bequiet ~30% puffer hat für solche leistungsspitzen bevor es abschaltet. ein netzteil das im schnitt mit 80% auslastung genutzt sollte eigentlich problemlos funktionieren.
00-Schneider
2020-09-16, 16:07:51
Seh ich das falsch oder wurd Control ohne RTX gebencht? Wenn ja, warum? das ist doch der einzige Titel bei dem RTX überhaupt ne sichtbare Bedeutung hat.
siehe hier:
https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Tests/Raytracing-Vergleich-DLSS-Test-1357418/
Troyan
2020-09-16, 16:08:09
wow, sehr interessant ist das testen bei 60fps, dort verliert die 3080 fast ihren effizienzvorteil wieder.
das lässt darauf schließen, dass das takt scaling bei turing besser ist und bei ampere einfach mal richtig mieß ist...
In Control sind es 90W beim System. Imo sollte auch nicht der Verbrauch des System gemessen werden sondern der Grafikkarte.
Ich stelle fest, das bei PCGH keine Hardware Nerds oder Geeks arbeiten...wer verfasstbdann bitte die Reviews? BWLer?
Wat? :ugly:
MfG
Raff
Linmoum
2020-09-16, 16:14:30
Gab es die Tage nicht noch dieses eine Video mit dem NV-Typen, der sinngemäß meinte, man hat die bis zu 350W gewählt, weil Performance/Takt bis dahin noch fast linear skaliert? Naja... :freak:
Auch lange nicht mehr gehabt, dass NV seine Karten derart an die Kotzgrenze prügelt.
Alles in allem wie erwartet, für den Fertigungssprung aber irgendwie doch recht ernüchternd.
aufkrawall
2020-09-16, 16:15:55
steigerungen von geringen 1stelligen prozentualen unterschieden, wenns kein cpu limit ist, dann muss es trotzdem kein (echtes) gpu limit sein. keine ahnung was die da zusammengebenched haben.
die benchmark szene von TPU in anno zeigt dort gute sprünge, so wie man es erwarten darf.
https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-founders-edition/7.html
Entweder abseits vom CPU-Limit Mist gemessen oder eine seltsame Szene, die schlecht skaliert. Letzteres wär aber auch nicht illegetim, wenn es einem Teil der Realität entspricht. Es ist nicht Sinn und Zweck von Benchmarks, nur Kirschen abzubilden.
Edit: Den Kühler der FE finde ich btw. immer noch kacke.
Flusher
2020-09-16, 16:17:09
Dann lies lieber mal Igors Test, bevor du so ein Unsinn verbreitest. :freak:
Du schreibst nur Netzteil ohne Watt Angabe, LMAO. :freak:
Schon mal gehört, dass elektrische Bauteile in der Regel auf eine Dauerlast und eine Peaklast für x Zeiteinheiten spezifiziert sind?
Egal - Igor selber sagt:
Spitzen mit Intervallen zwischen 1 bis 10 ms können bei sehr schnell reagierenden Schutzschaltungen (OPP, OCP) vor allem bei Multi-Rail-Netzteilen zu Abschaltungen führen, obwohl die durchschnittliche Leistungsaufnahme noch in der Norm liegt.
Er beschreibt den Zeitraum von 1-10 ms. Ich habe von unter 1 ms gesprochen
Hier für dich, gern geschehen:
Spitzen mit Intervallen zwischen 1 bis 10 ms können bei sehr schnell reagierenden Schutzschaltungen (OPP, OCP) vor allem bei Multi-Rail-Netzteilen zu Abschaltungen führen, obwohl die durchschnittliche Leistungsaufnahme noch in der Norm liegt.
Quelle: https://www.igorslab.de/nvidia-geforce-rtx-3080-founders-edition-review-ein-grosser-schritt-nach-vorn-und-der-grabstein-fuer-turing/
Eben - und wo widerspricht die Aussage meiner?
woodsdog
2020-09-16, 16:19:22
Aber wie zumindest von mir erwartet ist Ampere eine OC Krücke sondersgleichen. Wollten ja hier einige nicht warhaben das NV schon alles aus den Chips raus presst.
Ex3cut3r
2020-09-16, 16:19:32
Ohne min. 750W NT sollte man es IMO lieber sein lassen, oder aber gleich auch noch das NT Upgraden. Ist halt ein kleines Dilemma, in DE sind halt 500-550W Netztteile beim Gamern am meisten verbreitet, weil das bisher auch locker gereicht hat. Jetzt halt nicht mehr.
arcanum
2020-09-16, 16:21:42
Ohne min. 750W NT sollte man es IMO lieber sein lassen, oder aber gleich auch noch das NT Upgraden. Ist halt ein kleines Dilemma, in DE sind halt 500-500W Netztteile beim Gamern am meisten verbreitet, weil das bisher auch locker gereicht hat. Jetzt halt nicht mehr.
mit amd cpu und power limit <300w reichen 550w locker. zumindest wir meine konfig so aussehen. mit einem guten netzteil hat man zudem puffer bis zu 700w leistungsspitze.
aufkrawall
2020-09-16, 16:22:22
Ohne min. 750W NT sollte man es IMO lieber sein lassen, oder aber gleich auch noch das NT Upgraden. Ist halt ein kleines Dilemma, in DE sind halt 500-500W Netztteile beim Gamern am meisten verbreitet, weil das bisher auch locker gereicht hat. Jetzt halt nicht mehr.
In solchen Fällen würde ich zwar sagen: "Selbst schuld!", aber das und der allgemeine Hitze-Stress durch den hohen Verbrauch werden sicherlich Probleme bereiten (und ggf. etwas am Image kratzen).
Flusher
2020-09-16, 16:22:53
Hat jemand schon Benches in Apex Legends gesichtet?
Ex3cut3r
2020-09-16, 16:23:53
mit amd cpu und power limit <300w reichen 550w locker. zumindest wir meine konfig so aussehen.
Ok. Und was macht man beim Booten? Also wenn man den PC anmacht? Wie sehen Watt Max Spitzen da aus? Soweit ich weiß, kann Afterburner nicht beim Booten greifen.
arcanum
2020-09-16, 16:24:54
Ok. Und was macht man beim Booten? Also wenn man den PC anmacht? Wie sehen Watt Max Spritzen da aus? Soweit ich weiß, kann Afterburner nicht beim Booten greifen.
liegt beim booten volllast an gpu und cpu an?
BlacKi
2020-09-16, 16:25:20
In Control sind es 90W beim System. Imo sollte auch nicht der Verbrauch des System gemessen werden sondern der Grafikkarte.
danke für den hinweis
Vor allem bei RT ziemlich ernüchternd das Ganze, da hatte ich doch deutlich mehr erwartet. Das verhilft so RT jedenfalls nicht zum Durchbruch. Und das auch noch bei 20% mehr Stromverbrauch :freak: und obendrauf noch weniger Speicher als ne 1080Ti...
Ex3cut3r
2020-09-16, 16:26:38
liegt beim booten volllast an gpu und cpu an?
Das weiß ich auch nicht. Ich weiß nur z.B das die RTX 2080 Ti von MSI 3x8 Pin brauchte, und wenn man die nicht alle angeschlossen hat, hat der PC nicht gebootet. Anscheinend gibt es doch beim anschalten einen Peak für ein paar MS. Aber wirklich sicher bin ich da nicht.
woodsdog
2020-09-16, 16:28:33
Das weiß ich auch nicht. Ich weiß nur z.B das die RTX 2080 Ti von MSI 3x8 Pin brauchte, und wenn man die nicht alle angeschlossen hat, hat der PC nicht gebootet. Anscheined gibt es doch beim anschalten einen Peak für ein paar MS.
nein... die karte schaut nur nach ob alle 3 stecker dran sind und verweigert im zweifel den Start... was sollte denn bitte der Grund sein voll Last auf CPU und GPU zu knallen wenn man booten will?? :confused:
wolik
2020-09-16, 16:30:06
Wat? :ugly:
MfG
Raff
Raff wieso kein Tests von HZD, Division, 2 MS FS2020? Sonst Artikel Top.
rentex
2020-09-16, 16:30:10
Wat? :ugly:
MfG
Raff
Ja wat! Schon interessant, das es schon der zweite Artikel ist, der mit solchen Begriffen hantiert, obwohl das im Grunde die Zielgruppe für ne HW/Tech Seite ist.
Da fragt man sich dann schon: Wat?!
Ex3cut3r
2020-09-16, 16:30:30
nein... die karte schaut nur nach ob alle 3 stecker dran sind und verweigert im zweifel den Start... was sollte denn bitte der Grund sein voll Last auf CPU und GPU zu knallen wenn man booten will?? :confused:
Das frage ich mich ja auch, habe jetzt keine Elekro Technik studiert. Einen Last Peak kann ich aber trotzdem in diesem Szenario vorstellen. Nicht beim Boot Prozess, sondern vorher, in dem Moment wo man den Power Knopf betätigt.
Also, das 650W Straight Power 11 von BQ verträgt Kurzzeitlasten bis 720W. Wenn man nicht irgendwie ein krass übertakteten 9900K oder so fährt, sollte man damit eigentlich gut hinkommen.
dildo4u
2020-09-16, 16:31:35
Paar Widescreen Benches:
https://wccftech.com/review/nvidia-geforce-rtx-3080-10-gb-ampere-graphics-card-review/12/
Ja wat! Schon interessant, das es schon der zweite Artikel ist, der mit solchen Begriffen hantiert, obwohl das im Grunde die Zielgruppe für ne HW/Tech Seite ist.
Da fragt man sich dann schon: Wat?!
Ehrlich, ich verstehe nicht, was du von mir willst. Gerne auch per PN. :)
Paar Widescreen Benches:
https://wccftech.com/review/nvidia-geforce-rtx-3080-10-gb-ampere-graphics-card-review/12/
UWQHD? Ist ja nicht so, dass das PCGH nicht seit Jahren standardmäßig (https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Tests/Test-Review-Founders-Edition-1357408/4/) macht ... :D
MfG
Raff
Triniter
2020-09-16, 16:37:05
Also, das 650W Straight Power 11 von BQ verträgt Kurzzeitlasten bis 720W. Wenn man nicht irgendwie ein krass übertakteten 9900K oder so fährt, sollte man damit eigentlich gut hinkommen.
Gleiches gilt für das Dark Power Pro 11 das ich bei mir drin hab. Die 3080 sollte bei mir machbar sein, mein 6700k läuft ohne Übertaktung.
Schnoesel
2020-09-16, 16:37:18
Solide aber kein Überflieger. Mich stören die 10gb vram aber das würde Ich noch verkraften. Das Spulenrasseln und fiepen das CB erwähnt hat geht aber gar nicht. Ich hoffe die custom Karten machen das besser
][immy
2020-09-16, 16:37:30
Wat? :ugly:
MfG
Raff
Also der Voodoo 5 Hintergrund fällt schon extrem ins Auge. Nerdiger geht es nicht... Ist allerdings schon Blasphemie bei dem Test einer nvidia Karte ;)
Aber echt "Lautheit"? Nennt man das heute so?
NeoTiger
2020-09-16, 16:37:57
Das frage ich mich ja auch, habe jetzt keine Elekro Technik studiert. Einen Last Peak kann ich aber trotzdem in diesem Szenario vorstellen. Nicht beim Boot Prozess, sondern vorher, in dem Moment wo man den Power Knopf betätigt.
Das war früher tatsächlich so, weil die Festplatten Motoren unter Maximal-Last hochdrehen mussten, aber bei der restlichen Halbleiterelektronik kann ich mir das nicht vorstellen. Halbleiter zeichnen sich ja gerade dadurch aus, dass einen höheren elektrischen Widerstand haben, solange sie noch kalt sind. Außerdem fährt jeder Chip beim Booten mit der geringsten Taktfrequenz hoch, bis sein BIOS ihm sagt, wieviel er überhaupt maximal takten darf.
Ex3cut3r
2020-09-16, 16:41:08
Das war früher tatsächlich so, weil die Festplatten Motoren unter Maximal-Last hochdrehen mussten, aber bei der restlichen Halbleiterelektronik kann ich mir das nicht vorstellen. Halbleiter zeichnen sich ja gerade dadurch aus, dass einen höheren elektrischen Widerstand haben, solange sie noch kalt sind. Außerdem fährt jeder Chip beim Booten mit der geringsten Taktfrequenz hoch, bis sein BIOS ihm sagt, wieviel er überhaupt maximal takten darf.
Danke für die Aufklärung. Dann sollte ja alles im grünen sein. Wenn ich eine 3080 hole, wurde ich Afterburner wohlt auch das PT begrenzen (auf ca. 270W) trotz 750W NT von Corsair (Rm 750x V2)
Ich warte aber definitiv auf die 20GB Version. 10GB vorallem mit RT Settings halte ich für eine Frechheit.
X-Bow
2020-09-16, 16:41:23
Zumindest ist endlich aufgeklärt, als was NV die 3080 sieht: Als Nachfolger der 2080(Super), nicht der 2080Ti.
Ja natürlich, das würde ich als nV auch genauso bewerben damit die Tester sie allesamt mit der 2080 non Ti vergleichen und der Sprung so groß ausfällt.:rolleyes:
Ein Bick auf die verwendeten Chips und den dazu akivierten Einheiten lässt doch durchblicken dass die Bezeichungen ein "Upgrade" erhalten haben.
2080Ti = 3080 (TU102 -> GA102 / 88 ROPs -> 96 ROPs / 68 SM -> 68 SM)
2080 = 3070 ( TU104 -> GA104 / 64 ROPs -> 64 ROPs / 46SM -> 46 SM)
Ich frage mich warum in vielen Tests das auch noch extra erwähnt wird das die 3080 der (Offizielle)Nachfolger der 2080 non Ti ist, war das eine Vertragsbestimmung durch nV oder lassen sich die Tester reihenweise durch Namen blenden?
[MK2]Mythos
2020-09-16, 16:42:11
[immy;12427593']Also der Voodoo 5 Hintergrund fällt schon extrem ins Auge. Nerdiger geht es nicht... Ist allerdings schon Blasphemie bei dem Test einer nvidia Karte ;)
Aber echt "Lautheit"? Nennt man das heute so?
Wieso? NV hat das, was von 3dfx übrig blieb, doch geschluckt? Passt doch. ;)
00-Schneider
2020-09-16, 16:43:22
Welcher Sprung ist bei 4K mit und ohne RT bei der 3090 ggü. der 3080 zu erwarten?
30%?
G3cko
2020-09-16, 16:47:05
Man muss den Lesern einfach mal klar machen, dass man CPUs in 720p benched und Grafikkarten in 4k oder 8k.
Man kann ja meinetwegen in einzelnen Spielen in niedrigeren Auflösung testen und diese aufführen, aber im Performanceranking (Schnitt über alle Spiele) muss ich die Benchmarks entfernen, welche sich im CPU-Limit befinden.
Wenn ich da an die 8800GTX denke, die war Jahre vorraus. Was kann der Ferrari dafür wenn die Landstraße (Software, CPU) kaputt ist und man nicht zeigen kann was die Kiste kann.
Wenn die Karte real 50% schneller ist, aber die CPU und Software ein falsches Bild vermitteln und der Tester das nicht herrausarbeiten kann, falscher Beruf.
Oder wie oft muss man noch HiSNs Thread aus der Versenkung kramen... Man man man...
Mearest
2020-09-16, 16:47:13
Gut das ich vorgestern doch von einem 600Watt auf ein 750Watt Seasonic Gold Modular Netzteil umgerüstet Habe.
[immy;12427593']Aber echt "Lautheit"? Nennt man das heute so?
Lautheit sagt man schon immer, wenn man die schöne Einheit Sone statt dB(A) nimmt. Suchmaschine das. :)
Welcher Sprung ist bei 4K mit und ohne RT bei der 3090 ggü. der 3080 zu erwarten?
30%?
Bestenfalls 20 Prozent. Mehr nur dann, wenn der Speicher platzt.
MfG
Raff
Welcher Sprung ist bei 4K mit und ohne RT bei der 3090 ggü. der 3080 zu erwarten?
30%?
Die 3090 hat 16% mehr Shader und weniger Takt bei nur 20W mehr TDP, die aber durch den zusätzlichen Speicher aufgefressen werden. Ich würd sagen, wenn es 15% sind, hat die 3090 Glück gehabt...
Zergra
2020-09-16, 16:48:09
Gibt es irgendwo einen Test mit Wasserblock ?
Die 3090 hat 16% mehr Shader und weniger Takt bei nur 20W mehr TDP, die aber durch den zusätzlichen Speicher aufgefressen werden. Ich würd sagen, wenn es 15% sind, hat die 3090 Glück gehabt...
21%, nicht 16% mehr Shader
00-Schneider
2020-09-16, 16:51:33
Bestenfalls 20 Prozent. Mehr nur dann, wenn der Speicher platzt.
Die 3090 hat 16% mehr Shader und weniger Takt bei nur 20W mehr TDP, die aber durch den zusätzlichen Speicher aufgefressen werden. Ich würd sagen, wenn es 15% sind, hat die 3090 Glück gehabt...
Danke. Für 20% Mehrleistung gebe ich nicht 100% mehr aus. Wird der zukünftige neue Rechner also deutlich billiger als geplant.
Ravenhearth
2020-09-16, 16:54:12
Also nachdem ich mehrere Testberichte gelesen, habe muss sich sagen, Leistung und P/L sind ein guter Sprung, wie es sich für eine neue Generation gehört.
Den knappen VRAM, den man bereits heute vollbekommt, und dass die Leistung größtenteils über mehr Stromaufnahme erkauft wurde, empfinde ich jedoch als störend.
Ich warte also noch auf die Konkurrenz. Wenn AMD Big Navi mit der gleichen Leistung, aber mit mindestens 12GB VRAM und maximal 300W bringt, wird der gekauft.
Schnoesel
2020-09-16, 16:54:32
Gibt es irgendwo einen Test mit Wasserblock ?
Erst ab morgen sind die custom Tests freigegeben wenn ich mich recht erinnere
hesTeR-
2020-09-16, 16:58:40
Moin,
Eine Frage. Momentan betreibe ich meinen PC mit einem CORSAIR CX450M Netzteile 450 Watt 80 PLUS-Bronze
CPU: 8700k @5,0 ghz
Cpu-Kühler: Raijintek Triton Wasserkühlung
Mainboard: Asus z370 Prime A
Ram: G.Skill Trident Z Series DDR4-3200 16 GB
Grafikkarte: GTX 1080 @ 1mV @ 2050 mhz
Tower: Corsair Carbide Series 400C
Damit kann ich die 3080 knicken oder? Denkt ihr die 3070 oder AMD würde gehen? Oder komme ich um graka plus NT nicht rum?
Troyan
2020-09-16, 17:02:38
Die 3070 hat eine TDP von 220W. Wird knapp, sollte aber nicht höher liegen als deine GTX1080.
Mit 450 Watt und übertakteter CPU kannst du das definitiv knicken. Eine RTX 3070 liegt rund 100 Watt darunter, das dürfte noch laufen.
MfG
Raff
Ravenhearth
2020-09-16, 17:03:55
Laut HWU/Techspot hat Amperes neues SM-Design Auslastungsprobleme in niedrigeren Auflösungen:
We've looked deeper at the RTX 3080's performance at 1440p, so we want to comment on that. As far as we can tell, CPU bottlenecking alone is not the explanation. The reason comes down to Ampere's architecture and the change to the SM configuration that we mentioned in the introduction. The 2x FP32 design can only be fully utilized at 4K and beyond. This is because at 4K the portion of the render time per frame is heavier on FP32 shaders. At lower resolutions like 1440p, the vertice and triangle load is identical to what we see at 4K, but at the higher resolution pixel shaders and compute effect shaders are more intensive and take longer and therefore can fill the SMs FP32 ALUs better.
https://www.techspot.com/review/2099-geforce-rtx-3080/
aufkrawall
2020-09-16, 17:05:30
Die 3070 hat eine TDP von 220W. Wird knapp, sollte aber nicht höher liegen als deine GTX1080.
Ich würde stark davon ausgehen, dass der Verbrauch in Control oder Doom: Et. deutlich höher sein wird als mit der 1080 @1V.
Vielleicht wird man sie gut undervolten können, vielleicht auch nicht.
Btw: Gibts schon Undervolting-Tests zur 3080? Ich weiß nicht, warum fast überall nur das dösige Krücken-OC getestet wird...
G3cko
2020-09-16, 17:07:05
Moin,
Eine Frage. Momentan betreibe ich meinen PC mit einem CORSAIR CX450M Netzteile 450 Watt 80 PLUS-Bronze
CPU: 8700k @5,0 ghz
Cpu-Kühler: Raijintek Triton Wasserkühlung
Mainboard: Asus z370 Prime A
Ram: G.Skill Trident Z Series DDR4-3200 16 GB
Grafikkarte: GTX 1080 @ 1mV @ 2050 mhz
Tower: Corsair Carbide Series 400C
Damit kann ich die 3080 knicken oder? Denkt ihr die 3070 oder AMD würde gehen? Oder komme ich um graka plus NT nicht rum?
Kauf dir eine Stromsparmessgerät, dann finde die Differenz zwischen den Karten und dem was dein NT an Überlast schafft herraus. Zur Not kannst du die Karte auch etwas untertakten bei kaum Performance Verlust. Siehe CB Test.
Du darfst aber nicht vergessen, dass zukünftig die Software die CPU stärker belastet (kernskalierung) und somit auch dort der Verbrauch steigt.
Thunder99
2020-09-16, 17:08:48
Sorry, aber was ihr gegen AMD wieder schreibt ist total daneben. Wenn ein Spiel im CPU Limit ist dann liegt es eher an den Einstellungen und der Einstellung. Und es sollte zumindest ein Hinweis sein, dass ein CPU Limit vorliegt.
BlacKi
2020-09-16, 17:10:21
Moin,
Eine Frage. Momentan betreibe ich meinen PC mit einem CORSAIR CX450M Netzteile 450 Watt 80 PLUS-Bronze
CPU: 8700k @5,0 ghz
Cpu-Kühler: Raijintek Triton Wasserkühlung
Mainboard: Asus z370 Prime A
Ram: G.Skill Trident Z Series DDR4-3200 16 GB
Grafikkarte: GTX 1080 @ 1mV @ 2050 mhz
Tower: Corsair Carbide Series 400C
Damit kann ich die 3080 knicken oder? Denkt ihr die 3070 oder AMD würde gehen? Oder komme ich um graka plus NT nicht rum?
vorrübergehend würde ich sie vl auf 220w limitiert betreiben. aber falls du vergisst den afterburner mitlaufen zu lassen und die karte 320w zieht, dann kannst du nur darauf hoffen dass das netzteil vor dem explodieren ausgeht.
kurz: ich würds lassen.
arcanum
2020-09-16, 17:10:44
aus dem hwluxx:
"Etwas Hintergrundinformation: Den PCIe 3.0 vs 4.0 Vergleich haben wir mit einem Ryzen 5 3600 und X570 gemacht. Die GeForce RTX 3080 Founders Edition lief da zusammen mit einem 500-W-Netzteil. Es muss also nicht immer ein 1 kW NT sein"
mit 5ghz intel cpus muss das natürlich nicht mehr klappen aber mit einem amd system mit 8-12 kernen sollte man bei einem guten netzteil mit 500-550w nicht an die grenzen stoßen.
dildo4u
2020-09-16, 17:14:57
aus dem hwluxx:
"Etwas Hintergrundinformation: Den PCIe 3.0 vs 4.0 Vergleich haben wir mit einem Ryzen 5 3600 und X570 gemacht. Die GeForce RTX 3080 Founders Edition lief da zusammen mit einem 500-W-Netzteil. Es muss also nicht immer ein 1 kW NT sein"
mit 5ghz intel cpus muss das natürlich nicht mehr klappen aber mit einem amd system mit 8-12 kernen sollte man bei einem guten netzteil mit 500-550w nicht an die grenzen stoßen.
9900k sollte auch gehen erst die neuen Modelle haben die 28 Sekunden bei 250 Watt.
sunshine
2020-09-16, 17:20:06
Ich hoffe es gibt bald noch mehr UV Reviews mit Auswirkungen auf die Lautstaerke. Gewartet wird eh noch bis BigNavi, aber bisher wuerde die 3080 super meine bereits verkaufte 1080 TI ersetzen. Vielleicht sogar als FE, denn die Warme Luft aus dem Gehaeuse zu bekommen waere schon gut. Powerlimit auf 270W und go. Mein 9700K@5Ghz und das EVGA 650W NT werden definitiv noch gut dafuer passen.
Troyan
2020-09-16, 17:20:24
Ich würde stark davon ausgehen, dass der Verbrauch in Control oder Doom: Et. deutlich höher sein wird als mit der 1080 @1V.
Vielleicht wird man sie gut undervolten können, vielleicht auch nicht.
Btw: Gibts schon Undervolting-Tests zur 3080? Ich weiß nicht, warum fast überall nur das dösige Krücken-OC getestet wird...
Und nicht vergessen, dass die 3070 >80% schneller ist und somit das ganze System deutlich mehr leisten muss. Imo können 450W einfach zu wenig sein, wenn man von der GTX1080 auf die 3070 wechselt.
hesTeR-
2020-09-16, 17:20:39
Danke für eure Hilfe mit dem NT und der graka @all
Vor 2 Jahren wo ich das ganze gekauft habe war das halt so die gängige Empfehlung mit um die 450-500w
dildo4u
2020-09-16, 17:31:24
Hier wurde die Karte mal mit 7700k getestet was ihm eher negativ aufgefallen ist, ist das Shader Compiling als die Gameing Performance.
VQmife767u0
hq-hq
2020-09-16, 17:32:46
Samsung 8nm muss wirklich unfassbarer Schrott sein. ;D
mein Gedanke :freak:
DrFreaK666
2020-09-16, 17:35:44
Je höher die Auflösung, desto weniger CPU Limit. Man sieht aber bei geringen Auflösungen gut wie sich der Intel teils 10% von AMD absetzen kann, und das schon mit standard Speicher. Damit dürfte der Intel bei den Min FPS wesentlich besser anfühlen. Aber wie dem auch sei - schneller ist schneller - die Ausage ist falsch.
Sollte ich mir die Karte kaufen, dann wegen 2160p und nicht niedriger
Ex3cut3r
2020-09-16, 17:40:19
Wer unbedingt Angst hat, dass seine Zen 2 CPU Bottleneckt. Der kann ja All Core OC + RAM OCen. Bringt knapp 20% im CPU Limit. Ausgehend von 3200 CL14. von CL16 und schlechter durften es garantiert über 20% sein.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12423074&postcount=26
;)
arcanum
2020-09-16, 17:41:54
Wer unbedingt Angst hat, dass seine Zen 2 CPU Bottleneckt. Der kann ja All Core OC + RAM OCen. Bringt knapp 20% im CPU Limit:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12423074&postcount=26
;)
frage mich auch, warum das argument immer wieder kommt wenn amd noch besser mit ram tweaks skaliert als intel ohne gleich 400€ für ram auszugeben.
Leonidas
2020-09-16, 17:44:11
Quelle:
https://www.techspot.com/review/2099-geforce-rtx-3080/
https://pbs.twimg.com/media/EiDBaVwVkAAnMsB?format=png&name=large
Erbsenkönig
2020-09-16, 17:45:18
Also wenn ich PCGH und CB richtig deute, dann ist der FE Kühler genauso bescheiden wie seine Vorgänger. Er muss natürlich mit mehr Abwärme umgehen, aber am Ende hast du wieder ne Turbine unterm Schreibtisch stehen.
Ex3cut3r
2020-09-16, 17:46:26
Also wenn ich PCGH und CB richtig deute, dann ist der FE Kühler genauso bescheiden wie seine Vorgänger. Er muss natürlich mit mehr Abwärme umgehen, aber am Ende hast du wieder ne Turbine unterm Schreibtisch stehen.
Sehe ich auch so. Customs sind halt wieder IMO unumgänglich. :wink:
sven2.0
2020-09-16, 17:47:25
Also wenn ich PCGH und CB richtig deute, dann ist der FE Kühler genauso bescheiden wie seine Vorgänger. Er muss natürlich mit mehr Abwärme umgehen, aber am Ende hast du wieder ne Turbine unterm Schreibtisch stehen.
Überraschung :rolleyes:
Erbsenkönig
2020-09-16, 17:49:07
Überraschung :rolleyes:
Nun in den letzten Wochen konnte man hier doch vermehrt lesen, dass man sich auf den Kühler freue und der doch ausreichen würde. Ich wollte nicht so recht dran glauben. ;)
BlacKi
2020-09-16, 17:49:16
bin ich der einzigste der das thema 4k + cpu limit problematik abgespaced findet?^^
Gebrechlichkeit
2020-09-16, 17:50:01
https://i.postimg.cc/BnR1Z7Sv/060.png (https://postimages.org/)
Die neue Serie hat einen hoeheren Verbrauch als die Vorserie¿
1.9x perf/Watt? Moar laik 1.9x watt/+50%perf.
woodsdog
2020-09-16, 17:50:28
Also wenn ich PCGH und CB richtig deute, dann ist der FE Kühler genauso bescheiden wie seine Vorgänger. Er muss natürlich mit mehr Abwärme umgehen, aber am Ende hast du wieder ne Turbine unterm Schreibtisch stehen.
Bei Igor sieht das anders aus.
Darüber hinaus sollte wohl jeder halbwegs begabte der FE einfach 50W vom Powertaget klauen und schwupps hat man ne leise Karte. -5% Performance ist komplett egal dafür.
Adam D.
2020-09-16, 17:52:37
Bei Igor sieht das anders aus.
Darüber hinaus sollte wohl jeder halbwegs begabte der FE einfach 50W vom Powertaget klauen und schwupps hat man ne leise Karte. -5% Performance ist komplett egal dafür.
Also für mich sieht es nach Ansicht einiger Tests so aus, als hätte die 3080 den bisher besten Kühler eines "Referenz"-Designs aller Zeiten. Nicht perfekt, klar. Aber wenn man bedenkt, wie die Vorgänger schon bei deutlich geringerer TDP versagt haben, kann sich das sehen lassen.
AMDoderNvidia
2020-09-16, 17:53:01
Schade, dass 3dcenter nicht von Nvidia berücksichtigt wird und ein Testexemplar erhalten hat.
Hattet Ihr schon jemals was bekommen? Oder wollt Ihr gar nicht?
Marodeur
2020-09-16, 17:53:50
@raff:
Bis wann kann man mit den Spezialtests zur Kühlung rechnen? Und wird sie da auch mal auf dem Kopf stehen? So wäre meine Konfiguration. Board auf dem Kopf, der große Lüfter unten. ;)
aufkrawall
2020-09-16, 17:53:56
Quelle:
https://www.techspot.com/review/2099-geforce-rtx-3080/
https://pbs.twimg.com/media/EiDBaVwVkAAnMsB?format=png&name=large
Die nicht-messbare Performance ist mit Intel bestimmt trotzdem zigfach besser. Da brauchst du nur mal Miami fragen, der ist schließlich darauf geschultes, hellfühliges Medium. :cool:
sven2.0
2020-09-16, 17:54:06
Nun in den letzten Wochen konnte man hier doch vermehrt lesen, dass man sich auf den Kühler freue und der doch ausreichen würde. Ich wollte nicht so recht dran glauben. ;)
Hab das direkt für Marketinggeblubber gehalten und wurde direkt als Troll beschimpft..
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12411778#post12411778
DrFreaK666
2020-09-16, 17:56:00
Also nachdem ich mehrere Testberichte gelesen, habe muss sich sagen, Leistung und P/L sind ein guter Sprung, wie es sich für eine neue Generation gehört.
Den knappen VRAM, den man bereits heute vollbekommt, und dass die Leistung größtenteils über mehr Stromaufnahme erkauft wurde, empfinde ich jedoch als störend.
Ich warte also noch auf die Konkurrenz. Wenn AMD Big Navi mit der gleichen Leistung, aber mit mindestens 12GB VRAM und maximal 300W bringt, wird der gekauft.
Ich denke nicht dass Big Navi mithalten kann. Dafür müsste sie doppelt so schnell sein wie eine RX5700XT - klingt für mich nicht realistisch
woodsdog
2020-09-16, 17:56:42
Also für mich sieht es nach Ansicht einiger Tests so aus, als hätte die 3080 den bisher besten Kühler eines "Referenz"-Designs aller Zeiten. Nicht perfekt, klar. Aber wenn man bedenkt, wie die Vorgänger schon bei deutlich geringerer TDP versagt haben, kann sich das sehen lassen.
Pretty much this - ja.
Hinzu kommt ja auch noch das es jede menge Karten gab wo z.B. Asus und MSI komplett versagt haben oder wie Gigabyte bei diversen 2080/2080ti mit der Wärmeleitpaste wo teilweise nur das halbe Die bedeckt war.
Die Materialschlacht von einigen Designs welche man bisher schon sehen konnte werden sich die Hersteller bezahlen lassen abgesehen davon, dass man jetzt erst mal an die FE ran kommen muss.
Erbsenkönig
2020-09-16, 17:56:46
Bei Igor sieht das anders aus.
Darüber hinaus sollte wohl jeder halbwegs begabte der FE einfach 50W vom Powertaget klauen und schwupps hat man ne leise Karte. -5% Performance ist komplett egal dafür.
Das kommt wohl auch auf die jeweiligen Anforderungen an eine "leise" Karte an. Ich hab meiner 1080 so den Zahn gezogen, dass sie sich maximal bei 60°C einpendelt und die Noctua P12 mit max 600 RPM laufen. Da höre ich dann tatsächlich nichts.
Hau gut 130W da drauf und du bist bei der 3080 mit 270 W. Dass die Karte dann wirklich leise und deutlich unterhalb der 80°C landet, kann ich mir nicht vorstellen. Oder hat das einer getestet?
PS: Ich muss dazusagen dass der Kühlkörper meiner 1080 wohl einer der besseren der 1080er Customs ist. Kann da die FE mithalten?
Lowkey
2020-09-16, 17:58:45
bin ich der einzigste der das thema 4k + cpu limit problematik abgespaced findet?^^
"Nein, es muss pci-e 4.0 für einen fairen grafikkarten test sein"
Und nun sehen die Tests mit AMD System alt aus.
Ex3cut3r
2020-09-16, 17:58:49
Das kommt wohl auch auf die jeweiligen Anforderungen an eine "leise" Karte an. Ich hab meiner 1080 so den Zahn gezogen, dass sie sich maximal bei 60°C einpendelt und die Noctua P12 mit max 600 RPM laufen. Da höre ich dann tatsächlich nichts.
Hau gut 130W da drauf und du bist bei der 3080 mit 270 W. Dass die Karte dann wirklich leise und deutlich unterhalb der 80°C landet, kann ich mir nicht vorstellen. Oder hat das einer getestet?
PS: Ich muss dazusagen dass der Kühlkörper meiner 1080 wohl einer der besseren der 1080er Customs ist. Kann da die FE mithalten?
Also, PCGH hat 79 Grad bei 3,3 Sone und ca. 2000 RPM gemessen bei 320W, wenn man die FE auf 270W Begrentz (Afterburner) sollten so ca 70 Grad und 1.7 - 2 Sone rauskommen (IMO)
Erbsenkönig
2020-09-16, 18:00:08
Also, PCGH hat 79 Grad bei 3,3 Sone und ca. 2000 RPM gemessen bei 320W, wenn man die FE auf 270W Begrentz (Afterburner) sollten so ca 70 Grad und 1.7 - 2 Sone rauskommen (IMO)
Das wäre schon ein gehöriger Schritt. Können 50W so viel ausmachen? Muss ich nachher mal bei meiner 1080 probieren.:smile:
Ex3cut3r
2020-09-16, 18:01:01
Das wäre schon ein gehöriger Schritt. Können 50W so viel ausmachen? Muss ich nachher mal bei meiner 1080 probieren.:smile:
Ja, denke schon. 320W sind halt schon sehr extrem, und selbst da ist die FE nicht soooo schlecht.
woodsdog
2020-09-16, 18:01:15
Das kommt wohl auch auf die jeweiligen Anforderungen an eine "leise" Karte an. Ich hab meiner 1080 so den Zahn gezogen, dass sie sich maximal bei 60°C einpendelt und die Noctua P12 mit max 600 RPM laufen. Da höre ich dann tatsächlich nichts.
Hau gut 130W da drauf und du bist bei der 3080 mit 270 W. Dass die Karte dann wirklich leise und deutlich unterhalb der 80°C landet, kann ich mir nicht vorstellen. Oder hat das einer getestet?
PS: Ich muss dazusagen dass der Kühlkörper meiner 1080 wohl einer der besseren der 1080er Customs ist. Kann da die FE mithalten?
Naja, ist halt der 2-Slot FE Kühler für ein 320W Design, das der nicht lautlos bei 60°C ist sollte klar sein. Das ist aber ein komplett anderer Anspruch den du da offensichtlich hast. Welche Lösung kann das denn bitte unter Luft mit 2-3 Slots bei 300+ W auch leisten?
arcanum
2020-09-16, 18:03:53
Also, PCGH hat 79 Grad bei 3,3 Sone und ca. 2000 RPM gemessen bei 320W, wenn man die FE auf 270W Begrentz (Afterburner) sollten so ca 70 Grad und 1.7 - 2 Sone rauskommen (IMO)
komisch dass die karte dort in sone deutlich lauter als alle turing-karten ist. in db(A) kommt bei computerbase ein geringerer wert als bei der 2080ti fe raus.
Das wäre schon ein gehöriger Schritt. Können 50W so viel ausmachen? Muss ich nachher mal bei meiner 1080 probieren.:smile:
hängt davon ab, wie sehr die kühllösung am limit läuft. wenn die wärme nicht ausreichend schnell abgeführt werden kann machen 50 watt sehr viel aus. 320 watt und erst recht 370 sind halt ne hausnummer, das werden auch die customs nicht leise wegkühlen.
woodsdog
2020-09-16, 18:04:03
Ist es eigentlich etwas neues, dass die Lüfter offenbar kontrolliert abgestimmt asyncron laufen um Resonanzen zu verhindern?
Erbsenkönig
2020-09-16, 18:06:14
Naja, ist halt der 2-Slot FE Kühler für ein 320W Design, das der nicht lautlos bei 60°C ist sollte klar sein. Das ist aber ein komplett anderer Anspruch den du da offensichtlich hast. Welche Lösung kann das denn bitte unter Luft mit 2-3 Slots bei 300+ W auch leisten?
In der Gefriertruhe müsste noch ein bisschen Platz sein.:D
Der_Korken
2020-09-16, 18:07:45
Man muss bei dem FE-Kühler auch unterscheiden, ob im geschlossenen oder offenem Case getestet wurde. Im offenen Aufbau sind ausladende Triple-Slot-Triple-Fan-Custom-Kühler natürlich überlegen, aber im geschlossenen Gehäuse schmoren die dann mehr im eigenen Saft, weil die heiße Luft nicht vernünftig nach oben oder außen entweicht und nochmal durch den Kühler gezogen wird (das merke ich schon bei meiner 180W-5700 nonXT). Die FE bläst aber einen Teil zum Slot raus und durch das kurze PCB wird alle Wärme vom zweiten Lüfter nach oben durchgereicht. Dadurch unterscheiden sich die Ergebnisse von Seite zu Seite. Bei Igor sind es in Spielen nur 38,8dB trotz 330W Verbrauch. Das ist natürlich nicht silent, aber mit 50W weniger dann sicherlich schon.
In geschlossenen Gehäusen werden die Customs es imho schwer haben an der FE vorbeizuziehen.
y33H@
2020-09-16, 18:16:41
Im Case ist die RTX 3080 FE leiser und kühler als auf dem Testbench, zumindest bei mir.
Troyan
2020-09-16, 18:18:23
Wie stark wird denn die Luft vorne rausgepustet? Radial-Kühler mäßig?
BlacKi
2020-09-16, 18:18:30
ich verstehe das auch nicht, wie kann man die FE an den nicht vorhandenen customs beurteilen.
MiamiNice
2020-09-16, 18:26:51
Die nicht-messbare Performance ist mit Intel bestimmt trotzdem zigfach besser. Da brauchst du nur mal Miami fragen, der ist schließlich darauf geschultes, hellfühliges Medium. :cool:
Dafür muss man kein Medium sein.
Bissel Gaming Erfahrung, wissen was man auf dem Tisch stehen hat und die richtigen Benches ansehen.
Dann weiß man wo der Hammer hängt.
Vielleicht ist ja für Dich neu, aber in 4K hat die CPU kaum noch was zu melden. Aber was schreib ich mir die Finger wund, Du magst ja eh nur trollieren.
Nazar
2020-09-16, 18:27:58
PCGH.de: Nvidia Geforce RTX 3080 im XXL-Test: Ampère, le trés légère Preisbrechèr (https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Tests/Test-Review-Founders-Edition-1357408/)
Besonders beachtenswert: Geforce RTX 3080 Spezialtests: Raytracing-Leistungsindex, Pro-Takt-Leistung, PCI-Express-Durchsatz (https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Tests/Raytracing-Vergleich-DLSS-Test-1357418/)
Echt jetzt. Was unterstehen die sich, die Karte bestmöglich auszufahren, diese Affen!
MfG
Raff
Habe ich es übersehen oder gibt es keinen Time Spy Benchmark?
Wenn ja, warum ist das so?
Damit könnte jeder Nutzer eine Vergleichbarkeit zu seiner Karte herstellen.
woodsdog
2020-09-16, 18:28:54
Vielleicht ist ja für Dich neu, aber in 4K hat die CPU kaum noch was zu melden. Aber was schreib ich mir die Finger wund, Du magst ja eh nur trollieren.
Deswegen limitiert selbige bei Igor in 4k hier und da. Aber du bist ja der Experte hier :rolleyes:
BlacKi
2020-09-16, 18:29:08
Vielleicht ist ja für Dich neu, aber in 4K hat die CPU kaum noch was zu melden.
hast du das video von igor gesehen? wie oft sagt er in seinen benches cpu bottleneck? bestimmt 30 mal oder so. auch bei den 4k benches.
dildo4u
2020-09-16, 18:29:25
Fortnite mit RTX und DLSS.
https://youtu.be/dwT-eU3T9D0?t=248
MiamiNice
2020-09-16, 18:33:11
Deswegen limitiert selbige bei Igor in 4k hier und da. Aber du bist ja der Experte hier :rolleyes:
hast du das video von igor gesehen? wie oft sagt er in seinen benches cpu bottleneck? bestimmt 30 mal oder so. auch bei den 4k benches.
Darum ging es gerade nicht. Einfach zurück lesen. 1 Seite, darauf bezieht sich der Krawallmacher.
woodsdog
2020-09-16, 18:35:12
da braucht es nicht zurück zu gehen, du hast ne objektiv falsche 1-Satz Aussage getätigt.
y33H@
2020-09-16, 18:35:19
Habe ich es übersehen oder gibt es keinen Time Spy Benchmark? Wenn ja, warum ist das so? Damit könnte jeder Nutzer eine Vergleichbarkeit zu seiner Karte herstellen.Time Spy sagt recht wenig über Spiele aus.
dildo4u
2020-09-16, 18:37:33
Habe ich es übersehen oder gibt es keinen Time Spy Benchmark?
Wenn ja, warum ist das so?
Damit könnte jeder Nutzer eine Vergleichbarkeit zu seiner Karte herstellen.
Hardwareluxx testet 3DMark.
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/54099-nvidia-dreht-an-der-ampere-schraube-die-geforce-rtx-3080-founders-edition-im-test.html?start=9
aufkrawall
2020-09-16, 18:41:23
Perf/W über alle Spiele gemittelt in 4k ist bei Igor nur ~8% besser als bei der 2080 Ti :freak: :
https://www.igorslab.de/nvidia-geforce-rtx-3080-founders-edition-review-ein-grosser-schritt-nach-vorn-und-der-grabstein-fuer-turing/11/
Emil_i_Lönneberga
2020-09-16, 18:46:13
zurück zur 3080: eine top-karte, die eindeutig über dem sweet spot läuft. wird morgen bestellt und dann mit <300w powerlimit betrieben. dann reicht auch das aktuelle 550w netzteil locker mit einer kommenden amd cpu.
Generell definitiv zu empfehlen:
71472
Die 3080 FE soll ins Power Limit laufen
Die GeForce RTX 3080 FE ist so konfiguriert, dass sie in jedem halbwegs anspruchsvollen Spiel ins Power Limit rennt, während das Temperature Target keinerlei Rolle spielt.
Je mehr Energie die Berechnungen eines Spiels benötigen, desto niedriger ist nicht nur der Maximaltakt, desto größer fallen auch die Schwankungen aus.
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/2/#abschnitt_die_taktraten_unter_last
Dann auch bitte testen, wie im Afterburner Curved Editor die Möglichkeiten bei der Spannungsabsenkung ausfallen, ohne das Powerbudget abzusenken.
Die Taktschwankungen fallen teilweise out of the box noch deutlich aus.
aufkrawall
2020-09-16, 18:55:46
Zero Dawn schon in 1440p schlechtere Frametimes als auf der 2080 Ti, wie 4k aussieht könnt ihr euch denken ;D :
https://www.igorslab.de/wp-content/uploads/2020/09/Horizon-Zero-Dawn-FrameTimeoB-2560-x-1440-DX12-High-Settings-FoV-90-TAA-Blur-On.png
Die VII mit aalglatter Linie. :freak:
Ex3cut3r
2020-09-16, 18:57:53
Zero Dawn schon in 1440p schlechtere Frametimes als auf der 2080 Ti, wie 4k aussieht könnt ihr euch denken ;D :
https://www.igorslab.de/wp-content/uploads/2020/09/Horizon-Zero-Dawn-FrameTimeoB-2560-x-1440-DX12-High-Settings-FoV-90-TAA-Blur-On.png
Die VII mit aalglatter Linie. :freak:
Jap, das ist heftig. 10GB reichen bei HZD hinten und vorne nicht, ab 16GB hat man Ruhe. Sollte der Speicherbedarf mit der Next Gen (die vor der Haustür steht) noch höher ausfallen, also sowas wie Richtung 12GB aufwärts, sehe ich die 3080 mit 10GB schon in 10 Monaten komplett veraltet an. Aber ey es gibt genug Warnungen, sei PCGH oder User von hier. Als Erwachsener sollte man das selbst gut einschätzen können. Ich sage es wie es IMO ist, die 10GB sind bei der Rohleistung eine verdammte Frechheit, man will den Kunden für Dumm verkaufen, sodass er ab Monat 12, eh wieder neu einkaufen (muss)
Troyan
2020-09-16, 19:03:14
Wer Seasonic-Netzteil hat, kann sich den 12-PIN Adapter zuschicken lassen: https://seasonic.com/request-12pin-cable?__cf_chl_jschl_tk__=237119bf10f4ca26cc50b7a3cb3211c77bb097b9-1600275740-0-AYycEYXbFFtMzSCdmSBaNGWoEXLFjXcclP8jkWgvoJH9wF7UG2jljj2mcBQ0aAMiQIPBoKNOn1hoptdu X1yi8263JBi-Y4G6KcEUI2c8JLdL9h2lMxT3v4CJBoNN0ovO0NodZvduHeesXN4LgAZA7tj824kA0NZ5m0hi1s07MBpo apKB47f1bOvo0e3_JrK9_nJs1xmSIEU5k1MlusRZP5ujM_WTe6hq7TRKMvSXAFmood3PXYdhb9CW269j JNWrAWwUHTul7HRW4cx5alSf-s15vqhzVVjF3qqTpKLOe1rh
Cubitus
2020-09-16, 19:08:54
Wer Seasonic-Netzteil hat, kann sich den 12-PIN Adapter zuschicken lassen: https://seasonic.com/request-12pin-cable?__cf_chl_jschl_tk__=237119bf10f4ca26cc50b7a3cb3211c77bb097b9-1600275740-0-AYycEYXbFFtMzSCdmSBaNGWoEXLFjXcclP8jkWgvoJH9wF7UG2jljj2mcBQ0aAMiQIPBoKNOn1hoptdu X1yi8263JBi-Y4G6KcEUI2c8JLdL9h2lMxT3v4CJBoNN0ovO0NodZvduHeesXN4LgAZA7tj824kA0NZ5m0hi1s07MBpo apKB47f1bOvo0e3_JrK9_nJs1xmSIEU5k1MlusRZP5ujM_WTe6hq7TRKMvSXAFmood3PXYdhb9CW269j JNWrAWwUHTul7HRW4cx5alSf-s15vqhzVVjF3qqTpKLOe1rh
Stark :D
Leonidas
2020-09-16, 19:12:46
https://pbs.twimg.com/media/EiDUfKQXsAY_xSj?format=jpg&name=large
Digidi
2020-09-16, 19:13:42
PL ist total schlecht bei Ampere. Die 3090 sollte eigentlich den Preis der 3080 haben.....
Troyan
2020-09-16, 19:14:49
https://pbs.twimg.com/media/EiDUfKQXsAY_xSj?format=jpg&name=large
Irgendwie traurig, dass man das erwähnen muss, wenn es genauso kommuniziert wurde. ;D
Rancor
2020-09-16, 19:16:47
Ich glaube ich überspringe diese Generation mal. Die 10 GB der 3080 sind mir einfach zu low.
X-Bow
2020-09-16, 19:18:25
Perf/W über alle Spiele gemittelt in 4k ist bei Igor nur ~8% besser als bei der 2080 Ti :freak: :
https://www.igorslab.de/nvidia-geforce-rtx-3080-founders-edition-review-ein-grosser-schritt-nach-vorn-und-der-grabstein-fuer-turing/11/
Das ist für einen Fullnote-Sprung ja noch schlechter als von Vega10 zu Vega20, oder? ;D
Troyan
2020-09-16, 19:22:35
Nein, weil die Karte nicht der Nachfolger der 2080TI ist. Stark beschnitten und hoher Takt eben. Vergleiche die 3080 mit der 2070S und die Effizienz ist deutlich besser.
3070 ist viel besseres Produkt als Vergleich.
Dural
2020-09-16, 19:22:46
Das ist für einen Fullnote-Sprung ja noch schlechter als von Vega10 zu Vega20, oder? ;D
Das waren aber auch ganze zwei fullnote, ampere hat nur einer und turing war ja schon 12nm.
Und wenn man die 3080 auf 270w beschränkt sieht es ziemlich schlecht für amd aus...
Linmoum
2020-09-16, 19:23:58
Perf/Watt ist schon richtig übel. Naja, Nvidia wird Gründe haben, warum sie die Karte(n) derart hochprügeln (müssen?).
Benutzername
2020-09-16, 19:24:11
:freak:
r3ptil3
2020-09-16, 19:28:04
Nachdem ich nun ein paar Stunden Revue passieren lassen habe, habe ich folgende Wahrnehmung zu der RTX 3080:
- leider hat Nv den Mund doch etwas zu voll genommen
- ich bin nicht mehr soo enthusiastisch und positiv gestimmt über die neue Gen
- Verbrauch und speziell der hoch gepriesene FE-Kühler ist eine Enttäuschung
- der Preis fällt nun in ein ganz anderes Licht
- die 3090 ist seit den Reviews heute nonchmals deutlich unattraktiver geworden
Zum ersten Mal überlege ich mir nun ernsthaft evtl. doch auf Big Navi zu warten.
unl34shed
2020-09-16, 19:30:10
Irgendwie traurig, dass man das erwähnen muss, wenn es genauso kommuniziert wurde. ;D
Jap hat man, sieht man hier zB. an der fehlenden Footnote...
https://www.allround-pc.com/wp-content/uploads/2020/09/Nvidia-RTX-3080-Showcase-Bild.jpg
Oder auch hier, wo man es als Avg. aus mehreren Spielen versucht zu verkaufen...
https://i2.wp.com/www.techporn.ph/wp-content/uploads/Nvidia-Ampere-RTX-3090-3080-3070-PR-3.jpg?resize=696%2C392&ssl=1
Mal überlege ich mir nun ernsthaft evtl. doch auf Big Navi zu warten.
Intel und Nvidia machen ein besseres Marketing für AMD als sie selbst :O
Troyan
2020-09-16, 19:36:30
Jap hat man, sieht man hier zB. an der fehlenden Footnote...
https://www.allround-pc.com/wp-content/uploads/2020/09/Nvidia-RTX-3080-Showcase-Bild.jpg
Oder auch hier, wo man es als Avg. aus mehreren Spielen versucht zu verkaufen...
https://i2.wp.com/www.techporn.ph/wp-content/uploads/Nvidia-Ampere-RTX-3090-3080-3070-PR-3.jpg?resize=696%2C392&ssl=1
In ray-traced games, performance is up to 2X faster compared to our previous-generation graphics cards. And in rasterized games without ray tracing and DLSS, GeForce RTX 30 Series graphics cards deliver the performance necessary for max setting, high resolution, high framerate gameplay, giving you the definitive experience.
https://www.nvidia.com/en-us/geforce/news/introducing-rtx-30-series-graphics-cards/
Smashing performance records, the GeForce RTX 3090, 3080 and 3070 GPUs offer up to 2x the performance and 1.9x the power efficiency over the previous Turing-based generation. The GPUs take advantage of the second generation of NVIDIA RTX™ — the world’s most powerful PC gaming platform — to provide unprecedented levels of real-time ray tracing and AI gaming.
https://nvidianews.nvidia.com/news/nvidia-delivers-greatest-ever-generational-leap-in-performance-with-geforce-rtx-30-series-gpus
Wieder mal die Unwahrheit geschrieben. Frage mich, wann die Moderation dich wegen Trolling hier mal bepunktet?!
/edit: Und steht eigentlich auf der zweiten Folie nicht "up to 2x 2080"? Also haben wir exakt eine Folie. Na dann.
w0mbat
2020-09-16, 19:40:34
Nvidia hat es ganz klar so aussehen lassen, als ob die 3080 doppelt so schnell wie ne 2080 ist. Hör doch auf das zu verteidigen. Auf der Folie was kein Kleingedrucktes.
Wieder mal die Unwahrheit geschrieben, Troyan?
dildo4u
2020-09-16, 19:45:01
Wayne juckt die NV Werbung Reviews sind da und die Karten kann man erst Morgen kaufen.
Monsta
2020-09-16, 19:49:13
Die Karte säuft wie blöd Strom, ist auch Watt/Frame eher auf Touring Niveau.
Ja Troyan kam wohl doch anders.
aufkrawall
2020-09-16, 19:49:17
Nein, weil die Karte nicht der Nachfolger der 2080TI ist. Stark beschnitten und hoher Takt eben. Vergleiche die 3080 mit der 2070S und die Effizienz ist deutlich besser.
3070 ist viel besseres Produkt als Vergleich.
Erzähl doch nicht so einen Unfug. Es sind beides die großen Chips und auch die 3080 bzw. gerade die ist durchs PT gedrosselt...
Ex3cut3r
2020-09-16, 19:53:21
Da die 3080 auf dem GA102 basiert und die RTX 2080 Ti auf dem TU102 ist es natürlich der Nachfolger. Und diese miteinander zu vergleichen ist vollkommen richtig. Was anscheined viele verwirrt ist die Namensgebung von Nvidia wieder einmal. Man hätte die 3080 auch einfach 3080 Ti nennen können, dann gäbe es die schwachsinnige Diskussion gar nicht. Natürlich mit -1GB mal wieder, das scheint bei Nvidia auch immer mehr Gang und Gäbe zu werden, dass man anstatt den VRAM aufzubohren nach 2 Jahren, immer weniger den Kunden serviert. Ein Beispiel...
1080Ti hatte 2017 11GB, 2018 kam die 2080 mit 10% mehr Rohleitungs aber mit nur 8GB, gut war im PS4 Zeitalter nicht so gravierend, jetzt mit der neuen Gen - PS5 Zeitalter, gibt es diesmal anstatt -3 nur -1GB. Yeah...so läuft das... Mr. Huang, Sie Fuchs Sie. ;D
Troyan
2020-09-16, 19:56:56
Erzähl doch nicht so einen Unfug. Es sind beides die großen Chips und auch die 3080 bzw. gerade die ist durchs PT gedrosselt...
Die 3080 ist stärker beschnitten als die 2080TI. Nur weil die 3080 den "großen" Chip hat, macht es die Karte nicht zum Nachfolger.
Einfach mal die Zahlen:
320bit vs. 352bit
68/84SM (81%) vs. 68/72SM (94,4%)
5% höherer Takt
Der Nachfolger ist die 3090. Die 3080 ist irgendwas zwischen 2080 und 2080TI.
mczak
2020-09-16, 20:01:19
Und wenn man die 3080 auf 270w beschränkt sieht es ziemlich schlecht für amd aus...
Also bezüglich Effizienz sehe ich nichts was AMD nicht schlagen könnte, falls denn RDNA2 da tatsächlich nochmals zugelegt hat (dies natürlich auch dank des Fertigungsvorteils gegenüber Ampere). Ampere ist nicht schlecht, ein wirklich grosser Sprung gegenüber Turing aber auch nicht - wieviel davon aufgrund der Architektur und wieviel aufgrund der Fertigung ist halt schwierig zu sagen. 12FFN war ja TSMC und 8LPP ist Samsung, und die Samsung Prozesse sollen ja nicht so toll sein.
aufkrawall
2020-09-16, 20:06:49
Der Nachfolger ist die 3090. Die 3080 ist irgendwas zwischen 2080 und 2080TI.
Die Komplette Turing-Riege hat bei Igor die gleiche Effizienz und es gibt bisher nur ein Ampere-Modell. Die Diskussion ist so müßig...
Ravenhearth
2020-09-16, 20:09:59
https://www.guru3d.com/index.php?ct=articles&action=file&id=63696&admin=0a8fcaad6b03da6a6895d1ada2e171002a287bc1
:eek:
Troyan
2020-09-16, 20:11:18
Die Komplette Turing-Riege hat bei Igor die gleiche Effizienz und es gibt bisher nur ein Ampere-Modell. Die Diskussion ist so müßig...
Das kann überhaupt nicht sein. Die 2080TIFE ist ~40% schneller als die 2070S bei 23% mehr Verbrauch. Die 2080TI ist deutlich effizienter als die 2070S: https://www.computerbase.de/2020-09/geforce-rtx-3080-test/5/#abschnitt_leistungsaufnahme_desktop_youtube_spiele
Was auch offensichtlich ist, da die 2070S mit durchschnittlich 1850MHz taktet.
N0Thing
2020-09-16, 20:12:19
Bin mal sehr auf nachfolgende Test zu UV und reduziertem Powerlimit gespannt. Da gibt es ja mit Computerbase (https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt), Golem (https://www.golem.de/news/geforce-rtx-3080-im-test-doppelte-leistung-zum-gleichen-preis-2009-150508-6.html) und igorslab (https://www.igorslab.de/community/threads/nvidia-geforce-rtx-3080-founders-edition-review-ein-gro%C3%9Fer-schritt-nach-vorn-und-der-grabstein-f%C3%BCr-turing.3162/post-72763) ganz unterschiedliche Ergebnisse und Einschätzungen.
Schnoesel
2020-09-16, 20:12:53
Gut dass ich mit read dead gewartet habe. Ist ja grausam wie die 1080ti abkackt. Endlich gute Low Level Performance wäre mal was.
aufkrawall
2020-09-16, 20:16:38
Das kann überhaupt nicht sein. Die 2080TIFE ist ~40% schneller als die 2070S bei 23% mehr Verbrauch. Die 2080TI ist deutlich effizienter als die 2070S: https://www.computerbase.de/2020-09/geforce-rtx-3080-test/5/#abschnitt_leistungsaufnahme_desktop_youtube_spiele
Was auch offensichtlich ist, da die 2070S mit durchschnittlich 1850MHz taktet.
Das sind nur drei Spiele, von denen zwei so ziemlich die Best Cases für Ampere sind, aus denen CB dann den Durchschnitt bildet. Gears Tactics als Ausreißer nach unten ist umgekehrt auch nicht ganz so ausgeprägt wie die nach oben.
Igor testet über ALLE gebenchmarkten Titel die Perf/W. Und wenn du Wolfgang da mehr zutraust, ja, lol...
X-Bow
2020-09-16, 20:18:20
D
Einfach mal die Zahlen:
320bit vs. 352bit
68/84SM (81%) vs. 68/72SM (94,4%)
5% höherer Takt
Korrekt, eindeutig der Nachfolger den Zahlen nach, ob der neue GA102 ein bisschen stärker beschitten wurde oder nicht ist doch völlig egal.
Auf gleichem Takt säuft sie fast 12% mehr als der Vorgängerchip., und das bei durchscnittlich 18% mehr Leistung in 4K... und das mit Fullnote + neue µArch...
Und jetzt stell dir mal vor die Karte wäre Rot...
https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Tests/Raytracing-Vergleich-DLSS-Test-1357418/2/
MiamiNice
2020-09-16, 20:20:01
https://cdn.discordapp.com/attachments/296201993049866242/755831605997600878/Eh1DUhfVgAEYjmp.jpg
Linmoum
2020-09-16, 20:23:02
Wieder mal die Unwahrheit geschrieben. Frage mich, wann die Moderation dich wegen Trolling hier mal bepunktet?!
/edit: Und steht eigentlich auf der zweiten Folie nicht "up to 2x 2080"? Also haben wir exakt eine Folie. Na dann."3080 is twice the performance of 2080 at the same price". Zitat wortwörtlich von Lederjacke.
https://www.youtube.com/watch?v=E98hC9e__Xs#t=29m58s
Oder auch:
Irgendwie traurig, dass man das erwähnen muss, wenn es genauso kommuniziert wurde. ;D
Frage mich, wann die Moderation dich wegen Trolling hier mal bepunktet?
Troyan
2020-09-16, 20:23:57
Das sind nur drei Spiele, von denen zwei so ziemlich die Best Cases für Ampere sind, aus denen CB dann den Durchschnitt bildet. Gears Tactics als Ausreißer nach unten ist umgekehrt auch nicht ganz so ausgeprägt wie die nach oben.
Igor testet über ALLE gebenchmarkten Titel die Perf/W. Und wenn du Wolfgang da mehr zutraust, ja, lol...
Es ist nicht möglich, dass die 2070S genauso effizient ist wie die 2080TI FE. Die 2070S boostet immer gegen das PT von ~220W. Die 2080TI FE ist bei 270W abgeriegelt. Die 2070S läuft in einem schlechteren Effizienzfenster, da die Karte höher boosten kann.
Exakt das selbe (+GDDR6X) bei der 3080. Deren Takrate entspricht viel mehr der von den 2080 Karten.
BlacKi
2020-09-16, 20:24:35
Zero Dawn schon in 1440p schlechtere Frametimes als auf der 2080 Ti, wie 4k aussieht könnt ihr euch denken ;D :
https://www.igorslab.de/wp-content/uploads/2020/09/Horizon-Zero-Dawn-FrameTimeoB-2560-x-1440-DX12-High-Settings-FoV-90-TAA-Blur-On.png
Die VII mit aalglatter Linie. :freak:
und zig 8gb karten mit besseren frametimes als die 10gb. und jetzt?
"3080 is twice the performance of 2080 at the same price". Zitat wortwörtlich von Lederjacke.
https://www.youtube.com/watch?v=E98hC9e__Xs#t=29m58s
war aber nicht rein auf gaming bezogen.
X-Bow
2020-09-16, 20:29:10
https://cdn.discordapp.com/attachments/296201993049866242/755831605997600878/Eh1DUhfVgAEYjmp.jpg
Wird ein Fake sein, siehe:
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/News/CEO-Edition-48-GiByte-fuer-3499-US-Dollar-Fake-1358202/
Erbsenkönig
2020-09-16, 20:30:45
Nein, weil die Karte nicht der Nachfolger der 2080TI ist. Stark beschnitten und hoher Takt eben. Vergleiche die 3080 mit der 2070S und die Effizienz ist deutlich besser.
3070 ist viel besseres Produkt als Vergleich.
Wenn das hier so weiter geht, ist die 3080 in zwei Wochen Nachfolger der 1660.:freak:
Linmoum
2020-09-16, 20:34:22
war aber nicht rein auf gaming bezogen.Ich sag mal nicht, was unten auf der eingeblendeten Folie steht, als Jensen genau das sagt. Gaming, nix weiter. Alles andere ist aus den Fingern gesaugt.
War Marketing, war BS-Marketing von NV mit diversem overhype und fertig. Konnte jeder mit halbwegs logischem Denken erahnen. Wenn man jetzt das Ergebnis sieht auch kein Wunder, was sie da alles aufgefahren haben im Voraus.
aufkrawall
2020-09-16, 20:36:04
und zig 8gb karten mit besseren frametimes als die 10gb. und jetzt?
Das zeigt einfach nur, was ein witzloses Upgrade 10 vs. 8GB sind. Ich kann btw. auch mit 8GB über weite Strecken komplett ohne Spikes spielen. Negative Auswirkungen durch VRAM-Knappheit sind nicht immer auf Knopfdruck reproduzierbar, das muss mal in die Köpfe rein...
Gouvernator
2020-09-16, 20:38:30
Ich habe auf 8K in Ghost Recon Wildlands mit 3090 gehofft. Aber laut DF schafft 3080 dort in 4k gerade so 60 FPS. Und auch sonst alles nur ca. 2x schneller wie meine GTX1080. Das ist mir irgendwie zu wenig für 700€. Mit 20Gb VRAM - gern. Aber nicht so.
Das zeigt einfach nur, was ein witzloses Upgrade 10 vs. 8GB sind. Ich kann btw. auch mit 8GB über weite Strecken komplett ohne Spikes spielen. Negative Auswirkungen durch VRAM-Knappheit sind nicht immer auf Knopfdruck reproduzierbar, das muss mal in die Köpfe rein...
Full ack!
BigKid
2020-09-16, 20:42:14
Ich denke nicht dass Big Navi mithalten kann. Dafür müsste sie doppelt so schnell sein wie eine RX5700XT - klingt für mich nicht realistisch
Also ich wäre mich nicht so sicher... Für mich sind die 3090 wie auch die schon ab Werk an die Kotzgrenze geprügelte 3080 irgendwie danach, dass AMD zumindest in Schlagweite sein könnte...
hq-hq
2020-09-16, 20:47:22
Also ich wäre mich nicht so sicher... Für mich sind die 3090 wie auch die schon ab Werk an die Kotzgrenze geprügelte 3080 irgendwie danach, dass AMD zumindest in Schlagweite sein könnte...
so schauts aus, allerdings musste auch der Abstand zur alten Generation respektvoll sein...
wann hatte NVidia mal Grafikkarten die sich nur um 3-4% übertakten liessen... da muss es schon üble Gerüche in den Meetings gegeben haben diesen Beschluss zu fassen... natürlich könnte Samsung auch einfach deutlich unterhalb der Erwartungen rausgekommen sein, aber Geiz ist geil
Hakim
2020-09-16, 20:47:48
Bin mal sehr auf nachfolgende Test zu UV und reduziertem Powerlimit gespannt. Da gibt es ja mit Computerbase (https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt), Golem (https://www.golem.de/news/geforce-rtx-3080-im-test-doppelte-leistung-zum-gleichen-preis-2009-150508-6.html) und igorslab (https://www.igorslab.de/community/threads/nvidia-geforce-rtx-3080-founders-edition-review-ein-gro%C3%9Fer-schritt-nach-vorn-und-der-grabstein-f%C3%BCr-turing.3162/post-72763) ganz unterschiedliche Ergebnisse und Einschätzungen.
Bei einem Test meinten die das derzeit die Tools keine Spannungsänderung erlauben, nur PT lässt sich ändern (ohne Gewähr), aber kommt sicher noch
Dural
2020-09-16, 20:52:04
Also bezüglich Effizienz sehe ich nichts was AMD nicht schlagen könnte, falls denn RDNA2 da tatsächlich nochmals zugelegt hat (dies natürlich auch dank des Fertigungsvorteils gegenüber Ampere). Ampere ist nicht schlecht, ein wirklich grosser Sprung gegenüber Turing aber auch nicht - wieviel davon aufgrund der Architektur und wieviel aufgrund der Fertigung ist halt schwierig zu sagen. 12FFN war ja TSMC und 8LPP ist Samsung, und die Samsung Prozesse sollen ja nicht so toll sein.
Die 3080 hat 31% mehr leistung pro watt als die 5700xt:
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/5/#abschnitt_leistungsaufnahme_desktop_youtube_spiele
Solange navi2 nichts anderes belegt (selbe architektur, selber prozess...) ist das nur ein märrchen.
Tarkin
2020-09-16, 20:52:36
"3080 is twice the performance of 2080 at the same price". Zitat wortwörtlich von Lederjacke.
https://www.youtube.com/watch?v=E98hC9e__Xs#t=29m58s
war aber nicht rein auf gaming bezogen.
mhm... und so haben es die 99% Gamer, die dem Küchengottesdienst mit Vater Mopedjacke zugeschaut haben, sicher verstanden :rolleyes:
Jayz2cents und GN haben schon recht... nVidia macht alles besser im Marketing... oder anders ausgedrückt - sie LÜGEN besser. Danke, aber nein Danke - ein weiterer Minuspunkt auf meinem geistigen nVidia-Konto.
Echt, mir fehlen die Worte... die haun Videos raus, wo auf AMD Marketing herumgehackt wird (wo die verantwortlichen schon lange nicht mehr mehr bei AMD sind - Stichwort "Koduri-Clique") und über das Aussehen des neuen Referenz-Kühlers gelästert wird - gehts noch kindischer?
1.9x Performance pro Watt, doppelte 2080 Speed - ja ne, alles klar. Da ist die Welt dann wieder in Ordnung, kein Problem. Und 330W Verlustleistung - auch kein Problem, denn laut HWUB Steve haben wir ja eh alle schon min. 750W Netzteile im Rechner... WOW, ich bin sprachlos :mad:
Ich weiß nicht ob mir die Leute die vor 2 Wochen ihre 1200,- teure 2080ti für 500,- verkauft haben leid tun sollen oder nicht...
:confused:
Matrix316
2020-09-16, 20:52:52
"3080 is twice the performance of 2080 at the same price". Zitat wortwörtlich von Lederjacke.
https://www.youtube.com/watch?v=E98hC9e__Xs#t=29m58s
[...]
Also in UltraHD ist die 3080 ziemlich nahe auch an doppelte Performance einer 1080TI. Witcher 3 https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/25.html oder Red Dead Redemption 2 sogar mehr! https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/20.html
Dural
2020-09-16, 20:55:17
Doom auch, und es gibt noch andere beispiele...
Linmoum
2020-09-16, 20:56:54
Also in UltraHD ist die 3080 ziemlich nahe auch an doppelte Performance einer 1080TI. Witcher 3 https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/25.html oder Red Dead Redemption 2 sogar mehr! https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/20.htmlEs geht um die 2080 und nicht 1080Ti. Letztere taucht in den Tests auch nur als Krüppel-FE auf und verschenkt somit ein Stück Performance. Ganz davon ab, dass Turing besser altert und performt als Pascal.
Deine Beispiele zeigen bei TPU +70% für die 3080 ggü. der 2080. Das sind aber auch nur avg. fps und daher wenig aussagekräftig.
Ravenhearth
2020-09-16, 21:00:09
Die 3080 hat 31% mehr leistung pro watt als die 5700xt:
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/5/#abschnitt_leistungsaufnahme_desktop_youtube_spiele
Solange navi2 nichts anderes belegt (selbe architektur, selber prozess...) ist das nur ein märrchen.
Wenn RDNA2 die selbe Architektur wie RDNA1 ist, dann war Maxwell auch die selbe Architektur wie Kepler :P
Tarkin
2020-09-16, 21:00:18
Also in UltraHD ist die 3080 ziemlich nahe auch an doppelte Performance einer 1080TI. Witcher 3 https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/25.html oder Red Dead Redemption 2 sogar mehr! https://www.techpowerup.com/review/nvidia-geforce-rtx-3080-amd-3900-xt-vs-intel-10900k/20.html
und wer redet von einer 1080TI?
Mopedjacke redet in seiner Küchenpredigt von einer 2080!
und der Abstand beträgt hier im Schnitt nur ca. 66%
Dural
2020-09-16, 21:01:27
Ihr vergleicht auch mit 2080 super, jensen sagt 2080 ohne super.
Und wie schon x mal gesagt erreicht sie in doom auch die 100% und es gibt noch andere beispiele.
Linmoum
2020-09-16, 21:01:50
Wenn RDNA2 die selbe Architektur wie RDNA1 ist, dann war Maxwell auch die selbe Architektur wie Kepler :PRiesige Effizienzsprünge innerhalb desselben Prozesses kann halt nur Nvidia. Für alle anderen ist das physikalisch unmöglich. ;)
Ihr vergleicht auch mit 2080 super, jensen sagt 2080 ohne super.Ja, sage ich auch. Lesen bitte.
Und wie schon x mal gesagt erreicht sie in doom auch die 100% und es gibt noch andere beispiele.
Dann zeige uns doch mal alles auf, statt immer nur zu sagen, dass es davon gefühlte 20 Beispiele gibt.
Davon ab ist das auch völlig idiotisch, wenn im Schnitt über einen ganzen Benchmarkparcours +-60% rauskommen wie bei quasi allen Reviewern, mit irgendwas von "twice as fast" zu werben. Marketing ok, aber der Abstand ist dann doch enorm zwischen Realität und Marketing.
Leonidas
2020-09-16, 21:03:43
GeForce RTX 3080 Launchreviews: Die Testresultate zur UltraHD/4K-Performance im Überblick
https://www.3dcenter.org/news/geforce-rtx-3080-launchreviews-die-testresultate-zur-ultrahd4k-performance-im-ueberblick
Schnitt aus 18 Launchreviews und 1910 Einzeltests:
+32% vs. 2080Ti
+58% vs. 2080S
+72% vs. 2080
+83% vs. 2070S
Dural
2020-09-16, 21:06:08
Wenn RDNA2 die selbe Architektur wie RDNA1 ist, dann war Maxwell auch die selbe Architektur wie Kepler :P
Ehm nein, kepler war durch die 192sp ziemlich ineffizient...
Ihr trollt nur um, bringt mal beweise. Solange gelten die 31%
Tarkin
2020-09-16, 21:06:26
Ihr vergleicht auch mit 2080 super, jensen sagt 2080 ohne super.
Und wie schon x mal gesagt erreicht sie in doom auch die 100% und es gibt noch andere beispiele.
er sagt aber nicht in Spiel X oder Spiel Y...
er sagt einfach nur twice as fast - Punkt
und das ist eine reine Marketinglüge
PingpiN
2020-09-16, 21:06:42
Ein würdiger nachfolger für meine Geforce 1070. Da AMD da eh nicht rankommen wird,wird es wieder eine Nvidia aber mit 20 GB. 10 GB ist genau so wie 16 GB Arbeitsspeicher,es wird langsam knapp.
Dural
2020-09-16, 21:08:23
er sagt aber nicht in Spiel X oder Spiel Y...
er sagt einfach nur twice as fast - Punkt
und das ist eine reine Marketinglüge
Wenn man das so sieht ja.
Dural
2020-09-16, 21:09:40
GeForce RTX 3080 Launchreviews: Die Testresultate zur UltraHD/4K-Performance im Überblick
https://www.3dcenter.org/news/geforce-rtx-3080-launchreviews-die-testresultate-zur-ultrahd4k-performance-im-ueberblick
Schnitt aus 18 Launchreviews und 1910 Einzeltests:
+32% vs. 2080Ti
+58% vs. 2080S
+72% vs. 2080
+83% vs. 2070S
Danke, super arbeit.
sChRaNzA
2020-09-16, 21:10:31
Ein würdiger nachfolger für meine Geforce 1070. Da AMD da eh nicht rankommen wird,wird es wieder eine Nvidia aber mit 20 GB. 10 GB ist genau so wie 16 GB Arbeitsspeicher,es wird langsam knapp.
Edit:
Falsch verstanden, daher gelöscht. Den Post "verstehe" ich zwar immer noch nicht, weiß jetzt aber was gemeint ist.
PingpiN
2020-09-16, 21:11:43
Also kaufst du nichts?
Wie meinst du das? Kommt doch keine 20 GB Variante. 10 GB sind nicht Zukunftsicher.
Palpatin
2020-09-16, 21:16:18
und wer redet von einer 1080TI?
Mopedjacke redet in seiner Küchenpredigt von einer 2080!
und der Abstand beträgt hier im Schnitt nur ca. 66%
Schlechterer Treiber Support ab sofort wird das schon richten. In einem Jahr sind es dann im Schnitt 100%. NV Karten altern da eher wie frische Kuhmilch als wie Wein.
sChRaNzA
2020-09-16, 21:17:22
Wie meinst du das? Kommt doch keine 20 GB Variante. 10 GB sind nicht Zukunftsicher.
OK, ich versteh es doch nicht. Was meinst du mit "ein würdiger Nachfolger für meine 1070", aber die mit 20GB-Version, die es ja nicht gibt, weil AMD eh nicht ran kommt?
why_me
2020-09-16, 21:19:56
Irgendwie traurig, dass man das erwähnen muss, wenn es genauso kommuniziert wurde. ;D
Was bleibt denn dann bei den "Faster than 2080 TI", die für die 3070 kommuniziert wurden übrig? Ist das dann auch nur in 2 Spielen und sonst 70% der 2080 TI?
Linmoum
2020-09-16, 21:21:16
Ich kapiere immer noch nicht, warum Nvidia das Ding für 5% mehr Performance 50W mehr saufen lässt. Das kann man ja nicht einmal mehr auf den Prozess schieben, denn die 320W statt 270W sind eine Entscheidung seitens Nvidia.
insane in the membrane
2020-09-16, 21:23:04
Der vram kündigt das (notwendige) Update an, noch bevor die 3080 auf dem Markt ist. Ärgerlich, aber immerhin kompensiert NV den Aufpreis zur 3090 per Aktienkurs.
mczak
2020-09-16, 21:25:52
Die 3080 hat 31% mehr leistung pro watt als die 5700xt:
Nimmst du die 5700 (ohne XT) als Vergleich schmilzt der Vorsprung auf praktisch Null:
https://www.igorslab.de/nvidia-geforce-rtx-3080-founders-edition-review-ein-grosser-schritt-nach-vorn-und-der-grabstein-fuer-turing/11/
Es ist ja bekannt dass AMD die meisten Karten bis an die Kotzgrenze (im Falle von Polaris auch weit darüber hinaus...) pusht. Gut auch die 3080 läuft jetzt offensichtlich nicht gerade im Sweetspot, aber solange es keine anderen Ampere Karten gibt ist das halt der einzige Referenzpunkt.
Und abgesehen davon hat AMD ja Effizienzsteigerungen für RDNA2 versprochen, und zumindest bis jetzt scheint es als wäre das nicht gelogen (wenn man die Konsolen als Ansatzpunkt nimmt).
MartinRiggs
2020-09-16, 21:38:02
Also ich habe mich heute Abend als ich heimkam köstlich amüsiert, vor ein paar Tagen 2080Ti Panikverkäufe und wofür?
Eine VRAM-Krüppel Grafikkarte mit miesem Samsung 8nm Chip an der Kotzgrenze und ein sehr aufwendiges Dual-Slot Design was trotzdem überfordert und laut ist.:rolleyes:
Hauwech
2020-09-16, 21:43:10
Nimmst du die 5700 (ohne XT) als Vergleich schmilzt der Vorsprung auf praktisch Null:
https://www.igorslab.de/nvidia-geforce-rtx-3080-founders-edition-review-ein-grosser-schritt-nach-vorn-und-der-grabstein-fuer-turing/11/
Es ist ja bekannt dass AMD die meisten Karten bis an die Kotzgrenze (im Falle von Polaris auch weit darüber hinaus...) pusht. Gut auch die 3080 läuft jetzt offensichtlich nicht gerade im Sweetspot, aber solange es keine anderen Ampere Karten gibt ist das halt der einzige Referenzpunkt.
Und abgesehen davon hat AMD ja Effizienzsteigerungen für RDNA2 versprochen, und zumindest bis jetzt scheint es als wäre das nicht gelogen (wenn man die Konsolen als Ansatzpunkt nimmt).
Gilt vielleicht für die XBox als APU die mit genau einer Frequenz läuft, aber ist das auch auf eine dedizierte Karte übertragbar? Und was der GPU-Teil der APU genau, oder von bis zieht, weiss auch keiner so richtig.
Troyan
2020-09-16, 21:43:58
Was bleibt denn dann bei den "Faster than 2080 TI", die für die 3070 kommuniziert wurden übrig? Ist das dann auch nur in 2 Spielen und sonst 70% der 2080 TI?
Das bewerben sie überall:
GeForce RTX 3070 — Starting at $499, the RTX 3070 is faster than the RTX 2080 Ti at less than half the price, and on average is 60 percent faster than the original RTX 2070. It is equipped with 8GB of GDDR6 memory, hitting the sweet spot of performance for games running at 4K and 1440p resolutions.
https://nvidianews.nvidia.com/news/nvidia-delivers-greatest-ever-generational-leap-in-performance-with-geforce-rtx-30-series-gpus
Vollkommen anders als die 3080 gegenüber der 2080.
Ex3cut3r
2020-09-16, 21:50:47
Also ich habe mich heute Abend als ich heimkam köstlich amüsiert, vor ein paar Tagen 2080Ti Panikverkäufe und wofür?
Eine VRAM-Krüppel Grafikkarte mit miesem Samsung 8nm Chip an der Kotzgrenze und ein sehr aufwendiges Dual-Slot Design was trotzdem überfordert und laut ist.:rolleyes:
Viele haben sich halt von YouTube Lederjacke Video verwirren lassen. "Twice the performance" und dann diese Preise....da dachten viele, muss ich haben, was bleibt übrig, gute Performance aber halt mieser VRAM.
arcanum
2020-09-16, 21:53:37
die 3080 ist ungefähr da gelandet, wo man sie anhand der vorab-benchmarks einordnen konnte. auf 270w beschränkt bringt sie 25% mehr leistung als eine 2080ti die vor einem monat neu noch 1200+€ gekostet hat. gemessen an der 3080 dürfte die 2080ti neu nicht mehr als 550€ wert sein und gebraucht entsprechend mit abzug 400-450€. trotzdem wird die 2080ti gelobt und die 3080 geschunden.
was hätte die 3080 zu welchem preis leisten müssen, damit es eine gute enthusiasten-karte ist?
Platos
2020-09-16, 21:54:44
@ Raff / PCGH: Hut ab, so stelle ich mir ein Benchmark vor. Ich habe ihn noch nicht ganz durch, aber schonmal löblich, dass ihr so viele Games getestet habt!
Aber eine Frage: Was ist denn bei The Witcher 3 Los? Hatte das schon immer solche miesen min. Framerates? Das ist ja schlimm.
Und noch eine Frage: Gibt es auch 5k/8k Benches ? Mich würde interessieren, wie es so mit dem Speicher aussieht. Oder kommt dass dann da?
Wir arbeiten gerade an einer großen Messreihe, welche das Thema Grafikspeicher mit Fokus auf 10 und 11 GiByte Kapazität beleuchtet.
Ravenhearth
2020-09-16, 21:55:20
Ich kapiere immer noch nicht, warum Nvidia das Ding für 5% mehr Performance 50W mehr saufen lässt. Das kann man ja nicht einmal mehr auf den Prozess schieben, denn die 320W statt 270W sind eine Entscheidung seitens Nvidia.
Nvidia mutiert zu AMD ;D
- Rechenstarke Architektur mit Auslastungsschwierigkeiten
- 300W+ Verbrauch
- Man ruiniert die Effizienz für 4% mehr Leistung
Das bewerben sie überall:
https://nvidianews.nvidia.com/news/nvidia-delivers-greatest-ever-generational-leap-in-performance-with-geforce-rtx-30-series-gpus
Vollkommen anders als die 3080 gegenüber der 2080.
Das glaub ich auch erst, wenn ichs seh. Laut der PCGH hat Ampere keine Verbesserungen bei der Bandbreiteneffizienz. Aber statt 616 GB/s hat die 3070 nur 448 GB/s. Das kann nicht folgenlos bleiben. Zumal die 3070 in Nvidias Schaubild exakt auf Höhe der 2080 Ti war und nicht darüber, und das schon bei der 3080 eher das Optimum dargestellt hat. Hmm...
Flusher
2020-09-16, 21:56:05
Wieso genau wird hier eigentlich die ganze Zeit davon gefaselt die FE wäre laut? Von dem was ich bisher gelesen hab zeichnet sich eher ein durchwachsenes Bild. Manche loben den Kühler, andere halten ihn für etwas laut.
Ex3cut3r
2020-09-16, 21:56:29
@ Raff / PCGH: Hut ab, so stelle ich mir ein Benchmark vor. Ich habe ihn noch nicht ganz durch, aber schonmal löblich, dass ihr so viele Games getestet habt!
Aber eine Frage: Was ist denn bei The Witcher 3 Los? Hatte das schon immer solche miesen min. Framerates? Das ist ja schlimm.
Und noch eine Frage: Gibt es auch 5k/8k Benches ? Mich würde interessieren, wie es so mit dem Speicher aussieht. Oder kommt dass dann da?
Das liegt an der PCGH ueber Config für Witcher 3. Steht auch im Benchmark oben bei "Details"
Platos
2020-09-16, 21:58:29
Das liegt an der PCGH ueber Config für Witcher 3. Steht auch im Benchmark oben bei "Details"
Hä, haben die da ne Mod benutzt ?
Edit: Ja, ist ne Mod. Kein Wunder, läuft das so beschissen. Mods haben auch oft grauenhafte Perfomance. + HD Reworked Project 11
Ex3cut3r
2020-09-16, 21:58:49
Ja, das auch.
Dural
2020-09-16, 21:59:22
Pc welt video
https://youtu.be/4cGY1Jaq5UA
Linmoum
2020-09-16, 22:00:42
Da Nvidia die 3080 als neues Flaggschiff präsentiert, kann man auch Flaggschiff-Vergleiche mit der Vorgängergeneration anstellen. Ampere bietet dahingehend im Vergleich zu Turing also (Grundlage Perf und Perf/Watt CB-Index):
- ein leicht geringeres Performanceplus als von Pascal zu Turing (+31% statt +35%)
- weniger Speicher als von Pascal zu Turing (statt beide 11GiB runter auf 10GiB)
- deutlich geringere Perf/Watt-Steigerung (+10% (von 2080Ti auf 3080) statt +24% (von 1080Ti auf 2080Ti))...
... und das alles trotz besserer Fertigung.
Ex3cut3r
2020-09-16, 22:02:46
Samsung hat halt nicht so viel drauf wie TSMC, deren Exynos SOC ist auch immer dem SOC von Qualcomm unterlegen, sowohl von der Performance halt auch vom Stromverbrauch. Sasmung ist ist nur der beste beim RAM/VRAM/NVME/SSD. :D
Dural
2020-09-16, 22:16:00
Laut pc welt grösster leistungs sprung seit min. kepler.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.