PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - verfrühter GeForce RTX 3080 Review-Thread (mit viel Spam)


Seiten : [1] 2 3

dildo4u
2020-09-01, 19:55:47
https://live.staticflickr.com/65535/50294416368_4693b125ba_o.png (https://flic.kr/p/2jCm2KN)specs (https://flic.kr/p/2jCm2KN) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://videocardz.com/newz/nvidia-announces-geforce-rtx-3090-rtx-3080-and-rtx-3070


Erste Werte auf der Website: https://www.eurogamer.net/articles/digitalfoundry-2020-hands-on-with-nvidia-rtx-3080

DF hat echte Zahlen die Games wurden aber von Nvidia vorgegeben und ja er testet auch 4k ohne DLSS oder RTX

Borderlands 3,Shadow of the Tombraider,Battlefield 5,Doom Eternal,Control 4k ohne RTX oder DLSS.
Danach Control und Quake 2 mit RTX.


Er testet mit Intel kein PCI-E 4.0!

cWD01yUQdVA

crux2005
2020-09-01, 20:04:09
Schaue gerade die NV Presentation:

E98hC9e__Xs

:up:

Aber die Leistung ist ja sehr gut. +80% in Borderlands 3, +100% in Doom Eternal. Habe ich echt nicht erwartet.

Matrix316
2020-09-01, 20:08:52
Na gut von mir aus, wirds halt eine 3080. Aber hätte man statt 10 nicht einfach 12 GB RAM machen können, wenn die 3090 dann 24 hat? Aber da denkt ja keiner dran. :ugly:

crux2005
2020-09-01, 20:19:09
Also hat Ampere doch doppelt so viele CUDA Cores pro CU wie Turing?
Das wurde schon eine Weile vor Release von Kopi spekuliert.

Lowkey
2020-09-01, 20:22:01
Die Karte bei DF ist eine 2080 FE, aber keine 2080 Super?

3090-FE ~450%
3080-FE ~307%-344%
3070-FE ~250%
2080Ti-FE 236%
2080Ti-Ref 228%
2080S 198%
2080-FE 186%
2080-Ref 180%

Akkarin
2020-09-01, 20:23:25
DF kommt damit im durchschnitt auf ziemlich genau +80% ggü. der 2080 (ohne S?). Das ist gut, aber vom product stack her konkuriert sie eher mit der 2080TI, und auch Preislich ist man noch über der 2080S angesiedelt. D.h. man liegt etwa +42.5% vor der 2080TI. Evt. sogar weniger, wenn eine größere Anzahl an Spielen getestet wird die nicht von nVidia vorgegeben ist.

Das ist schon ziemlich gut, aber ich verstehe den Hype nicht so ganz ?

Raff
2020-09-01, 20:29:07
Wundert sich niemand, warum die das machen dürfen, während der Rest der Welt Videos schauen muss? Bei Previews sind doch gerade im Kontext Nvidia immer alle so paranoid. :ugly:

MfG
Raff

Lowkey
2020-09-01, 20:29:10
DF kommt damit im durchschnitt auf ziemlich genau +80% ggü. der 2080 (ohne S?). Das ist gut, aber vom product stack her konkuriert sie eher mit der 2080TI, und auch Preislich ist man noch über der 2080S angesiedelt. D.h. man liegt etwa +42.5% vor der 2080TI. Evt. sogar weniger, wenn eine größere Anzahl an Spielen getestet wird die nicht von nVidia vorgegeben ist.

Das ist schon ziemlich gut, aber ich verstehe den Hype nicht so ganz ?


Die 2080Ti war keine 4k Karte und die 3080 ist schon mit 10Gb auf 4k Level. Die 3090 dürfte auch im Flusi die 60fps bei 4k halten, also ist die erste echte 4k + 60fps Karte.

dildo4u
2020-09-01, 20:31:22
Wundert sich niemand, warum die das machen dürfen, während der Rest der Welt Videos schauen muss? Bei Previews sind doch gerade im Kontext Nvidia immer alle so paranoid. :ugly:

MfG
Raff
Er sagt im Video das man auf Finale Tests warten soll immerhin lassen sie ihn ohne RTX testen das ist schon mal was.

Raff
2020-09-01, 20:32:29
Ich find's halt trotzdem etwas halbseiden und unfair. Wenn das hierzulande jemand mächte, gäb's einen Exkrementsturm der würzigsten Sorte, jede Wette.

MfG
Raff

Digidi
2020-09-01, 20:34:48
@Raff gibt es denn Details zu den restlichen Specs? Rops GPC Rasterizer etc?

Matrix316
2020-09-01, 20:39:34
Ich find's halt trotzdem etwas halbseiden und unfair. Wenn das hierzulande jemand mächte, gäb's einen Exkrementsturm der würzigsten Sorte, jede Wette.

MfG
Raff
Naja, die Video sind halt so ähnlich wie die Präsentationsfolien: 180% schneller = 18 statt 10 FPS oder so. ;)

iamthebear
2020-09-01, 20:53:18
Ich vermute einmal, dass er die Erlaubnis von Nvidia hat das Ganze so zu zeigen. Falls nicht wäre das echt mutig.

Ansonsten muss ich sagen, dass ich von der 3080 vom Preis echt positiv überrascht bin. Müsste es nur mehr 20GB ohne viel Aufpreis geben...

Fetza
2020-09-01, 21:01:00
Aber die Leistung ist ja sehr gut. +80% in Borderlands 3, +100% in Doom Eternal. Habe ich echt nicht erwartet.


Die Leistung ist einfach nur krass - und zwar bei jedem Derivat! Ganz ehrlich, vor dem Hintergrund der pornrösen Leistungsfähigkeit von Ampere kann ich mich etwas über den mikrigen RAM-Ausbau ärgern!

Bei den Karten stimmt dieses Mal wirklich alles, bis auf den RAM-Ausbau.

Ich find's halt trotzdem etwas halbseiden und unfair. Wenn das hierzulande jemand mächte, gäb's einen Exkrementsturm der würzigsten Sorte, jede Wette.

MfG
Raff

Naja, für einen Hardware-Journalisten ist das ganz sicher eine Zumutung. Haben die NV für einen Exklusivdeal bezahlt? Ich meine dass was die so an NV abdrücken könnten, kann doch in NVs Augen nur lächerlich wirken.

Troyan
2020-09-01, 21:10:58
Hatte Digitalfoundry doch bei Microsoft auch. Anscheinend ist deren Youtube-Channel so groß, dass es für die Firmen Sinn macht dort exklusive Deals einzugehen.

Verstehe ich auch nicht, aber so ist nunmal das Leben.

aufkrawall
2020-09-01, 21:11:57
Sie haben halt RT in der öffentlichen Wahrnehmung breitgetreten, wovon Nvidia profitiert hat. Ist es deshalb fair? Eher nicht. Aber eine Erklärung? Jedenfalls plausibel.

crux2005
2020-09-01, 21:19:42
Die Leistung ist einfach nur krass - und zwar bei jedem Derivat! Ganz ehrlich, vor dem Hintergrund der pornrösen Leistungsfähigkeit von Ampere kann ich mich etwas über den mikrigen RAM-Ausbau ärgern!

Bei den Karten stimmt dieses Mal wirklich alles, bis auf den RAM-Ausbau

Ja. Oder über den kauf einer Turing ärgern. :biggrin:

Werde auf AMD und die 20 GiB 3080 warten. Alles andere macht IMHO keinen Sinn.

Ex3cut3r
2020-09-01, 21:20:47
Sie haben halt RT in der öffentlichen Wahrnehmung breitgetreten, wovon Nvidia profitiert hat. Ist es deshalb fair? Eher nicht. Aber eine Erklärung? Jedenfalls plausibel.

Naja, sie lassen ja immer mal wieder Ryzen CPUs sehr schlecht darstehen. (Ob gewollt oder nicht) Aber bei AMD haben Sie erstmal verkackt. :biggrin:

crux2005
2020-09-01, 21:21:39
Naja, sie lassen ja immer mal wieder Ryzen CPUs sehr schlecht darstehen. (Ob gewollt oder nicht) Aber bei AMD haben Sie erstmal verkackt. :biggrin:

Glaube ich nicht.

r3ptil3
2020-09-01, 21:23:26
Weiss man denn schon wann das NDA fallen "könnte"? Erst am 17.09?

Ex3cut3r
2020-09-01, 21:25:54
Glaube ich nicht.

Was denn jetzt genau? Das Ryzen bei ihnen immer mal wieder stottern, oder das AMD bei Ihnen verkackt hat?

crux2005
2020-09-01, 21:26:44
Was denn jetzt genau? Das Ryzen bei ihnen immer mal wieder stottern, oder das AMD bei Ihnen verkackt hat?

Das sie bei AMD verkackt haben. :)

Ex3cut3r
2020-09-01, 21:31:17
Das sie bei AMD verkackt haben. :)
Ah ok. Das kann gut sein. :wink:

JaniC
2020-09-01, 22:34:33
Der Preis ist krass für die 3080.
Nagut, neues Netzteil wird auch fällig.
Da rächt es sich, wenn man immer nur vernünftig gekauft hat und nicht übertrieben.
550W werden eng, erst Recht mit meinem Intel OC. Damn.

Lowkey
2020-09-01, 22:35:33
Netzteile verkaufen sich nicht so schlecht.

Matrix316
2020-09-01, 23:25:22
Also wenn das Ding wirklich so schnell ist... https://twitter.com/LinusTech/status/1300833836012453890/photo/1

Hui ui ui!

Fetza
2020-09-01, 23:36:29
Ja. Oder über den kauf einer Turing ärgern. :biggrin:

Werde auf AMD und die 20 GiB 3080 warten. Alles macht IMHO keinen Sinn.

Naja, meine 2080 hatte ich mir ja im Januar/Februar 2019 für 620 Euro geleistet. Von daher ist das für mich noch ok, aber wer erst vor kurzem bei Turing zugeschlagen hat kann sich natürlich ärgern.

Ja, also wenn dann wird es für mich wohl auch die 20 GB Variante. :) Andererseits bin ich für meine 3840x1080 Auflösung auch noch mit Turing ausreichend gut bedient.

redfirediablo
2020-09-01, 23:56:20
Wundert sich niemand, warum die das machen dürfen, während der Rest der Welt Videos schauen muss? Bei Previews sind doch gerade im Kontext Nvidia immer alle so paranoid. :ugly:

MfG
Raff

Das der DF "Test" so als "neutral" und "unabhängig" abgefeiert wird (gerade auch bei CB im Forum) finde ich dann doch äußerst interessant.

Natürlich ist das eine reine Marketingaktion bei der DF genau vorgegeben bekommen hat, was Sie testen dürfen und was nicht. Im Gegenzug gibt es massig Clicks weil alle anderen weiterhin unter NDA stehen.

Das die Aktion aber genau diesen Zweck wunderbar erfüllt erkennt man an den unreflektierten Reaktionen und dem wiederholten posten des Videos, wenn jemand anmerkt dass es noch keine unabhängigen Tests ohne RTX gibt.

Fetza
2020-09-02, 00:14:04
Das der DF "Test" so als "neutral" und "unabhängig" abgefeiert wird (gerade auch bei CB im Forum) finde ich dann doch äußerst interessant.

Natürlich ist das eine reine Marketingaktion bei der DF genau vorgegeben bekommen hat, was Sie testen dürfen und was nicht. Im Gegenzug gibt es massig Clicks weil alle anderen weiterhin unter NDA stehen.

Das die Aktion aber genau diesen Zweck wunderbar erfüllt erkennt man an den unreflektierten Reaktionen und dem wiederholten posten des Videos, wenn jemand anmerkt dass es noch keine unabhängigen Tests ohne RTX gibt.

Die Leute lesen doch nicht nur ein Blatt. Wenn da später Werte nicht stimmen sollten, wird DF seine Reputation verlieren.

Rumbah
2020-09-02, 00:26:35
Irgendwie scheint sich ja entgegen der Folien nicht soo viel bei der Effizienz getan zu haben, selbst wenn die 3080 im Vergleich zur 2080 ca. 80% schneller ist (und wegen der "merkwürdigen" Testumstände gehe ich mal davon aus, dass das eher das Maximum sein sollte).

Dafür darf sie ja auch laut Datenblatt ca. 42% mehr Strom verbraten (wenn die Vergleichs 2080 die FE mit 225W ist), damit ergibt sich ja im Bestfall eine Effizienzsteigerung von ca. 26% .

Der gleich Wert würde sich auch etwa ergeben, wenn man die 3070 etwa 10% schneller als eine 2080Ti einordnet, mit TDP von 250 zu 220 (bei Performancegleichstand der beiden Karten wär es nur ca. 14% Perf/W Gewinn).

crux2005
2020-09-02, 00:46:27
Naja, meine 2080 hatte ich mir ja im Januar/Februar 2019 für 620 Euro geleistet. Von daher ist das für mich noch ok, aber wer erst vor kurzem bei Turing zugeschlagen hat kann sich natürlich ärgern.

Ja, also wenn dann wird es für mich wohl auch die 20 GB Variante. :) Andererseits bin ich für meine 3840x1080 Auflösung auch noch mit Turing ausreichend gut bedient.

Ich habe 2 Monate früher für 200€ mehr gekauft. Auf jeden Fall wäre der Sprung von 2080 auf 3080 schon ordentlich. Aber aktuell brauche ich die GPU Leistung eigentlich nicht. Die Spiele die schlecht laufen werden auch mit 3080 nicht besser laufen (HZD, FS2020 etc.). Die Spiele wo ich mir vorstellen kann die extra Leistung zu brauchen sind noch nicht erschienen (u. a. Cyberpunk).

dildo4u
2020-09-02, 02:55:05
Das der DF "Test" so als "neutral" und "unabhängig" abgefeiert wird (gerade auch bei CB im Forum) finde ich dann doch äußerst interessant.

Natürlich ist das eine reine Marketingaktion bei der DF genau vorgegeben bekommen hat, was Sie testen dürfen und was nicht. Im Gegenzug gibt es massig Clicks weil alle anderen weiterhin unter NDA stehen.

Das die Aktion aber genau diesen Zweck wunderbar erfüllt erkennt man an den unreflektierten Reaktionen und dem wiederholten posten des Videos, wenn jemand anmerkt dass es noch keine unabhängigen Tests ohne RTX gibt.
Ich hätte ehrlich gesagt bessere Werte erwartet gerade was reines Pathtracing angeht, wird interessant wo dort das Bottleneck liegt.

Hardware Unboxed ist das auch aufgefallen.

https://youtu.be/j8XJvIWAcP0?t=838

Leonidas
2020-09-02, 07:15:41
Erste Werte auf der Website: https://www.eurogamer.net/articles/digitalfoundry-2020-hands-on-with-nvidia-rtx-3080

DF hat echte Zahlen die Games wurden aber von Nvidia vorgegeben und ja er testet auch 4k ohne DLSS oder RTX

Borderlands 3,Shadow of the Tombraider,Battlefield 5,Doom Eternal,Control 4k ohne RTX oder DLSS.
Danach Control und Quake 2 mit RTX.


Entspricht nahezu den nVidia-eigenen Benchmarks:
https://www.3dcenter.org/dateien/abbildungen/nVidia-Ampere-nVidia-eigene-Benchmarks-4.jpg

horn 12
2020-09-02, 08:00:33
Alles Games mit DLSS und/ oder RTX
Das Gegenteil wird interessant werden!

dildo4u
2020-09-02, 08:01:46
Alles Games mit DLSS und/ oder RTX
Das Gegenteil wird interessant werden!
Gucke dir das Video im ersten Post an er testet 5 Games ohne RTX/DLSS.

Grendizer
2020-09-02, 08:04:10
Borderlands und SOTTR ohne DLSS +70% bei Ampere ... aber das sind vermutlich auch die Sahnestücke. Ich warte mal auf die echten Tests Ende des Monats.... Kaufen werde ich eh erst zum 27.10 .... wenn WoW Shadowlands mit RTX On kommt :biggrin:

dildo4u
2020-09-02, 08:09:04
Shadowlands wird einfach CPU Limitiert sein mit Ampere.

https://youtu.be/PzU5_8JF8g0


Nicht vergessen wird sind immer noch bei Skylake IPC bei den CPUs, die neuen GPUs sind einfach zu potent.

horn 12
2020-09-02, 08:12:42
Ja, aber alle NV optimierte Games, auch ohne RTX wird sich dies bemerkbar machen.

Grendizer
2020-09-02, 08:14:57
Shadowlands wird einfach CPU Limitiert sein mit Ampere.

https://youtu.be/PzU5_8JF8g0


Nicht vergessen wird sind immer noch bei Skylake IPC bei den CPUs, die neuen GPUs sind einfach zu potent.


Ja ... ich will nur endlich einen Grund haben meine 1080 bei 4k in Rente zu schicken :biggrin:

Rancor
2020-09-02, 08:24:10
Naja, meine 2080 hatte ich mir ja im Januar/Februar 2019 für 620 Euro geleistet. Von daher ist das für mich noch ok, aber wer erst vor kurzem bei Turing zugeschlagen hat kann sich natürlich ärgern.


Joa Dito. Ich warte auch erstmal auf Big Navi. Ich habe mit der 2080 keine Not. In 1440p läuft jedes Game bsher absolut top.
Aber die 3080 ist schon eine feine Karte, noch feiner wäre Sie mit mehr RAM. Ich denke die 10 GB Variante werde ich mir so oder so nicht holen.

anorakker
2020-09-02, 08:33:36
Mal sehen, ich warte vllt. mal wieder auf einen berühmten Preisfehler - ich sage nur: 527€ :biggrin:

NikLaw
2020-09-02, 08:43:56
Ich nehm die Karte und spiele alles mit 144 FPS in 2560x1080! Endlich ACC mit 120 FPS auf Epic Quality! Mal sehen wie lange der gute alte 8700K das mitmacht...

JVC
2020-09-02, 08:54:18
Der Preis überrascht dann doch positiv (abgesehen von der 3090)

Die 3080 mit 20Gb könnte passen :)

Jetzt muss AMD noch zeigen, dann wird gewählt ;)

M.f.G. JVC

NikLaw
2020-09-02, 09:28:05
Schön ist auch wie jetzt über ebay Kleinanzeigen alle ihre 2080 und Co für Mondpreise versuchen loszuschlagen. Selbst 400 EUR für eine 2080 super finde ich noch zuviel, wenn nächsten Monat die 3070 für 500 EUR kommt.

Angemessen fände ich:

2060 super: 150 EUR
2070 super: 200 EUR
2080 super: 300 EUR

Und wer kauft jetzt die Karten noch neu? Da müssten ja auch die Preise fallen...

Daredevil
2020-09-02, 09:52:38
Und so eine RX5600 bekommt man dabei, wenn man WoW Shadownlands kauft?

sven2.0
2020-09-02, 10:05:56
Schön ist auch wie jetzt über ebay Kleinanzeigen alle ihre 2080 und Co für Mondpreise versuchen loszuschlagen. Selbst 400 EUR für eine 2080 super finde ich noch zuviel, wenn nächsten Monat die 3070 für 500 EUR kommt.

Angemessen fände ich:

2060 super: 150 EUR
2070 super: 200 EUR
2080 super: 300 EUR

Und wer kauft jetzt die Karten noch neu? Da müssten ja auch die Preise fallen...

Lol, ist ja wohl kein Wunschkonzert.

arcanum
2020-09-02, 10:55:53
Schön ist auch wie jetzt über ebay Kleinanzeigen alle ihre 2080 und Co für Mondpreise versuchen loszuschlagen. Selbst 400 EUR für eine 2080 super finde ich noch zuviel, wenn nächsten Monat die 3070 für 500 EUR kommt.

Angemessen fände ich:

2060 super: 150 EUR
2070 super: 200 EUR
2080 super: 300 EUR

Und wer kauft jetzt die Karten noch neu? Da müssten ja auch die Preise fallen...

gibt halt viele die keine ahnung haben dass nvidia neue karten vorgestellt hat. sobald ampere kaufbar ist, sollten sich auch die gebrauchtpreise ca. in deinen schätzungen wiederspiegeln (+/-30€).

MasterElwood
2020-09-02, 11:52:03
Ich habe mit der 2080 keine Not. In 1440p läuft jedes Game bsher absolut top.


FS2020: Hold my Beer ;D

MasterElwood
2020-09-02, 11:55:55
die neuen GPUs sind einfach zu potent.

Ich kenn das Problem :naughty:

L233
2020-09-02, 13:26:37
Ich bin ja mal gespannt wie sich der Kühler der 3080 FE mit seiner eher moderaten Länge (285mm) gegen die Brute-Force-3-Lüfter-Hoschis der Fremdhersteller schlägt.

Sardaukar.nsn
2020-09-02, 14:20:27
Die Wasserkühlungen stehen schon in den Startlöchern

So könnte schon mal der EKWB Wasserblock aussehen:

https://i.imgur.com/1X9RJF7.jpg

https://www.ekwb.com/nvidia/?fbclid=IwAR2y6rpwJhIynktRoWSOmXeOt1KR24hMZq0dpLWmS1-O_Eo7QsP3V8FMo_4

https://i.imgur.com/E0UKzxN.jpg

Marodeur
2020-09-02, 14:31:55
Also auf der Kühllösung die ja scheinbar sooooo viel toller sein soll reiten sie ja auch gut rum. Bin da auf die Tests schon gespannt was sie dann wirklich taugt.

Ich "brauch" die Karte ja vor allem für die ganzen neuen Spielereien, hab noch einen 1070. Bin grad froh die 20er Serie übersprungen zu haben. Die Frage ist für mich dann 3070 oder 3080. Die 2 GB mehr Grafikspeicher wird das Kraut vermutlich nicht fett machen. Mal die Tests mit "all enabled" abwarten.

Nachdem ich keine Collectors Edition ergattert habe werde ich wohl eh auf ein Bundle mit Cyperpunk warten das ich eh kaufen will. Da gibts bestimmt ein Bundle bei der Werbung mit dem Spiel...

Hakim
2020-09-02, 16:10:28
Frage mich ob mein 600W NT den 3080 mitmachen würde. Wahrscheinlich schon, aber nicht mehr mit viel Spielraum

Sardaukar.nsn
2020-09-02, 16:46:50
Frage mich ob mein 600W NT den 3080 mitmachen würde. Wahrscheinlich schon, aber nicht mehr mit viel Spielraum

Klar warum nicht. Ich werde auch erstmal bei meinem 550W Seasonic Gold bleiben.

Rancor
2020-09-02, 16:51:43
FS2020: Hold my Beer ;D

Das spiele ich nicht :D

sven2.0
2020-09-02, 17:03:56
Also auf der Kühllösung die ja scheinbar sooooo viel toller sein soll reiten sie ja auch gut rum. Bin da auf die Tests schon gespannt was sie dann wirklich taugt.


Das wird doch wieder reines Marketingblabla sein.. 350Watt per Luft wegkühlen wird kein Spass, imho führt da kaum ein Weg an Wasser vorbei.

Daredevil
2020-09-02, 17:06:08
Das wird doch wieder reines Marketingblabla sein.. 350Watt per Luft wegkühlen wird kein Spass, imho führt da kaum ein Weg an Wasser vorbei.
Du bist im falschen Thread zum trollen

Marodeur
2020-09-02, 17:14:42
Meine GTX 1070 Ultimate von Manli mit dem fetten Kühler der 1080 dreht nur sehr selten hoch, bei vielen Spielen die sie nicht dauernd zu 99% auslasten bleiben die Lüfter auf Standgas. Von daher hab ich mit gut gemachter Luftkühlung keine Probleme.

sven2.0
2020-09-02, 17:17:28
Meine GTX 1070 Ultimate von Manli mit dem fetten Kühler der 1080 dreht nur sehr selten hoch, bei vielen Spielen die sie nicht dauernd zu 99% auslasten bleiben die Lüfter auf Standgas. Von daher hab ich mit gut gemachter Luftkühlung keine Probleme.

168W TDP laut Geizhals, riesiger Kühler vs. 350W u. moderater Kühler.. mal davon abgesehen das man das auch aus dem Gehäuse bringen muss.

Marodeur
2020-09-02, 17:19:08
Warum vergleichst jetzt die 1070 mit der Angabe der 3090 die ich gar nicht zur Wahl stellte? ^^

Hauptaugenmerk liegt bei mir erst einmal bei der 3070, da reden wir von 50-70 Watt mehr. Das könnt schon gehen.

maximus_hertus
2020-09-02, 17:27:51
Die Leistung ist einfach nur krass - und zwar bei jedem Derivat! Ganz ehrlich, vor dem Hintergrund der pornrösen Leistungsfähigkeit von Ampere kann ich mich etwas über den mikrigen RAM-Ausbau ärgern!

Bei den Karten stimmt dieses Mal wirklich alles, bis auf den RAM-Ausbau.


Erstmal unabhängige Tests abwarten. Sollten sich 300+ Watt (Realverbrauch) bewahrheiten, wäre das ein böser brauner Fleck.

Und bei der Leistung will ich mal eine größere Spieleauswahl sehen. In 5 Wochen werde ich als alter PCGH Abo Leser mir in Ruhe alles analysieren und einen Parcours mit sehr vielen Spielen begutachten können.

Nehmen wir mal an, die 20GB 3080 liegt dann bei 850+ Euro, dann sieht das irgendwie nicht mehr sooo schön aus. Wenn man dann wirklich über 300W Verbrauch hat, dann noch weniger.

Die 699 Euro sind sicher ein schöner Preis, aber die 10GB sind irgendwie "meh". Nicht extrem schlecht, aber bei 700 Euro bzw. mehr bei guten Customs, will ich schon mehr sehen. Entweder um die Karte selber ein paar Jahre zu nutzen oder um einen relativ guten Wiederverkaufswert zu haben.

Aber wie gesagt, warten wir die nächsten Wochen ab, vor allem bis die unabhängigen Tests da sind.

Sardaukar.nsn
2020-09-02, 17:33:33
Also die große ASUS 3090 bekommt schon mal 3x8Pin Stromanschluss und 400W TDP. Gut möglich das die 3080er Custom Variante zwischen 350-375W TDP liegt.

Quelle: https://www.thefpsreview.com/2020/09/02/asus-rog-strix-geforce-rtx-3090-to-feature-increased-tdp-and-third-power-connector/

Railer
2020-09-02, 17:42:03
Meine MSI 2080TI Gaming X Trio verbrät mit Werksübertaktung 330 Watt und sie werden komplett problemlos weggekühlt bei subjektiv sehr annehmbarer Lautstärke. 350 Watt luftzukühlen sollte nicht das ultimative Problem sein.

just4FunTA
2020-09-02, 17:47:40
Erstmal unabhängige Tests abwarten. Sollten sich 300+ Watt (Realverbrauch) bewahrheiten, wäre das ein böser brauner Fleck.

Und bei der Leistung will ich mal eine größere Spieleauswahl sehen. In 5 Wochen werde ich als alter PCGH Abo Leser mir in Ruhe alles analysieren und einen Parcours mit sehr vielen Spielen begutachten können.

Nehmen wir mal an, die 20GB 3080 liegt dann bei 850+ Euro, dann sieht das irgendwie nicht mehr sooo schön aus. Wenn man dann wirklich über 300W Verbrauch hat, dann noch weniger.

Die 699 Euro sind sicher ein schöner Preis, aber die 10GB sind irgendwie "meh". Nicht extrem schlecht, aber bei 700 Euro bzw. mehr bei guten Customs, will ich schon mehr sehen. Entweder um die Karte selber ein paar Jahre zu nutzen oder um einen relativ guten Wiederverkaufswert zu haben.

Aber wie gesagt, warten wir die nächsten Wochen ab, vor allem bis die unabhängigen Tests da sind.

Also mich stören die 10gb vram schon mehr als die 300watt

Daredevil
2020-09-02, 17:48:08
Meine MSI 2080TI Gaming X Trio verbrät mit Werksübertaktung 330 Watt und sie werden komplett problemlos weggekühlt bei subjektiv sehr annehmbarer Lautstärke. 350 Watt luftzukühlen sollte nicht das ultimative Problem sein.
Und die Trio hat nicht mal so etwas wie ne Vapor Chamber, oder son Graphit Pad. Da ist noch Luft nach oben.
Zudem soll die Platine ja deutlich dicker sein, was besser die Wärme abtransportiert. ( Also die FE )

@sven
350w sind immer noch falsch

MadManniMan
2020-09-02, 17:52:01
Hartes Cherrypicking, das wir nV da durchgehen lassen.

Es ist krass, wie sehr sie den Ersteindruck damit diktieren können. Ich sage nicht, dass es keine tollen Karten sind - aber mir gefällt ganz und gar nicht, wie sehr der DF-Exclusive die Berichterstattung dominiert. (obwohl ich DF sehr schätze)

Fusion_Power
2020-09-02, 17:53:48
Hach, wenn sie doch nur mal den Stromverbrauch solcher Boliden angehen würden. Wer sich so ne Karte leisten kann, dem sind Stromkosten zwar vermutlich egal, aber elegant geht anders. Zumal es eben schwer wird sowas auch vernünftig (=leise) zu kühlen, zumindest in kompakten Gehäusen.
Scheiß Gesetze der Thermodynamik! :ugly:

bnoob
2020-09-02, 17:59:13
Wird halt ein Fermi, ist in der ersten Iteration immer so ;D

Fetza
2020-09-02, 18:11:30
Erstmal unabhängige Tests abwarten. Sollten sich 300+ Watt (Realverbrauch) bewahrheiten, wäre das ein böser brauner Fleck.

Für die gebotene Leistung finde ich das ehrlich gesagt gar nicht so. Wenn sich der Ersteindruck bestätigt, reden wir ja immerhin von einer verdoppelten Leistung.

Und bei der Leistung will ich mal eine größere Spieleauswahl sehen. In 5 Wochen werde ich als alter PCGH Abo Leser mir in Ruhe alles analysieren und einen Parcours mit sehr vielen Spielen begutachten können.

Ich persönlich bin mehr der Computerbase und Golem Leser. Aber ja, sicherlich wird man erstmal weitere und unabhängige Tests sehen müssen. Ich erwarte aber nicht, dass sich das Bild grundsätzlich ändert.

Nehmen wir mal an, die 20GB 3080 liegt dann bei 850+ Euro, dann sieht das irgendwie nicht mehr sooo schön aus. Wenn man dann wirklich über 300W Verbrauch hat, dann noch weniger.

Findest Du? also ich fände jetzt 900-1000 Euro für eine 20GB Karte mit der Leistung durchaus gerechtfertigt.

Die 699 Euro sind sicher ein schöner Preis, aber die 10GB sind irgendwie "meh". Nicht extrem schlecht, aber bei 700 Euro bzw. mehr bei guten Customs, will ich schon mehr sehen. Entweder um die Karte selber ein paar Jahre zu nutzen oder um einen relativ guten Wiederverkaufswert zu haben.

Aber wie gesagt, warten wir die nächsten Wochen ab, vor allem bis die unabhängigen Tests da sind.

Ja, da hast Du sicher recht. Ich würde mir auch keine 10GB mehr im High-End-Segment gefallen lassen.

Lowkey
2020-09-02, 18:17:54
Die Tests zeigten bislang, dass von den 8Gb bei 4k auch kaum mehr als 8Gb belegt werden. Für 4k könnte es dank der verbesserten Speichernutzung dennoch ausreichend sein. Psychologisch nervt es :D

Was mir sorgen macht ist nicht der Verbrauch, denn die Highendkarten hatten schon mehr als 300 Watt je nach Modell. Obe es effizient ist? Wir werden sehen was noch geht. Jedenfalls hat die Ankündigung nach besserem Micron Speicher schon dafür gesorgt, dass sich die 3000er Serie von 2020 alt anfühlt. Ein Refresh steht schon in einem Jahr vor der Tür. Nimmt man nun die 3080 mit 10Gb oder die 3070 mit 16Gb? Diese und andere Fragen stellen sich. Nicht weniger User werden einfach blind eine 3090 nehmen und Ruhe haben.

Auf die Reviews warten wir dennoch. Der Pro-Tip wäre nun beim Netzteil Hersteller nach dem passenden Kabel zu fragen, denn man weiss ja nie was morgen im Rechner steckt. Bis zum BF hätte man Zeit für den Kauf. Danach sinkt die Verfügbarkeit und ein Angebot bei der immensen Nachfrage halte ich für unwahrscheinlich.

Fetza
2020-09-02, 18:55:44
Die Tests zeigten bislang, dass von den 8Gb bei 4k auch kaum mehr als 8Gb belegt werden. Für 4k könnte es dank der verbesserten Speichernutzung dennoch ausreichend sein. Psychologisch nervt es :D

PCGH hatte schon vor Wochen mal einen Artikel zum Thema. Demnach gibt es jetzt schon genügend Spiele die 8GB brauchen und manche profitieren sogar auf höchsten Einstellungen von mehr Speicher. Vor dem Hintergrund würde ich mir persönlich heutzutage keine 8GB Karte in der Preisklasse > 500 Euro kaufen.

Was mir sorgen macht ist nicht der Verbrauch, denn die Highendkarten hatten schon mehr als 300 Watt je nach Modell. Obe es effizient ist? Wir werden sehen was noch geht. Jedenfalls hat die Ankündigung nach besserem Micron Speicher schon dafür gesorgt, dass sich die 3000er Serie von 2020 alt anfühlt. Ein Refresh steht schon in einem Jahr vor der Tür. Nimmt man nun die 3080 mit 10Gb oder die 3070 mit 16Gb? Diese und andere Fragen stellen sich. Nicht weniger User werden einfach blind eine 3090 nehmen und Ruhe haben.

Also die Empfindung kann ich nicht teilen. Mehr Speicher wird es sicherlich für die Profischiene geben, aber nicht für den Konsumentenmarkt. 16 / 20 / 24 GB sind ja auch eine ausgezeichnete Ausstaffierung mit Speicher. Ich glaube Du machst da den selben Fehler wie bei den SSDs - letztlich muss der Markt halt auch die Preise zahlen wollen, sonst wird kein Hersteller etwas entsprechendes anbieten.
Hardware kaufe ich eigentlich seit je her dann, wenn ich sie brauche (und natürlich das Geld dafür übrig habe). Ich glaube auch nicht, dass ein anderes Kaufverhalten im Computerbereich Sinn macht.
Wer sich jetzt eine 3090 kauft hat ganz sicher für die nächsten Jahre Ruhe. Die Karte ist einfach perfekt, meiner Meinung nach auch gerade hinsichtlich der Preisleistung. 24 GB sind einfach nur krass. :)

kunibätt
2020-09-02, 18:58:25
Als jemand der die GPU nur zweitrangig/ kaum zum Zocken benutzt und darauf rendern will:

Bei einer 3080 20G 2Slot für ~850€ hätte ich bedenkenlos zugelangt. VRAM ist einfach durch nichts zu ersetzen.
Die 3090 ist nicht nur teuer, sondern auch noch zu dick um da ohne Wakü mehr als 2 Karten zu stecken.

Fusion_Power
2020-09-02, 18:58:58
Wird halt ein Fermi, ist in der ersten Iteration immer so ;D
Da stimmt dann auch wieder die Soundkulisse zum MS Flight Simulator, wahlweise Turbine oder Kolbenmotor. ;D

arcanum
2020-09-02, 19:21:16
Findest Du? also ich fände jetzt 900-1000 Euro für eine 20GB Karte mit der Leistung durchaus gerechtfertigt.

die frage muss ja eher lauten ob man es angemessen findet für 10GB speicher 200-300€ zu zahlen. keine ahnung was der speicher am markt kostet aber für mich hört sich das unverschämt an.

Schnoesel
2020-09-02, 19:32:03
Review Thread ohne Reviews, aber schon 4 Seiten voll... läuft

BUG
2020-09-02, 19:42:19
Da stimmt dann auch wieder die Soundkulisse zum MS Flight Simulator, wahlweise Turbine oder Kolbenmotor. ;Dhttps://www.ndr.de/nachrichten/niedersachsen/oldenburg_ostfriesland/Gelandet-Elektroflieger-erreicht-Norderney,elektroflieger100.html

[...]...am Mittwochnachmittag der erste Elektroflug von den Alpen zur Nordsee auf der Insel Norderney gelandet.

Soon! :D

Edit: Reichlich OT aber weitere Infos:
https://elektro-weltrekordflug.eu/

Gruß
BUG

Emil_i_Lönneberga
2020-09-02, 19:52:11
"So wenig wie möglich, so viel wie nötig" :facepalm:



https://scontent-frt3-1.xx.fbcdn.net/v/t1.0-9/118694962_1746657882150014_6826867257485832749_o.jpg?_nc_cat=102&_nc_sid=8024bb&_nc_ohc=82UaNUEuS6wAX860o61&_nc_ht=scontent-frt3-1.xx&oh=f2097822715ffa92909ccea149b09565&oe=5F76E460

SKYNET
2020-09-02, 20:03:23
Frage mich ob mein 600W NT den 3080 mitmachen würde. Wahrscheinlich schon, aber nicht mehr mit viel Spielraum

Klar warum nicht. Ich werde auch erstmal bei meinem 550W Seasonic Gold bleiben.



die peaks werden das NT ordentlich ärgern... 320W --> 500W peaks, kannst eigentlich grad entsorgen das ding, unter 750W mit min 700W auf den graka strang, musst garnicht mehr kommen bei ampere 3080/3090.

SKYNET
2020-09-02, 20:04:55
Das wird doch wieder reines Marketingblabla sein.. 350Watt per Luft wegkühlen wird kein Spass, imho führt da kaum ein Weg an Wasser vorbei.


also nen morpheus kann das auch ohne dabei laut zu sein... sogar 400W...

selbst meine aorus xtreme die 420W verbrät wird mit standardkühler nie richtig laut geschweigedenn kommt sie jemals über 70% lüfterspeed unter last :confused:

gedi
2020-09-02, 20:16:41
also nen morpheus kann das auch ohne dabei laut zu sein... sogar 400W...

selbst meine aorus xtreme die 420W verbrät wird mit standardkühler nie richtig laut geschweigedenn kommt sie jemals über 70% lüfterspeed unter last :confused:

Kann er in der Strukturbreite eben nicht mehr! Darum geht imo reaktiv günstig alles von einer Seite zu kühlen mit Fullcover. Darum wünsche ich mir so sehr ne 3090 mit lediglich 12GB

qiller
2020-09-02, 21:58:02
Also mich interessieren bei der 3090 auch die Temperaturen der rückseitigen Speicherchips. Sieht mir bei der FE irgendwie nicht durchdacht aus, da einfach eine mehr oder weniger glatte Backplate anzupappen.

https://scr3.golem.de/screenshots/2008/Geforce-RTX-3090-Garnet-Sunset/Ef97ahFXgAECr66.png

Aber wer weiß, vlt gibts ja auch für die Backplate ne Secret Saucage, die aus den Bildern nicht ersichtlich ist. Oder der GDDR6X Speicher ist recht genügsam und produziert nicht so viel Abwärme :confused:

BiG OnE
2020-09-02, 23:18:49
So genügsam kann der GDDR6X Speicher gar nicht sein, sonst hätte Igor einen Artikel nicht "NVIDIA Ampere mit heißem Speicher und selbst die Boardpartner tappen noch im Dunkeln" genant.

Hakim
2020-09-02, 23:26:07
Sind jetzt einige 3080er bei Geizhals gelistet, aber iwie sieht für mich die FE diesmal einfach am coolsten aus.

qiller
2020-09-02, 23:42:24
So genügsam kann der GDDR6X Speicher gar nicht sein, sonst hätte Igor einen Artikel nicht "NVIDIA Ampere mit heißem Speicher und selbst die Boardpartner tappen noch im Dunkeln" genant.
Danke für den Hinweis, kannte den Artikel noch nicht:

https://www.igorslab.de/nvidia-ampere-zeigt-seine-heissen-seiten-und-selbst-die-boardpartner-tappen-noch-im-dunkeln/

Im Artikel werden 98°C auf dem heißesten Speicherchip und 120°C "Sterbegrenze" erwähnt. Das klingt erstmal übel. Da bin ich bei den 3090er Karten aber wirklich gespannt, wie die Hersteller und auch Nvidia mit der FE das gelöst haben.

Daredevil
2020-09-02, 23:50:11
Also mich interessieren bei der 3090 auch die Temperaturen der rückseitigen Speicherchips. Sieht mir bei der FE irgendwie nicht durchdacht aus, da einfach eine mehr oder weniger glatte Backplate anzupappen.

https://scr3.golem.de/screenshots/2008/Geforce-RTX-3090-Garnet-Sunset/Ef97ahFXgAECr66.png

Aber wer weiß, vlt gibts ja auch für die Backplate ne Secret Saucage, die aus den Bildern nicht ersichtlich ist. Oder der GDDR6X Speicher ist recht genügsam und produziert nicht so viel Abwärme :confused:
Speicher muss man nicht "direkt" kühlen. Je kühler das PCB, desto kühler auch der Speicher. Und da der Kühler der 3090 quasi nur aus Metal besteht ( Was wiegt die Kiste eigentlich? :D ), wäre das hier durchaus gegeben.

Es gibt aber auch schon Hersteller, die eine Heatpipe von vorne über die Rückseite leiten, da scheint man wohl gerne bissl was mitnehmen zu wollen.

Robot
2020-09-03, 01:19:41
Wundert sich niemand, warum die das machen dürfen, während der Rest der Welt Videos schauen muss? Bei Previews sind doch gerade im Kontext Nvidia immer alle so paranoid. :ugly:

MfG
Raff

Das ist doch 100% Sponsored Content ohne Kennzeichnung! Da kann man eigentlich GAR NIX glauben. Nicht mal, dass das wirklich ne 3080 war die da drunter steckte ;)

Hab aus zuverlässigen Quellen erfahren, das Nvidia einige bekannte Reviewer in der "Sample-Liste" gegen "Influencer" getauscht hat ... Da wird also noch mehr so Zeug kommen. Wenn dann der Launch dann kommt, interessiert sich keiner mehr für die "echten" Tests ;)

Irgendwie bin ich froh das ich das NDA beim letzen mal gekickt habe und aus der ganzen Nummer raus bin, nur noch Propaganda :down:

N0Thing
2020-09-03, 02:49:07
So genügsam kann der GDDR6X Speicher gar nicht sein, sonst hätte Igor einen Artikel nicht "NVIDIA Ampere mit heißem Speicher und selbst die Boardpartner tappen noch im Dunkeln" genant.

Der Speicher benötigt weniger Energie pro Bit, aber da die Bandbreite steigt, ist die Leistungsaufnahme insgesamt höher als bei GDDR6. Wie die Temperaturen ausfallen, wird man erst bei ordentlichen Reviews sehen und wohl auch nur dann, wenn es möglich, ist die Temperaturen der Chips auszulesen, oder aufwendig von außen näherungsweise zu messen. Dass die einzelnen Chips sehr warm werden, glaube ich aber sofort. Kommt dann auf die Kühlung an, ob es im kritischen Bereich ist oder nicht.

Badesalz
2020-09-03, 06:58:48
@N0Thing
:up: In dem Beitrag steht... garnichts (?) :rolleyes: Schon übermüdet gewesen? :tongue:

Igor wird es ausmessen. Das ist wohl jedem klar, daß dies zu 101% sicher ist oder? ;)

qiller
2020-09-03, 09:00:55
@N0Thing
:up: In dem Beitrag steht... garnichts (?) :rolleyes: Schon übermüdet gewesen? :tongue:

Igor wird es ausmessen. Das ist wohl jedem klar, daß dies zu 101% sicher ist oder? ;)
?
https://www.igorslab.de/nvidia-ampere-zeigt-seine-heissen-seiten-und-selbst-die-boardpartner-tappen-noch-im-dunkeln/
"Der Speicher ist, auch wenn man mal die Boardpartner fragt, das eigentliche Sorgenkind, das aktuelle Luftkühler vor derartige Probleme stellen soll. Man berichtet von bis zu 98 °im heißesten Modul."

Würde ich jetzt nicht als "garnichts" bezeichnen.

Klar wird Igor das nachmessen. Das sind ja auch nur "Gerüchte". Die Frage ist, ob er jemals eine RTX3090 zu Gesicht bekommt, um dem nachzugehen. Und die nächste Frage wird dann sein, welches Herstellermodell er denn bekommt, denn ich bezweifel, dass er die Möglichkeiten hat, son RTX3090-Roundup aller Modelle aus eigener Tasche bezahlen zu können :F.

L233
2020-09-03, 10:51:25
die peaks werden das NT ordentlich ärgern... 320W --> 500W peaks, kannst eigentlich grad entsorgen das ding, unter 750W mit min 700W auf den graka strang, musst garnicht mehr kommen bei ampere 3080/3090.

Gibt's da eine Quelle dafür, dass Grafikkarten Peaks von mehr als 50% über Spec produzieren? Ich kann mich dunkel erinnern, dass die schrottigen AMD Vega Karten in der Hinsicht mal auffällig waren, aber sonst?

Sardaukar.nsn
2020-09-03, 11:13:08
die peaks werden das NT ordentlich ärgern... 320W --> 500W peaks, kannst eigentlich grad entsorgen das ding, unter 750W mit min 700W auf den graka strang, musst garnicht mehr kommen bei ampere 3080/3090.

Selbst wenn ein wenig Überlast kommen sollte, ein ordentliches Seasonic kann bis zu 50% mehr ab. Da habe ich keine Bedenken und werde es auf jeden Fall erstmal so testen. https://www.tweakpc.de/hardware/tests/netzteile/seasonic_prime_titanium/s07.php

In einem Video zu Nvidia Reflex wurde noch ein paar Infos zur 3080 gezeigt.

https://i.redd.it/vffisvh31wk51.png

The Nvidia reflex video showed some core clock speeds (1920@76c/1965@68c), memory speeds (19gbs), voltage (1-1.1v), and max power target (368w, +15%) of the 3080

Quelle: https://www.youtube.com/watch?v=-cXg7GQogAE

Troyan
2020-09-03, 11:21:40
Ja, und die integrieren es in Geforce-Experience...

dargo
2020-09-03, 11:54:54
https://www.igorslab.de/nvidia-ampere-zeigt-seine-heissen-seiten-und-selbst-die-boardpartner-tappen-noch-im-dunkeln/
"Der Speicher ist, auch wenn man mal die Boardpartner fragt, das eigentliche Sorgenkind, das aktuelle Luftkühler vor derartige Probleme stellen soll. Man berichtet von bis zu 98 °im heißesten Modul."

Würde ich jetzt nicht als "garnichts" bezeichnen.

Ist das eigentlich der Hotspot wie bei Navi10 oder die Oberflächentemperatur?

Selbst wenn ein wenig Überlast kommen sollte, ein ordentliches Seasonic kann bis zu 50% mehr ab. Da habe ich keine Bedenken und werde es auf jeden Fall erstmal so testen. https://www.tweakpc.de/hardware/tests/netzteile/seasonic_prime_titanium/s07.php

In einem Video zu Nvidia Reflex wurde noch ein paar Infos zur 3080 gezeigt.

https://i.redd.it/vffisvh31wk51.png



Quelle: https://www.youtube.com/watch?v=-cXg7GQogAE
Haha... jetzt kommt der "Wattman" auch bei Nvidia. :tongue:

N0Thing
2020-09-03, 11:58:02
@N0Thing
:up: In dem Beitrag steht... garnichts (?) :rolleyes: Schon übermüdet gewesen? :tongue:

Igor wird es ausmessen. Das ist wohl jedem klar, daß dies zu 101% sicher ist oder? ;)

Ist das dein Zweit-Account, oder warum bist du so drauf? ;D
BiG OnE hat sich auf den schon existieren Artikel bezogen, nicht auf zukünftige Tests und ich mich auf die Aussage von BiG OnE.
Wenn etwas mehr als flüssig ist, dann ganz klar dein Einwurf von der Seite. :rolleyes:

Ultron
2020-09-03, 12:14:13
Gibts schon irgendwo Angaben wie lang, breit und dick die Karten sind? Muss mal nachmessen ob das überhaupt in mein ITX-Setup passt oder ob ich flexen muss^^

Robot
2020-09-03, 12:23:41
?
https://www.igorslab.de/nvidia-ampere-zeigt-seine-heissen-seiten-und-selbst-die-boardpartner-tappen-noch-im-dunkeln/
"Der Speicher ist, auch wenn man mal die Boardpartner fragt, das eigentliche Sorgenkind, das aktuelle Luftkühler vor derartige Probleme stellen soll. Man berichtet von bis zu 98 °im heißesten Modul."


Dass der Speicher ein Sorgenkind wird kann man schon da sehen :)
https://www.tweakpc.de/news/46618/msi-geforce-gtx-3090-gaming-erstmals-heatpipes-auf-der-backplate/

MSI baut Heatpipes in die Backplate der 3090 ein! :freak:

Sumpfmolch
2020-09-03, 12:28:30
Sollte ich mir sorgen machen, dass mein PC Arbeitsplatz keinen Drehstromanschluss hat? :uponder:

ontopic:
Ich denke schon, dass für viele Käufer im Midrange der Stromverbrauch und die Hitzeentwicklung schon einen erheblichen Stellenwert haben. Man kann ja kaum auf die Klimademo am Freitag gehen und danach auf eienr Kiste zocken, die mehr Strom zieht als die komplette Hausbeleuchtung des freistehenden Einfamilienhauses...

Daher bin ich gespannt, was am Ende bei Ampere da herum kommt.

Für die 3090er im Highend Bereich ist das aber egal, selbst wenn in der Box ein eigener Mini-Kernreaktor beiliegen würde.

Troyan
2020-09-03, 12:29:37
Gibts schon irgendwo Angaben wie lang, breit und dick die Karten sind? Muss mal nachmessen ob das überhaupt in mein ITX-Setup passt oder ob ich flexen muss^^

Für die nVidia-Karten hier: https://www.nvidia.com/en-us/geforce/graphics-cards/30-series/

Robot
2020-09-03, 12:33:00
Sollte ich mir sorgen machen, dass mein PC Arbeitsplatz keinen Drehstromanschluss hat? :uponder:

;D gut Möglich.

Aber dann hab ich endlich mal was, das meine neues "4000 VA Chroma 61505 mit Netzstörsimulation Baby" ausreizt. Zuletzt gabs ja nur noch lahme 600 Watt Netzteile zu testen. Ich seh schon die 1200+ Boliden wieder kommen :D Dark Power Pro 12 geht ja schon los mit 1200 und 1500 Watt :freak:

Der_Korken
2020-09-03, 12:49:33
Gibt's da eine Quelle dafür, dass Grafikkarten Peaks von mehr als 50% über Spec produzieren? Ich kann mich dunkel erinnern, dass die schrottigen AMD Vega Karten in der Hinsicht mal auffällig waren, aber sonst?

Ja gibt es, z.B. bei Igor:

https://www.igorslab.de/grafikkarte-gegen-netzteil-grundlagen-fehlerursachen-und-richtige-netzteilbemessung/2/

50% vielleicht nicht unbedingt, aber die Schwankungen sind durchaus nicht zu verachten. Da nehmen sich AMD und Nvidia nicht viel.

L233
2020-09-03, 13:55:55
Ja gibt es, z.B. bei Igor:

https://www.igorslab.de/grafikkarte-gegen-netzteil-grundlagen-fehlerursachen-und-richtige-netzteilbemessung/2/

50% vielleicht nicht unbedingt, aber die Schwankungen sind durchaus nicht zu verachten. Da nehmen sich AMD und Nvidia nicht viel.

Zitat aus dem Igor-Artikel:

Erst einmal vorab, um Panik zu vermeiden: Die ganz kurzen Lastspitzen kann man getrost beiseitelegen und man sollte sich wirklich nur über Werte Gedanken machen, die über ein bis zwei Millisekunden liegen.

Sobald es über 2ms geht ist Vega da schon DEUTLICH problematischer als Pascale und erst recht Turing.

Wenn sich die Ampere-Karten ähnlich zahm verhalten wie Turing, dann würde ich mir über irgendwelche Spannungsspitzen keine Gedanken machen, wenn man nicht gerade das NT wirklich knallhart auf Kante fährt.

Troyan
2020-09-03, 15:18:07
nVidia macht nun schon selbst Reviews: https://www.youtube.com/watch?v=A7nYy7ZucxM

Doom Eternal auf einer 2080TI und 3080...

N0Thing
2020-09-03, 15:24:29
Review? Wow. Lmao. ;D

Für dich ist das ein Review, für den Rest der Welt ein Werbe-Clip. Im besten Fall ein 1:1 Vergleich.

MartinRiggs
2020-09-03, 15:27:18
Wenn die 3080 kein VRAM Krüppel wäre, dann wäre es noch cooler:biggrin:

Troyan
2020-09-03, 15:27:44
Review? Wow. Lmao. ;D

Für dich ist das ein Review, für den Rest der Welt ein Werbe-Clip. Im besten Fall ein 1:1 Vergleich.

Gott, Sarkasmus schonmal gehört? :rolleyes:

N0Thing
2020-09-03, 15:29:11
Von dir im Zusammenhang mit Nvidia? Das wäre jetzt eine Premiere. :D

Damit konnte doch niemand rechnen. ;)

Grendizer
2020-09-03, 15:32:51
Naja ... bei AMD wären jetzt keine FPS angezeigt worden, man hätte aber darauf hingewiesen, wie ruckelfrei das alles wegen Freesync läuft.:biggrin:

N0Thing
2020-09-03, 15:38:22
Und niemand würde es als Review bezeichnen.
Schade, dass in dem Nvidia-Video keine Gameplay-Szenen direkt gegenüber gestellt wurden, sondern nur die Zwischensequenzen. Nichts desto trotz sieht es mit 50% mehr Performance in den Sequenzen ziemlich gut für die 3080 aus.

L233
2020-09-03, 15:48:29
Irgendwie mache ich mir um das VRAM nicht wirklich Sorgen. Die meisten AAA-Games krüppeln doch momentan selbst bei 4k irgendwo zwischen 3GB und 5GB rum.

Selbst beim MS FS 2020, der VRAM gut zumüllt und mit entsprechenden Settings auch mal gerne über 8 GB belegt, scheinen sich 8GB in keiner Weise negativ auf die Performance auszuwirken. So liegt die Performance der 2080 Ti gegenüber der 2080 Super ziemlich genau in dem Bereich, den man aufgrund der Leistungsdifferenz der Karten erwarten würde. Die 3GB weniger VRAM scheinen also der 2080 Super nicht wirklich zu schaden.

Ob jetzt die neue Konsolengeneration die Anforderungen der Spiele bzgl. VRAM so krass hochschrauben wird, dass man mit 10GB an die Grenze stößt, halte ich für eher unwahrscheinlich.

Grendizer
2020-09-03, 15:56:20
Und niemand würde es als Review bezeichnen.
Schade, dass in dem Nvidia-Video keine Gameplay-Szenen direkt gegenüber gestellt wurden, sondern nur die Zwischensequenzen. Nichts desto trotz sieht es mit 50% mehr Performance in den Sequenzen ziemlich gut für die 3080 aus.

Hat Doom eigentlich DLSS ? Und ist das Video mit oder ohne ? Habe da keinen Hinweis gesehen.. oder vieleicht überspult ? Das ist schon nicht so schlecht ... vor allem, wenn man sogar von der 1080 kommt

Matrix316
2020-09-03, 15:57:08
Hatten wir das schon? https://www.instagram.com/p/CErPOUhoUs_/ ;)

Ich glaube Nvidia kanns selbst kaum fassen wie schnell das Ding ist. Die Frage ist auch, warum war Turing so langsam? Und wieso kostete eine 2080TI 1200 Euro und eine 3070 500 Euro? =) Da muss doch ein Haken sein. ;) Das letzte mal so einen Sprung gabs von Geforce 3 auf 4 oder?

JVC
2020-09-03, 16:00:08
Ob jetzt die neue Konsolengeneration die Anforderungen der Spiele bzgl. VRAM so krass hochschrauben wird, dass man mit 10GB an die Grenze stößt, halte ich für eher unwahrscheinlich.
Schön für dich wenn du dir das nicht vorstellen kannst :)
Manche aber haben schon länger auch mit 10Gb nicht genug ;)

M.f.G. JVC

P.s.: Zu wenig Ram muss sich nicht in fallender Performanz äußern.
Dann gibt es halt niedrigere Texturen oder im Extremfall fehlen sie ganz.
(aufploppende Texturen kennt doch jeder)

L233
2020-09-03, 17:19:01
Schön für dich wenn du dir das nicht vorstellen kannst :)

Ich habe gesagt, dass ich das eher für unwahrscheinlich halte, nicht, dass ich es mir nicht vorstellen könne. Vorstellen kann ich mir viel.

Manche aber haben schon länger auch mit 10Gb nicht genug ;)
Wer oder was sind "manche"? Mal konkret?

P.s.: Zu wenig Ram muss sich nicht in fallender Performanz äußern.
Dann gibt es halt niedrigere Texturen oder im Extremfall fehlen sie ganz.
(aufploppende Texturen kennt doch jeder)

Aufploppende Texturen sind eher ein Engine-Problem. Aber mal bitte konkret. Hast Du irgendwelche Beispiele, abseits von ineffizient totgemoddeten Skyrim-Abscheulichkeiten mit Ultra-High-Res-Waifus und 4k + 8x SSAA?

Sardaukar.nsn
2020-09-03, 21:10:01
@L233: Da bin ich ganz deiner Meinung. Bei der 3080 scheint man an den richtigen Stellen geschraubt (Roh-Leistung, TDP) und den Rotstift (10GB DDR6) um auf diese Leistung und den Preis zu kommen. Für mich mit Abstand die attraktivste Ampere Karte. Mit entsprechenden Kühl-Lösungen sicher auch auf über 2ghz zu bringen.

qiller
2020-09-03, 21:21:56
Geht mir ähnlich. Eine spätere 20GB-Variante wird dann wahrscheinlich nicht unter 900€ zu haben sein und sie wird sich mit einer mit 16Gbit-Modulen einseitig bestückten Platine auch noch bis 2021 Zeit lassen. Und da ich eine Auflösung von "nur" 3840x1600@120Hz nutze, dürfte die Leistung und der VRAM der RTX3080 noch für ne Weile ausreichen.

Aber die FE gefällt mir da noch nicht so richtig. Für immerhin noch 320W TGP nur eine einfache Dualslot-Kühllösung? Ich bin da eher auf die Triple-Slot Customdesigns der RTX3080 gespannt.

Badesalz
2020-09-03, 21:45:31
?
https://www.igorslab.de/nvidia-ampere-zeigt-seine-heissen-seiten-und-selbst-die-boardpartner-tappen-noch-im-dunkeln/
"Der Speicher ist, auch wenn man mal die Boardpartner fragt, das eigentliche Sorgenkind, das aktuelle Luftkühler vor derartige Probleme stellen soll. Man berichtet von bis zu 98 °im heißesten Modul."

Würde ich jetzt nicht als "garnichts" bezeichnen.:rolleyes: In Nothings Beitrag, stand garnichts. Nicht in Wallosseks :freak:

Klar wird Igor das nachmessen.Eben. Ich bin da guter Dinge ;)

Badesalz
2020-09-03, 21:49:49
(einmal nicht aufgepasst, Doppelpost, sorry)
Hatten wir das schon? https://www.instagram.com/p/CErPOUhoUs_/ ;)

Ich glaube Nvidia kanns selbst kaum fassen wie schnell das Ding ist. Die Frage ist auch, warum war Turing so langsam?Das Teil ist jetzt ~20% schneller. Richtig? Das ist weniger als Zen3 insgesamt schneller sein wird als Zen2. Daher frag ich mich auch jetzt schon warum der Zen2 so langsam ist. Du nicht? :|

Und wieso kostete eine 2080TI 1200 Euro und eine 3070 500 Euro? =) Da muss doch ein Haken sein. ;)Ja. sie wissen schon ungefähr wie sie sich positionieren müssen, weil sie wissen was AMD bringt. Ergo, ENDLICH bekommen wir von NV vernünftige Preise eben dank AMD. Was wir uns auch schon ewig wünschen :up:

Lowkey
2020-09-03, 21:57:06
Na die 3000er haben bestimmt leicht bessere Textur Kompression und dann ist 4k mit 10Gb nicht ausgelastet. Ich kann mich mit der Karte anfreunden, wo doch meine 1080Ti nie die 11Gb vollbekommen hat.

Nur kommt bestimmt ein Modder bei Cyberpunk auf die Idee und haut die 24Gb voll.

30% waren damals der Minimalwert von 1080Ti auf 2080Ti. Wie hoch wird er von 2080Ti auf 3080 ausfallen?

r3ptil3
2020-09-03, 22:58:20
Na die 3000er haben bestimmt leicht bessere Textur Kompression und dann ist 4k mit 10Gb nicht ausgelastet. Ich kann mich mit der Karte anfreunden, wo doch meine 1080Ti nie die 11Gb vollbekommen hat.


Solange eine 3080 aktuell ist, wird Nvidia ganz bestimmt dafür sorgen, dass dies kein Problem sein wird.

Beim Release eines Nachfolgers, könnte das aber wiederrum ganz anders aussehen.

Flusher
2020-09-03, 23:06:25
Wie groß ist das Problem der 10 Gb denn wirklich? Ich habe nun jahrelang 8 Gb und bisher nie auch nur ansatzweise vernommen, dass mir der VRAM in irgendeinem Spiel ausgeht.

Gibts da vielleicht eine Liste, von aktuellen Spielen und deren VRAM Auslastung auf max. Einstellungen und unterschiedlichen Auflösungen?

Raff?

qiller
2020-09-03, 23:15:28
Vielleicht kommt ja hier noch was?
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12412890#post12412890

Ich denke auch, dass die 10GB noch eine Weile halten werden. Aber ich bin auch bei bardh, spätestens wenn es den Nachfolger (damit mein ich keinen Aufguss ala "Super") von Ampere gibt, werden die 10GB zumindest für 4K und hochauflösenden Texturecontent problematisch. Dann wird man bei einigen neuen Spielen wohl wieder 1 Textur-Stufe runterschalten müssen. Wer damit ein Problem hat, sollte auf die 20GB Version warten oder verkauft die Ampere vor/bei Erscheinen der neuen Generation wieder, um auf eine neue Karte mit mehr VRAM aufzurüsten. Ich gehör ja eher zu denjenigen, die Hardware etwas länger nutzen und daher beim Neukauf etwas stärkere Hardware kaufen. Daher bin ich auch am Grübeln mit den 10GB :F. Aber da hat ja jeder seine eigene Strategie.

JaniC
2020-09-03, 23:17:04
Mir sind die 8GB selbst bei Shadow of War in 4K mit dem Ultra Texture Pack nicht vollgelaufen, es wird ja auch oft dynamisch angepasst und nur soviel genommen, wie da ist.
Nur weil ein Spiel auf einer 11GB Karte 10,3GB belegt, heisst es nicht automatisch, dass es bei identischen Settings mit 8GB Karten ruckelt.

Aber ist halt in Mode (gerade hier im 3DC) über zu wenig Speicher zu pöbeln.

Ich warte 3080 Customs ab und entscheide dann in Ruhe. Will vor allem Ruhe im Case.
Aber kaufen muss ich Ampere quasi, denn ich will die 120hz 4K auf dem OLED nutzen.

PS: Sorry, schon wieder in diesem Thread gepostet aber es gibt bestimmt 4 Ampere Threads parallel, den Spekuthread, den hier, den Graka-Preise Thread und noch sonstwas.. gibt ja noch ein einziges Review aber der Thread hier hat 6 Seiten. Naja, find ihn übersichtlicher als den "ja nee da hast du unrecht, denn das ist so und so" Ampere Speku Thread.

Flusher
2020-09-03, 23:29:18
Zumal ich mich frage ob die größe des VRAM wirklich noch kritisch ist sofern RTX I/O hält was es verspricht.

qiller
2020-09-03, 23:33:21
Zumal ich mich frage ob die größe des VRAM wirklich noch kritisch ist sofern RTX I/O hält was es verspricht.
Guter Einwand. Da würden mich dann auch Benchmarks interessieren. Kann natürlich gut sein, dass durch Direct Storage/RTX I/O der Anspruch an die Größe des VRAMs wieder abnimmt. Mit weniger VRAM sind dann halt die Anzahl der I/Os höher. Stellt sich dann die Frage, wie das die Performance beeinflusst.

Edit: Ich sehe da übrigens ein Dilemma bei den Spieleentwicklern, wenn RTX IO nicht nur als "Ladebeschleuniger", sondern auch als VRAM-Erweiterung genutzt wird. Bei ersterem sind halt nur die Ladezeiten bei denjenigen Systemen höher, die eben keine schnelle NVMe-SSD haben. Bei letzterem müsste man irgendwie eine Alternative mit deutlich niedriger aufgelösten Texturen o.Ä. ins Spiel einbauen.

SKYNET
2020-09-03, 23:34:18
Irgendwie mache ich mir um das VRAM nicht wirklich Sorgen. Die meisten AAA-Games krüppeln doch momentan selbst bei 4k irgendwo zwischen 3GB und 5GB rum.

Selbst beim MS FS 2020, der VRAM gut zumüllt und mit entsprechenden Settings auch mal gerne über 8 GB belegt, scheinen sich 8GB in keiner Weise negativ auf die Performance auszuwirken. So liegt die Performance der 2080 Ti gegenüber der 2080 Super ziemlich genau in dem Bereich, den man aufgrund der Leistungsdifferenz der Karten erwarten würde. Die 3GB weniger VRAM scheinen also der 2080 Super nicht wirklich zu schaden.

Ob jetzt die neue Konsolengeneration die Anforderungen der Spiele bzgl. VRAM so krass hochschrauben wird, dass man mit 10GB an die Grenze stößt, halte ich für eher unwahrscheinlich.


SotTR geht ganz geschmeidig über 8GB...

EPIC_FAIL
2020-09-03, 23:36:36
Es ist ja auch so, dass man zur Not den VRAM Verbrauch verringern kann indem man einfach ein paar Details runterstellt. Es wird bestimmt Spiele geben bei denen erst 16GB reichen werden, aber das wird dann eher ein Gimmik-Mode sein im Sinne von "Ultra-Mega-Textur-Details in 4k", der vielleicht im laufenden Spiel nicht von der nächst kleineren Einstellung zu unterscheiden ist.

just4FunTA
2020-09-03, 23:37:45
Mir sind die 8GB selbst bei Shadow of War in 4K mit dem Ultra Texture Pack nicht vollgelaufen, es wird ja auch oft dynamisch angepasst und nur soviel genommen, wie da ist.
Nur weil ein Spiel auf einer 11GB Karte 10,3GB belegt, heisst es nicht automatisch, dass es bei identischen Settings mit 8GB Karten ruckelt.

Aber ist halt in Mode (gerade hier im 3DC) über zu wenig Speicher zu pöbeln.

Ich warte 3080 Customs ab und entscheide dann in Ruhe. Will vor allem Ruhe im Case.
Aber kaufen muss ich Ampere quasi, denn ich will die 120hz 4K auf dem OLED nutzen.

PS: Sorry, schon wieder in diesem Thread gepostet aber es gibt bestimmt 4 Ampere Threads parallel, den Spekuthread, den hier, den Graka-Preise Thread und noch sonstwas.. gibt ja noch ein einziges Review aber der Thread hier hat 6 Seiten. Naja, find ihn übersichtlicher als den "ja nee da hast du unrecht, denn das ist so und so" Ampere Speku Thread.

Du sagst es doch selbst Entwickler nutzen das was da ist. Genau darum möchten wir 16gb damit die Entwickler sie auch nutzen können und jetzt hängen wir auch die nächsten 5 Jahre an 8gb vram. Das ist halt schade.

JaniC
2020-09-03, 23:40:10
? Das liegt ja nicht an einem nvidia Modell sondern daran, was die Konsolen können. Was ne Logik. ;D


@SKYNET: SotTR lief hier in 4K auf dem OLED butterzuckerweich mit meinen pobeligen 8GB...

Emil_i_Lönneberga
2020-09-04, 01:11:15
Die zusätzlichen PCB Sensoren der Evga ICX Karten haben mich schon immer gereizt.

https://www.evga.com/articles/01434/evga-geforce-rtx-30-series/

Allerdings wirbt EVGA bei allen Versionen mit einem Custom "Air through PCB". Da wird man abwarten müssen, ob passende Kühler erscheinen.

EKWB:

https://www.ekwb.com/shop/water-blocks/vga-blocks/full-cover-for-nvidia-geforce/geforce-3070-3080-3090-water-blocks

This block is made for reference PCB 3080 and 3090 cards. Founders Edition does NOT have a reference PCB.


Aquacomputer:

https://forum.aquacomputer.de/wasserk-hlung/p1447754-k-hlblock-f-r-die-3090-von-nv/#post1447754

Wir werden nach aktuellem Stand für die Nvidia FE 3070-3090 sowie ein bei vielen Partner verbreitetes alternatives PCB Kühler anbieten. Dabei werden 3070, 3080 und 3090 unterstützt werden.
Wann diese verfügbar werden, dazu können wir noch keine Aussage treffen. Es wird definitiv nicht zum 17.09. eine Verfügbarkeit geben.

Mehr gibt es dazu, wenn es eine Produktvorstellung geben wird.


Watercool:

https://www.hardwareluxx.de/community/threads/watercool-produktinfo.278904/page-254#post-27655841

Ja das dürfte ein spannender Herbst mit den neuen Karten werden...

Aktuell verlegen wir gerade in unserer Produktionshalle Kabeltrassen, damit die neuen Maschinen auch Strom bekommen. Den Umbau sollten wir auf alle Fälle vor dem Verkaufstart der Amperes abschließen :-)

Kühler für die FEs der 3080 und 3090 sind gesetzt, die kommen in jeden Fall. Aber auch 1-2 Custom-Layouts werden unterstützt, ich denke mal die Strix haben da schon Potential.

Mit dem neuen Design der Referenzplatinen ist einiges möglich. Den V-förmigen Freiraum kann man prima nutzen...

Eine wassergekühlte Backplate war eigentlich schon für die 2080er Serie angedacht, vielleicht setzen wir das ja in dieser Generation um




https://www.hardwareluxx.de/community/threads/watercool-produktinfo.278904/page-256#post-27657152

Was das Partner-Referenz PCB angeht, sollte das wirklich von mehreren Herstellern genutzt werden, ist dieses Layout natürlich auch für uns interessant. Aktuell gibts da einige Gerüchte, aber noch wenig Stichhaltiges.

crux2005
2020-09-04, 02:57:14
Wie groß ist das Problem der 10 Gb denn wirklich? Ich habe nun jahrelang 8 Gb und bisher nie auch nur ansatzweise vernommen, dass mir der VRAM in irgendeinem Spiel ausgeht.

Gibts da vielleicht eine Liste, von aktuellen Spielen und deren VRAM Auslastung auf max. Einstellungen und unterschiedlichen Auflösungen?

Raff?

Mehr als 8 GiB VRAM @ => 1440p und wirklich Maximum Einstellungen werden in diesen Spielen gebraucht:

Wolfensteins: New Collosus
Wolfenstein: Youngblood
Final Fantasy XV

Sehr knapp wird es in (nicht sicher ob es deswegen ruckelt):

Far Cry: New dawn mit Texture Pack
Call of Duty: Modern Warfare
Horizon Zero Dawn
Flight Simulator 2020

Als Bonus, neue/kommende Spiele:
Marvel's Avengers mit Texture Pack :freak:

Könnt die Liste gerne ergänzen. Habe sicher was vergessen.

Sardaukar.nsn
2020-09-04, 06:53:23
@Emil_i_Lönneberga: Vielleicht ist die Idee mit diesem alternativen Reference PCB ja gar nicht so schlecht. So kannst du dir halt ein beliebiges Einsteiger-Modell mit 2x8pin wie Asus TUF, Palit GamingPro, Gainward Phoenix usw. zulegen und einen Wasserblock deiner Wahl für dieses Reference Modell montieren. Wahrscheinlich wird auch die Verfügbarkeit dieser Karten besser sein. Wenn diese nVidia FE nicht mal eh ein halber paper-launch werden.

@JaniC: Hdmi 2.1 und die Verbindung von Ampere zum LG C9 inkl. VRR ist für mich mit Abstand das spannendste Highlight dieser Generation. OLED, echte HDR Bildqualität zusammen mit 4k und variabler Bildrate bis zu 120hz. Da kommen mehrere wichtige Sachen sinnvoll zusammen. Bis zum Cyberpunk 2077 Launch im November muss das Setup stehen, aber da bin ich guter Dinge. Ach wird das ein Feuerwerk :biggrin:

Banshee18
2020-09-04, 07:03:37
Ergo, ENDLICH bekommen wir von NV vernünftige Preise eben dank AMD. Was wir uns auch schon ewig wünschen :up:
Ist das so? Gab es nicht mal Zeiten, wo ein so stark abgespecktes Modell wie die 3070 vielleicht 200-250€ gekostet hat?
Nvidias Marketingabteilung hat die letzten Jahre alles richtig gemacht.

L233
2020-09-04, 08:08:42
Mehr als 8 GiB VRAM @ => 1440p und wirklich Maximum Einstellungen werden in diesen Spielen gebraucht:

Wolfensteins: New Collosus
Wolfenstein: Youngblood
Final Fantasy XV

"Werden gebraucht" oder "werden belegt, wenn vorhanden"? Das muss nicht zwangsläufig das selbe sein.

Wenn ich mir z.B. Benchmarks von FFXV mit und ohne Texturepack anschauen, dann verlieren bei Verwendung des Texturepack sowohl die 8GB als auch die 11GB Karten ca. 15% FPS. Wenn mehr als 8GB wirklich gebraucht würden, dann würde hier der Leistungsabfall bei den 8GB-Karten entsprechend höher ausfallen.

Ähnlich verhält es sich bei Doom Eternal in 4K und Ultra Nightmare Settings. Das genehmigt sich, falls vorhanden, zwar mehr als 8GB, aber es scheint keine negativen Auswirkungen zu haben, wenn nur 8GB vorhanden sind.

Zumal dieses Spiel (wie so einige andere), den exzessiven Mehrverbrauch an VRAM mit einer bestenfalls homöopathischen visuellen Verbesserung quittieren. Wenn man die Verbesserungen im Bild mit der Lupe (oder dem Mikroskop) suchen muss, dann fragt man sich, ob das nicht nur irgendwelche Mickey-Mouse-Witz-Settings für Nerds mit Ultra-High-End-Hardware sind, damit diese das Gefühl haben, dass sich die Investition gelohnt hat.

Sardaukar.nsn
2020-09-04, 08:24:37
@Banshee18: Durch die Aussage "3070 für 499€ = 2080ti Leistung" sind natürlich alle Karten darunter massiv unter Druck geraten. Schau doch mal auf den 2nd-Hand Markt, da wirst du in dem Bereich 200-250€ jetzt sehr interessante Karten finden.

@L233: Ich glaube auch das die Spielbarkeit nicht unter mangelndem VRAM leiden wird. Zumal ja auch das "Nachladen" dank NVMe-SSDs immer zügiger vonstatten geht. Meine 970 Evo Plus liest mit 3,5 GB/s neuere mit PCIe 4.0 sind schon bei 7 GB/s.

dargo
2020-09-04, 08:28:54
@L233: Ich glaube auch das die Spielbarkeit nicht unter mangelndem VRAM leiden wird. Zumal ja auch das "Nachladen" dank NVMe-SSDs immer zügiger vonstatten geht. Meine 970 Evo Plus liest mit 3,5 GB/s neuere mit PCIe 4.0 sind schon bei 7 GB/s.
Und das soll jetzt viel sein? :freak: Die 3080 liefert mehr als das 100 fache mit ihren 760GB/s.

Sardaukar.nsn
2020-09-04, 09:04:46
Und das soll jetzt viel sein? :freak: Die 3080 liefert mehr als das 100 fache mit ihren 760GB/s.

Zumindest für die neuen Konsolen wird der konsequente Einzug der NVMe-SSDs als Game changer bezeichnet. https://www.eurogamer.de/articles/2020-06-08-die-super-festplatten-von-ps5-und-xbox-series-x-und-warum-pc-spieler-auch-bald-davon-profitieren

Mit Directstorage wird ähnliches auch auf dem PC umgesetzt: https://www.deskmodder.de/blog/2020/09/02/directstorage-wird-fuer-nvme-ssds-auf-den-windows-10-pc-portiert/


Zudem noch ein paar absolute Zahlen zur 3080. Ich glaube die hatten wir hier noch nicht.

https://i.imgur.com/fiRnZdT.png

JVC
2020-09-04, 09:33:16
Ob jetzt die neue Konsolengeneration die Anforderungen der Spiele bzgl. VRAM so krass hochschrauben wird, dass man mit 10GB an die Grenze stößt, halte ich für eher unwahrscheinlich.
Nicht sofort, aber du sprichst irgendwie von der kompletten Dauer der neuen Generation...
Und da halte ich es für sehr wahrscheinlich...
Aber mal bitte konkret. Hast Du irgendwelche Beispiele, abseits von ineffizient totgemoddeten Skyrim-Abscheulichkeiten mit Ultra-High-Res-Waifus und 4k + 8x SSAA?
Das es jetzt schon Spiele gibt die auch noch von 16Gb profitieren können steht außer Zweifel.
Und wie du richtig angemerkt hast, kann man Ram immer irgendwie füllen :smile:

Ich bin halt einfach nicht ganz Deiner Meinung ;)
Das muss ich aber auch nicht sein, oder ?

Da ich nicht Jährlich meine Graka wechsle, habe ich lieber etwas mehr Reserven.
Ich versuche, für Mich ausgewogene und lange haltende Produkte zu finden.
(ich besitze noch jede Grafikkarte die ich mal nutzte, angefangen von der SPEA V7-Mirage P-64 VLB ^^)

Ich hoffe einfach auf ne baldige 3080 20Gb :up:

M.f.G. JVC

Rancor
2020-09-04, 09:41:30
Wie lange die 10 GB reichen kann niemand sagen. Ich hätte mir für die 3080 auch mehr gewünscht. Ich denke für Gamer die unter 4k also in WQHD zocken, sollten die 10 GB aber nicht ganz so kritisch sein wie für 4k and beyond User.

Badesalz
2020-09-04, 09:55:27
Zumal ich mich frage ob die größe des VRAM wirklich noch kritisch ist sofern RTX I/O hält was es verspricht.Ich bin gespannt wie lange die Leute wieder brauchen werden um zu lernen, daß es kein NV Feature ist, sondern Teils von DX12U und Vulcan.

Zum einen. Zum anderen, daß man dafür Boards und SSDs braucht die zum einen Zeitpunkt ausreichende Marktdurchdringung erreichen zum welchen eine 3080 nicht mehr taufrisch wird.

dargo
2020-09-04, 09:59:36
Zumindest für die neuen Konsolen wird der konsequente Einzug der NVMe-SSDs als Game changer bezeichnet. https://www.eurogamer.de/articles/2020-06-08-die-super-festplatten-von-ps5-und-xbox-series-x-und-warum-pc-spieler-auch-bald-davon-profitieren

Mit Directstorage wird ähnliches auch auf dem PC umgesetzt: https://www.deskmodder.de/blog/2020/09/02/directstorage-wird-fuer-nvme-ssds-auf-den-windows-10-pc-portiert/

Directstorage ist kein Ersatz für schnell angebundenen Speicher, nur eine Ergänzung. Und bis Directstorage am PC relevant ist dauert es eh noch.

Marodeur
2020-09-04, 10:36:52
Zumindest für die 3070 sind ja 16 GB Varianten schon in der Listung von Lenovo und wohl auch MSI aufgetaucht. Die Frage ist ja dann aber natürlich was die für einen Preisaufschlag für die 8 GB nehmen wollen...

Blutmaul
2020-09-04, 10:37:31
Es gibt Youtuber die meinen, das AMD nur auf 3070 level kommt und 16GB Ram verbaut.
Ist mir eigentlich egal, ich hab keinen Druck, erst die nächste Gen nach Ampere/RDNA2 wird frühestens interessant für mich.

Weiß nicht, ob es schon geposted wurde - aber natürlich gibt es einen "Risitas" (der lachende Spanier) zu RTX 3000:
https://www.youtube.com/watch?v=2upZSyQHwNA

Sardaukar.nsn
2020-09-04, 11:11:43
@Blutmaul: Wenn das so stimmt, kann AMD auch nicht viel mehr als 499€ für big Navi verlangen.

Schönes Video. Ja der Preis der 3070 bringt schon einiges ins Rutschen. Aus Käufer Sicht nur gut.

Grendizer
2020-09-04, 11:19:32
Wenn man von bisher 100 mb/sec ausgeht, braucht es 80 Sekunden den kompletten Speicher einer Karte mit Assets zu füllen. Deshalb muss ein großer Teil irgendwo gepuffert werden.

Wenn es (mit PCIE 4.0 NVMe und Kompression nur noch 1 Sekunde dauert den kompletten Speicher zu erneuern) muss nicht mehr so viel gepuffert werden.

Aber du hast Recht, bis sich das auf dem PC entsprechend durchsetzt, wird es länger dauern.

Raff
2020-09-04, 11:55:44
Apropos PCI-E 4.0: Vermutlich kommt man mit 10 GiB und 4.0-Infrastruktur ziemlich gut über die Runden. Das ist natürlich kein vollwertiger Ersatz für echten Grafikspeicher, allerdings lassen sich kleinere Hick-ups besser verstecken. Die 5500 XT zeigt, wie's bestenfalls hilft, die 5700 XT profitiert immerhin ein bisschen. Und GA102 ist signifikant schneller ...

MfG
Raff

dargo
2020-09-04, 11:55:46
Wenn man von bisher 100 mb/sec ausgeht, braucht es 80 Sekunden den kompletten Speicher einer Karte mit Assets zu füllen. Deshalb muss ein großer Teil irgendwo gepuffert werden.

Wenn es (mit PCIE 4.0 NVMe und Kompression nur noch 1 Sekunde dauert den kompletten Speicher zu erneuern) muss nicht mehr so viel gepuffert werden.

1.000ms sind beim Echtzeitrendering eine halbe Ewigkeit. In dieser Zeit habe ich bereits 70+ Frames (persönliches Target) hinter mir mit 70+ möglichen Frametime-Spikes. :)

Badesalz
2020-09-04, 12:11:01
Alter Verwatler... dargo... :freak:
Der Vram wird nicht erstmal komplett geflusht und dann mit dem neuen Content vollgeballert. Das ist ein sozusagen stetiger Stream Junge.

Wenn man von bisher 100 mb/sec ausgeht,Wie rechnet man die 100 MB/s aus?

dargo
2020-09-04, 12:13:38
Ach nee... :rolleyes: Lies nochmal worauf ich geantwortet habe.

Badesalz
2020-09-04, 12:15:42
Ja. Die Technik ist aber zum Glück nicht von seiner Rechenakkrobatik abhängig ;)

Wobei, die Konsolen können das trotzdem nicht 100% so. Sieht man am "Crash". Sie werden wohl ideenreiche ;) Übergänge zwischen den Leveln brauchen. Gamechanger ist Direct I/O aber allemal.

Nur sehe ich ebenfalls nicht auf dem PC, wo man deswegen Vram-Mengen einsparen könnte. Wenn ich +- auf das gleoche komme, mit Nvme 4.0 aber stagnierenden Vram, ist das keine Weiterentwicklung für mich. Größen von 11/12, 16 und 20 GB hätten in die heutige Zeit auch mit Nvme4.0 bestens gepasst.

Da hätte auch keiner mehr rumgemeckert warum dies oder jenes richtig? =)

Grendizer
2020-09-04, 12:21:41
Alter Verwatler... dargo... :freak:
Der Vram wird nicht erstmal komplett geflusht und dann mit dem neuen Content vollgeballert. Das ist ein sozusagen stetiger Stream Junge.

Wie rechnet man die 100 MB/s aus?

Handelsübliche Festplatte ... im max. Fall kommst du auf 160 mb/sec, hast aber noch die Zeit wenn der Kopf über die Platte huscht und die Daten sucht.

Dafür werden im Moment PC Spiele programmiert. Klar haben wir viele mit 500mb/sec SATA SSDs oder PCI 3.0 NVMe ... das reduiziert die Ladezeit des "Levels", aber das Streaming orientiert sich größtenteils an normalen HDs. Noch dazu habe ich mal irgendwo einen Benchmark gesehen, das PCI 4.0 NVMe die CPU extrem beanspruchen, wenn sie mit max. Geschwindigkeit lesen.

Grendizer
2020-09-04, 12:25:05
1.000ms sind beim Echtzeitrendering eine halbe Ewigkeit. In dieser Zeit habe ich bereits 70+ Frames (persönliches Target) hinter mir mit 70+ möglichen Frametime-Spikes. :)


Weil die 8 Gb immer komplett erneuert werden ?

N0Thing
2020-09-04, 12:31:08
Na die 3000er haben bestimmt leicht bessere Textur Kompression und dann ist 4k mit 10Gb nicht ausgelastet.

Ich meine unser id Software Mitarbeiter des Forums hat mal angemerkt, dass die Texturen im VRAM nicht komprimiert vorliegen können, damit die Engine auf sie zugreifen kann. Die Komprimierung bringt also nur bei der Datenübertragung in den VRAM Vorteile und spart Bandbreite.

dargo
2020-09-04, 12:35:32
Weil die 8 Gb immer komplett erneuert werden ?
Rechne es doch weiter runter. Ich lege dir sogar was vor. Nehmen wir die genannten 7GB/s. In 100ms hast du ~717MB voll. 100ms sind immer noch eine Ewigkeit im Echtzeitrendering, mit 10fps spielt niemand. In 10ms dann ~72MB. Die 72MB würden schon mal in ein 60fps Target passen. Bei 120fps nicht mehr.

w0mbat
2020-09-04, 12:36:16
Ich könnte mir vorstellen, dass die engine in Zukunft erstmal schaut, was für eine Speichermedium benutzt wird (HDD, SATA SSD, PCIe SSD) und dann darauf basierend die streaming Einstellungen ändert. Hat jemand ne langsame HDD, muss viel im VRAM vorgehalten werden. Sind die Daten auf ner PCIe NVMe SSD verfügbar und die GPU hat direkten Zugriff darauf, dann müssen nicht so viele Daten vorgehalten werden und man kann den VRAM effizienter nutzen.

dargo
2020-09-04, 12:43:48
Sobald ein Spiel DirectStorage unterstützt wird es sicherlich bei den Mindestvoraussetzungen stehen welche SSD nötig ist.

ChaosTM
2020-09-04, 12:48:56
500MB/sec Sata drives weürden wohl auch profitieren.. falls unterstützt

Ex3cut3r
2020-09-04, 12:55:20
PCIe. 4.0 kann da immens helfen, wenn der Speicher nicht ausreicht. PCGH hatte mal ein Video auf YouTube mit Navi in Wolfenstein gezeigt. Alle B550/X570 User können da einen Trumpf in der Hand haben. 10GB sind einfach nicht schön. Klar, jetzt momentan hat man wohl keine Probleme, allerdings stehen wir vor einer neuen Konsolen Gen. Und wer weiß, wie die Sache schon ab März 2021 in AAA Titeln dann aussieht. Fakt ist, 10GB sind nur 2GB mehr, und mit 8GB kann man schon heute in 4K Probleme haben, Rise of the Tomb Raider, Final Fantasy, HDZ, Wolfenstein/Doom.

L233
2020-09-04, 13:00:16
Rechne es doch weiter runter. Ich lege dir sogar was vor. Nehmen wir die genannten 7GB/s. In 100ms hast du ~717MB voll. 100ms sind immer noch eine Ewigkeit im Echtzeitrendering, mit 10fps spielt niemand. In 10ms dann ~72MB. Die 72MB würden schon mal in ein 60fps Target passen. Bei 120fps nicht mehr.

Es geht, denke ich mal, nicht um den Echtzeitzugriff. Die Frage ist eher, wie viel % der 10GB Speicher für das Rendering der aktuellen Szene wirklich benötigt werden. Wird wohl nur ein Bruchteil sein. Der Rest des Speichers wird halt vollgemacht, um die entsprechenden Daten für den Fall der Fälle vorzuhalten. Kostet ja nichts. Und da gäbe es sicherlich Möglichkeiten, dynamisch zu swappen.

Und so lange die Vorteile von VRAM-schluckenden Ultra-Settings nur im Standbild mit exzessivem Pixel-Peeping auszumachen sind, ist es eh egal.

JVC
2020-09-04, 13:04:50
PCIe. 4.0 kann da immens helfen, wenn der Speicher nicht ausreicht. PCGH hatte mal ein Video auf YouTube mit Navi in Wolfenstein gezeigt. Alle B550/X570 User können da einen Trumpf in der Hand haben.
Gab auch bei 3DC nen Artikel dazu.
https://www.3dcenter.org/news/amds-hbcc-feature-kann-der-richtigen-situation-bis-zu-70-mehrperformance-bringen (26.03.2018)

M.f.G. JVC

rentex
2020-09-04, 13:07:06
Noch kein einziges Review online und schon so nen Thread aufmachen... muss man nicht verstehen!

Und ja, die PCIe 4.0 Geschichte ist uralt...auch schon gemerkt:rolleyes:

Ex3cut3r
2020-09-04, 13:16:39
Gab auch bei 3DC nen Artikel dazu.
https://www.3dcenter.org/news/amds-hbcc-feature-kann-der-richtigen-situation-bis-zu-70-mehrperformance-bringen (26.03.2018)

M.f.G. JVC

Nein, das meinte ich nicht. Ich rede von PCIe 4.0 vs PCIe 3.0 in Speicher Mangel Szenarien. Nicht HBCC. (19.12.2019)

Wenn man sich das Video anschaut. Kann man sich IMO mit PCIe 4.0 Board. Eine 10GB Karte erstmal erlauben. :up: Allen anderen wurde eher davon abraten. :up:


M7OcwZTsNP4

dargo
2020-09-04, 13:16:40
Es geht, denke ich mal, nicht um den Echtzeitzugriff.
Es ist doch ganz einfach. Die Zeit die für xxxMB benötigt wird muss kürzer sein als die Renderingzeit. In dem Fall bekommt man kein Problem mit den Frametimes.

L233
2020-09-04, 13:28:02
Es ist doch ganz einfach. Die Zeit die für xxxMB benötigt wird muss kürzer sein als die Renderingzeit. In dem Fall bekommt man kein Problem mit den Frametimes.

Den Rest vom Posting hast Du gelesen?

JVC
2020-09-04, 13:28:15
Nein, das meinte ich nicht. Ich rede von PCIe 4.0 in Speicher Mangel Szenarien.

Natürlich bringt 4.0 gegenüber 3.0 noch mehr :smile:
3.0 wird aber auch funktionieren, der "zusätzliche Speicherpool" ist halt kleiner.

Aber im Grunde ist es die Weiterentwicklung von HBBC was in DX12_2 Einzug hält.
Ich finde es gut, das es Alle nutzen werden ;)

M.f.G. JVC

dargo
2020-09-04, 13:30:25
Den Rest vom Posting hast Du gelesen?
Ja... aber der ist imo irrelevant. DirectStorage ist für eine 10GB 3080 eher uninteressant in ihrer Lebenszeit. Das ist was für die Zukunft. Interessant wirds eher für denjenigen der sich in 2022+ eine gebrauchte 3080 zulegt.

Ex3cut3r
2020-09-04, 13:32:07
Natürlich bringt 4.0 gegenüber 3.0 noch mehr :smile:
3.0 wird aber auch funktionieren, der "zusätzliche Speicherpool" ist halt kleiner.

Aber im Grunde ist es die Weiterentwicklung von HBBC was in DX12_2 Einzug hält.
Ich finde es gut, das es Alle nutzen werden ;)

M.f.G. JVC

Was hat das mit dem Speicherpool zu tun? Es geht um die Bandbreite die einfach schneller hin und her swappen kann, durch 4.0

HBBC ist eine Totgeburt, es bringt gar nix in aktuellen Spielen, weil AMD die Funktion gar nicht gepflegt hat. Siehe HZD z.B. da bringt HBCC gar nix, es ruckelt sogar noch mehr damit.

Du scheinst zwei Sachen miteinander gleichzustellen, die Technologisch, aber komplett verschieden sind, und gar nichts miteinander zu tun haben. Weil HBCC eine AMD Sache war/ist. Und Ampere auch PCIe 4.0 nun haben wird. Und damit in Speicher Intensiven Szenarien einen Vorteil mit PCIe 4.0 Board hat.

aufkrawall
2020-09-04, 13:32:47
Aber im Grunde ist es die Weiterentwicklung von HBBC was in DX12_2 Einzug hält.

Das wär aber arm, denn nennenswert mehr als halbwegs das Ausgleichen des schlechteren Managements von VRAM-Mangel vs. Nvidia DX11 hab ich für dieses Super-Duper-Feature nicht in Erinnerung...
Aber klar, bei AMD gabs das alles schon vor Jahren. :facepalm:

Edit: Mal noch ein "nennenswert" hinzugefügt, um dem Halo-Produkt Vega kein Unrecht zu tun.

JVC
2020-09-04, 13:46:14
Vielleicht verwechsle ich gerade wirklich etwas :redface:

Hab jetzt aber keine Lust meine "Erinnerungshistorie" zu erklären
und nicht ganz richtig kann sie natürlich auch sein...

Hauptsache wir bekommen Es auch mal auf dem PC :smile:
(was die ~2-3 fache menge an GPU-Ram für Texturen nutzen kann)

M.f.G. JVC

Ex3cut3r
2020-09-04, 13:47:20
Alles gut. Kann passieren. :up:

Allerdings, verstehe ich deine Aussagen, immer noch nicht. Wenn du ein Pcie. 4.0 Board und eine Zen 2 CPU hast sowie eine Ampere GPU, ja, dann kommst du in den Genuss von schnelleren Bandbreiten und hast in Speicher Intensiven Szenarien (bzw. wenn der VRAM nicht reicht) einen großen Vorteil, siehe das Video von Oben. Wenn du kein PCIe 4.0 Board hast, kommst du halt nicht in den Genuss, von PCIe 4.0.

Du hast laut Profil ja noch eine Ivy Plattform, also bist eh raus. Und anstatt dir jetzt eine Ampere zu kaufen, wurde ich dir eher raten. Dir mal eine Zen 3 CPU und Plattform zuzulegen. Denn mit 4C/4T kommt man nicht mehr weit. (auch schon heute)

JVC
2020-09-04, 14:02:42
Ich war noch in der "direckt storage" Sache mit dem Kopf...
Zumal ich mich frage ob die größe des VRAM wirklich noch kritisch ist sofern RTX I/O hält was es verspricht.
Ich bin gespannt wie lange die Leute wieder brauchen werden um zu lernen, daß es kein NV Feature ist, sondern Teils von DX12U und Vulcan.


M.f.G. JVC

P.s.: Ich habe vor 2 Jahren mit dem neuen Rechner begonnen ^^
Es fehlt noch ne Zen3 und ne 16Gb HDMI 2.1 GPU ;) (ursprünglich wollte ich nur auf Zen2 warten...)
Und da ich das alte System auch noch tatsächlich nutze :freak: steht es auch noch drinnen :)

qiller
2020-09-04, 14:11:00
500MB/sec Sata drives weürden wohl auch profitieren.. falls unterstützt

Hm, weiß nicht. So wie ich die Features von XBOX und PS5 verstanden hatte, reichen da 500MB/s einfach nicht aus - sonst hätte man sich ja den "Kompressionsturbo" auch sparen können. Mit RTX I/O und einer PCIe x4 Gen4 Schnittstelle gibt NVidia eine Transferleistung von 14GB/s an.

Und dargo hatte es ja schon grob vorgerechnet. Wenn ich mal einfach 120fps annehme, beträgt die mögliche Änderungrate im VRAM 117MB pro Frame, wenn man mal bei den 14GB/s bleibt. Mit Sata würde man da gerade mal bei 4MB, mit angenommer Verdoppelung durch eine Kompression bei 8MB pro Frame liegen.

dargo
2020-09-04, 14:36:03
Wenn man sich das Video anschaut. Kann man sich IMO mit PCIe 4.0 Board. Eine 10GB Karte erstmal erlauben. :up: Allen anderen wurde eher davon abraten. :up:


https://youtu.be/M7OcwZTsNP4
Imho ist dieses Beispiel der PCGH nicht so toll. Die RX 5500XT ist mit ihren 8 Lanes schon etwas sonderbar. In der Regel hat man 16 Lanes. Zudem sieht man in dem Video zwar, dass die Frames mit PCIE 4.0 steigen, die Frametimes sind aber weiterhin scheiße. Nur weniger scheiße als mit PCIE 3.0. Von fluffiger Spielbarkeit sehe ich jedenfalls mit PCIE 4.0 8x nichts. Besser wäre wenn sie ein neues Video mit einer RX 5600XT machen würden. PCIE 3.0 16x vs. PCIE 4.0 16x.

rentex
2020-09-04, 15:21:00
Ich war noch in der "direckt storage" Sache mit dem Kopf...



M.f.G. JVC

P.s.: Ich habe vor 2 Jahren mit dem neuen Rechner begonnen ^^
Es fehlt noch ne Zen3 und ne 16Gb HDMI 2.1 GPU ;) (ursprünglich wollte ich nur auf Zen2 warten...)
Und da ich das alte System auch noch tatsächlich nutze :freak: steht es auch noch drinnen :)

Wow...und jetzt schreibst du aktuell deine Postings aufm Taschenrechner? :freak:

r3ptil3
2020-09-04, 15:28:01
Apropos PCI-E 4.0: Vermutlich Die 5500 XT zeigt, wie's bestenfalls hilft, die 5700 XT profitiert immerhin ein bisschen. Und GA102 ist signifikant schneller ...

MfG
Raff

Die 5500XT kann aber nur die Hälfte der Bandbreite von PCIE 4.0 nutzen , was wiederrum auch nur PCIE 3.0 @X16 entspricht.

5700 und RTX 30xx usw. können PCIE 3.0 x16, sprich sie haben die gleiche Bandbreite mit PCIE 3.0 zur Verfügung, wie eine 5500 XT @ PCIE 4.0 (x8).

Sollte nicht vergessen werden.

JVC
2020-09-04, 15:45:32
Wow...und jetzt schreibst du aktuell deine Postings aufm Taschenrechner? :freak:
Hast du denn nur einen PC :confused:

SRY, zu viel off Topic... Wird Zeit das Tests kommen ^^

M.f.G. JVC

Da fällt doch erst das NDA, oder nicht?
NVs NDA fällt nicht komplett mit der "Veröffentlichung" ^^
(siehe meine SIG übers Profil etwas weiter unten...)

JaniC
2020-09-04, 16:21:58
Wird Zeit das Tests kommen ^^

M.f.G. JVC


Wird denke ich nicht vor dem 17. September passieren. Da fällt doch erst das NDA, oder nicht?

rentex
2020-09-04, 17:43:25
Deswegen eröffnet man schon jetzt den Review Thread:wink:

Badesalz
2020-09-04, 22:22:20
Es geht, denke ich mal, nicht um den Echtzeitzugriff. Die Frage ist eher, wie viel % der 10GB Speicher für das Rendering der aktuellen Szene wirklich benötigt werden. Wird wohl nur ein Bruchteil sein.Mit der mehrfachen Absicherung - also denk ich mal, den wohls und den ehers, kann ich grad nicht einschätzen was hier Informationen sind und was Theorien.
Wäre da nicht besser, man fragt sich erstmal durch was davon stimmt?

Ja... aber der ist imo irrelevant. DirectStorage ist für eine 10GB 3080 eher uninteressant in ihrer Lebenszeit. Das ist was für die Zukunft. Interessant wirds eher für denjenigen der sich in 2022+ eine gebrauchte 3080 zulegt.Na also. dargo hat mich verstanden ;)

Swissr
2020-09-05, 00:32:12
Hat jemand von euch mal mit einer RTX2080 TI versucht den Benchmarkwert nachzustellen? Habe mit meinem 21:9 Monitor mal eine UHD Auflösung manuell im Windows kreiert und Doom Eternal laufen lassen, Grafikkarte war auf 1920Mhz übertaktet.

Weiss nicht ob die Auslastung damit wirklich 1:1 wie UHD ist (das Bild wird auf 21:9 gestretcht)
, die FPS sind jedoch sehr nahe an der 3080.

Hier könnnt ihr selbst vergleichen:

Nvidia Vergleich: https://youtu.be/EGzsYCRMVu4?t=76 (die ersten Sekunden noch mit 2080ti)
Mein Video, nur mit Handycam aufgenommen: https://youtu.be/PTM5eV8WXQ8?t=18

Evlt. könnte ja jemand mit einem 4k Monitor und 2080TI verifizieren

Armaq
2020-09-05, 00:36:36
Hat jemand von euch mal mit einer RTX2080 TI versucht den Benchmarkwert nachzustellen? Habe mit meinem 21:9 Monitor mal eine UHD Auflösung manuell im Windows kreiert und Doom Eternal laufen lassen, Grafikkarte war auf 1920Mhz übertaktet.

Weiss nicht ob die Auslastung damit wirklich 1:1 wie UHD ist (das Bild wird auf 21:9 gestretcht)
, die FPS sind jedoch sehr nahe an der 3080.

Hier könnnt ihr selbst vergleichen:

Nvidia Vergleich: https://youtu.be/EGzsYCRMVu4?t=76 (die ersten Sekunden noch mit 2080ti)
Mein Video, nur mit Handycam aufgenommen: https://youtu.be/PTM5eV8WXQ8?t=18

Evlt. könnte ja jemand mit einem 4k Monitor und 2080TI verifizieren
Ich hab leider keinen 4k Monitor, aber interessanter Vergleich. Da wird Nvidia hoffentlich nicht zu dreist gewesen sein.

KEFFER
2020-09-05, 05:14:12
Alles gut. Kann passieren. :up:

...Du hast laut Profil ja noch eine Ivy Plattform, also bist eh raus. Und anstatt dir jetzt eine Ampere zu kaufen, wurde ich dir eher raten. Dir mal eine Zen 3 CPU und Plattform zuzulegen. Denn mit 4C/4T kommt man nicht mehr weit. (auch schon heute)

Benchmarks zum AMD Ryzen 3 3300X sagen etwas anderes.

Badesalz
2020-09-05, 06:37:18
Mit RTX I/O und einer PCIe x4 Gen4 Schnittstelle gibt NVidia eine Transferleistung von 14GB/s an.

Und dargo hatte es ja schon grob vorgerechnet. Wenn ich mal einfach 120fps annehme, beträgt die mögliche Änderungrate im VRAM 117MB pro Frame, wenn man mal bei den 14GB/s bleibt. Mit Sata würde man da gerade mal bei 4MB, mit angenommer Verdoppelung durch eine Kompression bei 8MB pro Frame liegen.Welcher versteckter Sinn steckt dahinter, die eine Schnittstelle mit dem real erreichbaren des Systems, die andere mit den theoretisch maximal möglichen Eckdaten EINER Komponente zu vergleichen?

@KEFFER
Hier ist die Rede vom 3570k Ivy und nicht vom 3770k Ivy. Das ist wie korrekt aufgeschrieben, 4c/4t. Ein 3300X ist 4c/8t.

Pascal Parvex
2020-09-05, 07:19:12
Ich hab leider keinen 4k Monitor, aber interessanter Vergleich. Da wird Nvidia hoffentlich nicht zu dreist gewesen sein.

Ich habe sowohl einen 4K Monitor, einen 8K Fernseher, eine 2080 Ti, aber kein Doom Eternal...

Rooter
2020-09-05, 11:12:21
Habe diesen Artikel bei CB (https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3000-kuehler-founders-edition/) gelesen und bin verwirrt.

Vor allem dieses Bild von Nvidia

https://pics.computerbase.de/9/4/6/7/8/article-630x354.f170c393.jpg

stimmt doch so nicht!
Der Lüfter an der Slotblende saugt die Luft doch in Wahrheit von oben an denn er sitzt ja oben auf dem PCB.

Das Video hat leider auch nicht geholfen, so oft wie die Karte da halbfertig rotiert wird. X-D

MfG
Rooter

L233
2020-09-05, 11:27:05
stimmt doch so nicht!
Der Lüfter an der Slotblende saugt die Luft doch in Wahrheit von oben an denn er sitzt ja oben auf dem PCB.

Häh? Das Bild ist eigentlich klar verständlich sein. Was meinst Du mit "Lüfter an der Slotblende"? Dir ist schon klar, das ein Lüfter sowohl bläst als auch saugt, oder?

dildo4u
2020-09-05, 11:27:25
Beide Lüfter ziehen von unten nach oben Luft was anderes macht thermodynamisch auch kein Sinn.

https://i.ibb.co/kMVV3PF/13-1080-b1afe0ab.png (https://ibb.co/kMVV3PF)

Blutmaul
2020-09-05, 11:27:35
Der Lüfter an der Slotblende sitzt unten und zieht die Luft rein und bläst sie durch die Slotblende raus.

Das CB Bauteil-Schemafoto ist so aufgebaut, das es die Karte nicht in der Einbauposition zeigt, sondern umgedreht (Unterseite nach oben).

Und zur Gehäusemitte der Lüfter hat kein PCB im Weg, das sind nur Heatpipes und Lüfterlamellen, durch die er die Luft zieht und dann nach oben zum CPU-Kühler bläst, was evtl. problematisch werden könnte, je nachdem, wie heiß die Luft da wird - man würde ja auch keinen Heißluftföhn auf seine CPU richten und dann denken, das würde die Leistung verbessern.

Was mich eher wundert ist, das man die V-förmigen Kühlkörperteile zwischen den beiden Lüftern nicht aktiv kühlt.

BiZiNiZz
2020-09-05, 11:28:27
Das Schaubild ist so schon richtig. Beide Lüfter ziehen die Frischluft von unten an, die vom Gehäuse entweder von der Seite oder Front kommt. Der Lüfter an der Slotblende drückt die Luft direkt Raus, ähnlich wie bei den Axial Lüfter Karten, der andere schiebt die Luft nach oben Richtung Deckel bzw Rückseiten Lüfter.

Rooter
2020-09-05, 11:32:11
Das CB Bauteil-Schemafoto ist so aufgebaut, das es die Karte nicht in der Einbauposition zeigt, sondern umgedreht (Unterseite nach oben).Das war es, was mich verwirrt hat. :conf:
Das Bild von dildo4u hat es klar gemacht.
Danke @all!

MfG
Rooter

Marodeur
2020-09-05, 11:45:35
Ich überleg grad ob diese Konstruktion bei mir Sinn macht. Mein Gehäuse ist umgebaut, Board steht auf dem Kopf. Thermodynamisch also wohl nicht so günstig bei dieser Konstruktion. Sollte da wohl eh auf Custom-Lösungen warten die für mich günstiger aufgebaut sind. Hm..

Emil_i_Lönneberga
2020-09-05, 11:52:02
@Emil_i_Lönneberga: Vielleicht ist die Idee mit diesem alternativen Reference PCB ja gar nicht so schlecht. So kannst du dir halt ein beliebiges Einsteiger-Modell mit 2x8pin wie Asus TUF, Palit GamingPro, Gainward Phoenix usw. zulegen und einen Wasserblock deiner Wahl für dieses Reference Modell montieren. Wahrscheinlich wird auch die Verfügbarkeit dieser Karten besser sein. Wenn diese nVidia FE nicht mal eh ein halber paper-launch werden.
...

So könnte das PCB für die Partner aussehen. Beim PCB der Boardpartner, so weit es verglichen werden kann, gibt es Ähnlichkeiten.

Bei der Zotac 3080 Trinity hat das PCB am der Befestigungspunkt für das PCI Slot Bracket auf der Rückseite diesselbe geschwungene Form.

https://www.overclockers.co.uk/zotac-geforce-rtx-3080-trinity-10gb-gddr6x-pci-express-graphics-card-gx-122-zt.html


Das erkennt man auch bei der Palit 3080 Pro.

https://www.overclockers.co.uk/palit-geforce-rtx-3080-gaming-pro-10gb-gddr6x-pci-express-graphics-card-gx-05d-pl.html


Die PCB Außenkante in Richtung Steckplatz hat in beiden Beispielen auch den markanten Anstieg und die kurze Platine ist durch die löchrigen Backplates auch gesetzt.

Die bereits vorgestellten Blöcke von EKWB besitzen auch auf beiden Seiten diesselben Aussparungen für die PCB Komponenten, wie auch die Kontaktpunkte zu den beiden VRM Reihen auf beiden Seiten des GA102.



Die Abmessungen des EKWB Kühlers werden auch angegeben:

Technical Specification:

- Dimensions: (LxHxW) - 230x124x16.5mm

Am Kühlerende wird sich wie schon bei den Turing Kühlern das überstehende (https://www.ekwb.com/shop/media/catalog/product/cache/1/thumbnail/1600x1067/17f82f742ffe127f42dca9de82fb58b1/e/k/ekint-vector_re_2080_copper_plexi_front_pcb_1.jpg) ~15mm lange Acetalstück über die Schrauben entfernen lassen.

--> Effektive Kartenlänge mit Wasserkühler ~215mm?





https://abload.de/img/operaanlkgrnt_2020-09wmkov.png

https://cdn.videocardz.com/1/2020/09/NVIDIA-GeForce-RTX-3080-PCB.jpg


https://www.ekwb.com/shop/water-blocks/vga-blocks/full-cover-for-nvidia-geforce/geforce-3070-3080-3090-water-blocks

https://www.ekwb.com/shop/media/catalog/product/cache/1/thumbnail/1600x1067/17f82f742ffe127f42dca9de82fb58b1/e/k/ek_quantum_vector_rtx_3080_3090_copper_plexi_bot.jpg

Armaq
2020-09-05, 12:08:40
Es ist doch bestätigt, dass es ein Partner Referenz Design gibt und die FE Karten ein anderes Design haben. AiO und Fullcover wird es nur für das Partner Ref. Design geben.

Emil_i_Lönneberga
2020-09-05, 12:12:46
Schon klar. Es ging uns eher um einen deep dive.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12413530#post12413530


Edit:

Genau das wird eben nicht einheitlich gehandhabt:
Es ist doch bestätigt, dass es ein Partner Referenz Design gibt und die FE Karten ein anderes Design haben. AiO und Fullcover wird es nur für das Partner Ref. Design geben.

BlacKi
2020-09-05, 17:52:01
bei mir wirds wohl die 3080 mit 10gb. ich glaube gigabyte hat mal wieder den größten. die MSI modelle sind sicher wieder klasse, aber ich freue mich über die erstens tests der auros serie mit 3,5-4 slot kühlern^^
so nebenbei gibts auch 3x hdmi2.1. das hat so auch kein anderer hersteller. asus kommt auf 2 glaub ich.
https://abload.de/thumb/3kpjpv.png (https://abload.de/image.php?img=3kpjpv.png)
https://abload.de/thumb/4sbkkr.png (https://abload.de/image.php?img=4sbkkr.png)
https://abload.de/thumb/541jpz.png (https://abload.de/image.php?img=541jpz.png)

KEFFER
2020-09-06, 06:02:14
Welcher versteckter Sinn steckt dahinter, die eine Schnittstelle mit dem real erreichbaren des Systems, die andere mit den theoretisch maximal möglichen Eckdaten EINER Komponente zu vergleichen?

@KEFFER
Hier ist die Rede vom 3570k Ivy und nicht vom 3770k Ivy. Das ist wie korrekt aufgeschrieben, 4c/4t. Ein 3300X ist 4c/8t.


Du hast recht, ich habe es vorschnell fehl interpretiert.

Badesalz
2020-09-06, 06:47:41
Das Schaubild ist so schon richtig. Beide Lüfter ziehen die Frischluft von unten an, die vom Gehäuse entweder von der Seite oder Front kommt. Der Lüfter an der Slotblende drückt die Luft direkt Raus, ähnlich wie bei den Axial Lüfter Karten, der andere schiebt die Luft nach oben Richtung Deckel bzw Rückseiten Lüfter.DAS ist doch mal genial. Wäre man eher drauf gekommen, hätte man sich den Quark mit den Radiallüftern schon immer sparen können. Hat jemand vielleicht schon bei Google die Patentnummer zu Axiallüftern gefunden, die wie Radiallüfter funktionieren? :uup:

Bitte mehr sachlichen Inhalt und weniger Bullshit gebrabbelKlar dafür.

bei mir wirds wohl die 3080 mit 10gb.:| Die gibts auch nur mit 10GB...

so nebenbei gibts auch 3x hdmi2.1. das hat so auch kein anderer hersteller. asus kommt auf 2 glaub ich.Du hast 3 zur Auswahl. Ob sie alle 3 gleichzeitig komplettes 2.1 Featuresset bringen können, das... hmm... ;)

hesTeR-
2020-09-06, 09:20:35
Bin mir grade echt unsicher ob ich meine gute 1080 verkaufe und mir für um 500€ ne 2080 Ti kaufen soll oder auf die 3070/3080 warten...

JVC
2020-09-06, 09:22:28
DAS ist doch mal genial. Wäre man eher drauf gekommen...

Z.B.: https://geizhals.at/sapphire-radeon-r9-fury-tri-x-11247-00-40g-a1295264.html (2015)

Zum glück muss ich "keine Luft aus dem Gehäuse bringen".
Ist ein sehr offener Aufbau ohne jegliche "Temperaturmauern".

M.f.G. JVC

dargo
2020-09-06, 09:28:15
bei mir wirds wohl die 3080 mit 10gb. ich glaube gigabyte hat mal wieder den größten. die MSI modelle sind sicher wieder klasse, aber ich freue mich über die erstens tests der auros serie mit 3,5-4 slot kühlern^^
so nebenbei gibts auch 3x hdmi2.1. das hat so auch kein anderer hersteller. asus kommt auf 2 glaub ich.
https://abload.de/thumb/3kpjpv.png (https://abload.de/image.php?img=3kpjpv.png)
https://abload.de/thumb/4sbkkr.png (https://abload.de/image.php?img=4sbkkr.png)
https://abload.de/thumb/541jpz.png (https://abload.de/image.php?img=541jpz.png)
Alter... zwei Ziegelsteine übereinander gestapelt? :facepalm: Ich bin schon gespannt ob Mainboards und/oder NVMe´s bei der Hitzentwicklung aussteigen. :D

dildo4u
2020-09-06, 09:33:02
Komisches Modell 4 Slot Kühler und nur 2X8 Pin.

Blutmaul
2020-09-06, 12:19:30
Bin mir grade echt unsicher ob ich meine gute 1080 verkaufe und mir für um 500€ ne 2080 Ti kaufen soll oder auf die 3070/3080 warten...

Ich bezahl für eine Gebrauchtkarte niemals den Neupreis des Nachfolgemodels!

Wenn es eine Neukarte ist - vermutlich wird die Erstverfügbarkeit nicht so gut sein - da kann man das machen, wenn man akzeptiert, das man in Vorläufertechnologie investiert.


Was mich am Referenzdesign der RTX3k etwas wundert ist, das der Durchzuglüfter im Prinzip "rückwärts" drehen muß, um die Luft durchzuziehen.
Die Lüfter sollten ja eigentlich so optimiert sein, das die Lüfterblätter auf eine bestimmte Drehrichtung ausgerichtet sind und gegenläufig eine schlechtere Leistung bringen.

Sardaukar.nsn
2020-09-06, 12:19:54
Komisches Modell 4 Slot Kühler und nur 2X8 Pin.

Für 375 Watt wird es wohl reichen. 75 vom Slot und ja 150 vom 8pin.
https://de.wikipedia.org/wiki/PCI_Express#Stromversorgung

Für eine 3080, kommend von 320W ergäbe das ein Power Target von ca. 117%.

BlacKi
2020-09-06, 13:03:33
Alter... zwei Ziegelsteine übereinander gestapelt? :facepalm: Ich bin schon gespannt ob Mainboards und/oder NVMe´s bei der Hitzentwicklung aussteigen. :D
umso größer der kühler umso geringer die thermische belastung der karte und der komponenten im umfeld.

Komisches Modell 4 Slot Kühler und nur 2X8 Pin.
was ist daran komisch? die anschlüsse reichen total aus. die meisten 3080 modelle werden wohl bei +15% schluss machen.



:| Die gibts auch nur mit 10GB...

Du hast 3 zur Auswahl. Ob sie alle 3 gleichzeitig komplettes 2.1 Featuresset bringen können, das... hmm... ;)
ich verstehe nicht warum du davon ausgehst das es zeitnah mehr geben sollte. ps der kühler kommt auch für die 3090 ;)
wenn die 3x hdmi2.1 bringen und nicht jeder gleichzeitig und mit allen funktionen sich betreiben lässt, wäre das hart fail. ich meine mir wärs egal, aber dennoch...

00-Schneider
2020-09-06, 13:04:36
Wann gibts vernünftige Benchmarks/Reviews etc. zu 30X0 von den bekannten Seiten?

edit: Danke Troyan!

Troyan
2020-09-06, 13:05:55
14.09 für die 3080FE und 17.09 für die Custom-Karten.

hesTeR-
2020-09-06, 13:10:47
Ich bezahl für eine Gebrauchtkarte niemals den Neupreis des Nachfolgemodels!

Wenn es eine Neukarte ist - vermutlich wird die Erstverfügbarkeit nicht so gut sein - da kann man das machen, wenn man akzeptiert, das man in Vorläufertechnologie investiert.


Das stimmt natürlich, aber wenn es wirklich so sein sollte das die 3080 garnicht so weit über der 2080 ti ist, wird es die 3070 erst recht nicht sein und dann könnte man grade ein gutes Schnäppchen machen... Alles nicht so einfach

SkankHunt
2020-09-06, 13:18:31
Frage mich nur, ob der Kühler der FE besser ist, als der billigeren Customs.
Würde wirklich gerne bei den 699 bleiben.

BlacKi
2020-09-06, 13:58:10
Frage mich nur, ob der Kühler der FE besser ist, als der billigeren Customs.
Würde wirklich gerne bei den 699 bleiben.
die günstigen customs werden dafür aber auch günstiger. ob es zum preispunkt der Fe bessere kühler geben wird, muss sich erst zeigen.

SkankHunt
2020-09-06, 14:24:53
die günstigen customs werden dafür aber auch günstiger. ob es zum preispunkt der Fe bessere kühler geben wird, muss sich erst zeigen.

Ich hoffe es zumindest auch. Wenn die FE wirklich so schnell leer sein sollte, weiß ich nicht, ob sie nicht auch 699€ ansetzen.

Zusätzlich brauche ich zum Beispiel Watch Dogs Legion nicht. Sollte man ja auch für 39 verkaufen können, was ich nochmal abziehen würde.

hq-hq
2020-09-06, 14:42:24
Was mich am Referenzdesign der RTX3k etwas wundert ist, das der Durchzuglüfter im Prinzip "rückwärts" drehen muß, um die Luft durchzuziehen.
Die Lüfter sollten ja eigentlich so optimiert sein, das die Lüfterblätter auf eine bestimmte Drehrichtung ausgerichtet sind und gegenläufig eine schlechtere Leistung bringen.


die Animation auf der NVidia Seite lässt den Lüfter tatsächlich "rückwärts" drehen.... ominös - wahrscheinlich bringt das mehr "Saugkraft" wenn die Schaufeln so geformt sind

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=71374&stc=1&d=1599396111

https://www.nvidia.com/de-de/geforce/graphics-cards/30-series/rtx-3080/

qiller
2020-09-06, 15:26:55
Welcher versteckter Sinn steckt dahinter, die eine Schnittstelle mit dem real erreichbaren des Systems, die andere mit den theoretisch maximal möglichen Eckdaten EINER Komponente zu vergleichen?
...
Ich habe mit 14GB/s auf PCIe x4 Gen4-Seite und 1GB/s auf Sata-Seite gerechnet, was bei beiden Schnittstellen eine theoretische, und nur durch Kompression erreichbare Transferleistung darstellt. Ich sehe jedenfalls keine einseitige Bevorzugung einer der beiden Schnittstellen durch meine Rechnung. Außerdem ging es mir nur um die Veranschaulichung der Differenz auf pro-Framebasis. Und das ist mit 117MB zu 8MB pro Frame mit angenommenen 120fps ziemlich eindeutig. Wie die Spieleengines damit dann einen deutlich höheren Detailgrad "herbeistreamen", steht dann natürlich auf einem anderen Blatt. Aber auch die "tollste" Engine der Welt kann die Physik nicht überlisten.

spike.sp.
2020-09-06, 16:55:05
Weiß man schon wann der Verkauf startet?

Blutmaul
2020-09-06, 18:21:32
Die Reviews werden interessant, insbesondere dazu, ob das Referenzdesign besser, schlechter als die Partnerdesigns ist.

PS: Und bei "Moore's Law Is Dead" kam die Aussage in einem der jüngsten Podcasts, das NVidia recht schlechte RMA Raten hatte , die 2080 TI soll im ersten Monat eine 50% RMA Rate gehabt haben, wie sich das bei dieser neuen, für mich noch anspruchsvolleren, Generation der Ampere-GPUs darstellt.
Das wär ja ein Grund vom Kauf erstmal zurückzuschrecken...

BlacKi
2020-09-06, 20:36:54
Weiß man schon wann der Verkauf startet?
ich glaub das fällt damit zusammen
14.09 für die 3080FE und 17.09 für die Custom-Karten.

BiG OnE
2020-09-06, 21:28:15
Das wär ja ein Grund vom Kauf erstmal zurückzuschrecken...

Genau, es ist ja nicht so, das NVidia von ihren frühere Fehlern lernen würde.

Lowkey
2020-09-06, 21:36:12
Für 375 Watt wird es wohl reichen. 75 vom Slot und ja 150 vom 8pin.
https://de.wikipedia.org/wiki/PCI_Express#Stromversorgung

Für eine 3080, kommend von 320W ergäbe das ein Power Target von ca. 117%.


Der PCI-E liefert 75w insgesamt aus +12, +5 und +3.3, aber nicht 75w nur aus +12v. Das ist laut Spec limitiert auf unter 65w. Viele Karten ohne Stromstecker ziehen nur max. 35w.

Badesalz
2020-09-06, 22:42:09
@Lowkey
Braucht eine Graka ausschließlich 12V zum Leben? (nö weiß ich grad echt nicht)

Sardaukar.nsn
2020-09-06, 22:56:31
Der PCI-E liefert 75w insgesamt aus +12, +5 und +3.3, aber nicht 75w nur aus +12v. Das ist laut Spec limitiert auf unter 65w. Viele Karten ohne Stromstecker ziehen nur max. 35w.

Die 3090 FE mit dem deutlich kompakteren 12pin Stecker darf scheinbar auch bis 375 Watt. Daher mache ich mir mit meiner 2x8 Stromversorgung keine ernsthaften Sorgen.
Im Kontext von Mining habe ich aber mal gelesen die diese Anschlüsse in der Realität auch deutlich mehr Watt vertragen. Ich stelle mich aber schon mal drauf ein das mein zukünftiges 3080 Bios eh nicht mehr als 375 Watt erlauben wird. Finde ich auch schon sportlich genug.

Vorteile haben AMD Nutzer. Die waren quasi ihrer Zeit voraus und sind dank Vega jetzt bestens auf die 320W Klasse von Nvidia vorbereitet :cool:

Lowkey
2020-09-06, 23:20:38
Sorgen mache ich mir auch nicht.


@Lowkey
Braucht eine Graka ausschließlich 12V zum Leben? (nö weiß ich grad echt nicht)

Meine 2070 zieht 50w aus dem PCI-E zu 100% aus den +12v. Maximales Limit für den PCI-E sind wohl 65w über 12v. Ob es bei jeder Karte so ist?

Sardaukar.nsn
2020-09-07, 06:48:58
Schau doch mal in den Wiki Link etwas weiter oben, da wird es ganz anschaulich erklärt.

Lowkey
2020-09-07, 08:33:31
Hmm? Da wird nicht erklärt was die Karte darf und was eine Nvidia Karte darf. Ich habe schon im Netz gesucht, aber jeder kopiert nur Wikipedia.

Blutmaul
2020-09-07, 08:38:14
Genau, es ist ja nicht so, das NVidia von ihren frühere Fehlern lernen würde.

Naja, neuer FAB-Partner, neuer Kühler, neues Design, neuer Treiber = Kinderkrankheiten?

Troyan
2020-09-07, 22:58:47
Unboxing-Video der 3080:https://www.youtube.com/watch?v=hW22CG0dHx4

Werden bestimmt noch andere Seiten kommen. Also die Founders Edition sieht nice aus. Besser als der Plattenspieler der Turing-Karten. Imo auf ein Level mit den Kepler- und Maxwell-Radial-Design.

Daredevil
2020-09-07, 23:03:10
Das ist aus dem DF Video... aber ja, ich stehe auch sehr auf den FE Kühler.
Bin mal gespannt, ob der echt ruled!

Troyan
2020-09-07, 23:13:47
Ah, okay danke. Dachte wäre neu. Na dann.

Sardaukar.nsn
2020-09-07, 23:18:00
Richtig schickes Stück Hardware.

Alternativ der erste Wasserblock (als Preview) den ich gesehen habe. Wie kompakt der mir dem kurzen PCB wirkt.

https://i.imgur.com/lUFtoib.jpg

Ich finde das hätte schon seinen Reiz... im ITX Case + MO-RA.

r3ptil3
2020-09-07, 23:21:42
Gemäss ASUS SLI nur bei der 3090.

Der Kühler der Strix ist identisch zwischen der 3090 und der 3080.

Gefällt mir:
https://www.asus.com/media/global/gallery/b7syqwwfrvsw0p9k_setting_000_1_90_end_1000.png

SKYNET
2020-09-07, 23:41:08
Gemäss ASUS SLI nur bei der 3090.

Der Kühler der Strix ist identisch zwischen der 3090 und der 3080.

Gefällt mir:
https://www.asus.com/media/global/gallery/b7syqwwfrvsw0p9k_setting_000_1_90_end_1000.png


leider sind die asus kühler nur in der theorie gut... :freak: aber evtl. ändert sichs ja mit ampere :ulol:

Lowkey
2020-09-07, 23:49:44
Eine MSI 3080 10gb Gaming X wird wohl bei einer Mehrheit auf Platz 1 stehen ;)

SKYNET
2020-09-08, 00:24:04
Eine MSI 3080 10gb Gaming X wird wohl bei einer Mehrheit auf Platz 1 stehen ;)


ich warte mal navi ab... und falls navi widererwartend nix werden sollte, gibts ne 20GB version der 3080... die 10GB version fasse ich nichtmal mit der kneifzange an... unter 16GB wird meine nächste karte nämlich nicht sein... und die 3070 16GB hat kaum nen mehrwert zu meiner 1080Ti... die 15-20% mehrleistung ohne RT gedöns lohnen nicht zum wechsel(wie schon bei der 2080Ti) :freak:

r3ptil3
2020-09-08, 01:10:56
Eine MSI 3080 10gb Gaming X wird wohl bei einer Mehrheit auf Platz 1 stehen ;)

Wieso genau?

L233
2020-09-08, 11:58:11
Die FEs gibt's nur direkt bei Nvidia zu bestellen, oder?

Troyan
2020-09-08, 12:00:08
In Deutschland ja. In Amerika z.B. auch bei BestBuy.

L233
2020-09-08, 12:20:13
Eine MSI 3080 10gb Gaming X wird wohl bei einer Mehrheit auf Platz 1 stehen ;)

Bei mir steht von MSI gar nichts auch nur in der Nähe von Platz 1.

r3ptil3
2020-09-08, 14:06:05
Die ASUS Strix wird definitiv einen BIOS Switch haben (Performance/Quiet):
https://gzhls.at/i/41/77/2364177-n13.jpg

Daredevil
2020-09-08, 14:19:50
Also irgendwie gefällt mir keine der Karten so richtig, die bei Geizhals gelistet sind.
Die haben alle die Dimension der 2080ti Kühler, aber nichts, was richtig rausfällt.

Und die 2080ti Kühler sind für 250-300w fein, aber damit sie die Qualität und die Lautheit behalten, muss es gerne auch 3.5-4 Slot sein. Da finde ich aber nichts so wirklich, oder ihr?

Troyan
2020-09-08, 14:26:20
nVidia weiß wohl, warum die keine Vorbestellungen zulassen: https://www.hardwaretimes.com/ethereum-miners-eye-nvidias-rtx-30-series-gpu-as-rtx-3080-offers-3-4x-better-performance-in-eth/

Angeblich ist die 3080 3-4x schneller als die 2080 für ETH.

Daredevil
2020-09-08, 14:31:58
Das macht im ersten Moment erstmal wenig Sinn.
1. Ist ETH stark Bandbreiten abhängig und die 3080 hat nicht drei mal mehr Bandbreite ( oder viel OC Potential... )
2. Sind die Mining Tools nicht auf sowas vorbereitet, das dauert Wochen, bis die Programme geschrieben sind
3. Ist der ETH Preis wieder unten, selbst damit macht das keinen Spaß :D
4. War die 2080 schon immer ne scheiß Mining Karte, weil GDDR6 mit lahmen Timings ( GDDR5X konnte schneller betrieben werden )

Allerdings wird die Karte stark bei den ProgPoW Algoritmen dominieren, wenn die Performance hier auch übertragen werden kann, die geschätzt wird.

Gynoug MD
2020-09-08, 14:50:43
Vorteile haben AMD Nutzer. Die waren quasi ihrer Zeit voraus und sind dank Vega jetzt bestens auf die 320W Klasse von Nvidia vorbereitet :cool:
(y)
:usad:

nonharderware
2020-09-09, 15:54:39
https://videocardz.com/newz/alleged-geforce-rtx-3080-graphics-card-test-leaks-online

Hakim
2020-09-09, 17:04:16
500W mit einer 10900K, könnte doch was werden mit meinem 600W NT und dem 8700K samt 3080

hq-hq
2020-09-09, 17:35:49
https://videocardz.com/newz/alleged-geforce-rtx-3080-graphics-card-test-leaks-online


das wäre ja fatal schlecht :freak:

muss ein Fake sein!

Nur ca. 10-15% über einer (meiner) 2080Ti;D https://abload.de/thumb/3d_murks_2019rkk4d.jpg (https://abload.de/image.php?img=3d_murks_2019rkk4d.jpg)

[dzp]Viper
2020-09-09, 17:37:49
das wäre ja fatal schlecht :freak:

muss ein Fake sein!

Nur ca. 10-15% über einer 2080Ti;D
Wo liest du da 10-15%?
Ich lese das 25-35% über der 2080ti

Radeonfreak
2020-09-09, 17:40:24
Referenz vielleicht.

Wenn ich meine Werte mal vergleiche komme ich auf 11-14%.

Jetzt kommts drauf an wie gut die Dinger taktbar sind.

BlacKi
2020-09-09, 17:41:01
von seiner 400w 2080ti auf die bis zu 320w 3080 mit FE kühler unter luft sinds wohl wirklich nur 10-15%.

aber so kann man das nicht vergleichen leute:rolleyes:

ich glaube das ampere unter wasser nochmals mehr zulegt als turing schon pascal nass machte.

Ex3cut3r
2020-09-09, 18:29:28
Wartet doch mal seriöse Benchmarks ab, und nicht so einen "Scheiß" aus dritten Welt Ländern. (Sry)

Troyan
2020-09-09, 19:03:58
3080 ist auch nicht der Nachfolger der 2080TI. Viel zu stark beschnitten.

Habe mal Port Royal laufen lassen. Mit 360W 2080TI ist die 3080 21,6% schneller. Das finde ich jetzt nicht schlecht für 699€ und Möglichkeit ebenfalls noch bis auf 360W zu übertakten.

Swissr
2020-09-09, 19:43:47
siehe meine beiden (Timespy, Doom Eternal) Benchmarkergebnisse hier im Forum. Meine Befürchtungen Richtung max. 15-20% mehr Performance ggü. einer guten Custom 2080Ti scheinen sich zu erhärten.

Sardaukar.nsn
2020-09-09, 19:47:27
Ich habe mal meine epischen Benchmark und Paint skills benutzt um meine 1080ti @ 2ghz zu vergleichen :freak:

https://i.imgur.com/JBn2cO6.jpg

Ich denke es gibt schon noch einen Teil 1080Ti Leute denen Turing zu unattraktiv war und jetzt zu ähnlichem Preis wie damals ihre 1080ti austauschen wollen. Wenn das Ding doch wenigsten 12GB hätte und damit kein Rückschritt wäre...

VooDoo7mx
2020-09-09, 20:35:42
3080 ist auch nicht der Nachfolger der 2080TI. Viel zu stark beschnitten.

Doch die 3080 ist sehr wohl der Nachfolger als beschnittener Big Chip.

Titan RTX ---> RTX 3090
RTX 2080Ti ---> RTX 3080
RTX 2080 ---> RTX 3070

Da Turing ja anscheinend kein großer Erfolg für nVidia war, hat sich nVidia einfach von den überhöhten Preisen verabschiedet.
Die 3080 kostet jetzt wieder so viel wie vorherige Karten der Kategorie wie die 1080Ti, 980Ti und 780.
Da sonst der Performance Sprung zu niedrig wäre und nicht solch Marketinggeblubber "wie biggest "generational Leap" blubbern könnte, hat man die Marketingbezeichnung einfach 3080 statt 3080Ti genannt.
Man sieht auch am kolportierten StromVerbrauch das eben eine 3080 nicht der Nachfolger der 2080 ist...

Bisher kommt mir Ampere fast so vor wie eine große Maßnahme um für nVidia Kosten zu sparen. Samsung Fabs waren schlecht ausgelastet und der 8nm Prozess dürfte deutlich billiger als der 7nm TSMC. Besonders die extrem fetten Turing Chips dürften selbst in den 12nm TSMC Prozess noch sehr teuer sein. Wäre mich nicht wundern wenn ein GA102 Chip pro Stück günstiger als ein TU102 wäre.

Und anscheinend scheint ja die 2080Ti gar nicht so schlecht zu sein wie von Nvidia angekündigt. Ich wette die 3070 wird wahrscheinlich nur in handverlesenen Tests zur 2080Ti aufschließen können. Im Großteil der Benchmarks wird wohl die 2080Ti schneller sein. Ganz zu schweigen von einer ordentlich gepimpten 2080Ti.