PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 [52] 53 54 55 56 57 58 59 60 61 62

WedgeAntilles
2020-09-29, 10:41:23
Man könnte auch sagen jetzt hat GA102 den besseren Betriebspunkt. :tongue:

IMO ist das definitiv so.
Ich habe ja schon mehrfach geschrieben, dass ich die Wahl der 320W überhaupt nicht kapiere.


Generell zeigt das Problem wieder einmal, dass man bei neuer Hardware sinnvollerweise ein paar Wochen wartet.
Egal ob das Nvidia, Intel, AMD oder sonst wer ist.

Wenn ich es mir recht überlege kann man das eigentlich 1:1 auf Software erweitern.
Da ist auch fast jedes Spiel ein paar Wochen später auf nem (häufig deutlich) besseren Stand als bei Release.


Edit: Ich hoffe, dass die Probleme mit neuen Treibern gelöst werden.
Dann wäre die Problematik natürlich unschön, aber unterm Strich beherrsch- und überschaubar.
Ein klarer Warnschuss für den Bug ist es hoffentlich auch.
Nvidia sollte sich mal überlegen, wie sie es geschafft haben, tendenziell höhere Preise als AMD aufrufen zu können - und trotzdem einen riesigen Marktanteil zu haben.
Mit solchen Aktionen verspielt man so eine Marktposition auch wieder.

dargo
2020-09-29, 10:42:55
Endlich mal ein gutes Video zu dem Thema, der8auer ist der einzige Youtuber im DACH Raum der man brauchen kann.
Aha... was sagt der denn Neues was wir nicht schon von igor wissen? MLCCs heißt nicht automatisch super Overclocking! Wie denn auch mit einer Gurken-GPU aus der Lotterie? :rolleyes:


Generell zeigt das Problem wieder einmal, dass man bei neuer Hardware sinnvollerweise ein paar Wochen wartet.
Egal ob das Nvidia, Intel, AMD oder sonst wer ist.

Wenn ich es mir recht überlege kann man das eigentlich 1:1 auf Software erweitern.
Da ist auch fast jedes Spiel ein paar Wochen später auf nem (häufig deutlich) besseren Stand als bei Release.

Bingo. ;) Aber der Anteil an Betatestern ist halt recht groß. ;) Und ich nehme mich da jetzt nicht unbedingt raus wenn ich schnell was Neues haben will. :redface:

Dural
2020-09-29, 10:43:13
Natürlich hat er Recht.
Sonst hätten nicht alle AIB ihre Karten geändert.
Klar kann man auch einfach nur die Symptome behandeln mit weniger clock, aber die Ursache sind die Caps.


Naja waren ja zum Glück hauptsächlich nur Tester Karten und ein paar wenige Konsumenten. Früh erkannt und gebannt.

Dumm nur das beim 8auer Video die Karte kein einziges MHz mehr gemacht hat, schau dir den GPUZ log an!

robbitop
2020-09-29, 10:44:45
Verstehe weiterhin nicht was du meinst.
OEM. Normalerweise.
Die 3080 zieht bei guter Lukü knapp bis 1900 (Asus)
Die 2080ti macht 1545 (Asus Strix)
Die 1080Ti macht 1683 (Asus Strix)

Welche "gewohnten" Taktraten meinst du denn?

Meine 1080ti (einfachstes, billigstes Modell) läuft out of the box mit ~1880 MHz. Ohne alles.
Hab aber mal den Computerbase Test der 1080 ti geprüft - da sind es auch nur 1600-1700 MHz. Die 2080 ti liegt im CB Test allerdings deutlich höher als 1545 MHz: 1675 - 1875 MHz. Der Schnitt liegt deutlich über 1700 MHz.

Bei Computerbase liegt die Taktrate der 3090 zwischen 1605 und 1965 MHz. Der Schnitt liegt bei ~1750-1800 MHz. Also nur einen Tucken über der 2080 Ti. Allerdings wieder: Stichprobengröße. Und dazu kommt, dass die Takt/Frequenzcharakteristik natürlich höchst nicht linear ist.

Insofern gebe ich dir größtenteils Recht.

Allerdings waren 2 GHz OC bei Pascal und Turing bis dato fast nie ein Problem. Und dafür waren <300 W nötig nach meinen eigenen Erfahrungen. Die 3090 liegt da deutlich drüber.

Grundsätzlich ist es aber so, dass alles vom Betriebspunkt abhängt und wie du schon sagst, hätte man einen deutlich freundlicheren Betriebspunkt wählen können.

Was sie allerdings bei der FE richtig gemacht haben: die Karte zieht zwar Leistung - ist aber nicht laut. Die Investition in den Kühler zahlt sich aus. IMO keine schlechte Entscheidung für die öffentliche Wahrnehmung in Reviews.


Immernoch nicht. Den absoluten Peak des Boosts auf 2005 Mhz deckeln, TBP auf ~278W stellen und schon ist alles bestens. Mit Ampere und mit Samsungs 8nm.

Irgendwas hat sie aber zu Flucht nach vorn getrieben... Denke Intel war es erstmal eher nicht :whisper: Wie das Design mit 7nm gelaufen wäre spielt hierbei aber überhaupt keine Rolle. Garkeine Geige. Es geht darum durch welche Nöten bitte sie das Design wie auch den Prozess dermassen überfahren haben. Leistung gibt es auch mit obigen Vorschlag genug.

Der Launch ist leider der übelste seit dem leaf-blower damals. Es ist wie es ist. Und es liegt nicht an Samsung. Immernoch nicht.
In beiden Punkten gebe ich dir Recht. Aber zum Glück ist die Karte (im Gegensatz zu NV30) nicht laut. Der Kühler tut sein Werk offenbar sehr gut.

Fein. Die 1080Ti bostet also bis 1900 und die 2080ti bostet bis 1900. Die 1900 der 3080 sind aber keine "gewohnten" Taktraten mehr?
Doch schon. Aber der Top Dog zieht dabei halt mehr Leistung.

Dural
2020-09-29, 10:47:21
Kann jemand 8auer darauf aufmerksam machen das er das mit dem Takt besser anschaut? Ich kann von hier nicht Kommentieren, Danke.

dargo
2020-09-29, 10:51:50
Meine 1080ti (einfachstes, billigstes Modell) läuft out of the box mit ~1880 MHz. Ohne alles.
Hab aber mal den Computerbase Test der 1080 ti geprüft - da sind es auch nur 1600-1700 MHz.
Ist doch völlig logisch... Temperatur-Limit bei der FE.
https://www.computerbase.de/2017-03/geforce-gtx-1080-ti-test/#abschnitt_taktraten_nach_20_minuten_last

Deshalb sollte man die Leistungsaufnahme einer 1080TI FE mit Vorsicht genießen. Die Karte verbraucht weniger da sie unter hoher GPU-Last nie ihr Wattage-Limit erreicht.

Troyan
2020-09-29, 10:59:37
@Dural : Hab ich auch gesehen, wirkt irgendwie irrational, aber das hat man jetzt von den ganzen sehr aggressiven Boosts, wenn da temporär die Werte "korrekt" stehen, entscheidet die Karte halt zu boosten und schwupps. Die +20 lösten ja effektiv +135Mhz auf dem Chip aus

Wenn innerhalb eines Spiels eine Limitierung auftritt, kann der Boost die freien Ressourcen der GPU nutzen, um höher zu boosten. Wenn also unter Vollast die Karte bei 1850MHz läuft (Offset +140), kann sie bei geringer Last auf 2100MHz gehen.

Der Boost ist einfach mit einer steilen Kurve mist. Wenn dazu vermehrt CPU-Limits in <4K auftreten, sind Abstürze vorprogrammiert.

Asaraki
2020-09-29, 11:03:09
Wenn innerhalb eines Spiels eine Limitierung auftritt, kann der Boost die freien Ressourcen der GPU nutzen, um höher zu boosten. Wenn also unter Vollast die Karte bei 1850MHz läuft (Offset +140), kann sie bei geringer Last auf 2100MHz gehen.

Der Boost ist einfach mit einer steilen Kurve mist. Wenn dazu vermehrt CPU-Limits in <4K auftreten, sind Abstürze vorprogrammiert.

Das stimmt und ist mir auch klar, die Frage ist ja eher ob das stimmen kann. Was soll denn da an Ressourcen frei geworden sein, dass der Chip mal eben fast +10% springt?

Mein Bauchgefühl sagt mir, dass da der Algo bisschen sanfter gestellt werden sollte. Vermutlich wäre ein Sprung auf so ~2020 grad noch gut gegangen.

Aber ich denke jetzt ist alles getestet aus Consumerseite und nV weiss davon bestimmt auch schon länger als wir ^^ Wer weiss, vielliecht gibt's ja deshalb so wenige Karten ;-)

Ich wette mal ein Gummibärchen auf ein BIOS update.

dargo
2020-09-29, 11:03:18
Was sie allerdings bei der FE richtig gemacht haben: die Karte zieht zwar Leistung - ist aber nicht laut. Die Investition in den Kühler zahlt sich aus. IMO keine schlechte Entscheidung für die öffentliche Wahrnehmung in Reviews.

Ich weiß nicht was du an GA102 FE bei der Kühlung so toll findest? Riesen Aufwand beim Material und die 3090FE ist trotzdem minimal lauter als die 2080TI FE. 2,6 Sone vs. 2,4 Sone.
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Tests/Review-Gaming-Benchmarks-Studio-1358437/4/

Zudem laufen die Dinger auch mit hohen Temperaturen, das sollte man immer in Relation zu Temperaturen auch betrachten. Die 3080 FE fällt da mit 3,3 Sone schon stärker zurück. Die 3090 FE ist vielleicht nicht unbedingt laut, aber noch weit davon entfernt was ich unter leise genug verstehe.

btw.
Der Test der PCGH bei Teillast mit Wolfenstein @1080p und 60fps Limit ist auch sehr interessant. Die 3090 braucht dabei 15% mehr Energie als die 3080. Und beide GPUs brauchen wiederum mehr als die 2080TI FE.

Troyan
2020-09-29, 11:07:22
Das stimmt und ist mir auch klar, die Frage ist ja eher ob das stimmen kann. Was soll denn da an Ressourcen frei geworden sein, dass der Chip mal eben fast +10% springt?

Mein Bauchgefühl sagt mir, dass da der Algo bisschen sanfter gestellt werden sollte. Vermutlich wäre ein Sprung auf so ~2020 grad noch gut gegangen.

Aber ich denke jetzt ist alles getestet aus Consumerseite und nV weiss davon bestimmt auch schon länger als wir ^^ Wer weiss, vielliecht gibt's ja deshalb so wenige Karten ;-)

Ich wette mal ein Gummibärchen auf ein BIOS update.

Naja, zwischen "Markteting-Boost" und höchsten Boost-Step liegen bei einer Standard-Karte ~300MHz. Das hohe TDP-Limit sowie die guten Kühler sorgen dafür, dass die Karten im CPU-Limit immer in den höchsten Step boosten.

Beispiel bei mir: Shadow of the TR liegt bei 1980MHz und 320W in 1080p und ~1800MHz bei 370W in 4K. Und die Standard-TUF 3090 hat nur 30MHz mehr im Offset.

Asaraki
2020-09-29, 11:16:51
Naja, zwischen "Markteting-Boost" und höchsten Boost-Step liegen bei einer Standard-Karte ~300MHz. Das hohe TDP-Limit sowie die guten Kühler sorgen dafür, dass die Karten im CPU-Limit immer in den höchsten Step boosten.

Beispiel bei mir: Shadow of the TR liegt bei 1980MHz und 320W in 1080p und ~1800MHz bei 370W in 4K. Und die Standard-TUF 3090 hat nur 30MHz mehr im Offset.

Schon klar, aber sie lief da ja schon auf 1900+, also über dem "Default". Dann springt sie um über 100 Mhz und crasht. Das meine ich. Der Sprung wird falsch berechnet, völlig egal obs an den Caps liegt oder nicht.

Vermutlich mit gutem Chip und gutem PCB geht es "grad so", aber das ist halt einfach "work in progress", ich müsste mir auch einiges anhören wenn wir so "live" gegangen wären.

Sardaukar.nsn
2020-09-29, 11:33:44
Die Karten haben ganz klar ein Boost / Takt Problem. Beim ändern des Taktes schiesst der Takt gleich um über 100MHz hoch.

--YvuxE0xl4

Bestätigt er auch. Kleiner Kanal, aber guter Content.

Dural
2020-09-29, 11:56:16
Wird wohl ein neues Bios kommen, über den Treiber bin ich mir nicht sicher ob sich das beheben lässt.

Triniter
2020-09-29, 12:14:13
OK habe jetzt das Video von 8auer angeschaut.

Man sieht ganz klar dort wo er von +100MHz auf +120MHz eingestellt hat die Karte gleich von 1900MHz auf 2100MHz rauf ist und gleich der Absturz kam.

Irgend wie scheint der Boost bei den Ampere Karten irgend wie komisch zu funktionieren.

Edit:
Komisch ist auch als er von +70 auf +100 Eingestellt hat sich der Takt im GPUZ gar nicht geändert hat, nur beim zwischen schritt auf +90 lagen für ganz kurze Zeit +30MHz an.

Am interessantesten finde ich, dass die Karte ansich sogar im Betrieb mit 4 Kondensatoren läuft, er hat das Ding ja tatsächlich gestartet nachdem er die mittleren beiden entfernt hatte. Hätte erwartet da geht was gewaltig in die Hose und am Ende ist das Ding Elektroschrott.
Wenn er jetzt noch ne feine Lötspitze nehmen würde könnte er sogar 0204 löten aber trotzdem Respekt! Ich kotz mitterweile echt auch wenn ich mal an so was Kleines ran muss. Brille + Mikroskop sind ne Scheiß Kombi.

Dural
2020-09-29, 12:42:35
Overclocker können halt mit dem lötkolben umgehen.

Ich habe früher auch ständig an grafikkarten und mainboards rum gelötet, war eine ziemlich coole zeit mit spässen wie 3-way sli und cpu unter ln2 crysis gezock und so weiter. Ging übrigens sogar ziemlich gut, mit taktraten auf gpu und gpu die man mit wakü nie erreicht hätte und das 1-2h lang, man musste einfach genug ln2 da haben.

Heute kann man extreme overclocking privat fast nicht mehr selber finanzieren und die hardware ist deutlich komplexer geworden, schade.

Triniter
2020-09-29, 12:56:59
Da ist wirklich was dran. Wenn ich mir vorstelle das ich meine erste WaKü 2001 in PC gebaut hab. Damals alles von Aqua Computer. Aber an youtube und Co hat da natürlich noch keiner gedacht, es gab es ja schlicht und ergreifend noch nicht. Somit konnte man sich auch in keinster Weise so präsentieren wie heute. Und selbst wenn, irgendwie würde es mir vor den Videos grauen die wir damals versucht hätten. Zumal ich auch nie nen Blick für Aufgeräumtheit im Case hatte. Das sah aus, da wird mir heute noch übel.

BlacKi
2020-09-29, 13:12:31
https://youtu.be/--YvuxE0xl4

Bestätigt er auch. Kleiner Kanal, aber guter Content.
seine karte hat aber nochmal ein ganz anderes boostverhalten als alle anderen da draussen. andere karten schwanken um 15mhz, seine karte schwankt um 100mhz^^

Zossel
2020-09-29, 16:48:30
Laut dem 8auer Video ging die Karte mit den "guten" Kondensatoren nicht höher.

Es geht nicht um gute oder schlechte Kondensatoren, sondern um die Abstimmung verschiedener Kondensatoren(typen).

BiG OnE
2020-09-29, 17:24:32
Am interessantesten finde ich, dass die Karte ansich sogar im Betrieb mit 4 Kondensatoren läuft, er hat das Ding ja tatsächlich gestartet nachdem er die mittleren beiden entfernt hatte. Hätte erwartet da geht was gewaltig in die Hose und am Ende ist das Ding Elektroschrott.
Wenn er jetzt noch ne feine Lötspitze nehmen würde könnte er sogar 0204 löten aber trotzdem Respekt! Ich kotz mitterweile echt auch wenn ich mal an so was Kleines ran muss. Brille + Mikroskop sind ne Scheiß Kombi.
Warum sollte die Karte Elektroschrott werden, wenn nur 2 Glättungskondesatoren abgelötet werden und wegen Brille und co, er hat vor kurzen die Augen gelasert bekommen

BiG OnE
2020-09-29, 17:32:56
Ich weiß nicht was du an GA102 FE bei der Kühlung so toll findest? Riesen Aufwand beim Material und die 3090FE ist trotzdem minimal lauter als die 2080TI FE. 2,6 Sone vs. 2,4 Sone.
https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Tests/Review-Gaming-Benchmarks-Studio-1358437/4/
Und wenn wir jetzt mal kurz stehen bleiben und scharf nachdenken warum das so ist, 355W zu 267W, bald 90W mehr, die sich nicht so einfach in Luft auflösen können. Von daher ist die Lautstärke der 3090FE eigentlich gar nicht so schlecht, gelle?

rentex
2020-09-29, 18:51:25
Natürlich hat er Recht.
Sonst hätten nicht alle AIB ihre Karten geändert.
Klar kann man auch einfach nur die Symptome behandeln mit weniger clock, aber die Ursache sind die Caps.


Naja waren ja zum Glück hauptsächlich nur Tester Karten und ein paar wenige Konsumenten. Früh erkannt und gebannt.

Igor in allen Ehren, aber die AIBs war die Problematik schon vorher bewusst...er hat es womöglich nur sehr früh mitbekommen!

Von VC:

But let’s go back a little to understand what exactly is happening:

September 15th: Colorful is the first manufacturer to report the instability issues (unofficially through emails):

September 17th+: The first customers who bought RTX 30 series cards start to report on the problems. To our knowledge, no reviewer had reported the issues.

September 23rd: ComputerBase made the first article on Crash to Desktop issue. On the same day, VideoCardz.com makes the first English report.

September 25th: Igor Wallosek (igor’sLAB) publishes the first analysis of the problem, suggests that the capacitors may be the culprit.

September 26th: Board partners make first official statements.

Dural
2020-09-29, 19:04:13
Laut nv ist das problem per treiber behoben worden, laut cb ohne weniger takt und bei gleicher leistung. Ich vermute die haben den max boost einfach runter genommen, real war der so wie so zu hoch. Für mich erstaunlich das dies nv per treiber lösen konnte.

Asaraki
2020-09-29, 19:14:01
Laut nv ist das problem per treiber behoben worden, laut cb ohne weniger takt und bei gleicher leistung. Ich vermute die haben den max boost einfach runter genommen, real war der so wie so zu hoch. Für mich erstaunlich das dies nv per treiber lösen konnte.

Solange das Interface existiert kann der Treiber das natürlich steuern. Braucht aber trotzdem ein BIOS Update da nun ein Treiber existiert, der nicht stabil läuft ohne permanenten Change

Aber good News für die 20 Besitzer :-)

Badesalz
2020-09-29, 22:37:09
Overclocker können halt mit dem lötkolben umgehen.

Ich habe früher auch ständig an grafikkarten und mainboards rum gelötet[...]Und ich finds auch wirklich schade, daß du keine Zeit mehr dafür findest. Nach etlichen Fails über Fails und paar Tagen Ruhe geht das hier leider wieder los... :uclap:

@all
Den Ticker dazu auf CB verfolgt ihr aber schon oder?
https://www.computerbase.de/2020-09/nvidia-geforce-rtx-3080-ctd-abstuerze/

Diese Flucht nach vorn... Irgendwie tat NV bisher viel mehr dafür, die Leute auf RDNA2 neugierig zu machen, als alles was AMDs PR bisher hinbekommen hat :ulol:

Gouvernator
2020-09-30, 00:02:50
Ich verstehe gerade nicht wie man den maximal OC Takt auslotet, wenn man ständig vom PT begrenzt wird. Wenn ich mein Spiel 0.8V@1800Mhz fortsetzten will, dann lande ich sehr schnell bei 370W im 0.83V@1890Mhz Bereich. Wo ich es gar nicht auf Stabilität prüfen kann, weil es Power Target bedingt zurück auf kleinere Spannungen springt.

Gouvernator
2020-09-30, 00:20:31
Low preset und die 60 sind sicher! :freak:
Überspitzt gesagt - medium preset wird es wohl eher sein....

Naja, so eine Karte muss aber kompromisslos maxed out betrieben werden -> darum hätte ich sie als 5K Karte beworben, meine Meinung. :)

E: Mal sehen, ob diese Anpassung oben in der Curve schon langt...
In nativ 8K bist du deutlich leidensfähiger in/für 30FPS/Medium Setting. Weil sich dein Gehirn zurückmeldet und sagt das diese Schärfe ist so fotorealistisch, das es in jedem zurückgeschraubtem Setting noch besser aussieht als jedes 4K zuvor.
Man darf dabei 8K DSR nicht mit nativen 8K vergleichen.

Dural
2020-09-30, 00:39:57
Und ich finds auch wirklich schade, daß du keine Zeit mehr dafür findest.


Mit dem alter kommen halt andere prioritäten ;) zb. an über 100 tagen im jahr bin ich am angeln und habe zwei boote 1x 300ps und 1x 350ps. Ich genisse die ruhe am und auf dem wasser.

Eine 3090 hole ich mir aber trotzdem.

MasterElwood
2020-09-30, 04:56:30
ZOTAC Gaming GeForce RTX 3080 Trinity jetzt bei Amazon bestellbar.

Für 1548 Hoschis :eek:

Ja - wirklich die 80er

https://www.amazon.de/gp/product/B08HR1NPPQ?ref=em_1p_0_ti&ref_=pe_2515531_203273091

mr coffee
2020-09-30, 05:29:48
Verkauf und Versand durch ComputerPiratesDE - da ist der Name Programm.

woodsdog
2020-09-30, 06:11:54
"Gewöhnlich versandfertig in 6 bis 10 Tagen." - ja klar lol ;D

Die Geschäftsräume:
https://www.google.com/maps/@52.700923,5.2926605,3a,60y,333.53h,90.56t/data=!3m7!1e1!3m5!1ser5SfbEyqbeOqZmI5DS86w!2e0!6s%2F%2Fgeo1.ggpht.com%2Fcbk%3Fpa noid%3Der5SfbEyqbeOqZmI5DS86w%26output%3Dthumbnail%26cb_client%3Dsearch.gws-prod.gps%26thumb%3D2%26w%3D86%26h%3D86%26yaw%3D5.047261%26pitch%3D0%26thumbfov%3 D100!7i13312!8i6656


totally not a scam

Sardaukar.nsn
2020-09-30, 07:26:49
Ich verstehe gerade nicht wie man den maximal OC Takt auslotet, wenn man ständig vom PT begrenzt wird. Wenn ich mein Spiel 0.8V@1800Mhz fortsetzten will, dann lande ich sehr schnell bei 370W im 0.83V@1890Mhz Bereich. Wo ich es gar nicht auf Stabilität prüfen kann, weil es Power Target bedingt zurück auf kleinere Spannungen springt.

Ja, Ampere rennt auch wirklich ständig ins Powerlimit. Entweder Shunt mod, ist mir aber zu heikel, oder halt ne Variante mit höherem Limit wählen. Ich hab mich für die Strix entschieden. Ich hoffe nur sie kommt noch in diesem Jahr :freak:

Triniter
2020-09-30, 08:29:04
Ja, Ampere rennt auch wirklich ständig ins Powerlimit. Entweder Shunt mod, ist mir aber zu heikel, oder halt ne Variante mit höherem Limit wählen. Ich hab mich für die Strix entschieden. Ich hoffe nur sie kommt noch in diesem Jahr :freak:
Dieses Jahr? Das Ding muss(!) vor Cyberpunk bei mir sein...

Raff
2020-09-30, 08:33:42
Da kannst du chillen. Cyberpunk wird zum Release zwar da, aber nicht fertig sein. :)

MfG
Raff

k0nan
2020-09-30, 08:41:29
Spiel nicht mit meinen Gefühlen, Raff! ☝️😅

Edgecrusher86
2020-09-30, 08:51:03
In nativ 8K bist du deutlich leidensfähiger in/für 30FPS/Medium Setting. Weil sich dein Gehirn zurückmeldet und sagt das diese Schärfe ist so fotorealistisch, das es in jedem zurückgeschraubtem Setting noch besser aussieht als jedes 4K zuvor.
Man darf dabei 8K DSR nicht mit nativen 8K vergleichen.

Ja, das sicherlich - nun ja, wenn später 8K120Hz Panels möglich sind und entsprechend gefüttert werden können, wird das sicher eine krasse Erfahrung sein. Mal sehen, was Next Gen mit DP2.0 so geht. ;)

Leider haut auch niemand 3090 NVLINK Videos für Titel wie RDR2 oder SotTR raus; es würde mich interessieren, ob 60 fps machbar wären - maxed out - nur 3DMurks....:rolleyes:


Auf 16:9 mag ich allerdings nicht mehr zurück gehen - da würde mir in einigen Jahren auch erstmal z.B. 6880 x 2880 bei 100Hz+ schicken, alias 5K+ (16:9). :biggrin:

Triniter
2020-09-30, 09:12:16
Da kannst du chillen. Cyberpunk wird zum Release zwar da, aber nicht fertig sein. :)

MfG
Raff
Hmm wäre schade wenn CD Project jetzt auch ein Bananenprojekt bringen würde. Hatte ich beim Witcher eigentlich nicht so in Erinnerung :frown:

Orbmu2k
2020-09-30, 09:16:51
Es gibt jetzt ein NVFLASH für Ampere

PW: Ampere

https://onedrive.live.com/?authkey=%21AMHO8LXZmbx2vLg&cid=9F3A1A5043943845&id=9F3A1A5043943845%21140&parId=9F3A1A5043943845%21139&action=locate

prinz_valium_2
2020-09-30, 09:26:18
Da kannst du chillen. Cyberpunk wird zum Release zwar da, aber nicht fertig sein. :)

MfG
Raff

Da ist aber jemand optimistisch ^^

THEaaron
2020-09-30, 09:37:16
Wird wahrscheinlich wirklich erst etwas später richtig gut. Nachdem man letztes Jahr groß angekündigt hatte keinen Crunch für den Release in Kauf zu nehmen....

https://www.play3.de/2020/09/30/cyberpunk-2077-crunch-bis-zur-fertigstellung-alle-mitarbeiter-arbeiten-sechs-tage-die-woche/

;D

WedgeAntilles
2020-09-30, 09:47:34
Hmm wäre schade wenn CD Project jetzt auch ein Bananenprojekt bringen würde. Hatte ich beim Witcher eigentlich nicht so in Erinnerung :frown:

CD Project hat ja schon angekündigt, dass die DLC Politik bei CP ähnlich wie bei TW3 sein wird.
Also diverse kostenlose kleine DLCs.
Und zumindest ein großes AddOn.

Bei TW gab es das ja auch. Ein paar andere Skins, ich glaube an Gwent gab es ein paar kleine Änderungen / neue Karten / neues Art-Design mancher Karten.
Was da sonst noch alles für Änderungen bei den kostenlosen DLCs kamen weiß ich nicht mehr. Alles nett, aber nichts weltbewegendes.

Und dann gab es noch zwei große DLC, besser gesagt zwei große AddOns. Heart of Stone und Blood and Wine.
Also genau das, was man früher eben als AddOn verkauft hat. Zwei richtig große Pakete, die das Spiel stark erweitert haben und logischerweise kostenpflichtig waren.

Von der Seite her ist CP bei Release natürlich nicht "fertig". (Ist ja kein Spiel, bei dem es später ein AddOn geben wird.)

Wird das Spiel spätestens eine Woche nach Release und den ersten 1-2 Patches perfekt und fertig sein? Nein, siehe oben, kann es gar nicht, da ja mindestens eine große, kostenpflichtige Erweiterung geplant ist.
Wird das Spiel dann in einer sehr guten, weitgehend bugfreien Version sein die man super zocken kann? Das denke ich schon. Einfach weil CD Project besser immer gute Qualität abgeliefert hat.
Einem Unternehmen das bis dato ausnahmslos gute Qualität abgeliefert hat zu unterstellen, das nächste Spiel würde buggy und unfertig auf den Markt kommen ist schon sehr fragwürdig.

Gut, wenn Raff da nähere Infos hat, eine ihm vorliegende Version z.B. bisher verbuggt ist, schlecht läuft und ähnliches sieht es anders aus.
Dann gibt es Gründe für einen negativen Ausblick.
Dann sollte man das aber etwas näher ausführen, sonst wirkt es einfach billig und unseriös.

WedgeAntilles
2020-09-30, 09:55:33
Wird wahrscheinlich wirklich erst etwas später richtig gut. Nachdem man letztes Jahr groß angekündigt hatte keinen Crunch für den Release in Kauf zu nehmen....

https://www.play3.de/2020/09/30/cyberpunk-2077-crunch-bis-zur-fertigstellung-alle-mitarbeiter-arbeiten-sechs-tage-die-woche/

;D

Ein paar Wochen 6 Tage / Woche arbeiten.
Nicht schön, aber das ist doch in vielen Branchen so.
Während Messe-Zeiten arbeiten viele auch an Wochenenden.
Oder schau dir mal die Arbeitszeiten in Anwaltskanzleien an.

Wenn das zeitlich überschaubar ist (wenige Wochen, vor allem mit dem Wissen: Es ist nur für ein paar Wochen. Und nicht für 6 Monate) und die Mitarbeiter merken, dass es funktioniert und ein gutes Spiel entsteht und die zusätzliche Arbeitszeit auch gut bezahlt wird ist das doch auch nicht das riesen Problem.
Das mit monatelangem Crunch bei Bioware zu vergleichen, bei denen jeder Mitarbeiter gemerkt hat, er rackert sich den Arsch ab und das Spiel wird trotzdem der totale Dreck - sorry, das ist doch lächerlich.

Natürlich weiß ich nicht ob das bei CDP wirklich zeitlich überschaubar ist.
Und ob die Mitarbeiter wirklich entsprechend mehr Geld bekommen (und das meine ich nicht linear - da muss schon noch mal ein Aufschlag draufkommen).

WedgeAntilles
2020-09-30, 09:59:06
Diese Flucht nach vorn... Irgendwie tat NV bisher viel mehr dafür, die Leute auf RDNA2 neugierig zu machen, als alles was AMDs PR bisher hinbekommen hat :ulol:

Jepp.
Das AMD Marketing im GPU-Bereich ist lächerlich schlecht.

Vielleicht hat Nvidia Mitleid und übernimmt deshalb diesen Part teilweise? :biggrin:

THEaaron
2020-09-30, 10:18:59
...

Ich empfehle dir dazu diesen Artikel:

https://kotaku.com/inside-rockstar-games-culture-of-crunch-1829936466

Das ist nicht mal gemacht sondern ein extrem horrender Alltag in der Spieleentwicklung großer Publisher.

Jason Schreier hat da einige gute Artikel zu geschrieben und Entwickler haben oft keinen Rückhalt von Betriebsräten oder Gewerkschaften, da es da sowas nicht gibt.

Sorry, OT.

Dural
2020-09-30, 10:27:23
Wenn nichts da ist kann auch nichts kommen, so einfach ist das.

Und nur so am Rande, seit sich die Gerüchte um die 256Bit festigen ist die Performence Richtung eigentlich ziemlich klar. Aber Hauptsache 16GB, den im Jahr 2020 kauft man Grafikkarten nur nach der Speicher Menge und CPUs nur nach der Anzahl von Kernen, ich dachte eigentlich die Zeiten sind seit min. 20 Jahren vorbei. :wink:

Was wir brauchen sind nicht mehr Speicher und auch nicht mehr CPU Kerne, sondern vernünftige und optimierte Software! Man stelle sich nur mal vor was mit einen 3090 Sli Gespann, 16 Core CPU und M.2 SSD etc. alles möglich wäre, eine Grafische Steigerung um das vielfache als das was wir aktuell haben :frown:

dargo
2020-09-30, 10:31:45
Oh ja... so ein 1.500-2.000W Netzteil im Rechner hat schon was. :uup:

Redneck
2020-09-30, 12:52:58
Oh ja... so ein 1.500-2.000W Netzteil im Rechner hat schon was. :uup:
dann noch ein paar Wasserleitungen da durchführen und schon hast Du nen extra Durchlauferhitzer... manch einen würd's freuen ;D

Redneck
2020-09-30, 12:54:47
Wenn nichts da ist kann auch nichts kommen, so einfach ist das.

Und nur so am Rande, seit sich die Gerüchte um die 256Bit festigen ist die Performence Richtung eigentlich ziemlich klar. Aber Hauptsache 16GB, den im Jahr 2020 kauft man Grafikkarten nur nach der Speicher Menge und CPUs nur nach der Anzahl von Kernen, ich dachte eigentlich die Zeiten sind seit min. 20 Jahren vorbei. :wink:

Was wir brauchen sind nicht mehr Speicher und auch nicht mehr CPU Kerne, sondern vernünftige und optimierte Software! Man stelle sich nur mal vor was mit einen 3090 Sli Gespann, 16 Core CPU und M.2 SSD etc. alles möglich wäre, eine Grafische Steigerung um das vielfache als das was wir aktuell haben :frown:

kauf dir eine Konsole, dann bekommst Du optimierte Software..

Digidi
2020-09-30, 13:33:38
Hier ein AI Test der recht aufschlussreich ist wo die Problemstellen bei Amper sind. Die SMs schein woll recht wenig Cache zu haben wehalb die Auslastung recht dürftig ist. Ob man das in Zukunft beheben kann?

https://twitter.com/nerdtechgasm/status/1311121200165212160

mksn7
2020-09-30, 15:00:11
Ich denke er sagt nur dass der FP32 nicht 2x ist. Und schiebt das dann auf einen Blumenstrauß an Gründen, memory bandwidth, shared memory capacity und bandwidth. Das ist nur spekuliert, das kann man an den Ergebnissen nicht sehen. Dass es kein 2x gibt ist aber nicht verwunderlich, z.B. ist jede INT op und jeder load/store eine verlorene FP32 op, die müssen ja auch irgendwo ausgeführt/irgendwann geissued werden. Beim Design von Ampere ist es quasi unmöglich full FP32 Durchsatz zu bekommen.

Edit: Dass die anderen Instruktionen limiter sind bedingt natürlich dass auf Titan überhaupt schon der volle FP32 Durchsatz erreicht wurde. Wenn das nicht der Fall ist, stören Ints und Loads nicht. Aber dann ist es noch weniger verwunderlich dass die Leistung nicht 2x ist.

Edit 2: Ampere hat den L1/shared memory Durchsatz im Vergleich zu Turing schon verdoppelt, auf das gleiche Niveau wie Volta, dürfte als Limiter seine Rolle also nicht verändert haben. Die Kapazität ist auch ein bisschen größer, aber nicht doppelt.

Digidi
2020-09-30, 15:13:30
Es geht hier ja um den Umstand das solch eine AI Lösung hauptsächlich die FP32 Einheiten nutzt und zudem mit Cuda eigentlich sehr Nvidia freundlich gestaltet ist. Trotzdem sieht man nicht den Performancesprung der die schiere Anzahl an Shadern vermuten lässt. Es scheint also ein unbekanntes Bottelneck in den SMs zu geben.

mksn7
2020-09-30, 15:17:58
Ja, aber dass das shared memory capacity oder memory bandwidth ist, ist reine Spekulation. Das sind sicherlich mögliche Gründe! Mit doppelter FP32 Rate verdoppelt sich auch das FP32/memory bandwidth Verhältnis, gut möglich dass das ein Limiter wird.

Aber wie gesagt, aus den Gründen die ich genannt habe ist es unmöglich auf Ampere den FP32 peak zu erreichen, im Gegensatz zu Turing, wo das (leichter) möglich sein müsste: Zu wenig issues für die execution units

Lawmachine79
2020-09-30, 15:21:26
kauf dir eine Konsole, dann bekommst Du optimierte Software..
Absolut!
https://charlieintel.com/modern-warfare-devs-investigating-ps4-blue-screen-after-season-6-update/62798/
Aber hey, so lange es (noch) läuft, ist es bestimmt optimiert!

MadPenguin
2020-09-30, 15:36:25
Ich empfehle dir dazu diesen Artikel:

https://kotaku.com/inside-rockstar-games-culture-of-crunch-1829936466

Das ist nicht mal gemacht sondern ein extrem horrender Alltag in der Spieleentwicklung großer Publisher.

Jason Schreier hat da einige gute Artikel zu geschrieben und Entwickler haben oft keinen Rückhalt von Betriebsräten oder Gewerkschaften, da es da sowas nicht gibt.

Sorry, OT.

Auch hier OT kurz: jeder der in der Privatwirtschaft arbweitet und mit Abgabedatums zu tun hat, sollte dies zumindest teilweise kennen. Wenn zeitlich beschränkt und gut bezahlt, sollte man das in Kauf nehmen können.

Topic:
Weiss jemand, ob der neue Treiber irgendwie die Boostleistung ändert, damit es zu weniger Abstürzen kommt?

Troyan
2020-09-30, 15:38:04
Die Kurve wurde leicht nach unten korrigiert und das Boost-Verhalten an sich ist nicht mehr so aggressiv. Damit sollten die Probleme behoben sein, wenn es welche gab.

davidzo
2020-09-30, 17:18:21
Ich denke er sagt nur dass der FP32 nicht 2x ist. Und schiebt das dann auf einen Blumenstrauß an Gründen, memory bandwidth, shared memory capacity und bandwidth. Das ist nur spekuliert, das kann man an den Ergebnissen nicht sehen. Dass es kein 2x gibt ist aber nicht verwunderlich, z.B. ist jede INT op und jeder load/store eine verlorene FP32 op, die müssen ja auch irgendwo ausgeführt/irgendwann geissued werden. Beim Design von Ampere ist es quasi unmöglich full FP32 Durchsatz zu bekommen.


Das sind doch gerade reine FP32 Benchmarks, also das Idealszenario. Wie soll da eine INT op dazwischen kommen wenn hier doch gerade reine FP32 training models zum Einsatz kommen? Es ist eben nicht das gaminszenario mit mixed workloads, sondern dürfte eigentlich eine perfekte Skalierung zeigen. Es sind aber nur 1.4-1.5x

mksn7
2020-09-30, 17:24:22
Kein Program kann nur aus FP32 instructions bestehen. Irgendwo müssen auch mal Daten geladen werden, und dafür müssen auch mal Addressen berechnet werden. Was bei GPUs recht aufwendig ist, weil es keine komplexe Addressmodi gibt, und weil 64bit pointer mit 32bit integer units berechnet werden. Bei diesem Workload (der vermutlich einem batched sgemm nicht unähnlich sieht?) ist das Verhältnis von FP32/non-FP32 vermutlich recht hoch, aber nicht unendlich.

Edit: Hab mal ganz kurz AlexNet angeschaut. Das hat sowohl convolutional layers, pooling layers, als auch fully connected layers. Die convolutional und pooling layers dürften als stencils bandbreitenlimitiert sein, die fully connected layers eher computational. Ich weiß nicht an welcher Stelle die meiste Zeit drauf geht, aber so oder so skaliert von diesen benchmarks einfach nicht alles mit dem FP32 Durchsatz.

Dural
2020-09-30, 17:50:25
Es wurde doch schon mehrfach gesagt das die Einheiten die theoretische FP32 Leistung können, aber in einer GPU gibt es halt sehr viel mehr wo limitieren kann.

Irgend wie muss man die 10K Einheiten auch Füttern können, da gibt es sicherlich viele Baustellen. Wir haben mit Ampere zb. auch deutlich weniger Bandbreite pro FP32 Einheit.

why_me
2020-09-30, 18:07:47
Bei Turing hattest du die INT Einheiten, die genauso gefüllt worden mussten, Bandbreite müsste also schon da gewesen sein....

BaggiBox
2020-09-30, 18:39:40
Mal gucken ob meine Inno3D 3080 durch den Treiber besser geworden ist.
Flight Simulator, Metro Exodus, Rage 2 hatte ich abstürze.:frown:

MasterElwood
2020-09-30, 19:51:18
Mal gucken ob meine Inno3D 3080 durch den Treiber besser geworden ist.
Flight Simulator, Metro Exodus, Rage 2 hatte ich abstürze.:frown:

Auf FS gib nix. Der stürzt dauernd ab.

Digidi
2020-09-30, 20:23:42
Kein Program kann nur aus FP32 instructions bestehen. Irgendwo müssen auch mal Daten geladen werden, und dafür müssen auch mal Addressen berechnet werden. Was bei GPUs recht aufwendig ist, weil es keine komplexe Addressmodi gibt, und weil 64bit pointer mit 32bit integer units berechnet werden. Bei diesem Workload (der vermutlich einem batched sgemm nicht unähnlich sieht?) ist das Verhältnis von FP32/non-FP32 vermutlich recht hoch, aber nicht unendlich.

Edit: Hab mal ganz kurz AlexNet angeschaut. Das hat sowohl convolutional layers, pooling layers, als auch fully connected layers. Die convolutional und pooling layers dürften als stencils bandbreitenlimitiert sein, die fully connected layers eher computational. Ich weiß nicht an welcher Stelle die meiste Zeit drauf geht, aber so oder so skaliert von diesen benchmarks einfach nicht alles mit dem FP32 Durchsatz.

Das ist ja das Problem, alle hoffen das Turing noch schneller wird, es werden aber trozdem schon beide Pfade ausgelastet. Wir stellen alos fest wir werden nie die 100% FP32 Performance sehen weil alleine 20-30% für INT Berechnungen wegfallen.

mksn7
2020-09-30, 20:27:54
Bei Turing hattest du die INT Einheiten, die genauso gefüllt worden mussten, Bandbreite müsste also schon da gewesen sein....

Die werden ja nicht mit Quatsch aufgefüllt, nur weil sie da sind.

Das ist ja das Problem, alle hoffen das Turing noch schneller wird, es werden aber trozdem schon beide Pfade ausgelastet. Wir stellen alos fest wir werden nie die 100% FP32 Performance sehen weil alleine 20-30% für INT Berechnungen wegfallen.

Ja genau.

War bei Knights Landing auch der Fall. Zwei dicke FMA units pro core, aber nur dual issue. Der kam auch nie allzunah an P_peak ran.

Digidi
2020-09-30, 21:40:35
Ergo da Ampere seine Leistung voll abruft kann es keinen Fine Wine geben?

https://cdn.wccftech.com/wp-content/uploads/2020/09/NVIDIA-FineWine-Flowchart.jpg
https://wccftech.com/nvidia-rtx-30-fine-wine-investigating-the-curious-case-of-missing-gaming-performance/

BaggiBox
2020-09-30, 22:12:15
Auf FS gib nix. Der stürzt dauernd ab.
Nach dem Update läuft das jetzt wieder

basix
2020-09-30, 23:06:33
Das ist ja das Problem, alle hoffen das Turing noch schneller wird, es werden aber trozdem schon beide Pfade ausgelastet. Wir stellen alos fest wir werden nie die 100% FP32 Performance sehen weil alleine 20-30% für INT Berechnungen wegfallen.

Ich vermute, dass wird mit Amperes Nachfolger "behoben" werden. Also wieder frei laufende INT-Operationen.

Wenn Ampere 25 TFLOPs FP32 auf die Strasse bringt und auf 10 Float-Operationen jeweils 4 INT-Operationen kommen (etwa das, was man bei Turing präsentiert hat), sind die 35 TFLOPs + INT-OPs einer 3090 FE zu 100% ausgelastet. Oder anders gesagt, Amperes Nachfolger könnte mit concurrent INT execution wie bei Turing bis zu 1.4-1.5x IPC von Ampere erreichen. Ich glaube aber auch, dass bei Ampere die Bandbreite irgendwann mal knapp wird. Gibt es eigentlich Tests zu Speicher-OC und dessen Scaling?

https://www.igorslab.de/wp-content/uploads/2018/09/Concurrent-Execution.jpg

Digidi
2020-09-30, 23:31:28
@basix die Karte ist immer ausgelastet :)

Die Frage war ja ob die FP32 voll ausgelastet werden können und das können sie nicht. Natürlich kann man jetzt alles was man in INT gemacht hat in FP32 transformieren aber das würde nichts bringen man hätte die Arbeit nur verlager. Solange sich die FP32 Einheiten den Strang mit INT Teilen werden wir niemals 2x Performance sehen. Das war ein purer Marketingmove.

Außerdem müsste man dann auch die 2080ti aufwerten, denn die INT Operationen wurden in die bisherige Leistung auch nicht mit einbezogen. ;)

RLZ
2020-09-30, 23:33:42
Natürlich kann man jetzt alles was man in INT gemacht hat in FP32 transformieren aber das würde nichts bringen man hätte die Arbeit nur verlager.
Wie soll das funktionieren?

Digidi
2020-09-30, 23:35:04
Wie soll das funktionieren?

Ich sag ja es bringt nichts und wäre sehr Zeitaufwendig. Man kann eine Int Zahl auch als FP zahl darstellen. Man hätte halt ein paar einschränkungen was die Genauigkeit anbelangt.

basix
2020-09-30, 23:43:00
Außerdem müsste man dann auch die 2080ti aufwerten, denn die INT Operationen wurden in die bisherige Leistung auch nicht mit einbezogen. ;)

Stimmt, müsste man. Nichtsdestotrotz dürften separate INT-Einheiten die Auslastung der FP-Pipes erhöhen.

Troyan
2020-10-01, 00:16:50
Man sollte sich mit dem Scheduling der Warps innerhalb der SMs beschäftigen, um dann zu erkennen, dass die Erweiterung mit den zusätzlichen FP32 Einheiten sich logisch ergeben hat. Ampere ist eine Evolution aus dem Schritt, den nVidia mit Turing gegangen ist und liefert nun Rechenleistung, die vor ein paar Monaten noch undenkbar war.

Ampere ist nicht Kepler, wo 1/3 der Recheneinheiten brachliegen, weil nicht genug unabhängige Anweisungen berechnet werden konnten. Gibt es FP32 Arbeit, wird diese komplett in beiden Datenpfaden ausgeführt. Die Anpassungen am Chip waren dazu "relativ" gering.

RLZ
2020-10-01, 00:24:53
Ich sag ja es bringt nichts und wäre sehr Zeitaufwendig. Man kann eine Int Zahl auch als FP zahl darstellen. Man hätte halt ein paar einschränkungen was die Genauigkeit anbelangt.
Das ist keine Option. Wenn der Programmierer ein Int hinschreibt, ist das Verhalten standardisiert.
Genauso ist ein FP32 mit allen Edge Cases in IEE754 festgelegt.
Da kann man nicht einfach mal den Datentyp auswechseln und ungefähr das richtige Ergebnis berechnen. Woher soll der Compiler/GPU wissen, ob die Genauigkeit überhaupt relevant ist? Oder ob er überhaupt konkrete Integer Werte im Integer speichern will? Vielleicht bastelt er ja auch Bitebene was zusammen.

Digidi
2020-10-01, 00:36:59
Das ist keine Option. Wenn der Programmierer ein Int hinschreibt, ist das Verhalten standardisiert.
Genauso ist ein FP32 mit allen Edge Cases in IEE754 festgelegt.
Da kann man nicht einfach mal den Datentyp auswechseln und ungefähr das richtige Ergebnis berechnen. Woher soll der Compiler/GPU wissen, ob die Genauigkeit überhaupt relevant ist? Oder ob er überhaupt konkrete Integer Werte im Integer speichern will? Vielleicht bastelt er ja auch Bitebene was zusammen.

Man wechselt ja auch nicht den Datentyp sondern übergibt Variable 1 [int] an Variable 2 [FP] also als ich vor langer Zeit C programmiert habe ging das noch. Vielleicht betrachte ich das auch zu sehr aus sicht der Mathematik.

RLZ
2020-10-01, 00:52:29
Vielleicht betrachte ich das auch zu sehr aus sicht der Mathematik.
Du betrachtest das aus zu oberflächlicher Sicht. Mathematisch ist das alles genau definiert.
Einfaches Beispiel: Wenn ich auf ein Array Element zugreife, will ich genau das gesuchte Elemente haben. Nicht irgendein Elemente in der Nähe.
Das ist keine theoretische Überlegung. Die Mantisse ist nur 23 Bit groß. Das reicht nicht mal um einer 4K Textur jeden Pixel zu addressieren. Dazu schnurrt die Genauigkeit mit jeder Operation zusammen.

mksn7
2020-10-01, 11:17:36
Ich kann mir nicht vorstellen, dass es in Zukunft 2x FP32 und 1x INT execution units pro scheduler geben wird, dann müsste nvidia zurück zu dual-issue.

Die execution units pro scheduler in Ampere sind eigentlich gar nicht mal so fett. Bei Pascal gabs pro scheduler eine 32x breite INT/FP32 unit. Bei Volta/Turing nur noch eine 16x breite FP32 und eine 16x breite INT unit, also eher eine Halbierung. Die scheduler können statt dual-issue nur noch single-issue. Das langt, weil die Volta/Turing/Ampere units wegen halber Breite nur alle 2 Takte einen 32x warp bearbeiten können. In einem Takt wird an die eine Einheit geissued, im nächsten an die andere. Das sieht interessanterweise sehr ähnlich aus wie bei ... GCN. Da wird sogar nur alle 4 Takte geissued, weil 16x execution units 4 Takte für einen 64x warp brauchen.

Ampere hat jetzt wieder die gleiche Menge an execution units pro scheduler, aber weniger issues. Da war bei Pascal immer noch ein issue übrig für branching, SFU, load/store. Bei Turing auch, wenn nicht gerade ein 50/50 instruction mix vorliegt (sehr unwahrscheinlich).

Turing/Volta verdoppeln dafür im Vergleich zu Pascal die Anzahl der scheduler. Vier statt zwei scheduler pro SM, der jeweils 64 FP32 execution units enthält. Die issue rate ist also insgesamt gleich geblieben, aber single-issue scheduler sind vermutlich simpler zu bauen.

Interessanterweise hat sich NVIDIA damit von Pascal zu Turing in genau die entgegengesetzte Richtung bewegt wie AMD von GCN zu RDNA. Die single warp performance sinkt etwas, aber der Gesamtdurchsatz (mit genügend threads) steigt.


Viel von all diesen Überlegungen ist aber müßig, weil nicht allzuoft hängt die Performance der meisten Dinge wirklich an der incore execution. Selbst der bei Volta und Ampere extrem (im vgl zu Pascal, GCN) schnelle L1 cache kann schnell der limiter werden wenn, das compute/load Verhältnis nicht groß genug ist. Und der DRAM natürlich erst recht. Ampere hätte die FP32 Leistung vermutlich auch verzehnfachen können, die durchschnittliche Spieleperformance würde sich nur mäßig (ich traue mich nicht einen Faktor zu nennen) bewegen. (Wenn man mal davon absieht dass Spieleentwickler beim Vorhandensein von 10x FP32 performance auch ihre Spiele anders entwickeln würden)

Cyberfries
2020-10-02, 09:15:32
3070 verschoben?
Auf der Webseite steht mittlerweile 29.Oktober.

edit: entdeckt von Andreas Schilling auf Twitter
Ein Tag nach Navi2x - ein Schelm wer Böses dabei denkt...

dargo
2020-10-02, 09:31:42
Lol... ;D, genau so mag ich das. :D Endlich wieder mal richtig was los im Desktop bei dGPUs. :tongue:

Lawmachine79
2020-10-02, 09:34:20
3070 verschoben?
Auf der Webseite steht mittlerweile 29.Oktober.

edit: entdeckt von Andreas Schilling auf Twitter
Ein Tag nach Navi2x - ein Schelm wer Böses dabei denkt...
Ok, wahrscheinlich wird BN dann sogar von der 3070 geraped. Sonst würde NV die 2-3 Wochen vorher releasen um noch Käufer abzugreifen; ist aber wohl nicht nötig.

Dural
2020-10-02, 09:37:41
Die setzten wirklich die 3070 gegen BigNavi ein :freak:

Ich freue mich schon auf die obligatorischen "Der Chip hat noch Einheiten versteckt die nicht aktiv sind" und der "Wunder Treiber kommt nächsten Monat" Kommentare ;D

Linmoum
2020-10-02, 09:41:52
Nvidia braucht doch gar keine Wundertreiber? Die 3070 schafft es ja selbst in NV-eigenen Benchmarks teilweise nicht einmal vor die 2080Ti. Die 3070 stinkt gegen N21 genauso ab, wie gegen die 3080. Natürlich erwartbar außerhalb der grünen Fanboy-Blase

HOT
2020-10-02, 09:47:00
Das würd ich mal eher auf Produktiosnprobleme schieben, die ja die Verfügbarkeit beeinflussen. NV hat ja jetzt schon massiv schlechte Presse mit dem GA102 erzeugt, da ist es ja eher nicht nötig so schnell wie möglich die anderen Karten zu launchen, wenn sie nicht verfügbar sind. Die 3070 wird ja eh nicht in der Liga von BN spielen, das wird ja eher minimal besser als die 2080 Super. Somit kommt sich das auch nicht in die Quere. AMD launcht ja auch nicht, sondern stellt am 28. nur vor.

dargo
2020-10-02, 09:52:57
Ich freue mich schon auf die Frametimes der RTX 3070 in HZD. ;D Die Meute wird sich wahrscheinlich eh drauf stürzen... 499$ 111elf. ;) Wobei... wenn die Probleme nicht bei GDDR6X sondern tatsächlich 8nm Samsung liegen wird der Preis schnell über 700$ liegen da eh kaum was da ist. :ulol:

Dorn
2020-10-02, 09:55:51
Das würd ich mal eher auf Produktionsprobleme schieben, die ja die Verfügbarkeit beeinflussen.
Denke ich auch, hier muss jetzt schon mal richtig vorproduziert werden, ansonsten gibts wieder 5 Sekunden nach Launch keine mehr.

Adam D.
2020-10-02, 10:01:40
Ok, wahrscheinlich wird BN dann sogar von der 3070 geraped. Sonst würde NV die 2-3 Wochen vorher releasen um noch Käufer abzugreifen; ist aber wohl nicht nötig.
Ihr seid solche Clowns, wirklich. Manchmal frage ich mich, was erwachsene Menschen dazu bringt, bei Hardware-Themen komplett das Hirn auszuschalten und auf dem geistigen Level von nem Hundewelpen zu agieren.

https://www.nvidia.com/en-us/geforce/news/geforce-rtx-3070-available-october-29/

Einmal geguckt und man hätte selbst rausgefunden, dass Verfügbarkeit das Problem ist - NV gibt es selbst zu. Meine Fresse, echt.

Lawmachine79
2020-10-02, 10:03:40
Ihr seid solche Clowns, wirklich. Manchmal frage ich mich, was erwachsene Menschen dazu bringt, bei Hardware-Themen komplett das Hirn auszuschalten und auf dem geistigen Level von nem Hundewelpen zu agieren.

Wo, wenn nicht hier?

Daredevil
2020-10-02, 10:06:56
Einmal geguckt und man hätte selbst rausgefunden, dass Verfügbarkeit das Problem ist - NV gibt es selbst zu. Meine Fresse, echt.
Das hätte NV aber auch schon bei den anderen Ampere Karten wissen müssen. Ich sehe hier ebenfalls eine politische Motivation, entweder ist AMD echt unbewaffnet oder Nvidia möchte sich die Optionen für den Preis offen lassen, damit AMD vorher quasi ins leere greift mit der Preisgestaltung.

w0mbat
2020-10-02, 10:07:30
Ja, an der 3070 wird man wirklich sehen können, ob es am Samsung-Prozess, am GDDR6X oder an den Kühler liegt. Die 3070 hat einen normalen Kühler und kein G6X, wenn die auch schlecht verfügbar ist, liegt es am Prozess.

Armaq
2020-10-02, 10:13:16
Das hätte NV aber auch schon bei den anderen Ampere Karten wissen müssen. Ich sehe hier ebenfalls eine politische Motivation, entweder ist AMD echt unbewaffnet oder Nvidia möchte sich die Optionen für den Preis offen lassen, damit AMD vorher quasi ins leere greift mit der Preisgestaltung.
Ins Leere? Also die 3080 ist klar positioniert. Wenn der "enthusiast" Chip von AMD nicht in Schlagweite der 3080 kommt, wird das eh ein Debakel. AMD muss nicht 25% schneller sein, wenn sie 10% langsamer sind und dafür 50Watt weniger nehmen, ist das schon ok.

Lawmachine79
2020-10-02, 10:13:58
Das hätte NV aber auch schon bei den anderen Ampere Karten wissen müssen. Ich sehe hier ebenfalls eine politische Motivation, entweder ist AMD echt unbewaffnet oder Nvidia möchte sich die Optionen für den Preis offen lassen, damit AMD vorher quasi ins leere greift mit der Preisgestaltung.
Unbewaffnet nicht. Aber sie kommen mal wieder mit einem Messer zu einer Schießerei.

Adam D.
2020-10-02, 10:14:08
Das hätte NV aber auch schon bei den anderen Ampere Karten wissen müssen. Ich sehe hier ebenfalls eine politische Motivation, entweder ist AMD echt unbewaffnet oder Nvidia möchte sich die Optionen für den Preis offen lassen, damit AMD vorher quasi ins leere greift mit der Preisgestaltung.
Ich versteh das Argument nicht, weil der Preis für die 3070 feststeht. Der wurde in der PR-Mitteilung nochmal bestätigt. Lass von mir aus die Hoffnung zentral sein, der AMD-Ankündigung etwas die Luft aus den Segeln zu nehmen. NV weiß aber nach der Geschichte mit der 3080 (und 3090), dass sie bei einer Karte um 500€ größere Mengen liefern müssen und das von ihnen auch erwartet wird. Dann lieber noch zwei Wochen produzieren und den Leuten was geben, was sie direkt kaufen können.

Zergra
2020-10-02, 10:22:33
Naja, am Ende ist auch beides möglich. Durch die 2 Wochen hat man am Ende ein paar Karten mehr (die eh nach 10min ausverkauft sind), und gleichzeitig kommt man AMD in die Quere.

BN wird wohl näher an der 3070 sein als hier erhofft wird.

Daredevil
2020-10-02, 10:26:50
Ich versteh das Argument nicht, weil der Preis für die 3070 feststeht. Der wurde in der PR-Mitteilung nochmal bestätigt. Lass von mir aus die Hoffnung zentral sein, der AMD-Ankündigung etwas die Luft aus den Segeln zu nehmen. NV weiß aber nach der Geschichte mit der 3080 (und 3090), dass sie bei einer Karte um 500€ größere Mengen liefern müssen und das von ihnen auch erwartet wird. Dann lieber noch zwei Wochen produzieren und den Leuten was geben, was sie direkt kaufen können.

Ja, der Preis ist bekannt, trotzdem hat der letzte immer noch was zu sagen und das ist Nvidia jetzt.
Nvidia könnte die Preise trotzdem senken, Nvidia könnte Cyberpunk noch den Karten beilegen, Nvidia könnte noch was anderes im Ärmel haben.
Oder sie wissen, dass BN vielleicht nicht viel kann und nehmen einen Tag später den kompletten Wind aus den Segeln.

Das sind alles Dinge, die AMD unter Druck setzen könnten, plus natürlich die Verfügbarkeit. Vermutlich werden aktuell jetzt einfach viel mehr 3080/3090 produziert, da muss die 3070 einfach hinten anstehen.

Zudem wird ja spekuliert, dass BN nach den Konsolen kommt, das wäre ebenso ein gefundenes fressen, wenn Nvidia nicht viel schlechter ist, die aber viel besser liefern können und zwar jetzt, VOR CYBERPUNK.

dargo
2020-10-02, 10:34:04
Oder sie wissen, dass BN vielleicht nicht viel kann und nehmen einen Tag später den kompletten Wind aus den Segeln.

Womit denn? Mit einer 8GB 3070? :ulol3:

Adam D.
2020-10-02, 10:34:52
Selbst mit zwei Wochen Verspätung kann NV deutlich früher liefern als AMD. Wenn die BN Ende Oktober vorstellen, wird es da vor Ende November eh nix zu kaufen geben. Und wer weiß, wie das Launch-Portfolio aussieht - vielleicht kommt der 3070-Konter auch erst noch später? Das hat AMD eh verkackt, da hat NV IMO zurecht die Ruhe weg.

Fragman
2020-10-02, 10:47:24
Zu Überraschungen beim neuen Navi wirds wohl nicht mehr kommen, so langsam ist klar wo sich die Chips performancetechnisch einordnen. Interessanter ist bei der Archs ja nur noch, wie sie aus diesen knappen Bandbreiten diese Leistung herausholen werden. Und vielleicht noch, wie stark man das dann skalieren kann, für den Fall das AMD einen Refresh bringen wollen würde in einem Jahr.

Daredevil
2020-10-02, 10:49:50
Womit denn? Mit einer 8GB 3070? :ulol3:

Besser als mit einer Radeon VII und 16GB. :<

Adam D.
2020-10-02, 15:52:36
Zu Überraschungen beim neuen Navi wirds wohl nicht mehr kommen, so langsam ist klar wo sich die Chips performancetechnisch einordnen. Interessanter ist bei der Archs ja nur noch, wie sie aus diesen knappen Bandbreiten diese Leistung herausholen werden. Und vielleicht noch, wie stark man das dann skalieren kann, für den Fall das AMD einen Refresh bringen wollen würde in einem Jahr.
Wie kommst du zu der Einschätzung? Wir haben bisher nicht einen einzigen brauchbaren Leak gesehen. Das kann zwischen Shitshow und positiver Überraschung noch alles geben, wir haben aktuell nicht mal den Ansatz von einen Schimmer.

Fragman
2020-10-02, 16:05:45
Wie kommst du zu der Einschätzung? Wir haben bisher nicht einen einzigen brauchbaren Leak gesehen. Das kann zwischen Shitshow und positiver Überraschung noch alles geben, wir haben aktuell nicht mal den Ansatz von einen Schimmer.

Die Performanceeinschätzungen durch leaked Benchmarks und Specs ergeben schon ein recht gutes Bild von dem, was wir erwarten können.

Hakim
2020-10-02, 16:19:41
Das bedeutet wohl auch das die 16 GB Versionen ebenfalls verschoben werden? Hab das Gefühl das man AMD nicht den letzten Feinschliff (Performance und Preislich) nicht gönnen wollte.

dargo
2020-10-02, 16:29:26
Die Performanceeinschätzungen durch leaked Benchmarks und Specs ergeben schon ein recht gutes Bild von dem, was wir erwarten können.
Was für geleakte Benchmarks? :ulol: Es gibt zu RDNA 2 gar nichts an glaubhaften Infos.

Das bedeutet wohl auch das die 16 GB Versionen ebenfalls verschoben werden?
Es gibt von Nvidia bisher nichts Offizielles. Weder was zu 16GB RTX 3070(TI) noch 20GB RTX 3080(TI). Alles bisher nur Wunschdenken.

WedgeAntilles
2020-10-02, 16:37:43
Alles bisher nur Wunschdenken.

Gab ja von manchne Herstellern schon ziemlich klare Hinweise - Namensreservierungen, Bezeichnungen und so weiter.

Ja, das ist nicht 100% garantiert.
Aber die Wahrscheinlichkeit dafür ist doch extrem hoch.

Wenn du 20 mal würfelst ist auch nicht garantiert, dass du zumindest einmal eine 6 würfelst. Dennoch ist es falsch zu sagen, es wäre Wunschdenken bei 20 Versuchen eine 6 zu bekommen.

Natürlich kann es sein, dass die 3070 mit 16GB erst kommt, wenn die 3080 mit 20GB ebenfalls kommt. Es könnte also schon noch etwas dauern bis es die zu kaufne gibt.

dargo
2020-10-02, 16:45:09
Gab ja von manchne Herstellern schon ziemlich klare Hinweise - Namensreservierungen, Bezeichnungen und so weiter.

Von wem? Die Einträge von Lenovo waren offensichtlich Blödsinn. Womöglich sass da wieder ein Praktikant dran. Diese Liste wurde offenbar nun überarbeitet.
https://psref.lenovo.com/Fullscreen/Lenovo_Legion_T7_34IMZ5

Ich sehe dort keinen einzigen Eintrag zur RTX 3070 (schon gar nicht mit 16GB), nur RTX 3080 mit 10GB. Natürlich wurden Anfang September sofort von den üblichen Verdächtigen Big News geschnürt.
https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/News/RTX-3070-Ti-mit-16GB-VRAM-gesichtet-1357337/

Leonidas
2020-10-02, 16:46:30
Launch-Reviews zur RTX3070 ebenfalls auf 29. Oktober verschoben:
https://videocardz.com/newz/nvidia-pushes-geforce-rtx-3070-launch-back-to-october-29th

Sprich: Bis zum 28. Oktober gehört der Monat ganz allein AMD.

WedgeAntilles
2020-10-02, 16:51:23
Ich sehe dort keinen einzigen Eintrag zur RTX 3070 (schon gar nicht mit 16GB), nur RTX 3080 mit 10GB. Natürlich wurden Anfang September sofort von den üblichen Verdächtigen Big News geschnürt.


Gut, vielleicht ist es doch noch etwas weniger "offiziell" als ich es im Kopf hatte.

Ändert aber nichts dran, dass es kommen wird, da leg ich mich fest :wink:

dargo
2020-10-02, 17:01:37
Ändert aber nichts dran, dass es kommen wird, da leg ich mich fest :wink:
Klar wird da was kommen, es muss sogar was kommen. Sonst sieht es für Nvidia beim Speicherausbau bald ganz übel aus. ;)

Lawmachine79
2020-10-02, 17:04:29
Für AMD sieht es viiieeeeelll schlimmer aus, alles unter 23,99 GB ist nicht zukunftstauglich.

Emil_i_Lönneberga
2020-10-02, 17:24:23
Neben Lenovo gibt es auch noch diese Liste:

https://videocardz.com/newz/gigabyte-confirms-geforce-rtx-3060-8gb-rtx-3070-16gb-and-rtx-3080-20gb


Gigabyte’s Watch Dogs Legion code redeeming website lists many graphics cards that have not been announced by the manufacturer. In fact, these cards have not even been announced by NVIDIA yet.

https://cdn.videocardz.com/1/2020/09/GIGABYTE-GeForce-RTX-3080-20GB.png

JVC
2020-10-02, 17:54:19
Für AMD sieht es viiieeeeelll schlimmer aus, alles unter 23,99 GB ist nicht zukunftstauglich.
Ich würde eher nicht auf unter 16Gb bei hohen Auflösungen,
oder unter 10Gb selbst bei nur FHD oder niedriger gehen.
(mehr braucht es da aber demnächst wahrscheinlich wirklich nicht)

Für 8K Ausflüge sind dann natürlich 24Gb empfehlenswert.

M.f.G. JVC

@y33H@ Noch nicht. Hab ja auch noch kein HDMI 2.1 Anzeigegerät ;)

y33H@
2020-10-02, 18:05:31
Hast du dir eigentlich schon deine HDMI 2.1 Grafikkarte gekauft? :biggrin:

WedgeAntilles
2020-10-02, 18:38:05
Klar wird da was kommen, es muss sogar was kommen. Sonst sieht es für Nvidia beim Speicherausbau bald ganz übel aus. ;)

Ganz genau - es gibt eine Zielgruppe, die mehr Speicher will.
Nvidia wäre ja völlig bescheuert, dieser Gruppe zu sagen: Nö, wenn ihr mehr Speicher wollt kauft AMD. (Bzw. halt ne 1500 Euro GraKa, was für 99% keine Alternative ist.)

Daher braucht es keine offizielle Bestätigung, es ist aus der Sache heraus nahezu zwangsläufig, dass es von Nvidia Karten mit mehr Speicher geben wird :)

Ist IMO auch für alle perfekt.
Wer die 3070 mit 8GB will kann die kaufen.
Wer die 3080 mit 10GB will hat die.
Und wer 16 bzw. 20GB will bekommt die auch.

Wahlmöglichkeiten sind für den Konsumenten ja meistens gut.

Bei mir wirds aller Voraussicht nach die 3080 mit 10GB, da mir mehr Speicher nicht viel bringt (FullHD) und der Mehrspeicher ja auch ordentlich mehr kosten wird.
Natürlich ist ne 3080 dafür eigentlich überdimensioniert, aber die 3080 ist deutlich besser als die 3070 (und 8GB ist vielleicht doch ein bisschen knapp, auch für FHD) - für gerade mal 200 Euro mehr.
Da ist die 3080 (mit undervolting auf 270W oder so) IMO das deutlich attraktivere Paket.

MiamiNice
2020-10-02, 18:39:27
Launch-Reviews zur RTX3070 ebenfalls auf 29. Oktober verschoben:
https://videocardz.com/newz/nvidia-pushes-geforce-rtx-3070-launch-back-to-october-29th

Sprich: Bis zum 28. Oktober gehört der Monat ganz allein AMD.

Klingt so als würde NV meinen das sie BN mit der 3070 kontern könnten. Eigentlich geht mir der BN Release am Allerwertesten vorbei, jetzt bin ich doch ein wenig gespannt.

WedgeAntilles
2020-10-02, 18:45:28
Klingt so als würde NV meinen das sie BN mit der 3070 kontern könnten. Eigentlich geht mir der BN Release am Allerwertesten vorbei, jetzt bin ich doch ein wenig gespannt.

Oder es ist einfach so, dass Nvidia tatsächlich größere Bestände der 3070 haben will?

Wieso glauben eigentlich viele, dass jeder Schritt von Nvidia von AMD "diktiert" oder zumindest beeinflusst ist??
Nvidia hat aktuell ca. 80% Marktanteil, ich vermute mal die ziehen primär ihr Ding durch und orientieren sich nicht ausschließlich an AMD.

Wenn Bayern gegen Augsburg spielt, ist die Augusburger Taktik für die Bayern auch eher weniger relevant...

rentex
2020-10-02, 19:20:06
NV muss natürlich auch AMD berücksichtigen und sie tun es auch sehr genau. Ihre Marktanteile sollen jetzt und in Zukunft gesichert bleiben. Das sind sie den Aktionären ebenfalks schuldig. Größere Nachlässigkeiten a la Intel (ja ich weiß, man kann die Beiden nicht vergleichen!) dürfen nicht passieren. AMD agiert seit zwei drei Jahren deutlich aggressiver als in den Jahren davor. NV ist alles andere als hochmütig und selbstsicher (im positiven Sinn).

ShinyMcShine
2020-10-02, 20:52:50
Performance-Zahlen (oder besser "Balken") der 3070 direkt von NV. (https://videocardz.com/newz/nvidia-shares-official-geforce-rtx-3070-performance-figures)

Rampage 2
2020-10-02, 22:12:16
Performance-Zahlen (oder besser "Balken") der 3070 direkt von NV. (https://videocardz.com/newz/nvidia-shares-official-geforce-rtx-3070-performance-figures)


Wie schafft es die 3070 mit ihrer nur 448GB/sek. Bandbreite, an einer 2080 Ti mit 616GB/sek. (37,5% mehr Bandbreite!) vorbeizuziehen oder fast immer gleichzuziehen? Laut PCGH habe Nvidia bestätigt, dass es bei der BB-Kompression keine weiteren Fortschritte mehr bei Ampere ggü. Turing gegeben hat - die BB-Effizienz ist also weiterhin "nur" auf Turing-Niveau:|

R2

Troyan
2020-10-02, 22:16:07
In 1440p spielt Bandbreite nicht so die Rolle. Die Karte wird eine deutlich höhere Taktrate haben und somit in Bereich Rasterizing (6GPC gegen 6GPC) und Pixelleistung (96ROPs zu 88ROPs) schneller sein. Dazu hat die Karte auch noch 6TFLOPs mehr FP32 Leistung.

Das gleicht in 1440p die niedrige Bandbreite wieder aus.

davidzo
2020-10-02, 23:57:19
Wie schafft es die 3070 mit ihrer nur 448GB/sek. Bandbreite, an einer 2080 Ti mit 616GB/sek. (37,5% mehr Bandbreite!) vorbeizuziehen oder fast immer gleichzuziehen? Laut PCGH habe Nvidia bestätigt, dass es bei der BB-Kompression keine weiteren Fortschritte mehr bei Ampere ggü. Turing gegeben hat - die BB-Effizienz ist also weiterhin "nur" auf Turing-Niveau:|

R2


Hast du mal geguckt was das für Anwendungen sind?
Die wo der Balken am längsten ist sind alles Renderer, also synthetische workloads.

Findet ihr das nicht fischig, dass bei einer reinen Gamingkarte wie der 3070 plötzlich Profisoftware wir Arnold oder Redshift in der begrenzten Benchmarkauswahl auftaucht? Bei einer Titan oder vllt. noch 3090 okay, aber eine 3070 mit 8GB? really Jensen, really?

Also Luxmark, redshift, arnold und Blender kann man schonmal rausstreichen.

Im Übrigen ist der Vorsprung nur noch gering oder sogar ein Rückstand da.

Ashes ist eigentlich eher als CPUbound bekannt, nicht als Grafiktitel. Da hat man eventuell was am Treiber oder ander Plattform gemacht (PCIe4 lässt grüßen?)

Von den übrigen Titeln ist die 2080TI dreimal schneller, wenn auch nur geringfügig (wie ich nvidia kenne wird die Lücke größer sein).

In drei weiteren Titeln führt die 3070, zwei davon mit RTX on. Das ist interessant, ich hätte gedacht dass die 2080ti durch die höhere anzahl rt-cores weiter führt. scheint sich tatsächlich fast verdoppelt zu haben die rt leistung pro rt core.


Man kann also maximal von einem Gleichstand im Gaming sprechen. Nvidia hat die ganze vier Renderinganwendungen mit reinziehen müssen um den Schnitt zu heben. Und wie ich NV einschätze sind auch die Games cherrypicked, ich gehe also von einem mehr oder weniger klaren Lead der 2080ti in Gaming in unabhängigen Tests aus...

Armaq
2020-10-03, 01:18:54
Wie schafft es die 3070 mit ihrer nur 448GB/sek. Bandbreite, an einer 2080 Ti mit 616GB/sek. (37,5% mehr Bandbreite!) vorbeizuziehen oder fast immer gleichzuziehen? Laut PCGH habe Nvidia bestätigt, dass es bei der BB-Kompression keine weiteren Fortschritte mehr bei Ampere ggü. Turing gegeben hat - die BB-Effizienz ist also weiterhin "nur" auf Turing-Niveau:|

R2
Das wird nicht der Fall sein. Nvidia hat ja den Mund schon etwas voll genommen im Vergleich zu traurigen Realität bzw. es gibt auch Beispiele die die Zahlen von nvidia spiegeln. Dennoch war es etwas optimistisch, but it is safe to upgrade now! :biggrin:


Ich seh es auch nicht als positives Signal, dass nvidia sich 1 Tag nach AMD meldet, aber nehmen wir es mal positiv an.

AMD könnte ja auch was Brauchbares vorstellen und Nvidia kontert direkt am Folgetag mit noch einmal besseren Preisen (im Verhältnis). Sie sind nicht so träge wie Intel und ich geh mal mit der Perspektive ran, dass beide was hinbekommen. Das wäre auch der beste Fall für alle Konsumenten.

reaperrr
2020-10-03, 05:34:11
Wie schafft es die 3070 mit ihrer nur 448GB/sek. Bandbreite, an einer 2080 Ti mit 616GB/sek. (37,5% mehr Bandbreite!) vorbeizuziehen oder fast immer gleichzuziehen? Laut PCGH habe Nvidia bestätigt, dass es bei der BB-Kompression keine weiteren Fortschritte mehr bei Ampere ggü. Turing gegeben hat - die BB-Effizienz ist also weiterhin "nur" auf Turing-Niveau:|

R2
Weil die 2080 Ti selten im Bandbreitenlimit hängt und für niedrigere Auflösungen und Spiele mit geringeren Bandbreiten-Anforderungen quasi "zu viel" Bandbreite hat, jedenfalls mehr als benötigt. Die 2080S hat ja auch nur 11% mehr Bandbreite als eine 2060S und ist trotzdem deutlich schneller.

Und in allen Situationen, wo die Bandbreite nicht kriegsentscheidend ist, kann die 3070 halt ihre doppelten FP32 ALUs, größeren L1 Caches und andere Architekturverbesserungen ausspielen.


Man kann also maximal von einem Gleichstand im Gaming sprechen.
Ich gehe davon aus, dass die 3070 in der Mehrheit der Spiele eher so ~10% hinter der 2080 Ti landet.

dildo4u
2020-10-03, 05:41:10
Könnte es sein das man die 3070 besser auslasten kann da sie deutlich weniger Cuda Cores als die 3080 hat?

rentex
2020-10-03, 09:25:55
Die OC Eigenschaften werden ebenfalls interessant!

Fragman
2020-10-03, 11:24:31
Man kann also maximal von einem Gleichstand im Gaming sprechen. Nvidia hat die ganze vier Renderinganwendungen mit reinziehen müssen um den Schnitt zu heben. Und wie ich NV einschätze sind auch die Games cherrypicked, ich gehe also von einem mehr oder weniger klaren Lead der 2080ti in Gaming in unabhängigen Tests aus...

Nv hat Cuda und damit gehören diese Benchmarks dazu. Außerdem wird es eine 16GB Version geben. So günstig bekommt man nicht solche Renderleistung. Das Ding wird sich verkaufen wie geschnitten Brot. Naja, solang verfügbar. :D

basix
2020-10-03, 11:33:31
Könnte es sein das man die 3070 besser auslasten kann da sie deutlich weniger Cuda Cores als die 3080 hat?

In 1440p sicher. In 4K werden wir sehen.

Ich gehe davon aus, dass die 3070 in der Mehrheit der Spiele eher so ~10% hinter der 2080 Ti landet.

In 4K erwarte ich auch so 5-10% hinter der 2080 Ti. In 1440p etwas weniger.

reaperrr
2020-10-03, 11:34:49
Könnte es sein das man die 3070 besser auslasten kann da sie deutlich weniger Cuda Cores als die 3080 hat?
Wenn, dann liegt es an der Anzahl der GPCs. Wenn sich die SM bei der 3070 wie bei TU104 auf 6 GPC verteilen, kann es schon sein, dass die Auslastung etwas besser ist als bei GA102 mit seinen 7, zumal die 3070 damit auch 96 ROPs hätte, nicht viel weniger als die 112 von GA102.

Eine große Rolle scheint es aber nicht zu spielen.

Die 3080 hat ca. 135% der Leistung einer 2080Ti. Rechnet man das von der Zahl der ALUs der 3080 auf die Anzahl ALUs der 3070 runter, kommt man auf 91,3% der 2080Ti-Leistung bei 3080-Takt.
Falls die 3070 dann wie gesagt 6 GPCs/96 ROPs haben sollte, kann das noch etwas weiter schrumpfen und in FP32-lastigen Situationen eben auch mal zum Sieg gegen die 2080Ti reichen.

basix
2020-10-03, 11:40:20
Die 3070 wird ihre SMs etwas besser auslasten können und etwas mehr Takt mitbringen als die 3080. Eine 2080 Ti wird in 4K aber mit hoher Wahrscheinlichkeit nicht geschlagen. Die 3070 ist für mich aber eher eine 1080p und 1440p Karte.

dargo
2020-10-03, 11:40:46
Wie schafft es die 3070 mit ihrer nur 448GB/sek. Bandbreite, an einer 2080 Ti mit 616GB/sek. (37,5% mehr Bandbreite!) vorbeizuziehen oder fast immer gleichzuziehen? Laut PCGH habe Nvidia bestätigt, dass es bei der BB-Kompression keine weiteren Fortschritte mehr bei Ampere ggü. Turing gegeben hat - die BB-Effizienz ist also weiterhin "nur" auf Turing-Niveau:|

Sind die Caches bei der RTX 3070 gleich groß wie bei der RTX 2080TI?

Die OC Eigenschaften werden ebenfalls interessant!
Was soll daran so interessant sein im gleichen Fertigungsprozess? :freak: Du wirst genauso bei der 3070 die Taktmauer bei knapp über 2,1Ghz sehen (LN2 mal außen vor). Natürlich mit deutlich höherem Powerlimit.

Raff
2020-10-03, 11:41:05
Wenn, dann liegt es an der Anzahl der GPCs. Wenn sich die SM bei der 3070 wie bei TU104 auf 6 GPC verteilen, kann es schon sein, dass die Auslastung etwas besser ist als bei GA102 mit seinen 7, zumal die 3070 damit auch 96 ROPs hätte, nicht viel weniger als die 112 von GA102.

Eine große Rolle scheint es aber nicht zu spielen.

Die 3080 hat ca. 135% der Leistung einer 2080Ti. Rechnet man das von der Zahl der ALUs der 3080 auf die Anzahl ALUs der 3070 runter, kommt man auf 91,3% der 2080Ti-Leistung bei 3080-Takt.
Falls die 3070 dann wie gesagt 6 GPCs/96 ROPs haben sollte, kann das noch etwas weiter schrumpfen und in FP32-lastigen Situationen eben auch mal zum Sieg gegen die 2080Ti reichen.

Letzteres. Die RTX 3070 hat IMHO viel zu wenig "alles" abseits von FP32-Leistung, um einen Durchmarsch gegenüber der RTX 2080 Ti zu erreichen. Es gibt gute Gründe, warum Nvidia erneut die am besten von Ampere goutierten Benchmarks kredenzt. :)

Sind die Caches bei der RTX 3070 gleich groß wie bei der RTX 2080TI?

Mehr L1 pro SM, aber wesentlich weniger L2 pro Chip: https://www.pcgameshardware.de/Geforce-RTX-3090-Grafikkarte-276729/Tests/Review-Gaming-Benchmarks-Studio-1358437/

MfG
Raff

Adam D.
2020-10-03, 12:27:50
Letzteres. Die RTX 3070 hat IMHO viel zu wenig "alles" abseits von FP32-Leistung, um einen Durchmarsch gegenüber der RTX 2080 Ti zu erreichen. Es gibt gute Gründe, warum Nvidia erneut die am besten von Ampere goutierten Benchmarks kredenzt. :)
Das muss sie ja auch - abseits vom üblichen Marketingeschwafel - gar nicht. Wenn das im Durchschnitt +/- 5% sind, dann hat man da ne super 1440p-Karte, die auch noch halbwegs erschwinglich ist (ich ignoriere jetzt mal das VRAM-Problem). Weniger verbrauchen wird sie auch. Dazu ist auch zu erwarten, dass AMD in dem Preis- und Leistungsbereich was Brauchbares anbieten wird. Das ist IMO mit die beste Entwicklung der neuen Generation, weil in dem Preisbereich einfach ausreichend Leistung geboten wird dieses Mal.

ChaosTM
2020-10-03, 12:54:47
Falls sie real 5-10% unter der ti rauskommt geht das auch noch.. für 1080p ^^

Beim FS2020 wird aber selbst das schon knapp

Sunrise
2020-10-03, 13:18:08
...Wieso glauben eigentlich viele, dass jeder Schritt von Nvidia von AMD "diktiert" oder zumindest beeinflusst ist??
Das hat mit “glauben” wenig zu tun. Du musst da etwas mehr differenzieren, es geht auch nicht um jeden Schritt.

Bzgl. der VÖ-Termine: 28. und 29. Oktober, vielleicht fällt dir ja was auf? Ist sicher Zufall...

GA102 ist der große Brocken, aber GA104 wird wie immer in Massen gekauft und da ist es entgegen den Halo-Produkten von beiden IHVs extrem wichtig, dass die entsprechend natürlich das beste P/L haben. Jede Info die man hat, ist da Gold Wert. Hier und auch darunter werden die Marktanteile maßgeblich bestimmt. Nicht jeder kann oder will 700 EUR oder mehr (3090) ausgeben.

Dass NV hier bei GA102 die Frequenzen so hochgezogen hat, und die 3090 sich nur wenig absetzen kann, ist sicher auch Zufall. Oder eben Fehlplanung von NV aufgrund schlechter als zu erwartenden Samsung-Ergebnissen. Das kann sich jeder dann gerne selbst aussuchen.

RLZ
2020-10-03, 13:25:15
Findet ihr das nicht fischig, dass bei einer reinen Gamingkarte wie der 3070 plötzlich Profisoftware wir Arnold oder Redshift in der begrenzten Benchmarkauswahl auftaucht? Bei einer Titan oder vllt. noch 3090 okay, aber eine 3070 mit 8GB? really Jensen, really?
Das sie auftauchen ist noch ok. Dass sie in den Durchschnitt mit eingehen ist mit fishy nicht ausreichend niedergemacht. Das einfach eine Verarsche.

ich gehe also von einem mehr oder weniger klaren Lead der 2080ti in Gaming in unabhängigen Tests aus...
Klar ja, aber nicht weit genug, damit sich ein 70er Käufer davon abgeschreckt fühlt.

Das wird nicht der Fall sein. Nvidia hat ja den Mund schon etwas voll genommen im Vergleich zu traurigen Realität bzw. es gibt auch Beispiele die die Zahlen von nvidia spiegeln.
Inwiefern? Es gibt Zahlen, die über den Nvidia Angaben liegen und welche die drunter liegen. Der Rest ist ein Streit, wie man alle Daten auf eine einzige Zahl runterdampft. Da allein die Idee sinnlos ist, alles mit einer Zahl auszudrücken, ist der Streit genauso sinnlos.

SKYNET
2020-10-03, 13:48:19
Das sie auftauchen ist noch ok. Dass sie in den Durchschnitt mit eingehen ist mit fishy nicht ausreichend niedergemacht. Das einfach eine Verarsche.


Klar ja, aber nicht weit genug, damit sich ein 70er Käufer davon abgeschreckt fühlt.


Inwiefern? Es gibt Zahlen, die über den Nvidia Angaben liegen und welche die drunter liegen. Der Rest ist ein Streit, wie man alle Daten auf eine einzige Zahl runterdampft. Da allein die Idee sinnlos ist, alles mit einer Zahl auszudrücken, ist der Streit genauso sinnlos.

der schlaue käufer holt sich ne gebrauchte 2080Ti für 400€ und freut sich das er keine laderuckler bei inzwischen vielen games(erstrecht mit HD packs) hat, wärend die 3070 da zu ner ruckelorgie verkommt... selbst das "uralte" FC5 hat mit HD-pack an gewissen ladepunkten sofort ab start >8GB an vram(1200p, max out, 1.6x res = 1440p)...

Armaq
2020-10-03, 13:51:08
Das sie auftauchen ist noch ok. Dass sie in den Durchschnitt mit eingehen ist mit fishy nicht ausreichend niedergemacht. Das einfach eine Verarsche.


Klar ja, aber nicht weit genug, damit sich ein 70er Käufer davon abgeschreckt fühlt.


Inwiefern? Es gibt Zahlen, die über den Nvidia Angaben liegen und welche die drunter liegen. Der Rest ist ein Streit, wie man alle Daten auf eine einzige Zahl runterdampft. Da allein die Idee sinnlos ist, alles mit einer Zahl auszudrücken, ist der Streit genauso sinnlos.
Die Performance wurde sehr stark verzerrt wieder gegeben von Nvidia am Launchday. Double Performance war dann eher so 60-70%.
Das wird nicht so bleiben, ich bin mir sicher da kommen in den nächsten 12 Monaten nochmal 10-20% dazu.

Außerdem hat man die Brechstange bemüht, das denke ich ist für uns alle klar.

SKYNET
2020-10-03, 13:55:30
Die Performance wurde sehr stark verzerrt wieder gegeben von Nvidia am Launchday. Double Performance war dann eher so 60-70%.
Das wird nicht so bleiben, ich bin mir sicher da kommen in den nächsten 12 Monaten nochmal 10-20% dazu.

Außerdem hat man die Brechstange bemüht, das denke ich ist für uns alle klar.


so wie 10-20% bei turing dazugekommen sind... nicht!

war eher so 2-3% je nach game, essei es war nen grober schnitzer und wurd was gefixt, dann auch mal nen wenig mehr.

Fragman
2020-10-03, 13:58:56
der schlaue käufer holt sich ne gebrauchte 2080Ti für 400€

A new myth is born. ;D

Armaq
2020-10-03, 14:09:27
so wie 10-20% bei turing dazugekommen sind... nicht!

war eher so 2-3% je nach game, essei es war nen grober schnitzer und wurd was gefixt, dann auch mal nen wenig mehr.
Das stimmt doch gar nicht? Es gibt einige Releases da hat die 1080Ti sogar mehr Federn lassen müssen. Der Sachverhalt wird wieder eintreten.

https://www.computerbase.de/2019-08/control-benchmark-raytracing-test/2/

Control ist eins von vielen Beispielen, wo die Karten nicht ganz so vornehm altern.

RLZ
2020-10-03, 14:09:40
der schlaue käufer holt sich ne gebrauchte 2080Ti für 400€ und freut sich das er keine laderuckler bei inzwischen vielen games(erstrecht mit HD packs) hat, wärend die 3070 da zu ner ruckelorgie verkommt... selbst das "uralte" FC5 hat mit HD-pack an gewissen ladepunkten sofort ab start >8GB an vram(1200p, max out, 1.6x res = 1440p)...
Nur wird es die 2080TI lange nicht für 400 Euro geben.
Die Performance wurde sehr stark verzerrt wieder gegeben von Nvidia am Launchday. Double Performance war dann eher so 60-70%.
Es war ein "bis zu" mit Balken in den Diagrammen bei 60-70%. Genau das haben sie geliefert.

Dural
2020-10-03, 14:12:39
Es gibt benchmarks wo die 3080 karte doppelt so schnell wie die 2080 ist, das die hersteller immer das beste raus suchen sollte eigentlich klar sein.

Es gibt übrigens einige beispiele wo eine neue karte mit weniger bandbreite die alte mit mehr gleichgezogen ist oder sogar deutlich übertroffen hat. Und das kleinere chips effizienter arbeiten können ist nicht erst seit gestern so... Daher kann ich mal wieder eure super disskusion nicht nachvollziehen.

Einzig bei rt/tensor leistung mache ich mir etwas sorgen, ich schätze da wird die 3070 unter die 2080ti fallen. Aber die abstände werden sicherlich gering sein.

Armaq
2020-10-03, 14:13:31
Nur wird es die 2080TI lange nicht für 400 Euro geben.

Es war ein "bis zu" mit Balken in den Diagrammen bei 60-70%. Genau das haben sie geliefert.
Gut, ich drück es anders aus. Bei mir blieb das mit 2x Performance (zur 2080) hängen und als ich mir dann unabhängig ein Bild gemacht hab, war mir klar, dass die 2080Ti noch ne Weile bleibt.

SKYNET
2020-10-03, 14:24:59
Nur wird es die 2080TI lange nicht für 400 Euro geben.

Es war ein "bis zu" mit Balken in den Diagrammen bei 60-70%. Genau das haben sie geliefert.


solange die 3080 nicht lieferbar ist, nicht, nein... aber wenn sie denn mal verfügbar ist, werden die preise der 2080Ti purzeln wie nix gutes...

und FALLS die 3080 20G kommt, werden auch die titan RTX preise in keller gehen... jenachdem wie die performance von RDNA2 und deren preisgefüge ist, werde ich mir dann auch soeine ziehen... dürfte recht schnell in gefilden von <700 talern landen die titan... passt für maximale texturen ohne ruckler ;D und das bei normalen stromverbrauch. ;)

BlacKi
2020-10-03, 14:31:49
solange die 3080 nicht lieferbar ist, nicht, nein... aber wenn sie denn mal verfügbar ist, werden die preise der 2080Ti purzeln wie nix gutes.
ohne zahlen zu nennen hast du noch recht. aber ich glaube solange es keine 307016gb gibt (von der der preis noch nicht klar ist), wird man die 2080ti noch mindestens für 550-600€ los. mit steigender lieferbarkeit sinken zwar auch die preise der ampere karten, aber letztendlich sind die 1-4 gb mehr ram noch für manche ein pluspunkt.

wenn die 3070 mit 16gb kommt für 600€ dann gehts richtung 400€. wann das ist, keine ahnung, wohl erst in 3 monaten oder so.

Mangel76
2020-10-03, 16:52:11
Das stimmt doch gar nicht? Es gibt einige Releases da hat die 1080Ti sogar mehr Federn lassen müssen. Der Sachverhalt wird wieder eintreten.

https://www.computerbase.de/2019-08/control-benchmark-raytracing-test/2/

Control ist eins von vielen Beispielen, wo die Karten nicht ganz so vornehm altern.

Nur weil Pascal schwächelt, wird Turing doch nicht schneller???

Armaq
2020-10-03, 17:10:25
Nur weil Pascal schwächelt, wird Turing doch nicht schneller???
Das hab ich auch gar nicht gesagt. Nochmal lesen. Ampere wird nochmal 10-20% schneller in den nächsten 12 Monaten im Verhältnis zu Turing - das wurde angezweifelt.

Schneller = im Verhältnis von Produkt A zu B bei neuer Software.

Dafür habe ich dann auch noch ein Beispiel rausgesucht von Turing zu Pascal. Über die Zeit wird der Abstand größer, nicht kleiner.

Sardaukar.nsn
2020-10-03, 17:42:17
Das hab ich auch gar nicht gesagt. Nochmal lesen. Ampere wird nochmal 10-20% schneller in den nächsten 12 Monaten im Verhältnis zu Turing - das wurde angezweifelt.

Schneller = im Verhältnis von Produkt A zu B bei neuer Software.

Dafür habe ich dann auch noch ein Beispiel rausgesucht von Turing zu Pascal. Über die Zeit wird der Abstand größer, nicht kleiner.

Hinzu kommen natürlich auch neue Technologien wie z.b. DLSS. War auch einer der Gründe für mich von Pascal auf Ampere zu wechseln.

AstroHW19
2020-10-03, 18:50:08
Hab vor paar Monaten erst auf Turing gewechselt gtx 1650 super für 145 Euro, spiele damit RDR 2 auf Ultra um die 50 fps 1680x1050 Monitor noch im Topzustand, CPU intel i5 2400 mit 12 GB RAM. Ich weiß nicht was ihr habt mit - Ampere muss schnell her bla bla;D.
RDR 2 ist das einzige Spiel bei dem mein ganzer PC warm wird, also das ganze Gehäuse 45 Grad, bedeutet für mich PC gibt alles bis zu Anschlag, alle anderen Spiele verursachen bei mir und meinem Rechner nur müdes Lächeln :biggrin:.
Erst wenn es Spiele gibt die wir nicht packen gibt es was neues.

[MK2]Mythos
2020-10-03, 19:00:02
Hab vor paar Monaten erst auf Turing gewechselt gtx 1650 super für 145 Euro, spiele damit RDR 2 auf Ultra um die 50 fps 1680x1050 Monitor noch im Topzustand, CPU intel i5 2400 mit 12 GB RAM. Ich weiß nicht was ihr habt mit - Ampere muss schnell her bla bla;D.
RDR 2 ist das einzige Spiel bei dem mein ganzer PC warm wird, also das ganze Gehäuse 45 Grad, bedeutet für mich PC gibt alles bis auf Anschlag, alle anderen Spiele verursachen bei mir und meinem Rechner nur müdes Lächeln :biggrin:.
Erst wenn es Spiele gibt die wir nicht packen gibt es was neues.
Frisch aus dem Jahr 2010 hier? Sorry aber dein PC ist absolutes Low End, da reicht jeder aktuelle Titel um den in die Knie zu zwingen. Aber ist doch schön wenn er für deine Ansprüche reicht! :up:

AstroHW19
2020-10-03, 19:07:22
Es gibt keine aktuellen Titel die es können, auch wenn ich diese mir gerne angetan hätte. RDR 2 ist eines der anspruchsvollsten Titel. Also gar nichts mit in die Knie zwingen. Das ist das Erbe der 8 Jahre alten Konsolen.
Ich sage ja nur, ich hab zwar kein 1080 Monitor aber ansonsten bin ich total überrascht das RDR 2 mein PC nicht in die Knie zwingt. Ich vermute bis auf BF 5, ich spiele noch aktiv BF 1 mit durchgehend 60 FPS, gibt es keine Spiele die 10 Jahre alte Kiste nicht schafft. Durch habe ich Jedi Fallen Order, Schadow of TR und so weiter alles kein Problem.
Und wenn ich jetzt die neueste HW hätte würde ich wohl auch keine anderen Spiele spielen können wie ich jetzt mit dieser HW auch gut spielen kann. Ich also werde wohl 2 Jahre warten auf die neuen Titel.
Natürlich sind die Leute, die das Neueste haben dazu verleitet zu denken, ja sieh her es läuft alles super flüssig auf meinem PC, muss an der top HW liegen;D Ich verstehe das ja, würde ich auch denken, aber ist nicht, läuft bei mir auch flüssig.

MiamiNice
2020-10-03, 19:22:23
Fühlt sich hier gerade noch jemand getrollt? ;D

SKYNET
2020-10-03, 19:25:18
Das hab ich auch gar nicht gesagt. Nochmal lesen. Ampere wird nochmal 10-20% schneller in den nächsten 12 Monaten im Verhältnis zu Turing - das wurde angezweifelt.

Schneller = im Verhältnis von Produkt A zu B bei neuer Software.

Dafür habe ich dann auch noch ein Beispiel rausgesucht von Turing zu Pascal. Über die Zeit wird der Abstand größer, nicht kleiner.

du vergisst anscheinend das turing das gleiche featureset unterstützt wie ampere...

SKYNET
2020-10-03, 19:32:48
Es gibt keine aktuellen Titel die es können, auch wenn ich diese mir gerne angetan hätte. RDR 2 ist eines der anspruchsvollsten Titel. Also gar nichts mit in die Knie zwingen. Das ist das Erbe der 8 Jahre alten Konsolen.
Ich sage ja nur, ich hab zwar kein 1080 Monitor aber ansonsten bin ich total überrascht das RDR 2 mein PC nicht in die Knie zwingt. Ich vermute bis auf BF 5, ich spiele noch aktiv BF 1 mit durchgehend 60 FPS, gibt es keine Spiele die 10 Jahre alte Kiste nicht schafft. Durch habe ich Jedi Fallen Order, Schadow of TR und so weiter alles kein Problem.
Und wenn ich jetzt die neueste HW hätte würde ich wohl auch keine anderen Spiele spielen können wie ich jetzt mit dieser HW auch gut spielen kann. Ich also werde wohl 2 Jahre warten auf die neuen Titel.
Natürlich sind die Leute, die das Neueste haben dazu verleitet zu denken, ja sieh her es läuft alles super flüssig auf meinem PC, muss an der top HW liegen;D Ich verstehe das ja, würde ich auch denken, aber ist nicht, läuft bei mir auch flüssig.


alles auf niedrigst, jo damit hast evtl. noch spielbare frames mit deiner gurke und RDR2... alles auf rechts, schafft nichtmal ne 2080S durchgehend 60fps... da brauchts dann schon ne 2080Ti... und ich rede nur von FHD... für 30fps min. ne 1660 Super...

MiamiNice
2020-10-03, 19:35:32
Du hast nicht richtig gelesen, er hat nicht mal einen FHD Monitor. Er spielt noch in den 90igern :biggrin:

AstroHW19
2020-10-03, 19:39:41
;Dalles auf niedrigst, jo damit hast evtl. noch spielbare frames mit deiner gurke und RDR2... alles auf rechts, schafft nichtmal ne 2080S durchgehend 60fps... da brauchts dann schon ne 2080Ti... und ich rede nur von FHD... für 30fps min. ne 1660 Super...


;DGenau so ungläubig habe ich auch reagiert, komm, schau nach in den Settings,
komm schon schau noch mal nach, der PC hat bestimmt alles automatisch auf low gesetzt. Aber dann kam der flasch. Alle Ultra oder was?
Ich vermute es liegt an 1680x1080 und den 12 GB RAM, die laufen voll.

Lawmachine79
2020-10-03, 19:40:44
Hab vor paar Monaten erst auf Turing gewechselt gtx 1650 super für 145 Euro, spiele damit RDR 2 auf Ultra um die 50 fps 1680x1050 Monitor noch im Topzustand, CPU intel i5 2400 mit 12 GB RAM. Ich weiß nicht was ihr habt mit - Ampere muss schnell her bla bla;D.
RDR 2 ist das einzige Spiel bei dem mein ganzer PC warm wird, also das ganze Gehäuse 45 Grad, bedeutet für mich PC gibt alles bis auf Anschlag, alle anderen Spiele verursachen bei mir und meinem Rechner nur müdes Lächeln :biggrin:.
Erst wenn es Spiele gibt die wir nicht packen gibt es was neues.
In der Auflösung male ich im Bus, wenn ich über eine Rüttelstrecke fahre.

[MK2]Mythos
2020-10-03, 19:42:03
;D


;DGenau so ungläubig habe ich auch reagiert, komm, schau nach in den Settings,
komm schon schau noch mal nach, der PC hat bestimmt alles automatisch auf low gesetzt. Aber dann kam der flasch. Alle Ultra oder was?
Ich vermute es liegt an 1680x1080 und den 12 GB RAM, die laufen voll.
Deine Geschichte glaubt dir hier kein Mensch, weil alle wissen was RDR2 für ein Hardwarefresser ist und was für ne Krücke deine GraKa ist.

AstroHW19
2020-10-03, 19:48:13
Mythos;12448031']Deine Geschichte glaubt dir hier kein Mensch, weil alle wissen was RDR2 für ein Hardwarefresser ist und was für ne Krücke deine GraKa ist.

Ich schließe mich dieser Aussage an, ich kann es ja selbst nämlich immer noch nicht richtig glauben.

davidzo
2020-10-03, 19:51:11
Hab vor paar Monaten erst auf Turing gewechselt gtx 1650 super für 145 Euro, spiele damit RDR 2 auf Ultra um die 50 fps 1680x1050 Monitor noch im Topzustand, CPU intel i5 2400 mit 12 GB RAM. Ich weiß nicht was ihr habt mit - Ampere muss schnell her bla bla;D.
RDR 2 ist das einzige Spiel bei dem mein ganzer PC warm wird, also das ganze Gehäuse 45 Grad, bedeutet für mich PC gibt alles bis zu Anschlag, alle anderen Spiele verursachen bei mir und meinem Rechner nur müdes Lächeln :biggrin:.
Erst wenn es Spiele gibt die wir nicht packen gibt es was neues.


Endlich mal normale Leute :up:

Armaq
2020-10-03, 21:23:59
Hinzu kommen natürlich auch neue Technologien wie z.b. DLSS. War auch einer der Gründe für mich von Pascal auf Ampere zu wechseln.
Das finde ich z.B. auch also den besten Sprung überhaupt. Wer eine 1080/Ti hatte, kann jetzt einen tollen Schritt machen.

Ich behalte die 2080Ti ja genau aus dem Grund. Wenn Blockbuster DLSS supporten, ist die Karte noch länger "frisch". Ich kenn das Ergebnis und wenn man das einfach von Anfang an einstellt, vermisst man auch nichts. DLSS 2.0 + RTX können die Karte nochmal versorgen für 2 Jahre.

Dennoch wird in Test in einem Jahr die Ampere Gen nochmal etwas besser aussehen, vll. muss man dafür sogar DLSS aus machen.

TheAntitheist
2020-10-04, 01:43:46
Es gibt keine aktuellen Titel die es können, auch wenn ich diese mir gerne angetan hätte. RDR 2 ist eines der anspruchsvollsten Titel. Also gar nichts mit in die Knie zwingen. Das ist das Erbe der 8 Jahre alten Konsolen.
Ich sage ja nur, ich hab zwar kein 1080 Monitor aber ansonsten bin ich total überrascht das RDR 2 mein PC nicht in die Knie zwingt. Ich vermute bis auf BF 5, ich spiele noch aktiv BF 1 mit durchgehend 60 FPS, gibt es keine Spiele die 10 Jahre alte Kiste nicht schafft. Durch habe ich Jedi Fallen Order, Schadow of TR und so weiter alles kein Problem.
Und wenn ich jetzt die neueste HW hätte würde ich wohl auch keine anderen Spiele spielen können wie ich jetzt mit dieser HW auch gut spielen kann. Ich also werde wohl 2 Jahre warten auf die neuen Titel.
Natürlich sind die Leute, die das Neueste haben dazu verleitet zu denken, ja sieh her es läuft alles super flüssig auf meinem PC, muss an der top HW liegen;D Ich verstehe das ja, würde ich auch denken, aber ist nicht, läuft bei mir auch flüssig.
eher schafft sie 30fps

https://youtu.be/wKwDd7emjaI?t=734

und deine "turing" naja ist ja nichtmal eine richtige. Und das liegt auch nicht an den alten Konsolen, sieht man ja an dem PC only Titeln. Jene werden noch weniger optimiert. Anno läuft hier katastrophal auf nem 3900x und 2080ti...

JaniC
2020-10-04, 02:03:51
gtx 1650 super für 145 Euro, spiele damit RDR 2 auf Ultra um die 50 fps 1680x1050 Monitor noch im Topzustand


Ist der noch aus Holz? Schwarzweiss oder schon Farbe?

Kann mal einer die IP abgleichen, welcher Poweruser uns hier trollt? Nice one.

Fragman
2020-10-04, 09:54:48
Vielleicht ein "Retro-Kiste" Projekt.

dargo
2020-10-04, 10:35:33
Keine Ahnung was eure Überheblichkeit wieder soll? Aber soll tatsächlich noch Spieler geben die an einem 22" 1050p Monitor spielen. Ich hatte auch so einen, ist aber schon länger her.

Mythos;12448031']Deine Geschichte glaubt dir hier kein Mensch, weil alle wissen was RDR2 für ein Hardwarefresser ist und was für ne Krücke deine GraKa ist.
RDR2 ist nur für Noobs (manch einer als PC-Enthusiast enthüllt *hust*) ein Hardwarefresser die mit den Grafikoptionen nicht umgehen können. Mit DF-Settings läuft das hier in 1440p einwandfrei mit 70+fps auf einer RX 5700XT. Und da er nur in 1050p spielt glaube ich ihm sehr wohl. ;)

AstroHW19
2020-10-04, 11:07:29
und deine "turing" naja ist ja nichtmal eine richtige. Und das liegt auch nicht an den alten Konsolen, sieht man ja an dem PC only Titeln. Jene werden noch weniger optimiert. Anno läuft hier katastrophal auf nem 3900x und 2080ti...

GTX 1650 super hat 6,6 Milliarden Transistoren und GDDR 6 mit 225 GB pro Sekunde. Die GPU läuft bei mir mit 5,4 Terraflops um die 2,1 Gigahertz laut Aida 64.
Ist also deutlich schneller als GTX 1060 6 GB , oder besser gesagt ist auf den Niveau von GTX 1660.
GTX 1660 ist ganz sicher eine Turing GPU mit 690% bei performance index 3d center, 2060 ist da nur 20% schneller mit 910 %.

=Floi=
2020-10-04, 11:23:42
Mythos;12448031']Deine Geschichte glaubt dir hier kein Mensch, weil alle wissen was RDR2 für ein Hardwarefresser ist und was für ne Krücke deine GraKa ist.

also gta 5 läuft auf alter hardware relativ gut. Sichtweite und schatten können hier extrem viel ausmachen. GTA5 gab es ja sogar auf den alten konsolen. :ugly:

HisN
2020-10-04, 11:44:25
Alles auf rechts in WQHD mit einer 3090

https://abload.de/img/rdr2_2020_10_03_12_09apkqs.jpg (https://abload.de/image.php?img=rdr2_2020_10_03_12_09apkqs.jpg)

In den Foren laufen ja immer wieder viele User rum, die zwar "alles auf rechts" sagen, aber dabei immer einige Regler geflissentlich übersehen.

MiamiNice
2020-10-04, 11:51:22
Ich denke ich werde mir einen 1280x1024 Pixel Monitor besorgen oder halt noch besser vom alten C64 den originalen Monochrom Monitor. Da bin ich mit meiner HW für die nächsten zwei Dekaden gut versorgt. Macht doch eh kaum einen Unterschied. Bild ist Bild.

dargo
2020-10-04, 12:07:59
Alles auf rechts in WQHD mit einer 3090

https://abload.de/img/rdr2_2020_10_03_12_09apkqs.jpg (https://abload.de/image.php?img=rdr2_2020_10_03_12_09apkqs.jpg)

WTF... 5fps? Das owned sogar Gouvernator. :D Sieht aber nach starkem CPU-Limit aus bei nur 270W @1935Mhz. :) Oder haut das 8xMSAA dermaßen rein, dass die GPU wartet?

just4FunTA
2020-10-04, 12:09:36
Alles auf rechts in WQHD mit einer 3090

https://abload.de/img/rdr2_2020_10_03_12_09apkqs.jpg (https://abload.de/image.php?img=rdr2_2020_10_03_12_09apkqs.jpg)

In den Foren laufen ja immer wieder viele User rum, die zwar "alles auf rechts" sagen, aber dabei immer einige Regler geflissentlich übersehen.


5fps in 1440p wtf?

dildo4u
2020-10-04, 12:13:50
200% Downsampling mit 8xMSAA ist möglich in dem Game.
8k ohne MSSA/TAA liegt um 30fps.Sieht göttlich aus ohne TAA.


z4Dxb7ag4Xw

Dampf
2020-10-04, 12:39:10
Göttlich? Naja, also ich sehe da immer noch kantige Geometrie, aufploppende Objekte, niedrig aufgelöste Texturen, lahme Wassereffekte, rudimentäre Beleuchtung und viele screen space Artefakte. Nichts was den Hardware-Hunger rechtfertigt.

Wird Zeit, dass endlich Next Gen kommt ;)

Raff
2020-10-04, 12:41:56
Meckern auf extrem hohem Niveau - das Spiel ist insgesamt wirklich sehr hübsch und bis in kleinste Details noch akkurat. Aber besser geht immer. :) Hochgradig immersionstötend ist aber tatsächlich die Screen-Space-Seuche.

MfG
Raff

dildo4u
2020-10-04, 12:43:29
Next-Gen wird nicht viel ändern wenn Red Dead 2 eine 3090 für 4k 60fps braucht.
Games sind Budget limitiert nicht durch die Technik.

Dampf
2020-10-04, 12:48:12
Next-Gen wird nicht viel ändern wenn Red Dead 2 eine 3090 für 4k 60fps braucht.
Games sind Budget limitiert nicht durch die Technik.

Was? Nicht viel ändern? Was ist mit DX12 Ultimate Features wie Sampler Feedback und Mesh Shading? Oder Innovationen wie Nanite und Lumen? RTXGI? DirectStorage Datenkompression? Das ist Unsinn, sobald Spiele erstmal exklusiv für Next Gen Konsolen entwickelt werden, wird der Sprung gigantisch sein selbst auf so einer Krücke wie Series S. Besonders was die Interaktivität der Welt und Physik angeht wird sich unfassbar viel ändern.

Das Spiel braucht keine 3090 um mit 4K60 zu laufen. Auf den optimierten Konsolen-Settings von Digital Foundry sieht es kaum schlechter aus und läuft deutlich besser.

dargo
2020-10-04, 12:48:28
Next-Gen wird nicht viel ändern wenn Red Dead 2 eine 3090 für 4k 60fps braucht.

So ein Quatsch. Rockstar hatte noch nie durch exzellente Technik geglänzt. Die Engines waren eher etwas angestaubt.


Das Spiel braucht keine 3090 um mit 4K60 zu laufen. Auf den optimierten Konsolen-Settings von Digital Foundry sieht es kaum schlechter aus und läuft deutlich besser.
Richtig... RDR2 ist ein prima Beispiel wie man sinnlos am PC mit max. Settings billig (aus dem Entwickleraufwand betrachtet) jede Hardware komplett in die Knie zwingt. Früher nannte man sowas schlechte Optimierung.

ChaosTM
2020-10-04, 12:56:56
200% Downsampling mit 8xMSAA ist möglich in dem Game.
8k ohne MSSA/TAA liegt um 30fps.Sieht göttlich aus ohne TAA.



Welche Auflösung hat der Monitore auf dem du das schaust um das beurteilen zu können ? ;)

dildo4u
2020-10-04, 12:59:35
40 Zoll 4kTV direkt vor der Nase, ich zocke kaum am meinem PC Monitor.

Dampf
2020-10-04, 13:00:13
So ein Quatsch. Rockstar hatte noch nie durch exzellente Technik geglänzt. Die Engines waren eher etwas angestaubt.


Richtig... RDR2 ist ein prima Beispiel wie man sinnlos am PC mit max. Settings billig (aus dem Entwickleraufwand betrachtet) jede Hardware komplett in die Knie zwingt. Früher nannte man sowas schlechte Optimierung.

So sieht's aus. Ich hab nichts gegen Games, die Hardware ordentlich rausfordern, aber dann sollte man auch bitte deutliche Unterschiede sehen, ohne ran zoomen zu müssen. Ein gutes Gegenbeispiel zu RDR2 ist da der neue Boundary RTX Benchmark, der wirklich absolut fantastisch aussieht! Das zeigt was möglich ist wenn Spiele oder eben Benchmarks wie dieser von Grund auf mit neuen Technologien wie in diesem Beispiel Raytracing entwickelt werden. Ein anderes gutes Beispiel ist da auch der Flight-Simulator, wenn man sich die DX11 CPU Probleme mal wegdenkt. Zuletzt würde ich auch noch Control mit RTX Effekten und Metro mit RTX anführen, da sieht man ebenfalls deutliche Unterschiede für einen verhältnismäßigen Performance-Verlust.

Dural
2020-10-04, 13:02:15
Ich finde das game ist schlecht optimiert und die grafikqualität für die leistung die benötigt wird ist mal richtig schlecht.

AstroHW19
2020-10-04, 13:04:21
https://www.bilder-upload.eu/bild-bc5bc1-1601809305.png.html

ChaosTM
2020-10-04, 13:05:29
40 Zoll 4kTV direkt vor der Nase, ich zocke kaum am meinem PC Monitor.


Das lass ich gelten :)

aufkrawall
2020-10-04, 13:05:52
Früher nannte man sowas schlechte Optimierung.
Das Spiel ist aber allgemein nicht schlecht optimiert, eher nur die Grafik-Presets. :freak:
Gibt mit händisch optimierten Settings kaum ein Spiel mit besserem Optik/Performance-Verhältnis auf Radeons. Ist aber auch längst nicht das einzige Spiel mit unsinnigen Max-Settings. Wer danach Hardware kauft, dem geht es einfach zu gut oder ist eher nicht so der Hellste...

dildo4u
2020-10-04, 13:07:36
Ich finde das game ist schlecht optimiert und die grafikqualität für die leistung die benötigt wird ist mal richtig schlecht.
Eigentlich laufen alle Open World Games so, da sie immer für 30fps auf Konsolen hin entwickelt wurden.
Red Dead hat es zumindest geschafft Low Level Apis zu nutzen kann also GPUs deutlich besser auslasten als z.b Assassin Creed.

AstroHW19
2020-10-04, 13:08:15
https://www.bilder-upload.eu/bild-97f609-1601809671.png.html

https://www.bilder-upload.eu/bild-6f388a-1601809928.png.html

https://www.bilder-upload.eu/bild-5476b3-1601810050.png.html

Dampf
2020-10-04, 13:09:27
Das Spiel ist aber allgemein nicht schlecht optimiert, eher nur die Grafik-Presets. :freak:
Gibt mit händisch optimierten Settings kaum ein Spiel mit besserem Optik/Performance-Verhältnis auf Radeons. Ist aber auch längst nicht das einzige Spiel mit unsinnigen Max-Settings. Wär danach Hardware kauft, dem geht es einfach zu gut oder ist eher nicht so der Hellste...

Das ist wahr! Die Optimierung des Spiels ist nicht schlecht per se. Auf den Konsolen ist die Optimierung sogar wirklich erstaunlich.

Auf dem PC allerdings... ich hab es nicht mehr ganz im Kopf, aber ich glaube die 1060, die ja ziemlich gleichwertig zur Xbox One X in den meisten Spielen ist, schafft es in diesem selbst auf Konsolen-Einstellungen nicht mal annähernd an 4K30 FPS oder eben 1440p60.

Möglicherweise performen die Radeons da besser, aber meines Wissens nach versagt die RX 580 ebenso wie die 1060 an diesem Ziel.

AstroHW19
2020-10-04, 13:11:02
Wie gesagt 50 fps mit gtx 1650 super i5 2400 12 GB ram.
Schatten und Reflexion lassen sich nicht auf Ultra nur auf High einstellen, wegen VRAM.

aufkrawall
2020-10-04, 13:18:09
Möglicherweise performen die Radeons da besser, aber meines Wissens nach versagt die RX 580 ebenso wie die 1060 an diesem Ziel.
Auf den Konsolen funktioniert halt Async Compute besser und die PC-Version hat das gar nicht. Wenn man dafür 15% veranschlagt, würde Polaris 10 imho sehr nah an die Konsolen-Effizienz-Effektivität rankommen. Ist auf dem PC eben leider eher die Ausnahme als die Regel und letztlich läuft es halt genau so schnell wie HZD bei häufig deutlich modernerer Grafik.

user77
2020-10-04, 13:19:25
Wie gesagt 50 fps mit gtx 1650 super i5 2400 12 GB ram.
Schatten und Reflexion lassen sich nicht auf Ultra nur auf High einstellen, wegen VRAM.

Kommt hin. Hab nen i7-4790k, 16gb RAM und ne GeForce GTX 1660 Super. 1080p habe ich 25-40fps in den maximalen Einstellungen die ich einstellen kann.

Thunder99
2020-10-04, 13:21:08
Also abseits von Raytracing reizt mich Ampere zu wenig. Bin aber noch hängen geblieben an den Spielen pre RT :D (oder Wither 3 ist mein "neustes" Spiel, aber noch nicht gespielt). 3070 scheint echt ein Kompromisse zu werden, aber nicht schnell genug für ein Upgrade, schade.

Bleibe dann noch eine Weile bei meiner 1080Ti. Alles richtig gemacht damals für 729 Taken ;). Ordentliche Spiele-Performance bei 11GB VRAM. :)

Dampf
2020-10-04, 13:24:48
Auf den Konsolen funktioniert halt Async Compute besser und die PC-Version hat das gar nicht. Wenn man dafür 15% veranschlagt, würde Polaris 10 imho sehr nah an die Konsolen-Effizienz-Effektivität rankommen. Ist auf dem PC eben leider eher die Ausnahme als die Regel und letztlich läuft es halt genau so schnell wie HZD bei häufig deutlich modernerer Grafik.

Achso, das erklärt einiges. Ich dachte auf dem PC wäre das auch sehr auf Async Compute optimiert, seltsam dass das anscheinend nicht so ist. Der 1060 würde es nicht sooo viel nutzen, aber den AMD GCN Karten auf jeden Fall.

Da hast du recht, RDR2 läuft immer noch deutlich besser als Horizon. Was mit dem Titel passiert ist, ist echt schade.
https://www.bilder-upload.eu/bild-97f609-1601809671.png.html

https://www.bilder-upload.eu/bild-6f388a-1601809928.png.html

https://www.bilder-upload.eu/bild-5476b3-1601810050.png.html

Danke, dass du das mit uns teilst. Ich persönlich finde es immer unglaublich reizvoll, aus solchen Einsteiger-GPUs die beste Grafik zur besten Performance rauszuholen. Die 1650 Super ist eine schöne Karte. Ich würde dir raten, die Einstellungen auf die von DF empfohlenen Konsolen-Einstellungen runterzudrehen, der Grafikverlust ist sehr gering und dann wirst du definitiv stabile 60 FPS haben, was sich deutlich besser anfühlen wird als das 50 FPS Gefrickel da.

dargo
2020-10-04, 13:25:46
Möglicherweise performen die Radeons da besser, aber meines Wissens nach versagt die RX 580 ebenso wie die 1060 an diesem Ziel.
Nicht ganz. ;)
5GIXSX7Nt6g

Frametimes sind natürlich auf beiden Grütze, aber das war afaik noch alte Spielversion oder beim Testsystem was vermurkst.

Läuft mit angepassten Settings hier auf der RX 580 recht ordentlich.
9ZBtxrFyb1s


Da hast du recht, RDR2 läuft immer noch deutlich besser als Horizon. Was mit dem Titel passiert ist, ist echt schade.

Finde ich nicht. HZD läuft ähnlich gut mit RX 580 wie RDR2 mit Konsolensettings was die Framerate angeht. Da nehmen sich beide Spiele nicht viel.
uHtqXsMTqq8

btw.
Wir sind zu OT hier. :redface:

AstroHW19
2020-10-04, 13:55:18
Danke, dass du das mit uns teilst. Ich persönlich finde es immer unglaublich reizvoll, aus solchen Einsteiger-GPUs die beste Grafik zur besten Performance rauszuholen. Die 1650 Super ist eine schöne Karte. Ich würde dir raten, die Einstellungen auf die von DF empfohlenen Konsolen-Einstellungen runterzudrehen, der Grafikverlust ist sehr gering und dann wirst du definitiv stabile 60 FPS haben, was sich deutlich besser anfühlen wird als das 50 FPS Gefrickel da.

Habe ich gern gemacht. Diese Einstellungen sind die maximal möglichen, die mit GTX 1650 super überhaupt gehen, weil VRAM limitiert. Wollte damit nur zeigen, was 1650 super noch packt. Ich mag natürlich auch stabile 60 FPS lieber.

AstroHW19
2020-10-04, 14:32:39
Ich denke ich werde mir einen 1280x1024 Pixel Monitor besorgen oder halt noch besser vom alten C64 den originalen Monochrom Monitor. Da bin ich mit meiner HW für die nächsten zwei Dekaden gut versorgt. Macht doch eh kaum einen Unterschied. Bild ist Bild.



Das ist der Grund, warum ich immer noch mein HP L2208w 1680x1050 habe. Damit kann ich alle top Titel, RDR2 inklusive, in nativer Auflösung:cool: mit anständigen FPS zocken.;D

Armaq
2020-10-04, 14:33:05
Das ist hier der Ampere-Thread und er wird zugespammt mit Mist, um den Kauf einer Midrange-Karte zu rechtfertigen. Dazu kommt dann noch "schlecht optimiert" also Dauerbash. Es gibt nichts besseres, also macht es selbst oder sucht euch ein anderes Hobby. Immer die gleiche Leier. Wenn irgendein Spiel - nicht Benchmark - besser eine Welt simuliert als RDR2, her damit. Es läuft nur gut, wenn man alles voll aufdreht, auf HighEnd. Oh Wunder. RDR2 bringt jede GPU ans Limit und genau für so etwas braucht man auch eine neue Generation.
Das ist der Grund, warum ich immer noch mein HP L2208w 1680x1050 habe. Damit kann ich alle top Titel, RDR2 inklusive, in nativer Auflösung mit anständigen FPS zocken.;D
Genau, das ist der Grund...

nordic_pegasus
2020-10-04, 14:34:13
Habe ich gern gemacht. Diese Einstellungen sind die maximal möglichen, die mit GTX 1650 super überhaupt gehen, weil VRAM limitiert. Wollte damit nur zeigen, was 1650 super noch packt. Ich mag natürlich auch stabile 60 FPS lieber.

sicherlich ist UHD@120Hz kein Muss für jeden Spieler, darum finde ich Deine Einstellung gar nicht so abwegig. Raytracing wird noch sehr lange ein Gimmick in wenigen Spielen bleiben. Dennoch hätte ich am "unteren Ende" der diskreten Karten zumindest die 1660Ti gewählt. Da ist dann der Vollausbau des TU116 Chips mit 6GB und 192bit Speicherinterface. Das wäre dann bei der geringen Auflösung von 1050p noch genug Puffer für die Zukunft.

Bei den CPUs habe ich nie dieses Rennen nach den meisten Kernen verstanden. Selbst aktuelle AAA Spiele können (bis auf wenige Ausnahmen) mit mehr als 6 Kernen nichts anfangen, oft genügt auch ein 4-Kerner noch aus. Ein hochtaktender 6-Kerner wäre in den meisten Spielen schneller als die 10-16 Kern-Monster.

Mir wäre nur wahrscheinlich die Bildqualität, Blickwinkelstabilität und Ausleuchtung bei so einem alten Monitor zu schlecht... so bin ich damals von eher normaler Hardware ins High-End gerutscht. Denn ich hatte sehr günstig einen OLED TV ergattert (Preisfehler bei Amazon), so "musste" ich dann den Rest aufrüsten ;-)

AstroHW19
2020-10-04, 14:43:30
Das ist hier der Ampere-Thread und er wird zugespammt mit Mist, um den Kauf einer Midrange-Karte zu rechtfertigen. Dazu kommt dann noch "schlecht optimiert" also Dauerbash. Es gibt nichts besseres, also macht es selbst oder sucht euch ein anderes Hobby. Immer die gleiche Leier. Wenn irgendein Spiel - nicht Benchmark - besser eine Welt simuliert als RDR2, her damit. Es läuft nur gut, wenn man alles voll aufdreht, auf HighEnd. Oh Wunder. RDR2 bringt jede GPU ans Limit und genau für so etwas braucht man auch eine neue Generation.

Genau, das ist der Grund...

Ja ja, ich weiß auch alles besser. Mein PC war schon an meinem 4K Fernseher mit HDR dran. Es fehlten mir in RDR 2 leider aber nicht nur die FPS im Vergleich zu meinem PC Monitor, sondern auch die Immersion, als das es sich für mich lohnen würde.
Nur bloß die Auflösung zu erhöhen ist gut für die Entwickler aber definitiv zu wenig für mich. Und Ende der Diskussion hier. 8K und du brauchst 4 3090 für RDR 2, 16K und wir sind schon bei 16 3090. Im Jahre 2030 spielen Leute immer noch RDR 2 mit 16K und 60 FPS oder was, und es sieht immer noch nach RDR aus aber mit Hardware der Zukunft. Alles hat sein gesundes Maas.

Armaq
2020-10-04, 14:47:54
Ja ja, ich weiß auch alles besser. Mein PC war schon an meinem 4K Fernseher mit HDR dran. Es fehlten mir in RDR 2 leider aber nicht nur die FPS im Vergleich zu meinem PC Monitor, sondern auch die Immersion, als das es sich für mich lohnen würde.
Nur bloß die Auflösung zu erhöhen ist gut für die Entwickler aber definitiv zu wenig für mich.
Kann man Troll-Accounts nicht direkt wieder bannen?

AstroHW19
2020-10-04, 14:58:22
Kann man Troll-Accounts nicht direkt wieder bannen?

Es trollt bestenfalls in deinem Kopf. Ich erinnere mich noch an die Werbung von Monster.de -höre nicht auf die Stimmen in deinem Kopf, höre auf uns.

monstar-x
2020-10-04, 16:10:32
Weil die 2080 Ti selten im Bandbreitenlimit hängt und für niedrigere Auflösungen und Spiele mit geringeren Bandbreiten-Anforderungen quasi "zu viel" Bandbreite hat, jedenfalls mehr als benötigt. Die 2080S hat ja auch nur 11% mehr Bandbreite als eine 2060S und ist trotzdem deutlich schneller.

Und in allen Situationen, wo die Bandbreite nicht kriegsentscheidend ist, kann die 3070 halt ihre doppelten FP32 ALUs, größeren L1 Caches und andere Architekturverbesserungen ausspielen.


Ich gehe davon aus, dass die 3070 in der Mehrheit der Spiele eher so ~10% hinter der 2080 Ti landet.

Das denke ich auch, ZUDEM, ist wird hier gegen eine 2080Ti FE gebencht ;D , die nun wahrlich nicht toll ist, da kannst du nochmal >5% bei einer guten Custom draufpacken.

2. Wird die 3070 genauso toll Übertaktbar sein wie die 3080/3090 also gar nicht (2-3%), während eine 2080 Ti Custom nochmal >10% raus holt.

Ich denke das eine 2080 Ti OC (Custom) gute 15-20% schneller sein wird, vor allem in 4K.

Maorga
2020-10-04, 19:05:31
Nicht ganz. ;)
https://youtu.be/5GIXSX7Nt6g

Frametimes sind natürlich auf beiden Grütze, aber das war afaik noch alte Spielversion oder beim Testsystem was vermurkst.

Läuft mit angepassten Settings hier auf der RX 580 recht ordentlich.
https://youtu.be/9ZBtxrFyb1s



Der Vergleich von der nv zur amd ist aber eher mau. Bei der von der AMD fehlen ja Alphatexturen und alles total unscharf. Drum ist die Aussage "nicht ganz" nicht ganz optimal :D

dargo
2020-10-04, 19:14:15
:rolleyes:

https://youtu.be/RUrbciPfX6k?t=441

MiamiNice
2020-10-04, 20:09:42
2. Wird die 3070 genauso toll Übertaktbar sein wie die 3080/3090 also gar nicht (2-3%), während eine 2080 Ti Custom nochmal >10% raus holt.


Lass Dich nicht natzen. Die 15% ggü. einer 3070/3080/3090 FE bekommst Du auch aus einer Custom Ampere.

monstar-x
2020-10-04, 20:12:00
Lass Dich nicht natzen. Die 15% ggü. einer 3070/3080/3090 FE bekommst Du auch aus einer Custom Ampere.

Aber nicht per Luft und ohne Mods.
Falls doch, bitte um einen Link wo eine 3080 15% schneller ist wie eine 3080 Fe

woodsdog
2020-10-04, 20:12:38
Lass Dich nicht natzen. Die 15% ggü. einer 3070/3080/3090 FE bekommst Du auch aus einer Custom Ampere.

Aha. Welche Custom packt denn auf eine OCed FE 15% drauf? :rolleyes:

Thunder99
2020-10-04, 20:15:31
Bei der 3070 könnte es funktionieren, bei der 3080 und 3090 ja nicht wie man bisher gesehen hat.

woodsdog
2020-10-04, 20:18:50
Bei der 3070 könnte es funktionieren, bei der 3080 und 3090 ja nicht wie man bisher gesehen hat.

Und auf welcher Grundlage basiert der Post? Wunschdenken?
Die 3070 wird genau so getreten wie alles andere auch.

Darüber hinaus sprach miami in seiner typisch elitären scheiss Art explizit auch von 3080/3090.
Ampere ist ne OC-Krücke sondersgleichen, bleibt leider ein Fakt.

MiamiNice
2020-10-04, 20:22:29
Aber nicht per Luft und ohne Mods.
Falls doch, bitte um einen Link wo eine 3080 15% schneller ist wie eine 3080 Fe

Schau Dir die 3080/90 Strix OC an vs. FE.


Darüber hinaus sprach miami in seiner typisch elitären scheiss Art explizit auch von 3080/3090.
Ampere ist ne OC-Krücke sondersgleichen, bleibt leider ein Fakt.

Du bist wie Verona. Ich lese immer nur „blub“.

woodsdog
2020-10-04, 20:26:17
Schau Dir die 3080/90 Strix OC an vs. FE.

Darfst du gerne verlinken wenn du schon die Behauptung aufstellst.

Thunder99
2020-10-04, 20:29:10
Und auf welcher Grundlage basiert der Post? Wunschdenken?
Die 3070 wird genau so getreten wie alles andere auch.

Darüber hinaus sprach miami in seiner typisch elitären scheiss Art explizit auch von 3080/3090.
Ampere ist ne OC-Krücke sondersgleichen, bleibt leider ein Fakt.
Spekulationen :)

Mich würde es aber nicht verwundern, wenn die 3070 genau so beschissen getaktet werden kann oder anders auch am Limit betrieben wird.

dargo
2020-10-04, 20:33:38
Komische Spekulationen. Die RTX 3070 bekommt schon von Haus aus einen höheren Boosttakt spendiert als GA102. Den Rest kann du dir denken.

monstar-x
2020-10-04, 21:27:11
Schau Dir die 3080/90 Strix OC an vs. FE.


Soll ich jetzt das ganze Web absuchen :wink: oder stützt du deine Behauptung auch mit einem Repräsentativen Test/Benchmark :smile:




Komische Spekulationen. Die RTX 3070 bekommt schon von Haus aus einen höheren Boosttakt spendiert als GA102. Den Rest kann du dir denken.

So sehe ich das auch!
Ich denke, dass wir mittlerweile an einem Punkt angelangt sind mit (Boost 4.0) dass wir uns von den Gedanken eines manuellen OC verabschieden können, die GPUs takten so am Limit das nach oben ohne Mods kein Spielraum mehr ist.

Auf der eine Seite gut, so bekommt man auch ohne Handanlegen schon das Maximum, für uns Enthusiasten ist das natürlich ein Nachteil.

MiamiNice
2020-10-04, 21:30:35
Soll ich jetzt das ganze Web absuchen :wink: oder stützt du deine Behauptung auch mit einem Repräsentativen Test/Benchmark :smile:


Es würde reichen wenn Du einen Blick in den 3080 Thread schwenkst :)

Langlay
2020-10-04, 21:32:09
Aha. Welche Custom packt denn auf eine OCed FE 15% drauf? :rolleyes:

Ist doch ganz klar, du kaufst statt na FE 3080 ne Custom 3090 und schon haste 15% drauf :freak:

Lehdro
2020-10-04, 21:45:26
Es würde reichen wenn Du einen Blick in den 3080 Thread schwenkst :)
Meinst du das? (https://i.gyazo.com/a7a74ef7a83ab5b2dcd42c8120a8ff38.jpg)
Das sind zusammen mit den 2-3% die eine gute Custom Karte auf die FE drauflegt (https://www.computerbase.de/2020-09/asus-msi-geforce-rtx-3080-custom-test/2/#abschnitt_benchmarks_in_ultra_hd) immer noch keine 15%. Wenn du Glück hast wird es gerade so zweistellig.

Da finde ich Langlays Lösung des Problems schon wesentlich interessanter :freak:

MiamiNice
2020-10-04, 22:01:31
Ihr seid schon ein wenig Toxic, bissel. Ist nur HW, Mates. Keiner zwingt euch den Kram zu shoppen.

Thunder99
2020-10-04, 22:04:25
Die kleinen Karten früherer Generationen hatten auch einen höheren Takt, also kein Beweis für OC Eigenschaften.

Aber Ampere hat bisher nicht brilliert...

dargo
2020-10-04, 22:08:56
Ist doch ganz klar, du kaufst statt na FE 3080 ne Custom 3090 und schon haste 15% drauf :freak:
;D X-D

Danke für den heutigen Lacher! Du bist schuld, dass ich jetzt Pipi in den Augen habe. ;D

woodsdog
2020-10-05, 07:47:57
Ihr seid schon ein wenig Toxic, bissel. Ist nur HW, Mates. Keiner zwingt euch den Kram zu shoppen.

Nö, nix toxic. Du trollst hier mit Zahlen rum die leider objektiv nur deinem Fanboooiiiii Hirn entspringen und nichts mit der Realität zu tun haben.
Aber mach dich ruhig weiter lächerlich. :popcorn:

MiamiNice
2020-10-05, 08:21:59
Brauch ich nicht, da bist Du schon gut dabei.

N0rG
2020-10-05, 11:17:42
Grad auf Twitter gefunden:
https://i.imgur.com/LdPmosn.jpg
https://twitter.com/gorbazthedragon/status/1313011567970189314

Meint der wohl GA100?

OC_Burner
2020-10-05, 12:01:13
Aller wahrscheinlichkeit nach dürfte es sich beim gezeigten Tray um TU104 Chips handeln. Die Anordnung der Käferchen und die Chipgröße bei einer vermeintlichen Packagesize von 37.6mm sprechen dafür.

Troyan
2020-10-05, 12:34:22
Das ist GA104: https://videocardz.com/newz/nvidia-ga104-300-geforce-rtx-3070-gpu-spotted-going-through-validation#disqus_thread

Die noch größeren Chips sind dann GA100.

dildo4u
2020-10-05, 12:45:41
Asus 3070 Modelle.


https://videocardz.com/newz/asus-unveils-geforce-rtx-3070-tuf-gaming-series

dargo
2020-10-05, 12:50:27
Asus diesmal mit Poscaps? :D Hoffentlich geht das nicht wieder nach hinten los. Wahrscheinlich bei 220+W weniger ein Problem und ein angepasster Treiber ist eh schon im Umlauf. Oder mehr Zeit diesmal für Biosanpassung bei den AIBs gehabt.

btw.
Immer noch ganz schöner Klopper. Naja... sollte wenigstens schön leise sein. Die ASUS RTX 3070 DUAL sieht schon mal eher nach einer "normalen" Karte aus. :tongue:

dildo4u
2020-10-05, 12:56:09
Wenn die Karte um 2080 Hitze erzeugt halte ich zwei Lüfter Designs für zu mickrig.

Fragman
2020-10-05, 13:02:45
Wenn die Karte um 2080 Hitze erzeugt halte ich zwei Lüfter Designs für zu mickrig.

Ich hab die 2080 Dual, läuft unter Last mit 1950MHz und die Laustärke ist ok.
3 sind sicher besser. hab ich bei meiner 1070 Asus gesehen, die war leiser.

dildo4u
2020-10-05, 13:08:18
Ja kommt halt drauf an wie viel Wert man auf Laustärke Legt ich hab meine EVGA Dual Lüfter 1070 undervoltet damit sie mit 1300rpm statt 1600 läuft.
Und die GPU ist harmlos gegenüber den neuen Generationen.(1.9Ghz bei 130 Watt)

Asaraki
2020-10-05, 13:10:26
Ja kommt halt drauf an wie viel Wert man auf Laustärke Legt ich hab meine EVGA Dual Lüfter 1070 undervoltet damit sie mit 1300rpm statt 1600 läuft.
Und die GPU ist harmlos gegenüber den neuen Generationen.(1.9Ghz bei 130 Watt)

Ja, das ist so enorm subjektiv. Nur schon was vier Leute unter "leise" verstehen, das ordne ich teilweise als Lärm ein :D Aber ich bin auch sehr sensibel auf Geräusche.

Ich denke meine 3080 FE wird daher eher leicht UV, denke da verliere ich wenig Leistung für sehr viel weniger Lautstärke, aber mal schauen, werde eh das Gehäuse umbauen müssen da mein jetziger Airflow noch auf ein 3-Fan Design ausgelegt ist.

@Langlay : Bester Post des Threads bis jetzt ^^

dargo
2020-10-05, 13:29:14
Ja kommt halt drauf an wie viel Wert man auf Laustärke Legt ich hab meine EVGA Dual Lüfter 1070 undervoltet damit sie mit 1300rpm statt 1600 läuft.
Und die GPU ist harmlos gegenüber den neuen Generationen.(1.9Ghz bei 130 Watt)
Dann ist der Kühler deiner EVGA aber richtig schlecht. Ich fahre hier aktuell ~180W mit der Sapphire RX 5700XT bei max. 1300RPM und könnte von den Temperaturen auch locker 1100RPM verwenden. Da ist noch viel Luft da. Zudem ist die Die-Size von Navi10 deutlich kleiner als von GA104.

Hakim
2020-10-05, 13:33:34
Wenn schon die Strix nur 4 Poscaps hat, wie hat es eigentlich bei der letzten gen bei grakas über 200W hinten ausgeschaut?

OC_Burner
2020-10-05, 13:33:54
Das ist GA104: https://videocardz.com/newz/nvidia-ga104-300-geforce-rtx-3070-gpu-spotted-going-through-validation#disqus_thread

Die noch größeren Chips sind dann GA100.

Nein die Antwort von qhfreddy auf Twitter mit dem zweiten Bild zeigt kein GA100. Der Monitor auf der linken Bildseite zeigt GA102 an aber die GPUs auf der rechten Bildseite passen weder zu GA102 noch zu GA100... Viel zu quadratisch für GA100 und bei einer Packagesize von 51mm (wie GA102) würden ca. 1000mm² rumkommen.

Keine Ahnung was da bei dem zwiten Bild schiefgelaufen ist, wird aber TU104 sein.

dildo4u
2020-10-05, 13:37:06
Wenn schon die Strix nur 4 Poscaps hat, wie hat es eigentlich bei der letzten gen bei grakas über 200W hinten ausgeschaut?

Schätze mal das ist eine Kostenreduktion die 2080S hatte MLCC.

https://www.techpowerup.com/review/asus-geforce-rtx-2080-super-strix-oc/4.html

dargo
2020-10-05, 13:40:32
Schätze mal das ist eine Kostenreduktion die 2080S hatte MLCC.

https://www.techpowerup.com/review/asus-geforce-rtx-2080-super-strix-oc/4.html
Da sind es aber vier MLCCs pro Block und keine zehn wie bei GA102. Ob da immer noch Poscaps billiger sind?

Hakim
2020-10-05, 13:42:20
Bin ich blind? Ich sehe 4x4 MLCC Blöcke?

dildo4u
2020-10-05, 13:45:34
Ja 2080S 4X4 MLCC, 3070 4 Poscaps.

woodsdog
2020-10-05, 13:50:51
naja, POSCAPs sind ja nicht per-se ein Problem.
Im absoluten Grenzbereich in dem sich 3080/3090 aber bewegen reichts eben manchmal nicht mehr.
Hätte es nicht schon Stock CTDs gegeben hätte nie irgend einer was gesagt... dann wäre das halt "zuviel OC" gewesen und der User setzt den Regler wieder etwas nach links. So hat es NV halt versemmelt und "zuviel OC" als Stock ausgeliefert :whistle:

basix
2020-10-05, 13:52:24
Grad auf Twitter gefunden:
https://i.imgur.com/LdPmosn.jpg
https://twitter.com/gorbazthedragon/status/1313011567970189314

Meint der wohl GA100?

Interessant sind so einige Angaben in diesem Foto des Testprogramms. Zum Beispiel 91% Test Yield und Titan confirmed? ;D

Zu GA100: Wieso sollte das GA100 sein? Es ist definitiv nicht GA102, aber GA100 müsste doch HBM2 tragen?

dildo4u
2020-10-05, 13:54:38
Der Kühler der 3070 Tuf wurde auch modifiziert.


https://www.resetera.com/threads/nvidia-rtx-3070-499-3080-699-3090-1-499-announced-please-see-threadmarks.278621/page-376#post-47632424

Lawmachine79
2020-10-05, 14:02:44
So hat es NV halt versemmelt und "zuviel OC" als Stock ausgeliefert :whistle:
This.

Dural
2020-10-05, 14:53:23
Ich glaube es sind vor allem die Partner die zu viel Boost zugelassen haben.

Über 2GHz stock ist einfach für den GA102 zu viel.

Das komische an der Geschichte ist ja das jetzt 95% der User glauben das es nur an den Kondensatoren lag, was nachweislich aber ganz klar Falsch ist.

unl34shed
2020-10-05, 14:59:37
Wenn es an den Partnern liegen würde, hätte es keine FEs mit dem Fehler gegeben.

Dural
2020-10-05, 15:03:48
Die FE haben aber die richtige Bestückung, eindeutiger und klarer kann es gar nicht sein das es eben nicht an den Kondensatoren lag. (Was ich auch von Anfang an gesagt habe)

Die Partner Karten haben es einfach noch mal mehr übertrieben mit dem Boost, so einfach ist es. Die falsche Bestückung hat dann den Rest gemacht.

Interessant sind so einige Angaben in diesem Foto des Testprogramms. Zum Beispiel 91% Test Yield und Titan confirmed? ;D

Zu GA100: Wieso sollte das GA100 sein? Es ist definitiv nicht GA102, aber GA100 müsste doch HBM2 tragen?

Ist klar GA102, steht ja auch mehrfach.

91% aller Chips können verwendet werden, so viel zum Thema schlechte Ausbeute... Ich bin nur verwundert das so was Online kommt.

N0rG
2020-10-05, 15:08:18
Interessant sind so einige Angaben in diesem Foto des Testprogramms. Zum Beispiel 91% Test Yield und Titan confirmed? ;D

Zu GA100: Wieso sollte das GA100 sein? Es ist definitiv nicht GA102, aber GA100 müsste doch HBM2 tragen?

Na weil der Typ halt von einem größeren Chip als GA102 redet und in Zusammenhang mit dem Bild kam die Frage auf. Außer den beiden größten Turing Chips und GA100 sind mir keine Chips bekannt die das sein könnten. Und die Turing Chips hab ich ausgeschlossen, weil warum sollten die die dinger jetzt noch testen (oder als tray da rumstehen haben). Aber wenn ihr sagt das ist Turing...

Hab grad Bilder verglichen. Das ist auf jeden Fall TU104 mit Produktionswoche 3* 2020.

basix
2020-10-05, 15:13:58
Na weil der Typ halt von einem größeren Chip als GA102 redet und in Zusammenhang mit dem Bild kam die Frage auf. Außer den beiden größten Turing Chips und GA100 sind mir keine Chips bekannt die das sein könnten. Und die Turing Chips hab ich ausgeschlossen, weil warum sollten die die dinger jetzt noch testen (oder als tray da rumstehen haben).
Ist klar GA102, steht ja auch mehrfach.
Dann erklärt mir doch bitte, wieso die Form des Chips nicht zu GA102 passt und kein HBM auf dem Package ist? Entweder ist das Turing (wie N0rg sagt nicht sehr wahrscheinlich, die Schrift ist 90° gedreht verglichen mit TU102 und GA102 und dessen Rechteckform) oder halt etwas anderes.


91% aller Chips können verwendet werden, so viel zum Thema schlechte Ausbeute... Ich bin nur verwundert das so was Online kommt.

Test Yield nach dem Packaging != 8nm Yield. Das muss ich dir eigentlich nicht erklären, hier stellst du dich absichtlich dumm ;)

Dural
2020-10-05, 15:16:18
Das scheint mir aber nicht GA104 zu sein, der Die wirkt etwas gar klein und auf den GA104 Leaks sah der Chip anders aus. GA106?

https://twitter.com/Avery78/status/1312805847475474434/photo/1

Edit:
Doch ist GA104, hatte es nur falsch in Erinnerung.

basix
2020-10-05, 15:33:41
Der unbekannte Chip ist definitiv nicht GA102. Die Ausrichtung der Schrift und die Kondensatoren an der Seite des Die passen nicht.

GA103?

N0rG
2020-10-05, 15:39:12
Hatte ich auch erst gehofft, ist aber tatsächlich TU104. Die Ausrichtung der Beschriftung passt auch zu den Bildern die Google liefert.

HOT
2020-10-05, 15:52:34
Der unbekannte Chip ist definitiv nicht GA102. Die Ausrichtung der Schrift und die Kondensatoren an der Seite des Die passen nicht.

GA103?
Wenn GA103, dann einer im GA104 Package für ne 3070 Super. für 104er sieht der Chip recht groß aus.

maximus_hertus
2020-10-05, 16:02:12
nicht an den Kondensatoren lag.
[...]
Die falsche Bestückung hat dann den Rest gemacht.


Ist das nicht ein Widerspruch? Es wurde doch klar gesagt, dass die Bestückung NICHT der Hauptgrund war, aber bei diversen Karten nicht geholfen hat und die Situation sogar verschärft hat.

Wären ALLE Karten mit den "richtigen" bestückt, wären wohl weniger Karten mit Problemen aufgefallen.

Am Ende hat nVidia hier leider Mist gebaut und hätte die Partner nicht so lange im unklaren lassen sollen.

HPVD
2020-10-05, 16:05:56
GA102 im Vollausbau als A6000 (Quadro):


- 10.752 CUDA Cores (edit: hatte erst nen Zahlendreher in der Zahl..)
- 84 RT Cores
- GDDR6:
- mit weniger Bandbreite
- aber 48GB
- 4x DP 1.4
- 1x NVLINK 3.0
- 300Watt

https://www.computerbase.de/2020-10/nvidia-ampere-quadro-rtx-a6000-a40/

https://www.anandtech.com/show/16137/nvidia-announces-ampere-rtx-a6000-a40-cards-for-pro-viz

HPVD
2020-10-05, 16:08:03
- GDDR6 um auf 48GB zu kommen bei einer Verfügbarkeit ab Mitte 12/2020...
Dauert also nochn Moment bis GDDR6X soweit ist...

- und DP 2.0 haben sie trotz des eigentliche "Muss" von Unterstützung (sehr) großer Auflösungen/Farbtiefen auch nicht rein bekommen...
First products incorporating DP 2.0 are projected to appear on the market by late 2020.

https://vesa.org/press/vesa-publishes-displayport-2-0-video-standard-enabling-support-for-beyond-8k-resolutions-higher-refresh-rates-for-4k-hdr-and-virtual-reality-applications/

vielleicht
- beides (schnellerer GDDR6X, DP2.0) und vielleicht
- noch etwas mehr Speicher z.B. 64GB
- und noch etwas mehr Takt duch besseres Binning
in der A8000 Anfang nächsten Jahres...

basix
2020-10-05, 16:25:30
Hatte ich auch erst gehofft, ist aber tatsächlich TU104. Die Ausrichtung der Beschriftung passt auch zu den Bildern die Google liefert.

Sollte passen, danke fürs aufklären ;)

davidzo
2020-10-05, 22:10:43
GA102 im Vollausbau als A6000 (Quadro):


- 10.572 CUDA Cores
- 84 RT Cores
- GDDR6:
- mit weniger Bandbreite
- aber 48GB
- 4x DP 1.4
- 1x NVLINK 3.0
- 300Watt

https://www.computerbase.de/2020-10/nvidia-ampere-quadro-rtx-a6000-a40/

https://www.anandtech.com/show/16137/nvidia-announces-ampere-rtx-a6000-a40-cards-for-pro-viz

Wie kommst du auf 10.572 Cuda cores, falsch abgeschrieben? Vollausbau sind 84*128, also 10.752