PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 [55] 56 57 58 59 60 61 62

Troyan
2020-10-24, 10:22:35
Was regt ihr euch alle so auf wieder?

nV ist in die selbe Falle getappt wie Intel vor Jahren. Hat sich zu sehr ausgeruht auf seinem Vorsprung (der ja zeitweise echt enorm und auch verdient war!).

nVidia hat sich nirgendwo ausgeruht. Die bieten mit Raytracing und DLSS Techniken an, die von AMD nicht unterstützt werden und erst jetzt kommen. Kennst du eine Intel CPU, die fast 4x schneller ist als von AMD? Hier mal Worst Case in Crysis Remastered: https://www.purepc.pl/test-wydajnosci-crysis-remastered-czy-mi-pojdzie-zalezy-co-masz?page=0,14

AMD muss erstmal aufholen. Aber hier wird ja schon so getan, dass AMD viel besser ist ohne die Produkte von AMD überhaupt zu kennen. Absolut strange, wie einige sich hier im Forum seit Monaten verhalten.

BlacKi
2020-10-24, 10:23:48
Es hat indirekt vielleicht etwas damit zu tun. Aber mal blöd formuliert: die Konkurrenz kann machen was sie will, das Problem ist primär, dass NV nicht liefern kann. Wenn AMD dann noch konkurrenzfähige Produkte am Start hat, macht das zwar das Problem weitaus größer. Aber das Problem ist und bleibt primär, dass man nix verkaufen kann, weil man nix liefern kann.
indirekt deshalb, weil amd nv bei tsmc ausgebootet hat beim 7nm prozess. um nv tuts mir nicht leid und die karten sind doch soweit auch konkurenzfähig usw. aber die kunden, so wie ich, sind dann schon etwas verwirrt was das portfolio angeht. früher konnte man zuversichtlich eine karte erwerben, heute ist alles ungewiss.


es könnte zwar sein, dass das gerücht amd gestreut hat, aber soweit würde ich nicht gehen.

Korvaun
2020-10-24, 10:30:30
nVidia hat sich nirgendwo ausgeruht. Die bieten mit Raytracing und DLSS Techniken an, die von AMD nicht unterstützt werden und erst jetzt kommen. Kennst du eine Intel CPU, die fast 4x schneller ist als von AMD? Hier mal Worst Case in Crysis Remastered: https://www.purepc.pl/test-wydajnosci-crysis-remastered-czy-mi-pojdzie-zalezy-co-masz?page=0,14

AMD muss erstmal aufholen. Aber hier wird ja schon so getan, dass AMD viel besser ist ohne die Produkte von AMD überhaupt zu kennen. Absolut strange, wie einige sich hier im Forum seit Monaten verhalten.

Wie ich sagte die Performace/Features sind ja sehr ordentlich, aber nV hat schon immer nur das nötige Minimum an RAM verbaut. Ging die letzten Jahre gut weil AMD keine große Konkurrenz war, Turing war aber schon grenzwertig. Jetzt wird das nicht mehr reichen.

Fragman
2020-10-24, 10:32:21
Es hat indirekt vielleicht etwas damit zu tun. Aber mal blöd formuliert: die Konkurrenz kann machen was sie will, das Problem ist primär, dass NV nicht liefern kann. Wenn AMD dann noch konkurrenzfähige Produkte am Start hat, macht das zwar das Problem weitaus größer. Aber das Problem ist und bleibt primär, dass man nix verkaufen kann, weil man nix liefern kann.

Jep, da seh ich auch das Problem. 3080 Karten zu 699 Euro lieferbar und diese Diskussion gäbe es nicht bei der Performance. Mit intel ist das auch nicht vergleichbar, da nv bisher immer auch entsprechend geliefert hat ohne sich Jahre mit kleinen Performances"sprüngen" als Marktführer am Markt zu halten.
AMD ist zurück wies aussieht, das macht Druck, was gut ist.
Weniger gut, das man keine High Performancekarten bekommt.

Ich hoffe das AMD bei Zen vorgesorgt hat, ich brauch mehr Leistung und das gleich. :D

Dampf
2020-10-24, 10:33:22
Nvidia und ausruhen? Meint ihr die selbe Firma die die ersten waren, die das Next Gen Featureset bestehend aus Sampler Feedback, VRS und Mesh shader etabiliert haben, etwas das AMD und die Konsolen erst jetzt 2 Jahre später bieten?

Oder die erste Firma, die hardware beschleunigtes Raytracing in Konsumer-GPUs verfrachtet hat?

Oder die Firma, die mit den Tensor Cores massig AI Compute Leistung liefert für Features wie DLSS? Oh Gott habt ihr überhaupt ne Ahnung wie viel R&D sowas kostet...

Oder die Firma die dutzende Innovative AI Features in professionelles Rendering und sogar in Streaming Apps bringt mit denen ihr literally kein Greenscreen mehr braucht und ihr unerwünschte Töne wie einen Föhn einfach so unterdrücken könnt?

Man kann Nvidia viel vorwerfen, aber dass sie sich ausruhen überhaupt nicht.

Troyan
2020-10-24, 10:51:50
Wie ich sagte die Performace/Features sind ja sehr ordentlich, aber nV hat schon immer nur das nötige Minimum an RAM verbaut. Ging die letzten Jahre gut weil AMD keine große Konkurrenz war, Turing war aber schon grenzwertig. Jetzt wird das nicht mehr reichen.

Und wo ist AMD mit RDNA2 konkurrent? Weil sie langsamer sind mit Raytracing, mit FP32, mit DL?

Es ist einfach Hardware für vergangene Spiele zu designen. Das hat bei Nokia auch wunderbar funktioniert. Bis es zum iPhone-Knall kam. Diesen Knall hatten wir mit Turing vor zwei Jahren. Ampere ist dort verbessert, wo die Leistung benötigt wird: Bei Raytracing - doppelte FP32-Leistung pro SM, mehr Bandbreite und überarbeitete RT-Cores.

Dampf
2020-10-24, 11:04:10
Das seltsame INT/FP Design ist imo ein Rohrkrepierer. Sie hätten die Leistung der INT-Einheiten auch verdoppeln sollen.

Ich denke zukünftige Spiele werden eher verstärkt auf INT/FP gleichzeitig setzen, da das RDNA2 auch beherrscht und die Konsolen die Richtung vorgeben werden.

So wird Ampere halt nicht die volle Leistung ausschöpfen können.

dargo
2020-10-24, 11:06:31
Nvidia und ausruhen?
Wer spricht denn von ausruhen? Aktuell sieht es mir "nur" nach Fertigungsproblemen aus. Wie schnell sich das ändert steht in den Sternen. Ich weiß auch nicht ob TSMC überhaupt auf absehbare Zeit genug Kapazitäten für Nvidia hat.

ianm
2020-10-24, 11:07:22
Und wo ist AMD mit RDNA2 konkurrent? Weil sie langsamer sind mit Raytracing, mit FP32, mit DL?

Es ist einfach Hardware für vergangene Spiele zu designen. Das hat bei Nokia auch wunderbar funktioniert. Bis es zum iPhone-Knall kam. Diesen Knall hatten wir mit Turing vor zwei Jahren. Ampere ist dort verbessert, wo die Leistung benötigt wird: Bei Raytracing - doppelte FP32-Leistung pro SM, mehr Bandbreite und überarbeitete RT-Cores.
Hardware für vergangene Spiele? Wo RDNA2 die nächsten Jahre Standard im Konsolenbereich sein wird? Und der Konsolenbereich Maßstab für die Entwicklung ist? Du hast ja interessante Vorstellungen...

Eher ist es doch so, dass RT noch komplett in den Kinderschuhen steckt. Und Ampere verdoppelt hier nicht einmal die vorhandene Leistung. Damit RT wirklich Spaß macht muss es sicher um den Faktor 5 schneller werden als heute.

Sicher hat RT eine Zukunft. Und die wird viel geiler aussehen als das RT was wir bisher kennen. Und natürlich ist Basisentwicklung wichtig und Nvidia macht da sicher keinen schlechten Job. Aber solange nicht mindestens 50% der Games unterstützt werden und vor allem die Leistung angemessen ist, bleibt es nur ein nice to have feature, um zu sehen wo die Reise in fünf Jahren hin geht.

HOT
2020-10-24, 11:07:35
indirekt deshalb, weil amd nv bei tsmc ausgebootet hat beim 7nm prozess. um nv tuts mir nicht leid und die karten sind doch soweit auch konkurenzfähig usw. aber die kunden, so wie ich, sind dann schon etwas verwirrt was das portfolio angeht. früher konnte man zuversichtlich eine karte erwerben, heute ist alles ungewiss.


es könnte zwar sein, dass das gerücht amd gestreut hat, aber soweit würde ich nicht gehen.


Also ich denke auch, dass NV sich nicht ausruht und das Chaosportfolio korrigieren wird in 2021. Dazu sind aber auch neue Chips nötig, deshalb geht das erst spät. NV bräuchte neben dem GA103, der ja primär zu Kostenreduktion und Yieldverbesserung dient, auch noch einen neuen Top-Dog. Ich bin gespannt, ob man den noch in 7nm sehen wird (ob N7 oder 7LPP ist egal). Das wird aber ein neues Projekt sein und ich würde sagen, dass ein solches Projekt mit 8 GPCs und somit 96SMs am sinnvollsten designt wäre. Damit wär dann theoretisch auch ne neue Titan drin.

Nach dem ganzen Theater wird NV mMn von dieser Generation noch die 8GB 3070 und die 8GB 3060, welche beide auf GA104 basieren dürften, und zusätzlich eine 3070 Super mit 10GB GDDR 14GT auf GA102-Basis releasen, das wird vorerst reichen, bis GA103 den Markt betritt. Ein hypotetischer 7nm wäre ja erst Anfang 2020 gestartet worden, als klar war, dass die Performanceziele des GA103 nicht ausreichend sind. Also müsste man mMn einen Strategieswechsel eingeläutet haben und GA103 neu auf 6GPCs und einen, ich nenn ihn mal GA110, mit 8 GPCs aufgelegt haben, wobei letzterer ne andere Fertigung erfordert. Dieser Chip ist sicherlich noch nicht auf dem Weg und dürfte vor 2.HJ 2021 wohl kaum zur Verfügung stehen.

Für NV wäre es vielleicht das sinnvollste hiernach die 3000er-Generation direkt abzuschreiben und eine möglichst sinnvolle auf Ampere basierende neue Generation zu erzeugen, vorerst ohne Top-Dog. Man würde daraus sinnvollerweise besser also gleich die 4000er-Generation machen als Refreshgeneration, ähnlich wie bei Fermi damals. Da hat man einen Flop in einen Hit verwandelt, ähnliches wäre mit Ampere auch möglich.

Also ein theoretisches neues Lineup wäre:

GTX 4080 -> GA102, 78SMs, 20GB 20GT 16Gb in 10 Modulen GDDR6X (3090-PCB)
GTX 4070Ti -> GA103/2, 68SMs, 16GB 20GT 16Gb in 8 Modulen GDDR6X (3090-PCB)
GTX 4070 -> GA103, 56SMs, 16GB 16Gt 16Gb in 8 Modulen GDDR6 (3070-PCB)
GTX 4060Ti -> GA104, 48SMs, 16GB 14Gt 16Gb in 8 Modulen GDDR6 (3070-PCB)
GTX 4060 -> GA104, 40SMs, 12GB 14Gt 16Gb in 6 Modulen usw. (3070-PCB)

Und da oben drüber thront dann

GTX 4080Ti -> "GA110", 88SMs, 20GB 21GT 16Gb in 10 Modulen GDDR6X (das ganze Packagekompatibel zu GA102 und damit die PCBs weiter nutzbar)
GTX 4090 -> "GA110", 92SMs, 24GB 21GT 16Gb in 12 Modulen GDDR6X
Titan Ampere -> "GA110" 96SMs, 48GB 21GT 16Gb in 24 Modulen GDDR6X

Ich weiss sehr phantasievoll, aber man wird doch noch Visionen haben dürfen :D.

BlacKi
2020-10-24, 11:25:17
Für NV wäre es vielleicht das sinnvollste hiernach die 3000er-Generation direkt abzuschreiben und eine möglichst sinnvolle auf Ampere basierende neue Generation zu erzeugen, vorerst ohne Top-Dog. Man würde daraus sinnvollerweise besser also gleich die 4000er-Generation machen als Refreshgeneration, ähnlich wie bei Fermi damals. Da hat man einen Flop in einen Hit verwandelt, ähnliches wäre mit Ampere auch möglich.

Ich weiss sehr phantasievoll, aber man wird doch noch Visionen haben dürfen :D.
was stört dich an der 3000er serie? zu teuer und zu langsam ist ampere nicht. es ist im grunde ersteinmal die mangelhafte verfügbarkeit und "nur" 10gb speicher, welche man verdoppeln wollte.



das problem ist nur einfach nicht auf die schnelle lösbar. auch das umbenennen hilft nicht, es müssen mehr chips her, fertig. ob die nun 4000er oder super lauten ist doch mir egal. ich denke auch das die masse sich nicht daran stört. die super karten sind eigentlich auch gut angenommen worden, im gegensatz zu der ersten turing serie. was eigentlich nur ein pricecut war.


lederjacke sagte zwar, das der ansturm zu groß war, aber es könnte auch an samsung gelegen haben und wenn man die quote nicht halten konnte könnte nv sogar davon finanziell profitieren, auch wenn der name dadurch gelitten haben wird.

HOT
2020-10-24, 11:30:04
was stört dich an der 3000er serie? zu teuer und zu langsam ist ampere nicht. es ist im grunde ersteinmal die mangelhafte verfügbarkeit und "nur" 10gb speicher, welche man verdoppeln wollte.



das problem ist nur einfach nicht auf die schnelle lösbar. auch das umbenennen hilft nicht, es müssen mehr chips her, fertig. ob die nun 4000er oder super lauten ist doch mir egal. ich denke auch das die masse sich nicht daran stört. die super karten sind eigentlich auch gut angenommen worden, im gegensatz zu der ersten turing serie. was eigentlich nur ein pricecut war.


lederjacke sagte zwar, das der ansturm zu groß war, aber es könnte auch an samsung gelegen haben und wenn man die quote nicht halten konnte könnte nv sogar davon finanziell profitieren, auch wenn der name dadurch gelitten haben wird.
Man muss da glaub ich weiter denken, denn an dem Namen 3000 wird ja der ganze Schmalz hängenbleiben. Zudem ist das Lineup einfach nicht optimal gegen AMD. Die suboptimalen Speichergrößen sind ebenfalls ein großes Problem. Man könnte viel erreichen, wenn man 16Gb GDDR6X zur Verfügung hätte, vorher ergibt eine Renovierung des Lineups keinen Sinn.
Danach aber muss man das Ganze auch aus kostengründen neu mischen. Du brauchst halt Produkte mit 12 und 16GB, die es z.Zt. nicht gibt, du musst den GA103 sinnvoll unterbringen. Nur mit Super geht das nicht, was willste da machen, ne 3070 Super und Super Super und Ti Super? Das ist kacke. NV scheint das Kürzel Ti auch zu umschiffen im 3000er-Lineup, die wussten schon wieso. Das sollte offensichtlich mit keiner Titan in Verbindung gebracht werden.

Dampf
2020-10-24, 11:35:39
Wer spricht denn von ausruhen? Aktuell sieht es mir "nur" nach Fertigungsproblemen aus. Wie schnell sich das ändert steht in den Sternen. Ich weiß auch nicht ob TSMC überhaupt auf absehbare Zeit genug Kapazitäten für Nvidia hat.
Ging nicht darum sondern es wurde Nvidia mit Intel verglichen, also dass es kaum Fortschritt mit Turing gab was ja nicht der Fall ist.

Das Problem, dass die Ampere Karten so schlecht verfügbar sind ist ein anderes. Der Launch war katastrophal und bisher sieht es nicht so aus, als würde sich bald was daran ändern.

Bin gespannt ob AMD das besser löst, wenn ja dann werden die sehr davon profitieren. Ich glaube ja auch, dass bei den Lieferengpässen Sars Cov19 zur Zeit seine Spike-Proteine im Spiel hat. Doofe Zeit um GPUs zu launchen!

MiamiNice
2020-10-24, 11:36:57
Dieser Thread ist nur noch nervig.

Gouvernator
2020-10-24, 11:47:02
Nvidia und ausruhen? Meint ihr die selbe Firma die die ersten waren, die das Next Gen Featureset bestehend aus Sampler Feedback, VRS und Mesh shader etabiliert haben, etwas das AMD und die Konsolen erst jetzt 2 Jahre später bieten?

Oder die erste Firma, die hardware beschleunigtes Raytracing in Konsumer-GPUs verfrachtet hat?

Oder die Firma, die mit den Tensor Cores massig AI Compute Leistung liefert für Features wie DLSS? Oh Gott habt ihr überhaupt ne Ahnung wie viel R&D sowas kostet...

Oder die Firma die dutzende Innovative AI Features in professionelles Rendering und sogar in Streaming Apps bringt mit denen ihr literally kein Greenscreen mehr braucht und ihr unerwünschte Töne wie einen Föhn einfach so unterdrücken könnt?

Man kann Nvidia viel vorwerfen, aber dass sie sich ausruhen überhaupt nicht.
Nvidia ist bei Home-Streaming alternativlos. Da kann AMD noch so schnell und billig sein. Man muss es sich auf der Zunge zergehen lassen, die GPU gibt 4K/120Hz/150mbps als Stream aus und zwar parallel zum HDMI Bild über einen Server mit 0 Latenz Unterschied dazwischen. Inklusive Downsampling sprich wenn ich nativ Desktopbild in 8K gleichzeitig streame dann schickt die GPU das downsampelte Bild in 4k-1080p in 120Hz weiter als Stream. Das ist Wahnsinn. Man kann mit WiFi6 die gesamte Spielbibliothek auf dem Tablet/Smartphone in 8K DSR@4K/120 mit ~10ms Inputlag drahtlos spielen.

Troyan
2020-10-24, 11:51:51
Hardware für vergangene Spiele? Wo RDNA2 die nächsten Jahre Standard im Konsolenbereich sein wird? Und der Konsolenbereich Maßstab für die Entwicklung ist? Du hast ja interessante Vorstellungen...

Raytracing ist hier. Die Konsolen sind nur Mitläufer.


Eher ist es doch so, dass RT noch komplett in den Kinderschuhen steckt. Und Ampere verdoppelt hier nicht einmal die vorhandene Leistung. Damit RT wirklich Spaß macht muss es sicher um den Faktor 5 schneller werden als heute.

Sicher hat RT eine Zukunft. Und die wird viel geiler aussehen als das RT was wir bisher kennen. Und natürlich ist Basisentwicklung wichtig und Nvidia macht da sicher keinen schlechten Job. Aber solange nicht mindestens 50% der Games unterstützt werden und vor allem die Leistung angemessen ist, bleibt es nur ein nice to have feature, um zu sehen wo die Reise in fünf Jahren hin geht.

Raytracing macht heute schon Spaß. Mit einer 3070 kann man z.B. Pumpkin Jack in 1440p mit RT und 60FPS+ zocken. Indie-Game, entwickelt zum Großteil von einer Person. Schon heute können 100% aller Spiele RT-Unterstützen. Im Gegensatz zu DLSS ist Raytracing nämlich ein integraler Bestandteil einer Engine.

BlacKi
2020-10-24, 12:04:17
Nvidia ist bei Home-Streaming alternativlos. Da kann AMD noch so schnell und billig sein. Man muss es sich auf der Zunge zergehen lassen, die GPU gibt 4K/120Hz/150mbps als Stream aus und zwar parallel zum HDMI Bild über einen Server mit 0 Latenz Unterschied dazwischen. Inklusive Downsampling sprich wenn ich nativ Desktopbild in 8K gleichzeitig streame dann schickt die GPU das downsampelte Bild in 4k-1080p in 120Hz weiter als Stream. Das ist Wahnsinn. Man kann mit WiFi6 die gesamte Spielbibliothek auf dem Tablet/Smartphone in 8K DSR@4K/120 mit ~10ms Inputlag drahtlos spielen.
das ist doch nische.

Man muss da glaub ich weiter denken, denn an dem Namen 3000 wird ja der ganze Schmalz hängenbleiben. Zudem ist das Lineup einfach nicht optimal gegen AMD. Die suboptimalen Speichergrößen sind ebenfalls ein großes Problem. Man könnte viel erreichen, wenn man 16Gb GDDR6X zur Verfügung hätte, vorher ergibt eine Renovierung des Lineups keinen Sinn.
Danach aber muss man das Ganze auch aus kostengründen neu mischen. Du brauchst halt Produkte mit 12 und 16GB, die es z.Zt. nicht gibt, du musst den GA103 sinnvoll unterbringen. Nur mit Super geht das nicht, was willste da machen, ne 3070 Super und Super Super und Ti Super? Das ist kacke. NV scheint das Kürzel Ti auch zu umschiffen im 3000er-Lineup, die wussten schon wieso. Das sollte offensichtlich mit keiner Titan in Verbindung gebracht werden.

die 3000er serie hat bei der masse an käufern einen guten eindruck. besser als turing. das liegt auch klar am marketing von nv. ich schlussfolgere daraus nicht, das man einen neue serie benöitge. viele hier im forum sprechen nur mit leuten im forum über diese dinge, das ist dann wie bei den sozialen medien. wenn man dann raus geht in die realität, dann sieht die welt plötzlich ganz anders aus. bei den gamern ist die 3000er serie so beliebt wie keine andere. nv richtet seine produkte nicht an der HardCcore community aus. an der HC community kann man kein künftiges verhalten von nv ablesen.

dargo
2020-10-24, 12:07:26
Raytracing ist hier. Die Konsolen sind nur Mitläufer.

Lebst du noch in der gleichen Welt wie die Spieleindustrie? Den Eindruck machst du nämlich nicht auf mich.

HOT
2020-10-24, 12:07:57
Raytracing ist hier. Die Konsolen sind nur Mitläufer.

[...]
Normalerweise zitiere ich sowas nicht, aber RT und DXR gibts auf dem PC nur deshalb, weil Microsoft sich dafür im Jahre 2015, dem Entwicklungsstart der Series X, entschieden hat. Wenn das nicht passiert wäre und Microsoft RT für unwichtig gehalten hätte, hättest du statt eines RT-fähigen TU102s einen GV102 im Stile der TU116/7 bekommen.

Edit: mag ja sein, dass die Arbeiten darauf basieren, aber das heißt gar nichts für die Entscheidung 2015.

Troyan
2020-10-24, 12:09:20
Du meinst die Spieleindustrie, die Call of Duty und Cyberpunk mit Raytracing und DLSS ausliefert? Ja.

Lustig, wie weggedrehten man sein muss, um das weiterhin zu ignorieren.

Normalerweise zitiere ich sowas nicht, aber RT und DXR gibts auf dem PC nur deshalb, weil Microsoft sich dafür im Jahre 2015, dem Entwicklungsstart der Series X, entschieden hat.

Klar, deswegen basiert DXR auch auf nVidia's Arbeiten mit Optix. Denkst du dir sowas eigentlich aus oder ist das auf so ein Sheet vorgegeben?

ianm
2020-10-24, 12:10:56
Aber wen interessiert das? Bisher gab es kein Game mit RT was für mich in Frage kam. Ein wenig gehypt war ich nach dem ersten Video wie WoW mit RT aussehen könnte. Das war geil. So wie RT jetzt eingeführt wurde, werde ich das nie nutzen. Wurde oben schon beschrieben. Kostet ihne Ende, aber ohne OMG Effekt.

Die große Hoffnung ist Cyberpunk 2077. Aber da wird die aktuelle Leistung nicht ausreichen. Also lieber High FPS für mich. In zwei Jahren werde ich bestimmt mehr drauf achten. Momentan liefert aber kein Hersteller genug RT Leistung.

Troyan
2020-10-24, 12:14:43
Da Ampere auch ohne Raytracing mehr als konkurrenzfähig ist, erledigt sich die Frage doch.

pixeljetstream
2020-10-24, 12:15:31
Raytracing ist hier. Die Konsolen sind nur Mitläufer.
Wie kann man einerseits eine Firma für Innovation loben, die zum Ziel hat die Industrie vorwärts zu bringen, gleichzeitig es ab tun oder als unwichtig darstellen wenn die Industrie positiv darauf reagiert. Wäre Exklusivität das Ziel würde man eigene Konsolen bauen, eigene APIs etc. Das die anderen Firmen mitgehen und ihre eigenen Herangehensweisen bringen ist wichtiger Teil des Fortschritts für alle. Das wir mit NV, AMD, Intel und Apple vier Player in dem Bereich der Technik haben nützt allen, weil (selbst dann wenn einer mehr ausgibt) man immer vom Gesamtinvestment aller profitiert. Die unterschiedlichen Architekturen, Entscheidungen etc. sind immer nützlich für alle. So wie in der Wissenschaft der Diskurs über verschiedene Algorithmen etc. läuft, ist das bei der Technik nicht anders.

Die Designs sind zu unterschiedlich um hier über Mitläufer zu reden, jeder muss die Probleme für seine Architektur lösen. Das Du und andere das nicht anerkennen, zeigt dass es nicht um die Technik geht sondern halt reines Fan Gehabe. Der Tadel macht das Lob wertlos.

dargo
2020-10-24, 12:18:53
Du meinst die Spieleindustrie, die Call of Duty und Cyberpunk mit Raytracing und DLSS ausliefert? Ja.

Troyan... wen willst du hier eigentlich mit deinen bullshit Ergüssen beeindrucken? Mir wäre neu, dass die Spieleindustrie in 2020 gerade mal zwei Games rausbringen würde. Natürlich gibt es Games mit RT und DLSS wo Nvidia Manpower zur Verfügung gestellt hat. Es war auch schon vor RT und DLSS der Fall mit anderen Features.

Da Ampere auch ohne Raytracing mehr als konkurrenzfähig ist, erledigt sich die Frage doch.
Eben nicht. :freak:

Ohne RT hat Nvidia momentan nichts Interessantes im Portfolio außer der 3090 die extrem teuer und somit uninteressant für die meisten ist. Die ganze Diskussion ist eh müssig solange Nvidia keine Stückzahlen liefern kann.

ianm
2020-10-24, 12:23:45
Da Ampere auch ohne Raytracing mehr als konkurrenzfähig ist, erledigt sich die Frage doch.
Nicht für mich. Ich hatte Maxwell und Pascal Karten, die 5700xt kam um high fps in 1080p zu zocken. Dann bin ich dieses Jahr spontan auf 1440p umgestiegen, möchte aber die 100-144 fps nicht mehr missen. Daher werde ich jetzt nochmal upgraden, aber dann muss es auch mal vier Jahre gut sein. Und dann gebe ich sicher keine 500-700 Euro für einen Speicherkrüppel aus. Mich hat Nvidia mit dem Line Up nicht abgeholt.

Troyan
2020-10-24, 12:25:03
Wie kann man einerseits eine Firma für Innovation loben, die zum Ziel hat die Industrie vorwärts zu bringen, gleichzeitig es ab tun oder als unwichtig darstellen wenn die Industrie positiv darauf reagiert. Wäre Exklusivität das Ziel würde man eigene Konsolen bauen, eigene APIs etc. Das die anderen Firmen mitgehen und ihre eigenen Herangehensweisen bringen ist wichtiger Teil des Fortschritts für alle. Das wir mit NV, AMD, Intel und Apple vier Player in dem Bereich der Technik haben nützt allen, weil (selbst dann wenn einer mehr ausgibt) man immer vom Gesamtinvestment aller profitiert. Die unterschiedlichen Architekturen, Entscheidungen etc. sind immer nützlich für alle. So wie in der Wissenschaft der Diskurs über verschiedene Algorithmen etc. läuft, ist das bei der Technik nicht anders.

Die Designs sind zu unterschiedlich um hier über Mitläufer zu reden, jeder muss die Probleme für seine Architektur lösen. Das Du und andere das nicht anerkennen, zeigt dass es nicht um die Technik geht sondern halt reines Fan Gehabe. Der Tadel macht das Lob wertlos.

First Mover Advantage. Das Firmen dann entsprechen vorhandene Architekturen/Techniken/Umsetzungen durchführen müssen, steht außer Frage. Aber Nokia war bestimmt nicht führend das heutige Smartphone definiert zu haben.

ChaosTM
2020-10-24, 12:26:31
Lebst du noch in der gleichen Welt wie die Spieleindustrie? Den Eindruck machst du nämlich nicht auf mich.


Er wird ganz offensichtlich von NV bezahlt. Anders ist diese totale Ignoranz nicht erklärbar.. :D

YPzlzR5rRxA

Die bisher wahrscheinlich grindigste Ausührung von DRX. Ich seh beim besten willen keinen Unterschied ;)


add.: das ist ganz übel - meist schaut sogar OFF besser aus. Zb. bei 3:10

ChaosTM
2020-10-24, 12:31:17
del

WedgeAntilles
2020-10-24, 12:33:23
IgorsLab hatte vor ein paar Wochen eine kleine Änderung an seiner Ampere Karte eingebaut - ein kleines Wärmeleitpad für wenige Cent, das die Temperatur des Speichers um mehrere Grad gesenkt hat.

Das wird jetzt wohl von Nvidia übernommen:

https://www.igorslab.de/nvidia-kopiert-den-pad-mod-von-igorslab-fuer-die-geforce-rtx-3080-fe-um-den-hotspot-fuer-den-gddr6x-abzumildern/

Das nur nebenbei, da man hier ja gerne mal liest, dass Igor eher wenig Ahnung hätte.

Zumindest genügt es wohl, um das Design der Ampere ein Stück zu verbessern - für umsonst. (Denn mehr als ein paar Cent kostet so ein Pad nicht.)

BlacKi
2020-10-24, 12:39:19
IgorsLab hatte vor ein paar Wochen eine kleine Änderung an seiner Ampere Karte eingebaut - ein kleines Wärmeleitpad für wenige Cent, das die Temperatur des Speichers um mehrere Grad gesenkt hat.

Das wird jetzt wohl von Nvidia übernommen:

https://www.igorslab.de/nvidia-kopiert-den-pad-mod-von-igorslab-fuer-die-geforce-rtx-3080-fe-um-den-hotspot-fuer-den-gddr6x-abzumildern/

Das nur nebenbei, da man hier ja gerne mal liest, dass Igor eher wenig Ahnung hätte.

Zumindest genügt es wohl, um das Design der Ampere ein Stück zu verbessern - für umsonst. (Denn mehr als ein paar Cent kostet so ein Pad nicht.)
sry, aber was hat ein pad aufzukleben bitte schön mir ahnung zu tun? sicherlich hat igor ahnung, aber nicht weil er ein pad nachträglich reingedrückt hat.

user77
2020-10-24, 12:40:12
Aber irgend jemand/Maschine muss die Pads aufbringen, zusätzlicher Arbeitsschritt kostet

pixeljetstream
2020-10-24, 12:44:33
First Mover Advantage. Das Firmen dann entsprechen vorhandene Architekturen/Techniken/Umsetzungen durchführen müssen, steht außer Frage. Aber Nokia war bestimmt nicht führend das heutige Smartphone definiert zu haben.
Kommt halt immer drauf an wie man das „ist hier“ definiert. Ob der „move“ sinnvoll ist, kommt ja durch die Masse/Industrie und da sehe ich das verwirklichen von RT in den Konsolen als sehr wichtigen Schritt. Und bei Echtzeit RT hw war NV nicht First Mover, aber es war der erste move der vom Rest der Industrie mitgetragen wird.

jay.gee
2020-10-24, 12:46:39
Eben nicht. :freak:

Ohne RT hat Nvidia momentan nichts Interessantes im Portfolio außer der 3090 die extrem teuer und somit uninteressant für die meisten ist. Die ganze Diskussion ist eh müssig solange Nvidia keine Stückzahlen liefern kann.

Hmm, ich will mich ja in diese Hardware-Glaubenskriege nicht einmischen, aber jetzt mal ehrlich, dargo. Ich schaue mir einfach an, mit was für Grafikkarten-Gurken ein Grossteil der heutigen Spieler in Spielen herumkrebst. Und dann soll eine GeForce RTX 3080, mal völlig losgelöst von der Verfügbarkeit, keine interessante Karte sein?

Ich würde ebenfalls behaupten, dass eine GeForce RTX 3080 den meisten Spielen in den kommenden 1-2 Jahren mehr als nur gewachsen sein wird. Da mag das eine oder andere Spiel mal ein Ausreisser sein - aber dann wird man halt exakt das gleiche machen, was die User doch eh schon seit eh und je machen. Dann dreht man halt ein wenig an den Reglern, so wie du bei der Textur-Reduzierung in HZD und gut ist.

Und bis sich NextGen auf den Konsolen mal richtig entfalten wird, steht doch längst die nächste GrakaGeneration in den Startlöchern.

basix
2020-10-24, 12:54:56
Das seltsame INT/FP Design ist imo ein Rohrkrepierer. Sie hätten die Leistung der INT-Einheiten auch verdoppeln sollen.

Ich denke zukünftige Spiele werden eher verstärkt auf INT/FP gleichzeitig setzen, da das RDNA2 auch beherrscht und die Konsolen die Richtung vorgeben werden.

So wird Ampere halt nicht die volle Leistung ausschöpfen können.

Ich glaube eher, dass Ampere hier den richtigen Schritt macht, wenn auch nur ein Zwischenschritt. Turing brachte INT+FP. Ampere INT/FP+FP. Hopper wird vermutlich (meine Speku) auf INT+FP+FP gehen. Auf 100 FP Operationen kommen etwa 30-50 INT Operationen. Turing war bei INT also Overpowered. Ampere ist nicht Over-/Underpowered, aber die Peak FP Leistung kann nie abgerufen werden. Hopper hätte dann das beste aus beiden Welten: Ausgewogenes INT / FP Verhältnis und FP Peak kann eher zu 100% ereicht werden.

Schlussendlich ist der Anstieg auf 128x FP Einheiten pro SM eine Massnahme, um mehr Rechenleistung aus der selben Chipfläche zu holen. Da die Lithografieprozesse immer teurer werden und Spiele immer Compute lastiger, ist diese Architekturentwicklung mMn der richtige Weg. Es würde mich nicht wundern, wenn wir das bei AMD in Zukunft auch sehen werden. Auch dort ist Peak FP32-Leistung im Verhältnis zur Chipfläche bei RDNA nicht wahnsinnig gut im Vergleich zu anderen Architekturen. AMD hat aber nicht so einen Leidensdruck wie Nvidia, ihre CUs sind einfach viel schlanker als Nvidias SMs (das ist aber auch Tensor/RT Cores usw. geschuldet).

denjudge
2020-10-24, 12:56:44
Er wird ganz offensichtlich von NV bezahlt. Anders ist diese totale Ignoranz nicht erklärbar.. :D

https://youtu.be/YPzlzR5rRxA

Die bisher wahrscheinlich grindigste Ausührung von DRX. Ich seh beim besten willen keinen Unterschied ;)


add.: das ist ganz übel - meist schaut sogar OFF besser aus. Zb. bei 3:10

Ich glaube echt das ist verkehrt herum bezeichnet. Trotzdem ist der Unterschied eher marginal, ja.

ChaosTM
2020-10-24, 12:58:01
Leute die 700+ € für eine Grafikkarte in die Hand nehmen, spielen meist Hochauflösend und wollen die Karten länger als bis zum Konsolenlaunch ohne Abstriche verwenden können. Das ist noch nicht garantiert !
Möglicherweise reichen die 10, vielleicht aber auch nicht.
Der PC muss wohl (vorerst) das direkte, und vor allem sauschnelle Laden in den VRAM irgendwie kompensieren und am besten geht das mit viiel Speicher.

Abwarten ist derzeit die beste Lösung - dauert eh noch bis Cyberpunk .. ;)

Troyan
2020-10-24, 13:05:16
Kommt halt immer drauf an wie man das „ist hier“ definiert. Ob der „move“ sinnvoll ist, kommt ja durch die Masse/Industrie und da sehe ich das verwirklichen von RT in den Konsolen als sehr wichtigen Schritt. Und bei Echtzeit RT hw war NV nicht First Mover, aber es war der erste move der vom Rest der Industrie mitgetragen wird.

War bei Apple nicht anders. Pocket PC mit Windows gab es schon. Und Steve Ballmer hat sich über das iPhone sogar noch lustig gemacht.
Schlussendlich mussten dann alle Firmen reagieren.

Aussagen in dem Kontext, dass Konsolen bestimmen, ob Raytracing sich durchsetze, sind auf dem selben Niveau wie die Reaktion von Steve Ballmer. Raytracing in Spielen hat sich ohne den Einfluss von Konsolen etabiliert. Was jetzt folgt, ist ein Markt, der sich einfach mehr und mehr in diese Richtung bewegen wird und somit verschiedene technische Umsetzungen anstreben wird.

dargo
2020-10-24, 13:05:48
Hmm, ich will mich ja in diese Hardware-Glaubenskriege nicht einmischen, aber jetzt mal ehrlich, dargo. Ich schaue mir einfach an, mit was für Grafikkarten-Gurken ein Grossteil der heutigen Spieler in Spielen herumkrebst. Und dann soll eine GeForce RTX 3080, mal völlig losgelöst von der Verfügbarkeit, keine interessante Karte sein?

Nicht mit lächerlichen 10GB. Mit 16GB (geht nicht) oder halt 20GB sicherlich. Außer bei der Leistungsaufnahme, die finde ich zu hoch. Die 3070 mit 16GB wäre imho das beste Produkt von Ampere bisher. Nur wird es diese Karte jetzt doch nicht geben.


Ich würde ebenfalls behaupten, dass eine GeForce RTX 3080 den meisten Spielen in den kommenden 1-2 Jahren mehr als nur gewachsen sein wird. Da mag das eine oder andere Spiel mal ein Ausreisser sein - aber dann wird man halt exakt das gleiche machen, was die User doch eh schon seit eh und je machen. Dann dreht man halt ein wenig an den Reglern, so wie du bei der Textur-Reduzierung in HZD und gut ist.

Ich gebe doch keine 700€ aus (und selbst für diesen Preis gibt es nirgendwo eine 3080) um HZD mit low Texturen spielen zu dürfen. :freak: Zumal ich HZD bald für weniger Geld mit max. Texturen spielen darf.

teezaken
2020-10-24, 13:06:48
So habe nun auch endlich meine RTX 3090 FE und die Performance ist in normalen games exakt was ich wollte ca. x2 Performance zur 1080Ti, auf der anderen Seite sind selbst undervolted 378 Watt (1800MHz, 0,775V, -500MHz Memory) bei Volllast eine Ansage, auf den niedrigen Verbrauch meiner 1080ti bei exakt selber FPS und Szene komme ich nicht.

1080Ti 136Watt
3090 152 Watt

Zwar mega schade aber zumindest passt die Leistung.

jay.gee
2020-10-24, 13:07:13
Leute die 700+ € für eine Grafikkarte in die Hand nehmen, spielen meist Hochauflösend und wollen die Karten länger als bis zum Konsolenlaunch ohne Abstriche verwenden können. Das ist noch nicht garantiert !

Mit einer 2080ti musste man in 4K auch schon zum Release Abstriche machen. Das dürfte auch der Grund dafür sein, warum WQHD für viele Spieler der beste Sweetspot ist und auch wohl vorerst bleiben wird. Während laut Steam-Hard-Umfrage: September 2020 noch 65% der User in HD spielen.

HOT
2020-10-24, 13:09:38
jay.gee
Ich will das Thema hier nicht wieder aufmachen, aber das ist jetzt stellenweise knapp und wir haben noch keinen next-Gen-Titel gesehen.

Troyan
2020-10-24, 13:09:42
Dazu kommt, dass die wenigsten einen Monitor mit mehr als 60Hz in 4K haben. Ergo wird eher 1440p mit 144Hz+ gespielt. Wodurch also das Thema mit dem Speicher und Raytracing sich ebenfalls wieder umdreht.

pixeljetstream
2020-10-24, 13:20:28
War bei Apple nicht anders. Pocket PC mit Windows gab es schon. Und Steve Ballmer hat sich über das iPhone sogar noch lustig gemacht.
Schlussendlich mussten dann alle Firmen reagieren.

Aussagen in dem Kontext, dass Konsolen bestimmen, ob Raytracing sich durchsetze, sind auf dem selben Niveau wie die Reaktion von Steve Ballmer. Raytracing in Spielen hat sich ohne den Einfluss von Konsolen etabiliert. Was jetzt folgt, ist ein Markt, der sich einfach mehr und mehr in diese Richtung bewegen wird und somit verschiedene technische Umsetzungen anstreben wird.
Mit dem letzten Satz stimme ich Dir zu, aber imo sind das verschiedene Situationen die Du beschreibst, einmal consumer produkte in eigenstaendigen Oekosystemen. Ein DXR von MS haette es wohl kaum gegeben wenn sie nicht die langfristige Absicht gehabt haetten das auch auf den neuen Konsolen zu haben. Ein Mitlaufen ist fuer mich wenn die anderen ohne Nachdenken etwas uebernehmen, Meinungen etc. In diesem Fall haben aber mehrere ueber den Sachverhalt nachgedacht und sind diese Entscheidung mitgegangen, auch wenn klar sein sollte das NV da mehr Investitionen reinlegte den Stein ins Rollen zu bringen, ohne die Akzeptanz und Anerkennung geht es in diesem Markt nicht. Weswegen man imo erst von Etablieren sprechen kann wenn es mehr als eine Platform ist, was ja mit diesem Winter fuer alle ersichtlich eintritt.

HOT
2020-10-24, 13:25:36
NV ist das Risiko der Erstimplementierung eingegangen, das verdient Anerkennung, und AMD hat das Thema für PC nicht so ernst genommen, bis N31 offenbar.

jay.gee
2020-10-24, 13:32:18
jay.gee
Ich will das Thema hier nicht wieder aufmachen, aber das ist jetzt stellenweise knapp und wir haben noch keinen next-Gen-Titel gesehen.

Dito - aber das ist doch jetzt nicht das erste mal, dass der einer oder andere hier einen Generationen-Wechsel in Sachen Hardware erlebt. Wenn sich jetzt ernsthaft jemand eine Graka für die nächsten 3-5 Jahre anschaffen möchte, dann könnte ich zahlreiche Argumente ja noch nachvollziehen.

Aber ich gehe davon aus, dass die meisten Spieler auch in den nächsten ~zwei Jahren maximal in WQHD spielen werden und dass echte NextGen-Spiele auch erst in den nächsten Jahren folgen werden. Ohne die Konsolen jetzt bashen zu wollen, aber was das nächste Jahr angeht, sehe ich die kommenden Spiele auf den Konsolen auf dem Level der LastGen-PCs. Soll heissen, dass man da jetzt wohl kaum noch 30 FPS Krücken ertragen muss und man darüber hinaus deutlich weniger Kompromisse eingehen muss, als in der Vergangenheit.

Das Spiele-Lineup für das nächste Jahr ist doch weitestgehend bekannt und ich sehe da am Horizont keine Software, die alles auf den Kopf stellen wird. Wer sich also eine RTX 3080 holt, diese in den kommenden Monaten mit einer guten CPU kombiniert, vielleicht noch über den Luxus eines Gsync-Monitors verfügt, dürfte vorerst sehr gut aufgestellt sein. Besonders wenn man dann noch Features wie DLSS nicht konsequent ignoriert. Und wer weiss schon, was in 1-2 Jahren ist? Ich brauche nicht mal eine Nachrichtensendung zu gucken, um zu verstehen, dass alles was zählt, das hier und jetzt ist.

HOT
2020-10-24, 13:34:32
jay.gee
Man kann das relativieren, das ändert aber nichts an den Tatsachen. Die Konsolen mögen noch lange nicht ausgereizt sein, aber sie haben ja schon jetzt doppelt soviel VRAM zur Verfügung und hinzu kommt noch DirectStorage. Es geht gar nicht so sehr um die Leistung der Konsolen, sondern um das, was mit dem Speicher möglich ist, und das ist jetzt verdammt viel mehr als 2013. Es ist doch klar, dass auch diese Generation wieder einen echten Boost auslösen wird für die Entwickler. Ich sag ja, wir haben noch kein next-gen-Spiel gesehen. Wenn das kommt unterhalten wir uns weiter. Und möchstes du anmerken, dass du die 3080 für eine WQHD-Karte hälst?

Slipknot79
2020-10-24, 13:37:14
Wie kann man einerseits eine Firma für Innovation loben, die zum Ziel hat die Industrie vorwärts zu bringen, gleichzeitig es ab tun oder als unwichtig darstellen wenn die Industrie positiv darauf reagiert. Wäre Exklusivität das Ziel würde man eigene Konsolen bauen, eigene APIs etc. Das die anderen Firmen mitgehen und ihre eigenen Herangehensweisen bringen ist wichtiger Teil des Fortschritts für alle. Das wir mit NV, AMD, Intel und Apple vier Player in dem Bereich der Technik haben nützt allen, weil (selbst dann wenn einer mehr ausgibt) man immer vom Gesamtinvestment aller profitiert. Die unterschiedlichen Architekturen, Entscheidungen etc. sind immer nützlich für alle. So wie in der Wissenschaft der Diskurs über verschiedene Algorithmen etc. läuft, ist das bei der Technik nicht anders.

Die Designs sind zu unterschiedlich um hier über Mitläufer zu reden, jeder muss die Probleme für seine Architektur lösen. Das Du und andere das nicht anerkennen, zeigt dass es nicht um die Technik geht sondern halt reines Fan Gehabe. Der Tadel macht das Lob wertlos.



Canst du nen Blutdruckmessgerät mit Pulsmessfunktion an Lederjacke klemmen und zu uns live streamen? Wir wollen sehen, ob es einen Zusammenhang gibt zwischen Big Navi-Leak-Tweets und seinen Werten damit wir moar zum Spekulieren bekommen. :redface:

ChaosTM
2020-10-24, 13:37:33
Die 1080ti hat 3 Jahre gehalten. Beim Nachfolger rechen ich eher mit 5 Jahren, da sich die Entwicklung weiter verlangsamen wird. Von daher ist der Speicher FÜr MICH sehr wichtig. Ich traue nicht mal 16GB so ganz über den Weg um ehrlich zu sein.

jay.gee
2020-10-24, 13:43:41
jay.gee
Man kann das relativieren, das ändert aber nichts an den Tatsachen. Oder möchstes du anmerken, dass du die 3080 für eine WQHD-Karte hälst?

Ja, ich halte die 3080 für eine sehr gute WQHD-Karte und mit Abstrichen auch für eine sehr gute 4k-Karte. Speziell deshalb, ist die Karte im Zusammenhang gelesen, auch alles andere als uninteressant. Nur die wenigsten Spieler werden kurz- oder mittelfristig auf 4k wechseln.

Und wer zukünftig in 4K + RT spielen möchte, wird aus meiner Sicht immer wieder auf Spiele treffen, in denen man irgendwo Kompromisse eingehen muss. Daran werden weder die kommenden Radeon-Karten, noch eine 3090 etwas ändern.

EDIT/

Wenn das kommt unterhalten wir uns weiter.

Klar, aber bis dato werden wir uns aber auch wieder über andere Grafikkarten unterhalten.

BlacKi
2020-10-24, 13:47:23
Dito - aber das ist doch jetzt nicht das erste mal, dass der einer oder andere hier einen Generationen-Wechsel in Sachen Hardware erlebt. Wenn sich jetzt ernsthaft jemand eine Graka für die nächsten 3-5 Jahre anschaffen möchte, dann könnte ich zahlreiche Argumente ja noch nachvollziehen.

Aber ich gehe davon aus, dass die meisten Spieler auch in den nächsten ~zwei Jahren maximal in WQHD spielen werden und dass echte NextGen-Spiele auch erst in den nächsten Jahren folgen werden. Ohne die Konsolen jetzt bashen zu wollen, aber was das nächste Jahr angeht, sehe ich die kommenden Spiele auf den Konsolen auf dem Level der LastGen-PCs. Soll heissen, dass man da jetzt wohl kaum noch 30 FPS Krücken ertragen muss und man darüber hinaus deutlich weniger Kompromisse eingehen muss, als in der Vergangenheit.

Das Spiele-Lineup für das nächste Jahr ist doch weitestgehend bekannt und ich sehe da am Horizont keine Software, die alles auf den Kopf stellen wird. Wer sich also eine RTX 3080 holt, diese in den kommenden Monaten mit einer guten CPU kombiniert, vielleicht noch über den Luxus eines Gsync-Monitors verfügt, dürfte vorerst sehr gut aufgestellt sein. Besonders wenn man dann noch Features wie DLSS nicht konsequent ignoriert. Und wer weiss schon, was in 1-2 Jahren ist? Ich brauche nicht mal eine Nachrichtensendung zu gucken, um zu verstehen, dass alles was zählt, das hier und jetzt ist.


du bist schon mitten im grabenkrieg. da wird ein kaputtes game herangezogen und auf die zukunft projeziert. den krieg kannst du nicht gewinnen.



imho werden entwickler das nutzen was vorhanden ist. die 3070 wird mit 8gb kommen und die spiele werden größtenteils sehr gut darauf laufen. warum? weil die entwickler sich nicht selbst ins bein schießen. dasselbe gilt für die xbox ss mit 8+2gb. es passt gewissen leuten einfach nicht ins gedankengut, deshalb wird das ignoriert. da werden dann kaputte ports herangezogen, weil sie verzweifelt sind.

die 16/20gb 3070/80 wäre wohl das einzigste was einer 8/10gb karte gefährlich werden könnte. wenn die verkaufszahlen der 10gb variante sehr gering bleiben, oder gar eingestellt werden, dann wirds gefährlich für die kleinen.

Fragman
2020-10-24, 13:48:31
Bei 5 Jahren tendiert man ja eher zu sagen, das 10GB reichen, da dann sicher auch DirectStarage Verwendung finden wird. Am Ende ists aber Kaffeesatzleserei und es wird keiner gezwungen 10GB zu kaufen. Sollten 16GB nötig sein, fallen sowieso alle Karten mit weniger hinten runter und wir können die aktuelle Gen komplett skippen, dank der schlechten Verfügbarkeit bis mindestens weit ins nächste Jahr rein. Was die Karten als Nebeneffekt auch noch teurer werden läßt, als es auf dem offiziellen Papier steht. Da ist der Ram dann auf einmal wieder die geringste Sorge.

horn 12
2020-10-24, 13:48:40
für WQHD langte doch schon eine Radeon VII locker.

Slipknot79
2020-10-24, 13:56:46
Ich bin auch der Meinung, dass es für 4k60 immer noch zu früh ist. Es werden Spiele rauskommen die die 3080 und 3090 in die Knie zwingen werden, vorallem mit RTXon.
Würde aber eher sagen, dass die 3080 und 3090 ideale UWQHD Karten sind.
WQHD ist für Spieler mit begrenztem Horizont *hust* nananana, wer wird denn da gleich doppeldeutig denken, ok das war jetzt böse :redface: Meine aber natürlich das Format und die damit einhergehende Auflösung 3440x1440.

BlacKi
2020-10-24, 14:00:42
Ich bin auch der Meinung, dass es für 4k60 immer noch zu früh ist. Es werden Spiele rauskommen die die 3080 und 3090 in die Knie zwingen werden, vorallem mit RTXon.
Würde aber eher sagen, dass die 3080 und 3090 ideale UWQHD Karten sind.
WQHD ist für Spieler mit begrenztem Horizont *hust* nananana, wer wird denn da gleich doppeldeutig denken, ok das war jetzt böse :redface:
und ich hab hier 4k120 auf einer 2070s am laufen. zur not gibts screenscale und dlss. es gibt doch mit hdmi2.1 keinen grund mehr nicht mehr diese auflösung zu betreiben.

aufkrawall
2020-10-24, 14:06:43
Gibts in zig Spielen nicht oder beschissen.
Btw. brauchen FC5/ND mit dem eingebauten Resolution Scale-Feature noch viel mehr VRAM als ohne. ;D

Slipknot79
2020-10-24, 14:08:48
Klar mit Abstrichen und Biegen und Brechen ged auch 4k120 und mit "alten" Spielen oder Indiegames sowieso, packen wir doch mal Unreal 2 oder Quake 2 raus. Ist aber etwas am Thema vorbei. Kaufen wir uns eben ausnahmslos alle ne 2070s und schon ged 4k120.
Spätestens bei aktuellen AAA Games und RTXon siehts dann doch ganz anders aus. Witcher 3 mit dem kommenden RTX Update und ohne DLSS in 4k120, alles max, das bezweifle ich.
Enthusiasten die "es wissen wollen" werden jedenfalls keine 4k60 erhalten. :redface:

WedgeAntilles
2020-10-24, 14:12:29
Hmm, ich will mich ja in diese Hardware-Glaubenskriege nicht einmischen, aber jetzt mal ehrlich, dargo. Ich schaue mir einfach an, mit was für Grafikkarten-Gurken ein Grossteil der heutigen Spieler in Spielen herumkrebst. Und dann soll eine GeForce RTX 3080, mal völlig losgelöst von der Verfügbarkeit, keine interessante Karte sein?

Ich würde ebenfalls behaupten, dass eine GeForce RTX 3080 den meisten Spielen in den kommenden 1-2 Jahren mehr als nur gewachsen sein wird. Da mag das eine oder andere Spiel mal ein Ausreisser sein - aber dann wird man halt exakt das gleiche machen, was die User doch eh schon seit eh und je machen. Dann dreht man halt ein wenig an den Reglern, so wie du bei der Textur-Reduzierung in HZD und gut ist.

Und bis sich NextGen auf den Konsolen mal richtig entfalten wird, steht doch längst die nächste GrakaGeneration in den Startlöchern.
Ach, Dargo erzählt sehr gerne jedem, was derjenige zu brauchen und gut zu finden hat.

Eine 3080 mit 10GB ist auch in 3 Jahren noch weit über dem, was der Durchschnittsgamer in der Kiste hat.
Selbstverständlich wirst du mit ner 3080 jahrelang super zocken können.
Es kommt natürlich auf die eigenen Anforderungen an - die 10GB können da zweifellos knapp werden.
Wenn eine etwas schwächere Textur also für einen der Weltuntergang ist, sind die 10GB zu knapp.

Da ja HZD angesprochen wird - das gönnt sich ja auch mal über 16GB Vram. Soll man also zwingend auf 20GB Karten gehen? Ach ne, natürlich nicht, dann müsste man ja auf ne Nvidia Karte gehen^^
Ein mieser Konsolenport ist hier halt gerne das Aushängeschild für das, was man brauchen "muss".

Natürlich sind mehr Speicher besser. Die Frage ist halt, was es für Alternativen gibt. "Mehr" gibt es ja nicht umsonst.
Das dann mit den eigenen Ansprüchen kombiniert kann als Ergebnis eine 3080 mit 10GB selbstverständlich das sinnvollste Produkt sein.

Wenn wir die genauen Daten von BigNavi kennen (vor allem auch den Preis) kann sich da natürlich noch mal einiges durcheinander würfeln.

dargo
2020-10-24, 14:16:55
imho werden entwickler das nutzen was vorhanden ist. die 3070 wird mit 8gb kommen und die spiele werden größtenteils sehr gut darauf laufen. warum? weil die entwickler sich nicht selbst ins bein schießen.
Genau... deshalb reichen 8GB in 1440p bei Marvel's Avengers 2020 mit dem High Resolution Texturenpaket nicht mehr aus. :rolleyes: Über die Sinnhaftigkeit von diesem Texturepack lässt sich sicherlich streiten. Über die 8GB der 3070 garantiert nicht.

BlacKi
2020-10-24, 14:19:49
Klar mit Abstrichen und Biegen und Brechen ged auch 4k120 und mit "alten" Spielen oder Indiegames sowieso, packen wir doch mal Unreal 2 oder Quake 2 raus. Ist aber etwas am Thema vorbei. Kaufen wir uns eben ausnahmslos alle ne 2070s und schon ged 4k120.
Spätestens bei aktuellen AAA Games und RTXon siehts dann doch ganz anders aus. Witcher 3 mit dem kommenden RTX Update und ohne DLSS in 4k120, alles max, das bezweifle ich.
Enthusiasten die "es wissen wollen" werden jedenfalls keine 4k60 erhalten. :redface:
sry, aber das ist ein trollpost von dir. es ging immer schon um das verhältnis beste grafik vs beste performance. da war alles max noch nie zielführend. wenn ich mich zwischen 1080p am besten noch mit taa auf ultra und 4k 60-120fps mit angepassten einstellungen entscheiden müsste, dann wüsste ich was besser aussieht.


alles max? wofür?

Über die Sinnhaftigkeit von diesem Texturepack lässt sich sicherlich streiten.
dann lass es doch einfach sein.

Slipknot79
2020-10-24, 14:27:11
Du wirst in Witcher 3 mit dem RTX Update auch mit nicht eins unter "alles max" halbwegs dauerhaft deine 4k120 erreichen.
Mit zukünftigen Spielen wird es noch anspruchsvoller.

Schreibst aber schon etwas wirr, erst geht es dir um 4k120 mittels HDMI 2.1, und nun ziehst du optionale 1080p in Erwägung? Oo

Ex3cut3r
2020-10-24, 14:28:10
8GB schon und gut. Wäre ok, wenn eben keine neue Konsolen Gen vor der stünde, die einfach mal doppelten Speicher wie die alte zur Verfügung hat. Des weiteren gibt es mal wieder PC Spiele die mit Ultra Texturen alles erdenkliche an VRAM sprengen. In der der Vergangenheit war das Rise of the Tomb Raider ( der zweite Teil) HZD, Final Fantasy Teil X (vergessen) Wolfeinstein und Doom der Fall wo 8GB ab 4K sehr sehr knapp waren. So wie das neue Marvel Spiel (was aber eh ein Kack Spiel ist) Du brauchst am PC immer einen gewissen Puffer, weil manche Entwickler einfach nur grottig programmieren. Mit auf Kante genähten VRAM ist dann bald sowieso Schluss. Und wer 8GB sich ende 2020 andrehen lässt, versteht sowieso nicht viel von Technick, und wird sowieso nächstes Jahr wieder neu kaufen.

Von daher alles gut. Ich kaufe jedenfalls nix mit 8 oder 10GB. Den Fehler habe ich 2013 gemacht. GTX 770 mit 2GB im Sommer 2013 gekauft.
Schon 2014 hatte ich nicht genug VRAM für Far Cry 4, Ass Unity und Dying Light und das in FHD. Ich mache keinen Fehler 2xmal sry Nvidia. ;D

Hakim
2020-10-24, 14:28:53
HisN hats doch gezeigt, Warzone zieht auf einer 3090 21 GB vram, demnach ist alles mit weniger als 21 GB nicht zukunftssicher :)

BlacKi
2020-10-24, 14:28:54
Schreibst aber schon etwas wirr, erst geht es dir um 4k120 mittels HDMI 2.1, und nun ziehst du optionale 1080p in Erwägung? Oo
nur weil du nicht verstehen willst worum es mir geht. wenn du es nichtmal versuchst, dann endet unsere diskussion einfach hier.

8GB schon und gut. Wäre ok, wenn eben keine neue Konsolen Gen vor der stünde, die einfach mal doppelten Speicher wie die alte zur Verfügung hat. Des weiteren gibt es mal wieder PC Spiele die mit Ultra Texturen alles erdenkliche an VRAM sprengen. In der der Vergangenheit war das Rise of the Tomb Raider ( der zweite Teil) HZD, Final Fantasy Teil X (vergessen) Wolfeinstein und Doom der Fall wo 8GB ab 4K sehr sehr knapp waren. So wie das neue Marvel Spiel (was aber eh ein Kack Spiel ist)
hab ich vorhin schon angeführt. die next gen hat 8+2gb. und nicht 16gb.

HisN hats doch gezeigt, Warzone zieht auf einer 3090 21 GB vram, demnach ist alles mit weniger als 21 GB nicht zukunftssicher :biggrin:

Slipknot79
2020-10-24, 14:30:26
Ich habe schon verstanden und deine Wirrheit aufgezeigt, passt schon, kann passieren. Für mich auch EOD.

BlacKi
2020-10-24, 14:31:40
warum ist das für dich bitteschön wirr? wieso sind 1080p als vergleich nicht angebracht?

bbott
2020-10-24, 15:05:04
Er wird ganz offensichtlich von NV bezahlt. Anders ist diese totale Ignoranz nicht erklärbar.. :D

https://youtu.be/YPzlzR5rRxA

Die bisher wahrscheinlich grindigste Ausührung von DRX. Ich seh beim besten willen keinen Unterschied ;)


add.: das ist ganz übel - meist schaut sogar OFF besser aus. Zb. bei 3:10

RT ist ganz nett, aber mich stören viele Dinge viel mehr Aufgeklebte Gulli Deckel, eckige Rohre. Im Spiel bewegt man sich in der Regel und der Effekt ist mehr in Screenshots zu sehen als bei Bewegten Bildern. Die klassische Beleuchtung ist mMn so gut, dass RT den Performanceverlust (derzeit) nicht rechtfertigt.

Troyan
2020-10-24, 15:06:23
Da RT sieht vorallem in Bewegung besser aussieht. Aber wenn du SSAO, Schatten, SSR etc deaktivierst, dann stimmt deine Aussage.

Cyberfries
2020-10-24, 16:33:50
Dieses peinliche Fanboy-Gehabe - muss das sein? Tragt eure Grabenkämpfe doch anderswo aus.
Also ich denke auch, dass NV sich nicht ausruht und das Chaosportfolio korrigieren wird in 2021. Dazu sind aber auch neue Chips nötig, deshalb geht das erst spät. NV bräuchte neben dem GA103, der ja primär zu Kostenreduktion und Yieldverbesserung dient, auch noch einen neuen Top-Dog.

Jopp, sehe ich genauso.
Die Frage ist: wieviel geht und in welcher Fertigung?
Ein Ga102b in 7nm (Samsung) könnte schon reichen, sollte schneller bereit sein als eine komplett neue Karte.
Ergänzt um den Ga103 in 7nm, als Benennung würde ich 33xx vorschlagen:

Benennung|Chip|SM|Takt|TFlops|Speicher|Vorgänger|Gewinn
RTX 3390|Ga102b (7nm)|82sm|1,85 GHz|38,84|24gb|RTX 3090|+9%
RTX 3380|Ga103 (7nm)|66sm|1,85 GHz|31,26|20gb|RTX 3080|+5%
RTX 3375|Ga103 (7nm)|54sm|1,8 GHz|24,88|16gb|RTX 3070|+22%
RTX 3070|Ga104 (8nm)|46sm|1,73 GHz|20,37|8gb|RTX 2080 Ti
RTX 3060|Ga104 (8nm)|38sm|1,7 GHz|16,54|8gb|RTX 2080 Super


Eine etwas konservativere Einschätzung ohne großes Leistungsplus, doch mit Minderverbrauch
durch bessere Fertigung und einfacher statt doppelter Speicherbestückung bei der 3390.
Der 3380 hilft der kleinere Chip und ein simpleres PCB.
In jeder Hinsicht ein kleines Stückchen besser zu werden kann gegen AMD vielleicht schon den Unterschied machen.

Fragman
2020-10-24, 16:56:28
Wenn nv jetzt wirklich alles neu macht in kleinerem Prozess, dann werden sie bei der Leistung entsprechend draufpacken. Sollte mich nicht wundern, wenn man bei 25 Prozent und mehr landet.
Die werden jetzt nicht nochmal sowas machen. Also wenn sie das machen. 😁

HOT
2020-10-25, 00:42:34
Machen die natürlich nicht und GA103 ist eh 8N. Wenn man schon einen Chip neu macht in einer neuen Fertigung gibt's keine Ersparnis, nur weil er sie gleichen Eckdaten hat, dann wird das ein neuer Chip mit neuen Eckdaten. Wie gesagt ist die Entwicklung auch schwieriger. Während der 8N GA103 so im April zu erwarten ist, eben ein Chip mit neuen Eckdaten aber bisheriger Fertigung, würde ein 7nm Chip auf jeden Fall bis weit ins 2. Halbjahr dauern, da man vie mehr Basisarbeit reinstecken müsste. So eine Entwicklung dauert eben, wenn man derart grundsätzlich neu anfangen müsste wie bei der Fertigung.

Die 3000er Serie wäre in so einem Fall aber definitiv verbrannt, in dem Fall braucht das Ganze aus Marketingsicht definitiv einen neue Namen.

Nazar
2020-10-25, 00:52:52
Er wird ganz offensichtlich von NV bezahlt. Anders ist diese totale Ignoranz nicht erklärbar.. :D

https://youtu.be/YPzlzR5rRxA

Die bisher wahrscheinlich grindigste Ausührung von DRX. Ich seh beim besten willen keinen Unterschied ;)


add.: das ist ganz übel - meist schaut sogar OFF besser aus. Zb. bei 3:10

Lol, haben die RTX off und on verwechselt? In dem Raum mit dem großen Ventilator an in der Decke, sieht RTX off sogar viel realistischer aus. :freak:
Ich sag es ja, die Effekte durch RZ wurden so gut optimiert, dass es schwer wird RT, wenn es natürlich wirken soll, deutliche optische Vorteile anzudichten. :wink:

Mit einer 2080ti musste man in 4K auch schon zum Release Abstriche machen. Das dürfte auch der Grund dafür sein, warum WQHD für viele Spieler der beste Sweetspot ist und auch wohl vorerst bleiben wird. Während laut Steam-Hard-Umfrage: September 2020 noch 65% der User in HD spielen.

Da komme ich nicht mehr mit.
Immer bessere BQ immer mehr Ansprüche (RT) aber eine 3080 mit weniger Speicher als bei einer 2080ti ist zukunftssicher? :confused:
Selbst nV ist klar geworden, dass das nicht so ist und würde die Produktion des 6X Speichers nicht so stocken, hätte es vermutlich auch nie eine 3080 mit weniger als 20GB gegeben. :wink:

PrinceGSC
2020-10-25, 08:31:06
Wenn nv jetzt wirklich alles neu macht in kleinerem Prozess, dann werden sie bei der Leistung entsprechend draufpacken. Sollte mich nicht wundern, wenn man bei 25 Prozent und mehr landet.
Die werden jetzt nicht nochmal sowas machen. Also wenn sie das machen. 😁

Also bei dem besten Willen kann ich mir das nicht vorstellen. Die benötigen auf neuer NanoMeter Ebene sonst zwei Jahre um ihr Produkt perfekt(mehr oder weniger) abzustimmen, diesmal ist es eben nicht so gut bei NV gelungen wie sie sich erhofft haben und werden von AMD (eventuell) eingeholt/überholt bei der rohen Grafikleistung.
Jetzt merken sie das ein Upgrade des Speichers alleine nicht reichen wird und canceln diese Pläne, um kommendes Frühjahr eine bspw 3080 super zu bringen um besser in Schlagdistanz zu AMD(alles hypothetisch, wir kennen die Leistung ja nicht wirklich)zu kommen und du glaubst das die beim Wechsel auf 7NM innerhalb 4-5 Monate direkt 25% zulegen?
Ich glaube kaum das die sagen können, Samsung 8NM Chip raus und TSMC 7NM Chip rein und wir haben 25% mehr Leistung, mal davon abgesehen das die dann beim Sprung von 2080 zu 3080 super in 4K einen Sprung machen würden von über 100% leistung(aktuell im Schnitt ja 70-75%). Wenn dies so einfach wäre, wären sie nie bei TSMC weg.
Da bedarf es viel Arbeit und klar sie kennen den Chip von ihrer GA100 aber die Architektur muss angepasst werden und ich kann mir nicht vorstellen das dies in so kurzer Zeit geschieht.

Ich lass mich aber gern eines besseren belehren 👍😉

Cyberfries
2020-10-25, 09:05:02
Zum Zeitrahmen:
Das Ga103 (alt) gestrichen wurde, haben wir im Mai erfahren, (https://twitter.com/kopite7kimi/status/1260897297065365504) die Entscheidung wird früher gefallen sein.
Das sind 12 Monate (oder mehr) an Entwicklungszeit für den neuen Ga103 und einen möglichen Ga102b.
Für die Anpassung an einen neuen Prozess sollte das reichen, aber nicht für eine größere Architekturüberarbeitung.

Problem ist der Verbrauch - nicht absolut, doch die zusätzliche Energie spiegelt sich nicht in Leistung wieder.
Ausgehend von der 3080-Effizienz @270w (1,15pp/w) sollte eine 3090 @350w
eher Richtung 400% 3dc-Index gehen (statt 364%). (Milchmädchenrechnung)
Wenn das durch einen neuen Prozess geradegerückt werden kann, ist kein Ga111 nötig.

Ich glaube kaum, dass nVidia ihre 3000-Serie "verbrennen" will durch eine 4000-Serie,
da erscheint mir 3000 Super oder 3300 als sinnvoller.

Monsta
2020-10-25, 09:14:17
Wenn die News stimmt das Nvidia den 02er Chip in eine 3070 Ti steckt.

Dann ist da was gehörig schief gelaufen. Bei Touring wurde mit dem Top Dog 1.5K aufgerufen und jetzt 600€ ?

Das wird sich Nvidia sicher nicht 2 Jahre antun. Die werden vorher was machen müssen.

HOT
2020-10-25, 09:36:36
Zum Zeitrahmen:
Das Ga103 (alt) gestrichen wurde, haben wir im Mai erfahren, (https://twitter.com/kopite7kimi/status/1260897297065365504) die Entscheidung wird früher gefallen sein.
Das sind 12 Monate (oder mehr) an Entwicklungszeit für den neuen Ga103 und einen möglichen Ga102b.
Für die Anpassung an einen neuen Prozess sollte das reichen, aber nicht für eine größere Architekturüberarbeitung.

Problem ist der Verbrauch - nicht absolut, doch die zusätzliche Energie spiegelt sich nicht in Leistung wieder.
Ausgehend von der 3080-Effizienz @270w (1,15pp/w) sollte eine 3090 @350w
eher Richtung 400% 3dc-Index gehen (statt 364%). (Milchmädchenrechnung)
Wenn das durch einen neuen Prozess geradegerückt werden kann, ist kein Ga111 nötig.

Ich glaube kaum, dass nVidia ihre 3000-Serie "verbrennen" will durch eine 4000-Serie,
da erscheint mir 3000 Super oder 3300 als sinnvoller.
Reicht es nicht, es gibt keine Anpassung im neuen Prozess. Das ist ein neuer Chip auf einem neuen Prozess. Du muss von vorne anfangen, du kannst keinen alten Chip dafür nehmen. Deswegen gibts ja keine Shrinks mehr, das geht einfach nicht mehr.

AffenJack
2020-10-25, 10:16:54
Zum Zeitrahmen:
Das Ga103 (alt) gestrichen wurde, haben wir im Mai erfahren, (https://twitter.com/kopite7kimi/status/1260897297065365504) die Entscheidung wird früher gefallen sein.
Das sind 12 Monate (oder mehr) an Entwicklungszeit für den neuen Ga103 und einen möglichen Ga102b.
Für die Anpassung an einen neuen Prozess sollte das reichen, aber nicht für eine größere Architekturüberarbeitung.

GA103 wurde nicht gestrichen. Kopite hat seine Meinung revidiert. In meinen Augen kriegst du damit auch ein stimmiges Bild.
Es gibt keinen TSMC 7nm Refresh, sondern GA103 war immer der TSMC Backup. Deswegen die Gerüchte zu TSMC. Man refresht bestimmt nicht nen größeren Teil des Lineups, aber GA103 kommt bei TSMC. Deswegen braucht man da auch größere Wafermengen. Ich schätze März/April werden wir den sehen und Nvidia wird die 3080 mit GA102 einstampfen.

Cyberfries
2020-10-25, 10:42:14
Deswegen gibts ja keine Shrinks mehr, das geht einfach nicht mehr.

Bei gleichen Designrichtlinien? Siehe GF 14nm -> 12nm oder TSMC 7nm -> 6nm.
Bei einem Shrink würde ich auch einen geringeren Zeitrahmen ansetzen.
edit: War wohl missverständlich.
8nm->7nm ist kein Shrink, deshalb auch mehr Zeitbedarf als bei einem Shrink nötig wäre.

Ampere wurde langezeit auf Samsung 7nm EUV vermutet, nicht auszuschließen
dass eine gewisse Zeit Vorüberlegungen in der Hinsicht stattfanden, die bei einer Umsetzung jetzt helfen.
Robbitopp hat vor 160 Seiten (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12416824&postcount=10370) mal eine Einschätzung zu Zeiträumen gegeben.
Sagen wir also, nVidia hat Ende 2019 ein Problem erkannt und umgehend reagiert.... Q2/Q3 2021?

GA103 wurde nicht gestrichen. Kopite hat seine Meinung revidiert.
Es gibt keinen TSMC 7nm Refresh, sondern GA103 war immer der TSMC Backup.

Kopite hat seine Meinung nicht "revidiert", die Aussage ist, (https://twitter.com/kopite7kimi/status/1302610796623478792) dass es ein anderer Chip sei.
An TSMC glaube ich nicht, da ist kein Platz mehr. Dann noch eher Samsung 7nm EUV. Oder schlicht 8nm++.

Fragman
2020-10-25, 11:24:03
Also bei dem besten Willen kann ich mir das nicht vorstellen. Die benötigen auf neuer NanoMeter Ebene sonst zwei Jahre um ihr Produkt perfekt(mehr oder weniger) abzustimmen, diesmal ist es eben nicht so gut bei NV gelungen wie sie sich erhofft haben und werden von AMD (eventuell) eingeholt/überholt bei der rohen Grafikleistung.
Jetzt merken sie das ein Upgrade des Speichers alleine nicht reichen wird und canceln diese Pläne, um kommendes Frühjahr eine bspw 3080 super zu bringen um besser in Schlagdistanz zu AMD(alles hypothetisch, wir kennen die Leistung ja nicht wirklich)zu kommen und du glaubst das die beim Wechsel auf 7NM innerhalb 4-5 Monate direkt 25% zulegen?
Ich glaube kaum das die sagen können, Samsung 8NM Chip raus und TSMC 7NM Chip rein und wir haben 25% mehr Leistung, mal davon abgesehen das die dann beim Sprung von 2080 zu 3080 super in 4K einen Sprung machen würden von über 100% leistung(aktuell im Schnitt ja 70-75%). Wenn dies so einfach wäre, wären sie nie bei TSMC weg.
Da bedarf es viel Arbeit und klar sie kennen den Chip von ihrer GA100 aber die Architektur muss angepasst werden und ich kann mir nicht vorstellen das dies in so kurzer Zeit geschieht.

Ich lass mich aber gern eines besseren belehren 👍😉

Das war auch nicht ganz ernst gemeint. ;)
Wir müssen erst einmal abwarten, was das Problem ist und ob nv gewillt ist, oder es denen möglich ist, das zu lösen.

Die Verfügbarkeit wird sehr schlecht bleiben. Laut nv selbst bis ins nächste Jahr rein. Bei den bisherigen Liefermengen behauptet nv ja immer noch, das die Nachfrage so hoch ist, obwohl eindeutig die Menge der Karten, die sie liefern können, sehr niedrig ist (Igor meinte aber, das sich das in einem Monat bessert?).
Dazu die Streichung der Versionen mit mehr Speicher. Das ist das was wir wissen.

Da kommen dann natürlich schnell Spekulationen auf, das man die Chips neu auflegt. TSMC kam ja gerüchteweise als Partner ins Spiel.

Vielleicht ists am Ende auch sehr einfach. Nv konnte die Produktion bereits hochfahren, braucht aber 2 Monate länger um liefern zu können. Um entsprechende Mengen sicher zu stellen hat man die Versionen mit mehr Speicher vorerst ausgesetzt.
Die könnte man nachliefern, wenn sich Angebot und Nachfrage mal im Gleichgewicht halten.

Ich darf aber nicht soviel Salz essen, wie für diesen Text nötig wäre. :biggrin:

HOT
2020-10-25, 11:55:02
Bei gleichen Designrichtlinien? Siehe GF 14nm -> 12nm oder TSMC 7nm -> 6nm.
Bei einem Shrink würde ich auch einen geringeren Zeitrahmen ansetzen.

Ampere wurde langezeit auf Samsung 7nm EUV vermutet, nicht auszuschließen
dass eine gewisse Zeit Vorüberlegungen in der Hinsicht stattfanden, die bei einer Umsetzung jetzt helfen.
Robbitopp hat vor 160 Seiten (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12416824&postcount=10370) mal eine Einschätzung zu Zeiträumen gegeben.
Sagen wir also, nVidia hat Ende 2019 ein Problem erkannt und umgehend reagiert.... Q2/Q3 2021?



Kopite hat seine Meinung nicht "revidiert", die Aussage ist, (https://twitter.com/kopite7kimi/status/1302610796623478792) dass es ein anderer Chip sei.
An TSMC glaube ich nicht, da ist kein Platz mehr. Dann noch eher Samsung 7nm EUV. Oder schlicht 8nm++.

7LPP ist ein komplett neuer Prozess mit komplett neuen Designrichtlinien und mit Integration von EUV. 8LPP ist der Endpunkt für die 10nm- (und DUV-)Generation von Samsung, wie 11LPP für die 14nm-Generation.
7LPP ist der Start der 7nm-Generation bei Samsung und 4LPP ist dessen voraussichtlicher Endpunkt. Wenn es einen Chip in 7LPP gibt, ist der komplett neu designt und in dem Falle würd ich gleich 8 GPCs nehmen mit 12SM. Wenn NV sowas macht, dauert das wie gesagt aber noch lange. Refreshes in 7nm mit den gleichen Chips kann man einfach direkt wieder vergessen, der Aufwand wäre einfach zu groß. Wenn man sowas tatsächlich durchzieht, macht man das aus purer Not, deshalb ist die ganze 7nm Nummer eh total zweifelhaft.

dargo
2020-10-25, 12:02:55
dann lass es doch einfach sein.
Geht leider nicht, der Unterschied ist doch gewaltig.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12472536&postcount=77

Neben Horizon: Zero Dawn ein weiterer Titel wo 8GB Vram nicht durchgängig für beste Texturen reichen. AMD macht hinne... ich brauche BigNavi doch schneller als ich dachte. :cool:

btw.
11GB (2080TI) reichen ebenfalls nicht aus für Ultra Texturen. ;)
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12472552&postcount=78

HZD braucht nicht ansatzweise 8GB, zumindest hab ich das bisherig nicht messen können per "OSDGPU dedicated memory \ process" im RTSS.
:ulol3:

Check mal den HZD-Technik Thread. ;)

y33H@
2020-10-25, 12:12:09
HZD braucht nicht ansatzweise 8GB, zumindest hab ich das bisherig nicht messen können per "OSDGPU dedicated memory \ process" im RTSS.

PrinceGSC
2020-10-25, 12:25:48
Das war auch nicht ganz ernst gemeint. ;)
Wir müssen erst einmal abwarten, was das Problem ist und ob nv gewillt ist, oder es denen möglich ist, das zu lösen.

Die Verfügbarkeit wird sehr schlecht bleiben. Laut nv selbst bis ins nächste Jahr rein. Bei den bisherigen Liefermengen behauptet nv ja immer noch, das die Nachfrage so hoch ist, obwohl eindeutig die Menge der Karten, die sie liefern können, sehr niedrig ist (Igor meinte aber, das sich das in einem Monat bessert?).
Dazu die Streichung der Versionen mit mehr Speicher. Das ist das was wir wissen.

Da kommen dann natürlich schnell Spekulationen auf, das man die Chips neu auflegt. TSMC kam ja gerüchteweise als Partner ins Spiel.

Vielleicht ists am Ende auch sehr einfach. Nv konnte die Produktion bereits hochfahren, braucht aber 2 Monate länger um liefern zu können. Um entsprechende Mengen sicher zu stellen hat man die Versionen mit mehr Speicher vorerst ausgesetzt.
Die könnte man nachliefern, wenn sich Angebot und Nachfrage mal im Gleichgewicht halten.

Ich darf aber nicht soviel Salz essen, wie für diesen Text nötig wäre. :biggrin:

Vollkommen richtig, es ist und bleibt eh alles rätselraten und freuen uns darüber das es endlich wieder eine Konkurrenzsituation gibt. Dies kommt uns zugute und dann hat man endlich auch wieder die Wahl und es ist kein Monopol mehr vorhanden.

Jupiter
2020-10-25, 13:13:10
Grafik ohne Raytracing ist die letzte Generation. Wenn Raytracing auf einer Hardware langsam ist, bekommt man nur veraltete Grafik der letzten Generation. Da hilft mehr Speicher auch nicht. Da die Konsolen nur wenig Speicher haben und die meisten Spiele darauf ausgelegt sind, wird es auch kaum einzelne Effekte geben, welche jeweils 8 GB VRAM benötigen. Raytracing kann dagegen gut skaliert werden.

dargo
2020-10-25, 13:35:30
Grafik ohne Raytracing ist die letzte Generation. Wenn Raytracing auf einer Hardware langsam ist, bekommt man nur veraltete Grafik der letzten Generation.
Mal wieder Schwachsinn³, wie immer. :rolleyes:

Lastgen Grafik... :facepalm:

d8B1LNrBpqc

Jupiter
2020-10-25, 13:50:31
Ich sehe da keine Spiegelungen? Mit vielen SSR-Artefakten wird man dann in die letzte Generation zurück gezogen. Wenn wir schon Demos vergleichen.... Da sieht die Murmel-Demo von Nvidia zigfach besser und realistischer aus. Das ist nicht unterscheidbar von CGI-Filmen.

NgcYLIvlp_k

dargo
2020-10-25, 13:58:55
Zeig mir das gleiche noch mal im Outdoor mit der Detaildichte der UE5 Demo. :ulol3:

Jupiter
2020-10-25, 13:59:54
Gegen die Murmel-Demo sieht die UE Demo beleuchtungsmäßig wie vorletzte Generation aus.

Dieses Jahr wird Cyberpunk 2077 der bedeutsamste Titel und damit muss man sich messen. Wer hier die beste Grafik und gleichzeitig die höchste Bildrate hat, siegt.

dargo
2020-10-25, 14:13:47
Cyberpunk 2077 mit den Lastgen Assets nennst du die Messlatte? Sorry, aber diesen bullshit hält keiner mehr aus. ;D

Nextgen Grafik von Jupiter. :ulol4:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12462010&postcount=1700

Fragman
2020-10-25, 14:43:55
Die Unrealengine muss das erstmal liefern, in echten Spielen.
Wenn ich an die UE4 denke, dann ist das mehr Schein als Sein.
Die hatte Anfangs auch eine tolle Demo. Die Qualität liefert die Engine selbst mehrere Jahre später nicht, springt aber zum nächsten Level, angeblich. Dazu kommen die 30 Frames, die man in realen Spielen wohl nicht erreichen könnte, Stand heute und somit müsste man mit der Quali wieder runter. So könnte man das etwas böse formulieren. Ich würd da erstmal abwarten was letztlich ankommen wird und ob die Versprechen diesmal gehalten werden. Sonst seh ich schon wieder Lightleaks auf uns zukommen und sehr softe Schatten weil man viel filtern muss.

Tesseract
2020-10-25, 14:56:41
Cyberpunk 2077 mit den Lastgen Assets nennst du die Messlatte? Sorry, aber diesen bullshit hält keiner mehr aus. ;D

Nextgen Grafik von Jupiter. :ulol4:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12462010&postcount=1700

das ist offensichtlich ein fehler im asset eines unfertigen spiels und keine bewusste design- bzw. optimierungsentscheidung. :rolleyes:

Asaraki
2020-10-25, 14:58:18
Cyberpunk 2077 mit den Lastgen Assets nennst du die Messlatte? Sorry, aber diesen bullshit hält keiner mehr aus. ;D

Nextgen Grafik von Jupiter. :ulol4:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12462010&postcount=1700

Sorry dargo, aber das Beispiel ist Cherrypicking und das weisst du auch :P :-*

Fakt ist, dass Raytracing über kurz oder lang den neuen Look der Spiele definieren wird. Aber das wissen wir schon seit 20 Jahren, die Frage ist immer noch wie sehr man es peripher wahr nimmt und ob das Spiel subjektiv ohne Raytracing wirklich anders wirkt. Manchmal ist es nämlich egal und bei anderen Stellen/Games ist es halt schon "groundbreaking". Nach x-Stunden in Control mit RTX gewöhnt man sich dran und wenn du dann wechselst und in einem anderen Game an einer Glaswand vorbei rennst, dann denkst halt schon... "Oh... schade, sieht aus wie 1995".

Mein subjektiver Eindruck dazu.

Aber ich noch weit davon entfernt ein Game ohne Raytracing irgendwie als Last-Gen zu bezeichnen, da ist das Artdesign etc immer noch viel wichtiger. Control wäre auch ohne RTX hübsch, einfach weil die Designer wissen was sie tun. Gleichzeitig finde ich die Bilder aus HZD teilweise (auch da gibt es sehr viele "Bad shots") das Schönste was ich persönlich schon gesehen habe.

Tech Demos sind auch keine Games, da ist Jupiter eh auf dem Holzpfad. Das interessiert mich als Gamer alles überhaupt nicht. Genau so wenig wie mich ein Prototyp eines Autos interessiert, bevor ich das als Serienmodell auf der Strasse sehe.

Ob CP2077 grafisch eine Messlatte wird, das sehen wir dann wenn wir es selbst spielen. Nicht vorher. Aber CDPR Games waren noch nie grafisch eine Messlatte, sondern überzeugten immer im Design und der Umsetzung. Wer das durcheinander bringt, der beurteilt halt die falschen Dinge ne :D

jay.gee
2020-10-25, 15:06:40
Die Unrealengine muss das erstmal liefern, in echten Spielen.

Nicht nur die UE - ich sehe weit und breit keinen Titel, der solchen Werbebegriffen wie NextGen gerecht wird. Im Kern wird es den Entwicklern doch in den nächsten Jahren wie eh und je darum gehen, eine gute Balance zwischen gängiger Hardware und Technik zu finden, die natürlich auch vom jeweiligen Konzept des Spiels abhängen. Durch die neue Konsolengeneration gibt es jetzt wieder mehr Leistungsspielraum und es bleibt abzuwarten, wie die Entwickler diese Ressourcen zukünftig einsetzen.

Die meisten machen sich bei ihren Zukunftsprognosen einen Fleck ins Hemd, obwohl die Hardware, für die sie heute ihre Glaubenskriege führen, schon auf absehbarer Zeit, wieder Schnee von gestern sind. Manchmal klingt das hier, als wenn die Leute in einen Neuwagen für die Zukunft und nicht in eine popelige Grafikkarte für ein paar Euro investieren, deren eigentlicher Zweck Gaming, eh zur absoluten Nebensache verkommen ist.

dargo
2020-10-25, 15:39:10
Ach Leute... meint ihr ernsthaft ich würde mich da jetzt alleine bei den Dosen festnageln? Schaut euch doch das gesamte Bild an. Habt ihr alle Tomaten auf den Augen? Ihr seit schon alle blind vor lauer Marketing @CD Projekt RED. Das Spiel mag durchaus gameplaytechnisch überzeugen, es kann auch eine interessante Story liefern. Aber visuell ist das absolut Lastgen.


Die meisten machen sich bei ihren Zukunftsprognosen einen Fleck ins Hemd, obwohl die Hardware, für die sie heute ihre Glaubenskriege führen, schon auf absehbarer Zeit, wieder Schnee von gestern sind. Manchmal klingt das hier, als wenn die Leute in einen Neuwagen für die Zukunft und nicht in eine popelige Grafikkarte für ein paar Euro investieren, deren eigentlicher Zweck Gaming, eh zur absoluten Nebensache verkommen ist.
Sorry... aber deine Hardwarevergleiche sind auch schon wieder lächerlich wenn man sieht wie mickrig sich Nvidia von Generation zu Generation verbessert. Schau dir nur genauer an was Nvidia in den letzten 2 Jahren geschafft hat. Mit +40-50% Mehrleistung gewinnst du keinen Blumentopf. Bis du Spiele wesentlich hübscher gestalten kannst musst du ein Vielfaches davon drauflegen. Also reden wir hier eher von 5+ Jahren. Und das Problem existiert nicht nur bei Nvidia. AMD hatte in der letzten Gen High-End ausgelassen. Nur deshalb erscheint BigNavi so performant.

Hakim
2020-10-25, 15:43:54
Abwarten, es muss halt alles passen und visuell eine Atmosphäre rüber bringen, was bringt glanz ohne Seele. Ich mache mir bei CP null Sorgen wegen Grafik. Und es wird genau wie witcher 3 jahrelang bei benchs mitverwendet

Daredevil
2020-10-25, 15:50:27
Gegen die Murmel-Demo sieht die UE Demo beleuchtungsmäßig wie vorletzte Generation aus.

Dieses Jahr wird Cyberpunk 2077 der bedeutsamste Titel und damit muss man sich messen. Wer hier die beste Grafik und gleichzeitig die höchste Bildrate hat, siegt.
Cyberpunk 2077 mit den Lastgen Assets nennst du die Messlatte? Sorry, aber diesen bullshit hält keiner mehr aus. ;D

Nextgen Grafik von Jupiter. :ulol4:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12462010&postcount=1700
Wir wissen jetzt schon zum zehnten mal, dass du CP nicht hübsch findest, ist doch auch okay. Aber das schreibt dem Titel nicht seine Bedeutsamkeit und Popularität ab.
Es wird mit hoher Wahrscheinlichkeit das Spiel sein, welches sich 2020 am meisten verkauft und demnach sind alle Augen dort hin gerichtet.
Nur weil das deine Augen nicht tun, bedeutet das nicht, dass es irrelevant ist. Nur halt für dich. Damit musst du dich anfreunden.
Und DLSS+RTX dort ab Start lieferfähig zu haben ist ein Vorteil, den sich Nvidia bestimmt teuer erkauft hat. ( Weil Marketing dort relevant ist )

PS: Mich interessiert das Spiel ebenfalls überhaupt nicht, selbst Witcher ist nichts für mich. Aber ich kann doch akzeptieren, dass es gute und krass gefragte Spiele sein werden, nur eben nicht für mich.
Beide Spiele haben aber nun mal eine tolle Atmosphäre, selbst wenn mal eine Dose eckig ist. Das war beim FFV VII Remake ebenfalls der Fall, das Spiel selbst überzeugt aber halt anders. ( Für mich, für andere wiederum nicht )

Tesseract
2020-10-25, 15:54:53
@dargo: keine ahnung was du meinst. was mich an der demo mit abstand am meisten stört ist das verdammte CA aber das ist keine generationssache sondern eher eine psychische störung der gesamten spieleindustrie die hoffentlich irgendwann genauso verschwinden wird die wie die psychische störung bloom im jahrzehnt davor... und in 2077 hoffentlich ausschaltbar sein wird.

Fragman
2020-10-25, 16:15:04
Manchmal klingt das hier, als wenn die Leute in einen Neuwagen für die Zukunft und nicht in eine popelige Grafikkarte für ein paar Euro investieren, deren eigentlicher Zweck Gaming, eh zur absoluten Nebensache verkommen ist.


Ja, manchmal muss man sich sagen lassen, warum man Spiele nicht spielen kann, obwohl man sie eigentlich grad spielt.

jay.gee
2020-10-25, 16:27:23
Ach Leute... meint ihr ernsthaft ich würde mich da jetzt alleine bei den Dosen festnageln? Schaut euch doch das gesamte Bild an. Habt ihr alle Tomaten auf den Augen? Ihr seit schon alle blind vor lauer Marketing @CD Projekt RED. Das Spiel mag durchaus gameplaytechnisch überzeugen, es kann auch eine interessante Story liefern. Aber visuell ist das absolut Lastgen.

Ich bin ja jetzt alles andere als ein CDP-Fanboy und ich fand zb. Witcher 3 spielerisch eher so mittelmässig. Aber ich mache mich darüber hinaus auch weitestgehend frei von Begriffen wie Last/Nextgen. Der Punkt ist doch, dass ein Entwicklerteam den von mir genannten Spagat zwischen gängiger Hardware und Technik finden muss.

Und da bleibt es abzuwarten, wie CPD die Ressourcen eingesetzt hat. Mich würde es auf jeden Fall wundern, wenn das Spiel in 4K + RT in maximalen Details flüssig läuft - auch auf den kommenden Grafikkarten. Also muss man als Entwicklerteam Kompromisse eingehen. Zumal ein Grossteil der Spieler auch zukünftig nicht mit HighEnd-Hardware unterwegs sein wird.

Eigentlich zieht sich die Thematik doch durch jeden Thread heutiger Spiele. Kaum ein Spieler hat ein Odyssey je flüssig in Qualitätssettings zu Gesicht bekommen und trotzdem wird bei Valhalla ebenfalls schon vor dem Release rumgejammert. Nach meinen Beobachtungen sieht es aktuell folgendermassen aus. Der kleinste gemeinsame Nenner waren in den letzten Jahren die LastGen-Konsolen. Und die zieht man jetzt erst einmal auf ein Level, auf dem in den vergangenen Jahren nur ein ganz kleiner Bruchteil der Spieler bereits waren. Nämlich auf ein Level flüssiger Bildraten bei hohen Auflösungen, ohne, dass man bei der Beleuchtung, Schatten und anderen Details grössere Kompromisse eingehen muss. Zumindest im Kontrast zu den vergangenen Jahren.

Das was Leute wie du wohl unter NextGen-Grafik verstehen, macht aktuell alleine schon deshalb keinen Sinn, weil man die Leute mit NextGen-Hardware, selbst in einem Forum wie diesem hier, an zwei Händen abzählen kann. Weder die NextGen-Konsolen, noch die leistungsstarken, aber für NextGen nötigen Grakas/CPUs sind im Massenmarkt erhältlich und verbreitet. Und so wie ich das sehe, wird es auch noch eine ganze Weile dauern, bis sich das ändern wird. Und damit meine ich gar nicht explizit die Lieferengpässe, sondern den finanziellen Spielraum der Spieler im Massenmarkt. Bis dato versucht doch erst mal, die aktuellen Spiele auf einem gehobenen grafischen Level zu spielen. Und da werden sich in CP2077, Valhalla, Watch Dogs und Co die meisten Spieler eh schon schwertun.

Reaping_Ant
2020-10-25, 16:37:56
Hier gibts das Reviewer's Guide zur RTX 3070:
https://videocardz.com/newz/nvidia-geforce-rtx-3070-reviewers-guide-leaked
Gibt ein paar neue Infos zum FE Kühler.

Ganz amüsant ist der Appendix: Scheinbar ist sich NV der Diskussion um den Speicher der 3000er Serie durchaus bewusst und weist die Reviewer extra nochmal darauf hin, dass Monitoring-Tools nicht den tatsächlichen Speicherverbrauch anzeigen.

aufkrawall
2020-10-25, 16:43:44
HZD braucht nicht ansatzweise 8GB, zumindest hab ich das bisherig nicht messen können per "OSDGPU dedicated memory \ process" im RTSS.
RTSS kann nicht anzeigen, wie viel eine Anwendung "braucht" (=genug hat, um ohne Einschränkungen bei Optik und Performance zu laufen). Sehr enttäuschend, von dir so einen Müll zu lesen.

Troyan
2020-10-25, 16:43:46
Interessanter wäre das Log aus The Division 2 gewesen. Das Spiel reserviert sich auf meiner 3090 auch mehr als 16GB.

aufkrawall
2020-10-25, 16:50:08
Bei Division 2 wurde die Ressourcen-Verwaltung afair via Patches verbessert, konnte vorher nicht so gut mit Knappheit umgehen.

Linmoum
2020-10-25, 16:50:23
Hier gibts das Reviewer's Guide zur RTX 3070:
https://videocardz.com/newz/nvidia-geforce-rtx-3070-reviewers-guide-leaked
Gibt ein paar neue Infos zum FE Kühler.

Ganz amüsant ist der Appendix: Scheinbar ist sich NV der Diskussion um den Speicher der 3000er Serie durchaus bewusst und weist die Reviewer extra nochmal darauf hin, dass Monitoring-Tools nicht den tatsächlichen Speicherverbrauch anzeigen.Logisch weiß Nvidia das mit dem Speicher. 8/10GiB vs. 16GiB demnächst ist halt unsexy. Bezeichnend, dass sie die 3070 selbst nur mit 1440p benchen (und bewerben). Die 2080Ti haben sie damals als UHD-Karte angepriesen. Woher nun der Sinneswandel trotz identischer Performance? Hmmmm.

Was angezeigt wird ist allerdings auch zweitrangig, weil man schlicht merkt, wenn der Speicher nicht (mehr) ausreicht. Das wird man bei der 3070 in UHD, was die Reviewer natürlich wie schon bei der 2080Ti ausgiebig benchen werden, dann auch sehen.

Troyan
2020-10-25, 16:57:43
Bei Division 2 wurde die Ressourcen-Verwaltung afair via Patches verbessert, konnte vorher nicht so gut mit Knappheit umgehen.

Das Spiel scheint mindesten bis 16GB den kompletten VRAM zu reservieren. Wäre interessant, inwieweit das Auswirkungen auf die Frametimes hat.

dargo
2020-10-25, 16:59:54
Das Spiel scheint mindesten bis 16GB den kompletten VRAM zu reservieren. Wäre interessant, inwieweit das Auswirkungen auf die Frametimes hat.
Null... hier reichen 8GB für 1440p völlig aus in Division 2 bei absolut glatten Frametimes.

@dargo: keine ahnung was du meinst. was mich an der demo mit abstand am meisten stört ist das verdammte CA aber das ist keine generationssache sondern eher eine psychische störung der gesamten spieleindustrie die hoffentlich irgendwann genauso verschwinden wird die wie die psychische störung bloom im jahrzehnt davor... und in 2077 hoffentlich ausschaltbar sein wird.
Wie beschreibe ich es am besten? Mir gefällt der Gesamtlook oft einfach nicht. Bsw. hier...

https://blog.notebooksbilliger.de/wp-content/uploads/2020/09/cyberpunk-2077-ray-tracing-screenshots-rtx-4.jpg

Das ganze Bild ist völlig verschmiert, als ob es 720p mit Upscaling wäre. Auch sehe ich sehr viele Szenen in 4k Videos (was anderes macht ja bei der beschissenen YT-Kompression eh keinen Sinn) als ob sie mit Schmierseife oder Vaseline verschmiert wären. Ich weiß nicht wie ich es anders beschreiben soll. Und natürlich muss dieses hässliche, völlig übertriebene CA weg. Aber das sollte hoffentlich abschaltbar sein.

Diese Bilder hier finde ich schon recht in Ordnung (muss mir nur wieder dieses ekelhafte CA wegdenken).
https://www.rebelgamer.de/2020/09/cyberpunk-2077-neue-screenshots-zeigen-wie-grandios-night-city-ausssieht/93210

Ich glaube anhand der aktuell vorliegenden Videos kann ich da noch kein endgültiges Urteil geben. Ich muss das selbst live sehen. Ohne CA, womöglich leichte Nachschärfung fürs TAA rein dann sehen wir mal weiter.

Armaq
2020-10-25, 17:47:10
Ach Leute... meint ihr ernsthaft ich würde mich da jetzt alleine bei den Dosen festnageln? Schaut euch doch das gesamte Bild an. Habt ihr alle Tomaten auf den Augen? Ihr seit schon alle blind vor lauer Marketing @CD Projekt RED. Das Spiel mag durchaus gameplaytechnisch überzeugen, es kann auch eine interessante Story liefern. Aber visuell ist das absolut Lastgen.


Sorry... aber deine Hardwarevergleiche sind auch schon wieder lächerlich wenn man sieht wie mickrig sich Nvidia von Generation zu Generation verbessert. Schau dir nur genauer an was Nvidia in den letzten 2 Jahren geschafft hat. Mit +40-50% Mehrleistung gewinnst du keinen Blumentopf. Bis du Spiele wesentlich hübscher gestalten kannst musst du ein Vielfaches davon drauflegen. Also reden wir hier eher von 5+ Jahren. Und das Problem existiert nicht nur bei Nvidia. AMD hatte in der letzten Gen High-End ausgelassen. Nur deshalb erscheint BigNavi so performant.
Du wirst C2077 Screenshots posten und es geil finden. Da gebe ich dir Brief und Siegel drauf. Das einzige was dich davon abhalten wird, ist eine Nicht RT fähige Grafikkarte und deshalb basht du in diversen Threads.

Inkrementelle Verbesserungen sind der Stand der Dinge. Es gibt keine Sprünge. Das gesamte Zeug seit 2018 sieht auch schon verdammt gut aus. Techdemos kann man einfach im Schrank lassen, denn die echten Spiele sehen später dann oft wieder viel besser aus.

HZD läuft auf einer PS4, das muss man sich auch mal geben. Jetzt haben wir auf Konsole und PC flächendeckend die Möglichkeit RT in Spielen zu erleben.

RT wird aber nicht sofort alles ändern, das haben wir schon gesehen. Dennoch werden C2077 und WatchDogs (durch den scheinbar doch starken Support von nvidia) schon richtig gut aussehen. Nachts zB wird das schon fetzen.

dargo
2020-10-25, 17:50:34
Du wirst C2077 Screenshots posten und es geil finden. Da gebe ich dir Brief und Siegel drauf. Das einzige was dich davon abhalten wird, ist eine Nicht RT fähige Grafikkarte und deshalb basht du in diversen Threads.

Versuchst du mir schon wieder irgendeinen bullshit an den Hals zu hängen wie schon im HZD-Technik Thread mit deiner tollen Virusidee die dann über PN kam? :lol:

Tesseract
2020-10-25, 18:49:00
Das ganze Bild ist völlig verschmiert, als ob es 720p mit Upscaling wäre.

sieht nach den üblichen verdächtigen aus: CA, DoF, zu geringer AF-grad etc.
das ist aber aber nix neues, den scheiß muss man seit jahren in fast jedem spiel ausschalten wenn man keine blurparty feiern will.

HOT
2020-10-25, 22:46:07
Null... hier reichen 8GB für 1440p völlig aus in Division 2 bei absolut glatten Frametimes.


Wie beschreibe ich es am besten? Mir gefällt der Gesamtlook oft einfach nicht. Bsw. hier...

https://blog.notebooksbilliger.de/wp-content/uploads/2020/09/cyberpunk-2077-ray-tracing-screenshots-rtx-4.jpg

Das ganze Bild ist völlig verschmiert, als ob es 720p mit Upscaling wäre. Auch sehe ich sehr viele Szenen in 4k Videos (was anderes macht ja bei der beschissenen YT-Kompression eh keinen Sinn) als ob sie mit Schmierseife oder Vaseline verschmiert wären. Ich weiß nicht wie ich es anders beschreiben soll. Und natürlich muss dieses hässliche, völlig übertriebene CA weg. Aber das sollte hoffentlich abschaltbar sein.

Diese Bilder hier finde ich schon recht in Ordnung (muss mir nur wieder dieses ekelhafte CA wegdenken).
https://www.rebelgamer.de/2020/09/cyberpunk-2077-neue-screenshots-zeigen-wie-grandios-night-city-ausssieht/93210

Ich glaube anhand der aktuell vorliegenden Videos kann ich da noch kein endgültiges Urteil geben. Ich muss das selbst live sehen. Ohne CA, womöglich leichte Nachschärfung fürs TAA rein dann sehen wir mal weiter.
Ugh ist das unnatürlich am rumspiegeln :freak:..

Ex3cut3r
2020-10-25, 23:02:55
https://blog.notebooksbilliger.de/wp-content/uploads/2020/09/cyberpunk-2077-ray-tracing-screenshots-rtx-4.jpg


Boah. Also wenn in Zukunft die Weiber alle Metall Ärsche haben, will ich nicht mehr leben. Bähhh. Aufgespritzte Schlauch Boot Lippen sind schon heute sowas ähnliches. ^^

y33H@
2020-10-25, 23:03:36
Woher nun der Sinneswandel trotz identischer Performance? Hmmmm.Preispunkt, da x070-Modell und nicht x080 (Ti).

Linmoum
2020-10-25, 23:08:12
Gerade das ergibt noch weniger Sinn, weil eine billige(re) potentielle UHD-Karte sich deutlich besser vermarkten lässt und zugänglicher ist.

Die 3070 anders als die 2080Ti trotz gleicher Performance zu bewerben, lässt sich offensichtlich auf den Speicher zurückführen.

SKYNET
2020-10-25, 23:09:51
Preispunkt, da x070-Modell und nicht x080 (Ti).

naja, und ne karte die so schnell ist wie die 2080S(3060?) wollen sie dann ernsthaft mit 6GB bringen? :freak:

sry, das ist an lächerlichkeit ja kaum mehr zu überbieten... NV hat sich damit selber ins bein geschossen... hoffe wirklich bei den rdna2 reviews ziehen alle seiten mindestens 3 games mit rein, die schon in 1440p mehr als 10GB fressen maxed out... eines würde sogar schon in FHD 8GB karten komplett killen max out mit HD pack --> FFXV :biggrin:

y33H@
2020-10-25, 23:11:10
Check mal den HZD-Technik Thread.Joa, hab auf Anhieb nichts gefunden, wo der Prozess die 8GB oder gar 10GB vollknallt und diese superkurzen Spikes würde ich ohnehin nicht darauf zurückführen.

Dampf
2020-10-25, 23:13:34
Null... hier reichen 8GB für 1440p völlig aus in Division 2 bei absolut glatten Frametimes.


Wie beschreibe ich es am besten? Mir gefällt der Gesamtlook oft einfach nicht. Bsw. hier...

https://blog.notebooksbilliger.de/wp-content/uploads/2020/09/cyberpunk-2077-ray-tracing-screenshots-rtx-4.jpg

Das ganze Bild ist völlig verschmiert, als ob es 720p mit Upscaling wäre. Auch sehe ich sehr viele Szenen in 4k Videos (was anderes macht ja bei der beschissenen YT-Kompression eh keinen Sinn) als ob sie mit Schmierseife oder Vaseline verschmiert wären. Ich weiß nicht wie ich es anders beschreiben soll. Und natürlich muss dieses hässliche, völlig übertriebene CA weg. Aber das sollte hoffentlich abschaltbar sein.

Liegt auch am Screenshot von Notebooksbilliger, schlecht komprimiertes JPEG. Hier das Bild von der Original-Quelle:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/cyberpunk-2077-30-series-4k-rtx-on-trailer/cyberpunk-2077-geforce-rtx-30-series-exclusive-screenshot-002.jpg
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/cyberpunk-2077-30-series-4k-rtx-on-trailer/cyberpunk-2077-geforce-rtx-30-series-exclusive-screenshot-002.jpg

Abgesehen vom CA sieht das doch sehr gut aus und dank den RT Effekten auch fast schon next gen. Das einzige was ich zu bemängeln hab ist, dass die RT AO scheinbar noch nicht so ganz funktioniert. Die Stuhlbeine z.B. sollten eine bessere Schattierung haben.

Ex3cut3r
2020-10-25, 23:15:29
Joa, hab auf Anhieb nichts gefunden, wo der Prozess die 8GB oder gar 10GB vollknallt und diese superkurzen Spikes würde ich ohnehin nicht darauf zurückführen.

Du kannst HZD nicht mit 8GB Karten und Medium Texturen zocken, hast immer wieder starke Stocker/Ruckler nenn es wie du willst drin. Stellts du auf Low Texturen kannst du mit jeder 8GB Karte flüssig zocken.

y33H@
2020-10-25, 23:18:19
Vll ist's ein Bug beim Streaming, aber zumindest den Commit würde ich ausschließen nachdem was ich bisher gesehen habe ... gucke die Tage noch mal und melde mich im passenden Thread dann.

dargo
2020-10-25, 23:21:37
Liegt auch am Screenshot von Notebooksbilliger, schlecht komprimiertes JPEG. Hier das Bild von der Original-Quelle:

Sieht immer noch scheiße aus.

jay.gee
2020-10-25, 23:23:17
Liegt auch am Screenshot von Notebooksbilliger, schlecht komprimiertes JPEG. Hier das Bild von der Original-Quelle:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/cyberpunk-2077-30-series-4k-rtx-on-trailer/cyberpunk-2077-geforce-rtx-30-series-exclusive-screenshot-002.jpg
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/cyberpunk-2077-30-series-4k-rtx-on-trailer/cyberpunk-2077-geforce-rtx-30-series-exclusive-screenshot-002.jpg

Abgesehen vom CA sieht das doch sehr gut aus und dank den RT Effekten auch fast schon next gen.

CA, MB und DoF aus, etwas GIS drüber und das passt. :up: Auf RT würde ich da jetzt auf keinen Fall verzichten wollen - in bewegten Bildern sieht das imho aber noch geiler aus, denn den optischen Mehrwert von RT kann man in Screenshots eigentlich gar nicht einfangen.

Dampf
2020-10-25, 23:25:10
Sieht immer noch scheiße aus.

Was findest du sieht an dem Spiel scheiße aus...? Wie sieht für dich ein grafisch gutes Spiel aus?

@jay ja nach Control will ich da auch auf keinen mehr Fall drauf verzichten. Sobald du die deutlich natürlichere Beleuchtung mit feiner Schattierung in jeder Ecke, wo jedes noch so winzige Objekt einen Schatten wirft und die detailreicheren Reflektionen ohne Artefakte gewohnt bist, will man wirklich nicht mehr zurück.

Armaq
2020-10-25, 23:26:36
Liegt auch am Screenshot von Notebooksbilliger, schlecht komprimiertes JPEG. Hier das Bild von der Original-Quelle:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/cyberpunk-2077-30-series-4k-rtx-on-trailer/cyberpunk-2077-geforce-rtx-30-series-exclusive-screenshot-002.jpg
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/cyberpunk-2077-30-series-4k-rtx-on-trailer/cyberpunk-2077-geforce-rtx-30-series-exclusive-screenshot-002.jpg

Abgesehen vom CA sieht das doch sehr gut aus und dank den RT Effekten auch fast schon next gen. Das einzige was ich zu bemängeln hab ist, dass die RT AO scheinbar noch nicht so ganz funktioniert. Die Stuhlbeine z.B. sollten eine bessere Schattierung haben.
Sieht fantastisch aus. Komplett eigenständiger Look und sehr viele Details sind viel besser als bei anderen Games. Wird ingame auf jeden Fall wirken. Metro auf Screenshots war mit RT einfach nicht viel besser, ingame war es dramatisch besser. Das kann dir dargo aber nicht sagen, denn er hat RT noch nicht Live in einem Spiel gesehen. :)

dargo
2020-10-25, 23:33:53
Was findest du sieht an dem Spiel scheiße aus...? Wie sieht für dich ein grafisch gutes Spiel aus?

https://www.resetera.com/threads/ratchet-clank-rift-apart-4k-direct-feed-screenshot.225094/

Wobei ich die Bilder ohne den Grain und weniger CA noch besser fände.

Dampf
2020-10-25, 23:37:29
https://www.resetera.com/threads/ratchet-clank-rift-apart-4k-direct-feed-screenshot.225094/

Wobei ich die Bilder ohne den Grain und weniger CA noch besser fände.

Ja Ratchet sieht unfassbar gut aus, da bin ich bei dir. Aber bei solchen Fotos muss man sehr vorsichtig sein, gerade in vielen Sony Spielen gibts ja einen Fotomodus, der die Image Quality nochmal deutlich boostet.

Das 4K Gameplay sieht zwar immer noch beeindruckend aus, erreicht aber nicht ganz dieses Level.

jay.gee
2020-10-25, 23:38:18
@jay ja nach Control will ich da auch auf keinen mehr Fall drauf verzichten. Sobald du die deutlich natürlichere Beleuchtung mit feiner Schattierung in jeder Ecke, wo jedes noch so winzige Objekt einen Schatten wirft und die detailreicheren Reflektionen ohne Artefakte gewohnt bist, will man wirklich nicht mehr zurück.

Das RT in Metro Exodus finde ich eigentlich noch beeindruckender, auch wenn es da nicht so krass ins Auge sticht, wie in Control und weniger Eyecandy bietet. Aber die diffusen und sanften Übergänge bei den Schatten sehen einfach unglaublich gut aus. Ich habe da in Metro so viel hin und her getestet und musste immer schmunzeln, wenn es jemand madig geredet hat. Wie gesagt, ich kenne diese Diskussionen schon aus VR-Threads, wo solche Technologien und Pionierarbeiten schlecht geredet wurden. Und dann sitze ich in VR im Cockpit einer F-18 oder eines Rennwagens, starte HL-Alyx und lass sie reden. Ich werde auch die kommenden RT-Spiele nicht ohne spielen, das steht fest. :)
o07aWS7JpeQ

dargo
2020-10-25, 23:40:40
@Dampf

Es gibt genug Bewegtbilder. ;)
ai3o0XtrnM8

Das kann dir dargo aber nicht sagen, denn er hat RT noch nicht Live in einem Spiel gesehen. :)
Stimmt... weil es keine Videos zu Metro Exodus mit RT gibt. Du wirst echt immer peinlicher.

btw.
RT kann das Spiel auch nicht retten, bin vor Langerweile eingeschlafen.

Dampf
2020-10-25, 23:46:27
@Dampf

Es gibt genug Bewegtbilder. ;)
https://youtu.be/ai3o0XtrnM8


Stimmt... weil es keine Videos zu Metro Exodus mit RT gibt. Du wirst echt immer peinlicher.

btw.
RT kann das Spiel auch nicht retten, bin vor Langerweile eingeschlafen.

Naja, bei Cinematics mag das ja stimmen, aber wenn er ins Gameplay wechselt, sieht man schon Unterschiede ;) Bei 0:54 sieht man ja den abrupten Wechsel ins Gameplay. Aber gut, bei der neuen Extended 4K Demo scheint sich was getan zu haben, sieht man ja, dass es wirklich sehr gut aussieht. Aber bin etwas skeptisch, ich werde mir erst eine Meinung bilden wenn die Release-Version verfügbar ist!

@Jay finde die RTGI in Metro auch sehr beeindruckend. Würde das soo gerne mit DLSS 2.0 betrachten. DLSS 1 in 1080p ist schon fast eine Beleidigung, da kann man auch gleich in 900p oder geringer spielen.

Asaraki
2020-10-25, 23:48:58
Ich werde auch die kommenden RT-Spiele nicht ohne spielen, das steht fest. :)
https://youtu.be/o07aWS7JpeQ

Metro Exodus muss ich noch spielen, aber der Watch Dogs Code ist schon eingelöst und ich hab bald Urlaub :D

Ich verstehe beim besten Willen nicht, wie man gegen RT sein kann xD Ausser man hat's noch nie selber gespielt.

Tesseract
2020-10-25, 23:51:43
Bei 0:54 sieht man ja den abrupten Wechsel ins Gameplay.

und ist dann doppelt so blurry wie der 2077 screenshot. ;D

dargo
2020-10-25, 23:52:34
https://youtu.be/o07aWS7JpeQ
Wieder ein prima Beispiel wie schlecht ein nachträgliches RT umgesetzt wurde. Überall Pfützen und Null Interaktionen damit. Selbst als einer da durchläuft passiert absolut nichts. Die Assets sind auch sehr schwach.

und ist dann doppelt so blurry wie der 2077 screenshot. ;D
Das ist kein Standbild sondern schnelle Bewegung. :rolleyes: Zudem ist das 30fps und soll die Geschwindigkeit besser übermitteln. Mit 60+fps brauchst du auch nicht so viel Motionblur.

Dampf
2020-10-25, 23:53:48
Wieder ein prima Beispiel wie schlecht ein nachträgliches RT umgesetzt wurde. Überall Pfützen und Null Interaktionen damit. Selbst als einer da durchläuft passiert absolut nichts. Die Assets sind auch sehr schwach.

Das mit der Interaktion liegt aber nicht an RT sondern am Spiel selbst.

Die Reflektionen sind das einzige, was bei der grottigen 2014 Grafik gut aussieht. Wahrscheinlich wirds laufen wie Müll, so wie man es von Ubi gewohnt ist.

Asaraki
2020-10-25, 23:55:24
Wieder ein prima Beispiel wie schlecht ein nachträgliches RT umgesetzt wurde. Überall Pfützen und Null Interaktionen damit. Selbst als einer da durchläuft passiert absolut nichts. Die Assets sind auch sehr schwach.

Mimimimimimi :D Selbst dieses reingewurstelte RTX ist so geil, dass du es nicht schlecht reden kannst :P Genau wie 3D einen Film weder Schlecht noch Gut macht, ist es für den richtigen Empfänger einfach eine coole Technologie. Deal with it.

Armaq
2020-10-25, 23:56:17
@Dampf

Es gibt genug Bewegtbilder. ;)
https://youtu.be/ai3o0XtrnM8


Stimmt... weil es keine Videos zu Metro Exodus mit RT gibt. Du wirst echt immer peinlicher.

btw.
RT kann das Spiel auch nicht retten, bin vor Langerweile eingeschlafen.
Ja, YT und selbst erleben ist genau das Gleiche... UHD auf 65" Per Video ist genau das Gleiche wie selbst so ein Teil zu haben, oder UWide braucht man nicht kaufen, gucken wir uns ein video von jemandem an. Da schaut man sich h ein Video an und hat es erlebt. Am Rechner basteln ist auch exakt wie ein Video davon zu sehen und beim Sport ist das auch so. Sex klappt auch so. Echte Frauen braucht es nicht, ein video und bissl Handarbeit kommt auf das exakt gleiche raus.

Nebenbei wird das Spiel gebasht, welches genannt wird und alle die es positiv erwähnen. Geh zunächst mal zu einem Arzt, es scheint dir wirklich nicht gut zugehen. Im Minuten Takt ins Forum zu brechen ist für deine Gesundheit nicht förderlich.

dargo
2020-10-25, 23:57:11
Selbst dieses reingewurstelte RTX ist so geil, dass du es nicht schlecht reden kannst :P
Lol... habs schon öfter gemacht. :cool:


Die Reflektionen sind das einzige, was bei der grottigen 2014 Grafik gut aussieht.
Sie wirken auf mich eher deplatziert weil der Rest nicht passt.

Asaraki
2020-10-25, 23:58:23
Lol... habs schon öfter gemacht. :cool:

Probiert, ja. Aber ob's funktioniert beurteilt ja wenn, dann der Empfänger. Also keine Ahnung was du da laberst ;-)

#teamRayTracing

Tesseract
2020-10-26, 00:00:14
Das ist kein Standbild sondern schnelle Bewegung.
vieles von dem blur ist DoF, das geht nicht weg egal wieviel fps und wie schnell.

dargo
2020-10-26, 00:04:17
vieles von dem blur ist DoF, das geht nicht weg egal wieviel fps und wie schnell.
Du redest gerade wirres Zeug habe ich das Gefühl. Schau dir die Szenen mit dem Drachen an wo er langsam fliegt. Da ist nichts mehr von dem starken MB zu sehen. Genauso ist wieder mehr MB im Bild wo er die Glasscheiben runter rutscht.

Dampf
2020-10-26, 00:07:57
Eins ist klar: CB2077 mit RT wird grafische Maßstäbe setzen und in der Cross Gen Phase vermutlich nicht so leicht übertroffen werden. Ein grafischer Maßstab wie damals Witcher 3.

Von der Texturqualität, Detaildichte, Assetqualität und Weitsicht her ist das schon aller erste Sahne, wenn man den neuesten Fahrzeug Trailer ansieht. Vor allem für ein Open World Spiel.

Fügt man dann noch die RT Effekte hinzu, wird das ein Feuerwerk der grafischen Kunst ergeben und mit DLSS 2.0 hat man dann auch noch perfekte Bildqualität.

Es ist nicht mehr weit Freunde! Nicht mehr weit. Dann erleben wir ein Stück Next Gen auf unseren Monitoren.

jay.gee
2020-10-26, 00:09:38
Wieder ein prima Beispiel wie schlecht ein nachträgliches RT umgesetzt wurde. Überall Pfützen und Null Interaktionen damit. Selbst als einer da durchläuft passiert absolut nichts.

Diese technische Limitierung hast du in nahezu jedem anderen Spiel völlig losgelöst von RT auch. Dann halt nur nicht so hübsch, wie mit RT. Im Grunde genommen ist das nur ein prima Beispiel dafür, dass es dir mehr um deinen völlig besessenen nvidia vs AMD-Grabenkampf geht. So sehr ich dein technisches Wissen gelegentlich auch schätze - aber tue dir selbst einen Gefallen und mach dich endlich wieder frei davon und konzentriere dich auf die schönen Dinge dieses Hobbys. ;)

dargo
2020-10-26, 00:18:03
Da muss mehr kommen als dieser angeflanschte Quatsch @RTX.

SKYNET
2020-10-26, 00:19:02
und mit DLSS 2.0 hat man dann auch noch perfekte Bildqualität.


:freak: really? :ulol:

thanks for brighten my night! ;D

Tesseract
2020-10-26, 00:20:32
Du redest gerade wirres Zeug habe ich das Gefühl. Schau dir die Szenen mit dem Drachen an wo er langsam fliegt. Da ist nichts mehr von dem starken MB zu sehen. Genauso ist wieder mehr MB im Bild wo er die Glasscheiben runter rutscht.

der blur auf der glasscheibe ist totale videokompressionssuppe, MB kann ich bei der kompression überhaupt nicht beurteilen so schlecht ist das video. DoF sieht man aber z.B. besonders von 1:21-1:23 und 1:35+ aber auch an vielen anderen stellen trotzdem durch die kompression durch und davon wird man im gegensatz zu 2077 auch nichts ausschalten können.

Dampf
2020-10-26, 00:20:36
:freak: really? :ulol:

thanks for brighten my night! ;D

Was ist daran so lustig? TAA ist in den meisten Spielen ziemlich blurry im Gegensatz zu ohne AA. DLSS 2.0 bietet da den perfekten Mittelweg, das Bild ist immer noch sehr klar aber frei von Kanten.

SKYNET
2020-10-26, 00:23:39
Was ist daran so lustig? TAA ist in den meisten Spielen ziemlich blurry im Gegensatz zu ohne AA. DLSS 2.0 bietet da den perfekten Mittelweg, das Bild ist immer noch sehr klar aber frei von Kanten.

und voller artefakte bei schnellen bewegungen... herzlichen glückwunsch! :freak:

dargo
2020-10-26, 00:23:51
Welchen perfekten Mittelweg wenn es nicht mal Support in den meisten Titeln gibt? :freak:

Dampf
2020-10-26, 00:25:54
und voller artefakte bei schnellen bewegungen... herzlichen glückwunsch! :freak:

Das ist nicht mehr und war mal mit DLSS 1.0 so. Mit DLSS 2.0 ist die temporale Stabilität sehr gut.

Nur wenn ein Spiel wie Death Stranding schlechte oder keine Motion-Vektoren bietet, dann gibt es Artefakte.

@dargo der wächst ja noch ;)

Slipknot79
2020-10-26, 01:42:03
Wieder ein prima Beispiel wie schlecht ein nachträgliches RT umgesetzt wurde. Überall Pfützen und Null Interaktionen damit. Selbst als einer da durchläuft passiert absolut nichts. Die Assets sind auch sehr schwach.


Also in dargos "next gen"-Vorzeige Titel kommen nicht mal Pfützen vor. :)


Aber alles cool. Ich denke, dargo kann uns erst überzeugen, wenn er seinen PC verkauft, sich ne PS5 zulegt und eben nur noch "next gen" ballert.
"Last gen" will er ja nicht moar. :smile:
Ansonsten ist das nichts weiter als A sagen und B machen. :wink:

Nazar
2020-10-26, 02:42:22
Metro Exodus muss ich noch spielen, aber der Watch Dogs Code ist schon eingelöst und ich hab bald Urlaub :D

Ich verstehe beim besten Willen nicht, wie man gegen RT sein kann xD Ausser man hat's noch nie selber gespielt.

Wenn man aus Realismus steht und nicht auf "Pfützenspiele"?
Wenn man auf realistische Be- und Ausleuchtung steht und nicht auf Light and Dark Rooms?
Gerade Metro, wo sich einige einen drauf "abrubbel", ist ein Parabeispiel dafür wie Be- und Ausleuchtung eben nicht aussehen sollte.
Geht doch mal raus in die "Freie Natur" und schaut euch mal an wie dunkel es in einem Treppenhaus ist, bei diffusen Licht, wenn es überall Fenstergroße Öffnungen gibt?
Wie hell es in einem Raum mit einer einzigen Lampe ist, etc. pp.
In Metro kann man alle Probleme mit den Strahlen und deren begrenzten Ausbreitung sehen.
Am helllichten Tag sieht das Haus von außen schön Hell aus, aber exakt ab Türrahmen ist es dunkel wie im Bärenarsch. Oder im Zug. Von außen knallt die Sonne durch die Fenster aber innen ist die Weihnachtsbeleuchtung an, ohne die man ansonsten nichts erkennen könnte.
Wann seid ihr das letzte mal im Zug unterwegs gewesen?
Wie kann für realistisch aussehende Spiele sein und gleichzeitig diese "Art" von RT auch noch abfeiern? :confused:
Was denn nun? Soll es realistisch sein oder feiert ihr einfach nur die Technik?
Das geht Hand in Hand mit DLSS, das, obwohl es die Texturen verfälscht und oft für Artefakte sorgt, abgefeiert wird weil es angeblich teilweise besser als die normale BQ auf höchster Q Stufe aussehen soll. Ernsthaft? Sich mal Death Stranding angeschaut? Plötzlich sind da Texturen, die gealtert aussehen soll (Rucksack) wieder wie neu. Das findet man ernsthaft geil?
Da frage ich mich dann, als BQ Fanatiker, was geht in den Köpfen der Personen vor, die allen Ernstes behaupten das jetzige RT sei so unglaublich realistisch?
Das ist Realitätsverweigerung pur!
Ohne die vielen "Pfützen" und Spiegel, könnte das jetzige RT doch kaum einen Stich gegen "normale" Spiele machen.
Aber jeder wie er mag.... ich finde es nur noch beängstigend, wenn man sich so offensichtlich selbst belügt. :frown:

Korvaun
2020-10-26, 07:49:48
Tja, in den letzten Jahren sind die "Fake-Technologien" so weit ausgereift das echtes RT, insbesondere in Außenszenen ohne viele Spiegelungen wenig auffälligen Unterschied macht. Je mehr Aufwand der Entwickler beim "faken" betrieben hat desto weniger Unterschied. Anderreseits sollte dann mit RT das Ganze ja automatisch "richtig" aussehen, also mehr Zeit für andere Sachen ;)

Armaq
2020-10-26, 07:56:21
Wir können ja den Fortschritt einfrieren? Für Echtzeitanwendungen wie Spiele sind wir doch gerade erst beim ersten ernsthaften Schritt. Man kann es in Anwendungen implementieren und bekommt durchaus brauchbare Ergebnisse, man kann Dinge probieren usw.

Wieso sollte das jetzt sofort perfekt sein? Ah, ist nicht perfekt, lassen wir sein. Klingt irgendwie innovationsfeindlich.

Menace
2020-10-26, 07:57:07
Wenn man auf realistische Be- und Ausleuchtung steht und nicht auf Light and Dark Rooms?


Das liegt vielleicht daran, dass unser Auge sich viel besser und schneller an unterschiedliche Helligkeiten anpasst (Pupille, Sehfarbstoffkonzentration, Wanderung der Sehzellen). Da mag das Spiel das richtig berechnet haben, aber den Menschen halt nicht berücksichtigt.

Vielleicht ist das bei VR besser?

ChaosTM
2020-10-26, 07:58:00
Akkurates RT ist halt immer noch unverhältnismäßig teuer.

Und weniger ist oft mehr. Ich rede mit Euch - all Ihr glitzernden Böden in Control ;)

woodsdog
2020-10-26, 08:06:52
5 Seiten komplettes Offtopic-Gequatsche und die Moderation macht fleißig mit - großartig.

WIR HABEN jeweils eigene Threads für VRAM Probleme, HZD, DLSS und RT :P

HOT
2020-10-26, 08:46:24
RT ist Erfahrungssache, wie alle neuen Techniken. Man muss ein gesundes Maß der Implementation finden. RT-Grafik ist ja auch immer in der Kritik gewesen, weil Grafik auch immer Kunst ist und Kunst von "Fake" lebt, will heißen, dass es sinnvoll ist, bestimmte Oberflächen oder anderes eben so zu gestalten wie es passt und nicht, wie es realistisch wäre. RT macht das sehr schwer und schränkt dadurch die künstlerische Freiheit ein. Das war schon vor Jahren der größte Kritikpunkt an RT-Techniken und nun sieht man halt die Auswirkungen davon. Das heißt aber natürlich nicht, dass die Technik nicht von Vorteil ist, man darf sie eben nur dort einsetzen, wo sie auch tatsächlich einen Mehrwert bringt.
Das Rasterizer-Spiele, die mit den klassischen Techniken im Standard laufen (also bei 99% der Spieler) jetzt nicht immer toll im RT-Gewand wirken halte ich für unumgänglich.

Adam D.
2020-10-26, 08:56:41
RT ist Erfahrungssache, wie alle neuen Techniken. Man muss ein gesundes Maß der Implementation finden. RT-Grafik ist ja auch immer in der Kritik gewesen, weil Grafik auch immer Kunst ist und Kunst von "Fake" lebt, will heißen, dass es sinnvoll ist, bestimmte Oberflächen oder anderes eben so zu gestalten wie es passt und nicht, wie es realistisch wäre. RT macht das sehr schwer und schränkt dadurch die künstlerische Freiheit ein. Das war schon vor Jahren der größte Kritikpunkt an RT-Techniken und nun sieht man halt die Auswirkungen davon. Das heißt aber natürlich nicht, dass die Technik nicht von Vorteil ist, man darf sie eben nur dort einsetzen, wo sie auch tatsächlich einen Mehrwert bringt.
Das Rasterizer-Spiele, die mit den klassischen Techniken im Standard laufen (also bei 99% der Spieler) jetzt nicht immer toll im RT-Gewand wirken halte ich für unumgänglich.
Bestes Beispiel dafür ist IMO die RT-Implementierung von WoW mit den Schatten. Nachdem das gepatcht wurde, haben das eine Reihe von Streamern ausprobiert. Das Ergebnis war dann aussagekräftig. Die eine Hälfte hat überhaupt keinen Unterschied bemerkt, abseits der halbierten Framerate. Die andere Hälfte hat sich darüber beschwert, dass die Schatten nicht mehr so kontrastreich sind. War zwar viel realistischer, hat aber offensichtlich niemanden gefallen (wenn denn überhaupt ein Unterschied gesehen wurde).

HOT
2020-10-26, 09:03:46
Noch blöder wirds, wenn der Realismus, der mit RT kommt, die Kunst aufdeckt, wie bei den absurden Spieglungen im Cyberpunk Screenshot. Das wirkt dann natürlich künstlich - vielleicht kann man das etwas mit dem uncanny valley vergleichen, Mehr Kunst wirkt dann realsitischer als hoher Realismus. Aber auch hier hat man ja den künstlerischen Spagat ganz gut im Griff heute. Das muss mit RT auch noch kommen.
Wer dachte mit RT wird es für die Entwickler einfacher war nur weil das vom technischen Standpunkt her theoretisch einfacher ist, war von Anfang an total auf dem Holzweg. Künstlerisch wird es jetzt noch schwieriger.

Troyan
2020-10-26, 09:11:53
Wer dachte mit RT wird es für die Entwickler einfacher war nur weil das vom technischen Standpunkt her theoretisch einfacher ist, war von Anfang an total auf dem Holzweg. Künstlerisch wird es jetzt noch schwieriger.

Ach, du hast die entsprechende Expetise, um so eine ungebildete und falsche Aussage treffen zu können?

Eigentlich müsstest du hier für so ein Stuss gebannt werden. Daher die Frage an die Moderation: Laut den Regeln sind Spammer wie Hot hier unerwünscht. Wieso wird er nicht gebannt?

dargo
2020-10-26, 09:14:50
Nach den Regeln müsstest du schon lange einen Dauerbann bekommen.

Dampf
2020-10-26, 09:20:16
5 Seiten komplettes Offtopic-Gequatsche und die Moderation macht fleißig mit - großartig.

WIR HABEN jeweils eigene Threads für VRAM Probleme, HZD, DLSS und RT :P

Äh nö, ist alles Teil von Ampere und kann dementsprechend auch hier diskutiert werden.

pixeljetstream
2020-10-26, 09:32:07
Künstlerisch wird es jetzt noch schwieriger.
Du meinst deswegen sind wir hin zu PBR workflow oder deswegen sind die Filmstudios zu path tracing, um es den artists langfristig schwerer zu machen...

Ohne Frage gibt es im Übergang (wie auch PBR) Phase des Umlernens (und leider auch Übertreibung ala bloom, motion blur, ca etc.), aber das dies künstlerisch einschränkt ist eine Aussage die du so nicht finden wirst bei den Artists. Guck dir den Erfolg der ganzen CPU/GPU raytracer bei den creatives an.
RT oder PBR schließt nicht aus das man nachwievor die Physik aushebeln kann wenn man das für diverse Effekte will.

Es ist auch absurd RT hier irgendwie abzuschreiben, wenn fast alle Effekte für globale Beleuchtung darauf basieren. Auch wenn diese im Moment nicht zwingend RT hw brauchen, sondern zum Beispiel im Bildraum tracen etc. So ist das dennoch eine Form von RT

aufkrawall
2020-10-26, 09:51:29
Btw. Reflex scheint bislang auf MP-Shooter, um nicht zu sagen BR Kiddie-Spiele limitiert zu sein? :freak:
Ist ja schön für die Leute, die so etwas spielen. Ich gehöre allerdings nicht dazu und hätte von dem Feature in z.B. Cyberpunk wesentlich mehr...

Troyan
2020-10-26, 09:53:04
Call of Duty: Modern Ware hat Reflex wegen Warframe erhalten. Black Ops 2 wird es auch erhalten. Vielleicht muss CD Project nur noch schnell einen Multiplayer einbauen...

Linmoum
2020-10-26, 14:16:48
Bzgl. des zuletzt von kimi genannten, weiteren GA102:

10GB GD6X
TGP 320W
PG132-SKU35
device id 2207
It's an emergency product for 6800XL, seems like a new GTX 465.
https://mobile.twitter.com/kopite7kimi/status/1320702114977304577

Cyberfries
2020-10-26, 14:19:50
5 Seiten komplettes Offtopic-Gequatsche und die Moderation macht fleißig mit - großartig.

WIR HABEN jeweils eigene Threads für VRAM Probleme, HZD, DLSS und RT :P

Zustimmung.

Was neues zu Ga102-150 von kopite7kimi:
10GB GD6X
TGP 320W
PG132-SKU35
device id 2207
It's an emergency product for 6800XL, seems like a new GTX 465.

https://twitter.com/kopite7kimi/status/1320702114977304577

edit: 62sec zu spät.

Außerdem:
See you(3060Ti) next month.
https://twitter.com/kopite7kimi/status/1320698730866044929

Das wird ein heißer Herbst, Neuerscheinungen noch und nöcher.
Ich hatte mit der 3060Ti erst 2021 gerechnet, vor allem da der 3070-Lagerbestand
immer noch nicht besonders großartig ist.

MiamiNice
2020-10-26, 14:22:41
Yay, noch mehr Krüppelkarten :up:
Wie wäre es mit einer 3080Ti mit 20GB GDDR6X NV?

Ex3cut3r
2020-10-26, 14:35:39
Wieder nur 10GB? Also gegen Navi mit 16GB der drei Modelle. LE, XT und XTX sieht das ziemlich armselig aus.

Thunder99
2020-10-26, 14:36:00
Würdet ihr mit einem bequit dark pro 10 550W Netzteil eine RTX 3080 betreiben? :freak:

Ex3cut3r
2020-10-26, 14:36:19
Würdet ihr mit einem bequit dark pro 10 550W Netzteil eine RTX 3080 betreiben? :freak:

:biggrin:

Kommt drauf an, was hast du sonst so stecken?

Linmoum
2020-10-26, 14:36:38
Wieso Krüppelkarten, immerhin bringt NV scheinbar eine xx70-SKU mit dem fettesten Consumer-Chip. ;D

Dass man jetzt noch extra was zwischen 3080 und 3090 auflegen wird, kann man fast schon ausschließen. Zumindest auf absehbare Zeit.

Thunder99
2020-10-26, 14:37:07
Wieder nur 10GB? Also gegen Navi mit 16GB der drei Modelle. LE, XT und XTX sieht das ziemlich armselig.

Zumal die Leistungsaufnahme bitter ist, wenn die 6800 deutlich unter 300W bleiben sollte.

maximus_hertus
2020-10-26, 14:37:42
Yay, noch mehr Krüppelkarten :up:
Wie wäre es mit einer 3080Ti mit 20GB GDDR6X NV?

Es gibt doch die 24GB 3090, passt doch? ;)

Irgendwie wird man von nV aktuell nicht so wirklich schlau. Ist das alles (mehr oder weniger) geplant oder zum (größeren) Teil eine Reaktion?

Thunder99
2020-10-26, 14:39:14
:biggrin:

Kommt drauf an, was hast du sonst so stecken?

Siehe Sig (kommt später). 1 HDD, 2 SSD, Ryzen 3600 und Soundkarte.

Ist eine Gedankenspiel für Mid 2021 (davor kein Bedarf, da viele alte Spiele noch zu spielen sind)

Ex3cut3r
2020-10-26, 14:39:57
Also mit dem 3600 kann man es riskieren IMO.

Notfalls PT im Afterburner auf 270W limitieren, damit es keine Spitzen über 375W gibt. Sollte klappen.

Sunrise
2020-10-26, 14:41:25
Irgendwie wird man von nV aktuell nicht so wirklich schlau. Ist das alles (mehr oder weniger) geplant oder zum (größeren) Teil eine Reaktion?
Sagen wir es mal so, bei GA102 bzw. der Die-Size von GA102 scheint einiges im Argen zu liegen.

Yay, noch mehr Krüppelkarten :up:
Wie wäre es mit einer 3080Ti mit 20GB GDDR6X NV?
Um der 3090 mehr Konkurrenz, bzw. sie quasi obsolet zu machen? Welchen Sinn sollte das haben?

Mal davon ab, hat NV doch gerade erst die 3080 mit 20GB annuliert.

Monsta
2020-10-26, 14:42:19
Es gibt doch die 24GB 3090, passt doch? ;)

Irgendwie wird man von nV aktuell nicht so wirklich schlau. Ist das alles (mehr oder weniger) geplant oder zum (größeren) Teil eine Reaktion?

Den Top Dog in eine 600€ Karte ballern so geplant sein?

Die haben sich voll verzockt, ziehen mega Strom und bringen riesen Dies ins Midrange segment.
Ist ein bisschen Vega 64 reloaded.

Korvaun
2020-10-26, 14:42:46
Selbst wenn GDDR6X gut verfügbar ist, 20GB sind ZU TEUER um das als Konter gegen 16GB normalen GDDR6 von AMD zu stellen. Selbst wenn nV das RAM zum Selbstkostenpreis verbaut würden die Karten immer noch überproportional teurer sein als die AMD-Gegenstücke, außer nV verzichtet komplett auf Gewinn bei den großen Ampere-Karten ;)

Ex3cut3r
2020-10-26, 14:45:12
Selbst wenn GDDR6X gut verfügbar ist, 20GB sind ZU TEUER um das als Konter gegen 16GB normalen GDDR6 von AMD zu stellen. Selbst wenn nV das RAM zum Selbstkostenpreis verbaut würden die Karten immer noch überproportional teurer sein als die AMD-Gegenstücke, außer nV verzichtet komplett auf Gewinn bei den großen Ampere-Karten ;)

Na mit den 100 abgesetzen Karten bisher, macht man momentan sowieso keinen Gewinn. Wenn BN wirklich zündet und 5% hinter einer 3080 am ende des Tages liegt, ausreichend verfügbar ist, und 16GB bietet, warum sollte man dann noch eine 3080 kaufen wollen?

Sunrise
2020-10-26, 14:49:39
Jedenfalls kann ich mich nicht daran erinnern, wann NV das letzte Mal so der Kackstift gegangen ist. Lustig ist es allemal. Und wir bekommen alle (wenn dann mal was lieferbar ist) billigere GPUs...besser gehts nicht.

AMD kann man garnicht genug danken.

Ob NV da jetzt auf 7nm springt oder nicht, sei mal dahingestellt. GA103 ist eine krumme Zahl...oft waren die dann von einem Fremdfertiger. Kann aber auch einfach aus der Not gebohren sein, als NV gemerkt hat, sie brauchen den Fallback-Plan.

Korvaun
2020-10-26, 14:53:19
Grundsätzlich wundert es mich ein wenig das nV anscheinend große Probleme hat ein vernünftiges Lineup an Karten aufzustellen. Spätestens nach der PS5 Vorstellung und dem bestätigten hohen 2,3GHz GPU Takt sollte nV klar gewesen sein wohin die Reise geht...

maximus_hertus
2020-10-26, 14:54:34
Na mit den 100 abgesetzen Karten bisher, macht man momentan sowieso keinen Gewinn. Wenn BN wirklich zündet und 5% hinter einer 3080 am ende des Tages liegt, ausreichend verfügbar ist, und 16GB bietet, warum sollte man dann noch eine 3080 kaufen wollen?

DLSS, RTX, Treiber / Software, Prestige ...... es gibt weiterhin Gründe

Neosix
2020-10-26, 14:56:21
Ich bin über die "neue 3070TI" aus Basis des 3080 Chips nicht glücklich. Für mich war die 3070 mit ihren angepeilten 220Watt genau richtig, bzw ich wollte nicht unbedigt mehr Wärme im Rechner haben. Aber ich fürchte einfach die teildeaktivierte 3080 mit dem 6X Ram wird saufen wie sonst was.

Troyan
2020-10-26, 14:57:04
Grundsätzlich wundert es mich ein wenig das nV anscheinend große Probleme hat ein vernünftiges Lineup an Karten aufzustellen. Spätestens nach der PS5 Vorstellung und dem bestätigten hohen 2,3GHz GPU Takt sollte nV klar gewesen sein wohin die Reise geht...

Dir ist klar, dass Ampere durchweg schneller ist? Die PS5 ist auf dem Niveau einer 250€ Ampere Karte. :rolleyes:

Linmoum
2020-10-26, 14:57:25
Grundsätzlich wundert es mich ein wenig das nV anscheinend große Probleme hat ein vernünftiges Lineup an Karten aufzustellen. Spätestens nach der PS5 Vorstellung und dem bestätigten hohen 2,3GHz GPU Takt sollte nV klar gewesen sein wohin die Reise geht...
Takt ist aber auch nur ein Aspekt von vielen, danach hätte Bulldozer alles rocken müssen.

Nvidias Panik ist mittelfristig jedenfalls gut für alle Kunden weil mehr Auswahl und billiger. Kurzfristig dürfte das alleine wegen der Verfügbarkeit wenig ändern. Aber ich glaube, jemand wie Miami wird sich noch freuen, nicht doch bereits >1500€ für eine 3090 hingelegt zu haben.

Korvaun
2020-10-26, 14:57:36
Also Qualität und Treiber kann eigentlich kein Grund sein, das war ja nicht so dolle dieses mal, gerade auch die ganzen HotFix-Treiber mittlerweile, ein echtes Ärgernis...

aufkrawall
2020-10-26, 14:59:09
Treiber
Das wird man dann sehen, wenn es so weit ist. Falls RDNA2 wieder an Polaris anschließt, würd ich sagen, dass der NV-Treiber eher ekliger bez. der Zuverlässigkeit ist. Falls natürlich wieder gehäuft Blackscreen- o.ä. Reports mit RDNA2 aufschlagen...

Korvaun
2020-10-26, 15:00:18
Takt ist aber auch nur ein Aspekt von vielen, danach hätte Bulldozer alles rocken müssen.

Nvidias Panik ist mittelfristig jedenfalls gut für alle Kunden weil mehr Auswahl und billiger. Kurzfristig dürfte das alleine wegen der Verfügbarkeit wenig ändern. Aber ich glaube, jemand wie Miami wird sich noch freuen, nicht doch bereits >1500€ für eine 3090 hingelegt zu haben.

Navi1 als Grundlage + PS5 Taktraten + AMD Ankündigungen (+50% Effizienz) + Insiderinfos sollten reichen für die Profis bei nV um das abschätzen zu können...

stinki
2020-10-26, 15:01:56
Jetzt fehlt nur noch eine 3080Ti mit 12GB zwischen 3080 und 3090 :-)
Mal abwarten wie schnell 6900XT wird und ob sie so eine dann noch als Reaktion darauf mit 350W launchen.

basix
2020-10-26, 15:05:30
Jetzt fehlt nur noch eine 3080Ti mit 12GB zwischen 3080 und 3090 :-)

Sowas scheint aktuell deutlich wahrscheinlicher als eine 3080 20GB zu sein.

Ex3cut3r
2020-10-26, 15:11:46
DLSS, RTX, Treiber / Software, Prestige ...... es gibt weiterhin Gründe

DxR wird auch Navi können. Bleibt DLSS für 3% der Spiele. Treiber/Software ist IMO gleich, da nehmen sich beide nix.

AMD bietet.
- Mehr VRAM
- Weniger Stromverbrauch (sind wahrscheinlich aber nur 50-75W Ersparnis)
- Bessere Verfügbarkeit?
- 50-100€ günstiger?

stinki
2020-10-26, 15:13:45
Ich würde das an Nvidias Stelle auch vom Marketing her eher so verkaufen:
Wir brauchen für die gleiche Performance wie Navi21 deutlich weniger RAM und sind damit viel effizienter und resourcen-schonender. ;D

MiamiNice
2020-10-26, 15:19:26
Takt ist aber auch nur ein Aspekt von vielen, danach hätte Bulldozer alles rocken müssen.

Nvidias Panik ist mittelfristig jedenfalls gut für alle Kunden weil mehr Auswahl und billiger. Kurzfristig dürfte das alleine wegen der Verfügbarkeit wenig ändern. Aber ich glaube, jemand wie Miami wird sich noch freuen, nicht doch bereits >1500€ für eine 3090 hingelegt zu haben.

Da Amazon die bestellte 3090 Strix OC nicht liefert überlege ich derzeit tatsächlich ob ich eine "Zwischenkarte" kaufe und dann mit dem Refresh nächstes Jahr in 7 von TSMC durchstarte. Fragt sich halt nur was eine geeignete Zwischenkarte speziell für Cyberpunk ist. RT sollte also drin sein aber NV bietet mit RT nur Speicherkrüppel. AMD liefert wohl den Speicher aber kein RT und keinen DLSS Ersatz für das Game. Ist irgendwie gerade eher mau, am besten wäre es noch eine 2080TI für um 400 zu schießen.

basix
2020-10-26, 15:33:06
Ich würde das an Nvidias Stelle auch vom Marketing her eher so verkaufen:
Wir brauchen für die gleiche Performance wie Navi21 deutlich weniger RAM und sind damit viel effizienter und resourcen-schonender. ;D

Diese Argumentation wird aber schwer, bei deutlichem Mehrverbrauch und grösseren / schwereren Kühlern (welche auch Rohstoffe für die Herstellung benötigen ;))

Adam D.
2020-10-26, 15:53:05
https://twitter.com/kopite7kimi/status/1320702114977304577

10GB GD6X
TGP 320W
PG132-SKU35
device id 2207
It's an emergency product for 6800XL, seems like a new GTX 465.

Dass ich NV und "emergency product" nochmal in einem Satz lesen würde, hätte ich auch nicht für möglich gehalten. Ganz unabhängig davon, was genau am Mittwoch passiert, wir haben endlich wieder Konkurrenz auf dem GPU-Markt. Das kann nur gut für uns Kunden sein.

dildo4u
2020-10-26, 15:55:48
Nicht so neu erinnert an 1070 Ti/2070S.

Adam D.
2020-10-26, 15:58:00
Nicht so neu erinnert an 1070 Ti/2070S.
Das ist doch überhaupt nicht vergleichbar. In deinen Beispielen hat NV lockerflocking einfach eine Karte nachgeschoben, ohne groß was dafür machen zu müssen. Mit Navi 21 haben sie eindeutig ihre komplette Planung über den Haufen geworfen.

stinki
2020-10-26, 15:59:56
Das kann nur gut für uns Kunden sein.

Wenn man sieht wie viele Produkte schneller als 2080Ti wir ab nächsten Monat haben werden ab ca. $500, dann ist das wirklich super verglichen mit den letzten Jahren. Da wird für jeden, der so viel Geld ausgeben will, bestimmt etwas dabei sein. Das freut mich persönlich auch immens für das PC Gaming.

dildo4u
2020-10-26, 16:00:45
Ist genau das selbe Verwertung nicht vollwertiger Chips mit vergleichbarer Vram Menge.
Das ganze macht jetzt mehr Sinn als in einem Jahr da du jetzt schlechtere Yields hast.

MiamiNice
2020-10-26, 16:13:32
Mit Navi 21 haben sie eindeutig ihre komplette Planung über den Haufen geworfen.

Ist halt die Frage ob es wegen Navi ist oder wegen den miesen Yields von Samsung.

robbitop
2020-10-26, 16:14:18
68 von 84 SMs ist bereits verglichen wie viele Einheiten man sonst (relativ) deaktiviert eine ganze Menge deaktivierter Einheiten. Eine 3070 auf GA102 Basis würde noch wesentlich mehr davon deaktivieren. Entweder sind die Yields grottig oder man schafft mit GA104 einfach nicht das Performancelevel was man gegen den angepeilten Wettbewerber braucht.

Dir ist klar, dass Ampere durchweg schneller ist? Die PS5 ist auf dem Niveau einer 250€ Ampere Karte. :rolleyes:

Ich kenne aktuell keine 250 € Ampere Karte. Kläre uns doch mal auf.
Für 399 € (PS5 digital edition) bekommt man ein komplettes System inkl Zen 2 8x Core CPU und 16 GB RAM und 825 GB SSD. Zeig das mal in einem Gaming PC mit Ampere. ;)

stinki
2020-10-26, 16:21:54
Ich finde das Lineup mit 3070 8GB, 3070Ti 10GB und 3080 10GB aber auch viel passender, als wenn man da jetzt noch Karten mit 16GB und 20GB reingeschoben hätte.
Wenn man jetzt noch eine 3080Ti mit 12GB bringt nach oben hin als "low-cost" Option für 3090 dann fände ich das schon recht rund.
Vielleicht GA102-250 mit ein paar mehr CUs als GA102-200 z.B. 72 damit das auch noch mit einem GA103 später passt und 350W.
Das Grundproblem mit den maximal 10-12GB RAM bleibt natürlich, aber da muss Nvidia jetzt erst mal bis zum Refresh durch. Das wird man aber in den normalen 4K Benchmarks wahrscheinlich im nächsten Jahr auch nirgends als Problem sehen.
Und zum Refresh verdoppelt man den Speicher wenn nötig.

Thunder99
2020-10-26, 17:00:31
Daher, wer mehr VRAM haben möchte muss wohl warten oder zur Konkurrenz greifen

Ex3cut3r
2020-10-26, 17:10:08
Was sich Nvidia dabei gedacht hat, ende 2020 und mit einer neuen Konsolen Gen vor rls. auf 8 und 10GB im Performance Segment zu setzen, ist mir wirklich ein großes Fragezeichen. 8GB gab es bei Nvidia im Mai 2016 mit der GTX 1070 für 500€. Das sind mittlerweile 4-5 Jahre, das sind im Technolgie Bereich Jahrzehnte. Ich wurde den zuständigen Ingenieur feuern lassen.

y33H@
2020-10-26, 17:28:53
Das war sicherlich kein Ingenieur ;)

mironicus
2020-10-26, 17:33:25
Beim nächsten Mal gibt es sicherlich die gewünschten 16 GB für Karten ab 500 Euro von NVidia, wenn AMD mit seiner Strategie besonders erfolgreich war.

TheAntitheist
2020-10-26, 17:38:32
DxR wird auch Navi können. Bleibt DLSS für 3% der Spiele. Treiber/Software ist IMO gleich, da nehmen sich beide nix.

AMD bietet.
- Mehr VRAM
- Weniger Stromverbrauch (sind wahrscheinlich aber nur 50-75W Ersparnis)
- Bessere Verfügbarkeit?
- 50-100€ günstiger?
CUDA
iray
RTX Voice
Bandbreite
Bessere Raytracing performance
Nvenc

Ex3cut3r
2020-10-26, 17:42:32
Was interessiert mich als Gamer dieser Schmarn? Brauch ich alles nicht. Habe ich auch noch nie genutzt, trotz Kepler, Pascal, und Turing Karte.

bloodflash
2020-10-26, 17:46:44
Was sich Nvidia dabei gedacht hat, ende 2020 und mit einer neuen Konsolen Gen vor rls. auf 8 und 10GB im Performance Segment zu setzen, ist mir wirklich ein großes Fragezeichen. 8GB gab es bei Nvidia im Mai 2016 mit der GTX 1070 für 500€. Das sind mittlerweile 4-5 Jahre, das sind im Technolgie Bereich Jahrzehnte. Ich wurde den zuständigen Ingenieur feuern lassen.


Man bedenke Polaris mit durchgängig 8GB (hier eine RX570 aus Ende 2018 für 170 oder 180,-EUR). Dass nV bei der 3080 nicht auf 12GB gegangen ist, ist mir einfach unverständlich. Die Probleme bei Ampere sind dermassen offensichtlich, dass AMD am Mittwoch nur gewinnen kann - ausser sie stellen sich sehr dämlich an.


Schön auch das Raunen mit nV und TSMC 7nm im ersten Halbjahr. Dann müsste nV ja schon vor Mitte 2020 mit den Planungen dafür angefangen haben. Halte ich auch nur für eine Durchhalteparole.


Das wird echt spannend zum Jahreswechsel...

Hakim
2020-10-26, 17:53:30
Seit 50 Seiten wiederholen hier einige immer wieder das selbe, jeder hat es mitbekommen, man muss es nicht nonstop neu Posten. Was einige nie verstehen werden, es gibt nicht das eine richtige Produkt für alle, zu Sandy B Zeiten haben einige auch Bulldozer gekauft und zu Pascal Zeiten auch viele Vega, wo ist das Problem? Lasst doch jedem das kaufen was er möchte. Dieses krankhafte aufdrängen der eigenen Meinung auf andere....

bloodflash
2020-10-26, 17:53:53
CUDA
iray
RTX Voice
Bandbreite
Bessere Raytracing performance
Nvenc


CUDA!? Für Gaming?
RTX Voice!? Ernsthaft?
Bandbreite!? Abwarten.
RT!? Genau wie DLSS: Für die 2 Dutzend Games aus zig Tausend vielleicht für Fans und 2022 ein Thema. Besser: Für die nächste Generation.

Nvenc!? Dann doch lieber per CPU in sauber.


Ich bin ja schon froh, dass AMD mit Freesync und jetzt Standard-VRR über HDMI 2.1 nV den Zahn gezogen haben. Die Konsolen werden G-Sync den Todesstoss versetzen. Leider hat das echt zu lange gebraucht, so dass es kaum Geräte aktuell am Markt dafür gibt...

Dural
2020-10-26, 17:54:06
Die neuen Konsolen haben real auch nicht mehr als 10GB VMem für 4K :rolleyes: wie so wird dieser Fakt immer wieder ignoriert?
Der PC kann Daten direkt aus dem Ram in die Grafikkarte laden, oder falls nötig jetzt auch direkt auf die SSD zugreifen. Bei den Konsolen steht nur der langsamere Weg über die SSD zur Verfügung.....

Dazu ist GDDR6X ziemlich sicher nicht gerade günstig, ist es doch der schnellste zur Verfügung stehender Speicher (abseits HBM)

Die Frage ist eher wie so NV so stark auf GDDR6X gesetzt hat und ob es mit GDDR6 nicht auch gegangen wäre, im falle der 3080 ganz sicher sogar.


Ich kann das Speicher Theater langsam aber sicher nicht mehr anschauen, was die PC Gamer vor allem brauchen sind endlich vernünftig optimierte PC Spiele!!!

just4FunTA
2020-10-26, 18:18:24
Die neuen Konsolen haben real auch nicht mehr als 10GB VMem für 4K :rolleyes: wie so wird dieser Fakt immer wieder ignoriert?



weil es kein Fakt ist jedenfalls höre ich das zum ersten mal das die PS5 nur 10gb nutzen darf. Genausowenig ist 4k Pflicht

bloodflash
2020-10-26, 18:31:33
Die neuen Konsolen haben real auch nicht mehr als 10GB VMem für 4K :rolleyes: wie so wird dieser Fakt immer wieder ignoriert?
Der PC kann Daten direkt aus dem Ram in die Grafikkarte laden, oder falls nötig jetzt auch direkt auf die SSD zugreifen. Bei den Konsolen steht nur der langsamere Weg über die SSD zur Verfügung.....



Warum soll ich mir eine GraKa mit 10GB kaufen, wenn ich dieselben Texturen auf Konsolen sehen kann? Bisher war doch Fakt: PC gibt mehr Qualität weil dafür mehr dedizierter Speicher zur Verfügung steht, ausser natürlich bei der 3080.



Die neuen Konsolen können direkt in den Speicher nachladen, weil sie extra Hardware dafür haben. Der PC Muss mehrmals umkopieren, weil es noch keinen etablierten Standard gibt. Der PC kopiert per CPU in den RAM und dann in den GPU-Speicher. Die Konsolen direkt von PCIe4-SSD in den Unified-Speicher!


An der Front ist der PC *noch* Ancient-Hardware-From-The-Past!
Und dann sind auch noch die PCs diejenigen mit dem lahmen SSD-Speicher über Umwege. Yeah, 64GB zum Zocken und trotzdem lahmarschig.


Meine RX570 hat fast so viel Speicher wie die 3080 :eek:

dargo
2020-10-26, 18:38:39
Die neuen Konsolen haben real auch nicht mehr als 10GB VMem für 4K :rolleyes: wie so wird dieser Fakt immer wieder ignoriert?
Der PC kann Daten direkt aus dem Ram in die Grafikkarte laden, oder falls nötig jetzt auch direkt auf die SSD zugreifen. Bei den Konsolen steht nur der langsamere Weg über die SSD zur Verfügung.....

Dieses Halbwissen wieder... :facepalm:

Edit:
Hier hast du ein weiteres Beispiel was passiert wenn 8GB Vram bei ultra Texturen nicht mehr reichen (zweites Video).
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12472726&postcount=91

Und das ist ein Spiel noch für die alten Konsolen. Und nein... 11GB reichen auch nicht.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12472570&postcount=81

ianm
2020-10-26, 18:39:01
fH5dfOna6ak

Raytracing steckt immer noch in den Kinderschuhen. Ubisoft ok, aber die fps überzeugen mich nicht, wenn man sieht wieviel Kohle man dafür ausgeben muss. Und das bei einem Nvidia Titel.

Ex3cut3r
2020-10-26, 18:39:09
Bitte ignoriert Dural. Der ist quasi seit dem 10GB Launch der 3080 hier am schön reden, das Argument mit der Konsole hat er schon seit Wochen gebracht. Was interessiert einen PCler Konsolen Settings? Und dann auch noch wenn man 850€ auf den Tisch gelegt hat? Da will man doch logischerweise für die nächsten 2 Jahre alles maximieren. Wird halt nur schwierig wenn selbst ne Konsole mehr Speicher hat. :D

Asaraki
2020-10-26, 18:42:35
Was interessiert mich als Gamer dieser Schmarn? Brauch ich alles nicht. Habe ich auch noch nie genutzt, trotz Kepler, Pascal, und Turing Karte.

Die meisten Leute zocken auf ihrer Arbeitskiste ;-) Das macht sehr oft den Unterschied ob man nV oder AMD reinsteckt und davon einfach ein schnelles Modell.

Die echte Welt kümmert sich meistens wenig um die Argumente hier ^^

dargo
2020-10-26, 18:49:24
Die echte Welt gibt auch keine 850€ für ne Graka aus.

Thunder99
2020-10-26, 19:02:00
Die echte Welt gibt auch keine 850€ für ne Graka aus.
Kommt drauf an. Pauschalisieren kann man es nicht :wink:

bloodflash
2020-10-26, 19:11:24
Kommt drauf an. Pauschalisieren kann man es nicht :wink:


Pauschalisieren kann man eigentlich nur, dass Enthusiasten mit ihrem <1%-Marktanteil, in Foren ihren 4-stelligen Kauf zu rechtfertigen versuchen, um die 8 Pixel Unterschiede gegen eine 180,-EUR-Graka mit DLSS auf eine neues Niveau zu hieven. Und wenn RT dann die Zukunft bedeutet, darf es auch scheisse aussehen.


:freak:

Dampf
2020-10-26, 19:21:37
Dieses Halbwissen wieder... :facepalm:

Edit:
Hier hast du ein weiteres Beispiel was passiert wenn 8GB Vram bei ultra Texturen nicht mehr reichen (zweites Video).
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12472726&postcount=91

Und das ist ein Spiel noch für die alten Konsolen. Und nein... 11GB reichen auch nicht.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12472570&postcount=81

Dein Marvel Beispiel ist interessant. Sind die Kanäle die einzige Stelle, wo die 8 GB Probleme machen? Läuft dein RAM im Single oder Dual Channel? Läuft das Spiel von deinem Datengrab oder von deinen zahlreichen SSDs?

dargo
2020-10-26, 19:27:31
Dein Marvel Beispiel ist interessant. Sind die Kanäle die einzige Stelle, wo die 8 GB Probleme machen? Läuft dein RAM im Single oder Dual Channel? Läuft das Spiel von deinem Datengrab oder von deinen zahlreichen SSDs?
* es gibt viele Areale wo die 8GB nicht reichen
* Single Channel? :uconf3:
* natürlich ist alles hier auf SSDs, Datengrab ist nur Datengrab

jay.gee
2020-10-26, 19:28:28
Pauschalisieren kann man eigentlich nur, dass Enthusiasten mit ihrem <1%-Marktanteil, in Foren ihren 4-stelligen Kauf zu rechtfertigen versuchen, um die 8 Pixel Unterschiede gegen eine 180,-EUR-Graka mit DLSS auf eine neues Niveau zu hieven. Und wenn RT dann die Zukunft bedeutet, darf es auch scheisse aussehen.

Man könnte das Argument auch umdrehen. Die meisten Preisleistungsspieler rechtfertigen ihre Anschaffung, weil sie sich mehr schlicht nicht leisten können.

bloodflash
2020-10-26, 19:40:12
Man könnte das Argument auch umdrehen. Die meisten Preisleistungsspieler rechtfertigen ihre Anschaffung, weil sie sich mehr schlicht nicht leisten können.


Nöh, die RX570/8GB war Ende 2018 einfach das beste Preis-/Leistungsverhältnis für einen durchaus guten 1200p-Monitor und für alle Spiele ausreichend bis DATO - ja, auch Cyberpunk 2077.



Wenn man dann mal auf 4k/120Hz/VRR umschwenkt, kommen auch mal Spiele die das verlangen.


Bis dahin ist es nur 1. Welt und sinnloses verballern von Ressourcen. Aber das war es 2018 schon.

Ex3cut3r
2020-10-26, 19:50:21
Oh nein. Jay. holt mal wieder Geld Keule raus. Um andere zu diskreditieren. Ich hol schon mal das Popcorn. ;D

dargo
2020-10-26, 19:53:41
Geld ist immer das geilste Argument. :uup:

Edit:
Bevor ich wieder falsch verstanden werde... für die Masse da draußen spielt ein bestimmtes Budget sicherlich bei der Anschaffung eine entscheidende Rolle, pauschalisieren lässt sich da nichts. Genauso gibt es aber auch die anderen Seite... für viele Nerds in diesem Forum sind Grafikkartenpreise Kleingeld. Erst recht wenn man sicher im Leben steht. Da geht es nicht um leisten können sondern leisten wollen!

Dampf
2020-10-26, 20:09:40
Single Channel? :uconf3:


Naja, da haben wirs ja. Doppelte Speicherbandbreite und geringere Zugriffszeiten machen sehr viel aus, auch wenn der VRAM an sich natürlich deutlich schneller ist.

Wenn du mir nicht glaubst, probier es selbst aus. RAM ist doch so billig heutzutage ;) Nicht ohne Grund verlangen Spiele mittlerweile Dual Channel als Standard! Klar es wird nicht in jeder Situation mit VRAM Mangel helfen, aber in den meisten Fällen sicherlich.

jay.gee
2020-10-26, 20:09:42
Bevor ich wieder falsch verstanden werde... für die Masse da draußen spielt ein bestimmtes Budget sicherlich bei der Anschaffung eine entscheidende Rolle, pauschalisieren lässt sich da nichts. Genauso gibt es aber auch die anderen Seite... für viele Nerds in diesem Forum sind Grafikkartenpreise Kleingeld. Erst recht wenn man sicher im Leben steht. Da geht es nicht um leisten können sondern leisten wollen!

Exakt so war es gemeint, dargo. Und dann ergibt mein Beitrag im Zusammenhang gelesen auch Sinn. Es ist mit Sicherheit nicht mein Anliegen, sozial schwächer gestellte Menschen ans Bein zu pissen. Preisleistung in sich ist doch etwas völlig Vernünftiges und absolut legitim. Und im Kontext globaler Probleme ist es in der Tat fast schon Irrsinn, über was für Preise wir heutzutage diskutieren. Aber Menschen, die etwas mehr Geld investieren, weil sie es sich leisten können, müssen ihre Investitionen, anders als oben behauptet, auch nicht künstlich rechtfertigen.

bloodflash
2020-10-26, 20:16:50
Geld ist immer das geilste Argument. :uup:

Edit:
Bevor ich wieder falsch verstanden werde... für die Masse da draußen spielt ein bestimmtes Budget sicherlich bei der Anschaffung eine entscheidende Rolle, pauschalisieren lässt sich da nichts. Genauso gibt es aber auch die anderen Seite... für viele Nerds in diesem Forum sind Grafikkartenpreise Kleingeld. Erst recht wenn man sicher im Leben steht. Da geht es nicht um leisten können sondern leisten wollen!


Ich will mir das auch leisten wollen.


Nur bei mangelnder Auswahl von HDMI 2.1 Monitoren und entsprechenden Grafikkarten, warte ich doch auf breite Verfügbarkeit. Solange es keine Games dafür gibt, ist das doch rausgeschmissenes Geld.


Was soll ich mir das Wohnzimmer mit einem schwarzen Loch in 75" und 4k tapezieren, wenn es für 1080p in 42" nur homöophatischen Input gibt?
Und dann 4k für's Gaming auf dem Monitor? Es gibt kaum Geräte für 4K/HDMI2.1/DP2.0/HDR mit VRR!


Soll ich mir jetzt einen Klotz ans Bein binden, weil ich es kann?


Ich warte, bis es etwas bringt.


Mein 1080p-TV ist übrigens selten ausgelastet.

dargo
2020-10-26, 20:56:39
Naja, da haben wirs ja. Doppelte Speicherbandbreite und geringere Zugriffszeiten machen sehr viel aus, auch wenn der VRAM an sich natürlich deutlich schneller ist.

Wenn du mir nicht glaubst, probier es selbst aus. RAM ist doch so billig heutzutage ;) Nicht ohne Grund verlangen Spiele mittlerweile Dual Channel als Standard! Klar es wird nicht in jeder Situation mit VRAM Mangel helfen, aber in den meisten Fällen sicherlich.
Willst du mich jetzt auf den Arm nehmen? Du glaubst wirklich ich würde meine Systeme im Single-Channel betreiben? :lol:

btw.
Mal ganz davon ab... was bringen dir die 50+GB/s beim Arbeitsspeicher wenn die zeitkritische "Kacke" über den lahmen PCIe 3.0 Bus mit max. 16GB/s muss? :| Und selbst wenn es den Flaschenhals @PCIe nicht gäbe sind die 50+GB/s immer noch Kinderkacke im Vergleich zu den 448GB/s der Graka.

Nazar
2020-10-26, 21:08:58
Man bedenke Polaris mit durchgängig 8GB (hier eine RX570 aus Ende 2018 für 170 oder 180,-EUR). Dass nV bei der 3080 nicht auf 12GB gegangen ist, ist mir einfach unverständlich. Die Probleme bei Ampere sind dermassen offensichtlich, dass AMD am Mittwoch nur gewinnen kann - ausser sie stellen sich sehr dämlich an.


Schön auch das Raunen mit nV und TSMC 7nm im ersten Halbjahr. Dann müsste nV ja schon vor Mitte 2020 mit den Planungen dafür angefangen haben. Halte ich auch nur für eine Durchhalteparole.


Das wird echt spannend zum Jahreswechsel...

Ampere soll von Anfang an ein 7nm Design gewesen sein. Ich glaube, dass Ampere aufgrund der 8nm von Samsung nicht sein volles Potential ausschöpfen konnte.
So gesehen wird Ampere nicht enorm viel aber doch deutlich an Performance aus dem Stehgreif gewinnen können. Änderungen am Design sind eigentlich nicht nötig. Eventuell fließen nur schon Optimierungen ein. Man könnte vermutlich sofort mit der 7nm Produktionsoptimierung beginnen. Und ich glaube, dass das auch schon längst passiert.
Ich vermute, dass spätestens ab Anfang März Ampere in allen Bereichen mit BN mindestens gleichziehen wird.
Vermutlich hat nV derzeit aus einer Not (zu wenig Speicher Chips) eine Tugend gemacht (warten bis der 7nm Prozess in Produktion geht).
Dieses Szenario stellte ich schon Ende August vor, galt da aber noch als "lächerlich". ;)

Blediator16
2020-10-26, 21:41:56
Ich glaube kaum, dass NV nach etwas über einem halben Jahr alles auf TSMC gebracht hat. Innerhalb einer Foundry ja, aber sicher nicht mal eben so von Samsung nach TSMC. Es sei denn sie nehmen die Verluste hin, was ich mir kaum vorstellen kann.

HOT
2020-10-26, 21:46:05
Ist Quatsch, hat Pixeljetstream irgendwann mal bestätigt. Der Prozess ist eine der ersten Entscheidungen die man beim Chipdesign trifft.

MiamiNice
2020-10-26, 21:47:38
Ich vermute das NV von Anfang an zweigleisig gefahren ist. Es gab ja Anfangs diverse Informationen bzgl. Preisverhandlungen, würde bedeuten das NV nicht wusste wo der Chip letztlich produziert wird. Es wäre imo ziemlich schlau wenn man für alle Fälle gerüstet ist und genau das würde ich von einem Unternehmen wie NV erwarten. Lederjäckchen lässt sich imo nicht die Butter vom Brot nehmen. Werden wir dann wohl bald sehen.
Wie hoch wäre der finanzielle Aufwand um zweigleisig zu fahren?

Blediator16
2020-10-26, 21:54:49
Ich vermute das NV von Anfang an zweigleisig gefahren ist. Es gab ja Anfangs diverse Informationen bzgl. Preisverhandlungen, würde bedeuten das NV nicht wusste wo der Chip letztlich produziert wird. Es wäre imo ziemlich schlau wenn man für alle Fälle gerüstet ist und genau das würde ich von einem Unternehmen wie NV erwarten. Lederjäckchen lässt sich imo nicht die Butter vom Brot nehmen. Werden wir dann wohl bald sehen.
Wie hoch wäre der finanzielle Aufwand um zweigleisig zu fahren?


https://www.extremetech.com/wp-content/uploads/2018/06/nano3-640x333.png

Niemals machen sie das zwei mal.

MiamiNice
2020-10-26, 21:59:44
Ist ein Argument. Aber letztlich auch nicht mehr als ein Griff in die Kaffeekasse für NV. Kommt imo drauf an wie weit man voraus geschaut hat und ob man die aktuelle Situation vorhergesehen hat.

Langlay
2020-10-26, 22:11:44
Ist ein Argument. Aber letztlich auch nicht mehr als ein Griff in die Kaffeekasse für NV. Kommt imo drauf an wie weit man voraus geschaut hat und ob man die aktuelle Situation vorhergesehen hat.

Klaro, macht dann auch total Sinn nochmal 1,0+Mrd $ auszugeben um dann Ampere auf 7nm eventuell nochmal neu aufzulegen. Wer glaubt dass nächstes Jahr Ampere @ 7nm TSMC kommt sollte einfach mal weniger Zeug rauchen.

Ex3cut3r
2020-10-26, 22:14:21
Wer glaubt dass nächstes Jahr Ampere @ 7nm TSMC kommt sollte einfach mal weniger Zeug rauchen.

lol.
Aber +1. Das wäre ein gigantischer Verlust für Nvidia. In 2 Jahren bei der nächsten GPU Generation wird Nvidia aber wieder sicherlich auf TSMC setzen. Samsung ist nur gut darin SSDs bzw. DRAM herzustellen, bei anderem Zeug, sollte man lieber die Finger von Samsung lassen.

Schon der Exynos sieht gegen den Snapdragon immer alt aus.

MiamiNice
2020-10-26, 22:14:49
Vielleicht ist es umgekehrt gelaufen und der aktuelle Ampere ist ein Backport auf den Samsung Prozess. Wer das für unmöglich hält, sollte vielleicht anfangen was zu rauchen :biggrin:

Savay
2020-10-26, 22:38:49
Vielleicht ist es ja auch ganz und komplett anders und eigentlich ist es ein Retroport auf Intels 10nm.

Oder auch: nach dem Wundertreiber kommt der Wunderport?!
Ich bin gespannt...

|MatMan|
2020-10-26, 22:44:27
Wenn, dann würde es IMO eh nur GA102 bzw. dessen Ersatz betreffen. GA104 sieht doch bisher nicht so verkehrt aus. Die noch kleineren GPUs kann man erst Recht bei Samsung lassen, wie auch schon bei Pascal. Die gebuchten Abnahmemengen bei Samsung könnte man auch ohne GA102 sicherlich halbwegs erreichen.

Daredevil
2020-10-26, 22:50:42
Warum genau muss Nvidia nun in 7nm fertigen?
Weil es zu viele Käufer gibt, die ihre 1500€ UVP Karte für 2000€+ kaufen wollen?
Das ist natürlich ärgerlich, das Produkt scheint überhaupt nicht gut zu sein. :D
Fertigungsprobleme werden tendenziell besser als schlechter, das wird schon kommen.

Da kann sich Nvidia mit ihrem Flagschiff auch zurücklehnen, an die Ausstattung der 3090 kommt erstmal so schnell nichts ran.

HOT
2020-10-26, 23:01:04
Wenn, dann würde es IMO eh nur GA102 bzw. dessen Ersatz betreffen. GA104 sieht doch bisher nicht so verkehrt aus. Die noch kleineren GPUs kann man erst Recht bei Samsung lassen, wie auch schon bei Pascal. Die gebuchten Abnahmemengen bei Samsung könnte man auch ohne GA102 sicherlich halbwegs erreichen.
Als Ersatz gar nicht. Wenn dann würde es etwas besseres als GA102. Ansonsten ist das Ganze völlig sinnlos.

Awrack
2020-10-26, 23:03:24
Achwas die 10GB werden in den allermeisten Fällen völlig ausreichen in 4K, da mache ich mir in den nächsten 1-2 Jahren keine Sorgen.

r3ptil3
2020-10-26, 23:57:24
Achwas die 10GB werden in den allermeisten Fällen völlig ausreichen in 4K, da mache ich mir in den nächsten 1-2 Jahren keine Sorgen.

Ich plane für den Donnerstag mit einer 3070 und selbst die 8Gb stören mich gar nicht so massiv in WQHD.

Ich vermute aber dass bei VRAM-intensiven Spielen eine 3070 besonders stark von PCIe 4.0 profitieren wird und bei annähernd vollem RAM damit die min. FPS stabilisieren kann.

Wenn ich wählen könnte wären mir aber natürlich trotzdem 12Gb+ lieber.

|MatMan|
2020-10-27, 00:49:13
Als Ersatz gar nicht. Wenn dann würde es etwas besseres als GA102. Ansonsten ist das Ganze völlig sinnlos.
Eine ähnliche große GPU, die etwas schneller ist, würde GA102 doch überflüssig machen und damit ersetzen. Macht doch keinen Sinn den dann noch groß weiterlaufen zu lassen. Die Spekulation geht um einen Refresh, nicht um eine neue Generation...

Hakim
2020-10-27, 01:04:07
Heute 15 Uhr RTX 3070 Reviews?

Ravenhearth
2020-10-27, 01:39:32
Ich denke 14 Uhr

Sardaukar.nsn
2020-10-27, 06:07:13
Heute 15 Uhr RTX 3070 Reviews?

Aber erstmal nur für die Founders Edition, und Customs kommen irgendwann später?

BigKid
2020-10-27, 06:09:12
https://www.extremetech.com/wp-content/uploads/2018/06/nano3-640x333.png

Niemals machen sie das zwei mal.
Hnnm... nicht das ich jetzt dazu ne Meinung habe aber mal aus Neugier:
Wenn ich zweimal den „gleichen“ Chip in unterschiedlichen Prozessen mache - dann fällt doch die obere hälfte einmal weg - oder nicht?
Es ist auch nicht beispiellos - hat Apple vor nicht allzu langer Zeit doch auch schonmal gemacht.
So als Idee: Vlt war der Refresh schon länger für tmsc geplant und wird jetzt gerusht?

horn 12
2020-10-27, 06:43:03
Customs kommen am 29.ten die Testberichte
In der Hoffnung die Navi XL anzugreifen :-))
Da klaffen dann immer noch gute 10 bis 15% auf die Radeon XL, Wetten.

dargo
2020-10-27, 07:28:40
Warum genau muss Nvidia nun in 7nm fertigen?
Weil es zu viele Käufer gibt, die ihre 1500€ UVP Karte für 2000€+ kaufen wollen?
Das ist natürlich ärgerlich, das Produkt scheint überhaupt nicht gut zu sein. :D

Bist du wieder in deiner Parallelwelt unterwegs? :freak: Du meinst die Menge an Geld die Nvidia in R&D bei Ampere gesteckt hat bekommen die wieder rein weil paar Leute sich eine 3090 kaufen? Unfassbar...
Hinzu kommt, dass Nvidia von den saftigen Aufpreisen bei den Straßenpreisen gar nichts hat. Da stecken sich andere Leute die Taschen voll.

Ich plane für den Donnerstag mit einer 3070 und selbst die 8Gb stören mich gar nicht so massiv in WQHD.

Ich vermute aber dass bei VRAM-intensiven Spielen eine 3070 besonders stark von PCIe 4.0 profitieren wird und bei annähernd vollem RAM damit die min. FPS stabilisieren kann.

Dann träum mal weiter. :ulol: