PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 [20] 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

MiamiNice
2020-07-16, 15:24:44
Das ist rein logisch gar nicht möglich. Man kann es sicherlich so kaschieren das es nicht auffällt - aber wenn Bildinformationen interpoliert werden, von mir aus auch gut interpoliert anhand drölfzig Beispiele und von mighty NV KI ausgewählt und eingebunden - bleibt es trotzdem interpoliert.

Und interpoliert ist nun mal Müll. Schon fürs ego, weil die Kiste dann nicht genug Power hat. Ist schon im Kopf pfui und wird auf dem Bild sicher nicht besser. Wenn dann lieber mit mehr Power auf doppelter Auflösung berechnen, nativ, und DS betrieben.

Alles andere ist erfunden und erlogen, nicht echt.

Troyan
2020-07-16, 15:33:43
So wie digital gegenüber analog?

Klevapalis
2020-07-16, 15:39:38
Und interpoliert ist nun mal Müll.
DLSS interpoliert ja eben nicht, das ist ja der Trick dran.

Das sollte man schon verstanden haben, bevor man die Technik per se als Scheiße hinstellt.

dargo
2020-07-16, 15:39:42
Das Speicherbudget für Nanite, der komplexen Geometrie Engine der UE5 betrug gerade einmal 768 MB. Zum Vergleich, Killzone Shadowfall hatte minimal weniger, 567 MB.

So viel zum Thema der VRAM Bedarf wird mit der Next Gen stark ansteigen. Habs euch ja gesagt.
Mir wäre neu, dass alle Next-Gen Titel mit der UE5 kommen.

BlacKi
2020-07-16, 15:41:30
Es sieht besser aus UND erhöht die Leistung massiv?? :confused:
die AI wird trainiert, aus einem 1080p bild ein 16k bild zu machen. sie versucht nicht möglichst nah an ein natives 4k bild ranzukommen, sondern an ein 16k bild. das reicht dann manchmal mehr oder weniger zu vergleichbarer 4k auflösung. daher kommt auch diese extra detailtiefe/schärfe ggü. nativem 4k und manchmal eben einfach artefakte, jenachdem wie gut es umgesetzt wird.

da man die funktionsweise von AI machines nicht, oder nicht immer völlig wissenschaftlich erklären kann, ist es für uns sowas wie magie.

MiamiNice
2020-07-16, 15:44:48
DLSS interpoliert ja eben nicht, das ist ja der Trick dran.

Das sollte man schon verstanden haben, bevor man die Technik per se als Scheiße hinstellt.


Ob sie jetzt interpoliert oder Pixel anhand von angelernten Daten einfügt macht doch kaum einen Unterschied. Etwas was nicht da sein sollte wird aus anderen Daten dazugefügt. Gibt es doch jetzt nicht so viel dran zu verstehen. Ok, hier macht es eine KI die darauf trainiert wird, supi.

Nicht nativ ist nicht nativ. Ist wie bei Olivenöl ;D

Das ist keine Magie, das ist schummeln auf hohem Niveau weil man nicht die Eier hat es richtig zu machen. Es fehlt Power.

Klevapalis
2020-07-16, 15:47:00
Ob sie jetzt interpoliert oder Pixel anhand von angelernten Daten einfügt macht doch kaum einen Unterschied.
Wo ist jetzt der Unterschied, ob ein Pixel virtuell gerendert wird oder ob er virtuell per AI erzeugt wird? :ugly:

Eigentlich ist schlussendlich beides einfach nur Code, der am Ende ein paar Pixel auf den Monitor zaubert. Das eine abzustrafen und das andere nicht - das ist einfach ziemlich dumm. Hätte man auch bei den ersten GPUs rufen können "Nur per Software berechnete Pixel sind gute Pixel!".

MiamiNice
2020-07-16, 15:50:57
Wenn Du fragen musst wo da der Unterschied ist, bin ich mir nicht so sicher wer von uns beiden dumm ist äh dumme Gedanken hat.
Liegt doch mehr als nur auf der Hand.

Neosix
2020-07-16, 16:02:36
Dann bin ich auch Dumm, wie ein Bild zustande kam ist mir vollkommen latte. Dieses Festhalten an Nativ IST Dumm. Am Ende muss es gut aussehen und reproduzierbare Ergebnisse haben. Das bietet DLSS. Ob es per KI, Magie oder Glückskekse gemacht wird, ist mir egal.

MiamiNice
2020-07-16, 16:19:46
Ihr könnt euch gar gerne von zahlreichen Algorithmen, KI lol, beschummeln lassen. Ist ja jedem selbst überlassen. Ich hätte trotzdem gerne genug Rohpower um 4K mit min. 100Fps zu spielen und zwar nativ. Mache auch eher selten AA oder Konsorten an, spiele meist mit DS, das reicht mir. Bin ich halt tierisch dumm weil ich ein "echtes" und auf meiner Maschine gerendertes Bild vorziehe.
Fragt doch mal bei Sony und MS an ob die in der nächsten Gen nicht NV GPUs verbauen können. Dann reichen ja auch 720p als Grundlage, bissel Algorithmus "Magic" drüber, und fertig ist der 8K Content. Dann braucht ihr auch nicht mehr so viel Geld für euren PC auszugeben. Win-Win.

unl34shed
2020-07-16, 16:24:03
Wenn Du fragen musst wo da der Unterschied ist, bin ich mir nicht so sicher wer von uns beiden dumm ist äh dumme Gedanken hat.
Liegt doch mehr als nur auf der Hand.

Lass es, das wird nix. Man darf DLSS nicht kritisieren, denn es ist magisch.

Dabei kommt das "bessere" Bild eigentlich nur von einer schlechten TAA Implementierung und dem Schärfefilter bei DLSS. Denn Scharf sieht gleich viel besser aus. Dann wird auch gerne "native Auflösung" gesagt und dabei immer das TAA unterschlagen, dass die Qualität des Bildes verschlechtert.

Ist ähnlich wie bei RTX, man gibt sich weniger Mühe für die Effekte und dann sehen sie mit RTX-ON gleich viel besser aus...

Ex3cut3r
2020-07-16, 16:31:07
Ihr tut ja so als wäre DLSS nicht deaktivierbar. Wer es nicht mag, einfach nicht anschalten. Aber es ist doch trotzdem an sich eine geile Technik. Das Bild per KI aufzuwerten. Der Leistungsgewinn ist bei 99% gleich bleibender Qualität enorm. Teilweise gewinnt man 30-40 FPS. :eek:

Komischerweise höre ich nur Kritik von Leuten, die entweder eine AMD Karte im Rechner haben oder noch eine Pascal GPU haben. Turing Besitzer sind relativ ruhig. :uponder:

rentex
2020-07-16, 16:32:42
Und nochmal: Braucht DLSS eine stehende Onlineverbindung zu NV?

Ex3cut3r
2020-07-16, 16:33:24
Nein. Wie kommt man darauf? Einfach den Treiber Updaten für DLSS Support für das jeweilige neue Game.

aufkrawall
2020-07-16, 16:37:38
Komischerweise höre ich nur Kritik von Leuten, die entweder eine AMD Karte im Rechner haben oder noch eine Pascal GPU haben. Turing Besitzer sind relativ ruhig. :uponder:
Braucht man eine RTX-Karte, um die Grafikfehler in Raffs Video zu sehen, die aussehen wie das Black Smearing eines kaputten VA-Panels?

Btw. auch witzig, dass CB-Wolfgang so etwas wieder mal nicht auffällt. Warum erinnert er mich nur so an ihn hier? :freak:
https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcR-mGg5yhaupawjFCGHvEfv52YeAJyL0GxTkBcK4P6Ul5Es7VQ&s

Ex3cut3r
2020-07-16, 16:38:40
Braucht man eine RTX-Karte, um die Grafikfehler in Raffs Video zu sehen, die aussehen wie das Black Smearing eines kaputten VA-Panels?

Btw. auch witzig, dass CB-Wolfgang so etwas wieder mal nicht auffällt. Warum erinnert er mich nur so an ihn hier? :freak:
https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcR-mGg5yhaupawjFCGHvEfv52YeAJyL0GxTkBcK4P6Ul5Es7VQ&s

Gut, es nicht perfekt. Bei Control ist mir so ein krasses Smearing aber nicht aufgefallen. Wolfenstein habe ich nicht. Control ist ehrlich gesagt mein einziges DLSS 2.0 Game. :redface:
Das Problem ist einfach. Leute ohne Turing GPU, also die es noch nie Live gesehen haben. Maßen sich ein besseres Urteil darüber zu fällen, als Turing Besitzer. Und das ist einfach nur ganz wrong.

rentex
2020-07-16, 16:41:45
Nein. Wie kommt man darauf? Einfach den Treiber Updaten für DLSS Support für das jeweilige neue Game.

DANKE!

Nun, ich bleibe bei meiner Meinung. DLSS ist einfach ne "Ausrede" für mangelhaft optimierte Leistung in Spielen.
Man hat mit Karten wie der 2080Ti, Leistung ohne Ende.

Neosix
2020-07-16, 16:43:14
@Miami und unl34shed
Was ist das bitte ne Diskussionsstil, niemand hat hier gesagt man braucht nicht mehr Rohpower oder man hätte nicht gerne mehr. Genau so wie niemand hier sagt, man darf die Technik nicht kritisieren. Es hatte klare Nachteile, z.B. das es nicht auf allen Games läuft oder eben in extrembeispielen wie bei Death Stranding bei gewissen Objekten (nicht bei allen!) zum schlieren neigt. Dafür kriegt man perfekte Stromseile geliefert und nicht Artefakte wo man sich die Hälfte dazudenken soll. Nativ und so...

Aber DLSS v2 ist eben nur der IST zustand.Vor einem Jahr hatten wir v1 mit viel krasseren Nachteilen bei schlechterer Bildqualität. In einem Jahr haben wir vielleicht schon V3 mit einem komplett anderem Bild.

robbitop
2020-07-16, 16:44:39
DLSS kann niemals besser aussehen als ein natives Bild. Alles andere ist Einbildung. Wie auch immer es funktioniert, es werden Dinge dazu geraten die nicht vorhanden sind.
Die temporale Komponente ermöglicht das. Bild für Bild wird die Sampleposition des Pixels leicht verschoben. Das kennt man ja auch schon von 8xTSSAA. Allerdings gibt es je nach Content entweder Probleme mit Ghosting oder Unschärfe. Das NN bekommt das deutlich besser hin als ein statischer Algorthmus.
Das ist einer der Hauptkomponenten von DLSS 2.0 (bzw macht den TAA Part von DLSS überhaupt so gut).
Die Informationen werden nicht erfunden - sie sind temporal vorhanden (für jedes Bild einen anderen Z und Farbwert pro Pixel durch das Jittering). Sie müssen nur abgetestet und verarbeitet werden. Aber genau das ist bei dynamischen Bildinhalten zu versatil für eine Heuristik/einen statischen Algoritmus. DLSS 2.0 nutzt ein speziell dafür trainiertes NN um das möglichst Artefaktfrei auch bei dynamischen Inhalten hinzubekommen.


Das kann man sich ein wenig vorstellen, wie in einem fahrenden Auto durch eine Hecke auf einen Sportplatz zu schauen. Der Sportplatz ist im stehenden Bild nur z.T. zu sehen. Vieles durch die Hecke verdeckt. Bewegt man sich (fahrendes Auto oder gehen oder auch nur den Hals hin und her bewegen), samplet man eben andere Informationen. Und die kombiniert das Gehirn und lässt den vollständigen Sportplatz inkl. aller Details vor dem geistigen Auge erscheinen. Da wird nichts dazu erfunden.
Das ist zwar eine simplifizierte und krude Analogie - aber ggf ja nützlich.

MiamiNice
2020-07-16, 16:55:29
Und nochmal: Braucht DLSS eine stehende Onlineverbindung zu NV?

Nein, weil keine KI trainiert wird, wie hier behauptet wird, es sind "nur" (ich möchte den Aufwand dahinter nicht schmälern) viele Algorithmen die auf ein Bild bzw. Frame angewendet werden.

BlacKi
2020-07-16, 16:59:05
Man hat mit Karten wie der 2080Ti, Leistung ohne Ende.
nein, man kann nie genug leistung haben. allerdings sehe ich dlss als abkürzung das zu bekommen was ich will. ein gutes bild mit sehr guter performance.

Fragman
2020-07-16, 17:01:10
Nein, weil keine KI trainiert wird, wie hier behauptet wird, es sind "nur" (ich möchte den Aufwand dahinter nicht schmälern) viele Algorithmen die auf ein Bild bzw. Frame angewendet werden.

Es wird eine KI trainiert, nur nicht live auf der Graka. Die Ergebnisse dieses Trainings werden für DLSS verwendet. Aber das kann man ja alles nachlesen.

MiamiNice
2020-07-16, 17:02:07
nein, man kann nie genug leistung haben. allerdings sehe ich dlss als abkürzung das zu bekommen was ich will. ein gutes bild mit sehr guter performance.


Und genau das ist der Punkt. Abkürzung
Das Wort zum Sonntag. Danke.

Es wird eine KI trainiert, nur nicht live auf der Graka. Die Ergebnisse dieses Trainings werden für DLSS verwendet. Aber das kann man ja alles nachlesen.

Ist mir durchaus bewusst. Wir könnten natürlich jetzt streiten was genau eine KI ist aber die Diskussion die dann kommt - mag ich mir nicht geben.

robbitop
2020-07-16, 17:06:44
Nein, weil keine KI trainiert wird, wie hier behauptet wird, es sind "nur" (ich möchte den Aufwand dahinter nicht schmälern) viele Algorithmen die auf ein Bild bzw. Frame angewendet werden.
Das ist IMO nicht richtig. Es ist ein neuronales Netz. Das wird auf Servern trainiert und der jeweilige Stand wird mit dem Treiber mitgeliefert. Die Tensor Cores erledigen das Inferencing (und nutzen dafür das fertig trainierte NN als Basis). Die Aufgabe ist hier besser als eine Heuristik die temporal vorhandenen Daten nutzbar zu machen.

Ex3cut3r
2020-07-16, 17:07:49
Miami, deine Vorurteile sind vollkommen unbegründet. Es ist ein tolles Feature wenn man es will. Es ist ja nicht zwingend sondern optional. Es ist ein Feature welches AMD nun mal nicht hat. Das ist gut für Nvidia, um weiter als die PC Gaming Plattform zu bleiben, die Sie heute ist.

BlacKi
2020-07-16, 17:11:17
Und genau das ist der Punkt. Abkürzung
Das Wort zum Sonntag. Danke.
dlss is here to stay!

AnnoDADDY
2020-07-16, 17:22:43
DLSS als scheiße zu bezeichnen nur weil es ein besseres Bild als das Native Bild liefert ist genauso dämlich wie wenn man sich über AA oder AF oder dithering beschweren würde. All das braucht es damit ein vernünftiges gefiltertes Bild entsteht.

rentex
2020-07-16, 17:48:00
Man kann es drehen und wenden wie man möchte, DLSS soll mangelnde Optimierungsarbeit kaschieren.
Es ist technologisch ein Wunder, aber Blendwerk. Spart ungemein Entwicklungszeit.
Besonders in der Kombi RTX.

robbitop
2020-07-16, 17:53:20
Man kann es drehen und wenden wie man möchte, DLSS soll mangelnde Optimierungsarbeit kaschieren.
Es ist technologisch ein Wunder, aber Blendwerk. Spart ungemein Entwicklungszeit.
DLSS 2.0 ist eine Option den Bedarf an Rechenleistung zu reduzieren. Das ist ab keinen spezifischen Zweck gebunden.

Da Shrinks immer länger dauern, immer weniger Power/Density bringen und immer teurer werden und auch Designs immer komplexer und teurer werden, nimmt leider auch das Transistorwachstum pro Zeiteinheit ab.
Entsprechend ist es sinnvoll, so viele Optionen wie möglich zu finden, die den Rechenaufwand und Overhead reduzieren.

Mesh shading, VRS, DLSS etc sind sinnvolle Mittel, mehr aus jedem Transistor zu holen.

Wo spart DLSS denn Entwicklungszeit? Bei den Spielestudios sicherlich kaum. Denn deren AAA Titel sind in den meisten Fällen auch für Konsolen mit AMD Hardware vorgesehen. Und auch gibt es im PC Bereich nicht nur GPUs, die DLSS unterstützen. Entsprechend ist die DLSS Hardware eher eine Nische.

IMO sollte man da schon mehr differenzieren.

Raytracing ist nicht an DLSS gebunden. Und Raytracing kostet nunmal Rechenleistung. Da wird schon reichlich optimiert. Es ist nunmal der nächste Schritt. So wie es Pixelshading vor 20 Jahren war. Und das kostet nunmal. DLSS kann sicher hier (wie auch VRS) helfen, Rechenleistung zu sparen.

Cubitus
2020-07-16, 18:02:15
Sry aber wo soll den die erwartende Leistung herkommen!?

PC Spieler reden ständig von 4k@mindestens 60 FPS besser noch +100FPS
Dazu soll der Detail Regler immer nach rechts, und wenn HighEnd Settings auf der 1000 Euro Graka unter der Konstellation nicht flüssig laufen, ist das Spiel eben kacke optimiert..

Genau hier aber setzt DLSS ein, ich finde die Technik dahinter durchaus beeindruckend, vor allem wenn es ordentlich funktioniert.

Übrigens bei der PS5 geht man von 4k< natives 4k@30 FPS aus..

MiamiNice
2020-07-16, 18:03:06
Das ist IMO nicht richtig. Es ist ein neuronales Netz. Das wird auf Servern trainiert und der jeweilige Stand wird mit dem Treiber mitgeliefert. Die Tensor Cores erledigen das Inferencing (und nutzen dafür das fertig trainierte NN als Basis). Die Aufgabe ist hier besser als eine Heuristik die temporal vorhandenen Daten nutzbar zu machen.

Das ist natürlich korrekt. Deine Analogie mit dem fahrendem Auto da oben finde ich btw. sehr geil bzw. gut :up:
Allerdings läuft auf dem heimischen PC eben keine "KI", aber das wird gerne suggeriert. Bin mir allerdings nicht sicher woher dieser Irrglaube stammt.

Sry aber wo soll den die erwartende Leistung herkommen!?

PC Spieler reden ständig von 4k@mindestens 60 FPS besser noch +100FPS

Ich würde bevorzugen wenn diese Leistung aus meiner GPU kommt XD. Zur Not auch aus zwei, oder drei, etc. pp. GPUs.
Wenn die Leistung nicht reicht und man sie auch nicht kaufen kann, macht jemand seinen Job nicht richtig. Also meiner Meinung nach.
Weniger an DLSS forschen und RTX dann bringen wenn man einen harten Bruch machen kann (also nur noch Strahlen statt rendern) aber bis dahin -> Tim Tylor Style pls.
Rohpower kann man überall einsetzen, DLSS und RTX eben nicht. Tensor Cores weg, RTX Geraffel weg, mehr klassische "Magic" und mehr Takt.
NV verdient sich dumm und dämlich - da ist sicher auch noch Luft um die DIE Size noch weiter zu erhöhen. Als ob wir schon am Ende des "Machbaren" wären.

Miami, deine Vorurteile sind vollkommen unbegründet. Es ist ein tolles Feature wenn man es will. Es ist ja nicht zwingend sondern optional. Es ist ein Feature welches AMD nun mal nicht hat. Das ist gut für Nvidia, um weiter als die PC Gaming Plattform zu bleiben, die Sie heute ist.

DLSS ist natürlich nicht mehr optional wenn die Leistung nicht mehr reicht. Dann MUSST Du es dazu schalten um überhaupt spielen zu können. Kann man sich jetzt natürlich schön drauf ausruhen.

rentex
2020-07-16, 18:04:18
Eben. Trotzdem bleib ich dabei. Man gewinnt dadurch etwas, beim Optimierungsaufwand. Das wird mit zunehmender Marktdurchdringung der Turing und Ampere Serie, durchaus ein Punkt.

Cubitus
2020-07-16, 18:16:39
Ich würde bevorzugen wenn diese Leistung aus meiner GPU kommt XD. Zur Not aus aus zwei, oder drei, etc. pp. GPUs.
Wenn die Leistung nicht reicht und man sie auch nicht kaufen kann, macht jemand seinen Job nicht richtig. Also meiner Meinung nach.
Weniger an DLSS forschen und RTX dann bringen wenn man einen harten Bruch machen kann (also nur noch Strahlen statt rendern) aber bis dahin -> Tim Tylor Style pls.

Ich versteh dich schon... Nur musst du dich selber fragen, 4K sinnvoll ja oder nein, du kannst bei 1080p bzw. sogar bei 1440p mit einer aktuellen TI jedes Spiel rocken... Kommen wir in die Bereiche von 4k, sind gerade so Features wie DLSS doch ideal... :confused:

Wie gesagt die jetzigen Konsolen werden nicht mal natives 4K@30 FPS schaffen ..
Bei PC Ports allg. wird durch die mehr zu Verfügung stehenden Ressourcen auch weniger als bei den Konsolen getrickst.. Sieht man z.B schön bei den Rockstar Titeln, ein RDR2 sieht einfach geil auf dem PC aus..
Allerdings kommt bei allen Details auch aktuelle HW an ihre Grenzen.. Besonders bei hohen Auflösungen wird der Aufwand exponentiell höher..

und genau da greifen die Verbesserungen wie DLSS bzw. Auflösung Scaling..
Deswegen finde ich solche Features durchaus sinnvoll..

Bzw. bei DLSS, falls gut umgesetzt, hast du ein scharfes Bild und trotzdem alle Details auf Max und dazu noch hohe FPS.. Ist doch ideal..

MiamiNice
2020-07-16, 18:24:57
Und sogar noch niedrigere Frametimes und es zu komplettieren :wink:
Trotzdem finde ich diese Entwicklung nicht gut. Ich bin vielleicht zu altmodisch aber ich will Power.
Ja, ich weiß, wie ein Kind den man den Lolli geklaut hat. Trotzdem. Kennst Du das mit dem Hubraum der durch nichts zu ersetzen ist, außer durch noch mehr davon?
Genau so ist es bei mir mit PC HW.

rentex
2020-07-16, 18:33:48
Hier geht es nicht Mal um Power. Zu 90% werden die vorhandenen Mittel nicht genutzt...weil "zu teuer". Im Grunde geht es dann um das letzte % Marge aus den Spielen zu holen. Und NV bietet das und die Jünger feiern es. Das schreibe ich als NV Käufer...

pixeljetstream
2020-07-16, 18:39:37
Hier geht es nicht Mal um Power. Zu 90% werden die vorhandenen Mittel nicht genutzt...weil "zu teuer".
Was meinst du damit?

rentex
2020-07-16, 19:16:28
Das fängt mit einer vernünftig, ausreichend langen Entwicklungszeit an und hört beimder Wahl der Engine auf.

pixeljetstream
2020-07-16, 19:22:23
Und sogar noch niedrigere Frametimes und es zu komplettieren :wink:
Trotzdem finde ich diese Entwicklung nicht gut. Ich bin vielleicht zu altmodisch aber ich will Power.
Ja, ich weiß, wie ein Kind den man den Lolli geklaut hat. Trotzdem. Kennst Du das mit dem Hubraum der durch nichts zu ersetzen ist, außer durch noch mehr davon?
Genau so ist es bei mir mit PC HW.
IMO ist aus den Texten hier nicht wirklich klar was du willst, also rational (mal war’s super viel framerate und keine Filmgrafik, da kam der Hinweis das HL2 auch mit 1000 FPS läuft, dann doch wieder alle Effekte an mit hoher Auflösung). Du willst die Emotion/Erfahrung vergangener Tage kaufen... (ist doch das passende Alter, bin da ja auch in der Gegend)
Wärst Du Entwickler würdest Du das mit „mehr power“ auch differenzieren können und die technischen Fortschritte mehr wertschätzen (die Hubraum-monster gab‘s vor 60 Jahren schon). Die Komplexität der Entwicklung, welche Feature/Richtung für die Zukunft sinnvoll wäre etc. Das gleiche mit dem nativen was ja andere schon erwähnt haben, die Entwickler haben schon sehr viele Entscheidungen treffen müssen, wie sie die Leistung einsetzen wollen. All die Forschung, Diskussion bei Fachkonferenzen, Entwicklertreffen mit den Herstellern (nv/Sony/Ms/amd etc. tingeln regelmäßig durchs Land und diskutieren mit den Entwicklern über die Zukunft) das wird bei manchen voll ausgeblendet, das muss euch doch bewusst sein, dass Leute die sich Zum Teil ihr ganzes Leben mit den Themen beschäftigen schon bissl Ahnung haben, das die Dinge eben eine Komplexität haben die nicht mit einfachen Entscheidung aus Laiensicht zu erschlagen sind.

BlacKi
2020-07-16, 19:57:56
Das fängt mit einer vernünftig, ausreichend langen Entwicklungszeit an und hört beimder Wahl der Engine auf.
das liegt aber nicht an den hardware herstellern. wenn dlss läuft, bringt es die hardware performance voran. d.h. wir haben die performance der zukunft schon heute.

um die performance von highend performance karten mit dlss heute schon erreichbar zu machen bräuchte es statt 754mm² chips 1500-2000mm² chips + vram+ vram bandwith. mal abgesehen dass das nur schwer umzusetzen ist, wer soll das bezahlen?

Linmoum
2020-07-16, 20:01:29
um die performance von highend performance karten mit dlss heute schon erreichbar zu machen bräuchte es statt 754mm² chips 1500-2000mm² chips + vram+ vram bandwith.Das lässt aber außer acht, dass DLSS sogar zu höherem Speicherverbrauch führen kann. Wo wir wiederum bei einem Thema sind, das Nvidia trotz jenem DLSS und Raytracing nur mit der Kneifzange anfässt.

Ex3cut3r
2020-07-16, 21:11:54
Man kann es drehen und wenden wie man möchte, DLSS soll mangelnde Optimierungsarbeit kaschieren.
Es ist technologisch ein Wunder, aber Blendwerk. Spart ungemein Entwicklungszeit.
Besonders in der Kombi RTX.

Wow, selten so einen Schwachsinn gelesen. :biggrin:



DLSS ist natürlich nicht mehr optional wenn die Leistung nicht mehr reicht. Dann MUSST Du es dazu schalten um überhaupt spielen zu können. Kann man sich jetzt natürlich schön drauf ausruhen.
Seltsame Logik. Na klar reicht eine GPU irgendwann nicht mehr um ein Spiel flüssig darzustellen. Ob du dann aber noch DLSS anmacht, bleibt weiterhin ein optionale Entscheidung. :biggrin:
Verstehe nicht, wieso du RTX und DLSS so negativ gegenüber stehst. Als Technik Fetischist. Kann man diese Technologien nur begrüßen. Oder bleibst du weiterhin auf Pascal hocken? Dachte du bist ein Day-One Ampere RTX 3080 Ti Käufer.

@Robbi vollkommen richtig, perfekt zusammengefasst.

Sweepi
2020-07-16, 21:25:42
OT:

Exzellente Videoanalyse (da visuelles Thema) zum Thema DLSS:
https://youtube.com/watch?v=rmd6X3JE0MY (10 minuten)
https://youtube.com/watch?v=N8M8ygA9yWc (23 minuten)

basix
2020-07-16, 21:54:02
Kennst Du das mit dem Hubraum der durch nichts zu ersetzen ist, außer durch noch mehr davon?
Genau so ist es bei mir mit PC HW.

Nun ja, mehr Hubraum ist der rohe Ansatz. Es gibt aber auch intelligente, effiziente Ansätze. Wenn ich die selben PS und Nm auf der Radachse mit weniger Hubraum erreiche, weil ich die Getriebe besser schmiere, wird sich auch keiner aufregen.

Entscheidend ist das Resultat. Und das ist seit DLSS 2.0 in den meisten Fällen positiv. Ihr müsst das vielleicht auch von der Grundauflösung und nicht der Zielauflösung aus ansehen. Vergleicht ein 1080p nativ Bild mit einem 1440 DLSS Bild (1.706 × 960). Man kann es von mir aus wieder auf 1080p downsamplen. Performance wird sehr ähnlich sein. Nun wird wahrscheinlich fast jeder das DLSS Bild aber als detaillierter und besser empfinden.

y33H@
2020-07-16, 22:01:23
Ich hab 1440p144 und nutze 4K mit DLSS 2.0 für tolle Bildqualität.

Sweepi
2020-07-16, 22:02:43
Genau, am besten vergleicht man bei die unterschiedlichen Optionen bei gleichen FPS.

MiamiNice
2020-07-16, 22:08:56
@pixeljetstream:

Tut mir leid das ich meine Wünsche wohl nicht klar formulieren kann und natürlich bin ich mir absolut bewusst das bei NV und Co. Leute mit Ahnung sitzen, sonst wären wir ja auch nicht da wo wir sind. Und natürlich hast Du absulut recht damit das ich kein Entwickler bin und eher einen laienhaften Einblick habe.

Ich möchte natürlich "fette" sprich gute Grafik haben, keine Frage. Ich bin jetzt allerdings kein Pixelzähler und mir geht auch keiner ab, wenn es möglichst "echt" ausschaut.
Meiner Meinung nach versteifen sich die (Spiele)Entwickler in den letzten Jahren zu sehr auf Grafik, um die Mainstream zu locken, und zu wenig auf das Gameplay (das ist erstmal völlig losgelöst von jedweder Grafik Diskussion, das ist ein Generationenporblem).

Für mich war Gaming immer eine Art "Sport", eine Herrausfoderung die mir heute fehlt und meiner Meiung nach auch den jungen Leuten, da man in Spielen auch immer etwas lernen sollte. Geduld, das Gefühl sich etwas zu erarbeiten z.b. Dieser Anspruch, dass man für jedes bissel gelobt werden mag ,Achievements, wirkt auf mich völlig befremdlich. Daher hat sich Gaming für mich erstmal grundsätzlich zurück entwickelt statt vorwärts. Belohnen "tut" der Abspann wenn man gut genug gewesen ist, oder das Scoreboard in einem Onlineshooter z.b. Ein Spiel sollte niemals bloß ein ordinärer Zeitvertreib sein.

Was den PC ansich angeht bin ich numal ein Nerd der auf Power steht. Dazu jemand der z.b. nicht versteht warum ihr euch (also PC HW Hersteller) mit Sony und MS trefft. Konsolen sind Türstopper, die dafür erfunden wurden die Massen zu berieseln, völlig abseits des PCs. Das sind Klötze an den Beinen die keinerlei Beachtung finden sollten. Und vor allem nicht die Entwicklungen beeinträchtigen sollten, unter denen Menschen leiden die tatsächlich bereit sind, das beste verfügbare zu kaufen, halt PC Gamer. Der Einfall dieser Massen an "Gamern" hat ja auch dazu geführt das Games heute das sind was sie sind. Konsolen bzw. deren Nutzer sind daher per se ein Feindbild. Meiner Meinung nach ist jeder dieser Nutzer besser in der Realität aufgehoben.

Ich bin der typische PC Masterrace Typ. Mir geht einer ab auf Power, pure Power. Von mir aus kann mein Stromzähler auch durch Rotation abheben so lange die Leistung passt. Powerlimits sind mir ein Ärgernis sondergleichen. Warum sollte eine GPU nur 300 Watt verbraten dürfen? Es können auch gerne 600 Watt, oder mehr, sein. Wer sich Strom und die HW dazu nicht leisten kann oder möchte, kann auch gerne vor die Tür gehen und dort die Grafik bestaunen :wink:
Analog dazu kann ich mit Features wie DLSS nichts anfangen. Ich hätte lieber eine GPU die die Anforderungen, ohne Hilfsmittel, mit Power erschlagen kann. Ich hätte mir gewünscht das man sich RT steckt so lange man keine Karten bauen kann mit denen man das ganze Bild raytracen kann. Und wenn es so weit ist, dann bitte einen harten Bruch von Rasterisierung zu Raytracing. In der jetzigen Form empfinde ich RT als Verschwendung von Platz auf dem DIE - Platz der für klassische Einheiten fehlt die Rohpower liefern könnten. Selbiges gilt für Tensor Cores.

Was ich möchte ist eigendlich ganz einfach. Ich möchte vor Ehrfurcht erzittern wenn ich meinen PC starte. Wie jemand der seinen 1000PS Motor startet und sich im Sound des Motors "sonnt".
DLSS hingegen fühlt sich an wie für Konsolen gemacht. "Wie schaffe ich es mit möglichst wenig HW Einsatz spielbare Frameraten auf den Schirm zu zaubern". Das ist nicht die Marschrichtung in die sich der PC bewegen sollte.
Der PC ist der Gott unter den Spielgeräten und keine verkappte Konsole. Wir sollten es nicht nötig haben auf Cheats zurück zu greifen und DLSS ist genau das, ein Cheat.

Jetzt fliegen gleich Steine ;D

TheAntitheist
2020-07-16, 22:09:28
also ganz ehrlich, wer RTX/raytracing in spielen schlecht findet, der soll halt weiter 2d sidescroller zocken...

RTX ist das beste seit 20 Jahren was passiert ist, es ist der letzte Schritt den wir brauchen um realistische Grafiken zu bekommen. Das heißt ja nicht das die Spiele dadurch besser werden, aber es vereinfacht auch die Arbeit extrem also win win. Ja es kostet Leistung aber irgendwann wird es sogar Leistung sparen und noch besser aussehen, das verstehen aber sogar HIER wenige.

wolik
2020-07-16, 22:15:29
Ich hab 1440p144 und nutze 4K mit DLSS 2.0 für tolle Bildqualität.
Erste Spiel mit DLSS 2.0 Death Stranding. (oder?) Und dort ist nicht alles rosig. Sehr schlimm flackernde Duschkabine und andere Leuchtobjekte in Sams Unterkunft. Plus. 30% Mehr Leistung ist aber sehr große plus Punkt. (und keiner zittern bei kleine Linien)
Ich habe so ein "Gefühl", dass das NV wird "gezwungen" (wegen Big Navi) Ihre 3090 so schnell wie möglich unter hungrige Volk rauszubringen :rolleyes:

also ganz ehrlich, wer RTX/raytracing in spielen schlecht findet, der soll halt weiter 2d sidescroller zocken...

RTX ist das beste seit 20 Jahren was passiert ist, es ist der letzte Schritt den wir brauchen um realistische Grafiken zu bekommen. Das heißt ja nicht das die Spiele dadurch besser werden, aber es vereinfacht auch die Arbeit extrem also win win. Ja es kostet Leistung aber irgendwann wird es sogar Leistung sparen und noch besser aussehen, das verstehen aber sogar HIER wenige.
Physx für Gameplay wäre 1000 mal wichtiger. Pure Leistung für 8K wäre 1000 mal wichtiger. (IMXO) SLI Quad wäre (für mich persönlich) 1000 wichtiger.

Alles nicht mehr da... Und glaub mir , ich habe alle vorhandene Spiele mit RTX durchgespielt. (ok Minecraft nicht)

Zergra
2020-07-16, 22:17:48
also ganz ehrlich, wer RTX/raytracing in spielen schlecht findet, der soll halt weiter 2d sidescroller zocken...

RTX ist das beste seit 20 Jahren was passiert ist, es ist der letzte Schritt den wir brauchen um realistische Grafiken zu bekommen. Das heißt ja nicht das die Spiele dadurch besser werden, aber es vereinfacht auch die Arbeit extrem also win win. Ja es kostet Leistung aber irgendwann wird es sogar Leistung sparen und noch besser aussehen, das verstehen aber sogar HIER wenige.
Er hat doch gar nicht gesagt, das er es schlecht findet...

Sondern das es in der momentanen Form eher überflüssig ist. Da eben zu wenig Leistung.

basix
2020-07-16, 22:31:17
Erste Spiel mit DLSS 2.0 Death Stranding. (oder?)

DLSS 2.0: Deliver us the Moon, Control, Minecraft RTX, Wolfenstein Youngblood, Mechwarrior 5 sind die Spiele die mir gerade einfallen.

Slipknot79
2020-07-16, 22:35:58
Metro 6odus.

rentex
2020-07-16, 22:37:11
@pixeljetstream:

Tut mir leid das ich meine Wünsche wohl nicht klar formulieren kann und natürlich bin ich mir absolut bewusst das bei NV und Co. Leute mit Ahnung sitzen, sonst wären wir ja auch nicht da wo wir sind. Und natürlich hast Du absulut recht damit das ich kein Entwickler bin und eher einen laienhaften Einblick habe.

Ich möchte natürlich "fette" sprich gute Grafik haben, keine Frage. Ich bin jetzt allerdings kein Pixelzähler und mir geht auch keiner ab, wenn es möglichst "echt" ausschaut.
Meiner Meinung nach versteifen sich die (Spiele)Entwickler in den letzten Jahren zu sehr auf Grafik, um die Mainstream zu locken, und zu wenig auf das Gameplay (das ist erstmal völlig losgelöst von jedweder Grafik Diskussion, das ist ein Generationenporblem).

Für mich war Gaming immer eine Art "Sport", eine Herrausfoderung die mir heute fehlt und meiner Meiung nach auch den jungen Leuten, da man in Spielen auch immer etwas lernen sollte. Geduld, das Gefühl sich etwas zu erarbeiten z.b. Dieser Anspruch, dass man für jedes bissel gelobt werden mag ,Achievements, wirkt auf mich völlig befremdlich. Daher hat sich Gaming für mich erstmal grundsätzlich zurück entwickelt statt vorwärts. Belohnen "tut" der Abspann wenn man gut genug gewesen ist, oder das Scoreboard in einem Onlineshooter z.b. Ein Spiel sollte niemals bloß ein ordinärer Zeitvertreib sein.

Was den PC ansich angeht bin ich numal ein Nerd der auf Power steht. Dazu jemand der z.b. nicht versteht warum ihr euch (also PC HW Hersteller) mit Sony und MS trefft. Konsolen sind Türstopper, die dafür erfunden wurden die Massen zu berieseln, völlig abseits des PCs. Das sind Klötze an den Beinen die keinerlei Beachtung finden sollten. Und vor allem nicht die Entwicklungen beeinträchtigen sollten, unter denen Menschen leiden die tatsächlich bereit sind, das beste verfügbare zu kaufen, halt PC Gamer. Der Einfall dieser Massen an "Gamern" hat ja auch dazu geführt das Games heute das sind was sie sind. Konsolen bzw. deren Nutzer sind daher per se ein Feindbild. Meiner Meinung nach ist jeder dieser Nutzer besser in der Realität aufgehoben.

Ich bin der typische PC Masterrace Typ. Mir geht einer ab auf Power, pure Power. Von mir aus kann mein Stromzähler auch durch Rotation abheben so lange die Leistung passt. Powerlimits sind mir ein Ärgernis sondergleichen. Warum sollte eine GPU nur 300 Watt verbraten dürfen? Es können auch gerne 600 Watt, oder mehr, sein. Wer sich Strom und die HW dazu nicht leisten kann oder möchte, kann auch gerne vor die Tür gehen und dort die Grafik bestaunen :wink:
Analog dazu kann ich mit Features wie DLSS nichts anfangen. Ich hätte lieber eine GPU die die Anforderungen, ohne Hilfsmittel, mit Power erschlagen kann. Ich hätte mir gewünscht das man sich RT steckt so lange man keine Karten bauen kann mit denen man das ganze Bild raytracen kann. Und wenn es so weit ist, dann bitte einen harten Bruch von Rasterisierung zu Raytracing. In der jetzigen Form empfinde ich RT als Verschwendung von Platz auf dem DIE - Platz der für klassische Einheiten fehlt die Rohpower liefern könnten. Selbiges gilt für Tensor Cores.

Was ich möchte ist eigendlich ganz einfach. Ich möchte vor Ehrfurcht erzittern wenn ich meinen PC starte. Wie jemand der seinen 1000PS Motor startet und sich im Sound des Motors "sonnt".
DLSS hingegen fühlt sich an wie für Konsolen gemacht. "Wie schaffe ich es mit möglichst wenig HW Einsatz spielbare Frameraten auf den Schirm zu zaubern". Das ist nicht die Marschrichtung in die sich der PC bewegen sollte.
Der PC ist der Gott unter den Spielgeräten und keine verkappte Konsole. Wir sollten es nicht nötig haben auf Cheats zurück zu greifen und DLSS ist genau das, ein Cheat.

Jetzt fliegen gleich Steine ;D

Danke! Dein Beitrag triffts ganz gut.
Ich brauche aber keine 1000 PS...150 reichen mir und das optimal auf die Straße gebracht und dazu noch mit vernünftigen Verbrauch.
Das Beste kommt ja noch...man macht sich komplett von NV abhängig.

Slipknot79
2020-07-16, 22:39:40
@pixeljetstream:

Tut mir leid das ich meine Wünsche wohl nicht klar formulieren kann und natürlich bin ich mir absolut bewusst das bei NV und Co. Leute mit Ahnung sitzen, sonst wären wir ja auch nicht da wo wir sind. Und natürlich hast Du absulut recht damit das ich kein Entwickler bin und eher einen laienhaften Einblick habe.

Ich möchte natürlich "fette" sprich gute Grafik haben, keine Frage. Ich bin jetzt allerdings kein Pixelzähler und mir geht auch keiner ab, wenn es möglichst "echt" ausschaut.
Meiner Meinung nach versteifen sich die (Spiele)Entwickler in den letzten Jahren zu sehr auf Grafik, um die Mainstream zu locken, und zu wenig auf das Gameplay (das ist erstmal völlig losgelöst von jedweder Grafik Diskussion, das ist ein Generationenporblem).

Für mich war Gaming immer eine Art "Sport", eine Herrausfoderung die mir heute fehlt und meiner Meiung nach auch den jungen Leuten, da man in Spielen auch immer etwas lernen sollte. Geduld, das Gefühl sich etwas zu erarbeiten z.b. Dieser Anspruch, dass man für jedes bissel gelobt werden mag ,Achievements, wirkt auf mich völlig befremdlich. Daher hat sich Gaming für mich erstmal grundsätzlich zurück entwickelt statt vorwärts. Belohnen "tut" der Abspann wenn man gut genug gewesen ist, oder das Scoreboard in einem Onlineshooter z.b. Ein Spiel sollte niemals bloß ein ordinärer Zeitvertreib sein.

Was den PC ansich angeht bin ich numal ein Nerd der auf Power steht. Dazu jemand der z.b. nicht versteht warum ihr euch (also PC HW Hersteller) mit Sony und MS trefft. Konsolen sind Türstopper, die dafür erfunden wurden die Massen zu berieseln, völlig abseits des PCs. Das sind Klötze an den Beinen die keinerlei Beachtung finden sollten. Und vor allem nicht die Entwicklungen beeinträchtigen sollten, unter denen Menschen leiden die tatsächlich bereit sind, das beste verfügbare zu kaufen, halt PC Gamer. Der Einfall dieser Massen an "Gamern" hat ja auch dazu geführt das Games heute das sind was sie sind. Konsolen bzw. deren Nutzer sind daher per se ein Feindbild. Meiner Meinung nach ist jeder dieser Nutzer besser in der Realität aufgehoben.

Ich bin der typische PC Masterrace Typ. Mir geht einer ab auf Power, pure Power. Von mir aus kann mein Stromzähler auch durch Rotation abheben so lange die Leistung passt. Powerlimits sind mir ein Ärgernis sondergleichen. Warum sollte eine GPU nur 300 Watt verbraten dürfen? Es können auch gerne 600 Watt, oder mehr, sein. Wer sich Strom und die HW dazu nicht leisten kann oder möchte, kann auch gerne vor die Tür gehen und dort die Grafik bestaunen :wink:
Analog dazu kann ich mit Features wie DLSS nichts anfangen. Ich hätte lieber eine GPU die die Anforderungen, ohne Hilfsmittel, mit Power erschlagen kann. Ich hätte mir gewünscht das man sich RT steckt so lange man keine Karten bauen kann mit denen man das ganze Bild raytracen kann. Und wenn es so weit ist, dann bitte einen harten Bruch von Rasterisierung zu Raytracing. In der jetzigen Form empfinde ich RT als Verschwendung von Platz auf dem DIE - Platz der für klassische Einheiten fehlt die Rohpower liefern könnten. Selbiges gilt für Tensor Cores.

Was ich möchte ist eigendlich ganz einfach. Ich möchte vor Ehrfurcht erzittern wenn ich meinen PC starte. Wie jemand der seinen 1000PS Motor startet und sich im Sound des Motors "sonnt".
DLSS hingegen fühlt sich an wie für Konsolen gemacht. "Wie schaffe ich es mit möglichst wenig HW Einsatz spielbare Frameraten auf den Schirm zu zaubern". Das ist nicht die Marschrichtung in die sich der PC bewegen sollte.
Der PC ist der Gott unter den Spielgeräten und keine verkappte Konsole. Wir sollten es nicht nötig haben auf Cheats zurück zu greifen und DLSS ist genau das, ein Cheat.

Jetzt fliegen gleich Steine ;D

Weiß ned wo das Problem ist, wenn du Hubraum brauchst, check dir nen Schiff :redface:

Nightspider
2020-07-16, 22:55:36
Bei der ganzen DLSS und RTX Diskussion frage ich mich wieder wie viel % vom Chip eigentlich für diese ganzen Features draufgegangen sind und wie viel höher die Rohpower gewesen wäre, wenn sich NV statt auf RTX eben auf die Rohpower und Effizienz konzentriert hätte.

Und wenn die Rohpower dann um 30% höher ausgefallen wäre, ob man nicht Reflektionen und Global Illumination auch genauso gut mit Rasterisierung hätte hinbekommen könnte -in allen Spielen.

Denn CryTek hat ja beispielsweise gezeigt das man Global Illumination auch gut ohne Raytracing hinbekommen kann.

Das schlimmste an diesem propritären Kram ist ja das er nur bei wenigen Spielen funktioniert.



Funktioniert DLSS eigentlich zusammen mit DSR? Kann man bei den Games 5K Auflösung einstellen während DLSS intern mit 4K Auflösung oder 1800p oder so rechnet?

pixeljetstream
2020-07-16, 23:12:57
"ohne Hilfsmittel"
Das ist das was ich meine mit dieser absurden Vorstellung von "nativ" etc. Die Entwickler fällen schon unzählige Entscheidungen zu Vereinfachungen und Hilfsmittel unabhängig von DLSS um überhaupt Echtzeit fähig zu sein. Das ist die Kunst des engineering, es gibt hier kein "ohne Hilfsmittel". Von Beleuchtung bis hinzu irgendein AA Verfahren muss man halt nehmen, irgendwoher müssen die zusätzlichen Samples kommen. Und brute force downsampling ist halt nicht effizient wenn es um Latenz geht, dann lieber temporal und mehr Bildrate haben.

Ich meinte die Hw Hersteller für sich besuchen die Entwickler. Untereinander arbeitet man im Zuge von DX oder Vulkan zusammen.
Mein Punkt ist, dass es einen Austausch mit Entwicklern gibt, für bessere Programmiermodelle, für mehr Flexibilität und neue Möglichkeiten. Was sind ihre Nöte und Sorgen

Das ist halt ne Art Widerspruch für mich, einerseits sagst du okay bin Laie, andererseits willst du besser abschätzen können was das Beste für PC Gaming ist.
Das "beste" ist halt vielschichtig. Der Gameplay Kram ist in der Tat hier Off topic. Daher nur der Focus auf 3d Grafik hier.

Technisch sollte klar sein, dass auf alte spiele zu optimieren, kaum die Technik vorwärts bringt. Das sind dann die shrink Zeiten, das geht mal zur Kostenoptimierung aber effektiv geht's technisch nicht vorwärts dabei.
Turing als pseudo scaled up Pascal, hätte in alten spielen zwar etwas mehr Prozent geholt, doch dann hätten die Leute auch gemeckert, das neuer content nicht so zulegt). Und dann hängt mehr oder weniger wirklich aller Fortschritt am Prozess...
Zu den Flächen von tensor/rt core gibt's ja diverse Schätzungen aus der Community und sagen wir Mal so 50% Mehrleistung ohne sie sind's wohl kaum ;) und wenn du selbst schreibst dass 10% mehr oder weniger nicht der Rede wert sind, dann weiß ich auch nicht.


Wir als Industrie müssen ja langfristig Dinge angehen, weil es wirtschaftlich und erfahrungsmäßig nicht geht alles auf einmal zu ändern. Dafür gibt es zu viele Abhängigkeiten ausserhalb der Kontrolle (auch die engine Macher hängen an Asset Tool Workflows etc) und neues zu lernen. Es sollte auch klar sein das nichts jemals fertig ist. Wir designen ja kontinuierlich weiter, die Chips sind halt snapshots von dem was in das Zeitbudget passte.

Bei Raytracing gibt es genug Leute sowohl Endkunden als auch in der Industrie die sagen es ist es wert das anzufangen. Manche sagen es ist schon brauchbar, andere halt nicht. Da wird man nie alle zufrieden stellen können wenn man anfängt. (Es wurde schon vorher versucht von anderen Herstellern, diesmal ist die Lage aber besser).

Ich erinnere mich an die ersten Polygon FIFA/NHL etc. die sahen scheiße aus im Vergleich zu den Details der sprites vorher... Deswegen hat man das mit den Polygonen nicht sein lassen, weil man wusste was langfristig möglich ist.

Und so verhält es sich mit beschleunigten räumlichen Datenstrukturen jetzt halt auch.

Nightspider
2020-07-16, 23:34:25
Du schreibst gute Beiträge.

Was machst du beruflich genau, wenn ich fragen darf?

BiZiNiZz
2020-07-16, 23:38:36
Du schreibst gute Beiträge.

Was machst du beruflich genau, wenn ich fragen darf?

er arbeitet bei eurem verhassten oder geliebten nVidia, glaube in der Technischen Entwicklung. Gibt auch ein paar Vorträge und Paper von ihm :cool:

Elite_Warrior
2020-07-16, 23:46:01
Geh auf sein Profil:

Beruf
NVIDIA Developer Technology Engineer


Zum Thema "Tricksen": So gesehen ist das klassische Rasterizen tricksen ohne Ende. Denn sonst müsste alles geraytraced werden wie in der Realität. Ah was, oben drauf kommt noch die Quanteneigenschaft der Photonen die nicht beachtet wurde :D

Ich, als eher im AMD GPU Lager zuzuordnen, finde DLSS sehr gut. Falls Nvidia ein allgemeines Netz trainiert, welches zuverlässig mit allen Spielen die TAA besitzen läuft, fände ich das ungemein gut.

€: Ahjo, finde pixeljetstreams Beitrage auch meist sehr gelungen :up:

Sweepi
2020-07-16, 23:48:19
@pixeljetstream

Respekt und Danke, dass du auf den etwas emotionalen geratenen Post so nett und interessant antwortest!

MiamiNice
2020-07-17, 00:20:39
Du schreibst gute Beiträge.

Was machst du beruflich genau, wenn ich fragen darf?

Er arbeitet da, wo es ankommt wenn man sowas schreibt, sonst würde ich mir die Mühe nicht machen :wink:

Danke Pixel :biggrin:

Trotzdem habe ich mittlerweile das Gefühl das wir den "Abfall" aus der Industrie bekommen. So nach dem Motto "wir brauchen die Einheiten in den Servern, Redesgin für Spieler wtf, schauen wir mal was wir aus den Einheiten für Gamer bauen können". Das betrifft vor allem die Tensor Cores.
Warum baut man keine Karten die 400 oder mehr Watt verschleudern dürfen? Wenn man einen GA100 bauen kann, warum kann ich das als Gamer nicht bekommen? Natürlich aufs Gaming spezialisiert. Ist ja nicht so als würde ein DIE + das bissel Karte drumherum 1400€ in der Produktion kosten. Ich schätze eine Titan, nein lieber eine Ti (wegen dem VRAM), mal frech auf 300$ Produktionskosten.
Es fühlt sich überall an, als nehme man Rücksicht auf das schwächste Glied in der Kette -> Konsolen.

@pixeljetstream

Respekt und Danke, dass du auf den etwas emotionalen geratenen Post so nett und interessant antwortest!

Das macht er tatsächlich öfter. Nötig hat er es sicher nicht, daher :up::up::up:

-=Popeye=-
2020-07-17, 00:52:35
Wer zum Henker soll oder will denn eine 400 Watt+ Karte kaufen, ich jedenfalls nicht. Wenn die Konkurrenz was in der Art bringt wird wieder gelästert.

Der Focus liegt aktuell auf RT und dies werden wohl alle kommenden Plattformen unterstützen. Von DLSS kann man halten was man will, mir persönlich gefällt diese Entwicklung auch nicht, wenn dies die Zukunft ist ist es halt so, es hat halt Vor-und Nachteile.

pixeljetstream
2020-07-17, 01:09:00
Wie gesagt wir habe einfach eine unterschiedliche Vorstellung wo die Reise hingehen könnte für die Zukunft. Daher kann ich das mit dem Abfall nicht nachvollziehen. Auch die Konsolen haben ja nen Schwung der neuen Features, deswegen sehe ich auch hier jetzt gerade keinen Klotz.
Du bist halt stark von Deiner Sicht überzeugt was gute und was schlechte Technik ist.
Ich sehe da eher die Kraft in der Diversität, keiner hat die Weisheit gepachtet, aber gewisse Trends sind einfach vorhanden: inferencing, und irgendwie globale Beleuchtung und glossy Materialien besser hinbekommen, voxel hatten/haben wir, nun halt bvh mit bbox oder triangles.
Die dickeren Caches, mehr integer Leistung all das verbessert ja die allgemeine Programmierbarkeit.

Im Detail kann man immer streiten wovon zuviel/zuwenig, das ist halt ständiges anpassen und es ist halt nicht leicht heute weil Titel/Engines die hw halt Mal hier Mal da anders belasten. Manche brauchen die rasterization vielleicht 5-10% heute, danach ist alles compute, andere mehr, wieder andere (ala dreams auf der ps4) sind komplett compute, und nun kommt halt raytracing als weitere Möglichkeit hinzu.

TheAntitheist
2020-07-17, 01:18:12
Er hat doch gar nicht gesagt, das er es schlecht findet...

Sondern das es in der momentanen Form eher überflüssig ist. Da eben zu wenig Leistung.
aber ist es ja nicht. Man kann nur nicht einfach alles rausballern was geht, ist das gleiche bei der geometrie. Man könnte ja auch behaupten das die Models mindestens 16x mehr polys brauchen bevor es nicht mehr eckig aussieht also sollte man erst gar keine geometrie benutzen weil nicht genug power dafür da ist... ist einfach ein schlechtes feature.

rtx wird erst implementiert wenn das feature überhaupt in den GPUs ist. Diesen Status haben wir gerade erstmal erreicht. Die Leistung kann doch danach erst gesteigert werden... es ist doch jedes mal das Gleiche wenn neue features kommen.

MiamiNice
2020-07-17, 01:41:17
Manche brauchen die rasterization vielleicht 5-10% heute, danach ist alles compute, andere mehr, wieder andere (ala dreams auf der ps4) sind komplett compute, und nun kommt halt raytracing als weitere Möglichkeit hinzu.

Wenn das aktuell dermaßen unterschiedlich ist, würde es da keinen Sinn machen alles unter einem Dach zu vereinen? Sprich sich komplett von der Rasterisierung zu lösen und nur noch Raytracing zu nutzen? Diversität bedeutet ja letztlich auch immer Opfer für jeden Einzelbereich, ihr müsst ja quasi abwägen welcher Bereich wie viel Chipfläche bekommt. Und dann kommen die Spielentwickler und bauen Engines, die den Chip letztlich anders belasten, als von euch vorgesehen/vorhergesagt.

rentex
2020-07-17, 06:52:25
@pixeljetstream Wie ein Fels in der Brandung. Da kann Ex3cut3r noch was lernen...

Ja gut. Ich werde DLSS in meinen Kreis der erstrebenswerten Technologien aufnehmen ;-)

pixeljetstream
2020-07-17, 08:01:08
Wenn das aktuell dermaßen unterschiedlich ist, würde es da keinen Sinn machen alles unter einem Dach zu vereinen? Sprich sich komplett von der Rasterisierung zu lösen und nur noch Raytracing zu nutzen? Diversität bedeutet ja letztlich auch immer Opfer für jeden Einzelbereich, ihr müsst ja quasi abwägen welcher Bereich wie viel Chipfläche bekommt. Und dann kommen die Spielentwickler und bauen Engines, die den Chip letztlich anders belasten, als von euch vorgesehen/vorhergesagt.

Es ist eine Beziehung mit Wechselwirkung.
Wie schon geschrieben die Software ist schon im Markt, daher geht ein radikaler Umbruch nicht. Hardware und die APIs sind dazu da den Entwicklern Möglichkeiten zu geben. Eine Werkzeugkiste die man bestückt. Es gibt nicht den einen Weg der richtig ist, sondern gerade die Flexibilität ermöglicht ja den Fortschritt, weil viele sich neue Dinge ausdenken können. Kein Hersteller allein ist der allwissende Gott ;) Mit derartigen Einschränkung tut man automatisch die Evolution für alle einbremsen. Und IMO zeigen die Jahre ja das es an sich gut klappt, es ist eben alles etwas langlebiger und nicht so Tagespolitik ;) Wir könnten jetzt hier und heute auch nicht den super raytracing only Chip bauen, dafür fehlt die Erfahrung aller. Bei rasterization sind halt schon sehr viele Jahre an Wechselwirkung aus Hersteller und Entwicklern ins Land gegangen, und selbst da kann man noch bissl was rausholen. Beides hat halt seine Stärken und Schwächen. Daher immer mein predigen, dass es eben nicht so einfach ist mit den Entscheidungen und die Komplexität des ganzen. Aber das ist okay.

Bei CPUs kann man auch sagen warum all die cores wenn es für Entwickler und uns Menschen simpler ist, seriellen code zu programmieren... Wir wissen halt, dass das andere langfristig stärker limitiert.

basix
2020-07-17, 08:01:51
Metro 6odus.

Hier aber noch nicht DLSS 2.0, oder doch?

Korvaun
2020-07-17, 08:19:24
DLSS ist das gleiche wie Salvage Chips... es gibt einfach Leute die bekommen Magenschmerzen wenn sie nur daran denken sowas zu nutzen. "Abfall" der noch zu Geld gemacht wird ;)

Alle Puristen müssten RTX vergöttern und nV in den Himmel loben das Sie endlich den Schwenk angehen, denn nur Raytracing ist "echt", alles andere Behelf und Trickserei um nicht vorhandene GPU-Leistung zu kaschieren.

MiamiNice
2020-07-17, 08:40:34
Danke für Deinen Atem Pixel. (Denk Dir einen Spock Emoji) :up:

Ich wünsche allen einen angenehmen Tag :wink:

@Leo:
Geschichte muß sich zwar nicht wiederholen

Geschichtlich gesehen, ist das aber meist so ;)

Radeonfreak
2020-07-17, 08:54:52
Hier aber noch nicht DLSS 2.0, oder doch?

Nein, hat es nicht. Ich spiels gerade wieder mal und selbst mit 2080 TI in WQHD ist die Performance teilweise grottig.

Klevapalis
2020-07-17, 09:17:11
Ein paar Leute sind hier wirklich abstrus unterwegs.

Die gleichen Leute, die sich vorgestern noch über zu hohe GPU Preise beschwert haben, wollten gestern sich 8K Monitor für ein paar Tausend Euro zulegen und heute wollen sie eine 400W GPU.

Abgesehen davon, dass man von der Performance in Relation zum Verbrauch wahrscheinlich herbe enttäuscht wäre von so einem Ding: Was wollen wir damit heute noch?

Ich bin wirklich froh, dass wir heute nicht mehr die komplett überzüchteten und lärmenden Rechner wie noch vor 10 oder 20 Jahren haben. Heute hat man einen HighEnd PC und selbst mit reiner Luftkühlung säuselt der vor sich hin.

Da können die sich ihre letzten 10% Leistung schlicht sparen. Und wer die unbedingt haben will, der kann ja OCen.

Aber 400W? Einfach bescheuert und Zielgruppe gleich null.

Cyberfries
2020-07-17, 10:42:42
Ich denke die 400W können wir ausschließen.
Da hat jemand die Spezifikationen des 12pin-Anschlusses gesehen und das in den falschen Hals bekommen.
5700 & 2070super haben auch 8pin+6pin für theoretisch 300W und sind davon weit entfernt.
Der Anschluss ist eben massiv überdimensioniert.

nordic_pegasus
2020-07-17, 10:46:23
Ich bin wirklich froh, dass wir heute nicht mehr die komplett überzüchteten und lärmenden Rechner wie noch vor 10 oder 20 Jahren haben. Heute hat man einen HighEnd PC und selbst mit reiner Luftkühlung säuselt der vor sich hin.


es ist ja nicht so, dass High-End PCs vor 10-20 Jahren ein eigenes Kraftwerk benötigten und heute alles mit einer AA-Batterie betrieben werden kann. Erinnere Dich mal z.B. an die Radeon 9700 Pro, da war der Aufschrei groß, als man einen zusätzlichen Floppy-Anschluss für die Stromversorgung benötigte. Oder über welchen Verbrauch wir uns damals beim P4 Prescott erzürnten in Relation zu einem Core i9 10900K bei AVX-Volllast.

Hingegen ist einfach die Kühlung heute deutlich besser geworden. Wobei man durch das veraltete ATX-Format an vielen Stellen die die Grenzen des Machbaren gelangt.

BlacKi
2020-07-17, 10:48:03
Ich denke die 400W können wir ausschließen.
Da hat jemand die Spezifikationen des 12pin-Anschlusses gesehen und das in den falschen Hals bekommen.
5700 & 2070super haben auch 8pin+6pin für theoretisch 300W und sind davon weit entfernt.
Der Anschluss ist eben massiv überdimensioniert.
von den anschlüssen her stammen die leaks nicht. der eps stecker kann nämlich auch viel mehr als nur 350w oder 400w.

es ist ja nicht so, dass High-End PCs vor 10-20 Jahren ein eigenes Kraftwerk benötigten und heute alles mit einer AA-Batterie betrieben werden kann. Erinnere Dich mal z.B. an die Radeon 9700 Pro, da war der Aufschrei groß, als man einen zusätzlichen Floppy-Anschluss für die Stromversorgung benötigte. Oder über welchen Verbrauch wir uns damals beim P4 Prescott erzürnten in Relation zu einem Core i9 10900K bei AVX-Volllast.

Hingegen ist einfach die Kühlung heute deutlich besser geworden. Wobei man durch das veraltete ATX-Format an vielen Stellen die die Grenzen des Machbaren gelangt.
und trotzdem schreien manche user nach mehr verlustleistung. dabei ist liegt der taktgewinn bei nichtmal 100mhz also 5%, der verbrauch steigt aber gleich mal um 60%.

Klevapalis
2020-07-17, 10:54:24
es ist ja nicht so, dass High-End PCs vor 10-20 Jahren ein eigenes Kraftwerk benötigten und heute alles mit einer AA-Batterie betrieben werden kann.
Wo auch immer das steht

:facepalm:

Langlay
2020-07-17, 10:56:23
von den anschlüssen her stammen die leaks nicht. der eps stecker kann nämlich auch viel mehr als nur 350w oder 400w.

Spezifiziert ist der EPS Stecker mit 28A(4x7A) also 336W. Und als Hersteller würde ich dort auch nicht mehr drüberjagen.

BlacKi
2020-07-17, 10:58:15
danke für die info, aber wäre das nicht konträr zu dem 350w leak?

Cyberfries
2020-07-17, 11:01:05
von den anschlüssen her stammen die leaks nicht. der eps stecker kann nämlich auch viel mehr als nur 350w oder 400w.

Die ersten Leaks die ich zu dem 12pin Stecker gesehen habe gingen von einem doppelten 6pin bei 8,5A aus.
4x 48V x8,5A = 408W.
Die Zahl hat aber natürlich nichts mit der Realität zu tun.
Zum einen stimmt die Stromstärke nicht, die Pin-Belegung mir unbekannt und die theoretische Maximalleistung wird nicht umgesetzt.

Edit: War wohl zu langsam. Langlay kann auch wohl mehr berichten als ich.
350W sind trotzdem theoretisch möglich, da auch noch der PCIe-Slot Leistung bereitstellen kann.
Ich gehe dennoch von einer geringeren Watt-Zahl aus.

Langlay
2020-07-17, 11:07:49
danke für die info, aber wäre das nicht konträr zu dem 350w leak?


Mein Fehler ich dachte mit EPS ist der 8 Pin Stecker vom Mainboard gemeint, nicht der neue 12 polige vom Nvidia. Über den weis ich nichts.

BlacKi
2020-07-17, 11:12:44
jo, ich hatte das auch falsch abgespeichert. hier nochmal in buchstaben.
https://www.igorslab.de/was-ist-dran-an-nvidias-neuer-12-pin-stromversorgung-keine-panik-aber-das-ist-eigentlich-ueberfaellig-igorslab-investigativ/

Cyberfries
2020-07-17, 11:15:38
EPS ist zur CPU-Versorgung.
Der 8pin-PCIe-Stecker hat nur drei 12V-Anschlüsse, drei Masse und zwei Sense.
Das wären bei 7A maximal 252Watt

Leonidas
2020-07-17, 12:02:42
Das kann man sich ein wenig vorstellen, wie in einem fahrenden Auto durch eine Hecke auf einen Sportplatz zu schauen. Der Sportplatz ist im stehenden Bild nur z.T. zu sehen. Vieles durch die Hecke verdeckt. Bewegt man sich (fahrendes Auto oder gehen oder auch nur den Hals hin und her bewegen), samplet man eben andere Informationen. Und die kombiniert das Gehirn und lässt den vollständigen Sportplatz inkl. aller Details vor dem geistigen Auge erscheinen. Da wird nichts dazu erfunden.
Das ist zwar eine simplifizierte und krude Analogie - aber ggf ja nützlich.


Aber eine gut vorstellbare Analogie. :up:

Edgecrusher86
2020-07-17, 12:27:11
Also die Ur+TITAN soll dazumal um die 500 Dollar in der Fertigung zum Launch gekostet haben. Der Kühler lag wohl bei 50 Dollar.

Neue Desktop-Big-Chips dürften sicherlich erst einmal bei 150-200 Dollar liegen. Das PCB bekommt sicherlich auch 10 Layer und ordentlich Phasen für alle GA102 Karten und dürfte bestimmt auch bei 75 Dollar liegen. Dann kommt noch ein vermeintlich aufwendiger Referenzkühler hinzu - bestimmt inkl. Vapor Chamber für die beiden Top SKUs - das mag auch zumindest zwischen 50-100 Dollar sein (150 wie spekuliert wäre doch arg happig). Zu guter Letzt haben wir noch kostspieligen GDDR6(X) mit hohen Taktraten, wo vermutlich 8Gb auch locker 15 Dollar das Stück kostet.

Also es wäre möglich, dass selbst eine 10-12GB Karte dann erstmal ihre 400-500 Dollar kostet, bei 24GB dann sicherlich nochmals 200 Dollar mehr.

Alles natürlich nur geraten, aber 300 Dollar erscheint mir selbst für die 3080 FE als zu tief angesetzt.

basix
2020-07-17, 13:35:23
500$ für eine Titan? Vermutlich zu hoch geschätzt.

Mecury Research schätzte 200$ für eine GTX 580 (etwas neueres habe ich nicht gefunden). 2.5x Preis scheint mir etwas zu hoch ;)
https://hardforum.com/threads/manufacturing-costs-of-video-cards.1740275/

GTX580 war noch in 40nm. Preisentwicklung der Prozesse:
https://www.dvhardware.net/article71210.html

Eine GPU mit 627mm2 wäre +20% grösser und kommt auf ca. 50x Die aus einem 300mm Wafer (https://caly-technologies.com/die-yield-calculator/). Kosten eines 10nm Wafers (https://twitter.com/bitsandchipseng/status/1146806732494168064)sind ca. 8k$. Macht also 160$ pro Chip. Dann kommt noch Packaging, Testing etc. obendrauf und so etwa 200$ könnte am Schluss passen.

Kühlung, PCB, Elektronik und DRAM werden teurer sein als damals. Wir sind also schon bei etwa +100-150$ Mehrkosten. Wären dann etwa 300-350$ für eine RTX 3080.
500$ sind meiner Meinung nach zu viel. Wie woanders schon angemerkt worden ist: Die eigentliche Herstellung ist oftmals viel niedriger als man meinen könnte (Hochvolumen und Automatisierung sei Dank). Es gibt Zwischenhändler, Verkäufer, Transport und Lagerung usw. was alles zu den Kosten dazu kommt und jeder in dieser Kette will seine paar Prozente Gewinn machen.

Nightspider
2020-07-17, 13:49:43
Bei den highend Karten hat Nvidia eine Gewinnmarge von ~65.

Bei der Titan RTX wohl sogar über 80%.

Sweepi
2020-07-17, 14:10:37
Gewinn != Marge, daher sprechen wir jetzt von Gewinnmarge :ugly:

Edgecrusher86
2020-07-17, 14:46:52
Wobei die 40nm damals schon ein bewährter Prozess war - 8LPP bei Samsung ist zwar auch nicht mehr so neu, aber zumindest wurde auch noch kein großer Chip gefertigt. Ja, $200 total mag hier sicher zu Anfang realistisch sein mit allem, was dran hängt.

Der GK110-400 hatte zu der Zeit sicherlich auch insgesamt seine $200 alleine gekostet - wurde er zuvor ja quasi nur bei der Tesa K20X verwendet [$7699 MSRP] im November 2012.
DIE-Size = 1,87x GK104. :)

6GB GDDR5 @ 6 Gbps (GTX 580 1,5GB @ 4 Gbps) war sicher auch deutlich teurer.
Das PCB vermutlich auch etwas. Der Kühler sicher deutlich mehr (GTX 580 = Plastikbomber + Vapor-Chamber -> GF GTX TITAN = Alu-Shroud und Plexi + größere Vapor Chamber) - lass es 25-30 zu 50 Dollar gewesen sein).

Es kann ja auch sein, dass die genannten $500 mit allem und inkl. Verpackung und Transport waren. Ich meine, das Niedrigste, was man damals so hörte waren $350 für die TITAN - aber kA, ob jetzt komplett oder reine Produktionskosten. Etwas dazwischen war es wohl sicherlich. ;)


Nun ja, ich kann mir schon zumindest $400 vorstellen für die SKU20 und SKU30 mit 10, 11 oder 12GB.
Alleine der VRAM ist ja auch massiv teurer geworden in den letzten Jahren -> +70% von 8 Gbps GDDR5 8Gb zu 14 Gbps GDDR6 8Gb waren es ja Ende 2018 - wenn natürlich auch nur in einem Shop bei 2000 Stück Abnahme, was im Vergleich natürlich lächerlich gering ist und da sicher noch zweistellige Rabatte zu erwarten sein werden.
Bis zu 21 Gbps GDDR6(X) dürfte aber auch locker 50% mehr kosten wie der aktuelle Preis für 14 Gbps GDDR6 - da ist man halt schnell bei 150-300 Dollar nur für den VRAM.

$500-700 für so eine RTX 3090 24GB sollten es sicher sein all inclusive. Ähnlich teuer war dann sicher auch die RTX TITAN vor grob eineinhalb Jahren - aber das hat man mit den $2500 MSRP ja mehr als gut abgefedert. :D

pixeljetstream
2020-07-19, 12:11:00
(Off topic. Hier wurden mehrere Beiträge scheinbar von der Moderation gelöscht, bitte sowas kennzeichnen. Die Margendiskussion kann man auch im NV quartalszahlen thread https://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=568265 machen wo sie passender ist)

Raff
2020-07-19, 20:21:39
Everyone's a critic. Die Henne-Ei-Diskussion rund um RTRT und DLSS auf den vergangenen Seiten ist interessant. Ich bin froh, dass nicht die Spieler entscheiden, was "das nächste große Ding" ist, sondern Entwickler. Sicher, die Kundschaft bestimmt mit ihrem Feedback zu einem Teil, was sich durchsetzt und was nicht. In den meisten Fällen ist es aber gut, dass Gremien und Firmen zusammenarbeiten, um Technologie voranzubringen.

Als alter Hase - hier sind ja einige in den 30ern - fühlt man sich bei jedem Umbruch an vorherige erinnert. Die Pixelshader wurden ja schon erwähnt. Aber noch besser im Sinne des Amusement-Faktors waren die Reaktionen auf 3dfx' Anti-Aliasing-Vorstoß kurz nach der Jahrtausendwende: "Alter, die Scheiße macht das Bild unscharf und dann ruckelt's auch noch wie Seuche!" Das ist auf so vielen Ebenen kaputt. Vier rotierte Samples pro Pixel, göttliche Bildruhe und es wurde gemotzt (ok, auch weil das Texture LOD nicht angepasst wurde, aber lassen wir das). So ähnlich ist das bei Raytracing in Control ("Iiih, das bröselt, so ein Dreck!") oder nun DLSS 2.0 ...

Lange Rede, kurzer Sinn: Lasst die Gurus entscheiden, wohin die Reise geht. Wir sind nur kleine Fische mit einer begrenzten Vision (manche mehr, manche weniger). Und wer bemerkt, dass er in der Vergangenheit hängengeblieben ist und alles Neue als Teufelszeug bezeichnet, sollte vielleicht an seiner Sichtweise arbeiten. Einzusehen, dass man falsch lag, ist etwas Gutes. Und das schreibt ein 3dfx-Fan. ;)

MfG
Raff

MiamiNice
2020-07-19, 20:39:14
Immer wenn ich was von Pixelzähler schreibe hab ich irgendwie Dich im Kopf :biggrin::biggrin:

Raff
2020-07-19, 20:42:41
Kommt nicht von ungefähr. Erst am Freitag hatte ich ein Gespräch mit Nvidia DE und man sagte mir, dass das natürlich wieder nur ich war, der etwas zu motzen hatte. Well. Fortschritt durch Verbesserung. Oder so. ;)

MfG
Raff

rentex
2020-07-19, 20:57:20
Nvidia Deutschland findet, das du ein Motzki bist? Witzig. Ja, der Kunde wird entscheiden und das mit dem Geldbeutel.

nordic_pegasus
2020-07-19, 21:09:02
Everyone's a critic. Die Henne-Ei-Diskussion rund um RTRT und DLSS auf den vergangenen Seiten ist interessant. Ich bin froh, dass nicht die Spieler entscheiden, was "das nächste große Ding" ist, sondern Entwickler. Sicher, die Kundschaft bestimmt mit ihrem Feedback zu einem Teil, was sich durchsetzt und was nicht. In den meisten Fällen ist es aber gut, dass Gremien und Firmen zusammenarbeiten, um Technologie voranzubringen.


Hätte Nvidia nicht seinen Premium-Aufschlag bei Turing verlangt für Features, die man 2 Jahre nach Release nur in einer Hand voll Spielen nutzen kann, wäre denke ich die Einstellung vieler Nutzer nicht so negativ.

Ist für mich vergleichbar zu 3D-fähigen TVs. Hat die meisten Nutzer nicht interessiert, aber auch nicht gestört. TVs wurden weder durch 3D merklich teurer, noch hat das Scheitern der Technik die Preis gesenkt, als es wieder verschwunden ist.

Aber Nvidia hat vor 2 Jahren zusammen mit Turing den Nachbrenner bzgl. Preisen gezündet. Darum hat für einige User hier im Forum DLSS/RT eine negative Konnotation (Turing = teuer + unnütze Gimmicks). Garniert wurde es dann noch mit "It just works" und der Marketing-Bulls**t Skala (Gigarays/sec).

Raff
2020-07-19, 21:16:08
Nvidia erhöht die Preise leider nicht erst seit Turing, sondern seit Kepler.

Zu "It just works": Jen-Hsun Huang mag da vor zwei Jahren etwas zu euphorisch herumgehüpft sein, aber rein technisch stimmt seine Aussage. Sie stimmt nur nicht in Bezug auf das totoptimierte RTRT in aktuellen Engines. Ließe man da "reines" Raytracing ohne die ganze Kiste an Performance-Kniffen laufen, würde da tatsächlich alles just worken. Nur halt nicht mit echtzeittauglichen Bildraten. Gebt der Technologie noch gute fünf, besser zehn Jahre, dann kommen wir von den ganzen Raster-Geschichten, Prebaking etc. weg und die Artists sparen tatsächlich Arbeit, Speicherplatz et cetera. :)

MfG
Raff

rentex
2020-07-19, 21:17:03
Dem kann ich im groben zustimmen. Ich kann mir aber auch gut vorstellen, das es NV, bewusst so wollte. Quasi als Rush zur Einführung von RTX und DLSS. Ich glaube mich zu erinnern, das es letztes Jahr auch so mal diskutiert worden ist.

MiamiNice
2020-07-19, 21:19:24
Das die Masse so angepisst wegen der 1400€ war lag imo nicht an den kaum nutzbaren Features sondern an der mageren Rohleistung. Meine, und viele andere Vorbestellungen, wurden nur aus diesem Grund gecancelt. Kann man auch noch schön im Turing Vorbesteller Thread nachlesen.

rentex
2020-07-19, 21:22:55
Ob das NV ebenfalls bemerkt hat...

nordic_pegasus
2020-07-19, 21:46:55
Nvidia erhöht die Preise leider nicht erst seit Turing, sondern seit Kepler.


Das ist natürlich wahr. Jedoch waren die Sprünge in der Rohleistung bei Maxwell und Pascal sehr groß. Darum wurde von vielen Käufern (speziell im High-End Bereich) der Preisanstieg mit Zähneknirschen akzeptiert. Speziell in Ermangelung einer Alternative.

Dann kam Turing. Riesiege Chips, dennoch nur mäßiges Leistungsplus in traditionellen Spielen, fixed Hardware für lange Zeit unbrauchbare Features, kein VRAM-Plus in Vergleich zu Pascal, etc. Wenn ich alleine diesen sinnlosen USB-C Anschluss sehe. Darum sind keine Wakü-Karten in Single-Slot Design möglich ;)

Ich hatte mal Turing mit dem Auto verglichen, das Homer für seinen Halbbruder Herbert designed hatte. Das ist Turing in a nutshell. Randvoll mit unnützes Featuren und Gimmicks zu einem hanebüchenen Preis.

Rancor
2020-07-19, 21:50:53
Wenn man jetzt ließt das ne 3080Ti wohl auch "nur" 30% vor einer 2080TI liegt und die wieder 1,4k oder mehr haben wollen, wird es langsam nicht mehr lustig. Selbst die doppelte RT Leistung würde das nicht rechtfertigen

BlacKi
2020-07-19, 21:56:14
ich verstehe nicht wie man nur so einseitig denken kann.

unnötig?
https://abload.de/img/sup76kn3.png

was raytracing angeht, ist das eben so, das man erst hardware in den markt bringen muss, bevor man großen nutzen daraus ziehen kann. war raytracing in turing unnütz? nein.

nordic_pegasus
2020-07-19, 22:02:45
wird jetzt wieder ein bisschen sehr offtopic, aber genau darum hoffe ich auf AMD. Nvidia benötigt ein Korrektiv, damit Preis und Leistung wieder stimmen.

Wobei ich als Laie den Ansatz von AMD, RT ohne spezielle Shader/Cores zu implementieren, smarter finde als den Ansatz von Nvidia. Hier bekomme ich das Gefühl, dass uns Technik aus dem Profi-Bereich (speziell die Tensor-Cores) als sinnvolle Hardware im Gaming-Bereich verkauft werden soll. Mit DLSS 2.0 wurde jetzt endlich eine sinnvolle Anschlussverwertung für die Tensoren gefunden. Und für Raytracing in Spielen ist Turing eigentlich zu langsam, speziell TU106 hätte Nvidia sich sparen können.

mironicus
2020-07-19, 22:08:49
Wenn man jetzt ließt das ne 3080Ti wohl auch "nur" 30% vor einer 2080TI liegt und die wieder 1,4k oder mehr haben wollen, wird es langsam nicht mehr lustig. Selbst die doppelte RT Leistung würde das nicht rechtfertigen

Dank AMD könnte das bald ein Ende haben, wenn sie Augenhöhe erreichen. Hoffen wir es, dann kann NVidia keine Mondpreise mehr verlangen.

Linmoum
2020-07-19, 22:13:52
Kann Nvidia auch weiterhin. Wenn AMD potentiell konkurrenzfähig werden sollte, können sie auch einfach preislich in ähnliche Regionen vorstoßen. Die Kunden zahlen es ja immerhin. ;)

Aber ohne die Leistung zu kennen, sind solche Spekulationen eh müßig. Auch, wenn es bisher auf irgendwas zwischen +30-50% auf eine 2080Ti hindeutet. Die Leute zahlen jetzt vierstellige Summen für eine 2080Ti, also werden sie dasselbe auch bei Ampere tun. Warum auch nicht, der Nachfolger wird ja schließlich schneller. Und da oben bei den Enthusiasten herrscht kein rationales Denken, da geht's um Leistung.

mironicus
2020-07-19, 22:18:48
Ja, da muß ich halt wieder auf Alternate-Gebrauchtware mit 20% Rabatt warten. :D

Ex3cut3r
2020-07-19, 22:27:37
Die Chance das AMD diesmal konkurrenzfähiger als die Jahre davor, ist sind IMO so groß wie schon lange nicht mehr. :smile:

Ich bin da guter Dinger, dass Nvidia die Preise diesmal etwas humaner gestalten muss.

Die Konsolen sind auch ein Faktor. Glaube kaum das Nvidia möchte, das PCler jetzt zur Konsole wechseln mit AMD HW, weil die Preise für die 3070 mal wieder richtig 650€ gehen. Die 2070 Super hat gezeigt, die 70er Karten gehören in den 500-550€ Bereich, dann wird die auch ordentlich gekauft. Und genau da muss AMD ansetzen, mit 400€ mit mehr VRAM und gleicher Leistung. Das tut Nvidia weh, und bei den Kunden kommt es gut an siehe 5700XT

wolik
2020-07-19, 22:27:47
Aber 400W? Einfach bescheuert und Zielgruppe gleich null.

"Zielgruppe gleich null." Stimmt nicht ganz. 0,001% vielleicht? Und mit Quad SLI kann ich über 400W nur leise lachen.

Ich bin froh, dass nicht die Spieler entscheiden, was "das nächste große Ding" ist, sondern Entwickler.
3Dfx lässt grüßen. Nur Markt (die Spieler...) ist einzige Kriterium für da sein. Natürlich ohne Konkurrenz kann man sich auf das Markt sehr gut "austoben" :wink:

Und das schreibt ein 3dfx-Fan. ;)
Raff
Raff, OT, aber wir kommst mit deine "zärtlichen" 30ger in Lager von 3Dfx Fans? :biggrin:nIch war damals (Erste Voodoo) schon 25 jung.



Aber Nvidia hat vor 2 Jahren zusammen mit Turing den Nachbrenner bzgl. Preisen gezündet. Darum hat für einige User hier im Forum DLSS/RT eine negative Konnotation (Turing = teuer + unnütze Gimmicks). Garniert wurde es dann noch mit "It just works" und der Marketing-Bulls**t Skala (Gigarays/sec).
Teuer "ist egal". Leistung aber nicht, Technologie (Physx, SLI (Quad :freak:) auch) und das hat Nvidia begraben. Marketing gelaber , in 1440p sieht das Spiel auf 4K Monitor wunderbar habe ich satt.
DLSS 2.0 bei Death Stranding (für mich) nicht zu gebrauchen. Jeder AA Verfahren reduziert tatsächliche Auflösung nicht. DLSS schon...

Ich hatte schon letzt, 3 CPU von Intel (nach Athlon), jetzt wieder AMD drine, ich wurde mich freuen wieder "ATI" in mein PC zu haben.

MiamiNice
2020-07-19, 22:59:04
Ich mache mir aktuell gar keinen Kopf mehr darum. Mehr Saft, kleinere Fertigung, AMD im Rücken, Leute waren angepisst wegen Turing. Wird schon werden.

Sunrise
2020-07-19, 23:03:49
...Aber noch besser im Sinne des Amusement-Faktors waren die Reaktionen auf 3dfx' Anti-Aliasing-Vorstoß kurz nach der Jahrtausendwende: "Alter, die Scheiße macht das Bild unscharf und dann ruckelt's auch noch wie Seuche!"
Das war tatsächlich sehr amüsant. Matrox war der sehr aktiv, auch auf der Cebit damals. Auf Fragen von mir wurde immer mit "das sieht matschig aus" oder "du willst doch deine Grafik schön scharf!" geantwortet. Als ob es ihnen eindoktriniert wurde. Ich war mir am Ende des Gesprächs nichtmehr so sicher, ob wir immernoch über das gleiche Thema geredet hatten.

War auch mit ein Grund, warum Matrox in die Untiefen des "nicht mehr relevant seins" versunken ist. Es ist unglaublich, wie kurzsichtig manche Hersteller sind. Wenn man dann aber noch stolz darauf ist...die Scheuklappe muss ordentlich robust gewesen sein.

Es wollte einfach niemand mehr ohne bilinear filtering oder AA, wenn man das bei 3dfx live gesehen hatte.

Ich persönlich begrüße den Vorstoß von RTRT sehr. Man mag mit der Art und Weise nicht einverstanden sein, aber ganz ehrlich, wenn es niemand mit Marktmacht in den Markt drückt, dann kann man es auch gleich vergessen. Weil dann auch kein Entwickler, MS oder wer auch immer Interesse daran hat. Der Endkunde ist der letzte der Kette, der dafür natürlich zur Kasse gebeten wird. Wenn man die Marktanteile an einer Hand abzählen kann, bringt das nur niemand wirklich weiter.

Ist im Grunde auch das, was ich von Ampere erwarte. Endlich ohne große Kompromisse mehr RT-Einsatz. Ich hoffe sehr, dass es hier endlich mal Fortschritte gibt.

-=Popeye=-
2020-07-20, 01:38:43
Ich bin mal gespannt wie sich die AMD Jünger die 1200,-€ als Preis-/Leistungs-Sieger schön reden... vorausgesetzt die Leistungs bewegt sich wirklich auf Ampere Niveau.

rentex
2020-07-20, 05:37:18
Schön das hier wieder um ungelegte Eier geschrieben wird. Man weiß praktisch nichts über BigNavi. Das der Kunde entscheidet was läuft, erkennen viele Firmen zu spät. Die leben praktisch in ihrer eigenen Welt und NV wird sich da, wahrscheinlich schwer tun.

Fragman
2020-07-20, 08:10:59
Ich bin mal gespannt wie sich die AMD Jünger die 1200,-€ als Preis-/Leistungs-Sieger schön reden... vorausgesetzt die Leistungs bewegt sich wirklich auf Ampere Niveau.

Das wird wie mit RT werden, auf einmal ist es geil. :biggrin:

HOT
2020-07-20, 08:27:21
Klar, weil alle "AMD-Jünger" auch arme RT-Gegener sind, da gehört schon ne gewaltige Hybris zu, so einen Müll zu behaupten... :freak:

mironicus
2020-07-20, 10:38:40
Ergänzende Leaks zu Ampere.

qMMm9nHFe0Y

NVidia soll angeblich ein Super-Refresh von Ampere für 2021 planen, und die GPUs sind dann in 7 nm.

RT-Geschwindigkeit von Ampere soll Faktor 3-4 sein (ansonsten 40%+ gegenüber RTX 2080 Ti). 2 GHz bei 300 Watt default, OC lässt 400 Watt zu.
Angeblich will NVidia DLSS 3.0 per Treiber erzwingen, das könnte Performance-Vergleiche mit AMD "erschweren".

HOT
2020-07-20, 10:56:14
Man kann sich durchaus vorstellen, dass GA102 und GA103 nochmals in 7 LPP aufgelegt werden. Die kleineren sicherlich nicht. Ich halte die ganze Meldung aber für Unsinn. Woher kommt eigentlich der Quatsch, dass man AMD jetzt schon wieder über NV einordnet? Das ist doch überhaupt nicht klar.

BlacKi
2020-07-20, 11:01:49
Angeblich will NVidia DLSS 3.0 per Treiber erzwingen, das könnte Performance-Vergleiche mit AMD "erschweren".
so wie man fxaa im treiber erzwingen konnte? ich fänds goil:freak:

Die 5700XT verkauft sich zur Zeit am besten schwer zu sagen was der AMD Käufer ausgeben würde wenn er bessere Optionen hätte.

https://www.3dcenter.org/artikel/mindfactory-grafikkarten-retail-verkaufsreport-q22020
ist, wie schon öfter gesagt, nicht der durschnitt aller karten. bei caseking und alternate sehen die verkäufe sicher anders aus.

Leonidas
2020-07-20, 11:05:08
Zumindest kann ich mir vorstellen, das NV diesesmal sich nicht den Raum läßt, um später noch einen Refresh aus vorhandem Silizium aufzulegen. Da war beim Original-Turing wie bekannt einiger Platz vorhanden. Bei Ampere wird NV öfters an die Grenze des Siliziums gehen müssen, da entfällt diese Option.

Für einen (potentiellen) Ampere-Refresh wird NV entweder die Chips neu auflegen müssen - oder bringt eine Super-Serie mit verdoppelter Speichermenge. Beides dürfte nicht wenig kosten.

WedgeAntilles
2020-07-20, 11:11:24
Man kann sich durchaus vorstellen, dass GA102 und GA103 nochmals in 7 LPP aufgelegt werden. Die kleineren sicherlich nicht. Ich halte die ganze Meldung aber für Unsinn. Woher kommt eigentlich der Quatsch, dass man AMD jetzt schon wieder über NV einordnet? Das ist doch überhaupt nicht klar.
Gute Frage.
Und was ist mit RT? Kommt das bei AMD halt auch noch mit oben drauf?
Also verdoppelt AMD die Rohleistung UND Raytracing findet auch noch massig Platz? Unterstellt man, dass RT einen gewissen Platz auf der GPU einnimmt, müsste AMD die Leistung der 5700XT ja verdreifachen, damit am Ende eine Verdoppelung rauskommt und noch Platz für RT übrig bleibt.

Oder will AMD dem PC-User kein RT verkaufen?
Konsole braucht natürlich RT, aber eine GPU für 500 Euro und mehr im PC braucht kein RT?

Wirkt auf mich unglaubwürdig und undurchdacht.

Edit: Und das er noch sagt, dass AMD selber nicht ganz realisieren würde, wie nah die Krone sei - naja.
AMD soll also quasi Wunder bewirken bei dem Chip, dann aber nicht die notwendige Mathematik haben um die Performancezahlen zusammen zu zählen?
Wie gesagt: Naja.

HPVD
2020-07-20, 11:12:47
Für einen (potentiellen) Ampere-Refresh wird NV entweder die Chips neu auflegen müssen..
neu Auflegen:
- mit mehr Hardware Einheiten (aber basierend auf Ampere Architektur) ?
- oder für (noch) mehr Takt (mit ähnlichem TPD wg neuem Prozess) ?

HOT
2020-07-20, 11:19:34
Zumindest kann ich mir vorstellen, das NV diesesmal sich nicht den Raum läßt, um später noch einen Refresh aus vorhandem Silizium aufzulegen. Da war beim Original-Turing wie bekannt einiger Platz vorhanden. Bei Ampere wird NV öfters an die Grenze des Siliziums gehen müssen, da entfällt diese Option.

Für einen (potentiellen) Ampere-Refresh wird NV entweder die Chips neu auflegen müssen - oder bringt eine Super-Serie mit verdoppelter Speichermenge. Beides dürfte nicht wenig kosten.

Und das ist auch beides nicht wirklich glaubhaft. Man könnte sich höchstens wie gesagt die Zwischenlösung vorstellen, dass man einen oder 2 Chips in 7 LPP zusätzlich auflegt um einen etwas potenteren GA102 hinzubekommen, aber ich sehe dafür auch keine Notwendigkeit, denn es ist wie gesagt vollkommen unklar, ob AMD überhaupt darüber herauskommt.
Was klar ist, ist, dass AMD diesmal einen wirklich reinen Gamingchip aufzulegen scheint, der außer für CAD für den Profibereich vollkommen unbrauchbar zu sein scheint. Die Einschätzung dazu ist ja, dass diese Spezialisierung evtl. auch Früchte tragen könnte, aber das ist bisher nichts weiter als ne Mutmaßung und die Vergangenheit lehrt bei beiden Herstellern eher Überschätzungen, daher bin ich sehr vorsichtig.

mironicus
2020-07-20, 11:26:16
Warum gibt es eigentlich überhaupt so viel Leaks zu Ampere und gar nichts zu Big Navi?

HOT
2020-07-20, 11:37:23
Warum gibt es eigentlich überhaupt so viel Leaks zu Ampere und gar nichts zu Big Navi?

Big Navi wird noch weiter weg sein und soviel weniger gibts ja auch gar nicht.

MiamiNice
2020-07-20, 11:50:41
DLSS im Treiber zu forcen, ohne Möglichkeit dies auszustellen, wäre für mich ein Grund gar kein Nvidia zu kaufen. Das hat auch nichts mit DLSS am Hut sondern mit Freiheit. Am meinem PC entscheide nur ich was gemacht wird, sonst niemand.

Sweepi
2020-07-20, 11:57:42
OT: Lasst doch bitte einfach beide/alle die Peinlichkeiten.

@moore's law is dead via @mironicus:
Wird sehr spanned wenn nVidia sich wirklich beim harten Verhandeln mit TSMC verzockt hat.
Dann hat AMD ein opening um in Highend und Enthusiast Produkte in relevanter Menge abzusetzen.

Vll. erreichen wir in dieser Gen nicht die Performance als wenn nVidia hier 7nm genommen hätte, aber wir bekommen langfristig ein ausgeglicheneres Duopol und schnellere Entwicklung in der Zukunft. loose-Win-Win :up:

Gipsel
2020-07-20, 13:17:21
Diemal belasse ich es noch bei dieser Warnung, aber der Nächste, der hier völlig sinnbefreit reingrätscht, nur um seinen persönlichen Animositäten Ausdruck zu verleihen, der bekommt eine längere Denkpause verpaßt.

basix
2020-07-20, 13:27:16
DLSS im Treiber zu forcen, ohne Möglichkeit dies auszustellen, wäre für mich ein Grund gar kein Nvidia zu kaufen. Das hat auch nichts mit DLSS am Hut sondern mit Freiheit. Am meinem PC entscheide nur ich was gemacht wird, sonst niemand.

Ich fände das ein Hammer Feature. Nur wie soll das gehen? DLSS benötigt Informationen von Spiel (Bewegungsvektoren, Geometrie, usw.). Nach jetzigem Kenntnisstand über die Technologie halte ich das für sehr unwahrscheinlich.

MiamiNice
2020-07-20, 13:41:09
Es ging DLSS 3.0, also die nächste Version. Vielleicht denkt NV bis dahin so weit zu sein, das es grundsätzlich funktioniert? Anderseits ist die Quelle ein YT Video ...
Bevormundung, falls es so kommen sollte, geht gar nicht. Wenn man 4K einstellt sollte die GPU auch in 4K rendern.

Leonidas
2020-07-20, 14:23:44
neu Auflegen:
- mit mehr Hardware Einheiten (aber basierend auf Ampere Architektur) ?
- oder für (noch) mehr Takt (mit ähnlichem TPD wg neuem Prozess) ?


Letzteres. Chips mit mehr Einheiten müsste man neu designen, was extra Zeit & Geld kostet. Ist für einen Refresh außerdem nicht notwendig, da reicht ein kleiner Sprung. Sofern man wirklich einen Refresh macht.




Anderseits ist die Quelle ein YT Video ...


... ich les das optisch immer zuerst als "VT" (aka "Verschwörungstheorie") und erst im nachhinein wird mir das aus dem Kontext klar, das "YouTube" gemeint ist.

Platos
2020-07-20, 14:30:04
Etwas per Treiber zu erzwingen nennst du also ein hammer Feature, basix?

Ich finde DLSS (2.0) zwar bisher recht überzeugend (im Gegensatz zu MiamiNice), aber DLSS im Treiber zu erzwingen hat mal einfach 0 Verständnis bei mir.

Blediator16
2020-07-20, 14:48:46
Niemals wird DLSS 3.0 einfach über Treiber aktiviert werden können. Da muss NV mit ihren Leuten direkt zu den Entwicklern und implementieren. Blackbox sein Großvater.

|MatMan|
2020-07-20, 16:14:57
Etwas per Treiber zu erzwingen nennst du also ein hammer Feature, basix?

Ich finde DLSS (2.0) zwar bisher recht überzeugend (im Gegensatz zu MiamiNice), aber DLSS im Treiber zu erzwingen hat mal einfach 0 Verständnis bei mir.
Natürlich wäre das ein Hammer Feature, wenn man es über den Treiber für jedes beliebe Spiel erzwingen könnte, natürlich nur als Option und nicht als Zwang!

basix
2020-07-20, 16:15:13
Etwas per Treiber zu erzwingen nennst du also ein hammer Feature, basix?

Ich finde DLSS (2.0) zwar bisher recht überzeugend (im Gegensatz zu MiamiNice), aber DLSS im Treiber zu erzwingen hat mal einfach 0 Verständnis bei mir.

Du hast mich falsch verstanden ;) Dass man es auf Wunsch erzwingen kann und somit in jedem Spiel verwenden kann ist ein Hammer Feature. Opt-Out Features mag ich aber gar nicht.

Platos
2020-07-20, 16:31:46
Na das ist was anderes. Dagegen hätte wohl niemand etwas.

Aber die "KI" lernt Grafikstile. Kommt ein Spiel, bei dem ein etwas anderer Art-Style auftritt (als Beispiel Borderlands), dann viel Spass damit, wenn es nicht für das Spiel explizit optimiert wurde.

Ich glaube nicht, dass das gut funktionieren wird/würde. Vlt. bei Spielen, die alle ähnlich aussehen vom Grafikstil her gesehen, aber grundsätzlich nicht. Und von daher bezweifle ich auch, dass man es im Treiber als Option zulässt. Aber ich lasse mich auch gerne positiv überraschen.

BlacKi
2020-07-20, 16:37:45
ohne das video gesehen zu haben, könnte ich mir denken, das man damit meint, das es in den supporteten spielen standardmäßig aktiv ist und 0 brain youtuber dann nv mit dlss vs amd nativ benchen werden.
ich mein, das kann man machen, aber sollte dann auch klar formuliert werden und nicht hinten runterfallen.

Blediator16
2020-07-20, 16:39:55
Wenn Ampere auf Samsung 8nm stimmt, dann wären die Super Varianten auf TSMC 7nm schon etwas krass. Soll doch nicht so günstig sein. Der Wechsel auf das den günstigeren 8nm von Samsung wäre dann sinnlos gewesen?

Dieser Typ ist einfach nur eine Labertasche.

BlacKi
2020-07-20, 16:46:22
warum sollte man das machen? das ist doch viel zu viel aufwand, nur für einen refresh. zu 5nm ist es doch auch nicht mehr lang.

HOT
2020-07-20, 16:49:49
Jo würde ich auch sagen, man wird sicherlich Mitte 22 schon mit der nächsten Generation in N5+ oder 5 LPP parat stehen.

WedgeAntilles
2020-07-20, 16:56:53
Sorry falls es eine dämliche Frage ist - aber wenn ich auf 8nm bin und dann 7nm verwende. Erfordert das nicht ein Neudesign des Chips?
Das ist doch nicht ein Refresh im Sinne von man taktet alles etwas höher, baut mehr Ram ein oder ähnliches?

Man kann doch nicht einfach einen anderen Fertigungsprozess machen und halt ein paar Transistoren mehr verbauen?

Troyan
2020-07-20, 16:59:41
Wenn du zwei Fabs nimmst, dann werden die Designs so weit angepasst, dass sie "austauschbar" sind. Das hat Apple gemacht und das hat auch nVidia bei Pascal gemacht.
Aber dann kommt man auch "zeitnah" und nicht erst 6 Monate später und ersetzt die 8nm Produkte.

BlacKi
2020-07-20, 17:00:01
Sorry falls es eine dämliche Frage ist - aber wenn ich auf 8nm bin und dann 7nm verwende. Erfordert das nicht ein Neudesign des Chips?
ja und nein. das chipdesign kann man übertragen, aber man muss trotzdem fast die ganze entwicklung nochmal machen wenn man den fertiger wechselt, wie es eben samsung zu tsmc erfordern würde. von 16nm auf 12nm beim selben fertiger ist der aufwand zb. erheblich geringer.

basix
2020-07-20, 17:03:24
Aber die "KI" lernt Grafikstile. Kommt ein Spiel, bei dem ein etwas anderer Art-Style auftritt (als Beispiel Borderlands), dann viel Spass damit, wenn es nicht für das Spiel explizit optimiert wurde.

Ich glaube nicht, dass das gut funktionieren wird/würde. Vlt. bei Spielen, die alle ähnlich aussehen vom Grafikstil her gesehen, aber grundsätzlich nicht. Und von daher bezweifle ich auch, dass man es im Treiber als Option zulässt. Aber ich lasse mich auch gerne positiv überraschen.

Das ist ja genau das was ich geschrieben habe. Ich bezweifle, dass man das ohne irgendwelches zutun der Spieleentwickler hinbekommt.

Gerüchten zufolge sollten bei DLSS 3.0 aber alle Spiele, welche TAA unterstützen, recht leicht auf DLSS "upgradebar" sein. Und fast jedes Spiel verwendet heutzutage TAA.

Ich lasse mich da ebenfalls gerne positiv überraschen, erwarte aber mal nichts weltbewegendes.

Blediator16
2020-07-20, 17:20:23
Das ist ja genau das was ich geschrieben habe. Ich bezweifle, dass man das ohne irgendwelches zutun der Spieleentwickler hinbekommt.

Gerüchten zufolge sollten bei DLSS 3.0 aber alle Spiele, welche TAA unterstützen, recht leicht auf DLSS "upgradebar" sein. Und fast jedes Spiel verwendet heutzutage TAA.

Ich lasse mich da ebenfalls gerne positiv überraschen, erwarte aber mal nichts weltbewegendes.

Nicht nur Entwickler, auch Nvidia Ingenieure müssen dabei helfen, weil Blackbox. Ich verwette meinen Hintern darauf, dass in allen Spielen, wo DLSS zum Einsatz kam, keiner der Spieleentwickler wirklich direkten Zugriff ohne Nvidias Zutun hatten und haben.

Piefkee
2020-07-20, 19:33:02
Wenn du zwei Fabs nimmst, dann werden die Designs so weit angepasst, dass sie "austauschbar" sind. Das hat Apple gemacht und das hat auch nVidia bei Pascal gemacht.
Aber dann kommt man auch "zeitnah" und nicht erst 6 Monate später und ersetzt die 8nm Produkte.

Naja...das ganze geht aber bei 7nm nicht. Da hast du ganz andere Design Vorschriften als mit 8nm Samsung. Ist eigentlich eine komplette Neuentwicklung

Slipknot79
2020-07-20, 21:02:46
Bevormundung, falls es so kommen sollte, geht gar nicht. Wenn man 4K einstellt sollte die GPU auch in 4K rendern.

Dann stelle doch 8k ein wenn du weißt dass DLSS von 4k hochrechnet. :redface:

Nazar
2020-07-20, 21:34:16
Dann stelle doch 8k ein wenn du weißt dass DLSS von 4k hochrechnet. :redface:

Wie schon mehrfach gesagt, ist das nicht dasselbe wie native 4k.
Nvidia nimmt die Pixel und bringt Nvidias persönliche Auffassung von "so sieht es gut aus" ins Spiel.
Vergleiche der Leistung und der BQ mit AMD wären dann vollkommen sinnbefreit und die Tester hätten kaum mehr einen Möglichkeit objektive Vergleiche zu ziehen.
Ich fände so ein Vorgehen gefährlich aber Nvidia traue ich mittlerweile alles zu. The way it's meant to be played... der nächste Versuch? :freak:

Fragman
2020-07-20, 21:40:12
Wie schon mehrfach gesagt, ist das nicht dasselbe wie native 4k.
Nvidia nimmt die Pixel und bringt Nvidias persönliche Auffassung von "so sieht es gut aus" ins Spiel.
Vergleiche der Leistung und der BQ mit AMD wären dann vollkommen sinnbefreit und die Tester hätten kaum mehr einen Möglichkeit objektive Vergleiche zu ziehen.
Ich fände so ein Vorgehen gefährlich aber Nvidia traue ich mittlerweile alles zu. The way it's meant to be played... der nächste Versuch? :freak:

Wieder ein falsches Verständnis von dem, was da passiert.
Gerade beim Thema Rendering kann man mit angelernten Prozessen soviel Leistung sparen, das sich die Frage des Nutzens nicht stellt. Was wir da in Form von DLSS sehen ist nur ein kleiner Teil und ich hoffe da kommt noch mehr.

AMD wird nachziehen müssen. Denn auch sie stehen an den selben technischen Grenzen und laufen in dieselben Limitierungen rein. Aber die MS Schnittstelle zeigt ja, das auch andere Parteien interessiert sind.

koonsta
2020-07-21, 09:26:20
Laut meiner Quelle wird Cyberpunk 2077 mit den RTX Karten dlss3.0 unterstützen, die native Auflösung die man auswählt wird intern dlss Quality+ gerendert, dadurch hat man 20% mehr Frames, so wird es bei allen dlss 3.0 Games sein.

robbitop
2020-07-21, 09:47:21
IMO wird das (sofern es so effektiv oder effektiver als DLSS 2.0 sein soll - was bei einer höheren Versionsnummer sicherlich der Fall sein sollte) nie transparent über den Treiber zur Anwendung funktionieren.
Dazu kann man sich IMO am besten den GTC Talk zu DLSS 2.0 anschauen.

Moderne Renderpipelines sind viel zu komplex, um so invasive Dinge erzwingen zu können, ohne dass Anpassungen des Entwicklers vorhanden sind.

DLSS braucht Motion Vektors, den Z-Buffer und die Anwendung muss ein Jittering der Pixelmaske so durchführen, wie es für DLSS passt. Auch muss die Anwendung wissen, dass Render und Outputauflösung unterschiedlich sind. Es muss eine Schnittstelle für die Renderauflösung als Input für DLSS und eine für den Output geben. Auch dürfen bestimmte Post Effects und das HUD erst danach und zwar in der Outputauflösung gerendert werden.

Renderpipelines sind nicht nur komplex, sondern auch viel zu unterschiedlich. Oft schon auch bei der gleichen Engine aber unterschiedlichen Spielen.


Ich kann mir vorstellen (weiß gleichwohl aber nicht ob das wirklich nötig ist), dass NV das Spielespezifisch hooked. Viel viel Aufwand und Spiel für Spiel.
Oder/und ein DLSS Fallback, der nur am Output herumskaliert (aber vom Algorithmuss völlig anders funktioniert - eher so wie das AI Upsampling von TVs). Allerdings mit deutlich schlechteren Ergebnissen.

Was ich mir eher vorstellen kann, ist dass man die Implementierung von DLSS 3.0 noch weiter vereinfacht und noch mehr Studios entsprechenden Support offeriert, so dass die Verbreitung steigt.

Tarkin
2020-07-21, 10:07:42
https://twitter.com/KkatCorgi/status/1285452946218512384

"The RTX 3080 has about 20% increase compared with RTX 2080 Ti"

y33H@
2020-07-21, 10:31:34
Nvidia nimmt die Pixel und bringt Nvidias persönliche Auffassung von "so sieht es gut aus" ins Spiel.Nope.

BlacKi
2020-07-21, 10:42:56
Gerade beim Thema Rendering kann man mit angelernten Prozessen soviel Leistung sparen, das sich die Frage des Nutzens nicht stellt. Was wir da in Form von DLSS sehen ist nur ein kleiner Teil und ich hoffe da kommt noch mehr.
+1

https://twitter.com/KkatCorgi/status/1285452946218512384

"The RTX 3080 has about 20% increase compared with RTX 2080 Ti for 850$msrp"
ich setze mal einen pricetag dran.

die performance schockiert mich eher weniger, denn bei 320w die so kursieren und dem salvage big chip, passt das ganz gut. so gut, als hätte sich das jemand ausgedacht.

Troyan
2020-07-21, 10:57:57
Klar, 320W und 20% Mehrleistung.

Leute, echt. 20% Mehrleistung bringt schon meine 2080TI, wenn ich diese Übertakte bei 360W.

Tarkin
2020-07-21, 11:03:44
+1


ich setze mal einen pricetag dran.



wenn nVidia das Ding für 850$ MSRP anbietet, fress ich einen Besen

eher 999$ bis 1.099$

3080Ti dann 1.299 bis 1.499$

BlacKi
2020-07-21, 11:07:15
@troyan den gerüchten nach, ist die 3080 sehr stark beschnitten. das sie keine 50% auf die 2080ti bringt, dürfte klar sein. die 50-60% gibts wohl erst mit der 3080ti.

wenn nVidia das Ding für 850$ MSRP anbietet, fress ich einen Besen

eher 999$ bis 1.099$

3080Ti dann 1.299 bis 1.499$
für die FE versionen könnte ich mir das auch vorstellen.

mironicus
2020-07-21, 11:09:41
Beim Preis wird sich zeigen, ob NVidia (vorausgesetzt sie stellen die Karten früher vor) nach Vorstellung von Big Navi die Preise senken muß oder ob sich AMD ganz frech an die Hochpreispolitik von NVidia orientiert.

Timbaloo
2020-07-21, 11:27:16
Die Frage hat AMD doch längst beantwortet.

mironicus
2020-07-21, 11:46:12
Ja, bestimmt nur 699 Dollar für Big Navi. Und dann fällt allen die Kinnlade runter. :D

BlacKi
2020-07-21, 11:49:01
Ja, bestimmt nur 699 Dollar für Big Navi. Und dann fällt allen die Kinnlade runter. :D
solche fürze kannst du im navi fred ablassen, dort stößt das dann vl auch auf gegenliebe.

WedgeAntilles
2020-07-21, 11:51:14
AMD geht voraussichtlich ein paar Prozent unter den Nvidiapreis.
(Bei vergleichbarer Leistung.)

Wenn Nvidia für die 3080 950 verlangt wird AMD seine vergleichbare Karte (falls eine mit sehr ähnlicher Leistung existiert) bei ca. 850-900 positionieren.


Konnte man ja im letzten halben Jahr ganz gut beobachten.

mironicus
2020-07-21, 12:04:16
Ich bin eher ein Anhänger der These das wenn die beiden Konkurrenten gleichauf sind, werden die Preise sinken. Und die letzten Gerüchte sprechen von einen noch schlankeren Chip bei AMD, und entsprechend bezahlbarer wird das dann.

WedgeAntilles
2020-07-21, 12:06:37
Ich bin eher ein Anhänger der These das wenn die beiden Konkurrenten gleichauf sind, werden die Preise sinken.

Würde mich natürlich freuen.
Die Empirie spricht aber leider dagegen.
Und dass Nvidia vom Mining-Boom und damit tendenziell steigenden Preisen spricht, deutet auch nicht gerade darauf hin, dass wir sinkende Preise bekommen werden.

mironicus
2020-07-21, 12:14:09
Ich ziehe mein Hoffnung aus der Tatsache, dass AMD nicht so unverschämte Preise verlangt. Das beste Beispiel ist mein zuletzt gekauftes Renoir-Laptop für 600 Euro (mit 4800u). Hier gibt es sogar eine mehr als offensichtliche Überlegenheit gegenüber Intel, aber die hohen Preise bleiben hier aus - trotz Überlegenheit.

rentex
2020-07-21, 12:17:46
Einfach zu schauen und Kaffee/Tee/Bier oder whatever trinken.
Kann mir auch nicht vorstellen, das NV weiterhin munter Höchstpreise aufruft.

WedgeAntilles
2020-07-21, 12:32:24
Ich ziehe mein Hoffnung aus der Tatsache, dass AMD nicht so unverschämte Preise verlangt. Das beste Beispiel ist mein zuletzt gekauftes Renoir-Laptop für 600 Euro (mit 4800u). Hier gibt es sogar eine mehr als offensichtliche Überlegenheit gegenüber Intel, aber die hohen Preise bleiben hier aus - trotz Überlegenheit.

Nein, das beste Beispiel ist die Preissetzung im GraKa Bereich in den letzten Monaten. Das ist sehr viel aussagekräftiger im Bezug auf zukünftige GraKa Preise wie Preise die für einen gesamten Laptop aufgerufen werden. Da spielen ja zig Dinge eine Rolle. Ram, HD, Display, Marke, Akku, Gewicht...

Aber wie gesagt, ich hoffe natürlich, dass ich mich irre.

MiamiNice
2020-07-21, 12:46:54
Ich ziehe mein Hoffnung aus der Tatsache, dass AMD nicht so unverschämte Preise verlangt. Das beste Beispiel ist mein zuletzt gekauftes Renoir-Laptop für 600 Euro (mit 4800u). Hier gibt es sogar eine mehr als offensichtliche Überlegenheit gegenüber Intel, aber die hohen Preise bleiben hier aus - trotz Überlegenheit.

Da ist imo der Wunsch Vater des Gedanken. Bei Laptops zählen ganz andere Dinge als reine Power. Die AMD Laptops als gleichwertig hinstellen ist schon ganz schön gewagt. Die Laptops sind nicht umsonst wesentlich günstiger.

Leonidas
2020-07-21, 12:56:04
https://twitter.com/KkatCorgi/status/1285452946218512384
"The RTX 3080 has about 20% increase compared with RTX 2080 Ti"


Das würde zu 3080Ti +40% passen.


Was mich interessiert ist, auf welches starkes Mißfallen ein defaultmäßig aktiviertes DLSS 3.0 stoßen würde. Vor allem ist es ja ein strittiges Thema, denn wer definiert, ob dies nun wirklich eine schlechtere BQ ist? Nur weil es nicht nativ ist? Schwer zu entscheiden.

mironicus
2020-07-21, 13:01:08
Was mich interessiert ist, auf welches starkes Mißfallen ein defaultmäßig aktiviertes DLSS 3.0 stoßen würde.

Mit diesen "Trick" kann man jeden Benchmark gewinnen. :freak:

Triniter
2020-07-21, 13:07:12
Mit diesen "Trick" kann man jeden Benchmark gewinnen. :freak:
Ja, sowas wäre sehr dreist und würde sicher auf entsprechende Ablehnung stoßen.

MiamiNice
2020-07-21, 13:07:52
Was mich interessiert ist, auf welches starkes Mißfallen ein defaultmäßig aktiviertes DLSS 3.0 stoßen würde. Vor allem ist es ja ein strittiges Thema, denn wer definiert, ob dies nun wirklich eine schlechtere BQ ist? Nur weil es nicht nativ ist? Schwer zu entscheiden.

Das Problem habe ich nicht. Nativ ist nativ und hochgerechnet, interpoliert oder temporal gepowered ist nicht nativ. Die GPU musste nicht die selbe Arbeit verrichten -> ergo "geschumelt".
Also wird nativ gegen nativ verglichen und NV wird einen Shitstorm erleben, schon alleine von der roten Front und AMD selber wird wohl auch das ein oder andere Wort dazu verlieren. Kann NV Ansehen eigentlich nur schaden.

€: Selbst wenn die Bildqualität x mal besser ist - ändert das rein gar nichts.

RLZ
2020-07-21, 13:09:27
Nicht nur Entwickler, auch Nvidia Ingenieure müssen dabei helfen, weil Blackbox. Ich verwette meinen Hintern darauf, dass in allen Spielen, wo DLSS zum Einsatz kam, keiner der Spieleentwickler wirklich direkten Zugriff ohne Nvidias Zutun hatten und haben.
Wofür sollte man da jemanden von Nvidia brauchen?

Gerade beim Thema Rendering kann man mit angelernten Prozessen soviel Leistung sparen, das sich die Frage des Nutzens nicht stellt. Was wir da in Form von DLSS sehen ist nur ein kleiner Teil und ich hoffe da kommt noch mehr.
Und nicht nur beim Rendering. Ich sehe da eher das Bottleneck beim Personal, das für die Spieleindustrie verfügbar ist. Gute Leute in dem Bereich können woanders wesentlich mehr verdienen bei besseren Arbeitsbedingungen.

just4FunTA
2020-07-21, 13:10:03
Das würde zu 3080Ti +40% passen.


Was mich interessiert ist, auf welches starkes Mißfallen ein defaultmäßig aktiviertes DLSS 3.0 stoßen würde. Vor allem ist es ja ein strittiges Thema, denn wer definiert, ob dies nun wirklich eine schlechtere BQ ist? Nur weil es nicht nativ ist? Schwer zu entscheiden.


also wenn das vom Benutzer aus/ein geschaltet werden kann sehe ich mit der Voreinstellung kein Problem, aber ein nicht deaktivierbares upscaling ist ein absolutes nogo. Irgend ein xboxOne Port für den PC hatte das ja und wurde zu recht verrissen.

Leonidas
2020-07-21, 13:15:54
Nicht deaktivierbar wird es sicher nicht sein. Aber per default aktiviert reicht - damit kann man darauf setzen, das die Masse der User es derart benutzt/testet und das viele Tester es gern "out of the box" testen.

Fragman
2020-07-21, 13:17:33
Und nicht nur beim Rendering. Ich sehe da eher das Bottleneck beim Personal, das für die Spieleindustrie verfügbar ist. Gute Leute in dem Bereich können woanders wesentlich mehr verdienen bei besseren Arbeitsbedingungen.

Jep, Apple, Facebook oder Google, um nur ein paar zu nennen.

just4FunTA
2020-07-21, 13:20:11
AMD geht voraussichtlich ein paar Prozent unter den Nvidiapreis.
(Bei vergleichbarer Leistung.)

Wenn Nvidia für die 3080 950 verlangt wird AMD seine vergleichbare Karte (falls eine mit sehr ähnlicher Leistung existiert) bei ca. 850-900 positionieren.


Konnte man ja im letzten halben Jahr ganz gut beobachten.


950€



https://www.reactiongifs.com/wp-content/uploads/2013/10/tom-delonge-wtf1.gif



Also 500€ wäre ideal, bis 600€ ok, bis 700€ zähneknirschend aber 950. :mad:




http://hutchj.tumblr.com/post/131982825450/when-lucious-responded-to-andre-saying-i-love

mironicus
2020-07-21, 13:22:35
Eventuell wirbt NVidia damit, dass die RTX 3080 TI bis zu 80% schneller ist als die RTX 2080 Ti in ausgesuchten Titeln, ohne zu erwähnen das rund 50% der Mehrleistung durch das forcierte DLSS 3.0 kommen...? :D

BlacKi
2020-07-21, 13:25:58
Eventuell wirbt NVidia damit, dass die RTX 3080 TI bis zu 80% schneller ist als die RTX 2080 Ti in ausgesuchten Titeln, ohne zu erwähnen das rund 50% der Mehrleistung durch das forcierte DLSS 3.0 kommen...? :D
ich glaub da eher an 200-300% auf den folien. mit 2080ti ohne dlss.

rentex
2020-07-21, 13:32:19
Mit weniger als 30% von 2080Ti zu 3080Ti, ohne DLSS, braucht NV nicht zu kommen.

wolik
2020-07-21, 13:39:52
Das würde zu 3080Ti +40% passen.


Was mich interessiert ist, auf welches starkes Mißfallen ein defaultmäßig aktiviertes DLSS 3.0 stoßen würde. Vor allem ist es ja ein strittiges Thema, denn wer definiert, ob dies nun wirklich eine schlechtere BQ ist? Nur weil es nicht nativ ist? Schwer zu entscheiden.
DLSS 2.0 in Death Stranding macht auf mehrere Stellen fehlerhafte Grafik Darstellung. Wie kommt man zu eine Idee das DLSS 3.0 "immer Aktiv" lassen? Wir hatten schon das Thema mal, mit "optimierte" Treiber für 3DMark.

Raff
2020-07-21, 13:51:57
Irgendein Faker/Leaker behauptet, dass man "DLSS 3.0 standardmäßig aktiviere", was auf mehreren Ebenen unsinnig ist, und hier wird das ernsthaft diskutiert. Come on. Erstens ist gerade erst DLSS 2.0 erschienen, Zweitens hat Nvidia längst gesagt, dass man DLSS nicht forcieren kann, da das Verfahren Zugriff auf Buffer und generell das Vorhandensein von TAA bedingt. Also entweder, wir sehen nun ein extremes Engagement seitens Nvidia, dass jedes neue Spiel mit DLSS-Support aufwarten wird, oder es ist einfach Bullcrap. ;)

MfG
Raff

MiamiNice
2020-07-21, 13:55:46
Das ist zu kurz gedacht. NV könnte es für jedes Spiel mit einem Profil aktivieren, standard, und immer mehr Spiele adaptieren und diese Profile über NV ExP auf dem Rechner aktualisieren. Möglich wäre das schon.

Raff
2020-07-21, 13:58:30
Es braucht halt nicht bloß ein Profil (wie AA-Bits), sondern Low-Level-Zugriff auf spieleigene Bildpuffer. Mit denen wird dann lustig gerechnet. Das geht nicht "von außen", eben weil das über billiges "Taste die Geometrie oder alle Pixel n-fach ab" hinausgeht.

MfG
Raff

MiamiNice
2020-07-21, 14:07:30
Ich vermute NV ist gut genug vernetzt mit den Spieleentwicklern um diesen Zugriff für alle neuen und auch alle älteren Titel zu bekommen. Wenn sie den wollen.

aufkrawall
2020-07-21, 14:08:40
Das ist zu kurz gedacht. NV könnte es für jedes Spiel mit einem Profil aktivieren, standard, und immer mehr Spiele adaptieren und diese Profile über NV ExP auf dem Rechner aktualisieren. Möglich wäre das schon.
Du erzählst einfach Quark, den du glauben willst, weil du dir entweder keine Paper zu dem Thema durchliest oder sie nicht verstehst/einordnen kannst. Was deine Meinungsäußerungen zum Thema komplett disqualifiziert.
Fast so schlimm hier wie die Niveau-Jauchegrube im Konsolen-Speku-Thread...

robbitop
2020-07-21, 14:10:59
Irgendein Faker/Leaker behauptet, dass man "DLSS 3.0 standardmäßig aktiviere", was auf mehreren Ebenen unsinnig ist, und hier wird das ernsthaft diskutiert. Come on. Erstens ist gerade erst DLSS 2.0 erschienen, Zweitens hat Nvidia längst gesagt, dass man DLSS nicht forcieren kann, da das Verfahren Zugriff auf Buffer und generell das Vorhandensein von TAA bedingt. Also entweder, wir sehen nun ein extremes Engagement seitens Nvidia, dass jedes neue Spiel mit DLSS-Support aufwarten wird, oder es ist einfach Bullcrap. ;)

MfG
Raff
Absolute Zustimmung. Gerade der Aspekt, dass DLSS 2.0 noch sehr jung ist, lässt es als unwahrscheinlich erscheinen, dass es in so kurzer Zeit einen großen Sprung geben lässt. Aber NV hat IIRC schon verlauten lassen, dass DLSS weiter entwickelt werden wird.

Ich finde das Thema Rekonstruktion durch AI super interessant - weil: die Informationen für die Rekonstruktion einer höheren Auflösung sind ja vorhanden. Temporal. Die Krux ist es, diese korrekt zu erfassen (trotz Dynamik). Und das geht nur mittels neuronalen Netzwerken wirklich zuverlässig. Eine klassische Heuristik liegt öfter daneben und es gibt entweder mehr Artefakte, Ghosting oder Unschärfe. (temporale Rekonstruktion ist ja nicht neu - aber in Verbindung mit NN ist es schon relativ neu und die Ergebnisse sprechen für sich)

Da ist sicherlich noch eine Menge potenzial in Bezug auf genau diese Auswertung. Und zwar in der Art des Trainings und in der Art des Inferencings. Je mehr Rechenleistung, desto mehr kann man machen. Allerdings ist der Zusammenhang zwischen Ergebnis und Rechenleistung sicherlich (wie so oft) überproportional.

In Zeiten in denen Shrinks immer länger brauchen, immer weniger bringen (Power/Density Sprünge zwischen Nodes sind viel kleiner als noch vor Jahrzehnten) und Designs immer komplexer werden, so dass die Entwicklungskosten überproportional steigen, muss man schauen, dass man die Rechenleistung immer cleverer einsetzt. VRS, DLSS, Mesh Shading usw sind da technisch IMO interessante Ansätze.

Mir gefällt nur nicht, dass es bis dato propertär ist. (gleichwohl verstehe ich, dass wenn man RnD investiert, die Ergebnisse auch allein nutzen möchte)
Das Potenzial ist allerdings so groß, dass AMD, Intel, Qualcomm, MS, Sony etc sicherlich alle in diese Richtung forschen werden und mittelfristig entsprechende Pendants kommen werden.

Ggf. gibt es dann ja nicht nur weitere propertäre Äquivalente sondern offene Verfahren, die auf allen modernen GPUs laufen werden.

Troyan
2020-07-21, 14:40:38
@troyan den gerüchten nach, ist die 3080 sehr stark beschnitten. das sie keine 50% auf die 2080ti bringt, dürfte klar sein. die 50-60% gibts wohl erst mit der 3080ti.


Bestimmt nicht bei 320W. Das ist Null Effizienzgewinn.
2080TI FE liegt bei 275W. 20% bei 320W sind 3,12% mehr Effizienz.

Leonidas
2020-07-21, 14:43:41
Quark


Geht es auch ohne das Niedermachen der Meinungen anderer? Kommt Deiner eigenen Argumentation sehr viel besser entgegen.




Irgendein Faker/Leaker behauptet, dass man "DLSS 3.0 standardmäßig aktiviere", was auf mehreren Ebenen unsinnig ist, und hier wird das ernsthaft diskutiert. Come on.


Nehme ich sehr gern mit, wenn es unsinnig ist und daher nicht kommt.

aufkrawall
2020-07-21, 14:46:03
Geht es auch ohne das Niedermachen der Meinungen anderer? Kommt Deiner eigenen Argumentation sehr viel besser entgegen.

Ich will gar nicht argumentieren, sondern nicht so viele völlig uninteressante "Beiträge" auf Schulhof-Niveau lesen müssen.
Aber gut. Wenn das nicht gewünscht ist, kann ich Threads wie diesen ja ignorieren. Mal sehen, wer es mir noch gleich tun wird...

robbitop
2020-07-21, 14:59:25
Bestimmt nicht bei 320W. Das ist Null Effizienzgewinn.
2080TI FE liegt bei 275W. 20% bei 320W sind 3,12% mehr Effizienz.
Effizienz kann man schnell "kaputtmachen", wenn man den Betriebspunkt hoch ansetzt. Will nicht sagen, dass es am Ende auch so kommen wird. Das weiß ich nicht. Wenn NV unbedingt hohe Taktraten will für ein besonders hohes Performancetarget, kann das gut sein. Frequenz ist halt leider überproportional zur Leistungsaufnahme.
Ggf. will man bereits mit der 3080 Navi 21 besiegen. Kommt von der SM/CU Zahl ja ungefähr auf das gleiche (72 CUs nach aktuellem Wissensstand). Entsprechend gut kann man die 3080 dann verkaufen und die 3080 ti um so besser. Will sagen: man weiß es nicht. Möglich ist es.

Troyan
2020-07-21, 15:08:52
Ach und das trifft nicht auf AMD zu, die weiterhin auf 7nm produzieren? Den Unsinn kann man wirklich nicht mehr lesen. nVidia schafft keine 50% Effizienzgewinn, aber AMD auf dem selben Prozess schon.

Erkläre mal, wie AMD 20% Mehrleistung zur 2080TI schaffen sollten, wenn sie jetzt schon bei 225W liegen? Bei der selben Effizienzsteigerung wie nVidia (3,2%) käme AMD mit Navi 2 bei 375W raus.

robbitop
2020-07-21, 15:13:18
Das trifft auf alle zu. Uneingeschränkt. Big Navi soll auch bei >300W liegen.

Es sagt keiner, dass man keinen Effizienzgewinn in der uArch schafft. Aber der Einfluss des Betriebspunktes ist nunmal wesentlich größer als die der uArch und des Fertigungsprozesses.

Wenn du etwas als "Unsinn" titulierst, hinterlege es doch bitte mit differenzierten Argumenten. Noch besser: objektive Diskussion mit entsprechend diskussionsfreundlichen Tonfall.

Troyan
2020-07-21, 15:18:58
Ich betitel deine Aussagen als Unsinn, weil du seit Monaten ignorierst, dass nVidia einen kompletten Full-Node Sprung vor sich hat.

Solange das hier konsequent ignoriert wird, ist jede Diskussion sinnlos.

Ich warte hier immer noch darauf, wieso nVidia mit 8nm und der selben Anzahl an Transistoren pro Fläche wie AMD bei besserer Effizienz schlechter abschneiden sollte. Aber du kannst dies bestimmt mit "differenzierten Argumenten" belegen.

robbitop
2020-07-21, 15:25:13
Ich betitel deine Aussagen als Unsinn, weil du seit Monaten komplett ignorierst, dass nVidia einen kompletten Full-Node Sprung vor sich hat.

Solange das hier konsequent ignoriert wird, ist jede Diskussion sinnlos.

Ich warte hier immer noch darauf, wieso nVidia mit 8nm und der selben Anzahl an Transistoren pro Fläche wie AMD bei besserer Effizienz schlechter abschneiden sollte. Aber du kannst dies bestimmt mit "differenzierten Argumenten" belegen.
Ich ignoriere das keinesfalls. Ich sage lediglich explizit, dass der Betriebspunkt einen größeren Einfluss hat. Gerade im oberen Bereich. Und das ist ein Fakt.

Ich sage auch nirgends, dass NV prozess, transistor und taktnormiert ein schlechteres Ergebnis als AMD erreichen wird. Ganz im Gegenteil - das würde mich überraschen. Immerhin hat NV mehr RnD und hat auch nie nachgelassen.

Aber es gibt eben mehrere Variablen zur Leistungsaufnahme.

Mich würde es nicht überraschen, wenn Ampere bei vergleichbarer Leistungsaufnahme und älterem Prozess (8nm vs 7 nm) gleiche oder etwas höhere Performance erreicht. Ich gehe sogar davon aus.
Deshalb die Vermutung, dass NV die 3080 mit 72 SMs in 8nm höher taktet, um N21 mit 72 CUs zu schlagen. Das wäre vergleichbare Leistungsaufnahme, älterer Prozess und mehr Leistung. Was höhere Effizienz der uArch bedeutet.

Akkarin
2020-07-21, 15:36:52
Ich bin eher ein Anhänger der These das wenn die beiden Konkurrenten gleichauf sind, werden die Preise sinken. Und die letzten Gerüchte sprechen von einen noch schlankeren Chip bei AMD, und entsprechend bezahlbarer wird das dann.

#

Das problem bei AMD war doch in letzter Zeit, dass sie keinen Preiskampf anzetteln konnten, weil ihre Hardware teurer war. Man vergleiche die TU116/117 mit Navi 10/14. Und Navi ist schon ein gutes stück besser als Vega oder Polaris. Macht AMD jedoch mit RDNA2 wieder den selben Schritt den sie mit RDNA1 gemacht haben ziehen sie plötzlich mit nVidia gleich und können sich einen Preiskampf leisten.

rentex
2020-07-21, 15:48:47
Hm, es lohnt sich doch gar nicht, um ungelegte Eier zu streiten. Es existiert nicht mal ne vernünftige Datenlage zum Thema, das man diskutieren könnte.

robbitop
2020-07-21, 15:54:24
#

Das problem bei AMD war doch in letzter Zeit, dass sie keinen Preiskampf anzetteln konnten, weil ihre Hardware teurer war. Man vergleiche die TU116/117 mit Navi 10/14. Und Navi ist schon ein gutes stück besser als Vega oder Polaris. Macht AMD jedoch mit RDNA2 wieder den selben Schritt den sie mit RDNA1 gemacht haben ziehen sie plötzlich mit nVidia gleich und können sich einen Preiskampf leisten.
Ich vermute keinen zu harten Preiskampf. Je besser die Hardware wird, desto mehr Marge kann man sich holen. Und genau das wird für AMD auch immer wichtiger.

maximus_hertus
2020-07-21, 16:03:01
und können sich einen Preiskampf leisten.

Kann nicht mehr passieren. Wurde von AMD und speziell Lisa Su offiziell "abgesagt". Man wird die Marge weiter steigern. Dementsprechend wird es kein zweites 2008/2009.

Ansonsten kann ich rentex nur beipflichten. Die Datenlage ist so dünn bis nicht vorhanden, dass selbst Spekus kaum lohnen.

WedgeAntilles
2020-07-21, 16:25:45
#
Macht AMD jedoch mit RDNA2 wieder den selben Schritt den sie mit RDNA1 gemacht haben ziehen sie plötzlich mit nVidia gleich und können sich einen Preiskampf leisten.

Was genau hat AMD davon?

Szenario 1:
Nvidia Midrange Karte kostet 600 Euro
AMD positioniert seine vergleichbare Karte für 540 Euro.

Ergebnis: AMD gewinnt etwas Marktanteil, aber beide Firmen verdienen einen haufen Kohle.

Szenario 2:
Nvidia Midrange Karte kostet 600 Euro
AMD positioniert seine vergleichbare Karte für 390 Euro
Jetzt würde AMD sehr stark Marktanteile gewinnen, die Preisdifferenz ist schlicht zu groß.
Also reduziert Nvidia seinen Preis auf 450 Euro
Und die Marktanteilsänderungen sind ähnlich wie Szenario 1.
(Soll AMD jetzt auf 300 runter gehen? dann geht Nvidia halt auf 380 runter.)

Toll für den Kunden.
Beide Anbieter machen deutlich weniger Gewinn.

Nur: Was genau hat AMD von Szenario 2? Sie gewinnen gleich viel Marktanteile, verdienen aber weit weniger Kohle.

Ein Preiskampf bringt AMD genau gar nichts, da Nvidia problemlos seine Preise ebenfalls senken kann.
Nvidia bringt ein Preiskampf ebenfalls nix.
Beide leben äußerst gemütlich mit einer riesigen Gewinnmarge.


Das hat nicht mal was mit Spekulation zu tun.
Das ist schlicht und ergreifend, wie die Wirtschaft in dieser Konstellation funktioniert.
Und vor 6 Monaten erst empirisch bewiesen bei der 5700 / 5700XT.

AMD ist ein Wirtschaftsunternehmen, dessen Ziel es NICHT ist, euch mit billigen GraKas zu versorgen.
Das einzige Ziel von AMD ist es, so viel Kohle wie möglich zu scheffeln.

Die Käufer haben sich mit den exorbitanten GraKa Preisen arrangiert und sich daran gewöhnt.
Das "Einzige" was ein gutes AMD Produkt bringt, ist ein geringeres Ansteigen dieser Preise.
Das ist an sich natürlich schon einiges wert - ohne AMD sind die Preise sonst wahrscheinlich noch mal nen hunderter höher.
Aber fallende Preise wird es nicht geben.

Ich hatte eine Weile gehofft, dass Nvidia durch die Konkurrenz der neuen Konsolengeneration tendenziell Preise aufrufen wird, die 50-100 Euro niedriger als bei der letzten Generation sind.

Die aktuellen Aussagen von Nvidia zum Mining-Boom und damit höheren Preisen haben diese Hoffnung aber völlig zerstört.

Leonidas
2020-07-21, 18:05:07
Szenario 1:
Szenario 2:


:up: Viel besser konnte man es nicht sagen.

basix
2020-07-21, 18:18:22
Was genau hat AMD davon?

Szenario 1:
Nvidia Midrange Karte kostet 600 Euro
AMD positioniert seine vergleichbare Karte für 540 Euro.

Ergebnis: AMD gewinnt etwas Marktanteil, aber beide Firmen verdienen einen haufen Kohle.

Szenario 2:
Nvidia Midrange Karte kostet 600 Euro
AMD positioniert seine vergleichbare Karte für 390 Euro
Jetzt würde AMD sehr stark Marktanteile gewinnen, die Preisdifferenz ist schlicht zu groß.
...

Szenario 1 ist deutlich wahrscheinlicher. AMD will seine Margen heben, das geht nicht mit einem Preiskampf. Was AMD aber auch will, sind mehr Marktaneile, damit sich der GPU-Aufwand mehr lohnt. Mit Konsolen, iGPU und neu Mobile (Samsung) und Compute (CDNA) haben sie zwar auch andere Standbeine, aber Stückzahlen helfen enorm, die Fixkosten für Entwicklung etc. zu amortisieren. AMD wird mit hoher Wahrscheinlichkeit also das bessere P/L bieten wollen, um Marktaneile gewinnnen zu können.

Gehen sie zu tief, könnte Nvidia aber wie du schreibst nachziehen. Obwohl Nvidia so wie sie sich momentan geben dann eher eine "Super" SKU rauslässt und die Preise beibehält, um die Marge beizubehalten. Den letzten Preiskampf sahen wir mit Fermi und RV7x0. Aber evtl. bewirkt RDNA2 wieder etwas ähnliches. Nicht mehr so extrem wie damals (eine GTX 570 gab es für 349$ MSRP), aber vielleicht wieder in Richtung Pascal Preise oder knapp darüber (800-900 Euro UVP für Top End SKU).

Troyan
2020-07-21, 20:14:05
Mich würde es nicht überraschen, wenn Ampere bei vergleichbarer Leistungsaufnahme und älterem Prozess (8nm vs 7 nm) gleiche oder etwas höhere Performance erreicht. Ich gehe sogar davon aus.
Deshalb die Vermutung, dass NV die 3080 mit 72 SMs in 8nm höher taktet, um N21 mit 72 CUs zu schlagen. Das wäre vergleichbare Leistungsaufnahme, älterer Prozess und mehr Leistung. Was höhere Effizienz der uArch bedeutet.

Da AMD schon auf 7nm ist und somit überhaupt keinen Vorteil eines Die-Shrinks hast, ignorierst du ebenfalls?!

Hier mal ein paar Fakten:
RTX2080 FE Super benötigt 250W bei 1875MHz. 5700XT mit 1875Mhz benötigt ebenfalls 250W. Der eine Chip ist auf 16nm und hat 33,3% mehr Transistoren und der andere ist auf 7nm. Die 2080 FE Super ist ca. 15% schneller.

Nun erkläre doch mal: Wie genau soll AMD also auf 7nm gegen nVidia mit einem mindesten kompletten Full-Node Shrink mithalten können, wenn nVidia mit einem zwei Full-Node Shrink Rückstand (TSMC 16nm -> 10nm -> 7nm) effizienter ist.

Gaming-Ampere bringt also nach dir im Grunde keine Verbesserung der Effizienz.

mironicus
2020-07-21, 20:21:08
Da AMD schon auf 7nm ist und somit überhaupt keinen Vorteil eines Die-Shrinks hast, ignorierst du ebenfalls?!

https://gadgetcrutches.com/wp-content/uploads/2020/06/AMD-RDNA2-rendimiento-inversores-jun-2020.jpg

Palpatin
2020-07-22, 09:26:36
Es wird sich auf etwas mehr Features und Performance vs etwas günstigeren Preis und mehr VRAM rauslaufen. Ich tendiere aktuell eher zu letzterem nach fast 10 Jahren durchgehend NV im Hauptrechner. Budget liegt aber auch nur bei ca 750.

HOT
2020-07-22, 10:15:35
Ich glaub, dass alles, was neu "geleakt" ist zu Navi nach dem Sienna-Cichlid vor und nach dem Navy-Flounder-Leak purer BS ist, genau so wie die neuesten "Leaks" bezüglich GA102. Da waren immer irgendwelche Pferdefüße drin. Eigentlich sind wie so schlau wie vorher, es gibt nen 80 CU-Chip und es gibt 4 Auskopplungen (N21, 22, 23 und 31), Ende der Information. Bei NV sieht es ähnlich aus. GA102 mit 84 SMs und 384Bit ist klar, aber weder Takt noch Features noch sonst irgendwas kann man glauben.

OgrEGT
2020-07-22, 13:14:00
Zum Thema Fullnode Sprung
Bei AMD hat sich in der Vergangenheit nur rein vom Fertigungspeozess her auch keine entsprechende Leistungssteigerung automatisch eingestellt (bspw Vega zu Vega20). Andererseits hat es NV rein durch Architekturänderungen geschafft bei gleichem Fertigungsprozess viel Leistung zu gewinnen (Kepler zu Maxwell).

Es ist somit kein Automatismus dass NV bei Ampere erst eimal rein durch den Fertigungsprozess über die Erhöhung von mehr Transistoren hinaus ein bestimmtes Leistungsplus erzielen kann. Die Frage ist wofür diese zusätzlichen Transistoren aufgewandt werden und ob sich die Architekturänderungen auszahlen wie sie sollten.
Ich will nicht sagen dass ein gewünschtes Leistungsplus x oder y nicht möglich ist, man kann dies aber nicht als selbstverständlich voraussetzen. Keine Architektur kann beliebig ohne Änderungen skaliert werden.

Unterm Strich stehen bei RDNA2 und Ampere ähnlich viele Shading Einheiten gegenüber. Wie diese in Bezug auf Leistungsaufnahme skalieren kann man derzeit nicht seriös schätzen... Die große Unbekannte bleibt zusätzlich RTRT v.a. bei AMD.

basix
2020-07-22, 13:40:02
Hier mal ein paar Fakten:
RTX2080 FE Super benötigt 250W bei 1875MHz. 5700XT mit 1875Mhz benötigt ebenfalls 250W. Der eine Chip ist auf 16nm und hat 33,3% mehr Transistoren und der andere ist auf 7nm. Die 2080 FE Super ist ca. 15% schneller.

Wen interessiert Die Size und gleichgestellte Taktraten in diesem Vergleich? 2080 Super benötigt Default 240W und eine 5700 XT 210W (Link (https://www.computerbase.de/2019-07/geforce-rtx-2080-super-test/3/#abschnitt_messung_der_leistungsaufnahme)). Dabei ist die 2080 Super etwa +25% schneller. Gleichgestellte Taktraten sind unsinnig, da die Designs unterschiedlich ausgelegt sind (Tatkbarkeit, Prozess, IPC). Performance und Verbrauch sind die einzigen "normierten" Parameter.

Ein grosser Chip kann nachteilig bei Perf/Watt sein, muss aber nicht. Wenn ich die letzten paar Nvidia Generationen anschaue, sehe ich hier nicht unbedingt eine deutliche Tendenz, dass die grossen Chips bei gleichen Taktraten ineffizienter sind.

Nun erkläre doch mal: Wie genau soll AMD also auf 7nm gegen nVidia mit einem mindesten kompletten Full-Node Shrink mithalten können, wenn nVidia mit einem zwei Full-Node Shrink Rückstand (TSMC 16nm -> 10nm -> 7nm) effizienter ist.

AMD hat offiziell +50% Effiziensteigerung im selben Node angekündigt. 16nm auf 7nm inkl. neuer und effizienterer Architektur hat mit RDNA ebenfalls +50% gebracht. Merkst du was? Bei Nvidia könnte es genau gleich aussehen. Nur hat Nvidia mit 12nm FFN sogar einen höher optimierten Prozess als 16nm verwendet. Der Sprung wird also vom Prozess her gesehen kleiner als bei GCN vs. RDNA sein. Und Turing ist bereits eine ziemlich effiziente Architektur, das war GCN nicht.

All dies sollte dir sagen, dass Ampere zwar effizienter werden kann, aber nicht unbedingt so effizient wie du dir das vorstellts. OgrEGT und andere schlagen in die selbe Kerbe. Eine weitere Unsicherheit ist hier der Samsung Prozess. TSMC hat hier hinsichtilich Effizienz meistens besser abgeschnitten. Eine Lobhudelei auf Nvidia und Ampere ("die haben riesiges Potential") und ein Niedermachen von AMD ("die schaffen das niemals") ist einfach dämlich. Unabhängig davon, dass wir von beiden Seiten noch recht wenig wissen, sollte man das auf beiden Seiten nüchtern betrachten. Nvidia könnte einen grossen Effizienzsprung hinlegen, gesichert ist das aber bei weitem nicht (effektiv wissen wir eigentlich gar nichts). Bei AMD hat man immerhin die Angabe von +50%, welche aufgrund der Zen und RDNA Historie aus meiner Sicht vermutlich eher konservativ ausgelegt ist.

HOT
2020-07-22, 13:40:49
Na ja, was da innerhalb eines Nodes möglich ist sieht man an Renoir. V20 packt kaum die 2GHz und bei Renoir sind Übertaktungen bis 2,5GHz drin. Gleiche Architektur, gleicher Prozess, nur bessere Tools und Personal. Bei Cezanne erwartet man offenbar noch mehr Takt, da man sich hier noch eine CU einspart - Cezanne soll auf 7 CUs heruntergehen. Immer noch Vega aber jetzt N7P. Wichtiger als der Prozess selbst ist die Arbeit und Optimierung damit. Da NV offenbar bei 8 LPP hohe Yields und wenig salvage erwartet, bin ich da recht optimistisch, dass das die richtige Wahl war. Bei AMD hat es eben sehr lange gedauert, bis man sein eigenes Toolset soweit hatte, dass man damit auch ausoptimierte Chips hinbekommt. NV hatte dieses Problem ja weniger, dafür haben die des Öfteren mit schlechten Yields zu kämpfen und bei N7 ist das offenbar ja immer noch der Fall.

basix
das kann man so nicht sagen, man bekommt GCN ja effizient, wie man an Renoir sieht. Das Problem lag einfach beim Chipdesign selbst, weniger bei der Architektur. RDNA1 ist ne potentere Architektur aber von Effizient weit entfernt und hat ja im Vorfeld auch massive Schwierigkeiten verursacht IIRC. Man darf sich hier nicht vom Marketing blenden lassen. Wahrscheinlich kann man mit Fug und Recht behaupten, dass RDNA1 eher RDNA0.5 ist und RDNA2 eigentlich die erste neue ausoptimierte Architektur.

basix
2020-07-22, 13:51:42
Na ja, was da innerhalb eines Nodes möglich ist sieht man an Renoir. V20 packt kaum die 2GHz und bei Renoir sind Übertaktungen bis 2,5GHz drin. Gleiche Architektur, gleicher Prozess, nur bessere Tools. Bei Cezanne erwartet man offenbar noch mehr Takt, da man sich hier noch eine CU einspart - Cezanne soll auf 7 CUs heruntergehen. Immer noch Vega aber jetzt N7P. Wichtiger als der Prozess selbst ist die Arbeit und Optimierung damit. Da NV offenbar bei 8 LPP hohe Yields und wenig salvage erwartet, bin ich da recht optimistisch, dass das die richtige Wahl war. Bei AMD hat es eben sehr lange gedauert, bis man sein eigenes Toolset soweit hatte, dass man damit auch ausoptimierte Chips hinbekommt. NV hatte dieses Problem ja weniger, dafür haben die des Öfteren mit schlechten Yields zu kämpfen und bei N7 ist das offenbar ja immer noch der Fall.

+1

basix
das kann man so nicht sagen, man bekommt GCN ja effizient, wie man an Renoir sieht. Das Problem lag einfach beim Chipdesign selbst, weniger bei der Architektur.

Das stimmt. Aber die grossen Brummer die verfügbar sind, sind bei Gaming ineffizient. Alles >50 CU ist nicht optimal für Gaming, da es nur schlecht skaliert und massig Bandbreite benötigt wird. Dieser Fakt hängt definitiv mit der Architektur zusammen. Das ist schon eine etwas andere Ausgangslage als bei Turing, auch was IPC anbelangt.

davidzo
2020-07-22, 13:58:09
Da AMD schon auf 7nm ist und somit überhaupt keinen Vorteil eines Die-Shrinks hast, ignorierst du ebenfalls?!

Hier mal ein paar Fakten:
RTX2080 FE Super benötigt 250W bei 1875MHz. 5700XT mit 1875Mhz benötigt ebenfalls 250W. Der eine Chip ist auf 16nm und hat 33,3% mehr Transistoren und der andere ist auf 7nm. Die 2080 FE Super ist ca. 15% schneller.

Nun erkläre doch mal: Wie genau soll AMD also auf 7nm gegen nVidia mit einem mindesten kompletten Full-Node Shrink mithalten können, wenn nVidia mit einem zwei Full-Node Shrink Rückstand (TSMC 16nm -> 10nm -> 7nm) effizienter ist.


Deine Zahlen sind falsch. Dann müsstest du ja mit der GTX1080 vergleichen.

TU104 ist 12nm TSMC, nicht 16nm. Das nvidia den Vorteil von 12nm nicht für density sondern für mehr low leakage zellen und high performance genutzt hat und damit keine höhere density erreicht, ändert nichts daran dass dies schon ein anderer Node ist.

Und Gaming-Ampere soll eben nicht in 7nm sondern in Samsung 8nm kommen. Zu 8nm wissen wir nur das es ein verbessertes 10LPP Verfahren ist. Wobei "Low Power Plus" eigentlich die höchste Transistordichte und niedrige Taktraten bedeutet, was für derartige high Performance chips wie Ampere wohl nochmal modifiziert wird.

Samsung gibt für 8LPP Transistordichten von "über" 61Mio Tr/mm2 an.
Das liegt etwas unterhalb der 65 Mio Tranistoren pro mm2 die TSMC im N7 Prozess unter Verwendung der high Performance Zellen erreicht, respektive 91.2 mm2 bei Verwendung der high density libraries. Das ist allerdings auch TSMCs ältester 7nm Prozess (4/2018). N7P unterscheidet sich davon im Wesentlichen nur in der Performance / Verbrauch, N7+ mit EUV dagegen liefert nochmal 20% mehr Density und 10% mehr performance oder 15% weniger Verbrauch.

Auch bei Ampere vs RDNA2 wird also immer noch ein erheblicher Fertigungsunterschied zwischen AMD und Nvidia liegen. Der Abstand mag etwas kleiner sein als bei 12 vs 7nm, aber in Bezug auf Density holt man mit der gewählten Fertigung bei Samsung wohl gerade so auf das Level von AMDs Vega20 von Ende 2018 auf. Mal sehen was man daraus macht. Sicher wird man Samsung einige firmenspezifische Anpassungen vornehmen lassen, so das es ein custom node wird der perfekt zu nvidias Chip-design-Strategie passt wie schon bei TSMCs 12nm.

MiamiNice
2020-07-22, 14:30:22
Wie stark können eigentlich NV und AMD Einfluss auf den Prozess nehmen? Entwicklen die Fertiger extra Prozesse nur für die beiden? Das muss doch unmengen an Zeit und Geld kosten, da Aufwand dürfte doch nicht so klein sein?

rentex
2020-07-22, 14:35:38
Wurde doch schon bei Turing gemacht?!

Akkarin
2020-07-22, 14:43:07
Was genau hat AMD davon?

[...]

Ein Preiskampf bringt AMD genau gar nichts, da Nvidia problemlos seine Preise ebenfalls senken kann.
Nvidia bringt ein Preiskampf ebenfalls nix.
Beide leben äußerst gemütlich mit einer riesigen Gewinnmarge.


Das hat nicht mal was mit Spekulation zu tun.
Das ist schlicht und ergreifend, wie die Wirtschaft in dieser Konstellation funktioniert.
Und vor 6 Monaten erst empirisch bewiesen bei der 5700 / 5700XT.

AMD ist ein Wirtschaftsunternehmen, dessen Ziel es NICHT ist, euch mit billigen GraKas zu versorgen.
Das einzige Ziel von AMD ist es, so viel Kohle wie möglich zu scheffeln.

Die Käufer haben sich mit den exorbitanten GraKa Preisen arrangiert und sich daran gewöhnt.
Das "Einzige" was ein gutes AMD Produkt bringt, ist ein geringeres Ansteigen dieser Preise.
Das ist an sich natürlich schon einiges wert - ohne AMD sind die Preise sonst wahrscheinlich noch mal nen hunderter höher.
Aber fallende Preise wird es nicht geben.
[...]

Naja, das ist schon etwas kurz gegriffen. Bei der Argumentation gäbe es ja niergends irgendwo Preiskonkurenz. Das ist aber nicht der Fall und ohne (verbotene) Absprachen sind Situationen in denen mehrere Firmen die Preis "künstlich" hoch halten eher Metastabil. Bisher hat AMD keine Preise gesenkt weil ihr Produkt zu teuer in der Herstellung war und nVidia hat keine Preise gesenkt weil sie ihren Marktanteil dadurch nicht steigern könnten.

Mit RDNA2 und 8nm Ampere werden die Karten aber evt. wieder neu gemischt. AMD und nVidia haben unterschiedliche Nachfragekurven, und möglicherweise macht AMD mehr Profit wenn sie etwas niedriegere margen und höhere Verkaufzahlen haben.

Zumal es beim selben Gewinn oft mehr Sinn macht eine höhere Stückzahl zu verkaufen als eine höhere Marge zu haben, denn das baut mind-share auf, bindet den Kunden in das eigene Softwaresystem (oder verhindert die Bindung an das System des Konkurenten) und verringert den Gewinn des Konkurenten, was langfristig Vorteile haben kann.

WedgeAntilles
2020-07-22, 15:58:43
Naja, das ist schon etwas kurz gegriffen. Bei der Argumentation gäbe es ja niergends irgendwo Preiskonkurenz. Das ist aber nicht der Fall und ohne (verbotene) Absprachen sind Situationen in denen mehrere Firmen die Preis "künstlich" hoch halten eher Metastabil.

Ich rede ausschließlich vom Grafikkarten-Markt.
Der GraKa Markt unterscheidet sich extrem von anderen Märkten.

Ein Duopol an sich ist schon eher selten.
Dann noch die Mining-Boom Geschichte, durch die sich die Käufer tatsächlich daran gewöhnt haben, dass sich die Preise fast verdoppelten. Und jetzt kostet ne Midrange Karte halt 500 Euro. Für die Gamer fast ein Naturgesetzt.

Und so weiter.

Du kannst daher nicht von diesem Markt auf irgend einen anderen schließen.
Der Kampf Sony vs Microsoft bei den Konsolen z.B. ist fundamental anders gelagert.

Ich hoffe ja sehr, dass ich unrecht habe - bei mir steht nämlich der Kauf einer neuen GraKa an. Aber man sollte IMO klar davon ausgehen, dass die Preise bestenfalls stagnieren werden. Sonst ist die Enttäusch wahrscheinlich groß.
Und falls die Preise doch sinken - um so mehr freut man sich :)

BlacKi
2020-07-22, 17:55:18
ich mach mir wegen der preise im mainstream eher weniger sorgen. die spiele werden so entwickelt, das man auch mit 200-300€ karten gut spielen können wird. da können die hersteller an der preisschraube drehen wie sie wollen.

es wird nie so sein, das spielen rauskommen und man braucht eine 600€ karte.

Linmoum
2020-07-22, 18:02:35
Brauchst du je nach Auflösung und Detailgrad schon.

Ansonsten könnte man auch sagen, niemand braucht eine 200€-GPU. Einfach in HD spielen, dann reicht auch noch weniger.

BlacKi
2020-07-22, 18:31:10
nö, da bin ich anderer meinung.

Platos
2020-07-22, 20:01:36
Das Problem von vielen PC-Spieler: Der Zwang, alle Regler nach rechts zu drehen.

Vergisst man das, kann man auch mit 200-300 Euro Karten ein vernünftiges Bild hinkriegen. Natürlich kommt dabei kein 4K@ High Details und 120 FPS raus (bei Grafikintensiven Spielen).

Dann kann man ein Spiel auch geniessen. Wenn man Spiele nur noch geniessen kann, wenn alles maxed-out ist, dann stimmt ja schon was nicht mehr, irgendwie...

Aber wenn die GPUs teurer werden, und die Spiele immer auf 200-300 Euro Karten spielbar sein werden, wird der Fortschritt dementsprechend abnehmen.

rentex
2020-07-22, 20:11:59
Wenn ihr meint...
Das Problem ist nicht der Drang zur schöneren Grafik, sondern der Mangel an gutem Storytelling in den meisten Spielen. So hat jeder seine Meinung...

MiamiNice
2020-07-22, 21:17:18
Wurde doch schon bei Turing gemacht?!

Mich würde eher interessieren wie viel Aufwand das für den Fertiger ist und wie viel wir Gamer davon mit tragen.

nö, da bin ich anderer meinung.

Naja, da kann man scheinbar viele Meinungen zu haben und man kann es nicht pauschalisieren.
Monitorgröße, persönliche Vorlieben, VR und nur mal ein paar Unterschiede zu nennen.
Mit einer 200€ GPU kann ich z.b. nicht zoggen, da lachen sich manche Games drüber schlapp. Habe aber einige Mates die sogar mit der iGPU der CPU auskommen würden.

Ex3cut3r
2020-07-22, 21:28:47
Kommt auf die Auflösung drauf an. Und die Ingame Settings. Wer nur auf FHD mit Medium spielt. Der kommt auch mit einer 1660 Super aus.

Ich spiele allerdings auf 3440x1440 und bei SP Games maximiere ich auch alles. Wenn ich MP Spiele wird aber alles runter gedreht. Da zählen hohe FPS Raten.

BlacKi
2020-07-22, 21:29:31
ich glaube nicht das der mainstream markt klettern wird, der wird durch viele faktoren ungefähr dort bleiben wo er ist. er wird mit der inflation mitwachsen, aber mehr nicht.

die leute haben einen festen preisbereich, der von ihrem einkommen und auch der konsolenkonkurenz eingefasst wird. der preisbereich hat sich in den letzten 20 jahren nicht geändert, er geht mit der inflation, aber sonst steht er fest. die anderen bereiche darüber sind stehts gewachsen.

im prinzip ist es sogar billiger geworden. denn früher gabs riesige performancesprünge, die sind heute viel geringer, d.h. man hat auch länger etwas von seiner 200€ karte.

|MatMan|
2020-07-22, 22:45:45
man hat auch länger etwas von seiner 200€ karte.
Man kann sich echt alles schön reden ;-)
Ich würde es als Stagnation bezeichnen und für nicht spürbare Performancesteigerungen (für mich sind das <50%) gebe ich kein Geld aus. Die Ausnahme bilden ggf. noch Killerfeatures.

BlacKi
2020-07-22, 22:55:19
Man kann sich echt alles schön reden ;-)
Ich würde es als Stagnation bezeichnen und für nicht spürbare Performancesteigerungen (für mich sind das <50%) gebe ich kein Geld aus. Die Ausnahme bilden ggf. noch Killerfeatures.
stagnation ja, aber eben auch ein fakt. ich hab peformance sprünge ebenfalls gern. aber es gibt leute da draussen, die würden es gut finden 8 jahre mit einer grafikkarte spielen zu können ohne sie zu alle 2-4 jahre zu wechseln.

MiamiNice
2020-07-23, 01:05:21
Haben diese Leute nicht nur Konsolen? :wink:

BlacKi
2020-07-23, 01:48:57
pc only spiele gibts genug.

Platos
2020-07-23, 03:47:17
Wenn ihr meint...
Das Problem ist nicht der Drang zur schöneren Grafik, sondern der Mangel an gutem Storytelling in den meisten Spielen. So hat jeder seine Meinung...

Ich wollte damit sagen, dass, wenn man sich nicht schon fast zwangsartig auf die Grafik fixiert und immer alles aufdrehen muss, vlt. auch mal Spass am (eigentlichen) Spiel hat (bzw. sich vlt. mal lieber aufs Spiel konzentrieren sollte, anstatt so Grafikgeil zu sein).

rentex
2020-07-23, 05:45:00
@Platos Wenn das Game nur hübsche Grafik besitzt, dann ist es wurst ob ich den Regler ganz rechts stellen möchte. Gutes Beispiel sind Indiegames, die keine dolle Grafik besitzen, aber dafür in anderen Bereichen punkten.
Ich sehe nichts verwerfliches an dem verhalten, maximale Leisting und Darstellung, sehen zu wollen.
Und es gab bei mir wirklich kein Spiel, das ich nur wegen der Grafik, nicht gezockt habe.
Ich stelle mal die Behauptung auf, das ohne den Drang, Grafik in Spielen schöner aussehen zu lassen, wir nicht so weit wären.
Ob sich dann jemand, der gut verdient (das variiert von Region zu Region), ne 1300€ Karte leisten will, ist immer noch seine Sache und moralisch ok...sonst könnte man anfangen, ganz andere Fässer auf zu machen.

rentex
2020-07-23, 10:13:38
https://www.guru3d.com/news-story/rumor-ampere-based-geforce-rtx-3000-series-might-arrive-earlier-than-expected.html

Hat es NV eilig?

WedgeAntilles
2020-07-23, 11:36:36
https://www.guru3d.com/news-story/rumor-ampere-based-geforce-rtx-3000-series-might-arrive-earlier-than-expected.html

Hat es NV eilig?

Warum auch nicht?
Sie werden Ampere releasen, wenn Ampere fertig ist.
Je früher desto besser.
Denn je größer der Abstand zwischen Ampere und BigNavi ist, desto länger hat Nvidia konkurrenzlos die mit Abstand schellste Karten auf dem Markt.

Es macht fast nie Sinn, ein neues Produkt zurückzuhalten.
Du releast es, wenn es fertig ist.

IMO braucht Ampere auch keine Gamescon oder sonst was als Rahmen.
Den Gedanken finde ich lächerlich.
Du brauchst einen besonderen Rahmen, wenn du herausstechen musst und auffallen musst.
Spiele z.B. machen auf der Gamescon Sinn. Da gibt es zig Spiele und es ist sinnvoll, sich zu präsentieren wenn die Aufmerksamkeit da ist.
Aber GPUs?
Bei denen es nur 2 Hersteller gibt? (Und die sogar noch der klare Marktführer bist.)
Da hast du Aufmerksamkeit wenn du deine neue Generation vorstellst.
Völlig schnuppe an welchem Tag das geschieht.

Als ob die Enthusiasten, die eine High-End GraKa kaufen nicht merken, wenn du die Karte präsentierst...


Haben diese Leute nicht nur Konsolen? :wink:
Nö.
Ich habe noch nie eine Konsole gehabt, aber ich überspringe immer diverse GraKa Generationen. Die letzten 2 GraKas hatte ich jetzt 5 Jahre (bzw. habe meine aktuelle immer noch) und davor hatte ich GraKas auch mehrere Jahre. (bin z.B. auch von der TNT 2 auf die Geforce 4200TI - habe also Geforce 1,2,3 übersprungen)

Die "großen" AAA Titel interessieren mich eh kaum (Stichwort Storytelling, Atmosphere, Charaktere), dazu nur FullHD und ich komme problemlos viele Jahre mit einer GraKa aus.

Daredevil
2020-07-23, 11:37:59
https://www.guru3d.com/news-story/rumor-ampere-based-geforce-rtx-3000-series-might-arrive-earlier-than-expected.html

Hat es NV eilig?
Ich warte seit 8 Monaten auf ne HDMI 2.1 Karte.
Wenn Ampere zuerst kommt, werde ich sicherlich nicht auf Navi warten.
Andersrum genauso. :D

rentex
2020-07-23, 11:44:13
War natürlich mein erster Gedanke...je früher desto besser. Also wird das Sommerloch ein bisschen kleiner ausfallen ;-)

BlacKi
2020-07-23, 12:18:20
Ich warte seit 8 Monaten auf ne HDMI 2.1 Karte.
Wenn Ampere zuerst kommt, werde ich sicherlich nicht auf Navi warten.
Andersrum genauso. :D
du wechselst die karten sowieso wie unterhosen. du kaufst dir sowieso irgendwann beide.

Fragman
2020-07-23, 12:20:50
https://www.guru3d.com/news-story/rumor-ampere-based-geforce-rtx-3000-series-might-arrive-earlier-than-expected.html

Hat es NV eilig?

Naja, wir alle gieren ja danach und etwas mehr Umsatz noch im 3. Quartel käme nv dann sicher nicht ungelegen.

BlacKi
2020-07-23, 12:33:08
das hab ich schon im januar gemeint, das der launch zur gamescom kommt und dann die verfügbarkeit im september einsetzt. das war abzusehen.

Slipknot79
2020-07-23, 12:55:10
Bei der Gamescom 2018 wirkte Lederjacke/Plastiktüte mit seinen "10 GIGARAYS" (tm) irgendwie deplaziert.
Er sollte hier im 3dcenter seinen Shice vorstellen. :redface:

BlacKi
2020-07-23, 12:56:38
das macht er sicher. nur per video stream, aus seiner kücke, die nur zur deko gehört^^

Leonidas
2020-07-23, 13:03:05
https://www.guru3d.com/news-story/rumor-ampere-based-geforce-rtx-3000-series-might-arrive-earlier-than-expected.html
Hat es NV eilig?


Zitat: "French overclocking reports" ....

... was bedeutet, das ist dieselbe News von vor 2-3 Wochen, die ging auch auf eine französische OC-Seite zurück.

PS: Jene Seite scheint den Beitrag nochmal neu aufgelegt haben, aber in jedem Fall ging das ganze schon vor einiger Zeit mit derselben Quelle durch die Welt.

rentex
2020-07-23, 13:04:01
Das hab ich nicht mitbekommen. Schau ma mal.

Korvaun
2020-07-23, 13:07:30
Logo hats nV jetzt eilig. Je mehr Abstand zu BigNavi & vor allem auch den neuen Konsolen liegt desto besser. Aber das bringt nur was wenn die Karten auch lieferbar sind, denn nur dann können die Leute endlich wieder Kohle für wirklich neue Karten raushauen, da wird der eine oder andere sicher nicht warten können bis z.b. BigNavi kommt...

WedgeAntilles
2020-07-23, 13:42:58
da wird der eine oder andere sicher nicht warten können bis z.b. BigNavi kommt...

Gerade als Marktführer ist das besonders gut:
Im Highendsegment kaufen die Leute ja seit zig Jahren quasi ausschließlich Nvidia.

Wenn da Nvidia fast ein Quartal früher dran ist, ist das äußerst wertvoll.
Wieviele sagen sich wohl: Naja, würde ja mal schauen was AMD so hat.
Aber 3 Monate warten? Nö, ich würde tendiere ja sowieso zu Nvidia kaufen, so wie die letzten 5 Jahre auch. (Und die Mehrheit der Leute tendiert zu dem Bekannten. Etwas das man seit Jahren hat kauft man tendenziell viel eher als etwas Unbekanntes.)
Also, wozu warten, da kann ich mir auch gleich die Ampere kaufen.

Andersrum wäre es für AMD, da würde die Bereitschaft potentiellr Kunden zu warten weit größer sein. Einfach weil man halt wissen will, was der Hersteller, den man seit Jahren kauft, bietet.

Je nach Verfügbarkeit der Karten kann ein ordentliches Stück vom Kuchen schon vergeben sein, bis AMD dann seine Produkte vorstellt.
Verbinde das mit dem "AMD braucht eh ein paar Monate bis die Treiber halbwegs was taugen" und Nvidia hat sich schon wieder einen riesigen Marktanteil gesichert.

Auch das ist ein weiteres Indiz, dass die Preise noch mal ein Stückchen höher gehen werden.

rentex
2020-07-23, 13:56:06
Ganz sicher, werd ich erst im November zuschlagen.

dildo4u
2020-07-23, 14:13:08
Die EVGA US Seite hat die 2080 Ti schon aus dem Sortiment rausgenommen.


https://www.evga.com/products/productlist.aspx?type=0

BlacKi
2020-07-23, 14:22:51
igor ist zu ruhig, er ist schon fleisig am testen.

rentex
2020-07-23, 14:32:46
Auf der KFA Seite ebenfalls keine 2080Ti mehr gesehen.
Igor hat geschrieben, das er schon länger unter NDA steht...nebenbei erwähnt.

edit: Kommando zurück: Kfa hat noch welche auf der Seite.

MiamiNice
2020-07-23, 15:37:06
Wenn die heutigen und gestrigen News von Leo stimmen wird NV wohl Absatzprobleme bekommen. Mich macht das AMD Gerücht wesentlich geiler als die die NV Gerüchte und das schreibe ich als NV Fanboi ;D Wie das wohl erst Leute sehen die nicht so stark an die Marke gebunden sind.

rentex
2020-07-23, 15:42:54
AMD ist jedenfalls spannender.

BlacKi
2020-07-23, 16:13:43
Die EVGA US Seite hat die 2080 Ti schon aus dem Sortiment rausgenommen.


https://www.evga.com/products/productlist.aspx?type=0
999€ kein outlet, kein rückläufer.
https://www.cyberport.de/pc-und-zubehoer/komponenten/grafikkarten/pdp/2e13-1g5/zotac-gaming-geforce-rtx-2080ti-twin-fan-11-gb-gddr6-grafikkarte-3xdp-hdmi-usb-.html?APID=278&MC=278-1576178973&emid=5f199aa9d1f97a60e6349b14

cR@b
2020-07-23, 18:24:17
999€ kein outlet, kein rückläufer.
https://www.cyberport.de/pc-und-zubehoer/komponenten/grafikkarten/pdp/2e13-1g5/zotac-gaming-geforce-rtx-2080ti-twin-fan-11-gb-gddr6-grafikkarte-3xdp-hdmi-usb-.html?APID=278&MC=278-1576178973&emid=5f199aa9d1f97a60e6349b14

Die Karte war schon zu Release bzw. kurz danach bei dem Preis.

BlacKi
2020-07-23, 19:02:09
damals gabs kein gerücht das sie ausläuft. deshalb hab ich das zititiert.

Dural
2020-07-24, 12:32:18
Wenn die heutigen und gestrigen News von Leo stimmen wird NV wohl Absatzprobleme bekommen. Mich macht das AMD Gerücht wesentlich geiler als die die NV Gerüchte und das schreibe ich als NV Fanboi ;D Wie das wohl erst Leute sehen die nicht so stark an die Marke gebunden sind.

Wahnsinnig spannend, die 16gb für navi sind seit monaten doch klar. Es läuft wie seit rund 10 jahren, viel blabla bei AMD und von NV hört man praktisch nichts.

Der fakt das nv bewusst einen schlechteren prozess wählt dürfte eigentlich ziemlich gut vermitteln das nv seiner sache sicher ist.

Zweite generation rt und tensor, das ding wird gerade hier kreise über navi2 ziehen, alles andere wäre eine überraschung. Übrigens die 4gb mehr werden keinen unterschied machen.

rentex
2020-07-24, 13:23:45
Wird auch darauf hinauslaufen. Natürlich ist sich NV seiner Sache sicher...alles andere wäre Wunschdenken.

Blediator16
2020-07-24, 13:59:21
Ihr glaubt wirklich, dass Nvidia genau jetzt so überheblich sein kann und einen schlechteren Prozess auswählen kann, weil man glaubt man wäre unantastbar? Komisch, ich habe sowas schon mal woanders gesehen und das ging gewaltig in die Hose ;D