PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing-Nachfolger (Refresh?), H2/2019


Seiten : 1 [2]

HOT
2019-06-06, 23:37:10
a.) Samsung hat keinen Vorsprung, das ist BS. TSMC ist vor Samsung mit 7 EUV in Massenproduktion gegangen und hat die meisten EUV-Anlagen erworben.
b.) Samsung wird zuerst natürlich die eigenen SoCs und Qualcomms neue SoCs in 7LPP fertigen.

Jensen selbst hat ja angekündigt, dass man einen Fertigungsprozess wieder für seine eigenen Bedürfnisse anpassen möchte, es versteht sich von selbst, dass man dafür Zeit braucht.
IBM tut ja offenbar auch ähnliches, ebenfalls bei Samsung. Ich nehme an, dass sich 7 LPP als Grundlage für große Chips eignet und gut customisierbar ist, was ein handfester Grund wäre für NV nach Samsung zu wechseln. Ob der Prozess genauso leistungsfähig ist wie TSMCs 7 EUV muss sich erst noch erweisen. Leistungsfähiger ist er denke ich nicht. Für NVs Größe-für-Power-Strategie wäre das auch vollkommen irrelevant. Kleinere Chips im Pascal-Format sind von NV sicher nicht zu erwarten, da sonst der Leistungsvorteil verloren gehen würde. Jetzt wieder nur 30% draufzulegen und bei RT kaum Fortschritte zu machen wird keine Option sein.

horn 12
2019-06-06, 23:51:50
Also Ende 2020, oder Spätsommer allerfrühestens ?

Leonidas
2019-06-07, 04:23:22
Ich finde bei der angegebenen Quelle EETimes keine Angabe zu den 40% günstigeren Preisen von Samsung. Kann mir jemand auf die Sprünge helfen?

https://www.eetimes.com/document.asp?doc_id=1334769


Theoretisch können es sogar mehr als -40% sein, je nachdem wie der Text gemeint ist.

Separately, one source said that Samsung is aggressively undercutting prices for its 7-nm node with EUV, offering some startups a full mask set for less than a multi-layer mask (MLM) set at its rival. TSMC introduced the MLM mask sets in 2007 to lower costs for small-volume runs. They are said to be about 60% of the cost of a full mask set.

HOT
2019-06-08, 09:16:16
Das ist auch Blödsinn. Die Kosten werden vielleicht etwas niedriger ausfallen, aber weder 40 noch 60% :freak:. Leute wie kann man sowas glauben. Die Hersteller würden Samsung die Bude einrennen und was ist? Apple bleibt bei TSMC, nur Qualcomm wechselt zurück. Und die waren ja auch nur weg, weil Samsung keine 7nm DUV gemacht hat.
NV wird nach Samsung gegangen sein, weil die gute Yields bei größeren Chips versprochen und vielleicht sogar vertraglich garantiert haben. IBM werden sie genauso gelockt haben.

Bei NV ist plötzlich wieder alles möglich, dabei seid ihr letztes Jahr noch mit euren Erwartungen aufs Maul gefallen. Bei AMD wird immer gebremst (mit Lehre aus der no-money-Ära ja nicht zuunrecht).

Bucklew
2019-06-08, 21:47:34
Die Hersteller würden Samsung die Bude einrennen und was ist? Apple bleibt bei TSMC, nur Qualcomm wechselt zurück.
Du kannst die Foundry eben nicht wechseln wie einen Schraubenzieher. Wer sollte denn großes wechseln? Apple ist gerade im RampUp für das neue iPhone und AMD ist auch gerade erst zu TSMC gewechseln.

Bei NV ist plötzlich wieder alles möglich, dabei seid ihr letztes Jahr noch mit euren Erwartungen aufs Maul gefallen.
NVIDIA hat mit den kleinen Chips wohl ausreichend gute Erfahrungen mit Samsung gemacht, um den Sprung jetzt gewagt zu haben.

Sollte Samsung wirklich vor TSMC liegen und günstiger sein - und eben die Yields ausreichend gut - könnte das ein lohnenswerter Schritt sein. Wir werden sehen.

Ihr vergesst irgendwie immer, dass NVIDIA ca. 4-5x mehr Chips produzieren lässt als AMD.

Sunrise
2019-06-08, 23:34:25
Apple bleibt bei TSMC, nur Qualcomm wechselt zurück. Und die waren ja auch nur weg, weil Samsung keine 7nm DUV gemacht hat.
NV wird nach Samsung gegangen sein, weil die gute Yields bei größeren Chips versprochen und vielleicht sogar vertraglich garantiert haben. IBM werden sie genauso gelockt haben.
Mal davon ab, dass Apple bei TSMC das bessere, für sie extrem wichtige SoC-Packaging (InFo) zusammen mit quasi perfekter Planungssicherheit hat und das Zweigleisig-Fahren nichtmehr notwendig ist, da TSMC die Kapazitäten garantieren kann, ist Apple bei TSMC genau da wo sie hingehören.

Da TSMC aber immer teurer wird und Samsung nichts mehr abbekommen hat, hat Samsung unweigerlich Anreize schaffen müssen, um Vertrauen zu gewinnen und Kosten zu senken. Denn nur weil Samsung irgendwas anbietet heißt das nicht, dass man gleich - wie Apple - wechselt, nur weil Samsung jetzt laut aktueller Informationen mal wieder konkurrenzfähig ist/wird.

Dass IBM und NV dorthin wechseln ist sicher auch kein Zufall, Samsung Semi hat ja recht heftige Expansionspläne bekannt gegeben, dort wird ordentlich Geld investiert. Samsung meint es also Ernst, nur den Stück vom Kuchen müssen sie sich irgendwie erstmal zurückholen, wenn z.B. NV wechselt, dann muss das handfeste Gründe haben.

Leonidas
2019-06-09, 05:17:45
Korrekt. Und für -10% oder -20% wechselt man nicht, egal ob das technisch günstiger wäre. Aber eingerechnet die Umstellungskosten sowie das neu hinzukommende Risiko ist es doch nicht günstiger als TSMC. Samsung muss einen Anreiz schaffen - und die dabei herauskommende Zahl wird nicht von Samsungs Kosten bestimmt, sondern von dem was man braucht, um Kunden anzulocken. Samsung hat nun schon Milliarden investiert - nun muß man Auslastung an Land ziehen, ansonsten wird es für Samsung noch teurer. Wo ich denke, ab -30% ist eigentlich der Punkt erreicht, wo das Angebot gut genug ist, die genannten -40% (oder mehr) klingen auch mir als etwas zu viel.

amdfanuwe
2019-06-09, 06:06:18
Ihr vergesst irgendwie immer, dass NVIDIA ca. 4-5x mehr Chips produzieren lässt als AMD.
Du hast auch die Konsolenchips mit eingerechnet? Und wenn schon, das war einmal.
Jetzt kommen haufenweise ZEN Chiplets, eine Menge dicker GPUs für HPC und Exascale Supercomputer sowie eine Menge GPUs für Cloud Gaming (Stadia) hinzu. Da dürften die GPUs für Desktop AIBs die geringere Menge ausmachen. Die neuen Konsolenchips nicht vergessen, die auch schon im voraus produziert werden müssen.

Vielleicht geht Nvidia eben nur zu Samsung, weil nach AMDs Reservierungen nicht mehr früh genug ausreichend Kapazitäten für Nvidia bereitstehen.
AMD dreht auf, kein Wunder wenn Nvidias Chef nur noch 'Fuck you, AMD' einfällt.

basix
2019-06-09, 09:50:55
Habe jetzt auch das Gefühl, das AMD mit TSMC für Grafikkarten aufs falsche Pferd gesetzt haben könnte. Bei der Vega VII hat der 7nm Prozess nur bedingt gezündet und wenn der Samsung Prozess bei gleicher Leistung dann tatsächlich 40% billiger sein sollte, kann AMD noch nichtmal über den Preis gehen. nVidia wird sich wieder dumm und dämlich verdienen, da die Karten natürlich preislich oberhalb der entsprechenden AMD Pendants positioniert werden, da sie ja auch noch 2nd Generation RT haben.

Dem stimme ich überhaupt nicht zu. Bei Zen 2 sehen wir ja wie der Prozess "zündet". Es gehören aber auch entsprechende Designmassnahmen dazu, und dort lief Vega VII sicher auf der Sparschiene. Ausserdem ist man mit dem ersten Design wohl mehr als 1 Jahr früher dran als Nvidis und das zweite Design kommt mit RDNA .

Ob Nvidia hier mit Samsungs 7nm EUV besser fährt sehen wir beim Ampere Release. Was wohl aber stimmt ist, dass TSMC sehr teuer geworden ist. Aber woran lag das? In irgendeinem oder mehreren Bereichen hat man die Konkurrenz wohl übertroffen.

AffenJack
2019-06-09, 10:58:24
Korrekt. Und für -10% oder -20% wechselt man nicht, egal ob das technisch günstiger wäre. Aber eingerechnet die Umstellungskosten sowie das neu hinzukommende Risiko ist es doch nicht günstiger als TSMC. Samsung muss einen Anreiz schaffen - und die dabei herauskommende Zahl wird nicht von Samsungs Kosten bestimmt, sondern von dem was man braucht, um Kunden anzulocken. Samsung hat nun schon Milliarden investiert - nun muß man Auslastung an Land ziehen, ansonsten wird es für Samsung noch teurer. Wo ich denke, ab -30% ist eigentlich der Punkt erreicht, wo das Angebot gut genug ist, die genannten -40% (oder mehr) klingen auch mir als etwas zu viel.

Die Frage ist überhaupt, wieviel am Wechsel zu Samsung dran ist. Nvidia kann auch einfach Dual-Sourcing betreiben, wie sie es fast jede Gen gemacht haben.
Ich würde nicht mehr als 10-20% Preisersparniss bei Samsung erwarten, aber ich wette es liegt an anderen Punkten.
Da kommt zb die Leistungsfähigkeit des Prozesses ins Spiel. Apple nutzt da jetzt kein 7nm EUV und wird diesen wahrscheinlich überspringen und nächstes Jahr auf 5nm gehen, obwohl Apple immer den Leading Edge Prozess genutzt hat.
Dann weiß man nicht, wie TSMCs Kapazitäten im EUV Prozess sind. Angeblich soll Samsung deutlich mehr EUV Anlagen gekauft haben.

Und zuletzt kommts eben auch drauf an, was TSMC/Samsung für Customprozesse haben will. Da ist Samsung Nv vielleicht mehr entgegen gekommen, allerdings würde das dann doch auf nen totalen Verzicht von TSMC deuten, da man kaum bei beiden Customprozesse auflegen wird. Huang hat ja ziemlich klar gemacht, dass man erstmal von Standardprozessen weg ist. Bei Samsung benutzt wahrscheinlich den 6nm Prozess, der nix anderes als 7nm Custom für Nv oder Nv+IBM designed ist.

Sunrise
2019-06-09, 12:07:22
@Leonidas & Affenjack
Ich finde besonders diesen Abschnitt von Semiwiki.com hier ganz interessant:

When asked about EUV “maturity”, Samsung Foundry indicated, “All EUV fabs collaborate closely with ASML – in that regard, the equipment capabilities are the same. Yet, we have extensive experience with EUV litho on both cuts and lines – extending that knowledge to more layers for nodes after 7nm has process smoothly. And, Samsung has internally developed EUV mask inspection technology, a unique capability within the industry.” Improved detection of EUV (reflective, multi-layer) mask defects is a distinct cost benefit.

Affenjack hat ja schon geschrieben, dass NV besser angepasste Prozesse für Ihre GPUs wollte und sollte Samsung Ihnen dann u.a. aufgrund der oberen Vorteile bessere Ausbeute vorweisen können und diese auch an den Kunden (NV) weiterreichen, ist das natürlich für beide gut. NV benötigt ja wieder einen neuen HPC-Chip mit viel Transistorbudget und im Grunde ein neues Top-to-bottom lineup, da wird Ihnen Samsung bei einem kompletten Wechsel (sofern das wirklich alles stimmt) sicher entgegengekommen sein. Die 100 Milliarden Dollar die Samsung in die Semisparte in den kommenden Jahren investieren will müssen sich ja irgendwie amortisieren, ansonsten kann dieses sauteure Equipment nicht bezahlt werden.

dildo4u
2019-07-02, 12:08:33
Nvidia bestätigt Fertigung bei Samsung.


http://www.koreaherald.com/view.php?ud=20190702000692

Dural
2019-07-02, 12:44:54
Custom 7nm EUV Samsung Prozess der erst noch günstiger als bei TSMC ist.

Läuft würde ich sagen, mal schauen on Samsung ihre versprechen einhalten kann.

Timbaloo
2019-07-02, 13:06:07
Hmmm, aber doch nicht Samsung exklusiv für next-gen?

HOT
2019-07-02, 15:31:46
Waa ich hab grad gelesen, dass die jetzt erst den Vertrag über die Fertigung unterzeichnet haben :freak:.
Na dann sehen wir uns frühestens 2021 wieder.
Nur um das verdeutlichen, AMD hatte schon Ende 2018 ein fertiges Produkt.

Timbaloo
Klar ist das exklusiv, sonst würde NV das nicht so an die große Glocke hängen. Denen gehts um Kostenreduktion und Yield bei den großen Chips.

So ne Nummer ham se schonmal probiert mit IBM und Geforce 6000. Ging so halb in die Hose damals.

dildo4u
2019-07-02, 16:01:51
Samsung fertigt schon Turing Chips. :eek:


https://www.techpowerup.com/257012/nvidia-manufacturing-turing-gpus-at-samsung-korea-fab-11nm

Dural
2019-07-02, 16:13:02
haha und das ganz ohne Gerüchte Küche.

w0mbat
2019-07-02, 16:23:25
Sieht so aus. Wenn die "Super" Karten jetzt schon über Samsung laufen kann das eine längerfristige Partnerschaft werden.
https://www.techpowerup.com/img/OKwsAMhThMbYFOxD.jpg

Wake
2019-07-02, 16:37:38
Ist wohl nur der Packaging-Ort, Gegenbeispiel GP107 (https://www.techpowerup.com/review/palit-geforce-gtx-1050-ti-kalmx/images/gpu.jpg) wird auch mit Taiwan angegeben obwohl wirklich von Samsung

nordic_pegasus
2019-07-04, 07:38:14
wenn die RTX 2070 (nonSuper) jetzt EOL ist, was macht Nvidia eigentlich mit den ganzen vollen Tu106 Chips? Unnötig kastrieren für die RTX 2060/2060Super ist ja wohl keine Lösung. Ist soviel Bedarf im Quadro-Bereich für diesen kleinen Chip?

Zossel
2019-07-04, 08:17:13
Die 100 Milliarden Dollar die Samsung in die Semisparte in den kommenden Jahren investieren will müssen sich ja irgendwie amortisieren, ansonsten kann dieses sauteure Equipment nicht bezahlt werden.

Dafür sind die Stückzahlen von diskreten GPUs einfach zu gering.

amdfanuwe
2019-07-04, 08:21:05
Ich denke eher, dass die Ausbeute an vollen Tu106 Chips nicht hoch genug ist um die Nachfrage im 300$ Bereich zu bedienen. Da hat sich Nvidia schon auf bevorstehende Preiskämpfe eingerichtet.

Achim_Anders
2019-07-04, 09:07:37
Sammeln für eine 2060 Super TI 😂

Timbaloo
2019-07-04, 16:26:05
wenn die RTX 2070 (nonSuper) jetzt EOL ist, was macht Nvidia eigentlich mit den ganzen vollen Tu106 Chips? Unnötig kastrieren für die RTX 2060/2060Super ist ja wohl keine Lösung. Ist soviel Bedarf im Quadro-Bereich für diesen kleinen Chip?
Ja, die Frage habe ich mir seit bekanntwerden der Specs für Turing-S gefragt.

Sammeln für eine 2060 Super TI 😂
Und das war auch irgendwie mein Gedanke. Aber warum warten? Als Konter-Konter-Konter?

Naja, ohne PCIe 8.0 Unterstützung ist NV eh für mich gestorben Kappa

Sunrise
2019-07-04, 22:29:17
Dafür sind die Stückzahlen von diskreten GPUs einfach zu gering.
Irgendwo muss Samsung anfangen...und dass NV zu Samsung vollständig wechselt ist nicht weniger als sensationell.

SGS Thompson und East Fishkill waren nur Ausflüge (auch keine sonderlich guten), bei Samsung hat man aber wohl alles "state-of-the-art".

Solange sich NV da aufgrund der Kostenreduktion am Ende nicht verzettelt und es keine Verzögerungen gibt, ist das jedenfalls sehr gute Werbung für Samsung. Da wird die Nachfrage dann das letzte ihrer Probleme sein, denn TSMC genießt weit und breit den besten Ruf.

Dural
2019-07-05, 14:30:45
Samsung wird sich doch bei NV nur mit sehr guten Preisen "eingekauft" haben.

Und Jensen wird das natürlich gerne angenommen haben, wenn man so Margen Geil ist sagt man da sicherlich nicht nein ;)

dargo
2019-07-05, 16:21:46
Seit wann ist Samsung billig?

AffenJack
2019-07-05, 16:40:15
Seit wann ist Samsung billig?

Schon lange. Seit Apple weggegangen ist, hört man immer wieder, dass Samsung ein gutes Stück günstiger sein soll. Samsung braucht einfach Kunden für seine Fabs. Hilft aber nix, wenn der Prozess hinter TSMC hinterher hinkt. Erst mit 7nm EUV könnte Samsung unter Umständen einmal vorne sein vs 7nm EUV von TSMC. Nur will TSMC sehr schnell 5nm nachschieben.

Sunrise
2019-07-05, 17:41:09
Samsung hatte ja auch schon ordentlich mit GAA geteasert, da NV wird wohl schon mit reichlich Zukunftsinformationen gefüttert worden sein. Denn nur um einen kurzen Ausflug ging es da sicherlich nicht.

=Floi=
2019-07-06, 13:39:55
Custom 7nm EUV Samsung Prozess der erst noch günstiger als bei TSMC ist.

Läuft würde ich sagen, mal schauen on Samsung ihre versprechen einhalten kann.


ich finde TSMC jetzt auch nicht schlecht. Bei den apple chips war TSMC imho auch leicht besser.
Besser ist sicher teurer, aber liefern konnten sie auch immer.

JVC
2019-07-06, 15:53:44
Naja, ohne PCIe 8.0 Unterstützung ist NV eh für mich gestorben
https://www.elektronik-kompendium.de/sites/com/0904051.htm (06.06.2019)
"PCIe - PCI Express (1.1 / 2.0 / 3.0 / 4.0 / 5.0)"

Ich glaube du meinst PCIe x8

M.f.G. JVC

dildo4u
2019-07-12, 14:04:03
Es soll weiterhin bei TSMC und Samsung gefertigt werden.

https://pcper.com/2019/07/nvidia-working-with-both-samsung-and-tsmc-for-ampere/

Nightspider
2019-07-12, 14:15:38
Vielleicht werden ja nur die kommenden Mobile-Chips bei Samsung gefertigt, falls ihr GAA Prozess wirklich etwas besser als bei TSMC sein sollte.

Kleine Mobilechips gabs doch von NV schon länger nicht mehr, da wirds imho eh an der Zeit mal was anständiges herauszubringen, für Ultrabooks, Convertibles und Co.

AffenJack
2019-07-12, 14:57:55
GAA ist zukunftsmusik, erstmal ist 7nm EUV dran. Aber das kann alles bedeuten. Es kann auch sein, dass Nv alles ausn Gaming bei Samsung fertigt und nur HPC bei TSMC belässt, da man da gute Erfahrungen mit Interposer und Packaging hat.

GP108 gabs und der Markt ist einfach zu tot dafür. Die IGPs sind zu stark, als dass sich kleinere GPUs als die 1050 noch lohnen denke ich.

Als erstes dürften wir eh den Release vom HPC Ampere im März nächstes Jahr sehen.

Sunrise
2019-07-12, 15:01:38
Es soll weiterhin bei TSMC und Samsung gefertigt werden.

https://pcper.com/2019/07/nvidia-working-with-both-samsung-and-tsmc-for-ampere/
Ja und die Erde ist eine Scheibe...

Man wird nicht mit Samsung Semi deren State-of-the-Art EUV-Prozesse anpeilen und zugleich mit TSMC in diesem Ausmaß weiterfahren. Wenn Samsung tatsächlich viel billiger ist, man aber evtl. schlechtere Yields bei sehr großen (HPC-)GPUs hat, dann fährt man natürlich alles was darunter sehr Margen-sensitiv ist bei Samsung.

TSMC hat eben den zuverlässigeren Track-Record und HPC ist für NV immens wichtig, da 2020 sowohl von Intel als auch wohl von AMD nochmal was nachgelegt werden könnte.

Schauen wir mal, aber wenn NV EUV als Basis anpeilt dann kann man sich denken, dass von TSMC da soviel nichtmehr kommen wird, außer vielleicht GA100.

Dural
2019-07-12, 16:22:24
Glaube nicht das da noch was kommt.

NV dürfte gleich voll auf Samsung umstellen, macht doch sonst keinen sinn.

Dieser Entscheid ist aber schon sehr mutig, da gerade von Intel und AMD was im 2020 kommen wird. NV wird abliefen müssen.
Würde mich nicht überraschen wenn die mit einem 800mm2 Monster Die in 7nm daher kommen, das wären rund 10k Einheiten :freak:

JVC
2019-07-12, 16:37:41
... NV wird abliefen müssen.
Wenn man immer nur Bergauf geht,
kommt man hald irgendwann mal am Gipfel an ...

M.f.G. JVC

Ghost1nTh3GPU
2019-07-12, 17:49:14
Würde mich nicht überraschen wenn die mit einem 800mm2 Monster Die in 7nm daher kommen, das wären rund 10k Einheiten :freak:
In der 7nm Generation dürfte es wohl Multi-Die-GPUs bei Nvidia geben.

reaperrr
2019-07-13, 00:21:46
wenn die RTX 2070 (nonSuper) jetzt EOL ist, was macht Nvidia eigentlich mit den ganzen vollen Tu106 Chips? Unnötig kastrieren für die RTX 2060/2060Super ist ja wohl keine Lösung. Ist soviel Bedarf im Quadro-Bereich für diesen kleinen Chip?

Wegschmeißen, sind ja nur 445mm² :freak:

Im Ernst, natürlich werden die kastriert. Das hat AMD ja sogar bei dem kleinen P11 auf der 460 so gemacht, von den CPUs ganz zu schweigen.
Wenn es für Nvidia finanziell und was bringen würde, noch eine Karte mit vollen 2304SP zwischen 2060S und 2070S zu platzieren, würden sie die 2070 einfach weiterlaufen lassen (zumindest die OC Customs). Tun sie das nicht, hat es marktwirtschaftlich und/oder von der Ausbeute her offenbar auch keine Vorteile.
Wahrscheinlich wird es außerdem weiter Modelle mit vollen 2304SP sowohl im Quadro- als auch Mobile-Bereich geben.

In der 7nm Generation dürfte es wohl Multi-Die-GPUs bei Nvidia geben.
Im HPC-Bereich vielleicht (zwecks Yield-Optimierung), im Consumer-Bereich bezweifle ich das stark.

Mr.Scott
2019-07-17, 00:10:09
Turing Nachfolger dann endlich mal mit HBM?

dildo4u
2019-07-17, 00:20:19
Wozu GDDR6 steht grad erst am Anfang,es sind Ausbaustufen bis 18.0 Gbps geplant.

https://www.anandtech.com/show/12338/samsung-starts-mass-production-of-gddr6-memory

Wären 200GB/Sec mehr als Titan V mit HBM2.

=Floi=
2019-07-17, 00:23:16
Nachdem AMD wieder zurück auf GDDR6 ging denke ich nicht. Das ist viel zu teuer und komplex für verbraucher karten.

mczak
2019-07-17, 06:37:53
Wozu GDDR6 steht grad erst am Anfang,es sind Ausbaustufen bis 18.0 Gbps geplant.
Würde mich wundern wenn das schon das Ende wäre - lieferbar sind immerhin auch schon 16 gbps.
Aber in naher Zukunft ist wohl nicht viel mehr zu erwarten. Der Artikel bei anandtech ist ja auch wieder lustig, samsung "starts mass production" der 18 gbps Chips - die Speicherhersteller wie immer doch eher optimistisch, der Artikel ist schliesslich 1.5 Jahre alt und von den 18 gbps Chips weit und breit nichts zu sehen :biggrin:.

Nur so zum Vergleich die ersten Karten mit gddr5 (radeon hd 4770/4870, geforce gt 240, gtx 4xx) waren allesamt noch deutlich unter 4 Ghz Speichertakt...

basix
2019-07-17, 07:41:32
Nur weil noch keine GPU 18 Gbps Speicher hat, heisst das nicht dass es den nicht gibt ;)

Dural
2019-07-17, 17:08:45
HBM kann man fast als gescheiter ansehen, viel zu teuer für Standard Konsumenten Hardware.

NV hat das schon vor Jahren eingesehen.

GDDR6 dürfte für die nächsten 2-3 Jahre ohne Problem noch gut reichen, was danach ist wird man sehen.

Rampage 2
2019-07-18, 20:42:08
GDDR6 dürfte für die nächsten 2-3 Jahre ohne Problem noch gut reichen, was danach ist wird man sehen.

Zweifelhaft. Höchstens 20Gbps-GDDR6 käme vielleicht in Frage - das wären jeweils ca. 43% mehr Bandbreite ggü. TU102 oder TU104. Aber dann müsste NV die DCC nochmals verbessern - die Frage ist, ob das überhaupt noch möglich ist? Bei Turing wurde die DCC ja erneut verbessert - ich denke, das ist (fast) vollständig ausgelutscht...

R2

Ghost1nTh3GPU
2019-07-18, 20:46:59
HBM kann man fast als gescheiter ansehen, viel zu teuer für Standard Konsumenten Hardware.

NV hat das schon vor Jahren eingesehen.

Mit EMIB und HBM3 stehben Lösungen in Aussicht um 7nm Geforces mit >1TBs zu versorgen.

Sunrise
2019-07-18, 20:57:30
HBM kann man fast als gescheiter ansehen, viel zu teuer für Standard Konsumenten Hardware.

NV hat das schon vor Jahren eingesehen.

GDDR6 dürfte für die nächsten 2-3 Jahre ohne Problem noch gut reichen, was danach ist wird man sehen.
Ich wüsste ehrlich gesagt auch nichtmehr wofür man HBM für Consumer benötigt, wenn nun beide IHVs zukünftig wieder diversifizieren und es sowohl bei NV als auch AMD für HPC eigene Designs gibt, wo Kosten in der Regel keine Rolle spielen.

Die Bereiche in denen diese abartig hohe Bandbreite gebraucht wird, sind meist nicht grafik-, sondern compute-lastige Anwendungen.

Wird allerdings spannend wie AMD da abgrenzen will, bei NV ist mir nach Turing der nächste Schritt auch noch nicht ganz klar, man weiß einfach nichts. Was war denn überhaupt der letzte Leak? Absolut boring...

Wann gab es das eigentlich zum letzten Mal, dass Ampere auf keiner Roadmap auftaucht? Oder hab ich was verpasst?

Undertaker
2019-07-18, 21:02:14
GP108 gabs und der Markt ist einfach zu tot dafür. Die IGPs sind zu stark, als dass sich kleinere GPUs als die 1050 noch lohnen denke ich.


Gerade aktuell gilt das mMn ganz und gar nicht: Die Intel GT2 IGPs treten seit Jahren auf der Stelle, wodurch dGPUs im Vergleich sogar deutlich attraktiver geworden sind. GT3e und AMD sind am Markt allenfalls eine Randerscheinung, kommen aber ebenfalls maximal an einen alten GP108 heran. Mehr nicht.
Hier gibt es durchaus eine Menge Spielraum für kleinere dGPUs, was die große Bandbreite entsprechender Geräte am Markt auch zeigt. Ein kleiner Turing wäre hier durchaus ein potentieller Verkaufsschlager. Mal schauen, ob der noch kommt oder Nvidia hier gleich auf 7nm wartet.

pixeljetstream
2019-07-18, 23:16:39
Wann gab es das eigentlich zum letzten Mal...

So Roadmaps früher waren dazu da um zu zeigen dass gpu computing langfristig zulegen wird und ein vielversprechendes Investment ist. Man mußte der Industrie immer wieder vorbeten wie gut es weiter geht. Da in den letzten Jahren aber im industriellen Bereich endgültig der Durchbruch für gpu computing kam, und mit deep learning etc. es "läuft", muss man nicht mehr so werben wie früher. Jetzt ist eher der Konkurrenzkampf im Vordergrund.

Ghost1nTh3GPU
2019-07-19, 19:23:13
Was will man auch noch mehr als zusätzliche Leistung bieten? Volta ist bis auf RTX ziemlich Feature-Complete. Balken gibt es wohl erst wieder mit Navi2x oder Xe, wenn die Konkurrenz wieder bei den Features mithalten kann.

Digidi
2019-07-20, 16:24:43
Was geht den da ab?
https://twitter.com/BitsAndChipsEng/status/1152558015687606272

Morgenlicht
2019-07-20, 17:10:01
Welche Erkenntnis soll herausgelesen werden?

Blediator16
2019-07-20, 17:38:58
strg + f "cheat" 0 Ergebnisse.

Locuza
2019-07-20, 17:58:50
Intel hat ein paar Tests durchgeführt, um ein Gefühl dafür zu bekommen wie die Tensor-Coes aufgebaut sind und operieren.
Die Sache mit dem "Cheat" liegt wohl darin begründet, dass der FP32-Part subnormals nicht korrekt handhabt und das die interne Präzision bei 24-Bit liegt und alles danach gekürzt wird.

w0mbat
2019-07-20, 18:06:29
strg + f "cheat" 0 Ergebnisse.
:freak: Sollte das ein Scherz sein?

B2T: Nvidia liefert wohl nicht die korrekten Werte, da wird falsch gerundet und es werden Dinge eingespart. War ja fast zu erwarten :rolleyes:

Timbaloo
2019-07-20, 19:30:38
Ich hätte jetzt eigentlich erwartet, dass bei allen breiteren FPU-Implementierungen (SSE, AVX, Shader, TC) "flush-to-zero" eher der Standard ist...

Naja, wer bei Tensor Cores IEEE754 strictness erwartet, dem ist wohl auch nicht mehr zu helfen...

Nakai
2019-07-20, 20:18:28
Lächerliche Probleme: IEEE 754 Standard bei Tensorcores zu erwarten ist dämlich. Deep learning braucht das nicht. Naja da kann man einiges einsparen was auch iO ist.

TheAntitheist
2019-07-20, 22:14:02
Ist doch nur ein Ablenkungsmanöver weil sie bei den Sicherheitsfeatures "gecheatet" haben ;D

gravitationsfeld
2019-07-21, 02:24:44
Komplett irrelelvant, machine learning braucht keine hohe Praezision. FP24 ist voellig ausreichend.

Die Erkenntnis ist vor allem, dass die Transistor-Kosten nicht so riesig sein koennen.

Badesalz
2019-07-21, 10:41:47
Komplett irrelelvant, machine learning braucht keine hohe Praezision. FP24 ist voellig ausreichend.Wenn das nur für machine learning da ist, wozu braucht man das zuhause?

Irgendwas mit cheat ist aber immer dabei. Angefangen damals mit sowas
https://www.geek.com/games/futuremark-confirms-nvidia-is-cheating-in-benchmark-553361/

und nicht aufgehört mit Spieleoptimierungen im Treiber, die immerwieder mal schlechter/verkehrt Rendern als vom Studio gedacht (gewesen). "Schnee" als Beispiel, ist hier wem ein Begriff? ;) Um sich anschliessend über die Roten zu amüsieren, sie bekommen ihre theoretische Leistung nie so wirklich umgesetzt.

TSMC hat eben den zuverlässigeren Track-Record und HPC ist für NV immens wichtig, da 2020 sowohl von Intel als auch wohl von AMD nochmal was nachgelegt werden könnte.Das hängt weiterhin nicht so von der Leistung oder den Features von Tesla/Ampere ab, daß weder die Roten noch die Blauen da bisher was anbieten wollen. Können, können sie es. Der Vorsprung ist aber Cuda. Und auch da nicht die rohe Leistung damit, sondern der Werkzeugkasten. Solange sie nichts vergleichbares an Entwicklungstools für OpenCL/Spir-V haben, droht NV nirgendwo Gefahr bei HPC.

pixeljetstream
2019-07-21, 11:04:55
Tensor cores rechnen in erster Linie in fp16 was auch so dokumentiert ist. Ich meine hier im Forum gelesen zu haben dass ja auch die normalen fp16 Operationen darüber laufen. Ergo das was auch in diversen APIs nun verfügbar ist (aka was von AMD als rapid packed math beworben wird).

Man kann es nicht nur für learning sondern auch für inferencing nutzen. Brauchen ist relativ, Henne/Ei.

Badesalz
2019-07-21, 11:29:53
@pixeljetstream
Ist das wirklich was ähnliches? Das AMD Sharpening läuft über rapid packed math. Und kostet die Leistung, die man davor eher als Messtoleranz akzeptierte. Quasi garnichts. Mir fällt jetzt kein Feature ein was man zusätzliche über Tensorcores fährt, was keine Leistung kostet.

Ok es gibt Sachen, die gehen mit Tensors und ohne wäre das unzumutbar lahm. Aber daß man etwas zusätzlich mit Tensors macht und das nichts kostet, das kenne ich bisher nicht.
(Ok, das Beispiel kann schlecht sein oder ich kenne nicht alles. Das ist bei mir immer recht wahrscheinlich ;))

Nichtsdestotrotz ist das für mich mit IEEE754 natürlich Quark, also, das bei Tensors als Mangel darstellen zu wollen.

pixeljetstream
2019-07-21, 11:56:18
https://www.anandtech.com/show/13973/nvidia-gtx-1660-ti-review-feat-evga-xc-gaming/2

Such nach "The Curious Case of FP16". Du kannst auf Turing auch fp16 normal nutzen und es wird ähnlich wenig kosten.

RIS ist ja open-source, wird man damit nativ in spielen für alle Hersteller sehen. FXAA, TXAA, Teile von ue4s temporal AA und nun RIS stammen alle von der gleichen Person. Timothy Lottes ist einfach top in der Thematik gute Kompromisse aus Leistung und Qualität zu finden.

robbitop
2019-07-21, 12:15:29
TXAA ist IMO eine relativ schlechte Implementierung von TAA. Unschärfer als die meisten Implementierungen. Langsamer (wegen MSAA), propertär, temporal schlechtere Ergebnisse. IMO eher ein schlechtes Beispiel.

Badesalz
2019-07-21, 12:19:33
Nicht so ganz. Damit wird es zuerst nur RIS-like auf NV geben. In der Quali mit quasi 0 overhead in den FPS wird das nicht so einfach gehen. (Stand aktuell)

Ggf. muss NV, abseits "open source", dafür erstmal entsprechenden Aufwand im Treiber... treiben. Ob und wie sie das machen werden wir sehen. Das wäre halt auch das Zugeständnis, DLSS war nix, wir machen jetzt AMDs RIS. Und nennen es GIS. Da weiß ich nicht wie Jensen so dazu steht :rolleyes:

Das ganze ist zwar TOP, wirkt für mich den Wachstumszielen über immer mehr Leistung aber bisschen entgegen. Weil... das macht außer noch und nöcher mehr Bildschirmfläche, das 4k gaming erstmal obsolet. Sieht teilweise sogar besser aus.

robbitop
2019-07-21, 12:31:06
DLSS scheint sehr stark abhängig von der Implementierung im Spiel zu sein. IMO kostet es etwas viel. Obwohl es für 4K nur mit 1440p Grundauflösung arbeitet, kostet es so viel wie 1800p.
Stellt man als Gegner 1800p upsampling mit gutem Schärfefilter entgegen, hat es DLSS aktuell sehr schwer. Ggf wird es in zukünftigen Spielen ja besser. Bisher finde ich den Aufwand von Serverfarmen für Training und nutzen von HW für Inferencing ziemlich hoch für das was hinten rauskommt. Aber ggf werden die Implementierungen ja besser.

Badesalz
2019-07-21, 12:34:59
Demgegenüber, daß man für RIS sozusagen garnichts tun muss oder es direkt viel besser aussieht? Das glaub ich nicht, daß das jemand (Implementierung) machen will. Es sei denn Nv holt wieder die bewährten Daumenschrauben raus.

pixeljetstream
2019-07-21, 12:42:26
@robbitop, selber besser machen bevor man die Leistung anderer, welche in der Industrie angesehen sind, schmälert. Im Nachhinein arbeitet die Evolution immer gegen alte Verfahren.

@Badesalz
Sharpening != AA. DLSS will was anderes erreichen.
Der Nulltarif kommt halt dann wenn es Entwickler selbst einbauen als Teil der Post Processing Pipeline, was ja auch die Präferenz von AMD selbst ist. Afaik geht es nicht in jedem Titel via Treiber allein.

Und ja dlss muss imo in der Umsetzung/Art und Weise sich verbessern um das zu liefern was man erwartete in Sachen Adaption und Mehrwert bei Gaming. Aber abschreiben würde ich das als Entwickler noch nicht, dazu passiert zu viel positives in Sachen AI.

Badesalz
2019-07-21, 12:48:50
@robbitop, selber besser machen bevor man die Leistung anderer, welche in der Industrie angesehen sind, schmälert.Schade. Ich hab nur drauf gewartet bei wem zuerst die Gefühlswelt durcheinander gerät, obwohl trotzdem gehofft, es bleibt diesmal länger sachlich...

@Badesalz
Sharpening != AA. DLSS will was anderes erreichen.Verliert mit RIs aber seinen Sinn. Egal was es machen will, das hat nicht den Nutzen und den charm von RIS.

Der Nulltarif kommt halt dann wenn es Entwickler selbst einbauen als Teil der Post Processing Pipeline, was ja auch die Präferenz von AMD selbst ist. Afaik geht es nicht in jedem Titel via Treiber allein.Ok. Das ergibt aber auch mehr Sinn, weil Schärfung fahren schon eingie Studios von zuhause aus, bei manchen Bildquali Optionen.
Man bekäme also Doppelschärfung was nicht mehr gut aussieht bzw. für dies und jenes Spiel im treiber an und ausgeknispt werden müsste.

Ghost1nTh3GPU
2019-07-21, 12:56:17
Verliert mit RIs aber seinen Sinn. Egal was es machen will, das hat nicht den Nutzen und den charm von RIS.

RIS ist schon jetzt am Ende, wo DLSS noch massig Potential hat. Gerade aus anderen Echtzeit-AI-Anwendungen (Auto, Industrieroboter,...) wird man Erkenntnisse übertragen können, da auch dort das Ergebnis möglichst schnell ermittelt werden muss.

robbitop
2019-07-21, 12:58:10
Sorry pjs, ich schätze dich, aber das Argument ist mMn nicht valide.

Es ist IMO durchaus legitim Ergebnisse zu sichten und zu vergleichen, auch wenn die Entwicklung nicht die eigene Profession ist. Zu sehen, was wie viel Leistung kostet, was temporal stabiler ist, was schärfer ist und zu vergleichen erfordert diese Profession nicht.
Das ist nichts Persönliches, ein Arbeitsergebnis mit anderen Arbeitsergebnissen zu vergleichen und eine relative Einschätzung zu geben.

unl34shed
2019-07-21, 13:11:24
RIS ist schon jetzt am Ende, wo DLSS noch massig Potential hat. Gerade aus anderen Echtzeit-AI-Anwendungen (Auto, Industrieroboter,...) wird man Erkenntnisse übertragen können, da auch dort das Ergebnis möglichst schnell ermittelt werden muss.

DLSS ist aber kein Echtzeit AI, das wird offline Trainiert, dann kommt da ein stück Code bei raus, der auf der GPU läuft. Ja, den Code kann man immer mal wieder updaten, was aber immer neues offline Training und damit Kosten bedeutet. DLSS hat bis jetzt weder bessere Performance noch ein besseres Bild als simples Upscaling geliefert.

pixeljetstream
2019-07-21, 13:13:35
@robbitop Vielleicht sollte ich es anders formulieren, glaubst Du dass TXAA seiner Reputation geschadet hat. So klang es für mich, nach dem Motto ich hätte es nicht auflisten sollen um zu zeigen, dass er auf dem Gebiet angesehen ist. Es geht mir nicht darum zu sagen dass es nix besseres gibt, er selbst entwickelte ja bei Epic das ganze weiter, was auch Teil meiner Auflistung war. Aber TXAA und seine Varianten hatte eine starke Nachfrage in Sachen Adaption, ergo ist das für mich ein Erfolg.

robbitop
2019-07-21, 13:15:11
Ich habe neulich rumors gelesen, die besagen, dass NV eine Verbesserung von DLSS plant. Bisher sind Aufwand und Nutzen eher unspektakulär.

Vielleicht sollte ich es anders formulieren, glaubst Du dass TXAA seiner Reputation geschadet hat. So klang es für mich, nach dem Motto ich hätte es nicht auflisten sollen um zu zeigen, dass er auf dem Gebiet angesehen ist.

Besser nicht versuchen, zwischen den Zeilen zu lesen. Natürlich schadet txaa seiner hervorragenden Reputation nicht. Dennoch gab es auch 2013 IMO schon bessere Verfahren (die auch auf allen GPUs liefen). SMAA T2x, 4x, 1x. Sorry aber das ist meine Meinung. :)

Ghost1nTh3GPU
2019-07-21, 13:27:36
DLSS ist aber kein Echtzeit AI, das wird offline Trainiert, dann kommt da ein stück Code bei raus, der auf der GPU läuft. Ja, den Code kann man immer mal wieder updaten, was aber immer neues offline Training und damit Kosten bedeutet. DLSS hat bis jetzt weder bessere Performance noch ein besseres Bild als simples Upscaling geliefert.
Inferencing/Gelerntes Anwenden macht auch ein Tesla oder der Roboter in der Produktion. Das Lernen passiert da auch Offline.
Feedback ist bei DLSS halt schwieriger, aber über menschliche Kontrollgruppen oder eine zusätzliche AI auch möglich.
Natürlich kann die Basis bei Turing noch etwas schwach sein und es braucht mehr Grundleistung für das Inferencing.

Sunrise
2019-07-21, 13:47:42
Ich habe neulich rumors gelesen, die besagen, dass NV eine Verbesserung von DLSS plant. Bisher sind Aufwand und Nutzen eher unspektakulär.
Ich glaube auch nicht, dass DLSS in dieser aktuellen Form jemals so geplant war. Für Turing brauchte man Checklisten-Features, die den Aufwand der Implementation vieler? Neuerungen rechtfertigten. Man hat bewusst integriert und musste dann Ansätze finden, um die verfügbaren HW-Ressourcen zu nutzen.

DLSS sollte ja in der Theorie Details darstellen, die ein Schärfefilter niemals hinzuzaubern kann. Wenn das Endergebnis beim Schärfefilter aber besser ist - vor allem bei sehr hohen Auflösungen wirkt ein Minimum an mehr Schärfe Wunder -, dann stimmt entweder etwas mit der Implementation nicht, oder mit den Rohdaten oder der Verarbeitung...

Man sollte bei sehr genauer Betrachtung ein Ergebnis (anhand der Theorie) erwarten können, dass DLSS aktuell nicht zeigt. Womöglich liegt es bei Spielen auch oft am Content, der nicht genug Details enthält, damit es einen sichtbaren Unterschied macht. Denn bei Filmen mit sehr hoher Quellauflösung rechne ich ordentlich runter (im Prozess des Runterrechnens muss auch leicht nachgeschärft werden) und habe immer ein besseres Endergebnis als einen Schärfefilter über ein deutlich niedriger aufgelöstes (ausgehend vom ground truth) Bild zu legen. Das kann subjektiv erstmal gut aussehen, aber diese zusätzliche, weil künstlich hinzugefügte Schärfe, zerstört nicht nur den originalen Bildeindruck (die Helligkeit wird beeinflusst, das Bildmaterial wird heller), sondern gerade bei scharfem Ausgangsmaterial ist alles überscharf.

Das Ganze erzeugt also erstmal einen Aha-Effekt, der sich besonders gut in Screenshots macht, aber erst in Bewegung sieht man dann, ob es tatsächlich "etwas taugt".

Wo genau hier der Haken ist, weiß wohl nur NV. Spätestens bei Ampere gehe ich davon aus, dass NV dies wie gewollt umsetzt, bzw. berichtigt, was aktuell scheinbar nicht optimal umgesetzt ist. NV hat ja alle Daten, wir als Endanwender können nur raten.

pixeljetstream
2019-07-21, 14:01:54
Sorry aber das ist meine Meinung. :)
Damit habe ich kein Problem, das Thema war ja nicht TXAA vs andere Verfahren zu bewerten, sondern meine Aussage dass der Mann Ahnung hat ;) Deswegen find ich Deinen ersten Einwurf komisch, nur weil es andere erfolgreiche Verfahren gab gleich von einer "schlechten Implementierung" zu sprechen. Da war imo nicht viel Platz zwischen den Zeilen. Aber ist gut nun.

Ghost1nTh3GPU
2019-07-21, 14:02:24
Microsoft wird wohl über DirectML Standard-Lösungen für Windows und Xbox liefern. Da die menschliche Wahrnehmung auch musterbasiert und fokussiert auf bestimmte Details ist, macht es durchaus Sinn hier Rechnerleistung zu sparen.

aufkrawall
2019-07-21, 14:03:42
Nvidia hat im Gaming-Bereich vor Turing lange Zeit doch vieles aus den Chips rausgelassen, was irgendwie Transistoren ohne direkten Benefit gekostet hätte. Die Tensorcores hingegen wirken bislang wie ein fünftes Rad am Wagen und ich bin mal gespannt, ob sie deren Leistungsfähigkeit in Relation zum Rest erhöhen, oder ob man es verkümmern lässt und irgendwann wieder (zumindest in der Form) rauswirft. Da kann man noch so viele Luftschlüsser in die Luft malen ala "DL ist die Zukunft", es geht um die Gaming-Performance im Hier und Jetzt sowie der nächsten Zeit.

TXAA war sicher Pionierarbeit zu der Zeit, trotzdem war das Feature unterm Strich ein Fail. Erst Recht durch Nvidias typisch asoziale Venderlock-Allüren (der gute Mann ist dann ja auch gegangen)...

robbitop
2019-07-21, 14:16:16
Damit habe ich kein Problem, das Thema war ja nicht TXAA vs andere Verfahren zu bewerten, sondern meine Aussage dass der Mann Ahnung hat ;) Deswegen find ich Deinen ersten Einwurf komisch, nur weil es andere erfolgreiche Verfahren gab gleich von einer "schlechten Implementierung" zu sprechen. Da war imo nicht viel Platz zwischen den Zeilen. Aber ist gut nun.
Die Implementierung zu kritisieren heißt nicht die Person zu kritisieren. ;) IMO hast du das einfach nur in den falschen Hals bekommen.

Mangel76
2019-07-21, 14:31:10
Ich glaube auch nicht, dass DLSS in dieser aktuellen Form jemals so geplant war. Für Turing brauchte man Checklisten-Features, die den Aufwand der Implementation vieler? Neuerungen rechtfertigten. Man hat bewusst integriert und musste dann Ansätze finden, um die verfügbaren HW-Ressourcen zu nutzen.

DLSS sollte ja in der Theorie Details darstellen, die ein Schärfefilter niemals hinzuzaubern kann. Wenn das Endergebnis beim Schärfefilter aber besser ist - vor allem bei sehr hohen Auflösungen wirkt ein Minimum an mehr Schärfe Wunder -, dann stimmt entweder etwas mit der Implementation nicht, oder mit den Rohdaten oder der Verarbeitung...

Man sollte bei sehr genauer Betrachtung ein Ergebnis (anhand der Theorie) erwarten können, dass DLSS aktuell nicht zeigt. Womöglich liegt es bei Spielen auch oft am Content, der nicht genug Details enthält, damit es einen sichtbaren Unterschied macht. Denn bei Filmen mit sehr hoher Quellauflösung rechne ich ordentlich runter (im Prozess des Runterrechnens muss auch leicht nachgeschärft werden) und habe immer ein besseres Endergebnis als einen Schärfefilter über ein deutlich niedriger aufgelöstes (ausgehend vom ground truth) Bild zu legen. Das kann subjektiv erstmal gut aussehen, aber diese zusätzliche, weil künstlich hinzugefügte Schärfe, zerstört nicht nur den originalen Bildeindruck (die Helligkeit wird beeinflusst, das Bildmaterial wird heller), sondern gerade bei scharfem Ausgangsmaterial ist alles überscharf.

Das Ganze erzeugt also erstmal einen Aha-Effekt, der sich besonders gut in Screenshots macht, aber erst in Bewegung sieht man dann, ob es tatsächlich "etwas taugt".

Wo genau hier der Haken ist, weiß wohl nur NV. Spätestens bei Ampere gehe ich davon aus, dass NV dies wie gewollt umsetzt, bzw. berichtigt, was aktuell scheinbar nicht optimal umgesetzt ist. NV hat ja alle Daten, wir als Endanwender können nur raten.

Ich glaube, hier überschätzen viele die Möglichkeiten von DLSS auf heutiger Hardware. Was wurde nicht vorher fantasiert, dass man damit mehr Details sehen würde, weil man ja mit höheren Auflösungen trainiert. Am Ende sieht man davon bisher nicht viel. Und das war schon vorher abzusehen. Natürlich kann man mit KI und Mustererkennung tolle Sachen machen. Aber doch nicht in Echtzeit auf der aktuellen Hardware und auch noch bei bewegten Bildern, am besten mit mehr als 100FPS. Da wird nichts hinzugefügt was nicht da ist. Im Moment sind algorithmische Verfahren zur Bildbearbeitung, wie etwa RIS, wohl noch deutlich leistungsfähiger. DLSS wird nicht umsonst nicht in allen Auflösungen auf allen Karten freigeschaltet. Da könnte die DLSS-Bearbeitung länger dauern als die Berechnung in höherer Auflösung und somit weniger FPS bei geringerer BQ geben. Die Idee ist gut, aber wie beim RT fehlt wohl noch Hardware-Power.

JVC
2019-07-21, 15:23:55
Inferencing/Gelerntes Anwenden macht auch ein Tesla oder der Roboter in der Produktion. Das Lernen passiert da auch Offline.

D.h. man wartet bei neuen Titeln erst mal ein Monat/Jahr ...
Bis DLSS auch "gewinnbringend" funktioniert :confused:

Ich hab nix davon wenn es erst beim "2ten mal durchspielen" was nützt.

DLSS-Upscaling hat mich bis jetzt null überzeugt ...
(das können Monitore oder Fernseher fast genau so gut. bin eher der Fan von down-scaling)

Mir sind Möglichkeiten die mich nicht in eine Abhängigkeit treiben sowieso lieber.

M.f.G. JVC

=Floi=
2019-07-21, 15:31:16
https://www.computerbase.de/2019-07/3dmark-feature-test-variable-rate-shading-vrs/
der nächste mist, den keiner braucht. Das beste beispiel, wie man es nicht macht. :rolleyes:


NV geht imho den falschen weg.

JVC
2019-07-21, 15:35:19
https://www.computerbase.de/2019-07/3dmark-feature-test-variable-rate-shading-vrs/
der nächste mist, den keiner braucht. Das beste beispiel, wie man es nicht macht. :rolleyes:


NV geht imho den falschen weg.
Jup, ist auch kein "Feature" was ich haben möchte ^^

Warum will NV nun "Bildverschlechterer" als "Feature" vermarkten?
(betrogen wurde schon immer, aber jetzt verkauft man das auch noch ^^)

M.f.G. JVC

crux2005
2019-07-21, 15:44:10
Das Bild von Futuremark ist auch kein gutes Beispiel. VRS geht viel besser. Dann ist der Leistungszuwachs aber kleiner.

Und wieso NV jetzt solche Features bringt? Weil sie sonst wohl keine größeren Leistungssteigerungen in den nächsten 2-5 Jahren sehen.

Sunrise
2019-07-21, 16:01:10
https://www.computerbase.de/2019-07/3dmark-feature-test-variable-rate-shading-vrs/
der nächste mist, den keiner braucht. Das beste beispiel, wie man es nicht macht. :rolleyes:


NV geht imho den falschen weg.
IMHO durchaus valide, zu versuchen, massiv an Rechenaufwand zu sparen. Weder AMD noch NV können unendlich Leistung in HW steigern, die Software muss intelligenter werden.

Ein Screenshot zeigt natürlich auch immer alles ungeschönt, bei Bewegtbildern kann das schon ganz anders aussehen.

Sofern das nur eine Option ist und nicht permanent aktiv, stört mich soetwas nicht im Geringsten.

Ein Vergleich der FPS verbittet sich in diesem Fall natürlich.

gmb
2019-07-21, 16:06:51
https://www.computerbase.de/2019-07/3dmark-feature-test-variable-rate-shading-vrs/
der nächste mist, den keiner braucht. Das beste beispiel, wie man es nicht macht. :rolleyes:


NV geht imho den falschen weg.


Das kannst du doch gar nicht beurteilen, bevor man das nicht in ein paar Spielen begutachten kann. In dem 3dmark Tests gibt es nur Bäume, na logisch sieht man dort dann Unterschiede. Dass man so etwas gleich verteufeln muss, kann ich aber verstehen, schließlich unterstützt AMD dieses Feature nicht. Sie würden blöd aus der Wäsche schauen, wenn das Spiele sinnvoll implementieren würden.

pixeljetstream
2019-07-21, 16:09:27
Intel und Qualcomm haben auch VRS support.
https://software.intel.com/en-us/articles/intel-and-microsoft-unveil-variable-rate-shading-support

JVC
2019-07-21, 16:14:18
Und wieso NV jetzt solche Features bringt?
Weil sie sonst wohl keine größeren Leistungssteigerungen in den nächsten 2-5 Jahren sehen.
Sehe ich auch so ... denke nicht das "NVs 7nm" noch 2020 kommen ...

Der Tread ist eigentlich eh schon durch.
Der "Refresh" ist ja schon da ...
https://gpu.userbenchmark.com/Compare/Nvidia-RTX-2070-Super-vs-AMD-RX-5700-XT-50th-Anniversary/4048vsm845537 (2070 Super vs 5700 XT-50th)
Und Big Navi kommt erst noch ;)

M.f.G. JVC

aufkrawall
2019-07-21, 16:26:20
Sie würden blöd aus der Wäsche schauen, wenn das Spiele sinnvoll implementieren würden.
Na, dann warten wir mal darauf, dass es eines Tages vielleicht so sein wird.
Es erinnert mich gerade etwas an die Diskussion um Conservative Rasterization, die bei Maxwell und Skylake letztlich für den Endkunden komplett nutzlos war...
Oder das lächerliche MFAA...

Nur mal zum Vergleich: In zig Spielen merkt man auch die qualitativ niedrigste Texturfilter-Qualität via Treiber nicht bis kaum. Haben wir deshalb jetzt ständig wegen ein paar lausiger % diese Stufe genutzt? :rolleyes:

Darkman.X
2019-07-21, 16:36:33
GameStar hat DLSS bei "Monster Hunter World" getestet (LINK (https://www.gamestar.de/artikel/was-bringt-dlss-in-monster-hunter-world-und-wie-ist-es-um-die-bildqualitaet-bestellt,3346811.html)). Irgendwie kann ich immer noch keinen Gefallen daran finden.

robbitop
2019-07-21, 16:39:39
Von DLAA hört man leider auch nichts mehr, oder? Davon hatte ich mir auch einiges versprochen. 2x2 Downsampling ist leider oft auch mit Highend HW bei subjektiv angenehmen Frameraten ja leider nicht drin.

Das 8x TSSAA von den id Jungs in W2 und Doom finde ich richtig gut. Zeigt wenig Schwächen IMO. Insbesondere wenn man noch ein wenig nachschärft. Da habe ich persönlich dann kaum noch Verlangen nach DS.

aufkrawall
2019-07-21, 16:46:29
GameStar hat DLSS bei "Monster Hunter World" getestet (LINK (https://www.gamestar.de/artikel/was-bringt-dlss-in-monster-hunter-world-und-wie-ist-es-um-die-bildqualitaet-bestellt,3346811.html)). Irgendwie kann ich immer noch keinen Gefallen daran finden.
Laut Nvidia muss zudem das »High Resolution Texture Pack« von Steam geladen und aktiviert sein...
--
To play Monster Hunter: World with DLSS, download and install our newest Game Ready Driver on any PC or laptop with a GeForce RTX GPU, download the new Monster Hunter: World game update on July 17th, and the free High Resolution Texture Pack if you have a GPU with 8GB or more of VRAM, enter the game’s Display options, set your resolution to Full Screen 2560x1440 or 3840x2160, and switch on “NVIDIA DLSS”.
https://www.nvidia.com/en-us/geforce/news/monster-hunter-world-nvidia-dlss/

Die RTX 2060 ist damit quasi offiziell ausgeschlossen, die Karte ist so eine Verarsche.. :freak: ;D

robbitop
2019-07-21, 16:51:46
VRS finde ich richtig gut. Wenn es so funktioniert, dass es keine sichtbare Verschlechterung gibt (und es abschaltbar ist), ist es IMO eine tolle Möglichkeit mehr freie Rechenzeit auf der GPU zu bekommen. Die kann in Auflösung oder fps umgewandelt werden (oder die GPU lebt länger oder man kann eine kleinere kaufen und Geld sparen).

aufkrawall
2019-07-21, 17:00:18
Und wie soll das funktionieren, wenn schon beim Content von Wolf2 die Qualität mit der höchsten Stufe schlecht und es trotzdem nur magere 11% schneller ist?
https://www.computerbase.de/2018-11/geforce-rtx-adaptive-shading-wolfenstein-2-test/

Platos
2019-07-21, 18:42:42
Balanciert fand ich es jetzt ok und da gabs 9-10%. Solange es ausschaltbar ist, ist das dann doch für alle ok.

Ist sowas eig. kombinierbar mit DLSS ? DLSS fand ich jetzt z.B dann doch deutlich sichtbarer.

crux2005
2019-07-21, 18:50:09
Das Problem von VRS ist doch das es Forward Rendering erfordert. Und sicher ist DLSS mit VRS kombinierbar. Nur gibt es wenige Spiele mit DLSS und noch weniger die
auch Forward+ sind (aktuell 0).

Troyan
2019-07-21, 20:51:39
Balanciert fand ich es jetzt ok und da gabs 9-10%. Solange es ausschaltbar ist, ist das dann doch für alle ok.

Ist sowas eig. kombinierbar mit DLSS ? DLSS fand ich jetzt z.B dann doch deutlich sichtbarer.

In 4K gibt es mit Performance nur an den grauen Farbtönen an den Wänden sichtbare Probleme. Anderenfalls sieht 4K mit VRS-Performance immer besser aus als 4K@+-85% interne Renderauflösung.

Je höher die Auflösung, umso sinnvoller wird Performance. Wenn man aber sowieso nur nach Nachteilen sucht...

aufkrawall
2019-07-21, 21:26:55
Weil deine bourgeoisen 200-300fps-Werte ja auch so realistisch für das Szenario "Leistung sparen" sind. :ucrazy4:
Es sind hier in Doom 108fps bei 100% Auflösung und 135fps bei 85%, also 25% schneller, und bringt damit mehr als doppelt so viel wie CAS-Performance bei CB W2. Ganz fairer Vergleich von dir... :facepalm:

Badesalz
2019-07-22, 07:52:39
RIS ist schon jetzt am Ende, wo DLSS noch massig Potential hat.Mich hat das ehrlich gesagt auch gewundert, daß AMD etwas rausbringt, und das ist direkt fertig und funktioniert gleich so wie es soll.

VRS finde ich richtig gut. Wenn es so funktioniert, dass es keine sichtbare Verschlechterung gibtIch würde Trump auch super finden, wenn er mir schlau vorkommen würde.
Die lineare Regression der Nerds des 3DC bezüglich Bildqualität erstaunt mich trotzdem. Nahezu schon Jahrzehnte überschlug man sich hier mit noch und nöcher marginalen Verbesserungen in der Bildqualität. 2019 versucht man sich für DLSS und VRS warm zu quaseln. Stockholm und so?

=Floi=
2019-07-22, 09:27:30
In 4K gibt es mit Performance nur an den grauen Farbtönen an den Wänden sichtbare Probleme. Anderenfalls sieht 4K mit VRS-Performance immer besser aus als 4K@+-85% interne Renderauflösung.

Je höher die Auflösung, umso sinnvoller wird Performance. Wenn man aber sowieso nur nach Nachteilen sucht...

und wenn nur 4k @ 100%+ zur debatte steht?!
für was kauft man sich sonst so einen monitor?

Akkarin
2019-07-22, 10:56:18
Frage: Es gab ja früher so lustige Sachen wie EQAA. Könnte so Zeug irgendwie hilfreich sein in Verbindung mit DLSS/RIS/etc. ?

w0mbat
2019-07-22, 10:57:16
Lieber nativ 1440p als upscaled 4K. Das ganze DLSS und VRS Zeugs ist doch nur Verarsche. Wie schon erwähnt, jahrzehntelang reißen sich die Nvidia-Fanbois die Mäuler auf, weil AMDs AF nicht genau so geil ist wie der von Nvidia, jetzt sind Unschärfe, Artifakte und matschige Texturen plötzlich mega geil, weil es die Lederjacke gesagt hat. Muss man nicht verstehen...

Lieber ne Turing GPU ohne das ganze RTX/Tensor-Zeugs, dafür mit mehr echten Einheiten. Dann geht 4K auch ohne DLSS/VRS. Nvidia muss sich doch nicht verstecken, ich verstehe das einfach nicht.

y33H@
2019-07-22, 11:32:01
Nativ ist freilich besser, darum geht's aber auch nicht.

robbitop
2019-07-22, 11:38:02
Ich würde Trump auch super finden, wenn er mir schlau vorkommen würde.
Die lineare Regression der Nerds des 3DC bezüglich Bildqualität erstaunt mich trotzdem. Nahezu schon Jahrzehnte überschlug man sich hier mit noch und nöcher marginalen Verbesserungen in der Bildqualität. 2019 versucht man sich für DLSS und VRS warm zu quaseln. Stockholm und so?
Das ist ja eine schöne Meinung. :D

Wenn es nicht sichtbar ist, ist es Verschwendung von Rechenleistung, die man besser in BQ, Abtastung (Auflösung) oder FPS investieren kann.
Das ist bei W2 laut der Reviews und laut DF in der untersten Stufe der Fall.
Außerdem ist es optional.
Wenn dank VRS mehr Leistung für Auflösung verfügbar ist, welche BQ ist dann am Ende die bessere?
Mehr FPS bringen mehr Bewegtschärfe. Welche dynamische BQ ist dann die bessere?

Schlaue Rekonstruktionsverfahren (solange sie optional sind) können je nach Fall genauso eingesetzt werden. Ich nenne da mal Checkerboard Rendering (was bspw in Horizon extrem gut umgesetzt ist) oder DLSS (sofern das mal besser umgesetzt wird).

Wenn man dort deutlich Rechenleistung freisetzt, kann man diese in Auflösung/Downsampling investieren. Die daraus resultierende BQ dürfte Performancenormiert höher sein. Und genau das ist das Ziel.

So viel BQ pro TFLOP wie möglich.

Und wie soll das funktionieren, wenn schon beim Content von Wolf2 die Qualität mit der höchsten Stufe schlecht und es trotzdem nur magere 11% schneller ist?
https://www.computerbase.de/2018-11/geforce-rtx-adaptive-shading-wolfenstein-2-test/
Laut DF ist in W2 die Arithmetische Leistung schlicht zu selten der Flaschenhals.

Lieber nativ 1440p als upscaled 4K. Das ganze DLSS und VRS Zeugs ist doch nur Verarsche. Wie schon erwähnt, jahrzehntelang reißen sich die Nvidia-Fanbois die Mäuler auf, weil AMDs AF nicht genau so geil ist wie der von Nvidia, jetzt sind Unschärfe, Artifakte und matschige Texturen plötzlich mega geil, weil es die Lederjacke gesagt hat. Muss man nicht verstehen...

Lieber ne Turing GPU ohne das ganze RTX/Tensor-Zeugs, dafür mit mehr echten Einheiten. Dann geht 4K auch ohne DLSS/VRS. Nvidia muss sich doch nicht verstecken, ich verstehe das einfach nicht.

IMO eine undifferenzierte / einseitige Betrachtung.

-----
Wie gesagt: solange man es an/ausschalten kann und sogar noch in Stufen regeln kann, kann doch jeder entscheiden, wie er seine Rechenleistung verteilen kann.

Es gibt häufig ein Effekte, die man eine Stufe runterdrehen kann, ohne große Unterschiede zu sehen (vgl nvidia.com tweaking guides) -> kann man dann auch in mehr Auflösung/FPS/DS investieren. Jeder wie er mag.

w0mbat
2019-07-22, 11:50:59
Es ist aber kein entweder/oder, die Einheiten sind fest verbaut, ob man sie nützt oder nicht. Wenn DLSS und das ganze Zeugs einfach so laufen würde hätte ich kein Problem damit. Aber es kostet eben Platz auf dem die.

Sunrise
2019-07-22, 12:25:21
Es ist aber kein entweder/oder, die Einheiten sind fest verbaut, ob man sie nützt oder nicht. Wenn DLSS und das ganze Zeugs einfach so laufen würde hätte ich kein Problem damit. Aber es kostet eben Platz auf dem die.
Wenn für Raytracing benötigte Ressourcen verwendet werden können, muss NV die sowieso integrieren, sehe da jetzt kein Thema.

NV hat ein paar Ansätze, je nach Umsetzung kann man die gut finden oder auch nicht. Was so schlimm daran sein soll, bei gegebenen Die-Budget-Grenzen, zu versuchen, mehr Leistung herauszuholen verstehen wohl nur Leute, die überall Verschwöhrungstheorien vermuten.

Wenn Person A lieber mit 60fps auskommt und alles astrein errechnet wird und Person B 90fps mit diversen intelligenten Maßnahmen herausholen kann, die BQ-mäßig möglichst transparent sind, ist es doch gut, wenn man eine Wahl hat.

Ist es für mich notwendig? Nein. Bin ich der Nabel der Welt?

dildo4u
2019-07-22, 12:33:38
Es wäre negativ wenn sie nicht mehr die Führung haben,noch haben sie deutlich mehr Kerne trotz der RT/DLSS Hardware.
AMD macht Intel das leben schwer weil sie jetzt tatsächlich mit dem 3900X die Stärkste "Mainstream" CPU haben,das wird bei den GPUs vermutlich nicht passieren.
Legt AMD 2020 mit 7nm+ um 30% zu gibt es kein Grund warum das Nvidia nicht auch schaffen kann.

Badesalz
2019-07-22, 13:27:36
Absolute Leistung interessiert 2020 weniger. 2020 läuft das RT-Duell. In gut Spielbar für jedermann (nicht wie jetzt die armen Socken mit der 2060).

@robbitop
Bei der Argumentation liest sich das so, als wenn du RIS zum Ausflippen gut finden würdest, weil das nahezu 4k simuliert, man für diese Detailtreue aber kein 4k fahren muss. Man sich also nicht das Geld (war auch einer der Vorzüge in deiner Ausführung) für ein 4k Monitor sparen kann, sondern auch noch gegenüber 4k ordentlich FPS dazu gewinnt.
Soweit richtig?

edit:
Das Prob mit VRS ist nicht die Idee, sondern die Unmöglichkeit einer sinnvollen Realisierung. Außer bei Spacesimulationen vielleicht. und bei einem Autorennspiel. Weil, wie auf dem 3dmark Beispielbild und wie auch in den technischen Infos zu Funktionsweise, arbeitet das (bisher?) schlicht über X/Y Achsen. Zentrum ist wichtig, immer weiter weg oder mehr lins/rechts, ist weniger wichtig. Das stört auf dem 3dmarkt Bild mit den Bäumen fast garnicht. U.a. weil sie da einen peinlich schlechten Boden hingerotzt haben. Und das eben nicht umsonst :ulol: Das ist ein Boden aus der DOS-Version von Doom. Das kann man nicht sichtbar schlechter rendern als es ist.

Was aber direkt auffällt ist die große Kugel ganz links. Das ist komplett Matsche. In den Spielen, sind das keineswegs Elemente an Stellen die milchig gerendert werden können, wenn man an Sachen vorbeiläuft. Das ist wie eine verrutschte Kontaktlinse oder ein Fettfleck auf der Brille. Da kann man schon der Sinnhaftigkeit von DLSS mehr abgewinnen (hat ja noch viel Potenzial :wink:) als VRS. Das ist einfach nur schlecht.

Und die Kugeln sind "gelb" gerendert. Welche Shader-Rate das sein soll erklärt CB nicht (da gesehen). Geringe und niedrige soll grün und blau sein.

robbitop
2019-07-22, 19:07:13
Es ist aber kein entweder/oder, die Einheiten sind fest verbaut, ob man sie nützt oder nicht. Wenn DLSS und das ganze Zeugs einfach so laufen würde hätte ich kein Problem damit. Aber es kostet eben Platz auf dem die.

Tja das entscheidet eben der IHV. Ich sehe es auch so.

Für halbwegs performantes RT braucht man eben HW. Die RT Cores und TCs helfen hier - kosten aber auch Transistoren.
RT hat heute wenig Nutzwert - aber so ist es nunmal bei 1st Gen Produkten. Henne-Ei. Als Endnutzer hätte ich aber lieber auch mehr Rohleistung bekommen für gleiche Fläche :D

Aber so enorm viel Fläche war es ja auch nicht wenn man TU116 pro SM sieht.
Die neue mArch braucht pro SM generell mehr Fläche. Caches, INT AlUs, bessere DCC etc.

@Badesalz
Ich finde RIS ist ein guter Schärfefilter. Upsampling ist für viele Enduser eine Möglichkeit Leistung zu sparen. Leute die andere Prioritäten haben. Ich persönlich bin eine Grafikhure und bin eher an DS interessiert und alles was da Leistung sparen kann, so dass ich es nutzen kann.
DLAA/SS (wenn besser implementiert?) und Checkerboarding und VRS wären hier ggf sinnvolle Werkzeuge für mich.
Für 0815 Enduser die etwas Geld sparen wären es auch gute Werkzeuge. Genau wie upsampling mit Schärfefilter.

VRS kann ja jeder für sich selbst testen und konfigurieren. Sehe da keinen Grund, das Feature schlecht zu machen.

pixeljetstream
2019-07-22, 19:44:52
Und es ist sinnfrei Bilder zu vergleichen, die müssen schlechter aussehen weil man spart. Selbst ein Video ist nicht so gut weil man sich dann auch auf die Artefaktsuche begibt, nur im Spiel kann man dann sagen okay fällt mir nicht negativ auf, oder nicht.

robbitop
2019-07-22, 20:25:14
Das sehe ich absolut genauso. Je mehr Optionen, desto besser kann jeder für sich das Ergebnis anpassen.

Badesalz
2019-07-23, 08:40:50
Einerseits bezieht man die Grafikverschlechterer auf die Armen, die wohl um ihre FPS kämpfen müssen. Macht man bei dem Spiel mit, bezieht man das lieber auf die eigenen Vorlieben. Es passt halt immer :uup:

Und es ist sinnfrei Bilder zu vergleichen, die müssen schlechter aussehen weil man spart. Selbst ein Video ist nicht so gut weil man sich dann auch auf die Artefaktsuche begibt, nur im Spiel kann man dann sagen okay fällt mir nicht negativ auf, oder nicht.
Wie kann man mit der Erfahrung soetwas "absolut genauso" sehen. An besten man denkt garnicht mehr dran. Dann wird die Matsche zum Standard und man kann sich wieder nur noch auf die FPS Vergleiche stürzen. Ein feuchter PR-Traum also. Wie kann man so ein Zeug, fortlaufend die Fahne der Objektivität schwenkend, "absolut" genauso sehen? Verstehe ich nicht.

Bildqualiregression nicht mit Hilfe von Bildern oder Videos beurteilen... Natürlich. Am besten garnicht beurteilen. Perfekterweise, erst garnicht beachten bitte.
Bei der nächsten comparison aber nicht vergessen die FPS-Balken anzustarren. Richtig anschauen und anlysieren bitte, obwohl es nur einfarbige Rechtecke sind ;)

Im welchen Spielen soll VRS nicht auffallen? Das hatten wir doch grad erst, mit den Beispielen und den Pferdefüßen dessen.
Wenn die Bereiche so unwichtig sind, warum rendert man das überhaupt noch mit der Hilfe der Shader? Eine TNT kam mit 2 fürs ganze Bild zurecht. Und das sah dann auch genauso aus.
VRS ist wie Steinschlag auf der Windschutzscheibe. Wenn man es mal wieder nach Wochen einmal wahrnimmt, zieht es wieder zig Minuten lang immer wieder den Blick dahin. Dann ist es mal wieder nichts außer nervig.

Platos
2019-07-23, 13:51:45
In welchen Szenen ist das denn so nervig, gibts auch Bilder dazu ?

robbitop
2019-07-23, 14:38:24
Einerseits bezieht man die Grafikverschlechterer auf die Armen, die wohl um ihre FPS kämpfen müssen. Macht man bei dem Spiel mit, bezieht man das lieber auf die eigenen Vorlieben. Es passt halt immer :uup:
Fast alles im Leben hat mehrere Aspekte. Differenzierte Betrachtung eben.

Ich verstehe die Agitation nicht, die von dir ausgeht. All diese Verfahren sind optional.

pixeljetstream
2019-07-23, 14:48:55
Jo ich verstehe auch nicht wo das Problem ist, du kannst doch auch im Moment Textur Details, AA etc. schon beeinflussen und Qualität rausnehmen. Weiß auch nicht warum du das absolut in Anführungszeichen setzt.

JVC
2019-07-23, 15:20:30
https://www.igorslab.media/nvidia-geforce-rtx-2080-super-launch-test-review/
"Nvidia GeForce RTX 2080 Super im Test – Echtes Upgrade, kleines Update oder nur ein Side-Kick?"
Fazit: "Für die nicht mal 10 Prozent mehr Leistung zahlt man also ca. 15 Prozent mehr an der RTX-Kinokasse."

Toller Test. Danke Igor :smile:

M.f.G. JVC

Raff
2019-07-23, 15:25:00
Zum positiven Teil: (https://www.pcgameshardware.de/Geforce-RTX-2080-Super-Grafikkarte-275182/Tests/Benchmark-Review-Release-Kaufen-1295238/)

"Da wir Übertakter sind, taten wir dies - und trauten unseren Augen nicht. Die uns vorliegende RTX 2080 Super Founders Edition wollte beim Speicher-Overclocking einfach nicht abstürzen. Als wir die 9-GHz-Marke (18 GT/s) geknackt hatten, zogen wir den Speicher-Kopiertest von AIDA64 zu Rate. Tatsächlich skaliert der Durchsatz munter weiter. Mit 9.400 MHz (19 GT/s) knacken wir die Barriere von 500 GByte/s effektiver Transferrate. Mit 9.900 MHz (19,8 GT/s) wird die Transferrate der Titan RTX (~524 GByte/s) geknackt - gefolgt vom finalen, alles beendenden Absturz. Wir scheitern somit haarscharf an der 10-GHz-Marke (20 GT/s respektive 2.500 MHz intern) und werden in den kommenden Tagen anhand der anwesenden Herstellerdesigns prüfen, inwiefern wir ein "Platinum Sample" (Gold ist hier nicht genug) erhalten haben, oder ob dieses Taktpotenzial die Regel ist."

Das Ding braucht einen Extra-Thread. Free Willys before! ;)

MfG,
Raff

JVC
2019-07-23, 15:33:50
Danke Raff. Auch n schöner Test :up:

Das mit dem Ram-Speed klingt wirklich etwas zu fantastisch :confused:
"Platinum Sample" ... oder Standard? Bitte dranbleiben ;)

M.f.G. JVC

SKYNET
2019-07-23, 15:37:34
Zum positiven Teil: (https://www.pcgameshardware.de/Geforce-RTX-2080-Super-Grafikkarte-275182/Tests/Benchmark-Review-Release-Kaufen-1295238/)

"Da wir Übertakter sind, taten wir dies - und trauten unseren Augen nicht. Die uns vorliegende RTX 2080 Super Founders Edition wollte beim Speicher-Overclocking einfach nicht abstürzen. Als wir die 9-GHz-Marke (18 GT/s) geknackt hatten, zogen wir den Speicher-Kopiertest von AIDA64 zu Rate. Tatsächlich skaliert der Durchsatz munter weiter. Mit 9.400 MHz (19 GT/s) knacken wir die Barriere von 500 GByte/s effektiver Transferrate. Mit 9.900 MHz (19,8 GT/s) wird die Transferrate der Titan RTX (~524 GByte/s) geknackt - gefolgt vom finalen, alles beendenden Absturz. Wir scheitern somit haarscharf an der 10-GHz-Marke (20 GT/s respektive 2.500 MHz intern) und werden in den kommenden Tagen anhand der anwesenden Herstellerdesigns prüfen, inwiefern wir ein "Platinum Sample" (Gold ist hier nicht genug) erhalten haben, oder ob dieses Taktpotenzial die Regel ist."

Das Ding braucht einen Extra-Thread. Free Willys before! ;)

MfG,
Raff

CB konnte den speicher auch immens hochschrauben, glaube GDDR6 ist inzwischen wirklich brauchbar, mal sehen ob AMD/NV das mal von haus aus ausreizen werden :confused:

y33H@
2019-07-23, 15:53:11
https://www.igorslab.media/nvidia-geforce-rtx-2080-super-launch-test-review/
"Nvidia GeForce RTX 2080 Super im Test – Echtes Upgrade, kleines Update oder nur ein Side-Kick?"
Fazit: "Für die nicht mal 10 Prozent mehr Leistung zahlt man also ca. 15 Prozent mehr an der RTX-Kinokasse."

Toller Test. Danke Igor :smile:

M.f.G. JVCDu hast natürlich nicht alles zitiert und die Aussage aus dem Kontext gerissen:

"UVP gegen Straßenpreis geht allerdings nie so recht auf, deshalb ja auch das mit der Milch und dem Mädchen. Um der Karte ein endgültiges und faires Urteil zu verpassen, müsste man erst einmal die Preisentwicklung der Boardpartnerkarten über einen gewissen Zeitraum abwarten. Sonst werfen wir der holden Milchmaid auch noch Äpfel und Birnen hinterher."

Ghost1nTh3GPU
2019-07-23, 17:46:26
Zum positiven Teil: (https://www.pcgameshardware.de/Geforce-RTX-2080-Super-Grafikkarte-275182/Tests/Benchmark-Review-Release-Kaufen-1295238/)

"Da wir Übertakter sind, taten wir dies - und trauten unseren Augen nicht. Die uns vorliegende RTX 2080 Super Founders Edition wollte beim Speicher-Overclocking einfach nicht abstürzen. Als wir die 9-GHz-Marke (18 GT/s) geknackt hatten, zogen wir den Speicher-Kopiertest von AIDA64 zu Rate. Tatsächlich skaliert der Durchsatz munter weiter. Mit 9.400 MHz (19 GT/s) knacken wir die Barriere von 500 GByte/s effektiver Transferrate. Mit 9.900 MHz (19,8 GT/s) wird die Transferrate der Titan RTX (~524 GByte/s) geknackt - gefolgt vom finalen, alles beendenden Absturz. Wir scheitern somit haarscharf an der 10-GHz-Marke (20 GT/s respektive 2.500 MHz intern) und werden in den kommenden Tagen anhand der anwesenden Herstellerdesigns prüfen, inwiefern wir ein "Platinum Sample" (Gold ist hier nicht genug) erhalten haben, oder ob dieses Taktpotenzial die Regel ist."

Das Ding braucht einen Extra-Thread. Free Willys before! ;)

MfG,
Raff
Da schaut wohl Netburst neidisch auf GDDR, bei den Taktsteigerungen. ;D Da sollten offizielle 18Gbps dieses Jahr lieferbar sein. Und für die Nextgen-Konsolen 16Gbbps eine sichere Variante.

crux2005
2019-07-23, 18:36:18
Zum positiven Teil: (https://www.pcgameshardware.de/Geforce-RTX-2080-Super-Grafikkarte-275182/Tests/Benchmark-Review-Release-Kaufen-1295238/)
MfG,
Raff

Und mit was wurde die VRAM stabilität getestet?

Zu Abstürzen wird es dadurch unter Windows 10 nicht mehr kommen. Wenn dann startet sich der NVDisplay.Container.exe neu.

Sunrise
2019-07-23, 21:21:05
Zum positiven Teil: (https://www.pcgameshardware.de/Geforce-RTX-2080-Super-Grafikkarte-275182/Tests/Benchmark-Review-Release-Kaufen-1295238/)

"Da wir Übertakter sind, taten wir dies - und trauten unseren Augen nicht. Die uns vorliegende RTX 2080 Super Founders Edition wollte beim Speicher-Overclocking einfach nicht abstürzen. Als wir die 9-GHz-Marke (18 GT/s) geknackt hatten, zogen wir den Speicher-Kopiertest von AIDA64 zu Rate. Tatsächlich skaliert der Durchsatz munter weiter. Mit 9.400 MHz (19 GT/s) knacken wir die Barriere von 500 GByte/s effektiver Transferrate. Mit 9.900 MHz (19,8 GT/s) wird die Transferrate der Titan RTX (~524 GByte/s) geknackt - gefolgt vom finalen, alles beendenden Absturz. Wir scheitern somit haarscharf an der 10-GHz-Marke (20 GT/s respektive 2.500 MHz intern) und werden in den kommenden Tagen anhand der anwesenden Herstellerdesigns prüfen, inwiefern wir ein "Platinum Sample" (Gold ist hier nicht genug) erhalten haben, oder ob dieses Taktpotenzial die Regel ist."

Das Ding braucht einen Extra-Thread. Free Willys before! ;)

MfG,
Raff
Das ist zwar ganz "nett", aber war das wirklich auch stabil in diversen Spielen ohne Texturflackern? VRAM kackt ja meist vorher schon ab, z.B. mit Grafikfehlern. Ja, ich weiß... ;)

Badesalz
2019-07-24, 07:06:08
Fast alles im Leben hat mehrere Aspekte. Differenzierte Betrachtung eben.

Ich verstehe die Agitation nicht, die von dir ausgeht. All diese Verfahren sind optional.Da ist was dran. Wir werden erst sehen müssen wie die Testpropagandisten testen und wie klar sie ihre Setups kommunizieren...

Falls wer die verschiedenen Nuancen der Differenzierung nicht schnallt:
Gute Differenzierung ist, wenn man wiederholt, man findet es gut. Das ist wichtig. Und dazu nebenbei vermerkt, wenn es keine sichtbare Verschlechterung gibt. Wichtig ist also erstmal das "richtig gut" und "keine sichtbare Verschlechterung".

Schlechte Differenzierung wäre, wenn es einem so wie auf bisherigen Beispielen, nicht gefallen würde (weil bisher KLAR sichtbare Verschlechterung). Das ist vielleicht aber auch keine Differenzierung mehr, sondern "Agitation". Deswegen sagt man das nicht so. Man macht ja gute Differenzierung. Man findet es "richtig gut […] […], wenn".

So reden "Grafikhuren" über Bildqualiregressionen. Na dann.

Dural
2019-07-24, 10:25:00
Die frage ist ob eine mehr leistung vorhanden ist?
Seit pascal kann man den ram speed sinnlos hoch drehen, hat aber die gleiche leistung oder sogar weniger.

JVC
2019-07-24, 15:31:52
Du hast natürlich nicht alles zitiert und die Aussage aus dem Kontext gerissen:

Darum ist auch der Test verlinkt, denn ein jeder kann selber alles lesen ;)

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12056575&postcount=5
Mir reichen die ersten 30sec des Videos :tongue:

M.f.G. JVC

Platos
2019-07-24, 18:42:30
Das ändert nichts an der Tatsache, dass du die Textpassage aus dem Kontext gerissen hast. Man kann nie Launchpreise mit den Strassenpreisen der alten Karten vergleichen.

aufkrawall
2019-07-30, 14:09:28
CAS im neuen Wolfenstein:
https://www.computerbase.de/2019-07/wolfenstein-youngblood-benchmark-test/2/#abschnitt_adaptive_shading_bringt_etwas_mehr_fps_und_kostet_leicht_qualitaet

Macht die Grafik wenig merklich schlechter und erhöht gar nicht merklich die Performance. Amazing.

Troyan
2019-07-30, 15:33:54
Cool, Bilder in 1080p. ;D

nVidia hat viel mehr Beispiele und eine Erklärung, wo VRS besser und schlechter abschneidet: https://www.nvidia.com/en-us/geforce/guides/wolfenstein-youngblood-graphics-and-performance-guide/#wolfenstein-youngblood-nvidia-adaptive-shading

aufkrawall
2019-07-30, 15:51:08
Die Bilder gibts auch in 4k als PNG...

aufkrawall
2019-07-31, 12:05:42
nVidia hat viel mehr Beispiele und eine Erklärung, wo VRS besser und schlechter abschneidet: https://www.nvidia.com/en-us/geforce/guides/wolfenstein-youngblood-graphics-and-performance-guide/#wolfenstein-youngblood-nvidia-adaptive-shading
Ah ja:
This bright, daylight scene, sees gains of only 1-3%, however, as the content aware NVIDIA Adaptive Shading technology knows that the shading rate cannot be reduced without compromising quality.
Die Leistungssteigerung ist also unzuverlässig und scheint sogar dann am wenigsten zu bringen, wenn die Anforderungen am höchsten sind. :uup:

Raff
2019-07-31, 12:22:39
Spricht IMO für den Algorithmus, dass da nicht blind draufgehauen wird, sondern die Qualität buchstäblich im Auge behalten wird.

MfG,
Raff

aufkrawall
2019-07-31, 15:05:59
Schön für den Algorithmus. Und was nützt es mir nun, wenn es in vielen fordernden Szenen genau so einbricht wie ohne CAS? Das ist wie eine unsinnige Umkehrung von dynamischem Upscaling...

JVC
2019-07-31, 15:18:39
Das ist wie eine unsinnige Umkehrung von dynamischem Upscaling...
Geiler Vergleich und so doppelbödig :ulol:

M.f.G. JVC

RLZ
2019-07-31, 15:25:41
Die Leistungssteigerung ist also unzuverlässig und scheint sogar dann am wenigsten zu bringen, wenn die Anforderungen am höchsten sind. :uup:
Warum sollten bei "bright, daylight scenes" die Anforderungen am Höchsten sein?


Ich halte aber das ganze Feature noch für ein Nebenprodukt von VR. Für Foveated Rendering ist es unverzichtbar. Nur hat man wohl mit einem schnelleren Fortschritt bei der VR Hardware gerechnet und macht nun Resteverwertung für normales Rendering.

aufkrawall
2019-07-31, 15:34:48
Warum sollten bei "bright, daylight scenes" die Anforderungen am Höchsten sein?

Weil in Interiors die fps sehr häufig generell viel höher sind. In welchem Spiel soll das nicht so sein?

RLZ
2019-07-31, 15:50:15
Weil in Interiors die fps sehr häufig generell viel höher sind. In welchem Spiel soll das nicht so sein?
Was ja nichts über die Komplexität der Shader in Innenräumen aussagt. Auf alles andere hat VSR eh keinen Performanceeinfluss.

aufkrawall
2019-07-31, 15:54:40
Es ist in dem Fall von Wolf 2 nun mal wie es ist. Klar wär es toll, wenn man z.B. bei Partikelfeffekten weniger harte Einbrüche hätte. Wenn das nachgewiesermaßen funktioniert, änder ich gerne meine Meinung. Bis dahin...

Zossel
2019-08-08, 07:21:35
NV hat endlich ein wenig was begriffen: https://www.phoronix.com/scan.php?page=news_item&px=NVIDIA-Open-GPU-Docs

Mal schauen wie weit Ihre Einsicht geht.

Höhnangst
2019-08-08, 18:16:27
Also wann kommt nun der wirklich Nachfolger? (nicht Super)

Wird das noch vor Cyberpunk 2077 Release was? Momentan glaube ich eher nicht dran. Wahrscheinlich werden das wieder "Sommerchips".
Wenn da was im Performance-Bereich einer 2080 Ti für 700 kommt, wäre das vielleicht sogar was für mich.

MasterElwood
2019-08-09, 16:46:25
Also wann kommt nun der wirklich Nachfolger? (nicht Super)

Wird das noch vor Cyberpunk 2077 Release was? Momentan glaube ich eher nicht dran. Wahrscheinlich werden das wieder "Sommerchips".
Wenn da was im Performance-Bereich einer 2080 Ti für 700 kommt, wäre das vielleicht sogar was für mich.

Denk "super" war der Beweis dass 2019 nix mehr kommt.

Q2/20 klingt realistisch

HPVD
2019-08-16, 21:07:23
If you were expecting Nvidia to start talking about its future “Einstein” GPUs for Tesla accelerated computing soon just because AMD is getting ready to roll out “Navi” GPUs next year and Intel is working on its Xe GPU cards for delivery next year, too, you are going to have to wait a bit longer.
...
we expect it around the time of the GPU Technology Conference next spring, when AMD and Intel will also be talking loudly about their GPU compute.


Huang explained:

And we expect Volta to be successful all the way through next year. Software still continues to be improved on it. In just one year, we improved our AI performance on Volta by almost 2X – about 80 percent. You have to imagine the amount of software that’s built on top of Volta


sonst findet man in dem Artikel imho wenig lohnendes..

https://www.nextplatform.com/2019/08/16/nvidia-readies-for-battle-in-the-datacenter-in-2020/

rentex
2019-08-17, 08:12:20
Als ob Cyberpunk 2077 ne neue Grafikgeneration braucht. Ab ner 2070 sollte man Ruhe in vernünftigen Settings spielen können.

dildo4u
2019-08-17, 08:16:03
Cyberpunk hat Raytracing,dort wird grad mal die 2080 Ti für 1440p reichen.

rentex
2019-08-17, 09:28:22
Musst du mit RT zocken? Nö?

dildo4u
2019-08-17, 09:47:05
Naja es ist kein MP Game sehe kein Grund das nicht maxed zocken zu wollen.
Aber natürlich kommt es drauf an ob die RT Umsetzung was taugt.

rentex
2019-08-17, 09:50:48
Das ebenfalls, trotzdem ist RT nur ein Goodie. Gehe davon aus und es wurde von CDPR auch so kommuniziert, das CP2077 ein grafisch gut optimierter Titel wird.

HOT
2019-08-17, 10:19:12
Na mal sehen wer schneller ist, die 5800 oder die neue Geforce-Generation. Ich tippe auf ersteres. Die Geforce wird vor Q3 nix, eher noch später.

dildo4u
2019-08-17, 10:32:25
Na mal sehen wer schneller ist, die 5800 oder die neue Geforce-Generation. Ich tippe auf ersteres. Die Geforce wird vor Q3 nix, eher noch später.
Du meinst RDNA1 ist schneller als Geforce in 7nm EUV?
Wie soll das gehen dann müsste Nvidia ja Rückwerts gehen,es gab doch Tests dazu 5700 XT vs 2070 gibt sich kaum was was Performance per Shadercore angeht.

https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/4/#abschnitt_amd_navi_vs_nvidia_turing

HOT
2019-08-17, 11:44:11
Navi 21 und 23 werden eh RDNA2 sein. Aber das ist OT hier. Von Performance hab ich hier auch überhaupt nicht geredet. Ich hab lediglich bezweifelt, dass die NVs vor Q3 kommen. Die Erfahrung zeigt, dass man fast immer > 1 Jahr nach dem letzten Refresh releast, das wäre spätes Q3, eher Q4. Zudem ist eine neue Architektur immer >1 1/2, eher 2 Jahre nach Release dran. Kepler -> Maxwell > 2 1/2 Jahre, Maxwell -> Pascal > 1 1/2 Jahre (und das war keine neue Architektur, Maxwell kam zudem verspätet), Pascal -> Turing 2 Jahre und ein bisschen. Wenn man 2 Jahre zugrunde legt wär man Ende 2020 soweit, würde ja auch zum Refresh passen. Alles andere ist in meinen Augen einfach unrealistisch.

Troyan
2019-08-17, 11:49:09
Genau. Das zeigt es. Außer bei AMD. Die kommen natürlich vor Q3 mit dem nächsten Aufguss.

Troll dich bitte in die AMD Threads und rede dort über den nächsten Aufguss der selben 2011 Architektur.

pixeljetstream
2019-08-17, 12:08:47
...Außer bei AMD. Die kommen natürlich vor Q3
Navi 2x wird imo wohl eher so wie gm10x zu gm20x, die zeitlich auch nah beinander waren, heißt ja nicht ohne Grund noch Navi, und wenn laut dir eh alles nur Aufguss ist müsste es zeitlich ja sowieso immer möglich sein ;)

dildo4u
2019-08-17, 12:19:55
Navi 21 und 23 werden eh RDNA2 sein. Aber das ist OT hier. Von Performance hab ich hier auch überhaupt nicht geredet. Ich hab lediglich bezweifelt, dass die NVs vor Q3 kommen. Die Erfahrung zeigt, dass man fast immer > 1 Jahr nach dem letzten Refresh releast, das wäre spätes Q3, eher Q4. Zudem ist eine neue Architektur immer >1 1/2, eher 2 Jahre nach Release dran. Kepler -> Maxwell > 2 1/2 Jahre, Maxwell -> Pascal > 1 1/2 Jahre (und das war keine neue Architektur, Maxwell kam zudem verspätet), Pascal -> Turing 2 Jahre und ein bisschen. Wenn man 2 Jahre zugrunde legt wär man Ende 2020 soweit, würde ja auch zum Refresh passen. Alles andere ist in meinen Augen einfach unrealistisch.
Und wo ist das Problem wenn AMD erst Ende 2020 RDNA2 bringt?
Sony und gerade MS würden die Konsolen mit Sicherheit gerne vorher haben die Verkäufe brechen schon jetzt ein gerade bei MS.


Gaming revenue dropped 10 percent year-over-year to $2.05 billion in the quarter. The plunge was driven by a 48 percent decrease in Xbox hardware sales.

https://www.geekwire.com/2019/microsofts-gaming-division-stalls-countdown-next-generation-consoles-begins/

Höhnangst
2019-08-18, 12:36:12
Als ob Cyberpunk 2077 ne neue Grafikgeneration braucht.
Das wahrscheinlich nicht. Ich meine, sie müssen das für die aktuellen Konsolen optimieren und die sind ja alt im Vergleich zum PC. Aber ich nehme das Spiel für mich persönlich als Anlass, meine Hardware mal wieder grundlegend anzufassen, also inkl. Bildschirm.

Momentan nutze ich einen 24" Monitor bei 1080p Auflösung. Mein System ist von 2013 (4770k, 12 GB RAM) und meine Grafikkarte von 2016 (GTX 1080). Wenn Cyberpunk kommt, wird das Zeug knapp 7 respektive 4 Jahre alt sein. Bildschirm weiß ich nicht mehr, wann ich den gekauft hab.

Jedenfalls will ich mal wieder paar neue Sachen haben und über einen größeren und höher auflösenden Monitor denke ich schon länger nach. Wenn ich mir da was mit 1440p oder sogar 2160p holen will plus 144 Hz, dann brauch ich auch einen PC, der das befeuern kann. Sobald dann noch RT dazu kommt, ist da ziemlich schnell Schicht im Schacht. Für das Grafikupdate soll es etwas im Performance-Bereich der RTX 2080Ti sein. Drunter kommt für mich eher nicht in Frage. Ich hoffe, das werden die Performance Chips der nächstjährigen Generation hinbekommen für um die 700 €. CPU wird nach derzeitigem Stand diesmal ein AMD (Ryzen 3).

Seitdem AMD den Anschluss verloren hat, sind die Preisvorstellungen von nV komplett Banane. Ich hoffe, AMD wird nächstes Jahr wieder 100 % konkurrenzfähig. So wie bei den CPUs jetzt.


Achso: und ich berfürchte tatsächlich auch, dass es bis zum 3. Quartal dauern wird, bis wir neue Chips von beiden Herstellern sehen werden. Ab sofort also noch ca. 1 Jahr.

nordic_pegasus
2019-08-18, 14:33:27
was sagt Ihr eigentlich zu den "neuen" Gerüchten um eine RTX 2080 Ti Super?

https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/News/Nvidia-plant-womoeglich-eine-Super-Variante-1326272/

kommt da jetzt noch was oder nicht? An eine 2080Ti mit Vollausbau des TU102 kann ich nicht wirklich glauben.

Wäre nicht ein noch mehr abgespeckter TU102 zwischen 2080Ti und 2080Super wahrscheinlicher? Das Lager mit teildefekten Chips dürfte doch gut gefüllt sein. Die Lücke bezogen auf Performance ist doch hier deutlich größer als zwischen 2080Ti und TitanRTX. Beim Preis ist die Lücke zwischen 2080Ti und T-Rex riesig, da könnten noch 3 Chips zwischen ;-)

=Floi=
2019-08-18, 17:34:11
leistung ist egal, solange sie den ram nicht erweitern.
auch die 2080ti dürfte hart powerlimitiert sein und nicht wegen der einheiten.

7nm und doppelter speicher müssen her.

rentex
2019-08-18, 19:30:50
Seh ne 2080Ti Super Duper nur marginal vor der 2080Ti FE...

Nightspider
2019-08-18, 19:36:58
Die sollten lieber mal den Preis senken.

Interessiert doch keinen ob das Teil 5% schneller wird wenns weiterhin 1000-1100 kostet.

Sunrise
2019-08-18, 21:53:13
Die sollten lieber mal den Preis senken.

Interessiert doch keinen ob das Teil 5% schneller wird wenns weiterhin 1000-1100 kostet.
Die wollen sich halt im Gespräch halten, denn jedesmal wenn AMD mit etwas kommt, weiß NV das und bringt auch irgendwas. Wir werden uns da wohl dran gewöhnen müssen, da die Fertigungssprünge verdammt komplex geworden sind und da will man natürlich zwischen den Generationen im Gespräch bleiben.

NVs Margen werden im Prinzip nicht verändert, da die Komponenten mit der Zeit billiger werden und somit können sie eben 5-10% mehr Gas geben. Interessiert in der Tat nicht viele aber für Neukunden besser als nichts. Preissenkungen bei NV würde es nur geben wenn AMD erneut jebaited und einen richtigen Hammer raushauen würde den NV nicht kontern kann.

Hab ja schon meine Meinung generell zu Turing gesagt, IMHO die langweiligste Gen seit langem. Selbst Pascal war deutlich spannender, obwohl das "nur" Maxwell auf Steroiden war.

Dural
2019-08-19, 15:44:35
Die sollen lieber mal was neues bringen, turing ist auch schon 1 jahr auf dem markt und das mit verspätung. wenn man es hoch nimmt somit 1,5 jahre, normalerweise würde man ende 2019 / anfang 2020 was neues bringen.

nv verhält sich extrem ruhig, zu ruhig. Zeigt für mich das sie in ihrer sache sicher sind.

dildo4u
2019-08-19, 15:50:56
Sie haben erst jetzt grad wieder angefangen mehr Karten zu verkaufen vermutlich da die Masse aufgegeben hat auf was Besseres zu hoffen.

Nichtsdestotrotz rechnet nVidia für das laufende dritte Quartal mit einem erneuten Umsatzsprung auf ca. 2,9 Mrd. Dollar – was, ganz ohne jeden Cryptomining-Einfluß erzielt, überaus stattlich wäre. Hier spielen dann natürlich zuerst einmal jahreszeitliche Einflüsse hinein, aber auch vom aufgebotenen Produkt-Portfolio sieht sich nVidia augenscheinlich gut gerüstet.

https://www.3dcenter.org/news/die-nvidia-geschaeftsergebnisse-im-zweiten-quartal-2019


Da wird erstmal nix kommen,Q2 war besser als jedes Quartal das ohne den Einfluss des Minings verlaufen ist.

Dural
2019-08-19, 15:59:56
NV ist mit Turing sehr gut aufgestellt, das ist sicherlich so. Wenn man in 12nm das bessere Watt/FPS Verhältnis hinbekommt als die Konkurrenz mit 7nm zeigt das eindrucksvoll wie überlegen die Architektur ist und dazu hat man ja noch weitere Vorzüge wie RT usw.

Ändert aber trotzdem nichts daran das NV über einen längeren Zeitraum planen muss.

Wenn das mit Samsung stimmt, dürfte es wohl eher an denen liegen wann von NV was neues kommt.

Linmoum
2019-08-19, 16:01:31
Sie sind schlicht abhängig davon, wie schnell 7nm EUV marktreif ist. Bei Samsung und TSMC. Vielleicht ein Grund, warum sie Turing jetzt nochmal in Teilen neu aufgelegt haben. Weil das womöglich auf absehbare Zeit schlicht noch nichts wird.

RLZ
2019-08-19, 16:12:39
Hab ja schon meine Meinung generell zu Turing gesagt, IMHO die langweiligste Gen seit langem. Selbst Pascal war deutlich spannender, obwohl das "nur" Maxwell auf Steroiden war.
Langweilig? Turing hat die meisten Neuerung seit über 10 Jahren gebracht :confused:

Hübie
2019-08-19, 16:16:59
Einstein = Volta Erbe und Ampére = Turing Erbe?
Ich wollte bald mal meine 980 Ti beerben, aber die 2080 Ti hat einen bittersüßen Beigeschmack. Ich habe so meine Zweifel, dass die Karte ebenfalls 4 Jahre ohne mit der Wimper zu zucken durch hält... :uponder:

rentex
2019-08-20, 05:48:29
Zeit wirds....

Dural
2019-08-21, 12:03:12
Jensen meinte beim Quartals Bericht das Super Turing noch für das ganze nächste Jahr gut aufgestellt ist :freak: :eek:

Raff
2019-08-21, 12:06:57
Langweilig? Turing hat die meisten Neuerung seit über 10 Jahren gebracht :confused:

Check ich auch nicht. Pascal war furchtbar langweilig. Sau schnell und auf Takt und Gaming optimiert, ja. Aber featuremäßig einfach öde. Turing ist dagegen ein Füllhorn der (noch Checklisten-)Features.

MfG,
Raff

HOT
2019-08-21, 12:23:51
Innovation ist noch nie vom Publikum gefeiert worden. Und mit Hardware ist das auch noch extra schwer.

Sunrise
2019-08-21, 13:31:37
Check ich auch nicht. Pascal war furchtbar langweilig. Sau schnell und auf Takt und Gaming optimiert, ja. Aber featuremäßig einfach öde. Turing ist dagegen ein Füllhorn der (noch Checklisten-)Features.

MfG,
Raff
Dann liegt es wohl an den aktuell (noch Checklisten-Features), denn so wirklich abgewinnen kann ich der Relation der deutlich gestiegenen Komplexität (-> wir können jetzt mehr, wir dürfen die Preise immer weiter steigern) und der nicht- oder nur teilweise nutzbaren Features nichts, wenn man bedenkt, wieviel Fläche auf den Dies dafür draufgegangen ist. Früher konnte man normalerweise alles relativ kurzfristig sofort nutzen und das schmeckt mir wohl einfach nicht. Würde ich daher auch nicht kaufen. Da gibts unzählige Beispiele, wie neue Features und "Innovation" (ich liebe dieses Wort..NICHT) in der Vergangenheit deutlich besser (weil zeitlich besser abgeschätzt) am Markt ankamen und angenommen wurden. Raytracing ist für mich keine Innovation per se (war es nie), wenn es nur begrenzt nutzbar ist - man kann sich drüber streiten.

In der Theorie und wenn man mal darüber genauer nachdenkt geb ich euch Recht, allerdings ist die Praxis IMHO entscheidender und da hatte Pascal weit mehr Erfolg und wurde auch weit mehr gefeiert.

Klar, jene wie ihr, ganz besonders du Raff, sind deutlich näher am Thema, aber ich erkenne nicht nur hier im Forum, dass Turing doch der gewisse Nachdruck fehlt, um am Markt anzukommen. Im Endeffekt kauft jeder nur deshalb, weil es keine Alternativen gibt/gab und weil die dicke Ti eben immer gekauft wird (weil auch da von AMD nichts kam). Mehr ist es IMHO nicht, denn der GPU-Gaming-Markt ist die letzten Jahr in Relation zu früher eingeschlafen, da war früher mehr Druck auf dem Kessel. RDNA2 kann also nicht früh genug kommen.

Das nur als Erklärung, was genau ich mit langweilig meinte.

Anderes Thema...

Ein weiterer Grund, warum NV evtl. zu Samsung gegangen ist, der mir gerade nach den diversen HotChips-Konferenzen in den Kopf kommt: Bandbreite und Speicher. Mich würde es nicht überraschen, wenn NV eng mit Samsung zusammenarbeiten will, da Samsung deutlich mehr Speicher-Knowhow hat als TSMC, und bei GPUs ist trotz GDDR6-Steigerungen HBM weiterhin ein extrem wichtiges Thema, wenn man führend sein möchte. Mag vielleicht auch nur für Einstein und kommende Generationen zutreffen, aber bei Integration gibt es sicher noch eine ganze Menge Potential. Die wirklich großen Erfindungen kommen ja meist über die sauteuren "Systeme" (HPC) und werden dann nach unten skaliert. Sieht man ja sehr schön, wie das bei NV ohne eigene HPC-GPUs seit Jahren nichtmehr funktioniert, um alle Märkte zu bedienen.

Linmoum
2019-08-21, 19:43:11
Vielleicht kann ja jemand den Inhalt noch etwas weiter ausführen, der die Möglichkeit hat. Falls da überhaupt noch (mehr) relevantes steht.

MediaTek 5G SoC on track; Qualcomm faces 7nm EUV yield issues at Samsung, sources say
https://www.digitimes.com/news/a20190820PD203.html

Das könnte durchaus zum Problem werden, wenngleich Nvidia bereits mitgeteilt hatte, dass man auch weiterhin TSMC nutzen wird.

dildo4u
2019-08-21, 19:46:29
Sie verkaufen doch das Note 10 mit 7nm EUV Chip,glaube nicht daß sie das Launchen ohne ordentliche Stückzahlen.

Relic
2019-08-21, 19:49:13
Sie verkaufen doch das Note 10 mit 7nm EUV Chip,glaube nicht daß sie das Launchen ohne ordentliche Stückzahlen.

Auch mit 50% Yield kann man ordentlich Stückzahlen (wobei das Note 10 jetzt nicht das Mega Volumen haben wird) produzieren, vor allem wenn man sein eigener Kunde ist. Optimal ist das trotzdem nicht. Und mit größeren Chips wirds nicht besser sondern schlechter.

dildo4u
2019-08-21, 19:50:30
Dann hätte sie nicht zwei Modelle gebracht sondern nur das teure verkauft.
Du kannst hier nicht wie AMD die schlechten Dies als Midrange CPU verkaufen.

Sunrise
2019-08-21, 19:51:28
Sie verkaufen doch das Note 10 mit 7nm EUV Chip,glaube nicht daß sie das Launchen ohne ordentliche Stückzahlen.
Das Note 10 würde ich jetzt nicht als Beispiel dafür hernehmen, dass der Yield passt. Da es ja Samsung selbst ist, ist es denen fast egal, der SoC ist ja immernoch recht winzig.

Nuvirus
2019-08-21, 20:41:02
Wenn ein etwas kleinerer Midrange Chip in 7nm in nem 200-250€ UVP Smartphone kommt würde ich das schon eher für zumindest vernünftige Yield halten.

Beim Note sollte der Yield schlecht sein wird einfach nur der Preisverfall nicht ganz so extrem wie sonst^^

Dural
2019-08-22, 10:45:23
Ein weiterer Grund, warum NV evtl. zu Samsung gegangen ist, der mir gerade nach den diversen HotChips-Konferenzen in den Kopf kommt: Bandbreite und Speicher. Mich würde es nicht überraschen, wenn NV eng mit Samsung zusammenarbeiten will, da Samsung deutlich mehr Speicher-Knowhow hat als TSMC, und bei GPUs ist trotz GDDR6-Steigerungen HBM weiterhin ein extrem wichtiges Thema, wenn man führend sein möchte. Mag vielleicht auch nur für Einstein und kommende Generationen zutreffen, aber bei Integration gibt es sicher noch eine ganze Menge Potential. Die wirklich großen Erfindungen kommen ja meist über die sauteuren "Systeme" (HPC) und werden dann nach unten skaliert. Sieht man ja sehr schön, wie das bei NV ohne eigene HPC-GPUs seit Jahren nichtmehr funktioniert, um alle Märkte zu bedienen.

Das ist definitiv ein guter Punkt!
Alles von einem Anbieter, NV kann eventuell Sonderwünsche anbringen und das sicher auch noch zu einem guten Preis.

AffenJack
2019-08-22, 11:06:49
Vielleicht kann ja jemand den Inhalt noch etwas weiter ausführen, der die Möglichkeit hat. Falls da überhaupt noch (mehr) relevantes steht.


https://www.digitimes.com/news/a20190820PD203.html

Das könnte durchaus zum Problem werden, wenngleich Nvidia bereits mitgeteilt hatte, dass man auch weiterhin TSMC nutzen wird.

Wäre ganz interessant das mal zu lesen und könnte zum Problem werden, wenn da was dran ist. Allerdings ist Digitimes für Samsung ne schlechte Quelle. Digitimes ist eben aus Taiwan und bei TSMC gut informiert, aber man hat auch immer das Gefühl, dass Samsung bei Digitimes eher schlecht wegkommt. Die Meldung hat ja auch gleich den Stil, Samsung kriegt es nicht hin, aber bei Mediathek ist dank TSMC alles toll.

][immy
2019-08-30, 16:03:55
Das könnte natürlich mal erklären warum nvidia in letzter Zeit wieder so offensiv vor geht.

https://www.heise.de/newsticker/meldung/GPU-Marktanteile-AMD-verkauft-im-2-Quartal-mehr-GPUs-als-Nvidia-4510582.html


Im zweiten Quartal 2019 sank der Absatz von Grafikkarten für Desktop-PCs, Workstations und Server – bei AMD leicht, bei Nvidia brach er regelrecht ein.


Die Hochpreispolitik scheint sich derzeit jedenfalls nicht auszuzahlen, auch wenn der Markt grad allgemein schwächelt.

Könnte mir daher gut vorstellen, das nvidia demnächst erst mal mit was kleinem kommt um den Markt bis zum Midrange auch abzudecken. Turing ist ja im Marktsegment von <200€ noch nicht wirklich angekommen und genau dort werden die großen Umsätze generiert.

dildo4u
2019-08-30, 16:14:13
Nvidia hat im Q2 zugelegt sie sind nur Down im Vergleich zu Q2 2018 da das Mining fehlt.

https://www.3dcenter.org/news/die-nvidia-geschaeftsergebnisse-im-zweiten-quartal-2019

Da sie keine X86 APUs haben können sie natürlich niemals mithalten was Stückzahlen angeht,da dort auch Modelle wie 2 Core Ryzen für 40€ dazu zählen.

https://geizhals.de/amd-athlon-200ge-yd200gc6fbbox-a1890461.html?hloc=at&hloc=de

Linmoum
2019-08-30, 16:28:44
Nvidia hat im Q2 zugelegt sie sind nur Down im Vergleich zu Q2 2018 da das Mining fehlt.

https://www.3dcenter.org/news/die-nvidia-geschaeftsergebnisse-im-zweiten-quartal-2019

Da sie keine X86 APUs haben können sie natürlich niemals mithalten was Stückzahlen angeht,da dort auch Modelle wie 2 Core Ryzen für 40€ dazu zählen.

https://geizhals.de/amd-athlon-200ge-yd200gc6fbbox-a1890461.html?hloc=at&hloc=de
Hast du mehr als nur das Zitat gelesen oder was soll der Post jetzt bewirken? Da ist auch der AIB-Report mit drin, wo AMD +71 Prozent eim dGPU-Marktanteil in Q2 zulegen konnte.
Und auch nochmal für dich: Marktanteil != Umsatz. Nur weil der Umsatz steigt heißt es nicht automatisch, dass das auch für den Marktanteil gilt.

Jensen hatte selbst zugegeben, dass Turing bei den Verkäufen hinter den Erwartungen zurückblieb. Das soll sich ja, angeblich, erst jetzt mit Super ändern. Mehr als die jetzt spekulierte 1650Ti wird da aber mMn auch nicht kommen, mit Turing und den immer noch hohen Preisen muss man bis zum nächsten Jahr leben. Nvidia und die Kunden.

dildo4u
2019-08-30, 16:31:17
Hab mich verwirren lassen dort steht das sie Notebooks nicht zählen ich dachte aber dafür Desktop APUs.

Die Werte sind dann eh Käse für Nvidia da sie die Masse der Gameing Notebooks bestücken.

Dural
2019-08-30, 17:38:45
Und was genau soll AMD im Q2 Verkauft haben? Die Polaris Karten die für unter 100.- raus gingen? Vega56? Man kann sich Marktanteile auch einfach ERKAUFEN. Ich meine von 100 ausgelieferten GPU sind 71% auch nur 171 Stk. ;)

Die Umsätze bei NV sprechen eine deutliche Sprache, die bei AMD eben so ;)

Edit:
Übrigens wieder mal eine typische Heise News, tiefer kann man bald nicht mehr sinken. Mehr GPUs Verkauft wo keine Notebooks GPUs drin sind, alles klar.

HOT
2019-08-30, 20:45:06
Und was genau soll AMD im Q2 Verkauft haben? Die Polaris Karten die für unter 100.- raus gingen? Vega56? Man kann sich Marktanteile auch einfach ERKAUFEN. Ich meine von 100 ausgelieferten GPU sind 71% auch nur 171 Stk. ;)

Die Umsätze bei NV sprechen eine deutliche Sprache, die bei AMD eben so ;)

Edit:
Übrigens wieder mal eine typische Heise News, tiefer kann man bald nicht mehr sinken. Mehr GPUs Verkauft wo keine Notebooks GPUs drin sind, alles klar.

Hast du dir mal die Preise angeguckt? Das ist vollkommen plausibel. AMD hat da nur nichts dran verdient - NV aber eben auch nicht. AMD hat halt die Polaris verschleudert, da waren sicher auch noch massive Miningrueckstaende vorhanden.

Raff
2019-08-30, 21:38:16
Das könnte jetzt klingen wie 'ne kaputte Platte, aber der Turing-Nachfolger kann angesichts der beeindruckenden Control-Show (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12085124&postcount=315) nicht schnell genug auf der Matte stehen. Oder natürlich eine AMD-GPU, welche die DXR-Bildrate gegenüber einer TU102-Karte verdoppelt. Wir brauchen diesen Detailgrad in jedem Spiel, glaubt mir. Ja, man darf auch mal ehrlich beeindruckt sein! =) Herrje, ich fürchte Cyberpunk. Das wird wohl jeden Rechner niederstrecken und der Q2/2020-Aufrüstgrund schlechthin (https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Gamescom-Vorschau-1330347/).

MfG,
Raff

y33H@
2019-08-31, 00:00:24
Dummerweise ist Cyberpunk 2077 null mein Setting, auch Witcher 3 hat mich nie gepackt :P

Linmoum
2019-08-31, 05:16:29
Die Umsätze bei NV sprechen eine deutliche Sprache, die bei AMD eben so ;)Spricht eigentlich nur eine deutliche Sprache, dass du nicht verstehst, dass Umsatz != Marktanteil ist. ;) Hatte jetzt eigentlich angenommen, dass das Grundwissen ist. Scheinbar nicht.

Herrje, ich fürchte Cyberpunk. Das wird wohl jeden Rechner niederstrecken und der Q2/2020-Aufrüstgrund schlechthin (https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Gamescom-Vorschau-1330347/).

MfG,
Raff
Weiß nicht. Ist immerhin erst Mitte April, sollte CDPR den Termin halten können. :tongue: Die Frage ist dann halt, ob man zu dem Zeitpunkt schon mehr zum Turing-Nachfolger weiß. Wenn ja, dann werden sicherlich wenige aufrüsten, sondern bei (deutlich) mehr zu erwartender Leistung eben noch stillhalten. Wobei ich allerdings glaube, dass Cyberpunk auch einen 2080Ti-Nachfolger bei aktiviertem RT niederstrecken wird. :D

rentex
2019-08-31, 08:01:05
@y33H@ Bevor ich WT3, drei Mal durchgezockt habe, war es auch nicht mal Ansatzweise mein Setting...

y33H@
2019-08-31, 09:02:28
Hab's mehrmals begonnen, nie weiter als White Ochard gekommen, zog nicht.

HOT
2019-08-31, 09:27:23
Das könnte jetzt klingen wie 'ne kaputte Platte, aber der Turing-Nachfolger kann angesichts der beeindruckenden Control-Show (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12085124&postcount=315) nicht schnell genug auf der Matte stehen. Oder natürlich eine AMD-GPU, welche die DXR-Bildrate gegenüber einer TU102-Karte verdoppelt. Wir brauchen diesen Detailgrad in jedem Spiel, glaubt mir. Ja, man darf auch mal ehrlich beeindruckt sein! =) Herrje, ich fürchte Cyberpunk. Das wird wohl jeden Rechner niederstrecken und der Q2/2020-Aufrüstgrund schlechthin (https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Gamescom-Vorschau-1330347/).

MfG,
Raff
Sehe ich auch so. Aber, ich sehe deine Forderung nach einem möglichst schnell releasten Navi-Big überhaupt nicht so, kann ich nicht teilen. Navi Big muss RT schnell können. Der beste Launchtermin für Navi Big mit RT ist der 16. April 2020. Damit käme man zu einem Ruf, der die Marke massiv aufwertet und GCN vergessen lässt. Control ist nicht mainstreamig genug um die Massen zu beeindrucken.
Das wär für NV eigentlich auch so, aber wenn die jetzt noch ne 2080 Ti Super releasen, dann kann man da getrost noch mal ein Jahr draufrechnen, bis da was neues kommt. Ein potenzieller GA104 würde genau in dieser Leistungsklasse landen.

ShinyMcShine
2019-08-31, 10:14:25
Das könnte jetzt klingen wie 'ne kaputte Platte, aber der Turing-Nachfolger kann angesichts der beeindruckenden Control-Show (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12085124&postcount=315) nicht schnell genug auf der Matte stehen. Oder natürlich eine AMD-GPU, welche die DXR-Bildrate gegenüber einer TU102-Karte verdoppelt. Wir brauchen diesen Detailgrad in jedem Spiel, glaubt mir. Ja, man darf auch mal ehrlich beeindruckt sein! =) Herrje, ich fürchte Cyberpunk. Das wird wohl jeden Rechner niederstrecken und der Q2/2020-Aufrüstgrund schlechthin (https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Gamescom-Vorschau-1330347/).

MfG,
Raff

Kann mich nicht daran erinnern, Dich schon jemals so enthusiastisch gesehen zu haben... :smile: Vielleicht damals mit 3Dfx?

Leonidas
2019-08-31, 15:45:32
Herrje, ich fürchte Cyberpunk. Das wird wohl jeden Rechner niederstrecken und der Q2/2020-Aufrüstgrund schlechthin (https://www.pcgameshardware.de/Cyberpunk-2077-Spiel-20697/Specials/Gamescom-Vorschau-1330347/).


Fürchten nicht, ich würde es begrüßen. Ich befürchte eher, das CB2077 weil es so großartig Massenmarkt-präsent ist (und auch jede Menge gekostet haben dürfte) eher denn auch Massenmarkt-kompatibel gemacht wird. Je höher die Kosten, um so wenig kann man sich ein Spiel leisten, was viele Spieler ausschließt.

aufkrawall
2019-08-31, 16:12:14
Es soll Entwickler geben, die es schaffen, skalierbare Grafikoptionen einzubauen.

Birdman
2019-08-31, 16:25:14
Es soll Entwickler geben, die es schaffen, skalierbare Grafikoptionen einzubauen.
Huh? Das können und tun alle, wirklich.
Aber das was Du hier proklamierst funktioniert nicht, vermutlich nicht mal für Dich selbst.
Alle schauen nur auf die Performance bei Ultra-Settings und wenn diese nicht passt, wird über das Spiel oder die Engine hergezogen.

Die ganzen Schalter und Hebel für bessere Performance gibts überall, nur will die keiner Nutzen.
Daher kriegt ein Hersteller oft weniger auf den Deckel wenn er max. Quality gar nicht erst anbietet in einem Spiel.

aufkrawall
2019-08-31, 17:20:54
Die ganzen Schalter und Hebel für bessere Performance gibts überall, nur will die keiner Nutzen.

Steile These...

Darkman.X
2019-08-31, 18:34:11
Aber sie stimmt. Man sieht doch in diversen News-Kommentaren oder in Foren immer wieder die Leute rumheulen, wenn Spiel X mit dem 1000€-PC von vor 3-4 Jahren mit hohen Einstellungen nicht mehr flüssig läuft. Sie sind zu eitel für niedrige Einstellungen, und sie können halt auch nicht beurteilen, wieso ein Spiel schlecht läuft.

Ich meine mich auch an einem Interview mit CryTek zu erinnern, wo sie sagten, dass es in Crysis ein Fehler war die höchsten Einstellungen nur "sehr hoch" und nicht "ultra" genannt zu haben.

Natürlich kann das Problem auch am Spiel liegen, aber vielfach liegt es halt auch an den Spielern.

JVC
2019-08-31, 18:40:38
Die ganzen Schalter und Hebel für bessere Performance gibts überall, nur will die keiner Nutzen.

Kann ich nicht bestätigen.
Viele lassen das was das Spiel automatisch vorschlägt,
aber manche müssen zwanghaft alle Regler nach rechts schieben :freak:

Der "Profi" lernt mit den Reglern umzugehen,
oder holt sich Empfehlungen für die Einstellungen :wink:

M.f.G. JVC

Bucklew
2019-08-31, 18:45:04
Steile These...
Passt zumindest nicht zu den Bestandszahlen bei Steam.

dargo
2019-08-31, 19:21:06
Das könnte jetzt klingen wie 'ne kaputte Platte, aber der Turing-Nachfolger kann angesichts der beeindruckenden Control-Show (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12085124&postcount=315) nicht schnell genug auf der Matte stehen.
Sorry... aber ein Division 2 finde ich zig mal visuell beeindruckender als die ineffiziente Postprocessing-Pampe in Control. Bei Control habe ich immer das Gefühl ich müsste meine Augen untersuchen lassen. Dabei sind die völlig in Ordnung. Berufsbedingt muss ich sie alle drei Jahre untersuchen lassen und die letzte Untersuchung war dieses Jahr im Juli.

JVC
2019-08-31, 22:10:21
Ui, teure Augen :eek:

Ich hab ne Brille und spar mir die Kantenglättung :cool:

M.f.G. JVC

Dural
2019-08-31, 22:19:51
Spricht eigentlich nur eine deutliche Sprache, dass du nicht verstehst, dass Umsatz != Marktanteil ist. ;) Hatte jetzt eigentlich angenommen, dass das Grundwissen ist. Scheinbar nicht.


NV hat einen gleichen marktanteil, amd hat sogar 16% verloren. Heise ist nur zu doof diskrete grafikkarten zu vergleichen.

https://www.computerbase.de/2019-08/amd-nvidia-gpu-market-share/


So viel zum thema, die umsätze sind mehr als deutlich...

robbitop
2019-09-01, 11:01:23
Sorry... aber ein Division 2 finde ich zig mal visuell beeindruckender als die ineffiziente Postprocessing-Pampe in Control. Bei Control habe ich immer das Gefühl ich müsste meine Augen untersuchen lassen. Dabei sind die völlig in Ordnung. Berufsbedingt muss ich sie alle drei Jahre untersuchen lassen und die letzte Untersuchung war dieses Jahr im Juli.
Also was sie mit Echtzeit RT machen ist IMO schon ein gewaltiger Sprung zur bisherigen Grafik.

Achill
2019-09-01, 14:01:10
NV hat einen gleichen marktanteil, amd hat sogar 16% verloren. Heise ist nur zu doof diskrete grafikkarten zu vergleichen.

https://www.computerbase.de/2019-08/amd-nvidia-gpu-market-share/


So viel zum thema, die umsätze sind mehr als deutlich...

Leider hat ComputerBase m.E. etwas falsch gelesen bzw. interpretiert. Bei ComputerBase ist es immerhin im Konjunktiv formuliert, wenn auch ohne Detail der Herleitung/These. Mit deiner für dich typischen Aussage wird es jetzt als Fakt dargestellt ...

Im neuen AIB-Report für Q2.2019 (https://www.jonpeddie.com/press-releases/jon-peddie-research-releases-its-q2-2019-global-add-in-board-report) wird nicht erkenntlich, dass es hauptsächlich zu Lasten von AMD ging, sondern AMD Boden gut gemacht hat im Vergleich zum letzten Quartal.

Leo hat das auch schon alles gut und umfangreich aufgearbeitet: https://www.3dcenter.org/news/die-grafikchip-und-grafikkarten-marktanteile-im-zweiten-quartal-2019

Leonidas
2019-09-02, 08:10:35
Die CB-News ist schlicht noch ohne die AIB-Marktanteile für Q2/2019. Die beziehen sich Overall auf Q2/2019, bei AIB aber auf Q1/2019. Ich warte mit meiner News hierzu generell, bis auch AIB Q2/2019 vorliegt - alles andere macht kaum Sinn.

Locuza
2019-09-02, 13:26:22
@ Leonidas,

dabei könntest Du noch die Werte für Q2/2004 korrigieren, welche sehr wahrscheinlich verwechselt worden sind:
https://abload.de/img/marktanteilei2ki0.jpg

dbz Diagramm:
https://forum.beyond3d.com/threads/nvidia-shows-signs-2008-2017.43294/page-164#post-1867887

JVC
2019-09-02, 13:40:13
"ATI is #1 in Discrete Graphics"
Kommt denke ich noch ;)

M.f.G. JVC

P.s.: Heute ist dem :ubeer: gewidmet .... Prost!

Leonidas
2019-09-02, 14:00:33
@ Leonidas,
dabei könntest Du noch die Werte für Q2/2004 korrigieren, welche sehr wahrscheinlich verwechselt worden sind:



Das ist nicht unbenkbar, meine Wertetabelle kommt für diese frühen Zeitpunkt leider auch ohne Quellen aus. Das sind teilweise irgendwo mal herumfliegende Werte, da kann ein solcher Fehler passiert sein. Aber für eine Änderung bräuchte ich normalerweise mehr als eine Annahme. Wer sagt denn, das der Fehler nicht bei den anderem Diagramm liegt.

Verstehe mich nicht falsch: Es geht mir nicht daum, den Fehler nicht zu korrigieren oder einen Fehler nicht zugeben zu wollen. Mache ich dagegen sehr gern. Ich will nur nicht noch einen weiteren Fehler machen, wenigstens der 2. Versuch muß dann passen.

JVC
2019-09-02, 14:06:54
... Mache ich dagegen sehr gern. Ich will nur nicht noch einen weiteren Fehler machen, wenigstens der 2. Versuch muß dann passen.
Ein Mann ein Wort :up:
Heutzutage sind Menschen mit Prinzipien leider selten geworden ...

m.f.g. JVC

Locuza
2019-09-02, 14:23:19
Das ist nicht unbenkbar, meine Wertetabelle kommt für diese frühen Zeitpunkt leider auch ohne Quellen aus. Das sind teilweise irgendwo mal herumfliegende Werte, da kann ein solcher Fehler passiert sein. Aber für eine Änderung bräuchte ich normalerweise mehr als eine Annahme. Wer sagt denn, das der Fehler nicht bei den anderem Diagramm liegt.

Verstehe mich nicht falsch: Es geht mir nicht daum, den Fehler nicht zu korrigieren oder einen Fehler nicht zugeben zu wollen. Mache ich dagegen sehr gern. Ich will nur nicht noch einen weiteren Fehler machen, wenigstens der 2. Versuch muß dann passen.
Ja, wäre es nur das Diagramm von dbz im Vergleich, dann könnte man nicht mit Sicherheit sagen, welches nun den Zahlendreher hat, aber Beide bezogen ihre Daten von Jon Peddie Research und Mercury Research, ohne genau zu dokumentieren, wann welche Zahlen verwenden worden sind oder ein Mittelwert von Beiden.
Es gibt von 3DCenter immerhin eine Übersicht zwischen beiden Instituten von 2013-2016:
https://www.3dcenter.org/news/grafikchip-marktanteile-vergleich-der-statistiken-von-jon-peddie-research-und-mercury-research

Und iirc bildest du nun den Mittelwert von Beiden ab?


Ich habe jedenfalls die Zahlen zu Jon Peddie Research während des Zeitraums nicht gefunden, aber die von Mercury Research sind rechts im Bild zu sehen.
Und dort hat ATI in Q2 2004 visuell unter 40% Marktanteil, was sich mit den Zahlenwerten von 3DCenter und dbz deckt, welche 38 bzw. rund 39% für jeweils einen Hersteller angeben.
Mercury Research gibt an, dass ATI erst in Q3 2004 Marktführer geworden ist, visuell bei ungefähr 55-58%, deckt sich mit den Zahlen erneut, welche 55% (3DCenter) bzw. ~56% (dbz) betragen.

Es wäre ein doch großer Zufall, wenn Jon Peddie Research in Q2 2004 nahezu dieselben Zahlen wie Mercury Research aufgeweist hätte, nur spiegelverkehrt. ;)

JVC
2019-09-02, 16:22:51
... visuell bei ungefähr 55-58%, deckt sich mit den Zahlen erneut, welche 55% (3DCenter) bzw. ~56% (dbz) betragen.
Leo liegt manchmal richtiger als er dann zugeben will ^^
(Bescheidenheit ist nicht Jedermanns stärke...)

M.f.G. JVC

Leonidas
2019-09-03, 05:23:18
Deutet doch stark auf einen Fehler hin. Bei diesen Alt-Werten steht in meiner Tabelle im übrigen als Anmerkung "MR", sprich ich hatte keine Daten von JPR, sondern bin auf MR ausgewichen.

Nebenbei: Überall wo beide Werte vorliegen (JPR+MR), werden in neueren Versionen dieses Diagramms beide Werte benutzt (Mittelwert).

Leonidas
2019-09-26, 09:03:50
GeForce GTX 1660 Super durch Asus bestätigt:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-25-september-2019

Leonidas
2019-10-23, 14:30:49
GeForce GTX 1660 Super kommt am 29. Oktober zum Listenpreis von 229$
https://www.3dcenter.org/news/nvidias-geforce-gtx-1660-super-kommt-am-29-oktober-zum-listenpreis-von-229

Ghost1nTh3GPU
2019-10-25, 18:48:12
https://videocardz.com/82408/nvidia-geforce-gtx-1660-super-and-gtx-1650-super-final-specifications

Die 1650S greift die 1660 und RX5500 deutlich an, mit nun 1280SPs@GDDR6.

y33H@
2019-10-25, 19:12:55
Ja, unter 250 Euro ist Nvidia dann ziemlich stark aufgestellt, wobei die beiden GTX 1650 mit 4GB zumindest teilweise auf Ablehnung stoßen (werden).

Ghost1nTh3GPU
2019-10-26, 10:13:43
Ob eine 8GB RX 5500 der Standardfall sein wird, muss sich auch erst mal zeigen. Die 8GB Polaris sind ein schweres Erbe für beide Hersteller.

y33H@
2019-10-26, 12:49:01
Die RX 570/580/590 werden auslaufen, dann erübrigt sich das von selbst.

Ghost1nTh3GPU
2019-11-22, 18:09:50
Mit dem CFR-Mode für SLI könnte man eine Dual-TU102-Karte spekulieren, vielleicht mit >100GBs-OC-NVLINK durch ein Single-PCB.
Alternativ ein Feature um die 2080 Ti Super noch besser zu verkaufen.

robbitop
2019-11-22, 18:37:30
mGPU ist praktisch tot. IMO macht das heute keinen Sinn mehr.

Ghost1nTh3GPU
2019-11-22, 19:04:40
Dual-GA104 (2x ~300-400mm2, 2x 16GB) würde für Nvidia sehr viel Sinn machen, wenn das CFR vernünftig arbeitet. Die Ergebnisse von Blaire sind da schon vielversprechend.

HPVD
2019-11-22, 22:05:03
nun scheints auch im Profibereich ne neue Variante von ner Tesla V100 zu geben: V100S
https://www.anandtech.com/show/15146/new-nvidia-gpu-variant-at-supercomputing-2019

je mehr neue "Kleinigkeiten" umso unwahrscheinlicher erscheints dass bald was größerers kommt...

Ghost1nTh3GPU
2019-11-23, 11:28:59
V100 Super? :D
Laut Dell Pressrelease 25% mehr Bandbreite, nur fraglich ob HBM oder NVLINK.

Zur GTC sollte schon eine Ankündigung kommen, die Mitbewerber beim DL schlafen nicht.

HPVD
2019-11-27, 11:30:09
V100 Super? :D
Laut Dell Pressrelease 25% mehr Bandbreite, nur fraglich ob HBM oder NVLINK.



Details:
+26% Bandbreite
+17% Compute
bei gleichem max power

Quelle und weiteres: https://www.servethehome.com/nvidia-tesla-v100s-boasts-big-performance-gains-at-same-power/

][immy
2019-11-27, 12:05:57
Ja, unter 250 Euro ist Nvidia dann ziemlich stark aufgestellt, wobei die beiden GTX 1650 mit 4GB zumindest teilweise auf Ablehnung stoßen (werden).
hmm, sehe nicht warum in dem Bereich 4GB in den nächsten Jahren stören würden. Klar 8 verkauft sich besser als 4, aber in dem Performancesegment spielt das noch keine Rolle. Ab den 1660er könnte es dann wirklich eng werden wenn diese nur 4gb hätten.
Man darf schließlich auch nicht vergessen, nvidia & amd wollen ja eigentlich keine Zukunftsfähigen Karten verkaufen, sondern wenn das mehr an Speicher benötigt wird, dich am liebsten noch mal zur Kasse bitten.

Wird aber Zeit das auch nvidia in die 7nm Gefilden vordringt, damit hier vielleicht auch mal wieder Preisdruck entsteht und nicht das neue Midrange erst ab 400€ beginnt. Allerdings, solange nvidia noch vor AMD ist mit der alten Fertigung macht es auch relativ wenig sinn neues zu bringen. Wäre ja nur eigene Konkurrenz.

pixeljetstream
2019-11-28, 08:58:07
Da der alte Turing thread schon weg ist, poste ich Mal hier
https://devblogs.nvidia.com/nvidia-variable-rate-shading-demonstrated-in-autodesk-vred/

Raff
2019-11-28, 09:11:13
[immy;12153942']hmm, sehe nicht warum in dem Bereich 4GB in den nächsten Jahren stören würden. Klar 8 verkauft sich besser als 4, aber in dem Performancesegment spielt das noch keine Rolle.

Genau diese Denke muss weg, denn sie ist überholt. :) 4 GiB bremsen auch in Full HD vereinzelt. Wenn man den Speicher hat (also 8 GiB), gibt's maximale Textur-/Schatten-/Streaming-Details gratis. Warum also zehn Euro sparen?

MfG
Raff

][immy
2019-11-28, 09:26:56
Genau diese Denke muss weg, denn sie ist überholt. :) 4 GiB bremsen auch in Full HD vereinzelt. Wenn man den Speicher hat (also 8 GiB), gibt's maximale Textur-/Schatten-/Streaming-Details gratis. Warum also zehn Euro sparen?

MfG
Raff
Die 4GB mehr, machen am Preis (in den Preisgefilden) aber wieder so viel aus, das man dann gleich lieber eine Stufe höher kaufen kann (also die 1660). Oder es läuft darauf hinaus, das die Hersteller wieder mit so was die DDR4 Karten kommen um durch Speicherkosten den Preis nicht in die höhe zu treiben.

Raff
2019-11-28, 09:37:40
Nö, wenngleich Ausnahmen die Regel bestätigen. Leider hat man ja fast nie die Wahl. Ein altes und gleichermaßen aktuelles Beispiel: Ob man nun eine RX 570 4GB oder RX 570 8GB kauft, macht (je nach Design) 10-15 Euro aus. Das ist's absolut wert.

MfG
Raff

][immy
2019-11-28, 11:42:31
Nö, wenngleich Ausnahmen die Regel bestätigen. Leider hat man ja fast nie die Wahl. Ein altes und gleichermaßen aktuelles Beispiel: Ob man nun eine RX 570 4GB oder RX 570 8GB kauft, macht (je nach Design) 10-15 Euro aus. Das ist's absolut wert.

MfG
Raff
kommt halt auf den Preisbereich an. Die RX570 ist ja schon im 120er Bereich angekommen. Da ist dann schon 10-15% Aufpreis für die Kundschaft entscheidend. Hersteller sparen hier ja auch teils extrem cents an den Kühllösungen.
Normalerweise war die 50er-Reihe auch nie für den ~200€ Bereich, das ist erst passiert seitdem der ehemalige 200€ Bereich zum neuen 400€ Bereich geworden ist. Auch die RX5500 ist ja an sich kein Produkt für diesen Bereich, wo sie grad mal die Leistung der alten RX480/580 bietet, die ursprünglich mal dort angesiedelt war. Man hat es also in 3 Jahren nicht mal geschafft im 200€ Bereich mehr Performance zu platzieren. So gesehen ist die RX5500 ein relativ überflüssiges Produkt.

Das dir die 10-15€ (ich hab mir damals die 4GB rx570 geholt, welche ~50€ günstiger war als die 8GB, mag aber auch an den damaligen Lieferschwierigkeiten gelegen haben) es nicht Wert sind ist klar, du guckst da mit einer etwas zu technischen Brille drauf. Die Kunden die sich die karten aber tatsächlich holen, die werden auch auf Grafik nicht viel wert legen, da ist das vollkommen ausreichend. Abgesehen davon, das die letzten Texturstufen meist überhaupt nichts mehr bringen (besonders bei kleineren Auflösungen).

dildo4u
2020-01-20, 14:50:16
Mobile 2080 Super kommt als 80 und 150+ Watt Modell.


https://videocardz.com/newz/nvidia-geforce-rtx-2080-super-mobile-spotted-on-geekbench