Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
dargo
2020-07-03, 08:49:47
Und ich halte die Diskussionen der Speicherfetischisten für dämlich. Ich teile die Meinung von Raff übrigens auch nicht. Bei den ersten Games für die neuen Konsolen wird man eh erstmal 4k 60fps als Target anpeilen. Praktisch "Lastgen"-Spiele in höherer Auflösung mit mehr Frames, ist halt die billigste Variante für Entwickler die vorhandene Rohleistung zu nutzen. Erst wenn man von 4k und 60fps als Target runter geht wird der Bedarf am PC an Rohleistung gravierend steigen. Das jetzt aus Sicht eines 1440p Spielers am PC. Von 4k und erst recht 60+fps kann die Mehrheit am PC nur träumen. Mich persönlich reizt 4k eh nicht. Zumindest so lange nicht wenn ich dafür 1.000+€ Grafikkarten brauche.
Sich über nicht optimierte Titel aufregend ist einfach nicht zielführend und lenkt vom eigentlichen Thema ab.
Was ist das denn wieder für ein Bullshit? Du kaufst wohl auch gerne nicht optimierte Games, verwendest uralte Grafiktreiber (wer braucht schon Treiberoptimierungen?) und Mainboard-Biose?
Nochmal die Frage: Warum bist du gegen mehr Speicher? Was soll das? Ich bin kein Speicherfetischist, ich hab nur was gegen Verarsche und die 3. Generation in Folge ohne Speichererhöhung, bei der 6GB jetzt schon zuwenig ist, ist Verarsche... und mit 4k hat das sehr wenig nichts zu tun. Auch das ist nicht zielführend.
dargo
2020-07-03, 08:58:25
Nochmal die Frage: Warum bist du gegen mehr Speicher? Was soll das?
Ich weiß nicht wo du das her hast? Ich weiß nur, dass schneller GDDR6 (HBM erst recht) ein mittlerweile nicht zu verachtender Kostentreiber ist. Auch weiß ich, dass 16GB Vram bei 1440p unnötig ist. Aktuell reichen hier überall 8GB aus. 12GB als Nachfolger meiner Karte sehe ich als guten Sweetspot zwischen Speichermenge und Preis. Das ist meine persönliche Meinung die niemand teilen muss! Die Nutzungsdauer einer Grafikkarte beträgt hier etwa 2-3 Jahre.
Ist mir bei NVs Margen ehrlich gesagt scheissegal ob das ein Kostentreiber ist, das ist einfach unverhältnismäßig. Und wenn ihr das akzeptiert, lasst ihr euch einfach gerne verarschen, wie soll man das sonst interpretieren? Unter 16GB VRAM sollte man bei der neuen Konsolengeneration nicht mehr aus dem Haus gehen. 12GB ist Mainstream und 8GB ist unteres Ende.
dargo
2020-07-03, 09:04:01
Ist mir bei NV Margen ehrlich gesagt scheissegal ob das ein Kostentreiber ist, das ist einfach unverhältnismäßig.
Dann kaufe halt keine Geforce, meine Fresse. Die Lösung kann so einfach sein. Sind hier nur "Hurren" der Spieleindustrie und/oder von Nvidia/Intel/AMD unterwegs?
Hab ich nicht gesagt und du hast meine Frage immer noch nicht beantwortet. Ich kauf durchaus Geforce, wenn der Speicher stimmt. 2 meiner besten Karten waren Geforce.
Wenn du ne 3080Ti mit nur 11GB kaufst (wie es ja jetzt wieder den Anschein hat), wirst du bei einem der für neue Konsolen entwickelten Titel ins Speicherlimit laufen bei hohen Details nächstes Jahr schon, das zeigt die Vergangenheit. Gibst du deshalb 1500€ für die Grafikkarte aus? Das ist unverhältnismäßig und schlicht und ergreifend in meinen Augen ein Schrott-Produkt und das ohne Not, denn eine 22GB-Variante wäre ein sehr gutes Produkt.
Palpatin
2020-07-03, 09:17:54
Warum also bei potentiell vierstelligen Preisen mit 12GiB rumgeizen? Aus welchem Grund sollte man a) sagen ("Raytracing voll Porno!!") aber gleichzeitig b) machen (einen entscheidenden Faktor für a) beschneiden)?
Um in 1-2 Jahren die Refreshkarten 4080/4090 welche dann nur ~ 20-30% schneller sind als die 3080/3090 aber über 16gb-24gb verfügen in großen Mengen an den Mann zu bringen. :rolleyes:
mironicus
2020-07-03, 09:21:17
Wer mehr Speicher will kann sich eine Titan RTX für 3000 Euro holen. :)
Und die Konsolen haben mit 16 GB RAM ausreichend Speicher, dank schneller SSD gibt es da meiner Meinung nach keinen Flaschenhals mehr.
Troyan
2020-07-03, 09:26:49
Die Xbox One SX hat auch nur 12GB schnellen Speicher. Vielleicht sollten einige von hier mal bei Microsoft nachfragen, wieso man nicht 24GB verbaut hat...
Palpatin
2020-07-03, 09:34:41
Für die Rechenleistung der Konsolen ist der Speicher gut gewählt. Die TFlops werden da auch klar der Flaschenhals sein. Es sagt ja auch keiner was wenn NV die 3060 mit ~10 Tflops und 12GB Speicher bringt.
Leonidas
2020-07-03, 09:35:50
3. Generation in Folge ohne Speichererhöhung
Korinthenkack:
3. Generation in Folge mit derselben Speichermenge oder 2. Generation in Folge mit derselben Speichermenge ohne Speichererhöhung
... denn den letzten erheblichen Sprung gab es von Maxwell auf Pascal.
Cubitus
2020-07-03, 09:39:58
Ist mir bei NVs Margen ehrlich gesagt scheissegal ob das ein Kostentreiber ist, das ist einfach unverhältnismäßig. Und wenn ihr das akzeptiert, lasst ihr euch einfach gerne verarschen, wie soll man das sonst interpretieren? Unter 16GB VRAM sollte man bei der neuen Konsolengeneration nicht mehr aus dem Haus gehen. 12GB ist Mainstream und 8GB ist unteres Ende.
Hmm schaut euch doch mal euren Vram Verbrauch an, ich komme mit meiner 3K, 21:9 Auflösung eigl nie wirklich in Limits..
Und was ist mit DX12 Ultimate und dem direkten Anzapfen der NVME über den PCIE Bus, käme z.b in der neuen UE dann zum tragen.
Falls diese Feature die neuen Karten können, ist das Thema gar nicht mehr so schlimm ;)
GPU Speicher ist teuer, NVME Speicher ist "relativ" günstig. ;)
Z.B
https://developer.nvidia.com/blog/gpudirect-storage/
Es wird damit der Vram Speicher entlastet, eventuell beim Streaming, somit müssen Daten nicht immer im Vram vorgehalten werden.
Adam D.
2020-07-03, 09:44:06
Die Xbox One SX hat auch nur 12GB schnellen Speicher. Vielleicht sollten einige von hier mal bei Microsoft nachfragen, wieso man nicht 24GB verbaut hat...
Genau, lass uns da mal nachhaken, wenn die gesamte Konsole die Hälfte der NV-Karte kostet.
Freue mich schon drauf, wenn in zwei Jahren die nächste Diskussion los geht, warum es absolut nachvollziehbar ist, dass NV bei 800€++-Karten 14GB verbaut. Reicht doch!
Troyan
2020-07-03, 09:44:42
Für die Rechenleistung der Konsolen ist der Speicher gut gewählt. Die TFlops werden da auch klar der Flaschenhals sein. Es sagt ja auch keiner was wenn NV die 3060 mit ~10 Tflops und 12GB Speicher bringt.
Die XBSX hat doppelt soviel Rechenleistung als die XBSX, aber nur 50% mehr schnelleren Speicher.
Dampf
2020-07-03, 09:45:20
Und was ist mit DX12 Ultimate und das direkte anzapfen der NVME über den PCIE Bus, käme z.b in der neuen UE dann zum tragen.
Das wird hier immer vergessen, sehr richtig. Mit DX12U lässt sich der Speicher wesentlich effizienter verwalten als bisher. Und mit den ganzen entfernten I/O Bottlenecks dank DirectStorage wird das Streaming in Zukunft gänzlich anders ablaufen als bisher.
Eine 8 GB VRAM Karte mit DX12 Ultimate ist nicht zu vergleichen mit 8 GB VRAM einer Non-DX12 Ultimate Karte!
Deswegen kann es sich Lockhart erlauben nur 4 GB GPU-optimierten Speicher zu haben, auch wenn Raytracing genutzt wird. Nvidia betitelte das noch als unmöglich mit DXR 1.0 und ohne DX12 Ultimate, deswegen hat das RTX Lineup mindestens 6 GB. Bedenkt bitte, dass Technologien wie Sampler Feedback zu der Zeit noch in den Kinderschuhen steckten und nicht genutzt wurden.
Dank DX12 Ultimate und Direct Storage wird auch die RTX 3050, erstmalig mit RTX Support, auf 4 GB Speicher setzen, wenn man Gerüchte glauben schenken darf. Macht alles Sinn, denn sonst wäre RTX in der Preisklasse schlicht nicht möglich!
Nochmal die Frage: Warum bist du gegen mehr Speicher? Was soll das?
Da kann ich nur für mich sprechen, aber ich möchte einfach nicht für etwas mehr zahlen, wenn ich es nicht nutze. Das wars eigentlich schon. Ich halte Software-Innovationen wie DX12 Ultimate für so wichtig, wenn nicht noch wichtiger als Hardware-Innovationen.
Edgecrusher86
2020-07-03, 09:46:33
11/12GB VRAM sind schon seit GP102 sinnvoll oberhalb von WQHD. GA102 wird grob die doppelte Rasterizing-Leistung abliefern - drei/vier Jahre später. Der PC zudem nicht auf solche schnellen SSD-Caches zugreifen wie die Konsolen.
Zumindest +50% VRAM wären für die nächsten zwei Jahre sicherlich sinnvoll für eine Highend-Karte. Mit Kostenfaktor braucht NIEMAND zu kommen, wenn schon eine RTX 3080 mindestens 850€ zu Release kosten wird (wie die 2080 FE damals) und darüber vierstellige Preise aufgerufen werden.
Dass man eine 16GB HBM2 Karte auch für unterhalb 1000€ bringen kann, hatte AMD ja gezeigt, auch wenn das sicherlich etwas der Ursache geschuldet war, dass man zum Beispiel nicht die schnellste Karte am Markt hatte - dann wäre sie vielleicht auch mit bis zu $999 bepreist gewesen.
Zudem man ja auch einen Lückenfüller vor Navi 10 brauchte. Da kam ein Vega II Desktop-Ableger gerade Recht.
Das TITAN-Argument ist ja auch grenzwertig. Kauft sich jeder Enthusiast eine, kostet sowas in fünf-sechs Jahren wohl 10000€. Aber dann schickt halt wenigstens der VRAM immer. ;)
Nun ja, wie dem auch sei - wenn nur die RTX 3090 / TITAN mehr als 12GB bekommen sollte, für zum Beispiel 1750-4000€, dann überspringe ich halt diese Generation auch wieder.
Mit maximal einer Hand voll neu gekaufter Titel pro Jahr, lohnt es sich hier eh nicht mehr, vierstellig zu investieren für zwei Jahre. Eine zweite GTX 1080 Ti wäre schön - aber das wird man wohl nicht mehr sehen.
Die Karte ist immer noch ausreichend schnell, um fast alles ordentlich in UWQHD auf maximalen oder hohen Details wieder zu geben - bis auf Ausnahmen wie RDR2, was aber vermutlich maxed out auch mit der
teuersten Next-Gen-Karte in dieser Auflösung mit höchstens 50-60 fps laufen werden dürfte statt mit 20-30 fps wie mit GP102. :)
Sweepi
2020-07-03, 10:01:05
Das Kostenargument ist sowieso raus.
Wenn nVidia wollte, würden sie wie bei GTX 570/580/670/680/780 eine Variante mit doppeltem Speicher bringen und die Mehrkosten + Marge den Kunden zahlen lassen.
Das passiert nicht aus produktpolitischen Gründen.
Troyan
2020-07-03, 10:03:13
Für die Rechenleistung der Konsolen ist der Speicher gut gewählt. Die TFlops werden da auch klar der Flaschenhals sein. Es sagt ja auch keiner was wenn NV die 3060 mit ~10 Tflops und 12GB Speicher bringt.
Die Xbox One hatte 8GB. Die XBSX hat 10x mehr Rechenleistung, aber nur doppelt soviel Speicher.
Offensichtlich sehen auch die Konsolenhersteller keine Notwendigkeit mehr als nötig den Speicher zu erhöhen.
Edgecrusher86
2020-07-03, 10:05:05
Das Kostenargument ist sowieso raus.
Wenn nVidia wollte, würden sie wie bei GTX 570/580/670/680/780 eine Variante mit doppeltem Speicher bringen und die Mehrkosten + Marge den Kunden zahlen lassen.
Das passiert nicht aus produktpolitischen Gründen.
Ja, das ist dann auch ein Grund, damit man schneller aufrüstet. :freak:
Ich habe auch ein gutes Beispiel genannt, wie schon einige Titel maxed out mit einer damals neuen Highend-Karte den VRAM füllten, obwohl die Rohleistung für höhere Auflösungen gereicht hätten.
Beispiel etwa 2014 AC:U. Das nagelneue GTX 980 SLI war hier verbaut gewesen. in WQHD nativ maxed out mit 4x TXAA waren die 4GB fast voll - in 4K war das Ganze dann eine Ruckelorgie sondergleichen gewesen.
4K + FXAA lief aber mit bis zu 80 fps. TU102 SLI im NVL ist heute zum Beispiel teilweise schnell genug, um 8K60 zu schaffen [30-50 fps sind es dann idR bei fordernden Titeln] - aber mit 11GB VRAM kann man halt auch nicht immer mit maximalen Texturauflösungen fahren -
Beispiel Doom 2016 mit OGL - Nightmare Preset nicht möglich. ;)
Mal ein aktuelles Beispiel Anhand MW2 Remaster, was mit entsprechender Rohleistung möglich ist:
https://www.youtube.com/watch?v=wVsyMUWHe_M
Der VRAM langt hier auch gerade so. ;)
Oder hier - 4K RTX Ultra nativ im SLI dank CFR in Metro Exodus - die fps könnten natürlich etwas höher sein - das Scaling ist nicht optimal - die Frametime-Varianz ist aber idR prima:
https://www.youtube.com/watch?v=PBO1jDM3atA
Älteres Beispiel: Hellblade - man sieht, die Frametimes sind SGPU in 4K (meistens) deutlich überlegen:
https://www.youtube.com/watch?v=UJI9CvtTRx8
Zeigt aber im Prinzip, was möglich wäre mit der Rohleistung zweier Karten. Mit der Bandbreite von NVL langen hier auch x8 x8 als Anbindung völlig aus - ohne Nachteile zu haben in hohen Auflösungen + adaptive Sync - was auch nochmals Bandbreite braucht. :)
Ja, MGPU ist leider auch durch die Devs und LL-APIs noch mehr Nische als früher geworden - möglich wäre es ja sowohl mit DX12 und VK, aber die meisten scheuen extra Kosten.
TR, Strange Brigade oder Gears 4 zeigen ja, dass es geht. Ich verstehe auch im Hinblick auf RTX On und 4K nicht, dass man MGPU nicht mehr pusht. So muss man halt auf DLSS hoffen, für flüssige fps.
Je nach Titel sind's dann aber auch nur um die 40 fps. SotTR etwa oder Metro Exodus auf einer 2080 Ti OC.
Aber an dem Beispiel sieht man, dass für die Next-Gen und den kommenden Jahren und solche Enthusiasten definitiv mehr als 11/12GB zur Pflicht wird, will man auch mal in mindestens 5K spielen.
Ich habe es jedenfalls noch nicht gesehen, dass man die Textur-Kompression so extremst verbessern kann, dass es oberhalb von 4K dann langen wird bei Titeln wie Hellblade 2. ;)
Cubitus
2020-07-03, 10:09:43
Das wird hier immer vergessen, sehr richtig. Mit DX12U lässt sich der Speicher wesentlich effizienter verwalten als bisher. Und mit den ganzen entfernten I/O Bottlenecks dank DirectStorage wird das Streaming in Zukunft gänzlich anders ablaufen als bisher.
Eine 8 GB VRAM Karte mit DX12 Ultimate ist nicht zu vergleichen mit 8 GB VRAM einer Non-DX12 Ultimate Karte!
Deswegen kann es sich Lockhart erlauben nur 4 GB GPU-optimierten Speicher zu haben, auch wenn Raytracing genutzt wird. Nvidia betitelte das noch als unmöglich mit DXR 1.0 und ohne DX12 Ultimate, deswegen hat das RTX Lineup mindestens 6 GB. Bedenkt bitte, dass Technologien wie Sampler Feedback zu der Zeit noch in den Kinderschuhen steckten und nicht genutzt wurden.
Dank DX12 Ultimate und Direct Storage wird auch die RTX 3050, erstmalig mit RTX Support, auf 4 GB Speicher setzen, wenn man Gerüchte glauben schenken darf. Macht alles Sinn, denn sonst wäre RTX in der Preisklasse schlicht nicht möglich!
Ich finde das Thema an sich sehr spannend :)
Vor allem wenn man sich die neue UE betrachtet mit Ihrem Infinite LOD, wo ja unter Umständen massive Datenmengen anfallen. Bei entsprechender Nutzung wären auch 24 GB Vram zu wenig.
Gut, jemand der so wie ich jetzt nicht ganz so tief in der Technik drinsteckt und die meiste Zeit eher spielt, fragt sich dann welche Rahmenbedingen gegeben sein müssen um mehr FPS aus der HW zu bekommen.
Ich schätze mal PCIE 4.0 bzw eine PCIE 4.0 SSD (Größe, Lese/Schreibraten) werden zukünftig auch ein entscheidender Faktor, neben dem eigentlichen Vram-Takt und Größe sein.
Nazar
2020-07-03, 10:10:31
Also sind alle Spiele unter 11/12GB Vram unspielbar? :frown:
Was soll die provokante Frage? Trolling? :rolleyes:
Man kann Spiele auch mit 4k auf Ultra BQ mit 4GB VRAM spielen. "spielbar" ist es, aber mit Sicherheit bietet es nicht genügend FPS, um wirklich Spaß zu haben. Oder man Spielt mit allem auf low, ist auch spielbar aber mit Augenkrebs.
Wenn man nicht jedes Jahr eine neue HIGH END GK kaufen möchte, dann sind 8 GB VRAM und selbst 12 GB VRAM jetzt schon für einige Spiele und Anwendungsbereiche zu wenig!
DAS ist ein Fakt! Spiele DCS in VR und die 11 GB VRAM der 2080 TI reichen nicht mehr aus. Derzeit optimiere ich die VR BQ in DCS ausschließlich am VRAM Verbrauch und der steigt alle paar Monate an.
Es muss nur dein oder mein Lieblingsspiel aufgrund des VRAM Mangels nicht "spielbar" sein keinen Spaß machen und dann ist der Rest (alle Spiele) vollkommen egal, besonders, wenn man weiß, dass in der Zukunft immer mehr VRAM verbraten wird.
@VRAM
1:1 Vergleiche beim VRAM von Konsole und PC, wie es hier einige taten, zeigen nur wie wenig Ahnung sie von den unterschiedlichen Techniken haben, sowohl was die Hardware als auch das Softwaredesign angeht.
Schon mal einen nicht für den PC optimierten Konsolentitel gespielt, der trotz mieser Texturen High End PC in die Knie zwingt?
Es ist ein Fakt, dass viele Konsolentitel einfach schlechte Ports für den PC sind und unendlich viel Leistung verschwenden und das auch im Bereich VRAM.
Und selbst wenn es um für den PC optimierte Titel gehen würde, kann ich garantieren, dass der VRAM Verbrauch zunehmen wird (Next Gen Konsolen.. schon mal davon gehört? ;)).
DLSS ist ein Alleingang von Nvidia und wird deshalb keine Spielentwickler dazu bringen nur dafür zu optimieren (man möchte ja auch noch an AMD Kunden verkaufen). Damit wird eine zusätzliche DLSS Unterstützung für einige Entwickler zu "teuer" werden und deshalb nur sehr schleppend kommen, was das Thema "wir brauchen mehr VRAM" wieder in den Vordergrund rückt.
Ich kann mir beim besten Willen nicht vorstellen, dass Nvidia so dumm ist und ihre Flagschiffe mit weniger als 16GB VRAM antreten lässt.
Falls doch... was für Idioten. ;D
Geld gibt es von mir erst bei ab 16GB aufwärts und 50% Mehrleistung.
Fragman
2020-07-03, 10:22:52
Falls doch... was für Idioten. ;D
Ich kenne bzw kannte einige die die dort arbeiten und kann Dir versichern, das sind keine Idioten. :rolleyes:
reaperrr
2020-07-03, 11:02:05
Die XBSX hat doppelt soviel Rechenleistung als die XBSX, aber nur 50% mehr schnelleren Speicher.
CPU-Leistung und wahrscheinlich auch für CPU bzw. OS, Streaming etc. benötigter RAM werden nicht groß sinken. Wenn wir durchschnittlich 4 GB dafür ansetzen bei beiden Modellen, kommen wir auf welchen Rest für VRAM?
Richtig, 12 GB bei der XSX und 4 GB bei der XSS.
Kommt also sehr wohl hin.
Selbst wenn die genaue Verteilung etwas weniger fest sein sollte: Der springende Punkt ist, du darfst bei der Rechnung nicht einfach ignorieren, dass einige GB nicht für die GPU zur Verfügung stehen, und prozentual wird das bei der XSS deutlich mehr RAM betreffen.
In Sachen VRAM wird die XSX immer mindestens doppelt so viel zu bieten haben.
Hmm schaut euch doch mal euren Vram Verbrauch an, ich komme mit meiner 3K, 21:9 Auflösung eigl nie wirklich in Limits..
Und was ist mit DX12 Ultimate und dem direkten Anzapfen der NVME über den PCIE Bus, käme z.b in der neuen UE dann zum tragen.
Falls diese Feature die neuen Karten können, ist das Thema gar nicht mehr so schlimm ;)
GPU Speicher ist teuer, NVME Speicher ist "relativ" günstig. ;)
Z.B
https://developer.nvidia.com/blog/gpudirect-storage/
Es wird damit der Vram Speicher entlastet, eventuell beim Streaming, somit müssen Daten nicht immer im Vram vorgehalten werden.
Die jetzige Speicherverbräuche sind so, dass man mit 6GB mit ach und krach hinkommt und bei WQHD schon oftmals zuwenig sind. Das bedeutet im Klartext, dass mit der neuen Konsolengeneration der VRAM-Verbrauch sehr gut über 8GB gehen kann (und wird). Vielleicht wird man anfangs mit 10GB klarkommen, das wird aber nicht lange vorhalten. Und wiedermal, wiedermal wird vergessen, dass der VRAM (also der Anteil im physischen Speicher) sich bei den neuen Konsolen mehr als verdoppelt. NVME hin oder her. Ich frag mich, wie man auf diese strange Idee kommen kann, dass das auf dem PC mit wenig Speicher schon gut gehen wird, das ist lächerlich. Erst recht auf dem PC werden die Speicherverbräuche hochgehen.
Korinthenkack:
3. Generation in Folge mit derselben Speichermenge oder 2. Generation in Folge mit derselben Speichermenge
... denn den letzten erheblichen Sprung gab es von Maxwell auf Pascal.
Pascal -> Turing -> Ampere
3 Generationen
Die einzige Karte, die wenigstens etwas gewinnen wird ist die 3080. Der Rest bleibt so nach bisherigem Stand.
Der Kritikpunkt ist aber folgender:
8GB für 600€ -> 3070 (WQHD)
10GB für >800€ -> 3080 (UHD)
11GB für >1300€ -> 3080Ti (UHD)
Das ist unverantwortlich, das auch nur ansatzweise als Käufer ernst zu nehmen. Das ist schon fast ein Fall für den Verbraucherschutz.
Und ich fürchte damit erschöpft sich das nicht. Ich seh schon die 3060 mit 6GB anrücken für 400 Steine.
Und das mit aufkeimender RT-Unterstützung. Das ist grotesk!
Fragman
2020-07-03, 11:12:31
HOT,
klar, wir sind hier im Spekuforum, aber du stellst alles immer als in Stein gegossen hin, ohne irgendwelche Links oder was auch immer beizubringen, die das stützen.
Auf der anderen Seite haben wir heute Testcases mit Hard und Software, die das was du behauptest, nicht wirklich stützen (Turing + RT oder UE5 mit 10GB Speicher). Leider wird darauf von Dir nicht Bezug genommen, stattdessen folgt ein rantpost dem anderen.
Wir reden hier übrigens über 10,12 und auch 24GB zu erwartendem Speicher und nicht über 6 oder 8.
Troyan
2020-07-03, 11:12:59
4GB für das System sind es bestimmt nicht. Ich rechne eher mit 2GB während des spielens.
Davon losgelöst, hat sich bei nVidia von der GTX780TI zur GTX1080TI der Speicher 3,6x erhöht, wohingehend er bei den neuen Konsolen sich eher verdoppelt (Xbox OX zu SX) bzw. 2,6x bei PS ansteigt.
Und unter 400€ gibt es bei nVidia heute 4x mehr Speicher (GTX670 -> RTX2060S). Heißt also, wo man vor sieben Jahren eine PS4 für 399€ mit 8GB bekam, bekommt man bald eine PS5 mit 16GB oder eben eine 2060S mit 8GB VRAM. Der Abstand zwischen PC und NextGen Konsolen ist heute deutlich geringer als vor sieben Jahren.
Leonidas
2020-07-03, 11:21:43
Sorry @ HOT, ich habe es falsch geschrieben, so war es gemeint:
3. Generation in Folge mit derselben Speichermenge oder 2. Generation in Folge ohne Speichererhöhung
Alex1973
2020-07-03, 11:40:11
[QUOTE=Leonidas;12354826] ...kack:
denn den letzten erheblichen Sprung gab es von Maxwell auf Pascal.
Sehe ich auch so. Seit Pascal ist Stillstand. Ich habe eine Pascal (GTX 1060 6GB), und das wohl noch eine ganze Weile. Ich werde erst aufrüsten wegen einer Menge vram, weil das das ist, was ich die ganze Zeit haben will. Seit Jahren warte ich schon vergeblich auf mehr vram(Sabber).
Ich gebs einfach auf, es gibt einfach zu viele hier, die die 10GB verteidigen, obwohl das offensichtlich absurd ist. Kauft eure 10GB für 800€ und seht dann nächstes aber spätestens übernächstes Jahr Matschtexturen und Ruckeleien oder stellt RT ab, weil es aufgrund des Speichermangels nicht gut läuft, ist mir egal. Aber ich finds nach wie vor unverantwortlich diese Politik zu rechtfertigen.
Fragman
2020-07-03, 11:47:33
Ich gebs einfach auf, es gibt einfach zu viele hier, die die 10GB verteidigen, obwohl das offensichtlich absurd ist. Kauft eure 10GB für 800€ und seht dann nächstes Jahr Matschtexturen und Ruckeleien aufgrund des Speichermangels, ist mir egal. Aber ich finds nach wie vor unverantwortlich diese Politik zu rechtfertigen.
Hier wird versucht zu erklären, weshalb wir vielleicht nicht mehr brauchen. In Bezug auf das, was wir aktuell wissen von heutiger Tech und zukünftiger in Form der Konsolen und next gen Spieletrailern.
Von Dir kommt kommt leider nichts, außer weiteren rants und Beleidigungen.
Cubitus
2020-07-03, 11:53:25
Die jetzige Speicherverbräuche sind so, dass man mit 6GB mit ach und krach hinkommt und bei WQHD schon oftmals zuwenig sind. Das bedeutet im Klartext, dass mit der neuen Konsolengeneration der VRAM-Verbrauch sehr gut über 8GB gehen kann (und wird). Vielleicht wird man anfangs mit 10GB klarkommen, das wird aber nicht lange vorhalten. Und wiedermal, wiedermal wird vergessen, dass der VRAM (also der Anteil im physischen Speicher) sich bei den neuen Konsolen mehr als verdoppelt. NVME hin oder her. Ich frag mich, wie man auf diese strange Idee kommen kann, dass das auf dem PC mit wenig Speicher schon gut gehen wird, das ist lächerlich. Erst recht auf dem PC werden die Speicherverbräuche hochgehen.
So krass sehe ich es nicht, okay ja du hast bei den Konsolen 16GB Ram,
das ist aber Vram und Systemspeicher in einem..
Wie viel dann letztendlich alleine für die Grafik übrigbleibt kommt noch auf.
Sicher ist es auf einer Konsole einfacher Spiele zu optimieren.
Das ist aber nichts neues, es kommt eben drauf an wie gut eventuelle Ports werden.. Oder wie das Speichermanagement mit DX12 Ultimate optimiert wird.
Sofern es ein Bottleneck bei Vram geben sollte, stünde immer noch die Möglichkeit im Raum eine Titan zu kaufen :freak:
Ich bin mir aber fast sicher das es in der kommenden Genration nicht nötig sein wird, massiv viel Vram zu verbauen.
Dural
2020-07-03, 11:55:13
Die Diskussion ist eh Sinnlos
Als Alternative stehen 16, 20 und 24GB im Raum, 95% der User wären aber nicht bereit dafür mehr zu bezahlen, das hat die Vergangenheit mehr als eindrücklich gezeigt.
Dazu hätte man ja auch noch etwas mehr Stromverbrauch...
pixeljetstream
2020-07-03, 11:58:39
Mhh, ich habe ja noch nie eine Spiel - bzw Graphik API etc. aus der nähe gesehen, aber ich kann mir da keinen Reim drauf machen. Gegenbeispiel:
Ich schaue in einem Spiel nach Osten. Ich sehe den Sonnenaufgang über einem Weinberg. Richtung Norden steht eine steinerne Burg, Richtung Süden einige Häuser aus Holz.
Wenn ich mich nun nach rechts drehe, sehe ich die Häuser.
Drehe ich mich hingegen nach links, steht dort die Burg.
Damit es nicht zu ruckeln/nachladen kommt, muss die GPU, in dem Moment wo ich nach Osten schaue, bereits die Daten sowohl fuer die Burg als auch fuer die Häuser im VRAM haben. Aber: die GPU muss nie in der Lage sein, beides gleichzeitig zu lesen, sondern nur eins von beidem. Also kann man mehr Speicher zu Nutze machen, als man bei der anvisierten Framerate lesen kann.
Dem widerspreche ich nicht. Siehe
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12354681#post12354681
Es geht mir darum, dass der Bedarf an vram nicht einfach so steigt, er ist im Verhältnis zu sehen was man effektiv damit machen kann. Sagen wir man kann 8GB verarbeiten pro frame, in den meisten Fällen, ist das was man wirklich anfasst ja darunter, das heißt der Rest fungiert schon so als Cache. Die 8GB alles einzigartig ist ja ein theoretischer worst-case.
Da teleportieren eher selten ist, hast du immer nen Schwung Frames zu reagieren. Man braucht auch nicht die höchsten Details der texturen/modelle die noch weit entfernt sind etc.
Wenn manche hier also behaupten, der Detailgrad wird sich exorbitant steigern und dadurch der vram bedarf erhöhen, so ist dem durch die Bandbreite eine natürliche Grenze gesetzt.
Es gibt ja jetzt auch Karten mit 24 und 48 GB, aber das Klientel was die nutzt ist halt eher in niedrigen frameraten unterwegs.
Palpatin
2020-07-03, 11:58:53
Davon losgelöst, hat sich bei nVidia von der GTX780TI zur GTX1080TI der Speicher 3,6x erhöht, wohingehend er bei den neuen Konsolen sich eher verdoppelt (Xbox OX zu SX) bzw. 2,6x bei PS ansteigt.
Von einer bereits im Feb 2013 erschienen GeForce GTX Titan ausgehend hat sich der Speicher zur 2080TI grad mal um den Faktor 1,85 erhöt.
Cubitus
2020-07-03, 11:59:29
Die Diskussion ist eh Sinnlos
Als Alternative stehen 16, 20 und 24GB im Raum, 95% der User wären aber nicht bereit dafür mehr zu bezahlen, das hat die Vergangenheit mehr als eindrücklich gezeigt.
Soll Nvidia 16GB liefern,
welche dann lausig mit 15,5 GB angebunden werden ;D
Hier wird versucht zu erklären, weshalb wir vielleicht nicht mehr brauchen. In Bezug auf das, was wir aktuell wissen von heutiger Tech und zukünftiger in Form der Konsolen und next gen Spieletrailern.
Von Dir kommt kommt leider nichts, außer weiteren rants und Beleidigungen.
Hier wird versucht mir zu erklären, warum wir vieleicht nicht mehr brauchen. Du hast damit genau das beantwortet, was ich die ganze Zeit kritisiere.
Und ich muss ja schon etwas drasdischer werden um etwas Nachdruck hinzubekommen, sonst herrscht da einfach weiter Lethagie.
Aber es ist doch so: Die bist bereit eine 800€-Investition zu begehen mit einer ungewissen Zukunft, ob man diese Karte mit der Speichermenge ernsthaft mehr als 1 Jahr sinnvoll betreiben kann? (sinnvoll für 800€ sind keine Kompromisse in UHD, dass wir uns da richtig verstehen!)
Alex1973
2020-07-03, 12:00:22
[QUOTE=Dural;12354972]Die Diskussion ist eh Sinnlos
Als Alternative stehen 16, 20 und 24GB im Raum, 95% der User wären aber nicht bereit dafür mehr zu bezahlen, das hat die Vergangenheit mehr als eindrücklich gezeigt.
Bei den Preisen wären 24 GB für die Mehrheit die Kauf-Rechtfertigung überhaupt.
Warum zahle ich 1000er , ach so wegen 24 GB vram ist das schon ok.
Troyan
2020-07-03, 12:04:13
Von einer bereits im Feb 2013 erschienen GeForce GTX Titan ausgehend hat sich der Speicher zur 2080TI grad mal um den Faktor 1,85 erhöt.
Die Karte hat 999€ gekostet. Gut, für heutige Verhältnisse ein Schnäppchen, aber du könntest auch heute eine Titan mit 24GB kaufen. ;)
Cubitus
2020-07-03, 12:06:11
Die Karte hat 999€. Gut, für heutige Verhältnisse ein Schnäppchen, aber du könntest auch heute eine Titan mit 24GB kaufen. ;)
Damals als eine Titan noch 1000 Euro kostete und man sich auch noch zwei von den Dingern gönnen konnte, dass waren noch Zeiten .. Lang ists her :tongue:
Troyan
AMD bietet seit Ende 2013 8GB mit Hawaii relativ preiswert an. Eine 2080 Super bietet ebenfalls 8GB für knapp 800 €. Extrembeispiele kann ich auch suchen.
Troyan
2020-07-03, 12:10:43
Die 290X hatte 4GB. 8GB gab erst in Serie mit dem Rebrand.
Alex1973
2020-07-03, 12:12:48
Damals als eine Titan noch 1000 Euro kostete und man sich auch noch zwei von den Dingern gönnen konnte, dass waren noch Zeiten .. Lang ists her :tongue:
Kauf dir für diese 2000 Euro lieber 4 mal xbox und schalte sie parallel, dann hättest du 32 zen 2 Kerne, 64 GB vram und 48 Graka Teraflops Rechenleistung plus 120 Gigarays.:biggrin:
Für so was würdest bei PC Hardware 20 000 zahlen. :biggrin:
Ich wäre auch für 1000er mit 16 Zen 2, 32 GB vram und 24 Teraflops einverstanden.(Man darf doch ein wenig träumen)
dargo
2020-07-03, 12:20:27
Soll Nvidia 16GB liefern...
Immer noch nicht verstanden, dass die Speichermenge vom SI abhängig ist?
Troyan
2020-07-03, 12:24:47
Echt? Wie schafft dann Microsoft 16GB bei der SX mit 320bit?
pixeljetstream
2020-07-03, 12:25:51
Kauf dir für diese 2000 Euro lieber 4 mal xbox und schalte sie parallel, dann hättest du 32 zen 2 Kerne, 64 GB vram und 48 Graka Teraflops Rechenleistung plus 120 Gigarays.
Für so was würdest bei PC Hardware 20 000 zahlen. :biggrin:
Weil es aber keine offene Platform ist, kannst du die Hardware Leistung leider so nicht nutzen. Zum Release ist die Konsole immer die deutlich bessere hardware für's geld (gab ja auch die ps3 Linux Cluster Mal kurz). Sonst wäre das fail imo. Beim PC müssen halt N Hersteller von jeder Komponente was verdienen, und man bezahlt letztendlich halt für die Freiheit die Hardware nutzen zu können wie man will.
dargo
2020-07-03, 12:29:22
Echt? Wie schafft dann Microsoft 16GB bei der SX mit 320bit?
:facepalm:
Das Thema war Ampere @Gaming mit 16GB. Mit einem Custom-Konsolendesign um die Ecke zu kommen ist reichlich dämlich.
w0mbat
2020-07-03, 12:30:40
Die 290X hatte 4GB. 8GB gab erst in Serie mit dem Rebrand.
Es gab 8GB 290X Karten. Aber die waren eher teuer :freak:
Nazar
2020-07-03, 12:30:57
Die Diskussion ist eh Sinnlos
Als Alternative stehen 16, 20 und 24GB im Raum, 95% der User wären aber nicht bereit dafür mehr zu bezahlen, das hat die Vergangenheit mehr als eindrücklich gezeigt.
Dazu hätte man ja auch noch etwas mehr Stromverbrauch...
Es gab eine 2080 TI mit 16 GB VRAM? Wir reden doch noch über High End? :confused:
Eine 2080 Ti hatte 1499€ und mehr gekostet und das mit läppischen 11GB VRAM. Also wer war nicht bereit für mehr VRAM mehr zu bezahlen? :freak:
Weshalb wird auch ständig behauptet, dass +8 GB VRAM eine GK so viele teurer machen müsste, wenn diese Mondpreise schon für lächerliche 11GB VRAM eingefordert und bezahlt wurden?
Nvidia diktiert die Preise und nicht der VRAM!
Hier geht es eindeutig um den Kostenfaktor, die Marge für Hersteller und nicht um die tatsächlichen Kosten, bzw. Kundenwünsche.
Die letzten GPU Beschleuniger waren/sind allesamt überteuert. Die Marge für Nvidia ist enorm.
Eines steht aber fest, der Kunde bestimmt was er kauft, auch wenn der Hersteller, Nvidia mit seiner Marktmacht, vorgibt "was der Kunde zu wünschen hat" und kaufen muss, wenn er die beste Leistung haben möchte. :wink:
Ich kenne bzw kannte einige die die dort arbeiten und kann Dir versichern, das sind keine Idioten. :rolleyes:
Sagt dir
if
then
else
etwas?
Wenn ja; was soll deine künstliche Angepisstheit?
Wenn nein; lesen, verstehen und schweigen!
Hier kommt der Erklärbär:
Nvidia ist eine Firma und keine Person!
Du kennst also die Personen die verantwortlich sind, wenn es doch keine 16GB VRAM gibt? Sind es exakt diese? Passt denen der Schuh? Nein. So what?
Einfach mal pissig sein for nothing? Gratulation, du hast es geschafft. :up:
MiamiNice
2020-07-03, 12:39:36
Ich hätte nie gedacht das wir uns hier so anfeinden wegen VRAM. Da tun sich ja richtig fundamentalistische Abgründe auf :wink: Auf beiden Seiten.
Mega das Streitthema, tut mir leid das initiiert zu haben.
Cubitus
2020-07-03, 13:33:11
Immer noch nicht verstanden, dass die Speichermenge vom SI abhängig ist?
Mein Post war als Witz gedacht, die 16 GB waren obligatorisch..
Sweepi
2020-07-03, 14:20:51
@pixeljetstream
Liest sich für mich schlüssig, danke :)
Wenn manche hier also behaupten, der Detailgrad wird sich exorbitant steigern und dadurch der vram bedarf erhöhen, so ist dem durch die Bandbreite eine natürliche Grenze gesetzt.
Digidi
2020-07-03, 15:41:07
Ampere soll wohl doch in Samsungs 8nm kommen:
https://www.pcgameshardware.de/Nvidia-Ampere-Grafikkarte-276295/News/Geforce-RTX-3000-Ampere-in-8-nm-bei-Samsung-1353479/
Dazu würden auch die 630mm² Chipfläche passen. Wenn AMD 7nm und 500mm²hat.
Das werden diesmal zwei ziemlich nahe Chips geben.
Edgecrusher86
2020-07-04, 12:40:55
Also GP107 in Form der GTX 1050 Ti und 1050 (3,3 Mrd. Transistoren auf 132mm2) wurde ja per Samsung 14LPP gefertigt und wies um die 25 Mio. Transistoren/mm2 auf [etwas mehr als er TSMC 16FF+/N12 - bis auf Ausnahme GP102 mit ~ 25,48 Mio/mm2].
https://abload.de/img/1wzjgs.jpg
Laut dieser Tabelle von AnandTech sollte die Packdichte für 8LPP um 40% höher ausfallen, als mit 14LPP. Auf der Basis eines kleinen Chips wäre man dann wohl grob bei 35 Mio/mm2 für 8LPP.
Da GA102 aber mit geschätzt 630mm2 deutlich größer wird, darf man da sicher noch eine um etwas höhere Packdichte erwarten - eventuell bis zu 37 Mio./mm2 - ins Blaue geraten.
Ein GA102 dürfte somit grob 22 - 23 Mrd. Transistoren aufweisen. Bei um die 40 Mio./mm2 hätte man grob 25. Mrd. Transistoren, aber das wäre dann wohl etwas viel des Guten und circa N7 Stand 2019 bei AMD Vega 20 / Navi 10 entsprechen [Vega 20 liegt bei ~ 40 Mio./mm2 und N10 kommt auf ~ 41 Mio./mm2].
15-20% mehr Packdichte sollte man doch von TSMC mehr erwarten als mit Samsung 8LPP oder?
Die Packdichte sollte es mit dem verbesserten TSMC Prozess glaube nicht weiter erhöhen, aber in Anbetracht, dass der Chip ja auf grob 505mm2 geschätzt wird, sollten es hier vielleicht um die 43-44 Mio./mm2 sein - somit wäre AMD auch bei grob 21 bis 22 Mrd. Transistoren - also in etwa ein Patt gegenüber NV.
Es bleibt hier aber die Frage, ob das Transistor-Budget für RT auch bei grob 10% des Chips liegt wie man bei TU schätzt für die TC & RT Cores.
Ravenhearth
2020-07-04, 15:02:38
Also wenn ich von der Tabelle ausgehe, sehe ich bei 8LPP 40% area reduction, das bedeutet im Umkehrschluss eine zwei Drittel höhere Packdichte! Demnach also mindestens 40 Mrd/mm².
Die Packdichte von Navi10 ist für 7nm auch extrem niedrig, Renoir kommt auf fast 63 Mrd/mm². Bei RDNA2 könnte ich mir da einen ordentlichen Anstieg vorstellen. Die Series X könnte da einen ersten Hinweis drauf geben, trotz 56 physisch vorhandener CUs und zusätzlichen Features ist der Chip nur ca. 350mm² groß, und das enthält ja auch den CPU-Teil, also ist die GPU wohl unter 300mm². Also maximal 20% größter als Navi10 trotz 40% mehr CUs, Raytracing usw.
Edgecrusher86
2020-07-04, 15:42:56
Achso, also 2/3 mehr an Packdichte für 8LPP zu 14LPP -> dann wären es ausgehend von 25 Mio/mm2 für GP107 deren 41,75 Mio/mm2 und beim großen Chip vll. nochmal 1-2 Mio. dazu.
Dann wäre man wohl doch eher grob bei 25 - 27 Mrd. Transistoren bei 630mm2.
Also wenn den gesamten Project Scarlett Chip (https://www.techpowerup.com/gpu-specs/xbox-series-x-gpu.c3482) nimmt [14,75 Mrd. Transistoren bei 360mm2 -> 41,75 Mio. pro mm2 auf den gesamten Chip gemittelt], dürfte die GPU trotz RT nur 11-12 Mrd. Transistoren schwer sein, also RT bei AMD quasi keine Chipfläche kosten - auf einen ähnlichen Wert käme man ja sicherlich auch bei N10 @ 56CUs. Der Rest für die CPU inkl. I/O (ein Zen 2 Chiplet ist 74mm2 groß bei 51 Mio. Transistoren pro mm2 - 3,8 Mrd. total; I/O ja bekanntlich separat in 12nm - 2,09 Mrd. bei 125mm2 - also nur 16,72 Mio./mm2).
Sweepi
2020-07-04, 15:44:38
0.7 * 0.9 = 0.63
25 / 0.63 = 39.7
Vergleich:
Navi10 hat 41.0
GV100 hat 25.9
GA102 hat 24.7
Polaris hat 24.6
TU117 hat 23.5
[Alle Zahlen von https://www.techpowerup.com/gpu-specs/]
Ravenhearth
2020-07-04, 15:57:29
Nur 11-12 Mrd. für die GPU der Series X erscheinen mir etwas wenig. Die Differenz zwischen Navi10 und Navi14 liegt bspw. bei 16 CUs und 3,9 Mrd. Transistoren. Wenn man die 16 CUs und 3,9 Mrd. auf Navi10 draufschlägt, käme man bei den 56CUs heraus, allerdings bei 14,2 Mrd. Transistoren. Wie kann da der ganze Chip auf 14,75 Mrd. kommen? Okay, anscheinend liegt die offizielle Angabe etwas höher bei 15,3 Mrd., aber das ist trotzdem noch sehr wenig. Könnte es sein, dass AMD bei RDNA2 es geschafft hat, die Zahl der benötigten Transistoren sogar noch stark zu reduzieren? Auf einer der Folien stand unter dem Punkt "Logic Enhancement" auch "Reduce Complexity and Switching Power". So wäre es auch möglich, in nur moderat größerer Chipfläche als bei Navi10 deutlich mehr Einheiten unterzubringen. Nicht mehr Packdichte wie ich erst dachte, sondern weniger Transistoren.
Um den Bogen zu Ampere zu schlagen; im Endeffekt könnten Ampere und RDNA2 eine ähnliche Dichte erreichen, trotz 8nm bei Ampere. Könnte aber auch sein, dass Nvidia die maximal mögliche Dichte nicht ausreizt, ähnlich wie AMD bei 7nm.
Edgecrusher86
2020-07-04, 16:18:35
0.7 * 0.9 = 0.63
25 / 0.63 = 39.7
Ah, mein Fehler - Danke! ;)
Das würde wohl Sinn ergeben, wenn N2x weniger komplex wäre, denn für den Rest des SoC muss man sicherlich auch mit um die 3 Mrd. Transistoren rechnen.
Unter 12 Mrd. dürfte die GPU sicher nicht liegen. Falls man hier nur bei grob 300mm2 wäre, könnte N21 (+68% DIE-Size @ 505mm2) unter der Annahme, dass er nur eine dickere Version der Scarlett GPU wäre, eigentlich auch mehr als 80CUs beherbergen - z.B. 84-90.
Ja, bis jetzt hat NV ja eigentlich immer eine geringe Dichte gefahren als AMD, was sicherlich auch etwas den oftmals höheren Taktraten zu Gute kam und kommt.
Dann würde es aus NVs Sicht bestimmt Sinn machen, gleich den Vollausbau von GA102 zu Release zu bringen. Sinnig wäre es natürlich auch, wenn man innerhalb 10% dran wäre -
was ja unter Umständen auch mit 80CUs und ähnlichen Taktraten der Fall sein könnte. Bei RT dürfte NV deutlicher führen, aber mit einem Plus an Einheiten könnte AMD Turing unter Umständen schlagen. Mal schauen.
Hoffentlich gibt es die kommenden Tage und Wochen noch mehr Leaks. :D
Troyan
2020-07-04, 16:56:39
Die Series X hat ~43 MTORs/mm^2. Ist also kaum besser als Navi bei 50% mehr Transistoren.
BlacKi
2020-07-04, 17:04:45
Dazu würden auch die 630mm² Chipfläche passen. Wenn AMD 7nm und 500mm²hat.
Das werden diesmal zwei ziemlich nahe Chips geben.
wenn du dlss mit reinnimmst wegen den tensorcores, dann ist der unterschied imens. wenn du die tensorcores von den 627mm2 abziehst und dlss rausnimmst, dann siehst du den wahren unterschied zwischen nv und amd.
Nazar
2020-07-04, 17:31:55
wenn du dlss mit reinnimmst wegen den tensorcores, dann ist der unterschied imens. wenn du die tensorcores von den 627mm2 abziehst und dlss rausnimmst, dann siehst du den wahren unterschied zwischen nv und amd.
Der da wäre? :confused:
x-force
2020-07-04, 17:47:50
warum redet man jetzt auf einmal über samsumg fertigung?
das thema war im dezember aktuell, bis 90% der leute hier auf fakenews reingefallen sind. dabei war samsung für ampere niemals "in gefahr"
das war von anfang an klar.
sie denken die milchleistung ihrer kuh noch weiter steigern zu können, d.h. die architektur ist so überlegen, daß sie mit einem schlechteren und billigerem prozess am ende trotzdem vorne sind.
wie viel schlechter samsung ist, sah man schon an den pascal varianten die von samsung kamen.
BlacKi
2020-07-04, 18:05:29
Der da wäre? :confused:
ca. 350mm² 8nm vs 500mm² 7nm? ungefähr 30% lead?
rentex
2020-07-04, 18:59:46
Das Ampere bei Samsung gefertigt wird, müsste ja schon relativ Früh in der Entwicklungsphase beschlossen worden sein. Warum kommt es denn überhaupt dann erst jetzt auf?
Sweepi
2020-07-04, 19:19:33
@Edgecrusher sehr gerne 👍
Kommt das Thema Samsung denn „jetzt auf“? Wird gefühlt schon seit ca nem Jahr drüber geredet.
Ex3cut3r
2020-07-04, 19:25:45
Wenn AMD und Nvidia im Preissegment ab 500€ nicht mindestens 12GB VRAM bieten, wird halt nix gekauft. Ganz einfach. Ich lass mich doch nicht wieder, wie damals zu Kepler Zeiten mit 2 oder 4GB VRAM verarschen. Für die PS4 Ports war man damit relativ schnell hoffnungslos am Arsch. Mit High/Ultra Texturen war da Sense.
rentex
2020-07-04, 19:46:36
@Edgecrusher sehr gerne 👍
Kommt das Thema Samsung denn „jetzt auf“? Wird gefühlt schon seit ca nem Jahr drüber geredet.
Ja, gerüchteweise. Scheint ja jetzt konkreter zu sein.
rentex
2020-07-04, 19:47:31
Wenn AMD und Nvidia im Preissegment ab 500€ nicht mindestens 12GB VRAM bieten, wird halt nix gekauft. Ganz einfach. Ich lass mich doch nicht wieder, wie damals zu Kepler Zeiten mit 2 oder 4GB VRAM verarschen. Für die PS4 Ports war man damit relativ schnell hoffnungslos am Arsch. Mit High/Ultra Texturen war da Sense.
Da sparst du dir aber lange die Kohle....
Nazar
2020-07-04, 20:27:56
ca. 350mm² 8nm vs 500mm² 7nm? ungefähr 30% lead?
Ah, danke. Bin aus deinem Satz erst nicht schlau geworden. So ergibt es Sinn. ;)
unl34shed
2020-07-04, 21:02:41
Ne eigentlich nicht, denn die Nvidia Karte hätte dann doch keine FP16 mehr, oder?
Auch glaube ich nicht, dass die Tensor Cores so viel Fläche fressen... 46% vom ganzen Chip sollen Tensor Cores sein?
Das hätte ich gerne mit Quellen belegt!
robbitop
2020-07-04, 21:20:02
Das ist sicherlich deutlich weniger. Das sind einfach nur Matritzen ALUs mit einem fancy Namen. Vieles der Mehrkosten in Transistoren der Turing SMs ggü Pascal verteilt sich auf:
- mehr Kontrolllogik (IPC Steigerung)
- deutlich mehr Cache (Datenlomalität)
- 64x Zusätzliche INT32 ALUs pro SM
- RT Cores
und natürlich auch die „Tensor Cores“
Ich würde tippen dass die TCs <10% ausmachen.
Linmoum
2020-07-04, 21:25:29
Wird das mit den TC jetzt zu demselben Märchen wie auch weiterhin mit den RT-Kernen, was den Flächenbedarf angeht?
unl34shed
2020-07-04, 21:26:30
200% der Fläche von Turing kommt von RT und Tensor Cores :freak:
SKYNET
2020-07-04, 21:52:10
200% der Fläche von Turing kommt von RT und Tensor Cores :freak:
ist das einzige was sie wirklich aufbohren müssen, weils da ordentlich laggt.
crux2005
2020-07-04, 22:05:18
Und dann entstehen Flaschenhälse irgendwo anders wovon wir nichts Ahnen.
BlacKi
2020-07-04, 22:38:25
Ich würde tippen dass die TCs <10% ausmachen.
ausgehend von gp102 besagt man, das der 12nm prozess ungefähr 15% die fläche einspart. jetzt hat tu102 20% mehr cuda cores. das sind 495mm²(obwohl das SI ja micht mit wächst). jetzt wissen wir das die RT cores etwa 10% brauchen, alles was übrig bleibt sind noch ca 27% mehr die fläche die den tensor cores zufallen.
wie würdet ihr die rechnung aufsetzen?
Sweepi
2020-07-04, 23:03:47
int32 alus? Da gabs ja nen riesen Sprung von Pascal zu Turing.
Der_Korken
2020-07-04, 23:12:37
ausgehend von gp102 besagt man, das der 12nm prozess ungefähr 15% die fläche einspart. jetzt hat tu102 20% mehr cuda cores. das sind 495mm²(obwohl das SI ja micht mit wächst). jetzt wissen wir das die RT cores etwa 10% brauchen, alles was übrig bleibt sind noch ca 27% mehr die fläche die den tensor cores zufallen.
wie würdet ihr die rechnung aufsetzen?
Hast du den Post von robbitop komplett gelesen? Da fallen keine 27% den Tensorcores zu, weil du in deiner Rechnung so tust als würde es
- mehr Kontrolllogik (IPC Steigerung)
- deutlich mehr Cache (Datenlomalität)
- 64x Zusätzliche INT32 ALUs pro SM
komplett kostenlos geben. N10 ist in 7nm ca. so groß wie P10 in 14nm und hat gerade mal 4 popelige CUs mehr. Daran sieht man, was Architekturverbesserungen an Transistoren verschlingen können.
wie würdet ihr die rechnung aufsetzen?
Garnicht. Da sind zuviele Unbekannten.
Falls aber die massive Cache Steigerung, wie in deiner Rechnung, nicht relevant ist, wäre ich dafür den zu verzehnfachen. :freak:
Rampage 2
2020-07-05, 01:12:31
Ich wüsste mal zu gerne, was GDDR6-Speicher so "sauteuer" macht - hier wird ja oft argumentiert, weil GDDR6 so teuer ist, wird mit der Speichermenge (2GB-Chips) geknausert - warum ist das so? Warum ist GDDR6 soviel teurer als GDDR5/X ?
R2
Die Frage ist IMHO eher, ob Nvidia bei Ampere auf die dekadent-verwöhnte ~60-Prozent-Marge verzichtet. Das würde höhere Verkäufe generieren und somit zumindest dem Umsatz nicht schaden, auch wenn die Anleger das gewiss nicht goutieren (die müsste man einfach mal erden). Um die Gewinne oben zu halten, muss das Profi-Gedöns eben noch teurer werden.
MfG
Raff
reaperrr
2020-07-05, 01:20:33
ausgehend von gp102 besagt man, das der 12nm prozess ungefähr 15% die fläche einspart.
Mein letzter Stand waren 3%...
Aber völlig unabhängig davon, ob es nun 3% oder 15% sind:
Der sinnvollste Vergleich bzw. die sinnvollste Gegenprüfung ist TU116 vs. GP104.
TU116 hat keine RT-Cores, statt TC nur noch simple FP16-ALUs, den Flächenvorteil von 12nm, und ist mit 289mm² trotzdem nur ~10% kleiner als GP104, obwohl der ein 33% breiteres SI, ein 33% breiteres Front- und Backend (4 vs. 3 GPCs, 64 vs. 48 ROPs) und satte 66,67% mehr SM hat.
Also selbst ohne RT und TC braucht Turing offensichtlich bereits ~40-50% mehr Fläche als Pascal für die gleiche Einheitenzahl.
Vergleichen wir jetzt noch TU116 mit TU106, hat TU116 2/3 von TU106 bei den SM und 3/4 bei ROPs/SI, sagen wir im Schnitt 70% der Einheiten von TU106. Die Fläche beträgt 64,4% von TU106.
Auch das ist zwar immer noch etwas Milchmädchenrechnung, da manche Sachen wie Display-I/O, Command Processor etc. gar nicht runterskalieren, trotzdem ein klarer Hinweis, dass RT und TC zusammen nur um die 10% bei Turing ausmachen.
Der Löwenanteil des Flächen-/Transistor-Anstiegs bei Turing kommt von den separaten INT-Einheiten nebst dazugehöriger zusätzlicher Kontrolllogik, sowie den deutlich vergrößerten L1- & L2-Caches.
Die Tensor- und RT-Cores machen zusammen vielleicht ~1/5 des Anstiegs (ggü. Pascal) bei den größeren Turings aus, evtl. sogar noch weniger.
BlacKi
2020-07-05, 02:09:58
Also selbst ohne RT und TC braucht Turing offensichtlich bereits ~40-50% mehr Fläche als Pascal für die gleiche Einheitenzahl.
bei nur 30% mehr performance. das wäre ein rückschritt.
siehe 1070 vs 1660 SUPER leichter vorteil für turing.
TheAntitheist
2020-07-05, 03:39:17
Die Frage ist IMHO eher, ob Nvidia bei Ampere auf die dekadent-verwöhnte ~60-Prozent-Marge verzichtet. Das würde höhere Verkäufe generieren und somit zumindest dem Umsatz nicht schaden, auch wenn die Anleger das gewiss nicht goutieren (die müsste man einfach mal erden). Um die Gewinne oben zu halten, muss das Profi-Gedöns eben noch teurer werden.
MfG
Raff
fakenews?
Bei einem Umsatz von 3,014 Milliarden US-Dollar hat Nvidia im dritten Quartal 2019 einen Gewinn von 899 Millionen
sind rund 30% Marge und wir wissen genau das die Profi Karten viel Profitabler sind... also bitte weniger quatsch
Leonidas
2020-07-05, 04:28:29
Ja, gerüchteweise. Scheint ja jetzt konkreter zu sein.
Eigentlich nicht. Kopite7kimi hatte es im Mai 2019 (Jahresangabe korrekt) so genannt, seitdem ist es ein Gerücht. Es wurde seinerzeit nur nie von den großen Seiten aufgegriffen.
Nun hat vor wenigen Tagen wiederum Kopite7kimi diesen Punkt noch einmal ausdrücklich bestätigt. Jetzt aber geht es durch alle Medien und sieht teilweise nach "neu" aus. Dabei ist rein praktisch nichts neues passiert. Die selbe Quelle hat ihr "altes" Gerücht nur noch einmal bekäftigt.
genervt
2020-07-05, 06:45:38
fakenews?
Bei einem Umsatz von 3,014 Milliarden US-Dollar hat Nvidia im dritten Quartal 2019 einen Gewinn von 899 Millionen
sind rund 30% Marge und wir wissen genau das die Profi Karten viel Profitabler sind... also bitte weniger quatsch
Marge und Gewinn sind nicht identisch.
rentex
2020-07-05, 07:54:03
Eigentlich nicht. Kopite7kimi hatte es im Mai 2019 (Jahresangabe korrekt) so genannt, seitdem ist es ein Gerücht. Es wurde seinerzeit nur nie von den großen Seiten aufgegriffen.
Nun hat vor wenigen Tagen wiederum Kopite7kimi diesen Punkt noch einmal ausdrücklich bestätigt. Jetzt aber geht es durch alle Medien und sieht teilweise nach "neu" aus. Dabei ist rein praktisch nichts neues passiert. Die selbe Quelle hat ihr "altes" Gerücht nur noch einmal bekäftigt.
Irgendwer müsste es ja mal leaken...betrifft ja zwei große Firmen.
Troyan
2020-07-05, 09:40:34
Die Frage ist IMHO eher, ob Nvidia bei Ampere auf die dekadent-verwöhnte ~60-Prozent-Marge verzichtet. Das würde höhere Verkäufe generieren und somit zumindest dem Umsatz nicht schaden, auch wenn die Anleger das gewiss nicht goutieren (die müsste man einfach mal erden). Um die Gewinne oben zu halten, muss das Profi-Gedöns eben noch teurer werden.
MfG
Raff
Wieso sollten die bei Gaming-Ampere darauf verzichten? Dann müsste der 7nm Prozess bei TSMC mehr als doppelte kosten als der 16nm.
mironicus
2020-07-05, 09:51:27
Sie müßten vor allem auf die Marge verzichten, wenn sie nicht mehr die Nr. 1 sind. Wenn NVidia sich selbst nur hervorheben kann mit einer Handvoll Titel im Jahr, die extra für ihre Hardware angepaßt werden muß, werden sie langfristig nur verlieren können.
rentex
2020-07-05, 10:20:53
Von was träumt ihr eigentlich? NV und auf Marge verzichten?! Man darf froh sein, wenn die Preise auf Turing Niveau bleiben....Investoren und Aktionäre wollen gerade jetzt, sichere Gewinne sehen.
Monsta
2020-07-05, 10:40:25
Von was träumt ihr eigentlich? NV und auf Marge verzichten?! Man darf froh sein, wenn die Preise auf Turing Niveau bleiben....Investoren und Aktionäre wollen gerade jetzt, sichere Gewinne sehen.
Dann sag ich mal Toi Toi Toi, in Zeiten von Corona und dem Release der neuen Konsolen sind die finanziellen Möglichkeiten sicher ein bisschen begrenzter als bei einem "normalen" Release.
Badesalz
2020-07-05, 10:41:07
Wenn NVidia sich selbst nur hervorheben kann mit einer Handvoll Titel im Jahr, die extra für ihre Hardware angepaßt werden muß, werden sie langfristig nur verlieren können.Das ist nicht und wird nicht die reale Situation sein. Fast alle Coder schauen wie es auf NV am besten läuft und dann wie es auf AMD noch vernünftig läuft.
Daß GCN(4) die Leistung hatte, sie aber nicht auf die Straße bringen konnte, lag ja nicht an GCN. Soviel Durchblick sollte man haben.
Bei den jeweiligen Marktanteilen möchte ich das auch nicht verteufeln, aber bei so manchen Ports oder wenn Leute halt bisschen unabhängiger coden sieht man das immer wieder mal durchschimmern.
Solange die Marktanteile also sind wie sie sind, braucht sich Nv um Anpassungen nicht soorgen. Andererseits sind sie bei dem Thema eh schon ewig relatv... agressiv. da denke ich wird so schnell nichts anbrennen. Auch wenn AMD mit RDNA einiges Richtung NV-Eigenheiten umgebaut hat.
rentex
2020-07-05, 10:50:14
Dann sag ich mal Toi Toi Toi, in Zeiten von Corona und dem Release der neuen Konsolen sind die finanziellen Möglichkeiten sicher ein bisschen begrenzter als bei einem "normalen" Release.
Das Thema hatte ich in einem anderen Forum schon.
Die Klientel, die sich vorher solche Grakas geleistet hat, wird sie sich auch weiterhin leisten können, da sie eben über die entsprechenden Mittel verfügen.
In einigen Bereichen werden die Auswirkungen der Corona Krise durchaus überschätzt.
Das ist nicht und wird nicht die reale Situation sein. Fast alle Coder schauen wie es auf NV am besten läuft und dann wie es auf AMD noch vernünftig läuft.
Daß GCN(4) die Leistung hatte, sie aber nicht auf die Straße bringen konnte, lag ja nicht an GCN. Soviel Durchblick sollte man haben.
Bei den jeweiligen Marktanteilen möchte ich das auch nicht verteufeln, aber bei so manchen Ports oder wenn Leute halt bisschen unabhängiger coden sieht man das immer wieder mal durchschimmern.
Solange die Marktanteile also sind wie sie sind, braucht sich Nv um Anpassungen nicht soorgen. Andererseits sind sie bei dem Thema eh schon ewig relatv... agressiv. da denke ich wird so schnell nichts anbrennen. Auch wenn AMD mit RDNA einiges Richtung NV-Eigenheiten umgebaut hat.
Das ist ein guter Punkt. Es ist durchaus interessant, dass die riesige Verbreitung von AMD-GPUs in den Konsolen die Machtverhältnisse nicht "automatisch" deutlich verschiebt. Da gibt's nur hier und da ein paar interessante Fälle (wie Forza Horizon 4, das bis Mitte 2019 auf GCN deutlich besser lief als auf jeder Geforce, bis Nvidia eine Handbremse via Treiber löste; oder RDR2, das bis heute ein AMD-Showcase ist). Vermutlich muss man das so sehen: Gäbe es die Konsolen nicht, würde sich angesichts der PC-Marktanteile kaum jemand um die Radeon-Performance scheren, schon gar nicht Nvidias beste Freunde bei Epic. Dadurch, dass AMD aber seit Jahren alle Konsolen "hat", passt alles.
MfG
Raff
dildo4u
2020-07-05, 11:05:02
Das sollte sich deutlich verschieben der große Nachteil für AMD war das sich Low Level am PC nur extrem langsam durchsetzt, erst RT in den Konsolen erzwingt eine Umstellung.
Ich meine Entwickler wie Ubisoft haben erst 2020 damit angefangen auf Vulkan umzustellen vermutlich weil sie eh Umsetzungen für Stadia bauen.
AMD hatte mit ihren Ressourcen niemals eine Chance gegen das Nvidia Treiber Team unter DX11, mit Low Level können sich jetzt die Entwickler damit rumschlagen.
MiamiNice
2020-07-05, 11:18:36
Warum sollte sich das jetzt ändern?
robbitop
2020-07-05, 11:28:10
ausgehend von gp102 besagt man, das der 12nm prozess ungefähr 15% die fläche einspart. jetzt hat tu102 20% mehr cuda cores. das sind 495mm²(obwohl das SI ja micht mit wächst). jetzt wissen wir das die RT cores etwa 10% brauchen, alles was übrig bleibt sind noch ca 27% mehr die fläche die den tensor cores zufallen.
wie würdet ihr die rechnung aufsetzen?
Die Packdichte von Turing und Pascal ist nahezu gleich.
Turing ist schon mehr als Pascal mit TC und RT.
Vergleiche lieber einen TU116 SM mit einem TU106/104/102 SM. TU116 hat weder RT noch TCs. Wie viel davon RT und TC ausmacht - mWn gibt es dazu keine Zahlen mit Substanz. Dafür aber die INT ALUs und den großen Cache und die bessere Kontrolllogik.
Die SMs nehmen auch nur einen Teil der GPU ein. Einfach die Die Size durch die Anzahl der SMs zu teilen ist zu oberflächlich. Man muss IMO aus die shots die Größe der SMs nehmen.
edit: reaperrr hat es ja schon beschrieben.
bei nur 30% mehr performance. das wäre ein rückschritt.
siehe 1070 vs 1660 SUPER leichter vorteil für turing.
Gesetz des abnehmenden Grenzertrags. Das ist leider völlig normal.
Die Problemgröße bei 3D Grafik ist leider begrenzt. Bedeutet, dass die stumpfe Skalierung von SMs abnehmenden Mehrwert hat. Genau deshalb hat man seit Maxwell die Steigerung der SMs gegen Takt- und IPC Steigerung eingetauscht. Und beides unterliegt eben leider stark dem Gesetz des anehmenden Grenzertrags.
——————
Dass Maxwell, Pascal, Volta, Turing aber auch RDNA so viel mehr Rohleistung holen als GCN liegt größtenteils daran, dass diese uArchs wesentlich mehr Kontrolllogik investiert haben. Aber auch mehr Datenlokalität.
Aus GCN kann man mit viel Aufwand auch ähnlich viel pro CU herausholen wie mit Pascal. Aber für letzteren braucht es wesentlich weniger Aufwand.
AMD hat bei RDNA nicht ohne Grund so viele Transistoren investiert um das zu ändern.
Dass durch Optimierung (siehe Konsolen) bei uArchs mit hohem theoretischen Durchsatz aber relativ wenig Kontrolllogik auch viel Endleistung herausgeolt werden kann ist nichts neues.
Wie es in der PC Landschaft aussieht haben AAA Engine Entwickler wie Alphatier (dice) und Coda (id) vor einigen Jahren ja mal hier im Forum kommentiert. NV offeriert deutlich weniger offene Doku über ihre uArch. Aber sie haben Herrschafen an Top Leuten, die das über den Treiber regeln. Idr wollen sie auch gern den Gamecode haben, um da schneller was machen zu können.
Allerdings gibt es bei NV ganz gute Tools für Spiele Entwickler um sich die Auslastung sehr genau anzuschauen für den jeweiligen Code anzuschauen, so dass sie selbst schon auch einiges iterieren können.
Was ich sagen will: Die effektive Performance bei den NV Karten kam in den letzten Jahren nicht primär über die Optimierung der Spiele sondern durch: Die HW selbst und das große NV Treiberteam.
pixeljetstream
2020-07-05, 12:08:12
Wie robbitop schreibt. Es ist nicht so einfach, einfach mehr von unit X und gut. Je moderner die Spiele desto unterschiedlichere Techniken die auch die HW anders belasten. Es ist eine fundamental andere Situation als vor 10 Jahren noch.
Ihr könnt selbst die profiling Tools der Hersteller nutzen und euch die Auslastung moderner Titel anzeigen.
Hier ein Bild aus der metro alpha glaube ich (also muss nicht mehr so sein), von der nsight docu. Ich hab das schon mehrfach in letzter Zeit verlinkt.
https://docs.nvidia.com/nsight-graphics/UserGuide/graphics/gpu_trace_tab_summary.png
Man sieht gut, das eine bottleneck über den ganzen frame gibt es nicht. Alles verteilt sich. Man macht dann Analysen welche Teile des Frames von welchen Änderungen profitieren etc.
Unsere Arbeit besteht darin per Experimente im Treiber, aber auch durch umprogrammieren (automatisch oder manuell) eines im Tool captured frame mehr Performance zu finden. Das Hardware Team macht mehr oder weniger das gleiche nur spielen die dann mit dem Simulator verschiedene gpu configs/fearures durch. Über Monate sucht man dann die Prozente hier und da, die dann letztendlich summiert die Verbesserungen ergeben.
Wie man an den Tools sieht ist heute NV auch offener geworden, der Rest den es nicht öffentlich gibt, kriegt man dann meist per NDA. Ich wage zu behaupten, dass man immer Leute braucht die Zusammenhänge erklären etc. von allen Herstellern.
Die Kommunikation mit den Entwicklern hat auch durch die dx12/vk APIs zugenommen.
Sony hat afaik die besten Tools für Entwickler, so dass NV hier dementsprechend investiert um es den Entwicklern auch leichter zu machen. Die Switch hat auch seinen Teil dazu beigetragen. Das alles ist ein kontinuierlicher Prozess.
Publisher gucken sich die install base for Hardware über alle Platformen an (haben ja ihr eigenes Datamining) und schätzen dann was für hw für Low/med/high Ziel ist. Die Entwickler optimieren bis zu einem wirtschaftlich vertretbaren Aufwand darauf hin. Je leichter das fällt desto besser für den Kunden der jeweiligen Platform (Sony, stadia,... alle mit eigenen Tools).
Sobald die Games gut laufen je nach Ziel. Sagen wir 970 wegen der Verbreitung halt wichtig für Low etc. ist im Grunde die Zeit um. Ob nun ein hw Hersteller bei Benchmarks 5% vorn ist, ist ja nicht Problem der sw Hersteller. Hauptsache die schaffen halt die 30 / 60 etc. die man so festlegt mit den Details. Da sie beim PC natürlich nicht unendlich hw Kombinationen testen können müssen halt paar Referenzen herhalten.
nordic_pegasus
2020-07-05, 12:52:30
Die Klientel, die sich vorher solche Grakas geleistet hat, wird sie sich auch weiterhin leisten können, da sie eben über die entsprechenden Mittel verfügen.
Sicherlich gibt es Fanboys, die aus Prinzip ihre bevorzugte Marke kaufen. Ich denke aber, dass viele aktuelle Nvidia High-End/Enthusiast Besitzer gekauft haben, weil sie eine Leistung haben wollten, welche AMD nicht liefern konnte.
Schau Dir doch den Wechsel bei den CPUs hin zu AMD an. Viele hatten vorher seit Jahren nur Intel im System, und zwar nicht, weil Blau so eine schöne Farbe ist, sondern weil man keine Alternative hatte.
Der hohe Marktanteil von Nvidia im Mainstream-Segment wird sicherlich damit zu tun haben, dass viele Leute die Marke kaufen, die ganz oben in den Benchmarks steht. Darum ist BigNavi als Halo-Produkt so wichtig. Wenn AMD hier vielleicht sogar mit der 3080Ti mithalten kann, wird sich das Blatt auf breiter Front ändern. Wenn AMD jetzt noch bei den Treibern bessert wird bzw. der Ruf der Treiber sicher ändert.
Ich hoffe ja ein wenig, dass sich Nvidia mit RT verzettelt und AMD diesmal in normalen Spielen zumindest Gleichstand wenn nicht sogar knapp vor GA102 landet. Nur damit der Wettbewerb wieder Leben erhält.
wolik
2020-07-05, 13:31:43
Ich hoffe ja ein wenig, dass sich Nvidia mit RT verzettelt und AMD diesmal in normalen Spielen zumindest Gleichstand wenn nicht sogar knapp vor GA102 landet. Nur damit der Wettbewerb wieder Leben erhält.
Falls ATI AMD eine Karte ohne RT aber +20% auf 3080Ti rausbringt, dann wechsele ich wieder :smile:
MiamiNice
2020-07-05, 13:51:23
Der GPU Markt läuft imo anders als der CPU Markt. NV ist Gaming, der Name NV ist derart eng mit Gaming verknüpft in den Köpfen der Leute, selbst bei einem Gleichstand würde kaum jemand eine AMD Gpu kaufen. Ein Gaming Rechner ohne NV Karte, ist ein Witz unter Gamern. NV hat nicht nur einen extrem guten Ruf, AMD wird auch verspottet, sprich der Ruf ist im -Bereich.
Neben diesem Umstand wird es dieses Mal mit der RT Leistung von Amd knallen oder nicht. NV wird dafür sorgen das die RT Leistung in den Mittelpunkt bei den Gamern rückt.
Der Markt funktioniert leider anders. NV sitzt so fest im Sattel, AMD müsste sich erstmal wieder einen Namen machen über ein paar GPU Gens hinweg und zusätzlich die schnellste Karte liefern.
Sorry iphone Posts von unterwegs.
Ex3cut3r
2020-07-05, 13:53:18
Sicherlich gibt es Fanboys, die aus Prinzip ihre bevorzugte Marke kaufen. Ich denke aber, dass viele aktuelle Nvidia High-End/Enthusiast Besitzer gekauft haben, weil sie eine Leistung haben wollten, welche AMD nicht liefern konnte.
Schau Dir doch den Wechsel bei den CPUs hin zu AMD an. Viele hatten vorher seit Jahren nur Intel im System, und zwar nicht, weil Blau so eine schöne Farbe ist, sondern weil man keine Alternative hatte.
Der hohe Marktanteil von Nvidia im Mainstream-Segment wird sicherlich damit zu tun haben, dass viele Leute die Marke kaufen, die ganz oben in den Benchmarks steht. Darum ist BigNavi als Halo-Produkt so wichtig. Wenn AMD hier vielleicht sogar mit der 3080Ti mithalten kann, wird sich das Blatt auf breiter Front ändern. Wenn AMD jetzt noch bei den Treibern bessert wird bzw. der Ruf der Treiber sicher ändert.
Ich hoffe ja ein wenig, dass sich Nvidia mit RT verzettelt und AMD diesmal in normalen Spielen zumindest Gleichstand wenn nicht sogar knapp vor GA102 landet. Nur damit der Wettbewerb wieder Leben erhält.
Sehe ich auch so. Bin von Intel CPU (4770k) auf eine AMD CPU (3700X) gewechselt. Warum sollte ich den Sprung nicht auch bei einer GPU machen? Wenn AMD mehr VRAM bietet. Ziehe ich das sowieso ernsthaft in Erwähnung. Wieder 8GB in Aussicht mit den neuen Konsolen Ports sind einfach ein Witz. Das können Sie sich in den Arsch schieben.
=Floi=
2020-07-05, 13:57:04
wegen dem treiber.
CPU hat im grunde keinen relevanten treiber und bei der gpu geht es nur um den treiber.
Ex3cut3r
2020-07-05, 13:57:30
Sicherlich gibt es Fanboys, die aus Prinzip ihre bevorzugte Marke kaufen. Ich denke aber, dass viele aktuelle Nvidia High-End/Enthusiast Besitzer gekauft haben, weil sie eine Leistung haben wollten, welche AMD nicht liefern konnte.
Schau Dir doch den Wechsel bei den CPUs hin zu AMD an. Viele hatten vorher seit Jahren nur Intel im System, und zwar nicht, weil Blau so eine schöne Farbe ist, sondern weil man keine Alternative hatte.
Der hohe Marktanteil von Nvidia im Mainstream-Segment wird sicherlich damit zu tun haben, dass viele Leute die Marke kaufen, die ganz oben in den Benchmarks steht. Darum ist BigNavi als Halo-Produkt so wichtig. Wenn AMD hier vielleicht sogar mit der 3080Ti mithalten kann, wird sich das Blatt auf breiter Front ändern. Wenn AMD jetzt noch bei den Treibern bessert wird bzw. der Ruf der Treiber sicher ändert.
Ich hoffe ja ein wenig, dass sich Nvidia mit RT verzettelt und AMD diesmal in normalen Spielen zumindest Gleichstand wenn nicht sogar knapp vor GA102 landet. Nur damit der Wettbewerb wieder Leben erhält.
Sehe ich auch so. Bin von Intel CPU (4770k) auf eine AMD CPU (3700X) gewechselt. Warum sollte ich den Sprung nicht auch bei einer GPU machen? Wenn AMD mehr VRAM bietet. Ziehe ich das sowieso ernsthaft in Erwähnung. Ich upgrade doch nicht wieder 1,5 Jahre später nur wegen dem VRAM, auch wenn Nvidia das gerne hätte.
Geächteter
2020-07-05, 14:11:19
Der hohe Marktanteil von Nvidia im Mainstream-Segment wird sicherlich damit zu tun haben, dass viele Leute die Marke kaufen, die ganz oben in den Benchmarks steht.
Vielleicht auch noch die relativ guten Treiber über alle Anwendungen hinweg und der gute OpenGL-Support.
Das ist ja bei ATi/AMD eher "teilweise manchmal" mau und ohne Progress.
Sehe ich auch so. Bin von Intel CPU (4770k) auf eine AMD CPU (3700X) gewechselt. Warum sollte ich den Sprung nicht auch bei einer GPU machen? Wenn AMD mehr VRAM bietet. Ziehe ich das sowieso ernsthaft in Erwähnung. Ich upgrade doch nicht wieder 1,5 Jahre später nur wegen dem VRAM, auch wenn Nvidia das gerne hätte.
Da ja die meisten RTX-Features den VRAM-Bedarf gegenüber "normaler" Grafik anheben, wird Nvidia wohl die neuen Karten bedarfsgerecht ausstatten. Und dann hat man ja immer noch bisschen Reserve bei Games ohne RTX oder wenn man es ausschaltet und die Auflösung hochschraubt. Es sei denn, Nvidia erhebt jetzt die HD-Auflösung zum neuen Standard für High-End und der Rest regelt DLSS Superman. :freak:
rentex
2020-07-05, 14:41:15
Nun, ich bin kein großer NV Freund. Da ich aber Leistung, Energieeffizenz und guten Treibersupport haben möchte, bleibts wohl bei NV. Ich bin selber, CPU seitig von Intel auf AMD gewechselt, weil Ryzen diesmal absolut überzeugt hat und mit ZEN 2 einen sehr guten Job gemacht hat. Nur AMDs GPU Sparte ist eben nicht so überzeugend wie die CPU Abteilung und NV nicht Intel. Deshalb erwarte ich von BigNavi auch keine ernsthafte Konkurrenz zu Ampere.
RT und ganz besonders DLSS, sind für mich jetzt keine überragenden Errungenschaften. DLSS ist einfach nur ein Ausgleich für fehlende RT Performance, mangelndes optimieren von Spielen und technologische Resteverwertung.
Badesalz
2020-07-05, 14:43:19
Dadurch, dass AMD aber seit Jahren alle Konsolen "hat", passt alles.Geht so ;) Es passt halt genug.
AMD hatte mit ihren Ressourcen niemals eine Chance gegen das Nvidia Treiber Team unter DX11, mit Low Level können sich jetzt die Entwickler damit rumschlagen.Das Gerücht, daß NV mit dem Treiber irgendwo an DX11 rumhakt und damit einfach mehr draw calls hinbekommt als die brav nach Knigge gemachten AMD-Treiber, hält sich schon ewig. Ist das irgendwo mal nachgeweisen worden? Wo kam das eigentlich her?
Soweit persönlich aber nichts dagegen. Wer kanns der kanns :tongue:
Zweitens hatten wir das auch nicht nur als Gerücht schon eingie Male, daß sie Spieleoptimierungen in den Treiber einbauen und Leute dann kleinere Regressionen in der Shaderquali fanden. Da bn ich persönlich kein Freund von :mad:
("Wie sieht denn der Schnee da plötzlich aus?")
Sweepi
2020-07-05, 15:41:06
Die Frage ist IMHO eher, ob Nvidia bei Ampere auf die dekadent-verwöhnte ~60-Prozent-Marge verzichtet.
Marge != Gewinn, da mit der Marge ja auch die extremen Entwicklungskosten wieder reingeholt werden müssen.
Und weniger Marge heist nicht nur weniger Geld für die Aktionäre, sondern auch weniger Geld für R&D, außer AMD macht soviel Druck, dass nVidia die Ausschüttung senkt - bin sehr auf RDNA2 im Desktop gespannt.
wolik
2020-07-05, 21:57:17
Der GPU Markt läuft imo anders als der CPU Markt. NV ist Gaming, der Name NV ist derart eng mit Gaming verknüpft in den Köpfen der Leute, selbst bei einem Gleichstand würde kaum jemand eine AMD Gpu kaufen. Ein Gaming Rechner ohne NV Karte, ist ein Witz unter Gamern. NV hat nicht nur einen extrem guten Ruf, AMD wird auch verspottet, sprich der Ruf ist im -Bereich.
Neben diesem Umstand wird es dieses Mal mit der RT Leistung von Amd knallen oder nicht. NV wird dafür sorgen das die RT Leistung in den Mittelpunkt bei den Gamern rückt.
Der Markt funktioniert leider anders. NV sitzt so fest im Sattel, AMD müsste sich erstmal wieder einen Namen machen über ein paar GPU Gens hinweg und zusätzlich die schnellste Karte liefern.
Sorry iphone Posts von unterwegs.
Miami, das war vielleicht mal. Man hörte vor viele Jahren war bei Nvidia eine Team (300 Leute?) welche nur um Spielentwickler sich gekümmert haben. Physix, SLI beide sind so gut wie tod. Ich habe 4 Spiel PCs zu Hause (auch vier Spieler :). ). Auf zwei davon läuft AMD Karte. Weil es reicht für 1440p und ist auch gut.
Leider wird AMD sich auch "beirren" und auf RT Zug aufspringen (ich halte von RT nicht viel). Sonst ich kann gut in mein PC zwei "6900" AMD Karten vorstellen über Crossfire verbunden. Mit PCIe 4.0 das wäre auch kein Problem mehr.
@BiZiNiZz sry für OT.
Gipsel
2020-07-06, 07:42:10
Bitte mal die ganzen OT-Meta-Diskussionen etwas zurückfahren. Das Thema lautet immer noch Ampere.
Danke.
Sonyfreak
2020-07-06, 08:46:57
wegen dem treiber. CPU hat im grunde keinen relevanten treiber und bei der gpu geht es nur um den treiber.Ich glaube auch, dass die guten Treiber einen wesentlichen Beitrag zum positiven Image der Nvidia-Karten (https://www.3dcenter.org/news/umfrage-auswertung-gab-es-mit-der-aktuellen-grafikkarte-im-letzten-jahr-ein-groesseres-treiber-) beitragen.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70732
Wenn Nvidia aber nicht spurt und bei Ampere wieder nur 8GB-Karten raushaut, bin ich aber auch geneigt zu wechseln. Gerade die aufgebohrten RT-Fähigkeiten schreien doch nach mehr VRAM.
mfg.
Sonyfreak
genervt
2020-07-06, 08:48:07
Das ist ein guter Punkt. Es ist durchaus interessant, dass die riesige Verbreitung von AMD-GPUs in den Konsolen die Machtverhältnisse nicht "automatisch" deutlich verschiebt. Da gibt's nur hier und da ein paar interessante Fälle (wie Forza Horizon 4, das bis Mitte 2019 auf GCN deutlich besser lief als auf jeder Geforce, bis Nvidia eine Handbremse via Treiber löste; oder RDR2, das bis heute ein AMD-Showcase ist). Vermutlich muss man das so sehen: Gäbe es die Konsolen nicht, würde sich angesichts der PC-Marktanteile kaum jemand um die Radeon-Performance scheren, schon gar nicht Nvidias beste Freunde bei Epic. Dadurch, dass AMD aber seit Jahren alle Konsolen "hat", passt alles.
MfG
Raff
Im Nachhinein schon interessant, dass die AMD-Macht bei den Konsolen nicht dazu geführt hat, dass Spiele mit GCN-Arch am PC besser als NV performen. Ich denke dazu sind evtl. die APIs dann doch zu verschieden.
Man muss Nv aber auch zu Gute halten, dass Sie über Jahre den Entwicklern deutlich besseren Support geboten haben und lange auch die Treiber besser waren. Das kommt also nicht von ungefähr.
Ich freue mich auf den Vergleich RDN2 gegen Ampere. Das dürfte die spannendste Gen seit vielen Jahren werden. Am Ende kann der Kunde nur gewinnen.
Ich habe mich ob der hohen Preise zuletzt ebenfalls dem Gebrauchtmarkt zugewandt.
Ich finde die Strategie von NV auf 8nm zu setzen durchaus nachvollziehbar. Die Chips werden einfach auch größer als bei AMD so wie es aussieht. Da können die geringeren Kosten des Prozesse dann schon entscheidend sein. Kein Verständnis jedoch für die Speicherkrüppel. Da ist es mir auch Wurscht, dass deren Chips bessere mit Bandbreite etc. umgehen. Wir kommen von 8 GB der nächste Schritt sind 16 Gb. Hallo AMD!: 16 GB für den Top-Dog pls.
Badesalz
2020-07-06, 09:14:00
Im Nachhinein schon interessant, dass die AMD-Macht bei den Konsolen nicht dazu geführt hat, dass Spiele mit GCN-Arch am PC besser als NV performen.Gleichwertig, wäre schonmal was gewesen ;)
Das mit dem "Support" verwundert mich immer wieder mal. Wohl dank meiner Unwissenheit. Wie alt mittlerweile sind die APIs? Da gabs und gibt es dauernd so viele Unklarheiten? =)
Digidi
2020-07-06, 09:32:25
Ich glaube auch, dass die guten Treiber einen wesentlichen Beitrag zum positiven Image der Nvidia-Karten (https://www.3dcenter.org/news/umfrage-auswertung-gab-es-mit-der-aktuellen-grafikkarte-im-letzten-jahr-ein-groesseres-treiber-) beitragen.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70732
Wenn Nvidia aber nicht spurt und bei Ampere wieder nur 8GB-Karten raushaut, bin ich aber auch geneigt zu wechseln. Gerade die aufgebohrten RT-Fähigkeiten schreien doch nach mehr VRAM.
mfg.
Sonyfreak
Ich halte das immer noch für einen Fake Umfrage. Ich habe eine Vega 64 und eine 2080 hier. Mit der 2080 hatte ich noch nie so viele Probelem. Bei Vega 64 hatte ich keinen einzigen Bluscreen und bei der 2080 andauernd.
Das ist schon die 3 2080 die ich geliefert bekommen habe und keine Besserung. Wohl gemerkt unterschiedliche hersteller. Scheint wohl kein Hardwarefehler zu sein. Steck ich die Vega 64 wieder rein läuft alles super.
Thunder99
2020-07-06, 09:45:44
Mainboard tippe ich.
Kollege hat mir der AMD Bluescreene, mit Nvidia GeForce nicht.
Erwarte von der 3080Ti mehr als was bisher so Gerüchte mäßig gehandelt wird. Das wäre sonst echt mau. :(
WedgeAntilles
2020-07-06, 10:46:30
Ich halte das immer noch für einen Fake Umfrage. Ich habe eine Vega 64 und eine 2080 hier. Mit der 2080 hatte ich noch nie so viele Probelem. Bei Vega 64 hatte ich keinen einzigen Bluscreen und bei der 2080 andauernd.
Das ist schon die 3 2080 die ich geliefert bekommen habe und keine Besserung. Wohl gemerkt unterschiedliche hersteller. Scheint wohl kein Hardwarefehler zu sein. Steck ich die Vega 64 wieder rein läuft alles super.
Genau, wenn die Umfrage nicht exakt DEINE Erfahrung widerspiegelt MUSS sie natürlich Fake sein. :rolleyes:
Die Umfragen (gibt ja auch in anderen Foren welche, bei Computerbase gab es das auch schon) zeigen:
Die absolute Wkeit, dass man mit AMD oder Nvidia Probleme hat ist eher gering.
Die Wkeit, dass man mit Nvidia Probleme hat, ist aber insgesamt geringer als mit AMD.
Da es wie gesagt auf niedrigem Niveau ist, ist auch eine statistisch signifikant höhere relative Wkeit kein Weltuntergang.
(Beispiel: Die Wahrscheinlichkeit in der Bahn getötet zu werden ist - auf den Kilometer gerechnet - ca. 50 mal geringer als mit dem Auto.
Anders ausgedrückt: Wenn ich mit dem Auto 1000km fahre, ist die Wkeit dass ich dabei sterbe ca. 50 mal höher, als wenn ich mit dem Zug 1000km fahre.
50 mal - das ist gigantisch. Nur: Die Wkeit mit dem Auto zu sterben ist trotzdem irre klein. Bei sehr niedrigen Wahrscheinlichkeiten spielt die relative Wahrscheinlichkeit untereinander keine wirklich entscheidende Rolle).
Bei GraKas ist die Wkeit jetzt natürlich nicht im 0,0000X Prozentbereich, sondern höher.
Dadurch hat Nvidia einfach eine etwas bessere Marktstellung als AMD.
Und kann sich bei Ampere auch einen kleinen Aufpreis gönnen.
Betonung: "KLEIN"
Die Speicherbestückung (kombiniert mit Preisen die sich an Turing anlehen) könnte hier tatsächlich zu eng sein.
Ich selber interessiere mich für die 3070 bzw. 3060.
Bisher hatte ich immer die "obere Mittelklasse" GraKas im Bereich 250-350 Euro.
(also 4200TI, 8800GTS, 970).
Wenn ich jetzt obere Mittelklasse will, bin ich bei Nvidia aber bei 600 Euro.
Das ist mir für ne GraKa alleine eigentlich zu viel.
Also tendiere ich dieses mal zu ner 3060.
Nur: Auch da werden ja wahrscheinlich 350-400 Euro aufgerufen.
Für 6GB Ram? Nein danke.
Verkauft die 3070 für 450 Euro und ich bin mit den 8GB von denen völlig zufrieden.
Verkauft die 3060 für 200 Euro und ich akzeptiere die 6GB.
Beide Preise halte ich aber für extrem unwahrscheinlich.
Ich bin daher gespannt, was AMD anbietet und halte es für durchaus realistisch, dass meine nächste GraKa das erste mal überhaupt eine von AMD wird.
Und sollte von AMD auch nichts kommen was viel attraktiver ist, bleibt die 970 halt noch 2 Jahre im Rechner bis es eine Refresh-Variante mit besserem Preis-Leistungs-Verhältnis wird.
Ich bin sehr gespannt, wie Nvidia die Ampere preislich positioniert.
pixeljetstream
2020-07-06, 11:06:30
Der Treiber enthält Code den ich geschrieben habe, damit sollte jede Diskussion über Qualität beendet sein :ugly:
r3ptil3
2020-07-06, 11:14:39
Ich halte das immer noch für einen Fake Umfrage. Ich habe eine Vega 64 und eine 2080 hier. Mit der 2080 hatte ich noch nie so viele Probelem. Bei Vega 64 hatte ich keinen einzigen Bluscreen und bei der 2080 andauernd.
Das ist schon die 3 2080 die ich geliefert bekommen habe und keine Besserung. Wohl gemerkt unterschiedliche hersteller. Scheint wohl kein Hardwarefehler zu sein. Steck ich die Vega 64 wieder rein läuft alles super.
Dann bist du ein Einzelfall.
Es ist allgemein bekannt (nur schon auf Reddit die Anzahl Threads anschauen), dass AMD eine deutlich schlechtere Treiberqualität hat.
Ich hatte in den letzten 6 Monaten:
1080 Ti
2080 Ti
5700 XT
5700
Was ich an Problemen mit den AMD Karten hatte, stand in keinem Verhältnis zu Nvidia:
- Stotterer trotz 100+ FPS (GTAV...)
- Ingame-Video Ruckler (BFV)
- Abstürze (nur vom Spiel)
- Resets der Treibereinstellungen (Adrenalin) nach einem Neustart ohne Absturz
- Instabilität auf Z490 Plattform (aktuell alle 1-3h plötzlich ein Bluescreen), haben bereits auch andere User im AMD Forum gemeldet
Mit einer Nvidia-Karte kannte ich solche Fehler erst gar nicht.
Alleine nur schon die verbratene Zeit mit Fehlersuche, würde einen Umstieg auf eine Nvidia-Karte rechtfertigen.
BlacKi
2020-07-06, 11:19:12
Ich selber interessiere mich für die 3070 bzw. 3060.
Bisher hatte ich immer die "obere Mittelklasse" GraKas im Bereich 250-350 Euro.
(also 4200TI, 8800GTS, 970).
Wenn ich jetzt obere Mittelklasse will, bin ich bei Nvidia aber bei 600 Euro.
Das ist mir für ne GraKa alleine eigentlich zu viel.
Also tendiere ich dieses mal zu ner 3060.
Nur: Auch da werden ja wahrscheinlich 350-400 Euro aufgerufen.
Für 6GB Ram? Nein danke.
Verkauft die 3070 für 450 Euro und ich bin mit den 8GB von denen völlig zufrieden.
Verkauft die 3060 für 200 Euro und ich akzeptiere die 6GB.
Beide Preise halte ich aber für extrem unwahrscheinlich.
Ich bin daher gespannt, was AMD anbietet und halte es für durchaus realistisch, dass meine nächste GraKa das erste mal überhaupt eine von AMD wird.
Ich bin sehr gespannt, wie Nvidia die Ampere preislich positioniert.
mich stört dass du das so nv zuschreibst. amd zieht da mit. ohne amds mitziehen könnte nv nicht die aktuellen preise verlangen. aber die müssen auch mitziehen.
die 5700xt wären früher auch nur eine 200€ karten gewesen. aber die zeiten sind vorbei. die herstellung und produktion ist teurer geworden, aber auch die entwicklung (R&D). ich glaube nicht, das die navi 10 karten günstiger werden und wenn die performance von einer 3080 mit einer navi 21 geschlagen wird, dann wird die karte auch das doppelte kosten von einer n10 karte.
also einen preiskampf durch das erscheinen von einer amd karte erwarte ich nicht.
w0mbat
2020-07-06, 11:34:59
Ne 5700 XT wäre keine 200€ Karte gewesen, aber eine 300€ Karte und nicht, wie jetzt, eine 400€ Karte.
Daredevil
2020-07-06, 11:41:50
Es ist allgemein bekannt (nur schon auf Reddit die Anzahl Threads anschauen), dass AMD eine deutlich schlechtere Treiberqualität hat.
Ich glaube nicht, dass AMD eine schlechtere Qualität perse hat, ich denke AMD ballert einfach zuviel Features in seinen Treiber und lässt den dann nur stiefmütterlich fixen, das ist doch das einzige Problem irgendwie.
Nvidia hat ein schlichtes UI und spärlich Funktionen.
AMD hat ein "modernes" UI und ist voll mit Funktionen.
Wenn man halt liefert mit Chill, AutoOC, AutoUV, Profilen, Overclocking ect., dann muss man schlicht auch diese Features ohne Probleme liefern und das schafft AMD tatsächlich seit Jahren nicht. Nvidia schon, weil die einfach nichts an dem Menu ändern.
Das Game Streaming und die App sind eine reine Katastrophe, aber sie sind halt da, bei Nvidia ist das ganze nicht existent.
Da muss dann jeder selber für sich entscheiden, will er ein stabiles Win2000, oder ein KlickBuntiFeatureundBug vollgepacktes WinXP. :D
Ex3cut3r
2020-07-06, 11:51:52
Der Treiber enthält Code den ich geschrieben habe, damit sollte jede Diskussion über Qualität beendet sein :ugly:
:biggrin: :up:
BigBangBacket
2020-07-06, 12:19:18
- Stotterer trotz 100+ FPS (GTAV...)
- Ingame-Video Ruckler (BFV)
Interessanterweise hatte ich diese Probleme schon vor 14 Jahren bei meiner letzten AMD Graka. Natürlich bei anderen Games. Einer der Gründe warum ich zu Nvidia gewechselt bin.
Damals hat es mich auch viele Nerven gekostet. Eigentlich war ich für Big Navi offen. Aber wenn ich schon wieder lese das die gleich Probleme wie damals noch existieren...naja...mal Preise abwarten.
NOCH bin ich für alles offen. Allerdings nicht unter 12GB.
WedgeAntilles
2020-07-06, 12:22:03
mich stört dass du das so nv zuschreibst. amd zieht da mit. ohne amds mitziehen könnte nv nicht die aktuellen preise verlangen. aber die müssen auch mitziehen.
die 5700xt wären früher auch nur eine 200€ karten gewesen. aber die zeiten sind vorbei. die herstellung und produktion ist teurer geworden, aber auch die entwicklung (R&D). ich glaube nicht, das die navi 10 karten günstiger werden und wenn die performance von einer 3080 mit einer navi 21 geschlagen wird, dann wird die karte auch das doppelte kosten von einer n10 karte.
also einen preiskampf durch das erscheinen von einer amd karte erwarte ich nicht.
Ja, die AMD Karten sind nur etwas günstiger als die Nvidia. 10%, 15%.
Daher ja auch meine Einschränkung ganz am Ende: Falls von AMD auch nix kommt kaufe ich halt gar nix.
Ich glaube nicht, dass AMD eine schlechtere Qualität perse hat, ich denke AMD ballert einfach zuviel Features in seinen Treiber und lässt den dann nur stiefmütterlich fixen, das ist doch das einzige Problem irgendwie.
Nvidia hat ein schlichtes UI und spärlich Funktionen.
AMD hat ein "modernes" UI und ist voll mit Funktionen.
Und ich glaube das ist es, was AMD (und auch viele AMD "Fans") nicht begreifen:
Der Großteil der User interessiert sich nicht für den Treiber und will mit dem nix zu tun haben..
Der will die Karte einbauen.
Den aktuellen offiziellen Treiber runterladen (irgend ein User vor ein paar Postings hat was von problemen bei den Beta-Treibern von Nvidia geschrieben - wen interessieren die Betatreiber? 90% der User nicht) und installieren.
Und das wars.
Der öffnet den Treiber nicht und schaut was er machen kann.
Der normale User installiert den Treiber und will danach seine GraKa "vergessen". Er startet das Spiel und dann soll es halt funktionieren.
Ich habe schon öfter erwähnt, dass ich das Gefühl habe AMD WILL gar nicht von der Mehrheit gekauft werden. Sondern AMD will etwas "besseres" sein und von der Elite gekauft werden.
Ich sehe mich selber als den oben beschriebenen "Idioten". Ich will das Ding einbauen und zocken.
Mir doch scheiß egal was der Treiber alles kann.
Habe da keinen Bock drauf.
Ich denke als Enthusiast und als Kenner tut man sich schwer, sich in einen Idioten wie mich reinzuversetzen.
Der Kenner WILL das System optimieren, hier was einstellen, da was schauen und so weiter. Und wenn es mal Probleme gibt ist das nicht so tragisch, er weiß ja wie man Abhilfe schaffen kann. Vielleicht findet er den Fehler nicht mal so schlimm, schließlich bastelt man ja gerne am System rum. (Quasi wie ein Ingenieur, der vor einem Problem steht und auch Spass daran hat eine Lösung zu finden.)
AMD wendet sich - so mein Gefühl - an diese Kenner.
Nvidia wendet sich an Idioten wie mich.
Prinzipiell ja auch völlig ok, nur sollte AMD halt bedenken, dass die große Mehrheit eher doof wie ich ist- und daher halt eher zu Nvidia greift und nur bei einem merklich günstigeren Preis-Leistungsverhältnis "notgedrungen" AMD kauft.
Ex3cut3r
2020-07-06, 12:28:25
Also Ingame Video Ruckler beim laden der SP Kampagne in BF5 hatte ich mit einer 2080 auch hier. Liegt nicht an der GPU oder Treiber, sondern daran dass das Spiel im Hintergrund Shader entpackt und in den RAM und VRAM lädt. :freak:
Wie man sofort darauf kommt. Dass es ein AMD Treiber Problem sein muss, erschließt sich mir nicht. Aber ey, das Problem sitzt auch häufig genug vor dem Bildschirm mit gefährlichen Halbwissen. ;)
Hakim
2020-07-06, 12:35:08
Egal ob man ein "Idiot" ist oder ein bastel Freund, wenn man schon soviel Geld für eine graka ausgibt sollte es schon stabil funzen, mal unoptimierte Spiele die schlecht Performanen außen vor.
Ich tendiere selber eher zu NV, hab aber einem Freund damals die 5700 empfohlen und der junge schlägt sich seitdem mit Black screens rum, wurde zwar ticken besser mit der Zeit ( haben auch alles mögliche versucht) aber weg war es nie ganz. Müsste den mal wieder fragen seit Monaten nicht mehr gesprochen
Edit: er schreibt das es inzwischen problemlos läuft. War aber wirklich eine schwere Geburt
r3ptil3
2020-07-06, 12:42:31
Also Ingame Video Ruckler beim laden der SP Kampagne in BF5 hatte ich mit einer 2080 auch hier. Liegt nicht an der GPU oder Treiber, sondern daran dass das Spiel im Hintergrund Shader entpackt und in den RAM und VRAM lädt. :freak:
Wie man sofort darauf kommt. Dass es ein AMD Treiber Problem sein muss, erschließt sich mir nicht. Aber ey, das Problem sitzt auch häufig genug vor dem Bildschirm mit gefährlichen Halbwissen. ;)
Ok, dann streich den Punkt weg - ändert sich was am Gesamtbild oder liegt das auch an meinem "Halbwissen"?
Sollte wohl von der Ignore-List gebrauch machen... Solch sympathische Leute, unglaublich. :)
Ex3cut3r
2020-07-06, 12:44:13
Nein, passt schon so. Sry, für den "Halbwissen" Satz.
...
Die Wkeit, ...
...relative Wkeit kein Weltuntergang.
Ein Betrag in einem Forum fällt unter WORM (Write Once, Read Many).
Jede Nutzung von Abkürzungen ist die Kretze und besonders neu erfundenen sind komplett absurd. Du hast dir vielleicht 3 Sekunden gespart bei deinem langen Text und verursachst bei jedem einzelnen Leser eine höhere Nachdenkzeit.
Edgecrusher86
2020-07-06, 12:45:24
Es sollte doch eigentlich gesetzt sein, dass eine RTX 3060 auch 8GB bekommen wird - macht doch mit Hinblick auf die 2060S gar keinen Sinn und es gäbe davon ab einen Aufschrei.
Ich tippe bei der RTX 3060 auf eine Konfig ala RTX 2070 - 38SM (2304SP), 256-bit, 8GB und 175W-215W PT. Damit dürfte man dann mit einer RTX2070S gleich ziehen (42SM - 2560SP).
Das Ganze dann wieder für $399 MSRP wie bei der 2060S.
Die RTX 3050 (Ti) dürfte dann wohl mit 28SM und 1792SP erscheinen als GTX 1660 Ti Nachfolger mit dann ebenso 192-bit SI und 6GB mit etwa 140W-175W PT für um die $299 MSRP.
Eine RTX 3070 mit 48SM - 3072SP, 256-bit und 8GB wird man wohl doch eher auf $499 MSRP bepreisen, da das die Obergrenze für viele Gamer darstellt. Damit man in die Nähe von TU102 kommt, muss der Chip in den Taktraten hochgeprügelt werden - 14 TF/s FP32 sollten es schon sein (2,3 GHz), um inkl. der zu erwartenden Verbesserungen Abseits RT in etwa bei der RTX 2080 Ti FE zu landen bei 250W PT.
Zu hohe Preise für Mainstream-Modelle zu verlangen wäre dann sicher doch recht schädlich für die Verkaufszahlen. Ab der RTX 3080 kann man das wohl ohne Probleme machen.
Also etwa $799 MSRP (~ 950€ inkl. MwSt.) ansetzen für einen Cut des GA102 oder einen neuen GA103 bringen und $699 dann für das Refreshmodell in 2021.
Betreffend möglicher Refreshes:
RTX 3090"S" / Ti - GA102 Full - 84SM - 5376SP - 352-bit mit schnelleren VRAM oder 384-bit, 12-22GB - $1199-1499 MSRP [in Abhängigkeit wie stark Big Navi ist und wieviel VRAM man bietet, könnte NV hier auch zum Beispiel ein Jahr nach einer möglichen TITAN eine Karte mit Vollausbau und bis zu 22GB VRAM bringen - dank schnelleren VRAM mit mehr Bandbreite als die RTX 3090 mit 384-bit SI]. 300-325W PT
RTX 3080"S" / Ti - GA102 Cut - 68SM - 4608SP - 320-bit SI und 10GB - 280-300W PT - $699 MSRP [352-bit SI und 11GB wäre auch eine Möglichkeit, aber fraglich, wenn eine 3090 nur 12GB und 384-bit bekommt]
RTX 3070"S" - "GA103 Cut [angenommen 60SM Full] oder GA102 Cut - 50 bis 56SM (3200-3584SP), 256-bit SI, 8GB - 260-275W PT - $499 MSRP [288-bit SI und 9GB wäre auch möglich - in Abhängigkeit eines 3080 Refreshes]
RTX 3060"S" - 40SM (2560SP), 256-bit, 8GB und 190-215W PT - $399 MSRP
RTX 3050 (Ti) "S" - 32SM (2048 SP), 192-bit, 6GB und 165-190W PT - $299 MSRP; alternativ statt mehr Einheiten, schnelleren VRAM verbauen und PT erhöhen.
Alles nur wilde Spekulation. :) Das PT dürfte auch bei den kleineren Karten anziehen, da DXR hinzu kommt.
Ex3cut3r
2020-07-06, 12:48:01
Sehr gute Ideen @ EdgeCrusher86
Ich denke auch, dass die RTX 3070 für 550€ hier sehen werden, RTX 2080Ti Leistung mit besserer RT Geschwindigkeit. Aber nur 8GB VRAM. Wird für viele schwierig werden sich zu entscheiden. ^^
Leonidas
2020-07-06, 12:57:14
Betreffend möglicher Refreshes
Ich glaube nicht, das man mit denen rechnen muß. Im Laufe des Jahres 2022 wird 5nm spruchreif, das ist zu weniger zeitlicher Platz für einen Refresh. Es sei denn, NV ärgert die Kostenlage von 5nm zu sehr und wartet daher ab, kann natürlich sein.
Aber Ampere vs. Navi 2X könnte die letzte Gen sein, wo NV noch mit zurückliegender Fertigung (8nm) gut herauskommt. Wenn AMD weiter mit RDNA nach vorn geht, braucht NV in Zukunft generell die gleichwertige Fertigung, wird also zum besten verfügbaren getrieben.
Edgecrusher86
2020-07-06, 13:04:35
Sehr gute Ideen @ EdgeCrusher86
Ich denke auch, dass die RTX 3070 für 550€ hier sehen werden, RTX 2080Ti Leistung mit besserer RT Geschwindigkeit. Aber nur 8GB VRAM. Wird für viele schwierig werden sich zu entscheiden. ^^
Sieht für mich so zumindest wie eine runde Sache aus. Sicherlich würde Huang hier gerne durch die Bank die MSRP um je $50-100 anheben,
aber zum Beispiel $499 für eine RTX 3060 wäre dann sicherlich doch etwas arg. Dann müsste eine kleinere 50er ja auch bei $349-399 liegen.
Das würde wohl bei der möglichen Käuferschicht oftmals zwei Überlegungen anstoßen: Eine ähnlich flotte, aber günstigere AMD Radeon oder gleich eine Konsole, ebenso mit AMD Chip, zu kaufen. :freak:
Ja, damit dann möglichst Viele zur deutlich teureren RTX 3080 greifen, um zumindest hier zweistellig aufgestellt zu sein - Jensen, der Fuchs - ein Geschäftsmann durch und durch.
Wer mehr als 8GB VRAM und NV will, zahlt dann halt quasi den Super-Plus-Aufschlag. :D
Ich glaube nicht, das man mit denen rechnen muß. Im Laufe des Jahres 2022 wird 5nm spruchreif, das ist zu weniger zeitlicher Platz für einen Refresh. Es sei denn, NV ärgert die Kostenlage von 5nm zu sehr und wartet daher ab, kann natürlich sein.
Aber Ampere vs. Navi 2X könnte die letzte Gen sein, wo NV noch mit zurückliegender Fertigung (8nm) gut herauskommt. Wenn AMD weiter mit RDNA nach vorn geht, braucht NV in Zukunft generell die gleichwertige Fertigung, wird also zum besten verfügbaren getrieben.
Ich hätte bei möglichen Refreshes weiterhin mit 8LPP gerechnet - entsprechend auch mit mehr PT, analog zur Turing-Super-Reihe.
Es ist doch im Grunde wenig Aufwand und man kann "etwas Neues" bringen mit im Mittel 10-15% Mehrleistung auf das jeweilige Basis-Modell. :)
WedgeAntilles
2020-07-06, 13:11:08
Ein Betrag in einem Forum fällt unter WORM (Write Once, Read Many).
Jede Nutzung von Abkürzungen ist die Kretze und besonders neu erfundenen sind komplett absurd. Du hast dir vielleicht 3 Sekunden gespart bei deinem langen Text und verursachst bei jedem einzelnen Leser eine höhere Nachdenkzeit.
Danke für den Hinweis (ist nicht ironisch gemeint)!
Sorry! Mein Prof hatte immer Wkeit verwendet und das ist mir so in Fleisch und Blut übergegangen, dass ich gar nicht mehr darüber nachdenke.
In Zukunft bemühe ich mich Wahrscheinlichkeit zu schreiben.
Puh glaube meine 1080GTX darf noch mal eine Ehrenrunde machen, wenn 3070 RTX nur 8GB hat.
Dabei braucht doch Rayt. mehr Speicher....
Ist auch wurscht gibt aktuell eh kein Spiel welches ein Grafikupgrade erfordert.
basix
2020-07-06, 13:33:38
Zu den 8 GByte:
Ich fände 8 GByte für den Gebrauch bei NextGen Spielen wirklich sehr grenzwertig. Aber gab es nicht mal Gerüchte zu einer neuen Art Speicherkompression im VRAM? Sogar über die Tensor Cores (was meiner Meinung nach keinen Sinn macht)? Sagen wir mal, dass Daten heute unkomprimiert im VRAM liegen und neu um 2x komprimiert werden können. Bei auslesen und schreiben des Speichers wird jeweils komprimiert und dekomprimiert. Das wäre ein schöner Boost bei Speichernutzung als auch Bandbreitennutzung. Aber irgendwie scheint mir das zu naheliegend, als dass man es nicht schon gemacht hat (für Texturen etc. macht man das ja schon lange).
Ex3cut3r
2020-07-06, 13:35:46
Sieht für mich so zumindest wie eine runde Sache aus. Sicherlich würde Huang hier gerne durch die Bank die MSRP um je $50-100 anheben,
aber zum Beispiel $499 für eine RTX 3060 wäre dann sicherlich doch etwas arg. Dann müsste eine kleinere 50er ja auch bei $349-399 liegen.
Das würde wohl bei der möglichen Käuferschicht oftmals zwei Überlegungen anstoßen: Eine ähnlich flotte, aber günstigere AMD Radeon oder gleich eine Konsole, ebenso mit AMD Chip, zu kaufen. :freak:
Ja, damit dann möglichst Viele zur deutlich teureren RTX 3080 greifen, um zumindest hier zweistellig aufgestellt zu sein - Jensen, der Fuchs - ein Geschäftsmann durch und durch.
Wer mehr als 8GB VRAM und NV will, zahlt dann halt quasi den Super-Plus-Aufschlag. :D
Genau so. 10GB für die 3080 aber ebend auch für 800€ - Der Fuchs der. :biggrin:
Denke viele werden zur 3070 für 550€ greifen. 8GB hin oder her.
Es sei denn, und jetzt kommt AMD ins Spiel, sie bieten für 500€ 3080 Leistung mit 12GB oder sogar noch mehr VRAM. :up:
Ich bin ehrlich, ich hatte keine AMD Karte mehr seit der X000 Reihe. Aber, das könnte eine für mich werden. Kommt aber auch von AMD wieder nur 8GB. Werde ich wahrscheinlich sogar meine 2080er behalten. Und diese Gen überspringen und dann in 2 Jahren mit hoffentlich 16GB in der 500-800€ Klasse zuschlagen.
Fragman
2020-07-06, 13:49:51
Genau so. 10GB für die 3080 aber ebend auch für 800€ :biggrin:
Denke viele werden zur 3070 für 550€ greifen. 8GB hin oder her.
Es sei denn, und jetzt kommt AMD ins Spiel, sie bieten für 500€ 3080 Leistung mit 12GB oder sogar noch mehr VRAM. :up:
Ich bin ehrlich, ich hatte keine AMD Karte mehr seit der X000 Reihe. Aber, das könnte eine für mich werden.
Aktuell bieten sie in den Konsolen 2080(?) Leistung für 500-600. Diese Preise sind natürlich für den Endkunden so nicht möglich, da er nur einen Chip kauft und nicht Millionen (:freak:). Wenn die Discounts so sind wie bei Software, sollten wir von AMD kein RDNA2 Chip in der Leistungsklasse unter 600€ erwarten. Bei nv kann man eigentlich von 500 ausgehen. Sollte AMD 10 GB bieten, wie auf den Konsolen, werden sie teurer werden oder sie verkaufen sich wieder unter Wert. Sollten sie auf den Frame genau konkurenzfähig sein wissen wir wie nv darauf reagieren wird, mit Preissenkungen.
Ach ja, Spekulationen sind was feines, man kann seinen Gedanken freien Lauf lassen. ;)
Edgecrusher86
2020-07-06, 13:53:10
Genau so. 10GB für die 3080 aber ebend auch für 800€ - Der Fuchs der. :biggrin:
Denke viele werden zur 3070 für 550€ greifen. 8GB hin oder her.
Es sei denn, und jetzt kommt AMD ins Spiel, sie bieten für 500€ 3080 Leistung mit 12GB oder sogar noch mehr VRAM. :up:
Ich bin ehrlich, ich hatte keine AMD Karte mehr seit der X000 Reihe. Aber, das könnte eine für mich werden. Kommt aber auch von AMD wieder nur 8GB. Werde ich wahrscheinlich sogar meine 2080er behalten. Und diese Gen überspringen und dann in 2 Jahren mit hoffentlich 16GB in der 500-800€ Klasse zuschlagen.
Und wie ich ihn kenne, wird er die RT-Leistung der RTX 3080 und 2080 Ti vergleichen - diese dann zum Beispiel up to 70% fps bringen und die Karte dann als Schnäppchen hinstellen. Soviel Mehrleistung, aber -400 MSRP zur 2080 Ti FE und sogar noch -200 MSRP zu den günstigsten 2080 Ti Modellen (auf dem Papier - in der Praxis hatte man auch durch die schlechte Verfügbarkeit oft bis zu 1400€ gesehen für die Blower-Modelle). :freak:
Ja, für AMD kann ich mir 56CU (3584SP), 384-bit und 12GB vorstellen für $499 MSRP als Konkurrent zur RTX 3070.
Ex3cut3r
2020-07-06, 13:55:07
Und wie ich ihn kenne, wird er die RT-Leistung der RTX 3080 und 2080 Ti vergleichen - diese dann zum Beispiel up to 70% fps bringen und die Karte dann als Schnäppchen hinstellen. Soviel Mehrleistung, aber -400 MSRP zur 2080 Ti FE und sogar noch -200 MSRP zu den günstigsten 2080 Ti Modellen (auf dem Papier - in der Praxis hatte man auch durch die schlechte Verfügbarkeit oft bis zu 1400€ gesehen für die Blower-Modelle). :freak:
HAHAHAHA 100% So.
Und der Satz: "The more you buy, the more you save". ;D ;D
XDpDesU_0zo
Edgecrusher86
2020-07-06, 14:05:48
HAHAHAHA 100% So.
Und der Satz: "The more you buy, the more you save". ;D ;D
https://youtu.be/XDpDesU_0zo
Haha.
Den Satz kann er dann für TITAN RTX "II" im NVLINK im Vergleich zu einer Quadro RTX 8000 oder 6000 Passive bringen, ja - in einer Anwendung, wo man den Treiber nicht bremste. :D
BlacKi
2020-07-06, 14:31:21
Und wie ich ihn kenne, wird er die RT-Leistung der RTX 3080 und 2080 Ti vergleichen - diese dann zum Beispiel up to 70% fps bringen und die Karte dann als Schnäppchen hinstellen. Soviel Mehrleistung, aber -400 MSRP zur 2080 Ti FE und sogar noch -200 MSRP zu den günstigsten 2080 Ti Modellen (auf dem Papier - in der Praxis hatte man auch durch die schlechte Verfügbarkeit oft bis zu 1400€ gesehen für die Blower-Modelle). :freak:
warum ist das lustig? natürlich stellt man seine größten improvements in den vordergrund. das ist einfach marketing.
WedgeAntilles
2020-07-06, 15:09:39
HAHAHAHA 100% So.
Und der Satz: "The more you buy, the more you save". ;D ;D
https://youtu.be/XDpDesU_0zo
"When you buy more, you save more. And when you save more, you can buy more. And when you buy more, you can save more. It all start when you BUY MORE"
TV Serie Chuck, Motto des Geschäfts "Buy More"
Edgecrusher86
2020-07-06, 15:17:00
warum ist das lustig? natürlich stellt man seine größten improvements in den vordergrund. das ist einfach marketing.
Früher kamen auch die 70er Modelle der Next Gen mehr VRAM als die 80er (inkl. Ti) zuvor. Heute könnte man das trotz Beschneidung zur RTX 2080 Ti als Schnapper verkaufen - darum. :wink:
MiamiNice
2020-07-06, 15:20:37
Jetzt ist es wirklich ziemlich affig hier im Thread :mad:
Alex1973
2020-07-06, 15:23:19
Puh glaube meine 1080GTX darf noch mal eine Ehrenrunde machen, wenn 3070 RTX nur 8GB hat.
Dabei braucht doch Rayt. mehr Speicher....
Ist auch wurscht gibt aktuell eh kein Spiel welches ein Grafikupgrade erfordert.
Ja da hast du absolut Recht. Zwar kommt bald die Ampere, aber die Spiele, die schnellere GPU und mehr Speicher brauchen lassen auf sich noch 2 vielleicht 3 Jahre warten. (siehe 3dcenter Artikel von heute). Wie gesagt, das ist eine exakte Einschätzung der Lage auf dem Markt.
Ampere Generation macht uns ja deutlich, dass wir im Moment ja gar nicht so viel vram brauchen.
Diese Strategie ist ja aber nicht ohne Risiko, weil dann man meinen könnte, dass Ampere gar nicht für nächste Generation der Spiele ist, sondern für die jetzigen Spiele optimiert ist, muss ich mir die dann überhaupt holen.
Man braucht eben nicht nur nicht mehr Speicher, sondern in den nächsten Jahren auch nicht wirklich die Leistung der Ampere.(niemand)
Alex1973
2020-07-06, 15:30:34
[QUOTE=Fragman;12357566]Aktuell bieten sie in den Konsolen 2080(?) Leistung für 500-600.
Wenn Konsolen 500 kosten, bieten sie Leistung zwischen 2080 super und ti für 250 Euro und nicht 500 (den Rest der Teile muss man weg rechnen).
WedgeAntilles
2020-07-06, 15:32:48
Man braucht eben nicht nur nicht mehr Speicher, sondern in der nächsten Zeit auch nicht wirklich Ampere.(niemand)
Also "niemand" ist so natürlich quatsch.
Ich brauche für Cyberpunk auf jeden Fall ne neue GraKa, Alternativ wäre ein Versuch mit Geforce NOW.
Falls du es im Sinne von "ohne Ampere stirbt man auch nicht" meinst, hast du natürlich recht, aber das gilt ja für Hardware jegliche Art und ist somit eine recht nutzlose Aussage ;)
just4FunTA
2020-07-06, 15:33:15
Ja da hast du absolut Recht. Zwar kommt bald die Ampere, aber die Spiele, die schnellere GPU und mehr Speicher brauchen lassen auf sich noch 2 vielleicht 3 Jahre warten.
Wie gesagt, das ist eine exakte Einschätzung der Lage auf dem Markt.
Man braucht eben nicht nur nicht mehr Speicher, sondern in der nächsten Zeit auch nicht wirklich Ampere.(niemand)
hä, wie es braucht Niemand? Also ich habe eine GTX1080 und würde mich über eine stärkere Grafikkarte freuen. RTX ist zum Beispiel unspielbar in Battlefield 5 13fps beim Blick auf den Fluß in der Stadt. Aktuell spiele ich mit 1440p und ich hätte nichts dagegen wenn ich auf 4K wechseln könnte.. :)
TurricanM3
2020-07-06, 15:42:26
Ist auch mit 2080 Ti unspielbar funta. Hab RT einmal aktiviert und das eine halbe Min ausgehalten. Komplett unnütz das feature bei der Karte für mich.
Alex1973
2020-07-06, 15:45:59
hä, wie es braucht Niemand? Also ich habe eine GTX1080 und würde mich über eine stärkere Grafikkarte freuen. RTX ist zum Beispiel unspielbar in Battlefield 5 13fps beim Blick auf den Fluß in der Stadt. Aktuell spiele ich mit 1440p und ich hätte nichts dagegen wenn ich auf 4K wechseln könnte.. :)
Ja das hättest du schon mit Turing regeln können sollen;D
Ich meinte damit mehr die Spiele der nächsten Generation, die erst in 2 Jahren kommen werden und nicht die heutigen Spiele. Erst für die Spiele der nächsten Generation braucht man ja zwingent Ampere, wegen RT und einfach mehr Leistung und mehr vram.
Heutigen Spiele haben wir ja irgendwie auch mit alter Hardware gespielt, Spiele der kommenden Generation werden wohl nach allen Berichten überhaupt unspielbar werden.
Man kann natürlich sagen, ich will nun 8K spielen, und dann wird nicht mal mehr CS Go mit 1080 wirklich gut laufen. Es geht hier um die mehrheitlichen Tendenzen.
Ja da hast du absolut Recht. Zwar kommt bald die Ampere, aber die Spiele, die schnellere GPU und mehr Speicher brauchen lassen auf sich noch 2 vielleicht 3 Jahre warten. (siehe 3dcenter Artikel von heute). Wie gesagt, das ist eine exakte Einschätzung der Lage auf dem Markt.
Man braucht eben nicht nur nicht mehr Speicher, sondern in den nächsten Jahren auch nicht wirklich die Leistung der Ampere.(niemand)
Will nur nicht den gleichen "Fehler" zweimal machen, damals Geforce 680 geholt und dann nach einem Jahr kamen die ersten Spiele welche gerne mehr als 2GB Grafikspeicher haben wollten (Wegen Konsolen Generation Wechsel). Ja ich weiß gab auch eine 4GB Version...
Leistung war genug da nur Texturen durfte ich dann nur noch bei manchen Games auf Medium stellen.
Vielleicht gibts ja auch ein Ampere Refresh mit mehr Speicher...also Super.;D
Ist auch mit 2080 Ti unspielbar funta. Hab RT einmal aktiviert und das eine halbe Min ausgehalten. Komplett unnütz das feature bei der Karte für mich.
Und die große Spiele Offensive welche auf RT setzen, bleibt aus. Wird vielleicht das gleiche Spiel wie von DX11 zu DX12.
Klevapalis
2020-07-06, 19:28:59
Ich glaube auch, dass die guten Treiber einen wesentlichen Beitrag zum positiven Image der Nvidia-Karten (https://www.3dcenter.org/news/umfrage-auswertung-gab-es-mit-der-aktuellen-grafikkarte-im-letzten-jahr-ein-groesseres-treiber-) beitragen.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70732
Das ist eine der Baustellen. Der Rest ist seit Fermi ziemlich klar erkennbar:
Immer die HighEnd Karte (schnellste SingleGPU)
Reduzierung der Leistungsaufnahme
Verbesserung des Referenzmodells (Laustärke)
Betrieb des Chips möglichst nah am SweetSpot
Gerne alle Punkt in Kombination. Siehe GTX680. AMD war ein halbes Jahr früher dran mit der HD5000 Reihe, aber die GTX680 war schneller, leiser, kühler und hatte die niedrigere Leistungsaufnahme. Konsument merkt sich also: "Bei einem neuen AMD-Modell lieber mal warten, was NVIDIA bringt". Dann, mit Pascal und Turing, ist NVIDIA sogar früher am Markt als AMD. Was AMD hinterher bringt ist ziemlich mediocre, wenn überhaupt. Konsument merkt sich also: "Ich kann NVIDIA problemlos kaufen, AMD bringt später eh nichts besseres oder günstigeres". Es ist reine Konditionierung, aber: Dafür braucht man (auch) Marketing, aber Marketing alleine kann ein schlechtes Produkt nicht gut machen. Es braucht die Kombination aus Beidem.
Aber Ampere vs. Navi 2X könnte die letzte Gen sein, wo NV noch mit zurückliegender Fertigung (8nm) gut herauskommt. Wenn AMD weiter mit RDNA nach vorn geht, braucht NV in Zukunft generell die gleichwertige Fertigung, wird also zum besten verfügbaren getrieben.
Warum sollte NVIDIA keine Architekturverbesserungen hinkriegen? Das ist ziemlich unwahrscheinlich. Es wäre nicht verwunderlich, wenn man die Perf/Watt - Fertigungssprung außen vor gelassen - um 50% nach oben zieht.
Sweepi
2020-07-06, 19:47:25
AMD war ein halbes Jahr früher dran mit der HD5000 Reihe, aber die GTX680 war schneller, leiser, kühler und hatte die niedrigere Leistungsaufnahme.
Du meinst die HD7000 Reihe von AMD. (HD5000 gegen Nvidia GTX480 war AMD bei Performance/Watt in Spielen stark zu bevorzugen, und beim Bitcoin Mining Rush noch viel mehr! :D) Da bin ich immer noch interessiert, wann die Entscheidung von Nvidia fiel, Big Kepler (GK110) als Titan zu bringen und GK104 als GTX680...
Klevapalis
2020-07-06, 19:48:58
Stimmt, 7970 wäre der Counterpart, vertippt :)
Cubitus
2020-07-06, 20:05:14
Die Tensor Cores sind doch flexibel es muss ja nicht proprietäres RTX sein DX12U bietet ebenso Möglichkeiten.. RT allg. wird sich schon immer mehr durchsetzen.
Was AMD hinterher bringt ist ziemlich mediocre, wenn überhaupt. Konsument merkt sich also: "Ich kann NVIDIA problemlos kaufen, AMD bringt später eh nichts besseres oder günstigeres". Es ist reine Konditionierung, aber: Dafür braucht man (auch) Marketing, aber Marketing alleine kann ein schlechtes Produkt nicht gut machen. Es braucht die Kombination aus Beidem.
und ein gutes Treiber Team, welches NV zweifelsohne inne hat.. AMD liefert teilweise echt gute Ideen, siehe Sharpening und Nvidia machts im Endeffekt wesentlich besser und drückt seinen Stempel drauf..
robbitop
2020-07-06, 20:13:55
Letztenendes sind Verbesserungen immer dem Gesetz des sinkenden Grenzertrags unterlegen und AMD investiert immer mehr Zeit, Fokus und Geld in die GPU uArch und forciert nun auch die Execution (jedes Jahr eine neue RDNA Iteration gem Roadmap - also Execution wie bei Zen). Es ist nicht unwahrscheinlich, dass unter diesen Bedingungen der Abstand zumindest kontinuierlich verkürzt wird.
just4FunTA
2020-07-06, 21:18:17
Ja das hättest du schon mit Turing regeln können sollen;D
Ich meinte damit mehr die Spiele der nächsten Generation, die erst in 2 Jahren kommen werden und nicht die heutigen Spiele. Erst für die Spiele der nächsten Generation braucht man ja zwingent Ampere, wegen RT und einfach mehr Leistung und mehr vram.
Heutigen Spiele haben wir ja irgendwie auch mit alter Hardware gespielt, Spiele der kommenden Generation werden wohl nach allen Berichten überhaupt unspielbar werden.
Man kann natürlich sagen, ich will nun 8K spielen, und dann wird nicht mal mehr CS Go mit 1080 wirklich gut laufen. Es geht hier um die mehrheitlichen Tendenzen.
Ne turing hat kein hdmi 2.1 und ohne hdmi2.1 kein kauf von mir..
just4FunTA
2020-07-06, 21:19:03
Ist auch mit 2080 Ti unspielbar funta. Hab RT einmal aktiviert und das eine halbe Min ausgehalten. Komplett unnütz das feature bei der Karte für mich.
Uff das ist natürlich heftig.
Ex3cut3r
2020-07-06, 21:50:46
Er ist High FPS Gamer mit einen Titan RTX mittlerweile, für ihn sind 50 FPS in 1440p schon unspielbar. :freak:
Piefkee
2020-07-06, 21:55:24
Er ist High FPS Gamer mit einen Titan RTX mittlerweile, für ihn sind 50 FPS in 1440p schon unspielbar. :freak:
Aha ich zahle 1200€ für eine Grafikkarte und kann das Feature das im Produktnamen steckt nicht mal richtig nutzen... Sorry aber er hat recht, wenn man soviel Geld in die Hand nimmt muss das funktionieren und nicht nur in 1080p :freak:
Fragman
2020-07-06, 21:59:02
Aha ich zahle 1200€ für eine Grafikkarte und kann das Feature das im Produktnamen steckt nicht mal richtig nutzen... Sorry aber er hat recht, wenn man soviel Geld in die Hand nimmt muss das funktionieren und nicht nur in 1080p :freak:
Das ist natürlich Unsinn und das weißt Du auch. ;)
just4FunTA
2020-07-06, 22:17:19
Er ist High FPS Gamer mit einen Titan RTX mittlerweile, für ihn sind 50 FPS in 1440p schon unspielbar. :freak:
Das sehe ich aber auch so Battlefield macht mit über 100fps schon mehr spass und unter 60 ist online ein nogo dank tickrate60.
Piefkee
2020-07-06, 22:20:36
Das ist natürlich Unsinn und das weißt Du auch. ;)
Ist es wirklich so? Keine Frage das NV Nummer 1 ist aber was die mit RTX abgezogen haben finde ich einfach nicht gut. Wenn das Feature als gimmik vermarket wird ok aber so? Will nicht wissen wieviele turing nur wegen RTX gekauft haben... jetzt wenn Ampere kommt kannst du turing RTX vergessen
Fragman
2020-07-06, 22:28:26
Ist es wirklich so? Keine Frage das NV Nummer 1 ist aber was die mit RTX abgezogen haben finde ich einfach nicht gut. Wenn das Feature als gimmik vermarket wird ok aber so? Will nicht wissen wieviele turing nur wegen RTX gekauft haben... jetzt wenn Ampere kommt kannst du turing RTX vergessen
Also erstmal hat man Turing der Rohleistung wegen gekauft, RTX war und ist ein Gimmick, der Unterstützung wegen. Wird bei Ampere nicht anders sein. Andererseits macht RT schon eine Menge her, DAS Kaufargument ist es aber (noch) nicht. War keine neue Tech, man nimmt das immer mit aber hauptsächlich gehts doch um die Rohleistung.
Klevapalis
2020-07-06, 22:50:08
AMD investiert immer mehr Zeit, Fokus und Geld in die GPU uArch und forciert nun auch die Execution (jedes Jahr eine neue RDNA Iteration gem Roadmap - also Execution wie bei Zen). Es ist nicht unwahrscheinlich, dass unter diesen Bedingungen der Abstand zumindest kontinuierlich verkürzt wird.
Vielleicht sollte AMD erstmal liefern, bevor man Powerpoint-Versprechen zum Fakt macht? Polaris sollte auch 2,5x P/W liefern, daher weiß ich auch nicht, warum man die 50% für RDNA2 für bare Münze hält.
Einen festen Zyklus bieten zu wollen hat übrigens auch Intel das Genick gebrochen. Viel wichtiger als ein fester Zyklus wäre "when it's done" und vor allem "when it's good".
Überhastet Zeug auf den Markt werfen macht AMD doch schon genug bei GPUs. Wie war das mit dem running gag der Primitive Shader bei Vega? Und dem angeblichen Wundertreiber? Und dann wundert man sich, warum die Leute lieber NVIDIA kaufen, als Bananenware :ugly:
Ach ja, sorry, heißt bei AMD ja nicht "Bananenware" wenn der Treiber unfertig zum Launch ist, sondern "fine wine" :tongue:
Linmoum
2020-07-06, 23:08:53
Vielleicht sollte AMD erstmal liefern, bevor man Powerpoint-Versprechen zum Fakt macht?
Haben sie bereits mit RDNA. Nvidia wird mit Ampere nachlegen und AMD mit RDNA2, wer die Nase dann vorne hat wird man sehen, nachdem Turing und RDNA rohleistungsnormiert bereits ein identisches Niveau haben.
Ich bleibe dabei, vorausgesetzt die spekulierten 80CU respektive 84SM beider Chips stimmen, dass man sich irgendwo bei +-10% abseits von Raytracing bewegen wird. Dann entscheiden Speicherausstattung und Preis. Gegebenenfalls noch Raytracing, aber darüber zu spekulieren ist aktuell völlig sinnlos. Weder weiß man etwas über AMDs erstmalige Implementierung, noch darüber, wie sehr Ampere gegenüber Turing zulegen wird. Da ist alles möglich.
Polaris sollte auch 2,5x P/W liefern, daher weiß ich auch nicht, warum man die 50% für RDNA2 für bare Münze hält.Warum noch auf Uralt-Polaris rumreiten, wenn man Navi aus dem letzten Jahr hat? AMD gab +50% Perf/Watt an, das übertrifft eine 5700XT gegenüber einer Vega64 sogar noch um ein gutes Stück (+63% laut CB-Index).
Liegt also auf der Hand. Davon ab ist das vorhandene Potential deutlich größer als bei Nvidia, was weitere bzw. größere Perf/Watt-Steigerungen angeht. Wie immer eben, wenn du von weiter unten kommst.
Gipsel
2020-07-06, 23:55:04
Ich möchte einmal vorsichtshalber erwähnen, daß hier irgendwelche AMD vs. nVidia Grabenkriege möglichst zu vermeiden sind.
TheAntitheist
2020-07-07, 00:27:18
Davon ab ist das vorhandene Potential deutlich größer als bei Nvidia, was weitere bzw. größere Perf/Watt-Steigerungen angeht. Wie immer eben, wenn du von weiter unten kommst.
Nein, da Nvidia von 12nm auf 7/8 bla geht, AMD aber bei 7nm bleibt und noch keine RT cores oder Tensorcores verbaut hat.
X-Bow
2020-07-07, 01:15:09
Also erstmal hat man Turing der Rohleistung wegen gekauft, RTX war und ist ein Gimmick, der Unterstützung wegen. Wird bei Ampere nicht anders sein. Andererseits macht RT schon eine Menge her, DAS Kaufargument ist es aber (noch) nicht. War keine neue Tech, man nimmt das immer mit aber hauptsächlich gehts doch um die Rohleistung.
Dir ist schon aufgefallen das nV das altbewährte GTX extra in RTX für Raytracing umbenannt hat. Das war nicht als "Gimmick" gedacht. Den Raytraicingfail in Touring schön zu reden grenzt an Fan gequatsche. Raytraicing gab es mit Touring weg den Profikarten, nicht wegen den Gamern.
Linmoum
2020-07-07, 01:24:40
Nein, da Nvidia von 12nm auf 7/8 bla geht, AMD aber bei 7nm bleibtWas ist das denn für ein pauschaler Unsinn?
Oder hat Nvidia damals mit Maxwell in Wahrheit einen geheimen Prozess genutzt? Nach deiner Logik war es ja unmöglich, mit denselben 28nm wie zuvor schon mit Kepler einen solch gewaltigen Sprung bei der Effizienz hinzulegen, wie ihn Nvidia vollzogen hatte.
Daredevil
2020-07-07, 01:29:30
Ich frage mich, wie viele von denen hier, die behaupten RTX sei ein Gimmick oder "komplett unspielbar", denn mal ne Runde auf der 2080ti+ mit Raytracing gespielt haben? :- )
Ich habe sehr viel Freude gehabt bei "Deliver us the Moon", Control, Battlefield SP, und Tomb Raider, alles in High-WQHD bei 60-100fps.
Für 4K oder HighFPS reicht es in der Tat nicht, das muss aber auch nicht immer sein. Auflösung macht ein Spiel zwar potentiell hübsch, aber nicht besser.
Zudem.... Wie viele gescheite 4K 144hz Monitore gibt es nochmal? Also selbst wenn es möglich wäre, haben der Großteil der Nutzer eh nicht so einen Monitor auf dem Tisch und wenn das so ist, auch genug Geld für eine HighEnd RT Karte.
MiamiNice
2020-07-07, 01:33:50
Viele hier im Forum sind reine Online Gamer, da ist es schon sehr relevant. Abgesehen davon, ist es schon immer so gewesen das die erste Implentierung eines Features, eher ein Gimmick war und erst ab der 2. Gen ernst zu nehmen / brauchbar ist.
WQHD ist btw. auch keine Auflösung mehr die der typische TI / Titan Kunde fährt. Vielleicht vor 10 Jahren aber heute nicht mehr.
Von den Spielen in Deinem Post finde ich, z.b., nicht eines interessant. Wenn ich so was spielen würde, käme ich auch mit einer Konsole zurecht. Nur als Beispiel.
TheAntitheist
2020-07-07, 01:39:19
Was ist das denn für ein pauschaler Unsinn?
Oder hat Nvidia damals mit Maxwell in Wahrheit einen geheimen Prozess genutzt? Nach deiner Logik war es ja unmöglich, mit denselben 28nm wie zuvor schon mit Kepler einen solch gewaltigen Sprung bei der Effizienz hinzulegen, wie ihn Nvidia vollzogen hatte.
du hast behauptet dass das Potenzial für eine Steigerung bei AMD größer ist, ich habe dies damit widerlegt... du erzählst also Blödsinn.
Ex3cut3r
2020-07-07, 01:42:21
Ich frage mich, wie viele von denen hier, die behaupten RTX sei ein Gimmick oder "komplett unspielbar", denn mal ne Runde auf der 2080ti+ mit Raytracing gespielt haben? :- )
Ich habe sehr viel Freude gehabt bei "Deliver us the Moon", Control, Battlefield SP, und Tomb Raider, alles in High-WQHD bei 60-100fps.
Für 4K oder HighFPS reicht es in der Tat nicht, das muss aber auch nicht immer sein. Auflösung macht ein Spiel zwar potentiell hübsch, aber nicht besser.
Zudem.... Wie viele gescheite 4K 144hz Monitore gibt es nochmal? Also selbst wenn es möglich wäre, haben der Großteil der Nutzer eh nicht so einen Monitor auf dem Tisch und wenn das so ist, auch genug Geld für eine HighEnd RT Karte.
Kann ich nur zustimmen. Ich hatte mit Control, SOTTR, Metro Exodus mit RT viel mehr Spaß, mehr als ohne RT. Und spielbar was es für den SP @ 3440x1440 alle mal. Aber hey, ich brauche auch im SP keine besonders hohe Frameraten, mir reichen 40 FPS avg.
Daredevil
2020-07-07, 01:45:05
Viele hier im Forum sind reine Online Gamer, da ist es schon sehr relevant. Abgesehen davon, ist es schon immer so gewesen das die erste Implentierung eines Features, eher ein Gimmick war und erst ab der 2. Gen ernst zu nehmen / brauchbar ist.
WQHD ist btw. auch keine Auflösung mehr die der typische TI / Titan Kunde fährt. Vielleicht vor 10 Jahren aber heute nicht mehr.
Was hat den typische Titan Kunde denn? Der muss sich nämlich entscheiden, will er maximale Auflösung ( Lg Ultrafine 5k ) , maximale Refresh Rate ( fhd/wqhd 240hz+ ) oder maximale Bildqualität ( LG CX 48 ).
Alles in einem Paket gibt es nicht, oder kennst du so einen Titan Monitor? :)
Und selbst wenn, hat der typische Titan Kunde auch ohne RTX nicht immer 100fps+ in 4K, deswegen gibt es keine Titan 4K Auflösung, weil die Titan zu schwach ist.
MiamiNice
2020-07-07, 02:28:20
Deswegen hat man ja auch mehr als einen Bildschirm oder einen "guten" und skaliert halt. Aber das ist hier nicht das Thema. Ich mag nur sagen das ein TI / Titan Kunde i.d.R. keinen gemeinen standard Bildschrim vor sich hat. "Gemeiner standard" wäre aktuell, unter Gamer, WHQD. Auch wenn der Steam Survey aktuell was anderes suggeriert.
<--- fühlt sich als Titan Kunde angesprochen und hat 144hz UHD in Form eines Asus PG43UQ (und ein Simrig mit 7680x1600er Auflösung und eine HP Reverb G2 im Zulauf mit 2xUHD Displays)
Ich zocke das angesprochene Control übrigens mit RTX in UHD, allerdings inkl. DLSS von WQHd hoch. Ist doch auch ein RTX Feature?
Allerdings brauche ich auch nicht überall und immer 100 FPS. Aus dem Alter alles umzuballern, was nicht bei drei aufm Baum ist, bin ich raus. :-)
rentex
2020-07-07, 05:56:37
Deswegen hat man ja auch mehr als einen Bildschirm oder einen "guten" und skaliert halt. Aber das ist hier nicht das Thema. Ich mag nur sagen das ein TI / Titan Kunde i.d.R. keinen gemeinen standard Bildschrim vor sich hat. "Gemeiner standard" wäre aktuell, unter Gamer, WHQD. Auch wenn der Steam Survey aktuell was anderes suggeriert.
Quatsch. Kenne genug, die ne 2080Ti in WHQD betreiben. Das ist schlicht und einfach die performantere Auflösung über 1080p.
Sweepi
2020-07-07, 07:16:47
Kenne genug, die ne 2080Ti in WHQD betreiben
2080 Ti @ WWHQD *meld*
Ich habe sehr viel Freude gehabt bei "Deliver us the Moon", Control, Battlefield SP, und Tomb Raider, alles in High-WQHD bei 60-100fps.
Ja und nein. Ich hatte im BF Multiplayer ein ähnliches Gefühl wie Crysis 1 mit einer
7950 in 1280x1024
8800 in 1920x1200
-> so Geil! Aber ein wenig mehr Performance müsste schon sein :D
TobiWahnKenobi
2020-07-07, 07:17:49
Kann ich nur zustimmen. Ich hatte mit Control, SOTTR, Metro Exodus mit RT viel mehr Spaß, mehr als ohne RT. Und spielbar was es für den SP @ 3440x1440 alle mal. Aber hey, ich brauche auch im SP keine besonders hohe Frameraten, mir reichen 40 FPS avg.
hätte es keine neuen features und die passende software gegeben, wäre es bei mir die dritte gen geworden, die ich aus reiner gewohnheit kaufe und nach 2 wochen nicht weiter beachte.. ich glaube meine spielzeit am PC lag über das letzte jahr gemittelt und auf zwei systeme inkl. VR verteilt bei ca. 20-30 minuten im monat.. eher weniger.
bin gespannt, ob es neue anreize für mich geben wird oder ob der trend so weitergeht.
(..)
mfg
tobi
Fragman
2020-07-07, 08:26:49
Raytraicing gab es mit Touring weg den Profikarten, nicht wegen den Gamern.
Das ist falsch, wurde hier im 3Dc auch schon öfters angesprochen.
basix
2020-07-07, 08:41:56
2080 Ti @ WWHQD *meld*
Ich bin auch so einer :D
Mehr fps sind mir wichtiger und es gibt auch Spiele, die bei 1440p nur mit 40-50fps laufen ;) Ein TW3 mit Mods ist so ein Beispiel.
Thunder99
2020-07-07, 08:56:37
Früher hat man extreme Kombinationen mit SLI gelöst. Gibt es jetzt halt nicht mehr wirklich...
Turing war der Einstieg. Mit Ampere kann man aus den Erfahrungen lernen und es besser machen.
DLSS ist für mich ein zweischneidiges Feature. Lieber echte Pixel als KI, aber es hat dennoch beeindruckende Ergebnisse.
Slipknot79
2020-07-07, 09:10:52
Yea auch hier WQHD yo.
Für gute fps, denn für 4k+RT ist noch keine Karte zu gebrauchen, auch die 3080Ti wird es nicht sein.
rentex
2020-07-07, 09:28:00
Eben. Die 2080Ti war nach der 1080Ti, keine Karte zum 4K Gaming (auch wenn es immer so postuliert worden ist). Schätze aber, das es die 3080Ti endlich mal wird.
Leonidas
2020-07-07, 09:33:48
Dazu müsste die Spiele-Anforderungen nicht weiter steigen, weil die RTX3080Ti whrschl. nur +35% auf die 2080Ti oben drauf legt (außerhalb RTX). Das kann 2020/21 noch passieren, aber spätestens 2021/22 ist von einem starken Anstieg der Spiele-Anforderungen auszugehen. Passierte anno 2013 genauso.
Slipknot79
2020-07-07, 09:35:36
Bestenfalls nur für aktuelle Spiele, nicht aber für Spiele die in 1-2 Jahren rausgeballert werden.
RT wird von den devs dann eben so eingestellt, dass die 3080Ti auch in 4k überfordert sein wird. Besser ist es in WQHD zu bleiben, spart auch etwas Kohlen.
r3ptil3
2020-07-07, 09:52:00
Ein paar 3070/3070 TI Spekulationen:
NVIDIA GeForce RTX 3070 Ti
Ampere GA104-400
3072 (48)
8 GB GDDR6X
256-bit
~512 GB/s
NVIDIA GeForce RTX 3070
Ampere GA104-300
2944 (46)
8 GB GDDR6
256-bit
~512 GB/s
https://wccftech.com/nvidia-geforce-rtx-3070-ti-rtx-3070-ampere-gaming-gpu-specs-rumor/
Nah dran, aber in Realität hätte die 3070 dann weniger SMs aktiv und die Speicherbandbreite stimmt ja offensichtlich nicht.
Des Weiteren glaub ich, dass die 3080Ti nur 11GB hat, dann wäre der Bandbreitennachteil der Titan weit weniger drastisch.
genervt
2020-07-07, 09:59:46
Oje, wenn NV jetzt anfängt jeden Preispunkt mit ner leicht anderen Karte zu besetzen, dann gute Nacht. Hatten wir ja zu Beginn der 00er Jahre schon einmal. Letzhin erst in einem Retro-Special zur ATI X800XL gesehen, wie unsäglich viele Varianten früher mal aufm Markt waren.
robbitop
2020-07-07, 10:11:18
Vielleicht sollte AMD erstmal liefern, bevor man Powerpoint-Versprechen zum Fakt macht? Polaris sollte auch 2,5x P/W liefern, daher weiß ich auch nicht, warum man die 50% für RDNA2 für bare Münze hält.
Mit RDNA hat man doch aber sein Versprechen abgeliefert.
Einen festen Zyklus bieten zu wollen hat übrigens auch Intel das Genick gebrochen. Viel wichtiger als ein fester Zyklus wäre "when it's done" und vor allem "when it's good".
IMO hat Intel das nicht das "Genick gebrochen" (kommerziell geht es denen besser als je zuvor btw). Intel war beim 10 nm Prozess viel zu optimistisch was die Anforderungen an diesen anging. Neue Materialien + utopische Packdichten. Und gleich alles auf einmal. Dazu kam, dass es mangels signifikantem Wettbewerber auch kaum noch Innovationsdruck gab. Den Quadcore hat man ~10 Jahre als Maximum im Mainstream verkauft. Erst als AMD mit Zen kam, gab man sichtbar Gas. (ist aber auch normal - Kapitalismus/Gewinnmaximierung).
Bei Zen hingegen sieht man, dass diese Execution seit Einführung von Zen wunderbar funktioniert. Auch dieses Jahr scheint Zen 3 im Plan zu sein. Man ist halt konservativ und es werden nur Dinge auch implementiert, die bis zur Deadline möglich sind. Alles darüber hinaus fließt halt in die nächste Iteration.
Überhastet Zeug auf den Markt werfen macht AMD doch schon genug bei GPUs. Wie war das mit dem running gag der Primitive Shader bei Vega? Und dem angeblichen Wundertreiber? Und dann wundert man sich, warum die Leute lieber NVIDIA kaufen, als Bananenware :ugly:
Ach ja, sorry, heißt bei AMD ja nicht "Bananenware" wenn der Treiber unfertig zum Launch ist, sondern "fine wine" :tongue:
Wenn du glaubwürdig sein willst, versuche die Diskussion sachlich zu führen. Solche Sticheleien sind in Diskussionen wenig hilfreich.
AMDs GPU Abteilung war bis vor kurzem nur ein Schatten seiner selbst durch den starken Abbau. Alles hat sich auf Zen fokussiert. Der Rest floss in die Konsolen. Dank der Erfolge von Zen ist aber in den letzten 2 Jahren auch wieder Geld in die Kassen gespült worden und man sieht, dass AMDs Fokus dort zurück kommt.
RDNA1 und 2 (in den Konsolen) zeigen, dass AMD wie damals bei Zen die GPU Abteilung aufgebaut und neu fokussiert hat. 2x uArch Iterationen in 2 Jahren. Beide ein riesen Sprung zu seinem Vorgänger.
Ähnlich zu Zen ggü den Bulldozer, Piledriver, Steamroller, Excavator Kernen.
Vor Zen hätte auch AMD niemand Zen zugetraut. GCN war gestern - RDNA ist 2019. Und 2020 ist RDNA2. Wir werden ja sehen, wie es 2020 aussieht.
Ja sie müssen das im Bereich GPU erstmal über mehrere Generationen konsistent beweisen, damit es alle glauben. Aber mit ein wenig Weitblick und einen Blick in die Geschäftszahlen lässt sich das auch heute schon erkennen.
NV zu überholen und das konsistent über Jahre in jedem Bereich halte ich genauso unwahrscheinlich, wie Intel konsistent über Jahre zu überholen. Da sind die einfach zu stark. Als Ausreißer ggf. schon. Aber in jedem Fall bin ich mir relativ sicher, dass man zumindest die Lücke sehr stark verkleinern kann.
Und genau das ist gut für uns Endkunden. Denn Wettbewerb verbessert Preis und Leistung. ;)
rentex
2020-07-07, 10:28:12
@robbitop Zustimmung!
WedgeAntilles
2020-07-07, 10:32:07
Dazu müsste die Spiele-Anforderungen nicht weiter steigen, weil die RTX3080Ti whrschl. nur +35% auf die 2080Ti oben drauf legt (außerhalb RTX). Das kann 2020/21 noch passieren, aber spätestens 2021/22 ist von einem starken Anstieg der Spiele-Anforderungen auszugehen. Passierte anno 2013 genauso.
Es war früher ja ganz normal, dass es Spiele gab, die man mit aktueller Hardware nur auf mittleren / höchstens hohen Settings betreiben konnte.
Aber keinesfalls auf Ultra.
So ist das halt auch mit 4k / RTX, dafür braucht man halt die nächste Generation an GraKas.
Da sehe ich auch kein Problem, bin wie gesagt nix anderes gewöhnt.
r3ptil3
2020-07-07, 10:33:11
AMDs GPU Abteilung war bis vor kurzem nur ein Schatten seiner selbst durch den starken Abbau. Alles hat sich auf Zen fokussiert. Der Rest floss in die Konsolen. Dank der Erfolge von Zen ist aber in den letzten 2 Jahren auch wieder Geld in die Kassen gespült worden und man sieht, dass AMDs Fokus dort zurück kommt.
Man stelle sich vor 2006 hätte keine AMD Übernahme stattgefunden.
Hauwech
2020-07-07, 10:33:22
Dazu müsste die Spiele-Anforderungen nicht weiter steigen, weil die RTX3080Ti whrschl. nur +35% auf die 2080Ti oben drauf legt (außerhalb RTX). Das kann 2020/21 noch passieren, aber spätestens 2021/22 ist von einem starken Anstieg der Spiele-Anforderungen auszugehen. Passierte anno 2013 genauso.
2022 dürfte dann aber wohl schon der Nachfolger von Ampere an den Start gehen. Sollte also weniger ein Problem sein wenn die Spiele-Anforderungen bis dahin gestiegen sind.
robbitop
2020-07-07, 10:35:15
Man stelle sich vor 2006 hätte keine AMD Übernahme stattgefunden.
Ich stelle mir manchmal vor, was passiert wäre, wenn man NV zu ihren Bedingungen übernommen hätte (Jensen als CEO) und nicht ATI. Das wollte man damals aber nicht. Es hat leider 10 Jahre gedauert, bis man eine anständige Führung bei AMD hatte.
Man stelle sich vor 2006 hätte keine AMD Übernahme stattgefunden.
Dann wäre ATI von Intel gekauft worden oder zwischenzeitlich baden gegangen, so wie alle anderen.
Klevapalis
2020-07-07, 10:53:25
Haben sie bereits mit RDNA.
Mit RDNA hat man doch aber sein Versprechen abgeliefert.
Warum noch auf Uralt-Polaris rumreiten, wenn man Navi aus dem letzten Jahr hat? AMD gab +50% Perf/Watt an, das übertrifft eine 5700XT gegenüber einer Vega64 sogar noch um ein gutes Stück (+63% laut CB-Index).
Mit 1x ist der ganze Rest, sei es noch Fiji oder Vega, komplett vergessen? :confused:
Schön, dass man es 1x (in Worten: ein Mal) geschafft hat, seine Versprechen einzulösen. Warum man jetzt aus der Ausnahme die Regel machen soll, erschließt sich mir nicht. Gleichzeitig dir wirklich existierende Regel (Leistungssteigerung bei NVIDIA) plötzlich die Ausnahme bleiben soll.
Ei, ihr werdet - wie üblich - echt noch euer blaues Wunder erleben. Kennen wir ja schon Fiji, Vega, Polaris und Navi zur Genüge.
Nvidia wird mit Ampere nachlegen und AMD mit RDNA2, wer die Nase dann vorne hat wird man sehen, nachdem Turing und RDNA rohleistungsnormiert bereits ein identisches Niveau haben.
Man benötigte "nur" einen kompletten Fertigungsnode an Vorsprung und hat keinerlei aktuelles Feature (DXR bzw. DX12U) implementiert, aber sonst quasi identisch :ugly:
Ich bleibe dabei, vorausgesetzt die spekulierten 80CU respektive 84SM beider Chips stimmen, dass man sich irgendwo bei +-10% abseits von Raytracing bewegen wird.
Sicher. Dafür legt NVIDIA nach zwei Jahre auch nen neuen Chip für auf. Wo schon ein TU102-Shrink auf 7nm mehr Performance bringen würde :ugly:
Liegt also auf der Hand. Davon ab ist das vorhandene Potential deutlich größer als bei Nvidia, was weitere bzw. größere Perf/Watt-Steigerungen angeht. Wie immer eben, wenn du von weiter unten kommst.
Das ist Quatsch, weil "Potential" natürlich auch abhängig davon ist, wo man hin kommen könnte mit entsprechendem Einsatz (R&D, Transistoren, Chipfläche, PowerBudget etc.). Von daher kann das Potential bei NVIDIA durchaus höher liegen, als bei AMD. Werden wir mit dem Launch ja auch sehen :P
IMO hat Intel das nicht das "Genick gebrochen" (kommerziell geht es denen besser als je zuvor btw)
Es hat Intel das Genick gebrochen, weil man Ansprüche an 10nm und dessen Zeitplan hatte, die schlicht nicht erfüllbar waren. Weil plötzlich die Metrik, die in der Firma zählt, nicht mehr die Leistung ist, sondern der Zeitpunkt.
Wenn du glaubwürdig sein willst, versuche die Diskussion sachlich zu führen. Solche Sticheleien sind in Diskussionen wenig hilfreich.
Das ist keine Stichelei sondern einfach Fakt. Das was AMD als "fine wine" verkauft, sind einfach unfertige Treiber zum Launch. Nicht mehr und nicht weniger. Der Kunde erhält zu Beginn ein Produkt, bei dem 10-20% der Leistung fehlen, die zum Launch da sein könnten.
RDNA1 und 2 (in den Konsolen) zeigen, dass AMD wie damals bei Zen die GPU Abteilung aufgebaut und neu fokussiert hat. 2x uArch Iterationen in 2 Jahren. Beide ein riesen Sprung zu seinem Vorgänger.
Wieder: RDNA2 ist noch nirgends erhältlich. Weder in Konsolen, noch in PCs. Dennoch ist der Sprung schon Fakt. Damit spreche ich nicht ab, dass AMD mit RDNA2 einen Sprung schaffen könnte - ich spreche aber schlicht ab, das heute (so wie du es erneut tust) das als Fakt darzustellen.
AMD muss erstmal zeigen, dass sie RDNA2 liefern. Und zwar die versprochene Verbesserung und natürlich auch den Zeitplan. Bevor das nicht der Fall ist, sind das einfach nur Versprechen.
Ja sie müssen das im Bereich GPU erstmal über mehrere Generationen konsistent beweisen, damit es alle glauben. Aber mit ein wenig Weitblick und einen Blick in die Geschäftszahlen lässt sich das auch heute schon erkennen.
Was lässt sich denn bitte aus einer Samplesize von 1 (RDNA) bitte belegen? Die Samplesize der Fehlschläge ist um einiges größer und das Versprechen der Verbesserung von RDNA2 ist so lange her, das klar sein sollte, dass das nur eine reine Projektion war. Da kann sich noch viel in der Entwicklung als zu optimistisch heraus stellen.
Fakt ist es definitiv nicht. Und das sollte man doch hier sagen können, ohne direkt beleidigt oder direkt Sticheleien vorgeworfen zu bekommen :rolleyes:
Ich stelle mir manchmal vor, was passiert wäre, wenn man NV zu ihren Bedingungen übernommen hätte (Jensen als CEO) und nicht ATI. Das wollte man damals aber nicht. Es hat leider 10 Jahre gedauert, bis man eine anständige Führung bei AMD hatte.
Intel hätte ein riesiges Problem. Aber da war die damalige AMD-Führung einfach zu arrogant und dumm.
robbitop
2020-07-07, 11:10:56
2017 war Zen auch nur Samplesize 1. Sowas wie einen "lucky punch" gibt es bei so etwas Aufwändigem und Komplexen wie einer modernen uArch nicht mehr. Das basiert auf Jahren an Investment und harter Arbeit.
RDNA zeigt mit dessen riesen Sprung ggü GCN ganz eindeutig, dass es in deren RnD einen Umbruch gab. Das macht man nicht mal eben und nur 1x.
Die Konsolen sind noch nicht veröffentlicht, das stimmt. Aber das Silizium ist seit Monaten in Produktion. Es gibt schon etliche Devkits damit. Der Fakt, dass 52 CUs und 8x CPU Kerne in den engen TDP Envelope der XSX passen und die bisherigen Performanceprojections zeigen zumindest schon, dass RDNA2 so schlecht nicht sein sollte und es einen Sprung ggü RDNA1 gab. RDNA3 ist bereits design complete und RDNA4 ist in Entwicklung. Das ist ein ähnliches Muster wie bei Zen.
Deine Skepsis ist nachvollziehbar - am Ende bleibt nur Abwarten. IMO ist aber ein gewisser Trend erkennbar. Das AMD von 2020 ist nicht mehr das AMD aus 2015. Allerdings dauern solche Umbrüche nunmal Jahre (Personalaufbau und neue uArchs sind dann auch Jahre lang in Entwicklung - zuerst war die CPU Abteilung dran - und erst mit dessen gesteigerten Erträgen konnte man die GPU Abteilung verändern).
Die jetzige Führung unter Lisa Su hat mMn eindeutig bewiesen, dass sie starke positive Veränderungen bewirken können. Warum nicht auch bei der GPU Abteilung?
Sweepi
2020-07-07, 11:28:59
[..]
Es geht mir darum, dass der Bedarf an vram nicht einfach so steigt, er ist im Verhältnis zu sehen was man effektiv damit machen kann. Sagen wir man kann 8GB verarbeiten pro frame, in den meisten Fällen, ist das was man wirklich anfasst ja darunter, das heißt der Rest fungiert schon so als Cache. Die 8GB alles einzigartig ist ja ein theoretischer worst-case.
Da teleportieren eher selten ist, hast du immer nen Schwung Frames zu reagieren. Man braucht auch nicht die höchsten Details der texturen/modelle die noch weit entfernt sind etc.
Wenn manche hier also behaupten, der Detailgrad wird sich exorbitant steigern und dadurch der vram bedarf erhöhen, so ist dem durch die Bandbreite eine natürliche Grenze gesetzt.
Es gibt ja jetzt auch Karten mit 24 und 48 GB, aber das Klientel was die nutzt ist halt eher in niedrigen frameraten unterwegs.
Hab das zum Anlass genommen, einen hässlichen Graphen zu kreieren :
(Wie oft kann die GPU den gesamten Speicher laut theo. Bandbreite in der Sekunde lesen?)
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=70746&stc=1&d=1594113756
-.ods im 7z
- doppelte GPUs sind mit unterschiedlichen Speicherausstattungen.
- wer mit zeigen kann, wie das mit den Labeln schoener geht, dem waere ich sehr dankbar.
- spekulierte Daten zur 3000 Serie fehlen noch
- GTX 5x0 und GTX 650 Ti Boost evtl weglassen, dann wird y kleiner
- die Trendlinie ist relativ unnütz
BlacKi
2020-07-07, 11:46:48
Für gute fps, denn für 4k+RT ist noch keine Karte zu gebrauchen, auch die 3080Ti wird es nicht sein.
wenn die spiele anfangen DLSS zu unterstützen was willst du mit den ganzen fps anfangen@1440p? ich finde die leistung in 4k und wenn immernoch genug vorhanden in RT umzusetzen schon sinnvoll. natürlich nicht immer, aber da wo es passt warum nicht.
@robbi
ot
Vor Zen hätte auch AMD niemand Zen zugetraut. GCN war gestern - RDNA ist 2019. Und 2020 ist RDNA2. Wir werden ja sehen, wie es 2020 aussieht.
natürlich hat man amd zugetraut etwas besseres zu entwickeln als das was mit bulldozer kam. amd mit zen stand nur da, wo es ohne den BD fail gestanden hätte. die entwicklung rund um das cpu design steht ja nicht still.
das steht aber leider nicht im verhältnis zu rdna. denn rdna steht hier eher für zen. rdna hat schon alle vorteile eingesackt die es an gcn mangelten. deswegen muss das marketingverprechen über den betriebspunkt eingelöst werden.
pixeljetstream
2020-07-07, 12:11:28
-.ods im 7z
- doppelte GPUs sind mit unterschiedlichen Speicherausstattungen.
- wer mit zeigen kann, wie das mit den Labeln schoener geht, dem waere ich sehr dankbar.
- spekulierte Daten zur 3000 Serie fehlen noch
- GTX 5x0 und GTX 650 Ti Boost evtl weglassen, dann wird y kleiner
- die Trendlinie ist relativ unnütz
Oder die Trendlinie halt nicht nur Linear machen. Kannst ja auch die AMD Karten einpflegen, die Konsolen seit GCN, etc. einfach um zu sehen wie es sich allgemein verhält.
Troyan
2020-07-07, 12:14:58
Ein paar 3070/3070 TI Spekulationen:
NVIDIA GeForce RTX 3070 Ti
Ampere GA104-400
3072 (48)
8 GB GDDR6X
256-bit
~512 GB/s
NVIDIA GeForce RTX 3070
Ampere GA104-300
2944 (46)
8 GB GDDR6
256-bit
~512 GB/s
https://wccftech.com/nvidia-geforce-rtx-3070-ti-rtx-3070-ampere-gaming-gpu-specs-rumor/
So, die nennen Turing einfach um? ;D
2080 Super hat die selben Daten beim selben Stromverbrauch. Muss man eigentlich nicht mehr viel sagen dazu. Wahrscheinlich hat der Typ deswegen erneut sein Twitter-Account auf privat gestellt.
robbitop
2020-07-07, 15:09:54
2x Dinge (unabhängig davon ob das wahr ist):
1. Würde die Ampere xx70 Karte nun so viele SMs haben wie die Turing xx80/Super. Das sind +20% mehr Einheiten. Das passt auch gut zu den Erhöhungen der Einheiten in der Vergangenheit.
2. Sind die Taktraten bei Ampere wohl ein Stück höher. ~10% sollten nicht optimistisch sein
3. Hat Ampere sicherlich auch etwas mehr rohleistungsnormierte Performance
Das ist also jetzt nicht so abwegig.
Troyan
2020-07-07, 15:27:07
Das sind null Erhöhung gegenüber TU104. Und wegen 20% mehr Takt geht man nicht auf 250W sondern baut einen 5-10% größeren Die und taktet ihn niedriger.
Die Specs können ja nicht stimmen, da die Speicherbandbreite schlicht falsch ist. GA104 könnte aber dennoch nur 3k Shader haben, da ja der eigentliche 3080, der gecancelte GA103, 3,5k-Shader haben soll. GA104 wäre also als Nachfolger des TU106 zu sehen, nicht des TU104. Er wird entsprechend höher takten und damit den 2080S überflügeln. Er muss ja 35% schneller als die 2070 Super sein.
robbitop
2020-07-07, 18:14:55
Das sind null Erhöhung gegenüber TU104. Und wegen 20% mehr Takt geht man nicht auf 250W sondern baut einen 5-10% größeren Die und taktet ihn niedriger.
Es geht doch aber um Produkte und nicht um Chips. Dieses Mal wird offenbar die xx80 von GA102 abgedeckt (sollte ursprünglich einen eigenen Chip bekommen der wohl gecanclet wurde).
Auch ist völlig unklar, ob 104 nicht mehr als 3072 ALUs bietet. Ggf. ist der Chip in der xx70 ja auch teildeaktiviert.
Bei Turing wurde erstmals die x70 durch 106 abgedeckt (erst mit der Super kam ein stark kastrierter 104). Das war ggü Pascal auch eine starke Veränderung.
Muster aus der Vergangenheit sind nun mal nicht ewig gültig.
Und auch sind SMs nunmal nicht SMs. Turings SMs kann man auch schlecht mit Pascals SMs oder Maxwells SMs vergleichen. Am Ende zählt nur die Gesamtperformancesteigerung.
Eine 3070 mit 3072 ALUs + höheren Taktraten + IPC hat mit Sicherheit einen gesunden bzw üblichen Performancesprung zu ihrem Vorgänger (der 2070).
Die 2070 hatte auch keinen größeren Sprung ggü der 1070 von den SMs und war trotzdem um einiges schneller.
Rampage 2
2020-07-07, 21:24:47
Da die eigentliche Frage in der Marge-Diskussion untergegangen ist bzw. nicht beantwortet wurde, stelle ich sie nochmal:
Ich wüsste mal zu gerne, was GDDR6-Speicher so "sauteuer" macht - hier wird ja oft argumentiert, weil GDDR6 so teuer ist, wird mit der Speichermenge (2GB-Chips) geknausert - warum ist das so? Warum ist GDDR6 soviel teurer als GDDR5/X ?
R2
Fragman
2020-07-07, 21:31:03
Liegt das nicht am breiten Speicherinterface und der Anzahl der Speichersteine sowieso deren Anordnung auf dem Board das alles Probleme verursacht?
Edgecrusher86
2020-07-07, 23:56:44
Bei Micron 16 Gbps und 16Gb wären es ja grob $25,5 pro Stück, was digikey nehmen würde - (bei 2000 Stk. wieder). Gut, bei 20% Rabatt wären das hier etwa $20 und 40% Rabatt um die $15.
Dann wären wir bei 24GB bei $306; mit 20% Rabatt grob $245 und 40% Rabatt etwa $184.
Das sind schon sehr hohe Zahlen.
Wenn man nun aber bedenkt, dass auch für 16Gb vielleicht 17-18 Gbps verbaut werden dürften - kann man sicherlich wieder einen spürbaren Aufpreis addieren.
20 Gbps wäre ohne Rabatt als 8Gb bestimmt bei $15 das Stück - also es würde mich zumindest nicht wundern; vielleicht sogar noch höher.
Um die $100 mag das dann selbst bei 8GB 20Gbps inkl. 20% Rabatt sein, $120 bei 10GB, $130+ bei 11GB und etwas unter $150 bei 12GB.
Ja, der Preisanstieg ist schon ziemlich krass auf GDDR5 - hier hatten wir ja eine knapp 1,5 Jahre alte Zusammenfassung von Leonidas, wo 14 Gbps GDDR6 schon 70% teurer als 8 Gbps GDDR5 war:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-jahresausklangs-2018
Die Preisdifferenz zu HBM2/HBM2E mit 2 und 2,4 Gbps inkl. Interposer wäre einmal interessant zu erfahren.
Rampage 2
2020-07-08, 00:28:25
Ja, der Preisanstieg ist schon ziemlich krass auf GDDR5 - hier hatten wir ja eine knapp 1,5 Jahre alte Zusammenfassung von Leonidas, wo 14 Gbps GDDR6 schon 70% teurer als 8 Gbps GDDR5 war:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-jahresausklangs-2018
Das beantwortet meine Frage nicht - die Frage war nicht wieviel teurer GDDR6 als GDDR5 ist, sondern WARUM es massiv teurer ist? Aufwändiger herzustellen? Komplizierte Technologien? Oder doch die Speicherkartelle* ?
* = Stichwort indirekte Preisabsprachen bzw. Ende des Preiskampfs zwischen den Speicherherstellern seit 2016/17
Liegt das nicht am breiten Speicherinterface und der Anzahl der Speichersteine sowieso deren Anordnung auf dem Board das alles Probleme verursacht?
Daran kann es nicht liegen - die Breite des SI hat sich schon seit Jahren nicht mehr geändert (immer noch maximal 384Bit bei Nvidia) und die Anzahl der benötigten Speicherchips ist dieselbe wie bei GDDR5;)
R2
BlacKi
2020-07-08, 00:48:34
WARUM es massiv teurer ist? Aufwändiger herzustellen? Komplizierte Technologien? Oder doch die Speicherkartelle* ?
* = Stichwort indirekte Preisabsprachen bzw. Ende des Preiskampfs zwischen den Speicherherstellern seit 2016/17
möglich, aber dram preise generell drücken die preise nach oben, der smartphone markt giert danach.
TheAntitheist
2020-07-08, 01:46:11
Ich meine das Speicherinterface kann gar nicht so stark "geshrinked" werden mit jedem neuen Fertigungsprozess wie andere Teile, daher steigen damit auch die Kosten. Mag aber auch quatsch sein, dafür gibts hier viel bessere Experten.
Leonidas
2020-07-08, 09:37:35
Neue Speichertaktungen/Speichernormen sind anfänglich immer verdammt teuer, weil es keine bedeutsamen Abnehmer und damit keine echte Massenfertigung. Erst wenn das Zeugs schon millionenfach verbaut wird, dürften sich die Speicherchip-Hersteller mit Preisschlachten um die Abnehmer prügeln. Vorher gibt es halt hohe Preise für Early-Adopter - in diesem Fall die Grafikchip-Entwickler.
Edgecrusher86
2020-07-08, 10:28:42
Spätestens wohl mit den kommenden Konsolen dürfte GDDR6 massiv günstiger werden, setzt man etwa bei der Series X auf 14Gbps.
Hochtakt-Speicher wird natürlich teuer bleiben, wenn dieser am Anfang nur bei NV und AMD Verwendung findet.
Dural
2020-07-08, 10:31:27
Ja, war schon immer so.
Die Stückzahlen dürften bei den wenigen High-End Karten die damit verkauft werden schon sehr überschaubar sein.
mironicus
2020-07-08, 11:21:03
Onkel Igor sagt wieder was zu Ampere. :)
c3-G2IH0cgw
Edgecrusher86
2020-07-08, 12:36:52
Interessant ist, dass Igor denkt, dass bis zu 6144SP (96SM) auf der Fläche Platz finden könnten - natürlich alles in Abhängigkeit, wieviel TC&RT verbaut werden.
Alle jetzigen Gerüchte deuten auf 5376SP / 84SM im Vollausbau hin.
Ein möglicher Indiz aus der Vergangenheit ist ja, dass die 70er Karte mit zumeist Cut des 104 Performance-Chips ja seit Kepler in etwa die halbe Anzahl an Shadern des Big-Chip-Vollausbaus hatte.
Es muss aber nichts bedeuten in dem Fall, da die 80er Karte ja nun nicht mehr auf den 104er Chip setzt, sondern erst hier der GA103 mit wohl 60SM und 3840SP geplant war und man nun auf den GA102 Cut mit 68SM und 4352SP zu setzen scheint.
- GTX 670: 1344SP (GK104 Cut) - 2012 | GTX TITAN: 2688SP (GK110 Cut) - 2013 [+100%]
- GTX 770: 1536SP (GK104 Full) - 2013 | GTX 780 Ti: 2880SP (GK110 Full) - 2013 / GTX TITAN Black: 2880SP (GK110 Full) - 2014 [+87,5%]
- GTX 970: 1664SP (GM204 Cut) - 2014 | GTX TITAN X: 3072SP (GM200 Full) - 2015 [+84,6%]
- GTX 1070: 1920SP (GP104 Cut) - 2016 | TITAN X (Pascal): 3584SP (GP102 Cut) - 2016 / TITAN Xp: 3840SP (GP102 Full) - 2017 [+86,7% / +100%]
- RTX 2070: 2304SP (TU106 Full) - 2018 | TITAN RTX: 4608SP (TU102 Full) - 2018 [+100%]
Kommen wir zur aktuellen Spekulation:
- RTX 3070: 2933SP (GA104 Cut) - 2020 | "TITAN RTX II": 5376SP (GA102 Full) - 2020 [+83,3%]
- RTX 3070 Ti: 3072SP (GA104 Full) - 2021(?) | "TITAN RTX II": 5376 SP (GA102 Full) - 2020 [+75%]
Der letzt genannte Wert würde schon etwas aus dem seit 2012 gültigen Produktschema heraus stechen.
Leonidas
2020-07-08, 12:51:24
Ist ja nur eine Hochrechnung, was maximal möglich wäre. Mit mehr Xtors pro SM geht das wieder zurück und wir landen bei 5376 SP / 84 SM. Und die mehr Xtors pro SM sind eigentlich obligatorisch bei NV, man will ja bei RT zukünftig klar besser dastehen.
robbitop
2020-07-08, 18:43:37
Er sagt auch klar, dass er es nicht weiß. Neue uArchs brauchen idR mehr Transistoren pro SM/CU. Innovation kommt nicht von Luft und Liebe. Und er sagte ~6000 wenn es keine Komplexitätserhöhung geben sollte. Sehr unwahrscheinlich, dass die SMs nicht mehr Transistoren haben werden.
Troyan
2020-07-08, 21:05:36
Es geht doch aber um Produkte und nicht um Chips. Dieses Mal wird offenbar die xx80 von GA102 abgedeckt (sollte ursprünglich einen eigenen Chip bekommen der wohl gecanclet wurde).
Auch ist völlig unklar, ob 104 nicht mehr als 3072 ALUs bietet. Ggf. ist der Chip in der xx70 ja auch teildeaktiviert.
Bei Turing wurde erstmals die x70 durch 106 abgedeckt (erst mit der Super kam ein stark kastrierter 104). Das war ggü Pascal auch eine starke Veränderung.
Muster aus der Vergangenheit sind nun mal nicht ewig gültig.
Und auch sind SMs nunmal nicht SMs. Turings SMs kann man auch schlecht mit Pascals SMs oder Maxwells SMs vergleichen. Am Ende zählt nur die Gesamtperformancesteigerung.
Eine 3070 mit 3072 ALUs + höheren Taktraten + IPC hat mit Sicherheit einen gesunden bzw üblichen Performancesprung zu ihrem Vorgänger (der 2070).
Die 2070 hatte auch keinen größeren Sprung ggü der 1070 von den SMs und war trotzdem um einiges schneller.
Die RTX2080 FE Super hat die selben Daten und benötigt bei ~1900MHz und 15gbs weniger als 250W: https://www.computerbase.de/2019-07/geforce-rtx-2080-super-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last
Selbst wenn man annimmt, dass Ampere auf 2400MHz getaktet werden könnte, wären dies gerademal 26% Mehrleistung bzw. 26% effizienter.
Das hat Turing selbst auf dem selben Prozess geschafft...
robbitop
2020-07-09, 07:52:28
f~P^3 (bei gleichem Chip könnte man dann innerhalb spezifischer Grenzen so skalieren)
Da sind schnell mehrere Shrinks aufgefressen. Frequenzsteigerungen sind leider etwas, was nicht besonders energieeffizient ist.
Außerdem wissen wir nicht, welche TDP die 3070 haben soll (oder?) und wie viel mehr pro Takt herum kommt und wie viel mehr Takt kommen soll. Das kann schon alles passen.
Wie gesagt: Einheitensteigerung passt sehr gut zu dem was man von vorher kennt. von einer 70 zur 70 Nachfolgerin.
Leonidas
2020-07-09, 08:26:26
Schlängellinie bei Kopite7kimi: RTX 3090 nun gleich mit 24 GB Speicher @ 21 Gbps:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-8-juli-2020
Daraus ergeben sich zwei Fragen:
1. Was soll dann noch die Titan (24 GB @ 16 Gbps)?
2. Oder ist das der Auftakt dazu, das auch 3080 & 3070Ti den doppelten Speicher erhalten?
MiamiNice
2020-07-09, 08:33:05
Igor hatte die Menge des Speichers schon bestätigt. Vermute es bleibt bei 24/12/10.
Ein Gamer kann mit 24GB nicht wirklich etwas anfangen, es macht die Karte nur teuer. 18GB würde ich für das höchste der Gefühle halten für eine Gaming Karte. Aber dann lassen sich die geleakten Takte bestimmt nicht halten. NV war noch nie großzügig beim Speicher :)
Andere Gedanken:
1. Es gab hier im Thread eine Speichermenge / Bandbreiten Diskussion - las sich für mich so als machen 24 GB auch keinen Sinn
2. In einem anderen Thread schrieb jemand das sich der Speicher"mehr"bedarf zwischen 4k und FHD bei 1GB bewegt - da macht mehr als 12GB auch keinen Sinn weil
3. die Konsolen nur max. 10GB VRam zur Verfügung haben.
Ergo: [x] Jemand hat den Twitter Account gehackt, oder ähnliches.
X-Bow
2020-07-09, 08:42:25
Schlängellinie bei Kopite7kimi: RTX 3090 nun gleich mit 24 GB Speicher @ 21 Gbps:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-8-juli-2020
Daraus ergeben sich zwei Fragen:
1. Was soll dann noch die Titan (24 GB @ 16 Gbps)?
2. Oder ist das der Auftakt dazu, das auch 3080 & 3070Ti den doppelten Speicher erhalten?
oder 3. Die Titan hat nix mehr mit Gaming zu tun außer das sie könnte wenn man wollte, und wir diese als "Gamingkarte" nun endlich mal aus unseren Köpfen streichen. :rolleyes:
robbitop
2020-07-09, 08:59:11
Ich denke das mittlerweile auch. Das hat NV offenbar in den letzten Jahren doch langsam geändert. (auch wenn ich vor Kurzem etwa anderer Ansicht war) Titan =! Gaming.
Ich tippe darauf, dass bei dem Tweet die 3080ti fehlt - also mit 11/12GB. Der potenzielle Kostensprung zwischen 3080 und 3090 erscheint mir mit so viel Speicher doch etwas groß.
Schlängellinie bei Kopite7kimi: RTX 3090 nun gleich mit 24 GB Speicher @ 21 Gbps:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-8-juli-2020
Daraus ergeben sich zwei Fragen:
1. Was soll dann noch die Titan (24 GB @ 16 Gbps)?
2. Oder ist das der Auftakt dazu, das auch 3080 & 3070Ti den doppelten Speicher erhalten?
Das kommt darauf an, wie stark der weltweite Shitstorm wegen der kolportierten Speichermengen war. Bevor man massive Absatzeinbußen in Kauf nehmen muss und befürchten muss, dass AMD hier punkten kann...
KarlKastor
2020-07-09, 09:08:08
Bei Pascal hatte die Titan auch nicht die doppelte Speichermenge.
Leonidas
2020-07-09, 09:56:26
Korrekt @ KarlKastor. Also doch eine Chance auf RTX3090 und Titan gleichzeitig mit 24 GB.
Sunrise
2020-07-09, 09:58:05
Die 24GB riechen stark nach Quadro, die im Gaming-Markt platziert wird. Diese NV-LINK-Geschichte ebenso.
Da oben scheint dann quasi wieder echtes Enthusiast zu kommen, da wird höchstwahrscheinlich auch AMD keine Antwort darauf haben (was die Speichermenge angeht). Entsprechend kann sich NV eine neue Preisstruktur bauen, mit allen Vorteilen. Der Output von 8nm Samsung ist gesichert und nichtmehr abhängig von TSMC.
Das liest sich schon sehr gut, allerdings ist es tatsächlich eigenartig, wenn die TITAN so nahe an der 3090 liegen soll, irgendwie ergibt das keinen Sinn. Evtl. hat NV aufgrund dem gecancelten GA103 hier bis zuletzt noch ein paar Anpassungen vorgenommen, wenn das tatsächlich der Wahrheit entspricht.
Wenn tatsächlich 6144 SPs verbaut sind, hätte NV sogar noch Platz für einen SUPER-Refresh danach.
Das würde dann bedeuten, dass NV erwartet, dass BIG NAVI genau in die Lücke zwischen High-End NV und Enthusiast passt, somit wäre es erstmal keine direkte Konkurrenz, man hat also noch mehr Handlungsspielraum beim Preis. Bleibt allerdings noch das große Fragezeichen der Leistung von AMDs neuer Geheimwaffe.
BlacKi
2020-07-09, 10:17:30
1. Es gab hier im Thread eine Speichermenge / Bandbreiten Diskussion - las sich für mich so als machen 24 GB auch keinen Sinn
wenn die breite gamermasse keine 16gb hat statt 8gb, werden die spiele nie mehr brauchen. damit meine ich, hätte es nie mehr als 2gb vram gegeben, dann hätten wir nie mehr als 2gb vram gebraucht.
hätten wir alle schon 48gb vram auf der gpu, dann bräuchten wir den vram. praktisch jedes spiel das streaming nutzt, würde ohne streaming unglaublich viel vram benötigen.
Korrekt @ KarlKastor. Also doch eine Chance auf RTX3090 und Titan gleichzeitig mit 24 GB.
wo ist der punkt? beide werden bei 24gb wohl jeweils über 1500, ich würde sogar glatt behaupten, über 2000€ kosten.
das portfolio ist mir zu verschachtelt rein auf den gaming bereich gesehen. ich glaub nicht dass das so kommt.
MiamiNice
2020-07-09, 10:48:20
I was wrong. RTX 3090 will have 24GB GDDR6X at 21Gbps. I think it's a preparation for 2-way NVLINK. (Only GA102 can support NVLINK, and 3090 will support it.) But I'm confused. How about TITAN?
Warum sollte eine 3090 a.k.a. 3080TI NVLink nutzen können sollen? SLI ist sowas von tot, toter geht es kaum. Und an eine Wiederbelebung unter Low Level Apis ist kaum zu rechnen, die Mehrkosten müssten die Entwickler tragen, was nicht passieren wird. NVLink auf einer Gamerkarte würde imo nur Sinn machen für SLI-VR, das haben aber die wenigstens am Start und VR Spiele brauchen noch weniger VRam als die gemeinen 2D Games.
Thunder99
2020-07-09, 11:00:44
Ich würde Mal die VRAM Diskussion auch unter einem anderen Aspekt beleuchten.
Wie viel VRAM braucht man wirklich, mit der Stand der Technik Kompression ohne Qualitätsverlust, um die gewünschte Qualität zu liefern? Haben wir mittlerweile den Sweetpoint erreicht oder sind nahe dran?
Wieso sehen Texturen mit weniger VRAM von damals besser aus als teilweise heute? Was hat sich alles geändert, dass es mehr VRAM braucht bzw es sinnvoll erscheint zu haben?
Sunrise
2020-07-09, 11:14:58
Warum sollte eine 3090 a.k.a. 3080TI NVLink nutzen können sollen? SLI ist sowas von tot, toter geht es kaum. Und an eine Wiederbelebung unter Low Level Apis ist kaum zu rechnen, die Mehrkosten müssten die Entwickler tragen, was nicht passieren wird. NVLink auf einer Gamerkarte würde imo nur Sinn machen für SLI-VR, das haben aber die wenigstens am Start und VR Spiele brauchen noch weniger VRam als die gemeinen 2D Games.
Du siehst das zu stark aus Gaming-Sicht. SLI/NV-Link ist Marketing für eine Technologie/Lösung zum gemeinsamen Bearbeiten einer Aufgabe. Das wird nicht entfallen, weil es von ganz oben Sinn ergibt, und das fällt dann wie der Apfel nicht weit vom Stamm.
Ob das im Gaming relevant ist, ja, zumindest eine Teilmenge davon. Wir sind immernoch nicht sicher, wie genau Multi-Chip denn wirklich aussieht.
Das Ziel, mehrere GPUs an einer Aufgabe arbeiten zu lassen ist also weiterhin da und wird nicht verschwinden.
Wird es weniger relavant in bestimmten Sektoren? Vielleicht, aber auch viele große Twitch-Streamer haben SLI, weil sie es können. Warum sollte NV, wenn man also sowieso Quadros damit anbietet es beim Gaming nicht tun? Sie verdienen Geld, der Aufwand scheint überschaubar zu sein.
rentex
2020-07-09, 11:20:53
Gibt es eigentlich Gerüchte, welche PCIE Anbindung, Gaming Ampere bekommen soll?
Troyan
2020-07-09, 11:22:09
PCIe 4.0 wird es sein.
Da GA100 ebenfalls PCI-E 4.0 beherrscht, ist davon auszugehen. Das wäre auch etwas arm, wenn es nicht so wäre (und 4.0 bitter nötig, wenn sich die kleinen Speichermengen bewahrheiten).
MfG
Raff
rentex
2020-07-09, 11:48:43
Danke für die Antwort. Das hatte ich ebenfalls vermutet (nicht wegen der möglichen Speicherbestückung).
MiamiNice
2020-07-09, 12:21:58
Du siehst das zu stark aus Gaming-Sicht. SLI/NV-Link ist Marketing für eine Technologie/Lösung zum gemeinsamen Bearbeiten einer Aufgabe. Das wird nicht entfallen, weil es von ganz oben Sinn ergibt, und das fällt dann wie der Apfel nicht weit vom Stamm.
Die TI ist eine Gaming Karte. Daher wollte ich darauf hinaus das die 24GB auf einer Gaming Karte keinen Sinn machen, nur für NVLink. So steht es ja im Twitter Post. Das das Feature generell mit abfällt, ist klar. Aber die 3080TI würde es nur teuer machen ohne tieferen Sinn.
Evtl. sehen wir auch endlich mal wieder die Freigabe von Partnerdesigns mit doppelter Kapazität. Das gab's zuletzt bei der GeForce GTX 780, welche später, als AMD geil wurde, mit 6 GiByte angeboten wurde ("Titan Light"). :up:
MfG
Raff
ShinyMcShine
2020-07-09, 12:46:15
Evtl. sehen wir auch endlich mal wieder die Freigabe von Partnerdesigns mit doppelter Kapazität. Das gab's zuletzt bei der GeForce GTX 780, welche später, als AMD geil wurde, mit 6 GiByte angeboten wurde ("Titan Light"). :up:
MfG
Raff
+1
Ich will eine 3070Ti mit 16GB! :biggrin:
Edgecrusher86
2020-07-09, 12:51:31
Also bei NVL-Support macht 24GB schon mehr Sinn als 12GB in Anbetracht der zu erwartenden Rohleistung - man kann ja mit 2x TU102 ab und an auch 8K und bei älteren Schinken sogar 16K fahren.
Es bräuchte halt einen besseren Support für DX12/VK AFR oder NV müsste CFR mal offiziell ankündigen und pushen. Gerade teures RT plus 4K nativ wäre auch ein sehr guter Grund für mehr als eine Karte - siehe die Skalierung in Port Royale etwa.
https://abload.de/img/14767718.589999713_nv9mkfg.jpg
Zwar ein natürlich optimierter Benchmark, aber es zeigt auch, was technisch möglich wäre, wenn optimal umgesetzt.
Ja, es scheint, dass aufgrund des starken Big Navi die RTX 3090 zum TITAN-Ersatz wird im Desktop-Markt. Das wird man sich bestimmt mit $1499-1999 bezahlen lassen . ;D
Eventuell will man diese Schiene auslagern - sprich, zum Beispiel in Q4 noch eine GA100 TITAN mit 32GB und 4096-bit HBM2(e) bringen (für $2999-4999) - für Deep Learning, FP64 usw.. - also als Nachfolger der TITAN V.
Igor hatte die Menge des Speichers schon bestätigt. Vermute es bleibt bei 24/12/10.
Ein Gamer kann mit 24GB nicht wirklich etwas anfangen, es macht die Karte nur teuer. 18GB würde ich für das höchste der Gefühle halten für eine Gaming Karte. Aber dann lassen sich die geleakten Takte bestimmt nicht halten. NV war noch nie großzügig beim Speicher :)
Andere Gedanken:
1. Es gab hier im Thread eine Speichermenge / Bandbreiten Diskussion - las sich für mich so als machen 24 GB auch keinen Sinn
2. In einem anderen Thread schrieb jemand das sich der Speicher"mehr"bedarf zwischen 4k und FHD bei 1GB bewegt - da macht mehr als 12GB auch keinen Sinn weil
3. die Konsolen nur max. 10GB VRam zur Verfügung haben.
Ergo: [x] Jemand hat den Twitter Account gehackt, oder ähnliches.
Man sollte aber auch bedenken, dass die Konkurrenz auch ein Highend-Produkt mit wohl 16-24GB bringen dürfte - hat NV jetzt nur die Hälfte, können sie es nicht als mit Abstand bestes Produkt am Markt bewerben.
Im Grunde wird 14-16GB auch bei 4-5K die nächsten Jahre inkl. RT für eine SGPU vermutlich reichen, aber nun ja - große Zahlen sind seit je her auch eine gute Werbung. ;)
Derzeit langen in 4K meistens noch 8-10GB, das wird in den kommenden Jahren aber zunehmen.
Mal am Beispiel von F1 2019 (DX12) mit [I]8K-Texturauflösungs-Tweak (.ini) und Monaco (je per Benchmark) mit viel Geometrie - ca. 7,6GB werden in FHD und knapp 9GB in 4K ausgelagert:
FHD - 7559MB Maximum:
https://abload.de/thumb/1-fhde7juf.png (https://abload.de/image.php?img=1-fhde7juf.png)
WQHD - 8244MB Maximum:
https://abload.de/thumb/2-wqhdw2kli.png (https://abload.de/image.php?img=2-wqhdw2kli.png)
UWQHD - 8878MB Maximum:
https://abload.de/thumb/3-uwqhdypkw0.png (https://abload.de/image.php?img=3-uwqhdypkw0.png)
4K - 9004MB Maximum:
https://abload.de/thumb/4-4khskzc.png (https://abload.de/image.php?img=4-4khskzc.png)
WUHD (5160x2160) - 10823MB Maximum:
https://abload.de/thumb/5-wuhd2hka3.jpg (https://abload.de/image.php?img=5-wuhd2hka3.jpg)
6880x2880 - 11012MB Maximum:
https://abload.de/thumb/6-6880g9kgz.jpg (https://abload.de/image.php?img=6-6880g9kgz.jpg)
Jeweils am Ende des Benches aufgenommen. Ohne den Tweak in Belgien verglichen waren es 1,7GB weniger im VRAM.
Letzteres Setting dürfte wohl mit GA102 @ 5248-5376SP bei ~ 55-70 fps laufen, also ordentlich spielbar - mit GP102 waren es idR 30-35 fps. ;)
nordic_pegasus
2020-07-09, 13:05:52
warum glaubt Ihr, dass es ein Ampere Titan und eine 3090 geben wird. Ich dachte "3090" ist nur der Arbeitstitel für die größte SKU, also SKU10. Und mit welchem Namen die auf den Markt kommt, ist doch nur Schall und Rauch. Es soll 3 Karten auf Basis von GA102 geben. Vermutlich kommt zum Release im September erstmal nur SKU10 (Titan/3090) und SKU30 (3080), die SKU20 (3080Ti) kommt dann später. Damit kann Nvidia die 3080Ti perfekt auf BigNavi abstimmen, dessen Release noch etwas dauern wird.
Evtl. sehen wir auch endlich mal wieder die Freigabe von Partnerdesigns mit doppelter Kapazität.
Das gab's zuletzt bei der GeForce GTX 780, welche später, als AMD geil wurde, mit 6 GiByte angeboten wurde ("Titan Light"). :up:
MfG
Raff
+1 :up:
Dann könnte jeder das passende Modell für sich kaufen :smile:
M.f.G. JVC
BlacKi
2020-07-09, 13:55:54
ich hab den eindruck, das nv nicht will, das eine 3070 mehr gb hat als eine 3080ti. deshalb wirds das nicht geben.
rentex
2020-07-09, 14:25:34
warum glaubt Ihr, dass es ein Ampere Titan und eine 3090 geben wird. Ich dachte "3090" ist nur der Arbeitstitel für die größte SKU, also SKU10. Und mit welchem Namen die auf den Markt kommt, ist doch nur Schall und Rauch. Es soll 3 Karten auf Basis von GA102 geben. Vermutlich kommt zum Release im September erstmal nur SKU10 (Titan/3090) und SKU30 (3080), die SKU20 (3080Ti) kommt dann später. Damit kann Nvidia die 3080Ti perfekt auf BigNavi abstimmen, dessen Release noch etwas dauern wird.
Ich kann warten:cool:
Edgecrusher86
2020-07-09, 15:25:01
warum glaubt Ihr, dass es ein Ampere Titan und eine 3090 geben wird. Ich dachte "3090" ist nur der Arbeitstitel für die größte SKU, also SKU10. Und mit welchem Namen die auf den Markt kommt, ist doch nur Schall und Rauch. Es soll 3 Karten auf Basis von GA102 geben. Vermutlich kommt zum Release im September erstmal nur SKU10 (Titan/3090) und SKU30 (3080), die SKU20 (3080Ti) kommt dann später. Damit kann Nvidia die 3080Ti perfekt auf BigNavi abstimmen, dessen Release noch etwas dauern wird.
Das macht sicherlich Sinn - vermutlich dürfte diese Karte dann mit 12GB kommen, um sie etwas von der 3080 abzuheben. Beim VRAM könnte man dann ja "nur" 19 Gbps [912 GB/s]
als weiteren Pluspunkt für die 3090 verbauen. Eine 3080 Ti mit 352-bit und 21 Gbps hätte z.B. auch nur unwesentlich mehr Bandbreite -> 924 GB/s.
Nach der GTX TITAN X, TITAN X (Pascal), GTX 1080 Ti, TITAN Xp und RTX 2080 Ti gibt es sicherlich viele potentielle Käufer, die mehr VRAM beim Topmodell im Desktop-Segment erwarten, aber auch nicht bereit sind die $2500 für eine TITAN RTX (oder mehr) auf den Tisch zu legen; also wo die absolute Schmerzgrenze bei $1199-1999 liegen dürfte. Im Vergleich bis April 2012 schon ein enormer Anstieg, wo $500-650 für Highend aufgerufen wurde (Mitte Mai des Jahres kam dann ja die GTX 690 für $999). Ist AMD dieses Jahr, zumindest abseits von RT, konkurrenzfähig (hier gilt es zumindest Turing zu schlagen) und bietet z.B. für $999-1199 nun bis zu 24GB und NV für ähnliche Preise weiterhin maximal 12GB, wäre es sicherlich negative PR und der ein oder andere Enthusiast würde sich Gedanken machen ins andere Lager zu wechseln.
An GA102 TITAN glaube ich wie gesagt auch nicht mehr und nach grob zwei Jahren nach dem letzten Compute-Monster TITAN V könnte man sicherlich auch für dieses Segment einen Nachfolger bringen.
basix
2020-07-09, 15:34:09
Evtl. sehen wir auch endlich mal wieder die Freigabe von Partnerdesigns mit doppelter Kapazität. Das gab's zuletzt bei der GeForce GTX 780, welche später, als AMD geil wurde, mit 6 GiByte angeboten wurde ("Titan Light"). :up:
MfG
Raff
+1
Evtl. nicht 2x aber 1.5x mit 12gbit Chips, wäre auch OK.
Palpatin
2020-07-09, 18:16:36
ich hab den eindruck, das nv nicht will, das eine 3070 mehr gb hat als eine 3080ti. deshalb wirds das nicht geben.
Vor allem will NV nicht das eine 3070 genau soviel VRAM wie der 4070 Refresh hat. Warum sollte man die Kuh nur einmal melken.
Erst liefert man soviel Performance das alle scharf drauf sind und über den VRAM hinweg sehen. Dann nutzt man seinen Einfluss und sorgt dafür das für die RT features der VRAM bedarf ordentlich steigt um dann eine Refresh Karte mit nur etwas mehr performance und doppeltem VRAM wieder gut zu verkaufen. So würds ich machen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.