PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 [16] 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

BlacKi
2020-06-19, 16:56:30
+1

Linmoum
2020-06-19, 16:59:32
Wobei ich mich frage, warum man sich ohne Not mit dem PCB so unter Druck setzt. Extra teure Sonderlösungen nur um alles besonders kurz zu machen? Der Vorteil erschließt sich mir zum jetzigen Zeitpunkt irgendwie nicht.Ich würde erstmal abwarten, ob das alles wirklich so aufwendig wird... ;)

Tja...

Wenn ich so dürfte, wie ich wollte. geht aber nicht. Aber das Meiste, was hier so an Render-Bildern und Co-Pro-Märchen rumschwirrt, ist kompletter Bullshit. Das wird konventioneller, als viele denken. Aber deswegen nicht minder gut. :)https://www.igorslab.de/community/threads/nvidias-m%C3%B6glicher-fahrplan-bis-zum-launch-der-geforce-rtx-3090-und-3080-arbeitsbezeichnung-neuer-k%C3%BChler-in-mehreren-varianten-im-test.2827/#post-61655

Dural
2020-06-19, 20:54:03
So banal das es bis heute keine vergleichbare karte mit diesen daten auf einem so kleinen pcb gab... Und er behauptet ja noch das 24 speicher chips auf der topkarte drauf sind, platz ist ja genug vorhanden.

Ich würde schlicht behauptet der hat 0,0 quellen ;)

Grendizer
2020-06-19, 21:03:49
Da er schon bei diversen Auftragsfertigern die Produktion besichtigen konnte ist das eher eine böswillige Behauptung.

mironicus
2020-06-19, 21:18:55
Braucht man denn genau 24 Speicherchips für 24 Gigabyte? Gibt es nicht Speicher mit 2 Gigabyte pro Chip?

basix
2020-06-20, 09:26:27
Braucht man denn genau 24 Speicherchips für 24 Gigabyte? Gibt es nicht Speicher mit 2 Gigabyte pro Chip?

Ja, gibt es seit Anfang 2018 mit 18 GT/s: https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Samsung-schnellster-GDDR6-RAM-1248172/

HOT
2020-06-20, 10:03:34
Aber nur von Samsung. Andere Hersteller bieten bisher nur 1GB-Chips an und auch nicht so schnelle.

Leonidas
2020-06-20, 11:56:09
Nochmals neue Ampere-Specs seitens CatCorgi: Ist ziemlich gleich zu dem, was Kopite7kimi schon gemeldet hatte. Alle Spec-Leaks von Kopite7kimi, Igor & CatCorgi im Überblick:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-19-juni-2020

HOT
2020-06-20, 12:04:46
Dann nutzt man für die Titan vllt. nur 18GT/s RAM, aber dafür eben 16Mbit. Dann bräuchte man eben nur 12 Chips nach wie vor, aber man bräuchte dann sicherlich ein anderes PCB aufgrund des klassischeren Layouts dann. Aber es gibt ja auch zwei.

robbitop
2020-06-20, 12:11:47
Aber man hat weniger Bandbreite, was die Performance schmälern würde. Klingt IMO etwas merkwürdig.

HOT
2020-06-20, 12:12:44
Vielleicht gehts aber einfach nicht anders ;). Die Titan kann man ja refreshen, so wie bei Pascal oder Kepler.

Fragman
2020-06-20, 12:19:43
Aber man hat weniger Bandbreite, was die Performance schmälern würde. Klingt IMO etwas merkwürdig.

Mag vielleicht komisch klingen, ja, aber ich glaube die Titan hat einfach das Mehr an Ram als Priorität und bei den erwarteten Preisen wird das keine Gamerkarte mehr sein.
Nicht das ich so eine Karte kaufen würde, aber zum Rendern wäre die ideal und der Bandbreitenverlust wär mir da egal.

robbitop
2020-06-20, 12:21:05
Das klingt nicht nach NV. Die Titan ist immer die stärkste Karte (zu ihrem Release). Das würde die Marke Titan schwächen - und NV ist dieser Aspekt schon immer wichtig gewesen. Der Wert einer Marke ist super wichtig für nahezu jedes Geschäft. IMO unwahrscheinlich.

Ggf nennt man die Karte dann einfach nicht Titan und auch nicht Ti. Um beides nicht zu schwächen.

HOT
2020-06-20, 12:22:42
Das stimmt nicht. Die 780Ti war auch schneller als die Titan - jedenfalls bis der Refesh kam. Die meisten Maxwell-980Ti-Custom-Karten waren ebenfalls schneller als die Titan X. die 1080Ti war auch schneller als die Titan X (Pascal). Da gibts eher das gegenteilige Muster. Der Unterschied diesmal ist nur, dass die Titan zusammen mit der 3090 erscheint, das könnte aber auch gleich den Namen der 3090 erklären, da sie eben schneller als die Titan in Games ist. Ich seh das auch so, die Titan bedient nicht den Gamermarkt.

robbitop
2020-06-20, 12:23:50
Die 780ti kam aber nach der Titan. Zum jeweiligen Release! Die Titan classic war zu ihrem release die schnellste Karte. Später kam die 780ti - aber Genau deshalb kam dann auch die Titan Black. ;)

robbitop
2020-06-20, 12:37:25
Das selbe gilt auch für Pascal. Die Titan X Pascal kam viele Monate vor der 1080ti. Und war damit die schnellste Karte. Als die 1080ti kam, kam aus dem gleichen Grund kurz danach die Titan XP.
Bitte immer auch die Timeline im Auge behalten.

Leonidas
2020-06-20, 12:48:59
Richtig. Sofern NV diese Marke erhalten will, haben sie gar keine Wahl, als das beste hinzustellen, was geht.

Dabei wäre es sowieso unklar, wieso eine 3090 mit 21Gbps möglich sein soll, eine Titan dann nicht. Am Preispunkt wird nicht hängen.

Ich vermute daher eher einen Fehler beim Weitertragen der Gerüchte. Oder jemand testet, mit wieviel Blödsinn man die Leaker füttern kann, bis sie merken, das aus der falschen Quelle trinken. Was auch immer ... man tastet sich heran, diese Phase gehört dazu und mit der Zeit bildet sich dann ein halbwegs komplettes Bild raus. Bis August/September ist noch Zeit.

robbitop
2020-06-20, 12:51:18
Oder man nimmt weder den Titan noch den Ti Brand. Dann wäre es weniger schädlich.

x-force
2020-06-20, 12:56:53
Dabei wäre es sowieso unklar, wieso eine 3090 mit 21Gbps möglich sein soll, eine Titan dann nicht. Am Preispunkt wird nicht hängen.

21gbps wird mehr ziehen als 17gbps
also wegen stromverbrauch durch doppelte speichermenge?

HOT
2020-06-20, 12:59:30
Ich denke, dass das wieder ne Eigenentwicklung von Micron sein könnte und hier gibts halt nur 8 Gbit-Speicher. Das erklärt das Ganze doch gut. Bisher liefert meines Wissens nur Samsung überhaupt 16Gbit. Alle entsprechenden Quadros sind mit Samsung GDDR6 ausgestattet AFAIK.

Und genau die Timeline ist das Problem. Die besseren Titanen kamen stets weit nach der Ti. Es ist überhaupt nicht entscheidend, ob die Titan diese Speicherbandbreite hat in meinen Augen. Aber wir werden es ja sehen.

robbitop
2020-06-20, 13:10:40
Get your facts straight.

Titan feb 2013
780/ti nov 2013
Titan war 9 Monate die schnellste Karte.
Titan Black feb 2014
Es dauerte nur 3 Monate bis die Titan entsprechend refresht wurde.

Titan X (pascal) kam aug 2016
1080Ti kam mär 2017
Titan X war 7 Monate die schnellste Karte.
Titan Xp kam Mär 2017 - also wurde 1 Monat später refresht.

Die Titan war zum Release IMMER die schnellste Karte und das für einige Monate. Viel länger als es dauerte, dass ein Refresh sie über die Ti hebt.

HOT
2020-06-20, 13:18:13
Dann waren die Zeiträume nicht ganz so lange :D.
Wie auch immer, das Erklärungsmuster bleibt dasselbe. Wir gesagt, mal sehen, was da letztendlich bei rumkommt. Aber es kann eben sein, dass es einfach nicht anders geht, solange man keine GDDR6X in 16Mbit bekommt. Ich will ja nur aufzeigen, dass es durchaus sein kann, was da kolpotiert wird.

robbitop
2020-06-20, 13:20:52
Nein. Da Titans zum Release (und das für relativ lange Zeit) immer die stärkste Karte waren und die Marke entsprechenden Wert hat, wäre es inkonsistent und schädlich eine Titan zu bringen, die bei Release nicht die schnellste Karte wäre.
Das ginge nur wie bei Pascal und Kepler in dem man die 102 Karte für eine Weile für Titan exklusiv machen würde. Bzw in dem Fall ggf eine stark beschnittene.

Wenn man das tut, dann wird es keine Titan und auch keine Ti sein. Man kann sie 3090 nennen. Die 90 ist noch keine starke Brand. Wäre für den Endkunden trotzdem komisch. Als Quadro oder Tesla kann man das machen.

MiamiNice
2020-06-20, 13:47:45
Ich empfand die Titan nie als Gamer Karte sondern eher als günstigen Quadro Ersatz für Workstations. Den Speicher braucht man als Gamer nicht und andere Karte waren immer gleich schnell oder gar schneller.
Ampere wird NV sicherlich schnell ersetzen wollen, wegen AMD oder weil man z.b. nicht den optimalen Prozess hat. Wird imo nicht lange leben und schnell einen Refresh bekommen.
Was spricht gegen eine "Gamer" Titan a.k.a 3090 und eine Workstation Titan? Und alles auf einmal raus, da kurze Lebensdauer.

robbitop
2020-06-20, 14:00:59
Das mag dann aber mehr aus deiner persönlichen Wahrnehmung kommen. Es gab zumindest bei Kepler, Maxwell und Pascal einige Monate (idr mehr als ein halbes Jahr) lang keinen 102 außerhalb der Titan. Wollte man also im hier und jetzt deutlich mehr GPU Leistung, musste man die Titan kaufen. Erst bei Turing kam die 102 als ti zum Launch - weil TU104 ggü gp102 kaum schneller war.
Auch vor Turing gab es mit der Titan V eine Karte, die deutlich schneller als gp102 war. Allerdings deutlichst teurer.

Und auch nach dem Launch der jeweiligen ti war die jeweilig aktuelle Titan immer etwas schneller wegen mehr SMs und idr etwas breiterem Speicherinterface. Natürlich passte das reine P/L nicht dazu. Aber wenn es um die letzten 5-10% geht -> Titan. Falls das Argument mit custom tis kommt: Als absoluter Enthusiast hat man dann eine Wakü (oder after market lukü) drauf gemacht und diese übertaktet.

MiamiNice
2020-06-20, 14:08:25
Ich weiss, nichts desto trotz scheinen sich jetzt die Karten neu zu mischen. Die Jungs aus dem prof. Umfeld wollen sicher eine Karte die mehr als 20GB Speicher hat und denen ist die Speicermenge sicherlich wichtiger als die Bandbreite. Für Gamer ist alles ab 12GB ziemlich "über" da kommt es mehr auf die Bandbreite an.
Wenn das Gerücht stimmt kann ich mir das nur so erklären. Ansonsten macht die Titan nach der 3090 keinen Sinn.

robbitop
2020-06-20, 14:13:33
Deshalb tippe ich auf 2 Möglichkeiten:

1) entweder hat man Werte vertauscht: qu gbps passen viel besser zur 3080 - die hat ja auch viel weniger aktive SMs. Die braucht also auch weniger Bandbreite. (Halte ich persönlich für die höhere Wahrscheinlichkeit)

2) oder man hat 17gbps wirklich im top Produkt. Benennt dies dann aber nicht als Titan oder ti.

MiamiNice
2020-06-20, 14:20:33
Falsch abschreiben bei nur drei Produkten und dann bei so etwas wie einem Leak zu neuen GPUs? Klingt für mich nicht so wahrscheinlich, zumal man es ja auf dem eigenen Twitter oder was auch immer Account postet und man es korrigieren könnte.
Da halte ich eher für wahrscheinlich das die 3090 die Titan ist und die 24*GB Karte speziell für Workstations kommt.
Gesetz dem Fall, das das Gerücht stimmt, was zumindest mir ziemlich unwahrscheinlich erscheint. Warum sollte man nicht die doppelte Menge der selben Chips verbauen können, wenn man eh schon die Rückseite nutzt? Erschließt sich mir leider nicht.

robbitop
2020-06-20, 14:31:26
Eine 3080 wäre auch eine viel volumenstärkere Karte als die Top SKU und würde viel mehr von diesem Top Speicher sparen. Insbesondere da man wegen wesentlicher SM Beschneidung diese eh nicht braucht. Auch ist bei der Top SKU auch viel mehr Geld für ein PCB mit vielen Speicherbausteinen übrig. Auch hat sie alle SMs aktiviert.

Was das Vertauschen angeht: bei Leaks gibt es schnell auch mal Fehlinformationen. Jemand hat sich vertan und dem Leaker es falsch kommuniziert. Auch bewußte spezifische Fehlinformationen kann es geben. In dem man verschiedenen Leuten eine sehr ähnliche Geschichte jedoch mit bewusst unterschiedlichen Details erzählt, ist nachvollziehbar, woher die Schwachstelle kommt.

Ich halte es persönlich für die unwahrscheinlichere Variante, dass der Top Dog den langsamen Speicher bekommt. Und wenn dann aber nur als Profiprodukt - nicht als Gamer Produkt. Da passt einfach was nicht.

MiamiNice
2020-06-20, 14:36:02
Du meinst so?

2nd Gen NVIDIA TITAN
GA102-400-A1 5376 24GB 21Gbps

GeForce RTX 3090
GA102-300-A1 5248 12GB 19Gbps

GeForce RTX 3080
GA102-200-Kx-A1 4352 10GB 17Gbps

Ich denke der ganze Leak ist eine Nebelkerze.

Daredevil
2020-06-20, 15:00:33
Ne 2080S hat an der Stelle doch auch schon den schnelleren Speicher als ne 2080ti. ( Wenn man diese "2080tiS" nicht bedenkt, die MSI da zusammen gewerkelt hat )

robbitop
2020-06-20, 15:14:03
Das ist was völlig anderes. Die 2080S hat nur ein 256 bit si. Basiert halt auf einrm 104. Die 2080ti ein 384 bit (wovon 352 aktiv sind). Diesmal sind aber alle top SKUs 102. Keines davon hat 256 bit.
Am besten schaut man sich generationsnormiert die Metrik GB/s pro TFLOP an. ;)

@Miami
Ja entweder so oder er ist schlichtweg eine Nebelkerze.

unl34shed
2020-06-20, 15:56:03
Die 3080 hat deutlich weniger SMs.
Wenn mann SMs durch Bandbreite rechnet, kommt man auf 5,7 GB/s/SM für die 3080.
Bei der 3090 kommt man mit den schnelleren Chips auch auf 5,69 GB/s/SM.

Und wenn man bei der Titan die 24 GB haben will, dann könnte es doch wirlich an den fehlenden 16Gbit Chips liegen. Klingt für mich jetzt nicht so abwägig.

[MK2]Mythos
2020-06-20, 22:50:35
Igor plaudert wieder ein wenig:

Pj4Xlvn_mdo

MiamiNice
2020-06-20, 23:38:09
@Miami
Ja entweder so oder er ist schlichtweg eine Nebelkerze.

Hat sich, denke ich, geklärt.

horn 12
2020-06-21, 09:55:33
3D Mark Werte der 3080 TI oder 3090
Oder vielleicht doch nur 3080, eher nicht denke ich!

https://videocardz.com/newz/nvidia-geforce-rtx-3080-ti-3090-ampere-3dmark-time-spy-score-leaks

PS:
Passt auch zu dem von Guru3D.com
Hype Train will leave the station when 3Dmark Leak finally hit us, e.g. 50k-60k in FS

Leonidas
2020-06-21, 09:58:44
Original hier:
https://hardwareleaks.com/2020/06/21/exclusive-first-look-at-nvidias-ampere-gaming-performance/

Die Frage ist, wie sicher wir uns sind, das hier tatsächlich Ampere vorliegt. Den Wert selber kann eine (sehr) hochgezogene GTX2080Ti schließlich auch erreichen.

OgrEGT
2020-06-21, 10:10:32
Original hier:
https://hardwareleaks.com/2020/06/21/exclusive-first-look-at-nvidias-ampere-gaming-performance/

Die Frage ist, wie sicher wir uns sind, das hier tatsächlich Ampere vorliegt. Den Wert selber kann eine (sehr) hochgezogene GTX2080Ti schließlich auch erreichen.

Dann würde 3DMark die Karte aber richtig auslesen?

Die Frage ist jetzt falls das eine Ampere Karte war, welche? 3080 oder 3090 oder Titan RTX2...

MiamiNice
2020-06-21, 10:19:41
Das muss die, nicht finale, 3080 sein.
Ich bleibe btw. bei meiner These von gestern.

Profi Karte
Gamer Ti
standard 3080

mironicus
2020-06-21, 10:26:00
30% ist zu wenig Mehrleistung für eine Karte mit Die-Shrink, vor allem wenn sie auch noch mehr Strom zieht als der Vorgänger.

Piefkee
2020-06-21, 10:26:03
Es kann ehrlich gesagt alle 3 Varianten sein. Eines ist aber fast sicher es ist der große Die GA102...

Wenn man jetzt von der 3080 ausgeht. Wird die 3080Ti nicht schneller als 50% mehr als eine. 2080Ti FE werden.

[MK2]Mythos
2020-06-21, 10:43:12
Also die "übliche" Mehrleistung. Wenn man nun annimmt dass man bei AMD auch nur annähernd die gesetzten Ziele erreicht hat, dann wird das diesmal ein spannendes Kopf an Kopfrennen! :D

MiamiNice
2020-06-21, 10:57:28
Wenn man jetzt von der 3080 ausgeht. Wird die 3080Ti nicht schneller als 50% mehr als eine. 2080Ti FE werden.

Das ist das Problem. Damit stimmen die bisherigen Leaks, also wahrscheinlich auch die Speicher Chips. Und dann kann es nur so sein wie von mir gestern angenommen.

Ich hatte echt auf Nebelkerzen gehofft und auf eine +70% Karte. Schade.

€: Damit ist das Preisniveau auch schon ziemlich gesetzt.

Leonidas
2020-06-21, 11:03:38
Dann würde 3DMark die Karte aber richtig auslesen?



Normalerweise ja. Aber nicht, wenn man vorsätzlich foppen will. Dann verändert man die ID und Kennung im BIOS - und es kommt "unerkannt" raus.

PS: Reine theoretische Möglichkeit.

unl34shed
2020-06-21, 11:10:28
Ich hatte echt auf Nebelkerzen gehofft und auf eine +70% Karte. Schade.

Aber wo sollen die 70% denn auch herkommen? Die Anzahl der Shader ist in etwa bekannt, +20%, die restliche Leistung müsste also vom Takt kommen, was +40% mehr Takt bedeuten würde (Minus ein paar Prozent durch IPC).

Wenn man von 1,8 GHz ausgeht, die bei einer 2080 ti beim spielen anliegen, landen wir bei 2,5 GHz. Das wird vielleicht mit OC möglich sein, aber wohl kaum @ Stock.

MiamiNice
2020-06-21, 11:24:41
Vorab wurde auf extrem hohe Taktraten spekuliert. Ich dachte wir sehen eine 2,5Ghz TI.
Zumindest können wir wohl davon ausgehen das es eher nicht teurer wird.

RLZ
2020-06-21, 11:24:52
Aber wo sollen die 70% denn auch herkommen? Die Anzahl der Shader ist in etwa bekannt, +20%, die restliche Leistung müsste also vom Takt kommen, was +40% mehr Takt bedeuten würde (Minus ein paar Prozent durch IPC).
Schöne Theorie wenn man wüsste, ob die Shaderleistung vergleichbar ist.

robbitop
2020-06-21, 11:32:38
Vorab wurde auf extrem hohe Taktraten spekuliert. Ich dachte wir sehen eine 2,5Ghz TI.
Zumindest können wir wohl davon ausgehen das es eher nicht teurer wird.
Glaub doch nicht immer sofort alles. ;)
Das kann alles sein. Es ist noch 3 Monate bis zum Launch. Kann ein niedrig taktendes Vorserienmodell sein, kann ein Auslesefehler sein, kann ein Fake sein...

Troyan
2020-06-21, 11:36:40
Die 13990 Punkte einer 2080TI im Vergleich sind irgendwie falsch... Meine 2080TI mit 300W/360W schafft nur 13060 bzw. 13990 Punkte bei 1791Mhz bzw. 1911Mhz.

dildo4u
2020-06-21, 11:41:48
Das ist die GPU Score.

https://live.staticflickr.com/65535/50028250403_84b194f1b1_o.png (https://flic.kr/p/2jdPRTr)untitled-49 (https://flic.kr/p/2jdPRTr) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.guru3d.com/articles_pages/geforce_rtx_2080_ti_founders_review,33.html

Troyan
2020-06-21, 11:44:43
Das ist mir klar. Ich komme auf keine 13990 Punkte mit 275W.

[MK2]Mythos
2020-06-21, 11:47:03
Das ist mir klar. Ich komme auf keine 13990 Punkte mit 275W.
Dann hast du wohl ne ziemlich schlechte Ti erwischt...
Im ernst, was wird das hier? Versuchst du den Vorsprung der Ergebnisse zu erhöhen weil deine Karte noch langsamer ist, oder zweifelst du die Ergebnisse wegen ein paar hundert Punkten Unterschied an?

OgrEGT
2020-06-21, 11:47:59
Normalerweise ja. Aber nicht, wenn man vorsätzlich foppen will. Dann verändert man die ID und Kennung im BIOS - und es kommt "unerkannt" raus.

PS: Reine theoretische Möglichkeit.

In der Original Quelle stand dass es ein NV Mitarbeiter war... also eigentlich kein Grund zur Fälschung... es sei denn man will absichtlich tiefstapeln :ugly:

dildo4u
2020-06-21, 11:48:21
Der Guru3D Wert ist vom Launch würde mich wundern wenn Nvidia rückwärts geht mit dem Treiber.

Edgecrusher86
2020-06-21, 11:50:13
Völlig ausschließen, dass es eine 3080 ist kann man wohl auch noch nicht. Angenommen das war nur der eingetragene Boost Clock und die eigentlichen Taktraten nochmals etwas über 10% darüber, was dann Richtung 2,2 GHz wäre.
10%(+) IPC darauf und 2080 Ti FE + ~30% wäre auch mit 68SP nicht völlig unmöglich.

Für den Big Chip, vorausgesetzt die Taktraten wären ähnlich hoch, könnte man dann wohl nochmals um die 20% Mehrleistung veranschlagen.

Ja, der VRAM-Takt sieht seltsam aus.
6000 x2, also 12000 alias knapp 24 Gbps wäre doch etwas viel des Guten ausgehend der 21 Gbps Spekulation; die Hälfte davon eigentlich zu wenig.

Mal schauen.

Troyan
2020-06-21, 11:51:21
Mythos;12344108']Dann hast du wohl ne ziemlich schlechte Ti erwischt...
Im ernst, was wird das hier? Versuchst du den Vorsprung der Ergebnisse zu erhöhen weil deine Karte noch langsamer ist, oder zweifelst du die Ergebnisse wegen ein paar hundert Punkten Unterschied an?

Nein, sondern einfach nur zu wissen, was die Ausgangslage ist. Immerhin hat der Typ seine Vergleichswerte auch von 13300 auf 13900 erhöht. :freak:

mironicus
2020-06-21, 11:58:08
Das ist mir klar. Ich komme auf keine 13990 Punkte mit 275W.

Durch Untervolting auf 0,9 Volt und Speicher + 1000 habe ich 14900 Punkte. Das ist für mich ein guter Kompromiß um die Karte leise zu halten und die Lebenspanne zu maximieren.

Fragman
2020-06-21, 12:09:12
Also wenn ne 3080TI 30% auf eine aktuelle TI legt, wär das schon recht viel mehr Leistung.
Bei aller Kritik an den "nur" 30% mehr, wir sind da schon in ziemlich hohen Performanceratings angekommen, das sollte man immer nicht vergessen. Wenn die RT Performance deutlich mehr als die 30% zulegt, dann kann man sich eigentlich nicht wirklich beschweren, auch wenn noch mehr besser wäre. Aber die Grundperformance wäre dann so oder so recht hoch.

dildo4u
2020-06-21, 12:16:59
Für ein Shrink wäre es natürlich ein Witz 980 auf 1080 waren um 80% +.
Der Leak könnte die 3080 sein.

https://live.staticflickr.com/65535/50029144497_2411fdaa1c_o.png (https://flic.kr/p/2jdUrER)2020-06-21 (2) (https://flic.kr/p/2jdUrER) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.computerbase.de/2016-07/3dmark-time-spy-dx12-benchmark/2/

Linmoum
2020-06-21, 12:19:53
Und auch pixeljetstream hat hier schon mehrfach erklärt, dass der Sprung von Maxwell zu Pascal schlicht nicht die Regel ist und sein wird.

Über das angebliche Ergebnis braucht man nicht enttäuscht sein, es ist vielmehr das, was realistisch erwartbar war und ist.

dildo4u
2020-06-21, 12:21:37
Von der 3080 ich meine AMD will +50% im selben Node erreichen.

unl34shed
2020-06-21, 12:23:51
Von der 3080 ich meine AMD will +50% im selben Node erreichen.

Von einer kleinen Mid-range Karte zu einer High-end Karte. Dass ist doch was völlig anderes....

Linmoum
2020-06-21, 12:23:55
Von der 3080 ich meine AMD will +50% im selben Node erreichen.Aha. Will AMD das?

Das einzige was man "weiß", sind potentiell 80 CUs. Also ähnliche wie GA102. Rohleistungsnormiert sind Turing und RDNA auf demselben Performanceniveau. Der Rest wird sich zeigen.

[MK2]Mythos
2020-06-21, 12:26:22
Von der 3080 ich meine AMD will +50% im selben Node erreichen.

AMD hat aber auch mehr aufzuholen. Da gab es den Maxwell/Pascal Moment eben noch nicht.

dildo4u
2020-06-21, 12:27:53
Mythos;12344164']AMD hat aber auch mehr aufzuholen. Da gab es den Maxwell/Pascal Moment eben noch nicht.
Nicht wirklich.

https://www.computerbase.de/2019-07/radeon-rx-5700-xt-test/4/

mironicus
2020-06-21, 12:30:18
Während AMD schon die dritte Generation einer 7 nm-GPUs herausbringt, ist das für NVidia die erste Generation nach 12 nm. Da kann man jetzt wohl auch keine Wunder erwarten. Aber es wäre schon enttäuschend, wenn man die Taktraten der alten Generation nicht übertreffen kann, bzw. dafür auch noch 320-350 Watt benötigt.

SKYNET
2020-06-21, 12:37:33
Aha. Will AMD das?

Das einzige was man "weiß", sind potentiell 80 CUs. Also ähnliche wie GA102. Rohleistungsnormiert sind Turing und RDNA auf demselben Performanceniveau. Der Rest wird sich zeigen.


da hat dann aber AMD den vorteil, sie kennen den 7nm prozess schon ziemlich gut, und dürften dahingehend die hardware optimiert haben... für NV ist so ein kleiner prozess absolutes neuland, da muss sich zeigen wie gut die das hinbekommen, denke könnte so laufen: NV hat die theoretisch bessere rohleistung, AMD aber durch die erfahrung mit dem 7nm prozess eine optimierung diesens, was am ende auf nen pat rauslaufen wird.

wir können uns nur wünschen das sämtliche karten absolute auf augenhöhe zum konkurrenten werkeln, weil nur so kann es dann einen preiskampf geben und die grakas wieder in normale regionen drücken(= <1000€ fürs topmodell), weil wenn nur einer schneller ist als der andere, wird der das schamlos ausnutzen(ja, auch AMD bei den GPUs) und sich das ganze vergolden lassen.

dildo4u
2020-06-21, 12:41:11
Wenn das Ding so langsam ist wird das eher daran liegen, das sie stattdessen die RT Performance massiv aufgebohrt haben und sie drauf setzen das Next-Gen Games dort massiv limitiert werden.

Linmoum
2020-06-21, 12:43:02
Während AMD schon die dritte Generation einer 7 nm-GPUs herausbringt, ist das für NVidia die erste Generation nach 12 nm. Da kann man jetzt wohl auch keine Wunder erwarten. Aber es wäre schon enttäuschend, wenn man die Taktraten der alten Generation nicht übertreffen kann, bzw. dafür auch noch 320-350 Watt benötigt.3DMark liest beim Takt unveröffentlichter GPUs auch gerne mal Quatsch aus, zumindest darauf würde ich nichts geben.

mironicus
2020-06-21, 12:49:45
Die Taktraten werden sowieso noch nicht final sein, aber es ist klar das sich NVidia und AMD an einem entsprechenden Konkurrenzprodukt orientieren und dann noch kleine Anpassungen vor dem Release vornehmen. Igor hat das in seinem letzten Video ganz gut erklärt.

Pj4Xlvn_mdo

BlacKi
2020-06-21, 13:08:02
da hat dann aber AMD den vorteil, sie kennen den 7nm prozess schon ziemlich gut, und dürften dahingehend die hardware optimiert haben... für NV ist so ein kleiner prozess absolutes neuland, da muss sich zeigen wie gut die das hinbekommen, denke könnte so laufen:
seit wann spekulieren wir auf 7nm? wenn es 7nm wäre, dann wäre es die 2. chipgeneration in 7nm und seit wann muss man prozesse kennenlernen?

das macht nur wenig sinn.

Während AMD schon die dritte Generation einer 7 nm-GPUs herausbringt, ist das für NVidia die erste Generation nach 12 nm. Da kann man jetzt wohl auch keine Wunder erwarten. Aber es wäre schon enttäuschend, wenn man die Taktraten der alten Generation nicht übertreffen kann, bzw. dafür auch noch 320-350 Watt benötigt.
lebt ihr in einer verkehrten welt? natürlich bringen bessere prozesse höhere performance gains, als das man im selben prozess noch etwas herausholen kann. das streite ich nicht ab das man noch optimieren kann, aber das sind eher peanuts.

robbitop
2020-06-21, 13:10:55
Mythos;12344164']AMD hat aber auch mehr aufzuholen. Da gab es den Maxwell/Pascal Moment eben noch nicht.

RDNA1 verschlafen? Der rohleistungsnormierte Performancesprung war enorm. Man lag rohleistungsnormiert sehr sehr knapp unter Turinglevel.

Daredevil
2020-06-21, 13:17:22
AMD hat aber "einfach" fehlende Architektur güte mit dem Fertigungsvorteil ausgespielt.
AMD kann mit Intel/Nvidia konkurrieren, stell dir aber nur mal vor, die würden ihr Lineup auf 7nm shrinken, dann sieht es nicht mehr so rosig aus.
Die Perf/Watt stimmt auf jeden Fall, aber da muss trotzdem noch mehr kommen, um auch für die Konkurrenz gewappnet zu sein.
Sieht ja stark so aus, als wäre RDNA2 so ein "Tock".

SKYNET
2020-06-21, 13:22:02
30% ist zu wenig Mehrleistung für eine Karte mit Die-Shrink, vor allem wenn sie auch noch mehr Strom zieht als der Vorgänger.


ich weiss, ich wiederhole mich: aber der jeweilige nachfolger der jetzigen gen. wird in der reinen rohleistung genau das machen +30%, nur alles andere wird DEUTLICH zulegen.

die zeiten wo es sprünge von 50% und mehr bei der reinen rohpower gab, sind fertig. :)

SKYNET
2020-06-21, 13:23:17
Normalerweise ja. Aber nicht, wenn man vorsätzlich foppen will. Dann verändert man die ID und Kennung im BIOS - und es kommt "unerkannt" raus.

PS: Reine theoretische Möglichkeit.

geht aber bei NV nicht, weil dann lässt sich das bios nicht mehr flashen, weil es nicht zertifiziert wurde :)

SKYNET
2020-06-21, 13:24:17
Das ist mir klar. Ich komme auf keine 13990 Punkte mit 275W.

weil halt der rest von deinem system ne krücke ist :)

reaperrr
2020-06-21, 13:27:45
RDNA1 verschlafen? Der rohleistungsnormierte Performancesprung war enorm. Man lag rohleistungsnormiert sehr sehr knapp unter Turinglevel.
RDNA1 hat aber zumindest in Form der 5700XT eine schlechtere Perf/W als Turing, trotz 7nm vs. 12nm (bzw. 16nm++).

Ein entschlackter, auf Gaming optimierter (SI/HBM halbiert, HalfRate-FP64 raus usw.) Vega20 in N7P wäre von der Perf/W und Perf/mm² nicht viel schlechter als N10 ausgefallen. Schon schlechter, aber nicht so, dass man RDNA1 in der Hinsicht als bahnbrechend bezeichnen könnte.

Radeonfreak
2020-06-21, 13:32:29
weil halt der rest von deinem system ne krücke ist :)

Ja. 15100 hab ich auch.

Linmoum
2020-06-21, 13:34:01
RDNA1 hat aber zumindest in Form der 5700XT eine schlechtere Perf/W als Turing, trotz 7nm vs. 12nm (bzw. 16nm++).

Ein entschlackter, auf Gaming optimierter (SI/HBM halbiert, HalfRate-FP64 raus usw.) Vega20 in N7P wäre von der Perf/W und Perf/mm² nicht viel schlechter als N10 ausgefallen. Schon schlechter, aber nicht so, dass man RDNA1 in der Hinsicht als bahnbrechend bezeichnen könnte.
Robbitop sprach von Performance, nicht Perf/W. Kleiner, aber feiner Unterschied.

Und da stinkt alles an GCN einfach nur gruselig ab.

Leonidas
2020-06-21, 13:35:36
geht aber bei NV nicht, weil dann lässt sich das bios nicht mehr flashen, weil es nicht zertifiziert wurde :)


Ist ein Argument ...

PS: Aber galt das nicht nur für FEs?

robbitop
2020-06-21, 13:48:31
AMD hat aber "einfach" fehlende Architektur güte mit dem Fertigungsvorteil ausgespielt.
AMD kann mit Intel/Nvidia konkurrieren, stell dir aber nur mal vor, die würden ihr Lineup auf 7nm shrinken, dann sieht es nicht mehr so rosig aus.
Die Perf/Watt stimmt auf jeden Fall, aber da muss trotzdem noch mehr kommen, um auch für die Konkurrenz gewappnet zu sein.
Sieht ja stark so aus, als wäre RDNA2 so ein "Tock".
Laut AMD hat der Shrink auf 7nm nur einen Teil der besseren Energieeffizienz ggü Vega gebracht.
RDNA2 bringt gem AMD nochmal +50% Energieeffizienz. Zumindest holt man nun in großen Schritten auf.

Weiterhin ist aufgrund des Betriebspunktes eine uArch nur sehr schwer einzuordnen was Energieeffizienz angeht. Dazu kommt, dass NV bei der Fertigung bessere Spannungs/Frequenzkurven mit weniger Reserven einstellt. Deren Automatisierung - individualisiert pro Karte - scheint ein Stück besser zu sein.

[MK2]Mythos
2020-06-21, 14:09:57
RDNA1 verschlafen? Der rohleistungsnormierte Performancesprung war enorm. Man lag rohleistungsnormiert sehr sehr knapp unter Turinglevel.
Nein, habe ich nicht. Mir ging es in meiner Aussage um die Effizienz Perf/Watt und da hinkt AMD trotz Fertigungsvorteil noch leicht hinterher. Mit RDNA2 wird sich das vermutlich weitestgehend egalisiert haben weil AMD dann ohne Fertigungssprung nochmal 50% drauf legt. Und da NV offenbar aus dem Fertigungssprung auch keine Wunder erschaffen konnte, landen wir unterm Strich am Ende bei dieser Generation bei einer ähnlichen Performance und einer ähnlichen Perf/Watt zwischen NV und AMD.

robbitop
2020-06-21, 14:15:48
IIRC bezifferte AMD den Effizienzsteigerungsanteil von 14nm auf 7nm auf 30%. Wie man sieht hat es Vega20 auch nicht extremst viel gebracht. Die uArch und der Betriebspunkt machen jeweils eine Menge aus. Die Lücke wird sicher weiter schrumpfen.

MiamiNice
2020-06-21, 14:16:05
Die NV Karten kommen doch aber nicht in 7nm, oder habe ich was verpasst?

Digidi
2020-06-21, 14:21:06
@MiamiNice

Die chipfläche und die Shaderanzahl deuten eher auf den 8nm (eher 10nm) prozess von Samsung hin. Ist halt alles Speku

Schnitzl
2020-06-21, 15:03:27
ich denke das kann man als gesichert annehmen?

TGP steigt von 300W auf 350W
Prozess geht von 12nm auf 8nm
Architekturverbesserungen
mehr Shader als bei Turing
schnellerer Speicher (evtl. auch mehr davon)
höherer Takt

würde mich schon sehr wundern wenn da nicht Richtung 50% rauskommen.

y33H@
2020-06-21, 15:04:54
Wieso ausgehend von 300W? Die RTX 2080 Ti FE hat 250W 260W und die meisten Customs (deutlich) unter 300W.

robbitop
2020-06-21, 15:07:42
Fertigungsprozess ist auch noch ungeklärt. Kann 8nm sein, kann aber auch 7nm sein. Bisher alles nur irgendwelche Storys von irgendwelchen Leuten. :)

Troyan
2020-06-21, 15:13:59
Wieso ausgehend von 300W? Die RTX 2080 Ti FE hat 250W und die meisten Customs (deutlich) unter 300W.

Die FE hat 260W: https://www.nvidia.com/en-us/geforce/graphics-cards/rtx-2080-ti/#specs

Schnitzl
2020-06-21, 15:16:28
Wieso ausgehend von 300W? Die RTX 2080 Ti FE hat 250W und die meisten Customs (deutlich) unter 300W.
ah sorry, dann ist es sogar ein noch größerer Unterschied.
(sofern sich das mit den 350W nicht noch als falsch herausstellt)

@ robbitop: ok auch hier, wenns 7nm anstatt 8nm sind, spricht alles dann eher für 50% als für nur 30% mehr Performance.

Daredevil
2020-06-21, 15:19:25
Man muss aber auch dazu sagen, dass der Performancesprung bei einer 2080ti von 250w auf 350w sicherlich keine 40% sind, die man dann mehr verbraucht.
Das sind vielleicht 10-15%, wenn überhaupt. ( Ich messe jetzt nicht nach, keine Zeit ^^ )

fondness
2020-06-21, 16:06:13
RDNA1 verschlafen? Der rohleistungsnormierte Performancesprung war enorm. Man lag rohleistungsnormiert sehr sehr knapp unter Turinglevel.

Je nach Quelle liegt man mal vor- mal hinter Turing. ich denke das kann man durchaus als Gleichstand bezeichnen.

robbitop
2020-06-21, 16:20:11
Meine Aussage ist nicht wirklich anders. ;)

Schnäppchenjäger
2020-06-21, 16:39:01
Wie hoch ist die Chance, eine RTX 3080 für 500-600€ zu bekommen, nach sagen wir mal 6-8 Monaten nach Release?

Grendizer
2020-06-21, 16:43:01
Eine 3070 wird in dem Bereich liegen, eine 3080 wird wohl kaum in den Bereich kommen.

Linmoum
2020-06-21, 16:43:25
Schau dir die Preise der 2080Ti oder auch der 2080 Super an. Letztere ist knapp ein Jahr auf dem Markt, aber selbst da sind deine 500-600€ noch immer längst nicht erreicht. ;)

Wahrscheinlich ist der Preis drin, wenn Hopper, oder was auch immer der Nachfolger sein wird. kommt.

Schnäppchenjäger
2020-06-21, 16:45:43
Schau dir die Preise der 2080Ti oder auch der 2080 Super an. Letztere ist knapp ein Jahr auf dem Markt, aber selbst da sind deine 500-600€ noch immer längst nicht erreicht. ;)

Wahrscheinlich ist der Preis drin, wenn Hopper, oder was auch immer der Nachfolger sein wird. kommt.Danke für das Zurückholen in die Realität :tongue:
Denke, mehr als eine 3070 wird es dann nicht für mich werden. Lieber alle paar Jahre eine Midrange-GPU als den Preiskampf hier mitzumachen.

Daredevil
2020-06-21, 17:08:55
Die Chancen stehe allerdings gut, dass der Gebrauchtmarkt mit Turings vollgelümmelt wird, einfach weil die Karten kein HDMI 2.1 können und die neuen halt schon.
Da braucht es keine Umrüstung wegen Performance, sondern wegen mehr HDMI Bandbreite. ^^

Platos
2020-06-21, 17:33:57
hmm ja, vlt. mal nach gebrauchten 2070(s) umschauen, wenns los geht bzw. mal zuerst abwarten, wie die 3060 so da steht. Wobei ich eig. erwarte, dass die 3060 deutlich mehr RT Perfomance als die 2070 haben wird.

Von daher vlt. doch nicht eine gebrauchte Turing kaufen.

TurricanM3
2020-06-21, 17:39:17
30% Perf.Plus beim neuen Spitzenmodell wären doch prima. Man wünscht sich zwar immer mehr, aber wenn ich das mit CPUs vergleiche...
Ich weiß nur nicht was diese aberwitzigen vRAM Mengen sollen. Ich kann mit 24GB nichts anfangen. 8GB reichen mir noch immer.

SKYNET
2020-06-21, 17:47:10
Eine 3070 wird in dem Bereich liegen, eine 3080 wird wohl kaum in den Bereich kommen.


kommt auf AMD an, wenn AMD speed-leader ist, wird NV über den preis verkaufen müssen... wenn aber nicht, wirds wieder teuer :freak:

Linmoum
2020-06-21, 17:47:41
8GiB reichen schon jetzt in UHD nicht immer und wenn wir uns mit Ampere irgendwo bei +40-50% auf eine 2080Ti bewegen, dann kann auch endlich in UHD ohne Kompromisse spielen. Gut, technische Unfälle wie Mafia 3 mal ausgeklammert, aber die sind zum Glück selten. Wenn du dann noch Raytracing nutzen willst, braucht man mit 8GiB gar nicht erst ankommen. Die 11GiB der 2080Ti kriegt man schon mit Minecraft in die Knie.

Wenn ich jetzt eine GPU, gerade in der hohen Preisklasse, kaufe, dann auch mit Blick auf kommende Titel und deren Raytracing-Support. Da erwarte ich nicht nur bei der Preisklasse, dass man die Konsumenten nicht nur mit 10 GiB oder 12 GiB wieder auf "Geiz ist Geil"-Niveau abspeist.

Grendizer
2020-06-21, 17:54:54
kommt auf AMD an, wenn AMD speed-leader ist, wird NV über den preis verkaufen müssen... wenn aber nicht, wirds wieder teuer :freak:


nVidia wird sich auch bei schlechterer Leistung und höherem Preis gut genug verkaufen. Das Gros der Käufer wird noch länger eher nVidia kaufen. Da muss AMD erst 1-2 Generationen am Ball bleiben, bis man das Vertrauen der Massen wieder gewonnen hat.

TurricanM3
2020-06-21, 18:01:13
Daher schreibe ich ja für mich. UHD oder RT läuft mir sowieso zu schlecht.
Aktuell sind 24GB für mich ungefähr so sinnvoll wie 10 Displayports an der Karte.

Linmoum
2020-06-21, 18:03:11
Du weißt doch aber gar nicht, wie gut/schlecht RT mit den nächsten GPU-Gens laufen wird. ;)

Und es gibt ja nicht nur deine 8GiB und die 24GiB einer Titan. Dazwischen gibt's ja noch weitere Möglichkeiten, auch oberhalb von 10GiB/12GiB und unterhalb von 24GiB.

Daredevil
2020-06-21, 18:10:44
Was mir persönlich schon passiert ist, dass ein älteres Spiel bei 5k noch über 100fps geliefert hat, bei 6k das ganze aber eingebrochen ist, weil der RAM einfach voll war mit der 2080ti.
Also maximales Downsampling, wo Rohleistung da ist, die 11GB aber nicht reichen.
Dahingegend sind 24GB ja schon nett, aber nur, wenn man es nicht fürstlich königlich bezahlen muss. :D

TurricanM3
2020-06-21, 18:16:43
Ja mal sehen. Ich hab halt bei noch keiner Generation vRAM vermisst und wenn ich sehe was von 24GB belegt wird...

Ex3cut3r
2020-06-21, 18:22:06
Konnte sich mit den neuen Konsolen sehr bald schon ändern.

just4FunTA
2020-06-21, 18:22:25
Kein Wunder die ps4 hat ja nur 8gb insgesamt. Das wird für die ps5 verdoppelt. Also 8gb bei der nextgenGPU brauchen sie garnicht veröffentlichen.

[MK2]Mythos
2020-06-21, 18:25:47
Wenn Igor mit seiner Wattangabe für den Ram auch nur ansatzweise recht behält, wird das ja auch immer mehr zur Frage ob der Entwickler der GPU jetzt anteilig noch ein bisschen mehr Saft (und Takt) gönnen möchte, oder doch lieber "etwas" mehr Ram. Man bewegt sich ja offensichtlich am Rande des technisch machbaren bzgl Stromversorgung und Kühlung, da muss vielleicht mittlerweile mehr abgewogen werden, als man auf den ersten Blick denkt.

BlacKi
2020-06-21, 18:30:00
Kein Wunder die ps4 hat ja nur 8gb insgesamt. Das wird für die ps5 verdoppelt. Also 8gb bei der nextgenGPU brauchen sie garnicht veröffentlichen.
hat man das bei der ps4 damals eigentlich auch behauptet? ich glaub das dauert bis man mehr benötigen wird. falls nv und amd bei 8-12gb bleiben werden, dann wird der pc der kleinste nenner werden.

Ex3cut3r
2020-06-21, 18:39:35
Wird interessant werden, ob Nvidia weiterhin ihre Bonzen Preise ausruft. Oder aber aufgrund von Konkurrenzfähigen AMD Karten etwas zurückzieht. Ich dachte ja wegen Corona schon so, an einer kleinen Preissenkung out of the box. Aber das wahr wohl nur Wunschdenken.

MiamiNice
2020-06-21, 18:46:26
Daher schreibe ich ja für mich. UHD oder RT läuft mir sowieso zu schlecht.
Aktuell sind 24GB für mich ungefähr so sinnvoll wie 10 Displayports an der Karte.

Der Post könnte auch glatt von mir kommen.

just4FunTA
2020-06-21, 20:45:43
hat man das bei der ps4 damals eigentlich auch behauptet? ich glaub das dauert bis man mehr benötigen wird. falls nv und amd bei 8-12gb bleiben werden, dann wird der pc der kleinste nenner werden.

Ne das bleibt dank ms vorerst die xbox one, beim pc heisst es wie üblich friss oder stirb..

SKYNET
2020-06-21, 20:56:30
8GiB reichen schon jetzt in UHD nicht immer und wenn wir uns mit Ampere irgendwo bei +40-50% auf eine 2080Ti bewegen, dann kann auch endlich in UHD ohne Kompromisse spielen. Gut, technische Unfälle wie Mafia 3 mal ausgeklammert, aber die sind zum Glück selten. Wenn du dann noch Raytracing nutzen willst, braucht man mit 8GiB gar nicht erst ankommen. Die 11GiB der 2080Ti kriegt man schon mit Minecraft in die Knie.

Wenn ich jetzt eine GPU, gerade in der hohen Preisklasse, kaufe, dann auch mit Blick auf kommende Titel und deren Raytracing-Support. Da erwarte ich nicht nur bei der Preisklasse, dass man die Konsumenten nicht nur mit 10 GiB oder 12 GiB wieder auf "Geiz ist Geil"-Niveau abspeist.


11GB bekommst schon in FFXV mit high-res pack und 1920*1200 in die knie... in 1440p oder 4k musst da nichtmal dran denken mit high-res pack :freak:

klar is das ne programmierungssache des games, siehe DE das durchweg schick ist, und mit 8GB auskommt.... aber games wie M3 oder FFXV wirds immer wieder geben, und da bist halt mit <11GB voll am arsch wenn du höhere auflösungen und/oder max texturen nutzen willst.

WedgeAntilles
2020-06-21, 21:08:37
klar is das ne programmierungssache des games, siehe DE das durchweg schick ist, und mit 8GB auskommt.... aber games wie M3 oder FFXV wirds immer wieder geben, und da bist halt mit <11GB voll am arsch wenn du höhere auflösungen und/oder max texturen nutzen willst.

Und wenn jeder 16GB hat werden die Spiele halt so beschissen programmiert, dass auch diese 16GB voll laufen und nicht ausreichen.
Denn je unsauberer man programmieren kann, desto weniger Arbeit macht es.
Wozu effizient programmieren, wenn eh jeder viele Ressourcen zur Verfügung hat?

just4FunTA
2020-06-21, 21:16:34
Und wenn jeder 16GB hat werden die Spiele halt so beschissen programmiert, dass auch diese 16GB voll laufen und nicht ausreichen.
Denn je unsauberer man programmieren kann, desto weniger Arbeit macht es.
Wozu effizient programmieren, wenn eh jeder viele Ressourcen zur Verfügung hat?

Also gibt es durch mehr vram keinerlei Vorteile? Dann frage ich mich warum wir nicht zurück zu 2gb Vram zurück gehen mit der nextgenGpu müssten die Entwickler nur besser programmieren..

SKYNET
2020-06-21, 21:30:21
Also gibt es durch mehr vram keinerlei Vorteile? Dann frage ich mich warum wir nicht zurück zu 2gb Vram zurück gehen mit der nextgenGpu müssten die Entwickler nur besser programmieren..


jaaaa, dann ist meine GTX670 im gästerechner wieder up-to-date was die speicherbestückung angeht :ulol:

Fragman
2020-06-21, 21:33:58
Also ich wäre dafür, das die, die mehr Ram wollen, sich einfach eine entsprechende Karte kaufen. Da gibts zum einen die VII oder eben die Titan.
So würde man auch nicht alle 2 Seiten auf diese Thema zurück kommen müssen.

Troyan
2020-06-21, 21:39:13
Also gibt es durch mehr vram keinerlei Vorteile? Dann frage ich mich warum wir nicht zurück zu 2gb Vram zurück gehen mit der nextgenGpu müssten die Entwickler nur besser programmieren..

Wenn mehr RAM auch einen Nutzen hat, ist es doch in Ordnung. Aber wenn Spiele wie Call of Duty seit Jahren technisch veraltet sind und dann noch 8GB+ benötigen, dann muss man die Notwendigkeit einfach hinterfragen.

Ob 10GB zu wenig sind? Kein Plan. Die XBSX hat auch nur 10GB schnell angebunden. Ob Spieleentwickler mehr verwenden?!

Linmoum
2020-06-21, 21:42:11
10GiB sind dann zu wenig, wenn eine Ti seit 2017 bereits 11GiB hat. Wir brauchen Fortschritt, keinen Rückschritt. Gerade (aber nicht nur) im Hinblick auf Raytracing.

MiamiNice
2020-06-21, 23:19:28
11GB bekommst schon in FFXV mit high-res pack und 1920*1200 in die knie... in 1440p oder 4k musst da nichtmal dran denken mit high-res pack :freak:

klar is das ne programmierungssache des games, siehe DE das durchweg schick ist, und mit 8GB auskommt.... aber games wie M3 oder FFXV wirds immer wieder geben, und da bist halt mit <11GB voll am arsch wenn du höhere auflösungen und/oder max texturen nutzen willst.

Ich teile grundsätzlich Deine Meinung allerdings bist Du nicht konsequent. Kannst Du Dich an die Diskussion erinnern als Du Deinen CPU gekauft hast?
Games wie EFT wird es auch immer geben :wink:

SKYNET
2020-06-21, 23:37:37
Ich teile grundsätzlich Deine Meinung allerdings bist Du nicht konsequent. Kannst Du Dich an die Diskussion erinnern als Du Deinen CPU gekauft hast?
Games wie EFT wird es auch immer geben :wink:

welche, den 2700X oder den 3600? :freak:

der 3600 ist in manchen sachen in den min frames sogar nur gleich schnell wie der 2700X es war... dafür bei den AVR schneller, beides aber auch erst seit dem EDC bug, vorher min frames schlechter und AVR im bestfall gleich X-D

ist halt nur nen 6/12... warte sehnlichst auf den 4900G, 4400MHz speicher 1:1 :freak:

Dural
2020-06-21, 23:51:06
Das problem sind die 384bit, 24gb sind aktuell einfach zu viel und man baut dazu 24 speicherchips auf die karte. Ideal wären aktuell 512bit / 16gb, jedoch sind die 512bit übertrieben und sind teuer.

Interessant wären auch 256bit / 16gb mit viel takt, für die topdog gpu aber einfach zu wenig bandbreite.

just4FunTA
2020-06-22, 00:09:24
Das problem sind die 384bit, 24gb sind aktuell einfach zu viel und man baut dazu 24 speicherchips auf die karte. Ideal wären aktuell 512bit / 16gb, jedoch sind die 512bit übertrieben und sind teuer.

Interessant wären auch 256bit / 16gb mit viel takt, für die topdog gpu aber einfach zu wenig bandbreite.


das Argument zu teuer zieht nicht wirklich, schau dir die Preise mal an zurzeit, bei ~700€ für eine RTX3080 kann man wohl 16gb verlangen..

SKYNET
2020-06-22, 00:30:45
das Argument zu teuer zieht nicht wirklich, schau dir die Preise mal an zurzeit, bei ~700€ für eine RTX3080 kann man wohl 16gb verlangen..


nö, weil 700€ kann man ja schon für ne 8GB 2080 non S verlangen X-D

just4FunTA
2020-06-22, 00:37:22
nö, weil 700€ kann man ja schon für ne 8GB 2080 non S verlangen X-D:freak::frown:

SKYNET
2020-06-22, 00:45:02
:freak::frown:


jede wette jedes GB mehr lässt sich NV mit 40-50€ zahlen :freak:

[MK2]Mythos
2020-06-22, 01:14:29
Wie jetzt? Die meisten hier haben nvidias Preisspirale jahrelang mitgemacht und das teilweise noch als "premium" gefeiert. Jedes Prozent Mehrleistung wurde doppelt und dreifach auch mehr bezahlt und jetzt, wo es tatsächlich mal ordentlich Mehrwert in Form von deutlich mehr RAM und einer brauchbaren RT Performance gibt, fällt euch auf wie teuer die Karten vermutlich werden? :D NVIDIA wird sicher nicht auf die gewohnte Marge verzichten wollen und Arbeitsspeicher sowie neue DIE Monster mit neuem Prozess kosten sicher...

Rampage 2
2020-06-22, 01:18:49
Also maximales Downsampling, wo Rohleistung da ist, die 11GB aber nicht reichen.

Dahingegend sind 24GB ja schon nett, aber nur, wenn man es nicht fürstlich königlich bezahlen muss. :D

Diese Antwort ist auch auf Turrican's Aussage bezogen:

24GB mögen aktuell oder in den nächsten 1-2 Jahren etwas übertrieben sein, aber die 11GB der 2080Ti sind wiederum zu wenig, wie du ja schon selbst geschrieben hast - bei der 1080Ti mag es ja noch angemessen gewesen sein (da 2017), aber die 2080Ti erneut mit 352Bit bzw. lächerlichen 11GB zu bestücken und dafür dann auch noch 1000< € zu verlangen, ist eine bodenlose Frechheit von Nvidia!

Nvidia sollte die Ti-Ableger (Gx102 Salvage) wieder mit den vollen 384Bit SI bestücken, so wie es bei Kepler (780Ti) und Maxwell (980Ti) der Fall war, damit sie ein zusätzliches GB mehr zur Verfügung haben - denn wenn es hart auf hart kommt, dann zählt jedes weitere GB. Um die Salvage-Lösungen von der Titan abzugrenzen, kann Nvidia stattdessen langsameren Speicher bei gleichem SI verbauen...

An dieser Stelle möchte ich auf einen anderen Aspekt des Speicherausbaus eingehen:

Es wurde immer wieder behauptet, dass GDDR6 extrem teuer sei - ist das von der Kapazität der Speicherchips (8Gbit vs. 16Gbit) abhängig oder sind auch die 8Gbit-Chips bei GDDR6 sehr teuer? Beziehungsweise: Warum ist GDDR6 so sauteuer und müsste sich dessen Preis mittlerweile (nach fast 2 Jahren) nicht reduziert haben?

Zweite Frage: Warum hört man von den 1.5 Gbit-Chips immer noch nichts, obwohl sie schon längst spezifiziert sind? Diese würden 12/16.5/18 GB VRAM (256/352/384Bit) ermöglichen...

R2

MiamiNice
2020-06-22, 01:44:59
Das würde mich tatsächlich auch interessieren und zusätzlich warum NV kein HBM verbaut.

reaperrr
2020-06-22, 01:53:24
Wird interessant werden, ob Nvidia weiterhin ihre Bonzen Preise ausruft. Oder aber aufgrund von Konkurrenzfähigen AMD Karten etwas zurückzieht. Ich dachte ja wegen Corona schon so, an einer kleinen Preissenkung out of the box. Aber das wahr wohl nur Wunschdenken.
Ich glaube ehrlich gesagt, dass AMD und Nvidia statt der dummen Preisabsprachen früher jetzt einfach schlauer geworden sind und einen unausgesprochenen preislichen Nichtangriffspakt fahren, indem sie sich über Leaks oder Vorankündigungen das geplante P/L-Verhältnis frühzeitig mitteilen und derjenige, der gerade etwas später dran ist, dann bestenfalls Alibi-mäßig um homöopathische Werte das P/L-Verhältnis des anderen unterbietet und den Markt dann die restliche Einpendelung der P/L-Verhältnisse übernehmen lässt.

Dass Nvidia plötzlich deutlich aggressivere Preise fährt glaube ich (leider) beim besten Willen nicht, auch weil ich anhand der kolportierten 627mm² für GA102 und der Tatsache, dass diesmal auch die 3080 auf den großen Chip setzen soll, nicht glaube, dass Nvidia freiwillig ihre Margen aufgeben. Zumal die Nachfrage anfangs wohl trotzdem das Angebot übersteigen wird, inoffiziell die Preise senken wenn die Nachfrage zu weit sinkt kann man später immer noch.


Mein Tipp für die High-End-Karten beider Lager:

Titan A - 5120 SP, 384bit, 24 GB, 1499$ - ~102% Perf
RTX 3090 - 5120 SP, 384bit, 12 GB, 999$ - 100% Perf - Index-Referenz
RX 6900 XTX Edition* - 5120 SP, 512bit, 16 GB, 999$ - ~90% Perf
RX 6900 XT - 4992 SP, 448bit, 14 GB, 899$ - ~88% Perf
RTX 3080 - 4352 SP, 320bit, 10 GB, 799$ - ~85% Perf
RX 6900 - 4608 SP, 384bit, 12 GB, 749$ - ~80% Perf

*(stark limitiert, nur direkt über AMD.com)

MiamiNice
2020-06-22, 02:00:04
Irgendwie habe ich das Gefühl das Du bei der ersten Karte noch gut 1000$ drauf legen kannst :freak:

Leonidas
2020-06-22, 03:53:31
Wie hoch ist die Chance, eine RTX 3080 für 500-600€ zu bekommen, nach sagen wir mal 6-8 Monaten nach Release?


Nur wenn sie einen Monat nach Relase schon 500-600€ kostet. NV senkt keine Preise im Laufe der Zeit. Es kann nur einen Anfangsaufschlag geben, aber der ist gewöhnlich schnell weg.




Wahrscheinlich ist der Preis drin, wenn Hopper, oder was auch immer der Nachfolger sein wird. kommt.


Nur im Gebrauchtmarkt. Im offiziellen Markt werden keine Preise gesenkt, sondern die Produkte EOL genommen.




Warum hört man von den 1.5 Gbit-Chips immer noch nichts, obwohl sie schon längst spezifiziert sind? Diese würden 12/16.5/18 GB VRAM (256/352/384Bit) ermöglichen...


Wundert mich genauso. Direkt für eine neue Gfx-Generation geplant, dürfte die Produktionsmenge doch ausreichend sein. Bei GDD5R5X haben 2 Grafikkarten gereicht, um es herstellen zu lassen - und Nebenkunden gab es dafür sicherlich nicht (jedenfalls nicht sofort).

dargo
2020-06-22, 07:13:04
RDNA1 verschlafen? Der rohleistungsnormierte Performancesprung war enorm. Man lag rohleistungsnormiert sehr sehr knapp unter Turinglevel.
Genau andersrum. RDNA1 ist rohleistungsnormiert minimal oberhalb Turing. ;)

RDNA1 hat aber zumindest in Form der 5700XT eine schlechtere Perf/W als Turing, trotz 7nm vs. 12nm (bzw. 16nm++).

Die 5700XT hat einfach einen etwas schlechteren Betriebspunkt als die non XT mit ihren 1,8+Ghz. Würde AMD die XT mit 1,7Ghz betreiben würde das Ding unter 150W GPU-Power liegen. Nur kannst du für sowas dann schlecht 50-70$ mehr verlangen bei vielleicht 3-5% mehr Performance vs. non XT. Eine andere Möglichkeit wäre die non XT mit 1,6Ghz zu betreiben um sich etwas stärker von einer XT mit 1,7Ghz abzusetzen, dann wäre diese sicherlich irgendwo bei ~130W GPU-Power. AMD wollte mit der XT aber unbedingt wieder die 2070 schlagen, auf Kosten des Betriebspunktes bei der XT halt.

Konnte sich mit den neuen Konsolen sehr bald schon ändern.
Bald? Exklusives für die neue XBox soll afaik erst in 2 Jahren nach Release kommen. Von Sony bekommen wir in den ersten 2 Jahren eh nix am PC. ;) Und wenn beide Konsolen zumindest am Anfang ihrer Lebenszeit 4k/60fps als Target haben erwarte ich eh keinen großen Anstieg bei den Anforderungen. Mitte bis Ende der Lebenszeit (also eher 2023-2025) dann schon eher.

11GB bekommst schon in FFXV mit high-res pack und 1920*1200 in die knie... in 1440p oder 4k musst da nichtmal dran denken mit high-res pack :freak:

Schon wieder die Märchenstunde. :facepalm:

Das würde mich tatsächlich auch interessieren und zusätzlich warum NV kein HBM verbaut.
Ganz einfach... mit HBM würde die Marge leiden wenn man die gleichen Endkundenpreise abruft.

Armaq
2020-06-22, 09:00:03
Auf die Preise bin ich gespannt. Wir verhandeln gerade mit nvidia zur Abnahme von einigen älteren Modellen, man machte uns dann auf das Launch Event aufmerksam und die Datacenter High End Variante kostet wohl 80.000 $, vorher war der Spitzenpreis unter 20.000 $ ... (also alles Liste).

Bei den Datacenter-Varianten ist natürlich HBM verbaut.

Troyan
2020-06-22, 09:21:52
nVidia hat A100 for PCIe angekündigt. Selbst Specs wie die SMX-Karte bei 250W. Laut nVidia 10% weniger Leistung, wenn nicht mehr als zwei Karten benötigt werden: https://twitter.com/aschilling/status/1274960311175516160

Dural
2020-06-22, 09:43:36
das Argument zu teuer zieht nicht wirklich, schau dir die Preise mal an zurzeit, bei ~700€ für eine RTX3080 kann man wohl 16gb verlangen..

Jeder Hersteller schaut das er sein Produkt so billig wie möglich herstellen kann.

WedgeAntilles
2020-06-22, 09:44:35
Also gibt es durch mehr vram keinerlei Vorteile? Dann frage ich mich warum wir nicht zurück zu 2gb Vram zurück gehen mit der nextgenGpu müssten die Entwickler nur besser programmieren..
Ja, ganz genau.
Es gibt nämlich keinerlei Mitte zwischen 16GB Ram und 2GB ram. :rolleyes:

Ist dir so ein Posting nicht selber zu blöd?

amdfanuwe
2020-06-22, 09:49:20
Jeder Hersteller schaut das er sein Produkt so billig wie möglich herstellen kann.
und so teuer wie möglich verkaufen kann.
Nennt man Gewinnmaximierung.

Edgecrusher86
2020-06-22, 10:03:16
Aus der dispi.inf des 455.38_-desktop-win10-64bit-international-dch-wsl-preview:

https://abload.de/img/1bxrj7s.png

Das dürfte wohl die Karte sein. ;)

https://abload.de/img/specsmzkwv.png

Bilder:

https://abload.de/img/ebb7pzjxyaaiutzhck97.jpg

https://abload.de/thumb/ebb7pzjxyaaiutz5tjrm.jpg (https://abload.de/image.php?img=ebb7pzjxyaaiutz5tjrm.jpg)

https://abload.de/img/ebb7pzox0aiqktp1zjff.jpg

https://abload.de/thumb/ebb7pzox0aiqktp6ej6u.jpg (https://abload.de/image.php?img=ebb7pzox0aiqktp6ej6u.jpg)


Interessant ist, dass die Karte über 3 NVL-Connectoren verfügt für zwei Karten insgesamt; die EGX A100 Variante kam hier auf zwei.

X-Bow
2020-06-22, 11:02:55
Hier gibt es einen Bericht von der CB dazu.

https://www.computerbase.de/2020-06/nvidia-ampere-a100-pcie-karte-server/

BlacKi
2020-06-22, 11:42:14
Mythos;12344884']Wie jetzt? Die meisten hier haben nvidias Preisspirale jahrelang mitgemacht und das teilweise noch als "premium" gefeiert. Jedes Prozent Mehrleistung wurde doppelt und dreifach auch mehr bezahlt und jetzt, wo es tatsächlich mal ordentlich Mehrwert in Form von deutlich mehr RAM und einer brauchbaren RT Performance gibt, fällt euch auf wie teuer die Karten vermutlich werden? :D NVIDIA wird sicher nicht auf die gewohnte Marge verzichten wollen und Arbeitsspeicher sowie neue DIE Monster mit neuem Prozess kosten sicher...
die, die sich das geleistet haben, die sehe ich hier jetzt nicht heulen. eher die, die schon vorher im oberen bereich eher preisbewusst gekauft haben. die, die immernoch auf ihrer pascal karte sitzen, oder die, die schon enttäuscht von turings speicherausstattung waren.

Dural
2020-06-22, 11:48:18
OK, jetzt haben wir ein Problem. :freak:

250Watt bei 90% der Leistung der 400Watt Version und den 40GB mit einem 800mm2 Chip (Wie viel davon aktiv ist lassen wir jetzt mal offen) ist definitiv OK.

LasterCluster
2020-06-22, 11:56:25
Ich glaube ehrlich gesagt, dass AMD und Nvidia statt der dummen Preisabsprachen früher jetzt einfach schlauer geworden sind und einen unausgesprochenen preislichen Nichtangriffspakt fahren, indem sie sich über Leaks oder Vorankündigungen das geplante P/L-Verhältnis frühzeitig mitteilen und derjenige, der gerade etwas später dran ist, dann bestenfalls Alibi-mäßig um homöopathische Werte das P/L-Verhältnis des anderen unterbietet und den Markt dann die restliche Einpendelung der P/L-Verhältnisse übernehmen lässt.


Davon muss man leider ausgehen. Das einzige was AMD zu einem moderaten Preiskampf bewegen könnte wären üppige freie Kapazitäten bei TSMC, die durch Huaweis Abgang verfügbar werden.

dildo4u
2020-06-22, 11:57:08
Kann man da wirklich was ablesen? Takten die Server Modelle nicht langsamer als Volta, das wird für Geforce vermutlich nicht der Fall sein.

HOT
2020-06-22, 11:58:01
OK, jetzt haben wir ein Problem. :freak:

250Watt bei 90% der Leistung der 400Watt Version und den 40GB mit einem 800mm2 Chip (Wie viel davon aktiv ist lassen wir jetzt mal offen) ist definitiv OK.
Ist doch ganz normal, das Teil hat eben weniger Takt. Wenn man auf so ne Mobilvariante setzt ist man beim Takt halt erheblich schneller am Limit.

Außerdem wissen wir jetzt, dass man nicht aufgrund der TDP so stark gesalvaged hat sondern einzig aufgrund des bescheidenen Yields.

BlacKi
2020-06-22, 12:01:57
ja, aber wenn 10% weniger takt 150w entsprechen, dann wäre die hgx version bis ans limit getaktet, ungefähr so wie ne 1080ti undervoltet mit1,9ghz 250w vs 400w 2,05ghz mit 400w bios.

ich würde ja hauptsächlich auf software limitationen tippen. das weglassen von features, kann auch die auslastung reduzieren und damit den stromverbrauch.

Dural
2020-06-22, 12:03:58
Da kann man doch viel herauslesen, wenn der Prozess halbwegs vergleichbar ist.


Die Gaming Variante hat keinen so grossen Chip, deutlich weniger SP, nicht so viel Speicher etc.

Die 8nm Samsung müssten schon erheblich schlechter sein als die N7 wenn man da bei 350W rauskommen wird. Oder die Karte läuft ziemlich am Limit.

dargo
2020-06-22, 12:08:13
Die Gaming Variante hat keinen so grossen Chip, deutlich weniger SP, nicht so viel Speicher etc.

Dafür aber deutlich höhere Frequenzen welche deine Perf/W wieder erheblich verschlechtert.

HOT
2020-06-22, 12:12:40
Da kann man gar nix herauslesen. Wenn NV auf N7 Mobil gesetzt hat, um die 65mio/mm² hinzubekommen, wird der Takt erheblich eingeschränkt sein. Ergo läuft die PCIe-Variante eben nicht an der Kotzgrenze sondern nur mit ca. 1,25GHz. Das ist so ähnlich wie bei der RX480, der Verbrauch explodiert, wenn man über 1,25GHz ging damals ganz schnell von 160 auf 230W.
Ich wette, dass man den 8LPP-Chip ebenfalls weit über dem Sweetspot betreibt. Ich denke aber auch, dass N7 HPC demgegenüber kaum Vorteile auf den hohen Taktleveln haben wird. Bei >2GHz wirds halt so oder so eng bei der Architektur.

BlacKi
2020-06-22, 12:39:25
Da kann man gar nix herauslesen.
vom 100 auf g102? was soll man da ableiten können?

HOT
2020-06-22, 12:49:22
Im Bezug auf heutige Produkte funktioniert das nicht. Die hatten ja denselben Prozess und ähnliche Packdichten. Das wird ja diese Mal was völlig anderes sein.

X-Bow
2020-06-22, 12:49:52
OK, jetzt haben wir ein Problem. :freak:

250Watt bei 90% der Leistung der 400Watt Version und den 40GB mit einem 800mm2 Chip (Wie viel davon aktiv ist lassen wir jetzt mal offen) ist definitiv OK.

Laut CB:

"Unterschiede gibt es allerdings bei der TDP, die mit 250 Watt deutlich unterhalb der 400 Watt des SXM4-Moduls angesetzt ist. Das wirft die Frage auf, wie Nvidia für die PCIe-Karte mit den gleichen Leistungswerten wie für das SXM4-Modul werben kann. Nvidia erklärte auf Nachfrage, das lediglich die Spitzenleistung (Peak) identisch sei, die kontinuierlich (sustained) abrufbare Leistung der PCIe-Karte aber je nach Anwendung und Konfiguration des Servers zwischen 10 Prozent und 50 Prozent niedriger als beim SXM4-Modul ausfalle."

https://www.computerbase.de/2020-06/nvidia-ampere-a100-pcie-karte-server/

Sprich, um das 250W Ziel im Durchschnitt zu erreichen ist die Karte auch mal gut nur halb so schnell wie das SXM4-Modul

mksn7
2020-06-22, 13:42:05
Die 50% wurden hier eher im Zusammenhang mit großen Datensätzen genannt, weil die PCIe version weniger NVLinks hat. Die 90% sind vermutlich ein Durchschnitt. Alles was eher bandbreitenlimitiert ist (sehr viel HPC Anwendungen) ist genauso schnell weil das das power limit nicht greift, der HPL (hängt nur an der DP rate) dürfte stärker nachlassen.

Die V100's machen deutlich weniger aggressives boosting als die Gamingkarten. z.B. greifen die 250W power limit der V100 in der PCIe version sehr selten, und deswegen läuft die Karte fast immer bei ihrem Nominaltakt von 1.38GHz. Der größere power headroom wird nicht zum boosten genutzt (es gibt effektiv keinen Boost, nur throttling). Ich vermute dass die 400W SMX version sich ähnlich verhält wie die V100, dass sie ganz selten ins power limit rennt, und die PCIe version halt schneller mal.

Die zusätzlichen NVLinks brauchen vielleicht auch ein bisschen Strom. Die NVLink switche in der V100 DGX brauchen wohl super viel Strom.

Edgecrusher86
2020-06-22, 14:31:35
Das mit bis zu 50% soll wohl für 2x PCI-E vs. 8x SXM4 gelten - für große Datensätze:

Andreas Schilling
@aschilling
·
39 Min.
Besides that, with large data sets NVIDIA expects a performance reduction by about 50%. Thats because you can only run two A100 PCIe connected via NVLink, while the SXM4 variant can connect up to eight GPUs directly and run a larger unified memory + cache coherency.


Es mag sein, dass die Karte bei Dauerlast auch nur mit um die 1 GHz operiert und die SXM4-Variante mit 1,2-1,3 GHz, wenn 1,41 GHz der Peakwert ist. Wohl eher Letzteres.

Lehdro
2020-06-22, 15:34:09
Nur wenn sie einen Monat nach Relase schon 500-600€ kostet. NV senkt keine Preise im Laufe der Zeit. Es kann nur einen Anfangsaufschlag geben, aber der ist gewöhnlich schnell weg.
[...]
Nur im Gebrauchtmarkt. Im offiziellen Markt werden keine Preise gesenkt, sondern die Produkte EOL genommen.

Das finde ich jetzt irgendwie putzig:
AnandTech berichten über eine offizielle Preissenkung der GeForce RTX 2060 – und in der Tat, nVidias eigener Online-Shop bietet die Karte derzeit für 299 Dollar bzw. 319,99 Euro an, wo letzte Woche noch Preise von 349$ bzw. 369€ gelistet waren. Trotz bislang fehlender Pressemitteilung geht es dann kaum offizieller
Quelle 3DCenter (https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-16-januar-2020)
Im Zuge der Ankündigung der GeForce GTX 1080 Ti senkt nVidia auch die Listenpreise der bisherigen Pascal-Grafikkarten GeForce GTX 1070 & 1080 ab.
Quelle 3DCenter (https://www.3dcenter.org/news/nvidia-senkt-die-listenpreise-von-geforce-gtx-1070-1080-teilweise-erheblich)

BlacKi
2020-06-22, 16:22:36
stimmt schon, aber ich frag mich immernoch warum man die 2070s gebracht hat, man hätte schlicht auch die 2080 im preis senken können.

Daredevil
2020-06-22, 16:34:26
Es klingt positiver, wenn eine "kleine Karte" nun fast das kann als eine große, als wenn man eine große Karte einfach günstiger macht.
Das transportiert so ein Underdog Feeling und die Kunden denken, Nvidia hätte hier in ihrem Interesse gehandelt.
Eine Preissenkung wird gerne so aufgenommen, dass die Karte vorher zu überteuert gewesen wäre ( stimmt ja auch :D ) und das man sie sonst nicht verkauft bekommt.
War halt ein Super Produkt. :<)

BlacKi
2020-06-22, 16:50:58
? wenn ich ne 2070s für 510€ oder ne 2080 für 520€ (anlehnung an den performance unterschied) zur wahl habe, dann nehm ich doch lieber die 2080. wegen des namens alleine schon^^

HOT
2020-06-22, 18:10:39
Wenn die große Karte 30% mehr hat als ne 2080Ti, warum sollte sie günstiger sein? Wenn die 3080 wenig mehr als die 2080Ti leistet und 800€ kostet, sinkt der Preis pro Leistung ja ab, anders als bei Pascal. Ich schätze die 3090 aber auf 1500€ ein, weil es ganz einfach die schnellste Karte ist. AMD wird sicherlich lernen und die 6900 (N21 XT) für 999$ anbieten und die N21 XTX für 1200 oder sowas, also etwas weniger als die 3090. N21 XL wird dann sicherlich preislich unter der 3080 landen.
Wenn NV 1300$ für ne 2080Ti nehmen konnte, können die auch >1300$ für die 3090 nehmen. AMD wird sich da einfach einsortieren, ich glaub man braucht sich da keiner Illusion hingeben, in diesem Oligopol jemals noch mal einen Preiskampf zu sehen. AMD würde dabei einfach nichts gewinnen und solange die Käufer das akzeptieren, wird auch künftig an der Preisschraube gedreht. Eine Unbekannte hier stellt höchsten Intel dar, oder vielleicht auch hypothetisch PowerVR oder sowas, was man nicht auf dem Schirm hat, wenn die meinen, dass man im PC-Markt wieder mal Gewinne mitnehmen kann, wie das schon 2x der Fall war (beide Male scheiterten allerdings).

Naennon
2020-06-22, 18:25:35
AMD wird sicherlich lernen und die 6900 (N21 XT) für 999$ anbieten und die N21 XTX für 1200 oder sowas


und wer soll das kaufen?

HOT
2020-06-22, 18:28:19
Was ist das denn für ne bescheuerte Frage?

Daredevil
2020-06-22, 18:36:22
und wer soll das kaufen?
Leute kaufen sich das. Es sind wenige, die zahlen dafür aber halt deutlich mehr.
Ein iPhone SE kaufen sich viele bei kleiner Marge > rentiert sich.
Ein iPhone 11 Pro kaufen sich wenige bei großer Marge > rentiert sich.
Hauptsache es rentiert sich.

Ich glaube aber nicht, dass AMD über 1k geht, dafür sind die Kunden zu arm. ( Hate incoming :D )

BlacKi
2020-06-22, 18:36:27
Wenn die große Karte 30% mehr hat als ne 2080Ti, warum sollte sie günstiger sein? Wenn die 3080 wenig mehr als die 2080Ti leistet und 800€ kostet, sinkt der Preis pro Leistung ja ab, anders als bei Pascal. Ich schätze die 3090 aber auf 1500€ ein, weil es ganz einfach die schnellste Karte ist. AMD wird sicherlich lernen und die 6900 (N21 XT) für 999$ anbieten und die N21 XTX für 1200 oder sowas, also etwas weniger als die 3090. N21 XL wird dann sicherlich preislich unter der 3080 landen.
Wenn NV 1300$ für ne 2080Ti nehmen konnte, können die auch >1300$ für die 3090 nehmen. AMD wird sich da einfach einsortieren, ich glaub man braucht sich da keiner Illusion hingeben, in diesem Oligopol jemals noch mal einen Preiskampf zu sehen. AMD würde dabei einfach nichts gewinnen und solange die Käufer das akzeptieren, wird auch künftig an der Preisschraube gedreht. Eine Unbekannte hier stellt höchsten Intel dar, oder vielleicht auch hypothetisch PowerVR oder sowas, was man nicht auf dem Schirm hat, wenn die meinen, dass man im PC-Markt wieder mal Gewinne mitnehmen kann, wie das schon 2x der Fall war (beide Male scheiterten allerdings).
das wäre ganz schön deprimierend. aber erstmal abwarten.

Thunder99
2020-06-22, 19:33:41
Mit welchem Effizienz/Auslastungsgewinn kann man bei Ampere rechnen? Um +75% auf eine 1080Ti zu haben müsste bei 0 Verbesserung die Karte 6272 Cuda Cores haben :freak:

MiamiNice
2020-06-22, 20:12:08
Ich glaube aber nicht, dass AMD über 1k geht, dafür sind die Kunden zu geizig äh preisbewusst. ( Hate incoming :D )

Fixed it 4 u :wink:

Langlay
2020-06-22, 20:16:48
Ich glaube aber nicht, dass AMD über 1k geht, dafür sind die Kunden zu arm. ( Hate incoming :D )

Was hat AMD Kunde sein mit dem Kontostand zu tun? Und wieviele Stellen darf der Kontostand maximal haben wenn man AMD Produkte kauft will ?

BoMbY
2020-06-22, 20:35:08
Was hat AMD Kunde sein mit dem Kontostand zu tun? Und wieviele Stellen darf der Kontostand maximal haben wenn man AMD Produkte kauft will ?

Was er eigentlich sagen möchte ist dass NVidia-Kunden in der Regel alle total reich sein müssen, weil man es sich anders nicht erklären kann warum die blind bereit sind solche Mondpreise zu bezahlen. Die GPUs für die Upper Class halt, voll geil und elitär.

Blediator16
2020-06-22, 20:39:36
Intel User sind dann seit Threadripper die Geizkragen. Wer das beste will kauft halt den 3990x was sonst alle andere sind Geier :D

Radeonfreak
2020-06-22, 20:39:48
Wenn man wie ich eine Nvidia Karte hat, aber einen AMD Prozessor, bin ich dann eine gespaltene Persönlichkeit? :eek:

Cubitus
2020-06-22, 20:42:00
Wenn man wie ich eine Nvidia Karte hat, aber einen AMD Prozessor, bin ich dann eine gespaltene Persönlichkeit? :eek:

Biste mit deinem Nik eh schon ;)

Radeonfreak
2020-06-22, 21:24:19
Upps.

Troyan
2020-06-22, 21:27:15
Mit welchem Effizienz/Auslastungsgewinn kann man bei Ampere rechnen? Um +75% auf eine 1080Ti zu haben müsste bei 0 Verbesserung die Karte 6272 Cuda Cores haben :freak:

A100 PCIe ist Peak 2,32x effizienter und mit 90% sustained immer noch 2,09x effizienter als V100 PCIe. Das sollte wohl das Ziel von Gaming-Ampere auch sein.

unl34shed
2020-06-22, 21:47:37
Und das hat mal wieder für Gaming Ampere welche Relevanz?

Troyan
2020-06-22, 21:53:32
Da Gaming-Ampere auf der selben Architektur aufbaut, viel. Aber wenn du bestätigte Zahlen zu Gaming-Ampere hast, dann immer her damit.

Achja, ich habe da noch eine Nachfrage: Du hast behauptest, weil A100 so eine immense Packdichte hätte, könnte der A100 nicht so hoch getaktet werden. Wieso ist A100 33% höher getaktet werden als Navi12 im Macbook bei 47% besserer Effizienz?

unl34shed
2020-06-22, 22:18:47
Da Gaming-Ampere auf der selben Architektur aufbaut, viel. Aber wenn du bestätigte Zahlen zu Gaming-Ampere hast, dann immer her damit.

Nur kommt ein Großteil der Mehrperformance halt aus den Tensor Cores und die bringen dir Stand jetzt und sehr sicher auch in der Zukunft im Gaming nichts. :facepalm:

Bei FP32, sinds dann nur noch +20% mehr Effizienz, aber das willst du sowieso nicht kapieren.

Achja, ich habe da noch eine Nachfrage: Du hast behauptest, weil A100 so eine immense Packdichte hätte, könnte der A100 nicht so hoch getaktet werden. Wieso ist A100 33% höher getaktet werden als Navi12 im Macbook bei 47% besserer Effizienz?

Eins Vorweg, bitte schreib doch dazu, auf welche Genauigkeiten (und ob Tensor oder nicht) sich deine Werte überhaupt beziehen, es ist ein Unding eine Diskussion auf so einer Grundlage führen zu wollen...

Also nach etwas Rechnen meinst du wohl FP16?!
Bei FP32 ist es nämlich ein 33% Vorteil für N12.
Aber da du auf große Zahlen stehst, wenn du FP64 nimmst, ist es sogar die 580% Perf/W für A100 (1:2 vs 1:16) :eek:;D

Aber im Prinzip ist es immer noch ein Äpfel und Birnen Vergleich, denn bei der kleinen Karte frisst der Uncore deutlich mehr und A100 hat nicht mal Display Controller integriert oder?

Digidi
2020-06-22, 22:26:54
@unl34shed
Bitte Troyan ignorieren. Danke.

mironicus
2020-06-22, 22:34:18
Wenn man wie ich eine Nvidia Karte hat, aber einen AMD Prozessor, bin ich dann eine gespaltene Persönlichkeit? :eek:

Da NVidia seine Ampere-Profikarten neuerdings mit einem AMD Epyc-System verkauft, ist ein Wechsel der CPU von Intel nach AMD für alle NVidia-Käufer eine Selbstverständlichkeit. :D
Spätestens mit Zen 3 wird wohl das letzte gallische Dorf erobert sein.

Leonidas
2020-06-23, 05:15:07
Das finde ich jetzt irgendwie putzig:

Quelle 3DCenter (https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-16-januar-2020)

Quelle 3DCenter (https://www.3dcenter.org/news/nvidia-senkt-die-listenpreise-von-geforce-gtx-1070-1080-teilweise-erheblich)


Exzellenter Konter!

Aber: Ich sehe dies als Ausnahmen für konkrete Fälle, die sich nicht verallgemeinern lassen. Der Ursprungs-Post bezog sich allerdings darauf, das allgemein die Preise langfristig absinken. Dies passiert halt nicht. Es gibt konkrete Anlässe für Preissenkungen, sonst passiert da nichts. Und es ist derzeit überhaupt nicht abzusehen, das es einen solchen Anlaß für eine Preissenkung bei der RTX3080 geben wird.

dargo
2020-06-23, 08:15:15
AMD wird sicherlich lernen und die 6900 (N21 XT) für 999$ anbieten und die N21 XTX für 1200 oder sowas, also etwas weniger als die 3090. N21 XL wird dann sicherlich preislich unter der 3080 landen.

Was ist das denn für eine Preissegmentierung? 5700XT für <=400€ und ein N21 für 1000+€? Das ergibt keinen Sinn. Sofern N21 80-100% schneller als Navi 10 ist würde ich eher von 699-799$ ausgehen.

unl34shed
2020-06-23, 08:22:38
Was ist das denn für eine Preissegmentierung? 5700XT für <=400€ und ein N21 für 1000+€? Das ergibt keinen Sinn. Sofern N21 80-100% schneller als Navi 10 ist würde ich eher von 699-799$ ausgehen.

Eine 2080Ti ist nicht mal doppelt so schnell wie eine 2060S und kostet fast das 3 fache :confused:

dildo4u
2020-06-23, 08:26:50
High-End hat nicht da selbe Preis Leistung Verhältnis wie Midragne, ein 3950X kostet über 700€ ist aber nicht 4 mal so schnell wie ein 3600.

Grendizer
2020-06-23, 08:28:53
Von 5500XT auf 5700 XT zahlt man für +50% Leistung den doppelten Preis.

dildo4u
2020-06-23, 08:34:23
Computerbase hat + 80% für 5700XT, aber die 5500 ist auch ein schlechter Deal.

https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-1920-1080

Das ganze macht aber hier noch sinn da beide nur 8GB haben, beim High-End Modell muss jemand 16GB bezahlen und das ist nicht AMD.

Grendizer
2020-06-23, 09:02:01
Ja hast recht, habe irrtümlich die Werte der normalen 5700 aus dem Launchtest der 5500 XT als Vergleich genommen

HOT
2020-06-23, 09:41:59
Was ist das denn für eine Preissegmentierung? 5700XT für <=400€ und ein N21 für 1000+€? Das ergibt keinen Sinn. Sofern N21 80-100% schneller als Navi 10 ist würde ich eher von 699-799$ ausgehen.
Weil Preissegmentierung vor allem am oberen Ende ja immer Sinn ergibt :freak:...

Daredevil
2020-06-23, 09:44:58
Was ist das denn für eine Preissegmentierung? 5700XT für <=400€ und ein N21 für 1000+€? Das ergibt keinen Sinn.
Größere Chips kosten halt exponentiell mehr und nicht einfach linear.
Das ganze hast du doch schon bei Corona durchgespielt. ^^

dargo
2020-06-23, 10:17:51
Eine 2080Ti ist nicht mal doppelt so schnell wie eine 2060S und kostet fast das 3 fache :confused:
AMD ist nicht Nvidia oder Intel, noch nicht. Zudem dürfte Navi10 mit dem Erscheinen von N21 bereits bei ~350€ liegen. Nvidia kann sich oberhalb einer 2070S nur die absurden Preise erlauben weil es von AMD nichts Vergleichbares im Portfolio gibt. Das wird sich mit N21 ändern.

Größere Chips kosten halt exponentiell mehr und nicht einfach linear.

AMD konnte Vega VII für ~750€ mit 16GB HBM verkaufen.

Adam D.
2020-06-23, 10:24:18
AMD ist nicht Nvidia oder Intel, noch nicht. Zudem dürfte Navi10 mit dem Erscheinen von N21 bereits bei ~350€ liegen. Zudem kann sich Nvidia oberhalb einer 2070S nur die absurden Preise erlauben weil es von AMD nichts Vergleichbares gibt. Das wird sich mit N21 ändern.
Guck dir doch einfach die CPU-Preise von AMD an. Viele extrem gut positionierte Produkte, aber am oberen Ende eben wie so oft unverhältnismäßig teuer. Warum genau sollte das bei Navi 20 jetzt anders werden, insbesondere, wenn man konkurrenzfähig ist? Wenn Nvidia für die Titan >1500€ ausruft, ist da noch mehr als genug Platz für bescheuert teure AMD-Karten.

dildo4u
2020-06-23, 10:26:14
Guck dir doch einfach die CPU-Preise von AMD an. Viele extrem gut positionierte Produkte, aber am oberen Ende eben wie so oft unverhältnismäßig teuer. Warum genau sollte das bei Navi 20 jetzt anders werden, insbesondere, wenn man konkurrenzfähig ist? Wenn Nvidia für die Titan >1500€ ausruft, ist da noch mehr als genug Platz für bescheuert teure AMD-Karten.
Jup die 5700Xt ist so billig weil sie obsolut ist, AMD kann sie nicht wie Polaris 4 Jahre mitschleppen wenn die Konsolen Raytracing haben.

Dural
2020-06-23, 10:27:28
AMD wahr schon immer Intel oder NV, sie hatten aber schon länger die Hardware nicht mehr dafür.

Sieht man Aktuell an Ryzen oder Navi ganz gut, bei AMD wird es sobald nichts mehr für lau geben, begreift es doch endlich.

Sehr dumm für die meisten AMD Boys, die waren ja nur Fans weil AMD Jahre lang alles verramschen musste. :freak:

dargo
2020-06-23, 10:31:09
Guck dir doch einfach die CPU-Preise von AMD an. Viele extrem gut positionierte Produkte, aber am oberen Ende eben wie so oft unverhältnismäßig teuer.
Ihr versteht es immer noch nicht oder? In der CPU-Sparte ist AMD wesentlich besser gegenüber der Konkurrenz aktuell aufgestellt als in der GPU-Sparte. Dort kann sich AMD solche Preise oben mittlerweile erlauben.

WedgeAntilles
2020-06-23, 10:45:01
Ihr versteht es immer noch nicht oder? In der CPU-Sparte ist AMD wesentlich besser gegenüber der Konkurrenz aktuell aufgestellt als in der GPU-Sparte. Dort kann sich AMD solche Preise oben mittlerweile erlauben.

Und in der GPU Sparte orientiert sich AMD halt an Nvidia.
Teilweise vielleicht 15% günstiger (für identische Leistung). (Teilweise ist aber sogar nvidia mal ein paar Euro günstiger, je nach Segment.)

Es kommt halt alles drauf an, wie nahe die neuen AMD Karten im High-End-Bereich an Nvidia sind.
Erreicht die stärkste AMD Karte die 3080? Dann wird die preislich ähnlich, nur eben ein paar Prozent günstiger.
Wird die stärkste AMD Karte wie die 3080TI? Dann orientiert sich AMD halt an dem Preis den Nvidia für die 3080TI aufruft. Und falls der bei 1400 Euro ist, kostet die AMD Karte auch 1200 Euro.

Keine Ahnung wie AMD in den Ruf kommt, preislich viel günstiger als Nvidia zu sein.
Sind sie nicht.
Und die paar Prozent die sie günstiger sind liegen schlicht und ergreifend am schlechteren Image und der höheren Wkeit, dass es bei einer AMD GraKa Probleme gibt.

Natürlich kann es sein, dass das Enthusiastenpreissegment etwas niedriger wird, wenn beide Hersteller darin vertreten sind.

Ich halte es aber genauso für möglich, dass die Preise auf dem gleichen Niveau bleiben und sich beide Hersteller da oben bequem einrichten.
Die Kunden haben sich ja schon an diese Preise gewöhnt.

[MK2]Mythos
2020-06-23, 10:52:28
Ich halte es auch für falsch, die CPU Sparte als Beispiel zu nehmen. Dort hat AMD sich mittlerweile wieder einen Namen gemacht und ist quasi überall Performance und Effizienz King und trotzdem noch deutlich günstiger als Intel.
Ich könnte mir vorstellen dass irgendeine irrsinnig hochgeprügelte, handverlesene Top Dog Karte / Titankonkurrent vierstellig wird. Aber der 3090(Ti) Konkurrent wird IMO nicht bei über 800 USD landen.
Aber wir sind doch hier im Ampere Speku-Thread?

Adam D.
2020-06-23, 10:56:33
Ihr versteht es immer noch nicht oder? In der CPU-Sparte ist AMD wesentlich besser gegenüber der Konkurrenz aktuell aufgestellt als in der GPU-Sparte. Dort kann sich AMD solche Preise oben mittlerweile erlauben.
Aber wenn sie mit Navi 20 vergleichbar gut aufgestellt sind, warum gilt das dann für die GPU-Sparte nicht? Ich versteh das Argument nicht. Wenn die wirklich zwischen 3080 und 3090 rauskommen am Ende, werden sie vielleicht ein Tacken günstiger sein als Nvidia, aber AMD hat doch absolut nix zu verschenken und kann es sich (wenn die kolportierten Performance-Targets stimmen) auch leisten. Nvidia hat die Preise massiv nach oben verlagert, Leute sind gewöhnt, die Preise zu bezahlen.

ChaosTM
2020-06-23, 11:05:22
Die 3090Ti kommt doch mit Coprozessor.. :D
1500+ incoming

HOT
2020-06-23, 11:12:35
Klar rufen die hohe Preise ab, wenn sie konkurrenzfähig sind. Grade im GPU-Sektor, denn hier sind Marktanteile lange nicht so wichtig wie im CPU-Bereich. Hier möchte man selbstredend mitverdienen, nicht verramschen.
V20 ist nicht vergleichbar, da der von Anfang an nicht konkurrenzfähig war und ob HBM oder nicht ist furzegal, AMD hat V56 für 250€ verkauft, das geht schon. Selbst N10 ist nicht wirklich billig und das trotz des Featurenachteils. Es gibt immer mal wieder Angebote, die die 2060 Super deutlich unterbieten, aber die Regel sind ähnliche Preise. Grad der Erfolg von N10 trotz des Featurenachteils straft alle arroganten Haltungen von NV-Fans Lügen, die AMD immer noch für einen Billigheimer halten und sich einfach nicht vorstellen können, dass Kunden zu AMD-Produkten greifen, wo es doch gforce gibt. Die Realität ist ne andere, denn man hat Marktanteile gut gemacht und gehalten trotz Featurenachteil und kaum günstigeren Produkten. Das wird sich bei N21 nicht ändern. Wenn das Ding konkurrenzfähig ist kostet er entsprechend viel. Die Vergangenheit hat gezeigt, dass es oftmals auch gar nicht gut funktioniert, über den Preis zu gehen. Das macht man eigentlich nur, wenn man wirklich nicht kunkurrenzfähig ist.

dargo
2020-06-23, 11:25:57
Aber wenn sie mit Navi 20 vergleichbar gut aufgestellt sind, warum gilt das dann für die GPU-Sparte nicht? Ich versteh das Argument nicht.
Weil AMD dort agressiver vorgehen muss um Marktanteile zurück zu erobern.

Klar rufen die hohe Preise ab, wenn sie konkurrenzfähig sind. Grade im GPU-Sektor, denn hier sind Marktanteile lange nicht so wichtig wie im CPU-Bereich. Hier möchte man selbstredend mitverdienen, nicht verramschen.

Wie ich dieses schwarz/weiß Denken im 3DC wieder liebe. Bei dir gibts also auch nur maximale Marge und verramschen? :rolleyes: Dazwischen gibts noch jede Menge Platz!

BlacKi
2020-06-23, 11:26:42
Ihr versteht es immer noch nicht oder? In der CPU-Sparte ist AMD wesentlich besser gegenüber der Konkurrenz aktuell aufgestellt als in der GPU-Sparte. Dort kann sich AMD solche Preise oben mittlerweile erlauben.
bei dem punkt bin ich etwas bei dir, denn man kann jetzt nicht schon preise aus der aktuellen phase ableiten. ableiten könnte man erst, wenn NV ampere rausgehauen hat, und man deren performance und preise kennt.

800€? 1000€? ich sag, solange man die kiste nicht geöffnet hat, kann man die katze für tot oder lebendig ansehen.

HOT
2020-06-23, 11:29:19
Weil AMD dort agressiver vorgehen muss um Marktanteile zurück zu erobern.
Funktioniert wie gesagt kaum über den Preis. Sie brauchen gute Produkte.

dargo
2020-06-23, 11:36:29
Funktioniert wie gesagt kaum über den Preis. Sie brauchen gute Produkte.
Was soll man auf solchen Quark antworten? Was ist an RDNA1 schlecht wenn die Perf/W identisch zu Turing ist? Ist dann also Turing schlecht? Natürlich braucht AMD gute Produkte + etwas niedrigere Preise als die Konkurrenz um Marktanteile zu steigern.

WedgeAntilles
2020-06-23, 11:39:29
Weil AMD dort agressiver vorgehen muss um Marktanteile zurück zu erobern.


Daher gehen sie mit dem Preis 10-15% unter den von Nvidia.
Das funktioniert und ist empirisch bei der 5700, 5700XT bewiesen.

Wie ich ja geschrieben habe kommt es eben drauf an wo sich die Karten im Vergleich mit Nvidia einordnen.

Aber AMD bietet nicht die gleiche Leistung für 40% weniger an oder sonst was.
Die Preisabschläge sind überschaubar - siehe 5700, 5700XT.
(Und die Karten haben ja z.B. kein RT - in wie fern das einen Aufpreis wert ist lasse ich mal dahingestellt, aber ein paar Euro ist es auch wert.)

Günstige AMD Preise sind ein Märchen.
Bei einem guten Produkt ruft AMD vergleichlichbare Preise mit Nvidia auf. Wie gesagt halt ein paar Prozent niedriger, aber ob ich jetzt 500 Euro oder 420 Euro zahle ist auch kein wirklich großer Unterschied. Vor allem wenn ich bei der 420 Euro Variante ein höheres Treiberrisiko habe.

HOT
2020-06-23, 11:45:58
Was soll man auf solchen Quark antworten? Was ist an RDNA1 schlecht wenn die Perf/W identisch zu Turing ist? Ist dann also Turing schlecht? Natürlich braucht AMD gute Produkte + etwas niedrigere Preise als die Konkurrenz um Marktanteile zu steigern.
RDNA1 hat einen klaren Featurenachteil, der ist eingepreist. Wenn der nicht mehr besteht, gibts passende Preise zu NV, so einfach ist das. Die müssen keine Marktanteile mit der Brechstange generieren, das ist einfach Unsinn.

Grendizer
2020-06-23, 11:49:17
Sehe ich auch so. Ich bin gespannt, ob nVidia von sich aus, aus Respekt vor der AMD Konkurrenz die Preise niedriger gestaltet. Das wäre die einzige Möglichkeit, wie es zu vergleichsweisen niedrigeren Preisen kommen kann.

Ich vermute aber die 3090 oberhalb der aktuellen 2080 Ti Preisen und die 3080 befürchte ich bei +50 Euro auf die 2080 Super Preisen.

MiamiNice
2020-06-23, 11:50:34
Ernsthaft? Neue Ampere News und ihr streitet über die Preisgestaltung bei AMD? Im Ampere Thread?
Und immer die selben mit rotem Hintergrund.

HOT
2020-06-23, 11:55:19
Nope es ging um die NV-Preisgestaltung.

Dural
2020-06-23, 12:00:29
Ich glaube wir könnten tatsächlich interessante Preise bei Ampere sehen.

NV wird die 8nm sicherlich relativ günstig bekommen, dazu "nur" max 384Bit/12GB. Relativ überschaubare 600mm2 und keine 750mm2 mehr.

Ich rechne nicht mit einem Preis Anstieg, eher gleich oder sogar etwas weniger, man beachte auch die aktuelle Marktsituation.

Dazu hat AMD mit Navi2 definitiv in der Herstellung das teurere Produkt in der Hand: 500mm2 7nm + 512Bit 16GB.

dargo
2020-06-23, 12:01:23
Günstige AMD Preise sind ein Märchen.
Bei einem guten Produkt ruft AMD vergleichlichbare Preise mit Nvidia auf. Wie gesagt halt ein paar Prozent niedriger, aber ob ich jetzt 500 Euro oder 420 Euro zahle ist auch kein wirklich großer Unterschied. Vor allem wenn ich bei der 420 Euro Variante ein höheres Treiberrisiko habe.
Bessere Treiber bei Nvidia sind genauso ein Märchen.


Dazu hat AMD mit Navi2 definitiv in der Herstellung das teurere Produkt in der Hand: 500mm2 7nm + 512Bit 16GB.
Aus welchen Finger hast du dir das jetzt wieder gesaugt? Und vor allem aus welcher Quelle hast du Informationen zu welchen Konditionen AMD von TSMC die Wafer bekommt? Lass mich raten... du weißt gar nichts.

BlacKi
2020-06-23, 12:17:01
NV wird die 8nm sicherlich relativ günstig bekommen, dazu "nur" max 384Bit/12GB. Relativ überschaubare 600mm2 und keine 750mm2 mehr.
das hat schon lange nichts mehr mit den herstellungskosten/entwicklungskosten zu tun. man nimmt das was man bekommt. und amd hats geschnallt, das man sich mit einem preiskampf nur selbst schneidet.*depri*

WedgeAntilles
2020-06-23, 12:23:37
Bessere Treiber bei Nvidia sind genauso ein Märchen.
.

Auch wenn es dir nicht passt:
Sämtliche existierenden empirischen Daten belegen das Gegenteil.

Siehe dazu Umfragen in diversen Foren, so auch diesem (vor 2 Monaten oder wann das war).

Aber glaub was du willst, gibt ja auch viele Leute die glauben, die Erde wäre 7000 Jahre alt :)

w0mbat
2020-06-23, 12:37:03
Woran erkennt man einen Fanboi?

Daran, dass er seine subjektive Meinung so hoch hängt, dass er andere Meinungen mit Creationisten vergleicht.

Harter Fakt: Radeon Treiber sind viel besser als alles, was Nvidia so bietet. Jeder, der was anderes behauptet denkt auch, dass die Erde 7k Jahre alt ist. Höhö.

dargo
2020-06-23, 13:14:33
und amd hats geschnallt, das man sich mit einem preiskampf nur selbst schneidet.*depri*
Deswegen geht AMD so agressiv vor in der CPU-Sparte. :rolleyes: Schau dir einfach an was mittlerweile ein Sixcore kostet. Selbst ein 24 Threader wird mittlerweile für "schmale" 400+€ verkauft.

Linmoum
2020-06-23, 13:26:03
Wir sind hier aber bei GPUs und da fährt AMD keine solchen Kampfpreise, sondern ähnliche wie Nvidia.

Troyan
2020-06-23, 14:02:20
Kann man Diskussionen über Preise, Treiber und sonstiges nicht einfach sein lassen? Die Karten sind weder veröffentlicht, noch weiß man was über die Treiber.

Dann doch liebers sowas hier: https://twitter.com/CyberCatPunk/status/1275331994893684736

BlacKi
2020-06-23, 14:08:34
@dargoDeswegen geht AMD so agressiv vor in der CPU-Sparte. :rolleyes: Schau dir einfach an was mittlerweile ein Sixcore kostet. Selbst ein 24 Threader wird mittlerweile für "schmale" 400+€ verkauft.
der vergleich hinkt, da intel keine mengen produzieren kann um einen preiskampf eingehen zu können/wollen, weil sie die cpus so oder so los werden. und amd kann liefern, hier würde amd gerne noch mehr loswerden weil die marge sehr hoch scheint. der faktor fehlt in der gpu sparte.



Dann doch liebers sowas hier: https://twitter.com/CyberCatPunk/status/1275331994893684736
geht nicht. liegt das bei mir? ich hab öfter solche fehlfunktionen bei twitter. braucht man dafür nen acc?

Edit: habs gefunden https://twitter.com/CyberCatPunk/status/1275331994893684736/photo/1

X-Bow
2020-06-23, 14:09:26
Deswegen geht AMD so agressiv vor in der CPU-Sparte. :rolleyes: Schau dir einfach an was mittlerweile ein Sixcore kostet. Selbst ein 24 Threader wird mittlerweile für "schmale" 400+€ verkauft.

Lisa Su hatte extra mal vor RDNA gesagt dass man mit RDNA nicht die ZEN Schiene fahren wird um Marktanteile zu gewinne sondern hier Marge will. AMD wird sich wie NV auch an die Preisleistung der Vorgängergeneration orientieren. Mehr Leistung, mehr Geld. Und dabei werden sich beide, wie mit RDNA und Touring jetzt schon, ähneln.

Wer glaubt das Ampere weniger Kosten würde wie Touring der wird sich doch sehr täuschen (Und wer glaubt AMD wird Kampfpreise fahren auch).

Preise am Markt bestimmt der Kunde. Wenn keiner je wieder eine GraKa über 500€ kauft, wir auch nie wieder eine GraKa mehr als 500€ kosten. So lange es aber Menschen gibt die sich "das Beste/Teuerste" leisten wollen, und die wird es immer geben, werden auch die Preise immer weiter steigen.
Und Shareholder gibt es auch noch hinter beiden Firmen, und diese Art Mensch gehört nicht zu denjenigen die sagen "Ach eigentlich ist nun genug, lasst doch mal die Margen reduzieren"

Piefkee
2020-06-23, 14:14:22
https://twitter.com/CyberCatPunk/status/1275331994893684736

GA102-400-A1
RTX 3080 Ti
GA102
5376 CUDA Cores
7nm
Boost Core Frequency @2200Mhz
21TFlops FP32
12GB @18 Gbps Samsung GDDR6 --> 863GB/s
TDP 320Watt

w0mbat
2020-06-23, 14:17:57
70W höhere TDP im Vergleich zur 2080 Ti, das Teil wird ein Monster. Hoffentlich ist die Leistung auch entsprechend.

BlacKi
2020-06-23, 14:20:05
RTX 2080ti fe 13,45 TFlops FP32-- 100%

RTX 3080 Ti 21 TFlops FP32 ------ 156,1338289962825‬%


RTX 2080ti fe Bandwidth ---- 616 GB/s --100%

RTX 3080 Ti Bandwidth ------ 863 GB/s --140,0974025974026‬%

nice!

ChaosTM
2020-06-23, 14:23:34
Immerhin 1GB mehr RAM ;)
Die fällt also mal aus.

Troyan
2020-06-23, 14:25:42
Also 2200Mhz Boost wären 23,65TFLOPs. ~21TFLOPs wären ca. 1950Mhz. Das entspricht im Grunde dem Wert vom 3DMark Leak...

Dampf
2020-06-23, 14:27:17
https://twitter.com/CyberCatPunk/status/1275331994893684736

Plausibel aber Fake. Die TFLOPs Angabe stimmt nicht.

Piefkee
2020-06-23, 14:31:34
Also 2200Mhz Boost wären 23,65TFLOPs. ~21TFLOPs wären ca. 1950Mhz. Das entspricht im Grunde dem Wert vom 3DMark Leak...


Ja ist wahrscheinlich fake...

Normalerweise gibt NV immer Tflops mit Basis-Takt an.

Bie 2200Mhz wären es 23,65 TFLOPS
2080Ti (@Boost 1.935 MHz ) --> 16,8 TFLOPS

--> 3080Ti/2080Ti --> +40%

Troyan
2020-06-23, 14:32:32
Die Bandbreite stimmt. Da das ganze ja nicht von nVidia kommt, wer weiß.

HOT
2020-06-23, 14:35:45
MMn ganz klar Fake, der spezielle Speicher (wie immer der letztendlich heißen mag) ist von Igor klar bestätigt worden. Das ist definitiv kein normaler GDDR6. Da hat sich jemand was nettes zusammengesponnen.

BlacKi
2020-06-23, 14:36:34
mal gespannt was irgor für ein video heute raushaut.

dargo
2020-06-23, 14:37:22
RTX 2080ti fe 13,45 TFlops FP32-- 100%

RTX 3080 Ti 21 TFlops FP32 ------ 156,1338289962825‬%


RTX 2080ti fe Bandwidth ---- 616 GB/s --100%

RTX 3080 Ti Bandwidth ------ 863 GB/s --140,0974025974026‬%

nice!
Rechnest du dir die TFLOPs wieder schön? :freak: Eine RTX 2080 TI FE hat 15,2TFLOPS da sie im Schnitt mit 1720-1750Mhz taktet.
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-2080-ti-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last_mit_gpuboost_40

https://twitter.com/CyberCatPunk/status/1275331994893684736
TFLOPS passen nicht zur Frequenz. Bei 2,2Ghz wären es 23,65TFLOPs. Könnte natürlich sein, dass diesmal das Powerlimit stärker limitiert. Sofern die 21 TFLOPs stimmen müsste die GPU im Schnitt dann mit ca. 1,95Ghz takten.

HOT
2020-06-23, 14:44:00
Jo Dargo, richtig.
21TFLOPs bei den Einheiten wären übrigens knapp 2GHz, das ist auch ein klarer Fehler. Eine Karte mit 2GHz und 5120 Shader hat 21TFLOPs, was i.Ü. fast exakt zu den kolportierten 35% passt. Ich denke, es ist ziemlich klar, dass wir irgendwo in dem Bereich landen werden. Ich mach das jetzt auch mal so:

RTX 3090
5120 CUDA Cores
8LPP
ca. 2GHz Boost
21 TFLOPs
12GB GDDR6 >18GT/s
TDP 320W

RTX 3080
4352 CUDA Cores
8LPP
ca. 2GHz Boost
ca. 17 TFLOPs
10GB GDDR6 >18GT/s
TDP 250W

Ursprüngliche RTX 3080 (GA103)
3584 CUDA Cores
8LPP
ca. 2GHz Boost
ca. 15 TFLOPs
10GB GDDR6 <= 18GT/s
TDP 220W

(RTX 3070 (neu designt)
3072 CUDA Cores
7LPP
ca. 2,1GHz Boost
ca. 13 TFLOPs
8GB GDDR6 > 18GT/s
TDP 180W)

davidzo
2020-06-23, 17:59:02
MMn ganz klar Fake, der spezielle Speicher (wie immer der letztendlich heißen mag) ist von Igor klar bestätigt worden. Das ist definitiv kein normaler GDDR6. Da hat sich jemand was nettes zusammengesponnen.

Seit wann sind denn Igors Spekulationen jetzt eine vertrauenswürdige Quelle?
Der stochert doch im selben brei herum wie alle anderen. Klar, er hat Ahnung sich sachen zusammen zu reimen, aber in den sachen wo er weniger ahnung hat liegt er offensichtlich umso falscher (interpretation des kühlers, vaporchamber, heatpipes, coprozessor, TDP, Stromanschlüsse etc.).

Cyberfries
2020-06-23, 18:48:04
Die Argumentation FÜR einen speziellen Speicher ist ohnehin recht dünn.
Bei GDDR5X war die deutlich vergrößerte Bandbreite ein echtes Plus, was zu kleineren Interfaces geführt hat.
Bei Ampere gehen die Gerüchte momentan von ca. 18Gbps an einem 384bit Interface aus.
Werte die auch zu GDDR6 passen, wo liegt dann der Vorteil des spekulierten Spezialspeichers?
Dazu gibt es meines Wissens nach immer noch keine Informationen, dass spezieller Speicher irgendwo gefertigt oder dessen Fertigung vorbereitet wird.

MiamiNice
2020-06-23, 18:50:49
Igor hat die genaue Produktbezeichnung geleakt und gesagt er hat die Info direkt aus der Industrie und es steht fest. Der Mann verliert jedliche Glaubwürdigkeit, wenn es nicht so kommt. Man sollte bis dahin davon ausgehen, dass das, was er sagt korrekt ist. Er wird sicherlich nicht mit dem Überleben seiner Webseite spielen.

BlacKi
2020-06-23, 18:59:18
Seit wann sind denn Igors Spekulationen jetzt eine vertrauenswürdige Quelle?
Der stochert doch im selben brei herum wie alle anderen. Klar, er hat Ahnung sich sachen zusammen zu reimen, aber in den sachen wo er weniger ahnung hat liegt er offensichtlich umso falscher (interpretation des kühlers, vaporchamber, heatpipes, coprozessor, TDP, Stromanschlüsse etc.).
er muss mit dem spielen was so gerade leakt. ich glaub er würde gern mehr verraten als er schon weiß.

robbitop
2020-06-23, 18:59:19
Ich sehe GDDR6X auch noch skeptisch. JEDEC hat keine Spezifikation dafür (was nichts heißen muss, wenn es mit nur einem Speicherhersteller entwickelt worden ist - aber beim letzten Mal gab es auf der JEDEC Webseite auch 6 Monate vor dem Massenstart eine Spezifikation - ist kein Beweis aber ein Indiz skeptisch zu bleiben).

Linmoum
2020-06-23, 19:20:40
er muss mit dem spielen was so gerade leakt. ich glaub er würde gern mehr verraten als er schon weiß.Er hatte ja im letzten Video auch gesagt dass es Dinge gibt, die er nicht sagen darf.

Wenn du nicht gerade Videocardz bist, dann musst du halt trotzdem aufpassen, was du sagen kannst und was du sagen darfst. Man will ja auch schlecht seine Kontakte verlieren, wenn man fröhlich alles ausplaudert und der Hersteller deshalb dann auch irgendwann erahnen kann, woher gewisse Informationen kommen.

Natürlich wird beim finalen Produkt nicht alles 1:1 stimmen. Dafür gibt es auch zu viele Dinge, die NV kurzfristig noch ändern kann. Aber mittlerweile ist man halt an einem Punkt, an dem auch NV die Partner so langsam mit Informationen versorgt. Und wenn du in der Industrie die richtigen Vögelchen kennst, dann singen die auch das ein oder andere für dich.

Piefkee
2020-06-23, 22:14:08
Ich sehe GDDR6X auch noch skeptisch. JEDEC hat keine Spezifikation dafür (was nichts heißen muss, wenn es mit nur einem Speicherhersteller entwickelt worden ist - aber beim letzten Mal gab es auf der JEDEC Webseite auch 6 Monate vor dem Massenstart eine Spezifikation - ist kein Beweis aber ein Indiz skeptisch zu bleiben).

Igor meinte aber auch das es sogar JEDEC Daten gibt die er irgendwo erwähnt habe aber noch niemand genau hingeschaut hat. Was auch immer das heißen mag. Bin mir aber ziemlich sicher das Igor das sicher weidß

TheGood
2020-06-23, 22:31:49
Grad Igor vorzuwerfen er hätte keine Ahnung von KÜhlerdesign, Leiterplattendesign, RAM usw. ist ja lächerlich. Da reitet er doch seit jahren drauf rum und haut eines nach dem anderen raus. Von daher ist das alles sehr schlüssig was er dazu gesagt hat.
Wir werden es sehen was am Ende rauskommt.

[MK2]Mythos
2020-06-23, 22:38:59
Finds auch ziemlich daneben dem Mann Ahnungslosigkeit vorzuwerfen. Man muss ihn ja nicht mögen und mir brabbelt er manchmal auch zu viel in seinen Videos, trotzdem kann man doch nicht leugnen dass er immer wieder mal mit der ein oder anderen Insidernews um die Ecke kommt, dazu dann noch die wirklich fundierten Tests mit dem professionellem Equip. Seine Schlussfolgerungen muss man auch nicht teilen, Sinn machen sie aber schon.
Und wie hier bereits geschrieben wurde, haftet er mit seiner Reputation.

Leonidas
2020-06-24, 04:24:50
Jo Dargo, richtig.
21TFLOPs bei den Einheiten wären übrigens knapp 2GHz, das ist auch ein klarer Fehler.


Speziell bei dem Punkt sehe ich da ausgerechnet keinen Fehler. Sofern NV die TFlops wirklich immer auf dem Baseclock angibt (wie vorstehend behauptet *) und im Gerücht der Boost-Takt angegeben wird - dann muß es doch eine Differenz geben. Nebenbei ergeben die 1935 MHz aus dem 3DMark-Test auf dieser Anzahl an SP exakt 20,81 TFlops. Das könnte man doch hochrunden auf 21 TFlops - und alles passt?!

* Allerdings finde ich für diese Behauptung keine Belege auf der nVidia-Webseite. FP32 wird bei Gamer-Karten selten angegeben, wenn dann aber basierend auf dem Boost-Takt.

dargo
2020-06-24, 06:24:12
Speziell bei dem Punkt sehe ich da ausgerechnet keinen Fehler. Sofern NV die TFlops wirklich immer auf dem Baseclock angibt (wie vorstehend behauptet *) und im Gerücht der Boost-Takt angegeben wird - dann muß es doch eine Differenz geben.
Das ist Quatsch, erstaunlich wie sich wieder falsche Gerüchte verbreiten. NV gibt die TFLOPs für den offiziellen Boost-Takt an. Das wären bsw. bei der 2080TI 1545Mhz (bei der FE 1635Mhz) und 13,4 TFLOPs. Nur boosten die Geforces in Games immer höher und haben somit auch mehr TFLOPs als offiziell angegeben.

Leonidas
2020-06-24, 07:20:27
Alles klar. Wie gesagt habe ich mich schon selber gewundert, weil NV es eben nicht so macht. Fehlaussage aufgeklärt, danke für die Richtigstellung.

Edgecrusher86
2020-06-24, 13:49:01
Meines Wissens nach hat man nur bei Kepler den Baseclock verwendet (TF/s FP32), ab Maxwell war es dann für den Boost, wobei man hier auch etwas großzügiger war.
Der Slide für die GTX TITAN X war etwas oberhalb der 1075 MHz avg. Boost, wenn mich nicht alles täuscht.

E:
https://abload.de/img/86ahfjx8.jpg

GeForce GTX TITAN
4,5 TF/s @ 837 MHz Baseclock [Boostete im Normalfall mit Wakü-Blockmit zwischen 937-1006 MHz ; idR oberhalb 952 MHz iirc].
Mit dem Referenzlüfter und Standard-Targets sah man den Boost-Takt aber idR auch nicht, 900 MHz+ war die Regel.

https://abload.de/img/maxwellxpascalxinj6n.jpg

Die Umstellung der Angabe vom Baseclock zum Boost oder ein wenig darüber erfolgte dann wohl aus marketingtechnischen Gründen, da AMD ab Hawaii nur
die Peak-Leistung an gab -> 5,6 TF/s -> 1 GHz. Up To- Angaben bei Taktraten, Füllraten, Datenrate und Speicherbandbreite wurden genannt.

GTX TITAN X:
7 TF/s @ ~ 1139 MHz [1075 MHz avg. Boost NV; die Angabe ist etwas optimistisch - mit dem Ref-Kühler und Standard PT/TT hatte man idR eher 1000-1100MHz in 4K -
nur mit max. Targets wurden knapp über 1,1 GHz gehalten].

TITAN X(Pascal):
11 TF/s @ ~ 1535 MHz Boost [avg. Boost NV; boostete idR zwischen 1600-1700 MHz in 4K, teils auch bis knapp über 1800 MHz].

Nazar
2020-06-24, 15:36:55
Auch wenn es dir nicht passt:
Sämtliche existierenden empirischen Daten belegen das Gegenteil.

Siehe dazu Umfragen in diversen Foren, so auch diesem (vor 2 Monaten oder wann das war).

Aber glaub was du willst, gibt ja auch viele Leute die glauben, die Erde wäre 7000 Jahre alt :)

Was für Umfragen und wer hat diese kontrolliert und wurde auch der Wert auf die vorhanden Besitzer im Verhältnis zueinander angeglichen? :confused:
nV hat einen Marktanteil von min. 2/3 bei den "Profi Zockern" mit Highend PCs. Gerade die Highend Zocker (egal ob nV oder AMD) tummeln sich in den Foren und nehmen an solchen Umfragen teil.
Es wäre ein Wunder, wenn die Umfragen in irgend einer Form andere Ergebnisse erbracht hätten als jenes welches du hier offerierst.
Und wer hat bei den Umfragen sichergestellt, dass nV-Jünder nicht AMD madig machen und umgekehrt?
Fakt ist, selbst dann käme es einem Wunder gleich, wenn AMD gut dabei weg käme, da das Verhältnis in der Abstimmung immer für nV spricht.
Natürlich ist das auch nur eine These aber sie folgt einer Logik, die so, seit es Abstimmungen gibt, immer wieder bestätigt wurde und auch in einer Demokratie bei Abstimmungen immer wieder ihre Wirkung zeigt.

Diese "Internetabstimmungen" sind alles aber mit 100% Sicherheit keine Grundlage für eine haltbare Aussage. :wink:

Radeonfreak
2020-06-24, 16:21:38
. Nur boosten die Geforces in Games immer höher und haben somit auch mehr TFLOPs als offiziell angegeben.

AIDA spuckt mir 17-17.5 TF aus bei 2GHZ.

Mangel76
2020-06-24, 16:21:44
Fakt ist, selbst dann käme es einem Wunder gleich, wenn AMD gut dabei weg käme, da das Verhältnis in der Abstimmung immer für nV spricht.


Was machst du denn für Umfragen??? Dir ist schon klar, dass man nur nach der Zufriedenheit mit dem jeweils genutzten Treiber fragen kann und nicht welcher von beiden besser ist? Nur die wenigsten können beide Treiber zum gleichen Zeitpunkt beurteilen. Anschließend kann man die Zufriedenheitswerte beider Gruppen miteinander vergleichen. Und in diesem Fall spielt der Verbreitungsgrad nicht wirklich eine Rolle.

dargo
2020-06-25, 08:23:32
AIDA spuckt mir 17-17.5 TF aus bei 2GHZ.
Passt doch auch, 2Ghz = 17,4TFLOPs.

mironicus
2020-06-25, 10:45:11
H1C5V_hi38s

WedgeAntilles
2020-06-25, 10:45:53
Was für Umfragen und wer hat diese kontrolliert und wurde auch der Wert auf die vorhanden Besitzer im Verhältnis zueinander angeglichen? :confused:
nV hat einen Marktanteil von min. 2/3 bei den "Profi Zockern" mit Highend PCs. Gerade die Highend Zocker (egal ob nV oder AMD) tummeln sich in den Foren und nehmen an solchen Umfragen teil.
Es wäre ein Wunder, wenn die Umfragen in irgend einer Form andere Ergebnisse erbracht hätten als jenes welches du hier offerierst.
Und wer hat bei den Umfragen sichergestellt, dass nV-Jünder nicht AMD madig machen und umgekehrt?
Fakt ist, selbst dann käme es einem Wunder gleich, wenn AMD gut dabei weg käme, da das Verhältnis in der Abstimmung immer für nV spricht.
Natürlich ist das auch nur eine These aber sie folgt einer Logik, die so, seit es Abstimmungen gibt, immer wieder bestätigt wurde und auch in einer Demokratie bei Abstimmungen immer wieder ihre Wirkung zeigt.

Diese "Internetabstimmungen" sind alles aber mit 100% Sicherheit keine Grundlage für eine haltbare Aussage. :wink:

Die Umfrage kam vor 2 Monaten oder so im 3DC.
Frage: Gab es Probleme mit Treibern.
In der Auswertung wurde auch auf andere Umfragen in anderen Foren verlinkt.

Klar kann es theoretisch sein, dass alle "AMD, hatte Probleme" Abstimmungen von Nvidia-Jügern kamen.

https://www.youtube.com/watch?v=1uynVO4ZXl0
Auch hier wird über ein existierendes Treiberproblem gesprochen.
Die hatten die Karten ursprünglich sehr empfohlen.
Klar, theoretisch kann in der Zwischenzeit Nvidia die gekauft haben.
So dass dieses neue Video gelogen ist.

Dann gibt es - weg von der Treiberproblematik - auch hier im Forum immer wieder die Aussage: Pass beim Netzteil auf, die AMD GraKas sind da recht anspruchsvoll.
Das ist jetzt kein Treiberproblem, aber wenn dein Produkt von anderen Teilen im PC (z.B. Netzteil) eine quasi 100% Peak-Performance benötigt, ist eben die Wkeit, dass es ein Problem gibt etwas höher, als wenn das Netzteil auch mit etwas schlechteren Leistungen ausreicht.
Auch hier: Vielleicht sind das alles Lügen und die AMD Karten stellen keine höheren Anforderungen an das Netzteil.
Kann sein.


Sind diese ganzen Punkte ein Beleg, dass AMD SCHLECHT ist? Nein, natürlich nicht.
z.B. bei den Treibern geht ja klar hervor, dass die überwältigende Mehrheit KEINE Probleme mit AMD hat.
Wenn 4% der Kunden ein Problem haben, bedeutet das, dass 96% KEINES hatten. Also die riesige Mehrheit.
Aber wenn es bei Nvidia eben nur 2% mit Problemen gibt, ist das statistisch signifikant weniger.
Klar, ob 2% oder 4% ist nicht gigantisch.
Die AMD Karte kann man da auch kaufen.
Aber wenn alles identisch ist, ich 0 Präferenzen habe - dann nehme ich halt das Produkt das eine 2%ige Wkeit auf ein Problem hat und nicht das mit 4%.
Damit das 4% Produkt gekauft wird, muss es halt ein paar Euro günstiger sein.

Wieviel hängt jetzt von der presönlichen Risikoaversion ab.


Von meiner Seite beende ich das jetzt.
Es geht mir darum, dass alle empirischen Hinweise zeigen, dass es bei AMD eine etwas höhere Wkeit gibt, dass es ein Problem mit der Karte gibt.
Absolut gesehen ist die Wkeit für ein Problem klein.
Aber halt höher als bei Nvidia.

Und das spielt im Verkaufspreis eben auch eine Rolle.

Wenn mich das jetzt zum AMD Hasser und Nvidia Fanboy macht - meinetwegen.

Dural
2020-06-25, 11:03:23
Aha jetzt ist bei Igor auch schon angekommen das es keine Standard Spannungsversorgung auf der Karte drauf sein kann. :rolleyes:

Wie war das vor ca. 10 Tagen nochmal? Alles ganz normal wie gehabt?

HOT
2020-06-25, 11:14:13
Quatsch, der sagt nur, dass die Stromversorgung dem erhöhten Bedarf, der durch die Tensor-Cores zusätzlich zum Rendering entsteht, jetzt Rechnung trägt. Daher auch die hohen TDP-Angaben. Schon die Turings verbrauchten bei Tensor-Vollast 42W, die neuen werden sicherlich in Richtung 80W gehen, die nicht durch Grafiklast erzeugt werden schätzt Igor. Da muss NV was tun, wenn das gleichzeitig nutztbar sein soll, sonst bremsten u.U. das Eine das Andere aus.

WedgeAntilles
NV hat es immer noch nicht geschafft ne neue moderne Oberfläche für den Treiber hinzubekommen. Du verbreitest hier einfach immer wieder die gleichen Vorurteile.
AMD hatte letztes Jahr die Blackscreenproblematik, das stimmt zugegebenermaßen, aber NV hatte ebenfalls so Phasen in der Vergangenheit und da wird gar nix eingepreist, im Gegenteil, der Treiber spielt beim Preis einfach keine Rolle. Das einzige was eingepreist wird ist der Name Geforce, das wars und das zieht aus verschiedenen Gründen, die NV auch selbst verschuldet hat, nicht mehr so wie früher sonst wären die Marktanteile bei der ungleichen Marktsituation anders.