PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 [54] 55 56 57 58 59 60 61 62

Ex3cut3r
2020-10-10, 19:01:34
Wenn du in 3440x1440 zockst, wirst du auch mit dem 9900k @ 5.0ghz und getunten DDR4 immer im GPU Limit landen, verstehe gar nicht warum du schon wieder die CPU auswechseln willst, es bringt IMO in 95% der Games nix. X-D

Ich wurde erst bei DDR5 wechseln, anfangs aber auch nicht, weil der neue RAM zu teurer ist. Da bekommt man zum "normalen" Preis nur wieder den Einstiegs Speed von DDR5 4000-5000mhz. 6400 Mhz und mehr (7000mhz+) wird anfangs unbezahlbar sein.

Rampage 2
2020-10-10, 19:05:25
Von CoffeeLake auf Raketen Lake ist aber auch nix anderes als ein Sidegrade.

Nicht wirklich. 10-20% mehr IPC, nochmals paar hundert MHz mehr Takt (-> 5.5 GHz All-Core), mehr Cache und vermutlich auch nochmals verbessertes RAM-OC (DDR4-5000+ oder aber DDR4-4800 für die höherwertigen Boards). Dazu PCI-E 4.0. Das kann alles zusammen in CPU-limitierten Spielen schon in 30-50% Mehrleistung umschlagen (im Optimalfall)... also schon ein Upgrade:)

Aber definitiv nicht zukunftstauglich, das stimmt:wink:

Andererseits halte ich es durchaus für möglich, dass sich Alder Lake sogar schlechter takten lässt wegen dem eher unspektakulären 10nm-Prozess vgl. mit dem zum x-ten Mal optimiertem und ausgereiftem 14nm-Prozess;)

R2

Ex3cut3r
2020-10-10, 19:08:27
5,5 Ghz mit 14nm? Vergiss es...mehr als 5,3 ghz siehe 10900k ist nicht machbar, und selbst der ist Schwer Lieferbar, da nicht alle Modelle das packen. Außerdem wurde der Stromverbrauch nochmal explodieren, oder willst du das Ding mit Trockeneis kühlen? X-D

MiamiNice
2020-10-10, 19:11:01
Wenn du in 3440x1440 zockst, wirst du auch mit dem 9900k @ 5.0ghz und getunten DDR4 immer im GPU Limit landen, verstehe gar nicht warum du schon wieder die CPU auswechseln willst, es bringt IMO in 95% der Games nix. X-D

Gegenfrage: Wer von uns hier kauft neue Hardware weil sie gebraucht wird? Wir machen das doch alle mehr aus Hobby und Leidenschaft.

Ex3cut3r
2020-10-10, 19:12:57
Ok. Glaube ich eher nicht. Aber gut.

Rampage 2
2020-10-10, 19:30:24
5,5 Ghz mit 14nm? Vergiss es...mehr als 5,3 ghz siehe 10900k ist nicht machbar, und selbst der ist Schwer Lieferbar, da nicht alle Modelle das packen. Außerdem wurde der Stromverbrauch nochmal explodieren, oder willst du das Ding mit Trockeneis kühlen? X-D

Der 10900K hat aber auch 2 Kerne mehr;) Je mehr Kerne, desto weniger hoch taktbar ist eine CPU. Trotz 10-Core 5.3 GHz zu schaffen ist IMO schon eine gute Leistung...

Außerdem: je kleiner ein Prozess bei gleichzeitig kleinerem Die, desto schwieriger ist es Abwärme abzuführen - diese Aussage wurde bereits 2012 zu Ivy Bridge mit seinem 22nm-Shrink gemacht. (obwohl da viel eher der nicht (mehr) verlötete HS der eigentliche Grund für die schlechtere Taktbarkeit war...)

Deswegen gibt es einen sehr simplen Weg, eine CPU/GPU besser taktbar zu machen: den Die bei gleichem Fertigungsprozess etwas zu vergrößern oder den Prozess selber ein kleines bisschen zu lockern. Ersteres hat Nvidia mit Turing gemacht und Letzteres Intel mit Kaby Lake. (auch nochmal mit CFL, CFL-R und jetzt CML???)

Wirtschaftlich natürlich kontraproduktiv - siehe Turing.

R2

Armaq
2020-10-10, 20:10:41
Kommt drauf an welche Kerne da rein kommen und wie hoch man den Takt treiben kann. Wenn es nicht lohnt bleibt es 2021 bei altem und es wird ein Alder Lake. 15% im Single Thread sollten es schon sein, sonst lohnt der monetäre Aufwand imo nicht. Dafür geht es aktuell zu schnell mit dem Fortschritt, die Zukunftsaussichten sind zu gut.
Was für einen Score in Cinebench schaffst du jetzt?

aufkrawall
2020-10-10, 20:12:57
Es ist hier der verdammte Ampere-Thread?

Edgecrusher86
2020-10-11, 04:39:39
Ich hätte mir 'ne 3080 mit >=12GiB für den Preis direkt geholt. Aber (deutlich) mehr Performance mit (deutlich) weniger Speicher zu bringen schafft auch nur Nvidia. Dieser Geiz ist einfach nur affig.

Tja, 10GB wäre auch in meinen Augen für eine 3070 sinnig gewesen, nicht mehr darüber...12GB ein Muss für eine 80 non Ti.
Ich vermute auch, dass Q1 oder Q2 2021 eine "3080 Ti FE" mit 12GB und 72SM, also 9216CC kommt - das Ganze dann mit 335 - 385W PT.

SkankHunt
2020-10-12, 15:18:05
Was wäre eigentlich (ungefähr, realistisch) der Unterschied, wenn GA102 in 7nm TSMC statt dem 8nm Custom produziert worden wäre?
Realistisch wären es doch 15-20% bedingt durch die höhere Clock oder sehe ich da was falsch?

HOT
2020-10-12, 16:15:35
Was wäre eigentlich (ungefähr, realistisch) der Unterschied, wenn GA102 in 7nm TSMC statt dem 8nm Custom produziert worden wäre?
Realistisch wären es doch 15-20% bedingt durch die höhere Clock oder sehe ich da was falsch?

Das ist unheimlich schwer zu beantworten, dafür hätte das gesamte Design darauf entwickelt werden müssen. Vielleicht hätte es im Endeffekt netto minimal besser ausgesehen als in 8N, aber das muss nicht sein. Solche Hypothesen sind eh müßig, weil es ja keinen "Vergleich" geben kann, da das Ampere-Customer-Design nunmal nicht für N7 sondern für 8N entwickelt wurde.

Ich halte auch diesen ganzen Blödsinn, der da rumgeht, dass NV eine TSMC-Variante nachschiebt für puren BS, weil das Design dafür eben nicht entwickelt wurde. Wenn man in N7 entwickelt, wird sowieso ein komplett neuer Chip. Sowas gabs ja auch schon bei Turing, die schieben einen 7nm nach oder Turing Refresh erscheint in 8LPP (gabs schon vor(!) dem Turing-Launch solche Gerüchte). Daraus wurde bekanntlich nichts. Aus dem 8 LPP wurde Ampere und wenn sich jetzt die N7-Gerüchte so hartnäckig halten, besteht meiner Ansicht nach eher die Gefahr, dass Hopper-Customer dann in N7x kommt 2022.

JVC
2020-10-12, 16:23:20
Was wäre eigentlich (ungefähr, realistisch) der Unterschied, wenn GA102 in 7nm TSMC statt dem 8nm Custom produziert worden wäre?
Realistisch wären es doch 15-20% bedingt durch die höhere Clock oder sehe ich da was falsch?
Richtig, aber NV wollte Gewinn, anstelle von Ruhm...

Der Rest ist Geschichte, anstelle von Ruhm.

M.f.G. JVC

:ubeer: verdammt, das wird Heute noch schwer...

Dural
2020-10-12, 16:34:27
Glaube nicht das 7nm so viel mehr bringt, Takt eher gar nicht, vielleicht etwas weniger Verbrauch.

Heute muss die ganze Architektur und Chip auf den Prozess abgestimmt sein, eine kurzfristige Änderung ist praktisch nicht mehr möglich oder man hat kaum Vorteile.

@Edit:
Jenson hat das übrigens selber mal gesagt, ich glaube es war Anfang 2019 als es um Turing in 7nm ging. Da meinte er das sie jederzeit 7nm Wafer bestellen könnten es aber nicht rentabel ist und kaum was bringt. Und da ging es ja sogar um 12nm vs 7nm.

JVC
2020-10-12, 16:49:54
Glaube nicht das 7nm so viel mehr bringt....
AMD hat fast 2Jahre Vorsprung mit 7nm...
Was glaubst du denn sonnst noch ?

M.f.G. JVC

Dural
2020-10-13, 16:47:42
Vorsprung? Du weisst schon das AMD selber gar nichts mehr mit der Fertigung zu tun hat?

Und Vega2 in 7nm war ja an Lächerlichkeit kaum zu überbieten, extrem geringe Stückzahlen und kaum mehr Leistung, halt etwas mehr Takt. Der Chip hat Jensen Aussage durch und durch bestätigt.

Was der angebliche Vorsprung mit 7nm mit meiner Aussage zu tun hat weiss ich ehrlich gesagt auch nicht. Oder meinst du in etwa Navi1 das trotz 7nm nicht an die 12nm von Turing Energietechnisch ran kommt???
NV bau ihre Architektur und Optimiert nur noch auf eine spezielle Fertigung, das braucht Jahre um das zu Planen und Entwickeln.

Daredevil
2020-10-15, 22:33:36
Hat jemand ne Zotac und kann mir bestätigen, dass diese Flackerei nicht die normale RGB Beleuchtung ist? :X
( Ist aus dem Alternate Outlet, wäre also nicht verwunderlich, wenn die ne Macke hat )
sPbdLFYC5hY

SKYNET
2020-10-16, 00:06:15
Hat jemand ne Zotac und kann mir bestätigen, dass diese Flackerei nicht die normale RGB Beleuchtung ist? :X
( Ist aus dem Alternate Outlet, wäre also nicht verwunderlich, wenn die ne Macke hat )
https://youtu.be/sPbdLFYC5hY


klemms ab, das bekommt dann der rest der graka mehr als PL zugestanden.

horn 12
2020-10-16, 07:10:53
Vorsprung? Du weisst schon das AMD selber gar nichts mehr mit der Fertigung zu tun hat?

Und Vega2 in 7nm war ja an Lächerlichkeit kaum zu überbieten, extrem geringe Stückzahlen und kaum mehr Leistung, halt etwas mehr Takt. Der Chip hat Jensen Aussage durch und durch bestätigt.

Was der angebliche Vorsprung mit 7nm mit meiner Aussage zu tun hat weiss ich ehrlich gesagt auch nicht. Oder meinst du in etwa Navi1 das trotz 7nm nicht an die 12nm von Turing Energietechnisch ran kommt???
NV bau ihre Architektur und Optimiert nur noch auf eine spezielle Fertigung, das braucht Jahre um das zu Planen und Entwickeln.


Vega VII war ein Schnellschuss für Consumer und wird in 3 Monaten 2 Jahre alt
Ist nicht u vergleichen mit 8nm Samsung von Jetzt (Nvidia)
oder jetzt der AMD 7nm Prozess von TSMC.
War PipeCleaner um Erfahrung zu Sammeln für Zen 2 und Weitere Produkte!

JVC
2020-10-16, 10:14:23
Hat jemand ne Zotac und kann mir bestätigen, dass diese Flackerei nicht die normale RGB Beleuchtung ist? :X
( Ist aus dem Alternate Outlet, wäre also nicht verwunderlich, wenn die ne Macke hat )
https://youtu.be/sPbdLFYC5hY
Disko Disko :freak:

Nop, so ne nervöse RGB Beleuchtung, sehe ich zum ersten mal :D

Ich würde die Karte deswegen nicht behalten.

M.f.g. JVC

SentinelBorg
2020-10-17, 03:39:53
Jetzt weiss ich warum hier manche soviel VRAM wollen: https://www.pcgamer.com/you-can-install-and-run-crysis-3-on-a-geforce-rtx-3090s-vram/

:D

Piefkee
2020-10-17, 08:47:22
Vorsprung? Du weisst schon das AMD selber gar nichts mehr mit der Fertigung zu tun hat?
l.


Sorry aber stimmt nicht. Bei TSMC gibt es einen inneren Kreis mit den top Kunden (AMD) gehört da auch dazu), diese Treibern gemeinsam mit TSMC an den Leading edge processen. TSMC funktioniert nur so gut weil sie von ihren Kunden Input bekommen.

Beispiel: TSMC wollte schon bei 5nm auf EUV setzen. Apple hat gesagt „NÖ“ weil zu viel Gefahr. Man hat sich einige Tricks einfallen lassen die vielleicht nicht die beste density ermöglichen aber zumindest war der Prozess im Zeitplan und vorallem der Yield super. Samsung zum Beispiel hat so etwas nicht... deshalb fallen die ständig auf die Schnauze

rentex
2020-10-17, 09:11:33
Jetzt weiss ich warum hier manche soviel VRAM wollen: https://www.pcgamer.com/you-can-install-and-run-crysis-3-on-a-geforce-rtx-3090s-vram/

:D

Das ist für viele hier der Performance Ersatz:rolleyes:

y33H@
2020-10-17, 11:17:07
Beispiel: TSMC wollte schon bei 5nm auf EUV setzen. Apple hat gesagt „NÖ“ weil zu viel Gefahr. Lustiges Beispiel weil N5(P) ja EUV nutzt ^^

TurricanM3
2020-10-18, 16:49:29
Tarkov schöpft das 350er PT selbst undervoltet gnadenlos aus, ist nur 1440p und mittlere Details:

wbIr5wwvD1s

Die gesetzten 2010@950mV werden kaum erreicht und der Chip den ich da habe zählt eher zu den besseren.

Daredevil
2020-10-18, 17:19:17
Mag wer mal Horizon @ 8K DSR testen?
Da ging bei mir gestern mit der Zotac der Takt auf 1600-1650mhz@350w. ;D

aufkrawall
2020-10-18, 17:26:21
Tarkov schöpft das 350er PT selbst undervoltet gnadenlos aus, ist nur 1440p und mittlere Details:

Ein Tipp: Für Videos am besten Fill fürs Overlay in RTSS einschalten, ist dann wesentlich besser zu erkennen.

Mr.Scott
2020-10-18, 20:17:41
Könnt ihr euch vorstellen dass Nvidia eine 3050 oder gar eine 3030 auf den Markt bringen könnte?
Wenn ja, wann könnte das passieren?

Armaq
2020-10-18, 20:39:40
Hat jemand ne Zotac und kann mir bestätigen, dass diese Flackerei nicht die normale RGB Beleuchtung ist? :X
( Ist aus dem Alternate Outlet, wäre also nicht verwunderlich, wenn die ne Macke hat )
https://youtu.be/sPbdLFYC5hY
Ist original. Hab bei irgendeinem YoutubeChannel ein Review gesehen und da blinkte das auch so.

Platos
2020-10-18, 21:26:30
Ne 3050 oder 3050Ti kommt sicherlich. Ne 3030 eher nicht.

Leonidas
2020-10-19, 13:30:51
Um die Diskussion mal ein wenig anzuregen: Es kommt noch so 80% des eigentlichen Ampere-Portfolios. Speicher-verdoppelte Varianten, Midrange und Mainstream.

SKU|Chip|Hardware|Speicher|Listenpreis|Status|Release
GeForce RTX 3090|GA102|82 SM @ 384 Bit|24 GB GDDR6X|$1499|veröffentlicht|24. Sept. 2020
GeForce RTX 3080 20GB|GA102|68 SM @ 320 Bit|20 GB GDDR6X|vermtl. $799-899|handfeste Indizien|angebl. Anfang Dez. 2020
GeForce RTX 3080 10GB|GA102|68 SM @ 320 Bit|10 GB GDDR6X|$699|veröffentlicht|17. Sept. 2020
GeForce RTX 3070 16GB|GA104|46 SM @ 256 Bit|16 GB GDDR6|vermtl. $599|Gerücht|angebl. Anfang Dez. 2020
GeForce RTX 3070 8GB|GA104|46 SM @ 256 Bit|8 GB GDDR6|$499|offiziell|29. Okt. 2020
GeForce RTX 3060 Ti|GA104|angebl. 38 SM @ 256 Bit|8 GB GDDR6|vermtl. $399|Gerücht|angebl. Mitte Nov. 2020
GeForce RTX 3060|GA106|angebl. 30 SM @ 192 Bit|6 GB GDDR6|vermtl. $299|Gerücht|vermtl. Jahresstart 2021
GeForce RTX 3050 Ti|GA106|vermtl. 24-26 SM @ 192 Bit|6 GB GDDR6|vermtl. $249|Annahme|vermtl. Q1/2021
GeForce RTX 3050|GA107|vermtl. 20 SM @ 128 Bit|4 GB GDDR6|vermtl. $199|Annahme|vermtl. Q1/2021

ShinyMcShine
2020-10-19, 13:50:03
Seit die 3070Ti/16GB angeblich eingestampft worden ist, ist Ampere für mich schlagartig uninteressant geworden. Mal schauen, was AMD bringt...

Wenn es bis zum Kauf der nächsten Grafikkarte um den Jahreswechsel herum keine Gerüchte um den vollen GA104 gibt, habe ich für mich die Optionen entweder mit der GTX1080 weiterzumachen bis es hoffentlich einen vollen GA104 gibt oder AMD zu kaufen.

Leonidas
2020-10-19, 14:01:26
Die ist doch aber zugunsten der 3070/16GB eingestampft worden .... kaum eine Differenz.

ShinyMcShine
2020-10-19, 14:20:45
Die ist doch aber zugunsten der 3070/16GB eingestampft worden .... kaum eine Differenz.

Doch, der volle GA104. ;)
Ich steh' einfach nicht auf beschnittene Chips. Keine Ahnung warum. Geht ja nicht nur mit so... ;D

Savay
2020-10-19, 15:55:13
Schlägt da der innere Monk zu?!

ShinyMcShine
2020-10-19, 16:00:13
Schlägt da der innere Monk zu?!

So kann man es auch formulieren...

SKYNET
2020-10-19, 16:25:30
Doch, der volle GA104. ;)
Ich steh' einfach nicht auf beschnittene Chips. Keine Ahnung warum. Geht ja nicht nur mit so... ;D


lieber nen vollen GA104 als nen beschnittenen GA102? :ulol:

WedgeAntilles
2020-10-19, 16:32:09
Falls man "es kommen noch" mit "man kann es normal kaufen ohne dafür Tage und Wochenlang F5 drücken zu müssen" gleichsetzt, kommen sogar noch 100% :biggrin:

ShinyMcShine
2020-10-19, 17:06:27
lieber nen vollen GA104 als nen beschnittenen GA102? :ulol:

Um es einfach zu sagen: Ja.

y33H@
2020-10-19, 17:36:39
Geht mir genauso =)

Armaq
2020-10-19, 17:42:11
Um die Diskussion mal ein wenig anzuregen: Es kommt noch so 80% des eigentlichen Ampere-Portfolios. Speicher-verdoppelte Varianten, Midrange und Mainstream.

SKU|Chip|Hardware|Speicher|Listenpreis|Status|Release
GeForce RTX 3090|GA102|82 SM @ 384 Bit|24 GB GDDR6X|$1499|veröffentlicht|24. Sept. 2020
GeForce RTX 3080 20GB|GA102|68 SM @ 320 Bit|20 GB GDDR6X|vermtl. $799-899|handfeste Indizien|angebl. Anfang Dez. 2020
GeForce RTX 3080 10GB|GA102|68 SM @ 320 Bit|10 GB GDDR6X|$699|veröffentlicht|17. Sept. 2020
GeForce RTX 3070 16GB|GA104|46 SM @ 256 Bit|16 GB GDDR6|vermtl. $599|Gerücht|angebl. Anfang Dez. 2020
GeForce RTX 3070 8GB|GA104|46 SM @ 256 Bit|8 GB GDDR6|$499|offiziell|29. Okt. 2020
GeForce RTX 3060 Ti|GA104|angebl. 38 SM @ 256 Bit|8 GB GDDR6|vermtl. $399|Gerücht|angebl. Mitte Nov. 2020
GeForce RTX 3060|GA106|angebl. 30 SM @ 192 Bit|6 GB GDDR6|vermtl. $299|Gerücht|vermtl. Jahresstart 2021
GeForce RTX 3050 Ti|GA106|vermtl. 24-26 SM @ 192 Bit|6 GB GDDR6|vermtl. $249|Annahme|vermtl. Q1/2021
GeForce RTX 3050|GA107|vermtl. 20 SM @ 128 Bit|4 GB GDDR6|vermtl. $199|Annahme|vermtl. Q1/2021
Die 3060 kommt genau gleich zum Vorgänger bei VRam? Die Daten sehen ja nun schon nach ordentlich PS aus. Der Preispunkt ist mMn. höher. Die werden auf 349 gehen mit der 3060. Ist Ti/nonTi in dem Feld schon klar?

Cyberfries
2020-10-19, 17:47:40
Angeblich ist die 3080-20GB verschoben worden.
https://twitter.com/harukaze5719/status/1318174878831292416

Zu dieser Tabelle: nVidia verzichtet obenrum auf Ti - weshalb nicht auch untenrum?
Eine 3060 mit 6GB wirft wieder peinliche Fragen bzgl. einem Vorgänger mit Mehrspeicher auf.
Eine 1030 gab es auch schonmal. Könnte so aussehen:

SKU|Chip|Hardware|Speicher|Listenpreis|Status|Release
GeForce RTX 3060|GA104|angebl. 38 SM @ 256 Bit|8 GB GDDR6|vermtl. $399|Gerücht|angebl. Mitte Nov. 2020
GeForce RTX 3050|GA106|angebl. 30 SM @ 192 Bit|6 GB GDDR6|vermtl. $299|Gerücht|vermtl. Jahresstart 2021
GeForce RTX 3040|GA106|vermtl. 24-26 SM @ 192 Bit|6 GB GDDR6|vermtl. $249|Annahme|vermtl. Q1/2021
GeForce RTX 3030|GA107|vermtl. 20 SM @ 128 Bit|4 GB GDDR6|vermtl. $199|Annahme|vermtl. Q1/2021

SKYNET
2020-10-19, 17:55:04
ok, also lieber was ganzes mit weniger leistung, als was halbes mit mehr leistung... klingt logisch :crazy:

Thunder99
2020-10-19, 18:10:12
Aber schon heftig, wenn eine 3070 16GB gegen ne 3080 10GB antreten wird wenn der Speicher ausgeht ;D

nordic_pegasus
2020-10-19, 18:18:30
Ich steh' einfach nicht auf beschnittene Chips. Keine Ahnung warum. Geht ja nicht nur mit so... ;D

ich kenne Deinen Schmerz. Darum habe ich mir 2 Generationen nacheinander jeweils die Titan gekauft. Da die 3090 beschnitten und keine "Titan A" in Sicht ist, bin ich aktuell immun gegen das Ampere Aufgebot.

Hoffentlich enttäuscht mit AMD nicht und bringt nur einen beschnittenen N21 auf den Markt.

ShinyMcShine
2020-10-19, 19:27:32
ok, also lieber was ganzes mit weniger leistung, als was halbes mit mehr leistung... klingt logisch :crazy:

Inwiefern? Die spielen auch in unterschiedlichen Preisklassen. Deshalb stellt sich mir diese Frage auch nicht. Ich habe mir 'eh noch nie den Top Dog Chip gekauft. Von daher: Meh...

Langlay
2020-10-20, 15:59:20
Hoffentlich enttäuscht mit AMD nicht und bringt nur einen beschnittenen N21 auf den Markt.

Bis auf die Radeon VII kenne ich keine Serie von AMD, wo es keine volle Version gab im Gamingsektor.

Und die VII ist wohl allgemein eher aus der Not geboren.

Timbaloo
2020-10-20, 16:12:47
Es wird nach einer 3070 mit 16 GB auch eine 3060 mit 12 GB geben. Alles andere wäre total schräg.

Sonyfreak
2020-10-21, 08:31:57
Um es einfach zu sagen: Ja.Ich kaufe auch keinen beschnittenen Chip. :freak::cool: Meine letzte Salvage Grafikkarte war die Geforce 8800 GTS 640, die ich mir vor ziemlich genau 14 Jahren während meiner Zivildienstzeit gekauft habe.

mfg.

Sonyfreak

Troyan
2020-10-21, 15:51:24
Laut Videocardz gibt es nächste Woche am 27.10 die Reviews der 3070FE: https://twitter.com/VideoCardz/status/1318632168617332739

M4xw0lf
2020-10-21, 16:45:57
Einen Tag vor dem Big Navi Reveal, klassischer Move.

Rampage 2
2020-10-21, 17:57:24
Doch, der volle GA104. ;)

Ich steh' einfach nicht auf beschnittene Chips. Keine Ahnung warum. Geht ja nicht nur mir so... ;D

lieber nen vollen GA104 als nen beschnittenen GA102? :ulol:

ok, also lieber was ganzes mit weniger leistung, als was halbes mit mehr leistung... klingt logisch :crazy:

Um es einfach zu sagen: Ja.

Um es noch drastischer zu formulieren: Ich würde prinzipiell sogar mehr Geld für einen vollen GA104 mit weniger Speicher und weniger Leistung geben, als für einen kaputten/beschnittenen/kastrierten/unvollständigen GA102;)

Dafür wurde ich von DareDevil im "GPU-Preise & Schnäppchen"-Thread belächelt - er versteht einfach den psychologischen Impact eines unvollständigen Chips bzw. das Kopfgewichse eines vollständigen Chips nicht...

ich kenne Deinen Schmerz. Darum habe ich mir 2 Generationen nacheinander jeweils die Titan gekauft.

Jep, es juckt Einen wie ein Dorn im Fleische. Wenn es nach mir ginge, hätte ich mir gleich eine Titan RTX (Turing) gekauft - dann hätte ich nicht nur den vollen Chip, sondern gleich noch 24GB VRAM (nie wieder Speicherprobleme in Games für die nächsten 5+ Jahre...) und maximale Speicherbandbreite dazu! Aber jeder kauft nunmal nur das, wozu sein Budget ausreicht - und so kann ich halt nur auf einen vollen TU104 (RTX 2080 Super) mit mickrigen 8GB Grafikspeicher schielen bzw. auf eine hypothetische 3070 Ti 16GB warten:frown:

Die Glücklichen, die sich eine Titan RTX zulegen konnten, haben nicht nur einen Sinn für Ästhetik, sondern haben auch noch alles richtig gemacht: mit so einer Karte hat man seine Ruhe für mindestens 3 Jahre... (von Anfang 2019 aus gerechnet, RT ausgenommen)

Ich kaufe auch keinen beschnittenen Chip. :freak::cool: Meine letzte Salvage Grafikkarte war die Geforce 8800 GTS 640, die ich mir vor ziemlich genau 14 Jahren während meiner Zivildienstzeit gekauft habe.

+1

Ich habe in den letzten 20 Jahren nur sehr wenige Grafikkarten gekauft, aber *alle* waren Chips im Vollausbau:

- 8800 GTX (2007)
- GTX 770 (2014)
- RTX 2070 (2019) (die Existenz einer 2080 Super war zdZ noch unbekannt)

R2

kunibätt
2020-10-21, 18:43:06
Also ich würde mir lieber in 2020 eine 3080 20GB holen als in 2019 ne 2800€ teure Titan RTX wenns 3 Jahre (:freak:) halten soll und eh nur mit gezockt wird.

Rampage 2
2020-10-21, 18:57:26
Also ich würde mir lieber in 2020 eine 3080 20GB holen als in 2019 ne 2800€ teure Titan RTX wenns 3 Jahre (:freak:) halten soll und eh nur mit gezockt wird.

Ist halt eine Frage der Präferenz - ich achte bei einer GPU nicht nur auf die Leistung, sondern auch auf andere Details. Außerdem ist eine 3080 nicht viel schneller als 'ne Titan RTX, insbesondere wenn Letztere massiv übertaktet ist;)

R2

Langlay
2020-10-21, 19:03:26
Ist halt eine Frage der Präferenz - ich achte bei einer GPU nicht nur auf die Leistung, sondern auch auf andere Details.

Du kriegst doch sowieso einen beschnittenen Chip. Es ist doch eh nicht jedes Feature und alles mögliche unlockt. Und ich hätte lieber einen schnelleren beschnittenen Chip als einen "vollen" langsameren.

Und im Grund is das auch egal. Von mir aus könnten im meiner Graka 3 Zwerge mit einem Abakus wohnen, wenn die schnell genug sind. Wat zählt ist Leistung/Stromverbrauch/Preis.

kunibätt
2020-10-21, 19:11:39
Ist halt eine Frage der Präferenz - ich achte bei einer GPU nicht nur auf die Leistung, sondern auch auf andere Details. Außerdem ist eine 3080 nicht viel schneller als 'ne Titan RTX, insbesondere wenn Letztere massiv übertaktet ist;)

R2

Ich auch nicht. Da die 3080 20GB aber erheblich schneller ist und vermutlich neu 1/3 von einer RTX Titan kostet, spricht was genau für eine Titan RTX wenn man eh nur zockt?

horn 12
2020-10-21, 19:51:59
20 GB Modelle wurden nun laut Videocardz gecanceld

https://videocardz.com/newz/nvidia-allegedly-cancels-geforce-rtx-3080-20gb-and-rtx-3070-16gb


Betrifft die 3080 20GB und 3070 16GB
Wird wohl zu teuer werden im Vergleich zu AMD 16GB Karten...
Also lässt man es gleich bleiben :-))))

Linmoum
2020-10-21, 19:54:31
Wer will jetzt noch 8/10GiB Speicherkrüppel kaufen?

Wenn das wahr ist, kann man Ampere ja fast schon komplett überspringen.

dargo
2020-10-21, 19:59:47
Komplette Kapitulation im High-End wenn das wahr ist. :freak:

WedgeAntilles
2020-10-21, 20:00:34
Betrifft die 3080 20GB und 3070 16GB
Wird wohl zu teuer werden im Vergleich zu AMD 16GB Karten...
Also lässt man es gleich bleiben :-))))
Oder BigNavi wird so mies, dass es Nvidia nicht nötig hat. :rolleyes:

Beides natürlich Schwachsinn.
Da muss es andere Gründe dafür geben.

Glauben kann ich es auch noch nicht, vielleicht bedeutet es bloß, dass die Karten 1-2 Monate später als geplant kommen.

Es wäre völlig unverständlich, wenn Nvidia keine Karten mit doppelter Speichergröße anbieten würde.
Dann würde man ja jeden, der viel Speicher will zwingen AMD zu kaufen.
Warum sollte Nvidia das tun?

Werden sie nicht, da lege ich mich 100% fest.
Verschiebung - ja, das ist möglich.
Canceln? Unmöglich.

Adam D.
2020-10-21, 20:01:06
Wer will jetzt noch 8/10GiB Speicherkrüppel kaufen?

Wenn das wahr ist, kann man Ampere ja fast schon komplett überspringen.
Was zur Hölle kann der Grund für die Entscheidung sein? Ganz unabhängig von der Performance, das Lineup von AMD zeigt ja, dass 8/10GB nicht mehr zeitgemäß sind. Aber das Problem lässt sich ja sehr einfach lösen :confused:

Linmoum
2020-10-21, 20:04:01
Oder BigNavi wird so mies, dass es Nvidia nicht nötig hat. :rolleyes:Was Quatsch ist, da AMD (mindestens) ein SKU auf grobem 3080-Niveau haben wird, also klar schneller als eine 3070.

16GiB 3070 und 3080 20GiB wären natürlich noch einmal ein Stück teurer geworden. Einzige Erklärung ist, dass NV merkt, dass sie für einen Aufpreis von X kaum Dinger von den Karten loswerden würden weil... nunja. Bald halt.

Die Dinger hätte man ihnen sicher aus den Händen gerissen, weil es trotzdem genug Leute gibt, die viel/mehr Speicher wollen. Aber Preise verlangen wie man lustig ist geht natürlich nur ohne Konkurrenz.

Unicous
2020-10-21, 20:05:01
Könnte auch den einfachen Grund haben, dass Micron nicht in der Lage ist die Kapazität der Chips rechtzeitig zu verdoppeln und Nvidia später im Jahr 2021 einen Refresh daraus macht.

dargo
2020-10-21, 20:05:03
Es wäre völlig unverständlich, wenn Nvidia keine Karten mit doppelter Speichergröße anbieten würde.
Dann würde man ja jeden, der viel Speicher will zwingen AMD zu kaufen.
Warum sollte Nvidia das tun?

Weil Samsung bei den großen SKUs kompletter Griff ins Klo war? Keine Ahnung... nur ein Gedanke. Wir werden es sicherlich bald erfahren. Irgendwas stimmt da bei Nvidia aber gewaltig nicht wenn man sich die lächerlichen Stückzahlen bei GA102 anschaut. Das ist aktuell Fakt.

BigBangBacket
2020-10-21, 20:06:43
Vielleicht will NV auch einfache warten bis es kleinere gddrx Stacks gibt.
Dann kommen halt 3080 16gb und 3070 12 GB nächstes Jahr als Super oder Ti Varianten. Oder geht das nicht wegen den Controllern?

WedgeAntilles
2020-10-21, 20:10:54
Was Quatsch ist, da AMD (mindestens) ein SKU auf grobem 3080-Niveau haben wird, also klar schneller als eine 3070.



Ich habe ja auch geschrieben
"Beides natürlich Schwachsinn."

Der "zu hohe Preis" ist genauso lächerlich.
850 Euro für ne 3080 mit 20GB Ram - als ob die sich nicht verkaufen würde.

Und wenn es sein muss, könnten sie den Preis ja sogar auf 800 senken.

Als ob AMD seine Karten für 450 oder 500 Euro verramscht - AMD wird auch 650 Euro aufwärts verlangen. Die wollen ja auch was an BigNavi verdienen.

Und dann wäre Nvidia halt 20% teurer.
Dafür aber mit noch mal +4GB Ram, DLSS und - vermutlich - besserem RT.
Und dem Nvidia-Namen, der sowieso vielen Käufern einen Aufpreis wert ist.

Als ob das keiner kaufen würde.


Ne, AMD kann nicht der Grund sein. Weder weil AMD zu gut noch weil AMD zu schlecht ist.


Ich bleibe dabei - es ist ne Ente und bedeutet Verschiebung, nicht völlige Stornierung.

Unicous
2020-10-21, 20:13:40
Wedge hat anscheinend keine Ahnung was Micron so für ihre Chips verlangt.:freak:


(edit: Der wahre Wedge Antilles hätte sich im Übrigen darüber informiert und würde ohne vernünftigen Schlachtplan nie in den Krieg ziehen. :uponder:)

Rampage 2
2020-10-21, 20:19:22
20 GB Modelle wurden nun laut Videocardz gecanceld

https://videocardz.com/newz/nvidia-allegedly-cancels-geforce-rtx-3080-20gb-and-rtx-3070-16gb

Betrifft die 3080 20GB und 3070 16GB
Wird wohl zu teuer werden im Vergleich zu AMD 16GB Karten...
Also lässt man es gleich bleiben :-))))

WTF? :freak::freak:

Da habe ich mich darüber aufgeregt, dass der volle GA104 gecancelt oder verschoben wurde und jetzt könnte ich mir nichtmal das Abfallprodukt mit vernünftigem Speicherausbau kaufenX-D

Sollte diese News kein Irrtum sein, dann: :upicard:

R2

Cyberfries
2020-10-21, 20:20:41
Was ein wenig unter ging: _rogame:
Looks like there might be a 6GB RTX 3060 based on GA104.
Die GA104-3060 kommt! - mit 6GB.
https://twitter.com/_rogame/status/1318936458250649610

Ne, AMD kann nicht der Grund sein.

Jo, bin da bei dir.
Wenns schlecht läuft haut man raus was geht um zumindest etwas zu verkaufen - siehe Radeon VII.

Wirft kein gutes Licht auf Samsung, wenn die Verfügbarkeit so lange so schlecht bleibt.
Eine Verschiebung zu weit lohnt aber nicht, wenn GA103 noch kommt.
Wahrscheinlich zugunsten von GA103 gestrichen.

dargo
2020-10-21, 20:22:50
Nvidia kommt echt mit 6GB bei der 3060? :facepalm:

mironicus
2020-10-21, 20:23:13
Damit tut NVidia seinem Konkurrenten aber einen riesigen Gefallen...

Wer mehr Speicher will... 3090 kaufen. :D :D

Linmoum
2020-10-21, 20:25:48
Es gab ja auf jeden Fall schon Roadmaps iirc von z.B. Galax und Gigabyte, auf denen entsprechende Karten eingezeichnet waren. Weil ich jetzt schon mehrfach gelesen habe, dass die Teile ja noch gar nicht offiziell sind und somit auch nie existiert haben.

Aber beschissene Yields bei Samsung können natürlich auch der Grund sein dafür. Wer die normalen schon nicht liefern kann, der braucht nicht noch mehr Fragmentierung mit weiteren SKUs. Die Entscheidung für Samsung scheint womöglich echt übel gewesen zu sein.

bbott
2020-10-21, 20:25:59
20 GB Modelle wurden nun laut Videocardz gecanceld

https://videocardz.com/newz/nvidia-allegedly-cancels-geforce-rtx-3080-20gb-and-rtx-3070-16gb


Betrifft die 3080 20GB und 3070 16GB
Wird wohl zu teuer werden im Vergleich zu AMD 16GB Karten...
Also lässt man es gleich bleiben :-))))

Ohje, dann hätte sich NV mit GDDR6X genauso vergaloppiert wie AMD mit HBM :freak:

Linmoum
2020-10-21, 20:28:18
Da das auch die 3070 trifft/treffen würde, hat sich NV nicht mit GDDR6X vergaloppiert, sondern mit Samsung.

bbott
2020-10-21, 20:31:12
Nvidia kommt echt mit 6GB bei der 3060? :facepalm:

Mit was sollten sie sonst kommen mit 12 GB :freak:

dargo
2020-10-21, 20:31:26
Da das auch die 3070 trifft/trefen würde, hat sich NV nicht mit GDDR6X vergaloppiert, sondern mit Samsung.
Ich bin mir in diesem Punkt noch nicht ganz sicher. Stelle dir vor Nvidia cancelt die 20GB 3080, lässt aber die 16GB 3070 zu. Womöglich schadet das dem eigen Portfolio mehr. Ich denke wir werden es erst nach dem 29. Oktober an den Stückzahlen von 3070 8GB sehen ob es wirklich an Samsung liegt.

WedgeAntilles
2020-10-21, 20:31:35
Wedge hat anscheinend keine Ahnung was Micron so für ihre Chips verlangt.:freak:


(edit: Der wahre Wedge Antilles hätte sich im Übrigen darüber informiert und würde ohne vernünftigen Schlachtplan nie in den Krieg ziehen. :uponder:)
Leo hat vor ein paar Wochen geschrieben, dass 10GB Ram ca. 100 Euro kosten.
Und es gab vor kurzem ein Prognose, dass die neuen Karten mit mehr Ram 150-200 Euro Aufpreis kosten werden.
Wenn es preislich so eng wird, weil AMD so gut ist, müsste halt die untere Spanne genommen werden.
700 Euro (Founders Edition) -> 850 Euro für die 20GB Version.

Oder willst du jetzt behaupten, dass alles, was in der Vergangenheit da geschrieben und geleakt wurde völliger Käse wäre?
Was soll der Aufpreis der 3080 mit 20GB denn sein? 400 Euro oder was? Sorry, das ist doch lächerlich und passt zu keinem einzigen Gerücht / Leak.
Nicht mal im entferntesten.

Passt übrigens auch nicht zur 3080 für 700 Euro.
Sollen da schon 300 Euro alleine für den Ram sein? Ich bitte dich...

Korvaun
2020-10-21, 20:31:53
20/16GB Versionen gecancelt... nV hat es wohl aktuell einfach nicht nötig da alles was von der RTX30xx auf den Markt kommt eh sofort weggekauft wird. Je nachdem was knapper ist (GPU oder Speicher) wird das wohl auch noch längere Zeit so bleiben. Wahrscheinlich dann nächsten Sommer/Herbst als "Super"-Refresh. Hoffentlich verbockt es AMD nicht und holt sich nen großes Stück vom HighEnd-Kuchen zurück :)

Deutet aber eher auf Speicherknappheit hin, denn die 20GB Versionen wären sicher auch sehr gut weggegangen, auch wenn das Ding dann 900.-€ gekostet hätte... und die 3070 16GB kann man natürlich nicht bringen solange man keine 3080 mit 20GB hat, das wäre sehr peinlich.

dargo
2020-10-21, 20:33:30
Mit was sollten sie sonst kommen mit 12 GB :freak:
Mit 8GB an einem 256Bit SI. Unter 8GB macht doch so eine Performancekarte heute keinen Sinn mehr. Selbst das ist gegenüber der Konkurrenz schon eher schwach da N22 voraussichtlich mit 12GB kommt.

[MK2]Mythos
2020-10-21, 20:33:53
20/16GB Versionen gecancelt... nV hat es wohl aktuell einfach nicht nötig da alles was von der RTX30xx auf den Markt kommt eh sofort weggekauft wird. Je nachdem was knapper ist (GPU oder Speicher) wird das wohl auch noch längere Zeit so bleiben. Wahrscheinlich dann nächsten Sommer/Herbst als "Super"-Refresh. Hoffentlich verbockt es AMD nicht und holt sich nen großes Stück vom HighEnd-Kuchen zurück :)
Das hat wohl weniger mit "nicht nötig" zutun als mehr mit nicht lieferbar, nicht konkurrenzfähig zum entsprechenden Preis.

WedgeAntilles
2020-10-21, 20:38:55
Was ist eigentlich von

"Source: Jensen’s Laptop" zu halten?

Am 1. April hätte ich das als Beweis für nen Aprilscherz gehalten.

Ich bleibe dabei, dieser "Rumor" ist falsch und bedeutet höchstens eine zeitliche Verschiebung der Karten mit doppeltem Ram.
Oder es wird doch z.B. ne 3070TI mit 16GB Ram geben, statt der "normalen" 3070 mit 16GB.

Sowas in der Art ist auch möglich.

Ein vollständiges canceln der 16 bzw. 20GB Versionen wäre aber in der Tat ein völliger Offenbarungseid. Kann ich aufgrund einer einzigen Meldung, die es noch dazu als "Rumor" bezeichnet, einfach nicht glauben.

Fragman
2020-10-21, 20:39:00
Hoffentlich verbockt es AMD nicht und holt sich nen großes Stück vom HighEnd-Kuchen zurück :)


Nv braucht jetzt nur noch die 3090 zu liefern, die User kaufen die weg und nv behält die Leistungskrone. ;D

bbott
2020-10-21, 20:56:10
Mit 8GB an einem 256Bit SI. Unter 8GB macht doch so eine Performancekarte heute keinen Sinn mehr. Selbst das ist gegenüber der Konkurrenz schon eher schwach da N22 voraussichtlich mit 12GB kommt.

Ein 256Bit SI ist aber zu groß, 3070 lässt grüßen. NV will bzw. braucht Marge und kann es sich leisten, da die Kunden trotzdem NV kaufen.

dargo
2020-10-21, 20:58:19
Selbst die 3090 kann NV nicht mal liefern. Und die Leistungskrone könnte bereits wackeln wenn ich an die vorerst exklusive R6900XT @Navi21 XTX von AMD denke.

Ein 256Bit SI ist aber zu groß, 3070 lässt grüßen. NV will bzw. braucht Marge und kann es sich leisten, da die Kunden trotzdem NV kaufen.
Das wollen wir erstmal abwarten welcher Depp in 2021 6GB kauft wenn die Konkurrenz zu vergleichbaren Preisen die doppelte Menge bietet.

Neosix
2020-10-21, 21:06:57
Ich glaube immer noch an einen schlechten Scherz o_O das kann doch nur n Scherz sein oder?

Cyberfries
2020-10-21, 21:20:29
Ein 256Bit SI ist aber zu groß, 3070 lässt grüßen.

Die 2060 Super war auch bereits bei 8GB an 256bit. Der GA104-Chip gibts her.
Auf GA106 hätten nur 6GB für die 3060 noch Sinn ergeben, wobei dann der Vergleich zum Vorgänger unangenehm ist.
Aber der Wechsel auf GA104 und dann trotzdem 8GB? Nee.

Ich glaube immer noch an einen schlechten Scherz o_O das kann doch nur n Scherz sein oder?

Oder eine gezielte Ente um den Verkauf anzukurbeln.
Oder doch wahr.
Wir werdens sehen.

bbott
2020-10-21, 21:26:23
Das wollen wir erstmal abwarten welcher Depp in 2021 6GB kauft wenn die Konkurrenz zu vergleichbaren Preisen die doppelte Menge bietet.

Weder die 1060 noch die 2060 6GB haben sich wirklich schlecht verkauft. Für die Steamuser und -statistik dürfte es reichen :wink:

dargo
2020-10-21, 21:28:13
Und diese beiden Grafikkarten kamen in 2021? Bist du in einem Trollmodus oder was ist mir dir los?

mironicus
2020-10-21, 21:29:33
Aber irgendwie ist das doch ohnehin eine schlechte Strategie gewesen, oder? Erst eine Karte mit 10 GB und 8 GB bringen und dann schon wenige Wochen später die gleichen Karten mit doppelter Speichermenge. Dann wird die 3090 wiederum überflüssig gemacht und Käufer der Karten mit kleiner Speichermenge würden sich verarscht vorkommen.

Linmoum
2020-10-21, 21:34:16
Komachi schreibt, dass das nicht an GDDR6X liegt, sondern an Samsungs 8nm. Und er davon (dass die nicht kommen werden) auch schon gehört hatte.

Sunrise
2020-10-21, 21:37:53
Aber irgendwie ist das doch ohnehin eine schlechte Strategie gewesen, oder? Erst eine Karte mit 10 GB und 8 GB bringen und dann schon wenige Wochen später die gleichen Karten mit doppelter Speichermenge. Dann wird die 3090 wiederum überflüssig gemacht und Käufer der Karten mit kleiner Speichermenge würden sich verarscht vorkommen.
Was da der Hintergrund war, erschließt sich mir auch nicht. Vor allem wenn NV wusste, dass sowieso kaum Angebot da ist, dann muss man den Preis hochsetzen (und mehr Speicher verbauen).

Man brauchte aber wohl eine Abgrenzung zum Top-Model. Dennoch stimmt da was nicht. Vor allem wenn jetzt sogar weitere SKUs nichtmehr (vorerst) kommen sollen.

dargo
2020-10-21, 21:39:56
Komachi schreibt, dass das nicht an GDDR6X liegt, sondern an Samsungs 8nm. Und er davon (dass die nicht kommen werden) auch schon gehört hatte.
Autsch... wie will Nvidia Quadro RTX A6000 und A40 da noch sicherstellen? Oder ist die Yieldrate für solche Karten im hohen Preissegment noch gut genug?

Adam D.
2020-10-21, 21:40:14
Aber irgendwie ist das doch ohnehin eine schlechte Strategie gewesen, oder? Erst eine Karte mit 10 GB und 8 GB bringen und dann schon wenige Wochen später die gleichen Karten mit doppelter Speichermenge. Dann wird die 3090 wiederum überflüssig gemacht und Käufer der Karten mit kleiner Speichermenge würden sich verarscht vorkommen.
Ich wünsche NV wirklich, dass sie damit auf die Fresse fliegen. Ich finde Ampere eine hochinteressante Architektur, aber diese kranke Margen-Geilheit von NV gehört einfach nur bestraft. 10GB für eine 700€ (+++++)-Karte Ende 2020 ist eine Frechheit. Ohne Konkurrenz kann man die Leute schön schröpfen, aber halt auch nur dann. Ganz unabhängig von der Performance von N21 - AMD geht hier eindeutig den viel besseren Weg.

Hakim
2020-10-21, 21:53:02
Komische, wäre es an GDDR6x, würde es die 3070 doch gar nicht betreffen und erst heute meinte Igor das die 3070 ordentlich verfügbar sein wird, und die Quelle mit "Jensen’s Laptop" gibt mir auch etwas zu denken. Abwarten.

Lawmachine79
2020-10-21, 22:01:49
Ganz unabhängig von der Performance von N21 - AMD geht hier eindeutig den viel besseren Weg.
Ja, AMD baut langsamere Grafikkarten als NVidia mit einem schlechteren Featureset als NVidia.

Komische, wäre es an GDDR6x, würde es die 3070 doch gar nicht betreffen und erst heute meinte Igor das die 3070 ordentlich verfügbar sein wird, und die Quelle mit "Jensen’s Laptop" gibt mir auch etwas zu denken. Abwarten.
Ja, aber es würde ja keinen Sinn machen, eine 3080 nur mit 10GB und eine 3070 mit 16 und 8 anzubieten.

Was bei der Speicherthematik gerne vergessen wird: das Knappheitsrisiko beim Speicher besteht hauptsächlich bei Raytracingtiteln. Da wird BN aber aller Voraussicht und Gerüchten nach ein generelles Performanceproblem haben. Insoweit wüsste ich nicht, inwieweit AMD von einer hypothetischen Speicherknappheit bei NV profitieren könnte.

ianm
2020-10-21, 22:10:16
Ja, AMD baut langsamere Grafikkarten als NVidia mit einem schlechteren Featureset als NVidia.

Wieder so ein dummer Kommentar. Eine Woche noch.

WedgeAntilles
2020-10-21, 22:16:07
Aber irgendwie ist das doch ohnehin eine schlechte Strategie gewesen, oder? Erst eine Karte mit 10 GB und 8 GB bringen und dann schon wenige Wochen später die gleichen Karten mit doppelter Speichermenge. Dann wird die 3090 wiederum überflüssig gemacht und Käufer der Karten mit kleiner Speichermenge würden sich verarscht vorkommen.

Wieso? Passt eigentlich.
Eine preisgünstige 3080 mit 10GB für 700.
Und eine 3080 mit 20GB für 900.

Die 3090 halt als absolutes Topmodell.
(Für mich persönlich die 3080 mit 10GB die attraktivste Variante)

Wenn sie die 3080 bei 270Watt und dafür 6% weniger Leistung gebracht hätten, wäre sogar der Abstand zur 3090 ein bisschen größer gewesen.

So hätte es für jeden was gegeben und man hätte ein super Portfolio gehabt - falls es die Karten denn in ordentlicher Stückzahl geben würde.

Fragman
2020-10-21, 22:34:56
Sinn macht das alles nicht.
Erst Karten bringen, die man nicht liefern kann. Dann andere ankündigen, die dann doch nicht kommen sollen. An dem Prozess kann das nicht liegen, das hätte man viel eher gewusst, erwartbar noch vor der Ankündigung der Grakas.
Zulieferprobleme kann man eigentlich auch ausschließen, Speicher zb, das hätte man auch eher gewusst. Sich in diese Situation zu bringen wird viel Ansehen kosten, nv hätte das nicht wissentlich getan da sie dabei nur verlieren.

Mal die nächsten Tage abwarten und vielleicht auch nächste Woche. Dann werden wir sehen ob diese Gerüchte stimmen.

BlacKi
2020-10-21, 22:43:19
igor meintei mheutigen video, in einem monat hat jeder seine wunschkarte, nur eben ein monat zu spät/später.

Troyan
2020-10-21, 22:44:37
Echt? Ich denke, viele können bis 19.11 sozusagen warten. Ist ja nicht so, dass in den letzten Monaten irgendwas bedeutenes auf dem PC herauskam, dass man unbedingt spielen müsste.

TheAntitheist
2020-10-21, 23:00:33
Ich wünsche NV wirklich, dass sie damit auf die Fresse fliegen. Ich finde Ampere eine hochinteressante Architektur, aber diese kranke Margen-Geilheit von NV gehört einfach nur bestraft. 10GB für eine 700€ (+++++)-Karte Ende 2020 ist eine Frechheit. Ohne Konkurrenz kann man die Leute schön schröpfen, aber halt auch nur dann. Ganz unabhängig von der Performance von N21 - AMD geht hier eindeutig den viel besseren Weg.
wenn man sich mal AMD im CPU sektor anguckt frag ich mich welche Firma hier Margengeil ist, 700$ für eine CPU die in der Herstellung 1/10 einer Graka kostet... ich bitte dich ey, quatsch nicht soviel Durchfall.

Troyan
2020-10-21, 23:49:08
Du wirst nie eine Antwort erhalten. Verarsche und kundenfeindliches Verhalten von AMD wird hier nie kritisiert werden.

Aber zurück zu Ampere: 3070 wurde in Ashes gebencht: https://videocardz.com/newz/nvidia-geforce-rtx-3070-ashes-of-the-singularity-performance-leaks

Entspricht dem Ergebnis von nVidia.

bbott
2020-10-22, 00:20:57
Und diese beiden Grafikkarten kamen in 2021? Bist du in einem Trollmodus oder was ist mir dir los?

Also NV hat ein Glasklares Produkt Portfolio:
- 3050 -> 4GB
- 3060 -> 6GB
- 3070 -> 8GB
- 3080 -> 10GB

Die 6GB der 3060 sind (etwa) im Verhältnis zu Performance genauso Sinnvoll oder Sinnlos wie die 8GB der 3070 oder die 10GB der 3080.

Ich persönlich finde es in allen Klassen (viel) Zuwenig RAM und zu hohe TDP. Die 16 und 20GB Versionen hätte ich evtl. gekauft. Jetzt ist Navi2x für diese Gen meine letzte Hoffnung ansonsten, werde ich auf 40x0 oder Navi 3x warten.

bbott
2020-10-22, 00:31:36
wenn man sich mal AMD im CPU sektor anguckt frag ich mich welche Firma hier Margengeil ist, 700$ für eine CPU die in der Herstellung 1/10 einer Graka kostet... ich bitte dich ey, quatsch nicht soviel Durchfall.

Dafür sind die Entwicklungskosen, um ein viefaches höher da komplexer.

crux2005
2020-10-22, 00:45:18
Dafür sind die Entwicklungskosen, um ein viefaches höher da komplexer.

Nein, GPUs sind komplexer.

bbott
2020-10-22, 00:55:59
Nein, GPUs sind komplexer.

CPU ca. 8x gleiche Schaltungen vs. 5.000-10.000x gleiche Schaltungen bei GPU.
Soweit ich weiß ist die Entwicklung eines Kerns Komplexer als die einer CU.
Wann hat sich das geändert?

Die Marge von NV ist auch deutlich höher als die von AMD...

N0Thing
2020-10-22, 00:59:42
20 GB Modelle wurden nun laut Videocardz gecanceld

https://videocardz.com/newz/nvidia-allegedly-cancels-geforce-rtx-3080-20gb-and-rtx-3070-16gb


Betrifft die 3080 20GB und 3070 16GB

Es gab ja auf jeden Fall schon Roadmaps iirc von z.B. Galax und Gigabyte, auf denen entsprechende Karten eingezeichnet waren. Weil ich jetzt schon mehrfach gelesen habe, dass die Teile ja noch gar nicht offiziell sind und somit auch nie existiert haben.

Vor ein paar Wochen sind wir (fast) alle noch davon ausgegangen, dass Nvidia irgendwann im Frühjahr oder Sommer 2021 die 3080 mit 20GB bringen würde - evtl. als Ti - weil es bisher keine 2Gb-Chips gibt. Dann ist irgendwann das Gerücht mit der doppelten Bestückung aufgetaucht, was als Fakt aufgefasst wurde und entsprechende Karten noch im Jahr 2020 wurden als gegeben erachtet, egal wie (un-)wahrscheinlich dies angesichts der Liefersituation war.
Für mich rudern die Leaker einfach nur wieder auf den Status quo von früher zurück.

Linmoum
2020-10-22, 01:02:01
Wie gesagt, es betrifft auch die 3070 und bei der ist keine doppelseitige Bestückung nötig weil es entsprechenden GDDR6 gibt. Der Speicher als Ursache kann es daher also nicht sein.

Dampf
2020-10-22, 01:09:17
Es sollte klar sein: Dass Nvidia die Mega-Speicher Versionen der Ampere Karten einstellt , kann nur einen Grund haben:

Sie werden Sampler Feedback richtig pushen und in so viele Spiele wie möglich integrieren. Kein Grund also für die 20 GB Version ;)

Meine Freunde, Nvidia ist endlich auf den Trichter gekommen wie großartig und welch eine Bereicherung Sampler Feedback Streaming ist. Kurz gesagt haben sie Blut geleckt!

N0Thing
2020-10-22, 01:18:23
@Linmoum

Auch bei der der 3070 16GB war nicht in Stein gemeißtelt, dass die noch in diesem Jahr kommen würde, oder? Offizielles sowieso nicht, klar, aber auch bei den Leaks nicht, oder?

Am Ende wird man sehen, wer damals recht hatte. Aber für mich ist die Meldung zur Stornierung der doppelten Ausführen keine echte News, weil schon deren Termin für 2020 meiner Meinung nach hoch spekulativ war.

TheAntitheist
2020-10-22, 03:38:03
Dafür sind die Entwicklungskosen, um ein viefaches höher da komplexer.
daher gibt ja Nvidia auch mehr Geld für RnD aus als AMD für GPUs und CPUs zusammen, macht natürlich Sinn,NICHT.

TheAntitheist
2020-10-22, 03:39:59
CPU ca. 8x gleiche Schaltungen vs. 5.000-10.000x gleiche Schaltungen bei GPU.
Soweit ich weiß ist die Entwicklung eines Kerns Komplexer als die einer CU.
Wann hat sich das geändert?

Die Marge von NV ist auch deutlich höher als die von AMD...
Die Margen bei AMD CPUs sind VIEL höher als bei Nvidia GPUs... nur verkauft halt Nvidia deutlich mehr hardware daher ist der Deckungsbeitrag ja niedriger.

dargo
2020-10-22, 07:30:13
Die Margen bei AMD CPUs sind VIEL höher als bei Nvidia GPUs... nur verkauft halt Nvidia deutlich mehr hardware daher ist der Deckungsbeitrag ja niedriger.
Aha... und das weißt du woher? Hast du dir überhaupt schon mal Preise von Quadros oder sowas hier als Beispiel angeschaut?
https://www.mindfactory.de/product_info.php/40GB-PNY-A100-PCIe--HBM2--TCSA100M-PB-_1377014.html

prinz_valium_2
2020-10-22, 08:01:13
Sag ich doch.
Es wird der Super refresh ende nächsten Jahres oder ganz früh in 2022.

Dann gibt es doppelten Speicher und etwas mehr Leistung im ganzen Segment.

Dural
2020-10-22, 10:23:53
CPUs sind im Vergleich zu GPUs (Karten) seit jeher überteuert. Interessiert nur keinen weil es die meisten nicht sehen.

Auch die Leistungssteigerungen sind bei CPUs deutlich geringer als bei GPUs, auch hier interessiert das praktisch keiner.

Adam D.
2020-10-22, 10:28:51
CPUs sind im Vergleich zu GPUs (Karten) seit jeher überteuert. Interessiert nur keinen weil es die meisten nicht sehen.
Das stimmt tendenziell, wird aber hauptsächlich dadurch abgefedert, dass 200€-CPUs für ein völlig zufriedenstellendes Spieleerlebnis ausreichend sind. Auch in Lastszenarien in 1440p/4k. Das geht dann mit einer 200€-GPU nicht mehr. Wir werden es ja bei den Next-Gen-Spielen sehen, inwieweit Spieleentwickler in der Lage sind, den Fortschritten bei den CPUs in den letzten Jahren Rechnung tragen zu können. AMD und Intel können jetzt erstmal nicht primär etwas dafür, dass SC-Leistung immer noch King ist in vielen Spielen.

@TheAtheist:

Ich würde a) gerne mal Zahlen sehen (z.B. Marge 5950XT und RTX 3090) und b) macht die Diskussion keinen Sinn, wenn man sie im luftleeren Raum betrachtet. Das Preisgefüge hat jahrelang Intel vorgegeben. Das hat sich erst seit Zen zugunsten der Käufer entwickelt. Außerdem lässt sich das nicht so ohne Weiteres vergleichen, weil mein Vorwurf ja ist, dass NV absichtlich eine Art Bremse bei der 3080 eingebaut hat. Das haben wir bei den CPUs so nicht (aber wie gesagt, nicht vergleichbar).

Wenn der Framebuffer voll läuft, helfen dir die tollsten technologischen Fortschritte nicht. Bei der 3070 lässt sich noch über Kompromisse streiten, aber wer glaubt ernsthaft, dass ein GA102 mit 10GB VRAM ein ausbalanciertes Produkt ist?

Asaraki
2020-10-22, 10:32:33
Ist das hier der "Ich wünsch mir was" Thread oder warum so viel Fantasie?

Alles was du kaufst ist überteuert, deal with it.

Sunrise
2020-10-22, 10:36:47
Sagen wir es mal so, Intel und NV haben über Jahre dafür gesorgt, dass die Margen hoch sind. Billige CPUs gibts immer, wenn man nicht direkt zum Top-End greift.

Da ich aber zu P3 Coppermine-Zeiten schon 1500 DM? für ne CPU ausgegeben hatte, ist das ja nichts Neues. Da würde man heutzutage für verrückt erklärt werden.

Ampere zeigt ja, dass NV sich der Konkurrenz jetzt wieder stellen muss. Ebenso bei Intel.

Troyan
2020-10-22, 10:36:54
Das stimmt tendenziell, wird aber hauptsächlich dadurch abgefedert, dass 200€-CPUs für ein völlig zufriedenstellendes Spieleerlebnis ausreichend sind. Auch in Lastszenarien in 1440p/4k. Das geht dann mit einer 200€-GPU nicht mehr. Wir werden es ja bei den Next-Gen-Spielen sehen, inwieweit Spieleentwickler in der Lage sind, den Fortschritten bei den CPUs in den letzten Jahren Rechnung tragen zu können. AMD und Intel können jetzt erstmal nicht primär etwas dafür, dass SC-Leistung immer noch King ist in vielen Spielen.

@TheAtheist:

Ich würde a) gerne mal Zahlen sehen (z.B. Marge 5950XT und RTX 3090) und b) macht die Diskussion keinen Sinn, wenn man sie im luftleeren Raum betrachtet. Das Preisgefüge hat jahrelang Intel vorgegeben. Das hat sich erst seit Zen zugunsten der Käufer entwickelt. Außerdem lässt sich das nicht so ohne Weiteres vergleichen, weil mein Vorwurf ja ist, dass NV absichtlich eine Art Bremse bei der 3080 eingebaut hat. Das haben wir bei den CPUs so nicht (aber wie gesagt, nicht vergleichbar).

Wenn der Framebuffer voll läuft, helfen dir die tollsten technologischen Fortschritte nicht. Bei der 3070 lässt sich noch über Kompromisse streiten, aber wer glaubt ernsthaft, dass ein GA102 mit 10GB VRAM ein ausbalanciertes Produkt ist?

Wirst du auch so wehement gegen AMD wettern, wenn deren neuen Karten mit RT und ohne "DLSS" deutlich langsamer sind?

Dural
2020-10-22, 10:37:42
Die Margen könnt ihr bei den Geschäfts-Abschlüssen rauslesen, aktuell ist das so bei allen drei 50-60%

Das stimmt tendenziell, wird aber hauptsächlich dadurch abgefedert, dass 200€-CPUs für ein völlig zufriedenstellendes Spieleerlebnis ausreichend sind. Auch in Lastszenarien in 1440p/4k. Das geht dann mit einer 200€-GPU nicht mehr. Wir werden es ja bei den Next-Gen-Spielen sehen, inwieweit Spieleentwickler in der Lage sind, den Fortschritten bei den CPUs in den letzten Jahren Rechnung tragen zu können. AMD und Intel können jetzt erstmal nicht primär etwas dafür, dass SC-Leistung immer noch King ist in vielen Spielen.


Das ist sicher so.

Für einen fairen Preisvergleich CPU / GPU müsste man bei der CPU so wie so noch MB und RAM dazu zählen, macht aber keiner.

Adam D.
2020-10-22, 10:42:32
Wirst du auch so wehement gegen AMD wettern, wenn deren neuen Karten mit RT und ohne "DLSS" deutlich langsamer sind?
Wo wettere ich hier? Du magst meine Kritik vielleicht nicht teilen, aber wenn du sie nicht als legitim ansiehst, kann ich dir ehrlich gesagt auch nicht mehr helfen.

Und natürlich kriegt AMD die wahrscheinlich schwache RT-Leistung um die Ohren gehauen. Auch zurecht. Ich brauch es nicht, weil ich nicht in 1080p mit RT spielen will auf einem UWQHD-Monitor. Das heißt aber noch lange nicht, dass ich nicht in der Lage bin, Stärken und Schwächen zu erfassen. Meine Kritik der 3080 richtet sich allein auf den VRAM, nicht auf die Leistung, nicht auf die Preisgestaltung, nicht auf die Verlustleistung. Mich turnt einfach nur ab, dass so ein fettes Teil mit unterdimensioniertem Speicher in die Welt entlassen wird - für mich inakzeptabel.

stinki
2020-10-22, 11:02:59
Da ich aber zu P3 Coppermine-Zeiten schon 1500 DM? für ne CPU ausgegeben hatte, ist das ja nichts Neues. Da würde man heutzutage für verrückt erklärt werden.

Ich habe mal 800 DM für 16MB (ja, Mega-Byte) ausgegeben um einen WingCommander Teil vernünftig spielen zu können (okay, ist fast 30 Jahre her):biggrin:

Dural
2020-10-22, 11:24:04
Ampere zeigt ja, dass NV sich der Konkurrenz jetzt wieder stellen muss. Ebenso bei Intel.

Aha und wo siehst du das genau?

Ich sehe bei NV wie auch bei Intel nach wie vor sehr stabile Preise. Ganz im Gegenteil, AMD hat die Preise für GPUs und CPUs in letzter Zeit erhöht.

Nazar
2020-10-22, 12:10:49
Die Margen könnt ihr bei den Geschäfts-Abschlüssen rauslesen, aktuell ist das so bei allen drei 50-60%



Das ist sicher so.

Für einen fairen Preisvergleich CPU / GPU müsste man bei der CPU so wie so noch MB und RAM dazu zählen, macht aber keiner.

Das passt selbst dann nicht, wenn man bei jedem Neukauf einer CPU auch immer ein MB und Speicher kaufen müsste, was aber nicht der Fall ist. ;)
Wenn einem dann auch noch klar wird, dass die GPU ohne CPU, MB und RAM auch nicht funktioniert, sind MB und RAM !!fast!! egal.
Warum !!fast!!?
Weil die Rechnung richtig interessant wird, wenn man so ehrlich ist und angibt, dass man viel öfter eine GPU wechseln muss, um höhere Auflösungen und bessere BQ bedienen zu können, als ein CPU und zwar deutlich öfter.
Um wirklich fair zu sein müsste man RAM und MB sogar eher der GPU (neue Standards.. PCIE 1.0 2.0 3.0 4.0...) zurechnen.
Ein i7 2600k kann eine 2080ti oder 3080 fast genausogut bedienen wie ein Ryzn 3800X, es ändert sich kaum etwas durch den Tausch der Prozessoren.
Und wenn doch, dann müsste man sogar noch die CPU auf die GPU draufschlagen. ;)

Troyan
2020-10-22, 12:36:18
Videocardz hat 3DMarkt Werte und ein paar Aussagen zu Kühler der 3070FE:
https://videocardz.com/newz/nvidia-geforce-rtx-3070-3dmark-performance-leaked


Wo wettere ich hier? Du magst meine Kritik vielleicht nicht teilen, aber wenn du sie nicht als legitim ansiehst, kann ich dir ehrlich gesagt auch nicht mehr helfen.

Ich teile deine Meinung. 8/10GB sind zu wenig. Aber es ist eben ein Unterschied dies argumentativ zu schreiben oder tausendmal hier immer zu wiederholen.


Und natürlich kriegt AMD die wahrscheinlich schwache RT-Leistung um die Ohren gehauen. Auch zurecht. Ich brauch es nicht, weil ich nicht in 1080p mit RT spielen will auf einem UWQHD-Monitor. Das heißt aber noch lange nicht, dass ich nicht in der Lage bin, Stärken und Schwächen zu erfassen. Meine Kritik der 3080 richtet sich allein auf den VRAM, nicht auf die Leistung, nicht auf die Preisgestaltung, nicht auf die Verlustleistung. Mich turnt einfach nur ab, dass so ein fettes Teil mit unterdimensioniertem Speicher in die Welt entlassen wird - für mich inakzeptabel.

Deswegen meine Frage. Ich hoffe, dass du konsequent hier dann dauernd die Nachteile der AMD Hardware kritisieren wirst. Anderenfalls sieht es sehr komisch aus sich auf 16GB zu versteifen und andere Nachteile zu ignorieren.

NC
2020-10-22, 12:42:22
Gibt es Customs 3090 die 2 Slots statt 3 einnehmen? Wenn die 3080 20GB ausfällt, wäre das eine gute Option um ein paar davon in den Tower zu bekommen.

Adam D.
2020-10-22, 12:45:14
Videocardz hat 3DMarkt Werte und ein paar Aussagen zu Kühler der 3070FE:
https://videocardz.com/newz/nvidia-geforce-rtx-3070-3dmark-performance-leaked
Eh, sind die Angaben aus dem Reviewer's Guide der 3070? Naja, der erste Satz lässt ja keine andere Deutung zu. Ich dachte, das wäre ein normales Dual-Slot-Design ohne 12Pin. Jetzt doch alles anders?!

Real-World-Performance = 2080Ti. Das wäre meine perfekte Karte, insbesondere, weil die FE verdammt sexy ist :redface: Aber nein, natürlich muss das Ding als VRAM-Krüppel kommen.

Deswegen meine Frage. Ich hoffe, dass du konsequent hier dann dauernd die Nachteile der AMD Hardware kritisieren wirst. Anderenfalls sieht es sehr komisch aus sich auf 16GB zu versteifen und andere Nachteile zu ignorieren.
Dann darfst du gerne mit der Lupe auf meine Kommentare in einer Woche schauen. Ich hab Hardware von allen Herstellern verbaut, ich kaufe immer ausschließlich nach objektiven Kriterien. Und beurteile auch so, zumindest glaube ich das.

Armaq
2020-10-22, 12:56:03
Videocardz hat 3DMarkt Werte und ein paar Aussagen zu Kühler der 3070FE:
https://videocardz.com/newz/nvidia-geforce-rtx-3070-3dmark-performance-leaked




Ich teile deine Meinung. 8/10GB sind zu wenig. Aber es ist eben ein Unterschied dies argumentativ zu schreiben oder tausendmal hier immer zu wiederholen.



Deswegen meine Frage. Ich hoffe, dass du konsequent hier dann dauernd die Nachteile der AMD Hardware kritisieren wirst. Anderenfalls sieht es sehr komisch aus sich auf 16GB zu versteifen und andere Nachteile zu ignorieren.
Sieht aber wirklich nach 2080Ti FE Performance aus mit Ausblick auf Besserung. Das könnte zusammen mit der 3060 die absolute Volkskarte zusammen mit DLSS werden. Es wäre schon geil in 3 Jahren ne Baseline zu haben die nah an sowas liegt (also einen Marktanteil von 25% mit weiterer Steigerung aus Performance-Sicht). Dadurch würde der PC als Plattform ziemlich hoch hinaus eilen.

Wie ist da eigentlich die Situation, DLSS und DirectStorage kommen auch für die kleineren Karten?

Screemer
2020-10-22, 13:03:11
eine "volkskarte" für >500€. ja ne.

Radeonfreak
2020-10-22, 13:04:44
Videocardz hat 3DMarkt Werte und ein paar Aussagen zu Kühler der 3070FE:
https://videocardz.com/newz/nvidia-geforce-rtx-3070-3dmark-performance-leaked

Na da kann sich ja der geneigte 2080 TI User ganz entspannt zurücklehnen.

Armaq
2020-10-22, 13:11:04
Na da kann sich ja der geneigte 2080 TI User ganz entspannt zurücklehnen.
Nunja, die 3080 ist keine echte Alternative zur 2080Ti, wie hätte es die 3070 werden sollen?

@Screemer, die 3060 hatte ich schon mit erwähnt und die bringt natürlich echte Durchdringung @ scale im Verhältnis zu 3070 und 3080.

Aber ich hab schon das Gefühl, dass Cyberpunk als Vorzeigetitel in den Foren mächtig Einkaufsdruck erzeugt, imho etwas was in den 0er Jahren deutlich häufiger vorkam als in den letzten 10 Jahren.

Screemer
2020-10-22, 13:11:58
Aber ich hab schon das Gefühl, dass Cyberpunk als Vorzeigetitel in den Foren mächtig Einkaufsdruck erzeugt, imho etwas was in den 0er Jahren deutlich häufiger vorkam als in den letzten 10 Jahren.
ist auf jeden fall zu hoffen. nur so wird die pcmr wieder erstarken.

Birdman
2020-10-22, 13:23:04
eine "volkskarte" für >500€. ja ne.
This!

Die letzte 70er "Volkskarte" von nVidia war die 970GTX
Diese hatten sich in meinen Freundes- und Bekanntenkreis auch noch einige gekauft, bei der 10xx und 20xx Serie gabs dann aber noch max. ein paar welche bei der 60er zugeschlagen haben.

prinz_valium_2
2020-10-22, 13:27:59
This!

Die letzte 70er "Volkskarte" von nVidia war die 970GTX
Diese hatten sich in meinen Freundes- und Bekanntenkreis auch noch einige gekauft, bei der 10xx und 20xx Serie gabs dann aber noch max. ein paar welche bei der 60er zugeschlagen haben.

Ture.
Hätte ich nicht einen super Deal für die 1070 bekommen, hätte ich dort auch nicht mehr zugeschlagen und ich bin definitiv die Zielgruppe solcher Karten.

Mal sehen, wie es bei RX6800 wird.
Für $399 wäre das der Hammer.


Bin aber nicht optimistisch.

mironicus
2020-10-22, 13:32:35
Aber ich hab schon das Gefühl, dass Cyberpunk als Vorzeigetitel in den Foren mächtig Einkaufsdruck erzeugt, imho etwas was in den 0er Jahren deutlich häufiger vorkam als in den letzten 10 Jahren.

Leider gibt es da noch die neuen Konsolen... die dir wohl zumindest 4K30 und Raytracing anbieten werden bei diesem Spiel und die gleiche Leistung als Grafikkarte für den PC wäre insgesamt teurer.

Armaq
2020-10-22, 13:36:55
Leider gibt es da noch die neuen Konsolen... die dir wohl zumindest 4K30 und Raytracing anbieten werden bei diesem Spiel und die gleiche Leistung als Grafikkarte für den PC wäre insgesamt teurer.
Aber die haben ja auch ordentlich PS. Ich seh das aufgrund der Architektur der Konsolen ja gar nicht als Problem sondern als Teil der Lösung. Auf PS4 und XOne seh ich allerdings nicht, dass das Spiel zufriedenstellend läuft oder aussieht.

Nvidia muss genau wie AMD auf dem PC einfach bisschen mehr Druck auf dem Kessel haben im Vergleich zu PS5 und XoX.

Asaraki
2020-10-22, 14:09:55
Nunja, die 3080 ist keine echte Alternative zur 2080Ti, wie hätte es die 3070 werden sollen?

@Screemer, die 3060 hatte ich schon mit erwähnt und die bringt natürlich echte Durchdringung @ scale im Verhältnis zu 3070 und 3080.

Aber ich hab schon das Gefühl, dass Cyberpunk als Vorzeigetitel in den Foren mächtig Einkaufsdruck erzeugt, imho etwas was in den 0er Jahren deutlich häufiger vorkam als in den letzten 10 Jahren.

Das stimmt auf jeden Fall. Meine Freundin ist nun keine Hardcore-Gamerin aber auch sie "muss" auf Cyberpunk ein System haben, welches das Game stemmen kann.

Und ich verstehe es. Von daher eine funny "Superconstellation" mit Zen3, Ampere, Navi 2x.... alle wollen Hardware, Leistung ist "günstig"...

Linmoum
2020-10-22, 14:19:23
I heard a new spec of GA102, between 3080 and 3070.
https://mobile.twitter.com/kopite7kimi/status/1319222558844014592

Dann dürfte GA103 in weiter Ferne sein. Wobei eine weitere SKU von GA102 wahrscheinlich ebenfalls bei der aktuellen Verfügbarkeit.

Adam D.
2020-10-22, 14:21:10
I heard a new spec of GA102, between 3080 and 3070.
https://mobile.twitter.com/kopite7kimi/status/1319222558844014592

Dann dürfte GA103 in weiter Ferne sein. Wobei eine weitere SKU von GA102 wahrscheinlich ebenfalls bei der aktuellen Verfügbarkeit.
Also so langsam glaube sogar ich, dass NV jetzt auf AMD reagiert. Bevor AMD überhaupt gelauncht hat?! :ulol: Wie sollte man die Spekulation sonst deuten? Das ist eindeutig ein potentieller N21XL-Konter.

stinki
2020-10-22, 14:28:10
Irgendetwas muss ja mit den ganzen GA102 Chips passieren die nicht für 3080/3090 benutzt werden können. Das es so wenig Karten gibt kann ja nicht an viel zu wenig produzierten Wavern liegen, oder? Also kann ja nur der Yield schlecht sein und dann hat man ganz viel Abfall, der nicht für 3080/3090 benutzt werden kann und den kann man dann ja vielleicht auf einer 3070Ti verballern. Vielleicht nur mit GDDR6 (ohne X). Das ist dann billige Resteverwertung.

Denniss
2020-10-22, 14:29:29
GA102 zwischen 3080 und 3070 ?
Kann mir da nur eine Taktreduzierung und/oder Abrüstung auf GDDR6 vorstellen. Je nachdem was davon Nvidia bei der 3080 mehr Probleme bereitet.

basix
2020-10-22, 14:30:15
Einer auf Twitter meint mit 9 GByte und somit exakt in der Mitte zwischen 3070 und 3080 :ulol:

Ich denke eher, dass der Chip 10 GByte normalen GDDR6 mit 14-16 Gbps tragen würde. Macht den Speicher günstiger und man kann auf eine etwa gleich teure aber langsamere 3070 16 GB verzichten und stösst die 3080er/10GB Nutzer nicht vor den Kopf. 62 SM, etwas weniger GPU-Clock, 10 GByte @ 14-16 Gbps, 250W, 599$. 3070S oder 3070 Ti als Branding.

mironicus
2020-10-22, 14:34:20
Vielleicht ein GA102 mit 16 GB Speicher und 256 Bit-Bus, 10 % langsamer als die 3080 und 50 Watt weniger Stromverbrauch. :)

WedgeAntilles
2020-10-22, 14:44:09
Vielleicht ein GA102 mit 16 GB Speicher und 256 Bit-Bus, 10 % langsamer als die 3080 und 50 Watt weniger Stromverbrauch. :)

Vielleicht sogar noch verfügbar :biggrin:
Wenn die das für 700 Euro anbieten würde mir das sehr zusagen.

Wenn sie es für 600 Euro anbieten und 250 Watt, darf es auch 15-20% unter der 3080 sein.

Dural
2020-10-22, 14:45:59
GDDR6 klingt logisch.

Ich habe ja immer wie mehr die Vermutung dass das SI in Verbindung mit dem GDDR6X Probleme macht.

Die Quadro wurde ja auch nur mit GDDR6 angekündigt, OK mit 48GB hatte NV auch gar keine andere Wahl.

BlacKi
2020-10-22, 15:06:13
eine 3070ti mit 12gb gddr6 für 600€ wäre perfekt:biggrin: glaub aber nicht dran:frown:

Dorn
2020-10-22, 15:26:42
eine 3070ti mit 12gb gddr6 für 600€ wäre perfekt:biggrin: glaub aber nicht dran:frown:
Shut up and take my Money aber selbst wenn es die geben würde. Müsste man bestimmt vorbestellen und dann ist man Monate später an der Reihe...:freak:

[MK2]Mythos
2020-10-22, 15:42:00
Also so langsam glaube sogar ich, dass NV jetzt auf AMD reagiert. Bevor AMD überhaupt gelauncht hat?! :ulol: Wie sollte man die Spekulation sonst deuten? Das ist eindeutig ein potentieller N21XL-Konter.
Das würde dazu passen, dass die 16 bzw 20GB Versionen von 3070 und 3080 gestrichen werden.
Es kommt einfach eine neue 3080 mit 256Bit/16GB GDDR6, 50Watt weniger und 10% niedriger Performance. Wäre ein deutlich runderes und besser lieferbarers Produkt.

Asaraki
2020-10-22, 16:06:27
Mythos;12469438']Das würde dazu passen, dass die 16 bzw 20GB Versionen von 3070 und 3080 gestrichen werden.
Es kommt einfach eine neue 3080 mit 256Bit/16GB GDDR6, 50Watt weniger und 10% niedriger Performance. Wäre ein deutlich runderes und besser lieferbarers Produkt.

This, my friends, is what competition looks like :D
Endlich =)

WedgeAntilles
2020-10-22, 16:28:06
This, my friends, is what competition looks like :D
Endlich =)
Hoffen wir es - diese Karte würde mir nämlich ausgesprochen gut gefallen.

Aber noch ist das ja nur von uns "gesponnen"

Nightspider
2020-10-22, 16:30:08
Komachi schreibt, dass das nicht an GDDR6X liegt, sondern an Samsungs 8nm. Und er davon (dass die nicht kommen werden) auch schon gehört hatte.

Was hat Samsungs 8nm Prozess mit dem Speicher zu tun?

Die GDDR6X Chips kommen doch nicht von Samsung.

Leonidas
2020-10-22, 16:43:11
Die 3060 kommt genau gleich zum Vorgänger bei VRam? Die Daten sehen ja nun schon nach ordentlich PS aus. Der Preispunkt ist mMn. höher. Die werden auf 349 gehen mit der 3060. Ist Ti/nonTi in dem Feld schon klar?


RTX3060Ti auf GA104-Basis ist klar.
RTX3060 auf GA106-Basis wurde teilweise erwähnt, ist aber auch obligatorisch - noch niedriger will man das GA106-Topmodell sicherlich nicht benennen.




Die GA104-3060 kommt! - mit 6GB.
https://twitter.com/_rogame/status/1318936458250649610



Kann ich mir derzeit keinen Reim drauf machen. Eigentlich ist dafür der GA106-Chip da.

Spekulatius: NV stampft alles bei Samsung ein, fertigt nur noch das, was sowieso bestellt war - und geht zu TSMC. Daher wird die 3060 mit dem GA104 realisiert, der neue GA106 kommt dann gleich von TSMC. Wäre aber eine drastische Sache, die alle NV-Pläne heftig verzögern würde.

Einfachere Auflösung: GA104 und GA106 verwechselt. Dass die 3060 nur 6 GB hat, war schließlich schon länger klar. Erst 3060Ti hat 8GB.





Was ist eigentlich von
"Source: Jensen’s Laptop" zu halten?


Steht an allen NV-bezogenen Rumor-Meldungen ohne Quellennennung dran = hat keine spezielle Bedeutung.





Für mich rudern die Leaker einfach nur wieder auf den Status quo von früher zurück.


Nein. Für beide Karten gab es handfeste Hinweise. Für die 3080/20G sogar eine Roadmap eines Gfx-Herstellers. Das waren keinerlei Hirngespinste.




Videocardz hat 3DMarkt Werte und ein paar Aussagen zu Kühler der 3070FE:
https://videocardz.com/newz/nvidia-geforce-rtx-3070-3dmark-performance-leaked


Vergleichswerte hier:
https://www.3dcenter.org/news/erste-3dmark13-werte-zur-geforce-rtx-3070-und-zu-navi-21-xt

mironicus
2020-10-22, 16:52:20
Kann jemand mal simulieren, wieviel Performanceverlust es mit sich bringen könnte wenn man die Speicherbandbreite der 3080 auf die Datenraten von 256 Bit und GDDR6 mit 16 GBit reduziert?

maximus_hertus
2020-10-22, 16:53:29
Oder aber nV hat schon die Info, dass es bei AMD (auch) nur (sehr) wenige lieferbare KArten geben wird. Ergo kann man 2020 noch abschröpfen und irgendwann 2021 das SUPER Upgrade mit 20 / 16 GB und diversen Anpassungen bringen (sei es mit noch mehr MHz rausquetschen oder was auch immer).

Dazu scheint ja Big Navi doch eher konkurrenzlos zu sein.

Die 3070 kann nicht mithalten und hat "nur" 8GB.

Die 3080 scheint spürbar (10, eher 15%) schneller zu sein und ist schon dadurch "in command".


Die Frage ist nur, ob die dritte Big Navi Karte (also die "kleinste") die 3070 packen kann oder darunter raus kommt.

Ich glaube, dass AMD not amused war über den Preis der 3080er. Wäre die 3080 nur 100 USD / Euro teurer, hätte man genug Luft für zwei Karten gehabt (also 699 und 499-549). So wird es schwierig, die kolportierten 549-599 und die XL dann max 499, wobei das wohl zu dicht an der XT dran wäre. Also eher 449, was wohl 50+ USD / Euro weniger ist, als man wohl hätte gehen können.

Eine 16 bzw. 20 GB Version würde da ja wieder AMD helfen, in dem die Preise bei nV hoch gehen und man selber für die KArten mehr nehmen könnte. So zwingt man AMD mit den "günstigeren" KArten zu konkurrieren und kann selber 2021 einen drauf legen. Bei AMD wird es dann schwierig, da man schlecht einfach die Preise erhöhen kann.

Nightspider
2020-10-22, 17:02:33
Was ich auch nicht ganz verstehe:

Wenn die Chips eh schon exclusiv für Nvidia gerfertigt werden. Wieso hat man nicht von Anfang an Chips mit der 1,5 fachen Kapazität angestrebt?

Damit wäre eine 3080 mit 15GB, eine 3070 mit 12GB und eine 3060 mit 9GB möglich gewesen.
Technisch geht das doch.

NC
2020-10-22, 17:13:28
Was ich auch nicht ganz verstehe:

Wenn die Chips eh schon exclusiv für Nvidia gerfertigt werden. Wieso hat man nicht von Anfang an Chips mit der 1,5 fachen Kapazität angestrebt?

Damit wäre eine 3080 mit 15GB, eine 3070 mit 12GB und eine 3060 mit 9GB möglich gewesen.
Technisch geht das doch.
"Technisch kannst dich auch durch den Po besaufen und sparst Geld, aber du musst nicht immer das technisch Machbare machen." Sagte mein Mitstudent immer.(das soll ein Scherz sein, nicht gegen dich!)

Ich glaube die Verwaltung im GPU-Speicherinterface wäre dann recht komplex, weil du dann sehr krumme Werte pro Speicher-Chip hättest. Machen die bei der XBoxSX ja auch anders, statt krummer Chip-Größe.

maximus_hertus
2020-10-22, 17:14:49
Was ich auch nicht ganz verstehe:

Wenn die Chips eh schon exclusiv für Nvidia gerfertigt werden. Wieso hat man nicht von Anfang an Chips mit der 1,5 fachen Kapazität angestrebt?

Damit wäre eine 3080 mit 15GB, eine 3070 mit 12GB und eine 3060 mit 9GB möglich gewesen.
Technisch geht das doch.

Höhere Kosten, lieber die Kosten gering halten und mehr Gewinn / Marge.

Erstmal muss AMD etwas liefern, was nVidia "weh" tun würde. Bis dahin kann nVidia, was auch "normal" ist, die eigene Gewinne / Margen verbessern.


Vielleicht wird es Anfang 2021 folgendes geben:

3090, 24G D6X, 1499
3080 Ti, 20G D6X, 999
3070 Ti oder Super, 16G D6, 599 (Anpassungen bei Takt etc., so dass man mit Navi21 XT mithalten kann)
3070, 8G D6, 449

Die 10G 3080 fällt dann aus dem Portfolio raus (als FE) und wird nur noch als AIB Karte verkauft (dementsprechend keine klassische UVP).

mironicus
2020-10-22, 17:19:30
NVidia hat es einfach verbockt von Anfang an zu knauserig mit dem Speicher gewesen zu sein. Das können sie sich einfach nicht mehr leisten wenn der Konkurrent wieder auf Augenhöhe liegt. Und wer eine Grafikkarte für etwa 3 Jahre kaufen will wird die mit dem größeren Speicher nehmen.

Daredevil
2020-10-22, 17:30:41
Wo genau saugt Ampere denn den ganzen Strom her, sag a mei?
https://abload.de/img/unbenannthdjbs.png
1,1Ghz@0.7v
288w Board Power, 52w GPU Chip?

Entweder saugt der Speicher mit dem Rest 230w, oder die Angaben sind nicht ganz akkurat.
Speicher ist allerdings stark übertaktet. +1300@Afterburner

Troyan
2020-10-22, 17:34:57
Hast du immer noch dein Strix Bios auf der TUF?

Daredevil
2020-10-22, 17:35:22
Ney, ist jetzt dass der TuF, läuft schneller als mit dem Strixx Bios, wie hier ja auch schon besprochen.

Troyan
2020-10-22, 17:39:03
Kann sein. Der Chip benötigt eben nur ~190W im Standard. Bei 0,7V und 1,1GHz und mehr Belastung auf dem Speichersystem, dann ist das drin.

Langlay
2020-10-22, 17:40:20
MVDDC zieht bei meiner 3090 alleine ~100W. Das ist wohl Speichercontroller + Speichermodule. UV bringt nur was bei GPU Chip Power.

Wenn man den VRAM etwas runtertaktet kann man bei MVDDC noch ein paar Watt sparen ab üppig ist das auch nicht.

Witzig ist halt das meine Karte 1600MHz @725 mV packt, (wenn ich weniger als 725mV Corespannung fahre taktet der VRAM bei mir nicht mehr korrekt hoch ka wieso) dabei aber immernoch 250W in Witcher 3 4K rausballert.

Daredevil
2020-10-22, 17:47:35
Mal so als Vergleich zu den Generationen vorher, ETH Mining @ Max Effizienz:
120 MH/s RTX3090@1095/10802 300w
63 MH/s RTX2080ti@1470/8300 170w
51 MH/s GTX1080ti@1595/4704 162w

Schön zu sehen, dass man den GPU Takt jetzt auch stark senken kann, wie bei AMD auch, um mehr Effizienz zu bekommen, ohne dass die Speicherleistung stark sinkt. Ab 1050Mhz geht es nämlich rapide bergab. ^^
Aber der Verbrauch des Speichers ist in der Tat brachial.

Funfact:
Im "normalen" OC dreht die Karte so bis ~1600rpm auf, wenn ich den Speicher übertakte und ETH schürfe, sind es ~2400rpm.
Schön an der Stelle, dass Nvidia auch die RAM Temp in die Lüftersteuerung mit aufgenommen hat.

Die Karte ist also definitiv was fürs Mining, wenn man geringe Stromkosten hat. (:

BlacKi
2020-10-22, 18:20:34
Kann jemand mal simulieren, wieviel Performanceverlust es mit sich bringen könnte wenn man die Speicherbandbreite der 3080 auf die Datenraten von 256 Bit und GDDR6 mit 16 GBit reduziert?


wenn man das so dramatisch reduziert hat das auch dramatischen einfluss auf die performance. man würde wohl knapp über der 3070 rauskommen, irgendwo zwischen 5-10% schneller wenn du mich fragst.

Hakim
2020-10-22, 18:26:59
eine GA102 mit 256Bit und 16GB würde ich auch für 599 Blind nehmen, aber ich zweifele immer noch an dem Gerücht bezüglich der Streichung. Ich hoffe Nvidia gibt am 27ten Informationen diesbezüglich mal raus. Sonst könnte es bei mir wohlmöglich doch BN werden. Ich weiß nicht ob ich nach CP 2077 noch länger auf evt Karten warten kann.

Linmoum
2020-10-22, 18:39:37
CB hatte laut Volker auch noch mal separat im Handel/bei Partnern nachgefragt und da dieselben Infos bekommen wie das von Videocardz. Scheinen also wirklich komplett gestrichen worden zu sein.

Orbmu2k
2020-10-22, 20:15:32
Mal so als Vergleich zu den Generationen vorher, ETH Mining @ Max Effizienz:
120 MH/s RTX3090@1095/10802 300w
63 MH/s RTX2080ti@1470/8300 170w
51 MH/s GTX1080ti@1595/4704 162w


Da geht noch mehr Effizenz...

94MH/s RTX3080 -280 GPU/ + 800 MEM 215W

Dural
2020-10-22, 20:19:01
Am SI ist einfach was, ga104 wird nächste woche vieleicht etwas klarheit schafen.

Erbsenkönig
2020-10-22, 21:18:35
Aber ich hab schon das Gefühl, dass Cyberpunk als Vorzeigetitel in den Foren mächtig Einkaufsdruck erzeugt, imho etwas was in den 0er Jahren deutlich häufiger vorkam als in den letzten 10 Jahren.

Was aber denke ich auch daran liegt, dass sich der Spielemarkt einfach verändert hat. Zu Beginn des Jahrhunderts gab es nicht die Möglichkeit wie heute, Spiele bequem übers Internet für nen 10er zu beziehen, wenn man sich nur geduldig genug zeigt.

Wer so wie ich die Spiele meistens mit 1-3 Jahren Verzögerung spielt, den interessiert es nicht die Bohne, was irgendwelche Titel jetzt an Hardware verlangen, außer ich kaufe sie doch aktuell und gebe dabei deutlich mehr aus als ich es sonst bei Spielen tue.

Langlay
2020-10-22, 21:24:58
Was aber denke ich auch daran liegt, dass sich der Spielemarkt einfach verändert hat. Zu Beginn des Jahrhunderts gab es nicht die Möglichkeit wie heute, Spiele bequem übers Internet für nen 10er zu beziehen, wenn man sich nur geduldig genug zeigt.


Dafür haste die Spiele dann fürn 5er oder 10er aufm Grabbeltisch im Mediamarkt geholt.

Erbsenkönig
2020-10-22, 21:38:01
Dafür haste die Spiele dann fürn 5 oder 10er aufm Grabbeltisch im Mediamarkt geholt.

Ich nicht - so oft durfte ich mir damals keine Spiele kaufen.:D

Langlay
2020-10-22, 21:41:47
Wobei ich sagen muss, ich hab auch für Cyperpunk2077 meine Graka aufgerüstet. 4k 60 FPS müssen halt drin sein bei mir. Aber ich spiele auch seit 25+ Jahren Shadowrun und es gibt halt nur ne handvoll Cyberpunkspiele und keins davon kommt wohl auch nur in die Nähe von CP77.

Daredevil
2020-10-22, 21:50:41
Da geht noch mehr Effizenz...

94MH/s RTX3080 -280 GPU/ + 800 MEM 215W
Ja klar geht da mehr bzw. weniger, aber das sind Werte, die weit weg von einer Radeon VII sind, deswegen ist das, zumindest aus Effizenz Sicht, eher so meh.
Daran ist halt der schluckende Speicher schuld, aber vom Speed her ist es echt brachial. (:
Wenn man hier noch Timings tunen kann, geht da bestimmt nochmal ne Ecke mehr. ( Wie beim GDDR5X )

Troyan
2020-10-22, 23:28:29
Schaut man sich die 3070 an, wäre GDDR6 garnicht verkehrt gewesen bei der 3080. Die 3070 ist in den 3DMark Werten ~35% effizienter als die 2080FE. Eine 11GB 3080 wäre bei 280W ~35% schneller.

Aber gut, dafür bekommt man mehr Bandbreite als mit GDDR6. Vielleicht wird sich das in Zukunft auch irgendwie auswirken.

Daredevil
2020-10-22, 23:45:21
Es reicht ja schon, wenn man 2GB Chips hat, hat man aber nicht und Nvidia ist sich zu schade für HBM... -_-

Edit:
Ah ich habs, das Rätsel. :D
Die 3080 20GB ist gestorben, weil man lieber die 2GB Chips nimmt für die 3090, um das PL zu pushen. ;D

N0Thing
2020-10-23, 01:38:32
Nein. Für beide Karten gab es handfeste Hinweise. Für die 3080/20G sogar eine Roadmap eines Gfx-Herstellers. Das waren keinerlei Hirngespinste.

Die Meldung seitens videocardz lautete explizit:

NVIDIA allegedly cancels its December launch of GeForce RTX 3080 20GB and RTX 3070 16GB.

und

Technically GeForce RTX 3080 20GB and RTX 3070 16GB could launch at a later time, but the information that we have clearly stated that those SKUs have been canceled, not postponed.

Damit ist die ursprüngliche Annahme, dass Nvidia Grafikkarten mit mehr Speicher und evtl. einem Speedbumb (Ti) im Falle der 3070 erst mit der Verfügbarkeit von 2-GByte-GDDR6x-Chips bringt, nicht widerlegt. Soweit ich die Berichterstattung verfolgt habe, war bei den Roadmaps der Hersteller auch nie ein Releasedatum mit angegeben.

Falls die Lieferschwierigkeiten bei der 3080 an der Speicherproduktion und nicht an der Chip-Produktion liegen sollte, könnte ich mir auch eine 3080Ti mit 12GB vorstellen. Das sollte bei entsprechender Performance genug sein, um den gefühlten Abstand zu AMDs Speicherausstattung zu mindern, ohne auf eine zweite Produktionsreihe mit den 2-GByte-Chips warten zu müssen. Dann wäre eine 20GB-Version der 3080 tatsächlich gecancelt worden. Aber ob die jemals für das Jahr 2020 geplant war, ist auch nur eine Spekulation. ;)

BigKid
2020-10-23, 06:58:28
Aber die Tendenz geht schon eher in Richtung Morgenröte über dem dunkelgrünen Wald. Ok, bis auf die Strahlen der aufgehenden Sonne, die dringen nicht noch so recht durchs dichte Unterholz....

Was den doppelten Speicher betrifft, man sollte gutes Geld keinem schlechtem hinterherwerfen. Sagte der Controller und ging bis Neujahr auf Tauchstation :)

Morgenröte: Denke auch dass AMD diesmal einem Schlagabtausch mit NV bis mindestens zur 3080 liefert und nüchtern betrachtet damit auch zur 3090 die sich nicht so richtig von der 3080 absetzen. Ich finde auch dass jeder der was anderes erwartet hat die Zeichen nicht gesehen hat (NV hat aus meiner deutlich gezeigt dass sie diesmal was von AMD erwarten indem sie den grösseren Chip für die 3080 genommen und ziemlich weit hochgeprügelt haben ). Selbst als jemand der eher NV Käufer ist freut mich das sehr... Konkurrenzdruck führt zu besseren Produkten und Preisen...

Strahlen der Sonne:Raytracing scheint entweder noch nicht so recht zu wollen oder zu performen. Ersteres sollte sich richten lassen - letzteres vermutlich nicht wobei die Frage ist wie wichtig es einem in der gen ist denn die Kosnolenpotts werden schon tun...

Schlechtes Geld: Der zweite Teil ist auch spannend: Anscheinend ist NV selbst unzufrieden mit GDDRX ...
Oder: Auch soch eine 16/20 NV Karte mit mehr zu kaufen erscheint aktuell eine schlechte Idee... ich tipp aber auf ersteres... In beiden Fällen könnte sich um den Jahreswechsel was ändern...

Dural
2020-10-23, 09:40:38
Ihr wisst schon das bei doppelten Speicher Chips die Last pro Chip deutlich sinkt? Neben den kosten gibt es kaum einen Grund wie so man das nicht machen sollte.

12GB GDDR6 @ 384Bit @ 14Gbps wären schon 672GB/s mit 16Gbps Chips sind es 768GB/s also exakt das was die 3080 aktuell mit 320Bit GDDR6X hat.

Man hätte mit GDDR6 ohne weiteres die 700GB/s erreichen können, NV hat sich aber offensichtlich bewusst dagegen entschieden. Reine Vermutung: Die Produktion der GDDR6X Chips alleine für die 3090 wäre wohl kaum rentabel gewesen.

Edgecrusher86
2020-10-23, 12:55:44
https://abload.de/img/anmerkung2020-10-2312zkkr6.jpg

https://videocardz.com/newz/nvidia-allegedly-preparing-ga102-150-gpu-with-7424-cuda-cores

58SM GA102 Kastrat mit 320-bit SI gegen N21 XT (RX 6800 XT)? Wohl die neue RTX 3070 Ti. Dann macht das Canceln des vollen GA104 mit 16GB Sinn.
Ich tippe auf $599 MSRP. 30% vom Chip deaktivert ist schon derbe (dann sind effektiv wohl nur ~440mm2 am Werkeln) - nun ja, dann kann man alles, was nicht als 3080 taugt, auch verscherbeln.
Das dürfte auch die Liefersituation der RTX 30-Karten in den kommenden Monaten etwas verbessern, wenn man sicherlich einen nicht beträchtlichen Teil des GA102-Kernschrotts sammelt und zu barer Münze macht. :D

Bei gleichen Taktraten zur RTX 3080 dürfte der Chip grob 12-15% dahinter landen. Eventuell kommt dort auch wieder GDDR6 non X zum Einsatz. Spinnen wir das Ganze mal etwas weiter - angenommen:

19 Gbps G6X @ 320-bit SI: 760 GB/s [Basis]
18 Gbps G6/G6X @ 320-bit SI: 720 GB/s [94,7%]
16 Gbps G6 @ 320-bit SI: 640 GB/s [84,2%]
14 Gbps G6 @ 320-bit SI: 560 GB/s [73,6%]

Bezüglich der zur erwartenden Rohleistung wäre wohl 16 Gbps GDDR6 sinnig. Zuden müsste man hier nicht exklusiv auf Micron GDDR6X zurück greifen.

dargo
2020-10-23, 12:57:59
https://abload.de/img/anmerkung2020-10-2312zkkr6.jpg

https://videocardz.com/newz/nvidia-allegedly-preparing-ga102-150-gpu-with-7424-cuda-cores

58SM GA102 Kastrat mit 320-bit SI gegen N21 XT?
Mach daraus eher N21XL. ;)

btw.
Ich frage mich nur was NV damit bezwecken will? Es bleibt ja weiterhin bei 10GB Vram. Oder bekommt der GA102-150 GDDR6? Mit 20GB wäre das Teil immerhin konkurrenzfähig.

WedgeAntilles
2020-10-23, 13:03:29
58SM GA102 Kastrat mit 320-bit SI gegen N21 XT (RX 6800 XT)? Wohl die neue RTX 3070 Ti. Dann macht das Canceln des vollen GA104 mit 16GB Sinn.
Ich tippe auf $599 MSRP. 30% vom Chip deaktivert ist schon derbe (dann sind effektiv wohl nur ~440mm2 am Werkeln) - nun ja, dann kann man alles, was nicht als 3080 taugt, auch verscherbeln.
Das dürfte auch die Liefersituation der RTX 30-Karten in den kommenden Monaten etwas verbessern. :D

Ich verstehe dich nicht - eine Karte zwischen der 3070 und der 3080 mit GDDR6 statt GDDR6X macht doch Sinn?

Natürlich ist der Gegner da die XL.

Wäre doch eine attraktive Karte?

Edgecrusher86
2020-10-23, 13:13:15
Die XL wird aber wohl höchstens $499 MSRP haben, das ist - Stand jetzt - RTX 3070 Preisgefüge. Wenn NV etwas dazwischen bringt und nichts ändert, sollte man bei $599 langen - RT on scheint Big Navi XT auch nur auf 3070 Level zu liegen grob, was die neusten Hochrechnungen betrifft. Darauf [und mit DLSS] wird Huang sicher den Aufpreis zu den jeweiligen AMD-Karten rechtfertigen wollen, auch wenn man wieder einmal richtig am VRAM spart. ;)

dargo
2020-10-23, 13:16:15
Die XL wird aber wohl höchstens $499 MSRP haben, das ist - Stand jetzt - RTX 3070 Preisgefüge. Wenn NV etwas dazwischen bringt und nichts ändert, sollte man bei $599 langen - RT on scheint Big Navi XT auch nur auf 3070 Level zu liegen grob, was die neusten Hochrechnungen betrifft.
Welche Hochrechnungen? ;D

Edgecrusher86
2020-10-23, 13:17:14
Mach daraus eher N21XL. ;)

btw.
Ich frage mich nur was NV damit bezwecken will? Es bleibt ja weiterhin bei 10GB Vram. Oder bekommt der GA102-150 GDDR6? Mit 20GB wäre das Teil immerhin konkurrenzfähig.

Resteverwertung und so - das Geld liegt auf der Straße. :freak:


Welche Hochrechnungen? ;D

Diese:

https://videocardz.com/newz/amd-radeon-rx-6800xt-alleged-3dmark-scores-hit-the-web

E: Igor hat da einen Fehler drin - das ist FireStrike Ultra wenn, nicht Extreme -> 4K.
Das muss man jetzt mal so hinnehmen, diese Zahlen - könnte grob stimmen jeweils, oder auch nicht (ganz). :)


Ist doch ganz einfach die 500$ AMD wird schneller bei der Raster Performance sein die 3070 bei RT.
Laut dem ersten Leak ist die 6800XT auf 2080 Ti Level in Port Royale.

So wird es wohl hin kommen, ja. Nun ja, TU102 in RT zu schlagen war wohl AMDs Ziel, das hätte man somit erreicht.

dildo4u
2020-10-23, 13:18:25
Ist doch ganz einfach die 500$ AMD wird schneller bei der Raster Performance sein die 3070 bei RT.
Laut dem ersten Leak ist die 6800XT auf 2080 Ti Level in Port Royale.

dargo
2020-10-23, 13:22:30
Diese:

https://videocardz.com/newz/amd-radeon-rx-6800xt-alleged-3dmark-scores-hit-the-web

E: Igor hat da einen Fehler drin - das ist FireStrike Ultra wenn, nicht Extreme -> 4K.
Das muss man jetzt mal so hinnehmen, diese Zahlen - könnte grob stimmen jeweils, oder auch nicht (ganz). :)

Ganz ehrlich? Da warte ich lieber bis es bessere Tests, vor allem mit Games und nicht einem 3DFurz gibt. :) Ich kann bsw. schlecht die RT-Last in einem synthetischen Benchmark wie 3DMark deuten. Wenn diese Last wesentlich höher als in vielen Games ist dann ist so ein Benchmark zumindest für mich Müll.

Edgecrusher86
2020-10-23, 13:26:22
Die 3DM 4K Tests sind jetzt zumindest halbwegs brauchbar, um die Wald-und-Wiesen-Performance einzuordnen. 4K-Gaming wäre natürlich deutlich praxisnäher. :)

dargo
2020-10-23, 14:00:43
Die 3DM 4K Tests sind jetzt zumindest halbwegs brauchbar, um die Wald-und-Wiesen-Performance einzuordnen. 4K-Gaming wäre natürlich deutlich praxisnäher. :)
Schon wieder überholt. :freak: :D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12470547&postcount=15181

Edit:
Oder auch nicht. X-D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12470565&postcount=15187

Nee... das ist mir noch zu viel Chaos.

Troyan
2020-10-23, 14:22:28
Ist doch ganz einfach die 500$ AMD wird schneller bei der Raster Performance sein die 3070 bei RT.
Laut dem ersten Leak ist die 6800XT auf 2080 Ti Level in Port Royale.

Muss heftig sein für AMD. Die reduzieren ihre eigene Marge gerade mal um die Hälfte, weil die Architektur ziemlich schlecht ist. Dazu noch 300W. Vor einem Jahr 250mm^2 für 400€+ verkauft und bald 500mm^2 für 500€.

Mal sehen, wieviele davon wirklich am Markt ankommen.

dargo
2020-10-23, 14:24:45
Troyan macht sich Sorgen um AMDs-Margen. The next Comedy Show. ;D

Nazar
2020-10-23, 14:28:49
Muss heftig sein für AMD. Die reduzieren ihre eigene Marge gerade mal um die Hälfte, weil die Architektur ziemlich schlecht ist. Dazu noch 300W. Vor einem Jahr 250mm^2 für 400€+ verkauft und bald 500mm^2 für 500€.

Mal sehen, wieviele davon wirklich am Markt ankommen.

Du meinst nicht nV?
Nur anhand der Preise und der DIE Größe konnte ich dein Posting nicht als freudschen Vertipper deuten. :freak:

Linmoum
2020-10-23, 14:31:01
Troyan hat N10 und N21 wohl mit TU102 und GA102 verwechselt. ;D

Redneck
2020-10-23, 14:35:17
Ist doch ganz einfach die 500$ AMD wird schneller bei der Raster Performance sein die 3070 bei RT.
Laut dem ersten Leak ist die 6800XT auf 2080 Ti Level in Port Royale.
dann testen die die Reviewer alle 10 games nach Raster wo AMD vor der 3080 liegen wird und 3-4 RT games, wo sie gleich auf mit 3070 liegt. Was macht nach der Anzahl der Balken wohl mehr Eindruck ?

Redneck
2020-10-23, 14:38:54
[QUOTE=Troyan;12470589]Muss heftig sein für AMD. Die reduzieren ihre eigene Marge gerade mal um die Hälfte, weil die Architektur ziemlich schlecht ist. Dazu noch 300W. Vor einem Jahr 250mm^2 für 400€+ verkauft und bald 500mm^2 für 500€.
:freak:
setz mal deine Realismus Brille auf..
1) man kennt noch keine Preise, daher kannst Du dahingehend kein Urteil bilden
2) NV hat hat den Löwenanteil am Markt und sind zuerst rausgekommen mit Karten und Preisen. daher wird man sich daran orientieren müssen.
bei gleicher performance wird man ähnliches aufrufen können. Bei Mehrleistung mehr.
3) kennst du die Produktionskosten nicht... ist Ampere womöglich teurer zu produzieren mit den X lagigen PCB samt teuren Speicher und $150 Kühler ? Schade auch.. das NV in der Preisfalle steckt und deswegen wahrscheinlich auch die 16/20gb Versionen storniert hat. Ich bin aber weit entfern davoin zu sagen, das die Ampere Architektur deswegen schlecht ist wie Du es über RDNA2 tust

dargo
2020-10-23, 14:42:57
Troyan hat N10 und N21 wohl mit TU102 und GA102 verwechselt. ;D
Den GA102 Gaming kannst du aus der Rechnung eh rausnehmen. Die Stückzahlen die Lederjacke da liefert werden sich nirgendwo in den Quartalszahlen bemerkbar machen. ;)

Troyan
2020-10-23, 14:59:55
Troyan hat N10 und N21 wohl mit TU102 und GA102 verwechselt. ;D

Naja, wie sieht du es, wenn ein 392,5mm^2 großer Chip mit 220W kaum langsamer als dein neues High-End ist? Dumm, oder? Und das ganze ohne Raytracing und DL.

BlacKi
2020-10-23, 17:28:59
igor spekuliert darauf das die doppelten speichermodelle mit neuen gpus von tsmc kommen werden als super modelle. deshalb das canceln der 16/20gb modelle.

also mal ehrlich. wenn das stimmt, dann ist dass das reinste chaos. ich habe aktuell keine lust mir eine karte zu kaufen weil ich nicht weiß was kommt.

vl wirds einfach eine 3070 wenn die lieferbarkeit gegeben ist. einfach damit ich endlich hdmi2.1 hab. ab er füsse stillhalten ist sowieso zwang bis amd und nv fertig haben am 28-29.10.

bloodflash
2020-10-23, 17:48:52
also mal ehrlich. wenn das stimmt, dann ist dass das reinste chaos. ich habe aktuell keine lust mir eine karte zu kaufen weil ich nicht weiß was kommt.



Thats's it!
Kauf kein AMD, kauft kein AMD!
Unser Konter kommt bestimmt bald. 16GB sind Crap, bald kommt 20GB, mit einem neuen Prozess. RT!!!1, DLSS!!!1elf


Wer hätte gedacht, dass der 28.10. so spannend wird - für nV ;)

dargo
2020-10-23, 18:49:58
Wie heißt es so schön... unterschätze niemals die Konkurrenz. :D

Troyan
2020-10-23, 18:54:51
Genau, die Konkurrenz mit der Gammelhardware. Schaut euch doch mal den Navi-Fehlschlag hier an: https://www.computerbase.de/2020-10/crysis-remastered-benchmark-test/2/#diagramm-crysis-remastered-3840-2160

Aber bestimmt wird der Nachfolger mehr als doppelt so schnell. Man muss nur fest dran glauben. Heftig, dass eine 3090 2,6x schneller ist und 1,57x effizienter ist bei mehr als der doppelten Bandbreite und 3x mehr Speicher.

Linmoum
2020-10-23, 18:56:44
Keine Ahnung, was jetzt Benchmarks mit der alten Gen noch sollen.

Igor ist in seinem Video heute schon deutlich geworden. Auch, was die 3070 aka "ich bin wohl auf komplett verlorenem Posten"-SKU angeht.

dargo
2020-10-23, 19:00:22
Der letzte Strohhalm von Troyan... Crysis Remastered @Megaflop. ;D

mironicus
2020-10-23, 19:01:25
Die geleakten Benchmarks zur 6800 XT sind wohl der Grund warum NVidia keine 16 und 20 GB-Karten bringt. Es lohnt sich nicht, die Karten wären zu teuer und erst die Super Refresh-Karten im nächsten Jahr werden es wieder richten können.

Armaq
2020-10-23, 19:02:29
Obwohl mir nvidia fast ein wenig Leid tut, wenn das stimmen sollte. Ich mein da haben viele Leute viel Zeit investiert.

Linmoum
2020-10-23, 19:03:19
Wenn kimi recht hat und NV sich tatsächlich gezwungen sieht, einen 58SM GA102 zu bringen, dann sind die in der Tat überflüssig. Da die schon bei gfx-Partnern auf Roadmaps waren, war das auf jeden Fall keine geplante Entscheidung, sie einzustampfen. Da ist wohl urplötzlich Panik ausgebrochen.

Troyan
2020-10-23, 19:04:15
Keine Ahnung, was jetzt Benchmarks mit der alten Gen noch sollen.

Igor ist in seinem Video heute schon deutlich geworden. Auch, was die 3070 aka "ich bin wohl auf komplett verlorenem Posten"-SKU angeht.

Keine Ahnung, warum du dauernd hier schreibst. Aber hier noch: Gammelhardware von AMD beim Abkacken: https://www.computerbase.de/2020-10/crysis-remastered-benchmark-test/2/#diagramm-crysis-remastered-3840-2160

Du behauptest also, dass der Nachfolger mehr als doppelt so schnell wird? Also sozusagen 2,3x schneller für 700€ und 300W?

Kommst du dir nicht selbst irgendwie blöd dabei vor? Wobei, lass stecken. ;D

Fragman
2020-10-23, 19:12:01
ich habe aktuell keine lust mir eine karte zu kaufen weil ich nicht weiß was kommt.


So gehts mir auch. Mich interessiert diese Gen mittlerweile nicht mehr.
AMD's Verfügbarkeit für das Topmodell wird auch nicht gut sein, dann wird halt nicht gekauft. Der Kauf an sich entwickelt sich ja auch zur Arbeit dank der Nichtverfügbarkeit und dem Rumgesuche im Netz. Aus dem Alter bin ich dann doch irgendwie raus. Als Kunde hab ich da auch ganz andere Ansprüche bzw Erwartungen. Aber gut, mit solchen Aussagen bin ich hier sowieso im falschen Forum. :D

mironicus
2020-10-23, 19:12:26
Du behauptest also, dass der Nachfolger mehr als doppelt so schnell wird? Also sozusagen 2,3x schneller für 700€ und 300W?

Kommst du dir nicht selbst irgendwie blöd dabei vor? Wobei, lass stecken. ;D

Nochmal für dich. Und die 6800 XT ist nicht die schnellste Karte die AMD bringen wird.

https://www.igorslab.de/wp-content/uploads/2020/10/02-Score.png

Troyan
2020-10-23, 19:17:24
Nochmal für dich. Und die 6800 XT ist nicht die schnellste Karte die AMD bringen wird.

https://www.igorslab.de/wp-content/uploads/2020/10/02-Score.png

Das weiß ich. Ändert nichts an der Aussage. Kann nicht so schwer sein simple Fragen zu beantworten.

Statt also hier den Thread für AMD Hardware zu bespammen und trollen, bleibt einfach fern. Und freut euch doch, dass ihr mit AMD Hardware auf dem Niveau einer 2080TI + 25% seid. Das für 700€ ist doch top.

Aber anscheinend seid ihr so in Panik, dass ihr die Minderleistung mal wieder kompensieren müsst. :(

Linmoum
2020-10-23, 19:18:38
Keine Ahnung, warum du dauernd hier schreibst. Aber hier noch: Gammelhardware von AMD beim Abkacken: https://www.computerbase.de/2020-10/crysis-remastered-benchmark-test/2/#diagramm-crysis-remastered-3840-2160
Deine Schallplatte ist kaputt, du wiederholst dich.

Du behauptest also, dass der Nachfolger mehr als doppelt so schnell wird? Also sozusagen 2,3x schneller für 700€ und 300W?Den Nachweis wirst du erbringen können, wo ich das behaupte. Da du das aber nachweislich nicht wirst tun können, schmecken eigene Worte ja bekanntlich immer gut, nech:
Kommst du dir nicht selbst irgendwie blöd dabei vor? Wobei, lass stecken. ;D


Ansonsten bin ich beeindruckt von dir, dass selbst du den Ampere-Thread schon mit AMD-Posts vollspamst. Da muss einiges aber richtig im Argen (bei NV) liegen.

Ansonsten gehe ich davon aus, dass deine Mathekenntnisse ausreichend sind. Das sollte als Hinweis für dich reichen für entsprechende Hochrechnungen. Wenn nicht, kann ich dir nicht mehr helfen.

dargo
2020-10-23, 19:26:03
Troyan kommt mir gerade vor wie der Kapitän auf dem sinkenden Schiff. :D

Troyan
2020-10-23, 19:26:16
Deine Schallplatte ist kaputt, du wiederholst dich.

Den Nachweis wirst du erbringen können, wo ich das behaupte. Da du das aber nachweislich nicht wirst tun können, schmecken eigene Worte ja bekanntlich immer gut, nech:



Ansonsten bin ich beeindruckt von dir, dass selbst du den Ampere-Thread schon mit AMD-Posts vollspamst. Da muss einiges aber richtig im Argen (bei NV) liegen.

Ansonsten gehe ich davon aus, dass deine Mathekenntnisse ausreichend sind. Das sollte als Hinweis für dich reichen für entsprechende Hochrechnungen. Wenn nicht, kann ich dir nicht mehr helfen.


Keine Ahnung, was jetzt Benchmarks mit der alten Gen noch sollen.

Igor ist in seinem Video heute schon deutlich geworden. Auch, was die 3070 aka "ich bin wohl auf komplett verlorenem Posten"-SKU angeht.

Damit ist also geklärt, dass du behauptest, dass die AMD Hardware >2x schneller ist. Na, das wird ein Fest am Mittwoch.

PingpiN
2020-10-23, 19:26:32
Genau, die Konkurrenz mit der Gammelhardware. Schaut euch doch mal den Navi-Fehlschlag hier an: https://www.computerbase.de/2020-10/crysis-remastered-benchmark-test/2/#diagramm-crysis-remastered-3840-2160

Aber bestimmt wird der Nachfolger mehr als doppelt so schnell. Man muss nur fest dran glauben. Heftig, dass eine 3090 2,6x schneller ist und 1,57x effizienter ist bei mehr als der doppelten Bandbreite und 3x mehr Speicher.

Finde den Test ein Frechheit weil es keine Ergebnisse ohne Raytracing gibt. Dann kann man besser sehen wie es zwischen NV und AMD aussieht.

Troyan
2020-10-23, 19:28:01
Gibt es hier, ist jedoch selbst in 1440p CPU limitiert: https://www.purepc.pl/test-wydajnosci-crysis-remastered-czy-mi-pojdzie-zalezy-co-masz?page=0,13

In 4K gibt es keine 5700XT.

Linmoum
2020-10-23, 19:29:07
Damit ist also geklärt, dass du behauptest, dass die AMD Hardware >2x schneller ist. Na, das wird ein Fest am Mittwoch.Die 2080Ti, bei der die 3070 landen wird, ist >2x schneller als die von dir genannte 5700XT? Uff, da war mein Satz mit den Mathekenntnissen ja gar nicht mal so daneben.

Ansonsten weißt du natürlich, wie viel schneller eine Karte als die 5700XT ist bzw. sein wird, wenn sie auf 3080-Niveau herauskommt. Und dann der Umstand herrscht, dass eine Karte existiert, die nochmal 10% mehr Shader bietet. Aber gut, in deiner Welt kann die 3080 dann ja nur 80% vor der 5700XT sein. Ansonsten ergeben deine Posts schlicht Null Sinn. Wobei, tun sie auch so nicht.

PingpiN
2020-10-23, 19:29:39
Gibt es hier, ist jedoch selbst in 1440p CPU limitiert: https://www.purepc.pl/test-wydajnosci-crysis-remastered-czy-mi-pojdzie-zalezy-co-masz?page=0,13

In 4K gibt es keine 5700XT.

ok trotzdem ist das cherrypicking.

https://www.computerbase.de/2020-10/star-wars-squadrons-benchmark-test/2/

Bei den neuen Star Wars Spiel müsste die 6800 XT sogar die 3090 schlagen können.

aufkrawall
2020-10-23, 19:30:32
Troyan kommt mir gerade vor wie der Kapitän auf dem sinkenden Schiff. :D
Kommir mir eher zunehmend vor wie Käpt'n Ahab im Magen des Wals. ;D

Troyan
2020-10-23, 19:34:34
ok trotzdem ist das cherrypicking.

https://www.computerbase.de/2020-10/star-wars-squadrons-benchmark-test/2/

Bei den neuen Star Wars Spiel müsste die 6800 XT sogar die 3090 schlagen können.

Deswegen habe ich Crysis als Beispiel genommen. Je "aufwendiger" Spiele werden, umso schlechter wird AMD liegen. Das wird vorallem bei Raytracing sich zeigen, wo neben Bandbreite auch Rechenleistung notwendig ist.
Trotzdem wird hier durchgehend die Behauptung aufgestellt, dass Ampere keine Chance hätte.

Daher habe ich auch an dem bekannten Troll die Frage gestellt. Denn AMD muss ja überall im Grunde mehr als 2x die Leistung zur 5700XT erreichen, um überhaupt vor der 3080 zu sein.

Bis jetzt habe ich, nicht überraschend, keine Antwort erhalten.

gedi
2020-10-23, 19:36:04
Kommir mir eher zunehmend vor wie Käpt'n Ahab im Magen des Wals. ;D

Und was macht er da - ruft er den Pizzaservice?

PingpiN
2020-10-23, 19:39:04
Man kauft halt das was man möchte Basta. Ein 10 GB Speicherkrüppel kommt mir aber nicht ins Haus dann wird halt AMD nach vielen Jahren wieder eine Chance gegeben obwohl Nvidia auch seine vorteile hat.

Ex3cut3r
2020-10-23, 19:41:30
Man kauft halt das was man möchte Basta. Eine 10 GB Speicherkrüppel kommt mir aber nicht ins Haus dann wird halt AMD nach vielen Jahren wieder eine Chance gegeben obwohl Nvidia auch seine vorteile hat.
+1

KA, was Nvidia 2 Jahre gemacht hat.

-Stromverbrauch auf Vega 64 Niveau
-VRAM mit 10 GB extrem auf Kante genäht | 3070 mit 8GB ein schlechter Scherz?
-Nicht verfügbar
-Wenn verfügbar, viel zu teuer.

So wird das nix Nvidia.

mr coffee
2020-10-23, 19:45:43
Wie sich die Stimmung so dreht... zum Release hatte ich das Gefühl jeder ist euphorisch ...

[MK2]Mythos
2020-10-23, 19:46:40
+1

KA, was Nvidia 2 Jahre gemacht hat.

-Stromverbrauch auf Vega 64 Niveau
-VRAM mit 10 GB extrem auf Kante genäht | 3070 mit 8GB ein schlechter Scherz?
-Nicht verfügbar
-Wenn verfügbar, viel zu teuer.

So wird das nix Nvidia.
Gut zusammen gefasst. Nur die schlimmsten Fanboys können das noch verteidigen.

Statt sich einfach mal zu freuen. AMD hat zuerst den CPU und nun dem Grafikkartenmarkt aufgemischt. NV wird kontern, ganz sicher, aber diese Runde geht an AMD. Wir profitieren alle davon.

Troyan
2020-10-23, 19:49:04
Man kauft halt das was man möchte Basta. Ein 10 GB Speicherkrüppel kommt mir aber nicht ins Haus dann wird halt AMD nach vielen Jahren wieder eine Chance gegeben obwohl Nvidia auch seine vorteile hat.

Das ist doch okay. Ging mir genauso. Wer mehr Speicher haben will, muss sich so eine Karte kaufen.
Diskussionen können jedoch überhaupt nicht mehr stattfinden, ohne dass irgendeiner von den Trollen hier in den Ampere-Threads auftauchen. Das betrifft absolut jeden Thread: Diesen hier, die Reviews und Verfügbarkeitsthreads, die Technologiethread über Raytracing und DLSS (bzw. ML-AA). Überall die selben Leute, die davon reden, wie schlecht nVidia ist, wie kacke Ampere ist, wie toll doch AMD ist.

Und ich warte immer noch darauf, dass Linmoum mir bestätigt, dass die 3080 Konkurrenzkarte von AMD durchgehend >2x schneller als die 5700XT sein wird. Denn was hier wohl vergessen wird, die 3080 ist es im Schnitt und in vielen Spielen sogar deutlich darüber (2,2x bis 2,4x).

Mythos;12470998']Gut zusammen gefasst. Nur die schlimmsten Fanboys können das noch verteidigen.

Statt sich einfach mal zu freuen. AMD hat zuerst den CPU und nun dem Grafikkartenmarkt aufgemischt. NV wird kontern, ganz sicher, aber diese Runde geht an AMD. Wir profitieren alle davon.

Also du behauptest, dass nVidia jetzt schon ihre eigenen Karten kontern muss? Ich find dich knuffig. Hier spammst und im AMD Thread regst du dich auf, wenn die Leute das selbe nur umgekehrt schreiben. Lmao.

gedi
2020-10-23, 19:49:18
+1

KA, was Nvidia 2 Jahre gemacht hat.

-Stromverbrauch auf Vega 64 Niveau
-VRAM mit 10 GB extrem auf Kante genäht | 3070 mit 8GB ein schlechter Scherz?
-Nicht verfügbar
-Wenn verfügbar, viel zu teuer.

So wird das nix Nvidia.

Ne 3070 mit 2080Ti-Performance. Noch vor ner Woche haben alle inclusive Igor gesagt, es wäre die Karte schlechthin. 499€ wären imo ein guter Deal, wenn es da nicht so etwas wie ne XL seitens AMD geben würde, welche sich nur sehr knapp unter einer 3080 einordnet und lediglich 50€ mehr kostet als ne 3070.

Jupiter
2020-10-23, 20:07:44
Ich öffne die 3DCenter-Seite das erste Mal heute und was sehe ich wieder zuerst. Immer die gleichen AMD-Anhänger im Nvidia-Thread. Es wiederholt sich ständig.

Linmoum
2020-10-23, 20:13:13
Troyan ist AMD-Anhänger? Jetzt bin ich aber baff.

Zergra
2020-10-23, 21:19:12
Troyan ist AMD-Anhänger? Jetzt bin ich aber baff.

Muss man ein Anhänger sein?

Ich habe 8 Jahre lang nur AMD Karten gekauft, bin aber dann vor knapl zwei Jahren auf Pascal gewechselt, weil es eben eine sehr gute Karte war. AMD hatte da nichts was Konkurrenzfähig war.

Ampere biete viel neues, aber hat eben such negative Punkte. Was ich mir als nächstes kaufe liegt am Ende am besseren Gesamtpaket.

x-dragon
2020-10-23, 21:20:58
Wie sich die Stimmung so dreht... zum Release hatte ich das Gefühl jeder ist euphorisch ... Klar, da waren ja alle ausgehungert, so lange wie es keine interessante neue Grafikhardware mehr gab und Konkurrenz gabs ja auch noch keine :) (naja aktuell immer noch nicht, aber wenn die Daten von Igor so stimmen wird es interessant).

... Und ich warte immer noch darauf, dass Linmoum mir bestätigt, dass die 3080 Konkurrenzkarte von AMD durchgehend >2x schneller als die 5700XT sein wird. Denn was hier wohl vergessen wird, die 3080 ist es im Schnitt und in vielen Spielen sogar deutlich darüber (2,2x bis 2,4x). ... Hm, müsste mit der Rechnung dann nicht auch die Leistung in vielen Spielen sogar deutlich unter 2x sein, damit wir wieder auf deinen Schnitt kommen? :freak:

Ich öffne die 3DCenter-Seite das erste Mal heute und was sehe ich wieder zuerst. Immer die gleichen AMD-Anhänger im Nvidia-Thread. Es wiederholt sich ständig. Naja, irgendwas interessantes neues ist hier ja scheinbar dieses Jahr nicht mehr zu erwarten :). Naja ggf. die 3070 eventuell noch, wenn man in der Leistungsklasse was neues kaufen will.

gedi
2020-10-23, 21:23:41
Ich öffne die 3DCenter-Seite das erste Mal heute und was sehe ich wieder zuerst. Immer die gleichen AMD-Anhänger im Nvidia-Thread. Es wiederholt sich ständig.

Vermutlich bist du verwirrt. Wenn ja, dann rate ich dir zu 300mg Venlafaxin (sonst hast du nix mehr zu melden) und 3mg Tavor.
Ähm ja

gedi
2020-10-23, 21:29:21
Klar, da waren ja alle ausgehungert, so lange wie es keine interessante neue Grafikhardware mehr gab und Konkurrenz gabs ja auch noch keine :) (naja aktuell immer noch nicht, aber wenn die Daten von Igor so stimmen wird es interessant).

Hm, müsste mit der Rechnung dann nicht auch die Leistung in vielen Spielen sogar deutlich unter 2x sein, damit wir wieder auf deinen Schnitt kommen? :freak:

Naja, irgendwas interessantes neues ist hier ja scheinbar dieses Jahr nicht mehr zu erwarten :). Naja ggf. die 3070 eventuell noch, wenn man in der Leistungsklasse was neues kaufen will.

Vielleicht fällt es jemandem der N10 dauerhaft unter richtigen >2.2G verbaut hat auf- das Ding skaliert sehr viel besser als Ampere mit den Takt.

Armaq
2020-10-23, 22:40:33
AMD mal beiseite, ist das irgendwo bestätigt, dass nvidia die Vollbremse ziehen muss? Ich mein es wurde von Jensen gesagt, dieses Jahr nichts mehr, aber ist das wirklich so dramatisch?

[MK2]Mythos
2020-10-23, 22:42:49
Igor sagte in seinem Video, dass er sich nochmal umgehört hätte und da tatsächlich nichts mehr zu erwarten sei. Und eigentlich macht das auch kompletten Sinn.

Armaq
2020-10-23, 22:54:48
Mythos;12471185']Igor sagte in seinem Video, dass er sich nochmal umgehört hätte und da tatsächlich nichts mehr zu erwarten sei. Und eigentlich macht das auch kompletten Sinn.
Das will nvidia einfach stoisch durchziehen? Ich mein TSMC wird den Preisaufschlag des Jahrtausends nehmen. Ich nenn das immer Rückkehrerbonus, wenn das bei uns passiert.

[MK2]Mythos
2020-10-23, 22:59:51
Naja, ich denke dass TSMC vermutlich gar keine Ressourcen frei hat und außerdem ist sowas ja auch nicht innerhalb weniger Monate gemacht...
Es sei denn, nvidia wusste schon, dass sie mit Samsung baden gehen werden und der Schritt ist schon lange gemacht.

Denniss
2020-10-23, 23:03:49
Wenn Ampere schon in Q1 von TSMC kommen soll dann muß das aber schon lange in der Mache sein.
Auch Nvidia kann nicht mal eben den für 8nm Samsung optimierten Chip in 7nm TSMC fertigen lassen. Selbst wenn die Daten der Prozesse ähnlich sein mögen muß doch irgendwas geändert und komplett neu validiert werden.

Fragman
2020-10-23, 23:11:07
Nv kann davon ja eigentlich nichts gewusst haben.
Zumindest macht das, was wir sahen so keinen Sinn mit der Vorstellung, der Auslieferung (wenn auch in Kleinststückzahlen), dem Durchsickern der Ankündigung der Modelle mit mehr Ram und an der 3070 Vorstellung halten sie immer noch fest.

Hatten die vielleicht mal irgendwann Ampere offiziell mit einem Zeitraum für den Release angekündigt? Dann könnte man ja argumentieren, sie mussten aufgrund der Bestimmungen für börsennotierte Unternehmen etwas zeigen und auch als Produkt verkaufen? :confused:

Armaq
2020-10-23, 23:16:54
Deshalb kann das nicht sein. Die gehen doch nicht 6 Monate aus dem Business? Also war

1. Samsung schon seit Monaten schwach bei der Ausbeute
2. Dachte man die 16/20 GB Versionen halten AMD in Schach
3. Man baut die Super Serie auf TSMC auf

Zweitens hat jetzt gar nicht geklappt und das ist über die Boardpartner natürlich auch zu nvidia gedrungen, die meinten sicher, ey Jungs, habt ihr die Zahlen in Benchmark XY gesehen, ist aber nicht eure Karte.

Da ist dann Jensen die Jacke gerissen. Wäre zumindest eine Möglichkeit.

davidzo
2020-10-23, 23:41:28
Wenn kimi recht hat und NV sich tatsächlich gezwungen sieht, einen 58SM GA102 zu bringen, dann sind die in der Tat überflüssig. Da die schon bei gfx-Partnern auf Roadmaps waren, war das auf jeden Fall keine geplante Entscheidung, sie einzustampfen. Da ist wohl urplötzlich Panik ausgebrochen.


GA102 mit GDDR6 als Resteverwertung ist doch gar keine so schlechte idee. Schön mit billigem Speicher bauen und im sweetspot takten und dann kommt der bestimmt trotzdem an die Navi LE ran, wenn nicht gar schneller im schnitt mit RT.

Btw, was ist denn mit GA103? Das wäre doch eigentlich der ideale Konter? Von der Hardware wie der salvage GA102 der 3080 nur sparsamerer, vllt. etwas höherer Takt.
Mit GDDR6 ist das Ding mindestens äquivalent zu Navi LE und ohne kommt das zumindest in die Nähe der XT (raytracing und DLSS eingerechnet), ohne dafür exorbitant teuer zu sein.

Troyan
2020-10-23, 23:44:36
Hm, müsste mit der Rechnung dann nicht auch die Leistung in vielen Spielen sogar deutlich unter 2x sein, damit wir wieder auf deinen Schnitt kommen? :freak:

Ja, die Spanne liegt zwischen 1,7x bis 2,4x. Im Schnitt in den Reviews sind es 1,9x bis 2,1x für die 3080 gegenüber der 5700XT. Daher muss also die AMD Konkurrenzkarte bei 2,1x bis 2,2x zur 5700XT durchgehend liegen, um immer vor der 3080 zu sein (mal Sonderfälle wie Crysis Remastered ausgenommen).

Jupiter
2020-10-23, 23:56:10
Wenn da stimmt… Kaufte vor ein paar Wochen extra dafür den passenden Verstärker für 1100 Euro und die entsprechende Grafikkarte sollte bald folgen.

Bug in HDMI-2.1-Chips: AV-Receiver, Next-Gen-Konsole und Grafikkarten betroffen: https://www.heise.de/news/Bug-in-HDMI-2-1-Chips-AV-Receiver-Next-Gen-Konsole-und-Grafikkarten-betroffen-4935888.html

Ohne funktionierendes HDMI 2.1 kann ich den Verstärker und eine RTX-Grafikkarte vergessen. Die Qualitätssicherung und die Tester leisteten keine gute Arbeit. Ein wenig erinnert das mich an die GTX 970.

Vermutlich bist du verwirrt. Wenn ja, dann rate ich dir zu 300mg Venlafaxin (sonst hast du nix mehr zu melden) und 3mg Tavor.
Ähm ja

Wahrscheinlich bist du erblindet. Von was auch immer. Jedenfalls kann auf all diese den Thread zumüllenden Kommentare verzichtet werden!

Undertaker
2020-10-24, 08:52:34
Du hast schon verstanden, dass der Fehler in den Chips der AV-Receiver liegt und nicht bei der Grafikkarte/Konsole?

Jupiter
2020-10-24, 08:56:58
Wenn UHD/120bps/HDR mit der PlayStation 5 gehen soll aber mit den Anderen nicht, kann es da evtl. auch Probleme geben. Oder die PlayStation 5 kann kein UHD/120bps/HDR.

dildo4u
2020-10-24, 09:29:57
Das scheint eher ein Problem mit dem TVs zu sein kein Plan ob das jemand an einem LG getestet hat.
Aber HDR 10 4k 120Hz geht Dolby Vision macht Probleme aber Sony hat das bis jetzt auch nie versprochen für die PS5.

https://youtu.be/f5VHGEcFX5Q

Korvaun
2020-10-24, 09:53:55
Was regt ihr euch alle so auf wieder?

nV ist in die selbe Falle getappt wie Intel vor Jahren. Hat sich zu sehr ausgeruht auf seinem Vorsprung (der ja zeitweise echt enorm und auch verdient war!). Jetzt hat AMD allem Anschein nach (aber noch nicht sicher) aufgeholt und nV bekommt Probleme. Performance an sich ist ja gut, aber RAM ist nV typisch knapp bemessen und wenn AMD zu ähnlichen Preisen mit wesentlich mehr daherkommt wirds ein Problem (wenigsten ein Marketing-Problem). Dazu kommen noch die Fertigungs-Probleme (GPU oder/und GDDR6X?) und fertig ist der "perfect shitstorm".

Wenn:
1. die Karten ohne Probleme gelauncht wären (Boost-Abstürze..)
2. die Verfügbarkeit wenigsten einigermaßen akzeptabel wäre
3. Preis der 3090 auf 2080ti Niveau geblieben wäre
dann sähe es jetzt bei weitem nicht so übel für nV aus...

BlacKi
2020-10-24, 09:56:09
Die geleakten Benchmarks zur 6800 XT sind wohl der Grund warum NVidia keine 16 und 20 GB-Karten bringt. Es lohnt sich nicht, die Karten wären zu teuer und erst die Super Refresh-Karten im nächsten Jahr werden es wieder richten können.
das hat nichts mit amds karten zu tun das nv zu tsmc geht, wenn das gerücht stimmt. die 20gb karten wurden nur gestrichen, weil man zu tsmc geht. sonst hätte man das gemacht.


ich glaube man wird die alten karten mit ins portfolio einbinden auch mit 20gb. das wird so oder so teuer. und das würde auch garantiert gekauft werden, also los wird nv die karten sowieso, auch für 1000€.



selbst wenn amd 20-30% schneller wäre zum gleichen preis, würden die meisten immernoch nv kaufen. die markenbindung ist wie bei apple sehr stark. bei mir ist es eben dlss, aber bei 30% kann man dann halt auch auf dlss verzichten.


ich bin gespannt was man bei tsmc macht. welcher prozess? 7nm ist doch schon ausgebucht? 5nm soll gut laufen, ist aber sicher noch zu früh. welche performance soll der neue chip denn haben? sicherlich nicht schneller als die 3090. das würde viel vertrauen in nv zerstören, lediglich einen neue titan könnte man bringen.

dargo
2020-10-24, 09:59:49
das hat nichts mit amds karten zu tun das nv zu tsmc geht, wenn das gerücht stimmt.
Nein... überhaupt nicht. Nvidia listet diverse SKUs mit doppeltem Speicher und cancelt sie als immer mehr sichtbar wird wie stark die Konkurrenz sich aufstellt. Alter... auf welchen Planeten lebst du eigentlich? :freak: Wach endlich mal auf! Die gleiche Nummer hattest du schon bei Intel abgezogen und nun sieht man wo AMD heute gegenüber Intel steht.


selbst wenn amd 20-30% schneller wäre zum gleichen preis, würden die meisten immernoch nv kaufen. die markenbindung ist wie bei apple sehr stark.
Da muss ich dich enttäuschen. Gerade dank der CPU-Sparte nimmt das Image von AMD erheblich zu. Und das überträgt sich dann auch auf die GPU-Sparte. Sicherlich nicht von heute auf morgen, aber durchaus von Jahr zu Jahr.

horn 12
2020-10-24, 10:03:52
Nun, vor April/ Mai wird auch der Super Super Refresh kaum realisierbar sein
Zudem muss man Kapazitäten haben und TSMC ist schon übervoll mit AMD
Nun, das NV ihnen der Rachen vollpumpen möchte, und da wird wohl AMD mitzureden haben als langjähriger 7nm Nutzer!
Der Schuss nach immer mehr Marge geht diesesmal gewaltig nach Hinten los.

BlacKi
2020-10-24, 10:06:52
Nein... überhaupt nicht. Nvidia listet diverse SKUs mit doppeltem Speicher und cancelt sie als immer mehr sichtbar wird wie stark die Konkurrenz sich aufstellt. Alter... auf welchen Planeten lebst du eigentlich? :freak: Wach endlich mal auf! Die gleiche Nummer hattest du schon bei Intel abgezogen und nun sieht man wo AMD heute gegenüber Intel steht.


Da muss ich dich enttäuschen. Gerade dank der CPU-Sparte nimmt das Image von AMD erheblich zu. Und das überträgt sich dann auch auf die GPU-Sparte.kannst dir dein gesabbel bitte mal sparen? wenn du weiter so schreibst landest du als erster auf meiner igno liste. dann hab ich endlich ruhe vor dir.

Adam D.
2020-10-24, 10:07:11
Nein... überhaupt nicht. Nvidia listet diverse SKUs mit doppeltem Speicher und cancelt sie als immer mehr sichtbar wird wie stark die Konkurrenz sich aufstellt. Alter... auf welchen Planeten lebst du eigentlich? :freak: Wach endlich mal auf! Die gleiche Nummer hattest du schon bei Intel abgezogen und nun sieht man wo AMD heute gegenüber Intel steht.


Da muss ich dich enttäuschen. Gerade dank der CPU-Sparte nimmt das Image von AMD erheblich zu. Und das überträgt sich dann auch auf die GPU-Sparte.
Es hat indirekt vielleicht etwas damit zu tun. Aber mal blöd formuliert: die Konkurrenz kann machen was sie will, das Problem ist primär, dass NV nicht liefern kann. Wenn AMD dann noch konkurrenzfähige Produkte am Start hat, macht das zwar das Problem weitaus größer. Aber das Problem ist und bleibt primär, dass man nix verkaufen kann, weil man nix liefern kann.