PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 20. September 2021


Leonidas
2021-09-21, 08:10:09
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-20-september-2021

Gast
2021-09-21, 08:53:38
Sollen die +60% die tatsächliche Spiele Leistung sein? Dann bin ich mal gespannt.
Ampere hat die reine Rechenleistung ja auch fast verdreifacht gegenüber Turing. Beim Gaming sind da dann grob 45% mehr Leistung bei 30% mehr Verbrauch übrig geblieben.
Insofern bin ich mal gespannt, was AMD da macht. Und vor allem, wie das mit der Effizienz aussieht. Das klingt ja sowieso komisch:
Bessere Effizienz bei gleichzeitig deutlich steigendem Verbrauch des Top Modells? Also, wenn man 60% schneller wäre als RDNA2, dann dürfte man keine 60% mehr verbrauchen, um die Effizienz zu steigern. Das klingt da aber nicht so. Also kann eine Angabe nicht wirklich stimmen. Entweder muss man noch schneller sein, oder doch nicht so viel verbrauchen, oder die Effizienz sinkt.
Was aber durchaus stimmen dürfte, ist die deutlich steigende RT Leistung. Mit deutlich mehr Rechenleistung skaliert halt auch RT entsprechend, da AMD ja teilweise keine dedizierten Schaltzungen verwendet, sondern die Rechenleistung der Shader nutzt. Und da die bisherigen Gerüchte ja von grob 3x Rechenleistung reden, sollte die RT Leistung auch entsprechend steigen.
Nur weiß man ja nicht wirklich, wie viel NV da zu legen wird.
Aber eines ist klar: Nachdem AMD und Nvidia so dicht beisammen liegen, wie lange nicht mehr, ist die nächste Gen so spannend wie lange nicht mehr. Ich hoffe nur, dass die Preise sich bald wieder beruhigen.

Gast
2021-09-21, 08:59:42
"Dennoch muß die genannte Terminlage in Frage gestellt werden, denn wenn AMD für die GCDs von RDNA4 tatsächlich die 3nm-Fertigung ansetzt, dürfte Ende 2023 einfach zu früh hierfür sein."
Naja, das kommt drauf an, wie groß die GCDs sind. Apple lässt seine Chips ja auch deutlich früher in den kleineren Nodes fertigen, als z.B. AMD. Weil die eben kleiner sind, geht das auch ausreichend gut. Daher kann das Multichip Design hier durchaus auch ein Vorteil sein.
Monolithen in der Größe von Top GPUs brauchen halt einen ausgereiften Prozess, um nicht zu viel Ausschuss zu bekommen. Aber kleine Chips gehen durchaus auch früher. Daher ist halt die Chipgröße relevant.

Gast
2021-09-21, 10:15:28
Same procedure as every generation...

AMD Hypelevel erreicht ungeahnte Höhen und passt sich immer weiter der Realität an bis sie doch wieder leider nur unterhalb von Nvidia rauskommen.

spotz
2021-09-21, 11:04:04
Ich könnte mir vorstellen das es wieder unterschiedliche Performance Prognosen für Rasterizer und Raytracing gibt. Das würde die erheblichen Differenzen zwischen +50% und +100% erklären.

Aroas
2021-09-21, 11:27:42
Same procedure as every generation...

AMD Hypelevel erreicht ungeahnte Höhen und passt sich immer weiter der Realität an bis sie doch wieder leider nur unterhalb von Nvidia rauskommen.

Was letztlich nicht schlimm wäre, wenn die Preise entsprechend niedriger wären. Aber leider ist das ja mittlerweile nicht mehr der Fall.

Gast
2021-09-21, 11:35:19
Naja, das kommt drauf an, wie groß die GCDs sind. Apple lässt seine Chips ja auch deutlich früher in den kleineren Nodes fertigen, als z.B. AMD.


Sogar Apple verwendet für den A15 Bionic immer noch eine 5nm Variante, damit ist 3nm definitiv zu früh.

Es ist auch fraglich ob man bei GPUs jene extrem kleinen Chiplets sehen wird, wie AMD sie bei den CPUs fertigt. Bei einer GPU sind die benötigten Bandbreiten für die Inter-DIE-Kommunikation doch um vielfaches größer, und es bringt halt auch wenig wenn man den neuesten und effizientesten Prozess hat, dessen Vorteile durch die enorme Inter-Die-Kommunikation wieder aufgefressen wird.

Bisher sieht es jedenfalls eher so aus, als würde AMD Multichip bei den GPUs nicht für extrem kleine DIEs verwenden, sogar eher umgekehrt das Portfolie nach oben hin um eine Art Multi-GPU-Grafikkarte erweitern.

Gast
2021-09-21, 11:37:21
AMD Hypelevel erreicht ungeahnte Höhen und passt sich immer weiter der Realität an bis sie doch wieder leider nur unterhalb von Nvidia rauskommen.

Was an +60% Hypelevel ist muss mal einer erklären. Auch wenn es hier als Minimum dargestellt wird wäre es doch eine komplette Enttäuschung wenn es tatsächlich nur +60% wäre, und sicher auch weit unter dem was Nvidia liefern wird.

Geldmann3
2021-09-21, 12:26:28
Wir werden +60% Gaming-Performance zur 6900XT sehen, aber mit einem einzelnen Chip.

Performancetechnisch stehe ich noch immer zu meiner Prognose von vor einem Monat. Da kann rumgehyped werden, wie es will.

https://pbs.twimg.com/media/E9g2yg4WEAMjbLw?format=png&name=4096x4096 (https://twitter.com/HIG5HLeader/status/1429953677163433986?s=20)

Bei Nvidia rechne ich übrigens nicht damit, dass die aktuellen Spekulationen von +120% oder so ansatzweise erreicht werden.
Nvidia kann nicht zaubern, sorry.
Jedenfalls nicht, wenn sich das auf die Gaming-Performance beziehen soll.
Natürlich werden sie recht schnell in den MCM-Bereich nachziehen.
Anders geht es einfach nicht.

Gast
2021-09-21, 12:40:58
Wir werden +60% Gaming-Performance zur 6900XT sehen, aber mit einem einzelnen Chip.


Klingt auch wahrscheinlicher + 60% mit Multichip wäre wirklich wenig.


Bei Nvidia rechne ich übrigens nicht damit, dass die aktuellen Spekulationen von +120% oder so ansatzweise erreicht werden.


Locker, man darf nicht vergessen, dass der Fertigungssprung für Nvidia um ein vielfaches höher ist, als bei AMD.


Nvidia kann nicht zaubern, sorry.


+100% ist das absolute Minimum ganz ohne zaubern, und mit ein bisschen Zauberei (sprich Architekturverbesserungen) sollten auch 120% kein Hexenwerk sein.


Jedenfalls nicht, wenn sich das auf die Gaming-Performance beziehen soll.
Natürlich werden sie recht schnell in den MCM-Bereich nachziehen.
Anders geht es einfach nicht.

Nvidia hat genauso MCM in Vorbereitung, allerdings vorerst (und wie wohl auch AMD zumindest in erster Generation) um das Niveau über jenes das Single-DIE fertigbar ist zu erhöhen, und nicht für die gesamte Produktpalette.

maximus_hertus
2021-09-21, 13:01:46
Ja, so langsam kommen wir in Bereiche, die wohl realistischer sind. +60% (bis +70%) wäre ein Performancegewinn wie man ihn früher "immer" bei einer neuen Gen hatte.

RDNA3 ist ja noch über 1 Jahr entfernt, RDNA4 wohl eher 3 als 2 Jahre. Viel Zeit und vor allem keinen Grund da zu viel zu hypen. Erst einmal muss AMD eine Karte bringen, die wirklich die "#1" ist. Vorher ist ein Hype eher peinlich als sinnvoll.

Und ein Portfolio mit weniger als 10% zwischen den Karten? Imo eher unwahrscheinlich.

Geldmann3
2021-09-21, 13:11:49
So ein Portfolio haben wir bereits.

Die RX 6900XT ist laut dem 3DC-Performance-Index nur rund 8% schneller als die RX 6800XT.

Zwischen der R9 390X und R9 390 lagen damals ebenfalls nur rund 8%.

Und zwischen der RTX 3080 Ti und RTX 3090 liegen gar nur 3%.

Dampf
2021-09-21, 13:59:45
Same procedure as every generation...

AMD Hypelevel erreicht ungeahnte Höhen und passt sich immer weiter der Realität an bis sie doch wieder leider nur unterhalb von Nvidia rauskommen.

Durch AMD's MCM Vorteil ist das aber diesmal durchaus realistisch.

Gast
2021-09-21, 15:11:54
Durch AMD's MCM Vorteil ist das aber diesmal durchaus realistisch.

MCM muss sich bei Grafikkarten erst als Vorteil erweisen, und anscheinend sieht das AMD genauso, ansonsten bräuchte man nicht mehr einen Haufen unterschiedlicher DIEs.

Linmoum
2021-09-21, 15:24:11
MCM muss sich bei Grafikkarten erst als Vorteil erweisen, und anscheinend sieht das AMD genauso, ansonsten bräuchte man nicht mehr einen Haufen unterschiedlicher DIEs.Auch bei einem Vermeer hast du insg. bis zu 3 DIEs. Und jetzt?

Mehrere kleinere DIEs statt weniger größeren ist gerade der Vorteil bei MCM, vor allem was direkt Yields angeht.

Dass bei wohl >15k ALUs ein enormer Sprung zu erwarten wäre, ist offensichtlich. Keine Ahnung, wie MLID vor diesem Hintergrund auf nur 60% kommen wollt, sofern es tatsächlich dreifache ALUs zu N21 werden.

Gast
2021-09-21, 15:56:07
Same procedure as every generation...

AMD Hypelevel erreicht ungeahnte Höhen und passt sich immer weiter der Realität an bis sie doch wieder leider nur unterhalb von Nvidia rauskommen.
Bei Ampere hieß es auch, dass man mindestens doppelt so schnell wie Turing sein wird. Wo genau ist das kein Hype? Die Realität sieht bei NVidia ja noch schlechter als bei AMD aus. Denn bei AMD ist man immerhin bei den vorhergesagten 300W heraus gekommen. Und bei der Leistung gab es auch Prognosen a la zwischen 3090 und 3080 bei Rasterizing, in RT deutlich langsamer.

Gast
2021-09-21, 15:57:30
+100% ist das absolute Minimum ganz ohne zaubern, und mit ein bisschen Zauberei (sprich Architekturverbesserungen) sollten auch 120% kein Hexenwerk sein.
+100% Gaming Performance, oder +100% FP32 Leistung?

GastAtom
2021-09-21, 16:05:42
Ich finde der Golem Artikel setzt den falschen Fokus. Die IPC ist wenig interessant wenn das Limitierende die TDP bzw. Temperatur ist. Klar ist es nett, dass Sandy Bridge erreicht wird, aber "wird ein Rennradfahrer mit seinem 2021 Karbonfaserfahrrad gegen einen Benz von 1921 gewinnen" ist eher skuril statt irgendwas aussagend.

Ich fände einen Benchmark gegen andere CPUs in derselben TDP und derselben Kühlung, ich glaube es gab i7 mit 7W passiv, viel nützlicher. Denn was bringen die 4-Core Zens und Lakes auf die Strasse, wenn Ihre, durch viel Transiatoren erkaufte IPC zugleich in mehr Energie und Hitze als bei Atoms resultiert.
Worauf kann ich z.B. in Blender mal paar Stunden rendern lassen wenn ich unterwegs bin. Worauf Videos bearbeiten/encoden. Worauf mit Tensorflow rumspielen usw.

Gast
2021-09-21, 17:16:24
Eine bezahlbare (~ 250€ ) schnelle ( 3070er lvln sollte schon drin sein nache shrink )Mittelkasse bei 120W Verbrauch wie dei GTX1060 einst das will der Mainstream.

Ob wir das je wieder sehen werden nachdem die Player mit staunen beobachtet haben zu welchen absurden Preisen verglichen zu den eh schon frechen UVP`s die Dinger ausverkauft sind wage ich zu bezweifeln.

Die nächste Gen wird eine fürstliche Preisteigerung mit sich bringen , man ärgert sich ja momentan bei AMD und NV wie blöd das Zwischenhändler sich hier an Einahmen gesund stoßen die man auch direkt in in den eigenen Topf hätte fließen lassen können.

iamthebear
2021-09-21, 21:27:40
Ampere hat die reine Rechenleistung ja auch fast verdreifacht gegenüber Turing. Beim Gaming sind da dann grob 45% mehr Leistung bei 30% mehr Verbrauch übrig geblieben.

Das ist leider ein weit verbreiteter Irrglaube.

Turing hatte pro Shader 64FP Einheiten und 64 INT Einheiten. Bei einer 2080 Ti also 4352FP + 4352 INT (in Summe 8704), wovon in der Praxis jedoch ca. die Hälfte der INT Einheiten schläft weil meistens mehr FP Operationen als INT berechnet werden (laut Nvidia im Schnitt 64% vs. 36%)
Ampere hat pro Shader 128FP Einheiten mit denen auch die Integer Operationen berechnet werden. Bei einer 3090 in Summe 10496 (also nur 20% mehr). Die sind dafür aber durchgend ausgelastet. Nachteil daran: INT Operationen werden unnötigerweise mit den FP Einheiten berechnet, die ca. doppelt so groß sind.

Das Gerücht, dass Ampere so viel mehr Rohleistung hat, diese aber nicht nutzen kann stammt daher, da viele nur die Anzahl der FP Einheiten Vergleichen und daraus falsche Schlüsse ziehen.

Pascal hatte übrigens dieselbe Aufteilung wie Ampere mit 128FP Einheiten pro Shader. Die FP+INT gab es nur bei Turing im Gaming Segment.

Bessere Effizienz bei gleichzeitig deutlich steigendem Verbrauch des Top Modells? Also, wenn man 60% schneller wäre als RDNA2, dann dürfte man keine 60% mehr verbrauchen, um die Effizienz zu steigern. Das klingt da aber nicht so. Also kann eine Angabe nicht wirklich stimmen. Entweder muss man noch schneller sein, oder doch nicht so viel verbrauchen, oder die Effizienz sinkt.

Verlustleistung steigt nicht linear mit dem Takt sondern vor allem im hohen Taktbereich deutlich schneller.
Wenn von Energieeffizienz gesprochen wird. so bezieht sich das in der Regel auf Verbrauch bei gleicher Performance. Wie hoch die Karten dann tatsächlich getaktet werden entscheidet das Marketing.

Was aber durchaus stimmen dürfte, ist die deutlich steigende RT Leistung. Mit deutlich mehr Rechenleistung skaliert halt auch RT entsprechend, da AMD ja teilweise keine dedizierten Schaltzungen verwendet, sondern die Rechenleistung der Shader nutzt. Und da die bisherigen Gerüchte ja von grob 3x Rechenleistung reden, sollte die RT Leistung auch entsprechend steigen.

Es stellt sich bei einer neuen Generation sowieso die Frage wie hier die Performance verglichen werden soll. Bei den Topmodellen gibt es hier meiner Meinung nach nur 2 Möglichkeiten:
a) Man testet nur Spiele mit maximalen RT Effekten (das neue "Ultra")
b) Man testet in 8K

4K Native ohne RT ist bestenfalls für einen Vergleich Nvidia vs. AMD brauchbar, nicht jedoch für den Vergleich mit der Vorgängergeneration. Das wird nur CPU limitiert sein ähnlich wie 1080p heute weil ich glaube nicht, dass Alder Lake bzw. Zen 4 bis dahin auch die Performance verdreifachen.

Nur weiß man ja nicht wirklich, wie viel NV da zu legen wird.
Aber eines ist klar: Nachdem AMD und Nvidia so dicht beisammen liegen, wie lange nicht mehr, ist die nächste Gen so spannend wie lange nicht mehr. Ich hoffe nur, dass die Preise sich bald wieder beruhigen.

Die Topmodelle werden garantiert schweineteuer. Da geht es rein um das Image und es wird das technisch maximal machbare gezeigt werden.

"Dennoch muß die genannte Terminlage in Frage gestellt werden, denn wenn AMD für die GCDs von RDNA4 tatsächlich die 3nm-Fertigung ansetzt, dürfte Ende 2023 einfach zu früh hierfür sein."
Naja, das kommt drauf an, wie groß die GCDs sind. Apple lässt seine Chips ja auch deutlich früher in den kleineren Nodes fertigen, als z.B. AMD. Weil die eben kleiner sind, geht das auch ausreichend gut. Daher kann das Multichip Design hier durchaus auch ein Vorteil sein.
Monolithen in der Größe von Top GPUs brauchen halt einen ausgereiften Prozess, um nicht zu viel Ausschuss zu bekommen. Aber kleine Chips gehen durchaus auch früher. Daher ist halt die Chipgröße relevant.

Die Größe muss nicht zwingend ein Argument sein bei AMD. Mit RDNA 4 könnten noch mehr einzelne Chips kommen. Es könnte mittelfristig überhaupt darauf hinaus laufen, dass es nur mehr 1 Chip gibt und die Karten unterscheiden sich nur dadurch wieviele davon verbaut sind (bzw. das übliche Binning bzw. deaktivierung von defekten Teilen).

Man darf jedoch eines nicht vergessen:
In der ersten Phase sind die Kosten pro Transistor noch deutlich höher als bei der Vorgängertechnologie. Apple ist bereit diesen Aufpreis zu zahlen, da sie die hohe Energieeffizienz benötigen.
Bei GPUs macht es ökonomisch keinen Sinn nur wegen etwas niedriger Verlustleistung einen Aufpreis zu zahlen. Hier passieren Shrinks primär wenn die Kosten/Transistor besser sind damit man zum selben Preis mehr Shader verbauen kann = mehr Performance zum selben Preis.

Ich könnte mir vorstellen das es wieder unterschiedliche Performance Prognosen für Rasterizer und Raytracing gibt. Das würde die erheblichen Differenzen zwischen +50% und +100% erklären.

Ich denke die Unterschiede erklären sich dadurch, dass Nvidia/AMD nur die Performance der Karte selbst betrachten (unter der Annahme dass die CPU undendlich schnell ist) während MLID and die realen Frameraten denkt und unter 4K wird da die CPU schon deutlich bremsen.

Wir werden +60% Gaming-Performance zur 6900XT sehen, aber mit einem einzelnen Chip.

Performancetechnisch stehe ich noch immer zu meiner Prognose von vor einem Monat. Da kann rumgehyped werden, wie es will.

https://pbs.twimg.com/media/E9g2yg4WEAMjbLw?format=png&name=4096x4096 (https://twitter.com/HIG5HLeader/status/1429953677163433986?s=20)

Grundsätzlich bin ich auch der Meinung, dass AMD die großen Chips von Navi31 irgendwo verwerten wird denn bei dem Preis den Navi31 kosten wird werden die Stückzahlen so überschaubar sein, dass es sich sonst nicht lohnt.

Ich denke aber du setzt Navi32 zu hoch an und Navi32 mit 1 GCD macht parallel mit Navi33 wenig Sinn.

Eine mögliche Erklärung:
.) Navi31 kommt in 1 GCD Ausführung (7900 XT) und 2 GCD (neue Titan Style Sonderedition)
.) Navi33 ist lediglich der 6nm Refresh von RDNA2 mit minimalen Änderungen.
.) Navi32 wird es vorerst gar nicht geben (gab ja auch kein Tape out) und wird erst später kommen und Navi33 ablösen wenn mehr 5nm Kapazitäten da sind.

Bei Nvidia rechne ich übrigens nicht damit, dass die aktuellen Spekulationen von +120% oder so ansatzweise erreicht werden.
Nvidia kann nicht zaubern, sorry.
Jedenfalls nicht, wenn sich das auf die Gaming-Performance beziehen soll.
Natürlich werden sie recht schnell in den MCM-Bereich nachziehen.
Anders geht es einfach nicht.

Du solltest bedenken, dass Nvidia ja derzeit noch einen Node zurück liegt aber dann beide TSMC 5nm verwenden.
Zum Vergleich: GA100 in TSMC 7nm hat 65 Mio. Transistoren/mm², GA102 hat 45 Mio. Transistoren/mm².
Also da wäre noch mehr als genug Potential. Mag sein, dass die Ausbeute bei 600+ mm² 5nm Chips nicht berauschend sein wird aber dann gibt es halt nur einen Paperlaunch.

Das was bei Nvidia ein Problem werden könnte ist der Treiber Overhead. Ich hoffe, dass sie sich hier etwas überlegt haben weil viele werden weiterhin auf das Rating 4K native ohne RT schauen.

Iscaran
2021-09-21, 22:34:29
https://twitter.com/HIG5HLeader/status/1429953677163433986?s=20
Die Wattzahlen in dieser Spekulation halte ich für völlig übertrieben und daher auch jegliche weiter Info, als ziemlich "Spekulatius".

170 W für die lowest end 2 CU Lösung, welche jetzt schon nur 150 W braucht bei dem Leistungsniveau?!?...Never ever.

Und >400W bei den "Top dogs"....Never ever.

Vielleicht bei der EINEN Karte an der Spitze der Liste.

Gast Ritis
2021-09-21, 22:48:01
60% sicher und sicher ist sonst dass höhere Top Leistung nicht sicher ist und sicher haben ein paar Quellen vermutet dass 100% Mehrleistung möglich ist gerade nachdem VCache nun funktioniert.

Und bei der Konkurrenz werden sicher 120% Mehrleistung vermutet wobei sicher ist dass man nicht weiss was damit gemeint ist weil J. Huang schon bei der letzten Gen auf der Präsentation 100% verkündet hatte.

Dann ist ja alles klar ;D

Eigentlich ist nur relevant dass wir die nächsten Monate Refreshes bekommen mit der Frage was die können und wie die Verfügbarkeit ist.
Wenn dann erst in Q4 die neue Gen kommt haben wir zum Osterhasen was zur Performance worüber sich diskutieren lohnt. ;)

Geldmann3
2021-09-21, 23:08:01
Wäre es möglich, dass Navi 32 einfach 2xNavi 31 ist?
Daher die Lücke.

Geldmann3
2021-09-21, 23:17:06
https://twitter.com/HIG5HLeader/status/1429953677163433986?s=20
Die Wattzahlen in dieser Spekulation halte ich für völlig übertrieben und daher auch jegliche weiter Info, als ziemlich "Spekulatius".

170 W für die lowest end 2 CU Lösung, welche jetzt schon nur 150 W braucht bei dem Leistungsniveau?!?...Never ever.

Und >400W bei den "Top dogs"....Never ever.

Vielleicht bei der EINEN Karte an der Spitze der Liste.

Bei mindestens 400W Leistungsaufnahme an der Spitze bin ich mir lustigerweise recht sicher. Wäre aber durchaus möglich, dass es nur die Toplösung ist, die das tut. Wahrscheinlich sind es aber 2 Karten. Die 170W liegen schlicht daran, dass an der aktuellen Lösung, außer dem eventuellen Shrink zu 6nm und mehr Takt, nicht viel passiert. Eventuell wird der Takt weiter hochgeschraubt, als, dass es die minimal bessere Fertigung ausgleichen könnte. Einfach, weil es stabil läuft und Konkurrenz da ist. Bei den 170W bin ich mir allerdings deutlich weniger sicher, als bei den 400W+ ganz oben. Das könnten auch 140W, 160W oder gar 180W sein. Was AMD da am Ende draufschreibt, muss erfahrungsgemäß auch nicht ganz der Praxis des Stromverbrauchs entsprechen. Diese Werte sind immer mit etwas Vorsicht zu genießen, selbst, wenn sie vor dem Release offiziell sind.

Gast
2021-09-22, 01:01:58
400W an der Spitze der beiden Paletten ist wahrscheinlich. Mehrfach thematisiert. Wer nicht will, der will halt nicht.

War der Golem-Artikel nicht schon mal verlinkt? Nach "18.8." habe ich gar nicht mehr weiter gelesen. Die Auswahl der CPUs war wohl dem geschuldet, was man ohne Aufwand besorgen konnte und deshalb Mist. Bei Jasper Lake N6005 mit 10W, bei Gemini Lake (Refresh) J5040 mit 10W. Die 6W-Modelle verlieren im Multicore einfach mal grob 40%. Da hätte womöglich ein 2Core-10W mit Base 2.0 besser ausgesehen als 4Core-6W mit 1.1 Base aus gleicher Generation.
Wenig brauchbar zur Abschätzung von Gracemont (in Alderlake) ist das alles sowieso. AVX(2), iGPU, TDP, ... Das Thema hatten wir schon mehrfach u.a. im Rahmen von AVX(2/512).

Geldmann3
2021-09-22, 04:09:21
Mehr als 400W. :rolleyes:

Schakar
2021-09-22, 08:04:37
Wird Zeit für eine gesetzliche Verbrauchsregelung. Von selber wird da keiner mit dieser irrsinnigen Energieverschwendung aufhören.

Und für die Preisentwicklung dürfen wir uns bei Cyper Geld und Scalpern bedanken bzw bei denen, die ohne Not (alte GPU kaputt) für die Preise trotzdem kaufen. War doch klar, dass weder AMD noch NVidia (und ihre Zulieferer) sich das entgehen lassen und auch mit abschöpfen wollen.

Geldmann3
2021-09-22, 08:24:03
Rechenleistung ist die Zukunft. Sie künstlich über die Leistungsaufnahme zu limitieren halte ich für eine unnötige Bremsung des Fortschritts. Es gibt mehr als genug Energie im Universum für uns, wir müssen nur effizientere Wege finden, sie zu nutzen und brauchen günstigeren Strom.

Man soll mich doch so viel Energie verbrauchen lassen, mit meiner Hardware, wie ich möchte, solange ich ausgleichend dafür zahle. Viel zu viel dafür zahle, in meinen Augen.

Legendenkiller
2021-09-22, 10:45:01
https://twitter.com/HIG5HLeader/status/1429953677163433986?s=20
Die Wattzahlen in dieser Spekulation halte ich für völlig übertrieben und daher auch jegliche weiter Info, als ziemlich "Spekulatius".

170 W für die lowest end 2 CU Lösung, welche jetzt schon nur 150 W braucht bei dem Leistungsniveau?!?...Never ever.

Und >400W bei den "Top dogs"....Never ever.

Vielleicht bei der EINEN Karte an der Spitze der Liste.

Klar haben die 500W und die Customs dann 550W+ Ansosnten sind keine +100%+ @3090 machbar.
Die 3080ti custom hat heute schon 440W.

und aktuell haben die "kleinsten" Karten schon 160/170W. Wenn sie also mit nur 170W kommen ist das schon fast positiv.
Was nicht heiß das sie nicht auch mit 120W baubar wären, der TRend ist aber aktuell dann mit +50W Werks OC noch weiter 10% rauszuquetschen.

Solage die Leute nach FPS/Euro kaufen und effizentere Karten nicht bezahlen wollen, bleibt das auch so.

Lehdro
2021-09-23, 15:48:38
Das ist leider ein weit verbreiteter Irrglaube.

[...]

Das Gerücht, dass Ampere so viel mehr Rohleistung hat, diese aber nicht nutzen kann stammt daher, da viele nur die Anzahl der FP Einheiten Vergleichen und daraus falsche Schlüsse ziehen.

Das Grab hat sich NV höchstselbst geschaufelt, da können sie von mir aus gerne drin verrecken. Beklopptes Marketing verwandelt sich in einen Bumerang, Folge 312424.

Gast
2021-09-24, 11:14:25
Das Grab hat sich NV höchstselbst geschaufelt, da können sie von mir aus gerne drin verrecken. Beklopptes Marketing verwandelt sich in einen Bumerang, Folge 312424.Die User haben einfach nicht zugehört. Die Fachpresse hat in dem Fall durchaus korrekt berichtet, aber man musste schon mehr als die Überschriften lesen.

Ob Spiele denn GPUs so nutzen, dass '2x FP32 von Turing - wenn man kein INT32 nutzt!' was bringt, geschweige denn so viel wie beworben, habe ich mich instant gefragt. Da ich das nicht prüfen konnte, habe ich es nur so nebenher erwähnt - hat niemand bemerkt :-)

Troyan
2021-09-24, 14:03:43
Das Grab hat sich NV höchstselbst geschaufelt, da können sie von mir aus gerne drin verrecken. Beklopptes Marketing verwandelt sich in einen Bumerang, Folge 312424.

Wieso ist eine 3070 mit 4MB L2 Cache eigentlich Lichtjahre schneller als die 6700XT mit 24x mehr L3 Cache? Seltsam oder? Ach stimmt, ist AMD. Da nehmen wir es nicht so genau und lassen uns fröhlich verarschen. ;D

Leonidas
2021-09-24, 15:17:50
3070 hat größeres Interface als 6700XT. Und sogar mehr SM, damit Takt-normiert doppelte FP32-Power. Und Lichtjahre mehr sind es natürlich nicht, es ist ein vergleichsweise harmloser Unterschied.

WedgeAntilles
2021-09-24, 16:24:56
Das Grab hat sich NV höchstselbst geschaufelt, da können sie von mir aus gerne drin verrecken. Beklopptes Marketing verwandelt sich in einen Bumerang, Folge 312424.
Wieso Grab und wieso Bumerang?
Nvidia erhöht mit Ampere seinen Marktanteil. Erzielt Rekordabsätze und damit auch Rekordgewinne - so abgrundtief miserabel wie hier im Forum scheint Ampere auf dem Weltmarkt nicht anzukommen, oder?

Merke: Das 3DC hat mit dem Weltmarkt 0 zu tun - und auch wenn es manche erschrecken mag: Die Meinung des 3DC interessiert eine Firma wie Nvidia auch einen Dreck.

Was hier immer als Debakel, Grab oder sonstwas für Nvidia und Intel bezeichnet wird interessiert diese Firmen nicht im geringsten - da es außerhalb des 3DC auch keinen interessiert. Und die Firmen nicht fürs 3DC entwickeln sondern für den Weltmarkt.
Bestes Beispiel dafür ist ja der "Krüppelram" - außerhalb des 3DC interessiert es halt keinen. Hier gilt Ampere ja dadurch als "für die Tonne" und was weiß ich was.
Bin ich persönlcih mit 8GB einer 3070 oder 10GB einer 3080 glücklich? Nein, natürlich nicht.
Nur: Es interessiert weltweit gesehen so gut wie keinen der Käufer.


Edit: Damit kein Missverständnis aufkommt: Ich sage nicht, dass es gut ist. Objektiv kann es beim Ram keine zwei Meinungen geben, dass drei Generation mit der gleichen Ram-Menge schlicht und ergreifend eine zuviel ist. Und 8GB für eine 3070 zu knapp sind (vor allem bei den aktuellen Preisen...)
Aber wir im 3DC halten uns für viel zu sehr "Nabel der Welt" und haben quasi keine Ahnung, was für die riesige Masse der Konsumenten interessant und wichtig ist.
Da liegen Welten dazwischen.