PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 [36] 37 38 39 40 41

robbitop
2023-01-08, 11:59:16
Wollte ich ursprünglich auch. Aber dann dachte ich für 1400€ bekommste gerade mal knapp mehr als halb so viele SMs wie AD102 im Vollausbau und fühlte mich zu art verarscht/ausgebeutet.
Wäre auch die mit Abstand teuerste GPU in meinem Leben gewesen. Wenn man bedenkt dass man zu Pascal für das halbe Geld absolutes High End bekommen hat. Wenn man sich dagegen high end CPUs anschaut (die ja auch Teuerung der Fertigung und Inflation unterliegen und auch irre viel RnD kosten) kann man nur sagen, dass dort die Preise kaum gestiegen sind man also bei GPUs einfach nur abgezockt wird.
Ich kaufe erstmal nur Gebraucht um das nicht zu unterstützen. Obwohl für mich ein paar Tausender ein Klacks wären geht es mir ums Prinzip.

AffenJack
2023-01-08, 13:06:23
Wenn man sich dagegen high end CPUs anschaut (die ja auch Teuerung der Fertigung und Inflation unterliegen und auch irre viel RnD kosten) kann man nur sagen, dass dort die Preise kaum gestiegen sind man also bei GPUs einfach nur abgezockt wird.

Das Argument macht keinen Sinn. Deine High-End CPU wird für 1000$ verkauft bei 50$ Produktionskosten und hat schon immer viel höhere Margen. Die High End GPU hat vielfach höhere Produktionskosten. Natürlich machts bei der CPU nix aus, ob die Produktionskosten nun 20 oder 50 sind durch die letzten Jahre. Bei GPUs sind da eher bei der Frage ob es 50 oder 200$ sind.

Lurtz
2023-01-08, 13:16:58
[Rumor] Nvidia is working on AI optimized drivers. Release maybe this year (Q1).
▶️ Up to 30% more performance
▶️ Average improvement ~10%
▶️ No info about specific gen
Take this with a grain of salt. If true Nvidia drivers will be real "fine wine".
https://twitter.com/CapFrameX/status/1612045279716425729

Troyan
2023-01-08, 13:25:46
Liest sich wie ausgedacht.

BlacKi
2023-01-08, 13:27:27
ja, aber ist denn capframe denn für falsche leaks bekannt? naja, für die meisten ist das nur ein gern gesehenes +, keine kaufentscheidung.

Linmoum
2023-01-08, 13:38:37
Achja, CapFrameX. Großspurig damals bei Rocket Lake von 5.6GHz geschrieben, darauf warte ich bis heute noch.

robbitop
2023-01-08, 14:47:34
Das Argument macht keinen Sinn. Deine High-End CPU wird für 1000$ verkauft bei 50$ Produktionskosten und hat schon immer viel höhere Margen. Die High End GPU hat vielfach höhere Produktionskosten. Natürlich machts bei der CPU nix aus, ob die Produktionskosten nun 20 oder 50 sind durch die letzten Jahre. Bei GPUs sind da eher bei der Frage ob es 50 oder 200$ sind.
Zumindest das GPU Silizium hatte Ian ja mal ausgerechnet für AD102 was das bei tsmc kostet. Das war ein Bruchteil vom Kaufpreis.

Da wird mit Sicherheit fettig verdient.

Gott1337
2023-01-08, 15:17:04
Zumindest das GPU Silizium hatte Ian ja mal ausgerechnet für AD102 was das bei tsmc kostet. Das war ein Bruchteil vom Kaufpreis.

Da wird mit Sicherheit fettig verdient.
Natürlich verdienen die da nicht schlecht, aber dennoch sind die Produktionskosten 8-16x höher als bei einer Popeligen CPU

robbitop
2023-01-08, 15:46:13
Mag sein das hat sich aber auch nicht über Nacht von der letzten Gen geändert. Jeder neue Prozess kostet mehr das ist nicht erst seit 5 nm so. Das ist aber die Narrative um die hohen Preise zu rechtfertigen. Die haben garantiert die Gewinnspanne (die vorher schon fettig war) erweitert.

Gott1337
2023-01-08, 16:08:30
Doch die Kühler, PCBs, RAM etc. wurde alles teurer. bei den CPUs eben nur das bissl Silizium.

Eher wurden die Gewinnspannen bei den CPUs verbessert, denn da kommen ja noch mehr chips von AMD drauf.
Der Kühler einer 4090 kostet mit Sicherheit 6x mehr als eine CPU

robbitop
2023-01-08, 16:12:40
Na mal auf den Quartalsbericht Q1 2023 warten. Ich wette Marge und Gewinn wird dank Ada noch krasser sein als er sowieso schon ist.

Timbaloo
2023-01-08, 16:15:33
Mag sein das hat sich aber auch nicht über Nacht von der letzten Gen geändert. Jeder neue Prozess kostet mehr das ist nicht erst seit 5 nm so. Das ist aber die Narrative um die hohen Preise zu rechtfertigen. Die haben garantiert die Gewinnspanne (die vorher schon fettig war) erweitert.
Naja, wenn es in wirklich so ist, dass der Preis pro Transistor ungefähr gleich bleibt, dann hast deine Steigerung ja schon.

Die letzten Generationen wurden ja auch schon immer teurer (für das gebotene).

Und ja, ich glaube auch, dass die Marge hochgeht. Aber hier muss man auch bedenken, dass in der letzten Gen ein nicht unerheblicher Teil der Marge bei Händlern und Skalpern gelandet ist.

Und nein, toll finde ich die Preise auch nicht...

robbitop
2023-01-08, 16:24:08
Das Silizium ist sicherlich teurer geworden. Aber das macht einen mini Popel Bruchteil an der UVP aus. Ich meine es waren weit unter 200 usd für ad102 von tsmc. Selbst bei einer Verdopplung wäre die legitime Preiserhöhung halt nur der Teil. Aber die haben halt alles prozentual hochgezogen. Gerade bei der 80.

AMD hat auch keinen Bock auf Preiskampf also können sie alle fette Margen ziehen. Jetzt kann man nur darauf hoffen, dass Intel irgendwann mal den Markt aufmischt. Da ist viel zu viel Fett dran am Fleisch.

Sunrise
2023-01-08, 17:21:29
Das Silizium ist sicherlich teurer geworden. Aber das macht einen mini Popel Bruchteil an der UVP aus. Ich meine es waren weit unter 200 usd für ad102 von tsmc. Selbst bei einer Versopplung wäre die legitime Preiserhöhung halt nur der Teil. Aber die haben halt alles prozentual hochgezogen. Gerade bei der 80.

AMD hat auch keinen Bock auf Preiskampf also können sie alle fette Margen ziehen. Jetzt kann man nur darauf hoffen, dass Intel irgendwann mal den Markt aufmischt. Da ist viel zu viel Fett dran am Fleisch.
Der Vorsprung wird IMHO von Gen zu Gen beträchtlich größer und für mögliche Konkurrenten entweder außerhalb des möglichen oder gewollten Budgets. Der Witz ist ja, selbst wenn jemand aufschließen sollte, muss ja nicht nur die HW passen, sondern auch alles außenrum irgendwie konkurrenzfähig sein, was aber wahrscheinlich auch nicht reicht.

Wenn Intel schon solche Probleme hat (auch wenn Intel hier beileibe kein gutes Beispiel ist…), hab ich da keine große Hoffnung. Das könnten nur noch IHVs mit ordentlichen Bergen an Cash zum Risiko oder einer (wie AMD) sehr guten, kontinuierlichen Kosten-/Nutzen-Planung, wie es Lisa vorgemacht hat. Was wahrscheinlich der Grund ist, warum sie sich lieber etwas zurückhalten, weil das letzten Endes einfach zu teuer für den möglichen Gewinn ist.

robbitop
2023-01-08, 17:31:54
Naja N31 kann ja sehr gut mit AD103 mithalten und ist günstiger. Aber halt auch nicht richtig richtig günstig. Und NV macht bei SW Initiativen einfach den viel besseren Job. So kommt AD103 halt kaum unter Druck.

Intel hat ja immerhin ein NN basierendes Upsamplingverfahren geliefert (was in der VMX Version auch gar nicht schlecht aussehen kann) und moderne RT HW und Matrixcores verbaut. Mehr als man von AMD sagen kann. Das Potenzial ist da und high level sieht xehpg nach einer modernen gpu ip aus. Sie prügeln sich halt mit 1st Gen Problemen rum. Kein Treiberfundament aus vielen Jahren und praktisch ein kompletter Rewrite der uArch. Wenn sie die Mittel nicht gekürzt bekommen und dran bleiben ist die Hoffnung noch nicht verloren.

Thunder99
2023-01-08, 17:34:13
Wollte ich ursprünglich auch. Aber dann dachte ich für 1400€ bekommste gerade mal knapp mehr als halb so viele SMs wie AD102 im Vollausbau und fühlte mich zu art verarscht/ausgebeutet.
Wäre auch die mit Abstand teuerste GPU in meinem Leben gewesen. Wenn man bedenkt dass man zu Pascal für das halbe Geld absolutes High End bekommen hat. Wenn man sich dagegen high end CPUs anschaut (die ja auch Teuerung der Fertigung und Inflation unterliegen und auch irre viel RnD kosten) kann man nur sagen, dass dort die Preise kaum gestiegen sind man also bei GPUs einfach nur abgezockt wird.
Ich kaufe erstmal nur Gebraucht um das nicht zu unterstützen. Obwohl für mich ein paar Tausender ein Klacks wären geht es mir ums Prinzip.
Absolut verständlich und ich wollte erst mal auch nicht es kaufen. Aber seit kurzem weiss ich, dass ich in paar Monaten nicht mehr viel Zeit habe zum zocken und daher habe ich mir die Karte gekauft. Die 4090 war mir dann doch zu teuer daher die 4080 geholt mit Import von DE nach CH was ja auch spart dank niedrigere Steuer :)

Timbaloo
2023-01-08, 17:37:54
Wenn Intel schon solche Probleme hat (auch wenn Intel hier beileibe kein gutes Beispiel ist…), hab ich da keine große Hoffnung. Das könnten nur noch IHVs mit ordentlichen Bergen an Cash zum Risiko oder einer (wie AMD) sehr guten, kontinuierlichen Kosten-/Nutzen-Planung, wie es Lisa vorgemacht hat. Was wahrscheinlich der Grund ist, warum sie sich lieber etwas zurückhalten, weil das letzten Endes einfach zu teuer für den möglichen Gewinn ist.
Naja, intel mag Probleme haben, aber das wirkliche Problem wird sein, ob man sich selbst den langen Atem gönnt, oder halt doch nach 2-3 Generationen einen Rückzieher macht. Treiber werden sie irgendwann in den Griff bekommen (ist ja nicht so, dass die Treiber der Konkurrenz perfekt laufen...).

Bei intel als quasi Neueinsteiger muss man halt auch bedenken, dass mit so Themen wie DLSS/XeSS/FSR und Raytracing das Technikset in gewisser Weise neu gemischt wird, ergo auch weniger Rückstand aufzuholen ist. Durch den Wechsel von DX11 auf DX12/Vulkan wird die Treiberarbeit evtl. auch ein wenig einfacher.

Und sollte intel ihre eigene Fertigung mal wieder besser in den Griff bekommen und vielleicht an TSMC rankommen und GPUs inhouse fertigen... intel wird recht gut die Margen bei AMD und NV GPUs einschätzen können. Ich denke die haben Bock auf einen Teil des Kuchens.

robbitop
2023-01-08, 17:41:08
Sehe ich auch so. Man braucht für einen Neueinstieg in die GPU Welt einfach ein paar Generationen. Das muss jedem, der das authorisiert hat von vorn herein klar gewesen sein. Wer bei Intel im Management da jetzt überrascht sein sollte, dass die 1st gen nicht mithalten kann, ist ein Dulli und sollte lieber bei Walmart arbeiten gehen.

Exxtreme
2023-01-08, 19:23:29
Sehe ich auch so. Man braucht für einen Neueinstieg in die GPU Welt einfach ein paar Generationen. Das muss jedem, der das authorisiert hat von vorn herein klar gewesen sein. Wer bei Intel im Management da jetzt überrascht sein sollte, dass die 1st gen nicht mithalten kann, ist ein Dulli und sollte lieber bei Walmart arbeiten gehen.

Naja, eventuell geht das Management ja davon aus, dass Intel da kein Neueinsteiger ist wegen der IGPUs. Was durchaus so stimmt und Intel da definitiv Knowhow nutzen kann. Klar, die Hardware ist anders aber die Nutzung der APIs ala DirectX halt nicht.

Und Intel macht das auch nicht ungeschickt, dass sie die Grafikkarten unter 400 € anbieten. Sie sind zwar nur so schnell, dass sie 1080p reichen aber da ist sowieso die Masse an Spielern.

KarlKastor
2023-01-09, 01:33:58
Intel sieht ja wie der Markt aussieht. Die Marge ist da nicht zu verachten. Für HPC brauchen sie die Technologie auch. Ich sehe nicht warum Intel da stoppen sollte. Aber gut, gewisse Fortschritte wird man bei den nächsten Generationen erwarten.

Gott1337
2023-01-09, 02:38:15
Na mal auf den Quartalsbericht Q1 2023 warten. Ich wette Marge und Gewinn wird dank Ada noch krasser sein als er sowieso schon ist.
glaubste wirklich das sich die 300k GPUs so stark auswirken werden?

robbitop
2023-01-09, 16:31:16
Naja, eventuell geht das Management ja davon aus, dass Intel da kein Neueinsteiger ist wegen der IGPUs. Was durchaus so stimmt und Intel da definitiv Knowhow nutzen kann. Klar, die Hardware ist anders aber die Nutzung der APIs ala DirectX halt nicht.

Und Intel macht das auch nicht ungeschickt, dass sie die Grafikkarten unter 400 € anbieten. Sie sind zwar nur so schnell, dass sie 1080p reichen aber da ist sowieso die Masse an Spielern.
Das stimmt formal zwar aber deren IGPs waren nie wirklich im Geiste für Spiele optimiert. Weder die HW noch die SW. Entsprechend musste man bei vielem einfach bei Null anfangen oder halt beinahe. Der Rückstand war einfach viel zu groß, um auf dem alten Kram aufzubauen.

Ich vermute, Intel macht mit ARC aktuell Verlust. Aber so ist das nunmal. Wenn man auch nur im Entferntesten eine Chance haben will, heißt das: ein paar Generationen richtig Geld verbrennen und dran bleiben. Das geht nur mit absolutem Commitment.

glaubste wirklich das sich die 300k GPUs so stark auswirken werden?
Na oder Q2 dann eben. ;)
Bis dato kennt (zumindest aus Trendsicht(!) - also moving average - es gab hin und wieder mal ein Quartal wo man mächtig Abschreibungen machen musste weil man Crypto überschätzt hat) die Marge langfristig dort nur einen Weg: nach oben (ergo ist eine Menge Luft drin, die ein Preiskampf mit würdigen Wettbewerbsprodukten potenziell freisetzen könnte). Die Marge der Boardpartner macht übrigens den umgekehrten Weg. Ich hatte neulich mal einen Graph von John Peddy Research gesehen, der die Schere der Marge zwischen NV und Boardpartner über die Jahre gezeigt hat. Schon krass. Sowas wie EVGA kommt ja auch nicht aus dem Nichts.

Thunder99
2023-01-09, 21:32:41
Und doch wieder ein Rückzieher gemacht. Warte nun doch ab wie es sich entwickelt. Wirklich nötig habe ich es derzeit nicht da der Nutzen noch sehr in Grenzen hält.

Die kleineren Karten haben wohl dann bei 4070 10 und 4060(Ti) 8 GB, oder?

dildo4u
2023-01-10, 04:09:08
4070 soll weiterhin 12GB haben.

https://wccftech.com/nvidia-geforce-rtx-4070-founders-edition-pictured-utilize-ad104-250-251-gpus-200w-tgp/

basix
2023-01-10, 04:56:34
Gibt noch eine 4060 Ti mit vermutlich 10GB. Passt doch.

dildo4u
2023-01-10, 05:50:03
Ich vermute die 192Bit sind Pflicht für 3080 Performance daher 12GB, die 4060 Ti wir bei der 3070 Ti landen.

OgrEGT
2023-01-10, 05:55:42
Und doch wieder ein Rückzieher gemacht. Warte nun doch ab wie es sich entwickelt. Wirklich nötig habe ich es derzeit nicht da der Nutzen noch sehr in Grenzen

Zurück zu Deiner 1080ti?

DrFreaK666
2023-01-10, 07:15:10
Gibt noch eine 4060 Ti mit vermutlich 10GB. Passt doch.

Nachdem die 3060 12GB hatte :ugly:

Spring
2023-01-10, 08:23:25
Performance-Schub: Nvidia könnte an KI-optimierten Treibern arbeiten (https://winfuture.de/news,133925.html)

Deshalb könnte Nvidia seine Software bald mit KI-Optimierungen ausstatten. Sollte sich ein über das Twitter-Konto von CapFrameX verbreitetes Gerücht als wahr herausstellen, wäre es denkbar, dass die überarbeiteten Treiber noch im ersten Quartal des neuen Jahres das Licht der Welt erblicken.

Während eine maximale Performance-Steigerung von bis zu 30 Prozent erreicht werden soll, werden im Durchschnitt angeblich zehn Prozent mehr Leistung erzielt. Ob sich die Verbesserungen ausschließlich auf die GeForce RTX 40-Reihe beschränken oder auch ältere Modelle von den KI-optimierten Treibern profitieren sollen, bleibt offen. Dem Team hinter dem Analyse-Tool CapFrameX zufolge könnten KI-Algorithmen unter anderem zum Einsatz kommen, um Verbesserungen in den Bereichen Instruktionen, Durchsatz, Auslastung, Threading sowie Einstellungen vorzunehmen.

Der Wundertreiber :ugly: "KI optimiert" ist ja sehr vage umschrieben, aber wenn real 10% mehr raus kommen (wenn es denn so ist), why not.

Asaraki
2023-01-10, 09:10:22
KI :D Data mining auf unzählige Datensätze mit Performancedaten ist das... glaube kaum, dass die KI den veränderten Treibercode ausgespuckt hat ;) Wenn das "KI optimiert" ist, dann werden grosse Serverlandschaften aber schon seit den 90ern KI-optimiert :D

Ist aber eine gute Praxis und sehe nicht, wieso das nicht mit Treibern ebenfalls funktionieren sollte. Realistisch hat man vermutlich ein paar Pfade gefunden, die nicht so kurz/effizient sind wie gedacht. Es ist realistisch ja unmöglich einen solchen Code komplett durchzutesten.

Würde mich ebenfalls nicht wundern wenn die Daten von GeforceNow oder wie das hiess kamen. Schöne Landschaft um eben jene Unterschiede in der Execution zu finden.

Exxtreme
2023-01-10, 09:11:50
"KI optimiert" könnte auch heissen, dass sie DLSS 3 in jedem Spiel aktivieren.

Asaraki
2023-01-10, 09:23:36
"KI optimiert" könnte auch heissen, dass sie DLSS 3 in jedem Spiel aktivieren.

Das wär aber sehr intrusiv :D

DrFreaK666
2023-01-10, 10:30:05
Die konnten mit einer KI endlich mal den CP modernisieren

just4FunTA
2023-01-10, 11:12:42
"KI optimiert" könnte auch heissen, dass sie DLSS 3 in jedem Spiel aktivieren.

Das Ki optimiert für Nvidia heißt DLSS war auch mein erster Gedanke, woher soll man sonst plötzlich 30% herkriegen?

Asaraki
2023-01-10, 11:15:16
Das Ki optimiert für Nvidia heißt DLSS war auch mein erster Gedanke, woher soll man sonst plötzlich 30% herkriegen?

Schlechte / obsolete Pfade im Treiber. 30% ist in diesem Sinne nicht wirklich viel, heisst ja nur dass der alte Pfad ~42% zu lange/langsam ist.

Die 30% werden ja vermutlich in irgendeinem komischen Extremfall auftreten, merken werden wir davon überhaupt nichts ^^

DLSS würde ja teilweise deutlich mehr bringen als nur die 10%, dann würden sie eher von generell 30% reden und es wäre auch eine ziemliche Verarsche, denn DLSS einbauen ist keine Optimierung des Treibers ^^

Halte ich erstmal für sehr unwahrscheinlich.

robbitop
2023-01-10, 11:22:09
Das wird bereits (auch zT durch Shaderassembly) zu Tode optimiert. 30% Optimierungen ohne BQ Settings zu verändern? Das wäre sehr optimistisch.

Asaraki
2023-01-10, 11:30:29
Das wird bereits (auch zT durch Shaderassembly) zu Tode optimiert. 30% Optimierungen ohne BQ Settings zu verändern? Das wäre sehr optimistisch.

Im Schnitt 10% sagen sie ja. Immer noch optmistisch für "Optimierungen", aber realistischer als die 30%.
AMD schafft das doch auch alle paar Jahre, nicht? ^^

Aber ja, bin gespannt was das sein soll und ob es so kommt.

Exxtreme
2023-01-10, 11:38:43
Das wird bereits (auch zT durch Shaderassembly) zu Tode optimiert. 30% Optimierungen ohne BQ Settings zu verändern? Das wäre sehr optimistisch.

Naja, das ist eine "bis zu"-Angabe. Und neulich haben sie auch bei Ampere auch ordentlich Leistung gefunden.

dildo4u
2023-01-10, 11:41:50
Der NV Treiber hat je nach Game immer noch Probleme unter DX12.
Vorallem mit RT.

https://youtu.be/FgVVrmoumcw?t=1250

Troyan
2023-01-10, 11:43:59
Der NV Treiber hat je nach Game immer noch Probleme unter DX12.
Vorallem mit RT.

https://youtu.be/FgVVrmoumcw?t=1250

Genau. Macht absolut sinn. Muss der Treiber und nicht die güllige API sein. :freak:

Lerne endlich was DX12 ist.

dildo4u
2023-01-10, 11:48:04
Klar ist es der Treiber hier sinds mal ebend 20%+ in Valhalla und Cyberpunk.

https://www.tomshardware.com/news/rtx-4090-game-ready-driver-dx12-optimizations

NV setzt vermutlich drauf das Frame Generation diese CPU Limits umgeht.

robbitop
2023-01-10, 11:56:07
Nicht mit einem magischen Treiber. Und nirgends 30%. Auch nicht up to.

dildo4u
2023-01-10, 12:01:27
Wie oben Verlinkt 4090 ganze 13% schneller als 4070 Ti mit RT in The Callisto Protocol +30% ist dort lange nicht genug.

7900XTX vs 4080 deutlich geringere GPU Auslastung bei Nvidia.

https://youtu.be/WoO46EDxW2s?t=787

Troyan
2023-01-10, 12:10:33
Klar ist es der Treiber hier sinds mal ebend 20%+ in Valhalla und Cyberpunk.

https://www.tomshardware.com/news/rtx-4090-game-ready-driver-dx12-optimizations

NV setzt vermutlich drauf das Frame Generation diese CPU Limits umgeht.

Die haben einfach per Treiber pattern erkannt und fixen Probleme, die der Spieleentwickler fixen sollte. Dafür ist DX12 nämlich gedacht.

Thunder99
2023-01-10, 13:35:12
Zurück zu Deiner 1080ti?
Ja, muss wieder Signatur aktualisieren :D

Gott1337
2023-01-10, 16:47:02
Wie oben Verlinkt 4090 ganze 13% schneller als 4070 Ti mit RT in The Callisto Protocol +30% ist dort lange nicht genug.

7900XTX vs 4080 deutlich geringere GPU Auslastung bei Nvidia.

https://youtu.be/WoO46EDxW2s?t=787
Wir alle wissen das die UE4 auch Probleme mit RT hat, deine Soße spricht von einer UE5 Engine, zeigt aber Callisto Protocol... was bekanntermaßen UE4 ist. und wen interessiert ein Spiel?
€dit: ok da sind ja viel mehr Spiele im Video drin, aber kaum UE5 Titel also merkwürdiger Titel fürs Video.

Dennoch performen die anderen ganz normal auf der 4080 also who cares. Callisto Protocol hat doch noch viele bugs

HOT
2023-01-10, 19:10:15
Hm mal sehen, wie die CPU-Auslastung dann bei UE5 wird. Wäre sogar möglich, dass diese steigt.

Hakim
2023-01-10, 20:04:10
Puh ich hoffe das Gerücht mit dem RTX 4060Ti mit AD106 bei 8GB@128 Bit stimmt nicht. Aber zuzutrauen wäre es NV auf jeden Fall :). 10GB@160 Bit wäre doch eher angemessen.

Fragman
2023-01-10, 20:55:35
Eine 10GB Version kann man bei 599,- vielleicht sogar 649,- Euro erwarten.
Also wenn man eher auf den Preis schaut, sollte man bei der 40ziger Gen wohl auf eine 8GB Version hoffen.

dargo
2023-01-13, 12:15:29
Tolle Performanceprognose für die 4060TI. :D

mFKZIl6bVI0

DrFreaK666
2023-01-13, 12:27:54
abwarten was AMD da anzubieten hat

Prinzenrolle
2023-01-13, 12:34:58
Tolle Performanceprognose für die 4060TI. :D

Ist nur Murks. Die 4060Ti wird round about 20 bis 30% schneller als die 3060Ti sein und auf dem Niveau einer 3070Ti liegen.

dildo4u
2023-01-13, 13:32:58
Der Vram ist das Problem nicht die Rohleistung die Karte fällt schon wegen den 8GB aus.
Da AMD für die 12GB Karten 5nm nutzt würde ich nicht mit einem Schnäppchen rechnen nur die 7600XT hat das Potenzial für 300€.
Alles mit 12GB ist erstmal 500€ + wenn die 7800XT für 650€ kommt.

Platos
2023-01-13, 19:09:09
abwarten was AMD da anzubieten hat

Wenn man sich die bisherigen RDNA 3 Produkte anschaut wohl nur crap.

Schnitzl
2023-01-13, 21:55:14
Tolle Performanceprognose für die 4060TI. :D

https://youtu.be/mFKZIl6bVI0

Prozentrechnen ist nicht gerade seine Stärke ;D

dargo
2023-01-13, 22:08:58
Prozentrechnen ist nicht gerade seine Stärke ;D
Sicher, dass es nicht auf dich zutrifft? Denn ich habe alle Balken gegengeprüft und die Prozentwerte stimmen alle. ;)

KarlKastor
2023-01-14, 07:40:50
Sicher, dass es nicht auf dich zutrifft? Denn ich habe alle Balken gegengeprüft und die Prozentwerte stimmen alle. ;)
Garantiert nicht. Die Endwerte stimmen vielleicht, aber was er erzählt ist totaler Quatsch.
Er sagt, die 4060TI hätte 76.5% weniger Shader Cores als die 4070Ti.
Das wären von 7680 noch 1850.
Was stimmt ist, dass die 4070Ti 76.5% mehr hat als die 4060Ti (so die Gerüchte überhaupt stimmen).
Später sagt er die 4060Ti wäre 76.5% langsamer als die 4070 Ti.

dargo
2023-01-14, 08:03:51
Garantiert nicht.

Garantiert doch, die Prozentwerte der Balken stimmen. :rolleyes: Mündlich sind da natürlich paar Fehler drin.

Rampage 2
2023-01-14, 09:54:22
Meine Speku:

4070 Ti: 60 SM, 192 Bit, 12GB GDDR6X @ 21Gbps
4070: 52-56 SM, 192 Bit, 12GB GDDR6 @ 18-20Gbps
4060 Ti: 44-48 SM, 192 Bit, 12GB GDDR6 @ 16Gbps

Die 4060 Ti hätte dann nur 4 von 5 aktiven GPCs und würde leistungsmäßig irgendwo zwischen 3080 und 3070 Ti liegen. Durch den unterschiedlich hohen Speichertakt bei aber gleich breitem Speicherinterface können alle 3 Modelle mit 12GB VRAM bestückt werden.

R2

DrFreaK666
2023-01-14, 10:30:26
12GB auch bei der 4060Ti? Das glaube ich nicht

=Floi=
2023-01-14, 10:36:52
bei nv sicher nicht.
Da hätte die 4070 schon 16gb und die 80er ebenfalls mehr.

BlacKi
2023-01-14, 10:39:12
sind die ansprüche nicht etwas hoch, das man mit einer Xx50/60 alles ultra spielen können muss?

ich denke 8gb wären ok, wenn der preis stimmt. das ist wohl eher das problem.

=Floi=
2023-01-14, 11:32:23
du verstehst nicht, was vram bringt. Bessere texturen bringen auch auf 1080p etwas und sind am günstigsten bezogen auf die benötigte leistung.
Wie so oft gesagt verkürzt wenig vram effektiv das leben der karte.

robbitop
2023-01-14, 11:48:00
Texturdetails kosten keine Leistung. Entsprechend macht vram schon Sinn. Und günstig wirds bei NV auch mit wenig vram nicht. ;)

BlacKi
2023-01-14, 12:04:09
Texturdetails kosten keine Leistung. Entsprechend macht vram schon Sinn. Und günstig wirds bei NV auch mit wenig vram nicht. ;)das stimmt so nicht.


es ist fakt das die cpu mehr arbeiten muss und die frametimes oft schlechter sind. siehe esport settings.


und rate mal was in günstigen gaming pcs ebenfalls nicht übermäßig vorhanden ist? cpu leistung und damit gute fps.


ich meine, die leute haben sich letztes jahr beschwert, das die 3060 zuviel vram hat. das 8gb besser gepasst hätten. guess what? die 3060 kam dann 40-50€ günstiger mit 8gb.


für mich wärs auch nichts. aber die 4gb mehr kosten nur geld und bringen keine leistung, wenn man eh esportsettings fährt, da gibt es keinen vorteil.

aufkrawall
2023-01-14, 12:08:07
Texturdetails kosten keine Leistung.
Doch, wenn die Garbage Collection des Spiels so eingestellt ist, dass sie ständig Daten mit damit verbundenen Einbrüchen rausschmeißt. Was ständig der Fall ist. Das passiert mit höheren Texturdetails häufiger und auch mit höherer Auflösung. Die meisten Spiele lassen riesige Teile des VRAMs unbelegt und schmeißen trotzdem wie wild raus. Mehr verbauter VRAM hilft dabei gar nichts, einfach nur totes gebundenes Kapital in den meisten Fällen.

Edit: 8GB sind natürlich trotzdem viel zu knapp.

Platos
2023-01-14, 12:47:01
ich meine, die leute haben sich letztes jahr beschwert, das die 3060 zuviel vram hat. das 8gb besser gepasst hätten. guess what? die 3060 kam dann 40-50€ günstiger mit 8gb.


"Die Leute" sind mit Sicherheit nicht die Masse. Das sind vlt. ein paar Nerds hier im Forum gewesen.

BlacKi
2023-01-14, 13:25:02
"Die Leute" sind mit Sicherheit nicht die Masse. Das sind vlt. ein paar Nerds hier im Forum gewesen.oder butthurt 3070(ti) nutzer XD

Thunder99
2023-01-14, 13:30:29
Die VRAM Bestückung war bei Nvidia schon immer seltsam. Mehr unausgewogen bezüglich der Rohrpower als ausgewogen.

Bei Ada ist es jetzt Mal wieder besser. Daher auch meine Vermutung jetzt:
4070 12GB
4060Ti 10GB
4060 8GB

Darunter 8 und weniger.

dargo
2023-01-14, 13:45:20
Bei Ada ist es jetzt Mal wieder besser. Daher auch meine Vermutung jetzt:
4070 12GB
4060Ti 10GB
4060 8GB

Das funktioniert so nicht wenn 4060TI auf AD106 basiert. Kein IHV entwickelt eine SKU mit 160Bit SI. Das sind dann wenn schon immer Salvages einer SKU mit 192Bit SI.

BlacKi
2023-01-14, 13:51:19
das stimmt, und deshalb wird die 4060ti wohl hart beschnitten.

basix
2023-01-14, 14:18:13
Das funktioniert so nicht wenn 4060TI auf AD106 basiert. Kein IHV entwickelt eine SKU mit 160Bit SI. Das sind dann wenn schon immer Salvages einer SKU mit 192Bit SI.

Der Abstand zwischen AD104 und AD106 ist relativ gross. Ich denke, dass die 4060 Ti auf AD104 basieren wird.

Fragman
2023-01-14, 14:27:34
das stimmt, und deshalb wird die 4060ti wohl hart beschnitten.

Ist sie ja von Natur aus schon, da es eigentlich eine xx50 ist, die hier zum xx70 Preis verkauft werden wird.

Aber ich bin gespannt wie sich die Karte verkaufen wird.
Ist für mich aktuell spannend zu sehen ob die Kunden das annehmen.

Hakim
2023-01-14, 14:30:04
Wie halt bei Ampere. Eine AD104@160 bit mit 10gb für die 4060ti und die 4060 bekommt den ad106. Mal abwarten

BlacKi
2023-01-14, 14:32:15
Aber ich bin gespannt wie sich die Karte verkaufen wird.
Ist für mich aktuell spannend zu sehen ob die Kunden das annehmen.kommt auch drauf an, wie ampere positioniert wird. aber im OEM markt wird selbst darauf keinen wert gelegt.

KarlKastor
2023-01-14, 14:51:15
Der Abstand zwischen AD104 und AD106 ist relativ gross. Ich denke, dass die 4060 Ti auf AD104 basieren wird.
Dann ist aber das bisherige Gerücht humbug, dass die 4070 nur 46 SM hat. Da wird dann sicherlich nichts mehr drunter kommen.

DrFreaK666
2023-01-14, 14:51:55
...
ich meine, die leute haben sich letztes jahr beschwert, das die 3060 zuviel vram hat. das 8gb besser gepasst hätten. guess what? die 3060 kam dann 40-50€ günstiger mit 8gb...

Das ist so nicht ganz richtig.
Man sich beschwert, weil die 3060 mehr Speicher hat als die 3070 und die 3080, und nicht weil die 3060 zu viel hatte.

KarlKastor
2023-01-14, 14:52:30
Wie halt bei Ampere. Eine AD104@160 bit mit 10gb für die 4060ti und die 4060 bekommt den ad106. Mal abwarten
Bei Ampere hatten aber alle GA104 ein 256 Bit Interface.
Sinn machen würde es aber schon.

Hakim
2023-01-14, 15:31:03
Jo ich weiß, aber lieber eine 4060ti mit ad104 und 160 bit als wie die Gerüchte meinen ad106 und 8gb@128bit. Wäre null Anreiz für mich wenn es so kommen würde. Dann eher eine 4070 mit ad104

robbitop
2023-01-14, 16:09:45
Doch, wenn die Garbage Collection des Spiels so eingestellt ist, dass sie ständig Daten mit damit verbundenen Einbrüchen rausschmeißt. Was ständig der Fall ist. Das passiert mit höheren Texturdetails häufiger und auch mit höherer Auflösung. Die meisten Spiele lassen riesige Teile des VRAMs unbelegt und schmeißen trotzdem wie wild raus. Mehr verbauter VRAM hilft dabei gar nichts, einfach nur totes gebundenes Kapital in den meisten Fällen.

Edit: 8GB sind natürlich trotzdem viel zu knapp.

Bei welchem Spiel kann ich das nachbenchen? RDR2 zB? Ich würde Ultra Texturdetails im GPU Limit vs lowest testen. Ich bin da skeptisch (heißt nicht dass ich es abstreite ;)).

aufkrawall
2023-01-14, 16:24:15
Bei welchem Spiel kann ich das nachbenchen? RDR2 zB? Ich würde Ultra Texturdetails im GPU Limit vs lowest testen. Ich bin da skeptisch (heißt nicht dass ich es abstreite ;)).
RDR2 zeigt prinzipiell genau dieses Verhalten, besonders in Saint Denis. Allerdings nimmt der VRAM-Verbrauch mit der immer noch matschigen höchsten Texturdetails-Stufe afair nicht besonders stark zu. Jedenfalls nützt dir mehr als 8GB VRAM dort gar nichts.
Mit rBAR auf Radeons macht er zwar den ganzen VRAM voll (Glaube aber nicht, dass das Absicht ist...). Nach genügend Fast Travel/Spielzeit gibts dann aber noch mit 16GB trotzdem das gleiche Verhalten...

Und Fortnite ist seit seit letztem Update eh mal wieder komplett überfordert. Bro stellt wegen der Einbrüche freiwillig Texturen runter, die 24GB der 4090 sind da 100% nutzlos...

BlacKi
2023-01-14, 17:41:49
Das ist so nicht ganz richtig.
Man sich beschwert, weil die 3060 mehr Speicher hat als die 3070 und die 3080, und nicht weil die 3060 zu viel hatte.doch, gab es. bin ich mir sicher. ist aber egal, ich wollts nur angeführt haben.

Monsta
2023-01-14, 19:41:13
doch, gab es. bin ich mir sicher. ist aber egal, ich wollts nur angeführt haben.

Das ist doch Schwachsinn, warum solte sich ein 3060er Besitzer über zuviel Ram beschweren. Wie kommt man auf sowas?

Es beschweren sich diejenigen die zu wenig Ram haben, derjenige der zu wenig Marge macht weil er zuviel aufgelötet hat.

edit. und die 8gb 3060 ist eh abzocke da die auch viel langsamer als die 12gb Version ist.

BlacKi
2023-01-14, 20:04:36
geld ist das einzigste was mir einfält.

KarlKastor
2023-01-15, 05:46:19
https://mobile.twitter.com/hkepcmedia/status/1612338612380766208?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E1612338 612380766208%7Ctwgr%5E486ef3098f156e108dfb7fed5c480f923da58c6d%7Ctwcon%5Es1_&ref_url=https%3A%2F%2Fwww.computerbase.de%2F2023-01%2Fnvidia-geforce-rtx-4080-neuer-grafikchip-soll-produktionskosten-senken%2F

Ist das wirklich eine Änderung an der GPU oder am Package?
Scheint mir etwas aufwändig für so eine Kleinigkeit eine neue GPU zu bringen.

Thunder99
2023-01-15, 11:36:43
Was zum Geier hat es hier auf sich mit dem Chip?
AD103-300 -> AD103-301 Meldung von Computerbase (https://www.computerbase.de/2023-01/nvidia-geforce-rtx-4080-neuer-grafikchip-soll-produktionskosten-senken/)
Werde aus der CB Meldung net schlau. Respinn was weniger Bauteile auf dem Board bedeutet, was haben sie mutmasslich geändert?

dildo4u
2023-01-15, 11:39:40
Wenn man die Kühler sieht haben vermutlich alle mit höheren Verbräuchen gerechnet ich würde an der Spannungsversorgung ansetzen.

Thunder99
2023-01-15, 11:43:51
Das klingt logisch. Kommen dann auch kleinere Karten raus? Immerhin sind die Kühler zwar gut aber dennoch Overkill, zumindest für den Platzbedarf

Auf PCGH wird es besser erkkärt bzw von Videocardz zitiert:
Demnach verfügen die GPUs mit einer "1" am Ende über eine integrierte Komparatorschaltung, wohingegen diese bei den bisherigen "0"-GPUs auf dem PCB der Grafikkarte untergebracht werden muss
Quelle: PCGH (https://www.pcgameshardware.de/Geforce-RTX-4080-16GB-Grafikkarte-279171/News/Neue-GPU-Kosten-senken-1411415/)

dildo4u
2023-01-15, 12:01:06
Ich vermute nur die 4070 bekommt viele Modelle mit zwei Lüftern.
Kein Plan ob der Markt für High-End Kompakt Karten noch da ist.
AMD hatte es ja nach den HBM Karten auch aufgegeben.

dargo
2023-01-18, 13:33:37
"Refreshes" bei Ada.

9o3SHcaBezw

Schnitzl
2023-01-18, 15:28:34
"Refreshes" bei Ada.

https://youtu.be/9o3SHcaBezw
was sagt er denn? Ich kann hier auf Arbeit keine Videos schauen :(

dildo4u
2023-01-18, 15:47:55
was sagt er denn? Ich kann hier auf Arbeit keine Videos schauen :(

Und doch sind die neuen Chips nichts anderes als ein notwendiger Bug-Fix, denn die älteren Chips haben bei einer Funktion ein echtes Problem. Dieses wiederum wurde durch einen extern aufgebauten Komparator schaltungstechnisch behoben und damit auch der mögliche Fehler vollumfänglich kompensiert.

https://www.igorslab.de/einfacher-bug-statt-feature-warum-der-ad103-301-auf-der-nvidia-geforce-rtx-4080-nur-einen-fehler-behebt-und-der-ad104-251-der-kommenden-rtx-4070-auch/

Schnitzl
2023-01-18, 16:53:16
Danke! Hab Artikel gelesen, alles halb so wild und ohne Auswirkungen auf den Käufer :up:

BlacKi
2023-01-19, 11:11:33
what? wegen der lüftersteuerung?

dildo4u
2023-01-19, 11:42:57
Imo nicht schwer zu verstehen der Fix musste in Hardware gegossen werden und jetzt spart man sich die zusätzlichen Bauteile.

HPVD
2023-01-29, 09:14:20
ein paar Fotos einer möglichen Titan Quad-Slot Karte
mit gedrehtem PCB und goldenem Kühler
https://videocardz.com/newz/nvidias-quad-slot-geforce-rtx-4090ti-titan-800w-graphics-card-has-been-pictured

robbitop
2023-01-29, 10:55:54
Für den Preis eines (Klein) Autos bekommt man dann eine Grafikkarte, die in ein paar Jahren nur noch wertloser Elektroschrott ist. Geil :up:

Snoopy69
2023-01-29, 11:29:40
So funktioniert "Enteignung"... :freak:
Man tauscht einen "harten" Gegenwert in etwas mit einem sehr geringen Zeitwert :D

y33H@
2023-01-29, 16:36:13
Für den Preis eines (Klein) Autos bekommt man dann eine Grafikkarte, die in ein paar Jahren nur noch wertloser Elektroschrott ist. Geil :up:Das Design ist aber leider geil :freak:

Ex3cut3r
2023-01-29, 16:51:43
Für den Preis eines (Klein) Autos bekommt man dann eine Grafikkarte, die in ein paar Jahren nur noch wertloser Elektroschrott ist. Geil :up:

Nein, eigentlich könnte man so eine GPU mit satten 48GB VRAM sehr lange nutzen. DLSS 2 und 3 nicht auch vergessen. Aber, derjenige, der so viel übrig hat, wechselt sowieso alle 2 Jahre....

BlacKi
2023-01-29, 16:54:56
4090ti/titan incomming bis mai, sagt meine glaskugel.

robbitop
2023-01-29, 16:58:07
Nein, eigentlich könnte man so eine GPU mit satten 48GB VRAM sehr lange nutzen. DLSS 2 und 3 nicht auch vergessen. Aber, derjenige, der so viel übrig hat, wechselt sowieso alle 2 Jahre....

Die gewonnene Performance wird problemlos durch weniger Optimierung dann verheizt. Man schaue sich Forspoken und Dead Space Remaster im max details an. Laut CB schafft nur eine 4090 4K mit über 60 fps und braucht dafür auch noch DLSS. Wenn Performance im Überfluss da ist, wird die schon verbrannt statt zu optimieren. Keine Sorge.

Upsampling kann ja heute jede GPU. Ist in modernen Titeln also schon eingepreist. Framegeneration wird mittelfristig das gleiche blühen. Sobald es jede GPU kann, kannst du es in die Performanceoptimierung mit einpreisen.

Außerdem wird wahrscheinlich die 5070ti dann 4090 oder Ada Titan Leistung für unter 1000 € in 2 Jahren bieten und in 4 Jahren schafft die 6060 das dann für 400€. Und die Titan wird garantiert richtig teuer. 3-4T € sind sicherlich möglich. Das ist Geldverbrennung per Excellance. ;)
Sowas wie Zukunftsfähigkeit gibts bei HW nicht. Der heiße Scheiss von heute ist der lauwarme Furz von morgen… allerspätestens übermorgen. X-D
War bis vor ner Weile ja noch okay - aber wenn selbst der cutdown 102 heutzutage fast 2T kostet ist das schon krass X-D.

Ex3cut3r
2023-01-29, 17:02:46
Der "Trick" ist halt nicht immer alles zu maximieren. Dann kann man es auch mit alter HW gut aushalten. Ein Beispiel:

X-D

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13185438&postcount=143

Schade, dass Entwickler es immer noch nicht schaffen, die exakten Konsolen Setings für PC Ports zu benennen. Ich wurde mir wünschen, dass anstatt mittel, PS4/PS5 dazukommen wurde in den Einstellung der PC Ports.

Exxtreme
2023-01-29, 17:07:56
Die gewonnene Performance wird problemlos durch weniger Optimierung dann verheizt. Man schaue sich Forspoken und Dead Space Remaster im max details an. Laut CB schafft nur eine 4090 4K mit über 60 fps und braucht dafür auch noch DLSS. Wenn Performance im Überfluss da ist, wird die schon verbrannt statt zu optimieren. Keine Sorge.


Das ist auch etwas was mir größere Sorgen macht. Dass die Spielestudios einfach aufhören ordentlich zu optimieren und nur FG einschalten und fertig. Nvidia hat mit FG den Spielefirmen ermöglicht Kosten zu sparen. Und zwar auf Kosten des Spielers. Alle Spielefirmen werden das vermutlich nicht machen. Wenn man aber bedenkt wie beschissen die heutigen Spiele programmiert sind dann ist das IMHO nicht sehr förderlich. Es ist nämlich besser jetzt Geld einzunehmen als 3 Monate später. Denn wenn man das Geld jetzt einnimmt dann kann man es jetzt verzinst anlegen. Und wenn ordentliche Optimierung 3 Monate brauchen wird dann wird man es vermutlich lassen.

robbitop
2023-01-29, 17:08:33
Der "Trick" ist halt nicht immer alles zu maximieren. Dann kann man es auch mit alter HW gut aushalten. Ein Beispiel:

X-D

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13185438&postcount=143

Schade, dass Entwickler es immer noch nicht schaffen, die exakten Konsolen Setings für PC Ports zu benennen. Ich wurde mir wünschen, dass anstatt mittel, PS4/PS5 dazukommen wurde in den Einstellung der PC Ports.



Das stimmt - ändert aber an obigem Prinzip leider nichts.

DrFreaK666
2023-01-29, 17:41:44
Der "Trick" ist halt nicht immer alles zu maximieren. Dann kann man es auch mit alter HW gut aushalten. Ein Beispiel:

X-D

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=13185438&postcount=143

Schade, dass Entwickler es immer noch nicht schaffen, die exakten Konsolen Setings für PC Ports zu benennen. Ich wurde mir wünschen, dass anstatt mittel, PS4/PS5 dazukommen wurde in den Einstellung der PC Ports.

Im Forum hier sind die Einstellungen auf Maximum und ausgegraut und man kann nur DLSS ändern. So hats jedenfalls den Anschein

Lurtz
2023-01-29, 21:12:20
In Executors-Beispiel wird native mit DLSS Performance verglichen, also auch da kommt der größte Gewinn von DLSS, nicht von den Settings.

=Floi=
2023-01-29, 23:15:56
Für den Preis eines (Klein) Autos bekommt man dann eine Grafikkarte, die in ein paar Jahren nur noch wertloser Elektroschrott ist. Geil :up:

plot twist
Für den Preis eine Grafikkarte bekommt man dann ein E Auto, das in ein paar Jahren nur noch wertloser Elektroschrott ist. Geil :up:



https://www.forum-3dcenter.org/vbulletin/newreply.php?do=newreply&p=13224840
Das funktioniert aber so nicht. Das ist imho für ein modul mit HBM.
Lochabstand beim chip! Das würde alles biegen und wäre unnötig weit für den chip alleine.
Fehlender sockel für den ram am kühler. Wie soll der gekühlt werden?
Die normalen VRM wären zu viele und zu breit. Die breite würde ungefähr zu den teuren modulen mit digitaler spannungsversorgung passen. Anders wird man das mit 4 slots höhe nicht unterbringen können.

y33H@
2023-01-29, 23:39:47
AD102 als Vollausbau hätte deutlich mehr L2 als eine RTX 4090, vll skaliert so die (Shader) Performance stärker vs RTX 4080.

aufkrawall
2023-01-29, 23:46:29
Ist eigentlich sonst noch jemandem die miese Performance mit MSAA aufgefallen? Die 4090 bleibt in 4k dann oft bei ~78% gemeldeter GPU-Auslastung und Performance und Verbrauch brechen arg sein. Kann man etwa in FH5 sehen.

basix
2023-01-30, 00:21:30
AD102 als Vollausbau hätte deutlich mehr L2 als eine RTX 4090, vll skaliert so die (Shader) Performance stärker vs RTX 4080.
Würde ich auch hoffen

y33H@
2023-01-30, 01:37:19
Ist eigentlich sonst noch jemandem die miese Performance mit MSAA aufgefallen? SM oder ROP, ist das wie bei Ampere/Turing? kurios ...

Rampage 2
2023-01-30, 01:52:06
SM oder ROP, ist das wie bei Ampere/Turing? kurios ...

Erm... bei 176 ROPs und über 500 GPixel Füllrate? Daran kann es ja wohl nicht liegen, oder? :freak:

R2

Edgecrusher86
2023-01-30, 09:34:02
48GB wird es somit wohl frühstens mit "Blackwell" geben. Aus Gamersicht sicher verständlich - einen Vollausbau wohl auch nicht, aber fast (~ 98,6%).

https://abload.de/img/screenshot2023-01-300amf7t.png

Ich tippe auf 500W 100% PT und dann halt 117% als Max PT. Über 600W ist unnötig.
Release aber eh wohl erst Q1/2024 - da wartet der geneigte Interessent lieber grob weitere sechs Monate und hat nochmals mindestens 40% Mehrleistung oben drauf mit "Blackwell".

Dieses Jahr dürfte wohl nur eine AD102 Karte kommen -> RTX 4080 Ti für vermutlich 1400 USD MSRP in Q2 (die RTX 3080 Ti kam im Juni 2021) und grob 90% der 4090 Leistung.

Godmode
2023-01-30, 12:28:52
Unabhängig vom Preis finde ich es einfach geil, dass sie über die schon "kranke" 4090 noch was drüber setzen. :up:

BlacKi
2023-01-30, 12:44:10
Ich tippe auf 500W 100% PT und dann halt 117% als Max PT. Über 600W ist unnötig.


500w wäre zwar optimal um karte nicht unendlich saufen zu lassen, aber ich glaube nicht das es so kommen wird. der geleakte kühler wäre für 500w nicht notwendig. er sagt schon eher 600w mit erw. PT dann auch 800w.

Dovregubben
2023-01-30, 13:35:31
Da fallen mit viel Glück unmerkliche 10% mehr Leistung raus...

Next Gen dann: 5070ti mit der Leistung einer 4090TI zum günstigen Preis einer 4080 :freak:

Platos
2023-01-30, 14:16:57
Da fallen mit viel Glück unmerkliche 10% mehr Leistung raus...

Next Gen dann: 5070ti mit der Leistung einer 4090TI zum günstigen Preis einer 4080 :freak:

...mit 12GB Speicher:freak:

KarlKastor
2023-01-30, 14:57:16
Dieses Jahr dürfte wohl nur eine AD102 Karte kommen -> RTX 4080 Ti für vermutlich 1400 USD MSRP in Q2 (die RTX 3080 Ti kam im Juni 2021) und grob 90% der 4090 Leistung.
Wozu sollte man den AD102 verramschen?
Eine 4080Ti würde ich eher beim AD103 Vollausbau verorten. Reicht aus als Konkurrenz zur 7900XTX.

Cubitus
2023-01-30, 15:03:41
Vielleicht ist einfach die Ausbeute gut und man will einfach nicht viele Chips unnötig kaputtschneiden. Zudem wollen die Miner auch keine Karten mehr, dann nimmt man es eben mit.

ChaosTM
2023-01-30, 15:20:51
48GB wird es somit wohl frühstens mit "Blackwell" geben. Aus Gamersicht sicher verständlich - einen Vollausbau wohl auch nicht, aber fast (~ 98,6%).

https://abload.de/img/screenshot2023-01-300amf7t.png

Ich tippe auf 500W 100% PT und dann halt 117% als Max PT. Über 600W ist unnötig.
Release aber eh wohl erst Q1/2024 - da wartet der geneigte Interessent lieber grob weitere sechs Monate und hat nochmals mindestens 40% Mehrleistung oben drauf mit "Blackwell".

Dieses Jahr dürfte wohl nur eine AD102 Karte kommen -> RTX 4080 Ti für vermutlich 1400 USD MSRP in Q2 (die RTX 3080 Ti kam im Juni 2021) und grob 90% der 4090 Leistung.




Die Ti wird nicht so schnell kommen. Würde keinerlei Sinn machen die vor Ende des Jahres zu bringen. Eher noch später.

Und die vollen 100% und 48GB kann man sich für eine eventuelle Titan aufheben, die man dann für 3990 Vertickern kann. ;)

add.: außer AMD kann kurzfristig bezüglich Treiber und Features stark zulegen/aufholen und nahe an die 4090er heranrücken, aber das sehe ich ehrlich gesagt nicht.

Gott1337
2023-01-30, 15:29:23
Die Ti wird nicht so schnell kommen. Würde keinerlei Sinn machen die vor Ende des Jahres zu bringen. Eher noch später.

Und die vollen 100% und 48GB kann man sich für eine eventuelle Titan aufheben, die man dann für 3990 Vertickern kann. ;)

add.: außer AMD kann kurzfristig bezüglich Treiber und Features stark zulegen/aufholen und nahe an die 4090er heranrücken, aber das sehe ich ehrlich gesagt nicht.
für 48GB wär das ding immer noch günstig. Guck dir mal an was Pro Karten mit 48GB kosten.

ChaosTM
2023-01-30, 15:33:50
Jop, das stimmt. Würde halt nur mit Teilen der Pro-Software geliefert werden, damit ein kleiner Unterschied bleibt, wie schon bei den alten Titanen.
Eine Semi Pro Card eben..

Snoopy69
2023-01-30, 16:05:05
So langsam werd ich mit EVC2 warm…

Hier mit zarten +0,03Volt mehr fast 1.000Watt in Furmark... :eek:
Links = PMD-USB - rechts = EVC2SE
xdh_I7aGpIA

Gesamtleistung (CPU und RAM waren @ default - nicht mal XMP)
https://www.hardwareluxx.de/community/attachments/img_4266-jpg.848027/

Nebenbei gleich noch den Belastungtest, der Corsair-12VHPWR-Kabelpeitsche gemacht, die ja nur 2 statt 3 oder 4 Zuleitungen hat. Also fast 500W pro Kabel :freak:

Warm wurde nur der Shunt am PMD-USB...

Um die genaue VGPU und VRAM zu messen, müsste ich nochmal die BP runtermachen, nachmessen und gleich noch ein besseres Mini-Display mit 4 Digits anlöten

Edgecrusher86
2023-02-01, 14:29:00
https://news.samsung.com/global/samsung-electronics-launches-industrys-first-24gbps-gddr6-dram-to-power-next-generation-high-end-graphics-cards

24 Gbps G6 wäre also auch vorhanden, es müsste kein G6X sein für eine 48GB "TITAN".
Mal schauen, was sie machen. Man könnt ja auch wieder die "Ultra" bringen, wenn es keine TITAN mehr werden soll - so als mächtigste Prosumer Karte oder nennt es zum Beispiel nur RTX Ada. :D

Nun ja, 3000-4000 USD wäre der MSRP in Anbetracht der 6800 USD für die RTX 6000 Ada.

Rampage 2
2023-02-01, 14:39:11
48GB wird es somit wohl frühstens mit "Blackwell" geben. Aus Gamersicht sicher verständlich - einen Vollausbau wohl auch nicht, aber fast (~ 98,6%).

https://abload.de/img/screenshot2023-01-300amf7t.png



:upicard:

Es wäre für Nvidia ja auch SOOO schwierig gewesen und die Yields SOOO inakzeptabel stark gesunken, wenn man bei der 4090 Ti das allerletzte TPC bzw. die verbliebenen 2 SMs aktiviert hätte:facepalm::upicard::mad:

R2

SentinelBorg
2023-02-02, 11:39:22
Ist eigentlich sonst noch jemandem die miese Performance mit MSAA aufgefallen? Die 4090 bleibt in 4k dann oft bei ~78% gemeldeter GPU-Auslastung und Performance und Verbrauch brechen arg sein. Kann man etwa in FH5 sehen.
Kann sein dass bestimmte Optimierungen die es für MSAA gab jetzt entfernt wurden, da es ja eh kaum noch ein Spiel nutzt. Bei FH5 ist man mit DLAA ja auch mittlerweile besser dran.

Blase
2023-02-02, 11:44:57
Next Gen dann: 5070ti mit der Leistung einer 4090TI zum günstigen Preis einer 4080 :freak:

Ehrlicherweise wäre bei dem Leistungssprung sogar dieser Preis dann ok ;)

MfG Blase

Edgecrusher86
2023-02-02, 11:47:19
Die Ti wird nicht so schnell kommen. Würde keinerlei Sinn machen die vor Ende des Jahres zu bringen. Eher noch später.

Und die vollen 100% und 48GB kann man sich für eine eventuelle Titan aufheben, die man dann für 3990 Vertickern kann. ;)

add.: außer AMD kann kurzfristig bezüglich Treiber und Features stark zulegen/aufholen und nahe an die 4090er heranrücken, aber das sehe ich ehrlich gesagt nicht.


Schrieb ich ja auch - das wird dann wieder der 2024er Lückenfüller vor der Next Gen für die Minderheit der Enthusiasten. Die Masse hat dann schon grob zwei Jahre die 4090. :D



So langsam werd ich mit EVC2 warm…

Hier mit zarten +0,03Volt mehr fast 1.000Watt in Furmark... :eek:
Links = PMD-USB - rechts = EVC2SE
https://youtu.be/xdh_I7aGpIA

Gesamtleistung (CPU und RAM waren @ default - nicht mal XMP)
https://www.hardwareluxx.de/community/attachments/img_4266-jpg.848027/

Nebenbei gleich noch den Belastungtest, der Corsair-12VHPWR-Kabelpeitsche gemacht, die ja nur 2 statt 3 oder 4 Zuleitungen hat. Also fast 500W pro Kabel :freak:

Warm wurde nur der Shunt am PMD-USB...

Um die genaue VGPU und VRAM zu messen, müsste ich nochmal die BP runtermachen, nachmessen und gleich noch ein besseres Mini-Display mit 4 Digits anlöten

Was waren denn die Taktraten? Geht das auch in die andere Richtung? Mich würde nämlich interessieren, ob etwa 2000 MHz mit 800mV drin sind, und wie es mit ~ 730-750mV wäre. Ich denke mal, bis 1800 MHz wären möglich....1600 MHz war grob bei Ampere die Grenze. Leider hat NV ja den Riegel vorgeschoben, was niedrigere Spannungen sub 855mV betrifft (die man auch bei so gut wie keiner Karte sieht).
Damit könnte man bei Teilllast und fps cap sicher nochmal grob 20-30W einsparen...Also den Chip quasi perfektionieren bezüglich Effizienz.




:upicard:

Es wäre für Nvidia ja auch SOOO schwierig gewesen und die Yields SOOO inakzeptabel stark gesunken, wenn man bei der 4090 Ti das allerletzte TPC bzw. die verbliebenen 2 SMs aktiviert hätte:facepalm::upicard::mad:

R2

Also wenn die Ti 2024 kommt und vll. so eine TITAN / whatever frühstens im H2, hätte man sicher auch mehr als genug Chips gesammelt, die in die Vollen gehen.

Snoopy69
2023-02-02, 16:39:32
Was waren denn die Taktraten? Geht das auch in die andere Richtung? Mich würde nämlich interessieren, ob etwa 2000 MHz mit 800mV drin sind, und wie es mit ~ 730-750mV wäre. Ich denke mal, bis 1800 MHz wären möglich....1600 MHz war grob bei Ampere die Grenze. Leider hat NV ja den Riegel vorgeschoben, was niedrigere Spannungen sub 855mV betrifft (die man auch bei so gut wie keiner Karte sieht).
Damit könnte man bei Teilllast und fps cap sicher nochmal grob 20-30W einsparen...Also den Chip quasi perfektionieren bezüglich Effizienz.

Keine gewünschten Taktraten...
Detailierte Anleitungen zur Bedienung der Software finde ich keine. Und die, die sich damit auskennen rücken keine Infos raus (man könnte ja ein Konkurrent sein, der in der HoF aufsteigen will)

Ich kann zwar "online" (während dem Bench/Game) die Spannung verändern, aber die angezeigte Taktrate und Spannung ändert sich on-screen nicht. Es muss sich aber was ändern, da sich die fps, die Aufnahmeleistung und das Spulengeräusch deutlich ändert...

Furmark @1.920x1.080 ohne AA
"Output Voltage" und Input Power" von links nach rechts (im Screenshot)...
1,05V - 0,945V - 0,84V - 0,734V
520W - 360W --- 245W -- 120W
645fps - 591fps - 522fps - 439fps
1,24 ---- 1,64 ---- 2,13 --- 3,66 (<-- Werte = fps pro Watt)

Bis 710mV konnte ich runter, aber das schon nicht mehr stabil (bei Furmark zumindest). Und ohne es manuell nachzumessen, weiss ich nicht, inwieweit die angezeigte Spannung in der EVC2-Software stimmt. Will sowieso noch paar Sachen ans PCB löten

https://abload.de/img/cbbgnknehk8he82.jpg


Und was man damit anstellen kann, weiß ich (noch) nicht...
https://abload.de/img/cvbcbq9cj25hc4p.jpg

basix
2023-02-03, 00:28:44
Heftig wie effizient der Chip mit der niedrigen Spannung wird. Bitte Nvidia, aktiviere 0.73V für alle Ada Chips als untere Grenze!

dildo4u
2023-02-03, 08:39:51
ADA 106/107 Die.


https://twitter.com/mooreslawisdead/status/1621347905431867395

Edgecrusher86
2023-02-03, 11:05:36
Heftig wie effizient der Chip mit der niedrigen Spannung wird. Bitte Nvidia, aktiviere 0.73V für alle Ada Chips als untere Grenze!

Schön wäre es - wird aber seine Gründe haben, warum dies nicht geschehen ist. :(
Ich bin aber mal auf die Notebook Chips gespannt, es würde mich nicht wundern, wenn diese so tief laufen würden, denn schon Ampere Mobile lief mit 6xx mV Minimum!

Platos
2023-02-03, 14:26:27
Was ist die (normalerweise) niedrigste Spannung bei Ada?

Ich weiss, ist natürlich etwas veraltet, aber bei Pascal konnte man noch 0.7v einstellen.

Oder vlt. etwas grösser gefragt: Was ist denn die Minimalspannung bei Turing, Ampere und Ada?

Tesseract
2023-02-03, 15:46:45
sollte bei allen 700mV sein, zumindest bei den FE.

basix
2023-02-03, 16:29:51
Die 4090 hat ein unteres Limit von ~0.87V. Tiefer geht bei keiner Karte ohne HW-Mod. Nvidia hat das bereits bei der 3090 Ti eingeführt, vermutlich um die Stromspitzen zu dämpfen (Netzteilkiller und so...). Wie das bei den anderen Ada Karten aussieht weiss ich nicht.

Turing war bei ~0.7V

Platos
2023-02-03, 16:55:24
ah ok, interessant. Aber dann ist das bei Ampere abgesehen von der 3090TI 0.7v und bei Ada bei der 4080 und 4070TI auch noch 0.7v?

Für mich ist das persönlich schon wichtig. Weil ich habe bei meiner jetzigen Karte auch Profile mit 0.7v, 0.75 und 0.8v (neben 0.85v).

0.87V ist da schon echt hoch.

Aber Frage: Warum verursacht eine niedrige Spannung hohe Stromspitzen?? Müsste das nicht genau umgekehrt sein?

Tesseract
2023-02-03, 17:07:29
ja, AD102 scheint tatsächlich ein unsichtbares limit bei 865mV zu haben obwohl die kurve weiter nach unten geht, bei GA104 sind es 700mV.

Platos
2023-02-03, 17:22:54
Ok, interessant. Damit ist für mich die 4090 (in 2 Jahren gebraucht z.B) nicht mehr interessant, da ich eig. immer starkes UV betreibe (inkl. Overclocking).

Ich warte dann auf gebrauchte 4080 in 1-2 Jahren. In 2 Jahren sollten die auf ~700 absinken (so meine Hoffnung).

Warum man aber mit ner niedrigen Spannung höhere Stromspitzen haben soll, würde mich trotzdem interessieren.

Snoopy69
2023-02-03, 17:39:57
Bei Gelegenheit messe ich die Mindest-VGPU mal direkt am PCB

Tesseract
2023-02-03, 18:17:28
Ok, interessant. Damit ist für mich die 4090 (in 2 Jahren gebraucht z.B) nicht mehr interessant, da ich eig. immer starkes UV betreibe (inkl. Overclocking).

die logik verstehe ich nicht. ada hat mit abstand die beste effizienz aller architekturen. mit handoptimierten 865mV verbraucht die karte in etwa zwischen 160W und 220W under vollast mit ~80% der stockperformance was schon ein ganzes stück langsamer ist.

was hast du bitte vor? :D

Snoopy69
2023-02-03, 19:08:07
730mV :freak:

Gott1337
2023-02-03, 19:09:51
die logik verstehe ich nicht. ada hat mit abstand die beste effizienz aller architekturen. mit handoptimierten 865mV verbraucht die karte in etwa zwischen 160W und 220W under vollast mit ~80% der stockperformance was schon ein ganzes stück langsamer ist.

was hast du bitte vor? :D
dumm sterben ist wohl der Plan, scnr ;D

aufkrawall
2023-02-03, 19:11:15
Ok, interessant. Damit ist für mich die 4090 (in 2 Jahren gebraucht z.B) nicht mehr interessant, da ich eig. immer starkes UV betreibe (inkl. Overclocking).

Dann ergibt deine Aussage keinen Sinn, denn bei den Spannungen kannst du OC komplett vergessen.
Kannst -125mV bei quasi nicht vorhandenem Leistungsverlust einstellen. Diese Diskussionen um die UV-Einschränkungen sind einfach nur noch hysterisch...

Platos
2023-02-03, 19:11:29
die logik verstehe ich nicht. ada hat mit abstand die beste effizienz aller architekturen. mit handoptimierten 865mV verbraucht die karte in etwa zwischen 160W und 220W under vollast mit ~80% der stockperformance was schon ein ganzes stück langsamer ist.

was hast du bitte vor? :D

Es bezieht sich ja nicht komplett auf Ada sondern nur auf die 4090- Mit einer 4080 kann ich ja dann mit unter diesen 865mv noch viel weiter runter?

Aber ich kann mir die genau erreichten Wattzahlen ja noch ansehen.

Weisst du wirklich, dass die Karte bei 865mV 160-220W verbraucht? Meinst du damit eig. nur ein Spannungslimit oder auch zusätzlich Overclocking (also die ganze Spannungskurve anheben und bei 865mV kappen oder mit PL kappen) ?

Tesseract
2023-02-03, 20:36:10
Mit einer 4080 kann ich ja dann mit unter diesen 865mv noch viel weiter runter?
das weiß ich nicht aber bis jemand das gegenteil zeigt würde davon ausgehen, dass sich alle ada gleich verhalten.

Weisst du wirklich, dass die Karte bei 865mV 160-220W verbraucht?
habe eben noch mal das maximum ausgetestet, das liegt bei ~2530MHz mit 865mV. damit ist der verbrauch noch etwas höher aber das höchste was ich in einem spiel gesehen habe war ~270W, aber nur mit einstellungen die besonders viel heizen, d.h. DLSS und RT aus und die auflösung auf 8k+ hoch. mit realistischeren settings die man auch tatsächlich verwenden würde sind es mitunter deutlich weniger.

basix
2023-02-04, 00:51:30
Kann da Tesseract nur beipflichten. Bei minimaler Spannung läuft eine 4090 mit ~250W. Und mit Framelimiter oder in niedrigeren Aulösungen als 4K zügelt sich Ada selbst. Gibt hier im Forum Beispiele mit <100W auf einer 4090 bei älteren Spielen.

Ein tieferes Spannunglimit würde ich begrüssen, in normalen Fällen ist es aber nicht ausschlaggebend. Die Verbrauchszahlen von Snoopy zeigen aber, dass man da noch mehr tunen könnte. Ich liebe tunen :)

@Lastspitzen:
Ich bin kein Experte in Schaltreglerdesign. Aber wenn die Ausgabespannungen näher zusammen liegen kann man die Schaltung zielgerechter dimensionieren (Induktivität, Kapazität, Schaltfrequenzbereich), da es einfach näher zusammenliegt. Das hilft bereits, um Schaltströme zu reduzieren. Ausserdem besitzt der Chip selbst eine hohe Kapazität. Den Chip bei einem Lastwechsel "aufzuladen" führt zu hohen Strömen. Von einer niedrigen zu einer hohen Spannung natürlich mehr, als wenn die Spannung initial bereits etwas höher liegt. Aufpassen muss man dann aber bei den Leckströmen, nicht dass der Idle-Verbrauch durch höhere Idle-Spannungen hochgeht . Wie viel das alles insgesamt ausmacht kann ich aber auch nur raten. Nvidias Ingenieure werden es aber wissen.

@Raff:
Das Thema GPU-Spannungen und VRM-Design wäre doch mal einen interessanten Technikartikel wert ;) Insbesondere in Hinblick auf Ada. Ihr habt Kontakte zu Nvidia und evtl. weiss Igor noch was zu berichten

730mV :freak:
Welche Spannung eingestellt?

Platos
2023-02-04, 01:23:50
das weiß ich nicht aber bis jemand das gegenteil zeigt würde davon ausgehen, dass sich alle ada gleich verhalten.


Ich dachte, dass diese minimale Spannung eben nur explizit für die 4090 und 3090Ti bisher gilt?

Hat denn hier jemand ne 4080 oder 4070Ti und kann das aufklären?

270 Watt sind mir übigens viel zu viel. Ich denke da eher an 180Watt.

Kann da Tesseract nur beipflichten. Bei minimaler Spannung läuft eine 4090 mit ~250W. Und mit Framelimiter oder in niedrigeren Aulösungen als 4K zügelt sich Ada selbst. Gibt hier im Forum Beispiele mit <100W auf einer 4090 bei älteren Spielen.


Jede Grafikkarte verbraucht deutlich weniger Strom, wenn man Framelimiter drinn hat oder hart im CPU Limit hängt. Das ist jetzt nichts, was die 4090 besonders "kann" oder so. Finde Verbrauchswerte in Framelimits auch immer sonderlich lächerlich. Klar verbraucht sie weniger, wenn sie nicht voll belastet wird. Habe auch schon Spiele gespielt, mit der meine Grafikkarte 50 Watt zieht. Das ist jetzt keine Kunst.

Aber zum Verbrauch: 250Watt ist mir halt zu viel. Mit 0.7V ginge halt locker noch mehr. Wie man sieht ist ja mit 0.7x Watt nochmals extrem viel mehr drinn. Ist richtig krass.

Und bezüglich Spitzen: Danke für die Info. Der Spannungsunterschied müsste aber ja mit ner Spannungsgrenze gegen oben hin kleiner ausfallen.

Und ja, Tunen ist geil ;) Aber bei mir dann in Richtung Effizienz-Tunen. Stumpfes OC, bis die Bude brennt ist dann für mich eher lame.

basix
2023-02-04, 01:54:38
Bei Ada ist die interne Lastregulierung schon deutlich verbessert worden. Die Karte nimmt sich das was sie braucht, nicht mehr. Auch ohne Framelimit.

Spannungen:
Ja, wenn man nach oben hin begrenzt hilft das natürlich ;)

Tunen:
Bin seit Kepler immer in der Nähe des Sweetspots unterwegs. Bei einer 4090 wird es aber schwierig, die Karte ohne Frame Limits sinnvoll auf 180W zu drücken. Mit den 0.7V von Snoopy wäre es ein Leichtes.

Zum UV und Power Limit allgemein :
Hier ein Diagramm, welches sehr schön zeigt dass reines Powerlimit senken auch bei Ada weniger effizient ist als wenn man gleichzeitig noch die Curve anhebt. Hoffe das versteht jetzt jeder.
https://videocardz.com/newz/nvidia-geforce-rtx-4090-power-limiting-and-undervolting-test-shows-only-8-performance-drop-at-half-the-tdp
https://cdn.videocardz.com/1/2022/11/RTX4090-powerlimit-undervolting-chart.jpg

Platos
2023-02-04, 02:34:40
Tunen:
Bin seit Kepler immer in der Nähe des Sweetspots unterwegs. Bei einer 4090 wird es aber schwierig, die Karte ohne Frame Limits sinnvoll auf 180W zu drücken. Mit den 0.7V von Snoopy wäre es ein Leichtes.

Zum UV und Power Limit allgemein :
Hier ein Diagramm, welches sehr schön zeigt dass reines Powerlimit senken auch bei Ada weniger effizient ist als wenn man gleichzeitig noch die Curve anhebt. Hoffe das versteht jetzt jeder.
https://videocardz.com/newz/nvidia-geforce-rtx-4090-power-limiting-and-undervolting-test-shows-only-8-performance-drop-at-half-the-tdp
https://cdn.videocardz.com/1/2022/11/RTX4090-powerlimit-undervolting-chart.jpg

Ja eben, das meine ich doch. Könnte man die Spannung auf 0.7v stellen, könnte man die Karte deutlich effizienter betreiben. Das meine ich ja die ganze Zeit. Man sieht ja bei Snoopy, wie viel das bringt. Deswegen würde ich eine 4080 vorziehen, wenn! man dort 0.7v einstellen kann. Das würde ich ja jetzt doch immer noch gerne wissen :biggrin:
Hardwaremods sind mir dann aber doch etwas zu heiss bei so teuren Dingen.

Und ja, natürlich hebt man bei UV die ganze Spannungskurve an. Wer versteht das nicht? Nur Powerlimit runter stellen bringt ja nicht mal ansatzweise das Potential der Karte raus. Das ist ja der Witz der Sache.

Curve anheben ist ja im Grunde Overclocking und Powerlimit so ähnlich, wie einfach die Spannung kappen (nur variable). Nur Powerlimit oder Spannung kappen ist dann aber schon bisschen wenig "tunen".

Edit: Also 0.7 Volt ging ja bei Snoopy nicht, aber 0.75v brächten ja auch schon enorm viel im Vergleich zu 0.865v.

basix
2023-02-04, 03:13:15
Zur 4080 konnte ich nichts finden. Scheint niemand zu kaufen ;)

Und ja, natürlich hebt man bei UV die ganze Spannungskurve an. Wer versteht das nicht? Nur Powerlimit runter stellen bringt ja nicht mal ansatzweise das Potential der Karte raus. Das ist ja der Witz der Sache.
Gibt einige die behaupten (auch hier), dass das bei Ada nichts mehr bringt und reine Power Limit Reduktion das fast gleiche Resultat liefert. Das stimmt aber nicht, deswegen habe ich das nochmals geposted.

robbitop
2023-02-04, 08:31:06
Leute latzen zT über 2000€ für eine 4090 und optimieren dann statt auf Leistung auf Verbrauch und nutzen framelimiter um nochmal ein paar Watt zu sparen? Das ist wie einen Ferrari zu kaufen um dann mit 80 km/h auf der BAB zu fahren um Benzin zu sparen.

Sardaukar.nsn
2023-02-04, 09:30:42
@robbitop: Warum soll ich meine Grafikkarte denn 180 FPS berechnen lassen wenn mein Monitor nur 120 Bilder pro Sekunde anzeigen kann?

@basix: Der Weg über das Powerlimit für bei Ada zu sehr guten und vernünftigen Ergebnissen. Ist aber bereits seit den ersten Reviews der 4090 bekannt.

https://i.imgur.com/Wj8tIvM.jpg

Quelle: https://www.youtube.com/watch?v=RnmyrYSZENE

robbitop
2023-02-04, 10:05:07
VSync plus GSync und sie berechnet auch nur 120 fps. Aber undervolting und TDP Reduktion ist IMO schon etwas seltsam wenn man ein Performancemonster für 2K kauft.

DrFreaK666
2023-02-04, 10:50:57
VSync plus GSync und sie berechnet auch nur 120 fps. Aber undervolting und TDP Reduktion ist IMO schon etwas seltsam wenn man ein Performancemonster für 2K kauft.

Der Vergleich ist eher sich einen Ferrari zu kaufen, wenn man in der Umgebung nur Landstraße hat

Linmoum
2023-02-04, 11:01:06
VSync plus GSync und sie berechnet auch nur 120 fps. Aber undervolting und TDP Reduktion ist IMO schon etwas seltsam wenn man ein Performancemonster für 2K kauft.79fps statt 82fps merke ich nicht, wenn ich nicht aufs OSD schaue. 50W+ weniger hingegen schon.

Snoopy69
2023-02-04, 12:30:29
Leute latzen zT über 2000€ für eine 4090 und optimieren dann statt auf Leistung auf Verbrauch und nutzen framelimiter um nochmal ein paar Watt zu sparen? Das ist wie einen Ferrari zu kaufen um dann mit 80 km/h auf der BAB zu fahren um Benzin zu sparen.
Warum mit 200fps zocken, wenn man diese längst nicht mehr von 120fps unterscheiden kann?

//differentRob
2023-02-04, 12:56:35
Ich denke dabei geht es nicht mehr darum ob das Bild flüssig genug ist, sondern viel mehr darum ob die Frametimes wirklich nahezu perfekt sind und die Eingaben mit möglichst geringer Latenz ins Game einfliessen.

___________________ so spielt es sich besser als so ____----__--_--_-__----_-^-^--__|

wer aber nur Singleplayer spielt, der kann ruhig bei <120fps abriegeln.


Denke das sollte man jedem selbst überlassen wie viel Globuli er über 120fps noch einwerfen will. Nehme mal stark an, dass der Gewinn daraus immer wie kleiner wird und doch sehr stark abflacht.

Edgecrusher86
2023-02-04, 13:07:04
Hier läuft das Kärtchen bei fast immer 115-140W. 60 fps langen mir halt für SP Games in 5160x2160 DL-DSR (gerne auch mit DLSS P/Q sofern angeboten). ;D
Habe die Karte ja auch primär für HW-Fresser mit UE5.1 oder CP '77 im Hinterkopf geholt. Ich fahre lieber ein Schlachtschiff mit Teilllast, als eine Holzschale, die jetzt schon aus dem letzten Loch pfeift - übertrieben gesagt.

Ich denke mal, dass ich Blackwell überspringen werde - später gibt es dann auch mal wieder einen neuen Sockel. Vielleicht übergangsweise ein gebrauchtes Mainstream-Bundle und später den W790 Nachfolger mit 24-32C oder sowas, Granite oder ff. Dann hat man wieder auf Jahre ausgesorgt. :)

Auf anspruchsvollen Landstraßen dürfte der Ferrari aber mehr Spaß machen als nur stumpf über die Autobahn. :D

Troyan
2023-02-04, 13:08:37
Warum mit 200fps zocken, wenn man diese längst nicht mehr von 120fps unterscheiden kann?

Natürlich erkennt man den Unterschied. Sonst würde BFI überhaupt keinen Unterschied machen.

Platos
2023-02-04, 13:31:18
Leute latzen zT über 2000€ für eine 4090 und optimieren dann statt auf Leistung auf Verbrauch und nutzen framelimiter um nochmal ein paar Watt zu sparen? Das ist wie einen Ferrari zu kaufen um dann mit 80 km/h auf der BAB zu fahren um Benzin zu sparen.

Was für ein schlechter Vergleich :D

Vlt. gibts Leute, die wollen/brauchen eine gute Effizienz(Strom eird immer teurer)?

Vlt. wollen sie möglichst hohe Perfomance bei gleichzeitig möglichst wenig Wärmeentwicklung (Sommer)?

Vlt. wollen sie möglichst hohe Perfomance bei möglichst niedriger Lautstärke (ohne Wakü)?


Gibt zahlreiche sinnvolle Möglichkeiten. Warum sollte viel Geld ausgeben zwingend 'Ich scheiss auf den Stromverbrauch" bedeuten?

dildo4u
2023-02-04, 14:24:31
AD106 3Dmark Werte.


https://wccftech.com/alleged-nvidia-geforce-rtx-ad106-gpu-benchmarks-leak-out-on-par-with-rtx-3070-ti/

Troyan
2023-02-04, 14:30:23
Wie die auf 244W für die 3070TI kommen, ist schon strange. 180W gegen 290W und selbe Leistung ist schon okay.

Schnitzl
2023-02-04, 15:27:32
interpretiere ich das richtig dass die 4060ti dann zw. der 3070 und der 3070ti liegt bei etwas weniger Verbrauch?

dildo4u
2023-02-04, 15:36:00
Das ist imo die 4060 TI=3070TI, die 4070 hat 30Tflops sollte bei der 3080 12GB rauskommen.
Damit erwarte ich 500€ für 4060TI besser wird es imo nicht.

Snoopy69
2023-02-04, 15:51:18
Ich denke dabei geht es nicht mehr darum ob das Bild flüssig genug ist, sondern viel mehr darum ob die Frametimes wirklich nahezu perfekt sind und die Eingaben mit möglichst geringer Latenz ins Game einfliessen.

___________________ so spielt es sich besser als so ____----__--_--_-__----_-^-^--__|

wer aber nur Singleplayer spielt, der kann ruhig bei <120fps abriegeln.


Denke das sollte man jedem selbst überlassen wie viel Globuli er über 120fps noch einwerfen will. Nehme mal stark an, dass der Gewinn daraus immer wie kleiner wird und doch sehr stark abflacht.
Ok, einem Hardcore-Ego-Shooter-Gamer können es nicht genug fps sein (Minimierung der Eingabeverzögerung). Die haben auch sonst keine normale HW

basix
2023-02-04, 15:52:38
Vlt. gibts Leute, die wollen/brauchen eine gute Effizienz(Strom eird immer teurer)?

Vlt. wollen sie möglichst hohe Perfomance bei gleichzeitig möglichst wenig Wärmeentwicklung (Sommer)?

Vlt. wollen sie möglichst hohe Perfomance bei möglichst niedriger Lautstärke (ohne Wakü)?


Gibt zahlreiche sinnvolle Möglichkeiten. Warum sollte viel Geld ausgeben zwingend 'Ich scheiss auf den Stromverbrauch" bedeuten?

Exakt. Niedrige Wärmeentwicklung (mein Gehäuse kommt mit 250-300W langsam ans Limit wenn es leise bleiben soll) und geringe Lautstärke sind mir mehr Wert als die letzten paar Prozent Performance.

Und die 4090 ist bei 250W nunmal schneller als alle anderen Karten. Selbst schneller als voll ausgefahrene 4080er.

Und ganz allgemein:
Jeder darf mit seinem Eigentum das anstellen, was einem die meiste Freude bereitet ;)

Hakim
2023-02-04, 15:55:37
Das ist imo die 4060 TI=3070TI, die 4070 hat 30Tflops sollte bei der 3080 12GB rauskommen.
Damit erwarte ich 500€ für 4060TI besser wird es imo nicht.

Ich finde es schwach. Früher hatten die 60er Karten (nonTi) in etwa die perf von der 80er der vorherigen Version.

ChaosTM
2023-02-04, 16:03:25
VSync plus GSync und sie berechnet auch nur 120 fps. Aber undervolting und TDP Reduktion ist IMO schon etwas seltsam wenn man ein Performancemonster für 2K kauft.


Die 4090er ist auch eher eine Investition in die Zukunft und für Leute, die schon heute mit sehr hohen Auflösungen fahren wollen.

GTA5 @ 8k alles auf Max (+4x MSAA*, was kompletter Overkill ist) läuft mit der 90er jetzt mit ~ 50 fps. Die 80er schaffte knapp über 30. Da zeigt sich die wahre Power des Monsters !

Ansonsten ist die Karte < 4k momentan noch größtenteils OP, da meist CPU limitiert.
4k 240er Monitore sind leider noch eher selten, geht aber dank DLSS3 auch bei vielen Spielen.

Bei 1440p 480er fehlt es bei neueren Games meistens noch krass an CPU Power.

Wenn ich bei einem Spiel die Leistung nicht nutzen kann, wird das PL runter gesetzt oder ein UV Profil aktiviert.
Man kann den Ferrari in der Stadt oder auf einer engen Bergstraße auch nicht mit 300kmh betreiben.

* "nur" 4x Msaa, weil der 80er bei 8x Msaa der Speicher ausging und ein fairer Vergleich daher nicht möglich gewesen wäre

BlacKi
2023-02-04, 16:08:14
Ich dachte, dass diese minimale Spannung eben nur explizit für die 4090 und 3090Ti bisher gilt?

Hat denn hier jemand ne 4080 oder 4070Ti und kann das aufklären?

270 Watt sind mir übigens viel zu viel. Ich denke da eher an 180Watt.



ne, das gilt für alle bisherigen ada. wobei ich bei der 4070ti nur 0,88v als minimum habe und nicht 0,86 wie manche bei der 4090.


am effizientesten punkt dürfte die 4080 besser als die 4070ti bei 180w sein. die 4070ti liegt am effizientesten punkt nochmal 40w darunter bei 140w. man verliert 9,x % leistung und halbiert dabei den verbrauch.

ich überlege eventuell doch auf die 4080 zu gehen, aber eigentlich reicht mir auch die 4070ti von der 3060 kommend.

hier ein video damit du einen besseren einblick bekommst. ich hätte das PL noch mal auf 140w drehen wollen als direkten vergleich zum UV. mach ich vl nochmal.

m4naXkZceQo

Snoopy69
2023-02-04, 16:16:44
Natürlich erkennt man den Unterschied. Sonst würde BFI überhaupt keinen Unterschied machen.
Muss Jeder für sich entscheiden :wink:

https://www.rtings.com/monitor/tests/motion/black-frame-insertion

Enabling the BFI feature on your monitor is entirely a personal choice, and some people simply prefer leaving it disabled. You shouldn't buy a monitor only because it has a BFI feature, but if you prefer having one, then it's something to consider.

Troyan
2023-02-04, 18:16:40
Das bezieht sich auf den Effekt. Ich erkenne hier bei mir deutliche Unterschiede zwischen 110 FPS und 170 FPS.

Wir sind noch weit weg, dass wir genug Frames haben. LG OLEDs mit 240Hz und auch der Asus Monitor mit 360Hz gehen hier in die richtige Richtung.

Platos
2023-02-05, 03:55:41
Dann ergibt deine Aussage keinen Sinn, denn bei den Spannungen kannst du OC komplett vergessen.
Kannst -125mV bei quasi nicht vorhandenem Leistungsverlust einstellen. Diese Diskussionen um die UV-Einschränkungen sind einfach nur noch hysterisch...

OC bedeutet nicht, dass die Taktrate über der Default-Einstellung ist, sondern dass die Takt-Voltage Kurve an der Y-Achse hoch gezogen wird.

UV ist dann einfach noch, dass ich ein Spannungslimit einstelle oder ich mache ein Powerlimit.

Siehst ja, wie sehr Snoopy an Effizienz gewinnt bei 0.7x Volt

Platos
2023-02-05, 04:08:33
Kann man die Spannungnen von Ada eig. wirklich nur mit nem Hardwaremod unter das sonstige Minimum senken oder geht das auch mit BIOS Mods?

ne, das gilt für alle bisherigen ada. wobei ich bei der 4070ti nur 0,88v als minimum habe und nicht 0,86 wie manche bei der 4090.


am effizientesten punkt dürfte die 4080 besser als die 4070ti bei 180w sein. die 4070ti liegt am effizientesten punkt nochmal 40w darunter bei 140w. man verliert 9,x % leistung und halbiert dabei den verbrauch.

ich überlege eventuell doch auf die 4080 zu gehen, aber eigentlich reicht mir auch die 4070ti von der 3060 kommend.

hier ein video damit du einen besseren einblick bekommst. ich hätte das PL noch mal auf 140w drehen wollen als direkten vergleich zum UV. mach ich vl nochmal.

https://youtu.be/m4naXkZceQo

Ah, danke viel viel mal für das Video. Genau sowas suche ich!

Krass, 140 Watt sind ja übel (geil). Habe das schonmal bei Reddit gelesen, aber ist nur einer, also dachte ich, das ist vlt. ein Golden Sample. Aber ist echt Krass, was die kann.

Welches Modell hast du, nur so aus Neugierde?

Im Vergleich zu meiner 115Watt 1070Ti wäre die Effizienzsteigerung echt gut. In deinem Video ist der Verlust in der Anfangsszene (da sind die FPS am stabilsten) ca. -12% bzw. +13% bei default.

Ist natürlich nur ne grobe Rechnung, aber die 4070Ti wäre dann bei nur +25% Stromverbrauch +184% schneller (ausgehend von 392*0.88=346% im UHD Index). Also die Effizienz wäre 2.25x besser. Das ist schon nice (meine Karte ist ja schon ziemlich gut untervoltet).

Klar, die 4080 wäre natürlich besser, aber Preislich absurd. Die 4070Ti ist natürlich verglichen mit z.B einer 3080, 3070(Ti) ein Witz, da das P/L nicht steigt, aber immerhin sinkt es +/- auch nicht, nicht so wie bei der 4080.

Die 4070Ti ist also m.M.n die bessere Wahl. Ist mir momentan aber zu wenig Leistung pro Dollar/Euro. Ich warte noch, oder vlt. warte ich auch gleich noch 1-2 Jahre und kaufe mir ne 4080 gebraucht (oder 4070Ti/4090). [Edit: Aber ja, kauf dir ruhig ne 4080, dann nehme ich die 4070Ti für 700Euro/CHF :D:tongue:]

Die 4070Ti müsste 550 kosten, damit ich gleich viel Rohleistung pro Geld habe, wie ich für meine 1070Ti bezahlt habe (brauche Rohleistung für Videobearbeitung)

Leonidas
2023-02-05, 07:03:06
Wie die auf 244W für die 3070TI kommen, ist schon strange.

Möglicherweise kommt die 3070Ti unter dem 3DMark nicht höher. Ist halt kein reales Spiel.

BlacKi
2023-02-05, 10:06:37
Kann man die Spannungnen von Ada eig. wirklich nur mit nem Hardwaremod unter das sonstige Minimum senken oder geht das auch mit BIOS Mods?



Ah, danke viel viel mal für das Video. Genau sowas suche ich!

Krass, 140 Watt sind ja übel (geil). Habe das schonmal bei Reddit gelesen, aber ist nur einer, also dachte ich, das ist vlt. ein Golden Sample. Aber ist echt Krass, was die kann.

Welches Modell hast du, nur so aus Neugierde?

Im Vergleich zu meiner 115Watt 1070Ti wäre die Effizienzsteigerung echt gut. In deinem Video ist der Verlust in der Anfangsszene (da sind die FPS am stabilsten) ca. -12% bzw. +13% bei default.

Ist natürlich nur ne grobe Rechnung, aber die 4070Ti wäre dann bei nur +25% Stromverbrauch +184% schneller (ausgehend von 392*0.88=346% im UHD Index). Also die Effizienz wäre 2.25x besser. Das ist schon nice (meine Karte ist ja schon ziemlich gut untervoltet).

Klar, die 4080 wäre natürlich besser, aber Preislich absurd. Die 4070Ti ist natürlich verglichen mit z.B einer 3080, 3070(Ti) ein Witz, da das P/L nicht steigt, aber immerhin sinkt es +/- auch nicht, nicht so wie bei der 4080.

Die 4070Ti ist also m.M.n die bessere Wahl. Ist mir momentan aber zu wenig Leistung pro Dollar/Euro. Ich warte noch, oder vlt. warte ich auch gleich noch 1-2 Jahre und kaufe mir ne 4080 gebraucht (oder 4070Ti/4090). [Edit: Aber ja, kauf dir ruhig ne 4080, dann nehme ich die 4070Ti für 700Euro/CHF :D:tongue:]

Die 4070Ti müsste 550 kosten, damit ich gleich viel Rohleistung pro Geld habe, wie ich für meine 1070Ti bezahlt habe (brauche Rohleistung für Videobearbeitung)


bios mods sind geschichte. manchmal besteht die möglichkeit ein fremdes bios zu flashen, aber ich denke nicht, das es einen hersteller gibt der auf 0,7v runter darf.


ich hatte die gigabyte eagle, hab sie aber wegen der lüftersteuerung gegen die TUF getauscht.


gebraucht könnte die 4070ti nächstes jahr auf jeden fall für +- 500€ zu haben sein.

Edgecrusher86
2023-02-05, 10:51:19
Keine gewünschten Taktraten...
Detailierte Anleitungen zur Bedienung der Software finde ich keine. Und die, die sich damit auskennen rücken keine Infos raus (man könnte ja ein Konkurrent sein, der in der HoF aufsteigen will)

Ich kann zwar "online" (während dem Bench/Game) die Spannung verändern, aber die angezeigte Taktrate und Spannung ändert sich on-screen nicht. Es muss sich aber was ändern, da sich die fps, die Aufnahmeleistung und das Spulengeräusch deutlich ändert...

Furmark @1.920x1.080 ohne AA
"Output Voltage" und Input Power" von links nach rechts (im Screenshot)...
1,05V - 0,945V - 0,84V - 0,734V
520W - 360W --- 245W -- 120W
645fps - 591fps - 522fps - 439fps
1,24 ---- 1,64 ---- 2,13 --- 3,66 (<-- Werte = fps pro Watt)

Bis 710mV konnte ich runter, aber das schon nicht mehr stabil (bei Furmark zumindest). Und ohne es manuell nachzumessen, weiss ich nicht, inwieweit die angezeigte Spannung in der EVC2-Software stimmt. Will sowieso noch paar Sachen ans PCB löten


Vielen Dank für den interessanten Test. Das hatte ich mir schon gedacht, da dass zumindest grob das Minimum von GA102 stabil möglich sein müsste. Bei 120W sind es noch 84% der fps von 245W bei 49% des Verbrauchs. Das kann sich wohl sehen lassen! :D

Zu schade, dass es ohne externe Mittel nicht leicht erreicht werden könnte - ich zocke zum Beispiel gerade HZD in 5160x2160 (DL-DSR) mit DLSS P bie 60 fps und 1360/9502 MHz und bin halt zumeist bei 870-880mV und 115-140W. Also mit -140/150mV...wer weiß, vielleicht würde die Karte oft passiv laufen statt mit 1000RPM. :D


Heftig wie effizient der Chip mit der niedrigen Spannung wird. Bitte Nvidia, aktiviere 0.73V für alle Ada Chips als untere Grenze!

Das habe ich erwartet anhand von meinen 3090 UV Erfahrungen. Mit meinem eher schlechten Chip auf der alten Zotac waren 1560 MHz möglich bei im Mittel 140-180W, selten 200-230W (3440, 60 fps, DLSS Q falls vorhanden oder 80-100 fps MP - BF1) bei einem Bekannten gehen glaube 1630 MHz mit ~ 730+/- mV avg. Er hat dann so 220-250W im Mittel und 270W Peaks bei 4K60.

Hatte snoopy's post zuvor übersehen, ansonsten wäre ich zuvor noch genauer drauf eingegangen. Schön, dass immerhin mit Mehraufwand außerhalb der 0815-Software noch was geht. Anders herum wäre es natürlich schöner, bequem über Software wie MSI AB.


721mV war der absolut tiefste Wert für GA102, die Mobile Chips (inkl. GA103) hatten 6xx mV Minimum. Aber geziehlt einstellen konnte man das nicht, denn die Spannung schwankte von 721-742mV. Irgendwas dazwischen war es dann, wenn das Minimum setzte.

Platos
2023-02-05, 14:05:06
Edit @Blacki: Ich sehe gerade, du arbeitest mit Powerlimit und null mit Spannungslimit. Die anzeige im Afterburner geht aber bis 0.7v. Kannst du denn da nicht die Punkte fixen auf z.B 0.75v? Also eine gerade Linie parallel zur x-Achse (ab 0.75v nach rechts). Geht das? Und liegt dann auch ne Spannung an von 0.75v ? (wenn du es nicht ausprobieren willst, musst du nicht)

Weil mit nem Powerlimit kriegst natürlich nie die niedrigste Spannung hin. Aber kannst du die Punkte frei bewegen bis hinab auf 0.7-0.75V? Also wenn du die Spannung nicht so weit runter regeln willst, musst du natürlich nicht.

Edit: Also im RTX 4080 Review Thread scheint jemand 0.8v einstellen zu können. Bin mir aber nicht sicher, ob das dann auch wirklich angenommen wird und die Spannung anliegt.

bios mods sind geschichte. manchmal besteht die möglichkeit ein fremdes bios zu flashen, aber ich denke nicht, das es einen hersteller gibt der auf 0,7v runter darf.


ich hatte die gigabyte eagle, hab sie aber wegen der lüftersteuerung gegen die TUF getauscht.


gebraucht könnte die 4070ti nächstes jahr auf jeden fall für +- 500€ zu haben sein.

500 Euro schon in einem Jahr? Das wäre schön. Aber in einem Jahr gibts ja noch keine neue Generation. Bin mir also da nicht so sicher. Aber wenn du in einem Jahr deine 4070Ti für 500 loswerden willst, meld dich bei mir :D

Edgecrusher86
2023-02-07, 16:31:59
Wie ich es mir schon dachte - die Mobile Ada kommt bezüglich VCore deutlich tiefer. 622mV @ P8 sind es hier bei Notebookcheck.net und der RTX 4080 Mobile, also grob 240-260mV unter dem Minimum von AD102!

https://abload.de/thumb/csm_stressprim_2bb1806tdiu.png (https://abload.de/image.php?img=csm_stressprim_2bb1806tdiu.png)

https://abload.de/img/csm_stressprim_2bb1806tdiu.png


Unter Teilllast - hier Furmark - sind es 764mV bei 1710 MHz.

https://abload.de/thumb/csm_stressmax_b51c262ild2k.png (https://abload.de/image.php?img=csm_stressmax_b51c262ild2k.png)

https://abload.de/image.php?img=csm_stressmax_b51c262ild2k.png


Mit dem Balanced Mode ~ 877mV @ ~ 2115 MHz - schwankend.
Im Performance Mode dann 970mV bei 2385 MHz konstant. Allerdings taktet der 13950HX übelst tief. ^^

Quelle: Review Notebookcheck - Razer Blade 16 (https://www.notebookcheck.com/Razer-Blade-16-2023-Gaming-Laptop-im-Test-Gelungener-Einstand-der-Nvidia-GeForce-RTX-4080.691346.0.html)

Thunder99
2023-02-08, 10:01:16
Nvidia muss von sich aus "UV" machen um nicht die TDP zu sprengen ;d.
Bzw andere Curve nutzen sie

=Floi=
2023-02-08, 10:12:56
Das bezieht sich auf den Effekt. Ich erkenne hier bei mir deutliche Unterschiede zwischen 110 FPS und 170 FPS.

Wir sind noch weit weg, dass wir genug Frames haben. LG OLEDs mit 240Hz und auch der Asus Monitor mit 360Hz gehen hier in die richtige Richtung.

120 fps mit perfekten frametimes reichen überall hin.
Man sollte auch mal ans stromsparen denken. 360fps sind sowas von sinnlos.

Troyan
2023-02-08, 12:43:30
Wieso sollten 360FPS in 1080p sinnlos sein? Das ist viel effzienter als 4K mit 120FPS...

Einfach mal in Spielen anschauen, wie scharf Bilder sind, wenn sich nichts bewegt und dann nochmal in Bewegung. Was wir wollen, ist eine Bildschärfe, die in Bewegung genauso scharf ist, wie im Stillstand.

Leonidas
2023-02-08, 12:48:50
GeForce RTX 4070 im April:
https://www.3dcenter.org/news/news-des-7-februar-2023

GeForce RTX 4070 Boost-Takt nun wieder leicht höher, 2550 MHz (?)
https://twitter.com/T4CFantasy/status/1623069704729292824

Dovregubben
2023-02-08, 12:51:34
GeForce RTX 4070 im April:
https://www.3dcenter.org/news/news-des-7-februar-2023

GeForce RTX 4070 Boost-Takt nun wieder leicht höher, 2550 MHz (?)
https://twitter.com/T4CFantasy/status/1623069704729292824
Wow. 2% mehr Takt. Da wird es sogar werden den Unterschied zu messen. :freak:

Dovregubben
2023-02-08, 12:55:37
120 fps mit perfekten frametimes reichen überall hin.
Man sollte auch mal ans stromsparen denken. 360fps sind sowas von sinnlos.
Ich würde ja gerne mal einen Blindtest sehen. Ein paar Pro Gamer werden sicher noch einen Unterschied merken, aber für die 99,x% Rest geht das doch Richtung Placebo.
Aber die "E-Gamer brauchen 2 Millionen FPS" ist ne gute Masche fürs Marketing.

aufkrawall
2023-02-08, 13:01:58
Die ganze Motion Blur Thematik wird völlig unterschätzt. Auf lahmen LCD-Fernsehern konnte man für Video noch ohne Interpolation auskommen, aber mit OLED sehen selbst 50fps fies ruckelig im Vergleich aus. Das sehen oft angehende Rentner, und da ist trotzdem noch der ganze Hold-Type-Blur.
Außerdem ist die Realität weit weg von perfekt und Input Lag und Frame Time-Varianz spielen auch eine große Rolle.

Dovregubben
2023-02-08, 14:08:02
Auf lahmen LCD-Fernsehern konnte man für Video noch ohne Interpolation auskommen, aber mit OLED sehen selbst 50fps fies ruckelig im Vergleich aus. Das sehen oft angehende Rentner, und da ist trotzdem noch der ganze Hold-Type-Blur.
Da gibt es zwei Lager, die beide nicht klein sind.
Ich hab den ganzen Hold Type noch nie wirklich wahrgenommen. Auch auf OLED schon viel mit BFI rumgespielt und hauptsächlich wird für mich das Bild dunkler.
Dafür bin ich sehr empfindlich was Varianz angeht.

Außerdem ist die Realität weit weg von perfekt und Input Lag und Frame Time-Varianz spielen auch eine große Rolle.
Varianz wird nicht automatisch niedriger, wenn man die Framerate erhöht. Relativ wird sie sogar schlimmer und besonders wenn man mit der CPU ins Limit läuft, wird es sogar drastisch schlimmer.

Tesseract
2023-02-08, 16:29:50
Möglicherweise kommt die 3070Ti unter dem 3DMark nicht höher. Ist halt kein reales Spiel.

das ist auch in spielen ein relativ normaler wert.

Hakim
2023-02-08, 17:48:58
Eine 4070 unter einer 3080 und eher auf 3070ti Niveau. Vermutlich aber teurer als die 3070ti. Bis auf die 12gb und bessere Effizienz sehe ich die Karte nicht gut da stehen. Und DLSS3 Performance ist nur für mich eine Art Boni, aber außen vor bei der realen Bewertung der Leistung.

dildo4u
2023-02-08, 19:07:39
Leider wird sie sich prächtig verkaufen weil NV selbst bei den 700€ Karten zu wenig Vram verbaut hat.
Bei dieser Leistungsklasse sind für mich 12 GB Grad so an der Grenze und könnte dazu führen das Leute die Ampere Modelle haben Sidegraden.

aufkrawall
2023-02-09, 06:47:44
Varianz wird nicht automatisch niedriger, wenn man die Framerate erhöht. Relativ wird sie sogar schlimmer und besonders wenn man mit der CPU ins Limit läuft, wird es sogar drastisch schlimmer.
Bis zu einem gewissen Grad sieht es mit höherer Varianz einfach ähnlich aus wie mit niedrigeren fps, was man mit höheren fps ausgleichen kann.

dargo
2023-02-09, 07:45:41
Leider wird sie sich prächtig verkaufen weil NV selbst bei den 700€ Karten zu wenig Vram verbaut hat.
Bei dieser Leistungsklasse sind für mich 12 GB Grad so an der Grenze und könnte dazu führen das Leute die Ampere Modelle haben Sidegraden.
Du meinst so prächtig wie die 4070TI. :lol:
https://www.mindfactory.de/Hardware/Grafikkarten+(VGA)/GeForce+RTX+fuer+Gaming/RTX+4070+Ti.html

Ich habe eher das Gefühl der Markt ist gesättigt. Das werden harte Zeiten für die IHVs.

dildo4u
2023-02-09, 07:56:40
Die Games die 12GB verlangen kommen gerade erst da fast alles auf 2023 verschoben wurde.
Die 4070TI bietet aber nix Neues da man für diese Preise eine 3080 12GB kaufen konnte, erst die 4070 wird interessant.

https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/News/Grafikkarte-kaufen-Nvidia-Geforce-RTX-3050-3060-3070-3080-12GB-3090-Ti-guenstig-1399244/

dargo
2023-02-09, 08:20:23
Du meinst also die Gamer mit nem 8-10GB Ampere-Krüppel wechseln auf den nächsten Vram-Krüppel @4070? Ja... das ist sehr schlau. :uup:

Snoopy69
2023-02-09, 08:37:46
Die Games die 12GB verlangen kommen gerade erst da fast alles auf 2023 verschoben wurde.
Die 4070TI bietet aber nix Neues da man für diese Preise eine 3080 12GB kaufen konnte, erst die 4070 wird interessant.

https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/News/Grafikkarte-kaufen-Nvidia-Geforce-RTX-3050-3060-3070-3080-12GB-3090-Ti-guenstig-1399244/
Hogwarts Legacy frisst mehr als 13GB VRAM :freak:

Fragman
2023-02-09, 08:42:57
Du meinst also die Gamer mit nem 8-10GB Ampere-Krüppel wechseln auf den nächsten Vram-Krüppel @4070? Ja... das ist sehr schlau. :uup:

Die wechseln gar nicht, weil sie nicht bereit sind, die aktuell hohen Preise zu zahlen. Midrange für 650 Euro braucht einfach 16GB Ram dann in 2024.
Wenn von beiden Anbietern, mit intel dann hoffentlich 3, nichts kommt werden die User sicher nicht zu den hochpreisigen Produkten greifen.
Wird spannend, ob und wie nv und AMD hier auf die Kunden zugehen.

dildo4u
2023-02-09, 08:58:56
Ich kann mir irgendwie nicht vorstellen das der Mainstream User mit den Preise der letzte 2 Jahre mitgegangen ist, ich denke in dieses Jahr sollte mehr gehen.
Es gab doch null Zwang eine 1000€ GPU für Cross-Gen Games zu kaufen, jeder der nicht gerne Geld verbrennt wird erst kaufen wenn ein die Games dazu zwingen.

dargo
2023-02-09, 09:03:14
Die wechseln gar nicht, weil sie nicht bereit sind, die aktuell hohen Preise zu zahlen.
So würde ich das auch deuten. Die Marketingtrommel @RT verblasst langsam und ohne RT braucht kaum jemand mehr Kohle in Grakas zu investieren. Dafür sind die aktuellen noch schnell genug.

bbott
2023-02-09, 09:27:46
Du meinst also die Gamer mit nem 8-10GB Ampere-Krüppel wechseln auf den nächsten Vram-Krüppel @4070? Ja... das ist sehr schlau. :uup:
Das ist doch NV Geschäftsmodell.

Linmoum
2023-02-09, 09:33:19
Funktioniert halt leider auch. Die Leute kaufen lieber eine Nvidia mit wenig(er) Speicher, als eine Radeon anzufassen. Und AMD tut nichts, um an diesem Umstand etwas zu ändern und eine attraktive Konkurrenz anzubieten. Nur mehr Speicher allein hilft da schon lange nicht. RT-Performance in kritischen Fällen deutlich hinterher, Effizienz schlechter, Featureset massiv (sowohl quantitativ als auch qualitativ) hinterher.

Also hat man die Wahl zwischen allen diesen Punkten pro Nvidia oder halt eben mehr Speicher bei AMD.

dargo
2023-02-09, 09:43:26
Das ist doch NV Geschäftsmodell.
Ich weiß. ;)

Funktioniert halt leider auch. Die Leute kaufen lieber eine Nvidia mit wenig(er) Speicher, als eine Radeon anzufassen.
Warum sehe ich davon in den Verkaufszahlen von MF nichts? Oder gehst du bei deinen Argumenten global aus weil es gerade in dein Narrativ passt? Wobei die Verkaufszahlen von Ada global auch eher mies sind. Ich habe zwar keine konkreten Zahlen. Wenn ich aber sehe, dass auch in den USA die Regale voll mit den ganzen 4070TIs und 4080-ern sind kann man schon grobe Schlüsse daraus ziehen. Imho sind die goldenen Zeiten der letzten ~2 Jahre für die IHVs vorbei. Ich bin echt gespannt was in den nächsten Monaten passiert wenn die Verkaufszahlen weiterhin unter den Erwartungen bleiben.

dildo4u
2023-02-09, 10:07:07
Sowohl NV als auch AMD werden diesmal einfach bewusst mehr High-End produzieren, erst wenn die 4090 Preise wegbrechen müssen die kleinen Karten billiger werden.
AMD hat genau so wenig Interesse mit "billigen" 5nm Karten weniger Marge einzufahren. (Ergo kostet die 7900XT 900€ )

Wobei sich laut dem 4070 TI derzeit ok verkauft.

https://twitter.com/TechEpiphany/status/1623036232929366016

dargo
2023-02-09, 10:11:30
Darf ich auch deine Glaskugel haben? Oder verrate uns doch mal für welchen Preis N32 und N33 kommen. Letzterer ist übrigens komplett N6.

dildo4u
2023-02-09, 10:13:13
Dafür brauchst du keine Glasskugel wenn die 7900XT bei 900€ ist kommt 7800XT nicht für 500€.

dargo
2023-02-09, 10:14:57
Wieso muss es gleich 500€ sein? Zumal da noch ein Salvage kommt der unwesentlich langsamer wird. Man munkelt sogar von zwei Salvages, erstmal nur Gerücht.

btw.
Der GCD von N31 ist 50% größer als der GCD von N32. Dann hat N32 Topdog 2 MCDs und 8GB Speicher weniger. Also 599$ halte ich dafür angebracht. Wenn AMD gierig ist werden es eher 699$ imho. Salvages entsprechend weniger.

dildo4u
2023-02-09, 10:21:45
Nicht vergessen AMD hat die Option 5nm Kapazität für ihre Server CPU/GPU zu nutzen, NV Server CPU(Grace) ist immer noch nicht verfügbar.

Also muss der Umsatz irgendwann von 5nm Gameing GPU kommen.

Lurtz
2023-02-09, 11:29:28
Warum sehe ich davon in den Verkaufszahlen von MF nichts? Oder gehst du bei deinen Argumenten global aus weil es gerade in dein Narrativ passt? Wobei die Verkaufszahlen von Ada global auch eher mies sind. Ich habe zwar keine konkreten Zahlen. Wenn ich aber sehe, dass auch in den USA die Regale voll mit den ganzen 4070TIs und 4080-ern sind kann man schon grobe Schlüsse daraus ziehen. Imho sind die goldenen Zeiten der letzten ~2 Jahre für die IHVs vorbei. Ich bin echt gespannt was in den nächsten Monaten passiert wenn die Verkaufszahlen weiterhin unter den Erwartungen bleiben.
Du glaubst AMD hat in Deutschland (unter Selbstbauern) mehr als 50% Marktanteil?

dargo
2023-02-09, 11:59:22
Du glaubst AMD hat in Deutschland (unter Selbstbauern) mehr als 50% Marktanteil?
Glauben kannst du in der Kirche. Die Verkaufszahlen von MF AMD vs. NV decken sich jedenfalls bei weitem nicht mit dem Argument NV würde 80% (oder sind es aktuell 90+%?) Marktanteil bei dGPUs haben. Und ja... mir ist klar, dass DE alleine nur ein heißer Tropfen auf den Stein ist, global gesehen.

vinacis_vivids
2023-02-09, 12:02:48
Die Händler haben noch riesige Nvidia-Bestände mit Altmetall-Ampere abzubauen. Der Gebrauchtmarkt ist zudem von Mining-Modellen auch überflutet. Das neue Angebot von Nvidia ist einfach überteuert und zu schlecht für den Gamer. Ich denke da ist schon sehr viel Potential für einen weiteren Preisrutsch, insbesondere bei Nvidia.

Die 12GB 4070Ti gehört so auf 500-600€ runter.

dildo4u
2023-02-09, 12:16:31
Naja 3080 für 800€ machen wenig sinn, die 4070 TI verkauft sich ok für 900€.


https://twitter.com/TechEpiphany/status/1623036232929366016

Ich tippe mal drauf das MF einige 4070 TI Listungen rausgenommen hat wenn die Charge durchverkauft wurde.

dargo
2023-02-09, 12:34:51
Ich tippe mal drauf das MF einige 4070 TI Listungen rausgenommen hat wenn die Charge durchverkauft wurde.
Ist bei Radeon nicht anders.

w0mbat
2023-02-09, 14:11:55
Wie siehts eigentlich eurer Meinung nach mit einer 4090 Ti aus?

amdfanuwe
2023-02-09, 14:12:03
Glauben kannst du in der Kirche. Die Verkaufszahlen von MF AMD vs. NV decken sich jedenfalls bei weitem nicht mit dem Argument NV würde 80% (oder sind es aktuell 90+%?) Marktanteil bei dGPUs haben.
Können sie auch nicht.
Die 20% bezieht sich auf die von AMD abgegebene Menge an GPUs in den Channel, an OEMs und Händler.
Hat nichts mit den von den Händlern verkauften Mengen zu tun, die erst mal den Lagerbestand abverkaufen.

BlacKi
2023-02-09, 14:49:18
Die Games die 12GB verlangen kommen gerade erst da fast alles auf 2023 verschoben wurde.
Die 4070TI bietet aber nix Neues da man für diese Preise eine 3080 12GB kaufen konnte, erst die 4070 wird interessant.

https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/News/Grafikkarte-kaufen-Nvidia-Geforce-RTX-3050-3060-3070-3080-12GB-3090-Ti-guenstig-1399244/


eine 3080 12gb ist langsamer und kostet mehr als 1000€. die 4070ti ist also mehr als 100€ günstiger, braucht weniger strom, hat bessere kühlung, ist schneller, hat FG. oder beziehen sich die auf gebrauchtware?:rolleyes:

w0mbat
2023-02-09, 15:17:43
Die 3080 wurde im September 2020 für $699 released, zwei Jahre und vier Monate später kommt die 4070 Ti für $799 und ist etwas besser?

Die 4070 ohne Ti sollte so schnell wie die 3090 Ti sein und $499 kosten.

Troyan
2023-02-09, 15:24:01
eine 3080 12gb ist langsamer und kostet mehr als 1000€. die 4070ti ist also mehr als 100€ günstiger, braucht weniger strom, hat bessere kühlung, ist schneller, hat FG. oder beziehen sich die auf gebrauchtware?:rolleyes:

Die 3080 12GB gab es auch nur kurz für 850€ im Abverkauf.

BlacKi
2023-02-09, 15:24:34
@wombat kann dir nicht folgen. welche karte findest du akutell denn besser? bzw. vs preise im sommer? selbst mit einer 3080 12gb für 800€ fährt man mit der 4070ti besser.

w0mbat
2023-02-09, 16:50:32
@wombat kann dir nicht folgen. welche karte findest du akutell denn besser? bzw. vs preise im sommer? selbst mit einer 3080 12gb für 800€ fährt man mit der 4070ti besser.
Ich glaube wir reden aneinander vorbei. Dir geht es darum, welche Karte aktuell im Markt der beste Deal ist, ich rede darüber, ob es ein "guter" Deal ist.

Die 4070 Ti ist in Nividias line-up aktuell die attraktivste Karte, keine Frage. Aber nichtsdestotrotz ist ein eher ein step-down von der 30 Monat alten 3080 wenn es um den gewünschten Fortschritt geht.

Slipknot79
2023-02-09, 23:06:16
Wieso wird in die Preisüberlegungen nie EUR/Spielzeit einbezogen? Oo

Wenn ich ne Graka um 2000EUR kaufe und damit 2000 Stunden spiele -> 1EUR/Spielstunde
Wenn ich warte (und das machen offensichtlich viele) und mir die selbe Graka um 1700EUR kaufe, damit aber weniger spiele weil es wurde gewartet, die nächste Generation kommt "bald" raus, ergibt z.B. 1500 Stunden = 1,13EUR/Spielstunde, dann ist die Karte um 1700EUR tatsächlich 13% teurer als die Karte um 2000EUR. (y)

Zusammengefasst: Erst mal die Spielstunden berücksichtigen, dann kann man sagen, ob man durch warten Geld gespart hat. (y)

Asaraki
2023-02-09, 23:09:01
Nö, der wartet bei der nächsten Generation ja wieder und kommt dann auf die gleichen Stunden.
Ist also schlicht und einfach 300 Euro günstiger.

Alle diese Rechnungen mit "hab aber die alte Karte für X verkauft" oder diese hier sind bestenfalls für das eigene Gewissen gut ^^

Lehdro
2023-02-09, 23:09:21
Wieso wird in die Preisüberlegungen nie EUR/Spielzeit einbezogen? Oo

Wenn ich ne Graka um 2000EUR kaufe und damit 2000 Stunden spiele -> 1EUR/Spielstunde
Wenn ich warte (und das machen offensichtlich viele) und mir die selbe Graka um 1700EUR kaufe, damit aber weniger spiele weil es wurde gewartet, die nächste Generation kommt "bald" raus, ergibt z.B. 1500 Stunden = 1,13EUR/Spielstunde, dann ist die Karte um 1700EUR tatsächlich 13% teurer als die Karte um 2000EUR. (y)

Zusammengefasst: Erst mal die Spielstunden berücksichtigen, dann kann man sagen, ob man durch "warten" Geld gespart hat. (y)

Und was ist wenn du in der "Wartezeit" einfach mit deiner alten Karte zockst, was der Normalfall wäre? Wie rechnest du das, "halber Spielspaß"? :freak:

Slipknot79
2023-02-09, 23:11:56
Und was ist wenn du in der "Wartezeit" einfach mit deiner alten Karte zockst, was der Normalfall wäre? Wie rechnest du das, "halber Spielspaß"? :freak:

Interessant wäre zu erfahren, ob AMD Käufer "schneller" eine Graka kaufen, weil sie sich mal wieder ne Krücke gekauft haben. Oder anders: Ob NV Käufer eher dazu tendieren, eine Generation zu überspringen. (y)
Solche Stats hat wohl nur Steam rumliegen. :mad:

w0mbat
2023-02-09, 23:18:35
Ich würde sagen eher nicht, da AMD Karten mit der Zeit schneller werden (FineWineTM), während Nvidia-Käufer mit ihrem Speicherkrüppel quasi gezwingen werden direkt die neue Generation zu kaufen.
Außer du gibts eh 2k€+ für die GPU aus, damit ist die Lederjacke dann gnädig und gibt ausreichend VRAM, weil man sich eh schon abzocken lassen hat.

Slipknot79
2023-02-09, 23:25:34
Ich habe mehr den Eindruck, dass NV Karten immer schneller werden. ;) Einfach mal FG einbauen, in dem Spiel, dann im nächsten usw.
Mit dem Speicherkrüppel kann es tatsächlich jemanden erwischen im Einzelfall. Mit AMD erwischt es aber alleine schon wegen der Krücken-GPU in jedem fordernden (RT-)Spiel jeden Gamer, dann bringt der VRAM auch nix mehr.

Linmoum
2023-02-09, 23:32:16
Bei Nvidia mangelt es irgendwann am Speicher, bei AMD an der Leistung. Die miese RT-Performance zaubert FineWine auch nicht mehr her.

lilgefo~
2023-02-10, 00:09:14
Und was ist wenn du in der "Wartezeit" einfach mit deiner alten Karte zockst, was der Normalfall wäre? Wie rechnest du das, "halber Spielspaß"? :freak:

Wenns andauernd ruckelt ist halber Spielspaß ja noch übertrieben ausgedrückt.

Schnitzl
2023-02-10, 03:22:45
Das Ding hier heisst Speku Forum. Also bitte back to Topic

Thunder99
2023-02-10, 13:09:00
Wundere mich immernoch warum keine Gerüchte gibt zu einem 10GB Modell.
Wäre doch super bei der 4060Ti aufgehoben als Salvage 2 vom AD104

Snoopy69
2023-02-10, 15:18:57
Upsi... :freak:

https://www.techpowerup.com/review/hogwarts-legacy-benchmark-test-performance-analysis/6.html

https://tpucdn.com/review/hogwarts-legacy-benchmark-test-performance-analysis/images/vram.png

dildo4u
2023-02-10, 16:13:54
Die haben auch eine Stelle gefunden die die 3080 killt die 4070 TI lebt noch aber zufrieden sind die mit den 12GB nicht.

https://abload.de/img/hogwartsuyeq2.png


https://youtu.be/qxpqJIO_9gQ?t=1250

Schnitzl
2023-02-10, 16:36:52
Die haben auch eine Stelle gefunden die die 3080 killt die 4070 TI lebt noch aber zufrieden sind die mit den 12GB nicht.

https://abload.de/img/hogwartsuyeq2.png


https://youtu.be/qxpqJIO_9gQ?t=1250

Bin überrascht, dass die 7900XTX mit RT vor der 4070ti liegt.
Noch überraschter bin ich dass meine 3070 auf dem letzten Platz liegt :eek:

Erstmal noch Treiber und Patches abwarten wird wohl das Beste sein...

Gott1337
2023-02-10, 21:48:20
Bin überrascht, dass die 7900XTX mit RT vor der 4070ti liegt.
Noch überraschter bin ich dass meine 3070 auf dem letzten Platz liegt :eek:

Erstmal noch Treiber und Patches abwarten wird wohl das Beste sein...
bei anderen BEnchmarks (CB zB) ist die 4080 doch rund 50% schneller als die XTX. Das Spiel hat aber noch viele Bugs und viel funzt nicht. zB das TAA schneller war als FSR/DLSS in manchen Szenarien.

Snoopy69
2023-02-10, 23:42:50
@Schnitzl
Joa, Treiber sind noch nicht so dolle bei Hogwards
Die AMD-Community wird sich wohl das Maul über diesen Bench zerreißen

btw: Vorhin Hogwards für ca. 20€ bei Steam-UA gekauft :uup:
https://www.hardwareluxx.de/community/attachments/1676051519612-png.852874/

Schnitzl
2023-02-11, 00:31:26
@Schnitzl
Joa, Treiber sind noch nicht so dolle bei Hogwards
Die AMD-Community wird sich wohl das Maul über diesen Bench zerreißen

https://www.hardwareluxx.de/community/attachments/1676051519612-png.852874/
ja gut 1440p medium details, sieht stark nach CPU Limit aus 4070ti-4090 liegen quasi gleichauf

btw: Vorhin Hogwards für ca. 20€ bei Steam-UA gekauft :uup:
Steam-UA?

Gott1337
2023-02-11, 01:10:03
@Schnitzl
Joa, Treiber sind noch nicht so dolle bei Hogwards
Die AMD-Community wird sich wohl das Maul über diesen Bench zerreißen

btw: Vorhin Hogwards für ca. 20€ bei Steam-UA gekauft :uup:
https://www.hardwareluxx.de/community/attachments/1676051519612-png.852874/
https://www.computerbase.de/2023-02/hogwarts-legacy-benchmark-test/2/
sieht hier halt komplett anders aus, also stimmt bei dem link von dir mit sicherheit irgendwas nicht.

in RT und UHD ist die 4080 einfach doppelt so schnell wie die XTX was ein joke ist und ein fetter tritt ins Gesicht.

DrFreaK666
2023-02-11, 01:26:06
https://www.computerbase.de/2023-02/hogwarts-legacy-benchmark-test/2/
sieht hier halt komplett anders aus, also stimmt bei dem link von dir mit sicherheit irgendwas nicht.

in RT und UHD ist die 4080 einfach doppelt so schnell wie die XTX was ein joke ist und ein fetter tritt ins Gesicht.

Kann sein dass Hardware Unboxed Mist gebencht hat.
Steve meinte aber, dass das Spiel selbstständig FG aktiviert hat, obwohl FG und DLSS ausgegraut waren.
Wenn das andere nicht berücksichtigt haben, dann könnte auch das die Unterschiede erklären

aus dem Transkript
https://abload.de/img/screenshot_20230211_09acvl.jpg (https://abload.de/image.php?img=screenshot_20230211_09acvl.jpg)

Snoopy69
2023-02-11, 04:43:00
Steam-UA?
Bei Steam in Ukraine :wink:
https://steamdb.info/app/990080/

Geht über ukrainische Steam-Gift-Cards oder mit Master-Card-KK
Nachteil - man muss es über einen ukrainischen Steam-ACC kaufen. Spiel verschenken geht nicht. Aber Family-Share

Schnitzl
2023-02-11, 05:13:25
https://www.computerbase.de/2023-02/hogwarts-legacy-benchmark-test/2/
sieht hier halt komplett anders aus, also stimmt bei dem link von dir mit sicherheit irgendwas nicht.

in RT und UHD ist die 4080 einfach doppelt so schnell wie die XTX was ein joke ist und ein fetter tritt ins Gesicht.
bei RT VOLL sehe ich da 45% (computerbase Raytracing in Hogwarts Legacy – 3.840 × 2.160 + Upsampling Quality)

Aber wie schon gesagt wenn alle Ada Karten quasi zusammen liegen dann ist was faul ^^

Platos
2023-02-11, 06:16:47
Nativ ist es + 100% in den Percentilen. Also d.h auf den AMD Karten hat es deutlich mehr Spikes (unruhige Frametimes), denn bei den avg. sind es keine +100%. Das ist eig. das Schlimmste, wenn sich die avg. und Percentile im Vergleich zu einer zweiten Karte deutlich unterscheiden. Dann hat die eine Karte richtige Probleme.

Aber das Spiel scheint ja momentan eh totaler Murks zu sein (technisch).

bbott
2023-02-11, 13:54:24
Bei Nvidia mangelt es irgendwann am Speicher, bei AMD an der Leistung. Die miese RT-Performance zaubert FineWine auch nicht mehr her.
LOL als ersten muss bei MV RT abgeschaltet werden wenn man die länger nutzen will. Welche 2000er oder kleinere 3000er ist bei aktuellen Titeln für RT noch tauglich?
RT ist eine Gen (gut) nutzbar danach wahrscheinlich unbrauchbar.
RAM wir mit der Zeit immer wichtiger, RT verliert mit der Zeit an Bedeutung weil mit alter Karte nicht nutzbar ;-)

BlacKi
2023-02-11, 14:01:38
LOL als ersten muss bei MV RT abgeschaltet werden wenn man die länger nutzen will. Welche 2000er oder kleinere 3000er ist bei aktuellen Titeln für RT noch tauglich?
RT ist eine Gen (gut) nutzbar danach wahrscheinlich unbrauchbar.
RAM wir mit der Zeit immer wichtiger, RT verliert mit der Zeit an Bedeutung weil mit alter Karte nicht nutzbar ;-)so wie 4 oder 8k?;) die gtx 1080 käufer konnten die spiele ebenfalls keine 2 jahre lang in 4k spielen. aber wer spielt heute noch in 4k, weil die leistung nicht reicht?

wer braucht 4k wenn er auch in fhd spielen kann. genau, weils besser aussieht, so wirds auch mit RT laufen. RT ist gekommen um zu bleiben. gpus die RT schlecht können werden weiterhin performance verlieren wie schlechter wein.

Linmoum
2023-02-11, 14:33:48
LOL als ersten muss bei MV RT abgeschaltet werden wenn man die länger nutzen will. Welche 2000er oder kleinere 3000er ist bei aktuellen Titeln für RT noch tauglich?
RT ist eine Gen (gut) nutzbar danach wahrscheinlich unbrauchbar.
RAM wir mit der Zeit immer wichtiger, RT verliert mit der Zeit an Bedeutung weil mit alter Karte nicht nutzbar ;-)Ich habe lange überlegt, wo ich anfangen soll. Ich weiß es aber immer noch nicht, weil der Beitrag so vieles irgendwie schon... naja, falsch macht bzw. einfach Denkfehler hat.

Fakt ist, dass GPUs mit der Zeit nicht mehr in der Auflösung und mit der Leistung performen, wie es zum Launch der Fall war. Das ist völlig unabhängig von RT und auch vom Speicher. Eine 1080Ti war 2017 eine tolle UHD-Karte. Ist sie das in aktuellen Titeln auch noch? Die Frage kannst du sicherlich selbst beantworten. ;)

Fakt ist auch, dass alle GPUs ab Turing DLSS2 nutzen können. Die Leistung, die den Karten dadurch nativ - eigentlich - fehlt, kann man so in sehr vielen Spielen, insbesondere großen AAA-Titeln, ein gutes Stück steigern. Bei guter Qualität.

Fakt ist auch, dass der Unterschied zwischen grundsätzlich (zu) wenig Speicher und grundsätzlich (zu) wenig Performance gewaltig ist. Mit grundlegend schlechter bzw. stark ausbaufähiger RT-Performance hast du heute schon verloren. Eine GPU mit (zu) wenig Speicher, dafür aber andererseits guter Grundperformance mit RT, hat deutlich weniger Probleme.

Was unabhängig davon natürlich nichts daran ändert, dass zu wenig Speicher scheiße ist und jedem Hersteller links und rechts um die Ohren gehauen gehört. Wenn die andere Option aber (zu) viel Speicher bei dafür schlechter Performance ist und man nur die Wahl zwischen beidem hat, dann ist das für die Kunden Mist - und auch kein Wunder, warum trotzdem weiterhin die riesige Mehrheit Nvidia kauft. Speicher allein zieht schon lange nicht mehr als Argument, wenn der Rest suckt. Was auch logisch ist, dass man dann die Produkte kauft, wo die Leistung einfach schon grundlegend besser/höher ist.

Snoopy69
2023-02-11, 16:17:17
:eek:

Erst ab 16 GB ist man wirklich sorgenfrei (https://www.computerbase.de/2023-02/hogwarts-legacy-benchmark-test/3/#abschnitt_erst_ab_16_gb_ist_man_wirklich_sorgenfrei)

bbott
2023-02-11, 16:20:24
so wie 4 oder 8k?;) die gtx 1080 käufer konnten die spiele ebenfalls keine 2 jahre lang in 4k spielen. aber wer spielt heute noch in 4k, weil die leistung nicht reicht?

wer braucht 4k wenn er auch in fhd spielen kann. genau, weils besser aussieht, so wirds auch mit RT laufen. RT ist gekommen um zu bleiben. gpus die RT schlecht können werden weiterhin performance verlieren wie schlechter wein.
Die 1080 hatte auch noch passabel (8GB)RAM, danach würde NV noch geiziger und geiziger mit RAM.

BlacKi
2023-02-11, 17:43:55
Die 1080 hatte auch noch passabel (8GB)RAM, danach würde NV noch geiziger und geiziger mit RAM. mir gings generell um die spielbarkeit von grafikkarten im grenzbereich. wobei die 10gb 3080 mit dlss q in 1440p erst überhaupt akzeptable fps mit 10 oder 12gb zusammenbekommt RTX on.



du kannst also HL also nach wievor gut mit der 3080 und RT spielen, auch mit 10gb.


das rumgeheule ist derzeit immernoch fehl am platz. allerdings sind 8gb nur noch mit reduzierter quali spielbar und die 3070ti und darunter sind höchstens für fhd tauglich. oder RT off. da ist der drops gelutscht.

Schnitzl
2023-02-11, 19:15:38
Nativ ist es + 100% in den Percentilen. Also d.h auf den AMD Karten hat es deutlich mehr Spikes (unruhige Frametimes), denn bei den avg. sind es keine +100%. Das ist eig. das Schlimmste, wenn sich die avg. und Percentile im Vergleich zu einer zweiten Karte deutlich unterscheiden. Dann hat die eine Karte richtige Probleme.

Aber das Spiel scheint ja momentan eh totaler Murks zu sein (technisch).
Das war doch meine Rede. Aber 100% sehe ich immer noch nicht. :confused:

@Linmoum:
RT kann ich in den Optionen abschalten, aber ich kann keine weiteren GB auf die Grafikkarte löten.
Das ist Fakt. :wink:

Ohne weitere Patches macht es imho eh kein Sinn das Spiel für irgendwelche Vergleiche heranzuziehn. Vielleicht im April dann wenn die 4070 da ist :)

ChaosTM
2023-02-11, 19:23:20
Die dümmliche, aber wirtschaftlich durchaus Sinn machende VRAM Sparschiene (planned obsolescence) von NV ist schon sehr, sehr ärgerlich.
Daher hab ich mir auch das fette Ding gegönnt. Selbst 16 sind schon unterste Grenze.

Hauwech
2023-02-11, 23:59:15
Die dümmliche, aber wirtschaftlich durchaus Sinn machende VRAM Sparschiene (planned obsolescence) von NV ist schon sehr, sehr ärgerlich.
Daher hab ich mir auch das fette Ding gegönnt. Selbst 16 sind schon unterste Grenze.

Das gleiche gilt auch für AMD denn die sind auch keine Samariter. Wenn es rein nach Speicher geht, führt Intel mit der 770 LE mit den 16GB Ram bei den Preisen (wenn auch mit entsprechend Verlust) nVidia wie AMD an der Nase durch den Ring.

Klar, die Leistung ist jetzt nicht so dolle (aber für den ersten Wurf definitiv respektabel) und so wie Intel Treiber raushaut, dürften sie noch das eine oder andere, vielleicht sogar zweistellige Prozente an Leistung hier und da noch finden. Hoffentlich bleibt Intel am Ball.

BlacKi
2023-02-12, 09:00:43
die 16gb sind ein alleinstellungsmerkmal. aber abgesehen davon ist der chip waste of sand. 400mm²+ in 6nm = 276mm² in 8nm(was ein optimierter 10nm prozess ist)

robbitop
2023-02-12, 10:16:49
Er ist doch entsprechend bepreist. Wen interessiert wie groß der Chip ist, wenn P/L stimmt? IIRC führt ARC in Perf/€ während man bei den beiden anderen IHVs mit neuen Produkten nur abgezockt wird. (bei AMD ein bisschen weniger aber immernoch deutlich - siehe Berichte zu den absichtlichen Verknappungen beider IHVs um die Preise hoch zu halten - iirc haben sie das in dern Quarterly statements ggü den Investoren so reportet).

Companies are not your friends. Aber IMO ist man gut darin beraten nach gutem P/L Ausschau zu halten als Consumer.

Intel hat noch einen weiten Weg vor sich, weshalb man ARC wahrscheinlich ohne Marge verkaufen muss. Man muss aber bedenken es ist die erste Generation einer uArch mit Gamingfokus. Klar dass das noch nicht mithalten kann pro mm2. Wenn man so beharrlich dranbleibt, kann man den Abstand sicherlich verkürzen. Etwas Wettbewerb würde dem GPU Markt wo jeder Ferraris und Yachten haben will mal gut tun. Weg mit den hohen Margen! Ich will mal wieder einen ordentlichen Preiskampf sehen wie aktuell bei CPUs.