Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ada Lovelace/Hopper (Ampere-Nachfolger, "4N", Q4/2022 + "SUPER"-Refresh Q1/2024)
BlacKi
2022-09-24, 13:24:06
?
Klar pauschal. Das Spiel läuft halt mit 30FPS, nur die Grafikausgabe ist 60FPS in meinem Beispiel. Das mag einen geringfügigen Gewinn geben, weils angenehmer fürs Auge ist, aber es spielt sich ansonsten eben nicht angenehmer.nein, nur wenn man frame generation nutzt. dlss 3 ist nicht pauschal frame generation.
Troyan
2022-09-24, 13:26:42
RTX Remix benutzt die Tensor-Cores für das Upscaling von Texturen. Das ist also eine reale Anwendung.
Ihr würdet lieber über die schlechte Skalierung gerade bei der Raster perf. bei ada diskutieren, ich bin jetzt seit der Vorstellung am überlegen wo das Problem liegen könnte. Architektur?! Aber irgend wie bleibe ich immer beim Cache hängen.
Gibt keine. Das Ding skaliert so, wie es bei veralteter Software gang und gäbe ist.
AD102 hat 12 Rasterizer. Ist also Ultra-breit und taktet auf fast 3000MHz. Die Grafik-Pipeline ist aktuell eben noch seriell.
Das Ding bringt mehr als die dreifache Leistung bei Raytracing. Das wäre nicht möglich, wenn AD102 nicht skalieren würde.
nein, nur wenn man frame generation nutzt. dlss 3 ist nicht pauschal frame generation.
Versteh ich nicht, was du damit meinst. DLSS3 ist eine reine GPU-Sache.
why_me
2022-09-24, 13:28:18
Hm keine Ahnung. Die GPU kann gerne eigenständig mein Youtube Video schneiden ( View effektiv ), es korrekt betiteln ( Klick effektiv ), mir eine Übersetzung ausspucken ( Barrierefrei in 30 Sprachen ) und anhand der letzten Videos rausfinden, welche Bilder ich wo eingefügt haben möchte.
Das würde mir ein paar Stunden Zeit sparen in der Woche. :D
Teilweise gibt es schon automatische Schnitt Programme bei MacOS, die Pausen rauscutten, es kann aber ruhig noch mehr Richtung > Ich habe weniger Arbeit < gehen.
Aber das ist Arbeit, dafür würde eine zutatzkarte auch ausreichen, die das übernehmen könnte. Da das doch eher ein spezieller Anwendungsfall ist und auch fraglich ist, wieviel TOPs das wirklich braucht.
Und um wieder etwas richtung Topic zu kommen:
So eine zusatzkarte würde natürlich nur Funktionieren, wenn die Kühler nicht 5 Slots groß sind und damit alle PCIE Slots des Mainboards verdecken würden :freak:
Das Ding bringt mehr als die dreifache Leistung bei Raytracing. Das wäre nicht möglich, wenn AD102 nicht skalieren würde.
Aber auch nur mit Framedoubling? Ohne sieht die Skalierung auch dort nicht besonders gut aus.
Must nur die Balken von Nvidia nehmen und durch 2 Teilen :wave:
Aber das ist Arbeit, dafür würde eine zutatzkarte auch ausreichen, die das übernehmen könnte. Da das doch eher ein spezieller Anwendungsfall ist und auch fraglich ist, wieviel TOPs das wirklich braucht.
Und um wieder etwas richtung Topic zu kommen:
So eine zusatzkarte würde natürlich nur Funktionieren, wenn die Kühler nicht 5 Slots groß sind und damit alle PCIE Slots des Mainboards verdecken würden :freak:
[...]
:freak: Na ja, in dieser Zeit ist das ja nur eine relativ kleine Absurdität.
FastAndy
2022-09-24, 13:34:14
Die 4090 wird ihre Käufer finden - auch wenn die 450W sicherlich stören werden. Gibt es jemanden der klar sagt, dass die 4080 12GB / 16GB eine ernsthafte Kaufoption ist?
Die Karten werden alle Ihre Käufer finden. Manche vergessen, trotz der aktuell pikären Lage, wie viel Vermögen im Umlauf ist.
Weiß hier überhaupt jemand wie viele Karten produziert werden?
Ich mein, wenn NV nur eine begrenzte Anzahl an Karten liefern kann, würde das auch die Preise erklären. Es gibt noch immer Millionen Deutsche, die sehr gut verdienen / vermögend sind und sich was leisten wollen. Wenn man nur diese bedienen kann, würde das einiges erklären. Das gleiche gilt natürlich auch für andere Länder.
BlacKi
2022-09-24, 13:34:32
Versteh ich nicht, was du damit meinst. DLSS3 ist eine reine GPU-Sache.ich meinte, das was mit dem fallback mode von dlss gemeint ist, bzw. die funktionen die im fallback modus aktiv sind. dann gibt es keinen höheren inputlag, weil frame generation nicht aktiv ist.
https://i.redd.it/c23t9cx0u2p91.png
dlss 3.0 ohne zusätzlichen inputlag durch framegeneration, aber mit dem besseren dlss 3 bild und reflex.
Daredevil
2022-09-24, 13:35:52
Wer von den "Minimal ms" Fans hat eigentlich ne aktuelle Nvidia Karte im Rechner, weil es Reflex dort gibt? Weil ne AMD Karte müsste ja für Multiplayer quasi unspielbar sein. :D
Ich mach mal ne Ansage:
Nvidia wird sich in naher Zukunft ( 5-10 Jahre ) Richtung "AIO Apple" like entwickeln und ihre eigenen geschlossenen Systeme bauen, da sie so die Möglichkeit haben, Hardware und Software unter einem Dach zu bekommen. Aktuell müssen sie dediziert Software entwickeln für diesen Zweck, das hätten sie sicherlich nativ in jedem System. Die KI Leistung verpufft ja im nichts, das ist eine komplette Verschwendung, wenn die Karte einfach nur im Idle sitzt. Es werden SoCs kommen und eine Gaming Plattform für diesen Zweck, die alle exklusiv diese Features nutzen.
Hoffe die Switch2 wird das "erste Produkt" in die Richtung so sein, wo DLSS oder whatever Pflicht ist für Games.
Wenn die GPU jetzt schon die CPU entlastet, braucht es auch einfach keine dicke CPU.
Wird spannend. :)
Die haben ja jetzt auch schon ihre eigene Server CPU, nech. Müssen sie ja auch, weil sie sonst auf kurz oder lang von AMD umrundet werden, die eben beide schon anbieten, aber noch zu "offen" sind.
ich meinte, das was mit dem fallback mode von dlss gemeint ist, bzw. die funktionen die im fallback modus aktiv sind. dann gibt es keinen höheren inputlag, weil frame generation nicht aktiv ist.
https://i.redd.it/c23t9cx0u2p91.png
dlss 3.0 ohne zusätzlichen inputlag durch framegeneration, aber mit dem besseren dlss 3 bild und reflex.
Das war doch überhaupt nicht gemeint. Es ändert sich nichts an der Gesamtlatenz (minimal die Ausgabelatenz).
Das ist ne pure Marketingblablafolie, die dir verkauft, da würde was gespart, was aber nie da war. Es gibt keine gerinige CPU-Last, das ist BS. Diese zusätzlichen Frames erzeugen keine zusätzliche CPU-Last, aber mit allen Nachteilen, weil das Spiel eben nicht schneller läuft sondern nur die Grafik. Deswegen sag ich ja, es wird höchstens augenschonender, aber nicht schneller.
Mir scheint, dass viele immernoch vergessen, dass die CPU der Computer ist und die Grafikkarte ein Zusatzbeschleuniger für bestimmte Aufgaben. Das Spiel läuft auf der CPU und das ist von DLSS3 völlig unberührt.
Spring
2022-09-24, 13:43:50
Wer von den "Minimal ms" Fans hat eigentlich ne aktuelle Nvidia Karte im Rechner, weil es Reflex dort gibt? Weil ne AMD Karte müsste ja für Multiplayer quasi unspielbar sein. :D
Ich mach mal ne Ansage:
Nvidia wird sich in naher Zukunft ( 5-10 Jahre ) Richtung "AIO Apple" like entwickeln und ihre eigenen geschlossenen Systeme bauen, da sie so die Möglichkeit haben, Hardware und Software unter einem Dach zu bekommen. Aktuell müssen sie dediziert Software entwickeln für diesen Zweck, das hätten sie sicherlich nativ in jedem System. Die KI Leistung verpufft ja im nichts, das ist eine komplette Verschwendung, wenn die Karte einfach nur im Idle sitzt. Es werden SoCs kommen und eine Gaming Plattform für diesen Zweck, die alle exklusiv diese Features nutzen.
Hoffe die Switch2 wird das "erste Produkt" in die Richtung so sein, wo DLSS oder whatever Pflicht ist für Games.
Wenn die GPU jetzt schon die CPU entlastet, braucht es auch einfach keine dicke CPU.
Wird spannend. :)
Die haben ja jetzt auch schon ihre eigene Server CPU, nech. Müssen sie ja auch, weil sie sonst auf kurz oder lang von AMD umrundet werden, die eben beide schon anbieten, aber noch zu "offen" sind.
Dafür gibt es Radeon Anti Lag.
Ich dachte du bist Hardware Berater, aber wirkst eher wie ein Verkäufer von Apple und nvidia HW.
@Hot
Wie ich sagte: DLSS/FSR und RT sind super für Sologames.
Im Multiplayer will man sowas nicht.
Ich persönlich spiele way more Multiplayer, daher uninteressant.
Für Leute, die fast nur Horizon Zero Dawn, CP 2077 oder ähnliches zocken ist es interessanter.
Wo würde wohl ein Turing mit 76 Mrd. Transistoren und HBM3 Interface liegen? Ich stell mir gerade 4xTU102 vor statt dem was NV auch immer da aktuell gemacht hat. Kann bis auf DLSS3 dann auch alles aber vermutlich die doppelte Rasterperformane... *träum*
Troyan
2022-09-24, 13:59:32
Wo würde wohl ein Turing mit 76 Mrd. Transistoren und HBM3 Interface liegen? Ich stell mir gerade 4xTU102 vor statt dem was NV auch immer da aktuell gemacht hat. Kann bis auf DLSS3 dann auch alles aber vermutlich die doppelte Rasterperformane... *träum*
Schau dir Hopper und vergleiche es mit Volta an. Du bekommst sogar mehr mit Lovelace gegenüber Turing, weil Hopper nur 100 Millionen Transistoren pro mm^2 hat, Lovelace hat 20% mehr.
Spring
2022-09-24, 14:47:01
MS hat wieder geschlafen (könnte auch nvidia gewesen sein):
Windows-11-2022-Update (22H2) macht Nvidia-Grafikkarten langsam (https://www.heise.de/news/Windows-11-2022-Update-22H2-macht-Nvidia-Grafikkarten-langsam-7274637.html)
"heise online konnte die Leistungseinbrüche mit einer RTX-2070-Super-Grafikkarte nachvollziehen: Die Benchmark-Funktion von "Cyberpunk 2077" zeigte im "Ray-Tracing: Medium"-Preset mit 4K-Auflösung ohne DLSS lediglich 3,0 fps, nach Installation der Experience-Beta-Version waren es 9,3 fps. Mit aktiviertem DLSS ("Auto") kam der Benchmark auf 20,1fps und nach der Beta-Installation auf 26,8fps.
Laut Nvidia würden die Leistungseinbrüche von einer fälschlicherweise aktivierten Grafik-Debugging-Funktion verursacht. Bei der Funktion handelt es sich um ein neues Feature des Windows-11-2022-Updates, das eigentlich nur bei der Software-Entwicklung zum Einsatz kommen soll, aber aus bislang unbekannten Gründen von der GeForce-Experience-Software aktiviert wird. Mit der 3.26-Beta-Version passiert das nicht mehr."
Ex3cut3r
2022-09-24, 14:57:38
Übrigens arbeitet Nvidia schon mal der RTX 4090 Ti. Hier ein geleaktes Bild aus einem gehackten Nvidia Server. ;D
https://abload.de/img/neuesprojektjjd0i.png
Tangletingle
2022-09-24, 14:59:42
Und was lässt man somit am liebsten herstellen!?! Genau die Produkte die am teuersten sind, sprich wo man am meisten verdient. Erst danach kommt der "Rest"am meisten "verdient"an aber häufig eben nicht mit den teuersten Produkten. Sondern man verdient mit Stückzahl und kalkulierer Marge. Der Faktor Preiselastizität wurde ja auch schon angesprochen.
Da liegt dein gedanklicher Fehler.
Sehe ich anders, sehr viele haben die letzten zwei Jahre keine gpus gekauft weil sehr teuer.
Die neue Generation ist zwar auch teuer, aber deutlich leistungsfähiger und man bekommt pro Dollar mehr Leistung als die letzten zwei Jahre. Sprich gpus werden wieder vermehrt bei den Gamer landen, und die werden nächstes Jahr für Umsatz sorgen.
Wat laberscht du? Perf/$ ist beim aktuellen msrp und den veröffentlichten Zahlen der schlechter als bei der alten Gen.
FastAndy
2022-09-24, 15:12:37
Ich wüsste mal gerne wann die 4090 Ti wirklich kommt. Muss ich haben. :)
DrFreaK666
2022-09-24, 16:15:47
Kein Plan. Wenn eine 3090 doppelt so schnell ist, was sagt das also über RDNA2 aus?
Hier in Doom Eternal mit Raytracing in 4K sind es 68%: https://www.computerbase.de/2022-05/amd-radeon-rx-6650-xt-6750-xt-6950-xt-review-test/2/#abschnitt_benchmarks_mit_und_ohne_raytracing_in_uhd
Und die 3090 hat nur 6mb L2 Cache. :eek:
Du immer mit deinem Cherrypicking. Im Durchschnitt ist die 3090 nicht doppelt so schnell. Das schmeckt dir halt nicht. Daher werden nur die Rosinen rausgepickt... Vielleicht merkt es ja keiner :rolleyes: :
Ravenhearth
2022-09-24, 16:38:35
Wo würde wohl ein Turing mit 76 Mrd. Transistoren und HBM3 Interface liegen? Ich stell mir gerade 4xTU102 vor statt dem was NV auch immer da aktuell gemacht hat. Kann bis auf DLSS3 dann auch alles aber vermutlich die doppelte Rasterperformane... *träum*
Ich wäre mir da nicht so sicher. Der skaliert ja nicht 1:1, wäre also wahrscheinlich höchstens ~3x so schnell und damit eventuell gar nicht mal schneller als es AD102 im Vollausbau wäre. Man kann hier auch nicht unbedingt Ada-ähnliche Taktraten ansetzen.
Nvidia scheint für die hohen Taktraten von Ada nämlich massig Transistoren investiert zu haben, ähnlich wie AMD damals bei Vega: GA102 und AD103 haben gleich viele SMs, Shader usw. im Vollausbau, letzter kommt aber auf 17,6 Mrd. bzw. 62% mehr Transistoren! Zum Teil lassen sich diese durch den L2-Cache erklären, der sicher über 3 Mrd. Transistoren kostet, und durch die Verbesserungen an den RT- und Tensor-Kernen, aber ohne große Änderungen an den normalen Rechenwerken bleibt nur die Taktrate als Erklärung für den Großteil der zusätzlichen Transistoren übrig.
dargo
2022-09-24, 16:47:39
Wurde das hier schon gepostet ? Aufpassen, dass Kabel nicht wegbrennen mit Ada Lovelace!
https://www.youtube.com/watch?v=p48T1Mo9D3Q&t=322s
https://www.youtube.com/watch?v=K6FiGEAp928
Liefert Nvidia bei den Preisen keinen Feuerlöscher dazu? :D
Zossel
2022-09-24, 17:03:11
Wurde das hier schon gepostet ? Aufpassen, dass Kabel nicht wegbrennen mit Ada Lovelace!
https://www.youtube.com/watch?v=p48T1Mo9D3Q&t=322s
https://www.youtube.com/watch?v=K6FiGEAp928
US-Anwaltskanzleien die sich auf Schadensersatzforderungen spezialisiert haben bereiten bestimmt schon Klagen vor. Aus technischer Sicht ist das gefährlicher Schrott!
Wahrscheinlich werden diese Stecker eine kurze Periode haben und in absehbarer Zeit durch eine Lösung ersetzt werden die mit höheren Spannungen arbeitet.
Troyan
2022-09-24, 17:05:37
Ich wäre mir da nicht so sicher. Der skaliert ja nicht 1:1, wäre also wahrscheinlich höchstens ~3x so schnell und damit eventuell gar nicht mal schneller als es AD102 im Vollausbau wäre. Man kann hier auch nicht unbedingt Ada-ähnliche Taktraten ansetzen.
Nvidia scheint für die hohen Taktraten von Ada nämlich massig Transistoren investiert zu haben, ähnlich wie AMD damals bei Vega: GA102 und AD103 haben gleich viele SMs, Shader usw. im Vollausbau, letzter kommt aber auf 17,6 Mrd. bzw. 62% mehr Transistoren! Zum Teil lassen sich diese durch den L2-Cache erklären, der sicher über 3 Mrd. Transistoren kostet, und durch die Verbesserungen an den RT- und Tensor-Kernen, aber ohne große Änderungen an den normalen Rechenwerken bleibt nur die Taktrate als Erklärung für den Großteil der zusätzlichen Transistoren übrig.
Man sollte ähnliche Die-Größen vergleichen - z.B. GA104 und AD103 (wobei AD103 ist fast 20mm^2 kleiner :eek:).
AD103 hat 2,6x mehr Transistoren und 2,5x mehr Rechenleistung (1,66x mehr Einheiten und 1,5x höherer Takt). Dazu kommt noch der größere L2 Cache, neue TensorCores, neue RT Cores sowie die Funktionerweiterung für SER, neue Videoeinheiten und die OFA-Einheit.
Zossel
2022-09-24, 17:20:31
Die Kamera besteht ja quasi nur noch aus AI/KI, die Tonaufnahme auf Distanz ebenso.
Das Zwitschern von Vögeln hält so manche KI für Sprache und schiebt es kräftig in den Vordergrund. Die Spektogramme dürften auch sehr ähnlich sein.
aufkrawall
2022-09-24, 17:25:36
Dafür gibt es Radeon Anti Lag.
Das bringt deutlich weniger als Reflex, gibt Messungen von Battle(non)sense dazu.
Wie ich sagte: DLSS/FSR und RT sind super für Sologames.
Im Multiplayer will man sowas nicht.
Ich kann in Fortnite mit DLSS entfernte Gegner besser erkennen als mit den anderen Optionen.
prinz_valium_2
2022-09-24, 17:29:47
Total offtopic, aber wie mir gerade wieder in den Sinn kommt, dass es vor kurzem ein Hammer CPU upgrade für 140€ gab.
Ein Ryzen 5600 für alle Ryzen 1600 Besitzer von vor 5 1/2Jahren.
Auf der Seite der Berechnung ist die Welt noch in Ordnung.
DrFreaK666
2022-09-24, 17:31:42
...Ich kann in Fortnite mit DLSS entfernte Gegner besser erkennen als mit den anderen Optionen.
Was will man bei Fortnite eher? 120FPS und niedrige Latenz oder 240FPS und höhere Latenz?
aufkrawall
2022-09-24, 17:33:31
Was will man bei Fortnite eher? 120FPS und niedrige Latenz oder 240FPS und höhere Latenz?
Es hieß nur DLSS, und nicht DLSS 3 bzw. dessen fps-Doubling. Und TAAU hat natürlich keine höhere Latenz bei gleichen fps.
Tomahawk
2022-09-24, 17:39:48
Ich bin mal die Liste aller nVidia-Grafikkarten durchgegangen, die auf der Internetseite gelistet sind. Bei der Zählweise habe ich mich an nVidia orientiert (4080 12 GB / 16 GB sind separate Grafikkarten, 3080 10 GB /12 GB ist eine Grafikkarte).
4090
4080 16 GB
4080 12 GB
3090 Ti
3090
3080 Ti
3080 10/ 12 GB
3070 Ti
3070
3060
3050 (2.560 / 2.304 CUDA-Einheiten)
Insgesamt gibt es 11 Desktop-Grafikkarten. Davon kosten 6 Modelle über 1.000 Euro, nur 5 kosten weniger. Ist der Markt für Highend-Grafikkarten wirklich so groß, dass man so viele Modelle braucht?
DrFreaK666
2022-09-24, 17:39:48
Das war nicht meine Frage
Ex3cut3r
2022-09-24, 18:35:19
Ich bin mal die Liste aller nVidia-Grafikkarten durchgegangen, die auf der Internetseite gelistet sind. Bei der Zählweise habe ich mich an nVidia orientiert (4080 12 GB / 16 GB sind separate Grafikkarten, 3080 10 GB /12 GB ist eine Grafikkarte).
4090
4080 16 GB
4080 12 GB
3090 Ti
3090
3080 Ti
3080 10/ 12 GB
3070 Ti
3070
3060
3050 (2.560 / 2.304 CUDA-Einheiten)
Insgesamt gibt es 11 Desktop-Grafikkarten. Davon kosten 6 Modelle über 1.000 Euro, nur 5 kosten weniger. Ist der Markt für Highend-Grafikkarten wirklich so groß, dass man so viele Modelle braucht?
3090 alle Versionen, und die 3080 alle Versionen sind nur Restbestände vom Mining Boom die man bisher nicht losgeworden ist. Die kleineren Karten ab 3070 bekommen erst im nächsten Jahr einen Nachfolger.
Tomahawk
2022-09-24, 18:51:07
Die Ti-Karten (3070 Ti, 3080 Ti, 3090 Ti) waren doch schon sowas wie die Refresh-Generation. nVidia hat aber die non-Ti im Portfolio belassen. Im Prinzip sind es drei Generationen von Karten, die man im Preisbereich über 1.000 Euro anbietet.
Wenn aber ein Nachfolger der kleineren Karten aus der 4000er Reihe kommt - dann gibt es nur Karten ab ca. 500-600 Euro, oder?
prinz_valium_2
2022-09-24, 18:53:08
Ich bin mal die Liste aller nVidia-Grafikkarten durchgegangen, die auf der Internetseite gelistet sind. Bei der Zählweise habe ich mich an nVidia orientiert (4080 12 GB / 16 GB sind separate Grafikkarten, 3080 10 GB /12 GB ist eine Grafikkarte).
4090
4080 16 GB
4080 12 GB
3090 Ti
3090
3080 Ti
3080 10/ 12 GB
3070 Ti
3070
3060
3050 (2.560 / 2.304 CUDA-Einheiten)
Insgesamt gibt es 11 Desktop-Grafikkarten. Davon kosten 6 Modelle über 1.000 Euro, nur 5 kosten weniger. Ist der Markt für Highend-Grafikkarten wirklich so groß, dass man so viele Modelle braucht?
Es gibt auf der nVdidia Seite doch auch noch die 2000er und 1600er Reihe.
Aber selbst da ist dann das günstigste der Gefühle 200€
Für die Einstigsklasse einer Vor-vorlestzten Generation mit beschnittenem Featureset
Aber klar, der Modellmarkt is unübersichtlicher geworden.
Das gab es vor 5 bis 10 Jahren nicht.
Nazar
2022-09-24, 18:58:42
Quatsch.
Zumal niemand im Multiplayer RT verwendet (außer man möchte öfter sterben), reine Solo-Games Geschichte.
Und wieso sich alle an DLSS so hochziehen, vor 20 Jahren wurde nach jedem Treiber release von ATi und nVidia hier die Bildqualität besprochen und ein Megaaufriss gemacht. Jetzt werden konstruierende Upscaler als das Maß aller Dinge angespriesen, sowas wie "Auflösung runter stellen" oder "Details runter" gibts wohl nicht mehr. Und DLSS/FSR im Multiplayer ist jetzt auch kein Highlight.
^^ This!
In einem Artikel auf der Startseite wird allen Ernstes RT als ebenso bildverbesserungswürdig angesehen wie 8xMSAA. Angeblich sieht man es sofort, wie gut RT den Spielen tut. Das nenne ich mal maximale Verdrängung von Fakten. :rolleyes:
BlacKi
2022-09-24, 19:02:58
US-Anwaltskanzleien die sich auf Schadensersatzforderungen spezialisiert haben bereiten bestimmt schon Klagen vor. Aus technischer Sicht ist das gefährlicher Schrott!
Wahrscheinlich werden diese Stecker eine kurze Periode haben und in absehbarer Zeit durch eine Lösung ersetzt werden die mit höheren Spannungen arbeitet.
blödsinn. wie gesagt, tritt das erst ab ca 40x verbindungen und trennungen auf, was also praktisch in oem business null rolle spielt, im modding umfeld die ausnahme ist, und dann nicht bei jedem 40x mal passiert wenn die karte 600w dauerlast erfährt. derzeit gibt es keine solche karte ohne OC und vermutlich selbst mit OC wird es schwierig diese dauerlast zu halten.
die möglicherweiße 600-800w karten werden praktisch nicht nur einen pcie5.0 stecker haben sondern 2.
aber wenn man unbedingt die kabel zum schmoren bringen will, dann wird man das sicher hinbekommen^^
ich finde es sehr bezeichnend wie viel hate da vorhanden ist um aus allem einen elefanten zu machen. wow.
Konami
2022-09-24, 19:08:47
Von WCCFTech (https://wccftech.com/nvidia-ada-lovelace-follow-up-qa-dlss-3-ser-omm-dmm-and-more/) (Videobeitrag von Daniel Owen (https://youtu.be/-J5K1zxXXik?t=738)) kommt in einem Q&A mit Nvidia eine Klarstellung zum Thema DLSS3 Frame Generation und Lag:Q: For eSports users who might want to achieve the lowest latency, will it be possible to only enable NVIDIA DLSS 2 (Super Resolution) + Reflex without the DLSS Frame Generation that improves FPS but also increases system latency?
A: Our guidelines for DLSS 3 encourage developers to expose both a master DLSS On/Off switch, as well as individual feature toggles for Frame Generation, Super Resolution, and Reflex, so users have control and can configure the exact settings they prefer. Note that while DLSS Frame Generation can add roughly a half frame of latency, this latency is often mitigated by NVIDIA Reflex and DLSS Super Resolution - all part of the DLSS 3 package. NVIDIA Reflex reduces latency by synchronizing CPU and GPU, and DLSS Super Resolution reduces latency by decreasing the size of the render resolution.
Im Endeffekt hängt es also vom Entwickler ab – sie sollen lt. Guideline den User Reflex und Frame Generation individuell ein-/ausschalten lassen, müssen es aber anscheinend nicht.
Ein anderes Thema, was hier irgendwie untergegangen ist:
Wurde das hier schon gepostet ? Aufpassen, dass Kabel nicht wegbrennen mit Ada Lovelace!
https://www.youtube.com/watch?v=p48T1Mo9D3Q&t=322s
https://www.youtube.com/watch?v=K6FiGEAp928
Fand ich auch echt spannend, als ich's gesehen hab. :freak: An sich echt ein katastrophaler Designfail beim 12VHPWR-Anschluss. Die Pins etwas dicker zu machen hätte wahrscheinlich 1 Cent gekostet.
Eigentlich müsste das Problem aber auch schon bei der 3090 Ti aufgefallen sein. Betreibt die hier jemand mit Adapter?
Konami
2022-09-24, 19:10:52
ich finde es sehr bezeichnend wie viel hate da vorhanden ist um aus allem einen elefanten zu machen. wow.
Bitte informier dich doch einfach mal - z.B. indem du die geposteten Videos anschaust oder Nachrichten (https://www.fpal.org/pci-sig-warns-of-dangers-in-pcie-5-0-adapter-cables/) liest. Ist die PCI-SIG auch eine "Hater"-Organisation? :lol:
Radeonfreak
2022-09-24, 19:11:06
Betreibt die hier jemand mit Adapter?
Vermutlich jeder, es gab ja keine Netzteile dafür.
Troyan
2022-09-24, 19:12:11
^^ This!
In einem Artikel auf der Startseite wird allen Ernstes RT als ebenso bildverbesserungswürdig angesehen wie 8xMSAA. Angeblich sieht man es sofort, wie gut RT den Spielen tut. Das nenne ich mal maximale Verdrängung von Fakten. :rolleyes:
https://imgsli.com/MTI2OTk0
Los sag es: DU siehst hier keine Unterschiede.
Nazar
2022-09-24, 19:12:59
Oha, jedes ms zählt, oder wie?
Ich hoffe doch stark, du hast nen 500Hz GSync Monitor auf dem Tisch stehen, denn alles andere ist maximal für WoW tauglich.
Oder ernsthaft geantwortet:
Du bist nicht repräsentativ für die Gaming Welt.
Solange es Millionen Spieler gibt, die mit Bluetooth an einer Konsole RDR2 mit Input Lag aus der Hölle spielen, gibt es auch Millionen Spieler, die diesen Input Lag schlicht irrelevant finden, da sie ihn nicht spüren.
1. Und deswegen ist DLSS relevanter?
2. Warum widersprichst du in einer Tour selbst? :confused:
E: 3. Polemik ist kein Argument. Konsolen haben Lag, weil du annimmst, dass die Spieler sich exakt so verhalten, wie du es dir wünscht? ;)
Daredevil
2022-09-24, 19:15:34
Ja, weil FPS relevanter sind als Input Lag. ;)
Tomahawk
2022-09-24, 19:19:32
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/RTX-4000-gegen-RDNA-3-Experten-sehen-wichtigen-Kostenvorteil-fuer-AMD-1404044/
Es gibt immer mehr Indizien für die These von Troyan und einigen anderen hier. nVidia scheint in der Tat ein großes Kostenproblem zu haben und „kann“ die Karten einfach nicht günstiger anbieten.
aufkrawall
2022-09-24, 19:20:05
Ja, weil FPS relevanter sind als Input Lag. ;)
Allgemein würde ich das Gegenteil behaupten: Input Lag = Spielbarkeit.
Aber einer gewissen Marke ist die halt gut genug, dass man auch mit etwas Latenz fps-Doubling machen kann, wenn es nicht gerade um Shooter geht.
Aber ohne Reflex oder manche in-game Limiter ist die Latenz <100fps sowieso oft kompletter Müll, was aber leider schon wieder zu hoch für viele ist.
unl34shed
2022-09-24, 19:27:24
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/RTX-4000-gegen-RDNA-3-Experten-sehen-wichtigen-Kostenvorteil-fuer-AMD-1404044/
Es gibt immer mehr Indizien für die These von Troyan und einigen anderen hier. nVidia scheint in der Tat ein großes Kostenproblem zu haben und „kann“ die Karten einfach nicht günstiger anbieten.
Und das, obwohl sie schon die kleineren Dies nutzen, die früher in einer 70er oder 60Ti Karte gelandet wären und diese als 4080 verkaufen, verrückt.
Ravenhearth
2022-09-24, 19:35:38
https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/RTX-4000-gegen-RDNA-3-Experten-sehen-wichtigen-Kostenvorteil-fuer-AMD-1404044/
Es gibt immer mehr Indizien für die These von Troyan und einigen anderen hier. nVidia scheint in der Tat ein großes Kostenproblem zu haben und „kann“ die Karten einfach nicht günstiger anbieten.
Jein. Wie bereits geschrieben; wenn man ausgehend von der 4090 runter rechnet, könnte Nvidia die 4080 16GB für $999 anbieten und die 12GB für $699 und hätte immer noch eine ähnliche Marge wie bei der 4090. Das wäre zwar noch eine Preiserhöhung, aber keine so große. Der aktuelle Preis der beiden 4080 ist also nicht allein den hohen Kosten geschuldet. Womöglich senkt Nvidia deren Preis auch spätestens, wenn die ganzen Ampere-Karten auf Halde abverkauft sind.
Neurosphere
2022-09-24, 19:35:48
Und wieso sich alle an DLSS so hochziehen, vor 20 Jahren wurde nach jedem Treiber release von ATi und nVidia hier die Bildqualität besprochen und ein Megaaufriss gemacht. Jetzt werden konstruierende Upscaler als das Maß aller Dinge angespriesen
+1
Leider haben die Bildverschlimmbesserer aufgrund der mangelhaften Leistung der Gens und dann nur ein Update alle 2 Jahre sowas in Kombination mit den neuen Auflösungen bis 4k zugelassen.
Ich hoffe das DLSS und FSR irgendwann nicht mehr nötig sind und das Bild wirklich nicht mehr zu unterscheiden ist.
Nazar
2022-09-24, 19:40:38
https://imgsli.com/MTI2OTk0
Los sag es: DU siehst hier keine Unterschiede.
Du bist so einfach gestrickt!
BQ-Verbesserung. Gehe bitte mal wieder nach draußen. Stell dich in einem Holzbau mit so vielen Lücken und wo die Sonne so strahlt.
Das, was dort gezeigt wird, hat in beiden Fällen relativ wenig mit der Realität zu tun, nur kostet RT, für eine reine !!!Bild-Veränderung!!! und nicht für eine auch nur ähnliche !!!Bildverbesserung!!! wie im Vergleich zu 8xMSAA viel zu viel Performance. Schon 2xAA wird von 99,99% aller Betrachter einer Szene als eindeutig "besser" und "ruhiger" wahrgenommen, diesen Wert erreichst du mit RT nicht mal im Ansatz. Hier ist man im Schnitt unter 10%, die RT immer als "besser" empfinden.
Interessant wird es dann, wenn man DLSS zuschaltet, um auf spielbare Frames zu kommen. Mehr als 75% der Befragten empfanden, dass etwas nicht stimmte. Konnten aber nicht sagen was und waren der Meinung, dass das Abschalten von DLSS das Bild angenehmer machte. Am wenigsten waren Brillenträger von den Einflüssen von DLSS betroffen.
Du machst es einem auch viel zu einfach. ;)
E: Dafür, dass deiner Meinung nach RT und DLSS so gewaltige Spielerbringer sind, verstehe ich einfach nicht, weshalb nVidia ein 2 Jahre altes, vollkommen schlecht für RZ optimiertes Spiel als Hauptbenchmark nehmen muss? Oh, ich verstehe es schon, aber ich will ja, dass du mal nachdenken musst. ;)
Tomahawk
2022-09-24, 19:41:58
Klar, nVidia könnte die Preise etwas senken. Grundsätzlich scheint man aber mit der neuen Generation kaum mehr Leistung pro Euro bieten zu können als mit der Vorgängergeneration. Das ist das große Problem.
Schauen wir, ob AMD es besser macht.
unl34shed
2022-09-24, 19:43:19
vt8Z8iM0aO0
4080 ist echt ein Perf/$ Schnapper.
Aber jetzt wird bestimmt gleich gesagt, Rasterization spielt eh keiner, DLSS3 macht alles gut, Irgendwas mit AMD um abzulenken, ...
@Tomahawk: mehr FPS pro $? ;D
Ex3cut3r
2022-09-24, 19:46:44
Es ist immer wieder erstaunlich, wie YouTuber ein 10 Minuten erstellen, mit Informationen die es A gar nicht gibt und B sich irgendwas zusammenreimen. Zweitens ist denn noch erstaunlicher das es Leute gibt, die sich diesen Dünnpfiff vom Anfang bis ende ansehen und dann meinen schlauer als vorher zu sein.
Es macht einfach keinen Sinn, irgendwie die Performance einer 4080 oder 4090 anhand von Nvidias selbst erstellen (Fake) Benchmarks zu bewerten.
Dural
2022-09-24, 19:48:49
Was erzählt ihr da für ein blödsinn, oder könnt ihr nicht rechnen!?!
4080 12gb für 899.- mit Leistung einer 3090 die hatte einen Listenpreis von 1499.- und wurde eine lange Zeit für 2000+ verkauft.
Genau so die 4090 für 1599.- mit ca. 60% mehr Leistung als 3090ti.
Troyan
2022-09-24, 19:52:36
Du bist so einfach gestrickt!
BQ-Verbesserung. Gehe bitte mal wieder nach draußen. Stell dich in einem Holzbau mit so vielen Lücken und wo die Sonne so strahlt.
Das, was dort gezeigt wird, hat in beiden Fällen relativ wenig mit der Realität zu tun, nur kostet RT, für eine reine !!!Bild-Veränderung!!! und nicht für eine auch nur ähnliche !!!Bildverbesserung!!! wie im Vergleich zu 8xMSAA viel zu viel Performance. Schon 2xAA wird von 99,99% aller Betrachter einer Szene als eindeutig "besser" und "ruhiger" wahrgenommen, diesen Wert erreichst du mit RT nicht mal im Ansatz. Hier ist man im Schnitt unter 10%, die RT immer als "besser" empfinden.
Interessant wird es dann, wenn man DLSS zuschaltet, um auf spielbare Frames zu kommen. Mehr als 75% der Befragten empfanden, dass etwas nicht stimmte. Konnten aber nicht sagen was und waren der Meinung, dass das Abschalten von DLSS das Bild angenehmer machte. Am wenigsten waren Brillenträger von den Einflüssen von DLSS betroffen.
Du machst es einem auch viel zu einfach. ;)
E: Dafür, dass deiner Meinung nach RT und DLSS so gewaltige Spielerbringer sind, verstehe ich einfach nicht, weshalb nVidia ein 2 Jahre altes, vollkommen schlecht für RZ optimiertes Spiel als Hauptbenchmark nehmen muss? Oh, ich verstehe es schon, aber ich will ja, dass du mal nachdenken musst. ;)
Du redest echt so ein Unsinn. Du faselt hier was, dass man Raytracing nicht wirklich sehen könnte und ich zeige dir die Realität und was kommt zurück: "Gehe doch mal raus"? Hä?
Gib es doch einfach zu, dass du Typ hier nur trollen willst. :cool:
Tomahawk
2022-09-24, 19:52:54
@Dural
Die 4080 12 Gb scheint ca. so schnell zu sein wie die 3080 Ti. Beide kosten doch 1100-1200 Euro.
Und die 3080 Ti kostet schon über ein Jahr so viel. Deswegen kein Vorteil bei fps pro Euro
unl34shed
2022-09-24, 19:55:12
Dural, nimm lieber gleich die 3090Ti, die hat noch eine beschissenere P/L bei Ampere und lässt Ada in einem besseren Licht da stehen. Einfaches Marketing...
Wann gab es bitte bei einer neuen Grafikkarten Generation weniger Leistung fürs Geld? Und das auch noch mit zwei Full-Node Shrinks!
@Ex3cut3r: Keine Angst, ich kann Mathe, mir war das schon vorher bewusst und ich musste mir das Video nicht anschauen ;)
davidzo
2022-09-24, 19:57:13
Was erzählt ihr da für ein blödsinn, oder könnt ihr nicht rechnen!?!
4080 12gb für 899.- mit Leistung einer 3090 die hatte einen Listenpreis von 1499.- und wurde eine lange Zeit für 2000+ verkauft.
Genau so die 4090 für 1599.- mit ca. 60% mehr Leistung als 3090ti.
Nö, erstens hast du die falschen Preise, die 4080 12GB kostet 1099€ nicht 899.
Und zweitens ziehst du den falschen vergleich.
Die 3090 ist eine content creator Karte mit 24GB G6X, keine Gamingkarte. Mit der kannst du VR Entwicklung machen und unoptimierte Texturen sprengen nicht gleich den VRAM. Da wo die 3090 eingesetzt wird würde eine 4080 12GB total abkacken.
Der richtige Vergleich ist die 3080ti mit ebenfalls 12GB und praktisch identischer Leistung in nicht Vram limitierten Szenarien. Die 3080ti ist schon vor dem Launch 100€ billiger gewesen (999€).
Und ich bezweifle dass die 4080 12G oberhalb von WQHD noch schneller ist als eine 3080ti. Da geht ihr nämlich die Bandbreite aus von der die ti reichlich hat.
Und Btw, eine 3080 12G ist fast 300€ bzw. 25% billiger zu haben als die neue 4080 12GB und wird ebenfalls kaum langsamer sein.
Die 3080 hat sogar zu ihrem originalen Launchpreis vom September 2020 noch das bessere Preis/Leistungs verhältnis als beide 4080 in 2022 und das selbst wenn du die Inflation rausrechnest. 2 Jahre Stagnation, bzw. sogar Rückschritt beim P/L also.
robbitop
2022-09-24, 19:57:53
Ich finde es lustig und traurig zugleich, dass der Preis an einer SKU einer neuen Gen an der Performance und dem Preis einer Lastgen SKU festgemacht wird. Ist schneller als lastgen sku also darf es auch X kosten. Das zeigt wie stark man auf diese Preisentwicklung konditioniert wurde.
Die lastgen ist die lastgen. Die nextgen bietet gefällgst den üblichen gen over gen sprung für grob (inflationsnormiert) das gleiche Geld. Das ist der Maßstab. Dass das nicht 1:1 so geht wegen teureren Prozessen ist klar. Aber grundsätzlich wird man schon gut gemolken als Endverbraucher (die fetten Margen zeigen es) und ist sogar langsam dran gewöhnt worden.
Troyan
2022-09-24, 19:58:31
Nö, erstens hast du die falschen Preise, die 4080 12GB kostet 1099€ nicht 899.
Und zweitens hast du den falschen vergleich.
Die 3090 ist eine content creator Karte mit 24GB G6X, keine Gamingkarte. Da wo die 3090 eingesetzt wird würde eine 4080 12GB total abkacken aus VRAM Mangel.
Der richtige Vergleich ist die 3080ti mit ebenfalls 12GB und die ist schon vor dem Launch 100€ billiger.
Und ich bezweifle dass die 4080 12G oberhalb von WQHD noch schneller ist als eine 3080ti. Da geht ihr nämlich die Bandbreite aus.
Wow, vergleichen wir jetzt Abverkaufspreise? ;D
Wieso wohl kostet die 3080TI keine 1500€ mehr? Richtig, weil die 1049€ Karte schneller ist.
robbitop
2022-09-24, 20:00:08
Weil NV das Mining überschätzt hat (und jetzt gleichzeitig der Gebrauchtmarkt mit Mining GPUs geschwämmt wird) und die Lager brechend voll mit Lastgen Hardware ist die jetzt weg muss.
why_me
2022-09-24, 20:07:30
@robbitop: War doch die letzten beiden Gens auch schon so, Preierhöhung von Nvidia wurde von den gleichen gestallten schöngeredet.
"Leistung steigt um X bedeutet Preis steigt um X, also bleibt die P/L gleich".
Nur gab es die letzten Gens auch noch die Leute, die meinten "Ich brauch Leistung um jeden Preis, mir egal, ob es teurer wird", aber die sind erstaunlich ruhig bei dieser release. Oder fangen auch schon an sich zu beschweren, wie übeteuert die Karten jetzt sind. :eek:
Mal schauen, wie lange das gut geht mit den hohen Preisen. Lager sind ja noch voll. Vielleicht gibt es nächstes Jahr ein rebranding auf 50er Generation, mit korrigierten Preisen und dann auch einer x70, statt der komischen x80er.
davidzo
2022-09-24, 20:07:55
Wow, vergleichen wir jetzt Abverkaufspreise? ;D
Wieso wohl kostet die 3080TI keine 1500€ mehr? Richtig, weil die 1049€ Karte schneller ist.
Kannst du nicht lesen?
Wie ich bereits geschrieben habe war der Preis schon davor günstiger.
guck doch selbst in Geizhals wenn du es bezweifelst.
Btw, Releasepreis war 1119$ und damals war der Euro noch so stark dass das unserem Preis mit Mwst entsprach. Der beinahe zwei Jahre alte Releasepreis entspricht also schon der neuen 4080 12G.
Troyan
2022-09-24, 20:12:01
Kannst du nicht lesen?
Wie ich bereits geschrieben habe war der Preis schon davor günstiger.
guck doch selbst in Geizhals wenn du es bezweifelst.
Btw, Releasepreis war 1119$ und damals war der Euro noch so stark dass das unserem Preis mit Mwst entsprach. Der beinahe zwei Jahre alte Releasepreis entspricht also schon der neuen 4080 12G.
Natürlich fällt der Preis vor der Ankündigung. Das nennt sich Abverkauf. Und die 3080TI wurde im Miningzeitraum rausgebracht und war daher nie wirklich für UVP erhältlich.
In Amerika ist der UVP $1199. Somit ist die 4080 12GB $300 günstiger. Für Deutschland vollkommen irrelevant, weil der Abverkauf den schwachen Euro nunmal verdeckt.
davidzo
2022-09-24, 20:19:18
Da hast du dir aber ein Eigentor geschossen. Du bestätigst ja selber dass die UVP der 3080ti nur so hoch gelegen hat wegen Mining. Ohne Mining wäre wohl kaum eine so große Lücke zwsichen eine 10GB 3080 für 699$ und einer 3080ti für 1119$.
Und wie Tomahawk schon https://www.forum-3dcenter.org/vbulletin/showthread.php?p=13117439#post13117439 (in diesem Post) bemerkt hat ist diese Diskussion sinnbefreit, da es sich mitnichten um "Abverkaufspreise handelt", da diese schon seit über einem Jahr in diesem Preisbereich liegt. Es pendeln sich einfach langsam normale "post-mining" Preise ein.
Nvidia hat ja gerade ein umfangreiches Programm zur Verhinderung von Abverkaufspreisen eingeleutet. Nennt sich GA102 Vernichtungsprogram Tauschprogramm;D. Entsprechend gibt es im moment schon die erste Knappheit bei 3090s und 3080tis, von Abverkauf kann nicht die Rede sein.
Meridian12
2022-09-24, 20:19:47
Und trotzdem dürfte die 4060ti in der 4080 12 GB Verkaufsverpackung floppen.
Wer kauft so eine kastrierte Karte für 1100 Euro???
why_me
2022-09-24, 20:25:10
Du redest echt so ein Unsinn. Du faselt hier was, ... und was kommt zurück: "Gehe doch mal raus"? Hä?
Ach Troyan, die Worte lesen, hilft dabei die Posts zu verstehen ;)
Was Nazar da geschrieben hat, war nicht nur "geh nach drausen", sonder auch, dass du da mal was tun sollst :wave:. Wobei das jetzt eher schlecht ist, da es schon dunkel ist. Also hast du was für Morgen zu tun.
Versuch den Post noch einmal zu lesen und zu verstehen. Du bekommst das sicherlich hin.
Platos
2022-09-24, 20:40:45
Ich finde es lustig und traurig zugleich, dass der Preis an einer SKU einer neuen Gen an der Performance und dem Preis einer Lastgen SKU festgemacht wird. Ist schneller als lastgen sku also darf es auch X kosten. Das zeigt wie stark man auf diese Preisentwicklung konditioniert wurde.
Die lastgen ist die lastgen. Die nextgen bietet gefällgst den üblichen gen over gen sprung für grob (inflationsnormiert) das gleiche Geld. Das ist der Maßstab. Dass das nicht 1:1 so geht wegen teureren Prozessen ist klar. Aber grundsätzlich wird man schon gut gemolken als Endverbraucher (die fetten Margen zeigen es) und ist sogar langsam dran gewöhnt worden.
Das traurigste ist, dass manche das dann immer mit dem Top-Dog der letzten Gen vergleichen, welches immer eine riesen Marge und überzogene Preise haben und dann sagen: "Hey, ist doch ein besseres P/L, also was habt ihr ?". Oder einfach generell mit Karten, die schon immer einen überzogenen Preis hatten.
Ist aber bei den CPUs nicht anders. AMD hats mit Zen3 vorgemacht, Intel wird nachziehen mit Raptorlake. In beiden "Lagern" finden sich immer Leute, die das auch noch verteidigen.
DrFreaK666
2022-09-24, 20:46:08
... 99,99% aller Betrachter... Mehr als 75% der Befragten... Am wenigsten waren Brillenträger von den Einflüssen von DLSS betroffen.
Du machst es einem auch viel zu einfach. ;)...
Du machst es dir ohne Quelle auch ziemlich einfach
Tesseract
2022-09-24, 22:02:48
nur kostet RT, für eine reine !!!Bild-Veränderung!!! und nicht für eine auch nur ähnliche !!!Bildverbesserung!!!
https://imgur.com/a/iN3mP48
zeig mir bitte ein rasterisiertes spiel mit vergleichbarer beleuchtung. volldynamisch wohlgemerkt. mit in etwa knapp dreistelligen fps.
Daredevil
2022-09-24, 22:09:40
Wann gab es bitte bei einer neuen Grafikkarten Generation weniger Leistung fürs Geld?
Im Supermarkt kostet Quark aktuell drei mal soviel als noch vor 12 Monaten.
Geh dem doch mal auf die Spur, dann hast du schnell eine Antwort. Gleicher Quark, dreifacher Preis. :(
Besser wäre gleicher Preis, aber nur 200g im Pott. :(
:(
Tomahawk
2022-09-24, 22:13:06
@Daredevil
Bist du ein Experte für Molkereiprodukte? Das finde ich spannend! Ich wusste nicht, dass Milch bzw. Nutztiere eine große Bedeutung für Grafikkarten spielen. Teile doch dein Wissen zum Zusammenhang zwischen Quark und Grafikkarten.
Spring
2022-09-24, 22:41:25
Oha, jedes ms zählt, oder wie?
Ich hoffe doch stark, du hast nen 500Hz GSync Monitor auf dem Tisch stehen, denn alles andere ist maximal für WoW tauglich.
Oder ernsthaft geantwortet:
Du bist nicht repräsentativ für die Gaming Welt.
Solange es Millionen Spieler gibt, die mit Bluetooth an einer Konsole RDR2 mit Input Lag aus der Hölle spielen, gibt es auch Millionen Spieler, die diesen Input Lag schlicht irrelevant finden, da sie ihn nicht spüren.
Das ist großer Müll was du da erzählst und das weißt du auch (500 Hz undso). Außerdem haben wir null von Konsolen geredet, ganz andere Baustelle.
iamthebear
2022-09-24, 22:42:39
https://imgur.com/a/iN3mP48
zeig mir bitte ein rasterisiertes spiel mit vergleichbarer beleuchtung. volldynamisch wohlgemerkt. mit in etwa knapp dreistelligen fps.
Volldynamische Beleuchtung schön und gut. Mir ist aber trotzdem ein Spiel lieber wo ich alles klar erkennen kann. Realismus ist nett aber wenn mir gerade zu Mittag die Sonne direkt auf den Schirm scheint, dann können die Schatteneffekte noch so toll sein :P
Exxtreme
2022-09-24, 22:43:55
Das ist großer Müll was du da erzählst und das weißt du auch. Außerdem haben wir null von Konsolen geredet, ganz andere Baustelle.
Nein, er hat schon recht. Rechne damit, dass 90% der Spieler diesen Lag nicht bemerken werden. Und ich bin ab 60 Hz auch schon zufrieden auch wenn ich einen Unterschied zwischen 60 Hz und 90 Hz immer noch merke. Ich kenne Leute, für die sind 25 fps flüssig. Aber gut, die sind nicht die Kundschaft für diese Grafikkarten.
Spring
2022-09-24, 22:59:53
Nein, er hat schon recht. Rechne damit, dass 90% der Spieler diesen Lag nicht bemerken werden. Und ich bin ab 60 Hz auch schon zufrieden auch wenn ich einen Unterschied zwischen 60 Hz und 90 Hz immer noch merke. Ich kenne Leute, für die sind 25 fps flüssig. Aber gut, die sind nicht die Kundschaft für diese Grafikkarten.
Selbst auf Twitch/Discord, wo eine ganze Bandbreite an Systemen vertreten ist (von 2GB VRAM Grakas bis Top Dog) beschweren sich die Leute (PC-User!), wenn das Game wie ein Sack Nüsse läuft. Sachen wie 144Hz & co sind ja bei der Masse ja auch angekommen, aber fang mal ne Diskussion/Info über DLSS/FSR oder RT mit einem durchschnittlichen User an, der guckt dich an wie ein Pferd.
Die Leute spielen (ich rede nur von Multiplayer) sehr oft mit reduzierten Settings (trotz dicker Karte) wg der Visibillity/Lag durch Post-Processing bzw "hohe Details". Genauso gibt es Leute, die behaupten 25 fps sind "ausreichend", die sind im kompetitiven Multiplayer dann auch meist Iron/Bronze - wenn überhaupt.
Will sagen: Die Masse der Features werden eh nie genutzt oder nur im Sologame, da sind schon Treibereinstellungen der Endgegner.
Aufkrawall ist da eher die Ausnahme, aber der ist ja auch ein Nerd (wie fast jeder hier in dem Forum), was definitiv nicht die Masse widerspiegelt.
Die Konsolen Fraktion ist aber definitiv eine ganz andere Baustelle, klar gibst du dir da mit BT-Pads o.ä. den Multiplayer - so wie die meisten anderen auch oder TVs, die vllt nicht mal im Game-Mode sind. Aber über den Status sind wir ja als PC Gamer ja meist hinaus (bis auf die 25 fps Fraktion, aber die ist auch stark geschrumpft).
aber wenn mir gerade zu Mittag die Sonne direkt auf den Schirm scheint, dann können die Schatteneffekte noch so toll sein :P
In dem Fall ist dann auch alles bzgl. BQ scheißegal.
Vielleicht Rollo runterlassen?
Thomas Gräf
2022-09-24, 23:02:05
Ok 90% der Gamer, dazu zählen aber nicht SimRacer, Flugsim Asspiloten, Shootergamer...hab ich wen vergessen?
Leider sind das aber die Kumpels die sich TrippleScreens und sontwas für Zeugs hinstellen und über den Preis dieser RTX Karten lächeln würden...wenn es Sinn hätte diese zu benutzen.
Oder schielen diese RTX Karten in Richtung Konsolen Gamer die mal was tolles zu sehen kriegen wollen???
Exxtreme
2022-09-24, 23:17:10
Selbst auf Twitch/Discord, wo eine ganze Bandbreite an Systemen vertreten ist (von 2GB VRAM Grakas bis Top Dog) beschweren sich die Leute (PC-User!), wenn das Game wie ein Sack Nüsse läuft. Sachen wie 144Hz & co sind ja bei der Masse ja auch angekommen, aber fang mal ne Diskussion/Info über DLSS/FSR oder RT mit einem durchschnittlichen User an, der guckt dich an wie ein Pferd.
Die Leute spielen (ich rede nur von Multiplayer) sehr oft mit reduzierten Settings (trotz dicker Karte) wg der Visibillity/Lag durch Post-Processing bzw "hohe Details". Genauso gibt es Leute, die behaupten 25 fps sind "ausreichend", die sind im kompetitiven Multiplayer dann auch meist Iron/Bronze - wenn überhaupt.
Will sagen: Die Masse der Features werden eh nie genutzt oder nur im Sologame, da sind schon Treibereinstellungen der Endgegner.
Aufkrawall ist da eher die Ausnahme, aber der ist ja auch ein Nerd (wie fast jeder hier in dem Forum), was definitiv nicht die Masse widerspiegelt.
Die Konsolen Fraktion ist aber definitiv eine ganz andere Baustelle, klar gibst du dir da mit BT-Pads o.ä. den Multiplayer - so wie die meisten anderen auch oder TVs, die vllt nicht mal im Game-Mode sind. Aber über den Status sind wir ja als PC Gamer ja meist hinaus (bis auf die 25 fps Fraktion, aber die ist auch stark geschrumpft).
Ja, aber die Streamer auf Twitch sind schonmal keine Normalos. Und auch da verlangen kaum welche 144 Hz. Ausser eventuell Spieler, die extrem kompetitiv Shooter spielen. Und wieviel Prozent der Spielerschaft machen diese aus? Wahrscheinlich in Richtung <1%.
Das ist halt derzeit das Dilemma, in dem sich AMD und Nvidia befinden. Egal wohin sie immer optimiert haben, das war eine Optimierung für <5% der Spieler. Die Features, die Nvidia jetzt vorgestellt hat kommen auch einer größeren Masse an Spielern zugute sobald die Spiele diese unterstützen. Wie gesagt, setz mal einen Normalo vor dem Bildschirm und spätestens ab echten 60 Hz spürt der keinerlei Lag.
Thomas Gräf
2022-09-24, 23:28:12
Aber die grosse Masse wird diese RTX Karten nicht kaufen. Und Programmier Studios machen ihre Games für den Großteil der verkauften Hardware.
Die "Profigamer" werden diesmal nicht bedient, wer soll das also kaufen...
Spring
2022-09-24, 23:33:41
Ja, aber die Streamer auf Twitch sind schonmal keine Normalos. Und auch da verlangen kaum welche 144 Hz. Ausser eventuell Spieler, die extrem kompetitiv Shooter spielen. Und wieviel Prozent der Spielerschaft machen diese aus? Wahrscheinlich in Richtung <1%.
Das ist halt derzeit das Dilemma, in dem sich AMD und Nvidia befinden. Egal wohin sie immer optimiert haben, das war eine Optimierung für <5% der Spieler. Die Features, die Nvidia jetzt vorgestellt hat kommen auch einer größeren Masse an Spielern zugute sobald die Spiele diese unterstützen. Wie gesagt, setz mal einen Normalo vor dem Bildschirm und spätestens ab echten 60 Hz spürt der keinerlei Lag.
Ich meinte eher die Zuschauerschaft bzw deren Gaming-Comms.
Aber auch weil jmd Twitch Streamer ist, heißt das nicht, das die Person mehr Grafikkarten als "Geforce" kennt und oft wissen die selbst nicht mal was eingebaut ist ("guter PC" / "hat mein Mod gebaut" / "der hat xyz € gekostet, der ist geil"). Viele haben auch Ihre Specs als Info unter dem Stream, aber wage es ja nicht die Leute drauf anzusprechen ;)
Also meine Erfahrung ist, dass fast jeder der CS GO, Valorant, Overwatch, Modern Warfare, Battlefield, PUBG o.ä. spielt, weiß das 60 Hz nicht ausreichend sind, das ist schon in der Masse angekommen. Das hat nichts mit extrem kompetitiv zu tun, spätestens wenn du mit 25 fps und/oder 60 Hz nur ins Gesicht online bekommst, stößt Du via Google/Discord/Communites eben auf diese Info. Und das sind sicher nicht unter 1% der Gamer, das sind viel mehr: https://store.steampowered.com/charts/mostplayed
Aber ja, absolut richtig: die neuen "Entwicklungen/Optimierungen" gehen eben an über 3/4 der Gamer vorbei.
Jupiter
2022-09-24, 23:34:16
Der NVidia GTC-Vortrag hat auf YouTube 20 Millionen Betrachter. Ich wusste gar nicht, dass diese Videos solch eine Reichweite haben.
//differentRob
2022-09-24, 23:48:09
Seit über 20 Jahren wächst die Nerd- und Gamercommunity. Täglich nimmt der stetige Anteil an der Bevölkerung die zocken zu.
Da kommen dann halt auch 20mio. Views für ne simple Produktvorstellung dabei raus.
Geldmann3
2022-09-24, 23:48:30
Gibt es eigentlich schon Informationen dazu, ob die RTX 4000er GPUs mit Shadowplay 4k bei 120Hz aufzeichnen können? Dass 8k@60FPS gehen soll, habe ich bereits gehört.
=Floi=
2022-09-25, 00:41:42
Ihr müsst nicht gegen NV hetzen, viel besser wäre eure Energie gegen eure Regierung gerichtet. Ihr verarmt ja nur noch, und begreift es nicht mal.
was würdest denn du machen?
Was hättest du die letzten 3 jahre gemacht?
DrFreaK666
2022-09-25, 03:26:26
Viele große Streamer bekommen sicherlich eine 4090 geschenkt und sagen dann wie flüssig das Spiel dank DLSS 3 läuft. "unfassbar wie flüssig das ist. Das müsst ihr selbst erlebt haben usw..."
Nvidia macht das schon
Sardaukar.nsn
2022-09-25, 09:51:36
Viele große Streamer bekommen sicherlich eine 4090 geschenkt und sagen dann wie flüssig das Spiel dank DLSS 3 läuft. "unfassbar wie flüssig das ist. Das müsst ihr selbst erlebt haben usw..."
Nvidia macht das schon
Nicht nur bei den Steamern. Die großen Karten sind ja auch Statussymbole geworden. Sicher weit davon wo man bei Uhr/Auto inzwischen ist, aber die Richtung ist schon klar: Etwas eindeutiger bei ihm hier https://www.reddit.com/r/IndianGaming/comments/iytw5q/even_the_mighty_zlatan_has_rtx_3090/
Ein Henry Cavill (Superman/Witcher) wird das sicher sympathischer im nächsten PC-Build Video durchklingen lassen.
TheCounter
2022-09-25, 09:59:14
Also nachdem ich die Preise für die 4090 bei Caseking gesehen habe, wurde mir schlecht...
120% Aufpreis gegenüber meiner 3080 ist es dann definitiv nicht wert, vor allem mit den Fake FPS aka DLSS3. Mal sehen was AMD so bringt, aber ich werde die neue Gen höchstwahrscheinlich doch überspringen.
Tomahawk
2022-09-25, 10:13:26
Das ist richtig. nVidia scheint ein massives Kostenproblem zu haben - die Kosten sind anscheinend so hoch, dass sie zum gleichen Preis nicht mehr Leistung als bei der Vorgängergeneration bieten können. Ada scheint also das Portfolio nur nach oben sinnvoll abzurunden (4090). Der Markt für Gamer-Grafikkarten >2.000 Euro ist aber sehr klein. Dieser sehr geringe Fortschritt bei Preis/Leistung wird dazu führen, dass nVidia im Preisbereich unter 2.000 Euro keinen Verkaufsschub durch die neue Generation bekommen wird. Der Aktienkurs von nVidia ist auch abgestürzt (ca. 50% seit April).
robbitop
2022-09-25, 10:17:33
Nicht nur bei den Steamern. Die großen Karten sind ja auch Statussymbole geworden. Sicher weit davon wo man bei Uhr/Auto inzwischen ist, aber die Richtung ist schon klar: Etwas eindeutiger bei ihm hier https://www.reddit.com/r/IndianGaming/comments/iytw5q/even_the_mighty_zlatan_has_rtx_3090/
Ein Henry Cavill (Superman/Witcher) wird das sicher sympathischer im nächsten PC-Build Video durchklingen lassen.
Leute für die eine GPU ein Statussymbol ist tun mir einfach nur leid. Sowohl von der geistigen Reife (und das sage ich als PC Nerd) als auch finanziell.
robbitop
2022-09-25, 10:19:52
Das ist richtig. nVidia scheint ein massives Kostenproblem zu haben - die Kosten sind anscheinend so hoch, dass sie zum gleichen Preis nicht mehr Leistung als bei der Vorgängergeneration bieten können. Ada scheint also das Portfolio nur nach oben sinnvoll abzurunden (4090). Der Markt für Gamer-Grafikkarten >2.000 Euro ist aber sehr klein. Dieser sehr geringe Fortschritt bei Preis/Leistung wird dazu führen, dass nVidia im Preisbereich unter 2.000 Euro keinen Verkaufsschub durch die neue Generation bekommen wird. Der Aktienkurs von nVidia ist auch abgestürzt (ca. 50% seit April).
Kosten sind gestiegen. Aber man muss auch den lastgen Kram loswerden. Entsprechend siedelt man Ada preislich deutlich darüber an.
Marge, Marge, Marge. Irgendwer muss die Ferraris, Yachten und super teure Küchen ja finanzieren. ;)
iamthebear
2022-09-25, 10:21:41
Ich darf daran erinnern, dass Nvidia bisher seine Performance/Watt Steigerungen nicht an den Launch der eigenen Generation gekoppelt hat sondern kurz vor dem Launch einer neuen AMD Generation.
Beispiel:
.) 1070 Ti mit fast 1080 Performance um 400 Euro statt 700 Euro vor Vega Launch
.) 2070 Super um reale 500 Euro Straßenpreis statt 600 Euro für die 2070 zum RDNA Launch
.) 3070 für 500 Euro (Straßenpreis ohne Mining vielleicht 600) statt der 2080 Ti 1200 Euro zum RDNA2 Launch
Zum Vergleich beim Start einer neuen Generation:
1080 vs. 980 Ti: Selber Preis und wenn man die schnelleren AIB Modelle vergleicht nur 10-20% mehr Performance
2080 vs. 1080 Ti: 5-10% mehr Performance und ein paar Features die noch keiner braucht
Nur bei der 30er Serie gab es die Kampfpreise gleich zum Launch da so knapp am AMD Launch dran.
Dieses Mal kommt ja lediglich N31 aber N32 wird erst irgendwann 2023 folgen da AMD inkl. AIBs und Handel auch ihre N21/N22 abverkaufen müssen.
Selbst auf Twitch/Discord, wo eine ganze Bandbreite an Systemen vertreten ist (von 2GB VRAM Grakas bis Top Dog) beschweren sich die Leute (PC-User!), wenn das Game wie ein Sack Nüsse läuft. Sachen wie 144Hz & co sind ja bei der Masse ja auch angekommen, aber fang mal ne Diskussion/Info über DLSS/FSR oder RT mit einem durchschnittlichen User an, der guckt dich an wie ein Pferd.
Die Leute spielen (ich rede nur von Multiplayer) sehr oft mit reduzierten Settings (trotz dicker Karte) wg der Visibillity/Lag durch Post-Processing bzw "hohe Details". Genauso gibt es Leute, die behaupten 25 fps sind "ausreichend", die sind im kompetitiven Multiplayer dann auch meist Iron/Bronze - wenn überhaupt.
Will sagen: Die Masse der Features werden eh nie genutzt oder nur im Sologame, da sind schon Treibereinstellungen der Endgegner.
Aufkrawall ist da eher die Ausnahme, aber der ist ja auch ein Nerd (wie fast jeder hier in dem Forum), was definitiv nicht die Masse widerspiegelt.
Die Konsolen Fraktion ist aber definitiv eine ganz andere Baustelle, klar gibst du dir da mit BT-Pads o.ä. den Multiplayer - so wie die meisten anderen auch oder TVs, die vllt nicht mal im Game-Mode sind. Aber über den Status sind wir ja als PC Gamer ja meist hinaus (bis auf die 25 fps Fraktion, aber die ist auch stark geschrumpft).
Woa gutes Posting :up:
iamthebear
AMD hat nur 20% Marktanteil, da ist nicht viel zum Abverkaufen. Das geschieht ja eh jetzt schon zu Kampfpreisen. Da AMD nicht mal ansatzweise so ins Mining investiert hat wie NV (schon mangels Fertigungskapazität) wird das kein Problem sein.
Leute für die eine GPU ein Statussymbol ist tun mir einfach nur leid. Sowohl von der geistigen Reife (und das sage ich als PC Nerd) als auch finanziell.
Sowas sucht man mMn im Promillebereich würde ich sagen.
dildo4u
2022-09-25, 10:26:46
Ich darf daran erinnern, dass Nvidia bisher seine Performance/Watt Steigerungen nicht an den Launch der eigenen Generation gekoppelt hat sondern kurz vor dem Launch einer neuen AMD Generation.
Beispiel:
.) 1070 Ti mit fast 1080 Performance um 400 Euro statt 700 Euro vor Vega Launch
.) 2070 Super um reale 500 Euro Straßenpreis statt 600 Euro für die 2070 zum RDNA Launch
.) 3070 für 500 Euro (Straßenpreis ohne Mining vielleicht 600) statt der 2080 Ti 1200 Euro zum RDNA2 Launch
Zum Vergleich beim Start einer neuen Generation:
1080 vs. 980 Ti: Selber Preis und wenn man die schnelleren AIB Modelle vergleicht nur 10-20% mehr Performance
2080 vs. 1080 Ti: 5-10% mehr Performance und ein paar Features die noch keiner braucht
Nur bei der 30er Serie gab es die Kampfpreise gleich zum Launch da so knapp am AMD Launch dran.
Dieses Mal kommt ja lediglich N31 aber N32 wird erst irgendwann 2023 folgen da AMD inkl. AIBs und Handel auch ihre N21/N22 abverkaufen müssen.
Sie können diesmal nicht am Vram sparen daher fällt ein Move wie mit der 3070 aus, niemand er geistig beisammen ist zahlt 600€+ für weniger Vram als eine 3060 hat.
horn 12
2022-09-25, 10:30:07
https://www.heise.de/meinung/Kommentar-zu-RTX-4000-Grafikkarten-Nvidia-wen-wollt-Ihr-veralbern-7273912.html
Geiles und passendes Statement!
Tomahawk
2022-09-25, 10:31:39
Kosten sind gestiegen. Aber man muss auch den lastgen Kram loswerden. Entsprechend siedelt man Ada preislich deutlich darüber an.
Marge, Marge, Marge. Irgendwer muss die Ferraris, Yachten und super teure Küchen ja finanzieren. ;)
Das Spiel ist doch immer das Gleiche. Die Preise werden so gesetzt werden, dass nVidia einen möglichst hohen Gewinn macht. Eine hohe Marge bringt aber nichts, wenn die verkauften Stückzahlen gering sind. Ich bin nur skeptisch hinsichtlich der Verkaufszahlen für Grafikkarten > 1.000 Euro (hier hat nVidia sechs Modelle im Sortiment). AMD nur eins.
Zum Bepreisung von Ada: Ich würde sagen, dass man Ada proportional zur Leistung von Ampere gepreist hat. Ada-Karten kosten bei gleicher Leistung genauso viel wie Ampere-Karten (3080Ti vs. 4080 12 GB). Ist Ada schneller, ist sie proportional teurer.
Troyan
2022-09-25, 10:34:27
Die ganzen Modelle waren für die Kostenweitergabe. Statt die Preise offiziell anzupassen, hat man einfach mehrere Modelle in den Markt gebracht.
Tomahawk
2022-09-25, 10:40:32
@Troyan
Das kann sein - aber da hätte man doch die alten Modelle auslaufen lassen können, oder? zwischen 3080 10 GB und 3090 Ti haben wir fünf Grafikkarten, die nur etwas über 20% auseinander liegen. Ein so "unbalanciertes" Portfolio gab es noch nie.
dildo4u
2022-09-25, 10:42:51
Das Spiel ist doch immer das Gleiche. Die Preise werden so gesetzt werden, dass nVidia einen möglichst hohen Gewinn macht. Eine hohe Marge bringt aber nichts, wenn die verkauften Stückzahlen gering sind. Ich bin nur skeptisch hinsichtlich der Verkaufszahlen für Grafikkarten > 1.000 Euro (hier hat nVidia sechs Modelle im Sortiment). AMD nur eins.
Zum Bepreisung von Ada: Ich würde sagen, dass man Ada proportional zur Leistung von Ampere gepreist hat. Ada-Karten kosten bei gleicher Leistung genauso viel wie Ampere-Karten (3080Ti vs. 4080 12 GB). Ist Ada schneller, ist sie proportional teurer.
AMD würde es imo auch so machen wenn ihre GPU bis zur 4090 skaliert.
Sie verkaufen grad den 5800X3D der ist wenn man es gut mein 20% schneller in Games als der 5800X kostet aber 50% mehr.
Es mach null Sinn diesen Markt nicht zu bedienen wenn es Gamer gibt den 50% Aufpreis fürs Top Modell egal sind.
Tomahawk
2022-09-25, 10:46:45
@dildo4u
Es spricht ja nichts dagegen, das Portfolio nach oben abzurunden - zumindest wenn die Kosten deutlich angestiegen sind. Das Problem ist aber, dass es im Vergleich zu Ampere nicht mehr Leistung pro Euro [im Preisbereich um 1.000 Euro] gibt.
dargo
2022-09-25, 10:49:01
Sie können diesmal nicht am Vram sparen daher fällt ein Move wie mit der 3070 aus, niemand er geistig beisammen ist zahlt 600€+ für weniger Vram als eine 3060 hat.
Nicht? Wer hat dann die ganzen 3070(TI) und die 10GB 3080 gekauft? :ulol:
dildo4u
2022-09-25, 10:51:14
@dildo4u
Es spricht ja nichts dagegen, das Portfolio nach oben abzurunden - zumindest wenn die Kosten deutlich angestiegen sind. Das Problem ist aber, dass es im Vergleich zu Ampere nicht mehr Leistung pro Euro [im Preisbereich um 1.000 Euro] gibt.
Imo normal für neue Hardware der kleinste Zen 4 kostet 300€, also über 50% zum 5600X.Nirgends ist der 50% schneller, man nimmt das was man nehmen kann egal welche Klasse an Hardware.
Nicht? Wer hat dann die ganzen 3070(TI) und die 10GB 3080 gekauft? :ulol:
Das war lange vor der 3060 Jeder weiß das die Karte die neue Basis setzt wie ihre Vorgänger.
horn 12
2022-09-25, 10:53:37
@dildo4u
Dies ist das Alleinstellungsmerkmal für den "Besten" Prozessor MIT 3D-V-Cache und jene lässt oftmals gar den 13900K hinter sich,- aber ist auch teilweise etwas hinter einem 5800X, dies stimmt!
Kosten tud es auch genug /Ressoucen) und erst die 7000 X-3D Modelle werden den Preis des 5800X3D drastisch senken lassen.
Habe seit Release direkt vom AMD Shop diese CPU für 526 Euro gekauft und erfreue mich jeden Tag auf Neue dies getan zu haben.
Aber nun wieder bitte zu Wucherpreise Lovelace Retour
Tomahawk
2022-09-25, 10:56:50
@dildo4u
Du irrst dich leider komplett. Bisher gab es bei jeder Grafikkarten-Generation einen Fortschritt beim Preis/Leistungsverhältnis. Wenn nicht, dann müssten Grafikkarten heute viel mehr kosten. AD102 ist z.B. über 3.000 mal so komplex wie die GeForce 256. Wäre der Preis proportional zur Transistorzahl erhöht worden, dann hätten wir Preise von knapp einer Million Euro.
dildo4u
2022-09-25, 10:59:01
@dildo4u
Du irrst dich leider komplett. Bisher gab es bei jeder Grafikkarten-Generation einen Fortschritt beim Preis/Leistungsverhältnis.
Wir hatten doch Turing 2080 war 1080 TI Level für den selben Preis mit weniger Vram.
NV wollte damals das man die RT Features bezahlt diesmal scheint das Feature DLSS3 zu sein wenn man sieht wie sehr es hervorgehoben wurde.
Platos
2022-09-25, 11:00:12
@dildo4u
Du irrst dich leider komplett. Bisher gab es bei jeder Grafikkarten-Generation einen Fortschritt beim Preis/Leistungsverhältnis.
Ne, du irrst dich:https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-2080-2080-ti/launch-analyse-rtx-2080-2080-ti-seite3
Einfach mal Quellen liefern, wenn man Dinge behauptet.
Die RTX 2080 z.B war 14% teurer, aber nur 6% schneller wie eine 1080Ti und hat auch noch 3GB weniger Speicher gehabt. Das selbe gilt für die 1080 vs 2080. 36% schneller aber 60% teurer.
Also ne, deine Aussage stimmt nachweislich nicht!
Selbiges gilt für die 1070 und 2070: 38% schneller aber 71% teurer.
https://www.3dcenter.org/artikel/launch-analyse-nvidia-geforce-rtx-2070/launch-analyse-nvidia-geforce-rtx-2070-seite-2
Vlt. findet sich noch eine andere Grafikkartenkombination, in der es ein besseres P/L bietet, das ist dann aber ein sehr armseliges, wenn man bedenkt, dass man dafür auf die richtige "Kombination" treffen muss.
Tomahawk
2022-09-25, 11:07:05
@Platos
Leider ist die Wahrheit hier komplizierter als du es darstellst. Turing hatte zusätzliche RT-Einheiten. Wenn diese genutzt wurden, war Turing deutlich schneller als Pascal. Deswegen habe ich für meine Hochrechnung auch verbaute Transistoren als Maßstab genommen.
Die Aussage, dass das Preis/Leistungsverhältnis besser wird gilt auch für den Durchschnitt einer Generation. Häufig hast du an den Rändern Grafikkarten gehabt, die überproportional teuer (oder günstig) waren. Wenn diese eingerechnet werden, dann kannst du erratische Aussagen ableiten - wie du es hier z.B. bereits getan hast. Um es für die dich plastischer darzustellen: Die RTX 3070 ist (marginal) fixer als die Titan RTX, kostet aber nur 1/5. Hat sich das P/L-Verhältnis mit Ampere verfünffacht? Wohl kaum.
Platos
2022-09-25, 11:10:27
Ah ja klar;)
Was ein schwaches Argument. Aber war ja klar, dass nix besseres kommt.
So kann man sich die Argumentation leicht machen - indem man einfach eigene Masstäbe für die Relevanz eines damals nicht relevantem Feature einführt und jegliche Tests einfach negiert.
Vor allem hat RT und DLSS ja sooo viel Relevanz gehabt damals :freak:
Fakt ist, dass die Leistung niedriger war, DLSS 1.x unbrauchbar war und RT damals fast keine Verbreitung hatte. Erst 2 Jahre später gabs mit DLSS 2.0 was brauchbares.
Edit: Was soll der Vergleich mit einer Titan? Ich habe 80-er mit 80-er verglichen und 70-er mit 70-er. Ebenfalls gab es einen Vergleich mit 80-er und 80Ti (die damals noch einen guten Preis hatte).
Hast du Fakten: Dann liefere, sonst gib einfach zu, dass du falsch gelegen hast. RT ist ein nicht relevantes Feature in 2018 gewesen. Auf RT zu beharren beweist, dass du eig. gar keine Argumente hast. Dass du mir mit einer Titan kommst, obwohl ich nicht ansatzweise solche absurden Vergleiche gemacht habe, beweist das ebenfalls.
dildo4u
2022-09-25, 11:13:36
@Platos
Leider ist die Wahrheit hier komplizierter als du es darstellst. Turing hatte zusätzliche RT-Einheiten. Wenn diese genutzt wurden, war Turing deutlich schneller als Pascal. Deswegen habe ich für meine Hochrechnung auch verbaute Transistoren als Maßstab genommen.
Die Aussage, dass das Preis/Leistungsverhältnis besser wird gilt auch für den Durchschnitt einer Generation. Häufig hast du an den Rändern Grafikkarten gehabt, die überproportional teuer (oder günstig) waren. Wenn diese eingerechnet werden, dann kannst du erratische Aussagen ableiten - wie du es hier z.B. bereits getan hast.
Performance Preis Verhältnis ist massiv besser wenn du an DLSS3 glaubst darauf setzt Nvidia.
So lange sie Marktführer sind können sie ihre Tech vermutlich weiter bei den Entwicklern durchdrücken.
Freestaler
2022-09-25, 11:14:33
Nur lässt sich NV schon immer "ihren" Hype bezahlen. Mir scheint die Messgrösse der Transitoren sinnvoll. Z.B. SoftwareT&L ;-). Kacke ist halt, das Pascal wirklich gut war (nach vram Bug970) und nachfolgend Crypto alles verzog.
iamthebear
2022-09-25, 11:17:09
Das ist richtig. nVidia scheint ein massives Kostenproblem zu haben - die Kosten sind anscheinend so hoch, dass sie zum gleichen Preis nicht mehr Leistung als bei der Vorgängergeneration bieten können. Ada scheint also das Portfolio nur nach oben sinnvoll abzurunden (4090). Der Markt für Gamer-Grafikkarten >2.000 Euro ist aber sehr klein. Dieser sehr geringe Fortschritt bei Preis/Leistung wird dazu führen, dass nVidia im Preisbereich unter 2.000 Euro keinen Verkaufsschub durch die neue Generation bekommen wird. Der Aktienkurs von nVidia ist auch abgestürzt (ca. 50% seit April).
Das Märchen mit den verdoppelten Kosten kann Jensen noch 17 mal herunterbeten. Das macht es dadurch auch nicht wahr:
.) TSMC liefert Umsatzzahlen aufgeschlüsselt nach Technologie und digitimes alle paar Monate die Waferzahlen. Das kann man sich wunderbar durchrechnen und kommt auf einen Umsatz von 10K pro 5nm Wafer, genauso viel wie die 7nm Fertigung zuvor.
Der Unterschied scheint nicht am Preis zu liegen, sondern an den Konditionen: 5nm Fertigung muss man 2 Jahre im Vorhinein bezahlen um die Kapazität zu schaffen mit entsprechend lang laufenden Verträgen, da TSMC auch nicht blöd ist und weiß, dass die Chipblase wieder am Zusammenbrechen ist.
Diese Vorfinanzieren ist für Nvidia jedoch kein Problem: Die haben die Kohle sowieso herum liegen und das globale Zinsniveau ist gleich 0.
Es bleiben eigentlich nur die 20% die TSMC teurer ist als Samsung.
.) Die VRAM Kosten sind mittlerweile schon fast wieder auf Vorkrisenniveau, mit 2 Jahres Kontingenten vermutlich schon leicht darunter. Ja 16GB heute sind teurer als 10GB der 3080 aber bei Weitem keine 2x.
.) Boardkosten und Kühler sind in der Tat stark gestiegen aber sicher auch keine 2x.
Sie können diesmal nicht am Vram sparen daher fällt ein Move wie mit der 3070 aus, niemand er geistig beisammen ist zahlt 600€+ für weniger Vram als eine 3060 hat.
Solange die Speicherbandbreite nicht limitiert würde sich eine 4070 Ti mit 48SM und 8GB VRAM bestens um 600€ verkaufen.
Der Markt geht nach 4K Native Benchmarkbalken. VRAM wird als eines von vielen Features angesehen (DLSS/RT/Reflex bei Nvidia vs. RSR/geringerer DX12 Driver Overhead bei AMD) und hier sind die Prioritäten sehr subjektiv.
Beispiele:
3060 12GB vs. 6600 XT 8GB => Gleiche Performance, gleicher Preis
3070 Ti 8GB vs. 6800 16GB => Gleiche Performance, gleicher Preis
Troyan
2022-09-25, 11:18:20
Performance Preis Verhältnis ist massiv besser wenn du an DLSS3 glaubst darauf setzt Nvidia.
So lange sie Marktführer sind können sie ihre Tech vermutlich weiter bei den Entwicklern durchdrücken.
Nicht nur DLSS 3. SER bringt auch noch mal 20%+ in Spielen mit Raytracing.
Platos
2022-09-25, 11:19:54
Performance Preis Verhältnis ist massiv besser wenn du an DLSS3 glaubst darauf setzt Nvidia.
So lange sie Marktführer sind können sie ihre Tech vermutlich weiter bei den Entwicklern durchdrücken.
Das bringt den meisten Gamern genau gar nix. Die meisten spielen auf beschissener Hardware ihr Spiel, das weder RT noch DLSS unterstützt. Sie würden enorm profitieren, wenn sie endlich für's gleiche Geld massiv mehr Leistung kriegen würden, wie zu Pascal Zeiten. Das ist aber definitiv nicht der Fall, wenn DLSS und RT das einzige ist, was dieser Generation Existenzberechtigung gibt.
Für Rasterleistung kriegt man nicht mehr, vermutlich sogar weniger Leistung pro Dollar.
Und wenn jetzt jemand kommt mit "Ne 3090Ti reicht doch für alles, also braucht man ja nicht mehr Rasterleistung"... Dann sei mal gesagt, dass 99% oder mehr keine solche Grafikkarte oder ähnliches haben, also von mehr Rasterleistung pro Dollar enorm profitieren würden.
Tomahawk
2022-09-25, 11:20:51
@Platos
Nimm doch einfach hin, dass Features Geld (=Transistoren) kosten. Und bei Turing gab es mit RT überproportional viele davon. Daher war der Leistungszuwachs ohne diese Features sehr gering. Wenn du RT mit einem Wert von null ansetzen möchtest, dann stimmen deine Aussagen.
@dildo4u
Da bin ich bei dir! DLSS3 wird aber vermutlich eher für die "kleineren" Karten relevant sein. Wer will schon (niedrigere) DLSS-Modi mit der 4080 / 4090 nutzen? Die Karten sind doch auch so schnell genug.
@Troyan
SER soll lt. Huang sogar 25% bringen. Hier bin ich sehr auf Test gespannt. Gerade die 3080Ti und 4080 12 GB mit/ohne RT dürften den (hoffentlich großen) Vorteil von SER zeigen.
Edgecrusher86
2022-09-25, 11:21:55
Auch in 8K schnell genug? Ich denke nicht. :D
Wenn es nativ schnell genug wäre, würde in allen Top-AAA Titeln zumindest die 60 fps nativ an stehen auf max - tut es aber bei weitem nicht. :)
Troyan
2022-09-25, 11:22:22
Das Märchen mit den verdoppelten Kosten kann Jensen noch 17 mal herunterbeten. Das macht es dadurch auch nicht wahr:
.) TSMC liefert Umsatzzahlen aufgeschlüsselt nach Technologie und digitimes alle paar Monate die Waferzahlen. Das kann man sich wunderbar durchrechnen und kommt auf einen Umsatz von 10K pro 5nm Wafer, genauso viel wie die 7nm Fertigung zuvor.
Komisch, die Marge von TSMC steigt ab 2020 rasant: https://www.macrotrends.net/stocks/charts/TSM/taiwan-semiconductor-manufacturing/profit-margins
Naja, was weiß TSMC schon. Internet-Foren-User sind sowieso die am besten informierten.
Daredevil
2022-09-25, 11:25:46
Das bringt den meisten Gamern genau gar nix. Die meisten spielen auf beschissener Hardware ihr Spiel, das weder RT noch DLSS unterstützt.
Das mag deine Meinung sein, entspricht aber nicht den Fakten.
Steam Survey:
https://abload.de/img/bildschirmfoto2022-094hewe.png
Grüße gehen raus an die RX580, der einzige Verfechter von AMD in dem oberen Rang. :D
Von den ersten 22 beliebtesten GPUs bei Steam sind ganze 11 mit RT und DLSS Hardware ausgerüstet. Die Prozente kannst du dir selber ausrechnen.
Hier sieht man btw. auch mal wieder sehr gut den Stand und den Namen im Gaming. Die RX580 war in jeglicher Hinsicht immer die bessere Karte als die 1060, trotzdem ist die seit Jahren am beliebtesten bei Steam. Das ist der Brand, obwohl die Technik objektiv betrachtet schlechter war. Und Brand kostet Geld, immer.
Platos
2022-09-25, 11:27:01
Komisch, die Marge von TSMC steigt ab 2020 rasant: https://www.macrotrends.net/stocks/charts/TSM/taiwan-semiconductor-manufacturing/profit-margins
Naja, was weiß TSMC schon. Internet-Foren-User sind sowieso die am besten informierten.
Ja, von ~ 52% auf ~55%. Was für eine bombastische Erhöhung.
Edgecrusher86
2022-09-25, 11:27:18
1/5+ in Prozent - nicht schlecht. ;)
Troyan
2022-09-25, 11:29:20
Ja, von ~ 52% auf ~55%. Was für eine bombastische Erhöhung.
Ja und das kommt auf den zusätzlichen Kosten drauf. Ansonsten lag in Q2 2019 die Marge bei 42%. Das ist zu Q2 2022 ein Anstieg von 35%. :eek:
Aber laut Internet-Foren-User kostet bei TSMC alles sowieso immer das selbe.
dildo4u
2022-09-25, 11:30:04
Das bringt den meisten Gamern genau gar nix. Die meisten spielen auf beschissener Hardware ihr Spiel, das weder RT noch DLSS unterstützt. Sie würden enorm profitieren, wenn sie endlich für's gleiche Geld massiv mehr Leistung kriegen würden, wie zu Pascal Zeiten. Das ist aber definitiv nicht der Fall, wenn DLSS und RT das einzige ist, was dieser Generation Existenzberechtigung gibt.
Für Rasterleistung kriegt man nicht mehr, vermutlich sogar weniger Leistung pro Dollar.
Und wenn jetzt jemand kommt mit "Ne 3090Ti reicht doch für alles, also braucht man ja nicht mehr Rasterleistung"... Dann sei mal gesagt, dass 99% oder mehr keine solche Grafikkarte oder ähnliches haben, also von mehr Rasterleistung pro Dollar enorm profitieren würden.
Das man auf DLSS setzt macht imo komplett sinn nur noch ganze wenige Entwickler bauen ihre eigene Engine, die Masse nutzt UE 4 oder 5.
Das heißt NV muss für immer weniger Engine Vielfalt support anbieten.
Siehe CDPR großes AAA Studio hält es für sinnvoller das näste Witcher mit Unreal zu bringen als ihre eigene Engine weiter zu nutzen.
Platos
2022-09-25, 11:31:27
Das mag deine Meinung sein, entspricht aber nicht den Fakten.
Steam Survey:
https://abload.de/img/bildschirmfoto2022-094hewe.png
Von den ersten 22 beliebtesten GPUs bei Steam sind ganze 11 mit RT und DLSS Hardware ausgerüstet. Die Prozente kannst du dir selber ausrechnen.
Und jetzt? Das sind Grafikkarten, nicht Spiele. Das Wort "das" in meinem Satz weist eig. darauf hin, dass es sich auf "das Spiel" und nicht "die Grafikkarte" bezieht. Ich habe nie davon geredet, dass die Grafikkarten der Leute RT und DLSS nicht supporten würden.
https://store.steampowered.com/charts/mostplayed
Auch wenn Steam nicht die weltweiten Gamer abdeckt: Hier mal ein Beispiel. Die obersten 2 Spiele unterstützen weder RT noch DLSS meines Wissens nach. RT. Es ist also für sehr viele Leute weiterhin die Rasterperfomance am wichtigsten.
Ja und das kommt auf den zusätzlichen Kosten drauf. Ansonsten lag in Q2 2019 die Marge bei 42%. Das ist zu Q2 2022 ein Anstieg von 35%. :eek:
Aber laut Internet-Foren-User kostet bei TSMC alles sowieso immer das selbe.
Wo liest du das aus deiner Grafik ab? Auf jeden Fall steht das nirgendswo auf dieser verlinkten Grafik.
Grundkurs
2022-09-25, 11:34:33
Siehe CDPR großes AAA Studio hält es für sinnvoller das näste Witcher mit Unreal zu bringen als ihre eigene Engine weiter zu nutzen.
Das ist sicherlich keine NVidia-Problematik, CDPR wird es bei diesem Schritt in erster Linie um zwei Dinge gehen:
1. Ihre eigene Engine wird von Spucke und Entwicklertränen zusammengehalten,
2. bei Neueinstellungen wird es potentiell Wochen / Monate dauern, bis die Entwickler bei der Eigenentwicklung durchsteigen und produktiv weiterentwickeln können. Bei der Unreal Engine geht das vermutlich deutlich schneller, da hier die Wahrscheinlichkeit exponentiell höher ist, dass der neue Entwickler hier schon Erfahrung mit hat.
Daredevil
2022-09-25, 11:35:51
Und jetzt? Das sind Grafikkarten, nicht Spiele. Das Wort "das" in meinem Satz weist eig. darauf hin, dass es sich auf "das Spiel" und nicht "die Grafikkarte" bezieht. Ich habe nie davon geredet, dass die Grafikkarten der Leute RT und DLSS nicht supporten würden.
https://store.steampowered.com/charts/mostplayed
Auch wenn Steam nicht die weltweiten Gamer abdeckt: Hier mal ein Beispiel. Die obersten Spiele unterstützen weder RT noch DLSS meines Wissens nach. RT.
Es ging ums durchdrücken von DLSS bei den Entwicklern, worauf du geantwortet hast, dass es den meisten Gamern gar nichts bringt. Das stimmt nicht, denn viele Nutzer haben mittlerweile eine Karte mit DLSS Fähigkeit im System. Das gleiche gilt übrigens auch für FSR. Es bringt etwas, diese Technik bei neuen Spielen durchzudrücken, damit auch Leute mit einer 2060 noch in den Genuss von genug FPS kommen.
Spring
2022-09-25, 11:37:05
Das mag deine Meinung sein, entspricht aber nicht den Fakten.
Steam Survey:
https://abload.de/img/bildschirmfoto2022-094hewe.png
Grüße gehen raus an die RX580, der einzige Verfechter von AMD in dem oberen Rang. :D
Von den ersten 22 beliebtesten GPUs bei Steam sind ganze 11 mit RT und DLSS Hardware ausgerüstet. Die Prozente kannst du dir selber ausrechnen.
Hier sieht man btw. auch mal wieder sehr gut den Stand und den Namen im Gaming. Die RX580 war in jeglicher Hinsicht immer die bessere Karte als die 1060, trotzdem ist die seit Jahren am beliebtesten bei Steam. Das ist der Brand, obwohl die Technik objektiv betrachtet schlechter war. Und Brand kostet Geld, immer.
Das sagt überhaupt nichts aus. Schon wieder so Quark wie dein Vergleich 5700XT vs 3080 (verschiedenen Gens).
Wie Platos ausgeführt hat, heißt das eben nicht, das auch viel DLSS u RT tatsächlich genutzt wird.
Ich kenne persönlich niemanden der sowas im MP benutzt (aufkrawall ist der erste - aus dem diesem Forum, bestimmt noch paar mehr hier).
https://www.pcgameshardware.de/Hardware-Thema-130320/News/Steam-Survey-Nvidia-haelt-Vorsprung-bei-GPUs-Intel-verliert-Marktanteile-1402629/
Daher sollte die Steam Hard- und Softwareumfrage, die einfach nur die Nutzer von Steam bezüglich Hard- und Software als Vergleichsfaktor heranzieht, die Spielerschaft und ihre Hardware etwas realistischer darstellen. Sieht man sich diese an, so ist die häufigste Grafikkarte immer noch eine Geforce GTX 1060 (7,15 Prozent aller Spieler). Diese basiert noch auf der Pascal-Architektur und ist keinesfalls eine schlechte Karte, nur im Vergleich zu einer Radeon RX 6900XT oder Geforce RTX 3090 absolut unterlegen.
Wenn Du z.B. kein Steam nutzt (Blizzard/Riot Games) tauchst du da gar nicht auf, auch wenn du wochen/monatelang nicht mehr gezockt hast.
Es ging ums durchdrücken von DLSS bei den Entwicklern, worauf du geantwortet hast, dass es den meisten Gamern gar nichts bringt. Das stimmt nicht, denn viele Nutzer haben mittlerweile eine Karte mit DLSS Fähigkeit im System. Das gleiche gilt übrigens auch für FSR. Es bringt etwas, diese Technik bei neuen Spielen durchzudrücken, damit auch Leute mit einer 2060 noch in den Genuss von genug FPS kommen.
Weder DLSS noch FSR haben in der realen Welt eine große Verbreitung (reale Nutzung vs HW support). Nur in Hardware-Foren + Seiten und bei YT Benchvidz.
Wer einmal Battlefield im MP mit RT on gespielt hat, weiß was ich meine.
DLSS/ FSR hat da zukünftig mehr Chancen, aber bei auftretenden Glitches oder fehlendem Support bringt das auch niemanden etwas.
Wie gesagt unterhaltet euch mal mit normalen PC Usern über DLSS/FSR und ihr werdet viele Fragezeichen ernten.
Es ist also für sehr viele Leute weiterhin die Rasterperfomance am wichtigsten.
Genau das ist eben der springende Punkt.
Platos
2022-09-25, 11:38:30
Es ging ums durchdrücken von DLSS bei den Entwicklern, worauf du geantwortet hast, dass es den meisten Gamern gar nichts bringt. Das stimmt nicht, denn viele Nutzer haben mittlerweile eine Karte mit DLSS Fähigkeit im System. Das gleiche gilt übrigens auch für FSR. Es bringt etwas, diese Technik bei neuen Spielen durchzudrücken, damit auch Leute mit einer 2060 noch in den Genuss von genug FPS kommen.
Das ändert nichts daran, dass das für die Spieler der 2 bei Steam am meist gespielten Spiele nicht erstrangig ist. Also ist es für viele Spieler eben zweitrangig bzw. ist die Rasterperfomance immer noch das wichtigste oder mindestens wichtig.
Darum ging es mir. Rasterperfomance ist für viele die wichtigste Komponente. Es muss aber nicht mal die wichtigste sein, es reicht, wenn es eine wichtige ist und das ist es ja laut deiner eigenen Quelle (Steam Survey).
Diese Spieler profitieren aber seit Jahren praktisch gar nicht von neuen Grafikkarten in ihrem Preisbereich und jetzt vermutlich weider nicht (unabhängige Tests sind ja noch nicht da).
basix
2022-09-25, 11:38:55
Ja und das kommt auf den zusätzlichen Kosten drauf. Ansonsten lag in Q2 2019 die Marge bei 42%. Das ist zu Q2 2022 ein Anstieg von 35%. :eek:
Q2 2019 ist eine Anomalie innerhalb der letzten 10 Jahre, entstanden durch das Enden des damaligen Mining Booms. Im Schnitt waren es über diesen Zeitraum eher 48-49%. Gut, dann verdient TSMC +10% mehr. Ist das verwunderlich? Bei TSMC geht anteilsmässig immer mehr in Richtung High End Nodes, wo die Margen höher sind. Und dass TSMC insgesamt viel mehr verdient, liegt an dem deutlich höheren Wafer-Durchsatz und dass sie anscheinend effizienter arbeiten (Gross vs. Net Margin).
Die Fantasiepreise 300Mio für ein N5 Design von 17k pro N5 Wafer sind von irgendwelchen Analysten, welche nach irgendwelchen Modell einfach exponentiell extrapolieren. Wären die Preise wirklich so hoch, könnte sich das ausser Apple eigentlich niemand wirklich leisten.
Troyan
2022-09-25, 11:44:18
Wo liest du das aus deiner Grafik ab? Auf jeden Fall steht das nirgendswo auf dieser verlinkten Grafik.
Q2 2019: https://investor.tsmc.com/english/encrypt/files/encrypt_file/english/2019/Q2/2Q19PresentationUpload%28E%29.pdf
Q2 2020: https://investor.tsmc.com/english/encrypt/files/encrypt_file/reports/2022-07/543ddc8ea483d7767592012bc4b9727e70b09a1b/2Q22Presentation%28E%29.pdf
Warum sollte also die Marge weiter steigen, wenn die TSMC trotz deutlich mehr Kosten für 5nm EUV, den selben Preis gegenüber 7nm nehmen würde?
Das ergibt Null Sinn. Seit bei TSMC der Anteil von "modernen" Prozessen zunimmt, steigt die Marge rasant an. Innerhalb von drei Jahren von 42% auf 59%.
Das ist ja vorallem für nVidia interessant, weil die von Samsung kommen.
/edit:
Gegenüber Q2 2021 hat man 2022 10% mehr Wafer produziert, jedoch 36% mehr Umsatz gemacht und der Gewinn ist um 44% gestiegen.
anorakker
2022-09-25, 11:46:34
Ich behaupte einfach mal NV hat eigentlich das falsche Produkt entwickelt, weil sie voll auf Crypto gsetzt haben. Dieses rumschmeissen mit Leistung und Effizienz ist nur am Rande zur Gamer Marktbefriedigung da. Man stelle sich mal vor, was die aktuellen neuen Karten bei Erscheinen kosten würden würde ETH jetzt bei 10000 und BTC bei 80000 liegen und wir keine Energiekrise hätten!
DLSS3 ist jetzt der Marketingstunt um die immens hohen Preise zu rechtfertigen.
Platos
2022-09-25, 11:51:44
Ich behaupte einfach mal NV hat eigentlich das falsche Produkt entwickelt, weil sie voll auf Crypto gsetzt haben. Dieses rumschmeissen mit Leistung und Effizienz ist nur am Rande zur Gamer Marktbefriedigung da. Man stelle sich mal vor, was die aktuellen neuen Karten bei Erscheinen kosten würden würde ETH jetzt bei 10000 und BTC bei 80000 liegen und wir keine Energiekrise hätten!
DLSS3 ist jetzt der Marketingstunt um die immens hohen Preise zu rechtfertigen.
Man designet doch ein Chip mit den ganzen RT und Tensorcores nicht mal so auf die Schnelle. Das war schon lange geplant, also kann es nicht für Mining geplant gewesen sein, oder bringen RT und Tensorcores was beim Mining?
Ebenfalls die nicht gestiegene Bandbreite (pro FLOP) weist eigentlich darauf hin, dass das nicht für Mining entwickelt wurde. Das wäre schliesslich nicht gut für Mining.
Jupiter
2022-09-25, 11:59:30
Diese Spieler profitieren aber seit Jahren praktisch gar nicht von neuen Grafikkarten in ihrem Preisbereich und jetzt vermutlich weider nicht (unabhängige Tests sind ja noch nicht da).
Die sind mir vollkommen egal. Warum interessieren die dich?
Da müssen die Entwickler fortschrittlicher werden. Die Möglichkeiten bietet ihnen Nvidia. Weit verbreitet ist die Nvidia RTX-Hardware ebenso.
Linmoum
2022-09-25, 12:05:10
Die sind mir vollkommen egal. Warum interessieren die dich?Weil dieser Preis-/Performancebereich die mit riesigem Abstand größte Zielgruppe für dGPU ist? Das sind nicht Menschen, die eine xx80 und aufwärts kaufen.
Platos
2022-09-25, 12:11:15
Die sind mir vollkommen egal. Warum interessieren die dich?
Haha, herzlichen Glückwunsch. Du kriegst den Award für den egoistischsten Kommentar der Woche!
Edgecrusher86
2022-09-25, 12:14:57
Wenn ich mir so die Preise bei CK für die 4090er so anschaue, bestärkt es mich noch mehr, notfalls etwas länger auf eine lieferbare 4090 FE zu warten. Die Flaggschiffe (also Backsteine) wie ROG STRIX OC, AORUS MASTER oder SUPRIM X dürften wohl bei 2300-2400€ liegen.
Das würde ich höchstens zahlen, wenn es sich dabei gleich um entsprechende 4090 Ti Varianten handeln würde. :freak:
Mal schauen, eigentlich wollte ich mit der CPU ja noch etwas warten, aber evtl. wird es nächstes Jahr doch schon der 13900KS. Das wäre sicher ein brauchbares Gespann. :cool:
Troyan
2022-09-25, 12:18:18
Wenn ich mir so die Preise bei CK für die 4090er so anschaue, bestärkt es mich noch mehr, notfalls etwas länger auf eine lieferbare 4090 FE zu warten. Die Flaggschiffe (also Backsteine) wie ROG STRIX OC, AORUS MASTER oder SUPRIM X dürften wohl bei 2300-2400€ liegen. :freak:
In Amerika gibt es bei Newegg Karten zur UVP: https://www.newegg.com/p/pl?storeName=Desktop-Graphics-Cards&pageTitle=Desktop+Graphics+Cards&N=100007709+601408872
dargo
2022-09-25, 12:19:34
Haha, herzlichen Glückwunsch. Du kriegst den Award für den egoistischsten Kommentar der Woche!
Nicht nur das, das sind diese typischen PC-Nerds die nach zig Jahren (eigentlich schon Jahrzehnten müsste man sagen) immer noch nicht begriffen haben für wen Spiele entwickelt werden. Da werden mal eben die ganzen Konsolenspieler im MS und Sony Lager völlig ignoriert. Kannst du dir nicht ausdenken. :freak:
Edgecrusher86
2022-09-25, 12:19:50
In Amerika gibt es bei Newegg Karten zur UVP: https://www.newegg.com/p/pl?storeName=Desktop-Graphics-Cards&pageTitle=Desktop+Graphics+Cards&N=100007709+601408872
Gut, das sieht auch günstiger aus, als es ist - exklusive VAT.
Meridian12
2022-09-25, 12:23:10
Das ist richtig. nVidia scheint ein massives Kostenproblem zu haben - die Kosten sind anscheinend so hoch, dass sie zum gleichen Preis nicht mehr Leistung als bei der Vorgängergeneration bieten können. Ada scheint also das Portfolio nur nach oben sinnvoll abzurunden (4090). Der Markt für Gamer-Grafikkarten >2.000 Euro ist aber sehr klein. Dieser sehr geringe Fortschritt bei Preis/Leistung wird dazu führen, dass nVidia im Preisbereich unter 2.000 Euro keinen Verkaufsschub durch die neue Generation bekommen wird. Der Aktienkurs von nVidia ist auch abgestürzt (ca. 50% seit April).
Glaube die Gier ist mehr gestiegen als die Herstellungskosten.
Dank Mining denkt man wohl, jeder kauft 4 stellige Karten und da unsere besonders toll sind, können wir quasi jeden Preis verlangen und jeden Scheiss für über 1000 Euro verkaufen.
Es hat ja einen Grund, warum man die 4060ti als 4080 verkauft.Man will bei der Karte halt noch 200-300 Dollar mehr Gewinn rausquetschen als wenn sie als 4060ti auf den Markt gekommen wäre.
Troyan
2022-09-25, 12:29:39
Gut, das sieht auch günstiger aus, als es ist - exklusive VAT.
Amerika ist immer ohne VAT. Aber wenn dort die Karte zu UVP erhältlich ist, sollte es in Deutschland abseits der FE auch sein. Außer der Euro kackt in den nächsten drei Wochen noch mehr ab...
iamthebear
2022-09-25, 12:31:02
@Platos
Nimm doch einfach hin, dass Features Geld (=Transistoren) kosten. Und bei Turing gab es mit RT überproportional viele davon. Daher war der Leistungszuwachs ohne diese Features sehr gering. Wenn du RT mit einem Wert von null ansetzen möchtest, dann stimmen deine Aussagen.
Der Transistoreinsatz für RT/DLSS ist relativ gering bzw. bei Turing kaum messbar.
TU104 hat lediglich 13% mehr Transistoren als GP102, liefert aber auch 13% mehr Performance (2080 Super vs. 1080 Ti)
Auch von Turing auf Ampere gab es keinen Anstieg. GA104 hat 6% weniger Transistoren als TU102, die 3070 liegt aber nur 2-3% hinter der 2080 Ti.
Lediglich bei Ada hat Nvidia Unmengen an Transistoren versenkt ohne klar erkennbaren Vorteil. DLSS3 ist nett aber das ist zu 90% Software bzw. normaoe Shaderarbeit. Der Tensor Anteil wird hier wie bei DLSS 2.0 relativ gering sein aber das ist reine Spekulation meinerseits.
@dildo4u
Da bin ich bei dir! DLSS3 wird aber vermutlich eher für die "kleineren" Karten relevant sein. Wer will schon (niedrigere) DLSS-Modi mit der 4080 / 4090 nutzen? Die Karten sind doch auch so schnell genug.
Ich würde da erst mal unabhängige Benchmarks abwarten wie gut DLSS 3 überhaupt skaliert und wie der Input Lag in der Praxis aussieht. Wenn Nvidia selbst bei der 4090 schon in 1440p testet kann ich mir gut vorstellen, dass das mit einer 4060/70 und 4K DLSSQ + Medium Settings grässlich in einen Upscaling Bottleneck läuft.
@Troyan
SER soll lt. Huang sogar 25% bringen. Hier bin ich sehr auf Test gespannt. Gerade die 3080Ti und 4080 12 GB mit/ohne RT dürften den (hoffentlich großen) Vorteil von SER zeigen.
Wichtig ist hier das "bis zu". Und es braucht Anpassung durch den Entwickler. Ich frage mich bei welchem 0815 Konsolenport die Hersteller noch Lust haben herstellerspezifische Erweiterungen einzubauen für im Schnitt vielleicht 5-10% mehr Performance. Ich sehe das eher als RT Feature.
AffenJack
2022-09-25, 12:38:17
Das ändert nichts daran, dass das für die Spieler der 2 bei Steam am meist gespielten Spiele nicht erstrangig ist. Also ist es für viele Spieler eben zweitrangig bzw. ist die Rasterperfomance immer noch das wichtigste oder mindestens wichtig.
Du willst mit 2 Spielen, bei denen Rasterperformance ebenso egal ist begründen, dass Rastern am wichtigsten ist? CS und DOTA Spieler interessiert keine Grafikkarte heutzutage, da die FPS sowieso schon absurd hoch sind, die kümmert auch Rasterperformance nicht.
Troyan
2022-09-25, 12:45:16
@Troyan
SER soll lt. Huang sogar 25% bringen. Hier bin ich sehr auf Test gespannt. Gerade die 3080Ti und 4080 12 GB mit/ohne RT dürften den (hoffentlich großen) Vorteil von SER zeigen.
nVidia hat ja Zahlen veröffentlicht:
https://www.techpowerup.com/img/RP1nt5X1ire5H6Np.jpg
https://www.techpowerup.com/299130/nvidia-ada-ad102-block-diagram-and-new-architectural-features-detailed
Bei Rasterizing wird es kaum was bringen. Dort geschieht das Shading ja schon in effizienter Weise.
Tomahawk
2022-09-25, 12:48:39
@Troyan
Danke! Ich hatte nur die Aussage von Huang aus dem Video im Kopf (+25% overall game performance).
Platos
2022-09-25, 13:00:00
Du willst mit 2 Spielen, bei denen Rasterperformance ebenso egal ist begründen, dass Rastern am wichtigsten ist? CS und DOTA Spieler interessiert keine Grafikkarte heutzutage, da die FPS sowieso schon absurd hoch sind, die kümmert auch Rasterperformance nicht.
Such dir eins der vielen anderen meist gespielten Spiele aus, die kein DLSS unterstützen. Da gibts genug, die anfordernder sind in der verlinkten Liste.
Die 4. meist genutzte Grafikkarte bei Steam ist immer noch die GTX 1050Ti.
Hatstick
2022-09-25, 13:00:12
Links das Bild mit Cyberpunk sieht ja mal richtig mäh aus.
Wieviele Spiegelungen sollen im Bild sein? JA!
Das Gegenteil von natürlich, da bekommt man es ja an den Augen.^^
Troyan
2022-09-25, 13:04:28
Schonmal auf einer Bodenglasfläche gestanden?!
Hier in New York: https://www.spiegel.de/reise/staedte/selfie-paradies-in-330-meter-hoehe-a-f9bce928-3d5b-41ad-9ded-cdf2a0f1c7dd
Wette, wenn das jemand in ein Spiel umsetzen würde, würde man das als unrealistisch kritisieren.
MiamiNice
2022-09-25, 13:07:52
Gibt es hier noch interessante Diskussionen oder bleibt es bei NV darf den und den anderen Preis nicht verlangen, mieses P/L, DLSS und RT braucht niemand?
Irgendwas interessantes?
Ihr habt schon vor 100 Seiten klar gemacht das ihr nicht kaufen wollt … Können wir uns jetzt der Performance widmen?
Jupiter
2022-09-25, 13:12:09
Links das Bild mit Cyberpunk sieht ja mal richtig mäh aus.
Wieviele Spiegelungen sollen im Bild sein? JA!
Das Gegenteil von natürlich, da bekommt man es ja an den Augen.^^
Das ist eine Glasoberfläche. Die spiegeln nun einmal so. Siehe Beispiel von Troyan.
Weil dieser Preis-/Performancebereich die mit riesigem Abstand größte Zielgruppe für dGPU ist? Das sind nicht Menschen, die eine xx80 und aufwärts kaufen.
Haha, herzlichen Glückwunsch. Du kriegst den Award für den egoistischsten Kommentar der Woche!
Nicht nur das, das sind diese typischen PC-Nerds die nach zig Jahren (eigentlich schon Jahrzehnten müsste man sagen) immer noch nicht begriffen haben für wen Spiele entwickelt werden. Da werden mal eben die ganzen Konsolenspieler im MS und Sony Lager völlig ignoriert. Kannst du dir nicht ausdenken. :freak:
Dann müssen die Entwickler neue Fähigkeiten wie DLSS, Mesh Shader, Variable-rate shading usw. einbauen. Die Grafikkarten bieten ihnen die Möglichkeit. Wenn sie die verfügbare Leistung nicht nutzen wollen, sind sie selbst schuld. Damit könnte viel herausgeholt werden. Mein Mitleid hält sich da in Grenzen.
Platos
2022-09-25, 13:19:28
Gibt es hier noch interessante Diskussionen oder bleibt es bei NV darf den und den anderen Preis nicht verlangen, mieses P/L, DLSS und RT braucht niemand?
Irgendwas interessantes?
Ihr habt schon vor 100 Seiten klar gemacht das ihr nicht kaufen wollt … Können wir uns jetzt der Performance widmen?
Nö, hier darf alles bezüglich Ada diskutiert werden. Wenn dir das nicht passt, hast du wohl Pech gehabt. Wenn du einen reinen Technik-Thread willst, kannst du ja einen aufmachen.
Spring
2022-09-25, 13:19:44
Die sind mir vollkommen egal. Warum interessieren die dich?
Da müssen die Entwickler fortschrittlicher werden. Die Möglichkeiten bietet ihnen Nvidia. Weit verbreitet ist die Nvidia RTX-Hardware ebenso.
Jupiter, was soll der empahtielose Beitrag. Du spielst doch selbst SC, das trotz dickster HW wirklich wie ein Sack Nüsse läuft. Welche der Techniken der 4xxx helfen Dir, das das Game besser läuft?
Und auch für Dich: Nur weil die HW vorhanden ist, heißt definitiv nicht, daß das Featureset genutzt wird.
Keiner kann was dafür, das nvidia mit Tensorcores ihren monolithischen Chip unnötig aufgebläht haben.
Ergo werden viele Transistoren investiert für Funktionen, die kaum genutzt werden aber trotzdem bezahlt werden müssen. So siehts aus.
Hatstick
2022-09-25, 13:24:08
Spiegelung mag realistisch sein und auch beeindruckend aber in Spielen kommt das auch nicht immer realistisch rüber, bzw. ist von Vorteil aber nur meine Meinung.
Es muss am Ende "schön" aussehen und passend sein aber nun gut, Techzeugs und kann man auch verstehen, das nVidia da komplett auffährt.
Daredevil
2022-09-25, 13:33:54
Das sagt überhaupt nichts aus. Schon wieder so Quark wie dein Vergleich 5700XT vs 3080 (verschiedenen Gens).
Wie Platos ausgeführt hat, heißt das eben nicht, das auch viel DLSS u RT tatsächlich genutzt wird.
Ich kenne persönlich niemanden der sowas im MP benutzt
Und nur weil du niemanden kennst, gibt es niemanden, der das benutzt? Bist du der Mittelpunkt der Erde, oder was? ;D
Ein Steam Survey hat sicherlich mehr zu bedeuten als deine Freunde.
Zumal, was soll denn die lächerliche Begründung, dass wenn man Features hat, der User sie nicht automatisch nutzen muss?
Dann kannst du jegliche Features vor den Karren werfen, wenn der Nutzer zu dumm ist. Dafür gibt es aber z.B. bei Nvidia Geforce Experience, damit das Programm die besten Settings für den laienhaftesten Nutzer einstellt, inkl. DLSS. ;)
Diese Spieler profitieren aber seit Jahren praktisch gar nicht von neuen Grafikkarten in ihrem Preisbereich und jetzt vermutlich weider nicht (unabhängige Tests sind ja noch nicht da).
Nach dem Argument ausgehend müssten ja eigentlich alle Spieler in diesem Preisbereich AMD GPUs in der Kiste haben, weil die in RT sucken, kein DLSS haben und Raster Performance massiv gesteigert wurde.
Warum haben denn bei Steam mehr Leute eine RTX3090 statt einer RX6600? Weil sie bei Groover Nvidia Karten mieten?
Vielleicht braucht es auch einfach für LoL, CS:GO, Valorant, Fortnite und Diablo3 keine bessere GPU, warum sollte man also wechseln?
Für eSport Titel braucht man keinen HighEnd PC.
Und warum entwickelt AMD eigentlich einen DLSS Konkurrenten, wenn diese Features eh nichts wert sind und die niemand nutzt. Sind die eigentlich blöd und entwickeln am Spieler vorbei, so wie Nvidia?
Platos
2022-09-25, 13:43:48
Nach dem Argument ausgehend müssten ja eigentlich alle Spieler in diesem Preisbereich AMD GPUs in der Kiste haben, weil die in RT sucken, kein DLSS haben und Raster Performance massiv gesteigert wurde.
Warum haben denn bei Steam mehr Leute eine RTX3090 statt einer RX6600? Weil sie bei Groover Nvidia Karten mieten?
Vielleicht braucht es auch einfach für LoL, CS:GO, Valorant, Fortnite und Diablo3 keine bessere GPU, warum sollte man also wechseln?
Für eSport Titel braucht man keinen HighEnd PC.
RDNA 2 ist in Raster etwa gleich gut, wie nvidia. Das ist mal der erste Punkt. Warum müsste man also AMD kaufen? Ergibt keinen Sinn. (Edit: Dass so viele Leute noch ne 1050ti oder 1060 haben belegt eher, dass für viele Leute sowohl AMD als auch nvidia nichts attraktives hat bis heute).
Der 2. Punkt ist, dass die Leute nvidia kaufen, weil es eine namhafte Marke ist und AMD weniger. Das war vor RT schon so und ist jetzt immer noch so.
Das weisst du selber natürlich auch.
Und wie ich schon dem anderen gesagt habe: In der Liste der meist gespielten Spiele gibts es mehr als genug Spiele, die anfordernder sind und kein DLSS unterstützen.
Das gilt alles für FHD. Wenn mal einer gerne auf 1440p gehen will, ist sowieso gleich mit vielen Spielen schluss mit einer 1050Ti oder 1060.
Platos
2022-09-25, 13:45:43
Und warum entwickelt AMD eigentlich einen DLSS Konkurrenten, wenn diese Features eh nichts wert sind und die niemand nutzt. Sind die eigentlich blöd und entwickeln am Spieler vorbei, so wie Nvidia?
Du darfst gerne meinen Beitrag verlinken, in dem ich sage, dass DLSS 2.x oder FSR 2.x heute wertlose Features sind oder sie niemand nutzt.
Spring
2022-09-25, 13:49:15
Und nur weil du niemanden kennst, gibt es niemanden, der das benutzt? Bist du der Mittelpunkt der Erde, oder was? ;D
Ein Steam Survey hat sicherlich mehr zu bedeuten als deine Freunde.
Zumal, was soll denn die lächerliche Begründung, dass wenn man Features hat, der User sie nicht automatisch nutzen muss?
Dann kannst du jegliche Features vor den Karren werfen, wenn der Nutzer zu dumm ist. Dafür gibt es aber z.B. bei Nvidia Geforce Experience, damit das Programm die besten Settings für den laienhaftesten Nutzer einstellt, inkl. DLSS. ;)
Nach dem Argument ausgehend müssten ja eigentlich alle Spieler in diesem Preisbereich AMD GPUs in der Kiste haben, weil die in RT sucken, kein DLSS haben und Raster Performance massiv gesteigert wurde.
Warum haben denn bei Steam mehr Leute eine RTX3090 statt einer RX6600? Weil sie bei Groover Nvidia Karten mieten?
Vielleicht braucht es auch einfach für LoL, CS:GO, Valorant, Fortnite und Diablo3 keine bessere GPU, warum sollte man also wechseln?
Für eSport Titel braucht man keinen HighEnd PC.
Und warum entwickelt AMD eigentlich einen DLSS Konkurrenten, wenn diese Features eh nichts wert sind und die niemand nutzt. Sind die eigentlich blöd und entwickeln am Spieler vorbei, so wie Nvidia?
Nö, aber ich kenne halt viele Leute und hab über tausend Follower, die ich genau sowas gefragt habe. Und egal ob nv oder amd: online nutzt das kein Schwein.
Das nvidia bekannter als AMD ist, ist auch nichts neues, habe ich oben schon erwähnt (Grafikkarte = Geforce).
Sorry, das ich nicht zur Fraktion gehöre, die bei jeder Lederjacken Ankündigung in die Luft springt. Und sollte AMD die gleiche Nummer trotz Chiplets abziehen, sind die auch unten durch.
Du darfst gerne meinen Beitrag verlinken, in dem ich sage, dass DLSS 2.x oder FSR 2.x heute wertlose Features sind oder sie niemand nutzt.
Das sehe ich auch so.
Daredevil
2022-09-25, 13:59:19
Nö, aber ich kenne halt viele Leute und hab über tausend Follower, die ich genau sowas gefragt habe.
Zeig mal das Ergebnis deiner Umfrage. ;)
Meridian12
2022-09-25, 14:01:43
Ich bin gespannt auf echte Testberichte ohne DLSS und RT in 4K.
Mal schauen was da am Ende übrig bleibt.
An eine mögliche Verdoppelung der Leistung glaube ich nicht mehr.
Wahrscheinlich eher 50%, so sehr, wie alles ignoriert wurde ohne DLSS3.
Ich kann natürlich mit hoher Wahrscheinlichkeit falsch liegen, aber ich hatte das Gefühl, die neuen Karten sind schlechter als vorher erwartet und nur mit DLSS3 können sie glänzen.
Da sprechen natürlich die reinen Rohwerte komplett dagegen, aber dieses Gefühl bekam ich bei der Präsentation vermittelt.
Troyan
2022-09-25, 14:04:54
Verdopplung gegenüber Chipgröße wird passieren. Verdopplung beim Preispunkt wohl kaum...
Das mag deine Meinung sein, entspricht aber nicht den Fakten.
Steam Survey:
https://abload.de/img/bildschirmfoto2022-094hewe.png
Grüße gehen raus an die RX580, der einzige Verfechter von AMD in dem oberen Rang. :D
Von den ersten 22 beliebtesten GPUs bei Steam sind ganze 11 mit RT und DLSS Hardware ausgerüstet. Die Prozente kannst du dir selber ausrechnen.
Hier sieht man btw. auch mal wieder sehr gut den Stand und den Namen im Gaming. Die RX580 war in jeglicher Hinsicht immer die bessere Karte als die 1060, trotzdem ist die seit Jahren am beliebtesten bei Steam. Das ist der Brand, obwohl die Technik objektiv betrachtet schlechter war. Und Brand kostet Geld, immer.
Steam haut einfach BS-Zahlen raus. Das kann man schlichtweg nicht ernst nehmen.
Tomahawk
2022-09-25, 14:16:53
Kann man aus dem Ada-Release etwas für Notebook-Chips ableiten? Wie üblich zur CES? Gibt es bei Notebook-Chips auch einen Überbestand, der auf eine weitere Verschiebung hindeuten könnte?
Jupiter
2022-09-25, 14:22:07
Jupiter, was soll der empahtielose Beitrag. Du spielst doch selbst SC, das trotz dickster HW wirklich wie ein Sack Nüsse läuft. Welche der Techniken der 4xxx helfen Dir, das das Game besser läuft?
Und auch für Dich: Nur weil die HW vorhanden ist, heißt definitiv nicht, daß das Featureset genutzt wird.
Keiner kann was dafür, das nvidia mit Tensorcores ihren monolithischen Chip unnötig aufgebläht haben.
Ergo werden viele Transistoren investiert für Funktionen, die kaum genutzt werden aber trotzdem bezahlt werden müssen. So siehts aus.
Was kann Nvidia dafür, wenn die Entwickler ihre Spiele schlecht optimieren und nicht die fortschrittlichen Fähigkeiten nutzen, welche seit 2018 existieren. Damit könnte sie die Bildrate verdoppeln. Diese Entwickler können nicht nur auf Rechenleistungen zurückgreifen, die ihnen auf einem Silbertablett geliefert wird. Sie müssen auch selbst etwas dafür tun und die grafische Architektur der aktuellen Generation zu Nutze machen.
Laut CIG wird SC DLSS und VRS erhalten. Zuerst müssen sie aber Vulkan hinbekommen.
why_me
2022-09-25, 14:24:15
Vielleicht haben die Entwickler Augen im Kopf und stehen nicht so sehr auf den Vaseline look von DLSS? :weg:
Ex3cut3r
2022-09-25, 14:40:12
Vielleicht haben die Entwickler Augen im Kopf und stehen nicht so sehr auf den Vaseline look von DLSS? :weg:
Ohne FPS Counter, wüsste man nicht mal wo DLSS (2.4.6 manuell eingefügt) an oder aus ist. :biggrin:
https://abload.de/thumb/gow_2022_09_25_14_37_oyf36.png (https://abload.de/image.php?img=gow_2022_09_25_14_37_oyf36.png) https://abload.de/thumb/gow_2022_09_25_14_37_zhepe.png (https://abload.de/image.php?img=gow_2022_09_25_14_37_zhepe.png)
Spring
2022-09-25, 14:48:02
Was kann Nvidia dafür, wenn die Entwickler ihre Spiele schlecht optimieren und nicht die fortschrittlichen Fähigkeiten nutzen, welche seit 2018 existieren. Damit könnte sie die Bildrate verdoppeln. Diese Entwickler können nicht nur auf Rechenleistungen zurückgreifen, die ihnen auf einem Silbertablett geliefert wird. Sie müssen auch selbst etwas dafür tun und die grafische Architektur der aktuellen Generation zu Nutze machen.
Laut CIG wird SC DLSS und VRS erhalten. Zuerst müssen sie aber Vulkan hinbekommen.
Du widersprichst Dir selbst in Deinem eigenen Posting....
Erst "Entwickler zu blöd und zu lahm".
Dann SC: "DLSS kommt nach Vulkan"
Merkst selbst? Außerdem weißt ja wie lahm bei SC sowas implementiert wird.
@Daredevil: Konnte man alles live im Stream hören, keiner der Zuschauer oder Mates hat im MP sowas an. Auf meinem Discord wurde einmal DLSS in den Mund genommen, bei CP2077. Das wars.
dargo
2022-09-25, 14:56:14
Was kann Nvidia dafür, wenn die Entwickler ihre Spiele schlecht optimieren und nicht die fortschrittlichen Fähigkeiten nutzen, welche seit 2018 existieren.
Was können die DEVs dafür, dass der PC nicht solche Verkaufszahlen generiert?
https://samagame.com/blog/de/god-of-war-fuer-ps4-wurde-fast-20-millionen-mal-verkauft/
Es wird halt dafür optimiert wo am meisten Geld mit Software generiert wird. Erstaunlich, dass du das immer noch nicht verstanden hast.
Jupiter
2022-09-25, 15:01:43
Für PlayStation 4-Spiele und Grafik der letzten Generation braucht es nicht viel Leistung. Da reicht schon so etwas wie eine GTX 980.
XBox One X kann auch Raytracing, Mesh Shader und VRS.
dargo
2022-09-25, 15:03:16
Ein Cyberpunk 2077 wurde auch für eine PS4 entwickelt. :rolleyes:
Jupiter
2022-09-25, 15:04:36
Nein, primär für den PC. Auf der PlayStation 4 hat es 20 BpS, und teilweise niedriger als die niedrigsten Grafikeinstellungen und sehr wenig Passanten. Das ist kein PlayStation 4-Spiel. SC könnte auch auf der PlayStation 4 laufen. Mit 10 BpS und 10 Minuten langen Ladezeiten.
dargo
2022-09-25, 15:06:40
Nein, primätr für den PC.
Ach deswegen ist das so ein Bughaufen geworden der noch relativ bescheiden performt. Das erklärt dann Einiges.
Ex3cut3r
2022-09-25, 15:07:14
Die Umfragen bei CB sehen schlecht für Nvidia aus. :biggrin:
https://abload.de/img/unbenanntw4igi.png
https://abload.de/img/unben2anntmtfye.png
https://abload.de/img/unbe3nanntxnijt.png
https://abload.de/img/unbenan4nt2zdqv.png
https://abload.de/img/unbena5nntr7i22.png
https://abload.de/img/unb6enanntdbizd.png
Jupiter
2022-09-25, 15:07:27
Ach deswegen ist das so ein Bughaufen geworden der noch relativ bescheiden performt. Das erklärt dann Einiges.
Nein, die Grafik zu zu anspruchsvoll. Analog zu Crysis auf PlayStation 3.
dargo
2022-09-25, 15:08:07
Nein, die Grafik zu zu anspruchsvoll.
Schon klar. :lol:
Jupiter
2022-09-25, 15:09:53
Da kannst du lachen so viel du willst. Bringen wird es dir nichts. Allein die NSC-Dichte ist vielerorts höher als bei allen Spielen, die ich kenne.
Vielleicht haben die Entwickler Augen im Kopf und stehen nicht so sehr auf den Vaseline look von DLSS? :weg:
Es gibt bei CP2077 einen geringfügigen Schärfeverlust in den Texturdetails, aber sichtbar finde ich das nur beim Pixel-Peeping aus der Nähe. Im bewegten Bild? Völlig unerheblich.
Die RTX-Effekte hingegen machen gerade im bewegten Bild einen Unterschied beim visuellen Gesamteindruck der Szene.
Ich habe eine 3080 und spiele auf 1440p. Ich habe also die Wahl zwischen RTX + DLSS oder kein DLSS, aber dafür auch kein RTX. Die Wahl fällt mir hier ehrlich gesagt nicht weiter schwer.
Platos
2022-09-25, 15:13:06
Die Umfragen bei CB sehen schlecht für Nvidia aus. :biggrin:
Nicht, das ich nicht denke, dass das global gesehen tatsächlich in etwa so diese Meinung widerspiegelt, aber dei Teilnehmeranzahl ist dann mit wengier wie 50 Leute dann doch etwas nichtsaussagend :D
Hoffe natürlich, dass die meisten Leute das global in etwa so vernichtend sehen.
Bei aller Kritik an Ada sollte man sich mit etwaigen Aussagen zu RDNA 3 noch zurückhalten. RDNA 3 kann niemand wirklich einschätzen, deshalb ist besonders die letzte Frage von ComputerBase ob die Rechnung für Nvidia aufgeht zu aktuellem Zeitpunkt völliger Blödsinn.
Ex3cut3r
2022-09-25, 15:16:49
Nicht, das ich nicht denke, dass das global gesehen tatsächlich in etwa so diese Meinung widerspiegelt, aber dei Teilnehmeranzahl ist dann mit wengier wie 50 Leute dann doch etwas nichtsaussagend :D
Hoffe natürlich, dass die meisten Leute das global in etwa so vernichtend sehen.
Die steigen minütlich. Die Umfrage ist gerade Online gegangen. Sieht trotzdem nicht gut aus für Nvidia. Ich sagte bereits, diesmal haben Sie den Vogel abgeschossen. Ich glaube tatsächlich das Nvidia diesmal auf den Arsch fallen wird, wenn Sie weiterhin an den Preisen zumindest festhalten.
FastAndy
2022-09-25, 15:22:31
Die Umfragen bei CB sehen schlecht für Nvidia aus. :biggrin:
Völlig normale reaktion der masse. Für die sind die karten auch gar nicht gedacht. Würde bei anderen luxus umfragen nicht anders aussehen, verkauft sich trotzdem ;)
Platos
2022-09-25, 15:23:50
Die steigen minütlich. Die Umfrage ist gerade Online gegangen. Sieht trotzdem nicht gut aus für Nvidia. Ich sagte bereits, diesmal haben Sie den Vogel abgeschossen. Ich glaube tatsächlich das Nvidia diesmal auf den Arsch fallen wird, wenn Sie weiterhin an den Preisen zumindest festhalten.
Ich hoffe, das werden sie. Das liegt aber nicht an nvidia, das liegt an den Nutzern. Man muss nur nicht kaufen. Einfach NICHTS kaufen, dann regelt sich das von alleine. Man muss aber ein bisschen Rückgrat haben und nicht nach 2 Monaten einknicken.
Die steigen minütlich. Die Umfrage ist gerade Online gegangen. Sieht trotzdem nicht gut aus für Nvidia. Ich sagte bereits, diesmal haben Sie den Vogel abgeschossen. Ich glaube tatsächlich das Nvidia diesmal auf den Arsch fallen wird, wenn Sie weiterhin an den Preisen zumindest festhalten.
Entscheidend sind am Ende nur die Verkaufszahlen. Zwischen dem was die Leute sagen/denken und wirklich tun liegen oft Welten - besonders im Internet. Solche Umfragen auf Hardware-Seiten haben wenig bis keine Aussagekraft.
Savay
2022-09-25, 15:27:24
Witzig. :crazy:
Frühertm hat nV tatsächlich auch mal GPUs released die nicht nur für die oberen 1% der oberen 1% gedacht sind. :uponder:
Schon ein latent anmaßender Pöbel aber auch der sich nicht klaglos mit den Krumen vorletzten Gen zufrieden gibt. ;)
Ex3cut3r
2022-09-25, 15:30:49
Entscheidend sind am Ende nur die Verkaufszahlen. Zwischen dem was die Leute sagen/denken und wirklich tun liegen oft Welten - besonders im Internet. Solche Umfragen auf Hardware-Seiten haben wenig bis keine Aussagekraft.
Die Meinungen gehen ja hier ziemlich auseinander bezüglich CB Umfragen. CB ist aber auch ein Forum ähnlich wie 3DC. Ok, sicherlich etwas mehr Mainstream, aber da gibt es auch genug Freaks wie hier. Also so verheerend waren die Umfragen auch bei CB noch nie bei einem GPU Launch. Aber gut, jeder hat seine eigene Meinung.
Die Meinungen gehen ja hier ziemlich auseinander bezüglich CB Umfragen. CB ist aber auch ein Forum ähnlich wie 3DC. Ok, sicherlich etwas mehr Mainstream, aber da gibt es auch genug Freaks wie hier. Also so verheerend waren die Umfragen auch bei CB noch nie bei einem GPU Launch. Aber gut, jeder hat seine eigene Meinung.
Wie schon erwähnt ist es jetzt zu früh schon voreilige Schlüsse zu ziehen und so zu überdramatisieren. Wenn unabhängige Reviews zu Ada und RDNA 3 raus sind und die Karten auf dem Tisch liegen, kann man immer noch von verheerend und katastrophal für den jeweiligen Hersteller reden ;)
Daredevil
2022-09-25, 15:48:45
Die Umfragen bei CB sehen schlecht für Nvidia aus. :biggrin:
https://abload.de/img/unbenanntw4igi.png
https://abload.de/img/unben2anntmtfye.png
https://abload.de/img/unbe3nanntxnijt.png
https://abload.de/img/unbenan4nt2zdqv.png
https://abload.de/img/unbena5nntr7i22.png
https://abload.de/img/unb6enanntdbizd.png
Nicht mal CB checkt, dass jedes Wort, was man über Nvidia verliert, egal ob positiv oder negativ, kostenlose Werbung für die Grafikkarten ist, egal wie viel sie kosten. Die 4090 ist auch hier wieder ein Prestige Modell und wenn die 4080ti dann für 1299$ erscheint, wird sie als ultimatives Schnäppchen gesehen.
Genauso hat es die 3070ti bei der 3080 gemacht oder die 3080ti bei der 3090.
Du hast ja auch eine 3090 als zu teuer empfunden, wolltest auf AMD warten und hast dann eine 3080ti für 1800€ ( ! ) gekauft, warum?
Das Keyfeature ist aktuell, das Nvidia jedem Gamer ins Hirn brennt, dass die Karten super hochwertig und SUPER TEUER sind, so wie es jede Ampere Karte bei Release auch war. Das erzeugt in den Köpfen der Kunden ein "Premium" Status, ähnlich wie die Rollen des MacPros oder das verdammte Apple Putztuch für 30€(?). Wichtig ist aber immer, das man im Gespräch bleibt.
Und die 3080 war deswegen auch nur so "schlecht" mit 10GB, damit man ein Modell rausbringen konnte, was dieses Problem nicht mehr hat und damit war der Kunde auf einmal super Happy.
Wenn aber eine Karte mal rauskommt nach einem halben Jahr, die dem Kunden passt, dann wird sofort zugeschlagen, weil man vermeintlich Premium Segment für bezahlbar bekommt. Das ist pures Marketing und jeder Post hier und jede Meinung bei Heise/CB/Jayz2Cents befeuert das ganze massiv.
Ex3cut3r
2022-09-25, 15:50:10
Wie schon erwähnt ist es jetzt zu früh schon voreilige Schlüsse zu ziehen und so zu überdramatisieren. Wenn unabhängige Reviews zu Ada und RDNA 3 raus sind und die Karten auf dem Tisch liegen, kann man immer noch von verheerend und katastrophal für den jeweiligen Hersteller reden ;)
Sehe ich z.B. anders. Die Preise und was man bekommt z.B. RTX 4080 12GB, total kastriert im Chip. Und die Preise wie gesagt, kann ich jetzt schon bewerten, und die sind eine Katastrophe IMHO.
Riesiger Text von DD
Es ist keine Werbung. Sondern eine Stimmungsumfrage der potenziellen Kundschaft, und die aktuelle Stimmung ist alles andere als gut. Ich finde es fast grotesk, mit welchen Argumenten viele ankommen, und versuchen Nvidia irgendwie in richtige Licht zu stellen. Sry, aber die Preise sind einfach abnormal, da gibt es gar nichts zu diskutieren. :confused:
Daredevil
2022-09-25, 15:57:57
Es ist keine Werbung. Sondern eine Stimmungsumfrage der potenziellen Kundschaft, und die aktuelle Stimmung ist alles andere als gut. Ich finde es fast grotesk, mit welchen Argumenten viele ankommen, und versuchen Nvidia irgendwie in richtige Licht zu stellen. Sry, aber die Preise sind einfach abnormal, da gibt es gar nichts zu diskutieren. :confused:
Sehe ich z.B. anders. Die Preise und was man bekommt z.B. RTX 4080 12GB, total kastriert im Chip. Und die Preise wie gesagt, kann ich jetzt schon bewerten, und die sind eine Katastrophe IMHO.
Du siehst das ganze anders, hast aber eine 3080ti für 1800€ im Rechner, während dir die 3090 für 1500€ zum Release zu teuer war.
Du hast sogar jemanden im Ampere Thread gesagt, dass dir 1600€ für eine 3080ti zu viel wären für das gebotene.
Du bist ( auch ) dem Marketing zum Opfer gefallen, weil du dich ja offenbar aktuell sehr wohl fühlst mir der Karte, was fantastisch ist.
Es geht nicht darum, etwas verteidigen zu wollen. Weil Nvidia ja offenbar bei ADA genauso dumm ist wie zu Ampere.
Die zu hohen Preise sind das Resultat daraus, dass die kleinen Karten gekauft werden, die gibt es aber erst im nächsten Jahr, wenn man die Fanboys mit diesen ( 4080 ) Preisen gemolken hat.
Heute wird sich drüber empört, Morgen wird zugeschlagen. M A R K E T I N G.
Ex3cut3r
2022-09-25, 16:02:17
Du siehst das ganze anders, hast aber eine 3080ti für 1800€ im Rechner, während dir die 3090 für 1500€ zum Release zu teuer war.
Du hast sogar jemanden im Ampere Thread gesagt, dass dir 1600€ für eine 3080ti zu viel wären für das gebotene.
Du bist ( auch ) dem Marketing zum Opfer gefallen, weil du dich ja offenbar aktuell sehr wohl fühlst mir der Karte, was fantastisch ist.
Es geht nicht darum, etwas verteidigen zu wollen. Weil Nvidia ja offenbar bei ADA genauso dumm ist wie zu Ampere.
Wieso holst du jetzt die Vergangenheit wieder hoch? 1800€ müsste ich damals zahlen, weil das Mining so gefragt war. Im nachhinein, natürlich ein Fehler. Jetzt in normalen Zeiten wurde ich nicht schon wieder 2000€ auf den Tisch legen, da erwarte ich einfach "normalere" Preise.
Ziemlich schade, dass du wieder mal auf die persönliche Ebene kommen musst, aber das habe ich auch erwartet von jemanden wie dir.
Pumpi74
2022-09-25, 16:03:06
Frühertm hat nV tatsächlich auch mal GPUs released die nicht nur für die oberen 1% der oberen 1% gedacht sind.
Du gehörst in Deutschland als Single mit einem Monatseinkommen von 3700€ Netto oder mehr zu den oberen 10% der Verdiener. Das Lovelace LineUp ist vermutlich im Moment tatsächlich nur für die oberen ~20% gemacht. Und natürlich für die Hardcore Nerds für die Geld beim Thema Hardware nebensächlich ist. Der Rest darf sich um eine Konsole bewerben. :biggrin:
prinz_valium_2
2022-09-25, 16:03:07
Witzig. :crazy:
Frühertm hat nV tatsächlich auch mal GPUs released die nicht nur für die oberen 1% der oberen 1% gedacht sind. :uponder:
Schon ein latent anmaßender Pöbel aber auch der sich nicht klaglos mit den Krumen vorletzten Gen zufrieden gibt. ;)
Jup.
Und auch wenn viele sagen es ist ein Hobby, wofür man bei den Stunden an Spaß, wenig bezahlt, für 2k bekommst du ein gutes Bett, ein Auto was fährt oder einen Satz neue Kücheneinbaugeräte.
Mit der 2000er Serie hat es angefangen. Davor war die Welt noch in Ordnung.
Jetzt gibt es zum ersten Mal kein Mining Boom und Gesamtökonomischen Gegenwind. Mal sehen, was passiert.
Du gehörst in Deutschland als Single mit einem Monatseinkommen von 3700€ oder mehr zu den oberen 10% der Verdiener. Das Lovelace LineUp ist vermutlich im Moment tatsächlich nur für die oberen ~20% gemacht. Und natürlich für die Hardcore Nerds für die Geld beim Thema Hardware nebensächlich ist. Der Rest darf sich um eine Konsole bewerben. :biggrin:
Die 0.1% passt schon
Wer 2k netto (die oberen 20%) im Monat verdient und sich eine Teil eines Computer für den Preis kauft, dem ist eigentlich nicht mehr zu Helfen.
Eine 2K GPU is wie ein 100k Auto von den Relationen.
Troyan
2022-09-25, 16:07:05
Ich verstehe es ehrlich nicht. Wem etwas zu teuer ist, nicht kaufen. Das Leben ging bei Turing weiter und das Leben ging im letzten Jahr weiter.
Aktuelle Karten mit DLSS sind für alles ausreichend.
Daredevil
2022-09-25, 16:08:13
Wieso holst du jetzt die Vergangenheit wieder hoch? 1800€ müsste ich damals zahlen, weil das Mining so gefragt war. Im nachhinein, natürlich ein Fehler. Jetzt in normalen Zeiten wurde ich nicht schon wieder 2000€ auf den Tisch legen, da erwarte ich einfach "normalere" Preise.
Ziemlich schade, dass du wieder mal auf die persönliche Ebene kommen musst, aber das habe ich auch erwartet von jemanden wie dir.
Das ist nicht persönlich, das ist eine Reflexion deiner vergangenen Entscheidungen, wo du EXAKT das gleiche geschrieben hast, wie heute auch.
Ich habe mir auch im Mining Boom ne 3090 noch für 1600€ gekauft mit dem hinter Gedanken sie für +/- das gleiche zu verkaufen, das liegt offenbar jetzt auch brach dank der radikalen Preissenkung. Mal macht man gute Entscheidungen, mal nicht.
PS: Du MUSSTEST sicherlich keine 1800€ zahlen, weil Jensen dir keine Knarre an den kopf gehalten hat. Das war deine freie Entscheidung. ;)
Meridian12
2022-09-25, 16:09:54
Nicht mal CB checkt, dass jedes Wort, was man über Nvidia verliert, egal ob positiv oder negativ, kostenlose Werbung für die Grafikkarten ist, egal wie viel sie kosten.
Nach deiner Theorie gäbe es somit keinen Shitstorm auf der Welt,sondern nur Werbung für etwas oder jemanden :freak:
Für mich hat NVIDIA wirklich Werbung gemacht, aber eher für AMD.
Nach der Vorstellung mit den Preisen werden jetzt viele auf AMD hoffen.
Pumpi74
2022-09-25, 16:10:34
Trotzdem würde ich gerne mal erfahren wo die hier angesprochene Grafikkartenschwämme denn ist. Bei e-Bay Deutschland ist sie jedenfalls nicht. Zumindest will kaum einer seine RTX 3090 los werden. 22 Angebote per Auktion ist eher mager.
https://www.ebay.de/sch/i.html?_from=R40&_nkw=rtx+3090&_sacat=0&LH_Auction=1&LH_ItemCondition=3000&LH_PrefLoc=1&_sop=1
Daredevil
2022-09-25, 16:14:05
Nach deiner Theorie gäbe es somit keinen Shitstorm auf der Welt,sondern nur Werbung für etwas oder jemanden :freak:
Das kommt natürlich darauf an, welches Ziel das ganze hat.
Hiermit will Nvidia ganz offensichtlich ihren Namen und ihr Brand auf Teuer, exklusiv, Premium, "nicht für jeden Bezahlbar" in Verbindung bringen lassen.
Das funktioniert ebenso gut wie z.B. die MacPro Rollen für 700€ von Apple. Die sind total irrelevant, jeder hat aber gesehen, dass der MacPro dann wohl eine super schnelle Maschine sein MUSS, wenn die Rollen schon so viel kosten. Es gab sogar Minuten lange Reviews von Apples Putztuch!
Ein destruktiver Shitstorm wäre, wenn rauskommt, dass Jensen Kinder in Minen beschäftigt, damit seltene Erden für ADA gefördert werden.
Das aktuell ist ein konstruktiver Shitstorm. :)
Der erreicht natürlich keine Nvidia Fanboys und sicher auch keine AMD Hater, aber unentschlossene und "Nicht Kenner".
Ähnlich wie ein Lacoste Polo für 80€. Eigener Geltungsbedarf beginnt auch beim Gefühl, etwas zu benutzen, völlig davon ab, was es kann oder kostet. :ugly:
PS: Das gleiche schafft AMD übrigens auch mit ihrer Threadripper Reihe. Super schnell, super teuer, festigte den Brand AMD im Prozessor Markt. Davon verkaufen sie sicherlich keine Millionen Stück an Nutzer oder Gamer, aber zu sagen, dass sie Marktführer in Performance sind, hat einen Einfluss. Deswegen quetscht Intel ja auch 20kW aus jedem Prozessor raus, obwohl es technisch Unsinn ist.
Spring
2022-09-25, 16:25:31
Es ist und bleibt der mieseste NV Launch seit der FX 5900 anno 2003. Die wurde hier damals genauso verrissen und haben trotzdem paar wenige gekauft. Und haben später das dann auch bereut.
Das in Deutschland viele Probleme mit ihrer Gas Rechnung bekommen, macht die Karte noch nutzloser. Allerhöchstens als Heizlüfter Ersatz.
Das nvidia das Apple der GPUs sein möchte ist schön für nv, damit werden sie aber hart auf den Arsch fallen.
Kriegsgeier
2022-09-25, 16:25:34
Allgemein lässt sich aber festhalten:
Man kauft (natürlich wenn überlegt) immer etwas was einem zu diesem Preis auch Wert ist!
z.B. für mich war Ende 2021 eine 3090Fe + WaKü für 1500€ + 120€ wert.
Zum ersten weil die Leistung sehr gut war/auch jetzt noch ist + die 24GB!
Deshalb würde ich behaupten: für mich waren diese 1620€ sehr gut investiert.
Schon damals habe ich vorgehabt die nechste Generation überspringen zu wollen/können --> nicht zur Letzt auch wegen den 24GB!
Meine 3090 werde ich Ende 2024, Anfang 2025 durch eine >2000€ GraKa von Nvidia ( wahrscheinlich RTX 5090 mit 48GB?) ersetzen und es geht so weiter...
Exxtreme
2022-09-25, 16:35:36
Das kommt natürlich darauf an, welches Ziel das ganze hat.
Hiermit will Nvidia ganz offensichtlich ihren Namen und ihr Brand auf Teuer, exklusiv, Premium, "nicht für jeden Bezahlbar" in Verbindung bringen lassen.
Das funktioniert ebenso gut wie z.B. die MacPro Rollen für 700€ von Apple. Die sind total irrelevant, jeder hat aber gesehen, dass der MacPro dann wohl eine super schnelle Maschine sein MUSS, wenn die Rollen schon so viel kosten. Es gab sogar Minuten lange Reviews von Apples Putztuch!
Mag ja sein. Nur hilft das Apple auch nicht so wirklich. Deren Marktanteile sind jetzt nicht so megatoll auch wenn es besser aussieht als in der Vergangenheit. Und es ist auch so, dass Apple die Preise auch mit Maß setzt und nicht mitten auf der Konferenz über 2k Euro verlangt. Für viel weniger gibt es einen kompletten Imac inkl. Bildschirm.
PS: Das gleiche schafft AMD übrigens auch mit ihrer Threadripper Reihe. Super schnell, super teuer, festigte den Brand AMD im Prozessor Markt. Davon verkaufen sie sicherlich keine Millionen Stück an Nutzer oder Gamer, aber zu sagen, dass sie Marktführer in Performance sind, hat einen Einfluss. Deswegen quetscht Intel ja auch 20kW aus jedem Prozessor raus, obwohl es technisch Unsinn ist.
Threadripper sind aber keine Gaming oder Consumer-CPUs sondern für Server. Und da wird sehr viel länger Support aufrechterhalten. Und das wird auf den Preis umgelegt.
Daredevil
2022-09-25, 16:36:24
Es ist und bleibt der mieseste NV Launch seit der FX 5900 anno 2003. Die wurde hier damals genauso verrissen und haben trotzdem paar wenige gekauft. Und haben später das dann auch bereut.
Das in Deutschland viele Probleme mit ihrer Gas Rechnung bekommen, macht die Karte noch nutzloser. Allerhöchstens als Heizlüfter Ersatz.
Genauso wie deine 1000 Follower und Freunde irrelevant für den Schnitt des Marktes sind, ist Deutschland das selbe für die Welt. Wir mögen als Land politische Probleme haben, die interessiert einen Großteil der anderen Länder aber recht wenig. Du musst mal ein wenig größer denken und deinen Kreis nicht nur um 2m um dich herum kreisen lassen. 1.8% der gesamten Menschheit spricht deutsch, wir sind als Land belanglos. Es interessiert niemanden, ob wir frieren oder genug Geld in der Tasche haben.
@Exxtreme
Die Marktanteile von AMD wird Nvidia eh nicht aufholen können ( Konsolen ), genauso wie iOS nicht mehr die Zahl die Android erreichen wird. Das bedeutet aber nicht, dass man nicht trotzdem den meisten Umsatz machen kann in der Industrie. Das mit Threadripper stimmt natürlich, aber es ging mir ja auch um die Wirkung.
Jeder der sich heute ein Tesla Model 3 kauft, fühlt sich quasi, als würde er ein X fahren, weil es eben "auch ein Tesla" ist.
aufkrawall
2022-09-25, 16:38:24
Natürlich ist der gesamte Kaufkraftverlust im Westen und teilweise auch anderen Industrieländern ein relevanter Faktor.
Das mit der neuen "FX 5900" ist aber ganz großer Stuss. Das kann man sich einreden, wenn man mit niedrigsten Details (also RT off) spielen will. Zumindest in dem ein oder anderen Spiel.
MiamiNice
2022-09-25, 16:40:37
Genauso wie deine 1000 Follower und Freunde irrelevant für den Schnitt des Marktes sind, ist Deutschland das selbe für die Welt. Wir mögen als Land politische Probleme haben, die interessiert einen Großteil der anderen Länder aber recht wenig. Du musst mal ein wenig größer denken und deinen Kreis nicht nur um 2m um dich herum kreisen lassen. 1.8% der gesamten Menschheit spricht deutsch, wir sind als Land belanglos. Es interessiert niemanden, ob wir frieren oder genug Geld in der Tasche haben.
Deine Posts gefallen mir heute extrem gut :up:
Spring
2022-09-25, 16:43:35
Genauso wie deine 1000 Follower und Freunde irrelevant für den Schnitt des Marktes sind, ist Deutschland das selbe für die Welt. Wir mögen als Land politische Probleme haben, die interessiert einen Großteil der anderen Länder aber recht wenig. Du musst mal ein wenig größer denken und deinen Kreis nicht nur um 2m um dich herum kreisen lassen. 1.8% der gesamten Menschheit spricht deutsch, wir sind als Land belanglos. Es interessiert niemanden, ob wir frieren oder genug Geld in der Tasche haben.
Keine Ahnung, ob du völlig nv biased bist (sieht so aus), aber das Problem haben wir nicht nur in Deutschland.
Du wirkst wie ein trotziges Kind, das die Realitäten nicht wahr haben will.
In paar Monaten wirst da kleinere Brötchen backen müssen.
Die Karte ist nur für einen geringen Teil der Käufer relevant. Und dann hat die Karte issuses wie 4 Slot, PCIE Slot kann abbrechen, halbgare Halterunglösungen, sehr hoher Stromverbrauch.
FX 5900 reloaded. Kein Fön, dafür ein Klotz..
https://images-ext-2.discordapp.net/external/3_anY0V1cPuRO8qXN7j-6op2G6grztsRHkCqm8od8Eo/https/i.imgur.com/2yv8pe1.png
The_Invisible
2022-09-25, 16:44:31
Der Thread hier wird auch immer absurder, jetzt wirds schon mit der FX Reihe verglichen, der Vergleich würde nur zutreffen wenn AMD in Sachen Raytracing vorne wäre...
Ansonsten sei gesagt: Es ist ein reines Luxusprodukt, keiner wird genötigt es zu kaufen, zudem würde ich mal die ersten unabhängigen Tests abwarten und zumindest warten bis AMD gelauncht hat, sagt ja keiner das die eine optimale Preis/Leistung Landung machen.
RoNsOn Xs
2022-09-25, 16:51:31
Heiße die aktuelle Preispolitik beileibe nicht gut, aber zu dem was Daredevil alles schrieb, kann ich nur beipflichten. Nvidia relaesed die "obersten" Karten nicht ohne Grund als erstes - da gehts um Prestige und Brand. Später wird der Mainstream folgen und da wird es dann auch relativ P/L-interessantere HW geben für Onkel Harry nebenan. Nicht billig, aber der Marke und auch der Inflation entsprechend.
Redneck
2022-09-25, 16:53:27
Genauso wie deine 1000 Follower und Freunde irrelevant für den Schnitt des Marktes sind, ist Deutschland das selbe für die Welt. Wir mögen als Land politische Probleme haben, die interessiert einen Großteil der anderen Länder aber recht wenig. Du musst mal ein wenig größer denken und deinen Kreis nicht nur um 2m um dich herum kreisen lassen.
Du irrst.. Ich will hier nicht wieder zu sehr OT werden, aber als 4. Größte Volkswirtschaft der Welt ist Deutschland wirtschaftlich alles andere als un-relevant. Nicht umsonst sind die hier durchsetzbaren Endverkaufspreise höher als in vielen anderen Teilen der Welt (welche im Übrigen ähnliche Probleme haben wie wir bezogen auf Energieknappheit und entsprechender Kosten und dadurch schwindender Kaufkraft).
Daredevil
2022-09-25, 16:54:11
Keine Ahnung, ob du völlig nv biased bist (sieht so aus), aber das Problem haben wir nicht nur in Deutschland.
Du wirkst wie ein trotziges Kind, das die Realitäten nicht wahr haben will.
In paar Monaten wirst da kleinere Brötchen backen müssen.
Die Karte ist nur für einen geringen Teil der Käufer relevant. Und dann hat die Karte issuses wie 4 Slot, PCIE Slot kann abbrechen, halbgare Halterunglösungen, sehr hoher Stromverbrauch.
FX 5900 reloaded. Kein Fön, dafür ein Klotz..
https://images-ext-2.discordapp.net/external/3_anY0V1cPuRO8qXN7j-6op2G6grztsRHkCqm8od8Eo/https/i.imgur.com/2yv8pe1.png
Ich habe mir gerade beruflich ein iPhone gekauft, welches exakt den gleichen Preis kostet wie eine 4090, um meine Brötchen musst du dir keine Sorgen mehr machen, weil ich diese mit diesem Gerät verdiene. ( mit meiner 3090 übrigens auch, ich "proll" hier aber nicht mit vierstelligen Followern ;) ). Es gibt übrigens Berichte, dass Apple die Produktion umstellt von 14ern auf mehr 14pro Modelle, vielleicht haben die Leute ja doch noch Geld in den Taschen. :confused:
Ich bin "Kaufe das beste" Biased, wenn ich es produktiv nutze und nicht nur als Anhänger für meinen Schlüssel benutze, weil es mir Zeit spart und Zeit ein Gut ist, welches ich nicht mit Geld bezahlen kann.
Und dann hat die Karte issuses wie 4 Slot, PCIE Slot kann abbrechen, halbgare Halterunglösungen, sehr hoher Stromverbrauch.
Das einzige was abbrechen kann ist wohl der Bizeps derjenigen, die die Karte nicht halten können. :D
Exxtreme
2022-09-25, 16:54:34
@Exxtreme
Die Marktanteile von AMD wird Nvidia eh nicht aufholen können ( Konsolen ), genauso wie iOS nicht mehr die Zahl die Android erreichen wird. Das bedeutet aber nicht, dass man nicht trotzdem den meisten Umsatz machen kann in der Industrie. Das mit Threadripper stimmt natürlich, aber es ging mir ja auch um die Wirkung.
Jeder der sich heute ein Tesla Model 3 kauft, fühlt sich quasi, als würde er ein X fahren, weil es eben "auch ein Tesla" ist.
Mag ja sein. Aber die neuen Karten sind so als ob man versucht einen Teelöffel für 1 Mio. € zu verkaufen. Man wird das Ding schlicht nicht los egal wie "Premium" das Ding erscheint. Es ist absolut gesehen zu teuer. Und man sollte auch bedenken, dass bei diesen Grafikkarten nicht nur die Grafikkarte so teuer ist. Es kommen exorbitant höhere Plattformkosten dazu. Ein 1100 W-Netzteil ist auch nicht billig. Das muss man auch noch draufrechnen. Und ja, wenn eine Grafikkarte 600 W frisst dann sollte man diese Reserve über haben. Ein guter Gaming PC wird also schnell mal doppelt so teuer. Von daher ja, ein Vergleich mit der FX 5900 bietet sich durchaus an.
Daredevil
2022-09-25, 16:56:46
Mag ja sein. Aber die neuen Karten sind so als ob man versucht einen Teelöffel für 1 Mio. € zu verkaufen. Man wird das Ding schlicht nicht los egal wie "Premium" das Ding erscheint. Es ist absolut gesehen zu teuer. Und man sollte auch bedenken, dass bei diesen Grafikkarten nicht nur die Grafikkarte so teuer ist. Es kommen exorbitant höhere Plattformkosten dazu. Ein 1100 W-Netzteil ist auch nicht billig. Das muss man auch noch draufrechnen. Und ja, wenn eine Grafikkarte 600 W frisst dann sollte man diese Reserve über haben. Ein guter Gaming PC wird also schnell mal doppelt so teuer. Von daher ja, ein Vergleich mit der FX 5900 bietet sich durchaus an.
Dem stimme ich ja auch zu. Ich hätte auch meine 3090 lieber für 500€ gekauft.
Das Ziel ist hier aber wie gesagt nicht der 1 Mio Löffel, der nur Premium Anwendern zugute kommt, sondern der 100.000€ Löffel, den die Masse dann als Schnäppchen sieht, obwohl es bei der Konkurrenz Löffel für 60.000€ gibt, die nahezu das gleiche können. ( 3090 > 3080ti > 6900xt ).
=Floi=
2022-09-25, 16:58:24
Nicht mal CB checkt, dass jedes Wort, was man über Nvidia verliert, egal ob positiv oder negativ, kostenlose Werbung für die Grafikkarten ist,
Sehe ich nicht so. man ruiniert ihren guten namen. Niemand spricht positiv darüber. Der punkt von werbung ist schon überschritten. Nebenbei fehlt es dann auch an produkten die man kaufen könnte. wenn selbst die 12g überteuert ist.
Spring
2022-09-25, 17:01:44
Ich habe mir gerade beruflich ein iPhone gekauft, welches exakt den gleichen Preis kostet wie eine 4090, um meine Brötchen musst du dir keine Sorgen mehr machen, weil ich diese mit diesem Gerät verdiene. ( mit meiner 3090 übrigens auch, ich "proll" hier aber nicht mit vierstelligen Followern ;) ). Es gibt übrigens Berichte, dass Apple die Produktion umstellt von 14ern auf mehr 14pro Modelle, vielleicht haben die Leute ja doch noch Geld in den Taschen. :confused:
Ich bin "Kaufe das beste" Biased, wenn ich es produktiv nutze und nicht nur als Anhänger für meinen Schlüssel benutze, weil es mir Zeit spart und Zeit ein Gut ist, welches ich nicht mit Geld bezahlen kann.
Das einzige was abbrechen kann ist wohl der Bizeps derjenigen, die die Karte nicht halten können. :D
Kein bock auf dieses Gequatsche (war auch nicht auf verdienst bezogen sondern auf dein Gehabe) . Du landest auf ignore. Das gleiche wie bei Troyan, nur schlimmer: Das du hier einen objektiver Hardware Berater darstellen sollst, der sich in diesem thread komplett entlarvt hat.
https://www.golem.de/news/pcie-anschluss-lieber-neue-mainboards-statt-gpu-hebebuehnen-und-heckspoiler-2209-168488.html
In paar Monaten sehen wir dann ja wie krass die Karte ankommt. Oder ob Jensen doch zurückrudert und Preise senken muss wg der Konkurrenz.
PCIE Slot kann abbrechen
So ein Käse, die Löcher am Slotblech sind zum Verschrauben und nicht nur zum Anschauen da. Ist die Karte verschraubt, passiert 0,0 gar nichts.
Spring
2022-09-25, 17:02:53
So ein Käse, die Löcher am Slotblech sind zum Verschrauben und nicht nur zum Anschauen da. Ist die Karte verschraubt, passiert 0,0 gar nichts.
Siehe golem Artikel oben. Danke
Savay
2022-09-25, 17:05:10
Das Ziel ist hier aber wie gesagt nicht der 1 Mio Löffel, der nur Premium Anwendern zugute kommt,
Nur das die Musik ebenfalls weder beim 100.000€ noch dem defacto besseren 60.000€ Löffel spielt. :tongue:
Da muss man schon nochmal 2-3 Klassen weiter unten ansetzen auch wenn nV diesen Markt scheinbar komplett aufgegeben hat.
Auch wenn man, wie ich selbst btw, in der oberen Preisklasse shoppt sollte man das zumindest als Problem erkennen können.
Ich fürchte auch das nV sich mit dieser Möchtegern Bugatti Strategie langfristig keinen wirklich Gefallen tut.
Wenn die das weiter so durchziehen schrumpfen die sich von der Zielgruppe derart selbst runter, dass sie einfach extrem anfällig werden.
Andererseits wäre es auch mal zu hoffen, dass sie damit zwar sanft möglich aber eindrücklich auf die Schnauze fallen...das ist nämlich für den PC Gaming Markt als Ganzes langsam nicht mehr gesund.
unl34shed
2022-09-25, 17:05:27
Nvidia relaesed die "obersten" Karten nicht ohne Grund als erstes - da gehts um Prestige und Brand. Später wird der Mainstream folgen und da wird es dann auch relativ P/L-interessantere HW geben für Onkel Harry nebenan. Nicht billig, aber der Marke und auch der Inflation entsprechend.
Nein, nicht wirklich. Bei der 4090 stimmt das vielleicht noch, Preis ist hoch aber vielleicht noch akzeptabel. Die beiden 4080er sind eigentlich eine 4070 und 4060Ti, daraus wird kein HighEnd, nur weil man da 4080 und einen 2-3x Preis drauf schreibt.
Daredevil
2022-09-25, 17:07:36
Kein bock auf dieses Gequatsche (war auch nicht auf verdienst bezogen sondern auf dein Gehabe) . Du landest auf ignore. Das gleiche wie bei Troyan, nur schlimmer: Das du hier einen objektiver Hardware Berater darstellen sollst, der sich in diesem thread komplett entlarvt hat.
https://www.golem.de/news/pcie-anschluss-lieber-neue-mainboards-statt-gpu-hebebuehnen-und-heckspoiler-2209-168488.html
In paar Monaten sehen wir dann ja wie krass die Karte ankommt. Oder ob Jensen doch zurückrudert und Preise senken muss wg der Konkurrenz.
Wir sind im Speku Thread, da wird Null-Komma-Null beraten.
Zudem bin ich genauso Berater wie jeder andere hier auch, der Titel ist einfach nur da, der macht mich aber kein Stück besser oder kompetenter.
Die Ref 3090 ist in ihrer Integrität so verwundungssteif, da könntest du auch 5kg dranhängen und sie würde sich nicht durchbiegen. Wenn andere Hersteller Plastikkarten baut und manche die kaufen, ist es am falschen Ende gespart.
Sehe ich nicht so. man ruiniert ihren guten namen. Niemand spricht positiv darüber. Der punkt von werbung ist schon überschritten. Nebenbei fehlt es dann auch an produkten die man kaufen könnte. wenn selbst die 12g überteuert ist.
Okay, spielen wir mal ein Spiel.
Ich schenke dir eine Grafikkarte und du darfst wählen!
Du bekommst eine 6950XT oder eine RTX3090ti.
Welche würdest du nehmen? Vermutlich, wenn man rational an die Sache rangeht, eine 3090ti, weil Overall das bessere Paket.
Was wäre, wenn ich dir zusätzlich zur 6950XT aber noch 100€ in die Hand drücke, wäre das schon genug, dich von der 3090ti umzustimmen? Vermutlich noch nicht, obwohl es attraktiver wäre.
Das gleiche kannst du hochspielen mit 200-300-400€ und irgendwann hast du den Preis, den Nutzer zahlen, damit sie die "unsichtbaren" Features von Nvidia wertschätzen, obwohl sie nahezu gleich schnell sind. Genau das gleiche wird es bei ADA geben, denn Raw Performance ist offenbar nicht das Steckenpferd dieser Generation. ( Das war es bei Ampere aber auch nicht )
Da man aktuell aber eine 6900xt für 700€ bekommt und eine 3090 für 1100€ ( Das sehen Leute als Schnäppchen an...! ), stellt sich hier die Frage nicht. AMD geht über den Preis und die 3090 ist sicherlich keine 50% besser.
Willst Cyberpunk aber mit RT in 60fps spielen, vielleicht aber doch? Not that easy.
Andererseits wäre es auch mal zu hoffen, dass sie damit mal sanft aber nachdrücklich auf die Schnauze fallen...das ist nämlich für den PC Gaming Markt als Ganzes langsam nicht mehr gesund.
Auf jeden Fall! Nvidia ist noch zu sehr "intel" im Spiel und ruht sich gefühlt aus, indem sie nicht alles geben. Ich wünsche AMD mit jeder neuen Generation, dass sie einen Sprung mehr machen können als Nvidia, damit alles mal wieder ins rollen kommt und spannend wird.
MiamiNice
2022-09-25, 17:07:51
Nur das die Musik ebenfalls weder beim 100.000€ noch dem defacto bessern 60.000€ Löffel spielt. :tongue:
Da muss man schon nochmal 2-3 Klassen weiter unten ansetzen.
Ich fürchte auch das nV sich mit dieser Bugatti Strategie keinen wirklich Gefallen tut.
Dummerweise kaufen die Leute ja eh immer den letzten Scheiß von denen.
Aber mal schauen ob sie den Bogen langsam nicht etwas überspannen.
Das ist imo die richtige Frage und auch die Antwort auf die ganze Diskussion der, gefühlt, letzten 10k Seiten. Die Zeit wird es zeigen.
Troyan
2022-09-25, 17:10:31
Da man aktuell aber eine 6900xt für 700€ bekommt und eine 3090 für 1100€ ( Das sehen Leute als Schnäppchen an...! ), stellt sich hier die Frage nicht. AMD geht über den Preis und die 3090 ist sicherlich keine 50% besser.
Willst Cyberpunk aber mit RT in 60fps spielen, vielleicht aber doch? Not that easy.
Doch, eigentlich schon. Die 3090 ist zuviel mehr Wert, weil sie eben auch deutlich mehr Leistung liefert. In Doom Eternal sind es 68% mehr Leistung. Man kann also seinen 88" 120Hz 4K Oled komplett auslasten.
RoNsOn Xs
2022-09-25, 17:11:01
Nein, nicht wirklich. Bei der 4090 stimmt das vielleicht noch, Preis ist hoch aber vielleicht noch akzeptabel. Die beiden 4080er sind eigentlich eine 4070 und 4060Ti, daraus wird kein HighEnd, nur weil man da 4080 und einen 2-3x Preis drauf schreibt.
Hat deiner Meinung nach welchen Grund? Unter Berücksichtigung aller im marketing-arbeitenden Menschen?
TobiWahnKenobi
2022-09-25, 17:14:17
gott sei dank nur 2000€. werde dann wohl zwei bis drei davon bestellen und die beste behalten. rest wird verscalpert.. :) brauche ja wieder ne strixx, wenn es bei der FE schon wieder nur einen HDMI-schnuffi gibt.
(..)
mfg
tobi
unl34shed
2022-09-25, 17:15:17
Hat deiner Meinung nach welchen Grund? Unter Berücksichtigung aller im marketing-arbeitenden Menschen?
TFLops Bezogen zur 4090, der Unterschied zwischen 90 und 80 war noch nie so gewaltig. In Relation sind das eine 70 und 60Ti.
MiamiNice
2022-09-25, 17:15:20
Du magst echt auf die 4090 upgraden?
RoNsOn Xs
2022-09-25, 17:18:48
TFLops Bezogen zur 4090, der Unterschied zwischen 90 und 80 war noch nie so gewaltig. In Relation sind das eine 70 und 60Ti.
Ja, aber warum sollte Nvidia so handeln, wie sie handeln? Welche Gründe haben sie denn?
TobiWahnKenobi
2022-09-25, 17:27:28
Du magst echt auf die 4090 upgraden?
nein, kein stück :P
ich lebe zu sehr in der harten realität, als dass ich jetzt sinnlos geld aus gewohnheit für etwas verbrenne, das ich eh nicht benutze.. der bedarf für was neues könnte nicht geringer sein.
(..)
mfg
tobi
Gynoug MD
2022-09-25, 17:27:31
Es gibt bei CP2077 einen geringfügigen Schärfeverlust in den Texturdetails, aber sichtbar finde ich das nur beim Pixel-Peeping aus der Nähe. Im bewegten Bild? Völlig unerheblich.
VA-Panel artige Schmier-Artefakte vergessen?
Das müsste doch bei 1440p noch mehr auffallen.
:uponder:
btw Die 3090 war/ist ohne DLSS bei RT nicht zu gebrauchen, schon gar nicht in 4k, die neue 4090 krebst dann bei RT (CP2077) ohne DLSS halt bei 60FPS rum.
Selbst die Nvidia-Präse war ja in 1440p.
:freak:
Dafür 2000 Mücken und noch mehr Hitze?
Nö danke.
Ex3cut3r
2022-09-25, 17:29:38
Mittlerweile haben mehr Leute Ihre Stimme abgegeben bei CB, ich werde jetzt aber nicht wieder alles hier hochladen. Das hier reicht vollkomme aus IHMO. Die 40er Gen ist für die meisten einfach viel zu teuer, und das fängt schon bei der 4080 12GB an, die eigentlich eine 4070 ist. Da gibt es auch nicht zu diskutieren, ob Nvidia damit mittelfristig Marktanteile verliert, wird man sehen müssen, ich sage aber, ganz klar, ja!
Jensen Huang und die Leute im Management leben mittlerweile ganz klar in Ihrer eigenen Welt, mag ja sein, dass für Sie diese Preise ein Witz sind, wenn aber 96% der Menschen in einen Industrie Staat das als zu teuer empfinden, dann spricht sowas einfach nur Bände.
https://abload.de/img/unbenannt16idq.png
Troyan
2022-09-25, 17:31:47
Euro-Preise zu nehmen, ist so lächerlich. Der Euro ist 20% gegenüber 2020 abgekackt. Die 3080 mit 10GB hätte damals statt 729€ ca. 860€ gekostet.
Cyberfries
2022-09-25, 17:31:52
Der Golem-Artikel spricht einen sehr guten Punkt an, das Steckkartenformat ist veraltet.
Wozu an einem Format festhalten, dass in jeder Dimension überreizt wird und dennoch weiter problembehaftet ist?
In der Höhe wird die Blende mittlerweile um die Hälfte übertroffen, die Breite das vierfache des einmal vorgesehenen
und die Länge ist auch gerne mal bei dem doppelten einer ITX-Platine.
Das ganze wird meist auf einen wehrlosen Kunststoffsteckplatz losgelassen und nicht so sauber gestützt wie es möglich wäre.
Von der schlechten Kühlung gar nicht erst angefangen.
Ein neues Format wäre wirklich angebracht, ohne (oder mit möglichst wenig) Altlasten.
Eine größere Platine mit quadratischerem Format für größere Lüfter? Hohe Towerkühler und Push-Pull-Lüfter?
Verbindung zum Mainboard über kurze Kabel? Wegfall von Spannungen unter 12V - oder gleich alles auf 20V?
Dass die 4000er mit den bisherigen Standards nicht besonders gut harmonieren zeigt sich in einigen Bereichen.
Das Drumherum wie überforderte Stromadapter mit Nutzungslimit, durchhängenden Karten und darunter brutzelnden SSDs...
Wahrscheinlich alles übertrieben und eher selten, wirft dennoch ein unglückliches Bild auf diese Serie.
Und dann immer noch keine verlässliche Leistungseinschätzung trotz stundenlanger Vorstellung
und langer Vorlaufzeit bei den Partnern...
DrFreaK666
2022-09-25, 17:36:24
Euro-Preise zu nehmen, ist so lächerlich. Der Euro ist 20% gegenüber 2020 abgekackt. Die 3080 mit 10GB hätte damals statt 729€ ca. 860€ gekostet.
Fantasie-Preise zu nehmen ist lächerlich.
Ex3cut3r
2022-09-25, 17:37:59
Euro-Preise zu nehmen, ist so lächerlich. Der Euro ist 20% gegenüber 2020 abgekackt. Die 3080 mit 10GB hätte damals statt 729€ ca. 860€ gekostet.
Was immer noch besser wäre, als 1099 bzw. 1299€ für eine Custom 4080 12GB aka 4070 zu zahlen.
Siehe golem Artikel oben. Danke
Bist also nur jemand der nachplappert und nicht aus eigener Erfahrung sprechen kann. Beste Diskussionsgrundlage die man sich vorstellen kann ;D
unl34shed
2022-09-25, 17:46:02
Ja, aber warum sollte Nvidia so handeln, wie sie handeln? Welche Gründe haben sie denn?
Nvidia hat volle Lager mit 3000er Chips, die sie vorher noch los werden müssen. Da das so viele sind, will man keine Rabette auf die 3000er Gen geben um höhere Verluste (Abschreibungen) zu vermeiden und vermutlich auch um das "Premium" Image beizubehalten. Wurde so von Jenson Huang im Earnings Call gesagt. Da sagte er auch, dass man eine Strategie habe die 4000er und 3000er Karten parallel zu verkaufen.
Wenn diese Strategie bedeutet, dass man den Markt von oben mit 4000er Karten zu bedienen ohne die 3000er Preise zu drücken, muss man schlussendlich eine 4060Ti unter dem Label 4080 verkaufen um den hohen Preis zu rechtfertigen.
Man glaubt halt die Kunden sind Vollidioten und das traurige ist, das der Plan wahrscheinlich sogar noch aufgehen wird.
Was immer noch besser wäre, als 1099 bzw. 1299€ für eine Custom 4080 12GB aka 4070 zu zahlen.
Das ist eine 4060Ti ;)
Die 16GB ist die 4070 ;D
Troyan
2022-09-25, 17:46:10
Was immer noch besser wäre, als 1099 bzw. 1299€ für eine Custom 4080 12GB aka 4070 zu zahlen.
Die GTX1080 kostete 2016 als Custom fast 800€ zum Launch. Mai 2016 stand der Euro bei $1,13. 13% weniger Wert + Inflation + 5nm führen zwangsläufig zu fast 1000€.
In Amerika liegt der Aufpreis bei $250 über sechs Jahre.
Nur mal zum Vergleich: Das Galaxy 7 Edge kostete $750. Das Galaxy S22 liegt bei $1000.
Ex3cut3r
2022-09-25, 17:48:28
Vorsicht übrigens dass es euch die Kabel mit dem PCIe Gen 5 Adapter nicht wegschmoren. Das könnte nämlich richtig teuer werden.
https://abload.de/img/jayztwocents-seriousl5ae6y.png
Spring
2022-09-25, 17:49:00
Bist also nur jemand der nachplappert und nicht aus eigener Erfahrung sprechen kann. Beste Diskussionsgrundlage die man sich vorstellen kann ;D
Nun, das sehen hier einige im thread auch und andere nicht. Ist genauso ein Mangel wie bei der rx480 und mehr als 75W via PCIE.
Meridian12
2022-09-25, 17:49:29
Doch, eigentlich schon. Die 3090 ist zuviel mehr Wert, weil sie eben auch deutlich mehr Leistung liefert. In Doom Eternal sind es 68% mehr Leistung. Man kann also seinen 88" 120Hz 4K Oled komplett auslasten.
Poste doch nicht so einen NVIDIA Blödsinn.
Im Prinzip willst du uns für dumm verkaufen und sagen,die 3090 ist 68% schneller als eine 6900XT.
Und das ist völliger Müll.Es sind nichtmal 10% overall.
Und ein Spiel zu nehmen, wo man statt 200 Frames auf 4k 300 Frames hat ist ja mal völlig Latte. Da kann die NVIDIA Karte auch 1000 Frames liefern. Das ist egal.
unl34shed
2022-09-25, 17:53:14
Im Prinzip willst du uns für dumm verkaufen und sagen,die 3090 ist 68% schneller als eine 6900XT.
Nein, gestern war sie noch doppelt so schnell und als Beweis kam dann das Cherrypicked Doom mit 68% avg. ca 40%. Und das übrigens immer mit RT, aber das muss man bei sowas ja nicht erwähnen... :rolleyes:
Troyan
2022-09-25, 17:55:01
Poste doch nicht so einen NVIDIA Blödsinn.
Im Prinzip willst du uns für dumm verkaufen und sagen,die 3090 ist 68% schneller als eine 6900XT.
Und das ist völliger Müll.Es sind nichtmal 10% overall.
Und ein Spiel zu nehmen, wo man statt 200 Frames auf 4k 300 Frames hat ist ja mal völlig Latte. Da kann die NVIDIA Karte auch 1000 Frames liefern. Das ist egal.
Klar, es sind 10%, wenn man Monkey Island zockt. Dafür kauft man auch 1000€ Karten. :rolleyes:
Was ist mit der Akzeptanz der Realität? Die 3090 schafft >100FPS in Doom Eternal mit Raytracing. Du kannst Battlefield 5 in 4K mit fast 100FPS und Raytracing@low spielen. Control läuft durchgehend mit 60FPS+/DLSS-Quality/Raytracing.
All das ist mit einer 6900XT nicht möglich. Die 10% sind vollkommen belanglos, weil sie eben nicht für moderne Spiele gilt.
Und nein, Grafik zu reduzieren, ist kein Argument. Wäre genauso lächerlich wie fehlende Reichweite bei E-Autos mit dem Aussagen ala "dann fahr ich nur 100km/h auf Autobahn" zu negieren.
prinz_valium_2
2022-09-25, 18:01:19
Der Golem-Artikel spricht einen sehr guten Punkt an, das Steckkartenformat ist veraltet.
Wozu an einem Format festhalten, dass in jeder Dimension überreizt wird und dennoch weiter problembehaftet ist?
In der Höhe wird die Blende mittlerweile um die Hälfte übertroffen, die Breite das vierfache des einmal vorgesehenen
und die Länge ist auch gerne mal bei dem doppelten einer ITX-Platine.
Das ganze wird meist auf einen wehrlosen Kunststoffsteckplatz losgelassen und nicht so sauber gestützt wie es möglich wäre.
Von der schlechten Kühlung gar nicht erst angefangen.
Ein neues Format wäre wirklich angebracht, ohne (oder mit möglichst wenig) Altlasten.
Eine größere Platine mit quadratischerem Format für größere Lüfter? Hohe Towerkühler und Push-Pull-Lüfter?
Verbindung zum Mainboard über kurze Kabel? Wegfall von Spannungen unter 12V - oder gleich alles auf 20V?
Dass die 4000er mit den bisherigen Standards nicht besonders gut harmonieren zeigt sich in einigen Bereichen.
Das Drumherum wie überforderte Stromadapter mit Nutzungslimit, durchhängenden Karten und darunter brutzelnden SSDs...
Wahrscheinlich alles übertrieben und eher selten, wirft dennoch ein unglückliches Bild auf diese Serie.
Und dann immer noch keine verlässliche Leistungseinschätzung trotz stundenlanger Vorstellung
und langer Vorlaufzeit bei den Partnern...
Absolut wahr. Entweder komplett neues Design Prinzip, oder zurück zu kleiner und sparsamer.
Aber im Moment geht es eher zu mehr Leistung egal um welchen Preis.
Leistung fehlt mir persönlich aber am wenigsten bei neuen GPUs.
Der Markt ist träge. Wird wohl noch etwas dauern
Meridian12
2022-09-25, 18:01:19
Stell dir mal vor, es gibt Leute die interessiert RT 0,0.
Savay
2022-09-25, 18:01:33
Wer zockt in der Realität bitte BF5 mit RT?!
Du lebst echt in deiner eigenen kleinen grünen Traumwelt!
Und nein, Grafik zu reduzieren, ist kein Argument
Wer redet von Grafik "reduzieren"?!
RT ist bestenfalls ein Goodie und in Summe immer noch genauso wenig ein wirkliches Argument, wie seinerzeit die vollkommen absurden Tesselation-Faktoren die nV den Spieleherstellern aufgezwungen hat. :freak:
Da können wir in 4-5 Jahren nochmal drüber diskutieren, dann ist das aber sicher genauso wenig Thema wie heutzutage noch über die Leistung der Tess Einheit gefaselt wird.
Da ist ja sogar DLSS relevanter.
Pumpi74
2022-09-25, 18:01:41
Bist also nur jemand der nachplappert und nicht aus eigener Erfahrung sprechen kann. Beste Diskussionsgrundlage die man sich vorstellen kann ;D
Ich hab schonmal einen rausgerissenen Slot gesehen. Da hing eine Radeon der 300Watt Klasse dran. Der Bekannte hatte den PC zu unsanft auf den Boden plumpsen lassen und das hat gereicht um den kompletten Slot raus zu reißen.
Ich hatte mal kurz spasseshalber eine GTX780TI EVGA Classified mit riesigem Fullcover Waküblock im Case. Das Teil hat so dermaßen durchgehangen das ich die Karte per Band am Top des Cases gesichert habe weil ich sonst keine Ruhe hatte. Da wäre mit Sicherheit früher oder später auch irgendwas kaputt gegangen.
Das ATX Layout ist nicht geeignet für 600Watt Grafikkarten. Schon gleich gar nicht im Zusammenspiel mit 250 Watt CPU's.
Lurtz
2022-09-25, 18:03:33
Die Umfragen bei CB sehen schlecht für Nvidia aus. :biggrin:
Heißt gar nichts, laut Umfragen wollen auch noch 80% Maske tragen.
Exxtreme
2022-09-25, 18:07:39
Dem stimme ich ja auch zu. Ich hätte auch meine 3090 lieber für 500€ gekauft.
Das Ziel ist hier aber wie gesagt nicht der 1 Mio Löffel, der nur Premium Anwendern zugute kommt, sondern der 100.000€ Löffel, den die Masse dann als Schnäppchen sieht, obwohl es bei der Konkurrenz Löffel für 60.000€ gibt, die nahezu das gleiche können. ( 3090 > 3080ti > 6900xt ).
Das Ding sieht aber nicht wie ein Schnäppchen aus. Das ist ja das Problem, was diese Serie so hat. Das Echo auf Hardware-Seiten und auf Hardware-YT-Kanälen ist durchgehend negativ was die Preise allgemein und die Namensgebung der 4080 12GB angeht. Ich halte es für hart unwahrscheinlich, dass Nvidia damit durchkommt ohne spürbare Preissenkungen.
MiamiNice
2022-09-25, 18:14:14
Wenn die Leistung ebenso Premium ist wie die Preise, werden sie es wohl. Dank DLSS3 und der Unwissenheit der Masse, werden sie nur die absurd hohen FPS sehen. Da ist es egal wo die herkommen.
Der Balken zählt und die Farbe + Anzahl der LEDs (und natürlich die einstellbaren Effekte, Sync mit anderen LEDs und CO). Du bist ja total uninformiert ;)
Wer zockt in der Realität bitte BF5 mit RT?!
Spieler bzw. User ohne Plan. Und davon gibt es mehr als reichlich, leider.
Ich hab schonmal einen rausgerissenen Slot gesehen. Da hing eine Radeon der 300Watt Klasse dran. Der Bekannte hatte den PC zu unsanft auf den Boden plumpsen lassen und das hat gereicht um den kompletten Slot raus zu reißen.
Das ist dann aber nicht das Verschulden einer zu schweren Karte oder eines zu fragilen Slots.
Ich hatte mal kurz spasseshalber eine GTX780TI EVGA Classified mit riesigem Fullcover Waküblock im Case. Das Teil hat so dermaßen durchgehangen das ich die Karte per Band am Top des Cases gesichert habe weil ich sonst keine Ruhe hatte. Da wäre mit Sicherheit früher oder später auch irgendwas kaputt gegangen.
Ohne zusätzliche Stabilisierung z.B. per Backplate nur normal, dass die durchhängt.
Bei mir im Slot steckt eine MSI RTX 3090 Ti Suprim X. Ist ein 3,5 Slot Design und bringt über 2,1 kg auf die Waage. Die sitzt da bombenfest und nahezu kerzengerade, eine zusätzliche Abstützung hebt die Karte bestenfalls um 1 mm an und ist somit nur nötig um 100% ruhig schlafen zu können ;)
Die drei Schrauben am Slotblech und die gute Stabilisierung durch die Backplate machen einen hervorragenden Job, von einem mechanisch überbeanspruchten Slot keine Spur.
Jupiter
2022-09-25, 18:26:26
Wer redet von Grafik "reduzieren"?!
RT ist bestenfalls ein Goodie und in Summe immer noch genauso wenig ein wirkliches Argument, wie seinerzeit die vollkommen absurden Tesselation-Faktoren die nV den Spieleherstellern aufgezwungen hat. :freak:
Da können wir in 4-5 Jahren nochmal drüber diskutieren, dann ist das aber sicher genauso wenig Thema wie heutzutage noch über die Leistung der Tess Einheit gefaselt wird.
Da ist ja sogar DLSS relevanter.
Natürlich wird Raytracing benötigt. Die Unterschiede sind enorm! So als würde man wie früher die Grafik von niedrig auf ultra stellen.
https://imgsli.com/MTI3MTYw
Wer will kann ja für die nächsten Jahre in PlayStation 4-Äre-Grafikfehlern weiter verharren. Für mich ist in erster Linie interessant, wie die Bildrate mit Raytracing aussieht.
why_me
2022-09-25, 18:30:35
Das RT Bild ist ja total vermatscht, von dem Stuhl bekomme ich heute nacht bestimmt Albträume, der sieht bei RT ja beschissen aus.
Da verzichte ich doch lieber auf RT und erfreue mich an den höheren FPS, wenn das nur so umgesetzt werden kann :wave:
just4FunTA
2022-09-25, 18:31:06
Natürlich wird Raytracing benötigt. Die Unterschiede sind enorm! So als würde man wie früher die Grafik von niedrig auf ultra stellen.
https://imgsli.com/MTI3MTYw
Wer will kann ja für die nächsten Jahre in PlayStation 4-Äre-Grafikfehlern weiter verharren. Für mich ist in erster Linie interessant, wie die Bildrate mit Raytracing aussieht.
tolles Beispiel, das ist ja ein Unterschied wie Tag und Nacht. Dann wollen wir mal hoffen das die nächsten Grakas das wirklich Spielbar machen und man es nicht nur kurz einschaltet um es mal gesehen zu haben und fürs zocken wieder ausschalten muss.
Savay
2022-09-25, 18:33:57
Natürlich wird Raytracing benötigt. Die Unterschiede sind enorm! So als würde man wie früher die Grafik von niedrig auf ultra stellen.
Danke, aber ich habe sowohl eine RT fähige GPU, als auch eine Handvoll Games damit...inkl. CP2077.
Ich weiß sehr genau wie es aussieht...und auch, dass es mal ganz nett aussieht, ein paar Meter weiter dann aber wieder einfach nur meh ist.
Steht einfach noch in absolut keiner Relation zum Performance Impact...auch mit Upscaling und wenn man absurde Geldbeträge drauf wirft!
Dann gibt es zudem noch div. MP Titel wo es generell einfach nur die Frametimes versaut ohne Ende.
Und genau deswegen ist es heutzutage weiterhin nur ein Goodie und wird schlicht nicht "benötigt"! :rolleyes:
Der einzige Titel wo ich es wirklich dauerhaft aktiv habe ist ironischerweise WoW. ;D
Bringt nicht viel Bling-Bling und macht nur die Schatten subtil schöner aber kostet zum Glück auch nicht viel.
Spring
2022-09-25, 18:34:16
Natürlich wird Raytracing benötigt. Die Unterschiede sind enorm! So als würde man wie früher die Grafik von niedrig auf ultra stellen.
https://imgsli.com/MTI3MTYw
Wer will kann ja für die nächsten Jahre in PlayStation 4-Äre-Grafikfehlern weiter verharren. Für mich ist in erster Linie interessant, wie die Bildrate mit Raytracing aussieht.
Das mag für Sologames legitim sein, aber wer (wie schon gesagt) schön im MP sterben möchte, macht RT an. Denn die Ablenkung durch die Effekte plus mehr delay/input lag kam man halt nicht wegargumentieren.
Pumpi74
2022-09-25, 18:37:35
Das ist dann aber nicht das Verschulden einer zu schweren Karte oder eines zu fragilen Slots.
Ohne zusätzliche Stabilisierung z.B. per Backplate nur normal, dass die durchhängt.
a) richtig, aber kleine Missgeschicke passieren.
b) Nein, eine Grafikkarte die auf einen FullcoverBlock geschraubt ist hängt nicht durch. Sie hängt im Slot. (Nun hast du aber von etwas gesprochen von dem du keine Ahnung hast)
dargo
2022-09-25, 18:45:55
Stell dir mal vor, es gibt Leute die interessiert RT 0,0.
Mal ganz davon ab... die RX 6800XT ist ja sowas von langsam in Doom Eternal @4k mit max. Details inkl. Raytracing bei ~255W. ;)
https://abload.de/thumb/doometernal_2022.09.2h2e41.jpg (https://abload.de/image.php?img=doometernal_2022.09.2h2e41.jpg)
Mit 133fps völlig unspielbar. *hust*
PS: ist 4k mit FSR 2.1Q.
Ex3cut3r
2022-09-25, 18:50:31
Danke, aber ich habe sowohl eine RT fähige GPU, als auch eine Handvoll Games damit...inkl. CP2077.
Ich weiß sehr genau wie es aussieht...und auch, dass es mal ganz nett aussieht, ein paar Meter weiter dann aber wieder einfach nur meh ist.
Ok. Du solltest mal deine System Infos aktualisieren, da steht immer noch was von einer Vega 64. ^^
Mit 133fps völlig unspielbar. *hust*
PS: ist 4k mit FSR 2.1Q.
Blasphemie. Was erlauben Dargo. ;) :biggrin:
Troyan
2022-09-25, 19:00:16
Wer zockt in der Realität bitte BF5 mit RT?!
Du lebst echt in deiner eigenen kleinen grünen Traumwelt!
Man spielt so, wie man Bock hat.
Wer redet von Grafik "reduzieren"?!
RT ist bestenfalls ein Goodie und in Summe immer noch genauso wenig ein wirkliches Argument, wie seinerzeit die vollkommen absurden Tesselation-Faktoren die nV den Spieleherstellern aufgezwungen hat. :freak:
Da ist ja sogar DLSS relevanter.
Drei Jahre alt:
https://imgsli.com/MTI3MTc1
https://imgsli.com/MTI3MTc2
Nazar
2022-09-25, 19:05:49
Man spielt so, wie man Bock hat.
Da ist ja sogar DLSS relevanter.
Drei Jahre alt:
https://imgsli.com/MTI3MTc1
https://imgsli.com/MTI3MTc2[/QUOTE]
Geil, richtig gut, dass du gerade ein Spiel zeigst, in dem RZ offensichtlich nur mit der Kneifzange angefasst wurde, um ja aufzuzeigen, wie "gut" doch eigentlich RT ist. Also so wie in fast allen RT optimierten Spielen.
Man muss sich teilweise (Metro) die Augen reiben, ob des Erstaunens wie schlecht man RZ in einem Spiel einsetzen kann. Der Aufwand RZ so schlecht aussehen zu lassen, wird mit Sicherheit mehr Zeit in Anspruch genommen haben, als es für RT zu optimieren. ;D
Gynoug MD
2022-09-25, 19:09:26
durchhängenden Karten
Wobei dieser Punkt hauptsächlich für die Custom-Schmorbraten gilt, die FE's (zumindest die 3090, bei der 4090 FE wird's evtl. ähnlich sein) sitzen bombenfest mit drei Schrauben, ohne jegliches Durchbiegen/Hängen.
vBulletin®, Copyright ©2000-2024, Jelsoft Enterprises Ltd.