Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)
Gouvernator
2020-12-05, 17:51:50
Dem muss ich ganz klar widersprechen. Selbst auf 65" (was mir zum Zocken schon zu groß wäre, kleiner habe ich 8K aber noch nicht erlebt) ist der optische Gewinn minimalst bzw. überwiegend vollkommen unsichtbar.
Hast du dabei Minecraft in 8K gesehen oder was? Ich zocke gerade BF5 Single Player mit diversen NV-Filtern, Contrast ect. aufgedreht. Das ist besser als jedes Foto das ich je mit einer DSLR gemacht habe. Und gerade bei 8K will ich eigentlich schon 85". Der 65 Zöller kommt mir vor wie ein 24" Guckloch, weil man die ganzen Details viel besser sehen würde.
Übrigens BF5 Ultra ohne RT 20Gb VRAM in 8K.
BlacKi
2020-12-05, 17:55:11
Und gerade bei 8K will ich eigentlich schon 85". Der 65 Zöller kommt mir vor wie ein 24" Guckloch, weil man die ganzen Details viel besser sehen würde.
mein gott dann geh halt näher ran! ffs
Undertaker
2020-12-05, 17:58:56
Nö, volle Sehstärke. Und eh wir uns über eine diesbezüglich unmögliche Qualifizierung streiten, "wieviel" besser 8K denn aussieht, sollten wir doch lieber gleich beim letztendlich entscheidenden Vergleich von 4K @ höhere Settings vs. 8K @ niedrigere Settings bei gleicher resultierender Framerate und Hardware bleiben. Wenn wir Leistung im Überfluss hätten, spricht für mich schließlich auch nichts gegen 8K. Es ist nur aktuell die denkbar schlechteste Lösung, die verfügbaren Ressourcen zu investieren. Diese Problematik gibt's bei Filmen nicht.
Gouvernator
2020-12-05, 18:36:31
Man kann heute so gut wie alles in 8K dank 24Gb zocken ohne Rücksicht auf höchste Settings. Vorausgesetzt man kann sich mit 30 FPS/Gamepad arrangieren. Die RTX3090 ist wie eine 8K/30 Konsole, mit einem 4K/120 Fallback das ich NIE nutze.
Platos
2020-12-05, 19:01:19
Nö, volle Sehstärke. Und eh wir uns über eine diesbezüglich unmögliche Qualifizierung streiten, "wieviel" besser 8K denn aussieht, sollten wir doch lieber gleich beim letztendlich entscheidenden Vergleich von 4K @ höhere Settings vs. 8K @ niedrigere Settings bei gleicher resultierender Framerate und Hardware bleiben. Wenn wir Leistung im Überfluss hätten, spricht für mich schließlich auch nichts gegen 8K. Es ist nur aktuell die denkbar schlechteste Lösung, die verfügbaren Ressourcen zu investieren. Diese Problematik gibt's bei Filmen nicht.
Wenn du ja der Meinung bist, dass das "wieviel besser" subjektiv ist/ nicht qualifizierbar, dann lass doch einfach die Aussage, dass es "überwiegend vollkommen unsichtbar" ist.
Oder bist du ein Heuchler und dieses Argument gilt dann für dich nicht? Danke:wink:
Undertaker
2020-12-05, 20:09:45
Sorry, das sollte natürlich "Quantifizierung" heißen. ;) Das man überschüssige Leistung selbstverständlich in beliebige Auflösungssteigerungen stecken kann (unabhängig vom Ausmaß der Qualitätssteigerung), dürfte unstrittig sein. Die hat man nur leider bei aktuellsten Titeln selten. :freak:
Und bei der Frage, ob 4K @ höhere Settings vs. 8K @ niedrigere Settings das insgesamt bessere Bild liefert, sind die Anhänger letzterer These weit abgeschlagen in der Unterzahl. Oder muss da jemand die Investition in sein 8K-Anzeigegerät rechtfertigen...? :wink:
Zur Lebenszeit von Ampere, inkl. der 3090, sehe ich 8K damit als wenig relevant an. Wenn man im Gegenzug auf Details verzichten muss, ist es den Trade-off nicht wert. Und die fehlende Performance ist leider Tatsache:
https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/3/#abschnitt_8kbenchmarks_fuer_enthusiasten_zu_langsam
Gouvernator
2020-12-05, 23:31:43
In Doom Eternal werden immerhin noch 50 FPS erreicht, was für viele Spiele ausreichen würde, ausgerechnet in dem First-Person-Shooter aber kein gutes Spielgefühl aufkommen lässt. Und in den anderen drei Spielen werden gerade mal zwischen 30 und 40 Bilder in der Sekunde erreicht.
30-40 Bilder für ein Gamepad sind eigentlich überdurchschnittlich gut. Das Problem mit Computerbase ist das diese Pfeifen noch nie mit Gamepad gespielt haben. Deswegen ist das für sie "kein gutes Spielgefühl". Von einer Konsole kommend, sind diese 30-40 FPS ein Step-Up Programm von den üblichen 25-30 FPS. An die man sich gewöhnt hat. :ulol:
Auch ist es bei diesen "Testern" nicht ersichtlich mit was für TV/Monitor sie 8K eigentlich getestet haben. Ich vermute mal es war kein natives 8K, sondern der DSR Schrott auf 4K TV. Was erklären würde warum sie, wie auch die meisten Foren-User hier, den Sinn von 8K nicht sehen können. ;D
EDIT.
Aha!
Zusätzlich getestet wurden 5.120 × 2.880 (5K) sowie 7.680 × 4.320 (8K) – nativ gerendert sowie mit DLSS. Weil ComputerBase allerdings nicht über einen nativen 8K-Monitor verfügt, erfolgt die Ausgabe in 4K mittels DSR-Downsampling. (https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/3/)
Als ob sie sich kein 8K TV leisten könnten. In Wirklichkeit schützen sie nur sehr zarte Psyche ihrer Klientel. Die man verschrecken würde, wenn sie auf ein 3000-5000€ teures Anzeigegerät angewiesen wären. Anstatt denen das Übliche vorzusetzen - irgendein 32" 144Hz Guckloch. Aber das ist in etwa wie wenn man natives 4K auf einem 1080p Monitor schlecht reden würde.
Linmoum
2020-12-05, 23:53:47
Tausende von Euro für Hardware ausgeben und dann mit Gamepad zocken um sich die Performance irgendwie schönreden zu können. Einfach nur lulz.
Achja, zockst du deine 8K nativ eigentlich auf 'nem OLED? Wenn nicht, kann man dein ganzes 8K-Gebrabbel sowieso nicht für voll nehmen.
Gouvernator
2020-12-06, 00:05:59
Ich zocke seit Xbox360 Zeit ausschließlich nur mit dem Gamepad. Das heißt Tausende Stunden freiwillig mit 30FPS/720p. =)
Meine nativ 8K zocke ich auf 65" QLED Q950R (https://www.samsung.com/de/tvs/qled-tv/q950r-65-inch-qled-8k-smart-tv-gq65q950rgtxzg/#specs).
OLED ist für 8K grundsätzlich ungeeignet weil von sich aus viel zu dunkel und dann in 4 Monaten eh ausgebrannt.
Ex3cut3r
2020-12-06, 00:17:33
65" auf 8K sind aber nur 136 PPI bei normalen Sitzabstand, das ist nix besonderes.
Du könntest dir auch einen 24" mit 4K Auflösung holen, dann haste ne PPI von 183, und noch mehr schärfe bei weniger Geldverbrauch. ;D
Platos
2020-12-06, 01:08:30
Sorry, das sollte natürlich "Quantifizierung" heißen. ;) Das man überschüssige Leistung selbstverständlich in beliebige Auflösungssteigerungen stecken kann (unabhängig vom Ausmaß der Qualitätssteigerung), dürfte unstrittig sein. Die hat man nur leider bei aktuellsten Titeln selten. :freak:
Und bei der Frage, ob 4K @ höhere Settings vs. 8K @ niedrigere Settings das insgesamt bessere Bild liefert, sind die Anhänger letzterer These weit abgeschlagen in der Unterzahl. Oder muss da jemand die Investition in sein 8K-Anzeigegerät rechtfertigen...? :wink:
Zur Lebenszeit von Ampere, inkl. der 3090, sehe ich 8K damit als wenig relevant an. Wenn man im Gegenzug auf Details verzichten muss, ist es den Trade-off nicht wert. Und die fehlende Performance ist leider Tatsache:
https://www.computerbase.de/2020-09/geforce-rtx-3090-gigabyte-msi-test/3/#abschnitt_8kbenchmarks_fuer_enthusiasten_zu_langsam
Naja, du hast gefordert, 8K auf selben Framerates wie 4k zu testen. Zuerst hast du gesagt, der Unterschied von 4k zu 8k wäre extrem niedrig. In dieser ursprünglichen Aussage war die selbe Framerate nie enthalten. Ich habe mich nicht darauf bezogen, ob es sinnvoll ist oder bei selber framerate. Ich habe nur gesagt, dass man sehr wohl einen Unterschied erkennt. Vlt. nicht von 4m Entfernung.
Aber nein, ich habe selbst keinen.
Tausende von Euro für Hardware ausgeben und dann mit Gamepad zocken um sich die Performance irgendwie schönreden zu können. Einfach nur lulz.
Achja, zockst du deine 8K nativ eigentlich auf 'nem OLED? Wenn nicht, kann man dein ganzes 8K-Gebrabbel sowieso nicht für voll nehmen.
Ach, jetzt kommt wieder das Mouse vs. Gamepad gelaber :rolleyes:
woodsdog
2020-12-06, 11:54:53
Dieses ganze 8K Gesabbel haben wir jetzt schon 3 oder 4 mal mit dem Typen hinter uns. Da ist halt 20 FPS 8K-Geruckel der geilste Scheiss no matter what ggf auch gerne über WLAN auf ein Tablet gestreamt der geilste Scheiss - je nach Wochentag mal das eine, mal das andere.
einfach nicht ernst zu nehmen.
Gouvernator
2020-12-06, 12:20:54
Dieses ganze 8K Gesabbel haben wir jetzt schon 3 oder 4 mal mit dem Typen hinter uns. Da ist halt 20 FPS 8K-Geruckel der geilste Scheiss no matter what ggf auch gerne über WLAN auf ein Tablet gestreamt der geilste Scheiss - je nach Wochentag mal das eine, mal das andere.
einfach nicht ernst zu nehmen.
Ja und du scheinst am meisten dran zu leiden. ;D
Tablet WIFI6 Streaming Setup geht übrigens deswegen so gut Hand in Hand mit 8K, weil ich eben nur mit Gamepad zocke - egal was.
eratte
2020-12-06, 13:11:28
Stell doch mal hier deinen 8K Feldzug ein und beschränke dich auf den entsprechenden Thread dazu.
Einfach mal anerkennen das man zu einer sehr kleinen Randgruppe gehört und es die meisten anderen User nicht interessiert und sie auch nicht missioniert werden wollen. Danke
MiamiNice
2020-12-06, 14:09:03
Stell doch mal hier deinen 8K Feldzug ein und beschränke dich auf den entsprechenden Thread dazu.
Einfach mal anerkennen das man zu einer sehr kleinen Randgruppe gehört und es die meisten anderen User nicht interessiert und sie auch nicht missioniert werden wollen. Danke
+1
8k interessiert kaum jemanden.
Platos
2020-12-06, 14:12:37
Ja, ist momentan wirklich fast so irrelevant momentan, wie VR.
Screemer
2020-12-06, 14:36:29
Ja, ist momentan wirklich fast so irrelevant momentan, wie VR.
Fast? Die Verbreitung dürfte deutlich geringer sein.
MiamiNice
2020-12-06, 14:42:21
Ja, ist momentan wirklich fast so irrelevant momentan, wie VR.
Nice try. Vermutlich sind x Fach mehr HMDs als 8k Geräte im Umlauf.
Platos
2020-12-06, 14:51:28
Fast? Die Verbreitung dürfte deutlich geringer sein.
Ich wollte eig. nur Miami Nice damit nerven;):D
ZeXes
2020-12-06, 18:05:53
8K wird frühestens in 4-5 Jahren interessant werden.
Glaube selbst bei Hopper wird man nicht die Leistung sehen, 8K ordentlich darstellen zu können, von daher ist die Diskussion ziemlich sinnlos.
Zumal die jetzigen 8K TVs auch nur die Alpha Geräte sind. Jede neue Technik brauch imo ein paar Generationen, um richtig gut zu werden.
Von daher absolut keine Eile diese Diskussion überhaupt anzufangen.
Platos
2020-12-06, 18:40:49
Vor allem verbrauchen die Dinger sau viel Strom. Das kommt so für mich nicht in Frage.
Fragman
2020-12-06, 20:27:07
8K könnte dank AI Upscaling von Material interessant werden.
Und 4K ist vielleicht sogar die letzte native Contentauflösung die wir bekommen.
Über den Sinn von 8K kann man an dem Punkt dann streiten.
BlacKi
2020-12-06, 21:52:06
Nice try. Vermutlich sind x Fach mehr HMDs als 8k Geräte im Umlauf.und wieviele werden davon regelmäßig betrieben? bei den meisten liegt das VR gerät doch nur in der ecke rum.
MikePayne
2020-12-06, 22:04:39
Dieses ganze 8K Gesabbel haben wir jetzt schon 3 oder 4 mal mit dem Typen hinter uns. Da ist halt 20 FPS 8K-Geruckel der geilste Scheiss no matter what ggf auch gerne über WLAN auf ein Tablet gestreamt der geilste Scheiss - je nach Wochentag mal das eine, mal das andere.
einfach nicht ernst zu nehmen.
:up:
Stell doch mal hier deinen 8K Feldzug ein und beschränke dich auf den entsprechenden Thread dazu.
Einfach mal anerkennen das man zu einer sehr kleinen Randgruppe gehört und es die meisten anderen User nicht interessiert und sie auch nicht missioniert werden wollen. Danke
:up:
Vor allem die blauen Schatten und 30fps bei 8K (und dann auch noch indirekt) + völliger Schwachsinn im MP (Solo only, sonst Kanonenfutter) :ubigboy:
Gouvernator
2020-12-06, 22:16:39
Leute ihr habt keine Ahnung. Es geht um Fotorealismus. Jeder will fotorealistische Grafik und jetzt bekommt man sie.
https://abload.de/img/img_20201206_215126-kx7kgm.jpg (https://abload.de/image.php?img=img_20201206_215126-kx7kgm.jpg)
https://abload.de/img/img_20201206_215724-kq3ktk.jpg (https://abload.de/image.php?img=img_20201206_215724-kq3ktk.jpg)
boxleitnerb
2020-12-06, 22:19:01
So ein Quark. Grafik wird nicht automatisch besser, wenn man sie besser auflöst. In Beleuchtung und Physik wäre mMn die Performance viel besser investiert.
MikePayne
2020-12-06, 22:20:31
Leute ihr habt keine Ahnung. Es geht um Fotorealismus. Jeder will fotorealistische Grafik und jetzt bekommt man sie.
https://abload.de/img/img_20201206_215126-kx7kgm.jpg (https://abload.de/image.php?img=img_20201206_215126-kx7kgm.jpg)
https://abload.de/img/img_20201206_215724-kq3ktk.jpg (https://abload.de/image.php?img=img_20201206_215724-kq3ktk.jpg)
Du stehst auf Sättigung, Schärfe und Kontrast. Aber das hat NICHTS mit Fotorealismus zu tun, rein gar nichts, vor allem wenn Du kalibrierte Monitore gleichzeitig in Abrede stellst.
Btw falscher Thread...
SKYNET
2020-12-07, 00:22:10
Leute ihr habt keine Ahnung. Es geht um Fotorealismus. Jeder will fotorealistische Grafik und jetzt bekommt man sie.
auf meinem kalibrierten moni der 100% sRGB, 100% adobeRGB und 96% DCI-P3 macht, muss ich bei den bildern fast kotzen, das ist ca. so realistisch wie nen pinker haufen scheisse. :freak:
alleine die farbverläufe sind dermassen unrealistisch, das sich mir die fussnägel hochbiegen.
Leute ihr müsst die gleichen Pilze nehmen, dann passt das wieder ;D
Gouvernator
2020-12-07, 06:01:22
auf meinem kalibrierten moni der 100% sRGB, 100% adobeRGB und 96% DCI-P3 macht, muss ich bei den bildern fast kotzen, das ist ca. so realistisch wie nen pinker haufen scheisse. :freak:
alleine die farbverläufe sind dermassen unrealistisch, das sich mir die fussnägel hochbiegen.
Nun, jetzt wissen wir was wir von deinem "Realismus" halten können, wenn du es nicht mal hinbekommst zusammenzureimen das ein billiges Handy-Foto noch nie dafür bekannt war - ein korrektes "realistisches" Foto zu liefern, von einem unrealistisch kalibrierten TV. ;D
woodsdog
2020-12-07, 08:21:22
Bleibt immer noch die Frage warum du wiederholt diesen Thread mit deinem 8K Schwachsinn verschmutzt. Wir haben Threads dafür.
robbitop
2020-12-07, 11:04:32
Dem muss ich ganz klar widersprechen. Selbst auf 65" (was mir zum Zocken schon zu groß wäre, kleiner habe ich 8K aber noch nicht erlebt) ist der optische Gewinn minimalst bzw. überwiegend vollkommen unsichtbar. Sinnloser als hier kann man Rechenleistung aktuell nicht investieren. Viermal mehr Rechenleistung für optische Schmankerl plus 4K schlägt 8K bei jeglichem Gaming-Content.
In Filmen hätte ich dagegen nichts gegen 8K, schlicht deshalb weil man hier keine Abstriche an anderer Stelle machen muss (höhere Leistungsaufnahme lasse ich jetzt mal außen vor), aktuelle Kompressionsverfahren und Internetbandbreiten dafür mehr als geeignet sind und künftig auch Displays von >=75" verbreiteter werden.
Auflösungserhöhung ist eine wie du schreibst ineffiziente Steigerung der Bildqualität. 8K vs 4K wäre Faktor 4 an Rechenleistung. Dank ML Upsampling ggf. aber mittelfristig machbar.
Wie hoch der Detailgewinn ist, hängt natürlich auch vom Sitzabstand ab. Aber: was eben auch steigt ist die temporale Stabilität.
3D Grafik profitiert eher von hohe Auflösung als Filmmaterial IMO, da bei einer Filmkamera ja pro Pixel eine Unmenge an Quanten eingefangen werden. Entsprechend ist das Bild völlig anders von temporalen und spatialen Aliasing betroffen. Bei 3D Grafik gibt es abseits von MSAA/SSAA eben nur einen Farbwert pro Pixel.
Natürlich helfen moderne TAA Verfahren hier sehr stark und sind um Größenordnungen effizienter als Auflösungssteigerungen. Aber diese haben auch immer gewisse Nachteile. Artefakte, Schärfe, Ghosting.
Auch ist die Auflösung fast immer an das LoD für Geometrie gekoppelt (und auch an das LoD der Mipmaps). Es gibt somit auch indirekt mehr Details.
Bei Filmen ist für mich die Frage, ob die Vervierfachung der Auflösung bei normalen TV Größen und Sitzabständen noch so viel bringt. Denn hier gibt es kein Aliasing und häufig ist man schon in Bereichen, bei denen der Pixelpitch innerhalb der Winkelauflösung des Auges ist.
Bei aktuellem 4K Material - selbst auf sehr guten UHD BDs - sehe ich häufig Schwächen, die nicht mit der Auflösung zusammenhängen, deren Behebung IMO zunächst mehr Nutzwert bringen würden.
Rauschendes Filmgrain (komischerweise auch bei Digitalen Produktionen), hin und wieder Colorbanding / Chroma Subsampling, begrenzte temporale Auflösung bzw Framerate (Bewegtschärfe und Flüssigkeit bei Bewegung) und grundsätzlich steigerungsfähige Bitrate für mehr Details.
Hintergrund: 110% Sehrkraft; 77" 4K OLED und UHD BDs.
Wenn ich sehe, was man mit Imageprocessing aus dem Bild noch rausholen kann (was natürlich immer mit Kompromissen zu tun hat), sehe ich da doch noch einiges an Potenzial.
Und wenn ich dann auf gestreamtes Material von Amazon/Netflix schaue mit Bitraten von <25 MBit/s - dann wird es eher schlimmer.
Ich hoffe, dass die Fortschritte in den kommenden Codecs (AV1, h266) in Kombination mit Bandbreite/Speicherplatz hier Raum für Verbesserung schaffen. Wenn ich dann Bedenke, dass 8K ggü 4K ohne jegliche angesprochene Verbesserung 4x der Bandbreite/Speicherplatz wegnascht, dann würde ich eher zunächst die angesprochenen Verbesserungen implementieren wollen. :)
robbitop
2020-12-07, 11:11:05
30-40 Bilder für ein Gamepad sind eigentlich überdurchschnittlich gut. Das Problem mit Computerbase ist das diese Pfeifen noch nie mit Gamepad gespielt haben. Deswegen ist das für sie "kein gutes Spielgefühl". Von einer Konsole kommend, sind diese 30-40 FPS ein Step-Up Programm von den üblichen 25-30 FPS. An die man sich gewöhnt hat. :ulol:
Das muss man differenziert betrachten IMO. 8K erhöht nochmal die Schärfe und den Detailgrad und bekämpft (ineffizient aber es tut es nunmal) temporales und spatiales Aliasing.
Temporale Auflösung aka Framerate hingegen ist auch nicht zu verachten. Hiervon ist der Inputlag und die Bewegtschärfe und aber auch die gefühlte Flüssigkeit abhängig.
Je nach Spiel, Szene und Präferenz macht das schon einen Unterschied. Ein Dark Souls, Bloodborne* oder Demon's Souls ist vom Spielen her ein Unterschied wie Tag und Nacht mit 60 fps vs 30 fps. Mit Gamepad. Da kommt es auf's Timing und die Flüssigkeit an.
In Rennspielen und Shootern - auch bei Singleplayer Shootern ist >>60FPS (90 oder auch 120 fps oder manchmal auch noch wesentlich mehr) auch sehr sehr nett und man spürt (auch im absoluten Blindtest) sofort die Vorteile. In Bewegung ist alles schärfer und die Steuerung ist direkter. Das steigert den Spielspaß.
Andere Spiele mit weniger Tempo hingegen profitieren davon hingegen ggf. eher vom gesteigerten Detailgrad über Auflösung.
Das war früher zu Zeiten der CRTs kein Problem. Es war zwar nie knackscharf - aber es gab auch nie den großen Nachteil nicht nativer Auflösungen. Dank immer besser werdender Bildrekonstruktionen könnte das immer mehr praktikabel werden und dann kann man das beste aus der zur Verfügung stehenden Auflösung machen. Je nach Spiel und je nach Gusto.
*wird es hoffentlich auf der PS5 oder je nach gerücht auch auf dem PC dann mit 60 fps geben
SKYNET
2020-12-07, 11:37:02
Und wenn ich dann auf gestreamtes Material von Amazon/Netflix schaue mit Bitraten von <25 MBit/s - dann wird es eher schlimmer.
Ich hoffe, dass die Fortschritte in den kommenden Codecs (AV1, h266) in Kombination mit Bandbreite/Speicherplatz hier Raum für Verbesserung schaffen. Wenn ich dann Bedenke, dass 8K ggü 4K ohne jegliche angesprochene Verbesserung 4x der Bandbreite/Speicherplatz wegnascht, dann würde ich eher zunächst die angesprochenen Verbesserungen implementieren wollen. :)
naja, selbst ne standard 1080p BD liefert bessere BQ als das 4k gestreame von netshitx & co. gestern abemd grad wieder massiv über die artefaktebildung beim streaming aufgeregt, und farbverläufe sind auch zum teil unterirdisch, da hackts diverse farben einfach in stufen ab, anstelle eines sanften farbverlaufes... kenne sowas eigentlich nur von den HD TV inhalten, aber bei "pay-TV" wie streaming diensten sollte das eigentlich nicht vorkommen.
SKYNET
2020-12-07, 11:38:38
Nun, jetzt wissen wir was wir von deinem "Realismus" halten können, wenn du es nicht mal hinbekommst zusammenzureimen das ein billiges Handy-Foto noch nie dafür bekannt war - ein korrektes "realistisches" Foto zu liefern, von einem unrealistisch kalibrierten TV. ;D
wer macht handy bilder vom monitor? :freak:
Fragman
2020-12-07, 11:44:24
Die Monitorfrage macht nur Sinn, wenn man davon ausgehen kann, das der Content auf entsprechend guten Monitoren erstellt und auch kalibriert wurde.
Die Angabe von irgendwelchen Prozentzahlen von Farbräumen bringt auch nichts, wenn die Monitore bei den Users nicht auch entsprechend kalibriert wurden. Also eine hohe Prozentzahl ist keine Garantie für eine gute Qualität. Von persönlichen Bewertungen, was gut aussieht und was nicht, rede ich da noch gar nicht.
Dant3
2020-12-07, 12:57:05
Ich wage ja zu behaupten, dass jemand der nur mit 8k Aufloesung richtig Spaß haben bzw. den Content genießen kann schon lange keinen richtigen Spaß mehr an den Spielen an sich hat. Ein gutes Spiel rockt auch in 1080p, wenn ich mir das in 4k angucke habe ich vielleicht fuer einen Moment einen "nice" Effekt, aendert aber letztendlich gar nichts an dem was ich da eigentlich mache.
Am Ende zaehlt der Inhalt und nicht die Aufloesung (oder ultra nightmare Details). Wenn es umgekehrt ist, dann ist es eigentlich schon lange vorbei, man kann oder will es sich nur nicht eingestehen.
Ist ja leider ein weit verbreitetes Problem in Foren wie diesem.
360 Hz, tausende reshades, Maeuse die 2g wiegen. 8k ist da auf jeden Fall mal etwas neues.
-/\-CruNcher-/\-
2020-12-11, 18:59:10
https://www.notebookcheck.com/Benchmark-Leak-Die-Nvidia-GeForce-RTX-3070-fuer-Gaming-Notebooks-ist-auf-Augenhoehe-mit-der-RTX-2080-Ti.509011.0.html
Cyberpunk 2077 UHD 30 FPS mit RT auf Nvidia Laptop, fast unglaublich DLSS wird hier alles niederwalzen.
woodsdog
2020-12-13, 21:27:39
https://www.notebookcheck.com/Benchmark-Leak-Die-Nvidia-GeForce-RTX-3070-fuer-Gaming-Notebooks-ist-auf-Augenhoehe-mit-der-RTX-2080-Ti.509011.0.html
Cyberpunk 2077 UHD 30 FPS mit RT auf Nvidia Laptop, fast unglaublich DLSS wird hier alles niederwalzen.
Und Wasser ist nass. :rolleyes:
Thunder99
2020-12-14, 17:31:47
Kann Ampere mit den ALUs auch Mischbelastung? Also anstelle von 128/0 oder 64/64 z.B. 160/32 (FP32/INT)
Zeitlich versetzt auf jeden Fall ;D Nee würde mich auch mal interessieren. Sidn ja keine 2x 64 unabhängige ALUs sondern SIMD Blöcke. Keine Ahnung wie granular das wirklich ist?!?
Wenn wir gerade mal dabei sind... die Load/Store-Einheiten wurden im vgl. zu Turing nicht aufgebohrt?!? Limitiert das dann nicht?
basix
2020-12-14, 21:28:40
Kann Ampere mit den ALUs auch Mischbelastung? Also anstelle von 128/0 oder 64/64 z.B. 160/32 (FP32/INT)
Du meinst eher 96/32 anstatt 160/32? Nvidias Wavegrössen betragen 32. Dynamische Aufteilung könnte schon sein. Im A100 Whitepaper steht aber nichts explizites dazu. Hängt neben dem Warpscheduler zudem auch vom Aufbau der ALUs und den Caches/Register ab.
Meine Vermutung: Nein. Nur entweder oder (zumindest bei den Gaming Amperes). Ich denke, dass Hopper auf 1x INT und 2x FP Pipelines hochgeht und man dann Mixed Scheduling nicht benötigt.
Thunder99
2020-12-14, 21:41:45
Ja, sorry, my fault :D
Wenn es so ist, dann lassen sie Potential liegen. Bei CB steht zwar auch im Tech Artikel entweder oder, aber wollte mich da lieber hier nochmal erkundigen. Merci.
robbitop
2020-12-14, 22:16:55
Ich tippe gem. NVs Architecture paper auch auf entweder 128x FP oder 64xINT + 64 FP. Theoretisch könnten auch 96FP+32INT gehen - aber da schweigt sich die Doku aus - insofern vermute ich auch, dass das nicht geht.
Wie basix vermute ich auch, dass NV mal auf 128x FP und 64xINT gehen wird. Ob das schon mit Hopper passieren wird: mal schauen.
Cyberfries
2020-12-14, 22:21:24
Wieso sollte nVidia 2x FP32 und 1x INT32 in festem Verhältnis verbauen?
Das hätten sie bereits bei Ampere machen können, haben sie aber nicht, stattdessen die bekannte Lösung.
Turing hat die INT-Berechnungseinheiten abgesondert, Ampere den INT-Einheiten FP32 beigebracht.
Diesen Weg wird man nicht ohne Grund gegangen sein, wieso sollte nVidia die gewonnene Flexibiltät wieder aufgeben?
Außerdem spricht nVidia von einem durchschnittlichen Verhältnis von 100:36 (3x FP32 auf 1x INT32).
Aber auch dieses Verhältnis schwankt, feste Pfade sind da nicht der beste Weg.
Sollte 64/64 bzw. 128/0 fix sein, könnte es durchaus lohnenswert sein, beim Nachfolger da eine flexiblere Aufteilung zu ermöglichen.
Ansonsten - Änderungen an Cache & GPC? Aber eigentlich falscher Thread hier.
robbitop
2020-12-14, 23:01:59
Oder man macht es wie bei Pascal. Jede Unit kann alles. In der Hinsicht waren die Nachfolge uArchs ein Rückschritt. Andererseits muss man konstatieren, dass Volta und Turing aber die SMs nur halb so groß gemacht haben aber dafür mehr verbaut hatten - entsprechend mehr Kontrollogik pro SM und damit potenziell höhere Auslastung. Ampere geht ja ein wenig in Richtung Pascal. Allerdings bleibt die TMU Anzahl pro SM halbiert.
Wieso wird die 3070Ti eigentlich überall schon wieder mit 10GB kolportiert? Sind die total bescheuert bei NV eigentlich? Sinniger wäre doch eine GA103-Variante mit 56SMs und 256Bit GDDR6X, damit endlich 16GB möglich sind. Die 3080 Super mit GA103 wird doch sicherlich eh 20GB bekommen.
dildo4u
2020-12-16, 13:29:53
Bessere Verfügbarkeit könnte das Ziel sein bei GDDR6 kämpft man mit AMD um Chips.
Denniss
2020-12-16, 14:26:02
nicht zu vergessen die Konsolen als Staubsauger für GDDR6
Wird doch eh 6X bekommen wie die 3080 :freak:. Da wird nix gestaubsaugt.
dildo4u
2020-12-16, 15:01:44
GDDR6 wird zu langsam sein wenn man die 6800 schlagen will.
Das wird im Prinzip eine Preissenkung der 3080 sein genau wie die 2070S zur 2080.
sunshine
2020-12-16, 17:03:40
Ich hoffe mal die 3080 Ti kommt noch im Februar, so dass ich (wenn der Aufpreis nicht zu heftig ist) EVGA Step-Up nutzen kann. Hab bis zum 2. Maerz Zeit :-D Klingt zumindest bei Igor als koennte ich da Glueck gehabt haben.
Troyan
2020-12-16, 18:14:16
Am 12.01 geht es weiter: https://www.nvidia.com/en-us/geforce/special-event/
basix
2020-12-16, 19:11:50
So wie ich das interpretiere, ist der Event auf RTX fokussiert. Was könnte dort dahinterstecken? Raytracing Co-Prozessor? :ucoffee::ass2:;D
Platos
2020-12-16, 19:16:24
Wie kommst du darauf? Steht doch nur RTX da und übliche Floskeln wie "bester, neuester Shit".
Dampf
2020-12-16, 19:18:53
Am 12.01 geht es weiter: https://www.nvidia.com/en-us/geforce/special-event/
Games und Tech Demos, die Sampler Feedback und Mesh Shading nutzen und Denoising auf den Tensor Cores, let's go!!
reaperrr
2020-12-18, 01:57:56
GDDR6 wird zu langsam sein wenn man die 6800 schlagen will.
Nö, nicht wirklich.
Die 6800 non-XT liegt nicht weit vor der 3070, und die 3070 Ti hätte durch das breitere Interface selbst mit G6 und gleichem Takt 25% mehr Bandbreite, für die 6800 würde das locker reichen.
Die bisher geleakten Infos deuten trotzdem auf G6X hin, aber nötig um die 6800 zu schlagen ist der nicht.
Den brauchen sie eher, um auch so nah wie möglich an die 6800 XT ranzukommen, um dann mit einem Preis von 599$ Druck auf beide AMD-Karten ausüben zu können.
Das wird im Prinzip eine Preissenkung der 3080 sein genau wie die 2070S zur 2080.
Oder 3060 Ti zur 3070 ;)
-/\-CruNcher-/\-
2020-12-18, 03:43:33
Nach unten hin wirds immer mehr VRAM
3060 jetzt mit 12 GB ?
Wo bleibt die 3070 TI ????
R2rhK8pzol0
Man merkt extrem das Nvidia auf vieles nicht vorbereitet gewesen ist umso interessanter wie sie sich schlagen und jetzt wird alles feature wise auch noch nachgereicht bis hin zu wahrscheinlich benötigten uefi bios updates für alle early adopter cards.
Hübie
2020-12-18, 08:34:19
Also meine 3070 ist dead on arrival:
Cyberpunk 2077 in UWQHD (3440x1440) @max Settings+RT+DLSS
https://abload.de/thumb/whatsappimage2020-12y9k8a.jpeg (https://abload.de/image.php?img=whatsappimage2020-12y9k8a.jpeg)
Mehr Speicher ist ein Segen, aber bei den kranken Preisen bekommt man in meinem Budget-Raum von 700-800 Euro bald nur noch die 60er Modelle. :rolleyes: Jensen hat uns ja schon ganz gut erzogen und AMD liefert nix, außer Konsolen.
dildo4u
2020-12-18, 09:37:08
Samsung soll auch den Ampere Refresh fertigen.
https://www.kedglobal.com/newsView/ked202012170015
Das ist falsch. Samsung macht den Nachfolger. Und die Info ist brisant, das bedeutet nämlich, dass die jetzt erst anfangen, das Silizium für den Ampere-Nachfolger zu entwickeln, also jetzt + mindestens 2 1/2 Jahre. Ich denke, es wird hier um 4LPP gehen. Da Samsung keinen kompatiblen, besseren Prozess zu 8LPP bereit hält, gibt es ja keinen echten Silizium-Refresh, da ist also kein neuer Vertrag nötig - und das wäre auch viel zu spät für einen echten Refresh in einem neuen Prozess. Das kann nur die nächste Generation sein.
dildo4u
2020-12-18, 10:09:06
QUALCOMM fertig sein Next-Gen Chip bei Samsung in 5nm keine Option für Nvidia?
https://www.anandtech.com/show/16271/qualcomm-snapdragon-888-deep-dive
Wie gesagt, in 2 1/2 Jahren frühestens. Das aber nicht 5 LPP sein, das wird ein angepasster 4nm-Prozess sein, also die letzte Ausbaustufe vor GAAFET. Das passt zeitlich ziemlich gut, und NV wird sicherlich wieder die kostengünstigste Variante nehmen.
dildo4u
2020-12-18, 10:18:59
4nm soll übersprungen werden.
https://wccftech.com/samsung-skipping-4nm-technology-3nm-jump/
Ok, dann wohl doch 5 LPP. Oder NV geht in die vollen und macht 3nm GAAFET direkt. Das wäre allerdings ein Novum, da NV dann vom start weg state-of-the-Art bei den Prozessen nutzen würde - und ein großes Risiko obendrein. Bin gespannt, wohin sich das entwickelt. Ich würd sagen, nach den Infos, dass der Nachfolger von Gaming-Ampere auf jeden Fall nicht vor 2023 zu erwarten ist (der bricht also mit den bisherigen Zeitrahmen), da sie jetzt erst beginnen, die Dinger zu entwickeln (lt. Pixeljetstream ist ja einer der ersten Parameter, den man festlegt in der Entwicklung, der Prozess) und dass man aufgrund der Tatsache, dass es keinen 4 LPP geben wird, 3nm nutzen wird, da Samsung da weiter ist als TSMC und alle Kräfte darauf konzentriert. In dem Falle muss man zwar länger warten, aber prozesstechnisch hat das Produkt dann echt gewaltiges Potenzial.
pixeljetstream
2020-12-18, 10:57:10
lt. Pixeljetstream ist ja einer der ersten Parameter, den man festlegt in der Entwicklung, der Prozess)
Es ist früh notwendig zu wissen welche Prozesse zur Auswahl kommen. Aber die Entwicklung der Bausteine selbst ist erstmal unabhängig (ist ja wie Code snapshot). Ich glaube nicht dass ich gesagt habe dass das so zuerst festgelegt sein muss. Die Betonung dass es "früh" ist war im Kontext, das es hier ja oft so klang als könnte sich NV mehr oder weniger kurz vorher umentscheiden (Huawei raus also tsmc frei etc.).
Es gibt keine downtime in der Entwicklung während solche Entscheidungen / Verhandlungen etc. getroffen werden.
Timbaloo
2020-12-18, 11:00:18
@HOT: Du hast eine sehr komische Vorstellung von "Entwicklung".
mironicus
2020-12-18, 11:06:08
Ist leicht OT: Ob Nvidia wohl demnächst ARM-basierte APUs baut um den CPU-Markt aufzumischen bzw. eine Alternative für Spiele-Konsolen-CPUs in Konkurrenz mit AMD anbieten wird?
dildo4u
2020-12-18, 11:07:54
Machen sie doch schon für Nintendo, dort kommt vielleicht ein 5nm Nachfolger.
Dural
2020-12-18, 11:26:30
Soso der ach so schlechte Samsung Prozess. Ich sage es ja schon seit Monaten das der gar nicht so schlecht ist, NV wird sich auch in Zukunft dumm und dämlich verdienen an den GPUs, die Entscheidung für Samsung könnte sogar als ziemlich glücklich sein.
https://www.computerbase.de/2020-12/grossauftrag-nvidia-gpu-samsung/
Piefkee
2020-12-18, 11:33:17
Ok, dann wohl doch 5 LPP. Oder NV geht in die vollen und macht 3nm GAAFET direkt. Das wäre allerdings ein Novum, da NV dann vom start weg state-of-the-Art bei den Prozessen nutzen würde - und ein großes Risiko obendrein. Bin gespannt, wohin sich das entwickelt. Ich würd sagen, nach den Infos, dass der Nachfolger von Gaming-Ampere auf jeden Fall nicht vor 2023 zu erwarten ist (der bricht also mit den bisherigen Zeitrahmen), da sie jetzt erst beginnen, die Dinger zu entwickeln (lt. Pixeljetstream ist ja einer der ersten Parameter, den man festlegt in der Entwicklung, der Prozess) und dass man aufgrund der Tatsache, dass es keinen 4 LPP geben wird, 3nm nutzen wird, da Samsung da weiter ist als TSMC und alle Kräfte darauf konzentriert. In dem Falle muss man zwar länger warten, aber prozesstechnisch hat das Produkt dann echt gewaltiges Potenzial.
Oder du hast einfach keine Ahnung was du eigentlich spricht. Manchmal bist du echt nur peinlich...
Es ist früh notwendig zu wissen welche Prozesse zur Auswahl kommen. Aber die Entwicklung der Bausteine selbst ist erstmal unabhängig (ist ja wie Code snapshot). Ich glaube nicht dass ich gesagt habe dass das so zuerst festgelegt sein muss. Die Betonung dass es "früh" ist war im Kontext, das es hier ja oft so klang als könnte sich NV mehr oder weniger kurz vorher umentscheiden (Huawei raus also tsmc frei etc.).
Es gibt keine downtime in der Entwicklung während solche Entscheidungen / Verhandlungen etc. getroffen werden.
Ok, dann verwerfe ich meine ursprüngliche Zeitannahme, dann wirds wohl doch bis Ende 22 passen ;).
Es ergibt natürlich nur Sinn die Entwicklung auf dem Prozess auch zu beginnen, wenn man weiss, dass man den Prozess auch bekommt.
Piefkee
hast du nen Schaden?
mironicus
2020-12-18, 12:15:09
Soso der ach so schlechte Samsung Prozess. Ich sage es ja schon seit Monaten das der gar nicht so schlecht ist, NV wird sich auch in Zukunft dumm und dämlich verdienen an den GPUs, die Entscheidung für Samsung könnte sogar als ziemlich glücklich sein.
https://www.computerbase.de/2020-12/grossauftrag-nvidia-gpu-samsung/
Strategisch sicherlich ein Vorteil wenn sich alle anderen um TSMC-Kapazitäten prügeln müssen. Das kann aber auch ein Nachteil sein, wenn TSMC qualitativ so bleibt und AMD dann den besseren Prozess am Ende hat und nach Intel auch NVidia hinter sich läßt.
dildo4u
2020-12-18, 12:37:43
Samsung scheint deutlich niedrigere Ziele für sein 5nm zu haben das scheint mir sinnvoll wenn man sieht was mit Intel passiert ist.
Lurtz
2020-12-18, 12:53:20
Also meine 3070 ist dead on arrival:
Cyberpunk 2077 in UWQHD (3440x1440) @max Settings+RT+DLSS
https://abload.de/thumb/whatsappimage2020-12y9k8a.jpeg (https://abload.de/image.php?img=whatsappimage2020-12y9k8a.jpeg)
Mehr Speicher ist ein Segen, aber bei den kranken Preisen bekommt man in meinem Budget-Raum von 700-800 Euro bald nur noch die 60er Modelle. :rolleyes: Jensen hat uns ja schon ganz gut erzogen und AMD liefert nix, außer Konsolen.
Was soll der Screeenshot sagen? Der VRAM ist bei jedem aktuellen AAA-Titel so voll.
just4FunTA
2020-12-18, 13:04:09
na das die rtx3070 zu wenig speicher hat dafür das sie gerade erst veröffentlicht wurde. Das ist natürlich sehr schade da sie ansonsten eine gute Grafikkarte ist.
Timbaloo
2020-12-18, 13:41:19
na das die rtx3070 zu wenig speicher hat dafür das sie gerade erst veröffentlicht wurde. Das ist natürlich sehr schade da sie ansonsten eine gute Grafikkarte ist.
Das sieht man aber nicht an dem Screenshot. Auch die Reviews zeigen nicht, dass die 3070 ein Speicherproblem in CP 2077 hat.
Lurtz
2020-12-18, 14:14:57
na das die rtx3070 zu wenig speicher hat dafür das sie gerade erst veröffentlicht wurde. Das ist natürlich sehr schade da sie ansonsten eine gute Grafikkarte ist.
Ja, hat sie. Das sieht man aber nicht an dem Screenshot.
Thunder99
2020-12-18, 17:35:17
Also meine 3070 ist dead on arrival:
Cyberpunk 2077 in UWQHD (3440x1440) @max Settings+RT+DLSS
https://abload.de/thumb/whatsappimage2020-12y9k8a.jpeg (https://abload.de/image.php?img=whatsappimage2020-12y9k8a.jpeg)
Mehr Speicher ist ein Segen, aber bei den kranken Preisen bekommt man in meinem Budget-Raum von 700-800 Euro bald nur noch die 60er Modelle. :rolleyes: Jensen hat uns ja schon ganz gut erzogen und AMD liefert nix, außer Konsolen.
AMD liefert schon und diesmal endlich konkurrenzfähig ausser bei der RT Performance. Derzeit ist einfach katastrophal wenn man neue CPU oder Grafikkarte kaufen möchte :(.
Laut den letzten Gerüchten soll ja die 3080Ti mit GA102 kommen und 3070Ti mit GA103. Macht das überhaupt Sinn GA103 nur auf ein Grafikkartenmodell anzuwenden? Weiter kommt das gar nicht gut an wenn man sich diese Konstellation anschaut:
RTX 3090 24GB
RTX 3080Ti 20GB
RTX 3080 10GB WTF
RTX 3070Ti 10GB
RTX 3070 8GB
RTX 3060Ti 8GB
RTX 3060 12GB? WTF im Verhältnis zu den schnelleren Karten mit weniger Speicher :freak:
RTX 3060 6GB (WTF viel Spaß wenn der Speicher schon bei 1080P ausgeht)
Irgendwie nicht Fisch oder Fleisch. Was sollen da erst die Entwickler damit anfangen? Müssten ja dann (falls noch nicht ist) z.B. das LOD an die Speichergröße koppeln, mehr ist immer besser :freak:
bbott
2020-12-18, 19:31:00
Update:
RTX 3070Ti 10GB
RTX 3070 8GB
RTX 3060Ti 8GB
RTX 3060 12GB? WTF im Verhältnis zu den schnelleren Karten mit weniger Speicher :freak:
RTX 3060 6GB (WTF viel Spaß wenn der Speicher schon bei 1080P ausgeht)
RTX 3050Ti 16GB!
RTX 3050 8GB!
:freak:;D
davidzo
2020-12-18, 20:34:05
AMD liefert schon und diesmal endlich konkurrenzfähig ausser bei der RT Performance. Derzeit ist einfach katastrophal wenn man neue CPU oder Grafikkarte kaufen möchte :(.
Laut den letzten Gerüchten soll ja die 3080Ti mit GA102 kommen und 3070Ti mit GA103. Macht das überhaupt Sinn GA103 nur auf ein Grafikkartenmodell anzuwenden? Weiter kommt das gar nicht gut an wenn man sich diese Konstellation anschaut:
RTX 3090 24GB
RTX 3080Ti 20GB
RTX 3080 10GB WTF
RTX 3070Ti 10GB
RTX 3070 8GB
RTX 3060Ti 8GB
RTX 3060 12GB? WTF im Verhältnis zu den schnelleren Karten mit weniger Speicher :freak:
RTX 3060 6GB (WTF viel Spaß wenn der Speicher schon bei 1080P ausgeht)
Irgendwie nicht Fisch oder Fleisch. Was sollen da erst die Entwickler damit anfangen? Müssten ja dann (falls noch nicht ist) z.B. das LOD an die Speichergröße koppeln, mehr ist immer besser :freak:
Mit GA103 wird NV auch die 3080 refreshen, davon kannst du ausgehen!
Ein bisschen wie G80 8800GTS zu G92 8800GTS 512....
AffenJack
2020-12-19, 08:29:51
Samsung soll auch den Ampere Refresh fertigen.
https://www.kedglobal.com/newsView/ked202012170015
Es dürfte nicht mal um nen Ampere Refresh gehen, sondern schlicht und einfach um zusätzliche Produktionsmengen für Ampere. Das zeigt schon die Vertragsgröße, die im Artikel angesprochen wird. Das Vertragsvolumen ist nicht mal ne Mrd. $, eher deutlich weniger. Das sind vielleicht 100k Wafer Vertragsvolumen. Das reicht lange nicht für Nvs ganze Palette, geschweige denn für eine neue Gen.
-/\-CruNcher-/\-
2020-12-19, 08:42:46
Also meine 3070 ist dead on arrival:
Cyberpunk 2077 in UWQHD (3440x1440) @max Settings+RT+DLSS
https://abload.de/thumb/whatsappimage2020-12y9k8a.jpeg (https://abload.de/image.php?img=whatsappimage2020-12y9k8a.jpeg)
Mehr Speicher ist ein Segen, aber bei den kranken Preisen bekommt man in meinem Budget-Raum von 700-800 Euro bald nur noch die 60er Modelle. :rolleyes: Jensen hat uns ja schon ganz gut erzogen und AMD liefert nix, außer Konsolen.
start mal The Old King
https://abload.de/img/king50jwe.jpg
reaperrr
2020-12-19, 09:18:09
Mit GA103 wird NV auch die 3080 refreshen, davon kannst du ausgehen!
Ein bisschen wie G80 8800GTS zu G92 8800GTS 512....
Schön wär's.
Praktisch halte ich das für ausgeschlossen. Die 3070 Ti ist bereits so nah am Vollausbau von GA103 (7680 FP32 ALUs, 320bit SI, GDDR6X), dass darüber nix auf Basis des gleichen Chips kommen wird.
Der Chip sollte knapp 500mm² sein, da wird die Yield-Rate nicht noch zusätzlich zur 3070Ti einen Vollausbau hergeben, wenn es dafür nichtmal bei GA104 und der 3070 gereicht hat.
Außerdem: Bei der 3080 Ti sind so viele Einheiten aktiv, dass NV aus Yield-Gründen wahrscheinlich gezwungen ist, die 3080 auf dem Markt zu lassen, um auch GA102 mit mehr Defekten noch zu Geld machen zu können.
Edit: Wenn NV die 3080 refresht, dann eher auf GA102-Basis als Super mit ein paar (~256) mehr aktiven ALUs und sowas wie 12GB GDDR6 14-15Gbps @ 384bit (12GB und G6 um die 3080 Ti nicht zu kannibalisieren).
dargo
2020-12-19, 09:29:00
Das sieht man aber nicht an dem Screenshot. Auch die Reviews zeigen nicht, dass die 3070 ein Speicherproblem in CP 2077 hat.
Doch.
https://youtu.be/U0Ay8rMdFAg?t=411
AMD liefert schon und diesmal endlich konkurrenzfähig ausser bei der RT Performance.
Schon interessant wie sich der bullshit in die Köpfe einiger eingebrannt hat.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12516412&postcount=1504
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12524337&postcount=1565
Bei Godfall vorsicht, RT @Geforce ist noch nicht offiziell.
btw.
Spiderman hat sogar einen 60fps Performancemodus inkl. RT auf einem 10 TFLOPs RDNA2 bekommen.
Thunder99
2020-12-19, 10:27:13
Doch.
https://youtu.be/U0Ay8rMdFAg?t=411
Schon interessant wie sich der bullshit in die Köpfe einiger eingebrannt hat.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12516412&postcount=1504
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12524337&postcount=1565
Bei Godfall vorsicht, RT @Geforce ist noch nicht offiziell.
btw.
Spiderman hat sogar einen 60fps Performancemodus inkl. RT auf einem 10 TFLOPs RDNA2 bekommen.
Wenn RT entsprechend eingesetzt wird, ist einfach eine Ampere GPU stärker. Ob du es glauben magst oder nicht. Wir werden es ja bei Cyberpunk 2077 sehen wie dort das Verhältnis ist. Ich lasse mich gerne überraschen, bin aber Realist, dass Ampere einfach mehr Bums hat bei RT (wenn entsprechend Leistung gefordert wird)
dargo
2020-12-19, 10:37:48
Wenn RT entsprechend eingesetzt wird, ist einfach eine Ampere GPU stärker.
Und das erkennst du woran? An den Games die explizit für Geforces optimiert wurden? Etwas schade, dass Spiderman nicht für den PC erschienen ist. Da werden wir uns etwas länger gedulden müssen. Irgendwas wird schon im Laufe des Jahres 2021 mit RT kommen was auf RDNA2 optimiert wurde. Nicht zuletzt dank der neuen Konsolen. Spätestens 2022 müssten mehr Titel kommen.
Wir werden es ja bei Cyberpunk 2077 sehen wie dort das Verhältnis ist.
CDPR traue ich nicht viel zu nach dem katastrophalen Start am 10.12. Aber wer weiß... vielleicht überraschen die mich nach zig Patches.
Thunder99
2020-12-19, 10:53:43
Und das erkennst du woran? An den Games die explizit für Geforces optimiert wurden? Etwas schade, dass Spiderman nicht für den PC erschienen ist. Da werden wir uns etwas länger gedulden müssen. Irgendwas wird schon im Laufe des Jahres 2021 mit RT kommen was auf RDNA2 optimiert wurde. Nicht zuletzt dank der neuen Konsolen. Spätestens 2022 müssten mehr Titel kommen.
CDPR traue ich nicht viel zu nach dem katastrophalen Start am 10.12. Aber wer weiß... vielleicht überraschen die mich nach zig Patches.
Einfach die Rohleistung ist bei RT bei Nvidia grösser. Gewiss wird in Zukunft auf AMD optimiert, aber dies wird nicht überall langen. Bleibt spannend 2021/22 :)
Ist eigentlich GA103 schon "gesichert", dass dieser existiert? :confused: Könnte ja dann ein Chip werden, welcher wieder weniger Leistungsaufnahme hat. Finde die 3080 einfach zu übel mit 320W und den Peaks darüber :freak:
basix
2020-12-19, 10:55:49
Und das erkennst du woran?
An der HW-Architektur ;) Nvidias Raytracing Cores entlasten die Shader deutlich stärker, so einfach ist das. Die Rechenleistung für RT fällt nicht vom Himmel. Und dazu hätte Ampere noch deutlich mehr FLOPS, welche bei RT auch helfen können (wenn man sie ausnutzen kann).
Bei gleichem Optimierungsgrad der Implementation wird Nvidia typischerweise schneller sein. Es kann Fälle geben, wo AMDs Umsetzung besser mit der Softwareumsetzung zusammenpasst (z.B. wegen dem IF$) oder einfach stärker optimiert wurde, klar.
Troyan
2020-12-19, 10:58:31
Hier mal Watch Dogs Legions nach dem Patch: https://youtu.be/5fqo2x4Ib8w?t=120
3080 ist mit Raytracing 35%+ schneller als die 6800XT.
dargo
2020-12-19, 11:18:09
Einfach die Rohleistung ist bei RT bei Nvidia grösser.
Das war auch bei der Tessellation früher der Fall. Und wo genau konnten sich die Geforces außerhalb dem Crysis-Bullshit stark absetzen? Wenn Spieleentwickler mit Kopf bei RT an die Sache rangehen werden nirgendwo Geforces super stark mit RT performen. Außer natürlich in Einzelfällen wo Nvidia bei den Entwicklern rumpfuscht.
Und dazu hätte Ampere noch deutlich mehr FLOPS, welche bei RT auch helfen können (wenn man sie ausnutzen kann).
Die TFLOPs von Ampere sind aktuell nichts weiter als ne Luftnummer in Games. Oder hast du schon Games gesehen wo die RTX 3090 60% schneller als die RX 6900XT ist? Natürlich ohne RT.
Gouvernator
2020-12-19, 11:34:45
Die TFLOPs von Ampere sind aktuell nichts weiter als ne Luftnummer in Games. Oder hast du schon Games gesehen wo die RTX 3090 60% schneller als die RX 6900XT ist? Natürlich ohne RT.
8K?
Die RTX3090 hält dabei sehr gut ihre min. FPS aber 6900XT fällt sehr tief. Und das erklärt warum 8K so gut ist mit RTX3090. Weil die Karte ungebrochen ihre 30 FPS halten kann. Dort verstecken sich ihre TFLOPs.
dargo
2020-12-19, 11:37:11
Achja... die Millionen 8k Spieler vergessen. :facepalm:
-/\-CruNcher-/\-
2020-12-19, 11:39:35
8K?
Die RTX3090 hält dabei sehr gut ihre min. FPS aber 6900XT fällt sehr tief. Und das erklärt warum 8K so gut ist mit RTX3090. Weil die Karte ungebrochen ihre 30 FPS halten kann. Dort verstecken sich ihre TFLOPs.
Nein das hat mit Bandbreitenprobleme innerhalb der Prediction AMDs zu tun es hat eine Zeit gedauert bis sie auf Intels Niveau bei den CPU waren mit ihrer Branch Prediction, es wird auch etwas dauern bis sie es für den Infinity Cache optimal raus haben aber es helfen heute ML dabei, es dauert nicht mehr Jahre.
Gouvernator
2020-12-19, 11:40:52
Ich sag es wie es ist. Alle Games die in 8K nicht direkt unter 30 FPS laufen, können durchgehend ohne Dips in die 20er mit 30+ FPS gespielt werden.
dargo
2020-12-19, 11:41:52
Du nennst es spielen, ich nenne sowas Ruckeln.
Achja... die Millionen 8k Spieler vergessen. :facepalm:
Je komplexer die Shader-Programme werden, desto öfter und besser schlagen die (derzeit meist brachliegenden) FP32-ALUs durch. Problematisch: Das braucht Strom und erzeugt somit Hitze. Die Power limitiert schon jetzt rigoros -> wird spannend, wie die Machtverhältnisse in ein paar Jahren aussehen. Dennoch sollte klar sein, dass Ampere gut für die Zukunft aufgestellt ist. Das klappt natürlich nur mit einer angemessenen Speichermenge. Erinnert sich noch jemand an Hawaii bzw. noch besser Grenada? Das war auch so ein zukunftsgerichtetes, heißes Ding. Performt selbst 2020 erstaunlich. :)
MfG
Raff
Gouvernator
2020-12-19, 11:47:59
Du nennst es spielen, ich nenne sowas Ruckeln.
Sieht du, noch einer der 30 FPS als "Ruckeln" nennt. Ihr könnt oder wollt nicht verstehen, das die RTX3090 wenn sie im 30er Bereich operiert - so gut wie nie unter diese 30 Grenze fällt. Wie Radeons die typischerweise öfters auf 22 FPS oder so fallen - was das echtes Ruckeln erklärt. Mit VRR sind das traumhafte Konsolen Werte. Die Leute würden jetzt wahrscheinlich dafür töten, wenn ihre PS5 das unter 8K könnte...
PS.
Es gibt gewiss Games wie RIDE 4 die in dem Bereich "zucken", aber haben auch ein 30 FPS Limit und laufen dann super-smooth. Und dank VRR statt VSync hat man keine bösen 15 FPS Überraschungen zwischendurch.
Troyan
2020-12-19, 12:08:43
Die TFLOPs von Ampere sind aktuell nichts weiter als ne Luftnummer in Games. Oder hast du schon Games gesehen wo die RTX 3090 60% schneller als die RX 6900XT ist? Natürlich ohne RT.
Und die Fake-Bandbreite von AMD erstmal. Oder hast du ein Spiel gesehen, wo die 6800XT doppelt so schnell ist? ;D
Ich hoffe ja, das dein Tagessatz nun verdient wurde und du uns normalen Menschen wieder in Frieden lässt.
Dampf
2020-12-19, 12:32:20
Ruckeln tun 30 FPS nur, wenn sie nicht ordentlich gelocked sind. Vsync im Game aus und im Nvidia Inspektor auf halbe Refreshrate (wenn ihr 60Hz Monitor habt) dann ist das definitiv flüssig. Mittlerweile bieten Spiele auch schon gescheite Locks an, Cyberpunk z.B. Da kann man Vsync auf 29 Hz stellen und FPS auf 30 cappen, hat man auch guten Lock.
Und ja ich hab schon viele Spiele in 144Hz gesehen. Ja es ist ein großer Unterschied, aber nach einiger Zeit gewöhnt man sich auch wieder an 30 und 60 FPS und man empfindet es als flüssig. Nur alles unter 30 FPS ist scheußlich.
Oha, ganz dünnes Eis. :biggrin: Eine Diskussion darüber, was man als flüssig empfindet und was nicht ... sagen wir einfach, dass das schon Abertausende Male durch gekaut wurde und da kein Konsens gefunden wird. Das ist auch okay, denn jeder hat seine Präferenzen. Aber es ist furchtbar anstrengend, wenn Low-Fps-Pixelbitches mit der Tausend-Hertz-Fraktion zusammenkrachen und jeder meint, die Wahrheit zu erzählen.
MfG
Raff
SKYNET
2020-12-19, 13:59:36
Oha, ganz dünnes Eis. :biggrin: Eine Diskussion darüber, was man als flüssig empfindet und was nicht ... sagen wir einfach, dass das schon Abertausende Male durch gekaut wurde und da kein Konsens gefunden wird. Das ist auch okay, denn jeder hat seine Präferenzen. Aber es ist furchtbar anstrengend, wenn Low-Fps-Pixelbitches mit der Tausend-Hertz-Fraktion zusammenkrachen und jeder meint, die Wahrheit zu erzählen.
MfG
Raff
kommt auch immer aufs game an... gibt spiele da langen mir sogar 40fps, und andere fühlen sich selbst mit 60 noch zäh an....
MiamiNice
2020-12-19, 15:02:24
kommt auch immer aufs game an... gibt spiele da langen mir sogar 40fps, und andere fühlen sich selbst mit 60 noch zäh an....
Mit oder ohne G-Sync XD
Du siehst, nicht so einfach das Thema.
Oha, ganz dünnes Eis. :biggrin: Eine Diskussion darüber, was man als flüssig empfindet und was nicht ...
MfG
Raff
https://www.forum-3dcenter.org/vbulletin/showthread.php?t=587968
Wirklich ein schwieriges Tema und sehr individuell.
M.f.G. JVC
Platos
2020-12-19, 15:24:40
Bitte jetzt keine "Der Mensch kann nur xy FPS wahrnehmen"- Disskusionen :D
dargo
2020-12-19, 15:45:55
Und die Fake-Bandbreite von AMD erstmal. Oder hast du ein Spiel gesehen, wo die 6800XT doppelt so schnell ist? ;D
Du hast schon besser getrollt. Die Speicherbandbreite ist mit 512GB/s sogar 45% geringer als bei GA102 TopDog. :lol:
MiamiNice
2020-12-19, 16:03:13
Warum nehmt ihr zwei euch eigentlich kein Zimmer? ;)
mironicus
2020-12-19, 16:17:35
Warum gibt es eigentlich keine Motion Compensation-Funktion bei GPUs? Man rendert ein Bild nativ mit 24 fps und auf den Monitor wird dank Motion Compensation das Bild auf 60/120/xxx fps hochgerendert. Fernseher können das schon, allerdings nur mit einer unschönen Latenz-Verzögerung. Wenn man das ohne große Verzögerung hinbekommen könnte, dann wäre das für viele sicherlich akzeptabel. Viele finden so einen Selbstbetrug wie DLSS ja auch gut. :)
-/\-CruNcher-/\-
2020-12-19, 16:25:22
PSSST
Wird kommen, das problem du hast ja nicht nur die GPU ;)
Psst... ist schon da ^^
Gute Fernseher haben quasi "DLSS" gratis dabei ;)
M.f.G. JVC
Pssst ... ist nicht das Gleiche. ;)
MfG
Raff
P.S: Warum tuscheln wir hier alle, ist das geheim? :biggrin:
MiamiNice
2020-12-19, 18:56:34
P.S: Warum tuscheln wir hier alle, ist das geheim? :biggrin:
Naja, wenn man der Meinung ist Zwischenbild Berechnung wäre cool für PC Systeme ist das flüstern schon angebracht 😂
Thunder99
2020-12-19, 19:13:44
Pssst, wir sind stark off-topic :D
Wie viel verbraucht ein GA102 wenn er nicht gezügelt wird unter Volllast? 600W? ;D
Brachiale Leistung die ihren Tribut zollt. Finde das etwas am Ziel vorbeigeschossen wenn man es nicht einfach runter regulieren kann.
-/\-CruNcher-/\-
2020-12-19, 19:47:01
Du kannst verschiedene parts aus Nvidias Stack kombinieren um Strom zu sparen darunter auch DLSS (Eco Mode)
MiamiNice
2020-12-19, 21:12:33
Pssst, wir sind stark off-topic :D
Wie viel verbraucht ein GA102 wenn er nicht gezügelt wird unter Volllast? 600W? ;D
Brachiale Leistung die ihren Tribut zollt. Finde das etwas am Ziel vorbeigeschossen wenn man es nicht einfach runter regulieren kann.
Schön wäre es ;)
Ich kann dem Gerät gar nicht so viel Strom geben wie gut wäre. 600 Watt an den GA-102,wäre toll. 700 wären noch besser. Aber was erzähle ich , der standard Noob ist schon mit 250 Watt überfordert.
Troyan
2020-12-20, 10:26:05
Du hast schon besser getrollt. Die Speicherbandbreite ist mit 512GB/s sogar 45% geringer als bei GA102 TopDog. :lol:
Komisch, dein Arbeitgeber sagt was anderes: https://www.amd.com/de/technologies/rdna-2
Was nun? Lügt der? :freak:
mironicus
2020-12-20, 10:31:41
AMD hat auch behauptet das SAM nur mit 500er Chipsatz und Zen 3 funktioniert und Zen 2 die Hardwareunterstützung seitens der CPU fehlt. Und jetzt kriegen es alle.
w0mbat
2020-12-20, 11:33:45
Ne, das hat AMD nie behauptet. Sie haben gesagt, das es zu Beginn nur in dieser Kombi validiert ist.
Thunder99
2020-12-20, 15:00:33
Schön wäre es ;)
Ich kann dem Gerät gar nicht so viel Strom geben wie gut wäre. 600 Watt an den GA-102,wäre toll. 700 wären noch besser. Aber was erzähle ich , der standard Noob ist schon mit 250 Watt überfordert.
Dein "Standard Noob" will vernünftig bleiben und hat noch in Physik aufgepasst ;)
Interessant wäre das schon, aus technischer Sicht, aber viel zu komplex und zu teuer umzusetzen auf einer Grafikkarte, geschweige den zu kühlen. :D
maximus_hertus
2020-12-20, 15:36:46
AMD hat auch behauptet das SAM nur mit 500er Chipsatz und Zen 3 funktioniert und Zen 2 die Hardwareunterstützung seitens der CPU fehlt. Und jetzt kriegen es alle.
Hast du irgendein offizielles Zitat oder Link? Oder trollst du?
TheAntitheist
2020-12-20, 21:06:39
Ne, das hat AMD nie behauptet. Sie haben gesagt, das es zu Beginn nur in dieser Kombi validiert ist.
äh sogar auf twitter haben sie gesagt das zen2 die hardware dafür fehlt oder? zumindest hat AMD es jemandem gesagt und der hat es gepostet.
€dit: https://www.amd.com/de/technologies/smart-access-memory steht ja auch auf der AMD Seite... AMD wollte einfach die Leute zwingen die neuen CPUs zu kaufen, dann kam raus das kann ja jeder (auch intel und nvidia) und naja dann mussten sie einknicken.
basix
2020-12-20, 23:12:37
äh sogar auf twitter haben sie gesagt das zen2 die hardware dafür fehlt oder? zumindest hat AMD es jemandem gesagt und der hat es gepostet.
€dit: https://www.amd.com/de/technologies/smart-access-memory steht ja auch auf der AMD Seite... AMD wollte einfach die Leute zwingen die neuen CPUs zu kaufen, dann kam raus das kann ja jeder (auch intel und nvidia) und naja dann mussten sie einknicken.
Du erzählst Mist. AMD hat nie gesagt, dass es Zen 2 nicht kann. Die Aussage, dass es Zen 2 nicht kann, war auf einem Irrtum über den PDEP Befehl begründet. Und dieser Irrtum kam nicht von AMD (CapFrameX glaube ich auf Twitter), wurde aber weitherum verbreitet. Aber hier ist der Ampere Thread, Diskussion also bitte im SAM Thread weiterführen.
just4FunTA
2020-12-22, 19:24:22
bei Mindfactory gibt es übrigens die RTX3070 zu kaufen: 700€ aufwärts.
https://www.mindfactory.de/search_result.php?search_query=rtx+3070
tobor
2020-12-22, 19:31:39
bei Mindfactory gibt es übrigens die RTX3070 zu kaufen: 700€ aufwärts.
https://www.mindfactory.de/search_result.php?search_query=rtx+3070
200 Euro über der Uvp...
just4FunTA
2020-12-22, 19:34:41
haha ja hardcore. :/
Tarkin
2020-12-22, 20:18:12
haha ja hardcore. :/
falscher thread- sorry, bitte löschen
dildo4u
2020-12-25, 09:22:00
Asus Listet 3060 und 3080 Ti.
https://live.staticflickr.com/65535/50756935653_4e06b838c5_b.jpg (https://flic.kr/p/2kkdyCe)asusf (https://flic.kr/p/2kkdyCe) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr
https://rog.asus.com/support/
TheAntitheist
2020-12-25, 20:46:40
Du erzählst Mist. AMD hat nie gesagt, dass es Zen 2 nicht kann. Die Aussage, dass es Zen 2 nicht kann, war auf einem Irrtum über den PDEP Befehl begründet. Und dieser Irrtum kam nicht von AMD (CapFrameX glaube ich auf Twitter), wurde aber weitherum verbreitet. Aber hier ist der Ampere Thread, Diskussion also bitte im SAM Thread weiterführen.
wenn man sagt es funktioniert nur mit ryzen 5xxx dann sagt man auch das es mit den anderen nicht funktioniert. auf deren website steht nichts von "zurzeit" oder "kann sich noch ändern"... also hör auf:rolleyes:
Timbaloo
2020-12-25, 22:40:21
OT:
wenn man sagt es funktioniert nur mit ryzen 5xxx dann sagt man auch das es mit den anderen nicht funktioniert. auf deren website steht nichts von "zurzeit" oder "kann sich noch ändern"... also hör auf:rolleyes:
Es dauert noch ein wenig bis die Mehrheit merkt, dass AMD auch nur eine Firma ist die mit allen Mitteln versucht ihre Verkaufszahlen und Rendite zu maximieren und nicht dem individuellen Kunden sein persönliches Rundumsorglospaket nach Gusto für einen Appel und ein Ei bereitzustellen. Ist auch ein schwieriger Zusammenhang, hier verstehen die meisten ja noch nichtmal Angebot-Nachfrage-Preis :freak:
Matrix316
2020-12-25, 23:20:34
Die 3080 TI mit 20 GB ist natürlich ein großer FU an alle, die unter Einsatz des Lebens mit letzter Kraft eine 3080 gekauft haben - aber andererseits: eine 3090 ist nicht gerade so viel schneller. Wo soll ich denn eine 3080TI überhaupt performancemäßig einrichten? Vom Preis her, ist da natürlich eine größere Lücke (UVP wahrscheinlich 999 aber real dann eher 1300~1500 € ;)), aber performancemäßig...
ChaosTM
2020-12-25, 23:30:51
Sollte praktisch ident mit der 10GB Version sein, vorausgesetzt der gleiche VRAM wird verbaut und der Speicher der 10er geht nicht aus. ^^
Sardaukar.nsn
2020-12-26, 04:31:25
Sollte praktisch ident mit der 10GB Version sein, vorausgesetzt der gleiche VRAM wird verbaut und der Speicher der 10er geht nicht aus. ^^
Da meistens das Powerlimit eine Rolle spielt und die zusätzlichen 10 GB ja auch extra Strom benötigen. Teilweise vielleicht sogar weniger Performance als eine 3080. Zwischen einer gut gehenden 3080 und einer 3090 ist eh wenig Luft.
Denniss
2020-12-26, 08:52:18
Wenn die zusätzlichen 10 GiB mit neuen 2GiB Speicherbausteinen realisiert werden kann dann werden die kaum mehr an Strom benötigen. Wenn das weiteren 10 Einzelchips sind auf der 3090-Platine dann gehen bestimmt 20W drauf nur für diese Änderungen. Die 20W fehlen dann natürlich bei der GPU also fallen die Taktraten.
MartinRiggs
2020-12-26, 11:07:58
Die 3080 TI mit 20 GB ist natürlich ein großer FU an alle, die unter Einsatz des Lebens mit letzter Kraft eine 3080 gekauft haben - aber andererseits: eine 3090 ist nicht gerade so viel schneller. Wo soll ich denn eine 3080TI überhaupt performancemäßig einrichten? Vom Preis her, ist da natürlich eine größere Lücke (UVP wahrscheinlich 999 aber real dann eher 1300~1500 € ;)), aber performancemäßig...
Irgendwann ist der Markt auch mal gesättigt und ich denke dann kann man auch eine 3080Ti für UVP oder darunter kaufen, das ist zumindest mein Plan.
Wenn es halt bis Mai oder so dauert dann ist das halt so.
Wenn MF 3080 online hat, sieht man das die schon ganz ordentliche Stückzahlen verkauft haben, ist nicht so das es nix gibt es wird bloß zu allen beknackten Preise grade gekauft.
Ich würde mir lieber mit einem Hammer auf den Fuß hauen als 1100€ für ne 3080 mit 10GB ausgeben
Matrix316
2020-12-26, 11:44:47
Irgendwann ist der Markt auch mal gesättigt und ich denke dann kann man auch eine 3080Ti für UVP oder darunter kaufen, das ist zumindest mein Plan.
Wenn es halt bis Mai oder so dauert dann ist das halt so.
Wenn MF 3080 online hat, sieht man das die schon ganz ordentliche Stückzahlen verkauft haben, ist nicht so das es nix gibt es wird bloß zu allen beknackten Preise grade gekauft.
Ich würde mir lieber mit einem Hammer auf den Fuß hauen als 1100€ für ne 3080 mit 10GB ausgeben
Also von Preis/Leistung her sind die 1000~1100 aber schon irgendwie gerechtfertigt - jedenfalls im Vergleich zu 1800 Euro 3090 und 750 Euro 3070er. ;)
Sardaukar.nsn
2020-12-26, 11:55:24
Die 3080 sowie die 6800XT scheinen aktuell die interessantesten Karten zu sein.
Ich denke es gibt viele Leute die dieses Jahr nicht groß weggefahren und ausgegangen sind, in vielen Haushalten ist noch Budget vorhanden. Jetzt noch vor dem zweiten lockdown eine neue Grafikkarte zu haben war wohl nicht wenigen ein paar extra Euro wert.
Gouvernator
2020-12-26, 15:29:51
Irgendwann ist der Markt auch mal gesättigt und ich denke dann kann man auch eine 3080Ti für UVP oder darunter kaufen, das ist zumindest mein Plan.
Wir hatten gerade Situation das sogar die alten 20xx Karten alle weg waren. Und das nach wieviel Jahren nach dem Launch? Der Markt wie wir es kennen ist weg. Man muss sich jetzt eher an sozialistische Mangelwirtschaft orientieren.
Fragman
2020-12-26, 17:27:27
Der Markt wie wir es kennen ist weg.
Man hat es verschlafen, in Kapazitäten zu investieren. Vielleicht auch deshalb, weil aufgrund der Kosten niemand weiteres solch ein Risiko tragen wollte.
Die Kapazitäten reichen bei weitem nicht und bei den Kunden sitzt das Geld recht locker, was dann zu fehlenden Angeboten für alle Interessenten führt.
Deshalb ist nicht der Markt weg, er ist leer gekauft. Das sollte man eher kapitalistische Mangelwirtschaft nennen, oder auch "first world problems". :D
Die Investoren von Firmen wie nv werden das alles verfolgen und ihre "was wäre wenn" Modelrechnungen aufstellen und irgendwann mal nachfragen,
wieso pro Quartal nur 25% der Nachfrage befriedigt werden kann und wer dafür verantwortlich ist.
Da wirds spannender, wie das in 2 Jahren wird, sowas werden die Investoren nicht nochmal zulassen ohne das Köpfe rollen.
reaperrr
2020-12-26, 18:01:36
Die Investoren von Firmen wie nv werden das alles verfolgen und ihre "was wäre wenn" Modelrechnungen aufstellen und irgendwann mal nachfragen,
wieso pro Quartal nur 25% der Nachfrage befriedigt werden kann und wer dafür verantwortlich ist.
Da wirds spannender, wie das in 2 Jahren wird, sowas werden die Investoren nicht nochmal zulassen ohne das Köpfe rollen.
Und auf welcher Basis genau soll dieses "Köpfe rollen" stattfinden?
Hätte NV sich für TSMC statt Samsung entschieden, sähe es noch schlimmer aus, aber wen wollen sie denn dafür verantwortlich machen? TSMC dafür, dass sie zu gute Arbeit machen und deshalb für niemanden (außer die ganz reichen Kunden wie Apple) genug Kapazität da ist? Oder TSMC dafür, dass man eine neue Fabrik nicht innerhalb eines Monats hochziehen und hochfahren kann? Oder Samsung dafür, dass sie Probleme haben mit TSMC Schritt zu halten? AMD und NV dafür, zu attraktive Produkte zu entwickeln die zu einem massiven Nachfrage-Anstieg geführt haben?
Das Problem ist, dass - allem Gejammer zum Trotz - die Zahl der Menschen mit dem nötigen Kleingeld immer noch schneller wächst als die Produktionskapazitäten von TSMC & Co., während die Prozess-R&D immer schwerer, teurer und langwieriger wird (so sehr, dass Intel gerade auf dem besten Weg ist zu implodieren).
Maximal kann man NV vielleicht vorwerfen, unterschätzt zu haben wie sehr der Nachfrage-Überhang dank CP2077 bis zu den Turings runterschwappen würde, aber das war's meines Erachtens auch schon, der Rest fällt unter "ist halt so, mehr ist aufgrund von Covid-bedingten Einschränkungen der Produktionskapazitäten nicht drin gewesen".
Zumal Teil des Problems wohl auch GDDR6-Mangel sein soll, weil N21 und v.a. die neuen Konsolen da den Bedarf nochmal massiv hochgetrieben haben.
Fragman
2020-12-26, 18:12:22
Egal in welche Richtung man die Probleme verschiebt, die Investoren werden Lösungen erwarten, damit das nicht wieder passiert.
Mal schauen wie das nächste Quartal läuft, das ja zusätzlich noch neue Produkte erwarten läßt.
Nv hab ich nur als Beispiel genannt, das trifft auch auf AMD zu
und intel hatte schon Probleme (mal schauen ob deren 10nm Produkte in ausreichender Menge geliefert werden können).
TheAntitheist
2020-12-26, 21:37:46
Egal in welche Richtung man die Probleme verschiebt, die Investoren werden Lösungen erwarten, damit das nicht wieder passiert.
Mal schauen wie das nächste Quartal läuft, das ja zusätzlich noch neue Produkte erwarten läßt.
Nv hab ich nur als Beispiel genannt, das trifft auch auf AMD zu
und intel hatte schon Probleme (mal schauen ob deren 10nm Produkte in ausreichender Menge geliefert werden können).
du kannst einfach nicht mehr ordern... egal was sie wollen. und TSMC kann nicht einfach 2 fabs aufbauen in 3 Monaten :rolleyes:
=Floi=
2020-12-27, 00:16:38
Man könnte einfach mehr vorproduzieren. Die ganzen scalper muss man nur einmal richtig abspeisen, dann werden die nächsten releases auch normaler verlaufen.
Hier muss ich ganz klar sagen, dass es irgendwie modern geworden ist, die produkte zu begrenzen oder in geringen mengen zu verkaufen.
NV hätte auch einfach vorbestellungen annehmen können.
Fragman
2020-12-27, 00:59:37
Ja, man hätte vorproduzieren können und auch entsprechende Vorbestellungen, zb 1 Karte pro Kunde, wären vernünftig gewesen. Mal schauen wie die TI und 3060 Releases laufen.
Zossel
2020-12-27, 11:38:55
die Investoren werden Lösungen erwarten, damit das nicht wieder passiert.
Erwarten kann man jede Menge .......
r3ptil3
2020-12-27, 12:38:39
Die 3080 sowie die 6800XT scheinen aktuell die interessantesten Karten zu sein.
Genau so ist es und daran wird auch eine 3080 Ti nichts ändern.
Ich sehe in den nächsten Monaten die guten Customs der 3080 bei 650-750€ und die XTs minimal darunter.
Armaq
2020-12-27, 13:24:19
Ne 3080 mit 20 GB ist sofort die spannendste Karte. Bestes Featureset und keine Schwächen bis auf den Stromverbrauch.
basix
2020-12-27, 13:35:47
Ne 3080 mit 20 GB ist sofort die spannendste Karte. Bestes Featureset und keine Schwächen bis auf den Stromverbrauch.
Evtl. kommt nich ein Respin der GPU, dann sieht es evtl. besser aus ;) Wenn man die GPU auf 250-270W drosselt und OC anwendet, sollte die Performance so oder so nicht viel geringer sein.
Aber ja, die 3080 Ti ist deutlich spannender als das bisher erschienene Lineup. Vermutlich wird es aber auch eine 14/16GB Version der 3060 Ti und 3070(Ti) geben und die 3080 10GB läuft langsam aus.
horn 12
2020-12-27, 15:46:55
und SAM kommt dann zugleich mit dem Release der Neuen Karten mit Massig Speicher
um AMD auszustechen... aber ob dies langt bei den Neuen Spielen die dann kommen...
Denniss
2020-12-27, 15:54:17
Ne 3080 mit 20 GB ist sofort die spannendste Karte. Bestes Featureset und keine Schwächen bis auf den Stromverbrauch.Preis hast vergessen denn nvidia wird ordentlich was draufschlagen für den doppelten Speicher.
Sardaukar.nsn
2020-12-27, 16:33:11
Preis hast vergessen denn nvidia wird ordentlich was draufschlagen für den doppelten Speicher.
Ich gehe mal von +200-300€ für die Ti aus. Performance wird gleich oder eher weniger wegen gestiegenem Stromverbrauch. Die extra 10GB wird man in kaum einem Spiel oder Benchmark messen können.
Bleibt allein das Versprechen der Zukunftssicherheit :rolleyes:
vinacis_vivids
2020-12-27, 16:49:27
In der Vergangenheit gab es häufig Fälle wo Nvidia bei größeren Speichermengen eine verringerte Geschwindigkeit anbot.
Thunder99
2020-12-27, 17:32:11
Ich gehe mal von +200-300€ für die Ti aus. Performance wird gleich oder eher weniger wegen gestiegenem Stromverbrauch. Die extra 10GB wird man in kaum einem Spiel oder Benchmark messen können.
Bleibt allein das Versprechen der Zukunftssicherheit :rolleyes:
Und ich sage, den Speicher wirst du mehr und öfters merken als gedacht, bei >FHD Auflösungen und RT.
Die Karte wird wohl sehr lange halten, da sie voraussichtlich genug Power hat und mehr als genug Speicher. Einzig der Preis wird gesalzen sein und der Stromverbrauch weiterhin.
Armaq
2020-12-27, 18:08:37
Natürlich merkt man den Speicher. CP2077 ist beschnitten allein aus diesem Grund. Die 3070 mit 8 GB jammert deutlich bei allem über WQHD, obwohl sie genug Bums hat. Die 11 GB meiner 2080Ti sind jetzt einfach knapp bei 5120x1440. In FHD brauchen wir darüber nicht diskutieren, aber für FHD ist sogar die 3070 schon eine kleine Verschwendung, die neue 3060 scheint für FHD mehr als ausreichend auch für aktuelle Games.
rentex
2020-12-27, 18:09:30
Der Spruch mit "genug Power" ist so alt, wie die ersten 3D Beschleuniger...
Zossel
2020-12-29, 12:27:01
Rettung naht: https://www.derstandard.at/story/2000122823610/500-000-rtx-3000-grafikchips-in-vergessenem-container-gefunden
MasterElwood
2020-12-29, 13:36:25
Rettung naht: https://www.derstandard.at/story/2000122823610/500-000-rtx-3000-grafikchips-in-vergessenem-container-gefunden
Und schon 404
ChaosTM
2020-12-29, 13:37:29
Dürfte ein Fake/Hoax gewesen sein. Da hat wer schlampig recherchiert.
rentex
2020-12-29, 18:06:30
Und was stand da?
hq-hq
2020-12-29, 18:43:55
da stand es seien durch einen logistischen Fehler 500.000 RTX 3000 Grafikkarten in einem einzigen Container verschlampt worden und seit Monaten würde man danach suchen, der Hafenmitarbeiter habe selbst versucht eine 3080 zu kaufen und die geheimnissvollen Pappkartons mit NV-Aufdruck da musste er gleich einen öffnen und oh Wunder er war voller 3080 Karten...
ist aber normal, in China verschwinden öfters Container mit Ware im Wert von mehr als 300.000.000€ und tauchen dann auf geheimnisvolle Weise wieder auf ;D
https://www.technologyreview.com/2019/11/15/131940/ghost-ships-crop-circles-and-soft-gold-a-gps-mystery-in-shanghai/
ZeXes
2020-12-29, 18:45:58
Hier die Auflösung:
https://www.pcgamer.com/no-half-a-million-geforce-rtx-30-series-gpus-were-not-lost-in-shipment-and-now-found/
Ein Spanier hat sich ein Spaß erlaubt.
ChaosTM
2020-12-29, 18:51:21
Dachte ich mir fast. Deshalb der Rückzieher vom Standard.
Denniss
2020-12-29, 19:05:05
bißchen logisches Denken hätte schon gereicht, soviel Grafikkarten passen in keinen einzigen Container. 500K chips hat auch keiner irgendwo einfach rumliegen, schon gar nicht werden die in so extrem großen Massen verschickt.
SKYNET
2020-12-29, 23:00:14
Ich gehe mal von +200-300€ für die Ti aus. Performance wird gleich oder eher weniger wegen gestiegenem Stromverbrauch. Die extra 10GB wird man in kaum einem Spiel oder Benchmark messen können.
Bleibt allein das Versprechen der Zukunftssicherheit :rolleyes:
ich bin da nun echt hin und hergerissen... 6900XT oder 3080Ti falls sie denn wirklich kommt... weil grad in neueren titeln scheinen die RDNA2 karten besser zu performen(und ne, RT interessiert mich nen fliegenschiss)...
just4FunTA
2020-12-30, 00:57:41
ich bin da nun echt hin und hergerissen... 6900XT oder 3080Ti falls sie denn wirklich kommt... weil grad in neueren titeln scheinen die RDNA2 karten besser zu performen(und ne, RT interessiert mich nen fliegenschiss)...
echt jetzt? also da wäre die Entscheidung aber wirklich leicht, die 3080ti wird ja auch ausreichend Vram haben also ganz klar die 3080ti.
Schwierige Entscheidung ist eher sowas wie 3080 mit 10gb oder 6800XT mit 16gb. :/
just4FunTA
2020-12-30, 00:59:04
Ich gehe mal von +200-300€ für die Ti aus. Performance wird gleich oder eher weniger wegen gestiegenem Stromverbrauch. Die extra 10GB wird man in kaum einem Spiel oder Benchmark messen können.
Bleibt allein das Versprechen der Zukunftssicherheit :rolleyes:
wtf? eine 3080ti mit weniger performance als eine 3080? was nimmst du? :freak:
hq-hq
2020-12-30, 01:19:14
ich bin da nun echt hin und hergerissen... 6900XT oder 3080Ti falls sie denn wirklich kommt... weil grad in neueren titeln scheinen die RDNA2 karten besser zu performen(und ne, RT interessiert mich nen fliegenschiss)...
RT war mir eigentlich auch egal, ja in Metro Exodus wars aktiviert... aber wenn noch mehr Spiele wie Cyberpunk kommen dann ist das schon echt ne tolle Sache -> okay, kann ja die 6900XT dann auch.
-/\-CruNcher-/\-
2020-12-30, 06:20:56
wtf? eine 3080ti mit weniger performance als eine 3080? was nimmst du? :freak:
Performance Per Watt auf den insgesammten Kartenverbrauch gerechnet wird sie nicht so effizient.
TheAntitheist
2020-12-30, 06:23:23
RT war mir eigentlich auch egal, ja in Metro Exodus wars aktiviert... aber wenn noch mehr Spiele wie Cyberpunk kommen dann ist das schon echt ne tolle Sache -> okay, kann ja die 6900XT dann auch.
naja kann sie aber nur mit 2/3 der Leistung, DLSS in hardware kostet auch deutlich weniger also wird der Vorsprung nur noch größer in Zkunft (in RT Titeln)
just4FunTA
2020-12-30, 06:34:09
Performance Per Watt auf den insgesammten Kartenverbrauch gerechnet wird sie nicht so effizient.
Es ging darum welche Karte schneller sein wird und das ist ganz klar die Ti Version alles andere wäre absurd.
dildo4u
2020-12-30, 06:37:49
Performance per Watt wird auch besser sein das die Karte vermutlich mehr Cuda Cores aber weniger Takt als die 3080 hat.
Der zusätzliche Ram scheint nicht so ausschlaggebend zu sein siehe die bessere Perf per Watt der 3090.
Sardaukar.nsn
2020-12-30, 08:10:25
wtf? eine 3080ti mit weniger performance als eine 3080? was nimmst du? :freak:
Ernsthaft. Wenn die 3080 mit 20gb Vram einfach nur die doppelte Menge Speicher bekommt, wohlmöglich auf der Rückseite wie die 3090, dann wird die maximale Performance bei sonst gleichen Bedingungen sinken.
Der Grund dafür ist das Powerlimit, unter dem bisher alle Ampere Karten leiden. Der doppelte Speicher wird natürlich auch zusätzlichen Strom benötigen, da eine 3080 aber eh schon das gegebene Powerlimit voll ausnutzt, kann es nur zu Lasten des Boost bzw. der Performance gehen.
Es sei denn, mit der 3080ti kommen ganz andere Fertigungsverfahren zum Einsatz. Also neue Speicherchips die doppelt so groß und effizient sind, oder mehr Rechenkerne als die 3080. Halte ich persönlich aber für nicht so realistisch. Zumal die Luft zwischen einer gut gehenden 308 (https://i.ibb.co/Zhnh3dG/Max-power-160-1400.jpg)0 und einer 3090 eh ziemlich dünn ist.
Mir fällt auch gerade kein Benchmark ein mit dem man messen könnte, ob in eine 20gb Grafikkarte mehr Leistung liefert als eine sonst gleiche 10gb Karte.
3Dmark, TimeSyp, PortRoyal, Superposition, gängige Spiele usw. wird denen egal sein.
just4FunTA
2020-12-30, 08:23:14
Um eine 3080 mit 20gb ging es aber nicht sondern um eine 3080Ti und die wird logischerweise so wie immer bisher noch eine Schippe drauflegen auf die nonTi..
Thunder99
2020-12-30, 11:17:19
naja kann sie aber nur mit 2/3 der Leistung, DLSS in hardware kostet auch deutlich weniger also wird der Vorsprung nur noch größer in Zkunft (in RT Titeln)
Das weiß man nicht, da es auf die Implementierung an kommt. Theoretisch stärker aber praktisch wird man es sehen müssen.
Eine 3080Ti soll doch bitte bessere Chips haben, die den gleichen Takt bei weniger Spannung schaffen, Default. Dann hätten wir ein echt rundes Produkt was nur von der 3090 geschlagen wird (Nvidia intern). AMD ist je nach Spiel gefährlich nahe oder schneller oder mal abgeschlagen weiter hinten. Je nach Spiel eben.
Matrix316
2020-12-30, 12:53:21
Um eine 3080 mit 20gb ging es aber nicht sondern um eine 3080Ti und die wird logischerweise so wie immer bisher noch eine Schippe drauflegen auf die nonTi..
Ja aber wie machst du das ohne gleich die 3090 mitzuschreddern? :freak:
-/\-CruNcher-/\-
2020-12-30, 12:58:35
Ernsthaft. Wenn die 3080 mit 20gb Vram einfach nur die doppelte Menge Speicher bekommt, wohlmöglich auf der Rückseite wie die 3090, dann wird die maximale Performance bei sonst gleichen Bedingungen sinken.
Der Grund dafür ist das Powerlimit, unter dem bisher alle Ampere Karten leiden. Der doppelte Speicher wird natürlich auch zusätzlichen Strom benötigen, da eine 3080 aber eh schon das gegebene Powerlimit voll ausnutzt, kann es nur zu Lasten des Boost bzw. der Performance gehen.
Es sei denn, mit der 3080ti kommen ganz andere Fertigungsverfahren zum Einsatz. Also neue Speicherchips die doppelt so groß und effizient sind, oder mehr Rechenkerne als die 3080. Halte ich persönlich aber für nicht so realistisch. Zumal die Luft zwischen einer gut gehenden 308 (https://i.ibb.co/Zhnh3dG/Max-power-160-1400.jpg)0 und einer 3090 eh ziemlich dünn ist.
Mir fällt auch gerade kein Benchmark ein mit dem man messen könnte, ob in eine 20gb Grafikkarte mehr Leistung liefert als eine sonst gleiche 10gb Karte.
3Dmark, TimeSyp, PortRoyal, Superposition, gängige Spiele usw. wird denen egal sein.
Nvidia ist schon am Effizienzlimit sie haben scheinbar so ziemlich alles aus Samsung 8NM gepresst was geht.
Ja aber wie machst du das ohne gleich die 3090 mitzuschreddern? :freak:
Das ist es eben es wurde schon so viel umstrukturiert nach AMDs launch so eine Karte würde nicht wirklich akzeptiert werden wichtig ist jetzt eine Karte die die 6800 Wegfegt im Stack und Huangs Versprechen des 2080 TI Nachfolgers (Replacements) vollkommen einlöst das widerum wird allerdings etwas schwer werden zu rechtfertigen, jedenfalls nicht bevor nicht etwas grass über seine Aussagen gewachsen sind ;)
AffenJack
2020-12-30, 13:03:41
Ja aber wie machst du das ohne gleich die 3090 mitzuschreddern? :freak:
Die 3090 wird nur für die bleiben, die wirklich die letzten Prozent Leistung wollen. Es ist doch jetzt schon klar, dass die 3080Ti die 3090 schreddert, da sie die gleiche Shaderanzahl wie die 3090 kriegt. Das verkleinerte Speicherinterface wird da fast nix ausmachen.
ChaosTM
2020-12-30, 13:08:22
Um eine 3080 mit 20gb ging es aber nicht sondern um eine 3080Ti und die wird logischerweise so wie immer bisher noch eine Schippe drauflegen auf die nonTi..
Ich glaube ehrlich gesagt nicht, dass sich NV die 3090er so schnell selbst kannibalisiert.
Die Ti kommt frühesten im Sommer. Vorerst sind mal die "normalen" dran mit mehr Speicher.
-/\-CruNcher-/\-
2020-12-30, 13:17:03
Was meinst du was dann los wäre siehe dir die 2080 TI Reaktionen an da kann sich Huang aber unterm Tisch verstecken, auch wenn die 2080 TI Befürchtungen eben Nonsens sind je nach Workflow und Jensen da doch hoch gepokert hat gegen die 6800.
Langzeit könnte es dennoch brenzelig werden wie niemals zuvor, wenn AMD ihr Infinity Cache Management immer weiter optimiert könnte sein Kartenhaus diesmal sehr schnell zusammenbrechen.
BlacKi
2020-12-30, 15:21:40
Ich glaube ehrlich gesagt nicht, dass sich NV die 3090er so schnell selbst kannibalisiert.
Die Ti kommt frühesten im Sommer. Vorerst sind mal die "normalen" dran mit mehr Speicher.
die stock 3080ti fe bleibt doch hinter der 3090 zurück. hauptsächlich wegen des powerlimits, das wohl bei 320 bleibt und wegen der geringeren bandbreite durch kleineres SI und mhz. es gibt dann zwar spiele die sehr nahe ran kommen, weil sie kaum Powerlimitiert sind und weil manche spiele weniger bandbreite benötigen, aber im schnitt bleibt die 3090 schneller.
ich würde genau auf die mitte zwischen 3080 und 90 tippen. in manchen games ist die karte kaum schneller als die 3080 und in anderen ist sie fast so schnell wie die 3090.
im prinzip wie damals die 1070ti.
ausserdem ist es für nv besser das die 3080ti die 3090 kanibalsiert, als das es die 6900xt es tut.
TheAntitheist
2020-12-30, 16:26:04
Das weiß man nicht, da es auf die Implementierung an kommt. Theoretisch stärker aber praktisch wird man es sehen müssen.
Eine 3080Ti soll doch bitte bessere Chips haben, die den gleichen Takt bei weniger Spannung schaffen, Default. Dann hätten wir ein echt rundes Produkt was nur von der 3090 geschlagen wird (Nvidia intern). AMD ist je nach Spiel gefährlich nahe oder schneller oder mal abgeschlagen weiter hinten. Je nach Spiel eben.
wieso weiß man das nicht? AMD muss DLSS auf den shadern laufen lassen, das wird performance kosten, das weiß man.
Thunder99
2020-12-30, 17:53:21
Woher? Oder verlink etwas was die Aussage beweisst ;)
Es wird es wohl kaum was kosten sondern eher nicht so viel rausholen wie DLSS. Wenn die Qualität dafür bessert ist umso besser ;). DLSS ist ja so ein zweischneidiges Schwert. Echtes SGSAA ist immer besser, was DLSS macht nur manchmal gleichziehend.
Sardaukar.nsn
2020-12-30, 20:47:33
Bei meinen Tests der 3080 Suprim hatte ich auch einen Vergleich Stock (320W) und Max OC gegenübergestellt. Etwa +12%.
https://www.3dmark.com/compare/spy/16872952/spy/16732953#
Durchschnittliche Taktfrequenz: 1.839 MHz vs. 2.074 MHz Auch fast genau 12%, skaliert also 1:1
Thunder99
2020-12-30, 21:39:37
Laut den Tests der Plattformen bringt das aber kaum was bzw kommt es nicht bei Spielen an.
Sardaukar.nsn
2020-12-30, 22:24:37
Laut den Tests der Plattformen bringt das aber kaum was bzw kommt es nicht bei Spielen an.
Timespy ist halt DirectX 12 Rohleistung in 1440p. Das kommt auch schon in Spielen an. Hier mal die Sortierung @ Stock:
https://heise.cloudimg.io/width/928/q75.png-lossy-75.webp-lossy-75.foil1/_www-techstage-de_/imgs/85/3/0/1/4/3/1/0/OTCeg-benchmark-3dmark-timespy-8ba578da803544e8.png
Quelle: https://www.techstage.de/test/Zotac-Gaming-Geforce-RTX-3070-Twin-Edge-im-Test-4980659.html?hg=2&hgi=1&hgf=false
-/\-CruNcher-/\-
2020-12-30, 23:11:37
3070 TI/Super wird sie kommen wird sie nicht kommen ????
Hat Jensen eine Wahl ohne schnelle DLSS 2.0 adaption und mit AMD-SR im Anmarsch ?
AMD hat auch schon viel von Gameworks kompensiert
5mXQ1NxEQ1E
https://abload.de/img/nvidiapressurerpjfw.jpg
SKYNET
2020-12-30, 23:49:49
Die 3090 wird nur für die bleiben, die wirklich die letzten Prozent Leistung wollen. Es ist doch jetzt schon klar, dass die 3080Ti die 3090 schreddert, da sie die gleiche Shaderanzahl wie die 3090 kriegt. Das verkleinerte Speicherinterface wird da fast nix ausmachen.
ehm, doch, RT will bandbreite, spätestens da, wird sich die 3090 wie gehabt von der 3080 absetzen.
OgrEGT
2020-12-31, 08:48:20
Die 3080ti ist keine 3080 mit mehr Speicher sondern eine 3090 mit weniger Speicher und kleinerem SI. Daher wird die 3080ti überall dort wo die Bandbreite nicht limitiert gleich auf oder etwas schneller als die 3090 sein da mehr PT durch das kleinere SI und weniger Speicher zur Verfügung steht. Wenn Bandbreite eine Rolle spielt dann etwas langsamer als die 3090...
Große Leistungsunterschiede sind aber nicht zu erwarten... Problem wird der Preisunterschied zur 3090 da der Leistungsunterschied zu klein ist...
horn 12
2020-12-31, 09:03:09
Nun, falls es so kommt, wohl auch selber Lüfter wie 3090
und schneller als 6900XT
dann würde ich mit 1149 bis gar 1199 Dollar rechnen!
3080 16 GB bei Asus gelistet ? ?
https://videocardz.com/newz/asus-rog-zephyrus-g15-listed-with-amd-ryzen-7-5800hs-and-geforce-rtx-3080-16gb
Thunder99
2020-12-31, 12:31:55
Bei so einem Preis ist die Karte uninteressant wenn man auf das Preis-leistungs schaut.
Ich erwarte schon die Karte, welche immer langsamer bleibt als eine 3090. Ansonsten kanabalisiert sich nVidia selbst. Damals gab es noch einen Unterschied zwischen Titan und GTX.
vinacis_vivids
2020-12-31, 12:52:47
So sieht die Performance dann aus :biggrin:
https://abload.de/img/3080tiperformancefijdh.png
OgrEGT
2020-12-31, 12:57:55
Nun, falls es so kommt, wohl auch selber Lüfter wie 3090
und schneller als 6900XT
dann würde ich mit 1149 bis gar 1199 Dollar rechnen!
3080 16 GB bei Asus gelistet ? ?
https://videocardz.com/newz/asus-rog-zephyrus-g15-listed-with-amd-ryzen-7-5800hs-and-geforce-rtx-3080-16gb
Das ist keine Desktop 3080 GA102 sondern ein GA104 mit 16Gb VRAM...
Matrix316
2020-12-31, 13:20:56
So sieht die Performance dann aus :biggrin:
https://abload.de/img/3080tiperformancefijdh.png
Also meinst du, die landet dann da, wo die Custom 3080 eh schon sind? ;)
https://www.techpowerup.com/review/msi-geforce-rtx-3080-suprim-x/28.html
https://abload.de/img/5151nnt1ejsp.jpg (https://abload.de/image.php?img=5151nnt1ejsp.jpg)
Ok, wenn der Chip mehr wie eine 3090 ist, dann dürfte die Karte mehr bei der 3090 sein, denn VRAM spielt da zur Zeit nicht so die wirkliche Rolle. Wenn man sich die Benchmarks ansieht und weiß nicht wie viel VRAM die Karten haben, würde keiner auf die Idee kommen, dass eine 3090 24, eine 69/800XT 16 und einen 3080 nur 10 hat.
vinacis_vivids
2020-12-31, 13:42:05
@Matrix316
Die 3080Ti 20GB qualifiziert sich zumindest für 5K "ohne Texturnachladeruckler".
https://abload.de/img/3080vramperformanceifkw4.png
r3ptil3
2020-12-31, 14:25:16
Nach einigen Wochen Dauereinsatz einer potenten RTX 3080 mit 430W Powerlimit, muss ich gestehen, dass man sich eine Grafikkarte bei über 400W dauerhaften Verbrauch kaum antun will.
250-300W erachte ich als akzeptabel, entspricht etwa einem Takt von 1850-1900Mhz.
Wenn ich jetzt zur 3080 TI blicke, welche im besten Fall nicht nur mehr Leistung, sondern vielleicht auch ein höheres OC-Potenzial hat, was sehr gut klingt, jedoch bei welchem Verbrauch?
Ich finde alle noch schnelleren Karten als die 3080 daher deutlich uninteressanter, wenn nichts an der Effizienz passiert, wovon man ausgehen muss.
Ein Mehrgewinn wäre m.M.n. erst eine 3070/3080 Super bei deutlich gesenktem Verbrauch.
Ausgehend von diesen Erfahrungen empfinde ich eine Custom RX 6800, evtl. noch in Kombination UV und bestenfalls höheren Takt als immer attraktiver werdend, trotz der ganzen RT-Thematik.
Sardaukar.nsn
2020-12-31, 14:45:27
@bardh: Kann ich nachvollziehen, mit Ampere hat man einfach mal 100W auf das was im High-End gängig war oben drauf gepackt. Deswegen gab es ja auch u.a. eine Knappheit an Netzteilen 750W und aufwärts.
Ich habe jetzt eine Kurve mit 0.950v und knapp über 2Ghz die auch im Boost stabil bleiben. Hält die Hitze so halbwegs im Zaum, trotzdem freue ich mich auf den Wasserblock der Mitte Januar eintreffen soll.
Mal was anderes, was ist denn mit diesem Quake 2 RTX los? Das Spiel zieht ja Power wie kein zweites. Heftig!
-/\-CruNcher-/\-
2020-12-31, 14:59:00
Der Workload ist so gut wie Maximum mit Vulkan Path Tracing Shader,Tensor,RT alles am Anschlag
Es wird in Zukunft noch ein paar mehr solcher Applikationen geben, da werden einige wieder neu stabil tunen können ;)
Thunder99
2020-12-31, 17:36:51
@Matrix316
Die 3080Ti 20GB qualifiziert sich zumindest für 5K "ohne Texturnachladeruckler".
https://abload.de/img/3080vramperformanceifkw4.png
Danke, das habe ich letztens gesucht gehabt um zu zeigen, dass die 3080 mit den 10GB schon jetzt unterdimensioniert sein kann.
Blöd ist nur, wenn man ein G-Sync only Monitor hat ist man ohne größere Investionen an Nvidia gebunden.
Der Verbrauch stört mich am meisten bei der aktuellen Generation. Out of Stock ist das einfach nicht akzeptabel.
Ich betreibe erfolgreich eine Custom 1080Ti mit einem 500W Netzteil. Das sollte auch in Zukunft möglich sein...
Fragman
2020-12-31, 18:03:02
Ich betreibe erfolgreich eine Custom 1080Ti mit einem 500W Netzteil. Das sollte auch in Zukunft möglich sein...
Man muss ja nicht immer gleich das Flagschiffprodukt kaufen.
Ausserdem kann man Limits einziehen. Die Performance wäre dann immer noch deutlich besser als mit deiner aktuellen Karte. ;)
dildo4u
2020-12-31, 21:16:26
Mobile 3070 im Geekbench.
https://videocardz.com/newz/geekbench-leak-confirms-nvidia-geforce-rtx-3070-mobile-features-5120-cuda-cores
SKYNET
2020-12-31, 21:23:38
Ich betreibe erfolgreich eine Custom 1080Ti mit einem 500W Netzteil.
was für ne custom hast denn?
meine 1080Ti genehmigt sich über 420W mit max PT(275W + 50%)
Lehdro
2020-12-31, 21:48:20
Bei so einem Preis ist die Karte uninteressant wenn man auf das Preis-leistungs schaut.
Ich erwarte schon die Karte, welche immer langsamer bleibt als eine 3090. Ansonsten kanabalisiert sich nVidia selbst. Damals gab es noch einen Unterschied zwischen Titan und GTX.
Achja? So wie die 780 Ti gegen die OG Titan? Oder doch wie die 980Ti vs Titan X? Oder vielleicht 1080Ti vs Titan X (Pascal)? Der Rechenleistungsunterschied war immer klein, aber ein deutlicher Speicherausbauunterschied war vorhanden. Nun wird auch dieser runtergefahren, einfach um beide Seiten zu bedienen: Die die immer das beste kaufen, egal zu welchem Preis (3090) oder die die gerne viel ausgeben, aber trotzdem möglichst effizient dabei vorgehen wollen (3080Ti). NV fährt hier nur die alten Schemas aufgefrischt auf.
Matrix316
2020-12-31, 21:58:19
Achja? So wie die 780 Ti gegen die OG Titan? Oder doch wie die 980Ti vs Titan X? Oder vielleicht 1080Ti vs Titan X (Pascal)? Der Rechenleistungsunterschied war immer klein, aber ein deutlicher Speicherausbauunterschied war vorhanden. Nun wird auch dieser runtergefahren, einfach um beide Seiten zu bedienen: Die die immer das beste kaufen, egal zu welchem Preis (3090) oder die die gerne viel ausgeben, aber trotzdem möglichst effizient dabei vorgehen wollen (3080Ti). NV fährt hier nur die alten Schemas aufgefrischt auf.
Ja, aber es ist was anderes ob eine 1080TI eine Titan X, als wenn eine 3080TI eine 3090 schlägt. Psychologisch gesehen.
Eigentlich hätte es Nvidia andersrum machen müssen: 3080 10G für 750 + 3080TI 20G für ~999 € UVP zu Release und dann eine Titan Ampere 24 GB für 2000 € UVP (quasi die 3090).
Lehdro
2021-01-01, 11:42:32
Ja, aber es ist was anderes ob eine 1080TI eine Titan X, als wenn eine 3080TI eine 3090 schlägt. Psychologisch gesehen.
Nicht wirklich. Die teurere und damit exklusivere Karte wird geschlagen - oder es besteht ein beinahe Gleichstand. Das finde ich sogar bei Titan vs xyz Karte noch schlimmer, da Titan für etwas steht, die 3090 hingegen eine "Normalo" Karte ist, zumindest von der Namens-Einordnung im Portfolio her.
Eigentlich hätte es Nvidia andersrum machen müssen: 3080 10G für 750 + 3080TI 20G für ~999 € UVP zu Release und dann eine Titan Ampere 24 GB für 2000 € UVP (quasi die 3090).
Die größten Karten kommen aber immer zuerst und eine Titan Ampere mit 48 GiB steht auch nichts im Wege - man schaue mal auf die ex-Quadros. Du downgradest den Speicher von GDDR6X auf GDDR6 und schon kannst du wieder mit höheren Speicherausbau kommen. Dazu den Chip voll freischalten und noch mal einstellige Prozente schneller werden. Da werden dann aber sicher >2k € fällig.
Thunder99
2021-01-01, 19:17:52
was für ne custom hast denn?
meine 1080Ti genehmigt sich über 420W mit max PT(275W + 50%)
Jetzt wieder am PC :)
Ich betreibe eine Gigabyte Aorus GTX 1080Ti mit Standard Settings. OC geht zwar, aber in Rise of the Tomb Rider stürzt das Spiel irgendwann ab. Mit und ohne erhöhtem PT. Entweder OC nicht stabil genug oder Netzteil am Limit :freak:. Hab es ehrlich gesagt noch nicht ausgemessen, obwohl ich was hätte für die Steckdose um den Gesamtverbrauch des Systems nach dem Netzteil zu messen :redface:
Ich liebeugle ja mit der 3080(Ti) da eine potentielle 3070Ti zu "langsam" wäre bei dem Preis (will mindestens +60 bis +100%+ zur 1080Ti). Potentiell ist eine 6800XT auch mega interessant, aber durch meinen Monitor wohl ein massiver Umbau nötig mit entsprechenden Mehrkosten (HDR 1440p 27" 144Hz Freesync Premium/G-Sync compatible)
horn 12
2021-01-02, 13:50:03
https://videocardz.com/newz/nvidia-rumored-to-introduce-geforce-rtx-3080-super-and-rtx-3070-super-series
Nun, 12 GB Version für 6800
und Rest bis max. 3080TI mit 20 GB
Ob dies Performance Mäßig und Preislich was bringen wird,
der GA103 wird wohl bedeutend billiger zu fertigen sein und für NV nochmals wirtschaftlicher sein...
basix
2021-01-02, 14:09:04
Eine 3080 Super mit 12GB wäre OK (immer noch etwas knapp beim Speicher). Gegen oben hin mit der 3080 Ti ergänzt.
Aber der GA103 macht passt nur ins Lineup, wenn die normale 3080 ausläuft. Und was generell das ganze Lineup betrifft sind die Speichermengen. Eine 3070 Super mit 8GB ist dämlich. Mit 16 GByte hätte man aber mehr als die 3080 Super...
Dann noch die 3060 mit 12 GByte? Gleich viel wie die 3080 Super? 6 GByte auf der anderen Seite waren bereits 2020 eng...
Das ganze Lineup ist einfach völlig abstrus. Das beste für Nvidia wäre, wenn sie einen Reset/Refresh machen würden (z.B. mit Super) und alle Speichermengen entsprechend anpassen. Das würde dann auf 12, 16, 20 und 24 GByte hinauslaufen bei GA102-GA106. Von mir aus kann man auch noch 10, 14, 18 GByte Varianten GA106, GA104 und GA103 rausbringen, wenn man den Yield hochhalten und etwas Kosten sparen will. Bei GA102 geht auch 20-22 GByte und 24 GByte bleibt der 3090 vorbehalten. Dadurch wäre das Lineup am saubersten und wir als Kunden bekämen genug Speicher (sogar etwas mehr als nötig). Die Preise würden wohl etwas nach oben wandern, denn dass Nvidia Marge liegen lässt glaube ich nicht.
Das ganze Lineup ist einfach völlig abstrus. Das beste für Nvidia wäre, wenn sie einen Reset/Refresh machen würden (z.B. mit Super) und alle Speichermengen entsprechend anpassen. Das würde dann auf 12, 16, 20 und 24 GByte hinauslaufen bei GA102-GA106. Von mir aus kann man auch noch 10, 14, 18 GByte Varianten GA106, GA104 und GA103 rausbringen, wenn man den Yield hochhalten und etwas Kosten sparen will.
This. 3070 und 3080 in den Early-EOL-Status setzen und "SUPER" weitermachen. :up:
MfG
Raff
ShinyMcShine
2021-01-02, 14:47:00
This. 3070 und 3080 in den Early-EOL-Status setzen und "SUPER" weitermachen. :up:
MfG
Raff
Und als 3070 Super bitte einen vollen GA104 mit 16GB. Dann kann ich meine 1080 endlich in das Zweitsystem verbannen. Weil die Reverb G2 braucht einfach mehr Power...
Das wird erst passieren, wenn Micron 16Gb liefern kann. Ich hätt ja ne 3070Ti mit 256Bit und 16GB gut gefunden. Aber auf solche Ideen kommen die einfach nicht bei NV.
dildo4u
2021-01-02, 14:55:49
Die Karten sind doch teuer genug AMD muss erstmal Zeigen ob die auf Dauer 16GB Karten für MSRP anbieten können, dann kann NV Nachlegen.
Das wird erst passieren, wenn Micron 16Gb liefern kann. Ich hätt ja ne 3070Ti mit 256Bit und 16GB gut gefunden. Aber auf solche Ideen kommen die einfach nicht bei NV.
Die Idee gab es Nvidia-intern gewiss. Aber dann kam die Kosten-Nutzen-Analyse und der Blick auf die tatsächlich überdurchschnittlich effiziente Speicherverwaltung ... und aus der Traum. Warum mehr machen als unbedingt erforderlich, um in der Gegenwart gut auszusehen? Der Druck durch AMD (den kann man nicht leugnen) und zumindest die paar kritischen Pressestimmen richten das jetzt.
MfG
Raff
dildo4u
2021-01-02, 15:02:44
Der Druck von AMD kommt nicht AMD hat selber zugegeben das sie lange damit gerungen haben der 6800 16GB zu geben, weil sie wussten das es schwer wird den MSRP zu erreichen.
https://youtu.be/uaxnvRUeqkg?t=1180
Linmoum
2021-01-02, 15:18:48
Der Druck ist schon längst da, der muss nicht erst kommen. Nvidia bringt mehr Speicher nicht, weil sie die Wohlfahrt sind (Stichwort Margen), sondern weil sie dazu gezwungen werden. Aus Gründen.
Im September in einem AMA hatte Nvidia ja noch erklärt, warum die 3080 nur 10GiB hat und wieso das ja völlig ausreichend ist. Naja, Eigentor halt, aber das war natürlich klar.
Die Mobile 3080 soll ja mit bis zu 16GiB kommen. Ist dafür auch völlig irrelevant, ob das wegen GA104 und nur GDDR6 besser passt als 20GiB mit GA102 und GDDR6X. Am Ende des Tages hätte der Namensvetter im Desktop deutlich weniger Speicher. Damit führt man dann auch seine eigene Argumentation ad absurdum, dass 10GiB genug sind. Sie müssen mit mehr Speicher reagieren und das werden sie, hätte nur schon von Anfang an geschehen müssen. Als 3070/3080-Käufer würde ich mir jedenfalls mal wieder von diesem Unternehmen verarscht vorkommen.
Platos
2021-01-02, 15:20:22
Wo soll der Druck Speicherseitig nicht da sein? Er ist schon da und in Zukunft wird AMD wohl kaum weniger Speicher anbieten, wie jetzt.
Edit: da war jemand schneller
Als 3070/3080-Käufer würde ich mir jedenfalls mal wieder von diesem Unternehmen verarscht vorkommen.
Wieso verarscht? Stand ja alles so auf dem Papier beim Kaufzeitpunkt. Wer Aussagen wie gut ein Produkt ausreicht/ist, vom Hersteller glaubt, dem kann man doch sowieso nicht mehr helfen. Oder glaubst du auch die Fleckenwerbung von Putzmittelhersteller ;)
Kein Hersteller würde sagen, sein eigenes Produkt ist nicht ausreichend (solange das Produkt noch in relevanten Stückzahlen verkauft werden soll).
-/\-CruNcher-/\-
2021-01-02, 15:26:28
Das ist alles einfach nicht so einfach die Entscheidung wie Raff schon sagte für 8 GB sind nicht einfach aus der Luft gegriffen sondern wohl berrechnet auch in die Zukunft hinein unter dem Standpunkt von DLSS vor allem.
Und eine gewisse vorausichtliche Haltbarkeit gegen die Konsolen und RDNA2.
Wie gesagt technisch wird sie besser altern im Nvidia Ökosystem als wie die 970 so wie auch die 1070 zuvor nur das sie das Ziel von 2x 1080 verfolgt, dabei ist es Nvidia egal ob sie es mit DLSS oder ohne erreicht.
Es war nur wichtig gegen das 2080 TI Ziel von AMD stabil zu stehen mit der Kosteneinsparung zu Samsung.
Eine 3070 TI prio sehe ich nicht mehr Zwingend vor allem nicht wenn sie DLSS in so ziemlich alle kommenden titel quetschen ist die einfach nicht wirklich erforderlich gegen die 6800.
Auch in anbetracht aller gegen Optimierungsoffensiven.
Aber wir müssen das alles nochmal zu einem späteren Zeitpunkt betrachten wie bei der 5700 XT es war AMDs steckenpferd hin zur finalen 6800 basis.
AMD hat jedenfalls so gut wie alle ihre gesteckten Ziele im 3D Part erreicht und vernichtet die 2080 TI vollkommen in ihren eigenen Workloads.
Nvidia dagegen tut dies bewusst nicht mit aller macht sondern an einem extremen Kostenoptimierten limit bei dem sie sich sehr sicher sind das es keine rolle spielen wird auch gegen alles was AMD und Partner auffahren werden innerhalb eines gewissen Zeitraumes.
Nvidia ist momentan eher bessorgt was AMD mit Xilinx und RDNA3 vorhaben könnte und lassen da schon ihre glasskugel drum kreisen was dort auf sie zukommen könnte.
dildo4u
2021-01-02, 15:32:08
Für Notebooks sind die 16GB noch absurder wenn 90% der Gameing Modelle 1080p Displays nutzen, das ganze ist dort reine Dau Fängere.
Ich vermute mal 3070 Books fangen bei 1500€ an, die Marge erlaubt dort vermutlich solche Spielerein.
Eine 3070 TI prio sehe ich nicht mehr Zwingend vor allem nicht wenn sie DLSS in so ziemlich alle kommenden titel quetschen ist die einfach nicht wirklich erforderlich gegen die 6800.
Auch in anbetracht aller gegen Optimierungsoffensiven.
Das funktioniert so nicht. Die RTX 3070 wird sich zu Lebzeiten meist in Apples-to-Apples-Vergleichen beweisen müssen - also ohne DLSS. Letzteres ist ein cooles Goodie, bringt in fairen kompetitiven Benchmark-Charts aber nichts.
MfG
Raff
dildo4u
2021-01-02, 15:47:03
DLSS scheint schon Heute zwang zu sein sobald man RT anschaltet, wenn AMD sein Upscaling bringt wird man es sicherlich damit testen wenn es nicht Meilen schlechter als NVs Lösung ist.
Ich gehe davon aus das eine 3070 fast immer von 1080p hochrechnet für vernünftige Performance.
Daredevil
2021-01-02, 15:50:21
Für Notebooks sind die 16GB noch absurder wenn 90% der Gameing Modelle 1080p Displays nutzen, das ganze ist dort reine Dau Fängere.
Ich vermute mal 3070 Books fangen bei 1500€ an, die Marge erlaubt dort vermutlich solche Spielerein.
Sind dann wohl eher die Creator Notebooks, die mehr Speicher benötigen.
Ansonsten sehe ich eh aktuell alles über ~12GB als Bauernfängerei, insofern man einen Spieler vor dem Schreibtisch hat, der in Max. WQHD spielt.
Aber fürs Gefühl und die Angst, weniger haben zu können, wird halt gerne mehr ausgegeben und wenn man dann besser schlafen kann, ja mei.
Ich finde ne 6800 mit 16GB ist genauso wie ne 3080 mit 10GB, not in the perfect Spot.
-/\-CruNcher-/\-
2021-01-02, 16:05:25
Das funktioniert so nicht. Die RTX 3070 wird sich zu Lebzeiten meist in Apples-to-Apples-Vergleichen beweisen müssen - also ohne DLSS. Letzteres ist ein cooles Goodie, bringt in fairen kompetitiven Benchmark-Charts aber nichts.
MfG
Raff
Find das einfach witzig ihr redet immer von Nativ dabei gibt es faktisch Nativ nicht mehr wirklich es ist alles nur noch Sparse und wer die beste solution hat gewinnt so einfach ist das.
Aber ja wie schon gesagt Nvidia schiest ihr eigenes Reviewer Pimel Benchmark training jetzt teils in den Fuss hinein, bis zu extremen reaktionen wie wir sie von Hardware Unboxed sahen wo sie versuchen das wieder herum zu drehen und etwas unter Kontrolle zu bekommen was sie da Jahrelang in die Köpfe selber eingepflanzt haben ;)
basix
2021-01-02, 16:07:24
Das funktioniert so nicht. Die RTX 3070 wird sich zu Lebzeiten meist in Apples-to-Apples-Vergleichen beweisen müssen - also ohne DLSS. Letzteres ist ein cooles Goodie, bringt in fairen kompetitiven Benchmark-Charts aber nichts.
MfG
Raff
Wenn ein Spiel wie Control oder Cyberpunk bei aktiviertem RT ohne DLSS gar nicht richtig spielbar ist, ist es für mich mehr als nur ein Goodie. Wenn ich meine GPU noch 1 Jahr länger verwenden kann, weil die Performance und Speicher noch nicht ausgehen, ebenfalls. Wenn DLSS oder AMDs Super Resolution schlussendlich so gut sind, dass man es eh einschaltet, was hätte das Nichtbenutzen des Features für einen Bezug zu "Gamer-Alltag"? Was ist dann fair? Wenn AMD mit Super Resolution kommt, wird das Argument des fairen Vergleichs vielleicht wieder ziehen. SupRes läuft auch auf Nvidia, also könnte man es verwenden (vorausgesetzt die Qualität stimmt). Wenn ein Spiel nur DLSS unterstützt wird das schwieriger.
Da DLSS / Super Resolution die Bildqualität beeinflussen, wird ein direkter Vergleich im selben Spiel schwer. Da muss man sich nichts vormachen und in diesem Punkt teile ich deine Meinung. Wenn ein Spiel beides unterstützt: Man müsste eine Art "vergleichbare" Bildqualität einstellen und dann damit tesen. Das das für jedes Spiel ein Heidenaufwand wäre und vermutlich nicht praktikabel ist, ist wohl allen klar. Schlussendlich muss man wohl nativ, SuperResolution und DLSS einzeln testen und die Bildqualität grob beurteilen. Als HW-Tester wie dir wird es wohl nicht langweilig werden bei zukünftigen Tests. Immerhin sind die GPU-Release Cycles länger als früher :D
SKYNET
2021-01-02, 16:28:10
Für Notebooks sind die 16GB noch absurder wenn 90% der Gameing Modelle 1080p Displays nutzen, das ganze ist dort reine Dau Fängere.
Ich vermute mal 3070 Books fangen bei 1500€ an, die Marge erlaubt dort vermutlich solche Spielerein.
also zum gamen und schaffen, nutze ich nen externen moni am lappi... :freak:
edit:
was ist wenn die 3080Ti anders kommt? und zwar gleiche shader anzahl wie die 3090 und auch gleiches speicherinterface, aber mit 1.5GB ICs und normaler GDDR6 ohne X --> 18GB speicherausbau :uponder:
preislich dürfte das auch besser kommen als sündteurer GDDR6X
Platos
2021-01-02, 16:36:11
DLSS wird dann Standart in Tests, wenn AMD was vergleichbares hat. Vorher ist es unfair:tongue::wink::freak:
Ne, aber mal im Ernst. DLSS ist ja auch noch nicht so weit, dass man es als Standart betrachten sollte. Da braucht es noch ein "DLSS 3.0", das etwa gleiche Sprünge macht, wie DLSS von 1.0 auf 2.0.
In Standbildern sieht DLSS oft auch auf Perfomance etc. gut aus. Seht euch Gamernexu' DLSS Video von Cyberpunk an. Dort sieht man das gut. In den Standbildern sieht Perfomance oftmals noch ok aus, aber sobald er dann mal eine Gameplayaufnahme zeigt, sieht man, dass eig. alles unter Quality mies flimmert oder sonstiges macht.
Bei Death Stranding (siehe Video von Digital Foundry) gabs auch bei gewissen Bewegungen von Objekten üble Artefakte.
Also bis man das als Standart nutzen kann, vergeht noch ne Weile.
Und hier mal als Anmerkung an Tester: DLSS Qualitätsvergleiche mit Standbildern bringt (offensichtlich) rein gar nichts. Das geht eig. nur mit Gameplayaufnahmen mit den verschiedenen Modis Seite an Seite gleichzeitig angezeigt. (von mir aus zusätzlich Bilder).
-/\-CruNcher-/\-
2021-01-02, 16:36:52
@Raff
Sowas kann sich heute keiner als Entwickler einfach mehr leisten ich verstehe deinen Standpunkt die IHV sind die bösen die Entwlickler die Leidtragenden ihrer Einspaarungspolitik das ist allerdings auch extremes ich dreh es mir wie es mir gefällt bias.
qyGl5C3Uwak
Es ist mir auch klar das dein Bias extrem Richtung den Pool ineffizient nutzen geht sprich Entwickler entlasten die sind schon genug überlastet.
Ich seh das anders wenn sie nicht mithalten könnnen ist das nicht das Problem von anderen ;)
Es trennt eben weiterhin die Spreu vom Weizen.
Matrix316
2021-01-02, 16:48:59
Nicht wirklich. Die teurere und damit exklusivere Karte wird geschlagen - oder es besteht ein beinahe Gleichstand. Das finde ich sogar bei Titan vs xyz Karte noch schlimmer, da Titan für etwas steht, die 3090 hingegen eine "Normalo" Karte ist, zumindest von der Namens-Einordnung im Portfolio her.
[...]
Ich sehe das umgekehrt, weil die Titans nie richtige Gamer Karten waren. Deswegen wäre es nicht so schlimm, wenn eine Gamer 3080 TI oder Super die Titan Ampere zumindest in Games schlagen würde.
Eine Geforce RTX 3090 ist aber alleine durch den Namen als Gamerkarte angepriesen und ich weiß nicht ob das so sinn der Sache wäre, wenn sie dann in Games langsamer als eine niedere 3080 20G wäre, vor allem weil der Preis deutlich höher ist. Man würde damit auch nicht nur die 3080 10G Käufer sondern auch die 3090 Käufer ziemlich veralbern...
Der Druck ist schon längst da, der muss nicht erst kommen. Nvidia bringt mehr Speicher nicht, weil sie die Wohlfahrt sind (Stichwort Margen), sondern weil sie dazu gezwungen werden. Aus Gründen.
Im September in einem AMA hatte Nvidia ja noch erklärt, warum die 3080 nur 10GiB hat und wieso das ja völlig ausreichend ist. Naja, Eigentor halt, aber das war natürlich klar.
Die Mobile 3080 soll ja mit bis zu 16GiB kommen. Ist dafür auch völlig irrelevant, ob das wegen GA104 und nur GDDR6 besser passt als 20GiB mit GA102 und GDDR6X. Am Ende des Tages hätte der Namensvetter im Desktop deutlich weniger Speicher. Damit führt man dann auch seine eigene Argumentation ad absurdum, dass 10GiB genug sind. Sie müssen mit mehr Speicher reagieren und das werden sie, hätte nur schon von Anfang an geschehen müssen. Als 3070/3080-Käufer würde ich mir jedenfalls mal wieder von diesem Unternehmen verarscht vorkommen.
Die Nummer hat NV schon bei Maxwell abgezogen.
GTX980 -> ausschließlich 4GB
Mobile GTX980 -> 4 und 8GB
Das funktioniert so nicht. Die RTX 3070 wird sich zu Lebzeiten meist in Apples-to-Apples-Vergleichen beweisen müssen - also ohne DLSS. Letzteres ist ein cooles Goodie, bringt in fairen kompetitiven Benchmark-Charts aber nichts.
MfG
Raff
Und das wird auch so bleiben, auch wenn das viele Fans wieder nicht wahr haben wollen. Zwar wird AMD einen eigenen Ansatz bringen, aber da diese wieder ziemlich verschieden sein werden, spielt das keine Geige. Vergleichbarkeit gibts nur ohne DLSS.
DLSS scheint schon Heute zwang zu sein sobald man RT anschaltet, wenn AMD sein Upscaling bringt wird man es sicherlich damit testen wenn es nicht Meilen schlechter als NVs Lösung ist.
Ich gehe davon aus das eine 3070 fast immer von 1080p hochrechnet für vernünftige Performance.
Nein, die RT-Leistung heutiger Karten ist einfach kacke. Das wird sich erst mit Lovelace und RDNA3/4 wirklich ändern. Anscheinend ist ordentliches RT ohne 5nm einfach illusorisch.
mironicus
2021-01-02, 17:10:46
Da gerade eben ein FF7-Remake Video gepostet wurde. Wie haben es die Entwickler eigentlich geschafft, daß die detaillierten Haare der Charaktere nicht flimmern? Bei der PCGH hat man glaube ich auch mal die Haardarstellung von Death Stranding erwähnt, daß durch DLSS besser aussieht als mit nativem 4K + TAA.
dargo
2021-01-02, 22:36:34
Nein, die RT-Leistung heutiger Karten ist einfach kacke. Das wird sich erst mit Lovelace und RDNA3/4 wirklich ändern. Anscheinend ist ordentliches RT ohne 5nm einfach illusorisch.
Das würde ich nicht unbedingt sagen. In niedrigen Auflösungen ist die RT-Performance schon heute durchaus zu gebrauchen. Dummerweise spielt nur heute keiner mehr in 720p bis 960p. :tongue:
r3ptil3
2021-01-02, 23:27:25
Eine 3080 Super, 2.2Ghz, 250W TDP, 16Gb VRAM, April/Mai 2021 - ideal.
y33H@
2021-01-02, 23:37:48
In TSMCs N5P für günstige $1500 ^^
Lehdro
2021-01-02, 23:45:09
Eine Geforce RTX 3090 ist aber alleine durch den Namen als Gamerkarte angepriesen und ich weiß nicht ob das so sinn der Sache wäre, wenn sie dann in Games langsamer als eine niedere 3080 20G wäre, vor allem weil der Preis deutlich höher ist. Man würde damit auch nicht nur die 3080 10G Käufer sondern auch die 3090 Käufer ziemlich veralbern...
Sag das NV. Ich sehe bei der RTX 3090 frappierende Ähnlichkeiten zur OG Titan, schon alleine vom Marketing her. Die OG Titan wurde auch aktiv für beides beworben, genau wie jetzt die 3090. Der eindeutige Schwenk zu mehr Professionalität kam erst deutlich später.
basix
2021-01-02, 23:47:26
DLSS wird dann Standart in Tests, wenn AMD was vergleichbares hat. Vorher ist es unfair:tongue::wink::freak:
FidelityFX wird um Gegensatz zu DLSS auf allen GPUs laufen. Nur deshalb kann man es dann auch komplett "fair" vergleichen, weil auf beiden GPUs das selbe läuft und das selbe Bild ausgegeben wird ;)
DLSS ist wirklich noch nicht perfekt, aber gibt es das "perfekt" überhaupt im Real Time Rendering? Auch ohne DLSS flimmern Spiele, sind unscharf oder werfen Artefakte. Solange DLSS die nicht sichtbar verschlimmert und einige Dinge sogar ausmerzt / verbessert sehe ich als User kein grosses Problem (mit DLSS 2.0 gibt es diese Probleme zum Teil noch). Als Tester hat man grössere Probleme damit, da man keine gleichwertige Vergleichsbasis mehr hat. Den Apples-to-Apples Vergleich kann man mit DLSS nicht machen. Als Nutzer mitgetestet haben möchte ich es aber dennoch. Ich kann mir ein komplettes Bild zur Situation machen und dann entscheiden, was ich kaufen möchte. Dass das für alle HW-Tester zum Zusatzaufwand wird ist halt unschön. Benches kann man automatisieren aber bei Bildqualitätsvergleichen geht das nicht mehr. Und dann gibt es noch mehrere DLSS Stufen usw. das summiert sich dann ganz schön.
Platos
2021-01-03, 00:48:31
FidelityFX wird um Gegensatz zu DLSS auf allen GPUs laufen. Nur deshalb kann man es dann auch komplett "fair" vergleichen, weil auf beiden GPUs das selbe läuft und das selbe Bild ausgegeben wird ;)
[...]
Solange DLSS die nicht sichtbar verschlimmert und einige Dinge sogar ausmerzt / verbessert sehe ich als User kein grosses Problem (mit DLSS 2.0 gibt es diese Probleme zum Teil noch).
Würde DLSS nicht an manchen (zugegeben wenigen) Stellen sichtbar verschlimmern, dann könnte man sehr wohl DLSS mit non DLSS Auflösungen vergleichen (zumindest den Quality Mode). Das tut es aber ja (noch) nicht. Übrigens ist mit AMDs Ansatz das Bild dann (höchst wahrscheinlich) auf keinen Fall "das selbe Bild" (damit meine ich nicht schlechter oder besser). Vermutlich werden sie sich (vor allem Anfangs) deutlich unterscheiden. Mit Pech wird AMD dort starten, wo nvidia mit DLSS begonnen hat (also nicht mit der Qualität von DLSS 2.0).
Vergleichen wird man also nvidias DLSS mit AMDs Ansatz und die werden ziemlich sicher nicht genau gleich aussen.
Ein Kaufargument ist DLSS 2.0 trotzdem. Aber bei Grafikkartentests wäre ein direkter Vergleich noch unfair.
Btw. war das vorhin nur ein kleiner Scherz ;-)
TheAntitheist
2021-01-03, 01:14:24
nur weil etwas auf allen Plattformen läuft, kann man es dennoch nicht fair vergleichen. Nvidia hat extra hardware dafür gebaut damit die shader nicht belastet werden und diesen Vorteil sollen sie Aufgeben? das ist ja nicht fair... Fair ist etwas nur wenn jeder machen kann was er will, dann guckt man sich das Endresultat an und vergleicht dieses. DAS ist Wettbewerb und DAS hat uns auch nach vorne gebracht.
Ohne Gsync hätten wir kein Freesync, ohne Ryzen immernoch nur 4-6 Kerne.
AMD pushed Opensource auch immer nur dann wenn sie hinten dran sind, aber nun gut.
reaperrr
2021-01-03, 01:17:05
Eine 3080 Super, 2.2Ghz, 250W TDP, 16Gb VRAM, April/Mai 2021 - ideal.
Mal abgesehen davon, dass es für die Takt/TDP-Kombi einen neuen Chip/Shrink mindestens auf Samsungs 5LPP bräuchte:
Für 16GB müsste man das Speicherinterface auf 256bit beschneiden, da würden dir die 2.2GHz dann auch nichts mehr bringen, weil der Chip selbst mit G6X@20Gbps ziemlich im Bandbreitenlimit hängen würde.
Außer natürlich, du meinst den 7680 ALU GA103, der dann halt auch weniger Leistung pro MHz hat als die originale 3080.
Aber auch der soll Stand jetzt mit 320bit/10GB G6X kommen (und nach derzeitiger Info-Lage auch wie gehabt in Samsungs 8nm, also kein Taktsprung).
Mehr als 10GB kriegst du bei NV (im Desktop) wohl unterhalb der kommenden 3080 Ti nicht so schnell, und die wird es erstmal nicht unter 999$ MSRP geben (also erstmal ne Weile über 1000 € Straßenpreis).
robbitop
2021-01-03, 10:15:42
Der Performance Hit wird im Wesentlichen der gleiche bleiben IMO. RT kostet nunmal Bandbreite und Rechenleistung. Ampere, dem eine revolutionär höhere RT Performance nachgesagt wurde vor seinem Release verliert nahezu relativ gesehen gleich viel wie Turing.
Die GPUs werden grundsätzlich schneller werden. Ja. Das war schon immer so. Und RT wird schleichend nicht mehr deaktivierbar werden. Irgendwann kann niemand mehr feststellen wie groß der Hit ist.
Wie bei Pixelshading vor fast 20 Jahren.
Die BQ pro Pixel wird immer weiter gesteigert. Das kostet GPU Leistung. Das wird auch nie enden. Entsprechend ist die Framerate nur eine Funktion aus Leistung, BQ pro Pixel und Auflösung. Eine GPU per se ist nicht zu langsam oder auch schnell genug für RT. Das wird immer davon abhängen, was der Entwickler vorhat.
Nach Lovelace und RDNA3 wird nach Hopper und RDNA4 geschriehen weil erste zu lahm für irgendwas sein wird. War schon immer so, wird immer so bleiben. :)
dildo4u
2021-01-05, 05:36:19
3060 mit 12GB sollen über der 3060 TI angeordnet sein.(450$ MSRP)
https://wccftech.com/nvidia-geforce-rtx-3060-ultra-12-gb-gddr6-graphics-card-449-usd-asus-tuf-gaming-oc-pictured/
Ghost1nTh3GPU
2021-01-05, 10:23:55
Hätte man gleich ein "UltRay" draus machen sollen, bei der aktuellen RT-Überlegenheit.;D
Mit maximal 384 GB/Sekunde (16Gbps) wird sich zeigen müssen, wir man sich gegen die die >440GBs Karten in der Preisklasse schlägt.
Asaraki
2021-01-05, 10:25:52
Nach Lovelace und RDNA3 wird nach Hopper und RDNA4 geschriehen weil erste zu lahm für irgendwas sein wird. War schon immer so, wird immer so bleiben. :)
Schönes Posting generell und ach wie wahr der Schlusssatz :-) Trotzdem schaffen wir es seit 20 Jahren hier darüber zu reden :D
basix
2021-01-05, 15:22:41
Der Performance Hit wird im Wesentlichen der gleiche bleiben IMO. RT kostet nunmal Bandbreite und Rechenleistung. Ampere, dem eine revolutionär höhere RT Performance nachgesagt wurde vor seinem Release verliert nahezu relativ gesehen gleich viel wie Turing.
Bei RT entsteht Mehrarbeit durch folgende Komponenten:
Ray Casting
BVH Traversal
Denoising
Es müssen mehr Komponenten ausserhalb des Sichtfelds berücksichtigt werden (Schatten, Reflexionen, Global Illumination)
Bei Turing scheinen die ersten beiden bei den allermeisten SPielen nicht zu limitieren, sonst wäre Ampere relativ gesehen schneller (Ampere hat 2x schnellere RT-Kerne verglichen mit Turing). Ausnahme ist Cyberpunk @ RT PSycho, da gewinnt eine 3080 etwa +15% gegenüber einer 2080 Ti. Das letzte kann man in HW nicht optimieren, das benötigt einfach mehr Leistung und ist eine Frage der SW- / Spieleumsetzung. Was übrig bleibt ist Denoising. Wenn man sich Quake 2 RTX oder Minecraft RTX anschaut, belegt Denoising ein sehr grosser Teil der Rechenzeit. Ich vermute, dass hier noch Optimierungspotential besteht. Zum Beispiel mit einer Denoising Lösung via Tensor Cores (siehe Optix (https://developer.nvidia.com/optix-denoiser)). Das Paper zum Optix Denoiser ist von 2017 (https://research.nvidia.com/sites/default/files/publications/dnn_denoise_author.pdf), gibt es da eigentlich nichts neues?
robbitop
2021-01-05, 15:25:28
Zum Denoising auf den Tensor Cores für Spielegrafik in Echtzeit: Das ist ja seit mindestens 2018 angedacht aber wird noch nirgends angewendet. Dafür scheint es wohl Gründe zu geben.
Gehört hatte ich mal, dass das über die TCs für diesen Anwendungsfall nicht gut passt/funktioniert.
basix
2021-01-05, 15:48:08
Wenn es etwas später kommt und dafür gut ist (DLSS 1.0 vs. 2.0 ahoi ;)) soll mir das recht sein. War nur etwas still um das ganze, obwohl "AI Denoising" in den Medien breitgetreten wurde.
Bezüglich TC und dass es nicht passt: Mit GA100 kamen neue Datenformate wie TF32 dazu. Wäre sowas evtl. geeigneter? Oder ist generell Tensor-Matrix Produkt die falsche Operation für Denoising?
Es gibt ja schon viele und gute Paper bezüglich Raytracing, einfach fast nichts bei Denoising. Die meisten Arbeiten zielen darauf ab, mit möglichst wenigen Strahlen das Maximum rauszuholen. Sozusagen das Problem bei der Wurzel anpacken als per Denoiser am Schluss die Scherben aufwischen und Problembekämpfung betreiben. Ist also schon sinnvoll.
https://research.nvidia.com/publication/2019-07_Dynamic-Many-Light-Sampling
https://research.nvidia.com/publication/2020-07_Spatiotemporal-reservoir-resampling
robbitop
2021-01-05, 16:42:30
Tja die Frage ist ob es einfach ein prinzipbedingtes Problem ist. Man darf nicht vergessen, dass Tensorcores ziemlich eingeschränkt sind. Da werden ganze Matrizen A * B + C berechnet. Was anders können die Dinger nicht. One-Trick-Ponys. Schnell aber unflexibel. Ggf. lässt sich damit für diese Anwendung einfach nicht das Richtige erzielen.
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-5-januar-2021
Die machen einen Stuss :freak:, sowas von Banane. Da gibts dann bestimmt auch noch ne 3080 Ultra und ne 3070 Ultra mit doppeltem Speicher irgendwann. Dann ist das Chaos jedenfalls komplett.
robbitop
2021-01-06, 14:26:41
Man merkt relativ klar, dass AMD's RDNA2 dazu führte, dass NV sein Ampere Portfolio umstrukturieren musste. Wettbewerb ist in jedem Fall was Feines.
horn 12
2021-01-06, 14:37:30
Nun, da ist volles Chaos sichtbar
Wennschon und Vollkommen Richtig MUSS (Soll) Nvidia in die Vollen Gehen_
3060 TI 12 GB
3070 TI 16 GB
3080 TI 20 GB
3090 bereits Releast 24 GB
Aber so ist dies Nix Ganzes und Nix Halbes.
Sind zu Geizig für den Maximalen Ramverbau!
dildo4u
2021-01-06, 14:41:44
Nun, da ist volles Chaos sichtbar
Wennschon und Vollkommen Richtig MUSS (Soll) Nvidia in die Vollen Gehen_
3060 TI 12 GB
3070 TI 16 GB
3080 TI 20 GB
3090 bereits Releast 24 GB
Aber so ist dies Nix Ganzes und Nix Halbes.
Sind zu Geizig für den Maximalen Ramverbau!
Nein sie wissen das sie mit dem billig Ram Ausbau als einzige vernünftige Preise haben werden, 12GB für Midrange Karten zwingen sie über 400€.
Wie schon geleakt wurde die 3060 Ultra kommt für 450$, was 100$ zur 2060 sind die schon 100$ zur 1060 draufgelegt hatte.
MartinRiggs
2021-01-06, 14:43:59
Die "Refresh"-Karten sehen doch soweit stimmig aus, ich freue mich auf eine 3080Ti mit 20GB.
AffenJack
2021-01-06, 14:45:35
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-5-januar-2021
Die machen einen Stuss :freak:, sowas von Banane. Da gibts dann bestimmt auch noch ne 3080 Ultra und ne 3070 Ultra mit doppeltem Speicher irgendwann. Dann ist das Chaos jedenfalls komplett.
Die Ultra soll ein Fake sein. Unübersichtlich wird Nvs Portfolio aber auch so, wenn da neben der 3080 TI noch andere 3080/3070 Ableger erscheinen.
horn 12
2021-01-06, 14:53:08
3070 / 3080 laufen sicherlich aus
Dafür 2 GB mehr Speicher und vielleicht 70 bis 100 Euro Teurer
und die 3080 TI für 1099 Euro
Da wird Ihnen AMD diesesmal die Suppe Gewaltig versalzen!
Wenn Referenz wieder Lieferbar erscheint, und die Liefersituation zwecks BitCoin Nicht Gebrauch steigt hat NV nur mehr eine Preissenkung anzudenken.
Zumal DLSS von AMD auch noch kommt!
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.