Archiv verlassen und diese Seite im Standarddesign anzeigen : Nvidia kann auch "FineWine", hier der Beweis
AMD hat das Reifen zwar erfunden, doch Nvidia hat's perfektioniert: ;)
Nvidia Geforce RTX 2080 Ti im XXL-Nachtest: Eine Grafikkarte trotzt erfolgreich dem Alter (https://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Nachtest-2024-vs-RTX-3070-VRAM-Gate-Specs-1446620/)
Es ist wirklich erstaunlich, wie sich die Dinge entwickelt haben.
9gqvsbF7YE0
MfG
Raff
Der_Korken
2024-05-09, 23:03:12
Irgendwie ärgere ich mich schon, dass ich mir damals keine gebrauchte 2080Ti geschossen hab, als die wegen Ampere so panisch verkauft wurden. Aber den Crypto-Hype und die 4000er Preispolitik hätte zu dem Zeitpunkt noch keiner ahnen können.
Radeonfreak
2024-05-09, 23:04:12
Ich hab meine meinem Mann vermacht. Läuft jetzt immer noch fein als Ersatz für eine 1080 TI.
][immy
2024-05-09, 23:17:12
Verstehe ich nicht ganz.die Karte war ziemlich teuer (zu ihrer Zeit) und seit dem hat sich am GPU Markt nicht unbedingt viel getan und spielt jetzt im unteren Mittelfeld mit...
Ja, die 3000er Karten waren ein guter Sprung, haben aber die 8gb im Mittelfeld zementiert.
Was der Karte aber hilft ist tatsächlich die einigermaßen hohe Speicherausstattung (sieht man auch bei den 3080ern).
Finde eine würde ich das aber nicht nennen, sondern erwartetes Ergebnis, nachdem sich eigentlich nur im absoluten high end in der aktuellen generation etwas getan hat.
Für ernsthaftes raytracing ist sie aber deutlich zu langsam geworden. Aber das lohnt wohl auch vor der 4090 auch kaum.
30.000 Zeichen Text erläutern haarklein, wie Turing 2018 wahrgenommen wurde und wie's nun aussieht - mehr als nur Beiwerk zu den Balken. :)
MfG
Raff
Die Karte meines damaligen Frusts auf Nvidia. Preisüberhöhung ohne gleichen!
Kann mir auch heut keiner schönreden, egal wie sie sich gegen Konkurrenzprodukte heute noch platziert.
The_Invisible
2024-05-10, 07:32:18
Schon geile Karte, hat viele neue Tech mitgebracht wo noch darüber gelästert wurde ob es sich überhaupt durchsetzt (vor allem RT + Upscaling/DLSS) und heute ist es quasi Standard. Hat mal wieder den Weg ebnen müssen :D
Shink
2024-05-10, 07:57:48
AMD hat das Reifen zwar erfunden, doch Nvidia hat's perfektioniert
Sehr lustiger, provokativer Titel aber das trifft irgendwie auf viele OP Designs zu, siehe z.B. auch 1080 Ti. Irgendwann bricht halt der binäre Treibersupport weg und die Karte ist nur mehr unter Linux mit OpenSource-Treiber zu gebrauchen.
€: Demnach könnte man vielleicht den Intel Arcs eine Chance geben, die haben Potential um irgendwann eine "erstaunlich gute" Linux-Karte zu sein.
anorakker
2024-05-10, 07:58:10
Seit der 1000er Seire kann man wohl sagen: warten lohnt sich nicht :frown:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88097&stc=1&d=1715320480
Schon witzig, dass ich die Karte im Februar 2020 tatsächlich für den Tiefstpreis bei der Superbowl Aktion von MM ergattern konnte (1027€)
The_Invisible
2024-05-10, 08:10:59
Zumindest bei NV lohnt sich warten nicht, wenn man Highend will gleich am Anfang kaufen.
Relex
2024-05-10, 08:25:21
Die 2070S und 2080S haben sich genauso gut gehalten. Noch immer auf 4060(ti) Niveau.
Die Architektur von Turing mag zwar wegweisend gewesen sein, aber dass sie performancemäßig so gut dasteht liegt einzig daran, dass Nvidia den Abstand von low end und Mittelklasse zu. high End immer weiter erhöht. Während Low End und Mittelklasse seit Jahren stagniert oder nur minimalste Fortschritte bringt, geht es im High End zu immer höheren Preisen fröhlich weiter.
Wenn die Performance nicht in der Mittelklasse ankommt, dann wirkt das eben so, als wäre Turing „gut“ gealtert. Faktisch sind sie das auch, da man eben nur zu aktuellen karten vergleichen kann und das eben das Ergebnis ist. Aber man könnte eben auch sagen, dass die aktuelle Mittelklasse sich kaum vom 5,5 Jahre alten Flaggschiff absetzen kann, was das ganze eigentlich ziemlich traurig macht.
Diese Stagnation war übrigens der einzige Grund, warum ich zur 4080 gegriffen habe. Ich war immer der Obere-Mittelklasse Käufer und joa, gemessen an den Anforderungen aktueller Games fühlt sich die 4080 auch so an. Also genau passend für mich. Für mich ist das eben praktisch ne 4070 nur 2-3x so teuer wie normalerweise…
Monsta
2024-05-10, 08:29:54
Vielen Dank für den Nachtest, meine läuft natürlich auch im Ultra Modus :) Der Test bestätigt meine Erfahrungen, und zeigt mir gut auf welche Gpu es sich lohnt als nächtes zu kaufen.
Fliwatut
2024-05-10, 08:29:57
Meine 2080ti hat bei mir 4 Jahre brav ihren Dienst getan und werkelt jetzt als Renderbeschleuniger in einem Studenten-PC in der Family. Die Karte hatte zwar echt einen bösen Preissprung vgl. zu 1080ti, die Leistung ist aber auch nach 6 Jahren immer noch sehr ordentlich.
Blase
2024-05-10, 09:00:40
Architektur von Turing mag zwar wegweisend gewesen sein, aber dass sie performancemäßig so gut dasteht liegt einzig daran, dass Nvidia den Abstand von low end und Mittelklasse zu. high End immer weiter erhöht. Während Low End und Mittelklasse seit Jahren stagniert oder nur minimalste Fortschritte bringt, geht es im High End zu immer höheren Preisen fröhlich weiter.
Wenn die Performance nicht in der Mittelklasse ankommt, dann wirkt das eben so, als wäre Turing „gut“ gealtert. Faktisch sind sie das auch, da man eben nur zu aktuellen karten vergleichen kann und das eben das Ergebnis ist. Aber man könnte eben auch sagen, dass die aktuelle Mittelklasse sich kaum vom 5,5 Jahre alten Flaggschiff absetzen kann, was das ganze eigentlich ziemlich traurig macht.
Das ist mMn eine ziemlich treffende Einschätzung. Wo eine 3070 noch die Leistung der 2080Ti hat (zu UPV 499), schafft es eine 4070 nicht, eine 3080 zu schlagen. Selbst eine 4070S bleibt hinter einer 3090Ti zurück. Die Sprünge "in der Mitte" werden also kleiner. Da kann der ehemalige TopDog natürlich "glänzen". Mal sehen, wie es in der 50er Gen diesbezüglich aussieht...
MfG Blase
Die Leistungssprünge bei Nvidia sind zwar kleiner geworden - das schmälert aber nicht, wie gut die RTX 2080 Ti nach der anfänglichen Hängepartie ausgelastet wird. Und es schmälert auch nicht die durchaus beeindruckende Raytracing-Leistung im Vergleich mit RDNA-3-GPUs.
MfG
Raff
Ex3cut3r
2024-05-10, 13:42:53
Die Turing-Architektur war wirklich beeindruckend. DLSS und Raytracing sind einfach fantastisch. Obwohl die GPU ziemlich teuer war, hatte AMD mit der 5700XT keine Antwort darauf.
Fusion_Power
2024-05-10, 13:51:01
Seit der 1000er Seire kann man wohl sagen: warten lohnt sich nicht :frown:
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=88097&stc=1&d=1715320480
Naive Frage: wie geht das? :freak:
Allgemein altert Hardware doch ehr wie gute Milch und nicht wie guter Wein. Ok, zu Coronazeiten hätte ich meine alte GTX 1050Ti auch für wesentlich mehr Geld verkaufen können als sie mich neu gekostet hatte. Aber Corona ist nun vorbei, wo sind die signifikanten Preissenkungen bei (älteren) Grafikkarten geblieben? :confused:
Shink
2024-05-10, 14:15:38
Naive Frage: wie geht das? :freak:
Allgemein altert Hardware doch ehr wie gute Milch und nicht wie guter Wein.
- Was den Preis betrifft: Man baut einfach weniger als nachgefragt wird, damit High-End von heute nicht zur Ramschware von morgen wird.
- Man baut Features in die Hardware, von denen man nicht weiß, ob die was bringen und macht die Treiber nicht perfekt.
Troyan
2024-05-10, 14:23:54
Wenn die Performance nicht in der Mittelklasse ankommt, dann wirkt das eben so, als wäre Turing „gut“ gealtert. Faktisch sind sie das auch, da man eben nur zu aktuellen karten vergleichen kann und das eben das Ergebnis ist. Aber man könnte eben auch sagen, dass die aktuelle Mittelklasse sich kaum vom 5,5 Jahre alten Flaggschiff absetzen kann, was das ganze eigentlich ziemlich traurig macht.
Vielleicht auch, weil 5nm mehr als das 6x von 12nm (16nm) kostet. :rolleyes:
Die 4060 TI mit 200mm^2 Die ist +- auf dem Niveau und kostet $399. 1/3 des Preis bei selben Produktionskosten sind okay.
Rabiata
2024-05-10, 16:58:59
Naive Frage: wie geht das? :freak:
Allgemein altert Hardware doch ehr wie gute Milch und nicht wie guter Wein. Ok, zu Coronazeiten hätte ich meine alte GTX 1050Ti auch für wesentlich mehr Geld verkaufen können als sie mich neu gekostet hatte. Aber Corona ist nun vorbei, wo sind die signifikanten Preissenkungen bei (älteren) Grafikkarten geblieben? :confused:
Die werden eher eingestellt als daß sie billiger werden. Auch wenn es in manchen Fällen nicht nachvollziehbar ist.
Ähnliche Leistung gibt es dann in den neueren Generationen bei "kleineren" Karten. Man vergleiche zum Beispiel eine 1080 mit einer 3060-12GB, siehe 3Dcenter Performance-Index. Die 3060 hat rundum mehr zu bieten für weniger Geld.
Ghost1nTh3GPU
2024-05-10, 19:26:57
Hätte man bei Nvidia in der Turing Generation auch schon solche Ambitionen, wie mit dem 600W AD102 Kühler gehabt und hier gleich eine >20GB Karte zum Launch gebracht - RTX 2090, wäre der Gesamteindruck wohl noch etwas besser gewesen.
Aber mit Turing ist der technologische Forecast halt gut aufgegangen. Ähnlich wie damals bei G80 der von Steinzeit-DX9 in das DX10-CUDA/OpenCL-PhysX-Compute Zeitalter den Weg ebnete. Nun halt mit starker Raytracing-IP und DL-Upscaling.Und durch schlanke lokale Transformer-LLM kann man da mittlerweile sogar Gespräche mit dem Turing-Sillizium führen. ;)
robbitop
2024-05-11, 09:15:36
Die Leistungssprünge bei Nvidia sind zwar kleiner geworden - das schmälert aber nicht, wie gut die RTX 2080 Ti nach der anfänglichen Hängepartie ausgelastet wird. Und es schmälert auch nicht die durchaus beeindruckende Raytracing-Leistung im Vergleich mit RDNA-3-GPUs.
MfG
Raff
Nvidia war im Gegensatz zu AMD mit der RT Implementierung weitsichtig. Schon Turing verbaut Level 3 in HW. BVH compute und Ray Intersection. Bei RDNA wirkt die Implementierung von Rayintersection in den TMUs wie ein „afterthought“ so dass man sagen kann „hatter - hatter“ (was zu RDNA2 Zeiten ggf noch sinnvoll war, weil man Transistoren in Rasterleistubg (die damals noch dominant in der Bedeutung war) investieren konnte. RDNA3 hat das nicht wirklich geändert. Mehr register, dual issue gpus usw. Aber nicht wirklich mehr RT HW.
Entsprechend steht Turing hier auch nur gut da, weil AMD bis RDNA2+3 nur das Minimum an HW verbaut hat.
Hätte AMD schon mit RDNA2 auch Level 3 verbaut, und hätte Intel 2020 auch eine high end gpu gelauncht, sähe es schon ein wenig anders aus. Tja hätte hätte… X-D
Aber ja grundsätzlich ist es so - Turing hat 2018 viele Transistoren in Dinge investiert die 2018 noch fast nichts brachten.
Das sieht heute anders aus. Und genau da kommt ja der fine wine her. Transistoren in fortschrittliche Dinge investieren, die erst später so richtig genutzt werden. Da ist es egal wie der IHV heißt. :)
robbitop
2024-05-11, 09:20:00
Vielleicht auch, weil 5nm mehr als das 6x von 12nm (16nm) kostet. :rolleyes:
Die 4060 TI mit 200mm^2 Die ist +- auf dem Niveau und kostet $399. 1/3 des Preis bei selben Produktionskosten sind okay.
Produktionskosten sind ein Teil der Ursache aber ein weitaus kleinerer als die IHVs glauben machen wollen. In Covidzeiten hat man erkannt, dass man die Preise auch ein gutes Stück anheben kann. Klar ist rnd auch teurer geworden - aber die Bruttomargen sind auch mit dafür verantwortlich. Logisch denn der KI HW Markt ist eine Gelddruckmaschine und jedes mm2 Silizium aus der GPU Sparte muss sich der Opportunitätskostenbetrachtung und den Margenerwartung (die durch KI Chips bei den Investoren gestiegen ist) stellen. Entsprechend sind GPUs auch um ein beträchtliches Stück teurer geworden weil die IHVs jetzt mehr verdienen wollen (und können).
robbitop
2024-05-11, 09:21:48
Hätte man bei Nvidia in der Turing Generation auch schon solche Ambitionen, wie mit dem 600W AD102 Kühler gehabt und hier gleich eine >20GB Karte zum Launch gebracht - RTX 2090, wäre der Gesamteindruck wohl noch etwas besser gewesen.
Aber mit Turing ist der technologische Forecast halt gut aufgegangen. Ähnlich wie damals bei G80 der von Steinzeit-DX9 in das DX10-CUDA/OpenCL-PhysX-Compute Zeitalter den Weg ebnete. Nun halt mit starker Raytracing-IP und DL-Upscaling.Und durch schlanke lokale Transformer-LLM kann man da mittlerweile sogar Gespräche mit dem Turing-Sillizium führen. ;)
Naja im Unterschied zu Turing hat G80 direkt zum Launch einen direkt nutzbaren riesigen Performancesprung ggü dem Vorgänger gebracht. IIRC der größte Sprung den es bisher gab (ohne dlss und ff shinanogans mit einzurechnen).
Ghost1nTh3GPU
2024-05-11, 09:44:35
Naja im Unterschied zu Turing hat G80 direkt zum Launch einen direkt nutzbaren riesigen Performancesprung ggü dem Vorgänger gebracht. IIRC der größte Sprung den es bisher gab (ohne dlss und ff shinanogans mit einzurechnen).
Aber G80 (@GTX/Ultra) hat halt auch den Maßstab für Stromverbrauch, Die-Size und Speicherinterface gegenüber den Vorgängern massiv verschoben. Da ist Turing zu Pascal bis selbst Ada noch in der gleichen "Gewichtsklasse" geblieben.
Turing konnte im hohen Performance-Bereich halt ein paar mehr Türen öffnen, als >>100 Raster-FPS.
Eine 22GB Version hätte der Karte sicherlich noch mehr Lebenszeit eingeräumt, auch wenn Nvidia vielleicht die DLSS-Unterstützung langsam herunterfahren wird im Vergleich zur den neueren GPUs, ist ja genügend Rechenleistung über die APIs verfügbar, wo auch ISV-Upscaling-Lösungen hier noch einige Verbesserungen erlauben.
The_Invisible
2024-05-11, 09:56:28
Hätte man bei Nvidia in der Turing Generation auch schon solche Ambitionen, wie mit dem 600W AD102 Kühler gehabt und hier gleich eine >20GB Karte zum Launch gebracht - RTX 2090, wäre der Gesamteindruck wohl noch etwas besser gewesen.
Aber mit Turing ist der technologische Forecast halt gut aufgegangen. Ähnlich wie damals bei G80 der von Steinzeit-DX9 in das DX10-CUDA/OpenCL-PhysX-Compute Zeitalter den Weg ebnete. Nun halt mit starker Raytracing-IP und DL-Upscaling.Und durch schlanke lokale Transformer-LLM kann man da mittlerweile sogar Gespräche mit dem Turing-Sillizium führen. ;)
Gab eh die Titan RTX ;-)
11gb waren 2018 noch gut genug außerdem gab's eh quasi keine konkurrenz
Troyan
2024-05-11, 10:14:46
Produktionskosten sind ein Teil der Ursache aber ein weitaus kleinerer als die IHVs glauben machen wollen. In Covidzeiten hat man erkannt, dass man die Preise auch ein gutes Stück anheben kann. Klar ist rnd auch teurer geworden - aber die Bruttomargen sind auch mit dafür verantwortlich. Logisch denn der KI HW Markt ist eine Gelddruckmaschine und jedes mm2 Silizium aus der GPU Sparte muss sich der Opportunitätskostenbetrachtung und den Margenerwartung (die durch KI Chips bei den Investoren gestiegen ist) stellen. Entsprechend sind GPUs auch um ein beträchtliches Stück teurer geworden weil die IHVs jetzt mehr verdienen wollen (und können).
Man verdient nicht mehr. Die Produktionskosten der Chips sind massiv gestiegen. Ich habe es ja schon öfters geschrieben: Der Unterschied zwischen TSMC 5nm und Samsung 8nm liegt bei mindesten Faktor 3. Ein 400mm^2 Chip wie GA104 kann daher nur mit deutlich höheren Verkaufspreisen in den Markt kommen.
Aber das ist nur ein Faktor. Am PC fehlt einfach eine effiziente Softwareumgebung, die auch das bestmögliche Potential abrufen kann. Dank Lovelace sehen wir erstmal, wie ineffizient viele Spiele sind. Skalierung nach oben ist überhaupt nicht mehr gegeben. Eine 4090 ist mit effizienten Pathtracing >4x schneller als eine 6900XT. Aber in Rasterizing-Spielen ist es gerade mal 2x trotzdem die Karte überall 3x+ besser ist.
Relex
2024-05-11, 10:22:56
Nvidia war im Gegensatz zu AMD mit der RT Implementierung weitsichtig. Schon Turing verbaut Level 3 in HW. BVH compute und Ray Intersection. Bei RDNA wirkt die Implementierung von Rayintersection in den TMUs wie ein „afterthought“ so dass man sagen kann „hatter - hatter“ (was zu RDNA2 Zeiten ggf noch sinnvoll war, weil man Transistoren in Rasterleistubg (die damals noch dominant in der Bedeutung war) investieren konnte. RDNA3 hat das nicht wirklich geändert. Mehr register, dual issue gpus usw. Aber nicht wirklich mehr RT HW.
Entsprechend steht Turing hier auch nur gut da, weil AMD bis RDNA2+3 nur das Minimum an HW verbaut hat.
Ich denke mal, dass damals zum Turing Launch bzw. wahrscheinlich schon laaange vorher für AMD und nvidia klar war wie die DirectX 12 Ultimate spec aussehen wird (Turing supportet das ja auch vollständig) aber wahrscheinlich hat AMD Raytracing erstmal ignorierert, weil die Leistung noch fehlte und das ganze für sie Zukunftsmusik war. Die Überlegungen dazu fanden vermutlich schon 2015 oder so statt.
Dann kam aber Nvidia bei Turing mit DLSS um die Ecke, was praktisch DER Enabler für Raytracing war und hatte dann natürlich auch die Hardware schon voll darauf ausgerichtet.
Die Wette, dass Raytracing noch in weiter Ferne ist hat AMD wahrscheinlich deswegen verloren, weil sie Upscaling nicht auf dem Schirm hatten.
Hätte ja damals von uns auch niemand für möglich gehalten, dass ein hochskaliertes Bild wie es heute mit DLSS möglich ist mal so gut aussehen könnte. Gut, Nvidia hat auch nen zweiten Anlauf mit DLSS2 gebraucht, aber damit ging die Wette dann eben voll auf, während AMD versucht hat mit einem Spatial Upscaler FSR1 irgendwie auf dem Papier was vergleichbares zu machen. Das war reine Schadensbegrenzung.
Dass das AMD nicht komplett das Genick gebrochen hat, kann AMD nur den Konsolen verdanken. Man stelle sich vor, was passiert wäre, wenn in den Konsolen Nvidia Hardware stecken würde.
1440p oder 1800p mit performance upscaling. Raytracing Last auf Cyberpunk Niveau in jedem Spiel. Code optimiert für Nvidia Hardware. AMD wäre damit komplett raus gewesen, da Nvidia Hardware in jedem Spiel locker 50%-100% schneller mit RT und nochmal 100% schneller mit Upscaling gewesen wäre. Wer hätte da überhaupt noch AMD hardware gekauft, wenn die RT Leistung fehlt und FSR1 upscaling noch nichtmal released war.
Die Konsolen Deals sind mittlerweile wirklich AMD's Lebensversicherung.
anorakker
2024-05-11, 10:35:41
Upscaling haben doch Konsolen (aka AMD) als erste lange vor NV am PC im grossen Stil eingesetzt? Oder erinnere ich mich falsch?
Relex
2024-05-11, 11:08:16
Ja, aber nur einfaches spatial upscaling.
Erst mit der PS4 Pro hat sony checkerboarding als eigenständige Lösung eingeführt, was aber nur halbe Auflösung konnte.
Das wären bei 4K dann praktisch 3840x1080 oder als 16:9 Format 2716x1527.
Moderne Upsampler können hingegen 4x Upscaling in brauchbarer Qualität (1920x1080 auf 4K).
Soweit ich weiß hat sich Sony dafür aber auch den Chip anpassen lassen, um das effizienter berechnen zu können.
Aber stimmt schon eigentlich war Sony der Vorreiter beim Upscaling. AMD hätte damals eigentlich nur erkennen müssen, dass sie das für den Desktop adaptieren sollten. Scheinbar haben sie es komplett ignoriert.
robbitop
2024-05-11, 11:48:55
Aber G80 (@GTX/Ultra) hat halt auch den Maßstab für Stromverbrauch, Die-Size und Speicherinterface gegenüber den Vorgängern massiv verschoben. Da ist Turing zu Pascal bis selbst Ada noch in der gleichen "Gewichtsklasse" geblieben.
Turing konnte im hohen Performance-Bereich halt ein paar mehr Türen öffnen, als >>100 Raster-FPS.
Eine 22GB Version hätte der Karte sicherlich noch mehr Lebenszeit eingeräumt, auch wenn Nvidia vielleicht die DLSS-Unterstützung langsam herunterfahren wird im Vergleich zur den neueren GPUs, ist ja genügend Rechenleistung über die APIs verfügbar, wo auch ISV-Upscaling-Lösungen hier noch einige Verbesserungen erlauben.
Naja im reinen Rastern war der Performancesprung ggü GP102 für einen Generationssprubg relativ klein. Aber ja mit G80 und dem Leistungshunger hast du recht aber: dafür gab es halt auch keinen shrink (G71 und G80 auf dem gleichen node). Mit shrink (der ja fast immer dazu gehört) war der Leistungshunger (sie 9800gtx) wieder okay.
robbitop
2024-05-11, 11:50:19
Man verdient nicht mehr. Die Produktionskosten der Chips sind massiv gestiegen. Ich habe es ja schon öfters geschrieben: Der Unterschied zwischen TSMC 5nm und Samsung 8nm liegt bei mindesten Faktor 3. Ein 400mm^2 Chip wie GA104 kann daher nur mit deutlich höheren Verkaufspreisen in den Markt kommen.
Aber das ist nur ein Faktor. Am PC fehlt einfach eine effiziente Softwareumgebung, die auch das bestmögliche Potential abrufen kann. Dank Lovelace sehen wir erstmal, wie ineffizient viele Spiele sind. Skalierung nach oben ist überhaupt nicht mehr gegeben. Eine 4090 ist mit effizienten Pathtracing >4x schneller als eine 6900XT. Aber in Rasterizing-Spielen ist es gerade mal 2x trotzdem die Karte überall 3x+ besser ist.
Der Preisunterschied für TSMC ist viel kleiner. Kann man einfach nachrechnen. Da sind wir im Bereich von ~+50€ - die SKUs sind aber doppelt so teuer.
The_Invisible
2024-05-11, 12:47:55
Ja, aber nur einfaches spatial upscaling.
Erst mit der PS4 Pro hat sony checkerboarding als eigenständige Lösung eingeführt, was aber nur halbe Auflösung konnte.
Das wären bei 4K dann praktisch 3840x1080 oder als 16:9 Format 2716x1527.
Moderne Upsampler können hingegen 4x Upscaling in brauchbarer Qualität (1920x1080 auf 4K).
Soweit ich weiß hat sich Sony dafür aber auch den Chip anpassen lassen, um das effizienter berechnen zu können.
Aber stimmt schon eigentlich war Sony der Vorreiter beim Upscaling. AMD hätte damals eigentlich nur erkennen müssen, dass sie das für den Desktop adaptieren sollten. Scheinbar haben sie es komplett ignoriert.
Wiederholt sich eh wieder mit dem eigenen upscaling weil für Sony FSR anscheinend nicht gut genug ist.
gnomi
2024-05-12, 12:19:28
Technisch war die Karte überragend.
Real im Markt allerdings nicht.
Der Preis war vierstellig und teurer als alles abseits von Titan vorher.
2018 kam da in Sachen Software noch nichts groß.
Erst mit Verbesserung des Portfolio und der Super Serie sowie mehr RT und DLSS2 kam der Sprung gegenüber den GTX GPU's.
2020 bot nvidia mit der 3080 auch schon wieder mehr Leistung für weniger.
Dummerweise galt der UVP Preis nur für wenige Glückliche und 10GB waren wegen der neuen Konsolen bisschen sparsam für die Zukunft.
Wir erlebten fieses Upselling aller 3000er GPU's auf neuem Preis Niveau.
Mit der 4000er Serie hat sich das Turing Spiel bald wiederholt.
Die 4090 brachial mit Frame Generation vorneweg.
Besser bezahlbar und mehr Support gab es aber erneut erst mit der Super Serie. PT Games wie Alan Wake 2, Cyberpunk 2.0 Update/Addon oder erste spannende UE5 Games in frühen Versionen kamen auch erst ab Mitte letzten Jahres.
ChaosTM
2024-05-12, 13:59:11
Die 2080er war damals kein Grund upzugraden. RT Titel konnte man an einer Hand abzählen und die Umsetzung war mehr als bescheiden, von Control mal abgesehen, aber das hatte ich damals schon durch.
Daher blieb die 1080ti für 5 Jahre mein Workhorse.
Die Karte wurde eigentlich erst mit dem Mesh Shader Einsatz in Alan Wake 2 obsolet.
Für mich ist die Karte daher der beste "Fine Wine" von NV.
Die 4090er wird ein ähnliches Produkt sein, außer Nv lässt sich was speziell fieses/proprietäres einfallen, um mich Deppen zum Upgrade zu "zwingen". ;)
Thunder99
2024-05-12, 14:30:46
Toller Nachtest Raff :)
Die 2080TI rettet bzw kann ihre Performance mit den 11GB Speicher auf die Strasse bringen. Alle 8GB Karten haben mehr oder weniger Probleme. Daher gilt weiterhin 2080Ti > 3070 und allen 8GB Karten wenn der Speicher ausgeht.
Turing war mir damals zu teuer. Dann die 30er Serie ausgesetzt wegen den crazy Preisen dank Corona. Daher wurde die 1080Ti erst mit der 4080 ersetzt da letztere im Vergleich zu Ampere effizienter ist und mehr Speicher liefert. Leider an sich zu teuer für das gebotene aber mangels Alternative es dennoch gekauft.
Im Nachhinein hätte sich der Preis egalisiert bei der 2080Ti wenn man bedenkt wie lange man sie nutzen kann (wer sie immer noch hat musste bisher nicht aufrüsten) sofern man die Regler bedient.
Ihr lobhudelt hier eine veraltete Grafikkartengeneration, die 2018 für über 1250€ auf den Markt kam - Leute überlegt doch mal bei dem Preis zu der Zeit! Für manche wohl ein Monatsgehalt.
Ich kann dem Teil nix abgewinnen, Raytracing in Spielen war zu dieser Zeit und lange danach nicht gegeben. Und als Investition in die Zukunft? - lachhaft, aktuelle Einsteiger-Generationen bieten gleiches oder mehr zu weit geringerem Preis.
Ich hab dieses Jahr (Feb. 2024) für meine Sapphire RX7900XTX Nitro+ Vapor X 1068€ bezahlt. Zugegeben viel Geld für eine "super" Grafikkarte, eigentlich die beste, die ich je gekauft hab und die das Prädikat super auch wirklich verdient. Im Gegensatz zu den Super-Modellen der Konkurrenz, die für mich einen Arschtritt für die Käufer darstellen, die zuvor gleiches Modell ohne Super gekauft haben.
Ich bin allerdings ned mit AMD verheiratet, hätte es denn Vergleichbares von Nvidia oder Intel gegeben. Im Hinblick, da Raytracing immer noch ein unausgereiftes "Krüppelfeature" ist, kann ich den ganzen Hype darauf nicht nachvollziehen. Reden wir in 10 Jahren darüber, wenn der technische Fortschritt soweit ist, dass das zu vernünftigen Kosten einsetzbar ist. Mit Kosten meine ich nicht Geld.
...
Die 4090er wird ein ähnliches Produkt sein, außer Nv lässt sich was speziell fieses/proprietäres einfallen, um mich Deppen zum Upgrade zu "zwingen". ;)
Wollen wir wetten? ;)
Ihr lobhudelt hier eine veraltete Grafikkartengeneration, die 2018 für über 1250€ auf den Markt kam - Leute überlegt doch mal bei dem Preis zu der Zeit! Für manche wohl ein Monatsgehalt.
Ich kann dem Teil nix abgewinnen, Raytracing in Spielen war zu dieser Zeit und lange danach nicht gegeben. Und als Investition in die Zukunft? - lachhaft, aktuelle Einsteiger-Generationen bieten gleiches oder mehr zu weit geringerem Preis.
Na eben nicht. Die RTX 2080 Ti ist beim Rasterizing schneller als eine RTX 4060 Ti 16GB, welche derzeit ab 450 Euro zu haben ist. Beim Raytracing rangiert sie sogar zwischen 6800 XT und 7800 XT, welche um 500 Euro liegen. 2018 war das Ding auf jeden Fall überteuert für reine Rasterspiele, aber die Weitsicht beim Rest macht die Karte außerordentlich langlebig. Lies dir den Artikel gerne mal in Ruhe durch. :)
MfG
Raff
War keine Kritik an deinem Artikel. Unbestritten. eine tolle Schreibe neben fundiertem Wissen hast du ja mittlerweile drauf. (y)
Meine MSI 1080 Ti hab ich, wenn ich mich recht entsinne 2017 in Frankreich für um die 800€ oder waren's 739, ich weiß es nimmer. Die war damals 2018 in Spielen etwa 30% langsamer, als die 2080 Ti. Deren Aufpreis ~450€, die waren mir damals zu unverschämt. Ned dass ich mir das hätte ned leisten können, es ging ums Prinzip. Für um die 1000€ hätte ich sie gekauft und Nvidia hätte trotzdem genug dran verdient.
Sei's drum, die, welche heute noch eine 2080TI am Laufen haben, sei es gegönnt ... der FineWine ;)
schreiber
2024-06-11, 13:55:37
https://www.computerbase.de/2024-06/high-end-gtx-1080-ti-spielen-vega/
Mich bekräftigt das nur in der Aussage, dass die Fortschritte in den letzten Jahren einfach erbärmlich waren.
Lust auf einen kleinen WTF-Moment? Anbei das oben verlinkte Video, allerdings auf Englisch – vollständig übersetzt von einer KI (Dubly.AI). Was haltet ihr davon? Nette Idee, um bestimmte Themen einem breiteren Publikum zugänglich zu machen ... oder einfach nur "uncanny"? :D
leLdmttPSHA
MfG
Raff
robbitop
2024-07-01, 10:14:57
Hat die AI nur übersetzt oder auch deine Stimme vertont? Falls letzteres: auf den ersten Blick schon krass.
Übersetzen geht ja schon länger ziemlich gut dank LLMs.
Loeschzwerg
2024-07-01, 10:24:45
Ich zitiere "Dubly.AI" :)
vollständig übersetzt von einer KI (Dubly.AI). Was haltet ihr davon? Nette Idee, um bestimmte Themen einem breiteren Publikum zugänglich zu machen ... oder einfach nur "uncanny"? :D
Das Ergebnis kann sich durchaus hören lassen. Ja, es klingt schon noch etwas eigenartig und manchmal überschlägt es sich, gerade wenn du sehr schnell und unvollständige Sätze sprichst, aber der Zusammenhang bleibt verständlich.
Auf die Lippen braucht man nicht achten, da wird es dann schon seltsam :D Aber das ist auch nur noch eine Frage der verfügbaren Tools.
robbitop
2024-07-01, 10:38:27
Es ist nicht lippensynchron aber es ist wie eine zusätzlich eingesprochene Tonspur. Auf jeden Fall gut genug um anderen Zugang zu geben.
Schon echt beeindruckend finde ich.
Blase
2024-07-01, 11:51:36
Bin einigermaßen beeindruckt :up:
Aber auch unheimlich :redface:
MfG Blase
Hahaha, das haben wir nach den ersten Demos auch gesagt – vor allem, weil das Ding auch Spanisch, Französisch etc. kann. :biggrin:
MfG
Raff
Blase
2024-07-01, 12:11:56
... vor allem, weil das Ding auch Spanisch, Französisch etc. kann. :biggrin:
MfG
Raff
Wer braucht schon Abi, wenn er AI hat :freak:
MfG Blase
Relex
2024-07-01, 12:38:40
Also der Ton ist überhaupt nicht uncanny. Finde das extrem gut. Vor allem dass auch dein deutscher Akzent übernommen wird. Würdest du richtig krass in us oder britisch slang sprechen wärs wahrscheinlich komisch.
Einzig die fehlende Lippensynchro ist schade und macht es etwas anstrengender anzusehen. Aber wenn man das auf videos anwendet wo keine Personen zu sehen sind, würde gar nicht auffallen, dass das überhaupt übersetzt wurde.
Wobei das mit der Lippensanchro sicherlich auch schon mit AI möglich wäre. Nur vielfach aufwändiger und fehlerbehaftet.
Problem ist nur, dass das für uns hier keinerlei Nutzen hat. Da müsste man wenn dann das neue Zielpublikum fragen bzw. eben schauen wie das ankommt.
VooDoo7mx
2024-07-06, 18:10:21
Nach einer Bench Session habe ich meine 3D Mark Resultate sortiert und da waren auch noch die von meiner ehemaligen 2080Ti gespeichert.
Und tatsächlich ist beim Port Royal Test die 2080Ti immer noch 20% schneller als meine Notebook 4070(M). (https://www.3dmark.com/compare/pr/2644981/pr/1177789)
Die 2080Ti wird dann wohl über 300W dafür gebraucht haben, während die Notebook 4070 nur so 120W bei den Benchmark zieht.
Und die eher schlechte Energieeffizienz ist meiner Meinung nach auch der Hauptkritikpunkt an dieser Karte heute. Ansonsten kann man mit dem Teil auch heute auch noch viel Spaß haben. Wie schon gesagt wurde, braucht man mindestens eine 4070 um die 2080Ti zu schlagen.
Lust auf einen kleinen WTF-Moment? Anbei das oben verlinkte Video, allerdings auf Englisch – vollständig übersetzt von einer KI (Dubly.AI). Was haltet ihr davon? Nette Idee, um bestimmte Themen einem breiteren Publikum zugänglich zu machen ... oder einfach nur "uncanny"? :D
https://youtu.be/leLdmttPSHA
MfG
Raff
Wirklich krass wäre Mandarin oder Russisch gewesen. Kann man sich das irgendwo wünschen?
anorakker
2024-07-06, 18:32:39
Lust auf einen kleinen WTF-Moment? Anbei das oben verlinkte Video, allerdings auf Englisch – vollständig übersetzt von einer KI (Dubly.AI). Was haltet ihr davon? Nette Idee, um bestimmte Themen einem breiteren Publikum zugänglich zu machen ... oder einfach nur "uncanny"? :D
MfG
Raff
Das ist inzwischen echt ziemlich beeindruckend was geht. Als Creator mit einer begrenzten Reichweite, wenn man nicht in Englisch produziert ist das natürlich extremst hilfreich, aber andersherum wird es sicherlich auch irgendwann Anwendung finden.
Am ehesten freu ich mich aber natürlich, dass man endlich die Unmengen an wirklich hilfreichen indischen Tech Videos vllt. mal in erträglichem Englisch (oder Deutsch) schauen kann :biggrin:
DrFreaK666
2024-07-06, 19:19:29
Hier stand Quatsch
Ist das so krass :eek:
Was ist dann erst in 3..4 Jahren möglich, wenn die Entwicklung weiterschreitet und noch mehr Verbesserungen einfließen?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.