PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3070 Ti Review-Thread


Leonidas
2021-06-09, 14:49:22
GeForce RTX 3070 Ti
- GA104-Chip (Vollausbau)
- 48 SM @ 256 Bit
- 8 GB GDDR6X
- 290W TDP (GCP)
- $599 / 619€
- Launchreviews: 9. Juni 2021, 15:00 MESZ
- Marktstart: 10. Juni 2021, 15:00 MESZ

Liste der Launchreviews bei 3DCenter (https://www.3dcenter.org/news/launch-der-geforce-rtx-3070-ti-die-launchreviews-gehen-online) & Videocardz (https://videocardz.com/newz/nvidia-geforce-rtx-3070-ti-review-roundup).

Leonidas
2021-06-09, 15:23:45
Die volle Begeisterung ist geradezu spürbar.

Hakim
2021-06-09, 15:26:02
Leider aus meiner Sicht, die bisher schlechteste Ampere Karte. Paar % schneller als 3070 aber dafür huni mehr (UVP ausgehend) und 70!! Watt mehr Saft. Dann lieber die normale 3070 oder besser nochmal huni drauf und 3080.

Lurtz
2021-06-09, 15:30:14
Immerhin ist die Datenautobahn jetzt breiter :D

SCNR.

Sinnlose, verschlechterte Karte.

WedgeAntilles
2021-06-09, 15:31:14
Bin ich bei dir, ziemlich schwaches Paket.
Entweder nehme ich die 3070 oder gleich die 3080. (Also mal unterstellt, es gäbe die Karten zu UVP.)

Die 3070TI ist IMO ziemlich Schrott. Die 3070 ist effizienter und kaum langsamer.
Die 3080 hat merklich mehr Leistung und 2 GB mehr Ram.

Ich sehe absolut keinen einzigen Grund die 3070TI zu kaufen - für wen soll die sein? Wem die 3070 zu langsam, die 3080 aber zu schnell ist? Lächerlich.

Troyan
2021-06-09, 15:32:18
Wozu die Karte GDDR6X braucht, wird wohl nur nVidia wissen. Nirgendwo wirklich schneller als die Rechenleistung.

Mit 16Gbit/s GDDR6 wäre man wohl bei <250W gelandet. Ansonsten ist GA104 schon ziemlich nett als Chip.

Daredevil
2021-06-09, 15:32:32
Weniger ist manchmal mehr.
Nvidia nervt mittlerweile nur noch mit ihren drölf Ti Varianten, wenn sie nicht mal die normalen Modelle liefern können.
Wo ist der Sinn des breiten Portfolios, wenn es das am Ende eh nicht gibt?

WedgeAntilles
2021-06-09, 15:34:17
Weniger ist manchmal mehr.
Nvidia nervt mittlerweile nur noch mit ihren drölf Ti Varianten, wenn sie nicht mal die normalen Modelle liefern können.
Wo ist der Sinn des breiten Portfolios, wenn es das am Ende eh nicht gibt?

Jepp - 7 Produkte die ich nicht kaufen kann ist wirklich eine wahnsinnige Verbesserung zu 6 Produkten die ich nicht kaufen kann :D

Leonidas
2021-06-09, 15:34:28
Ehrlicherweise verstehe ich die Karte nun überhaupt nicht. Wenn jene die 6800 erreichen würde - okay. Aber so ist das etwas komplett zweckloses. Und niemand brauchte in diesem Zwischenbereich unbedingt noch eine weitere Lösung.

Troyan
2021-06-09, 15:36:09
Hä? Die Karte liegt auf dem selben Niveau und mit Raytracing ist man meilenweit voraus.

Sie schließt einfach die Lücke zwischen der 3070 und 3080.

Raff
2021-06-09, 15:37:00
Immerhin ist die Datenautobahn jetzt breiter :D

Nope. Da wurde nur das Speed Limit angehoben. ;)

____

Ich versuch's nochmal. Eventuell bemerkt den Aufriss diesmal jemand - Leo? :D Wichtigstes Zitat als Intro: "Alle Benchmarks wurden am Stück Ende Mai bzw. Anfang Juni durchgeführt."

Leistungsindex Rasterizing mit 20 Spielen in 4 Auflösungen: https://www.pcgameshardware.de/Geforce-RTX-3070-Ti-Grafikkarte-277502/Tests/RTX-3070-Ti-wo-kaufen-Test-RTX-3070-Ti-oder-RTX-3080-1373448/2/#a25
Leistungsindex Raytracing mit 10 Spielen in 4 Auflösungen: https://www.pcgameshardware.de/Geforce-RTX-3070-Ti-Grafikkarte-277502/Tests/RTX-3070-Ti-wo-kaufen-Test-RTX-3070-Ti-oder-RTX-3080-1373448/2/#a26

Alles neu, alles geil. Mehr geht nicht. 'Nuff said.

MfG
Raff

Lehdro
2021-06-09, 15:37:46
Ich poste nur das:

aufkrawall
2021-06-09, 15:37:50
Hä? Die Karte liegt auf dem selben Niveau und mit Raytracing ist man meilenweit voraus.

Die 8GB reichen nicht mal für maximale Texturdetails in Legion ohne RT...

Leonidas
2021-06-09, 15:39:35
Hä? Die Karte liegt auf dem selben Niveau und mit Raytracing ist man meilenweit voraus.
Sie schließt einfach die Lücke zwischen der 3070 und 3080.

Beim welchem Review kann sich die 3070Ti mit der 6800 unter Rasterizer messen?

Das sie unter RT vorn liegt, ist keine Frage, das schafft auch die 3070 (und tlw. sogar die 3060Ti).

Schnoesel
2021-06-09, 15:39:36
Welche Lücke? Da ist keine Lücke. Man denkt es geht nicht schlechter aber dann kommt Nvidia und legt nochmal nach. Die Karte ist maximal useless. Kann man gar nicht anderes sagen.

Dorn
2021-06-09, 15:40:27
Hä? Die Karte liegt auf dem selben Niveau und mit Raytracing ist man meilenweit voraus.

Sie schließt einfach die Lücke zwischen der 3070 und 3080.
War das jetzt Sarkasmus?

https://www.computerbase.de/2021-06/nvidia-geforce-rtx-3070-ti-review-test/2/#abschnitt_benchmarks_in_1920__1080_und_3840__2160

Troyan
2021-06-09, 15:41:31
Die 8GB reichen nicht mal für maximale Texturdetails in Legion ohne RT...

Und die 6800 ist zu lahm für 60FPS in 1080p mit Raytracing: https://www.purepc.pl/test-nvidia-geforce-rtx-3070-ti-brakujace-ogniwo-miedzy-geforce-rtx-3070-i-geforce-rtx-3080-pokona-amd-radeon-rx-6800?page=0,17

Beim welchem Review kann sich die 3070Ti mit der 6800 unter Rasterizer messen?

Das sie unter RT vorn liegt, ist keine Frage, das schafft auch die 3070 (und tlw. sogar die 3060Ti).

Es sind 5% bei Computerbase: https://www.computerbase.de/2021-06/nvidia-geforce-rtx-3070-ti-review-test/2/#abschnitt_benchmarks_in_2560__1440
Bei Sweclockers sind es 1,38%: https://www.sweclockers.com/test/32099-nvidia-geforce-rtx-3070-ti-en-enda-stor-axelryckning/7

Hakim
2021-06-09, 15:45:56
Nv hätte ein Tipp daraus machen können wenn sie den Chip bei 256bit@16GB GDDR6 gebracht hätten. Das würde vermutlich so angemessene ~240W schlucken. 16 GB lässt die anderen Karten schlecht aussehen? Der Zug ist doch schon mit 3060 abgelaufen

DrFreaK666
2021-06-09, 15:48:01
So ein Müll. Wer wollte das, außer Lederjacke?

Hakim
2021-06-09, 15:52:37
Das traurigste ist doch, das vermutlich dennoch gut verkauft wird wenn man man nix anderes bekommt :)

rentex
2021-06-09, 15:52:56
Die Ampere "Gesamtansicht" ist mit der 3070Ti, jetzt wirklich ruiniert. Da empfand ich Turing als runderen Release.

Leonidas
2021-06-09, 16:00:56
Es sind 5% bei Computerbase: https://www.computerbase.de/2021-06/nvidia-geforce-rtx-3070-ti-review-test/2/#abschnitt_benchmarks_in_2560__1440
Bei Sweclockers sind es 1,38%: https://www.sweclockers.com/test/32099-nvidia-geforce-rtx-3070-ti-en-enda-stor-axelryckning/7

Ich bezweifle nicht, das es Testberichte gibt, wo die 3070Ti auch mal gut herauskommt. Dieses von SweClockers ist aber ein schlechtes Beispiel, weil:
Treiber 3070Ti: 466.61
Treiber 6800: 2020 20.45.01 beta

Bei diesen knappen Differenzen wird der Treiber genau für diesen beobachteten Unterschied verantwortlich sein.

Igzorn
2021-06-09, 16:02:09
Hin und her überlegt, aber zusammengefasst kann man sagen:

Verbraucht zu viel.
UVP zu hoch im vergleich zum Mitwettbewerber. (Straßenpreise mal abwarten)
Bleibt ein Speicherkrüppel. (Was hilft ein Turbomotor wenn der Tank zu kein ist)

Eigentlich sind diese TI varianten der letzten Tage nur dazu da um einen höheren Preis zu nehmen bei minimalsten nutzen für den Kunden.

Linmoum
2021-06-09, 16:04:11
Langsamer als eine 6800 und säuft dazu in Relation wie blöde. Die Einordnung im eigenen Portfolio ist auch nicht besser. RT ist aufgrund der lächerlichen 8GiB nicht mehr als ein Scheinargument und dafür braucht es nicht einmal UHD.

Hab noch nie ein absurderes und überflüssigeres Lineup an Produkten gesehen wie das, was Nvidia hier mit Ampere abzieht.

JVC
2021-06-09, 16:06:27
8Gb... nein danke. 290Watt für ne 70er sind auch n Witz.

3070 Average: 153%
Meine 1080Ti ohne OC(250Watt) auf nem 3570K :freak: : 150%
( https://www.userbenchmark.com/UserRun/8739664 )

Nicht gleich raunen ^^ ja, Userbenchmakr = Müll

M.f.G. JVC

Raff
2021-06-09, 16:10:02
Ich bezweifle nicht, das es Testberichte gibt, wo die 3070Ti auch mal gut herauskommt. Dieses von SweClockers ist aber ein schlechtes Beispiel, weil:
Treiber 3070Ti: 466.61
Treiber 6800: 2020 20.45.01 beta

Bei diesen knappen Differenzen wird der Treiber genau für diesen beobachteten Unterschied verantwortlich sein.

Du warst beim 3080-Ti-Test ja schon auf dem richtigen Weg: knallhart aussieben und nur die für voll nehmen, die auch nachts benchen. Siehe Posting #11. *hint* :biggrin:

Nur schade, dass langweilige Produkte genauso viel Arbeit machen wie geile.

MfG
Raff

Lowkey
2021-06-09, 16:14:32
Langsamer als eine 6800 und säuft dazu in Relation wie blöde. Die Einordnung im eigenen Portfolio ist auch nicht besser. RT ist aufgrund der lächerlichen 8GiB nicht mehr als ein Scheinargument und dafür braucht es nicht einmal UHD.

Hab noch nie ein absurderes und überflüssigeres Lineup an Produkten gesehen wie das, was Nvidia hier mit Ampere abzieht.


Genau :up:

Die Frage ist also, warum Nvidia eine Karte veröffentlicht?

- ist nicht die Antwort auf die 6800
- ist auf den ersten Blick nicht viel teurer als die 3070 Ti (Keine Mitnahme der Gewinne)
- technisch kein Wunder und bessere Ausstattung


Ich würde darauf tippen, dass die Fertigung bei Samsung einen Haufen GPUs erzeugt, die für nichts taugen als eine 3070 Ti.

maximus_hertus
2021-06-09, 16:16:38
Typisch AMD, wenn es ei der Leistung nicht langt, muss man den Stromverbrauch maximieren. Lächerliche Karte....

oh wait.... das ist ja eine nVidia.... Was zur Hölle? Wurde Jensen gefoltert und hat daher dieser Karte zugestimmt? Das erinnert an die dunkelsten nVidia (FX-Föhn, Thermi) Zeiten :/

290W für eine bessere Mittelklassekarte? Echt jetzt? In 2021? Dazu viel zu laut?!

Jensen der AMD Fanboy.... bitter...

Leonidas
2021-06-09, 16:37:10
Ich versuch's nochmal. Eventuell bemerkt den Aufriss diesmal jemand - Leo? :D Wichtigstes Zitat als Intro: "Alle Benchmarks wurden am Stück Ende Mai bzw. Anfang Juni durchgeführt."

Volle Zustimmung. Bei diesen knappen Differenzen geht es einfach nicht, Benchmarks von anno 2020 zu recyclen. Das führt einfach nur zu fehlerhaften Einordnungen. Und bei diesen Zwischen-Modellen sind halt auch ±3% wichtig.

Hakim
2021-06-09, 16:37:15
Die Frage bleibt halt, wie eine 3080 mit GDDR6 aussehen könnte, mit etwas breiterem SI, 50-60W weniger? :)

GerryB
2021-06-09, 16:54:56
Wow,
Die Gamerock OC kann bis zu 360W maximal ziehen.

Leonidas
2021-06-09, 17:02:24
Da bekommt der Begriff "Midrange Burner" eine ganz neue Bedeutung ...

GerryB
2021-06-09, 17:05:09
Wenn ich bedenke wie viele Out of the Box Player keine Ahnung von Airflow haben, dann ....

Hakim
2021-06-09, 17:17:02
it is time to upgrade, my Pascal friends, er meinte doch sicherlich die Netzteile :)

Radeonfreak
2021-06-09, 17:30:36
Ich bleib dann mal weiterhin bei meiner 2080 TI.

Ex3cut3r
2021-06-09, 17:38:43
Was ein Effizienz Monster. Ganze 4% schneller als eine 2080Ti, aber frisst einfach mal 60 Watt mehr. Was für ein Armutszeugnis vom einzigen Power/Leistungs Meister. Und über die 8GB Mitte 2021 brauchen wir gar nicht sprechen bei einem Neukauf jetzt. Wer sich das antut bei diesem Preisen, der ist sagen wir mal, anders. :freak:

Aber das passt schon...PC Gaming....2021 and counting....macht super viel Spaß.

davidzo
2021-06-09, 17:45:41
Oh man, selbst den RT Joker kann man nicht spielen da da die 8GB RAM nicht reichen bzw. für merklich schlechte frametimes sorgen.


GA104 + 16GB vanilla GDDR6/s und das ganze bei 250Watt TDP wäre die wesentlich rundere karte gewesen. Selbst wenn die dann nur 2% schneller ist als die non-TI wäre das Argument des größeren Speichers, der viel besseren frametimes und min-FPS in den Augen der Enthusiasten die bessere Karte gewesen. Immerhin hätte man dann die 6800 in RT ordentlich distanziert, womit die Karte trotz niedrigerer Rasterizer performance dann doch insgesamt irgendwie äquivalent wäre.
Und da selbst die 3060 12GB VRAM hat und damit mehr als die 3080, weiß ich nicht was dagegen sprechen würde?

GA103 mit 68SM + 320bit GDDR6 FTW! ;D

Rampage 2
2021-06-09, 17:46:34
Immerhin schneller als 'ne Titan RTX - jetzt bitte noch eine 16GB-Variante und das Ding ist gekauft. Anders kann Nvidia diese Karte nicht mehr retten... (auch mit dem RT-Argument ggü. RX 6800 nicht, da zuwenig Speicher)

Der Stromverbrauch interessiert mich nicht, das Ding würde ich eh ohne Strich und Komma übertakten:P

R2

Prinzenrolle
2021-06-09, 17:53:45
Langsamer als eine 6800 und säuft dazu in Relation wie blöde.

Wo ist die Karte denn langsamer?:redface:
In Rasterizing im niedrigen einstelligen Bereich, dafür unter DXR gut 20% schneller.:rolleyes:
Abgesehen von der Stromaufnahme und des knappen Speichers, welcher natürlich als deutlicher Nachteil wiegt.


RT ist aufgrund der lächerlichen 8GiB nicht mehr als ein Scheinargument und dafür braucht es nicht einmal UHD.

Für manche Fanbois ist die Stärke des Konkurrenten immer ein Scheinargument, das gilt wohl auch für dich.
Habe mit meiner RTX 3070 in noch keinem einzigen Spiel bei spielbaren FPS inkl. RT ein Speicherproblem gehabt.


Hab noch nie ein absurderes und überflüssigeres Lineup an Produkten gesehen wie das, was Nvidia hier mit Ampere abzieht.

Das total überflüssige Produkt schlägt aber hinsichtlich der Leistung den Mitbewerber und die Querulanten zerreißen sich mal wieder das Maul und müssen unbedingt einen Kommentar absetzen.

Troyan
2021-06-09, 18:17:39
Ich bezweifle nicht, das es Testberichte gibt, wo die 3070Ti auch mal gut herauskommt. Dieses von SweClockers ist aber ein schlechtes Beispiel, weil:
Treiber 3070Ti: 466.61
Treiber 6800: 2020 20.45.01 beta

Bei diesen knappen Differenzen wird der Treiber genau für diesen beobachteten Unterschied verantwortlich sein.

Bei Techpowerup sind es 4%.

In Metro EE und WoW sind es mit Raytracing in 1440p sind es 28% bzw. 37% Vorsprung der 3070Ti: https://www.pcgameshardware.de/Geforce-RTX-3070-Ti-Grafikkarte-277502/Tests/RTX-3070-Ti-wo-kaufen-Test-RTX-3070-Ti-oder-RTX-3080-1373448/2/#a26

Beide Spiele repräsentieren Raytracing-Games, die in der normalen Auflösung spielbar sind. Wird man noch viel mehr in Zukunft sehen.

GerryB
2021-06-09, 19:07:18
Und Godfall ist auch ganz interessant. (leider net mit HDR bei PCGH)
In 4k geht aber der Vram schon massiv aus.

Prinzenrolle
2021-06-09, 19:11:08
In 4k geht aber der Vram schon massiv aus.

Wäre auch mit doppeltem Speicher kaum mehr spielbar.

Thunder99
2021-06-09, 19:13:35
Wo ist die Karte denn langsamer?:redface:
In Rasterizing im niedrigen einstelligen Bereich, dafür unter DXR gut 20% schneller.:rolleyes:
Abgesehen von der Stromaufnahme und des knappen Speichers, welcher natürlich als deutlicher Nachteil wiegt.



Für manche Fanbois ist die Stärke des Konkurrenten immer ein Scheinargument, das gilt wohl auch für dich.
Habe mit meiner RTX 3070 in noch keinem einzigen Spiel bei spielbaren FPS inkl. RT ein Speicherproblem gehabt.



Das total überflüssige Produkt schlägt aber hinsichtlich der Leistung den Mitbewerber und die Querulanten zerreißen sich mal wieder das Maul und müssen unbedingt einen Kommentar absetzen.
Ist aber war. Die Karte ist nutzlos und verballert mehr Energie ohne wirklichen Mehrnutzen.
Abseits von RT ist eine 6800 immer das bessere Produkt. Und das 8GB zu wenig sind für manche Spiele ist kein Geheimnis, wenn man maximale Details haben möchte.
Regler richten das. Aber dennoch schade wenn die Rohleistung stimmen würde, die Speicher Nachladeruckler den Spielspaß verderben kann.

Linmoum
2021-06-09, 19:39:29
Wo ist die Karte denn langsamer?:redface:
In Rasterizing im niedrigen einstelligen Bereich, dafür unter DXR gut 20% schneller.:rolleyes:
Abgesehen von der Stromaufnahme und des knappen Speichers, welcher natürlich als deutlicher Nachteil wiegt.



Für manche Fanbois ist die Stärke des Konkurrenten immer ein Scheinargument, das gilt wohl auch für dich.
Habe mit meiner RTX 3070 in noch keinem einzigen Spiel bei spielbaren FPS inkl. RT ein Speicherproblem gehabt.



Das total überflüssige Produkt schlägt aber hinsichtlich der Leistung den Mitbewerber und die Querulanten zerreißen sich mal wieder das Maul und müssen unbedingt einen Kommentar absetzen.Ziemlich irrsinniger und an der Realität vorbei verfasster Beitrag. Vielleicht mal vorher damit beschäftigen.

Aber ich gebe dir einen kleinen Tipp: Die Speicherproblematik mit RT erkennt man nicht, wenn man sich nur irgendwelche sinnlosen avg. fps anschaut, wie du es scheinbar tust. Genau das ist der Trugschluss.

Raytracing pushen und beim Speicher knausern passt einfach nicht zusammen.

maximus_hertus
2021-06-09, 19:49:51
Beide Spiele repräsentieren Raytracing-Games, die in der normalen Auflösung spielbar sind. Wird man noch viel mehr in Zukunft sehen.

Dafür braucht man dann die 3070 Ti mit 290+ Watt statt der noch annehmbaren 220W 3070?

Die 3070 Ti ist Schrott by Design.

Klar, aktuell spielt die UVP keine Rolle, aber mal ein Gedankengang:

Die 3070 Ti ist eine Karte für 1080p mit RT. Die Performance erreicht dabei fast das Niveau einer 3060 ohne RT (die 3060 ohne RT ist 0-15% schneller als die 3070 Ti mit RT).
Ergo kosten mich die RT Effekte fast doppelt so viel wie ohne RT (620 Euro zu 330 Euro). Nicht sehr attraktiv.
Dazu der absurde Stromverbrauch.

In Zahlen:
1080p, mit RT, 3070 Ti, 290W, 620 Euro
1080p, ohne RT, sogar etwas mehr fps, 170W, 330 Euro

Also fast doppelter Preis und rund 70% höherer Stromverbrauch.
Nur für RT. Rest identisch. Autsch.

Kein guter Deal.

r3ptil3
2021-06-09, 20:09:32
-sehr stromhungrig
-kein fühlbarer Leistungsunterschied zur RTX 3070
-8Gb VRAM
-Lite Hash Rate

Über die RTX 3080 Ti konnte man sich streiten, hauptsächlich wegen dem hohen Preis, aber 2Gb mehr RAM und doch ein gutes Leistungsplus.
Was kann die RTX 3070 Ti besser als die RTX 3070?
Wirklich erstaunlich dreist und respektlos vom Hersteller gegenüber der Kundschaft.

Thunder99
2021-06-09, 20:22:02
Desaströs ist auch der Vergleich bei 220W Ti vs non Ti. Marginal schneller, oder sogar langsamer ;D

MD_Enigma
2021-06-09, 20:41:57
Selten fiel es uns schwerer, die passenden Worte für ein Produkt zu finden, als bei der Geforce RTX 3070 Ti.
Wär auch mal ein Statement gewesen kein Fazit zu schreiben.

Was soll ich dazu sagen?

Freestaler
2021-06-09, 21:34:45
Das Ding ist doch "Abfall" der Mining Karten. Gibt da doch unter der Hand effiziente MTX 3070 ti für Mining ohne Softwarebremse (*spekulation*). Da macht gddr6x auch Sinn. Und die ineffizienten werden RTX ;-)

Prinzenrolle
2021-06-09, 22:03:51
Ist aber war. Die Karte ist nutzlos und verballert mehr Energie ohne wirklichen Mehrnutzen.

Nutzlos? Die Karte hat knappe 10% mehr Leistung, das ist der Nutzen davon.
Und das reicht definitiv aus, um eine neue Karte zu vermarkten.
Der Stromverbrauch ist den meisten Nutzern doch eh völlig egal - beiden paar Stunden pro Woche wo man zum Zocken kommt.


Abseits von RT ist eine 6800 immer das bessere Produkt. Und dass 8GB zu wenig sind für manche Spiele ist kein Geheimnis, wenn man maximale Details haben möchte.

Die Spiele kann bei spielbaren FPS an einer Hand abzählen.
Die meisten Nutzer wollen letztendlich doch lieber eine Nvidia, weil dort das Featureset u.a. (Rendering) einfach deutlich dicker ist.

Prinzenrolle
2021-06-09, 22:08:30
Ziemlich irrsinniger und an der Realität vorbei verfasster Beitrag.

Total irrsinnig den RT Index von beispielsweise PCGH mit in die Bewertung einfließen zu lassen?:biggrin:
Für dich zählt nur die Disziplin, die dir in den Kram passt.:wink:


Die Speicherproblematik mit RT erkennt man nicht, wenn man sich nur irgendwelche sinnlosen avg. fps anschaut, wie du es scheinbar tust.

Das mache ich nicht. Du schaust dir aber offenbar RT+4K ohne DLSS Benchmarks an und beschwerst dich dann, dass man es nicht mit 20 FPS, sondern nur mit 10 FPS spielen kann.:biggrin:

DrFreaK666
2021-06-09, 22:09:42
...
Die meisten Nutzer wollen letztendlich doch lieber eine Nvidia, weil dort das Featureset u.a. (Rendering) einfach deutlich dicker ist.

Die Meisten wollen Nvidia, weil sie keine Ahnung haben. Ein Freund hat letztens aufgerüstet. Auf die Frage wieso er statt AMD zu Intel gegriffen hat: "hatte schon immer Intel". Und er hat im Vergleich zu anderen Ahnung von der Materie.

Bei seinem Sohn so ähnlich. Er sucht einen PC bis 800€ und hat mir die Komponenten gezeigt. Habe ihm vorgeschlagen zur 5500XT zu greifen statt zur GTX1650 für den gleichen Preis.
"Aber die ist von AMD" :rolleyes:

Viele greifen zu Nvidia weil es schon immer so war und nicht weil sie wirklich Ahnung haben

OpenVMSwartoll
2021-06-09, 22:18:09
Hab gerade mal bei PCGH gelesen.

Abseits des RT müffelt es gelegentlich im Vergleich zur 6800 danach, als würde bei steigenden Auflösungen der Aufwärtstrend leicht gebrochen.

Speichermangel? Oftmals ist die leichte Flaute nicht gravierend, aber es müffelt.

Raff
2021-06-09, 22:39:14
Hab gerade mal bei PCGH gelesen.

Abseits des RT müffelt es gelegentlich im Vergleich zur 6800 danach, als würde bei steigenden Auflösungen der Aufwärtstrend leicht gebrochen.

Speichermangel? Oftmals ist die leichte Flaute nicht gravierend, aber es müffelt.

Grundsätzlich profitiert Ampere von zusätzlichen Pixeln, die Auslastung der vielen FP32-Scheißerchen wird besser. Im Falle der RTX 3070 Ti steht der Entfaltung dank des rasanten Speichersubsystems auch nichts im Weg - keine Ampere-SKU hat mehr GByte/s pro TFLOP. Ergo: Ja, wenn die RTX 3070 Ti mit steigender Auflösung einknickt, deutet das auf Auslagerung von Daten hin. Beim Raytracing passiert das wesentlich öfter als beim Rasterizing. Godfall ist der schlimmste Fall, aber auch Minecraft RTX in UHD (oder alternativ mit mehr Chunks als 16), CoD BO Cold War und Watch Dogs Legion mit HD-Texturen killen die 8 GiByte (mit mehr oder minder gravierenden Auswirkungen auf die Frametimes). In allen Fällen macht eine RTX 3080 die weit bessere Figur.

16 GiByte GDDR6 und 250 Watt TGP: Das wäre ein Killer-Produkt geworden. Sähe aber neben den anderen Karten dämlich aus und würde RAM-Kapazität für ebendiese "klauen".
16 GiByte GDDR6X und 300 Watt TGP: Das wäre für Tuner mit Langzeitnutzungsambitionen ebenfalls geil (so stabil wie bei der RTX 3070 Ti ist Amperes Boost sonst nur bei dicken Customs).

MfG
Raff

Lowkey
2021-06-09, 23:02:30
Die 3070 Ti ist so unbeliebt, dass man morgen sogar eine große Chance hat eine Karte zu kaufen :>

Hakim
2021-06-09, 23:17:06
Die 3070 Ti ist so unbeliebt, dass man morgen sogar eine große Chance hat eine Karte zu kaufen :>

Du weißt doch, in der Not frisst der Teufel fliegen

r3ptil3
2021-06-09, 23:21:40
Die 3070 Ti ist so unbeliebt, dass man morgen sogar eine große Chance hat eine Karte zu kaufen :>

Ich frage mich auch, ob das die erste Grafikkarte ist in dieser Situation, welche auch einige Tage nach Release noch lagernd bleibt.

Miner fallen aus und übrig bleiben die Gamer, mit der Qual der (miesesten) Wahl :freak:

Flyinglosi
2021-06-09, 23:26:07
Schade um die Fertigungskapazität die dafür drauf geht.

OpenVMSwartoll
2021-06-09, 23:56:32
[...]

16 GiByte GDDR6 und 250 Watt TGP: Das wäre ein Killer-Produkt geworden. Sähe aber neben den anderen Karten dämlich aus und würde RAM-Kapazität für ebendiese "klauen".
16 GiByte GDDR6X und 300 Watt TGP: Das wäre für Tuner mit Langzeitnutzungsambitionen ebenfalls geil (so stabil wie bei der RTX 3070 Ti ist Amperes Boost sonst nur bei dicken Customs).

MfG
Raff

Danke Dir für die Antwort. Täuscht der Eindruck also nicht. Übrigens, auch wenn es altmodisch ist: Man merkt, dass in dem Test Arbeit steckt und auf Kritik eingegangen worden ist, somit spürt man auch das Gehirnschmalz.

Raff
2021-06-09, 23:58:56
Danke & gerne. :up:

MfG
Raff

MartinRiggs
2021-06-10, 00:38:00
Schade um die Fertigungskapazität die dafür drauf geht.

Du sagst es, diese Karte ist wirklich der größte Mist überhaupt.
Wie aber schon einige gesagt haben, ich vermute selbst die wird gekauft, zur Not von Gamern die alles andere einfach nicht abbekommen.

Leonidas
2021-06-10, 00:52:57
Bei Techpowerup sind es 4%.

TechPowerup hatte ja auch neuen Treiber ;)

Und dass die Karte in RT eine 6800 abzieht, war nie eine Frage.

GerryB
2021-06-10, 03:06:49
Es sind ja net nur die Treiber, bei manchen Games haben erst neuere DLC´s mehr VRS in use.
z.Bsp. G5 vs. Hivebusters zeigt schon unterschiedliche Ergebnisse.
(hat Ampere in Hivebusters ein Streamingproblem oder woher kommen die schlechten minFps)

dito
DE vs Ancient Gods ...scheint der kleinen Ti net zu schmecken!?

btw.
die 6900ref ist in manchen Games zu sehr im PL, ne Custom mit 335W wie die 3080FE wäre fair,
kein Wunder das Dann in Foren dummes Zeug zum InfinityCache in 4k erzählt wird, weil die Noobs
net den Einfluss vom PL verstehen
Sollte man mal drüber nachdenken, wenn Jetzt die Ti´s mit deutlich größerem PL in den Scores auftauchen.

Raff
2021-06-10, 08:40:44
Die 3080 ist auch hart powerlimitiert.

Wir hatten das ja schon drüben bei der PCGH: Tests mit manuell erhöhtem Powerlimit sind cool, aber im Grunde nichts weiter als Overclocking. Das kann man bei Nvidia-Karten auch. Der gern übersehene Spaßfakt ist, dass manuelles Tuning im Radeon-Treiber offiziell die Garantie erlöschen lässt (nur die Presets rund um "Rage" nicht). Spaßfakt Nr. 2 betrifft den Unterschied zu Nvidia: Dort gibt es zwar kein Tuning-Menü im Treiber - aber alles, was man in Afterburner, Nvidia Inspector & Co. einstellen kann, killt die Garantie einer Founders Edition nicht. Und immer, wenn man auf einer Seite manuell eingreift, müsste man das auch auf der anderen. Fairness. Diskussionen. Teufelskreis. ;)

-> AMD muss selbst eine "XTX" bringen, um in Referenztests berücksichtigt zu werden.

MfG
Raff

Lowkey
2021-06-10, 09:22:12
Ich dachte die XTX kommt als Liquid Edition direkt von AMD?

(laut News vor einigen Tagen)

Legendenkiller
2021-06-10, 09:34:05
Hey Nvidia hat es geschafft GA104 die zu schlecht für eine 3070 sind, weil sie den selben Takt nur mit höherer Spannung schaffen, nutzbar zu recycelt und das sogar noch in einem teueren Produkt.

Nvidia macht da echt gute Arbeit.
Ihr Jop ist es schließlich ihre Aktienbesitzer glücklich zu machen nicht irgendwelche anspruchsvollen Gamer.

Wuge
2021-06-10, 09:53:26
Höhere VID heißt aber besserer Chip ;) Geringere Leakage...

Raff
2021-06-10, 09:57:19
Ich dachte die XTX kommt als Liquid Edition direkt von AMD?

(laut News vor einigen Tagen)

In der News stand, dass ein solches Modell anscheinend geplant war, dann aber leider gecancelt wurde. Die potenten XTH-Chips landen bei den AMD-Boardpartnern, die damit besonders flinke Eigendesigns zum Premiumpreis bauen. Ich würde mich sehr freuen, wenn AMD das nochmal überdenkt. Wird schon, denn bis RDNA 3 ist ja noch viel Zeit und ein RDNA-2-Refresh kommt bestimmt.

MfG
Raff

Troyan
2021-06-10, 10:02:52
TechPowerup hatte ja auch neuen Treiber ;)

Und dass die Karte in RT eine 6800 abzieht, war nie eine Frage.

Doch, da es die leicht schlechtere Leistung beim Rasterizing ausgleicht. Metro EE ist nur noch mit Raytracing spielbar und WoW läuft mit fast 100FPS in 1440p, dass es kein Sinn macht auf Raytracing zu verzichten. In Resident Evil 8 herrscht dann Gleichstand statt deutlichen Vorsprung.

Lowkey
2021-06-10, 10:32:56
In absehbarer Zeit bedeutet Ultra Details dann "mit Raytracing" und es wird nicht mehr differenziert. Selbiges erwarte ich von rBAR.



@Raff :up:

WedgeAntilles
2021-06-10, 10:36:40
Auf die Frage wieso er statt AMD zu Intel gegriffen hat: "hatte schon immer Intel". Und er hat im Vergleich zu anderen Ahnung von der Materie.

Vielleicht hat er sich auch einfach das gekauft, was ihm mehr Frames pro Euro bringt?
PL ist Intel aktuell nämlich vorne. Wobei sich das in den letzten 2 Wochen auch wieder reduziert hat, da AMDs 5600X/5800X etwas günstiger wurde und das RL Equivalent etwas teurer.

Du wirfst den Leuten die nicht AMD kaufen vor blind zu sein und nur die eine Marke zu kaufen - damit hast du sicherlich auch recht.
Selbst darfst du allerdings gerne in den Spiegel schauen, denn offensichtlich bist du genauso blind. Du kaufst AMD, AMD, AMD und machst dich sogar über Intel-Käufer "lustig", obwohl Intel das bessere PL bietet. Jedenfalls im unteren - Midrage Segment.
Gilt natürlich nicht wenn du mehr als 8 Kerne brauchst.
Passt halt nicht wirklich zusammen.

Crazy_Borg
2021-06-10, 11:02:44
Ehrlicherweise verstehe ich die Karte nun überhaupt nicht. Wenn jene die 6800 erreichen würde - okay. Aber so ist das etwas komplett zweckloses. Und niemand brauchte in diesem Zwischenbereich unbedingt noch eine weitere Lösung.
Als Borg muss ich dir da widersprechen. :wink:
Die Karte ist sinnlos, aber nicht zwecklos.

Sie hat für den Gamingmarkt keinen Sinn

kaum schneller
derbe höhere Leistungsaufnahme
immer noch zuwenig RAM

Seinen Zweck erfüllt sie dennoch:

mehr Einnahmen für nVidia
Aktionäre glücklich gemacht durch Neuprodukt-"Launch"
Möglichkeit der Ausbalancierung von GDDR6 und GDDR6X Schwankungen.


Wie schon die 3080TI für nvidia nur eine Möglichkeit mehr den Grundpreis der Karten zu erhöhen, ohne nennenswerten Gewinn für den Kunden...;(

Virtual
2021-06-10, 11:05:08
In absehbarer Zeit bedeutet Ultra Details dann "mit Raytracing" und es wird nicht mehr differenziert. Selbiges erwarte ich von rBAR.



@Raff :up:
"Ultra Details" nur genau dann "mit Raytracing", wenn der die "Ultra Details" Auswahl im Spiel auch genau das impliziert: "mit Raytraycing"

Bei UE5 basierten Games wird "mit Raytracing" nicht notwendigerweise in den "Ultra Details" enthalten sein. GI geht auch ohne RT verblüffend realistisch und der Schwerpunkt für "Ultra Details" wird sicherlich an anderer Stelle liegen und eben nicht zwingend RT implizieren.

r3ptil3
2021-06-10, 11:31:31
Aktionäre glücklich gemacht durch Neuprodukt-"Launch"
(

Der Aktienkurs wurde tatsächlich besser, der springende Punkt für die Investoren war jedoch vor allem die Tatsache, dass das Produkt wohl auf die Stammkundschaft ausgerichtet wurde.

Preise der RTX 3080 Ti fallen hier in der CH übrigens, beinahe auf RTX 3080 Niveau.

Leonidas
2021-06-10, 11:47:18
Meanwile in Japan ...
https://twitter.com/hermita_akiba/status/1402892921028825088

https://pbs.twimg.com/media/E3gTqe1VkAIQoBb?format=jpg

Raff
2021-06-10, 11:50:34
Kampieren neben einem Vega-Logo (aber aktuellem Radeon-Logo-Font - oder?). Und ich dachte, die kaufen nur Konsolen von einheimischen Herstellern. :biggrin:

MfG
Raff

GerryB
2021-06-10, 12:00:59
Die Karte ist sinnlos, aber nicht zwecklos.

derbe höhere Leistungsaufnahme
mehr Einnahmen für nVidia


Eigentlich könnte NV auch noch gut eigene NT´s Damit vermarkten:
It`s time to buy, now!

Das Raff sich sogar noch für die 3080 ein höheres PL wünscht, passt eigentlich ganz gut Dazu.
(als ob net 320W TDP=335W real, schon sinnlos genug wären)

Manche Leute sollten sich mal in ein kleines Homeoffice/Kinderzimmer setzen und 3h spielen.

Raff
2021-06-10, 12:15:05
Wo "wünsche" ich mir denn irgendwas? :confused:

Beste Grüße aus dem elektrisch-warmen 16-mm²-Homelab,
Raff

Rampage 2
2021-06-10, 12:32:31
Wozu die Karte GDDR6X braucht, wird wohl nur nVidia wissen. Nirgendwo wirklich schneller als die Rechenleistung.

Dabei hatte ich gerade bei der 3070 Ti einen größeren Performanceschub durch den deutlich schnelleren GDDR6X-Speicher erwartet, weil ich annahm, dass die reguläre 3070 an ihren lächerlichen 448GB/sek. Bandbreite verhungert. Daher ging ich davon aus, dass die 3070 Ti überproportional stark mit der erhöhten Bandbreite skaliert. Dem scheint aber nicht so zu sein - hat einer von den Gurus hier vielleicht eine Erklärung dafür? :confused:

Füllrate: genug vorhanden
Rasterizer/Geometrie-Leistung: genug vorhanden
Rechenleistung: im Überfluss vorhanden
Bandbreite: genug vorhanden (in Relation zur Rechenleistung)
Speichermenge: an Lächerlichkeit & Erbärmlichkeit kaum noch zu unterbieten

Und trotzdem nur 10% schneller als die reguläre 3070... da stimmt doch etwas nicht:|

Die 8GB reichen nicht mal für maximale Texturdetails in Legion ohne RT...

In 4K oder auch in 1440p?

Grundsätzlich profitiert Ampere von zusätzlichen Pixeln, die Auslastung der vielen FP32-Scheißerchen wird besser.

Reicht im Falle der 3070/3070 Ti schon 1440p, um die ALUs auszulasten? Beim GA102 (3080/Ti/3090) ist ja mindestens 4K erforderlich, aber die haben ja auch 1536 CUDA-Cores pro GPC - GA104 hat "nur" 1024 und ist damit kompakter und weniger stark aufgeblasen. Sollte in der Theorie also auch in niedrigeren Auflösungen (1440p aufwärts) gut auszulasten sein?


Im Falle der RTX 3070 Ti steht der Entfaltung dank des rasanten Speichersubsystems auch nichts im Weg - keine Ampere-SKU hat mehr GByte/s pro TFLOP.

Siehe mein Kommentar bezogen auf Troyan's Zitat am Anfang dieses Postings. Hast du eine Erklärung dafür, warum die 3070 Ti so schlecht mit der Bandbreite skaliert?


16 GiByte GDDR6 und 250 Watt TGP: Das wäre ein Killer-Produkt geworden. Sähe aber neben den anderen Karten dämlich aus und würde RAM-Kapazität für ebendiese "klauen".
16 GiByte GDDR6X und 300 Watt TGP: Das wäre für Tuner mit Langzeitnutzungsambitionen ebenfalls geil (so stabil wie bei der RTX 3070 Ti ist Amperes Boost sonst nur bei dicken Customs).


+1

Nvidia braucht nur diesen einen Move zu gehen und sofort wird aus dem Schrott-Produkt ein Super-Produkt. Leistung hat sie genug für ihr Segment und ihr Einsatzgebiet; das einzige KO-Kriterium ist der zu kleine Grafikspeicher. So wie wir Nvidia kennen, werden sie sich wohl nicht zu diesem Schritt durchringen können, aber Träumen kostet ja nichts...:redface:

R2

WedgeAntilles
2021-06-10, 12:39:02
+1

Nvidia braucht nur diesen einen Move zu gehen und sofort wird aus dem Schrott-Produkt ein Super-Produkt. Leistung hat sie genug für ihr Segment und ihr Einsatzgebiet; das einzige KO-Kriterium ist der zu kleine Grafikspeicher. So wie wir Nvidia kennen, werden sie sich wohl nicht zu diesem Schritt durchringen können, aber Träumen kostet ja nichts...:redface:

R2

Das gilt ja eigentlich auch für die 3070 + 3080.
Jeweils doppelter Speicher und wir hätten klasse Produkte. (3080 bisschen runtertakten für den besseren Sweetspot.)
Oder wenigstens 50% mehr Speicher, das hätte eigentlich auch gereicht.

Lowkey
2021-06-10, 12:52:51
"Ultra Details" nur genau dann "mit Raytracing", wenn der die "Ultra Details" Auswahl im Spiel auch genau das impliziert: "mit Raytraycing"

Bei UE5 basierten Games wird "mit Raytracing" nicht notwendigerweise in den "Ultra Details" enthalten sein. GI geht auch ohne RT verblüffend realistisch und der Schwerpunkt für "Ultra Details" wird sicherlich an anderer Stelle liegen und eben nicht zwingend RT implizieren.

Es gibt natürlich einen Übergang, aber neuere Updates und Spiele zeigen nun den Trend zu ähnlicher RT Performance und optischer Aufbesserung.

Käufer schreiben oft "Maximale Details" beim Rechner Neukauf, aber meinen dann schon die höchsten Einstellungen (auch wenn es nicht immer sinnvoll sei).

Also es kommt und es bleibt eine Frage der Zeit. Würde es RT fähige Grafikkarten im Einsteigerbereich geben, dann würde die Entwicklung zu RT als fester Bestandteil der Grafikdetailschalter schneller voranschreiten.

GerryB
2021-06-10, 14:02:33
Wo "wünsche" ich mir denn irgendwas? :confused:

Beste Grüße aus dem elektrisch-warmen 16-mm²-Homelab,
Raff
Die 3080 ist auch hart powerlimitiert.



Kann zwar net mit Ameisenmäßigen mm² dienen, nur 10m² machen aber auch schon hot-te Geschichten net zweckmäßig bei mir.

Flusher
2021-06-10, 14:29:27
Meanwile in Japan ...
https://twitter.com/hermita_akiba/status/1402892921028825088

https://pbs.twimg.com/media/E3gTqe1VkAIQoBb?format=jpg

/OT

lol - in genau jenem store war ich 2016 während einer Akihabara Erkundungstour :freak:

Meine Fotos sagen: damals war Intel noch dominierend und haufenweise Z170 Bretter ausgestellt.

Asaraki
2021-06-10, 14:35:19
Kann zwar net mit Ameisenmäßigen mm² dienen, nur 10m² machen aber auch schon hot-te Geschichten net zweckmäßig bei mir.

10m2 ist halt auch nur ein Lowrange Zimmer :D

Sprach er aus dem 3080-geheizten Dackstockzimmer :D

Lowkey
2021-06-10, 14:41:48
NBB ist schon langsamer als wie vor 30mins. (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=602368&page=187)

Slipknot79
2021-06-10, 22:34:30
Meanwile in Japan ...
https://twitter.com/hermita_akiba/status/1402892921028825088

https://pbs.twimg.com/media/E3gTqe1VkAIQoBb?format=jpg


THE MOAR YOU BUY, THE MOAR YOU WAIT. :redface:

Ultron
2021-06-10, 23:03:28
An der Karte sieht man mal wieder wie verzweifelt nVidia aktuell ist, AMD ist gerade absolut führend was Effizienz angeht. Wie soll man so ein Chip in ein Notebook einbauen? Und das Ding ist ja nicht mal schnell. Die VRam Größe für den Preis schießt den Vogel ab :D

nVidia braucht dringend ne bessere Fertigung...

btw, hab gerade meine 3080 in eine 6900 XT getauscht. Bin gespannt =)

r3ptil3
2021-06-10, 23:09:21
btw, hab gerade meine 3080 in eine 6900 XT getauscht. Bin gespannt =)

Aber hoffentlich noch einen ordentlich Betrag erhalten, weil die RTX 3080 für deutlich mehr weggeht...

WedgeAntilles
2021-06-10, 23:14:19
An der Karte sieht man mal wieder wie verzweifelt nVidia aktuell ist, AMD ist gerade absolut führend was Effizienz angeht. Wie soll man so ein Chip in ein Notebook einbauen? Und das Ding ist ja nicht mal schnell. Die VRam Größe für den Preis schießt den Vogel ab :D

nVidia braucht dringend ne bessere Fertigung...

btw, hab gerade meine 3080 in eine 6900 XT getauscht. Bin gespannt =)

Aha. Nvidia ist verzweifelt.
Wieso genau? Weil sie zuviel verdienen? Zu viel Marktanteil gewinnen?
Du schreibst es doch sgoar selber - die VRam Größe für den Preis.
Nvidia kann sich das leisten - weil sie genau das Gegenteil sind von verzweifelt.
Sämtliche Produkte werden ihnen aus der Hand gerissen.
Die Produkte gehen sogar für absurde Preise weg (auch wenn Nvidia das wenig bringt)
Der Marktanteil steigt.

Ja, so verzweifelt will sicher jede Firma sein.

Manche Leute... :rolleyes:

gedi
2021-06-11, 00:22:07
Aha. Nvidia ist verzweifelt.
Wieso genau? Weil sie zuviel verdienen? Zu viel Marktanteil gewinnen?
Du schreibst es doch sgoar selber - die VRam Größe für den Preis.
Nvidia kann sich das leisten - weil sie genau das Gegenteil sind von verzweifelt.
Sämtliche Produkte werden ihnen aus der Hand gerissen.
Die Produkte gehen sogar für absurde Preise weg (auch wenn Nvidia das wenig bringt)
Der Marktanteil steigt.

Ja, so verzweifelt will sicher jede Firma sein.

Manche Leute... :rolleyes:

Ich möchte bezweifeln, dass 16GB GDRR5 sehr viel teurer sind als 8GB GDDR5X

Sämtliche Produkte werden Ihnen aus der Hand gerissen - trifft wohl auf beide IHVs zu, Zudem gibt es Dumme überall.

Da der Bitcoin gerade am sinken ist, sollten auch die grünen Jungs etwas zu einem moderaten Preis abbekommen ...

Linmoum
2021-06-11, 00:48:13
Aha. Nvidia ist verzweifelt.
Wieso genau? Weil sie zuviel verdienen? Zu viel Marktanteil gewinnen?
Du schreibst es doch sgoar selber - die VRam Größe für den Preis.
Nvidia kann sich das leisten - weil sie genau das Gegenteil sind von verzweifelt.
Sämtliche Produkte werden ihnen aus der Hand gerissen.
Die Produkte gehen sogar für absurde Preise weg (auch wenn Nvidia das wenig bringt)
Der Marktanteil steigt.

Ja, so verzweifelt will sicher jede Firma sein.

Manche Leute... :rolleyes:In der Tat manche Leute. :rolleyes:

Die 3070Ti führt nur fort, was schon mit der 3080 begonnen hat und damals konnte Nvidia die aktuelle Marktsituation nicht voraussehen. Oder wann hat Nvidia zuletzt bei ihren GPUs die Leistungsaufnahme in absurden Zügen gesprengt und die Effizienz komplett gekillt für wenige Porzente an Mehrleistung - und schafft es (teilweise) sogar damit nicht einmal, die Konkurrenz zu schlagen?

Produkte an die Kotzgrenze out of the box prügeln hat exakt zwei Gründe:

1. Man will um jeden Preis mit der Konkurrenz irgendwie mithalten können.
2. Man will um jedem Preis die Konkurrenz minimalst in den Balkendiagrammen der Reviewer schlagen, und wenn es nur diese 3-5% sind, für die man die Effizienz geopfert hat.

AMD hat es lange gemacht, Intel macht es seit längerem und NV hat jetzt mit Ampere damit angefangen.

OpenVMSwartoll
2021-06-11, 01:39:54
Der Stern sinkt derzeit doch eher als zu steigen. Die Reviewer fühlen sich mittlerweile veräppelt, das hat Leo doch schön dargestellt, (Edit) Raff hat zum Ausdruck gebracht, dass das Produkt ihn nicht begeistert.

Derzeit geht alles, was am Markt verfügbar ist, weg. Einfach weil der Markt leer ist und einige im Zuge der Corona-Krise nicht wussten, was sie an Hobbies noch ausüben können. Der R-Wert sinkt, Mining - zumindest von ETH - wird unattraktiver.

Im Gegenzug hat man ein teures Produkt mit schlechter Effizienz, zu wenig Speicher und einen evtl. unpassenden Speichertyp, der nüchtern betrachtet nicht viel Mehrwert bringt.

Bei NV bleiben auf der Positivliste noch DLSS, dessen Zukunft wackeln könnte und eine bessere RT-Leistung. Einige Titel laufen jedoch bei AMD auch recht fluffig.

Die Zukunft bleibt spannend.

Prinzenrolle
2021-06-11, 07:17:19
Die 3070Ti führt nur fort, was schon mit der 3080 begonnen hat und damals konnte Nvidia die aktuelle Marktsituation nicht voraussehen.

AMD konnte auch nicht vorhersehen, dass Nvidia auf den RT Zug aufspringt.


Oder wann hat Nvidia zuletzt bei ihren GPUs die Leistungsaufnahme in absurden Zügen gesprengt und die Effizienz komplett gekillt...

Nvidia ist über den Daumen gepeilt unter Rasterization ~10% ineffizienter und unter RT effizienter. "Komplett gekillt" sieht anders aus.

Nvidia wollte auch unter Rasterization leicht vorne sein, dafür verzichtete man auf etwas Effizienz, zudem fertigen sie auch in einem nachweislich schlechteren Prozess.


1. Man will um jeden Preis mit der Konkurrenz irgendwie mithalten können.

Man kann mit der Konkurrenz so oder so "mithalten".
Die 3090 hätte man auch mit 275Watt TDP betreiben können.
Nur dann hätte die GPU eben 3080Ti geheißen und wäre mit der 6900XT in Rasterizing gleichauf.


Man will um jedem Preis die Konkurrenz minimalst in den Balkendiagrammen der Reviewer schlagen, und wenn es nur diese 3-5% sind, für die man die Effizienz geopfert hat.

Psychologisch ist das sehr wichtig, wobei es ja nicht nur 3 bis 5% sind, sondern durchaus auch mal 50%, aber RT läuft ja unter Ferner Liefen.

Thunder99
2021-06-11, 08:23:19
Die Benutzung von GDDR6X verhagelt halt die Effizienz, schade...

Raff
2021-06-11, 08:42:14
Moin! =)

Der Stern sinkt derzeit doch eher als zu steigen. Die Reviewer fühlen sich mittlerweile veräppelt, das hat Leo doch schön dargestellt, Raff hat aus seinem Herzen keine Mördergrube gemacht (das kürze ich, falls es Dir aufstößt, aber so war meine Wahrnehmung).

Nah, du musst natürlich nix kürzen - ich verstehe die Aussage nur nicht. Wat? :biggrin:

Bei NV bleiben auf der Positivliste noch DLSS, dessen Zukunft wackeln könnte und eine bessere RT-Leistung. Einige Titel laufen jedoch bei AMD auch recht fluffig.

Die Zukunft bleibt spannend.

Ich schätze, dass DLSS so schnell nicht verschwinden wird. Das ist eben erst den Geburtswehen entwachsen und erkundet die Welt. UE4 hat's, UE5 bekommt's, Unity hat's mittlerweile auch - et cetera. Nvidia wird weiter daran arbeiten und es als "RTXklusives" Feature pushen. Solange nichts erscheint, das DLSS zweifellos überlegen ist (Performance und/oder Qualität), wird es DLSS in neuen Iterationen geben.

MfG
Raff

Prinzenrolle
2021-06-11, 08:45:44
Kann zwar net mit Ameisenmäßigen mm² dienen, nur 10m² machen aber auch schon hot-te Geschichten net zweckmäßig bei mir.

Wohnst du in einem Tiny-House?:smile:

r3ptil3
2021-06-11, 11:14:54
In der CH gingen heute früh einige RTX 3070 Ti (Gainward) für umgerechnet knapp 620 Euro weg.

Die Käufer dürften jetzt wohl richtig glücklich sein.

blaidd
2021-06-11, 12:25:53
AMD konnte auch nicht vorhersehen, dass Nvidia auf den RT Zug aufspringt.

Die sind doch genauso wie Nvidia an der Direct-X-Entwicklung beteiligt^^ Irgendwann werden die schon gemerkt haben, dass da Raytracing kommt.

WedgeAntilles
2021-06-11, 12:35:47
Bei NV bleiben auf der Positivliste noch DLSS, dessen Zukunft wackeln könnte

Keine Ahnung wie man zu dieser Prognose kommt?
DLSS hat sich qualitativ in den letzten 2 Jahren massiv entwickelt und ist atemberaubend.
Die Anzahl der Titel die DLSS anbieten steigt rasant an (war allerdings auf einem sehr niedrigen Niveau).

Wie man da auf die Idee kommt die Zukunft könnte wackeln ist doch eine recht abenteuerliche Schlussfolgerung.

Sieht man doch auch daran, dass AMD mit einer bisher technisch erbärmlcihen FSR Lösung versucht dagegenzuhalten.

DLSS wird immer einfacher zu implementieren, wird von mehr und mehr Enginges unterstützt, bringt bei quasi keinem Bildverlust einen Performancezuwachs von 50-60%.
In Babylon 5 sagte ein TechnoMagier einmal, dass Technologie die weit genug fortgeschritten ist von Magie nicht zu unterscheiden sei.
DLSS kommt dieser Aussage verdammt Nahe.

Heute kann man noch auf DLSS verzichten, da die Menge der Spiele immer noch überschaubar ist. (Falls du sowieso alle 2 Jahre eine neue GraKa kaufst.)

Aber DLSS ist die Zukunft - nicht in 5 Jahren sondern viel früher.
AMD muss nachlegen, sonst sind sie in wenigen Jahren weg vom Fenster.

r3ptil3
2021-06-11, 12:48:40
DLSS hat sich qualitativ in den letzten 2 Jahren massiv entwickelt und ist atemberaubend.

Manchmal kommt's mir vor gewisse Leute denken, DLSS sei eine Option, mit der man die Grafikqualität erhöhen kann.

DLSS sollte eigentlich für HW-Enthusiasten grundsätzlich ein Tabu-Thema sein. Ich schaue immer, dass ich irgendwo an den Einstellungen was runterschrauben kann, bevor ich überhaupt nur mal an die DLSS Option denken muss.

JVC
2021-06-11, 13:20:41
Die Anzahl der Titel die DLSS anbieten steigt rasant an (war allerdings auf einem sehr niedrigen Niveau).

Wie man da auf die Idee kommt die Zukunft könnte wackeln ist doch eine recht abenteuerliche Schlussfolgerung.
DLSS benötigt doch Tensorkerne ... was eigentlich ein Profizeug ist...
Mit DLSS hat man doch nur einen Verwendungszweck gesucht und "gefunden"...

Ich würde mich eher wundern, wenn die "Profikerne" in den Gaming GPUs für immer bleiben...

M.f.G. JVC

Raff
2021-06-11, 13:26:14
Die sind doch genauso wie Nvidia an der Direct-X-Entwicklung beteiligt^^ Irgendwann werden die schon gemerkt haben, dass da Raytracing kommt.

This. Niemand weiß, wie das genau abgelaufen ist, aber vermutlich war Nvidia die treibende Kraft, die alles direkt in Hardware gegossen hat, als der Entwurf stand. Bei AMD wirkt das noch so ein bisschen wie 'ne lästige Pflichtübung, ein Checklistenfeature, aber nicht zuende gedacht. Hoffentlich wird mit FSR ein Teil besser und mit RDNA 3 dann alles geil. Dann steht der Grafik-Revolution nicht mehr viel im Weg. =)

Manchmal kommt's mir vor gewisse Leute denken, DLSS sei eine Option, mit der man die Grafikqualität erhöhen kann.

DLSS sollte eigentlich für HW-Enthusiasten grundsätzlich ein Tabu-Thema sein. Ich schaue immer, dass ich irgendwo an den Einstellungen was runterschrauben kann, bevor ich überhaupt nur mal an die DLSS Option denken muss.

Das solltest du bei Gelegenheit mal überdenken. Der Gag aka "Black Magic" ist ja, dass DLSS einige Bildteile aufwertet wie hochstufiges Supersampling (https://www.pcgameshardware.de/Outriders-Spiel-67711/Specials/Benchmark-Test-DLSS-DirectX-12-1370185/#a2) - und dabei trotzdem stark beschleunigt. Wenn es Nvidia hinbekommt, dass die qualitativen Downsides anderer Bildteile kleiner werden oder gar verschwinden, führt kein Weg an DLSS vorbei.

MfG
Raff

WedgeAntilles
2021-06-11, 14:14:39
DLSS benötigt doch Tensorkerne ... was eigentlich ein Profizeug ist...
Mit DLSS hat man doch nur einen Verwendungszweck gesucht und "gefunden"...

Ich würde mich eher wundern, wenn die "Profikerne" in den Gaming GPUs für immer bleiben...

M.f.G. JVC
Und die Alchemisten haben statt Gold Porzellan hergestellt.
Hatte nix mit dem eigentlichen Ziel zu tun, aber warum sollte man Porzellan deswegen nicht verwenden?

Woher DLSS kommt ist doch egal?
Es funktioniert genial und ist offensichtlich bezahlbar.

Wieso sollte ich ein Feature, das - falls vom Spiel unterstützt - mir 50% Frames mehr liefert wieder entfernen?

Schon bei dem aktuellen Stand von DLSS sind die Teile in denen die Bildqualität schlechter wird gering. Der Trade-Off zwischen hier und da mal Kleinigkeiten die schlechter ausshenen gegenüber 50% (und aufwärts) mehr Performance ist bereits heute phantastisch.
Vor allem weil es ja sogar noch Stellen gibt die BESSER aussehen.

Man braucht sich nur selber mal z.B. Cyberpunk anschauen.
Oder eine Bewertung von jemanden durchlesen, der nicht gerade seine Seele an AMD verkauft hat. Da sind alle von dem was DLSS bei CP leistet begeistert.

Zu glauben DLSS würde verschwinden oder wäre für die meisten Leute unwichtig ist - Entschuldigung - einfach pure Phantasterei. Bzw. reine Wirklichkeitsverleugnung weil AMD es eben nicht hat.

Wird es DLSS in 20 Jahren noch geben? Das weiß keiner, vielleicht gibt es da dann effektivere Methoden.
Oder wir haben ein Holodeck.

Aber auf absehbare Zeit wird DLSS DAS Feature überhaupt.
Wie gesagt, noch nicht Stand heute, dazu gibt es nicht genug Spiele dafür.
Aber ich sage auch nicht: Pah, Playstation 5, da gibt es doch nur 2 Spiele, das Ding ist bald weg.

Thunder99
2021-06-11, 14:26:50
Meine Prognose ist, DLSS wird sterben und FSR wird überall implementiert. Warum? Konsolen ;), oder Nvidia wird immer drauf zahlen damit es weiterhin verwendet wird.

Es gewinnt nicht immer die bessere Technologie, siehe MP3 Format für Musik.

hq-hq
2021-06-11, 15:06:45
Meine Prognose ist, DLSS wird sterben und FSR wird überall implementiert. Warum? Konsolen ;), oder Nvidia wird immer drauf zahlen damit es weiterhin verwendet wird.

Es gewinnt nicht immer die bessere Technologie, siehe MP3 Format für Musik.

wie, keinen Betamax oder Video2000 mehr im Einsatz :biggrin:

solang auf dem PC gezockt wird, solang wird DLSS erstmal nicht sterben würd ich sagen

OpenVMSwartoll
2021-06-11, 15:37:32
Keine Ahnung wie man zu dieser Prognose kommt?
DLSS hat sich qualitativ in den letzten 2 Jahren massiv entwickelt und ist atemberaubend.
Die Anzahl der Titel die DLSS anbieten steigt rasant an (war allerdings auf einem sehr niedrigen Niveau).

[...]
DLSS wird immer einfacher zu implementieren, wird von mehr und mehr Enginges unterstützt, bringt bei quasi keinem Bildverlust einen Performancezuwachs von 50-60%.
In Babylon 5 sagte ein TechnoMagier einmal, dass Technologie die weit genug fortgeschritten ist von Magie nicht zu unterscheiden sei.
DLSS kommt dieser Aussage verdammt Nahe.
[...]
Aber DLSS ist die Zukunft - nicht in 5 Jahren sondern viel früher.
AMD muss nachlegen, sonst sind sie in wenigen Jahren weg vom Fenster.

Zum Technomagier: Ich liebe Babylon 5 (nur Staffel 5 nicht), aber die Aussage stammt von Arthur C. Clarke: "„Jede hinreichend fortgeschrittene Technologie ist von Magie nicht mehr zu unterscheiden.“

Wie ich darauf komme: DLSS ist eine Blackbox für den Entwickler. Zweifellos ne geile Technik, aber man hängt vom Support von NV ab. FSR ist nicht das Gleiche, kann es nicht sein, weil der Ansatz simpler ist. Bin jetzt nicht sicher - vielleicht kann mir hier jemand auf die Sprünge helfen - ob DLSS pro Spiel oder Engine optimiert werden muss.

Aber offene Ansätze - gerade wenn man wie AMD auch die Konsolen unterstützen kann - setzen sich eher durch.

incM
2021-06-11, 20:05:12
Die Produkte gehen sogar für absurde Preise weg (auch wenn Nvidia das wenig bringt)


Das bringt ihnen so wenig das sich die Umsätze im Grafikkartenbereich verdoppelt haben und die Gewinne astronomisch angestiegen sind.
Die Ärmsten!!!! Ich hole mir mal einen Salzstreuer mit Mitleid...

WedgeAntilles
2021-06-15, 10:52:39
Das bringt ihnen so wenig das sich die Umsätze im Grafikkartenbereich verdoppelt haben und die Gewinne astronomisch angestiegen sind.
Die Ärmsten!!!! Ich hole mir mal einen Salzstreuer mit Mitleid...

Du willst (oder kannst?) es nicht begreifen, weil dich Zahlen offensichtlich überfordern.
Ist nicht schlimm, allerdings verstehe ich nicht warum man sich bei diesem Thema dann nicht raushält?
Natürlich verdient Nvida gut - aber Nvidia würde genauso gut verdienen wenn die Straßenpreise grob gesagt nur halb so hoch wären.
Darum geht es ja, dass die "Überpreise" über der UVP für Nvidia den Gewinn nicht steigert. Ob bei Mindfactory die 3070 für 600 Euro verkauft wird oder für 1300 Euro ist in den Bilanzen von Nvidia nicht zu sehen, da es keinerlei Unterschied für Nvidia macht.


OpenVMS: Danke für die Korrektur mit dem Zitat!

Asaraki
2021-06-15, 10:58:05
Und ich Narr wollte was über die 3070Ti lesen.... ha, Asa! So lange dabei und nix gelernt.
Natürlich geht es um DLSS....

Gäbe es da nicht einen Thread? O__________O

Rampage 2
2021-06-15, 14:26:23
Wieviel kostet eigentlich 8GB GDDR6- bzw. 8GB GDDR6X-Speicher, wenn es in Massen (also inkl. Mengenrabatt) gekauft wird?

R2

dargo
2021-06-20, 10:00:24
Die volle Begeisterung ist geradezu spürbar.
:tongue:

Die Karte hat halben Speicher einer RX6800 und ist beim Rasterizer in 1440p laut CB minimal langsamer bei 58W mehr Verbrauch. Man könnte die RTX 3070TI schon als einen Fail bezeichnen, zumindest beim Gaming.

btw.
Ist die 3070TI nun der eindeutige Beweis, dass GDDR6X säuft wie Hölle? Oder gibt es andere Erkenntnisse? Habe den Release nicht wirklich verfolgt.

An der Karte sieht man mal wieder wie verzweifelt nVidia aktuell ist, AMD ist gerade absolut führend was Effizienz angeht. Wie soll man so ein Chip in ein Notebook einbauen? Und das Ding ist ja nicht mal schnell. Die VRam Größe für den Preis schießt den Vogel ab :D

nVidia braucht dringend ne bessere Fertigung...

So wie ich das sehe liegt der große Stromverbrauch nicht hauptsächlich an der Fertigung. Man sieht ja recht gut an der RTX 3070, dass Nvidia den Stromverbrauch noch relativ gut bei der Karte in Schacht halten kann. Ich würde eher sagen Nvidia braucht ein deutlich effizienteres Design beim Nachfolger und zwar ohne GDDR6X! Nur welche Möglichkeiten hat man hier? 512Bit SI wird höchstwahrscheinlich auch enorm fressen. Ob da beim Nachfolger auch eine Art Infinity Cache bei Nvidia kommt? :uponder: Momentan sehe ich da keine andere Möglichkeit, es sei denn Nvidia peilt beim Nachfolger Topdog 400W an. :freak:

Wenn es Nvidia hinbekommt, dass die qualitativen Downsides anderer Bildteile kleiner werden oder gar verschwinden, führt kein Weg an DLSS vorbei.

Wenn das große "wenn" nicht wäre. Über ungelegte Eier ist es schwierig zu diskutieren. Ich gehe jedenfalls nicht davon aus, dass DLSS oder ähnliche Techniken irgendwann ohne Nebenwirkungen funktionieren werden. Schon gar nicht wenn der Input beim Pixelcount deutlich abweicht. Was ich mir sehr gut vorstellen kann ist, dass wenn wir irgendwann einen bsw. 8k 27" Bildschirm auf dem Schreibtisch stehen haben es keiner Renderauflösung von 8k bedarf. Sondern bsw. 4-6k. Aber das ist alles noch Zukunftsmusik über die wir vielleicht in 5+ Jahren diskutieren werden.

btw.
Was ist eigentlich der Grund, dass Nvidia bei DLSS 2.0 kein besseres Setting als Quality bietet? Besonders unterhalb 4k (bsw. 1440p) fände ich ein SQ-Setting (Super Quality oder so) interessant wo die Renderauflösung anstatt 960p 1080p beträgt. Gerade im Hinblick auf Artefaktenbildung durch DLSS würde mich interessieren ob jene spürbar abnimmt.

Frage im richtigen Thread gestellt.

Ex3cut3r
2021-06-20, 10:59:18
EDIT: Sry falsch verstanden.

Thunder99
2021-06-20, 12:17:00
@dargo:

Es ist anscheinend der Controller, wo säuft. Gibt irgendwo ein Vergleich bzw Analyse?

hq-hq
2021-06-20, 12:21:20
DLSS funktioniert schon jetzt sehr gut, nicht erst in der Zukunft

wenn ihr es mal selbst gesehen hättet - z.B. in Mechwarrior 5

nachlesen ist gewünscht: https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/2/

Thunder99
2021-06-20, 12:31:52
DLSS funktioniert schon jetzt sehr gut, nicht erst in der Zukunft

wenn ihr es mal selbst gesehen hättet - z.B. in Mechwarrior 5

nachlesen ist gewünscht: https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/2/
Es muss und wird weiterhin verbessert (werden). Siehe DLSS 2.1 und 2.2. Unter anderem wegen:
Hin und wieder unterliegt DLSS dem Ingame-TAA jedoch, zumindest mit aktivem Raytracing. Einige Lichtspiele scheinen den Algorithmus durcheinander zu bringen, sodass das Bild unruhiger wird. Anscheinend arbeiten DLSS und das RT-Denoising phasenweise gegen- statt miteinander. Diese Grieß-Effekte (Noise) bei aktivem DLSS sind jedoch die Ausnahme und grundsätzlich geringer als mit dem früheren DLSS des Spiels. Quelle PCGH (https://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Specials/Mechwarrior-5-DLSS-Test-Control-DLSS-Test-1346257/2/)

hq-hq
2021-06-20, 18:50:26
Control gabs ja kostenlos bei Epic, habs noch nicht installiert.

Bei Mechwarrior 5 muss IMO nichts verbessert werden, ich finde es sehr überzeugend.

In dieser Qualität ist es bereits jetzt richtig klasse und sieht IMO besser aus als nativ (ohne sharpening).

Es muss in der Breite der Spiele ankommen, ist viel wichtiger als das Gezeter >mi mi mi aber hier und da ist es nicht ganz so toll wie nativ<

WedgeAntilles
2021-06-20, 20:06:10
Es muss in der Breite der Spiele ankommen, ist viel wichtiger als das Gezeter >mi mi mi aber hier und da ist es nicht ganz so toll wie nativ<
DLSS kommt nicht von AMD, damit ist es per Definition für viele hier zu verdammen.
Das sind nicht ernstzunehmende Clowns die ähnlich "wertvolle" Beiträge haben wie jene Fanatiker, die jedes Wort einer heiligen Schrift wortwörtlich auslegen.

Wichtig ist wie du sagst die Verbreitung, und die wird in den nächsten 2 Jahren gewaltig steigen. Riesiges Leistungsplus bei quasi keinen Einbußen, einfacher werdende Implementierung, mehr und mehr Engines die es unterstützten - dass führt quasi zwangsläufig zu einer großen Zunahme der Spiele.
Und gleichzeitig steigt ja die Verbreitung von DLSS fähigken GraKas.
Das war vor 1,2 Jahren alles noch etwas anders, daher bisher eben auch nicht sonderlich viele Spiele die das haben.
Aber es hat seine Funktion bewiesen und wird sich bei zukünftigen Spielen schnell verbreiten. Natürlich nicht gleich in den nächsten 6 Monaten, Software hinkt ja immer etwas hinterher.

Thunder99
2021-06-21, 13:09:22
Ich sehe es neutral. Hab den Artikel gelesen und bin der Meinung es muss weiter verbessert werden. Aber was es bis jetzt in Version 2.x kann ist teilweise echt gut.

Der Ansatz macht vieles richtig. Bin gespannt wie es weiterentwickelt wird :).

The_Invisible
2021-06-27, 15:49:57
Hab meine (3070 Ti Suprim X) nun ein paar Tage im Einsatz und bin gemischter Gefühle. (Habe vom Händler einen guten Preis bekommen der unter 3070 lag, warum also nicht hab ich mir gedacht).

Die Rohperformance ist schon sehr gut (so 60 bis 80% schneller als meine 2070er), die Karte suckt aber standardmäßig schon so 310W. Der Kühler ist aber schon sehr geil muss man sagen, die Karte ist trotzdem quasi unhörbar und der Verbrauch durch meine paar Zockerstunden eigentlich nicht der Rede wert.

Der einzige dicke Minuspunkt ist für mich wirklich der VRAM, warum hat man da nicht einfach "normalen" 16GB 16Gbps Speicher verbaut wie ihn die Radeons haben, die Speicherbandbreite wäre gegenüber der 3070er trotzdem gestiegen und man hätte das rundere Produkt.

So hadere ich mit mir die Karte zurückzugeben, irgendwie kommt mein innerer Schweinehund nicht damit klar seit der 1070er mit 8GB herumzugurken :D

Ex3cut3r
2021-06-27, 16:00:18
Hast du irgendwo aktuell Probleme durch die 8GB VRAM? Wenn nein, behalten und mal sehen was in 2 Jahren so auf den Markt gibt und wie viel es kostet.

Kann auch sein, dass es nächstes Jahr durch Direct Storage gar kein großen VRAM mehr benötigt wird, wenn die neuen großen Next Gen Titeln kommen.

MartinRiggs
2021-06-27, 16:00:25
Kann ich verstehen das kritisieren ja viele an den Nvidia-Karten. Nvidia war bei Ampere einfach zu geizig mit dem VRAM.
Ohne Mining-Hype und wenn AMD mehr liefern könnte würde es glaube auch etwas anders aussehen.

r3ptil3
2021-06-27, 16:56:01
Hab meine (3070 Ti Suprim X) nun ein paar Tage im Einsatz und bin gemischter Gefühle. (Habe vom Händler einen guten Preis bekommen der unter 3070 lag, warum also nicht hab ich mir gedacht).

Die Rohperformance ist schon sehr gut (so 60 bis 80% schneller als meine 2070er), die Karte suckt aber standardmäßig schon so 310W. Der Kühler ist aber schon sehr geil muss man sagen, die Karte ist trotzdem quasi unhörbar und der Verbrauch durch meine paar Zockerstunden eigentlich nicht der Rede wert.

Der einzige dicke Minuspunkt ist für mich wirklich der VRAM, warum hat man da nicht einfach "normalen" 16GB 16Gbps Speicher verbaut wie ihn die Radeons haben, die Speicherbandbreite wäre gegenüber der 3070er trotzdem gestiegen und man hätte das rundere Produkt.

So hadere ich mit mir die Karte zurückzugeben, irgendwie kommt mein innerer Schweinehund nicht damit klar seit der 1070er mit 8GB herumzugurken :D

Schliesse mich meinem Vorredner an (Ex3) - wo genau hast du richtige Probleme mit den 8Gb Speicher?

Ansonsten gerade bei der 3070 Ti zwingend zu empfehlen: Undervolting!!

Die Karte hat den Kühler einer RTX 3080, welche 430W erzeugen kann.
Mit UV hättest du praktisch eine wirklich unhörbare Grafikkarte unter Last!

Wäre für mich jetzt mehr Wert als 2 oder 4Gb zusätzlichen Speicher, kein Witz.

The_Invisible
2021-06-27, 17:02:26
Hast du irgendwo aktuell Probleme durch die 8GB VRAM? Wenn nein, behalten und mal sehen was in 2 Jahren so auf den Markt gibt und wie viel es kostet.

Kann auch sein, dass es nächstes Jahr durch Direct Storage gar kein großen VRAM mehr benötigt wird, wenn die neuen großen Next Gen Titeln kommen.

Bei "meinen" Games eher theoretischer Natur, zb Control@4k max sackt in meiner Szene massiv ab wenn MSAA aktiv (so von 30 auf 2-3fps) oder Cyberpunk ab einen gewissen Detaillevel @4k nativ ebenso. Ja ich weiß, eh nicht spielbar, mit meinen Spielsettings in Kombination mit DLSS & RT gibts keine eh Probleme.

Wobei ich auch sagen muss das es bei mir auch genug Spiele gibt die nur den halben VRAM belegen und jetzt mit der 3070 Ti erst 4k@60fps spielbar wurden zb Anno1800, Valheim, Gilde3, DSP, Satisfactory usw damit habe ich jetzt richtig Spaß.

Aber wie gesagt, der innere Schweinehund lässt sich nur schwer beruhigen, daher kommt der Drang die Karte zurückzusenden, bisschen zu warten und gleich zb eine 3080 Ti zu holen...

Ex3cut3r
2021-06-27, 17:05:37
Achso. Du spielst schon in 4K. Dann ist es wirklich nicht sooo optimal. Musst du im Endeffekt wissen. Ich glaube aber, damit lässt es sich schon etwas aushalten.

r3ptil3
2021-06-27, 19:31:26
Bei "meinen" Games eher theoretischer Natur, zb Control@4k max sackt in meiner Szene massiv ab wenn MSAA aktiv (so von 30 auf 2-3fps) oder Cyberpunk ab einen gewissen Detaillevel @4k nativ ebenso. ..


Für mich ist das der Zustand von "unspielbar" zu "überhaupt nicht spielbar".

Da würden auch 32Gb VRAM nichts bringen.

The_Invisible
2021-06-28, 13:46:37
Ja eh, ich bin eigentlich eh nicht derjenige der irgendwelche unmöglichen Settings sucht um das dann auf den VRAM zu schieben.

Bin sonst eigentlich voll zufrieden, Karte quasi unhörbar trotz 300W und so knapp unter 30° Zimmertemp, kein zirpen oder knistern, keine hochfrequenten Töne und Lüfter laufen auch schön "rund".

Gebe sowas eigentlich ungern her, ach Mann :D

Edit: Ach ja, bin ziemlich faul da was herumzuoptimieren, so lange das Ding ruhig ist passt es bei mir ; )