PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 3080 Review-Thread


Seiten : 1 2 3 4 [5] 6 7 8 9 10

hq-hq
2020-09-19, 18:02:06
Also ich hab weder Mail bekommen, noch hat sich mrin Bestellstatus bis jetzt geändert.

"Wir senden Ihnen eine E-Mail, sobald wir ein voraussichtliches Lieferdatum haben. " dabei hätte die doch heute bis 21 Uhr kommen sollen ;D


---

die 2080Ti Strix tut sich luftgekühlt mit 360Watt auch schwer, da stellt man die Lüfter lieber gleich auf 100% - so funktioniert das ohne Bauchweh aber is halt laut...
die neuen Kühler der 3080 sind wohl noch etwas fetter geworden

Schnoesel
2020-09-19, 18:07:28
Ich bin auch ein potentieller Kunde habs aber gelassen, weil ich im Urlaub war und auch auf Wakü setze, das dauert eh immer ein wenig. Megadruck hab ich auch nicht auch wenn ich darauf warte meine jetzige in meinen HTPC zu verbasteln. Evtl wirds ja doch eine 20GB oder ne 3090 oder BN. Warten muss man derzeit ja eh.

der13big-l
2020-09-19, 18:17:46
Ich bezweifle stark dass die Nachfrage in absoluten Zahlen so hoch ist. Das ist immer noch Nische wenn auch derzeit eine begehrte. Wenn ich mir die Umfrage auf CB ansehe:

Sooo viele sind es nicht die überhaupt versucht haben eine zu kaufen:

https://i.postimg.cc/qqzzfv5C/4.png
So eine Umfrage könnte man hier auch Mal machen. Hier schreiben ja nur ein paar Leute, das sie was gekauft haben. Und 2 Leute haben was 🤔

spike.sp.
2020-09-19, 18:26:41
"Wir senden Ihnen eine E-Mail, sobald wir ein voraussichtliches Lieferdatum haben. " dabei hätte die doch heute bis 21 Uhr kommen sollen ;D
Bei mir war von Anfang an 21-22.9 wegen AT. ;)

Matrix316
2020-09-19, 18:43:16
Hinterher ist man immer schlauer, aber vielleicht hätte man die 3090 zuerst oder parallel mit veröffentlichen sollen, damit halt der Run auf die 3080 nicht so groß wird.

Oder man hätte die 20er Serrie billiger machen sollen, damit mehr Leute eine 2080TI kaufen hätten können.

So verschiebt sich alles und dann kommt alles gleuchzeitig raus: XBOX, Playstation, AMD Navi 2 und die 4000er bzw 5000er Serie.

Erbsenkönig
2020-09-19, 18:48:53
Stabile 60 FPS mit Luft nach oben in 4K.
GPU 0,900V und 86% Powerlimit.

Horizon Zero Dawn
https://s12.directupload.net/images/200919/excmwl2v.jpg (https://www.directupload.net)

Zum Vergleich: Volllast bei meiner 1080 auf 0,9 V festgezurrt führt zu 140-150 W wenn ich mich recht erinnere. Kann es heute Abend noch einmal testen.

aufkrawall
2020-09-19, 19:01:18
Zum Vergleich: Volllast bei meiner 1080 auf 0,9 V festgezurrt führt zu 140-150 W wenn ich mich recht erinnere. Kann es heute Abend noch einmal testen.
Für Heizer kannst du da noch 50W draufrechnen, die 1070 Ti konnte ich problemlos mit 0,9V bei 180W leicht drosseln lassen.

Troyan
2020-09-19, 19:29:25
Im Anhang befindet sich ein GPUZ Log. Metro Exodus 4K Extrem Preset ohne RT. Dieses Spiel scheint die Karte am meisten auszulasten. Der Takt ist oftmals nur noch bei 1770Mhz, die Temperatur so ca. bei 70 Grad in einem gut belüfteten Lian Li O1 Dynamic. Ich bin ja sonst die letzen 10 Jahre wirklich nur Wakü gewöhnt. Deshalb ist mir das zu warm und zu laut. Mit Kopfhörern und dem Gehäuse rechts von mir auf dem Tisch gerade so erträglich aber deutlich hörbar. Was absolut auffällt, die Karte ist nicht wirklich Temperatur limitiert sondern läuft mit richtiger Auslastung ( >=4K ) immer ins Powerlimit.

Cool, danke. 70°C ist eine Ansage. Meine Gaming OC 2080TI bei 360W läuft in die 88°C Beschränkung und der Safe-Modus des Kühlers läuft dann an. ;D

Werde ich mir mal vormerken. Sieht auf jedenfall besser aus als bei der 2080TI.

Ich meine, dass neue Geforce die die Vorgänger Generation mit links plättet und deutlich weniger kostet eine gewisse Nachfrage haben wird, sollte Nvidia spätestens dann gewusst haben, als sie erste Benchmarks damit gemacht haben.

Und das wird glaube ich beim 3070 Release nicht besser, sollte man ähnliche Mengen nur liefern können.

Natürlich weiß nVidia das. Deswegen haben die auch 25% Wachstum für ihr "Gaming-Geschäft" für das laufende Quartal eingeplant. Mindesten die Hälfe des Wachstums entfällt auf die GPUs. Aber die sind nunmal angebotslimitiert. Neben GA102 kommt noch GA104 (3070 und 3060TI/Super). Heißt viel mehr Segmentierung der Wafer von Samsung.

Badesalz
2020-09-19, 21:07:36
Wichtig ist nicht, was bei "Max" steht. ;) 0,9 Volt dauerhaft bei 4K-Volllast geht übrigens nicht, das ist zu powerlimitiert. Wenn man mit wilder Fluktuation zufrieden ist, kann man das natürlich versuchen. Ampere ist die neue Vega.Bingo :D

Aus der Sicht der GPU, sind die ~86% Limit eben genug. Was mich erstmal vermuten lässt, das eben das die erspähte :wink: Leistung der Großen von AMD werden soll (sollte) und man die 3080 überfahren musste.

edit:
bin ich der einzige der es interessant findet, wieviel STÜCK bisher verkauft wurden? Die Teile sind momentan schwerer zu bekommen als davor so manche 10nm Intel-CPU...

WedgeAntilles
2020-09-19, 21:48:36
gelöscht, da falsch verstanden.

Linmoum
2020-09-19, 21:56:12
Hat es einen Grund, dass du den Rest nicht zitierst und die Aussage daher aus dem Kontext reißt?

WedgeAntilles
2020-09-19, 22:01:46
Hat es einen Grund, dass du den Rest nicht zitierst und die Aussage daher aus dem Kontext reißt?

Ich hatte den Teil als Kompletturteil für Ampere verstanden.
Habe es mir jetzt noch mal in Ruhe durchgelesen, ich vermute du hast Recht und ich hatte das falsch verstanden.

Ich editiere mein Posting, da der Fehler vermutlich wirklich bei mir lag.

Digidi
2020-09-19, 22:27:37
Ich frage mich ob Jensen das richtig eingepreist hat diesmal. Ich sehe das Zukunftspotential der Karten wenn mal Spiele kommen die die Shader richtig ansprechen aber die Preise puhhhhhhhhhhhhhhhh.

Die 3080 hätte ich 15% langsamer gemacht für den gleichen Preis. Die ist wirklich günstig jetzt im Nachhinein betrachtet. Dafür hätte ich die 3090 auf 899 gesetzt mit dem Jetzigen Ausbau. Sie hätte dann gut 25% Vorspurng gehabt. Ich wäre da bei der 3090 eingestiegen.

Jetzt 1500 Euro zu Investieren für 10% Mehrleistung mit fraglicher Zukunft ist schon ein happen....

Orbmu2k
2020-09-19, 22:47:24
Hab bei der MSI auch mal ein bischen Undervolting getestet:

0,85V @ 1800Mhz => 280W ~ Stockperformance

WedgeAntilles
2020-09-19, 22:51:48
Ich frage mich ob Jensen das richtig eingepreist hat diesmal. Ich sehe das Zukunftspotential der Karten wenn mal Spiele kommen die die Shader richtig ansprechen aber die Preise puhhhhhhhhhhhhhhhh.

Die 3080 hätte ich 15% langsamer gemacht für den gleichen Preis. Die ist wirklich günstig jetzt im Nachhinein betrachtet. Dafür hätte ich die 3090 auf 899 gesetzt mit dem Jetzigen Ausbau. Sie hätte dann gut 25% Vorspurng gehabt. Ich wäre da bei der 3090 eingestiegen.

Jetzt 1500 Euro zu Investieren für 10% Mehrleistung mit fraglicher Zukunft ist schon ein happen....

Ich vermute Nvidia hat alles richtig gemacht - sie lupfen die xx70er Käufer auf die 80er Variante.

Ja, der Abstand zwischen der 3080 und 3090 ist (vor allem wenn die 3080 mit 20GB auf dem Markt ist) ziemlich gering.

Aber die absoluten Stückzahlen des Topmodels sind deutlich niedriger als die Verkaufszahlen der 60er und 70er Varianten.

Ohne genaue Zahlen kann man natürlich nur spekulieren, aber ich denke der Gewinn, den Nvidia durch das Lupfen von xx70 Käufern auf die 3080 statt die 3070 erzielt, sind deutlich größer als das, was man bei der 3090 ggf. verliert.
Da ich schätze, dass die Menge der Käufer die sich auf die 3080 lupfen lässt sehr sehr viel größer sein wird.

Das Performanceplus der 3080 gegenüber der 3070 (und 3060) ist so gigantisch (bei gleichzeitig überschaubarem Aufpreis), dass da bestimmt viele Käufer sagen: Scheiß drauf, ich nehm nicht die 3070 sondern gleich die 3080.

So kannst du als Verkäufer deine Margen (und damit Gewinne) erhöhen, ganz ohne Preiserhöhungen.

Bei Pascal + Turing hat Nvidia seine Gewinne durch Preiserhöhungen gesteigert.
Bei Ampere steigert Nvidia seine Gewinne dadurch, dass sie die Leute dazu bringen ein oder zwei Regale höher einzukaufen.

Ich halte einen großen Performanceabstand zwischen der xx70 und der xx80 für wichtiger, als einen großen Performanceabstand zwischen der xx80 und der xx90 (bzw. halt xx80TI).
Unabhängig davon, was AMD mit BigNavi bringt.
Rein aus verkaufstechnischer Sicht.

Beweisen kann man das natürlich nicht, dafür müsste man die genauen Verkaufszahlen und vor allem den genauen Gewinn pro verkaufter Karte kennen.
Aber die Vermutung ist ziemlich plausibel.

BlacKi
2020-09-19, 22:52:43
Hab bei der MSI auch mal ein bischen Undervolting getestet:

0,85V @ 1800Mhz => 280W ~ Stockperformance
funktioniert der voltage regler überhaupt? bei GN hatte er keine auswirkung. zumindest beim overvolting. wobei mir UV wichtiger ist als OV. zumindest bei 320w...

Orbmu2k
2020-09-19, 23:08:17
funktioniert der voltage regler überhaupt? bei GN hatte er keine auswirkung. zumindest beim overvolting. wobei mir UV wichtiger ist als OV. zumindest bei 320w...

Das war nicht mit dem Voltageregler.

Das war ein VoltagePoint Lock in der Curve, dann steht die Karte fest auf der Voltage und man kann mit dem Takt rumspielen.

Robot
2020-09-19, 23:15:05
Hatten wir das schon ?

https://www.hardwaretimes.com/nvidia-rtx-3090-gaming-benchmarks-leaked-just-10-faster-than-the-rtx-3080/

3090 nur 10% schneller als 3080 in 4K? Mhhhh

Digidi
2020-09-19, 23:38:09
@Wedge Antilles

Verkaufszahlen kenn wir ja schon etwas genauer :)
https://www.3dcenter.org/artikel/mindfactory-grafikkarten-retail-verkaufsreport-q22020

Das Verkaufspferd war schon immer die 70er Reihe. Ich bin mal gespannt wo die liegt. Wenn die 3070 zur 3080 nur 20% Unterschied hat gibt das alles sinn (auch weshalb man dann den GA103 gestrichen hat), ansonsten eher nicht.

@Robot
Guten Morgen, ausgeschlafen? :D

Erbsenkönig
2020-09-19, 23:52:01
Für Heizer kannst du da noch 50W draufrechnen, die 1070 Ti konnte ich problemlos mit 0,9V bei 180W leicht drosseln lassen.

So, gerade bei Alan Wake in 4K (nicht das beste Beispiel, aber gut, das spiele ich im Moment): 99 % Kernauslastung, Power pendelt zwischen 120 und 130 W.

aufkrawall
2020-09-20, 00:04:55
So, gerade bei Alan Wake in 4K (nicht das beste Beispiel, aber gut, das spiele ich im Moment): 99 % Kernauslastung, Power pendelt zwischen 120 und 130 W.
Ist dann komplett harmlos auf Pascal. Du könntest in HotS die Test Range probieren, ist F2P. Die ist meist schon übel vs. andere Spiele, aber der Achievement-Screen nach einer Runde ist mit ungelockten fps sogar noch viel schlimmer. Wenn UV/OC instabil sind, kackt das dort auch <1s ab.

Emil_i_Lönneberga
2020-09-20, 00:08:19
funktioniert der voltage regler überhaupt? bei GN hatte er keine auswirkung. zumindest beim overvolting. wobei mir UV wichtiger ist als OV. zumindest bei 320w...

Hatten wir ja schon.

Aktueller Afterburner Beta

https://www.guru3d.com/files-details/msi-afterburner-beta-download.html

Wie seit Pascal AB Curved Editor

—>

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12431635#post12431635

Erbsenkönig
2020-09-20, 00:21:57
Ist dann komplett harmlos auf Pascal. Du könntest in HotS die Test Range probieren, ist F2P. Die ist meist schon übel vs. andere Spiele, aber der Achievement-Screen nach einer Runde ist mit ungelockten fps sogar noch viel schlimmer. Wenn UV/OC instabil sind, kackt das dort auch <1s ab.

2 Minuten Control, 4K, voll aufgedreht (18 FPS :D): Im Schnitt 149 W.

BlacKi
2020-09-20, 00:34:19
Das war nicht mit dem Voltageregler.

Das war ein VoltagePoint Lock in der Curve, dann steht die Karte fest auf der Voltage und man kann mit dem Takt rumspielen.
meinst du die voltage curve? wenn nicht kannst du das mal zeigen?

blaidd
2020-09-20, 00:52:09
hat euer weißes seasonic eigentlich nen schaden oder war zu wenig strom da?


Glaubst du Asus ist einfach aus Jux auf die Idee gekommen, mit dem Launch der RTX 3080 jetzt auch Netzteile zu verkaufen?

https://www.asus.com/de/Power-Supply-Unit/
(https://www.asus.com/de/Power-Supply-Unit/)

Orbmu2k
2020-09-20, 00:54:26
meinst du die voltage curve? wenn nicht kannst du das mal zeigen?

ich macht das mit dem inspector per cli

nvidiaInspector.exe -lockVoltagePoint:0,850000

//zurücksetzen:
nvidiaInspector.exe -lockVoltagePoint:0,0


Das ist aber das gleiche wie im Afterburner im CurveEditor eine Voltage auszuwählen und die "L" Taste zu drücken.

Allerdings scheint der Curve Editor in der aktuellen Beta nicht mehr drin zu sein!?

kmf
2020-09-20, 00:55:36
Eigentlich wäre das gut, wenn Zotac tatsächlich 20k Karten herstellt, was ich aber nicht glauben kann. Schliesslich ist eine 3080 ein Nischenprodukt.
Wenn die Karten dank der Mehrfachvorbestellter nicht zeitgleich abgenommen werden,
führt es zu einem Überangebot und somit zu fallenden Preisen.lol, und das bei Losgrößen um je 200.000 bei den größeren Herstellern :eek:

Robot
2020-09-20, 00:57:35
@Robot
Guten Morgen, ausgeschlafen? :D

:D Ja, ich hab die ganze Nacht auf Amazon refresh geklickt
bis dann endlich kam "Wir senden Ihnen eine E-Mail, sobald wir ein voraussichtliches Lieferdatum haben." :freak:

Von Alternate kam dann noch

"Sehr geehrter Kunde,

Wegen der hohen Nachfrage, ist leider ist nicht abzusehen wann die Ware bei uns eintrifft.
Wenn Sie die Bestellung stornieren wollen, geben Sie uns bescheid.

Wir hoffen auf Ihr Verständnis.
"

und da war der Tag gelaufen ;)

Glaubst du Asus ist einfach aus Jux auf die Idee gekommen, mit dem Launch der RTX 3080 jetzt auch Netzteile zu verkaufen?

https://www.asus.com/de/Power-Supply-Unit/

Die haben die schon länger, habs 1200 schon getestet. Ganz nice aber zu teuer. Muss mir mal das 850er vornehmen.

aufkrawall
2020-09-20, 00:59:59
Allerdings scheint der Curve Editor in der aktuellen Beta nicht mehr drin zu sein!?
Mit der aktuellen Beta nicht?
https://www.guru3d.com/files-details/msi-afterburner-beta-download.html
Das wär aber übel.

kmf
2020-09-20, 01:00:18
Vielleicht sind nicht nur die Chips rar sondern vorallem GDDR6X dann hätte die 3070 weniger Probleme.die aufwändige Kühlung (z.B. 150€ bei der FE und Kapazitäten von ca 200.000 pro Monat) trägt auch mit bei, dass es zu Verzögerungen kommt.

kmf
2020-09-20, 01:02:09
Ich bezweifle stark dass die Nachfrage in absoluten Zahlen so hoch ist. Das ist immer noch Nische wenn auch derzeit eine begehrte. Wenn ich mir die Umfrage auf CB ansehe:

Sooo viele sind es nicht die überhaupt versucht haben eine zu kaufen:

https://i.postimg.cc/qqzzfv5C/4.pngDeutschland ist nicht der Nabel der Welt.

Orbmu2k
2020-09-20, 01:03:51
Mit der aktuellen Beta nicht?
https://www.guru3d.com/files-details/msi-afterburner-beta-download.html
Das wär aber übel.

Das steht zumindest im changelog.

Ich denke aber mit einer älteren Version wird das immernoch gehen..


New NVAPI based OC scanner implementation features the following changes and improvements:

Automated overlocking support for both core and memory clocks
OC Scanners's results are now persistent. It means that once the scanning process succeeds, NVIDIA driver internally saves optimized voltage/frequency curve and overclocked memory clock and apply them as new system defaults after reboot, even if you close or uninstall overclocking application. Now there is new "Revert" button inside MSI Overclocking Scanner, which allows you to revert overclocked curve and memory clocks to their real defaults
Manually adjusted clock/frequency curve stability testing functionality is deprecated and no longer available

aufkrawall
2020-09-20, 01:06:53
Imho ist das nur auf den Stabilitätstester bezogen. Oder kommt bei Strg + f echt nichts mehr?

Orbmu2k
2020-09-20, 01:12:51
Imho ist das nur auf den Stabilitätstester bezogen. Oder kommt bei Strg + f echt nichts mehr?

Thanks, geht noch, ich war irgendwie auf STRG + T :freak:

aufkrawall
2020-09-20, 01:13:55
Phew. :)

Robot
2020-09-20, 02:05:59
https://www.ebay.de/sch/i.html?_from=R40&_trksid=p2047675.m570.l1313&_nkw=Geforce+RTX+3080+Founders+Edition&_sacat=0

LOL! in ganz ebay gibt es eine 3080 FE, und das ist ein netter Fake und steht sogar in der Beschreibung und die Leute bieten trotzdem.

Hat eigentlich irgendwer hier jetzt eine FE bekommen. Ich glaub ja nicht dran, dass in DE irgendeine angeboten wurde, sonst wären sicher schon welche in Ebay!

Hakim
2020-09-20, 03:31:47
Gerade Video geschaut wo gezeigt wird das einer mit Bot Tool 42! Karten gekauft hat, wohlgemerkt ein Einzelner. Die Leute bezahlen für Bots monatlich Geld damit sie in solchen Fällen es ausnutzen können. Einfach nur....

Hätte NV echt besser gegen sowas gewappnet sein.

Digidi
2020-09-20, 03:43:03
Bei Nvidia muss das doch auffallen das die Teile an die Selbe Adresse gehen oder wie macht das der Bot?

Nvidia ist der leader in AI und dann können die noch nicht mal eine KI Schreiben die ungewöhnliche Aktivitäten (Mehrer Bestellung mit gleicher Adresse, gleichen Name, gleiche IP Adresse) nicht aufdeckt?

Hakim
2020-09-20, 04:27:43
Habs von dem video, tool heißt wohl BounceAlert

vxYI84HExTc

Digidi
2020-09-20, 05:00:33
Das ist der Twitteraccount vom Bothersteller.
https://twitter.com/BounceAlerts

Viele konnten 17 Karten kaufen, da Frag ich mich was Nvidia da Treibt. Bei sowas einfach die Bestellung auf 1 Karte Pro Käufer und Haushalt limitieren :mad: Das hätte man simpel verhindern können.

Ja Ja die Bots und Algorithmen von Heute, wo das wohl noch hinführt.
https://www.heise.de/tp/features/Algotrading-Wie-selbst-zerstoererisch-ist-der-automatisierte-Computerhandel-3387153.html

The_Invisible
2020-09-20, 06:53:04
Scalpers wären ja kein Problem wenns keiner kaufen würde, aber die Leute bieten ja selbst auf Karten die der Verkäufer nicht mal sicher bekommt, schon krank... Zumindest finde ich die Aktion gut das hier in AUT die bekannte Plattform willhaben alle RTX 3080 Angebote gelöscht hat die auf "Vorbesteller" oder so basieren

Badesalz
2020-09-20, 07:17:43
Sind jetzt die 2000Stk. pro Kontinent (Afrika: 200?) ein Paperlaunch oder nicht? :wink:

NikLaw
2020-09-20, 10:20:25
Meine MSI kann ich morgen bei der Post abholen. Hatte leider am Samstag einen Termin. Aaaaaargh! Ich hatte auch erst die 3070 im Blick, aber durch den relativ geringen Aufpreis, bin ich dann doch zur 3080 gekommen.

WedgeAntilles
2020-09-20, 11:05:23
@Wedge Antilles

Verkaufszahlen kenn wir ja schon etwas genauer :)
https://www.3dcenter.org/artikel/mindfactory-grafikkarten-retail-verkaufsreport-q22020

Das Verkaufspferd war schon immer die 70er Reihe. Ich bin mal gespannt wo die liegt. Wenn die 3070 zur 3080 nur 20% Unterschied hat gibt das alles sinn (auch weshalb man dann den GA103 gestrichen hat), ansonsten eher nicht.

@Robot
Guten Morgen, ausgeschlafen? :D

Ich kenne diese Verkaufszahlen, die aber nur für den digitalen Markt in Deutschland repräsentativ sind.
Der Gesamtmarkt für Nvidia ist ja vieeel größer - KomplettPC, andere Länder (vor allem auch USA + Japan) und so weiter.
Da ist der Unterschied zwischen der Verkaufsmenge der 2060/2070 und der 2080/2080TI (bzw. analog dazu natürlich auch bei der 1xxx Generation) sicherlich weit größer als bei Mindfactory.
Denn Einzelkäufer sind zwangsläufig die stärker interessierten und die Enthusiasten - die kaufen fast nie einen Komplett PC sondern bauen ihn selber zusammen.
Gleichzeitig sind Komplett PC Käufer aber fast nie jene, die 800 Euro aufwärts alleine für ne GraKa ausgeben.

Und was mich wirklich brennend interessieren würde sind die Margen die Nvidia bei den einzelnen Karten genau hat - aber das werden wir natürlich nie erfahren^^

Ich bin auf jeden Fall ebenso wie du sehr gespannt, wie die Verkaufszahlen der 3070/3080 bei Mindfactory ausfallen.
Nach meiner These müsste das Verhältnis der 3080 zur 3070 deutlich größer sein als es das bei der 2080 zur 2070 der Fall war.

Bei den letzten Zahlen waren es knapp 24000 verkaufe 2070/2070 Super vs knapp 6000 verkaufte 2080.

Grob gesagt kam auf 4 verkaufte 2070 eine verkaufte 2080.

Meine Prognose ist, dass sich das deutlich zu gunsten der 3080 verändern wird.
Vielleicht sogar auf 2 verkaufte 3070 eine verkaufte 3080.

Aber auch dann ist das natürlich nur ein winziger Ausschnitt vom Gesamtmarkt, aber es wäre doch ein Hinweis, dass meine These stimmen könnte.

dildo4u
2020-09-20, 11:56:33
Asus hat angeblich 13% Boost rausgeholt mit der Strix.


https://videocardz.com/newz/asus-rog-strix-geforce-rtx-3080-oc-gets-1935-mhz-boost-clock

RLZ
2020-09-20, 11:57:28
Durch einen anderen Link im 3090 Thread hab ich UE4.25 Benchmarks gefunden, was wahrscheinlichen einen guten Ausblick gibt auf die nächsten 1-2 Jahre.
https://www.pugetsystems.com/labs/articles/Unreal-Engine-4-25---NVIDIA-GeForce-RTX-3080-Performance-1876/

Selbst in 1440p vermöbelt die 3080 hier alles.
https://www.pugetsystems.com/pic_disp.php?id=63578&width=800

In 4k gibt es dann manchmal einen Faktor >2 gegenüber die 2080S
https://www.pugetsystems.com/pic_disp.php?id=63580&width=800

r3ptil3
2020-09-20, 12:11:40
ASUS ROG Strix 3080 anscheinend mit höchstem Boost-Takt von 1935 Mhz:

https://videocardz.com/newz/asus-rog-strix-geforce-rtx-3080-oc-gets-1935-mhz-boost-clock

Würde mich nicht wundern wenn bei der Strix OC durch die Selektierung Taktraten über 2.0Ghz anfallen.

Die MSI habe ich abbestellt. Der Kühler ist leise, aber die Kühlleistung wird bereits von einer ASUS TUF 3080 degradiert.

JaniC
2020-09-20, 12:16:24
Kannst das verlinken mit der Kühlleistung?
Habe meine MSI noch nicht storniert aber Kühlung / Lautstärke ist mir sehr wichtig.
War bisher zufrieden mit der Gaming X in Reviews.
Oder meinst du die Ventus?

w0mbat
2020-09-20, 12:18:49
Sie ist nicht schlecht, aber die ASUS TUF Kühlt besser. Schau dir das HWUB Video an.

Plastik backplate, kein extra RAM Kühler, direct-touch bei den heatpipes, etc.

Troyan
2020-09-20, 12:22:42
Durch einen anderen Link im 3090 Thread hab ich UE4.25 Benchmarks gefunden, was wahrscheinlichen einen guten Ausblick gibt auf die nächsten 1-2 Jahre.
https://www.pugetsystems.com/labs/articles/Unreal-Engine-4-25---NVIDIA-GeForce-RTX-3080-Performance-1876/

Selbst in 1440p vermöbelt die 3080 hier alles.
https://www.pugetsystems.com/pic_disp.php?id=63578&width=800

In 4k gibt es dann manchmal einen Faktor >2 gegenüber die 2080S
https://www.pugetsystems.com/pic_disp.php?id=63580&width=800

Ist doch logisch: Mehr Geometrie, mehr Vertexberechnungen => Futter für die FP32 Einheiten.

Und hier mal Luxmark:
https://i0.wp.com/www.xanxogaming.com/wp-content/uploads/2020/09/RTX-3080-Founders-Edition-Luxmark.png?w=1280&ssl=1
https://www.xanxogaming.com/reviews/nvidia-geforce-rtx-3080-founders-edition-english-review-lower-cost-higher-performance/#Productivity_(Vray_y_Luxmark)

Sobald Mesh-Shading oder Nanite eingesetzt werden, sollte Ampere sich auch besser von Turing absetzen können.

aufkrawall
2020-09-20, 12:24:25
Durch einen anderen Link im 3090 Thread hab ich UE4.25 Benchmarks gefunden, was wahrscheinlichen einen guten Ausblick gibt auf die nächsten 1-2 Jahre.
https://www.pugetsystems.com/labs/articles/Unreal-Engine-4-25---NVIDIA-GeForce-RTX-3080-Performance-1876/

Selbst in 1440p vermöbelt die 3080 hier alles.

Mit DX12 sind in Borderlands 3 auch alle anderen GPUs komisch langsam im GPU-Limit im Vergleich zu Navi gewesen. Das war schon ziemlich kurios dafür, dass UE4 bisher eigentlich NV-Land war (aber auch nicht mal Vega von DX12 hier profitierte).

RLZ
2020-09-20, 12:33:17
Das war schon ziemlich kurios dafür, dass UE4 bisher eigentlich NV-Land war (aber auch nicht mal Vega von DX12 hier profitierte).
Epic hatte halt lange Zeit keinen eigenen Konsolentitel mehr. Dazu optimiert Nvidia auch selbstständig, da die UE ja quelloffen ist. Wenn ich die beste RTX Performance will, finde ich halt den offiziellen RTX Branch der UE4 auf Github. Bei AMD... da ist halt nix.

aufkrawall
2020-09-20, 12:35:19
Bei AMD... da ist halt nix.
Da könnte allerdings auch einiges nicht-öffentlich für die Konsolen passieren.

JaniC
2020-09-20, 12:39:08
Sie ist nicht schlecht, aber die ASUS TUF Kühlt besser. Schau dir das HWUB Video an.

Plastik backplate, kein extra RAM Kühler, direct-touch bei den heatpipes, etc.

Ah, danke, das neue HWUB Review extra zur Gaming X Trio (https://www.youtube.com/watch?v=FRlFauKtjCA) von gestern hatte ich tatsächlich noch nicht gesehen.

Bandit3644
2020-09-20, 12:40:18
ASUS ROG Strix 3080 anscheinend mit höchstem Boost-Takt von 1935 Mhz:

https://videocardz.com/newz/asus-rog-strix-geforce-rtx-3080-oc-gets-1935-mhz-boost-clock

Würde mich nicht wundern wenn bei der Strix OC durch die Selektierung Taktraten über 2.0Ghz anfallen.

Die MSI habe ich abbestellt. Der Kühler ist leise, aber die Kühlleistung wird bereits von einer ASUS TUF 3080 degradiert.

Na mal schauen was dann wirklich für ein Takt anliegt bei der Strix. Meine TUF taktet ja schon zwischen 1925-2010 MHz.

Bin ich eigentlich der einzige hier der eine 3080 bekommen hat? Das ist schon ziemlich blöd.

DrMabuse1963
2020-09-20, 12:53:12
Mit UV 0,9V ~270W ? Da wäre der Takt ja mega gut.

pixeljetstream
2020-09-20, 12:54:34
Ist doch logisch: Mehr Geometrie, mehr Vertexberechnungen => Futter für die FP32 Einheiten.

Sobald Mesh-Shading oder Nanite eingesetzt werden, sollte Ampere sich auch besser von Turing absetzen können.
Achtung der Fokus der PugetBench Tests war mit ray tracing, daher kannst du nicht direkt auf den Zusammenhang mit mesh shader und fp32 schließen. Vertex shader sind eigentlich so gut wie nie math bound. Insbesondere bei den statischen Szenen fallen auch die RT bvh Updates weg.

woodsdog
2020-09-20, 12:57:20
Bin ich eigentlich der einzige hier der eine 3080 bekommen hat? Das ist schon ziemlich blöd.

Ya no shit lol

Troyan
2020-09-20, 12:58:23
Achtung der Fokus der Tests war mit ray tracing, daher kannst du nicht direkt auf den Zusammenhang mit mesh shader und fp32 schließen. Vertex shader sind eigentlich so gut wie nie math bound, insbesondere bei den statischen Szenen fallen auch die bvh Updates weg.

Steigen die Vertex-Berechnungen mit höher aufgelösten Geometrie-Models nicht deutlich an? Limitieren vorher die FF-Einheiten?

r3ptil3
2020-09-20, 13:06:17
Kannst das verlinken mit der Kühlleistung?
Habe meine MSI noch nicht storniert aber Kühlung / Lautstärke ist mir sehr wichtig.
War bisher zufrieden mit der Gaming X in Reviews.
Oder meinst du die Ventus?


Nein, die Gaming X 3080.

Die TUF ist mit dem QUIET BIOS kühler und in etwa gleich laut.
Man muss aber auch fairerweise zugeben, dass eine TUF noch nie so dermassen gut war.

Deshalb warte ich gerne auf die Strix.

(Bei Hexus ohne Quiet-BIOS getestet, deshalb ist die Temperatur so niedrig bei der TUF)

Edit: Gemässs HEXUS mit QUIET-BIOS: 68° und 35.5Db
https://hexus.net/media/uploaded/2020/9/c5529051-4cfa-4f56-bf35-60dd8533d937.png
https://hexus.net/media/uploaded/2020/9/705c9355-ba4b-464d-ae61-d2a372cbbf88.png

https://hexus.net/tech/reviews/graphics/145414-msi-geforce-rtx-3080-gaming-x-trio/?page=10


https://www.io-tech.fi/wp-content/uploads/2020/09/aib3080-bench-temp.png
https://www.io-tech.fi/wp-content/uploads/2020/09/aib3080-bench-melu.png

https://www.io-tech.fi/artikkelit/testissa-geforce-rtx-3080-naytonohjaimet-asus-gigabyte-msi/


https://i.ibb.co/3SKQnKp/CB-3080.png
https://www.computerbase.de/2020-09/asus-msi-geforce-rtx-3080-custom-test/2/#abschnitt_lautstaerke__kuehlung

aufkrawall
2020-09-20, 13:17:15
Asus mogelt aber nicht wieder bei den VRM-Temps?

pixeljetstream
2020-09-20, 13:27:56
Steigen die Vertex-Berechnungen mit höher aufgelösten Geometrie-Models nicht deutlich an? Limitieren vorher die FF-Einheiten?
Die Bandbreite und die on-chip buffer sind eher der limitierende faktor, als die Vertex Arithmetik. Also eher das drum herum.
Und wenn du Dir die PugetBench ohne RT anguckst, sind die mit deutlich geringerem Zuwachs, obwohl die Geometrie der Szene ja gleich ist.
Die Vertex transformation bei raytracing spielt einmal ne Rolle beim bvh Aufbau (der bei Festkörperobjekten eh nur einmal und nicht per frame passiert), wobei auch hier das bvh erzeugen selbst überwiegt.
Und das zweite Mal beim shading des Treffers, hier hast du aber Komplexität über die Anzahl der Auflösung mit der die RT Effekte betrieben wurden.

Bandit3644
2020-09-20, 13:30:28
Mit UV 0,9V ~270W ? Da wäre der Takt ja mega gut.

Nein leider nicht, das ist im Standardtakt.

Bandit3644
2020-09-20, 13:33:34
Asus mogelt aber nicht wieder bei den VRM-Temps?

Test zwischen Tuf und Gaming x
https://www.youtube.com/watch?v=FRlFauKtjCA

aufkrawall
2020-09-20, 13:35:29
Test zwischen Tuf und Gaming x
https://www.youtube.com/watch?v=FRlFauKtjCA
Das ist ja mal ein Novum.

Troyan
2020-09-20, 13:36:43
Die Bandbreite und die on-chip buffer sind eher der limitierende faktor, als die Vertex Arithmetik. Also eher das drum herum.
Und wenn du Dir die PugetBench ohne RT anguckst, sind die mit deutlich geringerem Zuwachs, obwohl die Geometrie der Szene ja gleich ist.
Die Vertex transformation bei raytracing spielt einmal ne Rolle beim bvh Aufbau (der bei Festkörperobjekten eh nur einmal und nicht per frame passiert), wobei auch hier das bvh erzeugen selbst überwiegt.
Und das zweite Mal beim shading des Treffers, hier hast du aber Komplexität über die Anzahl der Auflösung mit der die RT Effekte betrieben wurden.

Danke für die Infos. Wie sieht es mit Tessellation aus? Läuft man hier in die selben Beschränkungen oder macht sich die Verdopplung der FP32 (Hull- und Domainshader) stärker bemerkbar?

BlacKi
2020-09-20, 13:48:27
Nein, die Gaming X 3080.

Die TUF ist mit dem QUIET BIOS kühler und in etwa gleich laut.
Man muss aber auch fairerweise zugeben, dass eine TUF noch nie so dermassen gut war.

wenn du aber den fokus auf performance pro lautstärke legst und den temperaturfaktor rauslässt, dann ist die xtrio minimal schneller und gleichzeitig minimal leiser.
die tuf ist gut und wahrscheinlich wird die strix noch besser.ob sie leiser wird sei mal dahingestellt, ich glaube eher das sie minimal schneller und minimal lauter wird als die xtrio.

1330rpm bei 320/340w ist auf jeden fall beeindruckend.

ich bin auf die aorus tests gespannt.

JaniC
2020-09-20, 13:49:47
Hmm, im HWUB Video sagt er aber auch, dass die TUF 1900rpm hatte und die MSI Trio 1300rpm, dabei war sie auf 71°C.
Das wird sicherlich der Performance Mode sein, keine Ahnung wieviel rpm im Quiet Mode bei der TUF anliegen.

Zu sehen hier https://www.youtube.com/watch?v=FRlFauKtjCA ab ~ Minute 12.

1900rpm sind natürlich völlig indiskutabel. Meine RTX 2080 Gaming X Trio finde ich mit 1300 rpm absolut ok.

Ok, bei Computerbase haben sie es ja getestet, angeblich gleich laut (35,5db zu 36db) und die TUF aber mit 73°C bei DOOM nochmal 4°C kühler als die MSI.

/edit: Frage: Taktet die TUF im Quiet Modus konservativer als im Performance Modus? Finde dazu nichts. Normal ändert das BIOS nur die Lüfterkurve, oder?

Tja, wat mach ich nu? Frage ist, wieviel so ein Pre-Order von Donnerstag 16 Uhr überhaupt wert ist. Wenn mir jetzt einer sagt "bloss nicht stonieren, deine Karte wird Dienstag verschickt und wenn du neu bestellst, erst in 8 Wochen", dann lass ich das offen.
Aber ich glaube eher, dass keiner weiss, wann neue Karten irgendwo eintreffen.
Nervt. Tendiert man ja bald zum Storno und doch drauf warten bis die 20GB Version kommt oder sich die Preise Anfang 2021 normalisiert haben. Aber bis dahin vergammelt der HDMI 2.1 fähige LG OLED dann mit "nur 120fps bei 1440p" ... fuckin 1st world problems. :D

Raff
2020-09-20, 13:52:15
Durch einen anderen Link im 3090 Thread hab ich UE4.25 Benchmarks gefunden, was wahrscheinlichen einen guten Ausblick gibt auf die nächsten 1-2 Jahre.
https://www.pugetsystems.com/labs/articles/Unreal-Engine-4-25---NVIDIA-GeForce-RTX-3080-Performance-1876/

Selbst in 1440p vermöbelt die 3080 hier alles.
https://www.pugetsystems.com/pic_disp.php?id=63578&width=800

In 4k gibt es dann manchmal einen Faktor >2 gegenüber die 2080S
https://www.pugetsystems.com/pic_disp.php?id=63580&width=800

Interessant. Schade, dass man das Ding (noch?) nicht herunterladen kann.

MfG
Raff

Hakim
2020-09-20, 13:53:21
Lass doch einfach, die gaming x ist ja keine schlechte Karte, die TUF ist halt diesmal ausnahmsweise gut, war auch bitter nötig nach dem Fail der letzten TUFs. Wirst im Alltag wahrscheinlich keinen Unterschied merken

RLZ
2020-09-20, 13:56:26
Interessant. Schade, dass man das Ding (noch?) nicht herunterladen kann.
Warum? Die gibt es nicht als fertiger Benchmark, aber da eine Executable zu bauen, ist auch trivial.

Die Megascans Szene findet man hier:
https://unrealengine.com/marketplace/en-US/product/c26355353df843289701d632508d4fb0

Virtual Studio hier:
https://www.unrealengine.com/marketplace/en-US/learn/virtual-studio

Die anderen findet man bestimmt auch recht einfach.

Bandit3644
2020-09-20, 13:59:39
Hab mal F1 2020 in 4K @Ultra gespielt, kein DLSS und SRT.
Konstanter Takt 1005MHz bei 0,725V und max.51 Grad bei 60FPS.

JaniC
2020-09-20, 13:59:50
Lass doch einfach, die gaming x ist ja keine schlechte Karte, die TUF ist halt diesmal ausnahmsweise gut, war auch bitter nötig nach dem Fail der letzten TUFs. Wirst im Alltag wahrscheinlich keinen Unterschied merken

Denke auch, abwarten. War jetzt Wochenende, mal sehen wie die Lage am Ende der Woche aussieht.

Die ROG Strix OC ist natürlich ein Knaller. (https://videocardz.com/newz/asus-rog-strix-geforce-rtx-3080-oc-gets-1935-mhz-boost-clock) Scheint irgendwie die einzige 3080 zu sein, die wirklich merkbar übertaktbar ist.

Kann man bei ALTERNATE ohne Liefertermin für 934€ vorbestellen (https://www.alternate.de/ASUS/GeForce-RTX-3080-ROG-STRIX-OC-GAMING-Grafikkarte/html/product/1672867). 934€. ;D

234€ Aufschlag oder 133% des 3080 FE Launchpreises ist schon eine Ansage, selbst für so eine Premium Version.
Aber wird sicherlich auch Käufer finden, so schlecht ist es nicht, wenn man bedenkt, wie sie boostet und wo die 3090 preislich anfängt. Aber knappe 1000€ für 10GB VRAM ist schon happig.

Troyan
2020-09-20, 14:06:08
Zieh 100€ von Alternate ab, das sollte dann der reale Preis sein.

dreamweaver
2020-09-20, 14:19:00
Kann man denn in den nächsten Tage/Wochen noch mit Lieferbarkeit rechnen oder war es das jetzt erstmal ?

Edit
Also ich meine, ob Shops noch was geliefert bekommen, oder ob jetzt erstmal nicht damit zu rechnen ist.

r3ptil3
2020-09-20, 14:21:47
Ich erhalte meine Strix am 1. Oder 2. Oktober. Das wurde in der CH einem grossen Händler als Liefertermin mitgeteilt.


War aber nur für eine beschränkte Stückzahl. Hatte Sie am 17.09 um 15.05 Uhr bestellt.

Spasstiger
2020-09-20, 14:26:49
Hat denn hier Irgendjemand eine RTX 3080 FE für 699 € bekommen oder zumindest eine entsprechende Bestellbestätigung? Ich schaue auch jeden Tag im Nvidia-Shop, weil die Karte alleine schon als Investment zum Wiederverkauf interessant ist. Zur Nutzung bräuchte ich noch ein anderes Netzteil.

Digidi
2020-09-20, 14:27:16
Durch einen anderen Link im 3090 Thread hab ich UE4.25 Benchmarks gefunden, was wahrscheinlichen einen guten Ausblick gibt auf die nächsten 1-2 Jahre.
https://www.pugetsystems.com/labs/articles/Unreal-Engine-4-25---NVIDIA-GeForce-RTX-3080-Performance-1876/

Man sollte hier aber etwas vorsichtig sein. Die Teile sind 0 Optimiert für irgendwas. Das Bottelneck kann also auch irgndwo anders sein als die Shader...

Raff
2020-09-20, 14:34:24
Warum? Die gibt es nicht als fertiger Benchmark, aber da eine Executable zu bauen, ist auch trivial.

Die Megascans Szene findet man hier:
https://unrealengine.com/marketplace/en-US/product/c26355353df843289701d632508d4fb0

Virtual Studio hier:
https://www.unrealengine.com/marketplace/en-US/learn/virtual-studio

Die anderen findet man bestimmt auch recht einfach.

Danke – das sehe ich mir echt mal an. :up: Paar andere Szenen kosten leider Geld.

Man sollte hier aber etwas vorsichtig sein. Die Teile sind 0 Optimiert für irgendwas. Das Bottelneck kann also auch irgndwo anders sein als die Shader...

UE4 ist generell shaderlastig (und spielt Ampere somit in die Hände). Fehlende Optimierung macht's sogar spannender als Showcase für "Robustheit". :)

MfG
Raff

Bandit3644
2020-09-20, 14:42:32
Hmm, im HWUB Video sagt er aber auch, dass die TUF 1900rpm hatte und die MSI Trio 1300rpm, dabei war sie auf 71°C.
Das wird sicherlich der Performance Mode sein, keine Ahnung wieviel rpm im Quiet Mode bei der TUF anliegen.

Zu sehen hier https://www.youtube.com/watch?v=FRlFauKtjCA ab ~ Minute 12.

1900rpm sind natürlich völlig indiskutabel. Meine RTX 2080 Gaming X Trio finde ich mit 1300 rpm absolut ok.

Ok, bei Computerbase haben sie es ja getestet, angeblich gleich laut (35,5db zu 36db) und die TUF aber mit 73°C bei DOOM nochmal 4°C kühler als die MSI.

/edit: Frage: Taktet die TUF im Quiet Modus konservativer als im Performance Modus? Finde dazu nichts. Normal ändert das BIOS nur die Lüfterkurve, oder?

Das sind die Werte im Quiet-Mode, die Karte ist nicht zu hören auch bei ca 1500 Umdrehungen.
https://s12.directupload.net/images/200920/wu972cxy.jpg (https://www.directupload.net)

Bei festen 60 FPS in 4k laufen die Lüfter bei ca. 1200.
Ich habe das Powerlimit auf 85% gesetzt und die GPU auf 0,900V.
Da lassen sich paar Watt sparen und hab im Moment immer noch Stabile 60 FPS in 4K.
https://s12.directupload.net/images/200920/cidmiwkx.jpg (https://www.directupload.net)

JVC
2020-09-20, 14:51:18
Das sind die Werte im Quiet-Mode...

80,1Watt für die 10Gb ? Wären 8Watt pro Chip.
Dachte der braucht nur 2,5Watt pro SpeicherChip ?

Die GPU verbraucht dafür "nur" 194,1Watt...

Ich halte GDDR6X für ziemlichen Blödsinn und viel zu heiß (~105°...)
und man scheint trotz speziellem PCB nicht die 21gbps zu erreichen.

M.f.G. JVC

Spasstiger
2020-09-20, 15:45:23
GDDR6X ist mit rund 7,2 Picojoule pro Bit angegeben: https://www.anandtech.com/show/15978/micron-spills-on-gddr6x-pam4-signaling-for-higher-rates-coming-to-nvidias-rtx-3090

Umgerechnet auf die RTX 3080 mit ihren 760 GB/s müssten sind rund 760 GByte/s * 7,2 pJ/Bit * 8 Bit/Byte = 43,8 Watt für das Speichersubsytem ergeben. 2,5 Watt pro Chip mit 32-Bit-Interface ist also deutlich zu niedrig angesetzt.
Dazu ist zumindest mir nicht bekannt, welche GPU-Teile neben dem GDDR6X-Interface noch mit MVDDC versorgt werden.

Hakim
2020-09-20, 16:00:23
Bei festen 60 FPS in 4k laufen die Lüfter bei ca. 1200.
Ich habe das Powerlimit auf 85% gesetzt und die GPU auf 0,900V.
Da lassen sich paar Watt sparen und hab im Moment immer noch Stabile 60 FPS in 4K.
https://s12.directupload.net/images/200920/cidmiwkx.jpg (https://www.directupload.net)

Hast du den Takt selber eingestellt bei den PL 85% und 0,9V? Geht es mit der Spannung noch weiter runter oder wird es instabil? Danke im voraus

Bandit3644
2020-09-20, 16:08:43
Hast du den Takt selber eingestellt bei den PL 85% und 0,9V? Geht es mit der Spannung noch weiter runter oder wird es instabil? Danke im voraus

Das hab ich so in der Curve eingestellt im Afterburner. Weniger V geht schon aber da muss auch der Takt runter.

Emil_i_Lönneberga
2020-09-20, 16:23:45
Das hab ich so in der Curve eingestellt im Afterburner. Weniger V geht schon aber da muss auch der Takt runter.

Ich verstehe nicht, wieso du hier das PL heruntersetzt.

Höheres Powerlimit bei weniger Spannung -> stabilerer Takt und weniger Spikes. :)

MfG
Raff

Weniger Spanung, Verbrauch sinkt.
Aber für einen gleichzeitig möglichst hohen und stabilen Takt solltest du doch das PL entweder undverändert lassen, oder im Falle von Ampere mit den ungewöhnlich hohen Lastspitzen, das Powerlimit hochziehen.

Im AB Curve kannst du doch für eine Spannung einen festgelegten Takt unter Last festlegen.
Als Beispiel 1930 MHz bei 0,9V, die dann im Lastzustand im Idealfall immer anliegen, solange das Power- oder Temperaturbudget nicht limitierend eingreifen.

Bandit3644
2020-09-20, 16:27:51
Ich verstehe nicht, wieso du hier das PL heruntersetzt.



Weniger Spanung, Verbrauch sinkt.
Aber für einen gleichzeitig möglichst hohen und stabilen Takt solltest du doch das PL entweder undverändert, oder im Falle von Ampere mit den ungewöhnlich hohen Lastspitzen, das Powerlimit hochziehen.

Wenn ich das Powerlimit hoch setze auf 100 oder eben wie bei der TUF 117% springt der Takt und die V und bleiben eben nicht stabil, auch steigt der Verbrauch wieder über 300 Watt trotz der 0,9 Volt. (ohne FPS Lock)
Mit festen 60 FPS 4K Ultra in Horizen 0,9V Powerlimit 100% Takt 1900MHz Verbrauch 275 Watt

Emil_i_Lönneberga
2020-09-20, 16:44:32
Wenn ich das Powerlimit hoch setze auf 100 oder eben wie bei der TUF 117% springt der Takt und die V und bleiben eben nicht stabil, auch steigt der Verbrauch wieder über 300 Watt trotz der 0,9 Volt.


Dann verhält sich Ampere hier womöglich anders als Pascal und Turing.

Bei Pascal konnte ich z.B. das hier umsetzen.

Lastzustand --> festgetakerte 0,925V bei 1910MHz, keine Fluktuationen bei Spannung und Takt. Diese stabile Kombi musste natürlich durch Testen herausgefunden werden. Das PL wurde dabei nie abgesenkt, sondern wenn überhaupt nur angehoben.

1.) Umschaltaste gedrückt halten und komplette Kurve soweit nach unten ziehen, bis alle Punkte unterhalb des anvisierten Zieltakts liegen.
2.) Punkt bei 0,925V auf 1910MHz hochziehen.
3.) Apply in der Startoberfläche des AB betätigen.
4.) Alle Zielpunkte nach 0,925V liegen automatisch auf 1910MHz.
5.) Die Punkte vor 0,925V werden nicht angerührt.
6.) Im Idle Betrieb liegt weiterhin derselbe niedrige Takt- und Spannunsgwert an, der auch out-of-the-box schon vorhanden war.


Anleitung:https://youtu.be/UGeGLU8uh9M?t=409


Entscheidende Schlagworte zum Powerlimit:https://youtu.be/UGeGLU8uh9M?t=523



https://www.computerbase.de/forum/attachments/curve-editor-hellrote-linie-jpg.699987/

Troyan
2020-09-20, 16:46:51
Bandit3644,
wenn du Lust und Zeit hast, könntest du den Benchmark der Asteroid-Demo von nVidia laufen lassen? Die verwendet Mesh-Shading (mit Turing eingeführt). Habe kein Test gefunden, der ein Vergleich gemacht hat.

Die Demo kann man bei nVidia herunterladen, benötigt aber einen Entwickleraccount: https://developer.nvidia.com/blog/using-turing-mesh-shaders-nvidia-asteroids-demo/

Habe die Demo mal hier hochgeladen, da ich keinen Link finde: https://easyupload.io/dktrow?__cf_chl_jschl_tk__=f6bf6dffa2ab2b268028e17fd5eac206dbda8a77-1600613182-0-AeO2PPr8V48HpSaSdotVQjDxT5sP332BID9vCpPL2Ge-pGbIjLGizm5yivlxjKwO1NwRKiEEmZuOqrBJnrEYRa-lnBeBHeHhTJ0N06Le10_7omKkXHqPz9rsQwrdH1fbliW176b22NRk7j2Cw91kOp8ur7-HjD-Y0r3c3fMg3xV8iV0VBRjj8w8DQ_E-MMpCJxYHvLAcbgmRtL-18mb6aGZuJs_uFLghtAMMOgqtptTMP0fucaLXcVs2WiLXDkrYbynCxINGFwsuMXMWugXkWLgZvAQL0gm BXs2V28hODvK1flt_QK8NBGgYAcOPpwojZ_v-HGat1RWUBUxnsZNyKwI

Wäre klasse, vielen Dank!

Bandit3644
2020-09-20, 17:24:26
Bandit3644,
wenn du Lust und Zeit hast, könntest du den Benchmark der Asteroid-Demo von nVidia laufen lassen? Die verwendet Mesh-Shading (mit Turing eingeführt). Habe kein Test gefunden, der ein Vergleich gemacht hat.

Die Demo kann man bei nVidia herunterladen, benötigt aber einen Entwickleraccount: https://developer.nvidia.com/blog/using-turing-mesh-shaders-nvidia-asteroids-demo/

Habe die Demo mal hier hochgeladen, da ich keinen Link finde: https://easyupload.io/dktrow?__cf_chl_jschl_tk__=f6bf6dffa2ab2b268028e17fd5eac206dbda8a77-1600613182-0-AeO2PPr8V48HpSaSdotVQjDxT5sP332BID9vCpPL2Ge-pGbIjLGizm5yivlxjKwO1NwRKiEEmZuOqrBJnrEYRa-lnBeBHeHhTJ0N06Le10_7omKkXHqPz9rsQwrdH1fbliW176b22NRk7j2Cw91kOp8ur7-HjD-Y0r3c3fMg3xV8iV0VBRjj8w8DQ_E-MMpCJxYHvLAcbgmRtL-18mb6aGZuJs_uFLghtAMMOgqtptTMP0fucaLXcVs2WiLXDkrYbynCxINGFwsuMXMWugXkWLgZvAQL0gm BXs2V28hODvK1flt_QK8NBGgYAcOPpwojZ_v-HGat1RWUBUxnsZNyKwI

Wäre klasse, vielen Dank!

1080p 5,24ms 190,8 FPS
1440p 6,66ms 150,1 FPS
2160p 8,42ms 118,8 FPS

Schicker Bench

Troyan
2020-09-20, 17:34:54
Cool, danke.

/edit:
Meine 2080TI mit 300W mal als Vergleich (+ Vorteil 3080):
1080p: 161,8 (+17,9%)
1440p: 100,9 (+48,7%)
2160p: 49,4 (+240%)

Ja, also. Ist okay...

Bandit3644
2020-09-20, 18:22:12
Cool, danke.

/edit:
Meine 2080TI mit 300W mal als Vergleich (+ Vorteil 3080):
1080p: 161,8 (+17,9%)
1440p: 100,9 (+48,7%)
2160p: 49,4 (+240%)

Ja, also. Ist okay...

Da ist der Abstand in 2160p ja gewaltig 😱

Blase
2020-09-20, 18:36:43
Cool, danke.

/edit:
Meine 2080TI mit 300W mal als Vergleich (+ Vorteil 3080):
1080p: 161,8 (+17,9%)
1440p: 100,9 (+48,7%)
2160p: 49,4 (+240%)

Ja, also. Ist okay...

In 2160p wäre das nicht "+240%", sondern +140% ...

MfG Blase

Ex3cut3r
2020-09-20, 18:37:10
Das stimmt was bei dir nicht Troyan. Ich komme schon mit einer 2080 in 1440p auf 89FPS.

r3ptil3
2020-09-20, 18:50:16
wenn du aber den fokus auf performance pro lautstärke legst und den temperaturfaktor rauslässt, dann ist die xtrio minimal schneller und gleichzeitig minimal leiser.
die tuf ist gut und wahrscheinlich wird die strix noch besser.ob sie leiser wird sei mal dahingestellt, ich glaube eher das sie minimal schneller und minimal lauter wird als die xtrio.

1330rpm bei 320/340w ist auf jeden fall beeindruckend.

ich bin auf die aorus tests gespannt.


Den Vergleich hat die TUF aber sowieso schon klar gewonnen, da deutlich günstiger.

Die Gaming X muss sich mit der Strix messen.

Nebenbei: Die Reviews zeigen durchgehend höhere Temperaturen bei der Gaming X als bei der TUF. Da die Reviews sowieso nicht unter realistischen Bedingungen gemacht werden (geschlossenes Gehäuse, Temperaturastieg nach mehreren Stunden...), muss man davon ausgehen, dass die Gaming X unter solchen Bedingungen locker über 80° heiss wird. Das war's dann mit Silent.

Genau dann machen sich die 5-6K bezahlt bei einer TUF und die Strix wird vielleicht nochmals einiges drauflegen.

Würde auf alle Fälle warten auf die Strix und die Aorus.

Digidi
2020-09-20, 18:53:59
Das stimmt was bei dir nicht Troyan. Ich komme schon mit einer 2080 in 1440p auf 89FPS.
Leute bitte Diskutiert mit Troyan nicht seit gestern werde ich Ihm nicht mehr Antworten. Das ist ein Fanboy übelster sorte der nichts auf dem Kasten hat. Lasst diese kleine Kind bitte hier in seiner verblendeten Welt Danke.

Bandit3644
2020-09-20, 18:55:03
Das stimmt was bei dir nicht Troyan. Ich komme schon mit einer 2080 in 1440p auf 89FPS.

Was schafft die in 1440p, 2160p @Stock und nicht so @2055/7700mhz.

DrMabuse1963
2020-09-20, 18:59:41
Sorry wegen der "blöden ?" Frage aber was ist pwe src power draw ? Konnte so nichts dazu finden,bzw. nur "Performance pro Watt",aber das macht keinen Sinn für mich...

Sardaukar.nsn
2020-09-20, 18:59:41
Mir scheint die TUF auch einer der interessantesten Custom Karten zu sein. Im Hardware Unboxed Video kann man schön sehen wie hochwertig das PCB und die Einzelteile sind. Dafür sind die UVP mit 719€ echt gut: https://www.youtube.com/watch?v=5fOpaPPCUDA&t=787s Powerlimit bei 375 Watt geht auch in Ordnung.

Bleibt noch auf die Strix zu warten. Zumindest die EVGA FTW3 kann sich trotz 420 Watt Bios mit ca. +3% kaum vom Rest absetzen. https://www.youtube.com/watch?v=5YuSsYGj5S4

pixeljetstream
2020-09-20, 19:51:58
Danke für die Infos. Wie sieht es mit Tessellation aus? Läuft man hier in die selben Beschränkungen oder macht sich die Verdopplung der FP32 (Hull- und Domainshader) stärker bemerkbar?
Im Prinzip gleiche Beschränkungen, wobei tessellation (Wie auch mesh shader) schon flotter ist als roh die Daten reinzupumpen. Aber ist wegen der Content preparation auch sehr selten (jenseits von den üblichen Spezialfällen, Terrain/Wasser..)
Wie in digidi‘s Raster vs Raytracing thread erläutert, profitiert Ampere eher von dem größeren L1 und das instruction set bei mesh shader wurde leicht verbessert. Insgesamt möchte aber nachwievor betonen dass die Geometrie Pipeline so gut wie nie shader bound ist (Sonderfälle wie massenhafte animierte Charaktere in den Sportspielen zum Beispiel sorgen zwar für deutlich mehr Last aber da tun eher die skinning Matrizen weh)

der13big-l
2020-09-20, 19:59:48
Die tuf scheint wirklich ganz gut zu sein. Vorallem ist der kühler und die Platine gut durchdacht. Mal schauen ob aus meinen Bestellungen noch was wird, sonst wäre die Asus dann mein Favorit. ich finde es immer noch eigenartig das es von der msi ventus keine Tests oder Berichte gibt. 🤔

r3ptil3
2020-09-20, 20:01:52
msi ventus keine Tests oder Berichte gibt. ��

Vermutlich weil MSI sowas auch gar nicht an die Tester verteilen will.
Der Kühler wird wohl neue Negativrekorde brechen was die Lautstärke angeht.

Darum hat ASUS auch so viele Samples der TUF verteilt, weil die ja wussten, dass das Teil einfach gut ist.

hq-hq
2020-09-20, 20:12:57
1080p 5,24ms 190,8 FPS
1440p 6,66ms 150,1 FPS
2160p 8,42ms 118,8 FPS

Schicker Bench

wenn sie will dann kann sie :freak:

3080 VS 2080Ti @ 2070/8300MHz
1440p 150,1 FPS VS 127,0 FPS
1440p 118% VS 100%

2160p 118,8 FPS VS 56,3 FPS
2160p 211% VS 100%

Bandit3644
2020-09-20, 20:14:56
1080p 5,24ms 190,8 FPS
1440p 6,66ms 150,1 FPS
2160p 8,42ms 118,8 FPS

Schicker Bench

Irgendwie spinnt der Bench bei mir, bekomme immer andere Werte.
Ich korrigiere jetzt mal auf niedrigsten Werte.

1080p 5,13ms 194,8 FPS
1440p 8,03ms 123,6 FPS
2160p 17,02ms 58,8 FPS

hq-hq
2020-09-20, 20:20:43
Irgendwie spinnt der Bench bei mir, bekomme immer andere Werte.
Ich korrigiere jetzt mal auf niedrigsten Werte.

1080p 5,13ms 194,8 FPS
1440p 8,03ms 123,6 FPS
2160p 17,02ms 58,8 FPS

neiiin nicht den Leuchtturm abreissen :eek:

in welcher Auflösung ein Bench läuft versuch ich immer an der Schriftgrösse vom AB abzulesen, wobei ich auch mal über einen "interne Renderauflösung" Regler gestolpert bin

der13big-l
2020-09-20, 20:21:28
Vermutlich weil MSI sowas auch gar nicht an die Tester verteilen will.
Der Kühler wird wohl neue Negativrekorde brechen was die Lautstärke angeht.

Darum hat ASUS auch so viele Samples der TUF verteilt, weil die ja wussten, dass das Teil einfach gut ist.

Das kann natürlich sein, aber msi war doch bei den 2000er auch sehr gut was die kühler angeht. Daher hatte ich auch die msi gewählt. Die Asus gab es zu dem Zeitpunkt noch gar nicht bei alternate. Nur die msi und Gigabyte mit jeweils 2 Karten. Aber nun gilt es eh erstmal abzuwarten. Würde mich auch interessieren wie viele Karten verkauft wurden ohne einen Liefertermin dafür zu haben. Ist mit Sicherheit nen Haufen Kohle der da per Vorkasse eingenommen wurde.

Colin MacLaren
2020-09-20, 20:29:16
Ich bin hart am Überlegen. Ich habe bei Amazon die ZOTAC geordert, wann immer die kommen möge. Eine TUF für 719 EUR wäre mein Favorit, aber eh es man die für den Preis bekommt haben wir wohl 2021.

Andererseits: Der einzige wirkliche Anwendungsfall ist für mich das aktuelle Cod in 3840x1080 auf dem Ultrawide zu spielen und dennoch die 144fps zu knacken. Die 2080S ist da eher bei 105fps. Sowas wie Zero Dawn oder Tomb Raider läuft auch mit der 2080S in 3810x1080 auf dem Monitor der in 4k auf dem Fernseher flüssig mit 60fps+ und ein paar sinnvollen Einstellungen. Andererseits wäre eine PS5 auch nicht schlecht für die Exklusivtitel und die Bequemlichkeit. Alles andere PC-exklusive, das mich interessiert (Pahtfinder, Age4 ect.) ist jetzt eher nicht das, was eine 3080er benötigt.

grobi
2020-09-20, 20:44:23
Na mal schauen was dann wirklich für ein Takt anliegt bei der Strix. Meine TUF taktet ja schon zwischen 1925-2010 MHz.

Bin ich eigentlich der einzige hier der eine 3080 bekommen hat? Das ist schon ziemlich blöd.


Drück mir die Daumen das meine 3080 von EVGA nächste Woche kommt. Da gibt es auch kaum Tests. Ich hoffe der Kühler taugt

mfg grobi

Bandit3644
2020-09-20, 20:47:39
Drück mir die Daumen das meine 3080 von EVGA nächste Woche kommt. Da gibt es auch kaum Tests. Ich hoffe der Kühler taugt

mfg grobi

Wird gemacht 🙂👍

Triniter
2020-09-20, 21:01:31
Wenn die TUF so gut ist bin ich mal auf die Strix gespannt

Gynoug MD
2020-09-20, 21:44:31
https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/News/Amazon-Vorbestellungen-problematisch-1358434/
20.000!
:usad:

Daredevil
2020-09-20, 21:45:48
Ich zitiere mich mal selbst:


https://www.3dcenter.org/artikel/mindfactory-grafikkarten-retail-verkaufsreport-q22020

Hätte Amazon geliefert bzw. wenn Amazon liefert, haben die an einem halben Tag mehr Zotac Karten verkauft, wie Mindfactory im kompletten Q2 mit allen Karten zusammen der Serie 5700XT, 5700, 5600XT, 5500XT, RX590.

14 Millionen Umsatz in nem halben Tag.
Und das mit einer 700€+ Karte :<

Flusher
2020-09-20, 22:01:06
Ist schon ein Armutszeugnis wenn in einem Enthusiastenforum mit zig Interessenten gerade mal EINER, eine Karte bekommen hat.

:facepalm:

Daredevil
2020-09-20, 22:02:12
Ich habs halt Original verkackt, weil ich die verfügbare Karte bei Alternate storniert habe, weil ich Amazon mit der Lieferung vertraut habe. :D
Aber nun. Nächste Woche dann halt.

Bis dahin ist die Karte aber eh schon drölf mal durchleuchtet worden, da machts halt auch weniger Spaß, das selbst zu machen.
Hatte mich auf ein BastelWE gefreut. :(

Zergra
2020-09-20, 22:03:28
Ist schon ein Armutszeugnis wenn in einem Enthusiastenforum mit zig Interessenten gerade mal EINER, eine Karte bekommen hat.

:facepalm:
Sind doch mindestens 2 :D

Außerdem habe ich erstmal verzichtet. Es gab mehrere Möglichkeiten, wenn an den schnell war.

Matrix316
2020-09-20, 22:08:29
Ich habs halt Original verkackt, weil ich die verfügbare Karte bei Alternate storniert habe, weil ich Amazon mit der Lieferung vertraut habe. :D
Aber nun. Nächste Woche dann halt.

Bis dahin ist die Karte aber eh schon drölf mal durchleuchtet worden, da machts halt auch weniger Spaß, das selbst zu machen.
Hatte mich auf ein BastelWE gefreut. :(
Genau deswegen hab ich nicht bei Mindfactory bestellt, obwohl zu dem Zeitpunkt als ich da am Freitag Morgen auf der Homepage war, noch 5 Palits und 5 Gainwards oder so lieferbar waren, weil Lieferungen von denen bei mir immer einen Tag länger dauern und ich wollte die eigentlich gestern auch fürs Wochenende haben... :usad:

Aber diese 20000 bei Zotac, sind die echt oder auch Bots?

Zergra
2020-09-20, 22:15:57
Aber diese 20000 bei Zotac, sind die echt oder auch Bots?


Denke die sind schon echt, sonst hätten sie wohl viele gelöscht.
Kann natürlich sein, das dort einige 2-3 bestellt haben, um sie später mit Gewinn zu verkaufen.

Am Ende war es eben die einzige Karte die Stundenlang zu kaufen war, und das im glauben das Sie am nächsten Tag versendet wird. Da werden viele zugeschlagen haben.

Effe
2020-09-20, 22:42:10
Stand da kaufen bzw bestellen? Als ich mal aus Spaß schaute, stand da "vorbestellen" und Veröffentlichung am 18.9. und kein Lieferdatum.
Und solange man keine Versandbestätigung erhält, ist kein Kaufvertrag entstanden und auch kein Geld geflossen.

Evil Ash
2020-09-20, 22:43:13
Genau deswegen hab ich nicht bei Mindfactory bestellt, obwohl zu dem Zeitpunkt als ich da am Freitag Morgen auf der Homepage war, noch 5 Palits und 5 Gainwards oder so lieferbar waren, weil Lieferungen von denen bei mir immer einen Tag länger dauern und ich wollte die eigentlich gestern auch fürs Wochenende haben... :usad:

Aber diese 20000 bei Zotac, sind die echt oder auch Bots?

Hm, ich hatte auch Freitag Vormittag bei Mindfactory bestellt und die Karte kam am Samstag an (MSI 3080 Gaming X Trio). :)

wolik
2020-09-20, 22:44:40
Ich habs halt Original verkackt, weil ich die verfügbare Karte bei Alternate storniert habe, weil ich Amazon mit der Lieferung vertraut habe. :D
Aber nun. Nächste Woche dann halt.

Bis dahin ist die Karte aber eh schon drölf mal durchleuchtet worden, da machts halt auch weniger Spaß, das selbst zu machen.
Hatte mich auf ein BastelWE gefreut. :(
verfügbare Karte bei Alternate? Zwei Stück dort bestehlt 15:21 und 15:25. Null gekriegt. Mal sehen was am Donnerstag los ist.

Man soll diese Geschichte mit Bots käufen nicht besonders glauben. Man kann selber bei Ebay nachschauen wie viel 3080 wir dort angeboten... nicht besonders viel.

Robot
2020-09-20, 22:55:14
Auch bei ebay gibts von der FE gar nichts, die Hälfte der 5 Auktionen, die da weltweit laufen, sind noch fakes ^^

hq-hq
2020-09-20, 22:57:05
Auch bei ebay gibts von der FE gar nichts, die hälfe der 5 Auktionen die da weltweit laufen sind noch fakes ^^

vielleicht nutzt die Bestell-Bot Seite nur die Gunst der Stunde für Werbung, würde sagen gefickt eingeschädelt, jeder kennt es jetzt :freak:

Robot
2020-09-20, 22:59:32
vielleicht nutzt die Bestell-Bot Seite nur die Gunst der Stunde für Werbung, würde sagen gefickt eingeschädelt, jeder kennt es jetzt :freak:

Im Internet ist alles möglich. Vielleicht hat Nvidia den Bot auch einfach selber benutzt, damit niemand ne Bestellung durch bekommt, von den Karten die es kaum gibt ;D :freak:

Zutrauen würde man es denen. Ne Spaß beiseite, die hatten 100 oder irgendwas Karten weltweit, die waren in einer Sekunde weg und das ist die ganze Story ;)

hq-hq
2020-09-20, 23:08:22
Im Internet ist alles möglich. Vielleicht hat Nvidia den Bot auch einfach selber benutzt, damit niemand ne Bestellung durch bekommt, von den Karten die es kaum gibt ;D :freak:

Zutrauen würde man es denen. Ne Spaß beiseite, die hatte 100 oder irgendwas Karten weltweit, die waren in einer Sekunde weg und das ist die ganze Story ;)

so ähnlich wie David Brandes mal die Charts manipuliert hatte in dem er einfach selbst CDs von seinen Vertrags-Musikern gekauft hat :biggrin:

selbst einige tausend Karten wären weltweit schnell vergriffen gewesen

Ex3cut3r
2020-09-20, 23:20:42
Was schafft die in 1440p, 2160p @Stock und nicht so @2055/7700mhz.

Kannst du auf der ersten Seite im Benchmark Thead der NVIDIA Asteroids Tech-Demo selbst sehen. Leute haben auch schon gebencht bevor du eine 3080 hattest. :rolleyes:

4K kann ich nicht mit dienen, da ich einen 21:9 (3440x1440) Monitor habe.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11880549#post11880549

Lu
2020-09-20, 23:28:10
Was ich etwas bedenklich fand, die Gigabyte Verpackung hatte keinerlei Siegel.
Schon lustig, mit meiner 5 Jahre alten Kiste bin ich im Time Spy Extreme Graphics Score auf Platz 19 mit 9498 Punkten.

Bandit3644
2020-09-20, 23:29:07
Kannst du auf der ersten Seite im Benchmark Thead der NVIDIA Asteroids Tech-Demo selbst sehen. Leute haben auch schon gebencht bevor du eine 3080 hattest. :rolleyes:

4K kann ich nicht mit dienen, da ich einen 21:9 (3440x1440) Monitor habe.

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11880549#post11880549

Das hab ich doch gesehen deshalb wollte ich gern wissen was die Karte ohne OC leistet.

Ex3cut3r
2020-09-21, 00:18:36
Das hab ich doch gesehen deshalb wollte ich gern wissen was die Karte ohne OC leistet.

Achso. Dann mein Fehler kannst 10% abziehen.

BlacKi
2020-09-21, 01:13:06
was für eine karte XD
incl. vapor chamber
https://abload.de/thumb/gb39jpo.png (https://abload.de/image.php?img=gb39jpo.png)

plus temperaturen und fanspeed ingame. 1700-1800rpm, bei +-65° und +-2ghz.
raNWOkG54VQ

r3ptil3
2020-09-21, 01:59:05
was für eine karte XD
incl. vapor chamber
https://abload.de/thumb/gb39jpo.png (https://abload.de/image.php?img=gb39jpo.png)

plus temperaturen und fanspeed ingame. 1700-1800rpm, bei +-65° und +-2ghz.
https://youtu.be/raNWOkG54VQ

Die Lüfterdrehzahl bei über 1800 RPM... wie das leise sein soll, kann ich mir nicht vorstellen.

Ex3cut3r
2020-09-21, 02:00:38
Ja, aber mit 2ghz out the box und Standard PT von 400W :freak:
Bei 350W PT (mussten 87% sein) läuft die bestimmt flüsterleise, mit 60 Grad und 1300 RPM. Allerdings auch ein riesiger Brocken, ohne PCIe Stütze, wurde ich mit der Zeit Angst bekommen, dass Sie denn ganzen Slot mit in den Tod reißt. ^^

NikLaw
2020-09-21, 08:06:55
Oh nein, hole heute die MSI Ventus OC ab. Dann bleibt mir wohl nur noch ein Video zu machen, in dem ich die Karte zerstöre, um ein Zeichen gegen schlechtes Kühlerdesign zu setzen... oder ich senke das Power Limit und die Spannung etwas. Mal sehen.

der13big-l
2020-09-21, 08:16:41
Oh nein, hole heute die MSI Ventus OC ab. Dann bleibt mir wohl nur noch ein Video zu machen, in dem ich die Karte zerstöre, um ein Zeichen gegen schlechtes Kühlerdesign zu setzen... oder ich senke das Power Limit und die Spannung etwas. Mal sehen.

Nee, Berichte Mal lieber wie laut sie ist und wie heiß sie wird. Und was man noch so testen kann.

Ich habe vorhin von Alternate ne Mail bekommen, das der Lieferant nicht geliefert hat und sie mit ihm in Kontakt stehen. Einen möglichen Liefertermin wissen sie natürlich nicht.
Traurig, das immer andere schuld sind, wenn ich was nicht da habe, kann ich es auch nicht als Lagerware verkaufen.🤦

NikLaw
2020-09-21, 08:52:27
Nee, Berichte Mal lieber wie laut sie ist und wie heiß sie wird. Und was man noch so testen kann.

Ich habe vorhin von Alternate ne Mail bekommen, das der Lieferant nicht geliefert hat und sie mit ihm in Kontakt stehen. Einen möglichen Liefertermin wissen sie natürlich nicht.
Traurig, das immer andere schuld sind, wenn ich was nicht da habe, kann ich es auch nicht als Lagerware verkaufen.🤦

ok, du hast mich überredet :)

BUG
2020-09-21, 09:05:55
Mich würde mal interessieren ob die 3080 MSI Ventus wirklich die SLi Finger hat die auf den Produktbildern zu sehen sind, eigentlich ist das ja der 3090 vorbehalten.

Gruß
BUG

Raff
2020-09-21, 09:13:14
Selbst wenn, dann ist das ein "Produktionsrest", den man nicht nutzen kann, weil die Software nicht mitspielt.

MfG
Raff

Ex3cut3r
2020-09-21, 09:22:46
Software kann man Hacken/anpassen. ^^

Thunder99
2020-09-21, 09:59:14
Wann kann man mit UV Tests rechnen? :)

Flusher
2020-09-21, 10:01:29
Heute früh morgens noch von Alternate eine Mail mit Mittelung von Lieferverzögerungen erhalten. Damit hat sich die Hoffnung auf den Erhalt einer Karte in den kommenden 3 Wochen erst mal erledigt.

Wann gibts die nächsten offiziellen Infos zu BigNavi? :freak:

Emil_i_Lönneberga
2020-09-21, 10:07:56
Wenn ich das Powerlimit hoch setze auf 100 oder eben wie bei der TUF 117% springt der Takt und die V und bleiben eben nicht stabil, auch steigt der Verbrauch wieder über 300 Watt trotz der 0,9 Volt. (ohne FPS Lock)
Mit festen 60 FPS 4K Ultra in Horizen 0,9V Powerlimit 100% Takt 1900MHz Verbrauch 275 Watt


Dann verhält sich Ampere hier womöglich anders als Pascal und Turing.

Bei Pascal konnte ich z.B. das hier umsetzen.

Lastzustand --> festgetakerte 0,925V bei 1910MHz, keine Fluktuationen bei Spannung und Takt. Diese stabile Kombi musste natürlich durch Testen herausgefunden werden. Das PL wurde dabei nie abgesenkt, sondern wenn überhaupt nur angehoben.

1.) Umschaltaste gedrückt halten und komplette Kurve soweit nach unten ziehen, bis alle Punkte unterhalb des anvisierten Zieltakts liegen.
2.) Punkt bei 0,925V auf 1910MHz hochziehen.
3.) Apply in der Startoberfläche des AB betätigen.
4.) Alle Zielpunkte nach 0,925V liegen automatisch auf 1910MHz.
5.) Die Punkte vor 0,925V werden nicht angerührt.
6.) Im Idle Betrieb liegt weiterhin derselbe niedrige Takt- und Spannunsgwert an, der auch out-of-the-box schon vorhanden war.


Anleitung:https://youtu.be/UGeGLU8uh9M?t=409


Entscheidende Schlagworte zum Powerlimit:https://youtu.be/UGeGLU8uh9M?t=523



https://www.computerbase.de/forum/attachments/curve-editor-hellrote-linie-jpg.699987/



Ok, es funktioniert weiterhin.

https://www.youtube.com/watch?v=o1B4qZFDpYE

3080 FE
Divison 2
4K
ohne Frame Rate Limit
Powerlimit 100%
290W vs. 340W
0,80V vs. 0,91V

ChaosTM
2020-09-21, 10:33:32
Das Undervolten schaut schon mal nett aus. Mit OC erreicht man bei der Karte sowieso nix mehr.

Lawmachine79
2020-09-21, 10:53:13
Heute früh morgens noch von Alternate eine Mail mit Mittelung von Lieferverzögerungen erhalten. Damit hat sich die Hoffnung auf den Erhalt einer Karte in den kommenden 3 Wochen erst mal erledigt.

Wann gibts die nächsten offiziellen Infos zu BigNavi? :freak:
Ich habe die Mail heute morgen auch bekommen. Wann hast Du bestellt? Ich 15:15. Mich würde mal interessieren, bis wann man bestellt haben muss, um eine Karte bekommen zu haben.

BlacKi
2020-09-21, 10:54:35
Ja, aber mit 2ghz out the box und Standard PT von 400W :freak:
Bei 350W PT (mussten 87% sein) läuft die bestimmt flüsterleise, mit 60 Grad und 1300 RPM. Allerdings auch ein riesiger Brocken, ohne PCIe Stütze, wurde ich mit der Zeit Angst bekommen, dass Sie denn ganzen Slot mit in den Tod reißt. ^^
Die Lüfterdrehzahl bei über 1800 RPM... wie das leise sein soll, kann ich mir nicht vorstellen.
keypunkt hier ist die vaporchamber. ich erwarte hier etwas mehr reserven was speicher OC angeht als bei den anderen karten.

die TUF dreht angeblich ja auch mit 1700-1800rpm und ist kaum lauter als die x trio. pötzlich kannst du dir es nicht mehr vorstellen wie das leise sein soll...

@verfügbarkeit. ich kann nicht nachvollziehen wie die verfügbarkeit der 3090 noch weniger karten gegeben sein soll als bei der 3080.

Emil_i_Lönneberga
2020-09-21, 10:55:16
Das Undervolten schaut schon mal nett aus. Mit OC erreicht man bei der Karte sowieso nix mehr.



Da bin ich voll bei dir.

Er hat den Vergleich auch mit einer auf 400W hochgezogenen 3080FE durchgeführt.

PL 115%
PT 90°C
Core Clock +110MHz
Memory Clock +800MHz
Vcore schwankt wie ein Kuhschwanz zwischen 0,90V und 0,95V


https://www.youtube.com/watch?v=QNj0cRX2SYI


Das resultiert in wahnsinnige +4Fps gegenüber den 350W bzw. 290W mit UV und die Karte wird zum richtigen Effizienzwunder.

Ich denke, die Marschrichtung bei Ampere sollte damit klar sein.

Raff wird in seinem UV Artikel mit Feintuning mit Sicherheit beim Takt noch etwas mehr herausholen können.

0,85V und 1850-1900MHz könnten wieder die Zielsetzung für das Sweetspot OC werden.

rentex
2020-09-21, 11:03:57
Wie sind denn die Erfahrungen mit dem Kühlsystem der EVGA Karten der Ultra Gaming Serie? Oder gar Allgemein mit EVGA?

Flusher
2020-09-21, 11:11:19
bitte löschen

Flusher
2020-09-21, 11:13:07
Ich habe die Mail heute morgen auch bekommen. Wann hast Du bestellt? Ich 15:15. Mich würde mal interessieren, bis wann man bestellt haben muss, um eine Karte bekommen zu haben.

Ich habe sie um 15:10 Uhr in den Warenkorb gelegt und kurz darauf per PayPal Express bezahlt. Laut Mail von Paypal wurde die Transaktion um 15:31 Uhr ausgeführt.

Da bin ich voll bei dir.

Er hat den Vergleich auch mit einer auf 400W hochgezogenen 3080FE durchgeführt.


https://www.youtube.com/watch?v=QNj0cRX2SYI


Das resultiert in wahnsinnige +4Fps gegenüber den 350W bzw. 290W mit UV und die Karte wird zum richtigen Effizienzwunder.

Ich denke, die Marschrichtung bei Ampere sollte damit klar sein.

Raff wird in seinem UV Artikel mit Feintuning mit Sicherheit beim Takt noch etwas mehr herausholen können.

0,9V und >1900MHz könnte wieder das Sweetspot OC werden.

Funktioniert eigentlich der "OC Scanner" mit Ampere? Also das automatische Feintunen der P-States

r3ptil3
2020-09-21, 11:13:37
die TUF dreht angeblich ja auch mit 1700-1800rpm und ist kaum lauter als die x trio. pötzlich kannst du dir es nicht mehr vorstellen wie das leise sein soll...


Die TUF Dreht mit ca. 1500-1560 im QUIET Mode.
Im Performance-Mode ist sie hingegen mit knapp unter 2000 RPM einiges lauter.

Die Aorus dreht bei 65° bereits mit über 1800 RPM, wie sieht's dann bei über 75°+ aus? Das wollte ich damit ansprechen.

dildo4u
2020-09-21, 11:15:24
Ich habe sie um 15:10 Uhr in den Warenkorb gelegt und kurz darauf per PayPal Express bezahlt. Laut Mail von Paypal wurde die Transaktion um 15:31 Uhr ausgeführt.



Funktioniert eigentlich der "OC Scanner" mit Ampere? Also das automatische Feintunen der P-States
Ist Kaput laut dem Afterburner Entwickler.

https://www.guru3d.com/news-story/download-msi-afterburner-4-6-3-beta-2.html

BlacKi
2020-09-21, 11:18:48
Die TUF Dreht mit ca. 1500-1560 im QUIET Mode.
Im Performance-Mode ist sie hingegen mit knapp unter 2000 RPM einiges lauter.

Die Aorus dreht bei 65° bereits mit über 1800 RPM, wie sieht's dann bei über 75°+ aus? Das wollte ich damit ansprechen.
1300+-:biggrin:

du vergisst, das die aorus hier mit über 400w läuft, die tuf mit 320.

die betriebspunkte sind komplett anders.

r3ptil3
2020-09-21, 11:25:34
1300+-:biggrin:

du vergisst, das die aorus hier mit über 400w läuft, die tuf mit 320.

die betriebspunkte sind komplett anders.

ASUS TUF RTX 3080 QUIET Mode:
https://tpucdn.com/review/asus-geforce-rtx-3080-tuf-gaming-oc/images/clocks-and-thermals-quiet.png

Ist die Frage was die 400W in dem Fall bringen, wenn sie gleich taktet wie eine MSI Gaming X @ OC mit 350W - oder?

Aber das klingt jetzt fast so, als ob ich die AORUS schlecht reden will. Nein, bin gespannt auf die Reviews. Die Preise sprengen zumindest alle Grenzen von den 3080 Modellen - in der CH für knapp 1000€ gelistet. Vielleicht überrascht das Ding ja gerade mit besonderen OC Eigenschaften.

BlacKi
2020-09-21, 11:38:51
ASUS TUF RTX 3080 QUIET Mode:
https://tpucdn.com/review/asus-geforce-rtx-3080-tuf-gaming-oc/images/clocks-and-thermals-quiet.png

Ist die Frage was die 400W in dem Fall bringen, wenn sie gleich taktet wie eine MSI Gaming X @ OC mit 350W - oder?

Aber das klingt jetzt fast so, als ob ich die AORUS schlecht reden will. Nein, bin gespannt auf die Reviews. Die Preise sprengen zumindest alle Grenzen von den 3080 Modellen - in der CH für knapp 1000€ gelistet. Vielleicht überrascht das Ding ja gerade mit besonderen OC Eigenschaften.
bei uns sind die nichtmal gelistet. auf die preise gebe ich nichts. die preise orientieren sich sowieso erstmal nach der verfügbarkeit.
ich bin mir sowieso unschlüssig was ich letztlich mache. warten ist sowieso die einzigste option. ob die karten lieferbar werden bevor die 20gb version kommt? soll ich mir vl doch eine 3090 holen? tatsache ist, sie wird über 18monate kaum an wert verlieren und dass ist das,was für mich zählt. aber die 3090 wird auch kaum lieferbar sein:frown:

ich muss hier leider noch warten, egal wie. ich hab gedacht ich könnte CP2077 mit ner ampere karte spielen :(

Lawmachine79
2020-09-21, 11:39:49
Bei Conrad werden Karten als "Online verfügbar" gelistet; sind allerdings sauteuer und Liefertermin wird mit 2. Oktober angegeben.

Daredevil
2020-09-21, 11:42:01
Conrad gibt auch als "Originalpreis" 1299€ an. :D
Der ist mir ja echt symphatisch, weil direkt um die Ecke, aber ein teurer Kackladen bleibt es dennoch.

Emil_i_Lönneberga
2020-09-21, 11:42:03
Ich habe sie um 15:10 Uhr in den Warenkorb gelegt und kurz darauf per PayPal Express bezahlt. Laut Mail von Paypal wurde die Transaktion um 15:31 Uhr ausgeführt.



Funktioniert eigentlich der "OC Scanner" mit Ampere? Also das automatische Feintunen der P-States


Anscheinend noch nicht stabil.

Ist Kaput laut dem Afterburner Entwickler.

https://www.guru3d.com/news-story/download-msi-afterburner-4-6-3-beta-2.html


A small warning, the OC Scanner for us did not provide stable results, we have had MSI test it on their QA lab as well, with similar results. This goes for all brands, ergo NVIDIA needs to further analyze and tweak their OC Scanner API implementation. Also, be aware that one you apply an OC Scanner tweak, after reboot the settings will stick (an NVIDIA mandatory one). If you oppose that preference, in OC Scanner you can hit the 'revert' button and undo the changes.

The entire changes list can be found on the download page. Enjoy !

r3ptil3
2020-09-21, 11:56:35
bei uns sind die nichtmal gelistet. auf die preise gebe ich nichts. die preise orientieren sich sowieso erstmal nach der verfügbarkeit.
ich bin mir sowieso unschlüssig was ich letztlich mache. warten ist sowieso die einzigste option. ob die karten lieferbar werden bevor die 20gb version kommt? soll ich mir vl doch eine 3090 holen? tatsache ist, sie wird über 18monate kaum an wert verlieren und dass ist das,was für mich zählt. aber die 3090 wird auch kaum lieferbar sein:frown:

ich muss hier leider noch warten, egal wie. ich hab gedacht ich könnte CP2077 mit ner ampere karte spielen :(

3080 bestellen :) - wird ab Anfang Oktober bestimmt wieder besser verfügbar sein.
Falls dann eine 20Gb Version kommt, dauert das sowieso zu lange (Dezember, Januar...) und dann kann man immer noch mit wenig Verlust die 10Gb Version verkaufen und die hat die Monate mit der 10Gb Version geniessen können. Die 10Gb werden ganz sicher keine Spassbremse sein.

Die 3090 ist interessant, aber halte ich für eine zu grosse Wertverlustfalle.
Gerade hinsichtlich der 20Gb Version der 3080, wäre dann eine 3090 fast überflüssig bei dem Preis.

Ich warte jetzt auf den 1/2. Oktober bis die Strix OC hier ist und freue mich dann auf WQHD, G-Sync und ganz viel FPS.

Gynoug MD
2020-09-21, 12:00:09
Conrad gibt auch als "Originalpreis" 1299€ an. :D
Der ist mir ja echt symphatisch, weil direkt um die Ecke, aber ein teurer Kackladen bleibt es dennoch.
https://www.it-recht-kanzlei.de/nicht-existierende-uvp.html

ZeroStrat
2020-09-21, 12:12:52
PCGH.de: Nvidia Geforce RTX 3080 im XXL-Test: Ampère, le trés légère Preisbrechèr (https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Tests/Test-Review-Founders-Edition-1357408/)

Besonders beachtenswert: Geforce RTX 3080 Spezialtests: Raytracing-Leistungsindex, Pro-Takt-Leistung, PCI-Express-Durchsatz (https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Tests/Raytracing-Vergleich-DLSS-Test-1357418/)



Echt jetzt. Was unterstehen die sich, die Karte bestmöglich auszufahren, diese Affen!

MfG
Raff

Du verlinkst deinen Test, der nicht einen einzigen Beleg für die (tatsächlichen) Vorteile von PCIe Gen 4 enthält.

Ich kann auch AIDA64 Memory Tests meines i9 HEDT Systems posten mit 120GB/s Durchsatz aufgrund von Quad-Channel.

Nur es bringt in Spielen nichts... :confused:

Emil_i_Lönneberga
2020-09-21, 12:22:05
Du verlinkst deinen Test, der nicht einen einzigen Beleg für die (tatsächlichen) Vorteile von PCIe Gen 4 enthält.

Ich kann auch AIDA64 Memory Tests meines i9 HEDT Systems posten mit 120GB/s Durchsatz aufgrund von Quad-Channel.

Nur es bringt in Spielen nichts... :confused:

Veraltet.

Aktuell:

https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Specials/PCI-Express-PCIE-30-40-Benchmarks-1358388/

Daredevil
2020-09-21, 12:26:51
Veraltet.

Aktuell:

https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Specials/PCI-Express-PCIE-30-40-Benchmarks-1358388/
Danke! :)

PCIe Bandbreite "lohnt" sich dann, wenn VRAM knapp wird, oder sehr hohe FPS gefahren werden. Das war schon bei SLI/CF immer der limitierende Faktor.
Bis zu 10% in den Min FPS bei manchen Spielen ( bei viel FPS ) sind schon knorke zum mitnehmen for free.
Imho also für HighFPS Gamer Pflicht. Nur doof, dass die eigentlich nen Intel haben sollten und da kein 4.0 vorhanden ist aktuell. ^^

ZeroStrat
2020-09-21, 12:27:05
Veraltet.

Aktuell:

https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Specials/PCI-Express-PCIE-30-40-Benchmarks-1358388/

Ohne Intel als Referenz wertlos. Außerdem liegen die Ergebnisse im Bereich der Messgenauigkeit.

Raff
2020-09-21, 12:28:08
Nein, tun sie nicht. Wenn 3-10 Prozent neuerdings "Messtoleranz" sind, warum reiße ich mir hier für präzise Messungen und Unterschiede ständig den Arsch auf? :ugly:

Was fehlt, sind die tiefergehenden Messungen, was bei Speichermangel passiert (Spoiler: mehr).

MfG
Raff

Matrix316
2020-09-21, 12:33:30
Nein, tun sie nicht. Wenn 3-10 Prozent neuerdings "Messtoleranz" sind, warum reiße ich mir hier für präzise Messungen und Unterschiede ständig den Arsch auf? :ugly:

Was fehlt, sind die tiefergehenden Messungen, was bei Speichermangel passiert (Spoiler: mehr).

MfG
Raff

Jetzt fehlt nur noch Intel mit PCIe 3 vs AMD mit PCIe 4 ;) .

EDIT: Bzw. Intel mit PCIe 3 vs AMD mit PCIe 3. Die Normalen Benchmarks sind schon 3 vs 4 oder?

ZeroStrat
2020-09-21, 12:33:39
Nein, tun sie nicht. Wenn 3-10 Prozent neuerdings "Messtoleranz" sind, warum reiße ich mir hier für präzise Messungen und Unterschiede ständig den Arsch auf? :ugly:

Was fehlt, sind die tiefergehenden Messungen, was bei Speichermangel passiert (Spoiler: mehr).


Welcher Wert liegt denn bei 7%? Das ein Ausreißer. Im Mittel ist das Messtoleranz. Außerdem kein Vergleich mit einem Intel System. Der Test ist somit im Grunde wertlos.

Raff
2020-09-21, 12:36:54
Lies dir bitte mal den Text durch. Das sind Durchschnittswerte pro angegebener Zahl. :)

MfG
Raff

Daredevil
2020-09-21, 12:38:25
Welcher Wert liegt denn bei 7%? Das ein Ausreißer. Im Mittel ist das Messtoleranz. Außerdem kein Vergleich mit einem Intel System. Der Test ist somit im Grunde wertlos.
Du musst dir auch die Werte anschauen, wo die Bandbreite relevant ist, also limitieren könnte.
Als Tipp: 4K avg ist es nicht.

Als Beispiel meinem Crossfire Ausflug:
AVG sind leicht gestiegen, die richtigen Stars sind sind allerdings die Min.FPS, was anderes hat Raff hier ( Anhand einer GPU, die so schnell ist wie zwei Vega hier :D ) auch nicht aufgezeigt.

https://abload.de/img/unbenannt6gjn5.png

ZeroStrat
2020-09-21, 12:41:35
Lies dir bitte mal den Text durch. Das sind Durchschnittswerte pro angegebener Zahl. :)

Welche Durchschnittwerte pro Zahl? Verstehe ich nicht, sorry.

Du musst dir auch die Werte anschauen, wo die Bandbreite relevant ist, also limitieren könnte.
Als Tipp: 4K avg ist es nicht.

Als Beispiel meinem Crossfire Ausflug:
AVG sind leicht gestiegen, die richtigen Stars sind sind allerdings die Min.FPS, was anderes hat Raff hier ( Anhand einer GPU, die so schnell ist wie zwei Vega hier :D ) auch nicht aufgezeigt.


Das ist natürlich ein beeindruckendes Beispiel, nur spielt das für Praxis überhaupt keine Rolle mehr. ^^

Ex3cut3r
2020-09-21, 12:56:56
Wie soll man den Intel testen wenn die gar kein PCIe 4.0 haben? Bist nen Komiker richtig? X-D

@Raff Danke für den Test, wäre noch toll gewesen, wenn ihr einen Test in knappen VRAM Szenarien gemacht hättet, grade da sollete Gen 4 nochmal groß was bringen.

MiamiNice
2020-09-21, 12:57:16
Lies dir bitte mal den Text durch. Das sind Durchschnittswerte pro angegebener Zahl. :)

MfG
Raff


Jetzt habe ich meine Mittagspause damit verhauen das zu lesen incl. paar Comments aus eurer Community.
Erstmal wäre ein Intel Sytem schick gewesen zum Vergleich. Dann hätte man nämlich gesehen das der Intel trotz PCI-E 3 schneller ist, gerade bei High FPS Gamern. Dann frage ich mich was ihr für einen Zoo da drüben hat, wenn die Jungs da in den Comments schreiben das man mit dem kleinsten Ryzen besser spielen kann als mit dem dicksten Intel.
Könnt Ihr euch keine Mods leisten oder ist jedes Kiddy bei euch gerne gesehen, Hauptsache er klickt?
Da muss ich mich ernsthaft fragen, unabhängig von Dir, wie ernst man eure Seite noch nehmen kann. Schade :(

arcanum
2020-09-21, 13:02:34
die pci3/4 messung ist doch vor allem für amd umsteiger und amd aufrüster interessant. dass intel schneller ist, sollte mittlerweile bekannt sein. wieso wird immer der intel-vergleich von intel-besitzern gefordert nur um sich bestätigt zu fühlen? wer seinen epeen aber wachsen sehen will kann sich ja den vergleich von gamernexus ansehen, da ist auch ein intel 10700k dabei.

ZeroStrat
2020-09-21, 13:03:00
Wie soll man den Intel testen wenn die gar kein PCIe 4.0 haben? Bist ne Komiker richtig?

Bitte erst verstehen und dann eventuell beleidigen. :D

Es kann sein, dass die AMD Plattform ein Problem hat mit dem Umstellen auf Gen 3 im BIOS, siehe Video von Digital Foundry.

Natürlich hat ein Intel-System kein PCIe 4.0, aber es dient als Referenz für ein System, dass mit 3.0 im GPU-Limit keine Probs hat. Das muss man halt vergleichen.

PCGH hat mit dem Test nur bewiesen, dass der Umstieg auf ein Ryzen-System methodisch falsch war, weil die scheinbar größten Vorteile in FHD zu finden sind, wo aber die größere Performance eines Intel-Systems stärker wiegt.

BlacKi
2020-09-21, 13:03:58
Wie soll man den Intel testen wenn die gar kein PCIe 4.0 haben? Bist nen Komiker richtig? X-D

einfach einen schritt weiter denken, dann weißt du was er meint, aber ob er da einen relevanten punkt bringt bezweifle ich.

Ex3cut3r
2020-09-21, 13:05:50
Mein Gott Peinlich Miami. Es geht ja eben nicht darum wär schneller ist, AMD oder Intel, sondern was Gen 4 bringt. Und da Intel kein Gen 4 hat, sind Sie raus, ganz einfach.

r3ptil3
2020-09-21, 13:07:07
wieso wird immer der intel-vergleich von intel-besitzern gefordert nur um sich bestätigt zu fühlen?

Er meinte doch was ganz anderes und zwar Falschinfos verbreiten bzgl. PCIE4.0 im PCGH Forum.

Da aktuell sowieso von den meisten Reviewern eine Art Anti-Intel-Stimmung stattfindet, finde ich das doch berechtigt, dass nicht einfach mit Begriffen wie PCIE 4.0, Bandbreite usw. umher geworfen und ein Vorteil draus propagiert wird, sondern Fakten auf den Tisch gelegt werden und die Fakten sprechen klar: PCIE 4.0 bringt jetzt noch keinen Vorteil und Intel hat nach wie vor in den letzten 4-5% noch die Führung.

Ein AMD-System bringt somit aufgrund von PCIE 4.0 noch keine Vorteile im Gaming.

Edit: Korrektur, bevor der letzte Satz zerrissen wird: PCIE 4.0 bringt noch keine Vorteile bei voller Bandbreite (x16), bspw. bei einer RTX 3080.

Daredevil
2020-09-21, 13:10:20
und die Fakten sprechen klar: PCIE 4.0 bringt jetzt noch keinen Vorteil

Ein AMD-System bringt somit aufgrund von PCIE 4.0 noch absolut keine Vorteile im Gaming.
Ehm.... wo sind denn deine Fakten her? Aus dem Hut gezaubert?
Ich sehe hier und auch schon vorher bei der 5500XT im VRAM Limit durchaus klare Vorteile, die man im besten Fall "kostenlos" mitnehmen kann.

Edit:
@bardh
oki :D

arcanum
2020-09-21, 13:10:22
Er meinte doch was ganz anderes und zwar Falschinfos verbreiten bzgl. PCIE4.0 im PCGH Forum.

Da aktuell sowieso von den meisten Reviewern eine Art Anti-Intel-Stimmung stattfindet, finde ich das doch berechtigt, dass nicht einfach mit Begriffen wie PCIE 4.0, Bandbreite usw. umher geworfen und ein Vorteil draus propagiert wird, sondern Fakten auf den Tisch gelegt werden und die Fakten sprechen klar: PCIE 4.0 bringt jetzt noch keinen Vorteil und Intel hat nach wie vor in den letzten 4-5% noch die Führung.

Ein AMD-System bringt somit aufgrund von PCIE 4.0 noch absolut keine Vorteile im Gaming.

in den messungen von gamernexus steigen die fps im 0,1% percentile um bis zu 17% mit rtx. würde das nicht als keinen vorteil bezeichnen.

BlacKi
2020-09-21, 13:11:13
weil die scheinbar größten Vorteile in FHD zu finden sind, wo aber die größere Performance eines Intel-Systems stärker wiegt.
das ist den drawcalls zuzuschreiben, in fhd mit mehr fps gibts mehr drawcalls die durch den flaschenhals müssen.

der punkt hierbei ist aber nicht 4k oder fhd, sondern die anzahl der drawcalls. hab ich fhd und 4k dieselben fps, dann habe ich auch dieselbe auswirkung, bzw. könnte 4k wegen streamings theoretisch etwas mehr profitieren.

r3ptil3
2020-09-21, 13:16:55
Ich sehe hier und auch schon vorher bei der 5500XT im VRAM Limit durchaus klare Vorteile, die man im besten Fall "kostenlos" mitnehmen kann.

Du warst zu schnell :) habe den Satz noch ergänzt.

Die 5500 XT finde ich aber für den Vergleich nicht als eine Referenz, da sie mit PCIE 4.0 nur die volle Bandbreite von PCIe 3.0 x16 erreichen kann.

Mangel76
2020-09-21, 13:17:59
Außerdem liegen die Ergebnisse im Bereich der Messgenauigkeit.

Ähm, wenn es nur ein Problem der Messgenauigkeit wäre, dann würdest du aber mal positive, mal negative Abweichungen sehen. Wenn die Messwerte mit PCIe4 quasi immer etwas besser sind, dann kann das kein Problem der Messgenauigkeit sein! Es gibt also statistisch gesehen mit hoher Sicherheit einen positiven Effekt. Jetzt bleibt nur noch die Frage, ob die Größe des Effektes in der Realität einen erkennbaren Unterschied macht.

r3ptil3
2020-09-21, 13:18:59
in den messungen von gamernexus steigen die fps im 0,1% percentile um bis zu 17% mit rtx. würde das nicht als keinen vorteil bezeichnen.

OK, ich verstehe worauf du hinaus willst und da gebe ich dir natürlich recht bezogen auf das AMD System.

https://i.ibb.co/71q86jz/GN.png

Was sagt uns das für das Intel System oben aus?

ZeroStrat
2020-09-21, 13:20:07
Ähm, wenn es nur ein Problem der Messgenauigkeit wäre, dann würdest du aber mal positive, mal negative Abweichungen sehen. Wenn die Messwerte mit PCIe4 quasi immer etwas besser sind, dann kann das kein Problem der Messgenauigkeit sein! Es gibt also statistisch gesehen mit hoher Sicherheit einen positiven Effekt. Jetzt bleibt nur noch die Frage, ob die Größe des Effektes in der Realität einen erkennbaren Unterschied macht.
Da stimme ich dir zur. Leider fehlt die Gegenprobe mit einem Intel-System im harten GPU-Limit. So bleibt der Restzweifel, dass es an der Plattform liegt, siehe Video von Digital Foundry.

ZeroStrat
2020-09-21, 13:22:58
in den messungen von gamernexus steigen die fps im 0,1% percentile um bis zu 17% mit rtx. würde das nicht als keinen vorteil bezeichnen.
Diese Metrik ist überhaupt nicht geeignet für solche Aussagen, da diese viel zu anfällig für Ausreißer ist.

Ist ist außerdem nicht das 0.1% Perzentil, sondern 0.1% Low. Der Unterschied zwischen beiden Metriken ist immens.

r3ptil3
2020-09-21, 13:25:36
Diese Metrik ist überhaupt nicht geeignet für solche Aussagen, da diese viel zu anfällig für Ausreißer ist.

Ist ist außerdem nicht das 0.1% Perzentil, sondern 0.1% Low. Der Unterschied zwischen beiden Metriken ist immens.

Guter Hinweis, siehe nachfolgende Messung:
https://i.ibb.co/R4TXLRj/gn2.png

Daredevil
2020-09-21, 13:28:00
Die Auswirkungen der PCIe Bandbreite findet man aber nun einmal nicht im GPU Limit, sondern im Limit der Bandbreite.
Wenn eine Plattform ( Ja, auch Intel kann so eine Plattform sein ) mit PCIe 4.0 mehr FPS ausspuckt, "zaubert" man damit nicht das GPU Limit weg, sondern den Flaschenhals am Slot.

Ex3cut3r
2020-09-21, 13:34:34
Die Auswirkungen der PCIe Bandbreite findet man aber nun einmal nicht im GPU Limit, sondern im Limit der Bandbreite.
Wenn eine Plattform mit PCIe 4.0 mehr FPS ausspuckt, "zaubert" man damit nicht das GPU Limit weg, sondern den Flaschenhals am Slot.
Vollkommen richtig. Und wenn VRAM herrscht, kann PCIe 4.0 auch etwas bringen.

BlacKi
2020-09-21, 13:36:46
Guter Hinweis, siehe nachfolgende Messung:
https://i.ibb.co/R4TXLRj/gn2.png
nice find!

aber woran liegts? es ist doch kein cpu limit in 4k oder doch?

ich schau mir mal die stelle genauer an.

Ex3cut3r
2020-09-21, 13:45:51
Ist doch 1440p, steht zumindest oben in der Überschrift. Ich habe selbst einen 3600 mit DDR4 3800mhz @ CL14 und RDR2 ausgiebig gezockt, habe solche min. Werte in 3440x1440 mit einer 2080 nie gesehen. Das ist wohl irgendwas kaputt mit dem Nvidia Treiber und der neuen 3080 in Verbindung mit AMD CPUs.

ZeroStrat
2020-09-21, 13:46:28
nice find!

aber woran liegts? es ist doch kein cpu limit in 4k oder doch?

ich schau mir mal die stelle genauer an.

CPU bedingte Ausreißer wirken auf alle Auflösungen, wenn es nicht gerade 8k ist mit 10 FPS Average. ^^

Die x% Low Metrik, welche GamersNexus verwendet, ist im Grunde völlig ungeeignet für Hardwarevergleiche, weil Ausreißer nicht rausgefiltert werden. Das muss aber zwingend gemacht werden, weil in der Praxis nicht zwischen stochastischen und reproduzierbaren Ausreißern unterschieden werden kann.

Sie müssten als Gegenmaßnahme sehr viele Runs machen, um die guten rauspicken zu können. Auch wieder ein großes Hindernis für die Praxis.

BlacKi
2020-09-21, 13:54:48
CPU bedingte Ausreißer wirken auf alle Auflösungen, wenn es nicht gerade 8k ist mit 10 FPS Average. ^^

Die x% Low Metrik, welche GamersNexus verwendet, ist im Grunde völlig ungeeignet für Hardwarevergleiche, weil Ausreißer nicht rausgefiltert werden. Das muss aber zwingend gemacht werden, weil in der Praxis nicht zwischen stochastischen und reproduzierbaren Ausreißern unterschieden werden kann.

Sie müssten als Gegenmaßnahme sehr viele Runs machen, um die guten rauspicken zu können. Auch wieder ein großes Hindernis für die Praxis.
wenn die avg fps nicht ebenfalls dem entsprechen würden könntest du recht haben. aber so? die sind schon erheblich unterschiedlich.

JaniC
2020-09-21, 13:55:19
Kam heute morgen von cyberport:

Leider hat sich eine Änderung der Verfügbarkeit eines oder mehrerer Artikel
gegenüber dem angegebenen Status zum Zeitpunkt Ihrer Bestellung ergeben.
Wir bitten Sie, die Verzögerung zu entschuldigen.

Im Folgenden finden Sie eine Übersicht über die Artikel Ihrer ausstehenden
Bestellung mit dem jeweiligen voraussichtlichen Liefertermin, soweit uns
dieser bekannt ist:

________________________________________________________________________________
Artikel Bezeichnung Stück Liefertermin
________________________________________________________________________________ _

2E12-3L6 MSI RTX3080 GAMING X TRIO V389-005R 1 Liefertermin ist
derzeit unbestimmt
________________________________________________________________________________ _

Wenn die Läden (auch Alternate usw.) irgendwas wüssten, also wann sie die nächste Charge erhalten, würden sie ja nicht "unbekannt" angeben sondern "lieferbar in 7-10 Tagen", "in 10-14" oder sowas.

Die wissen nichts, weil es nichts zu wissen gibt: es gibt aktuell einfach keine Karten.
Ob die jetzt irgendwelche Minerbots gekauft haben oder es nie wirklich welche gab, weiß man nicht.
Nervt jedenfalls und der Hype verfliegt mit jedem Tag, bis man irgendwann genug Zeit hatte darüber nachzudenken und zu dem Schluss kommt, dass man ja Shadow of the Tomb Raider schon mit der 2080 in 4K auf dem OLED fast durchgespielt hat und es dank G-Sync ein problemloser Gamingspaß war mit 50-60fps.
Morgen überlege ich mir dann, welche Spiele ich wirklich spiele und ob mir Metro Exodus, RDR2 und Cyberpunk wirklich 800€ wert sind und Mittwoch wird dann storniert. ;)

w0mbat
2020-09-21, 13:58:44
Auf jeden Fall die klügere Entscheidung. Ich verstehe ja, dass man schnell aufrüsten will, wenn man noch auf ner alten Graka sitzt. Hab bei der Nitro+ 5700 XT auch sehr schnell zugeschlagen, weil meine alte R9 290 dann doch etwas lahm war.

Aber mit ner 2080 hat man aktuell doch noch keine Probleme. Und mit Big Navi könnte sich ja noch was an den Preise bewegen, bzw. vielleicht kommt ne "3080 SUPER/Ti" doch schneller als gedacht.

Matrix316
2020-09-21, 13:58:48
[...]
Morgen überlege ich mir dann, welche Spiele ich wirklich spiele und ob mir Metro Exodus, RDR2 und Cyberpunk wirklich 800€ wert sind und Mittwoch wird dann storniert. ;)
Und am Donnerstag die 3090 bestellt. :D

Stellt euch vor die wäre gut lieferbar. Und führe uns nicht in Versuchung Jensen, sondern erlöse uns von den niedrigen FPS. :freak:

BlacKi
2020-09-21, 13:59:05
Kam heute morgen von cyberport:

Leider hat sich eine Änderung der Verfügbarkeit eines oder mehrerer Artikel
gegenüber dem angegebenen Status zum Zeitpunkt Ihrer Bestellung ergeben.
Wir bitten Sie, die Verzögerung zu entschuldigen.

Im Folgenden finden Sie eine Übersicht über die Artikel Ihrer ausstehenden
Bestellung mit dem jeweiligen voraussichtlichen Liefertermin, soweit uns
dieser bekannt ist:

________________________________________________________________________________
Artikel Bezeichnung Stück Liefertermin
________________________________________________________________________________ _

2E12-3L6 MSI RTX3080 GAMING X TRIO V389-005R 1 Liefertermin ist
derzeit unbestimmt
________________________________________________________________________________ _

Wenn die Läden (auch Alternate usw.) irgendwas wüssten, also wann sie die nächste Charge erhalten, würden sie ja nicht "unbekannt" angeben sondern "lieferbar in 7-10 Tagen", "in 10-14" oder sowas.

Die wissen nichts, weil es nichts zu wissen gibt: es gibt aktuell einfach keine Karten.
Ob die jetzt irgendwelche Minerbots gekauft haben oder es nie wirklich welche gab, weiß man nicht.
Nervt jedenfalls und der Hype verfliegt mit jedem Tag, bis man irgendwann genug Zeit hatte darüber nachzudenken und zu dem Schluss kommt, dass man ja Shadow of the Tomb Raider schon mit der 2080 in 4K auf dem OLED fast durchgespielt hat und es dank G-Sync ein problemloser Gamingspaß war mit 50-60fps.
Morgen überlege ich mir dann, welche Spiele ich wirklich spiele und ob mir Metro Exodus, RDR2 und Cyberpunk wirklich 800€ wert sind und Mittwoch wird dann storniert. ;)
hätte ich die geliehene 2070s nicht hier wäre das schon bitter, denn ich hab anfang juli meine 1080ti verkauft. hätte ich jetzt 6 monate warten sollen mit keiner oder mit einer 200€ gpu?
das wäre ganz schön bitter gewesen...

ZeroStrat
2020-09-21, 13:59:06
wenn die avg fps nicht ebenfalls dem entsprechen würden könntest du recht haben. aber so? die sind schon erheblich unterschiedlich.

Ich könnte Recht haben? :D Ich beschäftige mich den ganzen Tag mit so was. ^^

Was meinst du mit den Average Werten genau? Das ist mir nicht ganz klar. Mittelwerte sind natürlich ziemlich robust gegen Ausreißer.

BlacKi
2020-09-21, 14:06:19
Ich könnte Recht haben? :D Ich beschäftige mich den ganzen Tag mit so was. ^^

Was meinst du mit den Average Werten genau? Das ist mir nicht ganz klar. Mittelwerte sind natürlich ziemlich robust gegen Ausreißer.
die ursprungsfrage war die generelle performance 4vs3. und die avg performance werte zumindest unter 4k im gpu limit zeigen das intel trotz pci3.0 vorne liegt. avg bis percentile low. du zweifelst die p.low an, aber die avg stehen trotzdem noch im raum. warum ist amd trotz pci4.0 soviel langsamer?

JVC
2020-09-21, 14:09:15
Die 10Gb werden ganz sicher keine Spassbremse sein.
Ich bin mir da nicht sicher... (für 4K+ erachte ich die 10Gb jetzt schon manchmal als zu wenig)
https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Tests/Test-Review-Founders-Edition-1357408/
"Mit anderen Worten: Passt die MIP 0 (die hochauflösende Version einer Textur) nicht in den Speicher, wird einfach eine unscharfe Variante davon angezeigt.
Das führt mitunter zur Annahme, dass der Speicher ausreicht, da die Bildrate nicht abstürzt, ist jedoch ein Trugschluss."

M.f.G. JVC

ZeroStrat
2020-09-21, 14:18:50
die ursprungsfrage war die generelle performance 4vs3. und die avg performance werte zumindest unter 4k im gpu limit zeigen das intel trotz pci3.0 vorne liegt. avg bis percentile low. du zweifelst die p.low an, aber die avg stehen trotzdem noch im raum. warum ist amd trotz pci4.0 soviel langsamer?

Der Fall hier ist tatsächlich ungewöhnlich. Normalweise sind die Unterschiede in 4k nicht vorhanden, daran ändert auch eine 3080 nichts wesentlich. Es könnte ein Messfehler sein. Wenn es kein Messfehler ist, dann ist es halt ein ungewöhnlicher Ausreißer.

pixeljetstream
2020-09-21, 14:21:36
Zu den PCIe Benchmarks wundert mich dass nicht getestet wurde wer die bessere Ladezeit hat. Auch müsste man schneller höhere detailstufen beim Streaming sehen (theoretisch) wenn ein Spiel den schnelleren Transfer direkt ausnutzt.

BlacKi
2020-09-21, 14:25:00
Der Fall hier ist tatsächlich ungewöhnlich. Normalweise sind die Unterschiede in 4k nicht vorhanden, daran ändert auch eine 3080 nichts wesentlich. Es könnte ein Messfehler sein. Wenn es kein Messfehler ist, dann ist es halt ein ungewöhnlicher Ausreißer.
ich hab gedacht du schaust dir den ganzen tag zahlen an? das ganze video zu pcie von GN zeigt intel vor amd. ausreisser?
https://youtu.be/0DKVVtirNM8?t=342

ZeroStrat
2020-09-21, 14:25:57
ich hab gedacht du schaust dir den ganzen tag zahlen an? das ganze video zu pcie von GN zeigt intel vor amd. ausreisser?
https://youtu.be/0DKVVtirNM8?t=342

Jetzt werd mal nicht schnippisch.

Ich schaue mir keine Benchmarks von Gamers Nexus an. Da fehlt mir einfach die Professionalität.

pixeljetstream
2020-09-21, 14:26:02
Ich bin mir da nicht sicher... (für 4K+ erachte ich die 10Gb jetzt schon manchmal als zu wenig)
https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Tests/Test-Review-Founders-Edition-1357408/
"Mit anderen Worten: Passt die MIP 0 (die hochauflösende Version einer Textur) nicht in den Speicher, wird einfach eine unscharfe Variante davon angezeigt.
Das führt mitunter zur Annahme, dass der Speicher ausreicht, da die Bildrate nicht abstürzt, ist jedoch ein Trugschluss."

M.f.G. JVC
Diese Aussage suggeriert man bekommt nie hohe Details zu sehen, was nicht der Fall ist, es kann halt paar Frames länger dauern bis eine alte rausfällt. Auch muss nicht die ganze mip 0 im Speicher sein, je nachdem wie gut das texture Streaming System der Engine ist.
Das könnten die Reviewer auch messen, da im Bild mehr high frequency Details sein müssten je länger die hohen mips vorhanden sind. Da sollte sich bemerkbar machen, wenn es ein echtes Problem ist.

BlacKi
2020-09-21, 14:29:45
Jetzt werd mal nicht schnippisch.

Ich schaue mir keine Benchmarks von Gamers Nexus an. Da fehlt mir einfach die Professionalität.
war so nicht gemeint.
Diese Aussage suggeriert man bekommt nie hohe Details zu sehen, was nicht der Fall ist, es kann halt paar Frames länger dauern bis eine alte rausfällt. Auch muss nicht die ganze mip 0 im Speicher sein, je nachdem wie gut das texture Streaming System der Engine ist.
Das könnten die Reviewer auch messen, da im Bild mehr high frequency Details sein müssten. Da sollte sich bemerkbar machen, wenn es ein echtes Problem ist.
keine ahnung ob die das können, aber wie kann ich das testen? braucht man dazu testequipment, oder reichen dazu tools zum installieren?

JVC
2020-09-21, 14:37:20
Das sollte sich bemerkbar machen, wenn es ein echtes Problem ist.
Ich kenn mich da nicht so aus...
Aber auf "matsch-Texturen wegen zu wenig RAM" hab ich keine Lust.
(sitze ja direkt vor nem 65" 4K QLED und achte auf jedes Detail)

Für mich sind nur 10Gb ein echtes Problem, da ich auch meine jetzigen 11Gb locker voll bekomme.
Bin halt eher der "Eye-Candy" Typ und es stört mich sehr, wenn Texturen "ploppen" oder "matschen".

"Lieber zu viel, als zu wenig" Ist eher mein Motto ^^

M.f.G. JVC

Daredevil
2020-09-21, 14:40:39
Dann solltest du aus der 8 ne 9 machen, dann passt das schon. ^^

BlacKi
2020-09-21, 14:45:45
Ich kenn mich da nicht so aus...
Aber auf "matsch-Texturen wegen zu wenig RAM" hab ich keine Lust.
(sitze ja direkt vor nem 65" 4K QLED und achte auf jedes Detail)

Für mich sind nur 10Gb ein echtes Problem, da ich auch meine jetzigen 11Gb voll bekomme.
Bin halt eher der "Eye-Candy" Typ und es stört mich sehr, wenn Texturen "ploppen" oder "matschen".

"Lieber zu viel, als zu wenig" Ist eher mein Motto ^^

M.f.G. JVC
sry, aber du hast nichts verstanden.

wenn du nun was gegen deine paranoia desausgeheneden vrams tun willst, dann ist das ja in ordnung. aber warum schreibst du das den anderen vor wie sie ihre HW kaufen und redest 10gb schlecht?

ich hatte auch 11gb in 1440p und hab mich darüber gefreut wenn mal der vram ausgenutzt wird. und dann bin ich zur 8gb karte in 4k zurück und hab gemerkt dass die 11gb die ganze zeit garnicht nötig waren.

ich denke auch das in zukunft bis zur 4000er generation 10gb reichen werden wenn man spielbare fps und nicht mit aller gewalt ohne sinn und verstand auf ultra spielt.

Ex3cut3r
2020-09-21, 14:47:36
Für mich gibt es keine Alternative. Ich wil CP2077 in 3440x1440 mit Full RT zocken, alles andere kommt nicht in Frage, von einer 2080 OC muss es schon eine 3080 OC sein, einzig die 10GB erachte ich als Problem. Wenn ich jetzt meine alte GPU verkaufe (solange ich wenigstens noch eine anständige Summe dafür kriege) Muss ich dann aber auch sofort was neues kaufen, den meine Ryzen CPU hat nicht mal eine integrierte GPU, sodass ich meinen PC nicht mal zum Surfen nutzen kann. Da aber nichts lieferbar ist, ist es sowieso Geschichte. Ich verkaufe doch nicht, und sitze dann hier ohne GPU, ohne PC 3 Monate rum.

Daredevil
2020-09-21, 14:48:27
Für JCV sind 10GB schlicht zu wenig. ( Für mein Vorhaben auch )
Eye Candy auf nem 4k@60hz Fernseher bedeutet, wenn die 60fps erreicht werden, wird die Auflösung aufgedreht. Also sind dort an der Stelle auch schon 4K-6K-8K möglich und dort kannst du 10GB halt knicken. Nichtmal Frostpunk bekommste in 8K, weil der RAM voll läuft.
Deswegen ist eine 3090 in mehr zu wiegen als in Core Performance, nämlich den Unterschied von spielbar und unspielbar.

pixeljetstream
2020-09-21, 14:49:40
war so nicht gemeint.

keine ahnung ob die das können, aber wie kann ich das testen? braucht man dazu testequipment, oder reichen dazu tools zum installieren?
Im Prinzip halt video capture lossless, der benchmark muss halt exakt das gleiche machen, möglichst keine Dynamik (Explosionen, Animationen), so dass die meisten Pixel von festen Oberflächen in der Welt stammen. Per Definition ist der „Matsch“ ja fehlen von high frequency Details. Also müssten Regionen im Bild sich zwischen den Runs deutlich darin unterscheiden. Ich glaube nicht dass das irgendwer macht noch dass es wirklich signifikant auffällt, denn weniger Performance zu haben fällt eher auf, sonst hätten sich die Leute die das Geld haben vor Jahren auch quadros mit doppeltem Speicher geholt ;)

BlacKi
2020-09-21, 14:50:51
Für mich gibt es keine Alternative. Ich wil CP2077 in 3440x1440 mit Full RT zocken, alles andere kommt nicht in Frage, von einer 2080 OC muss es schon eine 3080 OC sein, einzig die 10GB erachte ich als Problem. Wenn ich jetzt meine alte GPU verkaufe (solange ich wenigstens noch eine anständige Summe dafür kriege) Muss ich dann aber auch sofort was neues kaufen, den meine Ryzen CPU hat nicht mal eine integrierte GPU, sodass ich meinen PC nicht mal zum Surfen nutzen kann.
ich werde definitiv dlss nutzen und in 4k spielen. da werden auch 8gb ausreichen wenn ich mir die anforderungen ansehe.

Ex3cut3r
2020-09-21, 14:54:29
ich werde definitiv dlss nutzen und in 4k spielen. da werden auch 8gb ausreichen wenn ich mir die anforderungen ansehe.

Glaube ich nicht, dass 8GB mit RT? reichen werden. Aber gut, wird man sehen.

dildo4u
2020-09-21, 15:01:11
Er schreibt doch mit DLSS also 1440p.

JVC
2020-09-21, 15:03:10
sry, aber du hast nichts verstanden.
warum schreibst du das den anderen vor wie sie ihre HW kaufen
und redest 10gb schlecht?

Das Du sagst "ich habe nichts verstanden"... stört mich nicht :smile:

Ja, ich will/brauche mehr als 10Gb, rede sie aber meines Erachtens nicht schlechter als sie sind ;)

Ich schreibe Leuten nie vor, was sie kaufen müssen.
Ich gebe höchstens Empfehlungen. (meist auch nur wenn ich dazu gefragt werde)

Ok, ich bin raus. 105°c GDDR6X Heizkörper interessieren mich nicht.
Und über 999.- will ich auch nicht gehen.

M.f.G. JVC

P.s.: Keine Ahnung warum ich auf deinen Post reagiert habe...
Es enthält nichts was einer vernünftigen Konversation helfen würde.

der13big-l
2020-09-21, 15:06:12
Ich habe die Mail heute morgen auch bekommen. Wann hast Du bestellt? Ich 15:15. Mich würde mal interessieren, bis wann man bestellt haben muss, um eine Karte bekommen zu haben.

Ich hab 15:18 bestellt, also bist du schonmal eher dran.

BlacKi
2020-09-21, 15:15:58
Er schreibt doch mit DLSS also 1440p.
würde er trotzdem nicht glauben. je nach konfig könnten es auch nur 1080p oder 720p sein.:biggrin:

die artefakte fügen dann sich in die spielatmo ein:biggrin:

blaidd
2020-09-21, 15:16:12
Ohne Intel als Referenz wertlos. Außerdem liegen die Ergebnisse im Bereich der Messgenauigkeit.

Nein. Beides nein.

Und Intel kann keine Referenz bei einem PCI-E 4.0 vs 3.0 Test sein, sie unterstützen kein PCI-E 4.0

BlacKi
2020-09-21, 15:18:29
Und Intel kann keine Referenz bei einem PCI-E 4.0 vs 3.0 Test sein, sie unterstützen kein PCI-E 4.0
einmal so wie GN pls danke

Bandit3644
2020-09-21, 15:25:54
Ok, es funktioniert weiterhin.

https://www.youtube.com/watch?v=o1B4qZFDpYE

3080 FE
Divison 2
4K
ohne Frame Rate Limit
Powerlimit 100%
290W vs. 340W
0,80V vs. 0,91V

Funktioniert 1A Danke :smile:

The Division 2
https://s12.directupload.net/images/200921/z2f48xyg.jpg (https://www.directupload.net)

r3ptil3
2020-09-21, 15:39:28
@Bandit

Performance-Mode, richtig?

Die 61° sind trotzdem erstaunlich wenig - Seitenteil am Gehäuse offen?

dildo4u
2020-09-21, 15:44:43
Die läuft default mit 62° ist aber das Performance Bios, Quite läuft wärmer bei 1500 RPM.


https://youtu.be/5fOpaPPCUDA?t=412

Hakim
2020-09-21, 15:46:29
Ok, es funktioniert weiterhin.

https://www.youtube.com/watch?v=o1B4qZFDpYE

3080 FE
Divison 2
4K
ohne Frame Rate Limit
Powerlimit 100%
290W vs. 340W
0,80V vs. 0,91V

Das Ding geht ja schon Stock runter auf 0.9V, dann hätte ich auch 0.8V probiert. Frage ist ab wann es instabil wird. Aber schön zu sehen das es mit 0.8V schon gut rennt

Bandit3644
2020-09-21, 15:57:13
@Bandit

Performance-Mode, richtig?

Die 61° sind trotzdem erstaunlich wenig - Seitenteil am Gehäuse offen?

Ja richtig, Gehäuse ist aber zu. Ich werde gleich nochmal Quiet Mode mit Horizon in 4K@Ultra testen.

r3ptil3
2020-09-21, 15:57:16
Die läuft default mit 62° ist aber das Performance Bios, Quite läuft wärmer bei 1500 RPM.


https://youtu.be/5fOpaPPCUDA?t=412

Du kannst aber die 62° nicht auf alle TUF 3080 GPUs beziehen.

Ich rechne da in einem geschlossenen Gehäuse immer mind. 10K plus gegenüber dem was in Reviews gemessen wird.
Da hat kein Tester Zeit die Karte über einen längeren Zeitraum im Gehäuse drin zu lassen und dann zu messen, deshalb sind Temperaturangaben mit grosser Vorsicht zu geniessen.
Das einzige was ich daraus herauslese ist nur die Temperaturdifferenz zu einer anderen Karte.

dildo4u
2020-09-21, 16:05:48
Die Karten sind auf diese Temps eingestellt sieht man daran das sie im dem undervolt immer noch bei 61° ist und mit weniger RPM läuft.
Also wenn du ein schlecht belüftetest Gehäuse hast dreht sie einfach über 1800rpm.


Hier sinds 63° bei 2000rpm.

https://www.techpowerup.com/review/asus-geforce-rtx-3080-tuf-gaming-oc/31.html

basix
2020-09-21, 16:11:21
Funktioniert 1A Danke :smile:

The Division 2
https://s12.directupload.net/images/200921/z2f48xyg.jpg (https://www.directupload.net)

Die 1.81 GHz bei 0.80V sind schon getuned, richtig? Hast du mal probiert, das Power Limit fest zu tackern und mit einer angepassten OC Curve zu arbeiten? Nach meiner Erfahrung ist die GPU so effizienter. So in etwa +5% kriegt man durch das dynamische boosten raus.

Edit:
Mit +5% meine ich Perf/Watt.

Bandit3644
2020-09-21, 16:12:07
Horizon Zero Dawn
4K @Ultra 0,8V 1800MHz
https://s12.directupload.net/images/200921/paqylhj5.jpg (https://www.directupload.net)
https://s12.directupload.net/images/200921/6slgfpxl.jpg (https://www.directupload.net)

VSYNC ON Stabile 60 FPS GPU Auslastung 80-96
https://s12.directupload.net/images/200921/69jp68yp.jpg (https://www.directupload.net)

BlacKi
2020-09-21, 16:16:02
@bandit, temperaturabhängiges downclocking gibts trotzdem noch oder? wie stark ist das bei ampere ausgeprägt? 80° 1700mhz, 70° 17500mhz, 60° 1800mhz?

dargo
2020-09-21, 16:19:40
Für mich gibt es keine Alternative. Ich wil CP2077 in 3440x1440 mit Full RT zocken, alles andere kommt nicht in Frage, von einer 2080 OC muss es schon eine 3080 OC sein, einzig die 10GB erachte ich als Problem. Wenn ich jetzt meine alte GPU verkaufe (solange ich wenigstens noch eine anständige Summe dafür kriege) Muss ich dann aber auch sofort was neues kaufen, den meine Ryzen CPU hat nicht mal eine integrierte GPU, sodass ich meinen PC nicht mal zum Surfen nutzen kann. Da aber nichts lieferbar ist, ist es sowieso Geschichte. Ich verkaufe doch nicht, und sitze dann hier ohne GPU, ohne PC 3 Monate rum.
Sofern man seine "Spielsucht" im Griff hat ist das doch kein großes Problem. Für solche Fälle hatte ich mir schon vor paar Jahren eine passiv gekühlte Graka gebraucht bei Ebay für unter 10€ geschossen. Musst halt nur schauen, dass die Graka die passenden Anschlüsse hat und mindestens deine native Auflösung mit 60Hz schafft. Zum Surfen reicht mir sowas. :) Also irgendwas mit 2+GB sollte da bei dir eigentlich reichen und für kleiner 20€ zu bekommen sein.

Troyan
2020-09-21, 16:20:47
Hm, man müsste wissen, was nVidia bei den Sensoren geändert hat. 125W für die GPU ist deutlich niedriger als das, was meine 2080TI bei 0,8V nimmt. In zwei Wochen wird nVidia die Quadro-Karten mit GDDR6 vorstellen. Mal sehen, wo die verbrauchstechnis liegen. Laut Gerüchten sind es 3000W für den Vollausbau mit 1800MHz...

Bandit3644
2020-09-21, 16:25:33
@bandit, temperaturabhängiges downclocking gibts trotzdem noch oder? wie stark ist das bei ampere ausgeprägt? 80° 1700mhz, 70° 17500mhz, 60° 1800mhz?

Bei Standard Einstellungen springt der Takt auch, das hängt aber auch von der Auslastung oder dem CPU Limit ab. Also die TUF hatte bei OC max. 73 Grad und war bei ca .1790 - 1850 MHz wenn ich mich noch recht erinnere.

BlacKi
2020-09-21, 16:29:21
Bei Standard Einstellungen springt der Takt auch, das hängt aber auch von der Auslastung oder dem CPU Limit ab. Also die TUF hatte bei OC max. 73 Grad und war bei ca .1790 - 1850 MHz wenn ich mich noch recht erinnere.
ich hab mir das anders vorgestellt.

du fixierst den takt so wie in deinen screenshots und manipulierst die lüfterkurve so das die verschiedenen temperaturen erreicht werden 80/70/60° dann ließt du ab wieviel takt verloren geht.

Hm, man müsste wissen, was nVidia bei den Sensoren geändert hat. 125W für die GPU ist deutlich niedriger als das, was meine 2080TI bei 0,8V nimmt. In zwei Wochen wird nVidia die Quadro-Karten mit GDDR6 vorstellen. Mal sehen, wo die verbrauchstechnis liegen. Laut Gerüchten sind es 3000W für den Vollausbau mit 1800MHz...
3000w? XD

ich finde es auch erstaunlich das der chip weniger verbraucht als der rest der karte. so schlecht kann der 8nm prozess nicht sein XD

07.07.2007
2020-09-21, 16:31:49
Sie ist da! Freitag bei Mindfactory bestellt

Bandit3644
2020-09-21, 16:35:09
ich hab mir das anders vorgestellt.

du fixierst den takt so wie in deinen screenshots und manipulierst die lüfterkurve so das die verschiedenen temperaturen erreicht werden 80/70/60° dann ließt du ab wieviel takt verloren geht.

Achso, ja das mach ich mal in einer ruhigen Minute wenn Zeit ist.

Bandit3644
2020-09-21, 16:36:30
Sie ist da! Freitag bei Mindfactory bestellt

Glückwunsch, dann bin ich wenigstens nicht mehr alleine :smile:
Welche Karte ist das und Bilder bitte :biggrin:

BlacKi
2020-09-21, 16:41:33
ich finde es auch erstaunlich das der chip weniger verbraucht als der rest der karte. so schlecht kann der 8nm prozess nicht sein XD
ich glaube solangsam eine 3080 mit 384bit und gddr6 non x wäre in sovielen fällen besser gewesen...

07.07.2007
2020-09-21, 16:56:28
Glückwunsch, dann bin ich wenigstens nicht mehr alleine :smile:
Welche Karte ist das und Bilder bitte :biggrin:

Eine von denen es kaum bis gar keine Tests gibt. Die MSI Ventus

Bandit3644
2020-09-21, 17:01:29
Eine von denen es kaum bis gar keine Tests gibt. Die MSI Ventus

Sehr schön, viel Spaß bei testen :smile:

basix
2020-09-21, 17:06:19
Horizon Zero Dawn
4K @Ultra 0,8V 1800MHz
13302 Punkte, 73fps

Als Referenz: Ich erreiche mit der 2080 Ti 50fps (4K DSR auf 1440p, 9102 Punkte) bei 151W Power Limit. Takt liegt bei ~1.60 GHz. Sind bei HZD also etwa +30% IPC pro SM bei Ampere zu Turing.

Piccolo
2020-09-21, 17:11:32
Was meint ihr ? Lieber bestellen und auf Glück hoffen oder warten bis man die zb. im MM findet ?
Für die 4k Junkies: Welchen 4k Monitor habt ihr um die 3080 RTX zu knechten?

monstar-x
2020-09-21, 17:12:33
Nervt jedenfalls und der Hype verfliegt mit jedem Tag, bis man irgendwann genug Zeit hatte darüber nachzudenken und zu dem Schluss kommt, dass man ja Shadow of the Tomb Raider schon mit der 2080 in 4K auf dem OLED fast durchgespielt hat und es dank G-Sync ein problemloser Gamingspaß war mit 50-60fps.
Morgen überlege ich mir dann, welche Spiele ich wirklich spiele und ob mir Metro Exodus, RDR2 und Cyberpunk wirklich 800€ wert sind und Mittwoch wird dann storniert. ;)


Und genau das ist doch das beste was du machen kannst.


Wieso muss es den mehr wie 60 FPS sein wenn du einen GSYNC Monitor hast, also ob du einen Unterschied sehen würdest bei einem Blindtest.

Ich kenne es, es juckt in den Finger, geht mir auch so.
Meine 2080 TI OC schafft in allen Spielen die ich Spiele (WQHD) über 70-100 FPS... Klar 85-120 sieht besser aus, doch ich würde es nicht merken.

Daher, keine 3080 für mich, ich warte auf die 4080/4080Ti.


PS: Ich habe heute auf Spaß meine 2080 Ti in Kleinanzeigen eingestellt, nach 5 Minuten habe ca. 15 Interessenten gehabt die 500-600€ Angeboten haben. Dann musste ich die Anzeigen Offline nehmen, waren zu viele Anfragen (hat nur noch genervt)

der13big-l
2020-09-21, 17:17:30
Eine von denen es kaum bis gar keine Tests gibt. Die MSI Ventus

Ich würde mich auch über Test freuen.

Was hast du bezahlt bei MF?

Bandit3644
2020-09-21, 17:23:03
Was meint ihr ? Lieber bestellen und auf Glück hoffen oder warten bis man die zb. im MM findet ?
Für die 4k Junkies: Welchen 4k Monitor habt ihr um die 3080 RTX zu knechten?

Ich benutze denn BenQ EW3280U, er hat zwar nur 60Hz aber ich bin sehr zufrieden da die 3080 die 60 FPS im Moment in all meinen Games @Ultra schafft.

basix
2020-09-21, 17:26:04
Wieso muss es den mehr wie 60 FPS sein wenn du einen GSYNC Monitor hast, also ob du einen Unterschied sehen würdest bei einem Blindtest.

Ich kenne es, es juckt in den Finger, geht mir auch so.
Meine 2080 TI OC schafft in allen Spielen die ich Spiele (WQHD) über 70-100 FPS... Klar 85-120 sieht besser aus, doch ich würde es nicht merken

Ich merke sehr schnell, wenn etwas <60fps läuft, trotz G-Sync. Fühlt sich einfach träge an und das Bild wirkt nicht flüssig. Ab 60fps wird das deutlich besser und ab ~70fps ist dann fast alles flüssig. Je nach Content benötige ich auch >80fps, um es als wirklich flüssig wahrzunehmen. So pauschal kann man das also nicht sehen ;)

ChivasHS
2020-09-21, 18:09:52
Mal eine kurze Rückmeldung von einem, der eine Karte bekommen hat -> wie ja schon geschildert wurde, hatte Mindfactory für eine kurze Zeitspanne (Freitag ca. 10:20 bis 10:30) Karten im Shop verfügbar. Wollte eigentlich eine 3080 FE (Ergebnis bekannt), aber zumindest eine Karte mit Reference-Board und maximal 300 mm Länge. Die Palit, welche heute Vormittag gekommen ist, ist zwar nicht die hübscheste, aber nach der FE die kompakteste (294 mm lang, Höhe wie Slot etc.). Mit der Leistung bin ich wirklich zufrieden, Temperatur max. 70 Grad und die Geräuschentwicklung ist absolut ok (nur bei sehr hohen FPS leises Coilwine). Habe für mein 4K-Display einen Ersatz für meine wassergekühlte 1080Ti gesucht, und da tut sie, was sie soll. Für kleinere Auflösungen lohnt sich der Sprung meiner Meinung nach nicht wirklich, abgesehen von den RTX-Features natürlich und den High-FPS Gamern, aber aus dem Alter bin ich raus. Werde wie bei meiner 1080Ti noch ein UV-Profil mittels Afterburner erstellen, werde vom Erfolg berichten.
Allen, die noch warten müssen, kann ich nur sagen: für mich hat es sich gelohnt und meine Erwartungen erfüllt.:rolleyes:

Troyan
2020-09-21, 18:19:54
nVidia hat eine eigene FAQ zum frustierenden Launch veröffentlicht: https://www.nvidia.com/en-us/geforce/news/rtx-3080-qa/

rentex
2020-09-21, 18:25:00
Man könnte glatt Mitleid mit NV haben...

wolik
2020-09-21, 18:31:34
https://webshop.asus.com/de/komponenten/grafikkarten/nvidia-serie/2823/asus-tuf-rtx3090-o24g-gaming

3090 noch verfügbar...

Daredevil
2020-09-21, 18:32:09
Leider können wir den von Ihnen gewünschten Artikel nicht mehr in ausreichender Stückzahl liefern.
:(

Colin MacLaren
2020-09-21, 18:44:06
Geil, ich konnte sie noch in den Warenkorb legen und als ich auf Bezahlen ging, da war es schon vorbei. Ich denke der Run auf die 3090 wird der Gleiche sein wie bei der 3080, weil alle die, die keine 3080 bekommen haben, jetzt zur 3090 greifen.

NikLaw
2020-09-21, 18:45:55
Hab vorhin die MSI Ventus OC eingebaut und mal be Stunde ACC (alles max, auch Mirrors) gezockt.
Erst mit 200 % Upsampling ging's auf 54-65 FPS runter.

Max temp lag bei 71° bei 64 % Lüftergeschwindigkeit. Lüftergeräusche kaum wahrnehmbar. Spulenfiepen hatte ich nur bei FPS jenseits von 200, aber mit Vsync nicht (144 Hz).

Hab mal das Power Limit auf 86 % gesenkt, aber die Spannung noch nicht angefasst. Insgesamt alles OK soweit.

Robot
2020-09-21, 18:46:14
nVidia hat eine eigene FAQ zum frustierenden Launch veröffentlicht: https://www.nvidia.com/en-us/geforce/news/rtx-3080-qa/

Glaubt das irgendeiner, was da steht?

The_Invisible
2020-09-21, 18:50:22
Geil, ich konnte sie noch in den Warenkorb legen und als ich auf Bezahlen ging, da war es schon vorbei. Ich denke der Run auf die 3090 wird der Gleiche sein wie bei der 3080, weil alle die, die keine 3080 bekommen haben, jetzt zur 3090 greifen.

Glaub ich kaum, 700 EUR ist schon nicht wenig Geld und dann nochmals 800 EUR drauflegen? Die 3090er wirds einfach noch weniger geben...