PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Ampere (Turing-Nachfolger, 7/8nm, "GeForce RTX 3000" Serie, Herbst 2020)


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 [47] 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62

N0rG
2020-09-15, 22:18:18
48 GB gddr6x geht erst nächstes Jahr wenn Micron die 2GB Chips liefert.

Badesalz
2020-09-15, 22:20:18
@MiamiNice
Wir sind in 3DC. du verwechselst das mit PCGHX. Die Ecke zum Aufspielen sind hier die paar "...Enthusiasten..." Threads. Da kannst du rumlallen bis sich die Balken biegen und nur da wird dich keiner fragen, ob du einen an der Waffel hast. In allen anderen Threads wo du dauernd versuchst dich aufzuspielen gehst du den Leuten nur auf den Keks. Und du weißt das...

@Tobi
Laut den Rechenkünstlern bräuchte so ein Ding mit 48GB in GDDR6X, entweder ein eigenes Netzteil oder wenigstens ein 1kW :wink: Mit Ampere wird es also wohl keine Titan geben.

@N0rG
Jetzt eine 3090, und irgendwann nächstes Jahr vielleicht eine Titan, fände ich schon ziemlich witzlos.

Platos
2020-09-15, 22:31:05
weil Zen 3 auf jeden Fall endlich schneller wird als ein Intel.

Was wäre daran denn bitte nicht spannend? Mit dem 8 Kerner Zen3 könnte AMD das erste mal seit... ja seit wann..? Durchgehend! bessere Gamingperfomance liefern.

Wobei jenachdem wie gut Rocket lake mit der IPC wird, das vlt. wieder relativiert werden könnte. Aber ob die Taktrate da gut ist bzw. der Stromverbrauch nicht wieder durch die Decke geht...

Dural
2020-09-15, 22:35:59
hat hier schon einer aus der glaskugel geplaudert, was dinge angeht wie ampere titan mit 48gib gddr6x für etwas über 3k euro?



(..)

mfg
tobi

Kommt nicht, auch wenn ihr es nicht war haben wollt.

Kein mensch braucht 48gb, und die die es brauchen haben eh quadro oder tesla karten.

Wird sicher eine 3090ti oder so kommen mit bisschen mehr leistung und 12 anstelle 24 speicher chips.

TobiWahnKenobi
2020-09-15, 22:41:20
das wäre schon schön.. zu wissen dass man die ausgabe des kommenden monats lange nicht bereut.. aber so ganz oberflächlich betrachtet, liesse sich doch mit den micronchips des nächsten jahres (das ist bald) und einem ampere, den TSMC fertigt (etwa in 7nm) etwas auf die beine stellen, das eine 3090 quasi entwertet.. ganz ohne neuentwicklung.. produktpflege..


(..)

mfg
tobi

HPVD
2020-09-15, 22:43:32
48 GB gddr6x geht erst nächstes Jahr wenn Micron die 2GB Chips liefert.

Die Frage ist wann in 2021 die eingesetzt werden können.

in einer/der? original Quelle steht auch nur
Starting in 2021, 16Gb density units will be added.
https://investors.micron.com/news-releases/news-release-details/worlds-fastest-discrete-graphics-memory-micron-powers-nvidias

oder gibt's dazu an anderer Stelle noch mehr Infos?

Dural
2020-09-15, 22:45:25
Wenn sie 7nm mit ampere vor hätten, hätten sie es gleich machen können.

Bis zum hopper wird die 3090 ziemlich gut dastehen.

HOT
2020-09-15, 22:52:22
Die Frage ist wann in 2021 die eingesetzt werden können.

in einer/der? original Quelle steht auch nur

https://investors.micron.com/news-releases/news-release-details/worlds-fastest-discrete-graphics-memory-micron-powers-nvidias

oder gibt's dazu an anderer Stelle noch mehr Infos?
Super Refresh inc würd ich sagen ;).

MiamiNice
2020-09-15, 22:54:57
@MiamiNice
Wir sind in 3DC. du verwechselst das mit PCGHX. Die Ecke zum Aufspielen sind hier die paar "...Enthusiasten..." Threads. Da kannst du rumlallen bis sich die Balken biegen und nur da wird dich keiner fragen, ob du einen an der Waffel hast. In allen anderen Threads wo du dauernd versuchst dich aufzuspielen gehst du den Leuten nur auf den Keks. Und du weißt das...


Netter Text und nice try, erklärt trotzdem nicht was Du so ultra spannend findest.
Wenn AMD etwas hätte was man anpreisen könnte, würden sie das tun. Das nur klein geteasert wird, spricht Bände. Was ist daran spannend?

Sardaukar.nsn
2020-09-15, 22:55:46
Der Ampere Launch treibt ja echt kuriose Blüten. Ich dachte diese 4-Lüfter Modell schießt den Vogel ab. Push/Pull Konfiguration? https://www.reddit.com/r/nvidia/comments/it7ms6/4fans_galax_rtx_3080/

Aber Zotac konnte das meiner Meinung nach noch toppen. Ich höre schon dieses helle Sirren der Zusatzlüfter :freak: https://www.techpowerup.com/gpu-specs/zotac-rtx-3080-apocalypse-oc.b8042

Raff
2020-09-15, 23:00:31
Das ist gewiss nur ein "China-Modell". Dort gilt Kälte als geil und Lärm als Mittel zum Zweck.

MfG
Raff

TobiWahnKenobi
2020-09-15, 23:06:46
die zusatzlüfter wirken wie ein eingeständnis, dass der kühler überfordert ist. <- wer will sowas?

FE kaufen, standardkühlung benutzen, fertig. dann abwarten, was bei diesen modellen werkseitig auseinanderfliegt (2080ti hatte auch so ihre serienmacken) und später schauen, ob bei irgendwem aftermarketumbauten sinn gemacht haben.. wakü.

vllt. ist die FE kühlung speziell meinem system zuträglich, da mein RAM atm von einem lüfter versorgt wird, der auf der backplate meiner TI steht. bei diesen triplefan-asia-plastikbombern könnte ich keinen lüfter draufstellen.. die FE pustet in die richtung..

WOW - ich habe etwas für mich spannendes an ampere entdeckt - der FE kühler!!!! <- werde ich meine b-dies umtakten müssen?!


Das ist gewiss nur ein "China-Modell". Dort gilt Kälte als geil und Lärm als Mittel zum Zweck.

MfG
Raff

in china essen sie hunde.


(..)

mfg
tobi

Sardaukar.nsn
2020-09-15, 23:21:40
Die kleine FE Platine und die große Leistung scheint auch nicht ganz ohne zu sein. Igor hat schon ein paar Sachen angekündigt die er sicher auch belegen kann. https://www.hardwareluxx.de/community/threads/alphacool-stellt-den-eisblock-aurora-plexi-gpx-n-f%C3%BCr-rtx-3080-und-3090-vor.1277303/#post-27681054

Hoffentlich gibt es morgen konkretere Infos.

Gouvernator
2020-09-15, 23:47:38
das wäre schon schön.. zu wissen dass man die ausgabe des kommenden monats lange nicht bereut.. aber so ganz oberflächlich betrachtet, liesse sich doch mit den micronchips des nächsten jahres (das ist bald) und einem ampere, den TSMC fertigt (etwa in 7nm) etwas auf die beine stellen, das eine 3090 quasi entwertet.. ganz ohne neuentwicklung.. produktpflege..


(..)

mfg
tobi
Die 3090 ist nach den "korrigierten" 3080 Benchmarks das Geld schon jetzt nicht mehr wert. Ich habe entschieden statt einer 3090 lieber eine 3080 und ein Tablet zu kaufen.

Dural
2020-09-16, 00:14:37
Die 3090 ist deutlich interessanter als die 3080.

BlacKi
2020-09-16, 00:17:01
Die 3090 ist nach den "korrigierten" 3080 Benchmarks das Geld schon jetzt nicht mehr wert. Ich habe entschieden statt einer 3090 lieber eine 3080 und ein Tablet zu kaufen.
du meinst farcry im cpu limit:freak:

Dural
2020-09-16, 00:22:24
Bei der 3080 kann man einen ziemlichen schrott chip erhalten, irgend wo müssen die nur 30watt differenz her kommen. Oder die 3090 läuft unter wakü oc richtig gut, hat ja auch deutlich mehr bandbreite.

Die 3080 finde ich überhaupt nicht sympatisch, da würde ich lieber zu einem vollen ga104 greifen. (Was ich auch definitiv machen werde) dank den 6 gpc könnte die so wie so recht interessant werden.

Linmoum
2020-09-16, 00:26:31
du meinst farcry im cpu limit:freak:Da ist kein CPU-Limit bei den UHD-Werten.

BlacKi
2020-09-16, 00:27:52
Da ist kein CPU-Limit bei den UHD-Werten.
doch

Sunrise
2020-09-16, 00:33:36
Wenn man die besten Chips will, vermute ich auch, dass die 3090 FE einfach die besten ASICs bekommt, allerdings kann man aufgrund Samsung über das Binning wohl garnichts sagen, wir wissen schlicht nicht, wie gut solch große Chips bei Samsung laufen.

grobi
2020-09-16, 00:50:15
Die RTX 3080 Custommodelle haben alle Speicherchips auf der gleichen Seite?

mfg grobi

Gouvernator
2020-09-16, 00:52:01
Die 3090 ist deutlich interessanter als die 3080.

Aber nicht für erwartete Preise wenn FE ständig vergriffen sein wird. Ich werde vorerst mein Spass haben mit 950€ Tablet und 700€ 3080. Dann sehen wir weiter ob die 3090 wirklich das ist wie angepriesen.

just4FunTA
2020-09-16, 00:56:07
warum erwähnst du ständig das tablet, was hat irgendein tablet mit pc highend gaming zu tun?

Daredevil
2020-09-16, 01:01:14
warum erwähnst du ständig das tablet, was hat irgendein tablet mit pc highend gaming zu tun?
Wo bekommst du sonst OLED, 120hz und 266 PPI auf 10"+?
Leben und leben lassen. Das macht schon irgendwo Sinn.

monstar-x
2020-09-16, 01:26:00
Aber nicht für erwartete Preise wenn FE ständig vergriffen sein wird. Ich werde vorerst mein Spass haben mit 950€ Tablet und 700€ 3080. Dann sehen wir weiter ob die 3090 wirklich das ist wie angepriesen.

Ach so ein teuer Tablet ist auch nur ein kurzzeitiger Spaß
Mein teures Tablet liegt meistens nur rum, oder ich rufe dort 1-2 mal am Abend meine E-Mails ab.

Aber immerhin hat es ein 120Hz Display , falls ich doch mal etwas damit spielen möchte ;D

Gouvernator
2020-09-16, 05:23:38
warum erwähnst du ständig das tablet, was hat irgendein tablet mit pc highend gaming zu tun?
Der neue Galaxy Tab S7 muss irgendwelche Optimierungen für's streaming erhalten haben, wegen der Unterstützung der XCloud von Microsoft. Gleichzeitig hat Jensen für Ampere auch besseres Streaming angekündigt. Das hat noch kein Mensch getestet, aber ich vermute Ampere und Galaxy Tab S7+ ist ein Streaming Beast mit abartig guten 4K/120Hz decoding Zeiten. :biggrin:
Es ist praktisch dann wie ein tragbarer 266ppi 120Hz/4K OLED. Mehr wie eine 3080 braucht es dann auch nicht. Warum extra Geld für 3090 ausgeben?

Ach so ein teuer Tablet ist auch nur ein kurzzeitiger Spaß
Mein teures Tablet liegt meistens nur rum, oder ich rufe dort 1-2 mal am Abend meine E-Mails ab.

Aber immerhin hat es ein 120Hz Display , falls ich doch mal etwas damit spielen möchte ;D
Es ist für PC Streaming mit Moonlight gedacht in 4K/120Hz/150Mbit an einem 5Ghz Router mit 866Mbit.

Leonidas
2020-09-16, 05:54:03
Das beweist dass man die 3090 bzw. den Vollausbau beim SI eigentlich auf demselben Board bringen wollte wie die 80er.


Grund: Weil die 3090 ursprünglich wohl mit 12GB geplant war. Davon zeugen schließlich auch entsprechende Testboards.

rentex
2020-09-16, 06:04:54
Die RTX 3080 Custommodelle haben alle Speicherchips auf der gleichen Seite?

mfg grobi

Ja.

MasterElwood
2020-09-16, 08:52:20
Wenn man die besten Chips will, vermute ich auch, dass die 3090 FE einfach die besten ASICs bekommt, allerdings kann man aufgrund Samsung über das Binning wohl garnichts sagen, wir wissen schlicht nicht, wie gut solch große Chips bei Samsung laufen.

IGOR hat die genauen Binning Zahlen doch schon lange veröffentlicht? :confused:

"Intern teilt man das Binning meist in 3 Stufen auf. Da gibt es dann die Sorte ok als “Bin 0”, die Sorte gut als “Bin 1” und die richtig guten dann als “Bin 2”.
So sprechen die Quellen nahezu übereinstimmend von im Schnitt bis zu 30% der Chips mit Bin 0, ca. 60% mit Bin 1 und nur 10% mit Bin 2 für die RTX 3080, was für so eine kurzen Produktionszeitraum trotzdem schon recht gut ist und eigentlich auch für Samsung spricht."

https://www.igorslab.de/chip-ist-nicht-gleich-chip-erste-informationen-zum-moeglichen-binning-und-den-streuungen-bei-der-geforce-rtx-3080-und-rtx-3090/

MiamiNice
2020-09-16, 08:53:43
Ist eigentlich bekannt ob NV für die eigenen FE Karten Chips binnt?

Hübie
2020-09-16, 09:21:11
Das macht die Foundry an sich ja schon. NVIDIA verbesserte das Binning seit Kepler kontinuierlich (also den Evaluationsprozess zur Gütebestimmung).

Ob 10% gute Chips mengenmäßig nun eine brauchbare Anzahl darstellt oder eben nicht hängt davon ab, ob die yieldrate insgesamt auf über 70% gestiegen ist oder nicht (21:42:7 bzw. 3:6:1).

MiamiNice
2020-09-16, 09:33:51
Mich würde mehr interessieren ob NV die guten Chips für die eigenen FEs verwendet.

Cubitus
2020-09-16, 09:35:54
Mich würde mehr interessieren ob NV die guten Chips für die eigenen FEs verwendet.

Davon kannst du ausgehen.. zumindest werden die keine Gurken verbauen.
Bzw. wenn du wirklich sehr gute Chips haben willst, kauf dir die EVGA 3090 KingPin :D
Die gehen üblicherweise richtig geil..

Hübie
2020-09-16, 09:43:57
Ja und kosten dann auch gleich absurd viel. Abnehmender Grenznutzen und so... :freak:

Ich kaufe eine FE und setz die unter Wasser, sofern es nicht doch AMD packt und an der 3080 vorbei zieht. :D

MiamiNice
2020-09-16, 09:55:24
Ja und kosten dann auch gleich absurd viel. Abnehmender Grenznutzen und so... :freak:

Ich kaufe eine FE und setz die unter Wasser, sofern es nicht doch AMD packt und an der 3080 vorbei zieht. :D

Ich mache das auch allerdings mit der 3090. Kein Bock auf AIB Karten und die Wasserkühler sollte man laut Igor erst mal im Regal lassen. Ich warte auf Ref 2 des 3090 Wasserblocks von EK oder der deutschen Firma. Erst mal andere Erfahrungen sammeln lassen mit den Blöcken, ist derzeit mein Plan. Die Energiedichte ist nicht ohne laut Igor. Ergo bissel aufpassen.

r3ptil3
2020-09-16, 10:03:44
Ja und kosten dann auch gleich absurd viel. Abnehmender Grenznutzen und so... :freak:

Ich kaufe eine FE und setz die unter Wasser, sofern es nicht doch AMD packt und an der 3080 vorbei zieht. :D

Halte ich für eine ganz schlechte Idee.

Bei der FE erlischt dann automatisch die Garantie:
https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/

Hübie
2020-09-16, 10:13:36
Ich mache das auch allerdings mit der 3090. Kein Bock auf AIB Karten und die Wasserkühler sollte man laut Igor erst mal im Regal lassen. Ich warte auf Ref 2 des 3090 Wasserblocks von EK oder der deutschen Firma. Erst mal andere Erfahrungen sammeln lassen mit den Blöcken, ist derzeit mein Plan. Die Energiedichte ist nicht ohne laut Igor. Ergo bissel aufpassen.

Ich bin ein geduldiger Mensch und schaue vor dem Kauf genau nach, WAS ich da kaufe, aber danke für den Hinweis. :smile:

Halte ich für eine ganz schlechte Idee.

Bei der FE erlischt dann automatisch die Garantie:
https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/

Die dürfen zwar alles essen, aber müssen ja nicht alles wissen. :biggrin:
Wenn das PCB von ASUS mehr taugt und wenn die GPUs ebenfalls gute Zahlen liefern, kaufe ich auch gerne wieder eine ASUS-Karte. Immerhin rennt meine 980 Ti von Tag 0 an auf 1418-1440 MHz und war eine der besten im HWL (oob, wohlgemerkt). Das PCB ist sehr gut und hält immer noch der Belastung stand. Also wenn die FE ausscheidet, dann halt wieder ASUS. :redface:

TobiWahnKenobi
2020-09-16, 10:21:23
ich kann diese bastelmentalität zwar bedingt nachvollziehen, aber pauschal alles umbauen muss mmn nicht sein. vllt. kommt man mit ampere auch gut zurecht, wenn man das kühlsystem nicht manipuliert. bei turing hat das doch auch geklappt. meine luftgekühlte gayward ist jedenfalls nicht langsamer als ihre wassergekühlte schwester, die vom selben band lief. die 30mhz delta, die unter wasser mehr drin sind brauchen schon benchmarks um bemerkt zu werden. und sooo abartig laut war oder ist der luftkühler auch nicht.. er ist nur sauhässlich und fett. die FE-kühlung, die NV jetzt bei ampere angeteasert hat sieht doch gefällig aus.

was unter wasser mit den dingern passiert und was es bringt "nur die WLP zu wechseln" werden wir sicher noch lesen..

da wo andere hersteller versuchen, mit kleinen aufklebern die schrauben zu sichern, sitzt bei NV ein stopfen über jeder schraube. bin mir sicher, dass man dem kühler ansieht, dass er geöffnet oder entfernt wurde.


(..)

mfg
tobi

BlacKi
2020-09-16, 10:32:16
jetzt genaue pläne zu machen 4-5 stunden vor den tests ist halt auch unnötig.

Dural
2020-09-16, 10:53:04
Ehm kommen heute auch 3090 Benchmarks? ich glaube das heute doch nur 3080 kommt?

Adam D.
2020-09-16, 11:13:02
Ehm kommen heute auch 3090 Benchmarks? ich glaube das heute doch nur 3080 kommt?
Da bisher nix Substantielles zu den 3090 geleakt wurde, kann man davon ausgehen, dass das heute 3080-only bleibt. Explizit bestätigt wurde das IMO aber von niemandem bisher.

Leonidas
2020-09-16, 11:18:19
Ehm kommen heute auch 3090 Benchmarks? ich glaube das heute doch nur 3080 kommt?


Definitiv nur 3080. Die Testsamples zur 3090 sollen doch erst diese Woche rausgehen.

The_Invisible
2020-09-16, 11:28:39
Nicht mehr lange, bin gespannt ; )

Vor allem interessiert mich die Kühlleistung bzw Lautheit und ob der Lüfter auch ganz abschaltet. Irgendwie gefällt mir das Kühlkonzept der FE, könnte dann wirklich das erste mal eine FE werden. Der 12Pin Anschluss stört mich nicht da der PC eh unterm Tisch steht, ohne Fenster aber dafür mit Dämmung.

Akkarin
2020-09-16, 11:43:50
Weiß man wann das NDA fällt ?

rentex
2020-09-16, 11:44:24
15 Uhr

r3ptil3
2020-09-16, 12:03:45
Eine etwas blöde Situation für Enthusiasten:

Option 1) Eine 3080 sofort ergattern morgen.
Option 2) Bis am 24. warten auf die 3090

Risiko: 3090 zu Beginn viel zu teuer und die 3080 am 24. nirgends mehr verfügbar.

Triniter
2020-09-16, 12:07:03
Eine etwas blöde Situation für Enthusiasten:

Option 1) Eine 3080 sofort ergattern morgen.
Option 2) Bis am 24. warten auf die 3090

Risiko: 3090 zu Beginn viel zu teuer und die 3080 am 24. nirgends mehr verfügbar.
Ja das ist tatsächlich auch mein "größtes" Problem grad. Ich hoffe das die Tests zwischen den Zeilen ein paar Hints geben. So groß ist der Unterschied der zwei Chips zwischen 3080 und 3090 ja nicht...

Troyan
2020-09-16, 12:07:33
Man sollte einfach warten. Ersten kommen mehr Custom-Karten und die Preise werden sinken. Und bis November gibt es sowie kaum relevante Spiele.

Bei der 3090 sieht es ein bisschen anders aus. Da wird sich kaum was tun. Aber bei der 3080 ist eher langsamer als schneller besser.

Lu
2020-09-16, 12:09:17
Eine etwas blöde Situation für Enthusiasten:

Option 1) Eine 3080 sofort ergattern morgen.
Option 2) Bis am 24. warten auf die 3090

Risiko: 3090 zu Beginn viel zu teuer und die 3080 am 24. nirgends mehr verfügbar.

Einfach eine 3080 FE bestellen und ggf. noch im September bzw. Anfang Oktober wieder verkaufen. Wahrscheinlich sogar mit etwas Profit auf Grund der mangelnden Verfügbarkeit.

BigBangBacket
2020-09-16, 12:15:59
Ich weiss ja nicht woher ihr immer diese Preissenkungen seht. Meine Titan Pascal habe ich zum Release gekauft und die ist in 2 Jahren nicht einen Cent billiger geworden.
Ist die Titan RTX nach Release im Preis gefallen? Oder die 2080ti? Habe ich jetzt keinen Überblick drüber.
Aber für mich kommt am 2. Oktober mein Mainspiel für VR raus. Da wird die 3090 sofort am 24. bestellt. So wie ich mit der Titan 4 Jahre einen Riesenspass habe, werde ich dann auch mit der 3090 4 volle Jahre Spass haben. Und wenn sie dann im Dezember 50 Credits billiger wird ( wovon ich nicht ausgehe) habe ich schon Monate mit dem passen Ding meinen Spass gehabt.

Gibt es Werte der letzten Jahre das die Karten kurz nach Release wirklich billiger geworden sind?!

Matrix316
2020-09-16, 12:16:59
Ich versuch so schnell wie möglich eine 3080 zu kaufen. Preis ist mir auch egal, so lange unter 900 Euro. ;) Die 3090 ist mir eh zu teuer. Auch wenn ich mir 2 kaufen könnte, wenn ich wöllte. ;) Aber so viel Geld für eine Spielekarte ist IMO Blödsinn. 1500+ € für eine 3090 https://www.caseking.de/pc-komponenten/grafikkarten/nvidia/geforce-rtx-3090 ist IMO genauso Schwachsinn wie damals 1500 Mark für eine Geforce 2 Ultra damals oder welche da so teuer war.

Hübie
2020-09-16, 12:19:05
ich kann diese bastelmentalität zwar bedingt nachvollziehen, aber pauschal alles umbauen muss mmn nicht sein. vllt. kommt man mit ampere auch gut zurecht, wenn man das kühlsystem nicht manipuliert. bei turing hat das doch auch geklappt. meine luftgekühlte gayward ist jedenfalls nicht langsamer als ihre wassergekühlte schwester, die vom selben band lief. die 30mhz delta, die unter wasser mehr drin sind brauchen schon benchmarks um bemerkt zu werden. und sooo abartig laut war oder ist der luftkühler auch nicht.. er ist nur sauhässlich und fett. die FE-kühlung, die NV jetzt bei ampere angeteasert hat sieht doch gefällig aus.

was unter wasser mit den dingern passiert und was es bringt "nur die WLP zu wechseln" werden wir sicher noch lesen..

da wo andere hersteller versuchen, mit kleinen aufklebern die schrauben zu sichern, sitzt bei NV ein stopfen über jeder schraube. bin mir sicher, dass man dem kühler ansieht, dass er geöffnet oder entfernt wurde.


(..)

mfg
tobi

Das mit den Siegeln ist nach deutschem Recht ungültig. :P

Und ich kaufe so etwas hier doch nicht umsonst:

https://abload.de/img/whatsappimage2020-06nxk8f.jpeg (https://abload.de/image.php?img=whatsappimage2020-06nxk8f.jpeg)

;D;D

BlacKi
2020-09-16, 12:22:46
die große asus 3080 liegt aktuell bei 942€. ehm, lächerlich. ich hoffe das ändert sich morgen. der 3080 kühler soll alleine schon 150$ kosten vom 700€ verkaufspreis. soll man jetzt 400€ nur für den kühler und das pcb zahlen, mal angenommen die strix hätte ein custom pcb.

r3ptil3
2020-09-16, 12:30:53
Einfach eine 3080 FE bestellen und ggf. noch im September bzw. Anfang Oktober wieder verkaufen. Wahrscheinlich sogar mit etwas Profit auf Grund der mangelnden Verfügbarkeit.

Eigentlich gefällt mir die FE sehr, aber der mittige 12Pin Stromstecker disqualifiziert das Modell leider.


@Blacki
Die 150$ beziehen sich doch auf den Kühler der 3090 FE oder nicht?

[MK2]Mythos
2020-09-16, 12:32:35
Das mit den Siegeln ist nach deutschem Recht ungültig. :P

Und ich kaufe so etwas hier doch nicht umsonst:

[/URL][URL]https://abload.de/img/whatsappimage2020-06nxk8f.jpeg (https://abload.de/image.php?img=whatsappimage2020-06nxk8f.jpeg)

;D;D
Willkommen in der Mo-Ra Welt. Der Fuß hätte aber nicht mit drauf gemusst.

N0Thing
2020-09-16, 12:32:42
Eine etwas blöde Situation für Enthusiasten:

Option 1) Eine 3080 sofort ergattern morgen.
Option 2) Bis am 24. warten auf die 3090

Risiko: 3090 zu Beginn viel zu teuer und die 3080 am 24. nirgends mehr verfügbar.

Die Preise sind doch grob bekannt. Die der FE auf jeden Fall und die Custom-Varianten werden zwischen ein paar Euro günstiger bis zu ein paar hundert Euro teurer sein.
Wenn 1700€ nicht im Budget sind, oder man verständlicherweise nicht so viel Geld für eine Grafikkarte bezahlen will, dann dürfte das bei 1500€ auch nicht anders sein, oder?
Nach den Reviews zur 3080 kann man sicher gut über den Daumen abschätzen, wie viel Performance die 3090 noch drauf setzen kann.

Hübie
2020-09-16, 12:42:00
Mythos;12427170']Willkommen in der Mo-Ra Welt. Der Fuß hätte aber nicht mit drauf gemusst.

Das Foto hat mein Bro gemacht :freak:

Ich warte ja noch auf Zen3 / Ryzen 4000 und erst dann baue ich meine aktuelle Wakü komplett um. Ich überlege noch das Gehäuse zu wechseln (aktuell BeQuiet Dark Base 900 Pro). Der MoRa dürfte ja Null Probleme mit einer 3080/3090 und einem 4700/4800X haben. Mal sehen was am Ende in der Kiste landet. :redface: Freue mich jedenfalls nach etlichen Jahren mal wieder was zu basteln.
Ampére wird meines erachtens nach ein ähnlicher Sprung wie Kepler -> Maxwell. Nur das die Karten dieses Mal nicht so eine konservative Taktung fahren.

[MK2]Mythos
2020-09-16, 12:46:23
Das Foto hat mein Bro gemacht :freak:

Ich warte ja noch auf Zen3 / Ryzen 4000 und erst dann baue ich meine aktuelle Wakü komplett um. Ich überlege noch das Gehäuse zu wechseln (aktuell BeQuiet Dark Base 900 Pro). Der MoRa dürfte ja Null Probleme mit einer 3080/3090 und einem 4700/4800X haben. Mal sehen was am Ende in der Kiste landet. :redface: Freue mich jedenfalls nach etlichen Jahren mal wieder was zu basteln.
Ampére wird meines erachtens nach ein ähnlicher Sprung wie Kepler -> Maxwell. Nur das die Karten dieses Mal nicht so eine konservative Taktung fahren.
Meine Hardware kühlt er jedenfalls sogar beim zocken zu 90% passiv und selbst wenn die eloops anlaufen, ist das ganze unhörbar. Und wirklich unhörbar, nicht leise, nicht angenehm, sondern komplett unhörbar. Das "Elektronikgeräusch" des Monitors ist lauter.

r3ptil3
2020-09-16, 12:46:51
Wenn 1700€ nicht im Budget sind, oder man verständlicherweise nicht so viel Geld für eine Grafikkarte bezahlen will, dann dürfte das bei 1500€ auch nicht anders sein, oder?


Custom 3080er (die guten Modelle) kosten ca. 800-950€, wenn jetzt eine gute 3090 für 1300 da wäre, dann die 3090.

Die 15% Mehrleistung der 3090 merkt man real gar nicht, schon gar nicht auf 4k, wenn der Unterschied dann 64 zu 73 FPS ist.

Eine 3090 kauft man sich nur aus folgenden Gründen:
- der massive Speicher
- selektierte ggf. sogar effizientere Chips und folglich deutlich bessere OC-Eigenschaften

Dural
2020-09-16, 12:59:00
Die 3090 hat deutlich mehr einheiten und bandbreite, takt zu takt werden da über 20% zur 3080 möglich sein.

Wenn ich noch regelmässig spielen würde wäre meine entscheidung relativ eindeutig: 3090 mit wakü und chiller.

Matrix316
2020-09-16, 13:00:57
Custom 3080er (die guten Modelle) kosten ca. 800-950€, wenn jetzt eine gute 3090 für 1300 da wäre, dann die 3090.

Die 15% Mehrleistung der 3090 merkt man real gar nicht, schon gar nicht auf 4k, wenn der Unterschied dann 64 zu 73 FPS ist.
[...]
Wobei hier würde ich sagen: Gerade in 4K merkt man es. Ob man 150 oder 180 FPS hat, ist egal, aber ob 45 oder 50 macht sich da schon eher bemerkbar.

RLZ
2020-09-16, 13:02:32
Eine 3090 kauft man sich nur aus folgenden Gründen:
- der massive Speicher
- selektierte ggf. sogar effizientere Chips und folglich deutlich bessere OC-Eigenschaften
- Weil mans einfach kann

Matrix316
2020-09-16, 13:21:09
High End zu haben ist aber auch langweilig, weil man nichts mehr zum Aufrüsten hat, bis die nächste Generation kommt. Und wenn die Mist baut, wirds noch langweiliger, weil man dann unter Umständen 3 Jahre warten muss. =)

MiamiNice
2020-09-16, 13:31:01
Naja, es heisst aber auch nach Hause zu kommen und einfach nur sorgenfrei nutzen ohne sich einen Kopf machen zu müssen.

DrMabuse1963
2020-09-16, 13:34:41
Aber für mich kommt am 2. Oktober mein Mainspiel für VR raus.

Star Wars: Squadrons ? hatte ich nicht auf den Schirm,könnte aber wirklich interessant werden.:biggrin:

BigBangBacket
2020-09-16, 13:46:13
Star Wars: Squadrons ? hatte ich nicht auf den Schirm,könnte aber wirklich interessant werden.:biggrin:

Of course 😉 leider kommt ja die Reverb g2 erst Ende Oktober durch die Verschiebung 🤨 Naja...ich habe 35 Jahre drauf gewartet..die 3 Wochen schaffe ich auch noch. Schau dir mal alle Trailer und das neue CGI Video an ..

OnTopic
Ich hoffe BeQuiet kommt schnell mit einem 12 Pin Kabel. Der Adapter fliegt schnell raus. Und vorsichtshalber habe ich mal eine GraKa Stütze bestellt.
Ich freu mich richtig auf den 24. Endlich mal wieder eine neue GraKa.

Platos
2020-09-16, 13:47:50
Mythos;12427196']Meine Hardware kühlt er jedenfalls sogar beim zocken zu 90% passiv und selbst wenn die eloops anlaufen, ist das ganze unhörbar. Und wirklich unhörbar, nicht leise, nicht angenehm, sondern komplett unhörbar. Das "Elektronikgeräusch" des Monitors ist lauter.

Etwas Ot, aber was für Hardware kühlt der zu 90% passiv? Und wie ist er positioniert ? Ist die Fläche Senkrecht zum Boden oder Parallel (was ja besser ist für Passiv)?

[MK2]Mythos
2020-09-16, 13:59:07
Etwas Ot, aber was für Hardware kühlt der zu 90% passiv? Und wie ist er positioniert ? Ist die Fläche Senkrecht zum Boden oder Parallel (was ja besser ist für Passiv)?
er hängt horizontal in einem Hifi-Rack. Komponenten siehe Signatur. (Ryzen 3700x, Radeon VII @2Ghz)

mapel110
2020-09-16, 14:00:13
Stunde vor NDA-Fall und noch kein Frühstarter?! Das war früher aber anders....

woodsdog
2020-09-16, 14:05:43
Stunde vor NDA-Fall und noch kein Frühstarter?! Das war früher aber anders....

Naja, wer heute zu früh das NDA bricht bekommt eben keine 3090 zugeschickt. Das will natürlich keiner :D

Digidi
2020-09-16, 14:07:19
Es ist doch eh schon so gut wie alles bekannt.....

[MK2]Mythos
2020-09-16, 14:09:01
Es ist doch eh schon so gut wie alles bekannt.....
Wat? Auf keinen Fall. Ich werde wohl den halben Abend damit verbringen, verschiedene Reviews zu lesen und zu schauen...

Digidi
2020-09-16, 14:10:28
Mythos;12427303']Wat? Auf keinen Fall. Ich werde wohl den halben Abend damit verbringen, verschiedene Reviews zu lesen und zu schauen...

Wenn die keinen anderen/neuen Treiber haben +30% Mehrperformance. Das Teil wird viel Power schlucken und recht warm werden, könnte aber wegen den großen Kühler trozdem leise sein....

Also was ist noch nicht bekann?

Lawmachine79
2020-09-16, 14:10:58
Eine etwas blöde Situation für Enthusiasten:

Option 1) Eine 3080 sofort ergattern morgen.
Option 2) Bis am 24. warten auf die 3090

Risiko: 3090 zu Beginn viel zu teuer und die 3080 am 24. nirgends mehr verfügbar.
Fernabsatzgesetz.

woodsdog
2020-09-16, 14:12:43
Fernabsatzgesetz.
:uban:

Lawmachine79
2020-09-16, 14:16:36
Fernabsatzgesetz.
Nachtrag: wenn Du Glück hast, werden die Karten so knapp, dass Du sie mit Gewinn verkaufen kannst. Habe mir damals 2 Rift bestellt und mit der einen Rift konnte ich die Hälfte der anderen Rift bezahlen :D.

RLZ
2020-09-16, 14:19:54
Also was ist noch nicht bekann?
Wenn man kein Hardcore Farcry Spieler ist, ist das Performance Plus schon noch interessant. 30% dürfte der absolute Worst-Case sein.

gbm31
2020-09-16, 14:20:42
Wenn du horn glauben willst... der macht wieder auf Insider und meldet 2500 FEs zum Start.

Ich halte das für die selbe Hoax wie daß die 3080 so toll fürs Mining sein soll.

Kauft Leute kauft!

Ich lehn mich zurück und genieß lieber noch ne Weile das Wetter. Aufrüsten kommt wenn es wieder früh dunkel ist. :-)

mironicus
2020-09-16, 14:30:37
Kleine Stimmungsmache vor dem Start:
https://mixed.de/benchmark-leaks-geforce-rtx-3080/

Gebrechlichkeit
2020-09-16, 14:36:33
Eine etwas blöde Situation für Enthusiasten:

Option 1) Eine 3080 sofort ergattern morgen.
Option 2) Bis am 24. warten auf die 3090

Risiko: 3090 zu Beginn viel zu teuer und die 3080 am 24. nirgends mehr verfügbar.

4K - sofern diese werte stimmen (https://youtu.be/r4j4kewBkEs)
Die RTX3090 ist doch doppelt so schnell wie die 2080ti. oder?
RTX3090 €1,500 = €2,400 2x2080ti
dazu DLSS3.0? 8K, 24Gb vram vs 11Gb vram, 2x? sogut mit RT

Eher sollte man das Konzept der Kuehlung hinterfragen. Erschliesst sich mir nicht, warum der hintere Luefter die warme*? Luft in die CPU befoerdert? Das PCB ist ja angeblich recht klein (k.A ob auch bei der 3090).

*gibt ja nix zu kuehlen (kein PCB, keine chips usw.).

Asus TUF (https://www.asus.com/us/Graphics-Cards/TUF-RTX3090-24G-GAMING/gallery/)
https://i.postimg.cc/KYTm4r75/asda.png (https://postimages.org/)
Asus 3090 (https://www.asus.com/Graphics-Cards/ROG-STRIX-RTX3090-24G-GAMING/)
https://i.postimg.cc/wMpM94SJ/Screenshot-2020-09-16-143605.png (https://postimages.org/)

r3ptil3
2020-09-16, 14:37:12
Kleine Stimmungsmache vor dem Start:
https://mixed.de/benchmark-leaks-geforce-rtx-3080/

Auf jeden Fall ist klar, dass ab 3080 möglichst die beste verfügbare CPU (inkl. OC) und hochtaktendem RAM mit sehr scharfen Timings notwendig sind, um alles rauszuholen.

Bin gespannt, ob da ein Reviewer dem Nahe kommt oder wieder nur mit Einheitsbrei getestet wird.


@Gebrechlichkeit

Macht zumindest insofern Sinn, dass der Hitzestau unterhalb der Grafikkarte etwas entlastet wird.
Gibt ja keinen Gehäuselüfter unter der Grafikkarte, welcher die warme Luft da unten rausbefördert.

RLZ
2020-09-16, 14:46:27
Kleine Stimmungsmache vor dem Start:
https://mixed.de/benchmark-leaks-geforce-rtx-3080/
Die Benchmarks hatten wir in den letzten Tagen schon 10 mal. Hier ist nur noch mal eine Seite, die die Werte kopiert hat.
Wir haben da im Prinzip Benchmarks von 2 Spielen und da wird dann die Welt reininterpretiert.
dazu DLSS3.0?
Es wurde doch nur 2.1 angekündigt. Ohne Anpassungen im Spiel wird es höchstwahrscheinlich auch nie was werden.
Nvidia muss versuchen mehr Inputdaten ins Netz zu bekommen und nicht weniger.

MiamiNice
2020-09-16, 14:59:59
So, jetzt sollte es doch abgehen.

Cubitus
2020-09-16, 15:01:21
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/

https://www.igorslab.de/nvidia-geforce-rtx-3080-founders-edition-review-ein-grosser-schritt-nach-vorn-und-der-grabstein-fuer-turing/

Digidi
2020-09-16, 15:01:34
Wenn man kein Hardcore Farcry Spieler ist, ist das Performance Plus schon noch interessant. 30% dürfte der absolute Worst-Case sein.

Ok dann sind wohl alles Hardcore Farcry spiele 28% bei 1440p

https://www.computerbase.de/2020-09/geforce-rtx-3080-test/2/

Panzerfaust
2020-09-16, 15:01:38
CB:
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/

PCGH:
https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Tests/Test-Review-Founders-Edition-1357408/

Lu
2020-09-16, 15:01:45
Schaut doch mal bei Igor rein

https://www.youtube.com/watch?v=6QNR9EtMFaQ&ab_channel=igorsLAB

Digidi
2020-09-16, 15:05:29
Um 30% eher drunter und das was auch zu erwarten war...

Cubitus
2020-09-16, 15:06:10
Schaut doch mal bei Igor rein

https://www.youtube.com/watch?v=6QNR9EtMFaQ&ab_channel=igorsLAB

Igors Seite ist down.. :freak:

why_me
2020-09-16, 15:08:33
Mit 270W wäre sie fast genauso schnell gewesen. 25% Schneller als eine 2080ti bei gleichem Verbrauch. Mit 50W mehr kommen nur noch 4% dazu...
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt

OC scheint auch kaum zu gehen, die Karten laufen am Limit.

Digidi
2020-09-16, 15:09:03
lol Die ganzen Reviewer 30% für das gleiche Geld is super! NOT

Früher gabs dafür eher zwischen 50% und 100% mehr. Ich sag euch die Teile sind viel zu teuer.

Zergra
2020-09-16, 15:12:20
Dann wird die 3070 10-15% unter der 2080Ti rauskommen...

Lolz an alle die die Karte für unter 500€ verkauft haben...


Die 3080 wird trotzdem gekauft, ist ja fast doppelt so schnell wie die 1080TI

[dzp]Viper
2020-09-16, 15:12:24
in 4K ist die 3080 FE gegenüber der 2080 Super FE zwischen 60-90% schneller :ulol:

Da kommt man doch ins grübel ;D

Digidi
2020-09-16, 15:14:59
Jetzt weiß man auch warum die Karten so Billig sind. Die liegen mit 30% ziemlich nahe an Ihren vorgängern die jetzt billiger zu haben sind. Da upgradet kaum einer.

BigBangBacket
2020-09-16, 15:16:34
lol Die ganzen Reviewer 30% für das gleiche Geld is super! NOT

Früher gabs dafür eher zwischen 50% und 100% mehr. Ich sag euch die Teile sind viel zu teuer.

Du hast absolut recht.....also lieber die 3090 kaufen.

Erste Reviews loben ja den FE Kühler. Leistung auch gut. Was will man mehr. Vielleicht etwas mehr Arbeitsspeicher...

Je mehr jetzt unsere " Spezialisten" heulen, umso besser muss die 3080 FE sein

Ravenhearth
2020-09-16, 15:16:36
lol Die ganzen Reviewer 30% für das gleiche Geld is super! NOT

Früher gabs dafür eher zwischen 50% und 100% mehr. Ich sag euch die Teile sind viel zu teuer.
Jetzt weiß man auch warum die Karten so Billig sind. Die liegen mit 30% ziemlich nahe an Ihren vorgängern die jetzt billiger zu haben sind. Da upgradet kaum einer.
Die ist 30% schneller als die 2080 Ti, und die gabs nicht für 699€. Gegenüber der gleich teuren 2080 Super legt man eher 60% zu. Also wovon redest du?

DeadMeat
2020-09-16, 15:17:00
Jetzt weiß man auch warum die Karten so Billig sind. Die liegen mit 30% ziemlich nahe an Ihren vorgängern die jetzt billiger zu haben sind. Da upgradet kaum einer.

Vermutlich wurden auch deshalb in der Übertragung direkt die 10xx Karten Leute als Upgrader genannt. Denn die würden jetzt für weniger einen guten Sprung machen.

Digidi
2020-09-16, 15:19:18
Die ist 30% schneller als die 2080 Ti, und die gabs nicht für 699€. Gegenüber der gleich teuren 2080 Super legt man eher 60% zu. Also wovon redest du?

Früher war die Leistungsstärgkste Karte immer zwischen 500 - 700 Euro und jetzt hat man mit der 2080ti genau das geschafft. Den Vorgänger entkoppelt. Der hohe Preis der 2080ti ist der Fehler! Deshalb muss man sich jetzt zwingend auf die 2080ti beziehen. Die 2080ti hätte niemals ca. 1300 Euro kosten dürfen. Desahlb ist die 2080ti als vergleich gerechtfertigt und da fällt der Aufschlag jetzt sehr mager aus.

hlynska
2020-09-16, 15:20:16
Igors Seite ist down.. :freak:Nö, läuft mit Hammer-Speed. Scheinbar ist der neue Server rechtzeitig online gegangen... :D

dreamweaver
2020-09-16, 15:20:33
Mit 270W wäre sie fast genauso schnell gewesen. 25% Schneller als eine 2080ti bei gleichem Verbrauch. Mit 50W mehr kommen nur noch 4% dazu...
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt

OC scheint auch kaum zu gehen, die Karten laufen am Limit.

Jetzt wäre ja noch sehr interessant zu wissen, wie sich die Lüfter bei reduzierten 270 Watt im Vergleich zu den standard 320 Watt verhalten.

Reichen dann 1500 rpm?


Edit,
Ok, die FE hat ja nur zwei Lüfter. Eine custom mit 3 Lüftern müsste dann eigentlich mit 1500 rpm hinkommen.

Dural
2020-09-16, 15:20:44
Die 2080Ti ist nach heute Occ. auch keine 400.- mehr Wert. :rolleyes:

prinz_valium_2
2020-09-16, 15:21:03
Mit 270W wäre sie fast genauso schnell gewesen. 25% Schneller als eine 2080ti bei gleichem Verbrauch. Mit 50W mehr kommen nur noch 4% dazu...
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt

OC scheint auch kaum zu gehen, die Karten laufen am Limit.

Ja finde ich auch nicht so nice.
Bei der 1070 habe ich noch 20% extra durch OC rausgeholt

Dural
2020-09-16, 15:23:05
Samsung 8nm offensichtlich doch nicht so gut. Das ist ja sogar eine leichte Takt Reduktion von 12nm auf die 8nm jetzt. Aber ICH habe es ja schon letzte Woche Angekündigt :freak: ;)

Oder Navi2 so stark (Träumt weiter :freak:)

Digidi
2020-09-16, 15:23:24
Die 2080Ti ist nach heute Occ. auch keine 400.- mehr Wert. :rolleyes:

2080ti besitzer die auf die 3090 wechseln wollten indem Sie die alte Karte verkaufen sind gerade bestimmt mega Sauer. Nvidia hat in meinen Augen das ganze Vertrauen mit der Preispolitik zerstört. Wenn dann hätte die 3090 und die 3080 noch viel billiger sein müssen. 599 für die 3080 und 1000 für die 3090 das wäre noch vertretbar gewesen. So baut man kein Vertrauen auf.

Radeonfreak
2020-09-16, 15:25:22
Die 2080Ti ist nach heute Occ. auch keine 400.- mehr Wert. :rolleyes:

:ucrazy:

Dural
2020-09-16, 15:25:39
Nimm weniger von dem zeug, die 3080 ist im Durchschnitt 60% schneller als die 2080 Super

Das wird bedeuten das die 3090 ca. 60 % schneller als die 2080Ti sein wird :rolleyes:

Wer eine 2080ti für über 400.- Occ. Kauft dem ist nicht mehr zu helfen.

Digidi
2020-09-16, 15:28:15
Nimm weniger von dem zeug, die 3080 ist im Durchschnitt 60% schneller als die 2080 Super

Das wird bedeuten das die 3090 ca. 60 % schneller als die 2080Ti sein wird :rolleyes:

Wer eine 2080ti für über 400.- Occ. Kauft dem ist nicht mehr zu helfen.

Du hast nichts Verstanden. Viele die auf eine 3090 für 1500 Euro upgraden sind darauf angewiesen das die 2080ti noch einen Guten Preis erzielt, die haben eher mit 600-800 Euro gerechnet die haben jetzt eine Lücke von 300-400 Euro. Das tut sie aber nicht mehr...

why_me
2020-09-16, 15:31:17
Das wird bedeuten das die 3090 ca. 60 % schneller als die 2080Ti sein wird :rolleyes:

Dafür wird man aber sehr großzügig runden müssen.

ShinyMcShine
2020-09-16, 15:32:50
Du hast nichts Verstanden. Viele die auf eine 3090 für 1500 Euro upgraden sind darauf angewiesen das die 2080ti noch einen Guten Preis erzielt, die haben eher mit 600-800 Euro gerechnet die haben jetzt eine Lücke von 300-400 Euro. Das tut sie aber nicht mehr...

Jemand, der eine 3090 kaufen möchte, sollte nicht auf zusätzliche 300-400€ angewiesen sein. Just my 2 cents...

Cyberfries
2020-09-16, 15:35:22
Alles nicht so schlimm wie hier von einigen beschriehen.
Leistung passt, Kühlung passt.
Leistungsaufnahme dank Brechstange ist unangenehm, siehe 3080@270watt im Computerbase-Test.
Vielleicht bringt ein Partner ja noch eine 3080 wie sie sein sollte.

edit: Es gibt hier zwei Schreiber im Thread mit D im Namen. Die sollte man ignorieren.
Ich empfehle beiden einen Mittagsschlaf und gründliches Nachdenken ob das wirklich notwendig ist,
den Thread mit dem persönlichen Kreuzzug vollzuspammen.

Digidi
2020-09-16, 15:39:39
@Cyberfries Ja red es dir schön 30% Performancesteigerung bei gleichem Preis ist einfach für 2 Jahre Entwicklung nichts!

RLZ
2020-09-16, 15:43:02
Jetzt weiß man auch warum die Karten so Billig sind. Die liegen mit 30% ziemlich nahe an Ihren vorgängern die jetzt billiger zu haben sind. Da upgradet kaum einer.
2080ti besitzer die auf die 3090 wechseln wollten indem Sie die alte Karte verkaufen sind gerade bestimmt mega Sauer. Nvidia hat in meinen Augen das ganze Vertrauen mit der Preispolitik zerstört. Wenn dann hätte die 3090 und die 3080 noch viel billiger sein müssen. 599 für die 3080 und 1000 für die 3090 das wäre noch vertretbar gewesen. So baut man kein Vertrauen auf.
Es fällt irgendwie immer schwerer dich noch irgendwie ernst zu nehmen.
Du baust dir gerade eine Verschwörungsnetz zusammen welche Grafikkarte irgendwie der Nachfolger einer anderen ist. Und ehrlich gesagt kann man da kaum noch der "Logik" folgen.

Die 3080 ist der Nachfolger der 2080. Vom Namen und vom Preis her. Und da liefert sie im Vergleich einfach.

Ob die 3090 nun der heiße Scheiß ist, steht nochmal auf einem anderen Blatt.

Digidi
2020-09-16, 15:46:49
@RLZ Und kommst wie ein Fanboy rüber. Wann gab es denn mal Karten über 1000 Euro die 30 Prozent von Ihren 700 Euro Pondants weg lagen?

Man kann nur Chipgrößen Vergleiche. Größter Chip mit vollem Ausbau gibts dieses Jahr nur für 1500 Euro, letztes mal gabs den Größten Chip noch für 1300 Euro und ganz vorher sogar nur für 700 Euro mit sehr leichten Abstrichen und die Die Size weicht auch nicht so viel ab. Zudem ist der Jetzige Chip in einem ältern Verfahren gefertigt welches gute Ausbeute garantiert. Die Kosten sind also Gering der Preis aber hoch.

Die 2080ti von Damals hätte für diesen Leistungssprung nicht mehr als 1000 eher 900 Euro kosten dürfen. Das führt nun zur Irren diskussion das wir und bei High End nun um die 3080 unterhalten und nicht die 2080ti oder 3090...

anorakker
2020-09-16, 15:52:26
Also ich kann diesen ganzen Mimimi "die 2080 Ti ist nichts mehr wert" Heuler/Interpretierer nicht verstehen. Ich habe selber im Februar die MSI 2080Ti für 1030€ gekauft und hab bis heute meinen Spass damit gehabt.
Und ich hab sie nur gekauft.. because I can!! Wer soviel Geld für ne Graka rausballert dem ist es normalerweise herzlich egal, ob die dann halt irgendwie nix mehr wert ist, weils ja was neues gibt. In dem Preisbereich ist das mit jedem Luxus-Produkt so, heute neu, morgen alt. Und dazu war die 2080Ti ganz schön lange "neu" (die early adopter haben/hatten alles richtig gemacht).

RLZ
2020-09-16, 15:55:35
@RLZ Und kommst wie ein Fanboy rüber.
Mag sein. Aber ändert nichts an deiner verqueren Logik.
Was interessiert sich ein Kunde für die Chipgröße?
Was interessiert sich ein Kunde für P/L vom größeren Modell? (Golf Fahrer interessiert auch nicht P/L vom Golf R oder Bugatti)

Dural
2020-09-16, 15:57:20
Die EINZIG grosse Frage aktuell:

Ist Samsung oder NV für den Takt / Verbrauch verantwortlich :freak:

Ich bin sehr auf die 3090 und 3070 gespannt.

RLZ
2020-09-16, 16:00:23
Ist Samsung oder NV für den Takt / Verbrauch verantwortlich :freak:
Ist das die Frage?
4% Leistungsverlust bei 50W weniger. 11% Leistungsverlust bei 100W weniger.
Die Vermutung liegt nahe, dass AMD für den Stromverbrauch verantwortlich ist. Starke Konkurrenz führt bei CPUs und GPUs immer zu wachsenden Stromverbräuchen.

Troyan
2020-09-16, 16:01:03
nVidia ist verantwortlich. Der Chip hat 28 Mrd. Transistoren, im Ausbau der 3080 bestimmt noch ~25 Mrd. Das sind 88% mehr als TU104 ala 2080 Super. Dazu kommt der (deutlich) höhere Verbrauch von GDDR6X.

Die 3070 wird 35%+ effizienter als die 2070S(2080FE) sein.

Sardaukar.nsn
2020-09-16, 16:03:11
Das mit den Siegeln ist nach deutschem Recht ungültig. :P

Und ich kaufe so etwas hier doch nicht umsonst:

https://abload.de/img/whatsappimage2020-06nxk8f.jpeg (https://abload.de/image.php?img=whatsappimage2020-06nxk8f.jpeg)

;D;D

Quote Igor:
Aufwand und Nutzen? Hund-Schwanz-Prinzip, denn mehr Abwärme lässt den Boost-Takt ja auch wieder sinken. Also etwas sinnlos ist das schon und die gesamte Karte schreit geradezu nach Wasserkühlung!

https://www.igorslab.de/nvidia-geforce-rtx-3080-founders-edition-review-ein-grosser-schritt-nach-vorn-und-der-grabstein-fuer-turing/13/

Birdman
2020-09-16, 16:04:01
60% schneller und 25% mehr Speicher als der Vorgänger und das bei gleichen Preis.
Zudem zeigen neuere Spiele wohin es geht, d.h. der Vorsprung von Ampère wird nur noch steigen.

nVidia zündet mit RTX308 eine Bombe und bei AMD müssen sich die BigNavi Entwickler wohl um ihren Job sorgen machen, weil sie erneut eine neue GPU Generation in den Sand gesetzt haben...

unl34shed
2020-09-16, 16:04:42
Mit 270W wäre sie fast genauso schnell gewesen. 25% Schneller als eine 2080ti bei gleichem Verbrauch. Mit 50W mehr kommen nur noch 4% dazu...
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_rtx_3080_vs_rtx_2080_ti_bei_270_watt

OC scheint auch kaum zu gehen, die Karten laufen am Limit.

War da nicht was mit Verbrauch geht 1:1 in Mehrleistung auf? ;D

Dural
2020-09-16, 16:06:23
Der Direkte TU104 Nachfolger gibt es aktuell nicht, GA104 ist meiner Meinung nach der TU106 Nachfolger.

NV setzt bewusst eine stark Reduzierte GPU auf der 3080 ein, das ist eigentlich ein klares Indiz das der Prozess halt doch nicht so der Hammer ist.

unl34shed
2020-09-16, 16:07:30
60% schneller und 25% mehr Speicher als der Vorgänger und das bei gleichen Preis.
Zudem zeigen neuere Spiele wohin es geht, d.h. der Vorsprung von Ampère wird nur noch steigen.

nVidia zündet mit RTX308 eine Bombe und bei AMD müssen sich die BigNavi Entwickler wohl um ihren Job sorgen machen, weil sie erneut eine neue GPU Generation in den Sand gesetzt haben...

Eine Bombe wäre es, wenn es näher an den erwähnten 2x Performance liegen würde, aber so?

Edit:
Und das bei +30% Verbrauch bzw. ca. 50% zur non Super, das ist eher ernüchternd.
Edit2:
Und dann auch noch mit dem größeren Chip...

Dural
2020-09-16, 16:08:28
Die 2x wird in Doom 2080 (ohne super) gegen die 3080 erreicht.

Digidi
2020-09-16, 16:09:24
Mag sein. Aber ändert nichts an deiner verqueren Logik.
Was interessiert sich ein Kunde für die Chipgröße?
Was interessiert sich ein Kunde für P/L vom größeren Modell? (Golf Fahrer interessiert auch nicht P/L vom Golf R oder Bugatti)

Vielleicht mal mit Zahlen Belegen. Seit Jahren bezahlt man für immer weniger Leistung immer Mehr das ist Marktwirtschaftlicher Nonsense.

Lu
2020-09-16, 16:10:16
Die 2x wird in Doom 2080 (ohne super) gegen die 3080 erreicht.

Nur weil der VRAM bei der 2080 limitiert ;D
Aber das weißt du Troll ja auch, vergisst es nur zu erwähnen :P

Dural
2020-09-16, 16:13:22
Nö, weil die FP32 Einheiten dort voll durchschlagen.

Und ein Troll sollte wissen das die 2080Ti sogar 1 GB mehr als die 3080 hat...

unl34shed
2020-09-16, 16:15:50
Die 2x wird in Doom 2080 (ohne super) gegen die 3080 erreicht.
Nö, weil die FP32 Einheiten dort voll durchschlagen.

Und ein Troll sollte wissen das die 2080Ti sogar 1 GB mehr als die 3080 hat...

Na was jetzt? 2080 oder 2080Ti oder vielleicht doch 2080 Super?

Dural
2020-09-16, 16:18:00
:rolleyes:

Es geht um diesen Auszug:

Den größten Sprung macht die GeForce RTX 3080 in Doom Eternal. Dort kann die Grafikkarte ein Plus von 41 Prozent gegenüber der GeForce RTX 2080 Ti und von 85 Prozent gegenüber der GeForce RTX 2080 Super für sich verbuchen.

https://www.computerbase.de/2020-09/geforce-rtx-3080-test/2/#abschnitt_benchmarks_in_3840__2160

Linmoum
2020-09-16, 16:18:43
nVidia zündet mit RTX308 eine BombeWelche soll das sein? Reviews zeigen keine. Performancesprung, der schon seit Monaten dort vermutet wurde, hoher Verbrauch, mieser Sprung bei Perf/Watt (Turing hat mehr in demselben Prozess geschafft...).

Alles in allem was man erwarten konnte und doch enttäuschend nach NV Marketingaussagen zu den gewaltigen Performancesprüngen.

Lu
2020-09-16, 16:21:35
Nö, weil die FP32 Einheiten dort voll durchschlagen.

Und ein Troll sollte wissen das die 2080Ti sogar 1 GB mehr als die 3080 hat...

Verstehst du deine eigenen Texte nicht mehr? Du hast klar von der 2080 gesprochen, siehe mein Zitat.
Stellt man die Texturen eine Stufe runter, und schon ist die 3080 nicht mehr 2x so schnell wie die 2080 Punkt!

DrMabuse1963
2020-09-16, 16:22:31
Schaut doch mal bei Igor rein

https://www.youtube.com/watch?v=6QNR9EtMFaQ&ab_channel=igorsLAB
41min sind mir aktuell zu lang,geht er drauf ein wo die Watt (überflüssigen) verpulvert werden ?

Birdman
2020-09-16, 16:24:20
Eine Bombe wäre es, wenn es näher an den erwähnten 2x Performance liegen würde, aber so?
Die von nVidia erwähnten 2x beziehen sich auf die 2080 und nicht die 2080 Super und diese werden in mehreren Fällen auch erreicht. (moderne Spieleengine und wenn kein CPU Limit vorliegt)

Dural
2020-09-16, 16:26:28
Verstehst du deine eigenen Texte nicht mehr? Du hast klar von der 2080 gesprochen, siehe mein Zitat.
Stellt man die Texturen eine Stufe runter, und schon ist die 3080 nicht mehr 2x so schnell wie die 2080 Punkt!

Der 2080 geht nicht der Speicher aus wie du behauptet hast, Punkt und Fertig.
Selbst die Vega mit 16GB ist etwas langsamer als die 2080, also hör auf solchen unwarheiten zu schreiben!

Die 2080Ti habe ich nur genommen weil die 11GB hat, trotzdem ist die 3080 mit ihren 10GB deutlich schneller.

Ist schon schwer zu verstehen. :rolleyes:

Neurosphere
2020-09-16, 16:27:34
Besonders macht die 3080 wie geahnt der Sprung innerhalb der Gen von einem 104 Chip auf den 102.

Der Preis ist das Argument! Perf./ Watt und OC sehen nicht besonders gut aus für eine neue Gen. Hier NV ziemlich die Brechstange angesetzt. Mit dem zu erwartenden kleinen Sprung von 3090 zu 3080 ist die Generation an sich auf erwartbarem Niveau. Nimmt man den Stromverbrauch mit rein bleibt sie hinter den Erwartungen. Bei einer TDP wie beim Vorgänger wäre der Unterschied in FPS auch geringer, dafür besseres OC.

Birdman
2020-09-16, 16:32:43
hoher Verbrauch, mieser Sprung bei Perf/Watt (Turing hat mehr in demselben Prozess geschafft...).
Halte ich für Mumpitz, bei Turing wurde einfach der Betriebspunkt optimaler (aus Perf/Watt Sicht) gewählt, ansonsten ist Turing aber auch nicht der leuchtende Stern am Abendhimmel.

Interessant ist hierzu doch schlussendlich nur die Frage, wieso nVidia die RTX3k Karten mit einem solch deutlich gesteigerten PowerBudged ins Feld schickt.

Eine vermutete AMD Stärke ist sicher eine mögliche Erklärung, ich sehe da aber noch einige andere Gründe welche dafür sprechen und überhaupt nichts mit der Konkurenz zu tun haben.

Dural
2020-09-16, 16:36:39
Gerade bemerkt das meine Performence vorhersage zu Ampere ziemlich genau war.

Mit anderen Worten, eine 3090 ist somit ca. 140% schneller als eine 5700XT :freak::freak::freak:

Immer noch am träumen? :wink:

Lu
2020-09-16, 16:45:14
Der 2080 geht nicht der Speicher aus wie du behauptet hast, Punkt und Fertig.
Selbst die Vega mit 16GB ist etwas langsamer als die 2080, also hör auf solchen unwarheiten zu schreiben!

Die 2080Ti habe ich nur genommen weil die 11GB hat, trotzdem ist die 3080 mit ihren 10GB deutlich schneller.

Ist schon schwer zu verstehen. :rolleyes:

Ok, für den Dural jetzt also extra ne Quelle für die Aussage gesucht.

https://youtu.be/csSmiaR3RVE?t=782

Ab Minute 13 geht es genau um deine falsche Aussage. Die maximal Textur Einstellung in DOOM benötigt 9gb VRAM und limitiert die 2080. Nur in diesem Fall ist die 3080 tatsächlich doppelt so schnell wie die 2080 wie du sagtest. Stellt man die Texturen eine Stufe runter, sind es nur noch 70 Prozent Leistungsvorsprung.
Verdreh ruhig die Wahrheit, deine Aussage bleibt falsch Punkt.

Edit Nr. 2 Damit hat Digital Foundry auch einiges an Glaubwürdigkeit eingebüßt mit Ihren exklusiven vorab Benchmarks!

Dampf
2020-09-16, 16:53:20
Ok, für den Dural jetzt also extra ne Quelle für die Aussage gesucht.

https://youtu.be/csSmiaR3RVE?t=782

Ab Minute 13 geht es genau um deine falsche Aussage. Die maximal Textur Einstellung in DOOM benötigt 9gb VRAM und limitiert die 2080. Nur in diesem Fall ist die 3080 tatsächlich doppelt so schnell wie die 2080 wie du sagtest. Stellt man die Texturen eine Stufe runter, sind es nur noch 70 Prozent Leistungsvorsprung.
Verdreh ruhig die Wahrheit, deine Aussage bleibt falsch Punkt.

Edit Nr. 2 Damit hat Digital Foundry auch einiges an Glaubwürdigkeit eingebüßt mit Ihren exklusiven vorab Benchmarks!

Digital Foundry hat das mit dem VRAM aber erwähnt. Sie haben auch erwähnt, dass man die ersten Ergebnisse mit Vorsicht genießen soll.

Keine Ahnung wo die jetzt da ihre Glaubwürdigkeit verlieren. :rolleyes:

Und wie ich schon gefühlt hundertmal in allen möglichen Foren erwähnt hab:

Die IDTech Engine Speicherzuteilung funktioniert anders. Auf Hoch sehen die Texturen genauso gut aus wie auf Über. Es ändert sich nur der Wert, wie viel fixer Speicher die Engine sich zuteilt. Gebraucht wird hier also erstmal nix.

Raff
2020-09-16, 16:54:03
Passt besser hier hin, der Test-Thread ist etwas "krauded": https://www.pcgameshardware.de/Geforce-RTX-3080-Grafikkarte-276730/Tests/Raytracing-Vergleich-DLSS-Test-1357418/

Dort wird u. a. eine RTX 2080 Ti mit einer RTX 3080 @ jeweils ~2.000 MHz verglichen, mit dem gleichen nominellen Speicherdurchsatz (dicke 792 GByte/s) -> "IPC-Test", um den Nutzen der FP32-Fertigkeit von Ampere herauszuarbeiten. Spoiler: Ist taktnormiert kleiner, als man hoffen konnte.

MfG
Raff

Troyan
2020-09-16, 16:57:53
Nicht wirklich. Spiele sind kein Gradmesser. Ihr habt doch AIDA benutzt. Dort sieht man den besseren L1 Cache sowie den verdoppelten FP32-Durchsatz. Das die 3080 gegenüber der 2080TI(Ultra) nicht besser darsteht, sollte auch durch die Die-Größe feststehen. Viel besser ist die 3070 in vier Wochen gegenüber der 2080FE.

Gouvernator
2020-09-16, 17:04:14
Habe jetzt nirgendwo gesehen das eine 3080 120Hz/4K mitmacht. Meist sind 60FPS mit Ach und Krach drin. Das heißt eine 3090 ist nicht wirklich eine 8K Karte. Dazu noch der abartige Verbrauch und fiese Lautheit. Man muss jetzt wirklich nur auf 16Gb/20Gb 3070/3080 warten.

Ravenhearth
2020-09-16, 17:05:29
Laut HWU/Techspot hat Amperes neues SM-Design Auslastungsprobleme in niedrigeren Auflösungen:
We've looked deeper at the RTX 3080's performance at 1440p, so we want to comment on that. As far as we can tell, CPU bottlenecking alone is not the explanation. The reason comes down to Ampere's architecture and the change to the SM configuration that we mentioned in the introduction. The 2x FP32 design can only be fully utilized at 4K and beyond. This is because at 4K the portion of the render time per frame is heavier on FP32 shaders. At lower resolutions like 1440p, the vertice and triangle load is identical to what we see at 4K, but at the higher resolution pixel shaders and compute effect shaders are more intensive and take longer and therefore can fill the SMs FP32 ALUs better.
https://www.techspot.com/review/2099-geforce-rtx-3080/

Troyan
2020-09-16, 17:09:46
Deswegen sind GPUs auch nicht doppelt so schnell, wenn nicht alles verdoppelt wird. 3080 sowie TU102/TU104 haben 6 Rasterizer und
die 3080 hat maximal 50% mehr Geometrieeinheiten gegenüber beiden Chips.

Deswegen sind auch Aussagen, dass AMD bei 80CUs einfach auch doppelt so schnell wäre, genauso hinfällig.

askibo
2020-09-16, 17:21:45
Whitepaper ist da:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/ampere/pdf/NVIDIA-ampere-GA102-GPU-Architecture-Whitepaper-V1.pdf

RLZ
2020-09-16, 17:21:47
Vielleicht mal mit Zahlen Belegen. Seit Jahren bezahlt man für immer weniger Leistung immer Mehr das ist Marktwirtschaftlicher Nonsense.
Die Einführung von höheren Produktkategorien führt zu einer Erhöhung der Preise fürs Topmodell. Sensationell :freak:

Troyan
2020-09-16, 17:25:25
Und das seit der Titan aus Februar 2013 (bzw. GTX690 auf Mai 2012). Aber die Diskussion mit dem hatten wir auch schon.

Adam D.
2020-09-16, 17:26:02
Deswegen sind GPUs auch nicht doppelt so schnell, wenn nicht alles verdoppelt wird. 3080 sowie TU102/TU104 haben 6 Rasterizer und
die 3080 hat maximal 50% mehr Geometrieeinheiten gegenüber beiden Chips.

Deswegen sind auch Aussagen, dass AMD bei 80CUs einfach auch doppelt so schnell wäre, genauso hinfällig.
Hat ja auch kein ernstzunehmender Beobachter behauptet. Ohne Erhöhung von Taktraten und IPC hat AMD auch bei Erhöhung der Recheneinheiten keine Chance.

Lawmachine79
2020-09-16, 17:27:00
2080ti besitzer die auf die 3090 wechseln wollten indem Sie die alte Karte verkaufen sind gerade bestimmt mega Sauer. Nvidia hat in meinen Augen das ganze Vertrauen mit der Preispolitik zerstört. Wenn dann hätte die 3090 und die 3080 noch viel billiger sein müssen. 599 für die 3080 und 1000 für die 3090 das wäre noch vertretbar gewesen. So baut man kein Vertrauen auf.
Diese Logik ist der Hammer. Jemand bringt ein Topprodukt zu einem Toppreis und es wird von zerstörtem Vertrauen gesprochen.

Dampf
2020-09-16, 17:29:59
Whitepaper ist da:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/ampere/pdf/NVIDIA-ampere-GA102-GPU-Architecture-Whitepaper-V1.pdf

Ich dachte Turing konnte schon RT gleichzeitig mit Shading verarbeiten?

Lawmachine79
2020-09-16, 17:30:47
Habe jetzt nirgendwo gesehen das eine 3080 120Hz/4K mitmacht. Meist sind 60FPS mit Ach und Krach drin. Das heißt eine 3090 ist nicht wirklich eine 8K Karte. Dazu noch der abartige Verbrauch und fiese Lautheit. Man muss jetzt wirklich nur auf 16Gb/20Gb 3070/3080 warten.


Im Generationen-Vergleich ist der Kühler deutlich besser
Auch wenn die GeForce RTX 3080 Founders Edition unter Last nicht wirklich leise ist, ist das Kühlsystem deutlich leistungsstärker als das Pendant auf der GeForce RTX 2000 Founders Edition. So muss der Kühler der GeForce RTX 2080 Ti 60 Watt weniger abführen als die GeForce RTX 3080 FE, ist aber trotzdem 2,5 Dezibel lauter. Bei probeweise eingestellten 260 Watt bleibt der neue Kühler entsprechend leise.
WTF?

Zum Thema 4k - also eine 4k Karte ist jawohl nicht erst dann gegeben, wenn sie 120 FPS schafft. Dann hat AMD ja schon Schwierigkeiten überhaupt WQHD-Karten zu benennen. Und Grafikkarten unter 300€ bräuchte man dann gar nicht mehr anbieten (wobei, eine gebrauchte 2080TI kriegt bestimmt FullHD hin).

unl34shed
2020-09-16, 17:37:29
Ich dachte Turing konnte schon RT gleichzeitig mit Shading verarbeiten?

Ja, soll Turing laut Nvidia bereits können
https://www.pcgameshardware.de/screenshots/original/2020/09/GeForce-30-Series-Tech-Day_Arch_Hardware_Seite_34-pcgh.jpg

Tesseract
2020-09-16, 17:41:43
Ich dachte Turing konnte schon RT gleichzeitig mit Shading verarbeiten?

ja kann turing, aber nicht RT+tensor+shading gleichzeitig was ampere jetzt kann.

Raff
2020-09-16, 17:42:45
Dafür kommt übrigens morgen ein Wolfenschwein-Patch. Kommende RT-Spiele werden das dann ab Werk beherzigen.

MfG
Raff

Dampf
2020-09-16, 17:44:06
ja kann turing, aber nicht RT+tensor+shading gleichzeitig was ampere jetzt kann.

Ja, dachte ich auch. Dann hat sich im Whitepaper auf S. 15 ein Fehler eingeschlichen.

Müsste Concurrent RT + Compute statt Concurrent RT + Shading in der Tabelle sein.

Troyan
2020-09-16, 17:49:46
Dafür kommt übrigens morgen ein Wolfenschwein-Patch. Kommende RT-Spiele werden das dann ab Werk beherzigen.

MfG
Raff

Hoffentlich für Control auch. Da soll ja der 8K-Patch kommen. Dann sind das nochmal 10% Mehrleistung mit DLSS. Man, eine 3090 sollte dann mit 1440p+DLSS und Raytracing locker durchgehend 60FPS schaffen. :eek:

unl34shed
2020-09-16, 17:56:14
Ja, dachte ich auch. Dann hat sich im Whitepaper auf S. 15 ein Fehler eingeschlichen.

Müsste Concurrent RT + Compute statt Concurrent RT + Shading in der Tabelle sein.

Nicht nur einer, demnach wäre auch GA102 zu TU102 bei RT doppelt so schnell ("Overall GPU RT Speedup"), davor war es noch eine 2x 2080Super als TU104

Dampf
2020-09-16, 17:57:25
Ich glaub mein AI-Denoiser für Spiele kann ich mir abschminken, scheint wohl einfach nicht zu klappen, sonst hätte man das jetzt eingeführt.

Und auf Ampere könnte der auch noch etwas schneller laufen als auf Turing, wie bei DLSS jetzt, da TCs nun konkurrent arbeiten können.

Naja, vielleicht mit Hopper :)

dildo4u
2020-09-16, 18:04:25
CB hat Asynchron DLSS schon gebencht.


https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_fortnite_mit_rtx_und_dlss_20

mczak
2020-09-16, 18:05:04
Whitepaper ist da:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/ampere/pdf/NVIDIA-ampere-GA102-GPU-Architecture-Whitepaper-V1.pdf
Ist mir bisher gar nicht aufgefallen, obwohl das eigentlich aufgrund der Architektur klar war, aber als Nebeneffekt des verdoppelten FP32-Durchsatzes hat man für FP16 keinen höheren Durchsatz mehr (weil FP16 ja eben von den Tensor-Kernen ausgeführt wird und nicht den FP32-Einheiten).

Mark3Dfx
2020-09-16, 18:15:58
Alter, die 2080 Ti kannste bald nur noch für 300€
bei eBay Kleinanzeigen verramschen ;D;D;D

https://www.computerbase.de/2020-09/geforce-rtx-3080-test/7/#abschnitt_preisperformanceverhaeltnis

Kein Zweifel besteht hingegen daran, dass die bisherigen Spitzenmodelle GeForce RTX 2080 Super und GeForce RTX 2080 Ti mit Markteinführung der GeForce RTX 3080 auf Anhieb obsolet geworden sind.
Wer vorhatte, auf diese Grafikkarten zu wechseln, erhält mit dem Ampere-Modell ein deutlich überlegenes Nachfolgeprodukt zum niedrigeren Preis.

Dampf
2020-09-16, 18:52:16
https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_fortnite_mit_rtx_und_dlss_20

Fortnite bietet dabei nicht nur „Raytracing An“ und „Raytracing Aus“ an, sondern lässt die Strahlen für einzelne Einsatzzwecke separat an und abschalten. Und das ist auch gut so, denn wer Raytracing maximiert, erreicht in Ultra HD auch mit vollem DLSS auf einer GeForce RTX 3080 kein flüssiges Ergebnis.
Für die folgenden Benchmarks sind die RT-Schatten und die RT-Umgebungsverdeckung aktiviert, die RT-Reflexionen stehen auf Niedrig. Die globale Beleuchtung mit RT ist abgeschaltet, alles andere ist auch mit einer GeForce RTX 3080 in hohen Auflösungen nicht praktikabel.
Auch mit nur ein paar aktivierten Effekten ist der Performaceeinfluss von Raytracing in Fortnite sehr groß. Selbst die GeForce RTX 3080 verliert mal eben 45 beziehungsweise 55 Prozent ihrer Performance und Fortnite stockt störend. Den Turing-Modellen geht es wie – wie bereits dargelegt – noch etwas schlechter: Die GeForce RTX 2080 Ti verliert 48 und 52 Prozent der FPS, die GeForce RTX 2080 Super 49 und gar 65 Prozent. Wer sämtliche Raytracing-Effekte nutzt, drittelt selbst auf der GeForce RTX 3080 die Performance.


Das kann doch jetzt echt nicht wahr sein... :freak:

Epic sollte es einfach sein lassen und Raytracing mit der UE5, ausgereift und performant, erneut einführen. Irgendwas läuft da echt schief.

unl34shed
2020-09-16, 18:59:26
Könnte auch dran liegen, dass sich an den RT Cores nicht viel getan hat.

Troyan
2020-09-16, 19:01:25
Richtig. Deswegen ist die 3080 auch nur 74% schneller als die 2080S: https://www.computerbase.de/2020-09/geforce-rtx-3080-test/6/#abschnitt_fortnite_mit_rtx_und_dlss_20

Wieviele Unwahrheiten willst du hier eigentlich noch schreiben?

Dampf
2020-09-16, 19:04:11
Könnte auch dran liegen, dass sich an den RT Cores nicht viel getan hat.

Nö, das liegt an der Engine. In BF5 kosten Reflektionen auf Mittel nur 18%. In Control kosten sie 22%. Addiere rund 10-15% für Schatten und AO (das soll wohl besser optimiert sein laut dem CB Bericht) und du bist immer noch weit entfernt von bis zu 65%. Und ich glaube jetzt wirklich nicht, dass niedrige RT Reflektionen abstruse Qualitätseinstellungen wie 50% Auflösung haben, das wäre nun wirklich sinnbefreit. Wahrscheinlich haut die RT GI auch richtig rein, während die bei Metro auch nur 20% kostet und das gesamte Spiel transformiert (davon hab ich bisher nicht viel bei Fortnite gesehen)

Aber ist ja nichts neues dass die UE4 sich mit Raytracing schwer tut.

Der Leistungsverlust ist unverhältnismäßig.

pixeljetstream
2020-09-16, 19:13:18
Ja, dachte ich auch. Dann hat sich im Whitepaper auf S. 15 ein Fehler eingeschlichen.

Müsste Concurrent RT + Compute statt Concurrent RT + Shading in der Tabelle sein.

Stimme Dir zu ist im Text auch so erwähnt. Shading wird halt gern generisch genommen, aber verwirrt hier ein wenig.

horn 12
2020-09-16, 19:19:15
Wie siehts bitte mit der Verfügbarkeit der 3080 aus ?
Weiss man da schon exaktes laut Reviews ?

w0mbat
2020-09-16, 19:22:40
Anscheinend wird es nicht sehr viele FE geben.

anorakker
2020-09-16, 19:28:54
Ab wann genau soll man die bestellen können?

Troyan
2020-09-16, 19:30:01
Ab morgen die 3080, ab 24.09 die 3090 und ab 15.10 die 3070.

Wuge
2020-09-16, 19:39:37
Alter, die 2080 Ti kannste bald nur noch für 300€
bei eBay Kleinanzeigen verramschen ;D;D;D

https://www.computerbase.de/2020-09/geforce-rtx-3080-test/7/#abschnitt_preisperformanceverhaeltnis

Na lt. der verlinkten Seite liegt die 2080ti bewi ca. 500 EUR im Graph. Mit OC halbiert sich der Performanceunterschied auch noch und es gibt 1 GB mehr VRAM. Also für ne neue 2800ti könnte man schon noch 550 EUR bezahlen. Gebrauchte entsprechend günstiger aber sicher nicht für 300 EUR ;)

Digidi
2020-09-16, 19:39:40
Die Einführung von höheren Produktkategorien führt zu einer Erhöhung der Preise fürs Topmodell. Sensationell :freak:

Du lässt dir von Jemanden in Lederjacke bestimmen in welche Produktkategorie welches Produkt einzuordnen ist? Nur weil Jensen jetzt eine 9 stats eine 8 Schreibt ist das noch immer der größte Chip der als einziger wie die anderen Chipgenertionen zuvor auch ungefähr 50 - 60% Leistungszuwachs hat....

Du bist defenitive Fanboy wenn du dir das von Jensen sagen lässt. Wie einfach marketing Funktioniert eine Nr ändern und schon ist man in einer total anderen Welt obwohl eigentlich alles gleich geblieben ist. :confused:;D

Radeonfreak
2020-09-16, 19:42:35
Na lt. der verlinkten Seite liegt die 2080ti bewi ca. 500 EUR im Graph. Mit OC halbiert sich der Performanceunterschied auch noch und es gibt 1 GB mehr VRAM. Also für ne neue 2800ti könnte man schon noch 550 EUR bezahlen. Gebrauchte entsprechend günstiger aber sicher nicht für 300 EUR ;)

Wer seine TI für ne 3080 verkauft hat sie sowieso nicht mehr alle.

Eine 3080 liegt gerade mal bestenfalls 15% vor meiner gut übertakteten Karte und hat 1GB weniger Speicher.

anorakker
2020-09-16, 19:46:09
Na, sie liegt schon deutlicher vorne - macht die vorhandene 2080Ti aber keinen frame langsamer ...solange NVIDIA keinen AppleMove rausholt ;)

TheAntitheist
2020-09-16, 19:50:16
Wer seine TI für ne 3080 verkauft hat sie sowieso nicht mehr alle.

Eine 3080 liegt gerade mal bestenfalls 15% vor meiner gut übertakteten Karte und hat 1GB weniger Speicher.
in manchen RT spielen über 50% davor, ich brauch nicht noch mehr fps in alten Spielen wo ich sowieso schon 100+ habe, ich brauch mehr fps in neuen Spielen... und da wird die 3080 immer stärker werden. Wenn DLSS auch noch gleichzeitig laufen kann, gibts nochmal 10% mehr Leistung for free. dann sinds schon über 60% bei RT Titeln...

Radeonfreak
2020-09-16, 19:55:24
in manchen RT spielen über 50% davor,.

Na sicher nicht.

Meine ist in etwa da woe die Simulated liegt und das ist ein Paradebeispiel



https://abload.de/img/screenshot_2020-09-16hbklf.png

Wolfenstein ist noch übler

https://abload.de/img/screenshot_2020-09-16yukcz.png

Linmoum
2020-09-16, 20:10:54
in manchen RT spielen über 50% davor, ich brauch nicht noch mehr fps in alten Spielen wo ich sowieso schon 100+ habe, ich brauch mehr fps in neuen Spielen... und da wird die 3080 immer stärker werden. Wenn DLSS auch noch gleichzeitig laufen kann, gibts nochmal 10% mehr Leistung for free. dann sinds schon über 60% bei RT Titeln...In welchen alten Spielen in UHD hast du denn sowieso schon 100fps+? Indiespielen? Ja gut, das haut natürlich hin. Wenn du damit Spaß hast, sicher legitim.

Was RT angeht: Ich kaufe in erster Linie eine Grafikkarte für das große Ganze. Also nicht für 5% aller Spiele, sondern für die restlichen 95%. Ersteres ist zusätzlich natürlich nice to have, aber nicht mehr.

Jupiter
2020-09-16, 20:12:40
In UHD setzt sich die RTX 3080 in vielen Spielen sich sehr gut ab. Gerade in Ghost Recon Breakpoint sind die Ergebnisse erstaunlich. Ebenfalls ist der Fortschritt in Pathtracing-Spielen groß.

10 GB scheinen kein allzu großes Problem zu sein. Weitaus bedeutsamer sind Geschwindigkeit und Bandbreite.

Ich bezweifle sehr stark, dass wie hier behauptet AMDs BigNavi die RTX 3080 selbst mit Raytracing überrollen wird. Einfach nur lächerlich. Maximal ohne Raytracing wird sie eine Chance haben. Ich bin gespannt, wie Cyberpunk 2077 mit Raytracing, DLSS usw. bei RTX 3080 vs. AMDs BigNavi läuft. Das ist schließlich der wichtigste Titel des Jahres. Leistung komplett ohne Raytarcing ist nicht allzu wichtig, weil Raytracing optisch Next ist. Wer hier nicht mitmischt, hat im gehobenen Segment nichts zu sagen.

TheAntitheist
2020-09-16, 20:13:31
simulated, lächerlich xD

MiamiNice
2020-09-16, 20:21:19
https://cdn.discordapp.com/attachments/296201993049866242/755831605997600878/Eh1DUhfVgAEYjmp.jpg

crux2005
2020-09-16, 20:22:49
https://cdn.discordapp.com/attachments/296201993049866242/755831605997600878/Eh1DUhfVgAEYjmp.jpg

假!

Dural
2020-09-16, 20:28:25
Und wo steht eine 3090 ultra mit maximaler cpu leistung???

Selbst die 3080 hängt praktisch immer im cpu limit, es ist seit jahren mal wieder eine gpu architektur die alle aktellen cpus überfordert. das gab es seit jahren nicht mehr, das war zuletzt mit g80 und r300 so der fall.

Und wo würde ampere stehen wenn sie 7nm genommen hätten... eine solche gpu würde amd nicht mal in 4 jahren erreichen :freak:

MiamiNice
2020-09-16, 20:29:03
假!

Angeblich Micron Vorserien Chips für die handvoll CEO Karten.
Würde zumindest darauf hindeuten das eine 20Gb 3080 nicht weit ist.
Wahrheitsgehalt kann ich kaum beurteilen.

我不知道 :)

Linmoum
2020-09-16, 20:30:35
Und wo steht eine 3090 ultra mit maximaler cpu leistung???

Selbst die 3080 hängt praktisch immer im cpu limit, es ist seit jahren mal wieder eine gpu architektur die alle aktellen cpus überfordert. das gab es seit jahren nicht mehr, das war zuletzt mit g80 und r300 so der fall.Aha, praktisch immer im CPU-Limit. Vielleicht mal nicht auf FHD bei so einer Karte gucken, sondern UHD. Da wird aus deinem praktisch immer CPU-Limit ein praktisch immer GPU-Limit.

Dural
2020-09-16, 20:32:55
Guck das video von ingo, und klar umso höher die gpu last umso weniger fällt die cpu ins gewicht.

MiamiNice
2020-09-16, 20:36:21
Aha, praktisch immer im CPU-Limit. Vielleicht mal nicht auf FHD bei so einer Karte gucken, sondern UHD. Da wird aus deinem praktisch immer CPU-Limit ein praktisch immer GPU-Limit.

Auch in UHD orientieren sich die min FPS dann meist an der ST Performance der CPU. Wird eindeutig Zeit für Zen3/Rocket Lake. Was auch immer mehr Bums hat.

crux2005
2020-09-16, 20:52:26
Angeblich Micron Vorserien Chips für die handvoll CEO Karten.
Würde zumindest darauf hindeuten das eine 20Gb 3080 nicht weit ist.
Wahrheitsgehalt kann ich kaum beurteilen.

我不知道 :)

Micron spricht selber von 2021. Glaube kaum das sie die pre-production jetzt schon verkaufen können. Oder wann soll die CEO Version kommen? In 3-4 Monaten? Dann gäbe es noch keine Seite für sie.

Blediator16
2020-09-16, 22:01:01
Und wo steht eine 3090 ultra mit maximaler cpu leistung???

Selbst die 3080 hängt praktisch immer im cpu limit, es ist seit jahren mal wieder eine gpu architektur die alle aktellen cpus überfordert. das gab es seit jahren nicht mehr, das war zuletzt mit g80 und r300 so der fall.

Und wo würde ampere stehen wenn sie 7nm genommen hätten... eine solche gpu würde amd nicht mal in 4 jahren erreichen :freak:

Die Ausreden fangen bereits an ;D

aufkrawall
2020-09-16, 22:08:53
Auch in UHD orientieren sich die min FPS dann meist an der ST Performance der CPU.
Du lügst.

w0mbat
2020-09-16, 22:14:15
Ne, er trollt. Er weiß natürlich, dass das nicht stimmt.

MiamiNice
2020-09-16, 22:25:36
Was den mit euch beiden los? Ist auch egal, viel Freunde noch und so.

monstar-x
2020-09-16, 22:45:55
in manchen RT spielen über 50% davor, ich brauch nicht noch mehr fps in alten Spielen wo ich sowieso schon 100+ habe, ich brauch mehr fps in neuen Spielen... und da wird die 3080 immer stärker werden. Wenn DLSS auch noch gleichzeitig laufen kann, gibts nochmal 10% mehr Leistung for free. dann sinds schon über 60% bei RT Titeln...

For Free gibts DLSS ganz sicher nicht, da es Bildqualität kostete.
DLSS ist so häßlich, überschärfter mist.

Welche RT Title sollen das mit 60% sein?
Ich habe keinen Spiel gesehen wo das der Fall ist (2080 TI OC)

Lawmachine79
2020-09-16, 22:50:14
Alter, die 2080 Ti kannste bald nur noch für 300€
bei eBay Kleinanzeigen verramschen ;D;D;D

https://www.computerbase.de/2020-09/geforce-rtx-3080-test/7/#abschnitt_preisperformanceverhaeltnis
https://www.ebay-kleinanzeigen.de/s-anzeige/asus-geforce-rtx-2080-ti-rog-strix-gaming-oc-11gb-ovp-garanti/1513675790-225-1171

:D

Was den mit euch beiden los? Ist auch egal, viel Freunde noch und so.
Den AMD-Fanboyz tun die Sitzknochen jetzt ordentlich weh...Amperewärmeleitpaste kühlt gut, schmiert aber offenbar schlecht.

grizu
2020-09-16, 22:59:05
Wann ist eigentlich der offizielle 3090 Release ? auch Morgen ?

NC
2020-09-16, 23:12:56
del

dildo4u
2020-09-16, 23:16:35
Wann ist eigentlich der offizielle 3090 Release ? auch Morgen ?
24.9

https://www.tomshardware.com/news/nvidia-geforce-rtx-3090-ga102-everything-we-know

NC
2020-09-16, 23:19:04
FP16 in doppelter Rate ist wieder raus? Schade!

Raff
2020-09-16, 23:20:15
FP16 in doppelter Rate ist wieder raus? Schade!

Dafür gibt's die Tensor-Kerne.

MfG
Raff

Mortalvision
2020-09-16, 23:20:49
Da kommt man ja auf die Idee, die VII, die bei mir ohne vram Spannungserhöhungmit 1200 MHz HBM2 Takt läuft, für 700 an den Miner des Vertrauens zu verkaufen und eine 3080 dafür zu holen :freak: Warum altern AMD Karten immer so viel besser als nvidia Pendants?

NC
2020-09-16, 23:21:40
Dafür gibt's die Tensor-Kerne.

MfG
Raff
Die gab es in Turing auch, aber die haben wenig mit den normalen Berechnungen zu tun.

=Floi=
2020-09-16, 23:27:08
Dafür gibt's die Tensor-Kerne.

MfG
Raff

ist das auch bei quadro tegra so? können die tensor kerne parallel mitrechnen?

Troyan
2020-09-16, 23:28:35
Die gab es in Turing auch, aber die haben wenig mit den normalen Berechnungen zu tun.

Nein, FP16 läuft über die TensorCores. Und da Gaming-Ampere nur noch ein Core hat, erhält man bei FP16 die selbe Leistung.

grizu
2020-09-16, 23:29:56
24.9

https://www.tomshardware.com/news/nvidia-geforce-rtx-3090-ga102-everything-we-know

Thx dildo

Screemer
2020-09-16, 23:32:43
Die gab es in Turing auch, aber die haben wenig mit den normalen Berechnungen zu tun.
da konnte aber noch kein paraller fp16 double gleichzeitig drauf laufen. das geht bei ampere.

NC
2020-09-16, 23:38:49
Tensor Cores können jetzt alle Instruktionen die sonst FP16 waren? Dachte da läuft nur mul-accumulate drauf.

Mark3Dfx
2020-09-17, 07:21:10
Wer seine TI für ne 3080 verkauft hat sie sowieso nicht mehr alle.

Eine 3080 liegt gerade mal bestenfalls 15% vor meiner gut übertakteten Karte und hat 1GB weniger Speicher.

Heul leise, Melanie :comfort:
und nimm es wie ein Mann :biggrin:

Fakt ist:
Mann (Frau) bekommt für die Hälfte des Preises der Ti locker locker 30% (https://www.3dcenter.org/news/geforce-rtx-3080-launchreviews-die-testresultate-zur-ultrahd4k-performance-im-ueberblick) mehr Leistung.
Und wenn bei Anwendungen 10 GB VRAM nicht reichen hilft auch das eine GB mehr der ollen Ti nicht weiter ;)

BigBangBacket
2020-09-17, 07:45:45
Bezüglich CPU Limit. Igor sagte ja auch das selbst bei UHD eine stärkere CPU bei der 3080 von Nutzen sein kann. Die hat nunmal Leistung. Klar nicht mehr so stark wie in 1080p.
Aber nach eurer Theorie könnte man ja auch eine RTX 3090 mit einem 2500k von 2011 betreiben. Weil CPU ist da ja vollkommen egal🙄

Ich habe das Gefühl das die AMDler so getriggert sind durch den Test, das sie gleich den Reichstag stürmen wollen.

DrMabuse1963
2020-09-17, 07:47:03
Der X6 ist doch schneller, sollte auch mit 1GB weniger länger brauchen bis er voll ist...

Hübie
2020-09-17, 08:35:07
Ja, dachte ich auch. Dann hat sich im Whitepaper auf S. 15 ein Fehler eingeschlichen.

Müsste Concurrent RT + Compute statt Concurrent RT + Shading in der Tabelle sein.

Auf Seite 6 wurde es noch korrekt geschrieben:

In addition, the GA10x SM allows RT Core and graphics, or RT Core and
compute workloads to run concurrently, significantly accelerating many ray tracing operations.

Quelle: NVIDIA AMPERE GA102 GPU ARCHITECTURE, Page 6, "Second-Generation RT Core"

Interessant ist Seite 36 wo noch mal dargestellt wird, dass bei zu hohem Takt einfach nur die Performance sinkt, da es so lange retries gibt, bis die data transmission die korrekten CRC Werte liefert:

https://abload.de/img/2020-09-1708_36_45-nvmbjwj.png (https://abload.de/image.php?img=2020-09-1708_36_45-nvmbjwj.png)

Das hatten ja viele Reviewer getestet und aufgezeigt, dass die Performance sinkt. Schade dass keiner es geschafft hat, das Ding schon unter Wasser zusetzen, denn hier würde es interessant werden inwieweit die Temperatur Einfluss auf die Datenrate hat / hätte.

Radeonfreak
2020-09-17, 08:36:56
Heul leise, Melanie :comfort:
und nimm es wie ein Mann :biggrin:


Ich versuchs. :frown: *schnief*

igg
2020-09-17, 08:49:03
Den AMD-Fanboyz tun die Sitzknochen jetzt ordentlich weh...
Was glaubst du wieso sie scharenweise in den NV Threads zetern :D für AMD sieht es zappenduster aus, deren einzige (aber wie ich finde sehr berechtigte Hoffnung) ist Amperes Achillesferse, der RAM.

Zuli
2020-09-17, 08:49:38
Echt seltsam wieso selbst hier viele Enthusiasten auf Marketingversprechen reinfallen, siehe 2 Posts über mir mit der RAM Korrektur oder auch das Märchen der stark verbesserten Ray Tracing Leistung, welche im Endeffekt nur aus der gestiegenen Rohleistung resultiert.

Hier ein ganz nettes Video dazu: https://www.youtube.com/watch?v=Q6MfU9UicD8

Hübie
2020-09-17, 08:55:49
Was ist daran Marketing? :rolleyes: Statt abzustürzen sinkt nun die effektive Datenrate. Das funktioniert doch.

Was ebenfalls interessant ist:

For graphics workloads and async compute, GA10x will allocate 64 KB L1 data / texture cache
(increasing from 32 KB cache allocation on Turing), 48 KB Shared Memory, and 16 KB reserved
for various graphics pipeline operations.

The full GA102 GPU contains 10752 KB of L1 cache (compared to 6912 KB in TU102). In addition to increasing the size of the L1, GA10x also features double the shared memory bandwidth compared to Turing (128 bytes/clock per SM versus 64 bytes/clock in Turing). Total L1 bandwidth for GeForce RTX 3080 is 219 GB/sec versus 116 GB/sec for GeForce RTX 2080
Super.

Ich glaube seit Fermi war man auf 64byte/cycle reglementiert und es schien in Stein gemeißelt zu sein. Ich gehe davon aus, dass hier ein gutes Prozentual der Performancesteigerung zustande kommt.

pixeljetstream
2020-09-17, 09:18:53
Dieses Video ist symptomatisch für unsere Zeit. Erst wird Vertrauen suggeriert, dann mischt er ein paar generische Wahrheiten mit Theorien die er selbst nicht weiter ausführt oder belegt. Es gibt keine Analyse mit der er das untermauert. Und am Ende wird halt Konfliktpotential gesäht. Zur Absicherung das übliche "limited expertise". Einfach traurig. Es sollte auffallen, das diese Personen das worüber sie berichten nicht beruflich/professionell ausführen.

Hübie
2020-09-17, 09:24:04
Ich habe das Video wieder ausgemacht als ich in der Kommentarsektion das hier sah:

For all the questions on the leak of 128MB cache + 256 bit bus for "Big Navi", my longer analysis on it is here, free for all to access. https://www.patreon.com/posts/on-possibility-41614524

Wenn du Patron wirst, erhältst du sofort Zugriff auf 1 exklusiven Post

;D;D;D Wer hier wohl auf wessen Marketing hereinfällt...

BigBangBacket
2020-09-17, 09:26:14
Dieses Video ist symptomatisch für unsere Zeit. Erst wird Vertrauen suggeriert, dann mischt er ein paar generische Wahrheiten mit Theorien die er selbst nicht weiter ausführt oder belegt. Es gibt keine Analyse mit der er das untermauert. Und am Ende wird halt Konfliktpotential gesäht. Zur Absicherung das übliche "limited expertise". Einfach traurig.

Sehr gut.
Was haben damals alle Pascal gefeiert wegen des Leistungssprung. Heute haben wir mehr zum gleichen Preis aber die Leute meckern.

basix
2020-09-17, 09:34:13
Was haben damals alle Pascal gefeiert wegen des Leistungssprung. Heute haben wir mehr zum gleichen Preis aber die Leute meckern.

Bei Pascal gab es aber doppelten Speicher und/oder stark reduzierten Stromverbrauch mit dazu. Das ist der grosse Unterschied. Ausserdem liessen sich die Pascal Karten noch anständig OCen, das fällt bei Ampere anscheinend auch weg. HWUnboxed hat die 3080 FE auch mit der 1080 Ti verglichen: Ähnlicher Preis, -1GB, +75% Performance, 3.5 Jahre. Sooo gut ist das nicht. Nur wenn Raytracing oder DLSS zum Einsatz kommt (oder die IDTech Engines), dann ist Ampere viel besser.

Wie ich schon mal gesagt habe: Ampere gefällt von Seiten Performance, Perf/$ sowie Architektur & Features. Fällt aber stark ab bei Energieeffizienz und Speicherausbau.

pixeljetstream
2020-09-17, 09:39:54
Jeder darf meckern, jeder hat seine Gründe wenn er was nicht gut findet (und sei es nur die Farbe). Das sollte man keinem absprechen.
Aber hier wird versucht technisch zu argumentieren um eine pseudo Objektivität vorzugaukeln. Es springt doch ins Auge dass keiner der Arm Chair GPU architects sich die Mühe macht die GPU Analyse Tools der Hersteller zu benutzen oder selbst fähig sind die APIs zu nutzen. Damit ist doch eigentlich klar, dass die Personen kein Interesse an echter Expertise haben und es nur um Meinungsmache geht.

ShinyMcShine
2020-09-17, 09:45:42
Jeder darf meckern, jeder hat seine Gründe wenn er was nicht gut findet (und sei es nur die Farbe). Das sollte man keinem absprechen.
Aber hier wird versucht technisch zu argumentieren um eine pseudo Objektivität vorzugaukeln. Es springt doch ins Auge dass keiner der Arm Chair GPU architects sich die Mühe macht die GPU Analyse Tools der Hersteller zu benutzen oder selbst fähig sind die APIs zu nutzen. Damit ist doch eigentlich klar, dass die Personen kein Interesse an echter Expertise haben und es nur um Meinungsmache geht.

+1

NC
2020-09-17, 09:53:46
Was ebenfalls interessant ist:



Ich glaube seit Fermi war man auf 64byte/cycle reglementiert und es schien in Stein gemeißelt zu sein. Ich gehe davon aus, dass hier ein gutes Prozentual der Performancesteigerung zustande kommt.
Hatte das Kepler nicht auch verdoppelt gehabt?

basix
2020-09-17, 10:07:36
Jeder darf meckern, jeder hat seine Gründe wenn er was nicht gut findet (und sei es nur die Farbe). Das sollte man keinem absprechen.
Aber hier wird versucht technisch zu argumentieren um eine pseudo Objektivität vorzugaukeln. Es springt doch ins Auge dass keiner der Arm Chair GPU architects sich die Mühe macht die GPU Analyse Tools der Hersteller zu benutzen oder selbst fähig sind die APIs zu nutzen. Damit ist doch eigentlich klar, dass die Personen kein Interesse an echter Expertise haben und es nur um Meinungsmache geht.

Die meisten YouTuber dieses Metiers schwatzen viel den ganzen Tag ohne viel Substanz. Und bei Themen mit viel "Konfliktpotential" erhält man die meisten Klicks, und diese Klicks bestimmen deren Einkommen. Also schwatzt man sich solche Themen zusammen. Aus deren Sicht machen solche Videos logischerweise Sinn (=ich verdiene mehr). Es muss nicht einmal zwingend sein, dass sie ihr Gelaber selbst glauben.

MasterElwood
2020-09-17, 10:16:29
Ausserdem liessen sich die Pascal Karten noch anständig OCen, das fällt bei Ampere anscheinend auch weg.

Nur bei der FE wegen der geringen Größe.

Igor hat extra angeteasert dass bei Customs bei OC richtig was abgeht.

MasterElwood
2020-09-17, 10:17:26
Wann genau ist jetzt Verkaufsstart? 15 Uhr?

Und wann genau fällt NDA für Customs? Auch 15 Uhr?

Hübie
2020-09-17, 10:30:47
Hatte das Kepler nicht auch verdoppelt gehabt?

Nicht, dass ich wüsste. Allerdings kann ich mich hier irren, da es im Whitepaper heißt:

The L2 cache on Kepler offers up to 2x of the bandwidth per clock available in Fermi.

Allerdings up to... Hm :uponder:

Dural
2020-09-17, 10:34:06
Ich glaube ja.

Ich bin mir noch unschlüssig welche ich mir hole, eigentlich möchte ich einen vollen GA104 mit 16GB Speicher, aber das wird noch dauern und ob die überhaupt jemals kommt.

Preis/Leistung wird die 3080 klar am besten sein.

Schwierig, ich möchte jetzt eine Ampere Karte, aber ich komme mit beschnittenen Chips nicht klar :freak:

Hübie
2020-09-17, 10:44:45
Das ist ja nur Kopfsache mit der Beschneidung. Den full fat sehen wir erst nächstes Jahr, wenn der Prozess stabil ist und die yieldrate sich entsprechend eingependelt hat. Ob für consumer stell ich mal dahin...
Mich hält nur eine einzige Sache ab, den Bestellknopf zu drücken: 10 GB! :redface:

Da ich ja künftig auch mit image recognigiton arbeite turnt mich das noch mehr ab, als rein für's Gaming... Das war mal ein echter Fail, von NVIDIA. Die Nachricht, dass man sich der Problematik bewusst sei, lässt mich dennoch hoffen und ich bete, dass die es nicht allein von AMD abhängig machen. Denn wenn die es verkacken, kann ich einpacken. :freak:

ShinyMcShine
2020-09-17, 10:47:37
Ich bin mir noch unschlüssig welche ich mir hole, eigentlich möchte ich einen vollen GA104 mit 16GB Speicher, aber das wird noch dauern und ob die überhaupt jemals kommt.

Preis/Leistung wird die 3080 klar am besten sein.

Schwierig, ich möchte jetzt eine Ampere Karte, aber ich komme mit beschnittenen Chips nicht klar :freak:

Es wird spätestens nächstes Jahr was Neues geben. NV wird den GA104 bestimmt in einem Refresh (ähnlich Turing bei 2080 Super) voll ausfahren. Warum sollten sie das nicht tun? Gibt dann neue Karten und alle sind happy. Auch Mehrspeicher wird bestimmt kommen, wenn AMD mit 12 und 16GB daherkommt. Da kann NV doch nicht zurückstecken. Evtl. machen das halt die Partner und schon ist das Problem gelöst!

Ich mag auch keine beschnittenen Chips. Kann mir aber das Warten leisten, da ein neues System (siehe Sig) 'eh erst mit einem Zen 3 geplant ist. Und sollte es bis dahin noch keine Gerüchte/Infos über einen vollen GA104 mit 16GB geben, kommt erstmal die 1080 in's neue System.

Hübie
2020-09-17, 10:50:32
Du hast ernsthaft dein nächstes System in der Sig :confused::freak::ucrazy2:

ShinyMcShine
2020-09-17, 10:55:27
Du hast ernsthaft dein nächstes System in der Sig :confused::freak::ucrazy2:

Warum nicht? Das ist halt Work in Progress...
Jeder kann sein momentanes System in die Sig schreiben. Man muss auch mal was anderes machen... ;D

basix
2020-09-17, 10:59:17
Nur bei der FE wegen der geringen Größe.

Igor hat extra angeteasert dass bei Customs bei OC richtig was abgeht.

Bezüglich Performance und vor allem Verbrauch bin ich da skeptisch. Bei CB haben sie bei -50W PL gerade mal -5% Leistung gemessen. Wenn da also eine deutlich Mehrleistung von denn Customs kommt, dann kann das fast nur über einen deutlichen Mehrverbrauch kommen (400W?).

MasterElwood
2020-09-17, 11:11:36
Bezüglich Performance und vor allem Verbrauch bin ich da skeptisch. Bei CB haben sie bei -50W PL gerade mal -5% Leistung gemessen. Wenn da also eine deutlich Mehrleistung von denn Customs kommt, dann kann das fast nur über einen deutlichen Mehrverbrauch kommen (400W?).

Dachte bremst das Templimit. Whatever - in paar Stunden wissen wir mehr.

Ps: die 5% (dachte es waren 4?) weniger sind ein guter Deal dafür dass das Ding dann auch ne Ecke kühler und leiser wird :-)

gbm31
2020-09-17, 11:12:44
370W mit entsprechender Kühlung. So daß das auch als Takt effektiv ankommt und auch bei längerer Last bleibt.


Aber ehrlich: trotz angenehmem Preis und vorhandenem Leistungssprung kein Kauf.

Unschön: die Leistungsaufnahme. Meine VII darf sich von mir gebremst nicht mehr als 250W genehmigen, und das tut schon weh.

Nogo: 10GB. Sorry, aber geplante Obsoleszenz in Reinform. Lieber auf den Refresh warten bzw schauen was AMD bringt.

w0mbat
2020-09-17, 11:13:25
Warum nicht? Das ist halt Work in Progress...
Jeder kann sein momentanes System in die Sig schreiben. Man muss auch mal was anderes machen... ;D
Und dann nicht mal ne PCIe Gen4 SSD :biggrin:

ShinyMcShine
2020-09-17, 11:15:33
Und dann nicht mal ne PCIe Gen4 SSD :biggrin:

As I said: Work In Progress. Ich bin mir auch nicht sicher, ob ich den Aufpreis für PCIe4 bereit bin zu zahlen. Darum wird es wohl erst mal Gen 3 und dann in ein paar Jahren Gen 4. Genug OT...

Zergra
2020-09-17, 11:17:09
As I said: Work In Progress. Ich bin mir auch nicht sicher, ob ich den Aufpreis für PCIe4 bereit bin zu zahlen.


Die 980 Pro wurde aber schon mal angekündigt.... die 3070TI gibt es genau so wenig.

ShinyMcShine
2020-09-17, 11:18:03
Ist meine Sig wirklich so wichtig für Euch? :rolleyes:

Nazar
2020-09-17, 11:21:41
Erstaunlich, wie schnell der Mensch doch vergessen kann. :biggrin:

Dieselbe Person:

vor dem Release: "Was, die 30XX Serie soll nur 45% schneller als die 2080Ti sein?" Das glaubst du doch selber nicht. Min. 50% aber 70% werden die sich schon in vielen Spielen absetzen absetzen. Und bei RT wird es mindestens eine doppelte Leistungssteigerung geben. Freue mich jetzt schon die RT Spiele mit max RT, in 4K, nicht unter 60 FPS spielen zu können."

jetzt: "WoW was ein Hammer. nVidia hat geliefert. die 3090 wird 45% schneller als eine gute OC 2080TI sein und nur 80+ Watt mehr verbrauchen und (Achtung, aufpassen) die 3080 kostet >>>nur<<< 700€."

Natürlich darf man träumen und auch rumspinnern ;) aber was in diesem Thread an Selbstverleugnung abgeht, wäre in der "freien Wildbahn" ein Fall für "die Männer mit der Jacke". ;D

Da wird doch allen ernstes nur die 3080 vom Preisleistungsverhältnis gegen die 2080Ti gestellt? What? :freak:
1 GiB VRAM weniger als die 2080Ti und weniger als 20% Vorsprung bei 95% aller Spiele? Gegenüber meiner 2080Ti OC versus 3080 OC sind es sogar nur 15%.
Wow, nVidia hat die/meine 2080Ti nach 2 Jahren um 15% geschlagen für 700 Flocken. Ja, da haben sie wohl eine "Bombe" platzen lassen..... ;D
Eine 1070ti schlug die 980ti um 15% (OC versus OC) und kostete beim Verkaufsstart nur 470€ versus 720€... OMG... was für eine "Bombe". :eek:

Also, wenn man ehrlich ist, dann muss die 2080Ti mit der 3090 verglichen werden und nicht mit der 3080. Es gibt genügend Beispiel, dass dieser Performancesprung, für den Startpreisunterschied, schon öfter vorgekommen ist.
Man gewinnt in diesem Thread den Eindruck, dass mit allen Mitteln, die 3090 mit den 1500€+ Preispunkt aus dem Blickfeld genommen werden soll, obwohl diese eindeutig nur als Nachfolger für dei 2080Ti angesehen werden kann und so auch von der Lederjacke Präsentiert wurde.
Wie wäre es, wenn man mal ein wenig objektiver an die Sache rangeht und sich selbst gegenüber ehrlich wird?

Edit:
https://www.pcwelt.de/news/Erste-Benchmarks-Geforce-RTX-2080-Ti-vs.-GTX-1080-Ti-10450972.html

Eine 2080Ti war im Time Spy Extreme 98% schneller als eine 1080ti.

Ehrlich sein (besonders sich selbst gegenüber ;))!
Nur mal so als Vorschlag. :wink:

basix
2020-09-17, 11:32:34
Ps: die 5% (dachte es waren 4?) weniger sind ein guter Deal dafür dass das Ding dann auch ne Ecke kühler und leiser wird :-)

Natürlich ist es das ;) Inkl. etwas OC+Undervolting käme man wohl wieder auf Ursprungsperformance bei deutlich reduziertem Verbrauch. Oben raus scheint Ampere aber sehr durstig zu sein. Das ist bei Turing ja auch so. Die letzten 5% Performance gehen extrem auf Kosten der Energieeffizienz.

Lawmachine79
2020-09-17, 11:39:17
Alotta Whining
Heul' doch und kauf' Dir eine AMD-Karte. Niemand zwingt dich NV zu kaufen. Lass uns doch in unsere Verblendung verblöden und NV die Kohle in den Rachen werfen. Du kannst Dir dann Deine AMD-Karte holen und rufen "Macht's gut Ihr Idioten!" Das was Du schreibst ist nicht das, was die Testberichte kommentieren.

mironicus
2020-09-17, 11:43:10
Jetzt fehlen noch Berichte über Untervolting und TDP-Begrenzung als auch die daraufhin reduzierte Lautstärke. :)

Screemer
2020-09-17, 11:43:57
Heul' doch und kauf' Dir eine AMD-Karte. Niemand zwingt dich NV zu kaufen. Lass uns doch in unsere Verblendung verblöden und NV die Kohle in den Rachen werfen. Du kannst Dir dann Deine AMD-Karte holen und rufen "Macht's gut Ihr Idioten!" Das was Du schreibst ist nicht das, was die Testberichte kommentieren.

Kein Wort von amd im post und nach dazu 2080ti Besitzer. Much hurt.

BlacKi
2020-09-17, 11:44:30
Erstaunlich, wie schnell der Mensch doch vergessen kann. :biggrin:

Dieselbe Person:

vor dem Release: "Was, die 30XX Serie soll nur 45% schneller als die 2080Ti sein?" Das glaubst du doch selber nicht. Min. 50% aber 70% werden die sich schon in vielen Spielen absetzen absetzen. Und bei RT wird es mindestens eine doppelte Leistungssteigerung geben. Freue mich jetzt schon die RT Spiele mit max RT, in 4K, nicht unter 60 FPS spielen zu können."

jetzt: "WoW was ein Hammer. nVidia hat geliefert. die 3090 wird 45% schneller als eine gute OC 2080TI sein und nur 80+ Watt mehr verbrauchen und (Achtung, aufpassen) die 3080 kostet >>>nur<<< 700€."


ich gehe nach wie vor davon aus das die 3090 55% schneller wird als die 2080ti. halt in non cpu limitierten szenarien. wenn man die nämlich rausnimmt, dann liegt man ziemlich genau bei 1.35 ggü. der standard 2080ti. rechnet man konservativ x1,15, liegt man genau bei +55%. weißt du warum du keine zitate dafür hergenommen hast? weils die einfach nicht gibt^^

basix
2020-09-17, 11:46:00
An alle zukünftigen 3080 / 3090 Besitzer:
Könnt ihr bitte via OC und Undervolting die Effizienzkurve aufzeichnen? Anbei meine Referenzwerte der 2080 Ti bei 4K Superposition Bench und Vergleichswerte von Daredevil hier aus dem 3DC Forum. Und falls jemand die 1.55 GHz Durchschnittstakt am Sweet Spot belächeln will - in 1440p und den meisten Spielen bewegt sich der Takt im Schnitt zwischen 1.70...1.75 GHz ;)

Troyan
2020-09-17, 11:47:14
Laut nVidia 50% zur Titan RTX. Und die ist ~5% schneller als die 2080TI. Am landet man also bei ~60% zur 2080TI.

Hübie
2020-09-17, 11:48:12
Erstaunlich, wie schnell der Mensch doch vergessen kann. :biggrin:

Dieselbe Person:

vor dem Release: "Was, die 30XX Serie soll nur 45% schneller als die 2080Ti sein?" Das glaubst du doch selber nicht. Min. 50% aber 70% werden die sich schon in vielen Spielen absetzen absetzen. Und bei RT wird es mindestens eine doppelte Leistungssteigerung geben. Freue mich jetzt schon die RT Spiele mit max RT, in 4K, nicht unter 60 FPS spielen zu können."

jetzt: "WoW was ein Hammer. nVidia hat geliefert. die 3090 wird 45% schneller als eine gute OC 2080TI sein und nur 80+ Watt mehr verbrauchen und (Achtung, aufpassen) die 3080 kostet >>>nur<<< 700€."

Natürlich darf man träumen und auch rumspinnern ;) aber was in diesem Thread an Selbstverleugnung abgeht, wäre in der "freien Wildbahn" ein Fall für "die Männer mit der Jacke". ;D

Da wird doch allen ernstes nur die 3080 vom Preisleistungsverhältnis gegen die 2080Ti gestellt? What? :freak:
1 GiB VRAM weniger als die 2080Ti und weniger als 20% Vorsprung bei 95% aller Spiele? Gegenüber meiner 2080Ti OC versus 3080 OC sind es sogar nur 15%.
Wow, nVidia hat die/meine 2080Ti nach 2 Jahren um 15% geschlagen für 700 Flocken. Ja, da haben sie wohl eine "Bombe" platzen lassen..... ;D
Eine 1070ti schlug die 980ti um 15% (OC versus OC) und kostete beim Verkaufsstart nur 470€ versus 720€... OMG... was für eine "Bombe". :eek:

Also, wenn man ehrlich ist, dann muss die 2080Ti mit der 3090 verglichen werden und nicht mit der 3080. Es gibt genügend Beispiel, dass dieser Performancesprung, für den Startpreisunterschied, schon öfter vorgekommen ist.
Man gewinnt in diesem Thread den Eindruck, dass mit allen Mitteln, die 3090 mit den 1500€+ Preispunkt aus dem Blickfeld genommen werden soll, obwohl diese eindeutig nur als Nachfolger für dei 2080Ti angesehen werden kann und so auch von der Lederjacke Präsentiert wurde.
Wie wäre es, wenn man mal ein wenig objektiver an die Sache rangeht und sich selbst gegenüber ehrlich wird?

Edit:
https://www.pcwelt.de/news/Erste-Benchmarks-Geforce-RTX-2080-Ti-vs.-GTX-1080-Ti-10450972.html

Eine 2080Ti war im Time Spy Extreme 98% schneller als eine 1080ti.

Ehrlich sein (besonders sich selbst gegenüber ;))!
Nur mal so als Vorschlag. :wink:

Zitate bitte immer mit Quellen belegen, sonst klingt es so als würdest du es dir aus den Fingern saugen bzw. deiner subjektiven Wahrnehmung erliegen.

Das Ergebnis finde ich nicht schlecht:

https://abload.de/img/2020-09-1711_45_17-wixaj8m.png (https://abload.de/image.php?img=2020-09-1711_45_17-wixaj8m.png)

Für 700 Euro bekommt man ein faires Angebot und eine Menge Leistung. Man kann natürlich auch alles mies machen, was man vorgesetzt bekommt - gar keine Frage. :wink:

Daredevil
2020-09-17, 11:50:29
An alle zukünftigen 3080 / 3090 Besitzer:
Könnt ihr bitte via OC und Undervolting die Effizienzkurve aufzeichnen? Anbei meine Referenzwerte der 2080 Ti bei 4K Superposition Bench und Vergleichswerte von Daredevil hier aus dem 3DC Forum. Und falls jemand die 1.55 GHz Durchschnittstakt am Sweet Spot belächeln will - in 1440p und den meisten Spielen bewegt sich der Takt im Schnitt zwischen 1.70...1.75 GHz ;)
Ich order mir heute ne 3080, da mach ich den ganzen Spaß nochmal und teste Superpos 4K durch. Die 2080ti kommt dann zwischenzeitlich ins Mining Rig. :freak:

Sehr cool btw., wie grafisch du das dargestellt hast!

RLZ
2020-09-17, 11:51:18
Erstaunlich, wie schnell der Mensch doch vergessen kann. :biggrin:
Da war halt viel Schönreden und Schlechtreden vorher dabei.

Als TI Käufer ist diese Generation bisher nicht toll. Vielleicht kommt noch eine 3080Ti, aber die wird auch nicht prickelnd.

Für einen 80er Käufer ist diese Generation von der Leistung her toll. Nachteile sind Stromaufnahme und Speicher. Beides aber für viele kein Dealbreaker. Alle anderen Modelle interessieren den Käufer nicht. Keine bisher fehlende TI, keine 3090/Titan, keine 3060. Keine Die-Size oder Transistorcount.

Meine Meinung zu Stromaufnahme ist da wohl auch etwas aus der Reihe. Umso höher der Preis der Karte wird, desto weniger relevant halte ich den Stromverbrauch. Was eine Titan oder 3090 zieht? Egal. Da gehts um Leistung um jeden Preis. Wenn allerdings die karten untendrunter entsprechend hochrutschen, ist das unschön. Allerdings auch eine Folge von Wettbewerb.

Die Bewertung der Generation ist von Einzelmodellen unabhängig. Einzelne Modelle können toll sein (wir kennen erst die 3080), aber trotzdem die Generation schlecht.

basix
2020-09-17, 11:53:48
Ich order mir heute ne 3080, da mach ich den ganzen Spaß nochmal und teste Superpos 4K durch. Die 2080ti kommt dann zwischenzeitlich ins Mining Rig. :freak:

Sehr cool btw., wie grafisch du das dargestellt hast!

:up:

Roak
2020-09-17, 11:56:29
Amazon hat 3 EVGA 3080 seit heute morgen online. Preis war bisher bei 2.600, Platzhalter. Wurde vorhin aktualisiert und geht von 790, Bestellung ist möglich. Aber nichts zum Bestand und Lieferung.

https://www.amazon.de/s?k=3080+nvidia&s=date-desc-rank&__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&qid=1600336370&ref=sr_st_date-desc-rank

Daredevil
2020-09-17, 12:02:04
Amazon hat 3 EVGA 3080 seit heute morgen online. Preis war bisher bei 2.600, Platzhalter. Wurde vorhin aktualisiert und geht von 790, Bestellung ist möglich. Aber nichts zum Bestand und Lieferung.

https://www.amazon.de/s?k=3080+nvidia&s=date-desc-rank&__mk_de_DE=%C3%85M%C3%85%C5%BD%C3%95%C3%91&qid=1600336370&ref=sr_st_date-desc-rank
Wie zum Himmel findest du diese Karten über die Suche? Ich bin da blöde für irgendwie.